science de la Terre : discipline qui étudie la structure, la composition, l'évolution et les processus des systèmes terrestres, incluant la géologie, la météorologie, l'océanographie et l'écologie.
La science de la Terre permet de mieux comprendre les changements climatiques et leurs impacts sur notre planète.
Les géologues, en tant qu'experts en science de la Terre, analysent les roches pour déduire l'histoire de la Terre.
La science de la Terre est essentielle pour la gestion des ressources naturelles et la prévention des catastrophes environnementales.