Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

Carte de visite

Cours universitaires et travaux de recherche sur les questions d'apprentissage des jeunes et des adultes, science du développement humain, sciences du travail, altérités et inclusion, ressources documentaires, coaching et livres, créativités et voyages. Philippe Clauzard : MCF retraité (Université de La Réunion), auteur, analyste du travail et didacticien - Tous les contenus de ce blog sont sous licence Creative Commons.  

SITES PARTENAIRES

https://didactiqueprofessionnelle.ning.com/

https://didapro.me/

https://theconversation.com/fr

LICENCE CREATIVE COMMONS BY-CN-SA

Tous les contenus de ce blog sont sous licence Creative Commons. Vous pouvez les reproduire, les distribuer ou les communiquer à condition : de citer l'auteur ; de ne pas en faire d'utilisation commerciale ; d'appliquer ces mêmes conditions à toute création qui résulterait d'une modification, transformation ou adaptation d'éléments tirés de ce blog

Pages

Qu’est-ce que la cognition ?
Béatrice Degraeve, Institut catholique de Lille (ICL)

Comment l’esprit prend-il des décisions ? Que se passe-t-il dans notre cerveau lorsque nous apprenons ? Comprendre ce qui se cache derrière le mot cognition aide à répondre à ces questions, à affronter des enjeux de santé publique et à interroger les limites de notre humanité à l’heure où se développe l’intelligence artificielle.


Quand on parle de cognition, on évoque souvent des domaines complexes comme la psychologie, les neurosciences, voire l’intelligence artificielle. Mais qu’est-ce que la cognition, au juste ?

Dit simplement, c’est ce qui se passe dans notre tête quand on comprend, qu’on apprend, qu’on prend une décision. C’est une sorte de « laboratoire intérieur » où chaque pensée, souvenir ou perception s’élabore. En d’autres termes, c’est l’ensemble des mécanismes qui nous permettent de traiter l’information autour de nous.

Le terme cognition vient du latin « cognitio », signifiant « connaissance ». D’abord employé en philosophie pour parler des mécanismes de la pensée humaine, il a été repris au XXe siècle par les psychologues pour explorer les fonctions cognitives du cerveau, et finalement par les neurosciences, qui cherchent aujourd’hui à « cartographier » ce laboratoire intérieur, région par région.

À l’heure où l’intelligence artificielle cherche à imiter nos capacités mentales, comprendre la cognition humaine est essentiel. Que signifie « penser » ? Comment l’esprit prend-il des décisions ? Et comment l’apprentissage s’effectue-t-il, qu’il soit humain ou artificiel ?

Les enjeux derrière la cognition aujourd’hui

La cognition est au cœur de notre quotidien : lorsque nous lisons un livre, notre cerveau utilise des processus cognitifs pour décoder les lettres, donner un sens aux mots et comprendre des idées abstraites. Derrière le volant, notre attention, notre mémoire et notre coordination fonctionnent ensemble pour prendre des décisions en quelques secondes.

Notre cognition nous permet ainsi d’accomplir des tâches simples et complexes, souvent sans que nous en soyons conscients.

Dans le domaine de l’éducation, des chercheurs comme Stanislas Dehaene (auteur de La Bosse des maths ou Apprendre à lire : des sciences cognitives à la salle de classe), ont montré que certaines stratégies cognitives sont plus efficaces que d’autres pour apprendre. Savoir que l’attention fonctionne par cycles et que la répétition espacée consolide mieux les souvenirs peut aider à repenser la façon dont on enseigne.

Les neurosciences et la psychologie cognitive s’intéressent aussi à la prise de décision, un autre aspect fondamental de la cognition. Des chercheurs comme Daniel Kahneman (auteur de Thinking, Fast and Slow) ont montré que notre cerveau utilise des raccourcis mentaux, appelés biais cognitifs, pour traiter l’information rapidement.

Bien que ces biais soient parfois utiles, ils peuvent aussi mener à des erreurs, en renforçant par exemple des préjugés ou en nous poussant à privilégier des solutions rapides mais imparfaites. Ce champ d’études aide ainsi à comprendre comment nos jugements peuvent parfois être manipulés ou pourquoi nous agissons parfois contre notre propre intérêt.

Cognition : des défis pour l’avenir

Étudier la cognition, c’est aussi mieux comprendre les défis que posent certaines pathologies pour mieux les prendre en charge demain. Les troubles neurocognitifs, comme la maladie d’Alzheimer, impactent notamment la mémoire et l’orientation spatiale, des fonctions essentielles à notre autonomie.

Grâce aux avancées scientifiques, il devient possible de détecter ces troubles plus tôt et d’imaginer des interventions mieux ciblées, qu’il s’agisse de prise en charge ou d’aménagements adaptés, pour préserver la qualité de vie des patients.

[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]

Dans un autre registre, la cognition inspire aujourd’hui les nouvelles technologies, notamment l’intelligence artificielle (IA). En modélisant les mécanismes de pensée humaine, l’IA cherche à reproduire nos capacités de raisonnement, d’apprentissage et de prise de décision. Ces innovations promettent de révolutionner de nombreux domaines, mais elles posent aussi une question fondamentale : jusqu’où l’IA peut-elle imiter, ou même dépasser, notre esprit ?

Comprendre la cognition, c’est donc à la fois un moyen de répondre aux enjeux de santé publique mais aussi une façon d’explorer les limites de notre humanité. Après tout, c’est en la comprenant mieux que nous pourrons peut-être penser différemment demain.The Conversation

Béatrice Degraeve, Enseignant-Chercheur en Neuropsychologie, Institut catholique de Lille (ICL)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Depuis quelques années, les biais cognitifs suscitent un intérêt croissant dans des domaines aussi divers que le management, le recrutement, la finance, la médecine ou encore la justice.

Les biais cognitifs sont des raccourcis mentaux appelés heuristiques qui s’avèrent erronés dans certains contextes. Par exemple, prédire le futur à partir du passé est une heuristique assez valide lorsqu’il s’agit d’anticiper la météo de demain ou les choix de consommateurs. En revanche, elle devient un biais dès que l’on franchit les portes d’un casino. Cette heuristique nous fait par exemple croire qu’à la roulette, la couleur rouge a plus de chances de tomber si la couleur noire est tombée plusieurs fois d’affilée, un biais cognitif appelé « l’erreur du joueur ».

Il est toujours satisfaisant de voir un concept issu de la recherche scientifique avoir un tel impact sociétal. En publiant L’erreur est humaine à CNRS Éditions en 2018, j’ai d’ailleurs contribué à faire connaître les biais cognitifs auprès du grand public. Je constate cependant que trois fausses idées reviennent de façon récurrente dans les nombreux articles de vulgarisation sur les biais. Essayons de « débunker » ces trois mythes qui, au regard des travaux de recherche, sont approximatifs, voire carrément faux.

(...)

Les biais cognitifs sont trop souvent résumés par une longue liste à la Prévert d’erreurs universelles plus ou moins inévitables. Cette image simplificatrice est parfois utilisée par certaines entreprises comme constat préliminaire pour vendre leur solution : les décisions humaines étant affectées par des biais, il faut les augmenter voire les remplacer par des solutions technologiques. Pourtant, l’essor de l’IA ne doit pas exclure l’amélioration de l’intelligence humaine, qui passe par la maîtrise de ses biais cognitifs.

Les interfaces entre cerveaux humains et ordinateurs se développent, poussées par les progrès technologiques, les avancées de l’intelligence artificielle et les promesses d’utilisations médicales. Au point de faire craindre une future commercialisation de nos pensées les plus intimes. Mais peut-on réduire nos pensées à un ensemble de données collectées par des neurotechnologies ? Est-il souhaitable que l’on puisse un jour vendre nos données cérébrales ?

Les neurotechnologies sont des dispositifs qui font l’interface entre le cerveau et des machines. Ils sont au départ élaborés à des fins médicales.

L’utilisation des neurotechnologies dans le secteur médical est aujourd’hui en voie d’être encadrée, par exemple en France, en ce qui concerne l’imagerie cérébrale, en Europe et, plus largement, dans le monde, par une éthique médicale commune. Si cet encadrement reste à approfondir, en particulier en raison de ses liens avec l’intelligence artificielle (IA), il faut souligner que les utilisateurs et leurs « données cérébrales » ne sont plus juridiquement et éthiquement protégés dans le cadre d’utilisations non médicales.

Pourtant, des neurotechnologies sont déjà commercialisées auprès du grand public en bonne santé, par exemple dans l’éducation et le bien-être, ou développées dans le cadre de projets de jeux vidéo (pour l’instant non commercialisé) et dans le domaine du travail.

De plus, ces dispositifs sont d’ores et déjà conçus pour apprendre à décrypter nos pensées — qui reste aujourd’hui un objectif à long terme. Ceci laisse craindre que la commercialisation de données cérébrales permette d’influencer, de manipuler ou d’assujettir les humains.

Pour être informé des derniers articles, inscrivez vous :