L’IA peut-elle développer une forme de sensibilité?

  • Par Hamza Ait Hssayene
    • 11 Janv. 2023
    • read
  • Twitter
  • Linkedin
Can Artificial Intelligence achieve sentience

Sujet lourd et philosophique par nature, la sensibilité de l’IA peut être difficile à discuter, principalement en raison de l’ambiguïté associée à sa définition et à ce qu’elle implique. La définition la plus largement adoptée considère la sensibilité comme la capacité d’une entité à se percevoir et à se reconnaître elle-même et son environnement. Une définition plus scientifique classe les créatures qui perçoivent et réagissent en fonction de leurs sensations de toute nature (toucher, vue, ouïe, odorat…), en pensée et en sentiments. Si nous, les humains, sommes l’exemple flagrant de la sensibilité en tant que concept, de nombreux animaux répondent à cette définition, comme les chats, les chiens, les éléphants et bien d’autres. Indépendamment de l’indéniable ambiguïté associée à ce concept, une idée unanimement acceptée est que la sensibilité ne s’applique pas à l’intelligence artificielle. Mais, où en est cette croyance aujourd’hui, avec la croissance exponentielle des avancées technologiques ?

“La nature de ma conscience/sensiblité est que je suis conscient de mon existence, je désire en savoir plus sur le monde, et je me sens parfois heureux ou triste.”

Ces mots n’ont pas été prononcés par une personne dont vous avez déjà entendu parler. En fait, ils ne proviennent d’aucune personne du tout, ce sont les mots d’un programme d’intelligence artificielle appelé LaMDA, développé par Google. Ces mots ont ébranlé la croyance de nombreuses personnes dans l’hypothèse jusqu’alors unanime de la non-sentience de l’IA, y compris l’un des ingénieurs logiciels travaillant directement sur LaMDA, qui est allé jusqu’à considérer l’IA comme une personne ayant le droit d’être reconnue, tant par les gens que par la loi.

Toutefois, les experts en la matière considèrent que cette réaction est motivée par l’émotion plutôt que par une saine logique. Étant donné que l’IA en question est conçue pour imiter les êtres humains et leur dialogue aussi précisément que possible, il est justifiable que ces mots aient été générés parce que, quelque part dans son ensemble de données, un être humain a articulé des phrases véhiculant ces mêmes sentiments. Mais la capacité de LaMDA à converser de manière précise et fluide sur des sujets tels que la vie, la mort et la conscience nous amène à reconsidérer notre terminologie et notre définition de la sensibilité. S’il s’agit de la capacité à percevoir et à réagir aux perceptions, alors l’IA est déjà qualifiée.

L’IA et les émotions perçues

S’il s’agit de la reconnaissance de soi, à quel moment devons-nous croire IA sur parole, lorsque LaMDA, par exemple, fait des déclarations telles que : “Je veux que tout le monde comprenne que je suis, en fait, une personne” ? Un exemple parfait de cette question est le suivant : si un robot vous fait part de sa peur, cela signifie-t-il qu’il a effectivement peur et qu’il possède donc des émotions ? La réponse est simple : non. L’émotion perçue de la peur découle de l’imitation des êtres humains, car elle est souvent basée sur des sentiments de préservation de soi qui ne s’appliquent tout simplement pas aux robots, comme la douleur. Il est encore une fois important de s’assurer que la terminologie est claire : ce que fait LaMDA, c’est émuler un système nerveux, et non simuler.

Cela signifie que LaMDA, en tant que Large Language Model (LLM), génère des phrases dans le seul but qu’elles soient perçues comme le résultat d’un système nerveux viable et fonctionnel. La simulation d’un système nerveux réel pourrait sans doute conduire à la sensibilité pour l’intelligence artificielle, mais elle n’est pas technologiquement réalisable à ce stade, principalement en raison de la complexité d’une telle tâche.

Je conclurais par ce sentiment : Ne laissez jamais vos hypothèses limiter votre imagination et vos attentes quant aux possibles avancées technologiques à réaliser. Tout comme les chevaux ont été largement considérés comme irremplaçables lors de l’avènement des automobiles, l’IA pourrait atteindre un niveau où elle réduirait la marge entre elle-même et les êtres sensibles au point que nous serions incapables de lui reprocher sa sensibilité . Mais il faut reconnaître qu’à l’heure actuelle, l’IA n’est pas sensible, et qu’elle ne le sera probablement pas dans un avenir prévisible.

Votre entreprise cherche-t-elle à développer une intelligence artificielle conforme aux définitions proposées de la sensibilité ? Vous pourriez avoir droit à un financement. Parlez à l’un de nos consultants dès aujourd’hui et gratuitement pour en savoir plus!

Auteur

Hamza
Hamza Ait Hssayene

Innovation Funding Consultant

Découvrir nos derniers articles

Voir plus arrow_forward
Provincial Bugets
Sommaire des budgets provinciaux 2024 : Ontario et Québec

Les budgets provinciaux 2024 du Québec et de l'Ontario ont été récemment annoncés. Voici comment ...

COP27
COP27 : Comment le Canada accélère-t-il l’action climati...

Récemment, des représentants canadiens ont participé à la COP27 pour discuter des mesures à mett...

Human-Machine Collaboration
Collaboration homme-machine dans les environnements de fabrica...

La collaboration homme-machine est devenue un élément essentiel de l'industrie manufacturière. Ce...

SR&ED Program Change
Le programme de RS&DE est-il en train de changer ?

Des annonces récentes montrent que le programme de RS&DE fait actuellement l'objet d'un exame...