Des journaux de partout dans le monde reprennent mercredi une déclaration d'experts en intelligence artificielle et de leaders dans le secteur qui n'y vont pas de main morte. Ils soutiennent que l'Intelligence artificielle représente un risque plus important que le nucléaire, la guerre ou les pandémies pour l'humanité.
Ces spécialistes craignent que l’IA devienne un risque d'extinction pour l’humanité et de plus en plus de voix s’élèvent pour exposer des craintes face à l’IA.
Devrait-on s’inquiéter?
Écoutez la professeure d'éthique organisationnelle au HEC Montréal, Joé T. Martineau, aborder la question en compagnie de Luc Ferrandez.
«C'est sûr que ce sont des mots qui font peur un peu, mais ça fait quand même un certain temps que dans la communauté de la recherche sur les enjeux éthiques de l'intelligence artificielle, quand on réfléchit aux enjeux existentiels de l'intelligence artificielle, en effet. Donc ce n'est pas nouveau. [...] On est en train de réaliser que l'apparition de ce qu'on appelle une intelligence artificielle générale, c'est à dire une intelligence qui serait similaire à l'intelligence humaine, ou même peut être supérieure à l'intelligence humaine?
«Bien, on pensait que c'était de la science-fiction et que c'était très loin dans l'avenir, mais avec l'apparition de GPT, quand le système d'IA de OpenAI, on a vu que, finalement, des intelligences artificielles qui sont moins spécifiques à une tâche et qui peuvent faire plusieurs choses, traduire par du texte, éventuellement faire de l'image, coder, etc. Bien, ça commence à être un peu plus général. Et la crainte est qu'à un moment donné, on perde le contrôle un peu sur ces technologies-là et qu'elle veuille, par exemple, d'elle-même évader le contrôle humain et changer peut être les objectifs pour lesquels ils ont été créés.
«Imaginons une intelligence artificielle qui a été créée pour améliorer tel ou tel processus et tout d'un coup, elle apprend, et cette intelligence artificielle devient si sophistiquée et peut-être supérieure à l'intelligence humaine qu'elle décide que ces objectifs-là ne m'intéressent plus beaucoup, je vais me donner des objectifs alternatifs. Et ces objectifs-là pourraient devenir des objectifs qui sont contraires au bien commun, contraires à l'intérêt de l'humanité.»