Une coalition d'opposants à l'IA continue de chercher des arguments pour ralentir son développement. Si quelqu'un exprime des inquiétudes sincères quant aux impacts spécifiques de l'IA - par exemple, qu'elle pourrait conduire à l'extinction de l'humanité - cette position peut être respectée, même si nous ne sommes pas d'accord avec elle. Cependant, il est plus inquiétant de constater que certaines organisations testent activement les arguments qui inciteront le plus le public à se retourner contre l'IA, et que ces récits sont ensuite propagés par des lobbyistes, des hommes politiques ou des entreprises qui poursuivent leurs propres intérêts.
Une vaste étude menée par un groupe britannique a montré que l'argument de l'extinction de l'humanité à cause de l'IA n'a pas la cote auprès du public. Cet argument était populaire il y a quelques années, mais il a progressivement perdu de sa force. En revanche, des sujets tels que l'utilisation de l'IA dans la guerre ou son impact sur l'environnement trouvent davantage d'écho. Les inquiétudes concernant les pertes d'emploi et la menace qui pèse sur les enfants sont également très présentes. On peut s'attendre à ce que ces arguments dominent le débat public à l'avenir.
Il est important de souligner que tous ces domaines méritent une attention particulière. L'utilisation de l'IA dans les conflits militaires est une préoccupation réelle, les impacts environnementaux doivent être soigneusement contrôlés et minimisés, les pertes d'emploi ont des répercussions réelles sur les individus et les familles, et la protection de l'enfance est une valeur fondamentale. Le problème se pose lorsque ces questions complexes sont simplifiées et détournées pour promouvoir des intérêts étroits au détriment du grand public.
C'est le cas, par exemple, des grandes entreprises technologiques qui mettent en garde contre les risques de l'IA afin de limiter la diffusion de solutions libres qui leur font concurrence. De même, la perception des centres de données est faussée : le public surestime souvent leur charge environnementale, alors qu'ils font partie des infrastructures les plus efficaces. Entraver leur construction pourrait donc nuire à l'environnement au lieu de l'aider. L'impact sur l'emploi est également exagéré, certaines entreprises attribuant à l'IA des licenciements qui résultent en fait d'embauches excessives.
Une telle propagande peut conduire à des réglementations inappropriées qui, en fin de compte, aggraveront la situation. L'histoire nous met en garde : par exemple, les craintes exagérées suscitées par l'énergie nucléaire ont conduit à sa réduction, ce qui a contribué à l'augmentation des émissions et des problèmes de santé liés à la pollution de l'air. Un scénario similaire devrait être évité avec l'IA.
Un projet de cadre législatif pour l'IA est en cours de discussion afin d'éviter la fragmentation des règles entre les pays et de promouvoir une approche uniforme. L'objectif est de permettre le développement de l'IA tout en préservant la protection des consommateurs et les droits régionaux. S'il est adopté, il pourrait créer un environnement stable propice à l'innovation.
Pour l'avenir, il est essentiel de conserver une approche rationnelle. Les applications nuisibles - qu'elles utilisent l'IA ou non - doivent être limitées tout en équilibrant soigneusement les avantages et les risques sur la base de preuves scientifiques. Lors de l'évaluation des critiques de l'IA, il est important de faire la distinction entre les arguments cohérents et substantiels et ceux qui ne font que répondre à l'opinion publique actuelle. C'est la seule façon d'éviter que des craintes exagérées ne freinent des technologies susceptibles d'apporter des avantages significatifs à la société dans son ensemble.
deplearning.ai/gnews.cz - GH