Obtenez un devis
Écrit par Vicky Desjardins le 4 août 2023

La leçon d'Oppenheimer: La route vers l'enfer est pavée de bonnes intentions

Oppenheimer a ouvert ses portes dans les salles de cinéma la semaine dernière et a connu un grand succès au box-office.
Oppenheimer et un groupe de physiciens, y compris Enrico Fermi, Richard Feynman (et ses célèbres bongos), James B. Conant, et beaucoup d’autres, ont travaillé ensemble pour créer la bombe atomique. Initialement conçue pour être utilisée contre les nazis, la bombe atomique a finalement été déployée contre le Japon.

Tout au long du film, les physiciens se questionnent sur la pertinence de continuer à construire la bombe, étant donné que les nazis ont été vaincus. Oppenheimer défend la poursuite du projet en disant : « Ils n’auront pas peur tant qu’ils ne l’auront pas compris. Et ils ne le comprendront pas avant de l’avoir utilisé". Mais Maintenant que nous avons acquis cette compréhension et cette crainte, que devons-nous faire à présent ?

Chaque invention peut être détournée à des fins malveillantes lorsque des individus cherchent à l'exploiter à leur avantage personnel. C'est pourquoi l'expression "le chemin vers l'enfer est pavé de bonnes intentions" est si répandue. Dans toutes les formes de recherche, la question de jusqu'où aller se pose souvent. L'exemple de la bombe atomique d'Oppenheimer illustre le dépassement des limites et l'incapacité de "remettre le génie dans la bouteille". Le Japon en subit encore les conséquences plus de soixante-dix ans après. La question persiste : l'IA suit-elle la même voie que la bombe atomique ? Bien sûr, l'IA et les outils alimentés par l'IA peuvent être contrôlés et contenus, mais que se passe-t-il lorsqu'ils sont lâchés dans la nature ?

L'IA ouvre de nouvelles possibilités de recherche dans des domaines tels que la médecine, la physique et bien d'autres. Avant de devenir la bombe atomique, elle était d'abord un projet de recherche mené par des universitaires. La plupart des chercheurs universitaires doivent obtenir une approbation éthique pour leurs recherches impliquant des êtres humains. L'éthique universitaire aurait très probablement refusé l'approbation pour la bombe atomique en raison de son impact destructeur sur les vies humaines. L'éthique pousse les scientifiques à ne pas aller trop loin et à ne pas mettre en danger le bien-être des humains. Dans le passé, certaines recherches en criminologie étaient menées sans nécessité d'approbation éthique avant l'expérimentation. Cependant, bien que l'éthique puisse parfois sembler contraignante, nous ne devrions jamais revenir à une époque où les vies humaines étaient traumatisées pour la recherche.

Concernant l'IA, étant donné qu'elle n'est pas humaine, la question éthique est complexe. Ce n'est pas parce que nous avons la capacité de mener certaines recherches que nous devrions forcément les réaliser. L'IA a connu des progrès significatifs, mais son utilisation comporte également des risques d'abus et de mauvaises intentions. Nous devons donc rester conscients des implications éthiques et prendre des décisions responsables quant à l'utilisation de l'intelligence artificielle.

L'intelligence artificielle est désormais pleinement déployée dans le monde réel. Lorsque ChatGPT est apparu, tout le monde était enthousiaste à l'idée de cet outil. Cependant, la période de lune de miel fut de courte durée car de plus en plus de personnes ont commencé à s'inquiéter pour leurs emplois. Les scénaristes, les spécialistes du marketing, les programmeurs et bien d'autres se sont demandé ce qu'il adviendrait de leurs carrières si ChatGPT prenait le dessus. Maintenant, nous nous trouvons face à une réalité où l'IA est capable de surpasser les auteurs de menaces, et les défenseurs peinent souvent à les rattraper.

Des cyberattaques créées par ChatGPT réussissent à contourner certaines défenses, et certaines sont si bien conçues que même les solutions de détection des menaces (EDR) et les humains ne reconnaissent pas les courriels comme du phishing. Des outils basés sur l'intelligence artificielle, tels que "FraudGPT" et "WormGPT", ont été développés pour aider les auteurs de menaces à lancer des cyberattaques, même sans compétences technologiques approfondies. Ainsi, nous risquons de faire face à une nouvelle génération de criminels capables de commettre de graves délits avec peu de compétences requises.

Autrefois, le manque de compétences en codage pouvait être un obstacle à la criminalité en ligne, mais l'IA abaisse cette barrière technique, permettant à de nombreux individus motivés de devenir acteurs potentiels de la menace. Les crimes en ligne sont moralement plus faciles à commettre que les crimes hors ligne, car les acteurs sont éloignés de leurs victimes et ne voient pas directement l'impact de leurs actions. Ils peuvent se défendre en utilisant des arguments rationnels tels que "Je n'ai écrit que quelques lignes de code". Maintenant, avec des outils malveillants alimentés par l'IA, il suffit à ces individus motivés de demander à l'outil de leur écrire un code pour contourner les EDR, puis de copier-coller ce code pour réussir une attaque. On peut se demander ce qui se passera lorsque des employés frustrés et en colère voudront se venger en utilisant ces moyens.

Tout cela n'était certainement pas prévu lorsque l'intelligence artificielle a été conçue, développée et mise en œuvre. Les bonnes intentions initiales ne suffisent pas pour garantir que l'IA reste sous contrôle. Est-ce que l'IA va trop loin et échappera à notre contrôle à un certain point ? Ce n'est pas encore le cas, mais si cela se produit, à quoi ressemblera le monde ? Aurions-nous alors souhaité pouvoir remettre le génie dans la bouteille ? La réponse reste à découvrir, mais elle semble sombre à ce stade.

 

En savoir plus sur les renseignements sur les cybermenaces

Articles similaires

phone-handsetcrossmenu