Source de l'image : générée par l'outil d'IA illimitée
Récemment, Sébastien Bubeck, responsable du Machine Learning Theory Group au Microsoft Redmond Research Institute, et Li Yuanzhi, lauréat du Sloan Research Award 2023, ont publié un article très préoccupant. L'article, intitulé "L'étincelle de l'intelligence artificielle générale : premières expériences avec GPT-4", compte 154 pages. Certaines bonnes personnes ont découvert à partir du code source LaTex que le titre original était en fait "First Contact with AGI".
La publication de cet article marque une étape importante dans le domaine de la recherche en intelligence artificielle. Il fournit des informations précieuses sur notre compréhension approfondie du développement et de l'application de l'intelligence générale artificielle (IAG). Dans le même temps, le titre original de l'article, "First Contact with AGI", souligne également l'importance et la prospective de l'exploration vers l'intelligence artificielle générale.
J'ai patiemment lu la version traduite de cet article. Pour être honnête, je comprends à moitié et je ne comprends pas à moitié, et je ne sais pas ce qui se passe. Permettez-moi d'abord de présenter la proposition centrale de cet article : GPT-4 présente une forme d'intelligence générale, faisant fleurir l'étincelle de l'intelligence artificielle générale. Cela se manifeste dans ses capacités mentales fondamentales (telles que le raisonnement, la créativité et la déduction), la gamme de sujets dans lesquels il acquiert une expertise (comme la littérature, la médecine et le codage) et la variété des tâches qu'il peut effectuer (telles que jouer à des jeux, utiliser des outils, s'expliquer, etc.).
Après avoir lu cet article, j'ai revisité mon article "The Future Can Be Expected|Artificial Intelligence Painting: Let Everyone Become an Artist". Je me suis posé une question : Est-ce un peu étroit de classer les gros modèles comme ChatGPT dans les contenus générés par l'intelligence artificielle (AIGC) avant ? Comme l'a déclaré l'article de Microsoft Research, GPT-4 n'est en fait pas seulement AIGC, il ressemble plus au prototype de l'intelligence artificielle générale.
Avant d'expliquer ce que signifie AGI, permettez-moi de dire aux lecteurs de la colonne "Future Expected" de The Paper les trois mots ANI, AGI et ASI.
L'intelligence artificielle (IA) est généralement divisée en trois niveaux :
① Intelligence artificielle faible (Intelligence Artificielle Étroite, ANI);
② Intelligence Générale Artificielle (AGI);
③ Superintelligence Artificielle (ASI).
Ensuite, je présenterai brièvement les différences et le développement de ces trois niveaux.
①Intelligence artificielle faible (ANI) :
L'IA faible est de loin la forme d'IA la plus courante. Il se concentre sur l'exécution d'une tâche unique ou la résolution d'un problème dans un domaine spécifique. Par exemple, la reconnaissance d'images, la reconnaissance vocale, la traduction automatique, etc. De tels systèmes intelligents peuvent être meilleurs que les humains pour certaines tâches, mais ils ne peuvent fonctionner que dans une mesure limitée et ne peuvent pas gérer les problèmes qu'ils n'ont pas été conçus pour résoudre. Il existe de nombreux produits et services intelligents sur le marché aujourd'hui, tels que les assistants virtuels (Siri, Microsoft Xiaoice, etc.), les haut-parleurs intelligents (Tmall Genie, Xiaoai Speaker, etc.) et AlphaGo, qui appartiennent tous à la catégorie des faibles intelligence artificielle. La limitation de l'intelligence artificielle faible est qu'elle manque de compréhension globale et de capacité de jugement, et ne peut bien fonctionner que sur des tâches spécifiques.
Avec le développement continu du big data, des algorithmes et de la puissance de calcul, l'intelligence artificielle faible pénètre progressivement dans tous les domaines de notre quotidien. Dans les domaines de la finance, des soins médicaux, de l'éducation, du divertissement, etc., nous avons été témoins de nombreux cas d'application réussis.
②Intelligence artificielle générale (IAG) :
L'intelligence artificielle générale, également connue sous le nom d'intelligence artificielle forte, fait référence à l'intelligence artificielle qui a la même intelligence que les humains et peut exécuter tous les comportements intelligents des humains normaux. Cela signifie qu'AGI peut apprendre, comprendre, s'adapter et résoudre des problèmes dans divers domaines, tout comme les humains. Contrairement à ANI, AGI peut accomplir indépendamment une variété de tâches, pas seulement limitées à un domaine spécifique. À l'heure actuelle, on pense généralement que l'intelligence artificielle générale n'a pas encore été atteinte, mais de nombreuses entreprises technologiques et scientifiques travaillent dur pour se rapprocher de cet objectif.
③ Super Intelligence Artificielle (ASI) :
La super intelligence artificielle fait référence à un système d'intelligence artificielle qui dépasse de loin l'intelligence humaine dans divers domaines. Il peut non seulement accomplir diverses tâches que les humains peuvent accomplir, mais aussi surpasser de loin les humains en termes de créativité, de capacité de prise de décision et de vitesse d'apprentissage. L'émergence de l'ASI peut déclencher de nombreuses percées technologiques et changements sociaux sans précédent, et résoudre des problèmes difficiles que les humains ne peuvent pas résoudre.
Cependant, ASI comporte également une gamme de risques potentiels. Par exemple, cela peut conduire à la perte de la valeur et de la dignité humaines, déclencher l'abus et l'utilisation abusive de l'intelligence artificielle, et peut même conduire à la rébellion de l'intelligence artificielle et à d'autres problèmes.
Il s'avère que nous avons toujours cru que la technologie de l'intelligence artificielle, de l'intelligence artificielle faible à l'intelligence artificielle générale en passant par l'intelligence artificielle super, passera par un processus de développement long et compliqué. Dans ce processus, nous avons suffisamment de temps pour faire diverses préparations, allant des lois et règlements à la préparation psychologique de chaque individu. Récemment, cependant, j'ai le fort sentiment que nous ne sommes peut-être qu'à quelques pas d'avoir une intelligence artificielle générale, et cela ne prendra peut-être que 20 ans ou moins. Si certains disent que le processus ne prendra que 5 à 10 ans, je ne l'exclurais pas complètement.
OpenAI a mentionné dans son "Planning and Outlook to AGI": "AGI a le potentiel d'apporter de nouvelles capacités incroyables à tout le monde. Nous pouvons imaginer un monde où nous pouvons tous obtenir presque n'importe quelle aide dans les tâches cognitives, fournissant un énorme multiplicateur de force pour l'humain l'intelligence et la créativité."
Cependant, ce plan met l'accent sur un processus de "transition progressive", plutôt que de trop insister sur les puissantes capacités d'AGI. "Donner aux gens, aux décideurs et aux institutions le temps de comprendre ce qui se passe, de faire l'expérience par eux-mêmes des avantages et des inconvénients de ces systèmes, d'ajuster notre économie et de mettre en place une réglementation."
À mon avis, le message sous-jacent véhiculé par ce passage est que la technologie menant à l'IAG est déjà là. Cependant, afin de permettre à la société humaine d'avoir un processus d'adaptation, OpenAI ralentit délibérément le rythme du progrès technologique. Ils entendent équilibrer le progrès technologique et l'état de préparation de la société humaine, en accordant plus de temps aux discussions d'adaptation juridique, éthique et sociale, et en prenant les mesures nécessaires pour faire face aux défis qui peuvent survenir.
Il y a une telle phrase dans "Les Entretiens de la conquête de Zhuanyu par le général de Confucius Ji": "La bouche du tigre est sortie du scorpion". Maintenant, toutes sortes de GPT, comme les tigres, se sont échappés de leurs cages. Comme l'a dit Yuval Noah Harari, l'auteur de "Une brève histoire de l'avenir", l'intelligence artificielle maîtrise le langage avec une capacité qui dépasse le niveau humain moyen. En maîtrisant le langage, l'intelligence artificielle a déjà la capacité de créer des relations intimes avec des centaines de millions de personnes à grande échelle, et détient la clé pour envahir le système de la civilisation humaine. Il a en outre averti : La plus grande différence entre les armes nucléaires et l'intelligence artificielle est que les armes nucléaires ne peuvent pas créer des armes nucléaires plus puissantes. Mais **l'IA peut produire une IA plus puissante, nous devons donc agir rapidement avant que l'IA ne devienne incontrôlable. **
Le 22 mars, le Future of Life Institute (Future of Life) a publié une lettre ouverte à l'ensemble de la société intitulée "Suspension of Giant Artificial Intelligence Research: An Open Letter", appelant tous les laboratoires d'intelligence artificielle à suspendre immédiatement la comparaison de GPT- 4 Formation de systèmes d'IA plus puissants avec une pause d'au moins 6 mois. Landon Klein, directeur de la politique américaine au Future of Life Institute, a déclaré : "Nous voyons le moment actuel comme le début de l'ère nucléaire..." Cette lettre ouverte a été soutenue par plus d'un millier de personnes, dont Elon Musk (fondateur de Tesla), Sam Altman (PDG d'OpenAI), Joshua Bengio (lauréat du prix Turing 2018) et d'autres personnes célèbres.
Si beaucoup de gens réalisent que nous sommes sur le point d'entrer dans une ère de "prolifération nucléaire de l'IA", alors nous devons vraiment explorer une possibilité. Cette possibilité est de créer une organisation internationale similaire à l'Agence internationale de l'énergie atomique, dont le but est de superviser toutes les entreprises d'intelligence artificielle, en fonction du nombre de GPU qu'elles utilisent, de la consommation d'énergie et d'autres indicateurs. Les systèmes qui dépassent les seuils de capacité sont soumis à un audit. Grâce à des organisations internationales comme celle-ci, nous pouvons travailler ensemble pour garantir que les technologies d'IA apportent des avantages à l'humanité, plutôt que des dommages potentiels.
Certains scientifiques soutiennent que pour faire avancer la recherche et l'application de l'intelligence artificielle, il est nécessaire d'éviter la capacité du système d'intelligence artificielle à dépasser le contrôle humain. Ils ont fait un certain nombre de métaphores pour décrire la catastrophe qui se déroulait, notamment "un enfant de 10 ans a essayé de jouer aux échecs avec Stockfish 15", "le 11e siècle a essayé de combattre le 21e siècle", et "l'australopithèque a essayé de combattre Homo sapiens". Ces scientifiques veulent que nous arrêtions d'imaginer AGI comme "un penseur inanimé qui vit sur Internet". Au lieu de cela, imaginez-les comme une civilisation extraterrestre entière pensant un million de fois plus vite que les humains. C'est juste qu'ils étaient initialement confinés aux ordinateurs.
Cependant, certains scientifiques sont optimistes. Selon eux, le développement et la recherche sur l'intelligence artificielle devraient continuer à promouvoir le progrès scientifique et l'innovation technologique. Ils ont comparé cela si à l'époque où la voiture est née, si un cocher proposait que le conducteur soit suspendu de conduire pendant 6 mois. Avec le recul, est-ce le comportement d'une mante agissant comme une charrette ? Ils croient que grâce à une approche de recherche transparente et responsable, les problèmes sous-jacents peuvent être résolus et la contrôlabilité des technologies d'IA assurée. De plus, c'est par l'expérimentation et la pratique continues que nous pouvons mieux comprendre et répondre aux défis que l'intelligence artificielle peut apporter.
Récemment, l'Organisation mondiale de la santé (OMS) a émis un avertissement concernant la combinaison de l'intelligence artificielle et des soins de santé publics. Ils soulignent que s'appuyer sur les données générées par l'IA pour la prise de décision peut présenter un risque de biais ou d'utilisation abusive. Dans un communiqué, l'OMS a déclaré qu'il était essentiel d'évaluer les risques liés à l'utilisation de grands modèles de langage génératifs (LLM) tels que ChatGPT pour protéger et promouvoir le bien-être humain. Ils soulignent que des mesures sont nécessaires pour garantir l'exactitude, la fiabilité et l'impartialité dans l'utilisation de ces technologies afin de protéger l'intérêt public et de faire progresser le domaine médical.
De nombreux pays ont déjà pris des mesures pour réglementer le domaine de l'intelligence artificielle. Le 31 mars, l'Agence italienne de protection des données personnelles a annoncé que l'utilisation de ChatGPT serait désormais temporairement interdite. Dans le même temps, les responsables de l'UE travaillent également sur un nouveau projet de loi appelé "loi sur l'intelligence artificielle (loi sur l'IA)", qui comprend : l'interdiction de l'utilisation de services d'intelligence artificielle spécifiques et la formulation de normes juridiques connexes.
Le département américain du Commerce a publié un avis sollicitant les commentaires du public, notamment : si les nouveaux modèles d'intelligence artificielle qui présentent un risque de préjudice doivent être examinés avant de pouvoir être publiés. Dans le même temps, le ministère du Commerce a également promis de sévir contre les produits d'intelligence artificielle nuisibles qui violent les droits civils et les lois sur la protection des consommateurs.
Le 16 mai, le PDG et co-fondateur d'OpenAI, Sam Altman, a participé pour la première fois à l'audition du Congrès américain, s'exprimant sur les dangers potentiels de la technologie de l'intelligence artificielle. Il a admis qu'à mesure que l'intelligence artificielle progresse, on s'inquiète et s'inquiète de la façon dont elle va changer notre façon de vivre. À cette fin, il estime que l'intervention du gouvernement peut empêcher l'intelligence artificielle de "l'auto-réplication et de l'auto-infiltration sauvages". Il a proposé de créer un tout nouvel organisme de réglementation qui mettrait en œuvre les garanties nécessaires et délivrerait des licences pour les systèmes d'IA, avec le pouvoir de les révoquer.
Lors de l'audience, on a demandé à Altman quelle était sa plus grande préoccupation concernant le potentiel de l'intelligence artificielle. Il n'a pas précisé, disant seulement que "si cette technologie tourne mal, elle peut être très mauvaise" et peut "causer un préjudice important au monde". .
Avant cette audience, les mesures de réglementation et de contrôle de la Chine dans le domaine de l'intelligence artificielle ont également attiré une large attention. Le 11 avril, afin de promouvoir le développement sain et l'application standardisée de la technologie d'intelligence artificielle générative, conformément à la « Loi sur la sécurité des réseaux de la République populaire de Chine » et à d'autres lois et réglementations, l'Administration du cyberespace de Chine a rédigé la « Gestion Mesures pour les services d'intelligence artificielle générative (ébauche pour commentaire)" ". Cette approche clarifie l'attitude de soutien et d'encouragement pour l'industrie de l'intelligence artificielle générative, par exemple, "L'État soutient l'innovation indépendante, la promotion et l'application, ainsi que la coopération internationale des technologies de base telles que les algorithmes et les cadres d'intelligence artificielle, et encourage l'adoption prioritaire de des logiciels et des outils sûrs et fiables. , des ressources informatiques et de données.
Le projet d'avis exige que le contenu généré par l'intelligence artificielle générative reflète les valeurs fondamentales du socialisme et ne contienne pas de subversion du pouvoir de l'État, de renversement du système socialiste, d'incitation à diviser le pays, de saper l'unité nationale, de promouvoir le terrorisme, l'extrémisme, la promotion de la haine ethnique, la discrimination ethnique, la violence, les informations obscènes et pornographiques, les fausses informations et les contenus susceptibles de perturber l'ordre économique et social. Le projet d'avis exige également des fournisseurs qu'ils déclarent des évaluations de sécurité, prennent des mesures pour prévenir la discrimination et respectent le droit à la vie privée.
Les mesures collectives prises par ces pays nous rappellent que le développement actuel de l'intelligence artificielle apporte de grandes opportunités et de grands défis. Nous avons un besoin urgent de directives et de réglementations éthiques claires pour garantir le bon usage et la transparence des technologies d'IA. Nous serons confrontés à une série de questions importantes : Comment assurer la confidentialité et la sécurité des données ? Comment faire face aux biais algorithmiques et à l'injustice ? Comment assurer la transparence et l'explicabilité de la prise de décision en intelligence artificielle ? Ces problèmes doivent être résolus par des réglementations et des institutions claires.
Au moment où j'écris ceci, mes pensées sautent inexplicablement au premier paragraphe du poème intitulé "The Long Season" dans le récent drame domestique populaire "The Long Season":
claquer des doigts, dit-il
Claquons des doigts
les choses lointaines seront brisées
Les gens devant moi ne le savent pas encore
Ici, je veux faire une prédiction audacieuse : lorsque 2024 arrivera et que nous viendrons sélectionner le mot de l'année 2023, ChatGPT sera l'un des dix meilleurs mots chauds, et pourrait même devenir le mot de l'année ou la personne de l'année. .
Décomposons le mot "IA". Si A représente Angel (Angel), alors je peux représenter Devil (Iblis). Aujourd'hui, la technologie de l'intelligence artificielle se développe rapidement, montrant une étonnante relation symbiotique entre "anges et démons". Face à cette réalité, nous devons agir dans un seul but - "profitons d'une longue et dorée moisson d'intelligence artificielle, au lieu de tomber dans un hiver froid sans préparation".
(L'auteur Hu Yi, un travailleur du big data qui aime imaginer l'avenir.)
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Opinion | L'épée à double tranchant de l'intelligence artificielle générale : contrôler le développement et éviter les crises
Auteur : Hu Yi
Source: Le papier
Récemment, Sébastien Bubeck, responsable du Machine Learning Theory Group au Microsoft Redmond Research Institute, et Li Yuanzhi, lauréat du Sloan Research Award 2023, ont publié un article très préoccupant. L'article, intitulé "L'étincelle de l'intelligence artificielle générale : premières expériences avec GPT-4", compte 154 pages. Certaines bonnes personnes ont découvert à partir du code source LaTex que le titre original était en fait "First Contact with AGI".
La publication de cet article marque une étape importante dans le domaine de la recherche en intelligence artificielle. Il fournit des informations précieuses sur notre compréhension approfondie du développement et de l'application de l'intelligence générale artificielle (IAG). Dans le même temps, le titre original de l'article, "First Contact with AGI", souligne également l'importance et la prospective de l'exploration vers l'intelligence artificielle générale.
J'ai patiemment lu la version traduite de cet article. Pour être honnête, je comprends à moitié et je ne comprends pas à moitié, et je ne sais pas ce qui se passe. Permettez-moi d'abord de présenter la proposition centrale de cet article : GPT-4 présente une forme d'intelligence générale, faisant fleurir l'étincelle de l'intelligence artificielle générale. Cela se manifeste dans ses capacités mentales fondamentales (telles que le raisonnement, la créativité et la déduction), la gamme de sujets dans lesquels il acquiert une expertise (comme la littérature, la médecine et le codage) et la variété des tâches qu'il peut effectuer (telles que jouer à des jeux, utiliser des outils, s'expliquer, etc.).
Après avoir lu cet article, j'ai revisité mon article "The Future Can Be Expected|Artificial Intelligence Painting: Let Everyone Become an Artist". Je me suis posé une question : Est-ce un peu étroit de classer les gros modèles comme ChatGPT dans les contenus générés par l'intelligence artificielle (AIGC) avant ? Comme l'a déclaré l'article de Microsoft Research, GPT-4 n'est en fait pas seulement AIGC, il ressemble plus au prototype de l'intelligence artificielle générale.
Avant d'expliquer ce que signifie AGI, permettez-moi de dire aux lecteurs de la colonne "Future Expected" de The Paper les trois mots ANI, AGI et ASI.
L'intelligence artificielle (IA) est généralement divisée en trois niveaux :
① Intelligence artificielle faible (Intelligence Artificielle Étroite, ANI);
② Intelligence Générale Artificielle (AGI);
③ Superintelligence Artificielle (ASI).
Ensuite, je présenterai brièvement les différences et le développement de ces trois niveaux.
①Intelligence artificielle faible (ANI) :
L'IA faible est de loin la forme d'IA la plus courante. Il se concentre sur l'exécution d'une tâche unique ou la résolution d'un problème dans un domaine spécifique. Par exemple, la reconnaissance d'images, la reconnaissance vocale, la traduction automatique, etc. De tels systèmes intelligents peuvent être meilleurs que les humains pour certaines tâches, mais ils ne peuvent fonctionner que dans une mesure limitée et ne peuvent pas gérer les problèmes qu'ils n'ont pas été conçus pour résoudre. Il existe de nombreux produits et services intelligents sur le marché aujourd'hui, tels que les assistants virtuels (Siri, Microsoft Xiaoice, etc.), les haut-parleurs intelligents (Tmall Genie, Xiaoai Speaker, etc.) et AlphaGo, qui appartiennent tous à la catégorie des faibles intelligence artificielle. La limitation de l'intelligence artificielle faible est qu'elle manque de compréhension globale et de capacité de jugement, et ne peut bien fonctionner que sur des tâches spécifiques.
Avec le développement continu du big data, des algorithmes et de la puissance de calcul, l'intelligence artificielle faible pénètre progressivement dans tous les domaines de notre quotidien. Dans les domaines de la finance, des soins médicaux, de l'éducation, du divertissement, etc., nous avons été témoins de nombreux cas d'application réussis.
②Intelligence artificielle générale (IAG) :
L'intelligence artificielle générale, également connue sous le nom d'intelligence artificielle forte, fait référence à l'intelligence artificielle qui a la même intelligence que les humains et peut exécuter tous les comportements intelligents des humains normaux. Cela signifie qu'AGI peut apprendre, comprendre, s'adapter et résoudre des problèmes dans divers domaines, tout comme les humains. Contrairement à ANI, AGI peut accomplir indépendamment une variété de tâches, pas seulement limitées à un domaine spécifique. À l'heure actuelle, on pense généralement que l'intelligence artificielle générale n'a pas encore été atteinte, mais de nombreuses entreprises technologiques et scientifiques travaillent dur pour se rapprocher de cet objectif.
③ Super Intelligence Artificielle (ASI) :
La super intelligence artificielle fait référence à un système d'intelligence artificielle qui dépasse de loin l'intelligence humaine dans divers domaines. Il peut non seulement accomplir diverses tâches que les humains peuvent accomplir, mais aussi surpasser de loin les humains en termes de créativité, de capacité de prise de décision et de vitesse d'apprentissage. L'émergence de l'ASI peut déclencher de nombreuses percées technologiques et changements sociaux sans précédent, et résoudre des problèmes difficiles que les humains ne peuvent pas résoudre.
Cependant, ASI comporte également une gamme de risques potentiels. Par exemple, cela peut conduire à la perte de la valeur et de la dignité humaines, déclencher l'abus et l'utilisation abusive de l'intelligence artificielle, et peut même conduire à la rébellion de l'intelligence artificielle et à d'autres problèmes.
Il s'avère que nous avons toujours cru que la technologie de l'intelligence artificielle, de l'intelligence artificielle faible à l'intelligence artificielle générale en passant par l'intelligence artificielle super, passera par un processus de développement long et compliqué. Dans ce processus, nous avons suffisamment de temps pour faire diverses préparations, allant des lois et règlements à la préparation psychologique de chaque individu. Récemment, cependant, j'ai le fort sentiment que nous ne sommes peut-être qu'à quelques pas d'avoir une intelligence artificielle générale, et cela ne prendra peut-être que 20 ans ou moins. Si certains disent que le processus ne prendra que 5 à 10 ans, je ne l'exclurais pas complètement.
OpenAI a mentionné dans son "Planning and Outlook to AGI": "AGI a le potentiel d'apporter de nouvelles capacités incroyables à tout le monde. Nous pouvons imaginer un monde où nous pouvons tous obtenir presque n'importe quelle aide dans les tâches cognitives, fournissant un énorme multiplicateur de force pour l'humain l'intelligence et la créativité."
Cependant, ce plan met l'accent sur un processus de "transition progressive", plutôt que de trop insister sur les puissantes capacités d'AGI. "Donner aux gens, aux décideurs et aux institutions le temps de comprendre ce qui se passe, de faire l'expérience par eux-mêmes des avantages et des inconvénients de ces systèmes, d'ajuster notre économie et de mettre en place une réglementation."
À mon avis, le message sous-jacent véhiculé par ce passage est que la technologie menant à l'IAG est déjà là. Cependant, afin de permettre à la société humaine d'avoir un processus d'adaptation, OpenAI ralentit délibérément le rythme du progrès technologique. Ils entendent équilibrer le progrès technologique et l'état de préparation de la société humaine, en accordant plus de temps aux discussions d'adaptation juridique, éthique et sociale, et en prenant les mesures nécessaires pour faire face aux défis qui peuvent survenir.
Il y a une telle phrase dans "Les Entretiens de la conquête de Zhuanyu par le général de Confucius Ji": "La bouche du tigre est sortie du scorpion". Maintenant, toutes sortes de GPT, comme les tigres, se sont échappés de leurs cages. Comme l'a dit Yuval Noah Harari, l'auteur de "Une brève histoire de l'avenir", l'intelligence artificielle maîtrise le langage avec une capacité qui dépasse le niveau humain moyen. En maîtrisant le langage, l'intelligence artificielle a déjà la capacité de créer des relations intimes avec des centaines de millions de personnes à grande échelle, et détient la clé pour envahir le système de la civilisation humaine. Il a en outre averti : La plus grande différence entre les armes nucléaires et l'intelligence artificielle est que les armes nucléaires ne peuvent pas créer des armes nucléaires plus puissantes. Mais **l'IA peut produire une IA plus puissante, nous devons donc agir rapidement avant que l'IA ne devienne incontrôlable. **
Le 22 mars, le Future of Life Institute (Future of Life) a publié une lettre ouverte à l'ensemble de la société intitulée "Suspension of Giant Artificial Intelligence Research: An Open Letter", appelant tous les laboratoires d'intelligence artificielle à suspendre immédiatement la comparaison de GPT- 4 Formation de systèmes d'IA plus puissants avec une pause d'au moins 6 mois. Landon Klein, directeur de la politique américaine au Future of Life Institute, a déclaré : "Nous voyons le moment actuel comme le début de l'ère nucléaire..." Cette lettre ouverte a été soutenue par plus d'un millier de personnes, dont Elon Musk (fondateur de Tesla), Sam Altman (PDG d'OpenAI), Joshua Bengio (lauréat du prix Turing 2018) et d'autres personnes célèbres.
Si beaucoup de gens réalisent que nous sommes sur le point d'entrer dans une ère de "prolifération nucléaire de l'IA", alors nous devons vraiment explorer une possibilité. Cette possibilité est de créer une organisation internationale similaire à l'Agence internationale de l'énergie atomique, dont le but est de superviser toutes les entreprises d'intelligence artificielle, en fonction du nombre de GPU qu'elles utilisent, de la consommation d'énergie et d'autres indicateurs. Les systèmes qui dépassent les seuils de capacité sont soumis à un audit. Grâce à des organisations internationales comme celle-ci, nous pouvons travailler ensemble pour garantir que les technologies d'IA apportent des avantages à l'humanité, plutôt que des dommages potentiels.
Certains scientifiques soutiennent que pour faire avancer la recherche et l'application de l'intelligence artificielle, il est nécessaire d'éviter la capacité du système d'intelligence artificielle à dépasser le contrôle humain. Ils ont fait un certain nombre de métaphores pour décrire la catastrophe qui se déroulait, notamment "un enfant de 10 ans a essayé de jouer aux échecs avec Stockfish 15", "le 11e siècle a essayé de combattre le 21e siècle", et "l'australopithèque a essayé de combattre Homo sapiens". Ces scientifiques veulent que nous arrêtions d'imaginer AGI comme "un penseur inanimé qui vit sur Internet". Au lieu de cela, imaginez-les comme une civilisation extraterrestre entière pensant un million de fois plus vite que les humains. C'est juste qu'ils étaient initialement confinés aux ordinateurs.
Cependant, certains scientifiques sont optimistes. Selon eux, le développement et la recherche sur l'intelligence artificielle devraient continuer à promouvoir le progrès scientifique et l'innovation technologique. Ils ont comparé cela si à l'époque où la voiture est née, si un cocher proposait que le conducteur soit suspendu de conduire pendant 6 mois. Avec le recul, est-ce le comportement d'une mante agissant comme une charrette ? Ils croient que grâce à une approche de recherche transparente et responsable, les problèmes sous-jacents peuvent être résolus et la contrôlabilité des technologies d'IA assurée. De plus, c'est par l'expérimentation et la pratique continues que nous pouvons mieux comprendre et répondre aux défis que l'intelligence artificielle peut apporter.
Récemment, l'Organisation mondiale de la santé (OMS) a émis un avertissement concernant la combinaison de l'intelligence artificielle et des soins de santé publics. Ils soulignent que s'appuyer sur les données générées par l'IA pour la prise de décision peut présenter un risque de biais ou d'utilisation abusive. Dans un communiqué, l'OMS a déclaré qu'il était essentiel d'évaluer les risques liés à l'utilisation de grands modèles de langage génératifs (LLM) tels que ChatGPT pour protéger et promouvoir le bien-être humain. Ils soulignent que des mesures sont nécessaires pour garantir l'exactitude, la fiabilité et l'impartialité dans l'utilisation de ces technologies afin de protéger l'intérêt public et de faire progresser le domaine médical.
De nombreux pays ont déjà pris des mesures pour réglementer le domaine de l'intelligence artificielle. Le 31 mars, l'Agence italienne de protection des données personnelles a annoncé que l'utilisation de ChatGPT serait désormais temporairement interdite. Dans le même temps, les responsables de l'UE travaillent également sur un nouveau projet de loi appelé "loi sur l'intelligence artificielle (loi sur l'IA)", qui comprend : l'interdiction de l'utilisation de services d'intelligence artificielle spécifiques et la formulation de normes juridiques connexes.
Le département américain du Commerce a publié un avis sollicitant les commentaires du public, notamment : si les nouveaux modèles d'intelligence artificielle qui présentent un risque de préjudice doivent être examinés avant de pouvoir être publiés. Dans le même temps, le ministère du Commerce a également promis de sévir contre les produits d'intelligence artificielle nuisibles qui violent les droits civils et les lois sur la protection des consommateurs.
Le 16 mai, le PDG et co-fondateur d'OpenAI, Sam Altman, a participé pour la première fois à l'audition du Congrès américain, s'exprimant sur les dangers potentiels de la technologie de l'intelligence artificielle. Il a admis qu'à mesure que l'intelligence artificielle progresse, on s'inquiète et s'inquiète de la façon dont elle va changer notre façon de vivre. À cette fin, il estime que l'intervention du gouvernement peut empêcher l'intelligence artificielle de "l'auto-réplication et de l'auto-infiltration sauvages". Il a proposé de créer un tout nouvel organisme de réglementation qui mettrait en œuvre les garanties nécessaires et délivrerait des licences pour les systèmes d'IA, avec le pouvoir de les révoquer.
Lors de l'audience, on a demandé à Altman quelle était sa plus grande préoccupation concernant le potentiel de l'intelligence artificielle. Il n'a pas précisé, disant seulement que "si cette technologie tourne mal, elle peut être très mauvaise" et peut "causer un préjudice important au monde". .
Avant cette audience, les mesures de réglementation et de contrôle de la Chine dans le domaine de l'intelligence artificielle ont également attiré une large attention. Le 11 avril, afin de promouvoir le développement sain et l'application standardisée de la technologie d'intelligence artificielle générative, conformément à la « Loi sur la sécurité des réseaux de la République populaire de Chine » et à d'autres lois et réglementations, l'Administration du cyberespace de Chine a rédigé la « Gestion Mesures pour les services d'intelligence artificielle générative (ébauche pour commentaire)" ". Cette approche clarifie l'attitude de soutien et d'encouragement pour l'industrie de l'intelligence artificielle générative, par exemple, "L'État soutient l'innovation indépendante, la promotion et l'application, ainsi que la coopération internationale des technologies de base telles que les algorithmes et les cadres d'intelligence artificielle, et encourage l'adoption prioritaire de des logiciels et des outils sûrs et fiables. , des ressources informatiques et de données.
Le projet d'avis exige que le contenu généré par l'intelligence artificielle générative reflète les valeurs fondamentales du socialisme et ne contienne pas de subversion du pouvoir de l'État, de renversement du système socialiste, d'incitation à diviser le pays, de saper l'unité nationale, de promouvoir le terrorisme, l'extrémisme, la promotion de la haine ethnique, la discrimination ethnique, la violence, les informations obscènes et pornographiques, les fausses informations et les contenus susceptibles de perturber l'ordre économique et social. Le projet d'avis exige également des fournisseurs qu'ils déclarent des évaluations de sécurité, prennent des mesures pour prévenir la discrimination et respectent le droit à la vie privée.
Les mesures collectives prises par ces pays nous rappellent que le développement actuel de l'intelligence artificielle apporte de grandes opportunités et de grands défis. Nous avons un besoin urgent de directives et de réglementations éthiques claires pour garantir le bon usage et la transparence des technologies d'IA. Nous serons confrontés à une série de questions importantes : Comment assurer la confidentialité et la sécurité des données ? Comment faire face aux biais algorithmiques et à l'injustice ? Comment assurer la transparence et l'explicabilité de la prise de décision en intelligence artificielle ? Ces problèmes doivent être résolus par des réglementations et des institutions claires.
Au moment où j'écris ceci, mes pensées sautent inexplicablement au premier paragraphe du poème intitulé "The Long Season" dans le récent drame domestique populaire "The Long Season":
claquer des doigts, dit-il
Claquons des doigts
les choses lointaines seront brisées
Les gens devant moi ne le savent pas encore
Ici, je veux faire une prédiction audacieuse : lorsque 2024 arrivera et que nous viendrons sélectionner le mot de l'année 2023, ChatGPT sera l'un des dix meilleurs mots chauds, et pourrait même devenir le mot de l'année ou la personne de l'année. .
Décomposons le mot "IA". Si A représente Angel (Angel), alors je peux représenter Devil (Iblis). Aujourd'hui, la technologie de l'intelligence artificielle se développe rapidement, montrant une étonnante relation symbiotique entre "anges et démons". Face à cette réalité, nous devons agir dans un seul but - "profitons d'une longue et dorée moisson d'intelligence artificielle, au lieu de tomber dans un hiver froid sans préparation".
(L'auteur Hu Yi, un travailleur du big data qui aime imaginer l'avenir.)