[article] in Gresea > 125 (Janvier / Février / Mars 2026) . - p.52-61 | Titre : | Ni anti-tech, ni techno-optimiste : pour une pause dans le développement de la super intelligence. : Entretien avec Maxime Fournes du collectif Pause AI | | Type de document : | Livres, articles, périodiques | | Auteurs : | GRESEA, Auteur | | Année de publication : | 2026 | | Article en page(s) : | p.52-61 | | Langues : | Français (fre) | | Mots-clés : | Collectif Pause AI IA Intelligence artificielle générale Mouvement radical Humanité Protection Avenir Futur Risques Organisation internationale Traité international Chine USA Amélioration IA alignée IA spécialisées Mouvement non-violent Super intelligence AGI Alerte Dangers Modélisation des risques Débat parlementaire Objectifs clairs | | Résumé : | Risque énorme possible dans 5 à 10 ans avec l'AGI IA surper puissante. Actuellement, ce type d'IA peut déjà pirater une trentaine d'entreprises (cyberattaque quasi automatisée). AGI = point de non retour. Délégation aux machines jusqu'à ce que l'humain ne prenne plus aucune décision. L'IA pose des risques catastrophiques et existentiels (30% de "chance" d'être irréversibles ) pour l'humanité.
Le collectif veut de meilleures IA, spécialisée par domaine; elle ne veut pas l'arrêt des systèmes existants, elle veut des IA spécialisées, alignées (respect des valeurs humaines; objectifs clairs; débat public pour faire des choix).
Aujourd'hui, une poignée d'entreprises décident pour faire du profit et être compétitives.
Intérêt et limites de l'AI Act de l'UE. (première étape pour une pause)
Réponse réglementaire qui serait adéquate : voir l'article. | | Note de contenu : | Risques de mésusage : utilisation malveillante par des humains, cyberattaques quasi automatisées (ex. Celle menée par la Chine). Plus grave que du simple piratage informatique classique. IA propice au phishing et à la manipulation. S'ajoute les risques liées aux bioarmes, à la désinformation à grande échelle, etc.
Risques systémiques : déstabilisation de l'écosystème informationnel, perte d'emploi massive et rapide; dépendance croissante à des système qu'on comprend pas. Plus l'IA devient puissante, plus elle devient difficile à contrôler (déjà constaté actuellement : résistance à la correction, recherche de survie)
|
[article] Ni anti-tech, ni techno-optimiste : pour une pause dans le développement de la super intelligence. : Entretien avec Maxime Fournes du collectif Pause AI [Livres, articles, périodiques] / GRESEA, Auteur . - 2026 . - p.52-61. Langues : Français ( fre) in Gresea > 125 (Janvier / Février / Mars 2026) . - p.52-61 | Mots-clés : | Collectif Pause AI IA Intelligence artificielle générale Mouvement radical Humanité Protection Avenir Futur Risques Organisation internationale Traité international Chine USA Amélioration IA alignée IA spécialisées Mouvement non-violent Super intelligence AGI Alerte Dangers Modélisation des risques Débat parlementaire Objectifs clairs | | Résumé : | Risque énorme possible dans 5 à 10 ans avec l'AGI IA surper puissante. Actuellement, ce type d'IA peut déjà pirater une trentaine d'entreprises (cyberattaque quasi automatisée). AGI = point de non retour. Délégation aux machines jusqu'à ce que l'humain ne prenne plus aucune décision. L'IA pose des risques catastrophiques et existentiels (30% de "chance" d'être irréversibles ) pour l'humanité.
Le collectif veut de meilleures IA, spécialisée par domaine; elle ne veut pas l'arrêt des systèmes existants, elle veut des IA spécialisées, alignées (respect des valeurs humaines; objectifs clairs; débat public pour faire des choix).
Aujourd'hui, une poignée d'entreprises décident pour faire du profit et être compétitives.
Intérêt et limites de l'AI Act de l'UE. (première étape pour une pause)
Réponse réglementaire qui serait adéquate : voir l'article. | | Note de contenu : | Risques de mésusage : utilisation malveillante par des humains, cyberattaques quasi automatisées (ex. Celle menée par la Chine). Plus grave que du simple piratage informatique classique. IA propice au phishing et à la manipulation. S'ajoute les risques liées aux bioarmes, à la désinformation à grande échelle, etc.
Risques systémiques : déstabilisation de l'écosystème informationnel, perte d'emploi massive et rapide; dépendance croissante à des système qu'on comprend pas. Plus l'IA devient puissante, plus elle devient difficile à contrôler (déjà constaté actuellement : résistance à la correction, recherche de survie)
|
|