
Conférence d’Assia Tria sur l’IA
L’amphithéâtre de la médiathèque Alphonse Daudet était rempli, ce mardi 11 février, pour assister à une conférence de madame Assia Tria, directrice de l’IMT Mines Alès, spécialiste de la cyber sécurité.
On entend beaucoup de choses sur l’IA, l’intelligence artificielle. Déjà, le mot intelligence n’a pas le même sens en anglais qu’en français. En anglais, elle englobe cognition, données et stratégie, alors qu’en français, elle se concentre surtout sur la capacité à penser et à comprendre. Par exemple la CIA = Central Intelligence Agency = Agence centrale de renseignement et non "Agence centrale d’intelligence.
Historique de l’Intelligence Artificielle
1943 : McCulloch et Pitts conçoivent le premier modèle de neurone artificiel, base du deep learning moderne.
1950 : Alan Turing propose le test de Turing, critère permettant d’évaluer si une machine peut "penser".
1956 : Conférence de Dartmouth, acte de naissance officiel de l’IA, où le terme "intelligence artificielle" est utilisé pour la première fois (John McCarthy).
2. L’essor (années 1960-1970) : Premiers succès et premières limites
Développement des premiers programmes d’IA capables de jouer aux échecs et résoudre des problèmes logiques.
Les systèmes experts émergent pour simuler le raisonnement humain dans des domaines spécifiques (médecine, finance).
Problème : L’IA de l’époque repose sur des règles rigides et a du mal à gérer la complexité du monde réel.
3. Les hivers de l’IA (années 1970-1980) : Déceptions et coupes budgétaires
Face aux limites technologiques et au manque de résultats concrets, les financements chutent et l’intérêt pour l’IA s’effondre.
On parle de "l’hiver de l’IA" où peu d’avancées majeures sont réalisées.
4. La renaissance (années 1990-2000) : L’apprentissage automatique
1997 : IBM Deep Blue bat le champion du monde d’échecs Garry Kasparov,
Développement du machine learning : les ordinateurs apprennent à partir des données au lieu d’être programmés avec des règles fixes.
5. L’explosion de l’IA moderne (2010-2020) : Deep Learning et Big Data
L’essor du Big Data et des puces graphiques (GPU) permet des avancées majeures en deep learning.
2016 : AlphaGo (Google DeepMind) bat le champion du monde de Go, un jeu bien plus complexe que les échecs.
Développement des assistants vocaux (Siri, Alexa, Google Assistant) et des IA génératives comme GPT.
6. L’IA actuelle (2020-aujourd’hui) : IA générative et automatisation avancée
Explosion des IA génératives : ChatGPT, DALL·E, MidJourney… capables de créer du texte, des images, du code et même des vidéos.
Intégration massive de l’IA dans la santé, la finance, l’éducation, et l’industrie.
Débats éthiques sur l’automatisation, la désinformation et le risque de dépendance à l’IA.
Avantages de l’IA
Automatisation des tâches répétitives = Gain de temps et réduction des erreurs humaines.
Analyse massive de données = Meilleure prise de décision (ex : finance, médecine, climatologie).
Avancées médicales = Détection précoce de maladies, assistance aux chirurgiens, découverte de médicaments.
Accessibilité et personnalisation = Traduction automatique, assistants vocaux, recommandations personnalisées (Netflix, Spotify).
Innovation et créativité = IA générative pour créer des textes, images, musiques et œuvres artistiques.
Optimisation industrielle = Prédiction de pannes, robots dans les usines, logistique intelligente.
Inconvénients de l’IA
Perte d’emplois : Automatisation qui remplace certains métiers (usines, services clients, rédaction basique).
Biais algorithmiques : L’IA peut reproduire et amplifier des discriminations présentes dans les données d’apprentissage.
Risque de désinformation : Deepfakes, fake news générées par IA, manipulation d’opinions.
Manque de transparence : Certaines IA sont des "boîtes noires" dont on ne comprend pas toujours le fonctionnement.
Dépendance technologique : Risque de perte d’autonomie humaine, difficulté à fonctionner sans IA.
Sécurité et cyberattaques : L’IA peut être exploitée pour pirater, frauder ou mener des cyberattaques sophistiquées.
Et surtout, catastrophe écologique, trop de matériaux, d’énergies et de données. Chaque requête formulée à Chat GPT représente un verre d’eau consommé. Les ressources de la planète sont épuisables, même si l’on reporte le problème à plus tard.
On veut tout, batterie électrique, téléphones, IA. Il faut faire des choix, l’IA révolutionne le diagnostic en croisant des milliers de cas médicaux, permettant une précision accrue et une détection précoce. La création artistique via l’IA n’est qu’un résumé de ce qui s’est déjà fait, la machine est inapte à créer. Les métiers répétitifs confiés à la machine, l’homme peut se consacrer à ce qui le caractérise le mieux, basée sur l’empathie, les sentiments dont sont dépourvues les machines qui ne doute jamais. Le doute est la spécificité de l’homme.
Louis Givelet