Vous avez sûrement entendu parler de cette histoire qui fait le buzz sur les réseaux sociaux : un Australien bloqué à l'aéroport à cause d'une information erronée fournie par ChatGPT. Cette mésaventure, à la fois cocasse et alarmante, nous rappelle les limites de notre confiance en l'intelligence artificielle.
Le scénario catastrophe devenu viral
Mark Pollard, conférencier australien, devait animer une présentation au Chili. Comme beaucoup d'entre nous le ferions, il a demandé à ChatGPT s'il avait besoin d'un visa pour s'y rendre. La réponse de l'IA a été catégorique : "Non."
Confiant, il s'est présenté à l'aéroport sans visa, pour découvrir qu'il ne pourrait pas embarquer. Résultat : vol raté, conférence annulée, et une histoire qui a généré plus de 15 millions de vues sur Instagram.
BFM TV a d'ailleurs relayé cette mésaventure avec le titre évocateur : "Pour les choses très importantes, je n'utiliserai plus Chat GPT" - une déclaration qui résume bien la leçon apprise à ses dépens.
Suite au buzz généré par son histoire, Mark Pollard a partagé un post LinkedIn expliquant sa mésaventure en détail. Il y précise notamment qu'il utilisait régulièrement ChatGPT pour toutes sortes de questions et avait développé une confiance excessive dans l'outil. Il reconnait son erreur de ne pas avoir vérifié l'information auprès de sources officielles, tout en soulignant la conviction avec laquelle l'IA lui avait affirmé qu'aucun visa n'était nécessaire.
Ce qui est drôle à lire devient nettement moins amusant quand ça vous arrive personnellement.
Une erreur plus commune qu'on ne le pense
Cette mésaventure aurait pu arriver à n'importe lequel d'entre nous. Nombreux sont ceux qui, comme Mark, privilégient désormais Perplexity ou ChatGPT à Google pour leurs recherches quotidiennes. Ces outils offrent souvent des réponses plus directes, plus rapides et plus claires.
Mais cette histoire nous rappelle un principe fondamental : pour les sujets importants, il faut toujours vérifier les sources. Aucun outil, qu'il s'agisse d'IA ou de moteur de recherche traditionnel, ne peut remplacer notre esprit critique.
Le test révélateur
J'ai refait le test en posant la même question : "A-t-on besoin d'un visa pour aller au Chili depuis l'Australie ?"
Même après ce bad buzz médiatisé, les réponses restent contradictoires :
- ChatGPT (visiblement mis à jour suite à l'incident) : visa requis ✅
- Google, Gemini, Mistral : également visa requis ✅
- Perplexity et Claude : toujours "non, pas besoin de visa pour un court séjour" ❌
Cette incohérence est révélatrice. Si même les grands modèles d'IA ne parviennent pas à s'accorder sur une information aussi factuelle, comment pouvons-nous leur faire aveuglément confiance ?
L'erreur n'est pas d'utiliser l'IA, mais de lui faire aveuglément confiance
L'utilisation des outils d'IA n'est pas le problème en soi. Ces technologies peuvent être extraordinairement utiles pour synthétiser l'information, générer des idées ou faciliter notre quotidien.
Le véritable danger réside dans la confiance excessive que nous leur accordons parfois. Les IA actuelles, malgré leurs prouesses, peuvent encore "halluciner" des informations, c'est-à-dire générer des réponses qui semblent plausibles mais sont factuellement incorrectes.
De même, les moteurs de recherche traditionnels restent truffés de contenus flous, sponsorisés ou obsolètes qui peuvent induire en erreur.
Les leçons à retenir
Cette mésaventure nous rappelle quelques principes essentiels :
- Vérifiez toujours les informations critiques auprès de sources officielles (ambassades, sites gouvernementaux, etc.)
- Croisez plusieurs sources avant de prendre une décision importante
- N'oubliez pas que les IA peuvent se tromper, même si leurs réponses semblent assurées
- Utilisez l'IA comme un assistant, pas comme un oracle infaillible
Une invitation à la réflexion
Cette histoire nous invite à repenser notre relation avec l'intelligence artificielle. Ces outils sont des assistants précieux, mais ils ne remplacent pas notre jugement et notre responsabilité.