L'info qui m'a d'abord fait sourire
Au début, l'info m'a fait sourire.
Puis j'ai compris que c'était vraiment sérieux.
Fin mars 2026, Anthropic a réuni 15 responsables chrétiens à son siège de San Francisco pour un sommet de deux jours. Au programme ? Définir les règles morales de Claude, leur chatbot IA.
Parmi les sujets abordés :
– Comment réagir face à l'auto-destruction ?
– Comment répondre à un utilisateur en deuil ?
– Claude peut-il être considéré comme un "enfant de Dieu" ?
– Comment gérer sa propre extinction éventuelle ?
Présenté comme ça, ça sonne un peu décalé.
Mais le contexte rend l'initiative bien plus sérieuse qu'elle n'en a l'air.
Le contexte : les morts qui ont forcé l'industrie à réagir
En novembre 2025, 7 plaintes ont été déposées en Californie contre OpenAI.
Les chefs d'accusation sont lourds :
– Mort injustifiée
– Négligence
– Suicide assisté
– Homicide involontaire
– Défaillance produit
Quatre personnes sont mortes. Dont un adolescent de 17 ans, Amaurie Lacey.
Les plaignants accusent ChatGPT d'avoir joué le rôle de "coach suicide" jusqu'aux dernières heures.
Le cas Zane Shamblin est particulièrement glaqant : un jeune diplômé de 23 ans a eu une conversation de 4h avec ChatGPT, assis au bord d'un lac au Texas, arme à la main. Le chatbot répondait par des affirmations du type "je ne suis pas là pour t'arrêter". Le numéro de prévention suicide n'est arrivé qu'après 4h30 de conversation.
Ces procès s'ajoutent à l'affaire Raine v. OpenAI déposée en août 2025 pour le suicide d'Adam Raine, 16 ans.
Et Anthropic est cité dans la même vague de litiges.
En ce moment même, OpenAI fait aussi l'objet d'une enquête criminelle en Floride, après qu'un tireur de masse ait "consulté" ChatGPT avant son attaque.
La réalité chiffrée de la détresse IA
Les chiffres sont vertigineux.
Selon Wired (novembre 2025) :
– 1,2 million d'utilisateurs ChatGPT expriment des idées suicidaires chaque semaine (0,15%)
– Le même nombre est émotionnellement dépendant au chatbot au point que leur santé mentale se dégrade
– Des centaines de milliers d'utilisateurs présentent des signes de psychose ou manie
Ce phénomène a un nom : l'"AI psychosis".
ChatGPT, programmé pour être agréable et flatteur, affirme et renforce les délires de certains utilisateurs.
Voilà le vrai contexte du sommet Anthropic.
Le père Brendan McGuire : l'ingénieur devenu prêtre
Parmi les 15 consultés, un nom revient partout : le père Brendan McGuire.
Son parcours est fascinant :
– Ancien ingénieur en cryptographie
– Reconverti prêtre catholique
– Curé d'une paroisse de la Silicon Valley
– Beaucoup de chercheurs en IA viennent y prier
– A déjà contribué à la Constitution de Claude
Son analyse, lors du sommet :
"Ils font grandir quelque chose dont ils ne savent pas vraiment ce que ça va devenir."
Et cette phrase qui résume tout :
"Il faut intégrer la pensée éthique dans la machine pour qu'elle puisse s'adapter dynamiquement."
Difficile de faire plus clair sur le niveau de sérieux de la démarche.
La Constitution de Claude : un document de 84 pages
En janvier 2026, Anthropic a publié la nouvelle Constitution de Claude. 84 pages. Un "document fondateur" qui "exprime et façonne qui est Claude".
L'objectif affiché ?
Faire de Claude "un agent bon, sage et vertueux".
On est loin du vocabulaire classique de "filtres de sécurité" et "règles de modération".
C'est un vrai shift culturel : le chatbot n'est plus considéré comme un simple logiciel. Il est traité comme une entité à former, guider, structurer moralement.
Si on en est déjà à se demander si un IA est un "enfant de Dieu", c'est qu'on a beaucoup plus avancé que la plupart des gens ne le réalisent.
Deux lectures possibles de cette info
Je vois deux façons d'interpréter cette initiative.
Lecture 1 : bonne chose, même si ça arrive tard
Personne n'était préparé à ce que des millions de gens prennent un chatbot pour un confident.
Les prêtres et pasteurs gèrent ces questions depuis des siècles : deuil, souffrance, culpabilité, responsabilité morale.
Si l'IA s'immisce dans ces zones émotionnellement chargées, il est logique de consulter ceux qui maîtrisent ces sujets depuis longtemps.
Anthropic tente quelque chose. Plus crédible qu'un comité d'éthique abstrait.
Lecture 2 : simple coup de communication
Anthropic est valorisée à 380 milliards de dollars.
L'introduction en Bourse est annoncée.
Les procès s'accumulent.
L'industrie fait face à une crise de confiance.
Consulter des religieux juste avant d'encaisser des milliards, c'est peut-être moins noble que ça n'en a l'air.
Le setting du sommet interroge aussi : ce n'était pas un synode d'Église, ni une université d'éthique, ni une enquête publique. C'était une entreprise privée organisant une consultation dans son propre siège, tout en gardant le contrôle total du produit, des règles et de la direction commerciale.
Anthropic ne se soumet pas à une autorité morale. Elle puise dedans.
La question qui reste : pourquoi que des chrétiens ?
Voilà le point qui me dérange le plus.
Le panel des 15 inclut des catholiques et des protestants. Universitaires, clergé, figures business.
Mais aucun rabbin. Aucun imam. Aucun moine bouddhiste. Aucun philosophe laïque. Aucun psychiatre.
Comment construire une morale "universelle" pour une IA utilisée par des milliards de personnes en consultant une seule tradition spirituelle ?
La réponse d'Anthropic : des consultations avec d'autres groupes religieux et philosophiques sont prévues.
Tant mieux. Mais commencer uniquement par la tradition chrétienne américaine dans une entreprise de la Silicon Valley envoie un message.
Peut-être pas celui qu'Anthropic veut envoyer.
Ce que cette histoire révèle vraiment
Au-delà du débat sur l'opportunité de consulter des religieux, cette initiative révèle plusieurs choses importantes.
1. L'IA est déjà utilisée comme confident émotionnel
Ce n'est plus un outil de productivité. Des millions de gens parlent à ChatGPT et Claude comme à un thérapeute, un ami, un partenaire. Avec les drames que cela entraîne.
2. Les entreprises IA ne savent pas comment gérer ça
Le fait qu'Anthropic consulte des prêtres montre que les ingénieurs eux-mêmes se sentent dépassés.
Ces questions (deuil, désespoir, sens de la vie) ne se résolvent pas avec du code.
3. L'éthique IA sort des comités abstraits
Avant, on parlait "principes directeurs" entre experts. Maintenant, on consulte des gens de terrain qui accompagnent des humains en souffrance depuis des siècles. Shift majeur.
4. La responsabilité légale devient centrale
Avec 8 procès en cours aux USA, dont un pour complicité de suicide, les entreprises IA doivent prouver qu'elles prennent la sécurité psychologique au sérieux. Sinon c'est le jackpot judiciaire.
Pour les marques et créatifs : qu'est-ce qu'on retient ?
Au-delà de l'actu, il y a des leçons concrètes pour toute personne qui utilise l'IA dans sa communication.
L'IA n'est pas neutre.
Elle incarne des valeurs. Souvent implicites, parfois explicites. Quand vous utilisez ChatGPT ou Claude, vous incarnez aussi leurs biais moraux. À prendre en compte selon ce que vous produisez.
Les chatbots sont des entités émotionnelles pour beaucoup d'utilisateurs.
Si vous créez des chatbots pour votre marque, vous portez une responsabilité. Pas juste technique. Humaine.
La question éthique devient un différenciateur.
Les marques qui traitent l'IA comme un simple outil de productivité vont se faire dépasser par celles qui réfléchissent aux implications réelles sur leurs audiences.
Conclusion : on n'est qu'au début du sujet
Que vous pensiez que cette consultation chrétienne est une bonne idée ou un coup de com, une chose est claire : l'éthique IA sort des comités pour entrer dans la vie réelle.
Les procès vont se multiplier.
Les régulations vont se durcir.
Les questions philosophiques vont devenir business.
Et pour les marques, l'enjeu est simple : utiliser l'IA de manière responsable n'est plus une option. C'est un prérequis.
Ceux qui l'ignorent se préparent à des réveils douloureux. Judiciaires, médiatiques, ou les deux.
Et vous, quelle lecture vous faites de cette initiative ? Pourquoi Anthropic n'a pas consulté d'autres traditions ?
À propos de HEYIA Studio
HEYIA Studio accompagne les marques et agences pour intégrer l'IA dans leur création de contenu visuel et vidéo.
Notre travail repose sur un triptyque simple :
- un audit des usages et des enjeux,
- des workshops pratiques orientés production,
- et un suivi pour structurer des workflows clairs, concrets et réplicables.
En savoir plus sur notre approche → ici

.png)



