Des appels au boycott de ChatGPT circulent dans certains milieux, en raison de ses liens supposés ou réels avec des institutions gouvernem...
Des appels au boycott de
ChatGPT circulent dans certains milieux, en raison de ses liens supposés ou réels avec des institutions gouvernementales américaines, notamment le
Pentagone. En parallèle,
Claude, développé par
Anthropic, semble gagner du terrain sur le marché.
Origine de la controverse
La société OpenAI, créatrice de ChatGPT, collabore avec différentes entités publiques et privées, y compris des agences gouvernementales. Pour certains critiques, toute coopération avec des institutions militaires soulève des questions éthiques concernant l’usage de l’intelligence artificielle.
D’autres estiment cependant que ces partenariats sont encadrés légalement et concernent souvent des usages techniques ou logistiques, sans lien direct avec des opérations militaires offensives.
Pourquoi Claude progresse-t-il ?
-
Anthropic met fortement en avant la notion d’« IA responsable » et de sécurité.
-
Certaines entreprises cherchent à diversifier leurs fournisseurs d’IA pour limiter leur dépendance à un seul acteur.
-
La concurrence accrue dans le secteur des modèles d’IA favorise la redistribution des parts de marché.
Contexte global
Il est important de noter que la majorité des grandes entreprises technologiques mondiales entretiennent des relations contractuelles avec des gouvernements. Le débat actuel s’inscrit donc dans une réflexion plus large sur la régulation, la transparence et l’éthique de l’intelligence artificielle.
En résumé : la polémique reflète surtout les tensions croissantes autour de l’IA et de ses usages stratégiques, dans un contexte de compétition technologique mondiale.
Aucun commentaire