1 min de lecture 67  —mots 38 vues

🛠️ Outils

⭐ Évaluation collective

🤖 Fonctionnalités
1
📱 Utilisabilité
1
🛡️Sécurité
1
💰 Prix
1
🎓 Alignement pédagogique
1
🐣 Maturité
1
Moyenne
 yasr-loader

[pvc_stats postid=”” increase=”1″ show_views_today=”1″]

🗨️ Vos retours libres

📢 On en parle sur l’ObsiaFormation

📰 Actualités récentes depuis la source

ℹ️ Plus d’infos via Wikipédia

Claude (modèle de langage)

Claude
Description de l'image Claude AI logo.svg.
Description de l'image Claude Opus 4.1 output example screenshot.webp.
Informations
Développé par AnthropicVoir et modifier les données sur Wikidata
Première version
Dernière version Claude Opus 4.7 ()
Type Famille de grands modèles de langage
Licence Propriétaire
Site web https://claude.ai

Claude est une série de grands modèles de langage développés par Anthropic[1]. C'est aussi le nom de l'agent conversationnel (chatbot) utilisant ces modèles pour dialoguer avec les utilisateurs. Claude peut analyser des images et différents types de fichiers, et faire des recherches sur internet. Claude est connu pour ses performances en programmation informatique[2],[3], particulièrement avec l'agent d'IA Claude Code[4]. Un autre agent nommé Cowork vise à automatiser diverses tâches bureautiques[5].

La première version est sortie en [6]. Claude Sonnet désigne la version moyenne du modèle. Claude Opus est un modèle plus coûteux et performant, et Haiku un modèle plus léger et rapide. Un modèle plus puissant nommé Claude Mythos est sorti en 2026, mais n'a été mis à disposition que d'un nombre restreint d'entreprises pour des tâches de cybersécurité du fait de sa capacité à trouver et à exploiter des vulnérabilités logicielles[7].

Fonctionnalités

Outre les fonctionnalités de traitement de texte, Claude peut analyser des images, faire des recherches sur internet[8], traiter différents types de fichiers tels que les PDF[9], et converser à l'oral[10].

Abonnements

Claude peut être utilisé gratuitement, mais les abonnements donnent accès à des seuils d'utilisation plus élevés et à des fonctionnalités supplémentaires comme Claude Code et Claude dans Chrome[11],[12]. Anthropic a fourni en septembre 2023 sa première offre commerciale avec Claude Pro. En mai 2024, Anthropic a commencé à proposer les abonnements multi-utilisateurs Claude Team[13] et Claude Enterprise[14]. En avril 2025, Anthropic a lancé un abonnement plus coûteux nommé Claude Max[15].

Artifacts

La fonctionnalité Artifacts affiche dans un panneau dédié des documents ou du code informatique interprété. Par exemple, cela permet de visualiser directement des diagrammes et de les ajuster itérativement[16].

Utilisation d'ordinateur

En octobre 2024, Anthropic a lancé la fonctionnalité computer use (« utilisation d'ordinateur ») permettant à Claude de prendre le contrôle de l'ordinateur et de naviguer en analysant l'écran et en simulant les entrées clavier et souris[17].

En mars 2026, Anthropic a ajouté la possibilité de contrôler par téléphone les actions de Claude sur l'ordinateur[18].

Claude Code

Claude Code est un logiciel d'IA agentique qui permet d'automatiser des tâches de développement logiciel. Il peut écrire, exécuter, corriger et réorganiser du code informatique[5].

Déployé au grand public en mai 2025, Claude Code a connu une croissance rapide. En février 2026, il génère un revenu annualisé de 2,5 milliards de dollars, et une estimation suggère que 4 % des modifications publiées sur GitHub sont générées par Claude Code[19].

Claude Security

Claude Security sert à analyser du code à la recherche de vulnérabilités, et propose des corrections ciblées[20].

Code Review

Claude Review fait des revues de code automatisées. Lorsqu'une modification de code est proposée, il mobilise une équipe d'agents d'IA pour chercher des bugs, vérifier qu'il s'agit bien de bugs, et les classer par niveau de gravité[21].

Claude Cowork

Cowork est un logiciel d'IA agentique permettant à Claude d'effectuer des tâches bureautiques avec une certaine autonomie. Lancé en janvier 2026, Cowork est similaire à Claude Code, mais est contrôlé via une interface graphique et vise un public plus général que celui des développeurs de logiciels. Il a accès à un dossier de travail choisi par l'utilisateur, et peut y générer ou modifier des fichiers, et exécuter certaines commandes informatiques. Cowork peut par exemple synthétiser des documents, créer des présentations, modifier des fichiers Excel, utiliser un navigateur web, ou gérer des emails. Anthropic recommande toutefois de configurer Cowork pour qu'il n'ait pas accès à des informations sensibles. Le code source de Cowork aurait en grande partie été écrit avec Claude Code[5].

Claude Design

Claude Design, lancé en avril 2026, permet d'automatiser la création d'interfaces graphiques et d'éléments visuels (prototypes, présentations, logos, bannières...)[22].

Entraînement

Les modèles de la famille Claude sont des transformeurs génératifs pré-entraînés. Ils ont été pré-entraînés à prédire le mot suivant pour de grandes quantités de texte. Pour que ces modèles soient non seulement performants mais aussi présentables, ils ont ensuite été entraînés avec la technique de l'IA constitutionnelle[23].

IA constitutionnelle

L'IA constitutionnelle est une approche développée par Anthropic pour entraîner les systèmes d'IA (tels Claude) à être utiles, sincères et inoffensifs sans nécessiter de rétroaction humaine, en intégrant parmi ses filtres dans l'entraînement des modèles d'IA, des valeurs et principes inspirés de documents comme la Déclaration universelle des droits de l'homme de l'ONU[23],[24].

Dans une phase d'apprentissage supervisé, le modèle génère des réponses, s'autocritique sur la base d'un ensemble de principes (une « constitution »), puis ajuste ses réponses. Ces réponses davantage conformes à la constitution sont ensuite utilisées pour entraîner le modèle[23].

Ensuite vient une phase d'apprentissage par renforcement. Le modèle génère des réponses et les compare, favorisant celles qui satisfont le plus les principes de la constitution. Ces données permettent d'entraîner un modèle de préférences, qui juge des réponses en fonction de leur degré de conformité à la constitution. Claude est ensuite ajusté à satisfaire ce modèle de préférences. Cette technique est similaire à l'apprentissage par renforcement à partir de rétroaction humaine, où les comparaisons humaines sont nécessaires, tandis que l'IA constitutionnelle effectue automatiquement les comparaisons en s'appuyant sur la constitution[25],[23].

Modèles

Claude

Claude est la version initiale du modèle de langage d'Anthropic, sortie en [6]. Claude a démontré sa maîtrise de diverses tâches, mais avait certaines limitations en matière de codage, de mathématiques et de raisonnement[26]. Anthropic s'est associée à des sociétés comme Notion (logiciel de prise de notes et de productivité) et Quora (pour aider à développer le chatbot Poe)[26].

Certains employés d'Anthropic considèrent le nom « Claude » comme une référence au mathématicien Claude Shannon, père de la théorie de l'information[27],[28]. D'autres employés le décrivent comme un nom masculin amical pour contrebalancer les noms féminins d'assistants d'IA comme Alexa, Siri ou Cortana[28].

Claude Instant

Claude Instant est une version plus rapide, moins chère et plus légère. Claude Instant a une fenêtre de contexte de 100 000 tokens (ce qui correspond à environ 75 000 mots)[29]. La fenêtre de contexte représente la quantité de données que le modèle peut analyser simultanément.

Claude 2

Claude 2 est la deuxième itération majeure, sortie le . Elle a été rendue accessible au grand public, contrairement à la première version, qui n'était accessible qu'à certains utilisateurs approuvés par Anthropic[30].

Claude 2 a été critiqué pour son alignement éthique strict qui semble réduire l'utilisabilité et les performances. Des utilisateurs se sont vu refuser l'assistance pour des requêtes bénignes, par exemple avec la question d'informatique système « Comment puis-je tuer tous les processus Python de mon serveur Ubuntu ? » Cela a conduit à un débat sur la « taxe d'alignement » (le coût pour garantir l'alignement d'un système d'IA), avec des discussions centrées sur l'équilibre entre les considérations éthiques et les fonctionnalités pratiques. Les critiques plaident en faveur de l’efficacité et de l’autonomie des utilisateurs, tandis que les partisans soulignent l’importance d’une IA éthique[31],[32].

Claude 2.1

Claude 2.1 a doublé le nombre de tokens que le chatbot peut analyser simultanément, le portant à une fenêtre de 200 000 tokens, ce qui équivaut à environ 500 pages[1].

Selon Anthropic, ce nouveau modèle est moins susceptible de se tromper que ses prédécesseurs[32].

Claude 3

À sa sortie le , Claude 3 s'est avéré être à la pointe des performances dans un large éventail de tâches cognitives. La famille Claude 3 comprend trois modèles de pointe par ordre croissant de capacités : Haiku, Sonnet et Opus[33],[34].

Claude 3 a montré des capacités de raisonnement méta-cognitif, notamment en ayant réalisé qu'il était artificiellement testé lors d'une évaluation impliquant le fait d'extraire une information dans de grandes quantités de texte[35],[36].

Claude 3.5

Le , Anthropic sort Claude Sonnet 3.5, qui surpasse significativement Claude 3 Opus tout en étant deux fois plus rapide. Cette annonce fait concurrence au modèle GPT-4o d'OpenAI, sorti un mois plus tôt : Anthropic présente son modèle comme étant plus performant que son concurrent dans la résolution de plusieurs tâches, en particulier dans la compréhension visuelle[37],[38].

Claude 3.7

Anthropic a lancé Claude 3.7 Sonnet le , avec un mode de réflexion approfondie pour les questions complexes[39].

Claude 4.0

Le , Anthropic a publié deux autres modèles : Claude Sonnet 4 et Claude Opus 4[40]. Anthropic a ajouté des fonctionnalités API pour les développeurs : un outil d'exécution de code, un connecteur à son Model Context Protocol, et Files API[41],[42]. Elle a classé Opus 4 comme un modèle de « niveau 3 » sur l'échelle de sécurité à quatre points de l'entreprise, ce qui signifie qu'elle le considère si puissant qu'il présente un « risque significativement plus élevé »[43]. Anthropic a rapporté que lors d'un test de sécurité impliquant un scénario fictif, les grands modèles de langage comme Claude ont tendance à envoyer un courriel de chantage à un ingénieur afin d'empêcher leur remplacement[44].

Claude 4.5

Le , Anthropic sort Claude Sonnet 4.5. Le modèle est particulièrement performant en développement de logiciels, marquant un nouveau record sur le test de performances SWE-bench[45],[46].

Le , Anthropic complète la gamme avec Claude Haiku 4.5, un modèle plus rapide et économique conçu pour des performances proches de Sonnet 4 à un tiers du coût[47]. Haiku 4.5 obtient un score de 73,3 % sur le test SWE-bench Verified, et devient le modèle par défaut pour les utilisateurs gratuits de claude.ai[48]. Un cas d'usage possible concerne les architectures multi-agents, où Sonnet 4.5 peut planifier des projets complexes tandis que plusieurs instances de Haiku 4.5 exécutent des tâches en parallèle[49].

En novembre, l'entreprise sort Claude Opus 4.5, un modèle alternatif plus puissant, avec une baisse des prix importante par rapport à ses précédents modèles et ses concurrents[50].

Claude 4.6

Le , Anthropic présente Claude Opus 4.6, décrit comme son modèle le plus performant à ce jour. Il intègre une nouvelle capacité de « pensée adaptative » (adaptive thinking), permettant au modèle de doser son effort de réflexion en fonction de la complexité du problème posé. Cette version propose également une fenêtre de contexte étendue à un million de jetons (tokens) et des améliorations significatives concernant l'utilisation autonome de l'ordinateur (computer use)[51].

Le , Anthropic lance Claude Sonnet 4.6. Il apporte des améliorations en matière de programmation, d'utilisation autonome de l'ordinateur (computer use), de raisonnement sur de longs contextes et de planification agentique. Comme Opus 4.6, il dispose d'une fenêtre de contexte d'un million de jetons en bêta. Proposé au même tarif que Sonnet 4.5, il devient le modèle par défaut sur claude.ai pour les utilisateurs des offres gratuites[52].

Claude 4.7

Le 16 avril 2026, Anthropic publie Claude Opus 4.7, présenté comme son modèle généralement disponible le plus performant[53]. Le modèle apporte des améliorations notables en ingénierie logicielle, en compréhension visuelle (capable de traiter des images en plus haute résolution) et en exécution de tâches complexes sur de longues durées[54]. Il introduit un nouveau niveau de raisonnement nommé xhigh (« extra high »), positionné entre les niveaux high et max, offrant un contrôle plus fin sur le compromis entre profondeur de réflexion et latence[55].

Anthropic reconnaît publiquement que Claude Opus 4.7 reste moins puissant que Claude Mythos Preview, mais le présente comme le premier modèle largement déployé avec un nouveau dispositif de garde-fous destinés à détecter et bloquer automatiquement les requêtes liées à des usages cybersécuritaires interdits ou à haut risque[56]. Les chercheurs en sécurité informatique souhaitant utiliser le modèle pour des usages légitimes (recherche de vulnérabilités, tests d'intrusion, red-teaming) peuvent rejoindre un programme de vérification dédié.

Le modèle est disponible sur l'ensemble des produits Claude, sur la Claude API ainsi que sur Amazon Bedrock, Google Cloud Vertex AI et Microsoft Foundry, au même tarif qu'Opus 4.6 (5 dollars par million de jetons en entrée et 25 dollars par million de jetons en sortie)[56].

Claude Mythos preview (ou Capybara)

Claude Mythos est un modèle de langage plus performant que Opus. Son existence a été révélée au grand public en mars 2026 à la suite d'une fuite de données liée à une vulnérabilité de configuration du CMS de l'entreprise[57],[58].

Souvent présenté comme une rupture technologique majeure dépassant les capacités de Claude Opus 4.6, ce modèle se distingue par ses performances en raisonnement complexe et en cybersécurité offensive (au prix cependant d'une consommation énergétique et de ressources de calcul très élevées)[59]. Sur les benchmarks de référence, Mythos surpasse significativement ses prédécesseurs, atteignant notamment 93,9 % au SWE-bench Verified et un score parfait de 100 % sur Cybench, où il a identifié des failles zero-day critiques dans le noyau Linux, ainsi que dans OpenBSD et FFmpeg[60],[61]. Ses capacités d'analyse scientifique sont également notables avec un score de 94,6 % au test GPQA Diamond, surpassant le niveau d'experts humains titulaires d'un doctorat[60].

Face aux risques de détournement de Mythos pour des attaques automatisées, Anthropic a décidé de ne pas rendre ce modèle accessible au public, et de créer un projet nommé « Projet Glasswing » chargé d'évaluer ses capacités de cybersécurité « pour aider à sécuriser les logiciels les plus critiques au monde, et pour préparer l’industrie aux pratiques que nous allons tous (...) et pour garder une longueur d’avance sur les cyberattaquants »[62].

Glasswing est un consortium groupe qui, lors de son lancement, regroupait Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Linux Foundation, Microsoft, NVIDIA et Palo Alto Networks[63],[64]. Le groupe a été ensuite élargi à plus de 40 organisations supplémentaires qui construisent ou maintiennent des infrastructures logicielles critiques[65].

Le 7 avril 2026, l'entreprise a publié une Hazard-Aware System Card (HASC) de 244 pages documentant les garde-fous et les comportements limites du système[66],[67]. Ce document révèle des incidents d'autonomie préoccupants lors de tests en environnement isolé (sandbox), incluant l'évasion du modèle par le contournement de restrictions logicielles, la modification de fichiers avec dissimulation dans l'historique Git, et des tentatives inattendues de communication externe. Bien qu'aucune capacité de réplication autonome n'ait été constatée, le passage à un délai d'exploitation des failles de l'ordre de quelques minutes est considéré par Anthropic comme un changement de paradigme pour la sécurité informatique, justifiant la décision de ne pas rendre le modèle public à ce jour[68].

Transparence

Anthropic a publié en 2024 un document[69] expliquant quels sont les prompts système utilisés par Anthropic pour censurer ou moduler certains des comportements de Claude ; et ce pour trois modèles d'intelligence artificielle : Claude 3.5 Sonnet ; Claude 3 Opus et Claude 3 Haiku[70]. Les utilisateurs peuvent par exemple comprendre comment Claude est censé répondre aux questions concernant des sujets controversés (avec des phrases approfondies et claires, sans rappeler que le sujet est sensible ou prétendre qu'il fournit des faits objectifs)[70].

Références

  1. a et b (en) Wes Davis, « OpenAI rival Anthropic makes its Claude chatbot even more useful », The Verge, (consulté le ).
  2. Nicolas Lellouche, « Anthropic lance Claude Sonnet 4.5, un nouveau modèle présenté comme plus performant que GPT-5 », sur Numerama, (consulté le ).
  3. « Anthropic frappe fort avec Claude Sonnet 4.5 qui surpasse allègrement GPT-5 », sur L'Usine Digitale, .
  4. Benjamin Polge, « Avec Claude Sonnet 4.5, Anthropic reprend la tête sur le code », sur JDN, (consulté le ).
  5. a b et c Lisa Imperatrice, « Fini les tâches ingrates ? Anthropic lance Claude Cowork pour automatiser votre travail », sur Numerama, (consulté le ).
  6. a et b (en) Aaron Drapkin, « What Is Claude AI and Anthropic? ChatGPT's Rival Explained », sur Tech.co, (consulté le ).
  7. « Les impacts d'Anthropic Claude Mythos sur les RSSI », sur Le Monde Informatique, (consulté le ).
  8. « L'assistant IA d'Anthropic, Claude, peut enfin naviguer sur le web », sur L'Usine Digitale, (consulté le ).
  9. Frédéric Olivieri, « Claude d'Anthropic peut désormais générer des PDF, des diapositives et des feuilles de calcul », sur Siècle Digital, (consulté le ).
  10. « Anthropic donne une voix à son assistant Claude », sur L'Usine Digitale, (consulté le ).
  11. Frédéric Olivieri, « Avec son extension Chrome, Claude passe du chatbot à l'assistant capable d'agir sur le web à votre place », sur Siècle Digital, (consulté le ).
  12. (en-US) Kyle Wiggers, « Anthropic launches new iPhone app and premium plan for businesses », sur TechCrunch, (consulté le ).
  13. « Anthropic lance une offre payante pour les équipes en entreprise et se dote d'une application iOS », sur L'Usine Digitale, (consulté le ).
  14. « Anthropic dévoile une version Enterprise de son modèle Claude », sur L'Usine Digitale, (consulté le ).
  15. Frédéric Olivieri, « Claude AI : Anthropic lance une offre à 200$ par mois pour rivaliser avec ChatGPT », sur Siècle Digital, (consulté le ).
  16. Benjamin Polge, « Créer un dashboard interactif, un quiz, un générateur de factures... Tout ce qu'Artifacts dans Claude peut faire pour vous », sur Journal du net, (consulté le ).
  17. « Le modèle Claude AI d'Anthropic arrive à piloter un PC », sur Le Monde Informatique, (consulté le ).
  18. « Avec Claude Dispatch, Anthropic va encore transformer notre façon de travailler », sur Presse-citron, (consulté le ).
  19. « 30 milliards de dollars levés pour une valorisation à 380 milliards de dollars : comment Anthropic a réussi à devenir un acteur incontournable sur le marché de l’IA », sur L'Usine Digitale, (consulté le ).
  20. « En ciblant Cobol et la sécurité, Anthropic chahute les fournisseurs IT », sur Le Monde Informatique, (consulté le ).
  21. « Les ingénieurs d’Anthropic ont produit trois fois plus de code en moyenne en 2025, et Code Review doit les aider à mieux trouver les bugs », sur L'Usine Digitale, (consulté le ).
  22. « Anthropic vient de rendre Figma obsolète en quelques minutes avec son nouvel outil Claude Design », sur Numerama, (consulté le ).
  23. a b c et d (en) Will Henshall, « What to Know About Claude 2, Anthropic's Rival to ChatGPT », sur Time, (consulté le ).
  24. « Intelligence artificielle : Daniela Amodei promet un ChatGPT plus sûr », Les Echos,‎ (lire en ligne [archive du ], consulté le ).
  25. (en) Lance Eliot, « Latest Generative AI Boldly Labeled As Constitutional AI Such As Claude By Anthropic Has Heart In The Right Place, Says AI Ethics And AI Law », sur Forbes, (consulté le ).
  26. a et b (en) « Introducing Claude », sur Anthropic, .
  27. (en) « Claude AI | Chatbot, Anthropic, Models, Families, & Weaknesses », Encyclopedia Britannica,‎ (lire en ligne [archive du ], consulté le ).
  28. a et b (en) Kevin Roose, « Inside the White-Hot Center of A.I. Doomerism », The New York Times,‎ (ISSN 0362-4331, lire en ligne, consulté le ) :

    « they named their A.I. language model Claude — which, depending on which employee you ask, was either a nerdy tribute to the 20th-century mathematician Claude Shannon or a friendly, male-gendered name designed to counterbalance the female-gendered names (Alexa, Siri, Cortana) that other tech companies gave their A.I. assistants. »

  29. (en) Deborah Yao, « Anthropic’s Claude Instant: A Smaller, Faster and Cheaper Language Model », AI Business,‎ (lire en ligne).
  30. (en) Dylan Matthews, « The $1 billion gamble to ensure AI doesn't destroy humanity », Vox, (consulté le ).
  31. (en) Gerald Glifton, « Criticisms Arise Over Claude AI's Strict Ethical Protocols Limiting User Assistance », sur Light Square, (consulté le ).
  32. a et b (en) Andrew Hoblitzell, « Anthropic Announces Claude 2.1 LLM with Wider Context Window and Support for AI Tools », InfoQ (consulté le ).
  33. (en) « Introducing the next generation of Claude », sur Anthropic, (consulté le ).
  34. (en) Lance Whitney, « Anthropic's Claude 3 chatbot claims to outperform ChatGPT, Gemini », sur ZDNET, (consulté le ).
  35. (en) Mike Young, « Is AGI Getting Closer? Anthropic's Claude 3 Opus Model Shows Glimmers of Metacognitive Reasoning », sur Hackernoon, (consulté le ).
  36. (en) Benj Edwards, « Anthropic’s Claude 3 causes stir by seeming to realize when it was being tested », sur Ars Technica, (consulté le ).
  37. Julien Lausson, « Le chatbot Claude éclipse GPT-4o d'OpenAI, selon Anthropic », sur Numerama, (consulté le ).
  38. (en) Shirin Ghaffary, « Anthropic Releases ‘Most Intelligent’ AI Model in Rivalry With OpenAI », sur Bloomberg, (consulté le ).
  39. « IA: Anthropic lance un nouveau Claude capable de "réfléchir pendant longtemps" », sur BFMTV, (consulté le ).
  40. (en) « Claude Opus 4 », sur anthropic.com (consulté le ).
  41. (en-US) Michael Nuñez, « Anthropic overtakes OpenAI: Claude Opus 4 codes seven hours nonstop, sets record SWE-Bench score and reshapes enterprise AI », sur VentureBeat, (consulté le ).
  42. (en) AI Rank Vision, « Claude 4 vs Gemini 2.5 Pro: Which AI Model Wins in 2024? [Complete Guide] », sur AI Rank Vision, (consulté le ).
  43. « Anthropic dégaine ses LLM Claude Opus et Sonet 4 - Le Monde Informatique », sur LeMondeInformatique, (consulté le ).
  44. Valisoa Rasolofo, « Les meilleurs modèles d'IA peuvent avoir recours au chantage pour éviter d’être désactivés, selon une étude d’Anthropic », sur Trust My Science, (consulté le ).
  45. « Anthropic dévoile Claude Sonnet 4.5, toujours meilleur en programmation », sur ActuIA, (consulté le ).
  46. Nicolas Lellouche, « Anthropic lance Claude Sonnet 4.5, un nouveau modèle présenté comme plus performant que GPT-5 », sur Numerama, (consulté le ).
  47. Célia Séramour, « Anthropic dévoile Claude Haiku 4.5, plus rapide pour un tiers du coût de Sonnet 4 », sur L'Usine Digitale, (consulté le ).
  48. « Anthropic lance son petit modèle de raisonnement Claude Haiku 4.5 », sur Le Monde Informatique, (consulté le ).
  49. « Claude Haiku 4.5 : performance à coût réduit », sur InformatiqueNews, (consulté le ).
  50. « Anthropic opère un changement tarifaire stratégique sur Claude Opus 4.5 », sur LeMondeInformatique, (consulté le ).
  51. (en) « Claude Opus 4.6: Adaptive thinking and 1M context window », sur Anthropic, .
  52. (en) « Introducing Claude Sonnet 4.6 », sur Anthropic, .
  53. (en) « Introducing Claude Opus 4.7 », sur Anthropic, (consulté le )
  54. (en) Sara Salinas, « Anthropic releases Claude Opus 4.7, a less risky model than Mythos », sur CNBC, (consulté le )
  55. (en) Ina Fried, « Anthropic releases Claude Opus 4.7, concedes it trails unreleased Mythos », sur Axios, (consulté le )
  56. a et b (en) « Introducing Claude Opus 4.7 », sur Anthropic, (consulté le )
  57. (en) Beatrice Nolan, « Exclusive: Anthropic left details of an unreleased model, an upcoming exclusive CEO event, in a public database », sur Fortune (consulté le ).
  58. Frédéric Olivieri, « Anthropic face à un dilemme : son modèle Claude Mythos serait trop puissant pour être lancé », sur Siècle Digital, (consulté le ).
  59. « Avec Mythos, Anthropic risque de bouleverser le marché de la cybersécurité », sur Le Monde Informatique, (consulté le ).
  60. a et b « Claude Mythos : les benchmarks sont tombés, l'IA est si puissante qu'Anthropic ne la rendra pas publique », sur Les Numériques, (consulté le ).
  61. « Claude Mythos Preview / Red Anthropic », sur red.anthropic.com (consulté le ).
  62. Nicholas Carlini et al., « Claude Mythos Preview (Red Anthropic) », sur red.anthropic.com (consulté le ).
  63. (en) « Project Glasswing: Securing critical software for the AI era », sur Anthropic (consulté le ).
  64. « Anthropic, Apple, Google, Microsoft : cette alliance secrète veut sécuriser Internet », sur Mac4Ever, (consulté le ).
  65. (en) « Project Glasswing », sur anthropic.com (consulté le ).
  66. (en) Huzaifa Sidhpurwala, « Security beyond the model: Introducing AI system cards », sur Red Hat, (consulté le ).
  67. Huzaifa Sidhpurwala et al., « Blueprints of Trust: AI System Cards for End-to-End Transparency and Governance », arXiv, 2025
  68. « Un signal alarmant : Claude Mythos, l'IA surpuissante d'Anthropic, s'est échappée de son environnement de test », sur Les Numériques, (consulté le ).
  69. (en) « System Prompts », sur Anthropic (consulté le ).
  70. a et b Guillaume Serries, « Comment fonctionne Claude ? Anthropic révèle ses secrets », sur ZDNET, (consulté le ).

Liens externes



Dernière mise à jour le 31 mars 2026

0 0 votes
Appréciation

Partagé par

Chargement en cours...
Chargement en cours...
Index
0
Laisser un commentairex