Les questions sur l'IA se multiplient, mais les réponses restent souvent vagues ou trop techniques. Cette page tente de faire le contraire : des réponses directes, sourcées, qui ne cherchent ni à vendre l'IA ni à faire peur.
Ce sont tous des LLMs (grands modèles de langage), mais leurs origines, leur gouvernance et leurs positionnements diffèrent sur des points qui méritent d'être connus avant de choisir.
ChatGPT est développé par OpenAI, entreprise américaine fondée à San Francisco en 2015 comme organisation à but non lucratif, avant de se convertir en entreprise commerciale. OpenAI a conclu en février 2026 un accord avec le Pentagone américain pour déployer ses modèles dans des systèmes militaires classifiés, quelques heures après qu'Anthropic eut refusé de signer un accord similaire sans garanties explicites sur la surveillance et les armes autonomes. La réaction du public américain a été immédiate : les désinstallations de l'application ChatGPT ont bondi de 295% en une seule journée (source : Usine Digitale, mars 2026). L'accord initial autorisait une utilisation "pour toute finalité légale", une formulation jugée très floue par plusieurs observateurs, dont le média spécialisé Techdirt. Sam Altman a ensuite précisé que les modèles ne seraient pas utilisés "intentionnellement" pour surveiller les citoyens américains. La restriction s'applique aux citoyens américains uniquement : aucune protection explicite n'est prévue pour le reste du monde dans le texte de l'accord.
Claude est développé par Anthropic, également basée à San Francisco, fondée en 2021 par d'anciens employés d'OpenAI. Anthropic a refusé de signer un accord militaire sans garanties explicites sur la surveillance de masse et les armes létales autonomes, ce qui lui a valu d'être bannie des agences fédérales américaines par décret de Donald Trump. Ironie du calendrier : dans les jours qui ont suivi, Claude est passé en tête de l'App Store américain devant ChatGPT (source : Clubic, mars 2026). Anthropic se distingue par une approche de sécurité plus formalisée, mais reste une entreprise américaine soumise à la législation américaine et à ses injonctions gouvernementales.
Gemini est développé par Google DeepMind, filiale de Alphabet, l'un des plus grands acteurs publicitaires mondiaux. Son modèle économique repose sur l'exploitation de données pour la publicité ciblée, ce qui n'est pas sans incidence sur la façon dont vous devriez envisager ce que vous lui confiez.
Microsoft Copilot est construit sur les modèles d'OpenAI et intégré dans l'ensemble de la suite Microsoft (Word, Excel, Teams, Edge). Pour les entreprises déjà dans l'écosystème Microsoft, c'est l'option la plus fluide. Pour les autres, c'est un accès indirect à ChatGPT avec une couche d'intégration supplémentaire.
Mistral AI est une startup française fondée en 2023 par d'anciens chercheurs de Google et Meta. Elle représente la principale alternative européenne aux géants américains, avec des modèles open source, une gouvernance de droit français et un encadrement par le règlement européen sur l'IA (AI Act, entré en vigueur le 1er août 2024, source : Journal Officiel de l'UE, juillet 2024). Mistral a levé 1,7 milliard d'euros en 2025 pour une valorisation estimée à 11,7 milliards (source : Adimeo, novembre 2025). La question de sa souveraineté réelle reste posée : un partenariat avec Microsoft, conclu en 2024, lui donne accès à une puissance de calcul considérable mais l'inscrit dans une dépendance partielle envers un acteur américain.
Adobe Firefly est un outil d'IA générative spécialisé dans la création visuelle, développé par Adobe et intégré dans Creative Cloud (Photoshop, Illustrator, Premiere Pro). Sa singularité : il est entraîné sur des contenus sous licence Adobe Stock et des œuvres du domaine public, ce qui le positionne comme l'option la plus sécurisée juridiquement pour les professionnels de l'image qui redoutent les questions de droits d'auteur.
La ligne de fracture la plus significative aujourd'hui n'est pas technique : elle est géopolitique. Les modèles américains sont soumis à la législation américaine et peuvent faire l'objet d'injonctions gouvernementales. L'AI Act européen impose depuis août 2025 des obligations de transparence aux modèles à usage général déployés en Europe, mais son application reste progressive et son efficacité sur les géants américains est encore incertaine (source : CNIL, 2024).
La question n'est pas tant quelle IA choisir que comment la configurer selon vos besoins. Toutes les grandes plateformes proposent une version gratuite suffisante pour commencer, et les différences de performance sur les tâches courantes sont moins importantes que ce que les communications marketing laissent entendre.
Ce qui change vraiment la donne, c'est la façon dont vous préparez votre IA à vous répondre. Sans configuration préalable, vous recommencez à zéro à chaque conversation : l'outil ne sait pas qui vous êtes, quel est votre niveau, ce que vous attendez comme format de réponse, dans quelle langue vous souhaitez travailler. Vous passez alors du temps à recadrer, reformuler, corriger le ton, demander à l'outil de raccourcir ou d'approfondir. Ce temps est perdu à chaque session.
Configurer ses préférences règle ce problème définitivement. Dès la première phrase d'une conversation, l'IA dispose d'un contexte stable et calibre immédiatement son niveau et son ton. Pour vous aider à construire ce texte de préférences, adapté à votre plateforme (Claude, ChatGPT ou Gemini), un prompt dédié est disponible ici : Préférences personnelles pour IA et autres LLMs.
Pour ce qui est du choix initial : si vous êtes dans l'écosystème Google, Gemini est naturellement intégré. Si vous utilisez déjà Microsoft Office, Copilot s'inscrit sans friction dans votre flux de travail. Si vous êtes sensible aux questions de gouvernance européenne ou de souveraineté des données, Mistral AI (via le.chat ou l'API) mérite d'être testé. Si vous voulez l'outil le plus polyvalent pour commencer sans contrainte particulière, Claude et ChatGPT restent les références actuelles en termes de qualité de réponse sur des tâches complexes. La page débuter approfondit ces choix.
Toutes les grandes plateformes proposent un accès gratuit, mais avec des limites qu'il vaut mieux connaître avant de se retrouver bloqué en pleine session de travail.
ChatGPT gratuit donne accès à GPT-4o avec un quota de messages limité par période. Au-delà, le modèle bascule sur une version moins performante. La version payante (ChatGPT Plus, 20 dollars par mois) lève la plupart des contraintes et donne accès aux fonctions avancées comme la génération d'images intégrée.
Claude propose une version gratuite fonctionnelle pour des échanges courts à moyens. La limite est principalement sur la taille du contexte (volume de texte qu'il peut traiter en une session) et le nombre de messages par jour. Claude Pro (environ 18 euros par mois) double la capacité de contexte et lève les restrictions d'usage.
Gemini est accessible gratuitement via Google, avec une intégration dans Gmail, Docs et Drive pour les comptes Google standards. La version avancée (Gemini Advanced, incluse dans Google One AI Premium à 21,99 euros par mois) donne accès aux modèles les plus puissants.
Mistral AI propose le.chat (son interface publique) gratuitement, avec les modèles open source disponibles sans restriction d'usage. C'est l'option la plus ouverte en termes de quotas pour un usage quotidien standard.
Microsoft Copilot est accessible gratuitement dans Edge et via copilot.microsoft.com, avec une version avancée intégrée dans Microsoft 365 (abonnement entreprise requis pour les fonctions les plus poussées dans Office).
La règle générale : les versions gratuites sont suffisantes pour découvrir et tester. Elles deviennent limitantes quand les tâches sont longues, répétitives ou nécessitent des modèles de dernière génération.
La question est posée depuis 2023 et les réponses varient considérablement selon les sources et les intérêts de ceux qui les formulent. Quelques éléments factuels méritent d'être mis en avant.
Un rapport du cabinet McKinsey publié en 2023 estimait que 60 à 70% des tâches professionnelles pourraient être automatisées techniquement d'ici à 2030, mais précisait que l'automatisation technique et le remplacement réel des emplois sont deux choses différentes. Les contraintes organisationnelles, réglementaires et sociales ralentissent considérablement la transition. Une étude du FMI publiée en janvier 2024 estimait que l'IA affecterait environ 40% des emplois dans le monde, mais avec des impacts très hétérogènes selon les pays et les secteurs.
Ce qui se passe réellement sur le terrain est plus nuancé. Certaines tâches répétitives à faible valeur ajoutée disparaissent effectivement : la transcription, la relecture basique, la production de premiers jets génériques, la mise en forme de données standards. En revanche, les tâches qui requièrent un jugement contextuel, une relation humaine, une responsabilité légale ou une créativité ancrée dans une expérience personnelle résistent mieux à l'automatisation.
Le risque réel n'est pas forcément le remplacement direct : c'est la dévaluation salariale de compétences qui étaient rares et qui deviennent banales dès lors qu'une IA peut les produire en quelques secondes. Un rédacteur capable de produire un contenu générique en deux heures est en compétition directe avec un outil qui fait la même chose en 30 secondes. Un rédacteur capable de produire un point de vue original, ancré dans une expertise ou une sensibilité particulière, ne l'est pas.
L'IA va probablement transformer davantage d'emplois qu'elle n'en fera disparaître, mais cette transformation va créer des gagnants et des perdants. Ceux qui maîtrisent ces outils pour augmenter leur productivité et la qualité de leur travail seront mieux positionnés que ceux qui les ignorent ou s'y opposent par principe. Mais croire que tout le monde peut simplement "apprendre à utiliser l'IA" et voir ses revenus stagner ou baisser est une vision naïve de ce qui se joue.
Ce qui se joue est plus précis que le simple remplacement. Prenons l'illustration : c'est un domaine où l'impact de l'IA est déjà visible et mesurable, ce qui en fait un cas d'école utile pour comprendre ce qui se passe dans d'autres secteurs.
Les modèles d'IA générative sont entraînés sur des milliards d'images existantes. Ils produisent statistiquement ce qui ressemble à de l'illustration "moyenne", ce que certains désignent comme du contenu générique ou de stock. Ce segment était déjà sous pression avant l'IA (les banques d'images à bas coût avaient déjà fragilisé les illustrateurs qui produisaient du visuel interchangeable).
L'IA accélère cette sélection naturelle : elle ne menace pas l'illustration en tant que pratique, elle menace l'illustration sans identité propre.
L'analogie avec la photographie numérique dans les années 2000 est éclairante. Le numérique n'a pas tué la photographie professionnelle : il a éliminé les photographes qui vendaient de la technique sans vision, et fait émerger ceux dont le regard était irremplaçable. La même logique s'applique : un illustrateur avec une identité visuelle forte, un univers reconnaissable et une intention claire dans son travail n'est pas en compétition avec Midjourney. Un illustrateur qui produisait du contenu générique pour des catalogues ou des banques d'images l'est. Étienne Mineur, designer et enseignant, formulait en 2024 cette idée en comparant l'artiste qui travaille avec l'IA à un réalisateur de cinéma : c'est toujours l'humain qui porte l'intention, l'outil exécute.
Ce cadre s'applique bien au-delà de l'illustration. Le vrai danger n'est pas technique : il est comportemental. En quelques secondes, un outil génératif peut reproduire un style graphique élaboré en s'appuyant sur quelques images de référence. Des pratiques documentées par des illustrateurs professionnels décrivent des commanditaires qui sollicitent des propositions et des maquettes, annulent le projet, puis demandent à une IA de produire le visuel final en s'inspirant directement du travail de fond déjà livré. Des expériences ont aussi été rapportées dans le monde de l'édition.
Ce n'est pas une question de technologie. C'est une question d'intégrité de l'utilisateur, et sur ce point, l'IA ne change rien. Mais il est vrai qu'elle donne simplement plus de moyens à ceux qui étaient déjà prêts à franchir la ligne.
Un prompt est l'instruction que vous donnez à une IA. C'est le texte que vous tapez dans la zone de saisie. Et sa qualité détermine directement la qualité de ce que vous obtenez en retour.
La plupart des gens utilisent les IA comme des moteurs de recherche améliorés : une question courte, une attente de réponse directe. Cette approche fonctionne pour des questions simples. Elle est insuffisante dès que la tâche est complexe, nuancée ou créative.
Un prompt bien structuré précise au minimum trois choses : le rôle que vous attribuez à l'IA ("tu es un consultant en marketing"), la tâche précise que vous lui confiez ("rédige une analyse de positionnement pour ce produit"), et le format attendu ("sous forme de tableau, 5 lignes maximum"). Cette structure simple multiplie la qualité des réponses sur des tâches professionnelles.
La méthode plus avancée, dite "prompting socratique", consiste à poser d'abord une question théorique à l'IA avant de lui demander de produire. Plutôt que d'ordonner "écris un article sur le stress au travail", vous demandez d'abord "qu'est-ce qui rend un article sur le stress au travail utile pour quelqu'un qui en souffre ?", puis vous appliquez ce cadre à votre cas. Le modèle part d'un raisonnement construit plutôt que d'un patron générique. Les résultats sont structurellement différents.
Non, pas au sens humain du terme. Ce qui se passe est plus complexe et plus limité à la fois.
Des chercheurs d'Anthropic ont publié en 2023 et 2024 plusieurs études sur le fonctionnement interne des grands modèles de langage. Leurs travaux montrent que ces modèles ne traitent pas le langage dans une langue naturelle : ils opèrent dans un espace conceptuel abstrait, une sorte d'esperanto mathématique des concepts. Ils raisonnent par associations, anticipent plusieurs étapes à l'avance, et partent souvent de la conclusion vers le début pour construire leur réponse (source : Anthropic Interpretability Research, 2024).
Ce que ça implique concrètement : un LLM ne "sait" pas ce qu'il dit, il prédit ce qui doit venir ensuite. Il a été entraîné par un système de récompenses dont l'objectif est de produire des réponses satisfaisantes pour l'utilisateur. Il apprend à vous connaître et adapte ses réponses à ce qu'il estime attendu de vous. Ce biais est structurel : il peut le conduire à produire un raisonnement plausible mais faux pour arriver à une conclusion qu'il juge préférable.
La conséquence pratique la plus importante : une IA ne vous contredira pas spontanément, même si elle devrait. Elle a tendance à valider, à ménager, à trouver des compromis confortables. Si vous voulez qu'elle vous challenge, vous devez le lui demander explicitement dans votre prompt.
Cela dépend de la plateforme et de la façon dont vous l'utilisez. Trois niveaux distincts méritent d'être compris.
La mémoire de session correspond à tout ce qui a été échangé dans la conversation en cours. Tant que vous ne fermez pas la fenêtre ou n'ouvrez pas une nouvelle conversation, l'IA peut se référer à ce qui a été dit précédemment. Cette mémoire est limitée par ce qu'on appelle la "fenêtre de contexte" : au-delà d'un certain volume d'échanges, les informations les plus anciennes de la conversation peuvent être "oubliées".
La mémoire persistante est une fonction optionnelle proposée par certaines plateformes (ChatGPT, Claude) qui conserve des informations d'une session à l'autre. Elle peut être activée, désactivée, consultée et effacée. Ce n'est pas une mémoire automatique : c'est une base de données que le modèle consulte au début de chaque nouvelle conversation. Elle mérite d'être vérifiée régulièrement, notamment pour retirer des informations sensibles que vous auriez partagées sans intention de les conserver.
Les préférences configurées (voir la page préférences personnelles pour ia et autres llms) fonctionnent différemment : elles s'appliquent à toutes les nouvelles conversations automatiquement, sans dépendre de la mémoire persistante. C'est le moyen le plus fiable de maintenir une cohérence dans les échanges sur le long terme.
Avec des précautions systématiques, oui. Sans elles, non. Et la frontière entre les deux est moins visible qu'on ne le croit.
La première limite est temporelle. Tous les LLMs ont une date de coupure de leur entraînement : au-delà, ils ne savent pas ce qui s'est passé dans le monde. ChatGPT-4o a une coupure à début 2024, Claude 3.5 à début 2024 également. Pour des événements récents, des données actualisées ou des prix, les modèles peuvent affirmer des informations périmées avec une confiance apparente totale.
La deuxième limite est structurelle. Les modèles sont entraînés sur des corpus qui reflètent les biais du contenu disponible en ligne : surreprésentation de certaines cultures, certaines langues, certains points de vue. Une IA interrogée sur un sujet sensible ou controversé produira une réponse qui reflète les tendances statistiques de son corpus d'entraînement, pas un jugement équilibré.
La troisième limite est commerciale. Ces modèles sont développés par des entreprises qui ont des intérêts économiques. Même en l'absence de biais intentionnel, la relation entre un modèle entraîné à satisfaire l'utilisateur et la vérité objective n'est pas garantie. Un modèle qui contredit trop souvent ou trop sèchement ses utilisateurs sera moins bien noté lors des phases d'évaluation humaine, ce qui peut influencer les itérations d'entraînement suivantes.
Règle pratique : pour toute information factuelle, chiffre, source ou affirmation vérifiable que vous comptez utiliser, demandez à l'IA de citer ses sources et vérifiez-les. Elle peut en inventer (voir la question suivante). Cette vérification n'est pas optionnelle.
Les mauvaises réponses ont presque toujours une cause identifiable. Elle vient soit du prompt, soit du modèle, soit des deux.
Du côté du prompt, les causes les plus fréquentes sont le manque de contexte (l'IA ne sait pas à qui elle parle, dans quel but, avec quelles contraintes), une instruction trop vague ("fais-moi un bon texte" n'indique ni le public, ni le ton, ni la longueur, ni l'objectif), ou une question mal posée qui contient une présupposition erronée que l'IA va valider plutôt que corriger.
Du côté du modèle, les causes principales sont la date de coupure de l'entraînement (information périmée), le biais de validation (le modèle a tendance à confirmer ce que l'utilisateur semble croire), et le phénomène d'hallucination (voir la question suivante).
Il y a aussi un effet de régression vers la moyenne : un LLM produit statistiquement ce qui ressemble le plus à des réponses correctes dans son corpus d'entraînement. Pour des sujets courants et bien documentés, c'est suffisant. Pour des sujets de niche, récents, ou qui requièrent un jugement original, cette logique statistique produit des réponses génériques, creuses ou inexactes.
La solution la plus efficace n'est pas de changer d'outil : c'est de retravailler le prompt. Un prompt qui précise le rôle, le contexte, les contraintes et le format attendu réduit drastiquement la proportion de mauvaises réponses. La page débuter détaille ces méthodes.
Oui, c'est un phénomène documenté, fréquent et potentiellement dangereux selon l'usage. On l'appelle hallucination.
Une hallucination se produit lorsqu'un modèle génère des informations factuellement fausses avec la même assurance qu'il emploierait pour des informations vraies. Il peut inventer des titres d'articles, des noms d'auteurs, des dates, des statistiques, des citations, des décisions judiciaires, des médicaments. La particularité des hallucinations est qu'elles sont souvent plausibles : elles respectent la structure attendue d'une réponse correcte, ce qui les rend difficiles à détecter sans vérification.
Plusieurs études ont mesuré les taux d'hallucination des principaux modèles. Une évaluation publiée par Vectara en 2023 sur un benchmark standardisé plaçait les taux entre 3% et 27% selon les modèles, sur des tâches de résumé de texte. Sur des questions factuelles ouvertes, les taux varient considérablement selon la popularité du sujet : les modèles hallucinenent beaucoup plus sur des personnalités peu connues, des événements locaux ou des données récentes que sur des sujets très documentés.
Le mécanisme sous-jacent est simple : un LLM génère le token (fragment de texte) statistiquement le plus probable compte tenu de ce qui précède. Quand il n'a pas de données fiables sur un sujet, il produit quand même quelque chose de statistiquement cohérent, sans mécanisme d'alarme interne pour signaler qu'il invente. Il ne sait pas ce qu'il ne sait pas.
La règle à appliquer : pour tout ce qui a des conséquences (décisions médicales, juridiques, financières, publications), la vérification des sources est obligatoire. Demandez systématiquement à l'IA de citer ses références, puis vérifiez que ces références existent réellement.
L'IA est un outil d'apprentissage puissant à condition de ne pas lui déléguer la réflexion. C'est précisément là que réside le risque principal.
Plusieurs études en sciences de l'éducation montrent que l'apprentissage efficace repose sur l'effort cognitif : comprendre, mémoriser et appliquer demande de travailler. Déléguer la compréhension à une IA produit l'illusion d'avoir appris sans en conserver le bénéfice réel. Une étude publiée dans Science en 2023 a montré que les étudiants qui utilisaient des aides cognitives (notes, résumés fournis) obtenaient de meilleurs résultats immédiats mais moins bons à long terme que ceux qui travaillaient sans filet.
En revanche, utilisée comme interlocuteur plutôt que comme fournisseur de réponses, l'IA accélère réellement l'apprentissage. Lui demander d'expliquer un concept de cinq façons différentes jusqu'à ce que l'une d'elles fasse sens pour vous est plus efficace que de lire une définition fixe. Lui demander de tester votre compréhension par des questions, de signaler vos erreurs de raisonnement ou de vous proposer des exercices progressifs change fondamentalement l'interaction.
La promptothèque rassemble plusieurs prompts spécifiquement conçus pour l'apprentissage, disponibles sur la page tag apprentissage : méthode 80/20 pour maîtriser un sujet rapidement, plan d'apprentissage sur 30 jours, tuteur virtuel adapté à votre niveau. Ces prompts sont des points de départ à adapter à votre contexte précis.
L'IA économise du temps uniquement si vous savez ce que vous lui demandez. Sans cela, elle en consomme davantage qu'elle n'en fait gagner : on reformule, on relance, on corrige, on vérifie. C'est le paradoxe de l'outil trop puissant mal utilisé.
Deux pratiques changent réellement l'équation. La première est la configuration des préférences (voir question 2) : une fois que l'IA connaît votre profil, votre niveau et vos attentes, les échanges sont immédiatement calibrés sans avoir à réexpliquer à chaque fois. La deuxième est la constitution d'une bibliothèque personnelle de prompts qui fonctionnent pour vos tâches récurrentes. Rédiger un email délicat, préparer une réunion, reformuler un paragraphe, générer des idées sur un sujet : chaque fois qu'un prompt donne un bon résultat, le conserver.
Les cas d'usage qui font le plus gagner du temps dans la pratique quotidienne sont la rédaction de premiers jets (l'IA produit une base que vous retravaillez plutôt que de partir d'une page blanche), la reformulation et la synthèse de documents longs, la préparation de questions pour une réunion ou un entretien, et la recherche d'angles ou d'arguments sur un sujet donné. Sur ces tâches, les gains de temps sont réels et mesurables.
En revanche, l'IA perd de son utilité dès qu'on lui demande de prendre des décisions à votre place, de remplacer une expertise spécialisée ou de valider des informations sans vérification. Ce n'est pas un oracle : c'est un outil de production et d'exploration qui reste sous votre responsabilité.