twitter
linkedin
facebook

ChatGPT, Gemini et DeepSeek remplacent-ils les développeurs juniors ? Mon retour d’expérience

Time Temps de lecture 12 min
ChatGPT, Gemini et DeepSeek remplacent-ils les développeurs juniors ? Mon retour d’expérience

En mai 2023, j'avais écrit un article intitulé « Pourquoi ChatGPT et Copilot ne doivent pas être utilisés par des apprenants en informatique ». Cet article portait un regard critique sur les technologies liées à l’intelligence artificielle et sur le manque de maturité dans leur utilisation au quotidien.

Aujourd'hui, les modèles de langage comme ChatGPT ou Mistral IA 🐓 sont pleinement intégrés au quotidien de nombreux développeurs et utilisateurs, tant sur le plan professionnel que personnel. Personnellement, j'utilise désormais quotidiennement des outils tels que ChatGPT et Mistral IA 🐓 dans mon activité professionnelle, et Gemini pour mes usages personnels. Dans cet article, je vous partage mon retour d'expérience après deux années d'utilisation régulière de ces IA, leur impact concret sur les développeurs juniors, ainsi que mes réflexions sur leur évolution en entreprise et dans l'éducation.

Pourquoi j'étais contre ChatGPT et Copilot en 2023 ?

Un retour nécessaire sur le contexte en 2023

Depuis mai 2023, le marché de l'intelligence artificielle (IA) a fortement évolué. À cette époque, ChatGPT d'OpenAI comptait déjà 100 millions d’utilisateurs mensuel, devenant ainsi l'application grand public à la croissance la plus rapide de l’histoire. Deux ans plus tard, en février 2025, ChatGPT a quadruplé sa base d'utilisateurs mensuels, atteignant désormais plus de 400 millions de personnes à travers le monde. Ce gain d'utilisateurs s'explique principalement par la démocratisation massive de l’intelligence artificielle dans des environnements aussi bien professionnels que personnels. Les technologies étaient encore récentes, mais déjà presque 84% des professionels interrogés ont, déclaré que l'IA leur permettait de gagner du temps sur leur tâche du quotidien.

En 2023, ces technologies étaient encore jeunes et peu comprises par le grand public. Cependant une statistique qui m'a également interpellé est qu'en 2023, 64% des français déclaraient bien connaître l'intelligence artificielle. Aujourd’hui, en 2025, l’intelligence artificielle semble désormais perçue dans l'imaginaire collectif comme une entité presque consciente, capable d’une réflexion similaire à celle d’un être humain. Pourtant, la réalité est plus complexe, et dans cet article, je vous propose d’explorer ce que les IA, comme ChatGPT, sont réellement capables de réaliser, en particulier dans le contexte professionnel et éducatif.

Qu'est-ce que l'IA aujourd'hui ?

On va se concentrer uniquement sur les Large Language Model (LLM) comme ChatGPT, DeepSeek ou encore Le Chat car le sujet serait trop vaste. Pour commencer, qu'est ce qu'un LLM ? C'est un type d'intelligence artificielle basé sur la compréhension et la génération de texte, entre autre, ce qui est actuellement le plus utilisé par les utilisateurs grand public.

Récemment, lors d'un repas au restaurant avec un ami peu familier avec le monde de l'intelligence artificielle et un membre de ma famille utilisateur régulier d'IA, j'ai réalisé la vision faussée que certaines personnes peuvent avoir des LLM. Une intelligence artificielle est tout sauf intelligente, c'est la phrase que je défends depuis bientôt 2 ans lors de mes échanges au sujet de l'IA. Mais la question, c'est de savoir pourquoi je dit ça.

Avant d’aller plus loin, rappelons rapidement ce qu'est l'intelligence humaine :

L'intelligence humaine est la capacité cognitive permettant d'acquérir des connaissances, de comprendre, d'apprendre, de raisonner, de prendre des décisions et de s'adapter à son environnement. La réflexion est une démarche intellectuelle consciente permettant à l'être humain d'analyser une situation, d’évaluer des solutions possibles et de prendre une décision informée.

L'intelligence, telle qu'elle est souvent mal utilisée pour décrire l'IA, implique des capacités humaines complexes, intégrant sentiments, expérience de vie et environnement. C’est précisément sur ce point que réside l'erreur fréquente : une IA ne possède aucun sentiment, aucune réelle expérience de vie, et son environnement est strictement limité et prédéfini.

Pourquoi alors un LLM n'est-il pas réellement intelligent ? Pour comprendre cela, expliquons comment une IA comme ChatGPT parvient à fournir des réponses pertinentes et à générer du texte. Lorsqu'on veut créer une intelligence artificielle, on vient récupérer des données, beaucoup de données a des échelles que nous ne pouvons pas concevoir pour les modèles les plus grand, 570 Go de texte pour GPT-3.5. Dès cette étape, il faut des êtres humains. On collecte des données de manière automatique depuis des années, mais elles ne sont pas forcément exploitable en l'état. Il est nécessaire d'avoir une phase de préparation des données pour nettoyer les données, les rendre cohérentes et exploitables et ce travail est effectué par des experts en data. Bien sur ils ne font pas tout à la main, la majorité des tâches sont automatisées. Mais dès l'origine d'un modèle d'intelligence artificielle, l'humain est au coeur du processus.

Lorsque les données sont exploitables, on va venir paramétrer un algorithme pour qu'il puisse s'entrainer sur ces données. Concrètement, on va lui dire d'assimiler les structures de phrases, les règles grammaticales, le vocabulaire et même les informations et les connaissances. Le modèle de données va ensuite pouvoir faire ce qu'on appel de l'apprentissage auto-supervisé. Il va essayer de générer la suite d'une phrase ou le mot suivant, puis va comparer ses résultats avec les données existantes. Cette comparaison va lui permettre d'évaluer la pertinence de ce qu'il a générer et de pouvoir reproduire ou non le processus qu'il a utilisé pour générer d'autres phrases. C'est seulement après des millions d'itérations et plusieurs milliers d'heures de calcul sur des équipements spécialisés, que le modèle va pouvoir générer des résultats pertinents. L’intelligence artificielle se base essentiellement sur des méthodes statistiques avancées et des modèles mathématiques complexes pour prédire et générer du texte. Un LLM est donc une forme d'intelligence artificielle entraînée pour analyser et générer du texte de façon statistique, en prédisant des séquences plausibles de mots.

Etudions ensemble un cas concret

Aujourd'hui, peu d'utilisateurs grand public comprennent réellement le fonctionnement des modèles d'intelligence artificielle et se concentrent principalement sur leur aspect « intelligent ». Mais comme évoqué précédemment, ces modèles sont essentiellement des systèmes statistiques complexes reposant sur de grandes quantités de données. Je vais illustrer simplement pourquoi une intelligence artificielle n'est pas réellement intelligente au sens humain du terme :

Je souhaite entrainer un modèle d'intelligence artificielle pour présenter ma boutique de fleuriste basé au coeur de la ville de Bordeaux. Cependant, durant l'entraînement, je vais volontairement introduire des erreurs : Bordeaux sera maintenant situé en Allemagne et le métier de fleuriste consiste à vendre des fleurs venant de mars.

En tant qu'être humain nous pouvons distinguer de manière évidente les incohérences. Bordeaux est situé en France et à notre connaissance actuelle il n'existe pas de fleur poussant sur Mars. Cependant, l'intelligence artificielle va être entrainée sur la base de ces erreurs et n'apportera pas le processus de réflexion que nous venons d'avoir pour comprendre ces erreurs. Si une majorité ou une part importante des données indique explicitement que Bordeaux est situé en Allemagne, alors l'IA répondra probablement que Bordeaux est une ville allemande. Pour la provenance des fleurs, avec sa base de connaissance, le modèle pourra nous parler de provenance cohérente, mais il y aura une probabilité qu'il nous dise que certaines fleurs viennent de Mars.

Par cet exemple simple, je viens de te démontrer les limites actuelles de l'intelligence artificielle et en même temps, tu peux comprendre pourquoi ChatGPT fait parfois des erreurs. Soit les données sur lesquelles il a été entrainé comportaient des erreurs, étaient trop ancienne ou tu es tombé sur une des probabilités qu'il génère un résultat non pertinent.

Tu as maintenant les connaissances de base nécessaire à la compréhension de l'intelligence artificielle et de son fonctionnement. Recentrons-nous maintenant sur le sujet principal et la question : "ChatGPT, Gemini et DeepSeek remplacent-ils les développeurs juniors ?".

Comment j'utilise les LLM dans mon quotidien ?

Faisons d'abord connaissance si ce n'est pas déjà le cas. Je suis Quentin, un étudiant en dernière année d'ingénierie informatique en alternance depuis 2 ans dans un grand groupe bancaire et développeur freelance depuis 5 ans. Je t'invite à aller consulter ma page LinkedIn où je publie de temps en temps du contenu et mon site internet où je présente mon activité en tant que freelance. Durant mes 5 années d'étude, j'ai pu constater la place qu'a pris l'intelligence artificielle et son utilisation s'accroitre autour de moi. Au départ réticent par manque de connaissance et d'expérience, j'ai appris progressivement à utiliser l'intelligence artificielle et à comprendre son fonctionnement pour en faire un usage raisonné et pertinent.

Utiliser les LLM au quotidien : poser les bonnes questions à Gemini

Mon premier usage des LLM est sans doute celui fait par une grande partie des gens au quotidien, où je pose des questions à Gemini et ChatGPT. Lorsque j'ai des questions courtes, que je n'ai pas besoin d'approfondir mes connaissances et que je n'ai pas de doute sur la possibilité que les sources ne soient pas fiable, c'est aux LLM que je m'adresse. Ces modèles d'intelligence artificielle on presque remplacé les navigateurs traditionnels car ils permettent d'avoir une réponse pertinente de manière immédiate et sans avoir à effectuer des recherches, cependant c'est aussi un piège.

Avant de poser une question à ChatGPT, il faut que tu saches précisément ce que tu veux. Si ta demande initiale n'est pas claire, ses résultats seront moins pertinent. Ensuite il est nécessaire de remettre en doute la réponse qu'il pourrait apporter. Par exemple, je ne vais pas demander à ChatGPT de me donner un avis sur la société OpenAI. Le modèle pourrait produire une réponse biaisée, le modèle étant probablement entraîné à favoriser certaines réponses et à éviter certains sujets sensibles, rendant ainsi son avis peu objectif et potentiellement trompeur. Sur des sujets très techniques, j'évite d'utiliser les modèles d'intelligence artificielle quand je souhaite avoir des informations très précises et récentes. Je vais plutôt lui demander de me fournir des sources ou des pistes de recherche.

Comment les IA sont devenus des assistants incontournables dans mon métier ?

Aujourd'hui je ne code plus sur mon temps personnel sans utiliser Github Copilot. Ces outils me permettent de générer des petits bouts de code, augmentant ainsi considérablement ma productivité. Mais attention, il est nécessaire de l'utiliser correctement et que cela reste un assistant et non un outils de code qui remplace la réflexion humaine.

Quand je développe un site web, j'utilise un langage appelé CSS. Pour simplifier la chose, c'est une liste de configurations pour modifier la couleur, la taille ou l'emplacement de certains éléments du site. Quelque soit le site ou le projet, on utilise tout le temps les mêmes paramètres, seule la valeur change. Github Copilot me permet de générer tous les paramètres dont j'ai besoin, il me reste alors à modifier les valeurs. Je vais prendre un deuxième exemple. Lorsque j'ai besoin de créer un algorithme simple pour faire un calcul mathématique, je viens décrire sous forme de commentaire les opérations que je veux faire et le modèle d'IA génère le calcul mathématique. Une nouvelle fois c'est un gain de temps, mais lorsqu'on génère des règles de calculs, il est indispensable de relire et d'être en mesure de comprendre parfaitement le code généré.

Rédiger et publier automatiquement des articles de blog grâce aux LLM

Récemment j'ai eu pour sujet à l'école de devoir mettre en oeuvre un système de veille technologique. Un dispositif de veille est automatisé. Je me suis alors demandé comment je pouvais améliorer la pertinence des données recueillies et comment améliorer la diffusion de ces informations.

La veille technologique est une démarche structurée et continue consistant à collecter, analyser, et exploiter des informations pertinentes sur les évolutions techniques, technologiques et scientifiques d’un secteur précis, afin d'anticiper les tendances, identifier des opportunités d'innovation et assurer la compétitivité d'une organisation ou d'un individu dans un environnement en perpétuelle évolution.

Pour la première étape de mon système de veille, j'ai utilisé n8n pour pouvoir collecter des articles en provenance de différents flux RSS et API de site spécialisé dans mon domaine de recherche. L'objectif d'une veille est de pouvoir recueillir un maximum d'information, mais surtout de pouvoir enlever le bruit qui sont des données non pertinentes dans notre veille. C'est à ce moment là que j'ai pu mettre en oeuvre Mistral IA 🐓 pour évaluer la pertinence des articles selon mon sujet et filtrer les différentes données que je collecte en entrée.

La collecte de donnée étant terminée et le nettoyage effectué, il reste maintenant la diffusion. Un système de veille sans diffusion n'est pas pertinent, le choix doit être à la fois pertinent, accessible et pratique. Je me suis alors rappelé de mon vieux blog que je n'avais pas entretenu depuis plusieurs années. Avec une nouvelle fois l'aide de Mistral IA 🐓 j'ai pu générer de manière hebdomadaire des articles de blog à partir des données collectées précédemment. Ma première thématique traite de l'actualité Infrastructure as Cloud (IaC) pour suivre les évolutions technologiques et mon deuxième sujet est la logistique automatisée dans l'industrie. Je t'invite à consulter ces deux catégories et à lire un article généré par un modèle d'intelligence artificielle.

ChatGPT m'a aidé à rédiger cet article : Lors de la rédaction de cet article, j'ai utilisé le LLM de OpenAI pour pouvoir générer des titres optimisés pour le SEO, pour corriger les fautes d'orthographe, me donner des sources pour avoir des statistiques et me donner des conseils pour améliorer le SEO du contenu de l'article.

L'IA peut-elle vraiment remplacer un développeur junior ?

À travers cet article, j'espère que j'ai pu éclairer ton raisonnement au sujet des modèles d'intelligence artificielle et en particulier des LLM (ChatGPT, Gemini, DeepSeek, Le Chat) et que tu peux maintenant te faire un avis concret et fiable sur le sujet. La réponse à la question initiale "ChatGPT, Gemini et DeepSeek remplacent-ils les développeurs juniors ?" semble maintenant évidente, mais elle peut encore être nuancée.

Non, ChatGPT, Gemini et DeepSeek ne remplacent pas les développeurs juniors

Aujourd'hui, les LLM et autres outils d'intelligence artificielle fonctionnent principalement comme assistants : ils facilitent ou automatisent des tâches simples et répétitives, où l'apport humain est faible ou lorsque les données d'entrée et les résultats attendus sont clairement définis. Toutefois, sans un cadre strictement contrôlé, ces modèles comportent toujours une probabilité d'erreurs ou de résultats non pertinents, voir totalement incorrects. Ils n'ont pas encore les capacités nécessaires pour remplacer intégralement l'être humain dans les tâches complexes nécessitant une réflexion approfondie, une intuition et une expérience métier.

Oui, ChatGPT, Gemini et DeepSeek peuvent remplacer un humain sur des tâches

Dans notre quotidien, nous interagissons régulièrement avec des modèles d'intelligences artificielle au quotidien, par exemple avec les nombreux ChatBot que vous pouvez voir sur certains site internet, ou même dans les algorithme de recommandation et de modération des réseaux sociaux. Une IA comme ChatGPT ou Mistral IA 🐓 peut rédiger des textes simples, modifier le format d'un document pour vous, mais il sera toujours nécessaire d'avoir un humain pour créer et superviser ces tâches.

En conclusion, nous sommes encore très loin des scénarios évoqués par Terminator ou Matrix. Bien que l'utilisation grand public des modèles d'intelligence artificielle progresse significativement, leur maturité et leur fiabilité à grande échelle restent à prouver. À ce jour, aucune technologie IA ne peut fonctionner efficacement à grande échelle sans une supervision humaine adéquate.

Source

Mockup image

Lancez votre activité sur le web dès maintenant !

Découvrez l'accompagnement que nous vous proposons pour la réalisation du site internet de votre entreprise.

Découvrir