Dans un monde obsédé par la vélocité et l’automatisation, interdire l’outil le plus puissant de la décennie semble contre-intuitif, voire réactionnaire. Pourtant, c’est la seule décision managériale qui a sauvé la courbe d’apprentissage de mon équipe junior. Voici pourquoi l’IA ne doit intervenir qu’après la pensée structurée.
Le syndrome de la page blanche assistée
L’accès illimité aux LLM (Large Language Models) dès le premier jour de stage crée un phénomène pervers : l’atrophie du muscle analytique. Face à un problème complexe, le réflexe n’est plus « Comment déconstruire ce problème ? » mais « Quel prompt va me donner la réponse ? ».
Ce raccourci cognitif est fatal pour un junior. L’apprentissage ne réside pas dans la réponse, mais dans le cheminement mental pour y parvenir. En déléguant la structuration de la pensée à une machine, le stagiaire devient un simple opérateur de saisie, incapable de juger la pertinence du résultat produit.
Le Protocole « Paper First » : La contrainte créatrice
Pour contrer cette dérive, j’ai instauré une règle simple : Pas d’IA avant la structure.
- Phase 1 : Déconnexion. Tout problème doit d’abord être résolu sur papier ou tableau blanc. Le stagiaire doit définir les entités, les flux logiques ou le plan de l’article sans écran.
- Phase 2 : La défense. Le stagiaire me présente sa logique. Si la structure ne tient pas debout, interdiction de coder ou de rédiger.
- Phase 3 : L’accélération. Une fois la logique validée, l’usage de ChatGPT, Claude ou Copilot est non seulement autorisé, mais encouragé pour l’exécution.
Résultats : De l’utilisateur passif au pilote expert
Les premières semaines ont été douloureuses. La frustration de ne pas pouvoir générer du code ou du texte en 30 secondes était palpable. Mais au bout d’un mois, les résultats ont radicalement changé.
Les stagiaires ont commencé à produire des prompts d’une précision chirurgicale. Pourquoi ? Parce qu’ils savaient exactement ce qu’ils attendaient de la machine. Ils ne demandaient plus « Écris-moi une fonction qui fait X », mais « Génère une fonction suivant ce pattern spécifique, avec telle contrainte de mémoire ».
Conclusion : L’IA est un multiplicateur, pas un cerveau
Si vous donnez une calculatrice à quelqu’un qui ne comprend pas les mathématiques, il ne deviendra pas mathématicien. Il restera dépendant de l’outil. Avec l’IA générative, l’enjeu est identique.
Pour former des seniors compétents demain, nous devons parfois ralentir aujourd’hui. Interdire l’IA temporairement n’est pas un rejet de la technologie, c’est une exigence de maîtrise.

