TL;DR. Entre juin et décembre 2025, la part de candidats qui trichent en entretien avec une IA est passée de 15 % à 35 % (étude Fabric, 19 368 entretiens analysés). En face, les recruteurs ont équipé leurs process de détection : eye tracking, analyse de latence, dual-voice, plateformes comme Fabric, Sherlock ou HackerRank Proctor qui croisent 20+ signaux. Amazon a déjà retiré des offres après coup, Anthropic a réécrit ses questions. La triche fonctionne encore, mais la fenêtre se referme vite — et les conséquences, elles, sont durables.
On n'est pas là pour faire la morale. On est là pour cartographier ce qui se passe vraiment : qui triche, comment, avec quels outils, comment les recruteurs détectent, ce qu'on risque quand on se fait prendre, et pourquoi la question économique de "tricher ou pas" n'a plus la même réponse qu'il y a 12 mois.

L'état des lieux : la triche en entretien est devenue une industrie
En 18 mois, un écosystème entier s'est monté autour de l'idée "faisons passer des entretiens à ta place".
Les outils principaux aujourd'hui :
- Cluely (ex-Interview Coder). Levée 5,3 M$ en avril 2025, fondé par Roy Lee (expulsé de Columbia après l'incident Amazon). Overlay invisible qui lit l'écran et le micro, souffle la réponse en 1-2 secondes. Slogan revendiqué par son fondateur : "cheat on everything". TechCrunch
- LockedIn AI, Parakeet AI, Final Round AI (ancien simulateur devenu copilot live), Interview Coder (intégré à Cluely)
- Modèle économique type : $20-50 / mois. Contre un salaire annuel d'ingénieur à $150 000, l'équation séduit — et c'est exactement le ratio risque/récompense que pointe Fabric dans son rapport de février 2026.
Pourquoi les recruteurs ont rattrapé leur retard (vite)
L'argument qu'on entendait encore début 2025 — "les RH n'y verront que du feu" — ne tient plus. Trois choses se sont passées.
1. Les plateformes de tests techniques ont doublé leur capacité de détection
HackerRank publie un score d'intégrité (High / Medium / Low) sur chaque test, avec session replay, screenshots, analyse de patterns de code. Leur système de plagiat IA atteint 93 % de précision, soit 3× plus précis que les méthodes classiques. CodeSignal flague désormais 35 % des assessments proctorés (40 % sur les postes entry-level), avec un "Suspicion Score" multi-couches.
2. Des startups spécialisées dans la détection ont émergé
Fabric analyse 20+ signaux en direct (regard, timing de réponse, analyse linguistique) et produit un score de probabilité de triche timestampé, preuve à l'appui. Sherlock AI et InCruiter proposent des solutions similaires pour les entretiens live. Quand InCruiter a lancé sa détection de deepfake début 2026, la plateforme a identifié 25-30 % de fraude sur les sessions flaguées — presque le double de ce que des recruteurs humains expérimentés détectaient avant.
3. Les grosses boîtes ont écrit leurs propres règles
- Amazon a retiré l'offre à Roy Lee après avoir vu sa vidéo YouTube sur Interview Coder, publié un guide interne pour ses recruteurs avec les signaux d'alerte, et bannit officiellement l'utilisation d'IA générative en entretien live.
- Anthropic a dû réécrire toutes ses questions d'entretien technique en 2026 car les candidats utilisaient… Claude (leur propre produit) pour y répondre. Leur policy officielle autorise désormais l'IA pour préparer l'entretien mais pas pendant le live, sauf instruction contraire.
- 62 % des organisations tech interdisent explicitement l'IA en entretien technique. Karat rappelle que les entretiens live restent la meilleure défense car "il est extrêmement difficile de simuler le raisonnement d'un dev qui copie-colle la sortie d'une IA".
Les 8 signaux que regardent les recruteurs en 2026
Voici ce que Fabric, Sherlock, HackerRank, et les recruteurs formés à la détection observent concrètement. Si tu postules aujourd'hui, considère que c'est ce grid qui tourne en arrière-plan de ton entretien.

1. Le regard qui "lit" au lieu de fixer la caméra
Quand tu lis une réponse IA, tes yeux font un pattern de scanning gauche-droite, ligne par ligne. La caméra voit ça. Les algos d'eye tracking (utilisés par InCruiter, Sherlock, ou intégrés aux plateformes de proctoring) flaguent les candidats qui "regardent un téléprompteur invisible" plutôt qu'interagissent avec l'interviewer.
Corollaire humain : un recruteur expérimenté remarque que tu regardes à chaque réponse "en bas à gauche" — là où s'affiche l'overlay Cluely.
2. La latence uniforme de 3 à 5 secondes
Un candidat authentique répond avec des latences variables : 0 seconde sur un "tu as quel âge ?", 10 secondes sur un "raconte un conflit que tu as géré". Un candidat qui attend une IA : systématiquement 3-5 secondes de silence avant chaque réponse, même sur les questions simples. C'est le temps que met le LLM à générer. Le pattern est trop régulier pour être naturel.
3. Les tournures IA signature
Les LLM ont des tics : "Certainly, let me walk you through this…", "Here's a comprehensive approach…", "It's important to note that…", des listes à 3 points toujours équilibrées, des conclusions qui récapitulent. Les recruteurs techniques connaissent ces patterns par cœur depuis qu'ils les voient quotidiennement dans les code reviews.
4. La répétition mécanique de la question
"Donc si je reformule bien votre question, vous me demandez…" — une ou deux fois dans un entretien, c'est normal. À chaque question technique, c'est une tactique de stall pour laisser l'IA traiter la demande. Fabric et Sherlock flaguent automatiquement ce comportement.
5. Le dual-voice en arrière-plan
Les plateformes modernes détectent la présence d'une deuxième voix ou d'un bruit de synthèse vocale faible. Certains candidats qui utilisent des écouteurs avec TTS laissent parfois passer le son dans leur micro ambiant. Testlify, InCruiter, HackerRank écoutent ça.
6. Le tab-switching et l'activité fenêtre
Sur les assessments techniques (HackerRank, CodeSignal, Codility), chaque changement d'onglet, ouverture de fenêtre ou sortie plein écran est loggé. Le session replay est consultable par les recruteurs après coup. Le "Suspicion Score" monte, le recrutement s'arrête.
7. Les questions de follow-up qui sortent du script
Une réponse IA bien formulée ne survit pas à "ok, et si on changeait la contrainte X, comment tu adapterais ?". Le piège classique des recruteurs tech aujourd'hui : laisser le candidat donner la réponse "parfaite", puis creuser avec 3-4 follow-up imprévus. Le candidat qui a copié une réponse IA s'effondre — pas celui qui a réfléchi.
8. Les outils pros qui croisent tout ça en temps réel
Fabric : 20+ signaux combinés en probability score timestampé · Sherlock AI : proctoring live avec alertes recruteur · HackerRank Proctor Mode : 93 % précision sur code IA-généré · InCruiter : deepfake + proxy detection (25-30 % de fraude détectée sur sessions flaguées) · CodeSignal : multi-layer suspicion score, session recording.
Ces outils ne se contentent plus de flaguer : ils remontent au recruteur, pendant l'entretien, une alerte "probabilité de triche : 72 %".
Ce que tu risques quand tu te fais prendre (et ça arrive)
Le cas d'école, c'est Roy Lee. Étudiant de Columbia, il décroche un offer Amazon en software engineer en utilisant Interview Coder. Il filme l'opération. Il poste la vidéo sur YouTube. Deux jours plus tard, quelqu'un (jamais identifié) envoie la vidéo à Columbia ET à Amazon.
Résultat :
- Amazon retire l'offer
- Columbia ouvre une procédure disciplinaire — il est expulsé
- Amazon flague son dossier ATS (ce qui, selon Gizmodo, signifie qu'il ne repostulera jamais chez eux)
- La viralité de l'histoire le brûle dans toute la Silicon Valley — il rebondit en créant Cluely, mais c'est un pivot par pragmatisme, pas un plan A
Ce n'est pas un cas isolé. Les conséquences qu'on voit côté entreprise :
- ✓Offer retirée avant embauche
- ✓Licenciement période d'essai (si la triche se découvre après)
- ✓Blacklist ATS de l'entreprise (revenir y postuler = game over)
- ✓Réputation entachée dans le secteur (surtout tech ou finance où tout le monde se parle)
- ✓Signalement à l'école dans les cas universitaires (expulsion possible)
- ✗28 000 $ en moyenne par proxy hire détecté (enquête, juridique, perte productivité)
- ✗23 % des entreprises déclarent > 50 000 $ de pertes annuelles liées à la fraude candidat
- ✗10 % > 100 000 $ en une année (Experian 2026)
- ✗C'est précisément pour ça qu'elles investissent dans la détection
Et le scénario qu'on oublie : si la triche marche et que tu es embauché, les 3-6 premiers mois exposent l'imposture de toute façon. Un dev qui a fait répondre Cluely à ses questions algo ne sait pas coder. Les pairs le voient. Les PR ne passent pas. Les 1:1 deviennent gênants. Le licenciement en période d'essai n'est pas un bug, c'est la feature de la période d'essai.
Et en France ? Le paradoxe d'un pays coincé entre éthique et tolérance
Le paysage FR a deux vitesses. D'un côté, l'APEC positionne l'IA comme un allié — préparation, rédaction CV/LM, simulation — et signale que 15 % des cadres ont déjà utilisé l'IA pour rédiger leur CV ou LM. C'est considéré comme une évolution normale des pratiques, pas comme de la triche.
De l'autre, Slate.fr documente l'explosion des tutos TikTok "comment tricher en entretien avec ChatGPT", et Hellowork titre "Les IA de triche explosent, voici pourquoi vous devriez les éviter" — c'est-à-dire que même les médias historiquement bienveillants envers l'IA en recrutement tracent maintenant clairement la ligne.
La norme FR en 2026 se dessine nettement :
- ✅ Préparer un entretien avec l'IA (recherche entreprise, simulation questions, reformulation pitch) : admis, encouragé par l'APEC
- ✅ Améliorer un CV/LM avec l'IA (après un premier jet personnel) : admis
- ❌ Lire une réponse générée en temps réel pendant l'entretien : triche, sanctionnée
- ❌ Se faire passer pour quelqu'un d'autre via deepfake ou proxy : fraude, potentiellement pénale
Le contexte régulatoire pousse dans le même sens : l'EU AI Act entre en application progressive à partir d'août 2026, avec des obligations accrues de transparence sur les outils d'IA utilisés en recrutement — côté entreprise, mais les mêmes logiques vont infuser côté candidat.
"Alors comment je fais, concrètement, pour m'entraîner sans tricher ?"
Si tu es arrivé jusqu'ici, tu n'es probablement pas en train de chercher comment tricher — tu te demandes comment bien te préparer à l'ancienne, en 2026, sans te sentir idiot face à quelqu'un qui a Cluely.
La réponse honnête : bosser sa prépa est redevenu un avantage compétitif. Les outils de triche sont visibles, les entretiens deviennent plus malins (follow-up imprévus, questions hors CV), et la seule chose qui tient vraiment, c'est avoir déjà réfléchi aux questions et avoir déjà parlé à voix haute.
Velyq fait partie de ces outils de préparation (c'est pour ça qu'on écrit cet article — on veut être transparent). On ne souffle pas de réponses en temps réel, et on n'en soufflera jamais. On te fait répéter, on te donne un feedback structuré sur ce que tu as dit, et on te laisse face à la caméra quand ça compte. C'est lent et ça demande du boulot. C'est aussi ce qui tient la route en 2026.
FAQ
Est-ce que ChatGPT peut vraiment m'aider à répondre pendant un entretien ?
Techniquement oui, pratiquement de moins en moins. Si tu utilises ChatGPT dans un autre onglet pendant un entretien visio, le tab-switching est détectable par les plateformes d'assessment. Si tu utilises un overlay type Cluely, il y a des signaux (latence uniforme, regard qui scanne) que les recruteurs formés remarquent. Le vrai problème est que même si ça passe l'entretien, ça ne passe pas la période d'essai.
Comment les recruteurs savent que j'utilise Cluely ou Interview Coder ?
Plusieurs façons en 2026 : eye tracking qui repère un regard de lecture, latence de réponse trop uniforme (3-5 sec avant chaque réponse), tournures de langage signature des LLM, répétition systématique des questions, questions de follow-up imprévues auxquelles tu ne sais pas répondre. Des plateformes comme Fabric ou Sherlock croisent 20+ signaux et donnent au recruteur un score de probabilité en temps réel.
Est-ce légal d'utiliser une IA pendant un entretien d'embauche ?
Ce n'est pas illégal au sens pénal (sauf cas de proxy ou deepfake qui peuvent relever de l'usurpation d'identité). Mais c'est quasi-systématiquement une rupture du contrat de bonne foi précontractuelle : l'offer peut être retirée, et si l'embauche a eu lieu, elle peut fonder un licenciement pour faute. Amazon, Anthropic et la plupart des grands groupes tech interdisent explicitement l'utilisation d'IA en entretien live — c'est dans les règles d'entretien que tu valides avant de commencer.
Que risque-t-on concrètement si on se fait prendre ?
Offer retirée (cas Roy Lee / Amazon), blacklist ATS de l'entreprise (impossible de revenir y postuler), licenciement en période d'essai si la triche est découverte après embauche, signalement à l'école dans le cas universitaire. Dans les milieux où tout le monde se parle (tech, finance, consulting FR), la réputation tient longtemps — un recruteur se souvient.
Je peux utiliser l'IA pour PRÉPARER mon entretien sans que ce soit de la triche ?
Oui, largement. L'APEC elle-même encourage cet usage : préparer les réponses aux questions courantes, simuler un entretien, faire relire son pitch, anticiper les questions pièges. Tant que tu n'utilises pas l'IA en temps réel pendant le live, tu es dans la zone acceptée par toutes les entreprises. La règle pratique : si tu peux le dire au recruteur ("je me suis entraîné avec un simulateur"), c'est de la préparation ; si tu dois le cacher, c'est de la triche.
Est-ce que la triche IA fonctionne encore en 2026 ?
Partiellement, et de moins en moins. Sur un entretien RH classique en visio, avec un recruteur non formé à la détection, un outil comme Cluely peut encore passer. Sur un entretien technique sur HackerRank, CodeSignal ou avec une plateforme qui a Fabric/Sherlock derrière, la probabilité de détection est élevée — et monte chaque trimestre. En 2025, 35 % des assessments proctorés étaient flagués pour suspicion. En 2026, cette part augmente. La fenêtre se referme vite.
5 points à retenir
- La triche IA en entretien n'est plus un cas rare — 35 % des candidats tech y ont eu recours en décembre 2025. C'est un marché, avec des produits, des levées, un tarif (~$20-50/mois).
- La détection a rattrapé l'offensive en 18 mois. Eye tracking, latence, dual-voice, plateformes comme Fabric, Sherlock, HackerRank Proctor — les recruteurs n'improvisent plus.
- Les conséquences sont durables : offer retirée, blacklist ATS, réputation entachée dans un secteur où tout le monde se parle. Le cas Roy Lee/Amazon est le cas d'école.
- Même si la triche marche en entretien, elle échoue en période d'essai. Les 3-6 premiers mois exposent toujours l'écart entre le candidat "parfait" et le dev réel.
- L'IA de préparation (pas de triche) est une pratique légitime — APEC, Anthropic, 15 % des cadres FR. C'est là où se joue maintenant l'avantage compétitif du candidat sérieux.


