Une intelligence artificielle pourrait-elle remplacer un policier lors d’une garde à vue ?
Le sujet semblait encore relever de la science-fiction il y a quelques années. Il entre désormais dans le champ du droit réel. Dans un arrêt du 14 avril 2026, la Cour de cassation a rappelé un principe fondamental : un interrogatoire en garde à vue ne peut être conduit que par un officier ou un agent de police judiciaire. Des experts peuvent assister l’enquête, apporter une analyse technique, psychologique ou scientifique, mais ils ne peuvent pas prendre la place de l’enquêteur dans la conduite de l’audition.
Derrière cette décision se cache pourtant une question immense, presque vertigineuse : dans un futur proche, une intelligence artificielle pourrait-elle assister, ou pire remplacer, un policier lors d’un interrogatoire ?
La question n’est plus théorique. Les systèmes d’IA savent déjà retranscrire instantanément des conversations, analyser des micro-expressions du visage, détecter des incohérences linguistiques, traduire des dizaines de langues en temps réel ou établir des probabilités comportementales à partir de masses gigantesques de données. Certaines technologies sont même capables d’identifier des variations émotionnelles dans une voix ou de repérer des signes de stress invisibles à l’oreille humaine.
Dans plusieurs pays, notamment aux États-Unis ou en Chine, des outils algorithmiques sont déjà utilisés dans le domaine policier pour aider à l’analyse prédictive, à l’évaluation des risques de récidive ou à l’exploitation massive de données d’enquête. Le problème est qu’un interrogatoire n’est pas seulement un acte technique. C’est un acte juridique extrêmement sensible qui engage les libertés fondamentales.
En France, la garde à vue repose encore sur un principe central : la responsabilité humaine. L’officier de police judiciaire engage sa responsabilité pénale, disciplinaire et procédurale dans la manière dont il conduit l’audition. Il doit respecter les droits de la défense, la dignité de la personne interrogée, l’absence de pression illégitime, la régularité des questions et le cadre légal de la procédure.
Une IA, elle, ne porte aucune responsabilité morale ou pénale. Si elle commet une erreur d’interprétation, si elle influence inconsciemment l’enquêteur, si elle produit un biais discriminatoire ou si elle “oriente” subtilement un interrogatoire, qui devient responsable ? Le développeur ? L’État ? Le policier qui suit les recommandations de la machine ? Le vide juridique est immense.
Le danger le plus inquiétant n’est d’ailleurs peut-être pas celui d’une IA qui remplacerait totalement un enquêteur. Ce scénario reste encore lointain en Europe. Le risque réel est plus discret : celui d’une assistance algorithmique progressive devenant peu à peu indispensable et influençant les décisions humaines sans jamais apparaître officiellement comme décisionnaire.
Une IA pourrait par exemple suggérer des questions “optimisées” selon le profil psychologique du suspect, détecter des “zones de mensonge probables”, calculer des probabilités de contradiction ou recommander une stratégie d’entretien. À partir de là, l’interrogatoire humain pourrait devenir une simple validation mécanique de recommandations algorithmiques invisibles.
Le problème est que les IA génératives et comportementales ne comprennent pas réellement la vérité. Elles manipulent des probabilités statistiques. Elles peuvent produire des analyses impressionnantes tout en se trompant totalement. Or dans une garde à vue, une erreur peut détruire une vie, conduire à une pression psychologique abusive ou influencer injustement une procédure pénale.
Il existe également un enjeu colossal autour du secret de l’enquête. Utiliser une IA implique souvent un traitement massif de données sensibles : voix, vidéos, éléments psychologiques, conversations privées, antécédents judiciaires, biométrie. Où ces données seraient-elles stockées ? Qui pourrait y accéder ? Seraient-elles utilisées pour entraîner d’autres modèles ? La question devient explosive dans des enquêtes terroristes, politiques ou impliquant des mineurs.
L’autre sujet extrêmement sensible concerne les biais. Une IA entraînée sur des données policières historiques peut reproduire — voire amplifier — des discriminations déjà existantes. Si certaines catégories sociales, ethniques ou géographiques sont surreprésentées dans les bases d’apprentissage, l’algorithme peut développer des “soupçons automatiques” statistiquement biaisés tout en donnant une illusion froide de neutralité scientifique.
C’est précisément ce qui inquiète de nombreux juristes et défenseurs des libertés publiques. Une machine peut produire une forme d’autorité psychologique écrasante. Face à un écran affichant des “indices de mensonge” ou des “scores de crédibilité”, beaucoup de personnes pourraient finir par croire que l’algorithme détient une vérité scientifique incontestable, même lorsqu’il se trompe.
En réalité, l’IA pourrait d’abord s’imposer dans des fonctions périphériques : retranscription automatique des auditions, traduction instantanée, organisation documentaire, synthèse d’enquête, recherche de contradictions dans des milliers de pages de procédure ou aide à l’analyse chronologique. Sur ces aspects techniques, les gains de temps pourraient être considérables.
Mais franchir la frontière du questionnement humain touche à autre chose : la psychologie, l’intuition, l’éthique, la responsabilité et la notion même de justice. Un interrogatoire n’est pas un simple échange d’informations. C’est un rapport humain sous tension où se jouent parfois la peur, la manipulation, la fragilité mentale, le mensonge, la honte ou la vérité.
L’arrêt rendu en 2026 par la Cour de cassation ressemble donc à un rappel discret mais fondamental : la justice pénale française refuse encore que la machine devienne l’interlocuteur direct du citoyen privé de liberté.
Mais derrière cette décision juridique se dessine déjà un futur beaucoup plus trouble. Car l’histoire récente montre une chose : dès qu’une technologie promet efficacité, rapidité et réduction des coûts, la tentation politique et administrative finit presque toujours par apparaître.
