Les grands modèles cloud ont un problème structurel pour les clients CAC 40 : chaque prompt envoyé à une API tierce est potentiellement une fuite de données concurrentielles. Les briefs de campagne Toyota, les identités visuelles en développement chez Safran ou les axes de communication de BNP Paribas ne peuvent pas transiter par des serveurs tiers.
Les SLM en inférence locale résolvent ce problème. Un modèle de 3-7B paramètres, quantifié en GGUF et exécuté sur un GPU local, offre des capacités suffisantes pour la phase de consulting — analyse sémantique des briefs, extraction de patterns visuels, génération de directions alternatives — sans aucune dépendance réseau.
La souveraineté des données de marque n'est plus un frein à l'adoption de l'IA : c'est un argument de vente différenciant pour les studios qui ont construit cette infrastructure. Dans ma pratique, l'inférence locale est devenue le prérequis non-négociable pour les clients à exigences élevées de confidentialité — avant même la discussion sur les livrables.
Travailler avec Andy Lechapelier
Toyota, ESA, Thales, BNP Paribas, Safran, Alstom — 10 ans de production grand compte.
Direction artistique × IA générative × orchestration créative.