Apertus, l’IA suisse ouverte : avancées techniques et premiers retours critiques
Présentation d’Apertus, le modèle d’intelligence artificielle suisse
Lancé mardi, Apertus est un modèle d’intelligence artificielle développé en Suisse qui se démarque des grandes plateformes américaines. Conçu par des experts de l’EPFL, de l’EPFZ et du Centre suisse de calcul scientifique (CSCS) à Lugano, ce projet privilégie une approche ouverte et multilingue.
Architecture technique et données utilisées
L’une des spécificités majeures d’Apertus réside dans la transparence de son architecture, de ses techniques d’entraînement et de ses paramètres, tous mis à disposition du public. Par ailleurs, les sources documentées des données permettent de suivre intégralement leur collecte.
Corpus linguistique et diversité
Pour son entraînement, le modèle a été nourri avec un corpus de 15 milliards de mots issus de plus de 1000 langues, dont environ 40% ne sont pas anglophones. Une attention particulière a été portée aux variantes linguistiques suisses, notamment le suisse allemand et le romanche, ce qui le différencie des nombreux modèles qui privilégient l’anglais.
Protection des données et conformité réglementaire
Les données employées dans l’élaboration d’Apertus proviennent uniquement de sources librement accessibles. Les informations personnelles ont été éliminées, et les demandes de retrait ont été respectées, assurant ainsi une conformité avec la législation suisse en matière de protection des données ainsi qu’aux exigences européennes en matière de transparence pour les systèmes d’intelligence artificielle.
Un modèle multi-langues parmi les plus inclusifs
Selon ses concepteurs, la prise en compte ciblée de nombreuses langues, des majeures langues globales aux idiomes minoritaires, pourrait positionner Apertus comme un des modèles linguistiques les plus variés disponibles à ce jour.
Accès et utilisation par les professionnels
Apertus se présente comme un outil d’intelligence artificielle destiné avant tout à un public professionnel. Disponible sur la plateforme Hugging Face, le modèle est proposé en deux configurations : une version légère de 8 milliards de paramètres et une version plus conséquente de 70 milliards, à comparer avec les estimations autour de 52 milliards de paramètres pour GPT-5. Swisscom accompagne également le projet en tant que partenaire stratégique, offrant des services cloud associés.
Possibilités de test via une interface publique
Pour expérimenter le modèle, le collectif Public AI a ouvert au grand public l’accès à un chatbot via publicai.co. Sans inscription, seuls les internautes peuvent tester la version 8B, tandis qu’après création d’un compte, la version 70B est accessible.
Évaluation et limites actuelles
Lors des premiers tests, en particulier avec la version 70 milliards, le modèle a révélé certaines limites communes aux grands modèles linguistiques (LLM). Apertus ne dispose par exemple pas d’une capacité de raisonnement logique intégrée, restreignant sa faculté à traiter des problématiques complexes ou à établir des conclusions rigoureuses.
Des résultats mitigés et retours d’utilisateurs
Les premiers utilisateurs ont relevé des erreurs factuelles ainsi que des phénomènes dits d’« hallucinations ». Ces observations ont suscité des critiques sévères dans certains médias. Xavier Comtesse, président de Manufacture Thinking, a évoqué un sentiment de « honte » tandis que Charles-Edouard Bardyn, cofondateur de l’association AI Swiss, a souligné les difficultés d’usage immédiat de l’outil.
Défis spécifiques aux langues minoritaires : exemple du romanche
Malgré sa présence dans le corpus d’entraînement, le romanche reste un point sensible. Deux enseignantes de Haute-Engadine, Michelle Freund et Nadja Hort, ont rapporté que les traductions fournies par Apertus étaient souvent peu fiables, mélangeant dialectes et comportant plusieurs erreurs grammaticales. Pour leur part, les résultats de GPT-5 semblent afficher une meilleure performance dans ce domaine.
Perspectives d’évolution pour Apertus
Antoine Bosselut, directeur du Laboratoire de traitement du langage naturel à l’EPFL, anticipe ces retours critiques, précisant dans un entretien accordé au journal « Le Temps » que l’objectif n’était pas de reproduire un concurrent direct de ChatGPT. Il souligne que le projet vise avant tout à établir une base technologique robuste plutôt qu’une interface utilisateur complète et note que les connaissances intégrées au modèle s’arrêtent à début 2024.
Axes futurs et collaborations envisagées
Les responsables du projet considèrent Apertus comme une fondation évolutive. Ils prévoient notamment des mises à jour régulières ainsi que le développement de variantes spécialisées destinées à des secteurs comme le droit, la formation ou la santé. L’ambition est d’enrichir cette plateforme ouverte en partenariat avec la communauté scientifique et les acteurs économiques.