La loi sur l’IA est en débat : l’UE négocie l’avenir de l’IA en Europe

Même si cela semble plus long en raison de l’abondance de nouvelles, de promesses de salut et de scénarios d’horreur qui circulent chaque jour sur Internet : c’était il y a seulement un an. ChatGPT a lancé la révolution de l’IA. Presque toutes les grandes entreprises technologiques ont désormais présenté leurs propres modèles d’IA ou du moins y travaillent – parfois de manière totalement débridée. Un développement du Far West que l’UE veut désormais soumettre à des limites réglementées par la loi au niveau européen.

Règles pour l’intelligence artificielle

La soi-disant « loi sur l’IA » est discutée depuis des mois au Parlement européen, à la Commission européenne et au sein et entre les États membres. L’essentiel est l’application de la technologie et non la technologie elle-même. Grossièrement simplifié, il tourne toujours autour de la question « Qu’est-ce que l’IA est autorisée à faire et qu’est-ce qu’elle n’est pas autorisée à faire ? » et donc indirectement aussi sur la question « Qu’est-ce que l’économie de l’IA est autorisée à faire et qu’est-ce qu’elle n’est pas autorisée à faire ? ».

Comme le nouvelles quotidiennes rapporté, la loi sur l’IA est actuellement en discussion sur une réglementation basée sur les gradations de risque de l’IA. Ils dépendent des performances réelles des systèmes et de leurs domaines d’application. Les systèmes hautes performances utilisés en médecine et en science, par exemple, devraient être plus sévèrement réglementés que les systèmes d’IA à usage général comme celui-ci, en raison de la sensibilité des données. Gémeaux et le chatbot ChatGPT, pour lequel seules des obligations de transparence sont prévues. Systèmes d’assistance à l’IA – tels que les systèmes de traduction dans les smartphones comme celui-ci Pixel 8 Pro – en revanche, devrait être libéré sans autres obligations.

L’avenir technologique de l’Europe est en jeu

Il ne s’agit toujours pas seulement de l’interaction entre les humains et les machines. La réglementation au niveau européen a un impact sur l’Europe en tant que site économique en matière de développement de l’IA. Comme dans de nombreux domaines de la numérisation, les entreprises asiatiques et américaines semblent avoir pris les devants. Cette évolution accroît les craintes au sein de l’UE de se retrouver à la traîne dans la concurrence mondiale et d’être poussée dans un rôle de suppliant de plus en plus subordonné par rapport aux grandes entreprises, pour l’essentiel déréglementées, telles que Google, Microsoft, Amazon & Co.

C’est pour cette raison que l’Allemagne, l’Italie et la France, entre autres, appellent avant tout les entreprises à assumer leur responsabilité personnelle dans ce débat. L’économie numérique ne doit pas être soumise à des obstacles inutiles afin de pouvoir s’adapter de manière dynamique à un marché en évolution rapide, déclare Ralf Wintergerst, président de l’association industrielle Bitkom. Une exigence de transparence, avec tous ses obstacles bureaucratiques, pourrait faire obstacle.

Plus de transparence contre la personne transparente

En revanche, les experts en IA du monde scientifique et politique estiment que la responsabilité personnelle, sans limites prédéterminées, est soumise aux intérêts financiers à long terme. On ne peut pas compter sur la bonne volonté des entreprises, estime le député européen Sergueï Lagodinsky (Alliance 90/Les Verts) T en ligne selon. La chercheuse en technologie Sandra Wachter appelle également à plus de transparence. Il doit y avoir des règles qui dictent ce qui peut et ne peut pas figurer dans l’IA.

Ce que les critiques disent ne devrait pas être inclus, ce sont les fonctions discriminatoires – ce que l’on appelle le « score social » – et la surveillance biométrique. Ceux-ci pourraient être introduits dans la technologie par le biais d’un développement non réglementé et y rester à moins qu’il n’existe une incitation financière ou juridique pour les supprimer activement. Dans le pire des cas, cela entraîne des désavantages tant pour les individus que pour les groupes de population. Quiconque ne pense qu’à la criminalité et à la migration réfléchit trop brièvement.

La sécurité juridique est en jeu

En principe, le secteur privé – par exemple les compagnies d’assurance – pourrait également prendre des décisions basées sur les données de l’IA et, par exemple, augmenter les cotisations et refuser les prestations en raison de données de santé. En outre, « l’explosif social » ne doit pas être sous-estimé. En développement depuis un certain temps maintenant Désinformation de l’IA avec des images et des sons trompeusement réels une menace sérieuse pour le journalisme. Ils proviennent pour la plupart d’offres d’IA librement accessibles.

Il n’est plus certain que la loi européenne sur l’IA entre effectivement en vigueur. Selon Tagesschau, le projet de loi pourrait également échouer. Cependant, cela pourrait représenter le pire de tous les scénarios. Wintergerst souligne que l’insécurité juridique sans la loi sur l’IA peut avoir des conséquences fatales pour le développement de l’IA en Europe. Reste à savoir si les parties parviendront encore à un accord.