Bibliographie sélective OHADA

Explorez la bibliographie sélective OHADA de ressources Open Access en droit des affaires

Dans les auteurs ou contributeurs
Ressource en ligne
  • L'Europe a été à l'avant-garde de l'éthique de l'intelligence artificielle (IA), en élaborant des chartes et des principes non contraignants sur l'IA « digne de confiance ». Le terme « digne de confiance » est utilisé par l'Europe pour désigner les systèmes d'IA qui sont « éthiques », « légaux » et « techniquement robustes ». L'Europe a complété ces principes non contraignants par un texte de loi sur l'IA, connu sous le nom de règlement sur l'IA, ou AI Act. Le règlement sur l'IA est l'un des premiers cadres légaux au monde à réglementer les systèmes d'IA dans différents secteurs et cas d'utilisation, en mettant l'accent sur la sécurité et la protection des droits fondamentaux. Pour les questions opérationnelles, le règlement sur l'IA s'appuie principalement sur des normes techniques en cours d'élaboration. L'approche européenne combine donc trois niveaux d'instruments réglementaires : les chartes éthiques de l'IA, le règlement sur l'IA et les normes techniques.L'approche par la normalisation est traditionnelle dans le domaine de la sécurité des produits, mais dans le règlement sur l'IA, les normes sont également censées répondre aux préoccupations en matière de droits fondamentaux. Pour éviter de faire des choix normatifs difficiles, les organismes de normalisation jouent la carte de la sécurité en élaborant des normes qui restent à un niveau élevé. De plus, dans le cadre du règlement sur l'IA, la responsabilité de l'élaboration des normes techniques est déléguée à des organismes de normalisation privés, où les grandes entreprises multinationales sont surreprésentées et exercent une influence considérable. Ces normes sont également généralement payantes, bien que la situation puisse évoluer dans les années à venir après une récente jurisprudence de la Cour de justice de l'Union européenne. Les experts en normalisation sont donc sous pression pour fournir des normes à temps et de bonne qualité. Europe has been at the forefront of Artificial Intelligence (AI) ethics, developing non-binding charters and principles on "trustworthy'' AI. The term "trustworthiness'' is used by Europe to designate AI systems that are "ethical'', "legal'' and "technically robust''. Europe has supplemented these non-binding principles with a binding regulation on AI, known as the AI Act. The AI Act is one of the world's first comprehensive frameworks for regulating AI systems across different industries and use cases, focusing on safety and protection of fundamental rights. The AI Act relies, for operational questions, mostly on technical standards that are in the course of development. The European approach thus combines three layers of regulatory instruments: AI ethics charters, the AI Act and technical standards.The standardisation approach is traditional in product safety, but under the AI Act, standards are also expected to address fundamental rights concerns. To avoid making hard normative choices, standardisation organisations are playing it safe, developing standards which remain at a high-level. Moreover, under the AI Act, the responsibility for developing technical standards is delegated to private standardisation bodies, where large multinational companies are over-represented and hold significant influence. These standards are also often locked behind paywalls, although the situation may evolve in the coming years after a recent case law from the Court of Justice of the European Union. Standardisation experts therefore face pressures to deliver standards on time and of good quality.

Dernière mise à jour depuis la base de données : 22/12/2025 13:00 (UTC)

Explorer

Thèses et Mémoires

Type de ressource

Année de publication

Langue de la ressource

Ressource en ligne