HomeNews* La sénatrice Cynthia Lummis a introduit le RISE Act de 2025 pour clarifier les responsabilités légales des professionnels utilisant des outils d'Intelligence Artificielle (AI).
Le projet de loi exige que les développeurs d'IA fournissent des "cartes de modèle" détaillées décrivant les données du système, les utilisations et les limitations, mais n'oblige pas à l'open source des modèles d'IA.
Les professionnels tels que les médecins, les avocats, les ingénieurs et les conseillers financiers resteront légalement responsables des conseils fournis en utilisant des systèmes d'IA.
Les développeurs d'IA peuvent réduire leur responsabilité civile en publiant ces cartes de modèle, mais doivent mettre à jour la documentation fréquemment et expliquer toute information retenue.
La protection pour les développeurs d'IA ne s'appliquera pas en cas de légèreté, de fraude ou d'utilisation abusive en dehors des cadres professionnels définis.
Sénatrice Cynthia Lummis (R-WY) a présenté le projet de loi sur l'Innovation Responsable et l'Expertise Sûre (RISE) de 2025. Le projet de loi vise à établir des règles de responsabilité claires pour les professionnels qui utilisent l'intelligence artificielle (AI) dans des domaines tels que la médecine, le droit, l'ingénierie et la finance.
Publicité - Selon la loi proposée, les professionnels — y compris les médecins, les avocats et les conseillers financiers — resteraient légalement responsables de tout conseil ou service fourni, peu importe si des systèmes d'IA ont contribué à la décision. Le projet de loi exigerait que les développeurs d'IA publient des "cartes de modèle" qui détaillent les données d'entraînement de chaque système, les utilisations prévues, les limitations, les indicateurs de performance et les points de défaillance possibles. Ces documents doivent être mis à jour dans les 30 jours suivant tout changement apporté au modèle d'IA ou la découverte de nouveaux problèmes.
Selon un communiqué de presse, Lummis a déclaré : « Le Wyoming valorise à la fois l'innovation et la responsabilité ; le RISE Act crée des normes prévisibles qui encouragent un développement de l'IA plus sûr tout en préservant l'autonomie professionnelle. » Elle a ajouté : « Cette législation ne crée pas d'immunité générale pour l'IA. » L'exigence de la "carte modèle" ne va pas jusqu'à obliger les développeurs à divulguer l'intégralité de leur code source.
Le projet de loi exclut également l'immunité pour les développeurs d'IA dans les cas impliquant de la négligence, une faute intentionnelle, une fraude, ou si les développeurs déforment leurs modèles ou les utilisent en dehors de leur contexte professionnel prévu. Toute omission dans les fiches de modèle doit être justifiée par écrit, et seules les informations non liées à la sécurité qui sont des secrets commerciaux peuvent être expurgées.
La législation arrive alors que des experts avertissent des risques découlant des modèles d'IA à code source fermé, qui fournissent peu d'informations sur la manière dont les décisions sont prises. Dans une interview précédente, Simon Kim, PDG de la société de capital-risque coréenne Hashed, a averti : “OpenAI n'est pas ouvert, et il est contrôlé par très peu de personnes, donc c'est assez dangereux. Créer ce type de modèle fondamental [à code fermé] est similaire à créer un ‘dieu’, mais nous ne savons pas comment cela fonctionne,” comme partagé avec CoinDesk.
La loi RISE vise à équilibrer l'innovation avec la responsabilité professionnelle, exigeant la transparence des développeurs d'IA tout en leur permettant de conserver des secrets commerciaux si ceux-ci n'affectent pas la sécurité des utilisateurs. Le projet de loi est actuellement à l'étude et n'est pas encore devenu loi. Pour plus d'informations, le texte complet de la loi RISE est disponible en ligne.
Articles Précédents:
La SEC retarde ses décisions sur les dépôts d'ETF de Dogecoin, HBAR, Solana, Cardano
Tencent envisage l'acquisition du développeur de MapleStory, Nexon
Le directeur de MicroStrategy, Carl Rickertsen, vend toutes ses actions pour 10M$
Shopify ajoute des paiements USDC pour les commerçants sur le réseau Base de Coinbase
Sonic Labs investit 400 000 S dans Hey Anon, l'IA sur chaîne pour DeFi
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
La sénatrice Lummis dévoile la loi RISE, établit de nouvelles règles de transparence pour l'IA
HomeNews* La sénatrice Cynthia Lummis a introduit le RISE Act de 2025 pour clarifier les responsabilités légales des professionnels utilisant des outils d'Intelligence Artificielle (AI).
Selon un communiqué de presse, Lummis a déclaré : « Le Wyoming valorise à la fois l'innovation et la responsabilité ; le RISE Act crée des normes prévisibles qui encouragent un développement de l'IA plus sûr tout en préservant l'autonomie professionnelle. » Elle a ajouté : « Cette législation ne crée pas d'immunité générale pour l'IA. » L'exigence de la "carte modèle" ne va pas jusqu'à obliger les développeurs à divulguer l'intégralité de leur code source.
Le projet de loi exclut également l'immunité pour les développeurs d'IA dans les cas impliquant de la négligence, une faute intentionnelle, une fraude, ou si les développeurs déforment leurs modèles ou les utilisent en dehors de leur contexte professionnel prévu. Toute omission dans les fiches de modèle doit être justifiée par écrit, et seules les informations non liées à la sécurité qui sont des secrets commerciaux peuvent être expurgées.
La législation arrive alors que des experts avertissent des risques découlant des modèles d'IA à code source fermé, qui fournissent peu d'informations sur la manière dont les décisions sont prises. Dans une interview précédente, Simon Kim, PDG de la société de capital-risque coréenne Hashed, a averti : “OpenAI n'est pas ouvert, et il est contrôlé par très peu de personnes, donc c'est assez dangereux. Créer ce type de modèle fondamental [à code fermé] est similaire à créer un ‘dieu’, mais nous ne savons pas comment cela fonctionne,” comme partagé avec CoinDesk.
La loi RISE vise à équilibrer l'innovation avec la responsabilité professionnelle, exigeant la transparence des développeurs d'IA tout en leur permettant de conserver des secrets commerciaux si ceux-ci n'affectent pas la sécurité des utilisateurs. Le projet de loi est actuellement à l'étude et n'est pas encore devenu loi. Pour plus d'informations, le texte complet de la loi RISE est disponible en ligne.
Articles Précédents: