дата публікації

Сінтія Луміс пропонує законопроект про штучний інтелект, що вимагає від компаній зі штучного інтелекту розкривати технічні деталі

джерело

Сенатор Сінтія Ламміс (Р–Вайомінг) представила законопроект "Act of 2025" щодо відповідальних інновацій та безпечного експертного оцінювання (RISE), метою якого є уточнення рамок відповідальності за використання штучного інтелекту (ШІ) професіоналами. У пресрелізі Ламміс зазначила, що законопроект RISE надає професіоналам, таким як лікарі, юристи, інженери та фінансові консультанти, юридичну відповідальність за надані ними поради, навіть якщо вони ґрунтуються на системах ШІ. Розробники ШІ можуть уникнути цивільної відповідальності лише у випадках невдач, якщо вони публічно розкриють модельні картки своїх систем. Законопроект визначає модельні картки як детальні технічні документи, які розкривають джерела навчальних даних ШІ, передбачувані області використання, показники продуктивності, відомі обмеження та потенційні способи відмови.

Це має допомогти професіоналам оцінити, чи підходить інструмент для їхньої роботи. "Вайомінг цінує як інновації, так і відповідальність; закон RISE створює зрозумілі стандарти, які сприяють безпечнішій розробці ШІ, зберігаючи при цьому професійну автономію", — сказала Ламміс. Вона також зазначила, що ця законодавча ініціатива не надає загального імунітету для ШІ. Однак імунітет, наданий за цим законом, має чіткі межі.

Закон виключає захист для розробників у випадках необережності, умисного правопорушення, шахрайства, свідомого спотворення інформації або дій, що виходять за межі визначеного професійного використання. Крім того, розробники зобов'язані підтримувати постійну відповідальність відповідно до закону RISE.

Документація та специфікації ШІ повинні оновлюватися протягом 30 днів після випуску нових версій або виявлення значних відмов, що підкреслює зобов'язання щодо прозорості. Зараз законопроект не зобов'язує моделі ШІ ставати повністю відкритими.

Розробники можуть приховувати конфіденційну інформацію, але лише якщо це не пов'язано з безпекою, і кожне виключення має супроводжуватися письмовим обґрунтуванням. У попередньому інтерв'ю Саймон Кім, генеральний директор Hashed, одного з провідних венчурних фондів Південної Кореї, говорив про небезпеку централізованого, закритого ШІ, який фактично є "чорною скринькою".

"OpenAI не є відкритим, і контрольований дуже небагатьма людьми, тому це досить небезпечно.

Створення такого [закритого] фундаментального моделлю подібне до створення 'бога', але ми не знаємо, як це працює", — зазначив Кім.