дата публикации

Синтия Лумис предлагает законопроект о искусственном интеллекте, требующий от компаний в области ИИ раскрывать технические детали

источник

Сенатор Синтия Ламмис (Р–Вайоминг) представила законопроект "Акт 2025" по ответственным инновациям и безопасной экспертной оценке (RISE), целью которого является уточнение рамок ответственности за использование искусственного интеллекта (ИИ) профессионалами. В пресс-релизе Ламмис отметила, что законопроект RISE предоставляет профессионалам, таким как врачи, юристы, инженеры и финансовые консультанты, юридическую ответственность за данные ими советы, даже если они основаны на системах ИИ. Разработчики ИИ могут избежать гражданской ответственности только в случаях неудач, если они публично раскроют модельные карты своих систем. Законопроект определяет модельные карты как детализированные технические документы, которые раскрывают источники обучающих данных ИИ, предполагаемые области использования, показатели производительности, известные ограничения и потенциальные способы отказа.

Это должно помочь профессионалам оценить, подходит ли инструмент для их работы. "Вайоминг ценит как инновации, так и ответственность; закон RISE создает понятные стандарты, способствующие более безопасной разработке ИИ, сохраняя при этом профессиональную автономию", — сказала Ламмис. Она также отметила, что эта законодательная инициатива не предоставляет общего иммунитета для ИИ. Однако иммунитет, предоставленный по этому закону, имеет четкие границы.

Закон исключает защиту для разработчиков в случаях неосторожности, умышленного правонарушения, мошенничества, сознательного искажения информации или действий, выходящих за рамки определенного профессионального использования. Кроме того, разработчики обязаны поддерживать постоянную ответственность в соответствии с законом RISE.

Документация и спецификации ИИ должны обновляться в течение 30 дней после выпуска новых версий или обнаружения значительных отказов, что подчеркивает обязательство по прозрачности. Сейчас законопроект не обязывает модели ИИ становиться полностью открытыми.

Разработчики могут скрывать конфиденциальную информацию, но только если это не связано с безопасностью, и каждое исключение должно сопровождаться письменным обоснованием. В предыдущем интервью Симон Ким, генеральный директор Hashed, одного из ведущих венчурных фондов Южной Кореи, говорил об опасности централизованного, закрытого ИИ, который фактически является "черным ящиком".

"OpenAI не является открытым, и контролируем очень немногими людьми, поэтому это довольно опасно.

Создание такой [закрытой] фундаментальной модели похоже на создание 'бога', но мы не знаем, как это работает", — отметил Ким.