
В понедельник губернатор Калифорнии Гэвин Ньюсом подписал прозрачность в пограничном искусственном интеллекте в закон, требуя от компаний искусственного интеллекта раскрывать свою практику безопасности, не останавливаясь на фактических испытаниях на безопасность. Закон требует, чтобы компании с годовой доходом в размере не менее 500 миллионов долларов США для публикации протоколов безопасности на своих веб -сайтах и сообщений о инцидентах государственным властям, но в нем не хватает более сильных зубов правоприменения Билла Newsom, которые вето, которые были нанесены вето, после того, как технологические компании сильно поднялись против него.
Законодательство, SB 53, заменяет предыдущую попытку сенатора Скотта Винера по регулированию искусственного интеллекта, известном как SB 1047, которая потребовала бы испытания на безопасность и «переключатели убийства» для систем ИИ. Вместо этого новый закон просит компании описать, как они включают «национальные стандарты, международные стандарты и лучшие практики в отрасли» в развитие ИИ, без указания того, что эти стандарты или требуют независимой проверки.
«Калифорния доказала, что мы можем установить правила для защиты наших сообществ, а также гарантировать, что растущая индустрия ИИ продолжает процветать», – говорится в заявлении Newsom, хотя фактические защитные меры Закона остаются в значительной степени добровольными, помимо основных требований отчетности.
По данным правительства штата Калифорния, в штате размещается 32 из 50 лучших компаний искусственного интеллекта в мире, и более половины глобального венчурного капитала для стартапов ИИ и машинного обучения отправились в компании в области залива в прошлом году. Таким образом, хотя недавно подписанный законопроект является законодательством на уровне штата, то, что происходит в Калифорнийском регулировании искусственного интеллекта, окажет гораздо более широкое влияние как по законодательному прецеденту, так и за счет затрагивающих компаний, которые создают системы ИИ, используемые по всему миру.
Прозрачность вместо тестирования
В тех случаях, когда вето, который SB 1047 сделал бы обязанными испытаниями безопасности и убийствами для систем искусственного интеллекта, новый закон фокусируется на раскрытии. Компании должны сообщать о том, что штат называет «потенциальными критическими инцидентами безопасности» в Калифорнийском Управлении по чрезвычайным ситуациям, и предоставлять защиту осведомителей для сотрудников, которые вызывают проблемы безопасности. Закон определяет катастрофический риск узко как инциденты, потенциально приводящие к более 50 смерти или ущерб в 1 млрд. Долл. США за счет помощи оружию, автономных преступных действий или потери контроля. Генеральный прокурор может взимать гражданские штрафы в размере до 1 миллиона долларов за нарушение несоблюдения этих требований к отчетности.