Советник целевой группы по искусственному интеллекту (ИИ) при премьер-министре Соединенного Королевства сказал, что у людей есть примерно два года, чтобы научиться контролировать и регулировать ИИ, прежде чем он станет слишком мощным.

В интервью британскому СМИ Мэтт Клиффорд, который также является председателем государственного Агентства перспективных исследований и изобретений (ARIA), подчеркнул, что современные системы становятся «все более и более способными с постоянно растущей скоростью».

Он считает, что если чиновники не будут учитывать безопасность и правила сейчас, то системы станут «очень мощными» через два года.

«У нас есть два года, чтобы создать структуру, которая сделает контроль и регулирование этих очень крупных моделей гораздо более возможным, чем сегодня».

Клиффорд предупредил, что когда дело доходит до ИИ, существует «множество различных типов рисков», как в краткосрочной, так и в долгосрочной перспективе, которые он назвал «довольно пугающими».

Интервью появилось после недавнего открытого письма, опубликованного Центром безопасности ИИ и подписанного 350 экспертами по ИИ, в том числе генеральным директором OpenAI Сэмом Альтманом, в котором говорилось, что ИИ следует рассматривать как экзистенциальную угрозу, подобную той, что исходит от ядерного оружия и пандемий.

«Они говорят о том, что происходит, когда мы эффективно создаем новый вид, своего рода интеллект, который превосходит человеческий».

Советник целевой группы по ИИ сказал, что угрозы, исходящие от ИИ, могут быть «очень опасными» и могут «убить многих... через два года».

По словам Клиффорда, основное внимание регулирующих органов и разработчиков должно быть сосредоточено на понимании того, как управлять моделями, а затем на внедрении правил в глобальном масштабе.

Он заявил, что на данный момент самый большой страх у него вызывает непонимание того, почему модели ИИ ведут себя так, а не иначе.

«Люди, которые создают самые совершенные системы, открыто признают, что они не совсем понимают, как системы ИИ демонстрируют то поведение, к которому они пришли».

Клиффорд подчеркнул, что многие руководители организаций, занимающихся созданием ИИ, также согласны с тем, что мощные модели ИИ должны пройти некий процесс аудита и оценки перед развертыванием.

В настоящее время регулирующие органы во всем мире изо всех сил пытаются понять технологию и ее разветвления, пытаясь создать правила, которые защищают пользователей и при этом позволяют внедрять инновации.

5 июня официальные лица в Европейском союзе зашли так далеко, что предложили обязать маркировать весь контент, созданный ИИ, чтобы предотвратить дезинформацию.

В Британии один из передовых членов оппозиционной Лейбористской партии повторил мнение, упомянутое в письме Центра безопасности ИИ, заявив, что технологии должны регулироваться так же, как медицина и ядерная энергетика.

https://www.block-chain24.com/news/iskusstvennyy-intellekt/britanskiy-uchenyy-ii-mozhet-ugrozhat-chelovechestvu-cherez-2-goda?utm_source=yxnews&utm_medium=desktop