Провідні компанії світу пропонують прирівняти ШІ до ризиків, пов'язаних з пандеміями і ядерною війною

98184

Провідні керівники в галузі штучного інтелекту, включаючи генерального директора OpenAI Сема Альтмана, приєдналися до експертів і професорів, щоб порушити питання про "ризик вимирання від ШІ", і закликали політиків прирівняти штучний інтелект до ризиків, пов'язаних з пандеміями і ядерною війною.

Як передає Укрінформ, про це повідомляє Reuters.

"Зниження ризику вимирання через ШІ має стати глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна", - написали понад 350 підписантів у листі, опублікованому некомерційним Центром безпеки ШІ (CAIS).

Окрім Альтмана, серед них були керівники компаній DeepMind і Anthropic, а також керівники Microsoft і Google. Також серед них були Джеффрі Хінтон і Йошуа Бенгіо - двоє з трьох так званих "хрещених батьків ШІ", які отримали Премію Тьюринга 2018 року за свою роботу в галузі глибокого вивчення, і професори з різних установ - від Гарварду до китайського Університету Цінхуа.

Подання листа збіглось у часі із засіданням Ради з торгівлі та технологій США-ЄС у Швеції, де політики, як очікується, обговорюватимуть питання регулювання ШІ.

Завантаження...
Комментарии (0)
Для того, чтобы оставить комментарий, Вы должны авторизоваться.
Гость
реклама
реклама