Главную опасность искусственного интеллекта назвали ученые

Подумайте, что произойдет, если у нас будут сенсоры, которые знают, когда вы чувствуете страх
Технологии могут стать опасными, если кто-то захочет использовать их / Фото: kaluga.sm-news.ru

Искусственный интеллект как технология сам по себе не представляет угрозы, опасность заключается в том, как человек будет использовать создаваемые технологии, сообщает РИА "Новости".

"Суть не в том, что искусственный интеллект, который мы будем создавать в следующие 20 лет, представляет из себя нечто пугающее. Иногда пугает сам человек и то, как он будет использовать созданные технологии", – сказал профессор Междисциплинарного центра биоэтики Йельского университета США Венделл Валлах.

Он отметил, что технологии могут стать опасными, если кто-то захочет использовать их для манипуляции поведением и чувствами людей.

"Подумайте, что произойдет, если у нас будут сенсоры, которые знают, когда вы чувствуете страх или уязвимость... Для меня пугающим представляется использование искусственного интеллекта в целях слежки. Кроме того, что будет, если искусственный интеллект будет контролировать смертоносное оружие. Это очень пугающе, но нам не нужно делать этого всего", – сказал Валлах.

При этом он скептически настроен относительно того, насколько быстро ученые смогут создать нечто подобное человеческому мозгу, препятствием для этого могут стать и этические вопросы.

"Я думаю, что мы пока очень далеки от создания чего-то подобного человеческому мозгу, очень далеко. Что это значит? Двадцать лет, пятьдесят лет, сто лет, я не знаю. Некоторые мои коллеги считают, что в течение двадцати лет, я так не считаю. Я полагаю, что мы будем спотыкаться больше, чем мы думаем. Я немного более скептичен, чем большинство, потому что я очень много думал об этических вопросах и осознал, что все очень непросто", – сказал Валлах.

Тем не менее ученый полагает, что в будущем технологии будут приносить больше пользы, чем таить в себе угрозы, сложность заключается в минимизации нежелательных последствий для общества.

Читайте полную версию на сайте