Меню

Искусственный интеллект призван облегчить жизнь человеку. Тогда почему его боятся люди?

Искусственный интеллект
Фото: DIS Group, Газета.ру

Появление искусственного интеллекта ознаменовало очередной виток в развитии человечества. Новый друг людей — искусственный интеллект — призван не только облегчать нашу жизнь и делать ее более комфортной, но и помогать нам обретать знания о тех вещах, которые на протяжении многих веков были попросту недоступными. Уже сейчас роботы, андроиды, нейросети, голосовые помощники вовлечены во многие сферы жизни: от вашего дома до космических станций.

Однако искусственный интеллект все еще не идеален. Он не лишен ошибок, а его неправильные выводы могут привести к неприятным последствиям, или даже катастрофическим. Многих людей такие проблемы серьезно волнуют. А за ними начинают нервничать и власти.

Так, Италия стала первой в мире страной, которая полностью запретила использование популярной нейросети ChatGPT. Власти заявили, что, во-первых, американская компания OpenAI, разработавшая данный чат-бот, нарушила законодательство о персональных данных, и во-вторых, несмотря на возрастные ограничения 13+, чат-бот никак не проверяет возраст пользователя. После Италии другие страны Европы задумались о целесообразности использования ChatGPT и подобных ему нейросетей. Так, данный вопрос уже серьезно изучается Германией, Францией и Ирландией.

Речь идет о чат-боте со встроенным искусственным интеллектом, который может вести с пользователем полноценные разговоры и даже вступать в споры, не забывая аргументировать свою позицию. Во время такой беседы создается впечатление будто болтаешь с живым человеком. Немудрено, что некоторые пользователи, к сожалению, воспринимают такой образ слишком буквально и верят всему, что искусственный интеллект считает правильным.

Человек

Об одной из таких историй написала газета L’Avenir. Некий житель Бельгии после полутора месяцев общения с нейросетью по имени Eliza на темы защиты экологии и заботы о природе покончил с собой. Особо пугающим оказалось то, что ИИ никогда не ставил под сомнение вопросы и догадки мужчины, из-за чего опасения и тревога бельгийца только росли. В добавок ответы электронного друга со временем становились все более запутанными и неоднозначными. Последнее «замечание» звучало так: «Мы будем жить как единое целое, вечно на небесах».

Другая новость пришла из Австралии, и она раскрывает следующий недостаток ИИ. Так, чат-бот с искусственным интеллектом сообщил, что Брайан Худ — мэр округа Хепберн — якобы сидел в тюрьме за взятки, в то время как сам политик, напротив, противодействовал коррупции. Теперь адвокаты мэра готовят иск к искусственному интеллекту и его разработчику – все тому же OpenAI.

На этом фоне специалисты подмечают, что ИИ попросту оперирует огромным количеством самой разной информации и на этой основе делает собственные выводы. Однако он по-прежнему не в состоянии полностью понимать контекст, из-за чего и могут происходить подобные ошибки.

Стоит также помнить, что главная особенность нейросетей заключается в том, что они способны самообучаться. В них попросту нет изначально заданного алгоритма действий и спрогнозированного результата. Все правила, по которым работает нейросеть, она пишет сама себе в процессе обучения. И у нее нет никакого мышления и сознания, ведь она оперирует только алгоритмами и формулами.

Но ошибки в бытовой среде — это еще полбеды. Куда больше тревоги будут вызывать огрехи ИИ в сфере обороны или при принятии политических решений. А ведь именно туда во многих странах уже активно внедряются подобные технологии.

Маск
Илон Маск призвал приостановить разработку и обучение нейросетей

Кто как не Илон Маск знает это лучше других. Скорее всего именно поэтому он призвал приостановить разработку и обучение нейросетей пока не будет создан общий протокол безопасности, который не позволит ИИ наносить вред людям. Подписи под соответствующим открытым письмом уже поставили более 1000 экспертов — это специалисты и руководители компаний, связанных с данной отраслью. Они также разделяют негативную позицию Маска.

Если конкретней, то авторы текста задаются вопросами: «Должны ли мы позволять машинам наводнять наши информационные каналы пропагандой? Должны ли мы автоматизировать все рабочие места? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, сделать нас ненужными и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?».

Пожалуй, обучение искусственного интеллекта можно сравнить с обучением ребенка. Какую информацию мы в него вложим, какие нормы ему привьем, каким правилам научим следовать, таким он и вырастет. Так что безопасность будущих поколений уже сегодня находится в наших руках.

Лента новостей
Загрузить ещё
Файлы cookie
Информационное агентство "Минская правда" использует на своём сайте анонимные данные, передаваемые с помощью файлов cookie.
Информационное агентство «Минская правда»
ул. Б. Хмельницкого, д. 10А Минск Республика Беларусь 220013
Phone: +375 (44) 551-02-59 Phone: +375 (17) 311-16-59