Google был началом, GPT — концом: почему ИИ опаснее, чем кажется

Многие визионеры, футуристы, особенно на Западе, часто говорят об опасности так называемого сильного (универсального) ИИ, который превзойдет человека. И он может начать играть против человека и человечества. Но поскольку, по их же оценкам, это произойдет не сейчас, не мгновенно, а, может быть, лет через 20–30, то человечеств успеет подготовиться.
Однако все не совсем так и, скорее всего, совсем не так. Уже сегодня мы массово «сотрудничаем» с ИИ, в основе которого лежат всего лишь известные уже больше полувека нейросети. Вот их-то и нужно бояться. Да, это совсем не сильный ИИ, не думающий организм. Это пока что достаточно понятные информационные технологии. Но мы сами уже делаем его убийцей человечества. Каким же образом?
Мы не задумываемся о последствиях внедрения и раскрутки новых технологий, плохо прогнозируем эти последствия. Зато умеем порождать безудержный бизнес-хайп. Вспомним несколько примеров, связанных с информационными технологиями, когда мы практически без должного анализа последствий и подготовки, разумного встраивания в традиционные схемы, революционно с хайпом вбрасываем в массы мощные технологические инструменты. Считаем, что люди сами найдут для себя оптимум. Но, как правило, нет, не находят.

Давно известно, что больше 90% людей не очень приспособлены к эффективному анализу, системности, продуманности. И, получив инструмент, идут чаще всего по негативному треку его использования. Примеры. Внедрили калькуляторы — да, удобно, но устный счет перестал тренировать человеческий мозг. Внедрили поисковики типа Google — люди перестают тренировать память, делать предварительный анализ информации: все найдем в Google! Теперь массово внедряем интеллектуальные чаты типа GPT. Перестаем тренировать мозг более сложными задачами, не получаем навыков системного анализа, логики, синтеза и т. д. Все за нас начинает делать ИИ. Так еще он и массу информации о нас накапливает, анализирует и уже может нами управлять. Фактически становится «мягкой силой» на новом уровне и с качественно новыми возможностями. И все это особенно опасно для молодежи. Хаотизация вместо системности в голове — с самого детства.
Человечество привыкает перекладывать многие мыслительные процессы на GPT. Такой комфорт приводит к тому, что мозг начнет атрофироваться, бояться системности, сложных решений, быстро скатываться к фрагментации.
Итак, мы стали активно использовать ИИ, ища у него ответы на любой вопрос. Как ранее искали их у поисковика Google. Поскольку с Google уже экспериментируем несколько десятков лет, можно подводить некоторые итоги. Как правило, они достаточно негативные у многих серьезных ученых, экспертов.

Активный поиск ответов у Google с детства приводит ко многим непоправимым последствиям. Но GPT не Google. Он гораздо страшнее и опаснее. Человек сам себя приучает к мыслительному комфорту. Зачем в голове строить сложные логические цепочки рассуждений, если все сделает GPT и ему подобные? Чуть что посложнее — и сразу обращаемся к GPT. А поскольку человек — существо достаточно ленивое и быстро привыкает к комфорту, то происходит и быстрое перекладывание многих мыслительных процессов на GPT. А такой комфорт приводит к тому, что мозг человека начнет атрофироваться, бояться системности, сложных решений, быстро скатываться к фрагментации.
Кроме того, GPT накапливает много информации о каждом человеке. Этот процесс можно и ускорить, если нужным образом настроить его алгоритмы (а их настроить в нужном направлении, конечно, есть кому). К сожалению, все эти процессы плотно захватили поколение Z+. И в итоге нас уничтожит не будущий сильный ИИ, а обычные нейросети. Причем незаметно и относительно комфортно. Как в известном научном анекдоте, когда лягушка медленно варится — комфортно, комфортно, расслабилась лягушка и комфортно померла.
Автор: Александр Курбацкий
Рекомендуем

