Ваш браузер устарел, поэтому сайт может отображаться некорректно. Обновите ваш браузер для повышения уровня безопасности, скорости и комфорта использования этого сайта.
Обновить браузер

Теперь официально: нейросеть ChatGPT делает нас глупее и ленивее (исследование)

Привычка решать все вопросы с помощью искусственного интеллекта и не использовать свой собственный может дорого обойтись человечеству.

19 июня 20258
Теперь официально: нейросеть ChatGPT делает нас глупее и ленивее (исследование) | Источник: iStockphoto
Источник:
iStockphoto

Современные технологии творят чудеса и сильно облегчают жизнь. Нейросети уже сейчас помогают человеку получать ответы на все вопросы, создавать новые изображения, работать с числами и текстом.

Старшее поколение уже давно опасается, что прогресс сделает нас глупее — мы обленимся и не сможем справляться даже с элементарными задачами. И кажется, есть основания полагать, что в этих страхах есть свое рациональное зерно.

Ученые Media Lab Массачусетского технологического института проверили, как частое использование нейросети ChatGPT от OpenAI влияет на умственные способности человека. Результаты их работы оказались довольно пугающими.

Что удалось узнать

В эксперименте приняли участие 54 жителя Бостона в возрасте от 18 до 39 лет. Их поделили на три группы и попросили написать несколько эссе для SAT — стандартизированного теста для приема в высшие учебные заведения в США.

Каждой группе выдали свои условия. Одни могли использовать ChatGPT от OpenAI, второй группе можно было пользоваться поисковыми системами, а члены третьей должны были справиться с задачей своими силами.

Ученые использовали электроэнцефалографию (ЭЭГ) для записи активности мозга в 32 областях.

Исследование показало: из всех групп именно пользователи нейросети демонстрировали самую низкую активность мозга. Ученые сообщают, что члены этой команды постоянно отставали на нейронном, лингвистическом и поведенческом уровнях.

Эксперимент длился несколько месяцев. И с каждым новым эссе пользователи ChatGPT ленились все больше. К концу исследования они чаще всего бездумно копировали работу нейросети и ничего не меняли в тексте.

Ученые бьют тревогу

Авторы исследования высказали опасение, что привычка регулярно использовать нейросети может навредить обучению, особенно среди молодежи.

Статья еще не прошла экспертную оценку, и размер выборки относительно невелик. Однако, по мнению одного из авторов статьи Натальи Косминой, результаты их эксперимента важны. Чем больше общество полагается на нейросети, тем выше риск, что языковые модели навредят мозгу человека в обмен на удобство.

Кстати

Пока ученые разбираются в том, как нейросети изменят человека, в России из-за ИИ предлагают отменить домашние задания для школьников. С такой идеей выступил во время сессии по искусственному интеллекту в рамках ПМЭФ вице-спикер Госдумы от партии «Новые люди» Владислав Даванков.

Он отметил, что школьники давно научились выполнять всю работу с помощью чат-ботов.

«Это абсолютная бессмыслица. Я через ChatGpt проверяю домашние задания сына, которые он сделал в DeepSeеk», — заявил Даванков.

О брейнроте

Нейросети отчасти виновны еще в одном пугающем тренде современности. Если вы слышали от своего ребенка или видели в Интернете мемы про «балерину капучину» и «бомбардиро крокодило», то вы уже успели с ним столкнуться. Такой бессмысленный контент получил отдельное название — брейнрот.

Сам термин образован от английских слов, которые на русский переводятся как «гниль» и «мозг». И действительно, если провести много часов за просмотром такого видео и картинок, можно чуть ли не физически ощутить, как ум начинает работать медленнее. Проблема эта настолько актуальна, что Оксфордский словарь назвал brainrot словом 2024 года.

По словам психолога Натальи Искры, «залипать» на брейнрот особенно вредно детям. Причем последствия таких дурацких мемов могут быть очень серьезными: у ребенка может ухудшиться память, упадет уровень критического мышления, речь может стать более бедной и безграмотной.

Подробнее о том, как брейнрот может испортить жизнь вашим детям и как их защитить, можно прочитать ЗДЕСЬ.