Поддержать команду Зеркала
Беларусы на войне
  1. Тревожный звоночек. Похоже, исполняется неоптимистичный прогноз экономистов
  2. «Учится в первом классе». В Гомеле девочка пропала из продленки, а нашлась в реанимации больницы
  3. Антирекорд за 15 лет. В Беларуси была вспышка «самой заразной болезни» — получили закрытый документ Минздрава
  4. Чем занималась жена Лукашенко перед пенсией? Рассказываем, где работают некоторые члены семьи политика
  5. «Я снимаю, он выбивает телефон». Беларусский блогер Андрей Паук рассказал, что на него напали у посольства РФ в Вильнюсе
  6. США отменили гранты на демократию для стран бывшего СССР, в том числе Беларуси
  7. «Перед глазами стоит скорчившаяся Мария Колесникова, которую тащат из ШИЗО». Экс-политзаключенная — об ужасах тюремной медицины
  8. Азаренок заявил, что пророссийская активистка из Витебска — агентка Запада, живущая на деньги «пятой колонны»
  9. Литва ввела новый запрет в двух оставшихся пунктах пропуска на границе с Беларусью
  10. К делу о пропаже Анжелики Мельниковой подключились польские спецслужбы. Вот что узнало «Зеркало»
  11. Кремль старается переложить вину за отказ от прекращения огня на Киев и требует выполнить условия, которые сделают Украину беззащитной
  12. «У диктатуры нет друзей, есть только слуги». Писательница обратилась к сторонникам власти на фоне случившегося с Бондаревой
  13. В Польше при загадочных обстоятельствах погиб беларусский активист
  14. «Давний друг» Лукашенко, который долго игнорировал приглашения посетить Минск, похоже, все-таки прилетит в Беларусь
  15. «То, что Лукашенко не признал Крым, страшно раздражало Путина». Большое интервью «Зеркала» с последним послом Украины в России
  16. Экс-муж Мельниковой: Из-за пропажи Анжелики никуда не заявлял, не вижу смысла


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.