Поддержать команду Зеркала
Беларусы на войне
  1. «У меня проблема с сексуальной зависимостью». Стрижак высказался о своих поступках, из-за которых его обвинили в харассменте
  2. «В этом смысле очень существенными стали два события». Власти переключились на «тихие репрессии» — правозащитник
  3. Пассажирский самолет Ан-24 разбился в Амурской области России. Предварительно, выживших нет
  4. Чиновник назвал «виноватых» в замедлении роста экономики
  5. «Хотел отправить фото Антону Мотолько». Никита Лосик рассказал о задержании, СИЗО и суде
  6. До Минска дошел грозовой фронт — город в очередной раз подтопило. Местами не ходит транспорт
  7. «У нас тотальное падение». Интервью с представительницей директората BYSOL о скандале со Стрижаком
  8. В Стамбуле состоялся третий раунд переговоров между Украиной и Россией. Итоги
  9. «Кто насрал нам в уши о том, что там есть мины?» Украинский уклонист утверждает, что бежал в Европу через Беларусь
  10. Фотограф случайно увидела свой снимок на учебнике по французскому от Минобра. На нем изображена семья, которая уехала из Беларуси
  11. Андрей Стрижак отстранен от руководства BYSOL
  12. «Звоночки были раньше». В 27 лет беларуска не обратила внимание на симптомы страшного заболевания, а в эмиграции стало хуже
  13. Любимая газета Путина опубликовала статью о нападении ЕС на Россию в 2027 году. Главный эксперт в ней — одиозный беларусский пропагандист
  14. В 2026 году будем отдыхать четыре дня подряд. В какие даты
  15. 398 из 400 возможных. Посмотрите, насколько высокие баллы нужно было набрать, чтобы бесплатно учиться на некоторых специальностях


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.