Поддержать команду Зеркала
Беларусы на войне
  1. В странах Европы стремительно растет количество случаев болезни, которую нельзя искоренить. В Беларуси она тоже угрожает любому
  2. Лукашенко потребовал «внятный, конкретный, выполнимый» антикризисный план для региона с «ужаснейшей ситуацией»
  3. «Масштаб уступает только преследованиям за протесты 2020 года». Что известно об одном из крупнейших по размаху репрессий дел
  4. Завещал беларуске 50 миллионов, а ее отец летал с ним на вертолете за месяц до ареста — что еще стало известно из файлов Эпштейна
  5. На среду объявили оранжевый уровень опасности из-за морозов
  6. Чиновница облисполкома летом 2020-го не скрывала свою позицию и ходила на протесты — она рассказала «Зеркалу», что было дальше
  7. «Судья глаз не поднимает, а приговор уже готов». Беларуска решила съездить домой спустя семь лет эмиграции — но такого не ожидала
  8. В Беларуси ввели новый налог. Чиновник объяснил, кто будет его платить и о каких суммах речь
  9. «Только присел, тебя „отлюбили“». Популярная блогерка-беларуска рассказала, как работает уборщицей в Израиле, а ее муж пошел на завод
  10. Лукашенко подписал изменения в закон о дактилоскопии. Кто будет обязан ее проходить
  11. 20 лет назад беларус был вторым на Играх в Италии, но многие считали, что его кинули. Рассказываем историю знаменитого фристайлиста
  12. Украинские контратаки под Купянском тормозят планы России на Донбассе — ISW
  13. В нескольких районах Беларуси отменили уроки в школах из-за мороза. А что с садиками
  14. Электричка в Вильнюс и возвращение посольств. Колесникова высказалась о диалоге с Лукашенко
  15. «За оставшихся в Беларуси вступиться просто некому». Как государство хотело наказать «беглых», а пострадали обычные люди


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.