Поддержать команду Зеркала
Беларусы на войне
  1. «Это недопустимо». Лукашенко в очередной раз потребовал разобраться с вечной проблемой Минска
  2. «Они совершили ошибку». Трампа спросили об ударе России по Сумам
  3. В Дроздах третий год продают дом, который принадлежал экс-охраннику Лукашенко (не исключено, что и сейчас). Как выглядит жилье
  4. ISW: Тактика российского командования приводит к большим потерям, наступление России замедлится
  5. «Говорят, что мы собираем деньги на бомбы, на ракеты». Одиозный минский священник посетовал на прессинг монастыря, помогающего военным РФ
  6. В России рассказали, где в Беларуси может появиться вторая АЭС. Рассказываем, какие регионы рассматривают
  7. В Беларуси начинают отключать отопление — когда и в каких городах
  8. Власти анонсировали новое возможное ограничение для нанимателей
  9. Легко ли беларусу устроиться на фабрику, куда Лукашенко пригласил мигрантов из Пакистана
  10. «Просто фамилия — повод». Витебская сторонница «русского мира» рассказала, как силовики допрашивали ее дочь в поезде
  11. Самый известный беларусский агент под прикрытием стал причиной смерти десятков беларусов, но его ждал страшный конец. Рассказываем
  12. «Только сволочь так может поступать». Россия ударила по центру Сум, местные власти заявили о более 30 погибших
  13. Десятки случаев. Узнали, как проходят проверки КГБ на железной дороге
  14. Клиентам некоторых банков нужно приготовиться к новшествам, которые появятся в мае
  15. Такого дешевого доллара не видели давно: куда курс двинется дальше? Прогноз по валютам


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.