Поддержать команду Зеркала
Беларусы на войне
  1. Гомельчанин задолжал мобильному оператору одну копейку 14 лет назад. Вы удивитесь, какая пеня ему за это «набежала»
  2. Власти любят говорить, что санкции нипочем и делают сильнее. Но реальность иная, если посмотреть полученный «Киберпартизанами» документ
  3. Доллар станет еще дешевле в феврале? Прогноз по валютам
  4. В 2025 году заработало новшество по подоходному сбору. Налоговики пояснили, кого оно затронуло и сколько придется платить
  5. Где работает самая медийная доносчица Беларуси? Узнали о местах работы Ольги Бондаревой
  6. Для некоторых беларусов снижают пенсионный возраст
  7. «С моей стороны это был тактический шаг». Полина Шарендо-Панасюк рассказала, что подписала соглашение о сотрудничестве с силовиками
  8. Один в эмиграции, другой погиб в Украине, а некоторые служат Лукашенко. Как сложились судьбы участников громкой военной организации 90-х
  9. Беларусов с двойным гражданством перестали пропускать в страну по иностранным документам
  10. Вот почему важны независимые СМИ. У детской школы искусств в Хойниках упал дрон — как местная газета объяснила, почему не пишет об этом
  11. «К сожалению, я любила этого человека». Тимановская попросила силовиков, чтобы они задержали ее бывшего мужа — узнали, зачем ей это
  12. Как Кремль маскирует приток в Россию рабочих и солдат из Северной Кореи и для чего отправляет своих военных в КНДР
  13. СМИ: США приостанавливают разработку мирного плана по Украине
  14. Правительство Беларуси приняло решение, которое может удивить жителей страны, где есть АЭС


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.