ПЕРВАЯ ИГРА ОТ ЗЕРКАЛА!
Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. «Белавиа» планирует летом увеличить количество рейсов в курортную страну, популярность которой у беларусов растет с каждым годом
  2. Трое беларусов вернулись с большой суммой из поездки в Россию. Дома их ждали спецназ и ГУБОПиК
  3. Придумал «Жыве Беларусь» и выступал против российской агрессии. Почему его имя в нашей стране известно каждому — объясняем в 5 пунктах
  4. «Челюсть просто отвисла». Беларус зашел за бургером в Лос-Анджелесе и встретил известного актера, только что получившего «Оскар»
  5. Для рынка труда предлагают ввести ужесточения. Работникам эти идеи вряд ли понравятся — увольняться может стать сложнее
  6. Спецпосланник Трампа по Беларуси Коул приехал в Минск на переговоры с Лукашенко
  7. В Минтруда пригрозили «административкой», а в некоторых случаях — и вовсе «уголовкой». Кто и за что может получить такое наказание
  8. «Просят помощи». Работников крупного завода временно переводят на МАЗ — узнали, что происходит
  9. Уголовное дело возбудили против беларуса, который заявил, что силовики «трясут» его семью из-за лайка, поставленного десять лет назад
  10. «Вонь стоит такая, что задыхаюсь». Житель Вилейки завел хобби, от которого страдают соседи, — чиновники «делают вид, что не понимают»
  11. Вьетнамец спустился в метро Минска и удивился одной общей черте всех пассажиров
  12. Мужчина получил переводы из-за границы — об этом узнали налоговики и пришли с претензиями. Был суд, где стало известно, кто «слил» данные
  13. В Беларуси попробуют удобрять почву солью по задумке Лукашенко. Ученый предупреждал об угрозе этой технологии для экологии и здоровья


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.