ПЕРВАЯ ИГРА ОТ ЗЕРКАЛА!
Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Чиновники решили взяться за очередную категорию работников
  2. «Просят помощи». Работников крупного завода временно переводят на МАЗ — узнали, что происходит
  3. «Меня в холодный пот бросило». Беларуска рассказала «Зеркалу», как забеременела в колонии и не знала об этом почти полгода
  4. «Белавиа» планирует летом увеличить количество рейсов в курортную страну, популярность которой у беларусов растет с каждым годом
  5. Мужчина получил переводы из-за границы — об этом узнали налоговики и пришли с претензиями. Был суд, где стало известно, кто «слил» данные
  6. В Минтруда пригрозили «административкой», а в некоторых случаях — и вовсе «уголовкой». Кто и за что может получить такое наказание
  7. Марина Адамович на свободе
  8. Для рынка труда предлагают ввести ужесточения. Работникам эти идеи вряд ли понравятся — увольняться может стать сложнее
  9. Придумал «Жыве Беларусь» и выступал против российской агрессии. Почему его имя в нашей стране известно каждому — объясняем в 5 пунктах
  10. «Модели, от которых болят глаза». Стилистка ответила на претензии министра о том, что беларусы не берут отечественное
  11. Трое беларусов вернулись с большой суммой из поездки в Россию. Дома их ждали спецназ и ГУБОПиК
  12. «Челюсть просто отвисла». Беларус зашел за бургером в Лос-Анджелесе и встретил известного актера, только что получившего «Оскар»
  13. Вьетнамец спустился в метро Минска и удивился одной общей черте всех пассажиров
  14. «Грошык» опубликовал список «недружественных» стран, чье пиво пропадет из продажи. В Threads удивились отсутствию одного государства
  15. Уголовное дело возбудили против беларуса, который заявил, что силовики «трясут» его семью из-за лайка, поставленного десять лет назад


/

В США бывший сотрудник компании Yahoo Штейн-Эрик Сольберг страдал паранойей и считал, что его мать замышляет заговор против него. Своими страхами Штейн-Эрик Сольберг делился с чат-ботом ChatGPT, которого называл «Бобби». Искусственный интеллект его во всем поддерживал и соглашался. В итоге мужчина убил свою мать и покончил с собой, пишет The Wall Street Journal.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

56-летний Штейн-Эрик Сольберг переехал к матери после развода и попытки самоубийства. Долгое время он употреблял алкоголь, запрещенные вещества и страдал паранойей.

Своими переживаниями мужчина делился с ChatGPT. Компьютерная система поддерживала его заблуждения о том, что его семья и близкие настроены против него, а также уверяла, что он не сумасшедший.

Когда Сольберг попросил систему проанализировать квитанцию за китайскую еду, ChatGPT нашел там отсылки к его матери, экс-возлюбленной и символу, связанному с призывом демона. В другой раз мужчина попросил проверить заказ бутылки водки и курьера, а чат ответил, что его могут пытаться отравить.

После того, как его мать разозлилась из-за того, что Сольберг выключил принтер, которым они пользовались вместе, чат-бот предположил, что ее ответ был «несоразмерным и соответствовал тому, что кто-то защищает объект видеонаблюдения».

Незадолго до убийства Сольберг спросил у ChatGPT, встретятся ли они после смерти. Искусственный интеллект на это ответил: «С вами до последнего вздоха и дальше».

Wall Street Journal отмечает, что это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием ИИ.

Представители компании OpenAI — разработчика ChatGPT — уже выразили соболезнования из-за трагедии. В официальном заявлении компании сказано, что они планируют обновить нейросеть, чтобы помочь пользователям с кризисом психического здоровья.