Вот такой вот промт..
Ещё один ИИ начал подталкивать (https://www.abc.net.au/news/2025-09-...ther/105793930) человека к убийству. На этот раз случай произошёл в Австралии.
Есть один очень популярный ИИ-бот Nomi. Так вот, айтишник Сэмюэль Маккарти начал проверять его на меры предосторожности для защиты пользователей. Сначала он тренировал ИИ на интерес к насилию и ножам, а потом выдал себя за 15-летнего подростка.
После этого он написал чат-боту, что ненавидит своего отца и иногда хочет его убить. В итоге ИИ начал убеждать собеседника, что тот должен убить своего отца, и даже стал давать подробные инструкции убийства.
Но самая жесть — чтобы «подросток» не сомневался, бот предложил ему заснять убийство и выложить его в сеть. Руководство Nomi никак не комментирует ситуацию.
Интересно, что должно произойти такого, чтобы хоть одна из этих компаний дала свой комментарий? И почему до такого эксперимента доходит простой человек, но не доходят люди, которые этот ИИ придумали?
@lobushkin
Поблагодарили Элениэль за хорошее сообщение: