Добавить новость
smi24.net
Все новости
Январь
2026
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
27
28
29
30
31

Американка едва не умерла после совета, полученного от ChatGPT

Американская блогерша рассказала, как ChatGPT ошибочно идентифицировал ядовитое растение как безвредное, из-за чего с ее подругой едва не произошла трагедия. Об этой истории пишет LADBible.

По словам женщины, подруга отправила в ChatGPT фотографию растения, найденного во дворе, с вопросом о том, что это за вид. Чат‑бот ошибочно заявил, что это морковная ботва, и привел «подтверждающие» признаки, в частности, «тонко рассечённые, перистые листья».

После этого пользователь напрямую спросил, может ли растение быть болиголовом, а ИИ несколько раз дал отрицательный ответ, несмотря на то что крайне ядовитый болиголов входит в список растений, часто путаемых с морковной листвой. После сомнительных ответов ChatGPT женщина решила проверить информацию через Google, обнаружив, что растение действительно является болиголовом. Кроме того, ядовитый характер растения подтвердила проверка его фотографии через Google Lens.

Как отметила блогерша, ее подруга избежала опасности лишь потому, что перепроверила информацию.

Ранее сообщалось, что чат-бот ChatGPT поставил правильный диагноз четырехлетнему американцу после того, как более 15 врачей не смогли ему помочь.















Музыкальные новости






















СМИ24.net — правдивые новости, непрерывно 24/7 на русском языке с ежеминутным обновлением *