Добавить новость
smi24.net
Разное на 123ru.net
Январь
2026
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
21
22
23
24
25
26
27
28
29
30
31

ChatGPT небезопасен: чат-боту нельзя рассказывать пять вещей

0

Чат-боты с искусственным интеллектом (ИИ) вроде ChatGPT стали неотъемлемой частью повседневной жизни: люди используют его для поиска ответов, составления текстов, помощи с идеями и даже для анализа данных, пишет unian.net

Однако чем активнее мы взаимодействуем с ИИ, тем важнее помнить – это не безопасное хранилище ваших личных или конфиденциальных данных, пишет SlashGear.

ChatGPT ежедневно отвечает примерно на 2,5 миллиарда запросов, и даже при встроенных механизмах защиты остаются реальные риски утечек и неконтролируемого использования данных, которую вы вводите. Технология постоянно развивается, но осторожность все еще необходима

Вот пять вещей, которые никогда нельзя рассказывать ChatGPT или любому другому публичному "умному" чат-боту.

Персональная информация

Многие пользователи неосознанно вводят свое полное имя, адреса, номера документов и контактные данные для, например, составления резюме. Это может привести к серьезным последствиям в случае "утечки" или доступа злоумышленников к базе данных модели.

Даже если кажется, что бот отвечает "как друг", такая информация может быть обработана системой и использоваться иначе, чем вы ожидаете. 

Финансовые детали

ChatGPT можно попросить стать финансовым консультантом и помочь составить ежемесячный бюджет или даже разработать целую пенсионную стратегию, но конкретные данные о счетах, кредитных картах, инвестициях или налогах не должны вводиться в ИИ-чат

Эксперты отмечают, то после предоставления данных ИИ, невозможно узнать их дальнейшую судьбу. Ввод финансовых сведений может создать серьезные риски: от мошеннических схем и утечек персональных данных до фишинговых атак и заражения устройств программами-вымогателями.

Медицинские данные

Согласно недавнему опросу, примерно один из шести взрослых обращаются к ChatGPT как минимум раз в месяц за пояснениями симптомов или лечением. А среди молодежи этот показатель растет до одного из четырех раз в месяц.

Эксперты призывают делать это с крайней осторожностью и пониманием, что это не врач и он не заменяет консультацию специалиста. Как и финансовая информация, проблема усугубляется тем, что после предоставления таких данных ИИ невозможно узнать их дальнейшую судьбу.

Материалы, связанные с работой

Документы, отчеты и стратегии компании – это включает все, что связано с работодателем, клиентом или текущим проектом, который не допускается к публичному оповещению.

Как отмечают в издании, искусственный интеллект может выглядеть удобным инструментом для редактирования текстов или кратко пересказа документов, но это также может привести к ненужным рискам.

Любые незаконные запросы

Это то, чего стоит избегать не только по соображениям безопасности, но и по юридическим причинам. Вопросы о том, как совершать преступления, мошенническую деятельность или манипулировать, могут привести к блокировке сервисов и даже к ответственности, поскольку платформы обязаны соблюдать законы и могут раскрывать данные по запросам правоохранительных органов.

Глава OpenAI Сэм Альтман тоже предупреждает, что переписки с ChatGPT не защищены законом так же, как беседы с настоящим специалистом и в случае судебного разбирательства разработчики могут быть обязаны предоставить переписку пользователя по решению суда.

Поэтому всегда будьте осторожны с тем, что вы рассказываете ИИ, особенно если это относится к вашей личной или профессиональной жизни.















Музыкальные новости






















СМИ24.net — правдивые новости, непрерывно 24/7 на русском языке с ежеминутным обновлением *