ChatGPT небезопасен: 5 вещей, которые нельзя рассказывать чат-боту в 2026 году

Даже если кажется, что бот отвечает "как друг", информация, которую вы вводите, может быть использована иначе, чем вы ожидаете.

Чат-боты с искусственным интеллектом (ИИ) вроде ChatGPT стали неотъемлемой частью повседневной жизни: люди используют его для поиска ответов, составления текстов, помощи с идеями и даже для анализа данных.

Однако чем активнее мы взаимодействуем с ИИ, тем важнее помнить – это не безопасное хранилище ваших личных или конфиденциальных данных, пишет SlashGear.

ChatGPT ежедневно отвечает примерно на 2,5 миллиарда запросов, и даже при встроенных механизмах защиты остаются реальные риски утечек и неконтролируемого использования данных, которую вы вводите. Технология постоянно развивается, но осторожность все еще необходима

Вот пять вещей, которые никогда нельзя рассказывать ChatGPT или любому другому публичному "умному" чат-боту.

Персональная информация

Многие пользователи неосознанно вводят свое полное имя, адреса, номера документов и контактные данные для, например, составления резюме. Это может привести к серьезным последствиям в случае "утечки" или доступа злоумышленников к базе данных модели.

Даже если кажется, что бот отвечает "как друг", такая информация может быть обработана системой и использоваться иначе, чем вы ожидаете. 

Финансовые детали

ChatGPT можно попросить стать финансовым консультантом и помочь составить ежемесячный бюджет или даже разработать целую пенсионную стратегию, но конкретные данные о счетах, кредитных картах, инвестициях или налогах не должны вводиться в ИИ-чат

Эксперты отмечают, то после предоставления данных ИИ, невозможно узнать их дальнейшую судьбу. Ввод финансовых сведений может создать серьезные риски: от мошеннических схем и утечек персональных данных до фишинговых атак и заражения устройств программами-вымогателями.

Медицинские данные

Согласно недавнему опросу, примерно один из шести взрослых обращаются к ChatGPT как минимум раз в месяц за пояснениями симптомов или лечением. А среди молодежи этот показатель растет до одного из четырех раз в месяц.

Эксперты призывают делать это с крайней осторожностью и пониманием, что это не врач и он не заменяет консультацию специалиста. Как и финансовая информация, проблема усугубляется тем, что после предоставления таких данных ИИ невозможно узнать их дальнейшую судьбу.

Материалы, связанные с работой

Документы, отчеты и стратегии компании – это включает все, что связано с работодателем, клиентом или текущим проектом, который не допускается к публичному оповещению.

Как отмечают в издании, искусственный интеллект может выглядеть удобным инструментом для редактирования текстов или кратко пересказа документов, но это также может привести к ненужным рискам.

Любые незаконные запросы

Это то, чего стоит избегать не только по соображениям безопасности, но и по юридическим причинам. Вопросы о том, как совершать преступления, мошенническую деятельность или манипулировать, могут привести к блокировке сервисов и даже к ответственности, поскольку платформы обязаны соблюдать законы и могут раскрывать данные по запросам правоохранительных органов.

Глава OpenAI Сэм Альтман тоже предупреждает, что переписки с ChatGPT не защищены законом так же, как беседы с настоящим специалистом и в случае судебного разбирательства разработчики могут быть обязаны предоставить переписку пользователя по решению суда.

Поэтому всегда будьте осторожны с тем, что вы рассказываете ИИ, особенно если это относится к вашей личной или профессиональной жизни.

Ранее эксперты определили самый точный ИИ с минимумом "галлюцинаций": чат-бот Grok, разработанный компанией Илона Маска, неожиданно показал наименьший уровень галлюцинаций, тогда как ChatGPT и Gemini оказались внизу рейтинга.

УНИАН писал, что ChatGPT занимает более 80% мирового рынка чат-ботов и 92% в Украине. Ближайшие соперники – Perplexity и Microsoft Copilot. На них приходится доля в 15% от всех пользователей.

Вас также могут заинтересовать новости: