Най-популярният езиков модел с изкуствен интелект ChatGPT може да се окаже голяма дупка в сигурността - потребители онлайн показват как чатботът пуска пароли и потребителски имена от един потребител на друг, разказва Ars Technica.

Други съобщават за изтекли професионални презентации за вътрешно ползване, непубликувани научни доклади и статии, и друга чувствителна информация.

Макар ChatGPT да разговаря с нас в рамките на "сесия" и предполагаемо не пази никаква информация от разговорите, това не е съвсем вярно - не всеки чат се пази на сървърите на OpenAI, но късчета информация явно все пак влизат.

В един от примерите потребител се е опитвал да разгадае проблем с портал за медицински рецепти - и докато е ползвал чатбота за помощник, е дал паролата си и потребителското си име. Друг потребител, ползвал чата за подобен проблем, изведнъж е получил тези данни, а в добавка - името на първия потребител и номера на портала.

През ноември други потребители показаха как можем да накараме ChatGPT да изплюе имейли, телефони, и дори физически адреси на други потребители или от данни, ползвани за обучението на модела.

Преди всичко това означава, че ако работим (или се забавляваме) с чатботове, трябва да сме изключитено внимателни за това каква информация споделяме.