Новость

ChatGPT начал «сходить с ума» — он угрожает пользователям и не может построить связные предложения

22

Пользователи чат-бота ChatGPT стали сообщать о странном поведении нейросети, а также проблемах с ответами. Примеры «неадекватного» поведения программы начали появляться на reddit.

В последние несколько дней ChatGPT перестал давать связные ответы: после первого абзаца обычного текста он стал выдавать случайный набор слов, алогичные предложения и бесконечные повторы. Англоязычные пользователи отметили, что ChatGPT стал писать на spanglish — смеси английского и испанского, при этом с орфографическими и логическими ошибками. Кроме того, в ответах нейросети нашли «угрожающие» послания вроде «я с тобой в одной комнате».

Разработчики ChatGPT отреагировали на необычное поведение бота. Компания OpenAI отметила на официальном сайте проблемы с «неожиданными ответами» нейросети и начала расследование, однако о решении проблемы на момент публикации материала ничего не известно.

Это не первая проблема с ChatGPT, возникшая за последние несколько месяцев. Например, в декабре 2023 года чат-бот начал проявлять лень — нейросеть пыталась уйти от ответов, советовала пользователю разобраться с проблемой самостоятельно или закончить работу за нее.