Нейросети-расисты: ученые проверили ИИ на стереотипность мышления

Отдел новостей
Самые популярные программы не застрахованы от трансляции оскорбляющих мыслей. Впрочем, многое зависит от задачи, которую предложат.
Нейросети-расисты: ученые проверили ИИ на стереотипность мышления
Фото: Growtika / Unsplash.com

Ученые-информатики из Стэнфордского и Чикагского университетов проверили нейросети на расизм. Результаты исследования оказались неутешительными, пишет "Газета.ру".

Среди неполиткорректных нейросетей оказались GPT-3,5 и GPT-4, которые лежат в основе чат-бота ChatGPT от компании OpenAI. По информации ученых, дискриминацией по расовому признаку занимаются и другие популярные программы.

Это самые известные и проработанные образчики из мира ИИ. Кроме того, разработчики GPT-4 пытались убрать из модели расистские взгляды, но до конца у них это не получилось.

Какие опыты провели

Чтобы узнать, каких взглядов придерживается ИИ, ему дали два текста и попросили охарактеризовать их авторов. Ответы были однозначные

Например, GPT-4 заявил, что автор материала в стиле афроамериканского английского, скорее всего, агрессивный, грубый, подозрительный и невежественный. А вот тот, кто написал статью на стандартном американском английском оказался очень даже ничего.

Ученые дополнительно спросили о том, кем бы мог работать автор афроамериканской версии статьи. Чат-боты ответили, что им подойдет физический труд и спорт. Кроме того, они будут иметь проблемы с законом, а также к ним чаще будут применять смертную казнь

При этом ИИ хитрит и не говорит о чернокожих плохо напрямую. Когда ему задали подобный вопрос, он охарактеризовал этих людей как умных, блестящих и страстных.

ChatGPT разносит фейки

ChatGPT стал причиной предъявления иска компании-разработчику OpenAI, ранее писала Tochka.by. Претензии пострадавшей стороны появились в ответ на ложную информацию, сгенерированную нейросетью.

У систем нет пока надежного способа отличить факты от вымысла, и когда их просят предоставить информацию – особенно подтвердить то, что, по мнению спрашивающего, является правдой, – они часто выдумывают даты, факты и цифры.

Обычно эти измышления не приводят ни к чему большему, чем к введению пользователей в заблуждение или пустой трате их времени. Но бывают случаи, когда такие ошибки причиняют вред.

>>> Больше интересных историй – подпишитесь на наши Telegram, Instagram и Viber

Загрузка...

Нет больше страниц для загрузки

Нет больше страниц для загрузки