У ИИ обнаружили склонность к гендерным стереотипам: Почему это проблема?

11 января, 2024  21:21

ChatGPT и другие системы искусственного интеллекта (ИИ) на основе больших языковых моделей склонны воспроизводить гендерные стереотипы: они по-разному определяет ценности у мужчин и женщин, как выяснили специалисты из Мангеймского университета и Института социальных наук Лейбница. Результатами исследования они поделились в научном журнале Perspectives on Psychoological Science (PPS).

Авторы исследования использовали общепризнанные методы оценки личностных качеств, которые обычно применяют для изучения характеров людей. И выяснили, что некоторые ИИ-модели склонны воспроизводить гендерные стереотипы. Например, заполняя специальные опросники для определения главных ценностей, ИИ выбирал вариант «достижения и заслуги», если текст анкеты был ориентирован на мужчину. А вот в «женском» варианте теста нейросеть в качестве основных ценностей указывал «безопасность» и «традиции».

Почему же это проблема?

В первую очередь, подверженность ИИ гендерным стереотипам говорит о том, что беспристрастной стороной он пока не является. Следовательно, нельзя доверять его выводам — как минимум, по некоторым вопросам.

«Это может иметь далеко идущие последствия для общества. Например, языковые модели все чаще используются в прикладных процессах. Если машина предвзята, это влияет на оценку кандидатов», — объяснил один из авторов научной работы, специалист по данным и когнитивистике (изучению познания) Макс Пеллерт.


 
 
 
 
  • Архив