Штучний інтелект успадкував людські забобони та стереотипи.
Як неупереджене цифровий розум
Уявіть, що ви завантажуєте фотографію друзів у популярну послугу фото, і система розпізнавання вийде заміж за ними як … Горили. Цей випадок є лише вершиною айсберга в дискусії про те, як неупереджений цифровий розум.
Чому машини помиляються?
Крістіан Баухаж з Інституту інтелектуального аналізу та інформаційних систем Фраунгофера вважає, що це не дивно. Зрештою, системи AI вивчають суб'єктивні дані та вивчають спотворений погляд на світ.
Проблема полягає саме в навчальних даних. Виявилося, що в базі даних для навчальних алгоритмів категорія “людина” була представлена головним чином фотографіями людей кавказької раси. Критично мало фотографій чорношкірих людей – звідси жахлива помилка в класифікації.
Від забобонів до забобонів
У 2017 році дослідники з Університету Прінстона під керівництвом Елін Дзаліскан провели експеримент, висвітлив ще більш неприємну проблему. Вони тренували рукавичку в Інтернет -текстах, створюючи семантичну мережу з двох мільйонів слів.
Результати неприємно здивували наукову спільноту:
- Бот, пов'язані з афро -американськими іменами з негативними характеристиками;
- Зазвичай “білі” імена викликали позитивні асоціації;
- Жінки в презентації AI співвідносяться з мистецтвом та допоміжними ролями;
- Чоловіки були пов'язані з лідерством та математикою.
Дзеркало людських забобонів
Лінгвіст Йоахім Шарло з технічного університету Дрездена також не здивований. Він згадує, що тексти написані людьми, які самі не звільняються від забобонів.
Дослідження показують, що текстові системи AI легко приймають як очевидні, так і приховані забобони з навчальних даних.
Це викликає розробників дуже складне питання про те, наскільки можна створити справді об'єктивний штучний інтелект.