7 Сентября 2018
Все мы отлично знаем, что человеческий разум несовершенен, но вот холодный расчёт искусственного интеллекта мы привыкли считать совершенно беспристрастным и практически безошибочным. Но исследователи выяснили, что даже роботы с ИИ подвержены предубеждениям.
Если вы думаете, что предубеждения могут быть только у людей и других животных, то вы ошибаетесь - учёным из MIT и Кардиффского Университета удалось выяснить, что предубеждения могут появиться даже у искусственного интеллекта, особенно если несколько ИИ учатся друг у друга.
Исследователи заставили несколько ИИ-ботов играть в благотворительную игру, в которой боты были поделены на группы и должны были делать условные пожертвования членам своей группы или “чужакам”. При этом боты выбирали адресата пожертвования на основе его репутации и стратегий распределения пожертвований.
Вскоре исследователи заметили, что со временем боты в такой игре приобретают чётко выраженные предубеждения против членов других групп, большую часть пожертвований совершая внутри своего “коллектива”. В итоге учёные выяснили, что выбранные ботами стратегии являются максимально эффективными в краткосрочной перспективе, но проигрышными в догосрочной.
Исследователи подытожили эксперимент выводами о том, что предрасположенность к предубеждениям - мощная “сила природы”, которая может приобретаться эволюционным путём даже в виртуальных сообществах, и в долгосрочной перспективе такая стратегия предубеждения приводит к раздробленности популяции.
При этом, учёным удалось доказать, что наличие большого количества подгрупп и “меньшинств” приводит к понижению уровня предубеждения в симуляции - ИИ меньше боялись того, что какая-то группа станет доминантной, а менее крупные группы могли образовывать альянсы для поддержки друг друга “пожертвованиями”.