ИИ напрямую зависит от предрассудков создающих его людей

ИИ может создавать алгоритмы, которые станут не помогать, а вредить людям. Microsoft ставит перед собой задачи обуздания алгоритмической предвзятости. Уже многие поняли, что последнее время искусственный интеллект часто «Несет чушь», выглядит «поехавшим». Он отражает несовершенство нашего общества, отражает его предрассудки.

Инструмент, который хотела бы создать компания, будет предупреждать людей об опасных для человека алгоритмах, станет находить и предупреждать о них.

Получается, что Microsoft, которая позиционирует себя, как создатель ИИ, присоединяется к компаниям Google и Facebook, которые мобилизуют свои силы для борьбы с «невоспитанным» искусственным интеллектом

Новый, разработанный компанией Microsoft, алгоритм может находить и отмечать только уже созданные проблемы, а программы, которые увеличивают, например, уровень предвзятого отношения полиции, будут продолжать разрабатывать и отправлять пользователям, просто еще быстрее.

Выходит так, что чтобы создать справедливый и рассудительный интеллект, нужно работать над внешними, независимыми подходами. Технические компании должны иметь возможность привлекать внешних экспертов для выполнения анализа алгоритмов, поиска предвзятого отношения в кодах или в обработанных данных.

Т.е, появилась идея ревизии искусственного интеллекта. Некоторые производители ИИ начали отдавать свои алгоритмы на проверку независимыми экспертами.

Для этого аудитор должен быть профессионалом и разбираться в кодах или ИИ должен быть достаточно простым.

Если придется столкнуться со сложными алгоритмами, то этот метод вряд ли решит проблему.

Еще одна возможность – тщательная подготовка людей, создающих ИИ. Чтобы они не переносили собственные убеждения и предвзятости на созданные алгоритмы. Каждый из нас имеет предубеждения определенного направления, но мир технологий должен быть защищен от них. Это позволит людям понять себя и свое мировоззрение.