Microsoft займется отловом предвзятого ИИ (1 фото)




Любопытно, что Microsoft, которая подает себя как компания, которая создает ИИ для объединения людей, присоединяется к рядам Google и Facebook, чтобы создать какой-нибудь инструмент для поиска «плохо воспитанного» искусственного интеллекта. Однако новый алгоритм Microsoft для поиска предвзятых алгоритмов сможет найти и пометить только существующие проблемы. А значит программы, которые могут привести к увеличению уровня предвзятости в полиции, например, все так же будут создавать и использовать, просто не так долго, как раньше.

Чтобы создать настоящий ИИ, который будет справедливым и рассудительным, нужно больше работать над внешним видом. Возможно, привлекать независимую проверку, чтобы технические компании привлекали внешних экспертов для анализа своих алгоритмов и поиска признаков предвзятости либо в самом коде, либо в данных, которые он обрабатывает.

Идея ревизии искусственного интеллекта набирает обороты, и некоторые компании по разработке ИИ начали привлекать аудиторов, которые могут взглянуть на их код.

искусственный интеллект Новый вид компании поиск код интеллект полиция независимость

Microsoft — вот название еще одной компании, которая попытается обуздать алгоритмическую предвзятость. Ни для кого не секрет, что в последнее время искусственный интеллект все чаще выходит «поехавшим» и начинает нести чушь, отражая собственные предрассудки, предубеждения, предвзятость и несовершенство нашего общества. Компания хочет создать инструмент, который будет находить и предупреждать людей об алгоритмах ИИ, которые могут угрожать им.

Любопытно, что Microsoft, которая подает себя как компания, которая создает ИИ для объединения людей, присоединяется к рядам Google и Facebook, чтобы создать какой-нибудь инструмент для поиска «плохо воспитанного» искусственного интеллекта. Однако новый алгоритм Microsoft для поиска предвзятых алгоритмов сможет найти и пометить только существующие проблемы. А значит программы, которые могут привести к увеличению уровня предвзятости в полиции, например, все так же будут создавать и использовать, просто не так долго, как раньше.

Чтобы создать настоящий ИИ, который будет справедливым и рассудительным, нужно больше работать над внешним видом. Возможно, привлекать независимую проверку, чтобы технические компании привлекали внешних экспертов для анализа своих алгоритмов и поиска признаков предвзятости либо в самом коде, либо в данных, которые он обрабатывает.

Идея ревизии искусственного интеллекта набирает обороты, и некоторые компании по разработке ИИ начали привлекать аудиторов, которые могут взглянуть на их код. Но это также требует, чтобы ИИ был достаточно простым, либо чтобы аудитор хорошо разбирался в коде. В случае с более сложными алгоритмами глубокого обучения так не получится.

Другой возможный ответ — лучшая подготовка людей, которые фактически создают ИИ, чтобы они могли сами определять собственное мнение и предубеждение и держать их при себе, не позволяя алгоритму интерпретировать их как факт. У всех есть скрытые предубеждения, и мир технологий только выиграет от того, что поможет людям лучше понять их собственное мировоззрение.









Добавить комментарий