18:47
Не списывайте со счетов правительственные алгоритмы-ответственный ИИ может принести реальную пользу

Алгоритмы в последнее время приняли много зенитных ракет, особенно те, которые используются правительством и другими государственными органами в Великобритании. Спорный алгоритм, используемый для присуждения студенческих оценок, вызвал огромный общественный резонанс, но национальные и местные органы власти и несколько полицейских сил в течение всего года выводили из использования другие алгоритмы и инструменты искусственного интеллекта в ответ на юридические проблемы и неудачи проектирования.

Это совершенно справедливо привело к тому, что организации государственного сектора осознали необходимость более критического подхода к ИИ и алгоритмическому принятию решений. Но есть много случаев, когда государственные органы могут использовать такую технологию в сценариях с низким риском и высокой отдачей, которые могут улучшить жизнь, особенно если они непосредственно не используют персональные данные.

Поэтому, прежде чем мы полностью погрузимся в цинизм ИИ, мы должны рассмотреть преимущества, а также риски, которые он предлагает, и потребовать более ответственного подхода к разработке и развертыванию ИИ.

Одним из примеров этого является проект интеллектуального уличного освещения, опробованный городским советом Глазго. Он использует алгоритм для обработки данных датчиков в реальном времени о шуме, загрязнении воздуха и пешеходах вокруг города и управления уличным освещением в ответ на использование людьми велосипедных дорожек и открытых пространств.

Цель состоит в том, чтобы немедленно повысить безопасность, но также обеспечить лучшее городское планирование и охрану окружающей среды. Важно отметить, что этот проект проходит надлежащую апробацию и открыт для общественного контроля, что поможет решить проблемы и потребности людей.

Точно так же городской совет Ливерпуля работает с компанией Red Ninja над проектом Life First Emergency Traffic Control, который направлен на сокращение времени поездки скорой помощи до 40%. Новый алгоритм работает в рамках существующей системы светофоров для приоритизации аварийных транспортных средств, стремясь уменьшить заторы впереди аварийных транспортных средств и сэкономить критические минуты на время реагирования скорой помощи.

Правительства также могут использовать искусственный интеллект для выполнения многих низкорисковых работ, которые непосредственно не направлены на прогнозирование поведения людей или принятие решений, непосредственно затрагивающих отдельных лиц. Например, National Grid использует искусственный интеллект и беспилотники для проверки 7200 миль воздушных линий электропередач в Англии и Уэльсе.

Он способен оценить металлоконструкции, износ и коррозию, а также неисправности проводников. Это ускоряет проверку, экономит время и деньги и позволяет инженерам-людям сосредоточиться на ремонте и усовершенствовании, производя более надежное энергоснабжение.

ИИ может привести в действие автоматизацию трудных работ. KOHUKU/Shutterstock

Агентство по стандартам водителей и транспортных средств (DVSA) использовало искусственный интеллект для улучшения тестирования MOT, используя искусственный интеллект для анализа огромного объема тестовых данных для разработки оценок риска для гаражей и выявления потенциально неэффективных центров. Это позволило сократить число посещений правоохранительных органов на 50%.

Аналогичное Агентство по лицензированию водителей и транспортных средств (DVLA) использовало алгоритм обработки естественного языка для разработки чат-бота для обработки запросов клиентов. Это интегрировано в единую платформу обслуживания клиентов, так что персонал может отслеживать все взаимодействия с клиентами по телефону, электронной почте, веб-чату и социальным сетям.

Эти примеры показывают, насколько правительство способно успешно и ответственно использовать искусственный интеллект. Так как же органы государственного сектора могут обеспечить, чтобы их алгоритмы справлялись с этим?

Начнем с того, что существует множество руководств, которым они могут следовать, таких как принципы ОЭСР по ИИ. Эти принципы гласят, что ИИ должна разрабатываться таким образом, чтобы она уважала права человека, демократические ценности и разнообразие и включала соответствующие гарантии и мониторинг рисков. Существует требование прозрачности и ответственного раскрытия информации, чтобы люди понимали эти системы и могли бросить им вызов.

Но руководящих принципов не обязательно достаточно. Правительство Великобритании опубликовало свои собственные рекомендации по надежному использованию ИИи инвестировало значительные средства в многочисленные экспертные консультативные органы по ИИ. Тем не менее, как показали недавние события, он все еще умудрялся ошибаться во многих вещах при разработке алгоритмов.

Одна из причин этого заключается в том, что даже сейчас мало кто признает, что технология искусственного интеллекта недостаточно хороша для безопасного использования в случаях с высокой отдачей и высоким риском, таких как присвоение оценок и виз. Иногда искусственный интеллект не должен быть решением проблемы.

Законы и подталкивания

Новые законы, регулирующие использование ИИ, могли бы помочь, но лишь немногие страны еще не приняли конкретного законодательства. Есть несколько хороших примеров в развитии, таких как предложенный США законопроект об ответственности ИИ. Однако законодательство движется медленно, подвергается значительному лоббированию и опережает по скорости технологические инновации. Поэтому необходимы более быстрые подталкивания к ответственному поведению.

Недавний отказ от некоторых правительственных алгоритмов показал, что когда общественность осведомлена о слаборазвитом ИИ, это может изменить поведение правительства и создать спрос на более надежное использование технологий. Поэтому одним из возможных решений, к которому призывает исследовательская сеть Women Leading in AI, основателем которой я являюсь, является Инфомарк ИИ.

Любые приложения, веб-сайты или документы, относящиеся к правительственным службам, системам или решениям, использующим ИИ, будут отображать знак, чтобы предупредить людей об этом факте и указать им на информацию о том, как работает ИИ и его потенциальном воздействии и риске. Это гражданская стратегия, предназначенная для того, чтобы дать людям возможность понять и бросить вызов алгоритму или системе искусственного интеллекта, которые повлияли на них. И это, надеюсь, должно подтолкнуть правительство к тому, чтобы убедиться, что оно все делает правильно в первую очередь.

Если правительство сможет сочетать адекватное регулирование с такого рода расширяющим возможности, восходящим подходом к обеспечению более ответственных технологий, мы сможем начать пожинать реальные выгоды от более широкого использования алгоритмов и ИИ.

Похожие материалы:

Так же рекомендуем посмотреть:

Этот тест может обнаружить "скрытое сознание" у коматозных пациентов


Новое исследование показывает, как лучше всего выразить благодарность любимому человеку, и это очень просто


5 мифов об упражнениях, развенчанных наукой

Категория: Тайны / Новости / Гипотеза / Наука | Просмотров: 61 | Добавил: admin | Теги: Не списывайте со счетов правительст, KOHUKU, высокая отдача, Искусственный интеллект, орган, Том, DVSA, средство, скорая помощь, алгоритм, Правительство, Mot, DVLA, государственный сектор | Рейтинг: 0.0/0
Всего комментариев: 0
avatar