Искусственный интеллект сверхкомпетентен, но может и ошибаться

 (17)
Искусственный интеллект сверхкомпетентен, но может и ошибаться
Фото: частный архив Луукаса Ильвеса

Последние десять лет развития искусственного интеллекта (ИИ), в первую очередь во всем, что связано с машинным обучением и глубоким обучением, принесли невероятные прорывы.

Всё это время прогресс опережает самые оптимистичные ожидания большинства исследователей. В настоящее время искусственный интеллект превосходит людей от игры в го и вождения автомобилей до обнаружения рака и даже сочинения музыки. На Таллиннском Цифровом саммите (Tallinn Digital Summit) справедливо будут обсуждаться последствия, которые эта технология будет иметь для будущего работы и правительств.

Накапливаются и доказательства того, что неразборчивое применение искусственного интеллекта повлечет за собой неожиданные последствия — иногда забавные, иногда серьезные. Вот некоторые примеры:

  • Системы машинного обучения, как показала практика, усиливают дискриминацию по этническому, гендерному и другим признакам, когда они используются для принятия решений о кредитовании и условно-досрочном освобождении или для выявления потенциальных преступников.
  • Искусственный интеллект учится у своей окружающей среды неожиданным способом. Например, виртуальный собеседник (чатбот) компании Microsoft ”Тэй” (Tay) научился использовать расистскую и уничижительную манеру разговора за считанные часы
  • Эти инструменты далеки от ”всеведущего” идеала и допускают ошибочные суждения. Алгоритм распознавания лиц компании Amazon, например, неправильно идентифицировал многочисленных избранных политиков в качестве преступников.
  • Искусственный интеллект может быть и намеренно обманут с помощью, так называемых, ”состязательных атак”, которые часто не могут быть распознаны наблюдателями.

Искусственный интеллект и алгоритмические средства также могут быть поставлены на службу вредоносным намерениям, включая манипуляцию, хакерский взлом и военные действия. Исследования в этой области открыты, и многие основные инструменты доступны в виде открытого исходного кода, что также затрудняет контроль над распространением искусственного интеллекта и для использования злоумышленниками.

Короче говоря, искусственный интеллект похож на многие мощные новые технологии — его слепое внедрение приводит к неожиданным последствиям. Скорость развития и внедрения искусственного интеллекта делает проблему более животрепещущей. И приложения сходны ИИ в одном ключевом аспекте — их использование с автономными инструментами, независимо взаимодействующими со сложными средами, и сложность, при которой даже инженеры затрудняются объяснить, почему искусственный интеллект принимает определенные решения.

Реальная опасность возникает тогда, когда мы чрезмерно полагаемся на эти правила и не в состоянии задействовать защитные меры, надзор и коррекционные механизмы. Нам нужно ответственное использование ИИ — не только ради него самого, но и потому, что получение пользы от ИИ требует широкой общественной и политической поддержки, позволяющей его регулировать и предотвращать серьезные негативные последствия.

События последнего времени не предвещают ничего хорошего в отношении подготовленности к рискам внедрения технологии: Защита данных и безопасность киберпространства переросли в серьезные общественные проблемы прежде, чем правительства отреагировали на это принятием государственной политики, и, по крайней мере, в случае кибербезопасности, остается неясным, учли ли компании реальные расходы.

Но на этот раз всё может быть иначе. Хорошая новость заключается в том, что полноценное и широкое обсуждение этой темы широким кругом заинтересованных сторон сформировалось невероятно быстро. Несколько лет назад академическое и активистское сообщества начали призывать к практическим действиям в сфере ответственного использования ИИ. Примеры: конференция ”Равнодоступность, подотчетность, прозрачность”, Принципы ИИ (принятые на конференции в Асиломаре),100-летнее исследование ИИ, открытые письма касательно военного использования ИИ.

ТОП

Примечательно, что реакция со стороны правительств и корпораций была стремительной. Многочисленные национальные стратегии в связи с искусственным интеллектом отметили важность этического и ответственного ИИ. Такие компании, как Google и Microsoft объявили о своих собственных внутренних этических принципах искусственного интеллекта — с четкими границами дозволенного и сферами деятельности, которыми они не будут заниматься. Идут международные процессы, призванные обеспечить как технические стандарты, так и правовые нормы в качестве основы для ответственного использования ИИ (примечательно, что в этом участвуют Институт инженеров-электриков и электронщиков (IEEE), ЕС и Совет Европы, а также ООН).

Тем не менее, впереди нас ждут серьезные проблемы. Чтобы с ними справиться, потребуется беспрецедентная координация между многими сферами деятельности и дисциплинами. И даже в самом лучшем случае большинство предлагаемых мер предполагает затраты: тестирование, стандартизация, соблюдение правовых норм — все это требует времени и денег.

Директор и научный сотрудник действующего в Брюсселе The Lisbon Council Луукас Ильвес, представит доклад и будет руководить дебатами на тему безопасности в век искусственного интеллекта. Основная цель дискуссии — обсудить, каким образом политические деятели, предприниматели и ученые могли бы обеспечить безопасность в области искусственного интеллекта, защищая основные ценности и права.

Прямая трансляция докладов на тему искусственного интеллекта доступна по адресу www.digitalsummit.ee/live.

Программа Tallinn Digital Summit www.digitalsummit.ee/agenda

Оставить комментарий
либо комментировать анонимно
Публикуя комментарий, вы соглашаетесь с правилами
Транслит
Читать комментарии Читать комментарии