Анкарский центр исследований кризисных ситуаций и политики (ANKASAM) представляет интервью с генеральным директором института международной стратегии и информационного анализа (IISIA) и глобальным стратегом по искусственному интеллекту Такэо Харадой, в котором он оценивает влияние искусственного интеллекта на этические риски и риски безопасности в дипломатических процессах, управление языковыми и культурными различиями в дипломатической переписке и общении, а также принципы нейтральности и справедливости в дипломатических переговорах.
1. Исходя из вашего опыта, какие этические проблемы и проблемы безопасности связаны с использованием ИИ в дипломатических процессах?
Как и в других важных областях бюрократии, применение ИИ в дипломатии заслуживает активного обсуждения, чтобы максимально повысить эффективность использования трудовых ресурсов. Дипломатия — это не только искусство языка, но и элемент человеческого общения, и она также основана на ответственности тех, кто ее проводит. В этом контексте применение искусственного интеллекта в дипломатии теоретически вызывает следующие опасения с точки зрения этики и безопасности:
С точки зрения этики, каждый материал, используемый для ИИ, должен быть заранее тщательно изучен с этической точки зрения, которая до сих пор дипломатично формировалась в мировом сообществе. Только выводы, основанные на соответствующих данных, могут быть полезны для дипломатов, которые профессионально обязаны использовать «правильный дипломатический язык» для переговоров, подготовки документов и связей с общественностью.
С точки зрения безопасности дипломаты, использующие искусственный интеллект в своей повседневной работе, должны быть крайне осторожны, чтобы не подвергнуться риску легкого манипулирования со стороны внешних субъектов или даже врагов через интернет. Даже если искусственный интеллект не подключен напрямую к интернету, необходимо следить за тем, чтобы он не был предварительно обучен на неподходящих данных. При интеграции в дипломатию страны большие языковые модели (LLM) могут стать инструментом пропаганды для других стран, если их обучать на заведомо предвзятых векторных наборах данных. Кроме того, «галлюцинаторное» состояние, которое может возникнуть при постоянном использовании систем на основе больших языковых моделей, может привести к серьезным проблемам в дипломатии. Поскольку технологически невозможно полностью избежать данной проблемы, для того чтобы системы были органично интегрированы в дипломатию, их необходимо тщательно контролировать с помощью человеческой оценки.
2. Какую роль играют системы с искусственным интеллектом в управлении языковыми и культурными различиями в дипломатической переписке и общении?
Значительное развитие больших языковых моделей (LLM) в последние годы в целом облегчило преодоление трудностей в общении, возникающих из-за языковых и культурных различий. Это относится и к дипломатии. Хотя в современной дипломатии в качестве лингва-франка используется английский язык, во многих случаях необходимо общаться на местном языке каждой страны. Поэтому традиционно в сфере дипломатии требовались дипломаты с высоким уровнем владения иностранными языками. Однако в настоящее время ситуация кардинально меняется, поскольку уровень перевода, достигаемый самыми современными алгоритмами искусственного интеллекта, достаточно высок.
В связи с этим эффективность дипломатической переписки и общения выходит на более высокий уровень, чем когда-либо прежде. Однако потребность в дипломатах будет сохраняться, поскольку в дипломатии иногда очень важно «молчать» или «говорить неподобающим образом», а ИИ не может адекватно понять и применить эти тонкости. В результате дипломатия по-прежнему будет ориентирована на человека, но может быть в определенной степени автоматизирована благодаря быстрому развитию и применению ИИ.
3. Как вы думаете, влияет ли искусственный интеллект на принципы нейтральности и справедливости в дипломатических переговорах?
В дипломатии могут возникать ситуации, когда стране приходится выступать в роли посредника между другими странами, и в этом процессе абсолютно необходимы принципы нейтральности и справедливости. В этом контексте я считаю, что область, в которой искусственный интеллект может быть активен и полезен, весьма ограничена. Искусственный интеллект чрезвычайно успешно собирает данные и информацию, сортирует и классифицирует их, а также может поддерживать процессы принятия решений.
Однако для того, чтобы дипломатические переговоры завершились успешно для всех сторон, посреднику неизбежно приходится выносить определенные « ценностные суждения» на заключительном этапе переговоров. Такие «ценностные суждения» могут быть сделаны только человеком-дипломатом, в то время как ИИ может лишь обеспечить основу для таких суждений, предоставив точные результаты расчетов. Как мы видим из современных глобальных реалий, дипломатия останется по своей сути «человекоцентричной», независимо от того, насколько развиты компьютерные технологии.