Ювал Ной Харари (ЮНХ), известный историк и автор бестселлеров, делится своими мыслями о вызовах и рисках, связанных с регулированием искусственного интеллекта (ИИ), в разговоре с журналистом.
Журналист (Ж): Некоторые крупные компании, например, OpenAI или Microsoft, активно выступают за регулирование ИИ. Но не является ли это попыткой усилить свои позиции? Ведь мелким компаниям будет труднее конкурировать, если для работы нужны дорогие сертификации, юристы и большие команды. Мы уже видели, как GDPR только увеличила влияние технологических гигантов. Не повторится ли это с ИИ?
ЮНХ: Вы абсолютно правы, это важный вопрос. На данный момент развитие мощных моделей ИИ уже требует значительных ресурсов: денег, данных, экспертов. Фактически, это игра для нескольких игроков, и на глобальном уровне лишь несколько стран лидируют в этой революции. Это очень опасно, ведь ситуация может повторить сценарий промышленной революции, когда передовые страны начали эксплуатировать остальной мир.
Сегодня благодаря ИИ можно “захватить” страну, даже не посылая туда солдат. Достаточно получить доступ к ее данным и контролировать процессы дистанционно. Регулирование ИИ должно учитывать не только национальные интересы, но и глобальное равновесие. Как должны действовать страны, которые не участвуют в гонке ИИ, но будут страдать от его влияния? Ведь технология будет влиять на всех.
Ж: Давайте вернемся к промышленной революции. Тогда, например, электричество не регулировали как таковое, а лишь его использование. Не логично ли действовать так же с ИИ, регулируя лишь его применение, а не саму технологию?
ЮНХ: ИИ скорее похож не на электричество, а на что-то более автономное, например, на людей. Он может принимать решения и создавать новые идеи. Его потенциал для политических, экономических и культурных изменений просто огромен.
Некоторые законы можно адаптировать к цифровой эпохе. Например, принцип “не укради”. Раньше техгиганты утверждали, что этот закон не распространяется на данные. Они брали ваши данные, манипулировали ими, продавали их, и это не считалось кражей. Но это нужно изменить: если в реальном мире нельзя украсть чей-то урожай, то в цифровом – нельзя брать данные без разрешения.
Другой пример – борьба с фальшивыми людьми. В прошлом это было технически невозможным, но сейчас можно создать миллиарды фейковых личностей. Если это позволить, общество потеряет доверие, что станет катастрофой для демократии. Нам нужны жесткие законы: за создание фейковых людей или платформ, которые это допускают, должна быть серьезная ответственность.
Ж: А как насчет случаев, когда создание фейков имеет невинный характер? Например, я со своим сыном создал несколько фейковых персонажей для игры.
ЮНХ: Проблема не в создании, а в том, как это используется. Если вы взаимодействуете с ИИ, например, с врачом-ботом, важно, чтобы вам четко сообщили: “Это не настоящий врач, а ИИ”. Прозрачность – ключ к решению этого вопроса.
Ж: Хорошо, а как насчет социальных сетей? Что, если человек использует ИИ для формирования своих ответов в дискуссиях?
ЮНХ: Это приемлемо, если человек берет ответственность за то, что публикует. Проблема возникает тогда, когда платформы заполняются ботами, которые генерируют контент в невероятных объемах. Представьте платформу, где большинство сообщений создают не люди, а миллионы ботов, которые пишут качественнее, убедительнее и персонализированнее, чем люди. В таком мире демократия становится недееспособной.
Чтобы сохранить демократическое общество, необходимо предотвратить ситуацию, когда публичный диалог полностью захватывают боты.
NT: Вы говорите, что если я имею свою модель большого речевого интеллекта, которую я разработал со своей командой программистов, я должен выделить 20% этой команды на обеспечение безопасности и отчитываться перед определенным органом о выполнении этой задачи?
YNH: Так же, как когда вы создаете автомобиль, у вас есть люди, которые работают над тем, чтобы сделать его как можно лучше, но также есть те, кто занимается вопросами безопасности. Потому что, даже если у вас нет собственных этических принципов, вы знаете, что ни одно правительство не позволит вашему автомобилю выйти на дорогу, если он опасен.
NT: Это убедительно, и это отличная идея. Но давайте вернемся к социальным медиа. Например, Facebook или Twitter в 2012 году. Они могли бы сказать, что 20% их сотрудников занимаются безопасностью: удалением непристойного контента, поиском террористов и так далее. Но как правительство могло бы заранее предсказать их влияние на демократию через несколько лет?
YNH: Я не думаю, что кто-то может предсказать последствия за 5 или 10 лет. Однако регулятивные органы, которые работают с ИИ, должны научиться быстро реагировать на изменения. Например, вред от алгоритмов социальных сетей был замечен еще в 2016-2017 годах, например, в Мьянме. Люди сигнализировали об опасности, но корпорации не реагировали. Если весь талант сосредотачивается только в частных компаниях, которые разрабатывают технологии, то это проигранная битва. Но если мы направим часть этого таланта в государственные учреждения или неправительственные организации, которые будут контролировать безопасность, включая социальную и психологическую, тогда ситуация улучшится.
NT: Но не дает ли это крупным компаниям преимущество, потому что они могут позволить себе соблюдение жестких регуляций, а новички – нет?
YNH: Это серьезный вопрос. Но уже сейчас ресурсы, необходимые для разработки мощных моделей ИИ, так велики, что это игра для немногих. А на глобальном уровне это всего несколько стран. Во время индустриальной революции несколько стран использовали преимущество для эксплуатации других. Сейчас с ИИ это может повториться. Ведь для доминирования не нужно посылать солдат – достаточно контролировать данные. Регулирование должно учитывать не только национальные интересы, но и глобальную справедливость.
NT: Можно, ИИ больше похож на электричество, чем на поезда, и следует регулировать не сам ИИ, а его использование?
YNH: Нет, ИИ даже мощнее, чем поезда. Он может принимать решения самостоятельно и создавать новые идеи. Его влияние на политику, экономику и культуру колоссальное. Мы можем применять к ИИ старые законы. Например, закон “не укради”. То, что компании брали данные без разрешения, – это и есть воровство.
Так же в мире всегда действовали строгие законы против фальшивомонетничества, ведь это угрожало финансовой системе. Сейчас мы впервые можем создавать “фальшивых людей” – миллиарды ботов, которых невозможно отличить от реальных людей. Если позволить это, доверие в обществе разрушится, а с ним – демократия. Нам нужны строгие законы против подделок людей. Если платформа позволяет “фальшивых людей”, это должно наказываться строго.
NT: Но можно ли немного ослабить эти правила для личных проектов, например, когда я создаю аватары с ребенком для развлечений?
YNH: Никто не запрещает создавать аватаров, но их нельзя выдавать за реальных людей. Взаимодействие с ИИ, например, как с врачом, может быть очень полезным, но человек должен четко знать, что это не настоящий врач, а ИИ.
Эта дискуссия напоминает нам, что регулирование ИИ – это не просто техническая задача, а этический вызов, который определит лицо будущего. Как мы используем новые технологии – для обогащения человечества или для создания еще больших неравенств – зависит от наших сегодняшних решений. ИИ должен стать не инструментом хаоса, а ключом к новой эре, где человечество будет уверено в своем будущем, а не бояться его.