В Кыргызстане намерены регулировать искусственный интеллект. Что за этим скрывается
Эти и другие темы были обсуждены на Центральноазиатском киберюридическом форуме.
Мнения парламентариев и специалистов
Специалисты из Кыргызстана рассматривают искусственный интеллект как средство для выхода на международный IT-рынок, как отметил директор Парка высоких технологий Азис Абакиров.У нас нет необходимости убивать технологию чрезмерным регулированием. В интернете у нас по-прежнему достаточно свободы."Конечно, следует учитывать этические и другие риски, связанные с ИИ. Но разработчики видят в ИИ возможность выхода на мировой рынок. В этом году президент США выделил $500 миллиардов на развитие ИИ, а затем в Китае появился DeepSeek. А у нас небольшое количество разработчиков пытаются с ними конкурировать", - добавил он.
Таким образом, представители IT-сектора воспринимают ИИ, прежде всего, как экономическую возможность, а не как угрозу, требующую немедленных ограничений. Подобные взгляды разделяют и депутаты. Депутат Жогорку Кенеша Дастан Бекешев подчеркнул, что к вопросу регулирования ИИ в Кыргызстане следует подходить очень осторожно.
"Когда речь идет о регулировании, меня беспокоят другие аспекты, особенно в Центральной Азии и постсоветских странах. Что обычно подразумевается под регулированием? Лишь запреты", - отметил Бекешев.
Он также добавил, что в Кыргызстане есть свои разработки в области ИИ, такие как Akyl AI и AiRun.
Но все это можно легко разрушить, просто чрезмерно регулируя."Я считаю, что в Центральной Азии необходимо учитывать опыт Европы и других стран", - добавил он.
По словам Бекешева, Европа может установить жесткие правила для искусственного интеллекта и оказать влияние на такие крупные компании, как OpenAI, Google и Meta.
"Можем ли мы это сделать? Нет, для них это будет лишь смешным. Почему? Потому что рынок потребления у нас очень мал. У нас уже создают музыку с помощью ИИ, но начинают думать, как это запретить. То же самое касается видеогенерации, чтобы избежать дипфейков. Я опасаюсь, что подобные запреты могут навредить нам и не позволят раскрыть таланты, которые у нас есть. Но пока мы можем сказать, что у нас есть определенные наработки в области искусственного интеллекта", - добавил депутат.
На самом деле речь идет о страхе повторения привычной практики в регионе - применения ограничений вместо комплексного подхода к развитию с учетом существующих рисков.
"Когда говорят о необходимости регулирования, в различных юрисдикциях упоминается, что мошенники могут использовать технологии. Но важно понимать, что мошенники могут воспользоваться любыми инструментами", - отметил руководитель отдела по защите данных Yango Group Денис Садовников, добавив, что "регулирование ИИ не должно восприниматься как запрет".
В качестве примера для региона часто обращаются к опыту других стран. На данный момент в мире существуют несколько концептуальных подходов к регулированию ИИ: европейский, основанный на правах человека, англосаксонский, сосредоточенный на саморегулировании, и сингапурский, который учитывает как права человека, так и саморегулирование, сообщила депутат Мажилиса Казахстана Екатерина Смышляева.
"В Казахстане выбрали модель, в которой собраны лучшие элементы всех подходов. Противоправные действия должны находиться в центре внимания, и некоторые запретительные меры регулирования должны быть привязаны исключительно к противоправным действиям", - отметила она.
При этом Смышляева добавила, что многие алгоритмические решения ИИ могут не быть противоправными, но все равно наносить вред обществу. Депутат уточнила, что в Казахстане был принят закон об искусственном интеллекте, который включает меры поддержки развития технологий, а также определяет позицию регулятора в отношении выбора модели регулирования и использования авторских прав.
Соседи также предоставили равный доступ разработчикам к большим данным и вычислительным ресурсам, что регулируется законодательством. В вопросах позиции регулятора учитываются этические аспекты и внимание к высокорисковым технологиям. "Если говорить конкретно - системам высокого уровня автономности. Подход дифференцированный: остальные участники рынка могут развиваться в формате саморегулирования", - добавила она.
Что касается соблюдения авторских прав при использовании ИИ, в Казахстане разрешили обучение крупных моделей на открытых авторских произведениях, если автор заранее не установил машиночитаемый запрет. "То есть мы выбрали обратный принцип: по умолчанию использование допускается, а защита действует только в случае, если автор явно выразил несогласие с применением его контента", - объяснила Смышляева. Такой подход позволяет уменьшить риски и не ограничивать развитие рынка на начальном этапе.
ИИ в Цифровом кодексе
Нормы о регулировании искусственного интеллекта уже включены в Цифровой кодекс Кыргызстана, сообщил депутат Дастан Бекешев. Развитие технологии в данном случае рассматривается через призму принципа "технологической нейтральности"."Это означает, что мы регулируем не сам алгоритм, а сферы его применения. Если ИИ используется, например, в финтехе для оценки кредитов, здесь действуют правила финансового регулятора. Если в медицине для диагностики - применяются правила Минздрава. Мы не создаем какого-либо 'цифрового монстра', который будет контролировать каждую строку кода", - отметил депутат.
Ведущий партнер консорциума по разработке цифрового законодательства Татту Мамбеталиева разъяснила, что основная задача Цифрового кодекса - отказаться от административного регулирования. Вместо этого предлагается взаимодействие с государством на четырех уровнях: первый - телеком-секторы, так как это основа технологий, второй - на уровне систем, третий - сервисов, четвертый - данных (основного элемента, объединяющего все уровни).
Цифровой кодекс относит системы искусственного интеллекта, используемые для обеспечения цифрового благополучия, к категории повышенного риска. Владельцы и пользователи ИИ, независимо от уровня опасности таких систем, обязаны принимать разумные меры для снижения возможного вреда и несут ответственность за причинение вреда согласно законодательству Кыргызстана.
При этом конкретные правила и стандарты разработки и применения ИИ фактически передаются профессиональному сообществу. Их могут устанавливать объединения владельцев ИИ-систем. Такие регламенты должны охватывать вопросы профессиональной этики, оценки рисков, управления данными, качества разработки и эксплуатации систем и не противоречить положениям кодекса.
Особое внимание уделяется прозрачности. Если ИИ используется для взаимодействия с потребителями, пользователи обязаны уведомлять об этом, за исключением тех случаев, когда присутствие алгоритма очевидно. Информация о применении ИИ в цифровых правоотношениях считается общедоступной и должна размещаться в понятной форме на сайтах компаний и национального регулятора.
Дополнительные требования вводятся для чувствительных технологий. Пользователи систем распознавания эмоций и классификации людей по биометрическим признакам обязаны отдельно информировать о применении таких решений. Аналогичное правило распространяется на дипфейки: использование ИИ для создания или изменения контента должно сопровождаться указанием на его искусственное происхождение.
На текущий момент Кыргызстан делает акцент на осторожном регулировании искусственного интеллекта без жестких запретов, с акцентом на саморегулирование, ответственность за причинение вреда и прозрачность использования технологий. Такой подход должен создать пространство для развития местных ИИ-проектов, не ограничивая рынок на старте, но указывая "красные линии" для высокорисковых и чувствительных решений. Главным остается вопрос: удастся ли сохранить этот баланс на практике.
Фото на главной странице: Shutterstock.
Читайте также:
