
17 ноября Президент Казахстана подписал Закон «Об искусственном интеллекте». Это первый комплексный документ, регулирующий работу нейросетей, автоматизированных систем и синтетического контента в стране. Что это означает для казахстанцев?
Он вступит в силу через 60 дней и станет основой для того, как технологии ИИ будут использоваться в медиа, бизнесе, госуслугах и повседневной жизни граждан.
ПОЧЕМУ ОТДЕЛЬНЫЙ ЗАКОН?
Еще два года назад понятия «нейросети», «генеративные модели» и «дипфейки» звучали как что-то далекое для большинства пользователей. Но массовое распространение ИИ, к примеру, того же ChatGPT, сделало вопрос регулирования как никогда актуальным.
Прежде в Казахстане использовались лишь отдельные нормы в законах «Об информации», «О персональных данных», Кодексе об административных правонарушениях. Но потребовалась цельная рамка, которая определит, кто отвечает за действия ИИ, как обеспечивается прозрачность алгоритмов, что делать при ошибках и где проходит граница между допустимым и опасным использованием технологий.
Депутат Мажилиса Екатерина Смышляева, руководившая рабочей группой по законопроекту, неоднократно подчеркивала, что искусственный интеллект не признается субъектом права. Ответственность за все решения, принятые с его помощью, всегда остается за человеком.
Работа над пакетом законов об ИИ началась еще в 2024 году. В марте 2025 года депутат Екатерина Смышляева представила проект закона «Об искусственном интеллекте» в Мажилисе.
И это ключевой принцип. Нейросеть – это не цифровой специалист, который разбирается во всех отраслях, а лишь инструмент, за который отвечает тот, кто им пользуется.
ЧТО МЕНЯЕТСЯ ДЛЯ ГРАЖДАН
Во-первых, появится маркировка синтетического контента. С 2026 года видеоролики, фото, аудио и тексты, созданные или измененные ИИ, должны будут сопровождаться специальным указанием. Это касается дипфейков, аватаров, нейроредактированных изображений и даже полностью сгенерированных новостей.
Это делается для того, чтобы потребитель всегда понимал, где контент, созданный человеком, а где искусственно созданный образ. При этом важно понимать, что в случае ошибки ответственность несет человек.
– ИИ помогает не нарушить право на изображение и защитить персональные данные, например, когда речь идет о чувствительных темах, когда нельзя показывать жертв насилия или детей. В таких материалах маркировка тоже обязательна, но она не вызовет негативной реакции у читателей, потому что использование ИИ в данной ситуации вполне оправданно, – отмечает юрист Правового медиацентра Гульмира Биржанова.
Таким образом, синтетические лица и анонимизированные изображения позволяют журналистам рассказывать истории, не раскрывая личности героев. Однако есть и риски.
– Минусы – это достоверность информации. Журналисты иногда берут текст от ИИ, не проверяют и публикуют. Модель может выдумывать, неправильно цитировать и ставить несуществующие ссылки, – подчеркивает Биржанова.
Во-вторых, закон будет направлен на защиту от дипфейков. В последние годы Казахстан пережил всплеск таких сгенерированных видеороликов. Причем рядовые пользователи применяли новую технологию для создания креативных или юмористических видеороликов, а мошенники – для обмана.
– Когда используют публичные лица в рекламе, как в истории с акимом Экибастуза Аяном Бейсекиным, с которым был создан дипфейк, будто он покупает куртку в одном из бутиков в рекламном ролике – это еще безобидно, хотя аким мог и в суд подать. Но когда дипфейк призывает к митингам или используется в мошенничестве – это уже противоправно и несет реальную опасность. В таких случаях ответственность будет и для тех, кто создает контент и для тех, кто его распространяет, – приводит характерные примеры Гульмира Биржанова.
Закон прямо запрещает манипулирование поведением граждан, создание ложных образов и классификацию людей по чувствительным признакам.
В-третьих, у казахстанцев появляется важная гарантия – они смогут запрашивать информацию о том, какие данные использовала система, как принималось решение и на каком основании.
Например: почему алгоритм отказал в кредите, почему система поставила «низкий рейтинг надежности», почему робот-оператор не дал доступ к услуге.
Это направление особенно важно, поскольку ИИ все чаще используется в банках, страховании, HR и сервисах госуслуг.
Большое внимание в законе уделяется введению классификации систем искусственного интеллекта по нескольким критериям: степени риска, уровню автономности и типу (открытые, закрытые и локальные системы).
Полностью автономные системы – те, где человек не может вмешаться в процесс принятия решений, – прямо исключены из регулирования как нереалистичные для нынешнего уровня развития технологий. Они не применяются на практике нигде в мире, поскольку считаются неэтичными.
К примеру, если медицинская система ИИ самостоятельно без врача ставит диагноз и пациент не может оспорить решение, то это высокая автономность. Она недопустима согласно новому закону.
В-четвертых, закон усиливает защиту персональных данных. Обучение моделей не может происходить на данных, собранных незаконно, а любые автоматизированные процессы должны соответствовать требованиям по сохранности информации.
Это реакция на громкие утечки последних лет, как случай с утечкой базы данных на 16 млн граждан, массовый слив номеров телефонов в сеть.
Скорректированы и другие акты, в том числе и об оперативно-розыскной деятельности, органах национальной безопасности, лицензировании в сфере кибербезопасности, торговой деятельности и цифровых активах. Часть поправок связана не только с ИИ, но и с общим усилением регулирования в цифровой среде.
ИЗМЕНЕНИЯ В СОПУТСТВУЮЩИХ ЗАКОНАХ
Третий элемент пакета – поправки в Кодекс об административных правонарушениях. Закон № 232-VIII вводит новую статью 641-1, устанавливающую административную ответственность за нарушение законодательства РК в сфере искусственного интеллекта.
Речь идет прежде всего о действиях или бездействии собственников и владельцев систем ИИ – тех, кто запускает, эксплуатирует и предоставляет такие решения пользователям.
При первом нарушении штраф составляет 15 МРП для физических лиц, 20 МРП для малого бизнеса и НПО, 30 МРП для субъектов среднего бизнеса и до 100 МРП для крупного бизнеса. При повторном нарушении в течение года штрафы увеличиваются до 30, 50, 70 и 200 МРП соответственно.
Новый закон фиксирует минимальные правила игры: человеческие права выше алгоритмов, решения ИИ должны быть объяснимыми, а за последствия всегда отвечает человек, а не ИИ-модели.
Для бизнеса закон добавляет дополнительные обязанности по документированию, маркировке при использовании ИИ-инструментов.
Екатерина БАЙНЯШЕВА,
фото со страницы в Фейсбуке героя материала