Введение
Сообщество разработчиков ядра Linux после месяцев жарких дискуссий утвердило официальную политику использования кода, созданного с помощью искусственного интеллекта. Новые правила направлены на баланс между инновациями и ответственностью, разрешая применение ИИ-ассистентов, но с жёсткими требованиями к прозрачности. В статье разберём:
— Какие изменения внесены в процесс код-ревью
— Почему возникли споры вокруг ИИ в open-source
— Как новые правила повлияют на будущее разработки

1. Основные положения новой политики

1.1. Замена тега Signed-off-by на Assisted-by
— Старый подход: разработчики подписывали код тегом `Signed-off-by`, подтверждая его авторство и соответствие лицензиям.
— Новое правило: для ИИ-сгенерированного кода вводится тег `Assisted-by`, чтобы явно указать на использование алгоритмов.
*Пример:*
«`
Assisted-by: AI-CodeGenerator v3.2
«`

1.2. Ответственность остаётся за человеком
— Даже если код написан ИИ, разработчик несёт полную ответственность за его качество и возможные уязвимости.
— Линус Торвальдс подчеркнул: *«ИИ — всего лишь инструмент, как компилятор. Вина за ошибки лежит на том, кто его использует»*.

1.3. Запрет скрытого применения ИИ
— Проекты, скрывающие использование ИИ, рискуют отклонением патчей или даже блокировкой контрибьюторов.

2. Причины конфликтов в сообществе

2.1. Юридические риски
— Проблема: ИИ-модели обучаются на коде с разными лицензиями, что может привести к нарушениям GPL.
— Реакция:
— Gentoo и NetBSD полностью запретили ИИ-код.
— Red Hat предупредил о рисках для системы DCO (Developer Certificate of Origin).

2.2. Низкокачественные правки (AI slop)
— Многие проекты (включая cURL и tldraw) столкнулись с волной спам-патчей, содержащих:
— Ошибки логики
— «Галлюцинации» (вымышленные функции)
— Плагиат чужого кода

2.3. Громкие инциденты
— Случай с Nvidia: инженер Саша Левин внедрил ИИ-патч без отметки, что привело к регрессии производительности в ядре 6.15.
— Конфликт в GZDoom: использование ИИ без раскрытия информации вызвало раскол сообщества и создание форка UZDoom.

3. Последствия для open-source экосистемы

3.1. Ужесточение код-ревью
— Мейнтейнеры теперь требуют явного указания на использование ИИ.
— Автоматические системы (например, GitHub Copilot) должны добавлять метаданные.

3.2. Сдвиг в культуре разработки
— Прозрачность становится ключевым принципом.
— Проекты, игнорирующие правила, рискуют потерять доверие.

3.3. Будущее регулирования
— Linux задаёт тренд: другие крупные проекты (например, Apache Foundation) уже обсуждают аналогичные меры.
— Эксперты прогнозируют дальнейшее ужесточение политик в 2026–2027 гг.

Заключение
Новая политика Linux — это компромисс между инновациями и контролем. Разрешая ИИ, сообщество минимизирует риски через:
— Честность:标记 AI-кода
— Ответственность: вина за ошибки лежит на людях
— Юридическую чистоту: защита от нарушений лицензий

*«Технологии не бывают хорошими или плохими — всё зависит от того, как их применяют»* (Линус Торвальдс).

Поделиться статьей