web counter Linux define regras para código gerado por IA: aprova Copilot, rejeita práticas inadequadas e humanos assumem a responsabilidade por erros. Após meses de intensos debates, Torvalds e mantenedores chegam a um consenso. - Super Select
Home » Linux define regras para código gerado por IA: aprova Copilot, rejeita práticas inadequadas e humanos assumem a responsabilidade por erros. Após meses de intensos debates, Torvalds e mantenedores chegam a um consenso.
Tecnologia, Hardware e PC

Linux define regras para código gerado por IA: aprova Copilot, rejeita práticas inadequadas e humanos assumem a responsabilidade por erros. Após meses de intensos debates, Torvalds e mantenedores chegam a um consenso.

A comunidade de código aberto enfrenta uma nova fase em sua longa e complexa discussão sobre a inteligência artificial. Esta semana, o projeto do kernel Linux implementou uma política oficial que permite contribuições de código assistidas por IA, desde que os desenvolvedores sigam regras de divulgação bem definidas. As novas diretrizes implementam que agentes de IA não podem usar a tag “Signed-off-by”, sendo necessário o uso de uma nova tag, “Assisted-by”, para garantir a transparência. Dessa forma, toda linha de código gerado por IA e eventuais falhas de segurança ficam sob a responsabilidade do humano que fez a submissão.

Essa decisão surge após meses intensos de debates na comunidade de código aberto, especialmente quando líderes como Dave Hansen, da Intel, e Lorenzo Stoakes, da Oracle, discordaram sobre a necessidade de regulamentação dos ferramentas de IA no kernel. Linus Torvalds, conhecido por sua franqueza, acabou com a discussão, afirmando que debates sobre proibições eram “posturas inúteis”.

A visão de Torvalds, que serve como a base filosófica dessa nova política, é clara e pragmática: a IA é apenas mais uma ferramenta. Segundo ele, desenvolvedores mal-intencionados que submetem códigos de má qualidade não vão ler a documentação, então o foco deve ser em responsabilizar os humanos, e não tentar controlar o software que utilizam em suas máquinas locais. Essa perspectiva é, sem dúvida, uma abordagem sensata, especialmente em comparação ao alvoroço presente em outros setores da comunidade de código aberto.

Até agora, grandes projetos adotaram abordagens bastante variadas em relação à questão da IA. Nos últimos dois anos, distribuições importantes do Linux, como Gentoo, e a antiga distribuição Unix NetBSD, optaram por banir submissões geradas por IA. Mantenedores do NetBSD chegaram a classificar as saídas de modelos de linguagem como “contaminadas” devido à incerteza sobre os direitos autorais dos dados de treinamento utilizados.

O cerne dessa preocupação gira em torno do Developer Certificate of Origin (DCO). Como analisado por especialistas, o DCO exige que humanos certifiquem legalmente que têm o direito de submeter seu código. Como os modelos de linguagem são treinados em vastos conjuntos de dados que frequentemente contêm licenças restritivas, desenvolvedores que utilizam ferramentas como Copilot ou ChatGPT não podem garantir a origem do código que estão submetendo. Isso é motivo de alarmes para possíveis violações das licenças de código aberto.

Além dos desafios legais, os mantenedores de projetos também enfrentam uma batalha perdida contra o volume de códigos gerados. Atualmente, a comunidade de código aberto está imersa no que foi chamado de “AI slop”. Criadores de projetos como cURL tiveram que interromper recompensas por bugs devido a um volume excessivo de código fantasioso, enquanto outros projetos, como Node.js e OCaml, enfrentaram debates existenciais devido a correções geradas por IA que continham mais de 10.000 linhas.

A tensão cultural em torno do uso não divulgado de código gerado por IA também tem gerado rebuliço. No final do ano passado, um engenheiro da NVIDIA teve que lidar com uma forte reação da comunidade ao submeter um patch ao kernel 6.15, que foi totalmente gerado por um modelo de linguagem e não foi devidamente divulgado. Apesar de funcional, o código tinha uma regressão de desempenho. A pressão da comunidade foi intensa, questionando a ética de desenvolvedores que assinam códigos complexos que não escreveram, o que levou até Torvalds a reconhecer que o patch não foi revisado adequadamente.

O incidente com o GZDoom, um famoso projeto de modificação de jogos, ilustra por que a nova política do kernel Linux é tão relevante. A maioria dos desenvolvedores não se opõe ao uso de IA, mas está frustrada com a falta de honestidade a esse respeito. Ao exigir a nova tag “Assisted-by” e a responsabilidade humana rigorosa, o kernel do Linux busca desviar do emocional que envolve esse debate.

Em última análise, se o código for bom, ele é bom. Porém, se for um código viciado gerado por IA que quebra o kernel, o humano que apertou “submeter” precisa responder por isso. Na comunidade de código aberto, essa é uma medida de responsabilidade bastante séria.

Membro da Super Select:

Marcelo Vangrey

A minha jornada como Vangrey no universo dos games começou em 1994 com um Mega Drive e o incrivel Mortal Kombat 2! Seguida pelo Super Nintendo no universo dos lendários cartuchos 16in1 com Top Gear e companhia! Em 1998, conquistou seu primeiro PLAY 1 novamente com Mortal Kombat, dessa vez o MK4, e a partir daí, continuou explorando diversas plataformas. Comprando e vendendo, já passei por: Game Boy Color, PS2, PSP, PS3, Nintendo DS, 3DS, Xbox 360, PS4, PS4 Pro, PS5, Nintendo Switch 1 e 2, e pra finalizar - o Steam Deck =)

Adicionar comentário

Clique aqui para postar um comentário