Nova ferramenta de IA escreve seu próprio código

A nova ferramenta do Open AI, Copilot, pode analisar o código escrito e gerar um novo código correspondente.

GitHub e OpenAI lançaram uma prévia de sua nova ferramenta de IA, o GitHub Copilot. Em uma postagem de blog . O CEO do GitHub, Nat Friedman, chamou a ferramenta de programador par que pode desenhar o contexto do código escrito e sugerir novas funções para ajudar os programadores a encontrar novas maneiras de resolver seus problemas e concluir seu trabalho mais rapidamente.

Convencionalmente, os programadores em pares são duas pessoas que trabalham no mesmo projeto para ajudar na descoberta antecipada de erros no código e acelerar o processo de desenvolvimento. Com este desenvolvimento, o GitHub quer que um dos programadores seja sua ferramenta de IA. Este é o primeiro grande lançamento do Open AI depois que a Microsoft investiu US $ 1 bilhão na organização sem fins lucrativos que agora visa  lucros limitados . A Microsoft também possui o GitHub, um repositório de código de software extremamente popular entre os programadores.  

O Copilot trabalha no Open AI Codex, que é um descendente do GPT-3 (Generative Pre-Training Transformer 3), o algoritmo de geração de linguagem do Open AI. GPT-3 virou notícia global quando demonstrou habilidades de escrita quase humanas  em 2020, graças ao número insano de parâmetros que usa para fazer conexões entre palavras, frases e sentenças.

Por sua vez, o OpenAI Codex devorou ​​os terabytes de código disponíveis no GitHub e na língua inglesa e agora poderá sugerir códigos com facilidade. Uma versão comercial do Copilot deve ser lançada nos próximos meses, assim como o GPT-3 foi disponibilizado para licenciamento comercial no ano passado. O Copilot é compatível com muitas linguagens, mas funcionará melhor com Python, JavaScript, TypeScript, Ruby e Go, de acordo com Friedman. 

Como todas as coisas da tecnologia, o Copilot herdará os preconceitos do código que analisou, o que se refletirá na saída que gera. “O GitHub Copilot pode, às vezes, produzir resultados indesejados, incluindo produtos tendenciosos, discriminatórios, abusivos ou ofensivos ” , diz seu site em AI responsável . Vieses também foram observados nas saídas do GPT-3 . O GitHub afirma ter incluído  filtros para bloquear palavras ofensivas e evitar sugestões de síntese em contextos confidenciais. Os resultados do mundo real nos mostrarão como eles se mostraram eficazes. 

Os usuários interessados ​​em experimentar o Copilot precisam entrar nesta lista de espera.

Fonte: https://interestingengineering.com/