La FSF dice que «inaceptable e injusto» y financiará artículos sobre problemas y cuestiones legales
Hace no mucho compartimos aquí en el blog la noticia de «Copilot» la cual es una AI que promete ahorrar tiempo al ayudar con la escritura de código de usuario con sus propias sugerencias que están basadas en miles de millones de líneas de código público cuyos usuarios han contribuido públicamente a GitHub, utilizando un sistema de inteligencia artificial llamado Codex de la firma de investigación OpenAI.
Si bien Copilot es un gran ahorro de tiempo y GitHub describe a Copilot como el equivalente en IA de la “programación en pareja”, en la que dos desarrolladores trabajan juntos en una sola computadora. La idea es que un desarrollador pueda aportar nuevas ideas o detectar problemas que el otro desarrollador podría haber pasado por alto, incluso si requiere más horas de trabajo.
En la práctica, sin embargo, Copilot es más una herramienta de utilidad que ahorra tiempo, ya que integra recursos que los desarrolladores tendrían que buscar en otros lugares. A medida que los usuarios ingresan datos en Copilot, la herramienta sugiere fragmentos para que los agreguen con el clic de un botón. De esa manera, no tienen que perder tiempo buscando la documentación de la API o buscando código de muestra en sitios como StackOverflow.
Una red neuronal en GitHub Copilot se entrena utilizando cantidades masivas de datos, compuestas por código: millones de líneas cargadas por los 65 millones de usuarios de GitHub, la plataforma más grande del mundo para que los desarrolladores colaboren y compartan su trabajo.
El objetivo es que Copilot aprenda lo suficiente sobre los patrones de código para poder piratear por sí mismo. Puede tomar el código incompleto de un compañero humano y terminar el trabajo agregando las partes que faltan. En la mayoría de los casos, parece tener éxito al hacer esto. GitHub planea vender el acceso a la herramienta a los desarrolladores.
Como la mayoría de las herramientas de inteligencia artificial, GitHub también quiere que Copilot se vuelva más inteligente con el tiempo en función de los datos que recopila de los usuarios.
Cuando los usuarios aceptan o rechazan las sugerencias de Copilot, su modelo de aprendizaje automático utilizará esa retroalimentación para mejorar las sugerencias futuras, por lo que la herramienta puede volverse más humana a medida que aprende.
Poco después del lanzamiento de Copilot, algunos desarrolladores comenzaron a alarmarse por el uso de código público para entrenar la inteligencia artificial de la herramienta. Una preocupación es que si Copilot reproduce partes suficientemente grandes del código existente, podría infringir los derechos de autor o blanquear el código fuente abierto para usos comerciales sin la licencia adecuada.
Sobre ello la Free Software Foundation ha dado a conocer que ha lanzado una convocatoria financiada para solicitar informes técnicos sobre las implicaciones de Copilot para la comunidad del software libre
“Ya sabemos que Copilot tal como está es inaceptable e injusto, desde nuestro punto de vista. Requiere ejecutar un software que no es gratuito (Visual Studio o partes de Visual Studio Code) y Copilot es un servicio como sustituto del software.
La razón es que Copilot requiere ejecutar software que no es gratuito, como Visual Studio IDE de Microsoft o el editor de Visual Studio Code, sostiene la FSF, y constituye un «servicio como un sustituto del software», lo que significa que es una forma de ganar poder sobre la informática de otras personas.
Ya que como tal Copilot es una extensión de Visual Studio Code que usa aprendizaje automático entrenado en software de código abierto con licencia libre para sugerir líneas de código o funciones a los desarrolladores mientras escriben software.
Sin embargo, Copilot plantea muchas otras preguntas que requieren mayor consideración.
“La Free Software Foundation ha recibido muchas consultas sobre nuestra posición sobre estos temas. Podemos ver que el uso de Copilot de software de código abierto tiene muchas implicaciones para una gran parte de la comunidad de software libre. Los desarrolladores quieren saber si el entrenamiento de una red neuronal en su software realmente puede considerarse un uso justo. Otras personas que podrían estar interesadas en usar Copilot se preguntan si los fragmentos de código y otro material copiado de los repositorios alojados en GitHub podrían resultar en una infracción de derechos de autor.
Fuente: https://www.fsf.org/