Pocos debates han durado más tiempo y han generado más controversia en la industria informática que uno: ¿Es el “código abierto” mejor que el “código cerrado” cuando se trata de desarrollo de software?
Este debate se ha reavivado a medida que empresas como Google, Meta, OpenAI y Microsoft han divergido sobre cómo competir por la supremacía en los sistemas de inteligencia artificial. Algunos eligen un modelo cerrado mientras que otros adoptan un enfoque abierto.
Esto es lo que necesita saber.
¿Qué significa software de código abierto?
El código fuente son los componentes básicos de las aplicaciones que utiliza. Los desarrolladores pueden escribir decenas de miles de líneas de código fuente para crear programas que se ejecutarán en una computadora.
El software de código abierto es cualquier código informático que se puede distribuir, copiar o modificar libremente para los fines propios del desarrollador. La Open Source Initiative, una organización industrial sin fines de lucro, establece otras estipulaciones y estándares sobre qué software se considera de código abierto, pero gran parte se reduce a si el código es gratuito y está abierto a cualquier persona para usarlo y mejorarlo.
¿Cuáles son algunos ejemplos de software de código abierto?
Algunos de los sistemas de software más conocidos son de código abierto, como Linux, el sistema operativo sobre el que se construyó el sistema móvil Android de Google. Los productos de código abierto más conocidos incluyen Firefox, el navegador web descargable gratuito creado por la Fundación Mozilla.
Entonces, ¿cuál es el debate abierto o cerrado y qué tiene que ver con la inteligencia artificial?
Empresas tecnológicas como Google, OpenAI y Anthropic han gastado miles de millones de dólares en la creación de sistemas de IA “cerrados” o propietarios. Las personas que no son empleadas de estas empresas no pueden ver ni modificar su código fuente subyacente, ni tampoco los clientes que pagan por usarlo.
Durante mucho tiempo esto no fue la norma. La mayoría de estas empresas han abierto su investigación en IA para que otros tecnólogos puedan estudiar y mejorar su trabajo. Pero cuando los ejecutivos de tecnología comenzaron a darse cuenta de que la investigación de sistemas de inteligencia artificial más avanzados podría generar miles de millones, comenzaron a aislar su investigación.
Las empresas de tecnología argumentan que esto es por el bien de la humanidad, ya que estos sistemas son lo suficientemente poderosos como para causar daños sociales catastróficos si se ponen en las manos equivocadas. Los críticos dicen que las empresas simplemente quieren mantener la tecnología accesible para aficionados y competidores.
Meta adoptó un enfoque diferente. Mark Zuckerberg, director general de Meta, ha decidido abrir el código abierto del gran modelo lingüístico de su empresa, un programa que permite adquirir habilidades analizando grandes cantidades de textos digitales extraídos de Internet. La decisión de Zuckerberg de abrir el modelo de Meta, LLaMA, permite a todos los desarrolladores descargarlo y utilizarlo para crear sus propios chatbots y otros servicios.
En una entrevista reciente en un podcast, Zuckerberg dijo que ninguna organización debería tener “una capacidad verdaderamente superinteligente que no sea ampliamente compartida”.
¿Es mejor estar abierto o cerrado?
Depende de a quien le preguntes.
Para muchos tecnólogos y aquellos que abrazan la cultura hacker incondicional, el código abierto es el camino a seguir. Dicen que las herramientas de software que cambiarán el mundo deberían distribuirse de forma gratuita para que todos puedan utilizarlas para crear tecnología interesante y apasionante.
Otros creen que la IA ha avanzado tan rápidamente que los fabricantes de estos sistemas deberían vigilarla de cerca para protegerla del uso indebido. El desarrollo de estos sistemas también cuesta una enorme cantidad de tiempo y dinero, y los modelos cerrados deberían pagarse, afirman.
El debate ya se ha extendido más allá de Silicon Valley y de los entusiastas de la informática. Los legisladores de la Unión Europea y Washington han celebrado reuniones y tomado medidas hacia los marcos regulatorios de la IA, incluidos los riesgos y beneficios de los modelos de IA de código abierto.