Resistiendo al feudalismo digital

Tiempo de lectura: 5 minutos

 / La Cumbre de Acción sobre Inteligencia Artificial que se celebra este mes en París llega en un momento crítico en el desarrollo de la inteligencia artificial. La cuestión no es si Europa puede competir con China y Estados Unidos en una carrera armamentista de inteligencia artificial, sino si los europeos pueden ser pioneros en un enfoque diferente que coloque el valor público en el centro del desarrollo tecnológico y la gobernanza. La tarea es alejarse del feudalismo digital, un término sobre el que escribí en 2019 para describir el modelo de extracción de rentas de las plataformas digitales dominantes.

La IA no es un sector más. Es una tecnología de uso general que moldeará todos los sectores de la economía, lo que significa que podría crear un valor enorme o causar graves daños. Aunque muchos analistas hablan de la IA como si fuera una tecnología neutral, esto subestima su poder económico fundamental. Incluso si la IA fuera libre de construirse, necesitaría energía y despliegue, lo que requiere acceso a las plataformas de computación en la nube del guardián, como Amazon Web Services, Microsoft Azure y Google Cloud.

Esta dependencia hace que sea más urgente que nunca orientar el desarrollo de la tecnología hacia el bien común. La verdadera cuestión no es si se debe regular la IA, sino cómo moldear los mercados para la innovación en IA. En lugar de regular o gravar el sector sólo después de que se haya producido el hecho, debemos crear un ecosistema de innovación descentralizado que sirva al bien público.

La historia de la innovación tecnológica muestra lo que está en juego. Como argumenté en mi libro El Estado emprendedor, muchas de las tecnologías que utilizamos todos los días surgieron como resultado de una inversión pública colectiva. ¿Qué sería Google sin Internet, financiado por la DARPA? (DARPA, es una agencia del Departamento de Defensa de EE.UU.) ¿Qué sería Uber sin el GPS, financiado por la Marina de los Estados Unidos? ¿Qué sería Apple sin la tecnología de pantalla táctil, financiada por la CIA, y Siri, financiado por la DARPA?

Las empresas que se han beneficiado de estas inversiones públicas (aunque a menudo eluden sus contribuciones fiscales) ahora están utilizando sus rentas excesivas para drenar el talento de las mismas instituciones públicas que hicieron posible su éxito. Este parasitismo se ejemplifica mejor en el “Departamento de Eficiencia Gubernamental” (DOGE) de Elon Musk, que aboga por recortar los programas de financiación gubernamentales que permitieron a Tesla beneficiarse de 4.900 millones de dólares en subsidios gubernamentales.

La falta de capacidad estatal hará que sea cada vez más difícil regular las nuevas tecnologías en beneficio del interés público. El Estado ya se ha quedado sin experiencia, debido a los salarios más altos en el sector privado y a décadas de subcontratación a consultores privados (lo que Rosie Collington y yo llamamos The Big Con [La gran estafa]). ¿Qué sucede cuando la mayor parte del conocimiento técnico se concentra en sólo cinco empresas privadas? En lugar de esperar a averiguarlo, debemos intervenir ahora para regular la IA de una manera dinámica y adaptable, mientras la pila de tecnología de IA y los diversos mecanismos de monetización todavía están evolucionando.

En un reciente proyecto de investigación en el Instituto de Innovación y Propósito Público de la UCL, mis colegas y yo analizamos nuevamente el feudalismo digital y la necesidad de diferenciar entre la creación de valor y la extracción de valor en la IA, lo que llamamos “rentas algorítmicas”. Demostramos que plataformas como Facebook y Google han evolucionado de maneras que se centran en las “rentas de atención”. A medida que se manipula la experiencia de los usuarios para maximizar las ganancias, sus FEEDS se atiborran de anuncios y contenido adictivo “recomendado” en un proceso que el periodista canadiense Cory Doctorow describió pintorescamente como “enshittificación”. El desplazamiento infinito, las notificaciones ininterrumpidas y los algoritmos diseñados para maximizar la “participación” mostrando contenido dañino y actividades que rayan en la ilegalidad se han convertido en la norma.

Los sistemas de inteligencia artificial podrían seguir el mismo camino extractivo y potenciar esta conducta de búsqueda de rentas, por ejemplo, exigiendo un pago por el acceso a información esencial, privacidad de datos, seguridad en línea, libertad de publicidad o listados básicos de pequeñas empresas en búsquedas de información globales. Como las plataformas actualmente ocultan sus algoritmos y mecanismos de asignación de atención (las fuentes de sus “rentas de atención algorítmicas”), la clave para regular el sector, como en el caso de abordar el cambio climático, es obligar a los guardianes digitales a revelar cómo se utilizan sus algoritmos. Esta información debería luego integrarse en las normas de presentación de informes para todas las plataformas digitales.

De manera similar, los desarrolladores de IA como OpenAI y Anthropic ocultan, entre otras cosas, las fuentes de sus datos de entrenamiento; qué barreras han colocado en sus modelos; cómo hacen cumplir sus términos de servicio; los daños posteriores de sus productos (como el uso adictivo y el acceso de menores de edad); y hasta qué punto sus plataformas se están utilizando para monetizar visitas de todo el mundo a través de publicidad dirigida. Además, el gran y creciente impacto ambiental de la IA agrega otra capa de urgencia al desafío. Las emisiones de las principales empresas de IA han aumentado, lo que llevó a la Agencia Internacional de la Energía a advertir que «el consumo mundial de electricidad de los centros de datos, la IA y el sector de las criptomonedas podría duplicarse para 2026».


Afortunadamente, los acontecimientos recientes sugieren que existen caminos alternativos. DeepSeek, la empresa china de inteligencia artificial que hizo caer en picada a muchas acciones tecnológicas estadounidenses a fines de enero, parece haber demostrado que se puede lograr un rendimiento comparable con una potencia de procesamiento y un consumo de energía significativamente menores. ¿Podrían los enfoques más eficientes para el desarrollo de la inteligencia artificial ayudar a romper el dominio que las principales empresas de computación en la nube han establecido mediante su control de vastos recursos informáticos?

Si bien es demasiado pronto para saber si el avance de DeepSeek conducirá a una reestructuración del mercado, nos recuerda que la innovación a nivel de software sigue siendo factible y necesaria para abordar el impacto ambiental de la IA.

Dado el ritmo de desarrollo de la IA, los responsables de las políticas y la sociedad civil deben intervenir ahora para garantizar que la próxima tecnología de uso general sirva al interés público. De lo contrario, los monopolios ya dominantes potenciarán los modelos de negocio digitales socialmente nocivos que perfeccionaron durante la última década.


Como hemos sostenido Gabriela Ramos y yo, de la UNESCO, la IA puede mejorar nuestras vidas de muchas maneras, desde mejorar la producción de alimentos hasta reforzar la resiliencia frente a los desastres naturales. Los líderes europeos, desde Mario Draghi hasta Ursula von der Leyen y Christine Lagarde, consideran que la IA es crucial para reactivar la productividad europea, pero, a menos que aborden la naturaleza del feudalismo digital, el comportamiento extractivo que sustenta el desarrollo de modelos de IA y la actual falta de capacidad regulatoria en el sector público, cualquier intento de desencadenar un crecimiento más sólido y sostenible se estrellará contra las rocas de nuevas y más profundas desigualdades. Un posible camino a seguir es “EuroStack”, una iniciativa de infraestructura digital independiente que incluye computación en la nube, chips avanzados, IA y datos, todos ellos gobernados como bienes públicos en lugar de a través de empresas monopólicas.

No se trata de elegir entre innovación y regulación, ni de gestionar el desarrollo tecnológico desde arriba hacia abajo. Se trata de crear incentivos y condiciones para orientar los mercados hacia la consecución de los resultados que deseamos como sociedad. Debemos recuperar la IA para que aporte valor público, en lugar de convertirse en otra máquina de extracción de rentas. La cumbre de París ofrece una oportunidad para mostrar esta visión alternativa.

Por Mariana Mazzucato
Profesora de Economía de la Innovación y el Valor Público en el University College de Londres, es directora fundadora del Instituto de Innovación y Propósito Público del UCL y copresidenta de la Comisión Global sobre la Economía del agua.
Fuente: Project-syndicateorg

 

 

 

 

 

(Síganos en TwitterFacebook)
INGRESE AQUÍ POR MÁS CONTENIDOS EN PORTADA

Las notas aquí firmadas reflejan exclusivamente la opinión de los autores.