Inteligencia Artificial e industrias culturales. Procesos productivos y nueva cadena de valor[1]
Artificial Intelligence and cultural industries. Production processes and new value chain
Cómo citar: Becerra, M. (2024). Inteligencia Artificial e industrias culturales. Procesos productivos y nueva cadena de valor. Revista Argentina de Comunicación 12(15), 12-31.
Martín Becerra
Investigador Principal en CONICET, Profesor Titular de la Universidad Nacional de Quilmes y de la UBA. Director del Centro de Investigaciones en Industrias Culturales y Espacio Público de la UNQ. Doctor en Ciencias de la Información por la Universidad Autónoma de Barcelona.
Resumen
El objetivo de este artículo es identificar aspectos clave sobre la aplicación de tecnologías de IA generativas en el proceso productivo de las industrias culturales tomando como referencia las transformaciones que provoca en la cadena de valor del sector. Mostrar y reflexionar críticamente sobre los nudos problemáticos de tales transformaciones permiten reflexionar sobre un proceso en curso cuyo carácter inacabado. Cambios de funciones de los agentes que protagonizan los procesos de producción cultural, afectaciones al trabajo creativo e intelectual y concentración de un mercado plataformizado son algunos de los principales rasgos de análisis a lo largo del artículo.
Palabras clave
Industrias Culturales – Inteligencia Artificial – Proceso productivo y cadena de valor
Abstract
The aim of this article is to identify key aspects of the application of generative AI technologies in the production process of cultural industries, taking as a reference the transformations that it causes in the value chain of the sector. Showing and critically reflecting on the problematic nodes of such transformations allows us to reflect on an ongoing process whose unfinished nature. Changes in the functions of the agents that lead the cultural production processes, impacts on creative and intellectual work and concentration of a platformized market are some of the main features of analysis throughout the article.
Keywords
Cultural Industries – Artificial Intelligence – Production process and value chain
Introducción
El redescubrimiento de las tecnologías basadas en aprendizaje automatizado y los nuevos desarrollos de Inteligencia Artificial (IA) generativa, en particular la diseminación de aplicaciones comerciales y su progresiva masificación, están motivando análisis que no sólo reactualizan debates acerca de la automatización de los procesos productivos, sino que también buscan identificar causas y efectos de los usos de la IA en distintos campos.
En los debates sobre introducción de tecnologías de IA en los procesos organizativos y en la producción de las industrias culturales, de información y comunicación, se emplean conceptos que, por su centralidad, sugieren la profundidad de los cambios en curso: derechos humanos en general y productividad son dos ejes analíticos con los que, por un lado, el pensamiento crítico y, por otro, la industria, abordan los avances tecnológicos. De estas dos grandes raíces florecen otros conceptos fundamentales, algunos de ellos subconjuntos de los citados, como son los derechos de autor y propiedad intelectual, de acceso a la cultura, de protección de datos personales y de privacidad; la transparencia; la extracción de datos; la predicción de comportamientos individuales y colectivos en base al procesamiento de datos; las fuentes de entrenamiento de las tecnologías de aprendizaje automatizado y los sesgos de conocimiento que tienen origen, en muchos casos, en esas fuentes; la concentración de recursos y capacidades para realizar nuevos desarrollos tecnológicos y para desplegar estrategias de consolidación de mercados; la accesibilidad, usabilidad y apropiación de aplicaciones y servicios de IA por parte de personas y organizaciones; la situación de grupos vulnerables, son, entre otros, ejes presentes en la literatura sobre Inteligencia Artificial.
En el caso de las industrias culturales, la producción académica sobre impactos de la IA generativa es reciente. Según el estado del arte propuesto por Yutong Liu y Peiyi Song (2022), la investigación sobre la IA y las industrias culturales se centra en tres cuestiones principales: por un lado, en la relación entre la innovación científica y tecnológica y los contenidos y formatos que son el corazón de las industrias culturales, ya que constituyen su fundamento creativo siempre tensionado por las tendencias de estandarización, serialización y uniformidad oportunamente señaladas por la Escuela de Frankfurt (Adorno, 1967); en segundo lugar, en la afectación de las IA al desarrollo industrial de la cultura, en la alteración de la organización de sus procesos productivos, orientada por la búsqueda de mayor eficiencia y productividad; por último, el impacto de las tecnologías de IA en el crecimiento económico general tomando como variables de análisis los factores de ingresos y sus efectos en la mayor o menor desigualdad social resultante.
Para Crawford, los sistemas de IA “no son autónomos, racionales ni capaces de discernir algo sin un entrenamiento extenso y computacionalmente intensivo, con enormes conjuntos de datos o reglas y recompensas predefinidas” (2023). Ello relaciona los desarrollos de IA con estructuras sociales, económicas y políticas que estimulan sus aplicaciones y resultados.
A partir de esta caracterización general, el objetivo de este trabajo es identificar aspectos clave sobre la aplicación de tecnologías de IA en el proceso productivo de las industrias culturales tomando como referencia las transformaciones que provoca en la cadena de valor del sector. Mostrar y reflexionar críticamente sobre los nudos problemáticos de tales transformaciones permiten reflexionar sobre un proceso en curso cuyo carácter inacabado reclama prudencia a la hora de postular aseveraciones concluyentes.
Este trabajo es de carácter crítico, es decir que no está guiado por la decisión de celebrar los cambios tecnológicos con uso de IA, cuya vasta extensión de campos de aplicación y efectos incluye tanto aspectos positivos como negativos. Pero el abordaje crítico es necesario por dos motivos principales: el primero es de carácter epistemológico, toda vez que la construcción de conocimientos necesita someter a los procesos, objetos y sujetos a la crítica acerca de sus lógicas, procedimientos y finalidades como estrategia para comprender mejor su funcionamiento; el segundo es porque los enunciados sobre las tecnologías de IA son hoy una burbuja de consignas repetidas en textos, encuentros profesionales y académicos respaldados u organizados por los principales desarrolladores de estas tecnologías que se ocupan, básicamente, de resaltar todas las virtudes (reales o presuntas) de su negocio. En cambio, hay menos circulación de análisis en profundidad que enuncien y elaboren problemas que suscita el desarrollo de aplicaciones y servicios de tecnologías de aprendizaje automático.
Transformaciones de la cadena de valor en industrias culturales
Sin embargo, más allá del carácter crítico de la perspectiva que se adopte, es ya universalmente aceptado el hecho de que la cadena de producción de valor en las industrias culturales está registrando transformaciones sustantivas con la progresiva introducción de tecnologías de aprendizaje automatizado en los distintos eslabones que la conforman.
La cadena de valor de las industrias culturales en su fase analógica, predigital, organizaba las fases del proceso productivo con el control, al menos desde el momento propiamente creativo en adelante, por parte de la organización que producía y editaba el contenido. El eslabón de la concepción del contenido presidía el proceso organizativo de la cadena de valorización de la cultura industrializada. El contenido era el rey y quien poseía los medios para producirlo, expandía sus dominios sobre el resto de los eslabones.
La estructuración de las industrias culturales con tendencias marcadas de integración vertical y concentración horizontal de los eslabones de la cadena de valor, incluyendo en muchos casos el de la comercialización de los productos y servicios, fue un rasgo clásico del sector. El modelo de las majors hollywoodenses fue un ejemplo típico de la economía de la cultura durante el siglo pasado.
A continuación, se expone un gráfico descriptivo de la cadena de valor de las industrias culturales tradicionales, analógicas, basado en autores como Albarran (2010), Bustamante (2003) y Zallo (1988).
Fuente: elaboración propia en base a Albarran (2010), Bustamante (2003) y Zallo (1988)
El proceso creativo se imponía a la suma de valor que se realizaba en los eslabones dedicados a la grabación, el empaquetado, el archivo, la distribución y la exhibición, que en muchos casos estaban tercerizados y delegados en otros actores sobre los que la organización productora solía ejercer dominio.
La digitalización, como proceso que se insertó crecientemente en la organización de la producción de la cultura industrializada a partir de finales de la década de 1980, fue provocando cambios importantes en la cadena de valor. Con el objetivo de abaratar costos, aumentar la movilidad y flexibilidad de los procesos e incrementar la productividad, muchos procesos fueron automatizados o modificados con la incorporación de tecnologías digitales. Ello derivó, a su vez, en la aparición de nuevos perfiles profesionales que exigen procesos de aprendizaje permanente y nuevas habilidades técnico-creativas; y la difuminación de competencias y saberes entre profesionales antes nítidamente separados, como reflexionaba Bustamante (2003).
La plataformización de los entornos digitales de circulación de contenidos culturales e informativos, propia del fin de la primera década del siglo XXI (Srnicek, 2018 y Van Dijck et al., 2018), profundizaría algunas de las tendencias previas, a la vez que representó un quiebre con otras. El quiebre no se debe sólo a la digitalización de contenidos culturales (que ya venía sucediendo), sino a la transformación de los grupos y empresas que dominan los entornos digitales en grandes plataformas capaces de controlar, desde el eslabón de la distribución (en principio), exhibición y comercialización, todos los contenidos en red. Estas, convertidas en grandes plataformas digitales, impulsaron un proceso de personalización de la distribución de contenidos que activó la segmentación de públicos y consumos (ver Srnicek, 2022) como nunca había sucedido en el pasado de las industrias de la cultura, la información y la comunicación.
Las plataformas con desarrollos de Inteligencia Artificial fueron insertándose en casi todos los eslabones de la cadena productiva de creación de valor en las industrias culturales. A partir de 2010, no queda prácticamente ningún eslabón de esa cadena de suministros que no esté fuertemente intervenido y alterado por las plataformas digitales mayores que son, a su vez, las desarrolladoras más importantes de aplicaciones y servicios de lenguaje y aprendizaje automático.
Con la plataformización de los entornos digitales se transforma la organización de los procesos productivos de las industrias de cultura, información y comunicación. Las grandes plataformas van imponiendo criterios de relevancia editorial, estéticos, formales y también asuntos sobre los que es necesario generar agenda y conversación pública, con su contracara de otras cuestiones que quedan relegadas de sus prioridades. Por la posición que ostentan como agentes económicos con poder significativo de mercado e incluso, en eslabones claves de la distribución (control de aplicaciones y servicios) y comercialización (vía espacios de exhibición e intervención como mayoristas del negocio publicitario digital) que ha sido calificada como monopólica por fallos judiciales en los Estados Unidos y Europa[2], inciden de manera directa en la agenda pública.
La evidencia reunida en los países con mayores mercados digitales sobre el desempeño monopólico de Google y Meta es abrumadora. Un exhaustivo informe de la Autoridad de la Competencia del Reino Unido (CMA, 2019), Google generaba en 2020 más del 90% del tráfico de búsquedas (search) y absorbe más del 90% de los ingresos publicitarios de ese segmento. Sus precios para el mercado publicitario son entre un 30 y 40 por ciento más altos que los de Bing (de Microsoft) al comparar términos de búsqueda similares. A su vez, Meta (Facebook e Instagram, que compró en 2012) generó más de la mitad de los ingresos publicitarios en redes sociodigitales. A modo de comparación, su mayor competidor, YouTube (de Google) ganó “sólo” entre el 5 y el 10 por ciento.
La traducción de los cambios a la cadena de valor de las industrias culturales en el contexto de la plataformización muestra cambios estructurales respecto de la secuencia de eslabones productivos de la fase predigital.
A continuación, se se expone un gráfico descriptivo de la cadena de valor de las industrias culturales digitalizadas en la actual etapa de dominio de grandes plataformas:
Fuente: elaboración propia
En la nueva cadena de valor, las organizaciones productoras de contenidos, si bien siguen teniendo peso relativo (y variable, según cada caso) en el eslabón de la creación de contenidos, van perdiéndolo de modo creciente con la intervención de las herramientas de IA generativa. Lo que ya han perdido, completamente, es el control sobre el resto de los eslabones del proceso productivo. En esos otros eslabones es donde se gestionan las transacciones que devienen, luego, en beneficios y alimentan así la economía de la cultura y la información: subida a plataformas, distribución, exhibición, comercialización, archivo, almacenamiento y clasificación, es decir, sobre el banco de datos.
Este último eslabón remite a las bases de entrenamiento que son la fuente de operaciones de las tecnologías de Inteligencia Artificial. El eslabón de la extracción, el procesamiento, la clasificación y organización de perfiles, es fundamental para la programación automatizada de datos, lo que conduce a su vez a nuevas aristas de una economía que nunca dejó de anhelar predecir conductas del mercado de consumidores, pero que careció, hasta ahora, de la información (los datos personales) y la capacidad tecnológica (organizativa, logística) de establecer patrones de comportamiento y la probabilidad de componer tendencias tanto a escala masiva como personalizada.
El desplazamiento del control de quienes detentaban control sobre el eslabón de la producción de contenidos hacia quienes ejercen dominio sobre el resto de los eslabones de la cadena de valor es un signo de la época. Esa tendencia se combina con la pérdida de control dentro del propio eslabón de producción de contenidos por la introducción de tecnologías de IA generativa.
A su vez, la transferencia de ese control desde las empresas que producían el contenido hacia las plataformas tecnológicas se expresa en el conflicto escenificado en muchos reclamos de las industrias culturales tradicionales para hacer valer los derechos de autor y propiedad intelectual en el ciclo productivo del sector. Esta disputa que tuvo repercusión con la huelga de guionistas de Hollywood, conducida por su sindicato en 2023 y, en paralelo, ofrece batallas en sede judicial entre empresas históricamente dedicadas a la producción cultural versus las empresas tecnológicas dedicadas al desarrollo de sistemas de IA.
Los cambios registrados en la cadena de valor multiplican efectos. A la hora de listar algunos que abren problemas cuya resolución futura es un desafío, y dado que los beneficios y mejoras en términos de productividad con IA son constantemente difundidos por las propias desarrolladoras de las tecnologías, es importante destacar la falta de transparencia sobre los datos e informaciones que posibilitan el funcionamiento de servicios de aplicaciones y servicios de IA. Este aspecto, al que el Reglamento Europeo sobre Inteligencia Artificial (Parlamento Europeo, 2024) dedica varios artículos y una propuesta política de gestión, contagia de opacidad el proceso de aplicación y desarrollo de los servicios generados por las tecnologías de IA.
Las zonas problemáticas de la reorganización productiva
La falta de transparencia y de integridad de datos no es un accidente, sino una decisión. Con el empleo de las IA generativas queda claro: en marzo de 2024 la periodista Joanna Stern, de The Wall Street Journal, le preguntó a la responsable de tecnología de OpenAI (Chief Technology Officer), Mira Murati, sobre los datos disponibles públicamente utilizados para entrenar sus sistemas de IA, en particular Sora[3]. Su respuesta fue que no lo tenía claro. Ante la repregunta, Murati añadió que no estaba segura acerca de qué fuentes de entrenamiento estaban usando.
Esa declaración, guiada por la máxima que anima muchos desarrollos tecnológicos que usan datos personales y públicos que reza que “es mejor pedir perdón antes que pedir permiso”, es importante leerla en relación al “giro probabilístico” que Ortíz Freuler (2023) identifica en los desarrollos de aprendizaje automatizado, que optan por presentar resultados en base a la probabilidad de que, según sus fuentes de entrenamiento, una situación se presente, proyectando con esa probabilidad una ilusión de realidad de que los hechos presentados como probables se concreten.
Como el cálculo probabilístico depende precisamente de los datos de entrenamiento de los sistemas de IA; el hecho de desconocer (o decir públicamente que se desconoce, como Murati de OpenAI) la fuente de esos datos puede, como es lógico, conducir a resultados muy problemáticos. Costa apunta que los datos nunca están “dados”, pues “son resultado de “cuidadosos procedimientos de registro, identificación, representación y selección, a través de los cuales nos volvemos inteligibles” (2021: 33), es decir predecibles a los ojos de la programación algorítmica de las IA.
Esto conduce directamente al vector sensible de la falta de transparencia de los desarrollos que están revolucionando nada menos que la concepción de contenidos en las industrias culturales, es decir, su fase creativa.
Es irónico que la opacidad y la falta de integridad de los datos sean dos rasgos característicos de los sistemas de IA, porque en pleno apogeo de tecnologías que realizan métricas sobre cada uno de los detalles del proceso productivo de las industrias culturales, de modo capilar, la posibilidad técnica de efectuar esa medición es acompañada por un esfuerzo desmedido para que su resultado sea inaccesible e insondable incluso por parte de quienes participan de forma activa del proceso productivo.
En la dinámica productiva de la producción audiovisual, por ejemplo, la falta de transparencia se constata en los contratos que suscriben las grandes plataformas Over The Top (OTT) con productoras de diferentes países para realizar películas y series. Esos contratos privan a las productoras que realizan los contenidos del conocimiento acerca del desempeño de las series o películas que produjeron a demanda de las OTT. Es decir, no pueden evaluar el resultado de su propia creación cultural, pues todos los indicadores sobre la circulación de la misma son capturados por las OTT contratantes.
El clásico debate sobre la distinción entre trabajo creativo y no creativo que surcó la historia de las industrias culturales (ver Zallo, 1988) reclama sus fueros como nunca en esta etapa, ya que permite iluminar analíticamente la distinción acerca de cómo operan las herramientas y desarrollos de Inteligencia Artificial en los eslabones más creativos, que mayor valor original añaden -o añadían- al proceso de concepción de productos y servicios de la cultura.
Si bien la automatización de los procesos productivos le arrebata originalidad a la creación, al mismo tiempo las tecnologías de aprendizaje generativo ofrecen elementos novedosos que son percibidos como una ampliación de capacidades por los propios trabajadores del campo cultural, sobre todo en la concepción de textos (de ficción o no ficción) y de música.
En efecto, puede decirse, casi en términos frankfurtianos, que veían en la industria cultural (enunciada en singular por Adorno y Horkheimer[4]) como un mecanismo de estandarización, que orientar la producción cultural a la satisfacción de la probabilística programada en algoritmos inauditables, uniformiza y serializa aún más los productos y servicios de la cultura, erosionando la labor intelectual original. Este es un punto que afecta la etapa más singular que está en el ADN de la producción de contenidos, transformándola en vicaria de lo que, se supone, es más probable que funcione con mayor éxito en determinado mercado.
Pero, como contracara, la IA brinda en la fase creativa una peculiar reparación hacia los artistas. Los trabajadores culturales -notablemente en el caso de la creación musical y de textos- que en la era industrial de la producción contenidos habían sido desposeídos de la propiedad de los medios técnicos de producción (Marx, 1971 y Zallo, 1988), descubren en aplicaciones y servicios de IA generativa, y en su ubicuidad, la posibilidad de recuperar una parte del terreno perdido hace dos siglos cuando el artesanado cultural se industrializó. La subsunción del trabajo al capital, que tenía en la propiedad de los medios de producción una variable fuerte de anclaje, merece analizarse a la luz de los cambios de las tecnologías de IA.
Con limitaciones evidentes por cuanto la inflexibilidad de los equipos de trabajo automatizado depende de decisiones de las plataformas proveedoras de esas aplicaciones y servicios, la fase creativa puede manipular sus instrumentos de forma flexible prescindiendo a la vez de la participación de las industrias culturales en la “sala de máquinas” de la creación cultural.
La intermediación tecnológica, no obstante, contiene su propia pedagogía y sus reglas opacas, como ya se analizó, pero habilita el acceso de los creativos a las herramientas de trabajo. Las tecnologías de IA generativa inauguran una pedagogía novedosa la concepción y edición de contenidos con criterios de relevancia propios. Estos criterios de relevancia, que históricamente estuvieron sujetos a la relación y a las tensiones entre artistas e industria, terminan subordinándose a la imposición de las grandes plataformas digitales, que condicionan la adopción de sus propios patrones de qué es relevante o accesorio para asegurar la sobrevivencia de los contenidos elaborados por las industrias culturales en los eslabones controlados por ellas.
La medida de éxito de los eslabones de circulación (distribución, exhibición, comercialización) se materializa en una suerte de scoring. Este scoring es selectivo porque las plataformas que son distribuidoras, exhibidoras, comercializadoras y recicladoras de los datos sobre usos, pero no muestran el universo de datos que extraen sobre la circulación social efectiva de los productos y servicios digitales. Entonces, al carecer de una representación de ese universo de datos, el énfasis en la métrica y en el scoring es necesariamente sesgado. Ningún actor que no sea la propia plataforma posee la información más elemental ni, consecuentemente, capacidad como para poder discutir e intervenir proactivamente sobre lo que esas métricas presuntamente representan o sintetizan. Debe confiar en ellas como auténticos actos de fe. Es parte de la religión del universo digital.
Este es un problema importante en relación con los derechos de autoría y propiedad intelectual (donde, nuevamente, los datos de circulación de una obra son inauditables para sus creadores y productores), además de condicionar el proceso creativo de producción de contenidos, que queda subordinado a una lógica de opacidad.
Así se organiza un proceso donde se produce una apropiación de facto de las fuentes de cultura, de conocimiento y de información por parte de grandes desarrolladores de sistemas de IA que complementa la apropiación exclusiva de renta, de patentamiento de resultados de la combinación y explotación de esas fuentes de datos que, en muchos casos, son fuentes públicas en su origen.
No existen mecanismos verificables de auditoría técnica, o públicamente accesibles, sobre el almacenamiento estadístico y sobre los motores de procesamiento de datos de las tecnologías de IA. Este problema es contemplado y regulado por la norma legal europea sobre IA que entró en vigor en agosto de 2024. El reglamento de IA de la Unión Europea, no obstante, ha sido criticado en este aspecto puesto que deposita parte de la responsabilidad de realización de esta auditoría en los propios desarrolladores de sistemas, herramientas y tecnologías de aprendizaje automatizado. Una suerte de autorregulación sobre el control de riesgos, incluso en algunos casos donde la clasificación europea tipifica sistemas con riesgos altos e inaceptables.
La ausencia de evaluación de riesgos afecta, en el caso de los sectores dedicados a la producción de información y las noticias (lo que involucra sobre todo, pero no únicamente, al funcionamiento de los medios de comunicación tradicionales), ya que puede conducir a la difusión de contenidos falsos, operaciones de desinformación, proliferación de deepfakes, con una probabilística que es sesgada porque se desconoce cuál es su base de entrenamiento y, por consiguiente, no se sabe cómo es el proceso que conduce a que sus conclusiones sean plausibles -o probables- que no por ello son verdaderas ni verificables.
La racionalidad técnica que guía los desarrollos de IA es calificada como “amoral” por Chomsky et al. (2023), puesto que proporciona un revestimiento técnico a dilemas que son culturales, políticos y morales:
a pesar de todo el pensamiento y el lenguaje aparentemente sofisticados, la indiferencia moral fruto de la falta de inteligencia. Aquí, el ChatGPT demuestra algo parecido a la banalidad del mal: plagio, apatía y omisión. Resume los argumentos estándar de la materia mediante una especie de superautocompletado, se niega a tomar partido en nada, alega no solo ignorancia sino falta de inteligencia y, en última instancia, ofrece una defensa de “solo cumplía órdenes”, trasladando la responsabilidad a sus creadores. En resumen, el ChatGPT y sus hermanos son constitutivamente incapaces de equilibrar la creatividad con la responsabilidad” (Chomsky et al., 2023)
Tercerizar discusiones y decisiones que son políticas y morales (propiedad de datos, de conocimientos, de contenidos laboriosamente construidos, por ejemplo) en sistemas tecnológicos de aprendizaje automatizado con bases de entrenamiento cuyo origen y lógicas de actualización se desconocen, implica una delegación de la responsabilidad por estos procedimientos y, por lo tanto, a un tipo de racionalidad que escamotea su lógica política, su propuesta cultural y su fundamento moral.
Puede argumentarse que la detección de problemas inherentes a la actual ola de innovación tecnológica con IA, y su análisis, es irrelevante frente a la magnitud de sus efectos en el incremento de la productividad. La afectación a derechos humanos (protección de datos personales, acceso a la cultura y al conocimiento, autoría, expresión, entre ellos) puede considerarse una suerte de “daño colateral” del avance tecnológico. Esta es una opción cuya base moral escapa a los objetivos del presente artículo.
No obstante, reconocer la forma en la que operan los sistemas de inteligencia artificial, que desestabiliza los procesos previos de creación y la generación de conocimientos al jerarquizar lo probable y no lo verdadero en el proceso de toma de decisiones, tiene valor estratégico en todos los campos de actividad. Es el caso del uso de IA en el control de flujos migratorios, o en la aplicación de IA en el patrullaje con el objetivo de “«predecir futuros delitos» utilizando «algoritmos de aprendizaje automático» y «crear perfiles de sospechosos”, como reza la Resolución 710/24 del Ministerio de Seguridad del gobierno argentino (2024), temas que están prohibidos en la regulación europea. Lo que ensaya el gobierno argentino en la aplicación de IA es calificado por la Unión Europea como «riesgo inaceptable» y está prohibido o severamente limitado en su ley, debido a la cantidad de casos “falsos positivos” (casos de predicción errados) que las tecnologías de IA ya hay producido en cuestiones sensibles que afectan los derechos humanos[5].
En el campo cultural, los sistemas de IA pueden colaborar en la comprensión de cierta naturaleza sistémica de comportamientos, de tendencias estilísticas y de géneros que forman parte de la producción cultural y que no necesariamente se corresponden con una contribución original (sea ésta personal o grupal) al proceso creativo. En este aspecto, sí, la introducción de herramientas de IA presenta un atributo que colabora en la comprensión de una parte del proceso creativo, alterando la lógica del remixado que han descripto autores como Lessig (1998) y Kellner (1998).
Concentración
La estructura del sector de desarrolladores y comercializadores de aplicaciones y servicios de IA generativa es fuertemente concentrada. La caracterización del sector y de sus tendencias monopolistas han sido señaladas por diferentes estudios (van Dijck et al., 2019; Srnicek, 2022).
Las mismas empresas y grupos tecnológicos que firmaron una sentida advertencia y solicitaron una moratoria en los avances frenéticos de herramientas de IA en marzo de 2023[6], un año después mostraban nuevos productos con los que disputan el liderazgo del mercado.
Como señala Srnicek (2022), Amazon, Microsoft y Google se han convertido en tres de los principales desarrolladores de infraestructuras y servicios de IA. Además de aprovechar sus enormes cantidades de datos ya extraídos, almacenados y procesados en las últimas décadas, estas tres grandes corporaciones tecnológicas se han equipado con el conocimiento técnico necesario mediante la atracción de expertos en IA, la adquisición de empresas emergentes de IA (por ejemplo, Google/Deepmind) y el surgimiento de amplias asociaciones comerciales como las de Microsoft y OpenAI, subraya Luitse (2024).
Sus productos y servicios son fruto del entrenamiento de modelos y gigantescas bases de datos cuyos acopio, apropiación y procesamiento demandan altas inversiones a una escala que no está al alcance de cualquier organización. Jarovsky (2024) constata que las empresas pequeñas y medianas, aisladamente, carecen del poder como para desarrollar sistemas de similares características a las de las big tech. Estas incorporan herramientas de IA en cada uno de sus servicios. Jarovsky cita a un ejecutivo de Google respecto de que “las IA harán el trabajo preliminar” en lugar de los usuarios (2024). Ahora bien, ese “trabajo preliminar” es, en esencia, trabajo intelectual, pues demanda habilidades para discriminar qué es relevante y qué es accesorio en cada campo de actividad humana.
Todo lo que ocurre en los entornos virtuales, en todos los dispositivos (privados -como los teléfonos celulares- y públicos -como las cámaras de seguridad en el espacio urbano-), sirve como base de datos para el entrenamiento de los sistemas de IA. El cruce entre datos personales y públicos, por un lado, y el desarrollo de herramientas de IA por el otro, requiere enormes capacidades de extracción, almacenamiento, procesamiento y reciclado. En la economía de escala, esas capacidades están concentradas en pocos actores corporativos en un mercado de alcance global.
Una característica de los desarrollos de IA que diluye las consideraciones sobre la concentración estructural del sector es su accesibilidad y usabilidad. Su diseminación en campos como las industrias culturales, el transporte, el despacho de alimentos o las búsquedas y elaboración de contenidos en el sistema educativo suele ser invocada para hablar de modo hiperbólico de una presunta “democratización” de herramientas y aplicaciones de IA. En efecto, muchas se han masificado velozmente en los últimos tiempos. La confusión entre masificación de tecnologías y democratización es muy extendida, como bien documentó el Informe MacBride (UNESCO, 1980) hace más de cuatro décadas.
La masificación de aplicaciones y servicios de IA es facilitada por el desarrollo de complementos y plugins (Torrijos, 2023). En muchos casos, son las características del complemento las que generan la aceptación del usuario y su domesticación dentro del mercado de IA, en un proceso de mercantilización capilar. Los usuarios retienen el nombre de la marca del complemento, porque es el servicio final que utilizan.
A modo de conclusión
La aceleración de desarrollos de IA generativa desafía la capacidad de diagnóstico e identificación de variables centrales de los avances tecnológicos en los vastos campos de actividad humana en los que se aplican productos y servicios. En el caso de las industrias culturales, los impactos del aprendizaje automatizado son múltiples, movilizan la restructuración integral de los procesos productivos, determinan el cambio de funciones de muchos de los agentes que protagonizan esos procesos y se representan claramente en la modificación de la cadena de valor del sector.
Los nudos problemáticos de las transformaciones propulsadas por la aplicación de tecnologías de IA en las industrias culturales incluyen cambios en el control de la cadena productiva y de la mayoría de sus eslabones, con acento especial en el de la producción de contenidos, donde reside históricamente la sustancia de la intervención creativa. La transferencia del poder de decisión de las empresas dedicadas a la producción industrial de la cultura hacia los conglomerados dueños de las grandes plataformas digitales es una de las transformaciones más significativas en la estructuración de las industrias culturales.
El trabajo intelectual original sufre también importantes modificaciones en la tensión clásica de subordinación de artistas o trabajadores culturales a las organizaciones empresariales dueñas de los medios de producción. Dada la ubicuidad de los servicios y aplicaciones de IA, su diseminación impulsa nuevos vínculos entre los creativos y sus instrumentos de trabajo, ahora con la mediación de proveedores de tecnologías que reformulan la relación entre industria y trabajo en el campo cultural.
Claro que las nuevas mediaciones tecnológicas en la “sala de máquinas” de la creación cultural no son neutrales ni sus efectos son asépticos. La falta de transparencia, la nueva pedagogía respecto de un sistema de valores que se presume técnico (y es amoral) pero, a la vez, impone criterios de relevancia y medidas de éxito por scoring que son inauditables, merecen apuntarse como rasgos inherentes a las nuevas reglas de juego de la producción cultural con IA.
La concentración de las empresas y grupos tecnológicos que desarrollan infraestructuras y servicios de IA, mayor incluso que la estructuración concentrada inherente a la evolución de las industrias culturales predigitales, tiene a su vez consecuencias que comprometen derechos como la protección de datos personales, la privacidad, el acceso a la cultura y al conocimiento, autoría y propiedad intelectual, entre otros.
En su libro Atlas de Inteligencia Artificial, su autora, Kate Crawford, sostiene que la IA “no es artificial ni inteligente. Más bien existe de forma corpórea, como algo material, hecho de recursos naturales, combustible, mano de obra, infraestructuras, logística, historias y clasificaciones” (2023). La concentración de la estructura de propiedad del sector, que demanda inversiones de capital y capacidades de operación a gran escala, se combina con la absorción de datos privados y públicos, su almacenamiento, procesamiento y comercialización, procesos que dependen -argumenta la investigadora- de un vasto conjunto de estructuras políticas y sociales. “En ese sentido, la IA es un certificado de poder”, sostiene Crawford.
Las herramientas de IA funcionan como un oráculo. El dueño del oráculo tendrá mayor poder sobre las ideas y conocimiento de circulación masiva. Parte de estos rasgos de concentración no son nuevos: son inherentes a todas las industrias de información, cultura y comunicación. Todos los niveles de funcionamiento de Internet siempre estuvieron concentrados. Lo que es nuevo es la capacidad, vía IA, para controlar ideas y conocimientos. Por un lado, porque hay un “trabajo preliminar” de filtrado, selección y elaboración de probabilidades que descansa en la objetivación del trabajo vivo en los programas tecnológicos, y por otro lado, porque la toma de decisiones y el poder de agencia de las personas es recortado por ese trabajo preliminar y por el control monopolista de los sistemas y herramientas de IA.
Bibliografía
Adorno, T. (1967). “La industria cultural”, en Morin, Edgar y Theodor Adorno, La industria cultural, Galerna, Buenos Aires, p. 7-20.
Albarran, A. (2010). The media economy, Routledge, New York. Capítulo 2, “Theories and approaches used to examine the media economy”, p. 19-34.
Bustamante, E. (2003). “Televisión digital: globalización de procesos muy nacionales”, en Bustamante, Enrique (coord), Hacia un nuevo sistema mundial de comunicación. Las industrias culturales en la era digital, Gedisa, Barcelona, p. 167-206.
Chomsky, N.; Roberts, I. Y Watumull, J. (2023). “La falsa promesa del ChatGPT”, en Palabra Pública, Universidad de Chile, Santiago. Disponible en https://palabrapublica.uchile.cl/la-falsa-promesa-del-chatgpt/
Competition and Markets Authority (CMA) (2019), Online platforms and digital advertising market study, disponible en https://www.gov.uk/cma-cases/online-platforms-and-digital-advertising-market-study#final-report
Costa, F. (2021), Tecnoceno, Taurus, Buenos Aires.
Crawford, K. (2023), Atlas de Inteligencia Artificial. Poder, política y costos planetarios, Fondo de Cultura Económica, Buenos Aires.
Jarovsky, L. (2024), “A new information age is born”, Luiza's Newsletter #106, disponible en https://www.luizasnewsletter.com/p/a-new-information-age-is-born
Kellner, D. (1998), “Vencer la línea divisoria: estudios culturales y economía política”, en Ferguson, Marjorie y Peter Golding (eds.) Economía política y estudios culturales, Bosch, Barcelona, p. 185-212.
Lessig, L. (1998), Las leyes del ciberespacio”, conferencia Taiwan Net '98, mimeo, Taipei, publicado en http://www.uned.es/ntedu/espanol/master/segundo/modulos/audiencias-y-nuevos-medios/ciberesp.htm
Liu, Y. y Song, P. (2022), “Creating Sustainable Cultural Industries: The Perspective of Artificial Intelligence and Global Value Chain”, Journal of Environmental and Public Health, ID 6768388, https://doi.org/10.1155/2022/6768388
Luitse, D. (2024), “Platform power in AI: The evolution of cloud infrastructures in the political economy of artificial intelligence”, Internet Policy Review, 13(2). Disponible en https://doi.org/10.14763/2024.2.1768
Marx, K. (1971), Elementos fundamentales para la crítica de la economía política (Grundrisse) (1857- 1858), Buenos Aires, Siglo XXI.
Mattelart, A. y Piemme, J.M. (1982), “Las industrias culturales: génesis de una idea”, en VVAA, Industrias culturales: el futuro de la cultura en juego, Fondo de Cultura Económica, México, p. 62-75.
Ministerio de Seguridad de la República Argentina (2024), Resolución 710/24 (RESOL-2024-710-APN-MSG), disponible en el Boletín Oficial https://www.boletinoficial.gob.ar/detalleAviso/primera/311381/20240729
Ortíz Freuler, J. (2023), “Cuando los DDHH se convierten en un juego de lotería impulsado por la IA”, Inter Press Service, disponible en https://ipsnoticias.net/2023/07/cuando-los-ddhh-se-convierten-en-un-juego-de-loteria-impulsado-por-la-ia/
Parlamento Europeo (2024), Reglamento de Inteligencia Artificial, disponible en https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_ES.pdf
Srnicek, N. (2022), “Data, compute, labour”, en M. Graham & F. Ferrari (eds.), Digital work in the planetary market (pp. 241–261). MIT Press. Disponible en https://doi.org/10.7551/mitpress/13835.003.0019
Srnicek, N. (2018), Capitalismo de plataformas, Buenos Aires: Caja Negra Editora.
Torrijos, C. (2023), “Orilla A, orilla B: Sobre cómo las tribus del lenguaje natural y formal firmaron la paz”, Revista Telos n°123, Fundación Telefónica, Madrid. Disponible en https://telos.fundaciontelefonica.com/telos-123-autora-invitada-carmen-torrijos-orilla-a-orilla-b/
UNESCO (1980), Un solo mundo, voces múltiples. Comunicación e información en nuestro tiempo, Fondo de Cultura Económica y UNESCO, México, 508 p.
van Dijck, J.; Nieborg, D.; & Poell, T. (2019), “Reframing platform power”, Internet Policy Review, 8(2). Disponible en https://doi.org/10.14763/2019.2.1414
van Dijck, J.; Poell, T. y de Wall, M. (2018), The Platform Society: Public Values in a Connective World, Oxford University Press, New York.
Zallo, R. (1988), Economía de la comunicación y la cultura, Akal, Madrid, 207 p.
[1] Este artículo está basado en ejes de la conferencia sobre «Inteligencia Artificial en los medios y contenidos audiovisuales en Internet: transparencia e impacto en los modelos de negocio», impartida por el autor en el Seminario Internacional Mercados y Regulación Audiovisual, Instituto Federal de las Comunicaciones, Ciudad de México, el 26 de junio de 2024. El Seminario Internacional fue organizado por el IFT, Observacom y la Universidad Carlos III de España.
[2] Así lo consideró el juez del Distrito de Columbia (Washington) Amit Mehta en agosto de 2024 en su veredicto sobre la demanda del Departamento de Justicia de EEUU contra Google por abuso de su posición dominante en los servicios de búsqueda. El fallo se encuentra disponible en este vínculo: https://fingfx.thomsonreuters.com/gfx/legaldocs/gdpzmaxjxvw/United%20States%20v%20Google%2020240805.pdf
[3] Fragmento de la entrevista difundido en Twitter (X) por Stern: https://x.com/JoannaStern/status/1768306032466428291
[4] Ver la discusión al respecto que sostuvieron Mattelart y Piemme (1982)
[5] el autor del artículo realizó un texto de divulgación comparando aspectos de ambas normas para Revista Acción en agosto de 2024, cuando ambas entraron en vigencia, disponible acá: https://accion.coop/opinion/regulacion-europea-patrullaje-argentino/
[6] La solicitada está disponible en este enlace: https://futureoflife.org/open-letter/pause-giant-ai-experiments/