Invité a mi colega cercano y coautor de nuestro último libro, Guglielmo Carchedi, a escribir este post.
En un comentario en la publicación del blog de Michael Roberts sobre la inteligencia artificial (IA) y las nuevas máquinas de aprendizaje de idiomas (LLM), el autor y comentarista, Jack Rasmus, planteó algunas preguntas pertinentes, que me sentí obligado a abordar.
Jack dijo: «¿El análisis de Marx de la maquinaria y su opinión de que la maquinaria es un valor de trabajo congelado que se pasa a la mercancía a medida que se deprecia se aplica completamente a las máquinas basadas en software de IA que tienen la capacidad creciente de automantenerse y actualizar su propio código sin intervención del trabajo humano, es decir, no depreciarse?»
Mi respuesta a la pregunta legítima de Jack presupone el desarrollo de una epistemología marxista (una teoría del conocimiento), un área de investigación que ha permanecido relativamente inexplorada y subdesarrollada.
En mi opinión, una de las características clave de un enfoque marxista es hacer una distinción entre «producción objetiva» (la producción de cosas objetivas) y «producción mental» (la producción de conocimiento). Lo más importante es que el conocimiento debe ser visto como material, no como inmaterial, ni como un reflejo de la realidad material. Esto nos permite distinguir entre medios objetivos de producción (MP) y MP mental; Ambos son materiales. Marx se centró principalmente, pero no exclusivamente, en lo primero. Sin embargo, hay en sus obras muchos indicios de cómo debemos entender el conocimiento.

Una máquina es un MP objetivo; el conocimiento incorporado en él (o desincorporado) es un MP mental. Por lo tanto, la IA (incluido ChatGPT) debe verse como un MP mental. En mi opinión, dado que el conocimiento es material, los MP mentales son tan materiales como los MP objetivos. Por lo tanto, los MP mentales tienen valor y producen plusvalía si son el resultado del trabajo mental humano llevado a cabo para el capital. Así que la IA tiene mano de obra humana involucrada. Sólo es trabajo mental.
Al igual que el objetivo MP, los MP mentales aumentan la productividad y pierden mano de obra. Su valor se puede medir en horas de trabajo. La productividad de MP mental se puede medir, por ejemplo, por el número de veces que ChatGPT se vende o descarga o se aplica a los procesos de trabajo mental. Al igual que el objetivo MP, su valor aumenta a medida que se les agregan mejoras (más conocimiento) (por el trabajo humano) y disminuye debido al desgaste. Así que los MP mentales (IA) no solo se deprecian, sino que también lo hacen a un ritmo muy rápido. Esta es la depreciación debida a la competencia tecnológica (obsolescencia), en lugar de la depreciación física. Y, al igual que el objetivo MP, su productividad afectará la redistribución de la plusvalía. En la medida en que los modelos más nuevos de ChatGPT reemplazan a los más antiguos, debido a los diferenciales de productividad y sus efectos en la redistribución de la plusvalía (teoría del precio de Marx), los modelos más antiguos pierden valor frente a los más nuevos y productivos.

Jack pregunta: «¿Esta capacidad se basa en el trabajo humano o no? Si no, ¿qué significa un «no» para el concepto clave de Marx de la composición orgánica del capital y, a su vez, para su (MR y el mío – GC) a menudo declarado respaldo de la hipótesis de la caída de la tasa de ganancia?
Mi respuesta anterior ha sido que esta «capacidad» no sólo se basa en el trabajo humano (mental), sino que es el trabajo humano. Desde esta perspectiva, no hay ningún problema con el concepto de Marx de la composición orgánica del capital (C). Dado que AI y, por lo tanto, ChatGPT son nuevas formas de conocimiento, de MP mental, el numerador de C es la suma de MP objetivo más MP mental. El denominador es la suma del capital variable gastado en ambos sectores. Por lo tanto, la tasa de ganancia es la plusvalía generada en ambos sectores dividida por (a) la suma del MP en ambos sectores más (b) el capital variable gastado también en ambos sectores. Por lo tanto, la ley de la caída tendencial de la tasa de ganancia no cambia por MP mental, contrariamente a la insinuación de Jack.
Para comprender mejor los puntos anteriores, necesitamos desempaquetar y desarrollar la teoría implícita del conocimiento de Marx. Esto es lo que hacen los párrafos siguientes, aunque en una versión extremadamente sucinta.
Considere primero las computadoras clásicas. Transforman el conocimiento sobre la base de la lógica formal, o lógica booleana o álgebra, que excluye la posibilidad de que la misma declaración sea verdadera y falsa al mismo tiempo. La lógica formal y, por lo tanto, las computadoras excluyen las contradicciones. Si pudieran percibirlos, serían errores lógicos. Lo mismo se aplica a las computadoras cuánticas.

En otras palabras, la lógica formal explica los procesos de trabajo mental predeterminados (donde el resultado del proceso se conoce de antemano y, por lo tanto, no es contradictorio con el conocimiento que ingresa a ese proceso de trabajo), pero excluye los procesos de trabajo mental abiertos (donde el resultado emerge como algo nuevo, aún no conocido). Un proceso abierto se basa en una reserva de conocimiento potencial y sin forma, que tiene una naturaleza contradictoria debido a la naturaleza contradictoria de los elementos sedimentados en ella. A diferencia de la lógica formal, la lógica abierta se basa en contradicciones, incluida la contradicción entre los aspectos potenciales y realizados del conocimiento. Esta es la fuente de las contradicciones entre los aspectos de la realidad, incluidos los elementos del conocimiento.
To return to an example above, for open-ended mental labour processes, A=A and also A¹A. There is no contradiction here. A=A because A as a realised entity is equal to itself by definition; but A¹A because the realized A can be contradictory to the potential A. This is the nature of change, something formal logic cannot explain.
This holds also for Artificial Intelligence (AI). Like computers, AI functions on the basis of formal logic. For example, when interrogated whether A=A and also at the same time can be A ¹ A, Chat GPT answers negatively. Since it functions on the basis of formal logic, AI lacks the reservoir of potential knowledge from which to mine more knowledge. It cannot conceive of contradictions because it cannot conceive of the potential. These contradictions are the humus of creative thinking i.e. of the generation of new, as yet unknown, knowledge. AI can only recombine, select and duplicate realised forms of knowledge. In tasks such as vision, image recognition, reasoning, reading comprehension and game playing they can perform much better than humans. But they cannot generate new knowledge.
Consider facial recognition, a technique that compares an individual’s photograph with a database of known faces to find a match. The database consists of a number of known faces. Finding a match selects an already realized, i.e. already known face. There is no generation of new knowledge (new faces). Facial recognition can find a match much more quickly than a human can. It makes human labour more productive. But selection is not creation. Selection is a pre-determined mental process; creation is an open-ended mental process.

Take another example. ChatGPT would seem to emulate human creative writing. Actually, it does not. It gets its knowledge from large amounts of text data (the objects of mental production). Texts are divided into smaller pieces, phrases, words or syllables, so-called tokens. When ChatGPT writes a piece, it does not choose the next token according to the logic of the argument (as humans do). Instead, it chooses the most likely token. The written outcome is a chain of tokens assembled on the basis of the statistically most probable combination. This is a selection and recombination of already realised elements of knowledge, not the creation of new knowledge.
As Chomsky et al. (2023) put it: “AI takes huge amounts of data, searches for patterns in it and becomes increasingly proficient at generating statistically probable outputs — such as seemingly human-like language and thought … [ChatGPT] merely summarizes the standard arguments in the literature”.
It could happen that ChatGPT produces a text that has never been thought of by humans. But this would still be a summary and re-working of already known data. No creative writing could emerge from it because new realised knowledge can emerge only from the contradictions inherent in potential knowledge.

Morozov (2023) proporciona un ejemplo relevante: «La obra de arte de Marcel Duchamp de 1917 Fuente. Antes de la pieza de Duchamp, un urinario era solo un urinario. Pero, con un cambio de perspectiva, Duchamp lo convirtió en una obra de arte. Cuando se le preguntó qué tenían en común el botellero de Duchamp, la pala de nieve y el urinario, Chat GPT respondió correctamente que todos son objetos cotidianos que Duchamp convirtió en arte. Pero cuando se le preguntó cuál de los objetos de hoy Duchamp podría convertir en arte, sugirió teléfonos inteligentes, scooters electrónicos y máscaras faciales. No hay ningún indicio de ninguna «inteligencia» genuina aquí. Es una máquina estadística bien administrada pero predecible».

Marx proporciona el marco teórico adecuado para comprender el conocimiento. Los humanos, además de ser individuos concretos únicos, también son portadores de relaciones sociales, como individuos abstractos. Como individuos abstractos, «humanos» es una designación general que borra las diferencias entre individuos, todos ellos con diferentes intereses y visiones del mundo. Incluso si las máquinas (computadoras) pudieran pensar, no podrían pensar como humanos determinados por la clase con concepciones diferentes y determinadas por la clase de lo que es verdadero y falso, correcto o incorrecto. Creer que las computadoras son capaces de pensar en humanos no solo es erróneo; También es una ideología pro-capital porque eso es estar ciego al contenido de clase del conocimiento almacenado en la fuerza de trabajo y, por lo tanto, a las contradicciones inherentes a la generación de conocimiento.
Para más información sobre una teoría marxista del conocimiento y su relación con la ley del valor de Marx, vea mi artículo reciente, The Ontology and Social Dimension of Knowledge: The Internet Quanta Time, International Critical Thought, 2022 y nuestro libro, El capitalismo en los 21c siglo Capítulo cinco.
ChatGPT, valor y conocimiento – Michael Roberts Blog (wordpress.com)