El término de Inteligencia Artificial (IA) se ha tomado la contingencia, ya es común y rutinario hablar de ella, pero ¿Realmente existe la IA? Ariel Aceval, experto en el tema nos entrega un análisis al respecto.
RESUMEN:
Ramón López de Mántaras, con casi 50 años como pionero en IA y exdirector del IIIA-CSIC, desmonta mitos en UManresa: la IA no piensa, solo repite, y depende de explotación laboral. Critica su impacto energético y aboga por no delegar el pensamiento humano.
CONTENIDO:
La inteligencia artificial (IA) se ha vendido como la gran revolución del siglo XXI, una tecnología capaz de transformar el mundo y emular la mente humana. Sin embargo, expertos como Ramon López de Mántaras, doctor en Física y exdirector del Instituto de Investigación en Inteligencia Artificial del CSIC, están aquí para desenmascarar lo que llaman "la gran mentira de la IA". En una conferencia reciente en UManresa ante más de 150 personas, López de Mántaras afirmó tajantemente: "La IA no es ni inteligente ni tan artificial". ¿Qué hay detrás de esta crítica? Una realidad que va más allá del bombo mediático y que pone en duda todo lo que creíamos saber sobre esta tecnología.
La IA no piensa, solo repite
Uno de los mitos más extendidos es que la IA "piensa" como los humanos. López de Mántaras lo desmonta con claridad: no hay inteligencia real en las máquinas. Sistemas como ChatGPT, que generan textos fluidos y aparentemente coherentes, no entienden lo que dicen. "Recitan lo que ya saben, reproducen patrones y secuencias de palabras, pero no razonan ni comprenden", explicó. Esto se debe a que la IA actual se basa en procesar enormes cantidades de datos para encontrar correlaciones, no en un entendimiento profundo o en un razonamiento causa-efecto. Sin sentido común ni capacidad para aprender como lo hacemos nosotros, la IA es, en palabras del experto, "un procesamiento avanzado de información" que no merece el calificativo de inteligente.
Los modelos actuales: más grandes pero igualmente limitados
Si observamos los modelos más recientes como GPT-4, Claude o Llama 3, vemos sistemas mucho más potentes que pueden mantener conversaciones fluidas, programar software complejo o crear imágenes realistas con simples instrucciones. Sin embargo, estos sistemas siguen padeciendo limitaciones fundamentales que confirman la tesis de López de Mántaras.
Por ejemplo, GPT-4, a pesar de su impresionante capacidad para generar textos coherentes, sigue cometiendo errores básicos de razonamiento lógico y matemático. Un estudio reciente de AI Safety Research Institute demostró que estos modelos pueden "alucinar" información falsa presentándola como hechos, algo que resultaría impensable en una inteligencia genuina. Además, carecen de lo que los psicólogos llaman "teoría de la mente": no entienden realmente las intenciones, creencias o deseos humanos, sino que los simulan basándose en patrones estadísticos extraídos de enormes cantidades de texto.
El caso de DALL-E 3 o Stable Diffusion es particularmente revelador: pueden crear imágenes asombrosas, pero no comprenden conceptos básicos como la gravedad o las relaciones espaciales. Un análisis de sus errores muestra que, lejos de "imaginar" como los humanos, simplemente reorganizan elementos visuales de su entrenamiento sin entender realmente lo que representan.
Lo "artificial" que no lo es tanto
Pero la crítica no termina ahí. López de Mántaras también cuestiona el adjetivo "artificial". Detrás de los algoritmos que alimentan a gigantes tecnológicos como Google o OpenAI hay miles de trabajadores en países como Kenia o Filipinas, cobrando sueldos irrisorios por etiquetar datos y filtrar respuestas. "Cuanto más grande es la IA, mayor es la explotación laboral que la sostiene", denunció. Así, la imagen futurista de máquinas autónomas se derrumba para revelar una industria que depende de manos humanas en condiciones precarias. ¿Artificial? No tanto.
Los peligros ocultos tras la promesa
El experto no se limitó a desmitificar la IA; también alertó sobre sus riesgos. El consumo energético de los centros de datos que entrenan estos modelos es "absolutamente insostenible", equiparándose pronto al de países enteros. A esto se suman los sesgos, la manipulación y la proliferación de falsedades, problemas agravados por la falta de regulación y el poder desmedido de las grandes tecnológicas. López de Mántaras las acusó de lanzar la IA generativa como un "experimento social irresponsable", más interesados en dominar el mercado que en garantizar su seguridad.
En el ámbito educativo, el impacto es doble: la IA puede erosionar la cultura del esfuerzo, pero también, si se usa bien, fomentar el pensamiento crítico. Sin embargo, el experto advierte: delegar tareas como escribir es delegar el pensamiento, una habilidad que no deberíamos ceder tan fácilmente.
Una llamada a la reflexión
López de Mántaras no niega el potencial de la IA en campos como la medicina o la logística, pero insiste en que no debemos sobrevalorarla ni renunciar a nuestras capacidades humanas. "Realizar ciertas tareas por nosotros mismos puede ahorrarnos tiempo y preservar lo que nos hace únicos", afirmó. Su mensaje final es contundente: el peligro no está en la tecnología, sino en "la IA en manos de estúpidos naturales".
Hacia una IA más ética y transparente
¿Existe un camino alternativo para el desarrollo de la IA? López de Mántaras sugiere varias direcciones prometedoras que podrían corregir el rumbo actual:
- Desarrollo de IA centrada en el ser humano: En lugar de sistemas que buscan reemplazar capacidades humanas, deberíamos priorizar tecnologías diseñadas para complementarlas y potenciarlas, manteniendo siempre al humano en el centro del proceso decisorio.
- Transparencia algorítmica: Es fundamental exigir que las empresas revelen cómo funcionan sus sistemas de IA, qué datos utilizan y qué sesgos podrían tener. Los modelos de "caja negra" actuales dificultan la rendición de cuentas.
- Redistribución de beneficios: Si la IA genera enormes ganancias para las corporaciones, estas deberían invertirse en crear condiciones laborales dignas para todos los trabajadores involucrados en su desarrollo, incluyendo aquellos que etiquetan datos.
- Educación crítica: Necesitamos formar a las nuevas generaciones no solo en el uso de herramientas de IA, sino en entender sus limitaciones y desarrollar precisamente aquellas habilidades que las máquinas no pueden replicar: creatividad genuina, juicio ético y pensamiento crítico.
- Regulación internacional: La IA requiere un marco regulatorio global que establezca límites claros, especialmente en áreas sensibles como la vigilancia, las armas autónomas o la manipulación de información.
En un mundo obsesionado con la IA, voces como la de López de Mántaras nos invitan a mirar más allá de las promesas y cuestionar qué tan inteligente —o artificial— es realmente esta revolución. Quizás, como él sugiere, deberíamos empezar por cambiarle el nombre y llamarla lo que es: una herramienta poderosa, pero no un cerebro.
*** SIN COMENTARIOS INGRESADOS***