Víctor Manuel Vargas, programador: “La inteligencia artificial no ha venido para sustituirnos”
Son las nueve y veintisiete minutos de la mañana y el edificio Einstein presenta un aire fantasmal. No se ve un alma por los interminables pasillos que lo atraviesan. El departamento de Informática y Análisis Numéricos se encuentra en la tercera planta. Y al final de la escalera se accede a un distribuidor con cuatro corredores absolutamente desiertos. Parecería que nos encontramos atrapados en un telefilme apocalíptico si no fuera porque nos dirigimos a un laboratorio de inteligencia artificial del Campus de Rabanales. ¿Hay vida en el universo de la computación?
Parece ser que sí. De la nada aparece un señor y nos conduce amablemente a un aula rectangular con nueve puestos de ordenador colocados perimetralmente alrededor de la pared más otro situado en una mesa central. Nos encontramos en la sede del grupo de investigación Aprendizaje y Redes Neuronales Artificiales (AYRNA), creado en 1994 y dirigido hoy por el profesor Pedro Antonio Gutiérrez Peña. Abrimos la puerta y todos los investigadores tuercen la cabeza. Ninguno tiene más de treinta años. “Busco a Víctor Manuel Vargas”, digo acompañado del fotógrafo. Se levanta un joven delgado y extiende su mano.
Es uno de los diez flamantes galardonados con el Premio de Investigación Sociedad Científica Informática de España concedidos por la Fundación BBVA. “Por sus contribuciones significativas en nuevas metodologías de aprendizaje profundo y clasificación ordinal”, argumenta escuetamente el jurado. ¿Qué diablos significan estas crípticas palabras?, se preguntará usted. ¿Para qué sirven? ¿Con qué aplicación práctica?
Ahora estamos sentados en la escalinata de la biblioteca frente al gran estanque interior de Rabanales. Apenas hay un par de estudiantes charlando en medio de un enorme espacio extrañamente vacío. “La clasificación es uno de los problemas que afronta la inteligencia artificial”, explica Víctor Manuel Vargas. “Si tenemos imágenes de perros, gatos o coches, a cada una de ellas le asignamos una etiqueta para que el modelo aprenda a identificarlas”.
El problema llega cuando queremos diferenciar categorías. Por ejemplo, en un diagnóstico médico. “Y queremos saber el grado de una enfermedad a partir de una imagen. Desde el sano hasta el leve, moderado o grave. Y ahí sí que tenemos que tener un orden claro en diferentes grados o categorías. Esa es la clasificación ordinal”, argumenta el joven investigador.
La IA podría ayudar a mejorar las listas de espera
PREGUNTA (P). La máquina analiza las fotografías.
RESPUESTA (R). Las analiza y aprende de ellas. El entrenamiento de un modelo se ajusta a partir de los datos que le vamos dando.
P. Las máquinas aprenden.
R. Sí. Podemos decir que aprenden. Es un proceso que permite que el modelo se ajuste.
P. Las máquinas antes no aprendían y aprender es una cualidad humana. Estamos ante un salto civilizacional.
R. Exactamente. Digamos que es una nueva forma de funcionar las máquinas. Antes lo que hacíamos era programarlas específicamente para que hicieran lo que tú quisieras. Ahora no. Ahora, por ejemplo, cuando usamos ChatGPT, cada respuesta que nos da no está específicamente programada para decirnos lo que nos tiene que decir. Esas respuestas se basan en el entrenamiento que ese modelo ha recibido antes. Y, a partir de los datos que ha recibido, es capaz de darnos respuestas a preguntas que no se le tienen por qué haber hecho antes.
P. En AYRNA estáis focalizando todo este conocimiento en la detección de enfermedades.
R. Yo estoy más centrado en la parte teórica. Lo que es clasificación ordinal y desarrollo de nuevas metodologías. Es cierto que una de las aplicaciones más relevantes es la medicina.
P. Y tenéis contacto con hospitales y centros de investigación médica.
R. Hemos tenido colaboraciones con el hospital Reina Sofía y con el IMIBIC, que nos ha proporcionado imágenes para poder trabajar y aplicar esos modelos.
P. ¿Esos modelos ya se están aplicando realmente en medicina?
R. Hasta donde yo sé, aquí en España al menos, no se han empezado a aplicar por las complicaciones que puedan tener desde el punto de vista médico. Pero ya se han probado y se ha visto que tienen buen rendimiento.
Clasificación ordinal. Quédense con este sintagma. Es la expresión clave que está a punto de precipitar un salto cualitativo en la aplicación de la inteligencia artificial a la medicina. La capacidad de estrechar significativamente el margen de error en el diagnóstico de una enfermedad. Pongamos por caso, un cáncer de mama. Como los miles de cribados que han convulsionado la sanidad andaluza en las últimas semanas. De tal forma que una máquina identifique lo más precisamente posible si estamos ante un caso sano, leve o grave. Un avance que en el futuro no lejano podría salvar vidas humanas.
Pero vayamos al principio de todo. Con no más de siete u ocho años, Víctor Manuel Vargas (Pozoblanco, 1996) ya estaba sentado frente a un ordenador. No mucho más tarde empezó a conocer los secretos de la programación informática. Tenía un referente inmejorable en su propia casa. Su padre ya programaba, aunque no profesionalmente, y guió su aprendizaje desde muy pronto. Su primera computadora estaba dotada de un procesador Pentium 3. Un carromato comparado con los bólidos que hoy ofrece el mercado de la alta tecnología.
Con ese bagaje, tenía todas las papeletas para matricularse en el Grado de Informática de la Universidad de Córdoba, primero, y el Máster de Inteligencia Artificial, años después. Desde 2018 forma parte del grupo de investigación AYRNA y es profesor sustituto en Rabanales. Y aquí, junto a otro puñado de jóvenes investigadores, desarrolla técnicas de soft computing, redes neuronales artificiales profundas y algoritmos evolutivos. Ahí es nada.
Hoy las máquinas ya aprenden
P. En 1996, cuando usted nació, internet aún no había despegado. Hoy, tres décadas después, la inteligencia artificial es capaz de redactar un TFM en cuestión de minutos. Menudo salto.
R. La verdad es que sí.
P. ¿Para qué ha venido la inteligencia artificial?
R. Yo creo que ha venido para mejorarnos la vida. Es una herramienta que nos va a permitir facilitar bastantes aspectos de nuestra vida diaria. Ahora ya con la aparición de los modelos de lenguaje como ChatGPT lo estamos viendo de forma más clara porque son modelos que están muy al alcance del usuario. Cualquiera puede utilizar ChatGPT. Es tan sencillo como si estuvieses preguntándole a un experto. Tú le preguntas y él te responde en lenguaje natural.
Pero no es el único tipo de inteligencia artificial que tenemos. Por ejemplo, los modelos en los que yo trabajo de clasificación ordinal, si lo aplicamos en el ámbito médico, un especialista puede tener un apoyo a las decisiones que tome. Puede ver una radiografía y decir: “Vale, está en estado moderado”. Si aparte tiene un modelo que le está diciendo lo mismo, le va a dar más seguridad de que no se está equivocando. Si el modelo te dice algo diferente, pues ya habrá que ver si le preguntamos a un tercer experto.
P. ¿Cómo es capaz de pensar tan rápido una máquina como esta?
R. Por la mejora que estamos experimentando en cuanto al hardware y la potencia de ordenadores. Si estamos hablando, por ejemplo, de ChatGPT se trata de montones de servidores que están funcionando al mismo tiempo para dar respuestas con rapidez. Y como es un negocio rentable las empresas están invirtiendo mucho en que sus servidores sean muy rápidos.
P. Van a una velocidad de vértigo. En prácticamente dos segundos ya tienes la respuesta.
R. Sí. En ese aspecto nunca vamos a a superar a la máquina. En la capacidad de leerse un documento a esa velocidad no vamos a superarla nunca.
P. Si piensa como un humano, razona como un humano y organiza datos como un humano, ¿es humano?
R. Lógicamente no. Y, de hecho, hay casos en los que se ve claramente que se equivoca en cuestiones que un humano nunca se equivocaría. Por ejemplo, imagine una adivinanza. Para nosotros puede resultar bastante sencillo ver cuál es la respuesta, pero un modelo como ChatGPT puede ser incapaz de dar una contestación coherente en ese tipo de preguntas. No son humanos, pero muchas de las respuestas que nos dan pueden parecerlo.
P. Algunas veces se inventan información.
R. Sí. Ese es uno de los grandes problemas que le veo a este tipo de modelos. Y es que son siempre muy positivos. Si tú los guías por un camino, él te va a decir: “Muy bien, esto es correcto”. Digamos que le cuesta llevarte la contraria. Cuando no sabe algo es muy raro que te diga “no sé”. De hecho, nunca te dice “no sé”. Y ante la duda lo que hace es inventárselo.
En rapidez de respuesta nunca vamos a superar a las máquinas
P. Inventarse algo es tremendamente humano.
R. La verdad es que sí.
P. O sea, la inteligencia artificial quiere quedar bien con nosotros.
R. Simplemente que la forma en la que está implementado ese tipo de modelos tratan siempre de buscar la mejor solución posible a lo que tú le estás preguntando. Si no tiene la respuesta buena, pues te va a dar algo que a lo mejor pueda parecer bueno, aunque en realidad, se lo está inventando.
P. Pero a una máquina se le puede también enseñar a decir “no sé”.
R. No le puedo decir mucho en cuanto a cómo de fácil sería hacer eso en este tipo de modelos. No he trabajado con modelos de lenguaje y no sé exactamente cuál sería la forma de decirle que cuando no está seguro diga simplemente “no lo sé”. Supongo que se podrá hacer, pero, claro, ahí entiendo que entra también el interés que tenga la empresa. Porque Open AI [propietaria de ChatGPT] no deja de ser una empresa que busca su propio beneficio. Para ellos, tener un modelo que siempre te responde, aunque tengas que averiguar si lo que te está diciendo es verdad o no, quizás les interesa más a tener un modelo que, de vez en cuando, te diga “no lo sé” o “no te puedo responder a eso”. Porque, en este caso, lógicamente te daría sensación de que el modelo sabe menos.
P. O sea, que la inteligencia artificial es un poco soberbia y nunca te va a mostrar su flanco débil.
R. Tal como está ahora mismo ese tipo de modelos, quizás no. Y estamos limitando a lo que son modelos de lenguaje. Hay otro tipo de modelos, como los que yo trabajo, que te dan una probabilidad de pertenencia. Tú vas a saber si esa probabilidad es muy alta o muy baja. Pero los modelos de lenguaje no le dan al usuario ninguna probabilidad de nada. Simplemente le dan una respuesta. Y sí: es verdad que parece que saben de todo.
P. ¿La inteligencia artificial es lo más cerca que hemos estado nunca del futuro?
R. Es una pregunta un poco complicada de responder. Porque, realmente, ¿a qué llamamos el futuro?
P. A lo que hemos imaginado siempre que era el futuro. Por ejemplo, que las máquinas tuvieran inteligencia.
R. Entonces podríamos decir que sí. Ha habido un avance muy grande en los últimos años.
P. ¿Y la inteligencia artificial ha venido para ayudarnos o para sustituirnos?
R. Yo pienso que para ayudarnos. Es como debe ser. La inteligencia artificial siempre debe de estar al servicio de las personas y ser una herramienta para ayudarnos a decidir o para facilitarnos tareas como, por ejemplo, buscar información, que es el uso de ChatGPT. Antes buscábamos en Google y ahora es mucho más rápido preguntarle a ChatGPT. Al fin y al cabo, vas a tener información que hay en toda la web.
No son humanas, pero muchas de sus respuestas parecen de humanos
P. Los modelos de lenguaje buscan su información en internet.
R. Los modelos de lenguaje no son muy transparentes, pero se presupone que cogen todo lo que pueden de internet.
P. Una máquina que sea más veloz, más inteligente, más eficaz, más exacta y más perfecta que el cerebro humano, ¿no es una amenaza para el ser humano?
R. No creo que tenga que ser así. Al final y al cabo son máquinas. El ser humano siempre puede desenchufarla y entonces ya no hay inteligencia artificial ni hay máquina. Con lo que sí tenemos que tener cuidado es con el uso que nosotros le demos. Como cualquier herramienta poderosa se puede usar para fines buenos o para fines malos. Somos las personas las que le vamos a dar uso. Si, por ejemplo, utilizamos la inteligencia artificial para clonar voces o para suplantar a una persona, pues lógicamente es algo que está mal. Y somos las personas las que estamos haciendo un mal uso de esa inteligencia artificial. La inteligencia artificial por sí sola no es más que un servidor que está preparado para que nos responda a lo que queramos. Y nos va a responder.
P. Puede amenazar nuestros puestos de trabajo.
R. Tal como está hoy en día la cosa, no lo creo. Son herramientas que están para ayudarnos a decidir o para ayudarnos a trabajar. Siempre debe de haber una persona que esté utilizando esa inteligencia artificial y nunca dejarla de manera autónoma. Imagínese, por ejemplo, que ahora decimos: “Vale, en el periódico los artículos los va a escribir directamente la inteligencia artificial sin supervisión de nadie”. Podría salir cualquier cosa. Yo creo que debe ser una herramienta más.
P. Es usted Premio de Investigación Sociedad Científica de España 2025. ¿Cuántos núcleos tiene su procesador cerebral?
R. [Se ríe abiertamente] Es una pregunta que no me había planteado antes. No lo sé. Supongo que tendrá varios núcleos. Por lo menos tendrá un procesador Pentium 4.
P. ¿Cómo se enseña a un algoritmo a cometer menos errores en el diagnóstico médico?
R. Todos los modelos intentan que cometan menos errores, pero con los modelos de clasificación ordinal en lo que nos centramos es en reducir el coste de los errores que se cometan. Reducir los errores al cero por ciento es muy complicado. Pero sí que intentamos que, si se comete un error, no tenga mucho peso en la vida real. Por ejemplo, si nos equivocamos al clasificar a un paciente sano, que lo clasifiquemos como leve y no como grave. En eso se centran los modelos de clasificación ordinal: en reducir la distancia entre la categoría que se ha predicho y la que sería la correcta.
P. En el futuro, ¿la inteligencia artificial acabará con los errores médicos?
R. A día de hoy no se va a acabar por completo con los errores médicos. Siempre puede haber fallos. Los modelos se entrenan a partir de datos. Esos datos previamente han sido etiquetados por médicos, los cuales en muchos casos acertarán, pero también pueden cometer algún error. En el momento en que tengamos errores en los datos, es fácil que el modelo también aprenda esos errores. Y luego tenemos también la limitación de la cantidad de datos disponibles. Si la cantidad de datos que usamos para entrenar no es suficientemente amplia, el modelo va a tener ciertos vacíos en determinadas zonas en las que no es capaz de dar una predicción acertada. Evitar los errores por completo en los próximos años no creo que sea algo que se consiga, pero, si seguimos avanzando, a lo mejor se puede perfeccionar aún más.
No creo que la inteligencia artificial amenace nuestros puestos de trabajo
P. ¿Y acabará con las listas de espera?
R. No sabría decirle. Si la inteligencia artificial ayuda a que los diagnósticos o los resultados de una prueba se obtengan de manera más rápida, podría ayudar. Ahora bien: hasta el punto de acabar con las listas de espera, la verdad es que no lo sé.
P. ¿Y el escándalo de los cribados del cáncer de mama en Andalucía hubiera sido evitable con la inteligencia artificial?
R. Igual que se ha podido equivocar al realizarlo una persona, también se podría haber equivocado la inteligencia artificial. Los cribados de cáncer no deberían ser algo que se deba hacer de manera completamente automatizada mediante inteligencia artificial. Todo debería utilizarse como una ayuda a la decisión. A lo mejor se podía haber mejorado, pero no me voy a aventurar a decir que se habría evitado por completo porque no lo sé.
P. ¿Y en el futuro todos los pacientes preferirán ser examinados por una máquina inteligente antes que por un doctor?
R. No lo creo. Yo pienso que preferirán una combinación de ambas cosas. Que el doctor te examine y luego, si tienes como refuerzo la opinión de la inteligencia artificial, pues es algo que te va a venir bien. Porque el médico te va a decir cuál es su diagnóstico y, si resulta que además está apoyado por la inteligencia artificial, al paciente le va a dar más seguridad. Pero no creo que los pacientes quieran ser solamente examinados por la inteligencia artificial.
P. La diferencia hoy entre un médico y una máquina inteligente es que la máquina inteligente carece de empatía y de comprensión moral. ¿Es solo cuestión de tiempo?
R. No lo sé. La empatía sería algo más relacionado con estos modelos de lenguaje que con modelos de clasificación como los que yo trabajo. Como no he trabajado en ese campo, no sé si podrán llegar a tener moral o empatía.
P. La propia inteligencia artificial dice que la inteligencia artificial está aportando una “transformación radical” en el ámbito de la medicina. ¿Debemos creerle?
R. La información real que tenemos está en los diferentes artículos científicos e investigaciones que se están haciendo. Y es cierto que hay algunos modelos que se están aplicando. No incluyo los que yo he utilizado. Yo creo que, por el momento, está transformando la medicina parcialmente, pero tampoco se puede decir que la esté revolucionando.
P. ¿La inteligencia artificial está colonizando su vida científica? ¿La usa a diario?
R. Sí. Por ejemplo, herramientas como ChatGPT son muy útiles para perfeccionar textos. Si tú escribes un artículo y quieres mejorar la escritura, eso lo hace muy bien herramientas como ChatGPT. Lógicamente no vas a poner a escribir el artículo al modelo de lenguaje porque la información que tú tienes en tu cabeza no la tienen estas herramientas como para saber explicar lo que tú querías explicar. Pero lo que hacen bien es mejorarte la escritura y la redacción.
A ChatGPT le cuesta llevarte la contraria. Y a veces se inventan la respuesta
P. Usted le da el texto completo y la máquina lo revisa.
R. Exacto. Normalmente no suelo meterle un texto completo. A lo mejor escribo un párrafo y le digo: “Revísame este párrafo por si tiene cualquier error de redacción o hay alguna forma en que se pueda escribir para que se entienda mejor”. Y te lo hace bastante bien.
P. Una sola conversación con inteligencia artificial puede consumir medio litro de agua por cada 10 a 50 respuestas. ¿Tenemos océanos suficientes?
R. La verdad es que el consumo de recursos de esos servidores es algo que nos deberíamos de plantear. Nosotros lo utilizamos como una herramienta desde la web y no sabemos todo lo que hay detrás. Pero es cierto que tiene un consumo de recursos muy elevado. Tenemos mucho agua en el planeta, desde luego, pero es algo que hay que mirar. Hasta qué punto debemos seguir ampliando infraestructuras para este tipo de herramientas teniendo en cuenta el consumo que tienen.
P. ¿Ha visto usted Blade Runner?
R. No.
P. Es una película estadounidense de ciencia ficción, filmada en 1982, en la que unos replicantes casi perfectos hechos por humanos se rebelan contra su creador para exigirle alargar su fecha de caducidad.
R. Pues no la he visto.
P. ¿Mañana la inteligencia artificial se rebelará contra nosotros?
R. No lo creo. Al fin y al cabo, la inteligencia artificial se encuentra dentro de un servidor, que está alimentado por la corriente que le suministramos. Sería tan sencillo como desconectar esos servidores para que esa inteligencia artificial dejara de funcionar.
0