La inteligencia artificial ya ha cambiado nuestro futuro

La puesta a disposición del público en general de diferentes herramientas basadas en inteligencia artificial en el pasado 2022 ha marcado un antes y un después en la aplicación de una tecnología que traerá consecuencias en muchísimos ámbitos.
<p>Foto: Tara Winstead.</p>

Foto: Tara Winstead.

El hecho de que apenas haya habido noticias relativas a este tema fuera de los círculos tecnológicos es algo bastante chocante si se tiene en cuenta el impacto que esta tecnología ya tiene y va a tener en campos como la educación, el diseño gráfico, la ilustración, o la edición de artículos, audio o vídeo, por citar solo unos pocos ejemplos.

Bajo mi punto de vista, todos los telediarios deberían ir abriendo sus ediciones con noticias sobre los avances en inteligencia artificial (IA) y sus consecuencias, más aún cuando el tema del metaverso se ha quedado un poco en stand by debido a los tropiezos de Meta (ex Facebook) y a la espera de que Apple nos enseñe su particular visión sobre la realidad virtual o aumentada.

Aunque quizá no se ha hecho mucho eco de esta tecnología en los medios generalistas porque simplemente no se quiere alertar a la población de los cambios que están por venir, aunque de nada sirve mirar para otro lado.

Esta revolución que está al caer conllevará una transformación en cómo se llevan a cabo muchas tareas y, por supuesto, se llevará por delante el trabajo de muchos, hará que profesionales tengan que reciclarse para utilizar esas herramientas, y también que otras personas se dediquen a estos tipos de trabajos.

Además, como ya hemos visto en 2022, el uso de la IA traerá múltiples controversias relacionadas con la ética, la propiedad intelectual o los derechos de autor, entre otras.

Vamos a continuación a comentar algunas de estas herramientas basadas en IA e imaginar cómo su uso puede afectar a nuestra manera de hacer cosas.


NOTICIAS RELACIONADAS
El papel de la inteligencia artificial en la lucha contra el cambio climático
Los retos éticos de la inteligencia artificial
En busca de una inteligencia artificial en la que confiar


ChatGPT: el oráculo que (casi) todo lo sabe

Según sus propias palabras cuando se le pregunta, ChatGPT es “un modelo de lenguaje entrenado por la empresa OpenAI, cuya función es generar texto en respuesta a preguntas y comandos dados por los usuarios. Puede responder preguntas sobre una variedad de temas, dar recomendaciones y ayudar con tareas específicas utilizando el lenguaje natural”.

Es decir, podemos decir que ChatGPT es una página web a la que le preguntamos lo que queremos sobre cualquier tema (menos los que tengan que ver con el uso de lenguaje ofensivo o discriminatorio, la difusión de información falsa o la promoción de actividades ilegales) y nos responde con un texto de longitud variable según nuestro antojo.

Entre las cosas que sabe hacer está resumir textos, proporcionar respuestas a preguntas generales, traducir textos o frases de un idioma a otro, redactar correos electrónicos o cartas, organizar citas o eventos, realizar cálculos matemáticos, proporcionar información sobre noticias, programar tareas en varios lenguajes informáticos, generar texto creativo, como historias o poesías, y otras muchas más.

La versión actual de esta herramienta, ChatGPT3, ha sido entrenada con información hasta finales de 2021, por lo que preguntas relativas a periodos posteriores no tienen respuesta. Se espera que la versión 4 sea liberada este año con un entrenamiento mucho más extenso.

Hasta el momento, las respuestas que da la herramienta no pueden, en algunos casos, ser tomadas al pie de la letra en su totalidad y, sobre todo en algunos temas, necesitan de cierta validación posterior de lo que la IA nos da.

Así, se dan casos de problemas matemáticos que no son resueltos correctamente o de invención de textos, noticias y de fuentes de las que supuestamente han salido. Estos patinazos, llamados en la jerga alucinaciones, son cosas que se irán depurando en siguientes versiones de la herramienta.

A dónde nos llevará esta herramienta está aún por ver, pero desde luego será muy lejos y contemplará un negocio muy suculento. Según el Wall Street Journal, OpenAI está en conversaciones para vender las acciones existentes en una oferta pública de adquisición que valoraría la empresa en unos 29.000 millones de dólares.

Esta revolución que está al caer conllevará una transformación en cómo se llevan a cabo muchas tareas y, por supuesto, se llevará por delante el trabajo de muchos.

“Dibújame un elefante al estilo Van Gogh con efecto 3D”

En cuanto a IA que generan imágenes a nuestra orden, existen varias como Midjourney, Stable Diffusion o Dall-E, cada una con sus propias características, pros y contras.

Para que estas IA nos den resultados, debemos darles órdenes a través de los llamados prompts, es decir, con texto natural de cómo queremos que nos dibuje la imagen. Así le podemos decir que la queremos de un estilo u otro (incluso imitando el estilo de autores reconocidos), colores a usar, elementos que debe contener (y no contener), efectos, etc.

Al igual que pasa con ChatGPT, estas IA tienen temas sobre los cuales no pueden dibujar, como son los relacionados con pornografía, pederastia y otros temas escabrosos.

Y también como pasa con el asistente de texto, las imágenes generadas también tienen errores y artefactos varios. Por ejemplo, parece que tienen una asignatura pendiente a la hora de dibujar manos (suelen poner dedos de más) o dentaduras (con dientes también de más).

Pero, aun así, las imágenes generadas (sin entrar a divagar si se pueden considerar arte o no) son en muchas ocasiones de una gran calidad y el tiempo dedicado a obtenerlas es abismalmente inferior a si se tuvieran que dibujar de manera tradicional por un humano.

Cuando falsear la voz de alguien se convierte en algo simple

Hemos hablado hasta ahora de texto e imágenes, y nos quedaría hablar del audio y el video generados por esta tecnología. En el caso de generación de video (entendiéndose pedir un video sobre cualquier cosa a la IA, no la generación de los llamados deep fakes) el tema aún está muy verde y no hay herramientas con resultados dignos, pero si hablamos de audio sí existen herramientas avanzadas.

Un ejemplo de esto último es Vall-E, herramienta propiedad de Microsoft capaz de simular la voz de una persona cuando se le da una muestra de audio de tres segundos, aunque por ahora funciona solo en inglés y no es todavía de acceso público.

Una vez que aprende una voz específica, Vall-E puede sintetizar el audio de esa persona diciendo cualquier cosa y hacerlo de una manera que intenta preservar el tono emocional del hablante.

Según Microsoft, el hecho de que esta IA puede sintetizar el habla manteniendo la identidad del hablante puede conllevar riesgos potenciales en el uso indebido del modelo, como la suplantación de la identificación de la voz o la suplantación de un hablante específico. Para mitigar estos riesgos es posible construir un modelo de detección para discriminar si un clip de audio ha sido sintetizado por Vall-E o no.

Vall-E es capaz de simular la voz de una persona cuando recibe una muestra de audio de tres segundos.

Las consecuencias de todo esto

Como decía al comienzo y, además de los retos generales de la IA (véase: Inteligencia artificial y responsabilidad social corporativa), son diversos los campos en los que se puede aplicar estas herramientas en los que existen controversias.

En el campo de la educación ya se han alzado las primeras voces críticas e incluso se ha prohibido (como si se pudiera poner puertas al campo) el uso de ChatGPT en algunos centros educativos de Nueva York, ya cualquier alumno puede pedir a la IA que le haga un trabajo de cualquier tema, eso sí, arriesgándose a que pueda tener algún error.

Por lo que respecta a la generación automática de imágenes y contenidos, temas como la precariedad que puede generar al sector dedicado hasta ahora a ese trabajo, la pérdida de los derechos de autor o la banalización del arte, son los que más están trayendo cola.

Sobre la autenticidad de los contenidos, aunque se pueda llegar a escanear un texto, imagen, audio o video para saber si ha sido generado artificialmente, saldrán nuevas herramientas para hacerlo más indetectable.

Además, la propia IA podría ayudar a acelerar el desarrollo de otros nuevos modelos al proporcionar una gran cantidad de datos para fines de entrenamiento. También, más y más empresas van a empezar a desarrollar sus propias herramientas o usar las ya existentes para crear otras que hagan otras funciones, de manera que esta tecnología va a multiplicar de manera exponencial sus posibles aplicaciones.

En el caso de la generación de video, el llamado ‘valle inquietante’, o la respuesta negativa por parte de un humano ante una imagen de una persona generada por ordenador, está cada vez más cerca de ser superado, lo cual unido a la posibilidad de falsear el audio nos podrá meter de lleno a la era de los deep fakes, que hasta ahora aún se veían como algo anecdótico y restringido a tipos de video bastante concretos.

Si la carrera entre la IA y su regulación no se iguala rápidamente, en un futuro próximo nos va a costar mucho no solo saber si algo ha sido generado por un humano o no, sino si es real o no.

Aún con toda esta evolución, según los expertos estamos todavía muy lejos, si es que se puede llegar a conseguir, de una inteligencia artificial general que haría que las máquinas sean capaces de razonar, pensar en abstracto y formular y entender el conocimiento.

En cuanto a la regulación de la IA, la tecnología siempre va por delante y la legislación y las normas van por detrás. Así, ante todo esto y las consecuencias generales que puede tener, apenas se ven movimientos por parte de los legisladores.

En la Unión Europea se está planeando una nueva regulación con el fin de frenar los peores daños asociados con la inteligencia artificial, casi siempre relacionados con la protección de la privacidad y de los datos, pero lejos de contemplar todo este nuevo cambio de paradigma.

En otros lugares como China, despreciando por completo la protección de una privacidad inexistente en ese país, se propone que los contenidos generados por IA tengan una marca de agua que los identifique.

En Estados Unidos, el gobierno Biden quiere realizar un ambicioso plan que buscaría replicar el modelo regulatorio europeo.

Sea como fuere, las herramientas, aunque básicas respecto a lo que llegarán a ser, ya están en nuestras manos, y las regulaciones y su aplicación están por llegar.

Si la carrera entre la tecnología y las regulaciones no se iguala rápidamente, nos vamos a encontrar en un futuro próximo en el que nos va a costar mucho no solo saber si algo ha sido generado por un humano o no sino, y más inquietante todavía, si es real o no.

Comentarios