Los arquetipos del fracaso al usar la IA.
Reina el caos, y nadie tiene muy claro si la Inteligencia Artificial ha venido a ayudar, o a justo lo contrario.
En este vídeo explico parte de nuestras conclusiones analizando las consecuencias de la existencia de la IA, pero desde la perspectiva del fracaso. Unos arquetipos que ayudan a poner algo de orden, y de claridad.
Transcripción del vídeo:
(Transcripción automática literal, recomiendo ver
Estamos en plena burbuja de la IA y esta burbuja no para de crecer. Y bien sabemos que está a punto de explotar, o que va a ir explotando por fases.
Por eso en Museum of Failure Institute nos dedicamos a investigar y analizar el fallo, el fracaso, el error de experiencias anteriores que han cometido empresas o personas. Y, al final, estos análisis van dando forma a una serie de conclusiones o de recomendaciones donde vamos catalogando los errores, los tipos de errores y sus consecuencias.
Por eso, en este vídeo que voy a hacer un poquito más largo de lo habitual, lo que voy a comentar es una serie de arquetipos que hemos creado en torno, en este caso, a la IA y su impacto en la empresa.
Y el primer arquetipo es el que llamamos "la brecha de las expectativas": lo que nos han prometido, versus la realidad. O sea, la IA no está pagando nuestras facturas.
¿Qué ocurre? Nos han invadido de frases del estilo “esta herramienta te va a cambiar la vida”. O “si no te subes a este tren, vas a perder la oportunidad de alcanzar a tu competencia”. Y la realidad es que no está siendo del todo así.
Es decir, las herramientas de inteligencia artificial son muy útiles si son dirigidas por humanos que saben lo que están haciendo, que tienen conocimiento sobre estas herramientas, pero que también, y sobre todo, tienen conocimiento sobre su industria o sobre su rol. Cuanto mejor talento y conocimiento tengas en tu rol profesional, mejor vas a poder desarrollar contenidos utilizando herramientas generativas o de otro tipo.
Luego tenemos el segundo arquetipo y es el de "la erosión de la confianza". Estamos empezando a sentir desconfianza por todo lo que la IA genera, pero es muy interesante distinguir. Hay dos tipos de desconfianza.
Desconfianza por el buen resultado del contenido que se utiliza para estafar o para engañar. Ya los videos son muy parecidos a los videos que se hacen en la realidad con cámaras de video digitales tradicionales.
¿Esto qué quiere decir? Pues una voz clonada, una fotografía está haciendo que empecemos a desconfiar y que lleguemos a un punto muy interesante, incluso que hay una reflexión filosófica importante y es va a haber un momento en el que ya un video real tampoco va a ser creíble. Y entonces, ¿cuál es el siguiente paso? ¿Vamos a tener que quedar cara a cara? Quién sabe.
¿Y esto es un fracaso? Posiblemente no, pero como estamos hablando de aplicaciones IA ese debate para otro momento.
Esta erosión de la confianza, por un lado, va en cuanto al contenido que clona y que estafa. Pero por otro lado, también hay contenidos que parecen reales pero que en verdad son incorrectos. Por ejemplo, si un abogado utiliza jurisprudencia que parece real pero que realmente no existe pero lo aplica en un caso judicial concreto, está cometiendo una auténtica masacre y un daño irreparable.
Y esto también genera desconfianza en el uso de la IA y en el uso de quienes usan la IA.
Y aquí doy paso a un tercer arquetipo y es el de "la contaminación del ecosistema digital". Todo está llenándose de contenido basura, de un contenido no solo generado por IA, sino de un contenido que la IA ha generado previo aprendizaje de otro contenido que generó la IA en su momento previo aprendizaje de otro contenido que generó la IA en su momento. Y a lo mejor en el principio de la cadena había un humano.
Pero ahora no, ahora el humano bueno, pues toma decisiones muy limitadas. La creatividad única, personal, intransferible, cada vez está más neutralizada, incluso los agentes ya no paran de crear más y más y más información, texto visual, código, etcétera.
Esto da lugar a un concepto que lamentablemente no he inventado yo, que se llama enshittification o mierdificación en castellano. Este concepto lo ha inventado el escritor Cory Doctorow y aquí lo que nos viene a decir es que esas aplicaciones que han venido con la promesa de cambiarte la vida, de ser revolucionarias y de conseguir que seas mucho más eficaz o mucho más ágil o mucho más todo, que se meten en tu día a día, incluso que llegan a provocar en ti una adicción en su uso, por ejemplo, ChatGPT o Gemini.
Esas aplicaciones acaban siendo parte fundamental en tu vida, pero su resultado no es del todo valioso. No es tanto como prometían en su momento, pero ya es tarde porque ya tienes el hábito de usarlas, ya tienes el hábito de preguntarles todo, de consultarles todo y de congelar tu cerebro porque tienes ahí un soporte o una ayuda real que te está dando mala calidad y que te está neutralizando como ser humano único y creativo.
Esta enshittification está bastante identificada, la vamos viendo día a día y sería el cierre del tercer arquetipo. Hay más. Iremos comentando más en posteriores videos o artículos, pero en principio esto sería todo, si no, el vídeo se hace muy largo.
Y aquí lo que hay que dejar claro y queremos dejar muy claro que en Museum of Failure Institute es que hay que definir una serie de reglas básicas y la primera de ellas sería la de establecer un filtro humano, un filtro humano que revise, pero que además que quede registro de ese filtrado de quién lo ha hecho, cómo y en qué momento y utilizando qué herramienta.
La IA no debe revisar a la IA o si la IA revisa la IA. Luego tiene que haber un humano validando esa información. Ese filtro humano tiene que estar ahí en base a esas reglas corporativas.
Pero también hay que tener muy en cuenta que el conocimiento, en este caso de la IA, no puede ser general de toda la empresa. Está muy bien tener una introducción de reglas o fundamentos de la inteligencia artificial, pero que cada departamento y cada rol dentro de cada departamento tiene su necesidad propia, tiene su propia casuística y se deben definir la regla de validación, de aprendizaje y de conocimiento en función de cada persona.
Cada persona que tiene toda su experiencia y toda su valía, tanto fuera de las herramientas IA como por supuesto utilizando las herramientas IA.
Y además tenemos que empezar, yo el primero, a dejar de decir IA para todo, puesto que dentro del concepto genérico inteligencia artificial hay multitud de funcionalidades, programas, usos, metodologías, técnicas. No es lo mismo un agente o un bot para un contact center o ventas que un agente que automatice procesos de fabricación de un medicamento. No tiene absolutamente nada que ver, aunque esos fundamentos teóricos sean similares, pero son simplemente similares.
Hay que conocer muy bien y formarse muy bien. Tenemos que evitar, por un lado, la parálisis por el miedo o por "bueno, vamos a esperar cómo evoluciona todo esto," pero también tenemos que evitar ese riesgo excesivo.
Por eso es importante, como decimos siempre, crear entornos de testeo, de prototipado y sobre todo entornos donde con psicología industrial y con mucha psicología del trabajo en equipo. Seamos capaces de aumentar esa flexibilidad entre personas y departamentos para compartir nuestros miedos y nuestros fracasos. Es algo que culturalmente no estamos acostumbrados a llevar a cabo. Pero hay que hacerlo. Hay que decir aquí me voy a equivocar, aquí me he equivocado. Y además dejar claro que eso es igual o más importante dentro del aprendizaje que cualquier otro elemento y nada más.
En Museum of Failure Institute nos dedicamos a trabajar con empresas y con equipos, en esta línea. Conocemos muy bien todas las bases de la IA a un nivel bastante avanzado, pero además, y sobre todo, conocemos muy bien cómo funcionan las mentes y cómo han funcionado las mentes que han ido dando paso a todos estos fracasos históricos o incluso contemporáneos. Aquí estamos para lo que necesitéis y espero que este vídeo sea de utilidad.
