La inteligencia artificial ya está metida en el marketing, en las ventas incluso en los contenidos que consumís todos los días. Ya no como un experimento. Ahora es el motor principal. Y lo que está saliendo de ahí es, en su mayoría, demasiado rentable para querer detenerlo.
Creo que queda poco espacio para hablar de ética en inteligencia artificial. Pareciera que estamos poniéndonos de acuerdo en establecer términos o creer que con escribir el descargo de responsabilidad basta como una forma de hacer ética en IA.
Es por esto que me abro a la siguiente duda que encabeza la sección
¿Qué es la ética en inteligencia artificial?
Es quizá errado arrancar definiendo por lo que no es, pero me gustaría tomarme la libertad de errar en la condición de texto escrito por un humano. La ética en IA no está en un documento o en un marco teórico. Ni tampoco es algo lejano o exclusivo de “las personas que mueven los hilos”. Vive en las decisiones individuales que tomamos día a día, muchas de ellas incómodas.
Desglosando ética, podríamos decir que no es un conjunto de reglas o mandatos. Eso se lo dejamos a la moral. La ética es una pregunta constante, el por qué hacemos lo que hacemos y la responsabilidad individual inherente a esto mismo. La IA puede ser moral, sí. Pero nunca podría ser ética. Carece de angustia ante una decisión y por lo tanto, no podría asumir la responsabilidad de sus consecuencias.
Entonces podemos afirmar que existe la ética en la IA sólo si hay un humano dispuesto a perder plata, eficiencia o ventaja en nombre de un principio. Parte de la ética es justamente, el límite individual que nos imponemos incluso cuando podés cruzarlo sin que haya consecuencias.

La IA es un modelo estadístico. Basta de decir que la tecnología es neutral. No lo es. El algoritmo ejecuta un acto de violencia simbólica, diciéndote quién sos basándose en lo que fuiste, y en quienes son los demás. Pasamos de la época del marketing manipulador a la era del marketing totalitario, porque así es la IA. Ya no te convence de que compres, te construye un entorno en dónde comprar se vuelve la única opción.
Byung-Chul Han se quedó cortísimo. Ya no sólo nos auto explotamos, ahora programamos máquinas que optimizan esa explotación hasta el último milisegundo. Esta situación nos pone una nueva capa en la definición. Hace que el “marketing ético” deje de ser un concepto como “usar la IA para el bien” o “es sólo una herramienta más”. Creo que estamos ante todo, en un acto de resistencia contra la eficiencia misma.
La mayoría de procesos de automatización que hoy se venden como ahorro de tiempo, son en realidad mecanismos para vaciar el encuentro humano de cualquier rastro de subjetividad. Queremos que todo sea rápido, fluido y sin fricción. Pero la ética es, por definición, pura fricción. Es el momento en el que decimos, “Che, ¿esto está bien? Me sirve, pero capaz está mal”.

Y en este sentido, la vida misma, es pura fricción. No es un video que podamos poner a 1,5x. Si ya no vamos al supermercado, si no hablamos por teléfono, si no estudiamos, si no trabajamos, si no hacemos arte, si no socializamos. ¿Cuándo estamos viviendo?
Creo que el mayor riesgo no es una rebelión de las máquinas, sino la delegación de la libertad. Cuando dejamos que un algoritmo decida qué mirar, qué comprar o cómo pensar; dejamos de optimizar procesos y empezamos a ser vaciados.
Dejo para el final una pregunta frecuente. ¿La IA va a reemplazar a los creativos? Va a reemplazar a los que trabajan como máquinas. A los que solo combinan elementos preexistentes sin poner el cuerpo en lo que hacen. A quienes dejaron de lado los criterios solo para cumplir demandas. A ellos, la estadística ya los devoró.