La GenAI no está para reemplazarte, sino para colaborarte

Gemini (2026). El tejido dorado del tiempo. [Imagen generada por IA mediante el modelo Gemini 3 Flash]. Google.

La GenAI no está para reemplazarte, sino para colaborarte

                                                                                                                                       Por: Laura Kathering Barba Camacho

El “síndrome de inferioridad” frente al prompt

¿Has sentido alguna pequeña punzada de inseguridad al ver que una máquina redacta un código o un ensayo en 3 segundos que  probablemente te tomaría horas? No estás solo.

Nuestro cerebro tiende a adoptar sesgos donde las expectativas negativas distorsionan la realidad y generan una autolimitación en nuestras actividades cognitivas. La neurociencia ha demostrado que las creencias autolimitantes se refuerzan por neuro plasticidad: pensamientos repetitivos fortalecen vías neuronales en la corteza prefrontal, haciendo creer a nuestro cerebro que son reales hasta volverse automáticos.

En nuestro rendimiento cognitivo, existen dos tipos de expectativas que nos afectan. Por un lado, las positivas (efecto placebo) que mejoran la precisión en las tareas. Por otro, las negativas (efecto nocebo) que reducen nuestro desempeño aun sin evidencia real de ello.

Considerarnos inferiores o incompetentes frente a la IA es un nocebo moderno. Percibir a la Inteligencia Artificial como amenaza activa sesgos de negatividad y nos autolimita. Si comprendemos que la IA es en realidad una herramienta de colaboración, podremos sacar el mayor provecho desde un punto de vista neurológico.

Como creadores de esta herramienta, tenemos las capacidades para adaptarnos y no rendirnos ante percepciones erróneas. La velocidad no es sabiduría. Este fenómeno también influye en cómo los profesionales del Derecho perciben la automatización de la función jurídica

 El espejismo de la máquina: el dato es humano

Es necesario recordar los tres pilares que envuelven a la IA: 1) los datos, que son el combustible; 2) el poder computacional, que es el motor; y 3) el talento humano, que es el cerebro.

A pesar de que vemos el resultado impresionante, podemos estar dejando pasar por alto la intervención humana en todo este proceso. Para levantar una GenAI, esta debe ser impulsada por humanos altamente calificados. Además, un modelo es tan bueno como los datos con los que se entrena.

Uno de los grandes desafíos es que la responsabilidad ética recae completamente en el ser humano. La IA se alimenta de lo que le den. Por tanto, saber reconocer el rol trascendental que tienen los profesionales permite luchar contra niveles de discriminación que pueden ser desproporcionados si alimentamos modelos con sesgos.

 

El uso innovador de la IA 

Éste siempre debe estar entretejido entre:

  1. La dignidad y respeto por la persona detrás de los datos, principio que encuentra respaldo normativo en el EU AI Act (Reglamento 2024/1689), cuyo artículo 9 exige sistemas de gestión de riesgos que protejan los derechos fundamentales de las personas afectadas por sistemas de IA.
  2. La equidad, que implica el acceso y beneficio compartido para todos, en línea con las obligaciones de no discriminación algorítmica que el AI Act impone a los sistemas de IA de alto riesgo (art. 10), exigiendo que los datos de entrenamiento sean representativos y libres de sesgos que perpetúen desigualdades.
  3. La justicia, que aspira a minimizar grandes riesgos y daños que el mundo de por sí ya alberga,  reflejo directo del principio de accountability o responsabilidad algorítmica consagrado en el AI Act (arts. 13 y 14), que obliga a los desarrolladores a garantizar transparencia, trazabilidad y supervisión humana efectiva sobre las decisiones automatizadas.

Nota jurídica: El EU AI Act entró en vigor el 1 de agosto de 2024 y es el primer marco regulatorio vinculante de amplio alcance sobre inteligencia artificial. Aunque aplica directamente en la Unión Europea, sus principios de accountability, transparencia y gestión de riesgos han comenzado a operar como estándar de referencia internacional, incluyendo para organizaciones y desarrolladores fuera del territorio europeo que operen con datos o usuarios europeos.

Sin el activo valiosísimo (el dato, la experiencia, el libro, el arte, el historial de errores) que el ser humano ha insertado durante décadas, la IA sería una cáscara vacía.

Nosotros somos la fuente; ella es el filtro. Al final, el humano siempre tiene la última palabra, y es nuestra responsabilidad adueñarnos de esa verdad.

El problema de la alineación: por qué el juicio humano es insustituible

El problema de alineación supone un riesgo de desvío entre la intención humana (comando) y la ejecución algorítmica (resultado), lo cual plantea retos para la imputación jurídica de responsabilidad.

El ser humano es social por naturaleza, eso es innegable. Pero algo que ha despertado mi interés es que somos capaces de asumir que lo que nos diga una máquina pueda estar alineado con nuestra capacidad de sentir o entender la brújula moral que, sin caer en la obviedad, es inherente al ser humano.

Lo curioso es que en el ranking del artículo titulado “How People Are Really Using Generative AI Now” (Cómo se usa realmente ahora la IA generativa), de Marc Zao-Sanders, publicado en Harvard Business Review el 9 de abril de 2025, el primer lugar del uso que se le da a la GenAI es como terapia o acompañamiento.

Es una pregunta abierta que realizo: ¿debería considerarse algo positivo en el sentido de que el ser humano busca aún ese sentido de proximidad y cercanía? La real preocupación es que debemos saber discernir que una IA busca cumplir un objetivo. Sí, nos permite automatizar tareas, actividades repetitivas o hasta realizar funciones que han facilitado y optimizado el tiempo del ser humano. Pero considero importante no olvidar que las relaciones humanas no pueden ser vistas de tal manera. El ser humano debe adueñarse de la brújula moral de su vida y no dejarla colgada en un prompt, un clic y una respuesta que no es más que un motor de predicción de la siguiente palabra. No hay gratitud, no hay sinceridad ni conciencia.

La IA puede cumplir un objetivo (como “maximizar clics”) pero destruir el valor de marca en el proceso porque no entiende de ética o sensibilidad cultural.

Debemos saber balancear las tareas que le asignamos a la IA y las tareas que nos toca asumir por el simple, y complejo a la vez, hecho de ser humanos. El “fantasma” no está en la máquina. La brújula moral y el propósito siempre deben ser humanos.

El nuevo tablero: habilidades blandas como el nuevo hard skill

Ahora bien, considerando que la GenAI no es más que el presente y el futuro de cómo trabajamos, consumimos, planeamos, organizamos y nos desarrollamos, ¿qué nos queda?

Valorar lo que desapareció con la inmediatez de la IA: el tiempo, la empatía, la comunicación, la atención y la presencia. No buscando rechazar el avance tecnológico ni mucho menos, sino recuperando nuevamente aquellas habilidades innatas del ser humano que hoy por hoy son preciosas y necesariamente deben ser mejor valoradas.

Durante mucho tiempo se consideraron las habilidades blandas como “soft skills”, pero hoy vemos un mundo que avanza a pasos agigantados y que puede en cierto punto perder su brújula. La hiperconectividad nos acerca, pero no debemos caer en la idea de que es una cercanía para nada similar a la que verdaderamente estamos necesitados.

Saber balancear lo que nos conecta como seres humanos con lo que nos permite hacer la vida más sencilla (que es la tecnología) no debería ser contraproducente, sino más bien debería ir de la mano. El reto consiste en vivir plenamente en la realidad física sin disolver nuestra identidad en el entorno digital.

Recordemos que está perfecto usar la IA para asistirnos en aquellas cosas que tomaban mucho tiempo, eran mecánicas y repetitivas. Para formarnos y educarnos. Pero no le dejemos esa parte tan humana que tiene la creatividad, la escucha activa, la presencia, la atención. Eso nos pertenece.

En un mundo donde la IA puede hacer el trabajo repetitivo (y poco a poco el técnico), la creatividad ya no es sólo “dibujar” (que la IA puede), sino conectar puntos imposibles y tener visión. La empatía, la negociación y el pensamiento crítico son las verdaderas ventajas competitivas de 2026.

La IA nos libera de lo mecánico para que seamos “más humanos que nunca”.

 De la competencia a la colaboración

Al final de cuentas, hay que ser lo suficientemente capaz e inteligente de ver la GenAI como una herramienta y no una competencia. De saber dominarla como una tarea que todas las generaciones pueden lograr, así sea en el nivel que sea, pero tomando ownership, sin desmerecer las habilidades que cada persona tiene y, sobre todo, abriéndonos a la oportunidad de seguir ejercitando aquellas otras que, por el momento, una máquina muy difícilmente pueda reemplazar.

En este sentido, tanto la Recomendación de la UNESCO sobre la Ética de la Inteligencia Artificial (2021) como el Reglamento de Inteligencia Artificial de la Unión Europea (AI Act, 2024) establecen principios clave que refuerzan esta perspectiva:

  1. Dignidad humana y supervisión, el AI Act clasifica los sistemas de IA según su nivel de riesgo y exige supervisión humana en aplicaciones de alto riesgo, reconociendo que ciertas decisiones críticas, especialmente aquellas que afectan derechos fundamentales, no pueden delegarse completamente a algoritmos.
  2. Transparencia y explicabilidad, la UNESCO enfatiza el derecho de las personas a comprender cómo los sistemas de IA toman decisiones que les afectan, un principio que se traduce en obligaciones de transparencia para desarrolladores y usuarios empresariales.
  3. Equidad y no discriminación, ambos marcos normativos reconocen que los sistemas de IA pueden perpetuar sesgos existentes si no se entrenan con datos representativos y equilibrados, responsabilizando a quienes diseñan estos modelos de garantizar resultados justos.
  4. Responsabilidad compartida, no basta con crear herramientas poderosas; es necesario que desarrolladores, empresas, gobiernos y usuarios estén dispuestos a asumir corresponsabilidad en el uso ético y legal de la IA. 

 

El desafío jurídico del siglo XXI no radica en sustituir al ser humano por la IA, en realidad se centra en establecer un marco normativo que no se enfoque en frenar la innovación sino en buscar que garantice la dignidad humana, la equidad en el acceso tecnológico y la responsabilidad compartida de una gobernanza digital  entre los ciudadanos, desarrolladores y el Estado.