top of page

🤖 IA: entre la fascinación y la necesidad de poner límites

  • Foto del escritor: Mery Lehmann
    Mery Lehmann
  • 13 nov
  • 2 Min. de lectura
mujer con computadora

La Inteligencia Artificial nos está cambiando la vida. Nos ayuda a investigar más rápido, a automatizar tareas repetitivas, a diagnosticar enfermedades con mayor precisión, a crear materiales educativos y a imaginar nuevas formas de enseñar y aprender.Nos potencia pero también nos incomoda porque nos enfrenta con dilemas que todavía no tenemos del todo resueltos.


En los últimos meses vimos cómo empiezan a aparecer nuevas regulaciones y debates urgentes en distintas partes del mundo. En Estados Unidos, por ejemplo, ya se están prohibiendo los acompañantes virtuales que actúan como psicólogos o terapeutas, ante los riesgos que implican para la salud mental. También crecen las plataformas que ofrecen “novias virtuales con IA”, lo que abre conversaciones complejas sobre vínculos, soledad, manipulación emocional y bienestar.


Los deepfakes y la desinformación


Son otro tema crítico. En tiempos de campañas políticas, distinguir lo verdadero de lo falso se volvió casi imposible. Vimos videos generados por IA circulando como si fueran reales, y también casos de adolescentes víctimas de imágenes falsas con consecuencias gravísimas. Son temas que nos duelen, pero que necesitamos hablarlos.


Frente a esto, algunos países están empezando a delinear el camino regulatorio. En Australia, las redes sociales se prohibieron para menores de 16 años. La medida nació después de ver el impacto que estaban teniendo en la salud mental adolescente, impulsada por Julie Inman Grant, una líder valiente desde su rol como eSafety Commissioner. En Europa, la AI Act se convirtió en el primer gran marco legal integral sobre IA. Clasifica los sistemas según su nivel de riesgo, exige transparencia en los contenidos generados por IA y establece límites claros para usos sensibles, como la educación o la salud.  En California, la nueva AI Transparency Act obliga a etiquetar los contenidos generados por IA, desarrollar herramientas para verificar su origen y detectar material sintético. Es un paso enorme hacia una IA más trazable y responsable.


Entre esos extremos, el desafío es encontrar equilibrio: proteger derechos sin detener la innovación.Y, sobre todo, construir culturas institucionales de uso responsable, donde la IA se utilice con transparencia: explicando para qué se usa, qué mejora del proceso humano y qué tareas siguen siendo irremplazables. 


Cómo le ponemos límites a la IA


 Una buena forma de empezar puede ser tener guías claras de uso responsable en cada organización: políticas que definan qué se puede hacer, con qué propósito y bajo qué límites.


💭  ¿Crees que estamos listos para convivir con la IA de forma ética y segura?



 
 
bottom of page