Fernando Thompson de la Rosa
Compañías tecnológicas y redes sociales te han traído, con la inteligencia artificial, un cambio significativo en la forma de vivir y trabajar; pero no está exento de riesgos. La privacidad de la información, la pérdida de empleos y la falta de habilidad digital son desafíos que debemos abordar con urgencia.
En México, la falta de regulación, la brecha educativa y la baja conciencia de la mayoría de la gente se suma al impacto de la IA, que afecta positiva y negativamente a gran porcentaje de población.
A los expertos nos toca la responsabilidad de llamar la atención de la sociedad para asegurarnos de que se utilice de manera ética y responsable, protegiendo tanto nuestra privacidad como nuestras oportunidades laborales en el proceso.
El futuro de la inteligencia artificial en nuestra sociedad dependerá de las decisiones que tomemos o no hoy.
Con un enfoque consciente y colaborativo, podemos crear un entorno donde la innovación tecnológica y el bienestar social coexistan armónicamente.
La clave está en educar, regular y empoderar a la población para que seamos agentes activos en este nuevo paradigma. Sólo así aprovecharemos al máximo las ventajas, mientras mitigamos los riesgos.
La inteligencia artificial ha revolucionado el panorama tecnológico de manera impresionante en las últimas décadas.
Desde algoritmos de recomendación hasta asistentes virtuales, esta informática se ha integrado a la vida diaria.
Transforma la manera en que consumimos información y cómo interactuamos entre nosotros.
Este avance trae consigo desafíos y riesgos que requieren una reflexión profunda, porque habrá impactos en el mercado laboral por falta de habilidades digitales en la fuerza de trabajo actual.
Y también está en juego la privacidad.
Hay dos categorías principales de inteligencia artificial:
1. Débil: sistemas diseñados para realizar tareas específicas, como chatbots y asistentes virtuales de los celulares.
2. Fuerte: sistemas capaces de entender, aprender y aplicar inteligencia a tareas de manera similar a un ser humano. Este tipo aún está en desarrollo y es objeto de debate ético y filosófico.
Compañías tecnológicas y redes sociales han adoptado ambos tipos. Por ejemplo las recomendaciones personalizadas de Meta/Face, Netflix y Spotify, usan algoritmos de inteligencia artificial para ofrecer contenido personalizado: conocen a la perfección nuestros gustos y de la familia; se usa para aumentar la satisfacción del cliente, pero puede manipular las preferencias.
También empresas como Google, Microsoft, Amazon la usan para analizar grandes volúmenes de datos y extraer patrones; así, optimizan su publicidad y mejoran la experiencia del usuario.
Redes sociales como WhatsApp, TikTok, Twitter y Facebook la emplean para identificar y eliminar contenido ofensivo o perjudicial, a fin de mantener un entorno seguro, aunque controvertido.
En dispositivos personales y caseros, vía Siri, Alexa y Google Assistant, la IA almacena cada día comportamiento y preferencias del usuario.
Conforme vayamos automatizando automóviles y casas, habrá más información almacenada y ahí aparece un peligro asociado la recolección masiva de datos personales.
Estas empresas recopilan información sobre nuestros hábitos de navegación, ejercicio y compra; con ello alimentan sus algoritmos.
Se plantean preocupaciones: las personas otorgan su consentimiento para acceder a la IA sin comprender las implicaciones; es decir, casi nadie lee los términos y condiciones que suelen ser largos y complicados.
Así, permite acciones sin conocer el uso real de los datos.
Las violaciones de seguridad han aumentado en frecuencia y sofisticación y se roban datos para defraudar, suplantar identidad o hacer manipulación política.
Toda la información se utiliza, en teoría, para crear perfiles detallados de los usuarios, pero puede dar lugar a la discriminación en publicidad, por ejemplo, donde ciertos grupos pueden ser excluidos o incluidos con base en características personales.
La falta de transparencia del uso de datos y de los algoritmos es otro problema importante. Los usuarios no siempre saben qué información se recopila ni cómo se aplica; se genera desconfianza y sensación de vulnerabilidad.
La peor parte vendrá con la automatización impulsada por la IA, porque muchas tareas que antes requerían intervención humana ahora son realizadas por sistemas de este tipo y millones de empleos estarán en riesgo.

En la planta de Audi en Puebla, la robótica y la automatización han reducido la necesidad de mano de obra humana.
Se perderán plazas en tareas repetitivas, pero habrá nuevas que requieren habilidad especializada en IA y tecnología.
El desplazamiento de trabajadores podría exacerbar la desigualdad económica, con brecha por habilidades digitales.
La velocidad a la que evoluciona la tecnología supera la capacidad de adaptación humana. Se requiere educación y capacitación, empezando con profesores,pues muy pocas escuelas ofrecen esta formación. Esto deja a gran parte de la población en desventaja.
La capacitación a trabajadores desplazados es fundamental, pero el reentrenamiento suele ser limitado e inequitativo.
La regulación es esencial para proteger la privacidad de usuarios y asegurar que las empresas sean responsables.
Algunas posibles estrategias incluyen:
Implementar o copiar leyes más estrictas sobre recopilación y uso de datos personales, similar al Reglamento General de Protección de Datos (GDPR) en Europa.
Exigir a empresas tecnológicas expliquen el uso de datos y algoritmos, para que los usuarios comprendan su entorno digital; que crear programas que incentiven a las empresas a invertir en la capacitación para sus empleados.
Que las escuelas adapten currícula y enseñen habilidades y éticas en IA.
Campañas para educar a la población sobre los riesgos y la privacidad, derechos como usuarios.
Empresas y expertos debemos colaborar con instituciones que preparen a los estudiantes para el trabajo futuro.
Tenemos que actuar cuanto antes y dar a la acción la prioridad que amerita.