Tecnología

Los riesgos de la inteligencia artificial

La inteligencia artificial (IA) está cada vez más presente en nuestra vida cotidiana y al alcance del usuario final, como por ejemplo, con el uso del Chat GPT. “La creciente presencia de la IA en diferentes ámbitos y sistemas desde la salud hasta la industria -pasando por la vigilancia- ha originado un aumento en el riesgo de ciberataques y pone en peligro la seguridad de la información”, indica Daniel Ionadi, ingeniero y especialista en ciberseguridad de F5 LATAM.

Los sistemas de inteligencia artificial tienen grandes ventajas: pueden automatizar tareas; procesar gran cantidad de datos en poco tiempo; detectar patrones sospechosos y evitar tráfico malicioso, fraudes financieros o filtraciones de datos… hasta puede utilizarse para mejorar la seguridad de los vehículos -teniendo en cuenta el surgimiento de los automóviles autónomos-; sin embargo, también pueden ser vulnerables a los ataques de quienes intentan manipular o engañar el sistema para obtener beneficios propios. “Es necesario considerar estas amenazas en el diseño y desarrollo de los sistemas de IA y establecer medidas de seguridad efectivas para no comprometer datos sensibles”, explica el especialista de F5 y agrega que “los usuarios deben ser conscientes de las amenazas y riesgos que existen en el uso de la IA y deben estar informados sobre cómo proteger sus datos y sistemas de los ataques cibernéticos.

Además de los riesgos cibernéticos, el uso y la aplicación de sistemas de inteligencia artificial despierta preocupaciones éticas. Ionadi describe algunas: “uno de los principales riesgos es el sesgo en los datos utilizados para entrenar los modelos de IA; si los datos de entrenamiento no son representativos de la población en general, los modelos de IA pueden tomar decisiones erróneas que perpetúen la discriminación y la exclusión. Lo que implique consecuencias graves en áreas como la justicia, la salud y el empleo. Además, su uso en la seguridad física plantea inquietudes en torno a la privacidad, las libertades civiles y el posible uso indebido de la tecnología para la vigilancia masiva”.

Pero la responsabilidad de las decisiones equivocadas de un sistema no puede recaer en el mismo sistema; hay un entramado de compromisos conformado por los creadores de los sistemas, los reguladores que supervisan su uso y los usuarios que los aplican. “Es importante establecer un marco legal claro que defina la responsabilidad y proporcione medidas de protección para las personas afectadas por decisiones tomadas por sistemas de IA”, agrega el ingeniero.

Si bien aún es temprano para determinar el impacto real del uso de la IA, no perdamos de vista que el avance tecnológico es irreversible y ocurre a pasos agigantados, por lo tanto, es indispensable estar atentos a su desarrollo y crecimiento puntual.

Periodista.Editora marcelafittipaldi.com.ar. Ex-editora Revista Claudia, Revista Telva España, Diario La Nación, Diario Perfil y revistas femeninas de la editorial

Dejar una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *