Promoción de la IA del futuro: modelos de código abierto con ética y seguridad
SAN JOSÉ, 8 de abril (Elmundo.cr) – La inteligencia artificial (IA) está causando una revolución sin precedentes en diversas industrias, transformando la manera en que funcionan y colaboran las empresas y organizaciones a nivel global. Este fenómeno es impulsado en gran medida por iniciativas como Opensource Models, una comunidad que fomenta el desarrollo colaborativo y la innovación. Además, promueve la transparencia y busca potenciar el crecimiento tecnológico, aspectos que son fundamentales en la actualidad.
A pesar de estos avances, el uso responsable de la inteligencia artificial se presenta como un elemento crucial en el contexto actual. Existen múltiples riesgos asociados con esta tecnología, incluidos los relacionados con la filtración de datos, que han provocado pérdidas millonarias en América Latina. La divulgación de información errónea, por su parte, puede minar la reputación de las empresas que no dan prioridad a la ética y a la integridad de los datos. La necesidad de un marco normativo que rija el uso de IA se hace evidente, así como la importancia de establecer prácticas responsables en su implementación.
Un informe anual conocido como «costo de una filtración» publicado por IBM revela que el costo promedio de una filtración de datos en América Latina para el 2024 se estima en 2.76 millones de dólares estadounidenses. Este tipo de incidentes ha proliferado, generando preocupación en un entorno empresarial cada vez más vulnerable. Desglosando las causas, el informe también señala que los ataques de phishing representan una amenaza significativa, constituyendo el 16% de los incidentes reportados y provocando costos promedios de 2.91 millones de dólares por cada filtración. Este panorama pone en evidencia la urgencia de adoptar medidas proactivas en la protección de datos y la gestión de la seguridad digital.
En Costa Rica, la regulación que rige el uso de la inteligencia artificial debe encontrar un balance entre la protección de los individuos y el fomento de la innovación. En este sentido, la empresa IBM ha subrayado la importancia de establecer reglas claras que impidan el mal uso de esta tecnología sin limitar su desarrollo potencial. Existe un consenso en la comunidad tecnológica sobre la necesidad de avanzar en normativas que regulen el uso de IA de manera ética y responsable.
Este año, los modelos más pequeños de inteligencia artificial (SML) han ganado notoriedad debido a su eficiencia y ahorro de costos. Sin embargo, independientemente de su tamaño o tipo, su implementación debe estar guiada por principios éticos que antepongan la seguridad y la equidad en su uso. Esto implica mitigar la difusión de información errónea, así como garantizar la protección de datos y promover un uso justo y responsable de la inteligencia artificial en todos los sectores.
La confianza y la justicia en la inteligencia artificial no son solo cuestiones técnicas; también reflejan un compromiso hacia el desarrollo social y la sostenibilidad. Aunque la IA tiene el potencial de impulsar la innovación y el crecimiento económico, los resultados dependen de cómo se diseñe, implemente y regule esta tecnología. Solo a través de un enfoque colaborativo y responsable se puede asegurar que los beneficios de la inteligencia artificial sean accesibles para todos, fomentando un futuro en el que la tecnología actúe como un aliado confiable para las empresas en su búsqueda de excelencia y competitividad en el mercado global.
Xavier condega
El mundo CR