La inteligencia artificial (IA), antes una tendencia prometedora, se ha transformado hoy en una realidad fascinante. De acuerdo con estudios de McKinsey, la adopción de la tecnología ha aumentado al 72% en 2024. Aplicada en distintos casos de uso personales, en las compañías e incluso en los gobiernos, la IA, especialmente la IA Generativa (GenAI), debe seguir en rápido ritmo de crecimiento, llegando a agregar billones de dólares en la economía global.
Aunque sus beneficios sean indiscutibles, todavía existen facetas nebulosas. Una encuesta de Deloitte apuntó que muchas organizaciones creen que podrían surgir nuevos problemas debido a la ampliación de los proyectos piloto de IA, las regulaciones poco claras en torno a los datos confidenciales y las dudas sobre el uso de datos externos (por ejemplo, datos de terceros con licencia). De las empresas encuestadas, 55% afirmaron evitar ciertos casos de uso de IA debido a problemas relacionados con los datos, y una proporción igual está trabajando para mejorar la seguridad de sus datos.
La inseguridad digital fue un tema relevante en la edición de 2024 del Foro Económico Mundial que la remarcó como uno de los principales riesgos de la actualidad, detrás de la desinformación y las fake news, los fenómenos meteorológicos extremos y la polarización política. Los líderes que fueron entrevistados mencionaron que las nuevas herramientas y capacidades tecnológicas, como las que proporciona la inteligencia artificial, deberían obstaculizar el camino hacia el cibercrimen a lo largo de esta década.
Prevenir sigue siendo mejor que curar
El desarrollo de la IA conlleva riesgos para las organizaciones si no se implementa de manera adecuada. Sin embargo, una inteligencia artificial diseñada adecuadamente no sólo puede prevenir vulnerabilidades, sino que también puede convertirse en una herramienta altamente efectiva para combatir posibles ataques. Para eso, el primer paso es tener en cuenta que la adopción de la IA requiere etapas.
Cuando se prioriza la protección sobre la detección, con acciones preventivas, las brechas se vuelven mucho más claras y fáciles de controlar. La principal preocupación de las empresas debería centrarse en la seguridad de las infraestructuras. Una plataforma de IA sólida con componentes establecidos contribuye a la innovación, la eficiencia y, en consecuencia, a un entorno más seguro.
Una de las estrategias en ese sentido es la adopción del código abierto, que hoy es uno de los principales impulsores de la inteligencia artificial. El open source ha sido el motor de la innovación durante décadas y, al combinar la experiencia de las comunidades de desarrolladores del mundo con el poder de los algoritmos de IA, descubrimos un potencial extremo para la innovación segura. Las soluciones de código abierto, basadas en la nube híbrida abierta, brindan a las organizaciones la flexibilidad de ejecutar sus aplicaciones y sistemas de IA en cualquier entorno de datos, ya sea en nubes públicas o privadas o en el Edge, garantizando una mayor seguridad.
Más que segura, una IA confiable
A la hora de mitigar riesgos se deben contemplar varios factores. Desde la perspectiva de la transparencia y explicabilidad, los algoritmos deben ser comprensibles. Además, es fundamental garantizar que los sistemas de IA no perpetúen sesgos. Cómo empresa líder en soluciones open source, desde Red Hat promovemos modelos de desarrollo colaborativo y abierto, donde la comunidad puede auditar y mejorar los algoritmos., facilitando el control y la mitigación de sesgos en tiempo real.
Además, estamos comprometidos con la democratización del uso de IA mediante el uso del código abierto y de iniciativas como los Small Language Models, que permiten a más organizaciones aprovechar la IA sin barreras tecnológicas o de costos. Un informe reciente de Databricks mostró que más del 75% de las empresas están eligiendo estos modelos open source más pequeños y personalizados para casos de uso específicos.
Un ejemplo es Red Hat OpenShift AI, que proporciona un entorno flexible para que los científicos, ingenieros y desarrolladores de datos construyan, implementen e integren proyectos de manera más rápida y eficiente. Las plataformas como Red Hat OpenShift AI integran seguridad por diseño, facilitando a las organizaciones en sus formatos de entrenamiento e implementación de modelos de IA con estándares estrictos de protección de datos.
El línea con el futuro
Otra preocupación de las empresas y también de la sociedad en cuanto al uso de la IA a gran escala está relacionada con la sostenibilidad. Según Gartner, la IA está impulsando rápidos aumentos en el consumo de electricidad, por lo que la consultora predice que el 40% de los centros de datos de IA existentes estarán limitados operativamente por la disponibilidad de energía para 2027.
Optimizar el consumo energético de las infraestructuras tecnológicas es esencial para reducir la huella de carbono y mitigar los efectos del cambio climático, contribuyendo para el alcance de las metas de la Agenda 2030, de la Organización de las Naciones Unidas (ONU). Así, proyectos como Kepler y Climatik, impulsados por Red Hat, son fundamentales para una innovación sostenible.
La IA y sus complementos, como la GenAI y el Machine Learning, pueden – y en realidad ya lo están haciendo- revolucionar sectores críticos mediante soluciones innovadoras, como diagnósticos médicos automatizados o análisis de riesgos en la justicia. Junto a otras tecnologías como la computación cuántica, el Internet de las Cosas (IoT), Edge Computing, 5G y 6G, esta tecnología será la base para el desarrollo de ciudades inteligentes, para la descubierta de innovaciones sin precedentes y para escribir un nuevo capítulo de la historia. Pero, aunque todas estas soluciones desempeñen un papel crucial, tenemos siempre que acordarnos que son los talentos quienes las desarrollan, implementan y utilizan estratégicamente, para resolver problemas específicos, alineando tecnología y negocio.
Así, la colaboración es la clave para mitigar riesgos y avanzar de forma más segura rumbo a un futuro sostenible construido sobre las bases de la IA. Una colaboración basada en los principios del código abierto fomenta la transparencia, la cultura abierta y el control comunitario e impulsa un desarrollo tecnológico ético, inclusivo y responsable de la inteligencia artificial en el corto y largo plazo.