Espacio para publi

Cuando la IA ilumina las decisiones humanas: la visión de Andrea Cappelletti, CEO de Galene.AI

En esta entrevista, Andrea Cappelletti, CEO de Galene.AI, comparte su visión de una inteligencia artificial privada, segura y gobernada, diseñada para las empresas europeas. Un análisis sobre IA empresarial, soberanía digital, gobernanza y el papel humano en la transformación tecnológica.

Hover Share Button

Cuando la IA ilumina las decisiones humanas: la visión de Andrea Cappelletti, CEO de Galene.AI

En esta entrevista, Andrea Cappelletti, CEO de Galene.AI, comparte su visión de una inteligencia artificial privada, segura y gobernada, diseñada para las empresas europeas. Un análisis sobre IA empresarial, soberanía digital, gobernanza y el papel humano en la transformación tecnológica.

Andrea Cappelletti  es el CEO y cofundador de Galene.AI, empresa europea especializada en soluciones de inteligencia artificial privada y gobernada. Con un sólido background técnico y un fuerte enfoque en soberanía digital, seguridad y responsabilidad, Andrea, trabaja para ayudar a las empresas a integrar la IA en sus procesos diarios de forma controlada, sostenible y conforme al marco normativo europeo.

1. El nombre Galene evoca calma, equilibrio y profundidad. ¿De dónde nace este nombre y qué representa para vosotros en el contexto de la inteligencia artificial?

Galene, en griego antiguo, significa “la calma del mar”.

La elegimos porque representa exactamente lo que queremos llevar a las empresas: una IA que no genere olas imprevisibles, sino orden, control y confianza.

En un mercado a menudo ruidoso, ponemos la gobernanza, la seguridad y la transparencia en el centro. Así, la innovación se convierte en algo sostenible y cotidiano, no en un salto al vacío. Este es el núcleo de nuestra misión: impulsar la productividad de las personas con una IA privada y soberana, diseñada según los principios europeos de privacidad y responsabilidad.

2. ¿Cuál es la misión de Galene.AI y la visión que os guía en el desarrollo de una “IA diferente”? ¿Qué os llevó a tomar este camino frente a los grandes players globales?

Nuestra misión es sencilla: devolver el control a las empresas. Hoy, demasiadas organizaciones, especialmente aquellas sin acceso directo a la tecnología, acaban apoyándose en herramientas que en realidad no controlan.

Galene.AI nace para resolver exactamente este problema: pone en tus manos una plataforma totalmente propietaria, lista para el uso diario (copilot seguro, agentes no-code, integración con tus datos) y con gobernanza nativa en cada interacción. Así, las personas pueden trabajar mejor, dentro de reglas claras y verificables.

Y, sobre todo, con una inversión cierta y contenida: nuestro modelo es por GPU, no por usuario, sin costes “por asiento” ni sorpresas de consumo. Un TCO predecible que democratiza la inteligencia artificial en toda la organización.

En resumen: velocidad y simplicidad comparables a las herramientas más populares, pero dentro de tu perímetro y bajo tu control, para avanzar hacia una IA empresarial, responsable y sostenible.

Soberanía, AI Act y “Private Agentic AI”

3. Private Agentic AI: ¿qué significa exactamente este concepto para ti y cómo encaja en el nuevo marco normativo europeo del AI Act?

La primera pregunta es: ¿por qué “Private”? Porque la IA, para generar valor sin crear riesgos, debe operar en un entorno cerrado y controlado, donde el uso de la tecnología sea seguro, los datos permanezcan dentro del perímetro de la empresa, los accesos estén gobernados y las reglas de la organización se respeten siempre. Es la base para generar confianza en quienes trabajan a diario con información sensible.

“Agentic AI”, en cambio, significa ir más allá de una simple respuesta a una pregunta. Hablamos de aplicaciones inteligentes que persiguen objetivos, combinan distintas fuentes, se conectan a los sistemas empresariales (CRM, ERP, ticketing, data lake) y ejecutan acciones como abrir un ticket, actualizar un registro o generar un informe. Es una IA que colabora realmente con los procesos, sin obligar a las personas a cambiar de herramientas o hábitos.

Todo ello dentro de un marco claro de responsabilidad, proporcionando a las organizaciones los instrumentos necesarios para cumplir con el marco normativo europeo. Cifrado, permisos, audit trail y una runtime inspection que filtra en tiempo real los inputs y outputs, identificando o bloqueando contenidos no conformes, en línea con el AI Act, desde los casos inaceptables hasta los filtros sectoriales definidos por la propia empresa.

4. Muchas empresas temen los riesgos de la shadow AI, es decir, el uso de herramientas de IA fuera del control corporativo. ¿Cómo responde Galene.AI a este reto de seguridad y gobernanza del dato?

Lo que Galene.AI observa desde hace tiempo ha sido confirmado también por OpenAI: el uso de la versión gratuita de ChatGPT en contextos profesionales es amplio y transversal. Es la prueba de que la asistencia inteligente ya forma parte de los flujos de trabajo diarios y de que las personas perciben su valor en términos de velocidad y calidad.

Sin embargo, cuando este uso se produce a través de herramientas de consumo no gobernadas por la organización, el riesgo es real: datos sensibles que salen del perímetro empresarial, falta de trazabilidad e imposibilidad de aplicar políticas coherentes con los requisitos de seguridad y compliance.

Muchas empresas piensan que la solución es bloquear la tecnología, pero no es un camino viable ni eficaz. Las personas ya han experimentado un aumento real de productividad y esperan herramientas que las ayuden en su trabajo diario; prohibir de forma generalizada solo alimenta la shadow AI, empujando a los usuarios hacia soluciones no autorizadas.

La solución pasa por ofrecer rápidamente herramientas de IA corporativa, listas para usar, con una experiencia de usuario comparable a la de los copilotos SaaS globales, pero desplegadas en entornos seguros, privados y totalmente gobernados por IT, con reglas claras, permisos, auditorías y protección del dato.

Galene.AI nace precisamente con este enfoque: ofrece out-of-the-box un copilot corporativo y agentes no-code que se conectan de forma segura a los datos y aplicaciones existentes, permitiendo a las personas trabajar con la misma sencillez que con herramientas de consumo, mientras la organización mantiene el control, la trazabilidad y la propiedad del dato.

5. En un entorno regulado como el europeo, ¿cómo garantizáis la trazabilidad y el cumplimiento normativo en el desarrollo y uso de la IA?

En el contexto europeo, partir de un entorno privado es necesario, pero no suficiente. El AI Act exige una gestión del riesgo continua, en la que ningún control aislado puede, por sí solo, eliminar la posibilidad de incidentes.

Por ello, es fundamental adoptar una estrategia multicapa inspirada en el Swiss cheese model: cada capa tiene inevitables imperfecciones, pero su combinación crea una cadena de mitigación capaz de reducir drásticamente tanto la probabilidad como el impacto de los eventos.

El proceso comienza con la definición de usos legítimos y límites, el mapeo de los datos implicados y la creación de un inventario de filtros genéricos y personalizados que guían la generación de contenidos y protegen frente a intenciones maliciosas, como la prompt injection. El objetivo es que el cumplimiento no sea un ejercicio ex post, sino una propiedad intrínseca del sistema.

El monitorización debe configurarse correctamente: los datos de uso no deben exponerse de forma indiscriminada, sino gestionarse mediante un esquema adecuado de permisos. Solo los auditores deben contar con privilegios administrativos, y cada acceso debe quedar registrado mediante audit trail.

A esto se suman las capas de seguridad relacionadas con la validación de los agentes y sus aplicaciones: se someten los casos de uso a pruebas de estrés, se evalúa la calidad y robustez de los datos y se asignan puntuaciones de riesgo que ayudan a priorizar controles y reajustar filtros de forma iterativa.

En resumen, los incidentes solo ocurren cuando todas las capas fallan; cuando la cadena se mantiene, el impacto final queda mitigado.

Por último, pero no menos importante, el control humano sigue siendo la última línea de defensa y responsabilidad, en coherencia con los requisitos de risk management y human oversight del AI Act.

Arquitectura y escalabilidad
6. Una IA pública escala fácilmente en la nube, pero ¿cómo lo hace una IA privada? ¿Cómo garantiza Galene.AI la escalabilidad sin renunciar a la soberanía del dato?

La idea de que “solo la nube escala” ha quedado superada. El aumento de la densidad computacional y las innovaciones recientes han hecho que la potencia necesaria para la IA sea mucho más accesible también en entornos privados y seguros. Esto cambia las reglas del juego: puedes crecer sin perder el control del dato.

Nuestro enfoque parte de la adopción, no del hardware. Con Galene.AI se licencia la capacidad (la GPU), no a las personas: no hay que decidir a quién dar acceso, se puede poner la tecnología en manos de todos y gobernar su uso. Se empieza con la capacidad adecuada al volumen esperado, se observa el uso y, cuando crece, se amplía la potencia añadiendo nuevas GPU o aprovechando las existentes.

El modelo de costes es claro y predecible, permite escalar de forma progresiva y sostenible y mantiene los datos siempre dentro del perímetro corporativo.

Al mismo tiempo, fomentamos un crecimiento “desde abajo” que acaba convirtiéndose en estándar empresarial. Las personas empiezan a experimentar con un copilot seguro y agentes no-code; los usuarios más innovadores crean soluciones reales para problemas cotidianos. Cuando un agente demuestra valor, el administrador lo industrializa: conecta datos y aplicaciones, define permisos y políticas, activa la monitorización. Ese agente se convierte en una herramienta corporativa compartida entre equipos y sedes.

El resultado es una IA escalable sin compromisos: crece cuando es necesario, con costes claros, manteniendo soberanía y seguridad. La misma velocidad que las herramientas más populares, pero en tu entorno privado, bajo tus reglas y con la libertad de extender la IA a toda la organización de forma medible, responsable y duradera.

7. ¿Cómo gestionáis las actualizaciones y el entrenamiento de los modelos si todo permanece en el entorno privado del cliente? ¿Y cómo se integran plataformas como MCP o SDK compatibles con Claude o ChatGPT sin comprometer la privacidad?

Galene.AI siempre ha creído en el poder del open source. Actualizamos la plataforma con versiones que incorporan los mejores modelos abiertos, seleccionados, probados y reforzados para uso empresarial, aportando valor sin dependencias externas ni tráfico de salida no controlado. Los datos del cliente nunca se utilizan para entrenar modelos públicos: tanto el input como el output son de su exclusiva propiedad.

En cuanto a las integraciones, reducimos la barrera de entrada sin aumentar el riesgo. Ofrecemos un SDK con APIs compatibles con OpenAI, lo que permite migrar rápidamente soluciones desarrolladas sobre Claude o ChatGPT al entorno privado de Galene, manteniendo la misma experiencia de desarrollo. Además, soportamos MCP (Model Context Protocol) para extender los agentes a cualquier aplicación propietaria, publicando servidores MCP internos que exponen conectores hacia CRM, ERP o sistemas legacy, siempre bajo políticas y logging corporativos.

El factor humano en la inteligencia artificial
8. En un mundo cada vez más automatizado, ¿qué importancia tiene para vosotros mantener la esencia humana detrás de cada decisión estratégica apoyada por la IA?
Para mí, la tecnología tiene valor cuando ilumina las decisiones humanas, no cuando las oscurece. Por eso ponemos la transparencia en el centro: quien utiliza la IA debe poder ver con claridad de dónde proceden las informaciones, qué pasos lógicos han llevado a una respuesta y qué efectos puede generar una acción determinada.

En la práctica, se interactúa en lenguaje natural y se obtiene no solo el resultado, sino también una explicación comprensible: fuentes consultadas, conexiones realizadas, hipótesis consideradas y alternativas posibles.

La persona sigue al mando porque tiene visibilidad en tiempo real de lo que la IA está haciendo: puede inspeccionar los pasos, profundizar cuando sea necesario, validar o corregir antes de avanzar. Esto hace que el trabajo sea más rápido y consciente: decisiones basadas en datos, pero verificables, explicables y siempre atribuibles a quien decide. La IA se convierte así en un amplificador del juicio humano.

Futuro y perspectiva
9. Mirando al futuro, ¿cómo ves la evolución del mercado europeo de la IA hacia una mayor soberanía tecnológica? ¿Qué papel jugarán la ética y la responsabilidad en una IA “europea”?

Comparto un punto clave señalado también por Dell Technologies: la IA seguirá a los datos, no al revés. El futuro será descentralizado, de baja latencia y eficiente, con la inteligencia moviéndose allí donde viven los datos: fábricas, hospitales, administraciones públicas.

No sorprende que, según análisis del sector, hasta el 75 % de las empresas prevea mantener cargas de IA generativa on-premises en los próximos años; el modelo edge-to-cloud será tan omnipresente como la electricidad. En Europa, esta trayectoria es natural: contamos con sectores críticos, datos sensibles y una fuerte cultura regulatoria.

La ética y la responsabilidad no son un freno, sino la infraestructura de la confianza. Transparencia en las decisiones, trazabilidad de las acciones y protección de datos y derechos se convierten en estándares industriales y ventaja competitiva.

La IA europea que imagino está cerca de los datos y de las personas, es interoperable, medible y auditable: una IA que impulsa la productividad y la innovación, pero siempre explicable, verificable y bajo control humano. Así es como Europa puede liderar: combinando soberanía tecnológica y responsabilidad, para que el progreso importe de verdad a quienes lo viven cada día.

Si consideras este artículo interesante,
¡regístrate ahora a nuestra newsletter!

otros artículos

Tech Voices

Entrevista a Pablo Tomasi de Omdia: El papel del analista en el ecosistema tecnológico

Matteo Grandi

Pink IT, Tech Voices

PinkIT | Entrevista a María Díaz, Go To Market Specialist for Digital Workplace and Sustainability at NTT Ltd

Filomena Santoro

Tech Voices

Entrevista a Dragos Vingarzan, Founder de Neat Path Networks

Matteo Grandi

Tech Voices

Segunda parte de la entrevista a Loris Seligardi de Amplifon: El lado humano de la tecnología

Stefano Guidi

Tech Voices

Entrevista a José Luis Plasencia, CIO de Pluxee España

Stefano Guidi

Tech Voices

Entrevista a Jesús Sánchez Agudo, Responsable de negocio PYMES de Cisco España

Filomena Santoro

Tech Voices

Entrevista a Loris Seligardi – IT Associate Director de Amplifon

Stefano Guidi

¿Quieres estar siempre al tanto de las últimas noticias?

Espacio para publi

Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.