Spazio per la pubblicità

Quando l’AI illumina le decisioni umane: la visione di Andrea Cappelletti CEO di Galene.AI

In questa intervista, Andrea Cappelletti, CEO di Galene.AI, racconta la sua visione di un’intelligenza artificiale privata, sicura e governata, pensata per le aziende europee. Un confronto su AI d’impresa, sovranità digitale, governance e ruolo umano nella trasformazione tecnologica.

Hover Share Button

Quando l’AI illumina le decisioni umane: la visione di Andrea Cappelletti CEO di Galene.AI

In questa intervista, Andrea Cappelletti, CEO di Galene.AI, racconta la sua visione di un’intelligenza artificiale privata, sicura e governata, pensata per le aziende europee. Un confronto su AI d’impresa, sovranità digitale, governance e ruolo umano nella trasformazione tecnologica.

Andrea Cappelletti CEO e co-fondatore di Galene.AI, realtà europea specializzata in soluzioni di intelligenza artificiale privata e governata. Con un background tecnico e una forte attenzione ai temi di sovranità digitale, sicurezza e responsabilità, Andrea, lavora per aiutare le aziende ad integrare l’AI nei processi quotidiani in modo controllato, sostenibile e conforme al contesto normativo europeo. Oggi a Humans of Technology ci condivide la sua visione ed il suo approccio.

Le origini e la visione
Il nome Galene richiama alla mente calma, equilibrio e profondità. Da dove nasce questo nome e cosa rappresenta per voi nel contesto dell’intelligenza artificiale?

Galene, in greco antico, è la “calma del mare”.

L’abbiamo scelta perché è l’immagine giusta di ciò che vogliamo portare nelle aziende: un’AI che non crea onde imprevedibili ma ordine, controllo e fiducia.

In un mercato spesso rumoroso, noi mettiamo governance, sicurezza e trasparenza al centro. Così l’innovazione diventa sostenibile e quotidiana, non un salto nel buio. Questo è il cuore della nostra missione: abilitare la produttività delle persone con un’AI privata e sovrana, nata per i principi europei di privacy e responsabilità.

Qual è la missione di Galene.AI e la visione che vi guida nello sviluppo di una “AI diversa”? Cosa vi ha spinto a intraprendere questa direzione rispetto ai grandi player globali?

La nostra missione è semplice: ridare controllo alle aziende. Oggi troppe organizzazioni, soprattutto quelle che non hanno accesso diretto alla tecnologia, finiscono per appoggiarsi a strumenti che non governano davvero.

Galene.AI nasce per risolvere esattamente questo problema: ti mette in mano una piattaforma interamente proprietaria, pronta per l’uso quotidiano (copilot sicuro, agenti no-code, integrazione con i tuoi dati) e con governance nativa su ogni interazione. Così le persone possono lavorare meglio, dentro regole chiare e verificabili. E soprattutto, con un investimento certo e contenuto: il nostro modello è per GPU, non per utente, niente costi “per seat” o sorprese di consumo, un TCO prevedibile che democratizza l’AI in tutta l’organizzazione.

In sintesi: velocità e semplicità confrontabili con i tool più popolari, ma nel tuo perimetro e sotto il tuo controllo, per passare a un’AI d’impresa, responsabile e sostenibile.

Sovranità, AI Act e “Private Agentic AI”
Private Agentic AI: cosa significa esattamente per te questo concetto e come si inserisce nel nuovo quadro normativo europeo dell’AI Act?

La prima domanda da porsi è: perché “Private”? Perché l’AI, per creare valore senza creare rischi, deve operare in un ambiente chiuso e controllato, dove l’utilizzo della tecnologia è al sicuro, i dati restano nel perimetro aziendale, gli accessi sono governati e le regole dell’organizzazione valgono sempre. È la base per dare fiducia a chi lavora ogni giorno con informazioni sensibili.

“Agentic AI” invece significa andare oltre la semplice risposta a una domanda. Parliamo di applicazioni intelligenti che perseguono obiettivi, mettono insieme fonti diverse, si connettono ai sistemi aziendali (CRM, ERP, ticketing, data lake), eseguono azioni come aprire un ticket, aggiornare un record, generare un report. È l’AI che collabora davvero con i processi, senza forzare le persone a cambiare strumenti o abitudini.

Tutto entro un quadro di responsabilità chiaro: mettendo a disposizione delle organizzazioni gli strumenti necessari per rispondere alle esigenze del quadro normativo europeo. Cifratura, permessi, audit trail e una runtime inspection che filtra in tempo reale input/output, identificando o bloccando contenuti non conformi, in linea con l’AI Act—dai casi inaccettabili ai filtri specifici di settore definiti dall’azienda.

Molte aziende che abbiamo intervistato temono i rischi della shadow AI, cioè l’uso di strumenti IA al di fuori del controllo aziendale. Come risponde Galene.ai a questa sfida di sicurezza e governance dei dati?

Quello che Galene.AI osserva da tempo è stato confermato anche da OpenAI: l’utilizzo della versione gratuita di ChatGPT in contesti professionali è ampio e trasversale. È la prova che l’assistenza intelligente è già entrata nei flussi di lavoro quotidiani e che le persone ne percepiscono il valore in termini di velocità e qualità dei risultati.

Quando però questo uso dell’AI avviene tramite strumenti consumer non governati dall’organizzazione, il rischio diventa concreto: dati sensibili che escono dal perimetro aziendale, assenza di tracciabilità, impossibilità di applicare policy e controlli coerenti con i requisiti di sicurezza e compliance.

Molte aziende pensano che la risposta sia bloccare la tecnologia, ma non è una via percorribile né efficace. Le persone hanno sperimentato un incremento reale di produttività e si aspettano strumenti che le assistano nel lavoro quotidiano; vietare in modo generalizzato alimenta la Shadow AI, spingendo gli utenti verso soluzioni non autorizzate.

Per risolvere il problema bisogna offrire rapidamente strumenti di AI aziendali, pronti all’uso, con un’esperienza d’uso pari a quella dei copilot SaaS globali a cui gli utenti sono già abituati, ma erogati in ambienti sicuri, privati e pienamente governati dall’IT, con regole chiare, permessi, audit e protezioni a livello di dati.

Galene.AI nasce esattamente con questo principio: mette a disposizione out-of-the-box un copilot aziendale e agenti no-code che si connettono in sicurezza ai dati e alle applicazioni esistenti, così le persone lavorano con la stessa semplicità dei tool consumer, mentre l’organizzazione mantiene controllo, tracciabilità e soprattutto proprietà e protezione del dato.

In un contesto regolato come quello europeo, come garantite tracciabilità e compliance nei processi di sviluppo e utilizzo dell’AI?

Nel quadro europeo, partire da un ambiente privato è necessario ma non sufficiente: l’AI Act richiede un percorso di gestione del rischio continuativo, in cui nessun singolo controllo è in grado, da solo, di eliminare la possibilità di un incidente.

Per questo è essenziale adottare una strategia a più strati ispirata allo Swiss cheese model: ogni livello presenta inevitabili imperfezioni, ma la loro combinazione crea una catena di mitigazione capace di ridurre drasticamente sia la probabilità sia la gravità degli eventi. 

Si parte dalla definizione degli scopi leciti e dei limiti d’uso, dalla mappatura dei dati coinvolti e dalla costruzione di un inventario di filtri generici e personalizzati, che guidano la generazione dei contenuti e proteggono da intenti malevoli, come la prompt injection e altre forme di penetrazione. L’obiettivo è fare in modo che la conformità non sia un esercizio ex post, ma una proprietà intrinseca del sistema.

In questa fase, il monitoraggio deve essere impostato correttamente: i dati di utilizzo non vanno esposti indiscriminatamente, ma gestiti con uno schema di permessi adeguato. Solo gli auditor devono disporre di privilegi amministrativi per accedere ai dati d’uso delle applicazioni AI, e ogni loro accesso deve essere tracciato tramite audit trail. 

Seguono poi gli strati di sicurezza relativi alla validazione degli agenti e delle loro applicazioni: i casi d’uso vengono stressati, si verifica la robustezza e la qualità dei dati, si assegnano punteggi di rischio quantitativi che aiutano a priorizzare i controlli e a riallocare i filtri, e il processo prosegue in modo iterativo.

In sintesi, l’idea è semplice: gli incidenti accadono solo quando tutti gli strati falliscono; quando la catena regge, l’impatto finale è mitigato.

Ultimo, ma non meno importante, il controllo umano rimane la linea di difesa e responsabilità conclusiva, in coerenza con i requisiti di risk management e human oversight previsti dall’AI Act.

Architettura e scalabilità
Una AI pubblica scala facilmente nel cloud, ma una AI privata come può farlo? Come riesce Galene.AI a garantire scalabilità senza rinunciare alla sovranità dei dati?

La verità è che l’idea “solo il cloud scala” è superata. L’aumento della densità computazionale e le innovazioni degli ultimi anni hanno reso la potenza necessaria all’AI molto più accessibile anche in ambienti privati e sicuri. Questo cambia le regole del gioco: puoi crescere senza rinunciare al controllo dei dati.

Il nostro approccio parte dall’adozione, non dall’hardware. Con Galene.AI licenzi la capacità (la GPU), non le persone: non devi scegliere a chi dare la tecnologia, puoi metterla in mano a tutti e governarne l’uso. Parti con la capacità giusta per il carico atteso, osservi come gli utenti la impiegano, e quando l’utilizzo cresce aumenti la potenza: aggiungi nuove GPU o valorizzi quelle esistenti. Il modello di costo resta preciso e prevedibile, adatto alle diverse realtà, e ti permette di scalare in modo progressivo e sostenibile, mantenendo i dati sempre nel tuo perimetro.

Allo stesso tempo, favoriamo una crescita “dal basso” che diventa standard aziendale. Le persone iniziano a sperimentare con un copilot sicuro e agenti no-code; gli utenti più innovativi creano soluzioni reali ai problemi di tutti i giorni. Quando un agente dimostra valore, l’admin lo “industrializza”: aggiunge i connettori ai dati e alle applicazioni aziendali, imposta permessi e policy, attiva il monitoraggio. Quell’agente diventa un tool d’impresa, condiviso tra reparti e sedi. Così la scala non è solo tecnica, è organizzativa: dall’idea del singolo al servizio usato da migliaia di colleghi.

Il risultato è un’AI scalabile senza compromessi: cresci quando serve, con costi chiari, mantenendo sovranità e sicurezza. Stessa velocità dei tool più popolari, ma nel tuo ambiente privato, sotto le tue regole — e con la libertà di estendere l’AI a tutta l’organizzazione, in modo misurabile, responsabile e duraturo.

Come gestite gli aggiornamenti ed il training dei modelli se tutto resta all’interno dell’ambiente privato del cliente? E in che modo piattaforme come MCP o SDK compatibili con Claude o ChatGPT si integrano con Galene senza compromettere la privacy dei dati?

Galene.AI ha da sempre creduto nel potere dell’Open Source. Aggiorniamo la piattaforma con rilasci che includono i migliori modelli open-source selezionati, testati e “hardening” per l’uso d’impresa, così portiamo valore senza dipendenze da servizi esterni e senza traffico “in uscita” non governato. I dati del cliente non vengono mai usati per addestrare modelli pubblici: l’input e l’output restano di sua esclusiva proprietà.

Quanto alle integrazioni, abbassiamo la soglia d’ingresso senza alzare i rischi. Mettiamo a disposizione un SDK con API compatibili con OpenAI: chi ha sviluppato su Claude o ChatGPT può migrare rapidamente le proprie soluzioni dentro l’ambiente privato Galene, mantenendo la stessa ergonomia di sviluppo. In più, supportiamo MCP (Model Context Protocol) per estendere gli agenti a qualunque applicazione proprietaria: l’IT può pubblicare server MCP interni che espongono connettori verso CRM, ERP o sistemi legacy, il tutto sotto policy e logging aziendali.

Il fattore umano nell’intelligenza artificiale
In un mondo sempre più automatizzato, quanto conta per voi mantenere l’essenza umana dietro ogni decisione strategica supportata dall’intelligenza artificiale? Come integrate questo fattore nella visione e nello sviluppo delle vostre soluzioni?

Per me la tecnologia vale quando illumina le scelte umane, non quando le oscura. Per questo mettiamo la trasparenza al centro: chi usa l’AI deve vedere con chiarezza da dove arrivano le informazioni, quali passaggi logici hanno portato a una risposta e quali effetti può generare una certa azione. In pratica, interagisci in linguaggio naturale e ottieni non solo il risultato, ma anche una spiegazione comprensibile: fonti consultate, collegamenti fatti, ipotesi considerate e alternative possibili.

La persona resta al comando perché ha visibilità in tempo reale su ciò che l’AI sta facendo: può ispezionare i passaggi, approfondire i dettagli quando serve, validare o correggere prima di procedere. Questo rende il lavoro più veloce e consapevole: decisioni basate sui dati, ma verificabili, spiegabili e sempre attribuite a chi decide. L’AI diventa così un amplificatore di giudizio: chi lavora capisce, controlla e si fida e proprio per questo può prendersi la responsabilità del risultato.

Futuro e prospettiva
Guardando al futuro, come vedi l’evoluzione del mercato europeo dell’AI verso una maggiore sovranità tecnologica? E quale ruolo pensi che avranno etica e responsabilità nello sviluppo di un’intelligenza artificiale “europea”?

Condivido un punto chiave emerso anche da Dell Technologies: l’AI seguirà i dati, non il contrario. Il futuro sarà decentrato, a bassa latenza ed efficiente, con l’intelligenza che si sposta lì dove i dati vivono — fabbriche, ospedali, pubbliche amministrazioni. Non sorprende che, secondo analisi diffuse nel settore, fino al 75% delle imprese preveda di tenere i carichi di AI generativa on-premises nei prossimi anni; l’edge-to-cloud diventerà pervasivo come l’elettricità. In Europa questa traiettoria è naturale: abbiamo filiere critiche, dati sensibili e una forte cultura regolatoria.

Etica e responsabilità non sono un freno, sono l’infrastruttura della fiducia: trasparenza delle decisioni, tracciabilità delle azioni, tutela dei dati e dei diritti diventano standard industriali e vantaggio competitivo. L’evoluzione che vedo è un’AI europea vicina ai dati e alle persone, interoperabile, misurabile e rendicontabile: un’AI che abilita produttività e innovazione, ma sempre spiegabile, verificabile e sotto controllo umano. È così che l’Europa può guidare: coniugando sovranità tecnologica e responsabilità, perché il progresso conti davvero per chi lo vive ogni giorno.

Se hai trovato interessante questo articolo,
registrati ora alla nostra newsletter!

Altri articoli

Pink IT, Tech Voices

PINK IT | Intervista a María Díaz (NTT DATA)

Filomena Santoro

Tech Voices

Intervista a Pablo Tomasi di Omdia: Il ruolo dell’analista industriale nell’ecosistema tecnologico

Matteo Grandi

Tech Voices

Intervista a Dragos Vingarzan, CEO di Neat Path Networks

Matteo Grandi

Tech Voices

Seconda parte intervista a Loris Seligardi di Amplifon – Il lato umano della tecnologia

Stefano Guidi

Tech Voices

Intervista a José Luis Plasencia, CIO Spagna

Stefano Guidi

Tech Voices

Intervista a Jesús Sánchez Agudo, Responsabile Business per le PMI in Cisco Spagna

Filomena Santoro

Tech Voices

Intervista a Loris Seligardi, IT Associate Director di Amplifon

Stefano Guidi

Vuoi rimanere sempre
aggiornato sulle nostre?

Spazio per la pubblicità

Panoramica privacy

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.