AI tra regole e opportunità: il modello Memori per un’intelligenza artificiale al servizio delle persone

  • Postato il 30 luglio 2025
  • Forbes Italia
  • Di Forbes Italia
  • 1 Visualizzazioni

Mentre il Senato si prepara a votare il Ddl AI per armonizzare il quadro normativo italiano con l’AI Act europeo, il tema della regolamentazione dell’intelligenza artificiale entra nel vivo. In questo contesto Memori, azienda italiana specializzata in AI conversazionale e ideatrice della piattaforma Aisuru, si posiziona come esempio di applicazione responsabile e strategica delle tecnologie generative. Supervisione umana, formazione diffusa e contrasto alle “allucinazioni” dei modelli sono al centro di un approccio che punta a coniugare innovazione e compliance. Ne abbiamo parlato con Nunzio Fiore, ceo e fondatore.

Fra pochi giorni il Senato voterà il Ddl AI. L’obiettivo del decreto è allinearsi all’AI Act europeo. La direzione è quella giusta?

La direzione è quella giusta e, anzi, ritengo che il Ddl AI posizioni l’Italia come un laboratorio normativo per l’AI europea. È certamente un testo che introduce complessità e costi di compliance, ma ha un approccio più cauto rispetto all’AI Act europeo e crea anche una struttura che può aumentare la fiducia dei cittadini nell’AI: un prerequisito fondamentale per un’adozione diffusa, soprattutto in contesti dove la percezione pubblica è ancora fragile.

Per un’azienda come Memori, che ha sempre messo l’etica e la trasparenza al centro del proprio modello di business, questa normativa rappresenta un vantaggio competitivo. E ci sono tre aspetti, in particolare, che si allineano perfettamente con la filosofia che adottiamo fin dalla nostra nascita.

Il primo è il principio della supervisione umana. Il Ddl stabilisce che l’AI deve potenziare l’essere umano, non sostituirlo. L’obbligo di mantenere la decisione finale nelle mani di una persona è esattamente ciò che facciamo, ad esempio, con la nostra piattaforma AIsuru, che rende l’AI conversazionale accessibile, sicura e conforme alle disposizioni europee e che consente a imprese e professionisti di creare in autonomia agenti conversazionali, senza bisogno di codice, per supportare gli operatori nello svolgimento di specifiche attività o ruoli aziendali, con una trasparenza completa su quando si sta interagendo con l’intelligenza artificiale. Questo approccio “human-in-the-loop” non è solo una scelta etica, ma è la sola strada per costruire sistemi affidabili, sicuri e realmente accettati dagli utenti finali e dalle aziende.

C’è poi l’obbligo di formazione. Non ha senso sviluppare tecnologie avanzatissime se poi le persone non possiedono le competenze per utilizzarle in modo consapevole e sicuro. L’auspicio dunque è che si prevedano agevolazioni non solo per le imprese, ma che si investa massicciamente nella divulgazione e nella formazione a tutti i livelli, a partire dalle scuole.

Infine, il fondo da 1 miliardo di euro è un investimento significativo, ma, più che la cifra, ciò che è davvero importante è la direzione strategica che traccia: il focus sui “campioni nazionali” e sul trasferimento tecnologico tra università e impresa è la ricetta giusta per creare un ecosistema fertile. Per realtà come la nostra, rappresenta l’opportunità concreta di scalare le nostre soluzioni e contribuire a posizionare l’Italia sulla mappa europea dell’innovazione AI.

Uno dei punti centrali sia del Ddl AI sia dell’AI Act è la necessità di una formazione adeguata sull’intelligenza artificiale. Quali competenze servono a imprese e professionisti per applicare l’AI in azienda in modo efficace e sicuro?

La discussione sulla formazione, centrale sia nell’AI Act europeo che nel DDL italiano, evidenzia come per generare valore reale e farlo in sicurezza servono competenze specifiche in merito all’intelligenza artificiale. La formazione non va vista come un mero costo di compliance, ma come un investimento strategico per democratizzare l’accesso all’AI e ridurre il digital divide.

In Memori abbiamo di fatto anticipato questa esigenza normativa lanciando a inizio 2025 la nostra AIsuru AI Academy, per proporre a professionisti e aziende un percorso formativo concreto, pratico e conforme alle normative europee, che le aiuta non solo a capire davvero il potenziale dell’AI, ma anche a realizzare progetti operativi e personalizzati, capaci di generare valore sin da subito.

Si tratta di un programma formativo focalizzato sull’utilizzo pratico che consente di sviluppare in autonomia agenti conversazionali e implementarli nei processi aziendali. Nei primi cinque mesi di attività, il programma ha coinvolto 50 tra aziende e studi professionali in percorsi formativi multi-azienda o dedicati e portato a sviluppare oltre 200 progetti di agenti AI operativi.

AIsuru AI Academy
Una lezione della AIsuru AI Academy

Il programma delle AIsuru AI Academy è strutturato proprio per accompagnare i partecipanti nell’acquisizione delle competenze per utilizzare in modo consapevole l’intelligenza artificiale generativa all’interno dei contesti aziendali.  Anzitutto, serve comprendere a fondo il funzionamento dei Large language model (LLM), le loro potenzialità applicative e i limiti operativi. Senza questa consapevolezza, il rischio è di fare investimenti sbagliati o di affidarsi a strumenti che non si sanno correttamente gestire. I professionisti devono poi imparare a dialogare con l’AI in modo efficace, ovvero padroneggiare le tecniche più avanzate di Prompt Engineering per interrogare i modelli e ottenere risposte di qualità. Infine, devono imparare a riconoscere e correggere le cosiddette “allucinazioni” dell’AI, ovvero quelle risposte errate ma credibili che i modelli possono generare: in tal modo saranno in grado di non subire la tecnologia ma di governarla.

Gli agenti AI sono soggetti alle cosiddette “allucinazioni”. Come si possono prevenire e come si possono ridurre gli errori dell’AI?

Le “allucinazioni”, ovvero la tendenza dell’AI a inventare risposte in modo credibile, sono il principale ostacolo alla fiducia e all’affidabilità nei confronti di queste tecnologie da parte delle aziende. Per superare questo problema, bisogna anzitutto lavorare sull’addestramento: un agente AI è come una risorsa appena assunta, e la qualità del suo lavoro dipende anche dalla formazione che riceve. Non si può pretendere che un modello linguistico generico, addestrato su tutto internet, conosca i dettagli specifici e verificati di un’azienda. Per questo è fondamentale addestrare l’agente sulla conoscenza aziendale: manuali, procedure, listini, policy, per creare un perimetro di conoscenza sicuro e verificato, ancorando l’AI alla realtà dei fatti e limitando la sua tendenza a “inventare”.

Ma questo da solo non basta. Per minimizzare il rischio di allucinazioni, all’interno della nostra piattaforma AIsuru abbiamo creato una funzionalità che chiamiamo “Pensiero Profondo”, un sistema di memoria a breve e lungo termine che consente agli agenti di ricordare le conversazioni precedenti e migliorare le risposte nel tempo.

Questo li rende strumenti dinamici, in grado di adattarsi progressivamente alle esigenze dell’utente e del contesto in cui operano. Il gestore dell’agente, inoltre, ha accesso a informazioni molto coerenti con i reali interessi degli utenti, perché vengono estratte dalle conversazioni che questi hanno avuto con l’agente, e può utilizzarli per alimentare campagne marketing mirate a specifici segmenti di pubblico. Funzionalità molto utili sia per ottimizzare il funzionamento degli agenti sia per migliorare il proprio servizio.

Si tratta di una ricetta affidabile che mette insieme un addestramento rigoroso su conoscenza verificata. La tecnologia avanzata di Aisuru può offrire a tutti in azienda un modo per gestire quella che viene chiamata “context engineering” (l’evoluzione del prompt engineering) per limitare le allucinazioni e far sì che l’AI diventi sempre più un valore concreto per le aziende.

L’articolo AI tra regole e opportunità: il modello Memori per un’intelligenza artificiale al servizio delle persone è tratto da Forbes Italia.

Autore
Forbes Italia

Potrebbero anche piacerti