IA per allenare empatia negli studi legali


Gli strumenti di intelligenza artificiale generativa possono simulare conversazioni difficili — con clienti in stato di stress, controparte aggressiva, testimoni reticenti — e offrire all’avvocato un feedback immediato sul proprio stile comunicativo. Questo non sostituisce la supervisione umana, ma abbassa il costo dell’esercizio deliberato. Il rischio concreto è opposto: delegare all’IA la relazione stessa, impoverendo le competenze invece di svilupparle.

Punti chiave

  • L’IA può simulare clienti in difficoltà per allenare l’ascolto attivo e la gestione del conflitto.
  • La delega eccessiva all’IA nel contatto con il cliente espone lo studio a perdita di fiducia e mandate.
  • Il Codice Deontologico Forense impone un rapporto personale e diligente con il cliente, non delegabile a sistemi automatici.

Uno studio legale spende risorse enormi sulla competenza tecnica e quasi nulla sulla competenza relazionale. Eppure la maggior parte delle lamentele disciplinari — e dei clienti persi — non riguarda errori giuridici, ma comunicazione carente, empatia assente, gestione sbagliata di un momento di crisi. Gli strumenti di IA generativa aprono uno spazio concreto per colmare questo divario, a costo marginale e in tempi compressi.

Secondo un’analisi pubblicata da Agenda Digitale, l’intelligenza artificiale può simulare risposte empatiche ma non provare empatia. La distinzione tra «empatia artificiale» ed «empatia aumentata» è centrale: l’IA è uno specchio, non un interlocutore. Usarla bene significa allenarsi su di essa, non affidarsi a essa.

Il contesto normativo

L’art. 26 del Codice Deontologico Forense (approvato dal CNF il 31 gennaio 2014, aggiornato) impone all’avvocato di mantenere un rapporto diretto, personale e continuativo con il cliente, assicurandogli le informazioni necessarie e una comunicazione chiara sullo svolgimento del mandato. L’art. 27 specifica l’obbligo di informazione preventiva e di aggiornamento costante. Delegare a un sistema automatico — anche parzialmente — la gestione emotiva del rapporto con il cliente può integrare una violazione di questi obblighi, soprattutto se il cliente non è informato e non ha prestato consenso all’uso di strumenti IA nel rapporto con lo studio. Il Garante Privacy, con le linee guida del 2023 sull’uso dell’IA nei servizi professionali, ha ribadito che il trattamento dei dati personali del cliente attraverso piattaforme IA richiede base giuridica esplicita e informativa adeguata ai sensi dell’art. 13 GDPR (Reg. UE 2016/679).

Cosa cambia per lo studio

  1. Puoi usare chatbot o modelli LLM per simulare colloqui difficili — il cliente che nega l’evidenza, il familiare in lutto, la controparte arrogante — e registrare le tue risposte per analizzarle a freddo. Trenta minuti di roleplay settimanale costruiscono riflessi che anni di pratica passiva non danno.
  2. Le piattaforme di formazione continua obbligatoria (art. 11 L. 247/2012) iniziano a includere moduli su soft skills e comunicazione. Verificare se il proprio ordine locale riconosce crediti formativi per corsi sull’uso professionale dell’IA riduce il costo-opportunità dell’aggiornamento.
  3. Nei colloqui ad alto contenuto emotivo — separazioni, eredità contestate, licenziamenti — l’IA può preparare l’avvocato alla seduta, non sostituirlo durante essa. Usarla per anticipare le domande più probabili del cliente abbassa l’ansia da prestazione e migliora la qualità dell’ascolto reale.
  4. In uno studio strutturato, l’IA può analizzare le trascrizioni anonimizzate delle riunioni interne e segnalare pattern comunicativi ricorrenti — interruzioni, linguaggio passivo-aggressivo, squilibri nella distribuzione della parola. Questo richiede però un protocollo interno scritto e consenso dei partecipanti.
  5. Formare i collaboratori junior attraverso simulazioni IA riduce il tempo del socio senior dedicato al tutoraggio ripetitivo, concentrando il mentoring sui casi reali ad alta complessità.

Attenzione a

Il rischio principale non è tecnico, è comportamentale: l’avvocato che usa l’IA per rispondere alle email emotive del cliente — invece di allenarsi a farlo meglio in prima persona — costruisce una dipendenza che impoverisce esattamente la competenza che vorrebbe sviluppare. Il cliente percepisce la differenza tra una risposta generata e una scritta, e la fiducia si erode in modo silenzioso ma irreversibile.

Secondo rilevante, trasmettere a piattaforme IA conversazioni o dati identificativi del cliente senza informativa e senza contratto di responsabile del trattamento con il fornitore del servizio espone lo studio a sanzioni amministrative fino a 20 milioni di euro o al 4% del fatturato annuo globale ai sensi dell’art. 83 par. 5 GDPR. Prima di integrare qualsiasi strumento IA nel flusso di lavoro del cliente, serve una due diligence documentata sul fornitore.

Domande frequenti

Un avvocato può usare ChatGPT per rispondere ai clienti senza violare la deontologia?

Usare un LLM per bozze interne è ammesso, ma inviare al cliente risposte generate dall’IA senza revisione personale rischia di violare l’art. 26 del Codice Deontologico Forense, che impone un rapporto diretto e personale. Serve sempre la supervisione del professionista e, se i dati del cliente vengono trattati dallo strumento, una base giuridica conforme al GDPR.

I corsi sull’uso dell’IA danno crediti formativi per l’aggiornamento obbligatorio forense?

Dipende dall’ordine territoriale. L’art. 11 della L. 247/2012 prevede l’obbligo di 20 ore annue di formazione continua. Alcuni COA riconoscono già crediti per corsi su tecnologia giuridica e soft skills digitali. Conviene verificare sul portale del proprio ordine o presentare richiesta di accreditamento per corsi specifici.

Quali rischi privacy ci sono se uso un’app IA per simulare colloqui con dati reali del cliente?

Inserire dati identificativi reali del cliente in una piattaforma IA di terze parti costituisce un trasferimento di dati personali. Serve base giuridica ex art. 6 GDPR, informativa al cliente ex art. 13, e un Data Processing Agreement con il fornitore. In assenza, il trattamento è illecito e sanzionabile fino al 4% del fatturato globale annuo ex art. 83 par. 5 GDPR.

Fonte di riferimento: AgendaDigitale