Da qualche mese abbiamo cominciato ad usare l’IA in ufficio per svolgere alcuni compiti.
Entusiasmante, senza dubbio: entusiasmante e sorprendente. Comincio a fare qualche domanda e, dopo qualche istante, ecco la risposta: in un buon italiano, in un ottimo inglese, in un russo che “chissà com’è” perché ne conosco giusto qualche parola e, se mi chiedono come sto, so solo rispondere che sto bene o, tuttalpiù, “normalna”, ma non che sto male, e non so certo giudicarlo.
La mettiamo un po’ alla prova e scopriamo che, ogni tanto, con una allarmante frequenza, nelle risposte l’IA ci mette del suo. Non che “inventi” nuove soluzioni a vecchi problemi, ma certe risposte sembrano proprio inventate di sana pianta o condite con particolari non veri.
E vabbé, si sa, il sistema è in fase di sviluppo e, se bisogna controllare i dati che vengono fuori dal sistema informatico “tradizionale”, a maggior ragione lo si deve fare con questi e con maggiore attenzione. In ogni caso si ottiene una indicazione interessante sulla quale si può lavorare.
Di certo ci sono risultati interessanti: se su un documento c’è scritto “POD/POL GENOVA/ALEXANDRIA” e tu le chiedi di indicarti il codice identificativo del porto di sbarco, lei ti risponde “EGALY” quando nessuna di queste parola è scritta nel documento. Sbalorditivo, no?
Allora possiamo integrarla nei nostri “programmi gestionali”? Aspetta un attimo. Ancora, usando le funzioni utente fornite dal sito abbiamo notato che uno dei due sistemi fornisce risposte migliori dell’altro, anzi, con uno puoi ancora giusto fare conversazioni sul tempo mentre l’altro è più “pratico” e utile, per cui ci siamo momentaneamente concentrati sul secondo. Ok, allora proviamo le sue API, il sistema con il quale si interagisce con lei attraverso un altro programma informatico.
Le cose non vanno malissimo, però si devono fare i conti con il fatto che le risposte, pur quasi sempre corrette nei contenuti, sono spesso diverse nella forma per cui non è sempre banale o facilissimo manipolarle. Per ottenere risposte adeguate si deve lavorare su come è descritto il compito da svolgere, una parolina piuttosto che un’altra possono generare una risposta diversa e, anche se la sua descrizione è molto “stringente”, pur lavorando anche sui parametri di “libertà” nella risposta, ci sono spesso delle cose “strane”.
Dato che i sistemi che stiamo provando sono di tipo “semantico”, e che dovrebbero assomigliare ai comportamenti degli esseri umani, mi sembra che qui si stia esagerando un po’: se io dico ad una persona che deve mettere il risultato dell’operazione 2 per 2 in una casellina, la persona ci scrive il risultato 4, e lo fa tutte le volte; al contrario, viene la volta che l’IA semantica ti dà sì il risultato giusto, ma cerca di scrivere la parola “quattro” nella medesima casellina, e si crea un problema invece che risolverlo.
Sembra quasi che per farle superare il test di Turing ovvero, descrivendolo in modo grossolano, rendere indistinguibili le risposte di una macchina da quelle di una persona, la facciano diventare in realtà poco utile. È vero che le persone danno spesso risposte “ad mentula canis”, però a che serve cercare di far assomigliare una macchina ad una persona? Far finta che abbia “libero arbitrio” non significa che lo abbia veramente.
Secondo me dovrebbe rispondere in modo molto definito a domande stringenti e in modo “libero” a domande libere, non che per avere un certo tipo di risultato devo usare una cosa, e per averne un altro ne debba usare un’altra, altrimenti, siamo di nuovo al punto di partenza, non è più un sistema semantico di utilizzo generale poiché nel generale sta anche il particolare.
Abbiamo cominciato ad usarla, abbastanza diffusamente, ma con attenzione. In un po’ più del 10% dei nostri processi automatizzati (che non sono pochissimi) c’è l’utilizzo dell’IA “così com’è” e ora stiamo ragionando su come addestrarne e usarne tre diverse “forme” per le nostre necessità. Come sempre ci vorrà un po’ di tempo perché siamo impegnati su mille fronti.
Alessio Ferretti