L’intelligenza artificiale è un problema per alcuni lavori? Potrebbe diventare un problema anche per un altro aspetto del lavoro di tutti.
Con l’esplosione dei servizi legati all’intelligenza artificiale si stanno creando due opposte correnti di pensiero. Da una parte ci sono gli utenti medi che sono a quanto pare per lo più entusiasti di avere qualcuno che li aiuti a scrivere, a creare immagini o musica e che è in grado di rispondere alle domande anche più sgangherate cui per esempio Google non sembra poter rispondere.
Dall’altra parte però ci sono tutte le maestranze (artistiche ma non solo) che si sentono minacciate dalle potenzialità delle IA come strumenti in grado di sostituire un essere umano sul posto di lavoro.
E come se non bastasse, oltre al pericolo di vedersi rimpiazzare da una intelligenza non umana sul posto di lavoro c’è adesso anche un altro genere di pericolo che si espande ben oltre gli artisti e i maestri della parola che sarebbero i primi rami secchi da tagliare. Un pericolo per tutti i lavoratori.
L’intelligenza artificiale potrebbe davvero essere un rischio
La prospettiva di poter risparmiare su parte del lavoro e avere comunque risultati validi è qualcosa su cui sempre più realtà grandi e piccole hanno iniziato a riflettere. L’intelligenza artificiale può diventare uno strumento utilissimo per liberare tempo ma può anche diventare un vero e proprio incubo se viene utilizzata male. Pensare infatti che qualcuno, chiunque, con l’ausilio dell’intelligenza artificiale possa scrivere anche semplicemente un copy credibile per il lancio di un qualunque prodotto significa affidarsi a un pallottoliere sperando che escano i numeri su cui si è puntato.
Ma questo pericolo per ora non viene preso in considerazione e anzi c’è chi pensa già che l’implementazione dell’intelligenza artificiale potrà portare un domani addirittura a decidere chi viene assunto e chi no. Il rischio però è che i reparti delle risorse umane non tengano conto proprio dei limiti dello strumento cui a quanto pare hanno intenzione di affidarsi. Perché basta fare qualche domanda appena fuori dagli schermi per scoprire che qualunque modello di intelligenza artificiale ha un limite e che alcune volte questo limite si trasforma in risposte che vengono definite in gergo tecnico allucinante.
Che cosa potrebbe accadere quindi se da queste risposte allucinate venisse fuori che uno o più candidati non sono in realtà idonei per una posizione? Chi si metterebbe a controllare se effettivamente i candidati sono stati valutati e risultati non idonei o se la valutazione non è frutto di un errore da parte della macchina? Questa situazione che sembra remota in realtà non lo è ed è una delle questioni su cui occorre porre l’accento per avere normative che quantomeno rimettano all’essere umano la responsabilità di prendere decisioni sul futuro di un altro essere umano.