Il 16 maggio scorso Sam Altman, CEO di OpenAI, è stato ascoltato dal Senato USA insieme a Gary Marcus (ben noto a chi mi legge) e Christina Montgomery (VP e Chief Privacy and Trust Officer di IBM).

L’audizione è stata preceduta (il 12 aprile) e seguita (il 30 maggio) da due lettere aperte dal tono molto allarmato sugli effetti che l’AI può avere sul destino stesso dell’umanità.

La prima chiedeva una moratoria sulla messa in produzione di strumenti più potenti di GPT-4. Data la vaghezza del presupposto e la non praticabilità della soluzione, diversi firmatari hanno specificato di aver voluto più che altro attirare l’attenzione del legislatore su una questione che presenta novità assolute sia in termini tecnici che giuridici.

La seconda stabilisce forse un nuovo record di laconicità, recitando la sola frase:

Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

Nonostante qualche confusione (per esempio tra AI in senso lato e Large Language Models), i parlamentari si sono fatti trovare meno impreparati di altre volte: durante l’audizione dei “Big Four” del 2020 i rapporti di forza, al di là delle cortesie istituzionali e delle apparenze formali, sembravano nettamente in favore di questi ultimi. I volti su monitor dei quattro CEO (in remoto per via del Covid) sancivano una differenza quasi metafisica tra i due gruppi. Di tutt’altro tenore il rapporto con Altman, presente in aula, visibilmente emozionato e lui per primo promotore di maggiore regolamentazione.