Storia del chatbot diventato razzista e complottista interagendo su Twitter e della sua sorella più piccola politicamente corretta
Il profilo Twitter di Tay, chatbot di Microsoft chiuso nel 2016 perché diventato razzista e sessista
Diana Kelley nuota nella infinity pool dello sky park del Marina Bay Sands, Singapore, a cinquantacinque piani sul livello del mare. È un prodigio dell’ingegneria contemporanea: sollevare a tale altezza l’equivalente di tre piscine olimpiche, 192 tonnellate di acciaio, un milione e cinquecentomila litri d’acqua. Da lontano, le tre torri del vasto e lussuoso complesso alberghiero sembrano enormi termitai, ma ora che sta facendo la rana sui loro tetti, Diana ha un senso d’immensità.
Poche ore fa, era nel centro congressi dell’hotel, ritta sul palco di fronte alla folla dei partecipanti alla principale convention sulla cybersecurity della regione Asia-Pacifico. Per conto di Microsoft, in qualità di Cto, ha parlato di Ai e Ml (per i ritardatari che non hanno familiarità con queste abbreviazioni: Chief Technical Officer, Artificial Intelligence, Machine Learning). Ora vuole rilassarsi nell’oblio, regredire fino al celacanto, il pesce che si ri...