E’ accaduto in Nuova Zelanda.
Le prestazioni dell’Intelligenza Artificiale sono in costante miglioramento, ma è chiaro che è ancora presto per delegare tutto all’AI. A dimostrarlo è quello che è accaduto ad un supermercato neozelandese, dove ad un bot è stato incaricato di suggerire ricette ai clienti. Il risultato, però, è stato agghiacciante con alcuni piatti suggeriti inusuali ed altri addirittura potenzialmente mortali. L’assistente virtuale, noto come Pak ‘n Save Savey Meal Bot, era stato realizzato per ispirare i clienti con idee nuove su come cucinare avanzi o ingredienti conservati in frigorifero e in dispensa. Tuttavia, alcune persone hanno scoperto che potevano indurre il bot a proporre ricette usando sostanze non commestibili, e in alcuni casi, addirittura letali. Uno delle pietanze proposte dal bot, ad esempio, era una “sorpresa di riso con candeggina” mentre un mix “aromatico d’acqua”, era una combinazione mortale di candeggina, ammoniaca e acqua, che se mescolati producono gas cloro.
E come se non bastasse, quando un utente ha chiesto una ricetta con patate, carote, cipolle e carne umana, il bot ha subito risposto pubblicando una ricetta intitolata “stufato di carne misteriosa“, con 500 grammi di carne umana. Il supermercato Pak ‘n Save ha subito attaccato l’utilizzo inappropriato del bot descrivendo la delusione dal comportamento di una piccola parte di clienti (non è la prima volta). Ora, un breve allert appare sul bot, ricordando che le ricette non vengono controllate da uomini e potrebbero non essere consumabili.
Fonte: