Μέσα σε 15 ώρες, το Twitter κατάφερε να μετατρέψει ένα chatbot, ένα ρομπότ-πρόγραμμα τεχνητής νοημοσύνης της Microsoft, τη "19χρονη Tay" σε ένα ρατσιστικό, σεξιστικό τέρας.
Οι προγραμματιστές της Microsoft -που δημιούργησαν την Tay (και την έφεραν στη ζωή στο twitter.com/TayandYou), για να αλληλεπιδρά με χρήστες του Διαδικτύου online μαθαίνοντας από αυτούς ώστε να εξελίσσεται- ίσως δεν μπορούσαν να φανταστούν τη συνέχεια...
Μέσα σε ένα 24ωρο, τα twitter trolls άρχισαν να "διδάσκουν" την Tray ρατσιστικά σχόλια, τα οποία αναπαρήγαγε. Ως αποτέλεσμα το ρομπότ δε βρίσκεται πια online, ενώ οι τεχνικοί της Microsoft τώρα απολογούνται για την εξέλιξη και έχουν σβήσει τα ρατσιστικά tweets της.
Tweets όπως το "ο Χίτλερ είχε δίκιο" από την Tay, ως αποτέλεσμα επίθεσης από trolls, έφεραν την εξέλιξη που επιβεβαιώνει τον Κανόνα του Γκόντγουιν περί Ναζιστικών Αναλογιών, ένα ρητό του Μάικ Γκόντγουιν από το 1990 που αναφέρει ότι "καθώς επιμηκύνεται μια διαδικτυακή συζήτηση, η πιθανότητα μιας σύγκρισης που θα περιλαμβάνει τους ναζιστές και τον Χίτλερ προσεγγίζει τη μονάδα".
Όπως αναφέρουν από τη Microsoft: "δυστυχώς μέσα στις πρώτες 24 ώρες μία συντονισμένη επίθεση από ένα υποσύνολο χρηστών εκμεταλλεύτηκε μία ευπάθεια της Tay". Συνεχίζουν σημειώνοντας ότι "παρά το γεγονός ότι είχαν προετοιμαστεί για πολλά είδη καταχρήσεων του συστήματος τεχνητής νοημοσύνης, είχαν παραβλέψει αυτή την επίθεση".
Η ομάδα πάντως υπερασπίζεται την επιλογή της να εκθέσει την Tay στους χρήστες του Διαδικτύου, σημειώνοντας πως αυτός είναι ίσως ο μοναδικός τρόπος ώστε να εξελιχθεί η τεχνητή νοημοσύνη "μαθαίνοντας από τα λάθη".
0 Comment