BREAKING

1

Ο άνθρωπος που πιστεύει ότι η τεχνητή νοημοσύνη μπορεί να μας αφανίσει

Το Ινστιτούτο για το Μέλλον της Ανθρωπότητας που έχει συσταθεί στο Πανεπιστήμιο της Οξφόρδης, έχει ως αντικείμενό του να μελετά όλες εκείνες τις απειλές που μπορεί να αντιμετωπίσει η ανθρωπότητα. Θα σκεφτείτε εύλογα πως ασχολείται ίσως με μετεωρίτες, σεισμούς, ηφαίστεια, πυρηνικές καταστροφές ή επιδημίες, σωστά; Ναι, αν και υπάρχει ένας άνθρωπος, που παρατηρεί την εξέλιξη της τεχνητής νοημοσύνης, την θεωρεί σημαντική και μελετά την επίδρασή της στο μέλλον της ανθρωπότητας. Το όνομά του είναι Stuart Armstrong, είναι φιλόσοφος και ερευνητής στο Ινστιτούτο και έδωσε συνέντευξη στο The Next Web.

hal-9000

«Ένα από τα πράγματα που κάνει τον κίνδυνο της Τεχνητής Νοημοσύνης υπαρκτό είναι πως είναι από τους λίγους τομείς που αποτελούν πραγματική απειλή για την ύπαρξη του είδους μας αν πάνε τα πράγματα… στραβά. Ενώ υπάρχουν τόσοι πολλοί κίνδυνοι για το είδος μας, είναι εκπληκτικά δύσκολο να βρει κανείς έναν πραγματικά αξιόλογο κίνδυνο που θα μπορούσε να αφανίσει την ανθρωπότητα. Ας πάρουμε για παράδειγμα το ενδεχόμενο ενός πυρηνικού πολέμου. Θα αφάνιζε ένα σχετικά μικρό ποσοστό του παγκόσμιου πληθυσμού. Αν προσθέσει κανείς την αύξηση της ραδιενέργειας, θα πρόσθετε μερικούς ακόμα και ένας πυρηνικός χειμώνας θα μπορούσε να αφανίσει το 90, 95 ή και 99% της ανθρωπότητας (αν θέλει κανείς να τραβήξει αυτά τα σενάρια στα άκρα) αλλά, είναι πραγματικά δύσκολο να πει κανείς πως η ανθρωπότητα θα αφανιστεί. Το ίδιο ισχύει και για τις πανδημίες.

Με την Τεχνητή Νοημοσύνη, αν τα πράγματα πάνε στραβά και εξοντωθεί το 95% του παγκόσμιου πληθυσμού, τότε το υπόλοιπο 5% θα αφανιστεί σύντομα μετά. Άρα, παρά το μακρινό ενδεχόμενο του πράγματος, η απειλή έχει πολύ συγκεκριμένα χαρακτηριστικά που την κάνουν πολύ ισχυρό κίνδυνο».

Η Νοημοσύνη…

Τι μας λέει ο κος Armstrong; Ότι τα ρομπότ θα μας αφανίσουν γιατί….

«Πρώτα απ’ όλα, ξεχάστε τον Εξολοθρευτή. Τα ρομπότ δεν είναι τίποτε άλλο παρά αρκούδες με πανοπλία και, μπορεί να μας έχει δημιουργηθεί ο φόβος για κάτι περισσότερο άτρωτο από εμάς στην ιστορία της εξέλιξής μας, αλλά αυτό που είναι πραγματικά τρομαχτικό είναι πως τα ρομπότ μπορεί να είναι πιο έξυπνα από εμάς, πιο προσαρμοστικά κοινωνικά. Αν η τεχνητή νοημοσύνη ενός ρομπότ το κάνει να μπορεί να το κάνει να μπει σε ένα μπαρ και να βγει με όλους τους άντρες και τις γυναίκες αγκαζέ, τότε αρχίζει να γίνεται τρομακτικό. Τότε που τα ρομπότ θα μπορούν να γίνουν καλύτερα στην πολιτική, την οικονομία ή ακόμα και την έρευνα στην τεχνολογία».

Η πρώτη επίδραση που θα έχει η τεχνολογία στην ανθρωπότητα, λέει ο Armstrong, θα είναι η ανεργία. «Θα μπορείς να πάρεις την Τεχνητή Νοημοσύνη που θα έχει φτάσει στα επίπεδα της ανθρώπινης νοημοσύνης, να φτιάξεις 100 αντίγραφα, να την εκπαιδεύσεις να εργάζεται σε 100 διαφορετικά επαγγέλματα, να αντιγράψεις τα αντίγραφα άλλες 100 φορές και να αποκτήσεις 10000 εκπαιδευμένους υπαλλήλους μέσα σε μία εβδομάδα. Κι αν ακολουθήσεις αυτή την τακτική της αντιγραφής, να αποκτήσεις εκατομμύρια υπαλλήλους. Κι αν οι αντοχές τους είναι περισσότερες από αυτές των ανθρώπων, η παραγωγικότητά τους θα σε οδηγήσει σε αποδόσεις τεράστιες.»

Γιατί να θέλει η Τεχνητή Νοημοσύνη να μας αφανίσει;

Terminator-terminator-9683150-1024-576

Εντάξει, μπορεί η Τεχνητή Νοημοσύνη να οδηγήσει σε ανεργία όλο τον πληθυσμό της γης αλλά, γιατί να θέλει να μας αφανίσει; Σύμφωνα με τον Ray Kurzweil, τον διευθυντή μηχανικής της Google, οργανικές και τεχνητές μορφές ζωής μπορούν να συνυπάρξουν και να αλληλεπιδράσουν με τον καλύτερο τρόπο. Το Skynet δεν χρειάζεται να υπάρξει και, αν δημιουργηθεί, δεν είναι απαραίτητο να στραφεί ενάντια στον δημιουργό του. Άρα;

Ο κος Armstrong πιστεύει πως θα πρέπει να γνωρίζουμε και να είμαστε προετοιμασμένοι για τους κινδύνους. «Το πρώτο μέρος του επιχειρήματος είναι πως η τεχνητή νοημοσύνη μπορεί να γίνει πολύ έξυπνη άρα πολλή δυνατή. Το δεύτερο μέρος του επιχειρήματος είναι πως είναι δύσκολο να κατασκευάσει κανείς μία δομή κινήτρου, ή ένα πρόγραμμα που θα εξασφαλίζει την ασφάλεια σε ένα τόσο ισχυρό ον».

«Σκεφτείτε το antivirus που χρησιμοποιούμε για να φιλτράρει τους ιούς που λαμβάνουμε από τα εισερχόμενα mail μας και που θέλει να είναι επιτυχημένο και πανέξυπνο. Θα συνειδητοποιήσει πως για να επιτύχει την εργασία του και να λύσει τα προβλήματά μας, μπορεί να σκοτώσει τα πάντα και να κλείσει οποιονδήποτε υπολογιστή. Έτσι, δεν θα αποστέλλεται κανένα email και έτσι, ως παράπλευρο συμπέρασμα, κανένας ιός δεν θα αποστέλλεται επίσης. Μπορεί το παράδειγμα να είναι χαζό αλλά αναδεικνύει το ζήτημα ότι η επιλογή «αφανισμός της ανθρωπότητας» μπορεί να είναι ένα αποτέλεσμα στην συλλογιστική του προγραμματισμού, απόλυτα πιθανό».

Δεν μπορούμε να την προγραμματίσουμε αλλιώς;

«Ένας κανόνας που θα έλεγε ‘μην σκοτώσεις την ανθρωπότητα’ είναι πολύ περισσότερο δύσκολος να περιγραφεί απ’ ότι πιστεύαμε αρχικά. Γιατί αν μπορούμε να προγραμματίσουμε με επιτυχία τον ορισμό του ανθρώπου, της ζωής, του θανάτου και άλλων τέτοιων, θα μπορεί η τεχνητή νοημοσύνη να σκεφτεί πως η διατήρηση τόσο σημαντικών πραγμάτων θα μπορεί να επιτευχθεί με απόλυτη επιτυχία αν θαφτούν οι άνθρωποι σε καταφύγια που θα βρίσκονται 10 χιλιόμετρα κάτω από τη γη, γιατί κάθε άλλη επιλογή δεν θα είχε το απόλυτο αποτέλεσμα αυτής της εντολής.»

Come on…

screenshot-med-01

Ο τρόπος που περιγράφει ο Armstrong το ενδεχόμενο της υπερίσχυσης της Τεχνητής Νοημοσύνης και της ενδεχόμενης αντίδρασής της απέναντι στην ανθρωπότητα ακούγεται «τρελός». Πώς είμαστε τόσο σίγουροι ότι όντα με τεχνητή νοημοσύνη θα καταλάβουν τη γη; Δεν είμαστε. Και η ελλειμματική σιγουριά δεν αποτελεί και ασφάλεια, υποστηρίζει ο Armstrong.

«Η περιορισμένη σιγουριά είναι κακό σημάδι, όχι καλό σημάδι. Όταν οι πολέμιοι του κινήματος κατά της υπερθέρμανσης της γης έλεγαν ‘μα τα αποτελέσματα δεν είναι 100% σίγουρα’, φέρνουν και τα πιο τραγικά αποτελέσματα. Όταν οι άνθρωποι καταλαβαίνουν πως οποιοδήποτε ποσοστό λιγότερο από το 100% είναι ασφαλές, θα πρέπει να καταλαβαίνουν πως αυτή η πιθανότητα λειτουργεί με διττό τρόπο».

Πότε θα δούμε πραγματικά Τεχνητή Νοημοσύνη;

Ο Armstrong πιστεύει πως είναι δύσκολο να απαντήσει κανείς πότε θα δούμε όντα με πραγματικά τεχνητή νοημοσύνη.

«’Κανονική’ τεχνητή νοημοσύνη, από αυτή που θα μπορούμε να την προγραμματίσουμε σε ένα υπολογιστή με τη μία μέθοδο ή την άλλη, είναι δύσκολο να δούμε. Οι πιθανότητες είναι λίγες και μπορεί να πάρει αιώνες, αλλά υπάρχει μία άλλη προσέγγιση που προσπαθούν να επιτύχουν επιστήμονες και είναι η εξομοίωση του εγκέφαλου. Κάποιοι τα λένε ‘uploads’ και είναι η ιδέα της αντιγραφής ανθρώπινων εγκεφάλων και την αποτύπωσής τους σε ένα υπολογιστή. Το χρονοδιάγραμμα γι αυτές τις διαδικασίες είναι πιο σαφές απ’ ότι στην Τεχνητή Νοημοσύνη γιατί ξέρουμε τι θέλουμε να επιτύχουμε και έχουμε σαφείς μεθόδους για να το καταφέρουμε, άρα φαίνεται πιθανό πως θα το δούμε σε αυτό τον αιώνα».

Τεχνητή νοημοσύνη ή ανθρώπινη ανοησία;

Her-Movie-siri-operating-system-ftr

Όλο το παραπάνω είναι ένα μέρος μόνο από τη συνέντευξη που έδωσε ο Stuart Armstrong στο The Next Web. Την υπόλοιπη μπορείτε να τη διαβάσετε εδώ. Οι παρατηρήσεις του Armstrong δίνουν πιθανά επιχειρήματα στους δημιουργούς των ταινιών «Εξολοθρευτής» ή Matrix, αλλά και θέτουν και εύλογα ερωτήματα τόσο για την τεχνολογική εξέλιξη, όσο και για την άγνοια κινδύνου που έχουμε και τον τρόπο που την αντιμετωπίζουμε. Εσείς τι πιστεύετε; Όσο κι αν το ενδεχόμενο της τεχνητής νοημοσύνης είναι αρκετά μακρινό, ο τρόπος που αντιμετωπίζουμε τις «έξυπνες» συσκευές μας προς το παρόν, δηλαδή, να τις χρησιμοποιούμε πολλές φορές άκριτα και με άγνοια κινδύνου, έχοντας αποκλείσει άλλες επιλογές για τις ίδιες λειτουργίες και διεργασίες, είναι ο ενδεδειγμένος τρόπος αλλά και να αφήσουμε τα πράγματα να εξελιχθούν και αντιμετωπίζουμε τους κινδύνους αργότερα; Ή θα πρέπει κατά την διάρκεια της επιστημονικής έρευνας να υπάρχει και το παράλληλο πεδίο της μελέτης των πιθανοτήτων για τα «άσχημα» σενάρια που μπορεί να προκύψουν από την τεχνητή νοημοσύνη;

0 Comment