Η OpenAI, η εταιρεία πίσω από το Chat GPT, έχει επισημάνει αρκετές φορές τους κινδύνους που μπορεί να προκύψουν από την ανεξέλεγκτη ανάπτυξη της τεχνητής νοημοσύνης. Όπως έγινε γνωστό τις τελευταίες ώρες, η εταιρεία σχηματίζει μια ειδική ομάδα για τη διαχείριση των κινδύνων της υπερ-ευφυούς ΑΙ, δηλαδή ενός υποθετικού μοντέλου που είναι πιο έξυπνο ακόμη και από τον πιο ταλαντούχο άνθρωπο και υπερέχει σε πολλούς τομείς.
Η OpenAI πιστεύει ότι ένα τέτοιο μοντέλο θα μπορούσε να φτάσει πριν από το τέλος της δεκαετίας, γι’ αυτό αποφάσισε να λάβει μέτρα. «Η υπερ-νοημοσύνη θα είναι η πιο επιδραστική τεχνολογία που έχει εφεύρει ποτέ η ανθρωπότητα και θα μπορούσε να μας βοηθήσει να λύσουμε πολλά από τα πιο σημαντικά προβλήματα του κόσμου», αναφέρεται σε σχετική δήλωση. «Αλλά η τεράστια δύναμή της θα μπορούσε επίσης να είναι πολύ επικίνδυνη. Θα μπορούσε να οδηγήσει στην αποδυνάμωση της ανθρωπότητας ή ακόμα και στην εξαφάνιση του ανθρώπου».
Η νέα ομάδα θα καθοδηγείται από τους επιστήμονες της OpenAI Ilya Sutskever και Jan Leike, τη στιγμή που η εταιρεία δήλωσε ότι θα αφιερώσει το 20% της τρέχουσας ασφαλούς υπολογιστικής ισχύος της στην πρωτοβουλία, με στόχο την ανάπτυξη ενός ερευνητή αυτοματοποιημένης ευθυγράμμισης. Ένα τέτοιο σύστημα θα βοηθούσε θεωρητικά την OpenAI να διασφαλίσει ότι μια υπερ-νοημοσύνη είναι ασφαλής για χρήση και ευθυγραμμισμένη με τις ανθρώπινες αξίες.
Διαβάστε επίσης:
“Κλείδωσε” το Unpacked της Samsung! Στις 26 Ιουλίου η αποκαλυψη των νέων foldables