Business Tech
Τεχνητή νοημοσύνη: Τι ανησυχεί τους επιστήμονες που την δημιούργησαν
Θα μπορούσε σύντομα να είναι πέρα ​​από τον έλεγχό μας, λένε οι άνθρωποι που θεμελίωσαν τον κλάδο
Τεχνητή νοημοσύνη: Τι ανησυχεί τους επιστήμονες που την δημιούργησαν

Η τεχνητή νοημοσύνη μπορεί να επαινείται από τους κατασκευαστές της, αλλά υπάρχουν φωνές κορυφαίων επιστημόνων του κλάδου που κρούουν τον κώδωνα του κινδύνου για την αλόγιστη χρήση της, και οι φωνές αυτές πληθαίνουν. Προτρέπουν τις παγκόσμιες κυβερνήσεις να συνεργαστούν για να ρυθμίσουν την τεχνολογία πριν να είναι πολύ αργά.

Τρεις νικητές του βραβείου Turing, που είναι βασικά το Νόμπελ Επιστήμης Υπολογιστών, που βοήθησαν στην έρευνα και ανάπτυξη της τεχνητής νοημοσύνης, ενώθηκαν με δώδεκα κορυφαίους επιστήμονες από όλο τον κόσμο υπογράφοντας μια ανοιχτή επιστολή που ζητούσε τη δημιουργία καλύτερων διασφαλίσεων για την προώθηση της τεχνητής νοημοσύνης, αναφέρει το Fortune.

Οι επιστήμονες ισχυρίστηκαν ότι καθώς η τεχνολογία τεχνητής νοημοσύνης εξελίσσεται γρήγορα, οποιοδήποτε λάθος ή κακή χρήση θα μπορούσε να έχει σοβαρές συνέπειες για το ανθρώπινο είδος. «Η απώλεια του ανθρώπινου ελέγχου ή η κακόβουλη χρήση αυτών των συστημάτων τεχνητής νοημοσύνης θα μπορούσε να οδηγήσει σε καταστροφικά αποτελέσματα για όλη την ανθρωπότητα», έγραψαν οι επιστήμονες στην επιστολή. Προειδοποίησαν επίσης ότι με τον γρήγορο ρυθμό ανάπτυξης της τεχνητής νοημοσύνης, αυτά τα «καταστροφικά αποτελέσματα» θα μπορούσαν να έρθουν οποτεδήποτε. 

Κυβερνητικά όργανα ασφάλειας τεχνητής νοημοσύνης

Οι κυβερνήσεις πρέπει να συνεργαστούν σχετικά με τις προφυλάξεις για την ασφάλεια της τεχνητής νοημοσύνης. Ορισμένες από τις ιδέες των επιστημόνων περιλάμβαναν την ενθάρρυνση των χωρών να αναπτύξουν συγκεκριμένες αρχές τεχνητής νοημοσύνης που να ανταποκρίνονται σε «συμβάντα» και κινδύνους τεχνητής νοημοσύνης εντός των συνόρων τους. Αυτές οι αρχές θα ήταν ιδανικά να συνεργάζονται μεταξύ τους και, μακροπρόθεσμα, θα πρέπει να δημιουργηθεί ένας νέος διεθνής οργανισμός για να αποτρέψει την ανάπτυξη μοντέλων τεχνητής νοημοσύνης που ενέχουν κινδύνους για τον κόσμο.

«Αυτό το όργανο θα διασφάλιζε ότι τα κράτη υιοθετούν και εφαρμόζουν ένα ελάχιστο σύνολο αποτελεσματικών μέτρων ετοιμότητας για την ασφάλεια, συμπεριλαμβανομένης της καταχώρισης μοντέλων, της διαφάνειας και των ασφαλιστικών δικλείδων», ανέφερε η επιστολή. 

Υποσχέσεις προγραμματιστών για
την ασφάλεια της τεχνητής νοημοσύνης

Μια άλλη ιδέα είναι να απαιτηθεί από τους προγραμματιστές να είναι έχουν ως σκοπό την εγγύηση της ασφάλειας των μοντέλων τους, υποσχόμενοι ότι δεν θα περάσουν τις κόκκινες γραμμές. Οι προγραμματιστές θα ορκιστούν να μην δημιουργήσουν AI, «που μπορεί αυτόνομα να αναπαράγει, να βελτιώσει, να αναζητήσει δύναμη ή να εξαπατήσει τους δημιουργούς τους, ή εκείνες που επιτρέπουν την κατασκευή όπλων μαζικής καταστροφής και τη διεξαγωγή κυβερνοεπιθέσεων», όπως αναφέρθηκε σε δήλωση κορυφαίων επιστημόνων κατά τη διάρκεια συνάντησης στο Πεκίνο πέρυσι, αναφέρει το Fortune. 

Ανεξάρτητοι έλεγχοι έρευνας και τεχνολογίας στο AI

Μια άλλη πρόταση είναι η δημιουργία μιας σειράς παγκόσμιων κεφαλαίων για την ασφάλεια και την επαλήθευση της τεχνητής νοημοσύνης, που χρηματοδοτούνται από κυβερνήσεις, ΜΚΟ και εταιρείες που θα χρηματοδοτούν ανεξάρτητη έρευνα για να βοηθήσουν στην ανάπτυξη καλύτερων τεχνολογικών ελέγχων για την τεχνητή νοημοσύνη.

Μεταξύ των ειδικών που παρακαλούσαν τις κυβερνήσεις να δράσουν για την ασφάλεια της τεχνητής νοημοσύνης ήταν τρεις νικητές του βραβείου Turing, συμπεριλαμβανομένου του Άντριου Γιάο, του μέντορα μερικών από τους πιο επιτυχημένους επιχειρηματίες τεχνολογίας της Κίνας, ο Γιόσουα Μπένγκιο, ένας από τους πιο δημοφιλείς επιστήμονες υπολογιστών στον κόσμο, και ο Τζέφρι Χίντον, ο οποίος δίδαξε τον συνιδρυτή και πρώην επικεφαλή επιστήμονα του OpenAI Ίλια Σουτσκέβερ και ο οποίος πέρασε μια δεκαετία δουλεύοντας στη μηχανική μάθηση στην Google. 

Συνεργασία και ηθική τεχνητής νοημοσύνης

Στην επιστολή, οι επιστήμονες επαίνεσαν την ήδη υπάρχουσα διεθνή συνεργασία για την τεχνητή νοημοσύνη, όπως μια συνάντηση τον Μάιο μεταξύ ηγετών από τις ΗΠΑ και την Κίνα στη Γενεύη για να συζητήσουν τους κινδύνους της τεχνητής νοημοσύνης. Ωστόσο, είπαν ότι χρειάζεται περισσότερη συνεργασία.

Η ανάπτυξη της τεχνητής νοημοσύνης θα πρέπει να συνοδεύεται από ηθικούς κανόνες για τους μηχανικούς, παρόμοιους με αυτούς που ισχύουν για τους γιατρούς ή τους δικηγόρους, υποστηρίζουν οι επιστήμονες. Οι κυβερνήσεις θα πρέπει να θεωρούν την τεχνητή νοημοσύνη λιγότερο ως μια συναρπαστική νέα τεχνολογία και περισσότερο ως ένα παγκόσμιο δημόσιο αγαθό.

«Συλλογικά, πρέπει να προετοιμαστούμε για να αποτρέψουμε τους συνακόλουθους καταστροφικούς κινδύνους που θα μπορούσαν να φτάσουν ανά πάσα στιγμή», ανέφερε η επιστολή.