ΔΩΜΑΤΙΟ ΠΑΝΙΚΟΥ

Πως η Τεχνητή Νοημοσύνη μπορεί να εξαφανίσει τον άνθρωπο; -Έκθεση του Στέιτ Ντιπάρτμεντ που σοκάρει!

Μια έρευνα που διεξήχθη για λογαριασμό του υπουργείου Εξωτερικών των ΗΠΑ παρουσιάζει μια ανησυχητική ανάλυση των κινδύνων που σχετίζονται με την ταχέως εξελισσόμενη τεχνητή νοημοσύνη.

Τα ευρήματα αποτελούνται από συνεντεύξεις με περισσότερους από 200 ανθρώπους, οι οποίοι καλύπτουν μια ευρεία γκάμα εμπειρογνωμόνων, συμπεριλαμβανομένων στελεχών κορυφαίων εταιρειών τεχνητής νοημοσύνης, ερευνητών στον τομέα της κυβερνοασφάλειας, ειδικών σε θέματα όπλων μαζικής καταστροφής και αξιωματούχων εθνικής ασφάλειας.

Η έκθεση, η οποία δημοσιεύθηκε αυτή την εβδομάδα από την Gladstone AI, δηλώνει ευθέως ότι τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν, στη χειρότερη περίπτωση, «να αποτελέσουν απειλή επιπέδου εξαφάνισης για το ανθρώπινο είδος».

Εκπρόσωπος του αμερικανικού Υπουργείου Εξωτερικών επιβεβαίωσε στο CNN ότι η έρευνα διεξήχθη για λογαριασμό του υπουργείου. Αυτό έγινε καθώς το υπουργείο συνεχώς αναλύει τον τρόπο με τον οποίο η τεχνητή νοημοσύνη ευθυγραμμίζεται με τον στόχο της προστασίας των συμφερόντων των Ηνωμένων Πολιτειών εντός και εκτός των συνόρων τους. Παρ’ όλα αυτά, τονίστηκε ότι η έκθεση δεν αντιπροσωπεύει τις επίσημες θέσεις της αμερικανικής κυβέρνησης.

Η προειδοποίηση που περιλαμβάνει η έκθεση αποτελεί μια ακόμα υπενθύμιση ότι, παρά το ενδιαφέρον των επενδυτών και του κοινού για τις δυνατότητες της τεχνητής νοημοσύνης, υπάρχουν πραγματικοί κίνδυνοι που πρέπει να ληφθούν υπόψη.

Πάνω από ένα όριο δυνατοτήτων, η τεχνητή νοημοσύνη θα μπορούσε να γίνει «ανεξέλεγκτη»

Η τεχνητή νοημοσύνη «θα μπορούσε να μας επιτρέψει να θεραπεύσουμε ασθένειες, να κάνουμε επιστημονικές ανακαλύψεις και να ξεπεράσουμε προκλήσεις που κάποτε θεωρούσαμε ανυπέρβλητες» δήλωσε την Τρίτη στο CNN ο Τζέρεμι Χάρις, διευθύνων σύμβουλος και συνιδρυτής της Gladstone AI.

«Αλλά θα μπορούσε επίσης να επιφέρει σοβαρούς κινδύνους, τους οποίους πρέπει να γνωρίζουμε», δήλωσε ο Χάρις. «Ένας αυξανόμενος όγκος στοιχείων -συμπεριλαμβανομένων εμπειρικών ερευνών και αναλύσεων που δημοσιεύονται στα κορυφαία συνέδρια για την τεχνητή νοημοσύνη στον κόσμο- υποδηλώνει ότι πάνω από ένα ορισμένο όριο δυνατοτήτων η τεχνητή νοημοσύνη θα μπορούσε δυνητικά να γίνει ανεξέλεγκτη», τόνισε.

«Σαφής και επείγουσα ανάγκη» για παρέμβαση, κινδύνους που «θυμίζουν τα πυρηνικά όπλα» εγκυμονεί η ανάπτυξη της τεχνητής νοημοσύνης

Οι ερευνητές προειδοποιούν για δύο βασικούς κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη.

Πρώτον, σύμφωνα με την Gladstone AI, τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν ως όπλα. Δεύτερον, η έκθεση αναφέρει ότι υπάρχουν ανησυχίες εντός των εργαστηρίων τεχνητής νοημοσύνης ότι κάποια στιγμή θα μπορούσαν να «χάσουν τον έλεγχο» των ίδιων των συστημάτων που αναπτύσσουν, με «δυνητικά καταστροφικές συνέπειες για την παγκόσμια ασφάλεια».

«Η άνοδος της τεχνητής νοημοσύνης και της AGI [τεχνητή γενική νοημοσύνη] έχει τη δυνατότητα να αποσταθεροποιήσει την παγκόσμια ασφάλεια με τρόπους που θυμίζουν την ανάπτυξη των πυρηνικών όπλων» ανέφερε η έκθεση, προσθέτοντας ότι υπάρχει ο κίνδυνος μιας «κούρσας εξοπλισμών» της τεχνητής νοημοσύνης, συγκρούσεων και θανατηφόρων ατυχημάτων κλίμακας μαζικής καταστροφής».

Η έκθεση του Gladstone AI ζητά νέα μέτρα για την αντιμετώπιση αυτής της απειλής, συμπεριλαμβανομένης της δημιουργίας ενός νέου οργανισμού τεχνητής νοημοσύνης, της επιβολής ρυθμιστικών εγγυήσεων «έκτακτης ανάγκης» και περιορισμών στην ισχύ των υπολογιστών που μπορούν να χρησιμοποιηθούν για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης.

«Υπάρχει σαφής και επείγουσα ανάγκη παρέμβασης της αμερικανικής κυβέρνησης» αναφέρεται, εν κατακλείδι, στην έκθεση.

Back to top button