Τεχνητή νοημοσύνη: Αυτοί είναι οι τρεις μεγάλοι κίνδυνοι σύμφωνα με τους αναλυτές

Κυριακή 25 Ιουνίου 2023


Η τεχνητή νοημοσύνη είναι το ίδιο επικίνδυνη όσο ο πυρηνικός πόλεμος
και οι πανδημίες, τουλάχιστον σύμφωνα με την πρόσφατη ανακοίνωση του Κέντρου για την Ασφάλεια της ΤΝ (CAIS). Την ανακοίνωση προσυπογράφουν μεγάλοι «παίκτες» της βιομηχανίας τεχνητής νοημοσύνης όπως ο επικεφαλής της ΟpenAI, Σαμ Άλτμαν.

Η προειδοποίηση αυτή ακολουθεί άλλες, παρόμοιες εκκλήσεις από πολλούς γνώστες της τεχνολογίας όπως ο Έλον Μασκ και ο συνιδρυτής της Apple, Στιβ Βόζνιακ. Πολλοί εκ των ειδικών υποστηρίζουν πως βαδίζουμε ολοταχώς προς την καταστροφή της ανθρωπότητας, ενώ άλλοι υπογραμμίζουν πως χρειάζεται, επειγόντως, εποπτεία.

Πολλοί από τους ισχυρισμούς αυτούς έχουν περιπλέξει το γενικότερο αφήγημα. Σύμφωνα με τον καθηγητή του Cambridge University, Ντέιβιντ Κρούγκερ, η κοινή γνώμη θέλει να μελετήσει σενάρια όσον αφορά τις πιθανές επιπτώσεις της τεχνητής νοημοσύνης. Παρ’ όλα αυτά, όπως υποστηρίζει ο ίδιος, κανείς δεν μπορεί να προβλέψει με ακρίβεια το τι μέλλει γενέσθαι.


Γι αυτόν το λόγο, το Business Insider παρουσιάζει τα τρία σενάρια για τα οποία ανησυχούν οι ειδικοί:

Απόλυτος έλεγχος

Ένας από τους κυριότερους φόβους της ανθρωπότητας είναι η απώλεια ελέγχου τόσο σε προσωπικό όσο και σε γενικό επίπεδο. Η γενική τεχνητή νοημοσύνη (Artificial general intelligence / AGI) αναφέρεται σε μία τεχνητή νοημοσύνη η οποία είναι πιο έξυπνη και πιο ικανή από την ανθρωπότητα σε μεγάλο εύρος θεμάτων και εκπλήρωσης καθηκόντων, αντίστοιχα.

Τα μοντέρνα συστήματα τεχνητής νοημοσύνης μπορεί να μην είναι είναι γενικά «έξυπνα» αλλά έχουν προγραμματιστεί έτσι ώστε να μιμούνται τους ανθρώπους. Για παράδειγμα το ChatGPT το οποίο αποτελεί προσομοίωση της συνομιλίας με άνθρωπο, σύμφωνα με την Τζάνις Γουόνγκ του The Alan Turing Institute.

Οι ειδικοί δε γνωρίζουν πως ακριβώς πρέπει να χαρακτηρίσουν τη γενική τεχνητή νοημοσύνη αλλά συμφωνούν πως η τεχνολογία παρουσιάζει πολλές απειλές για την ανθρωπότητα και πρέπει να υπάρξει εποπτεία.

Ο Κρούγκερ υπογράμμισε πως το πιο φανερό παράδειγμα των κινδύνων ραγδαίας και ανεξέλεγκτης επέκτασης της ΤΝ είναι ο «αγώνας δρόμου» οπλικών συστημάτων μεταξύ των χωρών.

«Ο ανταγωνισμός για την εξέλιξη των αυτόνομων όπλων τα οποία θα έχουν επιπτώσεις στον πραγματικό κόσμο και θα μπορούσαν να κοστίσουν τις ζωές πολλών ανθρώπων αποτελούν ξεκάθαρο παράδειγμα για τους κινδύνους οι οποίοι ελλοχεύουν στην τεχνητή νοημοσύνη», υποστήριξε ο καθηγητής, προσθέτοντας πως «ένα δυστοπικό σενάριο ολοκληρωτικού πολέμου ο οποίος βασίζεται στην τεχνητή νοημοσύνη σε μία περίοδο στην οποία θα έχουμε προγράμματα και όπλα τα οποία είναι πιο έξυπνα και πιο ικανά από τον άνθρωπο θα μπορούσε να οδηγήσει στην εξαφάνισή μας ως ανθρώπινο είδος».

Μαζική ανεργία

Σύμφωνα με τον ιδρυτή του Montreal AI Ethics Institute, Αμπισέκ Γκούπτα, το δυσμενές σενάριο της πρόκλησης μαζικής ανεργίας αποτελεί «τον κυριότερο και αμεσότερο λόγο για τον οποίο θα πρέπει να ανησυχούμε».

«Πρέπει να μελετήσουμε τις επιπτώσεις της απώλειας των κινήτρων και του γενικότερου σκοπού των ανθρώπων εάν υπάρξουν μαζικές, απότομες απώλειες θέσεων εργασίας», επεσήμανε ο Γκούπτα, προσθέτοντας πως «η υπαρξιακή απειλή για την ανθρωπότητα είναι σημαντική. Δεν υποστηρίζω πως η εργασία είναι το παν, αλλά αποτελεί μεγάλο μέρος της καθημερινότητάς μας».

Οι CEOs, από την πλευρά τους, έχουν αρχίσει να ξεκαθαρίζουν τα πράγματα ήδη. Ο CEO της ΙΒΜ, Αρβίντ Κρίσνα, για παράδειγμα, ανακοίνωσε πως η εταιρεία θα αρχίσει να μειώνει τις προσλήψεις σε τομείς της εταιρείας οι οποίοι μπορούν να αντικατασταθούν από τη χρήση τεχνητής νοημοσύνης.


«Πριν από τέσσερα ή πέντε χρόνια, κανείς δε θα είχε προχωρήσει σε τέτοιου είδους ανακοίνωση», τόνισε ο Γκούπτα όσον αφορά την περίπτωση της ΙΒΜ.

Προκαταλήψεις

Εάν τα συστήματα τεχνητής νοημοσύνης χρησιμοποιηθούν για τη λήψη γενικότερων κοινωνικών αποφάσεων, η προκατάληψη αποτελεί πραγματική απειλή, όπως τόνισαν οι ειδικοί στο Business Insider.

Υπάρχουν ήδη πολλά παραδείγματα τέτοιων προκαταλήψεων τα οποία έχουν γίνει φανερά, ακόμα κι στις προηγούμενες εκδόσεις του ChatGPT. Αν και η OpenAI έχει εφαρμόσει πληθώρα δικλείδων ασφαλείας, οι χρήστες μπορούν ακόμα να παράγουν προβληματικό ή προσβλητικό περιεχόμενο.

Τα μοντέλα δημιουργικής τεχνητής νοημοσύνης (generative AI) τα οποία προβάλλουν εικόνες, επίσης, μπορούν να παράγουν και να διαιωνίσουν πολλά, άσχημα και αναληθή στερεότυπα σύμφωνα με δοκιμές του πρακτορείου ειδήσεων.

«Εάν υπάρχουν περιπτώσεις δημιουργίας προκαταλήψεων μέσω τρόπων των οποίων δεν έχουν ανιχνευθεί σε συστήματα τα οποία λαμβάνουν αποφάσεις οι οποίες επηρεάζουν την ζωή των πολιτών, αυτό θα μπορούσε να έχει σημαντικές επιπτώσεις σε ολόκληρη την κοινωνία», τόνισε ο Γκούπτα.

«Τα δεδομένα μέσω των οποίων εκπαιδεύεται ένα πρόγραμμα τεχνητής νοημοσύνης συνήθως βασίζονται στην αγγλική γλώσσα. Η χρηματοδότηση και η εκπαίδευση σε άλλου είδους μοντέλα ΤΝ με διαφορετικές γλώσσες είναι περιορισμένη», ανέφερε ο Γουόνγκ, προσθέτοντας πως «υπάρχουν πολλοί άνθρωποι οι οποίοι θα καταλήξουν να μη συμπεριλαμβάνονται, και πολλές γλώσσες στις οποίες δε θα υπάρξει τόση έρευνα και έλεγχος».
Share this article :

0 comments:

Πείτε μας την γνώμη σας

Έχετε κάτι να μας'προτείνετε ... !

Οικονομία

Περισσότερα σε αυτή την κατηγορία »

ΔΙΕΘΝΗ

Περισσότερα σε αυτή την κατηγορία »

Κράτος

Περισσότερα σε αυτή την κατηγορία »

ΑΘΛΗΤΙΣΜΟΣ

Περισσότερα σε αυτή την κατηγορία »

ΥΓΕΙΑ

Περισσότερα σε αυτή την κατηγορία »

Ναυτιλία

Περισσότερα σε αυτή την κατηγορία »

Life Style

Περισσότερα σε αυτή την κατηγορία »

Ταξίδια

Περισσότερα σε αυτή την κατηγορία »

Ασφαλιστική Αγορά

Περισσότερα σε αυτή την κατηγορία »
 
Support : Δημιουργία ιστοσελίδας | Al.Ge Template | Πρότυπο ΒΒ2
Copyright © 2013. "Ο ΕΠΙΧΕΙΡΗΜΑΤΙΑΣ" - All Rights Reserved
Τεχνική Επιμέλεια - Δημιουργία ιστοσελίδας - Εμπνευσμένο από Al.Ge
Proudly powered by Al.Ge Template