Η τεχνητή νοημοσύνη είναι πρακτικά τον τελευταίο χρόνο μια πραγματικότητα. Ολοένα και περισσότερα εργαλεία τεχνητής νοημοσύνης κάνουν την εμφάνισή τους στην αγορά, περισσότερα εργαλεία τεχνητής νοημοσύνης ενσωματώνονται σε εφαρμογές καθημερινές χρήσης και συνεχώς εμφανίζονται εταιρείες, που συγκεντρώνουν τεράστια κεφάλαια, που σχεδιάζουν την περαιτέρω εξέλιξη της συγκεκριμένης τεχνολογίας.
Αυτή είναι η μία όψη της πραγματικότητας, η άλλη της όψη είναι ότι κυβερνήσεις, εταιρείες και οργανισμοί συνεχίζουν να αναγνωρίζουν ότι πρέπει να υπάρξει κάποιας μορφής ρύθμιση, χωρίς ωστόσο να έχει οριστικοποιηθεί το πλαίσιο της συγκεκριμένης ρύθμισης.
Άλλωστε, για το λόγο αυτό πέρυσι τον Νοέμβριο μαζεύτηκαν στο Μπλέτσλεϊ Παρκ ηγέτες κρατών, κορυφαία στελέχη εταιρειών και εκπρόσωποι οργανισμών: οριοθέτηση των κανόνων ανάπτυξης και χρήσης της τεχνητής νοημοσύνης
Εκεί, κατά τη διάρκεια του Β’ Παγκοσμίου Πολέμου, είχε την έδρα της η υπηρεσία των βρετανικών μυστικών υπηρεσιών που είχε αναλάβει να «σπάσει» τον γερμανικό κώδικα επικοινωνιών που εξασφάλιζε η συσκευή Enigma. Εκεί, κλήθηκαν να προσφέρουν τις υπηρεσίες τους στο «σπάσιμο» του Enigma μαθηματικοί, καθηγητές γλωσσολογίας, μέχρι και επιφανείς σκακιστές, ανάμεσα σε αυτούς και ο Άλαν Τούρινγκ ο οποίος θεωρείται ο «πατέρας» της επιστήμης υπολογιστών αλλά και της τεχνητής νοημοσύνης, χάρη στο λεγόμενο τεστ Τούρινγκ, το οποίο πρότεινε το 1950: έναν τρόπο για να διαπιστωθεί πειραματικά αν μία μηχανή έχει αυθεντικές γνωστικές ικανότητες και μπορεί να σκεφτεί.
Όπως σημειώνει σε άρθρο του το Politico, αυτή η συζήτηση που ξεκίνησε τότε στο Μπλέτσλεϊ Παρκ «απέχει πολύ από το τέλος». «Έμοιαζε σαν μια εναλλακτική πραγματικότητα», είπε η Άμπα Κακ, επικεφαλής του Ινστιτούτου AI Now, ενός μη κερδοσκοπικού οργανισμού, που συμμετείχε στις συζητήσεις. Στο τέλος της συνόδου, 29 χώρες, συμπεριλαμβανομένης της Κίνας, των μελών της Ευρωπαϊκής Ένωσης και των Ηνωμένων Πολιτειών, υπέγραψαν συμφωνία για τη μείωση των κινδύνων που έχουν αναρριχηθεί στην πολιτική ατζέντα χάρη στην άφιξη του ChatGPT της OpenAI.
Το Politico μίλησε με δεκάδες πολιτικούς, στελέχη τεχνολογίας και άλλους, σε πολλούς από τους οποίους δόθηκε το δικαίωμα στην ανωνυμία για να συζητήσουν ευαίσθητα θέματα. Το ερώτημα σύμφωνα με το δημοσίευμα είναι εάν οι ΗΠΑ, η ΕΕ ή το Ηνωμένο Βασίλειο -ή οποιοσδήποτε άλλος- θα είναι σε θέση να καταρτίσει ένα σχέδιο στο οποίο μπορούν να συμφωνήσουν οι δυτικές δημοκρατίες.
«Εάν οι φιλελεύθερες βιομηχανοποιημένες οικονομίες δεν καταφέρουν να καταλήξουν σε ένα κοινό καθεστώς μεταξύ τους, η Κίνα μπορεί να παρέμβει για να θέσει τους παγκόσμιους κανόνες για μια τεχνολογία που -σε ένα σενάριο καταστροφής- έχει τη δυνατότητα να εξαφανίσει την ανθρωπότητα από το πρόσωπο της Γης», αναφέρεται χαρακτηριστικά.
Σύγκρουση επί ιαπωνικού εδάφουςΣύμφωνα με το Politico οι πρώτες «κρούσεις» για την επίτευξη μιας συμφωνίας επί του θέματος ήταν ξεκινήσει τουλάχιστον ένα πριν την Διακήρυξη του Μπλέτσλεϊ. Πέρυσι τον Οκτώβριο η Βιέρα Γιούροβα, Αντιπρόεδρος της Ευρωπαϊκής Επιτροπής Αξιών και Διαφάνειας, ανέλαβε μια πολύ συγκεκριμένη αποστολή επί ιαπωνικού εδάφους: να «πουλήσει» το ευρωπαϊκό εγχειρίδιο κανόνων τεχνητής νοημοσύνης σε συνάντηση της G7 όπου οι δυτικοί ηγέτες θα συζητούσαν και το θέμα της δημιουργικής τεχνητής νοημοσύνης.
Η προσέγγιση των Βρυξελλών κατοχυρώνεται στον νόμο της ΕΕ για την τεχνητή νοημοσύνη, την πρώτη προσπάθεια στον κόσμο για δεσμευτική νομοθεσία για το θέμα. Σε αντίθεση με τη στάση που προτιμούν οι ΗΠΑ, το όραμα της ΕΕ περιλαμβάνει απαγορεύσεις στις πιο επεμβατικές μορφές τεχνολογίας και αυστηρούς κανόνες που απαιτούν από εταιρείες όπως η Google και η Microsoft να είναι πιο ανοιχτές σχετικά με το πώς σχεδιάζουν προϊόντα που βασίζονται σε τεχνητή νοημοσύνη.
Από την άλλη πλευρά η αμερικανική πλευρά δεν πρότεινε απαγορεύσεις ή αυστηρές απαιτήσεις. Αντίθετα, πίεσε για ένα πιο ελαφρύ καθεστώς που βασίζεται κυρίως σε εθελοντικές δεσμεύσεις από τη βιομηχανία και την υφιστάμενη εγχώρια νομοθεσία. «Οι άνθρωποι μπορούν να περιμένουν από τις Ηνωμένες Πολιτείες να εμπλέκονται σε θέματα πολιτικής τεχνητής νοημοσύνης σε ό,τι κάνουμε», είπε ο Ναθάνιελ Φικ, εκπρόσωπος του προέδρου Μπάιντεν για θέματα τεχνολογίας, στο Politico μετά την ολοκλήρωση της συνόδου κορυφής του Κιότο. «Τα πλαίσια, οι κώδικες, οι αρχές που αναπτύσσουμε θα γίνουν η βάση για δράση».
Ο Γιούροβα υποστήριξε ότι μόνο η Ευρώπη θα μπορούσε να επιδείξει την απαραίτητη αυστηρότητα. Η ΕΕ, είπε, θα μπορούσε να πλήξει τις εταιρείες με πρόστιμα και να απαγορεύσει τις πιο επεμβατικές μορφές τεχνητής νοημοσύνης – όπως περίπλοκοι αλγόριθμοι παρακολούθησης των κινήσεων των ανθρώπων, που χρησιμοποιούνται στην Κίνα.
Η αντεπίθεση του Φικ στηρίχθηκε στην αδιαμφισβήτητη θέση της Αμερικής ως την παγκόσμια δύναμη ανάπτυξης της τεχνητής νοημοσύνης. Το βήμα του Φικ περιελάμβανε κριτική στη νομοθεσία των Βρυξελλών για την επιβολή πάρα πολλών κανονιστικών βαρών στις επιχειρήσεις, σε σύγκριση με την προθυμία της Ουάσιγκτον να επιτρέψει στις εταιρείες να καινοτομήσουν, σύμφωνα με τις πηγές του Politico που συνάντησαν τον Φικ στην Ιαπωνία.
«Το μήνυμα ήταν σαφές», δήλωσε ένας δυτικός διπλωμάτης που παρευρέθηκε στη σύνοδο κορυφής της G7 του Κιότο. «Η Ουάσιγκτον δεν επρόκειτο να αφήσει τις Βρυξέλλες να πάρουν το δρόμο τους».
Προσπάθειες επί ευρωπαϊκού εδάφους
Οι συζητήσεις για εξεύρεση λύσης συνεχίζονταν επί ευρωπαϊκού εδάφους αν και σε ένα τελείως διαφορετικό περιβάλλον, όπως αποκαλύπτει το Politico. Το δημοσίευμα αναφέρει ένα γεύμα έξι πιάτων στο Μέγαρο των Ηλυσίων, την επίσημη κατοικία του Γάλλου προέδρου του 18ου αιώνα στο Παρίσι, όπου ο Εμανουέλ Μακρόν υποδέχθηκε 40 ειδικούς του κλάδου, συμπεριλαμβναομένων του προέδρου της OpenAI, Γκρεγκ Μπρόκμαν, και του επικεφαλής για θέματα AI της Meta Platforms, Γιαν Λέκουν.
Ο Γάλλος πρόεδρος ήθελε να ηγηθεί των διεθνών προσπαθειών για τον καθορισμό παγκόσμιων κανόνων για την τεχνολογία. Σε αντίθεση με την πλειοψηφία των άλλων πολιτικών της χώρας που αγαπούν τους κανονισμούς, ο Μακρόν παραμένει επιφυλακτικός με τον προτεινόμενο κανονισμό των Βρυξελλών για την AI, φοβούμενος ότι θα εμποδίσει εταιρείες όπως η γαλλική Mistral, μια startup τεχνητής νοημοσύνης που συνιδρύθηκε από τον Σεντρίκ Ο, πρώην υπουργό ψηφιακής τεχνολογίας της Γαλλίας.
Σύμφωνα με το Politico, η συζήτηση Μακρόν με τα στελέχη των εταιρειών τεχνολογίας αποκάλυψε μια άλλη βασική πτυχή της παγκόσμιας συζήτησης για την τεχνητή νοημοσύνη: η σύγκρουση μεταξύ εκείνων που πιστεύουν ότι οι σοβαρότεροι κίνδυνοι απέχουν ακόμη πολλά χρόνια και εκείνων που πιστεύουν ότι είναι ήδη εδώ.
Ο Μπρόκμαν της OpenAI, ένας από αυτούς που είναι χαλαροί σχετικά με τους άμεσους κινδύνους και πιστεύει ότι η εστίαση πρέπει να είναι στην αντιμετώπιση μακροπρόθεσμων απειλών, είπε στον Γάλλο πρόεδρο ότι η τεχνητή νοημοσύνη ήταν συντριπτικά μια δύναμη για το καλό, σύμφωνα με τρία άτομα που παρακολούθησαν το δείπνο. Οποιοσδήποτε κανονισμός – ιδιαίτερα κανόνες που θα μπορούσαν να παρεμποδίσουν τη μετεωρική ανάπτυξη της εταιρείας – θα πρέπει να επικεντρωθεί σε μακροπρόθεσμες απειλές όπως η τεχνητή νοημοσύνη που τελικά υπερισχύει του ανθρώπινου ελέγχου, πρόσθεσε.
Άλλοι, όπως η Μέρεντιθ Γουίτακερ, μια Αμερικανίδα τεχνολόγος που ήταν επίσης παρούσα στο δείπνο στο Παρίσι τον Νοέμβριο, υποστήριξε ότι οι πραγματικές βλάβες της υπάρχουσας τεχνητής νοημοσύνης -συμπεριλαμβανομένων ελαττωματικών συνόλων δεδομένων που εδραιώνουν προκαταλήψεις- απαιτούν από τους πολιτικούς να δράσουν τώρα.
Deepfake και το φόβητρο της Κίνας
Συγχρόνως με τα παραπάνω, στελέχη εταιρειών κολοσσών της τεχνολογίας είχαν ξεκινήσει έναν αγώνα δρόμου προτρέποντας τους πολιτικούς να μην υπερβάλουν τις ρυθμίσεις.
Ο Έρικ Σμιντ, πρώην διευθύνων σύμβουλος της Google, και ο ιδρυτής του LinkedIn, Ριντ Χόφμαν, πέταξαν μεταξύ Ουάσιγκτον, Λονδίνου και Παρισιού για να προσφέρουν τη δική τους άποψη για το πώς να χειρίζονται την τεχνητή νοημοσύνη, σύμφωνα με πέντε άτομα που επικαλείται το Politico. Μια υπερβολική καταστολή, υποστήριξαν, θα έδινε στην αυταρχική Κίνα ένα αποφασιστικό πλεονέκτημα στην τεχνητή νοημοσύνη.
Μάλιστα για να πείσουν τους συνομιλητές τους τα εν λόγω στελέχη εμφάνισαν deepfake βίντεο με… δυτικούς ηγέτες. Αυτές οι πλαστογραφίες που δημιουργούνται από την τεχνητή νοημοσύνη εξακολουθούν να είναι στην αιχμή της τεχνολογίας και είναι συχνά αδέξιες και εύκολο να εντοπιστούν. Ωστόσο, τα στελέχη χρησιμοποιήσαν τα συγκεκριμένα παραδείγματα για να δείξουν στους ηγέτες πώς η τεχνολογία είχε τη δυνατότητα να εξελιχθεί για να θέσει σοβαρούς κινδύνους στο μέλλον.
Αφού οι Βρυξέλλες κατέληξαν σε πολιτική συμφωνία τον Δεκέμβριο σχετικά με τον Νόμο της AI, ο Μακρόν – φρέσκος από το προσωπικό του δείπνο για την τεχνητή νοημοσύνη – συμπαρατάχθηκε με τον Γερμανό καγκελάριο Όλαφ Σολτς και την Ιταλίδα πρωθυπουργό Τζόρτζια Μελόνι για να ζητήσουν λιγότερους ελέγχους στις τελευταίες μορφές τεχνολογίας. Ο Γάλλος πρόεδρος ανησυχούσε ότι μια τέτοια ρύθμιση θα παρεμπόδιζε τις τοπικές εταιρείες – συμπεριλαμβανομένης της Mistral, της γαλλικής εταιρείας τεχνητής νοημοσύνης που υποστηρίζεται, εν μέρει, από τον Σμιντ, το πρώην αφεντικό της Google.
Η Γαλλία παρέμεινε στάσιμη μέχρι που τελικά υποχώρησε στην πολιτική πίεση στις αρχές Φεβρουαρίου για να υποστηρίξει τους κανόνες, αν και με μεγάλες επιφυλάξεις. «Θα ρυθμίσουμε πράγματα που δεν θα παράγουμε ή δεν θα εφευρίσκουμε πλέον», είπε ο Μακρόν ενώπιον δημόσιου ακροατηρίου στην Τουλούζη, αφού εξασφάλισε κάποια ανταλλάγματα της τελευταίας στιγμής για τις ευρωπαϊκές εταιρείες.
Βιολογικά όπλα και Big Tech
Στη συνέχεια το Politico μεταβαίνει στην αντίπερα όχθη του Ατλαντικού και αποκαλύπτει μια κλειστή ακρόαση μεταξύ Αμερικανών νομοθετών και ειδικών τεχνολογίας τον Σεπτέμβριο. Εκεί, ο Τρίσταν Χάρις, Αμερικανός τεχνολογικός ηθικολόγος και συνιδρυτής του μη κερδοσκοπικού οργανισμού Centre for Humane Technology, περιέγραψε πώς οι μηχανικοί του εξανάγκασαν το τελευταίο προϊόν τεχνητής νοημοσύνης της Meta να διαπράξει μια τρομακτική πράξη: την κατασκευή ενός βιολογικού όπλου.
Αυτό έδειξε ότι η προσέγγιση της Meta στην τεχνητή νοημοσύνη ήταν πολύ χαλαρή και δυνητικά επικίνδυνη, υποστήριξε ο Χάρις, σύμφωνα με δύο αξιωματούχους που συμμετείχαν στη συνάντηση.
Η εταιρεία του Μαρκ Ζάκερμπεργκ ευνόησε τη λεγόμενη τεχνολογία ανοιχτού κώδικα – τεχνητή νοημοσύνη εύκολα προσβάσιμη σε όλους – με λίγες διασφαλίσεις κατά της κατάχρησης. Μια τέτοια πολιτική, πρόσθεσε ο Χάρις, θα οδηγούσε σε πραγματική ζημιά, συμπεριλαμβανομένης της διάδοσης όπλων μαζικής καταστροφής που παράγονται από την τεχνητή νοημοσύνη.
Το Politico αποκαλύπτει και μια μάλλον αμήχανη στιγμή με τον Ζάκερμπεργκ, ο οποίος ήταν επίσης παρών στην ακρόαση στο Καπιτώλιο, να βγάζει το κινητό του και να βρίσκει τις ίδιες πληροφορίες για το βιοόπλο μέσω μιας απλής αναζήτησης στη μηχανή αναζήτησης της Google. Η κίνηση αυτή, που έγινε για να αμβλύνει την κατηγορία του Χάρις ότι η προσέγγιση ανοιχτού κώδικα τεχνητής νοημοσύνης της Meta ήταν απειλή για την ανθρωπότητα, προκάλεσε άφθονο γέλιο στην αίθουσα.
Πέρα από αυτό όμως, η σύγκρουση Χάρις-Ζάκερμπεργκ φέρνει στην επιφάνεια ένα άλλο βασικό ερώτημα για τους υπεύθυνους χάραξης πολιτικής: η τεχνητή νοημοσύνη θα πρέπει να περιορίζεται σε μια χούφτα αξιόπιστες εταιρείες ή να είναι ανοιχτή σε όλους τους ενδιαφερόμενους για εκμετάλλευση;
Σύμφωνα με εκείνους που προτιμούν την αδειοδότηση προηγμένης τεχνητής νοημοσύνης σε ορισμένες επιλεγμένες εταιρείες, οι άμεσοι κίνδυνοι είναι πολύ έντονοι για να αφεθούν ελεύθεροι στον ευρύτερο κόσμο. Μια παρουσίαση PowerPoint που προειδοποιεί ότι μοντέλα τεχνητής νοημοσύνης ανοιχτού κώδικα θα απελευθέρωναν ανεξέλεγκτα βιοόπλα προσβάσιμα σε τρομοκράτες, παρουσιάστηκε κατ’ ιδίαν σε κυβερνητικούς αξιωματούχους στο Λονδίνο, το Παρίσι και την Ουάσιγκτον, σύμφωνα με έξι υπεύθυνους χάραξης πολιτικής που συμμετείχαν σε αυτές τις συναντήσεις.
Η Microsoft και η OpenAI είναι μεταξύ των εταιρειών που προτιμούν τον περιορισμό της τεχνολογίας σε μικρό αριθμό εταιρειών, ώστε οι ρυθμιστικές αρχές να μπορούν να οικοδομήσουν δεσμούς με καινοτόμους τεχνητής νοημοσύνης.
Οι επικριτές της κυριαρχίας της Σίλικον Βάλεϊ υποστηρίζουν ότι οι Big Tech έχουν συμφέρον να αποκλείσουν τον ανταγωνισμό. Σύμφωνα με τον Μαρκ Σάρμαν, εκτελεστικό διευθυντή του Ιδρύματος Mozilla, οι μεγαλύτερες εταιρείες τεχνολογίας στον κόσμο θέλουν να αιχμαλωτίσουν τη νέα βιομηχανία τεχνητής νοημοσύνης για τον εαυτό τους και να αποκόψουν τους ανταγωνιστές τους.
Κατά τη διάρκεια του φθινοπώρου, ο Σάρμαν περιόδευσε τις δυτικές πρωτεύουσες για να παροτρύνει ανώτερους αξιωματούχους των ΗΠΑ, της ΕΕ και του Ηνωμένου Βασιλείου να μην περιορίσουν αυτούς που θα μπορούσαν να αναπτύξουν μοντέλα τεχνητής νοημοσύνης επόμενης γενιάς. Σε αντίθεση με άλλους γίγαντες της Σίλικον Βάλεϊ, η Meta του Ζάκερμπεργκ έχει ταχθεί με ανθρώπους όπως ο Σάρμαν που θέλουν να διατηρήσουν την τεχνολογία ανοιχτή σε όλους.
Η ανοιχτή προσέγγιση κερδίζει φίλους σε ισχυρά μέρη της Ουάσιγκτον, αν και οι Αμερικανοί αξιωματούχοι παραμένουν διχασμένοι, σημειώνει το Politico. Στις Βρυξέλλες, οι υπεύθυνοι χάραξης πολιτικής συμφώνησαν να απαλλάξουν σχεδόν όλη την τεχνητή νοημοσύνη ανοιχτού κώδικα από την πιο σκληρή επίβλεψη – εφόσον η τεχνολογία δεν χρησιμοποιείται σε παράνομες πρακτικές, όπως η αναγνώριση προσώπου. Στο Ηνωμένο Βασίλειο, ωστόσο, οι αξιωματούχοι κλίνουν προς τον περιορισμό της πιο προηγμένης τεχνητής νοημοσύνης σε λίγες χώρες.
Το μέλλον είναι εδώ
Αν το 2023 ήταν η χρονιά του… lobbying γύρω από τα θέματα της τεχνητής νοημοσύνης, το 2024 θα είναι η χρονιά των αποφάσεων, καταλήγει το άρθρο του Politico.
Μέχρι το καλοκαίρι, θα τεθούν σε ισχύ τμήματα του νόμου για την τεχνητή νοημοσύνη της Ευρώπης. Η αντίπαλη εκτελεστική εντολή για την τεχνητή νοημοσύνη του Λευκού Οίκου αλλάζει ήδη τον τρόπο με τον οποίο οι ομοσπονδιακές υπηρεσίες χειρίζονται την τεχνολογία. Περισσότερες μεταρρυθμίσεις στην Ουάσιγκτον αναμένονται μέχρι το τέλος του έτους.
Άλλες χώρες όπως το Ηνωμένο Βασίλειο, η Ιαπωνία και ο Καναδάς – καθώς και η Κίνα – κάνουν τα δικά τους σχέδια, τα οποία περιλαμβάνουν μεγαλύτερη εποπτεία της πιο προηγμένης τεχνητής νοημοσύνης και συγχρόνως γίνονται προσπάθειες να πείσουν άλλες χώρες να υιοθετήσουν τους κανόνες τους.
Αυτό που είναι ξεκάθαρο, σύμφωνα με τους δεκάδες ειδικούς της τεχνητής νοημοσύνης που μίλησαν στο Politico, είναι ότι το 2024, η επιθυμία για πολιτική δράση είναι απίθανο να εκλείψει. Ο αντίκτυπος της τεχνητής νοημοσύνης, ειδικά σε μια χρονιά συνεχών εκλογικών αναμετρήσεων, κάθε άλλο παρά βέβαιος είναι.
«Αυτή η υπόθεση σχετικά με την απώλεια ελέγχου της τεχνητής νοημοσύνης ξαφνικά λαμβάνεται σοβαρά υπόψη», δήλωσε ο Μαξ Τέγκμαρκ πρόεδρος του Future of Life Institute, μιας μη κερδοσκοπικής οργάνωσης που υποστηρίζει μεγαλύτερους ελέγχους στην τεχνητή νοημοσύνη. «Οι άνθρωποι συνειδητοποιούν ότι αυτό δεν είναι πλέον μακροπρόθεσμο.
Freegr network blog- News about pc, technology.
freegr