2023-05-03 00:24:39
Η τεχνητή νοημοσύνη αλλάζει τον κόσμο, κάνοντας μεγάλα βήματα τα τελευταία χρόνια: Το ChatGPT και άλλες εφαρμογές μπορούν να κάνουν εργασίες μέσα σε λίγα δευτερόλεπτα που πιθανότατα δεν θα μπορούσαμε να κάνουμε το ίδιο αποτελεσματικά, σε τόσο σύντομο χρονικό διάστημα.
Μήπως όμως καταργηθούν πολλές θέσεις εργασίας στο μέλλον, επειδή οι μηχανές μπορούν να κάνουν τη δουλειά μας πιο γρήγορα;
Ο Γερμανός οικονομολόγος Γενς Σίντεκουμ δεν βλέπει τον κίνδυνο επικείμενης μαζικής ανεργίας λόγω της περαιτέρω εξάπλωσης της τεχνητής νοημοσύνης. Σίγουρα θα υπάρξουν αλλαγές, γιατί η Artificial Intelligence (AI) μπορεί να χρησιμοποιηθεί ευρέως. Ορισμένα επαγγελματικά πεδία στην πραγματικότητα χαρακτηρίζονται από δραστηριότητες που μπορούν εύκολα να αντικατασταθούν από τεχνολογίες. Σύμφωνα με τον Γερμανό Οικονομολόγο , αυτές οι δραστηριότητες περιλαμβάνουν «συνήθεις διοικητικές δραστηριότητες όπως η συμπλήρωση αρχείων Excel, αλλά και η σύνταξη τυπικών κειμένων που επαναλαμβάνονται όλο και περισσότερο, η έρευνα και η συλλογή πληροφοριών»
. Όλα αυτά είναι πράγματα που η τεχνητή νοημοσύνη θα μπορούσε τελικά να κάνει πιο αποτελεσματικά. Αλλά αυτό δεν σημαίνει ότι οι άνθρωποι που εξακολουθούν να κάνουν αυτήν τη δουλειά θα μείνουν άνεργοι εξαιτίας της. Αντίθετα, ότι οι εργαζόμενοι θα απαλλάσσονται από κουραστικές εργασίες στο μέλλον και επομένως θα έχουν περισσότερο χρόνο για δραστηριότητες που κάνουν τους ανθρώπους απαραίτητους.
Ποια επαγγέλματα κινδυνεύουν
Μια ομάδα ερευνητών από την Ελβετία με επικεφαλής τον ειδικό της τεχνητής νοημοσύνης Ντάριο Φλορεανό διερεύνησε ποια επαγγέλματα κινδυνεύουν ιδιαίτερα από την τεχνητή νοημοσύνη. Οι μηχανές έχουν ήδη επιδεξιότητα και σωματική δύναμη – αλλά παραδόξως έχουν επίσης επίγνωση των προβλημάτων, επειδή μπορούν να καταλάβουν πότε κάτι δεν πηγαίνει σύμφωνα με το σχέδιο. Αυτό που λείπει από τα μηχανήματα είναι η πρωτοτυπία, ο συντονισμός ή η ικανότητα επίλυσης προβλημάτων. Με αυτή τη γνώση, οι ερευνητές υπολόγισαν έναν δείκτη αυτόματου κινδύνου για κάθε επάγγελμα.
Το επάγγελμα του κρεοπώλη κινδυνεύει περισσότερο. Έχει δείκτη κινδύνου αυτοματισμού 78%. Αυτό σημαίνει ότι τα ρομπότ έχουν ήδη το 78% των απαραίτητων δεξιοτήτων. Στο άλλο άκρο του φάσματος βρίσκονται οι γιατροί. Ο δείκτης κινδύνου είναι 43%. Σήμερα, οι μηχανές κατέχουν ήδη σχεδόν τις μισές από τις δεξιότητες που αποτελούν το πιθανώς ασφαλέστερο επάγγελμα.
Σύμφωνα με τον δείκτη κινδύνου, θέσεις εργασίας όπως για μηχανικούς πιλότους, ελεγκτές εναέριας κυκλοφορίας και τα περισσότερα ιατρικά επαγγέλματα είναι ασφαλείς. Εξαίρεση αποτελούν οι ειδικοί στην ακτινολογία. Βρίσκονται ήδη στη μέση γιατί η τεχνητή νοημοσύνη μπορεί να κάνει μέρος της δουλειάς στα διαγνωστικά. Ωστόσο, εδώ είναι που η μελέτη αποκαλύπτει μια αδυναμία: Η βάση δεδομένων απαριθμεί 18 απαραίτητες δεξιότητες για τους γενικούς ιατρούς – η ενσυναίσθηση δεν είναι μία από αυτές. Ο ερευνητής Ράφαελ Λαλίβ λέει ότι επικεντρώθηκαν σε βασικές σωματικές και πνευματικές δεξιότητες. Δεν θα είχαν αποτυπώσει την πλήρη πραγματικότητα του επαγγέλματος, αλλά τουλάχιστον ένα πολύ μεγάλο μέρος.Τα μοντέλα θα μπορούσαν να βρεθούν σε μπελάδες Στην κάτω μέση της κλίμακας βρίσκονται μπάρμεν και υπάλληλοι προσωπικής φροντίδας. Οι δουλειές των ταμείων, των πλυντηρίων πιάτων, των οδηγών ταξί ή των μοντέλων, που μπορούν πλέον να αντικατασταθούν ψηφιακά , είναι ακόμη λιγότερο ασφαλείς.
Κινδυνεύουν οι δημοσιογράφοι;
Οι ερευνητές της εταιρείας OpenAI που ανέπτυξαν το Chat GPT στο Πανεπιστήμιο της Πενσυλβάνια, από την άλλη πλευρά, μερικές φορές καταλήγουν σε διαφορετικές προβλέψεις από τους ερευνητές από την Ελβετία. Σύμφωνα με τη μελέτη τους, οι άνθρωποι σε αυτά τα επαγγέλματα θα πρέπει να είναι προετοιμασμένοι για το γεγονός ότι η τεχνητή νοημοσύνη μπορεί να αναλάβει τουλάχιστον μερικά από τα προηγούμενα καθήκοντά τους: προγραμματιστές, μαθηματικοί, λογιστές, διερμηνείς, συγγραφείς, δημοσιογράφοι. Το Chat GPT έχει ήδη αξιοσημείωτα αποτελέσματα σε εργασίες όπως η μετάφραση, η ταξινόμηση, η δημιουργική γραφή και η δημιουργία κώδικα υπολογιστή. Ειδικά στον τομέα της δημοσιογραφίας, ωστόσο, δεν πρέπει να αφήνει κανείς τις δραστηριότητες τελείως στο ChatGPT καθώς δεν έχει την ικανότητα να κρίνει γεγονότα. Οι Αμερικανοί ερευνητές υποθέτουν ότι οι περισσότερες θέσεις εργασίας θα αλλάξουν κατά κάποιο τρόπο από τα μοντέλα της γλώσσας AI. Περίπου το 80% των εργαζομένων στις ΗΠΑ είναι σε θέσεις εργασίας όπου τουλάχιστον μία εργασία μπορεί να ολοκληρωθεί πιο γρήγορα με την τεχνητή νοημοσύνη. Υπάρχουν όμως και επαγγέλματα στα οποία η τεχνητή νοημοσύνη θα παίξει μόνο δευτερεύοντα ρόλο. Αυτά περιλαμβάνουν, για παράδειγμα, μάγειρες, μηχανικούς αυτοκινήτων και θέσεις εργασίας στη γεωργία.
Ακόμη και οι δικηγόροι ανήκουν στην ομάδα των επαγγελμάτων που απειλούνται με εξαφάνιση, επειδή ορισμένες από τις δραστηριότητές του μπορούν κατ’ αρχήν να αυτοματοποιηθούν. «Αυτό σημαίνει τώρα ότι όλοι οι δικηγόροι θα μείνουν άνεργοι; Όχι, μάλλον όχι. Αλλά αυτό σημαίνει ότι το επάγγελμα θα μπορούσε πιθανότατα να αλλάξει λίγο στο μέλλον», λέει ο οικονομολόγος Σίντεκουμ. Αν οι δικηγόροι κάνουν έξυπνη χρήση των νέων τεχνολογικών δυνατοτήτων, μπορούν να επικεντρωθούν περισσότερο σε πραγματικά δημιουργικά πράγματα και σε συνεργασία με πελάτες. Το ίδιο ισχύει και για άλλες επαγγελματικές ομάδες.
ΕΕ: Νόμος για την τεχνητή νοημοσύνη
Λαμβάνοντας υπόψη τους διάφορους κινδύνους της τεχνητής νοημοσύνης, η ΕΕ σχεδιάζει έναν νόμο για την AI. Ο νόμος στοχεύει να ρυθμίσει εκτενώς την παροχή και τη χρήση τεχνητής νοημοσύνης από ιδιωτικούς και δημόσιους φορείς.
Η ειδικός στην Ηθική των μέσων ενημέρωσης Δρ. Τζέσικα Χίζεναπό το Πανεπιστήμιο του Τίμπιγκεν εξηγεί ότι υπάρχουν ήδη κανόνες για την αντιμετώπιση της τεχνητής νοημοσύνης σε πολλούς τομείς: Για παράδειγμα στους υπολογισμούς στο χρηματιστήριο, στην αυτόνομη οδήγηση ή στην ιατρική και τα χειρουργικά ρομπότ που χρησιμοποιούνται εκεί.
Από την άλλη πλευρά, ο τομέας της «οικονομίας της πλατφόρμας», στον οποίο δραστηριοποιούνται εταιρείες όπως η Meta ή το Twitter , δεν έχει μέχρι στιγμής σχεδόν ρυθμιστεί. Η Χίζεν αμφιβάλλει ότι οι εταιρείες θα ρυθμίσουν τον εαυτό τους. Η Microsoft τερμάτισε πρόσφατα ένα μεγάλο μέρος του τμήματος δεοντολογίας της AI.
Δεν γνωρίζει ηθικά όρια
Ποια μέτρα προβλέπει ο νόμος της ΕΕ για την τεχνητή νοημοσύνη; Προκειμένου να διασφαλιστεί η υπεύθυνη χρήση της τεχνητής νοημοσύνης, η ΕΕ θέλει να δημιουργήσει δεσμευτικούς κανόνες με μια «προσέγγιση βασισμένη στον κίνδυνο». Εάν τα συστήματα τεχνητής νοημοσύνης εμπίπτουν στην επικίνδυνη κατηγορία «απαράδεκτα», «επειδή παραβιάζουν αξίες της Ένωσης, όπως τα θεμελιώδη δικαιώματα», θα πρέπει να απαγορευθούν. Οι απαγορευμένες πρακτικές περιλαμβάνουν, αλλά δεν περιορίζονται σε, τεχνικές που χειραγωγούν ανεπαίσθητα τους ανθρώπους, προκαλώντας σωματική ή ψυχολογική βλάβη.
Είναι λοιπόν καθοριστικό πώς θα σχεδιαστεί τελικά ο νόμος.
Η Κλόντια Παγκανίνι, Καθηγήτρια Ηθικής των Μέσων Ενημέρωσης στη Φιλοσοφική Σχολή του Μονάχου, θεωρεί επίσης θεμελιωδώς θετικό τον νόμο της ΕΕ για την τεχνητή νοημοσύνη. Θεωρεί ωστόσο προβληματικό το γεγονός ότι οι εξαιρέσεις με επιχειρήματα όπως η «εθνική ασφάλεια» δημιουργούν κενά για εφαρμογές τεχνητής νοημοσύνης που θα μπορούσαν ενδεχομένως να χρησιμοποιηθούν αντιδημοκρατικά. Ως παράδειγμα, αναφέρει το ζήτημα της αναγνώρισης προσώπου σε δημόσιους χώρους.
Ο ειδικός Τζέσικα Χίζεν ζητά περισσότερους κανόνες, ειδικά όταν χρησιμοποιούνται η τεχνητή νοημοσύνη και οι αλγόριθμοι στην επικοινωνία, ειδικά στον τομέα των μέσων κοινωνικής δικτύωσης:
Συστήματα τεχνητής νοημοσύνης, με τα οποία μπορούν εύκολα να δημιουργηθούν ψεύτικες εικόνες με παραπλανητική εμφάνιση , έδειξαν τους ήδη υπάρχοντες κινδύνους της τεχνολογίας, λέει η Χίζεν. Το πρόβλημα είναι ότι δεν θα ξέρουμε πλέον: Τι είναι αληθινό και τι όχι;
Πηγή Ναυτεμπορική
greece-salonikia
Μήπως όμως καταργηθούν πολλές θέσεις εργασίας στο μέλλον, επειδή οι μηχανές μπορούν να κάνουν τη δουλειά μας πιο γρήγορα;
Ο Γερμανός οικονομολόγος Γενς Σίντεκουμ δεν βλέπει τον κίνδυνο επικείμενης μαζικής ανεργίας λόγω της περαιτέρω εξάπλωσης της τεχνητής νοημοσύνης. Σίγουρα θα υπάρξουν αλλαγές, γιατί η Artificial Intelligence (AI) μπορεί να χρησιμοποιηθεί ευρέως. Ορισμένα επαγγελματικά πεδία στην πραγματικότητα χαρακτηρίζονται από δραστηριότητες που μπορούν εύκολα να αντικατασταθούν από τεχνολογίες. Σύμφωνα με τον Γερμανό Οικονομολόγο , αυτές οι δραστηριότητες περιλαμβάνουν «συνήθεις διοικητικές δραστηριότητες όπως η συμπλήρωση αρχείων Excel, αλλά και η σύνταξη τυπικών κειμένων που επαναλαμβάνονται όλο και περισσότερο, η έρευνα και η συλλογή πληροφοριών»
Ποια επαγγέλματα κινδυνεύουν
Μια ομάδα ερευνητών από την Ελβετία με επικεφαλής τον ειδικό της τεχνητής νοημοσύνης Ντάριο Φλορεανό διερεύνησε ποια επαγγέλματα κινδυνεύουν ιδιαίτερα από την τεχνητή νοημοσύνη. Οι μηχανές έχουν ήδη επιδεξιότητα και σωματική δύναμη – αλλά παραδόξως έχουν επίσης επίγνωση των προβλημάτων, επειδή μπορούν να καταλάβουν πότε κάτι δεν πηγαίνει σύμφωνα με το σχέδιο. Αυτό που λείπει από τα μηχανήματα είναι η πρωτοτυπία, ο συντονισμός ή η ικανότητα επίλυσης προβλημάτων. Με αυτή τη γνώση, οι ερευνητές υπολόγισαν έναν δείκτη αυτόματου κινδύνου για κάθε επάγγελμα.
Το επάγγελμα του κρεοπώλη κινδυνεύει περισσότερο. Έχει δείκτη κινδύνου αυτοματισμού 78%. Αυτό σημαίνει ότι τα ρομπότ έχουν ήδη το 78% των απαραίτητων δεξιοτήτων. Στο άλλο άκρο του φάσματος βρίσκονται οι γιατροί. Ο δείκτης κινδύνου είναι 43%. Σήμερα, οι μηχανές κατέχουν ήδη σχεδόν τις μισές από τις δεξιότητες που αποτελούν το πιθανώς ασφαλέστερο επάγγελμα.
Σύμφωνα με τον δείκτη κινδύνου, θέσεις εργασίας όπως για μηχανικούς πιλότους, ελεγκτές εναέριας κυκλοφορίας και τα περισσότερα ιατρικά επαγγέλματα είναι ασφαλείς. Εξαίρεση αποτελούν οι ειδικοί στην ακτινολογία. Βρίσκονται ήδη στη μέση γιατί η τεχνητή νοημοσύνη μπορεί να κάνει μέρος της δουλειάς στα διαγνωστικά. Ωστόσο, εδώ είναι που η μελέτη αποκαλύπτει μια αδυναμία: Η βάση δεδομένων απαριθμεί 18 απαραίτητες δεξιότητες για τους γενικούς ιατρούς – η ενσυναίσθηση δεν είναι μία από αυτές. Ο ερευνητής Ράφαελ Λαλίβ λέει ότι επικεντρώθηκαν σε βασικές σωματικές και πνευματικές δεξιότητες. Δεν θα είχαν αποτυπώσει την πλήρη πραγματικότητα του επαγγέλματος, αλλά τουλάχιστον ένα πολύ μεγάλο μέρος.Τα μοντέλα θα μπορούσαν να βρεθούν σε μπελάδες Στην κάτω μέση της κλίμακας βρίσκονται μπάρμεν και υπάλληλοι προσωπικής φροντίδας. Οι δουλειές των ταμείων, των πλυντηρίων πιάτων, των οδηγών ταξί ή των μοντέλων, που μπορούν πλέον να αντικατασταθούν ψηφιακά , είναι ακόμη λιγότερο ασφαλείς.
Κινδυνεύουν οι δημοσιογράφοι;
Οι ερευνητές της εταιρείας OpenAI που ανέπτυξαν το Chat GPT στο Πανεπιστήμιο της Πενσυλβάνια, από την άλλη πλευρά, μερικές φορές καταλήγουν σε διαφορετικές προβλέψεις από τους ερευνητές από την Ελβετία. Σύμφωνα με τη μελέτη τους, οι άνθρωποι σε αυτά τα επαγγέλματα θα πρέπει να είναι προετοιμασμένοι για το γεγονός ότι η τεχνητή νοημοσύνη μπορεί να αναλάβει τουλάχιστον μερικά από τα προηγούμενα καθήκοντά τους: προγραμματιστές, μαθηματικοί, λογιστές, διερμηνείς, συγγραφείς, δημοσιογράφοι. Το Chat GPT έχει ήδη αξιοσημείωτα αποτελέσματα σε εργασίες όπως η μετάφραση, η ταξινόμηση, η δημιουργική γραφή και η δημιουργία κώδικα υπολογιστή. Ειδικά στον τομέα της δημοσιογραφίας, ωστόσο, δεν πρέπει να αφήνει κανείς τις δραστηριότητες τελείως στο ChatGPT καθώς δεν έχει την ικανότητα να κρίνει γεγονότα. Οι Αμερικανοί ερευνητές υποθέτουν ότι οι περισσότερες θέσεις εργασίας θα αλλάξουν κατά κάποιο τρόπο από τα μοντέλα της γλώσσας AI. Περίπου το 80% των εργαζομένων στις ΗΠΑ είναι σε θέσεις εργασίας όπου τουλάχιστον μία εργασία μπορεί να ολοκληρωθεί πιο γρήγορα με την τεχνητή νοημοσύνη. Υπάρχουν όμως και επαγγέλματα στα οποία η τεχνητή νοημοσύνη θα παίξει μόνο δευτερεύοντα ρόλο. Αυτά περιλαμβάνουν, για παράδειγμα, μάγειρες, μηχανικούς αυτοκινήτων και θέσεις εργασίας στη γεωργία.
Ακόμη και οι δικηγόροι ανήκουν στην ομάδα των επαγγελμάτων που απειλούνται με εξαφάνιση, επειδή ορισμένες από τις δραστηριότητές του μπορούν κατ’ αρχήν να αυτοματοποιηθούν. «Αυτό σημαίνει τώρα ότι όλοι οι δικηγόροι θα μείνουν άνεργοι; Όχι, μάλλον όχι. Αλλά αυτό σημαίνει ότι το επάγγελμα θα μπορούσε πιθανότατα να αλλάξει λίγο στο μέλλον», λέει ο οικονομολόγος Σίντεκουμ. Αν οι δικηγόροι κάνουν έξυπνη χρήση των νέων τεχνολογικών δυνατοτήτων, μπορούν να επικεντρωθούν περισσότερο σε πραγματικά δημιουργικά πράγματα και σε συνεργασία με πελάτες. Το ίδιο ισχύει και για άλλες επαγγελματικές ομάδες.
ΕΕ: Νόμος για την τεχνητή νοημοσύνη
Λαμβάνοντας υπόψη τους διάφορους κινδύνους της τεχνητής νοημοσύνης, η ΕΕ σχεδιάζει έναν νόμο για την AI. Ο νόμος στοχεύει να ρυθμίσει εκτενώς την παροχή και τη χρήση τεχνητής νοημοσύνης από ιδιωτικούς και δημόσιους φορείς.
Η ειδικός στην Ηθική των μέσων ενημέρωσης Δρ. Τζέσικα Χίζεναπό το Πανεπιστήμιο του Τίμπιγκεν εξηγεί ότι υπάρχουν ήδη κανόνες για την αντιμετώπιση της τεχνητής νοημοσύνης σε πολλούς τομείς: Για παράδειγμα στους υπολογισμούς στο χρηματιστήριο, στην αυτόνομη οδήγηση ή στην ιατρική και τα χειρουργικά ρομπότ που χρησιμοποιούνται εκεί.
Από την άλλη πλευρά, ο τομέας της «οικονομίας της πλατφόρμας», στον οποίο δραστηριοποιούνται εταιρείες όπως η Meta ή το Twitter , δεν έχει μέχρι στιγμής σχεδόν ρυθμιστεί. Η Χίζεν αμφιβάλλει ότι οι εταιρείες θα ρυθμίσουν τον εαυτό τους. Η Microsoft τερμάτισε πρόσφατα ένα μεγάλο μέρος του τμήματος δεοντολογίας της AI.
Δεν γνωρίζει ηθικά όρια
Ποια μέτρα προβλέπει ο νόμος της ΕΕ για την τεχνητή νοημοσύνη; Προκειμένου να διασφαλιστεί η υπεύθυνη χρήση της τεχνητής νοημοσύνης, η ΕΕ θέλει να δημιουργήσει δεσμευτικούς κανόνες με μια «προσέγγιση βασισμένη στον κίνδυνο». Εάν τα συστήματα τεχνητής νοημοσύνης εμπίπτουν στην επικίνδυνη κατηγορία «απαράδεκτα», «επειδή παραβιάζουν αξίες της Ένωσης, όπως τα θεμελιώδη δικαιώματα», θα πρέπει να απαγορευθούν. Οι απαγορευμένες πρακτικές περιλαμβάνουν, αλλά δεν περιορίζονται σε, τεχνικές που χειραγωγούν ανεπαίσθητα τους ανθρώπους, προκαλώντας σωματική ή ψυχολογική βλάβη.
Είναι λοιπόν καθοριστικό πώς θα σχεδιαστεί τελικά ο νόμος.
Η Κλόντια Παγκανίνι, Καθηγήτρια Ηθικής των Μέσων Ενημέρωσης στη Φιλοσοφική Σχολή του Μονάχου, θεωρεί επίσης θεμελιωδώς θετικό τον νόμο της ΕΕ για την τεχνητή νοημοσύνη. Θεωρεί ωστόσο προβληματικό το γεγονός ότι οι εξαιρέσεις με επιχειρήματα όπως η «εθνική ασφάλεια» δημιουργούν κενά για εφαρμογές τεχνητής νοημοσύνης που θα μπορούσαν ενδεχομένως να χρησιμοποιηθούν αντιδημοκρατικά. Ως παράδειγμα, αναφέρει το ζήτημα της αναγνώρισης προσώπου σε δημόσιους χώρους.
Ο ειδικός Τζέσικα Χίζεν ζητά περισσότερους κανόνες, ειδικά όταν χρησιμοποιούνται η τεχνητή νοημοσύνη και οι αλγόριθμοι στην επικοινωνία, ειδικά στον τομέα των μέσων κοινωνικής δικτύωσης:
Συστήματα τεχνητής νοημοσύνης, με τα οποία μπορούν εύκολα να δημιουργηθούν ψεύτικες εικόνες με παραπλανητική εμφάνιση , έδειξαν τους ήδη υπάρχοντες κινδύνους της τεχνολογίας, λέει η Χίζεν. Το πρόβλημα είναι ότι δεν θα ξέρουμε πλέον: Τι είναι αληθινό και τι όχι;
Πηγή Ναυτεμπορική
greece-salonikia
ΜΟΙΡΑΣΤΕΙΤΕ
ΔΕΙΤΕ ΑΚΟΜΑ
ΠΡΟΗΓΟΥΜΕΝΟ ΑΡΘΡΟ
Συναγερμός στον Έβρο. Αγνοείται 57χρονος
ΕΠΟΜΕΝΟ ΑΡΘΡΟ
50+ Διαμορφώσεις εσωτερικών χώρων σε γήινες αποχρώσεις
ΣΧΟΛΙΑΣΤΕ