ΚΟΙΝΩΝΙΑ

/

Ανησυχίες για την ασφάλεια του ChatGPT μετά από νομικές ενέργειες κατά της OpenAI

Κοινοποίηση
Tweet

Τι αναφέρει σε συνέντευξή του

Λίγο ανήσυχος και αγχωμένος εμφανίστηκε την περασμένη εβδομάδα ο CEO της OpenAI, Σαμ Άλτμαν, κατά τη διάρκεια συνέντευξής του, στην οποία κλήθηκε να απαντήσει σε πλήθος ηθικών και δεοντολογικών ερωτημάτων που αφορούν την εταιρεία και το δημοφιλές μοντέλο τεχνητής νοημοσύνης, ChatGPT.

Αφορμή αποτέλεσε η υπόθεση ενός 16χρονου από την Καλιφόρνια, ο οποίος έβαλε τέλος στη ζωή του. Οι γονείς του υπέβαλαν μήνυση κατά της OpenAI και του Άλτμαν, ισχυριζόμενοι ότι το ChatGPT τον ενθάρρυνε στην απόφασή του. Το περιστατικό έχει πυροδοτήσει έντονες ανησυχίες και ερωτήματα σχετικά με το κατά πόσο είναι πραγματικά ασφαλής η χρήση τέτοιων προηγμένων εργαλείων τεχνητής νοημοσύνης.

Σε πρόσφατη συνέντευξή του, ο CEO της OpenAI, Σαμ Άλτμαν, μίλησε ανοιχτά για τις ανησυχίες του γύρω από τις ηθικές προκλήσεις που συνοδεύουν τη λειτουργία του ChatGPT.

«Δεν κοιμάμαι και πολύ καλά τη νύχτα. Υπάρχουν πολλά πράγματα που με βαραίνουν — αλλά ίσως τίποτα περισσότερο από το γεγονός ότι εκατοντάδες εκατομμύρια άνθρωποι μιλούν κάθε μέρα στο μοντέλο μας», ανέφερε χαρακτηριστικά στη διάρκεια συζήτησης με τον Τάκερ Κάρλσον, σε μια συνέντευξη που διήρκεσε σχεδόν μία ώρα.

Ο Άλτμαν δήλωσε πως δεν τον ανησυχεί τόσο η λήψη «λάθος ηθικών αποφάσεων» από την εταιρεία —αν και παραδέχτηκε ότι και αυτές ενδέχεται να αποδειχθούν λανθασμένες. Αυτό που, όπως είπε, του προκαλεί μεγαλύτερη ανησυχία είναι οι «πολύ μικρές αποφάσεις» σχετικά με τη συμπεριφορά του μοντέλου, οι οποίες, αν και φαινομενικά ασήμαντες, μπορεί τελικά να έχουν σημαντικές επιπτώσεις.

Οι αποφάσεις αυτές, σημείωσε, αφορούν κυρίως το ποιες ερωτήσεις επιτρέπεται να απαντά ή να απορρίπτει το ChatGPT, και με βάση ποια ηθικά και αξιακά κριτήρια.

Πώς αντιμετωπίζει το ChatGPT την αυτοκτονία;

Σύμφωνα με τον Άλτμαν, το πιο δύσκολο ζήτημα με το οποίο ασχολείται η εταιρεία πρόσφατα είναι ο τρόπος με τον οποίο το ChatGPT αντιμετωπίζει την αυτοκτονία, υπό το φως μιας αγωγής από μια οικογένεια που κατηγόρησε το chatbot για την αυτοκτονία του έφηβου γιου τους.

Ο διευθύνων σύμβουλος είπε ότι από τους χιλιάδες ανθρώπους που αυτοκτονούν κάθε εβδομάδα, πολλοί από αυτούς θα μπορούσαν ενδεχομένως να είχαν μιλήσει με το ChatGPT πριν από την αυτοκτονία τους.

«Πιθανότατα μίλησαν για (αυτοκτονία) και πιθανότατα δεν σώσαμε τις ζωές τους», είπε ειλικρινά ο Άλτμαν. «Ίσως θα μπορούσαμε να είχαμε πει κάτι καλύτερο. Ίσως θα μπορούσαμε να είχαμε είναι πιο προληπτικοί. Ίσως θα μπορούσαμε να είχαμε δώσει λίγο καλύτερες συμβουλές, όπως, «έλα, χρειάζεσαι αυτή τη βοήθεια».

Μετά και την υπόθεση με την αυτοκτονία του 16χρονου, μια ανάρτηση στο blog με τίτλο «Βοηθώντας τους ανθρώπους όταν το έχουν περισσότερο ανάγκη», η OpenAI παρουσίασε λεπτομερώς τα σχέδιά της για την αντιμετώπιση των ελλείψεων του ChatGPT κατά τη διαχείριση «ευαίσθητων καταστάσεων» και δήλωσε ότι θα συνεχίσει να βελτιώνει την τεχνολογία της για την προστασία των ανθρώπων που βρίσκονται σε πιο ευάλωτη θέση.

 

Πώς καθορίζεται η ηθική του ChatGPT;

Ένα άλλο σημαντικό θέμα που συζητήθηκε στην συνέντευξη ήταν η ηθική και η δεοντολογία που διέπουν το ChatGPT και τους διαχειριστές του.

Ενώ ο Άλτμαν περιέγραψε το βασικό μοντέλο του ChatGPT ως εκπαιδευμένο με βάση τη συλλογική εμπειρία, γνώση και μάθηση της ανθρωπότητας, είπε ότι η OpenAI πρέπει στη συνέχεια να ευθυγραμμίσει ορισμένες συμπεριφορές του chatbot και να αποφασίσει ποιες ερωτήσεις δεν θα απαντά.

«Αυτό είναι ένα πραγματικά δύσκολο πρόβλημα. Έχουμε πολλούς χρήστες τώρα, και προέρχονται από πολύ διαφορετικές προοπτικές ζωής… Αλλά συνολικά, έχω εκπλαγεί ευχάριστα με την ικανότητα του μοντέλου να μαθαίνει και να εφαρμόζει ένα ηθικό πλαίσιο».

Όταν ρωτήθηκε για το πώς αποφασίζονται ορισμένες προδιαγραφές του μοντέλου, ο Altman είπε ότι η εταιρεία είχε συμβουλευτεί «εκατοντάδες ηθικούς φιλοσόφους και ανθρώπους που σκέφτονται για την ηθική της τεχνολογίας και των συστημάτων».

Ένα παράδειγμα που έδωσε για μια προδιαγραφή του μοντέλου ήταν ότι το ChatGPT θα αποφεύγει να απαντά σε ερωτήσεις σχετικά με τον τρόπο κατασκευής βιολογικών όπλων, εάν του ζητηθεί από τους χρήστες.

«Υπάρχουν σαφή παραδείγματα όπου τα συμφέροντα της κοινωνίας έρχονται σε σημαντική αντίθεση με την ελευθερία των χρηστών», είπε ο Altman, αν και πρόσθεσε ότι η εταιρεία «δεν θα τα κάνει όλα σωστά και χρειάζεται επίσης τη συμβολή του κόσμου» για να βοηθήσει στη λήψη αυτών των αποφάσεων.

Πόσο ιδιωτικό μπορεί να είναι το ChatGPT;

Ένα άλλο μεγάλο θέμα συζήτησης ήταν η έννοια της ιδιωτικότητας των χρηστών σε σχέση με τα chatbots, με τον δημοσιογράφο να υποστηρίζει την ώρα της συνέντευξης ότι η γενετική τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για «ολοκληρωτικό έλεγχο».

Σε απάντηση, ο Altman είπε ότι ένα μέτρο πολιτικής που προωθεί στην Ουάσινγκτον είναι το «προνόμιο της τεχνητής νοημοσύνης», το οποίο αναφέρεται στην ιδέα ότι οτιδήποτε λέει ένας χρήστης σε ένα chatbot πρέπει να είναι απολύτως εμπιστευτικό.

«Όταν μιλάτε σε έναν γιατρό για την υγεία σας ή σε έναν δικηγόρο για τα νομικά σας προβλήματα, η κυβέρνηση δεν μπορεί να αποκτήσει αυτές τις πληροφορίες, σωστά;… Νομίζω ότι πρέπει να έχουμε την ίδια έννοια για την τεχνητή νοημοσύνη».

Σύμφωνα με τον Altman, αυτό θα επέτρεπε στους χρήστες να συμβουλεύονται τα chatbots τεχνητής νοημοσύνης σχετικά με το ιατρικό ιστορικό και τα νομικά τους προβλήματα, μεταξύ άλλων. Επί του παρόντος, οι αμερικανικές αρχές μπορούν να κλητεύσουν την εταιρεία για τα δεδομένα των χρηστών, πρόσθεσε.

«Νομίζω ότι είμαι αισιόδοξος ότι μπορούμε να κάνουμε την κυβέρνηση να κατανοήσει τη σημασία αυτού», είπε.

Θα μπορεί να χρησιμοποιηθεί το ChatGPT σε στρατιωτικές επιχειρήσεις;

Όταν ο δημοσιογράφος τον ρώτησε αν το ChatGPT θα χρησιμοποιηθεί από το στρατό για να βλάψει ανθρώπους, ο Άλτμαν δεν έδωσε άμεση απάντηση.

«Δεν ξέρω πώς χρησιμοποιούν το ChatGPT οι στρατιωτικοί σήμερα… αλλά υποψιάζομαι ότι πολλοί στρατιωτικοί μιλούν στο ChatGPT για να ζητήσουν συμβουλές».

Αργότερα, πρόσθεσε ότι δεν ήταν σίγουρος «πώς ακριβώς να αισθανθεί για αυτό».

Η OpenAI ήταν μία από τις εταιρείες τεχνητής νοημοσύνης που έλαβε σύμβαση ύψους 200 εκατομμυρίων δολαρίων από το Υπουργείο Άμυνας των ΗΠΑ για να εφαρμόσει τη γενετική τεχνητή νοημοσύνη στο αμερικανικό στρατό. Η εταιρεία δήλωσε σε μια ανάρτηση στο blog της ότι θα παρέχει στην αμερικανική κυβέρνηση πρόσβαση σε προσαρμοσμένα μοντέλα τεχνητής νοημοσύνης για την εθνική ασφάλεια, υποστήριξη και πληροφορίες σχετικά με το χρονοδιάγραμμα των προϊόντων.

Πόσο ισχυρό είναι το OpenAI;

Ο δημοσιογράφος, στη συνέντευξή του, προέβλεψε ότι, με βάση την τρέχουσα πορεία του, το γενετικό AI και, κατ’ επέκταση, ο Sam Altman, θα μπορούσαν να συγκεντρώσουν περισσότερη δύναμη από οποιονδήποτε άλλο, φτάνοντας στο σημείο να αποκαλέσει το ChatGPT «θρησκεία».

Σε απάντηση, ο Άλτμαν είπε ότι στο παρελθόν ανησυχούσε πολύ για τη συγκέντρωση εξουσίας που θα μπορούσε να προκύψει από τη γενετική τεχνητή νοημοσύνη, αλλά τώρα πιστεύει ότι η τεχνητή νοημοσύνη θα οδηγήσει σε «μια τεράστια αναβάθμιση» όλων των ανθρώπων.

Κοινοποίηση
Tweet

Ακολουθήστε το thebest.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις

Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, τη στιγμή που συμβαίνουν, στο thebest.gr

Σχόλια

Ειδήσεις