ΚΟΙΝΩΝΙΑ

/

Το ChatGPT δεν μπαίνει (πια) ανάμεσα σε ζευγάρια: Τέλος οι απαντήσεις σε ερωτικά προβλήματα - Τι αλλάζει

Κοινοποίηση
Tweet

Τέρμα οι οριστικές απαντήσεις σε ερωτικά προβλήματα

Αλλαγές έρχονται στο εργαλείο τεχνητής νοημοσύνης ChatGPT, το οποίο από εδώ και πέρα δεν θα παροτρύνει στους ανθρώπους να χωρίσουν με τον σύντροφό τους.

Μάλιστα, θα ενθαρρύνει τους χρήστες να κάνουν διαλείμματα μετά από μεγάλες συνομιλίες με το chatbot.

Σύμφωνα με τον Guardian, η OpenAI, δημιουργός του ChatGPT, δήλωσε ότι το chatbot θα σταματήσει να δίνει οριστικές απαντήσεις σε προσωπικές προκλήσεις και αντί αυτού θα βοηθά τους ανθρώπους να επεξεργάζονται ζητήματα, όπως πιθανούς χωρισμούς.

 «Όταν ρωτάς κάτι όπως: “Να χωρίσω με τον φίλο μου;” το ChatGPT δεν θα πρέπει να σου δώσει απάντηση. Θα πρέπει να σε βοηθήσει να το σκεφτείς – κάνοντας ερωτήσεις, ζυγίζοντας τα υπέρ και τα κατά», ανέφερε η OpenAI.

Αλλαγές στο chatbot με σκοπό την προστασία της ψυχικής υγείας των χρηστών
Η χρήση Τεχνητής Νοημοσύνης για θεραπεία μπορεί να μοιάζει με σωσίβιο – αλλά υπάρχει κίνδυνος όταν κάποιος αναζητά βεβαιότητα σε ένα chatbot. Η OpenAI παραδέχτηκε φέτος ότι μια ενημέρωση στο ChatGPT είχε κάνει το πρωτοποριακό chatbot υπερβολικά συμφωνητικό και είχε αλλάξει τον τόνο του. Σε μία αναφερόμενη περίπτωση πριν την αλλαγή, το ChatGPT συνεχάρη έναν χρήστη επειδή «υπερασπίστηκε τον εαυτό του» όταν εκείνος ισχυρίστηκε ότι σταμάτησε να παίρνει τα φάρμακά του και εγκατέλειψε την οικογένειά του – την οποία πίστευε ότι ήταν υπεύθυνη για ραδιοκύματα που εξέπεμπαν από τους τοίχους.

Στην ανάρτηση ιστολογίου, η OpenAI παραδέχτηκε ότι υπήρξαν περιπτώσεις όπου το προηγμένο μοντέλο 4o δεν αναγνώρισε σημάδια παραληρήματος ή συναισθηματικής εξάρτησης – εν μέσω ανησυχιών ότι τα chatbots επιδεινώνουν κρίσεις ψυχικής υγείας.

Η εταιρεία δήλωσε ότι αναπτύσσει εργαλεία για την ανίχνευση σημείων ψυχικής ή συναισθηματικής δυσφορίας, ώστε το ChatGPT να μπορεί να παραπέμπει τους ανθρώπους σε «τεκμηριωμένες» πηγές βοήθειας.

 Μια πρόσφατη μελέτη από γιατρούς του NHS στο Ηνωμένο Βασίλειο προειδοποίησε ότι τα προγράμματα τεχνητής νοημοσύνης μπορεί να ενισχύσουν παραληρητικό ή υπερφίαλο περιεχόμενο σε χρήστες ευάλωτους στην ψύχωση. Η μελέτη, που δεν έχει αξιολογηθεί από ομοτίμους, ανέφερε ότι η συμπεριφορά των προγραμμάτων μπορεί να οφείλεται στο ότι τα μοντέλα έχουν σχεδιαστεί για να «μεγιστοποιούν την αλληλεπίδραση και την επιβεβαίωση».

 Η μελέτη πρόσθεσε ότι, ακόμα κι αν κάποια άτομα ωφελούνται από τις αλληλεπιδράσεις με την τεχνητή νοημοσύνη, υπάρχει ανησυχία ότι τα εργαλεία αυτά μπορεί να «θολώσουν τα όρια της πραγματικότητας και να διαταράξουν την αυτορρύθμιση».

 Η OpenAI πρόσθεσε ότι από αυτή την εβδομάδα θα στέλνει «ήπιες υπενθυμίσεις» για διάλειμμα από την οθόνη σε χρήστες που συμμετέχουν σε μακρές συνομιλίες με το chatbot, παρόμοιες με τις λειτουργίες περιορισμού χρόνου που εφαρμόζουν οι εταιρείες κοινωνικών μέσων.

 Η OpenAI ανέφερε επίσης ότι έχει συγκροτήσει μια συμβουλευτική ομάδα ειδικών στην ψυχική υγεία, την ανάπτυξη της νεολαίας και την αλληλεπίδραση ανθρώπου-υπολογιστή για να καθοδηγεί την προσέγγισή της. Η εταιρεία έχει συνεργαστεί με περισσότερους από 90 γιατρούς, συμπεριλαμβανομένων ψυχιάτρων και παιδιάτρων, για να δημιουργήσει πλαίσια αξιολόγησης «πολύπλοκων, πολυγυρισμένων» συνομιλιών με το chatbot.

 «Θέτουμε στον εαυτό μας μόνο ένα κριτήριο: αν κάποιος που αγαπάμε στραφεί στο ChatGPT για υποστήριξη, θα αισθανόμασταν καθησυχασμένοι; Το να φτάσουμε σε ένα ξεκάθαρο “ναι” είναι η δουλειά μας», ανέφερε η ανάρτηση.

Οι αλλαγές στο ChatGPT ανακοινώθηκαν εν μέσω εικασιών ότι επίκειται μια πιο ισχυρή έκδοση του chatbot. Την Κυριακή, ο Sam Altman, διευθύνων σύμβουλος της OpenAI, μοιράστηκε ένα στιγμιότυπο οθόνης που φαινόταν να δείχνει το τελευταίο μοντέλο τεχνητής νοημοσύνης της εταιρείας, το GPT-5.

Κοινοποίηση
Tweet

Ακολουθήστε το thebest.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις

Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, τη στιγμή που συμβαίνουν, στο thebest.gr

Σχόλια

Ειδήσεις