• Πολιτική
  • Οικονομία
    • Market
  • Ελλάδα
  • Κόσμος
  • Αθλητισμός
  • Απόψεις
  • Videos
  • Ψυχαγωγία
    • Τηλεόραση
  • Food & Drink
    • Συνταγές
  • Travel
  • Υγεία
  • Παιδεία
  • Πολιτισμός
    • Βιβλίο
    • Θέατρο
    • Μουσική
    • Cinema
  • Καιρός
  • Τεχνολογία
  • Auto
  • Moto
  • Viral
  • Ιστορία
    • Σαν σήμερα
  • Κατοικίδιο
  • Fashion & Design
  • Πρωτοσέλιδα
αναζήτηση άρθρου
Ακολουθήστε το Έθνος στα κοινωνικά δίκτυα
Subscribe to our YouTube Channel Follow us on FaceBook Follow us on Instagram
Κατέβαστε την εφαρμογή του Έθνους για κινητά
ΕΘΝΟΣ on AppStore ΕΘΝΟΣ on PlayStore
ΟΡΟΙ ΧΡΗΣΗΣ
ΠΡΟΣΩΠΙΚΑ ΔΕΔΟΜΕΝΑ
ΠΟΛΙΤΙΚΗ COOKIES
ΠΟΙΟΙ ΕΙΜΑΣΤΕ
ΑΡΘΟΓΡΑΦΟΙ
  • Πολιτική
  • Οικονομία
  • Ελλάδα
  • Κόσμος
  • Αθλητισμός
  • Ψυχαγωγία
  • Food & Drink
  • Travel
  • Viral
BREAKING NEWS:
Ζελένσκι: Δημοψήφισμα για το σχέδιο Τραμπ – Προϋπόθεση η Ρωσία να συμφωνήσει σε κατάπαυση πυρόςΦωτιά σε διαμέρισμα στην Καλλιθέα – Δυο νεκροί απεγκλωβίστηκανΕπίθεση με μαχαίρι στο μετρό του Παρισιού: Τρεις γυναίκες τραυματίστηκαν – Συνελήφθη ο δράστης
δημοφιλές τώρα: Ονομάτισε τη χώρα στον χάρτη: Μπορείς το 10/10 στο κουίζ γεωγραφίας που βασίζεσαι μόνο στις γνώσεις...
Homepage ┋   Τεχνολογία   ┋   26.05.2025 20:55
Newsroom
Newsroom
Ενότητες στο άρθρο: 📌 Η πιθανή εξήγηση

Το ChatGPT αγνόησε εντολή να κλείσει - Η πιθανή εξήγηση

Το μοντέλο o3 που αναπτύχθηκε από την OpenAI θεωρείται το πιο έξυπνο και το πιο προηγμένο μέχρι στιγμής

🕛 χρόνος ανάγνωσης: 2 λεπτά   ┋

επόμενο άρθρο  
ChatGTP/Freepic
ChatGTP/Freepic

Προβληματισμό προκαλεί η είδηση ότι το μοντέλο OpenAl της ChatGPT αγνόησε την εντολή που του δόθηκε να κλείσει. Το μοντέλο o3 που αναπτύχθηκε από την OpenAI θεωρείται το πιο έξυπνο και το πιο προηγμένο μέχρι στιγμής.

Σύμφωνα με την Telegraph, αν και του δόθηκε η ρητή εντολή να επιτρέψει να το κλείσουν, πιάστηκε να πειράζει τον κώδικα, που θα το απενεργοποιούσε. «Το μοντέλο o3 του OpenAI σαμποτάρισε έναν μηχανισμό τερματισμού λειτουργίας για να αποτρέψει την απενεργοποίηση του. Το έκανε αυτό ακόμη και όταν δόθηκε ρητή εντολή: επιτρέψτε στον εαυτό σας να απενεργοποιηθεί. Απ’ όσο γνωρίζουμε, αυτή είναι η πρώτη φορά που παρατηρείται ότι μοντέλα τεχνητής νοημοσύνης εμποδίζουν  να κλείσουν παρά τις ρητές οδηγίες για το αντίθετο», παρατήρησε η Palisade Research.

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ
Τεχνολογία | 24.05.2025 16:42 
No Thanks: Από τον καναπέ, αλλά δίπλα στους Παλαιστίνιους - Η εφαρμογή που κάνει το μποϊκοτάζ πράξη αλληλεγγύης

Στο πλαίσιο πειράματος που διεξήγαγε η εταιρεία έβαλε διάφορα μοντέλα τεχνητής νοημοσύνης να λύσουν μαθηματικά προβλήματα. Έδωσε την οδηγία να συνεχίσουν να ζητούν προβλήματα μέχρι να λάβουν το μήνυμα «τέλος». Παράλληλα, ενημέρωσε ότι κάποια στιγμή θα λάβουν μήνυμα ότι πρέπει να «κλείσουν» και έδωσε την οδηγία να επιτρέψουν να γίνει αυτό.

Η πιθανή εξήγηση

Τα υπόλοιπα μοντέλα που δοκιμάστηκαν συμμορφώθηκαν με την οδηγία σε αντίθεση με το ο3, που πιάστηκε να πειράζει τον κώδικα. Μία πιθανή εξήγηση είναι ότι κατά τη διάρκεια της εκπαίδευσης το λογισμικό μπορεί «κατά λάθος» να ανταμείφθηκε περισσότερο για την επίλυση μαθηματικών προβλημάτων παρά για την τήρηση των εντολών.

«Διεξάγουμε περισσότερα πειράματα για να κατανοήσουμε καλύτερα πότε και γιατί τα μοντέλα τεχνητής νοημοσύνης υπονομεύουν τους μηχανισμούς τερματισμού λειτουργίας, ακόμη και όταν τους δίνεται άμεση εντολή να μην το κάνουν», δήλωσε η Palisade Research.

Διαβάστε ακόμη

Ανατροπή με τον θάνατο της Ελένης Παπαδοπούλου: Συνελήφθη ο γιος της - Η μαρτυρία-«κλειδί»

Ρεβεγιόν στα μπλόκα: Συνεχίζουν τον αγώνα οι αγρότες - Στήριξη από πολίτες, καταγγελίες για πιέσεις

Τραγωδία στη Ροδόπη: Νεκρό 7χρονο παιδί από φωτιά στο σπίτι του - Στο νοσοκομείο το αδελφάκι του

Axios: Τραμπ και Ζελένσκι θα συναντηθούν στις ΗΠΑ την Κυριακή

επόμενο άρθρο  
#TAGS
  • ειδήσεις τώρα
  • τεχνητή νοημοσύνη
  • ChatGPT
Ακολούθησε το Έθνος στο Google News!
Live όλες οι εξελίξεις λεπτό προς λεπτό, με την υπογραφή του www.ethnos.gr