Ηλεκτρονική εφημερίδα με νέα της περιοχής Αμυνταίου – Φλώρινας και όχι μόνο… από το 2008

Δευτέρα 15 Δεκεμβρίου 2025

ChatGPT: Ένας βρικόλακας τριών ετών

 

Γράφει ο Γεράσιμος Τζιβράς*

Τρία Χρόνια Μετά: Πώς εξελίχθηκε η σχέση μας με το ChatGPT και γιατί μερικοί το βλέπουν ως “βαμπίρ” που τρέφεται από τις

ερωτήσεις μας

Πριν από τρία χρόνια περίπου, στα τέλη του 2022, η τεχνολογική ιστορία έκανε μια στροφή που λίγοι είχαν προβλέψει. Το ChatGPT έγινε δημόσια διαθέσιμο και μέσα σε λίγους μήνες ξεπέρασε τα 100 εκατομμύρια χρήστες, δηλαδή ο ταχύτερα υιοθετημένος καταναλωτικός τεχνολογικός παράγοντας μέχρι τότε (SimilarWeb, 2023).

Σήμερα, μετά από 36 μήνες συνεχούς χρήσης, η τεχνητή νοημοσύνη έχει διεισδύσει σε κάθε πτυχή της καθημερινότητάς μας, είτε αφορά την εργασία, την εκπαίδευση, την έρευνα, τη δημιουργικότητα, είτε ακόμη και στον τρόπο που σκεφτόμαστε.

Με αυτή την τεράστια διείσδυση, γεννήθηκε και ένας νέος φόβος:
Μήπως η AI λειτουργεί σαν βρικόλακας που ρουφάει τα δεδομένα και τις σκέψεις μας για να γίνεται ισχυρότερη;


Ο Μύθος και η Μεταφορά του Βαμπίρ: Ρουφάει η AI τις σκέψεις μας;

Από την πρώτη στιγμή που εμφανίστηκαν τα μεγάλα γλωσσικά μοντέλα (LLMs), πολλοί τα αντιλήφθηκαν σαν ένα είδος ψηφιακού βρικόλακα: Κάθε ερώτηση που γράφουμε, κάθε πρόβλημα που περιγράφουμε, κάθε κείμενο που της εμπιστευόμαστε, γίνεται “τροφή” για την τεχνητή νοημοσύνη.

Η μεταφορά του “βαμπίρ που δυναμώνει πίνοντας τις σκέψεις μας” έχει εξαπλωθεί τα τελευταία χρόνια και μεταφράζεται στον παρακάτω φόβο: Ό,τι γράφουμε στην τεχνητή νοημοσύνη, το “μαθαίνει”. Όσο περισσότερα της δίνουμε, τόσο πιο δυνατή γίνεται από εμάς.

Πολλοί πιστεύουν δηλαδή ότι οι ερωτήσεις, τα κείμενα, οι ιδέες και τα προβλήματά μας μπαίνουν απευθείας στην “εκπαίδευση” του μοντέλου, κάνοντάς το ολοένα και πιο ισχυρό. Η συγκεκριμένη άποψη χρησιμοποιείται συχνά και στα μέσα ενημέρωσης.

Πρόκειται όμως για μια από τις μεγαλύτερες παρεξηγήσεις γύρω από τα σύγχρονα LLMs. Αυτός ο φόβος έχει μια δόση ψυχολογικής αλήθειας, αλλά τεχνικά είναι σημαντικό να ξεκαθαριστεί τι πραγματικά συμβαίνει.


Τα prompts δεν χρησιμοποιούνται για να “εκπαιδεύουν” το μοντέλο

Η εικόνα της τεχνητής νοημοσύνης ως ενός «ψηφιακού βρικόλακα» που τρέφεται με τα ερωτήματά μας έχει κυριαρχήσει στο δημόσιο διάλογο. Παρά τη γοητεία της μεταφοράς, η πραγματικότητα είναι πολύ διαφορετική. Οι εταιρείες που αναπτύσσουν τα μεγάλα γλωσσικά μοντέλα -OpenAI, Google DeepMind και Meta- συμφωνούν σε ένα κρίσιμο σημείο: Οι ερωτήσεις των χρηστών δεν χρησιμοποιούνται για την εκπαίδευση των μοντέλων.

1. Τα prompts των χρηστών δεν χρησιμοποιούνται για την κύρια εκπαίδευση του μοντέλου.

  • Η εκπαίδευση έχει ολοκληρωθεί πριν τα μοντέλα κυκλοφορήσουν στο κοινό.
  • Τα δεδομένα εκπαίδευσης προέρχονται από βιβλία, επιστημονικά άρθρα, ανοιχτά datasets και επιμελημένο υλικό.

2. Η χρήση δεδομένων χρηστών για βελτίωση απαιτεί ρητή συναίνεση και γίνεται σε μικρή κλίμακα.

Οι πολιτικές χρήσης είναι σαφείς:

  • OpenAI: «Οι συνομιλίες δεν αξιοποιούνται για την εκπαίδευση των βασικών μοντέλων χωρίς opt-in
  • Google DeepMind: «Τα δεδομένα χρηστών δεν περιλαμβάνονται στο training αν δεν υπάρχει ρητή συναίνεση. »
  • Meta (Llama 2): «Τα δεδομένα χρήσης δεν επιστρέφουν στα σύνολα προεκπαίδευσης.»

Στην πράξη, ακόμη και όταν υπάρχει συναίνεση, τα δεδομένα χρησιμοποιούνται όχι για την εκπαίδευση του μοντέλου, αλλά για δευτερεύουσες διαδικασίες αξιολόγησης και ασφάλειας.

3. Αυτό που πραγματικά βελτιώνεται με βάση χρήστες είναι συστήματα εποπτείας και όχι το ίδιο το μοντέλο.

Για παράδειγμα, τα συστήματα ασφαλείας (guardrails) μπορεί να βελτιώνονται μέσω αναφορών, όχι όμως ο πυρήνας του μοντέλου. Η αλληλεπίδραση των χρηστών μπορεί να βοηθήσει εταιρείες να ενισχύσουν τα συστήματα ασφαλείας, τους μηχανισμούς αποτροπής κακόβουλης χρήσης, καθώς και τις διαδικασίες ανθρώπινης αξιολόγησης. Όχι όμως τις παραμέτρους του ίδιου του μοντέλου.

4. Τα prompts είναι “θορυβώδη”, ασυνεπή και συχνά λανθασμένα

Η ποιότητα των δεδομένων είναι κρίσιμη για την απόδοση ενός LLM. Τα prompts των χρηστών είναι τις περισσότερες φορές πρόχειρα, γεμάτα λάθη, αλληλοσυγκρουόμενα αλλά κυρίως προσωπικά ή ιδιωτικά.  

Όπως αναφέρει το Communications of the ACM (2023): «Τα δεδομένα που παράγουν οι χρήστες δεν ενδείκνυνται για εκπαίδευση λόγω θορύβου, ασυνέπειας και ζητημάτων απορρήτου.»

Στην πράξη, η ένταξη τέτοιων δεδομένων θα έκανε το μοντέλο χειρότερο, όχι καλύτερο. Ένα λάθος prompt μπορεί να “δηλητηριάσει” την εκπαίδευση (training data poisoning) και γι’ αυτό δεν χρησιμοποιούνται.

5. Τα prompts εξαφανίζονται μετά το τέλος της συνεδρίας

Τα σύγχρονα LLMs λειτουργούν με προσωρινή μνήμη, το λεγόμενο context window. Αυτό σημαίνει ότι:

  1. λαμβάνουν το prompt (Τα AI prompts είναι ουσιαστικά οι εντολές που δίνουμε σε ένα σύστημα τεχνητής νοημοσύνης)
  2. το χρησιμοποιούν για την απάντηση
  3. το «ξεχνούν» όταν ολοκληρωθεί η συνεδρία

Δεν αποθηκεύουν το περιεχόμενο, ούτε ενημερώνουν τις παραμέτρους τους βάσει αυτού.
Το έχουν επιβεβαιώσει
OpenAI, DeepMind, Meta και Anthropic. Το τεχνητό «βαμπίρ» δεν τρέφεται από τις ερωτήσεις μας. Η σχέση είναι πολύ πιο απλή και πολύ λιγότερο μυστηριώδης.


Τότε γιατί το “βαμπίρ” φαίνεται να δυναμώνει;

Η AI δεν δυναμώνει επειδή μαθαίνει από εμάς. Δυναμώνει επειδή εμείς προσαρμοζόμαστε σε αυτή.

Μελέτες που έχουν γίνει από: MIT Sloan (2023), Stanford HAI (2024), και Nature Human Behaviour (2023) , δείχνουν ότι η συνεχής χρήση εργαλείων AI, αλλάζει τον τρόπο εργασίας, ενισχύει την προθυμία μας να αναθέτουμε γνωστικές εργασίες, μεταβάλλει τα μοτίβα σκέψης μας, δημιουργεί νέες συνήθειες και εξαρτήσεις. μειώνει την γνωστική προσπάθεια (cognitive offloading), αλλάζει τις συνήθειες σκέψης, αναδιαμορφώνει τον τρόπο που λύνουμε προβλήματα, καλλιεργεί εξάρτηση.

Με απλά λόγια: Δεν εκπαιδεύουμε την TN· η TN εκπαιδεύει εμάς.

Έτσι, το «βαμπίρ» δεν τρώει τις σκέψεις μας - τις αναδιαμορφώνει. Σιγά σιγά, η τεχνητή νοημοσύνη δεν γίνεται δυνατότερη από τα δεδομένα που της δίνουμε όταν την ρωτάμε, αλλά από τον ρόλο που της δίνουμε στην καθημερινότητά μας και πώς την ρωτάμε.


Όταν το εργαλείο γίνεται καθρέφτης: τρία χρόνια συν-εξέλιξης

Τρία χρόνια μετά, μπορούμε να δούμε καθαρά κάτι που το 2022 δεν υποψιαζόμασταν: Η τεχνητή νοημοσύνη δεν είναι απλώς ένα εργαλείο. Είναι ένας καθρέφτης της σκέψης μας.

Όσο περισσότερο τη χρησιμοποιούμε, τόσο καλύτερα καταλαβαίνει τις προτιμήσεις μας (μέσω context, όχι μέσω training), τόσο περισσότερο διαμορφώνει την καθημερινή μας ροή αλλά και τόσο πιο απαραίτητη γίνεται.

Δεν “εκπαιδεύεται” από τις σκέψεις μας. Δεν μεταμορφώνεται με κάθε συζήτηση. Αλλάζει όμως εμάς. Αλλάζει τις συνήθειες μας, την ταχύτητα εργασίας μας, την αντίληψή μας για το τι είναι “δύσκολο”, την καθημερινή μας σχέση με τη γνώση.

Τρία χρόνια μετά, το πραγματικό ερώτημα παραμένει: Θα αφήσουμε την ΤΝ να γίνει ένα βαμπίρ που απομυζά τη γνωστική μας προσπάθεια, ή θα τη μετατρέψουμε σε εργαλείο ενδυνάμωσης και δημιουργικότητας;

Αυτή η απόφαση πρέπει να είναι δική μας και όχι της τεχνολογίας. Το σημαντικό είναι ότι η εξάρτηση αυτή δεν είναι τεχνική - είναι κοινωνική, ψυχολογική και γνωστική.  Η ΤΝ εισάγει έναν νέο τρόπο αλληλεπίδρασης με τη γνώση. Για πολλές δουλειές, γίνεται ήδη ο πρώτος σταθμός αναζήτησης πληροφοριών (Pew Research, 2024).

Η μεταφορά του βρικόλακα μπορεί να μην είναι τεχνικά ακριβής, αλλά περιγράφει εύστοχα την ανθρώπινη εμπειρία: Όσο της δίνουμε χρόνο, τόσο περισσότερο την αφήνουμε να εισχωρήσει στη σκέψη μας.

 *Ο Γεράσιμος Τζιβράς είναι Full-Stack Software Engineer και υποψήφιος διδάκτορας στο Πανεπιστήμιο Πελοποννήσου, όπου ερευνά προσαρμοστικές διεπαφές χρήστη (adaptive UIs) βασισμένες σε πολυεπίπεδα γραφήματα, με στόχο την αξιοποίηση Graph Neural Networks και Reinforcement Learning για εξατομίκευση. Έχει ηγηθεί έργων μεγάλης κλίμακας σε React και .NET, όπως το IRIS – ένα προηγμένο σύστημα διαχείρισης εγγράφων που χρησιμοποιείται από περισσότερους από 350 δήμους και δημόσιους φορείς – καθώς και το υποσύστημα μετάδοσης εκλογικών αποτελεσμάτων για τις εκλογές του 2023. Έχει επίσης αναπτύξει πρότυπο για την τυποποίηση της έναρξης React έργων σε ομάδες και έχει υλοποιήσει πλατφόρμες όπως carpooling εφαρμογές, ordering systems και template suites. Παράλληλα, διδάσκει διάφορες γλώσσες προγραμματισμού σε κολλέγια και ανώτατα ιδρύματα, συνδυάζοντας ακαδημαϊκή έρευνα και βιομηχανική εμπειρία. Πέρα από την τεχνολογία, αρθρογραφεί σε διάφορα μέσα, γράφοντας για την τεχνητή νοημοσύνη, τον ψηφιακό μετασχηματισμό και την ανθρώπινη διάσταση της καινοτομίας.

 


Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Α. Τα σχόλια εκφράζουν αποκλειστικά τις απόψεις των αποστολέων τους.
Β. Θερμή παράκληση, τα σχόλια να είναι κόσμια, ώστε να συνεισφέρουν στο διάλογο.
Γ. Δεν δημοσιεύονται σχόλια:
1.-Υβριστικoύ χαρακτήρα
2.- Γραμμένα με greeklish
3.- Με προσωπικό περιεχόμενο

Σημείωση: Μόνο ένα μέλος αυτού του ιστολογίου μπορεί να αναρτήσει σχόλιο.