Ηλεκτρονική εφημερίδα με νέα της περιοχής Αμυνταίου – Φλώρινας και όχι μόνο… από το 2008

Σάββατο 18 Οκτωβρίου 2025

Από το «Λυσάρι» στην Τεχνητή Νοημοσύνη

 

Γράφει ο Γεράσιμος Τζιβράς*

Για μία ακόμα φορά, η κουβέντα στο γραφείο κατέληξε –πού αλλού;– στην Τεχνητή Νοημοσύνη. Πώς μας επηρεάζει, πού μας οδηγεί και το

αποτύπωμα που αφήνει στην εκπαίδευση. Στα πλαίσια της συζήτησης, ένας συνάδελφος είπε γελώντας: «Παλιότερα, όταν άνοιγες το λυσάρι του βιβλίου, ένιωθες ότι κλέβεις. Τώρα, με την Τεχνητή Νοημοσύνη, όχι».

Η φράση του με έκανε να σκεφτώ. Τι άλλαξε; Γιατί κάτι που ουσιαστικά μας δίνει την απάντηση, όπως έκανε και το λυσάρι, δεν μας προκαλεί πια ενοχές; Έπειτα από πολλή σκέψη θα καταλάβαινα ότι η φράση αυτή ίσως να κρύβει μια ολόκληρη εκπαιδευτική μετάβαση.

Εκ πρώτης όψεως, η απάντηση, ίσως, βρίσκεται στη φύση της εμπειρίας. Το λυσάρι ήταν μια στατική σελίδα: άνοιγες, έβλεπες, αντέγραφες. Ήσουν παθητικός δέκτης. Η Τεχνητή Νοημοσύνη από την άλλη μεριά, σε καλεί να συνομιλήσεις. Σου εξηγεί, απαντά, διορθώνει, αναπτύσσει επιχειρήματα. Εσύ ρωτάς, εκείνη αποκρίνεται. Αυτή η ψευδαίσθηση διαλόγου μετατρέπει την μηχανική αντιγραφή σε συμμετοχή.

Στην ψυχολογία, αυτό ονομάζεται «γνωστική δέσμευση» (cognitive engagement) . Είναι η ψυχική προσπάθεια και η επένδυση που αφιερώνει κάποιος στην κατανόηση, τη μάθηση και την επίλυση προβλημάτων. Περιλαμβάνει την ενεργή σκέψη, την κριτική ανάλυση, την επίγνωση και τη χρήση στρατηγικών μάθησης για την επίτευξη στόχων, αντί να περιορίζεται στην απλή απομνημόνευση.  Ουσιαστικά, ο άνθρωπος αισθάνεται ότι «μαθαίνει», άρα δεν νιώθει ότι εξαπατά.

Υπάρχει, όμως, και κάτι βαθύτερο. Η Τεχνητή Νοημοσύνη δεν εμφανίζεται ως ψυχρό εργαλείο, αλλά έχει γλώσσα, τόνο, ύφος, ενσυναίσθηση. Μπορεί να ζητήσεις: «Εξήγησέ το σαν να είμαι 10 χρονών» ή «Δώσε μου παραδείγματα για να το καταλάβω»

Και το κάνει. Εδώ ακριβώς γεννιέται η προσωποποίηση της τεχνολογίας. Δεν νιώθουμε ότι αντιγράφουμε, γιατί νιώθουμε ότι συνεργαζόμαστε. Σύμφωνα με το MIT Media Lab (Turkle, 2023), οι άνθρωποι αποδίδουν «ανθρωπομορφικά» χαρακτηριστικά στα συστήματα Τεχνητής Νοημοσύνης. Δηλαδή, τα αντιλαμβάνονται ως συνομιλητές, όχι ως εργαλεία.

Έτσι, όταν η μηχανή μας καθοδηγεί, αισθανόμαστε ότι λαμβάνουμε βοήθεια, όχι ότι κλέβουμε. Όπως ακριβώς δεν θεωρούμε ότι «κλέβουμε» όταν μας εξηγεί κάτι ένας δάσκαλος, έτσι και εδώ μεταφράζουμε τη βοήθεια σε εκπαιδευτική σχέση.

Σύμφωνα με έρευνα του Harvard Graduate School of Education (2024), οι μαθητές αισθάνονται λιγότερη ενοχή όταν παίρνουν βοήθεια από ψηφιακό μέντορα, επειδή αντιλαμβάνονται τη διαδικασία ως συνεργασία και όχι ως εξαπάτηση.

Η Τεχνητή Νοημοσύνη καταφέρνει να μεταμορφώσει την εμπειρία του «έτοιμου αποτελέσματος» σε διάλογο. Και σε αυτό το σημείο βρίσκεται και η μεγαλύτερη ευκαιρία αλλά και η μεγαλύτερη παγίδα της: η ψευδαίσθηση της μάθησης. Γιατί, όταν κάτι εξηγείται δεν σημαίνει απαραίτητα ότι μαθαίνεται. Σημαντικό ρόλο σε αυτή τη μετάβαση θα πρέπει να έχουν και οι εκπαιδευτικοί καθώς ο ρόλος τους αλλάζει. Ο καθηγητής δεν είναι πια ο μοναδικός φορέας της γνώσης αλλά αυτός που διαμορφώνει κριτική σκέψη στους μαθητές. Το στοίχημα της εποχής δεν είναι να απαγορεύσουμε την Τεχνητή Νοημοσύνη, αλλά να τη χρησιμοποιήσουμε ως εργαστήριο σκέψης.

Ένας άλλος λόγος είναι ψυχολογικός: η αίσθηση του κόπου. Όταν αντιγράφεις από λυσάρι, νιώθεις ότι δεν προσπάθησες, καθώς η γνώση ήρθε «έτοιμη». Με την Τεχνητή Νοημοσύνη όμως, η διαδικασία μοιάζει με προσπάθεια. Γράφεις την ερώτησή σου, διαβάζεις την απάντηση, προσαρμόζεις, διορθώνεις, ρωτάς ξανά. Ο εγκέφαλος ενεργοποιείται μέσα από αυτή τη διάδραση, ακόμη κι αν η ουσία της σκέψης δεν είναι δική σου.

Η ψυχολογία της «τεχνητής προσπάθειας» δημιουργεί ψευδή αίσθηση επίτευξης. Ένα είδος placebo δηλαδή. Η προσπάθεια φαίνεται πραγματική, άρα ο εγκέφαλος νιώθει ικανοποίηση, εξαφανίζοντας την ενοχή.

Πλέον, το να ζητάς βοήθεια από μια μηχανή δεν θεωρείται ανήθικο· θεωρείται αποτελεσματικό. Έχουμε μάθει ότι η τεχνολογία δεν είναι υποκατάστατο, αλλά προέκταση του εαυτού μας. Αυτό που κάποτε θα θεωρούταν «αντιγραφή», σήμερα ονομάζεται «συνεργατική νοημοσύνη» (collaborative intelligence) όρος που χρησιμοποιείται από τη Microsoft Research (2023) για να περιγράψει τη συνεργασία ανθρώπων και Τεχνητής Νοημοσύνης για την επίτευξη καλύτερων αποτελεσμάτων από ό,τι θα μπορούσε να επιτύχει ο καθένας μόνος του. Συνδυάζει την ανθρώπινη δημιουργικότητα και κριτική σκέψη με την ταχύτητα και την ακρίβεια της μηχανής για την επίλυση σύνθετων προβλημάτων, τη βελτίωση της αποδοτικότητας και την προώθηση της καινοτομίας. Όταν ο χρήστης αντιλαμβάνεται την τεχνολογία ως συνεργάτη, παύει να αισθάνεται ένοχος για τη χρήση της.

Υπάρχει ακόμα και μια κοινωνική διάσταση. Η προηγούμενη γενιά εκπαιδεύτηκε μέσα σε ένα πλαίσιο τιμωρίας για το λάθος. Το λυσάρι ήταν συνώνυμο της τεμπελιάς. Η σημερινή εποχή, αντίθετα, προωθεί τη νοοτροπία της αυτοβελτίωσης: «μάθε γρηγορότερα, χρησιμοποίησε τα εργαλεία που έχεις». Έτσι, η χρήση της Τεχνητής Νοημοσύνης δεν προκαλεί ενοχή, αλλά ενίσχυση της αυτοεικόνας: «Είμαι έξυπνος γιατί ξέρω πώς να τη χρησιμοποιώ». Πρόκειται για το φαινόμενο της τεχνολογικής αυταπάτης της ικανότητας (technological self-efficacy illusion), που περιγράφεται σε έρευνες του London School of Economics (LSE, 2024). Αυτό το φαινόμενο ορίζεται ως η πίστη στην ικανότητα κάποιου να εκτελέσει με επιτυχία μια τεχνολογικά σύνθετη νέα εργασία

Όμως εδώ βρίσκεται και ο μεγαλύτερος κίνδυνος. Όσο περισσότερο νιώθουμε ότι μαθαίνουμε μέσω της Τεχνητής Νοημοσύνης, τόσο λιγότερο συνειδητοποιούμε πότε δεν μαθαίνουμε πραγματικά. Η απουσία ενοχής δεν σημαίνει απουσία κινδύνου. Μπορεί να οδηγήσει στη λεγόμενη γνωστική αδράνεια (cognitive offloading), δηλαδή την τάση να μεταθέτουμε την ευθύνη της σκέψης στη μηχανή, ώστε να μειώσουμε την πνευματική προσπάθεια που απαιτείται για την εκτέλεση μιας εργασίας (Risko & Gilbert, 2016).

Και εκεί ίσως χρειάζεται να ξαναδούμε τι σημαίνει «να κλέβεις» στην εκπαίδευση. Όχι γιατί χρησιμοποιείς ένα εργαλείο, αλλά γιατί παραδίδεις τη σκέψη σου σε αυτό. Η σύγχρονη εκπαίδευση, αντί να απαγορεύει το «νέο λυσάρι», πρέπει να το διδάξει. Γιατί η απαγόρευση οδηγεί στην παρανομία, ενώ η κατανόηση οδηγεί στην ηθική χρήση. Όπως κάποτε οι δάσκαλοι έδειχναν πώς να χρησιμοποιείς σωστά το βιβλίο, έτσι τώρα πρέπει να μάθουμε πώς να συνομιλούμε με την Τεχνητή Νοημοσύνη χωρίς να παραδινόμαστε σε αυτήν.-

*Ο Γεράσιμος Τζιβράς είναι Full-Stack Software Engineer και υποψήφιος διδάκτορας στο Πανεπιστήμιο Πελοποννήσου, όπου ερευνά προσαρμοστικές διεπαφές χρήστη (adaptive UIs) βασισμένες σε πολυεπίπεδα γραφήματα, με στόχο την αξιοποίηση Graph Neural Networks και Reinforcement Learning για εξατομίκευση. Έχει ηγηθεί έργων μεγάλης κλίμακας σε React και .NET, όπως το IRIS – ένα προηγμένο σύστημα διαχείρισης εγγράφων που χρησιμοποιείται από περισσότερους από 350 δήμους και δημόσιους φορείς – καθώς και το υποσύστημα μετάδοσης εκλογικών αποτελεσμάτων για τις εκλογές του 2023. Έχει επίσης αναπτύξει πρότυπο για την τυποποίηση της έναρξης React έργων σε ομάδες και έχει υλοποιήσει πλατφόρμες όπως carpooling εφαρμογές, ordering systems και template suites. Παράλληλα, διδάσκει διάφορες γλώσσες προγραμματισμού σε κολλέγια και ανώτατα ιδρύματα, συνδυάζοντας ακαδημαϊκή έρευνα και βιομηχανική εμπειρία. Πέρα από την τεχνολογία, αρθρογραφεί σε διάφορα μέσα, γράφοντας για την τεχνητή νοημοσύνη, τον ψηφιακό μετασχηματισμό και την ανθρώπινη διάσταση της καινοτομίας.


Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Α. Τα σχόλια εκφράζουν αποκλειστικά τις απόψεις των αποστολέων τους.
Β. Θερμή παράκληση, τα σχόλια να είναι κόσμια, ώστε να συνεισφέρουν στο διάλογο.
Γ. Δεν δημοσιεύονται σχόλια:
1.-Υβριστικoύ χαρακτήρα
2.- Γραμμένα με greeklish
3.- Με προσωπικό περιεχόμενο

Σημείωση: Μόνο ένα μέλος αυτού του ιστολογίου μπορεί να αναρτήσει σχόλιο.