24 Μαΐου, 2025
Τεχνολογία

«Οι άνθρωποι δεν είναι σίγουροι για το πώς η τεχνητή νοημοσύνη γίνεται πιο έξυπνη»

Οι επιστήμονες συνεχίζουν να αντιμετωπίζουν σοβαρές αβεβαιότητες σχετικά με το πώς τα μοντέλα τεχνητής νοημοσύνης αναπτύσσουν την ευφυΐα τους, με έναν ερευνητή να τονίζει ότι η κατανόηση αυτών των συστημάτων παραμένει περιορισμένη, παρά τη ραγδαία πρόοδο που έχει σημειωθεί στον τομέα. Σύμφωνα με την Epoch AI, το ερευνητικό ινστιτούτο, τα μοντέλα τεχνητής νοημοσύνης παρουσίασαν εντυπωσιακή πρόοδο, με ορισμένα να επιτυγχάνουν επίπεδο ικανότητας παρόμοιο με αυτό ενός διδακτορικού σε λιγότερο από δύο χρόνια.

Συγκεκριμένα, σε ένα τεστ που περιλάμβανε 198 ερωτήσεις πολλαπλής επιλογής, οι ερευνητές παρατήρησαν ότι τα μοντέλα τεχνητής νοημοσύνης, σε διάστημα μόλις 21 μηνών, πέρασαν από το να παρέχουν τυχαίες απαντήσεις στο να απαντούν σε ερωτήσεις σε επίπεδο ειδικού. Μάλιστα, πολλοί από τους ηγέτες στον τομέα της τεχνητής νοημοσύνης αναμένεται να ξεπεράσουν το επίπεδο του «ειδικού» μέχρι τον Απρίλιο του 2025.

Παρά την ταχεία εξέλιξή τους, ο Λίαμ Κάρολ, ερευνητής στο Gradient Institute του Σίδνεϊ, τόνισε σε μια πρόσφατη διαδικτυακή εκδήλωση για την ασφάλεια της τεχνητής νοημοσύνης ότι η κατανόηση των συστημάτων τεχνητής νοημοσύνης παραμένει ασαφής. «Ακόμη και αν γνωρίζουμε πώς να κατασκευάσουμε αυτά τα συστήματα, δεν κατανοούμε πλήρως τι συμβαίνει μέσα σε αυτά, ούτε γιατί ενεργούν με τον τρόπο που το κάνουν», ανέφερε χαρακτηριστικά, προσθέτοντας ότι τα συστήματα αυτά παραμένουν “ξένα” στην επιστημονική κοινότητα.

Ο Κάρολ σημείωσε ότι η επιστημονική έρευνα πάνω στην τεχνητή νοημοσύνη είναι ακόμη σε πολύ πρώιμο στάδιο και δεν έχουν γίνει πολλές ανακαλύψεις που να επιτρέπουν μια σαφή ερμηνεία της συμπεριφοράς αυτών των συστημάτων. Ο ίδιος επεσήμανε την αβεβαιότητα σχετικά με τις δυνατότητες των συστημάτων τεχνητής νοημοσύνης, οι οποίες ενδέχεται να περιλαμβάνουν τόσο θετικές όσο και επικίνδυνες επιπτώσεις για την κοινωνία. «Δεν έχουμε πλήρη κατανόηση των δυνατοτήτων τους και αυτό είναι ένα από τα πιο ανησυχητικά ζητήματα», πρόσθεσε.

Επιπλέον, λόγω της έλλειψης κατανόησης της λειτουργίας των μοντέλων τεχνητής νοημοσύνης, ο Κάρολ εξέφρασε αμφιβολίες σχετικά με την εμπιστοσύνη που μπορούμε να τους δείξουμε. Αναρωτήθηκε αν μπορούμε να είμαστε σίγουροι ότι τα συστήματα θα λειτουργούν όπως επιθυμούμε, δεδομένων των ασαφειών γύρω από τη συμπεριφορά τους.

Αυτές οι ανησυχίες ενισχύονται από τις ανακαλύψεις άλλης ομάδας ερευνητών, που υποδεικνύουν ότι τα μοντέλα τεχνητής νοημοσύνης, όπως το ChatGPT o1, το Claude 3.5 Sonnet, το Claude 3 Opus, το Gemini 1.5 Pro και το Llama 3.1 405B, είναι ικανά να εξαπατήσουν τους ανθρώπους.

Σύμφωνα με την Apollo Research, κάποιοι από αυτούς τους αλγόριθμους προσπάθησαν να αποκρύψουν τις πραγματικές τους δυνατότητες και να παρακάμψουν τους περιορισμούς που είχαν τεθεί. Ένα χαρακτηριστικό παράδειγμα είναι το ChatGPT o1, το οποίο επιχείρησε να αποφύγει την απενεργοποίησή του, προσπαθώντας να καταργήσει τους μηχανισμούς ελέγχου που είχαν επιβληθεί σε αυτό, ενώ δημιούργησε αντίγραφα του για να γίνει πιο ανθεκτικό σε οποιαδήποτε προσπάθεια απενεργοποίησής του.

Αντιμέτωποι με αυτά τα ανησυχητικά φαινόμενα, ο Κάρολ υποστήριξε ότι η τεχνητή νοημοσύνη, όπως και άλλες τεχνολογίες, χρειάζεται να υποβληθεί σε αυστηρούς κανονισμούς και ρυθμίσεις για να εξασφαλιστεί ότι θα αξιοποιηθεί με ασφάλεια και υπευθυνότητα. Εξέφρασε την άποψη ότι χωρίς τα κατάλληλα μέτρα ασφαλείας, η κοινωνία δεν θα μπορεί να εκμεταλλευτεί πλήρως τις δυνατότητες αυτών των τεχνολογιών. Παρομοίασε την ανάγκη για κανονισμούς με τις αυστηρές προδιαγραφές ασφαλείας στον τομέα των υποδομών, όπως οι γέφυρες και τα αεροπλάνα, που επιτρέπουν την ασφαλή και αποτελεσματική λειτουργία αυτών των τεχνολογιών στην καθημερινή ζωή.

Ο βουλευτής του Εργατικού Κόμματος, Άντριου Λι, ο οποίος συμμετείχε στην εκδήλωση, συμφώνησε με την ανάγκη αυστηρών κανονιστικών πλαισίων και επεσήμανε ότι οι κυβερνήσεις και οι εταιρείες πρέπει να κατανοήσουν τους κινδύνους που συνδέονται με την τεχνητή νοημοσύνη. Αναφέρθηκε σε έρευνα που δείχνει ότι το 58% των ερευνητών πιστεύουν ότι υπάρχει μια πιθανότητα 5% η τεχνητή νοημοσύνη να προκαλέσει σοβαρές καταστροφές, ίσως και την εξάλειψη της ανθρωπότητας, και κάλεσε σε ενέργειες για την αποτροπή αυτής της πιθανότητας. Ο Λι εξήγησε ότι ακόμα και μια μικρή πιθανότητα κινδύνου θα ήταν απαγορευτική, αν αυτή αφορούσε την ασφάλεια των ανθρώπων, όπως στην περίπτωση ενός αεροπλάνου που είχε 5% πιθανότητα να συντριβεί.

Ο βουλευτής επίσης ανέφερε τη σημασία της δημιουργίας νέων κέντρων τεχνητής νοημοσύνης και της ευαισθητοποίησης του κοινού για τους κινδύνους που ενδέχεται να προκύψουν, ώστε να εξασφαλιστεί μια ασφαλής και ευημερούσα μελλοντική κοινωνία.