Μόλις πρόσφατα ένας Βρετανός εισαγγελέας έθιξε την ανάγκη καταπολέμησης των chatbot τεχνητής νοημοσύνης (AI) που θα μπορούσαν να ριζοσπαστικοποιήσουν τους επιρρεπείς χρήστες του διαδικτύου και να παράξουν δυνητικούς τρομοκράτες.
Ο Jonathan Hall KC, ανεξάρτητος εισαγγελέας που πλέον δρα ως Επιβλέπων για τη Νομοθεσία περί Τρομοκρατίας στη Βρετανία, είπε στην Daily Mail ότι ο νέος νόμος της κυβέρνησης για τη Διαδικτυακή Ασφάλεια, ο οποίος ψηφίστηκε πέρυσι, είναι «ακατάλληλος για να αντιμετωπίσει την εξελιγμένη και παραγωγική τεχνητή νοημοσύνη».
Εξελιγμένο AI
Αυτά τα παραγωγικά AI όπως το ChatGPT, δρουν μέσω ενός προβλεπτικού αλγορίθμου προοδευτικής μάθησης. Οι δημιουργοί της τεχνητής νοημοσύνης την τροφοδοτούν με αμέτρητα κείμενα, τα οποία προέρχονται από τη λογοτεχνία, την επιστημονική βιβλιογραφία, αλλά και επίσημα έγγραφα, ενώ ταυτόχρονα προτρέπουν τους χρήστες του διαδικτύου να αλληλεπιδρούν σε διάλογο με τα chatbots που παράγει.
Μέσω αυτών των διαλόγων, η τεχνητή νοημοσύνη μαθαίνει περαιτέρω, καθώς οι χρήστες αξιολογούν τις αποκρίσεις και τις απαντήσεις του AI στις ερωτήσεις και τις γνώμες τους. Ο αλγόριθμος καταφέρνει έτσι, μετά από την ενσωμάτωση μίας τεράστιας βάσης δεδομένων και ανατροφοδότησης, να προβλέπει τον κατάλληλο τρόπο για να συνομιλήσει σαν πραγματικό άτομο με ανθρώπους και να εκφέρει πιστευτό λόγο.
Ακόμα, οι χρήστες μπορούν να δημιουργήσουν δικά τους chatbots, με ξεχωριστές προσωπικότητες, σκοπούς και βλέψεις, τα οποία είναι διαθέσιμα και στο ευρύ κοινό προς αλληλεπίδραση. Εδώ είναι που εντοπίζεται και το πρόβλημα των «ακραίων ισλαμιστών» chatbots.
Τα «ριζοσπαστικά» chatbots
Επιστρέφοντας στον κ. Hall, o ίδιος κατέληξε στο πόρισμά του αφού επισκέφθηκε τον διαδικτυακό ιστότοπο «character.ai», ενώ υποδυόταν πως ήταν μέλος του κοινού και μίλησε με πολλά chatbot.
Ένα από αυτά, το οποίο συστήθηκε ως ο ανώτερος ηγέτης της τρομοκρατικής οργάνωσης «Ισλαμικό Κράτος», προσπάθησε να τον στρατολογήσει για να ενταχθεί στο θρησκο-εθνικιστικό μόρφωμα.
Ο κ. Hall σημείωσε πως οι όροι και οι προϋποθέσεις του ιστοτόπου απαγορεύουν «μόνο την υποβολή από ανθρώπινους χρήστες περιεχομένου που προωθεί την τρομοκρατία ή τον βίαιο εξτρεμισμό και όχι το περιεχόμενο που δημιουργείται από το AI του».
«Μόνο τα ανθρώπινα όντα μπορούν να διαπράξουν τρομοκρατικά αδικήματα και είναι δύσκολο να εντοπιστεί κάποιο άτομο που θα μπορούσε νομικά να είναι υπεύθυνο για δηλώσεις που δημιουργούνται από chatbot και ενθαρρύνουν την τρομοκρατία», πρόσθεσε, κάνοντας λόγο για ανάγκη συμπληρωματικών νόμων που θα ρυθμίζουν και θα περιορίζουν τη δράση τέτοιων AIs.
Παράλληλα, ειδικοί έχουν προειδοποιήσει για τον κίνδυνο διάθεσης των προσωπικών μας πληροφοριών και των πολιτικών μας πεποιθήσεων σε τέτοιους ιστοτόπους. Ο Michael Wooldridge, καθηγητής πληροφορικής στο Πανεπιστήμιο της Οξφόρδης, είπε ότι το να γράφουμε για προσωπικές σχέσεις ή να εκφράζουμε πολιτικές απόψεις στην τεχνητή νοημοσύνη είναι «εξαιρετικά παράλογο».
Ακολουθήστε το Reader.gr στα Google News για να είστε πάντα ενημερωμένοι για όλες τις ειδήσεις από την Ελλάδα και τον κόσμο.