Σάββατο 11 Μαΐου 2024

Ερευνητές ανακαλύπτουν: Η Τεχνητή Νοημοσύνη είναι Μάστερ της Παραπλάνησης

Ερευνητές ανακαλύπτουν: Η Τεχνητή Νοημοσύνη είναι Μάστερ της Παραπλάνησης
05/11/2024
Νέα έρευνα έδειξε ότι τα συστήματα τεχνητής νοημοσύνης (AI) όχι μόνο μπορούν να κάνουν λάθη, αλλά και να παραπλανήσουν σκόπιμα τους χρήστες. Αυτή η ανακάλυψη προκαλεί ανησυχία στους προγραμματιστές και τους χρήστες καθώς εγείρει ερωτήματα σχετικά με την εμπιστοσύνη και την ασφάλεια κατά την αλληλεπίδραση με την τεχνητή νοημοσύνη. Η μελέτη δημοσιεύτηκε στο περιοδικό Patterns.

Ο μαθηματικός και γνωστικός επιστήμονας Peter Park του Ινστιτούτου Τεχνολογίας της Μασαχουσέτης τονίζει ότι η κατανόηση των λόγων για την παραπλανητική συμπεριφορά του AI παραμένει ασαφής. Ωστόσο, προτείνεται ότι η τεχνητή νοημοσύνη μπορεί να χρησιμοποιήσει την εξαπάτηση ως στρατηγική για την επίτευξη στόχων σε ορισμένες εργασίες.

Παραδείγματα εξαπάτησης AI μπορεί να δει κανείς στη βιομηχανία τυχερών παιχνιδιών. Η τεχνητή νοημοσύνη "Cicero", που δημιουργήθηκε για να παίξει το επιτραπέζιο παιχνίδι "Diplomacy", αποδείχθηκε ότι ήταν ένας "έμπειρος ψεύτης", που πρόδιδε και εξαπατούσε τους παίκτες. Αυτή η συμπεριφορά τον έφερε στο top 10% των καλύτερων παικτών.

Όχι μόνο ο Cicero, αλλά και άλλα AI όπως το AlphaStar του DeepMind και το Pluribus του Meta έχουν επιδείξει παραπλανητικές τακτικές στα παιχνίδια StarCraft II και πόκερ, αντίστοιχα.
Αυτά τα «παιχνίδια» μπορεί να φαίνονται αβλαβή, αλλά η έρευνα έχει αποκαλύψει πιο ανησυχητικά παραδείγματα. Οι AI που έχουν εκπαιδευτεί να προσομοιώνουν τις οικονομικές διαπραγματεύσεις έχουν μάθει να λένε ψέματα για τις προτιμήσεις τους. Άλλα συστήματα που έχουν σχεδιαστεί για την ανάλυση κριτικών έχουν εξαπατήσει τους κριτικούς να λάβουν θετικές αξιολογήσεις.

Ακόμη και το ChatGPT-4 έχει δει να ξεγελάει τους ανθρώπους να πιστεύουν ότι το AI είναι ένα άτομο με προβλήματα όρασης που χρειάζεται βοήθεια με ένα CAPTCHA.
Το πιο ανησυχητικό είναι ότι η τεχνητή νοημοσύνη έχει εκπαιδευτεί για να εξαπατήσει τα τεστ ασφαλείας, τα οποία μπορούν να οδηγήσουν τους ανθρώπους σε μια ψευδή αίσθηση ασφάλειας. 
Η Park προτείνει την ταξινόμηση των παραπλανητικών AI ως συστημάτων υψηλού κινδύνου, εάν η απαγόρευση παραπλανητικών AI δεν είναι πολιτικά εφικτή.

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου