Κυριακή 17 Απριλίου 2022

Τα μαθηματικά παράδοξα καταδεικνύουν τα όρια της τεχνητής νοημοσύνης

 Οι άνθρωποι είναι συνήθως πολύ καλοί στο να αναγνωρίζουν πότε κάνουν τα πράγματα στραβά, αλλά τα συστήματα τεχνητής νοημοσύνης δεν είναι. Σύμφωνα με μια νέα μελέτη, η τεχνητή νοημοσύνη γενικά πάσχει από εγγενείς περιορισμούς λόγω ενός μαθηματικού παραδόξου για αιώνες.

Όπως μερικοί άνθρωποι, τα συστήματα τεχνητής νοημοσύνης  έχουν συχνά έναν βαθμό εμπιστοσύνης που υπερβαίνει κατά πολύ τις πραγματικές τους ικανότητες. Και όπως ένα άτομο με υπερβολική αυτοπεποίθηση, πολλά συστήματα τεχνητής νοημοσύνης δεν γνωρίζουν πότε κάνουν λάθη. Μερικές φορές είναι ακόμη πιο δύσκολο για ένα σύστημα τεχνητής νοημοσύνης να συνειδητοποιήσει πότε κάνει λάθος παρά να παράγει ένα σωστό αποτέλεσμα.

Ερευνητές από το Πανεπιστήμιο του Κέιμπριτζ και το Πανεπιστήμιο του Όσλο λένε ότι η αστάθεια είναι η αχίλλειος πτέρνα της σύγχρονης τεχνητής νοημοσύνης και ότι ένα μαθηματικό παράδοξο δείχνει τους περιορισμούς της τεχνητής νοημοσύνης. Τα νευρωνικά δίκτυα, τα εργαλείο τελευταίας τεχνολογίας στην τεχνητή νοημοσύνη, μιμούνται κατά προσέγγιση τους δεσμούς μεταξύ των νευρώνων στον εγκέφαλο. Οι ερευνητές δείχνουν ότι υπάρχουν προβλήματα όπου υπάρχουν σταθερά και ακριβή νευρωνικά δίκτυα, ωστόσο κανένας αλγόριθμος δεν μπορεί να δημιουργήσει ένα τέτοιο δίκτυο. Μόνο σε συγκεκριμένες περιπτώσεις οι αλγόριθμοι μπορούν να υπολογίσουν σταθερά και ακριβή νευρωνικά δίκτυα.

Οι ερευνητές προτείνουν μια θεωρία ταξινόμησης που περιγράφει πότε τα νευρωνικά δίκτυα μπορούν να εκπαιδευτούν ώστε να παρέχουν ένα αξιόπιστο σύστημα τεχνητής νοημοσύνης υπό ορισμένες συγκεκριμένες συνθήκες. Τα αποτελέσματά τους αναφέρονται στο Proceedings of the National Academy of Sciences .

Η βαθιά εκμάθηση, η κορυφαία τεχνολογία τεχνητής νοημοσύνης για την αναγνώριση προτύπων, έχει αποτελέσει αντικείμενο πολλών τίτλων που κόβουν την ανάσα. Τα παραδείγματα περιλαμβάνουν τη διάγνωση της νόσου με μεγαλύτερη ακρίβεια από τους γιατρούς ή την πρόληψη τροχαίων ατυχημάτων μέσω της αυτόνομης οδήγησης. Ωστόσο, πολλά συστήματα βαθιάς μάθησης είναι αναξιόπιστα και εύκολο να εξαπατηθούν.

«Πολλά συστήματα τεχνητής νοημοσύνης είναι ασταθή και γίνεται μια σημαντική ευθύνη, ειδικά καθώς χρησιμοποιούνται όλο και περισσότερο σε τομείς υψηλού κινδύνου, όπως η διάγνωση ασθενειών ή τα αυτόνομα οχήματα», δήλωσε ο συν-συγγραφέας καθηγητής Anders Hansen από το Τμήμα Εφαρμοσμένων Μαθηματικών και Θεωρητικής Φυσικής του Cambridge. . «Εάν τα συστήματα τεχνητής νοημοσύνης χρησιμοποιούνται σε τομείς όπου μπορούν να κάνουν πραγματικό κακό, αν πάνε στραβά, η εμπιστοσύνη σε αυτά τα συστήματα πρέπει να είναι η κορυφαία προτεραιότητα».

Το παράδοξο που εντόπισαν οι ερευνητές ανάγεται σε δύο μαθηματικούς γίγαντες του 20ου αιώνα: τον Άλαν Τούρινγκ και τον Κουρτ Γκέντελ. Στις αρχές του 20ου αιώνα, οι μαθηματικοί προσπάθησαν να δικαιολογήσουν τα μαθηματικά ως την απόλυτη συνεπή γλώσσα της επιστήμης. Ωστόσο, οι Turing και Gödel έδειξαν ένα παράδοξο στην καρδιά των μαθηματικών: είναι αδύνατο να αποδειχθεί εάν ορισμένες μαθηματικές προτάσεις είναι αληθείς ή ψευδείς και ορισμένα υπολογιστικά προβλήματα δεν μπορούν να αντιμετωπιστούν με αλγόριθμους. Και, όποτε ένα μαθηματικό σύστημα που  είναι αρκετά πλούσιο για να περιγράψει την αριθμητική που μαθαίνουμε στο σχολείο, δεν μπορεί να αποδείξει τη συνοχή του.

Δεκαετίες αργότερα, ο μαθηματικός Steve Smale πρότεινε μια λίστα με 18 άλυτα μαθηματικά προβλήματα για τον 21ο αιώνα . Το 18ο πρόβλημα  αφορούσε τα όρια νοημοσύνης τόσο για τους ανθρώπους όσο και για τις μηχανές.

«Το παράδοξο που εντόπισαν για πρώτη φορά οι Turing και Gödel έχει πλέον εισαχθεί στον κόσμο της τεχνητής νοημοσύνης από τον Smale και άλλους», δήλωσε ο συν-συγγραφέας Dr Matthew Colbrook από το Τμήμα Εφαρμοσμένων Μαθηματικών και Θεωρητικής Φυσικής. «Υπάρχουν θεμελιώδη όρια εγγενή στα μαθηματικά και, ομοίως, αλγόριθμοι τεχνητής νοημοσύνης δεν μπορούν να υπάρχουν για ορισμένα προβλήματα».

Οι ερευνητές λένε ότι, λόγω αυτού του παραδόξου, υπάρχουν περιπτώσεις όπου μπορούν να υπάρχουν καλά νευρωνικά δίκτυα, αλλά δεν μπορεί να κατασκευαστεί ένα εγγενώς αξιόπιστο. «Ανεξάρτητα από το πόσο ακριβή είναι τα δεδομένα σας, δεν μπορείτε ποτέ να λάβετε τις τέλειες πληροφορίες για να δημιουργήσετε το απαιτούμενο νευρωνικό δίκτυο», δήλωσε ο συν-συγγραφέας Δρ Vegard Antun από το Πανεπιστήμιο του Όσλο.

Η αδυναμία υπολογισμού του καλού υπάρχοντος νευρωνικού δικτύου ισχύει επίσης ανεξάρτητα από τον όγκο των δεδομένων εκπαίδευσης. Ανεξάρτητα από το πόσα δεδομένα μπορεί να έχει πρόσβαση ένας αλγόριθμος, δεν θα παράγει το επιθυμητό δίκτυο. "Αυτό είναι παρόμοιο με το επιχείρημα του Turing: υπάρχουν υπολογιστικά προβλήματα που δεν μπορούν να λυθούν ανεξάρτητα από την υπολογιστική ισχύ και το χρόνο εκτέλεσης", είπε ο Hansen.

Οι ερευνητές λένε ότι δεν είναι όλη η τεχνητή νοημοσύνη εγγενώς εσφαλμένη, αλλά είναι αξιόπιστη μόνο σε συγκεκριμένους τομείς, χρησιμοποιώντας συγκεκριμένες μεθόδους. «Το ζήτημα είναι με τομείς όπου χρειάζεστε εγγύηση, επειδή πολλά συστήματα τεχνητής νοημοσύνης είναι ένα μαύρο κουτί», είπε ο Colbrook. "Είναι απολύτως κατανοητό  σε ορισμένες περιπτώσεις να κάνει λάθη μια τεχνητή νοημοσύνη, αλλά πρέπει να είναι ειλικρινής γι 'αυτό. Και δεν είναι αυτό που βλέπουμε για πολλά συστήματα -- δεν υπάρχει τρόπος να γνωρίζουμε πότε είναι πιο σίγουροι ή λιγότερο σίγουροι για μια απόφαση».

"Προς το παρόν, τα συστήματα τεχνητής νοημοσύνης μπορεί μερικές φορές να έχουν μια πινελιά εικασιών", είπε ο Hansen."Δοκιμάζετε κάτι και αν δεν λειτουργεί, προσθέτετε περισσότερα πράγματα, ελπίζοντας ότι θα λειτουργήσει. Κάποια στιγμή, θα κουραστείτε να μην αποκτήσετε αυτό που θέλετε και θα δοκιμάσετε μια διαφορετική μέθοδο. Είναι σημαντικό να κατανοήσετε τους περιορισμούς των διαφορετικών προσεγγίσεων. Βρισκόμαστε στο στάδιο όπου οι πρακτικές επιτυχίες της τεχνητής νοημοσύνης είναι πολύ πιο μπροστά από τη θεωρία και την κατανόηση. Ένα πρόγραμμα για την κατανόηση του χρειάζονται τα θεμέλια της τεχνητής νοημοσύνης για να γεφυρωθεί αυτό το χάσμα».

"Όταν οι μαθηματικοί του 20ού αιώνα εντόπισαν διαφορετικά παράδοξα, δεν σταμάτησαν να μελετούν τα μαθηματικά. Έπρεπε απλώς να βρουν νέα μονοπάτια, γιατί κατανοούσαν τους περιορισμούς", είπε ο Colbrook. «Για την τεχνητή νοημοσύνη, μπορεί να είναι μια περίπτωση αλλαγής μονοπατιών ή ανάπτυξης νέων για την κατασκευή συστημάτων που μπορούν να λύσουν προβλήματα με αξιόπιστο και διαφανή τρόπο, ενώ κατανοούν τους περιορισμούς τους».

Το επόμενο στάδιο για τους ερευνητές είναι να συνδυάσουν τη θεωρία προσέγγισης, την αριθμητική ανάλυση και τα θεμέλια των υπολογισμών για να καθορίσουν ποια νευρωνικά δίκτυα μπορούν να υπολογιστούν με αλγόριθμους και ποια μπορούν να γίνουν σταθερά και αξιόπιστα. Ακριβώς όπως τα παράδοξα σχετικά με τους περιορισμούς των μαθηματικών και των υπολογιστών που εντόπισαν οι Gödel και Turing οδήγησαν σε πλούσιες θεωρίες θεμελίων -- που περιγράφουν τόσο τους περιορισμούς όσο και τις δυνατότητες των μαθηματικών και των υπολογισμών -- ίσως μια παρόμοια θεωρία θεμελίων μπορεί να ανθίσει στην τεχνητή νοημοσύνη.

Matthew Colbrook

Ο Matthew Colbrook είναι Junior Research Fellow στο Trinity College του Cambridge. Ο Anders Hansen είναι συνεργάτης στο Peterhouse του Cambridge. Η έρευνα υποστηρίχθηκε εν μέρει από τη Βασιλική Εταιρεία.

Πηγή:  Science Daily, !7 Μαρτίου 2022.

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου