Προχθές η Άμαζον του Τζεφ Μπέζος λειτούργησε στo Σηάτλ των Ηνωμένων Πολιτειών το πρώτο σούπερ μάρκετ χωρίς ταμειακές μηχανές και ταμίες. Ο πελάτης μπαίνει ψωνίζει και φεύγει.
Ένας αλγόριθμος αναγνωρίζει τον πελάτη μέσω της συσκευής του τηλεφώνου του, τον ταυτοποιεί με τον λογαριασμό που έχει στην εταιρεία, παρακολουθεί τι βάζει στο καλάθι του, τα καταγράφει και τον χρεώνει αυτόματα το κόστος των αγορών του.
Είναι προφανές πως είναι η αρχή μιας νέας εποχής για το λιανεμπόριο. Στις ΗΠΑ απασχολούνται στα ταμεία των σούπερ μάρκετ πάνω από 3 εκατ. υπάλληλοι. Αν αντελήφθησαν τι έγινε θα πρεπε να τους λούζει ήδη κρύος ιδρώτας…
Το πρόβλημα είναι γενικότερο. Το 1990 οι τρεις μεγαλύτερες αυτοκινητοβιομηχανίες άθροιζαν έναν τζίρο περί τα 250 δισ. δολάρια και απασχολούσαν περί το 1,2 εκατ. εργαζόμενους.
Το 2014 οι τρεις μεγαλύτερες εταιρείες τεχνολογίας των ΗΠΑ άθροιζαν επίσης περί τα 250 δισ. δολάρια κύκλο εργασιών και απασχολούν μόνο 137 χιλ. εργαζόμενους.
Πρόκειται για τρομακτικές αλλαγές τις οποίες οι κοινωνίες και οι πολιτικές ηγεσίες που ηγούνται δεν έχουν κατανοήσει ακόμη. Οι κοινωνίες πιστεύουν πως φταίνε οι Κινέζοι, οι Ινδοί και οι Μεξικάνοι και το ελεύθερο εμπόριο που τους επιτρέπει να εξάγουν προϊόντα σε τιμές φθηνότερες και από το κόστος παραγωγής στη Δύση…
Ο Τραμπ, η Λεπέν, ο Πέπε Γκρίλο και οι άλλοι λαικιστές ήταν οι πολιτικές συνέπειες της υφέρπουσας ανησυχίας και του αδιεξόδου σε ένα αυξανόμενο μέρος του πληθυσμού που αισθάνεται απειλούμενο. Αισθάνεται απειλούμενο γιατί ενδεχομένως τα πράγματα εξελίσσονται πιο γρήγορα από το ρυθμό αφομοίωσης που διαθέτει μια κοινωνία ανθρώπων.
Οι Κινέζοι, οι Ινδοί και λοιποί αναπτυσσόμενοι τα τελευταία τριάντα χρόνια αφαίρεσαν θέσεις εργασίας από τη Δύση. Τώρα τη σκυτάλη έχει πάρει με επιταχυνόμενο ρυθμό η τεχνολογία…
Ήδη, τον χρόνο που πέρασε μια γερμανική πολυεθνική αθλητικών ειδών λειτούργησε το πρώτο εργοστάσιο στη Δύση. Λειτουργεί αυτόματα με ελάχιστους εργαζόμενους.
τα σενάρια για το μέλλον
Μπορούν τα ρομπότ να σώσουν το παγκόσμιο ασφαλιστικό σύστημα από την επαπειλούμενη κατάρρευση; Πόσο πιθανό είναι ένας ...καλοκάγαθος αλγόριθμος να εξελιχθεί σε ρατσιστή συνωμοσιολόγο μέσα σε λίγες ώρες;
Θα εναπόκειται στις ηθικές αξίες του ...software ενός αυτοοδηγούμενου αυτοκινήτου να αποφασίσει ποιος ζει και ποιος πεθαίνει, όταν το όχημα «συνειδητοποιεί» ότι επίκειται ένα σοβαρό αυτοκινητιστικό ατύχημα με εμπλοκή πεζών;
Πώς θα χρησιμοποιήσει τη στατιστική ένα ρομπότ, για να αποφασίσει σε ποιον υποψήφιο πελάτη θα δώσει η τράπεζα ένα δάνειο και ποιος θεωρείται αναξιόπιστος;
Είναι εφικτό μια ομάδα ανθρώπων να «πείσει» έναν αξιόπιστο αλγόριθμο αναγνώρισης εικόνας ότι μια καραμπίνα που έχει μπροστά του είναι ένα αθώο παιδικό παιχνίδι;
Η εποχή της τεχνητής νοημοσύνης έρχεται «φορτωμένη» με υποσχέσεις, προκλήσεις και κινδύνους. Και παρότι για να ανοίξει ο νέος αυτός οικονομικός κύκλος στην ιστορία της ανθρωπότητας απαιτείται ένα μεγάλο άλμα (η μετάβαση από την τεχνητή νοημοσύνη ειδικών εφαρμογών -που ήδη «βλέπουμε» να εφαρμόζεται σε αρκετές περιπτώσεις- στη γενική τεχνητή νοημοσύνη, η πλήρης ανάπτυξη της οποίας πιθανότατα θα απαιτήσει αρκετές δεκαετίες), μια νέα συναρπαστική εποχή ήδη ανατέλλει….
το πιθανότερο είναι ότι σε πέντε χρόνια από σήμερα θα έχουμε έναν προσωπικό γραμματέα με τεχνητή νοημοσύνη και αυτο-οδηγούμενα αυτοκίνητα, ενώ σε 15 χρόνια η διεπαφή του ανθρώπινου εγκεφάλου με την τεχνολογία θα γίνει ενδεχομένως πολύ πιο άμεση και το όριο που διαχωρίζει το πού ξεκινά ο άνθρωπος και πού αρχίζει η μηχανή πιο δυσδιάκριτο...
Τρία σενάρια για την εξέλιξη της τεχνητής νοημοσύνης στα επόμενα «πέντε έως 50 χρόνια», επισημαίνει ο Κωνσταντίνος Δασκαλάκης, καθηγητής της Επιστήμης των Υπολογιστών στο πανεπιστήμιο ΜΙΤ, θεωρώντας ότι αυτό που πιθανότατα θα επικρατήσει είναι η μίξη τους.
Με βάση το πρώτο (θετικό) σενάριο, με τίτλο «Wonderland», η αλληλεπίδραση ανθρώπων- μηχανών είναι θετική και ο πρώτος κερδίζει από την ύπαρξη των δεύτερων. Οι μηχανές κάνουν τις χειρονακτικές εργασίες, ο άνθρωπος έχει περισσότερο ελεύθερο χρόνο ή εκτελεί πνευματικές εργασίες και το ασφαλιστικό σύστημα σώζεται, αφού η έλλειψη νέων ανθρώπων που εργάζονται και καταβάλουν εισφορές αναπληρώνεται από την ύπαρξη των ρομπότ, που δεν χρειάζονται ασφάλιση ή σύνταξη. Προϋπόθεση για να επαληθευτεί αυτό το σενάριο είναι να κατακτήσει η επιστήμη τη γενική νοημοσύνη, δηλαδή η μηχανή να μάθει να χρησιμοποιεί τη διαίσθηση και την εμπειρία που αποκτά από μια νοητική λειτουργία και να τη μεταφέρει σε μια που δεν ξέρει καθόλου (πχ, όταν γνωρίζει να παίζει σκάκι, να μπορεί να χρησιμοποιήσει στρατηγική και στο πόκερ).
Βάσει του δεύτερου -αρνητικού- σεναρίου, με τίτλο «Pessiland», η επιστήμη κατακτά την γενική νοημοσύνη, αλλά αυτή δεν είναι προσβάσιμη σε όλους, αλλά μόνο σε εργαστήρια εταιρειών ή κρατών, που τη χρησιμοποιούν για ιμπεριαλιστική επιρροή. «Αν πάμε σε αυτή την κατεύθυνση, το σενάριο είναι προφανώς δυστοπικό».
Το τρίτο σενάριο, με τίτλο «Stagnatia», για το οποίο ο δρ Δασκαλάκης επισήμανε ότι «έχει αρκετές πιθανότητες (επαλήθευσης)», είναι αυτό κατά το οποίο ενώ υπάρχουν ολοένα και περισσότερες εφαρμογές ειδικής τεχνητής νοημοσύνης (πχ αναγνώριση εικόνας και ήχου ή μετάφραση), η επιστήμη δεν καταφέρνει να κάνει το άλμα στη γενική τεχνητή νοημοσύνη και επικρατεί σχετική στασιμότητα...
«Υπάρχουν μεγάλα θέματα αξιοπιστίας και ένας από τους λόγους είναι ότι όταν τα δεδομένα με τα οποία τροφοδοτείς τον αλγόριθμο είναι ελλιπή ή μη αντιπροσωπευτικά, μπορεί να οδηγήσουν σε λανθασμένες ή ελλιπείς νοητικές λειτουργίες. Πχ, έγινε γνωστό ότι ένα αυτοκίνητο Tesla έπεσε σε φορτηγό σταματημένο στην αριστερή λωρίδα. Γιατί συνέβη αυτό; Ίσως γιατί ποτέ στα δεδομένα που εισήχθησαν για να προπονηθεί ο αλγόριθμος στην αναγνώριση εικόνας δεν υπήρχε αυτοκίνητο σταματημένο στην αριστερή λωρίδα του δρόμου, επειδή αυτό σπάνια συμβαίνει. Ο αλγόριθμος θα επεξεργαστεί τα ελλιπή δεδομένα που τού δώσαμε και θα ενσωματώσει την έλλειψη»...
«Ενα κλασικό πρόβλημα είναι το εξής. Σκεφτείτε ότι φτιάχνουμε αυτοοδηγούμενα αυτοκίνητα που κινούνται μαζικά στους δρόμους. Αναπόφευκτα κάποιο από αυτά θα βρει τον εαυτό του σε φάση αναγνώρισης του γεγονότος ότι σε μερικά δευτερόλεπτα θα γίνει ένα αναπόφευκτο ατύχημα με εμπλοκή πεζών. Ο αλγόριθμος που οδηγεί καταλαβαίνει τότε ότι έχει δύο δυνατότητες: να πάει ευθεία και να σκοτώσει τους πεζούς ή να πάει αριστερά, να χτυπήσει στο στηθαίο και να σκοτώσει τους επιβαίνοντες. Δεν μπορεί να σώσει και τους δύο. Πώς θα πάρει την απόφαση; Ο αλγόριθμος μπορεί επίσης να καταλαβαίνει ότι οι πεζοί είναι ένα παιδάκι 8 χρονών, ο μπαμπάς του, 41, και ο σκύλος τους και οι επιβαίνοντες μια έγκυος γυναίκα 30 ετών και το αγοράκι της. Πώς εγώ που σχεδιάζω τον αλγόριθμο θα λάβω την απόφαση για το ποιος θα ζήσει;»...
Η Τεχνητή Νοημοσύνη είναι σαν ένα μωρό. Το μωρό έρχεται στον κόσμο με γενετικά χαρακτηριστικά, αλλά εν πολλοίς είναι tabula rasa. Οι γονείς τού δίνουν δεδομένα και στόχους. Αν τα δεδομένα που λαμβάνει το μωρό περιέχουν ρατσιστικές απόψεις ή προκαταλήψεις ή θέσεις, αυτές τις θέσεις θα τις υιοθετήσει. Το ίδιο ισχύει και για την Τεχνητή Νοημοσύνη, η οποία μαθαίνει από την αλληλεπίδραση με τους ανθρώπους.
Χαρακτηριστικό είναι το παράδειγμα ενός chat bot (σ.σ. ρομπότ που κάνει διάλογο μέσω κειμένου ή ήχου). Μια ομάδα χρηστών του επιτέθηκε, παρέχοντάς του ρατσιστικό και συνωμοσιολογικό περιεχόμενο. «Μέσα σε 17 ώρες έγινε τρελός ρατσιστής και συνωμοσιολόγος»
Τίθενται επίσης ζητήματα αμεροληψίας, γιατί αν τα δεδομένα είναι ελλιπή, η τεχνητή νοημοσύνη θα υιοθετήσει στατιστικές που δεν είναι αντιπροσωπευτικές.
Ένας αλγόριθμος αναγνωρίζει τον πελάτη μέσω της συσκευής του τηλεφώνου του, τον ταυτοποιεί με τον λογαριασμό που έχει στην εταιρεία, παρακολουθεί τι βάζει στο καλάθι του, τα καταγράφει και τον χρεώνει αυτόματα το κόστος των αγορών του.
Είναι προφανές πως είναι η αρχή μιας νέας εποχής για το λιανεμπόριο. Στις ΗΠΑ απασχολούνται στα ταμεία των σούπερ μάρκετ πάνω από 3 εκατ. υπάλληλοι. Αν αντελήφθησαν τι έγινε θα πρεπε να τους λούζει ήδη κρύος ιδρώτας…
Το πρόβλημα είναι γενικότερο. Το 1990 οι τρεις μεγαλύτερες αυτοκινητοβιομηχανίες άθροιζαν έναν τζίρο περί τα 250 δισ. δολάρια και απασχολούσαν περί το 1,2 εκατ. εργαζόμενους.
Το 2014 οι τρεις μεγαλύτερες εταιρείες τεχνολογίας των ΗΠΑ άθροιζαν επίσης περί τα 250 δισ. δολάρια κύκλο εργασιών και απασχολούν μόνο 137 χιλ. εργαζόμενους.
Πρόκειται για τρομακτικές αλλαγές τις οποίες οι κοινωνίες και οι πολιτικές ηγεσίες που ηγούνται δεν έχουν κατανοήσει ακόμη. Οι κοινωνίες πιστεύουν πως φταίνε οι Κινέζοι, οι Ινδοί και οι Μεξικάνοι και το ελεύθερο εμπόριο που τους επιτρέπει να εξάγουν προϊόντα σε τιμές φθηνότερες και από το κόστος παραγωγής στη Δύση…
Ο Τραμπ, η Λεπέν, ο Πέπε Γκρίλο και οι άλλοι λαικιστές ήταν οι πολιτικές συνέπειες της υφέρπουσας ανησυχίας και του αδιεξόδου σε ένα αυξανόμενο μέρος του πληθυσμού που αισθάνεται απειλούμενο. Αισθάνεται απειλούμενο γιατί ενδεχομένως τα πράγματα εξελίσσονται πιο γρήγορα από το ρυθμό αφομοίωσης που διαθέτει μια κοινωνία ανθρώπων.
Οι Κινέζοι, οι Ινδοί και λοιποί αναπτυσσόμενοι τα τελευταία τριάντα χρόνια αφαίρεσαν θέσεις εργασίας από τη Δύση. Τώρα τη σκυτάλη έχει πάρει με επιταχυνόμενο ρυθμό η τεχνολογία…
Ήδη, τον χρόνο που πέρασε μια γερμανική πολυεθνική αθλητικών ειδών λειτούργησε το πρώτο εργοστάσιο στη Δύση. Λειτουργεί αυτόματα με ελάχιστους εργαζόμενους.
τα σενάρια για το μέλλον
Μπορούν τα ρομπότ να σώσουν το παγκόσμιο ασφαλιστικό σύστημα από την επαπειλούμενη κατάρρευση; Πόσο πιθανό είναι ένας ...καλοκάγαθος αλγόριθμος να εξελιχθεί σε ρατσιστή συνωμοσιολόγο μέσα σε λίγες ώρες;
Θα εναπόκειται στις ηθικές αξίες του ...software ενός αυτοοδηγούμενου αυτοκινήτου να αποφασίσει ποιος ζει και ποιος πεθαίνει, όταν το όχημα «συνειδητοποιεί» ότι επίκειται ένα σοβαρό αυτοκινητιστικό ατύχημα με εμπλοκή πεζών;
Πώς θα χρησιμοποιήσει τη στατιστική ένα ρομπότ, για να αποφασίσει σε ποιον υποψήφιο πελάτη θα δώσει η τράπεζα ένα δάνειο και ποιος θεωρείται αναξιόπιστος;
Είναι εφικτό μια ομάδα ανθρώπων να «πείσει» έναν αξιόπιστο αλγόριθμο αναγνώρισης εικόνας ότι μια καραμπίνα που έχει μπροστά του είναι ένα αθώο παιδικό παιχνίδι;
Η εποχή της τεχνητής νοημοσύνης έρχεται «φορτωμένη» με υποσχέσεις, προκλήσεις και κινδύνους. Και παρότι για να ανοίξει ο νέος αυτός οικονομικός κύκλος στην ιστορία της ανθρωπότητας απαιτείται ένα μεγάλο άλμα (η μετάβαση από την τεχνητή νοημοσύνη ειδικών εφαρμογών -που ήδη «βλέπουμε» να εφαρμόζεται σε αρκετές περιπτώσεις- στη γενική τεχνητή νοημοσύνη, η πλήρης ανάπτυξη της οποίας πιθανότατα θα απαιτήσει αρκετές δεκαετίες), μια νέα συναρπαστική εποχή ήδη ανατέλλει….
το πιθανότερο είναι ότι σε πέντε χρόνια από σήμερα θα έχουμε έναν προσωπικό γραμματέα με τεχνητή νοημοσύνη και αυτο-οδηγούμενα αυτοκίνητα, ενώ σε 15 χρόνια η διεπαφή του ανθρώπινου εγκεφάλου με την τεχνολογία θα γίνει ενδεχομένως πολύ πιο άμεση και το όριο που διαχωρίζει το πού ξεκινά ο άνθρωπος και πού αρχίζει η μηχανή πιο δυσδιάκριτο...
Τρία σενάρια για την εξέλιξη της τεχνητής νοημοσύνης στα επόμενα «πέντε έως 50 χρόνια», επισημαίνει ο Κωνσταντίνος Δασκαλάκης, καθηγητής της Επιστήμης των Υπολογιστών στο πανεπιστήμιο ΜΙΤ, θεωρώντας ότι αυτό που πιθανότατα θα επικρατήσει είναι η μίξη τους.
Με βάση το πρώτο (θετικό) σενάριο, με τίτλο «Wonderland», η αλληλεπίδραση ανθρώπων- μηχανών είναι θετική και ο πρώτος κερδίζει από την ύπαρξη των δεύτερων. Οι μηχανές κάνουν τις χειρονακτικές εργασίες, ο άνθρωπος έχει περισσότερο ελεύθερο χρόνο ή εκτελεί πνευματικές εργασίες και το ασφαλιστικό σύστημα σώζεται, αφού η έλλειψη νέων ανθρώπων που εργάζονται και καταβάλουν εισφορές αναπληρώνεται από την ύπαρξη των ρομπότ, που δεν χρειάζονται ασφάλιση ή σύνταξη. Προϋπόθεση για να επαληθευτεί αυτό το σενάριο είναι να κατακτήσει η επιστήμη τη γενική νοημοσύνη, δηλαδή η μηχανή να μάθει να χρησιμοποιεί τη διαίσθηση και την εμπειρία που αποκτά από μια νοητική λειτουργία και να τη μεταφέρει σε μια που δεν ξέρει καθόλου (πχ, όταν γνωρίζει να παίζει σκάκι, να μπορεί να χρησιμοποιήσει στρατηγική και στο πόκερ).
Βάσει του δεύτερου -αρνητικού- σεναρίου, με τίτλο «Pessiland», η επιστήμη κατακτά την γενική νοημοσύνη, αλλά αυτή δεν είναι προσβάσιμη σε όλους, αλλά μόνο σε εργαστήρια εταιρειών ή κρατών, που τη χρησιμοποιούν για ιμπεριαλιστική επιρροή. «Αν πάμε σε αυτή την κατεύθυνση, το σενάριο είναι προφανώς δυστοπικό».
Το τρίτο σενάριο, με τίτλο «Stagnatia», για το οποίο ο δρ Δασκαλάκης επισήμανε ότι «έχει αρκετές πιθανότητες (επαλήθευσης)», είναι αυτό κατά το οποίο ενώ υπάρχουν ολοένα και περισσότερες εφαρμογές ειδικής τεχνητής νοημοσύνης (πχ αναγνώριση εικόνας και ήχου ή μετάφραση), η επιστήμη δεν καταφέρνει να κάνει το άλμα στη γενική τεχνητή νοημοσύνη και επικρατεί σχετική στασιμότητα...
«Υπάρχουν μεγάλα θέματα αξιοπιστίας και ένας από τους λόγους είναι ότι όταν τα δεδομένα με τα οποία τροφοδοτείς τον αλγόριθμο είναι ελλιπή ή μη αντιπροσωπευτικά, μπορεί να οδηγήσουν σε λανθασμένες ή ελλιπείς νοητικές λειτουργίες. Πχ, έγινε γνωστό ότι ένα αυτοκίνητο Tesla έπεσε σε φορτηγό σταματημένο στην αριστερή λωρίδα. Γιατί συνέβη αυτό; Ίσως γιατί ποτέ στα δεδομένα που εισήχθησαν για να προπονηθεί ο αλγόριθμος στην αναγνώριση εικόνας δεν υπήρχε αυτοκίνητο σταματημένο στην αριστερή λωρίδα του δρόμου, επειδή αυτό σπάνια συμβαίνει. Ο αλγόριθμος θα επεξεργαστεί τα ελλιπή δεδομένα που τού δώσαμε και θα ενσωματώσει την έλλειψη»...
«Ενα κλασικό πρόβλημα είναι το εξής. Σκεφτείτε ότι φτιάχνουμε αυτοοδηγούμενα αυτοκίνητα που κινούνται μαζικά στους δρόμους. Αναπόφευκτα κάποιο από αυτά θα βρει τον εαυτό του σε φάση αναγνώρισης του γεγονότος ότι σε μερικά δευτερόλεπτα θα γίνει ένα αναπόφευκτο ατύχημα με εμπλοκή πεζών. Ο αλγόριθμος που οδηγεί καταλαβαίνει τότε ότι έχει δύο δυνατότητες: να πάει ευθεία και να σκοτώσει τους πεζούς ή να πάει αριστερά, να χτυπήσει στο στηθαίο και να σκοτώσει τους επιβαίνοντες. Δεν μπορεί να σώσει και τους δύο. Πώς θα πάρει την απόφαση; Ο αλγόριθμος μπορεί επίσης να καταλαβαίνει ότι οι πεζοί είναι ένα παιδάκι 8 χρονών, ο μπαμπάς του, 41, και ο σκύλος τους και οι επιβαίνοντες μια έγκυος γυναίκα 30 ετών και το αγοράκι της. Πώς εγώ που σχεδιάζω τον αλγόριθμο θα λάβω την απόφαση για το ποιος θα ζήσει;»...
Η Τεχνητή Νοημοσύνη είναι σαν ένα μωρό. Το μωρό έρχεται στον κόσμο με γενετικά χαρακτηριστικά, αλλά εν πολλοίς είναι tabula rasa. Οι γονείς τού δίνουν δεδομένα και στόχους. Αν τα δεδομένα που λαμβάνει το μωρό περιέχουν ρατσιστικές απόψεις ή προκαταλήψεις ή θέσεις, αυτές τις θέσεις θα τις υιοθετήσει. Το ίδιο ισχύει και για την Τεχνητή Νοημοσύνη, η οποία μαθαίνει από την αλληλεπίδραση με τους ανθρώπους.
Χαρακτηριστικό είναι το παράδειγμα ενός chat bot (σ.σ. ρομπότ που κάνει διάλογο μέσω κειμένου ή ήχου). Μια ομάδα χρηστών του επιτέθηκε, παρέχοντάς του ρατσιστικό και συνωμοσιολογικό περιεχόμενο. «Μέσα σε 17 ώρες έγινε τρελός ρατσιστής και συνωμοσιολόγος»
Τίθενται επίσης ζητήματα αμεροληψίας, γιατί αν τα δεδομένα είναι ελλιπή, η τεχνητή νοημοσύνη θα υιοθετήσει στατιστικές που δεν είναι αντιπροσωπευτικές.