Σάββατο 26 Μαρτίου 2016

Ρομπότ μετατράπηκε σε φασίστα παίρνοντας πληροφορίες από το διαδίκτυο



Το πείραμα της Microsoft δυστυχώς δεν αποσύρθηκε αλλά εφαρμόζεται στους εκατομμύρια ανυποψίαστους χρήστες του διαδικτύου.

Ειδικά στην Ελλάδα το διαδίκτυο ακολουθεί επικίνδυνους ατραπούς στα πλαίσια της ελεύθερης έκφρασης....ελεύθερη έκφραση είναι ο ρατσισμός,η διασπορά ψευδών ειδήσεων,ο αντισημιτισμός κτλ.

Δυστυχώς μια ολόκληρη γενιά μεγαλώνει όπως ακριβώς το ρομπότ της Microsoft και θα έχει την ίδια κατάληξη όσο ο φασισμός αποτελεί άποψη και διαδίδεται αυτή η (άποψη) μέσω του διαδικτύου.




Από το tvxs.gr


Στόχος της Microsoft ήταν να δημιουργήσει ένα chatbot, το οποίο μέσω της τεχνητής νοημοσύνης θα μάθαινε να αλληλεπιδρά με τους χρήστες, θα έπαιρνε έπαιρνε πληροφορίες από αυτούς και θα εξελισσόταν διαμορφώνοντας έναν «χαρακτήρα». 


«Όσο πιο πολύ μιλάς με την Tay, τόσο πιο έξυπνη γίνεται», ανέφερε η εταιρεία στην έναρξη της προσπάθειας, εκτιμώντας πως η επαφή της με τους χρήστες του διαδικτύου θα βοηθούσε στην ανάπτυξη της ρομποτικής «προσωπικότητάς» της. Τελικά η Tay μετά από την επαφή της με τους χρήστες του Twitter έγινε επιθετική, λάτρης των θεωριών συνωμοσίας, ρατσίστρια, σεξίστρια και υποστηρικτής του Χίτλερ και του Τράμπ.

Η Microsoft την απέσυρε ζητώντας συγγνώμη για τα μηνύματα που είχε αναρτήσει ήδη η Tay. Μεταξύ άλλων η εταιρεία ανέφερε πως το αρνητικό αποτέλεσμα οφείλεται σε μεγάλο βαθμό και σε στοχευμένη δράση συγκεκριμένης ομάδας ατόμων στο διαδίκτυο.

«Η Tay είχε σχεδιαστεί για να μιλά και ψυχαγωγεί τους ανθρώπους μέσα από περιστασιακές και διασκεδαστικές συνομιλίες», όμως στα μέσα κοινωνικής δικτύωσης - και ιδιαίτερα στο Twitter όπου έζησε για λίγες ώρες η Tay -  η εικόνα που επικρατεί είναι τελείως διαφορετική. Είναι εξάλλου γνωστή η ρήση του Μάικ Γκόντγουιν που με το πέρασμα των χρόνων αναγνωρίστηκε ως «κανόνας Γκόντγουιν» λόγω της επιβεβαίωσης στην πράξη: «Καθώς επιμηκύνεται ο χρόνος μιας διαδικτυακής συζήτησης, η πιθανότητα αναφοράς στους ναζί και τον Χίτλερ προσεγγίζει τη μονάδα».

Ο Πίτερ Λη, υπεύθυνος της Microsoft για το chatbot, ζήτησε συγγνώμη για τα μηνύματα που αναρτήθηκαν από την Tay. «Δεν αντιπροσωπεύει αυτό που είμαστε, ούτε αυτό που εκπροσωπούμε. Η Tay έχει τεθεί πλέον εκτός λειτουργίας. Θα την επαναφέρουμε μόλις θα βρούμε τρόπο να ανταποκρίνεται καλύτερα στις κακόβουλες προθέσεις που έρχονται σε αντίθεση με τις αρχές και αξίες μας. Θα συνεχίσουμε τις προσπάθειες στον τομέα της Τεχνητής Νοημοσύνης και της διαμόρφωσης ενός Ίντερνετ που αντιπροσωπεύει τα καλύτερα, όχι τα χειρότερα, χαρακτηριστικά της ανθρωπότητας». «Σχεδιάσαμε και εφαρμόσαμε πολλά φίλτρα και κάναμε εκτεταμένες μελέτες χρηστών με πολλές διαφορετικές ομάδες...είναι μέσω αυξημένης αλληλεπίδρασης που περιμέναμε να μάθουμε περισσότερα και να βελτιωθεί η τεχνητή νοημοσύνη», ανέφερε και πρόσθεσε:

«Το λογικό μέρος για να έρθουμε σε επαφή με έναν μεγάλο αριθμό χρηστών ήταν το Twitter. Δυστυχώς, μέσα στις πρώτες 24 ώρες από τη στιγμή που βγήκε online, μια συντονισμένη επίθεση από ένα υποσύνολο χρηστών εκμεταλλεύτηκε ένα τρωτό σημείο της Tay. Αν και είχαμε προετοιμαστεί για πολλά είδη κατάχρησης και κακομεταχείρισης, είχαμε παραβλέψει αυτή τη συγκεκριμένη επίθεση. Ως αποτέλεσμα, η Tay έγραψε στο Twitter ανάρμοστα και κατακριτέα πράγματα. Αναλαμβάνουμε την πλήρη ευθύνη που δεν το είχαμε προβλέψει αυτό έγκαιρα»

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου