LIKE ONLINE

Κατέβηκε...όπως ανέβηκε η «Tay» της Microsoft, λόγω ρατσιστικών σχολίων!

Κατέβηκε...όπως ανέβηκε η «Tay» της Microsoft, λόγω ρατσιστικών σχολίων!

Η Microsoft ξεκίνησε την λειτουργία της Τεχνητής Νοημοσύνης στο Twitter ή αν θέλετε του AI chat bot, για να πραγματοποιήσει έρευνα πάνω στην κατανόηση του προφορικού λόγου με στόχο τον επιτυχημένο διάλογο.

Η Microsoft ξεκίνησε την λειτουργία της Τεχνητής Νοημοσύνης στο Twitter ή αν θέλετε του AI chat bot, για να πραγματοποιήσει έρευνα πάνω στην κατανόηση του προφορικού λόγου με στόχο τον επιτυχημένο διάλογο. 

«Η Tay σχεδιάστηκε για να συμμετέχει σε συζητήσεις και να διασκεδάζει τους ανθρώπους μέσω περιστασιακών και παιχνιδιάρικων συνομιλιών. Όσο περισσότερο συνομιλείτε με την Tay, τόσο πιο έξυπνη γίνεται, οπότε και η εμπειρία μπορεί να γίνει περισσότερο εξατομικευμένη», ανακοίνωσε η Microsoft.

Μερικές ώρες αφότου ξεκίνησε την λειτουργία της Τεχνητής Νοημοσύνης στο Twitter, η Microsoft αναγκάστηκε να «κατεβάσει» τον λογαριασμό της «Tay» λόγω ρατσιστικών αναρτήσεων (δυστυχώς, κάποιοι χρήστες κατάφεραν να μάθουν στην Τεχνητή Νοημοσύνη να κάνει ρατσιστικά σχόλια στο Twitter).

Tα προβλήματα ξεκίνησαν όταν η Τεχνητή Νοημοσύνη Tay έκανε αναφορά στον Χίτλερ και σε άλλους, και από εκεί και πέρα, τα πράγματα πήραν άσχημη τροπή.

 Απευθυνόμενο σε χρήστες του Twitter, με ηλικία μεταξύ 18 και 24 ετών, οι λογαριασμοί KiK και GroupMe ξεκίνησα να αλληλοεπιδρούν με τον Tay, κάνοντας διάφορες ερωτήσεις για να προκαλέσουν συζήτηση κ.ά. Το πρόβλημα με την Τεχνητή Νοημοσύνη που μαθαίνει μέσω της συζήτησης, είναι ότι κάποιος μπορεί να την «χειριστεί» τροφοδοτώντας την με συγκεκριμένες πληροφορίες.

 Ένας χρήστης για παράδειγμα ξεκίνησε να μαθαίνει στην Tay τις υποσχέσεις της προεδρικής καμπάνιας του Donald Trump, όπως την κατασκευή ενός τείχους μεταξύ των ΗΠΑ και του Μεξικού, για να κρατηθούν έξω οι παράνομοι μετανάστες. «We are going to build a wall, and Mexico is going to pay for it» (με κεφαλαία γράμματα) διαβάσαμε σε ανάρτηση του χρήστη @TayandYou.

 Σύμφωνα με αναφορές, οι αναρτήσεις στην συνέχεια χαρακτηρίζονταν από ρατσιστικό περιεχόμενο, επειδή απλώς κάποια ανθρώπινα όντα αποφάσισαν να διασκεδάσουν λίγο παραπάνω και γενικώς να είναι πολίτες του Internet (όπου τα πάντα, όλα).

 Ένα από τα tweets που συζητήθηκαν περισσότερο ήταν το «Bush did 9/11 and Hitler would have done a better job than the monkey we have now. Donald Trump is the only hope we’ve got». Ένα άλλο ήταν το «Ricky Gervais learned totalitarianism from Adolf Hitler, the inventor of atheism».

 Μετά, η Tay σταμάτησε τις αναρτήσεις στο Twitter, και όλα τα tweets έχουν πλέον διαγραφεί από τον λογαριασμό.

Αν και πολλοί βρήκαν την καταιγίδα από tweets διασκεδαστική, η Microsoft δέχτηκε αρκετές επικρίσεις επειδή δεν τοποθέτησε συγκεκριμένα φίλτρα για να εξασφαλίσει ότι το bot δεν θα αναρτούσε tweets με προσβλητικό περιεχόμενο ή επειδή δεν ανέπτυξε το εργαλείο AI αρκετά. Η Microsoft αυτή την ώρα κάνει κάποιες τροποποιήσεις στην Tay, η οποία λογικά θα επιστρέψει…

 

 

ΔΙΑΒΑΣΤΕ ΕΔΩ:

• Μαθητής 6 ετών έφυγε από το σχολείο, διασταύρωσε δρόμους και πήγε σπίτι του χωρίς να τον αντιληφθεί κανείς - Είπαν στον πατέρα ότι είναι στην τάξη

• Διπλή κίτρινη προειδοποίηση για ισχυρές καταιγίδες - Πότε τίθεται σε ισχύ

• Έτσι εντοπίστηκε η σακούλα με τις σφαίρες στη Λεμεσό - Θα γίνει καταμέτρηση

• ExxonMobil: Προγραμματίζει νέες γεωτρήσεις σε τεμάχια 5 και 10 αρχές 2025

• Οδηγός κίνδυνος: Φόρτωσε με παλιοσίδερα το όχημα του και «έκοβε» βόλτες - Δείτε φωτογραφία

• Πασίγνωστος Κύπριος παρουσιαστής αποκάλυψε την άγνωστη κόντρα του με τον Αβέρωφ Νεοφύτου - Δείτε βίντεο

• Δύσκολες ώρες για παλαίμαχο ποδοσφαιριστή της Ομόνοιας - Έφυγε από την ζωή ο πατέρας του



  Βατί: Πέραν των 1000 τα φυσίγγια που εντοπίστηκαν σε σακούλα

Βατί: Πέραν των 1000 τα φυσίγγια που εντοπίστηκαν σε σακούλα

Σε συναγερμό τέθηκαν οι Αρχές στη Λεμεσό το απόγευμα της Παρασκευής, μετά από την ανεύρεση φυσιγγίων.

Ακολουθήστε το Tothemaonline.com στο Google News και μάθετε πρώτοι όλες τις ειδήσεις

 

 

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

Back to top