Οι αλγόριθμοι μηχανικής μάθησης έχουν σχεδιαστεί για να διευκολύνουν τη ζωή και να βελτιώσουν τα συστήματα, αλλά μπορούν να πάνε στραβά με κακές συνέπειες.

Τι είναι οι Αλγόριθμοι εκμάθησης μηχανών; Εδώ είναι πώς λειτουργούν

Διαφήμιση Η τεχνητή νοημοσύνη και η μηχανική μάθηση παράγουν πολλές από τις εξελίξεις που βλέπουμε σήμερα στην τεχνολογική βιομηχανία. Αλλά πώς δίνεται η δυνατότητα στις μηχανές να μάθουν; Επιπλέον, πώς ο τρόπος με τον οποίο κάνουμε αυτό έχει ως αποτέλεσμα αθέλητες συνέπειες; Εδώ είναι ο γρήγορος εξηγητής μας σχετικά με το πώς λειτουργούν οι αλγόριθμοι εκμάθησης μηχανών, μαζί με μερικά παραδείγματα μηχανικής μάθησης που έχουν καταστραφεί. Τι είναι οι Αλγόριθμοι εκμάθησης μηχανών; Η μηχανική μάθηση είναι ένας κλάδος της επιστήμης των υπολογιστών που επικεντρώνεται στο να δίνει στο AI τη δυνατότη

Διαφήμιση

Η τεχνητή νοημοσύνη και η μηχανική μάθηση παράγουν πολλές από τις εξελίξεις που βλέπουμε σήμερα στην τεχνολογική βιομηχανία. Αλλά πώς δίνεται η δυνατότητα στις μηχανές να μάθουν; Επιπλέον, πώς ο τρόπος με τον οποίο κάνουμε αυτό έχει ως αποτέλεσμα αθέλητες συνέπειες;

Εδώ είναι ο γρήγορος εξηγητής μας σχετικά με το πώς λειτουργούν οι αλγόριθμοι εκμάθησης μηχανών, μαζί με μερικά παραδείγματα μηχανικής μάθησης που έχουν καταστραφεί.

Τι είναι οι Αλγόριθμοι εκμάθησης μηχανών;

Η μηχανική μάθηση είναι ένας κλάδος της επιστήμης των υπολογιστών που επικεντρώνεται στο να δίνει στο AI τη δυνατότητα να μαθαίνει εργασίες 5 Πειράματα AI για την εξερεύνηση της τεχνητής νοημοσύνης 5 Καλύτερα πειράματα Google AI για να εξερευνήσετε την τεχνητή νοημοσύνη Το Google έχει πολλά πειράματα AI που μπορείτε να πας και να παίξετε με τώρα. Χάρη στη μηχανική μάθηση, μπορούν να αλλάξουν τον κόσμο του αύριο με τη βοήθειά σας. Διαβάστε περισσότερα . Αυτό περιλαμβάνει την ανάπτυξη δυνατοτήτων χωρίς προγραμματιστές που κωδικοποιούν ρητά το AI για να κάνουν αυτά τα πράγματα. Αντ 'αυτού, το AI είναι σε θέση να χρησιμοποιήσει τα δεδομένα για να διδάξει τον εαυτό του.

Οι προγραμματιστές επιτυγχάνουν αυτό μέσω αλγορίθμων μηχανικής μάθησης. Αυτοί οι αλγόριθμοι είναι τα μοντέλα στα οποία βασίζεται η συμπεριφορά εκμάθησης ΑΠ. Οι αλγόριθμοι, σε συνδυασμό με σύνολα δεδομένων κατάρτισης, επιτρέπουν στο AI να μάθει.

Ένας αλγόριθμος παρέχει συνήθως ένα μοντέλο που μπορεί να χρησιμοποιήσει ένα AI για την επίλυση ενός προβλήματος. Για παράδειγμα, μάθετε πώς να αναγνωρίζετε τις εικόνες των γατών και των σκύλων. Το AI εφαρμόζει το μοντέλο που καθορίζεται από τον αλγόριθμο σε ένα σύνολο δεδομένων που περιλαμβάνει εικόνες από γάτες και σκύλους. Με την πάροδο του χρόνου, το AI θα μάθει πώς να εντοπίζει τις γάτες από τα σκυλιά με μεγαλύτερη ακρίβεια και ευκολία, χωρίς ανθρώπινη εισροή.

Η μηχανική μάθηση βελτιώνει την τεχνολογία όπως οι μηχανές αναζήτησης, οι έξυπνες οικιακές συσκευές, οι ηλεκτρονικές υπηρεσίες και οι αυτόνομες μηχανές. Είναι το πώς γνωρίζει το Netflix ποιες ταινίες είναι πιο πιθανό να απολαύσετε και πώς οι υπηρεσίες streaming μουσικής μπορούν να προτείνουν λίστες αναπαραγωγής.

Αλλά ενώ η μηχανική μάθηση μπορεί να κάνει τη ζωή μας πιο εύκολη, μπορεί να υπάρξουν και ορισμένες απροσδόκητες συνέπειες.

7 φορές όταν η μηχανική μάθηση έπαψε εσφαλμένη

1. Αποτελέσματα αναζήτησης αποτελεσμάτων Google

google-image-search-αποτελέσματα-αμφισβητήσεις

Η Αναζήτηση Google έχει κάνει την πλοήγηση στον ιστό πολύ πιο εύκολη. Ο αλγόριθμος του κινητήρα λαμβάνει υπόψη ποικίλα πράγματα κατά την ανάκτηση αποτελεσμάτων, όπως οι λέξεις-κλειδιά και το ποσοστό εγκατάλειψης. Αλλά ο αλγόριθμος μαθαίνει επίσης από την κίνηση των χρηστών, η οποία μπορεί να προκαλέσει προβλήματα στην ποιότητα των αποτελεσμάτων αναζήτησης.

Πουθενά δεν είναι πιο εμφανές από ότι στα αποτελέσματα της εικόνας. Δεδομένου ότι οι σελίδες που λαμβάνουν υψηλή επισκεψιμότητα είναι πιο πιθανό να εμφανίσουν τις εικόνες τους, οι ιστορίες που προσελκύουν μεγάλο αριθμό χρηστών, συμπεριλαμβανομένου του clickbait, έχουν συχνά προτεραιότητα.

Για παράδειγμα, τα αποτελέσματα αναζήτησης εικόνων για "στρατόπεδα καταδύσεων στη Νότια Αφρική" προκάλεσαν διαμάχες όταν ανακαλύφθηκε ότι εμφανίζονταν κατά κύριο λόγο λευκοί Νοτιοαφρικανοί. Αυτό συμβαίνει παρά τα στατιστικά στοιχεία που δείχνουν ότι η συντριπτική πλειοψηφία όσων ζουν σε ανεπίσημες κατοικίες, όπως οι κάτοικοι, είναι μαύροι νοτιοαφρικανοί.

Οι παράγοντες που χρησιμοποιούνται στον αλγόριθμο της Google σημαίνουν επίσης ότι οι χρήστες του διαδικτύου μπορούν να χειριστούν τα αποτελέσματα. Για παράδειγμα, μια καμπάνια από χρήστες επηρέασε τα αποτελέσματα της αναζήτησης εικόνων Google στο βαθμό που η αναζήτηση για τον όρο "ηλίθιος" δείχνει εικόνες του Προέδρου των ΗΠΑ Donald Trump.

2. Η Microsoft Bot μετατράπηκε σε ναζί

Εμπιστευθείτε το Twitter για να καταστρέψετε ένα καλοπροαίρετο, μάθημα μάθησης μηχανής. Αυτό συνέβη μέσα στην ημέρα της κυκλοφορίας του τώρα περίφημου chat της Tay της Microsoft.

Η Tay μίλησε τα μοτίβα της γλώσσας μιας εφηβικής κοπέλας και έμαθε μέσω των αλληλεπιδράσεών της με άλλους χρήστες του Twitter. Ωστόσο, έγινε ένα από τα πιο διαβόητα σφάλματα ΑΙ όταν άρχισε να μοιράζεται τις δηλώσεις των Ναζί και τις φυλετικές κακοποιήσεις. Αποδεικνύεται ότι οι τρουλούς είχαν χρησιμοποιήσει τη μηχανή του ΑΙ για την εκμάθηση του ενάντια σε αυτό, την πλημμύρισαν με αλληλεπιδράσεις φορτωμένες με φανατισμό.

Λίγο μετά, η Microsoft πήρε το Tay εκτός σύνδεσης για το καλό.

3. Προβλήματα αναγνώρισης προσώπου AI

Αναγνώριση προσώπου Η AI συχνά κάνει πρωτοσέλιδα για όλους τους λανθασμένους λόγους, όπως ιστορίες σχετικά με την αναγνώριση προσώπου και τις ανησυχίες περί προστασίας της ιδιωτικής ζωής. Αλλά αυτό το AI προκάλεσε επίσης τεράστιες ανησυχίες όταν επιχειρούσε να αναγνωρίσει τους ανθρώπους του χρώματος.

Το 2015, οι χρήστες ανακάλυψαν ότι το Google Photos κατηγοριοποιούσε ορισμένους μαύρους ανθρώπους ως γορίλες. Το 2018, η έρευνα από την ACLU έδειξε ότι το λογισμικό αναγνωρίσεως προσώπου του Amazon Recovery αναγνώρισε 28 μέλη του Κογκρέσου των ΗΠΑ ως υπόπτους της αστυνομίας, με ψευδώς θετικά που επηρεάζουν δυσανάλογα τους ανθρώπους του χρώματος.

Ένα άλλο περιστατικό αφορούσε το λογισμικό Face ID της Apple Αγοράζοντας ένα iPhone X; Αναγνώριση προσώπου μπορεί να σας κάνει να επανεξετάσετε την αγορά ενός iPhone X; Το αναγνωριστικό προσώπου θα σας κάνει να αναθεωρήσετε Η πιο αξιοσημείωτη λειτουργία του iPhone X είναι το σύστημα ξεκλειδώματος συσκευής αναγνώρισης προσώπου. Αλλά πόσο ασφαλής είναι; Θα έχει η Apple πρόσβαση σε μια τεράστια βάση δεδομένων των προσώπων του καθενός; Διαβάστε περισσότερα εσφαλμένα προσδιορίζοντας δύο διαφορετικές κινεζικές γυναίκες ως το ίδιο άτομο. Ως αποτέλεσμα, ο συνάδελφος του ιδιοκτήτη του iPhone X θα μπορούσε να ξεκλειδώσει το τηλέφωνο.

Εν τω μεταξύ, η ερευνητής της MIT Joy Buolamwini θυμάται ότι συχνά χρειάζεται να φορέσει μια λευκή μάσκα ενώ εργάζεται στην τεχνολογία αναγνώρισης προσώπου για να πάρει το λογισμικό για να την αναγνωρίσει. Για την επίλυση αυτών των ζητημάτων, ο Buolamwini και άλλοι επαγγελματίες τεχνολογιών πληροφορικής προσελκύουν την προσοχή στο ζήτημα και στην ανάγκη για πιο ολοκληρωμένα σύνολα δεδομένων για την κατάρτιση του AI.

4. Deepfakes χρησιμοποιούνται για φάρσες

Ενώ οι άνθρωποι έχουν χρησιμοποιήσει από καιρό το Photoshop για να δημιουργήσουν εικόνες φάρσας, η μηχανική μάθηση το παίρνει σε ένα νέο επίπεδο. Λογισμικό όπως το FaceApp σάς δίνει τη δυνατότητα να ανταλλάξετε θέματα από ένα βίντεο σε ένα άλλο.

Αλλά πολλοί άνθρωποι εκμεταλλεύονται το λογισμικό για μια ποικιλία κακόβουλων χρήσεων, συμπεριλαμβανομένης της επικάλυψης πρόσωπα διασήμων σε βίντεο ενηλίκων ή δημιουργώντας βίντεο φλογών. Εν τω μεταξύ, οι χρήστες του διαδικτύου βοήθησαν στη βελτίωση της τεχνολογίας, ώστε να καθίσταται όλο και πιο δύσκολο να διακρίνουμε πραγματικά βίντεο από ψεύτικα. Ως εκ τούτου, αυτό κάνει αυτό το είδος του AI πολύ ισχυρό από την άποψη της εξάπλωσης ψεύτικων ειδήσεων και φάρσες Facebook Προσφορές Συμβουλές για να σας βοηθήσουμε Spot Fake News Το Facebook προσφέρει συμβουλές για να σας βοηθήσει να εντοπίσετε Fake News Ενώ το Facebook δεν παράγει ψεύτικα νέα, μερικώς υπεύθυνη για τη διάδοσή της. Αυτός είναι ο λόγος που προσφέρει τώρα συμβουλές για να σας βοηθήσει να εντοπίσετε ψεύτικα νέα πριν εξαπλωθεί. Διαβάστε περισσότερα .

Για να αναδείξουν τη δύναμη της τεχνολογίας, ο διευθυντής Jordan Peele και ο διευθύνων σύμβουλος της BuzzFeed, Jonah Peretti, δημιούργησαν ένα βαθύ βίντεο που δείχνει πως φαίνεται ο πρώην Αμερικανός πρόεδρος Μπαράκ Ομπάμα να παραδίδει ένα PSA σχετικά με την εξουσία των βαρελιών.

5. Η άνοδος του Twitter Bots

Τα bots του Twitter δημιουργήθηκαν αρχικά για να αυτοματοποιήσουν τα πράγματα όπως οι απαντήσεις εξυπηρέτησης πελατών για τα εμπορικά σήματα. Ωστόσο, η τεχνολογία αποτελεί πλέον βασική αιτία ανησυχίας. Στην πραγματικότητα, η έρευνα έχει εκτιμήσει ότι μέχρι 48 εκατομμύρια χρήστες στο Twitter είναι πραγματικά bots AI.

Αντί απλώς να χρησιμοποιείτε αλγόριθμους για να ακολουθείτε συγκεκριμένα hashtags ή να απαντάτε σε ερωτήματα πελατών, πολλοί λογαριασμοί bot προσπαθούν να μιμηθούν πραγματικούς ανθρώπους. Αυτοί οι «άνθρωποι» στη συνέχεια προωθούν τις φάρσες και βοηθούν τα ψεύτικα νέα να γίνουν ιογενή.

Ένα κύμα Twitter bots επηρέασε ακόμη και την κοινή γνώμη σε βαθμό στο Brexit και στις προεδρικές εκλογές των ΗΠΑ το 2016. Το ίδιο το Twitter παραδέχθηκε ότι αποκάλυψε περίπου 50.000 ρωσικά φτιαγμένα βότσαλα που δημοσιεύθηκαν σχετικά με τις εκλογές.

Οι Μποτς συνεχίζουν να μαστίζουν την υπηρεσία, εξαπλώνουν παραπληροφόρηση. Το πρόβλημα είναι τόσο μεγάλο που επηρεάζει ακόμη και την αποτίμηση της εταιρείας.

6. Οι εργαζόμενοι λένε ότι η Amazon AI αποφάσισε να προσλάβει τους άνδρες είναι καλύτερο

Τον Οκτώβριο του 2018, το Reuters ανέφερε ότι η Amazon έπρεπε να καταργήσει ένα εργαλείο πρόσληψης εργασίας, αφού η AI του λογισμικού αποφάσισε ότι οι άνδρες υποψήφιοι ήταν προτιμησιακοί.

Οι εργαζόμενοι που επιθυμούσαν να παραμείνουν ανώνυμοι ήρθαν να ενημερώσουν το Reuters για το έργο τους στο έργο. Οι προγραμματιστές ήθελαν το AI να εντοπίσει τους καλύτερους υποψηφίους για μια δουλειά που βασίζεται στο βιογραφικό τους σημείωμα. Ωστόσο, τα άτομα που συμμετείχαν στο πρόγραμμα σύντομα παρατήρησαν ότι ο ΑΙ υπέστη κυρώσεις για τις υποψήφιες γυναίκες. Εξήγησαν ότι το AI χρησιμοποίησε βιογραφικά σημειώματα από την προηγούμενη δεκαετία, τα περισσότερα από τα οποία προέρχονταν από άνδρες, ως σύνολο δεδομένων κατάρτισης.

Ως αποτέλεσμα, ο ΑΠ άρχισε να φιλτράρει τα βιογραφικά σημειώματα βάσει της λέξης "γυναίκες". Η λέξη-κλειδί εμφανίστηκε στο βιογραφικό σημείωμα κάτω από δραστηριότητες όπως "καπετάνιο του γυναικείου σκάκι". Ενώ οι προγραμματιστές τροποποίησαν το AI για να αποτρέψουν αυτήν την τιμωρία των γυναικείων βιογραφικών σημειωμάτων, η Amazon τελικά κατάργησε το έργο.

7. Ακατάλληλο περιεχόμενο στο YouTube Kids

Το YouTube Kids έχει πολλά ανόητα, εντυπωσιακά βίντεο που προορίζονται για ψυχαγωγία παιδιών. Αλλά έχει επίσης ένα πρόβλημα spammy βίντεο που χειρίζονται τον αλγόριθμο της πλατφόρμας.

Αυτά τα βίντεο βασίζονται σε δημοφιλείς ετικέτες. Δεδομένου ότι τα μικρά παιδιά δεν είναι πολύ απαιτητικοί τηλεθεατές, τα σκουπίδια που χρησιμοποιούν αυτές τις λέξεις-κλειδιά προσελκύουν εκατομμύρια απόψεις. Το AI δημιουργεί αυτόματα μερικά από αυτά τα βίντεο χρησιμοποιώντας στοιχεία κινούμενων εικόνων, βασισμένα σε ετικέτες με τάση. Ακόμη και όταν τα βίντεο έχουν δημιουργηθεί από εμψυχωτές, οι τίτλοι τους δημιουργούνται ειδικά για τη συμπλήρωση λέξεων-κλειδιών.

Αυτές οι λέξεις-κλειδιά βοηθούν στον χειρισμό του αλγορίθμου του YouTube, ώστε να καταλήγουν σε συστάσεις. Σημαντικό ποσό ακατάλληλου περιεχομένου εμφανίστηκε στις ζωοτροφές των παιδιών χρησιμοποιώντας την εφαρμογή Kids YouTube. Αυτό περιελάμβανε περιεχόμενο το οποίο απεικονίζει τη βία, τις ανησυχίες και το σεξουαλικό περιεχόμενο.

Γιατί η μηχανική μάθηση είναι κακή

Υπάρχουν δύο κύριοι λόγοι για τους οποίους η μηχανική μάθηση έχει ως αποτέλεσμα απρόβλεπτες συνέπειες: δεδομένα και άτομα. Όσον αφορά τα δεδομένα, ισχύει η μάντρα του "σκουπίδια σε, σκουπίδια". Εάν τα δεδομένα που τροφοδοτούνται σε ένα ΑΙ είναι περιορισμένα, μεροληπτικά ή χαμηλής ποιότητας. το αποτέλεσμα είναι ένα AI με περιορισμένο πεδίο ή μεροληψία.

Αλλά ακόμα κι αν οι προγραμματιστές έχουν τα δεδομένα σωστά, οι άνθρωποι μπορούν να ρίξουν ένα κλειδί στα έργα. Οι δημιουργοί λογισμικού συχνά δεν αντιλαμβάνονται πώς οι άνθρωποι μπορούν να χρησιμοποιούν την τεχνολογία με κακόβουλο τρόπο ή για εγωιστικούς σκοπούς. Οι Deepfakes προήλθαν από την τεχνολογία που χρησιμοποιείται για τη βελτίωση των ειδικών εφέ στον κινηματογράφο.

Αυτό που επιδιώκει να προσφέρει πιο συναρπαστική ψυχαγωγία καταλήγει να καταστρέφει τη ζωή των ανθρώπων όταν εκμεταλλεύεται.

Υπάρχουν άνθρωποι που εργάζονται για τη βελτίωση των εγγυήσεων γύρω από την τεχνολογία εκμάθησης μηχανών για την πρόληψη της κακόβουλης χρήσης. Αλλά η τεχνολογία είναι ήδη εδώ. Εν τω μεταξύ, πολλές εταιρείες δεν δείχνουν την απαιτούμενη βούληση για να αποτρέψουν την κατάχρηση αυτών των εξελίξεων.

Οι Αλγόριθμοι Μηχανικής Μάθησης μπορούν να μας βοηθήσουν

Μπορεί να φανεί λίγο κακό και θλιβερό όταν συνειδητοποιείτε πόση μηχανική μάθηση και τεχνητή νοημοσύνη δεν ανταποκρίνονται στις προσδοκίες. Αλλά μας βοηθά και με πολλούς τρόπους - όχι μόνο όσον αφορά την ευκολία, αλλά και τη βελτίωση της ζωής μας γενικότερα.

Εάν αισθάνεστε λίγο διστακτικοί σχετικά με τη θετική επίδραση της AI και της μηχανικής μάθησης, μάθετε για τους τρόπους με τους οποίους η τεχνητή νοημοσύνη καταπολεμά το κυβερνοέμπολ Πώς η τεχνητή νοημοσύνη θα καταπολεμήσει τους σύγχρονους χάκερ και το έγκλημα στον κυβερνοχώρο Πώς η τεχνητή νοημοσύνη θα καταπολεμήσει τους σύγχρονους χάκερ και το έγκλημα στον κυβερνοχώρο έλλειψη και επιδημία εγκληματικότητας στον κυβερνοχώρο, πώς μπορούν οι επιχειρήσεις να καταπολεμήσουν τους χάκερ; Με τεχνητή νοημοσύνη! Διαβάστε περισσότερα και χάκερ για να αποκαταστήσετε κάποια ελπίδα.