Η εξάλειψη της εξάπλωσης υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) αποτελεί προτεραιότητα για τις μεγάλες εταιρίες διαδικτύου. Αλλά είναι επίσης μια δύσκολη και ενοχλητική δουλειά για όσους βρίσκονται στην πρώτη γραμμή – οι συντονιστές των ανθρώπων που πρέπει να εντοπίσουν και να αφαιρέσουν το καταχρηστικό περιεχόμενο. Αυτός είναι ο λόγος για τον οποίο η Google κυκλοφορεί σήμερα δωρεάν λογισμικό AI που έχει σχεδιαστεί για να βοηθήσει αυτά τα άτομα.
Οι περισσότερες τεχνολογικές λύσεις σε αυτόν τον τομέα λειτουργούν ελέγχοντας εικόνες και βίντεο σε έναν κατάλογο προγενέστερα προσδιορισμένου καταχρηστικού υλικού. (Δείτε, για παράδειγμα, το PhotoDNA, ένα εργαλείο που αναπτύχθηκε από τη Microsoft και αναπτύχθηκε από εταιρείες όπως το Facebook και το Twitter.) Αυτό το λογισμικό, γνωστό ως “crawler”, είναι ένας αποτελεσματικός τρόπος για να σταματήσετε να μοιράζονται τα γνωστά CSAM. Αλλά δεν μπορεί να πιάσει υλικό που δεν έχει ήδη χαρακτηριστεί ως παράνομο. Για το λόγο αυτό, οι συντονιστές του ανθρώπινου δυναμικού πρέπει να ενταχθούν και να αναθεωρήσουν τον εαυτό τους.
Αυτό είναι το νέο εργαλείο AI της Google που θα σας βοηθήσει. Χρησιμοποιώντας την τεχνογνωσία της εταιρείας στη μηχανική όραση, βοηθάει τους συντονιστές με την ταξινόμηση εικόνων και βίντεο με σημαίες και “δίνει προτεραιότητα στο πιο πιθανό περιεχόμενο CSAM για αναθεώρηση.” Αυτό θα επιτρέψει μια πολύ ταχύτερη διαδικασία αναθεώρησης. Σε μια δοκιμή, λέει η Google, το εργαλείο AI βοήθησε έναν συντονιστή να «αναλάβει δράση για το 700% περισσότερο περιεχόμενο CSAM κατά την ίδια χρονική περίοδο.