Η νέα της τεχνολογία της Apple για την προστασία των παιδιών, σκανάρει τις φωτογραφίες στο iPhone για εικόνες παιδικής κακοποίησης.
Η τεχνολογία έχει ξεσηκώσει αντιδράσεις στον κόσμο της τεχνολογίας και πολλοί την κατηγορούν πως ανοίγει μία “πίσω πόρτα” για να κατασκοπεύουν οι κυβερνήσεις τους χρήστες, ενώ υπάρχει ανοιχτή επιστολή που έχει υπογραφεί από 5.000 πρόσωπα και οργανισμούς για την απόσυρση αυτής της τεχνολογίας.
Η Apple όμως δεν υποχωρεί και δημοσίευσε ένα έγγραφο ερωταπαντήσεων για να υποστηρίξει τη χρήση της τεχνολογίας, ενώ δεσμεύτηκε πως δε θα δεχτεί καμία αίτηση επέκτασης του συστήματος από οποιαδήποτε κυβέρνηση.
Έχουμε αντιμετωπίσει απαιτήσεις για δημιουργία και ανάπτυξη αλλαγών από κυβερνήσεις οι οποίες υποβαθμίζουν την ιδιωτικότητα του χρήστη στο παρελθόν και έχουμε ξεκάθαρα αρνηθεί αυτές τις απαιτήσεις. Θα συνεχίσουμε να τις αρνιόμαστε και στο μέλλον. Ας είμαστε ξεκάθαροι, αυτή η τεχνολογία περιορίζεται στην ανίχνευση CSAM (child sexual abuse material) αποθηκευμένη στο iCloud και δε θα δεχτούμε οποιαδήποτε απαίτηση κυβέρνησης για επέκτασή του.
Η Apple υποστηρίζει πως έχει πολλαπλές δικλείδες ασφαλείας για να αποτρέψει τη χρήση των συστημάτων της για οποιοδήποτε άλλο λόγο πέρα από την ανίχνευση εικόνων κακοποίησης παιδιών. Ωστόσο αρκετοί δεν πείθονται.
Ακόμα και μία προσεκτικά καταγεγραμμένη, μεθοδικά σχεδιασμένη και στενά στοχευμένη πίσω πόρτα είναι και πάλι μία πίσω πόρτα. Έχουμε δει ξανά αυτήν την αποστολή σε δράση. Μία από τις τεχνολογίες που αρχικά δημιουργήθηκε για να σκανάρει και να βρίσκει εικόνες παιδικής κακοποίησης, αναδιαμορφώθηκε για να δημιουργήσει μία βάση δεδομένων “τρομοκρατικού” περιεχομένου στην οποία έχουν πρόσβαση και συμβολή οι εταιρίες με σκοπό το κατέβασμα τέτοιου περιεχομένου.
Το μόνο που χρειάζεται για να διευρυνθεί η στενή πίσω πόρτα που κατασκευάζει η Apple, είναι μία επέκταση των παραμέτρων της εκμάθησης μηχανής για να αναζητεί και άλλους τύπους περιεχομένου.