Η Apple καθυστερεί τα χαρακτηριστικά ασφαλείας για τα παιδιά

Οι υποστηρικτές της ιδιωτικής ζωής επέκριναν τα εργαλεία ανίχνευσης CSAM

spot_img

Η Apple λέει ότι καθυστερεί τη διάθεση των εργαλείων ανίχνευσης υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) “για να βελτιωθούν” μετά από αντίδραση κριτικών. Τα χαρακτηριστικά περιλαμβάνουν ένα που αναλύει τις φωτογραφίες iCloud για γνωστό CSAM, το οποίο έχει προκαλέσει ανησυχία στους υποστηρικτές της ιδιωτικής ζωής.

Η Apple σχεδίασε να κυκλοφορήσει τα συστήματα ανίχνευσης CSAM ως μέρος των επερχόμενων ενημερώσεων λειτουργικού συστήματος, συγκεκριμένα iOS 15, iPadOS 15, watchOS 8 και macOS Monterey. Η εταιρεία αναμένεται να το κυκλοφορήσει αυτές τις επόμενες εβδομάδες. Η Apple δεν μπήκε σε λεπτομέρειες σχετικά με τις βελτιώσεις που μπορεί να κάνει.

- Advertisement -

Οι προγραμματισμένες λειτουργίες περιλάμβαναν ένα για τα Μηνύματα, το οποίο θα ειδοποιούσε τα παιδιά και τους γονείς τους όταν η Apple διαπιστώσει ότι οι σεξουαλικά άσεμνες φωτογραφίες μοιράζονταν στην εφαρμογή χρησιμοποιώντας συστήματα μηχανικής εκμάθησης στη συσκευή. Τέτοιες εικόνες που αποστέλλονται στα παιδιά θα είναι θολές και θα περιλαμβάνουν προειδοποιήσεις. Η Siri και οι ενσωματωμένες λειτουργίες αναζήτησης σε iOS και macOS θα κατευθύνουν τους χρήστες σε κατάλληλους πόρους όταν κάποιος ρωτά πώς να αναφέρει το CSAM ή προσπαθεί να πραγματοποιήσει αναζητήσεις που σχετίζονται με το CSAM.

Το εργαλείο για τις φωτογραφίες στο iCloud είναι ίσως το πιο αμφιλεγόμενο από τα χαρακτηριστικά ανίχνευσης CSAM που ανακοίνωσε η Apple. Σχεδιάζει να χρησιμοποιήσει ένα σύστημα στη συσκευή για να αντιστοιχίσει φωτογραφίες με μια βάση δεδομένων γνωστών κατακερματισμένων εικόνων CSAM που διατηρείται από το Εθνικό Κέντρο για τα Αγνοούμενα και Εκμεταλλευόμενα Παιδιά και άλλους οργανισμούς. Αυτή η ανάλυση υποτίθεται ότι πραγματοποιείται πριν από τη μεταφόρτωση μιας εικόνας στο iCloud Photos. Εάν το σύστημα ανίχνευσης του CSAM και των ανθρώπων επιβεβαίωναν χειροκίνητα μια αντιστοιχία, η Apple θα απενεργοποιούσε τον λογαριασμό του ατόμου και θα έστελνε μια αναφορά στο NCMEC.

Η Apple ισχυρίστηκε ότι η προσέγγιση θα παρέχει “οφέλη απορρήτου έναντι των υφιστάμενων τεχνικών, καθώς η Apple μαθαίνει για τις φωτογραφίες των χρηστών μόνο εάν έχουν μια συλλογή γνωστών CSAM στο λογαριασμό τους iCloud Photos”. Ωστόσο, οι υπέρμαχοι της ιδιωτικής ζωής έχουν ξεσηκωθεί για αυτή την κίνηση.

Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments

More News

Support Us

Αν το επιθυμείτε, μπορείτε να μας βοηθήσετε κάνοντας εγγραφή σε μια από τις συνδρομές που θα βρείτε στο "Support Us" πάνω στο menu ή πατώντας το παρακάτω κουμπί. Ευχαριστούμε!

More From Author

0
Would love your thoughts, please comment.x
()
x