Apple va trebui să renunțe la planurile de scanare a mesajelor pentru a găsi imagini abuzive

Peste 90 de grupuri de politici și drepturi din întreaga lume au publicat o scrisoare deschisă prin care solicită gigantului Apple să renunțe la scanarea conversațiilor dintre copii pentru nuditate și telefoanele adulților pentru imagini folosite sub formă de abuz sexual asupra minorilor. 

La începutul acestei luni, Apple a anunțat că va instala un software de supraveghere care efectuează scanarea pe dispozitiv în mesaje și fotografii. Acum, o coaliție a grupurilor de drepturi a spus într-o scrisoare deschisă că, deși noile caracteristici ar putea proteja copiii și ar putea reduce răspândirea materialelor de abuz sexual asupra copiilor (CSAM), ar putea crea, de asemenea, noi riscuri pentru aceștia printre care se numără cenzura în exprimare, amenințarea vieții private și securitatea oamenilor din întreaga lume. 

O parte dintre semnatarii coaliției sunt îngrijorați de impactul schimbărilor din țările cu sisteme juridice diferite, inclusiv unii care găzduiesc deja lupte aprinse privind criptarea și confidențialitatea. Scrisoarea explică, de asemenea, cum funcția de scanare și alertă din mesaje ar putea provoca alerte care amenință siguranța și bunăstarea tinerilor. Tinerii LGBTQ + sunt deosebit de expuși riscului, a subliniat acesta.

1, 'include' => $prevPost->ID, 'post_type' => $post_type, ); $prevPost = get_posts($args); foreach ($prevPost as $post) { setup_postdata($post); ?>

1, 'include' => $nextPost->ID, 'post_type' => $post_type, ); $nextPost = get_posts($args); foreach ( $nextPost as $post ) { setup_postdata($post); ?>