• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Das Monatsmotto Juli lautet -- Kitsch as Kitsch can -- Jeder von Euch kann dafür ganz individuell bestimmen, was für ihn Kitsch ist und ein Foto davon einsenden. Macht mit, traut Euch! --> Klick

Missbrauchs-Erkennung: Meldung erst ab 30 Fotos

Max Mohr

Granny Smith
Registriert
05.01.21
Beiträge
16
<div class="bbWrapper"><script class="js-extraPhrases" type="application/json"> { "lightbox_close": "Schließen", "lightbox_next": "Nächste", "lightbox_previous": "Vorherige", "lightbox_error": "Der angeforderte Inhalt kann nicht geladen werden. Bitte versuche es später noch einmal.", "lightbox_start_slideshow": "Slideshow starten", "lightbox_stop_slideshow": "Slideshow stoppen", "lightbox_full_screen": "Vollbild", "lightbox_thumbnails": "Vorschaubilder", "lightbox_download": "Download", "lightbox_share": "Teilen", "lightbox_zoom": "Vergrößern", "lightbox_new_window": "Neues Fenster", "lightbox_toggle_sidebar": "Seitenleiste umschalten" } </script> <div class="bbImageWrapper js-lbImage" title="MacBook-Pro-16-2019-10-Fotos-700x400.jpg" data-src="https://www.apfeltalk.de/magazin/wp-content/uploads/2019/11/MacBook-Pro-16-2019-10-Fotos-700x400.jpg" data-lb-sidebar-href="" data-lb-caption-extra-html="" data-single-image="1"> <img src="https://www.apfeltalk.de/magazin/wp-content/uploads/2019/11/MacBook-Pro-16-2019-10-Fotos-700x400.jpg" data-url="https://www.apfeltalk.de/magazin/wp-content/uploads/2019/11/MacBook-Pro-16-2019-10-Fotos-700x400.jpg" class="bbImage" data-zoom-target="1" style="" alt="MacBook-Pro-16-2019-10-Fotos-700x400.jpg" title="" width="" height="" loading="lazy" /> </div><br /> <br /> <br /> Anfang des Monats hat Apple eine <a href="https://www.apfeltalk.de/magazin/feature/apple-prueft-fotos-kuenftig-auf-kinderpornographie/" target="_blank" class="link link--external" rel="nofollow ugc noopener">Strategie zur Bekämpfung von Kinderpornographie</a> vorgestellt. Sie soll ab den kommenden großen Software Updates in Kraft treten. Datenschützer kritisierten das System stark, sodass Apple das Vorgehen präzisiert.<br /> <span style="font-size: 18px"><b>Erkennung von Missbrauchsfotos</b></span><br /> <br /> <br /> Das neue System zur Bekämpfung von Kinderpornographie ist nicht unumstritten. Mittels Hashes soll das iPhone Fotos der iCloud auf kinderpornographische Inhalte prüfen und melden. Kritiker befürchteten, dass damit eine Hintertür geöffnet würde, mit der auch auf andere Bilder gescannt werden könnte.<br /> <span style="font-size: 18px"><b>Apple präzisiert das Vorgehen</b></span><br /> <br /> <br /> Um die einströmende Kritik abzuwehren, hat Apple ein 14-seitiges <a href="https://www.apple.com/child-safety/pdf/Security_Threat_Model_Review_of_Apple_Child_Safety_Features.pdf" target="_blank" class="link link--external" rel="nofollow ugc noopener">PDF-Dokument</a> veröffentlicht. Darin wird das neue System präzisiert. So soll eine Meldung an Apple erst ab 30 gefundenen Missbrauchsfotos erfolgen. Außerdem prüft Apple die Fotos noch einmal händisch. Damit sollen Fehler vermieden werden.<br /> <span style="font-size: 18px"><b>Meldung von 3 Falsch-positive Treffer auf 100. Millionen Bilder</b></span><br /> <br /> <br /> Der Konzern räumt zudem ein, dass es auch zu falsch-positiven Treffern kommen kann. Beim Training der Software sei es bei der Prüfung von 100 Millionen Fotos zu drei Treffern gekommen, die keine Kinderpornographie enthielten. Das zeigt noch einmal, wie wichtig die händische Nachprüfung ist. Das gesamte System wird zunächst nur in den USA eingeführt werden, soll aber auch international ausgeweitet werden.<br /> <br /> [su_box title=&quot;Unsere Haltung zu Gewalt&quot; box_color=&quot;#ffffff&quot; title_color=&quot;#000000&quot; radius=&quot;0&quot; class=&quot;live&quot;]Apfeltalk und das ganze Team verurteilt Gewalt in jeder Form und insbesondere an Kindern. Dies abscheulichen Straftaten gehören verfolgt und die Täter mit der vollen Härte des Gesetzes bestraft. In unserer Berichterstattung geht es um die Verhältnismäßigkeit der Art wie hier ermittelt werden soll.*<br /> <br /> <a href="https://www.apfeltalk.de/magazin/news/missbrauchs-erkennung-meldung-erst-ab-30-fotos/" target="_blank" class="link link--external" rel="nofollow ugc noopener">Den Artikel im Magazin lesen.</a><br /></div>
 
Zuletzt bearbeitet von einem Moderator:

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.789
<div class="bbWrapper"><a href="https://test.apfeltalk.de/community/members/244406/" class="username" data-xf-init="member-tooltip" data-user-id="244406" data-username="@Max Mohr">@Max Mohr</a> Du schreibst über die lokale Erkennung mit der Meldungs-Option, verwendest aber ein Bild über die &quot;Nackterkennung in iMessage&quot;, zu der Apple selbst sagt, dass sie mit ersterem nicht verbunden sei - finde ich unkorrekt ohne diesen Hinweis.<br /> Allerdings sind in der Tat Zweifel angebracht, ob diese Trennung immer so bleiben wird, was ich auch selbst schon geäußert habe.</div>
 

Mitglied 87291

Gast
<div class="bbWrapper"><a href="https://test.apfeltalk.de/community/members/244406/" class="username" data-xf-init="member-tooltip" data-user-id="244406" data-username="@Max Mohr">@Max Mohr</a> <br /> Gibts auch eine Aussage zu falsch negativen?</div>
 

Blurryface

Oberösterreichischer Brünerling
Registriert
22.04.18
Beiträge
711
<div class="bbWrapper">&quot;Außerdem prüft Apple die Fotos noch einmal händisch.&quot;<br /> <br /> Dem ist nichts hinzuzufügen. <br /> In meinen Augen reiten die sich immer weiter rein. <br /> Wer gibt bitte Apple das Recht, meine Bilder noch einmal händisch zu prüfen!?<br /> Einfach nur zum <img class="smilie smilie--emoji" loading="lazy" alt="🤮" title="Kotzendes Gesicht :face_vomiting:" src="https://cdn.jsdelivr.net/joypixels/assets/8.0/png/unicode/64/1f92e.png" data-shortname=":face_vomiting:" /></div>
 

MichaNbg

Graue Herbstrenette
Registriert
17.10.16
Beiträge
8.173
<div class="bbWrapper"><blockquote data-attributes="member: 228423" data-quote="Blurryface" data-source="post: 5628717" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628717" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628717">Blurryface schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> &quot;Außerdem prüft Apple die Fotos noch einmal händisch.&quot;<br /> <br /> Dem ist nichts hinzuzufügen.<br /> In meinen Augen reiten die sich immer weiter rein.<br /> Wer gibt bitte Apple das Recht, meine Bilder noch einmal händisch zu prüfen!?<br /> Einfach nur zum <img class="smilie smilie--emoji" loading="lazy" alt="🤮" title="Kotzendes Gesicht :face_vomiting:" src="https://cdn.jsdelivr.net/joypixels/assets/8.0/png/unicode/64/1f92e.png" data-shortname=":face_vomiting:" /> </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote>Naja, also da sollte man schon realistisch sein und sich die Alternative überlegen:<br /> <br /> Wenn die Software Treffer raushaut und das ganze dann ohne Kontrolle an die Behörden übergibt, hast du dein Leben bei false positives ganz schnell ruiniert. Und zwar unrettbar. <br /> <br /> Also wenn das überhaupt kommt, dann bitte nur und ausschließlich mit Endkontrolle durch Menschen, die sich die Treffer nochmal ansehen und gegen den angeblichen Match prüfen. <br /> <br /> Wobei letzteres elementar ist. Es darf nur gegen den angeblichen Match geprüft werden. Wenn auf dem Bild zwar nicht der Match aus der Datenbank zu sehen ist aber vielleicht trotzdem ein nacktes Kind, dann darf da kein Alarm ausgelöst werden. <br /> Sonst hast irgendwann wirklich die Staatsanwaltschaft im Haus, weil du dein kleines Kind im Badezimmer auf dem Maushandtuch fotografiert hast.</div>
 

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.789
<div class="bbWrapper"><blockquote data-attributes="member: 228423" data-quote="Blurryface" data-source="post: 5628717" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628717" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628717">Blurryface schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> &quot;Außerdem prüft Apple die Fotos noch einmal händisch.&quot;<br /> <br /> Dem ist nichts hinzuzufügen.<br /> In meinen Augen reiten die sich immer weiter rein.<br /> Wer gibt bitte Apple das Recht, meine Bilder noch einmal händisch zu prüfen!?<br /> Einfach nur zum <img class="smilie smilie--emoji" loading="lazy" alt="🤮" title="Kotzendes Gesicht :face_vomiting:" src="https://cdn.jsdelivr.net/joypixels/assets/8.0/png/unicode/64/1f92e.png" data-shortname=":face_vomiting:" /> </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote>da kommt mir ein interessanter Gedanke:<br /> Scannen tun sie in der Cloud ja eh, dafür haben sie sich in den AGB oder per Gesetz auch das Recht (ausgedungen), es dürfte auch einiges an Rechenleistung fressen - lassen wir das lokal machen. Können wir als &quot;viel mehr Privacy&quot; verkaufen und unser CO2-Footprint wird deutlich besser. Nicht nur das am meisten auf Datenschutz orientierte Unternehmen, sondern auch das grünste! Und wir tun was für unsere Kinder. Ob die Keynote schon fertig ist?<br /> <br /> <blockquote data-attributes="member: 217060" data-quote="MichaNbg" data-source="post: 5628725" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628725" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628725">MichaNbg schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> Wobei letzteres elementar ist. Es darf nur gegen den angeblichen Match geprüft werden. Wenn auf dem Bild zwar nicht der Match aus der Datenbank zu sehen ist aber vielleicht trotzdem ein nacktes Kind, dann darf da kein Alarm ausgelöst werden.<br /> Sonst hast irgendwann wirklich die Staatsanwaltschaft im Haus, weil du dein kleines Kind im Badezimmer auf dem Maushandtuch fotografiert hast. </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote>das machen doch amerikanische Eltern eh nicht. Tschuldigung, die Formulierung war falsch. Amerikaner, die diese Treffer überprüfen, wissen, dass amerikanische Eltern sowas nicht tun - oder nicht zu tun haben.</div>
 
Zuletzt bearbeitet:
  • Like
Reaktionen: Mitglied 87291

angerhome

Baldwins roter Pepping
Registriert
13.10.15
Beiträge
3.204
<div class="bbWrapper"><blockquote data-attributes="member: 112770" data-quote="Wuchtbrumme" data-source="post: 5628726" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628726" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628726">Wuchtbrumme schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> da kommt mir ein interessanter Gedanke:<br /> Scannen tun sie in der Cloud ja eh, dafür haben sie sich in den AGB oder per Gesetz auch das Recht (ausgedungen), es dürfte auch einiges an Rechenleistung fressen - lassen wir das lokal machen. Können wir als &quot;viel mehr Privacy&quot; verkaufen und unser CO2-Footprint wird deutlich besser. Nicht nur das am meisten auf Datenschutz orientierte Unternehmen, sondern auch das grünste! Und wir tun was für unsere Kinder. Ob die Keynote schon fertig ist? </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote><a href="https://test.apfeltalk.de/community/attachments/img_1245-jpeg.177581/" target="_blank"><img src="https://www.apfeltalk.de/community/data/attachments/142/142932-3ee508790c2e5deba65adaf6ca09459c.jpg" class="bbImage " style="" alt="IMG_1245.jpeg" title="IMG_1245.jpeg" width="250" height="188" loading="lazy" /></a><br /> <br /> Ich habe damals schon geahnt, dass man dieses Foto noch sehr häufig in vielen unterschiedlichen Zusammenhängen als selbsterklärend nutzen kann.</div>
 

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.789
<div class="bbWrapper"><blockquote data-attributes="member: 207850" data-quote="angerhome" data-source="post: 5628731" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628731" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628731">angerhome schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> Ich habe damals schon geahnt, dass man dieses Foto noch sehr häufig in vielen unterschiedlichen Zusammenhängen als selbsterklärend nutzen kann. </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote>Witzig! - Genau dasselbe Bild schwebte auch vor meinem geistigen Auge!</div>
 

SomeUser

Roter Seeapfel
Registriert
09.02.11
Beiträge
2.103
<div class="bbWrapper"><blockquote data-attributes="member: 228423" data-quote="Blurryface" data-source="post: 5628717" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628717" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628717">Blurryface schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> Wer gibt bitte Apple das Recht, meine Bilder noch einmal händisch zu prüfen!? </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote><br /> Zumindest die Frage ist einfach zu beantworten: Du. Beziehungsweise jeder Nutzer.</div>
 

Mitglied 246615

Gast
<div class="bbWrapper">Das habe ich bereits an anderen Stellen gelesen. Apple will also nicht von der Einführung der ansatzlosen Massendurchsuchung der End-Geräte Abstand nehmen.<br /> <br /> Was nützt mir eine Grenze, die heute gilt? Apple kann jederzeit sagen, wir senken die Grenze.<br /> <br /> Vor allem würde mich interessieren, wieviele echte Treffer es auf 100 Millionen Bilder gibt. Das wird man doch bestimmt aus den Erfahrungen mit dem iCloud-Scan sagen können. Denn damit würde die Verhältnismässigkeit des Mittels erkennbar.<br /> <br /> Gibt es irgendwelche unabhängigen Audits, die die Zahlen, die Apple nennt, auch bestätigen? Mir sind die bisher nie untergekommen.<br /> <blockquote data-attributes="member: 228423" data-quote="Blurryface" data-source="post: 5628717" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628717" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628717">Blurryface schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> Wer gibt bitte Apple das Recht, meine Bilder noch einmal händisch zu prüfen!? </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote>Am Ende Du, wenn Du die AGB abnickst und das musst Du bei einem Update ja machen oder kannst das Update nucht aufspielen. Damit stehen Dir aber auch alle anderen neuen Funktionen des Updates nicht zur Verfügung.<br /> <br /> Ich finde es aber gar nicht das schlimmste, dass Treffer nochmal von Menschen geprüft werden. Das eigentliche Problem ist, dass man alle Kunden als potenzielle Pädophile betrachtet. Anders lässt es sich nicht beschreiben, wenn man ohne Anfangsverdacht Milliarden Geräte auf sexuellen Mißbrauch von Kindern durchsuchen will.<br /> <br /> Wohlgemerkt: Bei dem Verfahren können nur bereits bekannte Bilder erkannt werden! Es wird also kein neuer fall aufgedeckt! Damit ist zwar auch ein False Positive mit der planschenden Tochter im Motiv eher kein sehr wahrscheinlicher Fall. Mir ist auch nicht zur Kenntnis gelangt, dass die echten Treffer auf den Geräten gelöscht werden. Abhängig von der Meldegrenze, lässt Apple also doch noch eine gewisse Anzahl von Bildern mit sexuellem Mißbrauch von Kindern zu.</div>
 
Zuletzt bearbeitet von einem Moderator:

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.789
<div class="bbWrapper"><blockquote data-attributes="member: 246615" data-quote="Slartibartfass" data-source="post: 5628741" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628741" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628741">Slartibartfass schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> Was nützt mir eine Grenze, die heute gilt? Apple kann jederzeit sagen, wir senken die Grenze. </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote>Auch möglich: „Wir mussten das aufgrund gesetzlicher Regelungen ändern!“ osä.<br /> <br /> <blockquote data-attributes="member: 246615" data-quote="Slartibartfass" data-source="post: 5628741" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628741" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628741">Slartibartfass schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> Vor allem würde mich interessieren, wieviele echte Treffer es auf 100 Millionen Bilder gibt. Das wird man doch bestimmt aus den Erfahrungen mit dem iCloud-Scan sagen können. Denn damit würde die V0erhältnismässigkeit des Mittels erkennbar. </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote>Was ist denn das für eine Frage? die stellt sich doch überhaupt nicht. Apple ist ein privates Unternehmen, kein Akteur der öffentlichen Verwaltung. Apple Apple ist kein Verfassungsorgan, schon gar kein deutsches. Auch eine interessante Frage: muss Quellkot, der in den USA geschrieben wurde, aber in Deutschland läuft, deutsches Verfassungsrecht beachten? Ich bin da nicht mehrGanz drin, da sind gleich mehrere Fragen drin.<br /> <br /> <blockquote data-attributes="member: 246615”" data-quote="„Slartibartfass" data-source="post: 5628741" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628741" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628741">„Slartibartfass schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> Gibt es irgendwelche unabhängigen Audits, die die Zahlen, die Apple nennt, auch bestätigen? Mir sind die bisher nie untergekommen. </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote>da muss man halt jemanden finden, der kein Problem damit hat, idiotische Zahlen zu nennen. Oder wie sonst sollte man es nennen, aus einer völlig unbekannten Zahl an Bildern weltweit die Stichprobe zu berechnen?<br /> sei es wie es sei – mit den Punkten gleitet man zu sehr auf die inhaltliche Ebene herab/hinauf. Die zentrale Frage ist doch die Umdrehung bisheriger Sicherheitsparadigmen und die Integrität Von IT Systemen/Hausrecht/Unverletzlichkeit der Wohnung.</div>
 

Mitglied 246615

Gast
<div class="bbWrapper"><blockquote data-attributes="member: 112770" data-quote="Wuchtbrumme" data-source="post: 5628744" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628744" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628744">Wuchtbrumme schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> Was ist denn das für eine Frage? die stellt sich doch überhaupt nicht. Apple ist ein privates Unternehmen, kein Akteur der öffentlichen Verwaltung. Apple Apple ist kein Verfassungsorgan, schon gar kein deutsches. Auch eine interessante Frage: muss Quellkot, der in den USA geschrieben wurde, aber in Deutschland läuft, deutsches Verfassungsrecht beachten? Ich bin da nicht mehrGanz drin, da sind gleich mehrere Fragen drin. </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote>Der Grund der Frage steht bereits in dem Zitat von mir.<br /> <br /> Natürlich ist Apple kein Verfassungsorgan. Apple hat aber auch keine hoheitlichen Rechte. Dem Vermieter meiner Wohnung oder den Bauunternehmen würde ich auch nicht erlauben, regelmässig meine Wohnung auf was auch immer zu durchsuchen. Wenn dort aber etwas ähnliches vertraglich geregelt wird, weise ich ihn ab, wenn er vor der Tür steht und lasse es auf einen Prozess ankommen. Das kann ich bei einem Betriebssystem von Apple nicht.<br /> <br /> <blockquote data-attributes="member: 112770" data-quote="Wuchtbrumme" data-source="post: 5628744" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628744" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628744">Wuchtbrumme schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> da muss man halt jemanden finden, der kein Problem damit hat, idiotische Zahlen zu nennen. Oder wie sonst sollte man es nennen, aus einer völlig unbekannten Zahl an Bildern weltweit die Stichprobe zu berechnen? </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote>Selbstverständlich kann das Ergebnis eines Audits auch gekauft sein, aber der Auditor haftet dafür und wird sich überlegen, ob er vollkommen falsche Ergebnisse niederschreibt. Ein Audit würde die Glaubwürdigkeit gegenüber einer in den Raum gestellten Zahl auf jeden Fall erhöhen.<br /> <br /> Einem Blinden kann man sagen, der Himmel sei rosa. Bei diesem System von Apple ist Apple der einzige sehende. Wir End-Nutzer sind alle blind! Es gibt also kaum eine Chance, dass uns jemand sagt: &quot;Übrigens. Der Himmel ist in Wirklichkeit blau.&quot;</div>
 
Zuletzt bearbeitet von einem Moderator:
  • Like
Reaktionen: Wuchtbrumme

Butterfinger

Kaiser Alexander
Registriert
28.04.15
Beiträge
3.937
<div class="bbWrapper"><blockquote data-attributes="member: 228423" data-quote="Blurryface" data-source="post: 5628717" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628717" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628717">Blurryface schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> &quot;Außerdem prüft Apple die Fotos noch einmal händisch.&quot; </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote>Ob das Personal dann psychologisch betreut werden muss? <br /> Oder dem Mitarbeiter gefällt es am Ende sogar, was extrem widerwärtig wäre <img class="smilie smilie--emoji" loading="lazy" alt="🤬" title="Gesicht mit Symbolen über dem Mund :face_with_symbols_over_mouth:" src="https://cdn.jsdelivr.net/joypixels/assets/8.0/png/unicode/64/1f92c.png" data-shortname=":face_with_symbols_over_mouth:" />.<br /> <br /> Sehr schwieriges Thema.<br /> <blockquote data-attributes="member: 246615" data-quote="Slartibartfass" data-source="post: 5628741" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628741" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628741">Slartibartfass schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> Das eigentliche Problem ist, dass man alle Kunden als potenzielle Pädophile betrachtet </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote>Was ist, wenn bei Apple Pädophile arbeiten und dann genau in der Endkontrolle?<br /> <blockquote data-attributes="member: 246615" data-quote="Slartibartfass" data-source="post: 5628741" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628741" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628741">Slartibartfass schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> Am Ende Du, wenn Du die AGB abnickst und das musst Du bei einem Update ja machen oder kannst das Update nucht aufspielen. Damit stehen Dir aber auch alle anderen neuen Funktionen des Updates nicht zur Verfügung. </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote>Oder Apple bringt noch ein iOS 14.8.5 und dort ist es dann auch drin <img class="smilie smilie--emoji" loading="lazy" alt="😅" title="Grinsendes Gesicht mit Schweißtropfen :sweat_smile:" src="https://cdn.jsdelivr.net/joypixels/assets/8.0/png/unicode/64/1f605.png" data-shortname=":sweat_smile:" />.<br /> <br /> Was wäre, wenn der Nutzer sein iPhone nicht mit der Cloud synchronisiert und iMessage nicht nutzt?</div>
 

SomeUser

Roter Seeapfel
Registriert
09.02.11
Beiträge
2.103
<div class="bbWrapper"><blockquote data-attributes="member: 201841" data-quote="Butterfinger" data-source="post: 5628750" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628750" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628750">Butterfinger schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> Ob das Personal dann psychologisch betreut werden muss?<br /> Oder dem Mitarbeiter gefällt es am Ende sogar, was extrem widerwärtig wäre <img class="smilie smilie--emoji" loading="lazy" alt="🤬" title="Gesicht mit Symbolen über dem Mund :face_with_symbols_over_mouth:" src="https://cdn.jsdelivr.net/joypixels/assets/8.0/png/unicode/64/1f92c.png" data-shortname=":face_with_symbols_over_mouth:" />. </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote><br /> Das ist ein Thema, dass du bei allen Menschen hast, die &quot;fragwürdige&quot; Inhalte kontrollieren müssen. Gibt auch Berichte über die Leute, die sich bei Facebook mit Gewaltvideos etc. abmühen - und den teilweise sehr unschönen Langzeitfolgen davon. <br /> Das ist eben die andere Seite der Münze, wenn der Ruf laut wird, dass Inhalteanbieter nicht jeden Inhalt anzeigen sollen.<br /> <br /> <blockquote data-attributes="member: 201841" data-quote="Butterfinger" data-source="post: 5628750" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628750" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628750">Butterfinger schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> Was ist, wenn bei Apple Pädophile arbeiten und dann genau in der Endkontrolle? </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote><br /> Das sind eigentlich Risiken, die du mit einem 4-Augen-Prinzip im Prozess umgehst. Dass die Dichte an Pädophilen hingegen so hoch ist, dass davon dann mehrere dort sitzen ist statistisch recht unwahrscheinlich. Ist ja nicht die katholische Kirche.</div>
 
  • Like
Reaktionen: saw und allans1976

Mitglied 241048

Gast
<div class="bbWrapper">Ist denn jemand, der 29 kinderpornographische Bilder in der iCloud speichert, kein Pädophiler? Verstehe die Untergrenze von 30 nicht.</div>
 
  • Like
Reaktionen: ottomane

Mitglied 87291

Gast
<div class="bbWrapper"><a href="https://test.apfeltalk.de/community/members/241048/" class="username" data-xf-init="member-tooltip" data-user-id="241048" data-username="@dtp">@dtp</a> <br /> <br /> 29 kann halt einfach so mal passieren, kennt ja bestimmt jeder.<br /> Wirkliche Sammelleidenschaft und damit bestätigte Neigung hat man halt erst mit 30.<br /> <br /> Die Kinder sind Apple in diesem Zusammenhang einfach scheiß egal. Kein Kind wird durch diese Methoden geschützt.<br /> Nur Apple kann sagen, sie haben Maßnahmen ergriffen um keine Kinderpornographie mehr in der Cloud zu haben. Das wars aber auch.</div>
 

Mitglied 241048

Gast
<div class="bbWrapper"><blockquote data-attributes="member: 87291" data-quote="Reemo" data-source="post: 5628761" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628761" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628761">Reemo schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> Wirkliche Sammelleidenschaft und damit bestätigte Neigung hat man halt erst mit 30. </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote><br /> Ist das so? Jemand, der 30 Platten oder CDs im Regal hat, ist für mich kein Sammler. <img src="/community/styles/apfeltalk/smilies/Wink.png" class="smilie" loading="lazy" alt=";)" title="Wink ;)" data-shortname=";)" /> Aber egal. <br /> <br /> Ich gehe auch davon aus, dass Microsoft, Google und andere Cloud-Anbieter früher oder später etwas Ähnliches implementieren werden.</div>
 

Bananenbieger

Golden Noble
Registriert
14.08.05
Beiträge
25.515
<div class="bbWrapper"><blockquote data-attributes="member: 217060" data-quote="MichaNbg" data-source="post: 5628725" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628725" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628725">MichaNbg schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> Wobei letzteres elementar ist. Es darf nur gegen den angeblichen Match geprüft werden. Wenn auf dem Bild zwar nicht der Match aus der Datenbank zu sehen ist aber vielleicht trotzdem ein nacktes Kind, dann darf da kein Alarm ausgelöst werden. </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote>Nein, elementar ist, dass Apple und seine Mitarbeiter rein gar nichts in privaten Photos zu suchen haben.</div>
 

smokin.shutdown

Cox Orange
Registriert
23.07.18
Beiträge
97
<div class="bbWrapper"><blockquote data-attributes="member: 217060" data-quote="MichaNbg" data-source="post: 5628725" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628725" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628725">MichaNbg schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> Naja, also da sollte man schon realistisch sein und sich die Alternative überlegen:<br /> <br /> Wenn die Software Treffer raushaut und das ganze dann ohne Kontrolle an die Behörden übergibt, hast du dein Leben bei false positives ganz schnell ruiniert. Und zwar unrettbar. <br /> <br /> Also wenn das überhaupt kommt, dann bitte nur und ausschließlich mit Endkontrolle durch Menschen, die sich die Treffer nochmal ansehen und gegen den angeblichen Match prüfen. <br /> <br /> Wobei letzteres elementar ist. Es darf nur gegen den angeblichen Match geprüft werden. Wenn auf dem Bild zwar nicht der Match aus der Datenbank zu sehen ist aber vielleicht trotzdem ein nacktes Kind, dann darf da kein Alarm ausgelöst werden. <br /> Sonst hast irgendwann wirklich die Staatsanwaltschaft im Haus, weil du dein kleines Kind im Badezimmer auf dem Maushandtuch fotografiert hast. </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote><br /> Ich stelle mir gerade die Frage warum muss man denn eigentlich Bilder von seinem nackten Kind anfertigen? Bilder die es nicht gibt können nicht in „Umlauf „ geraten.</div>
 

Mitglied 246615

Gast
<div class="bbWrapper"><blockquote data-attributes="member: 230080" data-quote="smokin.shutdown" data-source="post: 5628922" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch"> <div class="bbCodeBlock-title"> <a href="/community/goto/post?id=5628922" class="bbCodeBlock-sourceJump" rel="nofollow" data-xf-click="attribution" data-content-selector="#post-5628922">smokin.shutdown schrieb:</a> </div> <div class="bbCodeBlock-content"> <div class="bbCodeBlock-expandContent js-expandContent "> Ich stelle mir gerade die Frage warum muss man denn eigentlich Bilder von seinem nackten Kind anfertigen? Bilder die es nicht gibt können nicht in „Umlauf „ geraten. </div> <div class="bbCodeBlock-expandLink js-expandLink"><a role="button" tabindex="0">Zum Vergrößern anklicken....</a></div> </div> </blockquote>Vor allem beweist man mit solchen Beispielen, dass man nicht verstanden hat, was Apple wirklich macht. Apple macht keine Motiv-Erkennung.<br /> <br /> Es gibt Listen von Bildern, auf denen sexueller Mißbrauch von Kindern abgebildet ist. Damit man nicht das Bild an sich als Vergleich hernehmen muss, wird aus dem Bild ein Hash erstellt. Das ist nur ein &quot;eindeutiger&quot; Fingerabdruck des Bildes in Form von Buchstaben und Zahlen. Der Hash kommt auf eine Blacklist. Diese ist also nur eine Textdatei und wird jedem Apple-Gerät unter iOS, iPadOS und macOS übertragen. &quot;Eindeutig&quot; habe ich bewußt in Klammern gesetzt, weil die Eindeutigkeit nicht immer gegeben ist.<br /> <br /> Apple erstellt nun auf den Endgeräten für jedes Bild auf diesen ebenfalls einen Hash nach dem gleichen Verfahren, wie sie für die Bilder auf der Blacklist erstellt wurden. Dann vergleicht sie für jedes Bild auf dem Endgerät, ob der errechnete Hash auch auf der Blacklist gefunden wird. Übersteigt die Anzahl der übereinstimmenden Hashes 30 Bilder, beginnt die Meldekette.<br /> <br /> Hash-Verfahren haben jedoch in sich bereits ein mögliches Problem. Ich habe vielleicht ein Bild auf meinem Apple-Gerät, dass zufällig den gleichen Hash erzeugt wie ein bekanntes Bild auf der Blacklist. Dass soetwas passiert ist bereits sehr unwahrscheinlich und spielt zu einem Gutteil in die geringe Fehlerqoute, die Apple nennt, hinein. Die Wahrscheinlichkeit ist so gering, dass man bisher der Meinung war, Hashes seinen eindeutig. Das ist jedoch mittlerweile für diverse Hash-Verfahren widerlegt. Und selbst noch so geringe falsche Treffer (False Positives) führen aufgrund der schieren Menge dann doch wieder zu erschreckend hohen absoluten False Positives.<br /> <br /> Selbst wenn Hashes wirklich zu 100% eindeutig wären, besteht noch ein anderes Problem. Sie ändern sich auch, wenn das Bild verändert wird. Wird eine Kopie davon skaliert, ein Ausschnitt gewählt, der Komprimierungsfaktor geändert, das Komperessionsverfahren verändert und das Bild abgespeichert, entsteht ein neuer Hash. Sogar das Bildformat (JPEG, PNG, TIFF etc.) verändert den Hash. Wer schlau ist, verändert das Bild einfach nach einer oder mehreren der genannten Methoden uns schon wäre das Hash-Verfahren gegenüber der bearbeiteten Bilder blind.<br /> <br /> Apple hat nun ein Verfahren entwickelt, das offenbar ein Bild in Segmente zerlegt und &quot;normalisiert&quot;, so dass ein Bild trotz all den genannten Änderungsmöglichkeiten anhand eines Hashes oder einer Gruppe von Hashes wiedererkannt werden kann.<br /> <br /> Das bedeutet, das Nacktfoto vom eigenen Kind beim baden oder plantschen im Pool oder im Meer wird von dem von Apple geplanten System gar nicht erkannt. Diese Angst ist aktuell unbegründet. Es wäre jedoch denkbar, dass so ein Bild von irgendjemandem auf die besagte Blacklist gesetzt wird. Wie es dort hinkommen kann, würde hier zu weit führen und ist zumindest aktuell gar nicht das Problem.<br /> <br /> Das System von Apple ist aber auch gegenüber neuen Bildern, die sexuellen Mißbrauch von Kindern abbilden, blind. Solange, bis es einer der beteiligten Organisationen bekannt ist, ein Hash erstellt wurde, dieser auf die Blacklist kommt und die aktuelle Blacklist auf Endgeräte übertragen wurde.<br /> <br /> Der sogenannte Dammbruch ist, dass Apple <b>alle</b> Geräte mit iOS 15 oder neuer, iPadOs 15 oder neuer und macOS 12 oder neuer in dieser Art untersuchen will. Das sind milliarden Geräte weltweit. Das bedeutet, alle Apple-Nutzer werden von Apple unter einen Generalverdacht gestellt. Zwar soll das Verfahren zunächst auf die USA beschränkt sein, aber eine weltweites Ausrollen ist geplant, jedoch von den jeweiligen rechtlichen Voraussetzungen abhängig. Es kann also sein, dass wir in Europa nie diese Funktion aktiviert bekommen. Ob den Amis es lieber ist als uns Europäern (oder den Bewohnern beliebiger anderer Erdteile), von dem Unternehmen, dem sie durch Kauf der Ware Vertrauen aussprechen, unter Generalverdacht gestellt zu werden, wage ich zu bezweifeln.<br /> <br /> Aufgrund der fehlenden Motiverkennung sehen einige darin keine Durchsuchung gegeben. Ich hingegen sehe das sehr wohl als Durchsuchung an, immerhin muss ja von jedem Bild auf dem Endgerät ein Hash erstellt werden und für das Endgerät ist ein Bild oder ein Hash immer nur eine Folge von mehr oder weniger vielen Nullen und Einsen.<br /> <br /> Tatsächlich könnte Apple mit der Begründung &quot;sexueller Mißbrauch von Kindern&quot; ein Verfahren massenhaft austesten wollen, das später auch für andere Zwecke eingesetzt wird. Gegen die Bekämpfung von sexuellem Mißbrauch von Kindern kann man aus moralischen Gründen nicht ein. Aber wenn man nur die moralische Brille aufhat, dann fällt es immer schwerer dagegen zu argumentieren, wenn die Gründe ausgeweitet werden.<br /> <br /> Es ist nicht einmal ausgeschlossen, dass Strafverfolger und Geheimdienste Apple dazu &quot;überredet&quot; haben, weil sie wissen, nie die rechtlichen Mittel dazu per Gesetz zu bekommen. Dass dieses Vorgehen Realität ist, wissen wir seit 2012!<br /> <br /> Man kann fragen, warum Apple das Verfahren dann öffentlich macht und nicht heimlich einführt?<br /> Nun, Apple hat sich seit Jahrzehnten als Robin Hood zum Schutz der Privatsphäre dargestellt. Was sie jetzt machen, ist schon ein Drahtseilakt. Das heimlich einzubauen und dann erwischt zu werden, könnte das Firmenende bedeuten. Auch dem wertvollsten IT-Unternehmen geht irgendwann das Geld aus.<br /> <br /> Für mich ist der &quot;Drahtseilakt&quot; sogar ein erheblicher Hinweis darauf, dass hinter der Funktion weit mehr Weltpolitik steckt, als wir uns ausmalen.</div>
 
Zuletzt bearbeitet von einem Moderator: