Apple po përballet me kritika për një sistem të ri që detekton materiale të abuzimit seksual të fëmijëve (CSAM) në pajisjet e përdoruesve amerikanë.
Para se një imazh të ruhet në iCloud Photos, teknologjia do të kërkojë ndeshje të CSAM-it të njohur tashmë.
Por ka shqetësime se teknologjia mund të zgjerohet dhe përdoret nga qeveritë autoritare për të…
Advertisement
google_ad_client = "ca-pub-9470492314070355";
google_ad_slot = "5632655076";
google_ad_width = 300;
google_ad_height = 250;
google_page_url ="http://www.zhaku.net/";
