Apple po përballet me kritika për një sistem të ri që detekton materiale të abuzimit seksual të fëmijëve (CSAM) në pajisjet e përdoruesve amerikanë.

Para se një imazh të ruhet në iCloud Photos, teknologjia do të kërkojë ndeshje të CSAM-it të njohur tashmë.

Por ka shqetësime se teknologjia mund të zgjerohet dhe përdoret nga qeveritë autoritare për të…

Advertisement
google_ad_client = "ca-pub-9470492314070355"; google_ad_slot = "5632655076"; google_ad_width = 300; google_ad_height = 250; google_page_url ="http://www.zhaku.net/";