Apple po përballet me kritika për një sistem të ri që detekton materiale të abuzimit seksual të fëmijëve (CSAM) në pajisjet e përdoruesve amerikanë.
Para se një imazh të ruhet në iCloud Photos, teknologjia do të kërkojë ndeshje të CSAM-it të njohur tashmë.
Por ka shqetësime se teknologjia mund të zgjerohet dhe përdoret nga qeveritë autoritare për të…
Advertisement