Hi-tech

В iOS 15 Apple внедрит механизм отслеживания фото

Вчера по сети прокатилась новость, что Apple запустит в iOS 15 систему обнаружения CSAM (Child Sexual Abuse Material). По сути компания хочет обучить искусственный интеллект находить фоточки со сценами насилия над детьми и детскую порнографию. И вроде бы цель благая, но нашлись те, кого эта инициатива не обрадовала, и они предвидят возможное попирание условий сохранения конфиденциальности.

Ожидается, что искусственный интеллект сможет находить в iCloud Photos фотографии непристойного содержания. Т.е. искусственный разум будет сам находить снимки и выдавать, владелец какого устройства «балуется» таким контентом. Вся информация о собственнике устройства впоследствии будет передана в правоохранительные органы.

Добавьте «SRNSK News» в источники
Яндекс новостиGooglenews