В компании Apple заявили о готовности сканировать фотографии пользователей iPhone.
Разработчики намерены таким образом бороться с насилием над детьми и распространением детской порнографии.
Анализу будет подвергнут весь медиаконтент пользователя на смартфоне, передаваемый через хранилище iCloud.
Для изучения подобных файлов разработан специальный алгоритм.
При этом аккаунты уличенных в хранении детской порнографии пользователей будут принудительно отключены.
Об этом заявил старший директор Apple в ходе выставке CES 2020.
При этом руководство компании не сообщает о механизмах работы системы.
Некоторые эксперты уже предположили, что с этой целью компания может использовать PhotoDNA.
При помощи хэширования алгоритм отсканирует детали изображения и сравнит его с образцами, характерными для контента, содержащего порнографию.
Сама же Система PhotoDNA была создана специалистами Microsoft еще в 2009 году.
В настоящее время она нашла применение в социальных сетях таких разработчиков, как Facebook, и других IT-компаниях.
Комментируя сторону конфиденциальности информации пользователя, в Apple еще в октябре 2019 года заявили, что компания имеет право на изучение медиаконтента пользователей своих устройств.
В настоящее время известно, что компания обновила раздел политики конфиденциальности на своем сайте, где сообщила об изменениях, направленных на борьбу с незаконным контентом и сексуальной эксплуатацией детей.
Кроме того, в Apple заявили, что используют личную информацию пользователей в целях обеспечения защиты сервисов компании в интересах всех пользователей.
Фото: © Белновости