news

米アップル、ユーザーのiPhoneをスキャンし児童性的虐待画像を検出する機能を開発。今年後半に実装

子どもの面白い裸写真を撮ってる親御さんも多いはず。それは問題あるのか、ないのか、大丈夫なの…?
米Apple(アップル)は、ユーザーのiPhoneに保存されている写真の中から、児童の性的搾取を特定するための新たなツールを導入するようです。iPhoneユーザーが画像をiCloudに保存するときに、「NeuralHash」と呼ばれるニューラルマッチング機能を用いて、児童性的虐待コンテンツ(Child …
Source: ギズモード