コドマモはAIを用いて、年々増加している「子どもがSNS上で自分の性的な写真を送らされてしまう自撮り被害」を防ぐために開発されているスマホアプリです。
アプリ公開時に通知を受け取る警察と大学が協力して子どもがスマートフォンでわいせつな姿を自撮りして保存した場合にAI=人工知能で検知して削除するアプリの開発を進めています。
子どもがスマホで画像の撮影をした際に、「問題のある画像にあたらないか」をAIが自動で判定。子どもに削除を促すとともに、保護者にお知らせします。
* スマートフォンによっては、「自動での削除」を選択できない場合があります(端末に依存する制限)。その場合は、親に通知を行うとともに、削除を促すメッセージを表示いたします。
AIは端末上にアプリと共にインストールされます。検知は端末上で完結するため、画像のデータは私たちのサーバーに送られない仕組みとなっています。
カメラアプリの種類を問わず、スマートフォンの写真フォルダに保存されるすべての画像に対して、検知を行います。