カテゴリー
ツール

NSFW Filter – 職場で見てはいけないNSFW画像をブロックするブラウザ拡張

nsfw-filter/nsfw-filterは、Tensorflow.js を使って特定の画像、職場で表示するのが不適切な画像(NSFW = Not Safe For Work)をブロックできるブラウザ拡張です。

職場で見るとまずいようなサイトを開くと、ブラウザ上の表示がこんな感じに。

同じサイトで問題のない画像が出ているページを開くと、こう。

仕組み的にはブラウザ上で動くinfinitered/nsfwjs のライブラリを使っていて、Chrome, Firefox 用にパッケージされています。

クライアント側のブラウザ上で処理され、判定される画像自体が外部に送られることはありません。自分が何を見ているかという情報は洩れないということですね。

ブロック判定の前に一瞬表示されることもあるようです。また、何がNSFWかの判定はもちろん完璧ではなく、職場ではまずそうな画像が残ることもあれば、まずくない画像が誤判定されている場合もあるだろうと思います。小さなサムネイル画像などは判定失敗していることが多いようにも感じました。

画像の表示はそんなに遅延する感じはありませんね。まあそこはPCの処理速度にもよるかもしれませんが。

職場もですが、子供の使うパソコンのブラウザに入れておくという利用法もあるかもしれませんね。

開発は「将来に渡って完全にオープンソースベース」ということで、世界中からの協力者を求めているということです。

via Towards Data Science and Hacker News

カテゴリー
ネットのサービス

NSFW画像検知APIの優劣比較

NSFW(Not safe for work = 職場閲覧不適)画像、わかりやすい言い方だとエロ画像ですが、画像を渡すとその画像がエロかどうか判定してくれる API というの、結構たくさんあるんですね。

なぜこの種のAPIに需要があるかというと、ユーザー投稿型のwebサービス運営において、広く見せられないような画像を投稿されることが運用の大きな障害となるからでしょうね。悪意のあるユーザーや考えなしのユーザーによって法に触れたりサービスのイメージが悪化するような画像を投稿され、さらにそのことがソーシャルメディアで喧伝されたりすれば、サイトの評判に関わります。

Facebook や twitter のような超大手なら、画像の判定もいくらでも内製できるでしょうが、そうでない小さなサービスでは、多少お金を払ってでも簡易に判定を外部に任せたいところでしょう。

…と、書いていたら、Tumblr が(おそらく Apple に iPhone アプリを禁止された影響で)アダルトな投稿を禁じるという方針転換を発表し、同時に開始したアダルト画像のフィルタリングの誤判定がひどいらしいので、NSFW 判定は多数のエンジニアを抱える大手でも難しい分野なのでしょう。

そんな画像検知のAPI を、Aditya Ananthram さんが、API の検出精度を実験したり、価格を比較したりしてくれています。

調査対象のAPIはなんと11個。このまとまったリストだけでも、取っ掛かりとしてはありがたいですね。

また、セーフ/アウトのアウトの種類もいろいろあるようで、API によっても分類は異なりそうですが、以下のようなカテゴリ分けで判定を試みています。

  • Explicit Nudity (露骨なヌード)
  • Suggestive Nudity (思わせぶりなヌード – 隠すところは隠しているが… みたいなやつ)
  • Porn/sexual act (ポルノ/性行為)
  • Simulated/Animated porn (CGやアニメのポルノ)
  • Gore/Violence (流血/暴力)
  • Safe for Work (職場で問題ない)

実験するにあたって、当然、本物の NSFW 画像が必要となります。ブログ記事自体は必要なところはボカシが入っていて、SFW(safe for work = 職場安全)ですけど、中にGoogle Documents へのリンクがあり、リンク先には今回使用された、正しく分類されたデータが入っています。追試とかしたい方は注意してください。

カテゴリごとに強いAPIはありますが、Google のものがおおむね良い成績を上げたそうで、さすがというところでしょうか。また、Gore/Violence や Safe for Work というカテゴリはどのAPIでも判定は難しいようで、各APIでも誤判定が多かったそうです。このへんは元のテストデータにしても正解かどうか意見がわかれそうですし、「職場で問題ないかどうか」なんて普遍的にわかるものでもないですからね。

擬陽性・偽陰性の多寡を並べたグラフ(Overall Comparison セクション内)や、呼び出し回数に対する価格(Pricing セクション内)などもまとめられているのでこれらを併せて比較することで、予算と精度からどのAPIを調べてみるといいかの手がかりが得られそうです。

カテゴリー
fun

The Unfappening – セレブ流出ヌードを「安全な」アートに

8月31日に起きた、iCloud に保存された有名芸能人のプライベートな写真が大量にネットに流出した事件は、”Celebgate”(セレブゲート)とか”The Fappening”という名前がついたようです。セレブゲートの方はウォーターゲート事件というスキャンダルからの連想、Fappening は f-の放送禁止用語とhappening(ハプニング)からの造語でしょうかね。

最初に流出情報が出た匿名画像掲示板 4chan や拡散した Reddit の一般への知名度も上がり、その過程では CNN の報道番組が「4chan って誰?」(4chanは人ではなくてwebサイトです!)といった無知を晒して恥をかいたりもしたようです。

The Unfappening は、オランダのアーチストが開いたサイトで、流出したセレブのヌード写真を加工して、NSFW(職場閲覧注意, Not Safe For Work)からSFW(職場閲覧大丈夫, Safe For Work)にするプロジェクトです。

unfappening

サイトでは広く加工写真の投稿を呼びかけ、それぞれの流出写真について一番出来のよいものを選んで並べています。

unfappening-1
(credit: Wendy Deun – Design op Zolder)

サイト名の通り、The Fappening を、”Un-“でなかったことにしよう、ということですね。とても紹介できないような写真を普通にどこでも載せられる写真にするということで、一種のコンテンツの活用といえるかもしれません。

via Geekologie