カテゴリー
ネットのサービス

Unim.press – redditのトップページを新聞紙面風にデザイン

unim.pressは、海外の巨大掲示板 reddit の最新人気記事を昔の新聞風デザインにして見せるというサイトです。

記事の本文は全部埋め草なので、タイトルで気になったら結局reddit にジャンプするんですけどね。できればコメントから記事本文みたいなものも生成してほしいところ。

記事にマウスを置くと、その記事の画像だけカラーになります。レトロ風味のモノクロと、気になった記事でちゃんと画像を見たいという気持ちを両立させた設計でしょうか。

新聞を何十年も読んできた人は特に、新聞の記事並びの形式に親和性があるでしょうし、ただ表のように順に並んでいるよりもこちらの方が楽という人はいるかもしれません。今起こっていることを俯瞰的にみられるという効果も… どうでしょうね。

それに、できた紙面を見ると懐古調というか、くだらないニュース(失礼)もなんだか意義のあるニュースに見えてくるということもあるかも。あるメディアを別のメディアの形式に置き換えるというアイデア、他にも何か作れるかもしれません。

via Hacker News

カテゴリー
ネットの事件

Amazonのメールテンプレートが誤ってそのまま送信されるも、内容の文章指南が面白いと話題に

Amazon AWS からこんなメールが来たよ、というredditの書き込み。

このメール文、内容にAWSから来るようなものは一切ありませんが、

「この文章は5単語です。さらに5単語の文章です。1文は5文字で十分です。ただそれが続きすぎると単調になります。(中略) 今、長さを変えてみよう。音楽を作るんだ。そう音楽を書く。リズム、調子の変化、そしてハーモニー。…」

から始まり、少しずつ内容が熱を帯びていき、後半では

「…次第に大きくなる刺激と燃えさかる熱量を持つセンテンスの長文で読者を引き込み、ドラムロールとシンバルの響きでもってここが重要だ、これを聞いてくれ」

そしてメールの末尾のボタンには

「『ここをクリック』ではないちゃんとしたCTA(行動喚起)のテキストを書いてください」

で終わっています。

Redditユーザーの情報によれば、この文章はゲイリー・プロヴォストさん(Gary Provost)の100 Ways to Improve Your Writing(文章をよくする100の方法)という書籍がオリジナルだそうで、Amazon AWS の中でニュースレターのテンプレートにこれを採用していたということのようですね。

穴埋め、仮の文章としてはLorem Ipsumが有名ですが、文章の書き方のちょっとしたコツを含むこのプロヴォストさんの文章も、実用的でいいですね。

そのまま読める自然な文章であるために、完成原稿だと勘違いして社内のチェックをすり抜け、送られてしまった可能性もありますが。

カテゴリー
ネットのサービス

Pushshift.io – reddit掲示板の過去投稿を提供するwebサービス/API

pushshift.io は、英語圏の巨大掲示板 reddit の過去の書き込みを蓄積し提供しているサイトです。ジェイソン・バウムガートナーさん(Jason Baumgartner)という個人の方による運営です。

FAQ ページを読むと、過去のデータを期間やキーワード、ユーザー等で一括取得したい時に使うサービスだということ。新規のコメントをリアルタイムで取得したい時は reddit 公式の API を使ったほうが良いとありますね。

reddit は巨大な掲示板なので、データ量も相当になると思いますが、 Pushshift は個人 + 寄付によって維持されているようです。

Pushshift API を使ったサービス

過去の膨大なコメントにAPIやCSVでアクセスできるということで、これを利用したサービスもいろいろ存在するようです。

revddit

任意の reddit ユーザーに対し、削除した/削除されたコメントを検索できるサービス。

自分の記憶にない8年前のコメントが出てきました。僕が消したわけではなさそう。スレッドがアーカイブされた結果見えなくなっているという意味でしょうかね。

Pushshift Reddit Search

いろいろな指定で、過去の reddit 掲示板をテキスト検索できるサービス

PSAW

Pushshift API を Python 3 から呼び出すためのラッパーライブラリ。

最新のスレッドを100件取るにはこんな感じ。

# The `search_comments` and `search_submissions` methods return generator objects
gen = api.search_submissions(limit=100)
results = list(gen)

スラング等が多く入った日常英語の書き文字データを大量に入手できるので、自然言語処理や機械学習の実験に使えるのではないかと思いました。

via Hacker News