カテゴリー
fun

このレイオフは存在しない – 架空のCEOのレイオフメッセージをAI生成

This Layoff does not exist (このレイオフは実在しない)は、機械学習で存在しない情報を作る一連のwebサイトの流行”does not exist”シリーズの新顔で、ページを読み込むたびに新しい企業レイオフのアナウンスメッセージを生成するという不穏なジョークサイトです。

自動生成された嘘のレイオフアナウンス

ページの一番上には3つのパラメーターが表示されています。

  • 社名
  • レイオフの原因
  • CEOは責任を認めているか(true = 認めている)

これらがランダムに選ばれ、パラメーターに応じた「社長からの苦渋のメッセージ」が表示されます。

たとえば、太陽光ラップトップの開発失敗による10%のレイオフ。

Daniel’s idea was embraced and we went ahead and developed a prototype for the laptop. Unfortunate for us, Daniel wasn’t aware of the power of sunlight.

ダニエルのアイデアを受け入れ、我々はプロトタイプの開発を進めてきました。しかし、不幸なことにダニエルは日光の力について考慮していませんでした。

あるいは、「自然淘汰」による10%のレイオフ。

We have had to make the difficult decision to exercise natural selection.

自然淘汰の行使、という困難な決断をしなければなりませんでした。

「社名」の方は、実在するIT企業がランダムに出てくるので、ちょっと大丈夫かな(企業名も架空の方がいいのでは?)と思いますね。また、accountability は何度リロードしてもTRUE しか出てこないし、他にもそういう指摘をしている利用者がいるので、何かバグがあるのかもしれません。

レイオフの理由は「オフィスの改装」「有名税」「権利」「おとぎ話」「クソ野郎」「ガンジー」「パンダ」など、リストがあるのかランダムなのか、相当おかしなことになる言葉も多いのですが、GPT のおかげか、文章だけはスムーズで流れるようなので、理由が変な場合はさらにおかしみが増しています。

パンダのパンデミックが拡大し続けているため、従業員の 11% を解雇しなければならないことを発表することになりました。私たちの最愛のファジー フレンドは、自然の生活の場でますます活発になってきており、そのため、私たちの生産コストは急騰しています。たとえば、ここ数か月だけで、竹の費用が 7 倍に増加しました。私たちは新しいポリシーと手順で問題を軽減しようとしましたが、パンダが私たちの財務に与えた影響を克服するには十分ではありませんでした。

企業のレイオフやトップ交代人事などのニュースは株価を大きく変動させますが、今ならこういったフェイクリリースも高いレベルのものが人間の手を入れなくても簡単に作れてしまいますね。このサービスのようにフェイクとわかるように出しているのでなければ、情報の出元をしっかり確認するという作業はますます重要になったかと思います。

via Hacker News

カテゴリー
ネットのサービス

GPTravel Advisor – OpenAIのAPIを使った旅行日程提案サービス

GPTravel Advisorは、OpenAI の GPT3 API を使った旅行計画生成サービスです。

GPTravel Advisor で高岡3日旅行の日程を尋ねてみた

入力は「行きたい都市の名前」と「旅行する日数」の2つだけ。20-30秒ほど待つと、何日目にどこに観光に行けばよい、という形で日程表が出てきます。

「東京の3日間旅行」を作らせてみると、

  1. 朝は東京タワーの展望台から景色を見て、午後は皇居、夜は伝統料理を楽しむ
  2. 朝は明治神宮と代々木公園、午後は原宿でショッピング、夜は歌舞伎
  3. 朝は(豊洲ではなく)築地市場、午後はスカイツリー、夜は新宿で飲み食い

生成された旅行日程は、それなりに見えます。3日で二つのタワーなの、とか突っ込むことはできますが、移動にも無理はないし、こういう観光ツアーもあるかも。

東京だと元々の言語モデルにたくさんのデータがあってのことかもしれないですね。

ただ、自分がよく知っているマイナーな所(高岡とかね)を入れてみると、妙な日程表にも気づけました。存在しない観光地も出てくるし、無茶な移動(Aに行ったあと遠いBへ行って、なぜかAの施設内にある別のA’に行け、とか)もありました。これも、もっともらしい続きを出力しているだけというAIらしい結果です。

最終的な旅程をこれでいきなり組むことは問題ですが、おおざっぱな叩き台として2,30秒でこれが手に入るのはいいかもしれませんね。

TypeScript のソースコードもGitHub に公開されています。

コード中では Open API の text-davinci-003 モデルに対してユーザーが入力した地名と日数を入れて「理想の旅行日程は?」と尋ね、帰ってきた文章から今度は観光名所を取り出し、それぞれに Google Maps へのリンクをつける、という処理をしているようです。簡単なwebサービスのラッパーであり、ChatGPT の対話インタフェースで自分で訊いても似たような結果は出るのでしょうけど、うまく答えが出る訊ね方を内蔵して迷わないインタフェースにしてるとも言えますね。

サービスが当たれば API の呼び出し上限に達して続けられなかったり、追加料金が必要になったり、ということはありますが、ちょっとしたアイデアでこれまで作れなかったサービスが簡単に作れてしまうところは面白いと感じます。

via Twitter

カテゴリー
ネットの事件

StackOverflowで、ChatGPTを使ったAI回答を当面禁止に

英語圏の技術質問サイト Stack Overflow に関して、Stack Overflow 自身の運営等について語る Stack Overflow META にて、一時的な AI 回答の禁止が宣言されました

つい先日公開された ChatGPT AI が質問に対して自然な文章でもっともらしい回答を返してくることが話題となっています。

Stack Overflow で回答がついてないJavaScript の質問を ChatGPT に渡したら、長文の回答が得られたというツイートを見かけてこんな感想を書いたところでした。

ChatGPT を使えば短時間で(なんらかの)回答文が作れるため、サービス上でのポイント稼ぎに AI で作った回答を乱投稿ユーザーも出るかもなと。

実際にAI回答が増えているかどうかはわかりませんが、ChatGPT の生成した文章やソースコードは、見かけ上非常に整然とした形式で出力されるわりに中身が間違っていることも多く、そのまま Stack Overflow の回答にされると回答の質が落ちる、正解を探しに来たユーザーに対しては害にしかならない、というのが禁止の理由です。

AIイラスト生成サービスでもそうでしたが、ツイッターなどSNSで紹介されて感心するようなものは、人間がAIにたくさん試行させた大量の結果から良いものを選んでいるからすごいという面があります。

ChatAPT で webサービスを一式生成させてしまうという事例も複数出ていますが、それはチャットに対する誘導をしっかりできて、生成されたコードが問題ないか判定できる人間が使ったからまともに動くのであって、単純に ChatGPT に質問を喰わせて出てきた回答が正解、なんてことは今はまれでしょう。

ChatGPT にも訊いてみた

“temporarily(一時的に)”というのは、AI の回答の正確さが増した未来のことを考えてのことかもしれません。人間よりも良い回答ができる種類の質問もあるでしょうし、回答に AI が使われたかどうかを示すフラグとかが導入されるのかもしれません。AI が本当に良いものになれば、質問サイト自体が他のヒトではなく AI に教えてもらうサービスになるということも無いとは言い切れませんね。