「研究」タグアーカイブ

スマートフォンのカメラで血圧を計る研究とそのアプリ

経皮的工学イメージング(Transdermal Optical Imaging)によるスマートフォン血圧測定 というトロント大・杭州師範大学附属医院の共同研究が発表されています。スマートフォンのカメラで撮影するだけで、映った人物の血圧を計るという研究です。

現在のスマートフォンのカメラでも、顔の表皮付近のタンパク質から反射された光を検出できるそう。特に、血液中のヘモグロビンに反射した光を追跡することで、表面近くを流れる血流の変化が取れます。これを機械学習によって処理することで、1328人の被験者の95%程度の正確さで血圧を当てることができたということ。

ただ、この1328人のほとんどが白人系と東アジア系だったということで、今回の検証モデルでは、色が濃い肌の人についてはまだまだ正確に計れないのだそう。

この研究をベースにしたスマートフォン用のアプリ Anura が Android, iPhone 向けに配布されています。

僕の手持ちのスマートフォンは対応していなかったので試せていませんが、現バージョンでは顔の表面を撮影した短い動画から、安静時心拍数とストレスレベルを測定することができるそうです。今回論文発表された血圧測定についても、すべての人が使えるようになるには数年掛かるそうですが、テスト的に搭載されるのも近いかもしれません。

今でも個人が自宅で血圧測定することはできますが、専用の機械はそれなりの値段がしますし、毎日腕に巻いて計り記録をつけるのもたいへんです。既に高血圧と判定されて医者から気をつけるように言われた人ぐらいしか測定はしていないでしょう。

カメラで写すだけで測定できる今回の技術、すべての人種に対する判定の精度があがれば、パソコンのカメラや監視カメラも併せて常に人々の血圧が測定され、健康状態の変化がフィードバックされたり異常な状態が素早く検知されて医療的な対処が提案されたり、というSF的な未来も近づいているのかもしれませんね。

Anura

カテゴリ: Health & Fitness, Lifestyle
言語: 英語, 中国語
価格: 無料
バージョン: 2.0.4

開発者: Nuralogix
公開日: 2018-11-17
評価(全バージョン):
(48人のレビュー)
評価(現バージョン): 評価なし

スクリーンショット

screenshot 0screenshot 1screenshot 2screenshot 3screenshot 4screenshot 5

via Quartz

Speech2Face – 声からあなたの顔つきを当てる研究

声から、喋っている人がどんな顔なのかを推定する、という研究です。

上に並んでいるのが、短文の音声メッセージの話者です。これ左端はダニエル・クレイグ氏(007)ですよね。他はわかりませんが。

サイトで再生ボタンを押すと、推定に使われた音声データが聴けます。10秒も無いぐらいの短い文章です。

そして、下に並んでいるのが、その音声から深層ニューラルネットワークを利用して推定した話者の顔。

学習データとしては、インターネット/YouTube 上の数百万の人が喋っている動画を使ったそうです。「こんな風貌の人は、こんな風に話す」というデータを大量に食わせることで、「こんな風に話す人は、こんな見た目なことが多い」という変換を得たということですね。

推測結果には性別・ジェンダー・人種など繊細な問題が絡むことから、倫理的な注意書きが添えられています。学習データは全人類の平均的な喋り方を集めたのではなく、YouTube などから動画を集めたことから、データには当然バイアスがあります、と。YouTube に出ているような人の喋り方、に偏っているかもしれないし、喋っている言語のサンプルが少なかったりする言語の場合も偏りがあるかもしれない、などなど。

また、話者本人を特定したり、話者のファッション(髪の色やメガネ等)を特定したりは当然できません。(メガネをかけた人特有の話し方、とかない限り)

アプリやブラウザに対して喋ると顔写真を出してくれたり、というお遊びサービスは面白そうですが、その先にどのような実用的な応用がありうるのか。何か面白いことができそうな研究ではありますね。

via Futurism

ペンや筆の動きを推測してコピーできるロボットの研究

ブラウン大学のコタニ・アツノブさんらの研究 Teaching Robots To Draw(ロボットに描き方を教える)は、手書きの文字や絵画をロボットに真似させるというものです。

漢字を含め、ギリシャ語、タミル語、ヒンディー語など様々な文字について、文字のフォントや書き順情報を知っているわけでもなく、書いている途中の様子を見るでもなく、書かれた結果から書き順を推測して、同じような結果になるように書くのだそうです。

動画のデモを見ると、書き順は必ずしも人間が書いたオリジナル通りでもなく、しかし書き終わった結果はオリジナルと似ている、という感じですね。

今の結果としては、単純なコピーや写真の方が複製として優秀なのでしょうけれど、書き順を再現できるということは将来的に契約のサインを真似たり、タッチを含めた名画の複製ができたりする可能性がありますね。まるっきりの複製ではなく筆致が似てるということから、亡くなった書家や画家の新作(風)、みたいな作品もそのうち生まれ得るのかもしれません。

via Tech Explorist

超伝導ダンス – あなたの研究を踊ってみてコンテスト優勝作品

第11回 あなたの博士課程を踊ろう! コンテストの最優秀賞というのが公開されています。

こちら、超伝導理論を研究するカナダ・アルバータ大学のプラモド・ヤパ氏(Pramodh Yapa
)とその仲間たちが6週間掛けて製作したという、超伝導理論を説明するミュージカルダンス

一人一人のダンサーを電子に見立てて踊っています。超伝導状態で二つの電子がクーパー対を形成するというところが、二人組でのダンスに。

説明を聴いても言ってることは難しいですが…

第11回、ということで11年やってるコンテストだそうですが、今年はなんと50個もの応募があったそうです。

最優秀賞の他に、3つの優秀賞も選出されています。

生物学部門から、「脳の意識」

化学部門から、「浸透理論 – 導電プラスティック」

社会学部門から、「物理学を学ぶためのドアとしてのムーブメント」

大学院の専門となると一般の人に話してもなかなか理解されないことも多いと思いますが、自分の研究を紹介してみよう、という気にさせるコンテスト、面白いですね。

via Science Magazine via Winning Science's annual 'Dance Your Ph.D.' contest, physicist depicts electrons swinging on superconducting wires | EurekAlert! Science News

目が見えなくてもレーシングゲームができるようにする研究

コロンビア大学博士課程のブライアン・A・スミスさんが開発しているRacing Audio Display(RAD)は、音の情報だけでビデオゲームを遊べるようにするためのユーザ・インタフェースです。

コースに対する車の角度によって変わる音と、次にどちら向きのどんなカーブが来るかという音声情報の2種類によって、コースをはみでたりせずにコーナーをうまく回ることができるということです。このシステムにょって、目が見えているプレイヤーとそれほど違わない速度を出せ、よく練習した人ならタイムを上回る場合もあるということ。

研究紹介の動画では、画面を横にして隠しても、まったく影響なくレースを続けることができています。

ヘッドフォンから聴こえている情報、をこの動画で体験できるわけではないのですが、実際にどう聴こえるのかも知りたいですね。

研究の今後では、レーシングゲーム部分にライバル車を登場させた上でゲームができるようにしたり、アドベンチャーゲーム、ロールプレイングゲーム、ファーストパーソンシューティングゲームなど他のジャンルにも同様の仕組みを組み込んだりすることだそうです。

via GamesBeat

bikesphere – 自転車の周りに光の結界を張るミシュランの研究

ゴムタイヤとグルメガイドで有名なミシュランのスペイン支社が公開してるBikesphereは、自転車のライトを「より賢く」改良するもの。

動画を見ると、自転車を中心とするような大きな円を、道路上に投映するものだというのがわかります。見た目も普通の自転車ライトの大きさなので、さすがに光量はそれなりで、ぼんやりとした円でしかないのですが。

そしてこのライト、車の接近を感知すると動作を変えます。車が近くに来たな、と検知すると、路上へ投映する光が強く大きくなるようです。この動作切り替えによって、危険のなさそうな時はバッテリーを節約し、必要な時のために持たせることができるのでしょう。

小さくて電池の消費も少なく、安価なセンサがでてきたからこそ実現しそうなデバイスですね。

「運転席のコスプレ」で運転する謎のバン。無人運転車への人々の反応を見てる?

バージニア州アーリントンで先週、街中を普通に走る”無人運転車”が、テレビ局関係者によって発見されました。まだテストコースでの実験段階のはずの無人車が一般道を走っているなんて、と追跡した記者が目にしたのは、本物そっくりの座席を着た、人間椅子のコスプレイヤー。上半身が座席で、下半身は半ズボンという半席半人の怪人です。

ツイッターでそのファーストコンタクト動画が流れています。

「あなたは誰?」「何をしてるのか?」「ニュース局です」「ちょっとお話聞かせてもらえますか?」などと話しかけているのは、NBCテレビ・ワシントン支局のスタッフ。座席男は一言も発せず走り去ったということ。

上記ツイッター動画がネットで大きく広まった後の今週、NBCテレビは続報で一応の謎解きを出しています。

NBCは、ネットを含め各所に問い合わせをしていたようですが、そんな中でバージニア工科大の中の人から電話で情報提供が有ったということ。

その電話によれば、コスプレ運転席男の活動は、バージニア工科大が行う自動車に関する研究の一環で、「実世界の反応を見るために行っている」ということ。研究の詳細は明かされず、大学としては「市の担当局には届け出ている」と語ったそう。州の運輸局はこの実験を知らず、地元警察は「驚いた」と回答したそうです。

個人でこういうイタズラをする人は居て、YouTube に動画も上がってたりするのですが、大学が研究でやってるんですね。これから自動運転車が普及したら、街は有人運転と無人運転が混在する時代になるわけで、そのあたりを見越して何か調べたいと思っているのかもしれません。

via Ars Technica

降りた時のパワーを登るときに返してくれる階段

ジョージア工科大学エモリー大学の共同研究として発表された、Assistive Stair(支援階段)は、降りた時に発生したエネルギーを貯めておき、登る時にはそれを使って楽に踏み上がることができるという階段です。

階段を降りる時には、踏み込んだ板が下へゆっくり沈んでいき、その力がバネに貯められます。階段を上る時は、そのバネの力が解放されて足と一緒に上に戻ろうとします。

下りの時に足首で自分を支えようとする力の26%を保存し、登りの時には普通の階段を上るための膝の力を37%軽減する、とあります。元気な人にとっては階段を上がるのなんて日常の動作ですけれど、足腰が弱った人にとって6割程度の力で階段を登れるというのは大きな違いでしょうね。

足を乗せたことを検知する圧力センサーが板の上に置かれているので、力学的な仕組みだけで完結してるわけではなさそうですが、既存の階段をそのまま使ってその上に設置できるのが、補助リフトなどと違うところだそうです。また、一旦つけた装置を外すのも簡単なので、妊婦とか怪我人とかの期間限定で補助が必要な人のためにも便利とのこと。

研究者の一人、カレン・リウさんが、平地を歩くのは問題ないけど階段の上りが大変、でもそのために特殊な靴を履いたりはしたくない、という72歳の母親のために作ろうと思い立ったそうです。

まだ動画の2段を作成しただけですが、今後協力してくれる企業を探しているそう。一回降りると板が沈んだ状態になってしまうので、家に二人以上いる場合にどうするか、なども解決すべき課題です。改良と大量生産が行われ安価に入手設置できるようになれば、階段の上り下りに困っている世界中の人たちの助けとなるかもしれませんね。

via New Atlas

WaitChatter チャットの待ち時間に外国語の単語を覚えさせるMITの研究

WaitChatter は、ネットのメッセージサービスで相手の返答が無いなどの待ち時間を活用して、英単語などを覚えようという実験と、そのツールです。

チャット画面で、[Alt]+J を押すか下の部分をクリックすると、

英語-スペイン語の単語の組が示されます。(スペイン語はデフォルトがそうだったので。フランス語に切り替えることもできます)

その単語を「知ってたか」「知らなかったか」尋ねられるので、どちらか答えます。いくつかの閲覧が終わると、こんどはクイズのモードになり、

スペイン語に対する英語、または英語に対するスペイン語、を答えさせられます。「知らなかった」と答えた単語に関して何度か正しい回答をすると、

「この単語を覚えました」というメッセージがでます。

Chrome拡張のボタンを押すと、上のようにこれまでの学習の経過を見ることができます。

Chrome拡張機能は、Googleトーク 内でWaitChatter を動かすようになっていて、Gmail 内のチャットが Google Hangout に切り替わってる人は、Googleトークに戻さないと試すことができません。

切り替えても、こんなメッセージが出てきてしまうのですけれど。

GoogleトークにChrome拡張という組み合わせ、メジャーでもないしもうすぐ使えなくなってしまうようですが、実験としては組み込み安かったチャットサービスなのでしょうね。今は、メッセージの送信時にサードパーティーのソフトウェアに入出力を扱わせてくれるメッセージサービスもあまりないかもしれませんが、研究の結果学習の効果がある、ということになれば、相手の返信を待つ間に細切れに学習や仕事をする、みたいなのが普及したりするのかもしれません。

MITのデモ動画では、WiFiの接続待ちやアプリのデータ読み込み待ち、メールの(自動応答で返事が来ることがわかっている時とかの)返事待ち、に、単語クイズを1問2問できる、ような例を出しています。

待ち時間のあるツールやアプリで何といっても有効なのは広告でしょうけど、広告を見せる代わりに勉強させるような機能をつけることで、既存のツールがちょっと違う差別化できるという場合もでるのかも。

Facedate – 「好みのタイプ」の顔写真を何枚か与えると似てるメンバーを紹介するデートアプリ

ニュージャージー工科大学(NJIT)のコンピューター科学部長にして教授の指導のもとに大学院生たちが開発したという新たなデートアプリ Facedate は、顔認識と類似画像判定を組み合わせた新しい特徴を持っています。

まず自分の写真をアップロード。

そして、自分の好みの顔写真をいくつかアップロードします。俳優とかアイドルとかの写真を持ってくるんでしょうかね。

すると、登録された相手の中から、アップロードした写真に似た、つまり自分の好みに似ている人を探して紹介してくれる、という仕組み。(あと、実際に会えないと意味が無いので近所から探すようにもなっているそうです。念のため)

「多くの既存のサービスは、文章で好みを記述していましたが、顔の好みについてはうまく扱えていませんでした」とは教授のお言葉。

「芸能人で言うと誰それに似てると言われます」みたいな文章よりは、公平な判定が下されたりするのかもしれません。

このFacedate、Androidでのプロトタイプ版をクロースド運用中ということ。その後は大学での運用、そしてAndroid/iOS版の公開を検討中と。

via 論文 via The Verge