NERFチーム

現在NERFチームのメンバー募集は行っておりません。

logo_nerf

NERFとは「New Environment Research for Future」の頭文字を取ったものであり、これから来る「未来」における人とコンピュータの関わり方を見据えたシステムの実現を目指して研究を行っています。現在は、実世界指向インターフェース、拡張現実(AR)、ジェスチャ認識、ライフログ、モバイルインタラクション等の研究を行っています。

team_nerf


研究テーマ例

 

実世界指向インターフェース
  • 複数のウェアラブルでバイス装着時における相互連携操作手法の提案 (M2 木下)

本研究では、複数の身に付けられるデバイス(ウェアラブルでバイス)を組み合わせる入力手法を提案します。ウェアラブルデバイスでは、それぞれが小さく限られた入力しか行うことが出来ませんが、複数組み合わせる事で様々な新しい入力が可能になると考えられます。プロトタイプでは、眼鏡型と時計型の2つのデバイスを組み合わせます。

  • ユビキタスな紙データ利用補助システム (B4 山路)

アナログとデジタルをいかに結びつけユーザが使いやすいシステムを構築することは現代の研究課題の1つです。本研究では、我々が普段自然に行うであろう論文、書籍等の紙データへの書き込みといった「アナログ」な操作をトリガーに、情報のクラス化やデジタルデータの重畳表示といった「デジタル」処理を施し、ユビキタスかつアナログとデジタルがよりシームレスなシステムを構築します。

  • 紙ベースの命令オブジェクトを用いた、タンジブルなプログラミング環境の提案 (B4 夛田)

タンジブルなオブジェクトを使った、プログラミング書学者向けの学習環境を開発しています。具体的には、紙ベースの命令オブジェクトを実際に机やホワイトボードに配置することで命令を組み合わせ、簡単なプログラムを組むことが出来るような環境を作っています。逐次実行や条件分岐、繰り返しといった基本的な構文から、実世界でのタッチイベントやオブジェクト間の距離を命令の一部として扱えるといったようなタンジブルなインターフェースを用いるならではの構文を組み合わせる事が出来ます。また、実行部分のハイライトや実在するプログラミング言語への変換等、初学者への理解を助ける機能も搭載されています。

ジェスチャ認識
  • Two-Handed Interactive Menu: An Application of Asymmetric Bimanual Gestures and Depth Based Selection Techniques (D2 Hani)

We propose a Two Handed Interactive Menu that is split into two parts, one for each hand. We also intorduced the 3 fingers clicking gesture.

拡張現実 (AR)
  • ARによる集団適切化広告表示 (M1 菅野)

インターネット広告は行動履歴等を用いて効果的かつ、効果を目視しやすい広告と言われております。このような利点を持った広告を実世界でも行う事が出来ないかと考え、HMDが一般的に普及した環境であれば、ARを用いて実現できると考えつきました。本研究では、その実現へ向けたプロトタイプを作成し、試験を行うことで、ARによる最適化広告が生活者に対してどれほどの広告効果を生むのかを検証するものであります。

  • 購入した際に付加されるポイントの可視化 (M1 濱)

近年、購入した金額に応じてポイントを付与する店舗が増えています。しかし、ポイントはレシートやアプリ等でしか確認する方法はがなく、また、数値で表現されるため貯まった実感が少ない事が問題点として挙げられます。本研究は、ARを用いて、ポイントが貯まって行く満足感や得られたゲット感を表現しています。

  • 拡張現実感を用いた新たなプレゼンテーション手法 (B4 早川)

現在のプレゼンテーション手法では、描画範囲に制限があったり、複雑な3次元構造の表現等に限界があります。本研究では、拡張現実感を用いた新たなプレゼンテーション手法によりその問題を解決します。

ライフログ
  • 公共・他人のカメラを用いて撮影された写真からライフログを構築するシステム (M2 閑野)

スマートフォンの普及により、写真撮影は手軽なものとなりました。しかし、自身の移っている写真を集約することが困難であり今後の課題となっています。本研究では、誰のカメラを用いるかに依らず撮影時に各ユーザを識別することでより写っているユーザの情報をメタデータとして付加し、その写真からライフログを構築します。

  • 複数ライフログデータの統合及びそれによる日常生活の分析 (M2 平馬)

現在あるライフログサービスの「記録」と「利活用」は単一のサービス内に閉じた形で行われているものが多い。本研究では、ライフログデータ同士を統合するアプリケーションの作成、及び統合されたライフログデータを用いた日常生活の分析を行う。異種ライフログデータの分析の負担軽減と、新たな発見を可能にする。

  • 複数のライフログを用いたライフログ写真の制御 (B4 今井)

近年ウェアラブルでバイスの普及によりあらゆるライフログが取得できるようになりました。本研究では、ウェアラブルカメラにより撮られた膨大な写真をGPシャ心拍数等の他のライフログを用いることで制御して、ユーザの印象に残っている場面の写真や、思い出となっている写真等の重要な写真を推定し提供します。

モバイルインタラクション

  • “ながらスマートフォン”抑止システムの開発 (M1 根岸)

スマートフォンを持つ人が増える中で、歩きながらのスマートフォン利用により事故に至ってしまうこごたあり問題となっています。本研究ではスマートフォンの加速度センサーから利用者の”ながらスマートフォン”を検出し、時間経過と共にだんだんディスプレイが暗くなりつつ警告を表示するというシステムを開発しました。

その他
  • ファイルの内容表示と操作を可能にするインターフェース (M2 謝)

ファイルの内容を表示し、更に簡単なファイル操作をワンクリックで行うインターフェースを研究しています。ユーザがファイルのアイコンにカウスカーソルを合わせると、その近くにファイルの内容が表示されます。内容を表示する画面では、ファイルのPDFを作り、全画面でファイルを見る、といった操作をワンクリックで行う事が出来ます。

  • 遠隔コミュニケーションにおける感情共有のためのプロジェクションを用いた表現拡張 (M2 酒井)

本研究では、遠隔CMCにおける感情表現にプロジェクションを用いることで表現の拡張を目指します。具体的には、テキストチャットを行いながら自分の感情と複数の感情の割合を選択させるシステムを用いてその結果を基に双方の机の上に炎や二次といったオブジェクトのプロダクションを行います。