JP6044079B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP6044079B2
JP6044079B2 JP2012022707A JP2012022707A JP6044079B2 JP 6044079 B2 JP6044079 B2 JP 6044079B2 JP 2012022707 A JP2012022707 A JP 2012022707A JP 2012022707 A JP2012022707 A JP 2012022707A JP 6044079 B2 JP6044079 B2 JP 6044079B2
Authority
JP
Japan
Prior art keywords
predetermined
command
information processing
unit
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012022707A
Other languages
English (en)
Other versions
JP2013161267A (ja
JP2013161267A5 (ja
Inventor
堅一郎 多井
堅一郎 多井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012022707A priority Critical patent/JP6044079B2/ja
Priority to US14/356,306 priority patent/US10401948B2/en
Priority to PCT/JP2013/000459 priority patent/WO2013118457A1/en
Priority to CN201380007190.3A priority patent/CN104081319B/zh
Priority to EP13708916.5A priority patent/EP2812776B1/en
Publication of JP2013161267A publication Critical patent/JP2013161267A/ja
Publication of JP2013161267A5 publication Critical patent/JP2013161267A5/ja
Application granted granted Critical
Publication of JP6044079B2 publication Critical patent/JP6044079B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
撮像装置で撮像した画像に、その画像やその画像に含まれる被写体に関連した情報などを、重畳して表示することにより、実世界を拡張するAR(Augmented Reality;拡張現実)に関する技術が、近年多数開示されている。
例えば、下記の特許文献1には、画像を撮像した位置及び方位に対応したタグを、画像に付与する技術が開示されている。また、下記の特許文献2には、複合現実感(MR:Mixed Reality)技術を利用して表示画面外の空間領域を有効活用することが可能なユーザインターフェースに関する技術が開示されている。
特開2011−244058号公報 特開2011−28309号公報
しかし、上記の文献には、ユーザが、実世界に存在する実オブジェクトを利用して、仮想情報や仮想オブジェクトを直接操作する方法については開示されていない。そこで、本技術は、上記のような事情を受けて考案されたものであり、実世界に存在する実オブジェクトを利用して、仮想情報や仮想オブジェクトを直接操作することが可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提供することを意図している。
本開示によれば、ユーザが視認している第1のオブジェクトと、当該ユーザが位置を移動可能な第2のオブジェクトと、が所定の位置関係を成す場合に、前記第2のオブジェクトに対応付けられた所定のコマンドを発行するコマンド発行部と、前記所定のコマンドに関する仮想オブジェクトを前記第1又は第2のオブジェクトに重畳表示させる表示制御部と、を備える、情報処理装置が提供される。
また、本開示によれば、ユーザが視認している第1のオブジェクトと、当該ユーザが位置を移動可能な第2のオブジェクトと、が所定の位置関係を成す場合に、前記第2のオブジェクトに対応付けられた所定のコマンドを発行するステップと、前記所定のコマンドに関する仮想オブジェクトを前記第1又は第2のオブジェクトに重畳表示させるステップと、を含む、情報処理方法が提供される。
また、本開示によれば、コンピュータに、ユーザが視認している第1のオブジェクトと、当該ユーザが位置を移動可能な第2のオブジェクトと、が所定の位置関係を成す場合に、前記第2のオブジェクトに対応付けられた所定のコマンドを発行するコマンド発行機能と、前記所定のコマンドに関する仮想オブジェクトを前記第1又は第2のオブジェクトに重畳表示させる表示制御機能と、を実現させるためのプログラムが提供される。
以上説明したように本開示によれば、実世界に存在する実オブジェクトを利用して、仮想情報や仮想オブジェクトを直接操作することが可能になる。
MRを利用しない場合のユーザインターフェースを用いた操作方法について説明するための説明図である。 AR仮想デスクトップアプリケーションにおけるユーザインターフェースを用いた操作方法について説明するための説明図である。 AR仮想デスクトップアプリケーションを利用するために用いるデバイスの構成例について説明するための説明図である。 AR仮想デスクトップアプリケーションを利用するために用いるデバイスの構成例について説明するための説明図である。 実オブジェクトの認識方法について説明するための説明図である。 第1の実施形態に係る情報処理装置の機能構成について説明するための説明図である。 同実施形態に係るコマンド発行処理の流れの一例を示す流れ図である。 実オブジェクトと仮想オブジェクトとの位置関係に応じたコマンド発行処理について説明するための説明図である。 複数の実オブジェクト同士の位置関係に応じたコマンド発行処理について説明するための説明図である。 実オブジェクトと表示オブジェクトとの位置関係に応じたコマンド発行処理について説明するための説明図である。 複数の楽曲から所望の楽曲を選択する方法について説明するための説明図である。 複数の仮想オブジェクトの表示例について説明するための説明図である。 複数の仮想オブジェクトを利用した操作方法について説明するための説明図である。 同実施形態に係る技術の応用例について説明するための説明図である。 同実施形態に係る技術の応用例について説明するための説明図である。 同実施形態に係る技術の応用例について説明するための説明図である。 同実施形態に係る技術の応用例について説明するための説明図である。 第2の実施形態に係る情報処理装置の機能構成について説明するための説明図である。 同実施形態に係るコマンド発行処理の流れの一例を示す流れ図である。 ジャスチャーを利用した選択画面切替方法について説明するための説明図である。 ジャスチャーを利用した実行操作方法について説明するための説明図である。 本開示に係る情報処理装置の機能を実現可能なハードウェア構成について説明するための説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1:はじめに
1−1:AR仮想デスクトップアプリケーションについて
1−2:物体認識技術について
2:第1実施例(オブジェクト間の位置関係を利用したユーザインターフェース)
2−1:システム構成例
2−2:情報処理装置100の構成
2−3:情報処理装置100の動作
2−4:操作方法について
2−5:応用例
3:第2実施例(ジェスチャーを考慮した操作インターフェース)
3−1:システム構成例
3−2:情報処理装置100の構成
3−3:情報処理装置100の動作
3−4:操作方法について
4:ハードウェア構成例
5:まとめ
<1:はじめに>
はじめに、本実施形態に関連する技術について紹介する。
[1−1:AR仮想デスクトップアプリケーションについて]
まず、本実施形態に関連する技術の一例として、AR仮想デスクトップアプリケーションについて紹介する。この技術は、複合現実感(MR:Mixed Reality)技術を利用して表示画面外の空間領域を有効活用することが可能なユーザインターフェースに関する。以下、図1〜図4を参照しながら、当該技術について簡単に説明する。
図1は、通常(MRを利用しない場合)のユーザインターフェースを用いた操作方法について説明するための説明図である。一方、図2は、AR仮想デスクトップアプリケーション(MRを利用する場合)におけるユーザインターフェースを用いた操作方法について説明するための説明図である。また、図3は、AR仮想デスクトップアプリケーションを利用するために用いるデバイスの構成例について説明するための説明図である。
MRを利用しない通常のユーザインターフェースの場合、図1に示すように、ユーザはマウスを操作することで、ディスプレイ装置DSPの表示画面内に表示された表示マウスカーソルD_CURを、当該表示画面内で移動させることが可能である。
ユーザは、マウスを移動させることにより、表示マウスカーソルD_CURを、ディスプレイ装置DSPの表示画面内に表示された表示オブジェクトD_OBJ上に移動させる。その後、ユーザは、所定のマウス操作を行うことにより表示オブジェクトD_OBJを指定し、マウスを移動させることにより、指定したオブジェクトをディスプレイ装置DSPの表示画面内で移動させることが可能である。
しかし、表示マウスカーソルD_CURや表示オブジェクトD_OBJがディスプレイ装置DSP表示画面の端部に位置する状態で、表示マウスカーソルD_CURを更に外側に移動させる向きにユーザが更にマウスを移動させても、表示マウスカーソルD_CURを表示画面外に移動させることはできない。
一方、MRを利用するAR仮想デスクトップアプリケーションにおけるユーザインターフェースの場合、図2に示すように、ディスプレイ装置DSPの表示画面外については、仮想マウスカーソルV_CUR及び仮想オブジェクトV_OBJが表示される。
なお、本稿において仮想オブジェクトとは、MR技術に基づいてユーザが装着したHMD(Head Mounted Display)などに表示され、ユーザが視認可能なオブジェクトである。但し、仮想オブジェクトは、撮像装置で撮像されない。これに対し、実空間に存在する実オブジェクトや、ディスプレイ装置DSPに表示される表示オブジェクトは、撮像装置で撮像可能である。
また、ディスプレイ装置DSPの表示画面内については、通常のユーザインターフェースの場合と同様に、マウスカーソルD_CUR及び表示オブジェクトD_OBJが表示される。表示マウスカーソルD_CUR及び表示オブジェクトD_OBJの表示と、仮想マウスカーソルV_CUR及び仮想オブジェクトV_OBJの表示とは連続性を持っており、図2に示すように、ディスプレイ装置DSP外に表示マウスカーソルD_CUR及び表示オブジェクトD_OBJを移動させると、ディスプレイ装置DSP外において仮想マウスカーソルV_CUR及び仮想オブジェクトV_OBJが表示される。
上記のように、AR仮想デスクトップアプリケーションにおけるユーザインターフェースの場合、ディスプレイ装置DSP外の空間領域も利用できるため、利便性が高い。
MR技術を利用した上記のようなAR仮想デスクトップアプリケーションは、例えば、図3に示すようなデバイスの構成により実現される。図3に示すように、ユーザUは、カメラCA及びヘッドマウントディスプレイHMDを利用する。なお、これらと同等の機能を搭載したデバイスを利用してもよい。例えば、カメラ付き携帯電話やスマートフォンなどのデバイスは、撮像機能と表示機能とを併せ持っているため、これを代わりに利用することも可能である。但し、以下では説明の都合上、カメラCA及びヘッドマウントディスプレイHMDを組み合わせた構成を例に挙げて説明を進めることにする。
ヘッドマウントディスプレイHMDは、カメラCAが捉えた被写体の画像を表示するとともに、仮想マウスカーソルV_CURや仮想オブジェクトV_OBJを当該被写体の画像に重畳表示する。図3の例では、仮想オブジェクトV_OBJとして仮想アプリケーションウインドウをヘッドマウントディスプレイHMDに表示している。カメラCAは、例えば、ユーザの視線方向に合わせた向きでヘッドマウントディスプレイHMDに設けられる。
AR仮想デスクトップアプリケーションでは、ユーザUが操作する実オブジェクト(マウスカーソルなど)の位置は、撮像画像に重畳表示する仮想オブジェクトV_OBJの位置を決定するために用いられる。そのため、ユーザは、マウスカーソルなどを利用したユーザインターフェースの操作手順を予め習得する必要がある。当然のことながら、ユーザは、何らかの操作を行う場合、マウスカーソルなどを動かす必要がある。
例えば、音楽コンテンツを再生する場合、ユーザは、音楽コンテンツのデータファイルが格納されたフォルダを探し出し、所望の音楽コンテンツをマウスカーソルで選択して再生操作を行う必要がある。この場合、ユーザはコンテンツファイルなどの仮想情報がある場所を予め把握しておく必要がある。これでは、せっかく仮想空間を利用できる環境があるにもかかわらず、結局はデスクトップを拡張しただけに過ぎないことになる。つまり、MR技術を十分に生かし切れていない。
そこで、本発明者は、MR技術を有効に活かすべく、マウスなどの操作デバイスとは異なる物品を操作に利用して直感的なユーザインターフェースを実現するアイデアを創出した。具体的には、図4に示すように、音楽コンテンツを再生する際、音楽コンテンツのデータファイルを選択するようなことはせず、再生しようとするコンパクトディスク(CD)の現物を操作体として利用し、当該CDに対応する音楽コンテンツを再生できるようにする仕組みを考えた。もちろん、音楽コンテンツに限らず、映像コンテンツやブックリーダなどにも応用可能である。
上記のようなアイデアを具体的に実施するには、CDの現物など、物品の位置、動き、種類、属性などを認識する技術(以下、物体認識技術)が必要になる。そこで、本実施形態に係る技術について詳細に説明するに先立ち、物体認識技術についても紹介する。なお、以下の説明において、CDの現物などの物品も実オブジェクトと表現する。
[1−2:物体認識技術について]
物体認識は、図5に示すように、ユーザの装着したカメラCAの撮像画像に基づき、撮像画像に含まれる実オブジェクトの位置、姿勢、形状、種類などを物体認識装置により認識することで行われる。また、物体認識装置で用いられる物体認識技術としては、例えば、“Speeded−Up Robust Features(SURF)”などの技術が知られている。
SURFは、撮影画像に含まれる様々な実オブジェクトから特徴点を選択し、選択した特徴点の位置とカメラの位置や姿勢とを併せて検出する技術である。なお、SURFの基本的な処理については、“H.Bay, A. Ess, T. Tuytelaars and L.V.Gool, “Speeded−Up Robust Features(SURF)”, Computer Vision−ECCV(2006).”などに記載がある。
SURFその他の技術を適用すると、実オブジェクトの形状、姿勢、位置、種類などを認識することが可能になる。例えば、図5に示すように、ユーザが手にCDケースを持っており、そのCDケースがカメラの撮像範囲に入っている場合、カメラにより撮像された撮像画像から、上記の物体認識技術を用いてCDケースの形状などを認識することが可能になる。そして、その認識結果を利用することで、実世界の物体(この場合はCDケース)と実オブジェクト又は仮想オブジェクトとの位置関係を検知することが可能になる。
以上、本実施形態に関連する技術について紹介した。ここでは、説明の都合上、HMDとカメラとを有する頭部装着型デバイスの形態を例に挙げて説明したが、本実施形態に係る技術の適用範囲は、これに限定されない。
<2:第1実施例(オブジェクト間の位置関係を利用したユーザインターフェース)>
本技術の第1実施例について説明する。同実施例は、オブジェクト間の位置関係を利用したユーザインターフェースの構成に関する。特に、CDケースのような実オブジェクトを利用した直感的なユーザインターフェースを実現するための仕組みに関する。
[2−1:システム構成例]
まず、第1実施例に係る技術を実現可能なシステムの構成例について説明する。当該システムは、例えば、撮像部101、情報処理装置100、表示部104、出力制御装置200、及び出力装置210により構成される。但し、情報処理装置100が撮像部101及び表示部104と一体に形成されていてもよい。また、出力装置210は、音声を出力する音声出力装置であってもよいし、画像を表示する表示装置であってもよい。また、情報処理装置100が有する一部又は全部の機能は、クラウドコンピューティングシステムにより実現されてもよい。以下、情報処理装置100の構成を中心に説明する。
[2−2:情報処理装置100の構成(図6)]
図6を参照しながら、第1実施例に係る情報処理装置100の構成について説明する。図6は、情報処理装置100の機能構成について説明するための説明図である。図6に示すように、情報処理装置100は、撮像部101と、三次元情報解析部102と、仮想オブジェクト管理部103と、表示部104と、位置関係解析部105と、コマンド発行部106と、通信部107とを主に備える。
撮像部101は、実オブジェクトから入射した光を集光するレンズや、受光した光量に応じた電気信号を生成する撮像素子などを含み、実オブジェクトの像を撮像する。撮像部101は、例えば、ユーザが装着したHMDに設けられたカメラCAなどである。
なお、利用可能な撮像素子としては、例えば、CCDイメージセンサやCMOSイメージセンサなどがある。撮像部101は、実オブジェクトを撮像すると、撮像画像を三次元情報解析部102及び表示部104に出力する。
三次元情報解析部102は、撮像部101から入力された撮像画像に含まれる三次元情報を解析する。三次元情報解析部102は、位置・姿勢検出部121と、オブジェクト識別部122とを備える。
三次元情報解析部102の位置・姿勢検出部121は、入力された実オブジェクトの撮像画像を解析し、実オブジェクトの3次元空間内の位置及び姿勢を検出する。検出方法は、例えば、前述したSURFなどの技術を用いる。位置・姿勢検出部121は、検出した実オブジェクトの位置及び姿勢を、仮想オブジェクト管理部103に出力する。
また、三次元情報解析部102のオブジェクト識別部122は、入力された実オブジェクトの撮像画像を解析し、実オブジェクトのIDを識別する。
オブジェクト識別部122は、例えば、入力された実オブジェクトの撮像画像から一又は複数の特徴点の位置を検出する。更に、オブジェクト識別部122は、入力された実オブジェクトの特徴点の位置と、メモリなどの記憶部(不図示)に記憶された複数の実オブジェクトの特徴点の位置とのマッチングを行う。
上記の記憶部には、複数の実オブジェクトそれぞれについて、当該実オブジェクトのIDと、各特徴点の位置が記憶されている。オブジェクト識別部122は、記憶部に特徴点の位置が記憶された複数の実オブジェクトのうち、入力された実オブジェクトの特徴点との距離が最も短い特徴点を有する実オブジェクトのIDを、入力された実オブジェクトのIDとする。特徴点は、例えば、多角形の角や円形の周上に位置する点などである。オブジェクト識別部122は、識別した実オブジェクトのIDを、仮想オブジェクト管理部103に出力する。
仮想オブジェクト管理部103は、識別された実オブジェクトのID及び位置に基づいて、当該実オブジェクトに対応する仮想オブジェクトの取得及び当該仮想オブジェクトを重畳表示する位置の制御を行なう。また、仮想オブジェクト管理部103は、仮想オブジェクト取得部131と、重畳位置制御部132とを備える。
仮想オブジェクト取得部131は、識別された実オブジェクトのIDに対応する仮想オブジェクトの表示情報を、予めメモリなどの記憶部に記憶されたデータベースなどから取得する。例えば、入力された実オブジェクトがCDであると識別された場合、対応する仮想オブジェクトとして、音符の形状をしたアイコンがデータベースから取得される。仮想オブジェクト取得部131は、取得した仮想オブジェクトの表示情報を、表示部104及び位置関係解析部105に出力する。
また、重畳位置制御部132は、検知された実オブジェクトの位置・姿勢に基づいて、仮想オブジェクト取得部131により取得された仮想オブジェクトを重畳表示する位置を制御する。例えば、重畳位置制御部132は、検知された実オブジェクトであるCDの中心の位置を算出し、算出した位置に仮想オブジェクトを重畳表示させる。重畳位置制御部132は、仮想オブジェクトを重畳表示させる位置を、表示部104及び位置関係解析部105に出力する。
表示部104は、実オブジェクトを含む撮像画像に、仮想オブジェクト管理部103から入力された仮想オブジェクトを重畳して表示する。
ここで、撮像部101による実オブジェクトの撮像、三次元情報解析部102による撮像画像の三次元情報解析、仮想オブジェクト管理部103による仮想オブジェクトの取得及び位置制御はリアルタイム処理される。そのため、ユーザが実オブジェクトを移動させると、当該実オブジェクトに対応する仮想オブジェクトも当該実オブジェクトに追従するように移動することとなる。
位置関係解析部105は、撮像部101により撮像された撮像画像に含まれたある実オブジェクト(以下、実オブジェクトA)と、オブジェクトA以外の所定のオブジェクト(以下、オブジェクトB)との位置関係を解析する。例えば、オブジェクトAとして、CDを考える。また、オブジェクトBとして、CD再生用のアプリケーションウインドウを考える。
ここで、CD再生用のアプリケーションウインドウなどのオブジェクトBは、ディスプレイ装置(例えば、図4に例示したディスプレイ装置DSPなど)に表示された表示オブジェクトでもよく、HMDなどの表示部104に表示された仮想オブジェクトでもよい。但し、オブジェクトBの位置は、オブジェクトAの位置に追従しないものとする。
オブジェクトBがディスプレイ装置により表示されたアプリケーションウインドウなどの表示オブジェクトの場合、撮像部101により撮像された撮像画像には、実オブジェクトA及び表示オブジェクトBが含まれる。当該撮像画像は、三次元情報解析部102により解析され、実オブジェクトAの位置及び姿勢とともに、表示オブジェクトBの位置及び姿勢が検出される。位置関係解析部105は、三次元情報解析部102により解析された実オブジェクトA及び表示オブジェクトBの位置関係を解析する。
一方、オブジェクトBが仮想アプリケーションウインドウなどの仮想オブジェクトの場合、例えば、重畳位置制御部132は、撮像部101により撮像された実オブジェクトAの位置や姿勢によらず、オブジェクトBの位置や姿勢を制御する。また、重畳位置制御部132は、撮像部101により撮像された実オブジェクトAの初期位置及び姿勢に基づいて、オブジェクトBの位置や姿勢を制御してもよい。
オブジェクトBが仮想オブジェクトの場合、位置関係解析部105は、三次元情報解析部102により解析された実オブジェクトA及び仮想オブジェクト管理部103により制御された仮想オブジェクトBの位置関係を解析する。
位置関係解析部105は、実オブジェクトAとオブジェクトBとが接近するなどの所定の位置関係であるか否かについての信号を、コマンド発行部106に出力する。
より具体的には、位置関係解析部105は、実オブジェクトAとオブジェクトBとの三次元空間上の距離を算出し、算出した距離が所定の閾値以下である場合、実オブジェクトAとオブジェクトBが接近したと判定して、所定の電気信号をコマンド発行部106に出力する。また、実オブジェクトAとオブジェクトBとの距離を算出する際に、所定の方向の距離のみを考慮してもよい。
但し、実オブジェクトAとオブジェクトBとの三次元空間上の距離を算出する際、オブジェクトBが表示オブジェクトである場合、ディスプレイ装置の表示面を基準とした座標を、三次元空間座標に変換しておく必要がある。ディスプレイ装置の表示面を基準とした座標は、例えば、ディスプレイ装置の表示画面の一角を原点とするものである。また、当該角を形成する2辺の一方をx軸、他方をy軸としている。
コマンド発行部106は、実オブジェクトAとオブジェクトBとが所定の位置関係にあるという信号を位置関係解析部105から入力された場合、実オブジェクトAに関連する所定のコマンドを発行する。また、所定のコマンドは、実オブジェクトAに関連し、かつ、オブジェクトBにも関連するコマンドであってもよい。
例えば、実オブジェクトAがCDであり、当該CDをCD再生用のアプリケーションウインドウ(オブジェクトB)に接近させる場合、コマンド発行部106は、CD再生を行うためのコマンドを発行する。
ここで、情報処理装置100は、有線又は無線のネットワークを介して出力制御装置200と接続されている。発行されたコマンドは、通信部107を介して出力制御装置200に送信される。出力制御装置200は、受信したコマンドを実行して出力装置210を制御する。出力装置210は、音声再生装置や映像再生装置などである。
なお、出力制御装置200は、情報処理装置100の一部であってもよい。この場合、図6に示した情報処理装置100の構成から通信部107を削除した構成をとり、コマンド発行部106から出力制御装置200にコマンドが直接送信される。
以上、主に情報処理装置100の構成について説明した。
[2−3:情報処理装置100の動作(図7)]
次に、図7を参照しながら、第1実施例に係る情報処理装置100の動作について説明する。図7は、第1実施例に係る情報処理装置100の動作について説明するための流れ図である。
図7に示すように、情報処理装置100は、まず、撮像画像から実オブジェクトを検出する(S101)。このとき、情報処理装置100は、実オブジェクトの位置や姿勢などを検出する。次いで、情報処理装置100は、撮像画像から実オブジェクトの種類を認識する(S102)。次いで、情報処理装置100は、実オブジェクトの種類や位置などに応じて、仮想空間に表示すべき所定の仮想オブジェクトを取得する(S103)。例えば、実オブジェクトがCDケースの場合、情報処理装置100は、仮想オブジェクトとして、音楽プレーヤの画面や、音符を模したアイコンを取得する。
次いで、情報処理装置100は、ステップS103で取得した仮想オブジェクトを重畳表示させる(S104)。例えば、情報処理装置100は、音楽プレーヤの画面を仮想空間に表示させたり、CDケース上に音符を模したアイコンを重畳表示させたりする。次いで、情報処理装置100は、実オブジェクトの位置や姿勢に基づいて仮想オブジェクトの表示位置を制御する(S105)。例えば、ユーザがCDケースを音楽プレーヤの画面に近づけた場合、情報処理装置100は、CDケースに重畳表示させているアイコンをCDケースの動きに追従するように移動させる。
次いで、情報処理装置100は、実オブジェクトと所定のオブジェクト(例えば、音楽プレーヤの画面など;ウィンドウ)との位置関係を検出する(S106)。次いで、情報処理装置100は、ステップS106で検出された位置関係が所定の位置関係を成すか否かを判定する(S107)。例えば、情報処理装置100は、実オブジェクトと所定のオブジェクトとが接触するか否かを判定したり、或いは、実オブジェクトと所定のオブジェクトとの距離が所定の距離以下であるか否かを判定したりする。
実オブジェクトと所定のオブジェクトとが所定の位置関係を成す場合、情報処理装置100は、処理をステップS108に進める。一方、実オブジェクトと所定のオブジェクトとが所定の位置関係を成していない場合、情報処理装置100は、処理をステップS105に戻す。処理をステップS108に進めた場合、情報処理装置100は、実オブジェクトの種類や、所定のオブジェクトの種類、或いは、位置関係に応じて予め設定されたコマンドを発行し(S108)、コマンド発行処理に係る一連の処理を終了する。なお、各オブジェクトの具体例、コマンドの具体例、及び具体的な操作方法については後述する。
以上、第1実施例に係る情報処理装置100の動作について説明した。ここでは位置関係に基づくコマンドの発行に際して実行される基本的な処理の流れについて説明したが、必要に応じて一部の処理ステップを入れ替えたり、変形したりすることが可能である。また、ここで説明した基本的な処理の流れを応用して後述する各操作方法を実現可能なユーザインターフェースを構成することが可能である。
[2−4:操作方法について]
次に、図8〜図12を参照しながら、第1実施例に係る情報処理装置100の機能を用いて実現可能なユーザインターフェースの例及びその操作方法について説明する。
(実オブジェクトを仮想オブジェクト(ウィンドウ)に近づける操作(図8))
まず、図8を参照しながら、実オブジェクトを仮想オブジェクト(ウィンドウ)に近づける操作方法について説明する。図8は、実オブジェクトと仮想オブジェクトとの位置関係に応じたコマンド発行処理について説明するための説明図である。図8に示すように、カメラCAが設けられたHMDを装着したユーザは、実オブジェクトR_OBJとしてCDを所望の位置に移動させることが可能である。
また、ユーザが装着したHMDは、カメラCAが撮像した画像(図8に示す例ではディスプレイ装置が含まれている。)に重畳して、仮想オブジェクトV_OBJを表示する。図8に示す例では、仮想オブジェクトV_OBJとして、実オブジェクトR_OBJであるCDに対応したCD再生用のアプリケーションウインドウが表示されている。
ユーザは、HMDに表示された画面を見ることにより、実オブジェクトR_OBJと、仮想オブジェクトV_OBJの位置関係を認識することができる。
ユーザは、実オブジェクトR_OBJであるCDを移動させることにより、仮想オブジェクトV_OBJであるアプリケーションウインドウに接近させる。このとき、実オブジェクトR_OBJは、撮像部101により撮像され、三次元情報解析部102により位置が解析される。さらに、位置関係解析部105により、実オブジェクトR_OBJ及び仮想オブジェクトV_OBJが接近したことが検知され、所定の信号が出力される。
実オブジェクトR_OBJと仮想オブジェクトV_OBJが接近したことを示す信号が位置関係解析部105から出力されると、コマンド発行部106から所定のコマンドが発行される。
図8に示す例では、所定のコマンドとしてCDに含まれる楽曲の再生を行うためのコマンドが発行され、出力装置210であるスピーカから、CDに含まれる楽曲が再生される。
上記のように、ユーザは実オブジェクトR_OBJを直接操作することにより、HMDに表示された仮想オブジェクトV_OBJと実オブジェクトR_OBJとの位置関係を変化させるだけで、CDに含まれる楽曲を再生させることが可能である。そのため、ユーザは所定のコマンドを発行させるための複雑な操作方法を習得する必要がない。また、ユーザは、楽曲のデータファイルを探す必要もない。さらに、現物を利用して操作しているため、操作自体が非常に直感的である。
(実オブジェクトを実オブジェクトに近づける操作+アイコンの動作(図9))
次に、図9を参照しながら、実オブジェクトを実オブジェクト(図9の例ではCDプレーヤ)に近づける操作方法について説明する。図9は、実オブジェクトと実オブジェクトとの位置関係に応じたコマンド発行処理について説明するための説明図である。図9に示すように、カメラCAが設けられたHMDを装着したユーザは、実オブジェクトR_OBJ1としてCDを所望の位置に移動させることが可能である。
また、ユーザが装着したHMDは、カメラCAが撮像した画像(図9に示す例ではディスプレイ装置が含まれている。)に重畳して、仮想オブジェクトV_OBJを表示する。図9に示す例では、仮想オブジェクトV_OBJとして、実オブジェクトR_OBJ1であるCDに対応した音符のアイコンが表示されている。
ユーザは、HMDに表示された画面を見ることにより、実オブジェクトR_OBJ1と、仮想オブジェクトV_OBJの位置関係を認識することができる。
ユーザは、実オブジェクトR_OBJ1であるCDを移動させることにより、実オブジェクトR_OBJ2であるCDプレーヤに接近させる。このとき、実オブジェクトR_OBJ1であるCDは、撮像部101により撮像され、三次元情報解析部102により位置が解析される。さらに、位置関係解析部105により、実オブジェクトR_OBJ1であるCDが、R_OBJ2であるCDプレーヤに接近したことが検知され、所定の信号が出力される。
実オブジェクトR_OBJ1であるCDとR_OBJ2であるCDプレーヤとが接近したことを示す信号が位置関係解析部105から出力されると、コマンド発行部106から所定のコマンドが発行される。図9に示す例では、所定のコマンドとしてCDに含まれる楽曲の再生を行うためのコマンドが発行され、出力装置210であるスピーカから、CDに含まれる楽曲が再生される。
ところで、CDとCDプレーヤとが所定の位置関係になったときに突然楽曲が再生されるのでは、ユーザが不安や驚きを覚えてしまう。このように唐突な感じを与えてしまうユーザインターフェースは、面白みを提供する面もあるが、不快感を与えてしまう恐れも否定できない。そこで、図9に示すように、例えば、CDとCDプレーヤとが所定の位置関係になったときに、仮想オブジェクトV_OBJがCDからCDプレーヤへと飛ぶように構成する方法を提案する。また、飛び出した仮想オブジェクトV_OBJがCDプレーヤに到達したタイミングで楽曲が再生されるように構成する方法を提案する。このような方法を適用すると、視覚的にタイミングが認識できることで、ユーザの違和感が軽減され、より快適に操作できるユーザインターフェースが実現される。
上記のように、ユーザは実オブジェクトR_OBJを直接操作することにより、CDに含まれる楽曲を再生させることが可能になる。そのため、ユーザは所定のコマンドを発行させるための複雑な操作方法を習得する必要がない。また、ユーザは、楽曲のデータファイルを探す必要もない。さらに、現物を利用して操作しているため、操作自体が非常に直感的である。そして、仮想オブジェクトV_OBJを併用することで、ユーザが快適に操作できるユーザインターフェースが実現される。
(実オブジェクトを実オブジェクト(表示オブジェクト)に近づける操作(図10))
図8の例では、実オブジェクトR_OBJを仮想オブジェクトV_OBJに近づけて楽曲を再生するユーザインターフェースの例を挙げたが、図10に示すように、仮想オブジェクトV_OBJに代えて表示オブジェクトD_OBJを用いる構成も考えられる。この場合も、図8の例を参照しながら説明した処理の流れと実質的に同じ処理によって、オブジェクト間の位置関係に基づく楽曲の再生が実行される。なお、表示オブジェクトD_OBJは、カメラCAにより撮像される表示物であるから、実オブジェクトR_OBJの一例である。
(実オブジェクトを近づける操作でトラックを選択する方法(図11))
これまでは実オブジェクトR_OBJの一例であるCDを、対象となるオブジェクト(CDプレーヤやウィンドウなど)に近づけ、そのCDに対応する楽曲を再生するユーザインターフェースについて説明してきた。しかし、CDに含まれる個々のトラックを指定して楽曲の再生を実行したい場合もあるだろう。そこで、図11に示すように、複数のトラックの中から所望のトラックを1つ選択して再生できるようにするユーザインターフェースを提案する。
例えば、図11に示すように、複数のトラックを示すアイコンが表示されたウィンドウを表示しておき、ユーザが実オブジェクトR_OBJを近づけたトラックに対応する楽曲が再生されるようにする。なお、各トラックを示すアイコンと実オブジェクトR_OBJとの位置関係が考慮される点が異なるが、トラックが選択された後の処理は、図8などの例を参照しながら説明した処理の流れと実質的に同じである。このような仕組みを適用することで、所望のトラックを素早く直感的に選択して再生することが可能になる。なお、選択に際してユーザが特別な操作をしていないため、操作工程が図8に示した例から増加していない点に注意されたい。
(複数アイコン表示を利用したトラック選択方法(図12、図13))
図11の例では、ウィンドウに複数のトラックを示すアイコンを表示する方法を示した。しかし、仮想オブジェクトV_OBJを表示できる環境があることから、図12に示すように、実オブジェクトR_OBJであるCDの側に複数のトラックを示す仮想オブジェクトV_OBJを表示する方法も考えられる。例えば、CDケースの四隅に、トラック#1〜#4をそれぞれ示す仮想オブジェクトV_OBJを表示することが可能である。
この場合、図13に示すように、ユーザが所望のトラックを示す仮想オブジェクトV_OBJをウィンドウに近づける操作を行うことで、所望のトラックが再生される。なお、先に説明したように、仮想オブジェクトV_OBJは、実オブジェクトR_OBJの位置や姿勢に追従して表示させることが可能である。従って、図13のような構成において、CDケースをユーザが回転させた場合には仮想オブジェクトV_OBJがCDケースの四隅の動きに追従して表示されるようにすればよい。
このような構成を適用すると、ユーザは、実オブジェクトR_OBJの向きを調整してウィンドウに近づけることで、容易に所望のトラックを再生できるようになる。そのため、ユーザは、所望のトラックを素早く直感的に選択して再生することが可能になる。なお、図11の例と同様、選択に際してユーザが特別な操作をしていないため、操作工程が図8に示した例から増加していない点に注意されたい。
[2−5:応用例]
上記の説明においては、CDの楽曲を再生するためのユーザインターフェースを例に挙げて説明を進めてきたが、本実施形態に係る技術の適用範囲はこれに限定されない。例えば、以下に例示する操作形態及び当該操作形態から実施時点における技術常識を考慮して想到可能な変形例についても、当然に本実施形態に係る技術の適用範囲に含まれる。
(ブックリーダへの応用(図14))
図14は、書籍実施形態に係る技術の応用例について説明するための説明図である。以下では、図14を参照しながら、ブックリーダへの応用例について説明する。この場合、書籍に関連する所定のコマンドを発行させたいユーザは、実オブジェクトである書籍をブックリーダのアプリケーションウインドウに近づけるなど、書籍とアプリケーションウインドウとを所定の位置関係にする。
なお、ブックリーダのアプリケーションウインドウは、ディスプレイ装置に表示された表示オブジェクトであってもよく、HMDに表示される仮想オブジェクトであってもよい。
ユーザは、例えば、書籍の表紙をカメラCAが撮像できるような向きで保持する。この場合、オブジェクト識別部122は、予め表紙の画像又は画像から抽出した特徴点に関する情報が記録された複数の書籍についてのデータベースと、撮像された書籍の表紙の画像とをマッチングさせる。データベースに記録された書籍のうち、撮像された書籍と最も類似する書籍が撮像されたと識別する。
撮像された書籍とアプリケーションウインドウが所定の位置関係になると、位置関係解析部105が当該位置関係を検出し、コマンド発行部106が所定のコマンドを発行する。ブックリーダの場合、コマンド発行部106は、例えば、アプリケーションウインドウに接近した書籍の内容を音声で読み上げたり、テキストの画面表示を行ったりするためのコマンドを発行する。
また、コマンド発行部106は、アプリケーションウインドウに接近した書籍に関連するデジタルデータをサーバから取得するためのコマンドを発行してもよい。書籍に関連するデジタルデータは、例えば、当該書籍のテキストデータ、当該書籍の出版情報、同一著者の書籍リスト、当該書籍から推測された推薦書籍のリストなどである。
また、予め書籍の各部分に対応したページの画像をデータベースに記録しておき、ユーザが所望の部分に対応したページを開きながらアプリケーションウインドウに近づけるようにしてもよい。
例えば、予め書籍の各章の最初のページの画像をデータベースに記録しておき、書籍の読み上げを開始してほしい章の最初のページを開いた状態で、ユーザが書籍をアプリケーションウインドウに接近させると、当該章から読み上げが開始される。
以上、図16を参照しながら、本実施形態に係る技術の応用例について説明した。
(その他の応用例(図15〜図17))
以上では、主に操作対象となる実オブジェクト(以下、操作対象オブジェクト)がCDである場合について説明した。操作対象オブジェクトがCDである場合、制御対象コンテンツはCDに含まれる楽曲であり、出力先はAR音楽プレーヤであり、コマンド発行部106により発行されるコマンドはCDに含まれる楽曲を再生するためのコマンドである。
図15は、本実施形態に係る技術の応用例について説明するための説明図である。図15は、操作対象オブジェクトが上述したCD以外の場合について、操作対象オブジェクトと、制御対象コンテンツと、出力先と、コマンドとを対応付けて一覧にしたものである。
図15に示すように、ユーザが、DVDとメディアプレーヤが所定の位置関係になるようにDVDを操作すると、DVDに含まれる映像が再生される。
また、ユーザが、デジタルカメラとデジタルフォトフレームが所定の位置関係になるようにデジタルカメラを操作すると、デジタルカメラに含まれる写真が表示される。
また、ユーザが、書籍とスピーチプログラムが所定の位置関係になるように書籍を操作すると、書籍に含まれる文章が朗読される。
また、ユーザが、書籍とテキストエディタが所定の位置関係になるように書籍を操作すると、書籍に含まれる文章がテキストエディタにコピーアンドペーストされる。
また、ユーザが、書籍と画像編集ソフトが所定の位置関係になるように書籍を操作すると、書籍に含まれる写真が画像編集ソフトにコピーアンドペーストされる。
また、ユーザが、名刺と携帯電話又は各種情報端末が所定の位置関係になるように名刺を操作すると、名刺に含まれる連絡先が記録される。
また、ユーザが、食べ物と仮想空間上のアバターが所定の位置関係になるように食べ物を操作し、かつ、当該食べ物が当該アバターの好物であった場合には、アバターが当該食べ物を食べる仕草が表示される。なお、図15中の制御対象コンテンツのうち、「好物」とは、アバターが当該食べ物を好きだという情報を意味する。
また、一つの操作対象オブジェクトに複数のコンテンツが含まれる場合、三次元情報解析部102又は仮想オブジェクト管理部103が複数のプレーヤそれぞれに対応した情報を解析又は管理する。
また、位置関係解析部105は、操作対象オブジェクトと、複数のプレーヤそれぞれとの位置関係を解析する。位置関係解析部105は、操作対象オブジェクトといずれかのプレーヤとが所定の位置関係になった場合、当該プレーヤに対応した信号を出力する。コマンド発行部106は、当該プレーヤに対応したコマンドを発行する。
例えば、楽曲及び映像が含まれるDVDをAR音楽プレーヤに接近させた場合、コマンド発行部106は、音楽再生のコマンドを発行する。また、当該DVDをメディアプレーヤに接近させた場合、コマンド発行部106は、映像再生のコマンドを発行する。
従来では、複数のコンテンツが含まれるオブジェクトに対応する所望のコマンドを発行する場合、ユーザは発行するコマンドを選択するためにGUIなどを操作したりする必要があった。しかし、上記の方法では、ユーザは、GUIの操作方法などを予め習得せずに、直感的に操作を行うことが可能になる。
なお、特記した場合を除き、図17において、出力先のオブジェクトは、実オブジェクトであってもよく、表示オブジェクトであってもよく、仮想オブジェクトであってもよい。
以下では、操作対象オブジェクトが食べ物である場合について、図16及び図17を参照しながら、より詳細に説明する。
図16は、ユーザが仮想空間上のアバターの好物を接近させた場合の例について説明するための説明図である。図17は、ユーザが仮想空間上のアバターの好物以外を接近させた場合の例について説明するための説明図である。
図16に示すように、例えば、ユーザが仮想空間上のアバターに実オブジェクトR_OBJとして好物のイチゴを接近させた場合、まず、撮像部101により撮像された実オブジェクトがイチゴであることが三次元情報解析部102により解析される。更に、仮想オブジェクト取得部131は、実オブジェクトであるイチゴに対応付けられた情報として、「イチゴがアバターの好物である」ことを取得する。
表示部104は、予め記憶された仮想オブジェクトV_OBJとしてイチゴを表示し、さらに表示されたイチゴをアバターが食べる仕草をする表示をする。
一方、図17に示すように、例えば、ユーザが仮想空間上のアバターに実オブジェクトR_OBJとして好物でないリンゴを接近させた場合、まず、撮像部101により撮像された実オブジェクトがリンゴであることが三次元情報解析部102により解析される。更に、仮想オブジェクト取得部131は、実オブジェクトであるリンゴに対応付けられた情報として、「リンゴがアバターの好物でない」ことを取得する。
表示部104は、予め記憶された仮想オブジェクトV_OBJとしてリンゴを表示し、さらに表示されたリンゴをアバターが食べるのを嫌がる仕草をする表示をする。
また、仮想オブジェクト取得部131は、予めアバターの好物のみの情報を記録したデータベースに取得した画像に含まれる実オブジェクトが含まれない場合(当該実オブジェクトがアバターの好物でない場合)、仮想オブジェクトを取得しないようにしてもよい。この場合、実オブジェクトを接近させても表示部104の表示が変化せず、ユーザから見ると、アバターが反応しないように見える。
上記のように、ユーザは実オブジェクトである食べ物を介して、仮想空間上のアバターに餌を与えるなどのコミュニケーションが可能であり、よりリアリティを追求したゲームの提供などへ応用することが可能である。
<3:第2実施例(ジェスチャーを考慮した操作インターフェース)>
次に、本技術の第2実施例について説明する。同実施例は、第1実施例の構成に加え、実オブジェクトを利用したジェスチャーを組み合わせて、より複雑な操作を実現するための仕組みに関する。
[3−1:システム構成例]
まず、第2実施例に係る技術を実現可能なシステムの構成例について説明する。当該システムは、例えば、撮像部101、情報処理装置100、表示部104、出力制御装置200、及び出力装置210により構成される。但し、情報処理装置100が撮像部101及び表示部104と一体に形成されていてもよい。また、出力装置210は、音声を出力する音声出力装置であってもよいし、画像を表示する表示装置であってもよい。また、情報処理装置100が有する一部又は全部の機能は、クラウドコンピューティングシステムにより実現されてもよい。以下、情報処理装置100の構成を中心に説明する。
[3−2:情報処理装置100の構成(図18)]
図18を参照しながら、第2実施例に係る情報処理装置100の構成について説明する。図18は、情報処理装置100の機能構成について説明するための説明図である。図18に示すように、情報処理装置100は、撮像部101と、三次元情報解析部102と、仮想オブジェクト管理部103と、表示部104と、位置関係解析部105と、コマンド発行部106と、通信部107とを主に備える。
撮像部101は、実オブジェクトから入射した光を集光するレンズや、受光した光量に応じた電気信号を生成する撮像素子などを含み、実オブジェクトの像を撮像する。撮像部101は、例えば、ユーザが装着したHMDに設けられたカメラCAなどである。
なお、利用可能な撮像素子としては、例えば、CCDイメージセンサやCMOSイメージセンサなどがある。撮像部101は、実オブジェクトを撮像すると、撮像画像を三次元情報解析部102及び表示部104に出力する。
三次元情報解析部102は、撮像部101から入力された撮像画像に含まれる三次元情報を解析する。三次元情報解析部102は、位置・姿勢検出部121と、オブジェクト識別部122と、動き認識部123とを備える。
三次元情報解析部102の位置・姿勢検出部121は、入力された実オブジェクトの撮像画像を解析し、実オブジェクトの3次元空間内の位置及び姿勢を検出する。検出方法は、例えば、前述したSURFなどの技術を用いる。位置・姿勢検出部121は、検出した実オブジェクトの位置及び姿勢を、仮想オブジェクト管理部103に出力する。
また、三次元情報解析部102のオブジェクト識別部122は、入力された実オブジェクトの撮像画像を解析し、実オブジェクトのIDを識別する。
オブジェクト識別部122は、例えば、入力された実オブジェクトの撮像画像から一又は複数の特徴点の位置を検出する。更に、オブジェクト識別部122は、入力された実オブジェクトの特徴点の位置と、メモリなどの記憶部(不図示)に記憶された複数の実オブジェクトの特徴点の位置とのマッチングを行う。
上記の記憶部には、複数の実オブジェクトそれぞれについて、当該実オブジェクトのIDと、各特徴点の位置が記憶されている。オブジェクト識別部122は、記憶部に特徴点の位置が記憶された複数の実オブジェクトのうち、入力された実オブジェクトの特徴点との距離が最も短い特徴点を有する実オブジェクトのIDを、入力された実オブジェクトのIDとする。特徴点は、例えば、多角形の角や円形の周上に位置する点などである。オブジェクト識別部122は、識別した実オブジェクトのIDを、仮想オブジェクト管理部103に出力する。
また、動き認識部123は、位置・姿勢検出部121により検出された実オブジェクトの位置を監視し、実オブジェクトの動きを認識する。例えば、動き認識部123は、ある軌跡を描くように実オブジェクトが移動した場合に、当該軌跡が所定のパターンに該当するか否かを判定する。実オブジェクトの軌跡が所定のパターンに該当すると判定した場合、動き認識部123は、ジェスチャー有りと認識し、当該所定のパターンを示す情報(以下、ジェスチャー情報)を仮想オブジェクト管理部103、又は位置関係解析部105を介してコマンド発行部106に入力する。
なお、上記のジェスチャー情報は、ジェスチャーの種類に応じた仮想オブジェクトの表示制御や、コマンドの選択などに利用される。例えば、実オブジェクトを投げるジェスチャーが認識された場合、実オブジェクトに重畳表示されたアイコン(仮想オブジェクト)が飛ぶように表示制御される。また、実オブジェクトを左右に振るジェスチャーが認識された場合、表示オブジェクトや仮想オブジェクトの表示が切り替えられたり、或いは、コンテンツの再生停止などの所定コマンドが選択されたりする。
仮想オブジェクト管理部103は、識別された実オブジェクトのID及び位置に基づいて、当該実オブジェクトに対応する仮想オブジェクトの取得及び当該仮想オブジェクトを重畳表示する位置の制御を行なう。例えば、ジェスチャーに応じた仮想オブジェクトの表示制御なども、仮想オブジェクト管理部103の機能を利用して実現される。また、仮想オブジェクト管理部103は、仮想オブジェクト取得部131と、重畳位置制御部132とを備える。
仮想オブジェクト取得部131は、識別された実オブジェクトのIDに対応する仮想オブジェクトの表示情報を、予めメモリなどの記憶部に記憶されたデータベースなどから取得する。例えば、入力された実オブジェクトがCDであると識別された場合、対応する仮想オブジェクトとして、音符の形状をしたアイコンがデータベースから取得される。仮想オブジェクト取得部131は、取得した仮想オブジェクトの表示情報を、表示部104及び位置関係解析部105に出力する。
また、重畳位置制御部132は、検知された実オブジェクトの位置・姿勢に基づいて、仮想オブジェクト取得部131により取得された仮想オブジェクトを重畳表示する位置を制御する。例えば、重畳位置制御部132は、検知された実オブジェクトであるCDの中心の位置を算出し、算出した位置に仮想オブジェクトを重畳表示させる。重畳位置制御部132は、仮想オブジェクトを重畳表示させる位置を、表示部104及び位置関係解析部105に出力する。
表示部104は、実オブジェクトを含む撮像画像に、仮想オブジェクト管理部103から入力された仮想オブジェクトを重畳して表示する。
ここで、撮像部101による実オブジェクトの撮像、三次元情報解析部102による撮像画像の三次元情報解析、仮想オブジェクト管理部103による仮想オブジェクトの取得及び位置制御はリアルタイム処理される。そのため、ユーザが実オブジェクトを移動させると、当該実オブジェクトに対応する仮想オブジェクトも当該実オブジェクトに追従するように移動することとなる。
位置関係解析部105は、撮像部101により撮像された撮像画像に含まれたある実オブジェクト(以下、実オブジェクトA)と、オブジェクトA以外の所定のオブジェクト(以下、オブジェクトB)との位置関係を解析する。例えば、オブジェクトAとして、CDを考える。また、オブジェクトBとして、CD再生用のアプリケーションウインドウを考える。
ここで、CD再生用のアプリケーションウインドウなどのオブジェクトBは、外部のディスプレイ装置に表示された表示オブジェクトでもよく、HMDなどの表示部104に表示された仮想オブジェクトでもよい。但し、オブジェクトBの位置は、オブジェクトAの位置に追従しないものとする。
オブジェクトBが外部のディスプレイ装置により表示されたアプリケーションウインドウなどの表示オブジェクトの場合、撮像部101により撮像された撮像画像には、実オブジェクトA及び表示オブジェクトBが含まれる。当該撮像画像は、三次元情報解析部102により解析され、実オブジェクトAの位置及び姿勢とともに、表示オブジェクトBの位置及び姿勢が検出される。位置関係解析部105は、三次元情報解析部102により解析された実オブジェクトA及び表示オブジェクトBの位置関係を解析する。
一方、オブジェクトBが仮想アプリケーションウインドウなどの仮想オブジェクトの場合、例えば、重畳位置制御部132は、撮像部101により撮像された実オブジェクトAの位置や姿勢によらず、オブジェクトBの位置や姿勢を制御する。また、重畳位置制御部132は、撮像部101により撮像された実オブジェクトAの初期位置及び姿勢に基づいて、オブジェクトBの位置や姿勢を制御してもよい。
オブジェクトBが仮想オブジェクトの場合、位置関係解析部105は、三次元情報解析部102により解析された実オブジェクトA及び仮想オブジェクト管理部103により制御された仮想オブジェクトBの位置関係を解析する。
位置関係解析部105は、実オブジェクトAとオブジェクトBとが接近するなどの所定の位置関係であるか否かについての信号を、コマンド発行部106に出力する。
より具体的には、位置関係解析部105は、実オブジェクトAとオブジェクトBとの三次元空間上の距離を算出し、算出した距離が所定の閾値以下である場合、実オブジェクトAとオブジェクトBが接近したと判定して、所定の電気信号をコマンド発行部106に出力する。また、実オブジェクトAとオブジェクトBとの距離を算出する際に、所定の方向の距離のみを考慮してもよい。
但し、実オブジェクトAとオブジェクトBとの三次元空間上の距離を算出する際、オブジェクトBが表示オブジェクトである場合、ディスプレイ装置の表示面を基準とした座標を、三次元空間座標に変換しておく必要がある。ディスプレイ装置の表示面を基準とした座標は、例えば、ディスプレイ装置の表示画面の一角を原点とするものである。また、当該角を形成する2辺の一方をx軸、他方をy軸としている。
コマンド発行部106は、実オブジェクトAとオブジェクトBとが所定の位置関係にあるという信号を位置関係解析部105から入力された場合、実オブジェクトAに関連する所定のコマンドを発行する。また、所定のコマンドは、実オブジェクトAに関連し、かつ、オブジェクトBにも関連するコマンドであってもよい。さらに、所定のコマンドは、実オブジェクトA、オブジェクトB、認識されたジェスチャーの組み合わせに予め対応付けられたコマンドであってもよい。
例えば、実オブジェクトAがCDであり、当該CDをCD再生用のアプリケーションウインドウ(オブジェクトB)に接近させる場合、コマンド発行部106は、CD再生を行うためのコマンドを発行する。また、CDが左右に振られた場合、コマンド発行部106は、例えば、トラックを変更したり、ボリュームを増減させたりするコマンドを発行する。
ここで、情報処理装置100は、有線又は無線のネットワークを介して出力制御装置200と接続されている。発行されたコマンドは、通信部107を介して出力制御装置200に送信される。出力制御装置200は、受信したコマンドを実行して出力装置210を制御する。出力装置210は、音声再生装置や映像再生装置などである。
なお、出力制御装置200は、情報処理装置100の一部であってもよい。この場合、図18に示した情報処理装置100の構成から通信部107を削除した構成をとり、コマンド発行部106から出力制御装置200にコマンドが直接送信される。
以上、主に情報処理装置100の構成について説明した。
[3−3:情報処理装置100の動作(図19)]
次に、図19を参照しながら、第2実施例に係る情報処理装置100の動作について説明する。図19は、第2実施例に係る情報処理装置100の動作について説明するための流れ図である。
図19に示すように、情報処理装置100は、まず、撮像画像から実オブジェクトを検出する(S111)。このとき、情報処理装置100は、実オブジェクトの位置や姿勢などを検出する。次いで、情報処理装置100は、撮像画像から実オブジェクトの種類を認識する(S112)。次いで、情報処理装置100は、実オブジェクトの種類や位置などに応じて、仮想空間に表示すべき所定の仮想オブジェクトを取得する(S113)。例えば、実オブジェクトがCDケースの場合、情報処理装置100は、仮想オブジェクトとして、音楽プレーヤの画面や、音符を模したアイコンを取得する。
次いで、情報処理装置100は、ステップS113で取得した仮想オブジェクトを重畳表示させる(S114)。例えば、情報処理装置100は、音楽プレーヤの画面を仮想空間に表示させたり、CDケース上に音符を模したアイコンを重畳表示させたりする。次いで、情報処理装置100は、実オブジェクトの位置や姿勢に基づいて仮想オブジェクトの表示位置を制御する(S115)。例えば、ユーザがCDケースを音楽プレーヤの画面に近づけた場合、情報処理装置100は、CDケースに重畳表示させているアイコンをCDケースの動きに追従するように移動させる。
また、情報処理装置100は、実オブジェクトの動きを監視し、実オブジェクトの動きにより形成される軌跡が所定のパターンを成す場合にジェスチャー有りと認定して、当該ジェスチャーに応じた表示制御を実施する(S116)。例えば、情報処理装置100は、実オブジェクトが左右に振られた場合(所定のジェスチャー)にジェスチャー有りと認定し、仮想オブジェクトの種類を切り替える処理を実施する。なお、ジェスチャーの具体例及び具体的な表示制御方法については後述する。
次いで、情報処理装置100は、実オブジェクトと所定のオブジェクト(例えば、音楽プレーヤの画面など;ウィンドウ)との位置関係を検出する(S117)。次いで、情報処理装置100は、ステップS117で検出された位置関係が所定の位置関係を成すか否かを判定する(S118)。例えば、情報処理装置100は、実オブジェクトと所定のオブジェクトとが接触するか否かを判定したり、或いは、実オブジェクトと所定のオブジェクトとの距離が所定の距離以下であるか否かを判定したりする。
実オブジェクトと所定のオブジェクトとが所定の位置関係を成す場合、情報処理装置100は、処理をステップS119に進める。一方、実オブジェクトと所定のオブジェクトとが所定の位置関係を成していない場合、情報処理装置100は、処理をステップS115に戻す。処理をステップS119に進めた場合、情報処理装置100は、実オブジェクトの種類や、所定のオブジェクトの種類、或いは、位置関係に応じて予め設定されたコマンドを発行し(S119)、コマンド発行処理に係る一連の処理を終了する。なお、各オブジェクトの具体例、コマンドの具体例、及び具体的な操作方法については後述する。
以上、第2実施例に係る情報処理装置100の動作について説明した。ここでは位置関係に基づくコマンドの発行に際して実行される、ジェスチャーを考慮した処理の流れについて説明したが、必要に応じて一部の処理ステップを入れ替えたり、変形したりすることが可能である。また、ここで説明した処理の流れを応用して後述する各操作方法を実現可能なユーザインターフェースを構成することが可能である。
[3−4:操作方法について]
次に、図20及び図21を参照しながら、第2実施例に係る情報処理装置100の機能を用いて実現可能なユーザインターフェースの例及びその操作方法について説明する。
(ジェスチャーによる選択画面の切り替え操作(図20))
ジェスチャーを併用することで、より複雑な操作が可能になる。その一例として、図20に示すように、ウィンドウに表示された複数トラックに対応するアイコンの表示をジェスチャーにより切り替える操作が考えられる。例えば、実オブジェクトR_OBJであるCDケースを左右に振ったり、回転させたりする操作に応じて、トラックの選択画面が切り替わるように構成することができる。より具体的には、実オブジェクトR_OBJを右方向に振ったり、回転させたりすると、アイコンの列が右方向にスクロールするように表示制御する方法などが考えられる。
また、回転操作によりトラックが1つずつスクロールするようにし、上下に振る操作によりウィンドウに表示された複数トラックが一度に変更されるようにする方法なども有用であろう。この方法によると、図20の例では、CDケースを右方向に回転すると、トラック#1〜#3の表示がトラック#2〜#4などに切り替わり、CDケースを上下に振ると、トラック#1〜#3の表示がトラック#4〜#6の表示に一度に切り替わる。
この方法を適用すると、実オブジェクトR_OBJから手を離さずにトラックの選択画面を切り替えることが可能になるため、利便性が高い。さらに、操作工程も少なく、かつ、直感的なユーザインターフェースが実現される。もちろん、上記の第1実施例に係る全ての技術及びこれまで説明した第2実施例の技術と組み合わせることが可能である。
(ジェスチャーによるアイコン投げ操作(図21))
図20を参照しながら、ジェスチャーによりトラックの選択画面を切り替える操作について説明したが、ここでは実オブジェクトR_OBJに付随する仮想オブジェクトV_OBJの動きをジェスチャーで制御する方法を提案する。例えば、図21に示すように、実オブジェクトR_OBJを放る仕草をした場合に、実オブジェクトR_OBJに付随して表示された仮想オブジェクトV_OBJが飛ぶようにする仕組みが考えられる。この仕組みを適用すると、例えば、CDとCDプレーヤとが遠く離れている場合に、CDプレーヤに近づかなくてもCDの楽曲を再生することが可能になる。
また、仮想オブジェクトV_OBJが実際に飛んで見えるため、ゲーム性があり、ユーザの遊び心を刺激することになる。この方法を適用すると、僅かな操作で楽曲を再生することが可能になり、利便性が高い。さらに、操作工程も少なく、かつ、直感的なユーザインターフェースが実現される。もちろん、上記の第1実施例に係る全ての技術及びこれまで説明した第2実施例の技術と自由に組み合わせることが可能である。
以上、第2実施例に係る情報処理装置100の機能を用いて実現可能なユーザインターフェースの例及びその操作方法について説明した。
<4:ハードウェア構成例(図22)>
上記の情報処理装置100が有する各構成要素の機能は、例えば、図22に示す情報処理装置のハードウェア構成を用いて実現することが可能である。つまり、当該各構成要素の機能は、コンピュータプログラムを用いて図22に示すハードウェアを制御することにより実現される。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
図22に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro−Luminescence Displayの略である。
記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。
接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は各種通信用のモデム等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
<5:まとめ>
最後に、本実施形態の技術的思想について簡単に纏める。以下に記載する技術的思想は、例えば、PC、携帯電話、携帯ゲーム機、携帯情報端末、情報家電、カーナビゲーションシステム等、種々の情報処理装置に対して適用することができる。例えば、下記(1)のように表現される情報処理装置は、オブジェクト間の位置関係に基づいてコマンドが発行されるため、コマンド発行に際して直感的な操作が可能になる。さらに、発行されるコマンドに関する仮想オブジェクトが第1又は第2のオブジェクトに重畳表示されるため、その後に実行されるであろう処理の内容が事前に認識可能となり、安心感を持って操作することが可能になる。
(1)
ユーザが視認している第1のオブジェクトと、当該ユーザが位置を移動可能な第2のオブジェクトと、が所定の位置関係を成す場合に、前記第2のオブジェクトに対応付けられた所定のコマンドを発行するコマンド発行部と、
前記所定のコマンドに関する仮想オブジェクトを前記第1又は第2のオブジェクトに重畳表示させる表示制御部と、
を備える、
情報処理装置。
(2)
前記所定のコマンドを実行可能な機器に対して前記コマンド発行部により発行された所定のコマンドを送信するコマンド送信部をさらに備える、
前記(1)に記載の情報処理装置。
(3)
前記コマンド発行部は、前記第2のオブジェクトに対応付けられ、かつ、前記第1のオブジェクトにも対応付けられた所定のコマンドを発行する、
前記(1)又は前記(2)に記載の情報処理装置。
(4)
複数の前記仮想オブジェクトを前記第2のオブジェクトに重畳表示させる場合に、前記第2のオブジェクトの位置及び形状に基づいて前記各仮想オブジェクトの表示位置を決定する位置決定部を更に備え、
前記表示制御部は、前記位置決定部により決定された表示位置に前記各仮想オブジェクトを表示させる、
前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記表示制御部は、前記第1のオブジェクトと前記第2のオブジェクトとが前記所定の位置関係を成していない場合には第1の前記仮想オブジェクトを表示させ、前記第1のオブジェクトと前記第2のオブジェクトとが前記所定の位置関係を成している場合には当該第1の仮想オブジェクトとは異なる第2の前記仮想オブジェクトを表示させる、
前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記コマンド発行部は、前記第1のオブジェクトと前記第2のオブジェクトとの間の距離が所定の閾値以下となった場合に、前記所定の位置関係を成すものと判定して前記所定のコマンドを発行する、
前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記コマンド発行部は、前記第2のオブジェクトの移動パターンが所定の軌跡を描く場合に前記所定のコマンドを発行する、
前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(8)
前記コマンド発行部は、前記所定の軌跡の種類に応じた所定のコマンドを発行する、
前記(7)に記載の情報処理装置。
(9)
前記コマンド発行部は、前記第2のオブジェクトが前記第1のオブジェクトを基準とした所定の位置関係を成し、かつ、前記第2のオブジェクトの移動パターンが所定の軌跡を描く場合に前記所定のコマンドを発行する、
前記(7)又は(8)に記載の情報処理装置。
(10)
前記コマンド発行部は、複数の前記所定のコマンドが前記第2のオブジェクトに対応付けられ、かつ、複数の前記仮想オブジェクトが前記第1のオブジェクトに重畳表示されている場合に、前記第2のオブジェクトと前記各仮想オブジェクトとの位置関係に応じて、発行する前記所定のコマンドを選択する、
前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(11)
前記コマンド発行部は、複数の前記所定のコマンドが前記第2のオブジェクトに対応付けられ、かつ、複数の前記仮想オブジェクトが前記第2のオブジェクトに重畳表示されている場合に、前記第1のオブジェクトと前記各仮想オブジェクトとの位置関係に応じて、発行する前記所定のコマンドを選択する、
前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(12)
前記コマンド発行部は、複数の前記所定のコマンドが前記第2のオブジェクトに対応付けられており、かつ、当該第2のオブジェクトが所定の軌跡を描く場合に、当該所定の軌跡に対応した前記所定のコマンドを発行する、
前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(13)
前記第1のオブジェクトは、仮想空間内のオブジェクトである、
前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記第1のオブジェクトは、前記ユーザが位置を移動可能である、
前記(1)〜(13)のいずれか1項に記載の情報処理装置。
(15)
前記表示制御部は、前記ユーザが頭部に装着可能であり、かつ、当該ユーザが表示情報を視認可能にする表示部を有する頭部搭載型デバイスを制御して前記仮想オブジェクトを当該表示部に表示させる、
前記(1)〜(14)のいずれか1項に記載の情報処理装置。
(16)
前記頭部搭載型デバイスは、撮像部又はセンサをさらに有し、
前記第2のオブジェクトの位置は、前記撮像部により撮像された前記第2のオブジェクトの画像又は前記センサにより検知された前記第2のオブジェクトの検知結果に基づいて検出される、
前記(15)に記載の情報処理装置。
(17)
ユーザが視認している第1のオブジェクトと、当該ユーザが位置を移動可能な第2のオブジェクトと、が所定の位置関係を成す場合に、前記第2のオブジェクトに対応付けられた所定のコマンドを発行するステップと、
前記所定のコマンドに関する仮想オブジェクトを前記第1又は第2のオブジェクトに重畳表示させるステップと、
を含む、
情報処理方法。
(18)
コンピュータに、
ユーザが視認している第1のオブジェクトと、当該ユーザが位置を移動可能な第2のオブジェクトと、が所定の位置関係を成す場合に、前記第2のオブジェクトに対応付けられた所定のコマンドを発行するコマンド発行機能と、
前記所定のコマンドに関する仮想オブジェクトを前記第1又は第2のオブジェクトに重畳表示させる表示制御機能と、
を実現させるためのプログラム。
(備考)
上記の位置関係解析部105及びコマンド発行部106は、コマンド発行部の一例である。上記の仮想オブジェクト管理部103は、表示制御部、位置決定部の一例である。上記の通信部107は、コマンド送信部の一例である。上記のHMDは、頭部搭載型デバイスの一例である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
100 情報処理装置
101 撮像部
102 三次元情報解析部
103 仮想オブジェクト管理部
104 表示部
105 位置関係解析部
106 コマンド発行部
107 通信部
121 位置・姿勢検出部
122 オブジェクト識別部
123 動き認識部
131 仮想オブジェクト取得部
132 重畳位置制御部
200 出力制御装置
210 出力装置

Claims (17)

  1. 世界の物体であって、ユーザが位置を移動可能な第2のオブジェクトを検出し、前記第2のオブジェクトの種類を認識する認識部と、
    前記第2のオブジェクトの種類に基づいて、前記ユーザが視認可能な、仮想空間内のオブジェクトである第1のオブジェクトを取得し、表示させる管理部と、
    前記ユーザが、前記第2のオブジェクトを前記第1のオブジェクトに近づけたことにより、前記第1のオブジェクトと前記第2のオブジェクトとが所定の位置関係を成す場合に、前記第2のオブジェクトに対応付けられた所定のコマンドを発行するコマンド発行部と、
    前記所定のコマンドに関する仮想オブジェクトを前記第1又は第2のオブジェクトに重畳表示させる表示制御部と、
    を備える、
    情報処理装置。
  2. 前記所定のコマンドを実行可能な機器に対して前記コマンド発行部により発行された前記所定のコマンドを送信するコマンド送信部をさらに備える、
    請求項1に記載の情報処理装置。
  3. 前記コマンド発行部は、前記第2のオブジェクトに対応付けられ、かつ、前記第1のオブジェクトにも対応付けられた前記所定のコマンドを発行する、
    請求項1又は2に記載の情報処理装置。
  4. 複数の前記所定のコマンドに関する仮想オブジェクトを前記第2のオブジェクトに重畳表示させる場合に、前記第2のオブジェクトの位置及び形状に基づいて前記各所定のコマンドに関する仮想オブジェクトの表示位置を決定する位置決定部を更に備え、
    前記表示制御部は、前記位置決定部により決定された前記表示位置に前記各仮想オブジェクトを表示させる、
    請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記表示制御部は、前記第1のオブジェクトと前記第2のオブジェクトとが前記所定の位置関係を成していない場合には第1の前記所定のコマンドに関する仮想オブジェクトを表示させ、
    前記第1のオブジェクトと前記第2のオブジェクトとが前記所定の位置関係を成している場合には当該第1の所定のコマンドに関する仮想オブジェクトとは異なる第2の前記所定のコマンドに関する仮想オブジェクトを表示させる、
    請求項1から4のいずれか1項に記載の情報処理装置。
  6. 前記コマンド発行部は、前記第1のオブジェクトと前記第2のオブジェクトとの間の距離が所定の閾値以下となった場合に、前記第1のオブジェクトと前記第2のオブジェクトとが前記所定の位置関係を成すものと判定して前記所定のコマンドを発行する、
    請求項1から5のいずれか1項に記載の情報処理装置。
  7. 前記コマンド発行部は、前記第2のオブジェクトの移動パターンが所定の軌跡を描く場合に前記所定のコマンドを発行する、
    請求項1から5のいずれか1項に記載の情報処理装置。
  8. 前記コマンド発行部は、前記所定の軌跡の種類に応じた前記所定のコマンドを発行する、
    請求項7に記載の情報処理装置。
  9. 前記コマンド発行部は、前記第2のオブジェクトが前記第1のオブジェクトを基準とした前記所定の位置関係を成し、かつ、前記第2のオブジェクトの前記移動パターンが前記所定の軌跡を描く場合に前記所定のコマンドを発行する、
    請求項7又は8に記載の情報処理装置。
  10. 前記コマンド発行部は、複数の前記所定のコマンドが前記第2のオブジェクトに対応付けられ、かつ、複数の前記所定のコマンドに関する仮想オブジェクトが前記第1のオブジェクトに重畳表示されている場合に、前記第2のオブジェクトと前記各所定のコマンドに関する仮想オブジェクトとの位置関係に応じて、発行する前記所定のコマンドを選択する、
    請求項1から5のいずれか1項に記載の情報処理装置。
  11. 前記コマンド発行部は、複数の前記所定のコマンドが前記第2のオブジェクトに対応付けられ、かつ、複数の前記所定のコマンドに関する仮想オブジェクトが前記第2のオブジェクトに重畳表示されている場合に、前記第1のオブジェクトと前記各所定のコマンドに関する仮想オブジェクトとの位置関係に応じて、発行する前記所定のコマンドを選択する、
    請求項1から5のいずれか1項に記載の情報処理装置。
  12. 前記コマンド発行部は、複数の前記所定のコマンドが前記第2のオブジェクトに対応付けられており、かつ、当該第2のオブジェクトが所定の軌跡を描く場合に、当該所定の軌跡に対応した前記所定のコマンドを発行する、
    請求項1から5のいずれか1項に記載の情報処理装置。
  13. 前記第1のオブジェクトは、前記ユーザが位置を移動可能である、
    請求項1から12のいずれか1項に記載の情報処理装置。
  14. 前記表示制御部は、前記ユーザの頭部に装着可能であり、かつ、当該ユーザによって表示情報を視認することが可能なように当該表示情報を表示する表示部を有する頭部搭載型デバイスを制御して前記所定のコマンドに関する仮想オブジェクトを当該表示部に表示させる、
    請求項1から13のいずれか1項に記載の情報処理装置。
  15. 前記頭部搭載型デバイスは、撮像部又はセンサをさらに有し、
    前記第2のオブジェクトの位置は、前記撮像部により撮像された前記第2のオブジェクトの画像又は前記センサにより検知された前記第2のオブジェクトの検知結果に基づいて検出される、
    請求項14に記載の情報処理装置。
  16. 世界の物体であって、ユーザが位置を移動可能な第2のオブジェクトを検出し、前記第2のオブジェクトの種類を認識するステップと、
    前記第2のオブジェクトの種類に基づいて、前記ユーザが視認可能な、仮想空間内のオブジェクトである第1のオブジェクトを取得し、表示させるステップと、
    前記ユーザが、前記第2のオブジェクトを前記第1のオブジェクトに近づけたことにより、前記第1のオブジェクトと前記第2のオブジェクトとが所定の位置関係を成す場合に、前記第2のオブジェクトに対応付けられた所定のコマンドを発行するステップと、
    前記所定のコマンドに関する仮想オブジェクトを前記第1又は第2のオブジェクトに重畳表示させるステップと、
    を含む、
    情報処理方法。
  17. コンピュータに、
    世界の物体であって、ユーザが位置を移動可能な第2のオブジェクトを検出し、前記第2のオブジェクトの種類を認識する認識機能と、
    前記第2のオブジェクトの種類に基づいて、前記ユーザが視認可能な、仮想空間内のオブジェクトである第1のオブジェクトを取得し、表示させる管理機能と、
    前記ユーザが、前記第2のオブジェクトを前記第1のオブジェクトに近づけたことにより、前記第1のオブジェクトと前記第2のオブジェクトとが所定の位置関係を成す場合に、前記第2のオブジェクトに対応付けられた所定のコマンドを発行するコマンド発行機能と、
    前記所定のコマンドに関する仮想オブジェクトを前記第1又は第2のオブジェクトに重畳表示させる表示制御機能と、
    を実現させるためのプログラム。
JP2012022707A 2012-02-06 2012-02-06 情報処理装置、情報処理方法及びプログラム Active JP6044079B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012022707A JP6044079B2 (ja) 2012-02-06 2012-02-06 情報処理装置、情報処理方法及びプログラム
US14/356,306 US10401948B2 (en) 2012-02-06 2013-01-29 Information processing apparatus, and information processing method to operate on virtual object using real object
PCT/JP2013/000459 WO2013118457A1 (en) 2012-02-06 2013-01-29 Information processing apparatus, and information processing method
CN201380007190.3A CN104081319B (zh) 2012-02-06 2013-01-29 信息处理设备和信息处理方法
EP13708916.5A EP2812776B1 (en) 2012-02-06 2013-01-29 Information processing apparatus, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012022707A JP6044079B2 (ja) 2012-02-06 2012-02-06 情報処理装置、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2013161267A JP2013161267A (ja) 2013-08-19
JP2013161267A5 JP2013161267A5 (ja) 2015-02-26
JP6044079B2 true JP6044079B2 (ja) 2016-12-14

Family

ID=47846100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012022707A Active JP6044079B2 (ja) 2012-02-06 2012-02-06 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US10401948B2 (ja)
EP (1) EP2812776B1 (ja)
JP (1) JP6044079B2 (ja)
CN (1) CN104081319B (ja)
WO (1) WO2013118457A1 (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014191718A (ja) * 2013-03-28 2014-10-06 Sony Corp 表示制御装置、表示制御方法および記録媒体
WO2015075847A1 (ja) * 2013-11-21 2015-05-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報通信方法
KR102227659B1 (ko) * 2014-03-12 2021-03-15 삼성전자주식회사 Hmd 장치를 통하여 가상 이미지를 디스플레이하는 시스템 및 방법
US9934613B2 (en) * 2014-04-29 2018-04-03 The Florida International University Board Of Trustees Systems for controlling a movable object
AU2015274283B2 (en) * 2014-06-14 2020-09-10 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US10852838B2 (en) 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
JP6292181B2 (ja) * 2014-06-27 2018-03-14 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
WO2016006070A1 (ja) * 2014-07-09 2016-01-14 日立マクセル株式会社 携帯情報端末装置及びそれと連携するヘッドマウントディスプレイ
JP6512829B2 (ja) * 2015-01-09 2019-05-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US9659381B2 (en) * 2015-01-26 2017-05-23 Daqri, Llc Real time texture mapping for augmented reality system
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
SG11201707278SA (en) * 2015-03-20 2017-10-30 Ricoh Co Ltd Display apparatus, display control method, display control program, and display system
JP2016206695A (ja) * 2015-04-15 2016-12-08 株式会社ウイズ コンテンツ提供用のアプリケーションプログラムおよびコンテンツ提供方法
CN107852488B (zh) 2015-05-22 2021-03-30 三星电子株式会社 用于通过hmd设备显示虚拟图像的系统和方法
EP4254145A3 (en) 2015-09-16 2023-11-01 Magic Leap, Inc. Head pose mixing of audio files
US20170140215A1 (en) * 2015-11-18 2017-05-18 Le Holdings (Beijing) Co., Ltd. Gesture recognition method and virtual reality display output device
CN105630160A (zh) * 2015-12-21 2016-06-01 黄鸣生 虚拟现实使用界面系统
US20170185142A1 (en) * 2015-12-25 2017-06-29 Le Holdings (Beijing) Co., Ltd. Method, system and smart glove for obtaining immersion in virtual reality system
CN105718054B (zh) * 2016-01-18 2019-05-10 天词信息科技(上海)有限公司 增强现实物的非接触式智能终端控制方法及装置、系统
CN105955470A (zh) * 2016-04-26 2016-09-21 乐视控股(北京)有限公司 一种头盔显示器的控制方法及装置
CN105915766B (zh) * 2016-06-07 2018-11-09 腾讯科技(深圳)有限公司 基于虚拟现实的控制方法和装置
CN106200898A (zh) * 2016-06-24 2016-12-07 张睿卿 虚拟现实软件平台系统
JP6947177B2 (ja) * 2016-07-05 2021-10-13 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
CN106201222A (zh) * 2016-08-09 2016-12-07 深圳市金立通信设备有限公司 一种虚拟现实界面的显示方法及终端
EP3299931A1 (en) * 2016-09-27 2018-03-28 Alcatel Lucent Altered-reality control method and altered-reality control system
US10732797B1 (en) * 2017-01-10 2020-08-04 Lucasfilm Entertainment Company Ltd. Virtual interfaces for manipulating objects in an immersive environment
AU2018244316B2 (en) * 2017-03-28 2022-09-29 Magic Leap, Inc. Augmented reality system with spatialized audio tied to user manipulated virtual object
US11144114B2 (en) * 2017-05-11 2021-10-12 Sony Corporation Information processing apparatus and information processing method
US10429949B2 (en) * 2017-06-30 2019-10-01 Htc Corporation User interaction apparatus and method
CN107993292B (zh) * 2017-12-19 2021-08-31 北京盈拓文化传媒有限公司 增强现实场景复原方法、装置及计算机可读存储介质
AU2019231697B2 (en) 2018-03-07 2020-01-30 Magic Leap, Inc. Visual tracking of peripheral devices
US10635895B2 (en) * 2018-06-27 2020-04-28 Facebook Technologies, Llc Gesture-based casting and manipulation of virtual content in artificial-reality environments
US11288733B2 (en) * 2018-11-14 2022-03-29 Mastercard International Incorporated Interactive 3D image projection systems and methods
JP7223776B2 (ja) * 2019-01-24 2023-02-16 マクセル株式会社 表示端末、アプリケーション制御システムおよびアプリケーション制御方法
KR20200093213A (ko) * 2019-01-28 2020-08-05 삼성전자주식회사 전자 장치 및 전자 장치의 그래픽 객체 제어 방법
WO2020243056A1 (en) 2019-05-29 2020-12-03 Raitonsa Dynamics Llc Generating content for physical elements
JP7335221B2 (ja) * 2019-08-20 2023-08-29 株式会社Cygames 画像認識モデルを用いた識別子情報推論のための電子装置、方法、プログラム及びシステム
JP6967041B2 (ja) * 2019-08-20 2021-11-17 株式会社Cygames 画像認識モデルを用いた識別子情報推論のための電子装置、方法、プログラム及びシステム
CN113711175A (zh) * 2019-09-26 2021-11-26 苹果公司 呈现计算机生成现实环境的可穿戴电子设备
WO2021084882A1 (ja) * 2019-10-28 2021-05-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP6935531B1 (ja) * 2020-04-01 2021-09-15 エヌエイチエヌ コーポレーション 情報処理プログラムおよび情報処理システム
US20210358294A1 (en) * 2020-05-15 2021-11-18 Microsoft Technology Licensing, Llc Holographic device control
US11768535B1 (en) * 2020-05-18 2023-09-26 Apple Inc. Presenting computer-generated content based on extremity tracking
JP2022110648A (ja) * 2021-01-19 2022-07-29 株式会社東芝 情報処理システム、情報処理方法およびプログラム
JP2022118501A (ja) * 2021-02-02 2022-08-15 キヤノン株式会社 表示システム、表示装置とその制御方法及びプログラム
US11954774B2 (en) * 2021-08-29 2024-04-09 Snap Inc. Building augmented reality experiences with IoT devices
US11941231B2 (en) 2021-08-29 2024-03-26 Snap Inc. Camera interfaces to interact with IoT devices

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07175587A (ja) * 1993-10-28 1995-07-14 Hitachi Ltd 情報処理装置
US5732227A (en) * 1994-07-05 1998-03-24 Hitachi, Ltd. Interactive information processing system responsive to user manipulation of physical objects and displayed images
US6002808A (en) * 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US5838326A (en) * 1996-09-26 1998-11-17 Xerox Corporation System for moving document objects in a 3-D workspace
US6373968B2 (en) * 1997-06-06 2002-04-16 Oki Electric Industry Co., Ltd. System for identifying individuals
US6118887A (en) * 1997-10-10 2000-09-12 At&T Corp. Robust multi-modal method for recognizing objects
JP2000350865A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体
JP4332964B2 (ja) * 1999-12-21 2009-09-16 ソニー株式会社 情報入出力システム及び情報入出力方法
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
US7215322B2 (en) * 2001-05-31 2007-05-08 Siemens Corporate Research, Inc. Input devices for augmented reality applications
GB2377147A (en) * 2001-06-27 2002-12-31 Nokia Corp A virtual reality user interface
US6757411B2 (en) * 2001-08-16 2004-06-29 Liska Biometry Inc. Method and system for fingerprint encoding and authentication
US7340077B2 (en) * 2002-02-15 2008-03-04 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US6738631B1 (en) * 2002-05-06 2004-05-18 Nokia, Inc. Vision-guided model-based point-and-click interface for a wireless handheld device
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
WO2005066744A1 (en) * 2003-12-31 2005-07-21 Abb Research Ltd A virtual control panel
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
WO2007132451A2 (en) * 2006-05-11 2007-11-22 Prime Sense Ltd. Modeling of humanoid forms from depth maps
US7805015B2 (en) * 2006-10-27 2010-09-28 International Business Machines Corporation Method of point identification and tracking in a digital video environment
US7971156B2 (en) * 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US8861834B2 (en) * 2007-03-09 2014-10-14 Omron Corporation Computer implemented method for recognizing an object based on a correspondence relationship between object feature points and pre-registered model feature points
US7909248B1 (en) * 2007-08-17 2011-03-22 Evolution Robotics Retail, Inc. Self checkout with visual recognition
US8427424B2 (en) * 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
JP2010145861A (ja) * 2008-12-19 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ
US20100208033A1 (en) * 2009-02-13 2010-08-19 Microsoft Corporation Personal Media Landscapes in Mixed Reality
US8428311B2 (en) * 2009-02-25 2013-04-23 Honda Motor Co., Ltd. Capturing and recognizing hand postures using inner distance shape contexts
EP2410485B1 (en) * 2009-03-17 2019-01-09 Fujitsu Limited Data collating device and program
US9195898B2 (en) * 2009-04-14 2015-11-24 Qualcomm Incorporated Systems and methods for image recognition using mobile devices
US8189925B2 (en) * 2009-06-04 2012-05-29 Microsoft Corporation Geocoding by image matching
JP5263049B2 (ja) 2009-07-21 2013-08-14 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
EP2339537B1 (en) * 2009-12-23 2016-02-24 Metaio GmbH Method of determining reference features for use in an optical object initialization tracking process and object initialization tracking method
US20110181497A1 (en) * 2010-01-26 2011-07-28 Roni Raviv Object related augmented reality play system
US8947455B2 (en) * 2010-02-22 2015-02-03 Nike, Inc. Augmented reality design system
JP2011203823A (ja) * 2010-03-24 2011-10-13 Sony Corp 画像処理装置、画像処理方法及びプログラム
US20110234631A1 (en) * 2010-03-25 2011-09-29 Bizmodeline Co., Ltd. Augmented reality systems
CN102822770B (zh) 2010-03-26 2016-08-17 惠普发展公司,有限责任合伙企业 关联文件
JP5743416B2 (ja) * 2010-03-29 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US20110254765A1 (en) * 2010-04-18 2011-10-20 Primesense Ltd. Remote text input using handwriting
US8593402B2 (en) * 2010-04-30 2013-11-26 Verizon Patent And Licensing Inc. Spatial-input-based cursor projection systems and methods
JP2011244058A (ja) 2010-05-14 2011-12-01 Sony Corp 情報処理装置、情報処理システム、及びプログラム
US20120011142A1 (en) * 2010-07-08 2012-01-12 Qualcomm Incorporated Feedback to improve object recognition
US8818025B2 (en) * 2010-08-23 2014-08-26 Nokia Corporation Method and apparatus for recognizing objects in media content
KR101607419B1 (ko) * 2010-08-27 2016-03-29 인텔 코포레이션 원격 제어 장치
US8615136B2 (en) * 2010-10-08 2013-12-24 Industrial Technology Research Institute Computing device and method for motion detection
US8578299B2 (en) * 2010-10-08 2013-11-05 Industrial Technology Research Institute Method and computing device in a system for motion detection
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
US9529424B2 (en) * 2010-11-05 2016-12-27 Microsoft Technology Licensing, Llc Augmented reality with direct user interaction
KR101669119B1 (ko) * 2010-12-14 2016-10-25 삼성전자주식회사 다층 증강 현실 시스템 및 방법
US20120170800A1 (en) * 2010-12-30 2012-07-05 Ydreams - Informatica, S.A. Systems and methods for continuous physics simulation from discrete video acquisition
US20120224060A1 (en) * 2011-02-10 2012-09-06 Integrated Night Vision Systems Inc. Reducing Driver Distraction Using a Heads-Up Display
US8666195B1 (en) * 2011-03-15 2014-03-04 Google Inc. Image alignment
US8493353B2 (en) * 2011-04-13 2013-07-23 Longsand Limited Methods and systems for generating and joining shared experience
US8843346B2 (en) * 2011-05-13 2014-09-23 Amazon Technologies, Inc. Using spatial information with device interaction
WO2012166814A1 (en) * 2011-05-31 2012-12-06 Honda Motor Co., Ltd. Online environment mapping
US8223088B1 (en) * 2011-06-09 2012-07-17 Google Inc. Multimode input field for a head-mounted display
US8773513B2 (en) * 2011-07-01 2014-07-08 Seiko Epson Corporation Context and epsilon stereo constrained correspondence matching
US20130044912A1 (en) * 2011-08-19 2013-02-21 Qualcomm Incorporated Use of association of an object detected in an image to obtain information to display to a user
US9218063B2 (en) * 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US8453075B2 (en) * 2011-09-02 2013-05-28 International Business Machines Corporation Automated lithographic hot spot detection employing unsupervised topological image categorization
US9053483B2 (en) * 2011-09-30 2015-06-09 Microsoft Technology Licensing, Llc Personal audio/visual system providing allergy awareness
US9255813B2 (en) * 2011-10-14 2016-02-09 Microsoft Technology Licensing, Llc User controlled real object disappearance in a mixed reality display
US8963805B2 (en) * 2012-01-27 2015-02-24 Microsoft Corporation Executable virtual objects associated with real objects
US20140068526A1 (en) * 2012-02-04 2014-03-06 Three Bots Ltd Method and apparatus for user interaction
JP6208151B2 (ja) * 2012-02-06 2017-10-04 ソニー インタラクティブ エンタテインメント ヨーロッパ リミテッド 拡張現実のためのブックオブジェクト
GB2500416B8 (en) * 2012-03-21 2017-06-14 Sony Computer Entertainment Europe Ltd Apparatus and method of augmented reality interaction
US9696547B2 (en) * 2012-06-25 2017-07-04 Microsoft Technology Licensing, Llc Mixed reality system learned input and functions
US10025486B2 (en) * 2013-03-15 2018-07-17 Elwha Llc Cross-reality select, drag, and drop for augmented reality systems

Also Published As

Publication number Publication date
CN104081319A (zh) 2014-10-01
JP2013161267A (ja) 2013-08-19
CN104081319B (zh) 2017-08-25
US10401948B2 (en) 2019-09-03
WO2013118457A1 (en) 2013-08-15
US20150022444A1 (en) 2015-01-22
EP2812776A1 (en) 2014-12-17
EP2812776B1 (en) 2019-12-04

Similar Documents

Publication Publication Date Title
JP6044079B2 (ja) 情報処理装置、情報処理方法及びプログラム
US9626103B2 (en) Systems and methods for identifying media portions of interest
JP5962547B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN102770828B (zh) 用于人机界面的控制柄交互
US9229533B2 (en) Information processing apparatus, method, and program for gesture recognition and control
CN104145233B (zh) 通过照相机模块跟踪用户的头部来控制屏幕的方法和设备、及其计算机可读记录介质
US9761277B2 (en) Playback state control by position change detection
JP2020534592A (ja) 仮想カメラを制御するシステム及び方法
US20120102438A1 (en) Display system and method of displaying based on device interactions
TW201525835A (zh) 顯示控制裝置、顯示控制方法及程式
CN101833391A (zh) 信息处理设备、信息处理方法及程序
KR20200100046A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
EP3352051A1 (en) Information processing device, information processing method, and program
KR20140081636A (ko) 콘텐트 재생 방법 및 이를 위한 단말
CN106796810A (zh) 在用户界面上从视频选择帧
JP6414079B2 (ja) 情報処理システム、情報処理方法およびプログラム
WO2017134868A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN110235093A (zh) 经由语义抽象的对铰链式设备的导航性辅助
US20120229375A1 (en) Display device, display method and recording medium
US10976912B2 (en) Information processing device, information processing method, and recording medium
WO2014162757A1 (ja) 情報処理装置、タグ付け方法及びプログラム
KR20170093644A (ko) 휴대용 단말기 및 그 제어방법

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160415

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160809

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160920

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161031

R151 Written notification of patent or utility model registration

Ref document number: 6044079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250