JP6611501B2 - 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体 - Google Patents

情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体 Download PDF

Info

Publication number
JP6611501B2
JP6611501B2 JP2015143009A JP2015143009A JP6611501B2 JP 6611501 B2 JP6611501 B2 JP 6611501B2 JP 2015143009 A JP2015143009 A JP 2015143009A JP 2015143009 A JP2015143009 A JP 2015143009A JP 6611501 B2 JP6611501 B2 JP 6611501B2
Authority
JP
Japan
Prior art keywords
virtual
user
virtual object
display control
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015143009A
Other languages
English (en)
Other versions
JP2017027206A (ja
Inventor
基起 仲間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015143009A priority Critical patent/JP6611501B2/ja
Publication of JP2017027206A publication Critical patent/JP2017027206A/ja
Application granted granted Critical
Publication of JP6611501B2 publication Critical patent/JP6611501B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、例えばメガネ型のウェアラブルデバイスを用いたユーザインタフェースに関する。
デジタルカメラで撮像した「現実世界」に、コンピュータグラフィックス等で用いる仮想オブジェクトを重畳して拡張現実(AR:Augmented Reality)や複合現実(MR:Mixed Reality)に用いる技術が提案されている。例えば、スマートフォンやタブレット端末のカメラで撮像した現実世界の画像に仮想オブジェクトを重畳してタッチパネルディスプレイに表示することで、ユーザは表示された仮想オブジェクトをタッチ操作により簡単に操作することができる。
ヘッドマウントディスプレイ(HMD:Head Mount Display)やメガネ型のウェアラブルデバイスでARやMRを実現する場合、仮想オブジェクトは、現実世界に対応する仮想3次元空間の座標にマッピングされて表示される。この場合、仮想オブジェクトは、仮想3次元空間内の奥行きを表す奥行き情報を持つために、タッチパネルディスプレイに表示する場合よりも、よりリアルに現実世界に重畳される。
現実世界の画像に仮想オブジェクトが重畳された重畳画像では、狭い範囲に多数の仮想オブジェクトが表示されることがある。この場合、ユーザによる仮想オブジェクトの選択、操作が困難になる。特許文献1は、仮想オブジェクトと仮想オブジェクトを操作する指先との距離が閾値よりも小さい場合に、該仮想オブジェクトのサイズを大きくして、仮想オブジェクトを選択、操作しやすくする技術を開示する。
特開2012−108842号公報
特許文献1に開示される技術では、仮想オブジェクトと指先との距離が閾値よりも接近した場合に、該仮想オブジェクトを選択しやすくなるように、仮想オブジェクトの表示形態が変更される。そのために、仮想オブジェクトが仮想3次元空間の手が届かないほどの遠方に表示される場合、仮想オブジェクトと指先との距離が閾値よりも接近することが無く、仮想オブジェクトの選択、操作ができない場合がある。
本発明は、上記の問題を解決するために、仮想オブジェクトが仮想3次元空間の遠方に表示される場合であっても該仮想オブジェクトの選択、操作を容易にする技術を提供することを主たる課題とする。
上記課題を解決する本発明の情報処理装置は、撮像手段と、前記撮像手段で撮像した現実世界に存在する複数の物体のそれぞれの3次元的な位置と、ユーザの位置及び姿勢情報とに基づいて、前記複数の物体のそれぞれに対応する仮想オブジェクトの仮想3次元空間内での位置を決定する決定手段と、前記撮像手段で撮像した現実世界の画像に、前記決定手段によって決定された位置に従って前記仮想3次元空間内に配置された複数の前記仮想オブジェクトを重畳した重畳画像を、所定のディスプレイに表示させる表示制御手段と、ユーザの視線を検出する視線検出手段と、前記ユーザの視線に基づいて、前記仮想3次元空間内に配置された複数の前記仮想オブジェクトのうち操作対象を選択する選択手段と、を備え、前記表示制御手段は、前記操作対象として選択された前記仮想オブジェクトが前記ユーザの手が届く範囲に表示されるように、前記仮想3次元空間内で該仮想オブジェクトを前記ユーザの方に引き寄せる表示制御を行うことを特徴とする。
本発明によれば、仮想オブジェクトが仮想3次元空間の遠方に表示される場合であっても、該仮想オブジェクトを選択、操作可能な位置まで引き寄せて表示することで、仮想オブジェクトの選択、操作が容易になる。
(a)、(b)はAR技術の説明図。 ARグラスのハードウェア構成図。 ARグラスの機能ブロック図。 (a)〜(c)は引き寄せ処理の説明図。 仮想オブジェクトの操作処理を表すフローチャート。 仮想オブジェクトの重畳表示処理を表すフローチャート。 (a)〜(f)は仮想オブジェクトの操作の説明図。 (a)〜(c)は複数の仮想オブジェクトの引き寄せ処理の説明図。 (a)〜(c)は複数の仮想オブジェクトの引き寄せ処理の説明図。 (a)〜(c)は複数の仮想オブジェクトの引き寄せ処理の説明図。
以下、図面を参照して実施形態を詳細に説明する。ただし、本実施形態に記載されている構成要素はあくまでも例示であり、本発明の範囲をそれらのみに限定するものではない。
本実施形態では、メガネ型ウェアラブルデバイスである情報処理装置をユーザが装着して街中を散策する場合を例に説明を行う。ユーザが装着するメガネ型ウェアラブルデバイスである情報処理装置を、以降「ARグラス」と記す。なお、このような情報処理装置は、ヘッドマウントディスプレイにより実現することも可能である。図1は、本実施形態によるAR技術の説明図である。
ARグラス100は、ステレオカメラを搭載しており、現実世界を撮像してステレオ画像を生成する。ARグラス100は、GPS(Global Positioning System)センサ等の位置情報取得機能及びジャイロセンサ等の方位取得機能を備える。ユーザ101は、ARグラス100を頭部に装着する。ARグラス100のステレオカメラは、ユーザ101に装着された状態でユーザの前方を撮像するように設けられており、ユーザ101の視界と同じ領域を撮像する。図1(a)の例では、ステレオカメラがユーザ101の視界にある現実世界の物体(ここでは建物)を撮像する。仮想オブジェクト103a〜103eは、撮像した画像に含まれる現実世界の物体に紐付いて重畳表示される。図1(a)では、吹き出し形状の仮想オブジェクト103a〜103eが、関連する物体の付加情報(説明や広告など)を表す。
仮想オブジェクト103a〜103eは、図1(b)に示すように、現実世界に対応する仮想3次元空間内に位置する。仮想オブジェクト103a〜103eは、ステレオカメラで撮像された画像に重畳して表示される。そのために仮想オブジェクト103a〜103eは、仮想3次元空間における奥行きを表す奥行き情報を含む。仮想3次元空間は、ARグラス100の表示面104をxy平面として座標系が定義される。仮想オブジェクト103a〜103eの奥行き情報は、この座標系のz軸方向の値として表される。仮想3次元空間の座標系は、ユーザ101がARグラス100を装着して移動する間、その移動方向や向きに応じて変化するが、常に、表示面104がxy平面であり、奥行きがz軸方向である。
ARグラス100は、クラウドに代表されるネットワーク上の計算資源106を用いて仮想オブジェクト103a〜103eの重畳表示を行う。計算資源106には、現実世界に存在する山や川、建物といったランドマークの位置情報、並びにそれらに関連する付加情報が格納される。ARグラス100は、それら関連する付加情報を高速の無線通信105により取得する。本実施形態では、建物や場所に関連する地理的な付加情報を利用する例を説明しているが、例えば図書館の中であれば蔵書の情報、店舗の中であれば商品の情報を利用することができる。つまり現実世界に存在する物体とそれに関連する付加情報が結びついたデータの集まりを記憶する装置であれば、計算資源106として適用することができる。このような計算資源106は、ARグラス100が付加情報を記憶する大容量記憶装置を搭載する場合には不要となる。
ARグラス100は、視差を考慮して、左目用の画像及び右目用の画像を生成し、表示面104に表示する。そのためにARグラス100を装着したユーザ101は、ARグラス100を通して実空間を眺めることで、実空間に立体的に浮かぶ吹き出し形状の仮想オブジェクト103a〜103eを見ることになる。ユーザ101は、これらの仮想オブジェクト103a〜103eを、手102を指示入力体として操作する。ARグラス100は、手102の動きを認識することでユーザ101の操作を検出する。なお指示入力体には、手102の他に、スタイラスペンや差し棒などの操作器具を用いることができる。
ARグラス100を通して観測される仮想3次元空間の座標系と実空間の世界座標系とは、ARグラス100が搭載するGPSセンサ、ジャイロセンサ、及びステレオカメラから取得する情報に基づいて、適切にキャリブレーションされる。そのために、仮想空間の座標系と世界座標系とは、各点が1対1に対応する。
図2は、このようなARグラス100のハードウェア構成図である。ARグラス100は、CPU(Central Processing Unit)200、RAM(Random Access Memory)201、及びROM(Read Only Memory)202を備える。ARグラス100は、上記の通り、GPSセンサ210、ジャイロセンサ209、及びステレオカメラ207を備える。GPSセンサ210、ジャイロセンサ209、及びステレオカメラ207は、入力インタフェース(I/F)206に接続される。また、ARグラス100は、表示面104を形成するメガネ型のディスプレイ205を備える。ディスプレイ205は、光学シースルー方式のディスプレイ、ビデオシースルー方式のディスプレイのいずれの方式であってもよい。ディスプレイ205は、ディスプレイインタフェース(I/F)204に接続される。ARグラス100は、計算資源106との間で無線通信105を行うためのネットワークインタフェース(I/F)213を備える。ARグラス100は、仮想オブジェクト103a〜103eやUI(User Interface)部品を表示するためのデータやコンピュータプログラムを保存するストレージ212を備える。ストレージ212は、ストレージインタフェース(I/F)211に接続される。CPU200、RAM201、ROM202、ディスプレイI/F204、入力I/F206、ストレージI/F211、及びネットワークI/F213は、バス203を介して、相互に通信可能に接続される。
CPU200は、ROM202やストレージ212からコンピュータプログラムを読み出し、RAM201を作業領域に用いて実行することで、ARグラス100の各構成要素の動作を制御する。CPU200は、ステレオカメラ207で撮像された画像を取得し、ディスプレイ205に表示される画像を生成する。
ディスプレイI/F204は、CPU200の制御により、ディスプレイ205に画像を表示させる。入力I/F206は、ステレオカメラ207が撮像した画像、及びGPSセンサ210、ジャイロセンサ209による検出結果をCPU200に送信する。ステレオカメラ207は、視線センサ208を備える。視線センサ208は、ユーザ101の視線を検出し、検出した視線を表す視線情報を入力I/F206を介してCPU200に送信する。GPSセンサ210は、GPS衛星から受信する電波に応じて現在位置を表す位置情報及び現在時刻を検出する。ジャイロセンサ209は、ARグラス100の姿勢を表す角速度等を検出する。
ストレージ212は、ディスクデバイスやフラッシュメモリ、ネットワークドライブ、USBドライブ等の大容量記憶装置である。ストレージ212は、複数の記憶装置を並列に接続して構成されていてもよい。また、ストレージ212は、クラウド上の計算資源106に含まれる構成であってもよい。ネットワークI/F213は、クラウド上の計算資源106と無線通信105を行う。本実施形態では、高速無線通信の利用を想定しているが、有線通信を利用する形態であってもよい。
図3は、ARグラス100の機能ブロック図である。本実施形態では、各機能ブロックは、CPU200がコンピュータプログラムを実行することで実現されるが、少なくとも一部がハードウェアにより実現されてもよい。ARグラス100は、仮想オブジェクトの表示に必要な情報を取得するために、位置情報取得部300、方位・姿勢算出部301、データ入出力部302、記憶部303として機能する。ARグラス100は、現実世界の撮像及び仮想オブジェクトの操作を行うために、撮像部304、領域検出部305、距離算出部306、手領域検出部307、ジェスチャ認識部308、指先位置決定部309として機能する。ARグラス100は、仮想オブジェクトの選択のために、視線検出部310、オブジェクト選択部311、位置合せ処理部312、表示制御部313、表示部314として機能する。本実施形態の機能ブロックは、図1に示すように、ARグラス100に現実世界の画像と仮想オブジェクト103a〜103eとの重畳画像を表示し、ユーザ101による仮想オブジェクト103a〜103eの操作を可能にする。
位置情報取得部300は、GPSセンサ210が受信するGPS衛星からの電波により、ARグラス100を装着するユーザ101の実空間の位置を表す位置情報を取得する。位置情報取得部300は、取得した位置情報をRAM201に保存する。なお、ARグラス100がGPS衛星からの電波を受信できない場所、例えば屋内で使用される場合、位置情報取得部300は、Wi−Fi(登録商標)やBluetooh(登録商標)、超音波などを用いた屋内位置測位技術により、位置情報を取得してもよい。方位・姿勢算出部301は、ジャイロセンサ209が検出する角速度により、ユーザ101(ARグラス100)が向いている方位を表す方位情報並びにARグラス100の姿勢情報を算出する。方位・姿勢算出部301は、算出した方位・姿勢情報をRAM201に保存する。
データ入出力部302は、ストレージ212により実現される記憶部303及び計算資源106との間でデータの入出力を行う。例えばデータ入出力部302は、RAM201に保存した位置情報並びに方位情報を計算資源106に送信し、計算資源106からユーザ101の位置から見える実在の物体(図1では建物)に関連する付加情報を取得する。記憶部303は、仮想オブジェクト103a〜103eやUI(User Interface)部品を表示するためのデータの他に、位置情報取得部300で取得したARグラス100の過去の位置情報や入力履歴などを記憶する。
撮像部304は、ステレオカメラ207からステレオ画像を所定周期で取得し、RAM201に随時保存する。ステレオ画像は、ステレオカメラ207の2つの視点から撮像された2つのRGB画像から構成される。また、2つのRGB画像間にはズレ(視差)があり、それぞれ右目と左目に対応付けられる。保存された2つのRGB画像は、ARグラス100において順次処理される。なお、本実施形態において、撮像部304がステレオ画像を取得する周期は、ステレオカメラ207が撮像する画像のフレームレートに一致する。但し、フレームレートによらない所定の時間を取得周期として設定してもよい。また本実施形態では、左目に対応付けられた画像をマスター画像、右目に対応づけられた画像をスレーブ画像として処理するがこの限りではない。
領域検出部305は、RAM201に保存されている2つのRGB画像から、各RGB画像内の肌色領域(ユーザ101の手102を含む)とそれ以外の色の領域とを区別して検出する。領域検出部305は、検出した肌色領域をラベリングし、その結果をRAM201に保存する。
距離算出部306は、領域検出部305で検出された肌色領域に基づいて、ステレオ画像の各画素のARグラス100からの距離(深さ)を表す距離情報を算出する。具体的な算出方法は後述するが、距離算出部306は、ステレオ画像を構成する2つのRGB画像(マスター画像とスレーブ画像)から対応点を探索し、対応点における2つのRGB画像の視差から三角測量を用いて深さを算出する。「対応点」とは、空間中のある一点を2つの視点から同時に撮像したとき、それぞれの視点で撮像した画像中に写った当該点のことであり、一般的に「ステレオ対応点」と呼ばれる。距離算出部306は、算出した肌色領域の各画素の距離情報をRAM201に保存する。なお、距離算出部306は、2つのRGB画像の他に、赤外線ステレオカメラによる2つの赤外線画像を用いて、距離情報を算出してもよい。また、距離算出部306は、距離画像センサにより距離情報を算出してもよい。
手領域検出部307は、RAM201に保存される肌色領域と距離情報とに基づいて、所定の距離範囲内にある肌色領域を手領域として検出する。検出方法の詳細は後述する。手領域検出部307は、検出した手領域をラベリングし、その結果をRAM201に保存する。
ジェスチャ認識部308は、ラベリングされた手領域に基づいて、手102の形状を検出してジェスチャを認識する。本実施形態で認識するジェスチャは、ステレオカメラ207の画角内で、ユーザ101が手102を後述の「指差し形状」に変える動作である。ジェスチャ認識部308は、検出した手形状をRAM201に保存する。
指先位置決定部309は、ラベリングされた手領域、距離情報、及び手形状に基づいて指先位置を決定し、その結果をRAM201に保存する。指先位置決定部309の処理の詳細は後述する。
視線検出部310は、視線センサ208により、ユーザ101の左右の目の画像から、基準点となる目の動かない部分(例えば、目頭)と動く部分(例えば、虹彩)とを検出し、これらの位置関係に基づいてユーザ101の視線を検出する。
オブジェクト選択部311は、視線検出部310によって検出された視線に基づいて、操作対象となる仮想オブジェクトを選択する。
位置合わせ処理部312は、ユーザ101の位置、方位・姿勢情報、及び計算資源106から取得した付加情報を用いて、実空間の物体とそれに関連する仮想オブジェクトの表示位置の位置合わせを行う。位置合わせ処理部312は、位置合わせ結果をRAM201に保存する。
表示制御部313は、位置合わせ結果に応じて仮想オブジェクトを生成する。表示制御部313は、仮想オブジェクトに対するユーザ101の操作に応じて表示を制御する。表示制御部313は視差を考慮して左目用画像及び右目用画像を生成し、表示部314に出力する。
表示部314は、左目用、右目用の2つのディスプレイであり、表示制御部313から出力された左目用画像、右目用画像を対応するディスプレイに表示する。
このような構成のARグラス100は、スマートフォンやタブレット端末を用いたAR技術とは異なり、仮想オブジェクトを、奥行きを持って表現することができる。近くに表示されるべき仮想オブジェクトは近くに表示され、遠くに表示されるべき仮想オブジェクトは遠くに表示されるために、従来よりもリアルに、現実世界の画像に仮想オブジェクトを重畳表示することができる。このような表示では、ユーザ101は、手102が届かない位置に表示される仮想オブジェクト103a〜103eを操作することができない。また、例えば図1(a)の仮想オブジェクト103c〜103eのように小さく表示されたり、密集して表示される場合、ユーザ101は、付加情報を読み取ることができないこともある。そのために本実施形態のARグラス100は、ユーザ101が操作できない位置に表示される仮想オブジェクトを、ユーザ101が操作可能な範囲に表示されるように、仮想3次元空間内でユーザ101の方に引き寄せる。ユーザ101は、引き寄せられた仮想オブジェクトを選択、操作、閲覧することができるようになる。このような処理の実現方法について、以降説明する。
図4は、仮想オブジェクトをユーザ101が操作可能な範囲に引き寄せる引き寄せ処理の説明図である。図5は、ARグラス100による仮想オブジェクトの操作処理を表すフローチャートである。この処理は、ユーザ101がARグラス100を頭部に装着して電源を投入することで開始される。ARグラス100は、この処理を所定周期でステレオ画像を取得する度に実行する。
ARグラス100は、ステレオカメラ207で撮像した画像に仮想オブジェクトを重畳した重畳画像をディスプレイ205に表示する(S100)。図6は、仮想オブジェクトの重畳表示処理を表すフローチャートである。位置情報取得部300は、ユーザ101(ARグラス100)の実空間上の位置情報を、GPSセンサ210の検出結果から取得する(S200)。方位・姿勢算出部301は、ジャイロセンサ209の検出結果からユーザ101(ARグラス100)が向いている方位及びARグラス100の姿勢を表す方位・姿勢情報を算出する(S201)。
データ入出力部302は、取得した位置情報及び算出した方位・姿勢情報を計算資源106へ送信する(S202)。計算資源106は受信した位置情報及び方位・姿勢情報に応じて、ユーザ101の視界に存在する現実世界の物体(建物)の付加情報をARグラス100へ送信する。データ入出力部302は、計算資源106から、ユーザ101の視界に存在する現実世界の建物の付加情報を受信する。データ入出力部302は、受信した付加情報をRAM201に保存する。付加情報は、建物の名前や説明、広告以外に、ユーザ101の位置、ARグラス100の方位・姿勢でユーザ101が建物を見たときの、建物の大きさ、形状などの3次元情報を含み、後述する位置合わせ処理で利用される。S200〜S202の処理の間、撮像部304は、ユーザ101が見ている現実世界のステレオ画像をステレオカメラ207から取得してRAM201に保存する(S203)。
位置合わせ処理部312は、位置情報、方位・姿勢情報、及び付加情報に基づいて、撮像したステレオ画像に映っている建物と付加情報の位置合わせ処理を行う(S204)。位置合わせ処理部312は、ステレオ画像に映っている実空間の建物と、取得した付加情報とをマッチングする。位置合わせ処理部312は、マッチングの結果をRAM201に保存する。なお、本実施形態ではARグラス100で実空間上の建物とそれに関連する付加情報との位置合わせを行ったが、この限りではない。ARグラス100と計算資源106との無線通信105がさらに高速になれば、ARグラス100で撮像したステレオ画像をリアルタイムで計算資源106に送信して計算資源106で位置合わせを行い、その結果を受信する構成も可能である。
表示制御部313は、位置合わせ処理の結果に基づいて仮想オブジェクトを生成する(S205)。表示部314は、仮想オブジェクトをARグラス100のディスプレイ205に重畳表示する(S206)。図4(a)は、このようにして表示される画像の説明図である。表示画像400には、3つの吹き出し形状の仮想オブジェクト103a〜103cが、対応する建物に紐付いて表示される。仮想オブジェクト103aが最もARグラス100に近く、仮想オブジェクト103cが最もARグラス100から遠くなるように、各仮想オブジェクト103a〜103cの奥行きが設定される。表示画像400では、奥行き情報に基づいて遠近感を考慮して、仮想オブジェクト103a〜103cが異なる大きさで表示される。仮想オブジェクト103a〜103cは、いずれもユーザ101が手102で直接操作できない遠方に表示される。
仮想オブジェクトの重畳表示処理が終了すると、視線検出部310は、ユーザ101の右目及び左目のそれぞれの視線を検出し、これに基づいて表示画像上におけるユーザ101の視線を決定する(S101)。図4(a)の例では、視線検出部310は、左右の視線107a、107bを検出して、表示画像上における視線107を決定する。本実施形態において、ユーザ101の視線107は既定の小領域で表される。図7は、仮想オブジェクトの操作の説明図である。図7(a)に示すように、表示画像は、10*8の小領域801に分割されている。視線107は、この小領域801で表される。つまり、10*8の分解能で視線107の位置が検出される。なお、ピクセル単位で視線が検出可能であれば、画面上の1点(1ピクセル)を視線の位置として検出しても構わない。
視線107の決定後、オブジェクト選択部311は、ユーザ101の視線107の小領域に含まれる、或いは小領域に接する1以上の仮想オブジェクトを操作対象オブジェクトに選択する(S102)。図4(a)の例では、仮想オブジェクト103cが操作対象オブジェクトに選択される。操作対象オブジェクトは、例えば表示画像400において、色や線、形を変更することによって強調表示されてもよい。
オブジェクト選択部311は、操作対象オブジェクトが前フレームで選択された操作対象オブジェクトと同じか否かを判定する(S103)。つまりオブジェクト選択部311は、前回の周期で取得したステレオ画像に対する処理により選択した操作対象オブジェクトと、今回選択した操作対象オブジェクトとが同一であるか否かを判定する。操作対象オブジェクトが前フレームと異なる場合(S103:N)、オブジェクト選択部311は、操作対象オブジェクトが引き寄せ状態か否かを判定する(S104)。ここで「引き寄せ状態」とは、図4に示すように、仮想オブジェクト103をz軸のマイナス方向(ユーザ101の方向)へ近づける表示変更制御である。
操作対象オブジェクトが同じである場合(S103:Y)、或いは操作対象オブジェクトが引き寄せ状態ではない場合(S104:N)、領域検出部305は、RAM201に保存したステレオ画像から肌色領域の有無を検出する(S105)。領域検出部305は、マスター画像及びスレーブ画像中の各々について肌色領域の有無を検出する。
肌色領域が検出されなかった場合(S105:N)、ARグラス100は、処理を終了するか否かを判断する(S115)。本実施形態では、ARグラス100に設けられる物理ボタンやGUI(Graphical User Interface)により電源オフの指示が入力された場合に、ARグラス100が処理を終了する(S115:Y)。処理を終了しない場合(S115:N)、ARグラス100は、S100以降の処理を、処理の終了まで繰り返し実行する。
肌色領域が検出された場合(S105:Y)、距離算出部306は、検出されたステレオ画像の肌色領域を解析し、マスター画像の肌色領域の各画素に対応するARグラス100からの距離を算出する(S106)。例えば、マスター画像中の肌色領域の画素(m、n)の距離を算出する場合、距離算出部306は、まず画素(m、n)に対応する対応点(m1、n1)をスレーブ画像から探索する。距離算出部306は、マスター画像中の画素(m、n)とスレーブ画像中の対応点(m1、n1)との視差から、三角測量によって、画素(m、n)の距離(深さ)を求める。距離算出部306は、マスター画像中の全ての肌色領域の画素に対し、距離算出を行い、その結果をRAM201に保存する。
手領域検出部307は、マスター画像の肌色領域及び距離情報に基づいて、距離が20[cm]〜70[cm]の範囲にある肌色領域を手領域として検出する(S107)。手領域検出部307は、検出した手領域をラベリングして、RAM201に保存する。本実施形態で手領域を「距離が20[cm]〜70[cm]の範囲にある肌色領域」としたのは、人の手が届く範囲に基づいている。手領域として設定する領域を20[cm]より近くした場合、撮像されるステレオ画像は肌色領域ばかりとなってしまい、手かどうかの判断が難しくなる。また逆に、手領域として設定する肌色領域を70[cm]より大きくすると、背景の肌色がノイズとなってしまう可能性が高くなる。なお、このような設定理由が問題とならない場合、或いは解決可能な場合、手領域とする肌色領域を「20[cm]〜70[cm]」以外に設定してもよい。
ジェスチャ認識部308は、RAM201に保存された手領域のラベル情報と距離情報とに基づいて、手形状を検出する(S108)。本実施形態で検出する手形状を図7(c)、(d)に示す。ジェスチャ認識部308は、図7(c)、(d)の手領域を囲んだ凸領域802a、802bに基づいて手形状を検出する。例えば、ジェスチャ認識部308は、凸領域802a、802b中に含まれる手領域の割合により手形状を検出する。また、ジェスチャ認識部308は、検出したい指差し形状の画像をテンプレートとして用意しておき、撮像したステレオ画像とマッチングして手形状を検出してもよい。図7(b)は、指差し形状を例示する。また、ジェスチャ認識部308は、手領域の形状から既定の特徴量を抽出し、機械学習することによって手形状を検出してもよい。本実施形態では、手形状が指差し形状かそれ以外かを判定できれば十分である。
ジェスチャ認識部308は、検出した手形状による引き寄せジェスチャを認識したか否かを判定する(S109)。本実施形態において「引き寄せジェスチャ」は、ユーザ101がステレオカメラ207の画角内で手102を「指差し形状」に変える動作である。引き寄せジェスチャが認識されない場合(S109:N)、ARグラス100は、処理を終了するか否かを判断する(S115)。
引き寄せジェスチャを認識した場合(S109:Y)、指先位置決定部309は、RAM201に保存されている手領域と距離情報とから指先位置を決定する。指先位置は、例えば手領域に含まれる画素の中でARグラス100から遠い順に選定した複数個の画素を平均化することで決定される。例えば図7(b)の指差し形状の場合、指先位置決定部309は、白丸で表す位置を指先位置108に決定する。表示制御部313は、指先位置108から所定の距離に、操作対象オブジェクト(図4の例では、仮想オブジェクト103c)を含む平面と略平行な仮想タッチ平面を設定する(S110)。表示制御部313は、設定した仮想タッチ平面を既定の時間だけ表示させる。これは、ユーザの使い勝手をよくするために行われる。例えば、図4(b)に示すように、指先位置108の近傍に一定時間だけ仮想タッチ平面109が表示されれば、ユーザは、現在何の処理が行われているかを認知し易い。仮想タッチ平面109をずっと表示させておくことも可能であるが、その場合は仮想オブジェクト103やARグラス100を通して閲覧できるその他の情報が見えにくくなってしまう。仮想タッチ平面109を一定時間だけ表示する場合でも、仮想タッチ平面109の透過率をあげて透明にするなど、視認性を低下させない表示をする方が好ましい。
表示制御部313は、z軸方向の移動距離である引き寄せ位置を算出する(S111)。例えば、仮想3次元空間上でz=10[m]の位置に仮想オブジェクトが表示されており、ステレオ画像を1フレーム処理する毎に0.2[m]ずつ引き寄せる表示制御を行うとすると、最初のフレームを処理した後の位置z1=9.8[m]が引き寄せ位置となる。1フレーム毎に引き寄せる距離は、全仮想オブジェクトを通して均一でもよく、遠くに表示されている仮想オブジェクトほど大きな距離を引き寄せるように、表示制御を行ってもよい。
表示制御部313は、操作対象オブジェクトが複数であるか否かを判定する(S112)。操作対象オブジェクトが複数の場合(S112:Y)の処理については、後述する。操作対象オブジェクトが1つの場合(S112:N)、表示制御部313は、図4(b)に示すように、S111で算出した引き寄せ位置に基づいて、操作対象オブジェクトの表示位置を変更する。これにより操作対象オブジェクトとなっている仮想オブジェクトの奥行き情報が引き寄せ位置に基づいて更新される。操作対象オブジェクトは、更新された奥行き情報で表される位置に表示される。また、操作対象オブジェクトの状態を“引き寄せ状態”に変更する(S114)。ARグラス100は、操作対象オブジェクトの表示位置を変更して引き寄せ状態とすると、S100以降の処理を処理終了の指示があるまで繰り返し行う。
本実施形態では、操作対象オブジェクトへの視認性を高めるために、引き寄せ処理を開始したタイミングで操作対象オブジェクト以外の仮想オブジェクトを非表示にし、引き寄せ処理が中断或いは終了したタイミングで再びすべての仮想オブジェクトを表示する。しかし、その限りではない。例えば、操作対象オブジェクトより手前にある非操作対象の仮想オブジェクトのみを非表示にしてもよい。この場合、操作対象オブジェクトが引き寄せ表示制御によって徐々に近づくために、その動きに応じて非表示される非操作対象の仮想オブジェクトも随時変更される。
本実施形態では、図4(c)に示すように、仮想タッチ平面109上に操作対象オブジェクトが引き寄せられた時点で、操作対象オブジェクトの引き寄せ処理を停止する。操作対象オブジェクトが仮想タッチ平面109まで引き寄せられたことをユーザ101に通知するために、このタイミングで、仮想タッチ平面109が再び既定の時間表示される。表示画像400、401、402で示すように、表示制御部313は、仮想オブジェクト103cの吹き出し部分が指す位置(指し示している建物)が変化しないように表示制御する。これは、仮想オブジェクト103a〜103cと実空間上の建物の対応関係をユーザ101が常に把握できるようにするためである。仮想オブジェクト103cと実際の建物の対応関係を保持する方法としては、この他に、引き寄せ処理中も仮想オブジェクト103cが元々あった位置をグレーアウト/半透明化して表示し続けてもよい。
本実施形態では、ディスプレイ205の表示面104及びすべての仮想オブジェクト103a〜103cをxy平面に対して平行であるものとして表示し、奥行き方向をz軸として説明した。これは、ARグラス100の仮想3次元空間の座標系(ax、ay、az)と世界座標系(x、y、z)とを一致させている場合に相当する。しかし実際は、ユーザ101が見る方向によって、ARグラス100の仮想3次元空間の座標系と世界座標系との3軸の関係は変化する。つまり、図5のS111の処理において、表示制御部313は、実際にはARグラス100の座標系のaz方向に関して引き寄せ位置を算出し、それを世界座標系に変換する必要がある。また、仮想オブジェクトは、実際には表示面104(ARグラス座標系のaxay平面)に対して様々な傾き(角度)で表示される。本実施形態では、表示面104に対して傾いて表示される仮想オブジェクトをそのままの状態で引き寄せるため、設定する仮想タッチ平面109を操作対象オブジェクトがなす平面と略平行であるとした。
なお、本実施形態では詳述しないが、操作対象オブジェクトが仮想タッチ平面109まで引き寄せられた後、ユーザ101は、引き寄せられた操作対象オブジェクトに対してタッチ操作を行うことができる。その際、ARグラス100は、仮想タッチ平面109と指先位置108との接触を検出することでタッチ操作を検出する。つまり、図4(a)の表示画像400の状態では手が届かずに操作できなかった仮想オブジェクト103cが、引き寄せ表示制御によって図4(c)の表示画像402の状態となり、直接操作(タッチ操作)できるようになる。
S104で操作対象オブジェクトが引き寄せ状態である場合(S104:Y)の処理について説明する。この条件は、S114で操作対象オブジェクトが引き寄せ状態に設定され、かつ操作対象オブジェクトが前フレームと異なる場合(S103:N)に満たされる。これはユーザ101の視線が移動することによって操作対象オブジェクトが変更されたことに相当する。つまり、ユーザ101の興味が引き寄せ中の仮想オブジェクトから他の仮想オブジェクトに変化したことを示している。この場合、表示制御部313は、S116の処理において、引き寄せ表示制御をキャンセルし、仮想オブジェクトを最初の状態(図4(a)の表示画像400)に戻して表示する。また、操作対象オブジェクトの状態を引き寄せ状態ではない“通常状態”に戻す。
S112で操作対象オブジェクトが複数である場合(S112:Y)の処理について説明する。図8は、複数の仮想オブジェクトの引き寄せ処理の説明図である。この場合、ユーザ101の視線領域に含まれる、或いは接する仮想オブジェクトが図8(a)に示すように複数存在する。ここでは、オブジェクト選択部311は、仮想オブジェクト103c、103d、103eを操作対象オブジェクトとして選択する(S102)。S103〜S110の処理は、操作対象オブジェクトが1つの場合と同様の処理である。
S111の処理において、表示制御部313は、複数の操作対象オブジェクトのそれぞれに対して引き寄せ位置を算出する。操作対象オブジェクトが複数であるために(S112:Y)、表示制御部313は、仮想タッチ平面109に並行なxy平面内での各操作対象オブジェクトの移動位置を算出する(S113)。本実施形態では、引き寄せる複数の操作対象オブジェクトが仮想タッチ平面109に到達した際にお互い重なり合う部分が生じないように、表示制御部313は、各操作対象オブジェクトの移動方向及び1フレーム毎の移動距離を算出する。
表示制御部313は、図8(b)に示すように、算出した移動方向及び1フレーム毎の移動距離、S111で算出した引き寄せ位置に基づいて、各操作対象オブジェクトを引き寄せ表示する(S114)。操作対象オブジェクトが複数の場合においても、仮想タッチ平面109まで引き寄せられた複数の操作対象オブジェクトに対して、ユーザ101は、タッチ操作を行うことができる。
本実施形態では、図8(c)に示すように、操作対象である仮想オブジェクト103c、103d、103eが仮想タッチ平面109へ同時に到達するように引き寄せ処理を行う。各操作対象オブジェクトが仮想タッチ平面109に到達したタイミングで引き寄せ処理が停止する。図8(a)で示すように、引き寄せる前の状態では、ARグラス100に対して仮想オブジェクト103cが最も近く、仮想オブジェクト103dが最も遠くに表示されている。従って、各操作対象オブジェクトを仮想タッチ平面109に同時に到達させるために、表示制御部313は、「1フレーム毎の移動距離」を操作対象オブジェクト毎に設定して、引き寄せ位置を決定する。なお、「1フレーム毎の移動距離」を各操作対象オブジェクトで一定にして引き寄せてもよい。その場合、最も手前に表示されている操作対象オブジェクト(図7の場合は仮想オブジェクト103c)が、仮想タッチ平面109に到達したタイミングで引き寄せ処理が停止する。
以上、説明したように、本実施形態のARグラス100は、遠くに表示されて操作できない仮想オブジェクトを操作可能な範囲内(手の近く)に引き寄せる表示制御を行う。このような処理により、ユーザ101は、仮想オブジェクトの表示位置に関係なく、すべての仮想オブジェクトに対して直観的な操作を行うことが可能になる。つまり、ユーザ101は、近く(手が届く範囲)に表示されている仮想オブジェクトに対しては「直ちにタッチ操作」、遠く(手が届かない)に表示されている仮想オブジェクトに対しては、「引き寄せてからタッチ操作」を行う。これにより、仮想オブジェクトに対する最終的な操作方法がタッチ操作に統一される。その結果、複数の操作方法を覚えなければならないというユーザの認知負荷を低減でき、操作性(ユーザビリティ)が向上する。
なお、本実施形態では片手を使った操作について説明したが、両手を使った操作であってもよい。例えば、一方の手で仮想オブジェクトを引き寄せている状態で、他方の手を図7(e)に示すように、掌をARグラス100側に向けて傾ける。これにより、引き寄せ中の仮想オブジェクトが仮想タッチ平面109まで一気に引き寄せられる(引き寄せ表示制御のショートカット)。
(変形例1)
図9は、複数の操作対象オブジェクトの引き寄せ処理の変形例の説明図である。この例では、図9(a)に示すように、仮想オブジェクト103c、103dが操作対象オブジェクトとなる。
図9(b)に示すように、複数の操作対象オブジェクトは、仮想タッチ平面109の方へ引き寄せられる。ディスプレイ205の表示が表示画像600から表示画像601に変わり、ユーザ101の視線及び指先位置108は、目的の操作対象オブジェクトに移動する。ARグラス100は、視線検出部310及び指先位置決定部309により、視線107の移動及び指先位置108の移動をそれぞれ検出することで、操作対象オブジェクトを絞り込む。図9は、操作対象である複数の仮想オブジェクト103c、103dが最終的に仮想オブジェクト103cのみに絞り込まれていることを示す。その結果、図9(c)に示すように、表示制御部313は、絞り込まれた仮想オブジェクト103cを仮想タッチ平面109まで引き寄せ、途中で操作対象外となった仮想オブジェクト103dを元の表示位置に戻す表示制御を行う。なお、表示制御部313は、仮想オブジェクト103dを、元に戻さずその場で停止させる或いは非表示にしてもよい。
このような表示制御を行うのは、図9の初期の表示画像600の状態ではユーザ101が仮想オブジェクトの内容が分からない(見えない)ためである。ユーザ101は表示内容がわからないため、当初は複数の仮想オブジェクトを引き寄せるが、徐々に近づいて表示内容がわかるようになると、目的の仮想オブジェクトを把握できるようになる。この時点で操作対象となる仮想オブジェクトを更に絞り込み、ユーザ101が意図する仮想オブジェクトのみを引き寄せる。
以上、説明したように、ARグラス100は、複数の操作対象となる仮想オブジェクトを引き寄せ処理中にユーザ101の視線及び指先位置に応じて絞り込んでもよい。絞り込まれた仮想オブジェクトについては引き寄せを継続し、操作対象から外れた仮想オブジェクトについては元の位置まで戻す。その結果、大まかに仮想オブジェクトを選択した後に、徐々に絞り込んでいくといったより柔軟な仮想オブジェクトの選択操作が可能となる。
(変形例2)
図10は、複数の操作対象オブジェクトの引き寄せ処理の変形例の説明図である。この例では、図10(a)に示すように、仮想オブジェクト103c〜103eが操作対象オブジェクトとなる。
図10(b)に示すように、複数の操作対象オブジェクトは、仮想タッチ平面109の方へ引き寄せられる。但し、ここではジェスチャ認識部308で検出するユーザ101の手の形状が上記の実施形態とは異なる。S108の処理において、ジェスチャ認識部308は、図7(c)、(d)に示す「指差し形状」、「手を開く形状」及びそれ以外の手の形状を検出する。「手を開く形状」を検出した場合、引き寄せ処理が行われる。ディスプレイ205の表示が表示画像700から表示画像701に変わる。このとき、複数の操作対象オブジェクト同士の重なり具合や位置関係は変化しない。
引き寄せ処理は、操作対象オブジェクトが仮想タッチ平面109に到達したタイミングではなく、ジェスチャ認識部308が、「指差し形状」を検出したタイミングで停止する。このような処理では、仮想オブジェクトの引き寄せからタッチ操作までを、一連の動作としてユーザ101は行うことができる。つまり、引き寄せ中にユーザ101が手形状を「指差し形状」に変更するというジェスチャは、ユーザ101が操作したいと思った仮想オブジェクトが手の届く範囲に近づき、タッチ操作しようとするユーザ101の意図と捉えることができる。その結果、ユーザ101はより直観的に仮想オブジェクトを操作することができる。
なお、図10(c)に示すように、仮想タッチ平面109を通過して、仮想タッチ平面109よりもユーザ101に接近した操作対象オブジェクト(この場合は仮想オブジェクト103c)は、表示画像702に表示されない。仮想タッチ平面109の近傍にある操作対象オブジェクトを強調表示することで、引き寄せを停止するタイミングをユーザにフィードバックしてもよい。ユーザ101が手形状を「指差し形状」から「手を開く形状」に変更すると、引き寄せ表示制御が再開される。図7(f)に示すように、「手を開く形状」で手102を前方(ARグラス100から離れる方向)に2回倒すと、仮想タッチ平面109を通り過ぎて非表示となった操作対象オブジェクトを再び仮想タッチ平面109上に戻し、表示してもよい。この処理は、ユーザ101が操作したいと思っていた仮想オブジェクトが仮想タッチ平面109を通り過ぎて非表示となってしまった場合のアンドゥ機能として有効である(引き寄せ表示制御の部分的なキャンセル)。
(変形例3)
操作対象オブジェクトを引き寄せる際の仮想オブジェクトの速度は、ユーザ101が自在に変更可能であってもよい。この場合、ARグラス100は、撮像部304で撮像したステレオ画像を、領域検出部305、距離算出部306、及び手領域検出部307により処理する過程で、ユーザ101の手102のz軸方向における傾きを求めて、RAM201に保存する。
ARグラス100は、S108及びS109の処理において、ジェスチャ認識部308が「手を開く形状」を検出したタイミングで、引き寄せ表示制御を開始する。表示制御部313は、RAM201に保存した手102のz軸方向の傾きに応じて、操作対象オブジェクトを引き寄せる速度を変更する。図7(e)に示すように、掌をARグラス100側に向けて徐々に倒すと、倒した角度(手102の傾き)に応じて、引き寄せ速度は増加する。図7(f)に示すように、逆に手の甲をARグラス100側に向けて徐々に倒すと、倒した角度に応じて、引き寄せ速度を減速する。引き寄せられていた操作対象オブジェクトは、負の速度に応じて元の表示位置に戻るように表示される。
以上、説明したように、引き寄せ速度をユーザ101が自在に変更することで、仮想オブジェクトに対する操作性が向上する。
[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPU、MPU等)がプログラムを読み出して実行する処理である。

Claims (20)

  1. 撮像手段と、
    前記撮像手段で撮像した現実世界に存在する複数の物体のそれぞれの3次元的な位置と、ユーザの位置及び姿勢情報とに基づいて、前記複数の物体のそれぞれに対応する仮想オブジェクトの仮想3次元空間内での位置を決定する決定手段と、
    前記撮像手段で撮像した現実世界の画像に、前記決定手段によって決定された位置に従って前記仮想3次元空間内に配置された複数の前記仮想オブジェクトを重畳した重畳画像を、所定のディスプレイに表示させる表示制御手段と、
    ユーザの視線を検出する視線検出手段と、
    前記ユーザの視線に基づいて、前記仮想3次元空間内に配置された複数の前記仮想オブジェクトのうち操作対象を選択する選択手段と、を備え、
    前記表示制御手段は、前記操作対象として選択された前記仮想オブジェクトが前記ユーザの手が届く範囲に表示されるように、前記仮想3次元空間内で該仮想オブジェクトを前記ユーザの方に引き寄せる表示制御を行うことを特徴とする、
    情報処理装置。
  2. 前記決定手段は、前記仮想オブジェクトの前記仮想3次元空間での前記ユーザから見た奥行き方向における位置を、該仮想オブジェクトに対応する物体の前記現実世界での前記ユーザから見た奥行き方向における位置に基づいて決定することを特徴とする、請求項1記載の情報処理装置。
  3. 前記複数の物体の現実世界に存在する3次元的な位置に関する情報、および前記ユーザの方位・姿勢情報を取得する取得手段を備え、
    前記決定手段は、前記取得手段によって取得された情報に基づいて前記仮想オブジェクトの前記仮想3次元空間内での位置を決定することを特徴とする請求項1または2記載の情報処理装置。
  4. 前記現実世界に存在する複数の物体は、建物を含むことを特徴とする請求項1〜3のいずれか1項記載の情報処理装置。
  5. 前記現実世界に存在する複数の物体に対応する前記仮想オブジェクトは、前記物体に関する付加情報をユーザに提示するために表示され、前記付加情報は、前記物体の名前や説明、広告を含むことを特徴とする請求項1〜4のいずれか1項記載の情報処理装置。
  6. 前記撮像手段で撮像した画像から、前記ユーザが指示を行うための指示入力体の動きを認識するジェスチャ認識手段を備えており、
    前記選択手段は、前記ユーザの視線に基づいて複数の前記仮想オブジェクトを選択し、
    前記表示制御手段は、前記ジェスチャ認識手段で認識した前記指示入力体の動きに応じて、前記操作対象として選択された前記複数の仮想オブジェクトを前記ユーザの方に引き寄せる表示制御を行うことを特徴とする、
    請求項1〜5のいずれか1項記載の情報処理装置。
  7. 前記ジェスチャ認識手段は、前記指示入力体の第1のジェスチャ及び第2のジェスチャを認識し、
    前記表示制御手段は、前記ジェスチャ認識手段が前記第1のジェスチャを認識すると、前記仮想オブジェクトを前記ユーザに向かって引き寄せ、前記ジェスチャ認識手段が前記第2のジェスチャを認識すると、該仮想オブジェクトの引き寄せを停止する表示制御を行うことを特徴とする、
    請求項記載の情報処理装置。
  8. 前記表示制御手段は、前記複数の仮想オブジェクトのうち、前記操作対象として選択されていない仮想オブジェクトを非表示にし、前記仮想オブジェクトの引き寄せが停止すると、非表示にした仮想オブジェクトを再び表示することを特徴とする、
    請求項記載の情報処理装置。
  9. 前記表示制御手段は、前記操作対象として選択された前記仮想オブジェクトを引き寄せる際に前記ユーザの視線が移動して他の仮想オブジェクトを選択すると、すでに引き寄せている前記仮想オブジェクトの引き寄せを停止して、前記他の仮想オブジェクトを前記ユーザの方に引き寄せる表示制御を行うことを特徴とする、
    請求項7又は8記載の情報処理装置。
  10. 前記表示制御手段は、前記ジェスチャ認識手段が前記指示入力体の第3のジェスチャを認識すると、前記操作対象として選択された前記仮想オブジェクトを引き寄せる速度を変えることを特徴とする、
    請求項6〜9のいずれか1項記載の情報処理装置。
  11. 前記表示制御手段は、前記仮想3次元空間で前記ユーザの手が届く範囲に仮想タッチ平面を設け、前記操作対象として選択された前記仮想オブジェクトを前記仮想タッチ平面まで引き寄せる表示制御を行うことを特徴とする、
    請求項1〜10のいずれか1項記載の情報処理装置。
  12. 前記表示制御手段は、前記所定のディスプレイに、前記仮想タッチ平面を既定の時間だけ表示させることを特徴とする、
    請求項11記載の情報処理装置。
  13. 前記表示制御手段は、前記操作対象として選択された1以上の前記仮想オブジェクトが前記仮想タッチ平面で重ならないように、前記所定のディスプレイに表示させることを特徴とする、
    請求項11又は12記載の情報処理装置。
  14. 前記表示制御手段は、前記操作対象として選択された1以上の前記仮想オブジェクトが前記仮想タッチ平面よりも前記ユーザに接近すると、該仮想オブジェクトを非表示にすることを特徴とする、
    請求項11〜13のいずれか1項記載の情報処理装置。
  15. 前記表示制御手段は、前記ユーザの視線が変化して選択する前記仮想オブジェクトが変わると、引き寄せていた前記仮想オブジェクトを元の位置に戻すことを特徴とする、
    請求項1〜14のいずれか1項記載の情報処理装置。
  16. 前記表示制御手段は、前記所定のディスプレイに、は、前記撮像手段が撮像した前記現実世界に存在する複数の物体の画像に紐付けて複数の前記仮想オブジェクトを重畳した前記重畳画像を表示させることを特徴とする、
    請求項1〜15のいずれか1項記載の情報処理装置。
  17. メガネ型ウェアラブルデバイスであり、
    前記撮像手段は、ユーザに装着されたときに前記ユーザの視界を撮像することを特徴とする、
    請求項1〜16のいずれか1項記載の情報処理装置。
  18. 撮像手段を備えた情報処理装置により実行される方法であって、
    前記撮像手段で撮像した現実世界に存在する複数の物体のそれぞれの3次元的な位置と、ユーザの位置及び姿勢情報とに基づいて、複数の前記物体のそれぞれに対応する仮想オブジェクトの仮想3次元空間内での位置を決定し、
    前記撮像手段で撮像した現実世界を撮影した画像に、前記決定手段によって決定された位置に従って前記仮想3次元空間内に配置された複数の前記仮想オブジェクトを重畳した重畳画像を、所定のディスプレイに表示させ、
    ユーザの視線を検出して、検出した前記ユーザの視線に基づいて、前記仮想3次元空間内に配置された複数の前記仮想オブジェクトのうち操作対象を選択し、
    前記操作対象として選択された前記仮想オブジェクトが前記ユーザの手が届く範囲に表示されるように、前記仮想3次元空間内で該仮想オブジェクトを前記ユーザの方に引き寄せる表示制御を行うことを特徴とする、
    仮想オブジェクトの操作方法。
  19. 撮像手段を備えたコンピュータを、
    前記撮像手段で撮像した現実世界に存在する複数の物体のそれぞれの3次元的な位置と、ユーザの位置及び姿勢情報とに基づいて、前記複数の物体のそれぞれに対応する仮想オブジェクトの仮想3次元空間内での位置を決定する決定手段、
    前記撮像手段で撮像した現実世界の画像に、前記決定手段によって決定された位置に従って前記仮想3次元空間内に配置された複数の前記仮想オブジェクトを重畳した重畳画像を、所定のディスプレイに表示させる表示制御手段、
    ユーザの視線を検出する視線検出手段、
    前記ユーザの視線に基づいて、前記仮想3次元空間内に配置された複数の前記仮想オブジェクトのうち操作対象を選択する選択手段、として機能させ、
    前記表示制御手段を、前記操作対象として選択された前記仮想オブジェクトが前記ユーザの手が届く範囲に表示されるように、前記仮想3次元空間内で該仮想オブジェクトを前記ユーザの方に引き寄せる表示制御を行うように機能させるためのコンピュータプログラム。
  20. 請求項19記載のコンピュータプログラムを記憶するコンピュータにより読み取り可能な記憶媒体。
JP2015143009A 2015-07-17 2015-07-17 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体 Active JP6611501B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015143009A JP6611501B2 (ja) 2015-07-17 2015-07-17 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015143009A JP6611501B2 (ja) 2015-07-17 2015-07-17 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2017027206A JP2017027206A (ja) 2017-02-02
JP6611501B2 true JP6611501B2 (ja) 2019-11-27

Family

ID=57949768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015143009A Active JP6611501B2 (ja) 2015-07-17 2015-07-17 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体

Country Status (1)

Country Link
JP (1) JP6611501B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024172607A1 (ko) * 2023-02-17 2024-08-22 삼성전자 주식회사 아이콘을 표시하기 위한 전자 장치, 그 동작 방법과, 비 일시적 컴퓨터 판독 가능 저장 매체

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3438789A4 (en) * 2016-03-29 2019-03-27 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
EP3451135A4 (en) 2016-04-26 2019-04-24 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
JP6342038B1 (ja) * 2017-05-26 2018-06-13 株式会社コロプラ 仮想空間を提供するためのプログラム、当該プログラムを実行するための情報処理装置、および仮想空間を提供するための方法
KR102431712B1 (ko) * 2017-09-04 2022-08-12 삼성전자 주식회사 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품
JP6958141B2 (ja) * 2017-09-05 2021-11-02 富士フイルムビジネスイノベーション株式会社 情報処理装置、画像形成装置、および、プログラム
JP6864593B2 (ja) * 2017-09-27 2021-04-28 株式会社Nttドコモ 情報処理装置
WO2019142621A1 (ja) * 2018-01-18 2019-07-25 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP7247532B2 (ja) * 2018-11-19 2023-03-29 東京電力ホールディングス株式会社 制御装置、プログラムおよびシステム
JP7178888B2 (ja) * 2018-12-03 2022-11-28 ルネサスエレクトロニクス株式会社 情報入力装置
WO2020179027A1 (ja) 2019-03-06 2020-09-10 マクセル株式会社 ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
CN113853569A (zh) * 2019-05-22 2021-12-28 麦克赛尔株式会社 头戴式显示器
CN111556283B (zh) * 2020-03-18 2022-04-19 深圳市华橙数字科技有限公司 监控摄像头管理方法、装置、终端及存储介质
JP2022123692A (ja) * 2021-02-12 2022-08-24 ソニーグループ株式会社 画像処理装置、画像処理方法、画像処理システム
WO2023026700A1 (ja) * 2021-08-26 2023-03-02 株式会社Nttドコモ 表示制御装置
CN114461328B (zh) * 2022-02-10 2023-07-25 网易(杭州)网络有限公司 虚拟物品布设方法、装置及电子设备
WO2024075565A1 (ja) * 2022-10-04 2024-04-11 ソニーグループ株式会社 表示制御装置および表示制御方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038470A (ja) * 2002-07-02 2004-02-05 Canon Inc 複合現実感装置および情報処理方法
KR20120080072A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법
JP2013174642A (ja) * 2012-02-23 2013-09-05 Toshiba Corp 映像表示装置
JP6007712B2 (ja) * 2012-09-28 2016-10-12 ブラザー工業株式会社 ヘッドマウントディスプレイ、それを作動させる方法およびプログラム
EP2930693B1 (en) * 2012-12-10 2020-06-24 Sony Corporation Display control device, display control method and program
US9996150B2 (en) * 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
WO2014128810A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置
TWI649675B (zh) * 2013-03-28 2019-02-01 新力股份有限公司 Display device
JP5888372B2 (ja) * 2013-08-29 2016-03-22 キヤノンマーケティングジャパン株式会社 情報処理システムとその処理方法及びプログラム
JP2015095147A (ja) * 2013-11-13 2015-05-18 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024172607A1 (ko) * 2023-02-17 2024-08-22 삼성전자 주식회사 아이콘을 표시하기 위한 전자 장치, 그 동작 방법과, 비 일시적 컴퓨터 판독 가능 저장 매체

Also Published As

Publication number Publication date
JP2017027206A (ja) 2017-02-02

Similar Documents

Publication Publication Date Title
JP6611501B2 (ja) 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
CN109313500B (zh) 纤细形状因子的无源光学和惯性跟踪
US9972136B2 (en) Method, system and device for navigating in a virtual reality environment
KR101844390B1 (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
US9430698B2 (en) Information input apparatus, information input method, and computer program
US10852847B2 (en) Controller tracking for multiple degrees of freedom
CN108469899B (zh) 识别可穿戴显示装置的观察空间中的瞄准点或区域的方法
US10591988B2 (en) Method for displaying user interface of head-mounted display device
US9933853B2 (en) Display control device, display control program, and display control method
US10438411B2 (en) Display control method for displaying a virtual reality menu and system for executing the display control method
JP2017059062A (ja) 情報処理装置、情報処理方法およびプログラム
EP3227862A1 (en) Mixed-reality visualization and method
JP6499384B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP5656514B2 (ja) 情報処理装置及び方法
KR20150093831A (ko) 혼합 현실 환경에 대한 직접 상호작용 시스템
WO2019142560A1 (ja) 視線を誘導する情報処理装置
WO2015093130A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
CN117043722A (zh) 用于地图的设备、方法和图形用户界面
KR101338958B1 (ko) 멀티터치 단말기에서 가상물체의 3차원 움직임 조작시스템 및 방법
Lee et al. Tunnelslice: Freehand subspace acquisition using an egocentric tunnel for wearable augmented reality
KR20180060403A (ko) 영상 기반의 드론 제어장치
WO2017217375A1 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
US11899834B2 (en) Information processing device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191029

R151 Written notification of patent or utility model registration

Ref document number: 6611501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151