JP2017199085A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2017199085A
JP2017199085A JP2016087328A JP2016087328A JP2017199085A JP 2017199085 A JP2017199085 A JP 2017199085A JP 2016087328 A JP2016087328 A JP 2016087328A JP 2016087328 A JP2016087328 A JP 2016087328A JP 2017199085 A JP2017199085 A JP 2017199085A
Authority
JP
Japan
Prior art keywords
image
display device
virtual reality
instruction
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016087328A
Other languages
English (en)
Other versions
JP6765846B2 (ja
JP2017199085A5 (ja
Inventor
康彦 上原
Yasuhiko Uehara
康彦 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016087328A priority Critical patent/JP6765846B2/ja
Publication of JP2017199085A publication Critical patent/JP2017199085A/ja
Publication of JP2017199085A5 publication Critical patent/JP2017199085A5/ja
Application granted granted Critical
Publication of JP6765846B2 publication Critical patent/JP6765846B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 現実空間に重ねて表示される仮想現実空間の画像に対して選択された部位の調整を容易に且つ確実に行えるようにする。【解決手段】 HMD102の位置および姿勢と音声コマンドとに基づいて、MR画像に対して体験者により選択された部品(仮想物体の部位)を自動的に選択し直し、MR画像において強調表示する部品を、選択し直した部品に変更する。【選択図】 図2

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、現実空間に重なるように仮想現実空間の画像を表示するために用いて好適なものである。
現実空間と仮想空間との繋ぎ目のない結合を目的とした、複合現実感(MR:Mixed Reality)に関する研究が近年、盛んに行われている。複合現実感の提示を行う画像表示装置は、例えば次のような構成を有する装置である。即ち、ビデオカメラ等の撮像装置が撮像した現実空間の画像上に、撮像装置の位置および姿勢に応じて生成した仮想現実空間の画像(例えばコンピュータグラフィックスにより描画された仮想物体や文字情報等)を重ねて描画した画像を表示する装置である。このような装置には、例えば、HMD(ヘッドマウントディスプレイ、頭部装着型ディスプレイ)を用いることができる。
また、係る画像表示装置は、光学シースルー方式によっても実現される。即ち、係る画像表示装置は、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置および姿勢に応じて生成した仮想現実空間の画像を表示することによっても実現される。この場合には、現実空間の画像ではなく、実際の現実空間に重なるように仮想現実空間の画像が表示される。
このような画像表示装置の応用として、自動車・航空機などの製造業において開発中の製品をコンピュータグラフィックス(CG)画像として、現実空間に重ねて表示することが考えられる。このようにすれば、自由な視点から製品を確認、検討することで、実寸大の模型を作製せずにデザイン等の検討を行うことができる。このようなCGの位置を指定する技術として特許文献1に記載の技術がある。特許文献1に記載の技術では、CGの一点を指示する主ポインタを表示すると共に、当該主ポインタと間隔を空けて補助ポインタを表示する。主ポインタの位置が移動すると、補助ポインタも主ポインタとの間隔を保ったまま移動する。補助ポインタがCG上の仮想物体と重複すると、当該補助ポインタの仮想物体と重複している部分を非表示にし、主ポインタと仮想物体との距離をユーザに把握させる。
特開平6−83935号公報
しかしながら、特許文献1に記載の技術では、一方向(奥行方向)でしか仮想現実空間の画像の部位を指定することができない。従って、当該方向以外の方向においては、体験者が誤った部位を指定する虞がある。特許文献1に記載の技術では、このような場合の補正の手立てがない。
本発明は、このような問題点に鑑みてなされたものであり、現実空間に重ねて表示される仮想現実空間の画像に対して選択された部位の調整を容易に且つ確実に行えるようにすることを目的とする。
本発明の情報処理装置は、現実空間に重なるように表示装置により表示された仮想現実空間の画像の部位をユーザによる第1の指示に基づいて指定する指定手段と、前記指定手段により指定された前記仮想現実空間の画像の部位をユーザによる第2の指示に基づいて補正する補正手段と、を有し、前記第2の指示は、前記第1の指示のやり直しとは異なる指示であって、前記表示装置を使用するユーザが、前記表示装置により表示された前記仮想現実空間の画像を見ながら行うことが可能な指示であることを特徴とする。
本発明によれば、現実空間に重ねて表示される仮想現実空間の画像に対して選択された部位の調整を容易に且つ確実に行うことができる。
画像表示システムの構成を示す図である。 仮想現実表示デバイスの機能的な構成の第1の例を示す図である。 画像表示システムの処理を説明するフローチャートである。 仮想物体の配置の一例を示す図である。 仮想現実表示デバイスの機能的な構成の第2の例を示す図である。 CGモデルの構造を表す図である。
以下に、図面を参照しながら、実施形態を説明する。
(第1の実施形態)
まず、第1の実施形態を説明する。
図1は、画像表示システムの構成の一例を示す図である。画像表示システムは、仮想現実表示デバイス101と、HMD(Head Mounted Display)102と、仮想レーザーデバイス103とを有する。
仮想現実表示デバイス101とHMD102は通信路104で相互に接続されている。通信路104は、仮想現実表示デバイス101とHMD102とが通信を行うために使われる通信路である。当該通信には、例えば、仮想現実表示デバイス101で生成された画像をHMD102に送信することと、HMD102で取得された現実空間の画像を仮想現実表示デバイス101に送信することとが含まれる。通信路104では、例えば、HDMI(登録商標)やIEEE1394などの画像送受信プロトコルが使用される。この他、通信路104に、USB(Universal Serial Bus)やEthernet(登録商標)などを使用してもよい。仮想現実表示デバイス101とHMD102とを同一のコンピュータに組み込み、通信路104を、ソフトウェアプロセス間の通信路としてもよい。
同様に、仮想現実表示デバイス101と仮想レーザーデバイス103は通信路105で相互に接続されている。通信路105は、仮想レーザーデバイス103と仮想現実表示デバイス101とが通信を行うために使われる通信路である。例えば、仮想レーザーデバイス103から仮想現実表示デバイス101へ、通信路105を介して、仮想レーザーデバイス103の位置姿勢情報などが送信される。通信路105では、例えば、Bluetooth(登録商標)などの無線通信プロトコルが使用される。この他、通信路105に、USBなどの有線接続を使用してもよい。仮想レーザーデバイス103を仮想現実表示デバイス101と同一のコンピュータに組み込み、通信路105をソフトウェアプロセス間の通信路としてもよい。
図2は、仮想現実表示デバイス101の機能的な構成の一例を示すブロック図である。前述したように本実施形態の画像表示システムは、仮想現実表示デバイス101と、HMD102と、仮想レーザーデバイス103とを有する。HMD102は、表示装置の一例であり、頭部装着型の撮影・表示デバイスである。本実施形態では、頭部装着型のカメラ内蔵型ディスプレイを用いるが、手持ち型のハンドヘルドディスプレイを用いてもよい。頭部装着型のカメラ内蔵型ディスプレイでは、体験者は、当該カメラ内蔵型ディスプレイを頭部に装着すると、カメラで撮像された現実空間の画像に仮想現実空間のCGが重ねられた画像を見ることができる。頭部装着型のカメラ内蔵型ディスプレイを装着することにより、体験者の視界は制限される。一方、手持ち型のハンドヘルドディスプレイでは、体験者は、当該ハンドヘルドディスプレイを覗き込むと、カメラで撮像された現実空間の画像に仮想現実空間のCGが重ねられた画像を見ることができる。この場合も、体験者の視界は制限される。また、光学シースルー型(光学透過型)のHMDを用いてもよい。即ち、カメラで撮像された現実空間の画像ではなく、実際の現実空間に重なるように仮想現実空間のCGを表示してもよい。前述した何れの表示装置を用いる場合でも、体験者(表示装置を使用するユーザ)のみが、当該表示装置により表示される画像を見ることができる。
仮想レーザーデバイス103は、HMD102を装着している体験者が、仮想現実空間のCG上の位置を選択するために用いられる。尚、本実施形態では、(1つの)HMD102を装着することができる体験者が1人である場合を例に挙げて示す。HMD102を装着している体験者は、仮想レーザーデバイス103を手に持って、HMD102により表示されている、現実空間の画像に仮想現実空間のCGが重ねられた画像を見ながら、当該CG上の位置を選択する。ここで、仮想現実表示デバイス101とHMD102は独立したコンピュータデバイスであってもいいし、HMD102に付属した筐体内に仮想現実表示デバイス101を内蔵する構成であってもよい。仮想現実表示デバイス101はHMD102が内蔵するコンピュータデバイス上で動作するソフトウェアとして構成されていてもよい。
仮想現実表示デバイス101は、撮像部201、頭部位置姿勢特定部202、MR画像表示部203、複合部位指定部204、CG部位指定部205、音声コマンド解析部206、および指定部位補正部207を含み、各種の情報処理を行う。仮想現実表示デバイス101のハードウェアは、例えば、CPU、ROM、RAM、HDD、および各種のインターフェースを備える装置を用いることにより実現される。
撮像部201は、HMD102に内蔵されたカメラなどを通じて、HMD102(カメラ)から見ることができる視界の画像を現実空間の画像としてシステムに入力する。
頭部位置姿勢特定部202は、HMD102の現実空間内の3次元座標と姿勢を特定する。頭部位置姿勢特定部202は、撮像部201が取得した3次元現実空間の画像に存在するマーカーや特徴点の情報を用いることにより、HMD102の現実空間内の3次元座標と姿勢を特定することができる。また、頭部位置姿勢特定部202は、仮想現実表示デバイス101に接続された赤外線マーカー、磁気センサー、ジャイロセンサーなどの情報を用いて、HMD102の現実空間内の3次元座標と姿勢を特定してもよい。その他、頭部位置姿勢特定部202は、HMD102を検出する複数のセンサーからの情報を用いて、HMD102の現実空間内の3次元座標と姿勢を特定してもよい。
MR画像表示部203は、撮像部201が取得した現実空間の画像に、仮想現実空間のCGとして仮想物体の形状などが重畳された画像を生成する。以下の説明では、現実空間の画像に、仮想現実空間のCGが重畳された画像を必要に応じてMR画像と称する。体験者は、このMR画像を、HMD102を通して見ることによって、あたかも現実空間に仮想物体が存在するかのような体験をすることができる。ここで、MR画像表示部203が生成した画像は、HMD102に対して出力されてもよいし、HMD102以外の表示装置に表示しても構わない。即ち、MR画像表示部203が生成した画像は、HMD102だけに出力しても、HMD102とHMD102以外の表示装置との双方に出力してもよい。HMD102以外の表示装置は、第2の表示装置の一例であり、例えば、外部モニタ、プロジェクタ、テレビ、またはコンピュータディスプレイにより実現される。HMD以外の表示装置としてこれら何れの表示装置を用いる場合でも、複数人(誰も)が当該表示装置により表示される画像を同時に見ることができる。
このようにMR画像表示部203が生成した画像を、HMD102以外の表示装置に表示させることにより、体験者以外の人物も、体験者と同じ画像を同じタイミングで見ることができる。尚、このようにする場合、仮想現実表示デバイス101は、HMD102だけでなく、HMD102以外の表示装置とも通信可能に相互に接続される。
CG部位指定部205は、仮想レーザーデバイス103の現実空間上の位置および姿勢をもとに、MR画像表示部203によって表示された仮想物体上の特定の部位を指定する。CG部位指定部205は、例えば、仮想レーザーデバイス103の現実空間上の位置から、予め指定された特定方向に直進する仮想のレーザー光を仮定し、当該仮想のレーザー光が仮想物体と接触した位置を、仮想物体上の特定の部位として指定する。このように本実施形態では、例えば、体験者による仮想レーザーデバイス103の操作により第1の指示が行われる。しかしながら、仮想物体上の特定の部位を指定するための指示(第1の指示)は、このようなものに限定されない。例えば、仮想のレーザー光の代わりに、仮想の工具を想定し、当該仮想の工具の現実空間上の位置から特定方向に一定距離進んだ位置を、当該仮想の工具と仮想物体とが接触する位置(当該仮想物体の特定の部位)として指定してもよい。また、仮想物体上の特定の部位は、仮想レーザーデバイス103の動きに連動して連続的に指定されるとしてもよいし、仮想レーザーデバイス103が備えるスイッチが押される度に断続的に指定されるとしてもよい。
音声コマンド解析部206は、体験者の発生した音声を取得して解析し、音声コマンドとして認識する。ここで音声コマンド解析部206は、HMD102内に内蔵されたマイクを用いて体験者の発した音声を取得するとしてもよいし、HMD102の外に配置される独立したマイクを用いて体験者の発した音声を取得するとしてもよい。ここで、本実施形態における音声コマンドは、「左へ」、「右の部品」などの、体験者の視点から見た相対的な位置を含み、CG部位指定部205で指定した部位を補正するための指示である。
このように本実施形態では、例えば、体験者の音声により第2の指示が行われ、当該体験者の音声から音声コマンドを認識する場合を例に挙げて説明する。しかしながら、体験者がMR画像を見ながら、CG部位指定部205で指定した部位をどのように補正するのかを指示することができれば、CG部位指定部205で指定した部位の補正の指示(第2の指示)に、必ずしも、音声を用いる必要はない。例えば、音声によらず体験者の手によるジェスチャによる指示や、MR画像中の仮想のボタンを操作することによる指示によって、コマンドを認識してもよい。また、体験者の視点を基準とせずに、CG部位指定部205で指定した部品をどのように補正するのかを指示してもよい。
指定部位補正部207は、音声コマンド解析部206で認識された音声コマンドの内容と、頭部位置姿勢特定部202で特定されたHMD102の現実空間上の位置および姿勢の情報とに基づき、CG部位指定部205で指定された部位への補正指示を特定する。ここでは、音声コマンド解析部206で認識された音声コマンドは、HMD102を装着した体験者の視点から見た相対的な方向の指示を含んでいるものとする。従って、音声コマンドと、頭部位置姿勢特定部202によって特定されたHMD102の現実空間上の位置および姿勢の情報とを併せることによって、CG部位指定部205で指定された部位の補正が可能になる。
複合部位指定部204は、CG部位指定部205で指定された部位に、指定部位補正部207で特定された補正指示を反映させ、最終的に指定された部位を決定する。最終的に指定された部位の情報は、MR画像表示部203によって、HMD102で表示される(MR画像に重畳される)。これにより、体験者は、自らが発した音声コマンドによる補正が適用された位置を選択して見ることが可能となる。
図3は、体験者が仮想レーザーデバイス103によって仮想物体中の特定の部位を指定し、その後、音声コマンドを発声して当該位置の補正を行う際の画像表示システムの処理の一例を説明するフローチャートである。
まず、システムの動作が開始されると、CG部位指定部205は、仮想レーザーデバイス103による部品(位置)の選択を受け付ける(ステップS301)。ここで部品とは、MR画像中に表示される仮想物体を構成する一部品である。
体験者の持つ仮想レーザーデバイス103によって部品が選択されると、MR画像表示部203は、MR画像中の、ステップS301で選択された部品を強調表示する(ステップS302)。強調表示は、選択された部品の色や輝度を変更することによって行ってもよいし、部品の周りに仮想の枠を表示したり、付箋のようなアノテーションを表示したりすることによって行ってもよい。尚、選択された部品の表示の内容を変更していれば、必ずしも強調表示を行う必要はない。例えば、選択された部品を非表示にしたり、選択された部品の位置を移動したりしてもよい。
部品の強調表示を行った後、音声コマンド解析部206は、体験者の発声による補正指示を受け付ける(ステップS303)。この補正指示は、ステップS301で選択された部品をどの部品に変更するのかを示す指示である。その後、音声コマンド解析部206は、体験者の発声を一定時間待ち受ける(ステップS304)。一定時間内に発声がなければ、ステップS302において選択された部品は、体験者の意図通りであったと判断でき、システムの動作を終了する。ここで、待ち受けを行う時間については、システムの起動前に予め設定しておく。ただし、待ち受けを行う時間をシステムの起動中に任意に変更可能であるとしてもよい。また、専用の音声コマンドの認識またはその他の方法によって、設定した一定時間が経過する前に部品の選択が適正だったとしてシステムの動作を終了させる機能を設けてもよい。同様に、専用の音声コマンドの認識またはその他の方法によって、ステップS301における部品の選択の結果が誤りであり、且つ、その誤りが、音声コマンドによる部品の補正が可能な範囲を超えているとして、部品の選択を取り消す機能を設けてもよい。
ステップS304において、一定時間内に体験者から発声があった場合、音声コマンド解析部206は、当該音声を解析してコマンド化する(ステップS305)。
続いて、頭部位置姿勢特定部202は、HMD102の現実空間内の位置および姿勢を取得する(ステップS306)。HMD102の現実空間内の位置および姿勢は、体験者の頭部の現実空間内の位置および姿勢に対応する。ここで、HMD102の現実空間内の位置および姿勢として、ステップS306を実行中のタイミングにおける位置および姿勢を取得することができる。また、ステップS303〜S304において体験者が発声しているタイミングに遡って、HMD102の現実空間内の位置および姿勢を取得してもよい。また、専用の音声コマンドあるいはその他の入力方法によって、HMD102に表示されるMR画像を或る時刻の状態で停止させ、その時刻におけるHMD102の現実空間内の位置および姿勢を取得してもよい。
次に、指定部位補正部207は、ステップS301で選択された部品の補正の方向を算出する(ステップS307)。この算出は、ステップS305において認識された音声コマンドと、ステップS306において取得されたHMD102の現実空間内の位置および姿勢(頭部の位置および姿勢)を用いて行われる。補正の方向の算出方法については図4を用いて後述する。
補正の方向が算出されたら、複合部位指定部204は、ステップS307で算出された補正の方向に基づいて、部品の選択範囲を変更する(ステップS308)。例えば、複合部位指定部204は、ステップS307において算出された補正の方向に、現在選択している部品の隣の部品に選択範囲を移動させ、ステップS302における強調表示の対象を更新する。そして、MR画像表示部203は、MR画像において強調表示する部品を更新後の部品に変更する。
ここで、指定部位補正部207は、「少し右」、「まだ右」などの音声コマンドの種類に応じて、現在選択している部品を移動させる距離を調整してもよい。例えば、音声コマンドの内容と移動させる距離との関係を予め登録しておくことにより、音声コマンドの種類に応じて、現在選択している部品を移動させる距離を調整することができる。例えば、音声コマンドに「少し」が含まれている場合には、現在選択している部品の1つ隣の部品に移動し、「まだ」が含まれている場合には、現在選択している部品の2つ隣の部品に移動するように当該関係を登録することができる。また、指定部位補正部207は、音声コマンドの種類に応じて、現在選択している部品の選択を解除せずに、現在の選択範囲を広げたり、狭めたりするようにしてもよい。例えば、音声コマンドの内容と、部品の選択範囲との関係を予め登録しておくことにより、音声コマンドの種類に応じて、現在選択している部品の選択を解除せずに、現在の選択範囲を広げたり、狭めたりすることができる。例えば、音声コマンドに「周りの部品も一緒」が含まれている場合には、現在選択している部品と、当該部品に隣り合う全ての部品を選択するように、当該関係を登録することができる。
音声コマンドと、HMD102の現実空間内の位置および姿勢(頭部の位置および姿勢)とに応じて、選択している部品の補正が終了したら、音声コマンド解析部206は、再び体験者の発声による補正指示を受け付ける(ステップS303)。
以上のステップS303〜S308の処理を、選択範囲が体験者の意図通りになるまで繰り返す。そして、一定時間内に発声がなければ、システムの動作を終了する。
前述したように、音声によらずに、体験者の手によるジェスチャや、MR画像中の仮想のボタンの操作によって、CG部位指定部205で指定した部品をどのように補正するのかを指示してもよい。体験者の手によるジェスチャにより指示を行う場合には、例えば、手の動きと部品の選択範囲の変更の内容との関係を仮想現実表示デバイス101等に予め登録する。そして、指定部位補正部207は、HMD102に搭載されたカメラにより撮像された画像から、体験者の手の動きを特定し、特定した動きに関連付けられている部品の選択範囲の変更の内容を読み出し、読み出した内容に従って、部品の選択範囲を変更する。
また、MR画像中の仮想のボタンの操作により指示を行う場合には、MR画像中の仮想のボタンの操作の内容と、部品の選択範囲の変更の内容との関係を仮想現実表示デバイス101等に予め登録しておく。指定部位補正部207は、MR画像中の仮想のボタンに対して行われた操作の内容に関連付けられている部品の選択範囲の変更の内容を読み出し、読み出した内容に従って、部品の選択範囲を変更する。MR画像中の仮想のボタンの操作による指示は、仮想レーザーデバイス103を用いて行っても、仮想レーザーデバイス103以外のデバイスを用いて行ってもよい。
図4は、仮想物体の配置の一例を示す図である。ここでは、立方体状の部品401〜409が図4のように配置されているような仮想物体を例に挙げて説明する。図4を参照しながら、ステップS307における処理(現在選択している部品の補正の方向の算出方法)の一例を説明する。
ステップS301において、体験者が仮想レーザーデバイス103を用いて、部品405を選択したとする。そうすると、ステップS302において部品405が強調表示される。ここで、ステップS305において、音声コマンドとして「右の部品」というコマンドが認識されたとする。そうすると、頭部位置姿勢特定部202は、ステップS306において、HMD102の現実空間内の位置および姿勢を取得する。図4において、HMD102が、紙面の手前の方向から部品401、402、403を鉛直上方とする姿勢で仮想物体(部品401〜409)を見ているとすると、体験者から見て部品405の右の方向の部品は部品406となる。指定部位補正部207は、HMD102の現実空間内の位置および姿勢から、HMD102から見た場合の各仮想物体の方向を特定し、現在選択している部品に対し、音声コマンドにより指定された方向において隣接する部品に、強調表示する部品を変更する。即ち、ステップS307、S308の処理により、新たに選択されて強調表示される部品は部品406となる。
同様にして、図4において、HMD102が、紙面の奥の方向から手前の方向に部品401、402、403を鉛直上方とする姿勢で仮想物体(部品401〜409)を見ているとする。この場合、音声コマンドとして「右の部品」というコマンドが認識されると、部品404が新たに選択され、強調表示される部品は部品405から部品404に変更される。さらに、HMD102が、紙面の手前の方向から奥の方向に向かって、部品407、404、401を鉛直方向とする姿勢で仮想物体(部品401〜409)を見ているとする。即ち、部品407、404、401を鉛直方向として紙面の手前の方向から奥の方向に向かって仮想物体(部品401〜409)を見ている体験者が、頭を90度左に傾けていたとする。この場合、体験者から場合の部品405の見た右の方向は部品402となり、「右の部品」というコマンドによる補正は部品402となる。
仮想レーザーデバイス103から照射される仮想レーザーを用いた部品の選択(ピッキング)は、例えば、MR技術を用いて、3DCG(3次元コンピュータグラフィックス)を表示させ、CGにより表示される部品を複数人でレビューを行う際に行われる。このとき、レビューを行いやすくするために、選択した部品を強調表示させたり、非表示にしたり、移動させたりする。
ピッキングの際に、体験者が誤って隣の部品を選択した場合には、正しい部品が選択されるようにする必要がある。そのために、部品のピッキングをやり直して、部品の再選択を行うことが考えられる。しかしながら、部品の配置等によりピッキングによる部品の選択が難しい場合、繰り返しピッキングを行っても正しい部品が選択されない虞がある。また、部品のピッキングをやり直す代わりに、3DCGを表示する画像表示装置とは別のPCの操作により部品を選択し直すことが考えられる。例えば、3DCGを構成する部品の一覧表をPCの画面に表示し、PCから画像表示装置に、選択した部品の変更を指示することが考えられる。この場合、体験者は、HMDを外さないとPCの画面を見ることができないため、所望の部品を選択することができない。以上のことから、部品の円滑なレビューが妨げられる虞がある。
これに対し本実施形態では、HMD102の位置および姿勢と音声コマンドとに基づいて、MR画像に対して体験者により選択された部品(仮想物体の部位)を自動的に選択し直し、MR画像において強調表示する部品を、選択し直した部品に変更する。従って、仮想現実空間の画像に対して選択された部位を調整するために体験者が意識的に行う操作は、音声コマンドの発声だけになる。よって、仮想現実空間の画像に対して選択された部位を容易に且つ確実に調整することができる。例えば、体験者が「もう少し左」等のコマンドを発声することにより、PCなどの操作を介さずに所望の部品を選択することができる。その結果、ピッキングの選択範囲を補正するための操作によって、MR画像(例えば部品)のレビューが妨げられることが抑止することができ、レビューに集中することが可能になる。
(第2の実施形態)
次に、第2の実施形態を説明する。第1の実施形態では、選択された部品を補正する方向を音声で指示する場合を例に挙げて説明した。これに対し、本実施形態では、部品の上位・下位の関係を音声で指示する場合について説明する。このように本実施形態と第1の実施形態は、音声コマンドの内容が異なることによる構成および処理が主として異なる。従って、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図4に付した符号と同一の符号を付す等して詳細な説明を省略する。
図5は、仮想現実表示デバイス500の機能的な構成の一例を示すブロック図である。尚、本実施形態の画像表示システムは、仮想現実表示デバイス500と、HMD102と、仮想レーザーデバイス103とを有する。本発明の第2の実施例を示す機能ブロック図である。
仮想現実表示デバイス500は、撮像部201、頭部位置姿勢特定部202、MR画像表示部203、複合部位指定部501、CG部位指定部205、音声コマンド解析部502、CGモデル記憶部503、および指定部位補正部504を含む。このように、HMD102、仮想レーザーデバイス103、撮像部201、頭部位置姿勢特定部202、MR画像表示部203、CG部位指定部205はそれぞれ、第1の実施形態で説明したものと同じである。
音声コマンド解析部502は、体験者の発生した音声を取得して解析し、音声コマンドとして認識する。本実施形態における音声コマンドは、「ひとつ上位の部品」などの、仮想物体を構成するCGモデルの構成情報に関する指示であり、CG部位指定部205で指定した仮想物体上の特定の部位(例えば、部品)の位置を補正するための指示である。本実施形態では、体験者の音声から音声コマンドを認識する場合を例に挙げて説明する。しかしながら、第1の実施形態と同様に、音声によらず体験者の手によるジェスチャや、MR画像中の仮想のボタンを操作することによる指示によって、コマンドを認識してもよい。
CGモデル記憶部503は、CGモデルを記憶する。CGモデルは、現実空間の画像に重ねて表示するための仮想物体の形状を表すデータである。このデータは、CADなどのソフトウェアを用いて人為的にデザインされたデータであってもよいし、レーザースキャナや複数台のカメラを用いて現実空間の計測データから再構築されたデータであってもよい。このデータは、仮想物体を構成する複数の部品のデータからなり、それぞれの部品間には、各部品の包含関係(即ち上位・下位の関係)を表すツリー構造が存在する。
図6は、CGモデルの構造の一例を表す図である。CGモデルは、複数の部品が集まって一つの部品を構成し、その部品がまた集まってさらに上位の部品を構成するような階層構造を成している。
図6に示す例では、複写機モデル601は、本体602とその他の部品で構成されている。図6では、複写機モデル601を構成する本体602以外の部品は省略して記載しているが、実際には複写機モデル601は、本体602以外の部品も有する。ただし、本体602のみで、複写機モデル601を構成してもよい。
同様に本体602は、上面パネル603とその他のいくつかの部品、上面パネル603は、操作盤604とその他のいくつかの部品、操作盤604は、液晶画面605、スタートボタン606、電源LED607とその他のいくつかの部品で構成される。このようにして、階層構造が定義されている。尚、このように本実施形態では、仮想現実表示デバイス500にCGモデル記憶部503を設け、仮想現実表示デバイス500でCGモデルを管理する場合を例に挙げて示す。しかしながら、必ずしもこのようにする必要はない。例えば、仮想現実表示デバイス500と異なる装置でCGモデルを管理し、仮想現実表示デバイス500が当該CGモデルを参照する形態を採用してもよい。
指定部位補正部504は、音声コマンド解析部502で認識された音声コマンドの内容と、CGモデル記憶部503に記憶されているCGモデルとに基づき、CG部位指定部205で指定された部位への補正指示を特定する。ここでは、音声コマンド309で認識された音声コマンドは、CGモデル内の部品の選択範囲を補正する指示を含んでいるものとする。従って、音声コマンドと、CGモデルのデータ構造と併せることによって、CG部位指定部205で指定された部位の選択範囲の補正が可能になる。尚、指定部位補正部504は、MR画像のどの位置にどの部品が表示されているのかを、例えば、CGの内容や予め登録されているMRから特定できる。
例えば図6において、CG部位指定部205によってスタートボタン606が選択された状態で、音声コマンド解析部502によって認識された音声コマンドが「選択範囲をひとつ上位の部品に拡大」というものであるとする。この場合、指定部位補正部504は、部品の選択範囲を操作盤604に補正する。この状態で同様の音声コマンドが更に認識されると、部品の選択範囲は上面パネル603に拡大されることになる。また、CG部位指定部205によって上面パネル603が選択された状態で、音声コマンド解析部502によって認識された音声コマンドが「ひとつ下位の部品に縮小」というものであるとする。この場合、指定部位補正部504は、部品の選択範囲を本体602に補正する。
CGモデルの構成によっては複数の補正の候補が存在することがある。例えば、CG部位指定部205によって操作盤604が選択された状態で、音声コマンド解析部502によって認識された音声コマンドが「ひとつ下位の部品に縮小」である場合には、3つの補正の候補が存在することになる。この場合、CGモデル内の任意の情報(部品に割り振られたIDなど)を用いて、複数の補正の候補の中から1つの部品を一意に決定してもよいし、専用の音声コマンドを用いて順番に候補を提示し、提示した候補から体験者の操作により部品を選択させてもよい。部品にIDを割り振る場合には、例えば、同一の階層に属する複数の部品に優先順位をつけ、当該複数の部品に対し当該優先順位が高い部品である程小さな値のIDを割り振ることができる。このようにすれば、同一の階層に複数の部品が属しているために複数の補正の候補が存在する場合、IDの値が小さな部品を選択することができる。
複合部位指定部501は、CG部位指定部205で指定された部位に、指定部位補正部504で特定された補正指示を反映させ、最終的に指定された部位を決定する。最終的に指定された部位の情報は、MR画像表示部203によって、HMD102で表示される(MR画像に重畳される)。これにより、体験者は、自らが発した音声コマンドによる補正が適用された位置を選択して見ることが可能となる。
以上のようにすることによって、CGモデルにより定義されている階層の単位で、選択した部品の補正を行うことができ、第1の実施形態で説明したのと同様の効果を得ることができる。尚、本実施形態の構成と第1の実施形態の構成とを組み合わせてもよい。即ち、音声コマンドが補正の方向を示すものである場合には、第1の実施形態を適用し、音声コマンドがCGモデルの構成情報に関するものである場合には、第2の実施形態を適用してもよい。また、本実施形態においても、第1の実施形態で説明した種々の変形例を採用することができる。
(第3の実施形態)
次に、第3の実施形態を説明する。第1、第2の実施形態では、MR画像表示部203は、現実空間の画像に仮想物体を重畳したMR画像を、HMD102に表示する場合を例に挙げて説明した。これに対し、本実施形態の画像表示システムは、複数のHMDにそれぞれ表示されているMR画像を、HMD以外の表示装置に切り替え表示する。このように本実施形態と、第1、第2の実施形態とは、MR画像をHMD以外の表示装置させるための構成および処理が主として異なる。従って、本実施形態の説明において、第1、第2の実施形態と同一の部分については、図1〜図6に付した符号と同一の符号を付す等して詳細な説明を省略する。
本実施形態では、画像表示システム内に複数のHMDを接続する。そして、任意のHMDのMR画像を、HMD以外の表示装置に表示することによって、HMDの体験者以外のメンバーがMR画像(例えば部品)のレビューに参加できるようにする。本実施形態では、複数のHMDと、HMD以外の表示装置とが、仮想現実表示デバイスに通信可能に接続される。HMD以外の表示装置は、第2の表示装置の一例であり、例えば、外部モニタ、プロジェクタ、テレビ、またはコンピュータディスプレイにより実現される。HMD以外の表示装置としてこれら何れの表示装置を用いる場合でも、複数人(誰も)が当該表示装置により表示される画像を同時に見ることができる。
例えば、レビューの参加者は、PCやタブレット等の端末装置を操作して、複数のHMDに表示されているMR画像の中から、HMD以外の表示装置に表示するMR画像を選択する。端末装置は、選択されたMR画像を出力しているHMDの情報を、仮想現実表示デバイスに出力する。そして、仮想現実表示デバイスは、HMD以外の表示装置に表示されているMR画像を、当該情報により特定されるHMDから出力されているMR画像に切り替えて表示する。この場合、ステップS306において取得される、HMDの現実空間内の位置および姿勢は、その時点でHMD以外の表示装置に表示されているMR画像を出力しているHMDの現実空間内の位置および姿勢である。従って、ステップS307において算出される補正の方向は、その時点でHMD以外の表示装置に表示されているMR画像内の部品の補正の方向である。また、ステップS308において強調表示される部品は、その時点でHMD以外の表示装置に表示されているMR画像内の部品のうち、ステップS307で算出された補正の方向に基づいて変更された部品である。尚、部品の強調表示は、HMDに表示されるMR画像だけでなく、HMD以外の表示装置に表示されるMR画像に対しても行われる。強調表示される部品の補正の方法は、第1の実施形態または第2の実施形態と同じ方法を採用することができる。
以上のようにして画像表示システムを構成することによって、第1、第2の実施形態で説明した効果に加え、HMDの体験者以外のメンバーが、複数のHMDに表示されるMR画像(例えば部品)のレビューに参加することができるという効果が得られる。尚、本実施形態においても、第1、第2の実施形態で説明した種々の変形例を採用することができる。
前述した各実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
(その他の実施例)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101:仮想現実表示デバイス、102:HMD、103:仮想レーザーデバイス

Claims (14)

  1. 現実空間に重なるように表示装置により表示された仮想現実空間の画像の部位をユーザによる第1の指示に基づいて指定する指定手段と、
    前記指定手段により指定された前記仮想現実空間の画像の部位をユーザによる第2の指示に基づいて補正する補正手段と、を有し、
    前記第2の指示は、前記第1の指示のやり直しとは異なる指示であって、前記表示装置を使用するユーザが、前記表示装置により表示された前記仮想現実空間の画像を見ながら行うことが可能な指示であることを特徴とする情報処理装置。
  2. 前記第2の指示は、音声による指示、ジェスチャによる指示、または前記仮想現実空間の画像を表示する画面に対する操作による指示であることを特徴とする請求項1に記載の情報処理装置。
  3. 更に、前記表示装置の位置および姿勢を特定する特定手段を有し、
    前記補正手段は、前記特定手段により特定された前記表示装置の位置および姿勢と、前記第2の指示の内容とに基づいて、前記仮想現実空間の画像の部位を補正することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記仮想現実空間の画像を構成するそれぞれの部分は、階層構造で管理され、
    前記補正手段は、前記第2の指示の内容と、前記階層構造とに基づいて、前記仮想現実空間の画像を構成する部分の選択範囲を補正することを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記表示装置は、撮像手段により撮像された前記現実空間の画像に、前記仮想現実空間の画像を重ねて表示することを特徴とする請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 更に、前記指定手段により前記仮想現実空間の画像に対して指定された部位の表示を変更させる変更手段を有し、
    前記変更手段は、前記補正手段により前記仮想現実空間の画像の部位が補正されると、表示の変更の対象となる部位を、当該補正された部位に更新することを特徴とする請求項1〜5のいずれか1項に記載の情報処理装置。
  7. 前記表示装置は、前記表示装置を使用するユーザだけが見ることができる状態で、前記仮想現実空間の画像を表示することを特徴とする請求項1〜6のいずれか1項に記載の情報処理装置。
  8. 前記表示装置は、HMD(Head Mounted Display)であることを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。
  9. 更に、前記仮想現実空間の画像を、前記表示装置と、前記表示装置と異なる第2の表示装置とに出力する出力手段を有し、
    前記第2の表示装置は、複数人が同時に見ることができる状態で、前記仮想現実空間の画像を表示することを特徴とする請求項1〜8のいずれか1項に記載の情報処理装置。
  10. 請求項1〜8のいずれか1項に記載の情報処理装置と、前記表示装置と、を有することを特徴とする画像表示システム。
  11. 請求項9に記載の情報処理装置と、前記表示装置と、前記第2の表示装置と、を有することを特徴とする画像表示システム。
  12. 複数の前記表示装置を有し、
    前記第2の表示装置は、前記複数の表示装置から選択された表示装置に表示される画像を表示し、
    前記補正手段は、前記選択された表示装置により表示された前記仮想現実空間の画像の部位を補正することを特徴とする請求項11に記載の画像表示システム。
  13. 現実空間に重なるように表示装置により表示された仮想現実空間の画像の部位をユーザによる第1の指示に基づいて選択する指定工程と、
    前記指定工程により指定された前記仮想現実空間の画像の部位をユーザによる第2の指示に基づいて補正する補正工程と、を有し、
    前記第2の指示は、前記第1の指示のやり直しとは異なる指示であって、前記表示装置を使用するユーザが、前記表示装置により表示された前記仮想現実空間の画像を見ながら行うことが可能な指示であることを特徴とする情報処理方法。
  14. 請求項1〜9のいずれか1項に記載の情報処理装置の各手段としてコンピュータを機能させることを特徴とするプログラム。
JP2016087328A 2016-04-25 2016-04-25 情報処理装置、情報処理方法、およびプログラム Active JP6765846B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016087328A JP6765846B2 (ja) 2016-04-25 2016-04-25 情報処理装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016087328A JP6765846B2 (ja) 2016-04-25 2016-04-25 情報処理装置、情報処理方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2017199085A true JP2017199085A (ja) 2017-11-02
JP2017199085A5 JP2017199085A5 (ja) 2019-05-23
JP6765846B2 JP6765846B2 (ja) 2020-10-07

Family

ID=60237999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016087328A Active JP6765846B2 (ja) 2016-04-25 2016-04-25 情報処理装置、情報処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP6765846B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220086939A (ko) * 2020-12-17 2022-06-24 삼성전자주식회사 전자 장치 및 전자 장치의 동작 방법
CN116438503A (zh) 2020-12-17 2023-07-14 三星电子株式会社 电子装置和电子装置的操作方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863319A (ja) * 1994-08-24 1996-03-08 Hitachi Ltd 情報処理装置
JP2001092995A (ja) * 1999-08-31 2001-04-06 Xerox Corp 拡張現実感表示システム及びプロセッサ生成画像の選択的表示方法
JP2015149634A (ja) * 2014-02-07 2015-08-20 ソニー株式会社 画像表示装置および方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863319A (ja) * 1994-08-24 1996-03-08 Hitachi Ltd 情報処理装置
JP2001092995A (ja) * 1999-08-31 2001-04-06 Xerox Corp 拡張現実感表示システム及びプロセッサ生成画像の選択的表示方法
JP2015149634A (ja) * 2014-02-07 2015-08-20 ソニー株式会社 画像表示装置および方法

Also Published As

Publication number Publication date
JP6765846B2 (ja) 2020-10-07

Similar Documents

Publication Publication Date Title
US10198870B2 (en) Information processing apparatus, information processing system, and information processing method
US10942024B2 (en) Information processing apparatus, information processing method, and recording medium
US10902239B2 (en) Methods and systems for training an object detection algorithm using synthetic images
US10095458B2 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
JP6090140B2 (ja) 情報処理装置、情報処理方法及びプログラム
US9651782B2 (en) Wearable tracking device
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
JP6041016B2 (ja) 眼鏡型端末
CN110647237A (zh) 在人工现实环境中基于手势的内容共享
US11755122B2 (en) Hand gesture-based emojis
KR20130108643A (ko) 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들
JP2017187667A (ja) 頭部装着型表示装置およびコンピュータープログラム
JP6399692B2 (ja) ヘッドマウントディスプレイ、画像表示方法及びプログラム
US20150339859A1 (en) Apparatus and method for navigating through volume image
US20150381970A1 (en) Input/output device, input/output program, and input/output method
JP2017102696A (ja) 頭部装着型表示装置およびコンピュータープログラム
US10296098B2 (en) Input/output device, input/output program, and input/output method
JP2010205031A (ja) 入力位置特定方法、入力位置特定システムおよび入力位置特定用プログラム
JP6765846B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US11589001B2 (en) Information processing apparatus, information processing method, and program
JP2010205030A (ja) 関連情報表示位置特定方法、関連情報表示位置特定システムおよび関連情報表示位置特定用プログラム
JP6535699B2 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
WO2022176450A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6124862B2 (ja) ポインティング・ジェスチャに応じたアクションをする方法、会議支援システム、およびコンピュータ・プログラム
WO2020071144A1 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190412

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200916

R151 Written notification of patent or utility model registration

Ref document number: 6765846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151