JP2018032094A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2018032094A
JP2018032094A JP2016162205A JP2016162205A JP2018032094A JP 2018032094 A JP2018032094 A JP 2018032094A JP 2016162205 A JP2016162205 A JP 2016162205A JP 2016162205 A JP2016162205 A JP 2016162205A JP 2018032094 A JP2018032094 A JP 2018032094A
Authority
JP
Japan
Prior art keywords
virtual object
image
image processing
unit
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2016162205A
Other languages
English (en)
Inventor
雄一 山川
Yuichi Yamakawa
雄一 山川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016162205A priority Critical patent/JP2018032094A/ja
Publication of JP2018032094A publication Critical patent/JP2018032094A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 複合現実空間を体感しているユーザがより簡便な方法でもって所望の仮想物体を操作するための技術を提供すること。【解決手段】 頭部装着型表示装置が有する撮像装置による撮像画像を取得し、撮像画像に1以上の特徴が含まれている状態において音声が入力されると、該1以上の特徴のうちの1つの特徴を、該音声に対する認識の結果に基づいて選択する。選択した特徴に配置する仮想物体を上記認識の結果に基づいて決定し、該決定した仮想物体の画像を頭部装着型表示装置に対して出力する。【選択図】 図1

Description

本発明は、現実空間の画像と仮想空間の画像との合成画像を生成して提示する為の技術に関するものである。
近年、現実世界と仮想世界とをリアルタイムにシームレスに融合させる技術として複合現実技術、いわゆるMR(Mixed Reality)技術が知られている。このMR技術の1つに、ビデオシースルーHMD(Head Mounted Display)を利用して、複合現実画像を使用者に提示する技術がある。
ビデオシースルーHMDに内蔵されているビデオカメラは、使用者の瞳位置から観測される被写体と略一致する被写体を撮像する。ビデオシースルーHMDの表示パネルが、この撮像画像にCG(Computer Graphics)を重畳した画像を表示することで、ビデオシースルーHMDは複合現実空間を該使用者に提供する。このようなMR技術を用いることによって、誰でも直感的に3DCGデータの検証を行うことが出来る。
3DCGデータの検証を行う上で、複数の3DCGデータうち特定の3DCGデータを操作したい、という要望が発生しうる。これについて特許文献1では、指で仮想空間中の座標を指示することで、複数の3DCGデータのうち特定の3DCGデータを特定する方法が開示されている。また特許文献2では、使用者の視点位置との相対位置から特定の3DCGデータを特定する方法が開示されている。
特開2012-155678号公報 特開2002-42172号公報
特許文献1では、指を使って3DCGデータを特定するため、両手がふさがっている場合には3DCGデータを特定することができない。特許文献2では、特定の3DCGデータを操作するためには、3DCGデータを特定し、該特定した3DCGデータに対して操作を選択する、という2段階の指示を実施する必要があった。
本発明はこのような問題に鑑みてなされたものであり、複合現実空間を体感しているユーザがより簡便な方法でもって所望の仮想物体を操作するための技術を提供する。
本発明の一様態は、頭部装着型表示装置が有する撮像装置による撮像画像を取得する手段と、前記撮像画像に1以上の特徴が含まれている状態において音声が入力されると、該1以上の特徴のうちの1つの特徴を、該音声に対する認識の結果に基づいて選択する選択手段と、前記選択手段が選択した特徴に配置する仮想物体を前記認識の結果に基づいて決定する決定手段と、前記決定手段が決定した仮想物体の画像を前記頭部装着型表示装置に対して出力する出力手段とを備えることを特徴とする。
本発明の構成によれば、複合現実空間を体感しているユーザがより簡便な方法でもって所望の仮想物体を操作することができる。
システムの構成例を示すブロック図。 システムを使用する環境を説明する図。 仮想現実空間を提示するシステムの構成例を示すブロック図。 ステップS604を説明する図。 コマンドとマーカとの対応関係が登録されたテーブルの構成例を示す図。 画像処理装置110が行う処理のフローチャート。 ステップS606における処理の詳細を示すフローチャート。 第2の実施形態を説明する図。 システムの構成例を示すブロック図。 ステップS606における処理の詳細を示すフローチャート。 コンピュータ装置のハードウェア構成例を示すブロック図。
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、以下のような構成を有する画像処理装置の一例について説明する。即ちこの画像処理装置は、頭部装着型表示装置が有する撮像装置による撮像画像を取得し、該撮像画像に1以上の特徴が含まれている状態において音声が入力されると、該1以上の特徴のうちの1つの特徴を、該音声に対する認識の結果に基づいて選択する。そして、該選択した特徴に配置する仮想物体を上記認識の結果に基づいて決定し、該決定した仮想物体の画像を頭部装着型表示装置に対して出力する。
先ず、本実施形態に係るシステムの構成例について、図1のブロック図を用いて説明する。本実施形態に係るシステムは、頭部装着型表示装置を頭部に装着したユーザに、現実空間と仮想空間とを融合させた複合現実空間を提示するためのもので、図1に示す如く、頭部装着型表示装置100、画像処理装置110、外部センサ120を有する。
先ず、頭部装着型表示装置100について説明する。頭部装着型表示装置100は、ビデオシースルー型のHMDである。
撮像部101は、頭部装着型表示装置100を頭部に装着するユーザの眼前に提示する現実空間の映像を撮像するためのもので、例えば、頭部装着型表示装置100を頭部に装着するユーザの視界と略一致する視界の現実空間を撮像する。撮像部101は、撮像した現実空間の映像を構成する各フレームの画像(撮像画像)を順次、画像処理装置110に対して出力する。
音声入力部102は、頭部装着型表示装置100を頭部に装着したユーザが発する音声を入力するためのものであり、入力された音声を音声信号として画像処理装置110に対して出力する。
表示部103は、頭部装着型表示装置100を頭部に装着したユーザの眼前に位置するように頭部装着型表示装置100に設けられたものであり、画像処理装置110から出力された映像信号に応じた画像や文字を表示する。然るに頭部装着型表示装置100を頭部に装着したユーザの眼前には、画像処理装置110から出力された映像信号に応じた画像や文字が提示されることになる。
次に、外部センサ120について説明する。外部センサ120は、頭部装着型表示装置100に取り付けられたマーカを検出し、該検出の結果に応じて該頭部装着型表示装置100の位置姿勢を求め、該求めた位置姿勢を画像処理装置110に対して出力する。
次に、画像処理装置110について説明する。画像処理装置110は、撮像部101による撮像画像上に、仮想物体の画像を重畳した合成画像(複合現実空間の画像)を生成し、該生成した合成画像を頭部装着型表示装置100の表示部103に対して出力する。これにより、頭部装着型表示装置100を頭部に装着したユーザの眼前には、この合成画像が提示されることになる。
本実施形態では、このようなシステムを図2に示すような環境下において使用するケースについて説明する。図2に示したケースにおいては、ユーザ10は自身の頭部に頭部装着型表示装置100を装着しており、頭部装着型表示装置100(例えば撮像部101)にはマーカ100aが取り付けられている。外部センサ120は、該マーカ100aを検出し、該検出の結果に基づいて該マーカ100aの位置姿勢を頭部装着型表示装置100(撮像部101)の位置姿勢として求め、該求めた頭部装着型表示装置100の位置姿勢を画像処理装置110に対して出力する。また、現実空間中の規定位置には規定姿勢でもってマーカ150aが配置されており、後述する処理により、マーカ150aの位置にはマーカ150aの姿勢でもって、マーカ150aに対応する仮想物体が配置される。また、ユーザ10は現実物体160,161,162のうち任意の1以上を把持することができ(図2では現実物体160を把持している)、現実物体160,161,162のそれぞれには、マーカ160a、161a、162aが取り付けられている。後述する処理により、マーカ160aの位置にはマーカ160aの姿勢でもってマーカ160aに対応する仮想物体が配置される。また、マーカ161aの位置にはマーカ161aの姿勢でもってマーカ161aに対応する仮想物体が配置される。また、マーカ162aの位置にはマーカ162aの姿勢でもってマーカ162aに対応する仮想物体が配置される。
以下では具体的な説明を行うために、マーカ150a、160a、161a、162aのそれぞれの位置に配置する仮想物体は車、工具A、工具B、工具Cであるとするが、これらはあくまで一例であり、以下の説明はこれらの仮想物体に限ったものではない。
そして本実施形態に係るシステムは、このようなケースにおいて、ユーザ10の視界(すなわち撮像部101の視界)の範囲内に位置しているマーカの位置姿勢で配置する仮想物体を他の仮想物体に変更するための操作を、ユーザによる音声入力に基づいて行う。
ここで、画像処理装置110(の各機能部)が合成画像を生成して頭部装着型表示装置100の表示部103に出力するために行う処理について、図6のフローチャートを用いて説明する。なお、図6のフローチャートに従った処理は、1フレーム分の合成画像を生成して出力する処理である。然るに実際には、画像処理装置110は、図6のフローチャートに従った処理を繰り返し行うことで、複数フレームの合成画像を生成して頭部装着型表示装置100の表示部103に対して出力している。
ステップS601では、計測部111は、外部センサ120から頭部装着型表示装置100の位置姿勢を取得する。
ステップS602では、計測部111は、撮像部101からの撮像画像中に1以上のマーカが含まれているか否かを判断する。この判断の結果、撮像画像中に1以上のマーカが含まれている場合には。処理はステップS603に進み、撮像画像中に1つもマーカが含まれていない場合には、処理はステップS607に進む。
ステップS603では、計測部111は、撮像画像中に含まれているそれぞれのマーカの位置姿勢(撮像部101に対する相対的な位置姿勢)を求める。図2の例では、撮像画像中にマーカ150aや、マーカ160a、161a、162aが含まれていれば、計測部111は、撮像画像からマーカ150aや、マーカ160a、161a、162aを検出し、その位置姿勢を求める。
なお、マーカ150a、160a、161a、162aの位置姿勢は、マーカ100aと同様に外部センサ120により測定しても良い。この場合、測定したマーカ150a、160a、161a、162aの位置姿勢と、マーカ100aの位置姿勢と、を用いて、マーカ100aに対するマーカ150a、160a、161a、162aの相対的な位置姿勢を算出する。この場合、図3に示すようなシステムを適用することができる。このように、マーカ100a(撮像部101)に対するマーカ150a、160a、161a、162aの相対的な位置姿勢を算出するための方法は、特定の方法に限らない。
ステップS604では、対象推定部112は、計測部111が位置姿勢を求めたマーカのうち、ユーザからの音声入力に応じた処理の対象となるマーカの候補(候補マーカ)を1つ以上選択する。例えば図4に示す如く、撮像部101による撮像画像490中にマーカ150a、160a、161aが含まれている場合、対象推定部112は、撮像画像490の中央領域400内に含まれているマーカ150a及び160aを、候補マーカとして選択する。これは即ち、撮像部101の視界内に属するマーカを候補マーカとして選択することを意味する。然るに、同様の目的を達成できるのであれば、候補マーカの選択方法は特定の選択方法に限らない。
ここで、対象推定部112が、計測部111が位置姿勢を求めたマーカから候補マーカに該当するものを1以上選択できた場合には、処理はステップS605を介してステップS606に進む。一方、対象推定部112が、計測部111が位置姿勢を求めたマーカから候補マーカに該当するものを1つも選択できなかった場合には、処理はステップS605を介してステップS607に進む。図4の例では、中央領域400内に1以上のマーカが含まれていれば、処理はステップS605を介してステップS606に進むし、中央領域400内に1つもマーカが含まれていない場合には、処理はステップS605を介してステップS607に進む。
ステップS606では、候補マーカのうち、ユーザからの音声入力の対象となるマーカを決定し、該決定したマーカの位置姿勢でもって配置する仮想物体を、該ユーザから入力された音声に対する音声認識の結果に基づいて決定する。ステップS606における処理の詳細について、図7のフローチャートを用いて説明する。
ステップS701では、音声認識部113は、音声入力部102から入力された音声信号が表す音声を認識する。ユーザは、現在注視している仮想物体を他の仮想物体に変更するためのコマンドを音声にて音声入力部102に入力する。
ステップS702では、音声認識部113は、ステップS701における音声認識の結果が、予め画像処理装置110が保持する複数の規定コマンドの何れかに該当するのかを判断する。この判断の結果、音声認識の結果が、何れかの規定コマンドに該当する場合には、処理はステップS703に進み、音声認識の結果が、何れの規定コマンドにも該当していない場合には、処理はステップS607に進む。
ステップS703では、対象特定部114は、対象推定部112が選択した候補マーカのうち、音声認識部113が認識したコマンドに対応する候補マーカを対象マーカとして特定する。例えば、画像処理装置110は図5に例示するテーブルを予め保持している。音声認識部113が認識したコマンドが「車1」であるとすると、コマンド「車1」に対応するマーカは「車用マーカ」であるから、この場合、対象特定部114は、対象推定部112が選択した候補マーカのうち車用マーカを対象マーカとして特定する。図2の例では、マーカ150aを車用マーカとしているので、この場合、ステップS703では、マーカ150aが対象マーカとして特定される。これは、コマンド「車2」、「車3」についても同様である。
また、音声認識部113が認識したコマンドが「1番 プラスドライバ」であるとすると、コマンド「1番 プラスドライバ」に対応するマーカは「工具用マーカ」である。この場合、対象特定部114は、対象推定部112が選択した候補マーカのうち工具用マーカを対象マーカとして特定する。図2の例では、マーカ160a、161a、162aを工具用マーカとしているので、この場合、ステップS703では、マーカ160a、161a、162aのうち候補マーカとなっているものから1つが対象マーカとして特定される。なお、マーカ160a、161a、162aのうち2つ以上が候補マーカである場合には、該2つ以上の候補マーカのうち何れか1つを対象マーカとして特定する。特定方法については特定の方法に限らない。例えば、撮像画像の中心により近いマーカを対象マーカとして特定しても良いし、より撮像部101に近い位置にあるマーカを対象マーカとして特定しても良い。これは、コマンド「2番 プラスドライバ」、「マイナスドライバ」、「ペンチ」についても同様である。
そして対象特定部114は、対象マーカの位置姿勢でもって配置する仮想物体として、音声認識部113が認識したコマンドに対応する仮想物体に変更する。例えば、音声認識部113が認識したコマンドが「車1」であるとすると、対象マーカの位置姿勢でもって配置する仮想物体を「車1」の仮想物体に変更する。これは他のコマンドについても同様である。なお、コマンドは他の仮想物体に変更するコマンドに限らない。例えば、現在の仮想物体に対する何らかの処理を施すためのコマンドであっても良い。
図6に戻って次に、ステップS607では、CG重畳部115は、各マーカについて、該マーカの位置に該マーカの姿勢でもって、該マーカに対応する仮想物体を配置する。なお、対象マーカの位置には対象マーカの姿勢でもって、ステップS703で変更した仮想物体が配置される。仮想物体は、該仮想物体の形状や色、質感などを規定するCGデータ116により規定されている。そしてCG重畳部115は、配置した各仮想物体を、計測部111が外部センサ120から取得した位置姿勢を有する視点から見た画像を生成し、該生成した仮想物体の画像を、撮像部101から取得した撮像画像上に重畳した合成画像を生成する。そしてCG重畳部115は、該生成した合成画像を頭部装着型表示装置100の表示部103に対して送出する。これにより頭部装着型表示装置100を頭部に装着したユーザの眼前には、この合成画像が提示されることになる。
なお、撮像画像上には仮想物体の画像だけでなく、他の情報を更に重畳させても良い。例えば、候補マーカの位置姿勢でもって配置した仮想物体を、他のマーカ(非候補マーカ)の位置姿勢でもって配置した仮想物体とは異なる表示形態で表示するようにしても良い。また、対象マーカの位置姿勢でもって配置した仮想物体を、他のマーカ(非対象マーカ)の位置姿勢でもって配置した仮想物体とは異なる表示形態で表示するようにしても良い。また、図5のテーブルにおける「受付コマンド」の一覧を撮像画像上に重畳させるようにしても良い。これによりユーザは、発声可能なコマンドを把握することができる。このような様々な合成画像の生成は何れも、CG重畳部115が行う。
そしてステップS608では、CG重畳部115は、ステップS607で生成した合成画像を頭部装着型表示装置100の表示部103に対して出力する。これによりユーザの眼前には、現実空間の画像上に仮想物体の画像が重畳された合成画像が提示されることになる。更に、ユーザが着目仮想物体を注視している状態(撮像部101の視線方向に着目仮想物体が存在する)で、該着目仮想物体を他の仮想物体に変更するコマンドを音声で入力した場合、該コマンドに応じて該着目仮想物体を他の仮想物体に変更することができる。
<変形例>
頭部装着型表示装置100の位置姿勢を求めるための方法には様々な方法があり、本実施形態では如何なる方法を採用しても良い。例えば、頭部装着型表示装置100に位置姿勢センサを取り付けて、該位置姿勢センサによる計測結果に基づいて頭部装着型表示装置100の位置姿勢を算出しても良い。他にも例えば、現実空間中に配置位置が既知のマーカを配置しておき、撮像部101が撮像した撮像画像中のマーカの画像座標と、該マーカの現実空間における配置位置と、に基づいて頭部装着型表示装置100(撮像部101)の位置姿勢を求めても良い。
また、上記の例では、仮想物体を配置する箇所にはマーカを設けたが、マーカの代わりに、現実物体の自然特徴(現実物体の角、辺、枠など)を用いても良い。すなわち、仮想物体は、マーカ等の人工的に設けた特徴点、自然特徴等の特徴点、の何れに配置しても良い。その場合、上記の候補マーカは候補特徴点となる。
[第2の実施形態]
本実施形態では、音声認識したコマンドに対応する候補マーカが複数の場合に、複数の候補マーカから1つの候補マーカを選択する別の形態について説明する。以下では第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。
本実施形態に係るシステムの構成例を図9に示す。図9において図1との共通部分には同じ参照番号を付しており、その説明は省略する。図9に示した構成は、図1に示した構成において、画像処理装置110に音量評価部117を加えたものである。
音量評価部117は、音声入力部102から入力された音声信号が表す音量を取得し、該音量が基準値以上であるか否かを判断する。この基準値は全てのユーザで共通のデフォルト値として予め画像処理装置110に設定されたものであっても良いし、画像処理装置110にログインしたユーザに関連づけられたものであっても良い。また、過去に音量評価部117が求めた音量の平均値を基準値として用いても良い。
対象特定部114は、音声認識部113が認識したコマンドに対応する候補マーカが複数の場合には、音量評価部117による判断結果に応じて、該複数の候補マーカのうち何れか1つを対象マーカとして特定する。具体的には、音声入力部102から入力された音声信号が表す音量が基準値以上であれば、複数の候補マーカのうち撮像部101からより遠い候補マーカを対象マーカとして選択する。一方、音声入力部102から入力された音声信号が表す音量が基準値未満であれば、複数の候補マーカのうち撮像部101により近い候補マーカを対象マーカとして選択する。また音声入力部102からの音声信号が表す音量が、最大音量から最小音量までの間を複数の区間に分割した場合のどの区間に属するのかを判断し、属すると判断した区間に対応する距離範囲(撮像部101からの距離範囲)に属する候補マーカを選択しても良い。
例えば図8に示す如く、中央領域400内に工具用のマーカ160a及びマーカ161aが属しており、且つ撮像部101とマーカ160aとの間の距離が撮像部101とマーカ161aとの間の距離より近いとする。このとき、音声入力部102から入力された音声信号が表す音量が基準値以上であれば、マーカ161aを対象マーカとして選択し、基準値未満であれば、マーカ160aを対象マーカとして選択する。
本実施形態では、上記のステップS606では、図7のフローチャートに従った処理の代わりに、図10のフローチャートに従った処理を行う。図10のフローチャートにおいて、図7に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。
ステップS1001では、音量評価部117は、音声入力部102から入力された音声信号が表す音量を取得し、該音量が基準値以上であるか否かを判断する。そしてステップS1002では、対象特定部114は、音声認識部113が認識したコマンドに対応する候補マーカが複数の場合には、音量評価部117による判断結果に応じて、該複数の候補マーカのうち何れか1つを対象マーカとして特定する。なお、音声認識部113が認識したコマンドに対応する候補マーカが1つの場合には、該1つを対象マーカとして特定する。
[第3の実施形態]
図1,3,9に示した画像処理装置110を構成する各機能部(CGデータ116は除く)は、ハードウェアで実装しても良いが、ソフトウェア(コンピュータプログラム)で実装しても良い。各機能部をソフトウェアで実装する場合、このソフトウェアを実行するコンピュータ装置は、この画像処理装置110に適用することができる。このコンピュータ装置のハードウェア構成例について、図11のブロック図を用いて説明する。
CPU1101は、RAM1102やROM1103に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU1101は、コンピュータ装置全体の動作制御を行うと共に、画像処理装置110が行うものとして上述した各処理を実行若しくは制御する。
RAM1102は、ROM1103や外部記憶装置1106からロードされたコンピュータプログラムやデータ、I/F(インターフェース)1107を介して外部から受信したデータ、を格納するためのエリアを有する。更にRAM1102は、CPU1101が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM1102は各種のエリアを適宜提供することができる。ROM1103には、書き換え不要の本装置の設定データやブートプログラムなどが格納されている。
操作部1104は、キーボードやマウスなどのユーザインターフェースにより構成されており、本装置のユーザが操作することで、各種の指示をCPU1101に対して入力することができる。
表示部1105はCRTや液晶画面などにより構成されており、CPU1101による処理結果を画像や文字などでもって表示することができる。なお、操作部1104と表示部1105とを一体化させてタッチパネル画面を構成しても良い。
外部記憶装置1106は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置1106には、OS(オペレーティングシステム)や、図1,3,9に示した画像処理装置110の各機能部の機能をCPU1101に実現させるためのコンピュータプログラムやデータが保存されている。このデータには、上記のCGデータ116や、上記の説明において既知の情報として説明したものが含まれている。外部記憶装置1106に保存されているコンピュータプログラムやデータは、CPU1101による制御に従って適宜RAM1102にロードされ、CPU1101による処理対象となる。
I/F1107には、上記の外部センサ120や頭部装着型表示装置100が接続される。なお、I/F1107は外部センサ120と頭部装着型表示装置100とで共通のインターフェースとするのではなく、それぞれで別個のインターフェースとしても良い。
CPU1101、RAM1102、ROM1103、操作部1104、表示部1105、外部記憶装置1106、I/F1107は何れもバス1108に接続されている。なお、図11に示した構成は、画像処理装置110に適用可能なこのコンピュータ装置のハードウェア構成の一例である。また、上記の各実施形態や変形例は、その一部若しくは全部を適宜組み合わせても構わないし、選択的に使用しても良い。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:頭部装着型表示装置 110:画像処理装置

Claims (10)

  1. 頭部装着型表示装置が有する撮像装置による撮像画像を取得する手段と、
    前記撮像画像に1以上の特徴が含まれている状態において音声が入力されると、該1以上の特徴のうちの1つの特徴を、該音声に対する認識の結果に基づいて選択する選択手段と、
    前記選択手段が選択した特徴に配置する仮想物体を前記認識の結果に基づいて決定する決定手段と、
    前記決定手段が決定した仮想物体の画像を前記頭部装着型表示装置に対して出力する出力手段と
    を備えることを特徴とする画像処理装置。
  2. 前記選択手段は、前記1以上の特徴のうち前記撮像画像の中央領域に属する特徴を候補特徴として選択し、該候補特徴のうち、前記認識の結果が表す仮想物体と関連づけられている候補特徴を選択することを特徴とする請求項1に記載の画像処理装置。
  3. 前記選択手段は、前記認識の結果が表す仮想物体と関連づけられている候補特徴が複数の場合、前記撮像画像の中心により近い候補特徴を選択することを特徴とする請求項2に記載の画像処理装置。
  4. 前記選択手段は、前記認識の結果が表す仮想物体と関連づけられている候補特徴が複数の場合、前記撮像装置により近い候補特徴を選択することを特徴とする請求項2に記載の画像処理装置。
  5. 更に、
    前記音声の音量を取得する手段を備え、
    前記選択手段は、前記認識の結果が表す仮想物体と関連づけられている候補特徴が複数の場合、前記音量に応じた候補特徴を選択することを特徴とする請求項2に記載の画像処理装置。
  6. 前記選択手段は、前記認識の結果が表す仮想物体と関連づけられている候補特徴が複数の場合、前記音量が基準値以上であれば前記撮像装置からより遠い候補特徴を選択し、前記音量が基準値未満であれば前記撮像装置により近い候補特徴を選択することを特徴とする請求項5に記載の画像処理装置。
  7. 前記出力手段は、前記決定手段が決定した仮想物体の画像と、ユーザが発声可能なコマンドの一覧と、を合成した画像を前記頭部装着型表示装置に対して出力し、
    前記選択手段は、前記音声に対する認識の結果が前記一覧に属するコマンドのうち何れか1つのコマンドであれば、前記1以上の特徴のうち前記撮像画像の中央領域に属する特徴から、該1つのコマンドが表す仮想物体と関連づけられている特徴を選択し、
    前記決定手段は、前記選択手段が選択した特徴に配置する仮想物体を、前記1つのコマンドが表す仮想物体に決定する
    ことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  8. 更に、前記撮像画像と前記決定手段が決定した仮想物体の画像とが合成された合成画像を生成する合成手段を備え、
    前記出力手段は、前記合成手段で生成された合成画像を出力することを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
  9. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の取得手段が、頭部装着型表示装置が有する撮像装置による撮像画像を取得する工程と、
    前記画像処理装置の選択手段が、前記撮像画像に1以上の特徴が含まれている状態において音声が入力されると、該1以上の特徴のうちの1つの特徴を、該音声に対する認識の結果に基づいて選択する選択工程と、
    前記画像処理装置の決定手段が、前記選択工程で選択した特徴に配置する仮想物体を前記認識の結果に基づいて決定する決定工程と、
    前記画像処理装置の出力手段が、前記決定工程で決定した仮想物体の画像を前記頭部装着型表示装置に対して出力する出力工程と
    を備えることを特徴とする画像処理方法。
  10. コンピュータを、請求項1乃至8の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2016162205A 2016-08-22 2016-08-22 画像処理装置、画像処理方法 Withdrawn JP2018032094A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016162205A JP2018032094A (ja) 2016-08-22 2016-08-22 画像処理装置、画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016162205A JP2018032094A (ja) 2016-08-22 2016-08-22 画像処理装置、画像処理方法

Publications (1)

Publication Number Publication Date
JP2018032094A true JP2018032094A (ja) 2018-03-01

Family

ID=61304514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016162205A Withdrawn JP2018032094A (ja) 2016-08-22 2016-08-22 画像処理装置、画像処理方法

Country Status (1)

Country Link
JP (1) JP2018032094A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021189647A1 (zh) * 2020-03-27 2021-09-30 深圳光启超材料技术有限公司 多媒体信息的确定方法、头戴设备、存储介质及电子设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021189647A1 (zh) * 2020-03-27 2021-09-30 深圳光启超材料技术有限公司 多媒体信息的确定方法、头戴设备、存储介质及电子设备

Similar Documents

Publication Publication Date Title
JP6747504B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10394334B2 (en) Gesture-based control system
US9495068B2 (en) Three-dimensional user interface apparatus and three-dimensional operation method
JP6598617B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP4533087B2 (ja) 画像処理方法、画像処理装置
CN109804220B (zh) 用于跟踪头部运动的装置和方法
US9541997B2 (en) Three-dimensional user interface apparatus and three-dimensional operation method
US20160048230A1 (en) Image processing apparatus and method, and program
JP5709440B2 (ja) 情報処理装置、情報処理方法
US20130063560A1 (en) Combined stereo camera and stereo display interaction
EP3693925B1 (en) Information processing device, information processing method, and recording medium
US10573083B2 (en) Non-transitory computer-readable storage medium, computer-implemented method, and virtual reality system
US20200401805A1 (en) Image processing apparatus and method of controlling the same
GB2582657A (en) Tracking system and method
Wang et al. Comparing single-modal and multimodal interaction in an augmented reality system
EP3582068A1 (en) Information processing device, information processing method, and program
WO2019085519A1 (zh) 面部跟踪方法及装置
US11009963B2 (en) Sign language inputs to a vehicle user interface
WO2019044123A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
CN110968248B (zh) 生成用于视觉触摸检测的指尖的3d模型
JP2018032094A (ja) 画像処理装置、画像処理方法
US11703682B2 (en) Apparatus configured to display shared information on plurality of display apparatuses and method thereof
US11966278B2 (en) System and method for logging visible errors in a videogame
JP2024042545A (ja) 作業支援システム、および作業支援方法
JP2022061771A (ja) 音像描画装置及び音像描画方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190805

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20190829