JP2018063567A - 画像処理装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP2018063567A JP2018063567A JP2016201487A JP2016201487A JP2018063567A JP 2018063567 A JP2018063567 A JP 2018063567A JP 2016201487 A JP2016201487 A JP 2016201487A JP 2016201487 A JP2016201487 A JP 2016201487A JP 2018063567 A JP2018063567 A JP 2018063567A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- transparency
- hand
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
【課題】現実物体との接触可能性を低減しつつ、違和感のない複合現実感を提示可能とする画像処理装置、処理方法及びプログラムを提供する。【解決手段】画像処理装置は、現実空間が撮像された第一の画像を取得する第一の取得手段と、第一の画像に撮像されている物体の移動速度を取得する第二の取得手段と、第二の取得手段により取得された移動速度に基づいて、第一の画像を撮像した撮像装置の位置姿勢に基づいて生成される第二の画像の透明度を決定する決定手段と、決定手段により決定された透明度に従って、第二の画像を表示部に表示させる表示制御手段と、を備える。【選択図】なし
Description
本発明は、画像処理装置、画像処理方法およびプログラムに関する。
近年、現実空間と仮想空間との繋ぎ目のない結合を目的とした、複合現実感(MR:Mixed Reality)技術の研究が盛んに行われている。MR技術において複合現実感の提示を行う画像表示装置は、ビデオシースルー方式もしくは光学シースルー方式によって実現される。
ビデオシースルー方式は、ビデオカメラ等の撮像装置によって撮像された現実空間の画像上に、撮像装置の位置および姿勢に応じて生成された仮想空間の画像を重畳描画した合成画像を表示する方式である。ここで、仮想空間の画像は、CG(コンピュータグラフィックス)により描画された仮想物体や文字情報等により構成される。また、光学シースルー方式は、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置および姿勢に応じて生成された仮想空間の画像を表示する方式である。
ビデオシースルー方式は、ビデオカメラ等の撮像装置によって撮像された現実空間の画像上に、撮像装置の位置および姿勢に応じて生成された仮想空間の画像を重畳描画した合成画像を表示する方式である。ここで、仮想空間の画像は、CG(コンピュータグラフィックス)により描画された仮想物体や文字情報等により構成される。また、光学シースルー方式は、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置および姿勢に応じて生成された仮想空間の画像を表示する方式である。
いずれの方式においても、観察者の視界を遮って仮想空間の画像(仮想空間画像)が表示されるため、現実物体が仮想空間画像に隠れて見えない場合があり、手などを現実物体にぶつけるおそれがあった。特許文献1には、観察者の手の位置と現実物体の位置との距離に応じて、仮想空間画像の透明度を制御する画像処理装置が開示されている。この特許文献1に記載の技術では、例えば上記距離が小さいほど仮想空間画像の透明度を上げるようにしている。
しかしながら、上記従来の方法では、手と現実物体との距離に応じて仮想空間画像を透明にしているため、現実物体から離れた場所から、手を高速で現実物体に近づけた場合、仮想空間画像が透明になるタイミングが遅れ、手を現実物体に衝突させてしまうおそれがある。また、現実物体の近くで手がゆっくりと動いており、手が現実物体に接触したとしても衝撃が少ない場合であっても、仮想空間画像が透明になってしまうため、観察者が仮想空間画像を見ることを阻害してしまう。
そこで、本発明は、現実物体との接触可能性を低減しつつ、違和感のない複合現実感を提示可能とすることを目的としている。
そこで、本発明は、現実物体との接触可能性を低減しつつ、違和感のない複合現実感を提示可能とすることを目的としている。
上記課題を解決するために、本発明に係る画像処理装置の一態様は、現実空間が撮像された第一の画像を取得する第一の取得手段と、前記第一の画像に撮像されている物体の移動速度を取得する第二の取得手段と、前記第二の取得手段により取得された移動速度に基づいて、前記第一の画像を撮像した撮像装置の位置姿勢に基づいて生成される第二の画像の透明度を決定する決定手段と、前記決定手段により決定された透明度に従って、前記第二の画像を表示部に表示させる表示制御手段と、を備える。
本発明によれば、現実物体との接触可能性を低減しつつ、違和感のない複合現実感を提示可能とすることができる。
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(第一の実施形態)
図1(a)は、本発明の実施形態における複合現実感システム(MRシステム)10の構成例を示す図である。本実施形態におけるMRシステム10は、現実空間と仮想空間とを融合した複合現実空間(MR空間)を観察者に提示するためのシステムである。
複合現実感システム10は、撮像装置21Lおよび21Rと、表示装置22と、画像処理装置30と、を備える。本実施形態では、撮像装置21L、21Rおよび表示装置22は、MR空間を体感する観察者の頭部に装着される頭部装着型表示装置であるヘッドマウントディスプレイ(HMD)に備わっているものとして説明する。ここで、HMDは、現実空間の画像とコンピュータグラフィックス(CG)等の仮想空間の画像とを合成した合成画像を観察者に提示可能なビデオシースルー型HMDとする。
(第一の実施形態)
図1(a)は、本発明の実施形態における複合現実感システム(MRシステム)10の構成例を示す図である。本実施形態におけるMRシステム10は、現実空間と仮想空間とを融合した複合現実空間(MR空間)を観察者に提示するためのシステムである。
複合現実感システム10は、撮像装置21Lおよび21Rと、表示装置22と、画像処理装置30と、を備える。本実施形態では、撮像装置21L、21Rおよび表示装置22は、MR空間を体感する観察者の頭部に装着される頭部装着型表示装置であるヘッドマウントディスプレイ(HMD)に備わっているものとして説明する。ここで、HMDは、現実空間の画像とコンピュータグラフィックス(CG)等の仮想空間の画像とを合成した合成画像を観察者に提示可能なビデオシースルー型HMDとする。
撮像装置21L、21Rは、それぞれ、観察者がHMDを頭部に装着した場合に、観察者の視点位置から視線方向の現実空間を撮像可能なように互いに固定されたカメラであり、これら2つのカメラによってステレオカメラを構成している。撮像装置21L、21Rは、観察者の視点位置から見える現実空間の物体(現実物体)を撮像する。撮像装置21L、21Rは、例えば観察者の体の一部(例えば、手40)や、撮像装置21L、21Rの位置姿勢を計測するためのマーカー50を撮像する。そして、撮像装置21L、21Rは、それぞれ撮像した画像を画像処理装置30に出力する。なお、上記ステレオカメラの焦点距離やレンズ歪み係数等のカメラ内部パラメータは、予め所定の方法で求められており、既知であるとする。
表示装置22は、画像処理装置30から出力された合成画像を表示するディスプレイを備える。ディスプレイは、CRTや液晶画面などである。ここで、上記ディスプレイは、観察者の左右の目にそれぞれ対応して配置されていてもよい。この場合、観察者の左目に対応するディスプレイには左目用の合成画像が提示され、観察者の右目に対応するディスプレイには右目用の合成画像が提示される。また、表示装置22は、ディスプレイ上の画像を眼球に導くための光学系を備えていてもよい。なお、撮像装置21L、21Rによって観察者の視野画像を撮像し、表示装置22によって観察者に画像を提示できる構成であれば、撮像装置21L、21Rと表示装置22との配置位置は、任意に設定することができる。
画像処理装置30は、画像取得部31と、画像記憶部32と、物体推定部33と、モデル形状記憶部34と、位置姿勢推定部35と、画像生成部36と、画像合成部37と、表示制御部38と、を備える。
画像取得部31は、撮像装置21Lおよび21Rによって撮像されたステレオ画像を取得し、画像記憶部32に出力する。このステレオ画像は、ステレオ計測用の処理画像として用いられる。画像記憶部32は、画像取得部31から受けた画像を一時的に記憶する。画像取得部31からは、例えば1/30秒ごとに画像が送信される。
画像取得部31は、撮像装置21Lおよび21Rによって撮像されたステレオ画像を取得し、画像記憶部32に出力する。このステレオ画像は、ステレオ計測用の処理画像として用いられる。画像記憶部32は、画像取得部31から受けた画像を一時的に記憶する。画像取得部31からは、例えば1/30秒ごとに画像が送信される。
物体推定部33は、画像記憶部32に記憶されているステレオ画像を取得し、取得したステレオ画像から手40の3次元形状および位置を推定する。また、手40の位置情報を時間と共に記憶し、それに基づいて手40の移動速度および移動方向を推定する。手40の3次元形状および位置の推定方法、ならびに手40の移動速度および移動方向の推定方法については後述する。物体推定部33は、手40の3次元形状および位置をモデル形状記憶部34に出力し、手40の移動速度および移動方向を画像生成部36に出力する。
モデル形状記憶部34は、図1(b)に示すような、表示装置22に表示させる仮想物体60の3次元モデル(CGモデル)のデータおよび物体推定部33から受けた手40の3次元形状のデータを保持しておく。
モデル形状記憶部34は、図1(b)に示すような、表示装置22に表示させる仮想物体60の3次元モデル(CGモデル)のデータおよび物体推定部33から受けた手40の3次元形状のデータを保持しておく。
位置姿勢推定部35は、撮像装置21L、21Rの位置姿勢を推定する。本実施形態では、位置姿勢推定部35は、画像に映り込む矩形状のマーカー50の投影像に基づいて、撮像装置21L、21Rの位置姿勢を推定する。例えば、位置姿勢推定部35は、画像を二値化し、直線フィッティングにより四角形の頂点を抽出し、山登り法の繰り返し演算により画像上における投影誤差を最小化して、撮像装置21L、21Rの位置姿勢を推定することができる。
なお、位置姿勢推定部35による位置姿勢の推定方法は、上記の方法に限定されるものではなく、モーションキャプチャ装置や磁気センサなどを用いた方法により撮像装置21L、21Rの位置姿勢を推定してもよい。
なお、位置姿勢推定部35による位置姿勢の推定方法は、上記の方法に限定されるものではなく、モーションキャプチャ装置や磁気センサなどを用いた方法により撮像装置21L、21Rの位置姿勢を推定してもよい。
画像生成部36は、モデル形状記憶部34に記憶されたCGモデルのデータと、手40の3次元形状および位置に関する情報とを入力する。また、画像生成部36は、位置姿勢推定部35において推定された撮像装置21L、21Rの位置姿勢と、物体推定部33において推定された手40の移動速度および移動方向とに関する情報を入力する。そして、画像生成部36は、入力されたこれらの情報に基づいて、仮想物体60の画像(CG)を生成する。
具体的には、画像生成部36は、CGモデルのデータと、撮像装置21L、21Rの位置姿勢とに基づいて、仮想物体60の位置姿勢を決定する。そして、画像生成部36は、仮想物体60の描画ピクセルにおける手40との前後関係を比較し、仮想物体60を描画するかどうかを決定する。つまり、手40の方が仮想物体60よりも手前にあると判定した場合は、そのピクセルに仮想物体60を描画せず、後述する画像合成部37において生成される合成画像において実写画像である手40が見えるように仮想物体60の画像を加工する。また、画像生成部36は、物体推定部33により推定された手40の移動速度と移動方向とに応じて、仮想物体60の画像の透明度を決定する。詳細については後述する。
具体的には、画像生成部36は、CGモデルのデータと、撮像装置21L、21Rの位置姿勢とに基づいて、仮想物体60の位置姿勢を決定する。そして、画像生成部36は、仮想物体60の描画ピクセルにおける手40との前後関係を比較し、仮想物体60を描画するかどうかを決定する。つまり、手40の方が仮想物体60よりも手前にあると判定した場合は、そのピクセルに仮想物体60を描画せず、後述する画像合成部37において生成される合成画像において実写画像である手40が見えるように仮想物体60の画像を加工する。また、画像生成部36は、物体推定部33により推定された手40の移動速度と移動方向とに応じて、仮想物体60の画像の透明度を決定する。詳細については後述する。
画像合成部37は、画像記憶部32に記憶されている撮像装置21L、21Rの夫々の画像に対して、画像生成部36において生成された仮想物体60の画像を上書き合成する。生成された合成画像は、表示制御部38に出力される。表示制御部38は、画像合成部37から出力された合成画像を表示装置22のディスプレイに表示させる表示制御を行う。これにより、観察者は、仮想物体60と手40との前後関係が正しい合成画像をディスプレイにて観察することができ、あたかもその場所に仮想物体60が実在するかのような体験をすることができる。
なお、本実施形態では、画像記憶部32は、物体推定部33、位置姿勢推定部35、画像生成部36の処理で利用した実写画像を、画像合成部37に入力している。これは、画像生成部36において生成された3次元形状の画像と画像記憶部32の画像とが同期された状態で、画像合成部37において画像を合成するためである。画像合成部37において同期した画像を取り扱うためには、物体推定部33、位置姿勢推定部35、画像生成部36のすべての処理を1/30秒以内で完了させることが好ましい。
なお、本実施形態では、画像記憶部32は、物体推定部33、位置姿勢推定部35、画像生成部36の処理で利用した実写画像を、画像合成部37に入力している。これは、画像生成部36において生成された3次元形状の画像と画像記憶部32の画像とが同期された状態で、画像合成部37において画像を合成するためである。画像合成部37において同期した画像を取り扱うためには、物体推定部33、位置姿勢推定部35、画像生成部36のすべての処理を1/30秒以内で完了させることが好ましい。
次に、撮像装置21L、21Rの位置姿勢を計測するためのマーカー50の例、およびCGの表示例について説明する。図2(a)はマーカー50の例である。この図2(a)に示すように、車輪がついた箱状の物体51にマーカー50を貼り付けてもよい。また、表示装置(ディスプレイ)22には、例えば図2(b)に示すような仮想物体60の画像を表示させてもよい。この図2(b)において、仮想物体60は、事務用のキャビネットであり、図2(a)の物体51の上に重畳して表示した例を示している。このとき、観察者の手40が図2(a)の物体51よりも手前に存在する場合、図2(b)に示すように、手40が存在する領域には仮想物体60を表示させないようにする。これにより、仮想物体60と手40との前後関係を提示することができる。
なお、仮想物体60を配置する位置は、撮像装置21L、21Rの位置姿勢に応じた位置であればよく、マーカー50を貼り付けた物体51の位置に限定されない。
なお、仮想物体60を配置する位置は、撮像装置21L、21Rの位置姿勢に応じた位置であればよく、マーカー50を貼り付けた物体51の位置に限定されない。
図3は、画像処理装置30のハードウェア構成図である。
画像処理装置30は、CPU301と、RAM302と、ROM303と、キーボード304と、マウス305と、外部記憶装置306と、記憶媒体ドライブ307と、インターフェース(I/F)308と、システムバス309と、を備える。
CPU301は、画像処理装置30における動作を統括的に制御するプロセッサであり、システムバス309を介して、各構成部(302〜308)を制御する。RAM302は、外部記憶装置306や記憶媒体ドライブ307からロードされたプログラムやデータを一時的に記憶するための領域を有する。さらに、RAM302は、I/F308を介して外部装置(本実施形態では、撮像装置21L、21R)から受信したデータ(本実施形態では、現実空間のステレオ画像)を一時的に記憶するためのエリアを有する。また、RAM302は、CPU301が各処理を実行する際に用いるワークエリアも有する。つまり、RAM302は、各種エリアを適宜提供することができる。例えば、RAM302は、図1の画像記憶部32やモデル形状記憶部34として機能することもできる。
画像処理装置30は、CPU301と、RAM302と、ROM303と、キーボード304と、マウス305と、外部記憶装置306と、記憶媒体ドライブ307と、インターフェース(I/F)308と、システムバス309と、を備える。
CPU301は、画像処理装置30における動作を統括的に制御するプロセッサであり、システムバス309を介して、各構成部(302〜308)を制御する。RAM302は、外部記憶装置306や記憶媒体ドライブ307からロードされたプログラムやデータを一時的に記憶するための領域を有する。さらに、RAM302は、I/F308を介して外部装置(本実施形態では、撮像装置21L、21R)から受信したデータ(本実施形態では、現実空間のステレオ画像)を一時的に記憶するためのエリアを有する。また、RAM302は、CPU301が各処理を実行する際に用いるワークエリアも有する。つまり、RAM302は、各種エリアを適宜提供することができる。例えば、RAM302は、図1の画像記憶部32やモデル形状記憶部34として機能することもできる。
ROM303は、コンピュータの設定データやブートプログラムなどを格納する。キーボード304およびマウス305は、操作入力装置の一例であり、コンピュータのユーザが操作することで、各種の指示をCPU301に対して入力することができる。
外部記憶装置306は、ハードディスクドライブ(HDD)装置に代表される大容量情報記憶装置である。外部記憶装置306には、OS(オペレーティングシステム)や、画像処理装置30が行うものとして説明した上述の各処理をCPU301に実行させるためのプログラムやデータが格納されている。係るプログラムには、画像取得部31、物体推定部33、位置姿勢推定部35、画像生成部36、画像合成部37のそれぞれに対応するプログラムを含めることができる。また、係るデータには、CGモデルのデータなどを含めることができる。
外部記憶装置306は、ハードディスクドライブ(HDD)装置に代表される大容量情報記憶装置である。外部記憶装置306には、OS(オペレーティングシステム)や、画像処理装置30が行うものとして説明した上述の各処理をCPU301に実行させるためのプログラムやデータが格納されている。係るプログラムには、画像取得部31、物体推定部33、位置姿勢推定部35、画像生成部36、画像合成部37のそれぞれに対応するプログラムを含めることができる。また、係るデータには、CGモデルのデータなどを含めることができる。
外部記憶装置306に保存されているプログラムやデータは、CPU301による制御に従って適宜RAM302にロードされる。CPU301は、このロードされたプログラムやデータを用いて処理を実行することで、図1に示す画像処理装置30の各部の機能を実現することができる。なお、外部記憶装置306は、図1の画像記憶部32、モデル形状記憶部35として機能することもできる。
記憶媒体ドライブ307は、CD−ROMやDVD−ROMなどの記憶媒体に記録されたプログラムやデータを読み出したり、係る記憶媒体にプログラムやデータを書き込んだりすることができる。なお、上記において、外部記憶装置306に保存されているものとして説明したプログラムやデータの一部若しくは全部を、この記憶媒体に記録しておいてもよい。記憶媒体ドライブ307が記憶媒体から読み出したプログラムやデータは、外部記憶装置306やRAM302に対して出力される。
記憶媒体ドライブ307は、CD−ROMやDVD−ROMなどの記憶媒体に記録されたプログラムやデータを読み出したり、係る記憶媒体にプログラムやデータを書き込んだりすることができる。なお、上記において、外部記憶装置306に保存されているものとして説明したプログラムやデータの一部若しくは全部を、この記憶媒体に記録しておいてもよい。記憶媒体ドライブ307が記憶媒体から読み出したプログラムやデータは、外部記憶装置306やRAM302に対して出力される。
I/F308は、撮像装置21L、21Rを接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポート、イーサネット(登録商標)ポートなどによって構成される。I/F308を介して受信したデータは、RAM302や外部記憶装置306に入力される。
上述したように、図1に示す画像処理装置30の各部の機能は、CPU301がプログラムを実行することで実現することができる。ただし、図1に示す画像処理装置30の各部のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU301の制御に基づいて動作する。
上述したように、図1に示す画像処理装置30の各部の機能は、CPU301がプログラムを実行することで実現することができる。ただし、図1に示す画像処理装置30の各部のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU301の制御に基づいて動作する。
以下、画像処理装置30において実行される処理の手順について、図4を参照しながら説明する。図4に示す処理は、例えばユーザによる指示入力に応じて開始される。ただし、図3の処理の開始タイミングは、上記のタイミングに限らない。画像処理装置30は、CPU301が必要なプログラムを読み出して実行することにより、図4に示す処理を実現することができる。ただし、上述したように、図1に示す画像処理装置30の各要素のうち少なくとも一部が専用のハードウェアとして動作することで図4の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、CPU301の制御に基づいて動作する。なお、以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
まずS1において、画像取得部31は、撮像装置21L,21Rからステレオ画像を取得する。次にS2において、画像記憶部32は、画像取得部31から取得したステレオ画像を一時的に記憶する。
S3では、物体推定部33は、画像記憶部32に記憶されたステレオ画像から手40の領域を抽出し、手40の3次元形状と位置とを推定する。また、手40の位置情報を時間と共に記憶し、それに基づいて手40の移動速度および移動方向を推定する。このS3における物体推定処理の詳細については後述する。
S3では、物体推定部33は、画像記憶部32に記憶されたステレオ画像から手40の領域を抽出し、手40の3次元形状と位置とを推定する。また、手40の位置情報を時間と共に記憶し、それに基づいて手40の移動速度および移動方向を推定する。このS3における物体推定処理の詳細については後述する。
S4では、位置姿勢推定部35は、撮像装置21L、21Rの少なくとも一方の位置姿勢を推定する。推定された位置姿勢は、画像生成部36におけるCGのレンダリング処理に用いられる。S5では、画像生成部36は、撮像装置21L、21Rの位置姿勢から見た仮想物体60の画像を生成(レンダリング)する。このS5におけるCGレンダリング処理の詳細については後述する。
S6では、画像合成部37は、S2において記憶された実写画像の上に、S5において生成されたCGを重畳し、合成画像を生成する。S7では、表示制御部38は、S6において生成された合成画像を表示装置22のディスプレイに表示させる表示制御を行う。
S6では、画像合成部37は、S2において記憶された実写画像の上に、S5において生成されたCGを重畳し、合成画像を生成する。S7では、表示制御部38は、S6において生成された合成画像を表示装置22のディスプレイに表示させる表示制御を行う。
(物体推定処理)
図5は、物体推定部33が図4のS3において実行する物体推定処理の流れを示すフローチャートである。
先ずS31において、物体推定部33は、画像記憶部32に記憶されたステレオ画像から手40の3次元形状を推定する。この処理は、公知の処理によって行うことができる。例えば、あらかじめ取得した背景の画像と現在の実写画像との差分を抽出することにより、前景となる手40の領域を抽出する。さらに、ステレオ画像からそれぞれ抽出された2つの手40の領域を対応付ける。その後、撮像装置21L、21Rの既知の配置情報に基づいて、手40の領域をステレオ計測し、手40の3次元形状を推定する。物体推定部33は、推定した3次元形状をモデル形状記憶部34に出力する。
図5は、物体推定部33が図4のS3において実行する物体推定処理の流れを示すフローチャートである。
先ずS31において、物体推定部33は、画像記憶部32に記憶されたステレオ画像から手40の3次元形状を推定する。この処理は、公知の処理によって行うことができる。例えば、あらかじめ取得した背景の画像と現在の実写画像との差分を抽出することにより、前景となる手40の領域を抽出する。さらに、ステレオ画像からそれぞれ抽出された2つの手40の領域を対応付ける。その後、撮像装置21L、21Rの既知の配置情報に基づいて、手40の領域をステレオ計測し、手40の3次元形状を推定する。物体推定部33は、推定した3次元形状をモデル形状記憶部34に出力する。
S32では、物体推定部33は、手40の位置を推定する。手40の位置は、S31において推定された手40の3次元形状から、例えば手40の領域の重心の座標によって表現する。なお、手40の位置は、手40の重心に限定されるものではなく、特定の指の先端の座標などでもよい。また、手40の位置を推定する方法は、手40の3次元形状をもとに推定する方法に限定されず、モーションキャプチャ装置や磁気センサなどを用いた方法であってもよい。物体推定部33は、推定した位置をモデル形状記憶部34に出力する。
S33では、物体推定部33は、S32において推定された手40の位置を、その時点での時刻と共に保存する。上記時刻は、手40の3次元形状を推定するときに使用したステレオ画像のタイムコードなどから導き出すことができる。あるいはタイマ計測手段によって取得してもよい。手40の位置を時刻と共に保存することにより、ある過去における手40の位置の履歴を保存しておくことができる。
S33では、物体推定部33は、S32において推定された手40の位置を、その時点での時刻と共に保存する。上記時刻は、手40の3次元形状を推定するときに使用したステレオ画像のタイムコードなどから導き出すことができる。あるいはタイマ計測手段によって取得してもよい。手40の位置を時刻と共に保存することにより、ある過去における手40の位置の履歴を保存しておくことができる。
S34では、物体推定部33は、その時点での手40の移動速度と移動方向とを推定する。移動速度および移動方向は、S32において推定された手40の位置と、S33において保存された過去の時刻における手40の位置の履歴とから推定することができる。例えば、時刻T1において手40が座標(X1,Y1,Z1)に存在し、時刻T2において座標(X2,Y2,Z2)に存在した場合、2時点の距離を計算しそれを時刻の差で割ることにより、移動速度を算出することができる。また、2時点のベクトルを求めることにより、移動方向を算出することができる。ここで、移動速度の代わりに加速度を算出してもよい。物体推定部33は、推定した移動速度と移動方向とを画像生成部37に出力し、図5の処理を終了する。
(CGレンダリング処理)
図6は、画像生成部36が図4のS5において実行するCGレンダリング処理の流れを示すフローチャートである。
まずS51において、画像生成部36は、仮想物体60の画像(CG)の透明度を決定する。透明度は、図5のS34において決定された手40の移動速度に応じて決定される。
具体的には、手40の移動速度が所定の速度未満の場合は、CGを不透明にしてそのまま表示し、所定の速度以上の場合はCGを透明にする。これにより、観察者が手40を素早く動かしたときはCGが透明になり、仮に現実物体が仮想物体60に隠れている場合には、その現実物体を表示させ、観察者に提示することができる。一方、観察者が手40を動かさなかったか手40の動きが遅い場合は、CGは透明にならず、観察者は仮想物体60を観察することができる。
図6は、画像生成部36が図4のS5において実行するCGレンダリング処理の流れを示すフローチャートである。
まずS51において、画像生成部36は、仮想物体60の画像(CG)の透明度を決定する。透明度は、図5のS34において決定された手40の移動速度に応じて決定される。
具体的には、手40の移動速度が所定の速度未満の場合は、CGを不透明にしてそのまま表示し、所定の速度以上の場合はCGを透明にする。これにより、観察者が手40を素早く動かしたときはCGが透明になり、仮に現実物体が仮想物体60に隠れている場合には、その現実物体を表示させ、観察者に提示することができる。一方、観察者が手40を動かさなかったか手40の動きが遅い場合は、CGは透明にならず、観察者は仮想物体60を観察することができる。
図7は、図2(a)に示す物体51およびマーカー50を用いて図2(b)に示す仮想物体60の画像を表示する場合において、観察者が手40を素早く動かした場合の表示例を示している。図7に示すように、手40が所定の速度以上の移動速度で素早く動かされた場合、CGは透明になり、仮想物体60の裏側にあるマーカー50が貼り付けられた物体51が透けて見えることになる。
なお、手40の移動速度が所定の速度以上の場合、移動速度に比例して透明度を高くし、ある一定の移動速度以上で完全に透明にするようにしてもよい。この場合、観察者が手40を動かさなかったか手40の動きが遅い場合にはCGは透明にならないが、手40が所定の速度以上で動いた場合には、観察者が手40を速く動かすほどCGの透明度が上がる。そして、さらに手40がある移動速度以上で動いた場合は、CGが完全に透明になる。なお、上記以外の方法で、手40の移動速度と透明度とを連動させてもよい。また、図4のS34において物体推定部33が速度ではなく加速度を推定した場合は、加速度と透明度とを連動させてもよい。例えば、推定された加速度が所定の加速度以上である場合に、CGを透明にするよう透明度を決定するようにしてもよい。
なお、手40の移動速度が所定の速度以上の場合、移動速度に比例して透明度を高くし、ある一定の移動速度以上で完全に透明にするようにしてもよい。この場合、観察者が手40を動かさなかったか手40の動きが遅い場合にはCGは透明にならないが、手40が所定の速度以上で動いた場合には、観察者が手40を速く動かすほどCGの透明度が上がる。そして、さらに手40がある移動速度以上で動いた場合は、CGが完全に透明になる。なお、上記以外の方法で、手40の移動速度と透明度とを連動させてもよい。また、図4のS34において物体推定部33が速度ではなく加速度を推定した場合は、加速度と透明度とを連動させてもよい。例えば、推定された加速度が所定の加速度以上である場合に、CGを透明にするよう透明度を決定するようにしてもよい。
S52では、画像生成部36は、モデル形状記憶部34に記憶されている手40の3次元形状のデータと仮想物体60の3次元モデルのデータと、位置姿勢推定部35において推定された撮像装置21L、21Rの位置姿勢とを取得する。そして、画像生成部36は、撮像装置21L、21Rの位置姿勢から見た仮想物体60の画像を生成する。ただし、画像生成にあたり、手40と仮想物体60との撮像装置21L、21Rからの距離を描画ピクセルごとに判別し、手40の方が手前にあるピクセルについては、仮想物体60を描画せず、透明の状態にする。すなわち、手40の方が手前にあるピクセルについては、実写画像を観察者に提示し、手40が手前に存在しているように見せる。また、このS52では、画像生成部36は、S51において決定された透明度に応じて、仮想物体60の画像を生成する。
以上説明したように、本実施形態における画像処理装置30は、現実空間を撮像する撮像装置21L、21Rの位置姿勢に基づいて、仮想物体60の画像を表示させる。このとき、画像処理装置30は、撮像装置21L、21Rの画像に撮像されている物体の移動速度を取得し、取得された移動速度に基づいて仮想物体60の画像の透明度を決定し、決定された透明度に従って仮想物体60の画像を表示させる。ここで、移動速度を取得する物体は、仮想物体60の画像を観察する観察者の手40とすることができる。
画像処理装置30は、手40の移動速度が所定の速度以上である場合に、仮想物体60の画像を透明にするよう、透明度を決定することができる。このとき、画像処理装置30は、移動速度が速いほど透明度を上げるようにしてもよい。上記のように、仮想物体60の画像を透明にした場合、仮想物体60の裏側に現実物体が存在する場合には、その現実物体が表示され、観察者は現実物体を確認することができる。そのため、観察者の手40が現実物体に接触する可能性を低減することができる。
画像処理装置30は、手40の移動速度が所定の速度以上である場合に、仮想物体60の画像を透明にするよう、透明度を決定することができる。このとき、画像処理装置30は、移動速度が速いほど透明度を上げるようにしてもよい。上記のように、仮想物体60の画像を透明にした場合、仮想物体60の裏側に現実物体が存在する場合には、その現実物体が表示され、観察者は現実物体を確認することができる。そのため、観察者の手40が現実物体に接触する可能性を低減することができる。
また、手40の移動速度が所定の速度以上である場合に、仮想物体60の画像が透明になるため、手40が現実物体から離れた場所にある場合であっても、手40が高速で移動している場合には仮想物体60の画像を透明にすることができる。したがって、観察者は、現実物体の位置を容易に確認することができ、手40を現実物体に衝突させてしまうことを、余裕を持って回避することができる。一方、手40の移動速度が所定の速度未満である場合には、仮想物体60の画像が透明になることはない。そのため、現実物体の近くで手40がゆっくりと動いており、手40が現実物体に接触したとしても衝撃が少ない場合には、仮想物体60の画像を透明にせず表示させておくことができる。したがって、観察者が仮想物体60を観察することを阻害しない。
また、画像処理装置30が仮想物体60の画像を表示させる表示装置は、観察者が頭部に装着した頭部装着型表示装置(HMD)であり、当該HMDは、ビデオシースルー型HMDとすることができる。画像処理装置30は、観察者の視点位置から現実空間を撮像した画像上に仮想物体60の画像を重畳して表示させることができる。
観察者が頭部装着型表示装置を装着し、ディスプレイにCGを表示している状態で移動すると、CGに隠れている現実物体に気が付かずに接触してしまうおそれがある。特に観察者の手が素早く動いた場合に、手がCGに隠れている現実物体に接触する可能性が高く、接触した際の衝撃も大きい。これに対して、本実施形態では、観察者が装着する頭部装着型表示装置に表示するCGの透明度を、観察者の手の移動速度に応じて制御することができるので、上述した接触可能性を適切に抑制しつつ、違和感のない複合現実感を提示することができる。
観察者が頭部装着型表示装置を装着し、ディスプレイにCGを表示している状態で移動すると、CGに隠れている現実物体に気が付かずに接触してしまうおそれがある。特に観察者の手が素早く動いた場合に、手がCGに隠れている現実物体に接触する可能性が高く、接触した際の衝撃も大きい。これに対して、本実施形態では、観察者が装着する頭部装着型表示装置に表示するCGの透明度を、観察者の手の移動速度に応じて制御することができるので、上述した接触可能性を適切に抑制しつつ、違和感のない複合現実感を提示することができる。
(変形例)
上記実施形態においては、手40の3次元形状および位置を推定し、さらに移動速度や移動方向を推定する場合について説明したが、移動速度や移動方向の推定対象とする物体は、観察者の手40に限らず、足や頭部といった他の体の一部であってもよい。また、上記物体は、観察者の体の一部に限定されるものではなく、観察者が操作する物体であってもよい。また、上記物体は、観察者が遠隔で操作するロボットのアームであってもよく、撮像装置21L、21Rは、観察者の視点位置からの現実空間を撮像するカメラに限定されない。
上記実施形態においては、手40の3次元形状および位置を推定し、さらに移動速度や移動方向を推定する場合について説明したが、移動速度や移動方向の推定対象とする物体は、観察者の手40に限らず、足や頭部といった他の体の一部であってもよい。また、上記物体は、観察者の体の一部に限定されるものではなく、観察者が操作する物体であってもよい。また、上記物体は、観察者が遠隔で操作するロボットのアームであってもよく、撮像装置21L、21Rは、観察者の視点位置からの現実空間を撮像するカメラに限定されない。
さらに、上記実施形態においては、表示装置としてビデオシースルー方式のHMDを用いる場合について説明したが、光学シースルー方式のHMDであっても実現可能である。上述した本実施形態では、画像合成部37は、撮像装置21L、21Rの夫々の画像に対して、画像生成部36において生成された仮想物体60の画像を上書きするように合成した。しかしながら、撮像装置21L、21Rの画像に仮想物体60の画像を合成するのではなく、単に仮想物体60の画像を表示装置22のディスプレイに表示するようにしてもよい。
また、表示装置はHMDに限定されるものではなく、ハンドヘルドディスプレイ(HHD)を用いてもよい。HHDは、手持ちのディスプレイである。つまり、観察者が手にとり、双眼鏡のように覗き込むことで画像を観察するディスプレイであってもよい。さらに、表示装置は、タブレットやスマートフォン等の表示端末であってもよい。
また、表示装置はHMDに限定されるものではなく、ハンドヘルドディスプレイ(HHD)を用いてもよい。HHDは、手持ちのディスプレイである。つまり、観察者が手にとり、双眼鏡のように覗き込むことで画像を観察するディスプレイであってもよい。さらに、表示装置は、タブレットやスマートフォン等の表示端末であってもよい。
また、図6のS51において、画像生成部36は、手40の位置と、仮想物体60が重畳される現実物体51の位置(仮想物体60が配置される位置)との間の距離に基づいて、透明度を決定してもよい。例えば、手40の移動速度が所定の速度以上であり、現実物体51との距離が所定の距離以下である場合に、CGを透明する。つまり、手40の移動速度が所定の速度以上である場合であっても、現実物体51との距離が所定の距離を上回っていれば、CGを透明にしないようにする。
この場合、撮像装置21L、21Rによって、例えば図2(a)のようなマーカー50を含む現実物体51を撮像した場合には、図4のS3の物体推定処理と同様に現実物体51の位置を推定する。次に、手40の位置と現実物体51の位置との差を算出することにより、手40と現実物体51との距離を算出する。そして、算出した距離に応じてCGの透明度を決定する。現実物体51から手40が離れた場所にあった場合に、手40を早く動かしても、現実物体51に接触するおそれはない。したがって、このような場合にはCGを透明にせず、違和感のない複合現実感を提示することができる。
この場合、撮像装置21L、21Rによって、例えば図2(a)のようなマーカー50を含む現実物体51を撮像した場合には、図4のS3の物体推定処理と同様に現実物体51の位置を推定する。次に、手40の位置と現実物体51の位置との差を算出することにより、手40と現実物体51との距離を算出する。そして、算出した距離に応じてCGの透明度を決定する。現実物体51から手40が離れた場所にあった場合に、手40を早く動かしても、現実物体51に接触するおそれはない。したがって、このような場合にはCGを透明にせず、違和感のない複合現実感を提示することができる。
さらに、図6のS51において、画像生成部36は、手40の移動方向に基づいて、透明度を決定してもよい。観察者が手40を現実物体51から離れる方向に移動させた場合、手40を早く動かしても、現実物体51に接触することはない。したがって、このような場合にはCGを透明にしないように、手40の移動方向が現実物体51に近づく方向である場合にのみCGを透明にするようにしてもよい。
(第二の実施形態)
上述した第一の実施形態では、物体(手40)の移動速度に応じて仮想物体60の画像全体を透明にする場合について説明した。この第二の実施形態では、仮想物体60の画像の一部を透明にする場合について説明する。
本実施形態における画像処理装置30を備えるMRシステム10の構成は、上述した図1に示す構成と同様である。また、本実施形態における画像処理装置30の動作も、上述した図4に示す動作と同様である。ただし、図4のS5におけるCGレンダリング処理が上述した第一の実施形態とは異なる。したがって、以下、処理の異なる部分を中心に説明する。
上述した第一の実施形態では、物体(手40)の移動速度に応じて仮想物体60の画像全体を透明にする場合について説明した。この第二の実施形態では、仮想物体60の画像の一部を透明にする場合について説明する。
本実施形態における画像処理装置30を備えるMRシステム10の構成は、上述した図1に示す構成と同様である。また、本実施形態における画像処理装置30の動作も、上述した図4に示す動作と同様である。ただし、図4のS5におけるCGレンダリング処理が上述した第一の実施形態とは異なる。したがって、以下、処理の異なる部分を中心に説明する。
図8は、本実施形態における画像生成部36が図4のS5において実行するCGレンダリング処理の流れを示すフローチャートである。
まずS151において、画像生成部36は、手40の位置に応じてCGを透明にする領域(以下、「透明領域」と呼ぶ。)を決定する。透明領域は、手40を含む所定の範囲に対応する領域、例えば、手40から一定の距離の内側の領域とすることができる。この透明領域は、物体推定処理において推定された手40の3次元形状および位置と、あらかじめ設定された上記一定の距離とから決定することができる。
まずS151において、画像生成部36は、手40の位置に応じてCGを透明にする領域(以下、「透明領域」と呼ぶ。)を決定する。透明領域は、手40を含む所定の範囲に対応する領域、例えば、手40から一定の距離の内側の領域とすることができる。この透明領域は、物体推定処理において推定された手40の3次元形状および位置と、あらかじめ設定された上記一定の距離とから決定することができる。
図9(a)は、手40の周りの仮想物体60のみを透明にした様子を表している。この図9(a)において、透明領域71は、手40から一定の距離の領域であり、その透明領域71に含まれている仮想物体60のみが透明になってその裏にある現実物体51の一部が表示されている様子を表している。この場合、観察者が手40を移動することで、手40の位置に応じて手40の周りの現実物体51が表示されるようになるので、手40が現実物体51に接触する可能性を低減することができる。また、手40の周り以外のCGは透明にならないので、観察者がCGを見ることが阻害されない。
なお、本実施形態では、手40から一定の距離の内側の領域を透明領域とする場合について説明したが、手40の移動方向における透明領域を他の方向に対して広く設定してもよい。図9(b)は、手40が指先方向に移動している場合の表示例を示している。この場合、透明領域72は、手40の指先方向における範囲が他の方向に対して広くなる。
これにより、手40の移動方向に配置された仮想物体60の透明になる範囲が広くなり、手40が仮想物体60の裏に隠された現実物体51と接触する可能性をより低減することができる。この場合の透明領域は、物体推定処理において推定された手40の3次元形状および位置と、手40の移動方向と、あらかじめ設定された所定の距離とから決定することができる。なお、透明領域を広げる範囲は、移動速度にかかわらず一定としてもよいし、移動速度が速いほど大きく広げるようにしてもよい。
これにより、手40の移動方向に配置された仮想物体60の透明になる範囲が広くなり、手40が仮想物体60の裏に隠された現実物体51と接触する可能性をより低減することができる。この場合の透明領域は、物体推定処理において推定された手40の3次元形状および位置と、手40の移動方向と、あらかじめ設定された所定の距離とから決定することができる。なお、透明領域を広げる範囲は、移動速度にかかわらず一定としてもよいし、移動速度が速いほど大きく広げるようにしてもよい。
図8に戻って、S152では、画像生成部36は、S151において決定された透明領域と仮想物体60との重なりを考慮して、仮想物体60の画像(CG)の透明度を決定する。具体的には以下の通りである。
まず、透明領域と重ならない仮想物体60は透明にしない。
透明領域と重なる仮想物体60の画像の透明度は、S34において決定された手40の移動速度に応じて決定する。この場合の透明度の決定方法は、S51における透明度の決定方法と同様であってもよい。あるいは、透明領域と重なる仮想物体60の画像の透明度を、透明領域内において重み付けしてもよい。つまり、透明領域のうち手40に近い領域はより透明度が高くなり、手40から遠い領域は透明度が低くなるようにしてもよい。これにより、より現実物体との接触の可能性が高い、手40に近い部分の仮想物体60を透明にすることができ、現実物体との接触の可能性を適切に低減することができる。
まず、透明領域と重ならない仮想物体60は透明にしない。
透明領域と重なる仮想物体60の画像の透明度は、S34において決定された手40の移動速度に応じて決定する。この場合の透明度の決定方法は、S51における透明度の決定方法と同様であってもよい。あるいは、透明領域と重なる仮想物体60の画像の透明度を、透明領域内において重み付けしてもよい。つまり、透明領域のうち手40に近い領域はより透明度が高くなり、手40から遠い領域は透明度が低くなるようにしてもよい。これにより、より現実物体との接触の可能性が高い、手40に近い部分の仮想物体60を透明にすることができ、現実物体との接触の可能性を適切に低減することができる。
S153では、画像生成部36は、S152において決定された透明度に従って、仮想物体60の画像を生成する。詳細な処理は、S52と同様であるため説明は省略する。
なお、上述した第一の実施形態と同様に、本実施形態においても、S152において、現実物体と手との距離に応じて透明度を決定してもよい。この処理は第一の実施形態と同様に実施できるため説明は省略する。
このように、本実施形態における画像処理装置30は、仮想物体60の画像のうち、手40を含む所定の範囲に対応する領域を透明にする。仮想物体60の画像全体ではなく、仮想物体60の画像の一部を透明領域とするので、不必要にCGを透明にすることがない。また、手40の移動方向の透明領域を他の方向に対して広く設定するので、より確実に現実物体との接触可能性を低減することができる。
なお、上述した第一の実施形態と同様に、本実施形態においても、S152において、現実物体と手との距離に応じて透明度を決定してもよい。この処理は第一の実施形態と同様に実施できるため説明は省略する。
このように、本実施形態における画像処理装置30は、仮想物体60の画像のうち、手40を含む所定の範囲に対応する領域を透明にする。仮想物体60の画像全体ではなく、仮想物体60の画像の一部を透明領域とするので、不必要にCGを透明にすることがない。また、手40の移動方向の透明領域を他の方向に対して広く設定するので、より確実に現実物体との接触可能性を低減することができる。
以上のように、上記各実施形態では、画像処理装置30は、手などの物体の移動速度に応じてCGの透明度を制御するようにした。したがって、手などが素早く移動された場合にはCGが透明になり、通常はCGの裏側に隠れて見えない現実物体を表示させることができるので、手などが現実物体に接触する可能性を低減することができる。また、手などが移動しないか、ゆっくりと移動された場合には、CGは透明にならないので、観察者がCGを見ることを阻害しないようにすることができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
10…複合現実感システム、21L、21R…撮像装置、22…表示装置、30…画像処理装置、31…画像取得部、32…画像記憶部、33…物体推定部、34…モデル形状記憶部、35…位置姿勢推定部、36…画像生成部、37…画像合成部、38…表示制御部
Claims (15)
- 現実空間が撮像された第一の画像を取得する第一の取得手段と、
前記第一の画像に撮像されている物体の移動速度を取得する第二の取得手段と、
前記第二の取得手段により取得された移動速度に基づいて、前記第一の画像を撮像した撮像装置の位置姿勢に基づいて生成される第二の画像の透明度を決定する決定手段と、
前記決定手段により決定された透明度に従って、前記第二の画像を表示部に表示させる表示制御手段と、を備えることを特徴とする画像処理装置。 - 前記決定手段は、
前記第二の取得手段により取得された移動速度が所定の速度以上である場合、前記第二の画像を透明にするよう前記透明度を決定することを特徴とする請求項1に記載の画像処理装置。 - 前記決定手段は、
前記第二の取得手段により取得された移動速度が速いほど、前記透明度を上げることを特徴とする請求項1または2に記載の画像処理装置。 - 前記第二の画像は、仮想物体の画像を含み、
前記決定手段は、
前記物体の位置と、前記仮想物体が配置される位置との間の距離に基づいて、前記透明度を決定することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 - 前記決定手段は、
前記第二の取得手段により移動速度を取得した第一の物体の位置と、前記第一の画像に撮像されている前記第一の物体とは異なる第二の物体の位置との距離に基づいて、前記透明度を決定することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 - 前記決定手段は、前記距離が所定の距離以下である場合、前記第二の画像を透明にするよう前記透明度を決定することを特徴とする請求項4または5に記載の画像処理装置。
- 前記第二の取得手段は、前記物体の移動方向をさらに取得し、
前記決定手段は、
前記第二の取得手段により取得された移動速度および移動方向に基づいて、前記透明度を決定することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。 - 前記決定手段は、
前記第二の画像のうち、前記物体を含む所定の範囲に対応する領域の透明度を決定することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。 - 前記第二の取得手段は、前記物体の移動方向をさらに取得し、
前記決定手段は、
前記第二の取得手段により取得された移動方向における前記範囲を他の方向に対して広く設定することを特徴とする請求項8に記載の画像処理装置。 - 前記物体は、観察者の体の一部であることを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
- 前記第二の取得手段は、前記物体の加速度をさらに取得し、
前記決定手段は、
前記第二の取得手段により取得された加速度に基づいて、前記透明度を決定することを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。 - 前記表示制御手段は、
前記第一の画像に前記第二の画像を合成して前記表示部に表示させることを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。 - 前記表示部は、観察者が頭部に装着した頭部装着型の表示装置であり、
前記第一の画像は、前記観察者の視点位置から現実空間を撮像した画像であることを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。 - 現実空間が撮像された第一の画像を取得するステップと、
前記第一の画像に撮像されている物体の移動速度を取得するステップと、
前記移動速度に基づいて、前記第一の画像を撮像した撮像装置の位置姿勢に基づいて生成される第二の画像の透明度を決定するステップと、
前記透明度に従って、前記第二の画像を表示部に表示させるステップと、を含むことを特徴とする画像処理方法。 - コンピュータを、請求項1から13のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016201487A JP2018063567A (ja) | 2016-10-13 | 2016-10-13 | 画像処理装置、画像処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016201487A JP2018063567A (ja) | 2016-10-13 | 2016-10-13 | 画像処理装置、画像処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018063567A true JP2018063567A (ja) | 2018-04-19 |
Family
ID=61967842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016201487A Pending JP2018063567A (ja) | 2016-10-13 | 2016-10-13 | 画像処理装置、画像処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018063567A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020054760A1 (ja) * | 2018-09-12 | 2020-03-19 | 株式会社アルファコード | 画像表示制御装置および画像表示制御用プログラム |
JP2021002290A (ja) * | 2019-06-24 | 2021-01-07 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
WO2023095519A1 (ja) * | 2021-11-26 | 2023-06-01 | ソニーグループ株式会社 | 表示制御装置、表示制御方法、及びプログラム |
-
2016
- 2016-10-13 JP JP2016201487A patent/JP2018063567A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020054760A1 (ja) * | 2018-09-12 | 2020-03-19 | 株式会社アルファコード | 画像表示制御装置および画像表示制御用プログラム |
JP2020042206A (ja) * | 2018-09-12 | 2020-03-19 | 株式会社アルファコード | 画像表示制御装置および画像表示制御用プログラム |
US11030821B2 (en) | 2018-09-12 | 2021-06-08 | Alpha Code Inc. | Image display control apparatus and image display control program |
JP2021002290A (ja) * | 2019-06-24 | 2021-01-07 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP7378232B2 (ja) | 2019-06-24 | 2023-11-13 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
WO2023095519A1 (ja) * | 2021-11-26 | 2023-06-01 | ソニーグループ株式会社 | 表示制御装置、表示制御方法、及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11796309B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JP6747504B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
EP3488315B1 (en) | Virtual reality display system having world and user sensors | |
CN109791433B (zh) | 预测式中心凹虚拟现实系统 | |
JP6454851B2 (ja) | 3次元上の注視点の位置特定アルゴリズム | |
KR20170031733A (ko) | 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들 | |
JP2016522463A5 (ja) | ||
WO2020003860A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP7059934B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2016105279A (ja) | 視覚データを処理するための装置および方法、ならびに関連するコンピュータプログラム製品 | |
JP2009169622A (ja) | 画像処理装置、画像処理方法 | |
WO2019142560A1 (ja) | 視線を誘導する情報処理装置 | |
JP2018063567A (ja) | 画像処理装置、画像処理方法およびプログラム | |
CN110895433A (zh) | 用于增强现实中用户交互的方法和装置 | |
US20230047470A1 (en) | Information processing apparatus, information processing method, and computer-readable recording medium | |
JP2020042206A (ja) | 画像表示制御装置および画像表示制御用プログラム | |
US11275434B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US20180160093A1 (en) | Portable device and operation method thereof | |
JP4689344B2 (ja) | 情報処理方法、情報処理装置 | |
CN110769245A (zh) | 一种校准方法及相关设备 | |
US20230376109A1 (en) | Image processing apparatus, image processing method, and storage device | |
JP2015201734A (ja) | 画像処理装置、画像処理装置の制御方法およびプログラム | |
JP7319575B2 (ja) | 画像処理装置と、その処理方法、プログラム | |
JP2019040357A (ja) | 画像処理装置、画像処理方法、コンピュータプログラム | |
JP7148779B2 (ja) | 画像処理装置と、その処理方法、プログラム |