JP2022105044A - 画像処理装置と、その処理方法、プログラム - Google Patents

画像処理装置と、その処理方法、プログラム Download PDF

Info

Publication number
JP2022105044A
JP2022105044A JP2022068056A JP2022068056A JP2022105044A JP 2022105044 A JP2022105044 A JP 2022105044A JP 2022068056 A JP2022068056 A JP 2022068056A JP 2022068056 A JP2022068056 A JP 2022068056A JP 2022105044 A JP2022105044 A JP 2022105044A
Authority
JP
Japan
Prior art keywords
image
composite image
experiencer
output
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022068056A
Other languages
English (en)
Other versions
JP7319575B2 (ja
Inventor
雅之 兜
Masayuki Kabuto
浩一 入口
Koichi Iriguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017148499A external-priority patent/JP7148779B2/ja
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2022068056A priority Critical patent/JP7319575B2/ja
Publication of JP2022105044A publication Critical patent/JP2022105044A/ja
Priority to JP2023117247A priority patent/JP2023145551A/ja
Application granted granted Critical
Publication of JP7319575B2 publication Critical patent/JP7319575B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

【課題】体験者の状態により合成画像のブレ補正を制御し、使い勝手のよい画像処理装置、方法及びプログラムを提供する。【解決手段】画像処理装置としてのPC100は、体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する生成手段と、生成手段が生成した合成画像を体験者の利用する第1表示装置(HMD101)に出力する第1出力手段と、合成画像を用いてブレ補正された合成画像を第2表示装置(外部ディスプレイ160)に出力する第2出力手段と、を備える。第2出力手段は、体験者の位置に基づき、ブレ補正に係る条件を満たす場合に、生成手段が生成した合成画像を第2表示装置に出力する。【選択図】図1

Description

本発明は、合成画像のブレ補正に係る技術に関するものである。
近年、複合現実(Mixed Reality/以下、MRと記載)の技術が普及している。複合現実の技術を用いることで、ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに対し、現実画像にCGモデルを配置した複合現実画像を提供し、現実と仮想を複合した複合現実の世界(複合現実空間)を体験させることができる。複合現実画像を生成するにあたり、HMDの位置とCGモデルの位置とを、センサや二次元マーカを用いて特定する手法が取られている。
特許文献2には、客観カメラにより撮影された体験者を含む画像と、体験者が体験している際に映し出されるCG画像と、を合成して、ディスプレイに表示する技術が開示されている。
このように、単に体験者に画像を表示するばかりでなく、体験者が見ている画像や、体験者の体験状態を映し出すことが一般的に行われている。
特開2003-308514号公報 特開2015-170232号公報
上述したように、MRでは、体験者の見ている映像を外部ディスプレイに表示(体験者のHMDに表示されている映像と同じ映像を表示)して、体験していない人が外部から確認することがある。
この場合、体験者は移動しているため、HMDで撮影した現実画像(動画)はブレが大きくなる(多くのブレが発生する)。体験者は自分の動きに合わせてHMDに現実画像を用いて生成されたMR画像が表示されるため、ブレとなるような表示があっても違和感がないものの、体験していない人は自分の動きとは関係ない映像(ブレのある映像)を外部ディスプレイで見ているため気分がわるくなる(酔いやすい)ということが発生する。
特に、外部ディスプレイは大型のディスプレイを用いていることが多く、よりブレが大きく感じることがあり、HMDに表示している映像は体験していない人には適さないという問題があった。
一方、体験していない人であっても、体験者の実際の作業状態を見る必要が場合(検証作業などの場合)、体験者のHMDで表示している映像をそのまま見る必要があるため一律にブレを制御することにも問題がある。
そこで、本発明は、体験者の状態により合成画像のブレ補正を制御し、使い勝手のよい仕組みを提供することを目的とする。
本発明の目的を達成するための画像処理装置は、体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する生成手段と、前記生成手段により生成された合成画像を体験者の利用する第1表示装置に出力する第1出力手段と、前記合成画像を用いてブレ補正された合成画像を第2表示装置に出力する第2出力手段とを備え、前記第2出力手段は、体験者の位置に基づき、ブレ補正に係る条件を満たす場合に、前記生成手段により生成された合成画像を第2表示装置に出力することを特徴とする。
本発明により、体験者の状態により合成画像のブレ補正を制御し、使い勝手のよい仕組みを提供することができる。
システムの概要を示す図。 HMD101及びPC100のそれぞれのハードウェア構成例を示すブロック図。 PC100の機能構成例を示すブロック図。 PC100のモジュール構成例を示すブロック図。 HMD101、PC100、外部ディスプレイ160が行う処理のフローチャート。 ステップS510における処理のフローチャート。 外部メモリ211に保持される情報の構成例を示す図。 外部ディスプレイ160のブレ補正時の表示例を示す図。 外部ディスプレイ160のブレ補正解除時の表示例を示す図。
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
本実施形態に係るシステムは、現実空間と仮想空間との合成空間である複合現実空間を、HMD等の頭部装着型表示装置や、頭部装着型表示装置は別個に設けられた表示装置に対して提示する複合現実感提示システムである。先ず、本実施形態に係るシステムの概要について、図1を用いて説明する。
ユーザの頭部にはHMD101が装着されており、HMD101の表示画面には、画像処理装置としてのPC100から出力される複合現実空間の画像が表示される。ユーザはHMD101の表示画面に表示される複合現実空間の画像を観察することで複合現実空間を体験する。
また、本実施形態において、体験しているユーザは複数人(体験者A、体験者B)いるものとして説明する。
HMD101には、光学式センサ104で検知可能(計測可能)な光学式マーカ103が取り付けられており、光学式センサ104による光学式マーカ103の計測結果はPC100に送出される。図1では図示を簡略化するために、光学式センサ104の数を1としているが、実際には複数の光学式センサ104を配置する。PC100は光学式センサ104による光学式マーカ103の計測結果に基づいて光学式マーカ103の位置姿勢を求める。光学式センサ104による光学式マーカ103の計測結果に基づいて該光学式マーカ103の位置姿勢を求めるための技術については周知であるため、該技術に係る詳細な説明は省略する。そしてPC100は、例えばHMD101に備わっているカメラをユーザの視点(ユーザ視点)とする場合には、予め求めた「ユーザ視点と光学式マーカ103との間の相対的な位置姿勢関係」を用いて、光学式マーカ103の位置姿勢をユーザ視点の位置姿勢に変換する。
なお、ユーザ視点の位置姿勢を取得する方法は特定の方法に限らない。例えば、ユーザ視点の位置姿勢を得るために用いる位置姿勢計測用センサは光学式センサ104に限らず、磁気センサ、超音波センサなど他の種類の位置姿勢計測用センサを用いてユーザ視点の位置姿勢を取得するようにしても良い。また、現実空間中に配されている二次元マーカ102をHMD101に備わっているカメラにより撮像し、該撮像により得られる撮像画像を用いてユーザ視点の位置姿勢を求めても良い。また、位置姿勢計測用センサと2次元マーカとを併用してユーザ視点の位置姿勢を取得するようにしても良い。
そしてPC100は、CGモデル130等の仮想物体を生成して仮想空間中に配置し、ユーザ視点から見た仮想物体の画像を生成する。そしてPC100は、この生成した仮想物体の画像と、HMD101が有するカメラにより撮像された現実空間の画像と、を合成した合成画像を複合現実空間の画像として生成し、該生成した複合現実空間の画像をHMD101に対して送出する。これによりユーザは、自身の視点の位置姿勢に応じた複合現実空間の画像を眼前に観察することができる。
また、現実空間には、ユーザが複合現実空間を体験している際の映像を表示する外部ディスプレイ160が配されている。この外部ディスプレイ160は、体験していないユーザにより体験者の映像を確認するために用いられる。
本実施形態では、外部ディスプレイ160が、HMD101それぞれのPC100に接続されているものとする。そして、それぞれのHMD101で表示している映像がそれぞれの外部ディスプレイ160に表示されている。体験者AのHMD101の映像は、体験者A用の外部ディスプレイ160に表示されている。また、体験者BのHMD101の映像は、体験者B用の外部ディスプレイ160に表示されている。
なお、この外部ディスプレイ160への表示制御が本実施形態における特徴の一例である。
次に、HMD101及びPC100のそれぞれのハードウェア構成例について、図2のブロック図を用いて説明する。なお、図2に示した構成は、HMD101、PC100に適用可能なハードウェア構成の一例であり、図2の構成に限るものではない。
先ず、HMD101について説明する。右目・左目ビデオカメラ221は、ユーザの右目に提供する現実空間の画像を撮像するための右目用ビデオカメラと、ユーザの左目に提供する現実空間の画像を撮像するための左目用ビデオカメラと、を有し、それぞれのビデオカメラによる撮像画像(現実空間の画像)はPC100に送出される。
右目・左目ディスプレイ222は、ユーザの右目に映像(画像及び文字を含む)を提供するための右目用ディスプレイと、ユーザの左目に映像(画像及び文字を含む)を提供するための左目用ディスプレイと、を有する。PC100から送出された右目用の映像は右目用ディスプレイに表示され、左目用の映像は左目用ディスプレイに表示される。
次に、PC100について説明する。汎用バス212は、右目・左目ビデオカメラ221から送出される現実空間の画像を受信するためのインターフェースとして機能するものであり、例えば、外部入力端子(例えば、IEEE1394端子)によって構成される。
CPU201はROM202やRAM203に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU201は、PC100全体の動作制御を行うと共に、PC100が行うものとして後述する各処理を実行若しくは制御する。
ROM202には、書換不要のコンピュータプログラムやデータ、例えば、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)が格納されている。
RAM203は、ROM202や外部メモリ211からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。またRAM203は、汎用バス212を介して右目・左目ビデオカメラ221から受信した現実空間の画像を格納するためのエリアを有する。またRAM203は、通信I/Fコントローラ208を介して光学式センサ104から受信した計測結果を格納するためのエリアを有する。またRAM203は、通信I/Fコントローラ208を介して客観カメラ106から受信した現実空間の画像を格納するためのエリアを有する。またRAM203は、CPU201が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM203は、各種のエリアを適宜提供することができる。
ビデオコントローラ206は、右目・左目ディスプレイ222、ディスプレイ210、外部ディスプレイ160の表示制御を行うためのものである。右目・左目ディスプレイ222に対しては、例えば外部出力端子(例えば、Digital Visual Interface)を用いて映像信号(画像や文字の表示用信号)の出力を行う。ディスプレイ210は、CRTや液晶画面などにより構成されており、CPU201による処理結果を画像や文字などでもって表示することができる。ディスプレイ210を用いて、システムの各種設定などの情報の入力・表示を行うことができる。
入力コントローラ205は、入力デバイス209の動作制御を行うためのものである。入力デバイス209は、マウスやキーボードなどのユーザインターフェースとして機能するものであり、ユーザが操作することで各種の指示をCPU201に対して入力することができる。例えば、入力デバイス209がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンを押下(指等でタッチ)することにより、各種の指示の入力を行うことができる。なお、タッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。
メモリコントローラ207は、外部メモリ211への情報の読み書きを制御するためのものである。外部メモリ211は、ハードディスクドライブ装置、フレキシブルディスク、PCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等のメモリ装置である。外部メモリ211には、OS(オペレーティングシステム)や、PC100が行うものとして後述する各処理をCPU201に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。
外部メモリ211に保存されているコンピュータプログラムには、以下に説明する各フローチャートに従った処理をCPU201に実行させるためのコンピュータプログラムが含まれている。また、外部メモリ211に保存されているデータには、本実施形態を含む以下の各実施形態において既知の情報として取り扱う情報や、CGモデル130を含む様々な仮想物体の描画に要するデータ(描画データ)が含まれている。外部メモリ211に保存されているコンピュータプログラムやデータは、CPU201による制御に従って適宜RAM203にロードされ、CPU201による処理対象となる。なお、外部メモリ211は、USBメモリ、SDカードなどのメモリ装置であっても良い。
通信I/Fコントローラ208は、光学式センサ104から計測結果や現実空間の画像を受信するためのインターフェースとして機能するものである。また通信I/Fコントローラ208は、LANやインターネットなどのネットワークを介して外部の機器との間のデータ通信を行うためのインターフェースとして機能するものである。例えば、通信I/Fコントローラ208は、TCP/IPを用いたインターネット通信等が可能である。また通信I/Fコントローラ208は、ギガビットイーサネット(登録商標)等を通じて光学式センサ104との通信も制御する。なお、図1では、光学式センサ104、及び外部ディスプレイ160と、PC100と、の間のデータ通信は有線であるが、無線であっても良い。例えば、PC100は、LANケーブルやUSBケーブル、無線通信など様々な通信形態によって光学式センサ104、外部ディスプレイ160との間のデータ通信を行うことができる。
上記の汎用バス212、CPU201、ROM202、RAM203、ビデオコントローラ206、入力コントローラ205、メモリコントローラ207、通信I/Fコントローラ208は何れも、システムバス204に接続されている。
なお、本実施形態では、HMD101とPC100とを別個の機器とするが、HMD101とPC100とを一体化させても良い。また、PC100をサーバ装置として取り扱っても良い。
次に、PC100のモジュール構成例について、図4のブロック図を用いて説明する。オペレーティングシステム401は、HMD101との間の入出力を制御し、右目・左目ビデオカメラ221から汎用バス212を介して得られた現実空間の画像を複合現実感プラットフォーム403へと受け渡す。またオペレーティングシステム401は、グラフィックエンジン402で描画された複合現実空間の画像を、ビデオコントローラ206を介して、右目・左目ディスプレイ222へ出力する。
グラフィックエンジン402は、外部メモリ211に記憶されている仮想物体の描画データを用いて仮想物体の画像を生成し、該生成した仮想物体の画像を右目・左目ビデオカメラ221による撮像画像上に重畳することで複合現実空間の画像を生成する。仮想物体の画像の生成(描画)に利用するエンジンは、例えば、OpenGLやDirectXなどの広く利用されているグラフィックエンジンでも、独自に開発したグラフィックエンジンでもよい。なお、本実施形態ではグラフィックライブラリとしてOpenGLを利用するものとする。
複合現実感プラットフォーム(MRプラットフォームともいう)403は、上記のようにしてユーザの視点の位置姿勢を求め、現実空間と仮想空間との位置合わせを行う。これらの技術は、例えば、特開2002-32784号公報、特開2006-072903公報、特開2007-166427公報等に開示されている既存の技術を用いて実現することが可能である。
複合現実感アプリケーション(MRアプリケーションやビューアアプリケーションともいう)404は、複合現実感プラットフォーム403から視点の位置姿勢や、仮想物体の色や形状の情報、仮想物体の位置姿勢等の仮想物体の描画に要する情報を受け付け、グラフィックエンジン402に対して、仮想物体の画像の描画命令を発行する。この時、OpenGLのAPIを用いて、描画する仮想物体の識別情報、位置姿勢の情報を設定した命令を発行する。
また、複合現実感プラットフォーム403は、客観カメラ106から撮像画像を受信すると、該撮像画像を複合現実感アプリケーション404へ受け渡す。補正モジュール405は、グラフィックエンジン402で描画された画像をブレ補正する処理を行う。ブレ補正する処理を行うか否かについての制御は、複合現実感プラットフォーム403や複合現実感アプリケーション404が制御するものとする。
補正モジュール405は、電子式の手ブレ補正技術を用いることで実現可能である。例えば、撮影された画像を一度メモリに読み込み、次に撮影された画像と比較して、像のズレを画素をずらすことで補正する。ブレ補正する技術については様々あり、いずれの補正技術を用いて実現してもよい。補正する画像は、HMD101に出力する画像である。
補正モジュール405によりブレ補正した画像またはブレ補正しない画像を外部ディスプレイ160へ出力する。
次に、1枚(1フレーム分)の複合現実空間の画像を生成してHMD101や外部ディスプレイ160に表示するためにHMD101及びPC100が行う処理について、図5のフローチャートに従って説明する。
ステップS500では、PC100で、ブレ補正に係る補正処理設定を行う。補正処理設定については、HMD情報700とCGモデル情報720に設定される。PC100のディスプレイ210で表示される設定画面から設定情報が入力される。
ここで、図7について説明する。図7は、本実施形態で用いる設定情報の一例を示す図である。設定情報は、外部メモリ211に記憶されるものとする。
設定情報には、HMD情報700とCGモデル情報720がある。HMD情報700は各HMD101の設定が記憶されている。
CGモデル情報720は、仮想空間における各CGモデルの設定が記憶されている。
HMD情報700は、HMDID701、位置702、姿勢703、外部ディスプレイ表示有無704、対象705、設定値706の情報を有している。
HMDID701は、HMD101ごとのIDを記憶しているものである。位置702と姿勢703は、複合現実感プラットフォーム403で算出されたHMD101の位置姿勢情報を記憶するものである。この情報は常に更新されるものである。
外部ディスプレイ表示有無704は、HMD101に出力する画像を外部ディスプレイに出力するか否かを設定した情報(フラグ)である。ONの場合には、外部ディスプレイ160に出力する設定でありブレ補正処理を行う場合の設定である。OFFの場合には、外部ディスプレイ160に出力しない設定であり、ブレ補正処理を行わない場合の設定である。また、ONの場合には、対象705と設定値706が設定されるものとする。
なお、外部ディスプレイ表示有無704がONの場合であっても、対象705と設定値706が設定されていない場合には、外部ディスプレイ160に画像を出力はするが補正処理をしないように制御する構成であってもよい。
対象705と設定値706は、ブレ補正処理を行う場合の設定であり、ブレ補正処理を行う基準が設定されている。
対象705は、他の体験者のHMD101との関係によりブレ補正処理を解除するか、CGとの関係によりブレ補正処理を解除するのかを設定できる。HMD101に近づいた際にブレ補正処理を解除する場合には、対象705に対象とするHMDのIDが設定され、設定値706に距離情報が記憶される。
また、CGに近づいた際に補正処理を解除する場合には、対象705に対象とするCGが設定され、設定値706に距離情報が記憶される。
対象705にCGのモデルIDが設定されてもよいが、本実施形態では、補正の解除処理がされるCGかは、CGモデル情報720で設定されるものとする。
CGモデル情報720は、モデルID721、モデル名722、ファイルパス723、位置724、姿勢725、補正制御解除対象726の情報を有している。
モデルID721はCGモデルのIDを記憶しているものである。モデル名722は、CGモデル自体のファイル名称を記憶しているものである。ファイルパス723は、CGモデルとなるファイルが保存されている場所を記憶しているものである。
位置724、姿勢725は、CGモデルを表示する現実空間において表示すべき仮想空間上の位置姿勢の値を有している。
補正制御解除対象726は、補正処理を解除するか否かを設定する情報を記憶しているものである。補正処理(補正制御)を解除するCGモデルの場合には、ONが設定される。補正処理(補正制御)を解除しないCGモデルの場合には、OFFが設定される。
すなわち、補正制御解除対象726でONとなっており、対象705がCGとなっている場合に、所定の位置にHMD101があると補正処理が解除され、HMD101で表示している画像と同じブレのある画像が外部ディスプレイ160に表示される。
ステップS501では、図7の設定情報をメモリに読み込み、HMD101が起動される。HMD101が起動されると、ステップS502へ処理を移す。
ステップS502では、右目・左目ビデオカメラ221の機能を用いて現実画像の撮像を開始する。
ステップS503では、右目・左目ビデオカメラ221は、撮像した現実空間の画像(右目用カメラによる撮像画像、左目用カメラによる撮像画像)をPC100に対して出力する。なお撮像と送信は繰り返し行われ、PC100から順次MR画像を受信してHMD101の右目・左目ディスプレイ222で表示する。
ステップS504では、CPU201は、右目・左目ビデオカメラ221から出力された現実空間の画像を汎用バス212を介して受信し、ステップS505ではCPU201は、該受信した現実空間の画像をRAM203や外部メモリ211に格納する。
ステップS506では、CPU201は、光学式センサ104による光学式マーカ103の計測結果を通信I/Fコントローラ208を介して取得し、該取得した計測結果に基づいて上記のようにしてユーザ視点の位置姿勢(HMD101の位置姿勢)を求める。ステップS506で求めるユーザ視点の位置姿勢は、右の視点(右目用ビデオカメラ)の位置姿勢、左の視点(左目用ビデオカメラ)の位置姿勢、である。右の視点については上記と同様、予め求めた「右の視点と光学式マーカ103との間の相対的な位置姿勢関係」を用いて、光学式マーカ103の位置姿勢を変換することで求めることができる。同様に、左の視点については上記と同様、予め求めた「左の視点と光学式マーカ103との間の相対的な位置姿勢関係」を用いて、光学式マーカ103の位置姿勢を変換することで求めることができる。
ステップS507では、CPU201は、ステップS506で求めた視点の位置姿勢を、HMD101の識別情報(ID)と関連づけて外部メモリ211に格納する。例えば、図7のHMD情報700に示す如く、HMDごとにID、位置、姿勢を対応付けて管理している。
ステップS508では、CPU201は、図7のCGモデル情報720を基に、外部メモリ211に格納されている仮想物体の描画データをRAM203に読み出し、該読み出した描画データに基づいて仮想物体を生成し、該生成した仮想物体を仮想空間中に配置する。そしてCPU201は、ステップS506で求めた視点の位置姿勢に基づいて、該視点から見た仮想物体の画像を生成する。そしてCPU201は、ステップS504で受信した現実空間の画像上に、仮想物体の画像を重畳させることで複合現実空間の画像(MR画像)を生成する。厳密にはCPU201は、右目用カメラによる撮像画像(現実空間の画像)上に、右の視点の位置姿勢に基づいて生成した仮想物体の画像を重畳させることで、右目用の複合現実空間の画像を生成すると共に、左目用カメラによる撮像画像(現実空間の画像)上に、左の視点の位置姿勢に基づいて生成した仮想物体の画像を重畳させることで、左目用の複合現実空間の画像を生成する。
ステップS508は、体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する生成処理の一例を示すものである。
ステップS509では、CPU201は、外部ディスプレイ表示有無704の設定に基づいて、外部ディスプレイにステップS508で生成されたMR画像を表示するか否かを判定する。ONの場合には、ステップS510へ処理を移し、OFFの場合には、ステップS514へ処理を移す。
ステップS510では、CPU201は、外部ディスプレイ160への出力の際の補正制御を行う。補正制御処理の詳細については、図6にて詳述する。
ステップS511では、CPU201は、ビデオコントローラ206を介して外部ディスプレイ160へMR画像を出力する。このMR画像は、ブレ補正処理がされた画像の場合と、ブレ補正処理がされていない(解除された)画像の場合がある。
ステップS511は、合成画像を用いてブレ補正された合成画像を第2表示装置に出力する第2出力処理の一例を示すものである。また、体験者の位置に基づき、ブレ補正に係る条件を満たす場合に、ステップS508で生成された合成画像を第2表示装置に出力する第2出力処理の一例を示すものである。 更に、対象物との距離を満たさない場合に、ブレ補正された合成画像を第2表示装置に出力し、対象物との距離を満たさない場合に、ブレ補正を解除してステップS508で生成された合成画像を第2表示装置に出力するものである。
ステップS512では、外部ディスプレイ160が、MR画像をPC100から受信し、ステップS513で、受信したMR画像を表示する。
ステップS513において、外部ディスプレイ160で表示した例が、図8と図9である。
図8は、補正制御解除するCG802を体験者Aが見ているが、設定値706の距離外にいる(条件を満たさない)ためブレ補正処理がされ表示されている状態である。
図9は、補正制御解除するCG902を体験者Aが見ており、設定値706の距離内にいる(基準を満たす)ためブレ補正処理が解除され表示されている状態である。902の点線のCGは、ブレにより表示されているモデルを示している。なお、903の点線の表示はブレを便宜的に説明するためのものであり、点線表示に限定されるものではない。
また、901のように、体験者以外で外部ディスプレイ160を見ているユーザに注意を促すため、「体験者と同じ映像が表示されています。ブレ補正処理がないため気分が悪くなることがあります。ご注意ください。」と表示する。この表示は、補正制御を解除した際に、PC100から出力される情報である。また、901の表示は、図7の設定情報(不図示)にて、任意に設定することができるものとする。
ステップS514では、CPU201は、ステップS508において生成したMR画像(右目用の複合現実空間の画像、左目用の複合現実空間の画像)を、ビデオコントローラ206を介してHMD101に対して出力する。
ステップS514は、ステップS508で生成された合成画像を体験者の利用する第1表示装置に出力する第1出力処理の一例を示すものである。
ステップS515では、右目・左目ディスプレイ222は、ステップS514においてPC100から送信された右目用の複合現実空間の画像及び左目用の複合現実空間の画像を受信する。そしてステップS516では、右目・左目ディスプレイ222は、右目用の複合現実空間の画像を右目用ディスプレイに表示する。
次に、ステップS510の補正制御処理について、図6のフローチャートに従って説明する。
ステップS601では、CPU201は、図7の設定情報に基づき、他の体験者のHMD101、或いは、対象のCGを特定する。なお、他の体験者のHMD101の場合には、他の体験者が撮像された画像に含まれることが望ましい。すなわち、他の体験者を見ている状態で設定値等の条件を満たした場合に、ブレ補正制御の解除がされるものである。
ステップS602では、CPU201は、他の体験者のHMD101、或いは、対象のCGとの距離を算出して、取得する。距離の算出は、対象となる体験者のHMD101の位置と他の体験者のHMDの位置、或いは、対象となる体験者のHMD101の位置とCGとの位置により算出することができる。
ステップS603では、CPU201は、取得した距離が、設定値706の距離を満たすか否かを判定する。具体的には、設定値706の距離より遠い位置に対象となる体験者のHMD101が存在するか否かを判定する。遠い位置にある場合には、条件を満たさないとして、ステップS607へ処理を移す。近い位置にある場合には、条件を満たすとして、ステップS604へ処理を移す。 すなわち、上述の条件は、ブレ補正に係る条件であり、ブレ補正を解除する条件である。また、体験者の位置と対象物との距離でもある。
ステップS604では、CPU201は、ブレ補正が解除されたか否かを判定する。すなわち、ブレ補正状態からブレ補正を行わない状態(解除状態)となった場合には、ステップS605へ処理を移す。既に解除状態である場合には、ステップS606へ処理を移す。
ステップS605では、通常の場合にはブレ補正を実行しているため、ブレ補正が解除された場合には、体験者以外のユーザに補正処理が解除されたことを注意喚起するべく、CPU201は、ブレ補正がされていないことの情報を外部ディスプレイ160へ出力(通知)する。注意喚起の例が、図9の901である。
なお、本実施形態では、ブレ補正が解除された際に注意喚起するように制御したが、ブレ補正が解除されている間は注意喚起の情報を出力する(所定間隔で出力する)ようにしてもよい。
また、注意喚起の表示がされており、ブレ補正がされるタイミングになった場合には、注意喚起の表示を解除するように制御することは言うまでもない。
ステップS605は、体験者の位置に基づきブレ補正に係る条件を満たし、ステップS508で生成された合成画像を第2表示装置に出力する場合に、ブレ補正がされていないこと通知する通知処理の一例を示すものである。
ステップS606では、CPU201は、ステップS508で生成されたMR画像(補正処理なしのMR画像)を取得する。
ステップS607では、ステップS508で生成されたMR画像を用いて、補正モジュール405でブレ補正を実行する。
ステップS608では、CPU201は、ステップS607で補正したMR画像を取得する。
ステップS606又はステップS607で取得したMR画像を、ステップS511で出力する。
以上、本実施形態によれば、HMD101の条件により、ブレ補正処理の有無を切り替えて外部ディスプレイに表示を行うため、使い勝手のよい仕組みとなる。特に、長時間ブレのある映像をみることを軽減し、酔いなどを防ぐことができる。
他の実施形態として、以下のような形態も考えられる。 上記の実施形態では、条件を満たす場合にブレ補正処理を解除するものとしたが、他の実施形態では、条件を満たす(例えばHMD101が設定距離外にあるという条件を満たす)場合にブレ補正処理を実行し、条件を満たさない(例えばHMD101が設定距離内にあるという条件を満たす)場合にブレ補正処理を解除する構成とする。
このように、ブレの補正処理の実行と解除を切替することができればよく、条件を満たす基準(距離内か距離外どちらを基準とするか)については、どちらであってもよい。
最後に、上記のPC100の機能構成例について、図3のブロック図を用いて説明する。なお、図3の各機能部はハードウェアで実装しても良いし、ソフトウェア(コンピュータプログラム)で実装しても良い。前者の場合、例えばこのようなハードウェアをHMD101に搭載することで、HMD101は、PC100が行うものとして上述した各処理をも実行することができる。後者の場合、このようなコンピュータプログラムを外部メモリ211に保存しておき、CPU201がこのコンピュータプログラムを適宜RAM203に読み出して実行することで、対応する機能部の機能を実現することができる。 なお、PC100は、画像処理装置として言い換えることも可能である。
生成部301は、体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する機能部である。撮像された現実画像とCGとを合成した複合現実空間の画像であることが望ましい。
第1出力部302は、生成部301により生成された合成画像を体験者の利用する第1表示装置(例えば、HMD101)に出力する機能部である。
第2出力部303は、合成画像を用いてブレ補正された合成画像を第2表示装置(例えば、外部ディスプレイ160)に出力する機能部である。また、第2出力部303は、体験者の位置姿勢に基づき、ブレ補正に係る条件(具体的には、ブレ補正を解除する条件)を満たす場合に、生成部301により生成された合成画像を第2表示装置に出力する機能部である。
通知部304は、体験者の位置姿勢に基づきブレ補正を解除する条件を満たし、生成部301により生成された合成画像を第2表示装置に出力する場合に、ブレ補正がされていないこと通知する機能部である。通知の例は901である。
ブレ補正を解除する条件とは、体験者の位置姿勢と対象物との距離である。
また、第2出力部303は、対象物との距離を満たさない場合に、ブレ補正された合成画像を第2表示装置に出力し、対象物との距離を満たさない場合に、ブレ補正を解除して生成部301により生成された合成画像を第2表示装置に出力する。
つまり、本実施形態に係る画像処理装置は、外部ディスプレイへ合成画像を表示する際に、体験者の位置によりブレ補正をしない合成画像を出力することで検証などの形態において利便性を高めることができる。特に検証に不要な動作の場合にはブレ補正がされ、検証に必要(正確な表示が必要)な場合にはブレ補正がされないように制御するため、外部で確認しているユーザの酔いなどの体調不良を軽減しつつ、外部からの検証を容易にすることができる。
なお、外部ディスプレイは、体験者以外が利用する表示装置であればいずれの装置であってもよい。
なお、上述の実施形態では、HMD101とPC100とを別個の装置としているが、HMD101とPC100とを一体化させ、HMD101は自機が行うものとして上述した各処理だけでなく、PC100が行うものとして説明した上記の各処理も行うようにしても良い。
また上述の実施形態では、HMD101はビデオシースルー方式の頭部装着型表示装置であるものとして説明した。しかし、HMD101として光学シースルー方式の頭部装着型表示装置を使用しても良い。
また、ユーザの頭部に装着されているHMD101に加えて若しくは代えて他の表示装置、例えばタブレット端末装置やスマートフォン等の携帯端末装置に対してユーザ視点に基づく複合現実空間の画像を出力するようにしても良い。この場合、携帯端末装置は、該携帯端末装置に備わっているセンサやアプリケーションを使用することで該携帯端末装置の位置姿勢をユーザ視点として取得することができる。ユーザ視点に基づく複合現実空間の画像はPC100が生成しても良いし、携帯端末装置側で生成しても良い。
また、上述の実施形態では、現実空間と仮想空間とを合成した複合現実空間をユーザに提示する複合現実感提示システム(MRシステム)を例にとり説明したが、仮想空間のみをユーザに提示する、所謂VRシステムに適用しても構わない。その場合、現実空間の撮像や現実空間の画像との合成に係る処理は不要となる。
また、上述の実施形態では説明を簡単にするために、1台のPC100に1台のHMD101が接続されているものとしたが、1台のPC100に2台以上のHMD101を接続するようにしても良い。
以上、本発明の実施形態について示したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、本発明におけるプログラムは、フローチャートの処理方法をコンピュータが実行可能なプログラムであり、本発明の記憶媒体は処理方法をコンピュータが実行可能なプログラムが記憶されている。
以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し実行することによっても、本発明の目的が達成されることは言うまでもない。
この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、DVD-ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク、ソリッドステートドライブ等を用いることができる。
また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。
さらに、本発明を達成するためのプログラムを通信線上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。
なお、以上説明した各実施形態の一部若しくは全部を適宜組み合わせて使用しても構わないし、以上説明した各実施形態の一部若しくは全部を選択的に使用しても構わない。
100 PC 101 HMD 103 光学式マーカ 102 二
次元マーカ 104 光学式センサ 130 CGモデル 160 外部デ
ィスプレイ

Claims (6)

  1. 体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する生成手段と、 前記生成手段により生成された合成画像を体験者の利用する第1表示装置に出力する第1出力手段と、 前記合成画像を用いてブレ補正された合成画像を第2表示装置に出力する第2出力手段とを備え、 前記第2出力手段は、体験者の位置に基づき、ブレ補正に係る条件を満たす場合に、前記生成手段により生成された合成画像を第2表示装置に出力することを特徴とする画像処理装置。
  2. 前記体験者の位置に基づきブレ補正に係る条件を満たし、前記生成手段により生成された合成画像を第2表示装置に出力する場合に、ブレ補正がされていないこと通知する通知手段を更に備えることを特徴とする請求項1に記載の画像処理装置。
  3. ブレ補正に係る条件とは、ブレ補正を解除する条件であって、体験者の位置と対象物との距離であることを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記第2出力手段は、対象物との距離を満たさない場合に、ブレ補正された合成画像を第2表示装置に出力し、対象物との距離を満たさない場合に、ブレ補正を解除して前記生成手段により生成された合成画像を第2表示装置に出力することを特徴とする請求項3に記載の画像処理装置。
  5. 体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する生成ステップと、 前記生成ステップにより生成された合成画像を体験者の利用する第1表示装置に出力する第1出力ステップと、 前記合成画像を用いてブレ補正された合成画像を第2表示装置に出力する第2出力ステップとを実行し、 前記第2出力ステップは、体験者の位置に基づき、ブレ補正に係る条件を満たす場合に、前記生成ステップにより生成された合成画像を第2表示装置に出力することを特徴とする画像処理装置の処理方法。
  6. 画像処理装置を 体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する生成手段と、 前記生成手段により生成された合成画像を体験者の利用する第1表示装置に出力する第1出力手段と、 前記合成画像を用いてブレ補正された合成画像を第2表示装置に出力する第2出力手段として機能させ、 前記第2出力手段を、体験者の位置に基づき、ブレ補正に係る条件を満たす場合に、前記生成手段により生成された合成画像を第2表示装置に出力させるためのプログラム。

JP2022068056A 2017-07-31 2022-04-18 画像処理装置と、その処理方法、プログラム Active JP7319575B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022068056A JP7319575B2 (ja) 2017-07-31 2022-04-18 画像処理装置と、その処理方法、プログラム
JP2023117247A JP2023145551A (ja) 2017-07-31 2023-07-19 画像処理装置と、その処理方法、プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017148499A JP7148779B2 (ja) 2017-07-31 2017-07-31 画像処理装置と、その処理方法、プログラム
JP2022068056A JP7319575B2 (ja) 2017-07-31 2022-04-18 画像処理装置と、その処理方法、プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017148499A Division JP7148779B2 (ja) 2017-07-31 2017-07-31 画像処理装置と、その処理方法、プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023117247A Division JP2023145551A (ja) 2017-07-31 2023-07-19 画像処理装置と、その処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2022105044A true JP2022105044A (ja) 2022-07-12
JP7319575B2 JP7319575B2 (ja) 2023-08-02

Family

ID=87469598

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022068056A Active JP7319575B2 (ja) 2017-07-31 2022-04-18 画像処理装置と、その処理方法、プログラム
JP2023117247A Pending JP2023145551A (ja) 2017-07-31 2023-07-19 画像処理装置と、その処理方法、プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023117247A Pending JP2023145551A (ja) 2017-07-31 2023-07-19 画像処理装置と、その処理方法、プログラム

Country Status (1)

Country Link
JP (2) JP7319575B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299326A (ja) * 2006-05-02 2007-11-15 Canon Inc 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体
JP6154531B1 (ja) * 2016-09-30 2017-06-28 株式会社ドワンゴ 表示装置、表示方法、及び表示プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299326A (ja) * 2006-05-02 2007-11-15 Canon Inc 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体
JP6154531B1 (ja) * 2016-09-30 2017-06-28 株式会社ドワンゴ 表示装置、表示方法、及び表示プログラム

Also Published As

Publication number Publication date
JP7319575B2 (ja) 2023-08-02
JP2023145551A (ja) 2023-10-11

Similar Documents

Publication Publication Date Title
US20160217616A1 (en) Method and System for Providing Virtual Display of a Physical Environment
JP4401728B2 (ja) 複合現実空間画像生成方法及び複合現実感システム
JP4227561B2 (ja) 画像処理方法、画像処理装置
US20210350762A1 (en) Image processing device and image processing method
JP2015176559A (ja) 情報処理方法、情報処理装置、およびプログラム
CN109448050B (zh) 一种目标点的位置的确定方法及终端
JP6775957B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2016105279A (ja) 視覚データを処理するための装置および方法、ならびに関連するコンピュータプログラム製品
US10901213B2 (en) Image display apparatus and image display method
JP6070676B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
KR101308184B1 (ko) 윈도우 형태의 증강현실을 제공하는 장치 및 방법
US11474595B2 (en) Display device and display device control method
JP2018063567A (ja) 画像処理装置、画像処理方法およびプログラム
JP7319575B2 (ja) 画像処理装置と、その処理方法、プログラム
JP7176348B2 (ja) 画像出力システム、方法、およびプログラム
US20210314557A1 (en) Information processing apparatus, information processing method, and program
JP7148779B2 (ja) 画像処理装置と、その処理方法、プログラム
JP2015201734A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
JP6858007B2 (ja) 画像処理システム、画像処理方法
JP7279113B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP6235094B1 (ja) 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム
JP2004233201A (ja) 位置姿勢計測方法
JP4217661B2 (ja) 画像処理方法、画像処理装置
JP2016042661A (ja) 情報処理装置、システム、情報処理方法及びプログラム
JP2016115230A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230703

R151 Written notification of patent or utility model registration

Ref document number: 7319575

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151