JP2021056963A - 情報処理装置、情報処理システム、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理システム、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2021056963A
JP2021056963A JP2019182093A JP2019182093A JP2021056963A JP 2021056963 A JP2021056963 A JP 2021056963A JP 2019182093 A JP2019182093 A JP 2019182093A JP 2019182093 A JP2019182093 A JP 2019182093A JP 2021056963 A JP2021056963 A JP 2021056963A
Authority
JP
Japan
Prior art keywords
image
real space
marker
virtual space
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019182093A
Other languages
English (en)
Inventor
将人 小川
Masahito Ogawa
将人 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019182093A priority Critical patent/JP2021056963A/ja
Publication of JP2021056963A publication Critical patent/JP2021056963A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】事前に特別な撮影を行うことなく、現実空間映像とCG映像を重畳表示する際の違和感を軽減できるようにする。【解決手段】現実空間映像にCG映像を重畳した表示映像を生成する情報処理装置にて、現実空間を撮像して得られた現実空間映像を取得し、取得した前記現実空間の映像に映っているマーカーに基づいて、CG映像生成部が生成したCG映像の補正量を算出してCG映像を補正し、取得した現実空間映像に補正したCG映像を重畳して表示映像を生成するようにして、事前に基準チャート等の撮影を行うことなく、CG映像を適切に補正することを可能にし、現実空間映像とCG映像を重畳表示する際の違和感を軽減する。【選択図】図1

Description

本発明は、情報処理装置、情報処理システム、情報処理方法、及びプログラムに関する。
現実空間と仮想空間との繋ぎ目のない結合を目的とした複合現実感(MR:Mixed Reality)に関する技術の1つとして、ビデオシースルー方式のヘッドマウントディスプレイ(HMD)を用いるMRシステムが知られている。これは、ビデオカメラなどの撮像装置が撮像した現実空間映像上に、撮像装置の位置姿勢に応じて生成したコンピュータグラフィックス(CG)の映像を重畳表示し、それをHMDのディスプレイなどの表示装置を通して観察するものである。
ビデオシースルー方式のHMDを用いたMRシステムにおいて、現実空間映像とCG映像をそのまま重畳表示すると、見た目に違和感のある映像となることが多い。これは、現実空間映像とCG映像との間で、階調特性、ホワイトバランス、ノイズ、解像度などの画像特性が異なるためである。例えば、階調特性が異なる現実空間映像とCG映像をそのまま重畳表示すると、明るさに違和感のある映像となってしまう。このような現実空間映像とCG映像を重畳表示する際の違和感を軽減する技術が提案されている(例えば、特許文献1、特許文献2参照)。
特開2014−203326号公報 特開2018−49614号公報
現実空間映像とCG映像との画像特性を近づけるには、CG映像を補正して、現実空間映像に画像特性を合わせる処理を行うのが一般的である。この処理を実現する1つの方法として、測色値が予め分かっている基準チャートを使用環境下にて撮影し、チャートの測色値に基づいて両者でマッチングするCG映像の補正量を算出してCG映像を補正する方法が考えられる。しかしながら、この方法は、MRシステムにおいて現実空間映像とCG映像を重畳表示する前に、使用環境下にて必ず基準チャートの撮影を行わなければならず、手間がかかる。また、現実空間映像とCG映像の重畳表示中に周辺環境(明るさ、ホワイトバランス等)が変化した場合には、補正が適切に行われないことがある。
本発明は、このような事情に鑑みてなされたものであり、事前に特別な撮影を行うことなく、現実空間映像とCG映像を重畳表示する際の違和感を軽減できるようにすることを目的とする。
本発明に係る情報処理装置は、現実空間の映像に仮想空間の映像を重畳した表示映像を生成する情報処理装置であって、前記仮想空間の映像を生成する第1の映像生成手段と、現実空間を撮像して得られた前記現実空間の映像を取得する映像取得手段と、取得した前記現実空間の映像に映っているマーカーに基づいて、前記第1の映像生成手段が生成した前記仮想空間の映像の補正量を算出して前記仮想空間の映像を補正する映像補正手段と、取得した前記現実空間の映像に補正した前記仮想空間の映像を重畳して、表示手段に表示させる前記表示映像を生成する第2の映像生成手段とを有することを特徴とする。
事前に基準チャート等の撮影を行うことなく、現実空間映像とCG映像を重畳表示する際の違和感を軽減することができる。
第1の実施形態におけるMRシステムの構成例を示す図である。 MRシステムにおいて用いるマーカーを説明する図である。 第1の実施形態におけるCG映像補正部の構成例を示す図である。 第1の実施形態における情報処理装置のハードウェア構成例を示す図である。 第1の実施形態におけるMRシステムの動作例を示すフローチャートである。 第1の実施形態における補正効果を説明する図である。 第1の実施形態における補正効果を説明する図である。 第2の実施形態におけるMRシステムの動作例を示すフローチャートである。
以下、本発明の実施形態を図面に基づいて説明する。
(第1の実施形態)
本発明の第1の実施形態について説明する。図1は、第1の実施形態における情報処理システムとしてのMR(Mixed Reality、複合現実感)システムの構成例を示すブロック図である。図1に示すMRシステムは、ビデオシースルー方式のヘッドマウントディスプレイ(HMD)を用いたMRシステムである。図1に示すMRシステムは、ビデオカメラなどの撮像装置が撮像した現実空間映像上に、撮像装置の位置姿勢に応じて生成した仮想空間映像としてのコンピュータグラフィックス(CG)の映像を重畳表示した複合現実映像をHMDにより表示しユーザに提示する。
前述したように、ビデオシースルー方式のMRシステムにおいて、現実空間映像とCG映像をそのまま重畳表示すると、両映像間での、階調特性、ホワイトバランス、ノイズ、解像度などの画像特性の違いにより、見た目に違和感のある映像となることが多い。階調特性を例に説明する。現実空間映像は、広いダイナミックレンジを持つ現実空間を、撮像装置の狭いダイナミックレンジに収める必要があるため、例えば、日の当たる明るい白壁の前にある被写体などは暗く撮像される。一方、CG映像は、周辺環境によらず、ディスプレイ等の表示装置で最適になるように明るさが調整されるため、撮像装置による被写体と比べて明るくなる場合が多い。これら現実空間映像とCG映像をそのまま重畳表示すると、明るさの異なる違和感のある画像となってしまう。
現実空間映像とCG映像との画像特性を近づけることで、現実空間映像とCG映像を重畳表示する際の違和感を軽減することが可能である。現実空間映像とCG映像との画像特性を近づける方法として、前述したように、測色値が予め分かっている基準チャートを使用環境下にて撮影し、チャートの測色値に基づいてCG映像の補正量を算出してCG映像を補正する方法が考えられる。この方法は、MRシステムにおいて現実空間映像とCG映像を重畳表示する前に、使用環境下にて必ず基準チャートの撮影を行わなければならず、手間がかかる。また、周辺環境が変化し使用環境が異なってしまうと、映像の補正が適切に行えなくなってしまう。
ここで、ビデオシースルー方式のHMDにて、例えば特開2007−172596号公報に記載のように、撮像装置の位置姿勢を推定する方法として、白い背景に黒字でコードが記述されているマーカー(2次元コード)を用いる方法が提案されている。この方法では、位置姿勢を推定するため、現実空間映像にマーカーが映り込んでいる必要がある。
本実施形態では、撮像装置の位置姿勢を推定する際に用いるマーカーが有する白色の背景部分を、基準チャートの代わりに用いて仮想空間の映像であるCG映像の補正量を算出してCG映像の補正を行う。これにより、事前に基準チャート等の撮影を行うことなく、CG映像を適切に補正することができ、現実空間映像とCG映像を重畳表示する際の違和感を軽減することが可能となる。また、使用環境が変化した場合でも、変化後におけるCG映像の適切な補正量を算出することができ、精度良く補正を行うことが可能となる。
図1に示すように、本実施形態におけるMRシステムは、情報処理装置100及びHMD110を有する。なお、本実施形態におけるMRシステムは、HMD110とは異なる画像表示装置120を備えるようにしてもよい。また、図1に示す構成は一例であり、例えば、HMD110の中に情報処理装置100の機能の一部もしくはすべてが含まれる構成であってもよい。
HMD110は、ビデオシースルー方式のHMDであり、撮像部111及び表示部112を有する。撮像部111は、現実空間を撮像して現実空間映像を取得し、それを情報処理装置100に送信する。撮像部111から情報処理装置100への現実空間映像の送信は、有線通信により行ってもよいし、無線通信により行ってもよい。表示部112は、映像を表示するディスプレイ等であり、例えば情報処理装置100から受信する表示映像を表示する。
情報処理装置100は、撮像映像取得部101、マーカー検出部102、位置姿勢推定部103、CGデータ保持部104、CG映像生成部105、CG映像補正部106、及び表示映像生成部107を有する。
撮像映像取得部101は、HMD110の撮像部111により撮像された現実空間映像を取得し、取得した現実空間映像をマーカー検出部102及び表示映像生成部107に送信する。マーカー検出部102は、取得した現実空間映像から、撮像装置としてのHMD110の位置姿勢の推定に用いられるマーカー(2次元コード)が映り込んだ箇所を特定する。マーカーとは、図2の201に示すように、白い背景202に黒字でコードが記述されているものである。マーカー検出部102は、検出したマーカー201の位置や向き等を示す情報(以下、「マーカー箇所情報」とも称する)を、現実空間映像と共に位置姿勢推定部103及びCG映像補正部106に送信する。
位置姿勢推定部103は、マーカー検出部102で検出したマーカー箇所情報と現実空間映像から、HMD110の位置姿勢を求める。位置姿勢を推定する方法に関しては、種々の研究報告が行われており、どの方法を用いてもよい。例えば、「佐藤,内山,田村,“複合現実感における位置合わせ手法”,日本VR学会論文誌,VOL.8,NO.2,PP.171−180,2003」に記載された位置姿勢の推定方法などでHMD110の位置姿勢を推定すればよい。また、位置姿勢情報の精度を上げるため、磁気式センサーや光学式センサーなどを併用するようにしてもよい。位置姿勢推定部103は、求めた位置姿勢情報をCG映像生成部105に送信する。
CG映像生成部105は、CGデータ保持部104からCGデータを取得して、移動や回転や拡大縮小などの処理を行い、現実空間映像に重畳する、HMD110から見たとした時の仮想空間の映像であるCG映像を生成する。なお、CG映像生成部105は、CG映像の生成処理において、位置姿勢推定部103から取得した位置姿勢情報に加え、あらかじめ保存してある撮像部の主点位置、焦点距離情報などを用いる。CG映像生成部105は、生成したCG映像をCG映像補正部106に送信する。
CG映像補正部106は、マーカー検出部102から取得するマーカー箇所情報と現実空間映像からCG映像の補正値を算出して、CG映像生成部105から取得するCG映像に対して補正を行う。CG映像補正部106は、HMD110の位置姿勢の推定に用いられる、現実空間映像に映り込んでいるマーカー201の白い背景202の画素値に基づいて、CG映像の補正量を算出してCG映像を補正する。本実施形態におけるMRシステムは、このCG映像補正部106によりCG映像を現実空間映像に合わせるように補正することで、現実空間映像と仮想空間映像としてのCG映像を重畳表示する際の違和感を軽減する。CG映像補正部106は、補正したCG映像を表示映像生成部107に送信する。
表示映像生成部107は、撮像映像取得部101から取得した現実空間映像に、CG映像補正部106から取得した補正されたCG映像を重畳し、現実空間映像とCG映像とからなる複合現実映像を表示映像として生成する。表示映像生成部107は、生成した複合現実映像を、HMD110の表示部112に送信する。また、表示映像生成部107は、生成した複合現実映像をHMD110に送信すると同時に、外部の画像表示装置120に送信することもでき、複合現実映像を多人数で共有することもできる。
図3は、CG映像補正部106の構成例を示すブロック図である。CG映像補正部106は、輝度色度算出部301、補正量算出部302、及び補正処理部303を有する。
輝度色度算出部301は、マーカー検出部102から取得するマーカー箇所情報と現実空間映像から、現実空間映像に映っているマーカーが有する白色の背景部分の輝度と色度の値を算出する。本実施形態では、輝度色度算出部301は、例えばマーカーの白い背景部分のRGB値の平均値を算出する。ここで、マーカーの白い背景部分とは、例えば図2に示したマーカー201において202が示す箇所である。マーカー検出部102によりマーカーが複数検出された場合、輝度色度算出部301は、例えば複数のマーカーのRGB値の平均値を計算する。なお、検出された一部のマーカーにおいて、いわゆる白飛び(明るすぎてRGB値が最大値で張り付いている状態)等の不具合が発生している場合、そのマーカーは不良として除外し計算すればよい。輝度色度算出部301は、算出したRGB値を補正量算出部302に送信する。
補正量算出部302は、輝度色度算出部301で算出したマーカー201の白い背景部分202の平均RGB値(これを「RGB1」とする)から、CG映像の補正量を算出する。なお、補正量の算出には、マーカー201の白い背景部分202を測色器で測定したXYZ値(これを「XYZ2」とする)も併せて用いる必要があるため、予め測定しておく。
以下の説明では、補正量算出部302が、輝度色度算出部301で算出した輝度と色度の値に基づいて、現実空間映像と仮想空間映像としてのCG映像の階調特性(白輝度)の補正値を算出する方法を例に説明する。しかし、本実施形態は、それに限定されるものではなく、ホワイトバランス、ノイズ、解像度などについても、CC映像の補正値を算出してCG映像を補正することができる。例えば、前述した特許文献1や特許文献2に記載の方法を適用することで、ノイズや解像度についてCC映像の補正値を算出してCG映像を補正することが可能である。
まず、補正量算出部302は、sRGBの計算式を用いて、XYZ2をRGB値に変換する(これを「RGB2」とする)。なお、XYZ値をRGB値に変換するには、以下に示すsRGBの計算式を用いる。
Figure 2021056963
白輝度の補正量を算出するにあたり、RGBの3成分のうち、輝度成分であるG値が用いられる。補正量算出部302は、RGB1のG値(G1)とRGB2のG値(G2)から、以下の計算式を用いて補正量を算出する。
補正量=(G1/G2)
なお、前述した説明では、輝度色度としてRGB値を用い、輝度成分としてG値を用いているが、それに限定されず、XYZ値(輝度成分としてY値)、L*a*b*値(輝度成分としてL*値)などを用いてもよい。補正量算出部302は、算出したCG映像の補正量を補正処理部303に送信する。
補正処理部303は、補正量算出部302で算出したCG映像の補正量を用いて、CG映像生成部105で生成されたCG映像を補正する。補正処理部303は、例えば、CG映像の各RGB値に、算出された補正量を乗算することにより、CG映像を補正する。補正処理部303により補正されたCG映像は、表示映像生成部107に送信される。
図4は、図1に示した情報処理装置100のハードウェア構成例を示すブロック図である。CPU(Central Processing Unit)401は、情報処理装置100全体の制御を行うと共に、情報処理装置が行う各処理を実行する。CPU401は、RAM(Random Access Memory)402やROM(Read Only Memory)403に格納されているプログラムやデータを用いて、各種の制御や処理を実行する。
RAM402は、外部記憶装置407や記憶媒体ドライブ408からロードされたプログラムやデータを一時的に記憶するための領域を有する。更にRAM402は、I/F(インターフェース)409を介して外部に送信するデータを一時的に記憶するためのエリアを有する。更に、RAM402は、CPU401が各処理を実行する際に用いるワークエリアも有する。即ち、RAM402は、各種エリアを適宜提供することができる。
ROM403には、コンピュータの設定データやブートプログラムなどが格納されている。キーボード404、マウス405は、操作入力装置の一例としてのものであり、コンピュータの観察者が操作することで、各種の指示をCPU401に対して入力することができる。表示部406は、液晶パネルや有機ELパネルなどにより構成されており、CPU401による処理結果を画像や文字などで表示することができる。
外部記憶装置407は、ハードディスクドライブやSSD(Solid State Drive)に代表される大容量情報記憶装置である。外部記憶装置407には、OS(オペレーティングシステム)や、情報処理装置が行う各処理をCPU401に実行させるためのプログラムやデータが格納されている。係るプログラムには、撮像映像取得部101、マーカー検出部102、位置姿勢推定部103、CG映像生成部105、CG映像補正部106、及び表示映像生成部107のそれぞれに対応するプログラムが含まれている。また、係るデータには、MRシステムの使用環境情報のデータや、前述した機能を実現するためのその他の情報等が含まれている。外部記憶装置407に保存されているプログラムやデータは、CPU401による制御に従って適宜RAM402にロードされる。CPU401は、このロードされたプログラムやデータを用いて処理を実行することで、情報処理装置が行う各処理を実行することになる。なお、外部記憶装置407は、図1に示したCG映像保持部104として用いてもよい。
記憶媒体ドライブ408は、CD−ROMやDVD−ROMなどの記憶媒体に記録されたプログラムやデータを読み出したり、係る記憶媒体にプログラムやデータを書き込んだりする。なお、外部記憶装置407に保存されているものとして説明したプログラムやデータの一部若しくは全部をこの記憶媒体に記録しておいても良い。記憶媒体ドライブ408が記憶媒体から読み出したプログラムやデータは、外部記憶装置407やRAM402に対して出力される。
I/F409は、USB等のデジタル入出力ポート、また、画像を表示装置406に対して出力するためのイーサネット(登録商標)ポートなどによって構成される。I/F409を介して受信したデータは、RAM402や外部記憶装置407に入力される。410は、上述の各部を繋ぐバスである。
図5は、第1の実施形態におけるMRシステムの動作例を示すフローチャートである。
ステップS501では、HMD110の撮像部111が現実空間映像を撮像し、情報処理装置100の撮像映像取得部101が、撮像部111により撮像された現実空間映像を取得する。取得された現実空間映像は、マーカー検出部102及び表示映像生成部107に送信される。
ステップS502では、マーカー検出部102が、ステップS501において取得した現実空間映像から、白い背景202に黒字でコードが記述されているマーカー(2次元コード)201が映り込んだ箇所を特定する。検出したマーカーについてのマーカー箇所情報は、現実空間映像と共に位置姿勢推定部103及びCG映像補正部106に送信される。送信されたマーカー箇所情報及び現実空間映像に基づいて、位置姿勢推定部103及びCG映像生成部105により現実空間映像に重畳する仮想空間映像としてのCG映像が生成される。
ステップS503では、CG映像補正部106が、輝度色度算出部301により、ステップS502において取得したマーカー箇所情報と、ステップS501において取得した現実空間映像から、マーカーの白い背景部分の輝度色度の値を算出する。
ステップS504では、CG映像補正部106が、補正量算出部302により、ステップS503において算出した、マーカーの白い背景部分の輝度色度と、予め取得しておいたマーカーの白い背景部分の測色値から、CG映像の補正量を算出する。
ステップS505では、CG映像補正部106が、補正処理部303により、ステップS504において算出したCG映像の補正量を用いて、CG映像生成部105により生成されたCG映像を補正する。CG映像補正部106によって補正されたCG映像は、表示映像生成部107に送信される。
ステップS506では、表示映像生成部107が、ステップS501において取得した現実空間映像に、ステップS505において補正されたCG映像を重畳し、表示映像としての複合現実映像を生成する。表示映像として生成された複合現実映像は、HMD110等に送信される。
ステップS507では、HMD110の表示部112、もしくは画像表示装置120が、ステップS507において生成された複合現実映像を表示する。これにより、現実空間映像と、その現実空間映像の画像特性に近づくように補正されたCG映像とを重畳して得られる複合現実映像が、表示部112もしくは画像表示装置120により表示される。
図6(a)及び図6(b)を参照して、本実施形態におけるCG映像の補正効果について説明する。図6(a)は、CG映像について補正を行わなかったとしたときの複合現実映像を示しており、図6(b)は、本実施形態におけるCG映像の補正を適用したときの複合現実映像を示している。図6(a)及び図6(b)において、601はマーカーであり、602は現実空間映像における被写体であり、603がCG映像における被写体である。図6(a)に示した例では、現実空間映像の一部である被写体602の明るさと、CG映像である被写体603の明るさとが異なり、違和感のある映像となってしまっている。それに対して、CG映像に補正処理を施した図6(b)に示した例では、被写体602の明るさと被写体603の明るさとが揃い、違和感が軽減されている。
図7(a)及び図7(b)は、本実施形態におけるCG映像の補正効果を定量的に説明する図である。図7(a)及び図7(b)は、共に無彩色パッチ(6色)の測定値をプロットしたものであり、横軸は入力G値を示しており、縦軸は出力G値を示している。図7(a)は、CG映像について補正を行わなかったとしたときの例を示しており、図7(b)は、本実施形態におけるCG映像の補正を適用したときの例を示している。図7(a)に示した例では、CG映像データ701は、入力G値がそのまま出力されているのに対し、現実空間映像データ702は、入力G値に対して出力G値が暗くなっている。それに対して、図7(b)に示した例では、CG映像データに補正量を乗算することで、補正後のCG映像データ703として示すように、現実空間映像データ702に近い明るさにCG映像が補正されたことが確認できる。
第1の実施形態によれば、事前に基準チャート等の撮影を行うことなく、撮像された現実空間映像に映っている、位置姿勢の推定に用いられるマーカーを用いてCG映像の補正量を算出してCG映像を適切に補正することができる。したがって、CG映像を適切に補正して現実空間映像とCG映像を重畳表示する際の違和感を軽減することができる。また、使用環境が変化した場合でも、撮像された現実空間映像から変化後におけるCG映像の適切な補正量を算出することができ、精度良く補正を行うことが可能となる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
前述した第1の実施形態では、HMD110の位置姿勢の推定にマーカーを用いる構成について説明した。第2の実施形態では、マーカーを用いずに、現実空間映像の特徴点を検出し、それらを用いてHMD110の位置姿勢の推定を実現する空間特徴位置合わせ技術を用いる構成について説明する。なお、空間特徴位置合わせ技術に関しては、種々の研究報告が行われており、どの方法を用いてもよいが、例えば、SLAM(Simultaneous Localiztion And Mapping)という手法が挙げられる。SLAMの基本的な原理は、例えば、Andrew J.Davison,"Real-Time Simultaneous Localization and Mapping with a Single Camera",Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410に説明されている。
空間特徴位置合わせ技術を用いる場合でも、複合現実映像を生成する際には、現実空間映像と仮想空間画像としてのCG映像の原点座標を合わせる作業が必要である。一般的に、この作業は、現実空間にマーカーを設置し、そのマーカーの位置を原点座標として利用することで自動化できる。本実施形態では、この原点座標マーカーを利用して、CG映像の補正量を求めてCG映像の補正を行う。前述した第1の実施形態では、現実空間映像に常にマーカーが映り込んでいるが、第2の実施形態では、現実空間映像に常にマーカーが映り込むとは限らないため、マーカーが検出されたか否かを確認して処理を行う。
第2の実施形態におけるMRシステムについて、MRシステムや情報処理の構成は、第1の実施形態と同様であるので、その説明は省略する。以下では、第2の実施形態におけるMRシステムの動作について説明する。図8は、第2の実施形態におけるMRシステムの動作例を示すフローチャートである。
ステップS801では、HMD110の撮像部111が現実空間映像を撮像し、情報処理装置100の撮像映像取得部101が、撮像部111により撮像された現実空間映像を取得する。取得された現実空間映像は、マーカー検出部102及び表示映像生成部107に送信される。
ステップS802では、マーカー検出部102が、ステップS501において取得した現実空間映像から、原点座標マーカーとしてのマーカー(2次元コード)が映り込んだ箇所を特定する。マーカーについてのマーカー箇所情報は、現実空間映像と共に位置姿勢推定部103及びCG映像補正部106に送信される。送信されたマーカー箇所情報及び現実空間映像に基づいて、位置姿勢推定部103及びCG映像生成部105により現実空間映像に重畳する仮想空間映像としてのCG映像が生成される。
ステップS803では、CG映像補正部106が、ステップS802においてマーカーが検出されたか否かを判定する。マーカーが検出されたとCG映像補正部106が判定した場合(YES)にはステップS804へ進み、マーカーが検出されていないとCG映像補正部106が判定した場合(NO)にはCG映像の補正を行わずにステップS807へ進む。
ステップS804では、CG映像補正部106が、輝度色度算出部301により、ステップS802において取得したマーカー箇所情報と、ステップS801において取得した現実空間映像から、マーカーの白い背景部分の輝度色度の値を算出する。
ステップS805では、CG映像補正部106が、補正量算出部302により、ステップS804において算出した、マーカーの白い背景部分の輝度色度と、予め取得しておいたマーカーの白い背景部分の測色値から、CG映像の補正量を算出する。
ステップS806では、CG映像補正部106が、補正処理部303により、ステップS805において算出したCG映像の補正量を用いて、CG映像生成部105により生成されたCG映像を補正する。CG映像補正部106によって補正されたCG映像は、表示映像生成部107に送信される。
ステップS807では、表示映像生成部107が、ステップS801において取得した現実空間映像に、ステップS806において補正されたCG映像を重畳し、表示映像としての複合現実映像を生成する。なお、マーカーが検出されていないとステップS803においてCG映像補正部106により判定されている場合には、表示映像生成部107は、補正処理されていないCG映像を現実空間映像に重畳し、表示映像としての複合現実映像を生成する。表示映像として生成された複合現実映像は、HMD110等に送信される。
ステップS808では、HMD110の表示部112、もしくは画像表示装置120が、ステップS807において生成された複合現実映像を表示する。これにより、現実空間映像とCG映像とを重畳して得られる複合現実映像が、表示部112もしくは画像表示装置120により表示される。
第2の実施形態によれば、第1の実施形態と同様に、現実空間映像とCG映像を重畳表示する際の違和感を軽減することができ、また、使用環境が変化した場合でも、特別な撮影なしで変化後における適切な補正量を算出し精度良く補正を行うことが可能となる。
(本発明の他の実施形態)
なお、前述した各処理部のうち、位置姿勢推定部103等については、その代わりとして、機械学習された学習済みモデルを代わりに用いて処理しても良い。その場合には、例えば、その処理部への入力データと出力データとの組合せを学習データとして複数個準備し、それらから機械学習によって知識を獲得し、獲得した知識に基づいて入力データに対する出力データを結果として出力する学習済みモデルを生成する。学習済みモデルは、例えばニューラルネットワークモデルで構成可能である。そして、その学習済みモデルは、前記処理部と同等の処理をするためのプログラムとして、CPUあるいはGPUなどと協働で動作することにより、前記処理部の処理を行う。なお、前記学習済みモデルは、必要に応じて一定の処理後に更新しても良い。
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
なお、前記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100:情報処理装置 101:撮像映像取得部 102:マーカー検出部 103:位置姿勢推定部 104:CGデータ保持部 105:CG映像生成部 106:CG映像補正部 107:表示映像生成部 110:HMD 111:撮像部 112:表示部 301:輝度色度算出部 302:補正量算出部 303:補正処理部

Claims (14)

  1. 現実空間の映像に仮想空間の映像を重畳した表示映像を生成する情報処理装置であって、
    前記仮想空間の映像を生成する第1の映像生成手段と、
    現実空間を撮像して得られた前記現実空間の映像を取得する映像取得手段と、
    取得した前記現実空間の映像に映っているマーカーに基づいて、前記第1の映像生成手段が生成した前記仮想空間の映像の補正量を算出して前記仮想空間の映像を補正する映像補正手段と、
    取得した前記現実空間の映像に補正した前記仮想空間の映像を重畳して、表示手段に表示させる前記表示映像を生成する第2の映像生成手段とを有することを特徴とする情報処理装置。
  2. 前記映像補正手段は、
    取得した前記現実空間の映像に映っているマーカーの輝度と色度を算出する輝度色度算出手段と、
    算出した前記マーカーの輝度と色度から前記仮想空間の映像の補正量を算出する補正量算出手段と、
    算出した前記仮想空間の映像の補正量を用いて前記仮想空間の映像を補正する補正処理手段とを有することを特徴とする請求項1記載の情報処理装置。
  3. 取得した前記現実空間の映像から前記マーカーを検出する検出手段を有し、
    前記映像補正手段は、前記検出手段により検出された前記マーカーの情報に基づいて前記仮想空間の映像の補正量を算出することを特徴とする請求項1又は2記載の情報処理装置。
  4. 前記マーカーは白色の背景部を有し、
    前記映像補正手段は、前記マーカーの背景部の画素値に基づいて前記仮想空間の映像の補正量を算出することを特徴とする請求項1〜3の何れか1項に記載の情報処理装置。
  5. 前記映像補正手段は、階調特性の補正量を算出し、前記仮想空間の映像における前記階調特性の補正処理を行うことを特徴とする請求項1〜4の何れか1項に記載の情報処理装置。
  6. 前記映像補正手段は、ノイズの補正量を算出し、前記仮想空間の映像におけるノイズの補正を行うことを特徴とする請求項1〜5の何れか1項に記載の情報処理装置。
  7. 前記映像補正手段は、解像度の補正量を算出し、前記仮想空間の映像における解像度の補正を行うことを特徴とする請求項1〜6の何れか1項に記載の情報処理装置。
  8. 前記マーカーは、現実空間を撮像する撮像装置の位置姿勢の推定に用いられるマーカーであることを特徴とする請求項1〜7の何れか1項に記載の情報処理装置。
  9. 前記マーカーは、前記現実空間の映像と前記仮想空間の画像との位置合わせに用いられるマーカーであることを特徴とする請求項1〜7の何れか1項に記載の情報処理装置。
  10. 前記映像補正手段は、取得した前記現実空間の映像に映っているマーカーに不良のマーカーが含まれている場合、前記不良のマーカーを除いた前記マーカーに基づいて前記仮想空間の映像の補正量を算出することを特徴とする請求項1〜9の何れか1項に記載の情報処理装置。
  11. 前記映像補正手段は、取得した前記現実空間の映像に前記マーカーが映っていない場合、前記仮想空間の映像の補正を行わないことを特徴とする請求項1〜10の何れか1項に記載の情報処理装置。
  12. 現実空間の映像に仮想空間の映像を重畳した表示映像を表示する情報処理システムであって、
    現実空間を撮像する撮像手段と、
    前記仮想空間の映像を生成する第1の映像生成手段と、
    前記撮像手段により撮像して得られた前記現実空間の映像を取得する映像取得手段と、
    取得した前記現実空間の映像に映っているマーカーに基づいて、前記第1の映像生成手段が生成した前記仮想空間の映像の補正量を算出して前記仮想空間の映像を補正する映像補正手段と、
    取得した前記現実空間の映像に補正した前記仮想空間の映像を重畳して前記表示映像を生成する第2の映像生成手段と、
    前記第2の映像生成手段が生成した前記表示映像を表示する表示手段とを有することを特徴とする情報処理システム。
  13. 現実空間の映像に仮想空間の映像を重畳した表示映像を生成する情報処理方法であって、
    前記仮想空間の映像を生成する第1の映像生成工程と、
    現実空間を撮像して得られた前記現実空間の映像を取得する映像取得工程と、
    取得した前記現実空間の映像に映っているマーカーに基づいて、前記第1の映像生成工程で生成した前記仮想空間の映像の補正量を算出して前記仮想空間の映像を補正する映像補正工程と、
    取得した前記現実空間の映像に補正した前記仮想空間の映像を重畳して、表示手段に表示させる前記表示映像を生成する第2の映像生成工程とを有することを特徴とする情報処理方法。
  14. 現実空間の映像に仮想空間の映像を重畳した表示映像を生成する情報処理装置のコンピュータに、
    前記仮想空間の映像を生成する第1の映像生成ステップと、
    現実空間を撮像して得られた前記現実空間の映像を取得する映像取得ステップと、
    取得した前記現実空間の映像に映っているマーカーに基づいて、前記第1の映像生成ステップにて生成した前記仮想空間の映像の補正量を算出して前記仮想空間の映像を補正する映像補正ステップと、
    取得した前記現実空間の映像に補正した前記仮想空間の映像を重畳して、表示手段に表示させる前記表示映像を生成する第2の映像生成ステップとを実行させるためのプログラム。
JP2019182093A 2019-10-02 2019-10-02 情報処理装置、情報処理システム、情報処理方法、及びプログラム Pending JP2021056963A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019182093A JP2021056963A (ja) 2019-10-02 2019-10-02 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019182093A JP2021056963A (ja) 2019-10-02 2019-10-02 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2021056963A true JP2021056963A (ja) 2021-04-08

Family

ID=75272844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019182093A Pending JP2021056963A (ja) 2019-10-02 2019-10-02 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2021056963A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023074477A1 (ja) * 2021-11-01 2023-05-04 ソニーグループ株式会社 情報処理装置及び情報処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023074477A1 (ja) * 2021-11-01 2023-05-04 ソニーグループ株式会社 情報処理装置及び情報処理方法

Similar Documents

Publication Publication Date Title
KR100924121B1 (ko) 컬러 체커 챠트를 이용한 다중 카메라간 컬러 일치 방법
JP7255718B2 (ja) 情報処理装置、認識支援方法およびコンピュータプログラム
US10560686B2 (en) Photographing device and method for obtaining depth information
US20170163949A1 (en) Apparatus using a projector, method, and storage medium
JP2020017252A (ja) 拡張現実感システム及びその色補償方法
US20180342079A1 (en) Image processing apparatus, image processing method, and computer readable recording medium
KR102307501B1 (ko) 광학 보상 시스템 및 광학 보상 방법
US10058237B2 (en) Image processing device, image processing method, and program
JP2009159496A5 (ja)
JP2015172926A (ja) 画像処理方法および画像処理装置
JP2007295375A (ja) 投影映像補正装置及び投影映像補正プログラム
JP2017092756A (ja) 画像処理装置、画像処理方法、画像投影システムおよびプログラム
US10373293B2 (en) Image processing apparatus, image processing method, and storage medium
WO2021252242A3 (en) Augmented reality environment enhancement
JP6365355B2 (ja) 画像生成装置および画像生成方法
WO2019001027A1 (zh) 图像色偏补偿方法、装置及显示设备
US11030732B2 (en) Information processing device, information processing system, and image processing method for generating a sum picture by adding pixel values of multiple pictures
JP2021056963A (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
US11749141B2 (en) Information processing apparatus, information processing method, and recording medium
JP2008299670A (ja) 画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラム
JP2021077300A5 (ja)
JP7414496B2 (ja) 画像処理方法
WO2023162504A1 (ja) 情報処理装置、情報処理方法およびプログラム
JPWO2019087403A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2018157276A (ja) 画像表示装置、画像表示方法及びプログラム