JP4950834B2 - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP4950834B2
JP4950834B2 JP2007273093A JP2007273093A JP4950834B2 JP 4950834 B2 JP4950834 B2 JP 4950834B2 JP 2007273093 A JP2007273093 A JP 2007273093A JP 2007273093 A JP2007273093 A JP 2007273093A JP 4950834 B2 JP4950834 B2 JP 4950834B2
Authority
JP
Japan
Prior art keywords
image
orientation
image processing
processing apparatus
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007273093A
Other languages
English (en)
Other versions
JP2009104249A (ja
JP2009104249A5 (ja
Inventor
和樹 武本
隆 麻生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007273093A priority Critical patent/JP4950834B2/ja
Priority to US12/248,473 priority patent/US9013483B2/en
Publication of JP2009104249A publication Critical patent/JP2009104249A/ja
Publication of JP2009104249A5 publication Critical patent/JP2009104249A5/ja
Application granted granted Critical
Publication of JP4950834B2 publication Critical patent/JP4950834B2/ja
Priority to US14/662,350 priority patent/US10339712B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating three-dimensional [3D] models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/00Two-dimensional [2D] image generation
    • G06T11/60Creating or editing images; Combining images with text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Digital Computer Display Output (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Description

本発明は、複合現実感を提供するための技術に関するものである。
現実空間の映像に三次元モデリングされた物体(仮想物体)の映像を重畳して表示することで、あたかも現実空間中にCGで描かれた物体が存在しているように見せる複合現実感(MR:Mixed Reality)提示装置が存在する(非特許文献1)。
係る装置は次のような各部を有する。
・ 現実空間の映像を撮影する現実映像撮影部(例えばビデオカメラ)
・ 現実空間の映像を撮影している位置から見たCG映像を生成するCG映像生成部
・ 現実空間の映像とCG映像とを合成して表示する映像表示部(例えば、HMD(ヘッドマウントディスプレイ)、又はモニタ)
また係る装置は、現実映像撮影部の視線の位置姿勢が変わった場合であってもCG映像と現実空間の映像との位置関係を正しく表示するために、現実映像撮影部の視線位置・視線方向を検出する視線位置姿勢検出部(例えば、位置姿勢センサ)を備えている。
CG映像生成部は、三次元モデリングされた仮想物体を、現実空間と同じスケールの仮想空間に置き、視線位置姿勢検出部によって検出された視線位置・視線方向から観察された仮想空間をレンダリングする。このようにして生成されたCG映像と現実映像撮影部によって撮影された現実空間の映像とを合成すると、結果として、どの視線位置・視線方向から観察した場合でも、現実空間中に仮想物体が置かれているような映像を表示することができる。
仮想物体の種類や配置の変更、アニメーションなどは、一般的なCGと同様の手法で、自由に行える。仮想物体の位置を指定するためにさらなる位置姿勢センサを用い、位置姿勢センサによる計測値に応じた位置姿勢に仮想物体を配置することも可能である。
また、従来では、係る構成において、位置姿勢センサを手に持ち、位置姿勢センサによる計測値が示す位置姿勢に仮想物体を配置して観察することも行われている。
現実空間の映像を撮影する現実映像撮影部は、例えばビデオカメラであり、ビデオカメラの視線方向にある映像を撮影し、メモリ中にキャプチャする。
現実空間の映像と、CG映像とを合成して表示する映像表示装置としては、例えばHMDが用いられる。通常のモニタでなく、HMDを用い、さらに上記ビデオカメラをHMDの視線方向に向けてHMDに装着することで、観察者が向いている方向の映像をHMDに映し出すことができる。また、観察者が向いている方向に応じたCGの描画も行えるため、観察者の没入感を高めることができる。
複合現実感提示装置における映像表示部は、上記のような映像表示装置に、現実空間の映像とCG映像とを合成した画像(MR画像)を表示する。
視線位置姿勢検出部としては、磁気方式による位置姿勢センサなどが用いられ、これを上記ビデオカメラ(またはビデオカメラが取り付けられているHMD)に取り付けることによって、ビデオカメラの位置姿勢を検出する。磁気方式の位置姿勢センサとは、磁気発生装置(発信機)と磁気センサ(受信機)との間の相対位置・姿勢を検出するものであり、センサの3次元位置(X,Y,Z)と姿勢(Roll,Pitch,Yaw)をリアルタイムに検出する装置である。
上記の構成により、観察者はHMD等の映像表示部を通じて、現実空間の映像とCG映像とが合成された映像を観察することができる。観察者が周囲を見回すと、HMDに備え付けられたビデオカメラが現実空間の映像を撮影し、HMDに備え付けられた位置姿勢センサがビデオカメラの位置・視線方向を検出する。これに応じてCG映像生成部がその視線位置・姿勢から見たCG映像を生成(レンダリング)し、これを現実空間の映像に合成して表示する。
複合現実感提示装置では、現実物体に仮想物体を重畳することが可能である。例えば、特許文献1に開示されているゲームでは、ユーザの持つ対話操作入力装置に剣や武器などの仮想物体を重畳表示することで、ユーザが自由に仮想物体(この場合は剣や武器)を操ることを可能にしている。また、非特許文献2には、図5に示すようなカメラのモックアップ1310に、CADから生成された仮想物体を重畳表示することで、実際に手にとることのできる仮想試作品を実現している。
従来の一般的な複合現実感提示方法は、現実空間の映像上にCG映像を重ねて合成するだけであり、現実物体と仮想物体との奥行き関係は考慮されていないことがある。そのため、観察者が仮想物体の手前に自分の手をかざしても、自分の手は見えずに、手の奥にある仮想物体が手前にあるかのように表示されてしまうといった問題がある。
図2Aは、HMDを頭部に装着した観察者と、この観察者が観察している仮想物体とを示す図である。図2Aにおいて観察者200は自身の頭部にHMD201を装着しており、自身の手203を自身の視界に入れながら仮想物体202を観察している。
図2Bは、観察者200が自身の手203を自身の視界に入れながら仮想物体202を観察している場合に、HMD201に表示される画像の一例を示す図である。図2Bに示す如く、204はHMD201に表示される画像であり、係る画像204中には、手203が写っており、係る手203は、仮想物体202によって隠されている。図2Bでは、隠されている手203を点線で示している。
仮想物体202と手203との奥行き関係からすれば、手203は仮想物体202の手前に描画されるべきである。しかし、CG映像は現実空間の映像上に重ねて合成するため、本来手203が描画されるべき領域には仮想物体202が描画されてしまう。
ここで、現実物体の奥行き情報をリアルタイムで計測すれば、仮想物体と現実物体との奥行き関係を正しく表示することは可能である。しかし、現実物体の奥行き情報をリアルタイムで計測するために用いる装置は大掛かり且つ高価であり、更に、奥行き情報の解像度が足りずに仮想物体と現実物体との重なりの輪郭が正しく見えなかったりする。
また、現実物体の色が特定の色であることが期待できる場合は、画像上で係る特定の色を判定することでマスク画像を作り、係るマスク画像を用いてCG映像にマスクをかけ、現実物体が表示されるべき場所にはCG映像を描画しない方法も取られることがある。例えば、手の重なりが問題となる場合は、現実空間の映像中の肌色のエリアを判定することでマスク画像を作ることができる(非特許文献3の図9)。しかしこの場合は逆に、仮想物体の奥に現実物体があったとしても現実物体が手前に見えてしまったり、同じ色の現実物体はすべて仮想物体の手前に見えてしまう、という難点がある。
そこで、このような仮想物体と現実物体との重なり表示の問題を簡便な方法で解決する方法のひとつとして、次ようなものがある。即ち、現実物体(例えば自分の手)に位置姿勢センサを取り付け、係る位置姿勢センサが計測した位置姿勢にあわせて現実物体の形状を模した仮想物体を配置し、現実物体と仮想物体とを重ねる。それぞれの仮想物体の奥行き関係はどちらもCGなので正しく表示される。
このような構成を用いて、図2Aに示したように、仮想物体202の手前に自身の手203を配置した場合、HMD201に表示される画像は、図2Cに示したように、手203の位置に手203を模した仮想物体206を配置した画像となる。係る仮想物体206は、仮想物体202の手前に位置している。仮想物体206の位置姿勢は、観察者200の手に取り付けられた位置姿勢センサによる計測値に基づいて変化する。図2Cは、手203の位置に手203を模した仮想物体206を配置した画像の一例を示す図である。
山本裕之:"複合現実感-仮想と現実の境界から見える世界", 情報処理, vol.43, no.3, pp.213-216, 2002. D. Kotake, K. Satoh, S. Uchiyama, and H. Yamamoto: "A hybrid and linear registration method utilizing inclination constraint," Proc. 4th IEEE/ACM Int'l Symp. on Mixed and Augmented Reality (ISMAR 2005), pp.140-149, October 2005. 大島, 山本, 田村:"実体触知機能を重視した複合現実感システム〜自動車インテリア・デザイン検証への応用〜", 日本バーチャルリアリティ学会論文誌, vol.9, no.1, pp.79-88, 2004. 特開2000−353248号公報
現実物体と、この現実物体を模した仮想物体とで、その形状や位置関係は、完全に一致するわけではない。従って、図3に示す如く、現実物体としての手180と仮想物体310とが完全に重なって表示されるわけではない(ずれて見える)という問題がある。
また、図7に示すように、現実物体701の内部を表現する仮想物体702を現実物体701に重畳させて表示し、ステレオ表示で体験者に提示する場合に、観察者が仮想物体702に注目して融像したとする。この場合、同時に外側の現実物体701の表面にも融像しようとする場合がある。
従来、現実空間で物体の内部が見えるということは、手前側の現実物体701の表面は見えていない、もしくは、半透明で知覚されるはずである。しかし、完全に不透明な物体として知覚されている現実物体701の奥にさらに融像可能な仮想物体702があるため、観察者の両眼視機能は奥の仮想物体702の立方体エッジと手前の現実物体701の立方体エッジを同時に融像してしまおうとする。この現象が、観察者に不自然な視野闘争を与え、違和感を与える原因となっていた。
係る点について具体例を挙げて説明する。
図8は、非特許文献2に記載されている図5のカメラのモックアップに内部構造を示す仮想物体を重畳表示した場合の画像の一例を示す図である。
801は、図5に示したカメラのモックアップに、カメラの内部構造を示す仮想物体を重畳させた画像であり、899で示す枠内を拡大した画像が、画像802である。画像802において、現実物体であるモックアップのシャッター付近のエッジ804は、奥にある灰色の部品のエッジ803と近接している。しかし、両者の奥行きは異なるため、ステレオ視で提示すると観察者に前述のような違和感を与える場合がある。
本発明は以上の問題に鑑みてなされたものであり、現実物体と仮想物体とを重畳させる場合に、係る重畳により生じる様々な違和感を軽減させるための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。
即ち、ユーザの視点の位置姿勢を取得する手段と、
注目現実物体の位置姿勢を取得する手段と、
前記注目現実物体を含む現実空間の画像を取得する手段と、
前記現実空間の画像中における、前記注目現実物体の領域を決定する決定手段と、
前記領域を包含する包含領域に対して暈かし処理を行う処理手段と、
前記注目現実物体の位置姿勢で、仮想物体を仮想空間中に配置する手段と、
前記視点の位置姿勢に基づいて、前記仮想空間の画像を生成する手段と、
前記暈かし処理後の現実空間の画像上に、前記仮想空間の画像を重畳させた合成画像を生成する手段と、
前記合成画像を出力する手段と
を備えることを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。
即ち、ユーザの視点の位置姿勢を取得する工程と、
注目現実物体の位置姿勢を取得する工程と、
前記注目現実物体を含む現実空間の画像を取得する工程と、
前記現実空間の画像中における、前記注目現実物体の領域を決定する決定工程と、
前記領域を包含する包含領域に対して暈かし処理を行う処理工程と、
前記注目現実物体の位置姿勢で、仮想物体を仮想空間中に配置する工程と、
前記視点の位置姿勢に基づいて、前記仮想空間の画像を生成する工程と、
前記暈かし処理後の現実空間の画像上に、前記仮想空間の画像を重畳させた合成画像を生成する工程と、
前記合成画像を出力する工程と
を備えることを特徴とする。
本発明の構成により、現実物体と仮想物体とを重畳させる場合に、係る重畳により生じる様々な違和感を軽減させることができる。
以下、添付図面を参照し、本発明の好適な実施形態について詳細に説明する。
[第1の実施形態]
図1は、本実施形態に係るシステムの機能構成を示すブロック図である。図1に示す如く、本実施形態に係るシステムは、HMD190、位置姿勢計測部120、画像処理装置199、により構成されている。
先ず、HMD190について説明する。
HMD190は、撮像部110と表示部185とで構成されている。
撮像部110は、現実空間の動画像を撮像するものであり、撮像した各フレームの画像(現実空間画像)は、画像処理装置199に入力される。本実施形態では、撮像部110は、HMD190を頭部に装着する観察者(ユーザ)の右目、左目のそれぞれに対応する撮像部で構成されているものとするが、1台を両眼で共有しても良い。
また、撮像部110には、自身の位置姿勢を計測するためのセンサ122が取り付けられている。センサ122と同様のセンサ121は、HMD190を頭部に装着するユーザの手180(注目現実物体)にも取り付けられている。センサ121、122については後述する。
表示部185は、液晶画面で構成されており、画像処理装置199から送出された画像を表示する。表示部185は、HMD190を頭部に装着したユーザの眼前に位置するようにHMD190に取り付けられたものである。
次に、位置姿勢計測部120について説明する。
位置姿勢計測部120は、上述のセンサ121、122の位置姿勢を計測するものである。ここでは、位置姿勢計測部120、センサ121,122を合わせてセンサシステムと呼称する。そして本実施形態では、係るセンサシステムにPolhemus社のFASTRAK(磁気センサ)を用いる。この場合、位置姿勢計測部120は、次のように動作して、各センサ121,122の位置姿勢を計測する。
現実空間中の所定の位置には磁気の発信源が配置されており、センサ121,122はそれぞれ、係る発信源が発する磁界中における自身の位置姿勢に応じた磁気の変化を検知する。そしてそれぞれのセンサ121,122は、検知した結果を示す信号を位置姿勢計測部120に送出する。位置姿勢計測部120は、センサ121から検知結果を示す信号を受けると、係る信号に基づいて、センサ座標系におけるセンサ121の位置姿勢を求める。センサ座標系とは、発信源の位置を原点とし、係る原点で互いに直交する3軸をそれぞれ、x軸、y軸、z軸とする座標系である。同様に、位置姿勢計測部120は、センサ122から検知結果を示す信号を受けると、係る信号に基づいて、センサ座標系におけるセンサ122の位置姿勢を求める。
なお、本実施形態では、センサ座標系は、世界座標系に一致しているものとして説明する。しかし、それぞれの座標系が一致していなくても、それぞれの座標系間の位置姿勢関係が既知であれば、係る位置姿勢関係を用いて、一方の座標系における位置姿勢情報を、他方の座標系における位置姿勢情報に変換することができる。ここで、世界座標系とは、現実空間中の所定の1点を原点とし、係る原点で互いに直交する3軸をそれぞれ、x軸、y軸、z軸とする座標系である。
そして、位置姿勢計測部120は、求めた位置姿勢を示す位置姿勢情報を、画像処理装置199に対して出力する。
次に、画像処理装置199について説明する。画像処理装置199は、物体領域検出部130、画像加工部140、データ管理部150、描画部155、合成部160により構成されている。
物体領域検出部130は、撮像部110から現実空間画像を受けると、現実空間画像中における手180の領域を検出する。手180の領域を検出するための技術については周知であり、例えば、非特許文献3に開示されている技術を用いる。即ち、現実空間画像中の肌色領域を検出する。
画像加工部140は、撮像部110から物体領域検出部130に入力された現実空間画像において、物体領域検出部130が検出した領域を包含する包含領域に対して、暈かし処理を行う。係る暈かし処理には、例えば、ガウシアンフィルタを用いる。なお、暈かし処理は周知の技術であるので、ここでの説明は省略する。なお、暈かし処理の為のパラメータ、例えば、フィルタに設定するウィンドウサイズ等のパラメータは、予め設定しておけばよい。
そして、画像加工部140により手180の領域を含む包含領域を暈かした現実空間画像は、データ管理部150に送出され、そこで管理される。
データ管理部150は、現実空間画像と仮想空間画像とを合成した合成画像を作成するために必要なパラメータ群を管理すると共に、画像加工部140から送出された現実空間画像も管理する。更に、データ管理部150は、位置姿勢計測部120から送出された、センサ121,122の位置姿勢情報をも管理する。
データ管理部150が管理する上記パラメータ群には、次のようなものが含まれている。
・ 撮像部110の内部パラメータ(焦点距離、画像中心等)
・ 手180を模した仮想物体のデータ(幾何学形状データ、テクスチャデータ等)
もちろん、システム構成や使用用途に応じて、データ管理部150が管理するデータは適宜変更しても良い。
描画部155は、データ管理部150が管理する仮想物体のデータを用いて、仮想空間を構築する。本実施形態では、仮想空間を構築する処理には少なくとも、センサ121の位置姿勢に、手180を模した仮想物体を配置する処理が含まれている。
更に、描画部155は、センサ122の位置姿勢に、予め測定した「センサ122と撮像部110の焦点(ユーザの視点)との位置姿勢関係を示す位置姿勢関係情報」を加えることで、ユーザの視点の位置姿勢情報を求める。
そして、以上の処理で構築した仮想空間を、ユーザの視点の位置姿勢情報が示す位置姿勢から見た画像を、仮想空間画像として生成する。係る処理はもちろん、右目用、左目用のそれぞれについて行う。
合成部160は、データ管理部150が管理する「手180の領域を包含する包含領域を暈かした現実空間画像」と、描画部155が生成した仮想空間画像とを合成した合成画像を生成し、生成した合成画像を、HMD190が有する表示部185に送出する。
これにより、HMD190を頭部に装着したユーザの眼前には、合成部160により生成された合成画像が表示されることになる。
図11は、画像処理装置199が、仮想空間画像と、手180の領域を包含する包含領域を暈かした現実空間画像と、を合成した合成画像を、HMD190に対して出力するために行う処理のフローチャートである。なお、図11に示したフローチャートは、1フレーム分の合成画像を生成し、HMD190に出力するための処理を示したものである。従って、画像処理装置199は、図11に示したフローチャートに従った処理を繰り返し実行することで、連続する複数フレームの合成画像をHMD190に対して出力する。
ステップS1101では、物体領域検出部130は、撮像部110が撮像した現実空間画像を取得する。
ステップS1120では、データ管理部150は、位置姿勢計測部120から出力された、センサ121,122の位置姿勢情報を取得する。
ステップS1130では、物体領域検出部130は、撮像部110から取得した現実空間画像中における手180の領域を検出する。
ステップS1140では、画像加工部140は、物体領域検出部130が検出した領域を包含する包含領域に対して暈かし処理を行う。包含領域のサイズについては特に限定するものではないが、ここでは説明を簡単にするために、手180の領域のサイズと、包含領域のサイズとは同じであるとする。
ステップS1145では、描画部155は先ず、センサ122の位置姿勢情報に、上記位置姿勢関係情報を加えることで、視点の位置姿勢情報を生成する。そして次に、描画部155は、センサ121の位置姿勢に、手180を模した仮想物体を配置する。そして、描画部155は、係る仮想物体を配置した仮想空間を、視点の位置姿勢情報が示す位置姿勢から見た画像を、仮想空間画像として生成する。
ステップS1150では、合成部160は、ステップS1140による処理で包含領域が暈けた(暈かし処理後の)現実空間画像と、ステップS1145で生成した仮想空間画像と、を合成した合成画像を生成する。
ステップS1160では、合成部160は、ステップS1150で生成した合成画像を、HMD190に対して出力する。
以上の処理によって得られる効果について、図3,4を用いて説明する。
図3は、従来の技術によって、手と、この手を模した仮想物体とを合成して表示した場合の画像の一例を示す図である。図3に示す如く、手180の位置姿勢に、手180を模した仮想物体310を配置しようとしても、様々な原因により、仮想物体310は、手180からはずれた位置に表示されることがある。このように、現実空間画像中における手180の領域をそのまま表示してしまうと、上記ずれが目立ってしまう。
図4は、図11のフローチャートに従った処理によって得られる合成画像の一例を示す図である。図4に示す如く、図3に示した手180の領域を包含する包含領域を暈かすことで、領域410を生成している。これにより、係る画像を観察するユーザの注意を仮想物体310に集中させ、ずれに関する注意を低下させることができる。
このように、画像上における手の領域をぼかすことにより、ユーザが感じる自分の手とこの手を模した仮想物体とのずれ知覚を軽減させることができる。
<第1の実施形態の変形例1>
第1の実施形態では、現実空間画像中における手の領域を検出するために、肌色領域を検出する技術を用いたが、他の方法を用いて手の領域を検出しても良い。また、検出する領域は手の領域に限定するものではなく、適宜他の対象物の領域を検出するようにしても良い。
例えば、図5に示されているカメラのモックアップ1310に、図6に示されているCADから生成されたカメラの仮想物体610を重畳表示する場合に生じるずれに対しても同様に、画像上におけるモックアップ1310の領域を暈かしても良い。これにより、ユーザのずれ知覚を軽減させることができる。以下では、モックアップ1310の領域が仮想物体610の外周周辺にあると仮定し、仮想物体610を画像上に投影したときの周辺の領域をぼかすことにより、ずれ知覚を軽減させる。
本変形例では、現実空間画像中におけるモックアップの領域を暈かす。それ以外の処理については第1の実施形態と同じである。もちろん、モックアップ以外の現実物体の領域を暈かす場合でも、実質的に行う処理は変わらない。
図13は、本変形例に係るシステムの機能構成を示すブロック図である。なお、図13において、図1と同じ部分については同じ参照番号を付けており、その説明は省略する。
本変形例に係るシステムが第1の実施形態に係るシステムと異なるのは、手の代わりに、モックアップ1310にセンサ121を取り付けた点にある。
現実空間画像中におけるモックアップの領域を検出し、係るモックアップの領域を包含する包含領域を暈かし、暈かし処理された現実空間画像に対して、仮想物体を合成する処理について、説明する。
本変形例でも図11のフローチャートに従った処理を行うのであるが、ステップS1130における処理を、次のような処理に置き換える。
図12は、本変形例に係る「暈かす領域」を決定する処理のフローチャートである。換言すれば、図12のフローチャートに従った処理は、図11のステップS1130における処理の詳細を示したものである。
ステップS1210では、データ管理部150が位置姿勢計測部120から取得したセンサ122の位置姿勢情報を、物体領域検出部130がデータ管理部150から取得する。
ステップS1220では、データ管理部150が位置姿勢計測部120から取得したセンサ121の位置姿勢情報を、物体領域検出部130がデータ管理部150から取得する。
ステップS1230では、物体領域検出部130は、ステップS1220で取得した位置姿勢情報が示す位置姿勢に、カメラを模した仮想物体を配置する。そして、仮想空間画像を生成する為に用いる周知の投影面上における、係る仮想物体の領域を求める。即ち、係る仮想物体を、係る投影面上に、公知の透視投影演算により投影した領域(投影領域)を求める。ここで、係る投影は、投影面上に描画しているのではない。投影領域は、例えば、仮想空間中における視点を基準とした座標系における奥行き値を参照し、投影する前に初期化された各画素の奥行き値が変化した領域を投影領域として決定すればよい。
次に、ステップS1240では、物体領域検出部130は、投影領域をあらかじめ設定されている領域膨張量Eに基づいて膨張させた領域を加工領域として求める。
図14は、投影領域と加工領域とを示す図である。図14において1430は投影面で、1410は投影面上に投影された仮想物体の投影領域を示す。1420は、投影領域1410に対して膨張処理した結果得られる加工領域である。
領域膨張量は、あらかじめ画像上で現実物体と仮想物体との“ずれ”が発生する量(例えば、単位を画素とする)を予測しておき、ずれ画素量よりも大きい値を領域膨張量Eに設定することが好ましい。
そして図11のステップS1140以降では、現実空間画像において係る加工領域に位置的に対応する領域を、暈かす対象とする。
<第1の実施形態の変形例2>
変形例1では、予め指定した膨張量だけ投影領域を拡張して加工領域を設定した。しかし、加工領域を設定することに限定するものではなく、例えば、変形例1の加工領域に対象物体が収まらない場合、加工領域周辺の色情報を用いて加工領域を追加してもよい。
例えば、予め撮像画像を指定色でラベリングしておき、物体領域検出部130がステップS1240において求めた加工領域と、ラベル領域と、が隣接する場合は、隣接するラベル領域を加工領域に加えればよい。指定色には、対象物体の色を指定すればよい。例えば、図5のようなモックアップの場合は、あらかじめモックアップを撮像しておき、モックアップの領域内にある色情報を登録すればよい。モックアップの色は、体験時の背景となる色から区別できる色で作成した方が好ましい。
[第2の実施形態]
第1の実施形態、変形例1,2では、現実物体と仮想物体とのずれ知覚を軽減する目的で現実空間画像中における対象領域を暈かす処理を行っていた。本実施形態では、現実物体内部を表現する仮想物体を係る現実物体に重ねて表示する(CGをステレオで描画する)際に生じる両眼立体視の違和感を軽減させる。
本実施形態では、図5に示すモックアップ1310に図8に示す内部構造仮想物体を重ねてステレオ表示するときに、図6で示すカメラ外装を示す仮想物体610内の領域をぼかすことによって、両眼立体視時の違和感を軽減させる。
即ち、モックアップ1310の位置姿勢にカメラ外装を示す仮想物体610を配置し、その後(配置後)、仮想物体610の投影領域を求め、現実空間画像上における投影領域を暈かす。一方で、モックアップ1310の位置姿勢に内部構造仮想物体を配置し、その後、視点から見た内部構造仮想物体の画像を仮想空間画像として生成する。そして、現実空間画像と仮想空間画像とを合成する。即ち、現実空間画像上における暈かした領域上に内部構造仮想物体を表示する。
本実施形態で用いるシステムの構成は、変形例1における構成、即ち、図13に示した構成を用いる。ただし、データ管理部150は、内部構造仮想物体のデータ、カメラ外装を示す仮想物体610のデータを更に管理する。
また、本実施形態でも図11のフローチャートに従った処理を行うのであるが、ステップS1130における処理を、次のような処理に置き換える。
図11のステップS1130では図12のフローチャートにおいて、ステップS1240で膨張処理を行うことなく、ステップS1230で求めた投影領域を加工領域とする処理を行う。
そして、ステップS1145では、描画部155は先ず、センサ122の位置姿勢情報に、上記位置姿勢関係情報を加えることで、視点の位置姿勢情報を生成する。そして次に、描画部155は、センサ121の位置姿勢に、内部構造仮想物体を配置する。そして、描画部155は、係る内部構造仮想物体を配置した仮想空間を、視点の位置姿勢情報が示す位置姿勢から見た画像を、仮想空間画像として生成する。
次に、本実施形態の効果について具体例を挙げて説明する。図8に示した画像801のように、モックアップ1310の領域がはっきりと表示され、両眼立体視時に前述した手前と奥の物体を同時に融像しようとする視覚作用により違和感を覚える。しかし、本実施形態では、図9に示すようにモックアップ1310内部の領域900が暈かされることで、図8に示すエッジ803付近にあるエッジに融像しにくくなり、完全に不透明な物体として知覚されにくくなる。すなわち、前述した手前と奥の物体を同時に融像しようとする視覚作用を回避できる可能性が高くなり、違和感の軽減に貢献する効果をもたらす。
<第2の実施形態変形例1>
第2の実施形態では、投影領域を、暈かす領域として設定したが、非特許文献3の図9に示すように手のマスク処理を行いたい場合は、暈かす領域に手が入っている場合であっても、手の領域には“暈かし処理”を実施したくない場合がある。
このような課題に対処するために、物体領域検出部130は、ステップS1240において、肌色領域に該当する部分は加工領域から除外することにより、手の領域には“暈かし処理”をかけないようにすることが可能である。即ち、加工領域のうち肌色領域以外を最終的な加工領域とする。もちろん、他の色の領域に該当する部分を加工領域から除外するようにしても良い。
<第2の実施形態の変形例2>
本実施形態では、暈かした領域の色を適宜変更する。
例えば、第2の実施形態の変形例1では、図9の領域900は、撮像画像の色を変更せずに暈かしたものである。しかし、暈かした領域の色を内部構造仮想物体の補色でさらに色付けし、より仮想物体を強調することでずれ知覚を軽減させることができる。
本実施形態に係るシステムの構成は、図13に示した構成となる。ただし、データ管理部150には更に、暈かした領域に対して割り当てる色を示すデータを管理させておく。
なお、データ管理部150が管理する色としては、内部構造仮想物体の色情報のうち、もっとも多い色の補色を設定してもよい。
また、別の方法として、描画部155が内部構造仮想物体を描画するために投影面上に投影する際の、内部構造仮想物体の外周の画素色を予測し、最も多い色の補色を設定してもよい。例えば、仮想物体外周の画素色のうち最も多いものが青だった場合は、補色である黄色をデータ管理部150に設定する。すなわち、対象とする色がRGBで表され、RGBのそれぞれが8ビット(画素値=0〜255)で表される場合に、対象色のRGB値をそれぞれ255から引いた値を対象色の補色とする。
本変形例でも第2の実施形態と同様の処理を行うのであるが、ステップS1240において、データ管理部150が管理する色に、暈かした領域の色を変更する処理を加える。色の変更は、例えば、暈かした領域の色をグレイスケールに変換し、変換した値と仮想物体の補色を積算することにより最終的な画素値を得る。
このように、単純に領域を暈かすだけでなく、暈かした領域の色を変更することにより、仮想物体に集中させ、ずれ知覚を軽減させることができる。
なお、上記各実施形態(変形例も含む)は適宜組み合わせて用いても良い。
[第3の実施形態]
図1,13に示した画像処理装置199を構成する各部は、第1,2の実施形態(各変形例を含む)ではハードウェアで構成されているものとして説明した。しかし、各部をソフトウェアで構成しても良い。その場合、例えば、画像処理装置199として、一般のPC(パーソナルコンピュータ)を適用する。コンピュータのメモリにソフトウェアを格納し、コンピュータが有するCPUに、このソフトウェアを実行させれば、このコンピュータに、第1,2の実施形態(各変形例を含む)で説明した各処理を実行させることができる。
図10は、画像処理装置199に適用可能なコンピュータのハードウェア構成を示すブロック図である。
CPU1001は、RAM1002やROM1003に格納されているプログラムやデータを用いてコンピュータ全体の制御を行うと共に、画像処理装置199が行うものとして説明した上述の各処理を実行する。
RAM1002は、外部記憶装置1007や記憶媒体ドライブ1008からロードされたプログラムやデータを一時的に記憶するためのエリアを有する。更に、RAM1002は、I/F(インターフェース)1009を介して位置姿勢計測部120や撮像部110から出力された位置姿勢情報や現実空間画像を一時的に記憶するためのエリアも有する。更に、RAM1002は、CPU1001が各種の処理を実行するために用いるワークエリアも有する。即ち、RAM1002は、各種のエリアを適宜提供することができる。
ROM1003は、本コンピュータの設定データや、ブートプログラム等を格納する。
キーボード1004、マウス1005は、ポインティングデバイスの一例として機能するものであり、本コンピュータの操作者が操作することで、CPU1001に対して各種の指示を入力することができる。
表示部1006は、CRTや液晶画面等により構成されており、CPU1001による処理結果を画像や文字等で表示することができる。
外部記憶装置1007は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置1007には、OS(オペレーティングシステム)や、画像処理装置199が行うものとして説明した上述の各処理をCPU1001に実行させるためのプログラムやデータが保存されている。係るプログラムには、図1に示した物体領域検出部130、画像加工部140、データ管理部150、描画部155、合成部160の各部に対応する機能をCPU1001に実現させるためのプログラムが含まれている。また、係るデータには、データ管理部150が管理しているものとして説明した上述の各種のデータや、既知のものとして説明した各種のデータが含まれている。外部記憶装置1007に保存されているプログラムやデータは、CPU1001による制御に従って適宜RAM1002にロードされ、CPU1001による処理対象となる。
記憶媒体ドライブ1008は、CD−ROMやDVD−ROMなどの記憶媒体に記録されている情報を読み取り、RAM1002や外部記憶装置1007に送出するものである。なお、外部記憶装置1007に保存されているものとして説明した情報の一部を、係る記憶媒体に記録させても良い。
I/F1009は、撮像部110と接続する為のアナログビデオポートやIEEE1394等のデジタル入出力ポート、RS−232CやUSB等のシリアルポート、位置姿勢計測部120と接続する為のイーサネット(登録商標)ポート等によって構成される。
1010は、上述の各部を繋ぐバスである。
[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の第1の実施形態に係るシステムの機能構成を示すブロック図である。 HMDを頭部に装着した観察者と、この観察者が観察している仮想物体とを示す図である。 観察者200が自身の手203を自身の視界に入れながら仮想物体202を観察している場合に、HMD201に表示される画像の一例を示す図である。 手203の位置に手203を模した仮想物体206を配置した画像の一例を示す図である。 従来の技術によって、手と、この手を模した仮想物体とを合成して表示した場合の画像の一例を示す図である。 図11のフローチャートに従った処理によって得られる合成画像の一例を示す図である。 カメラのモックアップ1310を説明する図である。 カメラの仮想物体610を説明する図である。 現実物体701の内部を表現する仮想物体702を現実物体701に重畳させて表示した様子を示す図である。 非特許文献2に記載されている図5のカメラのモックアップに内部構造を示す仮想物体を重畳表示した場合の画像の一例を示す図である。 モックアップ1310内部の領域900が暈かされている様子を示す図である。 画像処理装置199に適用可能なコンピュータのハードウェア構成を示すブロック図である。 画像処理装置199が、仮想空間画像と、手180の領域を包含する包含領域を暈かした現実空間画像と、を合成した合成画像を、HMD190に対して出力するために行う処理のフローチャートである。 本発明の第1の実施形態の変形例1に係る「暈かす領域」を決定する処理のフローチャートである。 本発明の第1の実施形態の変形例1に係るシステムの機能構成を示すブロック図である。 投影領域と加工領域とを示す図である。

Claims (9)

  1. ユーザの視点の位置姿勢を取得する視点位置姿勢取得手段と、
    注目現実物体の位置姿勢を取得する物体位置姿勢取得手段と、
    前記注目現実物体を含む現実空間の画像を取得する画像取得手段と、
    前記現実空間の画像中における、前記注目現実物体の領域を決定する決定手段と、
    前記領域を包含する包含領域に対して暈かし処理を行う暈かし処理手段と、
    前記注目現実物体の位置姿勢で、仮想物体を仮想空間中に配置する配置手段と、
    前記視点の位置姿勢に基づいて、前記仮想空間の画像を生成する仮想画像生成手段と、
    前記暈かし処理後の現実空間の画像上に、前記仮想空間の画像を重畳させた合成画像を生成する合成画像生成手段と、
    前記合成画像を出力する出力手段と
    を備えることを特徴とする画像処理装置。
  2. 前記決定手段は、前記現実空間の画像中において、予め定められた色を有する領域以外で、前記注目現実物体の領域を決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記決定手段は、前記現実空間の画像中における肌色領域を、前記注目現実物体の前記領域として決定することを特徴とする請求項1に記載の画像処理装置。
  4. 更に、前記決定手段が決定した領域の色を変更する手段を備えることを特徴とする請求項1に記載の画像処理装置。
  5. 前記注目現実物体は、前記ユーザの手であることを特徴とする請求項1に記載の画像処理装置。
  6. 前記注目現実物体は、モックアップであることを特徴とする請求項1に記載の画像処理装置。
  7. 前記仮想物体は、前記注目現実物体を模した仮想物体であることを特徴とする請求項1に記載の画像処理装置。
  8. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の視点位置姿勢取得手段が、ユーザの視点の位置姿勢を取得する視点位置姿勢取得工程と、
    前記画像処理装置の物体位置姿勢取得手段が、注目現実物体の位置姿勢を取得する物体位置姿勢取得工程と、
    前記画像処理装置の画像取得手段が、前記注目現実物体を含む現実空間の画像を取得する画像取得工程と、
    前記画像処理装置の決定手段が、前記現実空間の画像中における、前記注目現実物体の領域を決定する決定工程と、
    前記画像処理装置の暈かし手段が、前記領域を包含する包含領域に対して暈かし処理を行う暈かし処理工程と、
    前記画像処理装置の配置手段が、前記注目現実物体の位置姿勢で、仮想物体を仮想空間中に配置する配置工程と、
    前記画像処理装置の仮想画像生成手段が、前記視点の位置姿勢に基づいて、前記仮想空間の画像を生成する仮想画像生成工程と、
    前記画像処理装置の合成画像生成手段が、前記暈かし処理後の現実空間の画像上に、前記仮想空間の画像を重畳させた合成画像を生成する合成画像生成工程と、
    前記画像処理装置の出力手段が、前記合成画像を出力する出力工程と
    を備えることを特徴とする画像処理方法。
  9. 請求項に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラム。
JP2007273093A 2007-10-19 2007-10-19 画像処理装置、画像処理方法 Expired - Fee Related JP4950834B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007273093A JP4950834B2 (ja) 2007-10-19 2007-10-19 画像処理装置、画像処理方法
US12/248,473 US9013483B2 (en) 2007-10-19 2008-10-09 Image processing apparatus and image processing method
US14/662,350 US10339712B2 (en) 2007-10-19 2015-03-19 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007273093A JP4950834B2 (ja) 2007-10-19 2007-10-19 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2009104249A JP2009104249A (ja) 2009-05-14
JP2009104249A5 JP2009104249A5 (ja) 2010-08-05
JP4950834B2 true JP4950834B2 (ja) 2012-06-13

Family

ID=40563051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007273093A Expired - Fee Related JP4950834B2 (ja) 2007-10-19 2007-10-19 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (2) US9013483B2 (ja)
JP (1) JP4950834B2 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9480919B2 (en) * 2008-10-24 2016-11-01 Excalibur Ip, Llc Reconfiguring reality using a reality overlay device
JP5168161B2 (ja) * 2009-01-16 2013-03-21 ブラザー工業株式会社 ヘッドマウントディスプレイ
KR101005599B1 (ko) 2010-01-27 2011-01-05 주식회사 미디어프론트 인터랙티브 영상처리 시스템 및 방법, 그리고 인터랙티브 영상처리장치
US9858475B2 (en) * 2010-05-14 2018-01-02 Intuitive Surgical Operations, Inc. Method and system of hand segmentation and overlay using depth data
JP5212521B2 (ja) * 2011-07-07 2013-06-19 株式会社ニコン 画像表示装置
JP5800484B2 (ja) 2010-09-22 2015-10-28 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
USD660866S1 (en) * 2010-10-18 2012-05-29 Target Brands, Inc. Communications terminal display with graphical user interface
JP5687881B2 (ja) * 2010-11-12 2015-03-25 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
US9257089B2 (en) * 2011-02-25 2016-02-09 Empire Technology Development Llc Augmented reality presentations
JP5698028B2 (ja) * 2011-02-25 2015-04-08 株式会社バンダイナムコゲームス プログラム及び立体視画像生成装置
CN107656615B (zh) 2011-05-06 2021-09-14 奇跃公司 大量同时远程数字呈现世界
KR101944846B1 (ko) 2011-10-28 2019-02-01 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
US9058341B2 (en) * 2012-03-15 2015-06-16 Crown Packaging Technology, Inc. Device and system for providing a visual representation of product contents within a package
JP5732446B2 (ja) * 2012-11-06 2015-06-10 株式会社ソニー・コンピュータエンタテインメント ヘッドマウントディスプレイ、および動き検出方法
JP5857946B2 (ja) * 2012-11-30 2016-02-10 カシオ計算機株式会社 画像処理装置、画像処理方法およびプログラム
US9393686B1 (en) * 2013-03-15 2016-07-19 Industrial Perception, Inc. Moveable apparatuses having robotic manipulators and conveyors to facilitate object movement
JP2015026286A (ja) * 2013-07-26 2015-02-05 セイコーエプソン株式会社 表示装置、表示システムおよび表示装置の制御方法
RU2015145510A (ru) 2013-03-26 2017-05-03 Сейко Эпсон Корпорейшн Наголовное устройство отображения, способ управления наголовным устройством отображения и система отображения
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
US9607409B2 (en) * 2013-12-23 2017-03-28 Empire Technology Development Llc Suppression of real features in see-through display
JP6292478B2 (ja) * 2014-06-17 2018-03-14 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
DE102014224851A1 (de) * 2014-12-04 2016-06-09 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur Darstellung von Strukturinformation über ein technisches Objekt
JP6596883B2 (ja) * 2015-03-31 2019-10-30 ソニー株式会社 ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム
US10484824B1 (en) * 2015-06-26 2019-11-19 Lucasfilm Entertainment Company Ltd. Content presentation and layering across multiple devices
EP3340188A4 (en) * 2015-08-20 2019-05-22 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
US11854308B1 (en) 2016-02-17 2023-12-26 Ultrahaptics IP Two Limited Hand initialization for machine learning based gesture recognition
US11841920B1 (en) 2016-02-17 2023-12-12 Ultrahaptics IP Two Limited Machine learning based gesture recognition
US11714880B1 (en) 2016-02-17 2023-08-01 Ultrahaptics IP Two Limited Hand pose estimation for machine learning based gesture recognition
US10846932B2 (en) * 2016-04-22 2020-11-24 Interdigital Ce Patent Holdings Method and device for compositing an image
KR101724360B1 (ko) * 2016-06-30 2017-04-07 재단법인 실감교류인체감응솔루션연구단 혼합현실 디스플레이 장치
JP6617662B2 (ja) * 2016-08-24 2019-12-11 株式会社Jvcケンウッド 視線検出装置、視線検出方法、及びコンピュータプログラム
JP7005134B2 (ja) * 2016-10-28 2022-01-21 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2018092313A (ja) * 2016-12-01 2018-06-14 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US10373385B2 (en) 2016-12-14 2019-08-06 Microsoft Technology Licensing, Llc Subtractive rendering for augmented and virtual reality systems
US10890979B2 (en) * 2018-04-23 2021-01-12 Industrial Technology Research Institute Controlling system and controlling method for virtual display
JPWO2020026419A1 (ja) 2018-08-02 2021-08-12 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
CN110072046B (zh) * 2018-08-24 2020-07-31 北京微播视界科技有限公司 图像合成方法和装置
JP7175715B2 (ja) * 2018-10-31 2022-11-21 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6720385B1 (ja) * 2019-02-07 2020-07-08 株式会社メルカリ プログラム、情報処理方法、及び情報処理端末
JP2021009270A (ja) 2019-07-03 2021-01-28 セイコーエプソン株式会社 表示装置および表示方法
CN112241199B (zh) * 2019-07-19 2023-03-24 华为技术有限公司 虚拟现实场景中的交互方法及装置
WO2021145068A1 (ja) * 2020-01-17 2021-07-22 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム
JP7589696B2 (ja) * 2020-01-17 2024-11-26 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム
JP6970774B2 (ja) * 2020-03-30 2021-11-24 Sppテクノロジーズ株式会社 携帯端末、方法及びプログラム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW197509B (ja) * 1990-01-31 1993-01-01 Hitachi Seisakusyo Kk
US5022085A (en) * 1990-05-29 1991-06-04 Eastman Kodak Company Neighborhood-based merging of image data
EP0961506B1 (en) * 1998-05-20 2003-03-26 Texas Instruments France Autostereoscopic display
US6738072B1 (en) * 1998-11-09 2004-05-18 Broadcom Corporation Graphics display system with anti-flutter filtering and vertical scaling feature
JP3363837B2 (ja) * 1999-06-11 2003-01-08 キヤノン株式会社 ユーザインタフェース装置および情報処理方法
JP3413127B2 (ja) 1999-06-11 2003-06-03 キヤノン株式会社 複合現実感装置及び複合現実感提示方法
US6972734B1 (en) * 1999-06-11 2005-12-06 Canon Kabushiki Kaisha Mixed reality apparatus and mixed reality presentation method
WO2003063086A1 (fr) * 2002-01-23 2003-07-31 Michihiko Shouji Systeme de traitement d'images, appareil de traitement d'images, et appareil d'affichage
JP4136420B2 (ja) * 2002-03-29 2008-08-20 キヤノン株式会社 情報処理方法および装置
JP3991020B2 (ja) * 2003-09-30 2007-10-17 キヤノン株式会社 画像表示方法及び画像表示システム
US7574070B2 (en) * 2003-09-30 2009-08-11 Canon Kabushiki Kaisha Correction of subject area detection information, and image combining apparatus and method using the correction
JP2007529007A (ja) * 2004-03-12 2007-10-18 ブラッコ イメージング ソチエタ ペル アチオニ 強化現実システムにおけるオーバーレイ・エラーの測定方法と、その計測システム
JP4522129B2 (ja) * 2004-03-31 2010-08-11 キヤノン株式会社 画像処理方法および画像処理装置
JP4434890B2 (ja) * 2004-09-06 2010-03-17 キヤノン株式会社 画像合成方法及び装置
US20060050070A1 (en) * 2004-09-07 2006-03-09 Canon Kabushiki Kaisha Information processing apparatus and method for presenting image combined with virtual image
US20070132785A1 (en) * 2005-03-29 2007-06-14 Ebersole John F Jr Platform for immersive gaming
JP2007108834A (ja) * 2005-10-11 2007-04-26 Dainippon Printing Co Ltd 広告表示シミュレーション装置、広告表示シミュレーションプログラム、及び広告表示シミュレーション方法
US8659704B2 (en) * 2005-12-20 2014-02-25 Savant Systems, Llc Apparatus and method for mixing graphics with video images
DE102005061952B4 (de) * 2005-12-23 2008-09-11 Metaio Gmbh Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System
US7881552B1 (en) * 2006-05-16 2011-02-01 Adobe Systems Incorporated Anti-flicker filter
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US7573475B2 (en) * 2006-06-01 2009-08-11 Industrial Light & Magic 2D to 3D image conversion
US8589824B2 (en) * 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US8339418B1 (en) * 2007-06-25 2012-12-25 Pacific Arts Corporation Embedding a real time video into a virtual environment
US9024966B2 (en) * 2007-09-07 2015-05-05 Qualcomm Incorporated Video blending using time-averaged color keys

Also Published As

Publication number Publication date
JP2009104249A (ja) 2009-05-14
US20090102845A1 (en) 2009-04-23
US9013483B2 (en) 2015-04-21
US20150193985A1 (en) 2015-07-09
US10339712B2 (en) 2019-07-02

Similar Documents

Publication Publication Date Title
JP4950834B2 (ja) 画像処理装置、画像処理方法
JP4933406B2 (ja) 画像処理装置、画像処理方法
JP4227561B2 (ja) 画像処理方法、画像処理装置
KR102598116B1 (ko) 증강 현실 데이터를 레코딩하기 위한 기술
JP4533087B2 (ja) 画像処理方法、画像処理装置
JP4401728B2 (ja) 複合現実空間画像生成方法及び複合現実感システム
JP4401727B2 (ja) 画像表示装置及び方法
JP4810295B2 (ja) 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体
JP4667111B2 (ja) 画像処理装置、画像処理方法
JP4739002B2 (ja) 画像処理方法、画像処理装置
US20170315364A1 (en) Virtual object display device, method, program, and system
US20020060648A1 (en) Image-display control apparatus
JP2009025918A (ja) 画像処理装置、画像処理方法
JP2006126936A (ja) 画像処理方法、画像処理装置
JP7175715B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2005339377A (ja) 画像処理方法、画像処理装置
JP2007004713A (ja) 画像処理方法、画像処理装置
JP2006085375A (ja) 画像処理方法、画像処理装置
JP4217661B2 (ja) 画像処理方法、画像処理装置
JP2008217119A (ja) システム、画像処理装置、画像処理方法
JP4366165B2 (ja) 画像表示装置及び方法並びに記憶媒体
JP2005251118A (ja) 画像処理方法、画像処理装置
JP2004013309A (ja) 情報処理方法および複合現実感提示装置
JP6562371B1 (ja) 表示装置、表示処理装置、および表示処理プログラム
JP2005267554A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100622

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120309

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4950834

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees