JP2012146224A - 描画処理装置 - Google Patents

描画処理装置 Download PDF

Info

Publication number
JP2012146224A
JP2012146224A JP2011005345A JP2011005345A JP2012146224A JP 2012146224 A JP2012146224 A JP 2012146224A JP 2011005345 A JP2011005345 A JP 2011005345A JP 2011005345 A JP2011005345 A JP 2011005345A JP 2012146224 A JP2012146224 A JP 2012146224A
Authority
JP
Japan
Prior art keywords
image
depth value
depth
drawing processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011005345A
Other languages
English (en)
Other versions
JP5689693B2 (ja
Inventor
Eisaku Obuchi
栄作 大渕
Tatsuo Yamamoto
達夫 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DIGITAL MEDIA PROFESSIONAL KK
Digital Media Professionals Inc
Original Assignee
DIGITAL MEDIA PROFESSIONAL KK
Digital Media Professionals Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DIGITAL MEDIA PROFESSIONAL KK, Digital Media Professionals Inc filed Critical DIGITAL MEDIA PROFESSIONAL KK
Priority to JP2011005345A priority Critical patent/JP5689693B2/ja
Publication of JP2012146224A publication Critical patent/JP2012146224A/ja
Application granted granted Critical
Publication of JP5689693B2 publication Critical patent/JP5689693B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】写実的で自然な実写画像とCG画像の合成画像を生成できる描画処理装置を提供する。
【解決手段】基本的には,実写画像の3次元空間における対象物までの奥行き値を検出し,検出した奥行き値に基づいて,例えば,ぼけ処理や,輪郭強調処理,動き強調処理のような後処理を行う。具体的には,同一の対象物を異なる視点において撮影した複数の実写画像に基づいて奥行き値の検出を行うため,例えば実写画像の視差に基づいて奥行き値を検出できるため,奥行き値の演算がより正確になる。また,奥行き値の検出処理に際して,異なる視点の複数の実写画像を用いることにより,生成された合成画像は,両眼の視差によって立体映像を表示する立体ディスプレイに好適に表示できる。従って,より写実的で自然な合成画像を生成できる。
【選択図】図1

Description

本発明は,3次元空間において,実写の画像とコンピュータグラフィックスによって生成された画像を合成するための描画処理装置に関する。
従来から,例えば,擬似3次元空間に配置された対象物をモニタに表示させた際に,カメラ撮影の焦点位置を中心として,被写界深度より遠方の物体をぼかす処理を行うことにより,コンピュータグラフィックスによって生成された画像(以下,CG画像)を自然に表現する技術が提案されている(特許文献1)。
特開2009−53748号公報
しかしながら,ぼかし処理が施されたCG画像を,実際に撮影された画像(以下,実写画像)と合成すると,CG画像と実写画像の奥行きが一致しないことから,合成画像が不自然なものとなっていた。
そこで,本発明は,実写画像とCG画像の奥行きを一致させることで,より写実的で自然な実写画像とCG画像の合成画像を生成できる描画処理装置を提供することを目的とする。
本発明は,基本的には,実写画像の3次元空間における対象物までの奥行き値を検出し,検出した奥行き値に基づいて,例えば,ぼけ処理や,輪郭強調処理,動き強調処理のような後処理を行うことにより,より写実的で自然な合成画像を生成できるという知見に基づく。具体的に説明すると,本発明は,以下の構成を有する。
本発明の第1の側面は,描画処理装置に100関する。
本発明の描画処理装置100は,画像入力インターフェイス1と,奥行き検出部2と,グラフィックス処理部3と,後処理部4を含む。
画像入力インターフェイス1は,三次元空間における対象物の実写画像を入力するための機能を有する。
奥行き検出部2は,画像入力インターフェイス1によって入力された実写画像に基づいて,実写画像の撮影位置から対象物までの奥行き値を検出する機能を有する。
グラフィックス処理部3は,奥行き値を有するコンピュータグラフィックス画像を生成する機能を有する。
後処理部4は,奥行き検出部により検出された対象物までの奥行き値と,コンピュータグラフィックス画像が有する奥行き値に基づいて,実写画像とコンピュータグラフィックス画像の合成画像を生成するとともに,合成画像の空間表現を強調するための追加処理を行う機能を有する。
また,画像入力インターフェイス1によって入力される実写画像は,同一の対象物を異なる視点において撮影した複数の実写画像であり,奥行き検出部2は,複数の実写画像に基づいて,実写画像の撮影位置から対象物までの奥行き値を検出することが好ましい。
このように,同一の対象物を異なる視点において撮影した複数の実写画像に基づいて奥行き値の検出を行うことにより,例えば実写画像の視差に基づいて奥行き値を検出できるため,奥行き値の演算がより正確になる。また,奥行き値の検出処理に際して,異なる視点の複数の実写画像を用いることにより,本発明により生成された合成画像は,両眼の視差によって立体映像を表示する立体ディスプレイに好適に表示できる。
また,後処理部4は,奥行き検出部により検出された対象物までの奥行き値と,コンピュータグラフィックス画像が有する奥行き値に基づいて,マスク画像を生成することが好ましい。後処理部4は,実写画像についてのマスク画像を生成するものであってもよいし,CGが画像についてのマスク画像を生成するものであってもよい。
また,マスク画像は,少なくとも,ぼかしの強度に関する情報,エッジに関する情報,又は対象物の識別子のいずれか1つを有することが好ましい。
本発明の第2の側面は,本発明の第1の側面の描画処理装置100を備えたマルチディスプレイシステムに関する。マルチディスプレイシステムとは,複数の表示装置を備える画像表示システムである。
本発明の第3の側面は,本発明の第1の側面の描画処理装置100を備えた立体ディスプレイシステムに関する。立体ディスプレイシステムの例は,偏光眼鏡やシャッター眼鏡を利用して立体映像を提示する眼鏡式や,モニタにレンチキュラーレンズやパララックスバリアの視差障壁を備える裸眼式の立体ディスプレイシステムである。
本発明の第4の側面は,本発明の第1の側面の描画処理装置100を備えたコンピュータである。コンピュータの例は,パーソナルコンピュータ,ゲーム機,携帯電話,ナビゲーションシステム,及びスロットマシーンである。
図1は,本発明の描画処理装置の構成の例を示すブロック図である。 図2は,本発明の描画処理装置の情報処理の例を概念的に示した図である。 図3は,奥行き検出部の情報処理の例を説明するための図である。 図4は,グラフィックス処理部の構成を説明するための図である。 図5は,後処理部の構成を説明するための図である。
以下,図面に基づいて本発明を実施するための形態について説明する。ただし,本発明は,以下の説明に限定されることなく,当業者に自明な範囲で適宜修正を加えたものも含む。
(1.描画処理装置の全体構成)
図1は,本発明の描画処理装置100の構成の例を示すブロック図である。図1に示されるように,本発明の描画処理装置100は,基本的には,画像入力インターフェイス1,奥行き検出部2,グラフィックス処理部3,後処理部4,及び画像出力インターフェイス5で構成される。また,これらの各要素によって処理された情報は,適宜システムメモリ6に格納され,システムメモリ6に格納された情報は,適宜これらの各要素によって読み出され処理される。
なお,画像入力インターフェイス1は,例えばカメラのように直接的な画像入力を行う撮影装置であってもよいし,何らかの形で入力された画像をシステムメモリ6へ格納する装置であってもよい。同様に,画像出力インターフェイス5は,例えば液晶のように直接的な画像出力を行う表示装置であってもよいし,生成された画像をシステムメモリ6に格納する装置であってもよい。
(2.描画処理装置の処理フロー)
図2は,本発明の描画処理装置100の情報処理の例を概念的に示した図である。図2においては,2台のカメラが画像入力インターフェイス1として用いられるとともに,画像出力インターフェイス5が立体映像を表示するための立体ディスプレイに接続される例を示している。
まず,描画処理装置100は,画像入力インターフェイス1であるカメラを介して,画像データを取り込む。図2に示された例においては,異なる視点位置に配置された2台のカメラによって,同一の対象物が撮影されている。2台のカメラは,それぞれ,左眼用の画像データを取り込む用途,及び右眼用の画像データを取り込む用途に使用される。そして,2台のカメラを介して取り込まれた左眼用画像データ及び右眼用画像データは,システムメモリ6に格納される。
次に,描画処理装置100は,カメラを介して取り込まれた左眼用画像データ及び右画像データを用いて,奥行き値を検出するための奥行き検出処理を行う。奥行き検出部2は,カメラによって入力された画像データを基に,奥行き距離(奥行き値)の計測を行う。例えば,奥行き検出部2は,入力された左眼用画像データ及び右眼用画像データから,それぞれの画像に対応する特徴点を抽出し,抽出した特徴点に対応する左右両眼の画像データのピクセル座標値を用いて,奥行き値を検出するための演算処理を行う。そして,奥行き検出部2による演算処理の結果は,画像奥行き情報としてシステムメモリ6に格納される。
一方,描画処理装置100は,グラフィックス処理部3によって,3次元CG画像の描画を行う。このCG画像の描画処理は,2台のカメラの視点位置を考慮し,3次元空間内におけるカメラ位置を決定した上で行われる。そして,左眼用の3次元画像の描画結果及び右眼用の3次元画像の描画結果は,システムメモリ6に格納される。また,左眼用の3次元画像の描画結果及び右眼用の3次元画像の描画結果と併せて,それぞれの結果に対応する奥行き情報もシステムメモリに格納される。
また,描画処理装置100の後処理部4は,奥行き検出部により検出された対象物までの奥行き値と,CG画像が有する奥行き値に基づいて,実写画像とCG画像の合成を行う。また,後処理部4は,実写画像とCG画像の合成を行うと同時に,例えば,画像ぼけの処理,影付け処理,輪郭強調処理,又は動き強調処理を行う。これにより,描画処理装置100は,奥行き感がありかつ自然な合成画像を生成できる。
そして,描画処理装置100は,上記後処理を行った後,左眼用結果画像データ及び右眼用結果画像データをシステムメモリ6に格納する。システムメモリ6に格納された左眼用結果画像データ及び右眼用結果画像データは,画像出力インターフェイス5を介して,立体ディスプレイ200に表示される。
ただし,本発明の描画処理装置100は,図2に示された例に限定されるものではない。すなわち,本発明の描画処理装置100は,1台のカメラが画像入力インターフェイス1として構成されるものであってもよい。また,本発明の描画処理装置100は,カメラによって対象物を撮影するに際に,カメラに搭載された距離センサによって,対象物の奥行き情報を取得することとしてもよい。また,本発明の描画処理装置100は,画像出力インターフェイス5が,通常のディスプレイに接続されていてもよい。さらに,本発明の描画処理装置100は,3台以上のカメラを画像入力インターフェイスとして用いることで,奥行き情報の検出の精度をさらに向上させることとしてもよい。
(3.描画処理装置の構成要素)
以下,図面を参照して,描画処理装置100の構成要素について説明する。
(3−1.画像入力インターフェイス)
画像入力インターフェイス1は,三次元空間における対象物の実写画像を入力する機能を有する。画像入力インターフェイス1の例は,カメラである。描画処理装置100は,画像入力インターフェイス1としてのカメラを,一台備えるものであってもよいし,複数台備えるものであってもよい。また,画像入力インターフェイス1は,一台のカメラに,複数の撮影レンズを備えるものであってもよい。
カメラは,撮影レンズを有し,撮影レンズの撮像素子の撮像面上に撮影対象物の像を結像させる。撮像素子はCCDイメージセンサなどで構成され,撮像面上の対象物の像を撮像し,その撮像信号を,撮像回路へ出力する。撮像回路は,撮像素子から入力された光電変換信号に対するアナログ処理(例えばゲインコントロール)を行う他,内蔵するA/D変換回路でアナログ撮像信号をデジタルデータに変換する。撮像回路により変換されたデジタルデータは,システムメモリに格納される。
また,カメラは,焦点検出装置を有するものであってもよい。焦点検出装置は,焦点検出領域に対応する光束を用いて,例えば位相差検出方式によって撮影レンズによる焦点調節状態の検出を行う。つまり,焦点検出装置は,焦点検出光学系を介して一対の被写体像をオートフォーカスセンサ上に結像させる。そして,CPUは,センサ上の一対の被写体像の相対間隔に基づいて,撮影レンズによる焦点位置の調節状態を算出する。
(3−2.奥行き検出部)
図3を参照して,奥行き検出部2が,カメラによって入力された画像データを基に,撮影位置から撮影対象物までの奥行きを,水平に検出する場合について説明する。なお,図3においては,2台のカメラによって一の対象物を撮影した場合の例が示されているが,奥行き検出部2が対象物の奥行きを検出する方法は,これに限定されない。
図3に示す例では,左眼用画像データのピクセル位置,右眼用画像データのピクセル位置,及びこれらの左右両画像に共通の特徴点のピクセル位置を用いて奥行き値の演算処理を行う。つまり,奥行き検出部2は,入力された左眼用画像データ及び右眼用画像データから,それぞれの画像に対応する特徴点を抽出し,抽出した特徴点に対応する左右両眼の画像データのピクセル座標値を用いて,奥行き値を検出するための演算処理を行う。具体的に説明すると,奥行き値depthは,以下の方程式(1)によって求められる。
Figure 2012146224
ここで,Lは,左眼用画像の撮影位置及び右眼用画像の撮影位置のレンズの光軸間距離(基線長)である。また,fは,左眼用レンズと右眼用レンズの焦点距離であり,dは視差である。
このようにして奥行き検出部2が求めた奥行き値は,撮影画像における対象物の奥行き情報としてシステムメモリ6に格納される。
(3−3.グラフィックス処理部)
図4を参照して,グラフィックス処理部3の構成について説明する。図4は,グラフィックス処理部3の構成を概念的に示した図である。グラフィックス処理部3は,図4に示されるように,3次元グラフィックス処理部31と,描画結果及び奥行き情報出力部32を含む。3次元グラフィックス処理部31は,3次元のモデルデータを基に,CG画像の描画を行う。そして,描画結果及び奥行き情報出力部32は,3次元グラフィックス処理部31が描画したCG画像データとともに,描画対象の奥行き情報を出力する。
グラフィックス処理部3が行うCG画像の描画処理には,適宜,公知の方法を用いることができる。例えば,グラフィックス処理部3は,OpenGL(登録商標)に代表される一般的な3次元グラフィックス処理を行うこととしてもよい。また,グラフィックス処理部3は,奥行き情報を固定で与られ,奥行き方向に垂直にスライスされるプレーン上に描画が行われる2次元グラフィックスであっても,奥行き情報を出力可能である。
(3−3.グラフィックス処理部)
図5は,後処理部4の情報処理の構成を概念的に示す図である。ここで,図5に示されるように,後処理部4は,奥行き情報補正部41と,マスク生成部42と,画像生成・合成部43とを含む。
奥行き情報補正部41は,システムメモリから実写画像の奥行き情報とCG画像の奥行き情報を読み出し,奥行き値の情報の補正を行う機能を有する。また,マスク生成部42は,奥行き情報補正部41により補正された奥行き情報に基づいて,次処理用のマスクを生成する機能を有する。そして,画像生成・合成部43は,マスク生成部42により生成されたマスクを用いて,例えば,入力画像インターフェイス1により入力された実写画像データや,グラフィックス処理部2により生成されたCG描画結果画像のピクセル単位のぼかし処理,影付け処理,輪郭強調処理,又は動き強調処理を行う。また,画像生成・合成部43は,上記のような空間表現を強調するための追加処理と同時に,実写画像とCG画像の合成処理を行う。
まず,奥行き情報補正部41は,実写画像データの奥行き情報とCG描画結果画像の奥行き情報の奥行きの位置関係が適合するように補正する。具体的に説明すると,奥行き情報補正部41は,例えば,スケール変換やオフセット変換のような演算処理を行うことにより,奥行き情報の位置関係を適合させる。このように,奥行き情報を補正することにより,例えば,対象物の実写画像を取得する際にカメラの位置に関して製造上のばらつきが発生した場合であっても,そのカメラ位置の調整のための演算も,この奥行き情報補正部51によって同時に行うことができる。
次に,マスク生成部42は,奥行き情報補正部51により補正された奥行き情報に応じて,8bit程度のマスクデータを,ピクセルごとに生成する。マスク生成部42は,実写画像についてのマスク画像を生成するものであってもよいし,CG画像についてのマスク画像を生成するものであってもよい。マスク生成部42は,生成されたマスクデータを用いて,例えば,カメラ撮影の焦点位置を中心として,被写界深度より遠方及び近方の物体をぼかす処理を行う。
そして,マスク生成部42は,このようなぼけ処理を行う際に,奥行き検出部2により検出された実写画像における対象物までの奥行き値と,CG画像が有する奥行き値を,参照する。つまり,マスク生成部42は,これらの奥行き情報に基づいて,被写界深度の遠方と近方の対象物が大きくぼけるようなパラメータ設定を行う。
また,実写画像とCG画像の奥行き情報に基づいて,輪郭強調処理を行うこともできる。つまり,予め与えられた閾値を基に,その閾値よりも奥行き値に差があった場合,その部分を輪郭とするような情報をマスクに入れておけばよい。これにより,対象物の輪郭部分についてはぼかしながら,輝度を上げるといった強調処理を行うことができる。
また,マスクデータには,顔認識のようなオブジェクト検出と組み合わせた識別子を付加することができる。これにより,対象物の特定の部分(例えば目の部分)についてのみぼかすといった処理を行うことが可能となる。
そして,画像生成・合成部43は,マスク生成部42により生成されたマスクを基にして,例えば,ぼかし処理や輝度調整を行ったりすると共に,実写画像データとCG描画結果の合成を行う。
さらに,画像生成・合成部43は,前回の画像出力において出力された合成結果画像を再度入力することにより,対象物が動いた場合の残像処理のために,前後のフレームに対して加算処理を行うことも可能である。
(3−5.画像出力インターフェイス)
本発明の描画処理装置100における画像出力インターフェイス5は,一般的なディスプレイに接続されていてもよいし,例えば,複数の表示装置が連動するマルチディスプレイや,立体映像を表示するための立体ディスプレイに接続されていてもよい。また,その他,画像出力インターフェイス5は,例えば,携帯電話,ゲーム機,ナビゲーションシステム,スロットマシーンのようなコンピュータの表示装置に接続されていてもよい。
ここで,立体ディスプレイシステムの例は,偏光眼鏡やシャッター眼鏡を利用して立体映像を提示する眼鏡式や,モニタにレンチキュラーレンズやパララックスバリアの視差障壁を備える裸眼式の立体ディスプレイシステムである。立体ディスプレイシステムは,視差を利用して,2視点で撮影された画像を用いて立体画像を表示するものであってもよいし,3視点以上の多視点で撮影された画像を用いて立体画像を表示するものであってもよい。
本発明は,実写画像とCG画像の合成画像を生成するための描画処理装置に適用される。従って,本発明は,コンピュータグラフィックスに関する産業において好適に利用しうる。
1 画像入力インターフェイス
2 奥行き検出部
3 グラフィックス処理部
4 後処理部
5 画像入力インターフェイス
6 システムメモリ
31 3次元グラフィックス処理部
32 描画結果及び奥行き情報出力部
41 奥行き情報補正部
42 マスク生成部
43 画像生成・合成部
100 描画処理装置
200 立体ディスプレイ

Claims (7)

  1. 三次元空間における対象物の実写画像を入力するための画像入力インターフェイス(1)と,
    前記画像入力インターフェイス(1)によって入力された実写画像に基づいて,前記実写画像の撮影位置から前記対象物までの奥行き値を検出する奥行き検出部(2)と,
    奥行き値を有するコンピュータグラフィックス画像を生成するグラフィックス処理部(3)と,
    前記奥行き検出部により検出された前記対象物までの奥行き値と,前記コンピュータグラフィックス画像が有する奥行き値に基づいて,前記実写画像と前記コンピュータグラフィックス画像の合成画像を生成するとともに,前記合成画像の空間表現を強調するための追加処理を行う後処理部(4)を含む
    描画処理装置(100)。
  2. 前記画像入力インターフェイス(1)によって入力される実写画像は,同一の対象物を異なる視点において撮影した複数の実写画像であり,
    前記奥行き検出部(2)は,前記複数の実写画像に基づいて,前記実写画像の撮影位置から前記対象物までの奥行き値を検出する
    請求項1に記載の描画処理装置(100)。
  3. 前記後処理部(4)は,前記奥行き検出部(2)により検出された前記対象物までの奥行き値と,前記コンピュータグラフィックス画像が有する奥行き値に基づいて,マスク画像を生成する
    請求項1に記載の描画処理装置(100)。
  4. 前記マスク画像は,少なくとも,ぼかしの強度に関する情報,エッジに関する情報,又は対象物の識別子のいずれか1つを有する
    請求項3に記載の描画処理装置(100)。
  5. 請求項1から請求項4のいずれかに記載の描画処理装置(100)を備える
    マルチディスプレイシステム。
  6. 請求項1から請求項4のいずれかに記載の描画処理装置(100)を備える
    立体ディスプレイシステム。
  7. 請求項1から請求項4のいずれかに記載の描画処理装置(100)を備える
    コンピュータ。
JP2011005345A 2011-01-13 2011-01-13 描画処理装置 Active JP5689693B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011005345A JP5689693B2 (ja) 2011-01-13 2011-01-13 描画処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011005345A JP5689693B2 (ja) 2011-01-13 2011-01-13 描画処理装置

Publications (2)

Publication Number Publication Date
JP2012146224A true JP2012146224A (ja) 2012-08-02
JP5689693B2 JP5689693B2 (ja) 2015-03-25

Family

ID=46789712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011005345A Active JP5689693B2 (ja) 2011-01-13 2011-01-13 描画処理装置

Country Status (1)

Country Link
JP (1) JP5689693B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180083245A (ko) * 2017-01-12 2018-07-20 한국전자통신연구원 멀티 카메라의 정보 처리 장치 및 방법
WO2019082794A1 (ja) * 2017-10-25 2019-05-02 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像生成システム、画像生成方法、およびプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0344776A (ja) * 1989-07-12 1991-02-26 Fujitsu Ltd ぼかし画像合成処理方法
JPH08161532A (ja) * 1994-12-07 1996-06-21 Nec Corp 3次元描画装置および3次元描画方法
JPH09319896A (ja) * 1996-03-25 1997-12-12 Hitachi Ltd 3次元画像作成装置
JP2000354257A (ja) * 1999-06-10 2000-12-19 Sony Corp 画像処理装置、画像処理方法、およびプログラム提供媒体
JP2001175884A (ja) * 1999-12-17 2001-06-29 Namco Ltd 画像生成システム及び情報記憶媒体
JP2002063591A (ja) * 2000-06-05 2002-02-28 Namco Ltd ゲームシステム、プログラム及び情報記憶媒体
JP2002251634A (ja) * 2001-02-23 2002-09-06 Mixed Reality Systems Laboratory Inc 画像処理装置及びその方法並びにプログラムコード、記憶媒体
JP2010541053A (ja) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング 現実環境内にバーチャルオブジェクトを描写する方法および装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0344776A (ja) * 1989-07-12 1991-02-26 Fujitsu Ltd ぼかし画像合成処理方法
JPH08161532A (ja) * 1994-12-07 1996-06-21 Nec Corp 3次元描画装置および3次元描画方法
JPH09319896A (ja) * 1996-03-25 1997-12-12 Hitachi Ltd 3次元画像作成装置
JP2000354257A (ja) * 1999-06-10 2000-12-19 Sony Corp 画像処理装置、画像処理方法、およびプログラム提供媒体
JP2001175884A (ja) * 1999-12-17 2001-06-29 Namco Ltd 画像生成システム及び情報記憶媒体
JP2002063591A (ja) * 2000-06-05 2002-02-28 Namco Ltd ゲームシステム、プログラム及び情報記憶媒体
JP2002251634A (ja) * 2001-02-23 2002-09-06 Mixed Reality Systems Laboratory Inc 画像処理装置及びその方法並びにプログラムコード、記憶媒体
JP2010541053A (ja) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング 現実環境内にバーチャルオブジェクトを描写する方法および装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180083245A (ko) * 2017-01-12 2018-07-20 한국전자통신연구원 멀티 카메라의 정보 처리 장치 및 방법
KR102430726B1 (ko) * 2017-01-12 2022-08-10 한국전자통신연구원 멀티 카메라의 정보 처리 장치 및 방법
WO2019082794A1 (ja) * 2017-10-25 2019-05-02 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像生成システム、画像生成方法、およびプログラム
US11132846B2 (en) 2017-10-25 2021-09-28 Sony Interactive Entertainment Inc. Image generation device, image generation system, image generation method, and program for producing an augmented reality image

Also Published As

Publication number Publication date
JP5689693B2 (ja) 2015-03-25

Similar Documents

Publication Publication Date Title
JP5679978B2 (ja) 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム
JP4657313B2 (ja) 立体画像表示装置および方法並びにプログラム
US20130257908A1 (en) Object display device, object display method, and object display program
EP3073733A1 (en) Method for generating picture and twin-lens device
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
WO2018032841A1 (zh) 绘制三维图像的方法及其设备、系统
JP4819834B2 (ja) 立体映像処理装置及び立体映像処理方法
US20150029311A1 (en) Image processing method and image processing apparatus
JP2009175866A (ja) 立体像生成装置、その方法およびそのプログラム
CN110969706B (zh) 增强现实设备及其图像处理方法、系统以及存储介质
US8908012B2 (en) Electronic device and method for creating three-dimensional image
JP6409769B2 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
JP5689693B2 (ja) 描画処理装置
TWI504936B (zh) 影像處理裝置
KR20110025083A (ko) 입체 영상 시스템에서 입체 영상 디스플레이 장치 및 방법
JP2011217229A (ja) 撮像装置および表示方法
EP2750392A1 (en) Visually-assisted stereo acquisition from a single camera
WO2012014695A1 (ja) 立体撮像装置およびその撮像方法
JP2005174148A (ja) 撮像装置及び方法、撮像システム
JP5871113B2 (ja) 立体画像生成装置、立体画像生成方法及び立体画像生成プログラム
JP5351878B2 (ja) 立体画像表示装置および方法並びにプログラム
JP2019114143A (ja) 画像処理装置、画像処理方法、およびプログラム
JP5981460B2 (ja) 立体シーンにおける焦点面の位置を管理するためのデバイスおよび方法
TWI382267B (zh) 自動景深捕捉系統及自動景深捕捉方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150129

R150 Certificate of patent or registration of utility model

Ref document number: 5689693

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250