JP5552197B2 - 3次元映像処理装置および方法 - Google Patents
3次元映像処理装置および方法 Download PDFInfo
- Publication number
- JP5552197B2 JP5552197B2 JP2013554086A JP2013554086A JP5552197B2 JP 5552197 B2 JP5552197 B2 JP 5552197B2 JP 2013554086 A JP2013554086 A JP 2013554086A JP 2013554086 A JP2013554086 A JP 2013554086A JP 5552197 B2 JP5552197 B2 JP 5552197B2
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint image
- image
- new
- correction
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
本発明は、立体画像を回転処理する3次元映像処理装置に関する。
特許文献1では、従来の3次元映像処理として、両眼視差量に応じて、被写体が近景であるほどエッジの強調処理を強めることを提案している。
本開示は、立体画像に対して画像面に平行な仮想回転軸を中心に回転させる処理を、より自然に行う3次元映像処理装置を提供する。
本開示における3次元映像処理装置は、立体画像の第1視点画像と第2視点画像とを比較して、第1視点画像に対する第2視点画像のずれを表すずれマップを生成するずれマップ生成部と、第1視点画像に対して、画像面に平行な仮想回転軸を中心にして、与えられた回転角に従って回転処理を行い、新第1視点画像を生成する第1の新画像生成部と、ずれマップに対して、仮想回転軸および回転角に基づいて補正処理を行い、補正ずれマップを生成するずれマップ補正部と、新第1視点画像から、補正ずれマップに基づいて、新第2視点画像を生成する第2の新画像生成部と、を備える。
本開示では、立体画像を回転処理した場合に、より自然な立体感を持つ立体画像に変換することができる。
画像を回転する方法の一つに、画像面に平行であって、例えば略鉛直方向に設けた仮想的な回転軸を中心にして、画像平面を回転して表示する方法がある。このような表示方法は「透視変換」とも称される。ところが、立体画像の場合、2次元画像に行っていた従来の透視変換処理を行うだけでは、必ずしも適切な立体画像は得られない。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者(ら)は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施の形態1)
<1−1.構成>
図1は本実施形態に係る3次元映像処理装置の一例としての、デジタルカメラの構成を示す図である。図1のデジタルカメラ1は、光学系110(a)および110(b)、ズームモータ120、OIS(Optical Image Stabilization)アクチュエータ130、フォーカスモータ140、CCDイメージセンサ150(a)および150(b)、映像処理部160、メモリ200、コントローラ210、ジャイロセンサ220、カードスロット230、メモリカード240、操作部材250、ズームレバー260、液晶モニタ270、内部メモリ280、および撮影モード設定ボタン290を備えている。
<1−1.構成>
図1は本実施形態に係る3次元映像処理装置の一例としての、デジタルカメラの構成を示す図である。図1のデジタルカメラ1は、光学系110(a)および110(b)、ズームモータ120、OIS(Optical Image Stabilization)アクチュエータ130、フォーカスモータ140、CCDイメージセンサ150(a)および150(b)、映像処理部160、メモリ200、コントローラ210、ジャイロセンサ220、カードスロット230、メモリカード240、操作部材250、ズームレバー260、液晶モニタ270、内部メモリ280、および撮影モード設定ボタン290を備えている。
光学系110(a)は、ズームレンズ111(a)、OIS112(a)およびフォーカスレンズ113(a)を含む。また、光学系110(b)は、ズームレンズ111(b)、OIS112(b)およびフォーカスレンズ113(b)を含む。なお、光学系110(a)は、第1視点における被写体像を形成する。また、光学系110(b)は、第1視点とは異なる第2視点における被写体像を形成する。
ズームレンズ111(a)および111(b)は、光学系の光軸に沿って移動することにより、被写体像を拡大または縮小可能である。ズームレンズ111(a)および111(b)は、ズームモータ120によって制御される。
OIS112(a)および112(b)は、光軸に垂直な面内で移動可能な補正レンズを内部に有する。OIS112(a)および112(b)は、デジタルカメラ1のブレを相殺する方向に補正レンズを駆動することにより、被写体像のブレを低減する。補正レンズは、OIS112(a)および112(b)内において最大Lだけ中心から移動することができる。OIS112(a)および112(b)は、OISアクチュエータ130によって制御される。
フォーカスレンズ113(a)および113(b)は、光学系の光軸に沿って移動することにより、被写体像のピントを調整する。フォーカスレンズ113(a)および113(b)は、フォーカスモータ140によって制御される。
ズームモータ120は、ズームレンズ111(a)および111(b)を駆動制御する。ズームモータ120は、パルスモータやDCモータ、リニアモータ、サーボモータなどで実現してもよい。ズームモータ120は、カム機構やボールネジなどの機構を介してズームレンズ111(a)および111(b)を駆動するようにしてもよい。また、ズームレンズ111(a)および111(b)を同じ動作で制御する構成にしても良い。
OISアクチュエータ130は、OIS112(a)および112(b)内の補正レンズを光軸と垂直な面内で駆動制御する。OISアクチュエータ130は、平面コイルや超音波モータなどで実現できる。
フォーカスモータ140は、フォーカスレンズ113(a)および113(b)を駆動制御する。フォーカスモータ140は、パルスモータやDCモータ、リニアモータ、サーボモータなどで実現してもよい。フォーカスモータ140は、カム機構やボールネジなどの機構を介してフォーカスレンズ113(a)および113(b)を駆動するようにしてもよい。
CCDイメージセンサ150(a)および150(b)は、光学系110(a)および110(b)で形成された被写体像を撮影して、第1視点画像および第2視点画像を生成する。CCDイメージセンサ150(a)および150(b)は、露光、転送、電子シャッタなどの各種動作を行う。この第1視点画像および第2視点画像は、対で視聴した際に立体映像を構成する。
映像処理部160は、CCDイメージセンサ150(a)および150(b)で生成された第1視点画像および第2視点画像に対して各種の処理を施す。映像処理部160は、第1視点画像および第2視点画像に対して処理を施し、液晶モニタ270に表示するための画像データ(以下、レビュー画像と称す)を生成する。また、映像処理部160は、メモリカード240に再格納するための映像信号を生成する。例えば、映像処理部160は、第1視点画像および第2視点画像に対してガンマ補正やホワイトバランス補正、傷補正などの各種映像処理を行う。
また、映像処理部160は、コントローラ210からの制御信号に基づいて、第1視点画像および第2視点画像に対して、例えば、エッジ強調処理等のエンハンス処理を行う。
さらに、映像処理部160は、処理された第1視点画像および第2視点画像について、それぞれJPEG規格に準拠した圧縮形式等により映像信号の圧縮を行う。第1視点画像および第2視点画像を圧縮して得られた2つの圧縮映像信号は、互いに関連付けられて、メモリカード240に記録される。なお、2つの圧縮映像信号は、マルチピクチャーフォーマット(以下、MPFと称す)を用いて記録されるのが望ましい。また、圧縮する映像信号が動画の場合、H.264/AVC等の動画圧縮規格が適用される。また、MPFとJPEG画像またはMPEG動画とを同時に記録する構成にしても構わない。
さらに、映像処理部160は、CCDイメージセンサ150(a)および150(b)で生成された第1視点画像および第2視点画像または、メモリカード240に格納された第1視点画像および第2視点画像から、より自然な立体感を有する立体画像を構成する新第1視点画像および新第2視点画像を生成する。具体的に、映像処理部160は、新第1視点画像および新第2視点画像を生成するために、ずれマップ生成部162、第1の新画像生成部164、ずれマップ補正部165、および第2の新画像生成部166を備えている。
ずれマップ生成部162は、第1視点画像と第2視点画像とを比較して、第1視点画像に対する第2視点画像のずれを表すずれマップを生成する。ずれマップに表されたずれから、第1視点画像および第2視点画像に映し出される被写体間の画像奥行き方向における相対位置関係である深さ情報が、一意に特定される。ずれマップの生成については後述する。
第1の新画像生成部164は、後述する回転角情報に基づいて、第1視点画像に対して、仮想回転軸を中心にして回転させる回転処理(透視変換処理)を行い、新第1視点画像を生成する。なお、第1視点画像は、右目用画像および左目用画像のいずれであっても構わない。
ずれマップ補正部165は、ずれマップ生成部162が生成したずれマップを、第1視点画像に行う透視変換処理に基づいて補正する処理を行う。ずれマップ補正部165の具体的な補正内容については後述する。
第2の新画像生成部166は、新第1視点画像から、補正されたずれマップに基づいて、新第1視点画像と対となって立体映像を構成する新第2視点画像を生成する。
映像処理部160は、DSPやマイコンなどで実現可能である。なお、レビュー画像の解像度は、液晶モニタ270の画面解像度に設定しても構わないし、JPEG規格に準拠した圧縮形式等により圧縮され形成される画像データの解像度に設定しても構わない。
メモリ200は、映像処理部160およびコントローラ210のワークメモリとして機能する。メモリ200は、例えば、映像処理部160で処理された映像信号または、映像処理部160で処理される前のCCDイメージセンサ150(a)および150(b)から入力される画像データを一時的に蓄積する。また、メモリ200は、撮影時における光学系110(a)および110(b)、CCDイメージセンサ150(a)および150(b)の撮影条件を一時的に蓄積する。撮影条件とは、被写体距離、画角情報、ISO感度、シャッタースピード、EV値、F値、レンズ間距離、撮影時刻、OISシフト量等を示す。メモリ200は、例えば、DRAM、強誘電体メモリなどで実現できる。
コントローラ210は、全体を制御する制御手段である。コントローラ210は、半導体素子などで実現可能である。コントローラ210は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。コントローラ210は、マイコンなどで実現できる。
ジャイロセンサ220は、圧電素子等の振動材等で構成される。ジャイロセンサ220は、圧電素子等の振動材を一定周波数で振動させコリオリ力による力を電圧に変換して角速度情報を得る。ジャイロセンサ220から角速度情報を得て、この揺れを相殺する方向にOIS112(a)および112(b)内の補正レンズを駆動させることにより、使用者によりデジタルカメラ1に与えられる手振れは補正される。なお、ジャイロセンサ220は、少なくともピッチ角の角速度情報を計測可能なデバイスであればよい。また、ジャイロセンサ220がロール角の角速度情報を計測可能な場合、デジタルカメラ1の略水平方向に移動した際の回転について考慮することが可能となる。
カードスロット230は、メモリカード240を着脱可能である。カードスロット230は、機械的および電気的にメモリカード240と接続可能である。
メモリカード240は、フラッシュメモリや強誘電体メモリなどを内部に含み、データを格納可能である。要するに、メモリカード240はデータを格納できるものであればどのようなものでもよく、SDカード、コンパクトフラッシュ、SSD、ハードディスクドライブ、光ディスクなどでも構わない。
操作部材250は、レリーズボタンを備える。レリーズボタンは、使用者の押圧操作を受け付ける。レリーズボタンを半押しした場合、コントローラ210を介してAF制御およびAE制御を開始する。また、レリーズボタンを全押しした場合、被写体の撮影を行う。
また、操作部材250は、使用者から第1視点画像および第2視点画像の回転状況を示す回転角情報を受け付ける部材である。回転角情報によって、回転角すなわち、第1視点画像および第2視点画像を表示する際にこれらの画像をどの程度回転すべきかが決まる。例えば、操作部材250は使用者から90度回転を示す回転角情報を受け付けて、当該回転角情報をコントローラ210に出力する。コントローラ210は、受け取った回転角情報に基づいて、映像処理部160に制御信号を出力する。映像処理部160は、コントローラ210から90度回転の制御信号を受け付けると、第1視点画像および第2視点画像を90度回転させる。
ズームレバー260は、使用者からズーム倍率の変更指示を受け付ける部材である。
液晶モニタ270は、CCDイメージセンサ150(a)および150(b)で生成した第1視点画像および第2視点画像、メモリカード240から読み出した第1視点画像および第2視点画像を、2次元表示または3次元表示可能な表示デバイスである。また、液晶モニタ270は、デジタルカメラ1の各種の設定情報を表示可能である。例えば、液晶モニタ270は、撮影時における撮影条件である、EV値、F値、シャッタースピード、ISO感度等を表示可能である。
液晶モニタ270は、2次元表示の場合、第1視点画像および第2視点画像のいずれかを選択して表示しても構わないし、画面分割して第1視点画像と第2視点画像とを左右または上下に並べて表示しても構わない。あるいは、第1視点画像と第2視点画像とをライン毎に交互に表示しても構わない。
液晶モニタ270は、3次元表示の場合、第1視点画像と第2視点画像とをフレームシーケンシャルに表示しても構わないし、第1視点画像と第2視点画像とをオーバーレイして表示しても構わない。また、液晶モニタ270は、レンチキュラレンズまたは視差バリアを備え、第1視点画像と第2視点画像を裸眼で立体映像として表示可能に構成しても構わない。
内部メモリ280は、フラッシュメモリや強誘電体メモリなどで構成される。内部メモリ280は、デジタルカメラ1全体を制御するための制御プログラム等を格納する。
撮影モード設定ボタン290は、デジタルカメラ1で撮影する際の撮影モードを設定するボタンである。撮影モードとは、ユーザが想定する撮影シーンを示すものであり、例えば、(1)人物モード、(2)子供モード、(3)ペットモード、(4)マクロモード、(5)風景モードを含む2次元撮影モード、(6)3次元撮影モードなどがある。なお、(1)〜(5)それぞれに対しての3次元撮影モードを持ってもよい。デジタルカメラ1は、この撮影モードを基に、適切な撮影パラメータを設定して撮影を行う。なお、デジタルカメラ1が自動設定を行うカメラ自動設定モードを含めるようにしてもよい。また、撮影モード設定ボタン290は、メモリカード240に記録される映像信号の再生モードを設定するボタンである。
<1−2.映像処理部160の詳細動作に関して>
以下、映像処理部160における動作の詳細について、図面を参照しながら説明する。
以下、映像処理部160における動作の詳細について、図面を参照しながら説明する。
<1−2−1.ずれマップの生成>
まず、ずれマップの生成に関して説明する。図2は第1視点画像11(a)および第2視点画像12(b)の一例を示す。第1視点画像11および第2視点画像12には、被写体101,102が映し出されている。
まず、ずれマップの生成に関して説明する。図2は第1視点画像11(a)および第2視点画像12(b)の一例を示す。第1視点画像11および第2視点画像12には、被写体101,102が映し出されている。
図2(c)に示すように、ずれマップ生成部162は、例えばメモリ200から読み出した第1視点画像11を複数のサブ領域に分割し、このサブ領域を単位として、視差量(ずれ量)の検出を行う。サブ領域の個数は、デジタルカメラ1全体の処理量を基に設定してもかまわない。例えば、デジタルカメラ1の処理負荷を考慮した場合、処理量に余裕があればサブ領域の設定数を増やすように制御を行う。逆に、処理量に余裕がなければサブ領域の設定数を減らすように制御を行う。具体的には、デジタルカメラ1の処理量に余裕がある場合は、画素単位で視差量を検出する構成にしても構わないし、処理量に余裕がない場合は、16×16画素単位をサブ領域と設定し、当該サブ領域で1つの代表視差量を検出する構成にしても構わない。
なお、視差量は、例えば、第1視点画像11に対する第2視点画像12の水平方向のずれ量となる。この場合、ずれマップ生成部162は、第1視点画像11におけるサブ領域と第2視点画像12とのブロックマッチング処理を行う。ずれマップ生成部162は、ブロックマッチング処理の結果を基に、水平方向のずれ量を算出し、視差量を設定する。
図3は第1視点画像11に対応したずれマップの一例を示す。図3のずれマップ13において、第1視点画像11と第2視点画像12との水平方向のずれ量がピクセル値で表現されている。被写体の位置が奥にあるほどずれ量の値が大きくなるものとし、ずれ量は最大100と設定している。なお、図面の記載を簡単にするため、ずれ量が100(最大)のブロックについてはずれ量の記載を省略している。また、画像面の水平方向にX軸を、画像面の垂直方向にY軸を、画像面の手前から奥へ向かう方向にZ軸を設定している。図3の例では、被写体101,102は概して同じずれ量10を有し、背景はずれ量100としている。また、被写体101,102と背景とが混在するブロックについては、そのブロックにおいて被写体が占める大きさと背景が占める大きさ等に基づいて、それぞれのずれ量の中間値が設定されている。
なお、被写体等の奥行きに対する値は、上記の説明に限られるものではない。また、撮影する手法によっても奥行きを数値化する際の方法は異なる。例えば、立体画像を撮影する際に、平行法で撮影する場合は、手前の被写体程ずれ量が大きくなる。反対に交差法で撮影する場合は、左眼と右眼の視点方向が交差する交点との相対関係でずれ量が異なる。交点より手前と交点より奥とではずれる方向が反対になる。本実施形態では、交差法で撮影された立体画像を用いた場合を説明するが、本開示はこれに限定されるものではない。
以上のようにして、被写体間の画像奥行き方向における相対位置関係を表す値が取得できる。ここでは、ずれ量が大きい領域は、ずれ量が小さい領域よりも奥に存在する。
なお、上記の説明において、水平方向のずれ量を単に画像のピクセル値で表現したが、他の値を用いても構わない。例えば、水平方向のずれ量を、画像の横サイズに対する、水平方向にずれているピクセル値の比率によって表現しても構わない。例えば、画像の横サイズが1920ピクセルであり、水平方向に40ピクセルずれている場合、水平方向のずれ量は2%となる。
なお、映像処理部160が第1視点画像を回転(透視変換)させる場合、当該第1視点画像に対応したずれマップを取得するのが好ましい。ここで、第1視点画像に対応したずれマップとは、第1視点画像に映っている各被写体の視差量を表現した情報である。逆に第2視点画像に対応したずれマップも存在する。2つのずれマップが存在する理由は、第1視点画像と第2視点画像においてオクルージョンが発生するためである。このオクルージョンは、第1視点画像と第2視点画像の撮影位置が異なる場合に発生する。また、光軸のずれによる被写体の見え方の違い(例えば台形歪)によっても発生する。
<1−2−2.新第1視点画像の生成>
本開示で説明する回転(透視変換)処理は、図4に示すように、画像を、仮想回転軸としてのY軸を中心に回転させるものである。この回転処理では、平面画像に座標移動処理と拡大縮小処理とを行うことによって、画像を3次元空間で回転させているかのように見せる。図4の例では、回転処理により、Y軸より左側の部分は相対的に手前に位置するように表示され、Y軸より右側の部分は相対的に奥に位置するように表示される。またその際、例えば右側の部分は、遠近法と同様に、視聴者からの距離が遠くなるにつれて、横方向(X軸方向)及び縦方向(Y軸方向)の大きさが縮小されて表示される。上記のような回転処理を、本開示では透視変換処理と称して説明する。
本開示で説明する回転(透視変換)処理は、図4に示すように、画像を、仮想回転軸としてのY軸を中心に回転させるものである。この回転処理では、平面画像に座標移動処理と拡大縮小処理とを行うことによって、画像を3次元空間で回転させているかのように見せる。図4の例では、回転処理により、Y軸より左側の部分は相対的に手前に位置するように表示され、Y軸より右側の部分は相対的に奥に位置するように表示される。またその際、例えば右側の部分は、遠近法と同様に、視聴者からの距離が遠くなるにつれて、横方向(X軸方向)及び縦方向(Y軸方向)の大きさが縮小されて表示される。上記のような回転処理を、本開示では透視変換処理と称して説明する。
第1の新画像生成部164は、第1視点画像に対して、Y軸を中心にして、与えられた回転角情報に従って透視変換処理を行い、新第1視点画像を生成する。ここでの透視変換処理は、従来の通常の画像(2D画像)で行っていた透視変換処理と同様に行えばよい。本開示では、この従来の透視変換処理について限定するものではない。
<1−2−3.ずれマップの補正>
ずれマップ補正部165は、ずれマップ生成部162が生成した第1視点画像11を基準とするずれマップについて、立体画像に好適な変換処理を行う。
ずれマップ補正部165は、ずれマップ生成部162が生成した第1視点画像11を基準とするずれマップについて、立体画像に好適な変換処理を行う。
ここで、ずれマップに対して単純に従来からの透視変換処理を行うと、正確に立体画像を表現できないという問題が生じる。図5は図3で示したずれマップに、映像処理部160が第1視点画像に行った透視変換処理と同じ処理をした場合の例を示す図である。この場合、図5のそれぞれブロックにおける数値は、変換後のずれ量を示す。
図5に示すように、ずれ量について第1視点画像と同様の座標移動処理が行われているため、この座標移動に伴って、各ブロックにおけるずれ量は変化している。ただし、被写体101,102に係るずれ量自体は変わっておらず、ともに10となっている。
図6はずれマップが表す被写体の位置関係を示した図であり、同図中、(a)が透視変換処理する前の状態、(b)が透視変換処理後の状態である。図6(a)に示すように、透視変換処理前は被写体101,102が同じ奥行き10を有している。一方、図6(b)に示すように、透視変換処理によって被写体101は相対的に拡大され被写体102は相対的に縮小されるが、奥行き値は被写体101,102ともに10のままである。すなわち、拡大された被写体101と縮小された被写体102とが同じ奥行き値を持つことになり、これは、実際の画像では透視変換処理によって左側の被写体101が手前に、右側の被写体102が奥に配されるという図4で示した内容と、矛盾する結果である。
これは、第1視点画像に行う透視変換処理と同じ処理を単純にずれマップに行った場合には、画像処理後の立体画像では、奥行きが正常に示されないことを示している。つまり、立体画像に対して正しく透視変換処理を行うためには、従来の通常画像(2D画像)に行っていた透視変換処理を行うだけでは不十分であり、ずれマップに対して立体画像に好適な変換処理を行う必要がある。
本実施形態では、ずれマップ補正部165は、ずれマップに対して、第1視点画像11に対して行う透視変換処理とは異なる補正処理を行う。すなわち、この補正処理では、透視変換処理と共通の座標移動処理を行い、かつ、透視変換処理における画像の拡大縮小とは異なる、ずれ量の変換処理を行うものである。
図7は図3のずれマップを補正して得た補正ずれマップの一例である。図7の補正ずれマップでは、第1視点画像に対して行う透視変換処理と共通の座標移動処理が行われている。これに加えて、各領域のずれ量について、第1視点画像に対して行う透視変換処理における画像の拡大縮小とは異なる、変換処理が行われている。具体的には、透視変換処理時の仮想回転軸とその回転角に基づいて、手前に配される領域のずれ量を小さくし、奥に配される領域のずれ量を大きくしている。言いかえると、第1視点画像に対する透視変換処理における仮想回転軸より一方の側の領域のずれ量を、より手前側を示す値に補正し、仮想回転軸より他方の側の領域のずれ量を、より奥側を示す値に補正する。このような変換処理の結果、左側の被写体101は概してずれ量6を有しており、右側の被写体102は概してずれ量24を有している。この補正によって、新第1視点画像と補正ずれマップとの間で、奥行き方向の情報が矛盾しなくなる。
なお、ここでは、ずれマップ補正部165が、水平方向においてずれ量を補正する例を示しているが、本開示はこれに限定されるものではない。すなわち、透視変換処理の仮想回転軸の方向と垂直な方向において、ずれ量を補正すればよい。
このように、ずれマップに対して、第1視点画像に行う透視変換処理と共通の座標移動処理を行い、かつ、各領域のずれ量に対して、この透視変換処理に基づく変換処理を行うことによって、透視変換処理後の立体画像における正常なずれ量の情報を生成することが可能となる。
なお、ここでの座標移動処理と、ずれ量の変換処理とは、どちらを先に実行してもかまわない。すなわち、ずれマップに対して、第1視点画像に行う透視変換処理と共通の座標移動処理を行い、その後、各領域のずれ量に対して変換処理を行ってもよいし、先にずれ量に対する変換処理を行い、その後、座標移動処理を行ってもかまわない。
<1−2−4.新第2視点画像の生成>
第2視点画像生成部166は、第1の新画像生成部164において生成された新第1視点画像から、ずれマップ補正部165において補正処理が行われた補正ずれマップに基づいて、新第2視点画像を生成する。図8は第2視点画像生成部166が生成した新第2視点画像の例を示す図である。第2視点画像生成部166は、新第1視点画像を、補正ずれマップのブロック毎のずれ量に応じてずらすことによって、新第2視点画像を生成する。
第2視点画像生成部166は、第1の新画像生成部164において生成された新第1視点画像から、ずれマップ補正部165において補正処理が行われた補正ずれマップに基づいて、新第2視点画像を生成する。図8は第2視点画像生成部166が生成した新第2視点画像の例を示す図である。第2視点画像生成部166は、新第1視点画像を、補正ずれマップのブロック毎のずれ量に応じてずらすことによって、新第2視点画像を生成する。
図9は透視変換処理後の新第1視点画像と新第2視点画像とを重ね合わせた場合の図であり、図10は図9における被写体101,102の相対的な位置関係を示す図である。図10に示すように、被写体101が奥行き6を有し、被写体102が奥行き24を有しているため、被写体101が被写体102より手前に配置されている。そして図9に示すように、相対的に手前に配置される被写体101のずれ量D1が、相対的に奥に配置される被写体102のずれ量D2よりも小さくなっている。すなわち、新第1視点画像と新第2視点画像とでは、被写体間のずれについて整合性が保たれている。これにより、立体画像を透視変換処理した場合でも、変換処理後の画像について正常に立体感を保つことができる。
<1−2−5.立体画像を回転処理する場合のフロー>
図11は上述した、映像処理部160が立体画像に対して回転処理する場合の処理フローを示す。
図11は上述した、映像処理部160が立体画像に対して回転処理する場合の処理フローを示す。
(S11)まず、映像処理部160は、コントローラ210が出力する回転角情報を取得する。もし、映像処理部160が回転角情報を取得しない場合、フローはそのまま終了する。
(S12)次に、映像処理部160は<1−2−1>に説明した方法を用いて、ずれマップを生成する。
(S13)次に、映像処理部160は、コントローラ210が出力する回転角情報に基づいて、第1視点画像を透視変換処理し、新第1視点画像を生成する。
(S14)映像処理部160は、コントローラ210が出力する回転角情報に基づいて、ずれマップを補正する。
(S15)映像処理部160は、透視変換処理後の新第1視点画像および補正ずれマップに基づいて、当該透視変換後の新第1視点画像と対になる新第2視点画像を生成する。この場合、映像処理部160は、視聴者が新第1視点画像と新第2視点画像とを立体映像として視聴した際、補正ずれマップが示す被写体間の相対位置関係が保存されるように、新第2視点画像を生成する。なお、新第2視点画像の生成方法は、1枚の画像と補正ずれマップから対になる画像を生成する従来の方法であればどのような方法でも構わない。具体的には、2D−3D変換技術を用いれば実現することができる。
なお、S11の動作は、S13の動作前であればどのタイミングで行っても構わない。また、S13の動作とS14の動作とは、逆になっていてもよい。すなわち、新第2視点画像を生成する処理までに、補正ずれマップと新第1視点画像が生成されていればよい。
映像処理部160は、新第1視点画像および新第2視点画像からなる立体画像を、コントローラ210を介して液晶モニタ270に出力する。なお、映像処理部160は、新第1視点画像および新第2視点画像からなる立体画像を、コントローラ210およびカードスロット230を介してメモリカード240に出力してもかまわない。
<1−3.効果等>
以上のように、本実施の形態において、デジタルカメラ1は、ずれマップ生成部162と、第1の新画像生成部164と、ずれマップ補正部165と、第2の新画像生成部166とを備える。ずれマップ生成部162は、立体画像の第1視点画像と第2視点画像とを比較して、第1視点画像に対する第2視点画像のずれを表すずれマップを生成する。第1の新画像生成部164は、第1視点画像に対して、仮想回転軸を中心にして、与えられた回転角に従って回転処理を行い、新第1視点画像を生成する。ずれマップ補正部165は、ずれマップに対して、仮想回転軸および回転角に基づいて補正処理を行い、補正ずれマップを生成する。第2の新画像生成部166は、新第1視点画像から、補正ずれマップに基づいて、新第2視点画像を生成する。
以上のように、本実施の形態において、デジタルカメラ1は、ずれマップ生成部162と、第1の新画像生成部164と、ずれマップ補正部165と、第2の新画像生成部166とを備える。ずれマップ生成部162は、立体画像の第1視点画像と第2視点画像とを比較して、第1視点画像に対する第2視点画像のずれを表すずれマップを生成する。第1の新画像生成部164は、第1視点画像に対して、仮想回転軸を中心にして、与えられた回転角に従って回転処理を行い、新第1視点画像を生成する。ずれマップ補正部165は、ずれマップに対して、仮想回転軸および回転角に基づいて補正処理を行い、補正ずれマップを生成する。第2の新画像生成部166は、新第1視点画像から、補正ずれマップに基づいて、新第2視点画像を生成する。
これによると、回転処理後の新第1視点画像から、回転処理に基づいて補正された補正ずれマップに基づいて、立体映像として新第1視点画像と対になる新第2視点画像が生成される。このため、生成された新第1視点画像および新第2視点画像からなる立体映像は、より自然な立体感を持つものになる。
(他の実施形態)
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。
例えば、上述の実施の形態では、Y軸を仮想回転軸とした回転処理について説明したが、これに限定されるものではなく、例えば、X軸すなわち水平方向の軸を仮想回転軸としてもよいし、斜め方向の軸を仮想回転軸としてもよい。すなわち、画像面に平行な仮想回転軸を中心とした回転処理であれば、上述した説明と同様の処理が実現可能である。
また、仮想回転軸は、画面の端にあってもよいし、画面の外にあってもよい。仮想回転軸が画像面の端部または外部にある場合には、ずれマップの補正を行う際のずれ量の変換処理は、画像の全体または少なくとも一部の領域のずれ量を、より手前側を示す値に補正すればよい。あるいは、画像の全体または少なくとも一部の領域のずれ量を、より奥側を示す値に補正すればよい。
また、与えられた回転角が微小値、例えばほぼゼロの場合、第1の新画像生成部164および第2の新画像生成部166のそれぞれにおける新画像の生成処理を休止させてもよい。このようにすれば、回転処理によって立体感が損なわれる可能性がある場合にのみ新第1視点画像および新第2視点画像の生成が行われるので、消費電力を低減することができる。
また、上記実施形態で説明したデジタルカメラ1において、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部または全部を含むように1チップ化されても良い。また、本開示に係る3次元映像処理装置は、説明で用いたデジタルカメラに限定されるものではなく、例えば、放送用カメラ、3次元映像の記録再生を行うレコーダーやプレーヤー、テレビ装置、フォトフレームや携帯情報端末のようなディスプレイ装置等であってもよい。
なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
また、上記実施形態の各処理をハードウェアにより実現してもよいし、コンピュータプログラムとしてソフトウェアにより実現してもよい。コンピュータプログラムは、例えばコンピュータが読み取り可能な記録媒体に記録して配布可能である。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。なお、上記実施形態に係るデジタルカメラ1をハードウェアにより実現する場合、各処理を行うためのタイミング調整を行う必要があるのは言うまでもない。上記実施形態においては、説明便宜のため、実際のハードウェア設計で生じる各種信号のタイミング調整の詳細については省略している。
また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、立体画像の回転処理をより自然に行う3次元映像処理装置に適用可能である。具体的には、3次元映像を撮影するデジタルカメラや放送用カメラ、3次元映像の記録再生を記録再生を行うレコーダーやプレーヤー、テレビ装置、フォトフレームや携帯情報端末のようなディスプレイ装置等に、本開示は適用可能である。
1 デジタルカメラ(3次元映像処理装置)
160 映像処理部
162 ずれマップ生成部
164 第1の新画像生成部
165 ずれマップ補正部
166 第2の新画像生成部
160 映像処理部
162 ずれマップ生成部
164 第1の新画像生成部
165 ずれマップ補正部
166 第2の新画像生成部
Claims (9)
- 立体画像に対して、画像面に平行な仮想回転軸を中心に回転させる処理を行う3次元映像処理装置であって、
前記立体画像の第1視点画像と第2視点画像とを比較して、前記第1視点画像に対する前記第2視点画像のずれを表すずれマップを生成するずれマップ生成部と、
前記第1視点画像に対して、前記仮想回転軸を中心にして、与えられた回転角に従って回転処理を行い、新第1視点画像を生成する第1の新画像生成部と、
前記ずれマップに対して、前記仮想回転軸および前記回転角に基づいて補正処理を行い、補正ずれマップを生成するずれマップ補正部と、
前記新第1視点画像から、前記補正ずれマップに基づいて、新第2視点画像を生成する第2の新画像生成部とを備えた
ことを特徴とする3次元映像処理装置。 - 請求項1記載の3次元映像処理装置において、
前記補正処理は、前記回転処理と共通の座標移動処理を行い、かつ、前記回転処理における画像の拡大縮小とは異なる、ずれ量の変換処理を行うものである
ことを特徴とする3次元映像処理装置。 - 請求項2記載の3次元映像処理装置において、
前記ずれマップ補正部は、前記変換処理において、前記回転処理における前記仮想回転軸より一方の側の領域のずれ量を、より手前側を示す値に補正し、前記仮想回転軸より他方の側の領域のずれ量を、より奥側を示す値に補正する
ことを特徴とする3次元映像処理装置。 - 請求項2記載の3次元映像処理装置において、
前記ずれマップ補正部は、前記回転処理における前記仮想回転軸が前記画像面の端部または外部にある場合、前記変換処理において、全てまたは一部の領域のずれ量をより手前側を示す値に補正するか、全てまたは一部の領域のずれ量をより奥側を示す値に補正する
ことを特徴とする3次元映像処理装置。 - 請求項1記載の3次元映像処理装置において、
前記第2の新画像生成部は、前記新第1視点画像を前記補正ずれマップに基づいてずらして、前記新第2視点画像を生成する
ことを特徴とする3次元映像処理装置。 - 請求項5記載の3次元映像処理装置において、
前記第2の新画像生成部は、前記新第1視点画像と前記新第2視点画像とで構成される立体映像における被写体間の相対位置関係が、前記補正ずれマップから決まる相対位置関係と合うように、前記新第2視点画像を生成する
ことを特徴とする3次元映像処理装置。 - 請求項1〜6のうちいずれか1項記載の3次元映像処理装置において、
前記回転角が微小値のとき、前記第1および第2の新画像生成部における処理を休止させる
ことを特徴とする3次元映像処理装置。 - 立体画像に対して、画像面に平行な仮想回転軸を中心に回転させる処理を行う3次元映像処理方法であって、
前記立体画像の第1視点画像と第2視点画像とを比較して、前記第1視点画像に対する前記第2視点画像のずれを表すずれマップを生成し、
前記第1視点画像に対して、前記仮想回転軸を中心に、与えられた回転角に従って回転処理を行い、新第1視点画像を生成し、
前記ずれマップに対して、前記仮想回転軸および前記回転角に基づいて補正処理を行い、補正ずれマップを生成し、
前記新第1視点画像から、前記補正ずれマップに基づいて、新第2視点画像を生成する
ことを特徴とする3次元映像処理方法。 - 立体画像に対して、画像面に平行な仮想回転軸を中心に回転させる処理を行う3次元映像処理方法を、コンピュータに実行させるプログラムを記録する記録媒体であって、
前記プログラムは、
前記立体画像の第1視点画像と第2視点画像とを比較して、前記第1視点画像に対する前記第2視点画像のずれを表すずれマップを生成し、
前記第1視点画像に対して、前記仮想回転軸を中心に、与えられた回転角に従って回転処理を行い、新第1視点画像を生成し、
前記ずれマップに対して、前記仮想回転軸および前記回転角に基づいて補正処理を行い、補正ずれマップを生成し、
前記新第1視点画像から、前記補正ずれマップに基づいて、新第2視点画像を生成する
処理をコンピュータに実行させる
ことを特徴とするコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013554086A JP5552197B2 (ja) | 2012-01-18 | 2012-10-17 | 3次元映像処理装置および方法 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012007623 | 2012-01-18 | ||
JP2012007623 | 2012-01-18 | ||
JP2013554086A JP5552197B2 (ja) | 2012-01-18 | 2012-10-17 | 3次元映像処理装置および方法 |
PCT/JP2012/006635 WO2013108314A1 (ja) | 2012-01-18 | 2012-10-17 | 3次元映像処理装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5552197B2 true JP5552197B2 (ja) | 2014-07-16 |
JPWO2013108314A1 JPWO2013108314A1 (ja) | 2015-05-11 |
Family
ID=48798772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013554086A Expired - Fee Related JP5552197B2 (ja) | 2012-01-18 | 2012-10-17 | 3次元映像処理装置および方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9202315B2 (ja) |
JP (1) | JP5552197B2 (ja) |
WO (1) | WO2013108314A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9495795B2 (en) * | 2012-01-16 | 2016-11-15 | Panasonic Intellectual Property Management Co., Ltd. | Image recording device, three-dimensional image reproducing device, image recording method, and three-dimensional image reproducing method |
JP2015095802A (ja) | 2013-11-13 | 2015-05-18 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
US9948913B2 (en) * | 2014-12-24 | 2018-04-17 | Samsung Electronics Co., Ltd. | Image processing method and apparatus for processing an image pair |
JP2021177580A (ja) * | 2018-07-18 | 2021-11-11 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11127456A (ja) * | 1997-10-23 | 1999-05-11 | Sony Corp | 映像表示装置および方法 |
JP2002281526A (ja) * | 2001-03-21 | 2002-09-27 | Namco Ltd | 画像生成装置、プログラム及び情報記憶媒体 |
JP2006174434A (ja) * | 2004-12-13 | 2006-06-29 | Samsung Electronics Co Ltd | 立体映像装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4667236A (en) | 1985-04-26 | 1987-05-19 | Digital Services Corporation | Television perspective effects system |
JPH09116932A (ja) | 1995-10-19 | 1997-05-02 | Sony Corp | 特殊効果装置 |
WO1998011720A1 (fr) | 1996-09-11 | 1998-03-19 | Sony Corporation | Dispositif d'effets speciaux, procede de traitement d'image et procede de generation d'image objective |
AUPO894497A0 (en) * | 1997-09-02 | 1997-09-25 | Xenotech Research Pty Ltd | Image processing method and apparatus |
JP2006133665A (ja) | 2004-11-09 | 2006-05-25 | Seiko Epson Corp | 立体画像表示装置 |
KR100677569B1 (ko) | 2004-12-13 | 2007-02-02 | 삼성전자주식회사 | 입체영상장치 |
US20070236514A1 (en) * | 2006-03-29 | 2007-10-11 | Bracco Imaging Spa | Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation |
EP2451164B1 (en) * | 2010-11-08 | 2017-05-03 | Telefonaktiebolaget LM Ericsson (publ) | Improved view synthesis |
US9041734B2 (en) * | 2011-07-12 | 2015-05-26 | Amazon Technologies, Inc. | Simulating three-dimensional features |
-
2012
- 2012-10-17 JP JP2013554086A patent/JP5552197B2/ja not_active Expired - Fee Related
- 2012-10-17 WO PCT/JP2012/006635 patent/WO2013108314A1/ja active Application Filing
-
2013
- 2013-10-28 US US14/064,688 patent/US9202315B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11127456A (ja) * | 1997-10-23 | 1999-05-11 | Sony Corp | 映像表示装置および方法 |
JP2002281526A (ja) * | 2001-03-21 | 2002-09-27 | Namco Ltd | 画像生成装置、プログラム及び情報記憶媒体 |
JP2006174434A (ja) * | 2004-12-13 | 2006-06-29 | Samsung Electronics Co Ltd | 立体映像装置 |
Also Published As
Publication number | Publication date |
---|---|
US20140049544A1 (en) | 2014-02-20 |
US9202315B2 (en) | 2015-12-01 |
JPWO2013108314A1 (ja) | 2015-05-11 |
WO2013108314A1 (ja) | 2013-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5789793B2 (ja) | 3次元撮像装置、レンズ制御装置、およびプログラム | |
WO2012008224A1 (ja) | 画像撮像装置 | |
JPWO2011114683A1 (ja) | 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム | |
JP2011259168A (ja) | 立体パノラマ画像撮影装置 | |
JP5374641B2 (ja) | 3d映像記録装置及び3d映像信号処理装置 | |
JP5552197B2 (ja) | 3次元映像処理装置および方法 | |
US20130050532A1 (en) | Compound-eye imaging device | |
US20130050536A1 (en) | Compound-eye imaging device | |
US9602799B2 (en) | Device, method, and computer program for three-dimensional video processing | |
US20120162453A1 (en) | Image pickup apparatus | |
JPWO2012014355A1 (ja) | 撮像装置 | |
JP2012114896A (ja) | 3d撮像装置及び3d再生装置 | |
JP2011095431A (ja) | 立体映像撮像装置および立体映像撮像方法 | |
JP5325336B2 (ja) | 3次元映像処理装置、方法、およびプログラム | |
JP2015017999A (ja) | 撮像装置 | |
JP2013062557A (ja) | デジタル撮影装置及び、3d撮影方法 | |
JP4217182B2 (ja) | 撮影装置 | |
JP2012220603A (ja) | 3d映像信号撮影装置 | |
JP5221827B1 (ja) | 立体映像撮影装置及びズーム動作の制御方法 | |
JP2012151538A (ja) | 3d撮像装置 | |
WO2012132088A1 (ja) | 撮像装置及び交換レンズ | |
JP2011135374A (ja) | 3次元デジタルカメラ | |
JP2013162489A (ja) | 3d画像撮像装置 | |
JP2005072674A (ja) | 三次元画像生成装置および三次元画像生成システム | |
JP2013219579A (ja) | 情報処理装置、3次元画像の補正方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140523 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5552197 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |