JPWO2012117706A1 - 映像処理装置、映像処理方法、プログラム - Google Patents

映像処理装置、映像処理方法、プログラム Download PDF

Info

Publication number
JPWO2012117706A1
JPWO2012117706A1 JP2013502186A JP2013502186A JPWO2012117706A1 JP WO2012117706 A1 JPWO2012117706 A1 JP WO2012117706A1 JP 2013502186 A JP2013502186 A JP 2013502186A JP 2013502186 A JP2013502186 A JP 2013502186A JP WO2012117706 A1 JPWO2012117706 A1 JP WO2012117706A1
Authority
JP
Japan
Prior art keywords
offset amount
parallax
view data
calculated
video processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013502186A
Other languages
English (en)
Other versions
JP5852093B2 (ja
Inventor
伸輔 緒方
伸輔 緒方
本坂 錦一
錦一 本坂
宮崎 秋弘
秋弘 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2013502186A priority Critical patent/JP5852093B2/ja
Publication of JPWO2012117706A1 publication Critical patent/JPWO2012117706A1/ja
Application granted granted Critical
Publication of JP5852093B2 publication Critical patent/JP5852093B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

特徴点抽出部901は、視差を算出すべき領域を構成する画素、およびその外部近傍に位置する画素から視差の算出に適した特徴点を抽出する。第1視差算出部902は、抽出した特徴点の視差を対応点探索により算出する。第2視差算出部903は、第1視差算出部902で算出した特徴点の視差に基づき、視差を算出すべき領域を構成する全画素の視差を算出する。

Description

本発明は、立体視映像処理技術に関し、特に立体視映像の視差を算出する技術に関する。
近年、視差画像を用いた立体視映像処理技術が注目を集めており、様々な研究が行われている。ここで、視差とは、左目用画像および右目用画像の組みにおける対応画素間の水平座標位置のオフセット量(ずれ量)であり、両眼に対してそれぞれに対応する視差画像を提示することで、立体視を実現することができる。
立体視映像処理技術の一つに、立体視映像に対して合成処理を行う技術がある。立体視映像に対する合成技術とは、図形、記号、文字等のオブジェクトを左目用の画像データと右目用の画像データのそれぞれにオフセット量を有するように重畳する技術である。これにより、立体視映像に様々な付加情報を立体的に付与することができる。
上記技術においては、深さ方向にオブジェクトを重畳するので、オブジェクトを重畳する立体視映像上の領域のオフセット量を考慮する必要がある。例えば、立体視映像上のオブジェクトを重畳する領域のオフセット量が、オブジェクトが有するオフセット量より大きい場合、オブジェクトよりも元の立体視映像の飛び出し量が大きく、オブジェクトが元の立体視映像部分にめり込んでいるように観察される。その結果、重畳したオブジェクトを十分に認識することができない。
かかる状況を回避するため、特許文献1には、立体視映像上のオブジェクトを重畳する領域のオフセット量を算出し、その領域内のオフセット量の最大値より大きいオフセット量をオブジェクトのオフセット量として決定する技術が開示されている。また特許文献2には、複数の二次元オブジェクトにオフセット量を与え立体的に表示する際において、オフセット量を与えたオブジェクト同士が重なるか否かを判定し、重なる場合はオブジェクトの位置、サイズ、オフセット量等を調整する技術が開示されている。
特開2010−86228号公報 特開2005−122501号公報
特許文献1に開示される技術は、オブジェクトを重畳する立体視映像上の領域のオフセット量を考慮してオブジェクトを重畳するために、オブジェクトを重畳する左目用画像データと右目用画像データの領域を構成する全画素間の対応点探索を行う。対応点探索は、各画素に対して輝度値等に基づく相関値を算出し、その相関値が最も高い画素を検出することにより行う。このような処理を立体視映像上のオブジェクトを重畳する領域を構成する全画素に対して行う場合、その演算量は膨大となる。つまり、オブジェクトの重畳処理においてオフセット量を算出すべき領域のオフセット量の算出に時間がかかり、立体視映像に対してリアルタイムにオブジェクトを重畳することができない。また、オブジェクトを重畳する左目用画像データと右目用画像データの領域内には、輝度の明暗がはっきりしておらず、対応点探索を正確に行うことが難しい画素も多く存在する。特許文献1に開示される技術では、対応点探索を正確に行うことが難しい画素に対しても対応点探索を行うため、誤った対応点を検出し、正しいオフセット量を算出できない場合がある。
また、特許文献2は、複数の二次元オブジェクトにオフセット量を与え立体的に表示する際において、オフセット量を与えたオブジェクト同士が重なるか否かを判定するものであり、オフセット量の値が不知である立体視映像上にオブジェクトを立体的に重畳する場合に適用することができない。
本発明は上記事情に鑑みなされたものであり、立体視映像を構成する画像データの組みにおける対応画素間のオフセット量を高速かつ精度よく算出することができる映像処理装置を提供することを目的とする。
上記目的を達成するため、本発明にかかる映像処理装置は、立体視映像を構成するメインビューデータおよびサブビューデータの組みにおける対応画素間の水平座標位置のオフセット量を算出する映像処理装置であって、メインビューデータのうちオフセット量を算出すべき領域、および前記オフセット量を算出すべき領域の外部近傍の領域に抽出範囲を絞り込んで、前記抽出範囲に位置する画素から予め決められた数の特徴点を抽出する特徴点抽出部と、サブビューデータに対して、前記各特徴点の対応点探索を行うことにより各特徴点のオフセット量を算出する第1オフセット量算出部と、算出された各特徴点のオフセット量に基づき、メインビューデータのオフセット量を算出すべき領域を構成する画素のオフセット量を算出する第2オフセット量算出部とを備えることを特徴とする。
立体視映像上の全画素に対して対応点探索を行った場合、その演算量は膨大となる。本発明では、立体視映像を構成するメインビューデータおよびサブビューデータの組みにおける対応画素間のオフセット量(視差)を算出すべき領域およびその外部近傍に位置する画素から抽出した特徴点のみに対応点探索を行い、対応点探索により算出した特徴点のオフセット量に基づき特徴点以外の画素のオフセット量を算出するので、オフセット量算出に要する演算量を大幅に削減することができる。その結果立体視映像に対して適切な立体感を有するオブジェクトを高速に(リアルタイムに)重畳することが可能となる。
また、オフセット量を算出すべき領域内の輝度変化が少ない領域については、誤った対応点を検出し、正しいオフセット量の値を算出できない場合がある。本発明では、特徴点のみに対応点探索を行い、特徴点のオフセット量に基づき特徴点以外の画素のオフセット量を算出するので、精度よくオフセット量の値を算出することができる。
さらに本発明は、オフセット量を算出すべき領域に加え、その外部近傍に位置する画素から特徴点を抽出するので、オフセット量を算出すべき領域内に特徴点が十分にない場合であっても、精度よくオフセット量の値を算出することができる。
映像処理装置100の構成の一例を示すブロック図である。 タイミング情報201のデータ構造を示す模式図である。 描画要求キュー106のデータ構造を示す模式図である。 映像処理部107の内部構成の一例を示す図である。 オブジェクト視差情報501のデータ構造を示す模式図である。 オブジェクト画像の生成を説明するための図である。 合成部405による重畳処理を説明するための図である。 映像処理装置100による重畳処理後の立体視映像の立体視を示す図である。 視差情報生成部402の内部構成の一例を示す図である。 探索情報1001のデータ構造を示す摸式図である。 分割領域を説明するための図である。 分割領域情報1002のデータ例を示す図である。 特徴点情報1003のデータ例を示す図である。 サンプリング点情報1004のデータ構造を示す図である。 視差マスクで示される左目用画像の領域の一例を示す図である。 領域1501に対する特徴点の抽出を説明するための図である。 分割象限1630に対する特徴点抽出を示す図である。 分割象限1640に対する特徴点抽出を示す図である。 特徴点の視差の算出を示す図である。 視差の算出を行う領域を示す図である。 映像処理装置100の動作を示すフロー図である。 映像処理の動作を示すフロー図である。 視差算出処理の動作を示すフロー図である。 映像処理装置2400の構成の一例を示すブロック図である。 描画要求キュー2402のデータ構造を示す模式図である。 映像処理部2403の構成の一例を示すブロック図である。 映像処理装置2400によるオブジェクトの重畳を示す図である。 オブジェクト画像の生成を説明するための図である。 映像処理部2403の動作を示すフロー図である。 映像処理装置2400による重畳処理後の立体視映像の立体視を示す図である。 実施の形態3にかかる映像処理部3100の内部構成の一例を示すブロック図である。 奥行きを輝度で表現した画像データとして格納した場合を示す図である。 映像処理部3100の深度情報変換処理の動作を示すフロー図である。 実施の形態4にかかる映像処理装置3400の構成の一例を示すブロック図である。 映像処理部3402の内部構成の一例を示すブロック図である。 撮像カメラと被写体の位置関係を示す図である。 視差と実距離との関係を示す図である。 映像処理装置3400の深度情報変換処理の動作を示すフロー図である。 プレーンシフトを説明するための図である。 本実施の形態5にかかる実距離算出処理の動作を示すフロー図である。 本発明にかかる映像処理装置を、LSIを用いて具現化した例を示す図である。
以下、本発明の実施の形態について、図面を参照にしながら説明する。
≪実施の形態1≫
<1.1 概要>
実施の形態1に係る映像処理装置は、オブジェクトを重畳する立体視映像上の領域における視差を算出し、その算出した視差に基づきオブジェクトの視差量を決定し、オブジェクトを重畳する装置である。ここで、視差とは、左目用画像および右目用画像の組みにおける対応画素間の水平座標位置のオフセット量(ずれ量)である。
映像処理装置はまず、図形、記号、文字等のオブジェクトを重畳する立体視映像上の領域を構成する画素、およびその外部近傍に位置する画素から視差の算出に適した特徴点を抽出する。次に抽出した特徴点の視差を算出し、特徴点の視差に基づき、オブジェクトを重畳する立体視映像上の領域を構成する全画素の視差を算出する。そしてそのオブジェクトを重畳する領域の視差を考慮してオブジェクトの視差を決定し、重畳処理を行う。これにより、オブジェクトを重畳する領域の視差を高速かつ精度よく算出することができ、立体視映像に対して適切な立体感を有するオブジェクトを高速に(リアルタイムに)重畳することが可能となる。以下その実施の形態1について、図面を参照しながら説明する。
<1.2 映像処理装置100の構成>
まず実施の形態1に係る映像処理装置100の構成について説明する。図1は映像処理装置100の構成の一例を示すブロック図である。図1に示されるように、映像処理装置100は、操作部101、映像取得部102、左目用画像・右目用画像格納部103、制御部104、オブジェクト描画要求部105、描画要求キュー格納部106、映像処理部107、出力部108を含んで構成される。以下、各構成部について説明する。
<1.2.1 操作部101>
操作部101は、映像処理装置100に操作入力を行うためのものであり、例えば、タッチパネル、キーボード、マウス、その他のコントローラ等からなる。ユーザは、立体視映像に重畳する図形、記号、文字等のオブジェクトデータの内容、重畳する位置等を指定する。
<1.2.2 映像取得部102>
映像取得部102は、左目用映像(メインビューデータ)と右目用映像(サブビューデータ)の組みからなる立体視映像を取得する。ここで映像取得部102が取得する立体視映像は、図1に示されるように、映像処理装置100に接続された撮像装置によりリアルタイムに撮像された立体視映像である。
<1.2.3 左目用画像・右目用画像格納部103>
左目用画像・右目用画像格納部103は、映像取得部102で取得した立体視映像を、非圧縮のピクチャデータ(左目用画像、右目用画像)として格納する。左目用画像・右目用画像格納部103に格納されたピクチャデータがオブジェクトの重畳処理の対象となる。
<1.2.4 制御部104>
制御部104は、映像処理装置100の動作の制御を行う。特に、制御部104の内部に格納されたタイミング情報に基づき、重畳処理を行うタイミングの制御を行う。
図2は、タイミング情報201のデータ構造を示す模式図である。図2に示されるように、タイミング情報201は、画像取得間隔202と終了フラグ203を含む。
画像取得間隔202は、オブジェクト描画要求部105に対して駆動イベントを発行する間隔を示す。映像処理装置100はかかる間隔毎に重畳処理を行う。例えば、画像取得間隔202の値が3000、制御部のカウンタ周期が90KHzの場合、制御部105は、1/30秒の間隔でオブジェクト描画要求部105に対して駆動イベントを発行する。
終了フラグ203は、映像処理装置100の動作を終了するか否かを示す。映像処理装置100が起動する際の終了フラグ203の初期値は、FALSEである。操作部101等により映像処理装置100の終了操作が行われた場合、制御部104は終了フラグ203をTRUEに書き換え、駆動イベントの発行を停止する。
<1.2.5 オブジェクト描画要求部105、描画要求キュー格納部106>
オブジェクト描画要求部105は、操作部101による、立体視映像に重畳する図形、記号、文字等のオブジェクトデータの内容や重畳する位置等の指定に基づき、重畳処理を行う図形、記号、文字等のオブジェクトに関する情報を示す描画要求キュー106を生成する。この描画要求キュー106の生成は、制御部104が発行する駆動イベント毎に行う。
図3は、描画要求キュー106のデータ構造を示す模式図である。本図に示されるように、描画要求キュー106は、オブジェクト数301と領域情報302と画像データ303を含む。
オブジェクト数301は、重畳処理を行うオブジェクトの数を示す。
領域情報302は、メインビューデータを構成する左目用画像における各オブジェクトを重畳する領域を示す情報であり、例えば、オブジェクトの各頂点の座標を格納する。また、四角形オブジェクトの矩形座標や円形オブジェクトの中心座標および半径を格納してもよい。さらには、オブジェクトの重畳領域を示すビットマップを格納してもよい。以上、領域情報302のデータ例を示したが、オブジェクトの重畳領域を示すことができるデータ構造であればよく、これに限定されない。
画像データ303は、各オブジェクトの画像データを示す。この画像データ303が左目用画像、右目用画像に重畳される。
<1.2.6 映像処理部107>
映像処理部107は、左目用画像・右目用画像格納部103に格納された左目用画像、右目用画像に対して、描画要求キュー106に基づくオブジェクトを重畳する。その際、まず、オブジェクトを重畳する立体視映像上の領域を構成する画素、およびその外部近傍に位置する画素から視差の算出に適した特徴点を抽出する。次に抽出した特徴点の視差を対応点探索により算出し、算出した特徴点の視差に基づき、オブジェクトを重畳する立体視映像上の領域を構成する全画素の視差を算出する。そして、そのオブジェクトを重畳する領域の視差を考慮してオブジェクトの視差を決定し、重畳処理を行う。映像処理部108の詳細な内部構成、およびその説明は<1.3>節で行う。
<1.2.7 出力部109>
出力部109は、映像処理部108で重畳処理された立体視映像を出力する。出力部109は、図1に示されるように、例えば、ディスプレイに重畳処理された立体視映像を出力する。また、ネットワーク上に重畳処理された立体視映像を送信してもよい。また、重畳処理された立体視映像をアンテナを通じて送信してもよい。また、重畳処理された立体視映像を記録装置に書き込んでもよい。ここで記録装置は、例えばハードディスクドライブ、BD、DVD等の光ディスク、またはSDメモリカード等の半導体メモリ装置である。
以上が映像処理装置100の構成の説明である。続いて、映像処理装置100の映像処理部107について説明する。
<1.3 映像処理部107の構成>
図4は映像処理部107の内部構成の一例を示すブロック図である。本図に示されるとおり映像処理部107は、視差マスク生成部401、視差情報生成部402、オブジェクト視差決定部403、オブジェクト画像生成部404、合成部405を含んで構成される。以下各構成部について説明する。
<1.3.1 視差マスク生成部401>
視差マスク生成部401は、オブジェクト描画要求部105で生成された描画要求キュー106に含まれる領域情報302に基づき、視差を算出すべき左目用画像の領域を示す視差マスクを生成する。視差マスクは、2値のビットマップであり、オブジェクトを重畳する領域においては1、その他の領域においては0の値をとる。
<1.3.2 視差情報生成部402>
視差情報生成部402は、視差マスク生成部401で生成された視差マスクで示される領域内の画素の視差を算出する。具体的には、まず、オブジェクトを重畳する立体視映像上の領域を構成する画素、およびその外部近傍に位置する画素から視差の算出に適した特徴点を抽出する。次に抽出した特徴点の視差を対応点探索により算出する。そして算出した特徴点の視差に基づき、重畳領域の視差分布を示す式を導出することにより、特徴点を除く重畳領域内の画素を算出する。この視差情報生成部402の詳細な内部構成、およびその説明は<1.4>節で行う。
<1.3.3 オブジェクト視差決定部403>
オブジェクト視差決定部403は、立体視映像に重畳するオブジェクトに与える視差量を決定する。具体的には、まず、描画要求キュー106に基づき各オブジェクトを重畳する左目用画像の領域を特定し、視差情報生成部402が生成した視差情報に基づき、その領域内の画素が有する最大視差を検出する。そして、検出した最大視差量を重畳するオブジェクトの視差量とする。ここで、オブジェクト視差決定部403は、オブジェクト毎に決定した視差量をオブジェクト視差情報として記憶する。
図5は、オブジェクト視差情報501のデータ構造を示す模式図である。本図に示されるように、オブジェクト視差情報501は描画要求キュー106に格納されているオブジェクト毎に視差502を格納する。
<1.3.4 オブジェクト画像生成部404>
オブジェクト画像生成部404は、左目用画像に重畳する左目用オブジェクト画像、右目用画像に重畳する右目用オブジェクト画像を生成する。図6は、オブジェクト画像の生成を説明するための図である。本図に示されるように、オブジェクト画像生成部404は、描画要求キュー106に格納されている領域情報302に基づき左目用オブジェクト画像610を生成する。そして、オブジェクト視差決定部403で決定したオブジェクト視差情報501に基づき、視差量601だけオブジェクト620を左方向にずらして右目用オブジェクト画像630を生成する。
<1.3.5 合成部405>
合成部405は、左目用画像、右目用画像のそれぞれにオブジェクトの重畳処理を行い、サイドバイサイド形式で左目用画像と右目用画像を合成する。
図7は、合成部405による重畳処理を説明するための図である。本図に示されるように、合成部405は、左目用画像710に対して左目用オブジェクト610を重畳し、左目用合成画像720を生成する。また、合成部405は、右目用画像740に対して右目用オブジェクト630を重畳し、右目用合成画像750を生成する。そして、合成部405は、左目用合成画像720を画像全体の左半分(730)に縮小して配置し、右目用合成画像750を画像全体の右半分(760)に縮小して配置する。
図8は、重畳処理後の立体視映像の立体視を示す図である。本図に示されるとおり、合成部405で生成された立体視映像を3Dメガネで観察すると、斜線で示したオブジェクトが重畳領域に位置する顔部分よりも前に位置するように観察される。
なお、左目用合成画像と右目用合成画像をサイドバイサイド方式で合成する例を示したが、偶数ライン・奇数ラインそれぞれに左目用合成画像・右目用合成画像が配置されるインターレース方式や、奇数フレーム・偶数フレームそれぞれに左目用合成画像・右目用合成画像が割り当てられるフレームシーケンシャル方式といった、サイドバイサイド方式以外の方式で合成してもよい。
以上が映像処理部107の構成の説明である。続いて、映像処理部107の視差情報生成部402について説明する。
<1.4 視差情報生成部402の構成>
図9は視差情報生成部402の内部構成を示すブロック図である。本図に示されるとおり、視差情報生成部402は、特徴点抽出部901、第1視差算出部902、第2視差算出部903、視差マップ格納部904を含んで構成される。以下各構成部について説明する。
<1.4.1 特徴点抽出部901>
特徴点抽出部901は、視差マスクで示される領域およびその外部近傍の領域から特徴点の抽出を行う。抽出した特徴点の座標位置等の情報は探索情報として記憶する。以下では、その詳細な内容について、「特徴点の抽出」、「探索情報」、「特徴点の抽出を行う領域」に項目分けして説明する。
<1.4.1.1 特徴点の抽出>
特徴点とは、視差の算出における対応点探索に適した画素をいう。特徴点抽出部901では、エッジ(輝度が鋭敏に変化している箇所)、またはエッジの交点箇所を特徴点として抽出する。エッジの検出は、画素間の輝度の差分(一次微分)を求め、その差分からエッジ強度を算出することにより行う。また、その他のエッジ検出方法により特徴点を抽出してもよい。特徴点の抽出を行う領域については後述する。以上が特徴点の抽出についての説明である。続いて探索情報について説明する。
<1.4.1.2 探索情報>
探索情報は、抽出した特徴点の座標位置・視差等を示す情報である。図10は探索情報1001のデータ構造を示す摸式図である。本図に示される通り、探索情報1001は分割領域情報1002、特徴点情報1003、サンプリング点情報1004からなる。分割領域情報1002は、左目用画像を分割した各分割領域に含まれる特徴点に関する情報である。特徴点情報1003は、特徴点の座標、視差等を示す情報である。サンプリング点情報1004は、第2視差算出部903での視差算出において用いる特徴点(サンプリング点)に関する情報である。特徴点抽出部901は、特徴点を抽出しその特徴点の視差を算出する毎に探索情報1001を更新する。
まず、分割領域情報1002について説明する。分割領域情報1002は、分割領域毎の特徴点に関する情報である。<1.4.1.3>節で詳しく述べるが、特徴点抽出部901は図11に示されるように左目用画像をM×N分割し、分割領域単位で特徴点の探索を行うことため、分割領域毎に特徴点に関する情報を記憶する。
図12は、分割領域情報1002のデータ例を示す図である。本図に示されるとおり、分割領域情報1002は各分割領域に対して、分割領域番号1201、特徴点探索済みか否かを示すフラグ1202、特徴点を格納した配列の先頭インデックス1203、および分割領域に含まれる特徴点数1204を含む。分割領域番号1201は、図11に示す各分割領域の識別子1101に対応する。特徴点探索済みか否かを示すフラグ1202は、対象の分割領域において特徴点の抽出を行った場合はTRUE、特徴点の抽出を行っていない場合FALSEをとる。インデックス1203は、対象の分割領域内に特徴点抽出部901により視差算出された特徴点が存在する場合、後述する特徴点情報1003に対応する特徴点情報配列の先頭のインデックス(≧0)を格納する。一方、対象の分割領域内に視差算出済みの特徴点が存在しない場合、インデックス1203は“−1”をとる。特徴点数1204は、分割領域に含まれる特徴点の数を示す。以上が分割領域情報1002についての説明である。続いて特徴点情報1003について説明する。
図13は、特徴点情報1003のデータ例を示す図である。本図に示されるように、特徴点情報1003は、特徴点のインデックス1301、特徴点の座標1302、および特徴点の視差1303を含む。インデックス1301は、図12のインデックス1203に対応する。座標1302は、各特徴点の左目用画像における座標を示す。視差1303は、左目用画像における特徴点と右目用画像における対応点間の視差の値である。
分割情報1002におけるインデックスと特徴点情報1003におけるインデックスは対応関係にあり、そのインデックスの値を参照することにより、分割領域に含まれる特徴点の座標や視差を特定することができる。例えば図12において、分割領域(0,1)はインデックス“0”、特徴点数“2”であることから、分割領域(0,1)に含まれる特徴点はインデックス“0”と“1”の特徴点であることがわかる。そして、そのインデックスの値を図13に示される特徴点情報1003で参照することで、分割領域(0,1)に含まれる特徴点の座標は、(70,20)(80,30)であり、その視差は“4”、“2”であることがわかる。以上が特徴点情報1003についての説明である。続いてサンプリング点情報1004について説明する。
サンプリング点情報1004は、特徴点情報1003に含まれる特徴点のうち、第2視差演算部903による視差の推定式の決定に用いる特徴点(サンプリング点)を特定するための情報である。図14は、サンプリング点情報1004のデータ構造を示す図である。本図に示されるように、サンプリング点情報1004は、サンプリング点数1401と各サンプリング点に対応する特徴点インデックス1402を含む。サンプリング点数1401は、サンプリング点の数を示す。特徴点インデックス1402は、各サンプリング点に対応する特徴点のインデックス番号を示す。この特徴点のインデックス番号は、分割領域情報1001、特徴点情報1002に含まれるインデックスに対応し、特徴点情報1002を参照することにより、サンプリング点の座標、視差を特定することができる。以上がサンプリング点情報1004についての説明である。続いて探索情報1001の利用について説明する。
特徴点抽出部901は、特徴点探索の際、まず分割領域情報1002を参照して、探索を行う分割領域が既に特徴点探索済みか否かを判定する。既に特徴点探索済みの場合、分割情報1002のインデックス1203により特定される特徴点情報1003を参照して、特徴点の座標、視差の情報を得る。特徴点探索済みでない場合は、探索を行う分割領域に対してエッジ検出を行い、特徴点を特定する。そして抽出した特徴点の視差を算出する。このように、過去に探索した特徴点の座標、視差の情報等を探索情報1001として記憶し、特徴点抽出の際利用することで、重複する特徴点の探索処理を省くことができる。
以上が探索情報1001についての説明である。続いて特徴点の抽出を行う領域について説明する。
<1.4.1.3 特徴点の抽出を行う領域>
特徴点抽出部901は、視差マスクで示される左目用画像の領域(重畳領域)内の画素およびその外部近傍に位置する左目用画像の一部の領域を構成する画素から視差の算出に適した特徴点を抽出する。具体的には重畳領域内の対象画素(視差未検出の画素)を中心に直交軸を用いて、左目用画像を四分割し、分割象限毎に特徴点抽出を行う。分割象限毎の特徴点抽出においては、まず対象画素を含む分割領域に対して特徴点抽出が行われる。ここで分割領域は図10に示される左目用画像をM×N分割した各領域をいう。分割領域において一定量の特徴点が抽出できた分割象限については、それ以上の領域を特徴点抽出の対象としない。一定量の特徴点が抽出されない分割象限については、探索対象を近接の分割領域まで拡張する。そして一定量の特徴点を抽出するか、探索対象となる分割領域がなくなるまで探索対象の拡張を行う。以下図を用いて、特徴点の抽出を行う領域についてさらに詳細に説明する。
図15は、視差マスクで示される左目用画像の領域の一例を示す図である。本図に示す例では、点線で囲む1501、1502、1503の各領域が重畳領域である。特徴点抽出部901は、かかる重畳領域内の画素およびその外部近傍に位置する左目用画像の一部の領域を構成する画素から視差の算出に適した特徴点を抽出する。以下では領域1501に対する特徴点の抽出について図を用いて説明する。
図16は、領域1501に対する特徴点の抽出を説明するための図である。1601は未だ視差が算出されていない画素、1602は、視差未検出の画素1601を含む分割領域、1610、1620、1630、1640は、左目用画像を視差未検出の画素1601を中心に直交軸を用いて四分割した各分割象限を示す。特徴点抽出部901は、分割象限1610、1620、1630、1640のそれぞれに対して、一定量の特徴点を抽出するか、探索対象となる分割領域がなくなるまで探索対象を拡張して特徴点の抽出を行う。
図17は、分割象限1630に対する特徴点抽出を示す図である。本図に示されるように、特徴点抽出部901は、まず分割象限1630内の分割領域1602(図中の斜線部)に対して特徴点の抽出を行う。かかる領域における特徴点の探索において、特徴点抽出部901は、特徴点1701、1702を抽出する。この場合、一定量の特徴点(この例では2個)を抽出したので、探索対象の拡張を行わず、分割象限1630に対する特徴点の抽出を終了する。次に、分割象限1640に対する特徴点の抽出を説明する。
図18は、分割象限1640に対する特徴点抽出を示す図である。図18(a)に示すとおり、特徴点抽出部901は、まず分割象限1640内の分割領域1602(図中の斜線部)に対して特徴点の抽出を行う。かかる領域における特徴点の探索では特徴点を抽出できないので、特徴点抽出部901は、探索領域を拡張する。探索領域の拡張では、近接する分割領域を次の探索対象とする。
18(b)は、探索領域の拡張を行った領域に対する特徴点の抽出を示す図である。図中の斜線部は、探索領域の拡張を行った対象領域を示す。かかる領域の特徴点の探索において、特徴点抽出部901は、特徴点1801を抽出する。この場合、一定量の特徴点を抽出しないので、特徴点抽出部901は、更に探索領域を拡張する。
図18(c)探索領域の更なる拡張を行った領域に対する特徴点の抽出を示す図である。図中の斜線部は、探索領域の更なる拡張を行った対象領域を示す。かかる領域の特徴点の探索において、特徴点抽出部901は、特徴点1802を抽出する。この場合、特徴点1801、1802の一定量の特徴点を抽出したので、特徴点抽出部901は、これ以上の探索対象の拡張を行わず、分割象限1640に対する特徴点の抽出を終了する。分割象限1610、1620に対しても同様に、特徴点抽出部901は、一定量の特徴点を抽出するか、探索対象となる分割領域がなくなるまで探索対象を拡張して特徴点の抽出を行う。
このように重畳領域の画素だけでなくその外部近傍に位置する画素から特徴点を抽出し、所定量の特徴点が抽出されない場合は探索範囲を広げることにより、重畳領域の視差を算出するのに必要な特徴点を抽出することができ、精度よく視差の値を算出することができる。また左目用画像を四分割し分割象限毎に特徴点抽出を行うことにより、特徴点を偏りなく抽出できる。ここで偏りがないとは、一部の領域に集中して特徴点が抽出されることがないことを意味する。特徴点を偏りなく抽出できるので、後述する重畳領域の視差分布を示す式の導出において、より適切な式を導出することができる。以上が特徴点抽出部901の説明である。続いて第1視差算出部902について説明する。
<1.4.2 第1視差算出部902>
第1視差算出部902は、特徴点抽出部901で抽出した特徴点の視差を算出する。算出した視差は、特徴点情報1003として記憶する。図19は、特徴点の視差の算出を示す図である。本図に示されるように、第1視差算出部902は、抽出した左目用画像の特徴点に対応する画素(対応点)を右目用画像から検出し、対応する画素間の距離(ピクセル数)を特徴点の視差とする。対応点の探索は、各画素に対して輝度値等に基づく相関値を算出し、その相関値が最も高い画素を検出することにより行う。一般に輝度変化が少ない画素に対しては、誤った対応点を検出する場合も多いが、特徴点は輝度が鋭敏に変化しているエッジ箇所等であるので、精度よく対応点を検出することができる。以上が第1視差算出部902の説明である。続いて第2視差算出部903について説明する。
<1.4.3 第2視差算出部903>
第2視差算出部903は、第1視差算出部902で算出した特徴点の視差に基づき、重畳領域の視差分布を示す式を導出することにより、特徴点を除く重畳領域内の画素を算出する。以下では、その詳細な内容について、「視差算出方法」、「視差の算出を行う領域」に項目分けして、具体的に説明する。
<1.4.3.1 視差算出方法>
第2視差算出部903は、サンプリング点情報1004を参照して得られるサンプリング点1〜Nの座標および視差から重畳領域の視差分布を示す式(視差算出式)を決定し、その式を各画素に適用することにより視差の算出を行う。
以下に、視差推定モデルの一例を示す。
Figure 2012117706
第2視差算出部903は、上記の視差の推定モデルのパラメータpを、サンプリング点i(i=1〜N)の座標(x[i],y[i])、視差量D[i]から最小二乗法により決定する。すなわち、第2視差算出部903は、D[i]−D(x[i],y[i])の二乗の総和が最小となるパラメータpを算出する。これにより、重畳領域の視差分布を示す視差算出式が定まる。次に、第2視差算出部903は、視差算出式に対して、視差算出式を適用する領域内の画素のうち特徴点を除く画素の座標を代入する。視差算出式を適用する領域については後述する。これにより視差算出式を適用する領域内の画素のうち特徴点を除く画素の視差を求めることができる。上述した特徴点の抽出、視差算出式の決定、視差算出式の適用の処理を繰り返すことにより、視差マスクで示される領域内の視差を算出することができる。以上が視差算出方法についての説明である。続いて、視差の算出を行う領域について説明する。
<1.4.3.2 視差の算出を行う領域>
図20は、視差の算出を行う領域を示す図である。本図は、特徴点の抽出を行う領域を説明した図16、図17、図18に対応する。ここで図中の斜線部の領域が視差算出式を適用する領域である。視差算出式を適用する領域は以下のように定める。
すなわち、視差算出式を適用する領域の左辺は、視差未検出の画素1601より左側に位置するサンプリング点のうち、最も右側に位置するサンプリング点のx座標と等しくなるように定める。また、視差算出式を適用する領域の右辺は、視差未検出の画素1601より右側に位置するサンプリング点のうち、最も左側に位置するサンプリング点のx座標と等しくなるように定める。また、視差算出式を適用する領域の上辺は、視差未検出の画素1601より上側に位置するサンプリング点のうち、最も下側に位置するサンプリング点のy座標と等しくなるように定める。また、視差算出式を適用する領域の下辺は、視差未検出の画素1601より下側に位置するサンプリング点のうち、最も上側に位置するサンプリング点のy座標と等しくなるように定める。上記のように定めた視差算出式を適用する領域を構成する全画素に対して、第2視差算出部903は視差算出式を適用し、視差を算出する。
<1.4.4 視差マップ格納部904>
視差マップ格納部904は、第1視差算出部902で算出した重畳領域内の特徴点の視差、および第2視差算出部903で算出した重畳領域内の特徴点以外の画素点の視差の値を格納する。視差マップ格納部904に格納された視差マップは、オブジェクト視差決定部403によるオブジェクトに与える視差量の決定に用いられる。
以上が映像処理装置100の構成についての説明である。続いて、上記構成を備える映像処理装置100の動作について説明する。
<1.5 動作>
<1.5.1 全体動作>
まず映像処理装置100の全体動作について説明する。図21は、映像処理装置100の動作を示すフロー図である。
本図に示されるように、制御部104はまず、タイマーを起床させる(ステップS2101)。タイミング情報201の画像取得間隔202に示される時間が経過した場合(ステップS2102,YES)、制御部104はオブジェクト描画要求部105に駆動イベントを発行する(ステップS2103)。制御部104が発行した駆動イベントを受け、オブジェクト描画要求部105は、描画要求キュー106を更新する(ステップS2104)。そして映像処理部107は、描画要求キュー106に基づき、特徴点抽出処理、視差算出処理、重畳処理等の映像処理を行う(ステップS2105)。ステップS2105の処理の詳細は<1.5.2>節で述べる。
ステップS2105の処理後、タイミング情報201の終了フラグ203が“TRUE”の場合(ステップS2106,YES)、制御部104は映像処理装置100の動作を終了させる。終了フラグがTRUEでない場合(ステップS2106,NO)、ステップS2102の処理に戻る。以上が映像処理装置100の全体動作についての説明である。続いてステップS2105の映像処理の詳細を説明する。
<1.5.2 映像処理(ステップS2105)>
図22は、映像処理(ステップS2105)の詳細を示すフロー図である。本図に示されるように、まず視差情報生成部402はオブジェクトを重畳する領域の左目用画像、右目用画像間の視差を算出する(ステップS2201)。ステップS2201の視差算出処理の詳細は<1.5.3>節で述べる。
次にオブジェクト視差決定部403は、ステップS2201で算出された重畳領域内の視差に基づき、オブジェクトに付与する視差を決定する(ステップS2202)。具体的には、重畳領域内の画素が有する最大視差を検出し、検出した最大視差をオブジェクトに付与する視差とする。決定したオブジェクト視差は、オブジェクト視差情報501として記憶する。
ステップS2202の後、オブジェクト画像生成部403は、ステップS2202で決定したオブジェクト視差に基づき、オブジェクト画像を生成する(ステップS2203)。そして合成部405は、左目用画像に対して左目用オブジェクト画像を、右目用画像に右目用オブジェクト画像を重畳する(ステップS2204)。以上が映像処理の詳細についての説明である。続いてステップS2201の視差算出処理の詳細を説明する。
<1.5.3 視差算出処理(ステップS2201)>
図23は、視差算出処理(ステップS2201)の動作を示すフロー図である。本図に示されるように、まず、視差マスク生成部401は、視差マスクを生成する(ステップS2301)。具体的には、視差マスク生成部401は、オブジェクトを重畳する領域を1、その他の領域を0とする2値のビットマップを作製する。次に、視差情報生成部402は、視差マスクで示されるオブジェクトを重畳する領域内における視差未検出の画素を探索する(ステップS2302)。
視差未検出の画素がない場合(ステップS2302,YES)、視差情報生成部402は、視差算出処理を終了する。視差未検出の画素を検出した場合(ステップS2302,NO)、視差情報生成部402は、サンプリング点情報1004を初期化する(ステップS2303)。そして、特徴点抽出部901は、左目用画像のオブジェクトを重畳する領域およびその外部近傍に位置する画素から特徴点を抽出する(ステップS2304)。探索の対象となる領域は、第1にステップS2302の処理で検出した視差未検出の画素を含む分割領域である。後述するステップS2308の処理で探索対象の拡張処理が行われた場合は、拡張した領域が探索の対象となる。
特徴点抽出後、第1視差算出部902は、抽出した特徴点の視差を算出する(ステップS2305)。特徴点抽出部901、第1視差算出部902は、算出した特徴点の座標、視差の情報に基づき、探索情報1001の更新を行う(ステップS2306)。そして、特徴点抽出部901は、所定数の特徴点が抽出されたか否かを判定する(ステップS2307)。
所定数の特徴点が抽出されない場合(ステップS2307,NO)、特徴点抽出部901は、探索対象を既に探索済みの領域に近接の分割領域まで拡張する(ステップS2308)。以上のステップS2304〜S2308の処理を、各分割象限について行う。
次に、第2視差算出部903は、上記のS2304〜S2308の処理で抽出されたサンプリング点に基づき視差を算出する領域を特定する(ステップS2309)。視差を算出する領域の特定については、既に、<1.4.3.2>節で説明した。そして、第2視差算出部903は、ステップS2309で特定した領域内の視差を算出する(ステップS2310)。具体的には、サンプリング点の座標および視差から視差算出式を導出し、その視差算出式を用いて当該領域内の画素のうち、特徴点を除く画素の視差を算出する。
第2視差算出部903は、ステップS2310で算出した視差に基づき、視差マップ904を更新する(ステップS2311)。ステップS2311の後、ステップS2302に戻り、視差未検出の画素がある場合(ステップS2302,YES)、ステップS2303以降の処理を再度行う。視差未検出の画素がない場合(ステップS2302,NO)、視差算出処理を終える。以上が、映像処理装置100の動作についての説明である。
以上のように本実施形態によれば、重畳領域内の画素およびその外部近傍に位置する画素から特徴点を抽出し、抽出した特徴点の視差に基づき重畳領域の視差を算出し、算出した重畳領域の視差に基づきオブジェクトの重畳処理を行うので、立体視映像に対して適切な立体感を有するオブジェクトを高速に(リアルタイムに)重畳することができる。
≪実施の形態2≫
<2.1 概要>
実施の形態2に係る映像処理装置は、実施の形態1に係る映像処理装置100と同様に、オブジェクトを重畳する立体視映像上の領域における視差を算出するものであるが、オブジェクトの重畳方法が異なる。実施の形態2に係る映像処理装置は、視差量が予め定まっているオブジェクトを重畳するものであり、オブジェクトの視差量と、オブジェクトを重畳する領域の視差を比較する。そして、オブジェクトの視差量よりも視差が大きい領域については、オブジェクトを重畳しないようにする。これにより、元の立体視映像がオブジェクトよりも飛び出して表示されオブジェクトが元の立体視映像部分に埋没することを防ぐことができ、視聴者は違和感なく立体視映像および重畳されたオブジェクトを観察することができる。
<2.2 構成>
まず実施の形態2に係る映像処理装置2400の構成について説明する。図24は映像処理装置2400の構成の一例を示すブロック図である。なお、図1に示す実施の形態1に係る映像処理装置100の構成と同じ部分については、同符号を付して説明を省略し、異なる部分について説明する。図24に示されるように、映像処理装置2400は、操作部101、映像取得部102、左目用画像・右目用画像格納部103、制御部104、オブジェクト描画要求部2401、描画要求キュー2402、映像処理部2403、出力部108を含んで構成される。
<2.2.1 オブジェクト描画要求部2401、描画要求キュー2402>
オブジェクト描画要求部2401は、制御部104が発行する駆動イベントに従い、重畳処理を行う図形、記号、文字等のオブジェクトに関する情報およびオブジェクトに付与する視差量を含む描画要求キュー2402を生成する。オブジェクトに付与する視差量が予め与えられる点において、実施の形態1にかかるオブジェクト描画要求部105、描画要求キュー106と異なる。
図25は、描画要求キュー2402のデータ構造を示す模式図である。本図に示されるように、描画要求キュー2402は、オブジェクト数2501と領域情報・視差2502と画像データ2503を含む。オブジェクト数2501は、重畳処理を行うオブジェクトの数を示す。領域情報・視差2502は、メインビューデータを構成する左目用画像における各オブジェクトを重畳する領域およびその視差を示す情報である。画像データ2503は、各オブジェクトの画像データを示す。この画像データ2503が左目用画像、右目用画像に重畳される。
<2.2.2 映像処理部2403>
図26は、映像処理部2403の内部構成の一例を示すブロック図である。図4に示す実施の形態1にかかる映像処理部107の構成と同じ部分については、同符号を付して説明を省略し、異なる部分について説明する。本図に示されるとおり映像処理部2403は、視差マスク生成部401、視差情報生成部2601、オブジェクト描画領域決定部2602、オブジェクト画像生成部2603、合成部405を含んで構成される。
まず視差情報生成部2601について説明する。実施の形態1にかかる視差情報生成部が、特徴点以外の画素点に対して視差算出式による視差の算出を行っていたのに対して、本実施の形態にかかる視差情報生成部2601は、特徴点に対しても視差算出式による視差の算出を行う点が異なる。以下では、視差マスクで示される領域中の、特徴点を含む全ての画素に対して視差算出式による視差の算出を行う理由を、図を用いて説明する。
図27は、映像処理装置2400によるオブジェクトの重畳を示す図である。横軸は画素点のx座標、縦軸は画素点の視差を示す。また斜線円は特徴点の視差、その他の円は視差算出式で算出した画素の視差を示す。
ここで、本実施の形態では特徴点に対しても視差算出式を適用し、その算出結果を用いてオブジェクトを重畳するので、図27(a)に示されるようにオブジェクトが重畳される。一方、特徴点に対して視差算出式を適用せず、オブジェクトを重畳した場合、図27(b)に示されるようにオブジェクトが重畳される。本図に示されるように、視差算出式によって算出された視差の値と、特徴点における画素の対応付けにより算出された視差の値とが、乖離してある特徴点だけが飛び出しているような場合、その特徴点部分の数画素においてオブジェクトが重畳されず、ドット落ちのような現象が発生する。本実施の形態では、かかる事態を回避するため、視差マスクで示される領域中の特徴点を含む全ての画素に対して視差算出式による視差の算出を行い、その視差の値に基づきオブジェクトの重畳を行う。以上が視差情報生成部2601についての説明である。続いて、オブジェクト描画領域決定部2602について説明する。
オブジェクト描画領域決定部2602は、重畳処理においてオブジェクトを描画する領域を決定する。具体的には、オブジェクト描画領域決定部2602は、まず、描画要求キュー2402に格納されるオブジェクトに付与する視差の値と視差情報生成部2601算出された左目用画像の視差マスクで示される領域の視差を比較する。そして、オブジェクト描画領域決定部2602は、視差マスクで示される領域のうち、左目用画像の視差がオブジェクトの視差よりも小さい領域のみをオブジェクト描画領域とする。左目用画像の視差がオブジェクトの視差よりも大きい領域については、オブジェクト描画領域としない。以上がオブジェクト描画領域決定部2602についての説明である。続いて、オブジェクト画像生成部2603について説明する。
オブジェクト画像生成部2603は、オブジェクト描画領域決定部2602により決定されたオブジェクトを描画する領域に基づきオブジェクト画像を生成する。
図28は、オブジェクト画像の生成を説明するための図である。点線で示される領域は、左目用画像の視差がオブジェクトの視差よりも大きい領域を示す。本図に示されるように、オブジェクト画像生成部2603は、オブジェクト描画領域決定部2602が決定したオブジェクト描画領域に基づき、描画要求キュー2402で示される領域のうち、左目用画像の視差がオブジェクトの視差よりも小さい領域について左目用オブジェクト2820を描画する。
また、オブジェクト画像生成部2603は、描画要求キュー2402に格納される視差の値2801だけオブジェクト2820を左方向にずらして右目用オブジェクト画像2830を生成する。
図30は、重畳処理後の立体視映像の立体視を示す図である。本図に示されるように、予め設定されたオブジェクトに付与する視差量よりも大きい視差量を有する領域については、オブジェクトは重畳されないので、元の立体視映像がオブジェクトよりも飛び出して表示され、オブジェクトが元の立体視映像部分に埋没することを防ぐことができ、視聴者は違和感なく立体視映像および重畳されたオブジェクトを観察することができる。
以上が映像処理装置2400の構成についての説明である。続いて、上記構成を備える映像処理装置2400の動作について説明する。
<2.3 動作>
実施の形態1における映像処理装置100と異なる映像処理について説明する。図29は、映像処理装置2400の映像処理の動作を示すフロー図である。図22に示す実施の形態1に係る映像処理の動作と同じ部分については、同符号を付す。
まず、視差情報生成部2601は、オブジェクトを重畳する領域の左目用画像、右目用画像間の視差を算出する(ステップS2901)。前述の通り、視差情報生成部2601は、特徴点を含む全ての画素に対して視差算出式による視差の算出を行う。
次に、オブジェクト描画領域決定部2602は、描画要求キュー2402に格納されるオブジェクトに付与する視差の値と視差情報生成部2601で算出された左目用画像の視差マスクで示される領域の視差を比較して、重畳処理においてオブジェクトを描画する領域を決定する(ステップS2902)。
そして、オブジェクト画像生成部2603は、ステップS2902で決定した描画領域および描画要求キュー2402に格納される視差の値に基づき、左目用オブジェクト画像および右目用オブジェクト画像を生成する(ステップS2903)。
合成部405は、左目用画像に対して左目用オブジェクト画像を、右目用画像に右目用オブジェクト画像を重畳する(ステップS2204)。以上が映像処理装置2400の動作についての説明である。
以上のように本実施形態によれば、重畳領域内の画素およびその外部近傍に位置する画素から特徴点を抽出し、抽出した特徴点の視差に基づき重畳領域の視差を算出し、予め与えられたオブジェクトの視差よりも大きい視差を有する重畳領域については、オブジェクトの重畳処理を行わないので、元の立体視映像がオブジェクトよりも飛び出して表示されオブジェクトが元の立体視映像部分に埋没することを防ぐことができる。
≪実施の形態3≫
<3.1 概要>
実施の形態3にかかる映像処理装置は、実施の形態1にかかる映像処理装置100と同様に、オブジェクトを重畳する立体視映像上の領域における視差を算出するものであるが、算出した視差を、三次元表示における深さ方向の位置を示す深度情報に変換する点において異なる。これにより、本実施の形態にかかる映像処理装置は、左目用画像および右目用画像の画像データの組みから、三次元表示における深さ方向の位置を示す深度情報を生成することができる。
<3.2 構成>
実施の形態3にかかる映像処理装置は、図1に示す実施の形態1にかかる映像処理装置100に対して、映像処理部の構成が異なる。映像処理部107以外の構成、すなわち、操作部101、映像取得部102、左目用画像・右目用画像格納部103、制御部104、オブジェクト描画要求部105、描画要求キュー106、出力部108については、同じ構成である。以下では、映像処理装置100とは異なる映像処理部について説明する。
図31は、実施の形態3にかかる映像処理部3100の内部構成の一例を示すブロック図である。図4、図9に示す実施の形態1にかかる映像処理部107の構成と同じ部分については、同符号を付して説明を省略し、異なる部分について説明する。本図に示されるとおり映像処理部3100は、視差マスク生成部401、視差情報生成部402、深度情報変換部3101、深度情報格納部3102、オブジェクト視差決定部3103、オブジェクト画像生成部404、合成部405を含んで構成される。また、視差情報生成部402は、特徴点抽出部901、第1視差算出部902、第2視差算出部903、視差マップ格納部904を含んで構成される。
<3.2.1 深度情報変換部3101、深度情報格納部3102>
深度情報変換部3101は、視差を深度情報に変換する機能を有する。また、深度情報格納部3102は、深度情報変換部3101により生成された深度情報を格納する機能を有する。
ここで、深度情報とは、画像データに映る各被写体の三次元表示における深さ方向の位置を示す情報である。立体視画像においては、視差の値が大きくなるにつれ、被写体の三次元表示における深さ方向の位置は手前になる。また、視差の値が小さくなるにつれ、被写体の三次元表示における深さ方向の位置は奥になる。すなわち、視差と深さ方向の距離との間には比例関係が成り立つ。
このため、深度情報変換部3101は、視差マップ904に格納された視差の値を、深度情報として、深度情報格納部3102に格納する。
また、深度情報変換部3101は、視差マップ904に格納された視差の値をそのまま深度情報として深度情報格納部3102に格納するのではなく、視差マップ904に格納された視差の値をスケーリング及びシフトした値を、深度情報として、深度情報格納部3102に格納してもよい。
深度情報変換部3101は、例えば、以下に示す数式を用いて、視差の値をスケーリング及びシフトする。
深度情報=視差量×α+β
ここで、スケーリングの重みパラメータα、シフトの重みパラメータβの値は、任意の設定値である。例えば、α=255/(最大視差量−最小視差量)、β=0としてもよい。また、映像処理装置の使用者によりα、βの各値が入力されるものであってもよい。
また、スケーリング(重みパラメータを乗ずる)、シフト(重みパラメータを加える)の両方を行うのではなく、スケーリングまたはシフトの何れか一方のみを行うとしてもよい。
このように算出した深度情報は、画像データの各画素と関連づけて、深度情報3102に格納する。例えば、図32に示すような、奥行きを輝度で表現した画像データとして格納してもよい。本図に示す例では、前方に位置するほど色が白、後方に位置するほど色が黒で表される。
<3.2.2 オブジェクト視差決定部3103>
オブジェクト視差決定部3103は、オブジェクトを重畳する領域内の画素が有する最大視差を検出し、検出した最大視差を重畳するオブジェクトの視差量とする。この際、オブジェクト視差決定部3103は、深度情報格納部3102に格納された深度情報から視差の値を生成し、生成した視差の値を用いて、重畳するオブジェクトの視差を決定する。
深度情報格納部3102に格納された深度情報が、視差マップ904に格納された視差の値をそのまま深度情報として格納したものである場合、オブジェクト視差決定部3103は、深度情報格納部3102に格納された深度情報の値をそのまま視差の値として用いて、重畳するオブジェクトの視差を決定する。
また、深度情報格納部3102に格納された深度情報が、視差マップ904に格納された視差の値をスケーリング及び/又はシフトしたものである場合、オブジェクト視差決定部3103は、スケーリング及び/又はシフトに用いた演算と逆の演算を行うことにより、深度情報から視差の値を生成する。例えば、<3.2.1>節で述べた“深度情報=視差量×α+β”の数式を用いてスケーリング及びシフトした場合、以下の数式を用いることにより、深度情報から視差の値を生成することができる。
視差量=(深度情報−β)/α
なお、オブジェクト視差決定部3103は、実施の形態1にかかる映像処理装置100と同様に、視差マップ格納部904に格納された視差の値を用いて、重畳するオブジェクトの視差を決定してもよい。
以上が映像処理部3100の構成についての説明である。続いて、上記構成を備える映像処理部3100の動作について説明する。
<3.3 動作>
実施の形態1における映像処理装置100と異なる深度情報変換処理について説明する。図33は、映像処理部3100の深度情報変換処理の動作を示すフロー図である。
本図に示されるように、深度情報変換部3101は、視差マップ904に格納された視差を取得する(ステップS3301)。
次に、深度情報変換部3101は、取得した視差量をスケーリング及び/又はシフトする(ステップS3302)。ここでは、例えば、<3.2.1>節で述べた“深度情報=視差量×α+β”数式を用いてスケーリング及び/又はシフトする。
そして、深度情報変換部3101は、視差量をスケーリング及び/又はシフトすることにより算出された値を、深度情報として深度情報格納部3102に格納する(ステップS3303)。
なお、視差量をスケーリング及び/又はシフトした値を、深度情報として深度情報格納部3102に格納するのではなく、視差マップ904に格納された視差量をそのまま深度情報として深度情報格納部3102に格納する場合、上記のステップS3302に示される処理は行わない。以上が、映像処理部3100の動作についての説明である。
以上のように、本実施の形態にかかる映像処理装置によれば、左目用画像および右目用画像の画像データの組みから、三次元表示における深さ方向の位置を示す深度情報を生成することができる。また、視差情報生成部402により高速かつ精度よく算出した視差から深度情報を生成するため、高速かつ精度よく、三次元表示における深さ方向の位置を示す深度情報を生成することができる。
≪実施の形態4≫
<4.1 概要>
実施の形態4にかかる映像処理装置は、実施の形態3にかかる映像処理装置と同様に、左目用画像および右目用画像の画像データの組みから、三次元表示における深さ方向の位置を示す深度情報を生成するものであるが、生成する深度情報の内容が異なる。本実施の形態にかかる映像処理装置は、左目用画像および右目用画像の画像データの組みから、画像データの撮像位置から画像データに映る被写体までの深さ方向の実距離を生成する。
<4.2 構成>
図34は、実施の形態4にかかる映像処理装置3400の構成の一例を示すブロック図である。図1に示す実施の形態1にかかる映像処理装置100の構成と同じ部分については、同符号を付して説明を省略し、異なる部分について説明する。本図に示されるように、映像処理装置3400は、操作部101、映像取得部102、左目用画像・右目用画像格納部103、撮像パラメータ格納部3401、制御部104、オブジェクト描画要求部105、描画要求キュー106、映像処理部3402、出力部108を含んで構成される。
<4.2,1 撮像パラメータ格納部3401>
撮像パラメータ格納部3401は、左目用画像・右目用画像の撮像カメラに関するパラメータ情報を格納する機能を有する。ここで、撮像パラメータとは、例えば、撮像カメラの画角、撮像カメラにより撮影された画像の解像度、左目用画像の撮像カメラから右目用画像の撮像カメラまでの直線距離である基線長の情報を含む。なお、撮像カメラの画角にかえて、撮像カメラの焦点距離とフレームサイズの情報を含むとしてもよい。
これらの撮像パラメータは、例えば、映像取得部102で取得した立体視映像に付属情報として多重化されており、この取得した立体視映像を多重分離することで得られる。また、これらの撮像パラメータは、装置使用者等の入力により与えられるものであってもよい。また、これらの撮像パラメータは、外部入力から与えられるものであってもよい。
<4.2.2 映像処理部3402>
映像処理部3402は、左目用画像・右目用画像格納部103に格納された左目用画像・右目用画像の組みに対する視差を算出する。そして、映像処理部3402は、撮像パラメータ格納部3401に格納された撮像パラメータを用いて、算出した視差を、画像データの撮像位置から画像データに映る被写体までの深さ方向の実距離に変換する。
図35は、映像処理部3402の内部構成の一例を示すブロック図である。図4、図9に示す実施の形態1にかかる映像処理部107の構成と同じ部分については、同符号を付して説明を省略し、異なる部分について説明する。本図に示されるように、映像処理部3402は、視差マスク生成部401、視差情報生成部402、深度情報変換部3501、深度情報格納部3502、オブジェクト視差決定部3503、オブジェクト画像生成部404、合成部405を含んで構成される。また、視差情報生成部402は、特徴点抽出部901、第1視差算出部902、第2視差算出部903、視差マップ格納部904を含んで構成される。
<4.2.2.1 深度情報変換部3501、深度情報格納部3502>
深度情報変換部3501は、視差を深度情報に変換する機能を有する。また、深度情報格納部3502は、深度情報変換部3501により生成された深度情報を格納する機能を有する。
本実施の形態では、深度情報変換部3501は、撮像パラメータを用いて、視差を撮像位置から被写体までの実距離に変換し、変換した実距離の情報を深度情報として、深度情報格納部3502に格納する。
図36は、撮像カメラと被写体の位置関係を示す図である。ここでは、左右のカメラの光軸を平行にして被写体を撮影する、いわゆる平行法の場合を考える。本図において、dは撮像位置から被写体までの深さ方向の実距離、θは水平画角(フレームの左端から右端までの角度)、Lは基線長(左目用画像の撮像カメラから右目用画像の撮像カメラまでの直線距離)、widthrealは光軸から被写体までの実距離を示す。
また、図37は、視差と実距離との関係を示す図である。本図において、wは左目用画像・右目用画像の幅(ピクセル数)を示す。
ここで、図36を参照するに、フレームの端に位置する被写体とフレーム中央に位置する被写体との間の実距離は、tan(θ/2)・dとなる。よって、単位実距離あたりの画素数は、w/2tan(θ/2)・dとなる。
このことから、図37に示されるように、左目用画像の中央から被写体までの画素数は、widthreal・w/2tan(θ/2)・dとなる。また同様に、右目用画像の中央から被写体までの画素数は、(L−widthreal)・w/2tan(θ/2)・dとなる。従って、左目用画像と右目用画像の組みに対する視差DPは、以下の数式のように表される。
Figure 2012117706
また、撮像位置から被写体までの深さ方向の実距離dは、視差DPを用いて以下の数式のように表される。
Figure 2012117706
上記数式における水平画角θ、基線長L、画像のピクセル幅wの情報は、撮像パラメータとして撮像パラメータ格納部3401に格納されている。深度情報変換部3501は、撮像パラメータ格納部3401から撮像パラメータを取得し、視差マップ格納部904から視差の情報を取得し、上記の数式に示される関係を用いて、撮像位置から被写体までの深さ方向の実距離を算出する。
なお、撮像パラメータ格納部3401が、撮像パラメータとして、撮像カメラの画角の代わりに撮像カメラの焦点距離とフレームサイズの情報を格納している場合には、撮像カメラの焦点距離とフレームサイズの情報を用いて、撮像位置から被写体までの深さ方向の実距離を算出する。具体的には、撮像カメラの焦点距離とフレームサイズの情報から、撮像カメラの画角の値を算出する。そして、算出された画角の値を用いて、上記の数3に示す関係式から、撮像位置から被写体までの深さ方向の実距離を算出する。
<4.2.2.2 オブジェクト視差決定部3503>
オブジェクト視差決定部3503は、オブジェクトを重畳する領域内の画素が有する最大視差を検出し、検出した最大視差を重畳するオブジェクトの視差量とする。この際、オブジェクト視差決定部3503は、深度情報格納部3502に格納された深度情報から視差の値を生成し、生成した視差の値を用いて、重畳するオブジェクトの視差を決定する。
具体的には、オブジェクト視差決定部3503は、数2に示した視差DPと撮像位置から被写体までの深さ方向の実距離dとの関係式を用いて、深度情報から視差を生成することができる。
なお、オブジェクト視差決定部3503は、実施の形態1にかかる映像処理装置100と同様に、視差マップ格納部904に格納された視差の値を用いて、重畳するオブジェクトの視差を決定してもよい。
<4.3 動作>
実施の形態1における映像処理装置100と異なる深度情報変換処理について説明する。図38は、映像処理装置3400の深度情報変換処理の動作を示すフロー図である。
本図に示されるように、深度情報変換部3501は、視差マップ904に格納された視差を取得する(ステップS3301)。
次に、深度情報変換部3501は、撮像パラメータ格納部3401に格納された水平画角、解像度、基線長の撮像パラメータを取得する(ステップS3801)。
次に、深度情報変換部3501は、撮像パラメータを用いて、視差を画像データの撮像位置から画像データに映る被写体までの深さ方向の実距離に変換する(ステップS3802)。この変換処理は、画像データを構成する全ての画素に対して行う。
そして、深度情報変換部3501は、視差の値から算出した画像データの撮像位置から画像データに映る被写体までの深さ方向の実距離の値を、深度情報として深度情報格納部3502に格納する(ステップS3803)。以上が、映像処理装置3400の動作についての説明である。
以上のように、本実施の形態にかかる映像処理装置3400によれば、左目用画像および右目用画像の画像データの組みから、画像データの撮像位置から画像データに映る被写体までの深さ方向の実距離を生成することができる。また、視差情報生成部402により高速かつ精度よく算出した視差を用いて、画像データの撮像位置から画像データに映る被写体までの深さ方向の実距離を算出するため、高速かつ精度よく、画像データの撮像位置から画像データに映る被写体までの深さ方向の実距離を算出することができる。
≪実施の形態5≫
実施の形態5にかかる映像処理装置は、実施の形態4にかかる映像処理装置と同様に、左目用画像および右目用画像のデータの組みから、画像データの撮像位置から画像データに映る被写体までの深さ方向の実距離を算出するものであるが、左目用画像および右目用画像に施されたプレーンシフト量を考慮して実距離を算出する点において異なる。
まず、プレーンシフトについて説明する。プレーンシフトとは、プレーンメモリにおけるライン単位の画素の座標を、左方向または右方向にシフトさせることで、立体視画像の奥行き感を変化させるものである。
左右の撮像カメラで撮影された左目用画像および右目用画像は、その撮影条件や撮像する被写体の位置によっては、視差が大きくなる場合がある。過度に大きな視差を有する立体視画像は、視聴者の視覚疲労、不快感、立体視酔い等を引き起こす可能性があることが知られている。このような、大きな視差を有する左目用画像、右目用画像の組みに対して、プレーンシフトを行うことにより、視差を低減することができる。
図39は、プレーンシフトを説明するための図である。実線で囲われた領域は撮像カメラにより撮影された領域を示し、点線で囲われた領域は実際に画像データとして記録する領域を示す。
本図に示す例では、大きな視差を有する左目用画像、右目用画像の組みに対して、右目用画像を右方向にSだけプレーンシフトしている。これにより、プレーンシフト後の左目用画像、右目用画像の視差が低減され、視聴者にとって見やすい立体視画像となっている。ここで、プレーンシフト後の視差DP´とプレーンシフト前の視差DPとの間には、以下に示す関係式が成り立つ。
DP=DP´−S
このように、左目用画像、右目用画像がプレーンシフトされている場合、視差マップ格納部904に格納される視差の値は、実際に撮影された画像データにおける被写体間の視差DPではなく、プレーンシフト後の画像データにおける被写体間の視差DP´となる。
しかし、撮像位置から被写体までの深さ方向の実距離を算出するためには、実際に撮影された画像データにおける被写体の位置関係を示す視差DPが必要となる。このため、本実施の形態にかかる深度情報変換部では、プレーンシフト量Sを用いて視差DPを算出し、撮像位置から被写体までの深さ方向の実距離を算出する。
ここで、撮像位置から被写体までの深さ方向の実距離dは、視差DP´とプレーンシフト量Sを用いて以下の数式のように表される。
Figure 2012117706
実施の形態4では、画角、解像度、基線長の撮像パラメータを用いて、視差から、撮像位置から被写体までの深さ方向の実距離を算出したが、本実施の形態では、画角、解像度、基線長に加え、プレーンシフト量の撮像パラメータが必要となる。
プレーンシフト量の撮像パラメータは、例えば、映像取得部102で取得した立体視映像に付属情報として多重化されており、この取得した立体視映像を多重分離することで得られる。また、プレーンシフト量の撮像パラメータは、装置使用者等の入力により与えられるものであってもよい。また、プレーンシフト量の撮像パラメータは、外部入力から与えられるものであってもよい。取得したプレーンシフト量は撮像パラメータ格納部に格納する。
次に、本実施の形態にかかる映像処理装置の実距離算出処理について説明する。図40は、本実施の形態にかかる実距離算出処理の動作を示すフロー図である。
本図に示されるように、深度情報変換部3501は、視差マップ904に格納された視差を取得する(ステップS3301)。
次に、深度情報変換部3501は、撮像パラメータ格納部3401に格納された水平画角、解像度、基線長、プレーンシフト量の撮像パラメータを取得する(ステップS4001)。
次に、深度情報変換部3501は、水平画角、解像度、基線長、プレーンシフト量の撮像パラメータを用いて、視差を画像データの撮像位置から画像データに映る被写体までの深さ方向の実距離に変換する(ステップS4002)。具体的には、数4に示した関係式を用いて、画像データに映る被写体までの深さ方向の実距離を算出する。この変換処理は、画像データを構成する全ての画素に対して行う。
そして、深度情報変換部3501は、視差の値から算出した画像データの撮像位置から画像データに映る被写体までの深さ方向の実距離の値を、深度情報として深度情報格納部3502に格納する(ステップS4003)。以上が、本実施の形態にかかる映像処理装置の動作についての説明である。
以上のように、本実施の形態にかかる映像処理装置によれば、プレーンシフトを施した左目用画像および右目用画像の画像データの組みから、撮像位置から被写体までの深さ方向の実距離を算出することができる。また、視差情報生成部402により高速かつ精度よく算出した視差を用いて、撮像位置から被写体までの深さ方向の実距離を算出するため、高速かつ精度よく、撮像位置から被写体までの深さ方向の実距離を算出することができる。
≪補足≫
なお、上記の実施の形態に基づいて説明してきたが、本発明は上記の実施の形態に限定されないことはもちろんである。以下のような場合も本発明に含まれる。
(a)本発明は、各実施形態で説明した処理手順が開示するアプリケーション実行方法であるとしてもよい。また、前記処理手順でコンピュータを動作させるプログラムコードを含むコンピュータプログラムであるとしてもよい。
(b)本発明は、アプリケーション実行制御を行うIC、LSI、その他の集積回路のパッケージとして構成されるものとしてもよい。図41は、本発明にかかる映像処理装置を、LSIを用いて具現化した例を示す。本図に示されるように、LSI4100は、例えば、CPU4101(中央処理装置:Central Processing Unit)、DSP4102(デジタル信号プロセッサ:Digital Signal Processor)、ENC/DEC4103(エンコーダ/デコーダ:Encoder/Decoder)、VIF4104(ビデオインターフェイス:Video Interface)、PERI4105(周辺機器インターフェイス:Peripheral Interface)、NIF4106(ネットワークインターフェイス:Network Interface)、MIF4107(メモリインターフェイス:Memory Interface)、RAM/ROM4108(ランダムアクセスメモリ/読み出し専用メモリ:Random Access Memory/Read Only Memory)を含んで構成される。
各実施の形態で説明した処理手順は、プログラムコードとしてRAM/ROM4108に格納される。そして、RAM/ROM4108に格納されたプログラムコードは、MIF4107を介して読み出され、CPU4101またはDSP4102で実行される。これにより、各実施の形態で説明した映像処理装置の機能を実現することができる。
また、VIF4104は、Camera(L)4113、Camera(R)4114等の撮像装置や、LCD4112(液晶ディスプレイ:Liquid Crystal Display)等の表示装置と接続され、立体視映像の取得または出力を行う。また、ENC/DEC4103は、取得または生成した立体視映像のエンコード・デコードを行う。また、PERI4105は、HDD4110(ハードディスクドライブ:Hard Disk Drive)等の記録装置や、Touch Panel4111等の操作装置と接続され、これらの周辺機器の制御を行う。また、NIF4106は、MODEM4109等と接続され、外部ネットワークとの接続を行う。
このパッケージは各種装置に組み込まれて利用に供され、これにより各種装置は、各実施形態で示したような各機能を実現するようになる。また、集積回路化の手法はLSIに限るものではなく、専用回路または、汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)やLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。このような技術には、バイオ技術の適用等が可能性としてありえる。
なお、ここではLSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
(c)実施の形態1、2、3、4、5において、処理の対象となる立体視映像は、左目用映像と右目用映像の組みからなる2視点映像であったが、3以上の視点から被写界を撮像して得られた多視点映像であってもよい。3以上の多視点映像に対しても、同様の映像処理を行うことができる。
(d)実施の形態1、2、3、4、5において、映像取得部102が取得する立体視映像は、映像処理装置100に接続された撮像装置によりリアルタイムに撮像された立体視映像であるとしたが、遠隔地でリアルタイムに撮像された立体視映像をネットワークを通じて取得するものであってもよい。また、サーバ内に記録された立体視映像をネットワークを通じて取得するものであってもよい。また、テレビ放送等をアンテナを通じて取得するものであってもよい。また、映像処理装置100の外部または内部の記録装置に記録された立体視映像であってもよい。ここで記録装置は、例えばハードディスクドライブ、BD、DVD等の光ディスク、またはSDメモリカード等の半導体メモリ装置である。
(e)実施の形態1、2、3、4、5では、視差算出式を適用する領域を図15の斜線部で示される領域としているが、これはサンプリング点から特定可能な領域であればよい。例えば、サンプリング点群の中心点の座標をサンプリング点の座標の平均値とし、当該中心点から特定の距離内の領域を、視差算出式を適用する領域としてもよい。また、当該特定の距離として、サンプリング点の分散値に比例した値を用いてもよい。
(f)実施の形態1、2、3、4、5では、図9に示すように、サンプリング点情報504の特徴点インデックス902を固定長の配列とするが、これは可変長の配列でもよいし、リスト構造のような配列以外の構造としてもよい。
(g)実施の形態1では、オブジェクトを重畳する領域内の画素が有する最大視差をオブジェクトの視差量としたが、オブジェクトを重畳する領域内の画素が有する最大視差量に予め定義されたオフセット値を加えたものをオブジェクトの視差量としてもよい。
(h)実施の形態1、2、3、4、5では、描画要求キューで指定されるオブジェクトを重畳する領域の座標は左目用画像におけるものであり、左目用画像から特徴点を抽出したが、描画要求キューで指定されるオブジェクトを重畳する領域の座標が右目用画像のものであり、右目用画像から特徴点を抽出するものであってもよい。
(i)実施の形態1、2、3、4、5では、特徴点の視差に基づき重畳領域内の特徴点以外の画素の視差を求めるにあたり、数1に示される視差の推定モデルのパラメータを最小二乗法により決定し、視差算出式を導出したが、この手法に限定されるものではない。例えば、低次またはより高次の式に対する最小二乗法や、重み付き最小二乗法により視差の推定モデルのパラメータを算出してもよい。またその他の推定モデルを用いてもよい。
さらに複数の推定モデルを用意しておき、重畳処理を行う立体視映像の種別に応じて、適した推定モデルを選択してもよい。
(j)実施の形態1、2、3、4、5では、オブジェクト描画要求部は、操作部による立体視映像に重畳する図形、記号、文字等のオブジェクトデータの内容、重畳する位置等の指定に基づき描画要求キューを生成するとしたが、ユーザの操作入力を受け付ける外部装置のアプリケーションからネットワーク等を通じてイベントを取得し、取得したイベントに基づき描画要求キューを生成してもよい。
合成処理後の立体視映像を上記の外部装置に送信することで、ネットワークを通じた合成処理の対話型処理が可能となる。
(k)上記の実施の形態及び上記の変形例をそれぞれ組み合わせるとしてもよい。
本発明に係る映像処理装置によれば、視差を算出すべき領域を構成する画素、およびその外部近傍に位置する画素から特徴点を抽出し、その抽出した特徴点を用いて視差を算出すべき領域を構成する全画素の視差を算出するので、立体視映像中の視差を算出すべき領域の視差を高速かつ精度よく算出することができ有益である。
100 映像処理装置
101 操作部
102 映像取得部
103 左目用画像・右目用画像格納部
104 制御部
105 オブジェクト描画要求部
106 描画要求キュー
107 映像処理部
108 出力部
401 視差マスク生成部
402 視差情報生成部
403 オブジェクト視差決定部
404 オブジェクト画像生成部
405 合成部
901 特徴点抽出部
902 第1視差算出部
903 第2視差算出部
904 視差マップ格納部
2400 映像処理装置
2401 オブジェクト描画要求部
2402 描画要求キュー
2403 映像処理部
2601 視差情報生成部
2602 オブジェクト描画領域決定部
2603 オブジェクト画像生成部
3100 映像処理部
3101 深度情報変換部
3102 深度情報格納部
3103 オブジェクト視差決定部
3400 映像処理装置
3401 撮像パラメータ格納部
3402 映像処理部
3501 深度情報変換部
3502 深度情報格納部
3503 オブジェクト視差決定部
4100 LSI
4101 CPU
4102 DSP
4103 ENC/DEC
4104 VIF
4105 PERI
4106 NIF
4107 MIF
4108 RAM/ROM
4109 MODEM
4110 HDD
4111 Touch Panel
4112 LCD
4113 Camera(L)
4114 Camera(R)
【0003】
[0009]
本発明は上記事情に鑑みなされたものであり、立体視映像を構成する画像データの組みにおける対応画素間のオフセット量を高速かつ精度よく算出することができる映像処理装置を提供することを目的とする。
課題を解決するための手段
[0010]
上記目的を達成するため、本発明にかかる映像処理装置は、立体視映像を構成するメインビューデータおよびサブビューデータの組みにおける対応画素間の水平座標位置のオフセット量を算出する映像処理装置であって、メインビューデータのうち、合成画像を合成する合成領域を、オフセット量を算出すべき領域として特定し、当該特定した領域を示すオフセットマスクを生成するオフセットマスク生成部と、前記オフセットマスクにより示されたオフセット量を算出すべき領域、および前記オフセットマスクにより示されたオフセット量を算出すべき領域の外部近傍の領域に抽出範囲を絞り込んで、前記抽出範囲に位置する画素から予め決められた数の特徴点を抽出する特徴点抽出部と、サブビューデータに対して、前記各特徴点の対応点探索を行うことにより各特徴点のオフセット量を算出する第1オフセット量算出部と、算出された各特徴点のオフセット量に基づき、メインビューデータのオフセット量を算出すべき領域を構成する画素のオフセット量を算出する第2オフセット量算出部とを備えることを特徴とする。
発明の効果
[0011]
立体視映像上の全画素に対して対応点探索を行った場合、その演算量は膨大となる。本発明では、立体視映像を構成するメインビューデータおよびサブビューデータの組みにおける対応画素間のオフセット量(視差)を算出すべき領域およびその外部近傍に位置する画素から抽出した特徴点のみに対応点探索を行い、対応点探索により算出した特徴点のオフセット量に基づき特徴点以外の画素のオフセット量を算出するので、オフセット量算出に要する演算量を大幅に削減することができる。その結果立体視映像に対して適切な立体感を有するオブジェクトを高速に(リアルタイムに)重畳することが可能となる。
[0012]
また、オフセット量を算出すべき領域内の輝度変化が少ない領域については、誤った対応点を検出し、正しいオフセット量の値を算出できない場合がある。本発明では、特徴点のみに対応点探索を行い、特徴点のオフセット量

Claims (17)

  1. 立体視映像を構成するメインビューデータおよびサブビューデータの組みにおける対応画素間の水平座標位置のオフセット量を算出する映像処理装置であって、
    メインビューデータのうちオフセット量を算出すべき領域、および前記オフセット量を算出すべき領域の外部近傍の領域に抽出範囲を絞り込んで、前記抽出範囲に位置する画素から予め決められた数の特徴点を抽出する特徴点抽出部と、
    サブビューデータに対して、前記各特徴点の対応点探索を行うことにより各特徴点のオフセット量を算出する第1オフセット量算出部と、
    算出された各特徴点のオフセット量に基づき、メインビューデータのオフセット量を算出すべき領域を構成する画素のオフセット量を算出する第2オフセット量算出部と
    を備えることを特徴とする映像処理装置。
  2. 前記特徴点抽出部は、
    予め決められた数の特徴点が発見されない場合、
    抽出済みの領域に近接する所定領域を抽出範囲として新たに選択し、選択した抽出範囲から特徴点を抽出する処理を予め決められた数の特徴点が発見されるまで繰り返す
    ことを特徴とする請求項1に記載の映像処理装置。
  3. 前記特徴点抽出部は、
    前記メインビューデータのオフセット量を算出すべき領域内の対象画素を中心としてメインビューデータを分割し、
    抽出範囲を前記メインビューデータのうちオフセット量を算出すべき領域、および前記オフセット量を算出すべき領域の外部近傍の領域に絞り込んで、前記抽出範囲に位置する画素から特徴点を抽出する処理を分割象限毎に行い、
    分割象限において予め決められた数の特徴点が発見されない場合、
    抽出済みの領域に近接する所定領域を抽出範囲として新たに選択し、選択した抽出範囲から特徴点を抽出する処理を当該分割象限に予め決められた数の特徴点が発見されるまで繰り返す
    ことを特徴とする請求項1に記載の映像処理装置。
  4. 前記第2オフセット量算出部は、
    算出された特徴点のオフセット量を用いて、メインビューデータのオフセット量を算出すべき領域のオフセット量分布を示す式を導出することにより、メインビューデータのオフセット量を算出すべき領域を構成する画素のオフセット量を算出する
    ことを特徴とする請求項1に記載の映像処理装置。
  5. 前記映像処理装置はさらに、
    オフセット量を算出すべき領域を示すマスクを生成するマスク生成部を備えることを特徴とする請求項1に記載の映像処理装置。
  6. 前記オフセット量を算出すべき領域は、メインビューデータのうち合成処理を行う合成領域であり、
    前記映像処理装置はさらに、
    前記第1オフセット量算出部または前記第2オフセット量算出部で算出されたメインビューデータの合成領域を構成する画素のオフセット量に基づき、メインビューデータおよびサブビューデータのそれぞれに合成画像を合成する合成部を備えることを特徴とする請求項1に記載の映像処理装置。
  7. 前記合成部は、
    前記第1オフセット量算出部または前記第2オフセット量算出部で算出されたメインビューデータの合成領域を構成する画素のオフセット量のうち最大のオフセット量を合成画像に付与し、メインビューデータおよびサブビューデータに合成することを特徴とする請求項6に記載の映像処理装置。
  8. 前記合成部は、
    前記第1オフセット量算出部または前記第2オフセット量算出部で算出されたメインビューデータの合成領域を構成する画素のオフセット量と予め設定された合成画像のオフセット量とを比較し、
    合成画像のオフセット量よりも大きいオフセット量を有するメインビューデータの画素からなる領域およびそれに対応するサブビューデータの領域については、合成画像を合成しないことを特徴とする請求項6に記載の映像処理装置。
  9. 前記映像処理装置はさらに、
    前記第1オフセット量算出部または前記第2オフセット量算出部で算出されたオフセット量を、三次元表示における深さ方向の位置を示す深度情報に変換する深度情報変換部を備える
    ことを特徴とする請求項1に記載の映像処理装置。
  10. 前記深度情報変換部は、前記第1オフセット量算出部または前記第2オフセット量算出部で算出されたオフセット量をスケーリング及びシフトのいずれか一方又は両方を行う
    ことを特徴とする請求項9に記載の映像処理装置。
  11. 前記深度情報は、撮像位置から被写体までの深さ方向の実距離である
    ことを特徴とする請求項9に記載の映像処理装置。
  12. 前記深度情報変換部は、メインビューデータの撮像カメラおよびサブビューデータの撮像カメラの撮像パラメータを用いて、前記第1オフセット量算出部または前記第2オフセット量算出部で算出されたオフセット量を、前記実距離に変換する
    ことを特徴とする請求項11に記載の映像処理装置。
  13. 前記撮像パラメータは、メインビューデータの撮像カメラとサブビューデータの撮像カメラの画角、メインビューデータの撮像カメラとサブビューデータの撮像カメラの解像度、およびメインビューデータの撮像カメラからサブビューデータの撮像カメラまでの基線長を含む
    ことを特徴とする請求項12に記載の映像処理装置。
  14. 前記撮像パラメータは、メインビューデータの撮像カメラとサブビューデータの撮像カメラの焦点距離、メインビューデータの撮像カメラとサブビューデータの撮像カメラのフレームサイズ、メインビューデータの撮像カメラとサブビューデータの撮像カメラの解像度、およびメインビューデータの撮像カメラからサブビューデータの撮像カメラまでの基線長を含む
    ことを特徴とする請求項12に記載の映像処理装置。
  15. 前記深度情報変換部は、メインビューデータおよびサブビューデータがプレーンシフトされたビューデータである場合、
    前記第1オフセット量算出部または前記第2オフセット量算出部で算出されたオフセット量を、プレーンシフトされる前のメインビューデータおよびサブビューデータの組みに対する対応画素間のオフセット量に変換し、変換後の前記オフセット量に基づき、前記実距離を算出する
    ことを特徴とする請求項11に記載の映像処理装置。
  16. 立体視映像を構成するメインビューデータおよびサブビューデータの組みにおける対応画素間の水平座標位置のオフセット量を算出する映像処理方法であって、
    メインビューデータのうちオフセット量を算出すべき領域、および前記オフセット量を算出すべき領域の外部近傍の領域に抽出範囲を絞り込んで、前記抽出範囲に位置する画素から予め決められた数の特徴点を抽出する特徴点抽出ステップと、
    サブビューデータに対して、前記各特徴点の対応点探索を行うことにより各特徴点のオフセット量を算出する第1オフセット量算出ステップと、
    算出された各特徴点のオフセット量に基づき、メインビューデータのオフセット量を算出すべき領域を構成する画素のオフセット量を算出する第2オフセット量算出ステップと
    を備えることを特徴とする映像処理方法。
  17. 立体視映像を構成するメインビューデータおよびサブビューデータの組みにおける対応画素間の水平座標位置のオフセット量を算出する処理をコンピュータに実行させるプログラムであって、
    メインビューデータのうちオフセット量を算出すべき領域、および前記オフセット量を算出すべき領域の外部近傍の領域に抽出範囲を絞り込んで、前記抽出範囲に位置する画素から予め決められた数の特徴点を抽出する特徴点抽出ステップと、
    サブビューデータに対して、前記各特徴点の対応点探索を行うことにより各特徴点のオフセット量を算出する第1オフセット量算出ステップと、
    算出された各特徴点のオフセット量に基づき、メインビューデータのオフセット量を算出すべき領域を構成する画素のオフセット量を算出する第2オフセット量算出ステップと
    をコンピュータに実行させるプログラム。
JP2013502186A 2011-03-01 2012-02-23 映像処理装置、映像処理方法、プログラム Expired - Fee Related JP5852093B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013502186A JP5852093B2 (ja) 2011-03-01 2012-02-23 映像処理装置、映像処理方法、プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011044081 2011-03-01
JP2011044081 2011-03-01
JP2013502186A JP5852093B2 (ja) 2011-03-01 2012-02-23 映像処理装置、映像処理方法、プログラム
PCT/JP2012/001259 WO2012117706A1 (ja) 2011-03-01 2012-02-23 映像処理装置、映像処理方法、プログラム

Publications (2)

Publication Number Publication Date
JPWO2012117706A1 true JPWO2012117706A1 (ja) 2014-07-07
JP5852093B2 JP5852093B2 (ja) 2016-02-03

Family

ID=46757651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013502186A Expired - Fee Related JP5852093B2 (ja) 2011-03-01 2012-02-23 映像処理装置、映像処理方法、プログラム

Country Status (3)

Country Link
US (1) US20130071013A1 (ja)
JP (1) JP5852093B2 (ja)
WO (1) WO2012117706A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102143472B1 (ko) * 2013-07-26 2020-08-12 삼성전자주식회사 다시점 영상 처리 장치 및 그 영상 처리 방법
JP6565188B2 (ja) * 2014-02-28 2019-08-28 株式会社リコー 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
WO2019039799A1 (ko) * 2017-08-20 2019-02-28 네이버 주식회사 시각적 입력의 처리
CN109752951B (zh) * 2017-11-03 2022-02-08 腾讯科技(深圳)有限公司 控制系统的处理方法、装置、存储介质和电子装置
CN109793576B (zh) * 2018-12-10 2021-09-28 湖北得康科技有限公司 一种智能可视装置及可视手术器械
US11127115B2 (en) 2019-12-13 2021-09-21 NextVPU (Shanghai) Co., Ltd. Determination of disparity
CN111429338B (zh) * 2020-03-18 2023-08-01 百度在线网络技术(北京)有限公司 用于处理视频的方法、装置、设备和计算机可读存储介质
JP6967816B1 (ja) * 2021-05-07 2021-11-17 シンメトリー・ディメンションズ・インク 情報処理装置、及び、情報処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2998791B2 (ja) * 1996-10-31 2000-01-11 日本電気株式会社 三次元構造推定装置
JP2002208005A (ja) * 2001-01-12 2002-07-26 Minolta Co Ltd 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP4307212B2 (ja) * 2003-10-17 2009-08-05 シャープ株式会社 表示データ編集装置、表示装置、表示データ編集方法、プログラム及び記録媒体
JP4301137B2 (ja) * 2004-10-20 2009-07-22 富士ゼロックス株式会社 画像合成装置、画像合成方法、画像合成プログラムおよび記録媒体
JP2006325165A (ja) * 2005-05-20 2006-11-30 Excellead Technology:Kk テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
WO2010010709A1 (ja) * 2008-07-24 2010-01-28 パナソニック株式会社 立体視再生が可能な再生装置、再生方法、プログラム
JP4637942B2 (ja) * 2008-09-30 2011-02-23 富士フイルム株式会社 3次元表示装置および方法並びにプログラム
US8184880B2 (en) * 2008-12-31 2012-05-22 Intuitive Surgical Operations, Inc. Robust sparse image matching for robotic surgery

Also Published As

Publication number Publication date
WO2012117706A1 (ja) 2012-09-07
JP5852093B2 (ja) 2016-02-03
US20130071013A1 (en) 2013-03-21

Similar Documents

Publication Publication Date Title
JP5852093B2 (ja) 映像処理装置、映像処理方法、プログラム
Cao et al. Semi-automatic 2D-to-3D conversion using disparity propagation
US20120242795A1 (en) Digital 3d camera using periodic illumination
EP2757789A1 (en) Image processing system, image processing method, and image processing program
JPWO2011033673A1 (ja) 画像処理装置
US9681119B2 (en) Image encoding method and image encoding apparatus
KR20130012504A (ko) 다시점 렌더링 장치 및 방법
WO2012094076A1 (en) Morphological anti-aliasing (mlaa) of a re-projection of a two-dimensional image
CN113238472B (zh) 基于频域位移的高分辨率光场显示方法及装置
KR20120045269A (ko) 3d 메쉬 모델링 및 에볼루션에 기반한 홀로그램 생성 방법 및 장치
JP2009175866A (ja) 立体像生成装置、その方法およびそのプログラム
JP4819834B2 (ja) 立体映像処理装置及び立体映像処理方法
TW202014993A (zh) 資訊處理裝置、記錄媒體、程式產品及資訊處理方法
JP3988879B2 (ja) 立体画像生成方法及び立体画像生成装置、ならびに立体画像生成プログラム及び記録媒体
JP6128748B2 (ja) 画像処理装置及び方法
KR101411568B1 (ko) 컴퓨터 홀로그램 생성을 위한 가상시점 깊이영상 합성 방법
Wu et al. Depth mapping of integral images through viewpoint image extraction with a hybrid disparity analysis algorithm
CN107103620B (zh) 一种基于独立相机视角下空间采样的多光编码相机的深度提取方法
KR101289008B1 (ko) 깊이 카메라를 이용한 3차원 집적영상 획득방법 및 디스플레이 장치
JP2008153805A (ja) 立体映像表示装置及び2次元画像の立体映像化方法
Xie et al. Depth-tunable three-dimensional display with interactive light field control
De Sorbier et al. Depth camera based system for auto-stereoscopic displays
JP5689693B2 (ja) 描画処理装置
KR101657373B1 (ko) 집적 영상 디스플레이에서 다중 깊이 정보 추출 방법
JP4999010B2 (ja) 自由視点映像生成方式及び記録媒体

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20140606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151203

R150 Certificate of patent or registration of utility model

Ref document number: 5852093

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees