JP5464279B2 - 画像処理装置、そのプログラム、および画像処理方法 - Google Patents

画像処理装置、そのプログラム、および画像処理方法 Download PDF

Info

Publication number
JP5464279B2
JP5464279B2 JP2012549695A JP2012549695A JP5464279B2 JP 5464279 B2 JP5464279 B2 JP 5464279B2 JP 2012549695 A JP2012549695 A JP 2012549695A JP 2012549695 A JP2012549695 A JP 2012549695A JP 5464279 B2 JP5464279 B2 JP 5464279B2
Authority
JP
Japan
Prior art keywords
image
image processing
processing apparatus
pixel
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012549695A
Other languages
English (en)
Other versions
JPWO2012086362A1 (ja
Inventor
宏 大和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2012549695A priority Critical patent/JP5464279B2/ja
Application granted granted Critical
Publication of JP5464279B2 publication Critical patent/JP5464279B2/ja
Publication of JPWO2012086362A1 publication Critical patent/JPWO2012086362A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は、画像処理技術に関する。
近年、表示される画像を立体視可能な三次元テレビなどの三次元表示装置の普及が進んでおり、三次元表示装置用の立体視可能な左目用および右目用の画像群(立体視画像)を容易に生成可能な技術が望まれている。このため、所定の視点から被写体を撮影したときに得られる画像についての疑似画像を模擬的に生成する装置が、各種表示ディスプレイ用の立体視画像を生成する用途などに活用され始めている。
ところで、立体視画像を観察者が観察する場合には、画像全体の各部において、該各部にそれぞれ対応した被写体各部の距離に応じた立体表示がされるため、立体視に関する情報の過多や混在によって観察者の目が疲れるといった問題がある。
特許文献1では、遠景と近景とを含む被写体のうち遠景が実際よりも遠距離に存在するかのように観察される左目用および右目用の各疑似画像を生成することによって該被写体についての立体視画像を生成する技術が提案されている。より詳細には、特許文献1の技術により生成される立体視画像においては、本来の距離に対応した遠景の画像の各部間の相対的位置関係が維持された状態で、遠景の表示位置が、右目用の疑似画像においては本来の表示位置よりも右に移動されたほぼ画像中央の位置となり、左目用の疑似画像においては本来の表示位置よりも左に移動されたほぼ画像中央の位置となる。そして、特許文献1では、遠景の移動により左目用の疑似画像と、右目用の疑似画像とのそれぞれにおける遠景の表示位置をほぼ同じにすることによって、観察者の目の疲労の軽減を図っている。
特開2010−087807号公報
しかしながら、特許文献1の技術では遠景がその各部分間の相対的な距離情報を維持したままで左右に移動されるために遠景の各部分における立体視に関する情報の過多や混在に起因したちらつき感が軽減されず、観察者の目の疲労が軽減されないといった問題がある。
本発明は、こうした問題を解決するためになされたもので、立体視画像を観察する観察者の目の疲労を軽減することが可能な技術を提供することを目的とする。
上記の課題を解決するために、第1の態様に係る画像処理装置は、被写体が撮影された基準画像を取得する第1の取得部と、前記被写体の各点のうち前記基準画像の各画素にそれぞれ対応した各点について、所定の原点位置からの距離情報を表現した各基準距離情報を取得する第2の取得部と、を備え、前記基準画像の画素配列に対応する前記各基準距離情報の配列によって基準距離画像を定義したとき、所定の判定基準によって前記基準画像と前記基準距離画像とのそれぞれに対応する画像空間を、前記被写体のうち主要被写体を含むと判定される注視領域と、該注視領域以外の非注視領域とに分類して特定する特定処理を行う特定部と、前記基準画像および前記基準距離画像のうち少なくとも一方の前記非注視領域に対応した領域の画像に対するぼかし処理の結果として前記基準画像および前記各基準距離情報にそれぞれ対応した派生画像および各派生距離情報をそれぞれ生成する生成処理を行う第1の生成部と、前記派生画像と前記各派生距離情報とに基づいて、前記基準画像が撮影された視点とは別の仮想視点からの撮影に対応した前記被写体の疑似画像を生成する第2の生成部とをさらに備える。
第2の態様に係る画像処理装置は、第1の態様に係る画像処理装置であって、前記特定部は、前記基準画像における色彩の統計的な分布状態および空間的な分布状態の少なくとも一方に基づいて前記特定処理を行う。
第3の態様に係る画像処理装置は、第1の態様に係る画像処理装置であって、前記特定部は、前記基準画像におけるぼけ部分を前記非注視領域とすることにより前記特定処理を行う。
第4の態様に係る画像処理装置は、第1の態様に係る画像処理装置であって、前記特定部は、前記基準画像の中心部分の範囲を規定した領域情報に基づいて前記特定処理を行う。
第5の態様に係る画像処理装置は、第1の態様に係る画像処理装置であって、前記第1の取得部は、前記被写体が前記基準画像とは異なる時刻に撮影された別画像を取得し、前記画像処理装置は、前記基準画像と前記別画像とに基づいて前記基準画像の各画素についての各二次元移動ベクトルを求める二次元移動ベクトル取得部を更に備え、前記特定部は、前記各二次元移動ベクトルに基づいて前記特定処理を行う。
第6の態様に係る画像処理装置は、第4の態様に係る画像処理装置であって、前記特定部は、前記各二次元移動ベクトルの消失点に基づいて前記特定処理を行う。
第7の態様に係る画像処理装置は、第1の態様に係る画像処理装置であって、前記特定部は、前記各基準距離情報に基づいて前記特定処理を行う。
第8の態様に係る画像処理装置は、第7の態様に係る画像処理装置であって、前記特定部は、前記各基準距離情報のうち所定の距離範囲の各距離情報に基づいて前記特定処理を行う。
第9の態様に係る画像処理装置は、第7の態様に係る画像処理装置であって、前記特定部は、前記各基準距離情報のうち前記基準画像についての合焦距離情報に基づいて特定される各距離情報に基づいて前記特定処理を行う。
第10の態様に係る画像処理装置は、第7の態様に係る画像処理装置であって、前記特定部は、前記基準距離画像のうち相互の距離情報の差異が所定の距離範囲内である画素が連結した所定サイズ以上の領域を前記注視領域とすることにより前記特定処理を行う。
第11の態様に係る画像処理装置は、第7の態様に係る画像処理装置であって、前記特定部は、前記基準距離画像のうち相互の距離情報の差異が所定の距離範囲内である画素が連結した所定サイズ以上の領域のうち最大サイズの領域を前記注視領域とすることにより前記特定処理を行う。
第12の態様に係る画像処理装置は、第7の態様に係る画像処理装置であって、前記特定部は、前記基準距離画像のうち所定の空間的な領域の範囲を規定した領域情報に基づいて前記特定処理を行う。
第13の態様に係る画像処理装置は、第1の態様に係る画像処理装置であって、前記第1の取得部は、前記被写体が前記基準画像とは異なる時刻に撮影された別画像を取得するとともに、前記第2の取得部は、前記被写体の各点のうち前記別画像の各画素にそれぞれ対応した各点について各別距離情報を取得し、前記画像処理装置は、前記基準画像と前記別画像と前記各基準距離情報と前記各別距離情報とに基づいて前記基準画像の各画素についての各三次元移動ベクトルを求める三次元移動ベクトル取得部を更に備え、前記特定部は、前記各三次元移動ベクトルに基づいて前記特定処理を行う。
第14の態様に係る画像処理装置は、第13の態様に係る画像処理装置であって、前記特定部は、前記各三次元移動ベクトルに基づいて前記基準画像のうち移動物が撮影された領域を抽出し、該領域を前記注視領域とすることにより前記特定処理を行う。
第15の態様に係る画像処理装置は、第13の態様に係る画像処理装置であって、前記特定部は、前記基準画像のうち前記各三次元移動ベクトルの大きさが所定の閾値以上となる領域を前記注視領域とすることにより前記特定処理を行う。
第16の態様に係る画像処理装置は、第13の態様に係る画像処理装置であって、前記特定部は、前記各三次元移動ベクトルのうち三次元移動ベクトルの延長線が前記基準画像の撮影に係る撮影系と交差する三次元移動ベクトルを特定し、特定された三次元移動ベクトルに対応する前記基準画像の領域を前記注視領域とすることにより前記特定処理を行う。
第17の態様に係る画像処理装置は、第1から第16の何れか1つの態様に係る画像処理装置であって、前記第1の生成部は、前記基準距離画像のうち前記非注視領域に対応する領域の画像に対するぼかし処理によって前記各派生距離情報を生成する。
第18の態様に係る画像処理装置は、第17の態様に係る画像処理装置であって、前記第1の生成部は、前記基準距離画像のうち前記非注視領域に対応する領域の画像に平均化フィルタ処理を施すことによって前記ぼかし処理を行う。
第19の態様に係る画像処理装置は、第17の態様に係る画像処理装置であって、前記第1の生成部は、前記基準距離画像のうち前記非注視領域に対応する領域の各画素について、該各画素をそれぞれ内包する所定サイズの領域における各距離情報の最頻値を該各画素の画素値とすることによって前記ぼかし処理を行う。
第20の態様に係る画像処理装置は、第17の態様に係る画像処理装置であって、前記第1の生成部は、前記基準距離画像のうち前記非注視領域に対応する領域における各距離情報を前記原点位置に対して遠方側にそれぞれ変更することによって前記ぼかし処理を行う。
第21の態様に係る画像処理装置は、第1から第16の何れか1つの態様に係る画像処理装置であって、前記第1の生成部は、前記基準画像のうち前記非注視領域に対応する領域の画像に対するぼかし処理によって前記派生画像を生成する。
第22の態様に係る画像処理装置は、第5または第6の態様に係る画像処理装置であって、前記第1の生成部は、a)前記基準画像のうち前記非注視領域に対応する領域の画像に対するぼかし処理によって前記生成処理を行うとともに、b)該領域の各画素に対応する前記各二次元移動ベクトルよって対応づけがされた前記別画像の各画素には、該各画素に対応付けがなされた前記基準画像の画素に適用されたぼかし処理と同一のぼかし処理を施すことによって前記別画像に対応した別派生画像を生成する。
第23の態様に係る画像処理装置は、第21または第22の態様に係る画像処理装置であって、前記第1の生成部は、前記基準画像のうち前記非注視領域に対応する領域の画像に平均化フィルタ処理を施すことによって前記ぼかし処理を行う。
第24の態様に係る画像処理装置は、第21または第22の態様に係る画像処理装置であって、前記第1の生成部は、前記基準画像のうち前記非注視領域に対応する領域において離散的に特定された各画素の画素値に基づいて、該領域のうち前記離散的に特定された各画素以外の画素の画素値を取得することによって前記ぼかし処理を行う。
第25の態様に係る画像処理装置は、第21または第22の態様に係る画像処理装置であって、前記第1の生成部は、前記基準画像のうち前記非注視領域に対応する領域における画素値の空間的な高周波成分を除去することによって前記ぼかし処理を行う。
第26の態様に係る画像処理装置は、第1の態様に係る画像処理装置であって、前記第1の生成部は、前記前記基準画像および前記基準距離画像の少なくとも一方の前記非注視領域に対応した領域の画像について、該画像のうち前記原点位置に対して前記注視領域よりも遠側の領域と、前記原点位置に対して前記注視領域よりも近側の領域とについて、異なる強度のぼかし処理をそれぞれ施す。
第27の態様に係る画像処理装置は、第1の態様に係る画像処理装置であって、前記疑似画像に基づいて立体視画像を取得する第3の取得部をさらに備える。
第28の態様に係るプログラムは、画像処理装置に搭載されたコンピュータにおいて実行されることにより、当該画像処理装置を第1から第27の何れか1つの態様に係る画像処理装置として機能させる。
第29の態様に係る画像処理方法は、被写体が撮影された基準画像を取得する第1の取得工程と、前記被写体の各点のうち前記基準画像の各画素にそれぞれ対応した各点について、所定の原点位置からの距離情報を表現した各基準距離情報を取得する第2の取得工程と、を備え、前記基準画像の画素配列に対応する前記各基準距離情報の配列によって基準距離画像を定義したとき、所定の判定基準によって前記基準画像と前記基準距離画像とのそれぞれに対応する画像空間を、前記被写体のうち主要被写体を含むと判定される注視領域と、該注視領域以外の非注視領域とに分類して特定する特定処理を行う特定工程と、前記基準画像および前記基準距離画像のうち少なくとも一方の前記非注視領域に対応した領域の画像に対するぼかし処理の結果として前記基準画像および前記各基準距離情報にそれぞれ対応した派生画像および各派生距離情報をそれぞれ生成する生成処理を行う第1の生成工程と、前記派生画像と前記各派生距離情報とに基づいて、前記基準画像が撮影された視点とは別の仮想視点からの撮影に対応した前記被写体の疑似画像を生成する第2の生成工程とをさらに備える。
第1から第27の何れの態様に係る画像処理装置または第28の態様に係るプログラムまたは第29の態様に係る画像処理方法によっても、立体視画像を観察する観察者の目の疲労を軽減することが可能になる。
図1は、実施形態に係る画像処理システムの主な構成の1例を示す図である。 図2は、実施形態に係る画像処理装置の主な機能構成の1例を示す図である。 図3は、実施形態に係るステレオカメラの主な機能構成の1例を示す図である。 図4は、ステレオカメラに係るカメラ座標系および画像座標系を例示する図である。 図5は、基準画像の1例を示す図である。 図6は、参照画像の1例を示す図である。 図7は、原距離画像の1例を示す図である。 図8は、基準画像の1例を示す図である。 図9は、基準画像における注視領域と非注視領域との1例を示す図である。 図10は、基準画像の1例を示す図である。 図11は、ラベリング処理の1例を説明するための図である。 図12は、注視領域を特定する処理の1例を説明するための図である。 図13は、平均化フィルタ55の1例を示す図である。 図14は、二次元移動ベクトルの取得処理の1例を説明する図である。 図15は、三次元移動ベクトルの算出処理の1例を説明するための図である。 図16は、三次元移動ベクトルの算出処理の1例を説明するための図である。 図17は、基準画像と参照画像とにおける視差の1例を説明するための図である。 図18は、疑似画像を生成する基本手法の1例を説明するための図である。 図19は、基準画像の部分画像と、疑似画像の部分画像とのそれぞれにおける各画素の対応関係の1例を示す図である。 図20は、基準画像の画素座標および距離情報と、疑似画像の画素座標との対応関係の1例を示す図である。 図21は、実施形態に係る画像処理装置の動作フローを例示する図である。 図22は、疑似画像を生成する基本手法の動作フローを例示する図である。
<実施形態について:>
<◎画像処理システム100Aについて:>
図1は、実施形態に係る画像処理システム100Aの主な構成の1例を示すブロック図である。図1に示されるように、画像処理システム100Aは、ステレオカメラ300と画像処理装置200Aとを主に備えて構成されている。画像処理システム100Aでは、ステレオカメラ300が撮影した基準画像21(図1、図2)および参照画像22(図1、図2)を画像処理装置200Aが取得し、画像処理装置200Aが基準画像21および参照画像22を処理することによって、基準画像21が撮影された視点とは別の仮想視点からの被写体の撮影に対応した疑似画像25(図2)、すなわち基準画像21が撮影された視点とは別の仮想視点から撮影した被写体の画像に相当する疑似画像25を生成する。
<◎ステレオカメラ300の構成と動作:>
次に、ステレオカメラ300の構成と動作について説明する。図3は、実施形態に係るステレオカメラ300の主な機能構成の1例を示す図である。図3に示されるように、ステレオカメラ300は、基準カメラ61および参照カメラ62を主に備えて構成されている。また、基準カメラ61と参照カメラ62とは、垂直方向に所定の基線長を隔てて設けられている。基準カメラ61は、撮影光学系72a、撮像素子75a、および制御処理回路85aを主に備えて構成されている。また、参照カメラ62は、撮影光学系72b、撮像素子75b、および制御処理回路85bを主に備えて構成されている。
ステレオカメラ300の各種動作は、画像処理装置200Aから入出力部41およびデータ線DLを介して供給される制御信号に基づいて制御される。ステレオカメラ300は、被写体71からの光を基準カメラ61および参照カメラ62で撮影してステレオ画像を構成する基準画像21および参照画像22を取得し、画像処理装置200Aへと供給する。
撮影光学系72aおよび72bは、薄肉レンズと該レンズを支持する不図示の鏡胴とを主に備えて構成されており、被写体71の画像をそれぞれ撮像素子75aおよび75b上に結像させる光学系である。このとき、被写体71上の物点Mの像は、光学中心73aおよび73bをそれぞれ通過する主光線76aおよび76bに沿って撮像素子75aおよび75b上にそれぞれ像点PaおよびPbとして結像される。光学中心73aおよび73bは、通常、撮像光学系の主点であるが、例えば、撮像光学系としてテレセントリック光学系が採用された場合には、通常、撮像光学系の焦点が光学中心となる。
また、仮想主光線76avは、光学中心73bを通るように主光線76aを平行移動した仮想の主光線であり、像点Paに対応する仮想の像点Pavは仮想主光線76avに沿って撮像素子75b上に設定される。
基準カメラ61および参照カメラ62の結像中心77aおよび77bは、それぞれ撮像素子75aと光軸74aとの交点、および撮像素子75bと光軸74bとの交点であり、また、撮影光学系72aおよび72b間の基線長bは、光学中心73aおよび73b間の距離である。
仮想の像点Pavと像点Pbとの距離dは、被写体71上の同一物点Mに対応する各像点PaおよびPbを、結像中心の座標が等しい共通の画像座標系で表現したときの各像点位置間の距離であり、物点Mに対する基準カメラ61と参照カメラ62との視差に相当する。なお、視差については後述する。
ここで、ステレオカメラ300については、撮影光学系72aおよび72bのそれぞれ焦点距離fr(より正確には、光学中心と撮像素子との距離)は等しく、それぞれの光軸74aおよび74bは平行である。また、撮影光学系72aおよび72bの各主平面は光軸74aおよび74bのそれぞれに垂直な同一平面上にあり、それぞれの光学中心73aおよび73bも、該同一平面上にある。さらに、それぞれの撮影光学系の撮像素子75aおよび75bは、光軸74aおよび74bのそれぞれに垂直な同一平面上にある。また、基準画像21および参照画像22の相互間での対応点探索処理が容易に行えるように、撮像素子75aおよび75bは、それぞれの走査線が平行になるように設置されている。
実際の構成においては、通常、上述した構成条件に対して誤差があるが、基準カメラ61および62から供給される基準画像21および参照画像22に対して、画像処理装置200Aがカメラパラメータなどを用いた処理(「平行化処理」とも称する)を行うことによってステレオカメラ300の各機能要素が上述した構成条件を満たす場合と同等の状態を実現することができる。
撮像素子75aおよび75bは、例えば、3456×2592画素サイズの有効画素数を持つCCDイメージセンサやCMOSイメージセンサなどによって構成される撮像素子であり、撮像素子75aおよび75bに結像された像の強度に応じた画像信号を生成して制御処理回路85aおよび制御処理回路85bに供給する。なお、撮像素子75aおよび75bは、カラーイメージセンサであっても、モノクロイメージセンサであっても本発明の有用性を損なうものではない。
図3に示される制御処理回路85aおよび制御処理回路85bは、撮像素子75aおよび75bから供給される各画像信号を同期して処理してデジタル画像に変換することにより、各撮像素子の有効画素数に応じた基準画像21(図1、図2)および参照画像22(図1、図2)を生成し、画像処理装置200Aへと供給する。生成された基準画像21および参照画像22は、被写体のステレオ画像を構成する。
なお、基準画像21と参照画像22とのそれぞれの撮影時におけるステレオカメラ300に対する被写体の位置関係が同じであれば、基準画像21と参照画像22とは、同時刻に撮影されていなくても良い。また、ステレオカメラ300は、基準カメラ61と参照カメラ62との同期をとりつつ被写体を時間順次に連続的に撮影することによって、複数の基準画像21および複数の参照画像22(「時系列ステレオ画像」とも称する)を生成することもできる。なお、ステレオカメラ300が被写体の時系列ステレオ画像を撮影する際には、ステレオカメラ300は移動していても良い。
生成された基準画像21および参照画像22は、データ線DLを介して画像処理装置200Aの入出力部41へと供給される。
○ステレオカメラ300の座標系について:
図4は、ステレオカメラ300に係るカメラ座標系C1、ならびに画像座標系C2およびC3を例示する図である。なお、図4に示される各要素のうち図3に示される各要素と同一のものについては、図3と同じ符号を付して説明を省略する。
図4に示されるように、カメラ座標系C1は、基準カメラ61の撮影光学系72aに対して設けられた直交座標系である。カメラ座標系C1の原点は光学中心73aであり、各座標軸はXc、Yc、Zcである。Zc軸の方向は光軸74aと一致しており、Xc軸と撮像素子75aの走査線とは平行である。
画像座標系C2は、基準画像21における各像点の座標を表す直交座標系である。画像座標系C2は、その原点が撮影光学系72aに対して設けられた撮像素子75aの角部Opであり、その座標軸はXa、Yaである。Xa軸の方向は撮像素子75aの水平走査方向(主走査方向)に一致し、Ya軸の方向は撮像素子75aの垂直走査方向(副走査方向)と一致している。
同様に、画像座標系C3は、参照画像22における各像点の座標を表す直交座標系である。画像座標系C3は、その原点が撮影光学系72bに対して設けられた撮像素子75bの角部Oqであり、その座標軸はXb、Ybである。Xb軸の方向は撮像素子75bの水平走査方向(主走査方向)に一致し、Yb軸の方向は撮像素子75bの垂直走査方向(副走査方向)と一致している。
なお、観察者が観察する画像は、撮像素子に結像した像の上下左右が反転されるため、観察者が観察する画像における画像座標系は、例えば、後述する図5の基準画像21に設定されたXY座標系のように、画像の左上端部が原点となり、撮像素子上での画像座標系のX軸、Y軸の向きがそれぞれ反転される。
<◎ステレオ画像に基づいた三次元測定方法の説明:>
次に、ステレオカメラ300によって撮影されるステレオ画像に基づいた三次元測定方法について説明する。該三次元測定方法は、画像処理装置200Aにおいては後述する第2ベクトル取得部19などによって使用される。平行化処理が行われた場合には、図3に示される撮影光学系72aおよび72bの主平面と物点Mとの距離Dは、視差d、焦点距離fr、および撮影光学系72aおよび72b間の基線長bを用いて(1)式によって与えられる。
(1)式に示されるように、視差は、被写体上の点のステレオカメラ300からの距離に関する指標値となっている。
また、図4に示されるカメラ座標系C1で表現された被写体71上の物点Mの座標Mcと、物点Mに対応する撮像素子75a上の像点Paの画像座標系C2で表現された座標Pacとの関係は(2)式によって与えられる。
(1)式の距離Dと(2)式で示される座標zcとは同一であるので、先ず、後述する対応点探索処理によって求められる物点Mに対応する各像点PaおよびPbについての視差dを(1)式に代入して距離Dを求め、求めた距離Dを(2)式のzcに代入することによってxcおよびycも求められる。
なお、撮影光学系72aおよび72bは収差を有しており、収差に起因した視差d、および座標Pacのそれぞれの歪みを収差補正処理によって補正すれば、物点Mの座標Mcはより正確に求められるが、収差補正処理が施されないとしても本発明の有用性を損なうものではない。また、収差補正処理の処理内容は、(3)式によって与えられる。
ここで、(1)式〜(3)式における焦点距離fr、基線長b、撮像素子の画素サイズps、結像中心座標u0およびv0、収差補正係数k1〜k5は、三次元化に用いられるカメラパラメータである。また、収差補正係数k1〜k3は、撮影光学系72aおよび撮影光学系72bのレンズの径方向の収差を補正する係数であり、収差補正係数k4〜k5は、レンズの径と直交する方向についての収差を補正する係数である。
<◎画像処理装置200Aの構成について:>
図1に示されるように、画像処理装置200Aは、CPU11A、入出力部41、操作部42、表示部43、ROM44、RAM45および記憶装置46を主に備えて構成されており、例えば、汎用のコンピュータでプログラムを実行することなどによって実現される。
入出力部41は、例えばUSBインタフェースなどの入出力インタフェース、マルチメディアドライブ、およびネットワークアダプタなどのLANやインターネットに接続するためのインタフェースなどを備えて構成され、CPU11Aとの間でデータの授受を行うものである。具体的には、入出力部41は、例えば、CPU11Aがステレオカメラ300を制御するための各種の制御信号を、データ線DLなどを介して入出力部41に接続されたステレオカメラ300へと供給する。また、入出力部41は、ステレオカメラ300が撮影した基準画像21および参照画像22を画像処理装置200Aへとそれぞれ供給する。なお、入出力部41は、予め基準画像21および参照画像22が記憶された光ディスクなどの記憶媒体を受け付けることなどによっても、基準画像21および参照画像22を画像処理装置200Aへとそれぞれ供給することができる。
操作部42は、例えば、キーボードあるいはマウスなどによって構成されており、操作者が操作部42を操作することによって、画像処理装置200Aへの各種制御パラメータの設定、画像処理装置200Aの各種動作モードの設定などが行われる。また、画像処理装置200Aの機能部は、操作部42から設定される各動作モードに応じた処理を行うことができるように構成されている。
表示部43は、例えば、液晶ディスプレイなどによって構成されており、ステレオカメラ300から供給される基準画像21、参照画像22、および画像処理装置200Aが生成する疑似画像25(図2)などの各種画像情報の表示、ならびに画像処理システム100Aに関する各種情報および制御用GUI(Graphical User Interface)などの表示を行う。
ROM(Read Only Memory)44は、読出し専用メモリであり、CPU11Aを動作させるプログラムなどを格納している。なお、読み書き自在の不揮発性メモリ(例えば、フラッシュメモリ)が、ROM44に代えて使用されてもよい。
RAM(Random Access Memory)45は、読み書き自在の揮発性メモリであり、画像処理装置200Aが取得した各種画像、ならびに画像処理装置200Aが生成する疑似画像、距離情報(距離画像)などを一時的に記憶する画像格納部、CPU11Aの処理情報を一時的に記憶するワークメモリなどとして機能する。
記憶装置46は、例えば、フラッシュメモリなどの読み書き自在な不揮発性メモリやハードディスク装置等によって構成されており、画像処理装置200Aの各種制御パラメータや各種動作モードなどの情報を恒久的に記録する。また、記憶装置46には第1生成部14Aが行うぼかし処理に用いられる平滑化フィルタを規定する情報、すなわち平滑化フィルタの種類、平滑化の強度などを規定する情報、または平滑化処理に対応したプログラムなどの平滑化処理に関する種々の情報なども記憶されている。
CPU(Central Processing Unit)11Aは、画像処理装置200Aの各機能部を統轄制御する制御処理装置であり、ROM44に格納されたプログラムに従った制御および処理を実行する。CPU11Aは、後述するように、第1取得部12、第2取得部13、第1生成部14A、第2生成部15A、第3取得部16、特定部17A、第1ベクトル取得部18、および第2ベクトル取得部19としても機能する。
CPU11Aは、これらの機能部などによって、基準視点から撮影された被写体についての基準画像21(図2)から、基準視点とは異なる仮想視点からの撮影に対応した被写体についての疑似画像25(図2)を生成する。また、CPU11Aは、ステレオカメラ300の撮像動作の制御を行うとともに、表示部43を制御して、各種画像、算出結果、および各種制御情報などを表示部43に表示させる。
また、CPU11A、入出力部41、操作部42、表示部43、ROM44、RAM45、記憶装置46等のそれぞれは、信号線49を介して電気的に接続されている。したがって、CPU11Aは、例えば、入出力部41を介したステレオカメラ300の制御およびステレオカメラ300からの画像情報の取得、および表示部43への表示等を所定のタイミングで実行できる。
なお、図1に示される構成例では、第1取得部12、第2取得部13、第1生成部14A、第2生成部15A、第3取得部16、特定部17A、第1ベクトル取得部18、および第2ベクトル取得部19の各機能部は、CPU11Aで所定のプログラムを実行することによって実現されているが、これらの各機能部はそれぞれ、例えば、専用のハードウェア回路などによって実現されてもよい。
<◎画像処理装置200Aの各機能部の動作:>
<○画像処理装置200Aの動作の概要について:>
図2は、実施形態に係る画像処理装置200Aの主な機能構成の1例を示すブロック図である。画像処理装置200Aは、基準画像21(図2)および参照画像22(図2)に基づいて被写体についての距離情報である各基準距離情報27(図2)を取得し、さらに基準画像21と、各基準距離情報27とに基づいた疑似画像25(図2)の生成を経て、立体視画像26(図2)を生成する。
先ず、図2を参照しつつ、画像処理装置200Aの動作の概要について説明する。画像処理装置200Aによる立体視画像26の生成処理においては、先ず、第1取得部12は、被写体がステレオカメラ300によって撮影された基準画像21を取得する。そして、第2取得部13は、被写体の各点のうち基準画像21の各画素にそれぞれ対応した各点について、例えば、基準カメラ61の光学中心73a(図3)などの所定の原点位置からの距離情報を表現した各基準距離情報27を取得する。なお、各基準距離情報27が基準画像21の画素配列に対応して配列された画像が原距離画像31(図2)である。
基準画像21と各基準距離情報27(原距離画像31)とがそれぞれ取得されると、特定部17Aは、所定の判定基準によって基準画像21と原距離画像31とのそれぞれに対応する画像空間を、被写体のうち主要被写体を含むと判定される注視領域と、該注視領域以外の非注視領域とに分類して特定する特定処理を行い、該画像空間における該非注視領域の範囲を規定する領域情報2a(図2)を生成する。なお、時系列に撮影された基準画像21が取得された場合には、第1ベクトル取得部18(図2)および第2ベクトル取得部19(図2)は、設定された動作モードに応じて後述する二次元移動ベクトル91(図2)および三次元移動ベクトル92(図2)をそれぞれ生成する。そして、特定部17Aは、二次元移動ベクトル91または三次元移動ベクトル92を用いて該特定処理を行うこともできる。
領域情報2aが生成されると、第1生成部14Aは、領域情報2aに基づいて基準画像21および原距離画像31のうち少なくとも一方の非注視領域に対応した領域の画像に対して後述するぼかし処理を行う。そして、該ぼかし処理の結果として第1生成部14Aは、基準画像21および各基準距離情報27にそれぞれ対応した派生画像24(図2)および各派生距離情報28(派生距離画像32)(それぞれ図2)をそれぞれ生成する。
派生画像24と各派生距離情報28(派生距離画像32)とがそれぞれ生成されると、第2生成部15Aは、基準画像21が撮影された視点とは別の仮想視点からの撮影に対応した被写体の疑似画像25(図2)を生成する。疑似画像25が生成されると第3取得部16(図2)は、基準画像21および疑似画像25を立体視画像として取得し、取得した立体視画像を表示部43に表示させる。なお、第3取得部16は、第2生成部15Aが基準画像21に基づいてそれぞれ生成した左目用の疑似画像および右目用のそれぞれの疑似画像25を立体視画像26としてそれぞれ取得することもできる。
上述したように、画像処理装置200Aによる立体視画像26の生成処理においては、派生画像24および派生距離画像32のそれぞれの注視領域の画像は、ぼかし処理が施されない基準画像21および原距離画像31のそれぞれの注視領域の画像に基づいてそれぞれ生成される。従って、疑似画像25のうち注視領域に対応した部分の色彩および明るさなどの画質は、基準画像21の注視領域に撮影された被写体の画像の画質が保持されるとともに、疑似画像25のうち注視領域に対応した部分における基準画像21との各視差には、注視領域に対応した被写体の各部分の距離が保持されて反映される。このため、立体視画像26のうち注視領域への対応部分を観察する観察者は、被写体の本来の画質と距離感とが保持された立体像を認識することができる。
一方、派生画像24および派生距離画像32のそれぞれの非注視領域の画像のうち少なくとも一方は、ぼかし処理がそれぞれ施された基準画像21の非注視領域の画像または原距離画像31の非注視領域の画像に基づいて生成される。従って、疑似画像25のうち非注視領域に対応した部分については、基準画像21の非注視領域に撮影された被写体の画像がぼかされる現象と、原距離画像31における非注視領域に対応した被写体各部の距離に基づいた疑似画像25と基準画像21との各視差のばらつきが低減される現象とのうち少なくとも一方が発生する。このため、立体視画像26のうち非注視領域への対応部分を観察する観察者は、立体画像情報の空間的変化がゆるやかになって視覚的な情報量が低減された立体像を認識する。
従って、画像処理装置200Aによって生成される立体視画像26を観察する観察者は、注視領域において本来の画質と距離感とが保持された被写体の立体像を認識できるとともに、非注視領域における立体視に関する視覚的な情報量が低減されることによって、非注視領域での立体視に関する視覚的な情報の過多や混在に起因した目の疲労を軽減され得る。立体視に関する視覚的な情報とは、例えば、色彩、明るさ、および距離情報などである。
<○画像処理装置200Aの動作の詳細について:>
図5および図6は、実施形態に係るステレオカメラ300の基準カメラ61および参照カメラ62が、それぞれ被写体を撮影した基準画像21(図2)および参照画像22(図2)の1例として基準画像21aおよび参照画像22aをそれぞれ示す図である。また、図21は、実施形態に係る画像処理装置200Aの動作フローを例示する図である。以下では、画像処理装置200Aが、基準画像21と参照画像22とに基づいて、基準画像21が撮影された視点とは別の仮想視点からの被写体の撮影に対応した疑似画像25(図2)を生成する場合を例に、画像処理装置200Aの各機能部の動作について図21の動作フローを適宜参照しつつ詳しく説明する。
仮想視点からの撮影に対応した疑似画像の生成の対象となる被写体の撮影に先立って、基準カメラ61と参照カメラ62との両方から該被写体が撮影できるように、ステレオカメラ300の位置および姿勢が調整される。例えば、基準カメラ61の撮影光学系の光学中心(主点位置など)が基準画像21が撮影された基準視点となる。ステレオカメラ300の位置および姿勢が調整された状態で、操作者からの操作などに応答して、ステレオカメラ300に撮影動作を行わせる制御信号がCPU11Aからステレオカメラ300へと供給されると、ステレオカメラ300の撮影動作が行われる。該撮影動作が終了すると、基準カメラ61および参照カメラ62によってそれぞれ撮影された、被写体についてのステレオ画像を構成する基準画像21および参照画像22がそれぞれ生成されて画像処理装置200Aの入出力部41に供給される。
○第1取得部12の動作:
被写体が撮影された基準画像21と参照画像22とが入出力部41に供給されると、第1取得部12(図2)は、入出力部41を介して基準画像21を取得するとともに(図21の動作フローS100AにおけるステップS110)、参照画像22を取得する。基準カメラ61と参照カメラ62との基線長の方向が垂直走査方向(図5、図6のY軸方向)に沿っているため、基準画像21と参照画像22とには、基準画像21a(図5)と参照画像22a(図5)とに示されるように、視差がY軸方向に沿って生じている。なお、図5および図6においては、基準画像21aと参照画像22aとのそれぞれについての画像座標系の座標軸がそれぞれ設けられている。また、本願の他の図面においても座標軸を適宜設けて説明に使用することがある。なお、第1取得部12は、予め撮影されて記録メデイアに保存された基準画像21および参照画像22を、入出力部41を介して取得してもよい。取得された基準画像21は、第2取得部13、第1生成部14A、第2生成部15A、第3取得部16、特定部17A、第1ベクトル取得部18、および第2ベクトル取得部19へと供給される。また、参照画像22は、第2取得部13へと供給される。
○第2取得部13の動作:
図7は、第2取得部13(図2)が取得する原距離画像31(各基準距離情報27)(それぞれ図2)の1例として原距離画像31a(各基準距離情報27a)を示す図である。基準画像21および参照画像22が第2取得部13に供給されると、第2取得部13は、基準画像21と参照画像22とを対象として、相関演算法などを用いたマッチング処理を行うことによって、基準画像21の各注目画素に対応する参照画像22の各対応画素を特定する。う6、これらのマッチング処理が、画素単位で行われたとしても、また画素単位以下のサブピクセル単位で行われたとしても、本発明の有用性を損なうものではない。また、基準画像21の注目画素に対応する参照画像22の対応画素を特定するマッチング処理に用いられる相関演算手法としては、例えば、NCC(Normalized Cross Correlation)法、SAD(Sum of Absolute Difference)法、またはPOC(Phase Only Correlation)法などが採用される。また、基準カメラ61と参照カメラ62との撮影倍率が異なる場合には、第2取得部13は、撮影倍率が低いカメラの撮影倍率に対する撮影倍率が高いカメラの撮影倍率の比(「撮影倍率比」とも称する)に応じて、高倍率で撮影された画像を低解像度化するとともに、低倍率で撮影された画像のうち画素数および配列形状が低解像度化された画像の画素数および配列形状と等しい部分画像を抽出し、該部分画像と、低解像度化された画像とをマッチング処理の対象とする。また、第2取得部13は、撮影倍率比に応じて低倍率で撮影された画像を画素値の補間処理などによって高解像度化するとともに、高解像度化された画像のうち画素数および配列形状が高倍率で撮影された画像の画素数および配列形状と等しい部分画像を抽出し、該部分画像と、高倍率で撮影された画像とをマッチング処理の対象としてもよい。
各対応画素の特定がなされると、第2取得部13は、相互に対応する注目画素と対応画素とについて、基準画像21の画像座標系における該注目画素の画素座標と、参照画像22の画像座標系における該対応画素の画素座標との差(本願において、「視差」とも称する)を求める処理を、基準画像21の各注目画素に対して行う。
(1)式に示されるように、視差は、被写体上の点の光学中心73a(図3)からの距離に関する指標値となっており、本願においては、視差と、距離との総称として「距離情報」という用語を使用する。また、各基準距離情報27においては、各基準距離情報27を構成する各視差が、対応する基準画像21の各画素の画素座標と関連づけられている。このため、各基準距離情報27は、例えば、基準画像21の画素配列に応じて配列された原距離画像31として取得され得る。第2取得部13によって取得された各基準距離情報27(原距離画像31)は、特定部17A、第1生成部14A、および第2ベクトル取得部19に供給される。
なお、(1)式に示されるように、視差dと距離Dとは相互に変換できるので、第2取得部13は、上述した各視差の代わりに、基準画像21の各画素に対応した被写体上の各点についての各距離を各基準距離情報27として取得しても良い。該各距離は、例えば、第2取得部13が(1)式の演算を行うこと、または、変形例についての説明欄において後述するように別の三次元測定機によって測定された被写体上の各点についての各距離を入出力部41を介して取得することなどによって取得される。すなわち、第2取得部13は、被写体の各点のうち基準画像21の各画素にそれぞれ対応した各点について、所定の原点位置からの距離情報を表現した各基準距離情報27を取得する(図21のステップS120)。
○視差の例について:
図17は、基準画像21eと参照画像22eとにおける視差の1例を説明するための図である。なお、基準画像21eは、基準カメラ61によって撮影された被写体の基準画像21(図2)の1例であり、参照画像22eは、基準カメラ61に対して垂直方向(図17の+Y方向)に所定の基線長を隔てて設けられた参照カメラ62によって撮影された該被写体の参照画像22(図2)の1例である。図17おいては、基準画像21eと参照画像22eとは、視差の把握を容易にするため該両画像の上端(下端)のY座標が等しくなるように水平方向(図17のX軸方向)に並べて表示されている。
基準画像21eと、参照画像22eとには、ステレオカメラ300に対して+Z方向に位置する同一の近側被写体についての近景被写体像66aおよび66bがそれぞれ撮影されているとともに、ステレオカメラ300に対して+Z方向に該近側被写体より遠方にある同一の遠側被写体についての遠景被写体像67aおよび67bがそれぞれ撮影されている。図17においては、説明を容易にするために、各被写体像のそれぞれにおける各特徴部のエッジ(輪郭)のみが表示されている。また、近景被写体像66a上の画素68aおよび近景被写体像66b上の画素68bは、近側被写体の同一の点にそれぞれ対応した画素であり、遠景被写体像67a上の画素69aおよび遠景被写体像67b上の画素69bは、遠側被写体の同一の点にそれぞれ対応した画素である。また、視差9aは、画素68aと画素68bとについての視差であり、視差9bは、画素69aと画素69bとについての視差である。ここで、ステレオカメラ300に対する近側被写体と遠側被写体とのそれぞれの距離の差異に起因して視差9aと視差9bとは異なった値となっている。より詳細には、近側被写体に対応した視差9aの方が遠側被写体に対応した視差9bよりも視差の大きさが大きくなっている。このように視差の大きさは、画像上の画素に対応した被写体上の点のステレオカメラ300からの距離に応じて変動する。
次に、特定部17Aの動作の説明に先立って、特定部17Aが設定された動作モードに応じて適宜使用する二次元移動ベクトル91(図2)および三次元移動ベクトル92(図2)をそれぞれ生成する第1ベクトル取得部18および第2ベクトル取得部19の動作をそれぞれ説明する。
○第1ベクトル取得部18の動作:
図14は、第1ベクトル取得部18(図2)が行う二次元移動ベクトルの取得処理の1例を説明する図である。図14に示された基準画像21fおよび21gは、静止しているステレオカメラ300の基準カメラ61によって時系列に撮影された移動中の車103を含む被写体の画像であり、基準画像21fおよび21gは同一の画像空間に重ねて表示されている。また、基準画像21gは、基準画像21fよりも後の時刻に撮影されている。基準画像21fに撮影されている車103は、消失点104の方向へ直線的に移動している。なお、車103は、基準画像21gにおいても撮影されているが、基準画像21gにおける車103の表示は省略されている。
二次元移動ベクトル91(図2)は、同一の被写体が時系列に撮影されて同一の画像空間にそれぞれ表示された複数の画像間での、該被写体上の同一の点にそれぞれ対応した各像の動きをベクトルとして表現したものである。すなわち、二次元移動ベクトル91は、該被写体上の同一の点の、例えば、カメラ座標系C1(図4)などの三次元空間における動きベクトルを、例えば、カメラ座標系C1におけるXc−Yc平面などの奥行き情報のない二次元空間に投影した動きベクトルである。時系列に撮影された各基準画像における被写体上の同一の点にそれぞれ対応した対応画素(対応点)は、該各基準画像間で、既述した相関演算法などを用いた対応点探索処理を行うことなどによって求められる。また、勾配法(gradient-based method)を用いることによって二次元移動ベクトル91が算出されても良い。勾配法を用いた二次元移動ベクトル91の算出処理では、対応点探索を行う必要がなく、処理時間をより短くすることができる。第1ベクトル取得部18は、基準画像21が時系列画像として取得された場合に、動作モード応じて二次元移動ベクトルの取得処理を行う。なお、各時系列画像の撮影時刻を用いて二次元移動ベクトル91を単位時間当りの移動ベクトルとして求めたとしても本発明の有用性を損なうものではない。
図14においては、二次元移動ベクトル91の例として2つの二次元移動ベクトル91aおよび91bが示されている。二次元移動ベクトル91aおよび91bは、基準画像21fに撮影された車103上の異なる2点にそれぞれ対応した、基準画像21fおよび21g間での二次元移動ベクトルである。基準画像21fに撮影された各被写体のうち、車103以外の被写体は静止している。このため、非零の大きさを有する二次元移動ベクトル91は、移動体である車103についてのみ求められる。従って、カメラが静止している場合には、非零の大きさを有する二次元移動ベクトル91を検出することによって、撮影された画像中の移動体を検出することができる。
ここでは、車103は基準カメラ61に対して直線的に移動しているため、図14に示されるように二次元移動ベクトル91aおよび91bをそれぞれ延長した各二次元移動ベクトルは、1の消失点(Focus of Expansion:FOE)104で交差している。消失点104は、例えば、同一の被写体の複数の各点に対応した二次元移動ベクトルをそれぞれ表現した複数の直線の方程式を連立させて最小二乗法を用いて解くことなどによって算出される。消失点は、カメラに対する各被写体の相対的な移動方向によって定められる定点となる。カメラが移動しつつ時系列画像を撮影する場合であっても、カメラに対して相対的に移動している被写体についての消失点は、静止物についての消失点とは、通常、異なった位置に存在する。従って、消失点を用いれば、カメラが移動している場合であっても、カメラに対して相対的に静止物とは異なった方向に沿って移動する移動体を検出することができる。
○第2ベクトル取得部19の動作:
図15および図16は、第2ベクトル取得部19(図2)が行う三次元移動ベクトルの算出処理の1例を説明するための図である。なお、図15および図16では、基準画像F311,F312および参照画像F321,F322が、簡略化されて表されているが、ここでは、縦方向に2592画素が配列され且つ横方向に3456画素が配列される格子状の画素配列を有する。
基準画像F311および参照画像F321は、時刻tにおいてステレオカメラ300の基準カメラ61および参照カメラ62によってそれぞれ撮影された被写体の画像が第1取得部12によってそれぞれ取得された画像である。また、基準画像F312および参照画像F322は、時刻t+Δtにおいてステレオカメラ300の基準カメラ61および参照カメラ62によってそれぞれ撮影された同じ被写体の画像が第1取得部12によってそれぞれ取得された画像である。なお、説明を容易にするために基準画像F311,F312および参照画像F321,F322においては、撮影された被写体の画像の表示は省略されている。また、被写体はステレオカメラ300に対して相対的に移動している。第2ベクトル取得部19は、基準画像21と参照画像22とがそれぞれ時系列画像として取得された場合に、三次元移動ベクトルの取得処理を行う。
この方法では、第2ベクトル取得部19などによって、以下の工程(a-1)〜(a-4)が順次に実行されることで、基準画像に撮影された被写体についての三次元移動ベクトルが求められる。
(a-1)図15で示されるように、時刻tにおいてステレオカメラ300によって撮影された基準画像F311と参照画像F321との間で、既述した相関演算法等を用いたマッチング処理が第2取得部13によって行われる。その結果、基準画像F311上の座標(i1t,j1t)で表される点P311に対して、参照画像F321から、同じある被写体の一部分をとらえた点P321の座標(i2t,j2t)が検出され、点P311の座標(i1t,j1t)と、点P321の座標(i2t,j2t)との視差、すなわち距離情報が取得される。取得された視差は、第2ベクトル取得部19に供給され、第2ベクトル取得部19は、点P311の座標(i1t,j1t)と、点P321の座標(i2t,j2t)との視差から、既述した(1)式および(2)式を用いて点P311および点P321のそれぞれに対応した被写体の一部分に係る三次元の座標(xt,yt,zt)を取得する。
(a-2)時刻tにおいてステレオカメラ300によって撮影された基準画像F311と、時刻tから時間Δt経過した時刻t+Δtにおいてステレオカメラ300によって撮影された基準画像F312との間で、第2取得部13によってマッチング処理が行われる。その結果、基準画像F311上の座標(i1t,j1t)で表される点P311に対して、基準画像F312から、該被写体の同じ一部分をとらえた点P312の座標(i1(t+Δt),j1(t+Δt))が検出される。
(a-3)図16で示されるように、時刻t+Δtにおいてステレオカメラ300によって撮影された基準画像F312と参照画像F322との間で、第2取得部13によってマッチング処理が行われる。その結果、基準画像F312上の座標(i1(t+Δt),j1(t+Δt))で表される点P312に対して、参照画像F322から、該被写体の同じ一部分をとらえた点P322の座標(i2(t+Δt),j2(t+Δt))が検出される。その結果、点P312の座標(i1(t+Δt),j1(t+Δt))と、点P322の座標(i2(t+Δt),j2(t+Δt))との視差、すなわち距離情報が取得される。取得された視差は、第2ベクトル取得部19に供給され、第2ベクトル取得部19は、点P312の座標(i1(t+Δt),j1(t+Δt))と、点P322の座標(i2(t+Δt),j2(t+Δt))との視差から既述した(1)式および(2)式を用いて点P312および点P322のそれぞれに対応した被写体の一部分に係る三次元の座標(xt+Δt,yt+Δt,zt+Δt)を求める。
(a-4)第2ベクトル取得部19によって、時刻tにおけるある被写体の一部分に係る三次元の座標(xt,yt,zt)と、時刻t+Δtにおけるある被写体の一部分に係る三次元の座標(xt+Δt,yt+Δt,zt+Δt)とから該被写体の一部についてのステレオカメラ300についての相対的な三次元空間での移動方向と大きさとが三次元移動ベクトルとして求められる。なお、第2ベクトル取得部19が、時間Δtを用いて、ステレオカメラ300と、該被写体の一部分との間における単位時間当たりの三次元移動ベクトルを取得したとしても本発明の有用性を損なうものではない。
また、上述した工程(a-1)〜(a-4)においては、同時刻にそれぞれ撮影された基準画像と参照画像とのマッチング処理、および異なる時刻にそれぞれ撮影された各基準画像間でのマッチング処理は第2取得部13によって行われているが、これらのマッチング処理が、例えば、第2ベクトル取得部19によって行われるようにするなど、各種の構成の変更が行われたとしても本発明の有用性を損なうものではない。また、これらのマッチング処理が、画素単位で行われたとしても、また画素単位以下のサブピクセル単位で行われたとしても、本発明の有用性を損なうものではない。
三次元移動ベクトルを用いれば、撮影された被写体の各部分についての三次元空間におけるカメラに対する相対的に移動情報を取得することができるので、例えば、撮影された被写体のうち、他の部分と異なる三次元的な動きをした部分、すなわち、他の部分と異なる部分を特定することができる。
◎特定部17Aの動作:
次に、特定部17Aの動作について説明する。特定部17A(図2)は、所定の判定基準によって基準画像21と原距離画像31(各基準距離情報27)とのそれぞれに対応する画像空間を、撮影された被写体のうち主要被写体を含むと判定される注視領域と、該注視領域以外の非注視領域とに分類して特定する特定処理を行う(図21のステップS130)。なお、特定部17Aは、該特定処理として、設定された各種の動作モードにそれぞれ応じた各種の特定処理を行うことができる。以下では、特定部17Aが行う各種の特定処理を順次説明する。
○被写体からの光線情報が撮影された画像情報に基づいた特定処理:
特定部17Aは、設定された動作モードに応じて、被写体からの光線情報が撮影された画像である基準画像21の画像情報に基づいた特定処理を行う。具体的には、特定部17Aは、基準画像21から色情報、ぼけ情報等を取得することにより注視領域を算出する。
・色情報に基づいた特定処理:
特定部17Aは、色情報に基づいた特定処理に対応した動作モードが設定されている場合には、取得した基準画像21に対し、シーン解析を実施するために、映像内の色情報の統計的な分布状態を示すカラーヒストグラムを算出する。特定部17Aは、算出したヒストグラムに対し、例えば、基準画像21の全画素数の5%以上かつ20%未満の度数であるなどの所定の基準を満たす色情報を抽出し、基準画像21において抽出された色情報が存在する部分を注視領域として分類して特定するとともに、基準画像21のうち該注視領域以外の部分を非注視領域として分類して特定する。
例えば、基準画像21a(図5)においては、白色の看板と、赤色服および青色の服をそれぞれ着用した大人と子供とが撮影されるとともに、これら被写体の周りには、緑色の木々と、灰色の道路とが撮影されている。従って、基準画像21aに対して上述した色情報に基づいた特定処理が適用された場合には、注視領域として看板および人物にそれぞれ対応した注視領域1aおよび1hが特定されるとともに、基準画像21aのうち注視領域1aおよび1h以外の非注視領域3aが特定される。また、特定部17Aは、例えば、算出したカラーヒストグラムに対し、最も高い度数の色情報とは異なる色情報を抽出し、基準画像21において抽出された色情報が存在する部分を注視領域として分類して特定するとともに、基準画像21のうち該注視領域以外の部分を非注視領域として分類して特定する特定処理を採用してもよい。
また、図8は、基準画像21の1例として、水色の服を着用するとともに、毛髪が黒色である人物と、該人物の背景である緑色の木々とが撮影された基準画像21bを示す図である。なお、基準画像21bにおける背景の木々は、基準カメラ61の被写界深度と該木々の距離との関係によりぼけた状態で撮影されている。従って、基準画像21bに対して上述した色情報に基づいた特定処理が適用された場合には、人物が撮影された注視領域1bと、基準画像21bのうち注視領域1b以外の非注視領域3bとがそれぞれ特定される。
なお、特定部17Aは、例えば、上述した色情報の統計的な分布状態についての所定の基準に基づいて基準画像21の各画素を2値化し、さらにラベリング処理などを施こして基準以上のサイズの連結領域を注視領域として特定してもよい、また、特定部17Aは、基準画像21の各画素を、特定の色彩であるか否かという判定基準に基づいて2値化し、ラベリング処理などを施こすことによって該色彩の連結領域を抽出し、抽出された連結領域のうち基準以上のサイズのものを注視領域として特定しても良い。上述したように、特定部17Aは、基準画像21の色彩(色情報)の統計的な分布状態、および空間的な分布状態のうち少なくとも一方に基づいて基準画像21を上述した特定処理を行う。
また、別の方法としては、色情報から抽出される肌色領域や、人物検出アルゴリズムにより、基準画像21内に人領域があると判断された場合は、その領域を注視領域として特定しても良い。このようにする理由としては、画像内にある程度の大きさで人領域が含まれる場合、撮影者は、人に対し注目して撮影していると判断することが出来るからである。
また、上述した色情報に基づいた特定処理に代えて、例えば、基準画像21の輝度情報の分布状態に基づいて注視領域と、非注視領域とを分類して特定する特定処理が採用されたとしても本発明の有用性を損なうものではない。なお、該特定処理が採用される場合には、一旦、注視領域として抽出された各領域について、領域内の輝度と、領域の周辺部分の輝度とをそれぞれ確認し、該確認の結果、例えば、周辺領域よりも30%以上高い輝度である注視領域を改めて注視領域として特定するとともに、該条件を満たさない注視領域については判定を変更して非注視領域としてもよい。低輝度の被写体と、高輝度の被写体とが混在した撮影シーンでは、観察者は、輝度が高い領域に注目する可能性が高いからである。
・画像のぼけ情報に基づいた特定処理:
特定部17Aは、画像のぼけ情報に基づいた特定処理に対応した動作モードが設定されている場合には、取得した基準画像21に対し、画像のぼけ情報を算出し、映像として鮮明な位置を注視領域として算出する。具体的には、ボケ情報は、例えば、画像内のエッジ(輪郭)を検出し、検出した各エッジの強度を、画像のぼけ状態を定量的に表現する指標値として採用することによって基準画像21を、エッジが所定の基準よりも明確な領域、すなわち注視領域と、該注領域以外の非注視領域とにそれぞれ分類して特定しても良い。画像の撮影者は、通常、主要被写体にカメラの焦点を合わせるため、主要被写体の画像は、通常、ぼけを生じず、カメラの合焦範囲から外れた主要被写体以外の被写体は、ぼけを生じる可能性が高いからである。
また、特定部17Aは、基準画像21に対して周波数解析を行うことによって、基準画像21を、空間周波数が所定の基準よりも高い領域、すなわち、主要被写体を含む注視領域と、注視領域以外の非注視領域とに分類して特定しても良い。
例えば、基準画像21b(図8)に画像のぼけ情報に基づいた特定処理が適用された場合には、基準画像21bにおいては、既述したように、人物領域の背景部分に画像ぼけが生じているため、人物が撮影された注視領域1bと、基準画像21bのうちぼけを生じた注視領域1b以外の非注視領域3bとがそれぞれ特定される。
○二次元画像における領域に基づいた特定処理:
二次元映像である基準画像21を、主要被写体に対応した注視領域と、該注視領域以外の非注視領域とに分類して特定する他の特定処理として、特定部17Aは、基準画像21において、例えば、基準画像21の中央部分を特定する領域情報に基づいて、該中央部分を注視領域として特定する動作を行うことができる。該特定処理は、主要被写体は、通常、画像の中央部分に撮影されることに基づいた特定処理である。また、例えば、基準画像21を撮影した基準カメラ61の画角が、観察者の視野角よりも広い場合は、特定部17Aは、該視野角の範囲情報に基づいて基準画像21の中央部分における該視野角の範囲のみを切り出して注視領域として特定するとともに、基準画像21のうち注視領域以外の部分を非注視領域として特定する特定処理を採用することもできる。
図9は、基準画像21aにおいてそれぞれ特定された注視領域と、基準画像21aのうち該注視領域以外の非注視領域の1例を示す図である。例えば、基準画像21aの中央部分を特定する領域情報として、画像のうちX軸方向およびY軸方向のそれぞれについて中央部分の40%に入る領域を中央部分として特定する判定基準が採用された場合には、基準画像21aは、図9に示されるように注視領域1cと非注視領域3cとにそれぞれ分類して特定される。
○二次元移動ベクトルに基づいた特定処理:
特定部17Aは、時系列に撮影された基準画像についての二次元移動ベクトルに基づいた注視領域と、非注視領域とについての特定処理に対応した動作モードが設定されている場合には、第1ベクトル取得部18が取得した基準画像21の各画素についての二次元移動ベクトル91(図2)に基づいて被写体中の移動体を検出することによって該特定処理を行う。なお、二次元移動ベクトルに基づいた該特定処理は、観察者が、通常、静止体と移動体とのうち移動体に注視することに基づいた特定処理である。
第1ベクトル取得部18の動作についての説明欄において既述したように、カメラが静止している場合には、特定部17Aは、非零の大きさを有する二次元移動ベクトル91を検出することによって、撮影された画像中の移動体を検出することができる。また、消失点を用いれば、カメラが移動している場合であっても、カメラに対して相対的に静止物とは異なった方向に沿って移動する移動体を検出することができる。従って、特定部17Aは、二次元移動ベクトル91に基づいて基準画像21の画像空間を、移動体、すなわち主要被写体が撮影された注視領域と、該注視領域以外の非注視領域とに分類して特定することができる。
図10は、基準画像21(図2)の1例として基準画像21cを示す図である。例えば、上述した二次元移動ベクトルに基づいた特定処理が、基準画像21cに適用された場合には、基準画像21cのうち走っている3人の人物をそれぞれ内包した注視領域1d、1e、および1fがそれぞれ特定されるとともに、特定された注視領域以外の非注視領域3dが特定される。
○距離情報に基づいた特定処理:
特定部17Aは、基準画像21についての距離情報、すなわち三次元の静止画像に基づいた注視領域と、非注視領域とについての特定処理に対応した動作モードが設定されている場合には、例えば、第2取得部13から供給される各基準距離情報27(原距離画像31)に基づいた以下に説明する処理1〜5の各処理のうち1つの処理を行うことなどによって該特定処理を行う。
・処理1:処理1の実施において特定部17Aは、第2取得部13から供給された各基準距離情報27を、予め設定されて記憶装置46等に記憶された距離範囲情報に基づいて、該距離範囲に入るか否かを判定することによって、原距離画像31に対応した画像空間のうち、主要被写体を含むと判定される注視領域と、該注視領域以外の非注視領域とを特定する。具体的には、例えば、上述した距離範囲情報のうちステレオカメラ300から近距離側の値を規定する情報としては、ステレオカメラ300の基線長により立体視可能な最近接近距離が採用される。逆に上述した距離範囲情報のうちステレオカメラ300から遠距離側の値を規定する情報としては、立体視映像として表示しても立体感を得ることが出来ない距離範囲のうちステレオカメラ300に対して最も近い距離が採用される。
処理1を採用すれば、特定部17Aは、例えば、非注視領域を、ステレオカメラ300の基線長により立体視可能な最近接近距離よりもさらに近い領域と、立体視映像として表示しても立体感を得ることが出来ない距離範囲の領域とにそれぞれ分類することができる。従って、非注視領域のうち上述した立体視可能な最近接近距離よりもさらに近い領域に対応した基準画像21の領域に対して第1生成部14Aが画像をぼかす処理、または該さらに近い領域に対応した原距離画像31の領域における各距離情報を立体視可能な最近接近距離に設定することなどによって、第3取得部16が生成する立体視画像26(図2)を観察者が観察したときの観察者の目の疲労を、軽減することが可能となる。
・処理2:処理2の実施において特定部17Aは、基準画像21の撮影に係る合焦距離情報に基づいて原距離画像31、すなわち原距離画像31に対応した画像空間を、主要被写体を含むと判定される注視領域と、該注視領域以外の非注視領域とに分類して特定する特定処理を行う。該特定処理に用いられる合焦距離情報は、基準カメラ61として、例えばオートフォーカスカメラが採用された場合には、基準画像21が撮影されたときの合焦距離情報が基準画像21に対応づけられて画像処理装置200Aに供給されることなどによって、特定部17Aに取得される。処理2によれば、特定部17Aは、原距離画像31のうちカメラのピントが合っている距離情報を推定し、原距離画像31のうち画素値が推定された距離情報に対応する領域のみ、あるいは原距離画像31のうち画素値が推定された距離情報の、例えば、95%〜105%の範囲の距離情報に対応する領域のみを注視領域として抽出することができる。
・処理3:処理3の実施において特定部17Aは、第2取得部13によって取得された原距離画像31における相互の距離情報の差異が所定の距離範囲内である画素が連結した連結領域のうち所定サイズ以上の領域を注視領域とすることにより原距離画像31に対応した画像空間、すなわち原距離画像31を、主要被写体を含むと判定される注視領域と、該注視領域以外の非注視領域とに分類して特定する特定処理を行う。
特定部17Aは、例えば、原距離画像31の各距離情報の分布範囲を複数の区間に分割するとともに、領域内の各距離情報が該複数の区間の1つに属する所定サイズ以上の連結領域を原距離画像31において特定する処理を、分割された区間の全てに対して順次実施することなどによって処理3に対応した特定処理を行うことができる。
図11は、特定部17Aが行う処理3および後述する処理4に係るラベリング処理の1例を説明するための図である。特定部17Aは、該ラベリング処理を、例えば、後述する(b-1)〜(b-5)の処理を行うことなどによって実現できる。
(b-1)特定部17Aは、先ず、原距離画像31の各距離情報の分布範囲を複数の区間に分割し、そのうち1の区間を選択するとともに、原距離画像31の各画素の画素値、すなわち距離情報が選択した区間の距離範囲に属するか否かという判定基準によって原距離画像31の各画素の画素値を2値化する。
(b-2)次に、特定部17Aは、2値化された原距離画像31に対してラベリング処理を施して、画素値すなわち距離情報が選択区間の距離範囲に属する各画素が連結することによって形成された全ての連結領域をそれぞれ原距離画像31において特定する。
(b-3)その後、特定部17Aは、連結領域のサイズに関する所定の判定基準に基づいて、上述した各連結領域が該所定の判定基準を満たすか否かを判定し、該基準を満たす連結領域を全て抽出する。例えば、図11の領域4gは、該抽出によって特定された連結領域が1つである場合の連結領域を例示している。また、該判定基準としては、例えば、各連結領域のうち原距離画像31のサイズの5%以上のサイズを有する領域を特定する判定基準などが採用される。
(b-4)特定部17Aは、例えば、領域4gのX軸およびY軸の各方向についての位置情報を特定し、領域4gを内包する矩形の領域を、原距離画像31の各距離情報の分布範囲が分割された複数の区間のうち選択された1つの区間についての注視領域1gとして特定する。また、原距離画像31のうち注視領域1g以外の領域3gは、選択された1つの区間について非注視領域に相当する領域である。なお、特定部17Aが、該矩形の領域を設定することなく領域4gをそのまま注視領域として特定したとしても本発明の有用性を損なうものではない。
(b-5)特定部17Aは、上述した処理(b-1)から(b-4)を、原距離画像31の各距離情報の分布範囲が複数の区間に分割された各区間についてそれぞれ行うことにより、原距離画像31の各距離情報の分布範囲の全範囲についての全ての注視領域を特定する。また、特定部17Aは、特定された全ての注視領域を原距離画像31から除いた領域を非注視領域として特定する。
例えば、図10に示される基準画像21cにおいては、3名の人物のステレオカメラ300から距離は相互に異なっているが、上述した処理3に係るラベリング処理が図10に示される基準画像21cに適用された場合には、基準画像21cのうち走っている3人の人物をそれぞれ内包した注視領域1d、1e、および1fがそれぞれ特定されるとともに、特定された注視領域以外の非注視領域3dが特定される。
処理3においては、上述したように、原距離画像31において距離情報の差異が所定の距離範囲内である画素が連結した連結領域であり、かつ、サイズが所定の基準以上である連結領域のみが注視領域として特定される。このため、たとえ原距離画像31のうち距離情報の差異が所定の距離範囲内である画素が連結した連結領域であったとしても、所定の基準よりも小さな連結領域は、非注視領域として分類される。なお、基準画像21および原距離画像31のうち少なくとも一方において該注視領域に対応する領域に対して後述する第1生成部14Aによってぼかし処理が行われるとともに、該ぼかし処理が終了した際の基準画像21および原距離画像31に基づいて第2生成部15Aでの処理によって疑似画像が生成されて立体視表示に供される。従って、上述した所定の基準よりも小さな連結領域に対しては観察者が覚える立体感が低減されるので、観察者は、該連結領域についての立体視に関する情報の過多や混在に起因したちらつき感による目の疲労を軽減することができる。
・処理4:処理4の実施において特定部17Aは、第2取得部13によって取得された原距離画像31における相互の距離情報の差異が所定の距離範囲内である画素が連結した連結領域のうち最大サイズの領域を注視領域とすることにより、原距離画像31に対応した画像空間、すなわち原距離画像31を、主要被写体を含むと判定される注視領域と、該注視領域以外の非注視領域とに分類して特定する特定処理を行う。具体的には、特定部17Aは、例えば、処理3で説明された(b-1)〜(b-5)の処理を行った後、原距離画像31において特定された各注視領域のうち最大サイズのものを唯一の注視領域として特定することによって処理4を行うことができる。従って、特定部17Aが処理4を行えば、画像処理装置200Aが生成する立体視画像のうち唯一特定された注視領域以外の非注視領域に対応した部分について、画像処理装置200Aは観察者が覚える立体感を低減することができるので、観察者は、該非注視領域の立体視に関する情報に起因したちらつき感による目の疲労を処理3が行われた場合よりもさらに軽減することができる。
・処理5:処理5の実施において特定部17Aは、第2取得部13によって取得された原距離画像31の画像空間のうち所定の領域の範囲を規定した領域情報に基づいて、原距離画像31に対応した画像空間、すなわち原距離画像31を、主要被写体を含むと判定される注視領域と、該注視領域以外の非注視領域とに分類して特定する特定処理を行う。特定部17Aは、例えば、図7に示された原距離画像31aのうちX軸方向およびY軸方向のそれぞれについて中央部分の40%に入る領域を中央部分として特定する判定基準などに基づいて、原距離画像31の画像空間のうち中央部分の領域を注視領域として特定する。特定部17Aが処理5を行えば、画像処理装置200Aが生成する立体視画像のうち原距離画像31において特定された非注視領域、すなわち中央部分を除いた周辺部分に対応した部分について、画像処理装置200Aは観察者が覚える立体感を低減することができ、該部分のちらつき感による観察者の目の疲労を軽減することができる。
○三次元移動ベクトルに基づいた特定処理:
特定部17Aは、三次元移動ベクトルに基づいた注視領域と、非注視領域とについての特定処理に対応した動作モードが設定されている場合には、第2ベクトル取得部19が取得した基準画像21の各画素についての三次元移動ベクトル92(図2)に基づいて被写体中の移動体を検出することによって基準画像21および原距離画像31のそれぞれに対応した画像空間を、注視領域と、注視領域以外の非注視領域とに分類して特定する特定処理を行う。なお、三次元移動ベクトルに基づいた該特定処理は、二次元移動ベクトルに基づいた特定処理と同様に、観察者が、通常、静止体と移動体とのうち移動体に注視することに基づいた特定処理である。
第2ベクトル取得部19の動作についての説明欄において既述したように、特定部17Aが三次元移動ベクトルを用いれば、撮影された被写体の各部分に対して、三次元空間におけるカメラに対する相対的な移動情報を取得することができるので、特定部17Aは、例えば、撮影された被写体のうち、他の部分と異なる三次元的な動きをした部分、すなわち、他の部分と異なる部分を注視領域として特定することができる。また、特定部17Aは、基準画像21の各画素に対応する各三次元移動ベクトル92について、三次元移動ベクトルの大きさ、すなわち、被写体の各部の移動量が、例えば、ステレオカメラ300から被写体までの距離の10%以上であるなど、所定の閾値以上であるか否かを判定することによって、基準画像21に撮影された移動体、すなわち注視領域を特定する特定処理を行うこともできる。
また、特定部17Aは、基準画像21に撮影された被写体の各部の移動方向、すなわち三次元移動ベクトル92の方向に基づいて、基準画像21および原距離画像31のそれぞれに対応した画像空間を、注視領域と、注視領域以外の非注視領域とに分類して特定する特定処理を行ったとしても本発明の有用性を損なうものではない。
図12は、特定部17Aが三次元移動ベクトル92の方向に基づいて注視領域を特定する処理の1例を説明するための図である。図12に示されるように、基準カメラ61の光学中心73aをそれぞれ通る撮影視野端78aおよび78bによって規定される基準カメラ61の撮影視野において被写体71cおよび71dがそれぞれ時間の経過とともに移動している。三次元移動ベクトル92aおよび92bは、被写体71cおよび71dにそれぞれ対応した三次元移動ベクトルであり、第2ベクトル取得部19によって取得されている。
ここで、三次元移動ベクトル92aの延長線は、基準カメラ61に交差しているが、三次元移動ベクトル92bの延長線は、基準カメラ61と交差していない。すなわち、それぞれ移動体である被写体71cおよび71dが時系列に撮影された各基準画像21においては、時間の経過とともに被写体71cの画像が基準画像21の中央部分へ拡大しながら近づく一方、被写体71dの画像は時間の経過とともに基準画像21の画面から消えていく。この場合、観察者は、それぞれ移動体である被写体71cおよび71dのうち、通常、被写体71cを注視する。
従って、特定部17Aは、三次元移動ベクトル92に基づいて基準カメラ61に向かってくる被写体、すなわち三次元移動ベクトル92の延長線が基準カメラ61と交差する被写体については、該被写体の画像を含む領域を注視領域であると判定するとともに、三次元移動ベクトル92の延長線が基準カメラ61と交差せずに去っていく被写体については、該被写体の画像を非注視領域として判定することによって、上述した特定処理を行う。
三次元移動ベクトル92が基準カメラ61と交差するか否かを判定する交差判定の手法としては、例えば、基準カメラ61の位置に基準カメラ61とほぼ同サイズの立体領域を設定し、該立体領域の外縁を形成する各面と三次元移動ベクトル92の延長線とが交差するか否かを判定する手法などが採用され得る。
上述したように、特定部17Aは、設定された動作モードに応じて、基準画像21と原距離画像31(各基準距離情報27)とのそれぞれに対応する画像空間を、撮影された被写体のうち主要被写体を含むと判定される注視領域と、該注視領域以外の非注視領域とに分類して特定する特定処理を行う。該特定処理が完了すると特定部17Aは、非注視領域の範囲を規定する領域情報2a(図2)を生成する。生成された領域情報2aは、第2生成部15Aに供給される。また、特定部17Aの動作モードは、例えば、操作者が操作部42を介して設定する手法、取得された基準カメラ61が時系列画像であるか否かをCPU11Aが判定することによって設定する手法などの各種の手法によって設定される。
なお、上述した特定部17Aの動作説明においては、基準画像21のうち注視領域を抽出する判定基準に基づいて、基準画像21と原距離画像31とのそれぞれに対応する画像空間を、撮影された被写体のうち主要被写体を含むと判定される注視領域と、該注視領域以外の非注視領域とに分類して特定する特定処理の例を説明したが、特定部17Aが、基準画像21のうち注視領域を抽出する判定基準に代えて、基準画像21のうち非注視領域を判定する判定基準を採用することによって該特定処理を行ったとしても本発明の有用性を損なうものではない。
○第1生成部14Aの動作:
領域情報2aを供給されると第1生成部14Aは、領域情報2aに基づいて基準画像21および原距離画像31のうち少なくとも一方の非注視領域に対応した領域の画像に対してぼかし処理を行う。その結果、第1生成部14Aは、基準画像21および各基準距離情報27にそれぞれ対応した派生画像24(図2)および各派生距離情報28(派生距離画像32)(それぞれ図2)をそれぞれ生成する(図21のステップS140)。
ここで、第1生成部14Aは、基準画像21および原距離画像31のうち基準画像21のみの非注視領域に対応した領域の画像に対してぼかし処理を行う場合には、通常、各基準距離情報27に対応した各派生距離情報28(派生距離画像32)として各基準距離情報27(原距離画像31)自体を採用する。しかしながら、原距離画像31に対して、例えば、ランダムノイズの除去などを目的として、ぼかし強度が、例えば、非注視領域に対するぼかし処理のぼかし強度の10%以下であるなどの、ぼかし強度の弱いぼかし処理が施された距離画像が派生距離画像32として採用されたとしても本発明の有用性を損なうものではない。同様に、第1生成部14Aは、基準画像21および原距離画像31のうち原距離画像31のみの非注視領域に対応した領域の画像に対してぼかし処理を行う場合には、通常、基準画像21に対応した派生画像24として基準画像21自体を採用する。しかしながら、基準画像21に対して、例えば、ランダムノイズの除去などを目的として、ぼかし強度が、例えば、非注視領域に対するぼかし処理のぼかし強度の10%以下であるなどの、ぼかし強度の弱いぼかし処理が施された基準画像が派生画像24として採用されたとしても本発明の有用性を損なうものではない。
第1生成部14Aが行う基準画像21および原距離画像31などの画像データに対するぼかし処理としては、例えば、平均化フィルタ、メディアンフィルタ、またはガウシアンフィルタなどの各種の平滑化フィルタを用いた平滑化フィルタ処理などが採用される。また、平滑化フィルタの平滑化強度は、例えば、フィルタのサイズを変更することなどによって変更され得る。また、第1生成部14Aが、例えば、ぼかし処理の対象領域の各画素の画素値を、該対象領域の各画素の画素値の平均値などの該対象領域における画素値の代表値に置き換える処理をぼかし処理として行ったとしても本発明の有用性を損なうものではない。
図13は、平均化フィルタ55の1例を示す図である。図13に示された平均化フィルタ55は、各行列要素の値が1であり、図示の都合上、5×5画素(5行5列)サイズとして表示されている。平均化フィルタ55では、X方向およびY方向のそれぞれ画素数(要素数)を規定するパラメータKの値に応じて、フィルタサイズ、すなわち平滑化強度が変動する。平均化フィルタ55が平滑化処理の対象である画像データに適用される場合には、平滑化対象の画像データに係る画像空間のうち着目画素を中心とした、平均化フィルタ55と同サイズの領域に対して平均化フィルタ55が重ねられる。そして、該領域内の各画素の画素値と、各画素にそれぞれ正対している平均化フィルタ55の各行列要素の値との積和演算が行われ、該演算結果を積和演算の対象となった画素数で除算した値を、着目画素の画素値に置き換える処理が行われる。また、基準画像21および原距離画像31の非注視領域に対するぼかし処理のために平均化フィルタ55が適用される場合には、基準画像21および原距離画像31の画像サイズが3456画素×2592画素であれば、パラメータKの値としては、例えば、100〜400程度の値が採用される。
なお、第1生成部14Aは、特定部17Aと同様に設定された動作モードに応じて以下に説明する各種のぼかし処理を行うことできる。また、該動作モードは、例えば、操作者が操作部42を介して設定する手法や、特定部17Aの動作モードを第1生成部14Aが判定することによって設定する手法などの各種の手法によって設定される。
○ぼかし処理1:ぼかし処理1に対応した動作モードが設定された場合には、第1生成部14Aは、原距離画像31のうち非注視領域に対応する領域の画像、すなわち各距離情報に対するぼかし処理を行うことによって各派生距離情報28を生成する。また、第1生成部14Aは、動作モードに応じて、原距離画像31の非注視領域を、該非注視領域に撮影された被写体各部の距離が所定の基準距離よりも各距離情報の原点位置、すなわち基準カメラ61の光学中心73aに近い近側の領域と、該原点位置に対して該基準距離よりも遠い遠側の領域とに区分し、該近側の領域と、該遠側の領域とにそれぞれ強度の異なるぼかし処理を施す処理も行い得る。なお、立体視画像26を観察する観察者が覚える違和感を軽減するために、該近側の領域に対するぼかし強度は、該遠側の領域に対するぼかし強度よりも、通常、弱く設定される。また、該近側の領域と、外縁側の領域との区分けに使用される基準距離としては、例えば、原距離画像31のうち注視領域に対応した領域の各距離情報の平均値などが採用される。
また、第1生成部14Aは、ぼかし処理1についてさらに詳細な処理内容が規定された以下のぼかし処理1A〜1Cの各処理のうち1つの処理を動作モードに応じて行うこともできる。なお、第1生成部14Aが、ぼかし処理1A〜1Cのいずれの処理を行ったとしても本発明の有用性を損なうものではない。
・ぼかし処理1A:ぼかし処理1Aに対応した動作モードが設定されている場合には、第1生成部14Aは、原距離画像31のうち非注視領域に対応する領域の画像に対して、例えば、平均化フィルタ55(図13)などを用いた平均化フィルタ処理を施すことによってぼかし処理を行って各派生距離情報28を生成する。なお、平均化フィルタ処理に代えて、例えば、メディアンフィルタ、またはガウシアンフィルタなどの各種の平滑化フィルタを用いた平滑化フィルタ処理が施されたとしても本発明の有用性を損なうものではない。
・ぼかし処理1B:ぼかし処理1Bに対応した動作モードが設定されている場合には、第1生成部14Aは、原距離画像31のうち非注視領域に対応する領域の各画素について、該各画素をそれぞれ内包する、例えば、3×3画素サイズ〜50×50画素サイズなどの所定サイズの領域における各距離情報の最頻値を例えばヒストグラムなどの各距離情報の統計的な分布状態に基づいて特定し、特定された最頻値を該各画素の画素値とすることによってぼかし処理を行って各派生距離情報28を生成する。
・ぼかし処理1C:ぼかし処理1Cに対応した動作モードが設定されている場合には、第1生成部14Aは、原距離画像31のうち非注視領域に対応する領域における各距離情報を、各距離情報についての原点位置、すなわち基準カメラ61の光学中心73aに対して、より遠方側にそれぞれ変更することによってぼかし処理を行って各派生距離情報28を生成する。
○ぼかし処理2:ぼかし処理2に対応した動作モードが設定された場合には、第1生成部14Aは、基準画像21のうち非注視領域に対応する領域の画像に対するぼかし処理によって派生画像24を生成する。なお、時系列画像として取得された基準画像21と、基準画像21とは異なる時刻に撮影された別の基準画像とに基づいて各二次元移動ベクトルが第1ベクトル取得部18によって取得されている場合には、第1生成部14Aは、動作モードに応じて、該別の基準画像に対して二次元移動ベクトルを用いたぼかし処理を行うことができる。具体的には、取得された二次元移動ベクトルに基づいて基準画像21の非注視領域が特定された場合には、第1生成部14Aは、基準画像21のうち非注視領域に対応する領域の画像に対するぼかし処理を施し、その結果として派生画像24を生成する。なお、基準画像21の非注視領域に対応する領域の各画素には、二次元移動ベクトルによって対応付けられた該別の基準画像の各画素が存在する。そして、第1生成部14Aは、基準画像21の非注視領域における各画素に適用されたぼかし処理を該別の基準画像該各画素に対応付けがなされた施すことによって該別の基準画像に対応した派生画像を生成することもできる。上述したように時系列の各基準画像間の対応した画素に対して同一のぼかし処理が行われれば、時系列の各基準画像に基づいて生成された時系列の立体視画像(動画像)を観察する観察者が覚える違和感を軽減することができるとともに、時系列方向でのちらつき感を抑制することができ、観察者の目の疲労を軽減することができる。
また、第1生成部14Aは、動作モードに応じて、原距離画像31のうち領域情報2aによって特定される非注視領域以外の注視領域に対応した領域の画像について、該領域の各距離情報の平均値を求めることなどによって該注視領域を代表する距離情報を取得するとともに、該距離情報に基づいて原距離画像31のうち非注視領域に対応した領域を、各距離情報の原点位置、すなわち基準カメラ61の光学中心73aに対して注視領域よりも遠側の領域と、注視領域よりも近側の領域とに区分し、区分された2つの領域に対して強度の異なるぼかし処理をそれぞれ施す処理も行い得る。なお、立体視画像26を観察する観察者が覚える違和感を軽減するために、該近側の領域に対するぼかし強度は、該遠側の領域に対するぼかし強度よりも、通常、弱く設定される。
また、第1生成部14Aは、ぼかし処理2についてさらに詳細な処理内容が規定された以下のぼかし処理2A〜2Cの各処理のうち1つの処理を動作モードに応じて行うこともできる。なお、第1生成部14Aが、ぼかし処理2A〜2Cのいずれの処理を行ったとしても本発明の有用性を損なうものではない。
・ぼかし処理2A:ぼかし処理2の具体的な手法として、第1生成部14Aは、動作モードに応じて基準画像21のうち領域情報2aにより特定される非注視領域に対応する領域の画像に対して平均化フィルタ55(図13)などを用いた平均化フィルタ処理を施すぼかし処理2Aを採用し得る。
・ぼかし処理2B:同様に、第1生成部14Aは、動作モードに応じて基準画像21のうち非注視領域に対応する領域において空間的に離散的に存在する各画素を特定するとともに、特定された各画素の画素値に基づいて、基準画像21のうち非注視領域に対応する領域のうち離散的に特定された各画素以外の画素の画素値を取得することによってぼかし処理を行うぼかし処理2Bを採用することもできる。具体的には、第1生成部14Aは、例えば、基準画像21を複数領域に分割して、各領域ごとに中心画素を離散的に特定し、各領域の画素のうち特定された画素以外の画素の画素値として、各領域に置いて特定された画素の画素値を採用することによってぼかし処理2Bを行う。
・ぼかし処理2C:また、ぼかし処理2の具体的な手法として、第1生成部14Aは、基準画像21のうち非注視領域に対応する領域における画素値の空間的な高周波成分を周波数解析などの手法を用いて除去することによってぼかし処理を行うぼかし処理2Cを採用することもできる。
なお、第1生成部14Aが、基準画像21に対してぼかし処理を行う手法に代えて、後述する第2生成部15Aが、基準画像21と、原距離画像31または派生距離画像32とに基づいて生成した疑似画像に対して、例えば第2生成部15Aが、生成された疑似画像のうち基準画像21の非注視領域に対応した領域の画像をぼかす手法が採用されたとしても本発明の有用性を損なうものではない。
第1生成部14Aが行うぼかし処理によって、派生画像24(図2)および各派生距離情報28(派生距離画像32)がそれぞれ生成されると、生成された派生画像24(図2)および各派生距離情報28(派生距離画像32)は、第2生成部15Aへとそれぞれ供給される。
○第2生成部15Aの動作:
図2に示される第2生成部15Aは、派生画像と各派生距離情報とに基づいて、基準画像21が撮影された視点とは別の仮想視点からの撮影に対応した被写体の疑似画像25を生成する(図21のステップS150)。生成された疑似画像25は、第3取得部16へと供給されて立体視画像26の取得に供される。なお、第2生成部15Aは、設定された動作モードに応じて、立体視画像26を構成する左目用の画像と右目用の画像とのうち一方の画像として1つの疑似画像25を生成する処理を行うことができるとともに、動作モードに応じて、左目用の画像および右目用の画像として2つの疑似画像25をそれぞれ生成する処理を行うこともできる。また、第2生成部15Aが表示部43に係る情報に基づいて疑似画像25の視差量を調整したとしても本発明の有用性を損なうものではない。
次に、第2生成部15Aが、基準画像の各画素に対応した各視差、または各距離などの各距離情報に基づいて疑似画像を生成する手法について説明する。図18は、図17に示された基準画像21eと参照画像22eとについての各視差と、基準画像21eとに基づいて、基準画像21eが撮影された視点とは別の仮想視点からの被写体の撮影に対応した疑似画像25eを生成する基本手法の1例を説明するための図である。
なお、図18における疑似画像25eに対応した仮想視点は、基準画像21eが撮影された視点に対して、X軸に沿って+X方向に、基準カメラ61と参照カメラ62との基線長を隔てた位置に存在している。また、疑似画像25eにおける近景被写体像66cおよび遠景被写体像67cは、基準画像21における近景被写体像66aおよび遠景被写体像67aにそれぞれ対応している。また、近景被写体像66a上の画素68aには、近景被写体像66c上の画素68cが対応し、遠景被写体像67a上の画素69aには、遠景被写体像67c上の画素69cが対応している。なお、図18においても、図17と同様に、説明を容易にするために、各被写体像のそれぞれにおける各特徴部のエッジ(輪郭)のみが表示されているとともに、視差の把握を容易にするため基準画像21eと疑似画像25の左端(右端)のX座標が等しくなるように垂直方向(図18のY軸方向)に並べて表示されている。
この場合、基準画像21eの画素68aと、疑似画像25eの画素68cとの視差として、図17における画素68aと画素68bとの視差9aが設定されるとともに、基準画像21eの画素69aと、疑似画像25eの画素69cとの視差として、図17における画素69aと画素69bとの視差9bが設定される。また、疑似画像25eの他の画素についても同様に基準画像21eの画素との視差が設定されることによって、疑似画像25eの各画素についての基準画像21eの各画素との視差が取得される。そして、取得された視差に基づいて基準画像21eを変形させることによって疑似画像25eが取得される。
次に、基準画像と視差とに基づいて疑似画像を生成する上述した基本手法について詳しく説明する。図22は、基準画像21eと、基準画像21eの各画素についての距離情報とに基づいて疑似画像25eを生成する上述した基本手法の動作フローS10を例示する図である。
図22の動作フローS10の処理が開始されると、基準画像21e(図18)の上端(−Y方向端)における水平走査方向(X軸方向)の1ライン分の部分画像23a(図19)が選択される(ステップS20)。
図19は、基準画像21e(図18)の上端(−Y方向端)の水平走査方向(X軸方向)の1ライン分の部分画像23a(図19)の一部の各画素7a〜7jと、基準画像21eに対応した疑似画像25e(図18)の上端(−Y方向端)の水平走査方向の1ライン分の部分画像23b(図19)の一部の各画素8a〜8jとの対応関係の1例を示す図である。また、部分画像23aと部分画像23bとは、被写体の同一部分にそれぞれ対応している。なお、該対応関係の把握を容易にするために、各画素7a〜7jと、各画素8a〜8jとは、画素値に応じた濃淡によって画素毎に区分されて表示されている。
図20は、部分画像23a(図19)の各画素7a〜7jの画素座標および視差(距離情報)と、部分画像23b(図19)の各画素8a〜8jの画素座標との対応の1例を示す図である。図20の第1行目と第5行目には、部分画像23aの各画素7a〜7jをそれぞれ特定する画素番号と、部分画像23bの各画素8a〜8jをそれぞれ特定する画素番号とが示されている。また、図20の第2行目には、各画素7a〜7jのX座標が第1行目に示された画素番号に対応づけられて示されている。また、図20の第3行目には基準画像21eと参照画像22e(図17)とについて算出された視差(距離情報)のうち各画素7a〜7jに対応した視差が第1行目に示された画素番号に対応づけられて示されている。
図22のステップS20において、1ライン分の部分画像23aが選択されると、選択された部分画像23aの各画素について、疑似画像25eにおいて対応する画素、すなわち部分画像23bの各画素8a〜8jの水平走査方向(X軸方向)の画素座標(X座標)が取得される(図22のステップS30)。
ここで、上述した基本手法は、疑似画像25e(図18)に対応した仮想視点が、基準画像21e(図17、図18)が撮影された視点に対して、X軸に沿って+X方向に、基準カメラ61と参照カメラ62との基線長を隔てた位置に存在している場合の手法である。従って、部分画像23aと部分画像23bとのそれぞれの垂直方向(Y軸方向)の画素座標(Y座標)は同じである。また、図20の第3行目に示された視差は、部分画像23aと、部分画像23bとの視差でもある。
従って、部分画像23bの各画素のX座標は、(4)式によって算出される。図20の第4行目には、(4)式によって算出された各画素8a〜8jのX座標がそれぞれ第5行目に示された各画素番号に対応づけられて示されている。
疑似画像25eの水平方向の1ライン分の部分画像23bにおける各画素の画素座標が取得されると、次に、部分画像23bの各画素の画素値がそれぞれ取得される。すなわち、1ライン分の部分画像23bの画像が生成される(図22のステップS40)。次に、ステップS40における処理を、図19に示された部分画像23aの各画素7a〜7jと、部分画像23bの各画素8a〜8jを例として説明する。
図20の第4行目に示された各画素8a〜8jのX座標によれば、部分画像23aの各画素7a、7b、7c、7d、7e、7f、7g、7h、7i、7jは、部分画像23bの各画素8a、8b、8b、8c、8d、8d、8e、8g、8i、8jにそれぞれ対応している。すなわち、各画素8a〜8jには、各画素7a〜7jのうち1つの画素が対応している第1種の画素、2つの画素が対応している第2種の画素、および各画素7a〜7jの何れの画素も対応していない第3種の画素の3種類の画素が存在している。
図22のステップS40の処理においては、該第1種の画素の画素値として、該画素に対応する部分画像23aの画素の画素値が採用され、また、該第2種の画素の画素値として、該画素に対応する部分画像23aの2つの画素の画素値の代表値、例えば、平均値が採用される。また、該第3種の画素の画素値としては、例えば、部分画像23aとの対応関係に基づいて画素値が取得された部分画像23bの画素のうち該第3種の画素に最も空間的に近い画素の画素値が採用される。そして、部分画像23bの画像は、部分画像23bの各画素についてそれぞれ特定された画素座標(X座標)と、画素値とによって特定される。
ステップS40の処理が終了すると、基準画像21eの水平方向(X軸方向)の全てのラインについて、対応する疑似画像の部分画像を生成する処理(ステップS30〜S40)が終了したか否かが確認される(図22のステップS50)。ステップS50での確認の結果、水平方向の全てのラインについて処理が終了していなければ、基準画像21のうち、処理されたラインの+Y方向の次のラインが新たな処理対象として選択されて(図22のステップS60)、処理はステップS30へと戻される。また、ステップS50での確認の結果、水平方向の全てのラインについて疑似画像の部分画像を生成する処理が終了していれば、疑似画像25eの生成処理は終了される。
なお、視差に基づいた基準画像21eの変形は、画素サイズを最小単位として行えばよい。従って、画素サイズ単位で視差が取得されれば疑似画像25eを取得できるが、例えば、視差を求めるための対応点探索を画素サイズ以下のサブピクセル単位で実施することにより視差をサブピクセル単位で取得したとしても、視差に基づいた基準画像21eの変形の際に、該変形量を画素単位で行えば疑似画像25eが取得できるので、本発明の有用性を損なうものではない。
次に、仮想視点と、基準画像21eの撮影に係る視点との基線長が、図17における基準画像21eと参照画像22eとにそれぞれ対応した基準カメラ61と参照カメラ62との基線長とは異なる場合における疑似画像の取得手法について説明する。この場合には、例えば、先ず、基準画像21eの各点の視差から(1)式を用いて該各点に対応した被写体の各点の距離を算出し、算出された距離、および仮想視点と基準画像21eの撮影に係る視点との基線長に基づいて、基準画像21eの各画素と、疑似画像25の各画素との視差を(1)式によって取得し、取得された視差に基づいて基準画像21eの画像を変形することによって該異なる基線長に対応した疑似画像25を取得することが出来る。従って、変形例についての説明欄で後述するように、ステレオカメラ300に代えて各種の三次元測定機を採用することができる。
第2生成部15Aは、基準画像21および各基準距離情報27にそれぞれ対応した派生画像24および各派生距離情報28(派生距離画像32)に、例えば、上述した疑似画像25の生成に係る基本手法などを適用して基準画像21を変形することによって、基準画像21が撮影された視点とは別の仮想視点からの撮影に対応した被写体の疑似画像25を生成する。生成された疑似画像25は、第3取得部16に供給される。
○第3取得部16の動作:
図2に示される第3取得部16は、第1取得部12および第2生成部15Aからそれぞれ供給された基準画像21および疑似画像25を立体視画像として取得し、取得した立体視画像を表示部43に表示させる。なお、第3取得部16は、第2生成部15Aが基準画像21に基づいてそれぞれ生成した左目用の疑似画像および右目用の疑似画像を立体視画像として取得することもできる。また、第3取得部16は、記憶装置46に記憶されたステレオカメラ300と観察者の両眼とについての基線長および焦点距離の差異、表示部43のサイズ情報などに応じて疑似画像25を変形し、立体視画像を生成することもできる。
上述したように、画像処理装置200Aによれば、画像処理装置200Aが生成した立体視画像26を観察する観察者は、注視領域において本来の画質と距離感とが保持された被写体の立体像を認識できるとともに、非注視領域における立体視に関する視覚的な情報量が低減されることによって、非注視領域での立体視に関する視覚的な情報の過多や混在に起因した目の疲労を軽減され得る。
<変形例について:>
以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
例えば、上述した画像処理システム100Aにおけるステレオカメラ300では、基準カメラ61と参照カメラ62との基線長の方向は垂直方向であったが、該基線長の方向は、水平方向その他の任意の方向でもよい。また、基準カメラ61と参照カメラ62との撮影倍率は、異なっていても良い。
また、ステレオカメラ300に代えて、例えば、基準カメラ61と、レーザ光などの形状計測用の各種検出光を被写体へと投影する投光装置とを備えて構成され、三角測量の原理、または、TOF(Time of Flight)方式などによって被写体の基準画像21と、基準画像21の各画素に対応した被写体の各点についての距離情報とを取得するアクティブ測距方式の三次元測定機が採用されたとしても、該距離情報と(1)式とによって、基準画像21に対する疑似画像25の視差を取得し、該視差と基準画像21とに基づいて疑似画像25を取得することが出来るので、本発明の有用性を損なうものではない。
また、通常、被写体を撮影した画像の彩度は、被写体が近いほど彩度が高く、被写体が遠いほど彩度が低くなるので、ステレオカメラ300に代えて、基準カメラ61によって基準画像21を取得するとともに、基準画像21の彩度に基づいて、基準画像21の各画素に対応する距離情報を推定して取得する方式の三次元測定機が採用されたとしても本発明の有用性を損なうものではない。また、例えば、基準画像21(図5)の各画素について、画素のY座標が増加すればするほど該画素に対応した被写体上の点が基準カメラ61に対して遠距離であるとの仮定に基づいて、基準画像21の各画素に対応する距離情報を推定して取得する手法が採用されたとしても本発明の有用性を損なうものではない。
また、基準画像21の撮影に係る視点とは異なる視点から撮影される画像に基づいて被写体についての距離情報の測定を行う三次元測定機と、基準カメラ61とがステレオカメラ300に代えて採用されたとしても、該異なる視点に係る画像と、基準画像21とのマッチングを介することによって、基準画像21と測定された距離情報との対応付けを行うことができるので、本発明の有用性を損なうものではない。
100A 画像処理システム
200A 画像処理装置
300 ステレオカメラ
2a 領域情報
3a,3b 非注視領域
9a,9b,d 視差
21 基準画像
22 参照画像
23a,23b 部分画像
24 派生画像
25 疑似画像
26 立体視画像
27 各基準距離情報
28 各派生距離情報
31 原距離画像
32 派生距離画像
55 平均化フィルタ
61 基準カメラ
62 参照カメラ
66a,66b 近景被写体像
67a,67b 遠景被写体像
91 二次元移動ベクトル
92 三次元移動ベクトル
104 消失点
b 基線長

Claims (29)

  1. 画像処理装置であって、
    被写体が撮影された基準画像を取得する第1の取得部と、
    前記被写体の各点のうち前記基準画像の各画素にそれぞれ対応した各点について、所定の原点位置からの距離情報を表現した各基準距離情報を取得する第2の取得部と、
    を備え、
    前記基準画像の画素配列に対応する前記各基準距離情報の配列によって基準距離画像を定義したとき、
    所定の判定基準によって前記基準画像と前記基準距離画像とのそれぞれに対応する画像空間を、前記被写体のうち主要被写体を含むと判定される注視領域と、該注視領域以外の非注視領域とに分類して特定する特定処理を行う特定部と、
    前記基準画像および前記基準距離画像のうち少なくとも一方の前記非注視領域に対応した領域の画像に対するぼかし処理の結果として前記基準画像および前記各基準距離情報にそれぞれ対応した派生画像および各派生距離情報をそれぞれ生成する生成処理を行う第1の生成部と、
    前記派生画像と前記各派生距離情報とに基づいて、前記基準画像が撮影された視点とは別の仮想視点からの撮影に対応した前記被写体の疑似画像を生成する第2の生成部と、
    をさらに備える画像処理装置。
  2. 請求項1に記載された画像処理装置であって、
    前記特定部は、前記基準画像における色彩の統計的な分布状態および空間的な分布状態の少なくとも一方に基づいて前記特定処理を行う画像処理装置。
  3. 請求項1に記載された画像処理装置であって、
    前記特定部は、前記基準画像におけるぼけ部分を前記非注視領域とすることにより前記特定処理を行う画像処理装置。
  4. 請求項1に記載された画像処理装置であって、
    前記特定部は、前記基準画像の中心部分の範囲を規定した領域情報に基づいて前記特定処理を行う画像処理装置。
  5. 請求項1に記載された画像処理装置であって、
    前記第1の取得部は、前記被写体が前記基準画像とは異なる時刻に撮影された別画像を取得し、
    前記画像処理装置は、前記基準画像と前記別画像とに基づいて前記基準画像の各画素についての各二次元移動ベクトルを求める二次元移動ベクトル取得部を更に備え、
    前記特定部は、前記各二次元移動ベクトルに基づいて前記特定処理を行う画像処理装置。
  6. 請求項4に記載された画像処理装置であって、
    前記特定部は、前記各二次元移動ベクトルの消失点に基づいて前記特定処理を行う画像処理装置。
  7. 請求項1に記載された画像処理装置であって、
    前記特定部は、前記各基準距離情報に基づいて前記特定処理を行う画像処理装置。
  8. 請求項7に記載された画像処理装置であって、
    前記特定部は、前記各基準距離情報のうち所定の距離範囲の各距離情報に基づいて前記特定処理を行う画像処理装置。
  9. 請求項7に記載された画像処理装置であって、
    前記特定部は、前記各基準距離情報のうち前記基準画像についての合焦距離情報に基づいて特定される各距離情報に基づいて前記特定処理を行う画像処理装置。
  10. 請求項7に記載された画像処理装置であって、
    前記特定部は、前記基準距離画像のうち相互の距離情報の差異が所定の距離範囲内である画素が連結した所定サイズ以上の領域を前記注視領域とすることにより前記特定処理を行う画像処理装置。
  11. 請求項7に記載された画像処理装置であって、
    前記特定部は、前記基準距離画像のうち相互の距離情報の差異が所定の距離範囲内である画素が連結した所定サイズ以上の領域のうち最大サイズの領域を前記注視領域とすることにより前記特定処理を行う画像処理装置。
  12. 請求項7に記載された画像処理装置であって、
    前記特定部は、前記基準距離画像のうち所定の空間的な領域の範囲を規定した領域情報に基づいて前記特定処理を行う画像処理装置。
  13. 請求項1に記載された画像処理装置であって、
    前記第1の取得部は、前記被写体が前記基準画像とは異なる時刻に撮影された別画像を取得するとともに、
    前記第2の取得部は、前記被写体の各点のうち前記別画像の各画素にそれぞれ対応した各点について各別距離情報を取得し、
    前記画像処理装置は、前記基準画像と前記別画像と前記各基準距離情報と前記各別距離情報とに基づいて前記基準画像の各画素についての各三次元移動ベクトルを求める三次元移動ベクトル取得部を更に備え、
    前記特定部は、前記各三次元移動ベクトルに基づいて前記特定処理を行う画像処理装置。
  14. 請求項13に記載された画像処理装置であって、
    前記特定部は、前記各三次元移動ベクトルに基づいて前記基準画像のうち移動物が撮影された領域を抽出し、該領域を前記注視領域とすることにより前記特定処理を行う画像処理装置。
  15. 請求項13に記載された画像処理装置であって、
    前記特定部は、前記基準画像のうち前記各三次元移動ベクトルの大きさが所定の閾値以上となる領域を前記注視領域とすることにより前記特定処理を行う画像処理装置。
  16. 請求項13に記載された画像処理装置であって、
    前記特定部は、前記各三次元移動ベクトルのうち三次元移動ベクトルの延長線が前記基準画像の撮影に係る撮影系と交差する三次元移動ベクトルを特定し、特定された三次元移動ベクトルに対応する前記基準画像の領域を前記注視領域とすることにより前記特定処理を行う画像処理装置。
  17. 請求項1から請求項16の何れか1つの請求項に記載された画像処理装置であって、
    前記第1の生成部は、前記基準距離画像のうち前記非注視領域に対応する領域の画像に対するぼかし処理によって前記各派生距離情報を生成する画像処理装置。
  18. 請求項17に記載された画像処理装置であって、
    前記第1の生成部は、前記基準距離画像のうち前記非注視領域に対応する領域の画像に平均化フィルタ処理を施すことによって前記ぼかし処理を行う画像処理装置。
  19. 請求項17に記載された画像処理装置であって、
    前記第1の生成部は、前記基準距離画像のうち前記非注視領域に対応する領域の各画素について、該各画素をそれぞれ内包する所定サイズの領域における各距離情報の最頻値を該各画素の画素値とすることによって前記ぼかし処理を行う画像処理装置。
  20. 請求項17に記載された画像処理装置であって、
    前記第1の生成部は、前記基準距離画像のうち前記非注視領域に対応する領域における各距離情報を前記原点位置に対して遠方側にそれぞれ変更することによって前記ぼかし処理を行う画像処理装置。
  21. 請求項1から請求項16の何れか1つの請求項に記載された画像処理装置であって、
    前記第1の生成部は、前記基準画像のうち前記非注視領域に対応する領域の画像に対するぼかし処理によって前記派生画像を生成する画像処理装置。
  22. 請求項5または請求項6に記載された画像処理装置であって、
    前記第1の生成部は、
    a)前記基準画像のうち前記非注視領域に対応する領域の画像に対するぼかし処理によって前記生成処理を行うとともに、
    b)該領域の各画素に対応する前記各二次元移動ベクトルよって対応づけがされた前記別画像の各画素には、該各画素に対応付けがなされた前記基準画像の画素に適用されたぼかし処理と同一のぼかし処理を施すことによって前記別画像に対応した別派生画像を生成する画像処理装置。
  23. 請求項21または請求項22に記載された画像処理装置であって、
    前記第1の生成部は、前記基準画像のうち前記非注視領域に対応する領域の画像に平均化フィルタ処理を施すことによって前記ぼかし処理を行う画像処理装置。
  24. 請求項21または請求項22に記載された画像処理装置であって、
    前記第1の生成部は、前記基準画像のうち前記非注視領域に対応する領域において離散的に特定された各画素の画素値に基づいて、該領域のうち前記離散的に特定された各画素以外の画素の画素値を取得することによって前記ぼかし処理を行う画像処理装置。
  25. 請求項21または請求項22に記載された画像処理装置であって、
    前記第1の生成部は、前記基準画像のうち前記非注視領域に対応する領域における画素値の空間的な高周波成分を除去することによって前記ぼかし処理を行う画像処理装置。
  26. 請求項1に記載された画像処理装置であって、
    前記第1の生成部は、前記前記基準画像および前記基準距離画像の少なくとも一方の前記非注視領域に対応した領域の画像について、該画像のうち前記原点位置に対して前記注視領域よりも遠側の領域と、前記原点位置に対して前記注視領域よりも近側の領域とについて、異なる強度のぼかし処理をそれぞれ施す画像処理装置。
  27. 請求項1に記載された画像処理装置であって、
    前記疑似画像に基づいて立体視画像を取得する第3の取得部をさらに備える画像処理装置。
  28. 画像処理装置に搭載されたコンピュータにおいて実行されることにより、当該画像処理装置を請求項1から請求項27の何れか1つの請求項に記載の画像処理装置として機能させるプログラム。
  29. 画像処理方法であって、
    被写体が撮影された基準画像を取得する第1の取得工程と、
    前記被写体の各点のうち前記基準画像の各画素にそれぞれ対応した各点について、所定の原点位置からの距離情報を表現した各基準距離情報を取得する第2の取得工程と、
    を備え、
    前記基準画像の画素配列に対応する前記各基準距離情報の配列によって基準距離画像を定義したとき、
    所定の判定基準によって前記基準画像と前記基準距離画像とのそれぞれに対応する画像空間を、前記被写体のうち主要被写体を含むと判定される注視領域と、該注視領域以外の非注視領域とに分類して特定する特定処理を行う特定工程と、
    前記基準画像および前記基準距離画像のうち少なくとも一方の前記非注視領域に対応した領域の画像に対するぼかし処理の結果として前記基準画像および前記各基準距離情報にそれぞれ対応した派生画像および各派生距離情報をそれぞれ生成する生成処理を行う第1の生成工程と、
    前記派生画像と前記各派生距離情報とに基づいて、前記基準画像が撮影された視点とは別の仮想視点からの撮影に対応した前記被写体の疑似画像を生成する第2の生成工程と、
    をさらに備える画像処理方法。
JP2012549695A 2010-12-22 2011-11-25 画像処理装置、そのプログラム、および画像処理方法 Expired - Fee Related JP5464279B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012549695A JP5464279B2 (ja) 2010-12-22 2011-11-25 画像処理装置、そのプログラム、および画像処理方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010285429 2010-12-22
JP2010285429 2010-12-22
PCT/JP2011/077187 WO2012086362A1 (ja) 2010-12-22 2011-11-25 画像処理装置、そのプログラム、および画像処理方法
JP2012549695A JP5464279B2 (ja) 2010-12-22 2011-11-25 画像処理装置、そのプログラム、および画像処理方法

Publications (2)

Publication Number Publication Date
JP5464279B2 true JP5464279B2 (ja) 2014-04-09
JPWO2012086362A1 JPWO2012086362A1 (ja) 2014-05-22

Family

ID=46313644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012549695A Expired - Fee Related JP5464279B2 (ja) 2010-12-22 2011-11-25 画像処理装置、そのプログラム、および画像処理方法

Country Status (3)

Country Link
US (1) US9332247B2 (ja)
JP (1) JP5464279B2 (ja)
WO (1) WO2012086362A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6178066B2 (ja) 2012-11-06 2017-08-09 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
US9292927B2 (en) * 2012-12-27 2016-03-22 Intel Corporation Adaptive support windows for stereoscopic image correlation
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
KR102125775B1 (ko) * 2014-02-24 2020-06-23 삼성전자주식회사 배제 픽셀 데이터를 보상하여 영상을 생성하는 방법 및 그것을 이용하는 영상 생성 장치
JP6674630B2 (ja) * 2016-05-30 2020-04-01 カシオ計算機株式会社 画像処理装置、画像処理方法、及びプログラム
EP3494695B1 (en) 2016-08-04 2023-09-27 Dolby Laboratories Licensing Corporation Single depth tracked accommodation-vergence solutions
CN110785789A (zh) * 2017-06-27 2020-02-11 索尼公司 图像处理装置、图像处理方法和程序
JP7052513B2 (ja) * 2018-04-16 2022-04-12 日本電信電話株式会社 画像生成装置、画像生成方法、プログラム
US11423516B2 (en) * 2019-03-29 2022-08-23 Tobii Ab Gaze enhanced natural motion blur
US11682297B2 (en) * 2020-03-31 2023-06-20 Flir Systems Trading Belgium Bvba Real-time scene mapping to GPS coordinates in traffic sensing or monitoring systems and methods

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62115989A (ja) * 1985-11-15 1987-05-27 Hitachi Ltd 立体表示システム
JPH06215092A (ja) * 1993-01-18 1994-08-05 Toshiba Corp 表示装置
JPH10239634A (ja) * 1997-02-27 1998-09-11 Minolta Co Ltd 立体映像表示装置
JP2010087807A (ja) * 2008-09-30 2010-04-15 Olympus Visual Communications Corp 3次元映像データ生成方法、3次元映像データ生成システム、3次元映像データを記録した記録媒体、及び3次元映像データ生成プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8774498B2 (en) * 2009-01-28 2014-07-08 Xerox Corporation Modeling images as sets of weighted features

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62115989A (ja) * 1985-11-15 1987-05-27 Hitachi Ltd 立体表示システム
JPH06215092A (ja) * 1993-01-18 1994-08-05 Toshiba Corp 表示装置
JPH10239634A (ja) * 1997-02-27 1998-09-11 Minolta Co Ltd 立体映像表示装置
JP2010087807A (ja) * 2008-09-30 2010-04-15 Olympus Visual Communications Corp 3次元映像データ生成方法、3次元映像データ生成システム、3次元映像データを記録した記録媒体、及び3次元映像データ生成プログラム

Also Published As

Publication number Publication date
US20130300828A1 (en) 2013-11-14
JPWO2012086362A1 (ja) 2014-05-22
US9332247B2 (en) 2016-05-03
WO2012086362A1 (ja) 2012-06-28

Similar Documents

Publication Publication Date Title
JP5464279B2 (ja) 画像処理装置、そのプログラム、および画像処理方法
JP5968107B2 (ja) 画像処理方法、画像処理装置およびプログラム
JP4657313B2 (ja) 立体画像表示装置および方法並びにプログラム
JP6112824B2 (ja) 画像処理方法および装置、プログラム。
US9214013B2 (en) Systems and methods for correcting user identified artifacts in light field images
JP2013065280A5 (ja)
JP2006042298A (ja) 立体視画像作成方法および装置
WO2013038833A1 (ja) 画像処理システム、画像処理方法および画像処理プログラム
JPWO2012056686A1 (ja) 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
WO2020129280A1 (ja) 画像処理装置、画像処理プログラム、画像処理方法および撮像装置
WO2017217115A1 (ja) 画像処理装置、画像処理方法、プログラム、及び画像処理システム
JP5874649B2 (ja) 画像処理装置、そのプログラム、および画像処理方法
JP6585938B2 (ja) 立体像奥行き変換装置およびそのプログラム
JP2013026844A (ja) 画像生成方法及び装置、プログラム、記録媒体、並びに電子カメラ
US20160180514A1 (en) Image processing method and electronic device thereof
JP2016225811A (ja) 画像処理装置、画像処理方法およびプログラム
TWI589150B (zh) 3d自動對焦顯示方法及其系統
JP5741353B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
KR101219859B1 (ko) 3d촬영장치에서의 반자동 주시각 제어장치 및 반자동 주시각 제어방법
GB2585197A (en) Method and system for obtaining depth data
KR100927234B1 (ko) 깊이 정보 생성 방법, 그 장치 및 그 방법을 실행하는프로그램이 기록된 기록매체
JP5891554B2 (ja) 立体感提示装置および方法ならびにぼけ画像生成処理装置,方法およびプログラム
JP5351878B2 (ja) 立体画像表示装置および方法並びにプログラム
JP2014049895A (ja) 画像処理方法
JP6439285B2 (ja) 画像処理装置、撮像装置および画像処理プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140106

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees