JP2017208606A - 画像処理装置、撮像装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、撮像装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP2017208606A
JP2017208606A JP2016097981A JP2016097981A JP2017208606A JP 2017208606 A JP2017208606 A JP 2017208606A JP 2016097981 A JP2016097981 A JP 2016097981A JP 2016097981 A JP2016097981 A JP 2016097981A JP 2017208606 A JP2017208606 A JP 2017208606A
Authority
JP
Japan
Prior art keywords
image
imaging
pixel
image processing
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016097981A
Other languages
English (en)
Other versions
JP6702796B2 (ja
JP2017208606A5 (ja
Inventor
昂 市原
Takashi Ichihara
昂 市原
智暁 井上
Tomoaki Inoue
智暁 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016097981A priority Critical patent/JP6702796B2/ja
Priority to US15/591,644 priority patent/US11032533B2/en
Priority to CN201710332926.4A priority patent/CN107395924B/zh
Priority to EP17170984.3A priority patent/EP3255888B1/en
Publication of JP2017208606A publication Critical patent/JP2017208606A/ja
Publication of JP2017208606A5 publication Critical patent/JP2017208606A5/ja
Application granted granted Critical
Publication of JP6702796B2 publication Critical patent/JP6702796B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複数の画像を取得した撮像時の光学パラメータが厳密に取得されていない場合においても、少ない処理負荷で該複数の画像間での対応点を検出する。【解決手段】画像処理装置20は、それぞれ撮像により取得された画像であり、該撮像に用いられた撮像系の光学パラメータが互いに異なる第1のパラメータ値および第2のパラメータ値である第1の画像および第2の画像に対して、第1の画像内の対象画素に対応する第2の画像内の対応画素を検出する処理を行う。該装置は、第1および第2のパラメータ値がそれぞれ変化し得る所定範囲に応じて、第2の画像のうち対応画素の探索を行う部分領域である2次元探索領域を設定し、該2次元探索領域において探索を行うことにより対応画素を検出する。【選択図】図1

Description

本発明は、撮像時の光学パラメータが異なる複数の画像において対応点を検出する画像処理技術に関する。
撮像時の光学パラメータが異なる複数の画像において同一被写体が写っている画素同士である対応点を検出することで、該対応点の位置の対応関係に基づいて被写体空間内の被写体までの距離(被写体距離)を算出したり該複数の画像を合成したりすることができる。
例えば、互いに異なる複数の視点からの撮像が可能なステレオカメラでは、それぞれの視点からの撮像により取得した複数の画像における対応点の各画像上での座標の相違量から視差量を求め、該視差量に基づいて被写体距離を算出することができる。また、特許文献1には、焦点距離が互いに異なる単焦点撮像系を複数有し、複数の異なる画角の合焦画像を同時に取得可能な複眼撮像装置が開示されている。この複眼撮像装置では、複数の撮像系によって取得された複数の画像において対応点を検出し、該複数の画像の合成や被写体距離の算出を行う。さらに、特許文献2には、複数のフォーカス位置での撮像により取得された合焦距離がそれぞれ異なる複数の画像の位置合せを行ってこれら画像を合成することで、全焦点(パンフォーカス)画像を生成する撮像装置が開示されている。
一般に、対応点の検出は、複数の画像のうち1つの基準画像内の任意の対象画素に対応する対応画素を他の探索画像内で探索することにより行われる。さらに、探索画像内において複数の撮像系の光学パラメータに基づいて設定(算出)したエピポーラ線上のみにおいて対応画素が探索される。
特開2015−103885号公報 特開2014−017539号公報
しかしながら、複数の撮像系のそれぞれの厳密な光学パラメータが取得されていない場合には、光学パラメータに基づいて探索画像内に設定されたエピポーラ線上に対応画素が存在しない可能性がある。この場合においてエピポーラ線上のみにおいて対応画素を探索すると、対応画素を検出することができなかったり対応画素の検出精度が十分に得られなかったりする。一方、エピポーラ線上だけでなく探索画像全体を探索領域として対応画素を探索すると、処理負荷が極めて大きくなる。
本発明は、複数の画像を取得した撮像時の光学パラメータが厳密に取得されていない場合においても、少ない処理負荷で該複数の画像間での対応点の検出が可能な画像処理装置および画像処理方法等を提供する。
本発明の他の一側面としての画像処理装置は、それぞれ撮像により取得された画像であり、該撮像に用いられた撮像系の光学パラメータが互いに異なる第1のパラメータ値および第2のパラメータ値である第1の画像および第2の画像に対して、第1の画像内の対象画素に対応する第2の画像内の対応画素を検出する処理を行う。該画像処理装置は、第1および第2のパラメータ値がそれぞれ変化し得る所定範囲に応じて、第2の画像のうち対応画素の探索を行う部分領域である2次元探索領域を設定する領域設定手段と、2次元探索領域において探索を行うことにより対応画素を検出する検出手段とを有することを特徴とする。
なお、撮像系と上記画像処理装置とを有する撮像装置も、本発明の他の一側面を構成する。
また、本発明の他の一側面としての画像処理方法は、それぞれ撮像により取得された画像であり、該撮像に用いられた撮像系の光学パラメータが互いに異なる第1のパラメータ値および第2のパラメータ値である第1の画像および第2の画像に対して、第1の画像内の対象画素に対応する第2の画像内の対応画素を検出する処理を行う方法である。該画像処理方法は、第1および第2のパラメータ値がそれぞれ変化し得る所定範囲に応じて、第2の画像のうち対応画素の探索を行う部分領域である2次元探索領域を設定するステップと、2次元探索領域において探索を行うことにより対応画素を検出するステップとを有することを特徴とする。
なお、上記画像処理方法による処理をコンピュータに実行させる画像処理プログラムも、本発明の他の一側面を構成する。
本発明によれば、第1および第2の画像を取得した撮像時の光学パラメータの値が厳密に取得されていなくても、少ない処理負荷で第1および第2の画像間での対応点(対象画素と対応画素)を精度良く検出することができる。
本発明の実施例における2次元探索領域の設定方法を説明する図。 ブロックマッチング法について説明する図。 2つの撮像系における同一被写体の撮像面上での座標の対応関係について説明する図。 図3に示す2つの撮像系により取得される画像上のエピポーラ線を示す図。 入射瞳位置が異なる2つの撮像系における同一被写体の撮像面上での座標の対応関係について説明する図。 図5に示す2つの撮像系により取得される画像上のエピポーラ線を示す図。 クラスタリング処理について説明する図。 2つの撮像系のそれぞれの光軸が互いに角度を持つ場合のエピポーラ線を示す図。 2つの撮像系のそれぞれの焦点距離が互いに異なる場合のエピポーラ線を示す図。 本発明の実施例1,2である複眼撮像装置の構成を示すブロック図。 実施例1,2の複眼撮像装置における撮像ユニットの(a)斜視図および(b)正面図。 実施例1の複眼撮像装置1が行う画像処理を示すフローチャート。 実施例2の複眼撮像装置2が行う画像処理を示すフローチャート。 本発明の実施例3であるステレオ撮像装置の構成を示すブロック図。 実施例3であるステレオ撮像装置3が行う画像処理を示すフローチャート。 本発明の実施例4であるステレオ撮像装置の構成を示すブロック図。 実施例4のステレオ撮像装置が行う画像処理を示すフローチャート。
以下、本発明の実施例について図面を参照しながら説明する。
具体的な実施例(実施例1〜4)の説明に先立って、まず、各実施例における共通事項として、複数の画像における対応被写体である対応点を検出する対応点検出処理(画像処理方法)について説明する。対応点は、複数の画像において同一被写体が写っている、言い換えれば同一被写体からの光を記録した画素同士である。また、本実施例では、対応点検出処理として、複数の画像のうち1つの基準画像内(第1の画像内)の任意の対象画素に対応する対応画素を他の探索画像内(第2の画像内)で探索することにより行う。なお、以下の説明では、対象画素および対応画素がそれぞれ1画素である場合について説明するが、1まとまりの2画素以上の画素であってもよい。
図2には、互いに異なる視点位置からの撮像により取得された基準画像としての第1の画像IMG1および探索画像としての第2の画像IMG2を示す。各画像内での画素位置を示す座標(X,Y)は、各画像(画素群)の中心を原点として定義する。Xは水平方向(X方向)での座標を、Yは垂直方向(Y方向)での座標である。第1の画像IMG1内における座標(X,Y)の画素の信号値(画素値)をF1(X,Y)とし、第2の画像IMG2内における座標(X,Y)の画素の画素値をF2(X,Y)とする。
第1の画像IMG1内の任意の対象画素(画素値F1(X,Y))に対応する第2の画像IMG2内の対応画素は、第2の画素IMG2において画素値F1(X,Y)と最も類似した画素値を探すことで検出することができる。図2では、第1および第2の画像IMG1,IMG2内のハッチングされた画素がそれぞれ対象画素と対応画素である。以下の説明では、対象画素を注目画素といい、対応画素を注目対応画素という。
第1の画像IMG1内の任意の画素と最も類似した画素を第2の画像IMG2内から探すには、ブロックマッチングと呼ばれる手法を用いる。ここでは、ブロックのサイズが3×1画素である場合のブロックマッチングについて説明する。第1の画像IMG1内の任意の注目画素(座標(X,Y))とその左右の座標(X−1,Y),(X+1,Y)の2つの画素とからなる3画素の画素値はそれぞれ、F1(X,Y)、F1(X−1,Y)およびF1(X+1,Y)である。これに対して、座標(X,Y)からX方向にkだけずれた第2の画像IMG2内の画素の画素値はそれぞれ、F2(X+k,Y),F2(X+k−1,Y)およびF2(X+k+1,Y)となる。この場合、第1の画像IMG1内の座標(X,Y)に位置する注目画素と第2の画像IMG2内の座標(X+k,Y)に位置する画素との画素値の類似度Eを以下の式(1)で定義する。
この式(1)において逐次kの値を変えながら類似度Eの値を計算し、最も小さい類似度Eを与える(X+k,Y)が、第1のIMG1内の注目画素に対応する第2の画像IMG2内での注目対応画素の座標である。類似度Eの計算に用いる複数の画素、ここでは上記3画素の範囲をブロックという。式(1)では、ブロックをX方向に3画素とY方向に1画素の範囲とするが、Y方向についても複数の画素を有する範囲としてもよい。また、ブロックの形状は任意である。また、式(1)では、類似度Eを画素値の差の2乗の合計(SSD;Sum of Squared Difference)として定義したが、SAD(Sum of Absolute Difference)として定義してもよい。さらに、類似度EをNCC(Normalized Cross-Correlation)として定義してもよく、この場合には最も1に近い類似度を与える画素が注目対応画素である。このように逐次kを変えながら最も小さい類似度Eを与える注目対象画素の座標(X+k,Y)を探す処理を行うことを、注目対応画素を探索する(又は対応点を検出する)という。ここでは、類似度EをX方向にのみ逐次座標を変化させながら計算するが、Y方向(X方向およびY方向のうち少なくとも一方)に逐次座標を変化させながら計算してもよい。第2の画像IMG2において注目対応画素を探索する領域を探索領域という。
以上の対応点検出処理を行うことで、第1および第2の画像IMG1,IMG2間での対応点(注目画素と注目対応画素)が位置する座標を取得(検出)することができる。対応点が特定されることで、該対応点間の座標(位置)の相対関係、すなわち該対応点間の位置関係に関する情報を取得することができる。そして、該位置関係に関する情報を用いることで、第1および第2の画像を合成して合成画像や全焦点画像を生成したり、第1および第2の画像における対応点間の位置差から被写体空間の被写体までの距離(被写体距離)を算出したりすることができる。
図2では、第1の画像IMG1における注目画素の座標に対して、第2の画像IMG2における注目対応画素の座標がX方向にのみずれている、つまりエピポーラ線がX方向に平行な直線である場合を示している。エピポーラ線とは、注目対応画素が存在し得る画像上の直線である。この場合、探索領域はX方向に延びるエピポーラ線上でよい。第2の画像IMG2におけるX方向での画素数がNとすると、逐次kの値を変えながら類似度EをN回計算することとなる。さらに、第1の画像IMG1内の全ての画素を注目画素として、それぞれの注目画素に対応する第2の画像IMG2内での注目対応画素を探索するには、第2の画像IMG2のY方向での画素数がMであるとすると、全体での計算回数はN×(N×M)回となる。
ただし、このように直線状の探索範囲のみから注目対応画素を探索するには、第1および第2の画像IMG1,IMG2のそれぞれの取得時における撮像系の厳密な光学パラメータの値が取得できていることが前提となる。光学パラメータとしては、撮像系が有する光学系の焦点距離、入射瞳の位置、前側主点の位置、光軸の向き、合焦距離、撮像系が有する撮像素子の中心と光学系の光軸との位置差および光学系の光軸に対する撮像素子の回転量のうち少なくとも1つである。また、図2に示したように互いに異なる視点位置からの撮像が行われた場合は、光学パラメータとして、視点位置間の距離も含まれる。
これら光学パラメータのうち入射瞳の位置(以下、入射瞳位置という)は、光学系の光軸に対して直交する任意の平面を基準としたときの該平面から該光学系の入射瞳までの距離である。また、前側主点の位置(以下、前側主点位置という)とは、光学系の光軸に対して直交する任意の平面を基準としたときの該平面から該光学系の前側主点までの距離である。合焦距離とは、撮像に際して光学系のピントが合っていた距離である。
第1の画像の取得時の光学パラメータの値(第1のパラメータ値)と第2の画像の取得時の光学パラメータの値(第2のパラメータ値という)のうち少なくとも一方が変化すると、第2の画像内の同一注目画素に対する探索画像内でエピポーラ線が変化する。このエピポーラ線の変化については後述する。このため、実際の光学パラメータの値と異なる光学パラメータの値に基づいて第2の画像において注目対応画素を探索するエピポーラ線を設定しても、そのエピポーラ線上に注目対応画素は存在せず、誤った画素が注目対応画素として検出されるおそれがある。誤って検出された注目対応画素はエピポーラ線上では類似度Eが最も小さい画素であるが、注目画素が記録した光を発した被写体とは異なる被写体からの光を記録している。
以下、光学パラメータの変化に応じたエピポーラ線の変化について説明する。ここでは、互いに異なる2つの視点位置から2つの撮像系を通して撮像を行う場合について説明する。まず、視点位置以外の光学パラメータの値が全て互いに同一である理想的な2つの撮像系が用いられた場合のエピポーラ線について、図3を用いて説明する。図3中のCAおよびCBは互いに視点位置が異なる2つの撮像系を示す。図3では、Oを原点とし、水平方向をX軸方向、垂直方向をZ軸方向として定義する。一点鎖線OAa,OAbはそれぞれ撮像系CA,CBの光軸を示し、Objは被写体を示す。EPa,EPbはそれぞれ撮像系CA,CBの入射瞳を示し、APa,APbはそれぞれ撮像系CA,CBの射出瞳を示す。H1a,H1bはそれぞれ撮像系CA,CBの前側主平面を示し、H2a,H2bはそれぞれ撮像系CA,CBの後側主平面を示す。実線PRa,PRbはそれぞれ、被写体から撮像系CA,CBに入射する光のうち撮像系CA,CBの光学系の絞り開口の中心を通る光線(以下、絞り中心光線という)を示す。破線SRa,SRbはそれぞれ、被写体から撮像系CA,CBに入射する光のうち撮像系CA,CBの光学系の前側および後側主点を通る光線(以下、主点光線という)を示す。
撮像系CA,ABは視点位置を除く光学パラメータの値が全て互いに同一であるので、光軸OAa,OAbは互いに平行である。また、入射瞳EPa,EPb、射出瞳APa,APb、前側主平面H1a,H1bおよび後側主平面H2a,H2bはそれぞれ互いに同じZ座標に位置する。また、撮像系CAにおいて前側主平面H1aと光軸OAaとの交点である前側主点の座標は(−D/2,0)であり、撮像系CBにおいて前側主平面H1bと光軸OAbとの交点である前側主点の座標は(+D/2,0)である。さらに、撮像系CAにおいて入射瞳EPaと光軸OAaとの交点の座標は(−D/2,eo)であり、撮像系CBにおいて入射瞳EPbと光軸OAbとの交点の座標は(+D/2,eo)である。つまり、撮像系CA,CBの間の基線長(視点位置間の距離)はDであり、撮像系CA,CBの前側主平面H1a,H1bと入射瞳EPa,EPbとの間のZ軸方向における距離はeoである。
点線Pfは撮像系CA,CBがピントを合わせている平面である合焦平面を示し、入射瞳EPa,EPbと合焦平面Pfとの間のZ軸方向での距離である合焦距離はZfである。合焦平面Pfと被写体Objとの間のZ軸方向の距離はZoであり、被写体Objは座標(−x,eo+Zf+Zo)に位置する。
撮像系CAおよびCBの焦点距離をfとすると、撮像系CA,CBのそれぞれの撮像面(撮像素子)上での被写体像の座標a,bは式(2)の関係を満足する。座標a,bはそれぞれ撮像系CAおよびCBの撮像面の中心(光軸OAa,OAbが通る位置)からの距離に相当する。
ここでは2次元空間において座標a,bが満足する関係について説明したが、この関係は3次元空間にも拡張することができる。撮像系CA,CBのそれぞれの撮像面上での座標を(X,Y)と表現する。このとき、撮像系CA,CBにおける撮像面上での被写体像の座標をそれぞれ(ax,by),(bx,by)とし、基線長のXおよびY方向の成分をそれぞれDx,Dyとすると、a=ax、b=bx、D=Dxを代入しても式(2)は成り立つ。また、a=ay、b=by、D=Dyを代入しても式(2)は成り立つ。
式(2)において、Zoに互いに異なる任意の値であるZo1およびZo2を代入したときの座標b1および座標b2を結ぶ直線がエピポーラ線であり、座標aに位置する画素を注目画素としたとき、注目対応画素は該エピポーラ線上に存在する。
図4には、撮像系CA,CBによって取得された第1および第2の画像IMGa,IMGbを示す。図4では、それぞれの画像の中心を原点とし、垂直方向をY軸方向とし、水平方向をX軸方向として定義する。実線epi1は第1の画像IMGa内の点a1に位置する画素を注目画素としたときの、第2の画像IMGb内でのエピポーラ線を示しており、注目対応画素は該エピポーラ線epi1上に存在する。また、実線epi2は第1の画像IMGa内の点a2に位置する画素を注目画素としたときの第2の画像IMGb内でのエピポーラ線を表しており、注目対応画素は該エピポーラ線epi2上に存在する。エピポーラ線epi1,epi2上の点pa1,pa2はそれぞれ、第2の画像IMGbのうち第1の画像IMGa上の注目画素a1,a2と同じ座標の画素を示す。
第2の画像IMGbにおいて注目画素a1,a2に対応する注目対応画素を検出するためにはそれぞれ、エピポーラ線epi1,epi2上を探索すればよい。さらに、光学パラメータとして、撮像系CAに対して撮像系CBが位置する方向、つまりは基線方向が既知であれば、注目対応画素が注目画素と同じ座標に対してエピポーラ線上のどちらの方向に存在するかを特定することができる。すなわち、第2の画像IMGb上における注目画素と同じ座標に対して、注目対応画素は必ず基線方向とは逆方向に位置する。このため、基線方向から、第2の画像IMGb上の破線reg1,reg2で示すように、エピポーラ線epi1,epi2上での注目対応画素の探索領域を限定することができる。
次に、視点位置が互いに異なり、かつ他の光学パラメータである入射瞳位置(ここでは光軸OAa,OAbに対して直交する平面から入射瞳EPa,EPbまでの距離)も互いに異なる2つの撮像系が用いられた場合のエピポーラ線について、図5を用いて説明する。図5中の符号は図3中の符号と同じ要素を示す。図5に示す2つの撮像系CA,CBにおいては、被写体Objからそれぞれの入射瞳EPa,EPbまでの距離が互いに異なる。つまり、入射瞳EPa,EPbはZ軸方向において互いに異なる座標に位置する。
Z軸方向において撮像系CAの入射瞳EPaと合焦平面Pfとの間の距離はZf、合焦平面Pfと被写体Objとの間の距離はZoであり、被写体Objは座標(−x,eo+Zf+Zo)に位置する。また、撮像系CBの入射瞳EPbは撮像系CAの入射瞳EPaよりも被写体Objの近くに位置し、入射瞳EPa,EPbの間の距離はΔepである。
撮像系CA,CBの焦点距離をともにfとすると、撮像系CA,CBのそれぞれの撮像面上での被写体像の座標a,bは式(3)の関係を満足する。
式(3)において、Zoに互いに異なる任意の値Zo1およびZo2を代入したときの座標b1および座標b2を結ぶ直線がエピポーラ線であり、座標aに位置する画素を注目画素としたとき、注目対応画素は該エピポーラ線上に存在する。
図6には、撮像系CA,CBによって取得される第1および第2の画像IMGa,IMGbを示している。図6における座標系の定義は図4と同様である。実線epi1は第1の画像IMGa内の点a1に位置する画素を注目画素としたときの第2の画像IMGb内でのエピポーラ線を示しており、注目対応画素は該エピポーラ線epi1上に存在する。また、実線epi2は第1の画像IMGa内の点a2に位置する画素を注目画素としたときの第2の画像IMGb内でのエピポーラ線を示しており、注目対応画素は該エピポーラ線epi2上に存在する。エピポーラ線epi1,epi2上の点pa1,pa2はそれぞれ、第2の画像IMGbのうち第1の画像IMGa上の注目画素a1,a2と同じ座標の画素を示す。光学パラメータとして撮像系CAに対して撮像系CBが位置する基線方向が既知であれば、第2の画像IMGb上の破線reg1,reg2で示すように、エピポーラ線epi1,epi2上での注目対応画素の探索領域を限定することができる。
図6に示したように2つの撮像系CA,CBのそれぞれの入射瞳位置が互いに異なる場合には、図4に示したような視点位置以外の光学パラメータが全て同一である場合とは異なり、第2の画像IMGb上のエピポーラ線epi1,epi2が傾いている。また、図6に示したエピポーラ線epi1,epi2の傾きは、基線長Dおよび入射瞳位置のずれ量Δepのそれぞれの変化に応じて変化する。このため、前述したように実際の光学パラメーラの値とは異なる光学パラメータの値に基づいて算出されたエピポーラ線上において注目対応画素を探索しても、実際のエピポーラ線が変化しているために真の注目対応画素を検出できない。すなわち、誤った画素が注目対応画素として検出されるおそれがある。
このように、第1および第2の画像IMGa,IMGbのそれぞれの取得時での撮像系の実際の厳密な光学パラメータの値に対してエピポーラ線の算出に用いた光学パラメータの値が誤差を持つと、真の注目対応画素を精度良く検出することができない。厳密な光学パラメータの値が得られない場合の例としては、撮像系の合焦状態や熱的状態の全ての状態におけるキャリブレーションが行われていない場合が挙げられる。また、撮像系を構成する光学素子、機械部および駆動部の公差に起因して各光学パラメータの値が想定値からばらつく場合も挙げられる。
このような厳密な光学パラメータの値が得られないために正しいエピポーラ線が既知でない場合においても真の注目対応画素を検出するためには、第2の画像IMGbの全領域(全ての画素)を探索領域として探索する必要がある。具体的には、第1の画像IMGaの1つの注目画素について、第2の画像IMGb上の全ての画素の類似度Eを計算する必要がり、第1および第2の画像IMGa,IMGbが図2と同様にN×M画素を有する場合にはN×M回だけ類似度Eを計算する必要がある。このため、第1の画像IMGa上の全ての画素を注目画素として、それぞれに対応する第2の画像IMGb上の注目対応画素を検出するためには、全体で(N×M)×(N×M)回の類似度Eの計算が必要となる。この場合、エピポーラ線上のみを探索領域として探索する場合に比べて処理負荷がM倍であり、計算量が非常に多くなる。
以下に説明する各実施例では、光学パラメータの値(第1および第2のパラメータ値)が変化し得る範囲の最大値と最小値に基づいて、第2の画像のうち注目対応画素を効率良く探索する部分領域としての2次元探索領域を算出して設定する。具体的には、光学パラメータの値がその変化が予想される最大値から最小値までの範囲(所定範囲)で変化することに応じて変化するエピポーラ線を全て包含する2次元探索領域をできるだけ小さく(望ましくは最小限に)設定する。これにより、第1および第2の画像を取得した際の撮像系の厳密な光学パラメータの値が取得されていない場合においても、軽い処理負荷(少ない計算量)で真の注目対応画素を精度良く検出することが可能となる。
各実施例にて行われる2次元探索領域の設定方法について、図5に示した2つの撮像系CA,CBにおいて基線長Dおよび互いの入射瞳位置間の距離Δepの厳密な値が取得されていない場合を例として説明する。図1(a)、(b)および(c)は、図6に示した第2の画像IMGbのうち画素pa2を含む左下領域を拡大して示している。図1(a)におけるEPI1,EPI2,EPI3およびEPI4はそれぞれ、基線長Dおよび入射瞳位置間の距離Δepのうち行く無くとも一方が異なる場合の注目画素a2に対応する注目対応画素が存在するエピポーラ線を示す。EPI1はD=D1およびΔep=0であるときのエピポーラ線を示し、EPI2はD=D1およびΔep=Δep1であるときのエピポーラ線を示す。EPI3はD=D2(<D1)およびΔep=Δep2(<Δep1)であるときのエピポーラ線を示し、EPI4はD=0およびΔep=Δep1であるときのエピポーラ線を示す。このように、図1(a)は基線長Dが0〜D1の間で変化し、入射瞳位置間の距離Δepが0〜Δep1の間で変化したときのエピポーラ線の変化を示す。このとき、第2の画像IMGbのうちこれらエピポーラ線EPI1〜EPI4を全て包含する部分領域としての2次元探索領域を設定する。これにより、基線長Dおよび入射瞳位置間の距離Δepが厳密に取得されていなくても、基線長Dが0〜D1の範囲内に収まり、かつ入射瞳位置間の距離Δepが0〜Δep1の範囲内に収まれば、真の注目対応画素を軽い処理負荷で正確に検出することができる。
このように、各実施例では、光学パラメータの値の変化に伴うエピポーラ線の変化に基づいて2次元探索領域を設定することで、光学パラメータの値が厳密に取得されていない場合においても効率的に正確な注目対応画素を検出することができる。これにより、第2の画像の全域を探索領域とする場合に比べて、対応点の探索(検出)に必要な計算量、つまりは処理負荷を大幅に低減することができる。
図1(b)には、撮像画角(被写体空間)中に含まれる被写体のうち撮像系に最も近い被写体までの距離が既知である場合に注目対応画素の探索領域が限定された複数のエピポーラ線を示している。言い換えれば、第1および第2の画像IMGa,IMGb間での対応点の座標の相違量の最大値(以下、最大対応点ずれ量という)が既知である場合において、注目対応画素の探索領域が限定されたエピポーラ線を示している。また、図1(c)には、図1(b)に示した複数のエピポーラ線を全て包含するように設定(算出)された2次元探索領域を示す。この2次元探索領域の設定により、基線長Dおよび入射瞳位置間の距離Δepが厳密に取得されていなくても、基線長Dが0〜D1の範囲内に収まり、かつ入射瞳位置間の距離Δepが0〜Δep1の範囲内に収まれば、真の注目対応画素を検出することができる。このように、予め最大対応点ずれ量を取得することができれば、さらに効率的に正確な注目対応画素を検出すること可能な探索領域を設定することができる。
ここで、注目画素が異なればエピポーラ線も異なるため、上記2次元探索領域も異なる。このため、2次元探索領域は注目画素ごとに設定する。
次に、最大対応点ずれ量の取得方法について説明する。最大対応点ずれ量は、互いに取得時の光学パラメータが異なる2つの画像のうち一方に対して複数の画素領域に分割するクラスタリング処理を行い、画素領域ごとに選択された注目画素に対する他方の画像における注目対応画素を探索することで取得可能である。画素領域は、画素値が相互に類似する相互に近傍に位置する複数の画素(近傍画素)を含む領域である。
図7には、クラスタリング処理の例を示している。図7におけるIMGはクラスタリング処理前の画像を示し、IMGcはクラスタリング処理後の画像を示している。クラスタリング処理後の画像IMGcにおいて、太い実線がクラスタリング処理により分割された複数の画素領域の境界を示す。なお、画像IMGcでは4つの画素領域に番号1〜4が付与されており、その他の画素領域への番号の付与は省略されている。画像を複数の画素領域に分割するクラスタリング処理には任意の方法を用いることができ、例えば以下の文献Aに示すSLIC(Simple Linear Iterative Clustering)法を用いることができる。
文献A:IEEE Transactions on Pattern Analysis and Machine Intelligence VOLUME 34,Issue 11,NOV. 2012 pp. 2274 - 2282, R. Achanta et al. “SLIC Superpixels Compared to State-of-the-Art Superpixel Methods”
クラスタリング処理により分割された複数の画素領域を含む一方の画像(基準画像)IMGcに対する他方の画像(探索画像)内での対応注目画素の検出を行う際には、基準画像の各画素領域について1回のみ探索画像内を探索する。すなわち、基準画像のうち各画素領域内の任意の1画素を注目画素とし、該注目画素に対応する注目対応画素を探索画像内で探索する。この結果、基準画像における画素領域の数の注目対応画素が探索画像内で検出される。こうして基準画像の全ての画素領域について1回ずつ探索画像内で注目対応画素の探索を行った結果として得られた複数対の対応点のそれぞれの座標の相違量のうち最大値を最大対応点ずれ量とする。
クラスタリング処理を用いる注目対応画素の検出は、基準画像における複数の画素をまとめて1つの画素領域として扱い、各画素領域の全ての画素を同一視するため、基準画像の全画素について精度良く探索画像内での注目対応画素を検出する目的には適さない。しかし、少ない計算量で基準画像と探索画像との間での最大対応点ずれ量を取得することは可能である。
2つの撮像系の厳密な基線長と入射瞳位置間の距離が未取得である場合の2次元探索領域の設定方法は以上の通りであるが、他の光学パラメータの厳密な値が未取得である場合も、その変化によるエピポーラ線の変化に基づいて2次元探索領域を設定可能である。以下、他の光学パラメータの値の変化に応じたエピポーラ線の変化について説明する。
図3を用いて説明した視点位置が異なる理想的な2つの撮像系CA,CBにおいて、撮像系CAの光軸OAaの向きに対して撮像系CBの光軸OAbの向きがθ°だけ傾いている場合のエピポーラ線の変化について説明する。2つの撮像系CA,CBの光軸OAa,OAbの向きが互いに平行でない場合は、撮像系CAにより取得される第1の画像IMGa内の被写体の座標に対して、撮像系CBにより取得される第2の画像IMGb内での同一被写体の座標がある方向にある量だけずれる。第1の画像IMGaにおける注目画素aと第2の画像IMGbにおける注目対応画素bは、式(4)を満足する。
式(4)は2次元空間においてaとbが満足する式であるが、前述したように3次元空間に拡張することができる。この際には、X−Z空間またはY−Z空間における撮像系CA,CBの光軸OAa,OAb間の角度をそれぞれ代入すればよい。
図8には、撮像系CA,CBによって取得された第1および第2の画像IMGa,IMGbを示す。図8における座標系の定義は図4と同様である。図中の実線epi1は第1の画像IMGa内の点a1に位置する画素を注目画素としたときの第2の画像IMGb内でのエピポーラ線を示しており、注目対応画素は該エピポーラ線epi1上に存在する。また、実線epi2は第2の画像IMGa内の点a2に位置する画素を注目画素としたときの第2の画像IMGb内でのエピポーラ線を示しており、注目対応画素は該エピポーラ線epi2上に存在する。
次に、図3を用いて説明した視点位置が異なる理想的な2つの撮像系CA,CBにおいて焦点距離が互いに異なる場合のエピポーラ線の変化について説明する。2つの撮像系CA,CBの焦点距離が互いに異なる場合には、撮像系CAによって取得される第1の画像IMGa内の被写体の座標に対して、撮像系CBによって取得される第2の画像IMGb内の同一被写体の座標が画像中心から放射方向に一定倍される。撮像系CAの焦点距離をfa、撮像系CBの焦点距離をfbとすると、第1の画像IMGaにおける注目画素aと第2の画像IMGbにおける注目対応画素bは、式(5)を満足する。
図9には、撮像系CA,CBによって取得される第1および第2の画像IMGa,IMGbを示す。図9での座標系の定義は図4と同様である。焦点距離fbは焦点距離faよりも大きい。実線epi1は第1の画像IMGa内の点a1に位置する画素を注目画素としたときの第2の画像IMGb内でのエピポーラ線を示しており、注目対応画素は該エピポーラ線epi1上に存在する。また、実線epi2は第1の画像IMGa内の点a2に位置する画素を注目画素としたときの第2の画像IMGb内でのエピポーラ線を示しており、注目対応画素は該エピポーラ線epi2上に存在する。
2つの撮像系の光軸の向き(光軸間の角度)および焦点距離の相違によるエピポーラ線への影響については以上の通りである。この2種類の光学パラメータの厳密な値が取得されていない場合も、前述したように光学パラメータの値の変化に応じて変化するエピポーラ線を全て包含する2次元探索領域を設定(算出)することで、注目対応画素を精度良く検出することができる。2つの撮像系間において他の光学パラメータの値、例えば前側主点位置、撮像系の撮像素子のZ軸方向(光軸方向)での位置、撮像素子の中心と光学系の光軸との位置差、撮像素子の光軸に対する倒れおよび撮像素子の光軸回りでの回転量が異なる場合も同様である。
また、計算量やデータ量を削減するために、考慮する光学パラメータを限定してもよい。その際には、画像を取得する撮像系において予想される、特に変化しやすい光学パラメータを考慮して2次元探索領域を設定することが望ましい。例えば、単焦点光学系を有する撮像系を用いる場合は、一般にフォーカス駆動によって焦点距離と入射瞳位置が変化しやすいので、これらに基づいて2次元探索領域を設定するとよい。また、変倍時に多数の光学素子が駆動されるズームレンズを有する撮像系を用いる場合は、単焦点光学系を有する撮像系を用いる場合に考慮する光学パラメータに加えて、光軸の変化についても考慮し、これらに基づいて2次元探索領域を設定するとよい。さらに、それぞれの焦点距離が異なる複数の光学系を備える複眼撮像装置を用いる場合は、上記光学パラメータに加えて、基線長(光学系間の距離)を考慮することが好ましい。
2つの撮像系を用いる場合については以上の通りであるが、3つ以上の撮像系を用いる場合や1つの撮像系の位置と光学パラメータの値を変えて複数の画像を取得する場合についても同様である。
以下、具体的な実施例について説明する。
図10には、本発明の実施例1である複眼撮像装置1の構成を示している。図11(a),(b)には複眼撮像装置1における撮像ユニット100の構成を示している。
複眼撮像装置1は、撮像ユニット100、A/D変換器10、画像処理部20、システムコントローラ30、撮像制御部40、情報入力部50、画像記録媒体60、表示部70および記憶部80を有する。複眼撮像装置1は、撮像ユニット100のうち後述する撮像光学系が一体に設けられた撮像装置であるが、撮像光学系が後述する撮像素子を含む撮像装置に対して着脱(交換)可能であってもよい。
図11(a),(b)に示すように、撮像ユニット100は、それぞれが被写体の光学像(被写体像)を形成する6つの撮像光学系(個眼)1110a,1110b,1120a,1120b,1130a,1130bを有する。また、撮像ユニット100は、6つの撮像光学系1110a,1110b,1120a,1120b,1130a,1130bのそれぞれに対応して設けられた6つの撮像素子1210a,1210b,1220a,1220b,1230a,1230bを有する。6つの撮像光学系1110a,1110b,1120a,1120b,1130a,1130bはそれぞれ、少なくとも1つのレンズおよびフォーカスレンズを含む単焦点光学系である。1つの撮像光学系とこれに対応する1つの撮像素子とにより1つの撮像系が構成される。つまり、撮像ユニット100は、6つの撮像系を有する。図10には、撮像ユニット100のうち撮像光学系1110a,1120bの光軸を含む撮像系の断面を示している。
6つの撮像素子1210a,1210b,1220a,1220b,1230a,1230bは一体的に、かつ同一平面上に保持されて撮像素子ユニット1200を構成する。ただし、これら撮像素子1210a,1210b,1220a,1220b,1230a,1230bは必ずしも同一平面上に位置しなくてもよい。また、6つの撮像光学系1110a,1110b,1120a,1120b,1130a,1130bは、それぞれの光軸が平行になるように配置されている。
撮像光学系1110a,1110bは互いに同じ焦点距離を有し、該焦点距離が6つの撮像光学系1110a〜1130bのうち最も短い(画角がワイド画角である)1組のワイド個眼である。撮像光学系1120a,1120bは互いに同じ焦点距離を有し、該焦点距離が6つの撮像光学系1110a〜1130bのうち中間の長さである(画角がミドル画角である)1組のミドル個眼である。また、撮像光学系1130a,1130bは互いに同じ焦点距離を有し、該焦点距離が6つの撮像光学系1110a〜1130bのうち最も長い(画角がテレ画角である)1組のテレ個眼である。撮像光学系1110aは、後述する合成画像を生成する際の基準視点となる。
撮像素子1210a,1210b,1220a,1220b,1230a,1230bはそれぞれ、撮像光学系1110a,1110b,1120a,1120b,1130a,1130bにより撮像面上に形成された被写体像をアナログ電気信号に変換する。A/D変換器10は、撮像素子1210a〜1230bのそれぞれから出力されたアナログ信号をデジタル信号に変換し、6つのデジタル信号としての画像データを画像処理部20に出力する。
画像処理部20は、A/D変換器10から入力された6つの画像データに対して画素補間処理や色変換処理等の画像処理を行って6つの視点画像を生成する。画像処理部20からの6つの視点画像は、システムコントローラ30に送信される。また、画像処理部20は、記憶部80から読み出した撮像ユニット100の光学パラメータの値に基づいて、6つの視点画像間で対応点検出処理を行い、該6つの視点画像間での対応点の座標の相違量(位置関係に関する情報)を算出する。そして、画像処理部20は、該相違量に基づいて合成画像を生成したり視点画像に写った被写体空間内の各被写体の被写体距離を算出したりする。なお、画像処理部20は、複眼撮像装置1に搭載された画像処理装置に相当し、領域設定手段および画像合成手段として機能する。
情報入力部50は、ユーザが所望の撮像条件を選択して入力した情報を取得してシステムコントローラ30に該撮像条件の情報を供給する。システムコントローラ30は、入力された撮像条件の情報に基づいて、撮像制御部40を通じて各撮像光学系のフォーカスレンズの移動量、絞り値および各撮像素子の露出時間等を制御して被写体(被写体空間)の撮像を行う。これにより、画像処理部20が、上述した6つの視点画像を生成する。
画像記録媒体60は、撮像により得られた6つの視点画像、これら視点画像から生成された合成画像、視点画像から生成された被写体距離のマップおよび画像ファイルを構成するためのファイルヘッダを格納する。表示部70は、液晶表示素子等により構成され、撮像前のライブビュー画像、撮像後の6つの視点画像、合成画像、被写体距離マップおよび撮像装置1の状態等を表示する。
次に、画像処理部20が行う画像処理の手順について、図12のフローチャートを用いて説明する。コンピュータとしての画像処理部20は、コンピュータプログラムである画像処理プログラムに従って本画像処理を実行する。
ステップS101では、画像処理部20は、情報入力部50を通じてユーザにより入力されてシステムコントローラ30を介して受け取った画角の情報に応じて、後に出力する合成画像に対応する焦点距離foを算出する。また、画像処理部20は、ユーザによる画角の入力がない場合には、予め設定された任意の焦点距離を合成画像に対応する焦点距離foとして設定してもよい。ユーザが入力可能な画角の範囲は、焦点距離foがワイド個眼の焦点距離以上で、かつテレ個眼の焦点距離以下となる範囲である。
ステップS102において、システムコントローラ30が撮像ユニット100を制御して被写体空間の撮像を行うと、画像処理部20はA/D変換器10からの画像データに対して上述した画像処理を行って6つの視点画像を生成する。6つの視点画像のうち撮像光学系1110aを通した撮像により得られた視点画像を、以下の説明では基準視点画像という。
ステップS103では、画像処理部20は、記憶部80から撮像ユニット100における6つの撮像系のそれぞれにおける複数の光学パラメータの値を読み出す。ここでの複数の光学パラメータは、各撮像光学系の焦点距離、前側主点位置、入射瞳位置および撮像光学系間の基線長である。また、ここでの各光学パラメータの値が変化し得る範囲の最大値と最小値は、各光学パラメータがフォーカスレンズの駆動に応じて変化し得る範囲の最大値と最小値である。撮像光学系1110aを含む撮像系の各光学パラメータの値が第1のパラメータ値に相当し、撮像光学系1110b〜1130bを含む5つの撮像系の各光学パラメータの値が第2のパラメータ値に相当する。
ステップS104では、画像処理部20は、各視点画像にトリミング拡大処理または縮小処理を行い、各視点画像の画角を合成画像の画角と同じにする。具体的には、焦点距離foがミドル個眼の焦点距離よりも短い場合には、ミドル個眼およびテレ個眼を通した撮像により生成された4つの視点画像に対して縮小処理を行い、ワイド個眼を通した撮像により生成された2つの視点画像に対してトリミング拡大処理を行う。焦点距離foがミドル個眼の焦点距離よりも長い場合には、テレ個眼を通した撮像により生成された2つの視点画像に対して縮小処理を行い、ワイド個眼およびミドル個眼を通した撮像により生成された4つの視点画像に対してトリミング拡大処理を行う。トリミング拡大処理および縮小処理の際には、バイキュービック補間等、公知の画素補間処理を用いる。
ステップS105では、画像処理部20は、画角を互いに同じとした複数の視点画像のうち1つの基準視点画像とその他の5つの視点画像(以下、探索視点画像という)に対して対応点検出処理を行う。具体的には、画像処理部20は、基準視点画像内の複数の画素領域のそれぞれについて各探索視点画像内で注目対応画素を探索する2次元探索領域を算出する。2次元探索領域は、各探索視点画像のうち、上記複数の光学パラメータの値が変化し得る範囲の最大値と最小値の全ての組み合わせに対応するエピポーラ線を全て包含する部分領域である。
画像処理部20は、まず基準視点画像内の各画素領域の中心に位置する画素を注目画素として探索視点画像内で注目対応画素を探索する2次元探索領域を算出し、同じ画素領域内の画素を注目画素として注目対応画素を探索する際には同じ2次元探索領域で探索する。2次元探索領域のサイズが大きければ該2次元探索領域の算出に必要な計算量は少なくなるが、2次元探索領域のサイズが大きすぎると該2次元探索範囲内に注目対応画素が存在しない可能性がある。ここでは2次元探索領域のサイズを、例として、10×10画素とする。
こうして、画像処理部20は、基準視点画像の画素(注目画素)ごとに、複数の探索視点画像内の2次元探索領域において対応する画素(注目対応画素)を探索する。基準視点画像の全ての画素に対して複数(またはその一部)の探索視点画像にて対応する画素が検出されると次のステップに進む。
ステップS106では、画像処理部20は、基準視点画像と各探索視点画像との間の対応点の座標の相違量に基づいて1つの合成画像を生成する。具体的には、基準視点画像内の注目画素の画素値と該注目画素に対応する5つの探索視点画像内の注目対応画素の画素値との平均値を算出し、合成画像内における該注目画素および注目対応画素に対応する画素の画素値とする。この処理を基準視点画像の全ての画素について行って合成画像の全画素の画素値を算出することで、合成画像を生成する。
このように、本実施例では、複数の視点画像の取得時における撮像系の光学パラメータの値が取り得る範囲に基づいて探索視点画像内に設定した2次元探索領域内で注目対応画素探索をする。これにより、撮像系ごとの厳密な光学パラメータの値を得ていない場合であっても、少ない計算量で高精度に注目対応画素を検出することができる。この結果、良好な合成画像を生成することができる。
次に、本発明の実施例2について説明する。本実施例は、実施例1の複眼撮像装置1の変形例である。本実施例の複眼撮像装置2の構成は、実施例1の複眼撮像装置1の構成と同様である。複眼撮像装置2は、撮像光学系1110aをワイド基準視点とし、撮像光学系1120bをミドル基準視点とする。また、撮像光学系1130aをテレ基準視点とする。
複眼撮像装置2の記憶部80は、撮像光学系1110b,1120b,1130bを通した撮像によりそれぞれ取得される探索視点画像における撮像条件ごとの2次元探索領域を示すテーブルデータ(以下、探索領域テーブルという)を記憶している。探索領域テーブルは、2つ(対)のワイド個眼、2つ(対)のミドル個眼および2つ(対)のテレ個眼ごとに1つずつ用意されている。各探索領域テーブルは、各対の個眼のうち基準視点となる一方の撮像光学系と他方の撮像光学系の合焦距離および注目画素の座標ごとの2次元探索領域を示すデータである。
各探索領域テーブル内の2次元探索領域は、撮像光学系1110a〜1130bの複数の光学パラメータの値に基づいて算出されたものである。具体的には、複数の光学パラメータは、撮像光学系1110a〜1130bの合焦距離、焦点距離、入射瞳位置、前側主点位置および基線長である。そして、各光学パラメータの基準値の105%の値を該光学パラメータの値が変化し得る範囲の最大値とし、該基準値の95%の値を該範囲の最小値として、上記2次元探索領域が算出されている。本実施例でも2次元探索領域は、各上記複数の光学パラメータの値が変化し得る範囲の最大値と最小値の全ての組み合わせに対応するエピポーラ線を全て包含する部分領域である。なお、ここでは、例として、2次元探索領域を設定するために用いる光学パラメータの値が変化し得る範囲の最大値と最小値を、各光学パラメータの基準値に対して+5%の値と−5%の値とした。しかし、光学パラメータの値の変化し得る最大値と最小値を、各撮像光学系を構成する光学素子、機構部および駆動部の公差から算出してもよいし、予め測定して取得してもよい。
本実施例では、撮像光学系1110a,1120a,1130aを含む3つの撮像系の各光学パラメータの値が第1のパラメータ値に相当する。また、他の撮像光学系1110b,1120b,1130bを含む3つの撮像系の各光学パラメータの値が第2のパラメータ値に相当する。
さらに、記憶部80は、被写体距離の算出に必要な光学パラメータの値を記憶している。ここにいう光学パラメータは、各撮像光学系の焦点距離、入射瞳位置、前側主点位置間の距離および各基準視点となる撮像光学系と他の撮像光学系との間の基線長である。各撮像光学系の入射瞳位置から入射瞳位置の相違量を算出することができる。複眼撮像装置2内の画像処理部20は、探索視点画像における2次元探索領域内での対応点検出処理を行い、その結果および光学パラメータに基づいて各視点画像に写っている被写体空間の奥行き(被写体距離)の情報としての距離マップを生成(算出)する。本実施例の画像処理部20は、複眼撮像装置1に搭載された画像処理装置に相当し、かつ領域設定手段および奥行き情報生成手段として機能する。
次に、画像処理部20が行う画像処理の手順について、図13のフローチャートを用いて説明する。コンピュータとしての画像処理部20は、コンピュータプログラムである画像処理プログラムに従って本画像処理を実行する。
ステップS201において、システムコントローラ30が撮像ユニット100を制御して被写体空間の撮像を行うと、画像処理部20はA/D変換器10からの画像データに対して実施例1で説明した画像処理を行って6つの視点画像を生成する。6つの視点画像のうち、ワイド基準視点、ミドル基準視点およびテレ基準視点となる個眼1110a,1120a,1130aを通した撮像により生成された画像をそれぞれ、ワイド基準視点画像、ミドル基準視点画像およびテレ基準視点画像という。また、上記6つの視点画像のうち個眼1110a,1120a,1130aと対をなす個眼1110b,1120b,1130bを通した撮像により生成された画像をそれぞれ、ワイド探索視点画像、ミドル探索視点画像およびテレ探索視点画像という。画像処理部20は、これら6つの視点画像の生成とともに、各個眼の合焦距離を撮像条件として保存する。
ステップS202では、画像処理部20は、ステップS201で保存した各個眼の合焦距離を取得する。
ステップS203では、画像処理部20は、記憶部80に記憶されたワイド個眼、ミドル個眼およびテレ個眼ごとの探索領域テーブルから、それぞれの合焦距離に対応する2次元探索領域を読み出す。
ステップS204では、画像処理部20は、ワイド、ミドルおよびテレ基準視点画像内の注目画素に対応する注目対応画素をそれぞれ、ワイド、ミドルおよびテレ探索視点画像におけるステップS203でそれぞれ読み出した2次元探索領域内で探索する。
こうして、画像処理部20は、基準視点画像の画素(注目画素)ごとに、複数の探索視点画像内の2次元探索領域において対応する画素(注目対応画素)を探索する。基準視点画像の全ての画素に対して複数(またはその一部)の探索視点画像にて対応する画素が検出されると次のステップに進む。
ステップS205では、画像処理部20は、記憶部80から被写体距離の算出に必要な複数の光学パラメータの値を読み出し、該複数の光学パラメータの値と複数の対応点の座標とを用いて被写体空間内の複数の被写体距離を算出する。被写体距離は、式(3)に各注目画素と各注目対応画素の座標、各個眼の合焦距離および複数の光学パラメータの値を代入することで求められるZoである。
ステップS206では、画像処理部20は、ステップS205で算出された複数の被写体距離を示す距離マップを生成する。本実施例では、ワイド基準および探索視点画像における注目および注目対象画素の座標からワイド画角用の距離マップが生成され、ミドル基準および探索視点画像における注目および注目対象画素の座標からミドル画角用の距離マップが生成される。また、テレ基準および探索視点画像における注目および注目対象画素の座標からテレ画角用の距離マップが生成される。ワイド画角用の距離マップからは、ミドルおよびテレ画角用の距離マップに比べてより広い被写体空間内の奥行き情報が得られる。また、テレ画角用の距離マップからは、ミドルおよびワイド画角用の距離マップに比べて被写体空間のうち狭い範囲における細かな奥行き情報が得られる。
このように、本実施例でも、複数の視点画像の取得時における撮像系の光学パラメータの値が取り得る範囲に基づいて探索視点画像内に設定した2次元探索領域内で注目対応画素探索をする。これにより、撮像系ごとの厳密な光学パラメータの値を得ていない場合であっても、少ない計算量で高精度に注目対応画素を検出することができる。この結果、良好な距離マップを生成することができる。
次に、本発明の実施例3であるステレオ撮像装置について説明する。本実施例のステレオ撮像装置は、高速な処理で距離マップを取得可能である。
図14には、本実施例のステレオ撮像装置3の構成を示す。ステレオ撮像装置3の構成は、撮像ユニット300を除いて実施例1の複眼撮像装置1と同様であり、実施例1と共通する又は同様な構成要素には実施例1と同符号を付す。
ステレオ撮像装置3は、撮像ユニット300を備えている。撮像ユニット300は、撮像光学系3100a,3100bと、これら撮像光学系3100a,3100bのそれぞれに対応する撮像素子3200a,3200bとを有する。1つの撮像光学系とこれに対応する1つの撮像素子とにより1つの撮像系が構成される。つまり、撮像ユニット300は、2つの撮像系を有する。撮像光学系3100a,3100bはそれぞれ、少なくとも1つのレンズを含み、それぞれの焦点距離は互いに同じである。撮像光学系3100aは、距離マップを生成する際の基準視点となる。撮像光学系3100aを通した撮像により取得される画像を基準視点画像といい、撮像光学系3100bを通した撮像により取得される画像を探索視点画像という。
ステレオ撮像装置3の記憶部80は、基準視点画像内の画素(座標)ごとの探索視点画像における2次元探索領域を示す探索領域テーブルを記憶している。探索領域テーブル内の2次元探索領域は、撮像光学系3100a,3100bの複数の光学パラメータの値に基づいて算出されたものである。具体的には、複数の光学パラメータは、撮像光学系3100a,3100bの焦点距離、入射瞳位置、前側主点位置および基線長である。また、複数の光学パラメータは、撮像素子3200a,3200bのそれぞれの中心の撮像光学系3100a,3100bの光軸に対する位置差としての中心ずれ量、撮像素子3200a,3200bの光軸回りでの回転角および光軸に直交する面に対する倒れ角も含む。2次元探索領域は、探索視点画像のうち上記複数の光学パラメータのそれぞれの値が変化し得る範囲の最大値および最小値の全ての組み合わせに対応するエピポーラ線を全て包含する部分領域である。
各撮像素子の中心ずれ量、回転角および倒れ角のそれぞれが変化し得る範囲の最大値と最小値は、撮像ユニット300の組立て公差から算出されるのが好ましい。理想的に配置された各撮像素子の中心ずれ量、回転角および倒れ角はいずれも0である。ここでは例として、中心ずれ量が変化し得る範囲の最大値を+1mm、最小値を−1mmとし、回転角および倒れ角が変化し得る範囲の最大値を+1°、最小値を−1°とする。
本実施例では、撮像光学系3100aを含む撮像系の各光学パラメータの値が第1のパラメータ値に相当し、撮像光学系3100bを含む撮像系の各光学パラメータの値が第2のパラメータ値に相当する。また、画像処理部20は、ステレオ撮像装置3に搭載された画像処理装置に相当し、かつ領域設定手段および奥行き情報生成手段として機能する。
次に、画像処理部20が行う画像処理の手順について、図15のフローチャートを用いて説明する。コンピュータとしての画像処理部20は、コンピュータプログラムである画像処理プログラムに従って本画像処理を実行する。
ステップS301において、システムコントローラ30が撮像ユニット300を制御して被写体空間の撮像を行うと、画像処理部20はA/D変換器10からの画像データに対して実施例1で説明した画像処理を行って基準視点画像および探索視点画像を生成する。
ステップS302では、画像処理部20は、基準視点画像に対してSLIC法を用いてクラスタリング処理を行うことで、基準視点画像を複数の画素領域に分割する。画素領域の分割数は任意であるが、ここでは例として30の画素領域に分割する。
ステップS303では、画像処理部20は、記憶部80の探索領域テーブルから、基準視点画像における画素(座標)ごとの2次元探索領域を読み出す。
ステップS304では、画像処理部20は、基準視点画像の各画素領域内の1つの注目画素に対する探索視点画像における注目対応画素を、探索視点画像のうちステップS303で読み出した2次元探索領域で探索する。そして、画像処理部20は、それぞれ画素領域内の注目画素と注目対応画素からなる複数対の対応点の基準画像と探索画像との間での座標の相違量のうち最大値を最大対応点ずれ量として取得する。
ステップS305では、画像処理部20は、ステップS303で読み出した座標ごとの2次元探索領域のうち、注目画素の座標からの距離が上記最大対応点ずれ量より大きい画素の2次元探索領域を消去し、限定された2次元探索領域を設定する。
ステップS306では、画像処理部20は、注目画素に対応する注目対応画素を探索視点画像におけるステップS305で限定した2次元探索領域内で探索する。
こうして、画像処理部20は、基準視点画像の画素(注目画素)ごとに、探索視点画像内の2次元探索領域において対応する画素(注目対応画素)を探索する。基準視点画像の全て(または一部)の画素に対して探索視点画像にて対応する画素が検出されると次のステップに進む。
ステップS307では、画像処理部20は、複数の対応点の座標を用いて被写体空間内の複数の被写体距離を算出する。
ステップS308では、画像処理部20は、ステップS307で算出された複数の被写体距離を示す距離マップを生成する。
このように、本実施例でも、複数の視点画像の取得時における撮像系の光学パラメータの値が取り得る範囲に基づいて探索視点画像内に設定した2次元探索領域内で注目対応画素探索をする。これにより、撮像系ごとの厳密な光学パラメータの値を得ていない場合であっても、少ない計算量で高精度に注目対応画素を検出することができる。この結果、良好な距離マップを生成することができる。特に本実施例では、クラスタリング処理がなされた基準視点画像(複数の画素領域)と探索視点画像との間での最大対応点ずれ量に応じて限定された2次元探索領域を設定する。これにより、より少ない計算量で高精度に注目対応画素を検出することができ、高速に高精度の距離マップを生成することができる。
次に、本発明の実施例4である撮像装置について説明する。本実施例の撮像装置は、それぞれ合焦距離が異なる複数の画像を取得し、該複数の画像を用いて全焦点画像(パンフォーカス画像)を生成する。
同一の被写体空間の撮像により取得されたそれぞれ合焦距離が異なる複数の画像のそれぞれから鮮鋭度が高い部分領域を選択して合成する(組み合わせる)ことで、被写体空間の全域にピントが合っている全焦点画像を生成することができる。それぞれ合焦距離が異なる複数の画像は、単一の撮像系のフォーカスレンズを逐次駆動しながら複数回撮像を行うこと、すなわちフォーカスブラケティング撮像を行うことで取得することができる。ただし、フォーカスレンズの駆動により撮像光学系の焦点距離や入射瞳位置等の光学パラメータの値が変化すると、それぞれ合焦距離が異なる複数の画像において同一被写体が写っている画素(座標)が異なってしまう。このため、これら複数の画像間で被写体の位置を合わせる処理を行ってから合成を行う必要がある。
そこで、本実施例の撮像装置では、フォーカスブラケティング撮像により取得したそれぞれ合焦距離が異なる複数の画像のうち1つの画像を基準画像とし、他(2以上)の画像を探索画像とする。そして、フォーカスブラケティング撮像における複数回の撮像での光学パラメータの値に基づいて探索画像のそれぞれに対して算出された2次元探索領域にて基準画像の注目画素に対応する注目対応画素を検出する。こうして得られた対応点を用いて基準画像と探索画像との被写体位置合せを行う。これにより、少ない計算量で良好な全焦点画像を生成することができる。
図16には、本実施例の撮像装置4の構成を示す。撮像装置4の構成は、撮像ユニット400を除いて実施例1の複眼撮像装置1と同様であり、実施例1と共通する又は同様な構成要素には実施例1と同符号を付す。
撮像装置4は、撮像ユニット400を有する。撮像ユニット400は、撮像光学系4100と撮像素子4200とにより構成されている。撮像光学系4100と撮像素子4200により撮像系が構成される。撮像光学系4100は、少なくとも1つのレンズおよびフォーカスレンズを含む。
システムコントローラ30は、撮像制御部40を制御し、フォーカスレンズを逐次移動させながら撮像を行い、画像処理部20にそれぞれ合焦距離が異なる複数の画像を生成させる。つまり、撮像装置4は、フォーカスブラケティング撮像を行うことができる。
本実施例では、基準画像の取得時における撮像系の光学パラメータの値が第1のパラメータ値に相当し、2つの探索画像の取得時における撮像系の光学パラメータの値がそれぞれ第2のパラメータ値に相当する。また、画像処理部20は、撮像装置4に搭載された画像処理装置に相当し、かつ領域設定手段および画像生成手段として機能する。
次に、画像処理部20が行う画像処理の手順について、図17のフローチャートを用いて説明する。コンピュータとしての画像処理部20は、コンピュータプログラムである画像処理プログラムに従って本画像処理を実行する。
ステップS401において、システムコントローラ30は、撮像ユニット400を制御して被写体空間のフォーカスブラケティング撮像を行う。これにより、画像処理部20は、A/D変換器10からの画像データに対して実施例1で説明した画像処理を行って複数の画像を生成する。このとき、システムコントローラ30は、無限遠を合焦距離とする撮像から行い、予め設定された至近距離が合焦距離となるまで合計N回の撮像を行う。Nは任意の数でよいが、ここでは例としてN=3とする。無限遠を合焦距離とする撮像により取得された画像を基準画像とし、他の2つの画像を探索画像とする。
ステップS402では、画像処理部20は、記憶部80から3回の撮像における撮像光学系4100の複数の光学パラメータの値を読み出す。複数の光学パラメータは、撮像光学系4100の焦点距離、入射瞳位置、前側主点位置および光軸の向きであり、それぞれが変化し得る範囲の最大値と最小値が読み出される。これら最大値と最小値は、撮像光学系4100がフォーカスレンズを駆動した際の各光学パラメータが変化し得る範囲の最大値と最小値である。このうち、光軸の向きが変化し得る範囲の最大値は、無限遠合焦時における撮像光学系4100の光軸を基準光軸として、ここからフォーカスレンズを駆動しながら行う各撮像時の光軸と基準光軸とがなす角度の最大値である。光軸の向きが変化し得る範囲の最小値は、上記最大値の負値である。
ステップS403では、まず画像処理部20は、ステップS402で読み出した複数の光学パラメータの値に基づいて探索画像における2次元探索領域を設定(算出)する。具体的には、2次元探索領域を、探索画像のうち上記複数の光学パラメータのそれぞれの値が変化し得る範囲の最大値および最小値の全ての組み合わせに対応するエピポーラ線を全て包含する部分領域とする。このとき、光軸の向きについては、基準光軸に対して直交し、かつ互いに直交する2方向のそれぞれに最大値と最小値とがある。つまり、光軸の向きを示すパラメータ値としては4つあり、2次元探索領域はこれら4つのパラメータ値を含めた全ての組み合わせに対応するエピポーラ線を全て包含する部分領域とする。
次に画像処理部20は、基準画像内の注目画素に対応する注目対応画素を探索画像におけるステップS403で設定した2次元探索領域内で探索する。こうして、画像処理部20は、基準画像の画素(注目画素)ごとに、2つの探索画像内の2次元探索領域において対応する画素(注目対応画素)を探索する。基準画像の全ての画素に対して2つ(または1つ)の探索画像にて対応する画素が検出されると次のステップに進む。
ステップS404では、画像処理部20は、基準画像と2つの探索画像に対して、これら画像間の対応点の座標に基づいて被写体の位置を一致させる被写体位置合せ処理を行う。具体的には、各探索画像のうち基準画像の各画素(注目画素)と同一の座標に位置する画素の画素値を、該探索画像における該注目画素に対応する注目対応画素の画素値で置き換える。これにより、2つの探索画像が、基準画像と同一の座標の画素に同一被写体が写っている画像に変換される。
ステップS405では、画像処理部20は、基準画像および2つの探索画像を合成して全焦点画像を生成する。具体的には、これら基準画像および2つの探索画像のうち鮮鋭度が最も高い部分領域を有する画像を選択し、その部分領域の画素値を全焦点画像の画素値とする。鮮鋭度の評価には、例えば空間2次微分を用いる。具体的には、各画像に対して公知のラプラシアンフィルタを適用して基準画像および2つの探索画像のそれぞれに対応する空間2次微分画像を生成する。その後、基準画像および2つの探索画像のうち、対応する空間2次微分画像における部分領域の画素値が最も大きい画像を選択し、該部分領域の画素値を全焦点画像の画素値とする。
このように本実施例では、1つの撮像系を用いてフォーカスブラケティング撮像を行うことで取得した複数の画像(基準および探索画像)における被写体の位置を合わせた上で、該複数の画像のうち鮮鋭度が高い部分領域を合成することで全焦点画像を生成する。そして、被写体の位置合わせにおいて、基準画像の画素に対応する探索画像内での画素をフォーカスブラケティング撮像での光学パラメータの値に基づいて設定した2次元探索領域内で探索する。これにより、少ない計算量で複数の画像における位置合わせを行うことができ、良好な全焦点画像を生成することができる。
また、本実施例は、フォーカスブラケティング撮像により取得した複数の画像を合成する際の被写体位置合わせのための対応点の検出について説明した。しかし、同様の対応点の検出を、ズームブラケティング撮像を行って取得した複数の画像を合成する際の被写体位置合わせにも適用することができる。すなわち、撮像光学系をズーム駆動すると、撮像系の各光学パラメータの値を変化させるだけでなく、その各光学パラメータの値を厳密に取得するのは困難である。このため、複数の画像の被写体の位置を合わせる際に本実施例で説明した対応点の検出方法(さらに言えば、2次元探索領域の設定方法)が有効である。
(その他の実施例)
なお、各実施例では、画像処理装置を搭載した撮像装置について説明したが、本発明の画像処理方法は、例えば、パーソナルコンピュータにインストールされる画像処理プログラムによっても実施することができる。この場合、パーソナルコンピュータが画像処理装置に相当する。
さらに、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。
1,2,3,4 撮像装置
1110a,1110b,1120a,1120b,1130a,1130b,3100a,3100b,4100 撮像光学系
1210a,1210b,1220a,1220b,1230a,1230b,3200a,3200b,4200 撮像素子
20 画像処理部

Claims (15)

  1. それぞれ撮像により取得された画像であり、該撮像に用いられた撮像系の光学パラメータが互いに異なる第1のパラメータ値および第2のパラメータ値である第1の画像および第2の画像に対して、前記第1の画像内の対象画素に対応する前記第2の画像内の対応画素を検出する処理を行う画像処理装置であって、
    前記第1および第2のパラメータ値がそれぞれ変化し得る所定範囲に応じて、前記第2の画像のうち前記対応画素の探索を行う部分領域である2次元探索領域を設定する領域設定手段と、
    前記2次元探索領域において前記探索を行うことにより前記対応画素を検出する検出手段とを有することを特徴とする画像処理装置。
  2. 前記対象画素は、前記第2の画像のうち前記第1および第2のパラメータ値に応じたエピポーラ線上に存在し、
    前記領域設定手段は、前記第1および第2のパラメータ値の前記所定範囲での変化に応じて前記第2の画像内で変化する前記エピポーラ線を全て包含するように前記2次元探索領域を設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記所定範囲は、前記第1および第2のパラメータ値が変化し得る最大値から最小値までの範囲であることを特徴とする請求項2に記載の画像処理装置。
  4. 前記光学パラメータは、前記撮像系が有する光学系の焦点距離、入射瞳の位置、前側主点の位置、光軸の向き、合焦距離、前記撮像系が有する撮像素子の前記光軸の方向での位置、前記撮像素子の中心と前記光軸との位置差、前記撮像素子の前記光軸に直交する面に対する倒れ角および前記撮像素子の前記光軸回りでの回転角のうち少なくとも1つであることを特徴とする請求項1から3のいずれか一項に記載の画像処理装置。
  5. 前記光学パラメータは、少なくとも前記入射瞳の位置および前記光軸の向きを含むことを特徴とする請求項4に記載の画像処理装置。
  6. 前記光学パラメータは、少なくとも前記焦点距離および前記入射瞳の位置を含むことを特徴とする請求項4に記載の画像処理装置。
  7. 前記光学パラメータは、少なくとも前記焦点距離、前記入射瞳の位置および前記光軸の向きを含むことを特徴とする請求項4に記載の画像処理装置
  8. 前記第1および第2の画像は、互いに異なる視点位置からの撮像により取得された画像であり、
    前記光学パラメータは、前記視点位置間の距離を含むことを特徴とする請求項1から7のいずれか一項に記載の画像処理装置。
  9. 前記第1の画像と前記対応画素が検出された前記第2の画像とを用いて、前記撮像系により撮像された被写体空間の奥行き情報を生成する奥行き情報生成手段をさらに有することを特徴とする請求項1から8のいずれか一項に記載の画像処理装置。
  10. 前記第1の画像と前記対応画素が検出された前記第2の画像とを合成することにより合成画像または全焦点画像を生成する画像合成手段をさらに有することを特徴とする請求項1から8のいずれか一項に記載の画像処理装置。
  11. 前記第1および第2の画像は、前記光学パラメータが互いに異なる第1の撮像系および第2の撮像系により取得された画像であることを特徴とする請求項1から10のいずれか一項に記載の画像処理装置。
  12. 前記第1および第2の撮像系は、該各撮像系が有する光学系の焦点距離が互いに異なることを特徴とする請求項11に記載の画像処理装置。
  13. 互いに異なる光学パラメータで撮像を行うことにより第1の画像および第2の画像を取得する撮像系と、
    請求項1から12のいずれか一項に記載の画像処理装置とを有することを特徴とする撮像装置。
  14. それぞれ撮像により取得された画像であり、該撮像に用いられた撮像系の光学パラメータが互いに異なる第1のパラメータ値および第2のパラメータ値である第1の画像および第2の画像に対して、前記第1の画像内の対象画素に対応する前記第2の画像内の対応画素を検出する処理を行う画像処理方法であって、
    前記第1および第2のパラメータ値がそれぞれ変化し得る所定範囲に応じて、前記第2の画像のうち前記対応画素の探索を行う部分領域である2次元探索領域を設定するステップと、
    前記2次元探索領域において前記探索を行うことにより前記対応画素を検出するステップとを有することを特徴とする画像処理方法。
  15. コンピュータに、それぞれ撮像により取得された画像であり、該撮像に用いられた撮像系の光学パラメータが互いに異なる第1のパラメータ値および第2のパラメータ値である第1の画像および第2の画像に対して、前記第1の画像内の対象画素に対応する前記第2の画像内の対応画素を検出する処理を行わせるコンピュータプログラムであって、
    前記コンピュータに、
    前記第1および第2のパラメータ値がそれぞれ変化し得る所定範囲に応じて、前記第2の画像のうち前記対応画素の探索を行う部分領域である2次元探索領域を設定する処理と、
    前記2次元探索領域において前記探索を行うことにより前記対応画素を検出する処理とを実行させることを特徴とする画像処理プログラム。
JP2016097981A 2016-05-16 2016-05-16 画像処理装置、撮像装置、画像処理方法および画像処理プログラム Active JP6702796B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016097981A JP6702796B2 (ja) 2016-05-16 2016-05-16 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
US15/591,644 US11032533B2 (en) 2016-05-16 2017-05-10 Image processing apparatus, image capturing apparatus, image processing method, and storage medium
CN201710332926.4A CN107395924B (zh) 2016-05-16 2017-05-11 图像处理装置、图像捕获装置和图像处理方法
EP17170984.3A EP3255888B1 (en) 2016-05-16 2017-05-15 Image capturing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016097981A JP6702796B2 (ja) 2016-05-16 2016-05-16 画像処理装置、撮像装置、画像処理方法および画像処理プログラム

Publications (3)

Publication Number Publication Date
JP2017208606A true JP2017208606A (ja) 2017-11-24
JP2017208606A5 JP2017208606A5 (ja) 2019-06-13
JP6702796B2 JP6702796B2 (ja) 2020-06-03

Family

ID=59061763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016097981A Active JP6702796B2 (ja) 2016-05-16 2016-05-16 画像処理装置、撮像装置、画像処理方法および画像処理プログラム

Country Status (4)

Country Link
US (1) US11032533B2 (ja)
EP (1) EP3255888B1 (ja)
JP (1) JP6702796B2 (ja)
CN (1) CN107395924B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6818537B2 (ja) * 2016-12-16 2021-01-20 キヤノン株式会社 撮像装置
US10620505B2 (en) * 2017-06-27 2020-04-14 Arcsoft Corporation Limited Method and apparatus for focusing
US10534837B2 (en) 2017-11-13 2020-01-14 Samsung Electronics Co., Ltd Apparatus and method of low complexity optimization solver for path smoothing with constraint variation
JP2019161462A (ja) * 2018-03-13 2019-09-19 キヤノン株式会社 制御装置、画像処理システム、制御方法、及びプログラム
JP2021122080A (ja) * 2018-05-09 2021-08-26 ソニーグループ株式会社 データ処理装置、データ処理方法、及び、プログラム
CN109714530B (zh) * 2018-12-25 2020-08-21 中国科学院长春光学精密机械与物理研究所 一种航空相机图像调焦方法
JP7363892B2 (ja) * 2019-04-18 2023-10-18 ソニーグループ株式会社 交換レンズ、情報処理装置、情報処理方法、及び、プログラム
CN114862717B (zh) * 2022-05-11 2023-06-23 桂林理工大学 主光轴与核线正交和横轴共线同时约束的鱼眼相机像对检校方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000028355A (ja) * 1998-07-13 2000-01-28 Victor Co Of Japan Ltd 3次元画像処理装置
JP2002027495A (ja) * 2000-07-03 2002-01-25 Sony Corp 3次元画像生成システム、3次元画像生成方法及び3次元情報サービスシステム、並びにプログラム提供媒体
JP2010103949A (ja) * 2008-10-27 2010-05-06 Fujifilm Corp 撮影装置、方法およびプログラム
WO2011096251A1 (ja) * 2010-02-02 2011-08-11 コニカミノルタホールディングス株式会社 ステレオカメラ

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7046306B2 (en) * 2003-03-31 2006-05-16 Texas Instruments Incorporated Processing a video signal using motion estimation to separate luminance information from chrominance information in the video signal
US8896725B2 (en) * 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7778328B2 (en) * 2003-08-07 2010-08-17 Sony Corporation Semantics-based motion estimation for multi-view video coding
JP5119567B2 (ja) * 2004-09-30 2013-01-16 カシオ計算機株式会社 カメラ
EP2059026A4 (en) * 2006-08-30 2010-12-29 Nikon Corp APPARATUS AND METHOD FOR ALIGNING IMAGE AND CAMERA
EP1918614A1 (en) * 2006-11-02 2008-05-07 Fico Triad S.A. Cover assembly for a motor vehicle gearshift assembly
US8593524B2 (en) 2006-12-18 2013-11-26 Koninklijke Philips N.V. Calibrating a camera system
WO2013099169A1 (ja) 2011-12-27 2013-07-04 パナソニック株式会社 ステレオ撮影装置
JP2013176468A (ja) * 2012-02-28 2013-09-09 Canon Inc 情報処理装置、情報処理方法
JP6074926B2 (ja) 2012-07-05 2017-02-08 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
WO2015025073A1 (en) * 2013-08-19 2015-02-26 Nokia Corporation Method, apparatus and computer program product for object detection and segmentation
JP6278668B2 (ja) 2013-11-22 2018-02-14 キヤノン株式会社 複眼撮像装置
JP6253380B2 (ja) 2013-12-11 2017-12-27 キヤノン株式会社 画像処理方法、画像処理装置および撮像装置
KR102085228B1 (ko) 2014-03-27 2020-03-05 한국전자통신연구원 깊이 센서의 깊이 보정을 위한 이미지 처리방법 및 그 장치
CN104299228B (zh) 2014-09-23 2017-08-25 中国人民解放军信息工程大学 一种基于精确点位预测模型的遥感影像密集匹配方法
CN104392457B (zh) 2014-12-11 2017-07-11 中国测绘科学研究院 倾斜影像的连接点自动匹配方法及装置
US9628695B2 (en) * 2014-12-29 2017-04-18 Intel Corporation Method and system of lens shift correction for a camera array
CN104966281B (zh) 2015-04-14 2018-02-02 中测新图(北京)遥感技术有限责任公司 多视影像的imu/gnss引导匹配方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000028355A (ja) * 1998-07-13 2000-01-28 Victor Co Of Japan Ltd 3次元画像処理装置
JP2002027495A (ja) * 2000-07-03 2002-01-25 Sony Corp 3次元画像生成システム、3次元画像生成方法及び3次元情報サービスシステム、並びにプログラム提供媒体
JP2010103949A (ja) * 2008-10-27 2010-05-06 Fujifilm Corp 撮影装置、方法およびプログラム
WO2011096251A1 (ja) * 2010-02-02 2011-08-11 コニカミノルタホールディングス株式会社 ステレオカメラ

Also Published As

Publication number Publication date
EP3255888B1 (en) 2023-02-01
JP6702796B2 (ja) 2020-06-03
US20170332067A1 (en) 2017-11-16
EP3255888A3 (en) 2018-02-28
EP3255888A2 (en) 2017-12-13
CN107395924B (zh) 2020-05-08
US11032533B2 (en) 2021-06-08
CN107395924A (zh) 2017-11-24

Similar Documents

Publication Publication Date Title
JP6702796B2 (ja) 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
JP7043085B2 (ja) 視点から距離情報を取得するための装置及び方法
US9479760B2 (en) Solid state imaging device, calculating device, and calculating program
JP6585006B2 (ja) 撮影装置および車両
JP6112824B2 (ja) 画像処理方法および装置、プログラム。
JP4673202B2 (ja) 画像入力装置
JP6223169B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2009529824A (ja) 3次元映像獲得用cmosステレオカメラ
JP6071257B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP7288226B2 (ja) 測距カメラ
JP2011149931A (ja) 距離画像取得装置
WO2019078032A1 (ja) 情報処理装置、情報処理方法、及び、プログラム、並びに、交換レンズ
CN108540693B (zh) 图像捕获装置和图像捕获单元
US10230882B2 (en) Image pickup apparatus acquiring a plurality of in-focus images of different field angles
JP2003346130A (ja) 3次元情報処理装置および3次元情報処理方法
JP2013120435A (ja) 画像処理装置および画像処理方法、プログラム
WO2015159791A1 (ja) 測距装置および測距方法
JP5925109B2 (ja) 画像処理装置、その制御方法、および制御プログラム
JP6598621B2 (ja) 撮像装置
JP6648916B2 (ja) 撮像装置
JP2018129825A (ja) 情報処理装置及び方法、情報処理システム、ならびにプログラム。
JP7328589B2 (ja) 測距カメラ
JP6292785B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP7200002B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および記憶媒体
JP7256368B2 (ja) 測距カメラ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190508

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200507

R151 Written notification of patent or utility model registration

Ref document number: 6702796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151