JP4790086B2 - 多眼撮像装置および多眼撮像方法 - Google Patents

多眼撮像装置および多眼撮像方法 Download PDF

Info

Publication number
JP4790086B2
JP4790086B2 JP2010287601A JP2010287601A JP4790086B2 JP 4790086 B2 JP4790086 B2 JP 4790086B2 JP 2010287601 A JP2010287601 A JP 2010287601A JP 2010287601 A JP2010287601 A JP 2010287601A JP 4790086 B2 JP4790086 B2 JP 4790086B2
Authority
JP
Japan
Prior art keywords
image
video
area
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010287601A
Other languages
English (en)
Other versions
JP2011151798A (ja
Inventor
智哉 紫村
誠一 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010287601A priority Critical patent/JP4790086B2/ja
Publication of JP2011151798A publication Critical patent/JP2011151798A/ja
Application granted granted Critical
Publication of JP4790086B2 publication Critical patent/JP4790086B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、多眼撮像装置および多眼撮像方法に関する。
本願は、2009年12月24日に、日本に出願された特願2009−291624号に基づき優先権を主張し、その内容をここに援用する。
近年、高画質なデジタルスチルカメラやデジタルビデオカメラ(以下、デジタルカメラという)が急速に普及してきている。また、並行してデジタルカメラの小型化、薄型化の開発も進められており、携帯電話機等に小型で高画質なデジタルカメラが搭載され始めた。デジタルカメラに代表される撮像装置は、像を結像するレンズ光学系と、結像した光を光電変換して電気信号を出力する撮像素子とから構成されている。撮像素子としては、CMOS(Complementary Metal Oxide Semiconductor:相補型金属酸化膜半導体)センサやCCD(Charge Coupled Device:電荷結合素子)センサ等の電子デバイスが使用される。これら撮像素子は、撮像面に結像した光量分布を光電変換し撮影画像として記録する。レンズ光学系は、収差を除去するために、数枚の非球面レンズから構成されているものが多い。さらにズーム機能を持たせる場合は、複数のレンズと撮像素子の間隔を変える駆動機構(アクチュエータ)が必要となる。
一方、撮像装置の高画質化、高機能化の要求に応じて、撮像素子は多画素化、高精細化し、結像光学系は低収差、高精度化が進んでいる。それに伴い、撮像装置が大きくなり、小型化、薄型化が困難になってしまうという課題が表出している。このような課題に対して、レンズ光学系に複眼構造を採用する技術や、複数の撮像素子とレンズ光学系から構成される撮像装置が提案されている。例えば、平面状に配置した固体レンズアレイと、液晶レンズアレイと、撮像素子とから構成された撮像レンズ装置が提案されている(例えば、特許文献1参照)。この撮像レンズ装置は、図19に示すように、レンズアレイ2001と、同数の可変焦点型の液晶レンズアレイ2002とを有するレンズ系と、撮像素子2003と、演算装置2004と、液晶駆動装置2005とから構成されている。
撮像素子2003は、このレンズ系を通して結像する光学像を撮像する。
演算装置2004は、撮像素子2003により得られた複数の画像を画像処理して全体の画像を再構成する。
液晶駆動装置2005は、演算装置2004からフォーカス情報を検出して液晶レンズアレイ2002を駆動する。
この構成により焦点距離を短くした小型薄型の撮像レンズ装置が実現可能としている。
また、撮像レンズ、カラーフィルタ、検出器アレイから構成される4つのサブカメラを組み合わせて、サブピクセル解像度を有する薄型カラーカメラも提案されている(例えば、特許文献2参照)。この薄型カラーカメラ200は、図20Aおよび図20Bに示すように、レンズ220と、カラーフィルタ250と、検出器アレイ240から構成される。レンズ220は、4つのレンズ220a〜220dを備えている。カラーフィルタ250は、4つのカラーフィルタ250a〜250dを備えている。カラーフィルタ250は、図20Bに示すように、赤色光(R)を透過するフィルタ250a、緑色光(G)を透過するフィルタ250bと250c、青色光(B)を透過するフィルタ250dから構成されている。検出器アレイ240は、赤色、緑色、青色の画像を撮影する。この構成で、人間の視覚系で高い感度をもつ緑色の2つの画像から高解像度の合成画像を形成し、赤色と青色と組み合わせてフルカラー画像を得ることができるとしている。
これら複数のカメラで撮影した複数の画像から高解像度画像を合成する場合は、各画像で、同じ領域を撮像した対応点を探索して合成する必要がある。しかし、一方のカメラでは撮影できるが、他方のカメラでは物体の陰に隠れて撮影できないオクルージョン(occlusion)と呼ばれる領域が発生するため、対応点が求まらない場合がある。このオクルージョン領域は、対応点の誤探索により、高精細合成画像の品質劣化を招くといった問題がある。このような問題を解決するために、基準画像と参照画像とから高精細画像を合成する処理において、対となる対応点が求まらない領域については、基準画像の対応点を合成画像生成データとして用いて、参照画像の対応点を合成画像生成データとして用いない複眼撮像装置が知られている(例えば、特許文献3参照)。この複眼撮像装置は、左撮像系と右撮像系の2つの画像から高精細画像を合成する処理において、対応点が求まらないオクルージョン領域が存在するか否かを判定するオクルージョン領域判断部を備える。特許文献3は、そのオクルージョン領域では、一方の画像を合成画像データとして用いない処理を開示している。この構成により、オクルージョンが発生する領域の処理手順を省略できるとともに、誤対応による画質劣化を抑制することができるとしている。
特開2006−251613号公報 特表2007−520166号公報 特開平6−141237号公報
特許文献3の複眼撮像装置は、左右2つのカメラからなる複眼撮像装置を用いているが、カメラの数は2つに限られるものではなく、3つ以上の場合でも可能としている。しかしながら、3つ以上のカメラを備えた場合は、全てのカメラ対で対応点探索を行うため、カメラ対の数の倍数分だけ処理量が増大するという問題が生じる。特許文献3では、周知の対応点の探索手法として、基準画像のある一点を中心に囲むブロックと参照画像中のブロックの類似度を比較して一番類似度が高いブロックの中心画素を対応点として検出するテンプレートマッチングを説明している。
しかし、この検出方法は、カメラの解像度が高まるに従い処理量が膨大になっていくだけでなく、高精細画像を合成するためにはカメラ解像度を超えた精度、いわゆるサブピクセル精度で対応点を検出する必要がある。そのため、その対応点検出処理は、高精細合成処理よりも格段に処理量が大きくなる。特許文献3の構成では、高精細化のためカメラ台数を増やすと、それだけ対応点検出処理量が増加する。例えば動画撮影の場合、1ピクセルクロックの時間内で対応点を検出する必要があり、この時間内で全てのカメラ間で高精度な対応点検出を行うことが難しいという問題がある。1ピクセルクロックとは、具体的には、1080/60Pのハイビジョン動画撮影で0.007μsのことである。
本発明は、このような事情に鑑みてなされたもので、3つ以上のカメラを用いた高精細合成処理において、処理量を大幅に増加させることなく対応点探索ができなかったオクルージョン領域または対応点検出エラー領域の画質劣化抑制を実現することが可能な多眼撮像装置および多眼撮像方法を提供することを目的とする。
加えて、対応点探索ができなかったことにより高精細化できなかった領域を、人間の左右両眼で見た視覚心理的見え方に近づけるように演出することで、高精細合成画像全体の見栄えを良くすることが可能な多眼撮像装置および多眼撮像方法を提供することを目的とする。
(1) 本発明の一態様による多眼撮像装置は、画像を撮像する複数系統の撮像部と、前記撮像部のうち、基準となる第1の撮像部の出力映像と、前記第1の撮像部と異なる前記複数系統の撮像部のうち少なくとも1つの撮像部の出力映像とから被写体までの距離情報を算出する距離算出部と、前記距離算出部において距離情報を算出できた領域について、その距離情報に基づき前記複数系統の撮像部の出力映像から合成映像を生成する多眼映像合成処理部と、前記距離算出部において距離情報が算出できなかった領域について、前記第1の撮像部の出力映像から合成映像を生成する単眼映像合成処理部とを備え、前記距離算出部は、前記第1の撮像部の出力映像と、前記第1の撮像部と異なる第2の撮像部の出力映像とから被写体までの第1の距離情報を算出し、前記第1の距離情報が算出できなかった領域があった場合、その第1の距離情報が算出できなかった領域について、少なくとも1度は、前記複数系統の撮像部のうち距離算出に用いていない撮像部の出力映像と、前記第1の撮像部の出力映像とから被写体までの距離情報を再度算出する。
(2) 本発明の一態様による多眼撮像装置の前記単眼映像合成処理部は、前記距離算出部で距離情報が算出できなかった領域の輝度を所定の割合で下げて前記合成映像を生成しても良い。
(3) 本発明の一態様による多眼撮像装置の前記単眼映像合成処理部は、前記距離算出部で距離情報が算出できなかった領域の輝度を、その領域と隣接して手前にある領域の輝度値よりも低くして前記合成映像を生成しても良い。
(4) 本発明の一態様による多眼撮像装置の前記単眼映像合成処理部は、前記距離算出部で距離情報が算出できなかった領域の輝度を、その領域と隣接して奥側にある領域の輝度値と一致させ前記合成映像を生成しても良い。
(5) 本発明の一態様による多眼撮像装置の前記単眼映像合成処理部は、前記距離算出部で距離情報が算出できなかった領域の彩度を、所定の割合で下げて前記合成映像を生成しても良い。
(6) 本発明の一態様による多眼撮像装置の前記単眼映像合成処理部は、前記距離算出部で距離情報が算出できなかった領域の彩度を、その領域と隣接して手前にある領域の彩度よりも下げて前記合成映像を生成しても良い。
(7) 本発明の一態様による多眼撮像装置の前記単眼映像合成処理部は、前記距離算出部で距離情報が算出できなかった領域の彩度を、その領域と隣接して奥側にある領域の彩度と一致させて前記合成映像を生成しても良い。
(8) 本発明の一態様による多眼撮像装置の前記単眼映像合成処理部は、前記距離算出部で距離情報が算出できなかった領域の輝度変化を抑えて前記合成映像を生成しても良い。
(9) 本発明の他の一態様による多眼撮像方法は、画像を撮像する複数系統の撮像部のうち、基準となる第1の撮像部の出力映像と、前記第1の撮像部と異なる前記複数系統の撮像部のうち少なくとも1つの撮像部の出力映像とから被写体までの距離情報を算出し、距離情報を算出できた領域について、その距離情報に基づき前記複数系統の撮像部の出力映像から合成映像を生成し、距離情報が算出できなかった領域について、前記第1の撮像部の出力映像から合成映像を生成し、前記距離情報を算出する際に、前記第1の撮像部の出力映像と、前記第1の撮像部と異なる第2の撮像部の出力映像とから被写体までの第1の距離情報を算出し、前記第1の距離情報が算出できなかった領域があった場合、その第1の距離情報が算出できなかった領域について、少なくとも1度は、前記複数系統の撮像部のうち距離算出に用いていない撮像部の出力映像と、前記第1の撮像部の出力映像とから被写体までの距離情報を再度算出する。
本発明によれば、2つまたはそれより多いカメラを用いた高精細合成処理において、処理量を大幅に増加させることなく対応点探索ができなかったオクルージョン領域または対応点検出エラー領域の画質劣化抑制を実現することが可能になる。また、対応点探索ができなかったことにより高精細化できなかった領域を、人間の左右両眼で見た視覚心理的見え方に近づけるように演出することで、高精細合成画像全体の見栄えを良くすることができるという効果が得られる。
本発明の第1の実施形態における多眼撮像装置の概観図である。 第1の実施形態における多眼撮像装置の全体ブロック図である。 第1の実施形態における多眼撮像装置の距離算出部のブロック図である。 第1の実施形態における多眼撮像装置の対応点探索処理を示す模式図である。 第1の実施形態における多眼撮像装置の対応点探索処理を示す模式図である。 第1の実施形態における多眼撮像装置の対応点探索処理を示す模式図である。 第1の実施形態における多眼撮像装置の対応点探索処理を示す模式図である。 第1の実施形態における多眼撮像装置の対応点探索処理のフローチャートである。 第1の実施形態による多眼撮像装置の映像処理部のブロック図である。 第1の実施形態による多眼撮像装置の多眼映像合成処理部の動作を説明する模式図である。 第1の実施形態による多眼撮像装置の4眼合成処理部の動作を説明する模式図である。 第1の実施形態による多眼撮像装置のオクルージョン領域の説明と、単眼映像合成処理部の動作を説明する模式図である。 第1の実施形態による多眼撮像装置のオクルージョン領域の説明と、単眼映像合成処理部の動作を説明する模式図である。 第1の実施形態による多眼撮像装置の映像処理部の動作を説明するフローチャートである。 第2の実施形態における多眼撮像装置の全体ブロック図である。 第2の実施形態における多眼撮像装置の距離算出部のブロック図である。 第2の実施形態における多眼撮像装置の対応点探索方法を示す模式図である。 第2の実施形態における多眼撮像装置の対応点探索方法を示す模式図である。 従来の多眼撮像装置の構成を示すブロック図である。 他の従来の多眼撮像装置の構成を示すブロック図である。 図20Aの多眼撮像装置のカラーフィルタの構成を示す概略図である。
<第1の実施形態>
以下、図面を参照して、本発明の第1の実施形態による多眼撮像装置を説明する。図1は、本発明の第1の実施形態による多眼撮像装置の概観を示す図である。図2は、同実施形態の多眼撮像装置の構成を示すブロック図である。図1に示すように、本実施形態による多眼撮像装置10は、4系統の撮像部101、102、103、104を備える。各撮像部101、102、103、104は、撮像レンズ11と撮像素子12とを備えている。撮像レンズ11は、被写体からの光を撮像素子12上に結像し、結像されたイメージは、例えばCMOS撮像素子などの撮像素子12で光電変換されて映像信号V1、V2、V3、V4として出力される。4つの撮像部101、102、103、104のそれぞれで撮影することにより、4系統の撮像部101、102、103、104のそれぞれから出力する映像信号V1、V2、V3、V4は、映像処理部20に入力する。また、4系統の映像信号V1、V2、V3、V4のうち2つの撮像部101、102から出力する映像信号V1、V2は、距離算出部21にも同時に入力する。距離算出部21は、入力した2つの映像信号V1、V2から対応点探索を行い、その探索結果から2つの撮像部間の視差データD1を算出して映像処理部20に出力する。映像処理部20は、入力した映像信号V1、V2、V3、V4を、距離算出部21から出力する視差データD1に基づき合成処理して高精細映像V5を出力する。
次に、図3を参照して、図2に示す距離算出部21の構成を説明する。図3は、図2に示す撮像部101において撮影された画像V1(以下、基準画像という)と、撮像部102において撮影された画像V2(以下、参照画像という)とから、視差データD1を算出する距離算出部21の構成を示すブロック図である。2つの座標変換部31、32は、基準画像と参照画像の画像平面を同一平面上に乗せることを目的に、両画像を幾何学変換(座標変換)してエピポーララインを平行化する。カメラパラメータ30は、撮像部101固有の焦点距離やレンズ歪みパラメータなどの内部パラメータ、および4つの撮像部101、102、103、104間の位置関係を表す外部パラメータを予め保持している。カメラパラメータの詳細については後述する。同様に、座標変換部32は、撮像部102固有のカメラパラメータを保持している(図示省略)。対応点探索部33は、エピポーララインが平行となった基準画像と参照画像との対応画素を探索し、基準画像に対する参照画像の視差データD1を求めて出力する。
次に、図4〜図7を参照して、対応画素を探索する処理動作について説明する。図4および図5は、それぞれ参照画像P1および基準画像P2のエピポーラライン平行化後の画像平面を示している。基準画像P2上の画素に対応する参照画像P1上の画素(対応画素)を求めるために、基準画像P2上の注目画素の移動方法を図5に示す基準画像P2の図を用いて説明する。基準画像P2上の注目画素を中心とするブロック(以下、注目ブロックという)を画像左上(探索開始ブロックB1)から順に右側のライン方向に1画素毎に移動させ、移動させた注目ブロックがラインの右端に到達した場合は、1ライン下の左側から順に右側のライン方向へと注目ブロックを移動させる。これを基準画像右下のブロック(探索終了ブロックB2)まで繰り返す。
次に、図5に示す基準画像P2上のある1つの注目ブロック(基準注目ブロックB3)に類似する参照画像P1上のブロックを探索する処理動作を図4に示す参照画像P1の図を用いて説明する。図5に示す基準画像P2上の基準注目ブロックB3の座標(x、y)と同じ座標となる参照画像P1上のブロック(参照注目ブロックB4)から順に右側のライン方向へ参照注目ブロックを1画素毎に移動させていき、図4に示す参照画像上の探索終了ブロックB5まで繰り返す。ここで探索する範囲(探索範囲R1)は、撮影した被写体の最大視差で決まる値であり、設定した探索範囲によって、視差データD1を算出できる被写体までの最短の距離が決定される。以上の参照注目ブロックB4の探索を、図5に示す基準画像P2上の各基準注目ブロックB3について行う。
次に、基準注目ブロックB3と類似する参照注目ブロックB4の決定方法について図6および図7を参照して説明する。図7は、基準注目ブロックB3を示しており、基準画像P2上の注目画素を中心とする横M画素×縦N画素(M、Nは、所定の自然数)のサイズのブロックを表している。図6は、参照注目ブロックB4を示しており、参照画像P1上の注目画素を中心とする横M×縦Nのサイズのブロックを表している。図6に示す参照注目ブロックB4および図7に示す基準注目ブロックB3上の任意の画素を表すために、横方向をiとし、縦方向をjとした時の座標(i、j)の画素値をそれぞれR(i、j)、T(i、j)とする。類似度を求める方法は、一般的に多く用いられているSAD(Sum of Absolute Difference:差分絶対和)を用いる。SADは、(1)式に示す類似度判定式のようにR(i、j)とT(i、j)の差分の絶対値をブロックの全画素について求め、それを合計した値(SSAD)である。基準注目ブロックB3に類似する参照注目ブロックB4の決定は、前述した図4に示す参照画像P1上の探索範囲R1内の各参照注目ブロックB4の中でSSADの値が最も小さくなる参照注目ブロックB4を、基準注目ブロックB3と類似していると決定する。
Figure 0004790086
以上の説明は、視差データD1の算出方法を処理単位毎に行ったものであるが、入力画素のシーケンスに沿った処理方法を図4〜図7及び図8に示す処理フローを参照して説明する。まず、基準注目ブロックB3を基準画像P2(図5)の先頭(探索開始ブロックB1)に設定する(ステップS900)。そして、基準注目ブロックB3の全画素値を基準画像P2(図5)から読み出す(ステップS901)。次に、参照注目ブロックB4を、参照画像P1(図4)の先頭(参照画像P1左上)に設定する(ステップS902)。そして、参照注目ブロックB4の全画素値を参照画像P1(図4)から読み出す(ステップS903)。読み出した基準注目ブロックB3と参照注目ブロックB4の画素値のSSAD値を、(1)式に従って算出し、記憶する(ステップS904)。
次に、探索範囲R1が終了したか否かを判定し(ステップS905)、終了していなければ参照注目ブロックB4を、右側のライン方向に1画素移動し(ステップS906)、再度ステップS903およびステップS904の処理を行う。これらステップS903からステップS906の処理を、探索範囲R1内で繰り返し、探索範囲R1内の全SSAD値の算出が終了後、SSAD値が最小となる参照注目ブロックB3を検出する。基準注目ブロックB3の中心座標(基準画像P2上の注目画素)と、検出した参照注目ブロックB4の中心座標(参照画像P1上の中心座標)との差分が、基準画像P2上の注目画素の視差データD1となり、これを記憶する(ステップS907)。
そして、処理が終了したか否かを判定し(ステップS908)、終了していなければ基準注目ブロックB3を、右側のライン方向に1画素移動し(ステップS909)、再度ステップS901からステップS907の処理を行う。これらステップS901からステップS909の処理を、基準注目ブロックB3が基準画像P2(図5)の探索終了ブロックB2となるまで繰り返し、基準画像P2上の各画素の視差データD1を求める。
また、ステップS907においてSSAD値が最小となる参照注目ブロックB4を検出する際、最小の値を示す参照注目ブロックB4が必ずしも正しい類似ブロックとなるとは限らない。基準注目ブロックB3に模様(テクスチャ)がない場合や、参照画像P1上の探索領域がオクルージョン領域の場合などに誤検出することがある。このような類似ブロックの誤検出を低減するため、視差算出エラーの検出法、もしくはオクルージョン検出法があり、これら手法の一例として特許文献3に記載されている手法がある。類似ブロックの誤検出を低減する方法として、様々なものが既に知られている為、詳細な説明は行わない。ステップS907にてこれら探索の誤りを検出し、視差算出エラーまたはオクルージョンと判定した基準画像上の注目画素については、視差値を0、もしくは所定のユニークな値を視差データD1として記憶する。
以上の説明において、図3の対応点探索部33の処理方法の一例として、基準画像上の注目画素に類似する参照画像上の画素をSADの類似度評価関数で探索したが、この手法に限定されるものではなく、基準画像上と参照画像上の類似画素を探索する手法であればどのような手法を使用して、視差データを求めても良い。
次に、図9を参照して図2に示す映像処理部20の詳細な構成と動作を説明する。撮像処理部20は、4つの補正処理部401−1〜401−4、単眼映像合成処理部403、多眼映像合成処理部404、高解像度合成処理部405を備える。4つの位置合わせ補正処理部401−1〜401−4は、それぞれカメラパラメータ402を格納した記憶装置を備えるが、それを1つの位置合わせ補正処理部401−1内に図示した。撮像装置101の映像信号V1(基準画像)は、位置合わせ補正処理部401−1に加えられ、以下同様にして、撮像装置102、103、104の映像信号V2、V3、V4は、それぞれ位置合わせ補正処理部401−2、401−3、401−4に加えられる。位置合わせ補正処理部401−1の出力は、単眼映像合成処理部403へ加えられる。位置合わせ補正処理部401−1〜401−4の出力は、多眼映像合成処理部404へ加えられる。単眼映像合成処理部403の出力と、多眼映像合成処理部404の出力とは、高解像度合成処理部405において高精細映像V5に合成され、映像処理部20の外部へ出力される。
位置合わせ補正処理部401−1〜401−4は、距離算出部21(図3)から出力される視差データD1と、各撮像部の向きや姿勢やレンズ歪の状態を示すカメラパラメータ402とに基づき、各撮像部101、102、103、104の映像が同じ被写体位置を捕らえるように位置合わせを行う。単眼映像合成処理部403は、例えばオクルージョンなどで距離算出部21において視差データD1が算出できなかった領域、すなわち視差値が0、もしくは所定のユニークな値である領域を、距離算出部21で基準とした撮像部101で撮影された映像信号について合成を行う。多眼映像合成処理部404は、距離算出部21において視差データD1が算出できた領域を、4つの撮像部101、102、103、104の映像信号V1〜V4を用いて高精細化合成を行う。
次に、位置合わせ補正処理部401−1〜401−4の動作を説明する。各撮像部101〜104の向きや姿勢やレンズ歪の状態を示すカメラパラメータ402は、パターン形状が既知の市松模様チェッカーパターンを、姿勢やアングルを変えながら数回撮像して、その撮影画像から算出するカメラキャリブレーションで求めることができる。カメラパラメータ402は、外部パラメータと内部パラメータとから構成される。外部パラメータは、カメラの姿勢を示すヨー、ピッチ、ロールの3軸ベクトルと、平行移動成分を示す3軸の並進ベクトルの計6パラメータから構成される。また内部パラメータは、画像中心位置、撮像素子上で仮定した座標の角度とアスペクト比、焦点距離の5パラメータから構成される。ここでは撮像部101を基準の撮像部として、他の撮像部102、103、104の映像を撮像部101の映像に合せる場合について説明する。被写体までの視差データD1と、基準の撮像部101と、他の撮像部102、103、104との間隔(カメラ基線長)から算出されるシフト量を、カメラパラメータの外部パラメータである並進量に加味したパラメータを用いて、幾何学補正処理する。これにより、4つの撮像部101、102、103、104の映像が被写体の同じ点を同じ位置(画素)で捕らえるように位置を合わせることができる。
次に、図10を参照して、多眼映像合成処理部404の動作を説明する。図10において、横軸は空間の広がり(大きさ)を示しており、縦軸は光の振幅(光強度)を示している。説明の簡略化のため、ここでは2つの撮像部101、102で撮影した2つの画像の合成処理を説明する。符号40aは、実際の画像の光の強度分布を示す。図10中の符号40bと符号40cは、それぞれ撮像部101と撮像部102の画素であり、相対位置関係が符号40dの矢印で示すオフセット分だけずれている。撮像素子は、画素単位で光強度を積分することになるため、符号40aで示す被写体の輪郭を、撮像素子101で撮影すると符号40eで示す光強度分布の映像信号が得られ、撮像素子102で撮影すると符号40fで示す光強度分布の映像信号が得られる。この2つの画像を合成することによって、符号40gで示す実際の輪郭に近い高精細な画像を再現することができる。
図10においては、2つの画像による高解像度合成処理を説明したが、4つの撮像部101、102、103、104のそれぞれで得られた画像を用いて高解像度化合成する一例を図11に示す。ここでは、4つの撮像部101、102、103、104の解像度がVGA(640×480画素)で、その4倍の画素数であるQuad−VGAの画素(1280×960画素)への高解像度合成処理を行う場合について説明する。図11に示すように、Quad−VGAの画素(1280×960画素)の隣接する4つの画素が、異なる撮像部で撮像された画素を割り当てて合成することで、高解像度の画像を得ることが可能である。
一例として、撮像部101で撮像した画像P11の一番上のラインの画素を左から順にG11、G12、G13、・・・とする。以下同様に、2番目のラインの画素を左から順にG14、G15、G16、・・・とする。また、3番目のラインの画素を左から順にG17、G18、G19、・・・とする。
撮像部102で撮像した画像P12の一番上のラインの画素を、同様に、左から順にG21、G22、G23、・・・とする。以下同様に、2番目のラインの画素を左から順にG24、G25、G26、・・・とする。また、3番目のラインの画素を左から順にG27、G28、G29、・・・とする。
撮像部103、104で撮像した画像P13、P14の画素にも、同様に図11に示すような符号G31〜G39、G41〜G49を、それぞれ付加する。高解像度合成処理後の画像P15としては、一番上のラインについては、左から順にG11、G21、G12、G22、G13、G23、・・・のように、撮像装置101、102で撮像した画像P11、P12の画素の一番上のラインの画素を入れ子にして配置する。2番目のラインについては、左から順にG31、G41、G32、G42、G33、G43、・・・のように、撮像装置103、104で撮像した画像P13、P14の画素の一番上のラインの画素を入れ子にして配置する。以下、図11の高解像度合成処理後の画像P15に示すように、同様の配置になるように処理を繰り返す。
次に、図12、図13を参照して、オクルージョン領域とその領域の映像処理を行う単眼映像合成処理部403の動作を説明する。図12に示すように、奥領域62の手前に配置された手前領域61(立方体)を、撮像部101、102それぞれで撮影した場合について説明する。図13の上部に高解像度合成処理後の高精細画像65の概略を示す。撮像部101を基準とした場合、距離測定部21で算出された視差データ64に、撮像部101では見えているが撮像部102では隠れて見えないオクルージョン領域63が発生する。図13において、オクルージョン領域63を、右下がりの斜線でハッチングして示す。
視差データが算出できないオクルージョン領域63は、図9に示す単眼映像合成処理部403にて、基準となる撮像部101の映像を用いた映像処理が行われ、それ以外の領域は距離が算出できるため、図10と図11により説明した高解像度合成処理が実施される。図13に示す符号65は、映像処理部20にて生成された高精細画像を示している。また、図13において、符号67、68、69で示す3つのグラフは、高精細画像65の直線66における輝度変化を示している。3つのグラフ67、68、69の縦軸は、輝度を示しており、横軸は位置を示している。横軸は左から手前領域61、オクルージョン領域63、奥領域62と続いている。奥領域62と手前領域61とは、視差データ64が算出できるため、4つの撮像部101、102、103、104にて、図10と図11で説明した高解像度合成処理が実施される。
オクルージョン領域63には、撮像部101の映像をそのまま用いたグラフ67中の点線で示す輝度曲線C0が適用される。輝度曲線C0が手前領域61の輝度よりも明るい場合は、グラフ67の矢印A1に示すように、輝度値を下げてC1の示す輝度曲線に補正する(輝度低下補正処理)。この映像処理により、オクルージョン領域63の輝度を、手前領域61よりも暗く合成することができる。そのため、オクルージョンのため暗く見えるといった人間の視覚心理における奥行による明るさ知覚に適合した見えを効果的に演出することができる。また、奥側の手前領域61の輝度と一致させるため、グラフ68の矢印A2に示すように、輝度曲線C2のように補正する(繋ぎ補正処理)。この映像処理によりオクルージョン領域63と、連続すべき奥側の領域62との明るさ連続性を保ち、視覚心理的に違和感なく見えるように合成することができる。さらに、グラフ69の輝度曲線C3に示すようにオクルージョン領域63の輝度変化を平滑化フィルターで抑える(平滑化補正処理)。これにより、オクルージョンのためぼやけて見えるといった人間の視覚心理における奥行の見えを効果的に演出することができる。
なお、前述した説明においては、輝度を変化させる単眼映像合成処理を説明したが、輝度を彩度に置き換えた処理も可能である。すなわち、図13に示すように、オクルージョン領域63の彩度を、手前領域61の彩度よりも下げることにより、オクルージョンで手前にある領域より色が薄く見えるといった人間の視覚心理における奥行きによる色彩知覚に適合した見えを効果的に演出することができる。さらに、オクルージョン領域63の彩度を奥側の手前領域61の彩度と一致することで、オクルージョン領域と、それと連続すべき奥側の領域とを彩度の連続性を保ち、視覚心理的に違和感なく見えるように合成することができる。
次に、図14を参照して、図2に示す映像処理部20の動作を説明する。まず、動作開始後に映像処理を行うべき画素を指定する(ステップS800)。続いて、指定した画素が、オクルージョン領域63か否かの判定を行う(ステップS801)。オクルージョン領域63でない、すなわち視差データ64が算出できた場合は、4つの撮像部101、102、103、104の全ての映像においてカメラパラメータと視差データ64による位置合わせ補正処理を実行する(ステップS802)。その後、多眼映像合成処理部404により多眼映像合成処理を実施する(ステップS803)。一方、オクルージョン領域63の場合は、撮像部101の映像について視差データ64が0であるものとして補正処理を行う(ステップS804)。そして、単眼映像合成処理(輝度低下補正処理、繋ぎ補正処理、平滑化補正処理)を実行する(ステップS805)。以上の処理が、撮像処理が終了するまで繰り返される(ステップS806)。
<第2の実施形態>
次に、図15および図16を参照して、本発明の第2の実施形態について説明する。図15は、第2の実施形態による多眼撮像装置の構成を示すブロック図である。図16は、図15に示す距離算出部151の構成を示すブロック図である。図15に示す多眼撮像装置10が、図2に示す多眼撮像装置10と同一の部分には同一の符号を付し、その説明を省略する。図15に示す多眼撮像装置が図2に示す多眼撮像装置10と異なる点は、距離算出部21に代えて、距離算出部151が設けられている点である。距離算出部151が出力する視差データD11は、図15に示す映像処理部20に送られる。図15に示す映像処理部20は、図9に示す映像処理部20の視差データD1をD11と読み替えることを除いて、図9に示す映像処理部20と同様であるため、その説明を省略する。図15に示す距離算出部151は、4つの撮像部101、102、103、104のそれぞれから出力する映像信号V1、V2、V3、V4を入力して距離(視差)を算出する。
次に、図16を参照して、図15に示す距離算出部151の構成を説明する。距離算出部151には、4つの撮像部101、102、103、104で撮影された映像信号V1、V2、V3、V4のそれぞれが入力される。図16に示す距離算出部151は、図15に示す撮像部101で撮影された画像(以下、基準画像P21という)と、撮像部102で撮影された画像(以下、第1の参照画像P11という)と、撮像部103で撮影された画像(以下、第2の参照画像P12という)と、撮像部104で撮影された画像(以下、第3の参照画像P13という)から視差データD11を算出する。座標変換部81〜84は、基準画像P21と各参照画像P11〜P13の画像平面とを同一平面上に乗せることを目的に、各画像を幾何学変換(座標変換)する。座標変換処理は、図3に示す座標変換部31、32と同様であるため、詳細な説明は省略する。
対応点探索部85〜87は、基準画像P21と各参照画像P11〜P13の画像平面とが同一平面上に乗るように幾何学変換した画像について、変換後の基準画像P21と各参照画像P11〜P13との間で対応画素を探索し、基準画像P21に対する各参照画像P11〜P13の視差データD11を求める。対応点探索部85は、図3に示す対応点探索部33と同様に、基準画像P21と第1の参照画像P11との間の視差データD12を算出する。このとき、図8のステップS907においては視差算出エラーまたはオクルージョンを検出した注目画素について、視差値を0、もしくは所定のユニークな値を視差データD12として記憶する。対応点探索部85では、さらに視差算出エラーまたはオクルージョンの注目画素であることを表す検出不可情報を対応点探索部86に送る。この検出不可情報は、例として注目座標の座標情報と検出不可を表す値−1などが挙げられる。
対応点探索部86は、対応点探索部85と同様に、幾何学変換後の基準画像P21と第2の参照画像P12間の視差データD13を算出する。しかし、対応点探索部85は、幾何学変換後の基準画像P21と第2の参照画像P12全体に対して対応画素を探索する。これに対し、対応点探索部86は、対応点探索85から送られてくる検出不可情報によって、視差算出エラーまたはオクルージョンと検出された基準画像P21の注目画素について第2の参照画像P12から対応画素を探索し、視差データD13を算出する。このとき、対応点探索部85と同様に、視差算出エラーまたはオクルージョンを検出した場合は、検出不可情報を対応点探索部87に送る。
対応点探索部87は、対応点探索部86と同様に、幾何学変換後の基準画像P21と第3の参照画像P13について、対応点探索86から送られてくる検出不可情報によって、視差算出エラーまたはオクルージョンと検出された基準画像P21の注目画素について第3の参照画像P13から対応画素を探索し、視差データD14を算出する。
次に、対応点探索部85〜87のそれぞれで算出された視差データD12、D13、D14を合成する処理について説明する。対応点探索部85で算出された視差データD12と、対応点探索部85で視差算出エラーまたはオクルージョンと検出され、算出できなかった基準画像P21上の座標(領域)について対応点探索部86で算出された視差データD13と、対応点探索部86で視差算出エラーまたはオクルージョンと検出され、算出できなかった基準画像P21上の座標(領域)について対応点探索部87で算出された視差データD14を合成部88で合成し、基準画像P21に対応する視差データD11を算出する。
以上までの視差データ算出方法について、オクルージョン領域を例にとって図17を参照して模式的に説明する。図17は、基準画像P21と各参照画像P211、P12、P13のオクルージョン領域63を示している。基準画像P21と第1の参照画像P11との間で対応点探索を行った場合は、第1の参照画像P11を示す図(図17の左上の図)に示すように被写体200の右側にオクルージョン領域63が発生する視差データD12となる。また、基準画像P21と第2の参照画像P12との間で対応点探索を行った場合は、第2の参照画像P12を示す図(図17の右下の図)に示すように被写体200の上側にオクルージョン領域63が発生する視差データD13となる。さらに、基準画像P21と第3の参照画像P13との間で対応点探索を行った場合は、第3の参照画像P13(図17の左下の図)に示すように被写体200の右側と上側にオクルージョン領域63が発生する視差データD14となる。したがって、前述した第1の実施形態の構成(図3に示す構成)では、第1の参照画像P11のように被写体200の右側にオクルージョン領域63が必ず発生する。しかし、第2の実施形態の構成(図16に示す構成)では、第2の参照画像P12または第3の参照画像P13を使ってオクルージョン領域63を削減することができる。
オクルージョン領域を削減する方法について、図18に示す各オクルージョン領域の位置関係の図を参照して説明する。図18は、図17に示す各参照画像P11、P12、P13の間の視差データD12、D13、D14を階層的に示したものである。第1の参照画像P11で発生した被写体200の右側のオクルージョン領域63を、第2の参照画像P12の「新たに視差データを求める領域300」から視差データD13を算出し、基準画像P21に対応する視差データD11全体としてオクルージョン領域63を削減することを示している。また、図18の第3の参照画像P13では、第1の参照画像P11で発生したオクルージョン領域63の全てが第2の参照画像P12で補間されるため、基準画像P21に対応する視差データD11を求める上で第3の参照画像P13が使用されていないことを示している。このように、図16に示す対応点探索部86または87は、それ以前の対応点探索部の処理によりオクルージョン領域が全て消滅した場合は、それ以降の参照画像について対応点探索処理を中止してもよい。
以上までの第2の実施形態は、基準画像P21と第1の参照画像P11間で求めた視差データD12に対し、視差算出エラーまたはオクルージョンと検出した領域について、これら画像とは別の参照画像から求めた。さらに視差算出エラーまたはオクルージョンと検出した場合は、使用していない新たな参照画像から算出する手法により階層的に視差データD11を算出した。これは、視差データの未検出エリアについて他のカメラから視差データを検出できることから、基準画像P21と各参照画像P11〜P13間で画像全体を個別に探索し、最後に合成する場合と比較し、飛躍的に処理量を削減することができる。よって、使用するカメラ数を増加させた場合や、各カメラの画素数を向上した場合でも回路規模を削減し、リアルタイム処理を可能にすることができる。
また、前述した説明においては4眼カメラの構成であるが、4眼構成に限定されるものではなく、それ以外のカメラ数についても適用可能である。4眼以外の構成の場合、例えば図16に示す距離算出部151では、座標変換部81〜84はカメラの数だけ、対応点探索部85〜87はカメラの数より1つ少ない数だけあれば良い。さらに、カメラ数が増加しても視差データの検出不可領域について他のカメラから検出するため、処理量(ステップ数、メモリ、回路規模など)が常に最小の構成で構築することができる。
以上説明したように、3台以上のカメラ映像から2つの映像対についての対応点探索により距離情報(視差データ)を算出して、その距離情報をもとに複数のカメラ映像から高精細映像の合成処理を行うか、基準となる1台のカメラ映像から合成映像を生成するかを選択する。そのため、全てカメラ映像間で対応点探索する従来技術と比較して、圧倒的に処理量が削減され、距離情報が算出されなかった領域(オクルージョン領域など)の画質劣化の抑制が可能となる。
また、距離情報が算出されなかった領域を別のカメラの映像で距離算出するため、距離情報が算出されない領域を減少させることができる。さらに、これは複数のカメラ映像から高精細映像の合成処理を行う領域が増加することから、より高精細な映像を生成することが可能となる。
また、距離情報が算出されなかった領域を別のカメラの映像で距離算出するため、全てのカメラ映像間で対応点探索する従来技術と比較して大幅に処理量を削減することが可能である。また、オクルージョン領域などの距離情報が算出できず、高精細化できなかった領域の映像輝度を所定の割合で下げることにより、その領域を目立たなく合成することができる。それと共に、オクルージョンのため暗く見えるといった人間の視覚心理における奥行による明るさ知覚に適合した見えを効果的に演出することができる。
また、オクルージョン領域などの距離情報が算出できず高精細化できなかった領域の映像輝度を、その領域と隣接して手前にある領域の輝度値よりも暗くして生成しても良い。これにより、オクルージョンで重なった領域が手前にある領域より暗く見えるといった人間の視覚心理における奥行による明るさ知覚に適合した見えを効果的に演出することができる。
また、オクルージョン領域などの距離情報が算出できず高精細化できなかった領域の映像輝度を、その領域と隣接して奥側にある領域の輝度値と一致させて生成しても良い。これにより、オクルージョン領域と、それと連続すべき奥側の領域とを明るさの連続性を保ち、視覚心理的に違和感なく見えるように合成することができる。さらに、オクルージョン領域などの距離情報が算出できなかった領域の彩度を所定の割合で下げることにより、その領域を目立たなく合成することができる。それと共に、オクルージョンのため色が薄く見えるといった人間の視覚心理の奥行きによる色彩知覚に適合した見えを効果的に演出することができる。
また、オクルージョン領域などの距離情報が算出できなかった領域の彩度を、その領域と隣接して手前にある領域の彩度よりも下げて生成しても良い。これにより、オクルージョンである領域が手前にある領域より色が薄く見えるといった人間の視覚心理における奥行きによる色彩知覚に適合した見えを効果的に演出することができる。
また、オクルージョン領域などの距離情報が算出できなかった領域の彩度を該領域と隣接して奥側にある領域の彩度と一致させて生成しても良い。これにより、オクルージョン領域とそれと連続すべき奥側の領域とを彩度の連続例を保ち、視覚心理的に違和感なく見えるように合成することができる。
さらに、オクルージョン領域などの距離情報が算出できなかった領域をぼかすようにしても良い。これにより、その領域を目立たなく合成することができるとともに、オクルージョンのためぼやけて見えるといった人間の視覚心理の奥行によるボケの見えを効果的に演出することができる。
以上の説明で明らかなように、本発明の実施形態の構成により、全てのカメラ映像間で対応点探索する従来技術と比較して、圧倒的に処理量を削減し、視差データ検出不可領域(視差算出エラー領域またはオクルージョン領域)の画質劣化抑制が可能となる。さらに、視差データ検出不可領域で高精細化できなかった領域を、人間の左右両眼で見た視覚心理的見え方に近づけるように演出することで、高精細合成画像全体の見栄えを良くすることが可能な多眼撮像装置および多眼撮像方法を提供することが可能となる。
なお、図2に示す映像処理部20、距離算出部21、図15に示す距離算出部151の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録しても良い。そして、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより高精細画像の合成処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含む。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含む。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
複数の画像撮像系を使用して得られた複数の画像を合成することにより高精細画像を得る撮像装置に適用することができる。
10 多眼撮像装置
101〜104 撮像部
11 撮像レンズ
12 撮像素子
20 映像処理部
21、151 距離算出部
30、80 カメラパラメータ記憶部
31、32、81〜84 座標変換部
33、85〜87 対応点探索部
401 位置合わせ補正処理部
403 単眼映像合成処理部
404 多眼映像合成処理部
40b 撮像部101の画素
40c 撮像部102の画素
40d 撮像部101と撮像部102のオフセット
61 手前側の領域
62 奥側の領域
63 オクルージョン領域
64 視差データ
65 高精細画像
66 高精細画像65の輝度変化を示す領域
88 視差データ合成処理

Claims (9)

  1. 画像を撮像する複数系統の撮像部と、
    前記撮像部のうち、基準となる第1の撮像部の出力映像と、前記第1の撮像部と異なる前記複数系統の撮像部のうち少なくとも1つの撮像部の出力映像とから被写体までの距離情報を算出する距離算出部と、
    前記距離算出部において距離情報を算出できた領域について、その距離情報に基づき前記複数系統の撮像部の出力映像から合成映像を生成する多眼映像合成処理部と、
    前記距離算出部において距離情報が算出できなかった領域について、前記第1の撮像部の出力映像から合成映像を生成する単眼映像合成処理部とを備え、
    前記距離算出部は、前記第1の撮像部の出力映像と、前記第1の撮像部と異なる第2の撮像部の出力映像とから被写体までの第1の距離情報を算出し、前記第1の距離情報が算出できなかった領域があった場合、その第1の距離情報が算出できなかった領域について、少なくとも1度は、前記複数系統の撮像部のうち距離算出に用いていない撮像部の出力映像と、前記第1の撮像部の出力映像とから被写体までの距離情報を再度算出する多眼撮像装置。
  2. 前記単眼映像合成処理部は、前記距離算出部で距離情報が算出できなかった領域の輝度を所定の割合で下げて前記合成映像を生成する請求項1に記載の多眼撮像装置。
  3. 前記単眼映像合成処理部は、前記距離算出部で距離情報が算出できなかった領域の輝度を、その領域と隣接して手前にある領域の輝度値よりも低くして前記合成映像を生成する請求項1に記載の多眼撮像装置。
  4. 前記単眼映像合成処理部は、前記距離算出部で距離情報が算出できなかった領域の輝度を、その領域と隣接して奥側にある領域の輝度値と一致させ前記合成映像を生成する請求項1に記載の多眼撮像装置。
  5. 前記単眼映像合成処理部は、前記距離算出部で距離情報が算出できなかった領域の彩度を、所定の割合で下げて前記合成映像を生成する請求項1に記載の多眼撮像装置。
  6. 前記単眼映像合成処理部は、前記距離算出部で距離情報が算出できなかった領域の彩度を、その領域と隣接して手前にある領域の彩度よりも下げて前記合成映像を生成する請求項1に記載の多眼撮像装置。
  7. 前記単眼映像合成処理部は、前記距離算出部で距離情報が算出できなかった領域の彩度を、その領域と隣接して奥側にある領域の彩度と一致させて前記合成映像を生成する請求項1に記載の多眼撮像装置。
  8. 前記単眼映像合成処理部は、前記距離算出部で距離情報が算出できなかった領域の輝度変化を抑えて前記合成映像を生成する請求項1に記載の多眼撮像装置。
  9. 画像を撮像する複数系統の撮像部のうち、基準となる第1の撮像部の出力映像と、前記第1の撮像部と異なる前記複数系統の撮像部のうち少なくとも1つの撮像部の出力映像とから被写体までの距離情報を算出し、
    距離情報を算出できた領域について、その距離情報に基づき前記複数系統の撮像部の出力映像から合成映像を生成し、
    距離情報が算出できなかった領域について、前記第1の撮像部の出力映像から合成映像を生成し、
    前記距離情報を算出する際に、前記第1の撮像部の出力映像と、前記第1の撮像部と異なる第2の撮像部の出力映像とから被写体までの第1の距離情報を算出し、前記第1の距離情報が算出できなかった領域があった場合、その第1の距離情報が算出できなかった領域について、少なくとも1度は、前記複数系統の撮像部のうち距離算出に用いていない撮像部の出力映像と、前記第1の撮像部の出力映像とから被写体までの距離情報を再度算出する多眼撮像方法。
JP2010287601A 2009-12-24 2010-12-24 多眼撮像装置および多眼撮像方法 Expired - Fee Related JP4790086B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010287601A JP4790086B2 (ja) 2009-12-24 2010-12-24 多眼撮像装置および多眼撮像方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009291624 2009-12-24
JP2009291624 2009-12-24
JP2010287601A JP4790086B2 (ja) 2009-12-24 2010-12-24 多眼撮像装置および多眼撮像方法

Publications (2)

Publication Number Publication Date
JP2011151798A JP2011151798A (ja) 2011-08-04
JP4790086B2 true JP4790086B2 (ja) 2011-10-12

Family

ID=44195771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010287601A Expired - Fee Related JP4790086B2 (ja) 2009-12-24 2010-12-24 多眼撮像装置および多眼撮像方法

Country Status (5)

Country Link
US (1) US8885067B2 (ja)
EP (1) EP2518995B1 (ja)
JP (1) JP4790086B2 (ja)
CN (1) CN102668537B (ja)
WO (1) WO2011078244A1 (ja)

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
KR101588877B1 (ko) 2008-05-20 2016-01-26 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8446492B2 (en) * 2009-12-10 2013-05-21 Honda Motor Co., Ltd. Image capturing device, method of searching for occlusion region, and program
WO2011143501A1 (en) 2010-05-12 2011-11-17 Pelican Imaging Corporation Architectures for imager arrays and array cameras
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
EP2708019B1 (en) 2011-05-11 2019-10-16 FotoNation Limited Systems and methods for transmitting and receiving array camera image data
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
US9270875B2 (en) * 2011-07-20 2016-02-23 Broadcom Corporation Dual image capture processing
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
WO2013049699A1 (en) 2011-09-28 2013-04-04 Pelican Imaging Corporation Systems and methods for encoding and decoding light field image files
JP6021489B2 (ja) * 2011-10-03 2016-11-09 キヤノン株式会社 撮像装置、画像処理装置およびその方法
GB201117143D0 (en) 2011-10-05 2011-11-16 Nctech Ltd Camera
US9143749B2 (en) 2011-10-11 2015-09-22 Sony Corporation Light sensitive, low height, and high dynamic range camera
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
JP2013183353A (ja) * 2012-03-02 2013-09-12 Toshiba Corp 画像処理装置
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
CN103152527B (zh) * 2012-05-07 2015-09-30 北京普邦基烨科技发展有限公司 多镜头切换变焦的3d摄录放一体机
EP2677733A3 (en) * 2012-06-18 2015-12-09 Sony Mobile Communications AB Array camera imaging system and method
EP2677734A3 (en) * 2012-06-18 2016-01-13 Sony Mobile Communications AB Array camera imaging system and method
WO2014005123A1 (en) 2012-06-28 2014-01-03 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays, optic arrays, and sensors
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
EP3869797B1 (en) 2012-08-21 2023-07-19 Adeia Imaging LLC Method for depth detection in images captured using array cameras
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
US20140092281A1 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating Images from Light Fields Utilizing Virtual Viewpoints
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014150856A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Array camera implementing quantum dot color filters
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
EP2973476A4 (en) 2013-03-15 2017-01-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US20140300691A1 (en) * 2013-04-04 2014-10-09 Panasonic Corporation Imaging system
JP6429483B2 (ja) * 2013-07-09 2018-11-28 キヤノン株式会社 情報処理装置、撮像装置、情報処理システム、情報処理方法およびプログラム
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9264592B2 (en) 2013-11-07 2016-02-16 Pelican Imaging Corporation Array camera modules incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
JP6349842B2 (ja) * 2014-03-25 2018-07-04 富士ゼロックス株式会社 光輝性トナー、静電荷像現像剤、現像剤カートリッジ、プロセスカートリッジ、画像形成装置、及び、画像形成方法
US9196039B2 (en) * 2014-04-01 2015-11-24 Gopro, Inc. Image sensor read window adjustment for multi-camera array tolerance
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US10582186B1 (en) * 2014-06-11 2020-03-03 Amazon Technologies, Inc. Approaches for identifying misaligned cameras
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
CN107077743B (zh) 2014-09-29 2021-03-23 快图有限公司 用于阵列相机的动态校准的系统和方法
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
KR102446442B1 (ko) * 2015-11-24 2022-09-23 삼성전자주식회사 디지털 촬영 장치 및 그 동작 방법
WO2017091927A1 (zh) * 2015-11-30 2017-06-08 华为技术有限公司 图像处理方法和双摄像头系统
JP2017099616A (ja) * 2015-12-01 2017-06-08 ソニー株式会社 手術用制御装置、手術用制御方法、およびプログラム、並びに手術システム
DE102016204148A1 (de) * 2016-03-14 2017-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, Abbildungssystem und Verfahren zum Erfassen eines Objektbereichs
EP3285232B1 (en) * 2016-07-04 2019-01-23 Beijing Qingying Machine Visual Technology Co., Ltd. Method for matching feature points of planar array of four-phase unit and measurement method on basis thereof
US10650506B2 (en) 2016-07-22 2020-05-12 Sony Corporation Image processing apparatus and image processing method
JP6816768B2 (ja) * 2016-07-22 2021-01-20 ソニー株式会社 画像処理装置と画像処理方法
JP6922169B2 (ja) 2016-08-24 2021-08-18 ソニーグループ株式会社 情報処理装置および方法、車両、並びに情報処理システム
CN110463194B (zh) * 2017-03-27 2022-01-25 索尼公司 图像处理装置和图像处理方法以及图像捕获装置
WO2018235163A1 (ja) * 2017-06-20 2018-12-27 株式会社ソニー・インタラクティブエンタテインメント キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法
CN110771152B (zh) * 2017-06-26 2022-03-01 三菱电机株式会社 复眼摄像装置、图像处理方法以及记录介质
TWI775869B (zh) * 2017-06-29 2022-09-01 佳能企業股份有限公司 影像擷取裝置及影像處理方法
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
KR102479492B1 (ko) 2018-01-08 2022-12-20 삼성전자주식회사 차량 주변의 이미지를 제공하는 전자 장치 및 방법
CN108337431B (zh) * 2018-02-10 2020-05-22 上海汇观展示设计工程有限公司 一种多机位按序拍摄的控制装置及其系统
CN108334862A (zh) * 2018-03-02 2018-07-27 中控智慧科技股份有限公司 一种虹膜识别系统及其虹膜识别方法
TWI768127B (zh) * 2018-09-21 2022-06-21 先進光電科技股份有限公司 光學成像模組、光學成像系統及光學成像模組製造方法
EP3667414B1 (en) * 2018-12-14 2020-11-25 Axis AB A system for panoramic imaging
KR102648912B1 (ko) * 2019-01-23 2024-03-19 삼성전자주식회사 영상 데이터를 분석하여 최종 영상 데이터를 생성하는 프로세서
WO2021055585A1 (en) 2019-09-17 2021-03-25 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
MX2022004162A (es) 2019-10-07 2022-07-12 Boston Polarimetrics Inc Sistemas y metodos para el aumento de sistemas de sensores y sistemas de formacion de imagenes con polarizacion.
KR20230116068A (ko) 2019-11-30 2023-08-03 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템및 방법
CN115552486A (zh) 2020-01-29 2022-12-30 因思创新有限责任公司 用于表征物体姿态检测和测量系统的系统和方法
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4845641A (en) * 1986-09-19 1989-07-04 Hoya Corporation Method of forming a synthetic image in simulation system for attachment of spectacles
ATE158129T1 (de) * 1992-03-23 1997-09-15 Canon Kk Bildaufnahmevorrichtung mit mehreren linsen und korrektur von falschregistrierung
JP3107929B2 (ja) 1992-10-22 2000-11-13 キヤノン株式会社 複眼撮像装置
US5682198A (en) * 1993-06-28 1997-10-28 Canon Kabushiki Kaisha Double eye image pickup apparatus
JPH08102970A (ja) * 1994-09-30 1996-04-16 Toshiba Corp 3次元画像撮像装置
EP1418766A3 (en) * 1998-08-28 2010-03-24 Imax Corporation Method and apparatus for processing images
JP2003018617A (ja) * 2001-07-03 2003-01-17 Olympus Optical Co Ltd 撮像装置
JP4009163B2 (ja) 2002-08-30 2007-11-14 富士通株式会社 物体検知装置、物体検知方法および物体検知プログラム
JP2004120527A (ja) * 2002-09-27 2004-04-15 Fuji Photo Film Co Ltd 2眼式デジタルカメラ
CN1934872B (zh) 2004-01-26 2016-08-03 数字光学公司 具有子像素分辨率的薄式照相机
JP2006251613A (ja) * 2005-03-14 2006-09-21 Citizen Watch Co Ltd 撮像レンズ装置
US7718940B2 (en) * 2005-07-26 2010-05-18 Panasonic Corporation Compound-eye imaging apparatus
KR100731979B1 (ko) * 2005-10-18 2007-06-25 전자부품연구원 다시점 정방향 카메라 구조 기반의 메쉬를 이용한 중간영상 합성 방법 및 장치와 이를 구현하는 기능을실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는기록 매체
CN101834988B (zh) * 2006-03-22 2012-10-17 松下电器产业株式会社 摄像装置
US8139142B2 (en) * 2006-06-01 2012-03-20 Microsoft Corporation Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques
JP2008153997A (ja) 2006-12-18 2008-07-03 Matsushita Electric Ind Co Ltd 固体撮像装置、カメラ、車両、監視装置及び固体撮像装置の駆動方法
WO2008102898A1 (ja) * 2007-02-19 2008-08-28 Tokyo Institute Of Technology 画質改善処理装置、画質改善処理方法及び画質改善処理プログラム
CN101680756B (zh) * 2008-02-12 2012-09-05 松下电器产业株式会社 复眼摄像装置、测距装置、视差算出方法以及测距方法
KR101588877B1 (ko) * 2008-05-20 2016-01-26 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
JP2011060216A (ja) * 2009-09-14 2011-03-24 Fujifilm Corp 画像処理装置および画像処理方法
US8446492B2 (en) * 2009-12-10 2013-05-21 Honda Motor Co., Ltd. Image capturing device, method of searching for occlusion region, and program

Also Published As

Publication number Publication date
EP2518995A4 (en) 2015-03-18
WO2011078244A1 (ja) 2011-06-30
JP2011151798A (ja) 2011-08-04
US20120262607A1 (en) 2012-10-18
EP2518995A1 (en) 2012-10-31
CN102668537B (zh) 2015-03-11
CN102668537A (zh) 2012-09-12
US8885067B2 (en) 2014-11-11
EP2518995B1 (en) 2018-08-22

Similar Documents

Publication Publication Date Title
JP4790086B2 (ja) 多眼撮像装置および多眼撮像方法
US9247227B2 (en) Correction of the stereoscopic effect of multiple images for stereoscope view
JP4699995B2 (ja) 複眼撮像装置及び撮像方法
JP6436783B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
WO2015081870A1 (zh) 一种图像处理方法、装置及终端
JP5984493B2 (ja) 画像処理装置、画像処理方法、撮像装置およびプログラム
WO2012008224A1 (ja) 画像撮像装置
US9008412B2 (en) Image processing device, image processing method and recording medium for combining image data using depth and color information
JP5901781B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP2013038503A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JPWO2006064770A1 (ja) 撮像装置
JP2013192182A (ja) 固体撮像装置および携帯情報端末
JP2010130628A (ja) 撮像装置、映像合成装置および映像合成方法
JP2011013993A (ja) 画像表示装置および方法並びにプログラム
JP2010181826A (ja) 立体画像形成装置
JP2013247543A (ja) 撮像装置、表示装置、および画像処理方法、並びにプログラム
JP6732440B2 (ja) 画像処理装置、画像処理方法、及びそのプログラム
JP2022173069A (ja) 画像処理装置及び方法、及び、撮像装置及びその制御方法、プログラム、記憶媒体
JP2023172202A (ja) 画像処理装置、移動体、画像処理方法及びコンピュータプログラム
JP5088973B2 (ja) 立体撮像装置およびその撮像方法
JP2011182325A (ja) 撮像装置
JP2015080169A (ja) 撮像装置及びその制御方法
JP2012124650A (ja) 撮像装置および撮像方法
JP2016134886A (ja) 撮像装置およびその制御方法
JP2013110711A (ja) 画像処理装置および画像処理方法、並びにプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110621

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140729

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4790086

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees