JP6645492B2 - 撮像装置および撮像方法 - Google Patents

撮像装置および撮像方法 Download PDF

Info

Publication number
JP6645492B2
JP6645492B2 JP2017500609A JP2017500609A JP6645492B2 JP 6645492 B2 JP6645492 B2 JP 6645492B2 JP 2017500609 A JP2017500609 A JP 2017500609A JP 2017500609 A JP2017500609 A JP 2017500609A JP 6645492 B2 JP6645492 B2 JP 6645492B2
Authority
JP
Japan
Prior art keywords
imaging
unit
camera
image
peripheral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017500609A
Other languages
English (en)
Other versions
JPWO2016132950A1 (ja
Inventor
功久 井藤
功久 井藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016132950A1 publication Critical patent/JPWO2016132950A1/ja
Application granted granted Critical
Publication of JP6645492B2 publication Critical patent/JP6645492B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • G01C3/14Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with binocular observation at a single point, e.g. stereoscopic type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本開示は、撮像装置および撮像方法に関し、特に、繰り返しパターンを有する画像の奥行き推定を高精度に行うことができるようにした撮像装置および撮像方法に関する。
ライトフィールドカメラやマルチベースラインステレオ法にしたがった奥行き推定を行うカメラ(以下、マルチベースラインステレオカメラという)などの撮像装置は、異なる視点の画像を撮像する複数のカメラを有する。そして、このような撮像装置は、所定のカメラの撮像画像と他のカメラの撮像画像をブロックマッチングすることにより、撮像画像内の被写体の奥行き推定を行う。
複数のカメラを有する撮像装置としては、複数のカメラを非等間隔で配置した撮像装置がある(例えば、特許文献1参照)。
特開平11-125522号公報
ところで、部屋の中や都市の風景など、人間が作り出した世界には、単純な繰り返しパターンが非常に多く含まれる。従って、このような世界が、ライトフィールドカメラやマルチベースラインステレオカメラなどの撮像装置の被写体とされ、ブロックマッチングが行われると、相関の高いブロックが繰り返し出現し、正確な奥行き推定が困難になる。
本開示は、このような状況に鑑みてなされたものであり、繰り返しパターンを有する画像の奥行き推定を高精度に行うことができるようにするものである。
本開示の第1の側面の撮像装置は、異なる視点の画像を撮像する際の基準となる撮像部の位置を基準にして異なる素数の逆数に基づく基線長にしたがって配置された複数の撮像部を備え、前記複数の撮像部は、前記基準となる撮像部を中心とした5角形状に配置される撮像装置である。
本開示の第1の側面の撮像方法は、異なる視点の画像を撮像する際の基準となる撮像部の位置を基準にして異なる素数の逆数に基づく基線長にしたがって配置された複数の撮像部であり、前記基準となる撮像部を中心とした5角形状に配置されている前記複数の撮像部と前記基準となる撮像部が、異なる視点の画像を撮像するステップを含む撮像方法である。
本開示の第1の側面においては、異なる視点の画像を撮像する際の基準となる撮像部の位置を基準にして異なる素数の逆数に基づく基線長にしたがって配置された複数の撮像部が備えられ、複数の撮像部は、基準となる撮像部を中心とした5角形状に配置されている。また、これらの撮像部により異なる視点の画像が撮像される。
本開示の第2の側面の撮像装置は、異なる視点の画像を撮像する際の基準となる撮像部の位置を基準にして異なる素数の逆数に基づく基線長にしたがって配置された複数の撮像部を備え、前記複数の撮像部は、前記基準となる撮像部を中心とした6角形状と12角形状とに配置される撮像装置である。
本開示の第2の側面の撮像方法は、異なる視点の画像を撮像する際の基準となる撮像部の位置を基準にして異なる素数の逆数に基づく基線長にしたがって配置された前記複数の撮像部であり、前記基準となる撮像部を中心とした6角形状と12角形状とに配置されている複数の撮像部と前記基準となる撮像部が、異なる視点の画像を撮像するステップを含む撮像方法である。
本開示の第2の側面においては、異なる視点の画像を撮像する際の基準となる撮像部の位置を基準にして異なる素数の逆数に基づく基線長にしたがって配置された複数の撮像部が備えられ、複数の撮像部は、基準となる撮像部を中心とした6角形状と12角形状とに配置されている。また、これらの撮像部により異なる視点の画像が撮像される。
上述した素数の逆数とは、素数の逆数の厳密な値ではなく、その値を含む本開示の効果を奏する範囲内の値を意味する。
本開示の第1および第2の側面によれば、画像を撮像することができる。また、本開示の第1および第2の側面によれば、繰り返しパターンを有する画像の奥行き推定を高精度に行うことができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
ステレオカメラが有するカメラの配置の一例を示す斜視図である。 図1のステレオカメラで撮像された撮像画像の一例を示す図である。 ライトフィールドカメラが有するカメラの配置の一例を示す斜視図である。 図3の基準カメラと周辺カメラの撮像画像の一例を示す図である。 基線長X1が基線長X2の2倍である場合の相関値の例を示す図である。 基線長X1が基線長X2の3/2倍である場合の相関値の例を示す図である。 本開示を適用した撮像装置としてのライトフィールドカメラの一実施の形態の構成例を示すブロック図である。 図7の撮像部の構成例を示すブロック図である。 図7の撮像部の基準カメラと周辺カメラの第1の配置例を示す斜視図である。 図7の撮像部の基準カメラと周辺カメラの第2の配置例を示す斜視図である。 図7の撮像部の基準カメラと周辺カメラの第3の配置例を示す斜視図である。 図7の撮像部の基準カメラと周辺カメラの第4の配置例を示す斜視図である。 図7の撮像部の基準カメラと周辺カメラの第5の配置例を示す斜視図である。 図9乃至図13で示した基準カメラと周辺カメラの第1乃至第5の配置例と、その配置による効果を説明する図である。 撮像処理を説明するフローチャートである。 コンピュータのハードウエアの構成例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、本開示の前提および本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
0.本開示の前提(図1乃至図4)
1.本技術の概要(図5および図6)
2.第1実施の形態:ライトフィールドカメラ(図7乃至図15)
3.第2実施の形態:コンピュータ(図16)
4.応用例(図17および図18)
<本開示の前提>
(ステレオカメラが有するカメラの配置の一例)
図1は、ステレオカメラが有するカメラの配置の一例を示す斜視図である。
図1のステレオカメラ10は、2つのカメラ11とカメラ12を有し、カメラ11とカメラ12が、水平方向(X方向)に並ぶように配置される。
(ステレオカメラの撮像画像の一例)
図2は、図1のステレオカメラ10で撮像された撮像画像の一例を示す図である。
図2の例では、ステレオカメラ10のカメラ11において撮像画像31が撮像され、カメラ12において撮像画像32が撮像される。
この場合、撮像画像31のブロック41と、ブロック41のエピポーラ線42上に存在する撮像画像32の複数のブロック43のそれぞれとが、順にブロックマッチングされる。そして、相関が最も高いブロック41とブロック43の水平方向の位置の差分に基づいて、撮像画像31の被写体の奥行き推定が行われる。
しかしながら、図2に示すように、撮像画像31および撮像画像32に、水平方向と垂直方向の繰り返しパターンからなるチェック模様51が含まれ、このチェック模様51の間隔が小さい場合、ブロック41との相関が高いブロック43は、所定の間隔置きに出現する。従って、誤ったブロック43が、ブロック41との相関が最も高いブロックとして選択される可能性が高く、正確な奥行き推定を行うことは困難である。
(ライトフィールドカメラが有するカメラの配置の一例)
図3は、ライトフィールドカメラが有するカメラの配置の一例を示す斜視図である。
図3のライトフィールドカメラ90は、1つの基準カメラ100と、7つの周辺カメラ101乃至107を有する。基準カメラ100と周辺カメラ101乃至107は、基準カメラ100の位置を原点(0,0)としたXY平面上に配置される。周辺カメラ101乃至107の位置の座標は、ぞれぞれ、(X1,Y1),(X2,Y2),(X3,Y3),(X4,Y4),(X5,Y5),(X6,Y6),(X7,Y7)である。
(ライトフィールドカメラの撮像画像の一例)
図4は、図3の基準カメラ100と周辺カメラ101および102の撮像画像の一例を示す図である。
図4の例では、基準カメラ100の撮像画像140に、xr個の画素分の間隔の縦縞の繰り返しパターンが存在する。この場合、周辺カメラ101は、撮像画像141を撮像し、周辺カメラ102は、撮像画像142を撮像する。
撮像画像140の繰り返しパターン内の位置(x0,y0)の奥行き推定を行う際、位置(x0,y0)を中心としたブロック151とマッチングされる、ブロック151のエピポーラ線152上の撮像画像141内のブロック153の中心位置(x1,y1)は、以下の式(1)により算出される。
Figure 0006645492
なお、Dは、ブロック151とブロック153に対応する視差を表すディスパリティ値であり、ブロック151とブロック153の両方に存在する被写体の奥行き方向の位置を表す値である。ディスパリティ値Dには、0以上の整数が順次代入される。これにより、ブロック151のエピポーラ線152上の撮像画像141内のブロックが順次ブロック153とされる。また、aは、ブロック153の移動量を決める任意の係数である。
同様に、撮像画像140の位置(x0,y0)の奥行き推定を行う際、ブロック151とマッチングされる、ブロック151のエピポーラ線154上の撮像画像142内のブロック155の中心位置(x2,y2)は、以下の式(2)により算出される。
Figure 0006645492
また、ブロック151とマッチングされる、周辺カメラ103乃至107の撮像画像内のブロックの中心位置も、中心位置(x1,y1)と同様に算出される。従って、ブロック151とマッチングされる周辺カメラ101乃至107の撮像画像内のブロックの中心位置(xn,yn)(n=1,2,...,7)は、以下の式(3)で表される。
Figure 0006645492
そして、奥行き推定の方法として、SSAD(Sum of SAD(Sum of Absolute Difference))やSSSD(Sum of SSD(Sum of Squared Difference))などが採用される場合、ブロック151とブロック153のブロックマッチングが順次行われ、ブロック153ごとに相関値が求められる。そして、各ブロック153の相関値が、そのブロック153に対応するディスパリティ値Dと対応付けて保持される。
また、ブロック155についても同様に、ブロック151とブロック155のブロックマッチングが順次行われ、ディスパリティ値Dと対応付けて相関値が保持される。このようなブロックマッチングは、基準カメラ100と周辺カメラ103乃至107の撮像画像に対しても行われる。そして、ディスパリティ値Dごとに、保持されている全ての周辺カメラ101乃至107の撮像画像における相関値が合算され、合算値が最も大きいディスパリティ値Dが、奥行き推定結果とされる。なお、ここでは、相関が高いほど、相関値が大きいものとする。
ここで、Dの範囲を0以上Dmax以下とすると、xn,ynの移動量、即ちブロックマッチングの検索範囲の幅xwn,ywnは、以下の式(4)で表される。
Figure 0006645492
従って、撮像画像140に含まれる繰り返しパターンのx方向およびy方向の間隔が、それぞれ、幅xwn,ywnよりも大きいとき、ブロックマッチングの検索範囲内に含まれる繰り返しパターンの数は1以下となる。よって、繰り返しパターンに起因する奥行き推定の誤認は発生しない。
以上により、繰り返しパターンに起因する奥行き推定の誤認を抑制するためには、幅xwn,ywnが可能な限り小さくなるように、基準カメラ100と周辺カメラ101乃至107のX方向、Y方向の基線長であるXn,Yn(n=1,2,...7)を小さくする必要がある。しかしながら、基線長Xnおよび基線長Ynを小さくすると、ディスパリティ値の三角測量の精度が低下する。従って、繰り返しパターンを有する画像の奥行き推定を高精度で行うことは困難である。
<本技術の概要>
(周辺カメラの基線長と相関値の関係)
図5は、基線長X1が基線長X2の2倍である場合、即ち、基準カメラ100、周辺カメラ101、および周辺カメラ102が水平方向に等間隔で配置された場合のブロック151とブロック153およびブロック151とブロック155の相関値の例を示す図である。
なお、図5において、横軸は、ブロック151とブロック153またはブロック151とブロック155に対応するディスパリティ値Dを表し、縦軸は、そのディスパリティ値Dに対応する相関値を表す。このことは、後述する図6においても同様である。
また、図5のAは、ブロック151とブロック153の相関値を表すグラフであり、図5のBは、ブロック151とブロック155の相関値を表すグラフである。図5のCは、ブロック151とブロック153の相関値とブロック151とブロック155の相関値とを合算した合算相関値(SSAD)を表すグラフである。
基線長X1が基線長X2の2倍である場合、ブロック155のx座標であるx2がxrだけ移動するとき、上述した式(1)および式(2)から、ブロック153のx座標であるx1は2xrだけ移動することになる。
従って、図5のBに示すように、ブロック151とブロック155の相関値のピークが、周期dwで発生する場合、図5のAに示すように、ブロック151とブロック153の相関値のピークは、周期dwの1/2倍で発生する。即ち、基準カメラ100と周辺カメラの基線長が2倍になると、相関値のピークの周期は、2倍の逆数の1/2倍になる。また、ブロック151とブロック153の相関値のピークの位相と、ブロック151とブロック155の相関値のピークの位相は、同期する。
以上により、ブロック151とブロック153の相関値と、ブロック151とブロック155の相関値を合算した合算相関値の大きいピークは、図5のCに示すように、ブロック151とブロック155の相関値のピークと同一のディスパリティ値Dで発生する。即ち、合算相関値の大きいピークの周期は、周期1/2dwと周期dwの最小公倍数の周期dwである。
図6は、基線長X1が基線長X2の3/2倍である場合のブロック151とブロック153およびブロック151とブロック155の相関値の例を示す図である。
なお、図6のAは、ブロック151とブロック153の相関値を表すグラフであり、図6のBは、ブロック151とブロック155の相関値を表すグラフである。図6のCは、ブロック151とブロック153の相関値とブロック151とブロック155の相関値とを合算した合算相関値を表すグラフである。
基線長X1が基線長X2の3/2倍である場合、ブロック155のx座標であるx2がxrだけ移動すると、上述した式(1)および式(2)から、ブロック153のx座標であるx1は3/2xrだけ移動することになる。
従って、図6のBに示すように、ブロック151とブロック155の相関値のピークが、周期dwで発生する場合、図6のAに示すように、ブロック151とブロック153の相関値のピークは、周期dwの2/3倍で発生する。即ち、基準カメラ100と周辺カメラの基線長が3/2倍になると、相関値のピークの周期は、3/2倍の逆数の2/3倍になる。また、ブロック151とブロック153の相関値のピークの位相と、ブロック151とブロック155の相関値のピークの位相は、同期する。
以上により、ブロック151とブロック153の相関値と、ブロック151とブロック155の相関値を合算した合算相関値の大きいピークは、図6のCに示すように、ブロック151とブロック155の相関値のピークの周期dwの2倍の周期2dwで発生する。即ち、合算相関値の大きいピークの周期は、周期2/3dwと周期dwの最小公倍数の周期2dwである。この周期2dwは、基線長が基線長X2の1/2である周辺カメラと基準カメラ100の撮像画像における相関値のピークの周期と等しい。
なお、図5および図6では、周辺カメラ101と周辺カメラ102における相関値について説明したが、他の2つの周辺カメラにおける相関値においても同様である。
以上のように、撮像画像140に縦縞の繰り返しパターンが存在する場合、基準カメラ100と周辺カメラ101乃至107それぞれとの水平方向の基線長Xnの比の逆数が、相関値のピークの周期の比となる。また、周辺カメラ101乃至107のそれぞれに対応する相関値のピークの周期の最小公倍数が、合算相関値の大きいピークの周期となる。
また、図示は省略するが、撮像画像140に横縞の繰り返しパターンが存在する場合も、縦縞の繰り返しパターンが存在する場合と同様に、基準カメラ100と周辺カメラ101乃至107それぞれとの垂直方向Ynの基線長の比の逆数が、相関値のピークの周期の比となる。また、周辺カメラ101乃至107のそれぞれに対応する相関値のピークの周期の最小公倍数が、合算相関値の大きいピークの周期となる。
従って、本技術は、基準カメラと複数の周辺カメラそれぞれとの水平方向および垂直方向の少なくとも一方の基線長の比を異ならせることで、基線長を小さくすることなく、合算相関値の大きいピークの発生周期を長くする。これにより、ディスパリティ値の三角測量の精度を低下させることなく、幅xwnや幅ywnを小さくし、繰り返しパターンの幅が、幅xwnや幅ywnより大きくなるようにすることができる。その結果、繰り返しパターンに起因する奥行き推定の誤認が発生しなくなり、奥行き推定を高精度に行うことができる。
ここで、上述したように、合算相関値の大きいピークの周期は、各周辺カメラに対応する相関値のピークの周期の最小公倍数である。従って、各周辺カメラに対応する相関値のピークの周期の比を、素数比に近い値にすることにより、合算相関値の大きいピークの周期を効率的に長くすることができる。
例えば、4つの周辺カメラのそれぞれに対応する相関値のピークの周期が、ある周期dwsの2倍、3倍、5倍、7倍であると、合算相関値の大きいピークの周期は、周期dwsの210(=2×3×5×7)倍となる。また、上述したように、各周辺カメラに対応する相関値のピークの周期の比は、基準カメラ100と各周辺カメラとの基線長の比の逆数である。従って、各周辺カメラに対応する相関値のピークの周期の比が、2:3:5:7である場合、基準カメラ100と各周辺カメラとの基線長の比は、1/2:1/3:1/5:1/7になる。
このとき、合算相関値の大きいピークの周期に対応する基線長は、周期dwsに対応する基線長の1/210(=1/(2×3×5×7))となり、基準カメラと最も短い実際の周辺カメラの基線長の1/30(=(1/210)/(1/7))である。従って、繰り返しパターンにより奥行き推定の誤認が発生する限界空間周波数を30倍改善できたことになる。
<第1実施の形態>
(ライトフィールドカメラの一実施の形態の構成例)
図7は、本開示を適用した撮像装置としてのライトフィールドカメラの一実施の形態の構成例を示すブロック図である。
図7のライトフィールドカメラ200は、撮像部201と画像処理部202により構成される。ライトフィールドカメラ200は、複数のカメラで取得された撮像画像から、仮想フォーカスの撮像画像をリフォーカス画像として生成する。
具体的には、ライトフィールドカメラ200の撮像部201は、異なる視点の画像を撮像する際の基準となる1つの基準カメラ(撮像部)、他の複数の周辺カメラ(撮像部)などにより構成される。複数の周辺カメラは、基準カメラの位置を基準にして、それぞれ、異なる素数の逆数に基づく基線長にしたがって配置される。
基準カメラと周辺カメラは、それぞれ、異なる視点の画像を撮像する。撮像部201は、画像処理部202からの要求に応じて、基準カメラと周辺カメラにより撮像された撮像画像(光線情報)のうちの1以上の画素からなるブロックを、画像処理部202に供給する。また、撮像部201は、基準カメラと周辺カメラにより撮像された撮像画像を画像処理部202に供給する。
画像処理部202は、例えばLSI(Large Scale Integration)により構成される。画像処理部202は、検出部211、仮想視点画像生成部212、およびリフォーカス画像生成部213を備える。
検出部211(奥行き推定部)は、撮像部201から供給される基準カメラの撮像画像のブロックと、各周辺カメラの撮像画像のブロックとを用いて、例えば画素ごとに、基準カメラの画像の奥行き推定を行う。
具体的には、検出部211は、基準カメラの撮像画像の各画素を順に処理対象の画素に決定する。検出部211は、候補となるディスパリティ値ごとに、そのディスパリティ値に対応する、処理対象の画素を含む基準カメラの撮像画像のブロックと各周辺カメラの撮像画像のブロックとを、撮像部201に要求する。検出部211は、その要求に応じて撮像部201から供給される基準カメラの撮像画像のブロックと各周辺カメラの撮像画像のブロックとを用いて、周辺カメラごとにブロックマッチングを行う。以上により、検出部211は、周辺カメラおよび画素ごとに、各ディスパリティ値に対応する相関値を求める。
そして、検出部211は、各画素のディスパリティ値ごとに、全ての周辺カメラにおける相関値を合算し、合算相関値を求める。検出部211は、画素ごとに、合算相関値が最も大きいディスパリティ値を、奥行き推定結果とする。検出部211は、各画素の奥行き推定結果からなる視差画像を、基準カメラの視点の視差画像として仮想視点画像生成部212に供給する。
仮想視点画像生成部212(生成部)は、検出部211から供給される基準カメラの視点の視差画像を用いて、周辺カメラの視点の視差画像を生成する。仮想視点画像生成部212は、生成された各視点の視差画像と撮像部201から供給される各視点の撮像画像とを用いて、基準カメラおよび周辺カメラの視点以外の仮想視点の撮像画像(光線情報)を補間する。具体的には、例えば、仮想視点画像生成部212は、仮想視点の周辺の視点の視差画像と撮像画像を用いて、仮想視点の撮像画像を補間する。
仮想視点画像生成部212は、撮像部201から供給される各視点の撮像画像と仮想視点の撮像画像を、高密度の視点の超多視点画像(光線群情報)としてリフォーカス画像生成部213に供給する。
リフォーカス画像生成部213は、仮想視点画像生成部212から供給される超多視点画像を用いて、仮想フォーカスの撮像画像をリフォーカス画像として生成する。リフォーカス画像生成部213は、生成されたリフォーカス画像を出力する。
(撮像部の構成例)
図8は、図7の撮像部201の構成例を示すブロック図である。
図8の撮像部201は、基準カメラ221−0、N(Nは2以上の整数)個の周辺カメラ221−1乃至221−N、取り込み制御部222、フレームメモリ223、読み出し制御部224、および補正部225により構成される。
基準カメラ221−0は、レンズ221A−0と、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)などのイメージセンサ221B−0とにより構成される。基準カメラ221−0は、取り込み制御部222から供給される同期信号にしたがって、撮像を行う。
具体的には、基準カメラ221−0は、同期信号に応じて、被写体から入射された光を、レンズ221A−0を介してイメージセンサ221B−0により受光し、その結果得られるアナログ信号に対してA/D変換等を行うことにより、撮像を行う。基準カメラ221−0は、撮像の結果得られる撮像画像を取り込み制御部222に供給する。
周辺カメラ221−1乃至221−Nは、それぞれ、基準カメラ221−0と同様に構成され、取り込み制御部222からの同期信号に応じて撮像を行う。周辺カメラ221−1乃至221−Nは、撮像の結果得られる撮像画像を取り込み制御部222に供給する。
取り込み制御部222は、基準カメラ221−0と周辺カメラ221−1乃至221−Nに対して同一の同期信号を供給することにより、同時刻の異なる視点の撮像画像を取得する。取り込み制御部222は、取得された同時刻の異なる視点の撮像画像をフレームメモリ223(記憶部)に供給し、記憶させる。
読み出し制御部224は、図7の検出部211からの要求に応じて、フレームメモリ223から、基準カメラ221−0と周辺カメラ221−1乃至221−Nの撮像画像のうちの所定のブロックが読み出されるように、読み出しを制御する。読み出し制御部224は、読み出されたブロックを補正部225に供給する。また、読み出し制御部224は、フレームメモリ223から、基準カメラ221−0と周辺カメラ221−1乃至221−Nの撮像画像を読み出し、補正部225に供給する。
補正部225は、読み出し制御部224から供給されるブロックと撮像画像に対して、黒レベル補正、歪み補正、シェーディング補正などの補正処理を行う。補正部225は、補正処理後のブロックを図7の検出部211に供給し、補正処理後の撮像画像を仮想視点画像生成部212に供給する。
なお、基準カメラ221−0(撮像部)と周辺カメラ221−1乃至221−N(撮像部)は、レンズ221A−0乃至221A−Nを含まなくてもよい。この場合、撮像部201は、基準カメラ221−0と周辺カメラ221−1乃至221−Nとは別に、レンズ221A−0乃至221A−Nを配置する。
(基準カメラと周辺カメラの第1の配置例)
図9は、図7の撮像部201の基準カメラ221−0と周辺カメラ221−1乃至221−Nの第1の配置例を示す斜視図である。
図9の撮像部201では、基準カメラ221−0としての1つの基準カメラ230と、周辺カメラ221−1乃至221−Nとしての4つの周辺カメラ231乃至234が、水平方向に配置されている。
また、基準カメラ230と周辺カメラ231乃至234それぞれとの間の水平方向の距離、即ち基準カメラ230と周辺カメラ231乃至234それぞれとの水平方向の基線長は、異なる素数の逆数を所定値daに乗算した値である。具体的には、基準カメラ230と周辺カメラ231乃至234それぞれとの水平方向の基線長は、1/7da,1/5da,1/3da,1/2daである。
この場合、基準カメラ230の撮像画像に縦縞の繰り返しパターンが存在すると、合算相関値の大きいピークの周期は、水平方向の基線長が所定値daである周辺カメラと基準カメラ230の撮像画像の相関値のピークの周期の210(=2×3×5×7)倍になる。即ち、合算相関値の大きいピークの周期は、基準カメラ230との水平方向の基線長(水平基線長)が最も短い1/7daである周辺カメラ231と基準カメラ230の撮像画像の相関値のピークの周期の30倍になる。従って、水平方向の繰り返しパターンにより奥行き推定の誤認が発生する限界空間周波数を30倍改善することができる。
なお、基準カメラ230と周辺カメラ231乃至234それぞれとの水平方向の基線長は、素数の逆数に近い値を所定値daに乗算した値であれば、素数の逆数を所定値daに乗算した値でなくてもよい。
また、図示は省略するが、基準カメラと周辺カメラは、水平方向以外の、垂直方向、斜め方向等の一方向に配置されてもよい。基準カメラと周辺カメラが、垂直方向に配置される場合、垂直方向の繰り返しパターンに起因する奥行き推定の誤認を抑制することができる。また、斜め方向に配置される場合、水平方向、垂直方向のほか、斜め方向の繰り返しパターンに起因する奥行き推定の誤認も抑制することができる。
(基準カメラと周辺カメラの第2の配置例)
図10は、図7の撮像部201の基準カメラ221−0と周辺カメラ221−1乃至221−Nの第2の配置例を示す斜視図である。
図10の撮像部201では、基準カメラ221−0としての1つの基準カメラ250と、周辺カメラ221−1乃至221−Nとしての8つの周辺カメラ251乃至258が、2次元配置されている。
また、基準カメラ250と周辺カメラ251乃至256それぞれとの間の水平方向の距離、即ち基準カメラ250と周辺カメラ251乃至256それぞれとの水平方向の基線長は、異なる素数の逆数を所定値daに乗算した値である。具体的には、基準カメラ250と周辺カメラ251乃至258それぞれとの水平方向の基線長は、1/13da,1/11da,1/7da,1/5da,1/3da,1/2daである。
また、基準カメラ250と周辺カメラ251乃至254,257、および258それぞれとの間の垂直方向の距離、即ち基準カメラ250と周辺カメラ251乃至254,257、および258それぞれとの垂直方向の基線長(垂直基線長)は、異なる素数の逆数を所定値daに乗算した値である。具体的には、基準カメラ250と周辺カメラ251乃至254,257、および258それぞれとの垂直方向の基線長は、1/13da,1/11da,1/5da,1/7da,1/3da,1/2daである。
この場合、基準カメラ250の撮像画像に縦縞の繰り返しパターンが存在すると、合算相関値の大きいピークの周期は、水平方向の基線長が所定値daである周辺カメラと基準カメラ250の撮像画像の相関値のピークの周期の30030(=2×3×5×7×11×13)倍になる。即ち、合算相関値の大きいピークの周期は、基準カメラ250との水平方向の基線長が最も短い1/13daである周辺カメラ251と基準カメラ250の撮像画像の相関値のピークの周期の2310倍になる。従って、水平方向の繰り返しパターンにより奥行き推定の誤認が発生する限界空間周波数を2310倍改善することができる。
同様に、垂直方向の繰り返しパターンにより奥行き推定の誤認が発生する限界空間周波数も2310倍改善することができる。
なお、基準カメラ250と周辺カメラ251乃至258それぞれとの水平方向や垂直方向の基線長は、素数の逆数に近い値を所定値daに乗算した値であれば、素数の逆数を所定値daに乗算した値でなくてもよい。
(基準カメラと周辺カメラの第3の配置例)
図11は、図7の撮像部201の基準カメラ221−0と周辺カメラ221−1乃至221−Nの第3の配置例を示す斜視図である。
図11の撮像部201では、基準カメラ221−0としての1つの基準カメラ270と、周辺カメラ221−1乃至221−Nとしての8つの周辺カメラ271乃至278が、十字形状に配置されている。具体的には、周辺カメラ272を中心として、水平方向に、基準カメラ270と周辺カメラ271乃至274が配置され、垂直方向に、周辺カメラ272および275乃至278が配置される。
また、基準カメラ270と周辺カメラ271乃至274それぞれとの水平方向の基線長は、異なる素数の逆数を所定値daに乗算した値である。具体的には、基準カメラ270と周辺カメラ271乃至274それぞれとの水平方向の基線長は、1/7da,1/5da,1/3da,1/2daである。
また、周辺カメラ275と周辺カメラ272および276乃至278それぞれとの垂直方向の基線長は、異なる素数の逆数を所定値dbに乗算した値である。具体的には、周辺カメラ275と周辺カメラ272および276乃至278それぞれとの垂直方向の基線長は、1/5db,1/7db,1/3db,1/2dbである。
この場合、水平方向および垂直方向だけでなく、あらゆる方向の繰り返しパターンに起因する奥行き推定の誤認の発生を抑制することができる。
なお、基準カメラ270と周辺カメラ271乃至274それぞれとの水平方向の基線長は、素数の逆数に近い値を所定値daに乗算した値であれば、素数の逆数を所定値daに乗算した値でなくてもよい。同様に、周辺カメラ275と周辺カメラ272および276乃至278それぞれとの垂直方向の基線長は、素数の逆数に近い値を所定値daに乗算した値であれば、素数の逆数を所定値daに乗算した値でなくてもよい。
(基準カメラと周辺カメラの第4の配置例)
図12は、図7の撮像部201基準カメラ221−0と周辺カメラ221−1乃至221−Nの第4の配置例を示す斜視図である。
図12の撮像部201では、基準カメラ221−0としての1つの基準カメラ290を中心として、周辺カメラ221−1乃至221−Nとしての5つの周辺カメラ291乃至295が、正五角形状に配置されている。
また、基準カメラ290と周辺カメラ291乃至294それぞれとの水平方向の基線長は、素数の逆数を所定値daに乗算した値である。具体的には、基準カメラ290と周辺カメラ291および292それぞれとの水平方向の基線長は、1/5daであり、基準カメラ290と周辺カメラ293および294それぞれとの水平方向の基線長は、1/3daである。また、周辺カメラ295の水平方向の位置は、基準カメラ290の水平方向の位置と同一である。
また、基準カメラ290と周辺カメラ291乃至294それぞれとの垂直方向の基線長は、素数の逆数を所定値dbに乗算した値である。具体的には、基準カメラ290と周辺カメラ291および292それぞれとの垂直方向の基線長は、1/5dbであり、基準カメラ290と周辺カメラ293および294それぞれとの垂直方向の基線長は、1/13dbである。基準カメラ290と周辺カメラ295の垂直方向の基線長は、1/4dbである。
図12に示したように、基準カメラ290を中心として、5つの周辺カメラ291乃至295が、正五角形状に配置される場合、水平方向および垂直方向の基線長の多くが、素数の逆数に所定値を乗算した値になる。従って、水平方向および垂直方向の繰り返しパターンに起因する奥行き推定の誤認を抑制することができる。
また、基準カメラ290と周辺カメラ291乃至295のうちの隣り合う3つのカメラ間を結んだ三角形のうちの、基準カメラ290と隣り合う2つの周辺カメラ間を結んだ三角形301乃至305は、同一である。従って、仮想視点画像生成部212は、仮想視点の位置によらず、仮想視点を含む三角形301乃至305に共通のサイズの三角形の頂点に位置するカメラの視点の撮像画像と視差画像を用いて仮想視点の撮像画像を補間する方法で、仮想視点の撮像画像を補間することができる。即ち、仮想視点の撮像画像の補間方法を、仮想視点の位置によって変更する必要がない。よって、仮想視点の撮像画像を容易に補間することができる。
(基準カメラと周辺カメラの第5の配置例)
図13は、図7の撮像部201の基準カメラ221−0と周辺カメラ221−1乃至221−Nの第5の配置例を示す斜視図である。
図13の撮像部201では、基準カメラ221−0としての1つの基準カメラ310と、周辺カメラ221−1乃至221−Nとしての18個の周辺カメラ311乃至328が配置される。具体的には、周辺カメラ311乃至316が、基準カメラ310を中心とした正六角形状に配置され、周辺カメラ317乃至328が、基準カメラ310を中心とした正十二角形状に配置される。正六角形状と正十二角形状の辺の長さは等しい。
また、基準カメラ310と周辺カメラ311乃至314および317乃至328それぞれとの水平方向の基線長は、素数の逆数を所定値daに乗算した値である。
具体的には、基準カメラ310と周辺カメラ311乃至314および317乃至320それぞれとの水平方向の基線長は、1/19daであり、基準カメラ310と周辺カメラ321乃至324それぞれとの水平方向の基線長は、1/7daである。また、基準カメラ310と周辺カメラ325乃至328それぞれとの水平方向の基線長は、1/5daである。なお、基準カメラ310と周辺カメラ315および316それぞれとの水平方向の基線長は、2/19daである。
基準カメラ310と周辺カメラ311乃至328それぞれとの垂直方向の基線長は、素数の逆数を所定値daに乗算した値である。具体的には、基準カメラ310と周辺カメラ325乃至328それぞれとの垂直方向の基線長は、1/19daであり、基準カメラ310と周辺カメラ311乃至314それぞれとの垂直方向の基線長は、1/11daである。
また、基準カメラ310と周辺カメラ321乃至324それぞれとの垂直方向の基線長は、1/7daであり、基準カメラ310と周辺カメラ317乃至320それぞれとの垂直方向の基線長は、1/5daである。
図13に示したように、周辺カメラ311乃至316が、基準カメラ310を中心とした正六角形状に配置され、周辺カメラ317乃至328が、基準カメラ310を中心とした正十二角形状に配置される場合、水平方向および垂直方向の基線長の多くが、素数の逆数に所定値を乗算した値になる。従って、水平方向および垂直方向の繰り返しパターンに起因する奥行き推定の誤認を抑制することができる。
また、基準カメラ310と周辺カメラ311乃至328のうちの、隣り合う3つのカメラ間を結んだ三角形のうちの、基準カメラ310と、周辺カメラ311乃至316のうちの隣り合う2つの間を結んだ三角形341乃至346、および、周辺カメラ311乃至316のうちの1つと、周辺カメラ317乃至328のうちの隣り合う2つの間を結んだ三角形347乃至352は、同一の正三角形である。
さらに、隣り合う4つのカメラ間を結んだ四角形のうちの、周辺カメラ311乃至316のうちの隣り合う2つと、周辺カメラ317乃至328のうちの、その2つに対向する2つの間を結んだ四角形361乃至366は、同一の正方形である。
従って、仮想視点画像生成部212における仮想視点の補間の方法の種類が2種類で済む。第1の補間方法は、仮想視点を含む三角形341乃至352に共通のサイズの正三角形の頂点に位置するカメラの視点の撮像画像と視差画像を用いて、仮想視点の撮像画像を補間する方法である。第2の補間方法は、仮想視点を含む四角形361乃至366に共通のサイズの正方形の頂点に位置するカメラの視点の撮像画像と視差画像を用いて、仮想視点の撮像画像を補間する方法である。以上により、仮想視点の撮像画像を容易に補間することができる。
また、三角形341乃至352および四角形361乃至366の各辺の長さは同一であるので、仮想視点の撮像画像の補間を均等な密度で行うことができる。
(基準カメラおよび周辺カメラの配置と効果の説明)
図14は、図9乃至図13で示した基準カメラと周辺カメラの第1乃至第5の配置例と、その配置による効果を説明する図である。
図14の表では、左側の列に、図9乃至図13で示した配置の名称が記載され、中央の列に、繰り返しパターンに起因する奥行き推定の誤認に対する効果の度合が記載され、右側の列に、仮想視点の撮像画像の補間に対する効果の度合が記載されている。なお、以下では、第1乃至第5の配置例を、それぞれ、水平配置、2次元配置、十字形状配置、正五角形状配置、19個配置という。
撮像部201の基準カメラと周辺カメラの配置が、図9の水平配置である場合、水平方向の繰り返しパターンに起因する奥行き推定の誤認を抑制することができる。しかしながら、垂直方向の繰り返しパターンに起因する奥行き推定の誤認に対する効果はない。従って、図14の表の第2行目の中央の列には、繰り返しパターンに起因する奥行き推定の誤認に対する効果の度合として「中」を表す三角が記載されている。
一方、撮像部201の基準カメラと周辺カメラの配置が、図10の2次元配置、図11の十字形状配置、図12の正五角形状配置、および図13の19個配置である場合、水平方向および垂直方向の繰り返しパターンに起因する奥行き推定の誤認を抑制することができる。従って、図14の表の第3乃至第第6行目の中央の列には、繰り返しパターンに起因する奥行き推定の誤認に対する効果の度合として「高」を表す丸が記載されている。
また、撮像部201の基準カメラと周辺カメラの配置が、図9の水平配置である場合、隣り合うカメラ間の距離は、全て異なる。さらに、撮像部201の基準カメラと周辺カメラの配置が、図10の2次元配置および図11の十字形状配置である場合、基準カメラと周辺カメラのうちの隣り合う3以上のカメラ間を結んだ形状は、全て異なる。従って、仮想視点の撮像画像の補間に対する効果はない。よって、図14の表の第2乃至第4行目の右側の列には、仮想視点の撮像画像の補間に対する効果の度合として「なし」を表すバツが記載されている。
一方、撮像部201の基準カメラと周辺カメラの配置が、図12の正五角形状配置および図13の19個配置である場合、基準カメラと周辺カメラのうちの隣り合う3以上のカメラ間を結んだ形状のうちの少なくとも一部は同一である。従って、仮想視点の撮像画像の補間方法の種類が少なくて済み、仮想視点の撮像画像を容易に補間することができる。
しかしながら、図12の正五角形状配置では、三角形301乃至305が正三角形ではないので、仮想視点の撮像画像の補間を均等な密度で行うことはできない。よって、図14の表の第5行目の右側の列には、仮想視点の撮像画像の補間に対する効果の度合として「中」を表す三角が記載される。
これに対して、図13の19個配置では、三角形341乃至352および四角形361乃至366の各辺の長さが同一である。従って、仮想視点の撮像画像の補間を均等な密度で行うことができる。よって、図14の表の第6行目の右側の列には、仮想視点の撮像画像の補間に対する効果の度合として「高」を表す丸が記載される。
以上のように、ライトフィールドカメラ200は、異なる視点の画像を撮像する基準カメラと複数の周辺カメラを備え、基準カメラと少なくとも2つの周辺カメラとの間の少なくとも一方向の距離は、それぞれ、異なる素数の逆数を所定値に乗算した値である。従って、少なくとも一方向の繰り返しパターンを有する撮像画像の奥行き推定を高精度に行うことができる。その結果、リフォーカス画像の精度が向上する。
これに対して、カメラが、水平方向および垂直方向にそれぞれ一定間隔で配置される場合、即ち、カメラが格子状に配置される場合、繰り返しパターンを有する撮像画像の奥行き推定を高精度に行うことは困難である。
なお、基準カメラと周辺カメラの解像度は同一であってもよいし、異なっていてもよい。基準カメラと周辺カメラの解像度が異なっている場合には、サブピクセル単位でディスパリティ値を求めることができる。
また、周辺カメラの数は、上述した数に限定されない。周辺カメラの数が多いほど、より細かい繰り返しパターンに起因する奥行き推定の誤認を抑制することができる。さらに、所定値daおよびdbは、任意の値にすることができる。
(ライトフィールドカメラの処理の説明)
図15は、図7のライトフィールドカメラ200の撮像処理を説明するフローチャートである。
図15のステップS11において、ライトフィールドカメラ200の撮像部201の基準カメラ221−0と周辺カメラ221−1乃至221−N(図8)は、取り込み制御部222からの同期信号にしたがって、同時刻の各視点の画像を撮像する。その結果得られ撮像画像は、取り込み制御部222を介してフレームメモリ223に記憶される。
そして、読み出し制御部224は、検出部211からの要求に応じて、基準カメラ221−0と周辺カメラ221−1乃至221−Nの撮像画像のうちの所定のブロックを、フレームメモリ223から読み出す。また、読み出し制御部224は、基準カメラ221−0と周辺カメラ221−1乃至221−Nの撮像画像をフレームメモリ223から読み出す。フレームメモリ223から読み出されたブロックは、補正部225を介して検出部211に供給され、フレームメモリ223から読み出された撮像画像は、補正部225を介して仮想視点画像生成部212に供給される。
ステップS12において、検出部211は、補正部225から供給される基準カメラ221−0の撮像画像のブロックと各周辺カメラ221−1乃至221−Nの撮像画像のブロックとを用いて、例えば画素ごとに、基準カメラ221−0の視点の奥行き推定を行う。検出部211は、各画素の奥行き推定結果からなる視差画像を、基準カメラ221−0の視点の視差画像として仮想視点画像生成部212に供給する。
ステップS13において、仮想視点画像生成部212は、検出部211から供給される基準カメラ221−0の視点の視差画像を用いて、周辺カメラ221−1乃至221−Nの視点の視差画像を生成する。
ステップS14において、仮想視点画像生成部212は、生成された各視点の視差画像と補正部225から供給される各視点の撮像画像とを用いて、仮想視点の撮像画像を補間する。仮想視点画像生成部212は、補正部225から供給される各視点の撮像画像と仮想視点の撮像画像を、高密度の視点の超多視点画像としてリフォーカス画像生成部213に供給する。
ステップS15において、リフォーカス画像生成部213は、仮想視点画像生成部212から供給される超多視点画像を用いて、仮想フォーカスの撮像画像をリフォーカス画像として生成する。リフォーカス画像生成部213は、生成されたリフォーカス画像を出力し、処理を終了する。
<第2実施の形態>
(本開示を適用したコンピュータの説明)
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図16は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータ400において、CPU(Central Processing Unit)401,ROM(Read Only Memory)402,RAM(Random Access Memory)403は、バス404により相互に接続されている。
バス404には、さらに、入出力インタフェース405が接続されている。入出力インタフェース405には、撮像部406、入力部407、出力部408、記憶部409、通信部410、及びドライブ411が接続されている。
撮像部406は、図7の撮像部201と同様に構成される。入力部407は、キーボード、マウス、マイクロフォンなどよりなる。出力部408は、ディスプレイ、スピーカなどよりなる。記憶部409は、ハードディスクや不揮発性のメモリなどよりなる。通信部410は、ネットワークインタフェースなどよりなる。ドライブ411は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア412を駆動する。
以上のように構成されるコンピュータ400では、CPU401が、例えば、記憶部409に記憶されているプログラムを、入出力インタフェース405及びバス404を介して、RAM403にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ400(CPU401)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア412に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ400では、プログラムは、リムーバブルメディア412をドライブ411に装着することにより、入出力インタフェース405を介して、記憶部409にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部410で受信し、記憶部409にインストールすることができる。その他、プログラムは、ROM402や記憶部409に、あらかじめインストールしておくことができる。
なお、コンピュータ400が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
<応用例>
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車などのいずれかの種類の車両に搭載される装置として実現されてもよい。
図17は、本開示に係る技術が適用され得る車両制御システム2000の概略的な構成の一例を示すブロック図である。車両制御システム2000は、通信ネットワーク2010を介して接続された複数の電子制御ユニットを備える。図17に示した例では、車両制御システム2000は、駆動系制御ユニット2100、ボディ系制御ユニット2200、バッテリ制御ユニット2300、車外情報検出ユニット2400、車内情報検出ユニット2500、及び統合制御ユニット2600を備える。これらの複数の制御ユニットを接続する通信ネットワーク2010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク2010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図17では、統合制御ユニット2600の機能構成として、マイクロコンピュータ2610、汎用通信I/F2620、専用通信I/F2630、測位部2640、ビーコン受信部2650、車内機器I/F2660、音声画像出力部2670、車載ネットワークI/F2680及び記憶部2690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット2100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット2100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット2100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット2100には、車両状態検出部2110が接続される。車両状態検出部2110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット2100は、車両状態検出部2110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット2200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット2200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット2200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット2200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット2300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池2310を制御する。例えば、バッテリ制御ユニット2300には、二次電池2310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット2300は、これらの信号を用いて演算処理を行い、二次電池2310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出ユニット2400は、車両制御システム2000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット2400には、撮像部2410及び車外情報検出部2420のうちの少なくとも一方が接続される。撮像部2410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部2420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム2000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部2410及び車外情報検出部2420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
ここで、図18は、撮像部2410及び車外情報検出部2420の設置位置の例を示す。撮像部2910,2912,2914,2916,2918は、例えば、車両2900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部2910及び車室内のフロントガラスの上部に備えられる撮像部2918は、主として車両2900の前方の画像を取得する。サイドミラーに備えられる撮像部2912,2914は、主として車両2900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部2916は、主として車両2900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部2918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図18には、それぞれの撮像部2910,2912,2914,2916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部2910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部2912,2914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部2916の撮像範囲を示す。例えば、撮像部2910,2912,2914,2916で撮像された画像データが重ね合わせられることにより、車両2900を上方から見た俯瞰画像が得られる。
車両2900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部2920,2922,2924,2926,2928,2930は、例えば超音波センサ又はレーダ装置であってよい。車両2900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部2920,2926,2930は、例えばLIDAR装置であってよい。これらの車外情報検出部2920〜2930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
図17に戻って説明を続ける。車外情報検出ユニット2400は、撮像部2410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット2400は、接続されている車外情報検出部2420から検出情報を受信する。車外情報検出部2420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット2400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット2400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット2400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット2400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出ユニット2400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット2400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部2410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット2400は、異なる撮像部2410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出ユニット2500は、車内の情報を検出する。車内情報検出ユニット2500には、例えば、運転者の状態を検出する運転者状態検出部2510が接続される。運転者状態検出部2510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット2500は、運転者状態検出部2510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット2500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット2600は、各種プログラムにしたがって車両制御システム2000内の動作全般を制御する。統合制御ユニット2600には、入力部2800が接続されている。入力部2800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。入力部2800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム2000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部2800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。さらに、入力部2800は、例えば、上記の入力部2800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット2600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部2800を操作することにより、車両制御システム2000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部2690は、マイクロコンピュータにより実行される各種プログラムを記憶するRAM(Random Access Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するROM(Read Only Memory)を含んでいてもよい。また、記憶部2690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F2620は、外部環境2750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F2620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE−A(LTE−Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi−Fi(登録商標)ともいう)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F2620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F2620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F2630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F2630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、又はDSRC(Dedicated Short Range Communications)といった標準プロトコルを実装してよい。専用通信I/F2630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部2640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部2640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部2650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部2650の機能は、上述した専用通信I/F2630に含まれてもよい。
車内機器I/F2660は、マイクロコンピュータ2610と車内に存在する様々な機器との間の接続を仲介する通信インタフェースである。車内機器I/F2660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F2660は、図示しない接続端子(及び、必要であればケーブル)を介して有線接続を確立してもよい。車内機器I/F2660は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F2680は、マイクロコンピュータ2610と通信ネットワーク2010との間の通信を仲介するインタフェースである。車載ネットワークI/F2680は、通信ネットワーク2010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット2600のマイクロコンピュータ2610は、汎用通信I/F2620、専用通信I/F2630、測位部2640、ビーコン受信部2650、車内機器I/F2660及び車載ネットワークI/F2680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム2000を制御する。例えば、マイクロコンピュータ2610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット2100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ2610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ2610は、汎用通信I/F2620、専用通信I/F2630、測位部2640、ビーコン受信部2650、車内機器I/F2660及び車載ネットワークI/F2680のうちの少なくとも一つを介して取得される情報に基づき、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ2610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部2670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図17の例では、出力装置として、オーディオスピーカ2710、表示部2720及びインストルメントパネル2730が例示されている。表示部2720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部2720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ2610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図17に示した例において、通信ネットワーク2010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム2000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク2010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク2010を介して相互に検出情報を送受信してもよい。
以上説明した車両制御システム2000において、図7の撮像部201は、例えば、図17の撮像部2410に適用することができる。また、図7の画像処理部202は、例えば、図17の車外情報検出ユニット2400に適用することができる。これにより、繰り返しパターンを有する車外の画像の奥行き推定を高精度に行うことができる。その結果、リフォーカス画像の精度が向上する。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
さらに、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。例えば、周辺カメラ221−1乃至221−Nは、基準カメラ221−0を中心とした、正五角形、正六角形、正十二角形以外の多角形の形状に配置されるようにしてもよい。
また、本技術は、マルチベースラインステレオカメラにも適用可能である。
なお、本開示は、以下のような構成もとることができる。
(1)
異なる視点の画像を撮像する際の基準となる撮像部の位置を基準にして異なる素数の逆数に基づく基線長にしたがって配置された複数の撮像部
を備える撮像装置。
(2)
前記基線長は、異なる素数の逆数を所定値に乗算した値である
前記(1)に記載の撮像装置。
(3)
前記基線長は、水平方向の基線長である水平基線長または垂直方向の基線長である垂直基線長である
前記(1)または(2)に記載の撮像装置。
(4)
前記基線長は、水平方向の基線長である水平基線長と垂直方向の基線長である垂直基線長からなる
前記(1)または(2)に記載の撮像装置。
(5)
前記複数の撮像部と前記基準となる撮像部は、十字形状に配置される
前記(1)乃至(4)のいずれかに記載の撮像装置。
(6)
前記撮像部の数は4以上であり、
隣り合う3以上の前記撮像部を結んだ形状の一部は、同一である
前記(1)乃至(4)のいずれかに記載の撮像装置。
(7)
前記複数の撮像部は、前記基準となる撮像部を中心とした多角形状に配置される
前記(6)に記載の撮像装置。
(8)
前記複数の撮像部は、前記基準となる撮像部を中心とした5角形状に配置される
前記(6)に記載の撮像装置。
(9)
前記複数の撮像部は、前記基準となる撮像部を中心とした6角形状と12角形状とに配置される
前記(6)に記載の撮像装置。
(10)
前記6角形状と前記12角形状の辺の長さは等しい
前記(9)に記載の撮像装置。
(11)
前記複数の撮像部と前記基準となる撮像部は、同一の同期信号にしたがって画像を取得する
前記(1)乃至(10)のいずれかに記載の撮像装置。
(12)
前記複数の撮像部と前記基準となる撮像部により取得された前記画像を記憶する記憶部と、
前記記憶部により記憶された前記画像の読み出しを制御する読み出し制御部と、
前記読み出し制御部の制御により読み出された前記画像を補正する補正部と
をさらに備える
前記(11)に記載の撮像装置。
(13)
前記補正部により補正された前記画像を用いて、前記基準となる撮像部により取得された前記画像の奥行き推定を行い、その画像の視差画像を生成する奥行き推定部と、
前記奥行き推定部により生成された前記基準となる撮像部の視差画像と、前記複数の撮像部および前記基準となる撮像部により取得された前記画像とを用いて、超多視点画像を生成する生成部と
をさらに備える
前記(12)に記載の撮像装置。
(14)
異なる視点の画像を撮像する際の基準となる撮像部の位置を基準にして異なる素数の逆数に基づく基線長にしたがって配置された複数の撮像部と前記基準となる撮像部が、
異なる視点の画像を撮像する
ステップを含む撮像方法。
200 ライトフィールドカメラ, 230 基準カメラ, 231乃至234 周辺カメラ, 250 基準カメラ, 251乃至258 周辺カメラ, 270 基準カメラ、 271乃至278 周辺カメラ, 290 基準カメラ, 291乃至295 周辺カメラ, 310 基準カメラ, 311乃至328 周辺カメラ

Claims (10)

  1. 異なる視点の画像を撮像する際の基準となる撮像部の位置を基準にして異なる素数の逆数に基づく基線長にしたがって配置された複数の撮像部
    を備え
    前記複数の撮像部は、前記基準となる撮像部を中心とした5角形状に配置される
    撮像装置。
  2. 異なる視点の画像を撮像する際の基準となる撮像部の位置を基準にして異なる素数の逆数に基づく基線長にしたがって配置された複数の撮像部
    を備え、
    前記複数の撮像部は、前記基準となる撮像部を中心とした6角形状と12角形状とに配置される
    撮像装置。
  3. 前記6角形状と前記12角形状の辺の長さは等しい
    請求項に記載の撮像装置。
  4. 前記基線長は、異なる素数の逆数を所定値に乗算した値である
    請求項1乃至3のいずれかに記載の撮像装置。
  5. 隣り合う3以上の前記撮像部を結んだ形状の一部は、同一である
    請求項1乃至4のいずれかに記載の撮像装置。
  6. 前記複数の撮像部と前記基準となる撮像部は、同一の同期信号にしたがって画像を取得する
    請求項1乃至5のいずれかに記載の撮像装置。
  7. 前記複数の撮像部と前記基準となる撮像部により取得された前記画像を記憶する記憶部と、
    前記記憶部により記憶された前記画像の読み出しを制御する読み出し制御部と、
    前記読み出し制御部の制御により読み出された前記画像を補正する補正部と
    をさらに備える
    請求項に記載の撮像装置。
  8. 前記補正部により補正された前記画像を用いて、前記基準となる撮像部により取得された前記画像の奥行き推定を行い、その画像の視差画像を生成する奥行き推定部と、
    前記奥行き推定部により生成された前記基準となる撮像部の視差画像と、前記複数の撮像部および前記基準となる撮像部により取得された前記画像とを用いて、超多視点画像を生成する生成部と
    をさらに備える
    請求項に記載の撮像装置。
  9. 異なる視点の画像を撮像する際の基準となる撮像部の位置を基準にして異なる素数の逆数に基づく基線長にしたがって配置された複数の撮像部であり、前記基準となる撮像部を中心とした5角形状に配置されている前記複数の撮像部と前記基準となる撮像部が
    異なる視点の画像を撮像する
    ステップを含む撮像方法。
  10. 異なる視点の画像を撮像する際の基準となる撮像部の位置を基準にして異なる素数の逆数に基づく基線長にしたがって配置された前記複数の撮像部であり、前記基準となる撮像部を中心とした6角形状と12角形状とに配置されている複数の撮像部と前記基準となる撮像部が、
    異なる視点の画像を撮像する
    ステップを含む撮像方法。
JP2017500609A 2015-02-20 2016-02-08 撮像装置および撮像方法 Active JP6645492B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015032006 2015-02-20
JP2015032006 2015-02-20
PCT/JP2016/053716 WO2016132950A1 (ja) 2015-02-20 2016-02-08 撮像装置および撮像方法

Publications (2)

Publication Number Publication Date
JPWO2016132950A1 JPWO2016132950A1 (ja) 2017-11-30
JP6645492B2 true JP6645492B2 (ja) 2020-02-14

Family

ID=56692222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017500609A Active JP6645492B2 (ja) 2015-02-20 2016-02-08 撮像装置および撮像方法

Country Status (4)

Country Link
US (1) US20170359565A1 (ja)
JP (1) JP6645492B2 (ja)
CN (1) CN107211085B (ja)
WO (1) WO2016132950A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7107224B2 (ja) * 2016-11-08 2022-07-27 ソニーグループ株式会社 画像処理装置、画像処理方法、及び、プログラム
JP6995494B2 (ja) * 2017-05-02 2022-01-14 キヤノン株式会社 信号処理装置
JP6717272B2 (ja) * 2017-08-01 2020-07-01 トヨタ自動車株式会社 車外報知装置
JP6690612B2 (ja) * 2017-08-03 2020-04-28 トヨタ自動車株式会社 車外報知装置
JP7035447B2 (ja) * 2017-10-26 2022-03-15 トヨタ自動車株式会社 車両制御装置
US10375378B2 (en) * 2017-12-12 2019-08-06 Black Sesame International Holding Limited Dual camera system for real-time depth map generation
DE102017130897A1 (de) 2017-12-21 2019-06-27 Pilz Gmbh & Co. Kg Verfahren zum Bestimmen von Entfernungsinformation aus einer Abbildung eines Raumbereichs
JP2019158759A (ja) * 2018-03-15 2019-09-19 株式会社リコー 撮像装置、車両、及び撮像方法
JP7150508B2 (ja) * 2018-07-24 2022-10-11 株式会社東芝 鉄道車両用撮像システム
US10623660B1 (en) * 2018-09-27 2020-04-14 Eloupes, Inc. Camera array for a mediated-reality system
DE102021104947B4 (de) * 2021-03-02 2023-05-25 Gerhard Schubert Gesellschaft mit beschränkter Haftung Scanner, damit ausgestattete Ermittlungs-Vorrichtung sowie Verfahren für deren Betrieb
WO2024004190A1 (ja) * 2022-06-30 2024-01-04 富士通株式会社 3次元位置算出方法、装置、及びプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57175206A (en) * 1981-04-22 1982-10-28 Canon Inc Distance measuring device
US7009912B1 (en) * 1989-10-30 2006-03-07 Northrop Grumman Corporation Method and system for detection of broadband energy
JP3827912B2 (ja) * 2000-03-31 2006-09-27 山本 和彦 全方向ステレオ画像撮影装置及びステレオ画像撮影装置
JP4483951B2 (ja) * 2008-01-28 2010-06-16 ソニー株式会社 撮像装置
KR20110000848A (ko) * 2009-06-29 2011-01-06 (주)실리콘화일 3차원 거리정보 및 영상 획득 장치
JP2011061684A (ja) * 2009-09-14 2011-03-24 Fujifilm Corp 固体撮像素子及びその駆動方法並びに撮像装置
JP5296218B2 (ja) * 2009-09-28 2013-09-25 株式会社東芝 立体映像表示方法及び立体映像表示装置
CN101720047B (zh) * 2009-11-03 2011-12-21 上海大学 基于颜色分割的多目摄像立体匹配获取深度图像的方法
GB2476685B (en) * 2010-01-05 2015-01-21 Sony Corp A camera arrangement, camera system and method
GB2477333B (en) * 2010-01-29 2014-12-03 Sony Corp A method and apparatus for creating a stereoscopic image
EP2555506B1 (en) * 2010-03-30 2021-05-05 Panasonic Intellectual Property Management Co., Ltd. Imaging control device, immersion position information generation device, imaging control method, immersion position information generation method
JP5942195B2 (ja) * 2010-10-27 2016-06-29 パナソニックIpマネジメント株式会社 3次元画像処理装置、3次元撮像装置および3次元画像処理方法
CN102157012B (zh) * 2011-03-23 2012-11-28 深圳超多维光电子有限公司 对场景进行立体渲染的方法、图形图像处理装置及设备、系统
US8368690B1 (en) * 2011-07-05 2013-02-05 3-D Virtual Lens Technologies, Inc. Calibrator for autostereoscopic image display
US9222767B2 (en) * 2012-01-03 2015-12-29 Samsung Electronics Co., Ltd. Display apparatus and method for estimating depth
JP5701785B2 (ja) * 2012-02-03 2015-04-15 株式会社東芝 カメラモジュール
US20140063193A1 (en) * 2012-08-31 2014-03-06 Wayne Martin Williams Natural 3D Motion For Film And Video
US9373183B2 (en) * 2012-11-15 2016-06-21 Honeywell International Inc. Removing an occlusion from an image
US9083873B1 (en) * 2013-03-28 2015-07-14 Google Inc. Devices and methods for providing multi-aperture lens functionality
US9565416B1 (en) * 2013-09-30 2017-02-07 Google Inc. Depth-assisted focus in multi-camera systems
US9967538B2 (en) * 2013-11-04 2018-05-08 Massachussetts Institute Of Technology Reducing view transitions artifacts in automultiscopic displays
JP2015128131A (ja) * 2013-11-27 2015-07-09 ソニー株式会社 固体撮像素子および電子機器
TWM545271U (zh) * 2017-02-09 2017-07-11 Largan Digital Co Ltd 雙鏡頭驅動裝置與電子裝置

Also Published As

Publication number Publication date
CN107211085B (zh) 2020-06-05
WO2016132950A1 (ja) 2016-08-25
JPWO2016132950A1 (ja) 2017-11-30
CN107211085A (zh) 2017-09-26
US20170359565A1 (en) 2017-12-14

Similar Documents

Publication Publication Date Title
JP6645492B2 (ja) 撮像装置および撮像方法
WO2017159382A1 (ja) 信号処理装置および信号処理方法
JP7200678B2 (ja) 画像処理装置および画像処理方法
JP6834964B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN109844813B (zh) 图像处理装置和图像处理方法
CN111033571B (zh) 图像处理设备和图像处理方法
CN108139211B (zh) 用于测量的装置和方法以及程序
WO2019130945A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
JP6764573B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6701532B2 (ja) 画像処理装置および画像処理方法
US20200322585A1 (en) Image processing device, image processing method, and vehicle
CN110691986B (zh) 用于计算机视觉的设备、方法和非暂时性计算机可读记录介质
CN109791706B (zh) 图像处理装置和图像处理方法
EP3585045B1 (en) Information processing device, information processing method, and program
US10748264B2 (en) Image processing apparatus and image processing method
CN110574357A (zh) 成像控制设备、用于控制成像控制设备的方法以及移动体
WO2017188017A1 (ja) 検出装置、検出方法、およびプログラム
WO2016203989A1 (ja) 画像処理装置および画像処理方法
WO2019093136A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2018032986A (ja) 情報処理装置および方法、車両、並びに情報処理システム
CN113614777A (zh) 信息处理装置、信息处理方法和程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191223

R151 Written notification of patent or utility model registration

Ref document number: 6645492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151