JP6355052B2 - 撮像装置、画像処理装置、撮像方法および記録媒体 - Google Patents

撮像装置、画像処理装置、撮像方法および記録媒体 Download PDF

Info

Publication number
JP6355052B2
JP6355052B2 JP2014237824A JP2014237824A JP6355052B2 JP 6355052 B2 JP6355052 B2 JP 6355052B2 JP 2014237824 A JP2014237824 A JP 2014237824A JP 2014237824 A JP2014237824 A JP 2014237824A JP 6355052 B2 JP6355052 B2 JP 6355052B2
Authority
JP
Japan
Prior art keywords
camera
position information
image
images
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014237824A
Other languages
English (en)
Other versions
JP2015133691A (ja
Inventor
登 一生
一生 登
佐藤 智
智 佐藤
吾妻 健夫
健夫 吾妻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014237824A priority Critical patent/JP6355052B2/ja
Publication of JP2015133691A publication Critical patent/JP2015133691A/ja
Application granted granted Critical
Publication of JP6355052B2 publication Critical patent/JP6355052B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

本開示は、広視野角の画像を撮影するとともに、視野内の3次元位置を取得する技術に関する。
従来、魚眼レンズを備えた撮像装置を複数用いて、目標物を測位する方式が知られている(特許文献2を参照)。
特開2001−285692号公報 特開平6−167564号公報 特開2007−24647号公報
C. Zach, T. Pock, and H. Bischof, "A duality based approach for realtime TV-L1 optical flow," In Proceedings of the 29th DAGM conference on Pattern recognition, pp214-223, 2007 M. Werlberger, T. Pock, H. Bischof, "Motion estimation with non-local total variation regularization," IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp.2464-2471, 13-18 June 2010 松山隆司、ほか編,"コンピュータビジョン"、株式会社新技術コミュニケーションズ、pp123〜137.
上記従来の技術では、魚眼レンズを含むカメラを複数含む撮像装置において、複数のカメラに含まれる一のカメラで撮像した画像に、複数のカメラに含まれる他のカメラが映り込んだ領域が存在する場合がある。つまり一のカメラで撮像した画像に、他のカメラの後方にある物体などが遮蔽されて画像と3次元位置を取得できない。
本開示の、限定的でない、例示的なある実施の形態は、撮像装置に含まれるカメラを撮像した領域がない画像と、3次元位置とを取得することが可能な撮像装置を提供する。
本開示にかかる実施の形態のさらなる利点および効果は、明細書および図面から明らかになるであろう。それらの利点および/または効果は、種々の実施の形態および明細書および図面に開示された特徴によって個々に提供され得る。ただし、それらの1つまたは複数を得るために全てが提供される必要はない。ある一般的な局面では、本明細書および図面に開示された技術は以下のとおりである。すなわち、複数の画像を撮影するとともに、取得した前記複数の画像から3次元位置を算出し、前記複数の画像と前記3次元位置の情報とを出力する撮像装置であって、少なくとも3つのカメラの各々を利用して撮影を行うことにより、前記複数の画像を生成し出力する撮像部であって、各カメラは、光軸が互いに平行であり、かつ、近接するように配置されている、撮像部と、前記各カメラの物理的な配置に関する外部パラメタ、前記各カメラの特性に関する内部パラメタ、および、各カメラの画像において、他のカメラによって遮蔽された領域であるか否かの情報を含む遮蔽情報を含むカメラパラメタを、あらかじめ記憶するカメラパラメタ記憶部と、前記複数の画像、および前記カメラパラメタを受け取り、前記複数の画像を利用した2つ以上の画像の組と前記カメラパラメタから複数点の3次元位置を算出する位置算出部と、前記位置算出部で算出した前記複数点の位置情報、および前記カメラパラメタ記憶部が記憶する遮蔽情報を受け取り、前記複数点の位置情報から、遮蔽のない被写体領域の位置情報を選択して選択位置情報として出力する位置選択部と、前記複数の画像および前記選択位置情報を受け取って、前記選択位置情報に基づいて、前記複数の画像の一つに存在する遮蔽領域を他の画像を用いて補完した補完画像を生成し、前記補完画像および前記選択位置情報を出力する画像補完部とを有する撮像装置。
本開示の一般的かつ特定の態様は、システム、方法、集積回路、コンピュータプログラムまたは、CD−ROMのような記録媒体を用いて実装され、または、システム、方法、集積回路、コンピュータプログラムおよび上記記録媒体の組み合わせを用いて実現され得る。
本開示の一態様にかかる撮像装置によれば、撮像装置に含まれるカメラを撮像した領域がない画像と、3次元位置とを取得することができる。
実施の形態1における撮像装置の構成を示すブロック図である。 実施の形態1における撮像装置の構成を示すブロック図である。 (a)および(b)は、本開示の例示的な実施形態1の撮像部の構成を示す模式図である。 コンピュータによって構成した画像処理部を備えた撮像装置の構成を示すブロック図である。 実施の形態1の画像処理部の動作の手順を示すフローチャートである。 (a)は本開示の例示的な実施形態1における撮像装置の設置の例を示す模式図であり、(b)は撮像状況の例を示す模式図である。 (a)および(b)は、本開示の例示的な実施形態1における撮像画像の例を示す模式図である。 実施の形態1における各カメラ画像の遮蔽情報の例を示す模式図である。 実施の形態1における位置情報における遮蔽領域の例を示す模式図である。 (a)および(b)は、本開示の例示的な実施形態1における補完画像と選択位置情報の例を示す模式図である。 実施の形態1における移動物検出部から出力される合成画像の例を示す模式図である。 実施の形態2の撮像装置の動作の手順を示すフローチャートである。 (a)〜(d)は、実施の形態1における遮蔽を考慮した4カメラの画像間の視差の例を示す模式図である。 実施の形態1における画像中の位置による被写体像の形や大きさ、向きの違いの例を示す模式図である。 (a)および(b)は、従来の技術における撮像装置の構成例を示す模式図である。 カメラ座標系およびカメラの外部パラメタを説明する模式図である。
(基礎となった知見)
自動車の安全運転支援システムや、移動ロボットの遠隔操作システム、あるいは不審者等を検出する監視カメラシステムなどにおいて、ユーザおよびシステムが判断や制御を行うためには、システムの周辺の画像と監視対象の3次元位置の情報が必要となる。特に人や車などの監視対象が移動する場合や、さらに自動車、ロボットなどのシステム自身が移動する場合、より広い視野角の画像と監視対象などの3次元位置とを取得することが重要である。
画像と監視対象などの3次元位置とを取得する手段としては、いわゆる2眼ステレオ視が一般的である。2眼ステレオ視では、2台のカメラを互いに異なる視点に視野が重複するように配置して2つの画像を取得し、2つの画像間の対応点を算出して、対応点とあらかじめ求めておいたカメラの位置や向きの情報を用いて、対応点の3次元位置を計算する。
2眼ステレオ視では、2台のカメラを結ぶ直線上、より正確に言えば2台のカメラの視点を結ぶ直線上、およびその直線近傍においては、3次元位置を計算できない。その理由は、2視点からの方向の差である視差が0または0に近くなるからである。特に、魚眼レンズなどを利用する、視野角が180度以上のカメラを用いる場合、視差が0になるために3次元位置を計算できない領域が視野内に必ず含まれる。そのため、広視野角の画像と3次元位置を取得する手法として、180度より狭い視野角のステレオ視を構成する複数のカメラを1組としてこれを複数組用いる方法や、180度以上の魚眼レンズを有するカメラを3台以上用いる方法が検討されてきた。
図14(a)は、同一部材上に視野角が180度より狭い複数のカメラを設置し、これを1組のステレオカメラとして、多面体の各面に1組ずつ設置した構成の装置を示す。たとえば特許文献1はこの装置を開示する。当該装置を用いると、全方向(球状)の3次元位置を取得することができる。この技術は、各組のステレオカメラの視野角は、180度より十分狭いため、視差が0になるために3次元位置を計算できない領域が含まれない。しかしながら、360度の視野角(球状)の計測のために12〜60台と非常に多くのカメラが必要になる。
これに対し、特許文献2、3は、広範囲の画像と3次元位置をより少ないカメラで取得する方法を開示する。たとえば図14(b)は、特許文献2に開示された、視野角の広い魚眼レンズを有するカメラ群を用いた装置を示す。この技術は、魚眼レンズを有するカメラで、広視野角の魚眼画像を取得するとともに、各魚眼画像から移動物を検出して各移動物を通る直線方程式を算出し、各移動物について複数の直線方程式を1組とする直線方程式群を求める。これにより、3次元位置座標を決定し、視野内を高速に移動する物体を追尾すること、または、複数の目標物を同時に追尾する。
上記従来の技術では、魚眼レンズを含むカメラを複数含む撮像装置において、複数のカメラに含まれる一のカメラで撮像した画像に、複数のカメラに含まれる他のカメラが映り込んだ領域が存在する場合がある。つまり一のカメラで撮像した画像に、他のカメラの後方にある物体などが遮蔽されて画像と3次元位置を取得できない。
そこで、本開示の一態様である撮像装置は、複数の画像を撮影するとともに、取得した前記複数の画像から3次元位置を算出し、前記複数の画像と前記3次元位置の情報とを出力する撮像装置であって、少なくとも3つのカメラの各々を利用して撮影を行うことにより、前記複数の画像を生成し出力する撮像部であって、各カメラは、光軸が互いに平行であり、かつ、近接するように配置されている、撮像部と、前記各カメラの物理的な配置に関する外部パラメタ、前記各カメラの特性に関する内部パラメタ、および、各カメラの画像において、他のカメラによって遮蔽された領域であるか否かの情報を含む遮蔽情報を含むカメラパラメタを、あらかじめ記憶するカメラパラメタ記憶部と、前記複数の画像、および前記カメラパラメタを受け取り、前記複数の画像を利用した2つ以上の画像の組と前記カメラパラメタから複数点の3次元位置を算出する位置算出部と、前記位置算出部で算出した前記複数点の位置情報、および前記カメラパラメタ記憶部が記憶する遮蔽情報を受け取り、前記複数点の位置情報から、遮蔽のない被写体領域の位置情報を選択して選択位置情報として出力する位置選択部と、前記複数の画像および前記選択位置情報を受け取って、前記選択位置情報に基づいて、前記複数の画像の一つに存在する遮蔽領域を他の画像を用いて補完した補完画像を生成し、前記補完画像および前記選択位置情報を出力する画像補完部とを有している。
上記の構成によると、撮像装置に含まれるカメラを撮像した領域がない補完画像と、被写体の3次元位置とを取得できる。
また、前記少なくとも3つのカメラの各視野角は、たとえばおおむね180度以上であってもよい。
また、前記少なくとも3つのカメラのうちの隣り合う2つのカメラの光軸中心間の距離は、たとえば前記2つのカメラのレンズ直径の和より小さくてもよい。
また、前記隣り合う2つのカメラの光軸中心間の距離は、たとえば2つのカメラのレンズ直径の平均とおおむね同じであってもよい。
また、前記位置選択部は、前記遮蔽情報に基づいて、前記複数点の位置情報から、遮蔽されていない領域の位置情報を選択するとともに、選択した位置情報に対して、視差の大きさに基づいて重みづけ加算を行い、選択位置情報を生成してもよい。
また、前記位置選択部は、選択した位置情報に対して、視差の大きさに基づいて重みづけ加算を行い、視差の大きい位置情報の重みを大きくして前記選択位置情報を生成してもよい。
また、前記位置選択部は、選択した位置情報に対して、視差の大きさに基づいて重みづけ加算を行い、視差の半径方向成分と接線方向の成分に基づいて重みづけ加算を行って前記選択位置情報を生成してもよい。
また、前記位置選択部は、選択した位置情報に対して、視差の大きさに基づいて重みづけ加算を行い、視差の接線方向の接線方向の成分が大きく、半径方向の成分が小さいほど重みを大きくして前記選択位置情報を生成してもよい。
また、画像の撮像と3次元位置を取得する撮影空間が、平面にそった3次元空間である場合に、平面の法線とカメラの光軸は概ね平行になるように配置されてもよい。
本開示の他の一態様による監視システムは、上述の撮像装置と、前記補完画像と前記選択位置情報とを受け取って、前記選択位置情報に基づいて障害物領域を検出し、検出した障害物領域を識別可能に表示した合成画像を生成する障害物検出部と、前記合成画像を表示するディスプレイとを有している。
本発明のさらに他の一態様による画像処理装置は、複数の画像から3次元位置を算出し、前記複数の画像と前記3次元位置を出力する画像処理装置であって、前記複数の画像は、光軸が互いに平行であり、かつ、近接するように配置された少なくとも3つのカメラを利用して撮影されており、前記各カメラの物理的な配置に関する外部パラメタ、前記各カメラの特性に関する内部パラメタ、および、各カメラの画像において、他のカメラによって遮蔽された領域であるか否かの情報を含む遮蔽情報を含むカメラパラメタを、あらかじめ記憶するカメラパラメタ記憶部と、前記複数の画像、および前記カメラパラメタを受け取り、前記複数の画像を利用した2つ以上の画像の組と前記カメラパラメタから複数点の3次元位置を算出する位置算出部と、前記位置算出部で算出した複数点の位置情報、およびカメラパラメタ記憶部から遮蔽情報を受け取り、前記複数点の位置情報から、遮蔽のない被写体領域の位置情報を選択して選択位置情報として出力する位置選択部と、前記複数の画像および前記選択位置情報を受け取って、前記選択位置情報に基づいて、前記複数の画像の一つに存在する遮蔽領域を他の画像を用いて補完した補完画像を生成し、前記補完画像および前記選択位置情報を出力する画像補完部とを有している。
本開示のさらに他の一態様による方法は、撮像装置を利用する撮像方法であって、前記撮像装置は、複数の画像を撮影して、前記複数の画像から3次元位置を算出し、前記複数の画像と前記3次元位置の情報とを出力し、かつ、撮像部およびカメラパラメタ記憶部を備えており、前記撮像部は、光軸が互いに平行であり、かつ、近接するように配置された少なくとも3つのカメラの各々を利用して撮影を行い、前記複数の画像を生成し出力し、前記カメラパラメタ記憶部は、前記各カメラの物理的な配置に関する外部パラメタ、前記各カメラの特性に関する内部パラメタ、および、各カメラの画像において、他のカメラによって遮蔽された領域であるか否かの情報を含む遮蔽情報を含むカメラパラメタを記憶しており、前記撮像方法は、前記複数の画像を利用した2つ以上の画像の組と前記カメラパラメタから複数点の3次元に位置を算出するステップと、前記複数点の位置情報および前記カメラパラメタを受け取り、前記複数点の位置情報から、遮蔽のない被写体領域の位置情報を選択して選択位置情報として出力するステップと、前記選択位置情報に基づいて、前記複数の画像の一つに存在する遮蔽領域を他の画像を用いて補完した補完画像を生成するステップと、前記補完画像および前記選択位置情報を出力するステップとを包含する。
本開示のさらに他の一態様は、プロセッサを有する装置に画像処理を実行させるための画像処理プログラム、またはその画像処理プログラムを格納した、コンピュータが読み取り可能な、一時的ではない記録媒体である。前記画像処理プログラムは複数の画像から3次元位置を算出し、前記複数の画像と前記3次元位置を出力する画像処理装置のコンピュータによって実行され、前記複数の画像は、光軸が互いに平行であり、かつ、近接するように配置された少なくとも3つのカメラを利用して撮影されており、前記画像処理装置は、前記各カメラの物理的な配置に関する外部パラメタ、前記各カメラの特性に関する内部パラメタ、および、各カメラの画像において、他のカメラによって遮蔽された領域であるか否かの情報を含む遮蔽情報を含むカメラパラメタを、あらかじめ記憶しており、前記画像処理プログラムは、前記コンピュータに、前記複数の画像、および前記カメラパラメタを受け取るステップと、前記複数の画像を利用した2つ以上の画像の組と前記カメラパラメタから複数点の3次元位置を算出するステップと、前記複数点の位置情報および前記カメラパラメタを受け取り、前記複数点の位置情報から、遮蔽のない被写体領域の位置情報を選択して選択位置情報として出力するステップと、前記選択位置情報に基づいて、前記複数の画像の一つに存在する遮蔽領域を他の画像を用いて補完した補完画像を生成するステップと、前記補完画像および前記選択位置情報を出力するステップとを実行させる。
本開示の別の一態様である撮像装置は、第1カメラ、第2カメラ、第3カメラを含む複数のカメラを含み、前記複数のカメラは各々画像データを出力し、前記複数のカメラの光軸は平行で、前記複数のカメラは近接して配置された撮像部と、前記複数のカメラの位置情報、前記複数のカメラの焦点距離、前記複数の画像データの各画素が遮蔽領域に含まれるか否かを示す情報を含む遮蔽情報を含むカメラパラメタを取得するカメラパラメタ取得部と、前記遮蔽領域に含まれる画素は、前記撮像装置に含まれる部分を撮像した画素であり、前記画像データ、前記カメラパラメタに基づいて複数の位置情報を生成する位置算出部と、前記複数の位置情報の各々は、3次元位置情報と画素ペア情報を含み、前記画素ペア情報で特定される2つの画素は対応点であり前記3次元位置情報は前記2つの画素の位置情報に基づいて決定され、選択位置情報を生成する位置選択部と、前記選択位置情報は、前記複数の位置情報から、所定の位置情報を選択して生成され、前記所定の位置情報の各々は所定の画素ペア情報を含み、前記所定の画素ペア情報で特定される画素はいずれも前記遮蔽領域に含まれない、前記選択位置情報に含まれる画素ペア情報によって特定される選択された画素の画素値を使用して、前記第3のカメラで撮影された画像データに含まれ、かつ、遮蔽領域に含まれる対象画素の画素値を決定する画像補完部を含み、前記選択された画素は前記第1のカメラまたは前記第2のカメラで撮影された画像データの画素であり、前記対象画素と前記選択された画素の1つは対応点に位置し、前記対象画素と前記選択された画素の1つが対応点に位置するか否かは、前記カメラパラメタと前記選択された画素に対応する3次元位置情報に基づいて決定される。
以下、添付の図面を参照しながら、本開示による撮像装置の実施形態を説明する。なお、本明細書では、本開示にかかる撮像装置によって撮影された被写体の3次元位置を、単に「3次元位置」と記述する。ここでいう「被写体」とは、たとえば撮像装置が監視に用いられる場合には監視する対象を示し、一般の撮影に用いられる場合には意図された撮影対象を示し、障害物検知に用いられる場合には撮影された画像内に存在する1または複数の物体(障害物)を示す。ただし、本明細書では、撮影された画像に存在する全ての要素を「被写体」と呼ぶことがある。「被写体」は、意図的に撮影されたか、意図せず撮影されたかは問わない。
以下に開示される実施の形態は、本開示の特定のまたは一般的な例示である。数値、形状、材料、構成要素や、構成要素の位置や接続関係、ステップ、および実施の形態において示されたステップの順序は一例であり、本開示を限定しない。実施の形態における構成要素のうち、本開示の最も包括的な概念が記載された独立請求項に記載されていないものについては、任意の構成要素として開示されていると理解されたい。
(実施の形態1)
本実施の形態では、本開示の撮像装置を、車載用の障害物検知に用いた例を説明する。
図1Aは、本実施形態における撮像装置1の構成を示し、図2(a)および(b)はそのうちの撮像部100の異なる2つの構造例を示す。
図1Aに示されるように、撮像装置1は、撮像部100、画像処理部110、障害物検出部120、ディスプレイ130を備える。
撮像部100は、それぞれ魚眼レンズを有する3台以上のカメラ101a〜101dを備えている。画像処理部110は、位置算出部111、位置選択部112、画像補完部113、カメラパラメタ記憶部114を備える。なお、4つのカメラを区別するために添え字a〜dを用いるが、以下では、これらを特に区別しない場合には、添え字を利用せず「カメラ101」と記述する。
図2(a)および(b)は、撮像装置1の撮像部の構成例を示す。図2(a)は、4台のカメラ101を一体として固定した構成の撮像部の例であり、正面図、側面図、断面図を示している。図2(b)は、3台のカメラ101を一体として固定した構成の別の撮像部の例であり、正面図、側面図を示している。いずれの撮像部の例でも、各カメラのレンズは魚眼レンズであり、その直径は概ね同じであり、光軸中心は互いに平行、かつ、隣り合う2つのレンズが近接して、配置されているものとする。したがってこれらの例では、隣接する2つのカメラの光軸中心間の距離は、レンズの直径に概ね一致する。
なお、上述の撮像装置1は、少なくとも撮像部100および画像処理部110を含んでいればよい。障害物検出部120およびディスプレイ130は、撮像装置1の外部に設けられた機器、たとえばPCとそのディスプレイ、であってもよい。画像処理部110と障害物検出部120とは、有線で接続されていてもよいし、無線で接続されていてもよい。また、これらは1対1で接続されていてもよいし、通信ネットワークを介して接続されていてもよい。
上述した撮像部100におけるカメラ101の構成は、本願発明者らの以下の知見に基づいている。
ステレオ視における、3次元位置の推定誤差の原因の1つとして、視差推定における量子化誤差がある。量子化誤差とは、実際には実数値である視差を、1画素精度で推定することにより生じる誤差である。この量子化誤差の大きさは一定と考えることができるため、視差が大きいほど(視差ベクトルの長さが長いほど)、量子化誤差の影響は低くなり、3次元位置の精度は高くなる。そのため、ステレオ視の組となる複数のカメラは、視差が大きくなるよう、カメラ間の距離である基線長を十分な長さになるように配置するのが一般的である。
一方、魚眼レンズを有するカメラで撮影した被写体像は、大きく歪むため、視野内での被写体の3次元位置によって、言い換えると、画像中の被写体の位置によって、被写体像の形や大きさ、向きが異なる。
魚眼レンズを有する2つのカメラで撮影した画像をステレオ視に用いる場合、視差が大きいほど、被写体像の形や大きさ、向きが、異なる。そのため、2画像間の被写体位置の対応付け、すなわち視差の推定が困難になり、推定した視差の誤差や誤りが多くなる、という別の課題がある。
このような例として、図13は被写体とカメラとの距離を一定(1m)とした状態で、カメラの向きを0度、45度、90度に変更して撮影した被写体像の例を示す。図13によれば、画像中の位置の違いにより、被写体像の見え方(形、大きさ、向き)が違っていることが分かる。これは、魚眼レンズによる歪み方が光軸中心からの角度によって異なるためである。最上段の0度の画像と最下段の90度の画像の間では、被写体位置の対応付けが困難であることが類推できる。このような2画像中の被写体像の形や大きさ、向きの違いは、カメラ間の基線長が長いほど、または、被写体と撮像装置との距離が近いほど顕著になる。そのため、特に被写体と撮像装置との距離を一定以上に保てない場合、基線長を短くとることでこの影響を低減することができる。
そこで本実施の形態では、被写体が撮像装置1の近くにある場合であっても、複数の魚眼カメラ間の視差が大きくなり過ぎないようにするために、複数の魚眼レンズを有するカメラを、光軸が互いに平行になるように、かつ、近接して配置した構成の撮像部を用いる(図2(a)または図2(b))。これにより、推定した視差の誤差や誤りを低減できるという効果が期待できる。さらに、実数精度の視差推定手法を用いることで、視差推定における量子化誤差の課題を低減するという効果も期待できる。
しかしながら、視野角が180度ある魚眼レンズを有する複数のカメラ、例えば、第1カメラと第2カメラを、近接して配置すると、第1カメラのレンズや本体が、第2カメラで撮像した画像に映り込む。つまり、第1カメラの後方の被写体は、第1カメラのレンズや本体で遮蔽されるので、第2カメラで撮像した画像に含まれないという別の課題が発生する。例えば、従来の魚眼カメラを3台以上用いる撮像装置(図14(b))では、2カメラ間の基線長が長いため、他のカメラのレンズや本体が映り込む場合であっても、その領域が視野内に占める割合は小さい。これに対し、図2(a)または図2(b)のようにカメラを近接させると、レンズによって遮蔽され、画像を取得できない領域が広くなる。さらに、3次元位置の算出には2つの画像を用いるため、2画像のいずれか一方が遮蔽領域であると3次元位置を算出できない。その結果、3次元位置を算出できない領域は、2画像の遮蔽領域の和に相当する領域まで広くなる。
そこで、本願発明者らは、魚眼レンズを有するカメラで撮像したある画像における遮蔽領域を、他の遮蔽されていない画像で補うとともに、3次元位置についても遮蔽されてない2つの画像から算出する技術を完成させるに至った。これにより、遮蔽のない画像と3次元位置を取得することができる。なお、画像中の遮蔽領域の情報は、複数のレンズの物理的な配置関係、各レンズの仕様に基づいて、事前に取得しておくことができる。
なお、本明細書では、魚眼レンズの視野角は、概ね180度、またはそれ以上であるとしており、これらを「概ね180度以上」と記述している。概ね180度は、180度以下の角度、たとえば160度から180度の角度を含む。また、180度以上とは、たとえば180度以上230度以下の角度を含む。
「視差」とは、2地点での観測地点の位置の違いにより、対象点が見える方向が異なることであり、本明細書においては、3次元空間での方向の差と2次元投影像での位置の差とを、区別せず視差と呼ぶ。
撮像装置1は、撮像部100で視野の画像を撮影し、画像処理部110で撮影した画像から遮蔽領域を補った画像と3次元位置を生成し、障害物検出部120は、視野内の画像と3次元位置とに基づいて合成画像を生成し、ディスプレイ130に表示する。
撮像部100は、視野角が概ね180度の魚眼レンズを有する4台のカメラ101a〜101dを含む。4台のカメラ101a〜101dは、図2(a)のように配置される。4台のカメラ101a〜101dの各々は視野内の画像を撮影して画像を出力する(以降、この画像をカメラ画像と呼ぶ)。すなわち、4台のカメラ101a〜101dは4つのカメラ画像(画像データ)を出力する。 隣り合う2つのカメラの光軸中心間の距離は、2つのカメラのレンズ直径の和より小さいようにしてもよい。2つのカメラの光軸中心間の距離が近いほど、また、レンズの直径が大きいほど、一方のカメラ画像に他方のカメラのレンズがより広く映り、他方のカメラの後方にある物体などがより広く遮蔽される。2つのカメラの光軸中心間の距離が、2つのカメラのレンズ直径の和より小さい場合、遮蔽される領域が広く顕著になるのに対し、本願発明では、他のカメラによる遮蔽の無い画像と3次元位置を取得することができる。
隣り合う2つのカメラの光軸中心間の距離は、2つのカメラのレンズ直径の平均とおおむね同じであるとしてもよい。2つのカメラの光軸中心間の距離が近いほど、一方のカメラ画像に他方のカメラがより広く映り、他方のカメラの後方にある物体などが遮蔽される。最もカメラを近づけた場合、すなわち、2つのカメラのレンズが接した場合、2つのカメラの光軸中心間の距離は2つのカメラのレンズ直径の平均と概ね同じになり、この時、従来技術では他のカメラに遮蔽されて画像と3次元位置を取得できない領域が最大になる。一方、2つのカメラの光軸中心間の距離は2つのカメラのレンズ直径の平均と概ね同じであっても、本願発明では、他のカメラによる遮蔽の無い画像と3次元位置を取得することができる。言い換えると、2つのカメラの光軸中心間の距離が2つのカメラのレンズ直径の平均と概ね同じとき、本願発明の効果が最も高くなる。
画像処理部110は、位置算出部111、位置選択部112、画像補完部113、カメラパラメタ記憶部114を含む。
カメラパラメタ記憶部114は、4台のカメラ101の各々についてカメラパラメタを予め記憶する。
カメラパラメタは外部パラメタ、内部パラメタ、遮蔽情報を含む。
外部パラメタはカメラの位置や向きなどの、カメラの物理的な配置に関する情報を含む。
内部パラメタはレンズの歪や焦点距離などの、カメラの特性に関する情報を含む。
遮蔽情報はカメラ画像における本撮像装置によって遮蔽された領域を示す情報を含む。遮蔽情報は本撮像装置に含まれる部分を撮像した画素値を出力する画素を特定する情報であってもよい。
位置算出部111は、4台のカメラ101から出力された4つのカメラ画像(画像データ)を入力して、4つカメラ画像のうちの2つのカメラ画像を1組として、6組の2カメラ画像間の視差を推定する。
位置算出部111は、カメラパラメタ記憶部114から4台のカメラ101のカメラパラメタを読み出す。
位置算出部111は、推定した6組の2カメラ画像間の視差と、カメラパラメタに含まれる外部パラメタと内部パラメタに基づいて、3次元位置を算出し、位置情報として出力する。
位置算出部111はカメラパラメタに基づいて複数の位置情報を生成し、複数の位置情報の各々は3次元位置情報と画素ペア情報を含み、画素ペア情報で特定される2つの画素は対応点に位置し、3次元位置情報は2つの画素の位置情報に基づいて決定され、2つの画素はそれぞれ異なるカメラに含まれるとしてもよい。
位置選択部112は、位置算出部111が出力した位置情報を得て、カメラパラメタ記憶部114からカメラパラメタを読み出す。
位置選択部112は、カメラパラメタに含まれる遮蔽情報に基づいて、遮蔽領域に含まれない位置情報の少なくとも一部を選択して選択位置情報として出力する。
位置選択部112は選択位置情報を生成し、選択位置情報は、複数の位置情報から、所定の位置情報を除外して生成され、所定の位置情報の各々は所定の画素ペア情報を含み、所定の画素ペア情報で特定される画素の少なくも一方は遮断領域に含まれるとしてもよい。
画像補完部113は、カメラ画像と、位置選択部112から出力された選択位置情報とを得る。
画像補完部113は、少なくとも1つのカメラ画像の遮蔽領域を、他のカメラ画像の非遮蔽領域と選択位置情報に基づいて、遮蔽領域の画像を置き換えて遮蔽領域のない補完画像を生成し、補完画像と選択位置情報を出力する。
画像補完部113は選択位置情報に含まれる画素ペア情報によって特定される選択された画素の画素値を使用して、遮蔽領域に含まれ、画素ペア情報によって特定される画素が含まれないカメラに含まれる対象画素の画素値を決定し、対象画素と選択された画素の1つは対応点に位置し、対象画素と選択された画素の1つが対応点に位置するか否かは、カメラパラメタと選択された画素に対応する3次元位置情報に基づいて決定されるとしてもよい。
障害物検出部120は、補完画像と選択位置情報を得て、選択位置情報に基づいて障害物を検出し、検出した障害物の位置に対応する補完画像上の領域に、注視領域を示す枠を重畳合成して合成画像として出力する。
ディスプレイ130は、合成画像を得て、表示する。
図1Aの画像処理部110、および、障害物検出部120を構成する各構成要素は、電子回路または集積回路等のハードウェアで実現されてもよいし、コンピュータ上で実行されるプログラム等のソフトウェアで実現されてもよい。
なお、図1Bに示すように、画像処理部110は、位置算出部111、位置選択部112、画像補完部113、カメラパラメタ記憶部114、カメラパメタ取得部115を含んでもよい。
なお、画像処理部110はカメラパラメタ記憶部114を含まず、例えば、外部の装置(クラウドサーバなど)がカメラパラメタ記憶部114を含んでもよい。
この場合、カメラパラメタ記憶部114が無線や有線の通信手段で、カメラパメタ取得部115と接続されおり、カメラパメタ取得部115がカメラパラメタ記憶部114に記憶された情報、例えばカメラパラメタを取得してもよい。
カメラパラメタ取得部115が、カメラパラメタ記憶部114から、複数のカメラの位置情報、複数のカメラの焦点距離、複数のカメラのどの画素が遮蔽領域に含まれるかを示す情報を含む遮蔽情報を含むカメラパラメタを取得してもよい。
位置算出部111、位置選択部112は、画像補完部113は、カメラパメタ取得部115を介して、カメラパラメタ記憶部114と情報をやりとり(例えば、カメラ記憶部114された情報を読み出す)してもよい。
位置算出部111は、カメラパメタ取得部115を介して、カメラパラメタ記憶部114から4台のカメラ101のカメラパラメタを読み出してもよい。
位置選択部112は、位置算出部111が出力した位置情報を得て、カメラパメタ取得部115を介して、カメラパラメタ記憶部114からカメラパラメタを読み出してもよい。
図3は、コンピュータによって構成された本実施の形態における撮像装置1のハードウェア構成を示す図である。図3において、撮像部100は視野内の画像を撮影して出力し、コンピュータ300は画像を取得して、補完画像と選択位置情報を算出して出力する。ディスプレイ130はコンピュータ300で生成された合成画像を表示する。
3台以上のカメラ101a、101b、101c・・・は撮像部100に対応する。
コンピュータ300は、CPU301、ROM302、RAM303、HDD304、ビデオ入力インタフェース(I/F)305およびビデオカード306を含む。コンピュータ300を動作させるプログラムは、ROM302またはHDD304にあらかじめ保持されている。プログラムは、プロセッサであるCPU301によって、ROM302またはHDD304からRAM303に読み出されて展開される。CPU301はRAM303に展開されたプログラム中のコード化された各命令を実行する。ビデオ入力I/F305は、プログラムの実行に応じて、撮像部100で撮影された画像を、RAM303へ取り込む。ビデオカード306は、プログラムの実行に応じて生成された画像を出力し、ディスプレイ130がその画像を表示する。コンピュータ300は画像処理部110および障害物検出部120に対応する。カメラパラメタ記憶部114は、ROM302、RAM303またはHDD304に対応する。
なお、コンピュータプログラムは、半導体であるROM302またはHDD304に限られず、例えばCD―ROMに格納されていてもよい。また、有線や無線のネットワーク、放送などを介して伝送され、コンピュータ300のRAM303に取り込まれてもよい。
以下、本実施の形態における撮像装置1の動作を、図4を用いて説明する。
図4は、撮像装置1の画像処理部110および障害物検出部120の動作を表すフローチャートである。図4において、4つのステップS401〜S405は、図3のコンピュータ300で実行される。
なお、図4の各ステップは、図1Aの画像処理部110および障害物検出部120に含まれる各処理部で実行してもよい。すなわち、カメラパラメタ記憶部114、カメラパメタ取得部115ではカメラパラメタ読み出しステップS401、位置算出部111では位置算出ステップS402、位置選択部112では位置選択ステップS403、画像補間部113で画像補間ステップS404、障害物検出部120では障害物検出ステップS405の各動作を実行してもよい。
本実施の形態では、撮像装置1が自動車に設置される例を説明する。撮像装置1は、自動車の後方の画像と3次元位置を取得して障害物を検出し、その結果を自動車内に設置したディスプレイに表示することで、利用者であるドライバに車両後方の状況を提示する。
図5(a)は、本実施の形態における撮像装置の設置の例を示す図である。撮像部100は、カメラ101の光軸が概ね車両が後方に直進する方向に一致するよう車体後部に設置される。画像処理部110、障害物検出部120、ディスプレイ130はドライバから見える車室内設置される。
撮像部100の4台のカメラ101a〜101dは、互いに同期して一定時間間隔で、画像を撮像して出力する。
図6(a)は、撮像部100の4台のカメラ101a〜101dの配置の例を示す図である。図6(b)は、図5(a)の撮像装置の設置状況、および(b)の撮影状況において、4台のカメラ101a〜101dで撮影される画像の例を示している。画像の左右両端に接する円の内側が、視野角180度の視野内の被写体を表している。本実施の形態において、カメラ101は、それぞれ魚眼レンズを有し、その投影モデルは等距離射影モデルであるとする。また、カメラ101、および、ビデオ入力I/F305は、横1280画素、縦960画素のカラー画像を、それぞれ撮影、取得できるものとする。なお、カメラの投影モデルや画素数を限定するものではなく、他の投影モデルや画素数でも良い。前述したように、本開示では、画像間での被写体像の形や大きさ、向きの違いによる視差推定の誤差や誤りを低減するため、複数のカメラを近接して配置する。本実施の形態では、最短の基線長(図2(a))を0.015mとした。このように構成した撮像部100で撮影された4つのカメラ画像の例を図6(b)に示す。図中の4つの画像中の被写体は、その形や大きさ、向きは、概ね同じであることがわかる。その一方で、カメラを近接して配置したため、全ての画像において、視野の端に隣接するカメラのレンズが映り込み、その後方の被写体が遮蔽されていることがわかる(図6(b)中の「隣接するカメラのレンズによる遮蔽」の部分)。
コンピュータ300では、撮像部100の動作と並行して、あらかじめ定められたプログラムを実行することで、図4のS401〜S405の動作を行う。
以降、コンピュータ300で実行されるステップS401〜S405の詳細な動作を、図6〜図11を用いて説明する。
カメラパラメタ読み出しステップS401では、予め記憶された各カメラ101a〜101dの内部パラメタ、外部パラメタ、および、遮蔽情報を含むカメラパラメタを読み出す。
ステップS401はカメラパラメタ取得部115が実行してもよい。
カメラの外部パラメタ{Mq,r}と3次元座標との関係、および、カメラの内部パラメタ(f,k)と3次元座標と画素座標との関係を数1、数2に示す。
Figure 0006355052
Figure 0006355052
外部パラメタ{Mq,r}は、2つのカメラq、rの各座標系の位置関係を表す行列の集まりであり、行列Mq,rは、カメラqの座標系の3次元位置(xq,yq,zq)をカメラrの座標系の3次位置(xr,yr,zr)に変換する4×4の行列を表している。内部パラメタのfは焦点距離、kは撮像素子上で画素サイズである。(数2)は、カメラ座標系の3次元位置(x,y,z)を画素座標(u,v)との関係を表している。これら外部パラメタ{Mq,r}や内部パラメタ(f,k)は、一般的にカメラ校正方法と呼ばれる広く知られた手法によってあらかじめ求めておく。なお、(数2)は、レンズの投影モデルが等距離射影の場合の内部パラメタを用いたが、投影モデルを限定するものではなく、立体射影や等立体角射影などの他の投影モデルであってもよい。
4台のカメラ101a〜101dの遮蔽情報の例を、図7に示す。遮蔽情報とは、カメラ画像において、レンズやカメラ本体が映り込み、その後方の被写体を遮蔽している領域を示す情報である。本実施の形態では、遮蔽情報は、カメラ画像の各画素が、「被写体領域」、「遮蔽領域」、「視野外領域」の3つのいずれであるかを表す。例えば、カメラ画像Iの画素座標(u,v)の遮蔽情報をO(u,v)のように表す。図7は、各画素の3つの状態を、被写体領域は白色、遮蔽領域は斜線、視野外領域は黒色で、それぞれ表した図である。この遮蔽情報は、事前にカメラ101で画像を撮影して、各画素がどの領域に属するかを、人手で判定することで作成することができる。本実施の形態では撮像装置は、図6(b)の遮蔽領域を含むカメラ画像から、遮蔽領域のない画像と3次元位置を算出する。
次に、位置算出ステップS402では、撮影部100のカメラ101a〜101dで撮影された複数のカメラ画像(画像データ)を得る。そして、入力した複数のカメラ画像のうちの2つ以上のカメラ画像を1組として、複数組の画像カメラ組を構成する。最後に、各画像カメラ組において、カメラパラメタ読み出しステップS401で読み出したカメラパラメタを用いて、ステレオ視によりカメラ画像中の複数点の3次元位置を算出する。
以下、位置算出ステップS402の詳細な動作を説明する。カメラ101a、101b、101c、101dで撮影した4つのカメラ画像を、それぞれIa、Ib、Ic,Idとすると、ここから2つのカメラ画像からなる6組の画像(Ia,Ib)、(Ia,Ic)、(Ia,Id)、(Ib,Ic)、(Ib,Id)、(Ic,Id)に対して、それぞれ2画像間の対応点を複数点検出する。2画像間の対応点とは、一方の画像に映っている被写体上の点が、もう一方の画像にも映っている場合に、2つの画像上の点のことである。例えば、カメラ画像の組が(Ia,Ib)の場合、カメラ画像Ia上の全ての画素について、その画素座標(uan,van)に対応する、カメラ画像Ib上の対応点の画素座標(ubn,vbn)を検出する。画像Iaの画素座標(uan,van)と、画像Ibの画素座標(ubn,vbn)が対応点である場合、2点の画素値ia(uan,van)とib(ubn,vbn)が等しい。これを輝度拘束と呼ぶ。また、ある1つの被写体は、画像中の複数の隣接する画素を占めることから、画像Iaの画素座標(uan,van)に隣接する画素の対応点は、画像Ibの画素座標(ubn,vbn)の近くにある可能性が高い。これを滑らかさ拘束と呼ぶ。カメラ画像(Ia,Ib)間の対応点は、上述した輝度拘束と滑らかさ拘束の2つの条件を最もよく満たす(uan,van)、(ubn,vbn)の組の集まりを推定することで、得ることができる。
2カメラ画像間の対応する画素座標を実数精度で算出する対応点探索手法や動き推定手法は、非特許文献1もしくは非特許文献2などに詳しく記載されているため、ここでは詳細な説明を省略する。
カメラ画像Ia上の画素座標と、このカメラ画像Ia上の画素座標に対応するカメラ画像Ib上の画素座標の組み合わせ情報を画素ペア情報と呼んでもよい。
次に、各対応点について、対応点の座標(uan,van)−(ubn,vbn)と、あらかじめ求めたおいたカメラ101a、101bの外部パラメタMb,aと内部パラメタfa,ka, fb,kbを用いて、(数3)の連立方程式を解くことで、対応点の3次元位置(xan、yan、zan)を算出する。3次元位置は、カメラ101aの視点座標系の座標値とする。
Figure 0006355052
2カメラ画像間の対応点と2つのカメラ位置から3次元位置を算出する2眼ステレオ手法や、2つの3次元座標系間での座標値の変換は、非特許文献3などに詳しく記載されているため、ここでは詳細な説明を省略する。
さらに、他の5組のカメラ画像組に対しても同様に3次元位置の算出を行う。
以上の位置算出ステップS402の詳細な動作により、6組のカメラ画像について、それぞれ2カメラ画像間の対応点とその3次元位置を複数算出し、これらを位置情報として出力する。2つのカメラ画像をIq,Ir(qとr)、2つのカメラ画像Iq、Ir間のNq個の対応点の位置情報pq,r,nの集まりであるPq,rを(数4)で表す。また、全ての画像組の位置情報を{Pq,r}と表す。
Figure 0006355052
位置情報は2つの画素を特定する画素ペア情報(画素座標と対応する画素座標)と、画素ペア情報で特定された画素のペアに対応する3次元位置を含む情報としてもよい。
次に、位置選択ステップS403では、カメラパラメタ読み出しステップS401で読み出した遮蔽情報と、位置算出ステップS402で算出した複数組の位置情報{Pq,r}を入力し、全対応点の位置情報のうち、被写体領域の位置情報を選択して、選択位置情報{P‘q,r}として出力する。
具体的には、位置情報{Pq,r}を構成する全ての対応点の位置情報pq,r,nに対して、以下の選択処理を繰り返す。
2つの画像Ia、Ibの組のある対応点の位置情報pa,b,nから、画像Iaの座標値(uan,van)と、画像Ibの座標値(ubn,vbn)を読み出す。そして、カメラ画像Iaの遮蔽情報Oaと、カメラ画像Ibの遮蔽情報Obから、この対応点の2画像上で点の遮蔽情報Oa(uan,van)と、Ob(ubn,vbn)を読み出す。これら2つの遮蔽情報がともに「被写体領域」の場合、この対応点は、この位置情報pa,b,nを選択して選択位置情報とする。一方、2つの遮蔽情報に「遮蔽領域」もしくは「視野外領域」が含まれる場合、この対応点は選択しない。
この選択操作を、位置情報{Pq,r}の全対応点に繰り返し、全てのカメラ画像組の選択位置情報{P‘q,r}を生成して出力する。
位置情報{Pq,r}と遮蔽情報との関係を示した概念図を図8に示す。6つの図は、6組のカメラ画像組から算出した位置情報と遮蔽情報との関係を、それぞれ示している。例えば、「カメラa−b」の図は、カメラaとカメラbの2カメラ画像の組から算出した位置情報Pa,bを基に、各対応点のカメラaの画素の画素値を、「視野外領域」を含む点は黒色、それ以外の対応点のうち「遮蔽領域」を含む点は斜線、それ以外の「被写体領域」の点は白色として表したものである。図7のカメラaでは右上が、カメラbでは左上が、それぞれ遮蔽領域であるのに対し、位置情報においては、カメラaの遮蔽領域とカメラのbの遮蔽領域の両方の遮蔽領域において3次元位置を計測できない。そのため、図8の「カメラa−b」では、右上と左上に遮蔽領域が生じる。一方、カメラa−bの組では右上と左上に遮蔽領域があるのに対し、他のカメラの組では遮蔽領域の場所が異なり、例えばカメラa−c、カメラb-dでは、それぞれ右上、左上は遮蔽領域ではない。したがって、複数のカメラ画像組から算出した位置情報から、遮蔽されていない被写体領域、すなわち図7中の白色の領域を、選択して集めることで、遮蔽領域のない位置情報を得ることができる。この考え方で、遮蔽されていない領域(白色)を集めたものが、位置選択ステップS403で選択した選択位置情報{P‘q,r}に対応する。
選択位置情報は、複数の位置情報から、所定の位置情報を除外して生成され、所定の位置情報の各々は所定の画素ペア情報を含み、所定の画素ペア情報で特定される画素の少なくも一方が遮断領域に含まれるとしてもよい。
次に、画像補完ステップS404では、撮影部100のカメラ101a〜101dで撮影された複数の画像と、カメラパラメタ読み出しステップS401で読み出した遮蔽情報、カメラの内部パラメタ、カメラの外部パラメタと、位置選択ステップS403で生成した選択位置情報とを入力し、画像の遮蔽領域の画素の画素値を、選択位置情報に基づいて他の画像の画素の画素値に基づく値で置き換えることで補完画像を生成し、補完画像と選択位置情報を出力する。
以下、画像補完ステップS404の詳細な動作を説明する。本実施の形態では、画像Iaを遮蔽領域の画素の画素値を、他の3つの画像Ib、Ic、Idと、選択位置情報を用いて補完する場合を説明する。
画像補完ステップS404では、最初に、選択位置情報{P‘q,r}の全対応点p’q,r,nについて、画像Ia上の画素座標(ua,va)を算出する。画像Ia上の画素座標を算出する方法は以下の通りである。対応点p’q,r,nに含まれる、カメラqの座標系の3次元位置(xq、yq、zq)と、カメラqとカメラaの外部パラメタMqaを用いて、カメラaの座標系で3次元位置(xa、ya、za)を算出する。そして、3次元位置(xa、ya、za)とカメラaの内部パラメタ(f,k)と用いて、カメラaの画素座標(ua,va)を算出する(数5)。
Figure 0006355052
次に、画像補完ステップS404では、画像Iaの全ての画素のうち、遮蔽情報Oa(u,v)が「遮蔽領域」である画素の座標(u,v)を抽出する。これを遮蔽画素oaj=(uaj,vaj)と呼ぶ。次に、各遮蔽画素について、先に求めた選択位置情報{P‘q,r}の全対応点p’q,r,nから、対応点のカメラaの画素座標(ua,va)と、遮蔽画素の画素座標(uaj,vaj)との距離を基準に、距離が最も近い対応点の位置情報を選択する。そして、選択した対応点の2つの画像q、r上の画素値iq(uqn,vqn),iq(uqn,vqn)から画素値を算出し、これを遮蔽された画像Iaの座標(uaj,vaj)の画素の画素値として設定する。対応点の2つの画像q、r上の画素値iq(uqn,vqn),iq(uqn,vqn)から、1つの画素値を算出する手法として、ここでは平均画素値を用いるものとする。さらに、この処理を遮蔽画素のすべてに繰り返し、画像Iaの遮蔽領域の全ての画素を新たな画素値に設定する。
上記した画像補完ステップS404の詳細な動作により、補完画像を生成する。なお、遮蔽領域に含まれない画素の画素値は、変更することなく使用すればよい。
図9(a)および(b)は、補完画像と選択位置情報の例を示す。図9(a)は、図6(b)中の「カメラa」のカメラ画像のうち、遮蔽領域(隣接するレンズ等による遮蔽される領域)を、選択位置情報を用いて他の画像の画素値で置き換えて生成した画像である。図6(b)のカメラ画像では、右端の車両の多くの部分が遮蔽されているのに対し、図9(a)では車両が遮蔽されていない。また図9(b)は、選択位置情報{P‘q,r}の各対応点の3次元位置から、画像Iaでの画素座標値と、点とカメラaとの距離に比例する輝度値とを算出し、濃淡画像として表した図である。
最後に、障害物検出ステップ405では、補完画像と選択位置情報を入力して、選択位置情報に基づいて障害物を検出し、検出した障害物の位置に対応する補完画像上の領域に、注視領域を示す枠を重畳合成して合成画像として出力する。
本実施の形態において、選択位置情報に基づいて障害物を検出する手法として、選択位置情報の各対応点の3次元位置(xa、ya、za)とカメラaとの距離dが、あらかじめ定められた距離dthより小さい場合に、障害物上の点として検出する手法を用いる。さらに、障害物として検出された点の集まりの外接矩形を、補完画像に重畳し、合成画像として出力し、ディスプレイ130に表示される。
以上のコンピュータ300で実行されるステップS401〜S405の動作によって、撮像部100で撮像された4つのカメラ画像から、画像処理部110では1つの補完画像と選択位置情報を、障害物検出部120では1つの合成画像を、それぞれ生成して出力する。さらに、撮像部100およびコンピュータ300は、上記の動作を繰り返しても良い。
障害物検出ステップ405によって生成される合成画像の例を、図10に示す。図10から、車両後方のカメラに近い場所にある障害物(この例では、歩行者と停止車両)に注意を喚起する枠が表示されるため、接触する可能性が高い障害物の存在を運転者が容易に認知できる。特に、従来技術による魚眼のカメラを用いた3次元位置算出法では、カメラ本体によって遮蔽されるために画像と3次元位置を取得できない領域についても、本実施の形態の撮像装置1では、180度内の遮蔽のない画像と3次元位置を取得できる。例えば、図6(b)「カメラa」の画像中の右側の車両は、一部の領域がレンズにより遮蔽されている。しかし、撮像装置1では、図9(a)のように180度内の遮蔽領域のない画像と3次元位置を取得することができる。さらに、図10のように遮蔽領域のない合成画像を表示できる。
以上のように、下記に示すような本開示特有の効果を得ることができる。
撮像装置1の撮像部100、コンピュータ300で実現された画像処理部110の動作の結果、視野角が概ね180度の魚眼レンズを有する4台のカメラで撮像したカメラ画像から3次元位置を算出し、あらかじめ求めた遮蔽情報を用いて、遮蔽領域に含まれない領域の位置情報を選択した選択位置情報を生成するとともに、レンズやカメラ本体によって生じる画像の遮蔽を補完することで、遮蔽領域がなく、かつ、概ね180度の視野角を有する画像と3次元位置である、補完画像と選択位置情報とを取得できる。
さらに、障害物検出部120、およびディスプレイ130の動作の結果、障害物検出部120では、180度の視野内の障害物を検出して表示することができる。そのため、本実施の形態の撮像装置を搭載した車載カメラシステムの利用者は、障害物を容易に把握することができる。
なお、本実施の形態において、撮像部100は4台のカメラ101a〜dで構成されるものとしたが、カメラの台数を4台に限定するものではない。あるカメラの画像に含まれる他のカメラによる遮蔽を補うためには、少なくとも3台のカメラがあればよく、3台以上であれば何台でもよい。
なお、本実施の形態において、撮像装置に含まれる複数のカメラに含まれる一のカメラに含まれる画素の画素値が、当該一のカメラの部分を撮像した値を示す場合も、当該画素が遮蔽領域に含まれるとしてもよい。
なお、本実施の形態において、複数のカメラ画像組を入力として、S402〜S404までの動作を順次行うとしたが、S402〜404が1度に取り扱うデータ量を、カメラ画像組に限定するものではなく、カメラ画像中の一部の領域ごと、または、画素ごとに、S402〜404の動作を繰り返しても良い。
なお、本実施の形態において、画像補完ステップS404で、遮蔽領域に含まれる画素の画素値を他の画像の画素値から補完する方法として、遮蔽領域に含まれる画素の最近傍の対応点の画素の画素値を用いるとしたが、この方法に限定するものではない。選択位置情報に含まれる対応点の情報を用いて、遮蔽領域に含まれない画像の画素の画素値に基づいて画素値を設定する方法であれば、どのような方法であってもよい。例えば、遮蔽領域の画素とある一定距離以内の複数の対応点に基づいて、遮蔽領域に含まれない画像上の複数の画素と画素値を参照して重みづけ加算する、などの方法を用いても良い。
なお、本実施の形態では、位置算出部ステップ402において、複数の画素について対応点を検出して3次元位置を算出したのち、位置算出ステップ403において、複数の画素のうち遮蔽領域に含まれない画素を選択する手順としたが、遮蔽領域に含まれない画素を選択するための手順をこれに限定するものではなく、結果として遮蔽領域に含まれない画素を選択することができれば、どのような手順であってもよい。例えば、画素の位置座標を算出したのちに、遮蔽領域に含まれない画素を選択する手順の代わりに、遮蔽情報を用いて遮蔽領域に含まれない画素を選択したのちに、選択した画素について対応点の検出と3次元位置を算出するとしてもよい。この手順は、本実施の形態で説明した手順に比べて、対応点の検出と3次元位置を算出する画素の数が少ないため、計算量を削減できるという効果がある。
(実施の形態2)
本実施の形態においては、視差の推定(対応点の検出)における誤差の影響を低減し、選択位置情報に含まれる3次元位置の誤差がより少なくなるように構成した撮像装置を説明する。本実施の形態の撮像装置の構成は、実施の形態1において説明した撮像装置1の構造と同じである。したがって、本実施の形態に関しても、図1A、図2、図3に示される撮像装置1の構成を援用して説明する。
実施の形態1の撮像装置1では、魚眼レンズによる被写体像の歪に起因する視差推定の誤差や誤りを低減するため、図2(a)または図2(b)のように、撮像部100の複数のカメラ101を互いに近接して配置する構成とした。
この構成の撮像装置1は、被写体と撮像部100とが一定距離以上離れている条件下において、視差が一定より小さく、2画像間の被写体像の大きさや形、向きの違いが小さいため、被写体像の歪に起因する視差推定における誤差や誤りが十分小さいことが期待できる。例えば、撮像部100において2つのカメラ101間の基線長が0.015mであり、被写体と撮像部は1m以上離れている、という撮影条件の場合、視差(角度差)は最大でも0.85度となる。このとき、図6(b)のように2画像間の歪みの差は小さくなり、被写体像の歪に起因する視差推定の誤差や誤りが十分小さいことが期待できる。
一方、上記の撮影条件では、視差の誤差の主因は、画素値のノイズや画素座標の量子化誤差になる。ノイズや量子化誤差に起因する視差推定の誤差は、その大きさが一定と考えることができるため、視差から算出される3次元位置は、視差の絶対値が大きいほど誤差が小さくなる。そこで本実施の形態では、撮像装置1は、ある点の近傍の複数の対応点の位置情報から、視差の小さい位置情報よりも視差の大きい位置情報の重みを高めて、3次元位置の誤差を低減する。これにより、撮像装置1は、3次元位置の誤差が小さい選択位置情報を生成する。
本実施の形態の撮像装置が、実施の形態1において説明した撮像装置1と異なる点は、位置選択ステップS403‘(位置選択部112)の動作であり、他の構成、および、動作は、実施の形態1と同じである。
以下、図11を参照しながら、本実施の形態における撮像装置2の動作を説明する。
カメラパラメタ読み出しステップS401では、各カメラ101a〜101dの内部パラメタ、外部パラメタ、および、遮蔽情報を含むカメラパラメタをあらかじめ記憶しておき、その情報を実行時に読み出して出力する。
位置算出ステップS402では、撮影部100で撮影された複数の画像を入力し、2画像を1組とする画像組ごとに複数の対応点を検出し、カメラパラメタ読み出しステップS401で読み出したカメラパラメタを用いて、ステレオ視により対応点の3次元位置を算出する。
上記した、カメラパラメタ読み出しステップS401、および、位置算出ステップS402の動作は、実施の形態1と同じであるため、ここでは詳細な説明を省略する。
位置選択ステップS403‘では、位置選択部112は、カメラパラメタ読み出しステップS401で読み出した遮蔽情報と、位置算出ステップS402で算出した位置情報を入力し、全ての対応点の位置情報から、遮蔽されていない被写体領域の対応点の位置情報を選択し、選択した位置情報に対して、視差の大きさに基づいて重みづけ加算し、これを選択位置情報として出力する。
以下、位置選択ステップS403’の詳細な動作を説明する。
最初に、位置選択ステップS403’は、実施の形態1の位置選択部112と同じ動作によって、全ての画像組の位置情報{Pq,r}から、仮の選択位置情報{P’q,r}を生成する。具体的には、対応点の位置情報pa,b,nから、画像Iaの座標値(uan,van)と、画像Ibの座標値(ubn,vbn)を読み出す。そして、カメラ画像Iaの遮蔽情報Oaと、カメラ画像Ibの遮蔽情報Obから、この対応点の2画像上で点の遮蔽情報Oa(uan,van)と、Ob(ubn,vbn)を読み出す。これら2つの遮蔽情報がともに「被写体領域」の場合、この位置情報pa,b,nを選択して仮の選択位置情報{P‘q,r}とする。一方、2つの遮蔽情報に「遮蔽領域」もしくは「視野外領域」が含まれる場合、この対応点は選択しない。この選択操作を、位置情報{Pq,r}の全対応点に繰り返し、全ての画像組の仮の選択位置情報{P’q,r}を生成する。
次に、位置選択ステップS403’は、仮の選択位置情報{P‘q,r}の対応点のうち、互いに位置の近い対応点を複数点抽出し、抽出した複数点の位置情報を視差の大きさに基づいて重みづけ加算した位置情報を算出して、元の複数点の位置情報と置き換えることで、選択位置情報{P’’q,r}を生成して出力する。ここでは、全ての対応点について、(数5)によりカメラ画像Iaの画素座標(ua,va)を算出し、さらに最近傍の整数画素座標(uai,vai)を算出する。そして、カメラaでの整数画素座標が同じになるM個の対応点p’a,q,mを抽出する。そして、抽出したM個の対応点から、各対応点の視差の大きさdmに応じて、各対応点のカメラaにおける3次元位置を(xam,yam,zam)を重みづけ加算した3次元座標値(xa’,ya’,za’)を算出し、新たな選択位置情報p’’a,sとする(数6)。
Figure 0006355052
この選択位置情報p’’a,sにおいて、カメラ画像Iaとの組となる画像は、抽出したM個の対応点のうち、最も視差が大きい対応点の画像Isとその画素座標(us,vs)を選択する。画素座標(us,vs)は、(数5)と同様に、カメラaの3次元座標(xa’,ya’,za’)からカメラsの画素座標に投影することで算出する。
最後に、算出した選択位置情報をp’’a,sを、元となった複数の対応点の位置情報と置き換えることで、選択位置情報{P’’a,s}を生成する。
図12(a)〜(d)は、各画像組の視差の大きさの分布の例を示す。図12(a)〜(d)の4つの図は、6組の画像組における、カメラから一定距離(1m)の点について、視差の大きさ、すなわち、対応点間の距離を、濃淡で示した図である。画像の左右端に接する円の内側が180度の視野内である。一方、円の外側は視野外のため画像を撮影できない視野外領域であり、「黒色」で表している。図12(a)〜(d)から、1つの画像組の視野内について、画像内の位置によって視差の大きさが異なることがわかる。例えば、図12(a)はカメラa、bの組の視差の例の図であり、視野の上と下は視差が大きく(白い)、視野内の左と右は視差が小さい(黒い)。特に左右の黒い領域は、視差が0に近くなる領域であり、このような0に近い視差から算出した3次元位置の誤差が大きくなる。一方、異なる画像組について、同じ位置であっても、画像組によって視差の大きさが大きく異なることがわかる。例えば、図12(b)はカメラa、cの組の視差の例の図であり、視野の左と右は視差が大きく(白い)、視野内の上と下は視差が小さく(黒い)、カメラa、bの組とは逆の傾向となっている。そのため、複数のカメラの組から、視差の大きい位置情報の重みが高くなるように、位置情報を生成することで、3次元位置の誤差が小さくなることが期待できる。
画像補完ステップS404では、位置選択ステップS403’で生成した選択位置情報{P’’a,s}と、撮影部100から出力された複数の画像と、カメラパラメタ読み出しステップS401で読み出した遮蔽情報、カメラの内部パラメタ、カメラの外部パラメタとを入力し、画像の遮蔽領域の画素を、選択位置情報に基づいて他の画像の画素で置き換えることで補完画像を生成し、補完画像と選択位置情報を出力する。
障害物検出ステップ405では、補完画像と選択位置情報を入力して、選択位置情報に基づいて障害物を検出し、検出した障害物の位置に対応する補完画像上の領域に、注視領域を示す枠を重畳合成して合成画像として出力する。
上記した、画像補完ステップS404、および、障害物検出ステップ405の動作は、実施の形態1の障害物検出部120の障害物検出ステップ405と同じであるため、ここでは詳細な説明を省略する。
以上のように、本実施の形態の撮像装置の撮像部100、コンピュータ300で実現された画像処理部110の動作の結果、実施の形態1の撮像装置1と同様に、概ね180度の視野角を有し、かつ、遮蔽の無い画像と3次元位置とを取得できる。さらに本実施の形態の撮像装置2では、複数の対応点の位置情報から、遮蔽されていない領域、かつ、視差の大きい位置情報を選択して選択位置情報を生成する。ノイズや量子化誤差に起因する3次元位置の誤差は、視差が大きいほど3次元位置の誤差が小さくなるため、視差の大きい位置情報を選択することで、3次元位置の誤差が小さい選択位置情報を得ることができるという効果がある。
なお、本実施の形態による撮像装置では、複数の対応点の位置情報から、視差の大きい位置情報の重みを上げた位置情報を算出することで、3次元位置の誤差が小さい選択位置情報を生成し、3次元位置の誤差を低減する。この方法は、被写体が撮像部から一定以上離れている場合など、視差が小さく、被写体像の歪に起因する視差推定の誤差や誤りが十分小さいと仮定できる場合に、有効である。しかしながら、被写体と撮像部の距離が近く、被写体像の歪に起因する視差推定の誤差や誤りが無視できない場合、3次元位置の誤差が大きくなる。このような場合、位置選択ステップ403‘において、対応点の視差があらかじめ定めた閾値以上の場合、その対応点については視差の大きさに基づいた重みづけ加算処理をしないとすることで、3次元位置の推定誤差が小さくなるという効果ある。
なお、同様に、被写体と撮像部の距離が近く、被写体像の歪に起因する視差推定の誤差が無視できない程度に大きくなる場合に、位置選択ステップ403‘において、視差の大きさに基づいて重みづけ加算する代わりに、視差の接線方向の大きさに基づいて重みづけ加算するとしてもよい。
この理由を以下に示す。魚眼レンズで撮影した画像は、前述したように、被写体像の形や大きさ、向きが、画像中の位置によって異なる。特に、魚眼レンズでは、視差の大きさが同じであっても、その視差が半径方向か、接線方向かによって、被写体像の歪み方が異なる。具体的には、半径方向に視差がある場合、主に被写体像の形と大きさが異なるのに対し、接戦方向に視差がある場合、主に被写体像の向きは異なるが、形と大きさはほとんど変わらないという性質を持つ。一方、前述した対応点検出手法は、大きさや向きの違いよりも、形の違いに対して、誤差や誤りがより多く発生する傾向がある。
そこで本実施の形態の位置選択ステップにおいて、視差の大きさdmに応じて重みづけ加算して3次元位置を算出する(数6)の代わりに、視差の接線方向の大きさdtmと半径方向の大きさdrmの基づく重み(数7)を用いることで、ノイズや量子化誤差に起因する3次元位置の誤差を減らしつつ、被写体像の歪に起因する視差推定の誤差と3次元位置の誤差も減らすことができるという効果がある。
Figure 0006355052
(数7)においてctrは、視差の半径方向と接線方向の重みを調整する係数であり、(uc,vc)は光軸中心の画素座標である。
位置選択部は、選択した位置情報に対して、視差の大きさに基づいて重みづけ加算を行い、視差の接線方向の接線方向の成分が大きく、半径方向の成分が小さいほど重みを大きくして選択位置情報を生成してもよい。
なお、実施の形態1および2では、車両の後部に撮像部を設置して、車両後方の画像と3次元位置を取得する場合を例に説明したが、カメラの設置場所や画像を取得する方向や範囲を限定するものではないし、どの方向に設置してもよい。
自動車や移動ロボット、建物などでは、撮像装置を設置可能な場所に限りがあることや、外観(デザイン)上の制約があることから、装置はできるだけ小さく、その台数もできるだけ少ないことが望ましい。したがって、1台の撮像装置でできるだけ広範囲の画像と3次元位置を取得できることが望ましい。
本開示の一例である撮像装置によれば、従来の撮像装置に比べて視野角が広くなる。さらに、本開示による撮像装置を、安全運転支援システムや移動ロボット、監視カメラシステムなど用いた場合、次のような間接的、2次的な効果がある。すなわち、車体やロボット本体、もしくは建物が平面を有し、その平面に沿った3次元空間の画像と3次元位置を遮蔽なく取得する必要がある場合がある。例えば、車体の後面や側面の沿った3次元空間における障害物の検知や、建物の壁面に沿った空間における侵入者検出などである。このとき視野角が180度未満の従来の撮像装置では、平面に沿った空間の撮影に2台の撮像装置が必要であるのに対し、本開示の撮像装置では、1台の撮像装置を、平面の法線とカメラの光軸が平行になるように平面上に設置することで、画像と3次元位置とを遮蔽なく取得できる。言い換えると、本開示による撮像装置では、撮像装置の台数を大幅に減らすことができるという効果がある。
上述の実施形態では、撮像装置は少なくとも撮像部100および画像処理部110を含んでいればよいとして説明した。更なる変形例として、本開示は、撮像部100を有しない画像処理部110を主要な構成として有する画像処理装置、または、画像処理部110を画像処理装置または画像処理回路として実現し得る。このとき、撮影部100は画像処理装置の外部の構成要素として設けられていればよい。そして撮影部100によって撮影された画像は、図示されないハードディスクドライブなどの記憶装置に記憶され、有線または無線で、画像処理部110を有する画像処理装置に送信されればよい。なお、障害物検出部120およびディスプレイ130に関しては、先に説明したと同様、撮像装置1の外部に設けられた機器(たとえばPCとそのディスプレイ)であってもよい。上述の画像処理装置または画像処理回路は、コンピュータプログラムを実行することによって動作し得る。
本開示にかかる撮像装置は、各々が概ね180度以上の視野を有する複数のカメラを用い、被写体とその被写体の3次元位置とを計測する用途、たとえば自動車用の車載カメラ、および監視カメラに好適である。
1 撮像装置
100 撮像部
100a〜100d カメラ
110 画像処理部
111 位置算出部
112 位置選択部
113 画像補完部
114 カメラパラメタ記憶部
115 カメラパラメタ取得部
120 障害物検出部
130 ディスプレイ

Claims (14)

  1. 複数の画像を撮影するとともに、取得した前記複数の画像から3次元位置を算出し、前記複数の画像と前記3次元位置の情報とを出力する撮像装置であって、
    少なくとも3つのカメラの各々を利用して撮影を行うことにより、前記複数の画像を生成し出力する撮像部であって、各カメラは、光軸が互いに平行であり、かつ、近接するように配置されている、撮像部と、
    前記各カメラの物理的な配置に関する外部パラメタ、前記各カメラの特性に関する内部パラメタ、および、各カメラの画像において、他のカメラによって遮蔽された領域であるか否かの情報を含む遮蔽情報を含むカメラパラメタを、あらかじめ記憶するカメラパラメタ記憶部と、
    前記複数の画像、および前記カメラパラメタを受け取り、前記複数の画像を利用した2つ以上の画像の組と前記カメラパラメタから複数点の3次元位置を算出する位置算出部と、
    前記位置算出部で算出した前記複数点の位置情報、および前記カメラパラメタ記憶部が記憶する遮蔽情報を受け取り、前記複数点の位置情報から、遮蔽のない被写体領域の位置情報を選択して選択位置情報として出力する位置選択部と、
    前記複数の画像および前記選択位置情報を受け取って、前記選択位置情報に基づいて、前記複数の画像の一つに存在する遮蔽領域を他の画像を用いて補完した補完画像を生成し、前記補完画像および前記選択位置情報を出力する画像補完部と
    を有する、撮像装置。
  2. 前記少なくとも3つのカメラの各視野角は、160度から180度の角度、または、180度以上230度以下の角度を含む、請求項1に記載の撮像装置。
  3. 前記少なくとも3つのカメラのうちの隣り合う2つのカメラの光軸中心間の距離は、前記2つのカメラのレンズ直径の和より小さい、請求項1に記載の撮像装置。
  4. 前記隣り合う2つのカメラの光軸中心間の距離は、2つのカメラのレンズ直径の平均とおおむね同じである、請求項3に記載の撮像装置。
  5. 前記位置選択部は、前記遮蔽情報に基づいて、前記複数点の位置情報から、遮蔽されていない領域の位置情報を選択するとともに、選択した位置情報に対して、視差の大きさに基づいて重みづけ加算を行い、選択位置情報を生成する、請求項1に記載の撮像装置。
  6. 前記位置選択部は、選択した位置情報に対して、視差の大きさに基づいて重みづけ加算を行い、視差の大きい位置情報の重みを大きくして前記選択位置情報を生成する、請求項5に記載の撮像装置。
  7. 前記位置選択部は、選択した位置情報に対して、視差の大きさに基づいて重みづけ加算を行い、視差の半径方向成分と接線方向の成分に基づいて重みづけ加算を行って前記選択位置情報を生成する、請求項5に記載の撮像装置。
  8. 前記位置選択部は、選択した位置情報に対して、視差の大きさに基づいて重みづけ加算を行い、視差の接線方向の接線方向の成分が大きく、半径方向の成分が小さいほど重みを大きくして前記選択位置情報を生成する、請求項7に記載の撮像装置。
  9. 画像の撮像と3次元位置を取得する撮影空間が、平面にそった3次元空間である場合に、平面の法線とカメラの光軸は概ね平行になるように配置されている、請求項1に記載の撮像装置。
  10. 請求項1に記載の前記撮像装置と、
    前記補完画像と前記選択位置情報とを受け取って、前記選択位置情報に基づいて障害物領域を検出し、検出した障害物領域を識別可能に表示した合成画像を生成する障害物検出部と、
    前記合成画像を表示するディスプレイと
    を有する、監視システム。
  11. 複数の画像から3次元位置を算出し、前記複数の画像と前記3次元位置を出力する画像処理装置であって、
    前記複数の画像は、光軸が互いに平行であり、かつ、近接するように配置された少なくとも3つのカメラを利用して撮影されており、
    前記各カメラの物理的な配置に関する外部パラメタ、前記各カメラの特性に関する内部パラメタ、および、各カメラの画像において、他のカメラによって遮蔽された領域であるか否かの情報を含む遮蔽情報を含むカメラパラメタを、あらかじめ記憶するカメラパラメタ記憶部と、
    前記複数の画像、および前記カメラパラメタを受け取り、前記複数の画像を利用した2つ以上の画像の組と前記カメラパラメタから複数点の3次元位置を算出する位置算出部と、
    前記位置算出部で算出した複数点の位置情報、およびカメラパラメタ記憶部から遮蔽情報を受け取り、前記複数点の位置情報から、遮蔽のない被写体領域の位置情報を選択して選択位置情報として出力する位置選択部と、
    前記複数の画像および前記選択位置情報を受け取って、前記選択位置情報に基づいて、前記複数の画像の一つに存在する遮蔽領域を他の画像を用いて補完した補完画像を生成し、前記補完画像および前記選択位置情報を出力する画像補完部と
    を有する、画像処理装置。
  12. 撮像装置を利用する撮像方法であって、
    前記撮像装置は、複数の画像を撮影して、前記複数の画像から3次元位置を算出し、前記複数の画像と前記3次元位置の情報とを出力し、かつ、撮像部およびカメラパラメタ記憶部を備えており、
    前記撮像部は、光軸が互いに平行であり、かつ、近接するように配置された少なくとも3つのカメラの各々を利用して撮影を行い、前記複数の画像を生成し出力し、
    前記カメラパラメタ記憶部は、前記各カメラの物理的な配置に関する外部パラメタ、前記各カメラの特性に関する内部パラメタ、および、各カメラの画像において、他のカメラによって遮蔽された領域であるか否かの情報を含む遮蔽情報を含むカメラパラメタを記憶しており、
    前記撮像方法は、
    前記複数の画像を利用した2つ以上の画像の組と前記カメラパラメタから複数点の3次元に位置を算出するステップと、
    前記複数点の位置情報および前記カメラパラメタを受け取り、前記複数点の位置情報から、遮蔽のない被写体領域の位置情報を選択して選択位置情報として出力するステップと、
    前記選択位置情報に基づいて、前記複数の画像の一つに存在する遮蔽領域を他の画像を用いて補完した補完画像を生成するステップと、
    前記補完画像および前記選択位置情報を出力するステップと
    を包含する、撮像方法。
  13. プロセッサを有する装置に画像処理を実行させるための画像処理プログラムであって、
    前記画像処理プログラムは複数の画像から3次元位置を算出し、前記複数の画像と前記3次元位置を出力する画像処理装置のコンピュータによって実行され、
    前記複数の画像は、光軸が互いに平行であり、かつ、近接するように配置された少なくとも3つのカメラを利用して撮影されており、
    前記画像処理装置は、前記各カメラの物理的な配置に関する外部パラメタ、前記各カメラの特性に関する内部パラメタ、および、各カメラの画像において、他のカメラによって遮蔽された領域であるか否かの情報を含む遮蔽情報を含むカメラパラメタを、あらかじめ記憶しており、
    前記画像処理プログラムは、前記コンピュータに、
    前記複数の画像、および前記カメラパラメタを受け取るステップと、
    前記複数の画像を利用した2つ以上の画像の組と前記カメラパラメタから複数点の3次元位置を算出するステップと、
    前記複数点の位置情報および前記カメラパラメタを受け取り、前記複数点の位置情報から、遮蔽のない被写体領域の位置情報を選択して選択位置情報として出力するステップと、
    前記選択位置情報に基づいて、前記複数の画像の一つに存在する遮蔽領域を他の画像を用いて補完した補完画像を生成するステップと、
    前記補完画像および前記選択位置情報を出力するステップと
    を実行させる、画像処理プログラム。
  14. 第1カメラ、第2カメラ、第3カメラを含む複数のカメラを含み、前記複数のカメラは各々画像データを出力し、前記複数のカメラの光軸は平行で、前記複数のカメラは近接して配置された撮像部と、
    前記複数のカメラの位置情報、前記複数のカメラの焦点距離、前記複数の画像データの各画素が遮蔽領域に含まれるか否かを示す情報を含む遮蔽情報を含むカメラパラメタを取得するカメラパラメタ取得部と、前記遮蔽領域に含まれる画素は、撮像装置に含まれる部分を撮像した画素であり、
    前記画像データ、前記カメラパラメタに基づいて複数の位置情報を生成する位置算出部と、前記複数の位置情報の各々は、3次元位置情報と画素ペア情報を含み、前記画素ペア情報で特定される2つの画素は対応点であり前記3次元位置情報は前記2つの画素の位置情報に基づいて決定され、
    選択位置情報を生成する位置選択部と、
    前記選択位置情報は、前記複数の位置情報から、所定の位置情報を選択して生成され、前記所定の位置情報の各々は所定の画素ペア情報を含み、前記所定の画素ペア情報で特定される画素はいずれも前記遮蔽領域に含まれない、
    前記選択位置情報に含まれる画素ペア情報によって特定される選択された画素の画素値を使用して、前記第3のカメラで撮影された画像データに含まれ、かつ、遮蔽領域に含まれる対象画素の画素値を決定する画像補完部を含み、
    前記選択された画素は前記第1のカメラまたは前記第2のカメラで撮影された画像データの画素であり、前記対象画素と前記選択された画素の1つは対応点に位置し、前記対象画素と前記選択された画素の1つが対応点に位置するか否かは、前記カメラパラメタと前記選択された画素に対応する3次元位置情報に基づいて決定される、撮像装置。
JP2014237824A 2013-12-13 2014-11-25 撮像装置、画像処理装置、撮像方法および記録媒体 Active JP6355052B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014237824A JP6355052B2 (ja) 2013-12-13 2014-11-25 撮像装置、画像処理装置、撮像方法および記録媒体

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013258380 2013-12-13
JP2013258380 2013-12-13
JP2014237824A JP6355052B2 (ja) 2013-12-13 2014-11-25 撮像装置、画像処理装置、撮像方法および記録媒体

Publications (2)

Publication Number Publication Date
JP2015133691A JP2015133691A (ja) 2015-07-23
JP6355052B2 true JP6355052B2 (ja) 2018-07-11

Family

ID=51947207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014237824A Active JP6355052B2 (ja) 2013-12-13 2014-11-25 撮像装置、画像処理装置、撮像方法および記録媒体

Country Status (4)

Country Link
US (4) US10157315B2 (ja)
EP (2) EP2884460B1 (ja)
JP (1) JP6355052B2 (ja)
CN (1) CN104717481B (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9426451B2 (en) * 2013-03-15 2016-08-23 Digimarc Corporation Cooperative photography
US10531071B2 (en) * 2015-01-21 2020-01-07 Nextvr Inc. Methods and apparatus for environmental measurements and/or stereoscopic image capture
US10075693B2 (en) * 2015-04-29 2018-09-11 Han Jin Embedding calibration metadata into stereoscopic video files
US20170078653A1 (en) * 2015-09-15 2017-03-16 Qualcomm Incorporated Systems and methods for producing a surround view
TWI622000B (zh) * 2015-09-29 2018-04-21 新加坡商雲網科技新加坡有限公司 行人偵測系統及方法
KR102565485B1 (ko) * 2016-01-11 2023-08-14 한국전자통신연구원 도시 거리 검색 서비스 제공 서버 및 방법
US20190026924A1 (en) * 2016-01-15 2019-01-24 Nokia Technologies Oy Method and Apparatus for Calibration of a Multi-Camera System
CN105627926B (zh) * 2016-01-22 2017-02-08 尹兴 四像机组平面阵列特征点三维测量系统及测量方法
JP6868805B2 (ja) * 2016-06-07 2021-05-12 パナソニックIpマネジメント株式会社 画像生成装置、画像生成方法、およびプログラム
CN106096043B (zh) * 2016-06-24 2019-09-27 维沃移动通信有限公司 一种拍照方法和移动终端
KR102520225B1 (ko) 2016-06-30 2023-04-11 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 촬영 방법
KR101892135B1 (ko) * 2016-06-30 2018-08-29 전자부품연구원 시선 방향에 따른 가림 물체 투명 표시 장치, 방법 및 시스템
CN106210700B (zh) * 2016-07-14 2019-03-05 上海玮舟微电子科技有限公司 三维图像的获取系统、显示系统及所适用的智能终端
CN106210694B (zh) * 2016-07-14 2018-04-27 上海玮舟微电子科技有限公司 三维图像的成像方法及系统
CN106231284B (zh) * 2016-07-14 2019-03-05 上海玮舟微电子科技有限公司 三维图像的成像方法及系统
CN108495057B (zh) * 2018-02-13 2020-12-08 深圳市瑞立视多媒体科技有限公司 一种摄像机配置方法和装置
CN108471496B (zh) * 2018-02-13 2020-11-03 深圳市瑞立视多媒体科技有限公司 一种摄像机配置方法和装置
JP6922169B2 (ja) * 2016-08-24 2021-08-18 ソニーグループ株式会社 情報処理装置および方法、車両、並びに情報処理システム
CN107809610B (zh) * 2016-09-08 2021-06-11 松下知识产权经营株式会社 摄像头参数集算出装置、摄像头参数集算出方法以及记录介质
CN107808398B (zh) * 2016-09-08 2023-04-07 松下知识产权经营株式会社 摄像头参数算出装置以及算出方法、程序、记录介质
JP6803570B2 (ja) * 2016-09-08 2020-12-23 パナソニックIpマネジメント株式会社 カメラパラメタセット算出装置、カメラパラメタセット算出方法、および、プログラム
US9936163B1 (en) * 2016-10-05 2018-04-03 Avaya Inc. System and method for mirror utilization in meeting rooms
GB2560185A (en) * 2017-03-03 2018-09-05 Nokia Technologies Oy Method and apparatus for a multi-camera unit
JP7018566B2 (ja) * 2017-04-28 2022-02-14 パナソニックIpマネジメント株式会社 撮像装置、画像処理方法及びプログラム
JP7016058B2 (ja) * 2017-04-28 2022-02-04 パナソニックIpマネジメント株式会社 カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置
JP7002007B2 (ja) 2017-05-01 2022-01-20 パナソニックIpマネジメント株式会社 カメラパラメタセット算出装置、カメラパラメタセット算出方法及びプログラム
JP7054803B2 (ja) 2017-07-21 2022-04-15 パナソニックIpマネジメント株式会社 カメラパラメタセット算出装置、カメラパラメタセット算出方法及びプログラム
WO2019080061A1 (zh) * 2017-10-26 2019-05-02 深圳市柔宇科技有限公司 基于摄像设备的遮挡检测修复装置及其遮挡检测修复方法
WO2019082415A1 (ja) * 2017-10-26 2019-05-02 シャープ株式会社 画像処理装置、撮像装置、画像処理装置の制御方法、画像処理プログラムおよび記録媒体
JPWO2019124082A1 (ja) * 2017-12-19 2021-01-28 パナソニックIpマネジメント株式会社 投写レンズ系及び画像投写装置
JP6986683B2 (ja) 2018-01-05 2021-12-22 パナソニックIpマネジメント株式会社 視差値算出装置、視差値算出方法及びプログラム
CN110326028A (zh) * 2018-02-08 2019-10-11 深圳市大疆创新科技有限公司 图像处理的方法、装置、计算机系统和可移动设备
CN111868784B (zh) * 2018-03-22 2023-09-01 日立安斯泰莫株式会社 车载立体摄像机
CA3092565C (en) 2018-03-29 2021-07-20 Mitsubishi Electric Corporation Image processing device, image processing method, and monitoring system
CA3109097A1 (en) * 2018-09-18 2020-03-26 Nearmap Australia Pty Ltd System and method of selecting a complementary image from a plurality of images for 3d geometry extraction
KR20210147405A (ko) * 2020-05-28 2021-12-07 삼성전자주식회사 객체 인식을 수행하는 전자 장치 및 이의 동작 방법
JP6779554B1 (ja) * 2020-06-29 2020-11-04 株式会社シータ 画像を出力する方法、プログラム及び装置
CN111860409A (zh) * 2020-07-29 2020-10-30 广东智媒云图科技股份有限公司 一种通过无人机对电缆线进行巡检的方法及装置
CN112326202B (zh) * 2020-10-23 2022-12-09 歌尔光学科技有限公司 虚拟现实设备的双目视差测试方法、装置及工装
CN115086538B (zh) * 2021-03-15 2024-03-15 北京字跳网络技术有限公司 一种拍摄位置确定方法、装置、设备及介质
CN113990108B (zh) * 2021-10-22 2023-01-20 苏交科集团股份有限公司 一种船舶优化识别和实时跟踪方法及防撞预警系统
IT202200006677A1 (it) * 2022-04-05 2023-10-05 Turf Europe Srl Dispositivo di acquisizione, elaborazione e trasmissione di immagini digitali ad almeno 5 bande multispettrali coassiali ad ampio campo visivo, per l’agromonitoraggio delle superfici agricole ed a verde.
US20240203084A1 (en) * 2022-12-14 2024-06-20 GM Global Technology Operations LLC System and method for augmented decision making by detecting occlusions

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2611173B2 (ja) 1992-06-11 1997-05-21 運輸省船舶技術研究所長 魚眼レンズを用いた測位方法およびその装置
DE69430153T2 (de) * 1993-06-21 2002-09-05 Nippon Telegraph & Telephone Verfahren und Vorrichtung zur dreidimensionalen Bilderzeugung von Objekten
US6778211B1 (en) * 1999-04-08 2004-08-17 Ipix Corp. Method and apparatus for providing virtual processing effects for wide-angle video images
JP3827912B2 (ja) 2000-03-31 2006-09-27 山本 和彦 全方向ステレオ画像撮影装置及びステレオ画像撮影装置
US7206434B2 (en) * 2001-07-10 2007-04-17 Vistas Unlimited, Inc. Method and system for measurement of the duration an area is included in an image stream
JP2004173048A (ja) * 2002-11-21 2004-06-17 Auto Network Gijutsu Kenkyusho:Kk 車載カメラシステム
JP4825971B2 (ja) 2005-07-14 2011-11-30 国立大学法人岩手大学 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。
JP2007099261A (ja) * 2005-09-12 2007-04-19 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP5011528B2 (ja) * 2006-10-06 2012-08-29 国立大学法人岩手大学 3次元距離計測センサおよび3次元距離計測方法
JP5222597B2 (ja) * 2008-03-19 2013-06-26 三洋電機株式会社 画像処理装置及び方法、運転支援システム、車両
US8866920B2 (en) * 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8160391B1 (en) * 2008-06-04 2012-04-17 Google Inc. Panoramic image fill
JP2010020581A (ja) * 2008-07-11 2010-01-28 Shibaura Institute Of Technology 不要物を除去した画像合成システム
US7899321B2 (en) * 2009-03-23 2011-03-01 James Cameron Stereo camera with automatic control of interocular distance
JP5456020B2 (ja) * 2009-10-30 2014-03-26 キヤノン株式会社 情報処理装置および方法
JP4911230B2 (ja) * 2010-02-01 2012-04-04 カシオ計算機株式会社 撮影装置、並びに制御プログラム及び制御方法
US8988508B2 (en) * 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US20120154548A1 (en) * 2010-12-17 2012-06-21 Microsoft Corporation Left/right image generation for 360-degree stereoscopic video
EP2695385B8 (en) * 2011-04-08 2016-03-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Capturing panoramic or semi-panoramic 3d scenes
US9158979B2 (en) * 2011-10-18 2015-10-13 Honda Motor Co., Ltd. Vehicle vicinity monitoring device
JP6084434B2 (ja) * 2012-10-31 2017-02-22 クラリオン株式会社 画像処理システム及び画像処理方法
TWI525382B (zh) * 2012-11-21 2016-03-11 豪威科技股份有限公司 包括至少一拜耳型攝影機的攝影機陣列系統及關聯的方法
US9557520B2 (en) * 2013-10-18 2017-01-31 Light Labs Inc. Synchronized image capture methods and apparatus
KR102105189B1 (ko) * 2013-10-31 2020-05-29 한국전자통신연구원 관심 객체 추적을 위한 다중 카메라 동적 선택 장치 및 방법

Also Published As

Publication number Publication date
US20150172633A1 (en) 2015-06-18
EP2884460B1 (en) 2020-01-01
US10839213B2 (en) 2020-11-17
US20210064873A1 (en) 2021-03-04
EP2884460A1 (en) 2015-06-17
CN104717481B (zh) 2018-12-28
US20200143165A1 (en) 2020-05-07
EP3654286A2 (en) 2020-05-20
JP2015133691A (ja) 2015-07-23
US20190073535A1 (en) 2019-03-07
US11354891B2 (en) 2022-06-07
EP3654286A3 (en) 2020-09-09
EP3654286B1 (en) 2024-01-17
US10565449B2 (en) 2020-02-18
CN104717481A (zh) 2015-06-17
US10157315B2 (en) 2018-12-18

Similar Documents

Publication Publication Date Title
JP6355052B2 (ja) 撮像装置、画像処理装置、撮像方法および記録媒体
JP7018566B2 (ja) 撮像装置、画像処理方法及びプログラム
JP6573361B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
JP7038345B2 (ja) カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置
CN107396080B (zh) 产生深度信息的方法及系统
JP6872128B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6184271B2 (ja) 撮像管理装置、撮像管理システムの制御方法およびプログラム
CN107809610B (zh) 摄像头参数集算出装置、摄像头参数集算出方法以及记录介质
JP5263694B2 (ja) 物体位置推定用情報作成装置、物体位置推定用情報作成方法およびプログラム
JP6803570B2 (ja) カメラパラメタセット算出装置、カメラパラメタセット算出方法、および、プログラム
JP2016152027A (ja) 画像処理装置、画像処理方法およびプログラム
JP6589313B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP2016085602A (ja) センサ情報統合方法、及びその装置
JP6561511B2 (ja) 視差値導出装置、移動体、ロボット、視差値生産導出方法、視差値の生産方法及びプログラム
JP2011024079A (ja) 周辺表示装置
JP2021092996A (ja) 計測システム、車両、計測方法、計測装置及び計測プログラム
JP6305232B2 (ja) 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム
KR20150050224A (ko) 비정상 배회 탐지 장치 및 방법
JP6344903B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP2013190938A (ja) ステレオ画像処理装置
JP6442911B2 (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、及びプログラム
JP2015195019A (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、視差値の生産方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180601

R151 Written notification of patent or utility model registration

Ref document number: 6355052

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151