JP2011022072A - Position detector - Google Patents

Position detector Download PDF

Info

Publication number
JP2011022072A
JP2011022072A JP2009168933A JP2009168933A JP2011022072A JP 2011022072 A JP2011022072 A JP 2011022072A JP 2009168933 A JP2009168933 A JP 2009168933A JP 2009168933 A JP2009168933 A JP 2009168933A JP 2011022072 A JP2011022072 A JP 2011022072A
Authority
JP
Japan
Prior art keywords
image
correction
detection target
matching
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009168933A
Other languages
Japanese (ja)
Other versions
JP5365387B2 (en
Inventor
Hiroshi Sakai
宏 酒井
Yuki Takeda
勇輝 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009168933A priority Critical patent/JP5365387B2/en
Publication of JP2011022072A publication Critical patent/JP2011022072A/en
Application granted granted Critical
Publication of JP5365387B2 publication Critical patent/JP5365387B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide high position detection precision even when image correction is made while attaining high-speed processing and cost reduction. <P>SOLUTION: This position detector includes: correction means 12L, 13L, 12R, 13R for correcting an optical distortion generated at a stereo image comprised of a pair of images with a partially different correction amount and outputting the corrected stereo image; a search means 14 of setting one side of the corrected stereo image as a reference image and the other side as a comparison image and of searching for a matching region in the comparison image matching a detection target region set in the reference image; a size change means 15 of changing a size of a detection target region which the search means 14 uses for searching according to a correction amount by the correction means 12L, 13L at the position for setting the detection target region in the reference image; and distance calculation means 16 of calculating a distance from a photographing point of a photographed object, based on a parallax determined from the position of the detection target region in the reference image and the position of the matching region in the comparison image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、一対のカメラを有するステレオカメラにより撮影されたステレオ画像に基づいて、物体の位置を検出する位置検出装置に関する。   The present invention relates to a position detection device that detects the position of an object based on a stereo image captured by a stereo camera having a pair of cameras.

所定の基線長で配置された一対のカメラ(左カメラ、右カメラ)を有するステレオカメラで同時に撮影されたステレオ画像に基づいて、カメラ視野内に存在する物体の位置(距離)を三角測量の原理で検出する位置検出装置が知られている(例えば、下記特許文献1参照)。このようなステレオカメラによる位置検出装置は、レーダ等のアクティブ測距とは異なり、一度の撮影で広い範囲の距離情報及び形状等が得られるという利点から、最近では、車の安全装置、ロボット、監視カメラ等に使用されている。   The principle of triangulation is based on the position (distance) of an object present in the camera field of view based on a stereo image taken simultaneously with a stereo camera having a pair of cameras (left camera, right camera) arranged with a predetermined baseline length There is known a position detection device that detects the above (for example, see Patent Document 1 below). Such a position detection device using a stereo camera is different from active ranging such as radar, and has the advantage that a wide range of distance information and shape can be obtained by a single shooting. Used for surveillance cameras.

ステレオ法による測距を行う場合、左右のカメラで撮影した位置検出対象の像の左右のカメラ画像(ステレオ画像)中の位置ずれ(視差)に基づいて、その距離が求められる。
視差を求める際に、位置検出対象である像がステレオ画像の一方の画像(基準画像という)に対して、他方の画像(比較画像という)内のどこに存在するかを探索する必要があり、この探索には、SAD(Sum of Absolute Difference)法等の相関処理が一般に用いられている。
When distance measurement is performed by the stereo method, the distance is obtained based on a positional shift (parallax) in the left and right camera images (stereo images) of the position detection target image captured by the left and right cameras.
When obtaining the parallax, it is necessary to search for the position detection target image in one of the stereo images (referred to as a reference image) in the other image (referred to as a comparison image). In the search, correlation processing such as SAD (Sum of Absolute Difference) method is generally used.

相関処理は、基準画像を複数のブロックに区切り、各ブロックをテンプレートとして、エピポーラ(Epipolar)線上で設定した比較画像上の探索範囲内で該テンプレートと同サイズのウインドウを動かし、該テンプレートと最も相関のあるブロック(例えば、SAD法では、各ピクセル毎の差分の絶対値の積算値が最も小さいブロック)を決定する処理である。このような処理は、計算量が膨大であり、瞬時に形状や距離を判断する必要がある用途では、高速なハードウェアが必要でコスト高となり、あるいは検出速度面で十分な性能を実現できない場合がある。   In the correlation process, the reference image is divided into a plurality of blocks, each block is used as a template, a window having the same size as the template is moved within the search range on the comparison image set on the epipolar line, and the most correlated with the template. Is a process for determining a certain block (for example, in the SAD method, a block having the smallest integrated value of absolute values of differences for each pixel). This type of processing requires a large amount of calculation, and in applications where it is necessary to determine the shape and distance instantly, high-speed hardware is required and the cost is high, or sufficient performance cannot be achieved in terms of detection speed. There is.

このような問題に対して、特許文献1では、低解像度画像により求めた距離情報に基づいて、高解像度画像における視差算出ための対応点探索のウインドウサイズを変化させることによって、計算量の削減、処理負担の軽減を図っている。   With respect to such a problem, Patent Document 1 reduces the calculation amount by changing the window size of the corresponding point search for parallax calculation in the high resolution image based on the distance information obtained from the low resolution image. The processing burden is reduced.

特開2008−309637号公報JP 2008-309637 A

ところで、左右カメラの光学的な歪みや光軸のずれ等に起因して、あるいは広範囲に渡って距離を測定する場合や対象物が近距離にある場合等には広角又は魚眼等のレンズが用いられることから、撮影された画像に歪みを生じる。このため、撮影されたステレオ画像を補正した上で、距離算出のための相関演算等を用いるマッチング処理が行われる。   By the way, due to optical distortion of the left and right cameras, optical axis shift, etc., or when measuring distances over a wide range or when the object is at a short distance, a lens such as a wide angle or fisheye is used. Since it is used, the captured image is distorted. For this reason, after correcting the captured stereo image, matching processing using a correlation calculation or the like for distance calculation is performed.

しかしながら、特許文献1に記載の技術では、上述したような画像に生じている光学的な歪みの補正による影響が考慮されていないため、画像の補正が行われた場合に、マッチング処理におけるマッチング精度が低い場合があり、十分な位置検出精度を得ることができない場合があるという問題があった。   However, the technique described in Patent Document 1 does not consider the influence of correction of the optical distortion occurring in the image as described above. Therefore, when the image is corrected, the matching accuracy in the matching process is corrected. May be low, and there is a problem that sufficient position detection accuracy may not be obtained.

本発明はこのような点に鑑みてなされたものであり、処理の高速化及び装置の低コスト化を図りつつ、画像補正が行われた場合であっても高い位置検出精度を実現できる位置検出装置を提供することを目的とする。   The present invention has been made in view of such points, and position detection that can achieve high position detection accuracy even when image correction is performed while achieving high-speed processing and low cost of the apparatus. An object is to provide an apparatus.

本発明に係る位置検出装置は、一対の画像からなるステレオ画像に生じている光学的な歪みを部分的に異なる補正量で補正して補正ステレオ画像を出力する補正手段と、前記補正ステレオ画像のうちの一方を基準画像、他方を比較画像として、該基準画像内に設定される検出対象領域にマッチングする前記比較画像内のマッチング領域を探索する探索手段と、前記探索手段が探索に用いる前記検出対象領域のサイズを、前記基準画像中の当該検出対象領域を設定すべき位置における前記補正手段による補正量に応じて変更するサイズ変更手段と、前記基準画像内の前記検出対象領域の位置及び前記探索手段により探索された前記比較画像内の前記マッチング領域の位置から求まる視差に基づいて、撮影された物体の撮影地点からの距離を算出する距離算出手段とを備えて構成される。   The position detection apparatus according to the present invention includes a correction unit that corrects optical distortion generated in a stereo image including a pair of images with partially different correction amounts and outputs a corrected stereo image; Search means for searching for a matching area in the comparison image that matches a detection target area set in the reference image, one of which is a reference image and the other is a comparison image, and the detection used by the search means for the search A size changing unit that changes a size of the target region according to a correction amount by the correcting unit at a position where the detection target region in the reference image is to be set; a position of the detection target region in the reference image; and Based on the parallax obtained from the position of the matching area in the comparison image searched by the search means, the distance from the shooting point of the shot object is calculated. Constructed and a that the distance calculation means.

本発明によれば、処理の高速化及び装置の低コスト化を図りつつ、画像補正が行われた場合であっても高い位置検出精度を実現することができるという効果がある。   According to the present invention, there is an effect that high position detection accuracy can be realized even when image correction is performed while increasing the processing speed and reducing the cost of the apparatus.

本発明の実施形態のステレオカメラシステムの全体構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of a stereo camera system according to an embodiment of the present invention. 本発明の実施形態の位置検出装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the position detection apparatus of embodiment of this invention. 本発明の実施形態の等距離射影の画像を示す図である。It is a figure which shows the image of equidistant projection of embodiment of this invention. 本発明の実施形態の中心射影に補正した画像を示す図である。It is a figure which shows the image correct | amended by center projection of embodiment of this invention. 本発明の実施形態の補正量に応じたウインドウサイズの設定例を説明するための基準画像を示す図である。It is a figure which shows the reference | standard image for demonstrating the example of a setting of the window size according to the correction amount of embodiment of this invention. 本発明の実施形態の補正量に応じたウインドウサイズの設定例を説明するための比較画像を示す図である。It is a figure which shows the comparative image for demonstrating the example of a setting of the window size according to the correction amount of embodiment of this invention. 本発明の実施形態の補正量に応じたウインドウサイズの他の設定例を説明するための基準画像を示す図である。It is a figure which shows the reference | standard image for demonstrating the other example of the setting of the window size according to the correction amount of embodiment of this invention. 本発明の実施形態の補正量に応じたウインドウサイズの他の設定例を説明するための比較画像を示す図である。It is a figure which shows the comparative image for demonstrating the other example of a window size according to the corrected amount of embodiment of this invention. 本発明の実施形態の位置検出装置による処理を示すフローチャートである。It is a flowchart which shows the process by the position detection apparatus of embodiment of this invention.

以下、本発明の実施形態について、図面を参照して詳細に説明する。なお、以下の説明では、後述するステレオカメラ(カメラ2L,2R)の光軸に沿う方向をZ方向(Z軸)とし、ステレオカメラの基線長の方向をX方向(X軸)とし、これらに直交する方向をY方向(Y軸)とした正規直交座標系を適宜に参照しつつ説明する。本実施形態では、X方向が水平方向に、Y方向が鉛直上方向に設定されている。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description, the direction along the optical axis of a stereo camera (cameras 2L and 2R), which will be described later, is defined as the Z direction (Z axis), and the base line length direction of the stereo camera is defined as the X direction (X axis). Description will be made with reference to an orthonormal coordinate system in which the orthogonal direction is the Y direction (Y axis). In the present embodiment, the X direction is set in the horizontal direction, and the Y direction is set in the vertical upward direction.

図1に本発明の実施形態のステレオカメラシステムの全体構成が示されている。このステレオカメラシステム1は、一対のカメラ(左カメラ2L、右カメラ2R)を有するステレオカメラ本体とこのステレオカメラ本体で撮像されたステレオ画像(所定の基線長をもって同時撮影された一対の画像)に基づいて、ステレオカメラ本体の撮影視野内に存在する物体(物体の部分を含む)の撮影地点(ステレオカメラ本体)からの距離を含む該物体の位置を検出する位置検出装置3とを備えている。物体上の複数箇所で距離を含む位置を検出することにより、該物体の形状を求めることもできる。   FIG. 1 shows the overall configuration of a stereo camera system according to an embodiment of the present invention. This stereo camera system 1 includes a stereo camera body having a pair of cameras (left camera 2L, right camera 2R) and a stereo image (a pair of images photographed simultaneously with a predetermined baseline length) captured by the stereo camera body. And a position detection device 3 for detecting the position of the object including the distance from the shooting point (stereo camera body) of the object (including the object part) existing in the shooting field of view of the stereo camera body. . By detecting positions including distances at a plurality of locations on the object, the shape of the object can also be obtained.

ステレオカメラ本体が備える左カメラ2L及び右カメラ2Rは、所定の基線長をもって左右(X方向)に配置されており、これらのカメラ2L,2Rは、CCDやCMOS等からなるイメージセンサ(撮像素子)4L,4R及び撮影視野内の被写体の像をイメージセンサ4L,4Rの撮像面上に結像させる撮影レンズ(撮影光学系)5L,5Rをそれぞれ有している。   The left camera 2L and the right camera 2R included in the stereo camera body are arranged on the left and right (X direction) with a predetermined baseline length, and these cameras 2L and 2R are image sensors (imaging devices) made of CCD, CMOS, or the like. 4L and 4R and photographing lenses (shooting optical systems) 5L and 5R for forming images of subjects in the photographing field of view on the imaging surfaces of the image sensors 4L and 4R, respectively.

左カメラ2L及び右カメラ2Rで撮影されたステレオ画像は、所定のフレーム間隔(フレームレート)で順次に出力され、左画像バッファ6L及び右画像バッファ6Rを介して、それぞれ位置検出装置3に順次に出力される。位置検出装置3は、画像内に存在する物体までの距離を含む位置を検出し、検出された情報は、距離画像メモリ7を介して、アプリケーション8に出力され、該アプリケーション8の機能に応じて処理される。   Stereo images captured by the left camera 2L and the right camera 2R are sequentially output at a predetermined frame interval (frame rate), and sequentially output to the position detection device 3 via the left image buffer 6L and the right image buffer 6R. Is output. The position detection device 3 detects a position including a distance to an object existing in the image, and the detected information is output to the application 8 via the distance image memory 7, and according to the function of the application 8. It is processed.

位置検出装置3の機能構成が図2に示されている。位置検出装置3は、画像取得手段(左画像取得部11L、右画像取得部11R)、補正手段(左歪み補正部12L、左歪み補正テーブル13L、右歪み補正部12R、右歪み補正テーブル13R)、探索手段(探索部14)、サイズ変更手段(ウインドウサイズ変更部15)、距離算出手段(距離算出部16)を備えて構成されている。   The functional configuration of the position detection device 3 is shown in FIG. The position detection device 3 includes an image acquisition unit (left image acquisition unit 11L, right image acquisition unit 11R), correction unit (left distortion correction unit 12L, left distortion correction table 13L, right distortion correction unit 12R, right distortion correction table 13R). , A search unit (search unit 14), a size change unit (window size change unit 15), and a distance calculation unit (distance calculation unit 16).

左画像取得部11Lは、左カメラ2Lで撮影された左画像を左画像バッファ6Lを介して順次に取得する。右画像取得部11Rは、右カメラ2Rで撮影された右画像を右画像バッファ6Rを介して順次に取得する。   The left image acquisition unit 11L sequentially acquires the left images taken by the left camera 2L via the left image buffer 6L. The right image acquisition unit 11R sequentially acquires right images taken by the right camera 2R via the right image buffer 6R.

左歪み補正部12Lは、左画像取得部11Lで取得された左画像に生じている光学的な歪みを補正して、部分的に補正量の異なる補正画像(左補正画像)を出力する。左カメラ2Lで撮影された左画像に生じている光学的な歪み(撮影レンズ5Lの所定の基準に対する軸ずれ等を含む製造誤差に起因して生じる歪みや撮影レンズ5Lの仕様(広角レンズ、魚眼レンズ等)に基づき生じる歪み等)は、予め測定されて歪み補正データとして左歪み補正テーブル13Lに記憶されており、左歪み補正部12Lは、この左歪み補正テーブル13Lに基づいて、左画像を部分的に異なる補正量で補正(縮小、拡大、シフト、回転等)して、補正後の画像(左補正画像)を探索部14に対して出力する。   The left distortion correction unit 12L corrects the optical distortion generated in the left image acquired by the left image acquisition unit 11L, and outputs a correction image (left correction image) having a partially different correction amount. Optical distortion occurring in the left image photographed by the left camera 2L (distortion caused by a manufacturing error including an axial deviation of the photographing lens 5L with respect to a predetermined reference, etc., and specifications of the photographing lens 5L (wide angle lens, fisheye lens) The distortion generated based on the left distortion correction table 13L is measured in advance and stored in the left distortion correction table 13L as distortion correction data, and the left distortion correction unit 12L generates a partial left image based on the left distortion correction table 13L. The image is corrected (reduced, enlarged, shifted, rotated, etc.) with a different correction amount, and the corrected image (left corrected image) is output to the search unit 14.

右歪み補正部12Rは、右画像取得部11Rで取得された右画像に生じている光学的な歪みを補正して、部分的に補正量の異なる補正画像(右補正画像)を出力する。右カメラ2Rで撮影された右画像に生じている光学的な歪み(撮影レンズ5Rの前記所定の基準に対する軸ずれ等を含む製造誤差に起因して生じる歪みや撮影レンズ5Rの仕様(広角レンズ、魚眼レンズ等)に基づき生じる歪み等)は、予め測定されて歪み補正データとして右歪み補正テーブル13Rに記憶されており、右歪み補正部12Rは、この右歪み補正テーブル13Rに基づいて、右画像を部分的に異なる補正量で補正(縮小、拡大、シフト、回転等)して、補正後の画像(右補正画像)を探索部14に対して出力する。   The right distortion correction unit 12R corrects the optical distortion generated in the right image acquired by the right image acquisition unit 11R, and outputs a correction image (right correction image) having a partially different correction amount. Optical distortion occurring in the right image photographed by the right camera 2R (distortion caused by a manufacturing error including an axial deviation of the photographing lens 5R with respect to the predetermined reference and the specifications of the photographing lens 5R (wide-angle lens, The distortion generated based on the fisheye lens etc.) is measured in advance and stored as distortion correction data in the right distortion correction table 13R. The right distortion correction unit 12R converts the right image based on the right distortion correction table 13R. The image is corrected (reduced, enlarged, shifted, rotated, etc.) with a partially different correction amount, and the corrected image (right corrected image) is output to the search unit 14.

例えば、撮影レンズ5L,5Rとして、魚眼レンズが用いられている場合には、図3にそのイメージを示すように、その画像は等距離射影の画像となる。この場合、図4にそのイメージを示すように、中心射影の画像へと補正されることになる。このように、等距離射影から中心射影へと補正が行われた場合、補正後の画像では、周辺の解像度に補正量に応じた劣化が生じる。各射影方式において、光軸からの角度をθとし、焦点距離をfとすると、結像の高さrは、下式で求めることができる。
等距離射影:r=fθ
中心射影:r=ftanθ
For example, when fisheye lenses are used as the photographing lenses 5L and 5R, the images are equidistant projection images as shown in FIG. In this case, the image is corrected to a central projection image as shown in FIG. As described above, when the correction is performed from the equidistant projection to the central projection, in the corrected image, the peripheral resolution is deteriorated according to the correction amount. In each projection method, if the angle from the optical axis is θ and the focal length is f, the imaging height r can be obtained by the following equation.
Equidistant projection: r = fθ
Central projection: r = ftanθ

等距離射影から中心射影へと補正された画像は、中心から周辺にかけて放射状に伸びる画像となり、中心部では補正されない又は補正量が小さいため比較的に高解像度となるが、周辺部では補正量が大きいため比較的に低解像度の画像となる。   The image corrected from the equidistant projection to the central projection is an image that extends radially from the center to the periphery, and is not corrected in the center or has a relatively high resolution because the correction amount is small. Since it is large, the image has a relatively low resolution.

なお、ここでは、便宜的に、左右画像バッファ6L,6Rから左右画像取得部11L,11Rを介して取得された左右画像を左右歪み補正部12L,12Rで補正するようにしたが、左右画像バッファ6L,6Rに一時記憶された左右画像に対してそれぞれ左右歪み補正部12L,12Rにより補正を実施して、補正された画像を左右画像取得部11L,11Rを介して取得して、探索部14に出力するようにしてもよい。   Here, for convenience, the left and right image acquired from the left and right image buffers 6L and 6R via the left and right image acquisition units 11L and 11R are corrected by the left and right distortion correction units 12L and 12R. The left and right images temporarily stored in 6L and 6R are corrected by the left and right distortion correction units 12L and 12R, respectively, and the corrected images are acquired via the left and right image acquisition units 11L and 11R. May be output.

探索部14は、左歪み補正部12Lで補正された左補正画像を基準画像とし、右歪み補正部12Rで補正された右補正画像を比較画像として、後述するウインドウサイズ変更部15により設定されるウインドウサイズに従って、該基準画像内で定められるマッチングの元となる領域である検出対象領域とマッチングする該比較画像内のマッチング領域を探索する。この探索処理は、後述するウインドウサイズ変更部15により設定されるウインドウサイズに従うブロックを検出対象領域とし、これをテンプレートとして、該テンプレートと相関の高い(マッチングする)比較画像内のブロックをマッチング領域とするマッチング処理である。   The search unit 14 is set by the window size changing unit 15 described later using the left corrected image corrected by the left distortion correcting unit 12L as a reference image and the right corrected image corrected by the right distortion correcting unit 12R as a comparative image. According to the window size, a matching area in the comparison image that matches a detection target area that is an area that is a source of matching determined in the reference image is searched. In this search process, a block according to a window size set by the window size changing unit 15 described later is set as a detection target area, and this is used as a template, and a block in a comparative image having a high correlation (matching) with the template is set as a matching area. Matching process.

マッチング処理としては、公知の各種のものを用いることができるが、本実施形態では、SAD(Sum of Absolute Difference)法を用いるものとする。SAD法は、基準画像内で設定されたテンプレートとこれと相関をとるべき比較画像内のブロックとの互いに対応する各ピクセル(画素)の輝度値の差の絶対値の積算値を算出して評価値とし、該評価値が最も小さいものに係る比較画像内のブロックをマッチング領域とするものである。   Various known processes can be used as the matching process, but in this embodiment, a SAD (Sum of Absolute Difference) method is used. The SAD method calculates and evaluates an integrated value of absolute values of differences in luminance values of pixels corresponding to a template set in a reference image and a block in a comparison image to be correlated with the template. And a block in the comparison image related to the smallest evaluation value is used as a matching area.

ウインドウサイズ変更部15は、左歪み補正テーブル13L及び右歪み補正テーブル13Rに基づいて、補正ステレオ画像(左補正画像、右補正画像)中の各部分における補正量を求め、該補正量に応じて、探索部14がマッチング(探索)に用いる検出対象領域のサイズ(ウインドウサイズ)を変更する。なお、この実施形態では、画像中の各部分における補正量は、左右歪み補正テーブル13L,13Rに基づいて求めるものとするが、別途左右補正量テーブルを設けて、これらの左右補正量テーブルから画像中の各部分における補正量を取得するようにしてもよい。   Based on the left distortion correction table 13L and the right distortion correction table 13R, the window size changing unit 15 obtains a correction amount in each part in the corrected stereo image (left correction image, right correction image), and according to the correction amount. The search unit 14 changes the size (window size) of the detection target region used for matching (search). In this embodiment, the correction amount at each part in the image is obtained based on the left and right distortion correction tables 13L and 13R. However, a separate left and right correction amount table is provided, and the image is obtained from these left and right correction amount tables. You may make it acquire the correction amount in each inside part.

なお、本願においては、補正量という語には、当該補正量のみならず、当該補正量に相当する量(歪み量、解像度等)が含まれる。すなわち、当該補正量は画像中の各部分における歪み量又は解像度と実質的に同義であるので、当該歪み量又は解像度に応じてウインドウサイズを変更するようにしてもよい。   In the present application, the term “correction amount” includes not only the correction amount but also an amount (distortion amount, resolution, etc.) corresponding to the correction amount. That is, since the correction amount is substantially synonymous with the distortion amount or resolution in each portion in the image, the window size may be changed according to the distortion amount or resolution.

ここで、「ウインドウサイズを変更する」とは、画像中の補正が行われていない部分に設定するウインドウサイズを基準サイズとして、画像の歪み補正に伴う部分的な拡大又は縮小等に応じて(すなわち、補正量の大小に応じて)、ウインドウサイズを拡大又は縮小することを意味し、面積を変更することのみならず、形状の変更も含まれる。   Here, “change the window size” means that the window size set for the uncorrected portion in the image is set as a reference size according to partial enlargement or reduction accompanying image distortion correction ( That is, depending on the amount of correction, this means that the window size is enlarged or reduced, and includes not only changing the area but also changing the shape.

例えば、図5に示す基準画像(左補正画像)において、中央部は補正量が小さく高解像度であるので、当該中央部ではブロックBL1に示すような小さなウインドウサイズで検出対象領域を設定し、図6に示す比較画像(右補正画像)において、ブロックBL1に対応するブロック(又はその近傍のブロック)BL1’から図中矢印A1で示すように探索(マッチング)を行う。   For example, in the reference image (left correction image) shown in FIG. 5, since the center portion has a small correction amount and high resolution, the detection target region is set with a small window size as shown in the block BL1 in the center portion. In the comparison image (right-corrected image) shown in FIG. 6, a search (matching) is performed as indicated by an arrow A1 in the figure from the block BL1 ′ corresponding to the block BL1 (or a block in the vicinity thereof) BL1 ′.

また、図5に示す基準画像(左補正画像)において、四隅部(例えば、左上隅部)は補正量が大きく低解像度であるので、当該四隅部ではブロックBL2に示すような大きなウインドウサイズで検出対象領域を設定し、図6に示す比較画像(右補正画像)において、ブロックBL2に対応するブロック(又はその近傍のブロック)BL2’から図中矢印A2で示すように探索(マッチング)を行う。   Further, in the reference image (left corrected image) shown in FIG. 5, the four corners (for example, the upper left corner) have a large correction amount and low resolution, so that the four corners are detected with a large window size as shown in the block BL2. A target area is set, and a search (matching) is performed as indicated by an arrow A2 in the figure from the block BL2 ′ corresponding to the block BL2 (or a block in the vicinity thereof) BL2 ′ in the comparison image (right correction image) shown in FIG.

加えて、例えば、図7に示す基準画像(左補正画像)において、中央部は補正量が小さく高解像度であるので、当該中央部ではブロックBL3に示すような小さなウインドウサイズで検出対象領域を設定し、図8に示す比較画像(右補正画像)において、ブロックBL3に対応するブロック(又はその近傍のブロック)BL3’から図中矢印A3で示すように探索(マッチング)を行う。   In addition, for example, in the reference image (left correction image) shown in FIG. 7, the correction amount is small and the resolution is high in the central portion, so that the detection target region is set with a small window size as shown in the block BL3 in the central portion. Then, in the comparison image (right correction image) shown in FIG. 8, a search (matching) is performed from the block BL3 ′ corresponding to the block BL3 (or a block in the vicinity thereof) BL3 ′ as indicated by an arrow A3 in the figure.

また、図7に示す基準画像(左補正画像)において、上下辺の中央部(例えば、上辺中央部)は補正量が横方向に大きいが縦方向には小さいので、該上下辺中央部ではブロックBL4に示すような横方向に寸法を拡大したウインドウサイズで検出対象領域を設定し、図8に示す比較画像(右補正画像)において、ブロックBL4に対応するブロック(又はその近傍のブロック)BL4’から図中矢印A4で示すように探索(マッチング)を行う。   Further, in the reference image (left correction image) shown in FIG. 7, since the correction amount is large in the horizontal direction but small in the vertical direction at the center part of the upper and lower sides (for example, the center part of the upper side), A detection target area is set with a window size whose dimension is expanded in the horizontal direction as shown in BL4, and in the comparison image (right correction image) shown in FIG. 8, a block corresponding to the block BL4 (or a block in the vicinity thereof) BL4 ′ The search (matching) is performed as indicated by an arrow A4 in FIG.

さらに、図7に示す基準画像(左補正画像)において、左右辺の中央部(例えば、左辺中央部)は補正量が縦方向に大きいが横方向には小さいので、該左右辺中央部ではブロックBL5に示すような縦方向に寸法を拡大したウインドウサイズで検出対象領域を設定し、図8に示す比較画像(右補正画像)において、ブロックBL5に対応するブロック(又はその近傍のブロック)BL5’から図中矢印A5で示すように探索(マッチング)を行う。   Further, in the reference image (left correction image) shown in FIG. 7, the center of the left and right sides (for example, the center of the left side) has a large correction amount in the vertical direction but is small in the horizontal direction. A detection target region is set with a window size whose size is expanded in the vertical direction as shown in BL5, and in the comparison image (right correction image) shown in FIG. 8, a block corresponding to the block BL5 (or a block in the vicinity thereof) BL5 ′ The search (matching) is performed as indicated by an arrow A5 in FIG.

なお、上述した探索は、比較画像においてエピポーラ線上の全範囲を探索範囲としてマッチングを実行するようにしてもよいし、あるいは例えば直近に処理されたフレームについて求められた距離(Z方向の位置)や別途アクティブ測距装置等を用いて測定した距離に応じて、該エピポーラ線上の全範囲よりも狭い範囲で変更設定される探索範囲に従って、マッチングを実行するようにしてもよい。   In the above-described search, matching may be executed using the entire range on the epipolar line in the comparison image as a search range, or for example, the distance (position in the Z direction) obtained for the most recently processed frame, Matching may be executed in accordance with a search range that is changed and set in a range narrower than the entire range on the epipolar line according to a distance measured using an active distance measuring device or the like.

距離算出部16は、基準画像内の検出対象領域の位置及び探索部14により特定された比較画像内のマッチング領域の位置から求まる視差(位置ずれ)に基づいて、当該部分の撮影地点からの距離を算出する。すなわち、左右のカメラ2L,2Rが互いに平行等位に配置されているものとして、位置検出の対象となる物体(対象物)までの距離zは、基線長をL、焦点距離をf、視差をDとして、z=L×f/Dで算出することができる。各検出対象領域についてそれぞれ算出された距離(z1、z2,z3,…)、すなわちZ方向の位置は、該距離の算出に係る位置(ブロックのX方向の位置、Y方向の位置)が特定できる状態で距離画像メモリ7に格納される。   The distance calculation unit 16 determines the distance from the shooting point of the portion based on the parallax (positional deviation) obtained from the position of the detection target region in the reference image and the position of the matching region in the comparison image specified by the search unit 14. Is calculated. That is, assuming that the left and right cameras 2L and 2R are arranged in parallel with each other, the distance z to an object (target object) that is a position detection target is L, the base length is f, the focal length is f, and the parallax is D can be calculated by z = L × f / D. The distance (z1, z2, z3,...) Calculated for each detection target region, that is, the position in the Z direction can specify the position related to the calculation of the distance (the position in the X direction and the position in the Y direction of the block). The state is stored in the distance image memory 7.

次に、この実施形態の位置検出装置3による処理を、図9に示すフローチャートを参照して説明する。   Next, processing by the position detection device 3 of this embodiment will be described with reference to a flowchart shown in FIG.

処理が開始されると、ステレオカメラ本体による撮影が開始される(ステップS1)。これにより、左右カメラ2L,2Rの各イメージセンサ4L,4Rからの撮像信号をデジタル変換した画像データ(フレームデータ)が、それぞれ左画像バッファ6L及び右画像バッファ6Rを介して位置検出装置3に順次出力される。   When the process is started, shooting by the stereo camera body is started (step S1). Thereby, image data (frame data) obtained by digitally converting the imaging signals from the image sensors 4L and 4R of the left and right cameras 2L and 2R are sequentially supplied to the position detection device 3 via the left image buffer 6L and the right image buffer 6R, respectively. Is output.

次いで、位置検出装置3において、左歪み補正部12L及び右歪み補正部12Rにより、左歪み補正テーブル13L及び右歪み補正テーブル13Rからそれぞれ歪み補正データが読み込まれ(ステップS2)、これらの歪み補正データに従って左画像及び右画像に生じている光学的な歪みがそれぞれ補正される(ステップS3)。ここでは、説明を簡単にするため、例えば、図3に示した等距離射影の画像が、図4に示した中心射影の画像に補正されるものとする。   Next, in the position detection device 3, the left distortion correction unit 12L and the right distortion correction unit 12R respectively read distortion correction data from the left distortion correction table 13L and the right distortion correction table 13R (step S2), and these distortion correction data. Accordingly, the optical distortion generated in the left image and the right image is corrected (step S3). Here, in order to simplify the description, for example, the equidistant projection image shown in FIG. 3 is corrected to the central projection image shown in FIG. 4.

次いで、左画像中の検出対象領域として設定すべき位置における補正量が所定のしきい値と比較判断され(ステップS4)、所定のしきい値よりも小さいと判断された場合(Yesの場合)には、ステップS5に進んで、検出対象領域として設定すべきウインドウサイズとして、図5のブロックBL1に示すようなサイズの小さいウインドウ(ウインドウサイズ小)が選択される。   Next, the correction amount at the position to be set as the detection target area in the left image is compared with a predetermined threshold value (step S4), and when it is determined that the correction amount is smaller than the predetermined threshold value (Yes) In step S5, a small window (small window size) as shown in block BL1 in FIG. 5 is selected as the window size to be set as the detection target area.

ステップS4において、左画像中の検出対象領域として設定すべき位置における補正量が所定のしきい値よりも大きいと判断された場合(Noの場合)には、ステップS9に進んで、検出対象領域として設定すべきウインドウとして、サイズの大きいウインドウ(ウインドウサイズ大)が選択される。   In step S4, when it is determined that the correction amount at the position to be set as the detection target region in the left image is larger than the predetermined threshold value (in the case of No), the process proceeds to step S9 to detect the detection target region. As a window to be set as, a large window (large window size) is selected.

次いで、左画像中の検出対象領域として設定すべき位置が画像中の上下(上辺中央部又は下辺中央部)であるか、左右(左辺中央部又は右辺中央部)であるか、四隅(左上隅部、左下隅部、右上隅部、又は右下隅部)であるかが判断され(ステップS10)、上下と判断された場合には図7のブロックBL4に示すような横方向に大きく拡大されたウインドウ(横長ウインドウ)が選択され、左右と判断された場合には図7のブロックBL5に示すような縦方向に大きく拡大されたウインドウ(縦長ウインドウ)が選択され、四隅と判断された場合には図5のブロックBL2に示すような縦横方向共に拡大されたウインドウサイズ(四隅ウインドウ)が選択される。   Next, the position to be set as the detection target region in the left image is the top and bottom (upper center or lower center), right and left (left center or right center), or four corners (upper left corner). Part, lower left corner, upper right corner, or lower right corner) (step S10), and when it is determined to be up and down, it is greatly enlarged in the horizontal direction as shown in block BL4 of FIG. When a window (horizontal window) is selected and determined to be left and right, a window (vertically long window) greatly enlarged in the vertical direction as shown in block BL5 of FIG. 7 is selected, and when it is determined that there are four corners. A window size (four corner window) enlarged in both the vertical and horizontal directions as shown in the block BL2 in FIG. 5 is selected.

次いで、ステップS6では、ステップS5、S11、S12又はS13で選択されたウインドウサイズで、ステレオ画像の対応点の検出、すなわち当該選択されたウインドウサイズに従って基準画像内で設定された検出対象領域に対応する比較画像内のマッチング領域が探索される。   Next, in step S6, detection of corresponding points in the stereo image with the window size selected in step S5, S11, S12, or S13, that is, corresponding to the detection target region set in the reference image according to the selected window size. A matching region in the comparison image to be searched is searched.

次いで、全てのマッチング処理が終了したか否かが判断され(ステップS7)、終了していないと判断された場合(Noの場合)にはステップS4に戻って、基準画像内に設定すべき検出対象領域の位置を変更しつつ同様の処理を繰り返し、終了していると判断された場合(Yesの場合)には、基準画像内の各検出対象領域とこれらにそれぞれ対応する比較画像内の各マッチング領域とから各領域についての距離をそれぞれ算出し(ステップS8)、距離画像として出力して、この処理を終了する。なお、距離画像とは、距離を算出した各領域の位置と当該距離とをパラメータとする画像である。   Next, it is determined whether or not all the matching processes have been completed (step S7). If it is determined that the matching process has not been completed (in the case of No), the process returns to step S4, and detection to be set in the reference image When it is determined that the same process is repeated while changing the position of the target area and the process is finished (in the case of Yes), each detection target area in the reference image and each of the corresponding comparison images in the reference image The distance for each region is calculated from the matching region (step S8), and is output as a distance image, and this process ends. The distance image is an image using the position of each region where the distance is calculated and the distance as parameters.

上述した実施形態によると、画像中の補正量が小さい部分(すなわち高解像度の部分)については比較的に小さいサイズのウインドウを用い、補正量が大きい部分(すなわち低解像度の部分)については比較的に大きいサイズのウインドウを用いてマッチング処理を行うようにしたので、高解像度の部分では小さいウインドウを用いることによってマッチング処理の計算量を削減することができ、処理負担の軽減、処理の高速化を図ることができる。一方、低解像度の部分では大きいウインドウを用いることによって画像の特徴部分を多くとることができるため、低解像度の部分においても高いマッチング精度を実現することができ、高い精度で位置(距離)を検出することができる。従って、処理の高速化及び装置の低コスト化を図りつつ、画像補正が行われた場合であっても高い位置検出精度を実現することができる。   According to the above-described embodiment, a relatively small size window is used for a portion with a small correction amount (that is, a high-resolution portion) in an image, and a portion with a large correction amount (that is, a low-resolution portion) is relatively. Since the matching process is performed using a large-sized window, the calculation amount of the matching process can be reduced by using a small window in the high-resolution part, reducing the processing load and increasing the processing speed. Can be planned. On the other hand, since a large window can be used in the low-resolution part, many feature parts of the image can be obtained, so high matching accuracy can be realized even in the low-resolution part, and the position (distance) can be detected with high precision. can do. Therefore, high position detection accuracy can be realized even when image correction is performed while increasing the processing speed and reducing the cost of the apparatus.

なお、上述した実施形態では、基準画像としての左画像についての歪み補正量に応じてウインドウサイズを設定したが、比較画像としての右画像についての歪み補正量を用いてもよく、また両者を用いてもよい。また、上述した実施形態では、魚眼レンズを用いて撮影された等距離射影の画像を中心射影の画像に補正する場合について説明したが、これは説明を単に簡単にするための一例であり、これと異なる補正を行う場合であっても適用できる。   In the above-described embodiment, the window size is set according to the distortion correction amount for the left image as the reference image. However, the distortion correction amount for the right image as the comparison image may be used, or both are used. May be. In the above-described embodiment, the case of correcting the equidistant projection image captured using the fisheye lens to the central projection image has been described, but this is merely an example for simplifying the description. This is applicable even when different corrections are performed.

以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。従って、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment includes all design changes and equivalents belonging to the technical scope of the present invention.

1…ステレオカメラシステム、2L…左カメラ、2R…右カメラ、3…位置検出装置、11L…左画像取得部、11R…右画像取得部、12L…左歪み補正部、12R…右歪み補正部、13L…左歪み補正テーブル、13R…右歪み補正テーブル、14…探索部、15…ウインドウサイズ変更部、16…距離算出部、BL1〜BL5…ブロック(検出対象領域)。   DESCRIPTION OF SYMBOLS 1 ... Stereo camera system, 2L ... Left camera, 2R ... Right camera, 3 ... Position detection apparatus, 11L ... Left image acquisition part, 11R ... Right image acquisition part, 12L ... Left distortion correction part, 12R ... Right distortion correction part, 13L ... Left distortion correction table, 13R ... Right distortion correction table, 14 ... Search unit, 15 ... Window size change unit, 16 ... Distance calculation unit, BL1 to BL5 ... Block (detection target area).

Claims (2)

一対の画像からなるステレオ画像に生じている光学的な歪みを部分的に異なる補正量で補正して補正ステレオ画像を出力する補正手段と、
前記補正ステレオ画像のうちの一方を基準画像、他方を比較画像として、該基準画像内に設定される検出対象領域にマッチングする前記比較画像内のマッチング領域を探索する探索手段と、
前記探索手段が探索に用いる前記検出対象領域のサイズを、前記基準画像中の当該検出対象領域を設定すべき位置における前記補正手段による補正量に応じて変更するサイズ変更手段と、
前記基準画像内の前記検出対象領域の位置及び前記探索手段により探索された前記比較画像内の前記マッチング領域の位置から求まる視差に基づいて、撮影された物体の撮影地点からの距離を算出する距離算出手段と
を備えることを特徴とする位置検出装置。
Correction means for correcting optical distortion occurring in a stereo image composed of a pair of images with partially different correction amounts and outputting a corrected stereo image;
Search means for searching for a matching area in the comparison image that matches a detection target area set in the reference image, using one of the corrected stereo images as a reference image and the other as a comparison image;
A size changing means for changing a size of the detection target area used by the search means for searching according to a correction amount by the correction means at a position where the detection target area in the reference image is to be set;
A distance for calculating the distance from the photographing point of the photographed object based on the parallax obtained from the position of the detection target region in the reference image and the position of the matching region in the comparison image searched by the search means A position detecting device comprising: a calculating means.
前記サイズ変更手段は、前記補正手段による補正量が大きくなるに従って前記検出対象領域のサイズを大きいサイズに変更することを特徴とする請求項1に記載の位置検出装置。   The position detection apparatus according to claim 1, wherein the size changing unit changes the size of the detection target region to a larger size as a correction amount by the correction unit increases.
JP2009168933A 2009-07-17 2009-07-17 Position detection device Active JP5365387B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009168933A JP5365387B2 (en) 2009-07-17 2009-07-17 Position detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009168933A JP5365387B2 (en) 2009-07-17 2009-07-17 Position detection device

Publications (2)

Publication Number Publication Date
JP2011022072A true JP2011022072A (en) 2011-02-03
JP5365387B2 JP5365387B2 (en) 2013-12-11

Family

ID=43632277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009168933A Active JP5365387B2 (en) 2009-07-17 2009-07-17 Position detection device

Country Status (1)

Country Link
JP (1) JP5365387B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5990718A (en) * 1982-11-15 1984-05-25 Mitsubishi Electric Corp Control device for intake valve of engine
JP2011027496A (en) * 2009-07-23 2011-02-10 Konica Minolta Opto Inc Periphery display device
JP2012198077A (en) * 2011-03-18 2012-10-18 Ricoh Co Ltd Stereo camera device and parallax image generating method
WO2012147495A1 (en) * 2011-04-28 2012-11-01 三洋電機株式会社 Information acquisition device and object detection device
JP2012234459A (en) * 2011-05-09 2012-11-29 Suzuki Motor Corp Vehicle periphery monitoring device
JP2013206431A (en) * 2012-03-29 2013-10-07 Fujitsu Ltd Image processing device, image processing method and image processing program
JP2014222429A (en) * 2013-05-14 2014-11-27 株式会社リコー Image processor, distance measuring device, mobile object apparatus control system, mobile object, and program for image processing
JP2015021758A (en) * 2013-07-16 2015-02-02 株式会社キーエンス Three-dimensional image processor, three-dimensional image processing method, three-dimensional image processing program, computer-readable recording medium, and recording apparatus
JP2016186680A (en) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 Interactive projector and method for controlling interactive projector
WO2023100516A1 (en) * 2021-12-03 2023-06-08 株式会社日立製作所 Stereo camera, stereo camera system, and arrangement method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0814861A (en) * 1994-07-01 1996-01-19 Canon Inc Method of measuring three-dimensional shape and device therefor
JPH09159442A (en) * 1995-12-04 1997-06-20 Honda Motor Co Ltd Environment recognition device for vehicle
JP2003109017A (en) * 2001-09-28 2003-04-11 Hitachi Ltd Method and device for inspecting defect of contour shape
JP2007198929A (en) * 2006-01-27 2007-08-09 Hitachi Ltd In-vehicle situation detection system, in-vehicle situation detector, and in-vehicle situation detection method
JP2009146217A (en) * 2007-12-14 2009-07-02 Hitachi Ltd Stereo camera device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0814861A (en) * 1994-07-01 1996-01-19 Canon Inc Method of measuring three-dimensional shape and device therefor
JPH09159442A (en) * 1995-12-04 1997-06-20 Honda Motor Co Ltd Environment recognition device for vehicle
JP2003109017A (en) * 2001-09-28 2003-04-11 Hitachi Ltd Method and device for inspecting defect of contour shape
JP2007198929A (en) * 2006-01-27 2007-08-09 Hitachi Ltd In-vehicle situation detection system, in-vehicle situation detector, and in-vehicle situation detection method
JP2009146217A (en) * 2007-12-14 2009-07-02 Hitachi Ltd Stereo camera device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5990718A (en) * 1982-11-15 1984-05-25 Mitsubishi Electric Corp Control device for intake valve of engine
JP2011027496A (en) * 2009-07-23 2011-02-10 Konica Minolta Opto Inc Periphery display device
JP2012198077A (en) * 2011-03-18 2012-10-18 Ricoh Co Ltd Stereo camera device and parallax image generating method
WO2012147495A1 (en) * 2011-04-28 2012-11-01 三洋電機株式会社 Information acquisition device and object detection device
JP5214062B1 (en) * 2011-04-28 2013-06-19 三洋電機株式会社 Information acquisition device and object detection device
JP2012234459A (en) * 2011-05-09 2012-11-29 Suzuki Motor Corp Vehicle periphery monitoring device
JP2013206431A (en) * 2012-03-29 2013-10-07 Fujitsu Ltd Image processing device, image processing method and image processing program
JP2014222429A (en) * 2013-05-14 2014-11-27 株式会社リコー Image processor, distance measuring device, mobile object apparatus control system, mobile object, and program for image processing
JP2015021758A (en) * 2013-07-16 2015-02-02 株式会社キーエンス Three-dimensional image processor, three-dimensional image processing method, three-dimensional image processing program, computer-readable recording medium, and recording apparatus
JP2016186680A (en) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 Interactive projector and method for controlling interactive projector
WO2023100516A1 (en) * 2021-12-03 2023-06-08 株式会社日立製作所 Stereo camera, stereo camera system, and arrangement method

Also Published As

Publication number Publication date
JP5365387B2 (en) 2013-12-11

Similar Documents

Publication Publication Date Title
JP5365387B2 (en) Position detection device
US11272161B2 (en) System and methods for calibration of an array camera
JP6663040B2 (en) Depth information acquisition method and apparatus, and image acquisition device
EP1343332B1 (en) Stereoscopic image characteristics examination system
JP5293131B2 (en) Compound eye distance measuring device for vehicle and compound eye distance measuring method
JP4055998B2 (en) Distance detection device, distance detection method, and distance detection program
JP2008039491A (en) Stereo image processing apparatus
CN110580718B (en) Correction method for image device, related image device and computing device
JP6035774B2 (en) Image processing apparatus, image processing method, and vehicle
JP5828024B2 (en) 3D measuring device
CN108260360B (en) Scene depth calculation method and device and terminal
JP2003304561A (en) Stereo image processing apparatus
US11196929B2 (en) Signal processing device, imaging device, and signal processing method
TWI526993B (en) Method of image correction and image capturing device thereof
US9791599B2 (en) Image processing method and imaging device
JP2008298589A (en) Device and method for detecting positions
JP3599255B2 (en) Environment recognition device for vehicles
JP6241083B2 (en) Imaging apparatus and parallax detection method
US10726528B2 (en) Image processing apparatus and image processing method for image picked up by two cameras
JP2007122328A (en) Distortion aberration correction device and distortion aberration correction method
EP3564747A1 (en) Imaging device and imaging method
JP6680335B2 (en) Stereo camera, vehicle, calculation method and program
US20230206502A1 (en) Processing apparatus, processing method, and storage medium
JP2018200268A (en) Image recognition device
JP2018116620A (en) Image processing device, image processing system, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130826

R150 Certificate of patent or registration of utility model

Ref document number: 5365387

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250