JP2019190847A - Stereo camera device - Google Patents

Stereo camera device Download PDF

Info

Publication number
JP2019190847A
JP2019190847A JP2018080074A JP2018080074A JP2019190847A JP 2019190847 A JP2019190847 A JP 2019190847A JP 2018080074 A JP2018080074 A JP 2018080074A JP 2018080074 A JP2018080074 A JP 2018080074A JP 2019190847 A JP2019190847 A JP 2019190847A
Authority
JP
Japan
Prior art keywords
parallax
parallax offset
correction amount
feature point
offset correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018080074A
Other languages
Japanese (ja)
Other versions
JP7118717B2 (en
Inventor
琢馬 大里
Takuma Osato
琢馬 大里
青木 利幸
Toshiyuki Aoki
利幸 青木
裕史 大塚
Yasushi Otsuka
裕史 大塚
永崎 健
Takeshi Nagasaki
健 永崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2018080074A priority Critical patent/JP7118717B2/en
Priority to CN201980025213.0A priority patent/CN111989541B/en
Priority to PCT/JP2019/014916 priority patent/WO2019203001A1/en
Publication of JP2019190847A publication Critical patent/JP2019190847A/en
Application granted granted Critical
Publication of JP7118717B2 publication Critical patent/JP7118717B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication

Abstract

To provide a stereo camera device capable of reducing a calculation cost while ensuring calculation accuracy of a parallax offset.SOLUTION: A stereo camera device includes: a feature point detection unit 220 for detecting feature points of a plurality of images captured by a left camera and a right camera; a feature point tracking unit 240 for tracking the feature points between the plurality of images captured at different times in each of the left camera and the right camera; a tracking range determination unit 230 for limiting feature point tracking for the plurality of images in the feature point tracking unit 240 to a tracking range of a part of the plurality of images; and a parallax offset correction amount calculation unit 250 for calculating a parallax offset correction amount for correcting a parallax offset between the left camera and the right camera on the basis of a movement distance of a vehicle 1 between different times and a parallax about the feature points tracked by the feature point tracking unit 240.SELECTED DRAWING: Figure 4

Description

本発明は、ステレオカメラ装置に関する。   The present invention relates to a stereo camera device.

対象物の三次元位置を推定する手段として、ステレオカメラシステムが知られている。ステレオカメラシステムでは、複数の位置に配置したカメラによって同一対象物を異なる複数の視点から撮像し、複数のカメラでそれぞれ得られた複数の画像における見え方のずれ(所謂、視差)に基づいて対象物までの距離を算出する。また、ステレオカメラシステムでの対象物までの距離の算出では、視差などの情報のほかに、視差オフセットと呼ばれる視差に生じるオフセット状の誤差を考慮する。この視差オフセットは、振動や温度変化によるカメラ等の装置の歪み、ねじ締め時に発生する物理的な負荷などによって経時的に変化するため、対象物までの距離を正確に算出するためには、視差オフセットを校正する必要がある。   Stereo camera systems are known as means for estimating the three-dimensional position of an object. In a stereo camera system, the same object is imaged from a plurality of different viewpoints by cameras arranged at a plurality of positions, and the object is based on a shift in view (so-called parallax) in a plurality of images respectively obtained by the plurality of cameras. Calculate the distance to the object. In addition, in the calculation of the distance to the object in the stereo camera system, in addition to information such as parallax, an offset error that occurs in parallax called parallax offset is considered. This parallax offset changes over time due to distortions in devices such as cameras due to vibration and temperature changes, and physical loads that occur during screw tightening, so in order to accurately calculate the distance to the object, the parallax offset The offset needs to be calibrated.

車両などの移動体に搭載されるステレオカメラシステムでは、静止物を複数のカメラで撮像した画像から得られる視差に基づいて車両に対する静止物の距離変化を算出し、その距離変化と移動体の移動量とを比較することによって、距離変化と移動量が等しくなるように視差オフセットを算出する校正方法が知られている。しかしながら、この校正方法では、静止物であると判定可能な物体が撮像されたときのみ視差オフセットの算出が可能であり、視差オフセットを校正する機会を十分に確保することができない。   In a stereo camera system mounted on a moving body such as a vehicle, the distance change of the stationary object relative to the vehicle is calculated based on the parallax obtained from images obtained by capturing the still object with a plurality of cameras, and the distance change and the movement of the moving object A calibration method is known in which the parallax offset is calculated so that the distance change and the movement amount are equal by comparing the amounts. However, with this calibration method, the parallax offset can be calculated only when an object that can be determined to be a stationary object is imaged, and a sufficient opportunity to calibrate the parallax offset cannot be ensured.

そこで、視差オフセットの校正機会増加を目的とする技術として、例えば、特許文献1には、物体までの距離検出を行うステレオカメラ装置であって、前記装置は、基線長だけ離間して設置された2台のカメラと、前記2台のカメラによって取得された画像から画像上の物体までの距離を計算するための演算手段とを備え、前記演算手段は、前記2台のカメラにより取得された画像の対応点を探索し、対応点の撮像面上の位置座標の差から2つの視差を計算する画像処理手段と、少なくとも2つの時刻において前記画像処理手段により規定された前記2つの視差から前記画像全体に渡って視差オフセット値を計算するオフセット値計算手段と、前記視差オフセット値の分布を統計解析し、校正パラメータとして使用する前記視差オフセット値の最適値を決定する統計処理手段とを備える、ステレオカメラ装置が開示されている。   Therefore, as a technique for increasing the calibration opportunity of the parallax offset, for example, Patent Document 1 is a stereo camera device that detects a distance to an object, and the device is installed apart by a base line length. Two cameras, and calculation means for calculating a distance from an image acquired by the two cameras to an object on the image, wherein the calculation means is an image acquired by the two cameras. An image processing unit that searches for corresponding points of the corresponding point and calculates two parallaxes from a difference in position coordinates of the corresponding points on the imaging surface, and the image from the two parallaxes defined by the image processing unit at least at two times Offset value calculation means for calculating the parallax offset value over the whole, and the parallax offset value used as a calibration parameter by statistically analyzing the distribution of the parallax offset value And a statistical processing means for determining an optimum value, the stereo camera apparatus is disclosed.

特開2012−83330号公報JP 2012-83330 A

しかしながら、上記従来技術においては、複数のカメラで撮像した画像上で検知した特徴点の視差を用いることで移動体の移動距離を算出し、視差オフセットの校正機会を増加させようとしているものの、画像全体について特徴点を追跡して視差を取得しようとすると処理負荷が非常に高くなり、算出コストを考慮すると十分な数の特徴点について視差の取得ができないことが考えられる。また、画像上での特徴点の検知が必ずしも正確に行えるわけではないため、画像上の似た点を特徴点として誤追跡してしまうことで、誤った視差オフセットを算出してしまうことも考えられる。   However, in the above-described prior art, although the moving distance of the moving object is calculated by using the parallax of the feature points detected on the images captured by a plurality of cameras, the opportunity to calibrate the parallax offset is increased. If it is attempted to acquire parallax by tracking feature points as a whole, the processing load becomes very high, and it is considered that parallax cannot be acquired for a sufficient number of feature points considering the calculation cost. In addition, since feature points on an image cannot always be detected accurately, it may be possible to calculate an incorrect parallax offset by mistracking similar points on the image as feature points. It is done.

本発明は上記に鑑みてなされたものであり、視差オフセットの算出精度を確保しつつ、算出コストを低減することができるステレオカメラ装置を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a stereo camera device capable of reducing the calculation cost while ensuring the calculation accuracy of the parallax offset.

本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、車両に配置された複数の撮像部を有する撮像装置と、前記複数の撮像部の間の視差オフセットを補正するための視差オフセット補正量を用い、前記複数の撮像部でそれぞれ撮像された複数の画像に基づいて視差画像を生成する視差画像生成部、及び、前記視差画像に基づいて前記複数の撮像部に対する対象物の相対位置を算出する相対位置算出部を有する画像処理装置とを備えたステレオカメラ装置において、前記画像処理装置は、前記複数の撮像部でそれぞれ撮像された前記複数の画像の特徴点を検出する特徴点検出部と、前記複数の撮像部のそれぞれにおいて異なる時刻に撮像された前記複数の画像の間で前記特徴点を追跡する特徴点追跡部と、前記特徴点追跡部における前記複数の画像に対する前記特徴点の追跡を前記複数の画像の一部の追跡範囲に制限する追跡範囲決定部と、前記異なる時刻の間における前記車両の移動距離と前記特徴点追跡部で追跡した特徴点についての視差とに基づいて、前記複数の撮像部の間の視差オフセットを補正するための視差オフセット補正量を算出する視差オフセット補正量算出部とを備えたものとする。   The present application includes a plurality of means for solving the above-described problems. To give an example, a parallax offset between an imaging device having a plurality of imaging units arranged in a vehicle and the plurality of imaging units is corrected. A parallax image generating unit that generates a parallax image based on a plurality of images respectively captured by the plurality of imaging units, and a target for the plurality of imaging units based on the parallax image In a stereo camera device comprising an image processing device having a relative position calculation unit for calculating a relative position of an object, the image processing device detects feature points of the plurality of images respectively captured by the plurality of imaging units. A feature point detecting unit, a feature point tracking unit that tracks the feature point between the plurality of images captured at different times in each of the plurality of imaging units, and the feature point A tracking range determining unit that limits tracking of the feature points for the plurality of images in a trace unit to a tracking range of a part of the plurality of images, and a moving distance of the vehicle between the different times and the feature point tracking unit. A parallax offset correction amount calculation unit that calculates a parallax offset correction amount for correcting a parallax offset between the plurality of imaging units based on the parallax with respect to the tracked feature point is provided.

本発明によれば、視差オフセットの算出精度を確保しつつ、算出コストを低減することができる。   According to the present invention, it is possible to reduce the calculation cost while ensuring the calculation accuracy of the parallax offset.

第1の実施の形態に係る本実施の形態に係るステレオカメラ装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the stereo camera apparatus which concerns on this Embodiment which concerns on 1st Embodiment. 第1の実施の形態に係る画像処理装置の処理機能を関連構成とともに抜き出して示す機能ブロック図である。It is a functional block diagram which extracts and shows the processing function of the image processing apparatus which concerns on 1st Embodiment with a related structure. 視差オフセット補正量算出処理の基本原理を説明する図である。It is a figure explaining the basic principle of parallax offset correction amount calculation processing. 視差オフセット補正部の処理機能を示す機能ブロック図である。It is a functional block diagram which shows the processing function of a parallax offset correction | amendment part. 特徴点検出領域決定部の処理機能を示す機能ブロック図である。It is a functional block diagram which shows the processing function of the feature point detection area | region determination part. 特徴点検出領域決定部で排除の対象となる画像中の領域の一例を説明する図である。It is a figure explaining an example of the area | region in the image used as the object of exclusion by the feature point detection area determination part. 特徴点検出領域決定部で排除の対象となる画像中の領域の一例を説明する図であり、視差未算出領域排除部で排除の対象となる領域の一例を示す図である。It is a figure explaining an example of the area | region in the image used as the exclusion object by the feature point detection area | region determination part, and is a figure which shows an example of the area | region excluded by the parallax non-calculation area | region exclusion part. 特徴点検出領域決定部で排除の対象となる画像中の領域の一例を説明する図であり、視差不安定領域排除部で排除の対象となる領域の一例を示す図である。It is a figure explaining an example of the area | region in the image used as the exclusion object by a feature point detection area determination part, and is a figure which shows an example of the area | region excluded from by a parallax unstable area removal part. 特徴点検出領域決定部で排除の対象となる画像中の領域の一例を説明する図であり、特定物体領域排除部で排除の対象となる領域の一例を示す図である。It is a figure explaining an example of the area | region in the image used as the exclusion object by the feature point detection area determination part, and is a figure which shows an example of the area | region excluded from by a specific object area | region exclusion part. 追跡範囲決定部の処理機能を示す機能ブロック図である。It is a functional block diagram which shows the processing function of a tracking range determination part. 特徴点追跡部による特徴点の追跡の様子を示す図である。It is a figure which shows the mode of the tracking of the feature point by the feature point tracking part. 特徴点追跡部による特徴点の追跡の様子を示す図である。It is a figure which shows the mode of the tracking of the feature point by the feature point tracking part. 撮像予想領域算出部における撮像予想領域(探索範囲)の算出方法の一例を模式的に示す図である。It is a figure which shows typically an example of the calculation method of the imaging expected area (search range) in an imaging expected area calculation part. 撮像予想領域算出部における撮像予想領域(探索範囲)の算出方法の一例を模式的に示す図である。It is a figure which shows typically an example of the calculation method of the imaging expected area (search range) in an imaging expected area calculation part. 第2の実施の形態に係る視差オフセット補正部の処理機能を示す機能ブロック図である。It is a functional block diagram which shows the processing function of the parallax offset correction | amendment part which concerns on 2nd Embodiment. 第2の実施の形態に係る視差オフセット算出判定部の処理機能を示す機能ブロック図である。It is a functional block diagram which shows the processing function of the parallax offset calculation determination part which concerns on 2nd Embodiment. 視差オフセット補正量算出判定部において視差オフセット補正量算出処理を実行しないと判定する場合の条件の一覧を示す図である。It is a figure which shows the list of conditions in the case where it determines with a parallax offset correction amount calculation determination part not performing a parallax offset correction amount calculation process. 第3の実施の形態に係る視差オフセット補正量算出判定部の処理機能を示す機能ブロック図である。It is a functional block diagram which shows the processing function of the parallax offset correction amount calculation determination part which concerns on 3rd Embodiment.

以下、本発明の実施の形態について図面を参照しつつ説明する。   Embodiments of the present invention will be described below with reference to the drawings.

<第1の実施の形態>
本発明の第1の実施の形態を図1〜図14を参照しつつ説明する。
<First Embodiment>
A first embodiment of the present invention will be described with reference to FIGS.

図1は、本実施の形態に係るステレオカメラ装置のハードウェア構成を示す図である。   FIG. 1 is a diagram illustrating a hardware configuration of the stereo camera device according to the present embodiment.

図1において、ステレオカメラ装置100は、左カメラ111及び右カメラ112の左右一対のカメラ(撮像部)を有するステレオカメラ110(撮像装置)と、記憶装置であるリードオンリーメモリ(ROM)やランダムアクセスメモリ(RAM)などのメモリ130とプロセッサである中央処理装置(CPU)140とから構成される画像処理装置120と、ステレオカメラ装置100と外部のセンサ類や他の装置などの外部装置160との間でCAN(Control Area Network)通信などにより通信を行うためのインタフェース150とを備えており、ステレオカメラ110、画像処理装置120、及び、インタフェース150は、互いに情報の授受を行うための通信路であるバスライン100aにより接続されている。   In FIG. 1, a stereo camera device 100 includes a stereo camera 110 (imaging device) having a pair of left and right cameras (imaging units) of a left camera 111 and a right camera 112, a read-only memory (ROM) that is a storage device, and random access. An image processing apparatus 120 including a memory 130 such as a memory (RAM) and a central processing unit (CPU) 140 that is a processor, and a stereo camera apparatus 100 and an external apparatus 160 such as an external sensor or other apparatus. And an interface 150 for performing communication by CAN (Control Area Network) communication between the stereo camera 110, the image processing apparatus 120, and the interface 150 on a communication path for exchanging information with each other. They are connected by a certain bus line 100a.

本実施の形態においては、ステレオカメラ装置100は自動車などの車両1(図3等参照)に搭載される車載ステレオカメラ装置であり、外部装置160としては、アクセルの開度(すなわち、スロットル開度)、ブレーキの操作量(すなわち、ブレーキペダルの操作量)、ステアリングの操舵角、車速、加速度、温度、湿度などを検出する各種センサ類のほか、車両1の各種動作を制御するECU(Electronic Control Unit)などがある。なお、インタフェース150を介して取得する各種情報は、CAN通信路(CANバス)上を流れるエンジン回転や、車速、車輪速、操舵角、スロットル開度などの種々の情報であっても良く、例えば、ECUが車輪の回転数を検出するセンサなどで得られた情報から車速を演算してCAN通信路に流した結果を取得しても良い。また、画像処理装置120には、図示しないが、例えば、基板上に配置される素子としてのメモリ130やCPU140等の温度を検出する素子温度センサが設けられている。   In the present embodiment, the stereo camera device 100 is an in-vehicle stereo camera device mounted on a vehicle 1 such as an automobile (see FIG. 3 and the like), and the external device 160 includes an accelerator opening (that is, a throttle opening). ), Brake operation amount (ie, brake pedal operation amount), steering angle, vehicle speed, acceleration, temperature, humidity, and other sensors, as well as ECU (Electronic Control) that controls various operations of the vehicle 1 Unit). The various information acquired via the interface 150 may be various information such as engine rotation flowing on the CAN communication path (CAN bus), vehicle speed, wheel speed, steering angle, throttle opening, and the like. The ECU may calculate the vehicle speed from information obtained by a sensor or the like that detects the rotational speed of the wheel, and obtain the result of flowing through the CAN communication path. In addition, although not shown, the image processing apparatus 120 is provided with an element temperature sensor that detects the temperature of the memory 130, the CPU 140, and the like as elements disposed on the substrate, for example.

メモリ130は、画像処理装置における各種処理に用いる制御プログラムと各種情報とが記憶された記録媒体である。CPU140は、メモリ130に記憶された制御プログラムに従ってインタフェース150を介して取り入れた信号に対して所定の演算処理を行い、立体物や路面の検知、対象物2(図3参照)の位置(対象物2までの距離や方向)の算出等を行う。CPU140による演算結果は、インタフェース150を介して外部装置160(ECUなど)に出力され、アクセルやブレーキ、ステアリングなど車両1の各種動作の判断や制御に用いられる。なお、画像処理装置120のメモリ130(記憶装置)としてROM及びRAMという半導体メモリを例示したが、記憶装置であれば特に代替可能であり、例えばハードディスクドライブ等の磁気記憶装置としても良い。   The memory 130 is a recording medium in which a control program used for various processes in the image processing apparatus and various types of information are stored. The CPU 140 performs predetermined arithmetic processing on a signal taken in via the interface 150 in accordance with a control program stored in the memory 130, detects a three-dimensional object or a road surface, and a position of the object 2 (see FIG. 3) (object). (Distance and direction up to 2) are calculated. A calculation result by the CPU 140 is output to an external device 160 (ECU or the like) via the interface 150, and is used for determination and control of various operations of the vehicle 1 such as an accelerator, a brake, and a steering. The semiconductor memory such as ROM and RAM has been exemplified as the memory 130 (storage device) of the image processing apparatus 120. However, any other storage device may be used, for example, a magnetic storage device such as a hard disk drive.

ステレオカメラ110が有する複数(本実施の形態では2台)のカメラ(左カメラ111及び右カメラ112)は、互いの光軸が平行となるように所定の光軸間隔(基線長)で配置されており、それぞれ、CCDやCMOSなどのイメージセンサや光学レンズなどにより構成されている。ステレオカメラ110は、車載ステレオカメラであり、左カメラ111及び右カメラ112によって車両1の前方が撮像されるように配置される。   A plurality of (two in this embodiment) cameras (the left camera 111 and the right camera 112) of the stereo camera 110 are arranged at a predetermined optical axis interval (base line length) so that their optical axes are parallel to each other. Each is constituted by an image sensor such as a CCD or CMOS, an optical lens, or the like. The stereo camera 110 is an in-vehicle stereo camera, and is arranged so that the front of the vehicle 1 is imaged by the left camera 111 and the right camera 112.

図2は、本実施の形態に係る画像処理装置の処理機能を関連構成とともに抜き出して示す機能ブロック図である。   FIG. 2 is a functional block diagram showing extracted processing functions of the image processing apparatus according to the present embodiment together with related components.

図2において、画像処理装置120は、ステレオカメラ110の左カメラ111及び右カメラ112の視差における誤差(以降、視差オフセットと称する)を補正するための補正量(視差オフセット補正量)を算出して出力する視差オフセット補正部121と、左カメラ111及び右カメラ112でそれぞれ撮像された複数の画像に基づいて、視差オフセット補正量を用いて視差画像(視差を画素値とした画像)を生成する視差画像生成部122と、視差画像生成部122で生成された視差画像に基づいてステレオカメラ110に対する対象物2の相対位置(対象物2までの距離や方向)を算出する距離算出部123(相対位置算出部)とを有している。距離算出部123で算出された対象物2の相対位置(対象物2までの距離や方向)は、インタフェース150を介して外部装置160に送られるほか、画像処理装置120のメモリ130等に記憶される。   In FIG. 2, the image processing apparatus 120 calculates a correction amount (parallax offset correction amount) for correcting an error in parallax between the left camera 111 and the right camera 112 of the stereo camera 110 (hereinafter referred to as parallax offset). Parallax for generating a parallax image (an image with parallax as a pixel value) using a parallax offset correction amount based on the parallax offset correction unit 121 to be output and a plurality of images captured by the left camera 111 and the right camera 112, respectively. The image generation unit 122 and a distance calculation unit 123 (relative position) that calculates the relative position of the object 2 with respect to the stereo camera 110 (distance and direction to the object 2) based on the parallax image generated by the parallax image generation unit 122 Calculation unit). The relative position (distance and direction to the object 2) of the object 2 calculated by the distance calculation unit 123 is sent to the external device 160 via the interface 150, and is also stored in the memory 130 of the image processing apparatus 120. The

視差オフセットとは、視差に生じるオフセット状の誤差である。視差オフセットの値はステレオカメラ110を構成する左カメラ111及び右カメラ112の設置位置によって予め決定されるが、設置後に生じる振動や温度変化による装置の歪み、ねじ締め時に発生する物理的な負荷などによって経時的に変化する。本実施の形態に係る視差オフセット補正部121では、視差オフセットの値を適切に補正するための視差オフセット補正量を視差オフセットの経時的変化に応じて算出する。視差画像生成部122では、左カメラ111及び右カメラ112で得られた画像に基づく視差を視差オフセット補正部121で算出された視差オフセット補正量を用いて補正することで視差画像を生成することにより、視差画像の精度を向上させる。したがって、視差画像の精度が向上することにより、距離算出部123で視差画像を用いて距離を算出する際の誤差の発生を抑制することができるので、対象物の三次元位置を正確に推定することができる。   The parallax offset is an offset error that occurs in the parallax. The value of the parallax offset is determined in advance depending on the installation positions of the left camera 111 and the right camera 112 constituting the stereo camera 110, but the device is distorted due to vibrations and temperature changes that occur after installation, the physical load generated during screw tightening, etc. Changes over time. In the parallax offset correction unit 121 according to the present embodiment, a parallax offset correction amount for appropriately correcting the parallax offset value is calculated according to the temporal change of the parallax offset. The parallax image generation unit 122 generates a parallax image by correcting the parallax based on the images obtained by the left camera 111 and the right camera 112 using the parallax offset correction amount calculated by the parallax offset correction unit 121. , Improve the accuracy of parallax images. Therefore, since the accuracy of the parallax image is improved, the occurrence of an error when the distance calculation unit 123 calculates the distance using the parallax image can be suppressed, so that the three-dimensional position of the object is accurately estimated. be able to.

ここで、本実施の形態における視差オフセット補正量を算出する処理(以降、視差オフセット補正量算出処理と称する)の基本原理について図3を参照しつつ説明する。   Here, the basic principle of the process of calculating the parallax offset correction amount (hereinafter referred to as the parallax offset correction amount calculation process) in the present embodiment will be described with reference to FIG.

図3は、視差オフセット補正量算出処理の基本原理を説明する図である。   FIG. 3 is a diagram for explaining the basic principle of the parallax offset correction amount calculation processing.

図3においては、本実施の形態のステレオカメラ装置100が搭載される車両1の時刻t1における位置s1と対象物(静止物体)との距離をL1、時刻t2における位置s2と対象物(静止物体)との距離を距離L2とし、時刻t1における車両1の位置s1と時刻t2における車両1の位置s2の距離を移動量dzとしている。なお、ステレオカメラ装置100の車両1に対する相対位置(取付位置)は既知であるため、ステレオカメラ110から対象物2までの距離と車両1から対象物2までの距離とは実質的に同じものとして考える。   In FIG. 3, the distance between the position s1 and the target object (stationary object) at time t1 of the vehicle 1 on which the stereo camera device 100 of the present embodiment is mounted is L1, and the position s2 and the target object (stationary object) at time t2. ) Is the distance L2, and the distance between the position s1 of the vehicle 1 at time t1 and the position s2 of the vehicle 1 at time t2 is the movement amount dz. Since the relative position (attachment position) of the stereo camera device 100 to the vehicle 1 is known, the distance from the stereo camera 110 to the object 2 and the distance from the vehicle 1 to the object 2 are substantially the same. Think.

本実施の形態のように2台のカメラ(左カメラ111及び右カメラ112)を用いるステレオカメラ装置100では、ステレオカメラ110(又は車両1)から対象物までの距離Z[mm]は、下記の(式1)により表される。   In the stereo camera device 100 using two cameras (the left camera 111 and the right camera 112) as in the present embodiment, the distance Z [mm] from the stereo camera 110 (or the vehicle 1) to the object is as follows: It is represented by (Formula 1).

Figure 2019190847
Figure 2019190847


上記の(式1)において、f[mm]は左カメラ111及び右カメラ112の焦点距離、wi[mm/px]は画素ピッチ、B[mm]は左カメラ111と右カメラ112の光軸間距離(すなわち、基線長)、d[mm]は視差、ε[px]は視差オフセットをそれぞれ表している。

In the above (Formula 1), f [mm] is the focal length of the left camera 111 and the right camera 112, wi [mm / px] is the pixel pitch, and B [mm] is the distance between the optical axes of the left camera 111 and the right camera 112. Distance (ie, baseline length), d [mm] represents parallax, and ε [px] represents parallax offset.

車両1などの移動体に搭載されたステレオカメラ装置100では、静止している対象物2(静止物体)の視差に基づいて移動する車両1から対象物2までの距離を算出し、この距離の所定時間における変化(すなわち、対象物の視差に基づく車両1の移動距離)と車両1の移動量(視差以外の情報から得られる車両1の移動距離)とを比較して車両1から対象物2までの距離変化と車両1の移動量とが等しくなるように視差オフセットを選ぶことで、ステレオカメラ110の視差オフセットを推定することができる。すなわち、この視差オフセットをキャンセルするように視差オフセット補正量を算出すことにより、視差画像生成部122で生成される視差画像の精度を向上させ、距離算出部123で距離を算出する際の誤差の発生を抑制することができる。   The stereo camera device 100 mounted on a moving body such as the vehicle 1 calculates the distance from the moving vehicle 1 to the target object 2 based on the parallax of the stationary target object 2 (stationary object). The change in the predetermined time (that is, the movement distance of the vehicle 1 based on the parallax of the object) and the movement amount of the vehicle 1 (movement distance of the vehicle 1 obtained from information other than the parallax) are compared with each other from the vehicle 1 to the object 2. The parallax offset of the stereo camera 110 can be estimated by selecting the parallax offset so that the change in the distance to the vehicle and the amount of movement of the vehicle 1 are equal. That is, by calculating the parallax offset correction amount so as to cancel the parallax offset, the accuracy of the parallax image generated by the parallax image generation unit 122 is improved, and the error in calculating the distance by the distance calculation unit 123 is reduced. Occurrence can be suppressed.

図3に示した複数(本実施の形態では2つ)の異なる時刻(時刻t1,時刻t2)における視差をそれぞれ視差d1[px],視差d2[px]とすれば、視差から算出された車両1から対象物2までの距離変化と車両1の移動量とは下記の(式2)を満たす。   If the parallaxes at a plurality of (two in the present embodiment) different times (time t1, time t2) shown in FIG. 3 are parallax d1 [px] and parallax d2 [px], respectively, the vehicle calculated from the parallax The change in distance from 1 to the object 2 and the amount of movement of the vehicle 1 satisfy the following (Equation 2).

Figure 2019190847
Figure 2019190847

上記の(式2)をε(視差オフセット)について解くことで、視差オフセットを推定することができ、この視差オフセットから視差オフセット補正量を算出する。   By solving (Equation 2) above for ε (parallax offset), the parallax offset can be estimated, and the parallax offset correction amount is calculated from this parallax offset.

図4は、視差オフセット補正部の処理機能を示す機能ブロック図である。   FIG. 4 is a functional block diagram illustrating processing functions of the parallax offset correction unit.

図4において、視差オフセット補正部121は、ステレオカメラ110の左カメラ111及び右カメラ112でそれぞれ撮像された複数の画像(ここでは、左カメラ111と右カメラ112とで同時刻に撮像された2つの画像)について、互いに対応する特徴点を検出する特徴点検出部220と、左カメラ111及び右カメラ112のそれぞれにおいて異なる時刻に撮像された複数の画像の間で特徴点を追跡する特徴点追跡部240と、特徴点追跡部240における特徴点の追跡の範囲を画像中の一部に制限する(追跡範囲を決定する)追跡範囲決定部230と、特徴点追跡部240で追跡した特徴点についての視差と、特徴点の追跡を行った異なる時刻間での車両の移動距離とに基づいて視差オフセットを算出する視差オフセット補正量算出部250と、左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれについて、特徴点検出部220で特徴点を検出する領域を画像中の一部に制限する(特徴点検出領域を決定する)特徴点検出領域決定部210とを有している。   In FIG. 4, the parallax offset correction unit 121 includes a plurality of images captured by the left camera 111 and the right camera 112 of the stereo camera 110 (here, 2 images captured by the left camera 111 and the right camera 112 at the same time). Feature point tracking unit that tracks feature points between a plurality of images captured at different times in the left camera 111 and the right camera 112 respectively. The feature point tracking unit 240, the tracking range determination unit 230 that limits the tracking range of the feature points in the feature point tracking unit 240 to a part of the image (determines the tracking range), and the feature points tracked by the feature point tracking unit 240 Parallax offset correction amount calculation to calculate the parallax offset based on the parallax of the vehicle and the movement distance of the vehicle between different times when the feature points are tracked For each of a plurality of images captured by the unit 250 and the left camera 111 and the right camera 112, the feature point detection unit 220 limits the area where the feature points are detected to a part of the image (determines the feature point detection area) And a feature point detection area determination unit 210.

図5は、特徴点検出領域決定部の処理機能を示す機能ブロック図である。   FIG. 5 is a functional block diagram illustrating processing functions of the feature point detection region determination unit.

図5において、特徴点検出領域決定部210は、ステレオカメラ110の左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれ画像について、視差の得られていない領域を排除する視差未算出領域排除部211と、左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれについて、視差の精度が低い領域を排除する視差不安定領域排除部212と、左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれについて、予め定めた特定の物体の領域を排除する特定物体領域排除部213とを有している。   In FIG. 5, the feature point detection area determination unit 210 excludes an area where parallax is not obtained for each of a plurality of images captured by the left camera 111 and the right camera 112 of the stereo camera 110. For each of a plurality of images captured by the exclusion unit 211, the left camera 111, and the right camera 112, the parallax unstable region exclusion unit 212 that excludes a region with low parallax accuracy, and the left camera 111 and the right camera 112 Each of the plurality of images includes a specific object region exclusion unit 213 that excludes a predetermined specific object region.

特徴点検出領域決定部210では、特徴点を検出すべきでない領域を排除する、逆に言えば、特徴点を検出する領域を制限する(すなわち、特徴点を検出する領域(特徴点検出領域)を決定する)ことで処理時間の短縮と精度の向上を図っている。本実施の形態では、三次元的に静止している領域の時系列的な視差変化を用いて視差オフセットの値を推定している。したがって、テクスチャがなく視差を算出できない領域や、視差の精度が低い特定のパターンの領域、移動している物体が撮像されている領域において特徴点検出を行う必要がないため、これらの領域を排除した領域を特徴点を検出する対象となる領域(特徴点検出領域)として決定することで、処理時間の短縮と精度の向上が期待できる。   The feature point detection area determination unit 210 excludes areas where feature points should not be detected. In other words, the feature point detection area determination unit 210 restricts the areas where feature points are detected (that is, areas where feature points are detected (feature point detection areas)). To reduce processing time and improve accuracy. In the present embodiment, the value of the parallax offset is estimated using a time-series parallax change in a three-dimensionally stationary region. Therefore, it is not necessary to perform feature point detection in areas where there is no texture and where parallax cannot be calculated, areas with specific patterns with low parallax accuracy, and areas where moving objects are imaged. By determining the processed region as a region for detecting feature points (feature point detection region), it is possible to expect a reduction in processing time and an improvement in accuracy.

図6〜図9は、特徴点検出領域決定部で排除の対象となる画像中の領域の一例を説明する図である。図6は、特徴点検出領域決定部で扱う画像の一例を示す図である。また図7は図6に示す画像のうち視差未算出領域排除部で排除の対象となる領域の一例を、図8は図6に示す画像のうち視差不安定領域排除部で排除の対象となる領域の一例を、図9は図6に示す画像のうち特定物体領域排除部で排除の対象となる領域の一例をそれぞれ示している。   6 to 9 are diagrams illustrating an example of an area in an image to be excluded by the feature point detection area determination unit. FIG. 6 is a diagram illustrating an example of an image handled by the feature point detection region determination unit. 7 shows an example of a region to be excluded by the parallax non-calculated region exclusion unit in the image shown in FIG. 6, and FIG. 8 shows a target to be excluded by the parallax unstable region exclusion unit in the image shown in FIG. FIG. 9 shows an example of an area, and FIG. 9 shows an example of an area to be excluded by the specific object area exclusion unit in the image shown in FIG.

図7に示すように、視差未算出領域排除部211では、画像300において視差が算出されない領域(視差未算出領域311〜313)を排除する。領域311〜313で例示した排除対象の領域は、画像300において、例えば、テクスチャがなく視差を算出できない領域である。すなわち、排除対象の領域としては、画像300中において空などが撮像された領域311や、道路などが撮像された領域311,312が考えられる。なお、視差を算出できない排除対象の領域の選択では、例えば、過去の時点で生成した視差画像において、視差の得られていない領域を選択すれば良い。また、視差を算出する際に得られる左右の画像がどれだけ一致しているかを表すマッチングコストなどの数値を利用し、一致度合いが低い点(画素)は、視差が得られていた場合であっても排除するように構成しても良い。   As illustrated in FIG. 7, the parallax non-calculated area exclusion unit 211 excludes areas where parallax is not calculated in the image 300 (parallax non-calculated areas 311 to 313). The exclusion target areas exemplified in the areas 311 to 313 are areas in the image 300 where, for example, there is no texture and parallax cannot be calculated. In other words, as the areas to be excluded, the area 311 in which the sky is captured in the image 300, and the areas 311 and 312 in which roads and the like are captured are conceivable. It should be noted that in selecting a region to be excluded from which parallax cannot be calculated, for example, in a parallax image generated at a past time point, a region where parallax is not obtained may be selected. In addition, using a numerical value such as a matching cost indicating how much the left and right images obtained when calculating the parallax match, a point (pixel) having a low degree of matching is a case where the parallax was obtained. However, it may be configured to be excluded.

図8に示すように、視差不安定領域排除部212では、画像300において視差の精度が低い可能性のある領域(視差不安定領域321)を排除する。領域321で例示した排除対象の領域は、画像300において、例えば、柵など細かい繰り返しパターンの領域321であり、視差画像の生成過程において誤った視差が算出される可能性がある。   As illustrated in FIG. 8, the parallax unstable region exclusion unit 212 excludes a region (parallax unstable region 321) that may have low parallax accuracy in the image 300. The exclusion target area exemplified in the area 321 is an area 321 having a fine repetitive pattern such as a fence in the image 300, and there is a possibility that an erroneous parallax may be calculated in the process of generating a parallax image.

図9に示すように、特定物体領域排除部213では、画像300において特定物体が撮像されている領域(特定物体領域331〜333)を排除する。ここでいう特定物体とは、静止していない可能性が高い物体のことである。すなわち、排除対象の領域としては、画像300中において、移動している可能性が高い車両が撮像された領域331,332や歩行者が撮像された領域333が考えられる。なお、領域331〜333の抽出、すなわち、車両や歩行者などの特定物体の抽出は、例えば、予め保持しているパターンとの適合率で判定を行うパターンマッチングなどの方法により行うことができる。また、上記の特定物体に限らず、例えば、他の特定の物体を検知して追跡した結果、移動していると判断された物体についても排除するようにしても良い。   As illustrated in FIG. 9, the specific object region exclusion unit 213 excludes regions (specific object regions 331 to 333) where the specific object is captured in the image 300. The specific object here is an object that is highly likely not to be stationary. That is, as the exclusion target area, areas 331 and 332 in which a vehicle that is likely to move is imaged in the image 300 and an area 333 in which a pedestrian is imaged can be considered. The extraction of the regions 331 to 333, that is, the extraction of a specific object such as a vehicle or a pedestrian, can be performed by a method such as pattern matching that performs determination based on a matching rate with a pattern that is held in advance. In addition to the specific object, for example, an object that is determined to be moving as a result of detecting and tracking another specific object may be excluded.

なお、図6〜図9においては、視差未算出領域排除部211で排除する視差が算出されない領域311〜113、視差不安定領域排除部212で排除する視差の精度が引く可能性のある領域321、及び、特定物体領域排除部213で排除する特定物体が撮像されている領域331〜333として、それぞれ、排除対象となる領域をある一定の範囲として表現して説明したが、これらの領域は複数画素が連なる領域である必要はなく、1画素単位を領域と考えて視差の有無や精度、特定物体の撮像有無などを判定し、視差未算出領域311〜113、視差不安定領域321、又は、特定物体領域331〜333の何れかであるかどうかを判定しても良い。   6 to 9, the areas 311 to 113 where the parallax excluded by the parallax uncalculated area exclusion unit 211 is not calculated, and the areas 321 where the accuracy of the parallax excluded by the parallax unstable area exclusion unit 212 may be reduced. In addition, as the areas 331 to 333 in which the specific object to be excluded by the specific object area exclusion unit 213 is imaged, the areas to be excluded are expressed as a certain range. It is not necessary to be a region where pixels are connected, and it is determined that one pixel unit is a region, whether or not there is parallax, the accuracy, the presence or absence of imaging of a specific object, etc. You may determine whether it is any of the specific object area | regions 331-333.

また、図5においては、特徴点検出領域決定部210の処理として、視差未算出領域排除部211、視差不安定領域排除部212、特定物体領域排除部213の順序で処理を行う場合を例示して説明したが、これに限られず、これらの処理機能の順番を入れ替えて特徴点検出領域決定部210を構成しても良い。   In addition, FIG. 5 illustrates a case where the processing of the feature point detection region determination unit 210 is performed in the order of the parallax non-calculated region exclusion unit 211, the parallax unstable region exclusion unit 212, and the specific object region exclusion unit 213. However, the present invention is not limited to this, and the feature point detection region determination unit 210 may be configured by changing the order of these processing functions.

特徴点検出部220は、特徴点検出領域決定部210で決定した特徴点検出領域(すなわち、例えば、画像300のうち、視差未算出領域311〜113、視差不安定領域321、及び、特定物体領域331〜333として排除した領域以外の範囲)において、1つ以上の特徴点の検出を行う。特徴点の検出方法としては、例えば、FAST(Features from Accelerated Segment Test)を用いることができる。FASTは、ある点(画素)について、その周辺画素と比べて異なる輝度を持つかどうかを高速に判定するもので、高速に特徴のある点を見つける手法として良く用いられるものである。   The feature point detection unit 220 is a feature point detection region determined by the feature point detection region determination unit 210 (that is, for example, in the image 300, the parallax uncalculated regions 311 to 113, the parallax unstable region 321 and the specific object region) One or more feature points are detected in a range other than the area excluded as 331 to 333. As a feature point detection method, for example, FAST (Features from Accelerated Segment Test) can be used. FAST is a method for quickly determining whether a certain point (pixel) has a luminance different from that of its surrounding pixels, and is often used as a method for finding a characteristic point at high speed.

図10は、追跡範囲決定部の処理機能を示す機能ブロック図である。また、図11及び図12は、特徴点追跡部による特徴点の追跡の様子を示す図である。   FIG. 10 is a functional block diagram illustrating processing functions of the tracking range determination unit. FIG. 11 and FIG. 12 are diagrams showing how feature points are tracked by the feature point tracking unit.

図11及び図12に示すように、特徴点追跡部240は、ある時刻t1における画像410で撮像された1つ以上の特徴点(ここでは、特徴点p1を例示する)に対応する点を時刻t1よりも後の他の時刻t2における画像420上で検知された複数の特徴点から探索し、探索した特徴点p2を特徴点p1と対応付けることにより、特徴点の追跡を行う。なお、本実施の形態においては、1つ以上の特徴点のうち、特徴点p1のみを例示して説明する。   As shown in FIGS. 11 and 12, the feature point tracking unit 240 sets a point corresponding to one or more feature points (here, the feature point p1 is illustrated) captured in the image 410 at a certain time t1. Search is made from a plurality of feature points detected on the image 420 at another time t2 after t1, and the feature points p2 are associated with the feature points p1 to track the feature points. Note that, in the present embodiment, only the feature point p1 among the one or more feature points will be described as an example.

特徴点追跡部240での特徴点の追跡においては、時刻t1,t2の画像410,420間で誤った特徴点を対応付けてしまった場合には、視差オフセット補正部121において、誤った視差オフセットを算出してしまう(すなわち、誤った視差オフセット補正量を算出してしまう)ことになるため、撮像時刻t1,t2の異なる画像410,420間において対応する特徴点p1,p2を精度よく追跡することが必要となる。そこで、追跡範囲決定部230では、特徴点追跡部240において追跡の対象となる特徴点の追跡の範囲を画像中の一部に制限する(追跡範囲を決定する)。これにより、特徴点追跡部240での特徴点p1の追跡を追跡範囲に絞ることにより、撮像時刻t1,t2の異なる画像410,420間における誤った特徴点との対応付けの発生を抑制することができる。また、対応する特徴点であるかどうかを判定する対象となる特徴点の数を減らすことがことから、処理時間の削減も期待できる。   In the tracking of feature points by the feature point tracking unit 240, if an incorrect feature point is associated between the images 410 and 420 at the times t1 and t2, the parallax offset correction unit 121 causes the erroneous parallax offset to be incorrect. Therefore, the corresponding feature points p1 and p2 are accurately tracked between the images 410 and 420 having different imaging times t1 and t2. It will be necessary. Therefore, the tracking range determination unit 230 limits the tracking range of the feature points to be tracked by the feature point tracking unit 240 to a part of the image (determines the tracking range). Thereby, by suppressing the tracking of the feature point p1 in the feature point tracking unit 240 to the tracking range, the occurrence of the association with the erroneous feature point between the images 410 and 420 having different imaging times t1 and t2 is suppressed. Can do. Further, since the number of feature points to be determined as to whether or not they are corresponding feature points is reduced, a reduction in processing time can be expected.

図10において、追跡範囲決定部230は、時刻t1において撮像された画像410上のある特徴点p1が時刻t2に撮像された画像420上において撮像されていると予測される位置(撮像予想位置p11)を算出する撮像予想位置算出部231と、撮像予想位置算出部231で算出された撮像予想位置p11に基づいて、時刻t2に撮像された画像420上において特徴点p1に対応する特徴点p2が撮像されていると予測される範囲(撮像予想領域411)を探索範囲として算出する撮像予想領域算出部232とを有している。   In FIG. 10, the tracking range determination unit 230 predicts that a certain feature point p1 on the image 410 captured at time t1 is captured on the image 420 captured at time t2 (imaging imaging position p11). ) And a feature point p2 corresponding to the feature point p1 on the image 420 taken at time t2 based on the expected imaging position p11 calculated by the expected imaging position calculation unit 231. And a predicted imaging region calculation unit 232 that calculates a range predicted to be captured (imaging predicted region 411) as a search range.

撮像予想位置算出部231は、時刻t1において撮像された画像410上のある特徴点p1が時刻t2に撮像された画像420上において撮像されていると予測される位置(撮像予想位置p11)を算出する。本実施の形態においては、特徴点検出領域決定部210において、3次元的に静止しているものだけを特徴点としての検出対象としているため、画像410(時刻t1)と画像420(時刻t2)間で特徴点の撮像位置が変わるのは車両1(自車)の移動が要因であると言える。   The predicted imaging position calculation unit 231 calculates a position (imaging imaging position p11) where a certain feature point p1 on the image 410 captured at time t1 is predicted to be captured on the image 420 captured at time t2. To do. In the present embodiment, since the feature point detection region determination unit 210 uses only three-dimensionally stationary objects as detection points as feature points, the image 410 (time t1) and the image 420 (time t2) It can be said that the movement of the vehicle 1 (own vehicle) is the cause of the change of the imaging position of the feature point.

したがって、時刻t1で撮像された画像410における、ある特徴点p1のカメラ座標系(例えば、ステレオカメラ装置100を基準とする座標系で、ステレオカメラ装置100の中心に原点を設定し、上方にz軸、前方にy軸、右方にx軸を設定した座標系)における3次元位置(X1,Y1,Z1)と、画像410における画像座標系(例えば、画像410,420の左下角に原点を設定し、右方向にi軸、上方向にj軸を設定した座標系)における位置(i1,j1)とから、時刻t2で撮像された画像420における画像座標系での撮像予想位置p11の位置(i2,j2)は、下記の(式3)及び(式4)で表される。   Therefore, in the image 410 captured at time t1, a camera coordinate system of a certain feature point p1 (for example, a coordinate system based on the stereo camera device 100, the origin is set at the center of the stereo camera device 100, and z 3D position (X1, Y1, Z1) in the axis, the y-axis forward, and the x-axis rightward) and the image coordinate system in the image 410 (for example, the origin at the lower left corner of the images 410, 420) The position of the expected imaging position p11 in the image coordinate system in the image 420 taken at time t2 from the position (i1, j1) in the coordinate system in which the i-axis is set in the right direction and the j-axis is set in the upward direction. (I2, j2) is expressed by the following (formula 3) and (formula 4).

Figure 2019190847
Figure 2019190847

Figure 2019190847
Figure 2019190847

上記の(式3)及び(式4)において、f[mm]は焦点距離、wi[mm/px]は画素ピッチ、v[mm/s]は外部装置160に含まれる車速センサより得られる車両1(自車)の車速をそれぞれ表している。なお、本実施の形態においては説明の簡単のため、車両1(自車)が等速度vで前進している場合を考える。   In the above (Expression 3) and (Expression 4), f [mm] is a focal length, wi [mm / px] is a pixel pitch, and v [mm / s] is a vehicle obtained from a vehicle speed sensor included in the external device 160. The vehicle speed of 1 (own vehicle) is shown. In the present embodiment, for the sake of simplicity of explanation, a case where the vehicle 1 (own vehicle) is moving forward at a constant speed v is considered.

撮像予想領域算出部232は、撮像予想位置算出部231で算出された撮像予想位置p11に基づいて、時刻t2に撮像された画像420上において特徴点p1に対応する特徴点p2が撮像されていると予測される範囲(撮像予想領域411)を探索範囲として算出する。撮像予想領域算出部232で算出された探索範囲は、追跡範囲決定部230から追跡範囲として特徴点追跡部240に出力される。   The predicted imaging region calculation unit 232 captures the feature point p2 corresponding to the feature point p1 on the image 420 captured at time t2, based on the predicted imaging position p11 calculated by the predicted imaging position calculation unit 231. And a predicted range (imaging predicted region 411) are calculated as a search range. The search range calculated by the imaging expected region calculation unit 232 is output from the tracking range determination unit 230 to the feature point tracking unit 240 as a tracking range.

この撮像予想領域411を設定して追跡範囲として出力することにより、特徴点p1が静止している場合には特徴点追跡部240において精度の良い追跡が可能となる。また、時刻t2に撮像された画像420おいて多くの検知特徴点がある場合であっても、追跡範囲を設定したことで不要な特徴点の追跡に計算コストをかけることなく範囲外として弾くことができる。この追跡範囲の設定は、特に、縞模様などの繰り返しパターン(例えば、視差不安定領域排除部212では除去対象とならなかったような繰り返しパターン)においても有効であり、似通った特徴点が画像上に複数個現れていた場合でも、静止物らしい移動をしている点だけを選んで対応付けすることが可能である。   By setting the predicted imaging region 411 and outputting it as a tracking range, the feature point tracking unit 240 can track with high accuracy when the feature point p1 is stationary. Even if there are many detected feature points in the image 420 taken at time t2, setting the tracking range allows the tracking of unnecessary feature points to be played out of the range without incurring calculation costs. Can do. This setting of the tracking range is particularly effective for a repetitive pattern such as a striped pattern (for example, a repetitive pattern that is not a removal target in the parallax unstable region removing unit 212), and similar feature points are displayed on the image. Even when a plurality of objects appear in the screen, it is possible to select and associate only points that are moving like a stationary object.

図13及び図14は、撮像予想領域算出部における撮像予想領域(探索範囲)の算出方法の一例を模式的に示す図である。   FIG. 13 and FIG. 14 are diagrams schematically illustrating an example of a method for calculating a predicted imaging region (search range) in the predicted imaging region calculation unit.

撮像予想領域算出部232において、撮像予想領域411は、例えば、画像410において、撮像予想位置算出部231で算出された撮像予想位置p11を中心とし、視差誤差による撮像位置のずれが考えられる方向と、ピッチングによる撮像位置のずれが考えられる方向とに、それらの誤差を考慮した範囲で設定する。   In the predicted imaging region calculation unit 232, the predicted imaging region 411 includes, for example, a direction in which an imaging position shift due to a parallax error is considered centering on the predicted imaging position p11 calculated by the predicted imaging position calculation unit 231 in the image 410. In a direction in which an imaging position shift due to pitching can be considered, the range is set in consideration of the error.

視差誤差は、画像410の中心から撮像予想位置p11を通るような線分に沿って発生する(すなわち、画像410の中心から放射方向に発生する)ので、この線分に沿う方向に撮像予想位置p11を中心として、画像410の中心方向と、画像410の中心とは逆方向とにそれぞれ視差誤差の発生しうる範囲を設定する。また、ピッチングは、画像410の上下方向に発生するので、撮像予想位置p11を中心として上下方向にピッチングにより発生しうる誤差の範囲を設定する。そして、視差誤差とピッチングとにより発生する誤差の範囲の両方を考慮した範囲を撮像予想領域411として設定する。このとき、撮像予想領域411は、画像410の中心から撮像予想位置p11を通るような線分に沿う2本の線分と、画像410の上下方向に延びる2本の線分とで囲まれた領域となる。   Since the parallax error occurs along a line segment that passes from the center of the image 410 through the predicted imaging position p11 (that is, occurs in the radial direction from the center of the image 410), the predicted imaging position in the direction along the line segment. A range in which a parallax error can occur is set in the center direction of the image 410 and the direction opposite to the center of the image 410 with p11 as the center. In addition, since pitching occurs in the vertical direction of the image 410, a range of errors that can be generated by pitching in the vertical direction is set around the predicted imaging position p11. Then, a range that considers both the range of errors caused by parallax errors and pitching is set as the imaging expected region 411. At this time, the predicted imaging region 411 is surrounded by two line segments that extend from the center of the image 410 along the predicted imaging position p11 and two line segments that extend in the vertical direction of the image 410. It becomes an area.

このように、誤差が大きいと考えられる視差誤差と、車載環境下では車両が加減速や微妙な凹凸上を走行することで発生するピッチングによる垂直方向の検知位置の誤差とを考慮することにより、撮像予想領域411を適切に設定することができる。   In this way, by considering the parallax error that is considered to be large and the error in the detection position in the vertical direction due to pitching that occurs when the vehicle travels on acceleration / deceleration and subtle unevenness in the in-vehicle environment, The expected imaging region 411 can be set appropriately.

なお、撮像予想位置算出部231での演算に用いる他のカメラ特性に係るパラメータ、すなわち、焦点距離f、画素ピッチwi、速度v、時刻t1,t2、時刻t1における撮像位置(i1、j1)、時刻t2における撮像位置(i2,j2)などを考慮して撮像予想領域411を設定するように構成しても良い。   It should be noted that parameters relating to other camera characteristics used for the calculation in the predicted imaging position calculation unit 231, that is, the focal length f, the pixel pitch wi, the speed v, the imaging position (i1, j1) at the time t1, t2, and the time t1, The imaging predicted area 411 may be set in consideration of the imaging position (i2, j2) at time t2.

特徴点追跡部240は、特徴点検出部220で検出された1つ以上の特徴点のそれぞれについて、追跡範囲決定部230によって設定された追跡範囲において異なる時刻に撮像された複数の画像間で対応する特徴点の探索を行う。すなわち、特徴点追跡部240では、異なる時刻に撮像された複数の画像間で対応づいた特徴点について、時系列の視差情報を算出する。   The feature point tracking unit 240 corresponds to each of one or more feature points detected by the feature point detection unit 220 between a plurality of images captured at different times in the tracking range set by the tracking range determination unit 230. Search for feature points. That is, the feature point tracking unit 240 calculates time-series disparity information for feature points associated with a plurality of images captured at different times.

視差オフセット補正量算出部250は、特徴点追跡部240で得られた特徴点の時系列の視差情報と、車両1(自車)の移動量(移動距離)とを用いて視差オフセット補正量算出処理を行い、視差オフセット補正量を算出する。なお、本実施の形態では、2つの異なる時刻について得られた視差情報を用いて視差オフセット補正量を算出する場合を例示して説明したが、例えば、時系列的に多くのデータを使うことで安定性を高めることが可能である。なお、3つ以上の異なる時刻について得られた視差情報を用いる場合には、視差オフセットを算出のための式が冗長となり一意には解けないため、最適化計算で視差オフセットを算出する。また、複数の特徴点の情報を用いて視差オフセットを算出することも考えられる。   The parallax offset correction amount calculation unit 250 calculates the parallax offset correction amount using the time-series parallax information of the feature points obtained by the feature point tracking unit 240 and the movement amount (movement distance) of the vehicle 1 (own vehicle). Processing is performed to calculate a parallax offset correction amount. In the present embodiment, the case where the parallax offset correction amount is calculated using the parallax information obtained at two different times has been described as an example, but for example, by using a lot of data in time series Stability can be increased. When using disparity information obtained at three or more different times, the equation for calculating the disparity offset is redundant and cannot be solved uniquely, so the disparity offset is calculated by optimization calculation. It is also conceivable to calculate the parallax offset using information on a plurality of feature points.

以上のように構成した本実施の形態に係る作用効果を説明する。   The operational effects according to the present embodiment configured as described above will be described.

従来技術においては、複数のカメラで撮像した画像上で検知した特徴点の視差を用いることで移動体の移動距離を算出し、視差オフセットの校正機会を増加させようとしているものの、画像全体について特徴点を追跡して視差を取得しようとすると処理負荷が非常に高くなり、算出コストを考慮すると十分な数の特徴点について視差の取得ができないことが考えられる。また、画像上での特徴点の検知が必ずしも正確に行えるわけではないため、画像上の似た点を特徴点として誤追跡してしまうことで、誤った視差オフセットを算出してしまうことも考えられる。   In the prior art, the moving distance of the moving object is calculated by using the parallax of the feature points detected on the images captured by a plurality of cameras to increase the calibration opportunity of the parallax offset. If it is attempted to acquire parallax by tracking points, the processing load becomes very high, and it is considered that parallax cannot be acquired for a sufficient number of feature points in consideration of the calculation cost. In addition, since feature points on an image cannot always be detected accurately, it may be possible to calculate an incorrect parallax offset by mistracking similar points on the image as feature points. It is done.

これに対して、本実施の形態においては、車両1に配置された複数の左カメラ111及び右カメラ112を有するステレオカメラ110と、左カメラ111及び右カメラ112の間の視差オフセットを補正するための視差オフセット補正量を用い、左カメラ111及び右カメラ112でそれぞれ撮像された複数の画像に基づいて視差画像を生成する視差画像生成部122、及び、視差画像に基づいて左カメラ111及び右カメラ112に対する対象物の相対位置を算出する距離算出部123を有する画像処理装置120とを備えたステレオカメラ装置100において、画像処理装置120が、左カメラ111及び右カメラ112でそれぞれ撮像された複数の画像の特徴点を検出する特徴点検出部220と、左カメラ111及び右カメラ112のそれぞれにおいて異なる時刻に撮像された複数の画像の間で特徴点を追跡する特徴点追跡部240と、特徴点追跡部240における複数の画像に対する特徴点の追跡を複数の画像の一部の追跡範囲に制限する追跡範囲決定部230と、異なる時刻の間における車両1の移動距離と特徴点追跡部240で追跡した特徴点についての視差とに基づいて、左カメラ111及び右カメラ112の間の視差オフセットを補正するための視差オフセット補正量を算出する視差オフセット補正量算出部250とを備えるように構成したので、視差オフセットの算出精度を確保しつつ、算出コストを低減することができる。   On the other hand, in the present embodiment, in order to correct the parallax offset between the left camera 111 and the right camera 112, and the stereo camera 110 having a plurality of the left camera 111 and the right camera 112 arranged in the vehicle 1. A parallax image generation unit 122 that generates a parallax image based on a plurality of images captured by the left camera 111 and the right camera 112, respectively, and the left camera 111 and the right camera based on the parallax image In the stereo camera device 100 including the image processing device 120 having the distance calculation unit 123 that calculates the relative position of the target object 112, the image processing device 120 has a plurality of images captured by the left camera 111 and the right camera 112, respectively. A feature point detection unit 220 that detects feature points of an image, a left camera 111, and a right camera 112 A feature point tracking unit 240 that tracks feature points between a plurality of images captured at different times in each case, and feature point tracking for a plurality of images in the feature point tracking unit 240 is a tracking range of a part of the plurality of images The parallax between the left camera 111 and the right camera 112 based on the tracking range determination unit 230 limited to, and the movement distance of the vehicle 1 between different times and the parallax about the feature point tracked by the feature point tracking unit 240 Since it is configured to include the parallax offset correction amount calculation unit 250 that calculates the parallax offset correction amount for correcting the offset, the calculation cost can be reduced while ensuring the calculation accuracy of the parallax offset.

すなわち、本実施の形態においては、追跡範囲決定部230において、特徴点追跡部240における複数の画像に対する特徴点の追跡を複数の画像の一部の追跡範囲(探索範囲)に制限するように構成したので、追跡対象の特徴点を他の特徴点と誤って対応付けてしまう可能性を抑制することにより、視差オフセットの算出精度を確保することができ、また、特徴点の追跡範囲を画像の一部に制限することによって、特徴点の対応の判定に係る処理量を低減することができ、算出コストを低減することができる。   That is, in the present embodiment, the tracking range determination unit 230 is configured to limit the tracking of feature points for a plurality of images in the feature point tracking unit 240 to a tracking range (search range) of a part of the plurality of images. Therefore, by suppressing the possibility that the feature point of the tracking target is erroneously associated with other feature points, the calculation accuracy of the parallax offset can be ensured, and the tracking range of the feature points can be By limiting to a part, it is possible to reduce the amount of processing related to the feature point correspondence determination, and to reduce the calculation cost.

また、追跡範囲決定部230においては、特に誤差の大きいと考えられる視差オフセットと車両のピッチング量とに基づいて追跡範囲を決定するように構成したので、より精度良く追跡範囲を決定することができ、視差オフセットの算出精度を確保することができる。   In addition, since the tracking range determination unit 230 is configured to determine the tracking range based on the parallax offset that is considered to have a particularly large error and the pitching amount of the vehicle, the tracking range can be determined with higher accuracy. Thus, the calculation accuracy of the parallax offset can be ensured.

また、特徴点検出領域決定部210においては、左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれについて、特徴点検出部220で特徴点を検出する領域を画像中の一部に制限した特徴点検出領域を決定するように構成したので、特徴点を検出すべきでない領域を排除することで処理時間の短縮と精度の向上を図ることができる。   In addition, in the feature point detection area determination unit 210, for each of the plurality of images captured by the left camera 111 and the right camera 112, the area where the feature point detection unit 220 detects the feature point is limited to a part of the image. Since the feature point detection region is determined, the processing time can be shortened and the accuracy can be improved by eliminating the region where the feature point should not be detected.

また、特徴点検出領域決定部210では、視差未算出領域排除部211において、左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれについて、視差の得られていない領域を排除するように構成したので、テクスチャがなく視差を算出できない領域を排除することができ、処理時間の短縮と精度の向上を図ることができる。   In addition, the feature point detection region determination unit 210 excludes a region where parallax is not obtained from each of the plurality of images captured by the left camera 111 and the right camera 112 in the parallax uncalculated region exclusion unit 211. Since it is configured, it is possible to eliminate an area where there is no texture and where the parallax cannot be calculated, and it is possible to reduce processing time and improve accuracy.

また、特徴点検出領域決定部210では、視差不安定領域排除部212において、左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれについて、視差の精度が低い領域を排除するように構成したので、視差の精度が低い特定のパターンの領域を排除することができ、処理時間の短縮と精度の向上を図ることができる。   Further, the feature point detection region determination unit 210 is configured to exclude a region with low parallax accuracy for each of a plurality of images captured by the left camera 111 and the right camera 112 in the parallax unstable region exclusion unit 212. Therefore, it is possible to eliminate a specific pattern region with low parallax accuracy, and to shorten processing time and improve accuracy.

また、特徴点検出領域決定部210では、特定物体領域排除部213において、左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれについて、予め定めた特定の物体の領域を排除するように構成したので、移動している物体が撮像されている領域を排除することができ、処理時間の短縮と精度の向上を図ることができる。   Further, in the feature point detection region determination unit 210, the specific object region exclusion unit 213 excludes a predetermined specific object region for each of the plurality of images captured by the left camera 111 and the right camera 112. Since it is configured, it is possible to eliminate the area where the moving object is imaged, and it is possible to shorten the processing time and improve the accuracy.

<第2の実施の形態>
本発明の第2の実施の形態を図15及び図16を参照しつつ説明する。本実施の形態では、第1の実施の形態との相違点についてのみ説明するものとし、本実施の形態で用いる図面において第1の実施の形態と同様の部材には同じ符号を付し、説明を省略する。
<Second Embodiment>
A second embodiment of the present invention will be described with reference to FIGS. In the present embodiment, only differences from the first embodiment will be described. In the drawings used in the present embodiment, the same members as those in the first embodiment are denoted by the same reference numerals and described. Is omitted.

本実施の形態は、視差オフセット補正量を精度良く算出可能な状態であるかに基づいて、視差オフセット補正量の算出(視差オフセット補正量算出処理)を行うかどうかを判定する視差オフセット補正量算出判定部610を備えた場合を示すものである。本実施の形態において、視差オフセット補正量を精度良く求めるためには、視差オフセット補正量の算出に用いるパラメータである自車の移動量と視差を精度良く求めること、及び、仮定としている静止している点の視差だけを用いること、の2点の条件を満たすことが重要である。そこで、この2点の条件を満たさないと考えられるシーンにおいては、視差オフセット補正量算出処理を実行しないことを視差オフセット補正量算出判定部610で簡易的に判定することにより、視差オフセット補正量の精度を確保することができる。   In the present embodiment, the parallax offset correction amount calculation for determining whether to calculate the parallax offset correction amount (parallax offset correction amount calculation processing) based on whether the parallax offset correction amount can be accurately calculated. The case where the determination part 610 is provided is shown. In the present embodiment, in order to obtain the parallax offset correction amount with high accuracy, the movement amount and parallax of the vehicle, which are parameters used for calculating the parallax offset correction amount, are obtained with high accuracy, and the assumed stationary state is obtained. It is important to satisfy the two conditions of using only the parallax of a certain point. Therefore, in a scene that is considered not to satisfy these two conditions, the parallax offset correction amount calculation determination unit 610 simply determines that the parallax offset correction amount calculation processing is not performed, thereby reducing the parallax offset correction amount. Accuracy can be ensured.

図15は、本実施の形態に係る視差オフセット補正部の処理機能を示す機能ブロック図である。   FIG. 15 is a functional block diagram showing processing functions of the parallax offset correction unit according to the present embodiment.

図15において、本実施の形態における視差オフセット補正部121Aは、所定の条件に基づいて、視差オフセットを算出するかどうかを判定する視差オフセット補正量算出判定部610と、視差オフセット補正量算出判定部610で視差オフセットを算出すると判定した場合に、ステレオカメラ110の左カメラ111及び右カメラ112でそれぞれ撮像された複数の画像(ここでは、左カメラ111と右カメラ112とで同時刻に撮像された2つの画像)について、互いに対応する特徴点を検出する特徴点検出部220と、左カメラ111及び右カメラ112のそれぞれにおいて異なる時刻に撮像された複数の画像の間で特徴点を追跡する特徴点追跡部240と、特徴点追跡部240における特徴点の追跡の範囲を画像中の一部に制限する(追跡範囲を決定する)追跡範囲決定部230と、特徴点追跡部240で追跡した特徴点についての視差と、特徴点の追跡を行った異なる時刻間での車両の移動距離とに基づいて視差オフセットを算出する視差オフセット補正量算出部250と、左カメラ111及び右カメラ112で撮像された複数の画像のそれぞれについて、特徴点検出部220で特徴点を検出する領域を画像中の一部に制限する(特徴点検出領域を決定する)特徴点検出領域決定部210とを有している。   In FIG. 15, the parallax offset correction unit 121A according to the present embodiment includes a parallax offset correction amount calculation determination unit 610 that determines whether to calculate a parallax offset based on a predetermined condition, and a parallax offset correction amount calculation determination unit. When it is determined that the parallax offset is calculated in 610, a plurality of images captured by the left camera 111 and the right camera 112 of the stereo camera 110 (here, the left camera 111 and the right camera 112 were captured at the same time). Feature points that track feature points between a plurality of images taken at different times in the left camera 111 and the right camera 112, respectively, for the feature points detection unit 220 that detects feature points corresponding to each other. The tracking unit 240 and the feature point tracking range in the feature point tracking unit 240 are limited to a part of the image. Disparity based on the disparity for the feature point tracked by the tracking range determination unit 230 (which determines the tracking range) and the feature point tracking unit 240, and the moving distance of the vehicle between different times when the feature point was tracked For each of a plurality of images captured by the parallax offset correction amount calculation unit 250 that calculates the offset and the left camera 111 and the right camera 112, a region where the feature point detection unit 220 detects the feature point is a part of the image. And a feature point detection region determination unit 210 for limiting (determining a feature point detection region).

図16は、視差オフセット算出判定部の処理機能を示す機能ブロック図である。   FIG. 16 is a functional block diagram illustrating processing functions of the parallax offset calculation determination unit.

図16において、視差オフセット補正量算出判定部610は、車両1(自車)の速度に基づいて視差オフセット補正量の算出を行うかどうかを判定する速度判定部611と、車両1(自車)の加速度に基づいて視差オフセット補正量の算出を行うかどうかを判定する加速度判定部612と、車両1(自車)が直進しているかどうかに基づいて視差オフセット補正量の算出を行うかどうかを判定する直進判定部613と、視差オフセット補正量を算出してよいシーンであるかどうかに基づいて、視差オフセット補正量の算出を行うかどうかを判定するシーン判定部614とを有している。判定部611〜614の少なくとも何れか1つにおいて視差オフセット補正量算出処理を実行しないと判定した場合は、視差オフセット補正量算出判定部610での判定結果として、視差オフセット補正量算出処理を実行しないとする判定結果を特徴点検出領域決定部210に出力し、特徴点検出領域決定部210の処理に連なる視差オフセット算出処理の一連の処理を実行しない。   In FIG. 16, a parallax offset correction amount calculation determination unit 610 and a speed determination unit 611 that determine whether to calculate a parallax offset correction amount based on the speed of the vehicle 1 (own vehicle) and the vehicle 1 (own vehicle). An acceleration determination unit 612 that determines whether to calculate the parallax offset correction amount based on the acceleration of the vehicle, and whether to calculate the parallax offset correction amount based on whether the vehicle 1 (own vehicle) is traveling straight ahead. It includes a straight-ahead determination unit 613 for determining, and a scene determination unit 614 for determining whether to calculate the parallax offset correction amount based on whether or not the scene is a scene for which the parallax offset correction amount can be calculated. If at least one of the determination units 611 to 614 determines not to execute the parallax offset correction amount calculation process, the parallax offset correction amount calculation process is not executed as a determination result in the parallax offset correction amount calculation determination unit 610. Is output to the feature point detection region determination unit 210, and a series of parallax offset calculation processing that is connected to the processing of the feature point detection region determination unit 210 is not executed.

速度判定部611は、車両1(自車)の速度に応じて、視差オフセット補正量を算出するかどうかを判定する。一般的に、車両に取り付けられた速度センサは低速域において誤差が大きくなる事が知られており、したがって、低速域では外部装置160に含まれる車速センサの検出値を用いて算出される車両1(自車)の移動量の誤差が大きくなると考えられる。そこで、速度判定部611では、例えば、外部装置160に含まれる車速センサによる検出値が20km/h以下の場合には、車両1(自車)の移動量に発生する誤差が許容範囲を超えると判断して、視差オフセット補正量算出処理を実行しないと判定する。   The speed determination unit 611 determines whether to calculate the parallax offset correction amount according to the speed of the vehicle 1 (own vehicle). In general, it is known that a speed sensor attached to a vehicle has a large error in a low speed range. Therefore, in the low speed range, the vehicle 1 calculated using a detection value of a vehicle speed sensor included in the external device 160. It is considered that the error of the movement amount of (own vehicle) becomes large. Therefore, in the speed determination unit 611, for example, when the detection value by the vehicle speed sensor included in the external device 160 is 20 km / h or less, an error occurring in the movement amount of the vehicle 1 (own vehicle) exceeds the allowable range. It is determined that the parallax offset correction amount calculation process is not executed.

加速度判定部612は、車両1(自車)の加速度に応じて、視差オフセット補正量を算出するかどうかを判定する。外部装置160に含まれる各種センサから得られる値は検出から画像処理装置120での受信までに時間的な遅れが発生するため、加減速時にはステレオカメラ110での撮像時刻と速度とが誤って対応付けられる可能性がある。そこで、加速度判定部612では、外部装置160に含まれる加速度センサによる検出値が予め定めた閾値以上の場合、すなわち、許容範囲以上の加減速が行われている場合には、ステレオカメラ110での撮像時刻と速度とが誤って対応付けられる可能性が許容範囲を超えると判断して、視差オフセット補正量算出処理を実行しないと判定する。このような加速度判定部612では、車両1のスリップ状態での視差オフセット補正量算出処理の実行も回避することができる。なお、加速度(加速および減速)は、速度センサの検出値の単位時間における変化量(差分値)や、或いは、外部装置160に含まれるジャイロセンサの出力を観測する事で判定するように構成しても良い。   The acceleration determination unit 612 determines whether to calculate a parallax offset correction amount according to the acceleration of the vehicle 1 (own vehicle). Since values obtained from various sensors included in the external device 160 are delayed in time from detection to reception by the image processing device 120, the time and speed of imaging with the stereo camera 110 are erroneously handled during acceleration / deceleration. There is a possibility of being attached. Therefore, in the acceleration determination unit 612, when the detection value by the acceleration sensor included in the external device 160 is equal to or greater than a predetermined threshold, that is, when acceleration / deceleration exceeding the allowable range is performed, the stereo camera 110 It is determined that the possibility that the imaging time and the speed are erroneously associated with each other exceeds the allowable range, and it is determined that the parallax offset correction amount calculation process is not executed. In such an acceleration determination unit 612, it is also possible to avoid execution of the parallax offset correction amount calculation process when the vehicle 1 is in a slip state. The acceleration (acceleration and deceleration) is determined by observing the amount of change (difference value) in the unit time of the detection value of the speed sensor or the output of the gyro sensor included in the external device 160. May be.

直進判定部613は、車両1(自車)が直進しているかどうかに基づいて、視差オフセット補正量を算出するかどうかを判定する。車両1のカーブ路走行時には、車両1の移動量の推定値の誤差が大きくなる。そこで、直進判定部613では、車両1が直進していると判断できる場合以外は、視差オフセット補正量算出処理を実行しないと判定する。なお、車両1が直進しているかどうか(カーブ走行であるかどうか)の判定は、外部装置160に含まれるナビゲーションシステム等からのGPS情報や、地図データ、操舵角やヨーレートなどを検出する車両センサからの検出値などに基づいて判定することができる。すなわち、例えば、外部装置160に含まれる操舵角センサの検出値が予め定めた範囲外である場合に、視差オフセット補正量算出処理を実行しないと判定する。   The straight traveling determination unit 613 determines whether or not to calculate the parallax offset correction amount based on whether or not the vehicle 1 (own vehicle) is traveling straight. When the vehicle 1 travels on a curved road, an error in the estimated value of the movement amount of the vehicle 1 increases. Therefore, the straight traveling determination unit 613 determines that the parallax offset correction amount calculation process is not executed unless it can be determined that the vehicle 1 is traveling straight. Whether or not the vehicle 1 is traveling straight (whether it is traveling on a curve) is determined by vehicle sensors that detect GPS information from a navigation system or the like included in the external device 160, map data, steering angle, yaw rate, and the like. It can be determined based on the detection value from That is, for example, when the detected value of the steering angle sensor included in the external device 160 is outside a predetermined range, it is determined that the parallax offset correction amount calculation process is not executed.

シーン判定部614は、視差オフセット補正量を算出してよいシーンであるかどうかに基づいて、視差オフセット補正量の算出を行うかどうかを判定する。例えば、車両1の渋滞路走行中には、ステレオカメラ110の視界の大部分において低速で動く物体が撮像されるため、静止物体と移動物体との区別が難しくなり、移動物体上で特徴点を検知してしまうことにより、誤った視差オフセット補正値を算出してしまう可能性が高くなる。そこで、シーン判定部614では、例えば、外部装置160に含まれるナビゲーションシステム等から渋滞路走行中であるかどうかの情報を取得し、渋滞路走行中である場合には、視差オフセット補正量を算出してよいシーンではないと判断して、視差オフセット補正量算出処理を実施しないと判定する。なお、同様の理由から、例えば、商店街などの人通りの多い道を走行している場合にも、視差オフセット補正量を算出してよいシーンではないと判断して、視差オフセット補正量算出処理を実施しないと判定する。   The scene determination unit 614 determines whether to calculate the parallax offset correction amount based on whether the scene is a scene for which the parallax offset correction amount may be calculated. For example, when the vehicle 1 travels on a congested road, an object moving at a low speed is imaged in most of the field of view of the stereo camera 110, so that it becomes difficult to distinguish between a stationary object and a moving object. By detecting it, the possibility of calculating an incorrect parallax offset correction value increases. In view of this, the scene determination unit 614 obtains, for example, information on whether or not the vehicle is traveling on a congested road from a navigation system or the like included in the external device 160. It is determined that the scene is not acceptable, and it is determined that the parallax offset correction amount calculation process is not performed. For the same reason, for example, even when driving on a busy road such as a shopping street, it is determined that the scene is not a scene where the parallax offset correction amount may be calculated, and the parallax offset correction amount calculation processing Is determined not to be implemented.

図17は、視差オフセット補正量算出判定部において視差オフセット補正量算出処理を実行しないと判定する場合の条件の一覧を示す図である。   FIG. 17 is a diagram illustrating a list of conditions when it is determined that the parallax offset correction amount calculation determination unit does not execute the parallax offset correction amount calculation processing.

図17から分かるように、視差オフセット補正量算出判定部610では、外部装置160に含まれる各種センサ類からの入力値や、ナビゲーションシステムからの情報をもとに視差オフセット補正量算出処理を実行するかどうかを判定するため、高速に処理を完了することができ、視差オフセット補正量算出処理を実行すべきでないシーンでは計算リソースを確保する事が可能である。   As can be seen from FIG. 17, the parallax offset correction amount calculation determination unit 610 executes parallax offset correction amount calculation processing based on input values from various sensors included in the external device 160 and information from the navigation system. Therefore, it is possible to complete the processing at a high speed, and to secure a calculation resource in a scene where the parallax offset correction amount calculation processing should not be executed.

なお、視差オフセット補正量算出判定部610における、速度判定部611、加速度判定部612、直進判定部613、及び、シーン判定部614での各判定処理は互いに独立に行うことができるので、これらの判定部611〜614のうちの一部を必要に応じて用いるように構成しても良い。例えば、低速域でも精度の良い車速センサを用いている車両1においては、速度判定部611を省略することができ、また、カーブ走行時の移動量を精度よくモデル化できるのであれば、直進判定部613を省略することができる。すなわち、視差オフセット補正量算出判定部610においては、実施時の構成要素に合わせて必要な判定だけを行うように構成すれば良い。   In addition, since each determination process in the speed determination unit 611, the acceleration determination unit 612, the straight travel determination unit 613, and the scene determination unit 614 in the parallax offset correction amount calculation determination unit 610 can be performed independently of each other, You may comprise so that some of the determination parts 611-614 may be used as needed. For example, in the vehicle 1 that uses an accurate vehicle speed sensor even in a low speed range, the speed determination unit 611 can be omitted, and if the amount of movement during curve traveling can be accurately modeled, it is determined that the vehicle travels straight. The part 613 can be omitted. That is, the parallax offset correction amount calculation determination unit 610 may be configured to perform only necessary determination according to the components at the time of implementation.

その他の構成は第1の実施の形態と同様である。   Other configurations are the same as those of the first embodiment.

以上のように構成した本実施の形態においても第1の実施の形態と同様の効果を得ることができる。   In the present embodiment configured as described above, the same effects as those of the first embodiment can be obtained.

また、本実施の形態においては、視差オフセット補正量の算出誤差が大きくなることが考えられるシーンにおいては、視差オフセット補正量算出処理を実行しないように構成したので、視差オフセット補正量の算出に適さない状態で特徴点検出などの処理を実行する事がなくなり、計算リソースを他の処理に割り当てる事ができる。また、誤った視差オフセット補正量を算出する可能性を低減することができる。   Further, in the present embodiment, in a scene where the calculation error of the parallax offset correction amount is considered to be large, the parallax offset correction amount calculation process is not executed, which is suitable for calculating the parallax offset correction amount. It is no longer necessary to execute processing such as feature point detection in a state where there is no data, and calculation resources can be allocated to other processing. In addition, the possibility of calculating an incorrect parallax offset correction amount can be reduced.

<第3の実施の形態>
本発明の第3の実施の形態を図18を参照しつつ説明する。本実施の形態では、第2の実施の形態との相違点についてのみ説明するものとし、本実施の形態で用いる図面において第2の実施の形態と同様の部材には同じ符号を付し、説明を省略する。
<Third Embodiment>
A third embodiment of the present invention will be described with reference to FIG. In the present embodiment, only differences from the second embodiment will be described. In the drawings used in the present embodiment, members similar to those of the second embodiment are denoted by the same reference numerals and described. Is omitted.

本実施の形態は、第2の実施の形態の視差オフセット補正部121Aに設けられた、視差オフセット補正量算出処理を実行しない場合を判定する視差オフセット補正量算出判定部610に代えて、視差オフセット補正量算出処理を実行する場合を判定する視差オフセット補正量算出判定部610Aを備えたものである。すなわち、本実施の形態においては、視差オフセット補正量算出判定部610Aが視差オフセット補正量算出処理を実行すると判定した場合に、視差オフセット補正部121Aは視差オフセット算出処理を実行する。したがって、本実施の形態においては、視差オフセット補正量算出処理を実行し、視差オフセット補正量を更新すべき状態であるにも関わらず、視差オフセット補正量算出処理を実施しないというケースがなくなり、適切なタイミングで視差オフセット補正量を更新する事ができる。   In the present embodiment, instead of the parallax offset correction amount calculation determination unit 610 provided in the parallax offset correction unit 121A of the second embodiment for determining when the parallax offset correction amount calculation process is not executed, the parallax offset This is provided with a parallax offset correction amount calculation determination unit 610 </ b> A that determines whether to execute the correction amount calculation processing. That is, in the present embodiment, when the parallax offset correction amount calculation determination unit 610A determines to execute the parallax offset correction amount calculation process, the parallax offset correction unit 121A executes the parallax offset calculation process. Therefore, in the present embodiment, there is no case where the parallax offset correction amount calculation process is executed and the parallax offset correction amount calculation process is not performed even though the parallax offset correction amount is to be updated. The parallax offset correction amount can be updated at a proper timing.

図18は、本実の形態に係る視差オフセット補正量算出判定部の処理機能を示す機能ブロック図である。   FIG. 18 is a functional block diagram illustrating processing functions of the parallax offset correction amount calculation determination unit according to the present embodiment.

図18において、本実施の形態における視差オフセット補正量算出判定部610Aは、ステレオカメラ110の周辺環境の変化に基づいて視差オフセット補正量の算出を行うかどうかを判定する環境変化判定部615と、前回の視差オフセット補正値算出処理の実行からの経過時間に基づいて視差オフセット補正量の算出を行うかどうかを判定する経過時間判定部616とを有している。判定部615,616の少なくとも何れか一方において視差オフセット補正量算出処理を実行すると判定した場合は、視差オフセット補正量算出判定部610Aでの判定結果として、視差オフセット補正量算出処理を実行するとする判定結果を特徴点検出領域決定部210に出力し、特徴点検出領域決定部210の処理に連なる視差オフセット算出処理の一連の処理を実行する。   In FIG. 18, the parallax offset correction amount calculation determination unit 610A in the present embodiment includes an environment change determination unit 615 that determines whether to calculate a parallax offset correction amount based on a change in the surrounding environment of the stereo camera 110, And an elapsed time determination unit 616 that determines whether to calculate a parallax offset correction amount based on the elapsed time from the previous execution of the parallax offset correction value calculation process. When it is determined that at least one of the determination units 615 and 616 executes the parallax offset correction amount calculation process, the determination that the parallax offset correction amount calculation process is executed as a determination result in the parallax offset correction amount calculation determination unit 610A The result is output to the feature point detection area determination unit 210, and a series of parallax offset calculation processes connected to the process of the feature point detection area determination unit 210 are executed.

環境変化判定部615は、ステレオカメラ110の周辺環境が、前回の視差オフセット補正量算出処理の実行時の環境と比較して大きく変化しているかどうかに基づいて、視差オフセット補正量を算出するかどうかを判定する。ステレオカメラ110の周辺環境としては、例えば、湿度や温度などがあり、温度や湿度の変化によって筐体の変形などが発生し、視差オフセットが変化している可能性が高いと考えられる場合には、急ぎこれを補正する必要がある。そこで、環境変化判定部615では、外部装置160に含まれる温度センサや湿度センサからの検出値の前回の視差オフセット補正量算出処理の実行時からの変化量が予め定めた閾値よりも大きい場合には、ステレオカメラ110の周辺環境が大きく変化したと判断して、視差オフセット補正量算出処理を実行すると判定する。   Whether the environment change determination unit 615 calculates the parallax offset correction amount based on whether the surrounding environment of the stereo camera 110 has changed significantly compared to the environment at the time of the previous parallax offset correction amount calculation process. Determine if. As the surrounding environment of the stereo camera 110, for example, there are humidity, temperature, and the like. When it is considered that there is a high possibility that the parallax offset is changed due to deformation of the housing due to changes in temperature or humidity. There is a need to urgently correct this. Therefore, in the environment change determination unit 615, when the change amount of the detection value from the temperature sensor or humidity sensor included in the external device 160 since the previous execution of the parallax offset correction amount calculation process is larger than a predetermined threshold value. Determines that the surrounding environment of the stereo camera 110 has changed significantly and determines to execute the parallax offset correction amount calculation processing.

経過時間判定部616は、前回の視差オフセット補正値算出処理の実行からの経過時間に基づいて、視差オフセット補正量を算出するかどうかを判定する。ステレオカメラ110は、経年変化などの何らかの要因で視差オフセットが変化することが考えられる。そこで、経過時間判定部616では、前回の視差オフセット補正値算出処理の実行からの経過時間が予め定めた閾値以上である場合には、視差オフセットが変化している可能性が高いと判断して、視差オフセット星量算出処理を実行すると判定する。なお、経年劣化に対応する場合には、例えば、数ヶ月の期間を閾値として設定すればよい。また、ブレーキや人の手がぶつかったことによる衝撃などに対応する場合には、数日〜数週間程度の期間を閾値として設定することで、視差オフセットがずれたまま走行するケースを防止する事ができる。   The elapsed time determination unit 616 determines whether to calculate the parallax offset correction amount based on the elapsed time from the previous execution of the parallax offset correction value calculation process. It is conceivable that the parallax offset of the stereo camera 110 changes due to some factor such as aging. Therefore, the elapsed time determination unit 616 determines that there is a high possibility that the parallax offset has changed if the elapsed time since the previous execution of the parallax offset correction value calculation process is equal to or greater than a predetermined threshold. The parallax offset star amount calculation process is determined to be executed. When dealing with aging degradation, for example, a period of several months may be set as a threshold value. In addition, when dealing with an impact caused by a collision with a brake or a person's hand, a period of several days to several weeks is set as a threshold value to prevent a case where the vehicle travels with a parallax offset shifted. Can do.

その他の構成は第1及び第2の実施の形態と同様である。   Other configurations are the same as those of the first and second embodiments.

以上のように構成した本実施の形態においても第1の実施の形態と同様の効果を得ることができる。   In the present embodiment configured as described above, the same effects as those of the first embodiment can be obtained.

また、本実施の形態においては、実際に視差オフセットを算出することなく、視差オフセット補正量を算出すべき状況を判定して処理を実行する事ができるので、通常時には視差オフセット補正量算出処理を行わない事で計算リソースを確保しつつ、必要なタイミングでは動作し、視差の精度を確保する事が可能である。   Further, in the present embodiment, it is possible to determine the situation in which the parallax offset correction amount should be calculated without actually calculating the parallax offset, and to execute the process. It is possible to ensure the accuracy of parallax by operating at a necessary timing while securing the calculation resources by not performing.

<付記>
なお、本発明は上記の実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内の様々な変形例や組み合わせが含まれる。また、本発明は、上記の実施の形態で説明した全ての構成を備えるものに限定されず、その構成の一部を削除したものも含まれる。また、上記の各構成、機能等は、それらの一部又は全部を、例えば集積回路で設計する等により実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
<Appendix>
In addition, this invention is not limited to said embodiment, Various modifications and combinations within the range which does not deviate from the summary are included. Further, the present invention is not limited to the one having all the configurations described in the above embodiment, and includes a configuration in which a part of the configuration is deleted. Moreover, you may implement | achieve part or all of said each structure, function, etc., for example by designing with an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor.

1…車両、2…対象物、100…ステレオカメラ装置、100a…バスライン、110…ステレオカメラ、111…左カメラ、112…右カメラ、113…視差未算出領域、120…画像処理装置、121,121A…視差オフセット補正部、122…視差画像生成部、123…距離算出部、130…メモリ、140…中央処理装置(CPU)、150…インタフェース、160…外部装置、210…特徴点検出領域決定部、211…視差未算出領域排除部、212…視差不安定領域排除部、213…特定物体領域排除部、220…特徴点検出部、230…追跡範囲決定部、231…撮像予想位置算出部、232…撮像予想領域算出部、240…特徴点追跡部、250…視差オフセット補正量算出部、300,410,420…画像、311…視差未算出領域、321…視差不安定領域、331…特定物体領域、332…特定物体領域、333…特定物体領域、411…撮像予想領域、610…視差オフセット補正量算出判定部、610A…視差オフセット補正量算出判定部、611…速度判定部、612…加速度判定部、613…直進判定部、614…シーン判定部、615…環境変化判定部、616…経過時間判定部   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Object, 100 ... Stereo camera apparatus, 100a ... Bus line, 110 ... Stereo camera, 111 ... Left camera, 112 ... Right camera, 113 ... Parallax uncalculated area, 120 ... Image processing apparatus, 121, 121A ... Parallax offset correction unit 122 ... Parallax image generation unit 123 ... Distance calculation unit 130 ... Memory 140 ... Central processing unit (CPU) 150 ... Interface 160 ... External device 210 ... Feature point detection region determination unit , 211... Parallax uncalculated region exclusion unit, 212. Parallax unstable region exclusion unit, 213. Specific object region exclusion unit, 220... Feature point detection unit, 230... Tracking range determination unit, 231. ... predicted imaging region calculation unit, 240 ... feature point tracking unit, 250 ... parallax offset correction amount calculation unit, 300, 410, 420 ... image, 311 Parallax uncalculated area, 321 ... parallax unstable area, 331 ... specific object area, 332 ... specific object area, 333 ... specific object area, 411 ... imaging expected area, 610 ... parallax offset correction amount calculation determination unit, 610A ... parallax offset Correction amount calculation determination unit, 611... Speed determination unit, 612... Acceleration determination unit, 613... Straight determination unit, 614 .. scene determination unit, 615 .. environmental change determination unit, 616.

Claims (13)

車両に配置された複数の撮像部を有する撮像装置と、
前記複数の撮像部の間の視差オフセットを補正するための視差オフセット補正量を用い、前記複数の撮像部でそれぞれ撮像された複数の画像に基づいて視差画像を生成する視差画像生成部、及び、前記視差画像に基づいて前記複数の撮像部に対する対象物の相対位置を算出する相対位置算出部を有する画像処理装置と
を備えたステレオカメラ装置において、
前記画像処理装置は、
前記複数の撮像部でそれぞれ撮像された前記複数の画像の特徴点を検出する特徴点検出部と、
前記複数の撮像部のそれぞれにおいて異なる時刻に撮像された前記複数の画像の間で前記特徴点を追跡する特徴点追跡部と、
前記特徴点追跡部における前記複数の画像に対する前記特徴点の追跡を前記複数の画像の一部の追跡範囲に制限する追跡範囲決定部と、
前記異なる時刻の間における前記車両の移動距離と前記特徴点追跡部で追跡した特徴点についての視差とに基づいて、前記複数の撮像部の間の視差オフセットを補正するための視差オフセット補正量を算出する視差オフセット補正量算出部と
を備えたことを特徴とするステレオカメラ装置。
An imaging device having a plurality of imaging units arranged in a vehicle;
A parallax image generation unit configured to generate a parallax image based on a plurality of images respectively captured by the plurality of imaging units using a parallax offset correction amount for correcting a parallax offset between the plurality of imaging units; and In a stereo camera device comprising: an image processing device having a relative position calculation unit that calculates a relative position of an object with respect to the plurality of imaging units based on the parallax images;
The image processing apparatus includes:
A feature point detection unit for detecting feature points of the plurality of images respectively captured by the plurality of imaging units;
A feature point tracking unit that tracks the feature points between the plurality of images captured at different times in each of the plurality of imaging units;
A tracking range determining unit that limits tracking of the feature points for the plurality of images in the feature point tracking unit to a tracking range of a part of the plurality of images;
A parallax offset correction amount for correcting a parallax offset between the plurality of imaging units based on a moving distance of the vehicle between the different times and a parallax about a feature point tracked by the feature point tracking unit. A stereo camera device comprising: a parallax offset correction amount calculation unit for calculating.
請求項1に記載のステレオカメラ装置において、
前記追跡範囲決定部は、前記視差オフセットと前記車両のピッチング量とに基づいて前記追跡範囲を決定することを特徴とするステレオカメラ装置。
The stereo camera device according to claim 1,
The tracking range determination unit determines the tracking range based on the parallax offset and the pitching amount of the vehicle.
請求項1に記載のステレオカメラ装置において、
前記複数の撮像部で撮像された複数の画像のそれぞれについて、前記特徴点検出部で前記特徴点を検出する領域を前記画像中の一部に制限した特徴点検出領域を決定する特徴点検出領域決定部をさらに備えたことを特徴とするステレオカメラ装置。
The stereo camera device according to claim 1,
For each of a plurality of images captured by the plurality of imaging units, a feature point detection region for determining a feature point detection region in which a region for detecting the feature point by the feature point detection unit is limited to a part of the image A stereo camera device further comprising a determination unit.
請求項3に記載のステレオカメラ装置において、
前記特徴点検出領域決定部は、前記複数の撮像部で撮像された複数の画像のそれぞれについて、視差の得られていない領域を排除する視差未算出領域排除部を備えたことを特徴とするステレオカメラ装置。
The stereo camera device according to claim 3,
The feature point detection area determination unit includes a parallax non-calculated area exclusion unit that excludes an area where parallax is not obtained for each of a plurality of images captured by the plurality of imaging units. Camera device.
請求項3に記載のステレオカメラ装置において、
前記特徴点検出領域決定部は、前記複数の撮像部で撮像された複数の画像のそれぞれについて、視差の精度が低い領域を排除する視差不安定領域排除部を備えたことを特徴とするステレオカメラ装置。
The stereo camera device according to claim 3,
The feature point detection region determination unit includes a parallax unstable region exclusion unit that excludes a region with low parallax accuracy for each of a plurality of images captured by the plurality of imaging units. apparatus.
請求項3に記載のステレオカメラ装置において、
前記特徴点検出領域決定部は、前記複数の撮像部で撮像された複数の画像のそれぞれについて、予め定めた特定の物体の領域を排除する特定物体領域排除部を備えたことを特徴とするステレオカメラ装置。
The stereo camera device according to claim 3,
The feature point detection region determination unit includes a specific object region exclusion unit that excludes a predetermined specific object region for each of the plurality of images captured by the plurality of imaging units. Camera device.
請求項1に記載のステレオカメラ装置において、
前記画像処理装置は、所定の条件に基づいて前記視差オフセットを算出するかどうかを判定する視差オフセット補正量算出判定部をさらに備え、
前記視差オフセット補正量算出部は、前記視差オフセット補正量算出判定部で前記視差オフセットを算出しないと判定した場合には前記視差オフセットを算出しないことを特徴とするステレオカメラ装置。
The stereo camera device according to claim 1,
The image processing apparatus further includes a parallax offset correction amount calculation determination unit that determines whether to calculate the parallax offset based on a predetermined condition,
The parallax offset correction amount calculation unit does not calculate the parallax offset when the parallax offset correction amount calculation determination unit determines not to calculate the parallax offset.
請求項7に記載のステレオカメラ装置において、
前記視差オフセット補正量算出判定部は、前記車両の速度が予め定めた閾値よりも低速である場合に前記視差オフセットを算出しないと判定することを特徴とするステレオカメラ装置。
The stereo camera device according to claim 7,
The parallax offset correction amount calculation determination unit determines that the parallax offset is not calculated when the speed of the vehicle is lower than a predetermined threshold.
請求項7に記載のステレオカメラ装置において、
前記視差オフセット補正量算出判定部は、前記車両の加速度の絶対値が予め定めた閾値以上でる場合に前記視差オフセットを算出しないと判定することを特徴とするステレオカメラ装置。
The stereo camera device according to claim 7,
The parallax offset correction amount calculation determination unit determines that the parallax offset is not calculated when the absolute value of the acceleration of the vehicle is equal to or greater than a predetermined threshold.
請求項7に記載のステレオカメラ装置において、
前記視差オフセット補正量算出判定部は、前記車両が直進していない場合に前記視差オフセットを算出しないと判定することを特徴とするステレオカメラ装置。
The stereo camera device according to claim 7,
The parallax offset correction amount calculation determination unit determines that the parallax offset is not calculated when the vehicle is not traveling straight.
請求項7に記載のステレオカメラ装置において、
前記視差オフセット補正量算出判定部は、前記複数の画像中に低速で移動する物体が多く撮像されている場合に前記視差オフセットを算出しないと判定することを特徴とするステレオカメラ装置。
The stereo camera device according to claim 7,
The parallax offset correction amount calculation determination unit determines that the parallax offset is not calculated when a large number of objects moving at low speed are captured in the plurality of images.
請求項7に記載のステレオカメラ装置において、
前記視差オフセット補正量算出判定部は、前回の視差オフセット補正量算出時からの湿度及び温度の値の変化量が予め定めた閾値以上である場合に前記視差オフセットを算出することを特徴とするステレオカメラ装置。
The stereo camera device according to claim 7,
The parallax offset correction amount calculation determination unit calculates the parallax offset when the amount of change in humidity and temperature values since a previous parallax offset correction amount calculation is equal to or greater than a predetermined threshold. Camera device.
請求項7に記載のステレオカメラ装置において、
前記視差オフセット補正量算出判定部は、前回の視差オフセット補正量算出時からの経過時間が閾値以上である場合に前記視差オフセットを算出することを特徴とするステレオカメラ装置。
The stereo camera device according to claim 7,
The parallax offset correction amount calculation determination unit calculates the parallax offset when an elapsed time from the previous parallax offset correction amount calculation is equal to or greater than a threshold.
JP2018080074A 2018-04-18 2018-04-18 Image processing device and stereo camera device Active JP7118717B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018080074A JP7118717B2 (en) 2018-04-18 2018-04-18 Image processing device and stereo camera device
CN201980025213.0A CN111989541B (en) 2018-04-18 2019-04-04 Stereo camera device
PCT/JP2019/014916 WO2019203001A1 (en) 2018-04-18 2019-04-04 Stereo camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018080074A JP7118717B2 (en) 2018-04-18 2018-04-18 Image processing device and stereo camera device

Publications (2)

Publication Number Publication Date
JP2019190847A true JP2019190847A (en) 2019-10-31
JP7118717B2 JP7118717B2 (en) 2022-08-16

Family

ID=68239556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018080074A Active JP7118717B2 (en) 2018-04-18 2018-04-18 Image processing device and stereo camera device

Country Status (3)

Country Link
JP (1) JP7118717B2 (en)
CN (1) CN111989541B (en)
WO (1) WO2019203001A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022091579A1 (en) * 2020-10-28 2022-05-05 日立Astemo株式会社 Movement amount calculation device
CN115248017A (en) * 2022-09-21 2022-10-28 江苏新恒基特种装备股份有限公司 Rapid detection method and detection system for geometric dimension of branch pipe fitting

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01188909A (en) * 1988-01-22 1989-07-28 Toyota Autom Loom Works Ltd Deciding method for traveling route of image type unmanned vehicle
JP2001169310A (en) * 1999-12-06 2001-06-22 Honda Motor Co Ltd Distance detector
JP2003329439A (en) * 2002-05-15 2003-11-19 Honda Motor Co Ltd Distance detecting device
JP2005202761A (en) * 2004-01-16 2005-07-28 Toyota Motor Corp Vehicle surrounding monitoring system
JP2007336228A (en) * 2006-06-14 2007-12-27 Canon Inc Imaging apparatus and its control method and program and storage medium
JP2009110173A (en) * 2007-10-29 2009-05-21 Fuji Heavy Ind Ltd Object detection device
WO2015049717A1 (en) * 2013-10-01 2015-04-09 株式会社日立製作所 Device for estimating position of moving body and method for estimating position of moving body

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6035620B2 (en) * 2013-07-29 2016-11-30 株式会社日立製作所 On-vehicle stereo camera system and calibration method thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01188909A (en) * 1988-01-22 1989-07-28 Toyota Autom Loom Works Ltd Deciding method for traveling route of image type unmanned vehicle
JP2001169310A (en) * 1999-12-06 2001-06-22 Honda Motor Co Ltd Distance detector
JP2003329439A (en) * 2002-05-15 2003-11-19 Honda Motor Co Ltd Distance detecting device
JP2005202761A (en) * 2004-01-16 2005-07-28 Toyota Motor Corp Vehicle surrounding monitoring system
JP2007336228A (en) * 2006-06-14 2007-12-27 Canon Inc Imaging apparatus and its control method and program and storage medium
JP2009110173A (en) * 2007-10-29 2009-05-21 Fuji Heavy Ind Ltd Object detection device
WO2015049717A1 (en) * 2013-10-01 2015-04-09 株式会社日立製作所 Device for estimating position of moving body and method for estimating position of moving body

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022091579A1 (en) * 2020-10-28 2022-05-05 日立Astemo株式会社 Movement amount calculation device
CN115248017A (en) * 2022-09-21 2022-10-28 江苏新恒基特种装备股份有限公司 Rapid detection method and detection system for geometric dimension of branch pipe fitting
CN115248017B (en) * 2022-09-21 2022-11-29 江苏新恒基特种装备股份有限公司 Rapid detection method and detection system for geometric dimension of branch pipe fitting

Also Published As

Publication number Publication date
CN111989541A (en) 2020-11-24
WO2019203001A1 (en) 2019-10-24
CN111989541B (en) 2022-06-07
JP7118717B2 (en) 2022-08-16

Similar Documents

Publication Publication Date Title
US9912933B2 (en) Road surface detection device and road surface detection system
US10795370B2 (en) Travel assist apparatus
CN110023951B (en) Information processing apparatus, image forming apparatus, device control system, information processing method, and computer-readable recording medium
JP2007263669A (en) Three-dimensional coordinates acquisition system
JP6936098B2 (en) Object estimation device
US10554951B2 (en) Method and apparatus for the autocalibration of a vehicle camera system
JP2018044880A (en) Vehicle posture estimation device
JPWO2018042954A1 (en) In-vehicle camera, adjustment method of in-vehicle camera, in-vehicle camera system
WO2019203001A1 (en) Stereo camera device
JP6564127B2 (en) VISUAL SYSTEM FOR AUTOMOBILE AND METHOD FOR CONTROLLING VISUAL SYSTEM
JP2015179066A (en) Parallax value derivation device, apparatus control system, moving body, robot, parallax value derivation method and program
JP2019212015A (en) Time synchronization device/method for vehicle data
JP5425500B2 (en) Calibration apparatus and calibration method
US10643077B2 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program
EP3051494B1 (en) Method for determining an image depth value depending on an image region, camera system and motor vehicle
JP7064400B2 (en) Object detection device
JP5193148B2 (en) Vehicle imaging device
JP7269130B2 (en) Image processing device
JP2018036225A (en) State estimation device
JP2018120303A (en) Object detection device
WO2020036039A1 (en) Stereo camera device
JP7058128B2 (en) Information processing equipment and programs
JP2021018661A (en) Traffic lane data generation device, position identification device, traffic lane data generation method, and position identification method
JP2020042716A (en) Abnormality detection device and abnormality detection method
US11010625B2 (en) Vehicle exterior environment recognition apparatus and method of recognizing exterior environment outside vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220803

R150 Certificate of patent or registration of utility model

Ref document number: 7118717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150