WO2014132748A1 - 撮像装置及び車両制御装置 - Google Patents

撮像装置及び車両制御装置 Download PDF

Info

Publication number
WO2014132748A1
WO2014132748A1 PCT/JP2014/052378 JP2014052378W WO2014132748A1 WO 2014132748 A1 WO2014132748 A1 WO 2014132748A1 JP 2014052378 W JP2014052378 W JP 2014052378W WO 2014132748 A1 WO2014132748 A1 WO 2014132748A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional object
relative speed
calculates
reliability
imaging device
Prior art date
Application number
PCT/JP2014/052378
Other languages
English (en)
French (fr)
Inventor
春樹 的野
未来 樋口
裕史 大塚
Original Assignee
日立オートモティブシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立オートモティブシステムズ株式会社 filed Critical 日立オートモティブシステムズ株式会社
Priority to EP14756720.0A priority Critical patent/EP2963615B1/en
Priority to US14/770,033 priority patent/US10140717B2/en
Priority to JP2015502825A priority patent/JP6072892B2/ja
Publication of WO2014132748A1 publication Critical patent/WO2014132748A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8086Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for vehicle path indication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the present invention relates to an imaging device and a vehicle control device including two imaging units.
  • Patent Document 1 As background art in this technical field.
  • Patent Document 1 relates to a pedestrian movement start conditional expression using a knee position movement speed Vkt and a shoulder position movement speed Vst in which a pedestrian's intention is reflected in relation to a pedestrian's behavior (running road crossing behavior).
  • an object of the present invention is to provide an imaging device that reduces the recognition of an erroneous moving body and prevents an erroneous brake operation even when the moving body crosses.
  • an imaging apparatus includes a correlation value calculation unit that performs a correlation value calculation from two images captured by two imaging units, and a three-dimensional object detection that detects a three-dimensional object from the two images.
  • a region dividing unit that divides an image region including a three-dimensional object into a plurality of regions, a relative speed calculating unit that calculates a relative speed for each of the regions, and a relative speed calculated for each region
  • a reliability calculating unit that calculates the reliability of the three-dimensional object.
  • the vehicle control device of the present invention includes a correlation value calculation unit that calculates a correlation value from two images captured by two imaging units, a three-dimensional object detection unit that detects a three-dimensional object from the two images, and a three-dimensional object.
  • a region dividing unit that divides an image region including a plurality of regions, a relative velocity calculating unit that calculates a relative velocity for each of the regions, and a reliability of the three-dimensional object based on the relative velocity calculated for each region
  • a control unit that controls the deceleration acceleration based on the reliability calculated by the imaging device.
  • the present invention can provide an imaging apparatus capable of reducing recognition of an erroneous moving body and preventing an erroneous brake operation even when the moving body crosses.
  • an example of an imaging apparatus that detects a three-dimensional object, calculates a relative speed, and outputs a reliability
  • the three-dimensional object is a moving body such as a pedestrian
  • a moving body detection apparatus that detects a moving body such as a pedestrian or a vehicle using a plurality of imaging units (cameras) such as a stereo camera has been put into practical use.
  • a stereo camera calculates the positional deviation (parallax) of the same object (three-dimensional object) on a plurality of images taken at the same time by template matching, and the object (three-dimensional object) based on the calculated parallax.
  • This stereo camera calculates the distance of an object such as a pedestrian using a pair of images captured by two image capturing units and recognizes the object, and detects the intrusion or abnormality of a suspicious person.
  • the present invention can be applied to a monitoring system to be used and an in-vehicle system that supports safe driving of a car.
  • a stereo camera used in the above-described monitoring system or in-vehicle system is to obtain a distance by applying a triangulation technique to a pair of images captured at a position interval, and includes at least two imaging units;
  • a stereo image processing LSI Large Scale Integration
  • the stereo image processing LSI IV which is this image processing unit, performs triangulation processing by performing processing of superimposing pixel information included in a pair of images to obtain a shift amount (parallax) of the coincident positions of the two images.
  • FIG. 1 is a diagram showing a general principle of a stereo camera.
  • is parallax
  • Z is a measurement distance (distance from the lens to the measurement point)
  • f is a focal length (distance from the imaging surface to the lens)
  • b is a baseline length (a length between two imaging elements).
  • FIG. 2 shows the configuration of the entire system of the distance measuring method of the imaging apparatus which is a stereo camera according to the first embodiment of the present invention.
  • the camera 201 that is the first image pickup unit and the camera 202 that is the second image pickup unit are provided, and the distance can be measured in stereo.
  • a camera control unit 203 that controls the camera 201 and the camera 202, a RAM 204 that is a temporary storage area, a ROM 205 that stores programs and various initial values, a control system such as a brake, and communication means for notifying the user of the camera recognition state A given external IF 206, a correlation value calculation unit 207, a CPU 208 that controls the entire system, a solid object detection unit 209 that performs solid object detection using the output result of the correlation value calculation unit 207, and an arbitrary result among the results of the three-dimensional object detection result 209
  • the cameras 201 and 202 are image sensors such as CCD (Charge Coupled Device Image Sensor) and CMOS (Complementary Metal Oxide Semiconductor) sensors.
  • CCD Charge Coupled Device Image Sensor
  • CMOS Complementary Metal Oxide Semiconductor
  • the camera control unit 203 is a block that controls the camera 201 and the camera 202, and has a function of controlling the imaging timing of the two cameras to be the same and a function of controlling the exposure amount of the cameras to be the same. . This is because when the distance is measured using the camera 201 and the camera 202, when searching for the corresponding points of both cameras, the luminance value is the same.
  • the correlation value calculation unit 207 will be described in detail with reference to FIG.
  • the correlation value calculation is an operation for searching a position with high correlation in the horizontal direction from the images obtained from the camera 201 and the camera 202 and specifying the position.
  • the search start position of the camera 201 of the stereo camera and the camera 202 are used.
  • the difference between the positions having the highest correlation is the parallax ⁇ .
  • the correlation value calculation method in this embodiment uses the sum of absolute differences (Sum of Absolute Difference), but the present invention is not limited to this.
  • For the calculation of the correlation value several blocks are used as one block and comparison is performed for each block.
  • FIG. 5 shows an image when one block is 4 pixels long and 4 pixels wide.
  • a region surrounded by a dotted line represents a state of searching from an image of the camera 202 using one block of the camera 201 as a template. This search process is performed for each block size of the camera 201 to generate a parallax image.
  • the parallax image shows the distance of each pixel, but since one parallax is obtained for every four vertical pixels and four horizontal pixels, the resolution becomes a quarter.
  • the correlation value calculation unit 207 performs a correlation value calculation, calculates parallax, and generates a parallax image.
  • the three-dimensional object detection unit 209 can find an arbitrary three-dimensional object (moving body such as a pedestrian) by calculating a three-dimensional position from a parallax image and grouping objects having a short distance. Also, an object identification process or the like is generally performed by pattern matching using luminance information of an original image, that is, a captured image captured by the camera 201.
  • the region dividing unit 210 divides the region based on the output result from the three-dimensional object detection unit 209.
  • the division method is not limited, but as an example, as shown in FIG. 3, the image is divided into a first region (upper body 301) and a second region (lower body 303).
  • the division position is not limited to half the height. However, when the division is performed at the shoulder height position, the influence of the relative speed error is small due to the spread of the arms, so that it can be easily distinguished from the walking.
  • the relative speed calculation unit 211 searches the correspondence between the past image stored in the storage unit and the current image for the output result of the region dividing unit 210, and selects the same one.
  • the storage unit stores past positions and images.
  • the movement amount is calculated for the corresponding one.
  • the calculation method of the movement amount is not limited. For example, the center-of-gravity positions 302 and 304 of the areas (first area and second area) in which the three-dimensional object is detected are obtained, and the movement amounts of the center-of-gravity positions are used. That's fine. From the time (dt) required for the previous frame and the current frame and the moving distance (dx), the relative speed (dv) is obtained as shown in Equation 2 below.
  • the reliability calculation unit 212 calculates the reliability from the relative speed obtained from the relative speed calculation unit 211.
  • the reliability calculation method outputs the degree of coincidence of relative velocities obtained for each area divided for one three-dimensional object. For example, the reciprocal of the relative speed difference for each region can be used as the degree of coincidence. If the difference between the relative speed of the upper body 301 and the relative speed of the lower body 303 is the same, the reliability is high because the movement is sure. On the other hand, when only the upper body 301 has a relative speed and the lower body 303 has a small relative speed, there is a high possibility that the body does not really move, such as just bending and stretching. This is particularly effective for calculating the reliability of a three-dimensional object having a large shape change. However, the reliability calculation method is not limited to this.
  • FIG. 4 shows a configuration of the entire system of the distance measuring method of the imaging apparatus which is a stereo camera according to the second embodiment of the present invention.
  • the reliability calculation method is based on the similarity of images. Description of the blocks already described in the first embodiment is omitted.
  • the feature amount calculation unit 410 calculates a feature amount for the position on the image from the position information of the three-dimensional object output from the three-dimensional object detection unit 209.
  • the feature amount calculation unit 410 stores the past image in order to calculate a feature amount for determining the degree of coincidence between the past image and the current image.
  • the coincidence degree determination unit 413 compares the feature amount obtained in this way with the past feature amount and the current feature amount, and calculates a coincidence degree depending on whether or not the feature amount is coincident. If the degree of coincidence is calculated, for example, as the difference sum of the past and current feature values, the value approaches 0 when the feature values are similar, and increases when the feature values are not similar.
  • the relative speed calculation unit 411 obtains the relative speed according to the output result of the coincidence degree calculation unit 413.
  • the relative speed can be obtained from the difference from the previous position, but the past several frames are held, and a frame having a high degree of coincidence is selected to calculate the relative speed. Then, since the shape is stable, the relative speed can be calculated with high accuracy.
  • the degree of coincidence may be calculated for each divided area. Then, if the relative speed is calculated not using the whole image but using a portion that matches only a portion having a high degree of matching, it can be obtained with high accuracy.
  • the reliability calculation unit 412 outputs the reliability based on the degree of coincidence used when the relative speed calculation unit 411 calculates the relative speed. For example, the case where the first frame and the third frame among the past three frames have a high degree of coincidence will be described.
  • the relative speed (Va) obtained from the first and third frames and the relative speed (Vb) obtained from the second and third frames are used for the third frame. If the reliability is twice as high, the following equation 3 is used.
  • the relative speed can be calculated with high accuracy, and the reliability at that time can also be output.
  • FIG. I an example of a vehicle control device including the imaging device 1 described in the first and second embodiments and a control unit 2 that controls the vehicle based on the output of the imaging device 1 will be described with reference to FIG. I will explain. That is, this is an example in which the automobile is controlled based on the reliability output in the first and second embodiments.
  • FIG. 6 A scene where a car is likely to collide with a pedestrian as shown in FIG. 6 will be described.
  • the arrow indicates the moving direction, and shows how a person crosses (crosses) the traveling path of the car.
  • the imaging device which is the stereo camera described in the first and second embodiments, is attached to a car, and the brake is automatically applied when there is a possibility of collision.
  • the possibility of a collision can be determined from the distance to the pedestrian, the vehicle speed of the automobile, and the moving speed of the pedestrian.
  • the reliability output from the reliability calculation units 212 and 412 of the imaging apparatuses according to the first and second embodiments is lower than a predetermined value, the pedestrian is not actually moving (moving), and erroneous measurement is performed. Judging that there is a high possibility that
  • control unit 2 is configured to control the deceleration acceleration based on the reliability. Accordingly, the deceleration of the brake as shown in FIG. 7 is different between the normal state and the deceleration acceleration suppression state, and the control unit 2 controls the deceleration acceleration so that the vehicle does not suddenly stop suddenly. You can
  • the control unit 2 includes a determination unit 3 that determines whether to control deceleration acceleration or to output an alarm signal based on the reliability calculated by the imaging device 1.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Automation & Control Theory (AREA)
  • Image Processing (AREA)

Abstract

 移動体が横切るような場合であっても、誤った移動体の認識を低減し、誤ったブレーキ操作を防ぐ撮像装置を提供するために、2つの撮像部で撮像された2つの画像から相関値演算を行う相関値算出部と、2つの画像から立体物を検出する立体物検出部と、立体物を含む画像領域を複数の領域に分割する領域分割部と、複数の領域の領域毎に相対速度を算出する相対速度算出部と、領域毎に算出された相対速度に基づいて立体物の信頼度を算出する信頼度算出部と、を有する撮像装置。

Description

撮像装置及び車両制御装置
 本発明は、2つの撮像部を備えた撮像装置及び車両制御装置に関する。
 本技術分野の背景技術として、特許文献1がある。
 特許文献1は、歩行者の挙動(走行路横断行動)に関し、歩行者の意思が反映された膝部位置移動速度及Vkt及び肩部位置移動速度Vstを用いて、歩行者動き出し条件式を、膝部及び肩部の運動エネルギの形(Vst/α)2+(Vkt/α)2>1 (但し、Vst>0且つVkt>0、α:正規化係数)とすることにより、その運動エネルギにおける速度の2乗値に基づき、歩行者の挙動予測に及ぼす膝部位置移動速度Vkt及び肩部位置移動速度Vstの反映度を高め、判定精度を高めることが開示されている。
特開2010-66810号公報
 横切り方向の移動体を検知して、自動車などの乗り物のブレーキ制御を行う場合、本当に横切ってくるかどうかを判定するために正確な横移動速度を求める必要がある。一方、歩行者などは形状変化が大きく、歩行者の位置を認識したとしても、どれだけ動いたかを正確に求めにくい。誤って速度を算出してしまうと、歩行者が自車に衝突してしまうと判定して、誤って急ブレーキをかけてしまうといった問題がある。
 つまり、本発明の目的は、移動体が横切るような場合であっても、誤った移動体の認識を低減し、誤ったブレーキ操作を防ぐ撮像装置を提供することである。
 上記課題を解決するために、本発明の撮像装置は、2つの撮像部で撮像された2つの画像から相関値演算を行う相関値算出部と、2つの画像から立体物を検出する立体物検出部と、立体物を含む画像領域を複数の領域に分割する領域分割部と、複数の領域の領域毎に相対速度を算出する相対速度算出部と、領域毎に算出された相対速度に基づいて立体物の信頼度を算出する信頼度算出部と、を有する構成とする。
 また、本発明の車両制御装置は、2つの撮像部で撮像された2つの画像から相関値演算を行う相関値算出部と、2つの画像から立体物を検出する立体物検出部と、立体物を含む画像領域を複数の領域に分割する領域分割部と、複数の領域の領域毎に相対速度を算出する相対速度算出部と、領域毎に算出された相対速度に基づいて立体物の信頼度を算出する信頼度算出部と、を有する撮像装置と、撮像装置で算出された信頼度に基づいて減速加速度を制御する制御部と、を有する構成とする。
 本発明は、移動体が横切るような場合であっても、誤った移動体の認識を低減し、誤ったブレーキ操作を防ぐことが出来る撮像装置を提供することが出来る。
ステレオカメラの原理を説明する図である。 本発明に係る撮像装置の構成の一例を示す図である。 本発明に係る撮像装置の領域分割処理を説明する図である。 本発明に係る撮像装置の構成の他の例を示す図である。 本発明に係る撮像装置の相関値算出を説明する図である。 自動車と人が衝突するシーンの位置関係を説明する図である。 信頼度に応じて減速加速度を可変にする図である。 本発明に係る撮像装置を搭載した車両制御装置の構成の一例を示す図である。
 以下、各実施例を図面を用いて説明する。
 本実施例では、立体物を検知して相対速度を算出し、信頼度を出力する撮像装置の例を説明する。なお、ここでは立体物を歩行者などの移動体とした場合で説明する。
 近年、ステレオカメラなど複数の撮像部(カメラ)を用いて歩行者や車両などの移動体を検出する移動体検出装置が実用化されている。ステレオカメラとは、同時刻に撮像された複数の画像上における同一対象物(立体物)の位置ずれ(視差)を、テンプレートマッチングにより算出し、算出した視差をもとに対象物(立体物)の実空間上の位置を、周知の変換式により算出する装置である。
 このステレオカメラは、2台の撮像部で撮像した一対の画像を用いて、歩行者などの対象物の距離を算出し、対象物の認識を行なうものであり、不審者の侵入や異常を検知する監視システムや車の安全走行を支援する車載システムなどに適用することができる。
 上述の監視システムや車載システムで利用されるステレオカメラは、位置間隔をあけて撮像された一対の画像に対して三角測量技術を適用して距離を求めるというものであり、少なくとも2つの撮像部と、これらの撮像部で撮像された2つの撮像画像に対して三角測量処理を行う画像処理部であるステレオ画像処理LSI(Large Scale Integration)と、を備えているのが一般的である。この画像処理部であるステレオ画像処理LSI は、一対の画像に含まれる画素情報を重ね合わせて2つの画像の一致した位置のずれ量(視差)を求めるという処理を行なうことによって、三角測量処理を実現する。そのため、一対の画像間には視差以外のずれが存在しないことが理想的であり、各々の撮像部ごとに、光学特性や信号特性のずれがないよう調整するか、カメラ間の位置関係などを求めておく必要がある。
 図1は、ステレオカメラの一般的な原理を示した図である。図1において、δは視差、Z は計測距離(レンズから計測点までに距離)、f は焦点距離(撮像面からレンズまでに距離)、b は基線長(2つの撮像素子間の長さ)をそれぞれ表し、これらの間には次式1で示すような関係が成り立つ。
(数1)
  Z = b f / δ     (1)
 図2は、本発明の第1の実施の形態におけるステレオカメラである撮像装置の距離測定方法のシステム全体の構成を示す。
 第1の撮像部であるカメラ201と第2の撮像部であるカメラ202を備え、ステレオでの距離計測が可能な構成である。カメラ201とカメラ202を制御するカメラ制御部203、一時記憶領域であるRAM204、プログラムや各種初期値を格納するROM205、ブレーキなどの制御系やユーザにカメラの認識状態を通知するための通信手段である外部IF206、相関値算出部207、システム全体の制御を行うCPU208、相関値算出部207の出力結果を用いて立体物検知を行う立体物検知部209、立体物検知結果209の結果のうち任意に領域を分割する領域分割部210、領域分割された領域ごとに相対速度を算出する相対速度算出部211、相対速度結果から信頼度を算出する信頼度算出部212で構成され、互いが通信線であるバス1を介してデータの授受することができる。
 カメラ201、カメラ202はCCD(Charge Coupled Device Image Sensor)やCMOS(Complementary Metal Oxide Semiconductor)センサなどの撮像素子である。
 カメラ制御部203は、カメラ201、カメラ202の制御を行うブロックで、2つのカメラの撮像タイミングが同じになるように制御する機能と、カメラの露光量が同一になるように制御する機能を有する。これは、カメラ201、カメラ202を用いて距離を測定する際に、両方のカメラの対応する点を探索する際に、輝度値が同じになるようにするためである。
 相関値算出部207について図5を用いて詳しく説明する。
 相関値演算は、カメラ201とカメラ202から得られる画像から、相関が高い位置を水平方向に探索して、その位置を特定する演算であり、ステレオカメラのカメラ201の探索開始位置とカメラ202での相関が最も高い位置の差が視差δとなる。視差δが大きいと物体の距離は近く、視差δが小さいと遠方であることを表す。本実施例における相関値の算出方法は、差分絶対値和(Sum of Absolute Difference )を用いるが、本発明はこれに限定するものではない。相関値の算出には数画素を1ブロックとしてブロックごとに比較を行う。
 図5は、1ブロックが縦4画素、横4画素の時のイメージ図をあらわしている。点線で囲われた領域は、カメラ201の1ブロックをテンプレートとしてカメラ202の画像から探索する様子を表している。この探索処理をカメラ201のブロックサイズごとに行い、視差画像を生成する。視差画像は、各画素の距離を現しているが、縦4画素、横4画素毎に1つの視差を求めているため、解像度としては四分の一になる。
 以上のように相関値算出部207は、相関値演算を行い、視差を算出し、視差画像を生成するものである。
 立体物検出部209は、視差画像から3次元位置を算出し、距離が近いものをグルーピングすることで任意立体物(歩行者などの移動体)を発見することができる。また、もともとの画像、すなわちカメラ201で撮像された撮像画像の輝度情報を用いてパターンマッチングすることにより物体の識別処理などが一般に行われる。
 領域分割部210は、立体物検出部209からの出力結果に基づいて領域を分割する。分割方法は限定しないが、一例として、図3に示すように、第1の領域(上半身301)と第2の領域(下半身303)に分割する。分割位置は身長に対して半分にするなど限定はしないが、肩の高さ位置で分割すると腕の広がりにより相対速度の誤差の影響が小さいため、歩いているときとの区別がしやすい。
 相対速度算出部211は、領域分割部210の出力結果に対して、記憶部に記憶された過去画像と現在の画像の対応を探索し、同一であるものを選択する。なお記憶部は、過去の位置と画像が記憶されている。対応したものに対して移動量を算出する。本発明では移動量の算出方法は、限定しないが、例えば、立体物を検知する領域(第1の領域、第2の領域)の重心位置302,304を求め、その重心位置の移動量とすればよい。前回のフレームと今回のフレームまでに要した時間(dt)と移動距離(dx)から以下、式2にように相対速度(dv)が求まる。
(数2)
  dv=dx÷dv   (2)
 つまり、相対速度算出部211では、移動量を算出し、算出した移動量から相対速度を算出するものである。
 信頼度算出部212は、相対速度算出部211から得られた相対速度から信頼度を算出する。信頼度の算出方法は、一つの立体物に対して分割された領域ごとに求められた相対速度の一致度によって出力する。例えば領域ごとの相対速度差分の逆数を一致度とすることができる。上半身301の相対速度と下半身303の相対速度差が同じであれば、確実に移動しているため信頼度が高い。一方、上半身301だけが相対速度をもち、下半身303の相対速度が小さい場合、屈伸運動をしただけなど、本当に移動しているわけではない可能性が高い。このように形状変化が大きい立体物の信頼度算出に特に有効である。但し、信頼度の算出方法についてはこれに限定しない。
 以上により、立体物に対して本当に移動しているかどうかの信頼度を出力することができる。
 図4は、本発明の第2の実施の形態におけるステレオカメラである撮像装置の距離測定方法のシステム全体の構成を示す。本実施例では、信頼度の算出方法が画像の類似度に基づく場合について説明する。図4は、信頼度の算出方法が画像の類似度に基づく場合の構成図である。既に実施例1で説明したブロックについては説明を省略する。
 特徴量算出部410は、立体物検出部209から出力される立体物の位置情報から画像上での位置に対して特徴量を算出する。特徴量算出部410は、過去の画像と今回の画像の一致度を判定するための特徴量を算出するため、過去画像を保存する。
 ここで、輝度値の差分を特徴量とする例について説明する。立体物の位置情報から取得した画像を比較しやすいように拡大縮小して正規化する。この正規化された正規化画像の輝度値の差分を特徴量算出部410の出力とする。
 一致度判定部413では、そうして得られた特徴量を過去の特徴量と現在の特徴量を比較して、特徴量が一致しているかどうかによって一致度を算出する。一致度算出は、例えば過去と現在の特徴量の差分和とすれば、特徴量が似ているときは0に近付き、似ていないときは値が大きくなる。
 相対速度算出部411は、一致度算出部413の出力結果に応じて相対速度を求める。相対速度は前回位置との差分で求めることができるが、過去の数フレームを保持して、一致度が高いフレームを選択して相対速度を算出する。すると、形状が安定していることから相対速度を精度よく算出できる。実施例1で示したように分割された領域ごとに一致度を算出してもよい。すると画像全体ではなく、一致度が高い部分のみ一致している部分を用いて相対速度を算出すれば精度高く求めることができる。
 信頼度算出部412は、相対速度算出部411が相対速度を算出したときに用いた一致度に基づいて信頼度を出力する。例えば、過去3フレームのうち1フレーム目と3フレーム目が一致度が高いときについて説明する。
 1,2フレーム目から求めたときは信頼度が低いが、3フレーム目は、1,3フレーム目を用いた相対速度(Va)と2,3フレーム目から求めた相対速度(Vb)が使用でき、信頼度が2倍異なるときは、以下の式3で計算される。
(数3)
  相対速度=(Va×2+Vb)÷3   (3)
 このように信頼度が高い相対速度に重みをおいて算出した場合、高い信頼度を出力する。
 以上により精度よく相対速度が算出でき、また、そのときの信頼度も出力できる。
 本実施例では、上記実施例1,2で説明した撮像装置1と、その撮像装置1の出力に基づいて車両を制御する制御部2と、を備えた車両制御装置の例について図8を用いて説明する。つまり、実施例1および2にて出力された信頼度によって自動車を制御する例である。
 図6のように自動車が歩行者に衝突しそうなシーンについて説明する。但し、矢印は移動方向をあらわしており、自動車の進行路に人が横断する(横切る)様子を示す。
 自動車には実施例1および2で説明したステレオカメラである撮像装置を取り付け、衝突可能性がある場合、自動的にブレーキがかかる例を示す。
 歩行者までの距離と自動車の車速および、歩行者の移動速度から衝突可能性を判定できる。しかし、実施例1および2の撮像装置の信頼度算出部212、412から出力された信頼度が予め定めた値より低い場合、本当に歩行者が進行(移動)しているのではなく、誤計測している可能性が高いと判断する。
 そこで、信頼度に基づいて減速加速度を制御する制御部2を有する構成とする。これにより、図7に示すようなブレーキの減速が通常状態と減速加速度抑制状態とで、異なるような特性を用いて、制御部2にて減速加速度を制御することで、誤って自動車が急停車しないようにできる。
 また、運転者が意図しない自動ブレーキは非常に危険なため、信頼度が予め定めた値より低いときには減速はせず、車内に取り付けられた警報音のみにすることも可能である。つまり、制御部2は、撮像装置1で算出された信頼度に基づいて、減速加速度の制御をするか、警報信号を出力するかを判断する判断部3を備えるものとする。このような構成により、警報音が鳴れば運転者は本当に危なければブレーキを踏むことができるし、万が一撮像装置が横切ってこない歩行者を誤検知した場合にも自動ブレーキがかからないため最悪の事態は防げる。
 201 カメラ
 202 カメラ
 203 カメラ制御部
 207 相関値算出部
 209 立体物検出部
 210 領域分割部
 211 相対速度算出部
 212 信頼度算出部

Claims (10)

  1.  2つの撮像部を有する撮像装置において、
     前記2つの撮像部で撮像された2つの画像から相関値演算を行う相関値算出部と、
     前記2つの画像から立体物を検出する立体物検出部と、
     前記立体物を含む画像領域を複数の領域に分割する領域分割部と、
     前記複数の領域の領域毎に相対速度を算出する相対速度算出部と、
     領域毎に算出された前記相対速度に基づいて立体物の信頼度を算出する信頼度算出部と、を有する撮像装置。
  2.  請求項1記載の撮像装置において、
     前記領域分割部は、前記立体物を含む画像領域を縦に2分割する撮像装置。
  3.  請求項2記載の撮像装置において、
     前記領域分割部は、前記立体物検出部で検出された前記立体物が歩行者である場合、前記歩行者の肩の位置を基準に2分割する撮像装置。
  4.  請求項1記載の撮像装置において、
     前記相関値演算部は、相関値演算した結果から視差画像を生成し、
     前記立体物検出部は、前記視差画像を用いて立体物を検出する撮像装置。
  5.  請求項1記載の撮像装置において、
     前記信頼度算出部は、領域毎に算出された相対速度の一致度に基づいて立体物が移動しているか否かの信頼度を算出する撮像装置。
  6.  請求項1記載の撮像装置において、
     前記立体物検出部にて検出された立体物を含む画像から特徴量を算出する特徴量算出部と、
     記憶された過去の特徴量と算出された現在の特徴量との特徴量の一致度を算出する一致度算出部と、を有し、
     前記相対速度算出部は、算出された前記一致度に基づいて相対速度を算出する撮像装置。
  7.  請求項6記載の撮像装置において、
     前記信頼度算出部は、前記特徴量の一致度に基づいて立体物の信頼度を算出する撮像装置。
  8.  請求項6記載の撮像装置において、
     前記相対速度算出部は、記憶された過去のフレームから最も特徴量の一致度が高いフレームを選択して、相対速度を算出する撮像装置。
  9.  2つの撮像部で撮像された2つの画像から相関値演算を行う相関値算出部と、前記2つの画像から立体物を検出する立体物検出部と、前記立体物を含む画像領域を複数の領域に分割する領域分割部と、前記複数の領域の領域毎に相対速度を算出する相対速度算出部と、領域毎に算出された前記相対速度に基づいて立体物の信頼度を算出する信頼度算出部と、を有する撮像装置と、
     前記撮像装置で算出された前記信頼度に基づいて減速加速度を制御する制御部と、
    を有する車両制御装置。
  10.  請求項9記載の車両制御装置において、
     前記制御部は、前記撮像装置で算出された前記信頼度に基づいて、減速加速度を制御するか、警報信号を出力するかを判断する判断部を有する車両制御装置。
PCT/JP2014/052378 2013-02-27 2014-02-03 撮像装置及び車両制御装置 WO2014132748A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP14756720.0A EP2963615B1 (en) 2013-02-27 2014-02-03 Imaging device, and vehicle control device
US14/770,033 US10140717B2 (en) 2013-02-27 2014-02-03 Imaging apparatus and vehicle controller
JP2015502825A JP6072892B2 (ja) 2013-02-27 2014-02-03 撮像装置及び車両制御装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013036563 2013-02-27
JP2013-036563 2013-02-27

Publications (1)

Publication Number Publication Date
WO2014132748A1 true WO2014132748A1 (ja) 2014-09-04

Family

ID=51428022

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/052378 WO2014132748A1 (ja) 2013-02-27 2014-02-03 撮像装置及び車両制御装置

Country Status (4)

Country Link
US (1) US10140717B2 (ja)
EP (1) EP2963615B1 (ja)
JP (1) JP6072892B2 (ja)
WO (1) WO2014132748A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199556A1 (ja) * 2016-05-17 2017-11-23 富士フイルム株式会社 ステレオカメラ及びステレオカメラの制御方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9619803B2 (en) 2015-04-30 2017-04-11 Google Inc. Identifying consumers in a transaction via facial recognition
US10397220B2 (en) 2015-04-30 2019-08-27 Google Llc Facial profile password to modify user account data for hands-free transactions
US10733587B2 (en) 2015-04-30 2020-08-04 Google Llc Identifying consumers via facial recognition to provide services
KR101832189B1 (ko) * 2015-07-29 2018-02-26 야마하하쓰도키 가부시키가이샤 이상화상 검출장치, 이상화상 검출장치를 구비한 화상 처리 시스템 및 화상 처리 시스템을 탑재한 차량
US11062304B2 (en) 2016-10-20 2021-07-13 Google Llc Offline user identification
US10670680B2 (en) * 2017-04-06 2020-06-02 Case Western Reserve University System and method for motion insensitive magnetic resonance fingerprinting
WO2018198239A1 (ja) * 2017-04-26 2018-11-01 三菱電機株式会社 処理装置および物体識別情報の生成方法
WO2018222232A1 (en) * 2017-05-31 2018-12-06 Google Llc Providing hands-free data for interactions
JP7139431B2 (ja) * 2018-08-22 2022-09-20 日立Astemo株式会社 画像処理装置および画像処理方法
DE102019212021B4 (de) * 2019-08-09 2024-02-08 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren
DE102019212022B4 (de) * 2019-08-09 2021-03-04 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren
JP7431623B2 (ja) * 2020-03-11 2024-02-15 株式会社Subaru 車外環境認識装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316790A (ja) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd 歩行者検出装置および歩行者検出方法
JP2008045974A (ja) * 2006-08-14 2008-02-28 Fuji Heavy Ind Ltd 物体検出装置
JP2010066810A (ja) 2008-09-08 2010-03-25 Mazda Motor Corp 車両用歩行者検出装置
JP2012043271A (ja) * 2010-08-20 2012-03-01 Aisin Aw Co Ltd 交差点情報取得装置、交差点情報取得方法及びコンピュータプログラム
JP2012123667A (ja) * 2010-12-09 2012-06-28 Panasonic Corp 姿勢推定装置および姿勢推定方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2779257B1 (fr) * 1998-05-27 2000-08-11 France Telecom Procede de detection de la profondeur relative entre objets dans une image a partir d'un couple d'images
DE102004018813A1 (de) * 2004-04-19 2006-02-23 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und/oder Verfolgung von Objekten
JP4177826B2 (ja) * 2005-03-23 2008-11-05 株式会社東芝 画像処理装置および画像処理方法
WO2006121088A1 (ja) * 2005-05-10 2006-11-16 Olympus Corporation 画像処理装置、画像処理方法および画像処理プログラム
JP2008203992A (ja) * 2007-02-16 2008-09-04 Omron Corp 検出装置および方法、並びに、プログラム
JP5172314B2 (ja) * 2007-12-14 2013-03-27 日立オートモティブシステムズ株式会社 ステレオカメラ装置
US8340357B2 (en) * 2008-10-27 2012-12-25 Panasonic Corporation Moving object detection method and moving object detection apparatus
JP4643766B1 (ja) * 2009-07-31 2011-03-02 パナソニック株式会社 移動体検出装置及び移動体検出方法
WO2012001709A2 (en) * 2010-06-30 2012-01-05 Tata Consultancy Services Limited Automatic detection of moving object by using stereo vision technique
JP5503578B2 (ja) * 2011-03-10 2014-05-28 パナソニック株式会社 物体検出装置及び物体検出方法
WO2013042205A1 (ja) * 2011-09-20 2013-03-28 トヨタ自動車株式会社 歩行者行動予測装置および歩行者行動予測方法
CN104424634B (zh) * 2013-08-23 2017-05-03 株式会社理光 对象跟踪方法和装置
CN104794733B (zh) * 2014-01-20 2018-05-08 株式会社理光 对象跟踪方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316790A (ja) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd 歩行者検出装置および歩行者検出方法
JP2008045974A (ja) * 2006-08-14 2008-02-28 Fuji Heavy Ind Ltd 物体検出装置
JP2010066810A (ja) 2008-09-08 2010-03-25 Mazda Motor Corp 車両用歩行者検出装置
JP2012043271A (ja) * 2010-08-20 2012-03-01 Aisin Aw Co Ltd 交差点情報取得装置、交差点情報取得方法及びコンピュータプログラム
JP2012123667A (ja) * 2010-12-09 2012-06-28 Panasonic Corp 姿勢推定装置および姿勢推定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2963615A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199556A1 (ja) * 2016-05-17 2017-11-23 富士フイルム株式会社 ステレオカメラ及びステレオカメラの制御方法
JPWO2017199556A1 (ja) * 2016-05-17 2019-04-04 富士フイルム株式会社 ステレオカメラ及びステレオカメラの制御方法
US10863164B2 (en) 2016-05-17 2020-12-08 Fujifilm Corporation Stereo camera and method of controlling stereo camera

Also Published As

Publication number Publication date
EP2963615A1 (en) 2016-01-06
JP6072892B2 (ja) 2017-02-01
US20160005180A1 (en) 2016-01-07
EP2963615B1 (en) 2019-04-10
EP2963615A4 (en) 2016-11-09
JPWO2014132748A1 (ja) 2017-02-02
US10140717B2 (en) 2018-11-27

Similar Documents

Publication Publication Date Title
JP6072892B2 (ja) 撮像装置及び車両制御装置
JP6623044B2 (ja) ステレオカメラ装置
JP7025912B2 (ja) 車載環境認識装置
US9704047B2 (en) Moving object recognition apparatus
US10210400B2 (en) External-environment-recognizing apparatus
US20120081542A1 (en) Obstacle detecting system and method
WO2013132947A1 (ja) 距離算出装置及び距離算出方法
EP2924655B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
JP6722051B2 (ja) 物体検出装置、及び物体検出方法
JP2019078716A (ja) 距離計測装置、距離計測システム、撮像装置、移動体、距離計測装置の制御方法およびプログラム
JP6315308B2 (ja) 制御用対象物識別装置、移動体機器制御システム及び制御用対象物認識用プログラム
JPWO2009099022A1 (ja) 周辺監視装置及び周辺監視方法
JP2015232455A (ja) 画像処理装置、画像処理方法、プログラム、視差データの生産方法、機器制御システム
JP2009169776A (ja) 検出装置
JP6032034B2 (ja) 物体検知装置
JP6722084B2 (ja) 物体検出装置
US8160300B2 (en) Pedestrian detecting apparatus
WO2017047282A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP2020109560A (ja) 信号機認識方法及び信号機認識装置
WO2017154305A1 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法、及び、プログラム
CN109308442B (zh) 车外环境识别装置
JP2017167970A (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP5717416B2 (ja) 運転支援制御装置
JP6174884B2 (ja) 車外環境認識装置および車外環境認識方法
WO2021161655A1 (ja) 画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14756720

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015502825

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2014756720

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14770033

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE