JP6722084B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP6722084B2
JP6722084B2 JP2016198437A JP2016198437A JP6722084B2 JP 6722084 B2 JP6722084 B2 JP 6722084B2 JP 2016198437 A JP2016198437 A JP 2016198437A JP 2016198437 A JP2016198437 A JP 2016198437A JP 6722084 B2 JP6722084 B2 JP 6722084B2
Authority
JP
Japan
Prior art keywords
image
similarity
past
shielding
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016198437A
Other languages
Japanese (ja)
Other versions
JP2018060422A (en
Inventor
潜 龍
潜 龍
和寿 石丸
和寿 石丸
田中 健一
健一 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016198437A priority Critical patent/JP6722084B2/en
Publication of JP2018060422A publication Critical patent/JP2018060422A/en
Application granted granted Critical
Publication of JP6722084B2 publication Critical patent/JP6722084B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、例えば車両に搭載される物体検出装置に関するものである。 The present invention relates to an object detection device mounted on a vehicle, for example.

従来、ステレオカメラを車両に搭載し、一対の撮像画像(基準画像と比較画像)に基づいて車両周囲に存在する物体を検出し、その検出された物体に対して車両の走行安全性を向上させるための車両制御を行うことが提案されている。 Conventionally, a stereo camera is mounted on a vehicle, an object existing around the vehicle is detected based on a pair of captured images (a reference image and a comparison image), and the traveling safety of the vehicle is improved with respect to the detected object. It has been proposed to perform vehicle control for.

ここで、ステレオカメラについて、カメラの前方のフロントガラスやカメラのレンズ面に遮蔽物(ほこり、ごみ、水滴等)が付着することがある。かかる場合には、その遮蔽物が撮像画像中に写り込むことで物体の検出に影響が及ぶおそれがある。 Here, in a stereo camera, a shield (dust, dust, water drop, etc.) may adhere to the windshield in front of the camera or the lens surface of the camera. In such a case, the shielding may be reflected in the captured image, which may affect the detection of the object.

例えば、特許文献1に記載の装置では、基準画像と比較画像の輝度値の差に基づいて、車載カメラの前方のフロントガラスに遮蔽物が付着したことを判定している。具体的には、一対の撮像画像に基づいて検出された物体が今回のフレームにおいて撮像される予測領域を設定する。そして、基準画像上の予測領域とそれに対応する比較画像上の予測領域との輝度値の平均値の差が閾値以上である状態が、所定のフレーム数以上継続する場合に、遮蔽物が付着したと判定する。 For example, in the device described in Patent Document 1, it is determined that a shield has adhered to the windshield in front of the vehicle-mounted camera based on the difference in brightness value between the reference image and the comparison image. Specifically, the prediction region in which the object detected based on the pair of captured images is captured in the current frame is set. Then, when the difference between the average values of the brightness values of the prediction area on the reference image and the corresponding prediction area on the comparative image is equal to or more than a threshold value, when a predetermined number of frames or more continues, the shield adheres. To determine.

特開2009−110173号公報JP, 2009-110173, A

ところで、自車両や物体等が移動することによって、カメラにおける撮像画像は大きく変化する。この場合、画像上における物体の位置が変わると、一対の画像間における比較の結果も変わりうる。そうすると、画像上における物体や遮蔽物の位置等によっては一対の画像間の比較のみでは、遮蔽状態が適正に検出できないことが生じうると考えられる。 By the way, the captured image in the camera changes greatly due to the movement of the vehicle, the object, or the like. In this case, if the position of the object on the image changes, the result of the comparison between the pair of images may change. Then, depending on the position of the object or the shield on the image, the shield state may not be properly detected only by comparing the pair of images.

本発明は、上記課題に鑑みてなされたものであり、遮蔽物の有無を精度よく判定し、物体検出を適正に実施することができる物体検出装置を提供することである。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an object detection device capable of accurately determining the presence or absence of a shield and appropriately performing object detection.

本発明の物体検出装置は、左右方向の視差を含む第1画像及び第2画像を撮影する第1カメラ(11)及び第2カメラ(12)が搭載された車両(50)に適用され、前記第1画像及び前記第2画像に基づいて、前記車両の周囲に存在する物体を検出する物体検出装置(20)であって、現時点の前記第1画像及び前記第2画像と、現時点よりも過去の前記第1画像及び前記第2画像とを取得する取得部と、取得した各画像を所定の区画に分割し、その区画ごとに、現時点における前記第1画像及び前記第2画像の類似度である第1類似度と、過去における前記第1画像及び前記第2画像の類似度である第2類似度と、現時点及び過去における前記第1画像の類似度である第3類似度と、を算出する算出部と、前記第1類似度及び前記第2類似度により、現時点及び過去の各々において前記第1画像と前記第2画像とが一致するか否かを判定するとともに、前記第3類似度により、現時点の前記第1画像と過去の前記第1画像とが一致するか否かを判定する一致判定部と、現時点及び過去の各々において前記第1画像と前記第2画像とが一致しない旨が判定され、かつ現時点の前記第1画像と過去の前記第1画像とが一致する旨が判定された場合に、前記第1カメラ及び前記第2カメラのいずれかの前方に、当該カメラの視界を妨げる遮蔽物が存在していると判定する遮蔽判定部と、を備えることを特徴とする。 The object detection device of the present invention is applied to a vehicle (50) equipped with a first camera (11) and a second camera (12) that capture a first image and a second image including a parallax in the left-right direction, and An object detection device (20) for detecting an object existing around the vehicle based on the first image and the second image, wherein the first image and the second image at a current time point and a past time point at the current time point An acquisition unit that acquires the first image and the second image, and each acquired image is divided into predetermined sections, and for each section, the degree of similarity between the first image and the second image at the present time Calculate a certain first similarity, a second similarity that is the similarity between the first image and the second image in the past, and a third similarity that is the similarity of the first image at the current time and the past. It is determined whether or not the first image and the second image match at the present time and the past, respectively, based on the calculation unit and the first similarity and the second similarity, and the third similarity is calculated. According to, a match determination unit that determines whether or not the first image at the current time and the first image at the past match, and that the first image and the second image do not match at the current time and the past, respectively. Is determined and it is determined that the first image at the present time and the first image in the past match, the field of view of the camera is provided in front of either the first camera or the second camera. And a shielding determination unit that determines that there is a shielding object that interferes with.

第1カメラ又は第2カメラがごみ等の付着により遮蔽状態になっている場合、現時点及び過去の各々において第1画像と第2画像とが一致しない状態となる。また、ごみ等の付着状態がしばらくは維持されることで、画像上におけるごみ等の位置は時系列的に変わらない、つまり現時点の第1画像と過去の第1画像とが一致する状態となる。 When the first camera or the second camera is in the shielded state due to adhesion of dust or the like, the first image and the second image do not match at the present time and the past. In addition, since the adhered state of dust and the like is maintained for a while, the position of dust and the like on the image does not change in time series, that is, the first image at the present time and the first image in the past match. ..

こうした状況を踏まえた上で、上記構成を採用することにより、第1カメラ及び第2カメラのいずれかの前方に遮蔽物が存在していることを適正に判定することができる。またいずれかのカメラに遮蔽物が付着等している場合、その遮蔽物によって遮蔽された領域が撮像画像の一部であることを踏まえ、上記構成では、撮像画像を分割してその区画ごとに類似度を比較しているため、分割しない場合に比べて類似度の比較の精度を向上させることができる。 In consideration of such a situation, by adopting the above configuration, it is possible to properly determine whether or not the shield is present in front of either the first camera or the second camera. Further, in the case where a shield is attached to any of the cameras, considering that the region shielded by the shield is a part of the captured image, the above-described configuration divides the captured image into Since the similarities are compared, it is possible to improve the accuracy of comparison of the similarities as compared with the case of not dividing.

車両の物体検知システムの概略構成を示す図。The figure which shows schematic structure of the object detection system of a vehicle. 本実施形態の概略を説明するための図。The figure for explaining the outline of this embodiment. 画像の分割の態様を説明するための図。The figure for demonstrating the aspect of an image division. 各画像間におけるSSIMのパラメータを示した図。The figure which showed the parameter of SSIM between each image. 各画像間におけるエントロピーのパラメータを示した図。The figure which showed the parameter of the entropy between each image. 画像の遮蔽判定処理の手順を示すフローチャート。9 is a flowchart showing the procedure of image occlusion determination processing. 各パラメータにおいて区画ごとの遮蔽状態を示した図。The figure which showed the shielding state for every division in each parameter. 画像の分割の態様の変形例を説明するための図。FIG. 8 is a diagram for explaining a modified example of a mode of dividing an image. 閾値の可変設定の態様を説明するための図。FIG. 6 is a diagram for explaining a mode of variable setting of a threshold value.

以下、本発明を具体化した実施形態を図面に基づいて説明する。本実施形態は、車両に搭載された物体検知システムを具体化している。当該システムは、例えば、車両に搭載される車両システムの一例であり、車両の周囲に存在する物体(例えば、他の車両や道路構造物等)を検知する。 Hereinafter, embodiments embodying the present invention will be described with reference to the drawings. The present embodiment embodies an object detection system mounted on a vehicle. The system is an example of a vehicle system mounted on a vehicle, for example, and detects an object (for example, another vehicle or a road structure) existing around the vehicle.

まず、本実施形態に係る車両の物体検知システムの概略構成について図1を用いて説明する。車両50は、ステレオカメラ10と、ECU20と、被制御対象30とを備えている。なお、図1に示す実施形態において、ECU20が物体検出装置として機能する。 First, a schematic configuration of an object detection system for a vehicle according to this embodiment will be described with reference to FIG. The vehicle 50 includes a stereo camera 10, an ECU 20, and a controlled object 30. Note that in the embodiment shown in FIG. 1, the ECU 20 functions as an object detection device.

ステレオカメラ10は、車両50の前方を撮像できるよう撮像軸を車両50の前方に向けた状態で車室内に設置されている。また、ステレオカメラ10は、左右(横)方向での位置の異なる右カメラ11及び左カメラ12を備えている。右カメラ11及び左カメラ12は、所定周期で同時に撮像を行い、右カメラ11で撮像された右画像及び左カメラ12で撮像された左画像は、それぞれECU20に出力される。右カメラ11及び左カメラ12は、例えば、それぞれがCCDイメージセンサやCMOSイメージセンサで構成されている。本実施形態では、右カメラ11及び左カメラ12がそれぞれ第1カメラ及び第2カメラに相当し、右画像及び左画像がそれぞれ第1画像及び第2画像に相当する。 The stereo camera 10 is installed in the vehicle compartment with its imaging axis facing the front of the vehicle 50 so that the front of the vehicle 50 can be imaged. Further, the stereo camera 10 includes a right camera 11 and a left camera 12, which have different positions in the left-right (horizontal) direction. The right camera 11 and the left camera 12 simultaneously capture images in a predetermined cycle, and the right image captured by the right camera 11 and the left image captured by the left camera 12 are output to the ECU 20, respectively. Each of the right camera 11 and the left camera 12 is composed of, for example, a CCD image sensor or a CMOS image sensor. In the present embodiment, the right camera 11 and the left camera 12 correspond to the first camera and the second camera, respectively, and the right image and the left image correspond to the first image and the second image, respectively.

ECU20は、CPUや各種メモリ等を備えたコンピュータを主体として構成されている。ECU20は、ステレオカメラ10の右カメラ11及び左カメラ12によってそれぞれ出力された右画像及び左画像に基づいて、車両前方に位置する物体を検出し、その物体までの距離を算出する。 The ECU 20 is mainly composed of a computer including a CPU and various memories. The ECU 20 detects an object located in front of the vehicle based on the right image and the left image output by the right camera 11 and the left camera 12 of the stereo camera 10, and calculates the distance to the object.

物体までの距離の算出には、周知のステレオマッチング処理を用いた手法が適用される。簡単に説明すると、ECU20は、同じタイミングで撮像された右画像及び左画像を取得し、これらの画像から算出されるずれ量(視差情報)に基づき、三角測量の原理を用いて物体までの距離を算出する。 A method using a well-known stereo matching process is applied to the calculation of the distance to the object. Briefly described, the ECU 20 acquires the right image and the left image captured at the same timing, and based on the displacement amount (parallax information) calculated from these images, the distance to the object using the principle of triangulation. To calculate.

また、ECU20は、算出された物体までの距離に基づいて、その物体に対する接触回避処理等を実施する。具体的には、被制御対象30である警報装置31及びブレーキ装置32を、それぞれ所定の作動タイミングで作動させる。警報装置31は、ECU20からの制御指令により、ドライバに対して車両前方に物体が存在することを警報する。警報装置31は、例えば、車室内に設けられたスピーカや、画像を表示する表示部により構成されている。また、ブレーキ装置32は、車両50の制動力を変化させるブレーキ機構と、このブレーキ機構の動作を制御するブレーキECUとを備えている。ブレーキECUは、ECU20と通信可能に接続されており、ECU20からの制御指令により、ブレーキ機構を制御する。 Further, the ECU 20 carries out a contact avoidance process or the like for the object based on the calculated distance to the object. Specifically, the alarm device 31 and the brake device 32, which are the controlled objects 30, are operated at predetermined operation timings. The warning device 31 warns the driver of the existence of an object in front of the vehicle according to a control command from the ECU 20. The alarm device 31 is composed of, for example, a speaker provided in the vehicle compartment and a display unit that displays an image. In addition, the brake device 32 includes a brake mechanism that changes the braking force of the vehicle 50 and a brake ECU that controls the operation of the brake mechanism. The brake ECU is communicatively connected to the ECU 20, and controls the brake mechanism according to a control command from the ECU 20.

ところで、ステレオカメラ10による物体検出では、右画像及び左画像からなる一対の画像に対してステレオマッチング処理が実施され、これにより物体を適正に検出することができる。言い換えると、一対の画像に対してステレオマッチング処理が適切に実施できない場合は、物体検出に悪影響を及ぼすおそれがある。 By the way, in the object detection by the stereo camera 10, a stereo matching process is performed on a pair of images composed of a right image and a left image, whereby the object can be properly detected. In other words, if the stereo matching process cannot be appropriately performed on the pair of images, the object detection may be adversely affected.

例えば、車両50の走行中に右カメラ11及び左カメラ12のいずれか一方のカメラの前方のフロントガラスにほこりや、ごみ、水滴等の遮蔽物が付着することがある。また、同様にいずれか一方のカメラのレンズ面に直接、ほこり等が付着することがある。これらの場合には、その遮蔽物が画像中に写り込むことで物体検出に悪影響が及ぶおそれがある。すなわち、一方の画像中にはその遮蔽物が写り込むのに対して、他方の画像中にはその遮蔽物が写りこまない状態となることで、ステレオマッチング処理が適切に実施できなくなると考えられる。その結果、物体検出に基づく車両制御が適正に実施できなくなるおそれがある。 For example, while the vehicle 50 is traveling, dust, dust, water droplets, or other shields may adhere to the windshield in front of either the right camera 11 or the left camera 12. Similarly, dust or the like may directly adhere to the lens surface of either one of the cameras. In these cases, the shielding may be reflected in the image, which may adversely affect the object detection. That is, it is considered that the stereo matching process cannot be properly performed because the shielding object is reflected in one image while the shielding object is not reflected in the other image. .. As a result, vehicle control based on object detection may not be properly performed.

そこで、本実施形態では、現時点及び現時点よりも過去における、右画像及び左画像の区画ごとの類似度に基づいて、一方のカメラの前方に遮蔽物が存在しているかの判定を行うようにした。すなわち、現時点の右画像及び左画像と、現時点よりも過去の右画像及び左画像と、をそれぞれ所定の区画に分割し、その区画ごとに、現時点における右画像及び左画像の類似度である類似度SAと、過去における右画像及び左画像の類似度である類似度SBと、現時点及び過去における右画像の類似度である類似度SCと、を算出する。そして、類似度SA及び類似度SBに基づいて、現時点及び過去の各々において右画像と左画像とが一致しない旨が判定され、かつ類似度SCに基づいて、現時点の右画像(又は左画像)と過去の右画像(又は左画像)とが一致する旨が判定された場合に、右カメラ11及び左カメラ12のいずれかの前方に遮蔽物が存在していると判定するようにした。 Therefore, in the present embodiment, it is determined whether or not there is an obstacle in front of one of the cameras based on the similarity between the right image and the left image for each section at the present time and in the past past the present time. .. That is, the right image and the left image at the current time point, and the right image and the left image that are past the current time point are each divided into predetermined sections, and the similarity, which is the degree of similarity between the right image and the left image at the present time point, is divided for each section. The degree SA, the degree of similarity SB which is the degree of similarity between the right image and the left image in the past, and the degree of similarity SC which is the degree of similarity between the right image at the present time and the past are calculated. Then, it is determined based on the similarity SA and the similarity SB that the right image and the left image do not match at each of the present time and the past, and based on the similarity SC, the current right image (or left image). When it is determined that the previous right image (or the left image) and the previous right image match each other, it is determined that the shield exists in front of either the right camera 11 or the left camera 12.

本実施形態の概略について、図2を用いて説明する。図2は、右カメラ11の前方のフロントガラスにごみが付着した場合を想定している。ここでは、現時点の右画像及び左画像と、現時点よりも過去の右画像及び左画像との4つの画像を示している。この場合、右画像にはごみが写り込んでいるため、左画像と比較して画像に大きな差異が生じる。例えば、各画像間で対応する区画A,B,C,Dに関して言えば、区画Aと区画Bは不一致となり、さらに区画Cと区画Dは不一致となる。一方、ごみが付着した状態はしばらく継続することから、区画Bと区画Dは一致する状態となる。本実施形態では、こうした状況の下で遮蔽物の判定を実施することから、遮蔽物の存在を適正に判定することができる。 The outline of this embodiment will be described with reference to FIG. FIG. 2 assumes that dust is attached to the windshield in front of the right camera 11. Here, four images are shown: a right image and a left image at the current time point, and a right image and a left image at a past time point from the current time point. In this case, since dust is reflected in the right image, a large difference occurs in the image as compared with the left image. For example, regarding the corresponding sections A, B, C, and D between the images, the section A and the section B do not match, and the section C and the section D do not match. On the other hand, since the state in which dust adheres continues for a while, the section B and the section D are in the same state. In the present embodiment, the presence of the shield can be properly determined because the shield is determined under such a condition.

本実施形態におけるECU20の具体的な構成について、図1を用いて説明する。図1に戻り、ECU20は、取得部21、算出部22、一致判定部23、遮蔽判定部24、制御停止部25、遮蔽通知部26、遮蔽解消部27として機能する。 A specific configuration of the ECU 20 in this embodiment will be described with reference to FIG. Returning to FIG. 1, the ECU 20 functions as the acquisition unit 21, the calculation unit 22, the coincidence determination unit 23, the shielding determination unit 24, the control stop unit 25, the shielding notification unit 26, and the shielding cancellation unit 27.

取得部21は、右カメラ11及び左カメラ12により撮像された右画像及び左画像をそれぞれ取得する。なお右画像及び左画像は同じタイミングで撮像された画像であり、取得部21は、これらを所定周期で受信する。本実施形態では、取得部21は、現時点の右画像及び左画像と、現時点よりも過去の右画像及び左画像とを取得する。つまり、画像として4つの画像を取得する。ここで、現時点よりも過去の画像とは、例えば撮像周期において前回、又は前々回に撮像され、メモリに記憶された画像である。つまりここでの過去とは、現時点の画像と相関を有する程度の過去ということになる。 The acquisition unit 21 acquires the right image and the left image captured by the right camera 11 and the left camera 12, respectively. The right image and the left image are images captured at the same timing, and the acquisition unit 21 receives them at a predetermined cycle. In the present embodiment, the acquisition unit 21 acquires the right image and the left image at the current time point and the right image and the left image at a past time point than the current time point. That is, four images are acquired as images. Here, the image past the present time is, for example, an image captured in the previous time or two times before in the imaging cycle and stored in the memory. That is, the past here means a past having a correlation with the current image.

算出部22は、取得部21により取得された各画像、すなわち現時点の右画像及び左画像と、現時点よりも過去の右画像及び左画像とをそれぞれ所定の区画に分割する。図3(a),(b)は、取得された画像の分割の一例を示している。図3(a)は、画像の縦の長さを1/4、横の長さを1/8に分割して、格子状に均等に32分割した場合を示す。また、図3(b)は、画像の横の長さを1/8に分割して、短冊状に均等に8分割した場合を示す。このように、算出部22は、予め設定された分割の態様に従って各画像を分割する。 The calculation unit 22 divides each image acquired by the acquisition unit 21, that is, the right image and the left image at the present time point, and the right image and the left image that are past the present time point into predetermined sections. 3A and 3B show an example of division of the acquired image. FIG. 3A shows a case in which the vertical length of the image is divided into ¼ and the horizontal length is divided into ⅛, and the image is equally divided into 32 in a grid pattern. Further, FIG. 3B shows a case where the horizontal length of the image is divided into ⅛ and is evenly divided into eight strips. In this way, the calculation unit 22 divides each image according to the preset division mode.

なお、画像間の分割については、後述する区画間の対応付けが適切に実施できるように区画されるとよい。例えば、右画像を基準に分割した場合は、左右のずれ量を考慮した上で左画像を分割するとよい。 It should be noted that regarding division between images, it is preferable that division be performed so that association between divisions described below can be appropriately performed. For example, when the right image is divided as a reference, the left image may be divided after considering the amount of left/right deviation.

算出部22は、分割された各区画について、(1)現時点の右画像及び左画像間、(2)現時点よりも過去の右画像及び左画像間、(3)現時点及び過去の右画像間、(4)現時点及び過去の左画像間、といった各画像間で、各々対応する区画を特定する。なお、対応する区画の特定には周知の方法を適用することができる。例えば、ビタビアルゴリズムを適用することができる。 For each of the divided sections, the calculation unit 22 (1) between the right image and the left image at the present time, (2) between the right image and the left image past the present time, (3) between the present time and the past right image (4) Identify corresponding sections between the images such as the current and past left images. A known method can be applied to identify the corresponding section. For example, the Viterbi algorithm can be applied.

さらに、算出部22は、対応付けられた区画ごとに、各画像間の類似度を算出する。具体的には、区画ごとに、現時点における右画像及び左画像の類似度SAと、過去における右画像及び左画像の類似度SBと、現時点及び過去における右画像の類似度SCとを算出する。なお、類似度SCは、現時点及び過去における左画像の類似度であってもよい。 Further, the calculation unit 22 calculates the degree of similarity between the images for each of the associated sections. Specifically, the similarity SA of the right image and the left image at the current time, the similarity SB of the past right image and the left image, and the similarity SC of the right image at the current time and the past are calculated for each section. The similarity SC may be the similarity of the left image at the present time and the past.

類似度は、比較される2つの区画がどれだけ似ているかを示す指標であり、類似度が大きければ2つの区画が似ていることを意味し、類似度が小さければ2つの区画が似ていないことを意味する。類似度としては、周知の指標を用いることができる。本実施形態では、類似度として、SSIM(structural similarity)、及びエントロピー(情報エントロピー、相互情報量)を算出する。 The similarity is an index showing how similar the two sections to be compared are, and if the similarity is high, it means that the two sections are similar, and if the similarity is low, the two sections are similar. Means no. A well-known index can be used as the similarity. In this embodiment, SSIM (structural similarity) and entropy (information entropy, mutual information amount) are calculated as the similarity.

SSIMは、対応する2つの区画の明るさの類似度、コントラストの類似度及び構造の類似度の要素を含めた類似度として算出される。つまり、明るさに影響されない要素も含んでいる。SSIMについて、各画像間におけるパラメータを図4に示す。図4では、現時点の右画像及び左画像間で対応する区画についてM(L,R)とし、現時点よりも過去の右画像及び左画像間で対応する区画についてM(Lp,Rp)とし、現時点及び過去の右画像間で対応する区画についてM(R,Rp)とし、現時点及び過去の左画像間で対応する区画についてM(L,Lp)とする。ここで、例えばM(L,R)は、下記式(1)に基づいて算出される。 The SSIM is calculated as a similarity including the elements of the brightness similarity, the contrast similarity, and the structure similarity of the corresponding two sections. In other words, it also includes elements that are not affected by brightness. FIG. 4 shows parameters between SIM images. In FIG. 4, a section corresponding to the right image and the left image at the present time is M(L,R), and a section corresponding to the right image and the left image earlier than the present time is M(Lp,Rp). And the corresponding section between the past right images is M (R, Rp), and the corresponding section between the current and past left images is M (L, Lp). Here, for example, M(L,R) is calculated based on the following equation (1).

なお、上記式(1)におけるSSIM(L,R)については、SSIMの周知の数式を用いて求めることができる。詳しくは、下記式(2)及び式(3)に基づいて算出される。 Note that SSIM(L,R) in the above formula (1) can be obtained using a well-known mathematical formula for SSIM. Specifically, it is calculated based on the following equations (2) and (3).

なお、上記式(2),(3)における各記号の定義について簡単に説明する。ここでは、現時点の右画像及び左画像間で対応する区画について示している。l(L,R)は、輝度の類似度を表し、c(L,R)は、コントラストの類似度を表し、s(L,R)は、画像構造の類似度を表す。さらに、μ,μは、輝度平均値であり、δ,δは、輝度の標準偏差であり、δLRは、左画像及び右画像間の区画の輝度の共分散である。また、上記式(2)中のα、β、γは、任意の定数である。 The definition of each symbol in the above equations (2) and (3) will be briefly described. Here, the corresponding section between the right image and the left image at the present time is shown. l(L,R) represents the similarity of luminance, c(L,R) represents the similarity of contrast, and s(L,R) represents the similarity of image structure. Further, μ L and μ R are luminance average values, δ L and δ R are luminance standard deviations, and δ LR is a luminance covariance of a partition between the left image and the right image. Further, α, β, and γ in the above formula (2) are arbitrary constants.

なお、M(L,R)と同様にして、M(Lp,Rp)、M(L,Rp)、M(Lp,R)も式(1)〜(3)に基づいて算出される。 Note that, similarly to M(L,R), M(Lp,Rp), M(L,Rp), and M(Lp,R) are also calculated based on equations (1) to (3).

ここで、SSIM値は、0より大きく1以下の値であり、例えばSSIM値が1の場合、2つの区画は同一であることを意味する。また、SSIM値が大きくなるほど、2つの区画の類似度は高くなる。ここで、例えばM(L,R)に置き換えて言えば、現時点の右画像及び左画像間の対応する区画が同一の場合、M(L,R)はゼロとなる。また、その対応する区画の類似度が高くなるほど、M(L,R)はゼロに近づくことになる。 Here, the SSIM value is a value greater than 0 and equal to or less than 1, and for example, when the SSIM value is 1, it means that the two sections are the same. Also, the greater the SSIM value, the higher the similarity between the two sections. Here, for example, replacing it with M(L,R), if the corresponding sections between the right image and the left image at the present time are the same, M(L,R) becomes zero. Also, the higher the similarity of the corresponding section, the closer M(L,R) becomes to zero.

さらに、算出部22は、類似度としてエントロピー(情報エントロピー,相互情報量)を算出する。 Further, the calculation unit 22 calculates entropy (information entropy, mutual information amount) as the similarity.

情報エントロピーは、全ての事象に対するその情報量の期待値をいい、数値が大きいほど情報が曖昧であることを表す。画像に置き換えて言えば、どの画素値がどの程度の確率で現れるかということになる。つまり、画素値が実際にどんな値をとるかの曖昧さを意味しており、エントロピーが大きい画像は、画素値のばらつきが大きいことになる。 Information entropy is the expected value of the amount of information for all events, and the larger the number, the more ambiguous the information. In terms of an image, which pixel value appears with what probability? That is, it means ambiguity as to what value the pixel value actually takes, and an image with a large entropy has a large variation in the pixel value.

一方、相互情報量は、2つの画像の相関を表しており、数値が小さいほど2つの画像は似ていることを示す。 On the other hand, the mutual information indicates the correlation between two images, and the smaller the numerical value is, the more similar the two images are.

エントロピーについて、各画像間におけるパラメータを図5に示す。図5では、現時点の右画像の情報エントロピーをE(R)とし、現時点の左画像の情報エントロピーをE(L)とし、現時点よりも過去の右画像の情報エントロピーをE(Rp)とし、現時点よりも過去の左画像の情報エントロピーをE(Lp)とする。また、現時点の右画像及び左画像間で対応する区画の相互情報量をJ(L,R)とし、現時点よりも過去の右画像及び左画像間で対応する区画の相互情報量をJ(Lp,Rp)とし、現時点及び過去の右画像間で対応する区画の相互情報量をJ(R,Rp)とし、現時点及び過去の左画像間で対応する区画の相互情報量をJ(L,Lp)とする。ここで、例えばE(R)及びJ(L,R)は、下記式(4),(5)に基づいて算出される。 Regarding entropy, the parameters between each image are shown in FIG. In FIG. 5, the information entropy of the current right image is E(R), the information entropy of the current left image is E(L), and the information entropy of the right image older than the current time is E(Rp). Let E(Lp) be the information entropy of the left image in the past. Further, the mutual information amount of the corresponding section between the right image and the left image at the current time is J(L,R), and the mutual information amount of the corresponding section between the right image and the left image earlier than the current time is J(Lp). , Rp), and the mutual information amount of the corresponding section between the current and past right images is J(R, Rp), and the mutual information amount of the corresponding section between the current and past left images is J(L, Lp). ). Here, for example, E(R) and J(L,R) are calculated based on the following equations (4) and (5).

なお、E(R)及びJ(L,R)と同様にして、その他のパラメータについても式(4),(5)に基づいて算出される。 Similar to E(R) and J(L,R), other parameters are calculated based on equations (4) and (5).

一致判定部23は、算出部22により算出された類似度に基づいて、画像間の各区画が一致するか否かを判定する。具体的には、類似度SA及び類似度SBにより、現時点及び過去の各々において右画像と左画像とが一致するか否かを判定する。また、類似度SCにより、現時点の右画像(又は左画像)と過去の右画像(又は左画像)とが一致するか否かを判定する。 The match determination unit 23 determines whether or not each section between images matches based on the similarity calculated by the calculation unit 22. Specifically, based on the similarity SA and the similarity SB, it is determined whether the right image and the left image match at the present time and the past, respectively. Further, it is determined based on the similarity SC whether or not the right image (or left image) at the current time and the right image (or left image) in the past match.

ここで類似度として、SSIMを用いた場合について説明する。例えば、類似度SAとしてのM(L,R)が閾値Mth1以下であれば、現時点の右画像及び左画像間で対応する区画は一致すると判定する。閾値Mth1は、2つの区画が一致しているか否かが判定される判定値として設定されている。同様に、類似度SBとしてのM(Lp,Rp)、類似度SCとしてのM(L,Rp)又はM(Lp,R)についても閾値Mth1との比較を行う。一方、エントロピーを用いた場合は、算出されたエントロピーと所定の閾値とを比較することで、2つの区画が一致しているかを判定することができる。なお、算出された類似度と区画の一致の対応関係を表すマップを用いて、一致するか否かを導いてもよい。 Here, a case where SSIM is used as the similarity will be described. For example, if M(L,R) as the similarity SA is equal to or less than the threshold value Mth1, it is determined that the corresponding sections of the right image and the left image at the current time match. The threshold value Mth1 is set as a determination value for determining whether or not the two sections match. Similarly, M(Lp, Rp) as the similarity SB and M(L, Rp) or M(Lp, R) as the similarity SC are also compared with the threshold value Mth1. On the other hand, when the entropy is used, it is possible to determine whether the two partitions match by comparing the calculated entropy with a predetermined threshold. It should be noted that it may be possible to derive whether or not there is a match using a map that represents the correspondence between the calculated degree of similarity and the matching of sections.

なお、対応する区画間が一致しているか否かの判定は、SSIM及びエントロピーのいずれか一方を用いてもよく、又、両方用いてもよい。ここで、両方用いた場合において、例えばSSIMでは一致していると判定されるが、エントロピーでは一致していないと判定されるというように両者の判定が異なる場合には、遮蔽判定が実施されやすくなる方の判定を選択するとよい。 It should be noted that either the SSIM or the entropy may be used or both may be used to determine whether the corresponding partitions match. Here, in the case where both are used, for example, when the SSIM determines that they match, but the entropy determines that they do not match, when the two determinations are different, the occlusion determination is likely to be performed. It is advisable to select the judgment that is

遮蔽判定部24は、一致判定部23により、現時点及び過去の各々において右画像と左画像とが一致しない旨が判定され、かつ現時点の右画像(又は左画像)と過去の右画像(又は左画像)とが一致する旨が判定された場合に、右カメラ11及び左カメラ12のいずれかの前方に、当該カメラの視界を妨げる遮蔽物が存在していると判定する。つまり、かかる場合には、右画像及び左画像が不一致の状態が時系列的に継続していることになり、遮蔽物が付着していると考えられる。なお、この判定に際して、遮蔽判定部24は、各区画において遮蔽状態かどうかの確率Pを算出する。 The occlusion determination unit 24 determines that the right image and the left image do not match at the present time and the past by the coincidence determination unit 23, and the right image at the present time (or the left image) and the past right image (or the left image). If it is determined that there is a match with the image), it is determined that a shield that obstructs the field of view of the camera is present in front of either the right camera 11 or the left camera 12. That is, in such a case, the state in which the right image and the left image do not match continues in time series, and it is considered that the shield is attached. In this determination, the shielding determination unit 24 calculates the probability P of whether each section is in the shielding state.

確率Pの算出について、以下に説明する。まず全ての区画について、算出された類似度を用いてSCOREssim、及びSCOREentropyを算出し、区画毎にスコアの最大値を選択する。これらのスコアは、それぞれ下記式(6),(7)に基づいて、算出される。 The calculation of the probability P will be described below. First, SCOREssim and SCOREentropy are calculated using the calculated similarity for all sections, and the maximum score value is selected for each section. These scores are calculated based on the following equations (6) and (7), respectively.

そして、遮蔽判定部24は、算出されたスコアを用いて、下記式(8)により各区画が遮蔽状態かどうかを判定するための確率Pを算出する。 Then, the shielding determination unit 24 uses the calculated score to calculate the probability P for determining whether or not each section is in the shielding state by the following formula (8).

なお、上記式のP(A)は、SSIMで算出したSCOREssimを表し、P(B)は、エントロピーで算出したSCOREentropyを表す。そして、遮蔽判定部24は、算出された確率Pと閾値Pth1とを比較し、確率Pが閾値Pth1よりも大きい場合は、その区画が遮蔽状態であると判定する。 Note that P(A) in the above formula represents SCOREssim calculated by SSIM, and P(B) represents SCORE entropy calculated by entropy. Then, the shielding determination unit 24 compares the calculated probability P with the threshold Pth1, and when the probability P is larger than the threshold Pth1, determines that the partition is in the shielding state.

制御停止部25は、遮蔽状態であると判断された場合に、ステレオマッチング処理の一部又は全てを停止させる。すなわち、遮蔽状態が生じている領域では、ステレオマッチング処理が適切に実施できないため、少なくとも遮蔽状態が生じている領域ではその処理を停止させる。ここで、ステレオマッチング処理の一部のみを停止させる場合は、遮蔽状態が生じていない領域ではステレオマッチング処理を実施する。すなわち物体検出を継続する。 The control stopping unit 25 stops a part or all of the stereo matching processing when it is determined that the state is the shielded state. That is, the stereo matching process cannot be properly performed in the region where the shielded state occurs, so the process is stopped at least in the region where the shielded state occurs. Here, when only a part of the stereo matching process is stopped, the stereo matching process is performed in the area where the shielding state is not generated. That is, the object detection is continued.

遮蔽通知部26は、遮蔽判定部24により遮蔽状態であると判定された場合に、ドライバに遮蔽状態である旨を通知するために警報装置31に対して制御指令を送信する。これにより、警報装置31を作動させることで、ドライバは遮蔽状態である旨を把握することができる。その結果、ごみや汚れのふき取り等、遮蔽状態を解消するためのドライバによる操作を促すことができる。 When the shielding determination unit 24 determines that the shielding state is in the shielding state, the shielding notification unit 26 transmits a control command to the alarm device 31 to notify the driver that the shielding state is in the shielding state. With this, by operating the alarm device 31, the driver can recognize that the vehicle is in the shielded state. As a result, it is possible to prompt the driver to perform an operation for removing the shielded state, such as wiping off dust and dirt.

遮蔽解消部27は、遮蔽判定部24により遮蔽状態であると判定された場合に、遮蔽状態を解消させるための制御指令を送信する。例えばワイパやヒータが設けられている構成において、遮蔽状態であると判定された場合に、ワイパやヒータを作動させることで、遮蔽状態を解消させる。 When the shielding determination unit 24 determines that the shielding state is in the shielding state, the shielding removal unit 27 transmits a control command for canceling the shielding state. For example, in a configuration including a wiper and a heater, when it is determined that the wiper and the heater are in the shielded state, the shielded state is canceled by operating the wiper and the heater.

次に、本実施形態における物体検出装置の遮蔽判定処理の手順について、図6のフローチャートを参照して説明する。本処理は、ECU20が所定間隔で繰り返し実行する。 Next, the procedure of the occlusion determination processing of the object detection device in this embodiment will be described with reference to the flowchart in FIG. This processing is repeatedly executed by the ECU 20 at predetermined intervals.

まず、ステップS11において、現時点の右画像及び左画像と、現時点よりも過去の右画像及び左画像とを取得する。過去の画像は、例えばECU20内のメモリに記憶されている。ステップS12では、取得された各画像を所定の区画に分割する。ここでは例えば、画像の縦の長さを1/4に、横の長さを1/8に分割して、均等に32分割する。 First, in step S11, the right image and the left image at the current time point and the right image and the left image at a past time point before the current time point are acquired. The past image is stored in the memory in the ECU 20, for example. In step S12, each acquired image is divided into predetermined sections. Here, for example, the vertical length of the image is divided into ¼, and the horizontal length thereof is divided into ⅛, and is equally divided into 32.

ステップS13では、各画像間において対応する区画を特定する。例えば、右画像及び左画像間で対応する区画は、同じ横軸上から特定することができる。ステップS14では、各画像間において対応する区画ごとに類似度を算出する。ここでは、上述した方法により、類似度としてSSIM及びエントロピーを算出する。具体的には、類似度SAと類似度SBと類似度SCを算出する。 In step S13, a corresponding section is identified between the images. For example, corresponding sections between the right image and the left image can be specified from the same horizontal axis. In step S14, the similarity is calculated for each corresponding section between the images. Here, SSIM and entropy are calculated as the similarity by the method described above. Specifically, the similarity SA, the similarity SB, and the similarity SC are calculated.

ステップS15では、類似度SAを用いて、現時点の右画像と左画像が一致していないかを判定し、類似度SBを用いて、過去の右画像と左画像が一致していないかを判定し、さらに、類似度SCを用いて、現時点の右画像(又は左画像)と過去の右画像(又は左画像)とが一致するか否かを判定する。なお、これらの判定が全て肯定された場合にステップS15がYESとなり、少なくともいずれか一つが否定された場合にステップS15がNOとなる。 In step S15, the similarity SA is used to determine whether the right image and the left image at the present time do not match, and the similarity SB is used to determine whether the past right image and the left image do not match. Then, the similarity SC is used to determine whether or not the right image (or left image) at the present time and the right image (or left image) in the past match. If all of these determinations are affirmative, step S15 is YES, and if at least one of them is negative, step S15 is NO.

ステップS15がYESであれば、ステップS16に進み、ステップS15がNOであれば、右画像及び左画像は遮蔽状態となっていないとして、そのまま本処理を終了する。ステップS16では、各区画が遮蔽状態か否かを判定するための確率Pを算出する。ここでは、上述の方法により、SCOREssim及びSCOREentropyを用いて、区画ごとに確率Pを算出する。 If YES in step S15, the process proceeds to step S16, and if NO in step S15, it is determined that the right image and the left image are not in the shielded state, and the present process ends. In step S16, the probability P for determining whether each section is in the shielded state is calculated. Here, the probability P is calculated for each section using SCOREssim and SCOREentropy by the method described above.

ステップS17では、確率Pが閾値Pth1よりも大きいか否かを判定する。ステップS17がYESであれば、その区画は遮蔽状態であるとして、ステップS18に進む。一方、ステップS17がNOであれば、その区画は遮蔽状態でないとしてそのまま本処理を終了する。ステップS18では、遮蔽状態であると判定された区画についてステレオマッチング処理を停止する。言い換えると、遮蔽状態でないと判定された区画についてはステレオマッチング処理が実施される、つまり物体検出が実施される。ステップS19では、遮蔽状態である旨をドライバに報知するための制御指令を警報装置31に送信する。 In step S17, it is determined whether the probability P is larger than the threshold Pth1. If YES in step S17, it is determined that the partition is in the shielded state, and the process proceeds to step S18. On the other hand, if step S17 is NO, it is determined that the partition is not in the shielded state, and the present process is terminated. In step S18, the stereo matching process is stopped for the section determined to be in the shielded state. In other words, the stereo matching process is performed on the section determined not to be in the occluded state, that is, the object detection is performed. In step S19, a control command for notifying the driver of the shielded state is transmitted to the alarm device 31.

本実施形態における遮蔽判定処理によれば、区画ごとに遮蔽状態の有無を判定することができる。例えば、図7(a)には、一対の画像のうちの一方に、図に示すような位置に遮蔽物Sが付着した場合を示している。ここで、図7(b),(c)には、SSIMで算出したSCOREssimを用いた場合、及びエントロピーで算出したSCOREentropyを用いた場合において区画ごとの確率Pを指標化したものをそれぞれ示している。ここでは、確率Pを数値1〜数値4の4段階に分けて指標化しており、数値が大きいほど遮蔽状態である確率が高いことを示している。なお、これらの図では便宜上、各画像を均等に18分割している。 According to the shielding determination process in the present embodiment, it is possible to determine the presence or absence of the shielding state for each section. For example, FIG. 7A shows a case where the shield S is attached to one of the pair of images at the position shown in the figure. Here, FIGS. 7B and 7C respectively show an index of the probability P of each section when SCOREssim calculated by SSIM is used and when SCORE entropy calculated by entropy is used. There is. Here, the probability P is divided into four levels of numerical values 1 to 4 to be indexed, and the larger the numerical value, the higher the probability of being in the shielding state. It should be noted that in these figures, each image is equally divided into 18 for convenience.

ここで、指標化された確率Pのうち、例えば数値3及び数値4を遮蔽状態であるとすると、図7(b)では領域Xの区画が遮蔽状態であると判定され、図7(c)では領域Yの区画が遮蔽状態であると判定される。このように、区画毎に類似度を比較することで、遮蔽された領域の特定が精度良く行われる。 Here, if the numerical values 3 and 4 of the indexed probabilities P are in the shielded state, for example, it is determined that the partition of the region X is in the shielded state in FIG. 7B, and FIG. Then, it is determined that the section of the region Y is in the shielded state. In this way, by comparing the similarities for each section, the occluded region can be accurately specified.

さらに、本実施形態では、異なる類似度において遮蔽状態である旨の判定結果が異なった場合、言い換えると少なくとも1つの類似度において遮蔽状態であると判定された場合に、遮蔽状態であると判定する。したがって、図7のケースにおいては、結果的に領域Yの区画が遮蔽状態であると判定する。このように、異なる類似度を用いることでそれぞれの判定結果を考慮することができ、遮蔽状態の有無を適正に判定することができる。 Furthermore, in the present embodiment, when the determination result indicating that the state is the shielded state is different at different degrees of similarity, in other words, when it is determined that the state is the shielded state at at least one similarity, it is determined that the state is the shielded state. .. Therefore, in the case of FIG. 7, it is consequently determined that the section of the region Y is in the shielded state. As described above, by using different similarities, it is possible to consider each determination result, and it is possible to appropriately determine the presence/absence of the shielding state.

なお、異なる類似度において遮蔽状態である旨の判定結果が異なった場合について、上記の構成を変更してもよい。例えば、遮蔽状態でない旨の判定結果を優先してもよく、又、用いる類似度によって優先する判定結果を設定してもよい。 The above configuration may be changed in the case where the determination result indicating the shielded state is different for different degrees of similarity. For example, the determination result indicating that it is not in the shielded state may be prioritized, or the determination result prioritized may be set depending on the similarity used.

以上詳述した本実施形態によれば、以下の優れた効果が得られる。 According to this embodiment described in detail above, the following excellent effects can be obtained.

右カメラ11又は左カメラ12がごみ等の付着により遮蔽状態になっている場合、現時点及び過去の各々において第1画像と第2画像とが一致しない状態となる。また、ごみ等が付着した状態が維持されることで、現時点の第1画像と過去の第1画像とが一致する状態となる。こうした状況を踏まえた上で、上記構成を採用することにより、右カメラ11及び左カメラ12のいずれかの前方に遮蔽物が存在していることを適正に判定することができる。またいずれかのカメラに遮蔽物が付着等している場合、その遮蔽物によって遮蔽された領域が撮像画像の一部であることを踏まえ、上記構成では、撮像画像を分割してその区画ごとに類似度を比較しているため、分割しない場合に比べて類似度の比較の精度を向上させることができる。 When the right camera 11 or the left camera 12 is in the shielded state due to adhesion of dust or the like, the first image and the second image do not match at the present time and the past. Further, by maintaining the state in which dust or the like is attached, the first image at the present time and the first image in the past match. In consideration of such a situation, by adopting the above configuration, it is possible to properly determine that the shield is present in front of either the right camera 11 or the left camera 12. Further, in the case where a shield is attached to any of the cameras, considering that the region shielded by the shield is a part of the captured image, the above-described configuration divides the captured image into Since the similarities are compared, it is possible to improve the accuracy of comparison of the similarities as compared with the case of not dividing.

遮蔽物が付着等している場合、その遮蔽物によって遮蔽された領域は、撮像画像の一部分である。かかる場合、遮蔽されていない部分では、物体検出が可能であると考えられる。この点、上記構成では、遮蔽物が存在していると判定された区画以外の区画に基づいて物体を検出するようにしたため、遮蔽された領域にかかわらず一様に物体検出を停止する構成とは異なり、物体検出の機会を増やすことができる。 When the shield is attached, the area shielded by the shield is a part of the captured image. In such a case, it is considered that the object can be detected in the unshielded portion. In this respect, in the above configuration, since the object is detected based on a section other than the section in which the shield is determined to exist, the object detection is uniformly stopped regardless of the shielded area. Unlike, it can increase the chance of object detection.

複数の画像における類似度を算出する方法には様々な方法があり、用いる類似度によっては、遮蔽物が存在しているか否かの判断が異なる場合があると考えられる。この点、上記構成では、遮蔽物が存在しているか否かの判定結果が異なった場合、すなわち少なくとも一つの方法で遮蔽物が存在すると判定された場合に、遮蔽物が存在していると判定するようにした。この場合、遮蔽物が存在するとの判定を優先することで、遮蔽物が存在しないことの確実性が乏しい状況下での物体検出が制限される。これにより、誤った物体検出に基づく不要作動の発生を抑制することができると考えられる。 There are various methods for calculating the degree of similarity in a plurality of images, and it is considered that the determination as to whether or not a shield is present may be different depending on the degree of similarity used. In this respect, in the above configuration, when the determination result of whether or not the shield is present is different, that is, when it is determined that the shield is present by at least one method, it is determined that the shield is present. I decided to do it. In this case, by prioritizing the determination that the shield is present, object detection is limited in a situation where the certainty that the shield is not present is poor. It is considered that this can suppress the occurrence of unnecessary operation based on erroneous object detection.

上記実施形態を例えば次のように変更してもよい。 The above embodiment may be modified as follows, for example.

・上記実施形態では、図6のステップS12において、取得された各画像を均等に分割して各区画とする構成としたが、これを変更してもよい。例えば、ECU20は画像上の位置に応じて区画の大きさを可変に設定してもよく、又、ECU20は走行シーンに応じて分割の態様を変更する構成としてもよい。 In the above-described embodiment, in step S12 of FIG. 6, each acquired image is equally divided into each section, but this may be changed. For example, the ECU 20 may variably set the size of the section according to the position on the image, or the ECU 20 may be configured to change the division mode according to the traveling scene.

画像上の道路領域は、物体検出において重要性が高いと考えられる。この点を考慮し、例えば、図8(a)に示すように、画像を、道路領域とそれ以外(例えば、路側帯領域、上空領域)とに分割した上で、さらに道路領域についてより小さい区画に分割する構成としてもよい。なお、道路領域は、区画線認識などの周知の画像認識技術を利用することにより特定される。例えば、区画線認識により認識された両端の区画線に挟まれた領域を道路領域とする。なお、路側帯領域は、例えば、道路領域の端部の区画線の消失点を含む水平線を軸として、区画線を反転させて得た直線と、区画線とで囲まれる領域として特定される。そして、上空領域は、道路領域および路側帯領域以外の領域となる。この構成によれば、物体検出において重要性の高い道路領域について、道路領域以外の領域に比べて、区画間の類似度の比較の精度を向上させることができる。 The road region on the image is considered to be highly important in object detection. Considering this point, for example, as shown in FIG. 8A, the image is divided into a road region and other regions (for example, a roadside band region and a sky region), and the road region is further divided into smaller sections. The configuration may be divided into. The road area is specified by using a known image recognition technique such as lane marking recognition. For example, the area sandwiched by the lane markings at both ends recognized by the lane marking recognition is defined as a road area. The roadside zone is specified as a region surrounded by a straight line obtained by reversing the dividing line with the horizontal line including the vanishing point of the dividing line at the end of the road region as an axis, and the dividing line. The sky region is a region other than the road region and the roadside band region. According to this configuration, it is possible to improve the accuracy of comparison of the similarity between sections in a road area that is highly important in object detection, as compared to areas other than the road area.

また、画像において、下側の領域が車両50に対して手前側を表し、上側の領域が車両50に対して奥側を表す。そのため、物体検出において、画像の下側の領域の方が、画像の上側の領域に比べてより重要性が高いと考えられる。この点を考慮し、例えば、図8(b)に示すように、画像の下領域を、それよりも上の上領域に比べて小さい区画に分割する構成としてもよい。この構成によれば、物体検出において重要性の高い画像の下領域について、それよりも上の上領域に比べて、区画間の類似度の比較の精度を向上させることができる。 Further, in the image, the lower region represents the front side of the vehicle 50, and the upper region represents the rear side of the vehicle 50. Therefore, in the object detection, the lower region of the image is considered to be more important than the upper region of the image. In consideration of this point, for example, as shown in FIG. 8B, the lower region of the image may be divided into smaller sections than the upper region above the image. According to this configuration, it is possible to improve the accuracy of comparison of the degree of similarity between the sections in the lower area of the image, which is highly important in object detection, as compared with the upper area above it.

このように、物体検出における重要性を考慮した画像上の位置に応じて、区画の大きさを可変に設定することで、類似度の比較の精度、ひいては遮蔽判定の精度を向上させることができる。一方、分割された区画ごとに類似度を算出することから、区画数が多くなるほど、ECU20の演算負荷は大きくなる。この点を考慮し、画像の位置によって区画の大きさを変えることで、一律に区画を小さくする場合に比べて、演算負荷を軽減することができる。これにより、遮蔽判定の精度と演算負荷との両立を図ることができる。 In this way, by setting the size of the section variably according to the position on the image in consideration of the importance in object detection, it is possible to improve the accuracy of similarity comparison, and thus the accuracy of occlusion determination. .. On the other hand, since the degree of similarity is calculated for each of the divided sections, the calculation load of the ECU 20 increases as the number of sections increases. Considering this point, by changing the size of the section according to the position of the image, the calculation load can be reduced as compared with the case where the section is uniformly reduced. This makes it possible to achieve both the accuracy of the occlusion determination and the calculation load.

一方、走行シーンに応じて分割の態様を変更する例として、車両前方に他車や歩行者が存在するか否かに応じて、分割する区画の大きさを変更する構成が挙げられる。かかる構成において、例えば、車両前方に他車や歩行者が存在する場合に、他車や歩行者が存在しない場合に比べて、より小さい区画に分割するように変更してもよい。この一例として、車両50の前方に他車等が存在しない場合には図3(b)のように分割し、車両50の前方に他車等が存在する場合には図3(a)のように分割することが考えられる。車両前方に他車や歩行者が存在する場合には、物体検出が適切に実施されることが望ましい。そのため、上記構成とすることで、遮蔽物の判定を精度よく行うことができ、ひいては物体検出を適正に実施することができると考えられる。なお、他車や歩行者は、周知のパターンマッチング等により認識される。 On the other hand, as an example of changing the mode of division according to the traveling scene, there is a configuration in which the size of the divided section is changed according to whether or not another vehicle or a pedestrian exists in front of the vehicle. In such a configuration, for example, when another vehicle or a pedestrian exists in front of the vehicle, the division may be divided into smaller sections as compared with a case where no other vehicle or a pedestrian exists. As an example of this, when another vehicle or the like does not exist in front of the vehicle 50, it is divided as shown in FIG. 3B, and when another vehicle or the like exists in front of the vehicle 50, as shown in FIG. 3A. It can be divided into When another vehicle or a pedestrian exists in front of the vehicle, it is desirable that the object detection be appropriately performed. Therefore, with the above configuration, it is conceivable that the obstacle can be accurately determined, and that the object can be appropriately detected. Other vehicles and pedestrians are recognized by well-known pattern matching or the like.

また、走行シーンのその他の例として、遮蔽物が付着しそうな走行環境(例えば、降雪時)の場合には、そうでない場合と比較して分割する区画の大きさを変更する(例えば、小さい区画に分割する)構成が考えられる。 In addition, as another example of the traveling scene, in a traveling environment in which a shield is likely to adhere (for example, during snowfall), the size of the partition to be divided is changed compared to the case where it is not (for example, a small partition). (Divided into two) is conceivable.

・上記実施形態では、図6のステップS17の遮蔽判定において、予め設定された閾値Pth1を用いて遮蔽状態であるか否かを判定する構成としたが、これを変更してもよい。例えば、ECU20は区画の画像上の位置に応じて閾値Pth1を可変に設定してもよく、又、ECU20は走行シーンに応じて閾値Pth1を変更する構成にしてもよい。 In the above-described embodiment, in the shielding determination in step S17 of FIG. 6, the threshold value Pth1 set in advance is used to determine whether or not the vehicle is in the shielding state, but this may be changed. For example, the ECU 20 may variably set the threshold value Pth1 according to the position on the image of the section, or the ECU 20 may be configured to change the threshold value Pth1 according to the traveling scene.

区画の画像上の位置に関して言えば、物体検出における画像上の位置の重要性を加味して、閾値Pth1を可変に設定することが考えられる。例えば、閾値Pth1と画像上の位置との関係を図9(a),(b)に示す。図9(a)には、閾値Pth1と画像の横軸(x軸)との関係を示している。この場合、画像の横中央に近づくにつれて、閾値Pth1が小さくなるように設定される。つまり、画像の横軸の中央部の方が、周辺部に比べて遮蔽状態である旨が判定されやすくなる。また、図9(b)には、閾値Pth1と画像の縦軸(y軸)との関係を示している。この場合、画像の上端に近づくにつれて、閾値Pth1が大きくなるように設定される。つまり、画像の上領域は、それよりも下の下領域に比べて物体検出において重要性が低いと考えられるため、画像の上側の領域では、遮蔽状態である旨を判定されにくくしている。このように、区画の画像上の位置に応じて閾値Pth1を可変に設定することで、物体検出における画像上の位置の重要性を加味しつつ、遮蔽状態を適切に判断することができる。 Regarding the position of the section on the image, it is conceivable to variably set the threshold Pth1 in consideration of the importance of the position on the image in object detection. For example, the relationship between the threshold Pth1 and the position on the image is shown in FIGS. 9(a) and 9(b). FIG. 9A shows the relationship between the threshold Pth1 and the horizontal axis (x axis) of the image. In this case, the threshold value Pth1 is set to be smaller as it approaches the horizontal center of the image. That is, it is easier to determine that the central portion of the horizontal axis of the image is in the shielded state than the peripheral portion. Further, FIG. 9B shows the relationship between the threshold Pth1 and the vertical axis (y-axis) of the image. In this case, the threshold value Pth1 is set to increase as it approaches the upper end of the image. In other words, the upper region of the image is considered to be less important in object detection than the lower region below it, so that it is difficult to determine that the upper region of the image is in the occluded state. In this way, by setting the threshold Pth1 variably according to the position of the section on the image, it is possible to appropriately determine the occlusion state while considering the importance of the position on the image in object detection.

また、走行シーンに関して言えば、車両前方に他車や歩行者が存在するか否かに応じて、閾値Pth1の大きさを変更する構成としてもよい。かかる構成において、例えば、車両前方に他車や歩行者が存在する場合に、他車や歩行者が存在しない場合に比べて、閾値Pth1をより小さくするように変更することが考えられる。車両前方に他車や歩行者が存在する場合には、物体検出が適切に実施されることが望ましく、かかる構成によって、走行シーンを加味しつつ、遮蔽状態を適切に判断することができると考えられる。なお、閾値Pth1の変更については、走行シーンに応じて閾値Pth1をより大きくするように変更する構成としてもよい。 Further, regarding the traveling scene, the size of the threshold Pth1 may be changed depending on whether or not another vehicle or a pedestrian exists in front of the vehicle. In such a configuration, for example, when another vehicle or a pedestrian exists in front of the vehicle, the threshold value Pth1 may be changed to be smaller than that when no other vehicle or a pedestrian exists. When another vehicle or a pedestrian exists in front of the vehicle, it is desirable that the object detection be appropriately performed. With such a configuration, it is possible to appropriately determine the shielding state while considering the traveling scene. To be The threshold value Pth1 may be changed so that the threshold value Pth1 is increased according to the traveling scene.

・上記構成では、現時点の右画像及び左画像と、現時点よりも過去の右画像及び左画像の4つの画像を用いて各画像間の類似度を算出する構成としたが、これを変更してもよい。例えば、現時点よりも過去の画像として過去の異なる2つの時点における画像を取得し、現時点と併せて、6つの画像を用いて各画像間の類似度を算出する構成としてもよい。なお、かかる構成においても、算出された類似度に基づいて、現時点及び過去の各々において右画像と左画像とが一致しない旨が判定され、かつ現時点の右画像(又は左画像)と過去の右画像(又は左画像)とが一致する旨が判定された場合に遮蔽状態であると判定する。 In the above configuration, the right image and the left image at the present time, and the right image and the left image before the present time are used to calculate the similarity between the images, but this may be changed. Good. For example, the images at two different times in the past may be acquired as the images past the current time, and six images may be used together with the current time to calculate the similarity between the images. Even in such a configuration, it is determined that the right image and the left image do not match at the present time and the past based on the calculated similarity, and the right image at the present time (or the left image) and the past right image are determined. If it is determined that the image (or the left image) matches, the occlusion state is determined.

・上記構成では、図6のステップS17の遮蔽判定において、確率Pが閾値Pth1よりも大きい場合に遮蔽状態であると判定する構成としたが、これを変更してもよい。例えば、確率Pが閾値Pth1よりも大きくなった回数をカウントし、カウントされた回数が所定回数以上になった場合に遮蔽状態であると判定する構成としてもよい。この構成によれば、遮蔽状態の判定の精度をより高めることができる。 In the configuration described above, in the shielding determination in step S17 of FIG. 6, the configuration is determined to be the shielding state when the probability P is larger than the threshold Pth1, but this may be changed. For example, the number of times that the probability P becomes larger than the threshold value Pth1 may be counted, and when the number of times counted is equal to or more than a predetermined number, it may be determined that the state is the shielding state. With this configuration, it is possible to further improve the accuracy of determination of the shielding state.

・図6の遮蔽判定処理において、区画数を加味する構成としてもよい。例えば、図6のステップS17とステップS18との間に、確率Pが閾値Pth1よりも大きいと判定された区画数が所定数N以上であるか否かを判定するステップを設けてもよい。この場合、その区画数が所定数Nよりも小さければ、そのまま本処理を終了する。一方、その区画数が所定数N以上であれば、遮蔽状態であるとして、ステップS18へ進み、後続の処理を実行する。 -In the shielding determination process of FIG. 6, the number of sections may be taken into consideration. For example, between steps S17 and S18 of FIG. 6, a step of determining whether or not the number of sections for which the probability P is determined to be larger than the threshold value Pth1 is a predetermined number N or more may be provided. In this case, if the number of sections is smaller than the predetermined number N, this processing is ended as it is. On the other hand, if the number of partitions is equal to or more than the predetermined number N, it is determined that the partition is in the shielded state, and the process proceeds to step S18 to execute the subsequent processing.

また、上記の区画数に代えて又は加えて、区画面積を加味する構成としてもよい。例えば、図6のステップS17とステップS18との間に、確率Pが閾値Pth1よりも大きいと判定された区画の区画面積が所定面積以上であるか否かを判定するステップを設けてもよい。この場合、その区画の面積が、所定面積よりも小さければ、そのまま本処理を終了し、所定面積以上であれば、遮蔽状態であるとして、ステップS18へ進み、後続の処理を実行する。 Further, instead of or in addition to the above-mentioned number of sections, a section area may be taken into consideration. For example, a step of determining whether or not the section area of the section whose probability P is determined to be larger than the threshold value Pth1 is greater than or equal to a predetermined area may be provided between steps S17 and S18 of FIG. In this case, if the area of the section is smaller than the predetermined area, this process is terminated as it is, and if it is equal to or larger than the predetermined area, it is determined that the area is in the shielded state, and the process proceeds to step S18 to execute the subsequent process.

さらに、区画の画像上の位置を加味する構成としてもよい。例えば、図6のステップS17とステップS18との間に、確率Pが閾値Pth1よりも大きいと判定された区画の画像上の位置が上空領域か否かを判定するステップを設けてもよい。この場合、上空領域であると判定されれば、そのまま本処理を終了する。一方、上空領域でないと判定されれば、ステップS18へ進み、後続の処理を実行する。なお上空領域の判定は、その他の領域の判定に適宜変更してもよい。 Furthermore, the position of the section on the image may be taken into consideration. For example, between steps S17 and S18 of FIG. 6, a step of determining whether or not the position on the image of the section for which the probability P is determined to be larger than the threshold value Pth1 is the sky region may be provided. In this case, if it is determined that the area is the sky area, the present process is terminated. On the other hand, if it is determined that the area is not the sky area, the process proceeds to step S18 and the subsequent processing is executed. Note that the determination of the sky region may be appropriately changed to the determination of other regions.

・上記実施形態では、類似度として、SSIM及びエントロピーを用いたが、これを変更し、SSIM及びエントロピーのいずれか一方の類似度を用いる構成であってもよい。例えば、SSIMのみを用いる構成であれば、確率PはSCOREssimのみに基づいて、算出される。 -In the above-mentioned embodiment, although SSIM and entropy were used as a similarity, this may be changed and the similarity of either SSIM and entropy may be used. For example, in the case of using only SSIM, the probability P is calculated based on only SCOREssim.

・類似度として、SSIM及びエントロピー以外にも周知の類似度を用いることができる。例えば、類似度として、SSD(sum of squared difference)、SAD(sum of absolute difference)、NCC(Normalized Cross-Correlation)、画像均一度比等を用いることができる。 As the similarity, a known similarity other than SSIM and entropy can be used. For example, SSD (sum of squared difference), SAD (sum of absolute difference), NCC (Normalized Cross-Correlation), image uniformity ratio, etc. can be used as the similarity.

11…右カメラ、12…左カメラ、20…ECU、50…車両。 11... right camera, 12... left camera, 20... ECU, 50... vehicle.

Claims (6)

左右方向の視差を含む第1画像及び第2画像を撮影する第1カメラ(11)及び第2カメラ(12)が搭載された車両(50)に適用され、前記第1画像及び前記第2画像に基づいて、前記車両の周囲に存在する物体を検出する物体検出装置(20)であって、
現時点の前記第1画像及び前記第2画像と、現時点よりも過去の前記第1画像及び前記第2画像とを取得する取得部と、
取得した各画像を所定の区画に分割し、その区画ごとに、現時点における前記第1画像及び前記第2画像の類似度である第1類似度と、過去における前記第1画像及び前記第2画像の類似度である第2類似度と、現時点及び過去における前記第1画像の類似度である第3類似度と、を算出する算出部と、
前記第1類似度及び前記第2類似度により、前記区画ごとに、現時点及び過去の各々において前記第1画像と前記第2画像とが一致しているか否かを判定するとともに、前記第3類似度により、前記区画ごとに、現時点の前記第1画像と過去の前記第1画像とが一致しているか否かを判定する一致判定部と、
前記区画ごとに、現時点及び過去の各々において前記第1画像と前記第2画像とが一致していない旨が判定され、かつ現時点の前記第1画像と過去の前記第1画像とが一致している旨が判定された場合に、前記第1カメラ及び前記第2カメラのいずれかの前方に、当該カメラの視界を妨げる遮蔽物が存在していると判定する遮蔽判定部と、
を備える物体検出装置。
The first image and the second image are applied to a vehicle (50) equipped with a first camera (11) and a second camera (12) that capture a first image and a second image including a parallax in the left-right direction. An object detection device (20) for detecting an object existing around the vehicle based on
An acquisition unit that acquires the first image and the second image at the present time point and the first image and the second image that are earlier than the present time point;
Each acquired image is divided into predetermined sections, and for each section, the first similarity, which is the similarity between the first image and the second image at the present time, and the first image and the second image in the past. A second similarity that is the similarity of the first image and a third similarity that is the similarity of the first image at the present time and the past, and
Based on the first similarity and the second similarity, it is determined for each section whether or not the first image and the second image match at the present time and the past, and the third similarity is determined. A match determination unit that determines whether or not the first image at the present time and the first image in the past match for each section based on the similarity.
For each of the sections, it is determined that the first image and the second image do not match at the current time and the past, and the first image at the current time and the first image at the past match. When it is determined that there is, a shielding determination unit that determines that a shielding object that blocks the field of view of the camera is present in front of either the first camera or the second camera,
An object detection device comprising.
前記遮蔽判定部は、前記取得した各画像の前記区画ごとに、前記遮蔽物が存在しているか否かを判定するものであって、
前記遮蔽物が存在していると判定された場合に、前記遮蔽物が存在していると判定された区画以外の区画に基づいて前記物体を検出する請求項1に記載の物体検出装置。
The shielding determination unit is for determining whether or not the shielding object exists for each of the sections of the acquired images,
The object detection device according to claim 1, wherein, when it is determined that the shielding object is present, the object is detected based on a section other than the section where the shielding object is determined to be present.
前記算出部は、少なくとも異なる2つの方法を用いて前記第1類似度、前記第2類似度及び前記第3類似度をそれぞれ算出するものであって、
前記遮蔽判定部は、前記各方法において前記遮蔽物が存在しているか否かの判定結果が異なった場合に、前記遮蔽物が存在していると判定する請求項1又は2に記載の物体検出装置。
The calculating unit calculates the first similarity, the second similarity, and the third similarity using at least two different methods,
The object detection according to claim 1 or 2, wherein the shielding determination unit determines that the shielding object exists when the determination result of whether the shielding object exists in each of the methods is different. apparatus.
前記算出部は、前記取得した各画像において、該画像の下領域を、それよりも上の上領域に比べて小さい区画に分割する請求項1乃至3のいずれか1項に記載の物体検出装置。 The object detection apparatus according to claim 1, wherein the calculation unit divides a lower region of the acquired image into sections smaller than upper regions of the acquired images. .. 前記取得した各画像に基づいて前記車両の前方の道路領域を認識する道路領域認識部を備え、
前記算出部は、前記取得した各画像において、前記道路領域を、前記道路領域以外の領域に比べて小さい区画に分割する請求項1乃至4のいずれか1項に記載の物体検出装置。
A road area recognition unit that recognizes a road area in front of the vehicle based on the acquired images,
The object detection device according to claim 1, wherein the calculation unit divides the road area into sections smaller than areas other than the road area in each of the acquired images.
前記算出部は、前記車両の走行状況に応じて、前記取得した各画像の分割の態様を変更する請求項1乃至5のいずれか1項に記載の物体検出装置。 The object detection device according to any one of claims 1 to 5, wherein the calculation unit changes a mode of division of the acquired images according to a traveling state of the vehicle.
JP2016198437A 2016-10-06 2016-10-06 Object detection device Active JP6722084B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016198437A JP6722084B2 (en) 2016-10-06 2016-10-06 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016198437A JP6722084B2 (en) 2016-10-06 2016-10-06 Object detection device

Publications (2)

Publication Number Publication Date
JP2018060422A JP2018060422A (en) 2018-04-12
JP6722084B2 true JP6722084B2 (en) 2020-07-15

Family

ID=61908592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016198437A Active JP6722084B2 (en) 2016-10-06 2016-10-06 Object detection device

Country Status (1)

Country Link
JP (1) JP6722084B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019189314A1 (en) 2018-03-27 2019-10-03 三菱ケミカル株式会社 Composite material molded article and method for manufacturing same
US11699207B2 (en) * 2018-08-20 2023-07-11 Waymo Llc Camera assessment techniques for autonomous vehicles
CN111080571B (en) * 2019-11-15 2023-10-20 北京迈格威科技有限公司 Camera shielding state detection method, device, terminal and storage medium
KR102265496B1 (en) * 2019-11-26 2021-06-17 서울과학기술대학교 산학협력단 Tongue Rail Approach Detector
WO2022130780A1 (en) * 2020-12-14 2022-06-23 日立Astemo株式会社 Image processing device
CN115311685B (en) * 2022-08-05 2023-05-02 杭州电子科技大学 Millimeter wave image detection result judging method based on average structural similarity

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3539788B2 (en) * 1995-04-21 2004-07-07 パナソニック モバイルコミュニケーションズ株式会社 Image matching method
JP3759429B2 (en) * 2001-05-23 2006-03-22 株式会社東芝 Obstacle detection apparatus and method
JP4798576B2 (en) * 2005-12-26 2011-10-19 ダイハツ工業株式会社 Attachment detection device
JP2007208865A (en) * 2006-02-06 2007-08-16 Clarion Co Ltd System for detecting camera state
JP2013191072A (en) * 2012-03-14 2013-09-26 Hitachi Automotive Systems Ltd Object detection device

Also Published As

Publication number Publication date
JP2018060422A (en) 2018-04-12

Similar Documents

Publication Publication Date Title
JP6722084B2 (en) Object detection device
JP4420011B2 (en) Object detection device
JP5886809B2 (en) Outside environment recognition device
WO2016129403A1 (en) Object detection device
JP4937933B2 (en) Outside monitoring device
JP6407626B2 (en) Object recognition device and vehicle control system
JP5906224B2 (en) Outside environment recognition device
US11351997B2 (en) Collision prediction apparatus and collision prediction method
CN112580456A (en) System and method for curb detection and pedestrian hazard assessment
JP2010003254A (en) Image processing apparatus
JP6717240B2 (en) Target detection device
US8160300B2 (en) Pedestrian detecting apparatus
JP2018067062A (en) Vehicle recognition device and vehicle recognition method
US9524645B2 (en) Filtering device and environment recognition system
JP7229032B2 (en) External object detection device
JP2001082954A (en) Image processing device and image processing distance- measuring method
JP5717416B2 (en) Driving support control device
JP2021131869A (en) Road surface state estimation device
WO2020036039A1 (en) Stereo camera device
JP6082293B2 (en) Vehicle white line recognition device
JP6429101B2 (en) Image determination apparatus, image processing apparatus, image determination program, image determination method, moving object
JP5890816B2 (en) Filtering device and environment recognition system
US11417115B2 (en) Obstacle recognition device
WO2024075161A1 (en) Image processing device and image processing method
CN112334944B (en) Mark recognition method and mark recognition device for camera device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200619

R150 Certificate of patent or registration of utility model

Ref document number: 6722084

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250