JP2010060299A - Object detection apparatus - Google Patents

Object detection apparatus Download PDF

Info

Publication number
JP2010060299A
JP2010060299A JP2008223104A JP2008223104A JP2010060299A JP 2010060299 A JP2010060299 A JP 2010060299A JP 2008223104 A JP2008223104 A JP 2008223104A JP 2008223104 A JP2008223104 A JP 2008223104A JP 2010060299 A JP2010060299 A JP 2010060299A
Authority
JP
Japan
Prior art keywords
line pattern
image
detected
electromagnetic wave
wave pulse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008223104A
Other languages
Japanese (ja)
Inventor
Koji Horibe
剛治 堀部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2008223104A priority Critical patent/JP2010060299A/en
Publication of JP2010060299A publication Critical patent/JP2010060299A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detection apparatus which detects a line pattern with high precision, while suppressing a processing load. <P>SOLUTION: A processing section 12, when a white line is detected by a processing section 22, calculates image characteristic quantities (saturation and hue) of the white line. The processing section 12 then detects a position having image characteristic quantities which agree with the calculated characteristic quantities of the white line in the entire image. An image at the position of the white line detected by the processing section 22 of a laser radar apparatus 2 and an image of the remote white line extracted by a camera are combined with each other. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、車両の周囲の障害物等の位置を検出する物体検出装置に関し、特に路面の線模様を検出する物体検出装置に関する。   The present invention relates to an object detection device that detects the position of an obstacle or the like around a vehicle, and more particularly to an object detection device that detects a line pattern on a road surface.

従来、車両周囲の障害物や路面の白線を検出する装置がある。この装置を用いて障害物や白線を検出し、障害物に接近したときや白線から逸脱しそうになったとき、警報を発すること等が行われている。   Conventionally, there are devices that detect obstacles around a vehicle and white lines on a road surface. An obstacle or a white line is detected using this device, and an alarm is issued when an obstacle is approached or when it is about to deviate from the white line.

例えば特許文献1乃至4には、モノクロカメラを用いて白線認識を行う技術が記載されている。特許文献1乃至4に記載されている白線認識の手法は、エッジ検出やハフ変換等、複雑な画像処理を用いて白線を検出するものである。   For example, Patent Documents 1 to 4 describe techniques for performing white line recognition using a monochrome camera. The white line recognition methods described in Patent Documents 1 to 4 detect white lines using complex image processing such as edge detection and Hough transform.

また、特許文献5乃至7には、レーザレーダ装置を用いて白線を検出する手法が提案されている。特許文献5乃至7に記載されているレーザレーダ装置は、レーザ光を路面に向けて走査し、反射波の強度に基づいて白線を検出する。しかし、前方の車両に比較して、白線からの反射波の強度は低く、白線を検出できる限界距離は車両を検出できる限界距離よりも短い。   Patent Documents 5 to 7 propose a method for detecting a white line using a laser radar device. The laser radar devices described in Patent Documents 5 to 7 scan a laser beam toward a road surface and detect a white line based on the intensity of the reflected wave. However, compared with the vehicle ahead, the intensity of the reflected wave from the white line is low, and the limit distance at which the white line can be detected is shorter than the limit distance at which the vehicle can be detected.

さらに、特許文献8、9および非特許文献1には、カラー画像から白線認識を行う技術が記載されている。特許文献8、9および非特許文献1に記載されている白線認識は、予め白線の色を登録しておき、実際に取得したカラー画像の色と比較して白線部分を抽出するものである。しかし、予め白線の色を登録するためには、白線の色の傾向等を事前に分析しておく必要がある。また、新しい白線と古い白線では、汚れ等により色相が異なる場合がある。
特開平10−188198号公報 特開平11−66488号公報 特開平11−85999号公報 特開平11−219435号公報 特開2000−147124号公報 特開2003−121546号公報 特開平8−248133号公報 特許第3120648号公報 特許第3413745号公報 「レーザレーダによる車線認識技術」,小川 高志,高木 聖和,p5−p8,自動車技術会2006年春季大会 学術講演会前刷集No.42−06
Further, Patent Documents 8 and 9 and Non-Patent Document 1 describe techniques for performing white line recognition from a color image. The white line recognition described in Patent Documents 8 and 9 and Non-Patent Document 1 is to register the color of the white line in advance and extract the white line portion compared with the color of the actually acquired color image. However, in order to register the color of the white line in advance, it is necessary to analyze the tendency of the color of the white line in advance. In addition, the hue may be different between the new white line and the old white line due to dirt or the like.
JP-A-10-188198 JP-A-11-66488 JP-A-11-85999 Japanese Patent Laid-Open No. 11-219435 JP 2000-147124 A JP 2003-121546 A JP-A-8-248133 Japanese Patent No. 3120648 Japanese Patent No. 3413745 "Lane recognition technology using laser radar", Takashi Ogawa, Seiwa Takagi, p5-p8, Automobile Engineering Society 2006 Spring Conference Academic Lecture Preprint No. 42-06

この発明は、処理負荷を抑えながら、高精度に線模様を検出する物体検出装置を提供することを目的とする。   An object of the present invention is to provide an object detection device that detects a line pattern with high accuracy while suppressing a processing load.

本発明は、レーザ光等の電磁波パルスを送信する電磁波パルス送信手段、電磁波パルスを走査する走査手段、走査角度を検出する走査角度検出手段、電磁波パルスの反射波を受信する反射波受信手段、電磁波パルスの送信から受信までの経過時間と電磁波パルス送信時の走査角度に基づいて物体を検出する第1物体検出手段、前方を撮影する撮像手段、撮影した画像の画像特徴量を算出する特徴量算出手段、算出した特徴量に基づいて物体を検出する第2物体検出手段を備えている。   The present invention relates to an electromagnetic pulse transmitting means for transmitting an electromagnetic pulse such as a laser beam, a scanning means for scanning the electromagnetic pulse, a scanning angle detecting means for detecting a scanning angle, a reflected wave receiving means for receiving a reflected wave of the electromagnetic pulse, an electromagnetic wave First object detection means for detecting an object based on an elapsed time from pulse transmission to reception and a scanning angle at the time of electromagnetic wave pulse transmission, imaging means for photographing the front, and feature amount calculation for calculating an image feature amount of the photographed image And a second object detecting means for detecting an object based on the calculated feature amount.

さらに、本発明は、前記第1物体検出手段が線模様を検出したか否かを判定する線模様判定手段と、検出した前記線模様の位置を検出する第1線模様位置検出手段と、前記第1線模様位置検出手段が検出した位置において前記画像特徴量を算出する線模様特徴量算出手段と、前記線模様特徴量算出手段が算出した画像特徴量に一致する画像特徴量を有する前記画像の位置を線模様として抽出する第2線模様位置検出手段と、前記第1線模様位置検出手段が検出した線模様の位置における線模様と、前記第2線模様位置検出手段が抽出した線模様のうち、前記第1線模様位置検出手段が検出した位置より遠方の線模様とを合成する線模様合成手段と、を備えたことを特徴とする。   Furthermore, the present invention provides a line pattern determination unit that determines whether or not the first object detection unit has detected a line pattern, a first line pattern position detection unit that detects a position of the detected line pattern, A line pattern feature amount calculating unit that calculates the image feature amount at a position detected by the first line pattern position detecting unit; and the image having an image feature amount that matches the image feature amount calculated by the line pattern feature amount calculating unit. Second line pattern position detecting means for extracting the position of the line pattern as a line pattern, a line pattern at the position of the line pattern detected by the first line pattern position detecting means, and the line pattern extracted by the second line pattern position detecting means And a line pattern synthesizing unit that synthesizes a line pattern far from the position detected by the first line pattern position detecting unit.

このように、本発明は、第1物体検出手段(例えばレーザレーダ装置)で白線等の線模様を検出した場合、線模様特徴量算出手段(例えばカメラ)で、その位置において白線の画像特徴量(彩度、色相等)を算出する。さらに、第2線模様位置検出手段は、画像全体において、算出した白線の画像特徴量に一致する画像特徴量を有する位置を検出することにより、画像内のどの位置に白線が有るかを抽出する。そして、レーザレーダ装置で検出した白線の位置における画像とカメラで抽出した遠方の白線の画像とを合成する。まずレーザレーダ装置で検出した白線の位置において画像特徴量を算出し、その後に画像全体において白線の画像を抽出する構成であるため、処理負荷を抑えながらも高精度に線模様を検出することができる。   Thus, according to the present invention, when a line pattern such as a white line is detected by the first object detection unit (for example, a laser radar device), the line pattern feature amount calculation unit (for example, a camera) detects the white line image feature amount at the position. (Saturation, hue, etc.) are calculated. Further, the second line pattern position detecting means extracts a position in the image where the white line is present by detecting a position having an image feature amount that matches the calculated image feature amount of the white line in the entire image. . Then, the image at the position of the white line detected by the laser radar device and the image of the far white line extracted by the camera are synthesized. First, the image feature amount is calculated at the position of the white line detected by the laser radar device, and then the white line image is extracted from the entire image. Therefore, it is possible to detect the line pattern with high accuracy while suppressing the processing load. it can.

また、上記発明において、前記線模様合成手段は、前記第1線模様位置検出手段が検出した線模様の位置に対し、前記画像内において予め設定した車線幅に相当する距離だけ離れた位置の周囲で前記第2線模様位置検出手段が線模様として抽出した前記画像の位置を、前記第1線模様位置検出手段が検出した線模様の位置として扱うように構成することも可能である。   In the above invention, the line pattern synthesizing unit may be arranged around a position separated from the position of the line pattern detected by the first line pattern position detecting unit by a distance corresponding to a preset lane width in the image. The position of the image extracted as a line pattern by the second line pattern position detecting means can be handled as the position of the line pattern detected by the first line pattern position detecting means.

この場合、レーザレーダ装置で検出した白線の位置が1箇所であっても自車を挟んだ2本の白線の位置を検出することができる。   In this case, even if the position of the white line detected by the laser radar apparatus is one, the positions of the two white lines sandwiching the own vehicle can be detected.

本発明によれば、処理負荷を抑えながら、高精度に線模様を検出することができる。   According to the present invention, it is possible to detect a line pattern with high accuracy while suppressing a processing load.

以下、本発明の実施形態として、カメラおよびレーザレーダ装置からなる物体検出装置について説明する。   Hereinafter, an object detection apparatus including a camera and a laser radar apparatus will be described as an embodiment of the present invention.

図1は、物体検出装置を自動車に取り付けた例を示す図である。物体検出装置は、カメラ1およびレーザレーダ装置2からなる。カメラ1とレーザレーダ装置2は、CAN等の通信ケーブル3を介して接続されている。カメラ1は、例えば車室内のバックミラー裏側等に取り付けられ、自車前方を撮影する。レーザレーダ装置2は、車両前方のバンパ等に取り付けられ、自車前方に電磁波パルスとしてレーザ光を照射する。   FIG. 1 is a diagram illustrating an example in which an object detection device is attached to an automobile. The object detection device includes a camera 1 and a laser radar device 2. The camera 1 and the laser radar device 2 are connected via a communication cable 3 such as CAN. The camera 1 is attached to, for example, the rear side of a rearview mirror in a vehicle interior, and photographs the front of the vehicle. The laser radar device 2 is attached to a bumper or the like in front of the vehicle, and irradiates laser light as an electromagnetic wave pulse in front of the vehicle.

カメラ1の撮影範囲は、レーザレーダ装置2の走査範囲と同一となるように(または走査範囲よりも広くなるように)設置されている。また、カメラ1の設置されている軸(水平方向XC、垂直方向YC、前後方向ZC)とレーザレーダ装置2の設置されている軸(水平方向XL、垂直方向YL、前後方向ZL)は、同一となるように取り付けられている。カメラ1とレーザレーダ装置2の設置されている軸を同一とすることで、レーザ光の走査方向と、カメラ1の撮影方向を同方向とし、レーザ光の走査方向をカメラ1の撮影視野(画像の座標)に変換することが可能となっている。   The photographing range of the camera 1 is set to be the same as the scanning range of the laser radar device 2 (or wider than the scanning range). In addition, the axes on which the camera 1 is installed (horizontal direction XC, vertical direction YC, front-rear direction ZC) and the axes on which the laser radar device 2 is installed (horizontal direction XL, vertical direction YL, front-rear direction ZL) are the same. It is attached to become. By making the axis where the camera 1 and the laser radar device 2 are installed the same, the scanning direction of the laser light and the photographing direction of the camera 1 are the same, and the scanning direction of the laser light is the photographing field of view (image). It is possible to convert it to (coordinates).

図2は、物体検出装置の構成を示すブロック図である。カメラ1は、通信部11、処理部12、撮像部13、およびレンズ14を備えている。レーザレーダ装置2は、通信部21、処理部22、LD(Laser Diode)23、投光レンズ24、受光レンズ25、PD(Photo Diode)26、走査制御部27、レンズ駆動部28、および走査位置検出部29を備えている。   FIG. 2 is a block diagram illustrating a configuration of the object detection apparatus. The camera 1 includes a communication unit 11, a processing unit 12, an imaging unit 13, and a lens 14. The laser radar device 2 includes a communication unit 21, a processing unit 22, an LD (Laser Diode) 23, a light projecting lens 24, a light receiving lens 25, a PD (Photo Diode) 26, a scanning control unit 27, a lens driving unit 28, and a scanning position. A detection unit 29 is provided.

カメラ1の撮像部13は、CCDやCMOS等からなり、処理部12の制御に従って、レンズ14を介して車両前方を撮影し、撮影した画像を処理部12に出力する。   The imaging unit 13 of the camera 1 is composed of a CCD, a CMOS, or the like, and images the front of the vehicle via the lens 14 under the control of the processing unit 12 and outputs the captured image to the processing unit 12.

処理部12は、撮像部13から入力された画像の解析(画像処理)を行う。また、処理部12は、画像処理の結果を通信部11へ出力する。通信部11は、画像処理の結果をレーザレーダ装置2に出力する。   The processing unit 12 performs analysis (image processing) of the image input from the imaging unit 13. Further, the processing unit 12 outputs the result of the image processing to the communication unit 11. The communication unit 11 outputs the result of image processing to the laser radar device 2.

レーザレーダ装置2の処理部22は、LD23の発光を制御する。LD23により発生されたレーザ光は、投光レンズ24を介して車両前方に照射される。照射されたレーザ光が前方の目標(車両や路面)に反射して戻ってきた反射光は、受光レンズ25により集光され、PD26によって受光(受信)される。   The processing unit 22 of the laser radar device 2 controls the light emission of the LD 23. The laser beam generated by the LD 23 is irradiated to the front of the vehicle via the light projection lens 24. The reflected light that is reflected by the irradiated laser light and reflected back to the front target (vehicle or road surface) is collected by the light receiving lens 25 and received (received) by the PD 26.

また、処理部22は、走査制御部27を制御する。走査制御部27は、処理部22の制御に応じてレーザ光を所定の走査範囲で走査させる。すなわち、走査制御部27は、レンズ駆動部28を駆動させ、投光レンズ24および受光レンズ25を一体的に所定の位置に移動させることによりレーザ光を走査させる。なお、図2の例では、水平方向の走査について示しているが、垂直方向についても同様の態様でレーザ光を走査することができる。   Further, the processing unit 22 controls the scanning control unit 27. The scanning control unit 27 scans the laser beam in a predetermined scanning range according to the control of the processing unit 22. That is, the scanning control unit 27 drives the lens driving unit 28 to scan the laser light by integrally moving the light projecting lens 24 and the light receiving lens 25 to a predetermined position. In the example of FIG. 2, scanning in the horizontal direction is shown, but laser light can be scanned in the same manner in the vertical direction.

図3は、レーザ光を走査している様子を示す図である。同図においては、垂直方向に3段階にレーザ光の照射角度を変更する例を示している。図中の破線は路面や車両に投影されているレーザ光の断面形状を示し、1点破線はレーザ光の軌跡を示している。図3に示すように、レーザ光の走査方向と、カメラ1の撮影方向は同方向となっており、レーザ光の走査方向はカメラ1の撮影視野(画像の座標)に変換することが可能となっている。   FIG. 3 is a diagram illustrating a state in which laser light is scanned. In the figure, an example in which the irradiation angle of the laser beam is changed in three stages in the vertical direction is shown. The broken line in the figure indicates the cross-sectional shape of the laser light projected on the road surface or the vehicle, and the one-dot broken line indicates the locus of the laser light. As shown in FIG. 3, the scanning direction of the laser beam and the shooting direction of the camera 1 are the same direction, and the scanning direction of the laser beam can be converted into the shooting field of view (image coordinates) of the camera 1. It has become.

図2において、走査位置検出部29は、走査制御部27におけるレーザ光の水平方向と垂直方向の走査方向(走査角度)をそれぞれ検出して、処理部22に出力する。上述の走査方向から画像座標への変換は、処理部22にて行う。   In FIG. 2, the scanning position detection unit 29 detects the scanning direction (scanning angle) in the horizontal direction and the vertical direction of the laser light in the scanning control unit 27, and outputs it to the processing unit 22. The conversion from the scanning direction to the image coordinates is performed by the processing unit 22.

処理部22には、PD26によって受光された反射光の反射強度に対応する信号が入力される。処理部22は、反射強度を数値化して、走査位置検出部29から入力された走査方向に対応してメモリ(不図示)に記憶する。   A signal corresponding to the reflection intensity of the reflected light received by the PD 26 is input to the processing unit 22. The processing unit 22 digitizes the reflection intensity and stores it in a memory (not shown) corresponding to the scanning direction input from the scanning position detection unit 29.

また、処理部22は、LD23を発光させてレーザ光を照射してからその反射光を受光するまでの経過時間に基づいて目標(対象物)と自車との距離を測定する。処理部22は、反射強度の特徴から、物体の種類を特定する。本実施形態では、対象物が白線であるか否かの判定を行う。白線であると判定した場合、当該白線の位置(距離および走査方向)は、カメラ1の画像座標に変換され、通信部21を介してカメラ1に送信される。   Further, the processing unit 22 measures the distance between the target (target object) and the own vehicle based on the elapsed time from when the LD 23 emits light and irradiates the laser beam to when the reflected light is received. The processing unit 22 identifies the type of object from the characteristic of the reflection intensity. In the present embodiment, it is determined whether or not the object is a white line. When it is determined that the line is a white line, the position (distance and scanning direction) of the white line is converted into image coordinates of the camera 1 and transmitted to the camera 1 via the communication unit 21.

本実施形態の物体検出装置は、レーザレーダ装置2で検出した白線の位置における画像特徴量(彩度、色相等)を算出する。さらに、処理部12は、画像全体において、算出した白線の画像特徴量に一致する画像特徴量を有する位置を抽出する。そして、レーザレーダ装置2で検出した自車付近の白線画像と、遠方の白線画像とを合成し、画像内での白線の位置を検出する。このようにして検出した白線の位置は、レーザレーダ装置2の処理部22から車両制御部等に出力され、警報を発すること等に用いられる。   The object detection apparatus of the present embodiment calculates image feature amounts (saturation, hue, etc.) at the position of the white line detected by the laser radar apparatus 2. Further, the processing unit 12 extracts a position having an image feature amount that matches the calculated image feature amount of the white line in the entire image. Then, the white line image near the own vehicle detected by the laser radar device 2 and the far white line image are synthesized, and the position of the white line in the image is detected. The position of the white line detected in this way is output from the processing unit 22 of the laser radar apparatus 2 to the vehicle control unit or the like, and is used for issuing an alarm.

以下、白線認識の具体的な手法について、図12に示すフローチャートに沿って説明する。図12は、物体検出装置の動作を示すフローチャートである。まず、レーザレーダ装置2の処理部22は、受光強度の特徴から白線を検出する(s11)。   Hereinafter, a specific method of white line recognition will be described with reference to the flowchart shown in FIG. FIG. 12 is a flowchart showing the operation of the object detection apparatus. First, the processing unit 22 of the laser radar device 2 detects a white line from the characteristics of the received light intensity (s11).

図4を用いて反射強度の特徴から白線を検出する手法について説明する。図4(A)は、先行車両と路面にレーザ光を走査した場合の発光強度と反射強度の関係を示す図である。図4(B)は、受光強度の特徴を示す図である。   A method for detecting a white line from the characteristic of the reflection intensity will be described with reference to FIG. FIG. 4A is a diagram showing the relationship between the emission intensity and the reflection intensity when the preceding vehicle and the road surface are scanned with laser light. FIG. 4B is a diagram illustrating characteristics of received light intensity.

レーザ光を先行車両に向けて照射する場合、車両側面から見て、車両前方の水平方向にレーザ光を照射する。この場合、先行車両の反射板にレーザ光が反射する。反射板は、先行車両後方に垂直に取り付けられているため、反射板のどの面にレーザ光を照射しても、レーザレーダ装置2から反射板までの距離は、ほぼ同じである。よって、反射板のどの面でレーザ光が反射しても投光から受光までの時間はほぼ同じとなる。その結果、反射強度は短い時間で急峻なピークを示す。   When irradiating the laser beam toward the preceding vehicle, the laser beam is irradiated in the horizontal direction in front of the vehicle as viewed from the side of the vehicle. In this case, the laser beam is reflected on the reflecting plate of the preceding vehicle. Since the reflector is vertically attached to the rear of the preceding vehicle, the distance from the laser radar device 2 to the reflector is almost the same regardless of which surface of the reflector is irradiated with the laser beam. Therefore, the time from light projection to light reception is almost the same no matter which surface of the reflecting plate reflects the laser light. As a result, the reflection intensity shows a steep peak in a short time.

一方で、レーザ光を路面に向けて照射する場合、車両前方の斜め下方向にレーザ光を照射する。この場合、路面の反射する位置により投光から受光までの時間が異なるため、反射強度は、緩やかなピークを示す。また、路面の白線には、ガラス等の反射率の高い物質が含まれているため、白線に照射されたレーザ光は、比較的高い反射強度を示す。よって、レーザレーダ装置2の処理部22は、同図(B)に示すピークの受光強度Irとパルス幅(半値幅)Wrとの値から白線を検出することができる。すなわち、処理部22は、受光強度Irが所定のしきい値以上であり、かつパルス幅Wr所定のしきい値以上である場合に白線であると判定する。なお、自車と白線との距離Dpは、投光からピーク検出までの経過時間によって表される。   On the other hand, when irradiating the laser beam toward the road surface, the laser beam is irradiated obliquely downward in front of the vehicle. In this case, since the time from light projection to light reception differs depending on the position where the road surface reflects, the reflection intensity shows a gradual peak. Further, since the white line on the road surface contains a material having high reflectivity such as glass, the laser light applied to the white line shows a relatively high reflection intensity. Therefore, the processing unit 22 of the laser radar apparatus 2 can detect a white line from the values of the peak received light intensity Ir and the pulse width (half width) Wr shown in FIG. That is, the processing unit 22 determines that a white line is present when the received light intensity Ir is equal to or greater than a predetermined threshold and the pulse width Wr is equal to or greater than the predetermined threshold. The distance Dp between the vehicle and the white line is represented by the elapsed time from light projection to peak detection.

次に、図12のフローチャートにおいて、白線を検出した後、処理部22は、白線の距離および走査方向をカメラ1の画像の座標情報に変換し、カメラ1に送信する(s12)。レーザレーダ装置2の処理部22で検出した白線の位置を画像上に投影すると、図5(A)のようになる。同図(A)の破線がレーザレーダ装置2の処理部22で検出した白線の位置を示す。この例では、自車前方の路面左側に実線、前方中心付近に矢印線、前方右側に破線が存在する場合を示し、それぞれの白線の一部をレーザレーダ装置2で検出した様子を示している。カメラ1の処理部12は、レーザレーダ装置2の処理部22で検出した白線の位置に同図(B)に示すような矩形領域を設定する(s13)。矩形領域の大きさは、処理部12の処理能力と必要とする処理時間に応じて適宜設定すればよい。処理部12は、設定した矩形領域内で画像特徴量の算出を行う。   Next, in the flowchart of FIG. 12, after detecting the white line, the processing unit 22 converts the distance and the scanning direction of the white line into the coordinate information of the image of the camera 1 and transmits it to the camera 1 (s12). When the position of the white line detected by the processing unit 22 of the laser radar device 2 is projected onto the image, the result is as shown in FIG. A broken line in FIG. 3A indicates the position of the white line detected by the processing unit 22 of the laser radar device 2. In this example, a solid line is present on the left side of the road surface ahead of the vehicle, an arrow line is present in the vicinity of the front center, and a broken line is present on the front right side, and a part of each white line is detected by the laser radar device 2. . The processing unit 12 of the camera 1 sets a rectangular area as shown in FIG. 5B at the position of the white line detected by the processing unit 22 of the laser radar device 2 (s13). The size of the rectangular area may be appropriately set according to the processing capability of the processing unit 12 and the required processing time. The processing unit 12 calculates the image feature amount within the set rectangular area.

まず、処理部12は、設定した矩形領域内の各画素のRGB値の平均値を求める(s14)。そして、RGB値平均値をHSV色座標系に変換する処理を行う(s15)。図6を用いてHSV色座標系について説明する。HSV色座標系は色相(H)、彩度(S)、明度(V)の三つの成分からなる色空間である。処理部12は、この色相、彩度を画像特徴量として算出する。処理部12は、図6に示すように、各矩形領域の色相、彩度の分布を求め、類似する色相、彩度を有するものを白線の色を表す主要クラスタ(集合)としてクラスタ化(分類)する(s16)。なお、処理部12は、明度については考慮せず、汚れ等による白線の明るさの変化の影響を排除する。   First, the processing unit 12 obtains an average value of RGB values of each pixel in the set rectangular area (s14). Then, a process of converting the RGB value average value into the HSV color coordinate system is performed (s15). The HSV color coordinate system will be described with reference to FIG. The HSV color coordinate system is a color space composed of three components of hue (H), saturation (S), and brightness (V). The processing unit 12 calculates the hue and saturation as an image feature amount. As shown in FIG. 6, the processing unit 12 obtains the hue and saturation distribution of each rectangular area, and clusters (classifies) those having similar hue and saturation as the main cluster (set) representing the color of the white line. ) (S16). Note that the processing unit 12 does not consider the brightness, and eliminates the influence of the change in the brightness of the white line due to dirt or the like.

その後、処理部12は、画像の全画素において上記色相、彩度を算出し、主要クラスタに含まれる色相、彩度を有する位置を抽出する(s17)。図7は、全画素において、主要クラスタ内に含まれる画素だけを抽出したことを示す図である。同図の斜線部分が主要クラスタ内に含まれる画素を示している。   Thereafter, the processing unit 12 calculates the hue and saturation in all the pixels of the image, and extracts a position having the hue and saturation included in the main cluster (s17). FIG. 7 is a diagram showing that only the pixels included in the main cluster are extracted from all the pixels. The hatched portion in the figure shows the pixels included in the main cluster.

その後、処理部12は、レーザレーダ装置2で検出した複数の白線位置のうちいずれか1つに対し、水平線と結ぶ直線をN本設定する(s18)。図8を用いて直線設定について説明する。図8に示すように、処理部12は、レーザレーダ装置2で検出した白線の位置のうち、いずれか1箇所を位置Aとして設定する。この位置Aから、予め設定した水平線(例えば消失点を通る水平線)に対し、複数の直線1〜Nを設定する。直線の数は、処理部12の画像処理の能力と必要とする処理時間に応じて適宜設定する。処理部12は、設定した各直線において、白線の主要クラスタ内に含まれる画素数を算出し、度数分布(ヒストグラム)を作成する(s19)。   Thereafter, the processing unit 12 sets N straight lines connecting to the horizontal line for any one of the plurality of white line positions detected by the laser radar device 2 (s18). The straight line setting will be described with reference to FIG. As illustrated in FIG. 8, the processing unit 12 sets any one position as the position A among the positions of the white lines detected by the laser radar device 2. From this position A, a plurality of straight lines 1 to N are set with respect to a preset horizontal line (for example, a horizontal line passing through the vanishing point). The number of straight lines is appropriately set according to the image processing capability of the processing unit 12 and the required processing time. The processing unit 12 calculates the number of pixels included in the main cluster of white lines in each set straight line, and creates a frequency distribution (histogram) (s19).

図9(A)は、各直線の度数分布を示す図である。同図(A)に示すグラフの横軸は各直線1〜Nを示し、縦軸は主要クラスタ内に含まれる画素数(度数)を示す。処理部12は、これらの直線から最も度数の多い(度数のピークを有する)直線Kを特定する(s20)。図9(B)は、特定した直線Kを画像上に表した図である。   FIG. 9A shows the frequency distribution of each straight line. The horizontal axis of the graph shown in FIG. 6A indicates the respective straight lines 1 to N, and the vertical axis indicates the number of pixels (frequency) included in the main cluster. The processing unit 12 identifies the straight line K having the highest frequency (having a frequency peak) from these straight lines (s20). FIG. 9B is a diagram showing the identified straight line K on the image.

処理部12は、以上のような直線の設定と度数分布の算出、度数のピークを有する直線の特定処理を複数回(例えば設定した矩形領域の数だけ)繰り返し(s21)、複数の直線を特定する(s22)。   The processing unit 12 repeats the above-described straight line setting, frequency distribution calculation, and straight line identification process having a frequency peak a plurality of times (for example, the number of set rectangular areas) (s21) to identify a plurality of straight lines. (S22).

図10(A)に、3本の直線を特定した例を示す。同図(A)では、前方左側の実線、自車前方の矢印線、前方右側の破線に対して、それぞれ直線A,B,Cを特定した場合の例を示す。処理部12は、特定した3本の直線において、それぞれの度数を比較する。図10(B)は、各直線の度数を比較した図である。処理部12は、これらの直線から、最も度数が多い2本の直線を選択する(s23)。   FIG. 10A shows an example in which three straight lines are specified. FIG. 4A shows an example in which straight lines A, B, and C are specified for a solid line on the front left side, an arrow line on the front side of the host vehicle, and a broken line on the front right side. The processing unit 12 compares the frequencies in the three identified straight lines. FIG. 10B is a diagram comparing the frequency of each straight line. The processing unit 12 selects two straight lines with the highest frequency from these straight lines (s23).

図11に選択した2本の直線を画像内に表した図を示す。同図(A)に示すように、路面に存在する実線や破線は、矢印線に比べて白線の画像特徴量を含む位置が多いため、最も度数が多い2本の直線を選択すると、自車を挟んだ2本の車線として近似することができる。そして、処理部12は、選択した2本の直線の近傍において、上記主要クラスタ内に含まれる画素を抽出し、抽出した画素の位置を白線の位置として検出する(s24)。図11(B)は、検出した白線を画像内に表した図である。同図の斜線部分が白線として検出した位置である。この例では、自車を挟む2本の車線を直線で近似し、その近傍において主要クラスタに含まれる画素を抽出するため、多少車線が曲がっていたとしても正確に車線の位置を検出することができる。   FIG. 11 is a diagram showing the two selected straight lines in the image. As shown in FIG. 6A, since solid lines and broken lines existing on the road surface have more positions including image features of white lines than arrow lines, if two straight lines with the highest frequency are selected, the vehicle Can be approximated as two lanes. Then, the processing unit 12 extracts pixels included in the main cluster in the vicinity of the two selected straight lines, and detects the position of the extracted pixels as the position of the white line (s24). FIG. 11B shows the detected white line in the image. The hatched portion in the figure is the position detected as a white line. In this example, two lanes sandwiching the host vehicle are approximated by a straight line, and pixels included in the main cluster are extracted in the vicinity thereof, so that the position of the lane can be accurately detected even if the lane is slightly bent. it can.

このようにして、レーザレーダ装置2で検出した白線の位置の周囲における白線画像と、その位置より遠方で抽出したした白線の画像とを合成することで、自車を挟む2本の車線(白線)の位置を正確に検出することができる。   In this way, by synthesizing the white line image around the position of the white line detected by the laser radar device 2 and the image of the white line extracted far from the position, two lanes (white line) sandwiching the vehicle ) Position can be accurately detected.

最後に、処理部12は、抽出した白線の画素の位置をメモリ(不図示)に記憶するか、またはレーザレーダ装置2の処理部22に出力する(s25)。レーザレーダ装置2の処理部22に出力された場合、当該白線の位置を示す情報は車両制御部等に出力され、警報を発すること等に用いられる。   Finally, the processing unit 12 stores the extracted white line pixel position in a memory (not shown) or outputs it to the processing unit 22 of the laser radar device 2 (s25). When output to the processing unit 22 of the laser radar device 2, the information indicating the position of the white line is output to the vehicle control unit or the like and used for issuing an alarm.

以上のように、本実施形態の物体検出装置は、まずレーザレーダ装置で白線を検出し、その位置における画像特徴量を算出してから、全画素において当該画像特徴量に含まれる位置を抽出することで、処理負荷を抑えながらも高精度に線模様を検出することができる。   As described above, the object detection apparatus according to the present embodiment first detects a white line with a laser radar device, calculates an image feature amount at the position, and then extracts a position included in the image feature amount at all pixels. Thus, it is possible to detect the line pattern with high accuracy while suppressing the processing load.

なお、図12に示したフローチャートにおいて、s21〜s23で行った処理は、以下の様な例の処理に置き換えることも可能である。図13は、他の例における白線検出の手法を示す図である。図14は、物体検出装置の他の例における動作を示すフローチャートである。なお、図14に示すフローチャートにおいて、図12と共通する処理については同一の符号を付し、その説明を省略する。   In the flowchart shown in FIG. 12, the processing performed in s21 to s23 can be replaced with the processing in the following example. FIG. 13 is a diagram illustrating a white line detection method in another example. FIG. 14 is a flowchart showing an operation in another example of the object detection apparatus. In the flowchart shown in FIG. 14, processes that are the same as those in FIG. 12 are given the same reference numerals, and descriptions thereof are omitted.

この例において、処理部12は、レーザレーダ装置2で検出した白線の位置Aから主要クラスタ内に含まれる画素数(度数)が最も多い直線Kを特定した後、当該白線の位置Aから予め設定した車線幅(最低車線幅)に相当する距離だけ離れた位置の周囲に白線を検出する探索範囲を設定する(s31)。処理部12は、設定した探索範囲において主要クラスタに含まれる画素が存在するか否かを判断する(s32)。主要クラスタに含まれる画素が存在せず、白線が存在しないと判断した場合、動作を終了する(次の計測まで待機する)。なお、画像内の右側にレーザレーダ装置2で白線を検出した場合、画像左側に向かって探索範囲を設定し、画像内の左側にレーザレーダ装置2で白線を検出した場合、画像右側に向かって探索範囲を設定する。中心付近で白線を検出した場合は、動作を終了する。   In this example, the processing unit 12 specifies the straight line K having the largest number of pixels (frequency) included in the main cluster from the position A of the white line detected by the laser radar device 2, and then sets in advance from the position A of the white line. A search range for detecting a white line is set around a position separated by a distance corresponding to the lane width (minimum lane width) (s31). The processing unit 12 determines whether or not there are pixels included in the main cluster in the set search range (s32). When it is determined that there are no pixels included in the main cluster and no white line is present, the operation ends (waits for the next measurement). When a white line is detected by the laser radar device 2 on the right side of the image, a search range is set toward the left side of the image, and when a white line is detected by the laser radar device 2 on the left side of the image, the right side of the image is directed. Set the search range. If a white line is detected near the center, the operation ends.

白線が存在すると判定した場合、処理部12は、その画素を含む位置から、図8に示したように水平線に対してN本の直線を設定し、主要クラスタ内に含まれる画素数(度数)が最も多い直線Kを特定する(s33)。そして、特定した2本の直線の近傍で上記主要クラスタ内に含まれる画素を抽出し、抽出した画素の位置を白線として検出する(s24)。   If it is determined that a white line is present, the processing unit 12 sets N straight lines with respect to the horizontal line as shown in FIG. 8 from the position including the pixel, and the number of pixels (frequency) included in the main cluster. The straight line K having the largest number is identified (s33). Then, pixels included in the main cluster are extracted in the vicinity of the two specified straight lines, and the positions of the extracted pixels are detected as white lines (s24).

このように、図13および図14に示した例では、レーザレーダ装置2で検出した白線の位置に対し、予め設定した車線幅に相当する距離だけ離れた位置の周囲で白線の画像特徴量を抽出する。当該画像特徴量を抽出することができた位置をレーザレーダ装置2が検出した白線の位置として扱うように構成する。この場合、レーザレーダ装置2において白線を検出した位置が1箇所である場合であっても、自車を挟む2本の白線の位置を検出することができる。   As described above, in the example shown in FIGS. 13 and 14, the image characteristic amount of the white line around the position separated by the distance corresponding to the preset lane width is set with respect to the position of the white line detected by the laser radar device 2. Extract. The position where the image feature amount can be extracted is treated as the position of the white line detected by the laser radar device 2. In this case, even if the position where the white line is detected in the laser radar device 2 is one place, the positions of the two white lines sandwiching the own vehicle can be detected.

なお、本発明で検出する線模様は、本実施形態のように白線に限らず、黄色線、中央分離帯、道路と路側の境界線等、線模様であればどのようなものであってもよい。   Note that the line pattern detected by the present invention is not limited to a white line as in the present embodiment, but may be any line pattern such as a yellow line, a median strip, a road and roadside boundary line, and the like. Good.

物体検出装置を自動車に取り付けた例を示す図である。It is a figure which shows the example which attached the object detection apparatus to the motor vehicle. カメラおよびレーザレーダ装置の構成を示すブロック図である。It is a block diagram which shows the structure of a camera and a laser radar apparatus. レーザ光を走査している様子を示す図である。It is a figure which shows a mode that the laser beam is scanned. 先行車両と路面にレーザ光を走査した場合の発光強度と受光強度の関係を示す図である。It is a figure which shows the relationship between the light emission intensity | strength at the time of scanning a laser beam to a preceding vehicle and a road surface. レーザレーダ装置2の処理部22で検出した白線の位置を画像上に投影した様子を示す図である。It is a figure which shows a mode that the position of the white line detected by the process part 22 of the laser radar apparatus 2 was projected on the image. RGBをHSVに変換し、主要クラスタとして集合化したことを示す図である。It is a figure which shows having converted RGB into HSV and having assembled it as a main cluster. 全画素において、主要クラスタ内に含まれる画素だけを抽出したことを示す図である。It is a figure which shows having extracted only the pixel contained in the main cluster in all the pixels. レーザレーダ装置で検出した複数の白線位置のうち1つ(位置A)に対し、水平線と結ぶ直線をN本設定する例を示す図である。It is a figure which shows the example which sets the N straight line connected with a horizontal line with respect to one (position A) among several white line positions detected with the laser radar apparatus. 各直線の度数分布を示す図、および特定した直線Kを画像上に表した図である。It is the figure which shows the frequency distribution of each straight line, and the figure which represented the specified straight line K on the image. 特定した複数本の直線とそれぞれの度数を示した図である。It is the figure which showed the specified several straight line and each frequency. 選択した最も度数が多い2本の直線を画像内に表した図である。It is the figure which represented two straight lines with the most frequent frequency in the image. 物体検出装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an object detection apparatus. 他の例における白線検出の手法を示す図である。It is a figure which shows the method of the white line detection in another example. 物体検出装置の他の例における動作を示すフローチャートである。It is a flowchart which shows the operation | movement in the other example of an object detection apparatus.

Claims (2)

前方に電磁波パルスを送信する電磁波パルス送信手段と、
前記電磁波パルス送信手段が送信した電磁波パルスを走査する走査手段と、
前記走査手段の走査角度を検出する走査角度検出手段と、
前記電磁波パルス送信手段が送信した電磁波パルスについて、目標で反射した電磁波パルスを受信する反射波受信手段と、
受信した電磁波パルスの強度、前記電磁波パルス送信手段が電磁波パルスを送信してから、前記反射波受信手段が反射した電磁波パルスを受信するまでの経過時間、および前記電磁波パルス送信手段が電磁波パルスを送信したときの前記走査角度検出手段が検出した走査角度に基づいて、前記電磁波パルスを反射した物体を検出する第1物体検出手段と、
前記前方を撮影し、画像を出力する撮像手段と、
前記撮像手段が出力した画像に基づいて、画像特徴量を算出する特徴量算出手段と、
前記特徴量算出手段の算出結果に基づいて、前記画像内の物体の種類を検出する第2物体検出手段と、を備えた物体検出装置において、
前記第1物体検出手段が線模様を検出したか否かを判定する線模様判定手段と、
検出した前記線模様の位置を検出する第1線模様位置検出手段と、
前記第1線模様位置検出手段が検出した位置において前記画像特徴量を算出する線模様特徴量算出手段と、
前記線模様特徴量算出手段が算出した画像特徴量に一致する画像特徴量を有する前記画像の位置を線模様として抽出する第2線模様位置検出手段と、
前記第1線模様位置検出手段が検出した線模様の位置における線模様と、前記第2線模様位置検出手段が抽出した線模様のうち、前記第1線模様位置検出手段が検出した位置より遠方の線模様とを合成する線模様合成手段と、
を備えた物体検出装置。
An electromagnetic pulse transmitting means for transmitting an electromagnetic pulse forward;
Scanning means for scanning the electromagnetic wave pulse transmitted by the electromagnetic wave pulse transmitting means;
Scanning angle detection means for detecting a scanning angle of the scanning means;
About the electromagnetic wave pulse transmitted by the electromagnetic wave pulse transmitting means, the reflected wave receiving means for receiving the electromagnetic wave pulse reflected by the target;
The intensity of the received electromagnetic wave pulse, the elapsed time from when the electromagnetic wave pulse transmitting unit transmits the electromagnetic wave pulse until the reflected wave receiving unit receives the reflected electromagnetic wave pulse, and the electromagnetic wave pulse transmitting unit transmits the electromagnetic wave pulse First object detection means for detecting an object reflecting the electromagnetic wave pulse based on the scanning angle detected by the scanning angle detection means when
Imaging means for imaging the front and outputting an image;
Feature quantity calculating means for calculating an image feature quantity based on the image output by the imaging means;
An object detection device comprising: second object detection means for detecting a type of an object in the image based on a calculation result of the feature quantity calculation means;
Line pattern determination means for determining whether or not the first object detection means has detected a line pattern;
First line pattern position detecting means for detecting the position of the detected line pattern;
A line pattern feature quantity calculating means for calculating the image feature quantity at the position detected by the first line pattern position detecting means;
Second line pattern position detecting means for extracting, as a line pattern, the position of the image having an image feature quantity that matches the image feature quantity calculated by the line pattern feature quantity calculating means;
Of the line pattern at the position of the line pattern detected by the first line pattern position detection unit and the line pattern extracted by the second line pattern position detection unit, farther than the position detected by the first line pattern position detection unit A line pattern combining means for combining the line pattern of
An object detection apparatus comprising:
前記線模様合成手段は、前記第1線模様位置検出手段が検出した線模様の位置に対し、前記画像内において予め設定した車線幅に相当する距離だけ離れた位置の周囲で前記第2線模様位置検出手段が線模様として抽出した前記画像の位置を、前記第1線模様位置検出手段が検出した線模様の位置として扱う請求項1に記載の物体検出装置。   The line pattern synthesizing unit is configured to output the second line pattern around a position separated from the position of the line pattern detected by the first line pattern position detecting unit by a distance corresponding to a preset lane width in the image. The object detection apparatus according to claim 1, wherein the position of the image extracted as a line pattern by the position detection unit is handled as the position of the line pattern detected by the first line pattern position detection unit.
JP2008223104A 2008-09-01 2008-09-01 Object detection apparatus Pending JP2010060299A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008223104A JP2010060299A (en) 2008-09-01 2008-09-01 Object detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008223104A JP2010060299A (en) 2008-09-01 2008-09-01 Object detection apparatus

Publications (1)

Publication Number Publication Date
JP2010060299A true JP2010060299A (en) 2010-03-18

Family

ID=42187270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008223104A Pending JP2010060299A (en) 2008-09-01 2008-09-01 Object detection apparatus

Country Status (1)

Country Link
JP (1) JP2010060299A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221005A (en) * 2010-03-26 2011-11-04 Denso Corp Division line detector and method for detecting division line
CN103403577A (en) * 2011-03-02 2013-11-20 丰田自动车株式会社 Laser radar device
WO2015129907A1 (en) * 2014-02-25 2015-09-03 Ricoh Company, Ltd. Distance measuring device and parallax calculation system
JP2016177622A (en) * 2015-03-20 2016-10-06 株式会社デンソー Information processing device, information processing system, and program
JP2022534838A (en) * 2019-04-05 2022-08-04 ボルボトラックコーポレーション Method and control unit for determining parameters indicative of road capacity of road sections supporting vehicles
JP2022185089A (en) * 2017-01-26 2022-12-13 モービルアイ ビジョン テクノロジーズ リミテッド Vehicle navigation based on aligned image and lidar information

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221005A (en) * 2010-03-26 2011-11-04 Denso Corp Division line detector and method for detecting division line
US8724093B2 (en) 2010-03-26 2014-05-13 Denso Corporation Apparatus and method for detecting division lines depicted on road
CN103403577A (en) * 2011-03-02 2013-11-20 丰田自动车株式会社 Laser radar device
US8994928B2 (en) 2011-03-02 2015-03-31 Toyota Jidosha Kabushiki Kaisha Laser radar device
CN106030243B (en) * 2014-02-25 2019-05-03 株式会社理光 Distance-measuring device and disparity computation system
JP2015179078A (en) * 2014-02-25 2015-10-08 株式会社リコー Parallax calculation system and distance measurement device
CN106030243A (en) * 2014-02-25 2016-10-12 株式会社理光 Distance measuring device and parallax calculation system
KR101891907B1 (en) * 2014-02-25 2018-08-24 가부시키가이샤 리코 Distance measuring device and parallax calculation system
WO2015129907A1 (en) * 2014-02-25 2015-09-03 Ricoh Company, Ltd. Distance measuring device and parallax calculation system
US10670726B2 (en) 2014-02-25 2020-06-02 Ricoh Company, Ltd. Distance measuring device and parallax calculation system
JP2016177622A (en) * 2015-03-20 2016-10-06 株式会社デンソー Information processing device, information processing system, and program
JP2022185089A (en) * 2017-01-26 2022-12-13 モービルアイ ビジョン テクノロジーズ リミテッド Vehicle navigation based on aligned image and lidar information
US11953599B2 (en) 2017-01-26 2024-04-09 Mobileye Vision Technologies Ltd. Vehicle navigation based on aligned image and LIDAR information
JP2022534838A (en) * 2019-04-05 2022-08-04 ボルボトラックコーポレーション Method and control unit for determining parameters indicative of road capacity of road sections supporting vehicles
JP7348302B2 (en) 2019-04-05 2023-09-20 ボルボトラックコーポレーション Method and control unit for determining parameters indicative of road capacity of a road section supporting a vehicle

Similar Documents

Publication Publication Date Title
JP6471528B2 (en) Object recognition apparatus and object recognition method
CN110325879B (en) System and method for compressed three-dimensional depth sensing
WO2020121973A1 (en) Object identification system, operation processing device, vehicle, lighting tool for vehicle, and training method for classifier
EP2889641B1 (en) Image processing apparatus, image processing method, program and image processing system
JP6459659B2 (en) Image processing apparatus, image processing method, driving support system, program
JP2020003236A (en) Distance measurement device, moving body, distance measurement method, and distance measurement system
JP2010060299A (en) Object detection apparatus
JP6435661B2 (en) Object identification system, information processing apparatus, information processing method, and program
JP2006343198A (en) Image processing system for vehicle and drive assist device
JPH09142236A (en) Periphery monitoring method and device for vehicle, and trouble deciding method and device for periphery monitoring device
JP2011099683A (en) Body detector
JP2006258497A (en) Object recognition apparatus for vehicle
JP6782433B2 (en) Image recognition device
CN109196304B (en) Object distance detection device
JP7131180B2 (en) Ranging device, ranging method, program, moving body
EP3115966A1 (en) Object detection device, object detection method, and computer program
JP2010060371A (en) Object detection apparatus
JP2008224620A (en) Range finder
JP4123138B2 (en) Vehicle detection method and vehicle detection device
JP2005025497A (en) Sign recognizing device
WO2020213386A1 (en) Object position detection device, travel control system, and travel control method
JP2005141517A (en) Vehicle detecting method and device
WO2021060397A1 (en) Gating camera, automobile, vehicle lamp, image processing device, and image processing method
JP2007089094A (en) Pedestrian detection device
US20240151853A1 (en) Measurement device, measurement method, and information processing device