JP4127255B2 - Pop-up object detection device - Google Patents

Pop-up object detection device Download PDF

Info

Publication number
JP4127255B2
JP4127255B2 JP2004251686A JP2004251686A JP4127255B2 JP 4127255 B2 JP4127255 B2 JP 4127255B2 JP 2004251686 A JP2004251686 A JP 2004251686A JP 2004251686 A JP2004251686 A JP 2004251686A JP 4127255 B2 JP4127255 B2 JP 4127255B2
Authority
JP
Japan
Prior art keywords
detection
optical flow
pop
road
detection area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004251686A
Other languages
Japanese (ja)
Other versions
JP2006072439A (en
Inventor
秀和 西内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004251686A priority Critical patent/JP4127255B2/en
Publication of JP2006072439A publication Critical patent/JP2006072439A/en
Application granted granted Critical
Publication of JP4127255B2 publication Critical patent/JP4127255B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両の前方に飛び出してくる物体を検出する装置に関する。   The present invention relates to an apparatus for detecting an object that pops out ahead of a host vehicle.

2台のカメラで撮像したステレオ画像を用いて、自車両前方に飛び出す歩行者などの物体を検出する方法が知られている(特許文献1)。これは、ステレオ画像から算出した距離分布データと画面上の物体の動きにより、自車両の前方に飛び出す物体を検出して運転者へ警報を発するものである。   There is known a method of detecting an object such as a pedestrian that jumps out ahead of the host vehicle using stereo images captured by two cameras (Patent Document 1). This detects an object popping out ahead of the host vehicle based on the distance distribution data calculated from the stereo image and the movement of the object on the screen, and issues a warning to the driver.

特開平9−226490号公報JP 9-226490 A

特許文献1に開示される方法では、ステレオ画像を取得するために2台のカメラが必要であり、コスト的に不利である。したがって、1台のカメラの撮像画像により自車両前方に飛び出す物体を検出できる装置が求められている。   In the method disclosed in Patent Document 1, two cameras are required to acquire a stereo image, which is disadvantageous in terms of cost. Accordingly, there is a need for an apparatus that can detect an object that jumps forward of the host vehicle from an image captured by one camera.

本発明による飛び出し物体検出装置は、自車両の進行先の撮像画像を取得する撮像手段と、自車両の移動量を検出する移動量検出手段と、移動量検出手段により検出された移動量に基づいて、実空間上に仮想的に固定された検出領域を撮像画像中に設定する検出領域設定手段と、検出領域設定手段により設定された検出領域における物体の画像上の速度を示すオプティカルフローを算出するオプティカルフロー算出手段と、オプティカルフローに基づいて、自車両の進行先に飛び出す飛び出し物体を検出する飛び出し物体検出手段とを備え、検出領域設定手段は、自車両が走行している道路の境界部分から所定距離離れた地点と、その地点よりも所定の横間隔だけ道路に対して近い地点とをそれぞれの実空間上における仮想的な設定位置とする2つの検出領域を設定し、オプティカルフロー算出手段は、2つの検出領域のうち道路に対して外側に設定された第1の検出領域における物体の画像上の速度を示す第1のオプティカルフローと、第1の検出領域よりも道路に対して内側に設定された第2の検出領域における物体の画像上の速度を示す第2のオプティカルフローとを算出し、飛び出し物体検出手段は、第1のオプティカルフローに基づいて算出された物体の実空間上における第1の移動速度と、第2のオプティカルフローに基づいて算出された物体の実空間上における第2の移動速度との差が所定値以下である場合、物体を飛び出し物体として検出するものである。
The pop-out object detection device according to the present invention is based on an imaging unit that acquires a captured image of a destination of a host vehicle, a movement amount detection unit that detects a movement amount of the host vehicle, and a movement amount detected by the movement amount detection unit. The detection area setting means for setting the detection area virtually fixed in the real space in the captured image, and the optical flow indicating the velocity on the image of the object in the detection area set by the detection area setting means is calculated. An optical flow calculating means that detects and a pop-out object detecting means that detects a pop-out object that jumps out to the destination of the own vehicle based on the optical flow, and the detection area setting means is a boundary portion of the road on which the own vehicle is traveling A virtual set position in each real space is a point that is a predetermined distance away from the point and a point that is closer to the road by a predetermined lateral distance than that point. Two detection areas are set, and the optical flow calculation means includes a first optical flow indicating a speed on the image of the object in the first detection area set outside the road among the two detection areas; The pop-out object detection means calculates the second optical flow indicating the speed on the image of the object in the second detection area set inside the road from the first detection area. The difference between the first movement speed of the object calculated based on the flow in the real space and the second movement speed of the object calculated based on the second optical flow is less than or equal to a predetermined value. In some cases, the object is detected as a pop-out object.

本発明によれば、自車両の進行先の撮像画像を取得し、この撮像画像中に実空間上に仮想的に固定された検出領域を設定して、設定された検出領域におけるオプティカルフローを算出し、そのオプティカルフローに基づいて飛び出し物体を検出する。すなわち、自車両が走行している道路の境界部分から所定距離離れた地点と、その地点よりも所定の横間隔だけ道路に対して近い地点とをそれぞれの実空間上における仮想的な設定位置とする2つの検出領域を設定し、2つの検出領域のうち道路に対して外側に設定された第1の検出領域における物体の画像上の速度を示す第1のオプティカルフローと、第1の検出領域よりも道路に対して内側に設定された第2の検出領域における物体の画像上の速度を示す第2のオプティカルフローとを算出し、第1のオプティカルフローに基づいて算出された物体の実空間上における第1の移動速度と、第2のオプティカルフローに基づいて算出された物体の実空間上における第2の移動速度との差が所定値以下である場合、その物体を飛び出し物体として検出することとした。このようにしたので、1台のカメラの撮像画像により自車両前方に飛び出す物体を検出することができる。   According to the present invention, a captured image of the destination of the host vehicle is acquired, a detection area virtually fixed in real space is set in the captured image, and an optical flow in the set detection area is calculated. Then, a pop-out object is detected based on the optical flow. That is, a point that is a predetermined distance away from the boundary portion of the road on which the vehicle is traveling and a point that is closer to the road by a predetermined lateral distance than the point are virtual set positions in the respective real spaces. A first optical flow indicating the speed on the image of the object in the first detection area set outside the road among the two detection areas, and the first detection area The second optical flow indicating the speed on the image of the object in the second detection region set on the inner side of the road, and the real space of the object calculated based on the first optical flow If the difference between the first moving speed above and the second moving speed of the object calculated based on the second optical flow in the real space is equal to or less than a predetermined value, the object is It was possible to detect Te. Since it did in this way, the object which jumps out ahead of the own vehicle can be detected with the picked-up image of one camera.

本発明の一実施形態による物体検出装置の構成を図1に示す。この物体検出装置は車両に搭載されて使用され、1台のカメラで撮像した撮像画像に基づいて自車両の前方に飛び出す物体を検出して、運転者に警報を発するものである。この車両検出装置は、カメラ1、画像メモリ2、車輪速センサ3、操舵角センサ4、マイコン5および警報機6を備えている。   FIG. 1 shows the configuration of an object detection apparatus according to an embodiment of the present invention. This object detection device is mounted on a vehicle and used to detect an object that jumps out ahead of the host vehicle based on a captured image captured by a single camera, and issues a warning to the driver. The vehicle detection device includes a camera 1, an image memory 2, a wheel speed sensor 3, a steering angle sensor 4, a microcomputer 5, and an alarm device 6.

カメラ1は自車両前方を撮像するように自車両の前部に設置されており、撮像した画像を画像信号として画像メモリ2へ出力する。カメラ1には、たとえばCCDカメラ等が用いられる。画像メモリ2は、カメラ1から入力された画像信号を画像データとして記憶保持するためのフレームメモリである。画像メモリ2に記憶された画像データは、マイコン5の制御により画像フレーム単位でマイコン5に出力される。   The camera 1 is installed at the front of the host vehicle so as to capture the front of the host vehicle, and outputs the captured image to the image memory 2 as an image signal. As the camera 1, for example, a CCD camera or the like is used. The image memory 2 is a frame memory for storing and holding an image signal input from the camera 1 as image data. The image data stored in the image memory 2 is output to the microcomputer 5 in units of image frames under the control of the microcomputer 5.

車輪速センサ3は、自車両の各タイヤ付近に備えられており、自車両のタイヤの回転を検出することによって車輪速を計測する。操舵角センサ4は、自車両のステアリングの操作状態を検出することによって操舵角を計測する。これらのセンサによって計測された車輪速データと操舵角データは、マイコン5に出力される。   The wheel speed sensor 3 is provided near each tire of the host vehicle, and measures the wheel speed by detecting the rotation of the tire of the host vehicle. The steering angle sensor 4 measures the steering angle by detecting the operation state of the steering of the host vehicle. Wheel speed data and steering angle data measured by these sensors are output to the microcomputer 5.

マイコン5は、画像メモリ2から画像データを読み出すことによって、カメラ1により撮像された自車両前方の撮像画像を読み込む。また、車輪速センサ3と操舵角センサ4によりそれぞれ計測された車輪速データおよび操舵角データに基づいて、自車両の移動量を検出する。そして、この撮像画像と自車両の移動量に基づいて、以下に説明するような処理を実行することにより、自車両前方に飛び出してくる歩行者などの物体を検出する。このようにして検出される物体を、以下では飛び出し物体という。マイコン5において飛び出し物体が検出されると、警報機6を動作させるための信号がマイコン5より出力され、警報機6において警報音が出力される。このようにして、自車両の運転者に飛び出し物体の存在を報知する。   The microcomputer 5 reads image data from the image memory 2 to read a captured image in front of the host vehicle captured by the camera 1. Further, the movement amount of the host vehicle is detected based on the wheel speed data and the steering angle data respectively measured by the wheel speed sensor 3 and the steering angle sensor 4. Then, based on the captured image and the amount of movement of the host vehicle, a process as described below is executed to detect an object such as a pedestrian jumping out in front of the host vehicle. The object detected in this way is hereinafter referred to as a pop-out object. When a pop-out object is detected in the microcomputer 5, a signal for operating the alarm device 6 is output from the microcomputer 5, and an alarm sound is output in the alarm device 6. In this way, the presence of the object popping out is notified to the driver of the host vehicle.

マイコン5において飛び出し物体を検出するときの処理内容について説明する。図2は、カメラ1によって取得された撮像画像から、自車両が走行している道路の脇より道路上へと進入してくる進入者200を飛び出し物体として検出するときの様子を示している。マイコン5において撮像画像が読み込まれると、初めに道路の境界部分を示すレーンマーク(白線)を撮像画像から抽出する。このレーンマークは、ソベルフィルタと呼ばれる画像フィルタを用いて撮像画像から縦方向のエッジを抽出し、そのエッジに対してハフ変換と呼ばれる処理を行って直線形状を求めることにより、撮像画像から抽出することができる。なお、こうしたレーンマークの抽出方法は周知の画像処理手法であるため、ここでは詳しい説明を省略する。   Processing contents when the microcomputer 5 detects a pop-out object will be described. FIG. 2 shows a state when an intruder 200 entering the road from the side of the road on which the host vehicle is traveling is detected as a pop-out object from the captured image acquired by the camera 1. When a captured image is read by the microcomputer 5, a lane mark (white line) indicating a road boundary is first extracted from the captured image. The lane mark is extracted from the captured image by extracting a vertical edge from the captured image using an image filter called a Sobel filter and performing a process called Hough transform on the edge to obtain a linear shape. be able to. Note that such a lane mark extraction method is a well-known image processing method, and a detailed description thereof will be omitted here.

撮像画像からレーンマークが抽出されたら、次に撮像画像から物体を検出するための検出領域を撮像画像中に設定する。このとき、抽出されたレーンマークの位置に基づいて各検出領域の設定位置を決めることとし、レーンマークに沿って検出領域を所定間隔ごとに並べることで、自車両が走行している道路に沿って検出領域が所定間隔ごとに設定されるようにする。さらにこのとき、所定の横間隔ごとに2つの検出領域を横に並べる。これにより、図2の符号10〜15に示す外側の検出領域と、符号20〜25に示す内側の検出領域のように、道路に沿って2列のすだれ状の検出領域が設定される。   When the lane mark is extracted from the captured image, a detection area for detecting an object from the captured image is set in the captured image. At this time, the setting position of each detection area is determined based on the position of the extracted lane mark, and the detection area is arranged at predetermined intervals along the lane mark so that it follows the road on which the host vehicle is traveling. The detection area is set at predetermined intervals. Further, at this time, two detection areas are arranged side by side at predetermined horizontal intervals. Thus, two rows of interdigital detection areas are set along the road, such as an outer detection area indicated by reference numerals 10 to 15 in FIG. 2 and an inner detection area indicated by reference numerals 20 to 25.

後で説明するように、外側の検出領域10〜15において検出された物体が道路に方向に向かって移動している場合には、さらにその物体を内側の検出領域20〜25において検出する。そして、外側と内側の検出領域においてそれぞれ算出される実空間上の移動速度を比較することにより、その物体が飛び出し物体であるか否かの判定が行われる。したがって、以下の説明では外側の検出領域10〜15を単に検出領域と称し、内側の検出領域20〜25を判定領域と称する。   As will be described later, when an object detected in the outer detection areas 10 to 15 moves toward the road, the object is further detected in the inner detection areas 20 to 25. Then, by comparing the moving speeds in the real space calculated in the outer and inner detection areas, it is determined whether or not the object is a pop-out object. Therefore, in the following description, the outer detection areas 10 to 15 are simply referred to as detection areas, and the inner detection areas 20 to 25 are referred to as determination areas.

ここで設定される検出領域10〜15および判定領域20〜25は、実空間上にその位置が仮想的に固定されている。したがって、自車両が移動すると、その移動量に応じて各検出領域および判定領域の撮像画像における位置がそれぞれ変化する。なお自車両の移動量は、前述のように車輪側データと操舵角データの計測結果に基づいて検出される。   The positions of the detection areas 10 to 15 and the determination areas 20 to 25 set here are virtually fixed in real space. Therefore, when the host vehicle moves, the positions of the detection areas and the determination areas in the captured image change according to the movement amount. Note that the movement amount of the host vehicle is detected based on the measurement results of the wheel side data and the steering angle data as described above.

検出領域と判定領域の各々は、実空間上において自車両から前方の所定の距離範囲内に対して、その前後方向および左右方向の間隔が一定となるように設定される。自車両の移動によって検出領域や判定領域のいずれかが撮像画像の範囲外となった場合には、その検出領域や判定領域が削除されるとともに、所定距離範囲内に対して新たな検出領域または判定領域が設定される。すなわち、自車両が前に進んでいくと、自車両に近い位置に設定された検出領域と判定領域から順に画面外に移動して削除されるとともに、新たな検出領域と判定領域が次々に設定される。   Each of the detection area and the determination area is set so that the distance in the front-rear direction and the left-right direction is constant within a predetermined distance range ahead of the host vehicle in real space. When either the detection area or the determination area is outside the range of the captured image due to the movement of the host vehicle, the detection area or the determination area is deleted, and a new detection area or A determination area is set. In other words, when the host vehicle moves forward, the detection area and the determination area set at positions close to the own vehicle are sequentially moved off the screen and deleted, and new detection areas and determination areas are set one after another. Is done.

検出領域10〜15と判定領域20〜25の具体的な設定例を説明する。たとえば、実空間における自車両の位置を基準に、そこから自車両の進行方向に向かって5m離れ、さらにレーンマークより道路と反対側に1m離れた地点を、検出領域15の実空間上の仮想的な設定位置とする。また、この検出領域15よりも所定の横間隔(たとえば30cm)だけ道路に対して近い地点を、判定領域25の実空間上の仮想的な設定位置とする。そして、検出領域15と判定領域25の仮想的な設定位置からそれぞれ自車両の進行方向に向かって一定間隔(たとえば1m)ごとの地点を、検出領域10〜14と判定領域20〜24の仮想的な設定位置とする。こうして実空間上に設定された仮想的な設定位置に対応させて、撮像画像における各検出領域および判定領域の設定位置を決定する。   A specific setting example of the detection areas 10 to 15 and the determination areas 20 to 25 will be described. For example, with reference to the position of the host vehicle in the real space, a point that is 5 m away from the vehicle in the direction of travel of the host vehicle and further 1 m away from the lane mark on the opposite side of the road is a virtual space in the real space of the detection area 15 Set position. A point closer to the road than the detection area 15 by a predetermined lateral interval (for example, 30 cm) is set as a virtual set position in the real space of the determination area 25. Then, points at fixed intervals (for example, 1 m) from the virtual setting positions of the detection area 15 and the determination area 25 toward the traveling direction of the host vehicle, respectively, are detected as virtual areas of the detection areas 10 to 14 and the determination areas 20 to 24. Set the correct position. Thus, the setting positions of the detection areas and the determination areas in the captured image are determined in correspondence with the virtual setting positions set in the real space.

上記のようにして、道路に沿って等間隔にすだれ状に並べられた検出領域10〜15および判定領域20〜25が設定されたら、次に検出領域10〜15の各々におけるオプティカルフローを算出する。このオプティカルフローは、各検出領域における物体の画像上の速度を示しているものである。なおオプティカルフローは周知のように、画像フレーム間で同一物体を示す部分を抽出し、その部分の撮像画像中の位置変化量を求めることによって算出することができる。   As described above, when the detection areas 10 to 15 and the determination areas 20 to 25 that are arranged at equal intervals along the road are set, the optical flow in each of the detection areas 10 to 15 is calculated next. . This optical flow indicates the speed on the image of the object in each detection region. As is well known, the optical flow can be calculated by extracting a portion showing the same object between image frames and obtaining a position change amount in the captured image of the portion.

このように、検出領域10〜15の各々においてオプティカルフローを算出することにより、自車両前方の道路に向かって移動している物体を撮像画像中から検出できる。検出領域10〜15のいずれかにおいて算出されたオプティカルフローの向きが、道路の方向すなわち撮像画像の内側に向いている場合、その検出領域内の物体は自車両前方の道路に向かって移動しているものと判断できる。図2の例では、検出領域13において、進入者200のオプティカルフローが矢印201に示すように算出される。オプティカルフロー201の向きは道路の方向に向いているため、進入者200は自車両前方の道路に向かって移動していると判断される。   In this way, by calculating the optical flow in each of the detection regions 10 to 15, an object moving toward the road ahead of the host vehicle can be detected from the captured image. When the direction of the optical flow calculated in any of the detection areas 10 to 15 is directed to the road direction, that is, the inside of the captured image, the object in the detection area moves toward the road ahead of the host vehicle. Can be judged. In the example of FIG. 2, the optical flow of the intruder 200 is calculated as indicated by the arrow 201 in the detection area 13. Since the optical flow 201 is directed toward the road, it is determined that the intruder 200 is moving toward the road ahead of the host vehicle.

しかし、検出領域10〜15において検出された物体の実空間上における存在位置は、その検出領域の実空間上の仮想的な設定位置と一致しているとは限らず、後で図3により説明するように道路から離れている場合もある。このようなことから、上記のように道路の方向に移動している物体を全て飛び出し物体として検出すると、道路から離れた位置の物体までも誤って飛び出し物体として検出してしまうことになる。   However, the positions of the objects detected in the detection areas 10 to 15 in the real space do not always coincide with the virtual set positions of the detection areas in the real space, and will be described later with reference to FIG. Sometimes you are away from the road. For this reason, when all the objects moving in the direction of the road as described above are detected as pop-out objects, even objects at positions away from the road are erroneously detected as pop-out objects.

したがって本発明では、検出領域10〜15のいずれかにおいて道路の方向に移動している物体が検出された場合は、その検出領域に対応して設定された判定領域20〜25のいずれかにおいても同じ物体を検出し、その判定領域におけるオプティカルフローを算出する。そして、検出領域と判定領域においてそれぞれに算出されたオプティカルフローに基づいて、その物体の実空間上における移動速度を検出領域と判定領域についてそれぞれ算出する。この移動速度を比較し、その差が所定値以下であれば、検出された物体を飛び出し物体として検出する。なお、オプティカルフローに基づいて実空間上の移動速度を算出する方法については、後で説明する。   Therefore, in the present invention, when an object moving in the direction of the road is detected in any of the detection areas 10 to 15, any of the determination areas 20 to 25 set corresponding to the detection area is also used. The same object is detected, and the optical flow in the determination region is calculated. Then, based on the optical flows calculated respectively in the detection area and the determination area, the moving speed of the object in the real space is calculated for each of the detection area and the determination area. The moving speeds are compared, and if the difference is less than or equal to a predetermined value, the detected object is detected as a pop-out object. A method for calculating the moving speed in the real space based on the optical flow will be described later.

図2の例では、検出領域13において検出された進入者200を、その横に並べて設定された判定領域23において再び検出し、判定領域23における進入者200のオプティカルフローを算出する。このオプティカルフローと、検出領域13において算出されたオプティカルフロー201とに基づいてそれぞれ算出される進入者200の実空間上の移動速度の差が所定値以下であれば、進入者200を飛び出し物体として検出する。以上説明したような処理によって、飛び出し物体の検出が行われる。   In the example of FIG. 2, the intruder 200 detected in the detection area 13 is detected again in the determination area 23 set side by side, and the optical flow of the intruder 200 in the determination area 23 is calculated. If the difference in moving speed of the intruder 200 in the real space calculated based on the optical flow and the optical flow 201 calculated in the detection area 13 is equal to or less than a predetermined value, the intruder 200 is regarded as a pop-up object. To detect. The pop-out object is detected by the processing as described above.

次に、実空間上における検出領域の仮想的な設定位置と検出対象物体の存在位置との関係について説明する。図3(a)は、自車両と検出対象物体である進入者の実空間上の位置関係を示した図であり、時刻T1と時刻T2における自車両位置をそれぞれ符号101と102に示す。この間の自車両の走行速度をVcと表す。また、時刻T1と時刻T2における進入者の位置をそれぞれ符号201と202に示す。このとき進入者の移動速度は一定であるとしてV0と表す。   Next, the relationship between the virtual setting position of the detection area in the real space and the presence position of the detection target object will be described. FIG. 3A is a diagram showing the positional relationship between the host vehicle and the intruder who is the detection target object in real space, and the host vehicle positions at time T1 and time T2 are denoted by reference numerals 101 and 102, respectively. The traveling speed of the host vehicle during this time is expressed as Vc. In addition, reference numerals 201 and 202 denote the positions of the intruders at time T1 and time T2, respectively. At this time, the moving speed of the intruder is assumed to be constant and is expressed as V0.

図2で説明したように、検出領域と判定領域は道路に沿って実空間上に仮想的に固定された状態で設定される。このとき自車両が道路の中心を走行しているとして、その道路の中心線に対する検出領域と判定領域の横位置を、(a)に示すようにそれぞれW1およびW2と表す。このW1とW2の値は、検出領域と判定領域の設定条件として予め定められている。   As described with reference to FIG. 2, the detection area and the determination area are set in a state of being virtually fixed in real space along the road. At this time, assuming that the host vehicle is traveling on the center of the road, the lateral positions of the detection area and the determination area with respect to the center line of the road are represented as W1 and W2, respectively, as shown in FIG. The values of W1 and W2 are predetermined as setting conditions for the detection area and the determination area.

時刻T1のときに(a)の自車両位置101において撮像された自車両前方の撮像画像を(b)に示す。この撮像画像には、(a)の位置201に存在する進入者(便宜上これを進入者201と表す)が撮像されており、この進入者201が検出領域11において検出される。このとき実空間上では、検出領域11が仮想的に設定されている位置、すなわち(a)に示す検出位置201Aに進入者201が存在するものと判断される。そこで、このような場合に誤って進入者201を飛び出し物体として検出することを避けるため、以下に説明するようにして、検出領域と判定領域においてそれぞれ算出されたオプティカルフローを比較する。   (B) shows a captured image in front of the host vehicle captured at the host vehicle position 101 in (a) at time T1. In this captured image, an intruder present at the position 201 of (a) (this is represented as the intruder 201 for convenience) is captured, and this intruder 201 is detected in the detection region 11. At this time, in the real space, it is determined that the intruder 201 exists at the position where the detection area 11 is virtually set, that is, the detection position 201A shown in FIG. Therefore, in order to avoid erroneously detecting the intruder 201 as a jumping object in such a case, the optical flows calculated in the detection area and the determination area are compared as described below.

(b)の撮像画像により検出領域11において算出された進入者201のオプティカルフローをF1と表す。(a)に示すように、自車両位置101から進入者201を見たときの進入者201の移動速度を角フローFθ1とすると、これはオプティカルフローF1を用いて以下の式(1)により表すことができる。なお、式(1)における定数αは、カメラ1の撮像面サイズや焦点距離に応じて予め定められている。
θ1=α・F1 ・・・(1)
ただし、αは定数
The optical flow of the intruder 201 calculated in the detection area 11 from the captured image of (b) is represented as F1. As shown in (a), when the moving speed of the intruder 201 when viewing the intruder 201 from the own vehicle position 101 is an angular flow Fθ1 , this is expressed by the following equation (1) using the optical flow F1. Can be represented. It should be noted that the constant α in the equation (1) is determined in advance according to the imaging surface size and focal length of the camera 1.
F θ1 = α · F1 (1)
Where α is a constant

また、自車両位置101から検出位置201Aまでの自車両進行方向に対する距離を検出距離Di1とすると、検出位置201Aに進入者201が存在すると仮定した場合の実空間上の移動速度Vi1は、以下の式(2)によって表すことができる。
Vi1=W1−Di1・tan{atan(W1/Di1−Fθ1)} ・・・(2)
Also, assuming that the distance from the own vehicle position 101 to the detected position 201A in the traveling direction of the own vehicle is the detected distance Di1, the moving speed Vi1 in the real space when the intruder 201 exists at the detected position 201A is as follows: It can be expressed by equation (2).
Vi1 = W1-Di1.tan {atan (W1 / Di1- Fθ1 )} (2)

ここで式(2)の検出距離Di1の値は、自車両位置101から検出領域11の実空間上の設定位置までの距離であるため、検出領域の設定条件と時刻T1以前の自車両の移動量によって求めることができる。また横位置W1の値は、前述したように予め定められており、角フローFθ1の値は、式(1)によって求められる。したがって式(2)により、検出位置201Aにおける進入者の実空間上の移動速度Vi1の値を算出することができる。 Here, since the value of the detection distance Di1 in the expression (2) is the distance from the own vehicle position 101 to the set position in the real space of the detection area 11, the detection area setting condition and the movement of the own vehicle before time T1 It can be determined by quantity. Further, the value of the lateral position W1 is determined in advance as described above, and the value of the angular flow Fθ1 is obtained by the equation (1). Therefore, the value of the moving speed Vi1 in the real space of the intruder at the detection position 201A can be calculated from the equation (2).

次に、時刻T2のときに(a)の自車両位置102において撮像された自車両前方の撮像画像を(c)に示す。この撮像画像には、(a)の位置202に存在する進入者(便宜上これを進入者202と表す)が撮像されている。この進入者202は、検出領域11の内側に設定された判定領域21において検出される。このとき実空間上では判定領域21が仮想的に設定されている位置、すなわち(a)に示す判定位置202Aに進入者202が存在するものと判断される。   Next, a captured image in front of the host vehicle captured at the host vehicle position 102 in (a) at time T2 is shown in (c). In this captured image, an intruder present at the position 202 of (a) (for convenience, this is represented as the intruder 202) is captured. The intruder 202 is detected in the determination area 21 set inside the detection area 11. At this time, it is determined that the intruder 202 is present at the position where the determination area 21 is virtually set in the real space, that is, the determination position 202A shown in FIG.

(c)の撮像画像により判定領域21において算出された進入者202のオプティカルフローをF2と表す。(a)に示すように、自車両位置102から進入者202を見たときの進入者202の移動速度を角フローFθ2とすると、これはオプティカルフローF2を用いて、式(1)と同様に以下の式(3)によって表すことができる。
θ2=α・F2 ・・・(3)
ただし、αは定数
The optical flow of the intruder 202 calculated in the determination area 21 from the captured image of (c) is represented as F2. As shown in (a), assuming that the moving speed of the intruder 202 when viewing the intruder 202 from the own vehicle position 102 is the angular flow Fθ2 , this is the same as the expression (1) using the optical flow F2. Can be expressed by the following equation (3).
F θ2 = α · F2 (3)
Where α is a constant

自車両位置102から判定位置202Aまでの自車両進行方向に対する距離を判定距離Di2とすると、判定位置202Aに進入者202が存在すると仮定した場合の実空間上の移動速度Vi2は、式(2)と同様に以下の式(4)によって表すことができる。
Vi2=W2−Di2・tan{atan(W2/Di2−Fθ2)} ・・・(4)
Assuming that the distance from the host vehicle position 102 to the determination position 202A in the traveling direction of the host vehicle is the determination distance Di2, the moving speed Vi2 in the real space when it is assumed that the intruder 202 exists at the determination position 202A is expressed by the equation (2). Similarly to the above, it can be expressed by the following formula (4).
Vi2 = W2-Di2 · tan {atan (W2 / Di2- Fθ2 )} (4)

ここで式(4)の判定距離Di2の値は、自車両位置102から判定領域21の実空間上の設定位置までの距離であり、これは自車両位置102から検出領域11の実空間上の設定位置までの距離と等しく、Di2=Di1−Vc・(T2−T1)として求めることができる。また横位置W2の値は、前述したように予め定められており、角フローFθ2の値は、式(3)によって求められる。したがって式(4)により、判定位置202Aにおける進入者の実空間上の移動速度Vi2の値を算出することができる。 Here, the value of the determination distance Di2 in the equation (4) is a distance from the own vehicle position 102 to a set position in the real space of the determination area 21, and this is in the real space of the detection area 11 from the own vehicle position 102. It is equal to the distance to the set position, and can be obtained as Di2 = Di1-Vc · (T2-T1). Further, the value of the lateral position W2 is determined in advance as described above, and the value of the angular flow Fθ2 is obtained by Expression (3). Therefore, the value of the moving speed Vi2 of the intruder in the real space at the determination position 202A can be calculated from the equation (4).

ここで進入者が実際に時刻T1において検出位置201Aに存在し、時刻T2において判定位置202Aに存在するとすれば、式(2)および(4)によって算出される移動速度Vi1とVi2の値は等しくなければならない。しかし(a)に示すように実際の存在位置が異なる場合には、移動速度Vi1とVi2の値に差が生じることとなる。このことより、以下の式(5)を満たすか否かを判定することによって、検出された進入者が飛び出し物体であるか否かを判断することができる。
|Vi1−Vi2|≦Rth ・・・(5)
ただし、Rthは定数
If the intruder actually exists at the detection position 201A at time T1 and exists at the determination position 202A at time T2, the values of the moving speeds Vi1 and Vi2 calculated by the equations (2) and (4) are equal. There must be. However, if the actual location is different as shown in (a), there will be a difference in the values of the moving velocities Vi1 and Vi2. From this, it is possible to determine whether or not the detected intruder is a pop-out object by determining whether or not the following expression (5) is satisfied.
| Vi1-Vi2 | ≦ Rth (5)
Where Rth is a constant

上記の式(5)を満たす場合は、進入者の存在する位置が検出位置および判定位置と等しいため、進入者を飛び出し物体として検出する。一方、式(5)を満たさない場合は、進入者の存在する位置と検出位置および判定位置が異なるため、飛び出し物体ではないと判断する。この場合は、その後においても進入者が他の検出領域において検出されるたびに、式(5)による判定が行われる。なお式(5)における定数Rthは、検出誤差等を考慮して移動速度Vi1とVi2が実質的に等しいと判断できるような値が予め定められている。   When the above expression (5) is satisfied, since the position where the intruder is present is equal to the detection position and the determination position, the intruder is detected as a pop-out object. On the other hand, when the expression (5) is not satisfied, the position where the intruder is present is different from the detection position and the determination position, so that it is determined that the object is not a pop-out object. In this case, each time an intruder is detected in another detection area after that, the determination according to Expression (5) is performed. The constant Rth in equation (5) is determined in advance so that it can be determined that the moving velocities Vi1 and Vi2 are substantially equal in consideration of detection errors and the like.

以上説明したようにして飛び出し物体を検出するときにマイコン5において実行される処理のフローチャートを図4に示す。このフローチャートは、フレームレートごとに撮像画像の各画像フレームに対して実行されるものである。ステップS10では、後で説明する図5のフローチャートに示す検出領域設定処理を行い、撮像画像中に検出領域と判定領域を設定する。ステップS20では、ステップS10で設定された検出領域と判定領域を用いて、後で説明する図6のフローチャートを実行することにより、飛び出し物体判定処理を行う。ステップS20を実行した後は、図4のフローチャートを終了する。   FIG. 4 shows a flowchart of processing executed in the microcomputer 5 when a pop-out object is detected as described above. This flowchart is executed for each image frame of the captured image for each frame rate. In step S10, detection area setting processing shown in the flowchart of FIG. 5 described later is performed, and a detection area and a determination area are set in the captured image. In step S20, a pop-out object determination process is performed by executing the flowchart of FIG. 6 described later using the detection area and the determination area set in step S10. After step S20 is executed, the flowchart of FIG. 4 ends.

ステップS10で実行する検出領域設定処理の内容を図5のフローチャートにより説明する。ステップS100では、画像メモリ2に記憶された画像を読み込むことにより、カメラ1による撮像画像を取得する。ステップS101では、ステップS100で取得された撮像画像よりソベルフィルタを用いて縦方向のエッジを検出し、次のステップS102では、ステップS101で検出されたエッジに対してハフ変換処理を行う。   The contents of the detection area setting process executed in step S10 will be described with reference to the flowchart of FIG. In step S100, an image captured by the camera 1 is acquired by reading an image stored in the image memory 2. In step S101, a vertical edge is detected from the captured image acquired in step S100 using a Sobel filter, and in the next step S102, a Hough transform process is performed on the edge detected in step S101.

ステップS103では、ステップS102のハフ変換処理の結果に基づいて、撮像画像からレーンマークである白線の部分を検出する。ステップS104では、車輪速センサ3と操舵角センサ4による車輪速データと操舵角データの計測結果に基づく車両挙動の算出を行い、自車両の移動量を求める。ステップS105では、ステップS104の車両挙動算出の結果に基づいて、撮像画像中に検出領域を設定する。このとき、前述したようにレーンマークに沿って、実空間上に仮想的に固定された2列のすだれ状の検出領域を設定する。これにより、図2の検出領域10〜15および判定領域20〜25が設定される。ステップS105を実行したら図4のステップS10を終了する。このようにして、検出領域設定処理が行われる。   In step S103, a white line portion that is a lane mark is detected from the captured image based on the result of the Hough transform process in step S102. In step S104, the vehicle behavior is calculated based on the measurement results of the wheel speed data and the steering angle data by the wheel speed sensor 3 and the steering angle sensor 4, and the movement amount of the host vehicle is obtained. In step S105, a detection region is set in the captured image based on the vehicle behavior calculation result in step S104. At this time, as described above, two rows of interdigital detection areas that are virtually fixed in real space are set along the lane mark. Thereby, the detection areas 10 to 15 and the determination areas 20 to 25 in FIG. 2 are set. If step S105 is performed, step S10 of FIG. 4 will be complete | finished. In this way, the detection area setting process is performed.

次に、ステップS20で実行する飛び出し物体判定処理の内容を図6のフローチャートにより説明する。ステップS200では、検出領域設定処理によって撮像画像中に設定された検出領域10〜15におけるオプティカルフローを算出する。ステップS201では、ステップS200で算出された各検出領域のオプティカルフローのうち、その向きが道路に向かっているものがあるか否かを判定する。道路の方向に向かうオプティカルフローがある場合はステップS202へ進む。一方、道路の方向に向かうオプティカルフローがない場合は図6のフローチャートを終了する。   Next, the pop-out object determination process executed in step S20 will be described with reference to the flowchart of FIG. In step S200, the optical flow in the detection areas 10 to 15 set in the captured image by the detection area setting process is calculated. In step S201, it is determined whether there is an optical flow of each detection area calculated in step S200 whose direction is toward the road. If there is an optical flow toward the road, the process proceeds to step S202. On the other hand, if there is no optical flow toward the road, the flowchart of FIG. 6 is terminated.

ステップS202では、ステップS201においてオプティカルフローが道路に向かっていると判定された検出領域に対して、その検出領域に対応する判定領域20〜25のいずれかにおいて、同一物体に対するオプティカルフローを算出する。すなわち、図2のオプティカルフロー201が検出された検出領域13に対応する判定領域23において、進入者200に対するオプティカルフローを算出する。ステップS203とS204では、検出領域13と判定領域23における進入者200の実空間上の移動速度を、式(2)と(4)を用いてそれぞれ算出する。   In step S202, the optical flow for the same object is calculated in any of the determination areas 20 to 25 corresponding to the detection area for which the optical flow is determined to be heading for the road in step S201. That is, the optical flow for the intruder 200 is calculated in the determination area 23 corresponding to the detection area 13 where the optical flow 201 of FIG. 2 is detected. In steps S203 and S204, the moving speed of the intruder 200 in the detection area 13 and the determination area 23 in the real space is calculated using the equations (2) and (4), respectively.

ステップS205では、ステップS203において算出された検出領域13における進入者200の実空間上の移動速度と、ステップS204において算出された判定領域23における進入者200の実空間上の移動速度との差が、所定値以下であるか否かを判定する。このとき、式(5)を用いて判定を行う。このステップS205の判定により、進入者200が飛び出し物体として検出される。   In step S205, the difference between the moving speed of the intruder 200 in the real space in the detection area 13 calculated in step S203 and the moving speed of the intruder 200 in the real space in the determination area 23 calculated in step S204 is obtained. It is determined whether or not it is equal to or less than a predetermined value. At this time, the determination is performed using Expression (5). Due to the determination in step S205, the intruder 200 is detected as a pop-out object.

ステップS205において式(5)を満たす場合は、進入者200を飛び出し物体として検出することとしてステップS206へ進む。ステップS206では、警報機6をオンして警報音を出力する。ステップS206を実行した後は、図6のフローチャートを終了する。一方、ステップS205において式(5)を満たさないと判定した場合は、進入者200を飛び出し物体として検出しないこととし、ステップS206を実行しないで図6のフローチャートを終了する。以上説明したようにして、本装置における飛び出し物体の検出が行われる。   If the expression (5) is satisfied in step S205, the intruder 200 is detected as a jump-out object, and the process proceeds to step S206. In step S206, the alarm device 6 is turned on and an alarm sound is output. After step S206 is executed, the flowchart of FIG. 6 is terminated. On the other hand, if it is determined in step S205 that the expression (5) is not satisfied, the intruder 200 is not detected as a jump-out object, and the flowchart of FIG. 6 is terminated without executing step S206. As described above, the pop-up object is detected in the present apparatus.

以上説明した実施の形態によれば、次の作用効果が得られる。
(1)カメラ1によって自車両の進行先の撮像画像を取得し、この撮像画像中に実空間上に仮想的に固定された検出領域を設定する(ステップS105)。そして、この検出領域におけるオプティカルフローを算出し(ステップS200)、算出されたオプティカルフローに基づいて飛び出し物体を検出することとした(ステップS205)。このようにしたので、1台のカメラの撮像画像により自車両前方に飛び出す物体を検出できる
According to the embodiment described above, the following operational effects can be obtained.
(1) A captured image of the destination of the host vehicle is acquired by the camera 1, and a detection region virtually fixed in real space is set in the captured image (step S105). Then, the optical flow in this detection area is calculated (step S200), and the pop-out object is detected based on the calculated optical flow (step S205). Since it did in this way, the object which jumps ahead of the own vehicle can be detected with the picked-up image of one camera.

(2)自車両が走行している道路に沿って、所定間隔ごとに複数の検出領域を設定することとしたので、飛び出し物体が道路脇のどの位置から道路上へと飛び出してきても、確実に検出することができる。 (2) Since a plurality of detection areas are set at predetermined intervals along the road on which the host vehicle is traveling, it can be ensured that no matter where the jumping object jumps out on the road. Can be detected.

(3)撮像画像よりレーンマークを抽出し(ステップS103)、抽出されたレーンマークの位置に基づいて各検出領域の設定位置を決めることとしたので、道路に沿って確実に検出領域を設定することができる。 (3) Since the lane mark is extracted from the captured image (step S103) and the setting position of each detection area is determined based on the position of the extracted lane mark, the detection area is surely set along the road. be able to.

(4)道路に対して外側に設定された検出領域におけるオプティカルフローを算出し(ステップS200)、このオプティカルフローが道路の方向に向いている場合は(ステップS201)、内側に設定された判定領域における同一物体のオプティカルフローを算出する(ステップS202)。これらのオプティカルフローに基づいて、その物体の検出領域と判定領域における実空間上の移動速度をそれぞれ算出する(ステップS203、S204)。そして、算出された移動速度の差が所定値以下である場合、その物体を飛び出し物体として検出することとした(ステップS205)。このようにしたので、道路から離れた位置の物体までも誤って飛び出し物体として検出してしまうのを防ぐことができる。 (4) The optical flow in the detection area set outside the road is calculated (step S200). If the optical flow is directed toward the road (step S201), the determination area set inside is determined. The optical flow of the same object at is calculated (step S202). Based on these optical flows, the moving speeds of the object in the detection area and the determination area in the real space are calculated (steps S203 and S204). Then, when the calculated difference in moving speed is equal to or less than the predetermined value, the object is detected as a pop-out object (step S205). Since it did in this way, it can prevent detecting even the object of the position away from the road as a jumping out object accidentally.

なお、上記の実施の形態では撮像画像よりレーンマークを抽出し、そのレーンマークの位置に基づいて検出領域の設定位置を決めることにより、自車両の進行先の道路に沿って各検出領域が設定されるようにしていた。しかし、ナビゲーション装置などにおいて使用される地図情報を用いて道路形状を判断することにより、自車両の進行先の道路に沿って各検出領域が設定されるようにしてもよい。   In the above embodiment, each detection area is set along the road where the host vehicle travels by extracting the lane mark from the captured image and determining the setting position of the detection area based on the position of the lane mark. I was supposed to be. However, each detection area may be set along the road on which the host vehicle travels by determining the road shape using map information used in a navigation device or the like.

上記の実施形態では、撮像手段をカメラ1によって実現し、その他の各手段をマイコン5の処理によって実現しているが、これはあくまで一例であって、本発明の特徴が損なわれない限り、各構成要素は上記実施の形態に限定されない。   In the above embodiment, the imaging means is realized by the camera 1, and the other respective means are realized by the processing of the microcomputer 5. However, this is only an example, and unless the characteristics of the present invention are impaired, The components are not limited to the above embodiment.

本発明の一実施形態による物体検出装置の構成を示す図である。It is a figure which shows the structure of the object detection apparatus by one Embodiment of this invention. 自車両が走行している道路の脇より道路上へと進入してくる飛び出し物体を撮像画像から検出するときの様子を示す図である。It is a figure which shows a mode when the pop-out object which approachs on the road from the side of the road where the own vehicle is moving is detected from a captured image. 実空間上における検出領域の仮想的な設定位置と検出対象物体の存在位置との関係について説明するための図であり、(a)は自車両と検出対象物体である進入者の実空間上の位置関係を示し、(b)と(c)は時刻T1と時刻T2における撮像画像をそれぞれ示している。It is a figure for demonstrating the relationship between the virtual setting position of the detection area in real space, and the presence position of a detection target object, (a) is on the real space of the intruder who is the own vehicle and a detection target object. The positional relationship is shown, and (b) and (c) show the captured images at time T1 and time T2, respectively. 飛び出し物体を検出するときに実行される処理のフローチャートである。It is a flowchart of the process performed when a pop-out object is detected. 検出領域設定処理の内容を示すフローチャートである。It is a flowchart which shows the content of a detection area setting process. 飛び出し物体判定処理の内容を示すフローチャートである。It is a flowchart which shows the content of the pop-out object determination process.

符号の説明Explanation of symbols

1:カメラ
2:画像メモリ
3:車輪速センサ
4:操舵角センサ
5:マイコン
6:警報機
200:進入者
1: Camera 2: Image memory 3: Wheel speed sensor 4: Steering angle sensor 5: Microcomputer 6: Alarm 200: Intruder

Claims (4)

自車両の進行先の撮像画像を取得する撮像手段と、
前記自車両の移動量を検出する移動量検出手段と、
前記移動量検出手段により検出された移動量に基づいて、実空間上に仮想的に固定された検出領域を前記撮像画像中に設定する検出領域設定手段と、
前記検出領域設定手段により設定された検出領域における物体の画像上の速度を示すオプティカルフローを算出するオプティカルフロー算出手段と、
前記オプティカルフローに基づいて、前記自車両の進行先に飛び出す飛び出し物体を検出する飛び出し物体検出手段とを備え
前記検出領域設定手段は、前記自車両が走行している道路の境界部分から所定距離離れた地点と、その地点よりも所定の横間隔だけ前記道路に対して近い地点とをそれぞれの実空間上における仮想的な設定位置とする2つの検出領域を設定し、
前記オプティカルフロー算出手段は、前記2つの検出領域のうち前記道路に対して外側に設定された第1の検出領域における前記物体の画像上の速度を示す第1のオプティカルフローと、前記第1の検出領域よりも前記道路に対して内側に設定された第2の検出領域における前記物体の画像上の速度を示す第2のオプティカルフローとを算出し、
前記飛び出し物体検出手段は、前記第1のオプティカルフローに基づいて算出された前記物体の実空間上における第1の移動速度と、前記第2のオプティカルフローに基づいて算出された前記物体の実空間上における第2の移動速度との差が所定値以下である場合、前記物体を前記飛び出し物体として検出することを特徴とする飛び出し物体検出装置。
Imaging means for acquiring a captured image of the destination of the host vehicle;
A movement amount detecting means for detecting a movement amount of the host vehicle;
Detection area setting means for setting a detection area virtually fixed in real space in the captured image based on the movement amount detected by the movement amount detection means;
An optical flow calculating means for calculating an optical flow indicating a speed on the image of the object in the detection area set by the detection area setting means;
Based on the optical flow, provided with a protruding object detection means for detecting a protruding object that jumps out to the destination of the host vehicle ,
The detection area setting means includes a point that is a predetermined distance away from a boundary portion of the road on which the host vehicle is traveling and a point that is closer to the road by a predetermined lateral distance than the point in each real space. Set two detection areas as virtual setting positions in
The optical flow calculation means includes a first optical flow indicating a speed on the image of the object in a first detection area set outside the road among the two detection areas, and the first A second optical flow indicating a speed on the image of the object in the second detection region set inside the detection region relative to the road,
The pop-out object detection means includes a first movement speed of the object in the real space calculated based on the first optical flow, and a real space of the object calculated based on the second optical flow. A pop-out object detection device that detects the object as the pop-out object when the difference from the second moving speed is equal to or less than a predetermined value.
請求項1の飛び出し物体検出装置において、
前記検出領域設定手段は、前記自車両が走行している道路に沿って所定間隔ごとに複数の検出領域を設定することを特徴とする飛び出し物体検出装置。
In the pop-out object detection device according to claim 1,
The pop-up object detection apparatus, wherein the detection area setting means sets a plurality of detection areas at predetermined intervals along a road on which the host vehicle is traveling.
請求項2の飛び出し物体検出装置において、
前記撮像画像から前記道路の境界部分を示すレーンマークを抽出するレーンマーク抽出手段をさらに備え、
前記検出領域設定手段は、前記レーンマーク抽出手段により抽出されたレーンマークの位置に基づいて、前記複数の検出領域の設定位置を決めることを特徴とする飛び出し物体検出装置。
In the pop-out object detection device according to claim 2,
Lane mark extraction means for extracting a lane mark indicating a boundary portion of the road from the captured image,
The pop-up object detection device, wherein the detection area setting means determines the setting positions of the plurality of detection areas based on the positions of the lane marks extracted by the lane mark extraction means.
請求項1〜3のいずれかの飛び出し物体検出装置において、
前記オプティカルフロー算出手段は、前記第1のオプティカルフローの向きが前記道路の方向に向いている場合に、前記第2のオプティカルフローをさらに算出することを特徴とする飛び出し物体検出装置。
In the pop-out object detection device according to any one of claims 1 to 3,
The pop-out object detection device, wherein the optical flow calculation means further calculates the second optical flow when the direction of the first optical flow is in the direction of the road.
JP2004251686A 2004-08-31 2004-08-31 Pop-up object detection device Expired - Fee Related JP4127255B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004251686A JP4127255B2 (en) 2004-08-31 2004-08-31 Pop-up object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004251686A JP4127255B2 (en) 2004-08-31 2004-08-31 Pop-up object detection device

Publications (2)

Publication Number Publication Date
JP2006072439A JP2006072439A (en) 2006-03-16
JP4127255B2 true JP4127255B2 (en) 2008-07-30

Family

ID=36153045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004251686A Expired - Fee Related JP4127255B2 (en) 2004-08-31 2004-08-31 Pop-up object detection device

Country Status (1)

Country Link
JP (1) JP4127255B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007009745A1 (en) * 2007-02-28 2008-09-04 Continental Automotive Gmbh Method for controlling vehicle steering during parking process, involves measuring parking place selected for parking vehicle and establishing orientation field, where orientation field determines number of support points
JP5983865B2 (en) 2013-04-03 2016-09-06 トヨタ自動車株式会社 Detection device and driving support device

Also Published As

Publication number Publication date
JP2006072439A (en) 2006-03-16

Similar Documents

Publication Publication Date Title
JP5594246B2 (en) Lane recognition device
JP4962581B2 (en) Lane marking detector
JP5281664B2 (en) Lane departure warning device and lane departure warning system
JP7077910B2 (en) Bound line detection device and lane marking method
JP2010078387A (en) Lane determining apparatus
JP6261832B1 (en) Traveling path recognition device and traveling path recognition method
JP2001091217A (en) Object-recognizing apparatus
JP6295859B2 (en) In-vehicle system, information processing apparatus, and program
JP6283105B2 (en) Stereo camera device, vehicle having stereo camera device installed, and program
US11468691B2 (en) Traveling lane recognition apparatus and traveling lane recognition method
JP2011150573A (en) Drive recorder
JP5974923B2 (en) Road edge detection system, method and program
JP3384278B2 (en) Distance measuring device
JP4967603B2 (en) Vehicle rear side monitoring device
US20110304734A1 (en) Method and apparatus for operating a video-based driver assistance system in a vehicle
JP2007299045A (en) Lane recognition device
JP4127255B2 (en) Pop-up object detection device
JP2009014645A (en) Distance measuring device used for vehicle
US11837121B2 (en) Display correction system, display system, and display correction method
JP5193148B2 (en) Vehicle imaging device
JP4225242B2 (en) Travel path recognition device
CN115943287A (en) Vehicle attitude estimation system and vehicle attitude estimation method
WO2020036039A1 (en) Stereo camera device
JP5549468B2 (en) Feature position acquisition apparatus, method and program
JP6048384B2 (en) Image determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080422

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080505

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4127255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140523

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees