JP2006072638A - Apparatus for detecting moving body - Google Patents

Apparatus for detecting moving body Download PDF

Info

Publication number
JP2006072638A
JP2006072638A JP2004254554A JP2004254554A JP2006072638A JP 2006072638 A JP2006072638 A JP 2006072638A JP 2004254554 A JP2004254554 A JP 2004254554A JP 2004254554 A JP2004254554 A JP 2004254554A JP 2006072638 A JP2006072638 A JP 2006072638A
Authority
JP
Japan
Prior art keywords
edge
information
moving
image
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004254554A
Other languages
Japanese (ja)
Other versions
JP4140588B2 (en
Inventor
Yasuhito Sano
泰仁 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004254554A priority Critical patent/JP4140588B2/en
Publication of JP2006072638A publication Critical patent/JP2006072638A/en
Application granted granted Critical
Publication of JP4140588B2 publication Critical patent/JP4140588B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus for detecting a moving body that prevents increase in cost, by reducing the burden of processing. <P>SOLUTION: The apparatus 1 for detecting a moving body processes edges on an image picked up for an area around a vehicle and records the positions of the edges in the image in time series, along with the time information. Based on the positions of the edges and the time information recorded in time series, the speeds and directions of movement of the edges are detected to detect that the moving body has jumped out. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、移動物体検出装置に関する。   The present invention relates to a moving object detection apparatus.

従来、撮像画像から障害物の存在しない移動可能な領域を抽出する移動可能空間抽出部と、移動している障害物を抽出する移動障害物抽出部と、これら抽出部の出力に基づいて障害物の位置及び方向を求めて障害物の飛び出しを検出する移動物体検出装置が知られている。この装置では、移動物体の飛び出し検出にあたり、オプティカルフローを検出し、そのオプティカルフローの消失点を検出するようにしている(例えば特許文献1参照)。
特開平9−259282号公報
Conventionally, a movable space extraction unit that extracts a movable area where no obstacle exists from a captured image, a moving obstacle extraction unit that extracts a moving obstacle, and an obstacle based on the output of these extraction units 2. Description of the Related Art A moving object detection device is known that detects the jumping out of an obstacle by obtaining the position and direction. In this apparatus, when detecting the jumping out of a moving object, an optical flow is detected, and a vanishing point of the optical flow is detected (for example, refer to Patent Document 1).
JP-A-9-259282

しかしながら、従来装置では、オプティカルフローを検出して消失点を求めなくてはならず、処理負担が少なくなく、ハード化にあたりコストの増大を招いてしまう。   However, in the conventional apparatus, the optical flow must be detected and the vanishing point must be obtained, the processing load is not small, and an increase in cost is required for hardware implementation.

本発明はこのような従来の課題を解決するためになされたものであり、その目的とするところは、処理負担を軽減してコストの増大を防止した移動物体検出装置を提供することにある。   The present invention has been made to solve such conventional problems, and an object of the present invention is to provide a moving object detection apparatus that reduces the processing load and prevents an increase in cost.

本発明の移動物体検出装置は、撮像手段と、エッジ検出手段と、エッジ移動履歴作成手段と、速度方向検出手段と、飛び出し検出手段とを備えている。撮像手段は車両周囲を撮像し、エッジ検出手段は撮像手段により撮像された画像についてエッジ処理するものである。また、エッジ移動履歴作成手段は、エッジ検出手段によりエッジ処理された画像を入力し、画像中のエッジ位置を時刻情報と共に時系列的に記録するものである。速度方向検出手段は、エッジ移動履歴作成手段により時系列的に記録されたエッジ位置及び時刻情報から、エッジの移動速度及び移動方向を検出する構成となっている。そして、飛び出し検出手段は、速度方向検出手段により検出された移動速度、及び移動方向に基づいて、移動物体の飛び出しを検出する構成となっている。   The moving object detection apparatus of the present invention includes an imaging means, an edge detection means, an edge movement history creation means, a speed direction detection means, and a pop-up detection means. The image pickup means picks up the vehicle periphery, and the edge detection means performs edge processing on the image picked up by the image pickup means. The edge movement history creating means inputs the image edge-processed by the edge detecting means and records the edge position in the image along with time information in time series. The speed direction detection means is configured to detect the edge movement speed and direction from the edge position and time information recorded in time series by the edge movement history creation means. The pop-up detection means detects the pop-out of the moving object based on the moving speed and the moving direction detected by the speed direction detecting means.

本発明によれば、撮像した画像をエッジ処理し、エッジの移動速度と移動方向とを検出している。このため、物体などの移動速度及び移動方向を検出していることとなる。そして、検出したエッジの移動速度と移動方向とから、移動物体の飛び出しを検出している。このため、物体などの移動速度及び移動方向に基づいて、移動物体の飛び出しを検出することとなる。このように、本発明では、オプティカルフローの算出及び消失点の算出など、負担の大きい処理が実行されず、エッジ検出し、その動きを判断するのみであるため、処理負担を軽減してコストの増大を防止した移動物体検出装置を提供することができる。   According to the present invention, edge processing is performed on a captured image, and the moving speed and moving direction of the edge are detected. For this reason, the moving speed and moving direction of an object etc. are detected. Then, the jumping out of the moving object is detected from the detected moving speed and moving direction of the edge. Therefore, the jumping out of the moving object is detected based on the moving speed and moving direction of the object. As described above, in the present invention, since processing with a large burden such as calculation of an optical flow and calculation of a vanishing point is not executed, only the edge is detected and its movement is judged, so that the processing burden is reduced and the cost is reduced. It is possible to provide a moving object detection device that prevents the increase.

以下、本発明の好適な実施形態を図面に基づいて説明する。なお、各図において、同一又は同様の要素には同一の符号を付して説明を省略する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings. In the drawings, the same or similar elements are denoted by the same reference numerals, and description thereof is omitted.

図1は、本発明の実施形態に係る移動物体検出装置の構成図である。同図に示す移動物体検出装置1は、人、動物、車両などの移動物体を検出するものであって、好適には自動車に搭載され、運転者に移動物体の飛び出しを警報するものとして用いられる。   FIG. 1 is a configuration diagram of a moving object detection device according to an embodiment of the present invention. A moving object detection apparatus 1 shown in the figure detects a moving object such as a person, an animal, or a vehicle, and is preferably mounted on a car and used to warn the driver of the moving object popping out. .

具体的に移動物体検出装置1は、車両周囲を撮像するカメラ(撮像手段)10、及びカメラ10により撮像された画像についてエッジ処理するエッジ検出部(エッジ検出手段)20を備えている。   Specifically, the moving object detection apparatus 1 includes a camera (imaging unit) 10 that captures an image around the vehicle, and an edge detection unit (edge detection unit) 20 that performs edge processing on an image captured by the camera 10.

また、移動物体検出装置1は、エッジ検出部20によりエッジ処理された画像を入力し、画像中のエッジ位置を時刻情報と共に時系列的に記録するエッジ移動履歴計算部(エッジ移動履歴作成手段)30、及びエッジ移動履歴計算部30により時系列的に記録されたエッジ位置及び時刻情報から、エッジの移動速度及び移動方向を検出する速度検出部(速度方向検出手段)40を備えている。   Further, the moving object detection device 1 receives an image subjected to edge processing by the edge detection unit 20 and records an edge position in the image in time series together with time information (edge movement history creation means). 30 and a speed detecting unit (speed direction detecting means) 40 for detecting the moving speed and moving direction of the edge from the edge position and time information recorded in time series by the edge moving history calculating unit 30.

さらに、移動物体検出装置1は、速度検出部40により検出された移動速度及び移動方向に基づいて、移動物体の飛び出しを検出する危険物検出部(飛び出し検出手段)50、及び危険物検出部50により移動物体の飛び出しを検出した場合、その旨を音声等により報知する警報部60を備えている。   Furthermore, the moving object detection device 1 is based on the moving speed and the moving direction detected by the speed detecting unit 40, and a dangerous object detection unit (jumping detection means) 50 that detects the jumping out of the moving object, and the dangerous object detection unit 50. When a jumping out of a moving object is detected by the above, an alarm unit 60 for notifying that effect by voice or the like is provided.

すなわち、移動物体検出装置1は、エッジ検出を行い、そのエッジの移動速度等を判断し、移動物体の飛び出しを検出する構成となっている。   That is, the moving object detection device 1 is configured to detect an edge, determine the moving speed of the edge, and detect the jumping out of the moving object.

ここで、上記のエッジ検出部20は、画像所定方向に伸びるエッジを検出する構成となっている。この画像所定方向はカメラ10の撮像方向により決定される。通常、移動物体の飛び出しは車両の側方から発生する。このため、エッジ検出部20は、カメラ10が車両前方を撮像している場合、画像横方向に物体の移動を検出できるように、画像縦方向に伸びるエッジを検出すると決定する。また、エッジ検出部20は、カメラ10が車両側方を撮像している場合、自車両に接近する物体を検出できるように、画像横方向に伸びるエッジを検出すると決定する。   Here, the edge detection unit 20 is configured to detect an edge extending in a predetermined image direction. This predetermined image direction is determined by the imaging direction of the camera 10. Usually, the jumping out of the moving object occurs from the side of the vehicle. For this reason, the edge detection unit 20 determines to detect an edge extending in the vertical direction of the image so that the movement of the object can be detected in the horizontal direction of the image when the camera 10 images the front of the vehicle. Further, when the camera 10 is imaging the side of the vehicle, the edge detection unit 20 determines to detect an edge extending in the lateral direction of the image so that an object approaching the host vehicle can be detected.

また、エッジ移動履歴計算部30は、時系列的に記録したエッジ位置及び時刻情報を初期化する機能を有している。この初期化は、ハンドル切り角の情報、ヨーレートセンサからの情報、左右の車輪回転差の情報、ターンシグナルの情報、及び、道路地図と自車位置との情報のうち、少なくとも1つの情報に基づいて行われる。すなわち、エッジ移動履歴計算部30は、ハンドルの切り角等により撮像する方向自体が変わってしまったことが検出された場合、過去に記録したエッジ位置及び時刻情報が移動物体の検出に意味を為さなくなるため、初期化を行うこととしている。   Further, the edge movement history calculation unit 30 has a function of initializing the edge position and time information recorded in time series. This initialization is based on at least one of information on the steering angle, information from the yaw rate sensor, left and right wheel rotation difference information, turn signal information, and road map and vehicle position information. Done. That is, when it is detected that the imaging direction itself has changed due to the turning angle of the handle or the like, the edge movement history calculation unit 30 uses the edge position and time information recorded in the past to make sense for the detection of the moving object. In order to avoid this, initialization is performed.

さらに、上記の速度検出部40は、エッジの移動速度を検出するにあたり速度検出領域を設定し、この領域内のエッジから移動速度を検出する構成となっている。また、速度検出部40は、天候情報、時間帯情報、画像中の輝度情報のうち少なくとも1つ情報を入力する構成となっている。そして、速度検出部40は、入力した情報に基づいて画像のSN比の低下を検出した場合、すなわちノイズの影響が強くなった場合、速度検出領域を大きくするようになっている。これにより、速度検出部40はエッジの情報量を多くして、ノイズによる誤検出の影響を低減するようになっている。   Further, the speed detection unit 40 is configured to set a speed detection area when detecting the edge moving speed and detect the moving speed from the edge in this area. Further, the speed detection unit 40 is configured to input at least one information among weather information, time zone information, and luminance information in the image. The speed detection unit 40 enlarges the speed detection area when a decrease in the SN ratio of the image is detected based on the input information, that is, when the influence of noise becomes strong. As a result, the speed detection unit 40 increases the amount of edge information to reduce the influence of false detection due to noise.

また、危険物検出部50は、自車両の位置情報と共に、自車両が走行する道路の道幅、歩道の有無、及び車線数、並びに、天候情報、及び時間帯情報のうち少なくとも1つの情報に基づいて、移動物体として検出したものがノイズであるか否かを判定する構成となっている。例えば片側2車線の道路において自車両が右側の車線を走行している場合、移動物体の飛び出しは左側から発生する可能性が高いこととなる。このため、危険物検出部50は、右側から移動物体の飛び出しを検出した場合にはノイズである可能性が高いと判断する。他方、危険物検出部50は、左側から移動物体の飛び出しを検出した場合にはノイズでないと判断する。このように、危険物検出部50は、飛び出しの発生確率を判断して、適切な飛び出し検出を行うように構成されている。   In addition, the dangerous object detection unit 50 is based on the position information of the host vehicle and at least one of the width of the road on which the host vehicle travels, the presence or absence of a sidewalk, the number of lanes, weather information, and time zone information. Thus, it is configured to determine whether or not the object detected as the moving object is noise. For example, when the host vehicle is traveling on the right lane on a two-lane road on one side, it is highly likely that the moving object will jump out from the left side. For this reason, the dangerous substance detection unit 50 determines that there is a high possibility of noise when it detects the jumping out of the moving object from the right side. On the other hand, the dangerous substance detection unit 50 determines that it is not noise when it detects the jumping out of the moving object from the left side. In this way, the dangerous object detection unit 50 is configured to determine the pop-out occurrence probability and perform appropriate pop-out detection.

次に、本実施形態に係る移動物体検出装置1の動作について説明する。なお、以下の説明においてカメラ10は車両前方方向を撮像し、エッジ検出部20は画像縦方向に伸びるエッジ検出するものとする。   Next, the operation of the moving object detection device 1 according to this embodiment will be described. In the following description, it is assumed that the camera 10 captures the vehicle front direction, and the edge detection unit 20 detects the edge extending in the image vertical direction.

まず、カメラ10は車両周囲を撮像して、車両前方方向の画像を取得する。次いで、エッジ検出部20は、エッジ処理して画像縦方向に伸びるエッジを検出する。そして、カメラ10及びエッジ検出部20は上記処理を繰り返して順次エッジ検出していく。   First, the camera 10 captures an image around the vehicle and acquires an image in the vehicle front direction. Next, the edge detection unit 20 performs edge processing and detects an edge extending in the vertical direction of the image. And the camera 10 and the edge detection part 20 repeat the said process, and detect an edge one by one.

次に、エッジ移動履歴計算部30は、エッジ検出部20によりエッジ処理された画像を順次入力し、画像中のエッジ位置を時刻情報と共に時系列的に記録していく。   Next, the edge movement history calculation unit 30 sequentially inputs the images subjected to the edge processing by the edge detection unit 20, and records the edge positions in the images in time series together with time information.

ここで、エッジ移動履歴計算部30に記録されるエッジ位置及び時刻情報を説明する。図2は、エッジ移動履歴計算部30により記録の様子を示す説明図であって、(a)は時刻t−2における記録の様子を示し、(b)は時刻t−1における記録の様子を示し、(c)は時刻tにおける記録の様子を示している。   Here, the edge position and time information recorded in the edge movement history calculation unit 30 will be described. FIGS. 2A and 2B are explanatory diagrams showing the state of recording by the edge movement history calculation unit 30, wherein FIG. 2A shows the state of recording at time t-2, and FIG. 2B shows the state of recording at time t-1. (C) shows the state of recording at time t.

まず、図2(a)に示すように、時刻t−2において位置x1でエッジがエッジ検出部20により検出されたとすると、エッジ移動履歴計算部30は、このエッジ位置x1を移動履歴として記録する。さらに、エッジ移動履歴計算部30は、エッジ位置x1について時刻情報hを付与する。このとき、エッジ移動履歴計算部30は、エッジ位置x1について「時刻情報h=1」とする。   First, as shown in FIG. 2A, if an edge is detected by the edge detection unit 20 at a position x1 at time t-2, the edge movement history calculation unit 30 records the edge position x1 as a movement history. . Further, the edge movement history calculation unit 30 gives time information h for the edge position x1. At this time, the edge movement history calculation unit 30 sets “time information h = 1” for the edge position x1.

次に、図2(b)に示すように、時刻t−1において位置x2でエッジがエッジ検出部20により検出されたとすると、エッジ移動履歴計算部30は、このエッジ位置x2を移動履歴として記録する。また、このとき、エッジ移動履歴計算部30は、時刻t−2において検出されたエッジ位置x1について「時刻情報h=1+H」とし、時刻t−1において検出されたエッジ位置x2について「時刻情報h=1」とする。   Next, as shown in FIG. 2B, if an edge is detected by the edge detection unit 20 at a position x2 at time t-1, the edge movement history calculation unit 30 records the edge position x2 as a movement history. To do. At this time, the edge movement history calculation unit 30 sets “time information h = 1 + H” for the edge position x1 detected at time t−2, and sets “time information h for the edge position x2 detected at time t−1. = 1 ”.

さらに、図2(c)に示すように、時刻tにおいて位置x3でエッジがエッジ検出部20により検出されたとすると、エッジ移動履歴計算部30は、このエッジ位置x3を移動履歴として記録する。また、このとき、エッジ移動履歴計算部30は、時刻t−2において検出されたエッジ位置x1について「時刻情報h=1+2H」とし、時刻t−1において検出されたエッジ位置x2について「時刻情報h=1+H」とする。そして、時刻tにおいて検出されたエッジ位置x3について「時刻情報h=1」とする。   Furthermore, as shown in FIG. 2C, if an edge is detected by the edge detection unit 20 at a position x3 at time t, the edge movement history calculation unit 30 records the edge position x3 as a movement history. At this time, the edge movement history calculation unit 30 sets “time information h = 1 + 2H” for the edge position x1 detected at time t−2, and “time information h for the edge position x2 detected at time t−1. = 1 + H ”. The edge position x3 detected at time t is set to “time information h = 1”.

このように、エッジ移動履歴計算部30は、エッジ位置を時刻情報と共に時系列的に記録していくこととなる。なお、この記録の過程において、エッジ移動履歴計算部30は、ハンドルの切り角等の情報を入力し、撮像する方向自体が変わってしまった場合には、履歴の初期化を行うこととなる。   As described above, the edge movement history calculation unit 30 records the edge position together with the time information in time series. In this recording process, the edge movement history calculation unit 30 inputs information such as the turning angle of the handle, and initializes the history when the imaging direction itself is changed.

次いで、速度検出部40は、エッジ移動履歴計算部30により時系列的に記録されたエッジ位置及び時刻情報から、エッジの移動速度及び移動方向を検出する。ここで、エッジの移動速度はエッジ位置を移動時間で除することにより求めることができる。   Next, the speed detecting unit 40 detects the moving speed and moving direction of the edge from the edge position and time information recorded in time series by the edge moving history calculating unit 30. Here, the moving speed of the edge can be obtained by dividing the edge position by the moving time.

このとき、速度検出部40は、移動履歴全てを参照するわけではなく、エッジの移動速度を検出するにあたり速度検出領域を設定する。そして、速度検出部40は、この領域内において検出されたエッジ位置及び時刻情報から、エッジの移動速度及び移動方向を検出する。また、速度検出部40は、天候情報、時間帯情報、画像中の輝度情報のうち少なくとも1つ情報を入力し、入力した情報に基づいて画像のSN比の低下を検出すると、速度検出領域を大きくして、ノイズによる誤検出の影響を低減する。すなわち、速度検出部40は、速度検出領域を大きくすることで、エッジの移動速度及び移動方向を検出するための情報量を多くして、ノイズによる影響を少なくすることとなる。   At this time, the speed detection unit 40 does not refer to the entire movement history, but sets a speed detection area when detecting the movement speed of the edge. Then, the speed detection unit 40 detects the edge moving speed and the moving direction from the edge position and time information detected in this region. Further, the speed detection unit 40 inputs at least one information among weather information, time zone information, and luminance information in the image, and detects a decrease in the SN ratio of the image based on the input information. Increase the size to reduce the influence of false detection due to noise. That is, the speed detection unit 40 increases the amount of information for detecting the moving speed and moving direction of the edge by increasing the speed detection area, and reduces the influence of noise.

そして、エッジの移動速度及び移動方向を検出した後、危険物検出部50は移動物体の飛び出しを検出する。図3は、危険物検出部50による飛び出し検出処理の説明図である。   Then, after detecting the moving speed and moving direction of the edge, the dangerous object detection unit 50 detects the jumping out of the moving object. FIG. 3 is an explanatory diagram of the pop-out detection process performed by the dangerous object detection unit 50.

危険物検出部50は、検出した移動方向から、移動物体が自車両に接近しているか否かを判定する。例えば、カメラ10が車両前方方向を撮像している場合において図3に示すようにエッジa及びエッジbが検出され、それらエッジa,bが画像左方向に移動しているとする。 The dangerous object detection unit 50 determines whether the moving object is approaching the host vehicle from the detected moving direction. For example, when the camera 10 is capturing an image in the forward direction of the vehicle, it is assumed that the edge a and the edge b are detected as shown in FIG. 3 and the edges a and b are moving in the left direction of the image.

まず、画像左端近傍にあるエッジaは画像中央部から遠ざかる方向に移動している。このため、カメラ10が車両前方方向を撮像していることからすると、エッジaは自車両から遠ざかる方向に移動しているといえる。故に、危険物検出部50はエッジaについて移動物体の飛び出しと検出しない。   First, the edge a in the vicinity of the left end of the image moves in a direction away from the center of the image. For this reason, it can be said that the edge a is moving in the direction away from the own vehicle from the fact that the camera 10 images the front direction of the vehicle. Therefore, the dangerous object detection unit 50 does not detect the edge a as a moving object popping out.

他方、画像のやや右側にあるエッジbは画像中央部に近づく方向に移動している。このため、カメラ10が車両前方方向を撮像していることからすると、エッジbは自車両に近づく方向に移動しているといえる。故に、危険物検出部50はエッジbについて移動物体の飛び出しと検出する。   On the other hand, the edge b slightly on the right side of the image moves in a direction approaching the center of the image. For this reason, it can be said that the edge b is moving in the direction approaching the own vehicle from the fact that the camera 10 images the vehicle front direction. Therefore, the dangerous substance detection unit 50 detects that the moving object has jumped out of the edge b.

なお、危険物検出部50は、自車両の位置情報と共に、自車両が走行する道路の道幅、歩道の有無、及び車線数、並びに、天候情報、及び時間帯情報のうち少なくとも1つの情報に基づいて、移動物体として検出したものがノイズであるか否かを判定する。具体的に危険物検出部50は、図3の説明においてエッジbを移動物体の飛び出しとして検出しているが、例えば片側2車線の道路において自車両が右側の車線を走行している場合、右側から移動物体の飛び出しは、中央分離帯などの存在により発生しにくいこととなる。このため、片側2車線の道路の右側車線を走行しているような場合、危険物検出部50は、エッジbをノイズと判定することとなる。   The dangerous object detection unit 50 is based on the position information of the own vehicle, and at least one of the road width, the presence / absence of a sidewalk, the number of lanes, the weather information, and the time zone information. Then, it is determined whether or not the object detected as the moving object is noise. Specifically, in the description of FIG. 3, the dangerous object detection unit 50 detects the edge b as a jumping out of a moving object. For example, when the host vehicle is traveling in the right lane on a two-lane road, Therefore, the jumping out of the moving object is unlikely to occur due to the presence of a median strip or the like. For this reason, when driving on the right lane of a two-lane road on one side, the dangerous object detection unit 50 determines the edge b as noise.

また、危険物検出部50は、天候や時間帯に応じて飛び出しが発生する可能性を判断して、上記同様の処理をする。例えば、小学校などに隣接する道路を走行する場合、登校及び下校時刻には移動物体の飛び出しの可能性が増す。また、運動公園などに隣接する道路を走行する場合、晴天であると移動物体の飛び出しの可能性が増し、雨天であると移動物体の飛び出しの可能性が減る。そして、危険物検出部50は、このような飛び出しが発生する可能性を判断して、上記同様の処理をする。   Further, the dangerous object detection unit 50 determines the possibility of popping out according to the weather and time zone, and performs the same process as described above. For example, when traveling on a road adjacent to an elementary school or the like, the possibility of a moving object jumping out increases at school attendance and school leaving time. Further, when traveling on a road adjacent to an athletic park or the like, the possibility of a moving object jumping increases if it is clear, and the possibility of a moving object jumping decreases if it is rainy. Then, the dangerous object detection unit 50 determines the possibility of such a jump and performs the same process as described above.

次いで、警報部60は、危険物検出部50により移動物体の飛び出しが検出された場合、その旨を車両乗員に報知する。そして、車両乗員に移動物体に対する迅速な対応を促すこととなる。   Next, when the dangerous object detection unit 50 detects the jumping out of the moving object, the alarm unit 60 notifies the vehicle occupant to that effect. Then, the vehicle occupant is urged to respond quickly to the moving object.

次に、本実施形態に係る移動物体検出装置1の詳細処理の一例を説明する。図4は、本実施形態に係る移動物体検出装置1の詳細処理の一例を示すフローチャートである。   Next, an example of detailed processing of the moving object detection device 1 according to the present embodiment will be described. FIG. 4 is a flowchart illustrating an example of detailed processing of the moving object detection device 1 according to the present embodiment.

まず、車両のイグニッションスイッチ等がオンされて本装置1が起動すると、カメラ10が車両周囲を撮像して画像を取得する(ST1)。次いで、エッジ検出部20はエッジ処理を行ってエッジ位置を検出する(ST2)。   First, when the vehicle ignition switch or the like is turned on and the apparatus 1 is activated, the camera 10 captures an image of the surroundings of the vehicle (ST1). Next, the edge detection unit 20 performs edge processing to detect the edge position (ST2).

そして、エッジ移動履歴計算部30は、ステップST2において得られたエッジ位置を時刻情報と共に記録して、移動履歴を更新する(ST3)。その後、速度検出部40は、エッジの移動速度及び移動方向を検出する(ST4)。そして、危険物検出部50は、速度検出部40により検出されたエッジの移動速度及び移動方向に基づいて、飛び出し物体があるか否かを判断する(ST5)。すなわち、図3を参照して説明したように、危険物検出部50は、移動方向からエッジが自車両に接近しているか否かを判断する。また、エッジの移動速度から、自車両に衝突する可能性があるか否かについても判断する。   Then, the edge movement history calculation unit 30 records the edge position obtained in step ST2 together with the time information, and updates the movement history (ST3). Thereafter, the speed detection unit 40 detects the moving speed and moving direction of the edge (ST4). Then, the dangerous object detection unit 50 determines whether or not there is a pop-out object based on the moving speed and moving direction of the edge detected by the speed detecting unit 40 (ST5). That is, as described with reference to FIG. 3, the dangerous substance detection unit 50 determines whether or not the edge is approaching the host vehicle from the moving direction. Further, it is also determined from the edge moving speed whether or not there is a possibility of collision with the host vehicle.

そして、危険物検出部50は、上記判断の結果、エッジの発生源となった物体が自車両に接近していない又は自車両に衝突する可能性がないと判断した場合、飛び出し物体が無かったと判断する(ST5:NO)。そして、本装置1は処理をステップST7に進める。   When the dangerous object detection unit 50 determines that the object that is the source of the edge is not approaching the host vehicle or does not collide with the host vehicle as a result of the determination, there is no jumping object. Judgment is made (ST5: NO). And this apparatus 1 advances a process to step ST7.

他方、危険物検出部50は、上記判断の結果、エッジの発生源となった物体が自車両に接近し且つ自車両に衝突する可能性があると判断した場合、飛び出し物体があったと判断する(ST5:YES)。そして、危険物検出部50は、そのエッジを飛び出し物体として検出する(ST6)。次いで、危険物検出部50は、飛び出し物体の情報を警報部60に送信し、警報部60にその情報を報知させる。   On the other hand, if the dangerous object detection unit 50 determines that there is a possibility that the object that has generated the edge approaches the own vehicle and collides with the own vehicle as a result of the determination, the dangerous object detection unit 50 determines that there is a jumping object. (ST5: YES). Then, the dangerous object detection unit 50 detects the edge as a protruding object (ST6). Next, the dangerous object detection unit 50 transmits information on the pop-out object to the alarm unit 60 and causes the alarm unit 60 to notify the information.

その後、本装置1は、継続条件を満たしているか否かを判断する(ST7)。ここで、本装置1は、継続条件として、装置の起動条件、及び撮像方向の変更条件を満たしているか否かを判断する。すなわち、本装置1は、例えばイグニッションスイッチ等がオフされた場合、装置の起動条件を満たさないことから、継続条件を満たさないと判断し(ST7:NO)、処理を終了させる。また、本装置1は、例えばエッジ移動履歴計算部30が左右の車輪の回転差などから車両の方向転換を検出した場合、移動履歴を初期化すると共に継続条件を満たさないと判断し(ST7:NO)、処理を終了させる。なお、この場合には、再度ステップST1から処理を開始し、エッジ検出及び移動履歴の更新を行っていく。   Thereafter, the present apparatus 1 determines whether or not the continuation condition is satisfied (ST7). Here, the apparatus 1 determines whether or not the apparatus start condition and the imaging direction change condition are satisfied as the continuation condition. That is, for example, when the ignition switch or the like is turned off, the apparatus 1 determines that the continuation condition is not satisfied because the apparatus activation condition is not satisfied (ST7: NO), and ends the process. Further, for example, when the edge movement history calculation unit 30 detects a change in the direction of the vehicle from the difference in rotation between the left and right wheels, the apparatus 1 determines that the movement history is initialized and the continuation condition is not satisfied (ST7: NO), the process is terminated. In this case, the process is started again from step ST1, and edge detection and movement history update are performed.

一方、本装置1は、継続条件としての装置の起動条件及び撮像方向の変更条件を満たしていると判断した場合(ST7:YES)、Δt時間の待機状態となる(ST8)。そして、待機後、本装置1は、再度ステップST1から処理を繰り返すこととなる。   On the other hand, when it is determined that the apparatus activation condition and the imaging direction change condition as the continuation condition are satisfied (ST7: YES), the apparatus 1 enters a standby state for Δt time (ST8). Then, after waiting, the apparatus 1 repeats the process from step ST1 again.

このようにして、本実施形態に係る移動物体検出装置1によれば、撮像した画像をエッジ処理し、エッジの移動速度と移動方向とを検出している。このため、物体などの移動速度及び移動方向を検出していることとなる。そして、検出したエッジの移動速度と移動方向とから、移動物体の飛び出しを検出している。このため、物体などの移動速度及び移動方向に基づいて、移動物体の飛び出しを検出することとなる。このように、本実施形態では、オプティカルフローの算出及び消失点の算出など、負担の大きい処理が実行されず、エッジ検出し、その動きを判断するのみであるため、処理負担を軽減してコストの増大を防止した移動物体検出装置を提供することができる。   In this way, according to the moving object detection apparatus 1 according to the present embodiment, the captured image is subjected to edge processing, and the edge moving speed and direction are detected. For this reason, the moving speed and moving direction of an object etc. are detected. Then, the jumping out of the moving object is detected from the detected moving speed and moving direction of the edge. Therefore, the jumping out of the moving object is detected based on the moving speed and moving direction of the object. As described above, in the present embodiment, processing with heavy burdens such as optical flow calculation and vanishing point calculation is not executed, but only edge detection is performed and its movement is judged. It is possible to provide a moving object detection apparatus that prevents an increase in the amount of movement.

また、カメラ10の撮像方向に基づいて、エッジ処理する画像方向を決定しているので、通常、移動物体の飛び出しは車両の側方から発生することを考慮すると、カメラ10が車両前方を撮像している場合、画像横方向に物体の移動を検出できるように、画像縦方向に伸びるエッジを検出するれば良いこととなる。また、カメラ10が車両側方を撮像している場合は、自車両に接近する物体を検出できるように、画像横方向に伸びるエッジを検出すれば良いこととなる。これにより、本実施形態では、エッジ処理にあたり移動物体の検出に必要となる方向のエッジを検出することで、適切な飛び出し検出を行うことができ、更には他の方向についてはエッジ処理せず、一層処理負荷を軽減することができる。   In addition, since the image direction for edge processing is determined based on the imaging direction of the camera 10, the camera 10 captures the front of the vehicle in consideration of the fact that a moving object usually jumps out from the side of the vehicle. In this case, an edge extending in the vertical direction of the image may be detected so that the movement of the object can be detected in the horizontal direction of the image. Further, when the camera 10 is imaging the side of the vehicle, an edge extending in the horizontal direction of the image may be detected so that an object approaching the host vehicle can be detected. Thereby, in this embodiment, by detecting an edge in a direction necessary for detection of a moving object in edge processing, it is possible to perform appropriate pop-up detection, and further, edge processing is not performed for other directions. The processing load can be further reduced.

また、エッジ移動履歴計算部30は、ハンドル切り角の情報、ヨーレートセンサからの情報、左右の車輪回転差の情報、ターンシグナルの情報、及び、道路地図と自車位置との情報のうち、少なくとも1つの情報に基づいて時系列的に記録したエッジ位置及び時刻情報を初期化する。ここで、撮像する方向自体が変わってしまったことが検出された場合、過去に記録したエッジ位置及び時刻情報は移動物体の検出に意味を為さなくなる。このため、エッジ移動履歴計算部30は、上記情報のいずれかに基づいてカメラ10の撮像方向の変化を検出した場合には初期化を行うこととしている。これにより、車両の動きに合わせて適切な飛び出し検出をすることができる。   Further, the edge movement history calculation unit 30 includes at least a steering wheel turning angle information, information from a yaw rate sensor, left and right wheel rotation difference information, turn signal information, and road map and own vehicle position information. Based on one information, the edge position and time information recorded in time series are initialized. Here, when it is detected that the imaging direction itself has changed, the edge position and time information recorded in the past do not make sense for detection of a moving object. For this reason, the edge movement history calculation unit 30 performs initialization when a change in the imaging direction of the camera 10 is detected based on any of the above information. Thereby, appropriate pop-out detection can be performed according to the movement of the vehicle.

また、エッジの移動速度を検出するにあたり速度検出領域を設定し、天候情報、時間帯情報、画像中の輝度情報のうち少なくとも1つ情報に基づいて画像のSN比の低下を検出した場合には、速度検出領域を大きくする。このように、速度検出領域を大きくすることで、エッジの移動速度及び移動後方を検出するための情報量を多くして、ノイズによる影響を少なくすることとなる。従って、入力画像の変化に応じた速度検出等を行って、適切な飛び出し検出をすることができる。   In addition, when a speed detection area is set for detecting the moving speed of the edge, and a decrease in the S / N ratio of the image is detected based on at least one of the weather information, the time zone information, and the luminance information in the image, Increase the speed detection area. Thus, by increasing the speed detection area, the amount of information for detecting the moving speed and the backward movement of the edge is increased, and the influence of noise is reduced. Accordingly, it is possible to perform appropriate pop-up detection by performing speed detection according to changes in the input image.

また、危険物検出部50は、自車両の位置情報と共に、自車両が走行する道路の道幅、歩道の有無、及び車線数、並びに、天候情報、及び時間帯情報のうち少なくとも1つの情報に基づいて、移動物体として検出したものがノイズであるか否かを判定する。ここで、例えば片側2車線の道路において自車両が右側の車線を走行している場合、移動物体の飛び出しは左側から発生する可能性が高いこととなる。他方、右側から移動物体の飛び出しは、中央分離帯などの存在により発生しにくいこととなる。このように、危険物検出部50は、飛び出しの発生確率を判断できることとなる。従って、飛び出しの発生確率に基づくノイズの判定が可能となって、適切な飛び出し検出をすることができる。   In addition, the dangerous object detection unit 50 is based on the position information of the host vehicle and at least one of the width of the road on which the host vehicle travels, the presence or absence of a sidewalk, the number of lanes, weather information, and time zone information. Then, it is determined whether or not the object detected as the moving object is noise. Here, for example, when the host vehicle is traveling in the right lane on a two-lane road on one side, it is highly possible that the moving object will jump out from the left side. On the other hand, the jumping out of the moving object from the right side is unlikely to occur due to the presence of a central separator or the like. In this way, the dangerous object detection unit 50 can determine the occurrence probability of popping out. Therefore, noise can be determined based on the occurrence probability of popping out, and appropriate popping out detection can be performed.

以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で、変更を加えてもよい。例えば、上記実施形態では、移動物体検出装置1を車両に搭載した場合を例に説明したが、特にこれに限らず、例えば船舶や飛行機等に搭載されてもよい。   As described above, the present invention has been described based on the embodiment, but the present invention is not limited to the above embodiment, and may be modified without departing from the gist of the present invention. For example, in the above embodiment, the case where the moving object detection device 1 is mounted on a vehicle has been described as an example. However, the present invention is not limited thereto, and may be mounted on, for example, a ship or an airplane.

本発明の実施形態に係る移動物体検出装置の構成図である。It is a block diagram of the moving object detection apparatus which concerns on embodiment of this invention. エッジ移動履歴計算部により記録の様子を示す説明図であって、(a)は時刻t−2における記録の様子を示し、(b)は時刻t−1における記録の様子を示し、(c)は時刻tにおける記録の様子を示している。It is explanatory drawing which shows the mode of recording by an edge movement log | history calculation part, Comprising: (a) shows the mode of recording at the time t-2, (b) shows the mode of recording at the time t-1, (c) Indicates the state of recording at time t. 危険物検出部による飛び出し検出処理の説明図である。It is explanatory drawing of the pop-out detection process by a dangerous substance detection part. 本実施形態に係る移動物体検出装置の詳細処理の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process of the moving object detection apparatus which concerns on this embodiment.

符号の説明Explanation of symbols

1…移動物体検出装置
10…カメラ(撮像手段)
20…エッジ検出部(エッジ検出手段)
30…エッジ移動履歴計算部(エッジ移動履歴作成手段)
40…速度検出部(速度方向検出手段)
50…危険物検出部(飛び出し検出手段)
DESCRIPTION OF SYMBOLS 1 ... Moving object detection apparatus 10 ... Camera (imaging means)
20: Edge detection unit (edge detection means)
30 ... Edge movement history calculation unit (edge movement history creation means)
40: Speed detection unit (speed direction detection means)
50 ... Dangerous substance detection part (pop-out detection means)

Claims (6)

車両周囲を撮像する撮像手段と、
前記撮像手段により撮像された画像についてエッジ処理するエッジ検出手段と、
前記エッジ検出手段によりエッジ処理された画像を入力し、画像中のエッジ位置を時刻情報と共に時系列的に記録するエッジ移動履歴作成手段と、
前記エッジ移動履歴作成手段により時系列的に記録されたエッジ位置及び時刻情報から、エッジの移動速度及び移動方向を検出する速度方向検出手段と、
前記速度方向検出手段により検出された移動速度、及び移動方向に基づいて、移動物体の飛び出しを検出する飛び出し検出手段と、
を備えることを特徴とする移動物体検出装置。
Imaging means for imaging the surroundings of the vehicle;
Edge detection means for performing edge processing on an image captured by the imaging means;
Edge movement history creation means for inputting an image edge-processed by the edge detection means and recording the edge position in the image together with time information in time series;
Speed direction detecting means for detecting the moving speed and moving direction of the edge from the edge position and time information recorded in time series by the edge movement history creating means;
Pop-out detection means for detecting pop-out of a moving object based on the moving speed and moving direction detected by the speed direction detecting means;
A moving object detection apparatus comprising:
前記エッジ検出手段は、画像所定方向に伸びるエッジを検出すると共に、前記撮像手段が車両周囲のいずれの方向を撮像しているかに基づいて、前記画像所定方向を決定することを特徴とする請求項1に記載の移動物体検出装置。   The edge detection unit detects an edge extending in a predetermined image direction, and determines the predetermined image direction based on which direction around the vehicle the imaging unit is imaging. The moving object detection device according to 1. 前記エッジ履歴作成手段は、時系列的に記録したエッジ位置及び時刻情報を初期化する機能を有し、ハンドル切り角の情報、ヨーレートセンサからの情報、左右の車輪回転差の情報、ターンシグナルの情報、及び、道路地図と自車位置との情報のうち、少なくとも1つの情報に基づいて初期化を行うことを特徴とする請求項1又は請求項2のいずれかに記載の移動物体検出装置。   The edge history creating means has a function of initializing edge position and time information recorded in time series, information on a steering wheel turning angle, information from a yaw rate sensor, information on a difference between left and right wheel rotations, a turn signal The moving object detection device according to claim 1, wherein initialization is performed based on at least one of information and information on a road map and a vehicle position. 前記速度方向検出手段は、エッジの移動速度を検出するにあたり速度検出領域を設定し、天候情報、時間帯情報、画像中の輝度情報のうち少なくとも1つ情報に基づいて画像のSN比の低下を検出した場合には、前記速度検出領域を大きくすることを特徴とする請求項1〜請求項3のいずれか1項に記載の移動物体検出装置。   The speed direction detecting means sets a speed detection region for detecting the moving speed of the edge, and reduces the SN ratio of the image based on at least one of weather information, time zone information, and luminance information in the image. 4. The moving object detection device according to claim 1, wherein, when detected, the speed detection region is enlarged. 5. 前記飛び出し検出手段は、自車両の位置情報と共に、自車両が走行する道路の道幅、歩道の有無、及び車線数、並びに、天候情報、及び時間帯情報のうち少なくとも1つの情報に基づいて、移動物体として検出したものがノイズであるか否かを判定することを特徴とする請求項1〜請求項4のいずれか1項に記載の移動物体検出装置。   The pop-out detection means moves based on the position information of the host vehicle, at least one of the width of the road on which the host vehicle runs, the presence or absence of a sidewalk, the number of lanes, the weather information, and the time zone information. The moving object detection apparatus according to any one of claims 1 to 4, wherein it is determined whether or not an object detected as noise is noise. 車両周囲を撮像して得られた画像についてエッジ処理し、画像中のエッジ位置を時刻情報と共に時系列的に記録し、時系列的に記録したエッジ位置及び時刻情報から、エッジの移動速度及び移動方向を検出して、移動物体の飛び出しを検出することを特徴とする移動物体検出装置。

Edge processing is performed on the image obtained by imaging the surroundings of the vehicle, and the edge position in the image is recorded in time series together with time information, and the moving speed and movement of the edge are determined from the edge position and time information recorded in time series. A moving object detection apparatus characterized by detecting a jump of a moving object by detecting a direction.

JP2004254554A 2004-09-01 2004-09-01 Moving object detection device Expired - Fee Related JP4140588B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004254554A JP4140588B2 (en) 2004-09-01 2004-09-01 Moving object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004254554A JP4140588B2 (en) 2004-09-01 2004-09-01 Moving object detection device

Publications (2)

Publication Number Publication Date
JP2006072638A true JP2006072638A (en) 2006-03-16
JP4140588B2 JP4140588B2 (en) 2008-08-27

Family

ID=36153213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004254554A Expired - Fee Related JP4140588B2 (en) 2004-09-01 2004-09-01 Moving object detection device

Country Status (1)

Country Link
JP (1) JP4140588B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257258A (en) * 2006-03-23 2007-10-04 Honda Motor Co Ltd Vehicle surroundings monitoring system, vehicle, vehicle surroundings monitoring program, and configuration method for vehicle surroundings monitoring system
JP2010230443A (en) * 2009-03-26 2010-10-14 Japan Research Institute Ltd Direction detecting device
JP2012003582A (en) * 2010-06-18 2012-01-05 Nissan Motor Co Ltd Device for recognizing environment outside vehicle and method for recognizing environment outside vehicle
JP2012099121A (en) * 2011-12-05 2012-05-24 Chubu Electric Power Co Inc Mobile body identification device and mobile body identification program
US9767571B2 (en) 2013-07-29 2017-09-19 Samsung Electronics Co., Ltd. Apparatus and method for analyzing image including event information

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07249127A (en) * 1994-03-09 1995-09-26 Honda Motor Co Ltd Traveling object detection device
JP2001022938A (en) * 1999-07-09 2001-01-26 Nissan Motor Co Ltd Fault detecting device for vehicle
JP2001195699A (en) * 2000-01-14 2001-07-19 Yazaki Corp Vehicle circumference monitor device and recording medium for stored with vehicle collision danger judgement processing program
JP2002213970A (en) * 2001-01-17 2002-07-31 Fujitsu Ten Ltd Drive support system
JP2003051015A (en) * 2001-08-03 2003-02-21 Nissan Motor Co Ltd Environment recognition device
JP2003281700A (en) * 2002-03-25 2003-10-03 Toshiba Corp Cutting-in vehicle detecting device and method
JP2004038624A (en) * 2002-07-04 2004-02-05 Nissan Motor Co Ltd Vehicle recognition method, vehicle recognition device and vehicle recognition program
JP2004220422A (en) * 2003-01-16 2004-08-05 Denso Corp Contact prevention system of vehicle

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07249127A (en) * 1994-03-09 1995-09-26 Honda Motor Co Ltd Traveling object detection device
JP2001022938A (en) * 1999-07-09 2001-01-26 Nissan Motor Co Ltd Fault detecting device for vehicle
JP2001195699A (en) * 2000-01-14 2001-07-19 Yazaki Corp Vehicle circumference monitor device and recording medium for stored with vehicle collision danger judgement processing program
JP2002213970A (en) * 2001-01-17 2002-07-31 Fujitsu Ten Ltd Drive support system
JP2003051015A (en) * 2001-08-03 2003-02-21 Nissan Motor Co Ltd Environment recognition device
JP2003281700A (en) * 2002-03-25 2003-10-03 Toshiba Corp Cutting-in vehicle detecting device and method
JP2004038624A (en) * 2002-07-04 2004-02-05 Nissan Motor Co Ltd Vehicle recognition method, vehicle recognition device and vehicle recognition program
JP2004220422A (en) * 2003-01-16 2004-08-05 Denso Corp Contact prevention system of vehicle

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257258A (en) * 2006-03-23 2007-10-04 Honda Motor Co Ltd Vehicle surroundings monitoring system, vehicle, vehicle surroundings monitoring program, and configuration method for vehicle surroundings monitoring system
JP2010230443A (en) * 2009-03-26 2010-10-14 Japan Research Institute Ltd Direction detecting device
JP2012003582A (en) * 2010-06-18 2012-01-05 Nissan Motor Co Ltd Device for recognizing environment outside vehicle and method for recognizing environment outside vehicle
JP2012099121A (en) * 2011-12-05 2012-05-24 Chubu Electric Power Co Inc Mobile body identification device and mobile body identification program
US9767571B2 (en) 2013-07-29 2017-09-19 Samsung Electronics Co., Ltd. Apparatus and method for analyzing image including event information

Also Published As

Publication number Publication date
JP4140588B2 (en) 2008-08-27

Similar Documents

Publication Publication Date Title
JP6190758B2 (en) Object recognition device and vehicle
JP4654208B2 (en) Vehicle environment recognition device
JP6867184B2 (en) Driving support device
US9797734B2 (en) Object recognition apparatus
US7190282B2 (en) Nose-view monitoring apparatus
JP4783431B2 (en) Traffic information detection apparatus, traffic information detection method, traffic information detection program, and recording medium
JP6416293B2 (en) Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car
CN108241851B (en) Information processing apparatus, information processing method, and program
US20120019655A1 (en) Object detection device
CN108248602B (en) Information processing apparatus, information processing method, and recording medium
JP2005309797A (en) Warning device for pedestrian
JP2014006700A (en) Pedestrian detection device
WO2013046408A1 (en) Image display device and image display method
CN108242182B (en) Information processing apparatus, information processing method, and recording medium
JP4693561B2 (en) Vehicle periphery monitoring device
JP6913602B2 (en) Information processing equipment and programs
JP4840472B2 (en) Object detection device
JP2005276057A (en) Nose view monitoring device
JP4140588B2 (en) Moving object detection device
JP2001101592A (en) Collision preventing device for vehicle
JP4997191B2 (en) Device for assisting parking
JP2000016181A (en) Camera equipped door mirror and vehicle periphery recognition system
JP7517294B2 (en) Target vehicle recognition device and processing method for target vehicle recognition device
JP3729005B2 (en) Vehicle rear monitoring device
JP2004051063A (en) Device for visual recognition around vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080318

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080520

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080602

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees