JP2006072638A - Apparatus for detecting moving body - Google Patents
Apparatus for detecting moving body Download PDFInfo
- Publication number
- JP2006072638A JP2006072638A JP2004254554A JP2004254554A JP2006072638A JP 2006072638 A JP2006072638 A JP 2006072638A JP 2004254554 A JP2004254554 A JP 2004254554A JP 2004254554 A JP2004254554 A JP 2004254554A JP 2006072638 A JP2006072638 A JP 2006072638A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- information
- moving
- image
- speed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、移動物体検出装置に関する。 The present invention relates to a moving object detection apparatus.
従来、撮像画像から障害物の存在しない移動可能な領域を抽出する移動可能空間抽出部と、移動している障害物を抽出する移動障害物抽出部と、これら抽出部の出力に基づいて障害物の位置及び方向を求めて障害物の飛び出しを検出する移動物体検出装置が知られている。この装置では、移動物体の飛び出し検出にあたり、オプティカルフローを検出し、そのオプティカルフローの消失点を検出するようにしている(例えば特許文献1参照)。
しかしながら、従来装置では、オプティカルフローを検出して消失点を求めなくてはならず、処理負担が少なくなく、ハード化にあたりコストの増大を招いてしまう。 However, in the conventional apparatus, the optical flow must be detected and the vanishing point must be obtained, the processing load is not small, and an increase in cost is required for hardware implementation.
本発明はこのような従来の課題を解決するためになされたものであり、その目的とするところは、処理負担を軽減してコストの増大を防止した移動物体検出装置を提供することにある。 The present invention has been made to solve such conventional problems, and an object of the present invention is to provide a moving object detection apparatus that reduces the processing load and prevents an increase in cost.
本発明の移動物体検出装置は、撮像手段と、エッジ検出手段と、エッジ移動履歴作成手段と、速度方向検出手段と、飛び出し検出手段とを備えている。撮像手段は車両周囲を撮像し、エッジ検出手段は撮像手段により撮像された画像についてエッジ処理するものである。また、エッジ移動履歴作成手段は、エッジ検出手段によりエッジ処理された画像を入力し、画像中のエッジ位置を時刻情報と共に時系列的に記録するものである。速度方向検出手段は、エッジ移動履歴作成手段により時系列的に記録されたエッジ位置及び時刻情報から、エッジの移動速度及び移動方向を検出する構成となっている。そして、飛び出し検出手段は、速度方向検出手段により検出された移動速度、及び移動方向に基づいて、移動物体の飛び出しを検出する構成となっている。 The moving object detection apparatus of the present invention includes an imaging means, an edge detection means, an edge movement history creation means, a speed direction detection means, and a pop-up detection means. The image pickup means picks up the vehicle periphery, and the edge detection means performs edge processing on the image picked up by the image pickup means. The edge movement history creating means inputs the image edge-processed by the edge detecting means and records the edge position in the image along with time information in time series. The speed direction detection means is configured to detect the edge movement speed and direction from the edge position and time information recorded in time series by the edge movement history creation means. The pop-up detection means detects the pop-out of the moving object based on the moving speed and the moving direction detected by the speed direction detecting means.
本発明によれば、撮像した画像をエッジ処理し、エッジの移動速度と移動方向とを検出している。このため、物体などの移動速度及び移動方向を検出していることとなる。そして、検出したエッジの移動速度と移動方向とから、移動物体の飛び出しを検出している。このため、物体などの移動速度及び移動方向に基づいて、移動物体の飛び出しを検出することとなる。このように、本発明では、オプティカルフローの算出及び消失点の算出など、負担の大きい処理が実行されず、エッジ検出し、その動きを判断するのみであるため、処理負担を軽減してコストの増大を防止した移動物体検出装置を提供することができる。 According to the present invention, edge processing is performed on a captured image, and the moving speed and moving direction of the edge are detected. For this reason, the moving speed and moving direction of an object etc. are detected. Then, the jumping out of the moving object is detected from the detected moving speed and moving direction of the edge. Therefore, the jumping out of the moving object is detected based on the moving speed and moving direction of the object. As described above, in the present invention, since processing with a large burden such as calculation of an optical flow and calculation of a vanishing point is not executed, only the edge is detected and its movement is judged, so that the processing burden is reduced and the cost is reduced. It is possible to provide a moving object detection device that prevents the increase.
以下、本発明の好適な実施形態を図面に基づいて説明する。なお、各図において、同一又は同様の要素には同一の符号を付して説明を省略する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings. In the drawings, the same or similar elements are denoted by the same reference numerals, and description thereof is omitted.
図1は、本発明の実施形態に係る移動物体検出装置の構成図である。同図に示す移動物体検出装置1は、人、動物、車両などの移動物体を検出するものであって、好適には自動車に搭載され、運転者に移動物体の飛び出しを警報するものとして用いられる。 FIG. 1 is a configuration diagram of a moving object detection device according to an embodiment of the present invention. A moving object detection apparatus 1 shown in the figure detects a moving object such as a person, an animal, or a vehicle, and is preferably mounted on a car and used to warn the driver of the moving object popping out. .
具体的に移動物体検出装置1は、車両周囲を撮像するカメラ(撮像手段)10、及びカメラ10により撮像された画像についてエッジ処理するエッジ検出部(エッジ検出手段)20を備えている。
Specifically, the moving object detection apparatus 1 includes a camera (imaging unit) 10 that captures an image around the vehicle, and an edge detection unit (edge detection unit) 20 that performs edge processing on an image captured by the
また、移動物体検出装置1は、エッジ検出部20によりエッジ処理された画像を入力し、画像中のエッジ位置を時刻情報と共に時系列的に記録するエッジ移動履歴計算部(エッジ移動履歴作成手段)30、及びエッジ移動履歴計算部30により時系列的に記録されたエッジ位置及び時刻情報から、エッジの移動速度及び移動方向を検出する速度検出部(速度方向検出手段)40を備えている。
Further, the moving object detection device 1 receives an image subjected to edge processing by the
さらに、移動物体検出装置1は、速度検出部40により検出された移動速度及び移動方向に基づいて、移動物体の飛び出しを検出する危険物検出部(飛び出し検出手段)50、及び危険物検出部50により移動物体の飛び出しを検出した場合、その旨を音声等により報知する警報部60を備えている。
Furthermore, the moving object detection device 1 is based on the moving speed and the moving direction detected by the
すなわち、移動物体検出装置1は、エッジ検出を行い、そのエッジの移動速度等を判断し、移動物体の飛び出しを検出する構成となっている。 That is, the moving object detection device 1 is configured to detect an edge, determine the moving speed of the edge, and detect the jumping out of the moving object.
ここで、上記のエッジ検出部20は、画像所定方向に伸びるエッジを検出する構成となっている。この画像所定方向はカメラ10の撮像方向により決定される。通常、移動物体の飛び出しは車両の側方から発生する。このため、エッジ検出部20は、カメラ10が車両前方を撮像している場合、画像横方向に物体の移動を検出できるように、画像縦方向に伸びるエッジを検出すると決定する。また、エッジ検出部20は、カメラ10が車両側方を撮像している場合、自車両に接近する物体を検出できるように、画像横方向に伸びるエッジを検出すると決定する。
Here, the
また、エッジ移動履歴計算部30は、時系列的に記録したエッジ位置及び時刻情報を初期化する機能を有している。この初期化は、ハンドル切り角の情報、ヨーレートセンサからの情報、左右の車輪回転差の情報、ターンシグナルの情報、及び、道路地図と自車位置との情報のうち、少なくとも1つの情報に基づいて行われる。すなわち、エッジ移動履歴計算部30は、ハンドルの切り角等により撮像する方向自体が変わってしまったことが検出された場合、過去に記録したエッジ位置及び時刻情報が移動物体の検出に意味を為さなくなるため、初期化を行うこととしている。
Further, the edge movement
さらに、上記の速度検出部40は、エッジの移動速度を検出するにあたり速度検出領域を設定し、この領域内のエッジから移動速度を検出する構成となっている。また、速度検出部40は、天候情報、時間帯情報、画像中の輝度情報のうち少なくとも1つ情報を入力する構成となっている。そして、速度検出部40は、入力した情報に基づいて画像のSN比の低下を検出した場合、すなわちノイズの影響が強くなった場合、速度検出領域を大きくするようになっている。これにより、速度検出部40はエッジの情報量を多くして、ノイズによる誤検出の影響を低減するようになっている。
Further, the
また、危険物検出部50は、自車両の位置情報と共に、自車両が走行する道路の道幅、歩道の有無、及び車線数、並びに、天候情報、及び時間帯情報のうち少なくとも1つの情報に基づいて、移動物体として検出したものがノイズであるか否かを判定する構成となっている。例えば片側2車線の道路において自車両が右側の車線を走行している場合、移動物体の飛び出しは左側から発生する可能性が高いこととなる。このため、危険物検出部50は、右側から移動物体の飛び出しを検出した場合にはノイズである可能性が高いと判断する。他方、危険物検出部50は、左側から移動物体の飛び出しを検出した場合にはノイズでないと判断する。このように、危険物検出部50は、飛び出しの発生確率を判断して、適切な飛び出し検出を行うように構成されている。
In addition, the dangerous
次に、本実施形態に係る移動物体検出装置1の動作について説明する。なお、以下の説明においてカメラ10は車両前方方向を撮像し、エッジ検出部20は画像縦方向に伸びるエッジ検出するものとする。
Next, the operation of the moving object detection device 1 according to this embodiment will be described. In the following description, it is assumed that the
まず、カメラ10は車両周囲を撮像して、車両前方方向の画像を取得する。次いで、エッジ検出部20は、エッジ処理して画像縦方向に伸びるエッジを検出する。そして、カメラ10及びエッジ検出部20は上記処理を繰り返して順次エッジ検出していく。
First, the
次に、エッジ移動履歴計算部30は、エッジ検出部20によりエッジ処理された画像を順次入力し、画像中のエッジ位置を時刻情報と共に時系列的に記録していく。
Next, the edge movement
ここで、エッジ移動履歴計算部30に記録されるエッジ位置及び時刻情報を説明する。図2は、エッジ移動履歴計算部30により記録の様子を示す説明図であって、(a)は時刻t−2における記録の様子を示し、(b)は時刻t−1における記録の様子を示し、(c)は時刻tにおける記録の様子を示している。
Here, the edge position and time information recorded in the edge movement
まず、図2(a)に示すように、時刻t−2において位置x1でエッジがエッジ検出部20により検出されたとすると、エッジ移動履歴計算部30は、このエッジ位置x1を移動履歴として記録する。さらに、エッジ移動履歴計算部30は、エッジ位置x1について時刻情報hを付与する。このとき、エッジ移動履歴計算部30は、エッジ位置x1について「時刻情報h=1」とする。
First, as shown in FIG. 2A, if an edge is detected by the
次に、図2(b)に示すように、時刻t−1において位置x2でエッジがエッジ検出部20により検出されたとすると、エッジ移動履歴計算部30は、このエッジ位置x2を移動履歴として記録する。また、このとき、エッジ移動履歴計算部30は、時刻t−2において検出されたエッジ位置x1について「時刻情報h=1+H」とし、時刻t−1において検出されたエッジ位置x2について「時刻情報h=1」とする。
Next, as shown in FIG. 2B, if an edge is detected by the
さらに、図2(c)に示すように、時刻tにおいて位置x3でエッジがエッジ検出部20により検出されたとすると、エッジ移動履歴計算部30は、このエッジ位置x3を移動履歴として記録する。また、このとき、エッジ移動履歴計算部30は、時刻t−2において検出されたエッジ位置x1について「時刻情報h=1+2H」とし、時刻t−1において検出されたエッジ位置x2について「時刻情報h=1+H」とする。そして、時刻tにおいて検出されたエッジ位置x3について「時刻情報h=1」とする。
Furthermore, as shown in FIG. 2C, if an edge is detected by the
このように、エッジ移動履歴計算部30は、エッジ位置を時刻情報と共に時系列的に記録していくこととなる。なお、この記録の過程において、エッジ移動履歴計算部30は、ハンドルの切り角等の情報を入力し、撮像する方向自体が変わってしまった場合には、履歴の初期化を行うこととなる。
As described above, the edge movement
次いで、速度検出部40は、エッジ移動履歴計算部30により時系列的に記録されたエッジ位置及び時刻情報から、エッジの移動速度及び移動方向を検出する。ここで、エッジの移動速度はエッジ位置を移動時間で除することにより求めることができる。
Next, the
このとき、速度検出部40は、移動履歴全てを参照するわけではなく、エッジの移動速度を検出するにあたり速度検出領域を設定する。そして、速度検出部40は、この領域内において検出されたエッジ位置及び時刻情報から、エッジの移動速度及び移動方向を検出する。また、速度検出部40は、天候情報、時間帯情報、画像中の輝度情報のうち少なくとも1つ情報を入力し、入力した情報に基づいて画像のSN比の低下を検出すると、速度検出領域を大きくして、ノイズによる誤検出の影響を低減する。すなわち、速度検出部40は、速度検出領域を大きくすることで、エッジの移動速度及び移動方向を検出するための情報量を多くして、ノイズによる影響を少なくすることとなる。
At this time, the
そして、エッジの移動速度及び移動方向を検出した後、危険物検出部50は移動物体の飛び出しを検出する。図3は、危険物検出部50による飛び出し検出処理の説明図である。
Then, after detecting the moving speed and moving direction of the edge, the dangerous
危険物検出部50は、検出した移動方向から、移動物体が自車両に接近しているか否かを判定する。例えば、カメラ10が車両前方方向を撮像している場合において図3に示すようにエッジa及びエッジbが検出され、それらエッジa,bが画像左方向に移動しているとする。
The dangerous
まず、画像左端近傍にあるエッジaは画像中央部から遠ざかる方向に移動している。このため、カメラ10が車両前方方向を撮像していることからすると、エッジaは自車両から遠ざかる方向に移動しているといえる。故に、危険物検出部50はエッジaについて移動物体の飛び出しと検出しない。
First, the edge a in the vicinity of the left end of the image moves in a direction away from the center of the image. For this reason, it can be said that the edge a is moving in the direction away from the own vehicle from the fact that the
他方、画像のやや右側にあるエッジbは画像中央部に近づく方向に移動している。このため、カメラ10が車両前方方向を撮像していることからすると、エッジbは自車両に近づく方向に移動しているといえる。故に、危険物検出部50はエッジbについて移動物体の飛び出しと検出する。
On the other hand, the edge b slightly on the right side of the image moves in a direction approaching the center of the image. For this reason, it can be said that the edge b is moving in the direction approaching the own vehicle from the fact that the
なお、危険物検出部50は、自車両の位置情報と共に、自車両が走行する道路の道幅、歩道の有無、及び車線数、並びに、天候情報、及び時間帯情報のうち少なくとも1つの情報に基づいて、移動物体として検出したものがノイズであるか否かを判定する。具体的に危険物検出部50は、図3の説明においてエッジbを移動物体の飛び出しとして検出しているが、例えば片側2車線の道路において自車両が右側の車線を走行している場合、右側から移動物体の飛び出しは、中央分離帯などの存在により発生しにくいこととなる。このため、片側2車線の道路の右側車線を走行しているような場合、危険物検出部50は、エッジbをノイズと判定することとなる。
The dangerous
また、危険物検出部50は、天候や時間帯に応じて飛び出しが発生する可能性を判断して、上記同様の処理をする。例えば、小学校などに隣接する道路を走行する場合、登校及び下校時刻には移動物体の飛び出しの可能性が増す。また、運動公園などに隣接する道路を走行する場合、晴天であると移動物体の飛び出しの可能性が増し、雨天であると移動物体の飛び出しの可能性が減る。そして、危険物検出部50は、このような飛び出しが発生する可能性を判断して、上記同様の処理をする。
Further, the dangerous
次いで、警報部60は、危険物検出部50により移動物体の飛び出しが検出された場合、その旨を車両乗員に報知する。そして、車両乗員に移動物体に対する迅速な対応を促すこととなる。
Next, when the dangerous
次に、本実施形態に係る移動物体検出装置1の詳細処理の一例を説明する。図4は、本実施形態に係る移動物体検出装置1の詳細処理の一例を示すフローチャートである。 Next, an example of detailed processing of the moving object detection device 1 according to the present embodiment will be described. FIG. 4 is a flowchart illustrating an example of detailed processing of the moving object detection device 1 according to the present embodiment.
まず、車両のイグニッションスイッチ等がオンされて本装置1が起動すると、カメラ10が車両周囲を撮像して画像を取得する(ST1)。次いで、エッジ検出部20はエッジ処理を行ってエッジ位置を検出する(ST2)。
First, when the vehicle ignition switch or the like is turned on and the apparatus 1 is activated, the
そして、エッジ移動履歴計算部30は、ステップST2において得られたエッジ位置を時刻情報と共に記録して、移動履歴を更新する(ST3)。その後、速度検出部40は、エッジの移動速度及び移動方向を検出する(ST4)。そして、危険物検出部50は、速度検出部40により検出されたエッジの移動速度及び移動方向に基づいて、飛び出し物体があるか否かを判断する(ST5)。すなわち、図3を参照して説明したように、危険物検出部50は、移動方向からエッジが自車両に接近しているか否かを判断する。また、エッジの移動速度から、自車両に衝突する可能性があるか否かについても判断する。
Then, the edge movement
そして、危険物検出部50は、上記判断の結果、エッジの発生源となった物体が自車両に接近していない又は自車両に衝突する可能性がないと判断した場合、飛び出し物体が無かったと判断する(ST5:NO)。そして、本装置1は処理をステップST7に進める。
When the dangerous
他方、危険物検出部50は、上記判断の結果、エッジの発生源となった物体が自車両に接近し且つ自車両に衝突する可能性があると判断した場合、飛び出し物体があったと判断する(ST5:YES)。そして、危険物検出部50は、そのエッジを飛び出し物体として検出する(ST6)。次いで、危険物検出部50は、飛び出し物体の情報を警報部60に送信し、警報部60にその情報を報知させる。
On the other hand, if the dangerous
その後、本装置1は、継続条件を満たしているか否かを判断する(ST7)。ここで、本装置1は、継続条件として、装置の起動条件、及び撮像方向の変更条件を満たしているか否かを判断する。すなわち、本装置1は、例えばイグニッションスイッチ等がオフされた場合、装置の起動条件を満たさないことから、継続条件を満たさないと判断し(ST7:NO)、処理を終了させる。また、本装置1は、例えばエッジ移動履歴計算部30が左右の車輪の回転差などから車両の方向転換を検出した場合、移動履歴を初期化すると共に継続条件を満たさないと判断し(ST7:NO)、処理を終了させる。なお、この場合には、再度ステップST1から処理を開始し、エッジ検出及び移動履歴の更新を行っていく。
Thereafter, the present apparatus 1 determines whether or not the continuation condition is satisfied (ST7). Here, the apparatus 1 determines whether or not the apparatus start condition and the imaging direction change condition are satisfied as the continuation condition. That is, for example, when the ignition switch or the like is turned off, the apparatus 1 determines that the continuation condition is not satisfied because the apparatus activation condition is not satisfied (ST7: NO), and ends the process. Further, for example, when the edge movement
一方、本装置1は、継続条件としての装置の起動条件及び撮像方向の変更条件を満たしていると判断した場合(ST7:YES)、Δt時間の待機状態となる(ST8)。そして、待機後、本装置1は、再度ステップST1から処理を繰り返すこととなる。 On the other hand, when it is determined that the apparatus activation condition and the imaging direction change condition as the continuation condition are satisfied (ST7: YES), the apparatus 1 enters a standby state for Δt time (ST8). Then, after waiting, the apparatus 1 repeats the process from step ST1 again.
このようにして、本実施形態に係る移動物体検出装置1によれば、撮像した画像をエッジ処理し、エッジの移動速度と移動方向とを検出している。このため、物体などの移動速度及び移動方向を検出していることとなる。そして、検出したエッジの移動速度と移動方向とから、移動物体の飛び出しを検出している。このため、物体などの移動速度及び移動方向に基づいて、移動物体の飛び出しを検出することとなる。このように、本実施形態では、オプティカルフローの算出及び消失点の算出など、負担の大きい処理が実行されず、エッジ検出し、その動きを判断するのみであるため、処理負担を軽減してコストの増大を防止した移動物体検出装置を提供することができる。 In this way, according to the moving object detection apparatus 1 according to the present embodiment, the captured image is subjected to edge processing, and the edge moving speed and direction are detected. For this reason, the moving speed and moving direction of an object etc. are detected. Then, the jumping out of the moving object is detected from the detected moving speed and moving direction of the edge. Therefore, the jumping out of the moving object is detected based on the moving speed and moving direction of the object. As described above, in the present embodiment, processing with heavy burdens such as optical flow calculation and vanishing point calculation is not executed, but only edge detection is performed and its movement is judged. It is possible to provide a moving object detection apparatus that prevents an increase in the amount of movement.
また、カメラ10の撮像方向に基づいて、エッジ処理する画像方向を決定しているので、通常、移動物体の飛び出しは車両の側方から発生することを考慮すると、カメラ10が車両前方を撮像している場合、画像横方向に物体の移動を検出できるように、画像縦方向に伸びるエッジを検出するれば良いこととなる。また、カメラ10が車両側方を撮像している場合は、自車両に接近する物体を検出できるように、画像横方向に伸びるエッジを検出すれば良いこととなる。これにより、本実施形態では、エッジ処理にあたり移動物体の検出に必要となる方向のエッジを検出することで、適切な飛び出し検出を行うことができ、更には他の方向についてはエッジ処理せず、一層処理負荷を軽減することができる。
In addition, since the image direction for edge processing is determined based on the imaging direction of the
また、エッジ移動履歴計算部30は、ハンドル切り角の情報、ヨーレートセンサからの情報、左右の車輪回転差の情報、ターンシグナルの情報、及び、道路地図と自車位置との情報のうち、少なくとも1つの情報に基づいて時系列的に記録したエッジ位置及び時刻情報を初期化する。ここで、撮像する方向自体が変わってしまったことが検出された場合、過去に記録したエッジ位置及び時刻情報は移動物体の検出に意味を為さなくなる。このため、エッジ移動履歴計算部30は、上記情報のいずれかに基づいてカメラ10の撮像方向の変化を検出した場合には初期化を行うこととしている。これにより、車両の動きに合わせて適切な飛び出し検出をすることができる。
Further, the edge movement
また、エッジの移動速度を検出するにあたり速度検出領域を設定し、天候情報、時間帯情報、画像中の輝度情報のうち少なくとも1つ情報に基づいて画像のSN比の低下を検出した場合には、速度検出領域を大きくする。このように、速度検出領域を大きくすることで、エッジの移動速度及び移動後方を検出するための情報量を多くして、ノイズによる影響を少なくすることとなる。従って、入力画像の変化に応じた速度検出等を行って、適切な飛び出し検出をすることができる。 In addition, when a speed detection area is set for detecting the moving speed of the edge, and a decrease in the S / N ratio of the image is detected based on at least one of the weather information, the time zone information, and the luminance information in the image, Increase the speed detection area. Thus, by increasing the speed detection area, the amount of information for detecting the moving speed and the backward movement of the edge is increased, and the influence of noise is reduced. Accordingly, it is possible to perform appropriate pop-up detection by performing speed detection according to changes in the input image.
また、危険物検出部50は、自車両の位置情報と共に、自車両が走行する道路の道幅、歩道の有無、及び車線数、並びに、天候情報、及び時間帯情報のうち少なくとも1つの情報に基づいて、移動物体として検出したものがノイズであるか否かを判定する。ここで、例えば片側2車線の道路において自車両が右側の車線を走行している場合、移動物体の飛び出しは左側から発生する可能性が高いこととなる。他方、右側から移動物体の飛び出しは、中央分離帯などの存在により発生しにくいこととなる。このように、危険物検出部50は、飛び出しの発生確率を判断できることとなる。従って、飛び出しの発生確率に基づくノイズの判定が可能となって、適切な飛び出し検出をすることができる。
In addition, the dangerous
以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で、変更を加えてもよい。例えば、上記実施形態では、移動物体検出装置1を車両に搭載した場合を例に説明したが、特にこれに限らず、例えば船舶や飛行機等に搭載されてもよい。 As described above, the present invention has been described based on the embodiment, but the present invention is not limited to the above embodiment, and may be modified without departing from the gist of the present invention. For example, in the above embodiment, the case where the moving object detection device 1 is mounted on a vehicle has been described as an example. However, the present invention is not limited thereto, and may be mounted on, for example, a ship or an airplane.
1…移動物体検出装置
10…カメラ(撮像手段)
20…エッジ検出部(エッジ検出手段)
30…エッジ移動履歴計算部(エッジ移動履歴作成手段)
40…速度検出部(速度方向検出手段)
50…危険物検出部(飛び出し検出手段)
DESCRIPTION OF SYMBOLS 1 ... Moving
20: Edge detection unit (edge detection means)
30 ... Edge movement history calculation unit (edge movement history creation means)
40: Speed detection unit (speed direction detection means)
50 ... Dangerous substance detection part (pop-out detection means)
Claims (6)
前記撮像手段により撮像された画像についてエッジ処理するエッジ検出手段と、
前記エッジ検出手段によりエッジ処理された画像を入力し、画像中のエッジ位置を時刻情報と共に時系列的に記録するエッジ移動履歴作成手段と、
前記エッジ移動履歴作成手段により時系列的に記録されたエッジ位置及び時刻情報から、エッジの移動速度及び移動方向を検出する速度方向検出手段と、
前記速度方向検出手段により検出された移動速度、及び移動方向に基づいて、移動物体の飛び出しを検出する飛び出し検出手段と、
を備えることを特徴とする移動物体検出装置。 Imaging means for imaging the surroundings of the vehicle;
Edge detection means for performing edge processing on an image captured by the imaging means;
Edge movement history creation means for inputting an image edge-processed by the edge detection means and recording the edge position in the image together with time information in time series;
Speed direction detecting means for detecting the moving speed and moving direction of the edge from the edge position and time information recorded in time series by the edge movement history creating means;
Pop-out detection means for detecting pop-out of a moving object based on the moving speed and moving direction detected by the speed direction detecting means;
A moving object detection apparatus comprising:
Edge processing is performed on the image obtained by imaging the surroundings of the vehicle, and the edge position in the image is recorded in time series together with time information, and the moving speed and movement of the edge are determined from the edge position and time information recorded in time series. A moving object detection apparatus characterized by detecting a jump of a moving object by detecting a direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004254554A JP4140588B2 (en) | 2004-09-01 | 2004-09-01 | Moving object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004254554A JP4140588B2 (en) | 2004-09-01 | 2004-09-01 | Moving object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006072638A true JP2006072638A (en) | 2006-03-16 |
JP4140588B2 JP4140588B2 (en) | 2008-08-27 |
Family
ID=36153213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004254554A Expired - Fee Related JP4140588B2 (en) | 2004-09-01 | 2004-09-01 | Moving object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4140588B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007257258A (en) * | 2006-03-23 | 2007-10-04 | Honda Motor Co Ltd | Vehicle surroundings monitoring system, vehicle, vehicle surroundings monitoring program, and configuration method for vehicle surroundings monitoring system |
JP2010230443A (en) * | 2009-03-26 | 2010-10-14 | Japan Research Institute Ltd | Direction detecting device |
JP2012003582A (en) * | 2010-06-18 | 2012-01-05 | Nissan Motor Co Ltd | Device for recognizing environment outside vehicle and method for recognizing environment outside vehicle |
JP2012099121A (en) * | 2011-12-05 | 2012-05-24 | Chubu Electric Power Co Inc | Mobile body identification device and mobile body identification program |
US9767571B2 (en) | 2013-07-29 | 2017-09-19 | Samsung Electronics Co., Ltd. | Apparatus and method for analyzing image including event information |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07249127A (en) * | 1994-03-09 | 1995-09-26 | Honda Motor Co Ltd | Traveling object detection device |
JP2001022938A (en) * | 1999-07-09 | 2001-01-26 | Nissan Motor Co Ltd | Fault detecting device for vehicle |
JP2001195699A (en) * | 2000-01-14 | 2001-07-19 | Yazaki Corp | Vehicle circumference monitor device and recording medium for stored with vehicle collision danger judgement processing program |
JP2002213970A (en) * | 2001-01-17 | 2002-07-31 | Fujitsu Ten Ltd | Drive support system |
JP2003051015A (en) * | 2001-08-03 | 2003-02-21 | Nissan Motor Co Ltd | Environment recognition device |
JP2003281700A (en) * | 2002-03-25 | 2003-10-03 | Toshiba Corp | Cutting-in vehicle detecting device and method |
JP2004038624A (en) * | 2002-07-04 | 2004-02-05 | Nissan Motor Co Ltd | Vehicle recognition method, vehicle recognition device and vehicle recognition program |
JP2004220422A (en) * | 2003-01-16 | 2004-08-05 | Denso Corp | Contact prevention system of vehicle |
-
2004
- 2004-09-01 JP JP2004254554A patent/JP4140588B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07249127A (en) * | 1994-03-09 | 1995-09-26 | Honda Motor Co Ltd | Traveling object detection device |
JP2001022938A (en) * | 1999-07-09 | 2001-01-26 | Nissan Motor Co Ltd | Fault detecting device for vehicle |
JP2001195699A (en) * | 2000-01-14 | 2001-07-19 | Yazaki Corp | Vehicle circumference monitor device and recording medium for stored with vehicle collision danger judgement processing program |
JP2002213970A (en) * | 2001-01-17 | 2002-07-31 | Fujitsu Ten Ltd | Drive support system |
JP2003051015A (en) * | 2001-08-03 | 2003-02-21 | Nissan Motor Co Ltd | Environment recognition device |
JP2003281700A (en) * | 2002-03-25 | 2003-10-03 | Toshiba Corp | Cutting-in vehicle detecting device and method |
JP2004038624A (en) * | 2002-07-04 | 2004-02-05 | Nissan Motor Co Ltd | Vehicle recognition method, vehicle recognition device and vehicle recognition program |
JP2004220422A (en) * | 2003-01-16 | 2004-08-05 | Denso Corp | Contact prevention system of vehicle |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007257258A (en) * | 2006-03-23 | 2007-10-04 | Honda Motor Co Ltd | Vehicle surroundings monitoring system, vehicle, vehicle surroundings monitoring program, and configuration method for vehicle surroundings monitoring system |
JP2010230443A (en) * | 2009-03-26 | 2010-10-14 | Japan Research Institute Ltd | Direction detecting device |
JP2012003582A (en) * | 2010-06-18 | 2012-01-05 | Nissan Motor Co Ltd | Device for recognizing environment outside vehicle and method for recognizing environment outside vehicle |
JP2012099121A (en) * | 2011-12-05 | 2012-05-24 | Chubu Electric Power Co Inc | Mobile body identification device and mobile body identification program |
US9767571B2 (en) | 2013-07-29 | 2017-09-19 | Samsung Electronics Co., Ltd. | Apparatus and method for analyzing image including event information |
Also Published As
Publication number | Publication date |
---|---|
JP4140588B2 (en) | 2008-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6190758B2 (en) | Object recognition device and vehicle | |
JP4654208B2 (en) | Vehicle environment recognition device | |
JP6867184B2 (en) | Driving support device | |
US9797734B2 (en) | Object recognition apparatus | |
US7190282B2 (en) | Nose-view monitoring apparatus | |
JP4783431B2 (en) | Traffic information detection apparatus, traffic information detection method, traffic information detection program, and recording medium | |
JP6416293B2 (en) | Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car | |
CN108241851B (en) | Information processing apparatus, information processing method, and program | |
US20120019655A1 (en) | Object detection device | |
CN108248602B (en) | Information processing apparatus, information processing method, and recording medium | |
JP2005309797A (en) | Warning device for pedestrian | |
JP2014006700A (en) | Pedestrian detection device | |
WO2013046408A1 (en) | Image display device and image display method | |
CN108242182B (en) | Information processing apparatus, information processing method, and recording medium | |
JP4693561B2 (en) | Vehicle periphery monitoring device | |
JP6913602B2 (en) | Information processing equipment and programs | |
JP4840472B2 (en) | Object detection device | |
JP2005276057A (en) | Nose view monitoring device | |
JP4140588B2 (en) | Moving object detection device | |
JP2001101592A (en) | Collision preventing device for vehicle | |
JP4997191B2 (en) | Device for assisting parking | |
JP2000016181A (en) | Camera equipped door mirror and vehicle periphery recognition system | |
JP7517294B2 (en) | Target vehicle recognition device and processing method for target vehicle recognition device | |
JP3729005B2 (en) | Vehicle rear monitoring device | |
JP2004051063A (en) | Device for visual recognition around vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071106 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080318 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080417 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080520 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080602 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110620 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120620 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |