JP2017033478A - Obstacle detection apparatus, obstacle detection method, and obstacle detection program - Google Patents

Obstacle detection apparatus, obstacle detection method, and obstacle detection program Download PDF

Info

Publication number
JP2017033478A
JP2017033478A JP2015155593A JP2015155593A JP2017033478A JP 2017033478 A JP2017033478 A JP 2017033478A JP 2015155593 A JP2015155593 A JP 2015155593A JP 2015155593 A JP2015155593 A JP 2015155593A JP 2017033478 A JP2017033478 A JP 2017033478A
Authority
JP
Japan
Prior art keywords
pixel
obstacle
determination
frame image
obstacle detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015155593A
Other languages
Japanese (ja)
Other versions
JP6593018B2 (en
Inventor
祥太 金森
Shota Kanamori
祥太 金森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2015155593A priority Critical patent/JP6593018B2/en
Publication of JP2017033478A publication Critical patent/JP2017033478A/en
Application granted granted Critical
Publication of JP6593018B2 publication Critical patent/JP6593018B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology of reducing false obstacle detection due to weather change or illumination change, in a detection area determined on a road where a vehicle travels, thereby improving the accuracy of detecting the obstacle.SOLUTION: An image input unit 12 receives an input video image formed by capturing a detection area determined on a road where a vehicle travels. An image processing unit 13 determines whether each of pixels of a frame image relating to the video image input to the image input unit 12 is a foreground pixel or a background pixel, by use of a feature quantity of the pixel. An image processing unit 13 determines whether the pixel is a specific pixel relating to an obstacle, by use of the frame image captured in a determination period determined based on a reference timing which is the timing of capturing the frame image with the foreground pixel changed from the background pixel. The image processing unit 13 detects an obstacle including a pixel determined to be the specific pixel.SELECTED DRAWING: Figure 2

Description

この発明は、車両が走行する道路上に定めた検知対象エリアを撮像した動画像を処理し、車両の走行の妨げになる障害物を検知する技術に関する。   The present invention relates to a technique for processing a moving image obtained by imaging a detection target area defined on a road on which a vehicle travels and detecting an obstacle that hinders travel of the vehicle.

従来、検知対象エリアを撮像したフレーム画像を処理し、この検知対象エリア内に位置するオブジェクト(フレーム画像に撮像されているオブジェクト)を検知する画像処理技術の1つとして、背景差分法がある。背景差分法は、公知のように、検知対象エリアを撮像したフレーム画像と、検知対象エリアの背景画像との差分画像(背景差分画像)を生成することによって、検知対象エリアを撮像したフレーム画像に撮像されているオブジェクト(検知対象エリア内に位置するオブジェクト)を検知する画像処理技術である。   Conventionally, there is a background difference method as one of image processing techniques for processing a frame image obtained by imaging a detection target area and detecting an object (an object imaged in the frame image) located in the detection target area. As is well known, the background subtraction method generates a difference image (background difference image) between a frame image obtained by imaging the detection target area and a background image of the detection target area, thereby generating a frame image obtained by imaging the detection target area. This is an image processing technique for detecting an imaged object (an object located in a detection target area).

背景差分法は、検知対象エリアが屋外である場合、天候変化や照明変化によって出現した周辺構造物の影、降雨による路面の水溜り、降雪による積雪等を、オブジェクトとして誤検知することがある。例えば、検知対象エリアが、車両が走行する道路上である場合、周辺構造物の影、降雨による路面の水溜り、降雪による積雪等を、車両の走行の妨げになる障害物として誤検知することがある。   In the background subtraction method, when the detection target area is outdoors, shadows of surrounding structures that appear due to weather changes or lighting changes, puddles of road surfaces due to rainfall, snow accumulation due to snowfall, and the like may be erroneously detected as objects. For example, when the detection target area is on the road on which the vehicle travels, the shadow of surrounding structures, the puddle of the road surface due to rain, the snow accumulation due to snowfall, etc., are erroneously detected as obstacles that hinder the vehicle's travel There is.

この誤検知を抑える技術が特許文献1において提案されている。特許文献1は、天候変化や照明変化による周辺構造物の影、降雨による路面の水溜り、降雪による積雪等の変化は、路面において車両の走行方向に一様に発生するということを前提にし、路面において車両の走行方向に一様に発生した変化を、オブジェクト(障害物)として検知しない構成である。   Patent Document 1 proposes a technique for suppressing this erroneous detection. Patent Document 1 is based on the assumption that changes in the shadows of surrounding structures due to weather changes and lighting changes, puddles of road surfaces due to rain, snow accumulation due to snow, etc., occur uniformly in the direction of travel of the vehicle on the road surface. It is a configuration in which a change that occurs uniformly in the traveling direction of the vehicle on the road surface is not detected as an object (obstacle).

特開2010−191888号公報JP 2010-191888 A

しかしながら、特許文献1は、上述したように、天候変化や照明変化による周辺構造物の影、降雨による路面の水溜り、降雪による積雪等の変化が、路面において車両の走行方向に一様に発生するということを前提にしたものである。したがって、特許文献1は、車両の走行方向に一様に発生しなかった、周辺構造物の影、降雨による路面の水溜り、降雪による積雪等の変化を障害物として誤検知するのを防止できない。   However, in Patent Document 1, as described above, changes in shadows of surrounding structures due to weather changes and lighting changes, road surface puddles due to rain, snow accumulation due to snowfall, etc. occur uniformly in the vehicle running direction on the road surface. It is based on the premise of doing. Therefore, Patent Document 1 cannot prevent erroneous detection of changes such as shadows of surrounding structures, puddles of road surfaces due to rain, snow accumulation due to snow, etc., which did not occur uniformly in the traveling direction of the vehicle as obstacles. .

この発明の目的は、車両が走行する道路上に定めた検知対象エリアに対して、天候変化や照明変化を要因とする障害物の誤検知を抑えることによって、障害物の検知精度を向上させることができる技術を提案することにある。   An object of the present invention is to improve the detection accuracy of an obstacle by suppressing false detection of an obstacle caused by a change in weather or lighting for a detection target area defined on a road on which a vehicle travels. It is to propose a technology that can.

この発明の障害物検知装置は、上記課題を解決するため、以下のように構成している。   The obstacle detection device of the present invention is configured as follows in order to solve the above problems.

車両が走行する道路上に定めた検知対象エリアを撮像した動画像が動画像入力部に入力される。前景画素判定部は、動画像入力部に入力された動画像にかかるフレーム画像を処理し、このフレーム画像の画素毎に、その画素の特徴量を用いて、前景画素であるか、背景画素であるかを判定する。画素の特徴量としては、エッジ強度や輝度値等を用いればよい。前景画素判定部は、フレーム画像の画素毎に、対応する背景画素の特徴量との差の絶対値が予め定めた閾値以上である画素を前景画素、この閾値未満である画素を背景画素と判定すればよい。   A moving image obtained by imaging a detection target area defined on the road on which the vehicle travels is input to the moving image input unit. The foreground pixel determination unit processes the frame image related to the moving image input to the moving image input unit, and uses the feature amount of each pixel of the frame image to determine whether the foreground pixel or the background pixel. Determine if there is. As the feature amount of the pixel, an edge strength, a luminance value, or the like may be used. The foreground pixel determination unit determines, for each pixel of the frame image, a pixel whose absolute value of the difference from the feature amount of the corresponding background pixel is greater than or equal to a predetermined threshold value, and a pixel that is less than this threshold value is a background pixel. do it.

特定画素判定部は、前景画素判定部による判定結果が背景画素から前景画素に変化した画素について、背景画素から前景画素に変化したフレーム画像の撮像タイミングを基準タイミングにし、この基準タイミングに基づいて決定した判定期間に撮像されたフレーム画像を用いて当該画素が障害物にかかる特定画素であるかどうかを判定する。   The specific pixel determination unit uses the imaging timing of the frame image changed from the background pixel to the foreground pixel as a reference timing for a pixel whose determination result from the foreground pixel determination unit has changed from the background pixel to the foreground pixel, and is determined based on this reference timing. It is determined whether the pixel is a specific pixel related to the obstacle using the frame image captured during the determination period.

突発的に検知対象エリアに現れるオブジェクトにかかる画素の特徴量は急激に変化するが、天候変化や照明変化による周辺構造物の影等にかかる画素の特徴量は緩やかに変化する。したがって、基準タイミングの前後における特徴量の変化が急激であるか、緩やかであるかを判定することにより、その画素がオブジェクトにかかる画素であるか、天候変化や照明変化による周辺構造物の影等にかかる画素であるかの判定が行える。   The feature amount of the pixel related to the object that suddenly appears in the detection target area changes abruptly, but the feature amount of the pixel related to the shadow of the surrounding structure due to weather change or illumination change changes gradually. Therefore, by determining whether the change in the feature value before and after the reference timing is abrupt or gradual, whether the pixel is applied to the object, whether it is a shadow of a surrounding structure due to weather change or illumination change, etc. It is possible to determine whether the pixel is related to.

また、車両が走行したことによって形状が変化した水溜り等にかかる画素の特徴量は急激に変化する。しかしながら、車両が走行したことによって形状が変化した水溜り等にかかる画素の特徴量は時間的に安定しない。したがって、基準タイミング後における期間の特徴量の変化から、車両が走行したことによって形状が変化した水溜り等にかかる画素であるか、オブジェクトにかかる画素であるかの判定が行える。   In addition, the feature amount of a pixel related to a puddle whose shape has changed due to traveling of the vehicle changes rapidly. However, the feature amount of the pixel related to the puddle whose shape has changed due to the traveling of the vehicle is not stable over time. Therefore, it is possible to determine whether the pixel is a pixel related to a puddle whose shape has changed due to traveling of the vehicle or a pixel related to the object from the change in the feature amount in the period after the reference timing.

なお、オブジェクトが、検知対象エリアを通過した走行車両である場合も、この走行車両にかかる画素の特徴量は時間的に安定しない。   Even when the object is a traveling vehicle that has passed through the detection target area, the feature amount of the pixel relating to the traveling vehicle is not stable in time.

障害物検知部は、特定画素判定部によって特定画素であると判定された画素を含むオブジェクトを障害物として検知する。   The obstacle detection unit detects an object including a pixel determined as a specific pixel by the specific pixel determination unit as an obstacle.

これにより、天候変化や照明変化による周辺構造物の影、車両が走行したことによって形状が変化した水溜り、走行車両等を車両の走行を妨げる障害物として誤検知するのを抑えられる。   As a result, it is possible to suppress erroneous detection of shadows of surrounding structures due to weather changes or lighting changes, water pools whose shape has changed due to the vehicle traveling, traveling vehicles, and the like as obstacles that impede vehicle travel.

また、障害物検知部は、基準タイミングを撮像タイミングの中心とする所定数のフレーム画像において、特定画素判定部によって判定された特定画素の分布密度が予め定めた判定密度よりも高い画像領域があれば、この画像領域に撮像されているオブジェクトを障害物として検知する、構成にするのが好ましい。このようにすれば、小さなゴミやノイズ等にかかる画素を障害物として誤検知するのを抑えられる。   The obstacle detection unit may include an image region in which a distribution density of the specific pixels determined by the specific pixel determination unit is higher than a predetermined determination density in a predetermined number of frame images having the reference timing as the center of the imaging timing. For example, it is preferable that the object imaged in this image area is detected as an obstacle. In this way, it is possible to suppress erroneous detection of pixels associated with small dust or noise as an obstacle.

この発明によれば、車両が走行する道路上に定めた検知対象エリアに対して、天候変化や照明変化を要因とする障害物の誤検知が抑えられるので、障害物の検知精度を向上させることができる。   According to the present invention, since the erroneous detection of the obstacle due to the weather change or the illumination change is suppressed with respect to the detection target area defined on the road on which the vehicle travels, the obstacle detection accuracy is improved. Can do.

障害物検知システムを示す概略の構成図である。It is a schematic block diagram which shows an obstacle detection system. 障害物検知装置の主要部の構成を示すブロック図である。It is a block diagram which shows the structure of the principal part of an obstruction detection apparatus. 画像処理部の機能構成を示す図である。It is a figure which shows the function structure of an image process part. 処理対象フレーム画像を示す図である。It is a figure which shows a process target frame image. 図4に示す処理対象フレーム画像を処理して生成したエッジ画像を示す図である。It is a figure which shows the edge image produced | generated by processing the process target frame image shown in FIG. 背景エッジ画像を示す図である。It is a figure which shows a background edge image. 図5に示すエッジ画像と、図6に示す背景エッジ画像との差分画像を示す図である。It is a figure which shows the difference image of the edge image shown in FIG. 5, and the background edge image shown in FIG. 変化画素抽出処理を示すフローチャートである。It is a flowchart which shows a change pixel extraction process. 第1の特定画素判定処理を示すフローチャートである。It is a flowchart which shows a 1st specific pixel determination process. 図10(A)は、落下物にかかる画素のエッジ強度の変化を示す図であり、図10(B)は、影による画素のエッジ強度の変化を示す図である。FIG. 10A is a diagram illustrating a change in the edge strength of a pixel applied to a falling object, and FIG. 10B is a diagram illustrating a change in the edge strength of the pixel due to a shadow. 第2の特定画素判定処理を示すフローチャートである。It is a flowchart which shows a 2nd specific pixel determination process. 図12(A)は、落下物にかかる画素のエッジ強度の変化を示す図であり、図12(B)は、水溜りの形状変化にかかる画素のエッジ強度の変化を示す図である。FIG. 12A is a diagram illustrating a change in the edge strength of the pixel related to the falling object, and FIG. 12B is a diagram illustrating a change in the edge strength of the pixel related to the shape change of the puddle. 障害物確定処理を示すフローチャートである。It is a flowchart which shows an obstruction confirmation process. 継続判定処理を示すフローチャートである。It is a flowchart which shows a continuation determination process. 走行異常判定処理を示すフローチャートである。It is a flowchart which shows a driving | running | working abnormality determination process. 管制通知要否判定処理を示すフローチャートである。It is a flowchart which shows the control notification necessity determination process.

以下、この発明の実施形態について説明する。   Embodiments of the present invention will be described below.

図1は、この例にかかる障害物検知システムの主要部の構成を示すブロック図である。この例にかかる障害物検知システムは、障害物検知装置1と、ビデオカメラ2と、案内表示板3と、管制装置4とを備える。この障害物検知システムは、車両が走行する道路上に定めた検知対象エリア内に位置する障害物の検知、および障害物を検知した旨の報知を行う。障害物とは、車両の走行の妨げになる物品であり、走行車両から落下した荷物(落下物)や、道路上で停止した車両(停止車両)等である。道路を走行している車両や、道路に設置されているガードレール、センターポール等の構造物は、この例で言う障害物に含まれない。   FIG. 1 is a block diagram showing the configuration of the main part of the obstacle detection system according to this example. The obstacle detection system according to this example includes an obstacle detection device 1, a video camera 2, a guidance display board 3, and a control device 4. This obstacle detection system detects an obstacle located in a detection target area defined on a road on which the vehicle travels, and notifies that an obstacle has been detected. An obstacle is an article that hinders the traveling of the vehicle, such as a load (falling object) dropped from the traveling vehicle, a vehicle stopped on the road (stopped vehicle), or the like. Vehicles traveling on the road and structures such as guardrails and center poles installed on the road are not included in the obstacles in this example.

ビデオカメラ2は、数m(6m程度)上方から、道路上に定めた検知対象エリアを撮像するように取り付けている。例えば、ビデオカメラ2は、路側に設置したポールや、道路を跨ぐように設置したガントリ等に取り付けている。また、ビデオカメラ2は、検知対象エリアが撮像エリア内に収まるように、アングル、および撮像倍率を調整している。ビデオカメラ2は、可視光画像を撮像する。ビデオカメラ2のフレームレートは、5〜30フレーム/sec程度であればよい。ビデオカメラ2は、撮像した撮像エリアの動画像にかかるフレーム画像を障害物検知装置1に入力する。   The video camera 2 is attached so as to image a detection target area defined on the road from several m (about 6 m) above. For example, the video camera 2 is attached to a pole installed on the roadside, a gantry installed so as to straddle the road, and the like. Further, the video camera 2 adjusts the angle and the imaging magnification so that the detection target area falls within the imaging area. The video camera 2 captures a visible light image. The frame rate of the video camera 2 may be about 5 to 30 frames / sec. The video camera 2 inputs a frame image related to the captured moving image of the imaging area to the obstacle detection device 1.

なお、ビデオカメラ2は、遠赤外線画像を撮像する遠赤外線カメラや、近赤外線画像を撮像する近赤外線カメラ等であってもよい。   Note that the video camera 2 may be a far-infrared camera that captures a far-infrared image, a near-infrared camera that captures a near-infrared image, or the like.

障害物検知装置1は、ビデオカメラ2から入力された動画像にかかるフレーム画像を処理し、検知対象エリア内に位置する障害物を検知する。障害物検知装置1は、検知対象エリア内に位置する障害物を検知すると、案内表示板3や管制装置4に対して障害物の検知にともなう報知を要求する要求通知を出力する。   The obstacle detection apparatus 1 processes a frame image related to a moving image input from the video camera 2 and detects an obstacle located in the detection target area. When the obstacle detection device 1 detects an obstacle located in the detection target area, the obstacle detection device 1 outputs a request notification for requesting a notification accompanying the detection of the obstacle to the guidance display board 3 and the control device 4.

案内表示板3は、走行車両のドライバに対して道路状況等にかかる案内メッセージを表示する。案内表示板3は、検知対象エリアの上流側に設置している。案内表示板3は、ドライバが車両の運転に支障をきたすことなく、表示したメッセージの確認が行えるように設置している。案内表示板3は、障害物検知装置1から、障害物の検知にともなう報知を要求する要求通知(この発明で言う、第1の通知に相当する。)が入力されると、下流側に障害物があることをドライバに通知するメッセージの表示を行う。   The guidance display board 3 displays guidance messages relating to road conditions and the like to the driver of the traveling vehicle. The guidance display board 3 is installed on the upstream side of the detection target area. The guidance display board 3 is installed so that the driver can confirm the displayed message without hindering the driving of the vehicle. When a request notification requesting notification associated with the detection of an obstacle (corresponding to the first notification referred to in the present invention) is input from the obstacle detection device 1 to the guidance display board 3, the obstacle is displayed downstream. Display a message notifying the driver that there is something.

管制装置4は、道路を管理する管制センタに設置している。管制装置4は、障害物検知装置1から、障害物の検知にともなう報知を要求する要求通知(この発明で言う、第2の通知に相当する。)が入力されると、道路管理者に対して道路上にある障害物(検知された障害物)を取り除く等の作業を促す報知を行う。   The control device 4 is installed in a control center that manages roads. When the control device 4 receives a request notification (corresponding to the second notification, referred to in the present invention) requesting a notification accompanying the detection of an obstacle from the obstacle detection device 1, the traffic control device 4 To prompt the user to remove the obstacle (detected obstacle) on the road.

なお、詳細については後述するが、障害物検知装置1は、案内表示板3に対して障害物の検知にともなう報知を要求するタイミングと、管制装置4に対して障害物の検知にともなう報知を要求するタイミングと、を異ならせている。   Although the details will be described later, the obstacle detection device 1 notifies the guidance display board 3 of the notification requesting the obstacle detection and the control device 4 the notification accompanying the obstacle detection. The timing required is different.

図2は、障害物検知装置の主要部の構成を示すブロック図である。障害物検知装置1は、制御部11と、画像入力部12と、画像処理部13と、出力部14と、を備えている。   FIG. 2 is a block diagram illustrating a configuration of a main part of the obstacle detection device. The obstacle detection device 1 includes a control unit 11, an image input unit 12, an image processing unit 13, and an output unit 14.

制御部11は、障害物検知装置1本体各部の動作を制御する。   The control unit 11 controls the operation of each part of the obstacle detection apparatus 1 main body.

画像入力部12には、ビデオカメラ2が撮像した動画像が入力される。画像入力部12は、入力された動画像にかかるフレーム画像を一時的に記憶する画像メモリ(不図示)を有している。画像入力部12が、この発明で言う、動画像入力部に相当する。   A moving image captured by the video camera 2 is input to the image input unit 12. The image input unit 12 has an image memory (not shown) that temporarily stores a frame image related to the input moving image. The image input unit 12 corresponds to the moving image input unit referred to in the present invention.

画像処理部13は、画像入力部12に入力されたフレーム画像(ビデオカメラ2によって撮像された動画像にかかるフレーム画像)を処理し、検知対象エリア内に位置する障害物の検知を行う。この画像処理部13が、この発明にかかる障害物検知方法を実行する。また、画像処理部13が、この発明にかかる障害物検知プログラムの各ステップを実行する画像処理プロセッサ(コンピュータ)を有している。画像処理部13の詳細については、後述する。   The image processing unit 13 processes the frame image input to the image input unit 12 (the frame image related to the moving image captured by the video camera 2), and detects an obstacle located in the detection target area. The image processing unit 13 executes the obstacle detection method according to the present invention. Further, the image processing unit 13 has an image processing processor (computer) for executing each step of the obstacle detection program according to the present invention. Details of the image processing unit 13 will be described later.

出力部14は、検知対象エリア内に位置する障害物の検知にともなう報知を要求する要求通知を、案内表示板3や管制装置4に対して出力する。   The output unit 14 outputs a request notification for requesting notification accompanying detection of an obstacle located in the detection target area to the guidance display board 3 and the control device 4.

図3は、画像処理部の機能構成を示す図である。画像処理部13は、処理対象フレーム画像選択機能部21と、エッジ画像生成機能部22と、背景差分画像生成機能部23と、出現判定機能部24と、変化判定機能部25と、障害物検知機能部26と、障害物継続検知機能部27と、車両走行状況判定機能部28と、管制通知要否判定機能部29と、を備えている。   FIG. 3 is a diagram illustrating a functional configuration of the image processing unit. The image processing unit 13 includes a processing target frame image selection function unit 21, an edge image generation function unit 22, a background difference image generation function unit 23, an appearance determination function unit 24, a change determination function unit 25, and an obstacle detection. The function part 26, the obstruction continuation detection function part 27, the vehicle travel condition determination function part 28, and the control notification necessity determination function part 29 are provided.

処理対象フレーム画像選択機能部21は、画像入力部12に入力されたフレーム画像(ビデオカメラ2が撮像した動画像にかかるフレーム画像)の中から、後述する画像処理を行うフレーム画像(処理対象フレーム画像)を選択する。処理対象フレーム画像選択機能部21は、画像入力部12に入力された動画像にかかる全てのフレーム画像を処理対象フレーム画像として選択する構成であってもよいし、画像入力部12に入力された動画像にかかるフレーム画像の中から、予め定められたフレーム間隔や、時間間隔で処理対象フレーム画像を選択する構成であってもよい。処理対象フレーム画像のフレーム間隔と、処理対象フレーム画像の時間間隔との関係は、
処理対象フレーム画像のフレーム間隔=
(ビデオカメラ2のフレームレート)×(処理対象フレーム画像の時間間隔)
である。
The processing target frame image selection function unit 21 performs a frame image (processing target frame) for performing image processing, which will be described later, from among the frame images input to the image input unit 12 (frame images related to moving images captured by the video camera 2). Image). The processing target frame image selection function unit 21 may be configured to select all frame images related to the moving image input to the image input unit 12 as processing target frame images, or may be input to the image input unit 12. A configuration may be used in which a processing target frame image is selected at predetermined frame intervals or time intervals from frame images related to a moving image. The relationship between the frame interval of the processing target frame image and the time interval of the processing target frame image is
Frame interval of processing target frame image =
(Frame rate of video camera 2) x (time interval of processing target frame image)
It is.

この例では、ビデオカメラ2のフレームレートは、10フレーム/secとし、処理対象フレーム画像選択機能部21は、画像入力部12に入力された動画像にかかる全てのフレーム画像を処理対象フレーム画像として選択するものとして説明する。また、ビデオカメラ2のフレームレートが30フレーム/secであれば、処理対象フレーム画像選択機能部21は、3フレーム間隔や、100ms間隔で処理対象フレーム画像を選択する構成にすることによって、上記と同じタイミングで撮像されたフレーム画像を処理対象フレーム画像として選択することができる。   In this example, the frame rate of the video camera 2 is 10 frames / sec, and the processing target frame image selection function unit 21 sets all the frame images related to the moving image input to the image input unit 12 as processing target frame images. It will be described as a selection. If the frame rate of the video camera 2 is 30 frames / sec, the processing target frame image selection function unit 21 selects the processing target frame images at intervals of 3 frames or at intervals of 100 ms. A frame image captured at the same timing can be selected as a processing target frame image.

エッジ画像生成機能部22は、処理対象フレーム画像選択機能部21によって選択された処理対象フレーム画像のエッジ画像を生成する。エッジ画像生成機能部22は、公知のエッジ抽出フィルタ(例えば、Sobelフィルタ、Prewittフィルタ、Laplacianフィルタ)を用いて、処理対象フレーム画像の各画素の画素値がエッジの強度であるエッジ画像を生成する。図4は、処理対象フレーム画像を示す図であり、図5は、図4に示す処理対象フレーム画像を処理して生成したエッジ画像を示す図である。エッジ画像生成機能部22によって生成されるエッジ画像は、例えば256階調である。この例では、この発明で言う画素の特徴量は、エッジの強度である。   The edge image generation function unit 22 generates an edge image of the processing target frame image selected by the processing target frame image selection function unit 21. The edge image generation function unit 22 uses a known edge extraction filter (for example, Sobel filter, Prewitt filter, Laplacian filter) to generate an edge image in which the pixel value of each pixel of the processing target frame image is the edge strength. . 4 is a diagram showing a processing target frame image, and FIG. 5 is a diagram showing an edge image generated by processing the processing target frame image shown in FIG. The edge image generated by the edge image generation function unit 22 has, for example, 256 gradations. In this example, the feature amount of the pixel referred to in the present invention is the edge strength.

背景差分画像生成機能部23は、エッジ画像生成機能部22が生成したエッジ画像と、図示していない画像メモリに記憶している背景エッジ画像との差分画像(所謂、背景差分画像)を生成する。背景エッジ画像は、ビデオカメラ2の撮像エリアの背景のエッジ画像である。図6は、背景エッジ画像を示す図である。図7は、図5に示すエッジ画像と、図6に示す背景エッジ画像とによって生成した背景差分画像を示す図である。背景差分画像生成機能部23は、エッジ画像生成機能部22が生成したエッジ画像の各画素について、その画素のエッジ強度と、背景エッジ画像の対応する画素のエッジ強度と、の差の絶対値が予め定めた閾値以上であれば前景画素(画素値=1)とし、閾値未満であれば背景画素(画素値=0)とした2値画像を背景差分画像として生成する。背景差分画像生成機能部23が、この発明で言う前景画素判定部に相当する。具体的には、エッジ画像生成機能部22が生成したエッジ画像の各画素について、前景画素であるか、背景画素であるかを判定する機能が、この発明で言う前景画素判定部に相当する。   The background difference image generation function unit 23 generates a difference image (so-called background difference image) between the edge image generated by the edge image generation function unit 22 and a background edge image stored in an image memory (not shown). . The background edge image is an edge image of the background of the imaging area of the video camera 2. FIG. 6 is a diagram illustrating a background edge image. FIG. 7 is a diagram showing a background difference image generated by the edge image shown in FIG. 5 and the background edge image shown in FIG. The background difference image generation function unit 23 calculates, for each pixel of the edge image generated by the edge image generation function unit 22, the absolute value of the difference between the edge strength of the pixel and the edge strength of the corresponding pixel of the background edge image. A binary image having a foreground pixel (pixel value = 1) if it is equal to or greater than a predetermined threshold and a background pixel (pixel value = 0) if it is less than the threshold is generated as a background difference image. The background difference image generation function unit 23 corresponds to the foreground pixel determination unit referred to in the present invention. Specifically, the function of determining whether each pixel of the edge image generated by the edge image generation function unit 22 is a foreground pixel or a background pixel corresponds to the foreground pixel determination unit referred to in the present invention.

なお、背景差分画像生成機能部23は、エッジ画像生成機能部22が生成したエッジ画像の各画素について、その画素のエッジ強度から、背景エッジ画像の対応する画素のエッジ強度を減算した値が予め定めた閾値以上であれば前景画素とし、閾値未満であれば背景画素とした2値画像を背景差分画像として生成する構成にしてもよい。この構成では、背景エッジ画像にエッジが現れている画素(エッジ強度が比較的大きい画素)であって、エッジ画像生成機能部22が生成したエッジ画像にエッジが現れていない画素(エッジ強度が比較的小さい画素)が背景画素と判定される。   The background difference image generation function unit 23 obtains a value obtained by subtracting the edge intensity of the corresponding pixel of the background edge image from the edge intensity of each pixel of the edge image generated by the edge image generation function unit 22 in advance. A binary image may be generated as a background difference image if it is a foreground pixel if it is greater than or equal to a predetermined threshold and if it is less than the threshold, a background pixel. In this configuration, a pixel in which an edge appears in the background edge image (a pixel having a relatively high edge strength) and a pixel in which an edge does not appear in the edge image generated by the edge image generation function unit 22 (the edge strength is compared) Smaller pixel) is determined as the background pixel.

出現判定機能部24は、背景差分画像生成機能部23において前景画素であると判定された画素が、天候変化や照明変化による周辺構造物の影等にかかる画素であるかどうかを判定する。出現判定機能部24が、この発明で言う第1の特定画素判定処理を行う。この出現判定機能部24における処理の詳細については、後述する。   The appearance determination function unit 24 determines whether the pixel determined to be the foreground pixel by the background difference image generation function unit 23 is a pixel related to a shadow of a surrounding structure due to a weather change or a lighting change. The appearance determination function unit 24 performs the first specific pixel determination process referred to in the present invention. Details of the processing in the appearance determination function unit 24 will be described later.

変化判定機能部25は、背景差分画像生成機能部23において前景画素であると判定された画素が、検知対象エリアを通過した車両や、車両が走行したことによって形状が変化した水溜り等にかかる画素であるかどうかを判定する。変化判定機能部25が、この発明で言う第2の特定画素判定処理を行う。この変化判定機能部25における処理の詳細については、後述する。   The change determination function unit 25 applies a pixel that is determined to be a foreground pixel by the background difference image generation function unit 23 to a vehicle that has passed through the detection target area, a puddle whose shape has changed due to traveling of the vehicle, or the like. It is determined whether it is a pixel. The change determination function unit 25 performs the second specific pixel determination process referred to in the present invention. Details of the processing in the change determination function unit 25 will be described later.

この発明で言う特定画素判定部は、出現判定機能部24、および変化判定機能部25を備える。   The specific pixel determination unit referred to in the present invention includes an appearance determination function unit 24 and a change determination function unit 25.

障害物検知機能部26は、出現判定機能部24、および変化判定機能部25の判定結果を用いて、検知対象エリア内の道路上に位置する障害物を検知する。この障害物検知機能部26が、この発明で言う障害物検知部に相当する。   The obstacle detection function unit 26 detects an obstacle located on the road in the detection target area using the determination results of the appearance determination function unit 24 and the change determination function unit 25. The obstacle detection function unit 26 corresponds to the obstacle detection unit referred to in the present invention.

障害物継続検知機能部27は、障害物検知機能部26によって検知された障害物が予め定めた継続時間(例えば、1分)にわたって移動することなく、位置しつづけたかどうかを検知する。障害物検知機能部26は、風に飛ばされてきたレジ袋や、なんらかの理由で一時停止した車両等も障害物として検知する。障害物継続検知機能部27は、障害物検知機能部26が検知した障害物が、風に飛ばされてきたレジ袋や、なんらかの理由で一時停止した車両等であるかどうかを検知する。この障害物検知機能部26が、この発明言う移動検知部に相当する。   The obstacle continuation detection function unit 27 detects whether or not the obstacle detected by the obstacle detection function unit 26 continues to be positioned without moving over a predetermined duration (for example, 1 minute). The obstacle detection function unit 26 detects, as an obstacle, a plastic bag that has been blown by the wind or a vehicle that has been temporarily stopped for some reason. The obstacle continuation detection function unit 27 detects whether the obstacle detected by the obstacle detection function unit 26 is a shopping bag that has been blown by the wind or a vehicle that has been temporarily stopped for some reason. This obstacle detection function unit 26 corresponds to the movement detection unit of the present invention.

なお、落下物と、停車車両との判別は、その大きさによって行える。   Note that a fallen object can be discriminated from a stopped vehicle depending on its size.

車両走行状況判定機能部28は、検知対象エリアを走行している車両の走行パターン(減速、加速や蛇行等)と、交通流が正常であるときの車両の走行パターンと、を比較し、検知対象エリアを走行している車両の走行パターンが不自然であるかどうかを判定する。この車両走行状況判定機能部28が、この発明で言う走行状態判定部に相当する。   The vehicle traveling state determination function unit 28 compares the traveling pattern (deceleration, acceleration, meandering, etc.) of the vehicle traveling in the detection target area with the traveling pattern of the vehicle when the traffic flow is normal, and detects it. It is determined whether or not the traveling pattern of the vehicle traveling in the target area is unnatural. The vehicle travel state determination function unit 28 corresponds to the travel state determination unit referred to in the present invention.

管制通知要否判定機能部29は、障害物継続検知機能部27の検知結果、および車両走行状況判定機能部28の判定結果に基づき、管制装置4に対して障害物の検知にともなう報知を要求する要求通知を出力するかどうかを判定する。   The control notification necessity / unnecessity determination function unit 29 requests the control device 4 to be notified of an obstacle based on the detection result of the obstacle continuation detection function unit 27 and the determination result of the vehicle running state determination function unit 28. To determine whether to output a request notification.

障害物検知装置1は、障害物検知機能部26が道路上に位置する障害物を検知すると、その旨を出力部14から案内表示板3に対して出力する。このとき、障害物検知装置1は、道路上に位置する障害物を検知したことを、管制装置4に対して出力しない。障害物検知装置1は、管制通知要否判定機能部29が管制装置4への障害物の検知を通知すると判定したとき、その旨を出力部14から管制装置4に対して出力する。   When the obstacle detection function unit 26 detects an obstacle located on the road, the obstacle detection device 1 outputs that fact from the output unit 14 to the guidance display board 3. At this time, the obstacle detection device 1 does not output to the control device 4 that an obstacle located on the road has been detected. When the obstacle detection device 1 determines that the control notification necessity determination function unit 29 notifies the control device 4 of the detection of the obstacle, the obstacle detection device 1 outputs that fact to the control device 4 from the output unit 14.

以下、この例にかかる障害物検知装置1の動作について説明する。この例にかかる障害物検知装置1は、以下に示す変化画素抽出処理、第1の特定画素判定処理、第2の特定画素判定処理、障害物確定処理、継続判定処理、交通状況判定処理、および管制通知要否判定処理を行う。   Hereinafter, the operation of the obstacle detection apparatus 1 according to this example will be described. The obstacle detection apparatus 1 according to this example includes a change pixel extraction process, a first specific pixel determination process, a second specific pixel determination process, an obstacle determination process, a continuation determination process, a traffic situation determination process, and Control notification necessity determination processing is performed.

図8は、変化画素抽出処理を示すフローチャートである。障害物検知装置1は、ビデオカメラ2によって撮像された動画像にかかるフレーム画像が画像入力部12に入力されている。障害物検知装置1は、画像入力部12に入力された動画像にかかるフレーム画像の中から、処理対象フレーム画像を選択する(s1)。s1では、選択した処理対象フレーム画像に対して、フレーム番号を割り当てる。このフレーム番号は、処理対象フレーム画像を、撮像タイミングで時系列に並べることができるものであればよい。例えば、フレーム番号は、シリアルな番号であってもよいし、撮像タイミングを示す時間情報によって生成した番号であってもよい。処理対象フレーム画像選択機能部21が、s1にかかる処理を行う。   FIG. 8 is a flowchart showing the change pixel extraction process. In the obstacle detection device 1, a frame image related to a moving image captured by the video camera 2 is input to the image input unit 12. The obstacle detection apparatus 1 selects a processing target frame image from the frame images related to the moving image input to the image input unit 12 (s1). In s1, a frame number is assigned to the selected processing target frame image. The frame number may be any number that allows the processing target frame images to be arranged in time series at the imaging timing. For example, the frame number may be a serial number or a number generated by time information indicating the imaging timing. The processing target frame image selection function unit 21 performs the process related to s1.

画像処理部13は、s1で選択した処理対象フレーム画像のエッジ画像を生成する(s2)。s2では、エッジ画像生成機能部22が、Sobelフィルタ、Prewittフィルタ、Laplacianフィルタ等のエッジ抽出フィルタを用いて、s1で今回選択した処理対象フレーム画像(図4参照)のエッジ画像(図5参照)を生成する。s2で生成するエッジ画像の画素値は、256階調である。画素値は、エッジ強度である。また、s2で生成したエッジ画像は、フレーム番号を対応付けて、図示していない画像メモリに記憶する。この画像メモリは、数分間分のエッジ画像が記憶できる容量である。   The image processing unit 13 generates an edge image of the processing target frame image selected in s1 (s2). In s2, the edge image generation function unit 22 uses an edge extraction filter such as a Sobel filter, a Prewitt filter, and a Laplacian filter, and the edge image (see FIG. 5) of the processing target frame image (see FIG. 4) selected this time in s1. Is generated. The pixel value of the edge image generated in s2 is 256 gradations. The pixel value is the edge strength. The edge image generated in s2 is stored in an image memory (not shown) in association with the frame number. This image memory has a capacity capable of storing edge images for several minutes.

画像処理部13は、s2で生成したエッジ画像と、図示していない画像メモリに記憶している背景エッジ画像(図6参照)との差分画像である背景差分画像(図7参照)を生成する(s3)。s3では、エッジ強度の差の絶対値が、予め定めた閾値以上である画素を前景画素、閾値未満である画素を背景画素とした2値画像を、背景差分画像として生成する。図7では、白で示す画素が前景画素であり、黒で示す画素が背景画素である。   The image processing unit 13 generates a background difference image (see FIG. 7) that is a difference image between the edge image generated in s2 and a background edge image (see FIG. 6) stored in an image memory (not shown). (S3). In s3, a binary image is generated as a background difference image in which the absolute value of the difference in edge strength is a foreground pixel that is a predetermined threshold or more and a background pixel that is less than the threshold. In FIG. 7, pixels shown in white are foreground pixels, and pixels shown in black are background pixels.

画像処理部13は、前回選択した処理対象フレーム画像において背景画素と判定されており、今回選択した処理対象フレーム画像において前景画素と判定された画素(以下、変化画素と言う。)を全て抽出し、ここで抽出した変化画素を図示していない記憶部に記憶し(s4)、s1に戻る。s4では、今回抽出した変化画素と、今回の処理対象フレーム画像のフレーム番号と、を対応付けて、記憶部に記憶する。背景差分画像生成機能部23が、s3、およびs4にかかる処理を行う。   The image processing unit 13 extracts all pixels that are determined as background pixels in the previously selected processing target frame image and are determined as foreground pixels in the processing target frame image selected this time (hereinafter referred to as change pixels). The changed pixels extracted here are stored in a storage unit (not shown) (s4), and the process returns to s1. In s4, the change pixel extracted this time and the frame number of the current processing target frame image are associated with each other and stored in the storage unit. The background difference image generation function unit 23 performs processing relating to s3 and s4.

なお、背景差分画像生成機能部23は、エッジ画像生成機能部22が生成したエッジ画像を用いて、画像メモリに記憶している背景エッジ画像を更新する機能を備えている。   The background difference image generation function unit 23 has a function of updating the background edge image stored in the image memory using the edge image generated by the edge image generation function unit 22.

次に、第1の特定画素判定処理について説明する。図9は、第1の特定画素判定処理を示すフローチャートである。画像処理部13の出現判定機能部24が、第1の特定画素判定処理を行う。この第1の特定画素判定処理では、s2で画像メモリに記憶したエッジ画像、およびs4で記憶部に記憶した変化画素を用いる。この出現判定処理は、s4で抽出された変化画素が、天候変化や照明変化によって出現した周辺構造物の影にかかる画素であるかどうかを判定する処理である。   Next, the first specific pixel determination process will be described. FIG. 9 is a flowchart showing the first specific pixel determination process. The appearance determination function unit 24 of the image processing unit 13 performs a first specific pixel determination process. In the first specific pixel determination process, the edge image stored in the image memory in s2 and the change pixel stored in the storage unit in s4 are used. This appearance determination process is a process for determining whether or not the changed pixel extracted in s4 is a pixel related to a shadow of a surrounding structure that has appeared due to a weather change or a lighting change.

出現判定機能部24は、処理対象フレーム画像を選択する(s11)。s11では、上述した変化画素抽出処理が行われたフレーム画像を、時系列に処理対象フレーム画像として選択する。s11にかかる処理は、処理対象フレーム画像選択機能部21において行われるのではなく、出現判定機能部24において行われる。また、第1の特定画素判定処理では、s11で選択した処理対象フレーム画像よりも、後述する出現判定時間後に撮像されたフレーム画像に対する変化画素抽出処理の処理結果を用いる。すなわち、この第1の特定画素判定処理の処理結果は、上述した変化画素抽出処理の処理結果よりも、すくなくとも出現判定時間遅れる。   The appearance determination function unit 24 selects a processing target frame image (s11). In s11, the frame image on which the above-described change pixel extraction processing is performed is selected as a processing target frame image in time series. The processing according to s11 is not performed in the processing target frame image selection function unit 21, but is performed in the appearance determination function unit 24. Further, in the first specific pixel determination process, the processing result of the change pixel extraction process for the frame image captured after the appearance determination time described later is used rather than the processing target frame image selected in s11. That is, the processing result of the first specific pixel determination process is at least delayed in appearance determination time than the processing result of the change pixel extraction process described above.

出現判定機能部24は、s11で今回選択した処理対象フレーム画像における出現判定対象画素を抽出する(s12)。s12では、s11で選択した処理対象フレーム画像に対して上述のs4にかかる処理で抽出した変化画素を出現判定対象画素として抽出する。上述したように、記憶部が、処理対象フレーム画像のフレーム番号と、この処理対象フレーム画像から抽出した変化画素と、を対応付けて記憶している。s12で抽出される出現判定対象画素の個数は、0であることもあれば、1または複数であることもある。   The appearance determination function unit 24 extracts an appearance determination target pixel in the processing target frame image selected this time in s11 (s12). In s12, the change pixel extracted by the process concerning s4 mentioned above with respect to the process target frame image selected in s11 is extracted as an appearance determination target pixel. As described above, the storage unit stores the frame number of the processing target frame image and the change pixel extracted from the processing target frame image in association with each other. The number of appearance determination target pixels extracted in s12 may be 0, or may be 1 or more.

出現判定機能部24は、s12で抽出した出現判定対象画素毎に、以下に示すs13〜s17にかかる処理を行う。   The appearance determination function part 24 performs the process concerning s13-s17 shown below for every appearance determination object pixel extracted by s12.

出現判定機能部24は、出現判定対象画素毎に、今回選択した処理対象フレーム画像の撮像タイミングの直前の出現判定時間(例えば、2秒)におけるエッジ強度の平均(この期間に撮像された処理対象フレーム画像における対応する画素のエッジ強度の平均)を算出する(s13)。また、出現判定機能部24は、出現判定対象画素毎に、今回選択した処理対象フレーム画像の撮像タイミングの直後の出現判定時間(例えば、2秒)におけるエッジ強度の平均(この期間に撮像された処理対象フレーム画像における対応する画素のエッジ強度の平均)を算出する(s14)。今回選択した処理対象フレーム画像の撮像タイミングの直前の出現判定時間が、この発明で言う第1の期間に相当する。また、今回選択した処理対象フレーム画像の撮像タイミングの直後の出現判定時間が、この発明で言う第2の期間に相当する。この例では、s13でエッジ強度の平均を算出する期間(この発明で言う第1の期間)の長さと、s14でエッジ強度の平均を算出する期間(この発明で言う第2の期間)の長さとを同じにしているが、異なる長さにしてもよい。また、今回選択した処理対象フレーム画像の撮像タイミングが、この発明で言う基準タイミングに相当する。   The appearance determination function unit 24 calculates, for each appearance determination target pixel, the average edge intensity (the processing target imaged during this period) in the appearance determination time (for example, 2 seconds) immediately before the imaging timing of the processing target frame image selected this time. An average of edge strengths of corresponding pixels in the frame image is calculated (s13). In addition, the appearance determination function unit 24 calculates the average edge intensity (imaged during this period) for each appearance determination target pixel in the appearance determination time (for example, 2 seconds) immediately after the imaging timing of the processing target frame image selected this time. An average of edge strengths of corresponding pixels in the processing target frame image is calculated (s14). The appearance determination time immediately before the imaging timing of the processing target frame image selected this time corresponds to the first period referred to in the present invention. The appearance determination time immediately after the imaging timing of the processing target frame image selected this time corresponds to the second period referred to in the present invention. In this example, the length of the period for calculating the average edge strength at s13 (the first period in the present invention) and the length of the period for calculating the average edge intensity in s14 (the second period in the present invention). Are the same, but may be of different lengths. The imaging timing of the processing target frame image selected this time corresponds to the reference timing in the present invention.

s13、s14において、エッジ強度の平均の算出に用いる処理対象フレーム画像のエッジ画像は、s2で画像メモリに記憶している。   In s13 and s14, the edge image of the processing target frame image used for calculating the average edge strength is stored in the image memory in s2.

出現判定機能部24は、出現判定対象画素毎に、s14で算出した撮像タイミング直後のエッジ強度の平均に対する、s13で算出した撮像タイミング直前のエッジ強度の平均の割合αが出現判定閾値(例えば、0.6)未満であるかどうかを判定する(s15)。割合αは、s13で算出した撮像タイミング直前のエッジ強度の平均を、s14で算出した撮像タイミング直後のエッジ強度の平均で除した値である。すなわち、
割合α=(s13で算出した撮像タイミング直前のエッジ強度の平均)/(s14で算出した撮像タイミング直後のエッジ強度の平均) である。
The appearance determination function unit 24 calculates, for each appearance determination target pixel, an average ratio α of the edge intensity immediately before the imaging timing calculated in s13 to the average edge intensity immediately after the imaging timing calculated in s14. It is determined whether it is less than 0.6) (s15). The ratio α is a value obtained by dividing the average edge intensity immediately before the imaging timing calculated in s13 by the average edge intensity immediately after the imaging timing calculated in s14. That is,
Ratio α = (average edge intensity immediately before imaging timing calculated in s13) / (average edge intensity immediately after imaging timing calculated in s14).

出現判定機能部24は、s15で割合αが出現判定閾値未満であった出現判定対象画素を特定画素であると判定し(s16)、反対にs15で割合αが出現判定閾値未満でなかった(出現判定閾値以上であった)出現判定対象画素をノイズと判定する(s17)。   The appearance determination function unit 24 determines that the appearance determination target pixel whose ratio α is less than the appearance determination threshold value in s15 is a specific pixel (s16), and conversely, the ratio α is not less than the appearance determination threshold value in s15 ( The appearance determination target pixel (which is equal to or greater than the appearance determination threshold) is determined as noise (s17).

出現判定機能部24は、s16で判定した特定画素を図示していない記憶部に記憶し(s18)、s11に戻る。s18では、今回判定した特定画素と、s11で今回選択した処理対象フレーム画像のフレーム番号と、を対応付けて、記憶部に記憶する。   The appearance determination function unit 24 stores the specific pixel determined in s16 in a storage unit (not shown) (s18), and returns to s11. In s18, the specific pixel determined this time and the frame number of the processing target frame image selected in s11 are associated with each other and stored in the storage unit.

図10に示すように落下物等にかかる画素のエッジ強度は、急激に変化するが、天候変化や照明変化によって出現した周辺構造物の影にかかる画素のエッジ強度は、緩やかに変化する。図10において、t0がs4で変化画素として抽出されるタイミング(s11で選択された処理対象フレーム画像の撮像タイミング)である。また、t0−t1の期間が撮像タイミング直後の出現判定時間であり、t2−t0の期間が撮像タイミング直前の出現判定時間である。したがって、s17でノイズと判定される出現判定対象画素は、天候変化や照明変化によって出現した周辺構造物の影にかかる画素であって、車両や、車両からの落下物にかかる画素ではない。   As shown in FIG. 10, the edge strength of a pixel related to a fallen object or the like changes abruptly, but the edge strength of a pixel related to a shadow of a surrounding structure that appears due to a weather change or a change in illumination changes gradually. In FIG. 10, t0 is the timing at which the pixel is extracted at s4 (the imaging timing of the processing target frame image selected at s11). Further, the period from t0 to t1 is the appearance determination time immediately after the imaging timing, and the period from t2 to t0 is the appearance determination time immediately before the imaging timing. Therefore, the appearance determination target pixel that is determined to be noise in s17 is a pixel that covers a shadow of a surrounding structure that appears due to a weather change or illumination change, and is not a pixel that covers a vehicle or a fallen object from the vehicle.

次に、第2の特定画素判定処理について説明する。図11は、第2の特定画素判定処理を示すフローチャートである。画像処理部13の変化判定機能部25が、この第2の特定画素判定処理を行う。この第2の特定画素判定処理では、s2で画像メモリに記憶したエッジ画像、およびs4で記憶部に記憶した変化画素を用いる。この第2の特定画素判定処理は、s4で抽出された変化画素が、降雨による路面の水溜り等にかかる画素であるかどうかを判定する処理である。   Next, the second specific pixel determination process will be described. FIG. 11 is a flowchart showing the second specific pixel determination process. The change determination function unit 25 of the image processing unit 13 performs the second specific pixel determination process. In the second specific pixel determination process, the edge image stored in the image memory in s2 and the change pixel stored in the storage unit in s4 are used. This second specific pixel determination process is a process for determining whether or not the changed pixel extracted in s4 is a pixel related to a puddle on the road surface due to rain.

変化判定機能部25は、処理対象フレーム画像を選択する(s21)。s21では、上述した変化画素抽出処理が行われたフレーム画像を、時系列に処理対象フレーム画像として選択する。s21にかかる処理は、処理対象フレーム画像選択機能部21において行われるのではなく、変化判定機能部25において行われる。また、第2の特定画素判定処理は、s21で選択した処理対象フレーム画像よりも、後述する変化判定時間後に撮像されたフレーム画像に対する変化画素抽出処理の処理結果を用いる。すなわち、この第2の特定画素判定処理の処理結果は、上述した変化画素抽出処理の処理結果よりも、すくなくとも変化判定時間遅れる。   The change determination function unit 25 selects a processing target frame image (s21). In s21, the frame image on which the above-described change pixel extraction processing is performed is selected as a processing target frame image in time series. The processing according to s21 is not performed by the processing target frame image selection function unit 21, but is performed by the change determination function unit 25. Further, the second specific pixel determination process uses the processing result of the change pixel extraction process for the frame image captured after the change determination time described later, rather than the processing target frame image selected in s21. That is, the process result of the second specific pixel determination process is at least delayed by the change determination time than the process result of the above-described change pixel extraction process.

変化判定機能部25は、s21で選択した処理対象フレーム画像における変化判定対象画素を抽出する(s22)。s22では、s21で選択した処理対象フレーム画像に対する上述のs4にかかる処理で抽出した変化画素を変化判定対象画素として抽出する。上述したように、記憶部が、処理対象フレーム画像のフレーム番号と、この処理対象フレーム画像から抽出した変化画素と、を対応付けて記憶している。s22で抽出される変化判定対象画素の個数は、0であることもあれば、1または複数であることもある。   The change determination function unit 25 extracts a change determination target pixel in the processing target frame image selected in s21 (s22). In s22, the change pixel extracted by the process concerning the above-mentioned s4 with respect to the process target frame image selected in s21 is extracted as a change determination target pixel. As described above, the storage unit stores the frame number of the processing target frame image and the change pixel extracted from the processing target frame image in association with each other. The number of change determination target pixels extracted in s22 may be 0, or may be 1 or more.

なお、s22では、s21で今回選択した処理対象フレーム画像において、s16で出現画素であると判定した画素を変化判定対象画素として抽出する構成であってもよい。   Note that in s22, the configuration may be such that the pixel determined to be an appearance pixel in s16 is extracted as a change determination target pixel in the processing target frame image selected this time in s21.

変化判定機能部25は、s21で選択した処理対象フレーム画像に対して、変化判定期間を定める(s23)。この変化判定期間は、s21で選択した処理対象フレーム画像の撮像タイミングから待ち時間(例えば、2秒)経過したタイミングが開始タイミングであり、所定時間(例えば10秒)経過後が終了タイミングである。この変化判定期間が、この発明で言う第3の期間に相当する。変化判定時間は、上述の待ち時間と、変化判定期間とを合わせた時間である。   The change determination function unit 25 determines a change determination period for the processing target frame image selected in s21 (s23). In this change determination period, the timing when the waiting time (for example, 2 seconds) has elapsed from the imaging timing of the processing target frame image selected in s21 is the start timing, and the timing after the predetermined time (for example, 10 seconds) has elapsed. This change determination period corresponds to the third period referred to in the present invention. The change determination time is a time obtained by combining the above-described waiting time and the change determination period.

変化判定機能部25は、s23で定めた変化判定期間を複数の判定期間に分割する(s24)。例えば、変化判定期間を、2秒間隔で分割した5つの判定期間に分割する。この判定期間が、この発明で言う第3の期間を分割した分割期間に相当する。   The change determination function unit 25 divides the change determination period determined in s23 into a plurality of determination periods (s24). For example, the change determination period is divided into five determination periods divided at intervals of 2 seconds. This determination period corresponds to a divided period obtained by dividing the third period referred to in the present invention.

変化判定機能部25は、s24で分割した判定期間毎に、s22で抽出した変化判定対象画素のエッジ強度の標準偏差を算出する(s25)。s25では、判定期間毎に、その判定期間にビデオカメラ2が撮像した処理対象フレーム画像のエッジ画像を用いる。   The change determination function unit 25 calculates the standard deviation of the edge intensity of the change determination target pixel extracted in s22 for each determination period divided in s24 (s25). In s25, for each determination period, the edge image of the processing target frame image captured by the video camera 2 during the determination period is used.

変化判定機能部25は、s22で抽出した変化判定対象画素について、判定期間毎に、この判定期間におけるエッジ強度の平均値に対する、エッジ強度の標準偏差の割合βが所定値(例えば、0.4)以内であるかどうかを判定する(s26)。   For the change determination target pixel extracted in s22, the change determination function unit 25 determines, for each determination period, the ratio β of the standard deviation of the edge intensity to the average value of the edge intensity in the determination period is a predetermined value (for example, 0.4 ) Is determined (s26).

標準偏差の割合β
=(判定期間におけるエッジ強度の標準偏差)/(判定期間におけるエッジ強度の平均値)
である。
Standard deviation ratio β
= (Standard deviation of edge strength in judgment period) / (Average value of edge strength in judgment period)
It is.

変化判定機能部25は、いずれかの判定期間において、その判定期間におけるエッジ強度の平均値に対する、エッジ強度の標準偏差の割合βが所定値以内でないと判定した変化判定対象画素をノイズと判定する(s28)。また、変化判定機能部25は、全ての判定期間において、その判定期間におけるエッジ強度の平均値に対する、エッジ強度の標準偏差の割合βが所定値以内であると判定した判定対象画素を特定画素と判定する(s27)。s25〜s28にかかる処理は、s22で抽出した変化判定対象画素毎に行う。   The change determination function unit 25 determines, as noise, a change determination target pixel that is determined that the ratio β of the standard deviation of the edge strength to the average value of the edge strength in the determination period is not within a predetermined value in any determination period. (S28). In addition, the change determination function unit 25 sets the determination target pixel that is determined that the ratio β of the standard deviation of the edge intensity to the average value of the edge intensity in the determination period is within a predetermined value as the specific pixel in all the determination periods. Determine (s27). The processing related to s25 to s28 is performed for each change determination target pixel extracted in s22.

変化判定機能部25は、s27で判定した特定画素を図示していない記憶部に記憶し(s29)、s21に戻る。s29では、今回判定した特定画素と、s21で今回選択した処理対象フレーム画像のフレーム番号と、を対応付けて、記憶部に記憶する。   The change determination function unit 25 stores the specific pixel determined in s27 in a storage unit (not shown) (s29), and returns to s21. In s29, the specific pixel determined this time and the frame number of the processing target frame image selected in s21 are associated with each other and stored in the storage unit.

図12に示すように落下物等にかかる画素のエッジ強度は、変動判定期間において安定するが、水溜り等にかかる画素のエッジ強度は、水溜りの形状が変化することから、変動判定期間において安定しない。図12において、t0がs4で変化画素として抽出されたタイミングである。また、t1−t3の期間が変化判定期間である。したがって、s28でノイズと判定される変化判定対象画素は、水溜り等にかかる画素である。   As shown in FIG. 12, the edge strength of a pixel related to a fallen object or the like is stable in the fluctuation determination period. However, the edge strength of a pixel related to a puddle or the like changes during the fluctuation determination period because the shape of the puddle changes. Not stable. In FIG. 12, t0 is the timing extracted as a change pixel at s4. Moreover, the period of t1-t3 is a change determination period. Therefore, the change determination target pixel determined as noise in s28 is a pixel related to a puddle or the like.

また、検知対象エリアを停止することなく、走行した車両にかかる画素のエッジ強度も、変動判定期間において安定しない。したがって、変化判定機能部25は、走行車両にかかる画素についても、s27でノイズと判定する。   Further, the edge strength of the pixels applied to the vehicle that has traveled without stopping the detection target area is not stable in the variation determination period. Therefore, the change determination function unit 25 also determines that the pixel related to the traveling vehicle is noise in s27.

次に、障害物確定処理について説明する。図13は、障害物確定処理を示すフローチャートである。画像処理部13の障害物検知機能部26が、この障害物確定処理を行う。   Next, the obstacle determination process will be described. FIG. 13 is a flowchart showing the obstacle determination process. The obstacle detection function unit 26 of the image processing unit 13 performs this obstacle determination process.

障害物検知機能部26は、処理対象フレーム画像を選択する(s31)。s31では、上述した第1の特定画素判定処理、および第2の特定画素判定処理を完了しているフレーム画像を、時系列に処理対象フレーム画像として選択する。s31にかかる処理は、処理対象フレーム画像選択機能部21において行われるのではなく、障害物検知機能部26において行われる。   The obstacle detection function unit 26 selects a processing target frame image (s31). In s31, the frame image that has completed the first specific pixel determination process and the second specific pixel determination process described above is selected as a processing target frame image in time series. The processing according to s31 is not performed by the processing target frame image selection function unit 21, but is performed by the obstacle detection function unit 26.

障害物検知機能部26は、s31で今回選択した処理対象フレーム画像に対して、障害物検知領域を探索する(s32)。s32では、以下の条件1、および条件2に適合する探索領域の探索を行う。探索領域は、例えば、5×5画素の領域である。   The obstacle detection function unit 26 searches for an obstacle detection area for the processing target frame image selected this time in s31 (s32). In s32, a search area that satisfies the following conditions 1 and 2 is searched. The search area is, for example, an area of 5 × 5 pixels.

条件1:今回選択した処理対象フレーム画像において、第1の特定画素判定処理で特定画素と判定された画素であって、且つ第2の特定画素判定処理においても特定画素と判定された画素が1つ以上存在する。 Condition 1: In the processing target frame image selected this time, a pixel that is determined as a specific pixel in the first specific pixel determination process and that is determined as a specific pixel in the second specific pixel determination process is 1 There are two or more.

条件2:今回選択した処理対象フレーム画像を含む前後数フレームの処理対象フレーム画像(例えば、前後2フレームの処理対象フレーム画像(合計5フレーム画像))において、第1の特定画素判定処理で特定画素と判定された画素であって、且つ第2の特定画素判定処理においても特定画素と判定された画素の割合が所定の割合(例えば、80%)を超えている。 Condition 2: In the first and second specific frame determination processing in the first and second frames of the processing target frame image including the processing target frame image selected this time (for example, the processing target frame images of the two frames before and after (a total of five frame images)). The ratio of pixels that are determined to be specific pixels in the second specific pixel determination processing also exceeds a predetermined ratio (for example, 80%).

条件2は、小さなゴミや、ノイズ等にかかる画素を障害物として検知しないための条件である。   Condition 2 is a condition for not detecting small dust or pixels related to noise or the like as an obstacle.

障害物検知機能部26は、s32で探索された障害物検知領域(条件1、および条件2に適合する探索領域)がなければ(s33)、s31に戻る。障害物検知機能部26は、s32で探索された障害物検知領域があると、当該処理対象フレーム画像における背景差分画像において、今回探索された障害物検知領域を含む前景画素の領域を、障害物が撮像されている領域として検知する(s33、s34)。また、障害物検知機能部26は、案内表示板3に対して障害物の検知にかかる通知要と判定し(s35)、s31に戻る。s35では、管制装置4に対して障害物の検知にかかる通知要と判定しない。   The obstacle detection function unit 26 returns to s31 if there is no obstacle detection area searched in s32 (search area suitable for condition 1 and condition 2) (s33). When there is an obstacle detection area searched in s32, the obstacle detection function unit 26 determines the area of the foreground pixel including the obstacle detection area searched this time in the background difference image in the processing target frame image. Is detected as an imaged area (s33, s34). Also, the obstacle detection function unit 26 determines that notification is required for the obstacle display to the guidance display board 3 (s35), and returns to s31. In s35, it is not determined that the control device 4 needs to be notified of obstacle detection.

障害物検知装置1は、s35における判定に基づき、出力部14から、案内表示板3に対して障害物の検知にかかる報知を要求する要求通知を出力する。これにより、案内表示板3が、下流側に障害物があることをドライバに通知するメッセージの表示を行う。   Based on the determination in s35, the obstacle detection device 1 outputs a request notification for requesting notification related to the detection of the obstacle from the output unit 14 to the guidance display board 3. Thereby, the guidance display board 3 displays a message notifying the driver that there is an obstacle on the downstream side.

このように、障害物検知装置1は、障害物を検知すると、案内表示板3に対して障害物の検知にともなう報知を迅速に要求する。したがって、案内表示板3では、ドライバに対して事故防止にかかる案内表示が迅速に行える。   As described above, when the obstacle detection device 1 detects an obstacle, it promptly requests the guidance display board 3 for notification accompanying the detection of the obstacle. Therefore, the guidance display board 3 can promptly display guidance for preventing accidents to the driver.

障害物検知装置1は、障害物検知機能部26において障害物が検知されると、その障害物が予め定めた継続判定時間(例えば、1分)にわたって、移動することなく位置し続けているかどうかを判定する継続判定処理を行う。図14は、この継続判定処理を示すフローチャートである。この継続判定処理は、障害物継続検知機能部27が行う。   When the obstacle detection function unit 26 detects an obstacle, the obstacle detection device 1 determines whether the obstacle continues to be positioned without moving for a predetermined continuation determination time (for example, 1 minute). The continuation determination process for determining FIG. 14 is a flowchart showing this continuation determination process. The obstacle continuation detection function unit 27 performs this continuation determination process.

障害物継続検知機能部27は、障害物が検知された処理対象フレーム画像の撮像タイミングを基準にして、検知チェック待機時間毎に撮像されたフレーム画像を処理対象フレーム画像として選択する(s41)。例えば、障害物が検知された処理対象フレーム画像の撮像タイミングを基準にして、1秒毎に撮像されたフレーム画像を順次処理対象フレーム画像として選択する。s41にかかる処理は、処理対象フレーム画像選択機能部21において行われるのではなく、障害物継続検知機能部27において行われる。   The obstacle continuation detection function unit 27 selects, as a processing target frame image, a frame image captured at each detection check waiting time with reference to the imaging timing of the processing target frame image in which the obstacle is detected (s41). For example, a frame image captured every second is sequentially selected as a processing target frame image based on the imaging timing of the processing target frame image in which an obstacle is detected. The processing related to s41 is not performed in the processing target frame image selection function unit 21, but is performed in the obstacle continuation detection function unit 27.

障害物継続検知機能部27は、障害物が検知された処理対象フレーム画像における障害物検知領域と、s41で選択した処理対象フレーム画像における障害物検知領域と、におけるエッジの一致度を算出し(s42)、算出したエッジの一致度が所定の割合を超えているかどうかを判定する(s43)。すなわち、s43では、障害物検知機能部26が検知した障害物が同じ位置にあるかどうかを判定している。   The obstacle continuation detection function unit 27 calculates the degree of coincidence of edges in the obstacle detection region in the processing target frame image in which the obstacle is detected and the obstacle detection region in the processing target frame image selected in s41 ( s42), it is determined whether or not the calculated degree of coincidence of edges exceeds a predetermined ratio (s43). That is, in s43, it is determined whether or not the obstacle detected by the obstacle detection function unit 26 is in the same position.

障害物継続検知機能部27は、s42でエッジの一致度が所定の割合を超えていると判定すると、継続カウント値を1カウントアップする(s44)。障害物継続検知機能部27は、s43でエッジの一致度が所定の割合を超えていると判定しなければ、s44にかかる処理を行わない。   If the obstacle continuation detection function unit 27 determines that the edge coincidence exceeds a predetermined ratio in s42, the obstacle continuation detection function unit 27 increments the continuation count value by one (s44). The obstacle continuation detection function unit 27 does not perform the process related to s44 unless it is determined in s43 that the edge coincidence exceeds a predetermined ratio.

障害物継続検知機能部27は、チェック回数を1カウントアップし(s45)、チェック回数が判定回数(例えば、10回)に達したかどうかを判定する(s46)。障害物継続検知機能部27は、s46で判定回数に達していないと判定すると、s41に戻る。   The obstacle continuation detection function unit 27 increments the number of checks by 1 (s45), and determines whether the number of checks has reached the number of determinations (for example, 10) (s46). If the obstacle continuation detection function unit 27 determines that the number of determinations has not been reached in s46, the obstacle continuation detection function unit 27 returns to s41.

障害物継続検知機能部27は、s46で判定回数に達していると判定すると、継続カウント値が所定値(例えば、5)以上であるかどうかを判定する(s47)。障害物継続検知機能部27は、継続カウント値が所定値以上でないと判定すると、今回検知した障害物が移動したと判定し(s48)、本処理を終了する。移動した障害物は、風に飛ばされてきたレジ袋や、なんらかの理由で一時停止した車両等である。   If the obstacle continuation detection function unit 27 determines that the number of determinations has been reached in s46, the obstacle continuation detection function unit 27 determines whether the continuation count value is a predetermined value (for example, 5) or more (s47). If the obstacle continuation detection function unit 27 determines that the continuation count value is not greater than or equal to the predetermined value, it determines that the obstacle detected this time has moved (s48), and ends the present process. The obstacle that has moved is a shopping bag that has been blown by the wind, a vehicle that has been temporarily stopped for some reason, and the like.

また、障害物継続検知機能部27は、継続カウント値が所定値以上であると判定すると、継続カウント値、およびチェック回数をリセットした後(s49)、継続判定時間にわたる障害物の移動確認が完了したかどうかを判定する(s50)。障害物継続検知機能部27は、s50で、継続判定時間にわたる障害物の移動確認が完了していないと判定すると、s41に戻る。   If the obstacle continuation detection function unit 27 determines that the continuation count value is greater than or equal to a predetermined value, the obstacle count over the continuation determination time is completed after resetting the continuation count value and the number of checks (s49). It is determined whether or not (s50). If the obstacle continuation detection function unit 27 determines in s50 that the obstacle movement confirmation over the continuation determination time is not completed, the process returns to s41.

障害物継続検知機能部27は、継続判定時間にわたる障害物の移動確認が完了したと判定すると、継続判定時間にわたって今回検知した障害物が移動していないと判定し(s51)、本処理を終了する。   If the obstacle continuation detection function unit 27 determines that the obstacle movement confirmation over the continuation determination time has been completed, the obstacle continuation detection function unit 27 determines that the obstacle detected this time has not moved over the continuation determination time (s51), and ends this process. To do.

障害物継続検知機能部27は、s48、またはs51の判定結果を管制通知要否判定機能部29に渡す。管制通知要否判定機能部29の動作については、後述する。   The obstacle continuation detection function unit 27 passes the determination result of s48 or s51 to the control notification necessity determination function unit 29. The operation of the control notification necessity determination function unit 29 will be described later.

また、車両走行状況判定機能部28は、障害物検知機能部26において障害物が検知されると、車両の走行異常判定処理を行う。図15は、走行異常判定処理を示すフローチャートである。車両走行状況判定機能部28は、障害物検知機能部26において障害物が検知された後、処理対象フレーム画像選択機能部21が選択した処理対象フレーム画像を用いて、検知対象エリア内における走行車両の動きを取得する(s61)。s61では、例えば、公知のオプティカルフローによって、検知対象エリアにおける走行車両の動きを取得してもよいし、公知のトラッキング技術によって、検知対象エリアにおける走行車両の動きを取得してもよい。s61では、車両の減速、加速や蛇行等を走行車両の動きとして取得する。   In addition, when the obstacle detection function unit 26 detects an obstacle, the vehicle traveling state determination function unit 28 performs a vehicle abnormality determination process. FIG. 15 is a flowchart showing a running abnormality determination process. The vehicle traveling state determination function unit 28 uses the processing target frame image selected by the processing target frame image selection function unit 21 after the obstacle is detected by the obstacle detection function unit 26, and the traveling vehicle in the detection target area. The movement of is acquired (s61). In s61, for example, the movement of the traveling vehicle in the detection target area may be acquired by a known optical flow, or the movement of the traveling vehicle in the detection target area may be acquired by a known tracking technique. In s61, deceleration, acceleration, meandering, etc. of the vehicle are acquired as the movement of the traveling vehicle.

車両走行状況判定機能部28は、s61で取得した走行車両の動きに基づく走行パターンが不自然であるかどうかを判定する(s62)。   The vehicle traveling state determination function unit 28 determines whether the traveling pattern based on the movement of the traveling vehicle acquired in s61 is unnatural (s62).

例えば、s61で取得した走行車両の動きに基づく走行パターンと、交通流が正常であるときの車両の走行パターンと、を比較し、検知対象エリアを走行している車両の走行パターンが不自然であるかどうかを判定する。具体的には、s61で取得した走行車両の動きに基づく走行パターンと、交通流が正常であるときの車両の走行パターンとの一致度によって、検知対象エリアを走行している車両の走行パターンが不自然であるかどうかを判定する。道路上に、車両の走行の妨げになる障害物が存在する場合、車両はその障害物を避けて走行するので、減速、加速、蛇行等によって走行パターンが不自然になる。したがって、道路上に、車両の走行の妨げになる障害物が存在する場合、s61で取得した検知対象エリア内における走行車両の動きに基づく走行パターンと、記憶している交通流が正常であるときの車両の走行パターンとの一致度は小さくなる。   For example, the traveling pattern based on the movement of the traveling vehicle acquired in s61 is compared with the traveling pattern of the vehicle when the traffic flow is normal, and the traveling pattern of the vehicle traveling in the detection target area is unnatural. Determine if it exists. Specifically, the traveling pattern of the vehicle traveling in the detection target area is determined based on the degree of coincidence between the traveling pattern based on the movement of the traveling vehicle acquired in s61 and the traveling pattern of the vehicle when the traffic flow is normal. Determine if it is unnatural. If there is an obstacle on the road that prevents the vehicle from traveling, the vehicle travels avoiding the obstacle, so the traveling pattern becomes unnatural due to deceleration, acceleration, meandering, and the like. Therefore, when there are obstacles on the road that hinder the traveling of the vehicle, the traveling pattern based on the movement of the traveling vehicle in the detection target area acquired in s61 and the stored traffic flow are normal. The degree of coincidence with the traveling pattern of the vehicle becomes small.

この場合、車両走行状況判定機能部28は、交通流が正常であるときの車両の走行パターンを記憶している。また、車両走行状況判定機能部28は、交通流が正常であるときの車両の走行パターンを、障害物が検知されていないときにビデオカメラ2が撮像した動画像を処理して取得した走行車両の動きに基づいて学習する構成にするのがよい。   In this case, the vehicle travel state determination function unit 28 stores a travel pattern of the vehicle when the traffic flow is normal. In addition, the vehicle traveling state determination function unit 28 obtains the traveling pattern of the vehicle when the traffic flow is normal by processing the moving image captured by the video camera 2 when no obstacle is detected. It is preferable that the learning is performed based on the movement of

車両走行状況判定機能部28は、s62で車両の走行パターンが不自然であると判定すると、本処理を終了する。車両走行状況判定機能部28は、s62で車両の走行パターンが不自然であると判定した判定結果を管制通知要否判定機能部29に渡す。   If the vehicle traveling state determination function unit 28 determines that the traveling pattern of the vehicle is unnatural in s62, the present processing is terminated. The vehicle travel state determination function unit 28 passes the determination result determined in s62 that the vehicle travel pattern is unnatural to the control notification necessity determination function unit 29.

一方、車両走行状況判定機能部28は、s62で車両の走行パターンが不自然でないと判定すると、障害物継続検知機能部27が上述した継続判定処理を実行しているかどうかを判定する(s63)。車両走行状況判定機能部28は、s63で障害物継続検知機能部27が上述した継続判定処理を実行していると判定すると、s61に戻る。また、車両走行状況判定機能部28は、s63で障害物継続検知機能部27が上述した継続判定処理を実行していないと判定すると、本処理を終了する。   On the other hand, if the vehicle travel state determination function unit 28 determines in s62 that the vehicle travel pattern is not unnatural, it determines whether the obstacle continuation detection function unit 27 is executing the continuation determination process described above (s63). . If the vehicle running state determination function unit 28 determines in s63 that the obstacle continuation detection function unit 27 is executing the continuation determination process described above, the process returns to s61. In addition, when the vehicle traveling state determination function unit 28 determines in s63 that the obstacle continuation detection function unit 27 has not performed the above-described continuation determination process, the process ends.

次に、管制通知要否判定機能部29における、管制通知要否判定処理について説明する。図16は、管制通知要否判定処理を示すフローチャートである。管制通知要否判定機能部29は、障害物検知機能部26から障害物が移動した旨の判定結果(s48の判定結果)が渡されると、案内表示板3に対して障害物の検知にともなう報知解除の通知要と判定し(s71、s72)、本処理を終了する。   Next, the control notification necessity determination process in the control notification necessity determination function unit 29 will be described. FIG. 16 is a flowchart showing a control notification necessity determination process. When the determination result indicating that the obstacle has moved (determination result in s48) is passed from the obstacle detection function unit 26, the control notification necessity determination function unit 29 causes the guidance display board 3 to detect the obstacle. It is determined that notification cancellation is necessary (s71, s72), and this process is terminated.

また、管制通知要否判定機能部29は、障害物検知機能部26から障害物が継続判定時間にわたって移動していない旨の判定結果(s51の判定結果)が渡されると、管制装置4に対して障害物の検知にかかる通知要と判定し(s73、s74)、本処理を終了する。   The control notification necessity determination function unit 29 receives the determination result (determination result of s51) that the obstacle has not moved over the continuation determination time from the obstacle detection function unit 26, to the control device 4. Then, it is determined that notification is required for the detection of the obstacle (s73, s74), and this process is terminated.

さらに、管制通知要否判定機能部29は、車両走行状況判定機能部28から、車両の走行パターンが不自然である旨の判定結果が渡されると、管制装置4に対して障害物の検知にかかる通知要と判定し(s75、s74)、本処理を終了する。   Further, the control notification necessity determination function unit 29 detects the obstacle to the control device 4 when a determination result that the vehicle traveling pattern is unnatural is passed from the vehicle traveling state determination function unit 28. It is determined that such notification is necessary (s75, s74), and this process is terminated.

障害物検知装置1は、s72における判定に基づき、出力部14から、案内表示板3に対して障害物の検知にかかる報知解除を要求する要求通知を出力する。これにより、案内表示板3が、下流側に障害物があることをドライバに通知するメッセージの表示を中止する。すなわち、案内表示板3が、下流側に障害物があることをドライバに通知するメッセージを表示していない状態に移行する。これにより、案内表示板3において、誤検知された障害物にかかるメッセージがいつまでも表示されつづけることがない。   Based on the determination in s72, the obstacle detection device 1 outputs a request notification for requesting the notification display board 3 to cancel the notification related to the detection of the obstacle, from the output unit 14. Thereby, the guidance display board 3 stops displaying the message notifying the driver that there is an obstacle on the downstream side. That is, the guidance display board 3 shifts to a state in which a message notifying the driver that there is an obstacle on the downstream side is not displayed. As a result, the message related to the erroneously detected obstacle is not continuously displayed on the guidance display board 3.

また、障害物検知装置1は、s74における判定に基づき、出力部14から、管制装置4に対して障害物の検知にかかる報知を要求する要求通知を出力する。これにより、管制装置4は、道路管理者に対して道路上にある障害物(検知された障害物)を取り除く等の作業を促す報知を行う。   Also, the obstacle detection device 1 outputs a request notification for requesting notification regarding the detection of the obstacle to the control device 4 from the output unit 14 based on the determination in s74. As a result, the control device 4 notifies the road manager to urge the work such as removing an obstacle (detected obstacle) on the road.

このように、この例にかかる障害物検知装置1は、第1の特定画素判定処理を行うことにより、天候変化や照明変化による周辺構造物の影等を障害物として誤検知するのが抑えられるとともに、第2の特定画素判定処理を行うことにより、車両が走行したことによって形状が変化した水溜り等を障害物として誤検知するのが抑えられる。   As described above, the obstacle detection device 1 according to this example performs the first specific pixel determination process, so that it is possible to suppress erroneous detection of a shadow or the like of a surrounding structure due to a weather change or a lighting change as an obstacle. At the same time, by performing the second specific pixel determination process, it is possible to suppress erroneous detection of a puddle or the like whose shape has changed due to the traveling of the vehicle as an obstacle.

また、この例にかかる障害物検知装置1は、障害物確定処理を行うことにより、小さなゴミや、ノイズ等にかかる画素を障害物として誤検知するのを抑えられる。   Also, the obstacle detection apparatus 1 according to this example can suppress erroneous detection of a pixel related to small dust or noise as an obstacle by performing the obstacle determination process.

また、この例にかかる障害物検知装置1は、継続判定処理を行うことにより、風に飛ばされてきたレジ袋や、なんらかの理由で一時停止した車両等を障害物として検知したときに、管制装置4に対して障害物の検知にかかる報知を要求する要求通知を出力するのを抑えられる。したがって、管制装置4は、風に飛ばされてきたレジ袋や、なんらかの理由で一時停止した車両等を障害物として、道路管理者に作業を促す無駄な報知が抑えられる。 さらに、この例にかかる障害物検知装置1は、走行異常判定処理を行うことによって、道路管理者に対して道路上にある障害物(検知された障害物)を取り除く等の作業を促す報知が速やかに行える。   In addition, the obstacle detection device 1 according to this example performs a continuation determination process, thereby detecting a shopping bag that has been blown by the wind or a vehicle that is temporarily stopped for some reason as an obstacle. 4 can be prevented from outputting a request notification requesting notification related to obstacle detection. Therefore, the control device 4 can suppress wasteful notification that prompts the road manager to perform work by using a shopping bag that has been blown by the wind or a vehicle temporarily stopped for some reason as an obstacle. Furthermore, the obstacle detection apparatus 1 according to this example performs a running abnormality determination process to notify the road administrator of work such as removing an obstacle (detected obstacle) on the road. It can be done quickly.

なお、上記の例では、画素の特徴量として、エッジの強度を用いるとしたが、画素の輝度値を特徴量として用いてもよい。この場合、エッジ画像生成機能部22は。不要になる。   In the above example, the edge strength is used as the feature amount of the pixel. However, the luminance value of the pixel may be used as the feature amount. In this case, the edge image generation function unit 22 is. It becomes unnecessary.

また、障害物継続検知機能部27、車両走行状況判定機能部28、および管制通知要否判定機能部29を不要にし、障害物検知機能部26がs35で案内表示板3、および管制装置4に対して障害物の検知にかかる通知要と判定する構成にしてもよい。   Further, the obstacle continuation detection function unit 27, the vehicle traveling state determination function unit 28, and the control notification necessity determination function unit 29 are not required, and the obstacle detection function unit 26 replaces the guidance display board 3 and the control device 4 with s35. On the other hand, a configuration may be adopted in which it is determined that notification is required for obstacle detection.

1…障害物検知装置
2…ビデオカメラ
3…案内表示板
4…管制装置
11…制御部
12…画像入力部
13…画像処理部
14…出力部
21…処理対象フレーム画像選択機能部
22…エッジ画像生成機能部
23…背景差分画像生成機能部
24…出現判定機能部
25…変化判定機能部
26…障害物検知機能部
27…障害物継続検知機能部
28…車両走行状況判定機能部
29…管制通知要否判定機能部
DESCRIPTION OF SYMBOLS 1 ... Obstacle detection apparatus 2 ... Video camera 3 ... Guidance display board 4 ... Control apparatus 11 ... Control part 12 ... Image input part 13 ... Image processing part 14 ... Output part 21 ... Process target frame image selection function part 22 ... Edge image Generation function unit 23 ... Background difference image generation function unit 24 ... Appearance determination function unit 25 ... Change determination function unit 26 ... Obstacle detection function unit 27 ... Obstacle continuation detection function unit 28 ... Vehicle travel condition determination function unit 29 ... Control notification Necessity judgment function part

Claims (12)

車両が走行する道路上に定めた検知対象エリアを撮像した動画像が入力される動画像入力部と、
前記動画像入力部に入力された動画像にかかるフレーム画像を処理し、このフレーム画像の画素毎に、その画素の特徴量を用いて、前景画素であるか、背景画素であるかを判定する前景画素判定部と、
前記前景画素判定部による判定結果が背景画素から前景画素に変化した画素について、背景画素から前景画素に変化したフレーム画像の撮像タイミングを基準タイミングにし、この基準タイミングに基づいて決定した判定期間に撮像されたフレーム画像を用いて当該画素が障害物にかかる特定画素であるかどうかを判定する特定画素判定部と、
前記特定画素判定部によって前記特定画素であると判定された画素を含むオブジェクトを障害物として検知する障害物検知部と、を備えた障害物検知装置。
A moving image input unit for inputting a moving image obtained by imaging a detection target area defined on a road on which the vehicle travels;
A frame image related to a moving image input to the moving image input unit is processed, and for each pixel of the frame image, it is determined whether the pixel is a foreground pixel or a background pixel using a feature amount of the pixel. A foreground pixel determination unit;
For the pixel whose determination result by the foreground pixel determination unit has changed from the background pixel to the foreground pixel, the imaging timing of the frame image that has changed from the background pixel to the foreground pixel is used as the reference timing, and imaging is performed during the determination period determined based on this reference timing. A specific pixel determination unit that determines whether or not the pixel is a specific pixel related to an obstacle using the frame image that has been generated;
An obstacle detection device comprising: an obstacle detection unit that detects an object including a pixel determined to be the specific pixel by the specific pixel determination unit as an obstacle.
前記特定画素判定部は、前記前景画素判定部による判定結果が背景画素から前景画素に変化した画素について、前記基準タイミング直前の第1の期間、および前記基準タイミング直後の第2の期間を前記判定期間に決定し、前記第1の期間に撮像されたフレーム画像における当該画素の特徴量と、前記第2の期間に撮像されたフレーム画像における当該画素の特徴量とを用いて、当該画素が特定画素であるかどうかを判定する第1の特定画素判定処理を行う、請求項1に記載の障害物検知装置。   The specific pixel determination unit determines the first period immediately before the reference timing and the second period immediately after the reference timing for the pixel whose determination result from the foreground pixel determination unit has changed from a background pixel to a foreground pixel. The pixel is identified using the feature amount of the pixel in the frame image captured in the first period and the feature amount of the pixel in the frame image captured in the second period. The obstacle detection device according to claim 1, wherein a first specific pixel determination process for determining whether or not the pixel is a pixel is performed. 前記第1の特定画素判定処理は、前記第1の期間に撮像されたフレーム画像における当該画素の特徴量と、前記第2の期間に撮像されたフレーム画像における当該画素の特徴量との比率によって、当該画素が特定画素であるかどうかを判定する処理である、請求項2に記載の障害物検知装置。   The first specific pixel determination process is based on a ratio between a feature amount of the pixel in the frame image captured in the first period and a feature amount of the pixel in the frame image captured in the second period. The obstacle detection apparatus according to claim 2, wherein the obstacle detection process is a process of determining whether or not the pixel is a specific pixel. 前記特定画素判定部は、前記前景画素判定部による判定結果が背景画素から前景画素に変化した画素について、前記基準タイミングから一定時間経過したタイミングを開始タイミングとした第3の期間を前記判定期間に決定し、この第3の期間に撮像されたフレーム画像における当該画素の特徴量の変化から、当該画素が特定画素であるかどうかを判定する第2の特定画素判定処理を行う、請求項1〜3のいずれかに記載の障害物検知装置。   The specific pixel determination unit sets, as the determination period, a third period in which a predetermined time has elapsed from the reference timing as a start timing for a pixel whose determination result from the foreground pixel determination unit has changed from a background pixel to a foreground pixel. 2nd specific pixel determination processing which determines and determines whether the said pixel is a specific pixel from the change of the feature-value of the said pixel in the frame image imaged in this 3rd period is determined. 4. The obstacle detection device according to any one of 3. 前記第2の特定画素判定処理は、前記前景画素判定部による判定結果が背景画素から前景画素に変化した画素について、前記第3の期間に撮像されたフレーム画像における当該画素の特徴量のばらつきによって、当該画素が特定画素であるかどうかを判定する処理である、請求項4に記載の障害物検知装置。   In the second specific pixel determination process, for a pixel whose determination result from the foreground pixel determination unit has changed from a background pixel to a foreground pixel, a variation in the feature amount of the pixel in the frame image captured in the third period The obstacle detection device according to claim 4, which is a process of determining whether or not the pixel is a specific pixel. 前記第2の特定画素判定処理は、前記前景画素判定部による判定結果が背景画素から前景画素に変化した画素について、前記第3の期間を複数に分割した分割期間毎に、当該画素が特定画素である可能性があるかどうかを判定し、前記分割期間のいずれかにおいて、当該画素が特定画素である可能性ないと判定した場合に、当該画素を特定画素でないと判定する処理である、請求項4、または5に記載の障害物検知装置。   In the second specific pixel determination process, for a pixel whose determination result by the foreground pixel determination unit has changed from a background pixel to a foreground pixel, the pixel is a specific pixel for each divided period obtained by dividing the third period into a plurality of periods. And determining whether the pixel is not a specific pixel when it is determined that the pixel is not a specific pixel in any of the divided periods. Item 5. The obstacle detection device according to item 4 or 5. 前記障害物検知部は、前記基準タイミングを撮像タイミングの中心とする所定数のフレーム画像において、前記特定画素判定部によって判定された特定画素の分布密度が予め定めた判定密度よりも高い画像領域があれば、この画像領域に撮像されているオブジェクトを障害物として検知する、請求項1〜6のいずれかに記載の障害物検知装置。   The obstacle detection unit includes an image region in which a distribution density of specific pixels determined by the specific pixel determination unit is higher than a predetermined determination density in a predetermined number of frame images having the reference timing as a center of imaging timing. The obstacle detection device according to any one of claims 1 to 6, wherein if there is an object, the object imaged in the image area is detected as an obstacle. 前記障害物検知部によって障害物が検知されたとき、障害物の検知にかかる第1の通知を出力する出力部を備えた、請求項1〜7のいずれかに記載の障害物検知装置。   The obstacle detection device according to any one of claims 1 to 7, further comprising an output unit that outputs a first notification related to the detection of an obstacle when the obstacle detection unit detects the obstacle. 前記障害物検知部によって検知された障害物が移動したかどうかを検知する移動検知部を備え、
前記出力部は、前記障害物検知部によって検知された障害物が予め定めた継続時間の間に移動したことが前記移動検知部によって検知されなかったとき、障害物の対応要求にかかる第2の通知を出力する、請求項8に記載の障害物検知装置。
A movement detection unit for detecting whether the obstacle detected by the obstacle detection unit has moved,
When the movement detection unit does not detect that the obstacle detected by the obstacle detection unit has moved during a predetermined duration, the output unit outputs a second response to the obstacle response request. The obstacle detection device according to claim 8, which outputs a notification.
前記検知対象エリアにおける車両の走行パターンが不自然であるかどうかを判定する走行状態判定部を備え、
前記出力部は、前記走行状態判定部が前記検知対象エリアにおける車両の走行パターン不自然であると判定した場合、障害物の対応要求にかかる第2の通知を出力する、請求項8に記載の障害物検知装置。
A traveling state determination unit that determines whether or not the vehicle traveling pattern in the detection target area is unnatural;
The said output part outputs the 2nd notification concerning the response | compatibility request | requirement of an obstruction, when the said driving | running state determination part determines with the driving pattern of the vehicle in the said detection target area being unnatural. Obstacle detection device.
動画像入力部に入力された、車両が走行する道路上に定めた検知対象エリアを撮像した動画像にかかるフレーム画像を処理し、このフレーム画像の画素毎に、その画素の特徴量を用いて、前景画素であるか、背景画素であるかを判定する前景画素判定ステップと、
前記前景画素判定ステップによる判定結果が背景画素から前景画素に変化した画素について、背景画素から前景画素に変化したフレーム画像の撮像タイミングを基準タイミングにし、この基準タイミングに基づいて決定した判定期間に撮像されたフレーム画像を用いて当該画素が障害物にかかる特定画素であるかどうかを判定する特定画素判定ステップと、
前記特定画素判定ステップによって前記特定画素であると判定された画素を含むオブジェクトを障害物として検知する障害物検知ステップと、を備えた障害物検知方法。
A frame image related to a moving image obtained by imaging a detection target area defined on a road on which the vehicle is traveling, which is input to the moving image input unit, is processed, and the feature amount of the pixel is used for each pixel of the frame image. A foreground pixel determining step for determining whether the pixel is a foreground pixel or a background pixel;
For a pixel whose determination result in the foreground pixel determination step has changed from a background pixel to a foreground pixel, the imaging timing of the frame image that has changed from the background pixel to the foreground pixel is used as a reference timing, and imaging is performed during the determination period determined based on this reference timing. A specific pixel determination step for determining whether or not the pixel is a specific pixel related to an obstacle using the frame image thus obtained;
An obstacle detection method comprising: an obstacle detection step of detecting an object including a pixel determined to be the specific pixel by the specific pixel determination step as an obstacle.
動画像入力部に入力された、車両が走行する道路上に定めた検知対象エリアを撮像した動画像にかかるフレーム画像を処理し、このフレーム画像の画素毎に、その画素の特徴量を用いて、前景画素であるか、背景画素であるかを判定する前景画素判定ステップと、
前記前景画素判定ステップによる判定結果が背景画素から前景画素に変化した画素について、背景画素から前景画素に変化したフレーム画像の撮像タイミングを基準タイミングにし、この基準タイミングに基づいて決定した判定期間に撮像されたフレーム画像を用いて当該画素が障害物にかかる特定画素であるかどうかを判定する特定画素判定ステップと、
前記特定画素判定ステップによって前記特定画素であると判定された画素を含むオブジェクトを障害物として検知する障害物検知ステップと、をコンピュータに実行させる障害物検知プログラム。
A frame image related to a moving image obtained by imaging a detection target area defined on a road on which the vehicle is traveling, which is input to the moving image input unit, is processed, and the feature amount of the pixel is used for each pixel of the frame image. A foreground pixel determining step for determining whether the pixel is a foreground pixel or a background pixel;
For a pixel whose determination result in the foreground pixel determination step has changed from a background pixel to a foreground pixel, the imaging timing of the frame image that has changed from the background pixel to the foreground pixel is used as a reference timing, and imaging is performed during the determination period determined based on this reference timing. A specific pixel determination step for determining whether or not the pixel is a specific pixel related to an obstacle using the frame image thus obtained;
An obstacle detection program for causing a computer to execute an obstacle detection step of detecting an object including a pixel determined to be the specific pixel by the specific pixel determination step as an obstacle.
JP2015155593A 2015-08-06 2015-08-06 Obstacle detection device, obstacle detection method, and obstacle detection program Active JP6593018B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015155593A JP6593018B2 (en) 2015-08-06 2015-08-06 Obstacle detection device, obstacle detection method, and obstacle detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015155593A JP6593018B2 (en) 2015-08-06 2015-08-06 Obstacle detection device, obstacle detection method, and obstacle detection program

Publications (2)

Publication Number Publication Date
JP2017033478A true JP2017033478A (en) 2017-02-09
JP6593018B2 JP6593018B2 (en) 2019-10-23

Family

ID=57988217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015155593A Active JP6593018B2 (en) 2015-08-06 2015-08-06 Obstacle detection device, obstacle detection method, and obstacle detection program

Country Status (1)

Country Link
JP (1) JP6593018B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04315299A (en) * 1991-04-12 1992-11-06 Toyota Motor Corp Road object detector
JPH0877487A (en) * 1994-09-01 1996-03-22 Toshiba Corp On-road obstacle detecting device
JPH10105839A (en) * 1996-10-01 1998-04-24 Mitsubishi Electric Corp Monitoring image processor
JP2006101384A (en) * 2004-09-30 2006-04-13 Nissan Motor Co Ltd Human figure detecting apparatus and method
JP2006107457A (en) * 2004-09-13 2006-04-20 Sony Corp Image processing apparatus and image processing method
JP2012103921A (en) * 2010-11-10 2012-05-31 Saxa Inc Passing vehicle monitoring system and vehicle monitoring camera
JP2014056494A (en) * 2012-09-13 2014-03-27 Omron Corp Image processor, object detection method, and object detection program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04315299A (en) * 1991-04-12 1992-11-06 Toyota Motor Corp Road object detector
JPH0877487A (en) * 1994-09-01 1996-03-22 Toshiba Corp On-road obstacle detecting device
JPH10105839A (en) * 1996-10-01 1998-04-24 Mitsubishi Electric Corp Monitoring image processor
JP2006107457A (en) * 2004-09-13 2006-04-20 Sony Corp Image processing apparatus and image processing method
JP2006101384A (en) * 2004-09-30 2006-04-13 Nissan Motor Co Ltd Human figure detecting apparatus and method
JP2012103921A (en) * 2010-11-10 2012-05-31 Saxa Inc Passing vehicle monitoring system and vehicle monitoring camera
JP2014056494A (en) * 2012-09-13 2014-03-27 Omron Corp Image processor, object detection method, and object detection program

Also Published As

Publication number Publication date
JP6593018B2 (en) 2019-10-23

Similar Documents

Publication Publication Date Title
US10972639B2 (en) In-vehicle device
JP5577398B2 (en) Vehicle periphery monitoring device
JP4882571B2 (en) Vehicle monitoring device
US9956941B2 (en) On-board device controlling accumulation removing units
JP6657646B2 (en) Obstacle detection device, obstacle detection method, and obstacle detection program
CN104509090A (en) Vehicle-mounted image recognition device
JP2007279808A (en) Vehicle periphery monitoring device
JP2008282067A (en) Approach object detection device and approaching object detection program
JP2020013206A (en) Device for detecting two-wheeled vehicle from moving image/camera, program, and system
JP5626099B2 (en) Pedestrian detection device
JP2005332071A (en) System for tracking visually handicapped person and method for detecting visually handicapped person
JP2020047174A (en) Pedestrian notification device, pedestrian notification method, and program
JP6593018B2 (en) Obstacle detection device, obstacle detection method, and obstacle detection program
JP2009126493A (en) Obstacle detection device
JP2006048238A (en) Image processor and image processing program
JP2010108182A (en) Vehicle driving support apparatus
JP5345992B2 (en) Vehicle periphery monitoring device
JP5056679B2 (en) Night view system
JP6087240B2 (en) Vehicle periphery monitoring device
JP2020166758A (en) Image processing device and image processing method
JP2006018339A (en) License plate recognition device and method
JP2001091246A (en) Obstacle detecting device
JP2008276307A (en) Video image processing apparatus, video image processing system, and navigation device
JP2009193130A (en) Vehicle surrounding monitoring device, vehicle, program for vehicle surrounding monitoring and vehicle surrounding monitoring method
JPH11205663A (en) Exposure amount controller for image pickup device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190909

R150 Certificate of patent or registration of utility model

Ref document number: 6593018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250