JP7125843B2 - Fault detection system - Google Patents

Fault detection system Download PDF

Info

Publication number
JP7125843B2
JP7125843B2 JP2018003076A JP2018003076A JP7125843B2 JP 7125843 B2 JP7125843 B2 JP 7125843B2 JP 2018003076 A JP2018003076 A JP 2018003076A JP 2018003076 A JP2018003076 A JP 2018003076A JP 7125843 B2 JP7125843 B2 JP 7125843B2
Authority
JP
Japan
Prior art keywords
obstacle
vehicle
unit
area
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018003076A
Other languages
Japanese (ja)
Other versions
JP2019124986A (en
Inventor
佑一郎 小宮
渡 伊藤
一成 岩永
孝二 北村
崇夫 上西
悠貴 中田
謙太 北野
大樹 ▲高▼松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2018003076A priority Critical patent/JP7125843B2/en
Publication of JP2019124986A publication Critical patent/JP2019124986A/en
Application granted granted Critical
Publication of JP7125843B2 publication Critical patent/JP7125843B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は障害検知システムに関し、特に、監視カメラの映像から、道路上などの監視エリアに発生した障害物の自動検知や監視エリアである道路上を走行する車両の異常検知など、障害検知システムに関する。 The present disclosure relates to a failure detection system, and in particular, to a failure detection system such as automatic detection of obstacles that occur in a monitoring area such as a road and abnormality detection of vehicles traveling on a road that is a monitoring area from surveillance camera images. .

近年、高速道路等にて落下物等、通常走行を妨げる物の影響が疑われる事故や渋滞の発生が問題となっている。また、道路を走行する車両が通常とは異なる走行を行った場合にも上記問題となり得る。道路利用者の安全性を向上させるためには、通常走行を妨げる物を検知する、例えば、道路上に発生した走行における障害物をより早く発見し、道路利用者への情報提供を行うなどの対応が求められる。 In recent years, the occurrence of accidents and traffic jams suspected to be caused by objects such as falling objects that interfere with normal driving on highways and the like has become a problem. In addition, the above problem may also occur when a vehicle traveling on a road travels in an unusual manner. In order to improve the safety of road users, it is necessary to detect obstacles that hinder normal driving. Action is required.

通常走行を妨げる物の発見を行う手段の一つに、監視カメラの活用が挙げられる。高速道路等の施設には、交通流や有事の際の状況確認のため、電動雲台と電動ズーム機能を備えたPTZ(パン、チルト、ズーム)タイプの監視カメラが設置されていることが多い。PTZタイプの監視カメラは旋回/ズーム機能により、1台で広い範囲の視認を可能とする。監視カメラの映像を解析することにより、通常走行を妨げる物を自動検知することができれば、高速道路上の事故や渋滞の発生の抑制が可能になると考えられる。 One of the means for finding objects that interfere with normal driving is the use of surveillance cameras. Facilities such as highways are often equipped with PTZ (pan, tilt, zoom) type surveillance cameras equipped with an electric camera platform and an electric zoom function to check the traffic flow and the situation in case of an emergency. . The PTZ-type surveillance camera enables a wide range of visibility with a single unit thanks to its swivel/zoom function. If it is possible to automatically detect objects that interfere with normal driving by analyzing surveillance camera images, it will be possible to reduce the occurrence of accidents and traffic jams on highways.

道路上に設置された監視カメラによって落下物の発見を行う映像解析技術には、例えば、以下の特許文献1、特許文献2のようなものが挙げられる。 Video analysis techniques for detecting fallen objects using surveillance cameras installed on roads include, for example, the following Patent Documents 1 and 2.

特許文献1は画像間の差分によって抽出された画素の集合のうちから、判別条件に基づいて落下物候補の図形を認識し、その落下物候補の図形が一定時間、同じ位置に検出された場合に、落下物の発生を検知している。 Patent document 1 recognizes a figure of a falling object candidate based on a discrimination condition from among a set of pixels extracted by a difference between images. In addition, it detects the occurrence of falling objects.

特許文献2では画像間の差分によって抽出された画素から、車両として検出された画素を除き、その他の画素に対する寸法条件等の判定により、落下物領域を抽出している。 In Japanese Patent Laid-Open No. 2002-200000, a fallen object region is extracted by determining the size conditions and the like for other pixels, excluding pixels detected as a vehicle, from the pixels extracted by the difference between images.

特開2002-99903号公報JP-A-2002-99903 特開2006-59184号公報JP-A-2006-59184

特許文献1および特許文献2に開示の技術は、固定画角の専用カメラを用いた映像解析を想定していると考えられる。この場合、監視カメラは走行障害物の検知に適した設置が可能となり、また同じ画角で路面を観測し続けることができるため、画像間の差分方法の工夫と適切な判別条件の設定により、条件変化等による誤検知を抑えながら走行障害物の発生を検知することができると思われる。 It is considered that the techniques disclosed in Patent Documents 1 and 2 assume video analysis using a dedicated camera with a fixed angle of view. In this case, the surveillance camera can be installed to detect obstacles on the road and can continue to observe the road surface with the same angle of view. It is thought that the occurrence of a running obstacle can be detected while suppressing erroneous detection due to changes in conditions.

しかし、1台のPTZタイプの監視カメラにて広範囲の検知を行おうとした場合、一定期間ごとに監視カメラの画角を巡回させるためのズーム/旋回操作が求められるため、同じ画角で路面を観測し続けることはできない。画角を変化させた際に画面内に存在する走行障害物を検知するためには、前巡回時の映像から得た情報を基に走行障害物の発生を変化として抽出する必要がある。この場合、時間差のある映像データに基づいて変化点を抽出する必要があるため、天候や時間帯等の変化が発生する屋外に設置されたカメラを想定した場合、走行障害物以外の物体の画素を変化点として検出してしまうことが増える。 However, when trying to detect a wide range with a single PTZ type surveillance camera, zooming/rotating operations are required to rotate the angle of view of the surveillance camera at regular intervals. We cannot continue to observe. In order to detect running obstacles that exist in the screen when the angle of view is changed, it is necessary to extract the occurrence of running obstacles as a change based on information obtained from the video during the previous patrol. In this case, it is necessary to extract points of change based on video data with time differences. is detected as a change point.

そのため、変化点として検出された画素を走行障害物として判別するための条件の設定が重要となる。例えば、寸法等の単純な判別条件を用いるだけでは、環境条件の変化によって、背景(走行障害物や車両等の物体が存在しない領域)部分を走行障害物として検知してしまうことによる誤検知が多発することが考えられる。 Therefore, it is important to set a condition for determining a pixel detected as a change point as a running obstacle. For example, if a simple discrimination condition such as size is used, the background (an area where there are no objects such as obstacles or vehicles) may be detected as an obstacle due to changes in environmental conditions. It can occur frequently.

誤検知を抑えながら走行障害物のみを検知するには、変化点として抽出された画素の集合の特徴から、走行障害物のみを識別するための判別条件の設定が必要となる。特許文献1では走行障害物の形状を特定する複数の要素を組み合わせた判別条件を用いている。しかし、実際に検知すべき走行障害物には、剛体である木材や鉄屑、軟体である衣類やシートなど様々な形状のものが想定されるため、全ての走行障害物を特定するための判別条件を事前に設定することは困難である。 In order to detect only traveling obstacles while suppressing erroneous detection, it is necessary to set discrimination conditions for distinguishing only traveling obstacles from the characteristics of a set of pixels extracted as change points. Japanese Patent Laid-Open No. 2002-200000 uses a determination condition that combines a plurality of elements for specifying the shape of a traveling obstacle. However, obstacles that should actually be detected are assumed to have various shapes, such as rigid wood and iron scraps, and soft clothing and sheets. It is difficult to set conditions in advance.

本開示の課題は、屋外の道路上に設置されたPTZタイプの監視カメラを撮影手段として活用し、環境条件の変化等によって生じる誤検知を抑えながら、道路上に発生した走行障害物を自動検知する等、路面の異常を自動検知する映像解析システムを提供することにある。 The problem of this disclosure is to use a PTZ-type surveillance camera installed on an outdoor road as a means of photographing, and automatically detect traveling obstacles that occur on the road while suppressing false detections caused by changes in environmental conditions. The purpose of the present invention is to provide a video analysis system that automatically detects road surface anomalies.

その他の課題と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。 Other problems and novel features will become apparent from the description of the specification and the accompanying drawings.

本開示のうち代表的なものの概要を簡単に説明すれば下記の通りである。 A brief outline of a representative one of the present disclosure is as follows.

すなわち、障害検知システムは、道路上などの監視エリアを単一又は複数の画角で撮影する撮影手段(101)と、前記撮影手段から取り込まれた映像から監視エリアに発生した物体の領域と画素値を抽出する物体抽出手段(201)と、を有する。障害検知システムは、さらに、画角と映像内の位置ごとに設定された判定基準に基づいて、前記物体抽出手段(201)によって取得された物体の領域と画素値をブロックに分割して局所特徴量から、物体の種別を識別する物体認識手段(202)と、前記物体認識手段(202)によって取得された物体の種別の情報から映像内に発生した障害物の有無を検知する障害物検知手段(204)と、を有する。 That is, the obstacle detection system comprises a photographing means (101) for photographing a surveillance area such as on a road at a single or a plurality of angles of view; and object extraction means (201) for extracting values. The obstacle detection system further divides the object region and the pixel value obtained by the object extraction means (201) into blocks based on the determination criteria set for each angle of view and position in the image to obtain local features. An object recognition means (202) for identifying the type of an object from the quantity, and an obstacle detection means for detecting the presence/absence of an obstacle occurring in an image from the information on the type of the object acquired by the object recognition means (202). (204) and

または、障害検知システムは、道路上などの監視エリアを単一又は複数の画角で撮影する撮影手段と、前記撮影手段から取り込まれた映像から監視エリアに発生した物体の領域と画素値を抽出する物体抽出手段と、前記物体抽出手段によって取得された物体の領域と画素値から、監視エリアの物体を追跡する物体追跡手段と、前記物体追跡手段によって追跡された物体のなかから車両のみを選別する車両選別手段と、前記車両選別手段によって得られた車両の追跡結果から算出された基準値を、撮影された画角と画面内の位置とで対応付けて記録する動き学習手段と、前記車両選別手段によって得られた車両の追跡結果と前記動き学習手段によって記録された基準値に基づいて、映像内に存在する車両の走行方向の異常を検知する異常車両検知手段と、を有する。 Alternatively, the obstacle detection system includes a photographing means for photographing a monitoring area such as a road at a single or multiple angles of view, and extracting the area and pixel value of an object generated in the monitoring area from the image captured by the photographing means. an object extraction means for tracking an object in a monitoring area from the area and pixel values of the object acquired by the object extraction means; and only a vehicle is selected from the objects tracked by the object tracking means. movement learning means for recording the reference value calculated from the tracking result of the vehicle obtained by the vehicle selection means in association with the photographed angle of view and the position in the screen; and the vehicle Abnormal vehicle detection means for detecting an abnormality in the running direction of a vehicle present in the image based on the tracking result of the vehicle obtained by the selection means and the reference value recorded by the motion learning means.

上記障害検知システムによれば、屋外に設置されたPTZタイプの監視カメラ(撮影手段)によって、監視エリア内に発生した障害物を効率的に自動検知することが可能となる。 According to the obstacle detection system described above, it is possible to efficiently and automatically detect an obstacle that has occurred within a surveillance area by means of a PTZ type surveillance camera (shooting means) installed outdoors.

実施例に係る走行障害検知システムのブロック図である。1 is a block diagram of a running obstacle detection system according to an embodiment; FIG. 映像解析部のブロック図である。4 is a block diagram of a video analysis unit; FIG. 物体抽出部のブロック図である。4 is a block diagram of an object extraction unit; FIG. 物体認識部のブロック図である。4 is a block diagram of an object recognition unit; FIG. 物体識別のフローチャートの例を示す図である。FIG. 10 is a diagram showing an example of a flow chart for object identification; 監視カメラ画像における物体領域と局所ブロックとの関係を示す図である。FIG. 4 is a diagram showing the relationship between an object region and local blocks in a surveillance camera image; 走行障害物判定のフローチャートの例を示す図である。FIG. 10 is a diagram showing an example of a flow chart of traveling obstacle determination; 避走検知部のブロック図である。FIG. 3 is a block diagram of an escape detection unit; 動き情報の学習の流れを説明する図である。It is a figure explaining the flow of learning of motion information.

以下、実施例について、図面を用いて説明する。ただし、以下の説明において、同一構成要素には同一符号を付し繰り返しの説明を省略することがある。なお、図面は説明をより明確にするため、実際の態様に比べ、模式的に表される場合があるが、あくまで一例であって、本発明の解釈を限定するものではない。 Examples will be described below with reference to the drawings. However, in the following description, the same components may be denoted by the same reference numerals, and repeated descriptions may be omitted. In addition, in order to clarify the description, the drawings may be represented schematically as compared with actual embodiments, but they are only examples and do not limit the interpretation of the present invention.

図1は、実施例に係る走行障害検知システムであって、道路など監視エリアの走行障害検知システムのブロック図である。以後、障害検知システムの実施例として、監視エリアである道路を走行する際の障害検知を行う走行障害検知システムとして説明する。走行障害検知システムは、撮影手段である監視カメラ101と、カメラ制御部102、映像解析部103、情報出力部104から構成される。 FIG. 1 is a block diagram of a running obstacle detection system for a monitoring area such as a road, which is a running obstacle detection system according to an embodiment. Hereinafter, as an embodiment of the obstacle detection system, a traveling obstacle detection system for detecting obstacles when traveling on a road, which is a monitoring area, will be described. The running obstacle detection system is composed of a monitoring camera 101 as a photographing means, a camera control section 102 , a video analysis section 103 and an information output section 104 .

監視カメラ101は、例えば電動雲台と電動ズームを備えたPTZ(パン、チルト、ズーム)カメラである。適用すべきパン、チルト、ズームの状態はカメラ制御情報として与えられる。 The monitoring camera 101 is, for example, a PTZ (pan, tilt, zoom) camera equipped with an electric platform and an electric zoom. The pan, tilt and zoom states to be applied are given as camera control information.

カメラ制御部102は、監視カメラ101のパン、チルト、ズームを制御するためのカメラ制御情報を監視カメラ101へ出力する機能を有する。カメラ制御部102は、監視カメラ101が1つ以上の画角を一定の間隔で巡回して監視するようにカメラ制御情報を出力する。監視カメラ101の画角を一定間隔で変更することにより、1台の監視カメラ101でより広範囲の走行障害物の自動検知が可能となる。 The camera control unit 102 has a function of outputting camera control information for controlling the pan, tilt, and zoom of the surveillance camera 101 to the surveillance camera 101 . The camera control unit 102 outputs camera control information so that the surveillance camera 101 circulates and monitors one or more angles of view at regular intervals. By changing the angle of view of the surveillance camera 101 at regular intervals, one surveillance camera 101 can automatically detect traveling obstacles in a wider range.

映像解析部103は、監視カメラ101の監視カメラ映像を解析することにより映像内の走行障害物の有無を検知する。 The video analysis unit 103 analyzes the monitoring camera video of the monitoring camera 101 to detect the presence or absence of a traveling obstacle in the video.

図2は、映像解析部103のブロック図を示す。映像解析部103は、物体抽出手段である物体抽出部201、物体認識手段である物体認識部202、避走検知手段である避走検知部203、走行障害物検知手段である走行障害物検知部204から構成される。以下に、映像解析部103を構成する各部の詳細を説明する。 FIG. 2 shows a block diagram of the video analysis unit 103. As shown in FIG. The video analysis unit 103 includes an object extraction unit 201 as object extraction means, an object recognition unit 202 as object recognition means, an escape detection unit 203 as escape detection means, and a traveling obstacle detection unit as traveling obstacle detection means. 204. Details of each unit constituting the video analysis unit 103 will be described below.

物体抽出部201は入力した監視カメラ映像とカメラ制御情報をもとに監視カメラ映像内に存在する物体の物体情報(物体が抽出された画像及び画像内での物体領域)を抽出する。 The object extraction unit 201 extracts object information (an image from which the object is extracted and an object area in the image) of an object present in the surveillance camera image based on the input surveillance camera image and camera control information.

図3は、物体抽出部201のブロック図を示す。物体抽出部201は背景差分処理部301、背景モデル生成部302、背景モデル記録部303、背景モデル間差分処理部304、物体判定処理部305から構成される。 FIG. 3 shows a block diagram of the object extraction unit 201. As shown in FIG. The object extraction unit 201 includes a background difference processing unit 301 , a background model generation unit 302 , a background model recording unit 303 , an inter-background model difference processing unit 304 , and an object determination processing unit 305 .

背景差分処理部301は、例えば、背景差分法を用いて映像内を移動する物体及び映像内に発生した物体の物体情報を抽出する。背景差分処理部301は監視カメラ101がある画角にて撮像を続けている途中に移動又は発生した障害物を物体として抽出する役割を担う。 The background subtraction processing unit 301 uses, for example, a background subtraction method to extract object information of an object moving within the image and an object occurring within the image. The background subtraction processing unit 301 has a role of extracting an obstacle that has moved or occurred while the monitoring camera 101 is continuously capturing an image at a certain angle of view as an object.

ここで障害物は、例えば車両より荷物などが道路に落下したことや、道路そのものの隆起や陥没、亀裂など、道路上に異常が発生することで車両の走行の妨げになりかねない状況であって、監視エリアである道路上の走行障害物となってしまう。 Obstacles here are situations that can hinder vehicle travel due to an abnormality on the road, such as a load dropped from a vehicle onto the road, or an abnormality on the road such as bumps, depressions, or cracks in the road itself. As a result, it becomes a traveling obstacle on the road, which is the monitoring area.

背景モデル生成部302は、監視カメラ映像内の背景のみの情報を表すモデルを作成することを目的としている。例えば、入力された監視カメラ映像の各フレームに対して、以下の式1に示す更新式を一定期間適用して得られた時間平滑化画像を背景モデルとする。 The background model generation unit 302 is intended to generate a model representing information only on the background in the surveillance camera video. For example, the background model is a time-smoothed image obtained by applying the update formula shown in Equation 1 below to each frame of the input monitor camera video for a certain period of time.

Figure 0007125843000001
ここで、Pavg(x,y)は時間平滑化画像の座標(x,y)における画素値、Pin(x,y)は監視カメラ映像のフレームの座標(x,y)における画素値、αは更新のための係数である。
Figure 0007125843000001
where Pavg(x, y) is the pixel value at coordinates (x, y) of the time-smoothed image, Pin(x, y) is the pixel value at coordinates (x, y) of the surveillance camera video frame, and α is Coefficient for update.

背景モデル記録部303は、背景モデル生成部302が生成した背景モデルを、カメラ制御情報に基づいて監視カメラ101が巡回する画角の通し番号と対応づけて記録する。また、背景モデル記録部303は、カメラ制御情報に基づいて現在の監視カメラ映像の画角に対応付けられた過去の巡回時に背景モデル生成部302が生成した1つ以上の背景モデルを出力する。 The background model recording unit 303 records the background model generated by the background model generating unit 302 in association with the serial number of the angle of view that the monitoring camera 101 tours based on the camera control information. In addition, the background model recording unit 303 outputs one or more background models generated by the background model generation unit 302 during past tours associated with the angle of view of the current surveillance camera image based on the camera control information.

背景モデル間差分処理部304は、背景モデル生成部302が生成した背景モデルと、背景モデル記録部303に記録された、入力された監視カメラ映像と同じ画角の映像から生成された過去の巡回時の背景モデルの差分から、過去の巡回時から再度同画角に巡回するまでの期間に発生した物体の物体情報を抽出する。背景モデル間差分処理部304は、監視カメラ101の画角変更後にその時点で映像内に存在する走行障害物を物体として抽出する役割を担う。 The inter-background model difference processing unit 304 uses the background model generated by the background model generation unit 302 and the past cyclic model generated from the image having the same angle of view as the input surveillance camera image recorded in the background model recording unit 303 . From the difference of the background model at the time, the object information of the object that occurred during the period from the past tour to the same angle of view again is extracted. The inter-background-model difference processing unit 304 plays a role of extracting a running obstacle existing in the image at that time as an object after the angle of view of the monitoring camera 101 is changed.

背景モデル間差分処理部304は、例えば、背景モデルが式1によって得られた時間平滑化画像であった場合、背景モデル生成部302から得られた現在の時間平滑化画像と、背景モデル記録部303に記録された1つ前の巡回時の時間平滑化画像のエッジ情報の差分を閾値処理することにより、物体の領域を得る。背景モデル間差分処理部304は、こうして得た物体領域と物体領域に対応する現在の時間平滑化画像とを、物体情報として出力する。 For example, when the background model is the temporally smoothed image obtained by Equation 1, the inter-background model difference processing unit 304 stores the current temporally smoothed image obtained from the background model generation unit 302 and the background model recording unit The area of the object is obtained by thresholding the difference of the edge information of the time-smoothed image recorded in 303 in the previous cycle. The inter-background model difference processing unit 304 outputs the object region thus obtained and the current time-smoothed image corresponding to the object region as object information.

物体判定処理部305は、背景差分処理部301と背景モデル間差分処理部304から得られた物体情報に対して後段の映像解析処理を行うかの判定を行う。例えば、物体領域の面積が一定以上であり、一定上のフレームで連続して抽出された物体領域の物体情報のみを解析対象として判定する。 The object determination processing unit 305 determines whether or not the object information obtained from the background difference processing unit 301 and the inter-background model difference processing unit 304 is subjected to subsequent image analysis processing. For example, only the object information of the object region whose area is equal to or larger than a certain amount and which is continuously extracted from frames above a certain amount is determined as the object of analysis.

図2の物体認識部202は、物体抽出部201によって得られた物体情報の特徴に基づいて物体の種別を識別する。 The object recognition unit 202 in FIG. 2 identifies the type of object based on the features of the object information obtained by the object extraction unit 201 .

図4に、物体認識部202のブロック図を示す。物体認識部202は、特徴抽出手段である特徴抽出部401、物体識別手段である物体識別部402、局所ブロック抽出部403、局所特徴抽出手段である局所特徴抽出部404、局所特徴学習手段である局所特徴学習部405、走行障害物判定手段である走行障害物判定部406から構成される。 FIG. 4 shows a block diagram of the object recognition unit 202. As shown in FIG. The object recognition unit 202 includes a feature extraction unit 401 as feature extraction means, an object identification unit 402 as object identification means, a local block extraction unit 403, a local feature extraction unit 404 as local feature extraction means, and a local feature learning unit. It is composed of a local feature learning section 405 and a traveling obstacle determination section 406 as traveling obstacle determination means.

特徴抽出部401は、物体情報から特徴量を算出する。ここで算出された1つまたは複数の特徴量の数値に基づいて、後段の物体識別部402は物体の種別を識別する。特徴量は例えば、物体領域の画素数、エッジ量、色、画面内の移動量などに基づいて算出される。 A feature extraction unit 401 calculates a feature amount from object information. Based on one or a plurality of numerical values of the feature amount calculated here, the subsequent object identification unit 402 identifies the type of the object. The feature amount is calculated based on, for example, the number of pixels in the object area, edge amount, color, movement amount within the screen, and the like.

物体識別部402は、特徴抽出部401から得た特徴量に基づき、物体を特定の種別又は走行障害物であるかの判定を後段の処理にて行う走行障害物候補として識別する。 Based on the feature quantity obtained from the feature extraction unit 401, the object identification unit 402 identifies the object as a traveling obstacle candidate for determining whether the object is of a specific type or a traveling obstacle in a subsequent process.

図5に、各物体に対する物体識別のフローチャートの例を示す。図5のフローチャートにおいては、物体を「車両」、「照明柱」、「走行障害物」と、それ以外の「走行障害物候補」と、に識別する場合のフローチャートを例としている。 FIG. 5 shows an example flow chart of object identification for each object. The flowchart of FIG. 5 is an example of a flowchart in which objects are classified into "vehicles", "lighting poles", "running obstacles", and other "running obstacle candidates".

ステップS101では、特徴抽出部401で得られた物体の特徴をもとに、その物体が「車両」であるかの判定処理を行う。判定は複数の特徴量を閾値処理して行っても良いし、事前にサンプル画像等を機械学習することによって作成した識別器を用いても良い。また、判定条件はカメラ制御情報に基づいてカメラ画角等の環境に応じて変更しても良い。 In step S101, based on the feature of the object obtained by the feature extraction unit 401, it is determined whether the object is a "vehicle". The determination may be performed by subjecting a plurality of feature amounts to threshold processing, or may be performed by using a discriminator created in advance by performing machine learning on a sample image or the like. Also, the determination condition may be changed according to the environment such as the angle of view of the camera based on the camera control information.

ステップS102にて「車両」の条件を満たすと判定された物体は、ステップS103にて「車両」として識別される。 An object determined to satisfy the condition of "vehicle" in step S102 is identified as "vehicle" in step S103.

ステップS104では、ステップS102にて「車両」でないと判定された物体が「照明柱」であるかの判定処理を行う。ステップS105にて「照明柱」の条件を満たすと判定された物体は、ステップS106にて「照明柱」として識別される。 In step S104, it is determined whether the object determined as not being a "vehicle" in step S102 is a "lighting pole". Objects that are determined to satisfy the condition of "illumination column" in step S105 are identified as "illumination column" in step S106.

ステップS107では、ステップS105にて「照明柱」でないと判定された物体が「走行障害物」であるかの判定処理を行う。ステップS108にて「走行障害物」の条件を満たすと判定された物体は、ステップS109にて「走行障害物」として識別される。 In step S107, it is determined whether or not the object determined as not being the "illumination column" in step S105 is the "moving obstacle". Objects that are determined to satisfy the condition of "traveling obstacle" in step S108 are identified as "traveling obstacles" in step S109.

ステップS110では「車両」、「照明柱」、「走行障害物」のどれにも判定されなかった物体を「走行障害物候補」として識別する。 In step S110, an object that is not determined as a "vehicle", "illumination pole", or "running obstacle" is identified as a "running obstacle candidate".

局所ブロック抽出部403は、物体情報から後段の処理によって解析を行う局所ブロック503の抽出を行う。局所ブロック503とは、通し番号によって監視カメラ画像内での領域を特定可能な、物体情報から抽出された画素ブロックである。 A local block extraction unit 403 extracts a local block 503 to be analyzed by subsequent processing from the object information. A local block 503 is a pixel block extracted from object information that can specify an area in the surveillance camera image by a serial number.

図6は、監視カメラ画像501における、物体領域502と局所ブロック503との関係を示している。図6では、物体領域502の内部に、1つの局所ブロック503を設けた例を示している。なお、局所ブロック503は1つの物体情報に対して1つ以上抽出することが可能である。この場合、局所ブロック503は、通し番号によって領域の特定が可能であれば、異なる複数のサイズ及び形状のものを用いても良いし、それらが重なり合っても良い。 FIG. 6 shows the relationship between an object region 502 and local blocks 503 in a surveillance camera image 501. As shown in FIG. FIG. 6 shows an example in which one local block 503 is provided inside an object region 502 . One or more local blocks 503 can be extracted for one piece of object information. In this case, the local blocks 503 may have a plurality of different sizes and shapes, or may overlap each other, as long as the area can be identified by the serial number.

局所特徴抽出部404は、局所ブロック抽出部403によって抽出された局所ブロック503のなかで、物体識別部402によって「走行障害物候補」として識別された物体情報に対応する局所ブロック503の特徴量を抽出する。局所ブロック503の特徴量を以下より局所特徴量と呼ぶ。局所特徴量には局所ブロック503内のエッジの向きや輝度の分散などに基づいて算出される数値や、特徴抽出部401によって算出された物体全体の特徴を用いることができる。 The local feature extraction unit 404 extracts the feature amount of the local block 503 corresponding to the object information identified by the object identification unit 402 as the “traveling obstacle candidate” among the local blocks 503 extracted by the local block extraction unit 403. Extract. The feature amount of the local block 503 is hereinafter referred to as a local feature amount. For the local feature amount, a numerical value calculated based on the direction of edges in the local block 503, the distribution of luminance, or the like, or the feature of the entire object calculated by the feature extraction unit 401 can be used.

局所特徴学習部405は、局所特徴抽出部404によって得られた特徴の学習を行う。学習は局所ブロック503の通し番号ごとに行われる。特徴の学習方法には、例えば、EM(Expectation Maximization)法による混合分布のパラメータ学習などを用いる。EM法を用いることにより、各局所ブロック503の特徴の傾向を、混合正規分布によって表現することが可能となる。学習結果は、カメラ制御情報に基づいて、画角変更する際に、監視カメラ101が巡回する画角に対応付けて記録される。学習の初期値には、前巡回時に記録された学習結果を用いることができる。 A local feature learning unit 405 learns the features obtained by the local feature extraction unit 404 . Learning is performed for each serial number of the local block 503 . As a feature learning method, for example, mixed distribution parameter learning by an EM (Expectation Maximization) method is used. By using the EM method, it becomes possible to express the tendency of the features of each local block 503 by a mixed normal distribution. The learning result is recorded in association with the angle of view that the monitoring camera 101 tours when changing the angle of view based on the camera control information. The learning results recorded during the previous round can be used as the initial values for learning.

走行障害物判定部406は、物体識別部402の識別結果と、局所特徴抽出部404から得られた「走行障害物候補」の局所特徴量と、局所特徴学習部405に記録された過去の「走行障害物候補」の学習結果とにより、物体が走行障害物であるかの判定を行う。 The traveling obstacle determination unit 406 uses the identification result of the object identification unit 402, the local feature amount of the “traveling obstacle candidate” obtained from the local feature extraction unit 404, and the past “ Whether the object is a traveling obstacle or not is determined based on the learning result of "candidate traveling obstacle".

図7に、走行障害物判定部406により実施される、各物体に対する走行障害物判定のフローチャートの例を示す。 FIG. 7 shows an example of a flow chart of the travel obstacle determination for each object, which is performed by the travel obstacle determination unit 406. In FIG.

ステップS201にて物体識別部402によって「走行障害物」として識別されたことが確認された物体は、ステップS202によって「走行障害物」として判定される。 An object identified as a "traveling obstacle" by the object identifying unit 402 in step S201 is determined as a "traveling obstacle" in step S202.

ステップS203にて物体識別部402によって「走行障害物候補」でないとして識別された物体は、ステップS204にて「走行障害物でない」と判定される。 An object identified as not being a "running obstacle candidate" by the object identifying unit 402 in step S203 is determined to be "not a running obstacle" in step S204.

ステップS205では、局所特徴学習部405の学習結果に基づいて、物体の各局所特徴量の尤度を算出する。 In step S<b>205 , the likelihood of each local feature amount of the object is calculated based on the learning result of the local feature learning unit 405 .

ステップS206では、各局所特徴量の尤度に基づいて物体が走行障害物であるかの判定処理を行う。例えば、物体情報から得られた全ての局所ブロック503のうち、閾値処理により尤度が設定値以上の局所ブロック503の数の割合が一定値以上である場合を走行障害物の条件とする。 In step S206, it is determined whether the object is a traveling obstacle based on the likelihood of each local feature amount. For example, the running obstacle condition is that the ratio of the number of local blocks 503 whose likelihood is greater than or equal to a set value by threshold processing out of all the local blocks 503 obtained from the object information is equal to or greater than a certain value.

ステップS207にて走行障害物の条件を満たすとされた物体は、ステップS202にて「走行障害物」として判定される。ステップS207にて走行障害物の条件を満たさないとされた物体は、ステップS204にて「走行障害物でない」と判定される。 An object that satisfies the traveling obstacle condition in step S207 is determined as a "traveling obstacle" in step S202. An object determined not to satisfy the traveling obstacle condition in step S207 is determined to be "not a traveling obstacle" in step S204.

上述した図7の走行障害物判定処理の効果を、以下に説明する。 The effect of the traveling obstacle determination process of FIG. 7 described above will be described below.

物体認識部202では、まず、特徴抽出部401と物体識別部402とによって、物体の種別の識別を行う。上述した通り、走行障害物には様々な種類の物体が想定されるため、その特徴から条件によって走行障害物を識別することは困難である場合が多い。そのため、物体認識部202は、その特徴から「走行障害物」であること又は「走行障害物でない」ことの判定が出来ない物体を、「走行障害物候補」として識別し、その判定処理を後段で行うこととした。「走行障害物候補」として識別される物体には、走行障害物以外にも、例えば環境条件の変化等によって抽出された背景の一部分や影、ライトの反射等が挙げられる。これらは、走行障害物と同様に様々な場合が想定されるため、その特徴のみから物体の種別を特定することは困難である。 In the object recognition unit 202 , the type of object is first identified by the feature extraction unit 401 and the object identification unit 402 . As described above, various types of objects are assumed to be traveling obstacles, so it is often difficult to identify traveling obstacles depending on their characteristics and conditions. Therefore, the object recognizing unit 202 identifies an object that cannot be determined as a "running obstacle" or "not a running obstacle" from its characteristics as a "running obstacle candidate", and performs the determination process at a later stage. I decided to do it with Objects identified as "traveling obstacle candidates" include, in addition to traveling obstacles, part of the background, shadows, light reflections, etc. extracted due to changes in environmental conditions, for example. As with the obstacles on the road, various cases are conceivable, so it is difficult to specify the type of the object only from its characteristics.

そこで、物体認識部202では、局所ブロック抽出部403、局所特徴抽出部404、局所特徴学習部405によって、物体識別部402に「走行障害物候補」として識別された物体の局所特徴量の学習を行っている。局所特徴量の学習は交通流監視カメラ101が巡回する画角の局所ブロック503ごとに行う。つまり、任意の画角の任意の領域にどのような特徴を持った「走行障害物候補」が抽出されるかを学習している。一般的に、監視カメラ101の映像内に走行障害物が発生することは多くなく、「走行障害候補」として識別されるものの大半は誤検知の要因となる背景部分である。よって、物体認識部202による物体認識処理は、画角ごとに、誤報の要因となった物体情報の位置と特徴が主に学習される。走行障害物判定部406は局所特徴量の学習結果に基づいて、過去に学習した局所特徴量に近い局所特徴量を多く持つ物体を走行障害物でないと判定し、それ以外を走行障害物として判定する。 Therefore, in the object recognition unit 202, the local block extraction unit 403, the local feature extraction unit 404, and the local feature learning unit 405 learn the local feature amount of the object identified by the object identification unit 402 as a “traveling obstacle candidate”. Is going. Learning of the local feature amount is performed for each local block 503 of the angle of view that the traffic flow monitoring camera 101 tours. In other words, it learns what kind of features a "moving obstacle candidate" has in an arbitrary area of an arbitrary angle of view. In general, it is rare for a running obstacle to appear in the image of the surveillance camera 101, and most of what is identified as a "running obstacle candidate" is a background portion that causes erroneous detection. Therefore, in the object recognition processing by the object recognition unit 202, the position and characteristics of the object information that caused the false alarm are mainly learned for each angle of view. Based on the learning result of the local feature amount, the traveling obstacle determination unit 406 determines that an object having many local feature amounts close to the local feature amount learned in the past is not a traveling obstacle, and determines other objects as a traveling obstacle. do.

物体認識部202による物体認識処理により、物体の特徴によって走行障害物であることの判定ができなくとも、誤報の要因となる物体情報の傾向を学習することにより、誤報を抑制しながら走行障害物を検知することが可能となる。 Through the object recognition processing by the object recognition unit 202, even if it is not possible to determine that the object is a running obstacle based on the features of the object, by learning the tendency of the object information that causes false alarms, it is possible to detect the obstacle while suppressing false alarms. can be detected.

図2の避走検知部203は、物体抽出部201によって得られた物体情報に基づいて、物体が車両で有った場合に、その車両が監視カメラ映像内で避走したかどうかの判定を行う。 Based on the object information obtained by the object extraction unit 201, the escape detection unit 203 in FIG. 2 determines whether or not the vehicle has escaped in the monitoring camera image when the object is a vehicle. conduct.

図8に、避走検知部203のブロック図を示す。避走検知部203は、物体追跡手段である物体追跡部601、車両選別手段である車両選別部602、動き学習手段である動き情報学習部603、避走判定部604から構成される。 FIG. 8 shows a block diagram of the escape detection unit 203. As shown in FIG. The avoidance detection unit 203 is composed of an object tracking unit 601 as object tracking means, a vehicle selection unit 602 as vehicle selection means, a motion information learning unit 603 as motion learning means, and an escape determination unit 604 .

物体追跡部601は、監視カメラ映像内に存在する移動体の追跡を行う。物体追跡部601は、例えば、KLT(Kanade-Lucas-Tomasi)トラッカー等によるフレーム間の特徴点の対応付けによる物体追跡を行う。新規特徴点は物体領域内から抽出するものとし、その特徴点が消失する又は静止する等の追跡終了の条件を満たすまで追跡を行う。このような物体追跡の処理を行うことにより、画面内を移動する各特徴点の軌跡を求めることが出来る。各特徴点の軌跡をその位置や移動方向、特徴点が得られた物体領域等の情報に基づいてクラスタリングすることにより、監視カメラ映像内を移動する物体の動きを表す複数のクラスタを求めることができる。 An object tracking unit 601 tracks a moving object existing in the surveillance camera image. The object tracking unit 601 performs object tracking by associating feature points between frames using, for example, a KLT (Kanade-Lucas-Tomasi) tracker. A new feature point is extracted from within the object region, and tracking is continued until the tracking end condition is met, such as the feature point disappearing or becoming stationary. By performing such object tracking processing, the trajectory of each feature point moving within the screen can be obtained. By clustering the trajectory of each feature point based on information such as the position, moving direction, and object area where the feature point was obtained, it is possible to obtain multiple clusters that represent the movement of the object moving in the surveillance camera image. can.

車両選別部602は、物体追跡部601で得た特徴点の軌跡のクラスタから車両に相当するクラスタの選別を行う。例えば、物体の画面内の移動速度、サイズ、特徴点の数、追跡された期間等の条件をもとに車両である条件を設定し、その条件を満たす物体のクラスタを車両の動き情報として選別する。 A vehicle selection unit 602 selects clusters corresponding to vehicles from the clusters of the trajectory of the feature points obtained by the object tracking unit 601 . For example, based on the moving speed, size, number of feature points, tracked period, etc. of the object on the screen, conditions for being a vehicle are set, and clusters of objects that satisfy the conditions are selected as vehicle motion information. do.

動き情報学習部603は、監視カメラ映像をブロックに分割し、ブロック単位で車両の動きの学習を行う。学習する対象には、例えば、車両の移動方向等が挙げられる。図9は、動き情報の学習の流れ示す図であり、図9の(a)(b)(c)及び(d)を用いて、動き情報の学習の流れを説明する。 A motion information learning unit 603 divides the surveillance camera image into blocks and learns the motion of the vehicle in units of blocks. Examples of objects to be learned include the moving direction of the vehicle. FIG. 9 is a diagram showing the flow of motion information learning, and the flow of motion information learning will be described using (a), (b), (c), and (d) of FIG.

まず、動き情報学習部603は車両の追跡結果をもとに、一定期間に発生した車両の特徴点の軌跡を得る。図9の(a)において、画像701は一定期間に発生した特徴点の軌跡の結果を示す。画像702は一定期間に発生した特徴点の軌跡を表している。図9の(b)において、画像703は画像701をブロック単位に分割した例を示す。図9の(c)において、画像704は各ブロック内を通過した軌跡の総和を求めた結果を示す。各ブロックにおける軌跡の総和は、例えば、以下の式2によって求めることができる。 First, the motion information learning unit 603 obtains the trajectory of the feature points of the vehicle generated during a certain period based on the tracking result of the vehicle. In (a) of FIG. 9, an image 701 shows the result of the trajectory of feature points generated over a certain period of time. An image 702 represents the trajectory of feature points generated during a certain period of time. In (b) of FIG. 9, an image 703 shows an example in which the image 701 is divided into blocks. In (c) of FIG. 9, an image 704 shows the result of calculating the total sum of trajectories passing through each block. The total sum of trajectories in each block can be obtained, for example, by Equation 2 below.

Figure 0007125843000002
ここでdtmp(i,j)は一定期間内に座標のブロックを通過した軌跡の総和を示す方向ベクトルである。Nは特徴点の軌跡の総数、nは特徴点の軌跡の通し番号を表す。Mnはn番目の軌跡に対して追跡が行われたフレーム数であり、mは追跡が開始された時点からのフレーム数を表す。p(n,m)はn番目に対して追跡が開始されてからm番目のフレームでの特徴点の位置を示すベクトルである。B(i,j)は座標(i,j)のブロックの領域を示している。if(X,Y,Z)は条件Xを満たした際には値Yを、それ以外の場合は値Zを返す関数である。
Figure 0007125843000002
Here, d tmp (i, j) is a direction vector indicating the total sum of trajectories passing through the coordinate block within a certain period. N is the total number of feature point trajectories, and n is the serial number of the feature point trajectories. M n is the number of frames tracked for the n-th trajectory, and m represents the number of frames from the start of tracking. p(n,m) is a vector indicating the position of the feature point in the m-th frame after tracking is started for the n-th. B(i,j) indicates the area of the block with coordinates (i,j). if(X, Y, Z) is a function that returns a value Y when the condition X is satisfied, and a value Z otherwise.

図9の(d)において、画像705は画像704の結果を用いて更新された、各ブロックの軌跡の方向の学習結果を示す。例えば、学習結果の更新には、以下の式3を用いることができる。 In (d) of FIG. 9, image 705 shows the learning result of the trajectory direction of each block, updated using the result of image 704 . For example, Equation 3 below can be used to update the learning result.

Figure 0007125843000003
ここで、d(i,j)は座標(i,j)のブロックにおける車両の移動方向の傾向を示す方向ベクトルである。αは更新のための係数である。
Figure 0007125843000003
Here, d(i,j) is a directional vector indicating the tendency of the moving direction of the vehicle in the block of coordinates (i,j). α is the coefficient for updating.

学習結果はカメラ制御情報に基づいて、監視カメラ101が巡回する画角に対応付けて記録される。 Based on the camera control information, the learning result is recorded in association with the angle of view that the monitoring camera 101 tours.

避走判定部604は、動き情報学習部603の学習結果に基づいて、車両の動き情報から車両の避走を数値化して抽出し、避走検知処理を行う。避走量は、例えば、以下の式4によって求めることができる。 Based on the learning result of the motion information learning unit 603, the avoidance determination unit 604 quantifies and extracts the avoidance of the vehicle from the vehicle motion information, and performs escape detection processing. The avoidance amount can be obtained by, for example, Equation 4 below.

Figure 0007125843000004
ここで、avdは車両の避走量を表す数値である。Lは析対象の車両のクラスタが持つ特徴点の軌跡の総数であり、lは特徴点の軌跡の通し番号である。Mはn番目の軌跡に対して追跡が行われたフレーム数であり、mは追跡が開始された時点からのフレーム数を表す。p(n、m)はn番目に対して追跡が開始されてからm番目のフレームでの特徴点の位置を示すベクトルである。d(ilm、jlm)は動き情報学習部603によって得られた、座標(i,j)のブロックにおける車両の移動方向の傾向を示す方向ベクトルである。ilm及びjlmは特徴点の位置p(l,m)が含まれるブロックの座標を示す。inner(a,b)はベクトルaとベクトルbの内積を返す関数である。Mは、以下の式5に示される回転行列である。
Figure 0007125843000004
Here, avd is a numerical value representing the avoidance amount of the vehicle. L is the total number of feature point trajectories possessed by the vehicle cluster to be analyzed, and l is the serial number of the feature point trajectories. Mn is the number of frames tracked for the nth trajectory, and m represents the number of frames from the time the tracking started. p(n, m) is a vector indicating the position of the feature point in the m-th frame after tracking is started for the n-th. d(i lm , j lm ) is a directional vector obtained by the motion information learning unit 603 and indicating the tendency of the moving direction of the vehicle in the block of coordinates (i, j). i lm and j lm indicate the coordinates of the block containing the feature point position p(l,m). inner(a,b) is a function that returns the inner product of vector a and vector b. M is the rotation matrix shown in Equation 5 below.

Figure 0007125843000005
式4で得られた車両の避走量avdを閾値処理し、閾値を超えた避走量を持つ車両を避走した車両として検知する。
Figure 0007125843000005
The avoidance amount avd of the vehicle obtained by Equation 4 is subjected to threshold processing, and a vehicle having an avoidance amount exceeding the threshold is detected as a vehicle that has escaped.

上述した避走検知処理の効果を以下に説明する。 The effect of the escape detection process described above will be described below.

避走検知処理は、車両が走行障害物を避ける動作(車両の走行方向の異常な動作)から走行障害物の存在を推定するために用いられている。避走検知処理により、走行障害物が構造物に隠れるなどして監視カメラ101に撮像されていない場合にも、走行障害物を検知することが可能となる。 The avoidance detection process is used to estimate the presence of a traveling obstacle from the action of the vehicle avoiding the obstacle (abnormal action in the traveling direction of the vehicle). By the avoidance detection process, it is possible to detect a traveling obstacle even when the obstacle is not captured by the monitoring camera 101 because it is hidden by a structure or the like.

避走検知処理は、監視カメラ映像をブロックに分割し、監視カメラ101の巡回する画角ごとにブロック単位で車両の動きを学習することを特徴としている。避走検知処理は、例えば、車線の方向を監視カメラの画角ごとに指定するなどの、避走検知に必要な調整が不要となる利点がある。 The avoidance detection process is characterized by dividing the surveillance camera image into blocks and learning the movement of the vehicle in block units for each angle of view of the surveillance camera 101 circulating. The avoidance detection process has the advantage of not requiring adjustments necessary for escape detection, such as designating the direction of the lane for each angle of view of the surveillance camera.

上述した避走検知処理の説明では、車両の移動方向のみの学習を行ったが、ブロック単位で車両の避走量を学習しても良い。車両の避走量の平均値を学習により取得し、避走量をその平均値で正規化した値によって避走検知することにより、撮影条件や撮影場所等の違いによる避走量のばらつきの影響を軽減することができる。 In the above explanation of the avoidance detection process, only the moving direction of the vehicle is learned, but the amount of escape of the vehicle may be learned in units of blocks. By learning the average value of the escape distance of the vehicle and detecting the escape distance based on the value normalized by the average value, the influence of variations in the escape distance due to differences in shooting conditions and shooting locations. can be reduced.

走行障害物検知部204は、物体認識部202の物体識別結果及び避走検知部203の避走検知結果から走行障害物の存在を検知する。走行障害物検知部204は、監視カメラ映像内の物体領域が重なり合う位置に設定したフレーム数にわたって、物体認識部202によって走行障害物として判定された物体が検出された場合に、走行障害物を検知する。走行障害物検知部204は、また、避走検知部203の避走検知結果から設定した期間内に設定した台数以上の車両が避走した場合、又は設定した台数の監視カメラ映像内を通過する車両のなかで設定した台数以上の車両が避走した場合に、走行障害物を検知する。 A traveling obstacle detection unit 204 detects the presence of a traveling obstacle from the object identification result of the object recognition unit 202 and the escape detection result of the escape detection unit 203 . A running obstacle detection unit 204 detects a running obstacle when an object determined as a running obstacle by the object recognition unit 202 is detected over a set number of frames at positions where object regions in the surveillance camera video overlap. do. The traveling obstacle detection unit 204 also detects when more than a set number of vehicles make an escape within a period set from the escape detection result of the escape detection unit 203, or when the set number of vehicles pass through the monitoring camera video. When more than a set number of vehicles in the vehicle run away, obstacles are detected.

情報出力部104は、映像解析部103による走行障害物の検知結果を情報表示板等の他の機器及びシステムに向けて出力する。出力する情報には、走行障害物検知の有無だけでなく、物体認識処理と避走検知処理のどちらの処理による走行障害物検知であるかの情報等に基づいて算出した、走行障害物検知の確度の情報を含めても良い。 The information output unit 104 outputs the detection result of the traveling obstacle by the video analysis unit 103 to other devices and systems such as an information display board. The information to be output includes not only the presence or absence of traveling obstacle detection, but also information on whether traveling obstacle detection is performed by object recognition processing or escape detection processing. Accuracy information may be included.

上述した実施例の構成をまとめと、以下である。 The configuration of the embodiment described above is summarized below.

走行障害検知システムは、旋回/ズーム機能を持つPTZタイプの監視カメラ101と、監視カメラ101が複数の画角を巡回して撮像するよう制御するカメラ制御部102と、監視カメラ映像とカメラ制御情報(監視カメラを制御するための旋回/ズームの設定値及び監視カメラが巡回する画角の通し番号)に基づいて走行障害物の有無を検知する映像解析部103と、を有する。走行障害検知システムは、さらに、映像解析部103からの走行障害物の検知結果を他の表示機器に向けて出力する情報出力部104、を有する。 The running obstacle detection system includes a PTZ type surveillance camera 101 with a turning/zoom function, a camera control unit 102 that controls the surveillance camera 101 to rotate and capture images from a plurality of angles of view, surveillance camera images and camera control information. and a video analysis unit 103 that detects the presence or absence of obstacles on the road based on (setting values of turning/zooming for controlling the monitoring camera and the serial number of the angle of view that the monitoring camera tours). The running obstacle detection system further includes an information output unit 104 that outputs the detection result of the running obstacle from the video analysis unit 103 to another display device.

映像解析部103は、入力した監視カメラ映像とカメラ制御情報をもとに監視カメラ映像内に存在する物体の物体情報(物体が抽出された画像及び画像内での物体領域)を抽出する物体抽出部201と、カメラ制御情報と物体抽出部201によって得られた物体情報の特徴に基づいて物体の種別を識別する物体認識部202と、を有する。映像解析部103は、さらに、カメラ制御情報と物体抽出部201によって得られた物体情報から映像内の車両の避走(車線変更など車両が走行障害物を避ける際にすると思われる走行)を検知する避走検知部203と、物体認識部202によって得られた物体識別結果と避走検知部203によって得られた避走検知結果に基づいて走行障害物の検知を行う走行障害物検知部204と、を有する。 The video analysis unit 103 extracts object information (image from which the object is extracted and the object area in the image) of an object existing in the monitoring camera video based on the input monitoring camera video and camera control information. and an object recognition unit 202 that identifies the type of object based on the camera control information and the features of the object information obtained by the object extraction unit 201 . The video analysis unit 103 further detects the avoidance run of the vehicle in the video from the camera control information and the object information obtained by the object extraction unit 201 (driving that the vehicle seems to do when avoiding obstacles such as changing lanes). and a traveling obstacle detection unit 204 that detects traveling obstacles based on the object identification result obtained by the object recognition unit 202 and the escape detection result obtained by the escape detection unit 203. , has

映像解析部103の有する物体抽出部201は、監視カメラ映像から監視カメラ映像内を移動する物体及び監視カメラ映像内に発生した物体の領域及び画素値を抽出する背景差分処理部301と、監視カメラ映像から背景モデル(監視カメラ映像内を移動する物体以外の背景部分の状態を表すモデル)を生成する背景モデル生成部302と、を有する。物体抽出部201は、さらに、背景モデル生成部302で生成された背景モデルを記録しカメラ制御情報に基づいて記録した1つ以上の背景モデルを出力する背景モデル記録部303と、背景モデル生成部302で生成された背景モデルと背景モデル記録部303に記録された背景モデルから監視カメラ映像内に存在する静止した物体の領域及び画素値を抽出する背景モデル間差分処理部304と、を有する。物体抽出部201は、また、背景差分処理部301と背景モデル間差分処理部304にて抽出された物体の領域及び画素値から解析対象とする物体を判定して物体情報として出力する物体判定処理部305と、を有する。 The object extraction unit 201 included in the image analysis unit 103 includes a background difference processing unit 301 that extracts the area and pixel value of an object that moves within the surveillance camera image and that occurs in the surveillance camera image from the surveillance camera image, and a background model generation unit 302 for generating a background model (a model representing the state of the background portion other than the object moving in the surveillance camera image) from the image. The object extraction unit 201 further includes a background model recording unit 303 that records the background model generated by the background model generation unit 302 and outputs one or more background models recorded based on the camera control information, and a background model generation unit. It has a background model difference processing unit 304 that extracts the area and pixel value of a stationary object existing in the surveillance camera image from the background model generated in 302 and the background model recorded in the background model recording unit 303. The object extraction unit 201 also performs object determination processing for determining an object to be analyzed from the object area and pixel values extracted by the background difference processing unit 301 and the inter-background model difference processing unit 304, and outputting the object as object information. and a part 305 .

映像解析部103の有する物体認識部202は、物体抽出部201から得られた物体情報から物体を識別するための1つ以上の特徴量を抽出する特徴抽出部401と、カメラ制御情報と特徴抽出部401にて得られた特徴量に基づいて物体を走行障害物又は1つ以上の特定の種別又は走行障害物候補として識別する物体識別部402と、を有する。物体認識部202は、さらに、物体識別部402にて走行障害物候補として識別された物体の物体情報の局所的な特徴を抽出する局所特徴抽出部404と、カメラ制御情報と局所特徴抽出部404によって得られた局所特徴量に基づいて監視カメラが巡回する各画角にて抽出される走行障害物候補の物体の特徴を学習(入力した特徴の傾向を得ること)する局所特徴学習部405と、を有する。物体認識部202は、さらに、物体識別部402から得た物体識別結果と局所特徴抽出部404から得た局所特徴量と局所特徴学習部405から得た局所特徴学習結果に基づいて物体が走行障害物であるかを判定する走行障害物判定部406と、を有する。 The object recognition unit 202 included in the video analysis unit 103 includes a feature extraction unit 401 for extracting one or more feature amounts for identifying an object from the object information obtained from the object extraction unit 201, camera control information and feature extraction. and an object identification unit 402 for identifying an object as a traveling obstacle or one or more specific types or traveling obstacle candidates based on the feature amount obtained in the unit 401 . The object recognition unit 202 further includes a local feature extraction unit 404 for extracting local features of the object information of the object identified as a traveling obstacle candidate by the object identification unit 402, and a camera control information and the local feature extraction unit 404. A local feature learning unit 405 that learns (obtains the tendency of the input feature) the feature of the object of the traveling obstacle candidate extracted at each angle of view that the surveillance camera tours based on the local feature amount obtained by , has The object recognition unit 202 further determines whether the object is a running obstacle based on the object identification result obtained from the object identification unit 402, the local feature amount obtained from the local feature extraction unit 404, and the local feature learning result obtained from the local feature learning unit 405. and a traveling obstacle determination unit 406 that determines whether the object is an object.

映像解析部103の有する避走検知部203は、物体抽出部201から得られた物体情報に基づいて監視カメラ映像内の物体を複数フレームにわたって追跡する物体追跡部601と、物体追跡部601にて追跡された物体から動き解析の対象とする車両を選別する車両選別部602と、を有する。避走検知部203は、さらに、カメラ制御情報と車両選別部602によって得られた車両の動き情報に基づいて監視カメラ101が巡回する各画角での車両の動きを学習(入力した動き方の傾向を得ること)する動き情報学習部603と、車両選別部602で得られた車両の動き情報と動き情報学習部603によって得られた動き情報学習結果に基づいて車両が避走したかを判定する避走判定部604と、を有する。 The escape detection unit 203 included in the image analysis unit 103 includes an object tracking unit 601 that tracks an object in the surveillance camera image over a plurality of frames based on the object information obtained from the object extraction unit 201, and the object tracking unit 601 and a vehicle selection unit 602 for selecting a vehicle for motion analysis from the tracked object. The avoidance detection unit 203 further learns the movement of the vehicle at each angle of view that the surveillance camera 101 circulates based on the camera control information and the vehicle movement information obtained by the vehicle selection unit 602. A motion information learning unit 603 that acquires a tendency), and based on the vehicle motion information obtained by the vehicle selection unit 602 and the motion information learning result obtained by the motion information learning unit 603, it is determined whether the vehicle has run away. and a avoidance determination unit 604 .

また、本発明の実施例によれば、道路上を単一又は複数の画角で撮影する撮影手段と、前記撮影手段から取り込まれた映像から道路上に発生した物体の領域と画素値を抽出する物体抽出手段と、前記物体抽出手段によって取得された物体の領域と画素値から、道路上の物体を追跡する物体追跡手段と、前記物体追跡手段によって追跡された物体のなかから車両のみを選別する車両選別手段と、前記車両選別手段によって得られた車両の追跡結果から算出された基準値を、撮影された画角と画面内の位置とで対応付けて記録する動き学習手段と、前記車両選別手段によって得られた車両の追跡結果と前記動き学習手段によって記録された基準値に基づいて、映像内に存在する車両の走行方向の異常を検知する異常車両検知手段と、を有する。 Further, according to the embodiment of the present invention, there are provided a photographing means for photographing the road at a single or a plurality of angles of view, and extracting the area and pixel value of the object generated on the road from the image captured by the photographing means. an object extraction means for tracking an object on the road from the area and pixel values of the object acquired by the object extraction means; and only a vehicle is selected from the objects tracked by the object tracking means. movement learning means for recording the reference value calculated from the tracking result of the vehicle obtained by the vehicle selection means in association with the photographed angle of view and the position in the screen; and the vehicle Abnormal vehicle detection means for detecting an abnormality in the running direction of a vehicle present in the image based on the tracking result of the vehicle obtained by the selection means and the reference value recorded by the motion learning means.

また、本発明の実施例によれば、道路上を単一又は複数の画角で撮影する撮影手段と、あらかじめ撮影された道路上の所定の路面情報を記憶する路面情報記憶手段と、前記撮影手段から取り込まれた映像と前記路面情報記憶手段に記憶された所定の路面情報とを比較し、該比較結果より道路上に発生した異常の領域と画素値を抽出する異常抽出手段と、画角と映像内の位置ごとに設定された判定基準に基づいて、前記異常抽出手段によって取得された異常の領域と画素値をブロックに分割して局所特徴量から、異常の種別を識別する異常認識手段と、前記異常認識手段によって取得された異常の種別の情報から映像内に発生した路面の異常の有無を走行障害物として検知する障害物検知手段と、を有する。 Further, according to the embodiment of the present invention, a photographing means for photographing a road at a single or a plurality of angles of view, a road surface information storage means for storing predetermined road surface information on the road photographed in advance, and anomaly extracting means for comparing an image fetched from the means with predetermined road surface information stored in the road surface information storage means, and extracting an area of an abnormality occurring on the road and a pixel value from the comparison result; and abnormality recognition means for identifying the type of abnormality from the local feature amount by dividing the abnormal region and pixel value obtained by the abnormality extraction means into blocks based on the determination criteria set for each position in the image. and obstacle detection means for detecting the presence or absence of a road surface abnormality occurring in the image as a running obstacle based on the abnormality type information acquired by the abnormality recognition means.

上記走行障害物検知等、走行障害検知システム1によれば、屋外に設置されたPTZタイプの監視カメラによって、監視エリア内に発生した落下物等の路面異常を効率的に自動検知することが可能となる。 According to the above travel obstacle detection system 1, it is possible to efficiently and automatically detect road surface abnormalities such as falling objects that have occurred in the surveillance area using a PTZ type surveillance camera installed outdoors. becomes.

以上、本発明者によってなされた発明を実施例に基づき具体的に説明したが、本発明は、上記実施形態および実施例に限定されるものではなく、種々変更可能であることはいうまでもない。 Although the invention made by the present inventor has been specifically described above based on the examples, it goes without saying that the invention is not limited to the above-described embodiments and examples, and can be variously modified. .

1:走行障害検知システム
101:監視カメラ
102:カメラ制御部
103:映像解析部
104:情報出力部
201:物体抽出部
202:物体認識部
203:避走検知部
204:走行障害物検知部
301:背景差分処理部
302:背景モデル生成部
303:背景モデル記録部
304:背景モデル間差分処理部
305:物体判定処理部
401:特徴抽出部
402:物体識別部
403:局所ブロック抽出部
404:局所特徴抽出部
405:局所特徴学習部
406:走行障害物判定部
601:物体追跡部
602:車両選別部
603:動き情報学習部
604:避走判定部
1: Running obstacle detection system 101: Surveillance camera 102: Camera control unit 103: Video analysis unit 104: Information output unit 201: Object extraction unit 202: Object recognition unit 203: Escape detection unit 204: Travel obstacle detection unit 301: Background difference processing unit 302: background model generation unit 303: background model recording unit 304: inter-background model difference processing unit 305: object determination processing unit 401: feature extraction unit 402: object identification unit 403: local block extraction unit 404: local features Extraction unit 405: Local feature learning unit 406: Traveling obstacle determination unit 601: Object tracking unit 602: Vehicle selection unit 603: Motion information learning unit 604: Avoidance determination unit

Claims (3)

監視エリアを単一又は複数の画角で撮影する撮影手段と、
前記撮影手段から取り込まれた映像から監視エリアに発生した物体の領域と画素値を抽出する物体抽出手段と、
画角と映像内の位置ごとに設定された判定基準に基づいて、前記物体抽出手段によって取得された物体の領域と画素値をブロックに分割して局所特徴量から、物体の種別を識別する物体認識手段と、
前記撮影手段から取り込まれた映像と前記物体抽出手段によって得られた物体の領域と画素値から前記撮影手段から取り込まれた映像内の車両の避走を検知する避走検知手段と、
前記物体認識手段によって取得された物体の種別の情報と前記避走検知手段によって得られた避走検知結果に基づいて前記撮影手段から取り込まれた映像内に発生した障害物の有無を検知する障害物検知手段と、を有
前記物体認識手段は、
前記物体抽出手段によって得られた物体の領域と画素値から物体を識別するための1つ以上の特徴量を抽出する特徴抽出手段と、
前記特徴抽出手段にて得られた特徴量に基づいて物体を障害物又は1つ以上の特定の種別又は障害物候補として識別する物体識別手段と、
前記物体識別手段にて障害物候補として識別された物体の領域と画素値をブロックに分割し、各ブロックに対して1つ以上の特徴量を抽出する局所特徴抽出手段と、
前記局所特徴抽出手段によって得られた局所特徴量から障害物としての判定基準を算出する局所特徴学習手段と、
前記局所特徴学習手段によって得た判定基準から、前記物体識別手段によって障害物候補として識別された物体が障害物であるかの判定を行う障害物判定手段と、を有し
前記障害物候補として識別された物体が障害物であるかの判定の結果は、前記物体の種別の情報として前記障害物検知手段へ入力される、
ことを特徴とする障害検知システム。
a photographing means for photographing a surveillance area with a single or multiple angles of view;
an object extracting means for extracting an area and pixel values of an object generated in a monitoring area from the image captured by the photographing means;
Based on the determination criteria set for each angle of view and position in the image, the object region and pixel values obtained by the object extraction means are divided into blocks, and the type of the object is identified from the local feature amount. a recognition means;
escape detection means for detecting the avoidance of the vehicle in the image captured by the image capture means from the image captured by the image capture means and the area and pixel value of the object obtained by the object extraction means;
An obstacle that detects the presence or absence of an obstacle occurring in the image captured by the photographing means based on the information on the type of the object acquired by the object recognition means and the escape detection result obtained by the escape detection means. and object detection means,
The object recognition means is
feature extracting means for extracting one or more feature quantities for identifying an object from the object area and pixel values obtained by the object extracting means;
object identification means for identifying an object as an obstacle or one or more specific types or obstacle candidates based on the feature amount obtained by the feature extraction means;
local feature extracting means for dividing the area and pixel values of the object identified as an obstacle candidate by the object identifying means into blocks and extracting one or more feature amounts for each block;
local feature learning means for calculating a criterion for determining an obstacle from the local feature amount obtained by the local feature extraction means;
an obstacle determination means for determining whether an object identified as an obstacle candidate by the object identification means is an obstacle based on the determination criteria obtained by the local feature learning means ;
A result of determination as to whether the object identified as the obstacle candidate is an obstacle is input to the obstacle detection means as information on the type of the object;
A failure detection system characterized by:
請求項1に記載の障害検知システムにおいて、
前記物体抽出手段によって取得された物体の領域と画素値から、監視エリアの物体を追跡する物体追跡手段と、
前記物体追跡手段によって追跡された物体のなかから車両のみを選別する車両選別手段と、
前記車両選別手段によって得られた車両の追跡結果から算出された基準値を、撮影された画角と画面内の位置とで対応付けて記録する動き学習手段と、
前記車両選別手段によって得られた車両の追跡結果と前記動き学習手段によって記録された基準値に基づいて、映像内に存在する車両の走行方向の異常を検知する避走検知手段と、
前記避走検知手段による避走検知の頻度から障害物の発生を検知する障害物検知手段と、を有する、
ことを特徴とする障害検知システム。
In the failure detection system according to claim 1,
an object tracking means for tracking an object in a monitoring area from the area and pixel values of the object obtained by the object extraction means;
vehicle selection means for selecting only vehicles from among the objects tracked by the object tracking means;
a motion learning means for recording the reference value calculated from the tracking result of the vehicle obtained by the vehicle selection means in association with the photographed angle of view and the position in the screen;
escape detection means for detecting an abnormality in the running direction of a vehicle present in an image based on the tracking result of the vehicle obtained by the vehicle selection means and the reference value recorded by the motion learning means;
an obstacle detection means for detecting the occurrence of an obstacle from the frequency of escape detection by the escape detection means;
A failure detection system characterized by:
監視エリアを単一又は複数の画角で撮影する撮影手段と、
前記撮影手段から取り込まれた映像から監視エリアに発生した物体の領域と画素値を抽出する物体抽出手段と、
前記物体抽出手段によって取得された物体の領域と画素値から、監視エリアの物体を追跡する物体追跡手段と、
前記物体追跡手段によって追跡された物体のなかから車両のみを選別する車両選別手段と、
前記車両選別手段によって得られた車両の追跡結果から算出された基準値を、撮影された画角と画面内の位置とで対応付けて記録する動き学習手段と、
前記車両選別手段によって得られた車両の追跡結果と前記動き学習手段によって記録された基準値に基づいて、映像内に存在する車両の走行方向の異常を検知する異常車両検知手段と、
前記物体抽出手段によって取得された物体の領域と画素値から特徴量を算出し、算出された特徴量に基づいて、物体の種別、又は走行障害物であるかの判定を後段の処理にて行う走行障害物候補として識別する物体認識部と、
前記物体認識部の物体識別結果、及び、前記異常車両検知手段の検知した車両の走行方向の異常から走行障害物の存在を検知する走行障害物検知部と、を有する、
ことを特徴とする障害検知システム。
a photographing means for photographing a surveillance area with a single or multiple angles of view;
an object extracting means for extracting an area and pixel values of an object generated in a monitoring area from the image captured by the photographing means;
an object tracking means for tracking an object in a monitoring area from the area and pixel values of the object obtained by the object extraction means;
vehicle selection means for selecting only vehicles from among the objects tracked by the object tracking means;
a motion learning means for recording the reference value calculated from the tracking result of the vehicle obtained by the vehicle selection means in association with the photographed angle of view and the position in the screen;
Abnormal vehicle detection means for detecting an abnormality in the running direction of a vehicle existing in an image based on the vehicle tracking result obtained by the vehicle selection means and the reference value recorded by the motion learning means;
A feature amount is calculated from the area and pixel values of the object acquired by the object extraction means, and based on the calculated feature amount, the type of the object or whether it is a traveling obstacle is determined in a subsequent process. an object recognition unit for identifying as a traveling obstacle candidate;
a traveling obstacle detection unit that detects the presence of a traveling obstacle from the object identification result of the object recognition unit and the abnormality in the traveling direction of the vehicle detected by the abnormal vehicle detection means ;
A failure detection system characterized by:
JP2018003076A 2018-01-12 2018-01-12 Fault detection system Active JP7125843B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018003076A JP7125843B2 (en) 2018-01-12 2018-01-12 Fault detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018003076A JP7125843B2 (en) 2018-01-12 2018-01-12 Fault detection system

Publications (2)

Publication Number Publication Date
JP2019124986A JP2019124986A (en) 2019-07-25
JP7125843B2 true JP7125843B2 (en) 2022-08-25

Family

ID=67398685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018003076A Active JP7125843B2 (en) 2018-01-12 2018-01-12 Fault detection system

Country Status (1)

Country Link
JP (1) JP7125843B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7185608B2 (en) * 2019-09-10 2022-12-07 Kddi株式会社 Object detection device, method and program
CN111479088A (en) * 2019-11-01 2020-07-31 唐佳慧 Mobile distributed civil security big data system based on new generation communication technology
JP2023062217A (en) * 2020-03-26 2023-05-08 ソニーセミコンダクタソリューションズ株式会社 Data generation method, learning method, and estimation method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099903A (en) 2000-09-22 2002-04-05 Nec Corp System and method for detecting dropping object and storage medium
JP2011209896A (en) 2010-03-29 2011-10-20 Nec Corp Obstacle detecting apparatus, obstacle detecting method, and obstacle detecting program
JP2016057998A (en) 2014-09-12 2016-04-21 株式会社日立国際電気 Object identification method
JP2017138660A (en) 2016-02-01 2017-08-10 トヨタ自動車株式会社 Object detection method, object detection device and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099903A (en) 2000-09-22 2002-04-05 Nec Corp System and method for detecting dropping object and storage medium
JP2011209896A (en) 2010-03-29 2011-10-20 Nec Corp Obstacle detecting apparatus, obstacle detecting method, and obstacle detecting program
JP2016057998A (en) 2014-09-12 2016-04-21 株式会社日立国際電気 Object identification method
JP2017138660A (en) 2016-02-01 2017-08-10 トヨタ自動車株式会社 Object detection method, object detection device and program

Also Published As

Publication number Publication date
JP2019124986A (en) 2019-07-25

Similar Documents

Publication Publication Date Title
US9710716B2 (en) Computer vision pipeline and methods for detection of specified moving objects
US7916944B2 (en) System and method for feature level foreground segmentation
JP5815910B2 (en) Methods, systems, products, and computer programs for multi-queue object detection and analysis (multi-queue object detection and analysis)
KR101299237B1 (en) Apparatus and method for detecting object using PTZ camera
KR101735365B1 (en) The robust object tracking method for environment change and detecting an object of interest in images based on learning
US8879786B2 (en) Method for detecting and/or tracking objects in motion in a scene under surveillance that has interfering factors; apparatus; and computer program
CN104966304A (en) Kalman filtering and nonparametric background model-based multi-target detection tracking method
KR101062225B1 (en) Intelligent video retrieval method and system using surveillance camera
WO2020008667A1 (en) System and method for video anomaly detection
KR20190046351A (en) Method and Apparatus for Detecting Intruder
JP7125843B2 (en) Fault detection system
KR101472674B1 (en) Method and apparatus for video surveillance based on detecting abnormal behavior using extraction of trajectories from crowd in images
Garg et al. Real-time road traffic density estimation using block variance
CN111582166B (en) Method for detecting remnants based on Gaussian modeling and YoLo V3 target detection
CN111696135A (en) Intersection ratio-based forbidden parking detection method
Kumar et al. Real time target tracking with pan tilt zoom camera
JP2008005399A (en) Device and method for detecting a neglected object
KR101690050B1 (en) Intelligent video security system
US20200394802A1 (en) Real-time object detection method for multiple camera images using frame segmentation and intelligent detection pool
Monteiro et al. Robust segmentation for outdoor traffic surveillance
JP6831396B2 (en) Video monitoring device
Wang et al. A new approach for real-time detection of abandoned and stolen objects
CN115909219A (en) Scene change detection method and system based on video analysis
KR101154350B1 (en) Multiple Images Processing system using Detection of Objects and segmenting - recognizing of High- resolution Image and there of.
Tsai et al. Multi-lane detection and road traffic congestion classification for intelligent transportation system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R150 Certificate of patent or registration of utility model

Ref document number: 7125843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150