JP2014056441A - Road state grasping apparatus - Google Patents

Road state grasping apparatus Download PDF

Info

Publication number
JP2014056441A
JP2014056441A JP2012200961A JP2012200961A JP2014056441A JP 2014056441 A JP2014056441 A JP 2014056441A JP 2012200961 A JP2012200961 A JP 2012200961A JP 2012200961 A JP2012200961 A JP 2012200961A JP 2014056441 A JP2014056441 A JP 2014056441A
Authority
JP
Japan
Prior art keywords
image
road
unit time
unit
time average
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012200961A
Other languages
Japanese (ja)
Inventor
Daisuke Kamogashira
大輔 鴨頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012200961A priority Critical patent/JP2014056441A/en
Publication of JP2014056441A publication Critical patent/JP2014056441A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a road state grasping apparatus capable of accurately detecting an abnormality in an image from an imaging means.SOLUTION: A road state grasping apparatus pertaining to the embodiment images an image of a road on which a vehicle travels and determines a state of the road based on the imaged image. In this case, the road state grasping apparatus includes: a calculation means for calculating a unit time mean brightness from a plurality of images with different imaging time obtained from the imaging means, a comparison means for comparing the unit time mean brightness calculated by this calculation means and a pre-registered unit time mean brightness and deriving a coincidence of the two; and an abnormality detection means for detecting the abnormality in the image from the imaging means by comparing the coincidence derived by this comparison means with a pre-registered threshold.

Description

本発明の実施形態は、道路の状況を判定する道路状況把握装置に関する。   Embodiments described herein relate generally to a road condition grasping apparatus that determines a road condition.

高速道路等の有料道路上などにおいて、路側に設置されたカメラで道路上の画像を撮像し、撮像された画像から画像処理等によって道路上を走行する車両を検出し、検出した車両の位置、速度等の情報から現在の道路状況(渋滞、停止車両、低速車両等)を判定する道路状況把握装置が知られている。   On a toll road such as an expressway, an image on the road is captured with a camera installed on the roadside, and a vehicle traveling on the road is detected from the captured image by image processing or the like, and the position of the detected vehicle, There is known a road condition grasping device that determines a current road condition (congested, stopped vehicle, low-speed vehicle, etc.) from information such as speed.

このような道路状況把握装置では、カメラから得られる画像に異常があると、道路状況を正しく判定することができない。そこで、画像を解析し解析結果に基づき画像の異常を検出する技術が種々提案されているが、道路状況は時間経過とともに大きく変化するため、単なる画像解析だけで画像の異常を検出するのは難しい。   In such a road situation grasping device, if there is an abnormality in the image obtained from the camera, the road situation cannot be determined correctly. Therefore, various techniques for analyzing images and detecting image abnormalities based on the analysis results have been proposed. However, it is difficult to detect image abnormalities by mere image analysis because road conditions change greatly over time. .

たとえば、昼に撮像された画像と夜に撮像された画像とでは明るさが異なるため、単なる画像解析だけで画像の異常を検出するのは容易ではない。
また、たとえば、夜間に照明が全くなく車両の存在しない条件では、真っ暗な場所などにカメラが設置されている場合、常時異常判定される恐れがある。
For example, since the brightness of an image captured in the daytime and an image captured in the night are different, it is not easy to detect an abnormality of the image only by image analysis.
Further, for example, under the condition that there is no illumination at night and no vehicle is present, there is a possibility that an abnormality is always determined when a camera is installed in a completely dark place.

特開2000−207563号公報JP 2000-207563 A

本発明が解決しようとする課題は、撮像手段からの画像の異常を正確に検出することが可能となる道路状況把握装置を提供することである。   The problem to be solved by the present invention is to provide a road condition grasping device capable of accurately detecting an abnormality of an image from an imaging means.

実施形態に係る道路状況把握装置は、車両が走行する道路上の画像を撮像手段により撮像し、この撮像された画像に基づき前記道路の状況を判定する道路状況把握装置であって、前記撮像手段から得られる撮像時刻の異なる複数の画像から単位時間平均輝度を算出する算出手段と、この算出手段により算出された単位時間平均輝度とあらかじめ登録された単位時間平均輝度とを比較し、両者の一致度を求める比較手段と、この比較手段により求められた一致度とあらかじめ登録された閾値とを比較することにより前記撮像手段からの画像の異常を検出する異常検出手段とを具備する。   The road condition grasping device according to the embodiment is a road condition grasping device that picks up an image on a road on which a vehicle travels by an image pickup unit and determines the road condition based on the picked-up image. The calculation means for calculating the unit time average luminance from a plurality of images obtained at different imaging times obtained by comparing the unit time average luminance calculated by this calculation means with the unit time average luminance registered in advance, and the two match Comparing means for obtaining a degree, and an abnormality detecting means for detecting an abnormality of the image from the imaging means by comparing the degree of coincidence obtained by the comparing means with a threshold value registered in advance.

実施形態に係る道路状況把握装置の構成を概略的に示す模式図。The schematic diagram which shows roughly the structure of the road condition grasping | ascertainment apparatus which concerns on embodiment. 実施形態に係る画像異常検出処理について説明するフローチャート。6 is a flowchart for describing image abnormality detection processing according to the embodiment. 実施形態に係る画像異常検出処理について説明するフローチャート。6 is a flowchart for describing image abnormality detection processing according to the embodiment. 実施形態に係る画像異常検出処理について説明するフローチャート。6 is a flowchart for describing image abnormality detection processing according to the embodiment. 実施形態に係る単位時間平均輝度の算出処理の具体例について説明する図。The figure explaining the specific example of the calculation process of the unit time average brightness | luminance which concerns on embodiment. 実施形態に係る気象条件を考慮した一致度閾値の算出処理の具体例について説明する図。The figure explaining the specific example of the calculation process of the coincidence threshold value in consideration of the weather conditions according to the embodiment. 実施形態に係る単位時間平均輝度の一致度算出処理の具体例について説明する図。The figure explaining the specific example of the coincidence degree calculation process of the unit time average brightness which concerns on embodiment.

以下、実施形態に係る道路状況把握装置について図面を参照して説明する。
図1は、実施形態に係る道路状況把握装置の構成を概略的に示すものである。図1において、道路11は高速道路等の有料道路(以降、単に道路と略称することもある)で、車両12が図示矢印方向に走行するものとする。
Hereinafter, a road condition grasping device according to an embodiment will be described with reference to the drawings.
FIG. 1 schematically shows a configuration of a road condition grasping apparatus according to an embodiment. In FIG. 1, a road 11 is a toll road such as an expressway (hereinafter sometimes simply referred to as a road), and a vehicle 12 travels in the direction of an arrow shown in the figure.

道路11のあらかじめ定められた所定部位には、撮像手段としてのビデオカメラ(以降、単にカメラと略称する)13が設置されている。カメラ13は、道路11の所定部位を通過する車両12を含む所定エリア内の画像を常時一定間隔(たとえば、33msごと)で撮像してフレーム画像として出力するもので、出力されたフレーム画像は順次、画像変換部14に送られる。   A video camera (hereinafter simply abbreviated as a camera) 13 as an image pickup means is installed at a predetermined portion of the road 11. The camera 13 captures images in a predetermined area including the vehicle 12 passing through a predetermined part of the road 11 at a constant interval (for example, every 33 ms) and outputs the images as frame images. To the image conversion unit 14.

画像変換部14は、たとえば、カメラ13の近傍に設けられていて、カメラ13から出力されるフレーム画像を所定の画像信号(たとえば、光信号、LANパケット信号等)に変換して出力する。   The image conversion unit 14 is provided in the vicinity of the camera 13, for example, and converts the frame image output from the camera 13 into a predetermined image signal (for example, an optical signal, a LAN packet signal, etc.) and outputs the image signal.

画像変換部14から出力される画像信号は、たとえば、カメラ13から離れた場所に設置された処理装置15に送られる。処理装置15は、カメラ13により撮像された画像に対し所定の画像処理を行なうことにより車両を検出し、車両検出結果から道路11における交通事象および異常車両などの道路状況を判定するとともに通過車両台数を計測するもので、入力される画像信号を元の画像に復元する画像復元部16、復元された画像に対して所定の画像処理を実行する画像処理部17、画像処理に使用する各種データを保持する初期データ保持部18、一定時間ごとに平均輝度を算出する輝度計算部19、画像処理結果から最終的な道路状況の判定を行なう判定処理部20によって構成される。   The image signal output from the image conversion unit 14 is sent to, for example, the processing device 15 installed at a location away from the camera 13. The processing device 15 detects a vehicle by performing predetermined image processing on an image picked up by the camera 13, determines a road condition such as a traffic event and an abnormal vehicle on the road 11 from the vehicle detection result, and determines the number of passing vehicles. The image restoration unit 16 restores the input image signal to the original image, the image processing unit 17 executes predetermined image processing on the restored image, and various data used for the image processing. It includes an initial data holding unit 18 that holds, a luminance calculation unit 19 that calculates average luminance at regular intervals, and a determination processing unit 20 that determines a final road condition from the image processing result.

ここで、判定処理部20により判定する道路状況とは、たとえば、「渋滞」、「停止車両」、「低速車両」、「通常状態」の4状態とする。「渋滞」とは道路11が車両12で渋滞している状態、「停止車両」とは道路11上に停止している車両12が存在する状態、「低速車両」とは道路11上にあらかじめ定められた所定値以下の速度で走行する車両12が存在する状態を示すものとする。なお、道路状況が上記3状態ではない場合は「通常状態」とする。   Here, the road conditions determined by the determination processing unit 20 are, for example, four states of “traffic jam”, “stopped vehicle”, “low speed vehicle”, and “normal state”. “Congestion” is a state where the road 11 is congested with the vehicle 12, “Stopped vehicle” is a state where the vehicle 12 is stopped on the road 11, and “Low speed vehicle” is predetermined on the road 11. It is assumed that the vehicle 12 traveling at a speed equal to or less than the predetermined value is present. When the road condition is not the above three states, the “normal state” is set.

画像処理部17は、通信回線を介して気象データベース(気象DB)21に接続されている。気象データベース21は、気象庁などが提供しているデータベースで、たとえば、カメラ13が設置された地域の気象データが、日時ごとの時刻ごとに登録されている(たとえば、図6参照)。   The image processing unit 17 is connected to a weather database (weather DB) 21 via a communication line. The meteorological database 21 is a database provided by the Japan Meteorological Agency and the like, for example, the meteorological data of the area where the camera 13 is installed is registered for each time of each date and time (for example, see FIG. 6).

判定処理部20は、通信回線を介して上位装置22に接続されている。上位装置22は、判定処理部20からの判定結果等を受取る。   The determination processing unit 20 is connected to the host device 22 via a communication line. The host device 22 receives the determination result and the like from the determination processing unit 20.

道路状況把握装置は、有料道路上などに設置されたカメラ13で道路11を撮像し、得られる画像に対して所定の画像処理を行ない、最終的に道路状況(渋滞、停止車両、低速車両)の判定および通過車両台数を計測する。   The road condition grasping device captures the road 11 with a camera 13 installed on a toll road, etc., performs predetermined image processing on the obtained image, and finally the road condition (congested, stopped vehicle, low-speed vehicle). And the number of passing vehicles is measured.

カメラ13と処理装置15の設置位置によっては、カメラ13から出力される画像をそのまま処理装置15へ入力することができない場合がある(伝送距離の問題などによる)。そのような場合、カメラ13から出力されるフレーム画像を画像変換部14で所定の画像信号(たとえば、光信号、LANパケット信号等)に変換し、変換した画像信号を処理装置15へ送信し、処理装置15で画像変換部14からの画像信号を受信し、画像復元部16で元の画像に復元するような方法がとられる。   Depending on the installation positions of the camera 13 and the processing device 15, the image output from the camera 13 may not be input to the processing device 15 as it is (due to a transmission distance problem or the like). In such a case, the frame image output from the camera 13 is converted into a predetermined image signal (for example, an optical signal, a LAN packet signal, etc.) by the image conversion unit 14, and the converted image signal is transmitted to the processing device 15. A method is adopted in which the processing device 15 receives the image signal from the image conversion unit 14 and the image restoration unit 16 restores the original image.

このような状況において、処理装置15で元の画像に復元する画像復元部16が正常に動作している場合、画像変換部14と処理装置15との間は画像信号が正常に伝達されるため、処理装置15にて画像の異常が検出できない可能性がある。   In such a situation, when the image restoration unit 16 that restores the original image in the processing device 15 is operating normally, the image signal is normally transmitted between the image conversion unit 14 and the processing device 15. There is a possibility that the image abnormality cannot be detected by the processing device 15.

また、カメラ13の設置位置によっては、夜間照明がないため夜間真っ暗であったり、トンネル内であれば常時薄暗かったり、天候の急激な変動などの要因により撮像画像の明るさが一様でないため、カメラ13の設置位置や気象条件を考慮せず画像異常の判定を実施すると誤判定する可能性がある。   In addition, depending on the installation position of the camera 13, the brightness of the captured image is not uniform due to factors such as darkness at night because there is no night illumination, always dim if in a tunnel, or sudden fluctuations in weather, If the image abnormality determination is performed without considering the installation position of the camera 13 and the weather condition, there is a possibility of erroneous determination.

本実施形態で説明する道路状況把握装置は、様々な設置条件のカメラ12からの画像に基づき画像異常を正確に検出することができる。以下、画像異常検出処理について図2〜図4に示すフローチャートを参照して詳細に説明する。   The road condition grasping device described in the present embodiment can accurately detect an image abnormality based on images from the camera 12 under various installation conditions. Hereinafter, the image abnormality detection process will be described in detail with reference to the flowcharts shown in FIGS.

まず、本装置の起動時に、処理装置15は、上位装置22から時刻データを取得し(ステップS1)、画像処理部17内の時計(たとえば、リアルタイムクロックなど)に取得した時刻データを設定する(ステップS2)。   First, when the present apparatus is activated, the processing device 15 acquires time data from the host device 22 (step S1), and sets the acquired time data in a clock (for example, a real time clock) in the image processing unit 17 ( Step S2).

道路11上に設置されたカメラ13は、道路11の所定部位を通過する車両12を含む所定エリア内の画像を常時一定間隔(たとえば、33msごと)で撮像してフレーム画像として出力するもので、出力されたフレーム画像は順次、画像変換部14に送られる(ステップS3)。   The camera 13 installed on the road 11 captures an image in a predetermined area including the vehicle 12 passing through a predetermined part of the road 11 at a constant interval (for example, every 33 ms) and outputs it as a frame image. The output frame images are sequentially sent to the image conversion unit 14 (step S3).

画像変換部14は、カメラ13からの画像を所定の画像信号に変換し、処理装置15に送信する(ステップS4)。この際、変換後の信号の形式は問わない。たとえば、LAN回線で画像信号を処理装置15に送信する場合にはLANパケット信号に変換し、光回線で画像信号を処理装置15に送信する場合には光信号に変換する。   The image conversion unit 14 converts the image from the camera 13 into a predetermined image signal and transmits it to the processing device 15 (step S4). At this time, the format of the converted signal is not limited. For example, when an image signal is transmitted to the processing device 15 via a LAN line, it is converted into a LAN packet signal. When an image signal is transmitted to the processing device 15 via an optical line, it is converted into an optical signal.

処理装置15は、画像変換部14から送信された画像信号を受信すると、画像復元部16において元の画像へ復元し、画像処理部17へ送る(ステップS5)。   When receiving the image signal transmitted from the image conversion unit 14, the processing device 15 restores the original image in the image restoration unit 16 and sends it to the image processing unit 17 (step S5).

画像処理部17は、画像が入力されているか確認する(ステップS6)。確認の結果、画像が入力されていない場合、画像復元部異常(すなわち、画像復元部16から画像が来ていない)と判断し、その旨の異常通知を上位装置22へ送信する(ステップS7)。   The image processing unit 17 confirms whether an image is input (step S6). If no image is input as a result of the confirmation, it is determined that the image restoration unit is abnormal (that is, no image is received from the image restoration unit 16), and an abnormality notification to that effect is transmitted to the host device 22 (step S7). .

ステップS6の確認の結果、画像が入力されている場合、初期データ登録命令が発行されているか確認する(ステップS8)。初期データ登録命令は、たとえば、上位装置22あるいは外部の端末装置などから発行されるものとし、処理装置15は、初期データ登録命令を受けると初期データ登録モードへ移行する。   If the result of confirmation in step S6 is that an image has been input, it is confirmed whether an initial data registration command has been issued (step S8). The initial data registration command is issued, for example, from the host device 22 or an external terminal device. The processing device 15 shifts to the initial data registration mode when receiving the initial data registration command.

初期データ登録モードへ移行した場合、画像処理部17は、気象データベース21から気象条件(晴、曇、雨)ごとの閾値係数を取得し、初期データ保持部18に登録し、保持しておく(ステップS9)。   When shifting to the initial data registration mode, the image processing unit 17 acquires a threshold coefficient for each weather condition (sunny, cloudy, rainy) from the weather database 21, registers it in the initial data holding unit 18 and holds it ( Step S9).

次に、画像処理部17は、画像復元部16から得られる画像に対して所定の画像処理を実施し、車両の有無を判定する(ステップS10)。この車両検出処理には、たとえば、特開2010−44502号公報に開示された技術を適用することができる。   Next, the image processing unit 17 performs predetermined image processing on the image obtained from the image restoration unit 16, and determines the presence or absence of a vehicle (step S10). For example, a technique disclosed in Japanese Patent Application Laid-Open No. 2010-44502 can be applied to the vehicle detection process.

ステップS10の判定の結果、車両が存在しなかった場合、輝度計算部19は、当該画像に基づき画像全体の平均輝度を算出し、求めた平均輝度を内部に保持(記憶)する(ステップS11)。ステップS10の判定の結果、車両が存在する場合、ステップS3に戻って上記同様な動作を繰り返す。   If no vehicle is present as a result of the determination in step S10, the luminance calculation unit 19 calculates the average luminance of the entire image based on the image, and holds (stores) the calculated average luminance inside (step S11). . If the result of determination in step S10 is that there is a vehicle, processing returns to step S3 and the same operation is repeated.

なお、平均輝度の算出を車両が存在しない場合のみとするのは、画像中に車両が存在する場合には、車両の照明等の影響で輝度が高くなる傾向にあるので、車両が存在する画像は平均輝度の算出対象から除外し、車両が存在しない画像を平均輝度の算出対象とする。   Note that the average brightness is calculated only when there is no vehicle, because when there is a vehicle in the image, the brightness tends to increase due to the influence of the lighting of the vehicle, etc. Is excluded from the calculation target of average luminance, and an image without a vehicle is set as a calculation target of average luminance.

車両の存在しない背景画像のみで平均輝度を算出するためである。 This is because the average luminance is calculated only from the background image in which no vehicle exists.

画像処理部17は、画像復元部16からの画像を受取るごとに、画像中の車両の有無を判定し、画像中に車両が存在しない場合に、輝度計算部19が、当該画像に基づき画像全体の平均輝度を算出し、算出した平均輝度を保持(記憶)する。   Each time the image processing unit 17 receives an image from the image restoration unit 16, the image processing unit 17 determines the presence or absence of a vehicle in the image, and when there is no vehicle in the image, the luminance calculation unit 19 performs the entire image based on the image. The average luminance is calculated, and the calculated average luminance is held (stored).

これを繰り返して、一定時間経過した場合(ステップS12)、輝度計算部19は、保持された平均輝度を用いて単位時間平均輝度を算出し(ステップS13)、求めた単位時間平均輝度を初期データ保持部18へ登録(記憶)する(ステップS14)。   By repeating this and when a certain time has elapsed (step S12), the luminance calculation unit 19 calculates the unit time average luminance using the held average luminance (step S13), and the obtained unit time average luminance is the initial data. Register (store) in the holding unit 18 (step S14).

ステップS12で一定時間経過しない場合、あるいは、ステップS14の処理が終了すると、ステップS3に戻って上記同様な動作を繰り返す。   When the predetermined time does not elapse in step S12 or when the process of step S14 ends, the process returns to step S3 and the same operation as described above is repeated.

なお、上記一定時間は任意の値とし、初期データ保持部18に記憶されているものとする。また、外部端子などによって上記一定時間を変更可能なものとする。   It is assumed that the predetermined time is an arbitrary value and is stored in the initial data holding unit 18. In addition, the predetermined time can be changed by an external terminal or the like.

ステップS10〜S14の処理を初期データ登録命令が発行されなくなるまで実施する。   Steps S10 to S14 are performed until no initial data registration command is issued.

ここで、輝度計算部19における単位時間平均輝度の算出処理の具体例について図5を参照して説明する。
たとえば、図5に示すように、輝度計算部19は、60分(一定時間)の単位時間平均輝度の算出周期にしたがい、60分の間に得られた複数の画像のうち車両が存在しない複数の画像の平均輝度、すなわち単位時間平均輝度を算出する。さらに、輝度計算部19は、時間帯別(0時台、1時台、…、23時台)に単位時間平均輝度を初期データ保持部18へ登録する。これにより、図5に示すように、初期データ保持部18は、時間帯別の単位時間平均輝度を含むデータベースを保持(記憶)することになる。
Here, a specific example of the unit time average luminance calculation process in the luminance calculation unit 19 will be described with reference to FIG.
For example, as shown in FIG. 5, the luminance calculation unit 19 follows a calculation period of unit time average luminance of 60 minutes (fixed time), and a plurality of images in which a vehicle does not exist among a plurality of images obtained in 60 minutes. The average brightness of the images, that is, the unit time average brightness is calculated. Furthermore, the luminance calculation unit 19 registers the unit time average luminance in the initial data holding unit 18 for each time zone (0 o'clock, 1 o'clock,..., 23:00 o'clock). Thereby, as shown in FIG. 5, the initial data holding unit 18 holds (stores) a database including the unit time average luminance for each time zone.

処理装置15は、初期データ登録命令が発行されなくなると(ステップS8)、運用モードへ移行する。
運用モードへ移行した場合、画像処理部17は、図6に処理の具体例を示すように、まず気象データベース21から、単位時間平均輝度の算出時刻における気象データを検索する(ステップS15)。
次に、画像処理部17は、検索した気象データにより、対応する閾値係数をステップS9で登録された気象条件ごとの閾値係数から検索し、初期データ保持部18にあらかじめ登録された一致度閾値の初期値に上記検索した閾値係数をかけ合わせて新たな一致度閾値として初期データ保持部18に登録する(ステップS16)。
When the initial data registration command is not issued (step S8), the processing device 15 shifts to the operation mode.
When the mode is shifted to the operation mode, the image processing unit 17 first searches the weather database 21 for weather data at the calculation time of the unit time average luminance as shown in a specific example of the processing in FIG. 6 (step S15).
Next, the image processing unit 17 searches for the corresponding threshold coefficient from the searched weather data from the threshold coefficient for each weather condition registered in step S <b> 9, and the matching threshold value registered in advance in the initial data holding unit 18. The initial threshold value is multiplied by the searched threshold coefficient and registered in the initial data holding unit 18 as a new matching degree threshold value (step S16).

図6の具体例は、たとえば、登録された気象条件ごとの閾値係数が「晴=1」、「曇=0.8」、「雨=0.5」、登録された一致度閾値の初期値が「80」の場合で、気象条件が「晴」のときは新たな一致度閾値が「80(=80×1)」、気象条件が「曇」のときは新たな一致度閾値が「64(=80×0.8)」、気象条件が「雨」のときは新たな一致度閾値が「40(=80×0.5)」となることを示している。   The specific example of FIG. 6 is, for example, that the threshold coefficient for each registered weather condition is “sunny = 1”, “cloudy = 0.8”, “rain = 0.5”, and the initial value of the registered coincidence threshold Is “80”, when the weather condition is “clear”, the new coincidence threshold is “80 (= 80 × 1)”, and when the weather condition is “cloudy”, the new coincidence threshold is “64”. (= 80 × 0.8) ”, when the weather condition is“ rain ”, it indicates that the new coincidence threshold is“ 40 (= 80 × 0.5) ”.

次に、画像処理部17は、画像復元部16から得られる画像に対して所定の画像処理を実施し、車両の有無を判定する(ステップS17)。この車両検出処理には、たとえば、特開2010−44502号公報に開示された技術を適用することができる。   Next, the image processing unit 17 performs predetermined image processing on the image obtained from the image restoration unit 16, and determines the presence or absence of a vehicle (step S17). For example, a technique disclosed in Japanese Patent Application Laid-Open No. 2010-44502 can be applied to the vehicle detection process.

ステップS17の判定の結果、車両が存在しなかった場合、輝度計算部19は、当該画像に基づき画像全体の平均輝度を算出し、求めた平均輝度を内部に保持(記憶)する(ステップS18)。ステップS17の判定の結果、車両が存在する場合、ステップS3に戻って上記同様な動作を繰り返す。   If the result of determination in step S17 is that there is no vehicle, the luminance calculation unit 19 calculates the average luminance of the entire image based on the image, and holds (stores) the calculated average luminance inside (step S18). . If the result of determination in step S17 is that there is a vehicle, processing returns to step S3 and the same operation is repeated.

なお、平均輝度の算出を車両が存在しない場合のみとするのは、画像中に車両が存在する場合には、車両の照明等の影響で輝度が高くなる傾向にあるので、車両が存在する画像は平均輝度の算出対象から除外し、車両が存在しない画像を平均輝度の算出対象とする。   Note that the average brightness is calculated only when there is no vehicle, because when there is a vehicle in the image, the brightness tends to increase due to the influence of the lighting of the vehicle, etc. Is excluded from the calculation target of average luminance, and an image without a vehicle is set as a calculation target of average luminance.

車両の存在しない背景画像のみで平均輝度を算出するためである。 This is because the average luminance is calculated only from the background image in which no vehicle exists.

画像処理部17は、画像復元部16からの画像を受取るごとに、画像中の車両の有無を判定し、画像中に車両が存在しない場合に、輝度計算部19が、当該画像に基づき画像全体の平均輝度を算出し、算出した平均輝度を保持(記憶)する。   Each time the image processing unit 17 receives an image from the image restoration unit 16, the image processing unit 17 determines the presence or absence of a vehicle in the image, and when there is no vehicle in the image, the luminance calculation unit 19 performs the entire image based on the image. The average luminance is calculated, and the calculated average luminance is held (stored).

これを繰り返して、一定時間経過した場合(ステップS19)、輝度計算部19は、保持された平均輝度を用いて単位時間平均輝度を算出する(ステップS20)。ステップS19で一定時間経過しない場合、ステップS3に戻って上記同様な動作を繰り返す。   This process is repeated, and when a certain time has elapsed (step S19), the luminance calculation unit 19 calculates unit time average luminance using the held average luminance (step S20). If the predetermined time does not elapse in step S19, the process returns to step S3 and the same operation is repeated.

なお、上記一定時間は任意の値とし、初期データ保持部18に記憶されているものとする。また、外部端子などによって上記一定時間を変更可能なものとする。   It is assumed that the predetermined time is an arbitrary value and is stored in the initial data holding unit 18. In addition, the predetermined time can be changed by an external terminal or the like.

また、画像処理部17は、上記したように上位装置22からの時刻データに基づき動作する時計を有し、受取った画像に対して時刻情報を対応付けるようにしてもよい。これにより、各画像には時刻情報が対応付けれ、第1の時間帯に含まれる時刻の画像から算出された単位時間平均輝度は、第1の時間帯の単位時間平均輝度とすることができる。   Further, as described above, the image processing unit 17 may have a clock that operates based on the time data from the host device 22 and associate time information with the received image. Thereby, time information is associated with each image, and the unit time average luminance calculated from the images at the time included in the first time zone can be set as the unit time average luminance in the first time zone.

次に、判定処理部20は、ステップS20で求めた単位時間平均輝度の算出時刻を基に初期データ保持部18を検索し、ステップS14で登録された単位時間平均輝度の該当する部分(同一時間帯などで紐付けされた部分)を検索する(ステップS21)。   Next, the determination processing unit 20 searches the initial data holding unit 18 based on the calculation time of the unit time average luminance obtained in step S20, and the corresponding part of the unit time average luminance registered in step S14 (same time) A portion linked with a band or the like is searched (step S21).

次に、判定処理部20は、ステップS21で初期データ保持部18から検索した単位時間平均輝度(以下、これを登録単位時間平均輝度とする)とステップS20で求めた単位時間平均輝度(以下、これを算出単位時間平均輝度とする)とを比較し、両者の一致度を算出する(ステップS22)。   Next, the determination processing unit 20 searches for the unit time average luminance (hereinafter referred to as “registered unit time average luminance”) retrieved from the initial data holding unit 18 in step S21 and the unit time average luminance (hereinafter, referred to as “registered unit time average luminance”). This is used as a calculated unit time average luminance), and the degree of coincidence between them is calculated (step S22).

ここで、判定処理部20における単位時間平均輝度の一致度算出処理の具体例について図7を参照して説明する。
たとえば、図7に示すように、判定処理部20は、0時台の登録単位時間平均輝度と0時台の算出単位時間平均輝度とを比較し、一致度を算出する。同様に、判定処理部9は、1時台の登録単位時間平均輝度と1時台の算出単位時間平均輝度とを比較し、両者の一致度を算出する。
Here, a specific example of the unit time average luminance matching degree calculation processing in the determination processing unit 20 will be described with reference to FIG.
For example, as illustrated in FIG. 7, the determination processing unit 20 compares the registered unit time average luminance at the 0:00 level with the calculated unit time average luminance at the 0:00 level, and calculates the degree of coincidence. Similarly, the determination processing unit 9 compares the registration unit time average luminance at the 1 o'clock range with the calculated unit time average luminance at the 1 o'clock range, and calculates the degree of coincidence between them.

一致度の算出方法には種々の公知例があるが、たとえば下記式で定義する。
一致度=(1−(|算出単位時間平均輝度−登録単位時間平均輝度|/登録単位時間
平均輝度))*100
次に、判定処理部20は、ステップS22で算出された一致度に基づき、画像復元部16への入力画像の異常を検出する。たとえば、判定処理部20は、ステップS22で算出された一致度とステップS16で初期データ保持部18に登録された一致度閾値とを比較し(ステップS23)、算出された一致度が一致度閾値以下の場合、画像復元部16への入力画像に何らかの異常が発生していると判断して上位装置22へ異常(画像異常)を通知する(ステップS24)。
There are various known examples of the method for calculating the degree of coincidence. For example, it is defined by the following equation.
Consistency = (1- (| calculated unit time average brightness−registration unit time average brightness) / registration unit time
Average brightness)) * 100
Next, the determination processing unit 20 detects an abnormality of the input image to the image restoration unit 16 based on the degree of coincidence calculated in step S22. For example, the determination processing unit 20 compares the coincidence degree calculated in step S22 with the coincidence degree threshold value registered in the initial data holding unit 18 in step S16 (step S23), and the calculated coincidence degree is the coincidence degree threshold value. In the following case, it is determined that some abnormality has occurred in the input image to the image restoration unit 16, and an abnormality (image abnormality) is notified to the host device 22 (step S24).

ステップS23での比較の結果、算出された一致度が一致度閾値よりも高い場合、判定処理部20は、入力画像は正常であると判断し、当該入力画像に基づき道路状況判定処理を実施して、その判定結果を上位装置22へ通知する(ステップS25)。   As a result of the comparison in step S23, when the calculated coincidence is higher than the coincidence threshold, the determination processing unit 20 determines that the input image is normal, and performs a road situation determination process based on the input image. Then, the determination result is notified to the host device 22 (step S25).

ここで、判定処理部20により行なわれる道路状況の判定処理の一例について簡単に説明する。
まず、画像処理部17は、入力されるフレーム画像ごとに所定の画像処理を行なうことにより道路11を走行する車両12を検出する。
具体的に説明すると、まず、あらかじめ車両12が存在しない背景画像を初期データとして図示しないメモリに保持しておくとともに、画像の座標値をカメラ13からの絶対距離(実際の距離)に変換するための変換テーブルも上記メモリに保持しておく。
Here, an example of road condition determination processing performed by the determination processing unit 20 will be briefly described.
First, the image processing unit 17 detects the vehicle 12 traveling on the road 11 by performing predetermined image processing for each input frame image.
Specifically, first, a background image in which the vehicle 12 does not exist is stored in advance in a memory (not shown) as initial data, and the coordinate value of the image is converted into an absolute distance (actual distance) from the camera 13. These conversion tables are also stored in the memory.

この状態で、画像が入力されると、当該入力画像とあらかじめメモリに保持された背景画像との間で各画素の輝度値の差を求めることで輝度の差分画像を生成する。次に、生成した差分画像に対してあらかじめ登録されたパラメータを用いて2値化処理を行なうことで車両領域(車両12)を検出する。次に、検出した車両領域の座標値をあらかじめメモリに保持された変換テーブルを用いて絶対距離に変換することにより、検出された車両12(領域)の位置、車両面積、走行速度を求める。
なお、車両検出処理の詳細については、たとえば、特願2008−207034号に記載されているので、それを参照されたい。
When an image is input in this state, a luminance difference image is generated by obtaining a difference in luminance value of each pixel between the input image and a background image previously stored in the memory. Next, the vehicle area (vehicle 12) is detected by performing binarization processing on the generated difference image using parameters registered in advance. Next, the detected position of the vehicle 12 (region), the vehicle area, and the traveling speed are obtained by converting the detected coordinate value of the vehicle region into an absolute distance using a conversion table previously stored in a memory.
The details of the vehicle detection process are described in, for example, Japanese Patent Application No. 2008-207034, so please refer to it.

次に、判定処理部20は、上記のようにして検出された車両情報に基づき道路11の状況として少なくとも渋滞、停止車両、低速車両、通常状態の4状態を判定する。
具体的に説明すると、たとえば、上記のようにして取得された車両12の位置、車両面積、走行速度に基づき道路11が渋滞しているか否かの判定を行なうとともに、取得された走行速度に基づき停止車両、低速車両の判定を行なう。
なお、道路状況判定処理の詳細については、たとえば、特願2008−207034号に記載されているので、それを参照されたい。
Next, the determination processing unit 20 determines at least four conditions of the traffic 11 as a situation of the road 11 based on the vehicle information detected as described above, that is, a traffic jam, a stopped vehicle, a low speed vehicle, and a normal state.
More specifically, for example, whether or not the road 11 is congested is determined based on the position, vehicle area, and traveling speed of the vehicle 12 acquired as described above, and based on the acquired traveling speed. The stop vehicle and the low-speed vehicle are determined.
Note that details of the road condition determination processing are described in, for example, Japanese Patent Application No. 2008-207034.

以上述べた少なくとも1つの実施形態の道路状況把握装置によれば、以下のような作用効果が期待できる。
カメラからの画像が画像処理部に直接入力されず、カメラと画像処理部との間に画像変換部、画像復元部が介在するような場合でも、カメラからの画像に異常があるか否かを正確に検出することができる。
また、カメラ設置位置を考慮し、画像の明るさだけで画像の異常判定を行なわないので、画像異常を誤判定する恐れがなく、画像異常を正確に検出することが可能となる。たとえば、カメラの設置位置の周辺に照明がないケース、カメラの設置位置がトンネル内のケースでも、画像異常を正確に検出することができる。
According to the road condition grasping device of at least one embodiment described above, the following effects can be expected.
Even if the image from the camera is not directly input to the image processing unit and the image conversion unit and the image restoration unit are interposed between the camera and the image processing unit, it is determined whether there is an abnormality in the image from the camera. It can be detected accurately.
In addition, since the abnormality determination of the image is not performed only by the brightness of the image in consideration of the camera installation position, it is possible to accurately detect the image abnormality without fear of erroneous determination of the image abnormality. For example, an image abnormality can be accurately detected even when there is no illumination around the camera installation position or when the camera installation position is in a tunnel.

さらに、気象条件を考慮し、画像の明るさだけで画像の異常判定を行なわないので、たとえば、急激な気象変動時に画像異常を誤判定する恐れがなく、画像異常を正確に検出することが可能となる。   In addition, because image conditions are not determined based on only the brightness of the image in consideration of weather conditions, it is possible to accurately detect image anomalies, for example, without the risk of misidentifying image anomalies during sudden weather changes. It becomes.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行なうことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

11…道路、12…車両、13…カメラ(撮像手段)、14…画像変換部、15…処理装置、16…画像復元部、17…画像処理部、18…初期データ保持部、19…輝度計算部、20…判定処理部、21…気象データベース、22…上位装置。   DESCRIPTION OF SYMBOLS 11 ... Road, 12 ... Vehicle, 13 ... Camera (imaging means), 14 ... Image conversion part, 15 ... Processing apparatus, 16 ... Image restoration part, 17 ... Image processing part, 18 ... Initial data holding part, 19 ... Luminance calculation Part, 20 ... determination processing part, 21 ... weather database, 22 ... host device.

Claims (4)

車両が走行する道路上の画像を撮像手段により撮像し、この撮像された画像に基づき前記道路の状況を判定する道路状況把握装置であって、
前記撮像手段から得られる撮像時刻の異なる複数の画像から単位時間平均輝度を算出する算出手段と、
この算出手段により算出された単位時間平均輝度とあらかじめ登録された単位時間平均輝度とを比較し、両者の一致度を求める比較手段と、
この比較手段により求められた一致度とあらかじめ登録された閾値とを比較することにより前記撮像手段からの画像の異常を検出する異常検出手段と、
を具備する道路状況把握装置。
A road situation grasping device that takes an image on a road on which a vehicle travels with an imaging means and determines the road situation based on the taken image,
Calculation means for calculating unit time average luminance from a plurality of images having different imaging times obtained from the imaging means;
A comparison means for comparing the unit time average brightness calculated by the calculation means with a unit time average brightness registered in advance and obtaining a degree of coincidence between the two;
An abnormality detecting means for detecting an abnormality of the image from the imaging means by comparing the degree of coincidence obtained by the comparing means and a threshold value registered in advance;
A road condition grasping device.
車両が走行する道路上の画像を撮像手段により撮像し、この撮像された画像を所定の画像信号に変換し、この変換された画像信号を前記撮像手段から離れた場所で受けて元の画像に復元し、この復元された画像に基づき前記道路の状況を判定する道路状況把握装置であって、
前記復元された撮像時刻の異なる複数の画像から単位時間平均輝度を算出する算出手段と、
この算出手段により算出された単位時間平均輝度とあらかじめ登録された単位時間平均輝度とを比較し、両者の一致度を求める比較手段と、
この比較手段により求められた一致度とあらかじめ登録された閾値とを比較することにより前記撮像手段からの画像の異常を検出する異常検出手段と、
を具備する道路状況把握装置。
An image on a road on which the vehicle is traveling is captured by an imaging unit, the captured image is converted into a predetermined image signal, and the converted image signal is received at a place away from the imaging unit to be an original image. A road condition grasping device for restoring and determining the situation of the road based on the restored image,
Calculating means for calculating a unit time average brightness from the restored images having different imaging times;
A comparison means for comparing the unit time average brightness calculated by the calculation means with a unit time average brightness registered in advance and obtaining a degree of coincidence between the two;
An abnormality detecting means for detecting an abnormality of the image from the imaging means by comparing the degree of coincidence obtained by the comparing means and a threshold value registered in advance;
A road condition grasping device.
前記閾値は、前記撮像手段の設置位置の気象条件を考慮して設定される請求項1または2記載の道路状況把握装置。   The road condition grasping device according to claim 1 or 2, wherein the threshold is set in consideration of a weather condition of an installation position of the imaging unit. 前記算出手段は、所定時間帯の前記複数の画像から前記所定時間帯の単位時間平均輝度を算出し、
前記比較手段は、前記所定時間帯の前記算出手段により算出された単位時間平均輝度と前記所定時間帯の前記あらかじめ登録された単位時間平均輝度とを比較する請求項1または2記載の道路状況把握装置。
The calculation means calculates a unit time average luminance of the predetermined time period from the plurality of images of the predetermined time period,
The road condition grasping according to claim 1 or 2, wherein the comparison means compares the unit time average luminance calculated by the calculation means in the predetermined time zone with the unit time average luminance registered in advance in the predetermined time zone. apparatus.
JP2012200961A 2012-09-12 2012-09-12 Road state grasping apparatus Pending JP2014056441A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012200961A JP2014056441A (en) 2012-09-12 2012-09-12 Road state grasping apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012200961A JP2014056441A (en) 2012-09-12 2012-09-12 Road state grasping apparatus

Publications (1)

Publication Number Publication Date
JP2014056441A true JP2014056441A (en) 2014-03-27

Family

ID=50613700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012200961A Pending JP2014056441A (en) 2012-09-12 2012-09-12 Road state grasping apparatus

Country Status (1)

Country Link
JP (1) JP2014056441A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182433A (en) * 2013-03-18 2014-09-29 Toshiba Corp Road state comprehension apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11177964A (en) * 1997-12-09 1999-07-02 Omron Corp Image processing method and device
JP2006330942A (en) * 2005-05-24 2006-12-07 Sumitomo Electric Ind Ltd Traffic condition deciding system, image processor, computer program, and traffic condition deciding method
JP2011259034A (en) * 2010-06-04 2011-12-22 Hitachi Systems Ltd System for detecting and reporting abnormality in network camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11177964A (en) * 1997-12-09 1999-07-02 Omron Corp Image processing method and device
JP2006330942A (en) * 2005-05-24 2006-12-07 Sumitomo Electric Ind Ltd Traffic condition deciding system, image processor, computer program, and traffic condition deciding method
JP2011259034A (en) * 2010-06-04 2011-12-22 Hitachi Systems Ltd System for detecting and reporting abnormality in network camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182433A (en) * 2013-03-18 2014-09-29 Toshiba Corp Road state comprehension apparatus

Similar Documents

Publication Publication Date Title
US10154255B2 (en) In-vehicle-camera image processing device
CN103026720B (en) The optics self diagnosis of stereo camera system
JP6395823B2 (en) Surveillance system and camera device
US9230166B2 (en) Apparatus and method for detecting camera tampering using edge image
JP2015028753A (en) Image processing apparatus and image processing method
US10853692B2 (en) Vicinity supervising device and method for supervising vicinity of vehicle
JP5800288B2 (en) Image processing apparatus for vehicle
JP2016095763A (en) Number plate detection device and number plate detection method
JP2001333417A (en) Camera supervisory system
JP2014182433A (en) Road state comprehension apparatus
JP2014056441A (en) Road state grasping apparatus
JP2013171319A (en) Vehicle state detection device, vehicle behavior detection device and vehicle state detection method
US10916017B2 (en) Method and apparatus for detecting motion deviation in a video sequence
JP2011215806A (en) Smoke detection device
KR101480750B1 (en) Apparatus and method for detecting motion
JP2014235806A (en) System and method for detecting failure of aircraft warning light
JP4797441B2 (en) Image processing apparatus for vehicle
KR20210023859A (en) Image processing device, mobile device and method, and program
CN102844767A (en) Method and apparatus for analysing an image from an image capture device for a vehicle
CN110097761B (en) Illumination self-adaptive video vehicle flow detection mode switching system and method
KR100860358B1 (en) Apparatus and method for detecting pixel error of variable message sign board
JP4921147B2 (en) Car color discrimination system
KR100744158B1 (en) Probabilistic visual surveillance system and method
JP2009294974A (en) Intruder detection device by image processing
JP2012198680A (en) Road condition recognition system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160405