JP2018022220A - Behavior data analysis system, and behavior data analysis device, and behavior data analysis method - Google Patents

Behavior data analysis system, and behavior data analysis device, and behavior data analysis method Download PDF

Info

Publication number
JP2018022220A
JP2018022220A JP2016151241A JP2016151241A JP2018022220A JP 2018022220 A JP2018022220 A JP 2018022220A JP 2016151241 A JP2016151241 A JP 2016151241A JP 2016151241 A JP2016151241 A JP 2016151241A JP 2018022220 A JP2018022220 A JP 2018022220A
Authority
JP
Japan
Prior art keywords
behavior data
data analysis
image
signal
analysis system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016151241A
Other languages
Japanese (ja)
Inventor
太郎 澤木
Taro Sawaki
太郎 澤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016151241A priority Critical patent/JP2018022220A/en
Publication of JP2018022220A publication Critical patent/JP2018022220A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a behavior data analysis system that can reduce the throughput of image recognition to reduce processing time.SOLUTION: A behavior data analysis system 1 comprises: a behavior data collection device 3 that can record information on a movement of a movable body 2 driven by a driver as behavior data; and a behavior data analysis device 4 that analyzes the behavior data recorded by the behavior data collection device 3. The behavior data analysis device 4 evaluates the driving performed by the driver from the degree of an event occurring to the movable body 2 that is calculated from the behavior data, and changes a method for analysis processing on the behavior data on the basis of a result of the evaluation.SELECTED DRAWING: Figure 1

Description

本発明は、挙動データ解析システム、挙動データ解析装置、挙動データ解析方法に関する。   The present invention relates to a behavior data analysis system, a behavior data analysis device, and a behavior data analysis method.

ドライブレコーダ等の撮像装置を車両に搭載し、撮像装置より得られた加速度や位置情報、画像データ等を解析して運転の評価を行う挙動データ解析システムが知られている。
このような挙動データ解析システムの一つとして、運転評価の労力を低減して評価を継続的に行うため、画像認識により評価の基準対象を自動的に抽出し、抽出した部分のみを評価者に提示する挙動データ解析システムが提案されている(例えば「特許文献1」参照)。
2. Description of the Related Art A behavior data analysis system is known in which an imaging device such as a drive recorder is mounted on a vehicle, and acceleration and position information obtained from the imaging device, image data, and the like are analyzed to evaluate driving.
As one of such behavior data analysis systems, in order to reduce the evaluation effort and continuously perform evaluation, the evaluation reference object is automatically extracted by image recognition, and only the extracted part is passed to the evaluator. A behavior data analysis system to be presented has been proposed (see, for example, “Patent Document 1”).

しかし従来の画像データを画像認識によって解析する挙動データ解析システムでは、画像認識の処理の負荷が大きすぎて、処理時間が極めて長くなってしまうという問題点がある。
本発明は、上述した問題点を解決し、画像認識の処理量を減少させて処理時間の短縮を図ることが可能な挙動データ解析システムの提供を目的とする。
However, the conventional behavior data analysis system that analyzes image data by image recognition has a problem that the processing time for the image recognition is too large and the processing time becomes extremely long.
An object of the present invention is to provide a behavior data analysis system that solves the above-described problems and can reduce the processing amount of image recognition to shorten the processing time.

本発明は、運転される移動体の移動情報を挙動データとして記録可能な挙動データ収集装置と、前記挙動データ収集装置により記録された挙動データを解析する挙動データ解析装置とを備え、前記挙動データ解析装置は、前記挙動データから算出した前記移動体に生じたイベントの度合いから前記移動体の運転を評価し、その評価結果に基づいて前記挙動データの解析処理方法を変更することを特徴とする。   The present invention comprises a behavior data collection device capable of recording movement information of a moving vehicle to be driven as behavior data, and a behavior data analysis device for analyzing behavior data recorded by the behavior data collection device, the behavior data The analysis apparatus evaluates the operation of the moving body from the degree of the event that has occurred in the moving body calculated from the behavior data, and changes the analysis processing method of the behavior data based on the evaluation result. .

本発明によれば、画像認識の処理量を従来に比して減らすことができ、画像処理の負荷を低減することにより処理時間を短縮することができる。   According to the present invention, the processing amount of image recognition can be reduced as compared with the conventional case, and the processing time can be shortened by reducing the load of image processing.

本発明の一実施形態を適用した挙動データ解析システムのブロック図である。1 is a block diagram of a behavior data analysis system to which an embodiment of the present invention is applied. 本発明の一実施形態における挙動データ解析方法のフローチャートである。It is a flowchart of the behavior data analysis method in one Embodiment of this invention. 本発明の一実施形態において解析される日本の信号機を示す概略図である。It is the schematic which shows the Japanese traffic light analyzed in one Embodiment of this invention. 本発明の一実施形態において解析される米国の信号機を示す概略図である。1 is a schematic diagram illustrating a US traffic light analyzed in one embodiment of the present invention. FIG. 本発明の一実施形態において解析される信号機の色を説明する概略図である。It is the schematic explaining the color of the traffic light analyzed in one Embodiment of this invention. 本発明の一実施形態に用いられる標識検知部のブロック図である。It is a block diagram of the label | marker detection part used for one Embodiment of this invention. 本発明の一実施形態における画像処理を説明するフローチャートである。It is a flowchart explaining the image processing in one Embodiment of this invention. 本発明の一実施形態における一時停止検知のブロック図である。It is a block diagram of temporary stop detection in one embodiment of the present invention. 本発明の一実施形態における一時停止検知を説明する概略図である。It is the schematic explaining the temporary stop detection in one Embodiment of this invention. 本発明の一実施形態における一時停止検知を説明する概略図である。It is the schematic explaining the temporary stop detection in one Embodiment of this invention. 本発明の一実施形態における速度超過検知のブロック図である。It is a block diagram of overspeed detection in one embodiment of the present invention. 本発明の一実施形態における速度超過検知を説明する概略図である。It is the schematic explaining the overspeed detection in one Embodiment of this invention. 本発明の一実施形態における速度超過検知を説明する概略図である。It is the schematic explaining the overspeed detection in one Embodiment of this invention. 本発明の第2及び第3の実施形態に用いられる挙動データ解析システムのブロック図である。It is a block diagram of the behavior data analysis system used for the 2nd and 3rd embodiment of the present invention. 本発明の第2の実施形態における挙動データ解析方法のフローチャートである。It is a flowchart of the behavior data analysis method in the 2nd Embodiment of this invention. 本発明の第3の実施形態における挙動データ解析方法のフローチャートである。It is a flowchart of the behavior data analysis method in the 3rd Embodiment of this invention.

図1は、本発明の第1の実施形態を適用可能な挙動データ解析ステムのブロック図を示している。同図において挙動データ解析システム1は、移動体としての車両2に取り付けられ車両2からの画像を記録する挙動データ収集装置としての撮像装置3、周知の構成であるパーソナルコンピュータ(以下PCとする)4、サーバ5を備えている。
撮像装置3には、撮像素子3a、GPS3b、加速度センサ3c等のセンサ群が内蔵されており、各センサより挙動データとして画像情報、位置情報、加速度情報を取得可能であり、取得された各情報は記憶部3dに記憶される。撮像装置3は、ドライブレコーダのように画像を記録する機能を有していてもよい。
FIG. 1 shows a block diagram of a behavior data analysis system to which the first embodiment of the present invention can be applied. In FIG. 1, a behavior data analysis system 1 includes an imaging device 3 as a behavior data collection device that is attached to a vehicle 2 as a moving body and records an image from the vehicle 2, and a personal computer (hereinafter referred to as a PC) having a known configuration. 4 and server 5 are provided.
The image pickup device 3 includes a sensor group such as an image pickup element 3a, a GPS 3b, and an acceleration sensor 3c, and can acquire image information, position information, and acceleration information as behavior data from each sensor. Is stored in the storage unit 3d. The imaging device 3 may have a function of recording an image like a drive recorder.

車両2からも、車両2の挙動に関する情報を取得することができる。車両2の挙動に関する情報としては、例えばアクセル開度、ブレーキのオンオフ及び強度、ステアリングの角度、ウインカのオンオフ等の情報が挙げられ、これ等の情報も挙動データとして記憶部3dに記憶される。記憶部3dにはSDカード等の記憶媒体6が接続可能であり、記憶部3dに記憶された各種データは記憶媒体6に記録することが可能である。   Information regarding the behavior of the vehicle 2 can also be acquired from the vehicle 2. Examples of information related to the behavior of the vehicle 2 include information such as accelerator opening, brake on / off and strength, steering angle, turn signal on / off, and the like, which are also stored in the storage unit 3d as behavior data. A storage medium 6 such as an SD card can be connected to the storage unit 3d, and various data stored in the storage unit 3d can be recorded in the storage medium 6.

車両2の運転者は、走行を終えて車両2を降車する際に、撮像装置3から記憶部3dに接続された記憶媒体6を取り外し、車両2の外部に持ち出すことが可能である。記憶媒体6に記憶されたデータは、PC4に接続されたSDカードリーダ等の読取装置7を介してPC4に取り込まれる。
挙動データ解析装置として機能するPC4にはデータ解析用のソフトウェアが処理部4aとして実装されており、処理部4aは画像認識を含む各種処理を行って運転者による車両2の運転における危険度を分析する。処理された結果は記憶部4bに記憶され、所定のタイミングで出力部4cを介して分析結果がレポートとして出力される。
The driver of the vehicle 2 can remove the storage medium 6 connected to the storage unit 3d from the imaging device 3 and take it out of the vehicle 2 when the vehicle 2 finishes traveling and gets off the vehicle 2. Data stored in the storage medium 6 is taken into the PC 4 via a reader 7 such as an SD card reader connected to the PC 4.
The PC 4 functioning as a behavior data analysis device is equipped with data analysis software as a processing unit 4a. The processing unit 4a performs various processes including image recognition to analyze the risk of driving the vehicle 2 by the driver. To do. The processed result is stored in the storage unit 4b, and the analysis result is output as a report via the output unit 4c at a predetermined timing.

処理部4aの具体的な処理動作を図2に示す。処理部4aは、先ずGPS3b、加速度センサ3cから送られた位置データ及び加速度データに基づいて運転の危険度を評価する(ST01)。ここでの具体的な評価内容は、例えば前後方向の加速度を計測して所定の閾値を超えた場合に急制動と判断し、この急制動の回数を計測するといったことが挙げられる。同様に、左右方向の加速度を計測して急ハンドルの回数を計測することも可能である。
位置データを用いた評価では、移動距離から速度を算出して速度を出しすぎていないかを評価することや、一時停止標識のある交差点の位置情報を持った地図データベースと組み合わせることにより一時不停止の回数をカウントすること等が挙げられる。
A specific processing operation of the processing unit 4a is shown in FIG. The processing unit 4a first evaluates the driving risk based on the position data and acceleration data sent from the GPS 3b and the acceleration sensor 3c (ST01). The specific evaluation contents here include, for example, measuring the acceleration in the front-rear direction and determining a sudden braking when a predetermined threshold is exceeded, and measuring the number of sudden brakings. Similarly, it is also possible to measure the number of sudden handles by measuring the acceleration in the left-right direction.
In the evaluation using the position data, the speed is calculated based on the moving distance to evaluate whether the speed is excessive, or in combination with the map database that has the position information of the intersection with the stop sign. And the like.

上述の評価結果を数値化して、運転の危険度が閾値以上であるか否かを判断する(ST02)。閾値以下であれば、運転は安全であったと判断して処理を終了する。閾値以上であればさらに詳細な評価が必要であると判断し、画像データに対して画像認識処理を行った後(ST03)、加速度データ、位置データ、画像データに基づいて運転評価を行う(ST04)。画像認識は、具体的には信号機認識、標識認識、車線認識、前方車両認識等である。画像認識の具体例について以下に説明する。   The above evaluation results are digitized to determine whether or not the driving risk is greater than or equal to a threshold value (ST02). If it is less than or equal to the threshold value, it is determined that the operation is safe and the process is terminated. If it is equal to or greater than the threshold, it is determined that further detailed evaluation is necessary, and after performing image recognition processing on the image data (ST03), driving evaluation is performed based on the acceleration data, position data, and image data (ST04). ). Specifically, the image recognition includes traffic signal recognition, sign recognition, lane recognition, forward vehicle recognition, and the like. A specific example of image recognition will be described below.

先ず、信号機の認識について説明する。信号機を認識する目的は、交通信号を検出して運転者に対する警告や運転の質評価を行うことにより安全運転を支援することである。例えば、信号機検出結果を用い、運転者の信号無視や急発進を検出することにより、運転者に警告を行うことができると共に運転の質評価を行うことができる。   First, the recognition of a traffic light will be described. The purpose of recognizing traffic lights is to support safe driving by detecting traffic signals and warning the driver and evaluating driving quality. For example, by using the signal detection result and detecting the driver's signal ignorance or sudden start, the driver can be warned and the driving quality can be evaluated.

図3は日本国内の信号機の例を、図4は米国内の信号機の例をそれぞれ示している。
図3及び図4に示すように、信号機の色及び形状は多様である。日本国内の信号機は、白熱光源のものとLED光源のものとがあり、光源が異なるとその色合いも異なってくる。具体的には、色の鮮やかさ、画素の色分布、背景色の違いによる映り込み等が挙げられる。また、図3に示す日本国内の信号機の色と、図4に示す米国内の信号機の色とは互いに異なっている。信号機の検知を行う場合には、色情報の多様な変化に対応する必要がある。
FIG. 3 shows an example of a traffic signal in Japan, and FIG. 4 shows an example of a traffic signal in the United States.
As shown in FIGS. 3 and 4, the color and shape of the traffic lights are various. There are incandescent light sources and LED light sources in Japan, and the colors of the light sources differ depending on the light source. Specifically, color vividness, pixel color distribution, reflection due to a difference in background color, and the like can be given. Also, the colors of traffic lights in Japan shown in FIG. 3 and the colors of traffic lights in the United States shown in FIG. 4 are different from each other. When detecting a traffic light, it is necessary to cope with various changes in color information.

また、日本国内と米国内とでは、信号機の形状も異なっている。図3に示した日本国内の信号機は基本的に外形が長円形であるが、図4に示した米国内の信号機は基本的に外形が四角形である。さらに、日本国内の信号機は横方向に各色が配置されているが、米国内の信号機は縦方向に各色が配置されている。大きさは日本国内の信号機よりも米国内の信号機の方が小さく、輝度は日本国内の信号機よりも米国内の信号機の方が明るい。
また、晴天と雨天、朝方と夕方等の変化により、信号機の色と形状が異なる。さらに、カメラの自動露光調整、自動色調整(AWB)機能により信号機の結像が異なり、これにより色と形状が変化する。
上述のように、多様な信号機の色と形状が存在することにより、高精度な信号機認識は困難な課題であった。
In addition, the shape of traffic lights is different in Japan and in the United States. The traffic signal in Japan shown in FIG. 3 is basically oval in outer shape, but the traffic signal in the United States shown in FIG. 4 is basically rectangular in shape. In addition, traffic lights in Japan are arranged in the horizontal direction, while signals in the United States are arranged in the vertical direction. The size of traffic lights in the United States is smaller than that of traffic lights in Japan, and the brightness of traffic lights in the United States is brighter than that of traffic lights in Japan.
Also, the color and shape of the traffic light differ depending on changes such as clear and rainy weather, morning and evening. Further, the image formation of the traffic light differs depending on the automatic exposure adjustment and automatic color adjustment (AWB) functions of the camera, which changes the color and shape.
As described above, due to the presence of various colors and shapes of traffic signals, high-accuracy traffic signal recognition has been a difficult task.

信号機の検出方法として、信号機の色と形状特性を用いて信号機の認識処理を行う。図3(a)、(b)、(c)及び図4(a)、(b)、(c)に示すように赤、黄、青信号機の形状は円形であり、図3(d)、(e)、(f)及び図4(d)に示すように矢印信号の形状は矢印形状である。
ここで、信号機の全体形状を用いて信号を認識する方法も考えられるが、信号の形状は多様であると共に撮影の角度によっては形状が変化し、また距離に応じて大きさや解像度も変化する。このため、輝度画像のみでの信号形状の認識は困難であると共に、背景と重なると誤認識が増加するという問題点もある。
そのため、色と形状情報を用いて信号を認識する方法を採用する。信号の色情報を用いて信号画像の候補領域を抽出し、抽出した信号候補領域に対して形状認識を行う。
As a method of detecting a traffic signal, a traffic signal recognition process is performed using the color and shape characteristics of the traffic signal. As shown in FIGS. 3 (a), (b), (c) and FIGS. 4 (a), (b), (c), the red, yellow and blue traffic lights are circular in shape, and FIG. As shown in (e), (f) and FIG. 4 (d), the shape of the arrow signal is an arrow shape.
Here, a method of recognizing a signal using the entire shape of the traffic light is conceivable, but the shape of the signal is various, the shape changes depending on the angle of photographing, and the size and resolution also change according to the distance. For this reason, it is difficult to recognize the signal shape using only the luminance image, and there is a problem that false recognition increases when it overlaps the background.
For this reason, a method of recognizing a signal using color and shape information is adopted. Signal signal candidate regions are extracted using the signal color information, and shape recognition is performed on the extracted signal candidate regions.

ここで、信号認識と候補領域抽出について説明する。
信号機の色を用いて撮像装置3により入力した画像の信号候補領域を抽出するが、信号機の画素と信号機以外の画素とを分離するときに異なる色交換によって分離性能が異なる。
先ず、車載カメラから入力した画像信号のRGB値をそのまま用いて信号画像とその他の画像とを分離する。次に、信号画像とその他の画像とのデータをrgb空間に変換し、信号画素とその他の画素との分離性能を調べる。ここで、r=R/(R+G+B)、g=G/(R+G+B)、b=B/(R+G+B)の変換式を使用する。
さらに(R/G,G/B)の二次元色空間に変換し、信号画素とその他の画素とを分離し、最後にRGB画素をYUV色空間に変換し、信号画素とその他の画素との分離性能を調べた。ここで、RGBとYUVとの変換は以下の式を用いる。
Here, signal recognition and candidate area extraction will be described.
The signal candidate area of the image input by the imaging device 3 is extracted using the color of the traffic light, but the separation performance differs due to different color exchanges when separating the pixels of the traffic light and the pixels other than the traffic light.
First, the signal image and other images are separated using the RGB values of the image signal input from the in-vehicle camera as they are. Next, the data of the signal image and the other image is converted into the rgb space, and the separation performance between the signal pixel and the other pixel is examined. Here, conversion formulas of r = R / (R + G + B), g = G / (R + G + B), and b = B / (R + G + B) are used.
Further, it is converted into a two-dimensional color space of (R / G, G / B), the signal pixel and other pixels are separated, and finally the RGB pixel is converted into the YUV color space. The separation performance was investigated. Here, the following formula is used for conversion between RGB and YUV.

Figure 2018022220
Figure 2018022220

上述により、信号画素とその他の画素との分離が可能である。ここで、YUV色空間を用い信号機候補領域を抽出する事例を説明する。
入力した信号の画像サンプルをRGB色空間からYUV色空間に変換し、日本国内の信号機に用いられている赤、黄、青信号のUV空間の分布を図5に示す。図5において、縦軸はVを、横軸はUをそれぞれ示している。
図5から明らかなように、青信号と赤及び黄信号とはそれぞれの画素分布が分離しているが、赤信号と黄信号とはそれぞれの画素分布の一部が重なってしまう。
As described above, the signal pixel and the other pixels can be separated. Here, an example of extracting a traffic signal candidate region using the YUV color space will be described.
An image sample of the input signal is converted from the RGB color space to the YUV color space, and the distribution of the UV space of the red, yellow, and blue signals used in Japanese traffic lights is shown in FIG. In FIG. 5, the vertical axis represents V and the horizontal axis represents U.
As is clear from FIG. 5, the pixel distributions of the blue signal and the red and yellow signals are separated from each other, but the red signal and the yellow signal partially overlap each other.

次に、信号機の画素抽出について説明する。図5に示すように、UV色空間では閾値処理により信号画素候補の抽出を行うため、事前に日本国内及び米国内の信号機画像サンプルを集め、各信号画素の色分布を調査して色範囲の閾値を決定しておく。UとVのそれぞれの最小値と最大値とを設けることにより信号画素を抽出する。赤、黄、青のそれぞれのUmin、Umax、Vmin、Vmaxをそれぞれ設定し、また信号ではない画素と重ならないように閾値を決定する。ここでは、YUV色空間の閾値処理で信号画素候補領域を抽出する。本形態では、UV色空間での信号画像抽出方法を示したが、他の色空間で信号画素を検知してもよい。   Next, pixel extraction of a traffic light will be described. As shown in FIG. 5, in the UV color space, signal pixel candidates are extracted by threshold processing. Therefore, signal image samples in Japan and the United States are collected in advance, and the color distribution of each signal pixel is investigated to determine the color range. A threshold is determined. A signal pixel is extracted by providing a minimum value and a maximum value of U and V, respectively. Umin, Umax, Vmin, and Vmax are set for red, yellow, and blue, respectively, and threshold values are determined so as not to overlap pixels that are not signals. Here, signal pixel candidate regions are extracted by threshold processing in the YUV color space. In the present embodiment, the signal image extraction method in the UV color space is shown, but the signal pixel may be detected in another color space.

次に、画素膨張処理による信号候補領域抽出について説明する。上述したUV色空間での閾値処理において、抽出した信号画素は不連続になる場合がある。そこで、信号画素の膨張処理により画素面積を拡張して信号画素を連続させる。本形態では、信号画素の1画素に対して縦横7画素膨張処理を行う。
次に、信号候補領域の面積閾値処理について説明する。赤色の看板や青色の看板等、信号機の色と同色の背景の物体は、信号候補領域として検知される。このため、信号画素の最小面積と最大面積とを閾値として設けることにより、広い面積の看板と小さな面積のからーノイズとを共に除去することができる。
Next, signal candidate region extraction by pixel expansion processing will be described. In the threshold processing in the UV color space described above, the extracted signal pixels may be discontinuous. Therefore, the pixel area is expanded by the expansion process of the signal pixels to make the signal pixels continuous. In the present embodiment, vertical and horizontal 7-pixel expansion processing is performed on one pixel of signal pixels.
Next, the area threshold processing of the signal candidate region will be described. A background object having the same color as the traffic light, such as a red signboard or a blue signboard, is detected as a signal candidate area. For this reason, by providing the minimum area and the maximum area of the signal pixel as threshold values, it is possible to remove both the large area signboard and the small area noise.

次に、信号形状認識について説明する。上述した色情報を用いて信号の候補領域を抽出し、抽出した信号候補領域に対して信号機の形状認識を行う。これは、赤、黄、青信号の円形抽出と矢印信号の矢印認識とにより行われる。   Next, signal shape recognition will be described. Signal candidate areas are extracted using the color information described above, and traffic signal shape recognition is performed on the extracted signal candidate areas. This is done by circular extraction of red, yellow and blue signals and arrow recognition of the arrow signal.

先ず、信号の円形認識について説明する。赤、黄、青信号の形状認識は円形認識で行い、これはHough変換(ハフ変換)により円抽出を行う。
次に、矢印信号の矢印認識について説明する。これは、青信号検知と同色で矢印信号の候補領域検知を行う。そして、検知した対象領域に対して矢印テンプレートマッチングにより矢印を検知して認識する。対象領域とテンプレート画像の画素差分平均値は、閾値よりも小さい場合に矢印信号が検知されると判断する。
First, signal circular recognition will be described. Shape recognition of red, yellow and blue signals is performed by circular recognition, which performs circle extraction by Hough transform (Hough transform).
Next, arrow recognition of an arrow signal will be described. This performs the candidate area detection of the arrow signal in the same color as the blue signal detection. The detected target area is detected and recognized by arrow template matching. If the average pixel difference between the target area and the template image is smaller than the threshold value, it is determined that an arrow signal is detected.

次に、周辺情報による誤認識削減について説明する。
図3に示すように、日本国内の信号機では、赤信号が点灯するとき左側の青信号は暗く低輝度領域となる。同様に、黄信号が点灯するときは両側に低輝度領域が存在し、青信号が点灯するときは右側に低輝度領域が存在する。このような構成から、対象信号の周りに低輝度領域の画素平均値における閾値を設定し、対象領域の画素平均値が閾値を超えたい場合には誤認識として認識結果から削除する。
Next, the reduction of misrecognition by surrounding information will be described.
As shown in FIG. 3, in the traffic light in Japan, when the red signal is lit, the blue signal on the left side is dark and becomes a low luminance region. Similarly, when the yellow signal is lit, there are low luminance regions on both sides, and when the blue signal is lit, there is a low luminance region on the right side. With such a configuration, a threshold value in the pixel average value of the low luminance region is set around the target signal, and if the pixel average value in the target region is to exceed the threshold value, it is deleted from the recognition result as a false recognition.

図4に示す米国内の信号機は縦方向に各色灯が配置されているため、赤信号が点灯するとき下側の青信号は暗く低輝度領域となる。黄信号が点灯するときは上下に低輝度領域が存在し、青信号が点灯するときは上側に低輝度領域が存在する。このような構成から、対象信号の周りに低輝度領域の画素平均値における閾値を設定し、対象領域の画素平均値が閾値を超えたい場合には誤認識として認識結果から削除する。   Since the traffic lights in the United States shown in FIG. 4 have each color lamp arranged in the vertical direction, when the red signal lights up, the lower blue signal is dark and becomes a low luminance region. When the yellow signal is lit, there is a low luminance region above and below, and when the blue signal is lit, there is a low luminance region above. With such a configuration, a threshold value in the pixel average value of the low luminance region is set around the target signal, and if the pixel average value in the target region is to exceed the threshold value, it is deleted from the recognition result as a false recognition.

次に、撮像装置3の内部で行う車線検出のためのPC4による白線検出アルゴリズムについて説明する。これは、車両2から左右方向にエッジを探索し、白線や道路端部等を検出するものであり、単純化するとエッジを検出してハフ変換により直線を検出する。
先ず、画面上の白線が存在する画面下端をROI領域として設定する。次に、ノイズを減らすためボケ画像(画面中心から左右方向に1次IIR−LPFをかけて画像をボケさせる)を作成する。そして、ボケ画像に対して車両中心線より左にある一定以上のスレッショルドを有する一つ目のエッジを探索し、探索された点の周辺における一定領域を道路端部または白線の候補点としてマークする。
Next, a white line detection algorithm by the PC 4 for lane detection performed inside the imaging device 3 will be described. In this method, an edge is searched from the vehicle 2 in the left-right direction, and a white line, a road edge, or the like is detected. When simplified, the edge is detected and a straight line is detected by Hough transform.
First, the lower end of the screen where the white line on the screen exists is set as the ROI area. Next, in order to reduce noise, a blurred image (an image is blurred by applying a primary IIR-LPF in the horizontal direction from the center of the screen). Then, the first edge having a certain threshold or more to the left of the vehicle center line with respect to the blurred image is searched, and a certain area around the searched point is marked as a road edge or a white line candidate point. .

次に、候補点から確率的ハフ変換により道路端部を検出する。なお、ハフ変換の投票数が一定以下の場合や長さが一定以下の場合には、直線が検出できなかったという判断を行う。また、画面左右の領域に分けて適切な角度範囲以外に見つけた直線をフィルタリングする。
次に、左右それぞれの領域について、見つかった道路端部の傾き及び切片を時間軸でLPF(1次IIR−LPF)をかける。また、過去のフレームの結果と比較し、大きくずれている場合には信頼度が低いと判断して除外する。そして、一定以上の数を連続したフレームで見つけていれば、信頼度が高いとして採用する。
Next, a road edge is detected from the candidate points by probabilistic Hough transform. If the number of votes for Hough transform is less than a certain value or if the length is less than a certain value, it is determined that a straight line cannot be detected. Also, straight lines found outside the appropriate angle range are filtered by dividing the screen into left and right areas.
Next, LPF (primary IIR-LPF) is applied to the slope and intercept of the found road edge on the time axis for each of the left and right regions. In addition, when the result is largely different from the result of the past frame, it is determined that the reliability is low and is excluded. If a certain number or more is found in successive frames, it is adopted as having high reliability.

次に、道路端部の先端に関して二次関数の係数を変化させ、曲率を持たせて投票を行って最も特徴点との合致スコアが高い曲げ方(係数)を採用する。なお、採用した曲率をlとrとでそれぞれ時間軸に対して1次IIR−LPFをかけて平滑化を行う。
最後に、検出した道路下端の座標変動をチェックする。一定速度以上でかつ道路下端の座標が安定した状態より変動した場合には、車線変更と判定する。
Next, the coefficient of the quadratic function is changed with respect to the tip of the road edge, and the voting is performed with the curvature, and the bending method (coefficient) having the highest matching score with the feature point is adopted. The adopted curvature is smoothed by applying a first-order IIR-LPF to the time axis with l and r.
Finally, the detected coordinate fluctuation at the lower end of the road is checked. When the vehicle speed exceeds a certain speed and the coordinates of the lower end of the road change from a stable state, it is determined that the lane has been changed.

次に、PC4による道路標識検知処理について説明する。図6において、撮像装置3は通常、車両2のフロントガラス内側等に装着されており、車両2の進行方向前方の画像を撮影する。画像入力部8は、撮像装置3で撮影された映像を画像処理可能なデジタル画像として取り込む。画像処理部9は、後述の認識処理を行うために必要な補正や変換、フィルタといった全面画像処理を行う。注目領域抽出部10は、全面画像から認識対象である標識を探索する領域を設定する。   Next, road sign detection processing by the PC 4 will be described. In FIG. 6, the imaging device 3 is usually mounted on the inside of the windshield of the vehicle 2 or the like, and takes an image of the vehicle 2 in the traveling direction forward. The image input unit 8 captures video captured by the imaging device 3 as a digital image that can be processed. The image processing unit 9 performs full-scale image processing such as correction, conversion, and filter necessary for performing recognition processing described later. The attention area extraction unit 10 sets an area for searching for a marker to be recognized from the entire image.

テンプレート画像保持部11は、予め決定されたターゲットの標識画像群をテンプレート画像としてまとめて読み込むと共に保持する。マッチング処理部12は、上述した注目領域画像からテンプレート画像を用いてマッチングを行う。マッチングの方式は、画素毎の輝度値比較や形状特徴を用いたマッチング等、様々な方式が考えられる。
道路標識判定部13では、予め設定された基準値を用いてマッチング結果の評価を行い、得られた評価結果から道路標識の検知判定を行う。そして最後に結果出力部14より判定結果である道路標識検知結果を出力する。出力先はシステムによって異なるが、例えば表示ディスプレイに検知結果を表示する等である。
The template image holding unit 11 reads and holds a predetermined target sign image group collectively as a template image. The matching processing unit 12 performs matching using the template image from the above-described attention area image. As a matching method, various methods such as a luminance value comparison for each pixel and a matching using a shape feature can be considered.
The road sign determination unit 13 evaluates the matching result using a preset reference value, and performs detection determination of the road sign from the obtained evaluation result. Finally, the result output unit 14 outputs a road sign detection result as a determination result. Although the output destination varies depending on the system, for example, the detection result is displayed on the display.

図7を用いて検知処理動作を説明する。先ず、前処理としてテンプレート画像の読み込みを行う(ST11)。これは、撮像装置3からの画像入力開始前の初期化処理の中で行い、以降は読み込まれた画像をテンプレート画像保持部11に保持する。読み込むテンプレート画像は、検知対象の標識に応じた画像が対象となる。
次に、撮像装置3の撮影画像を画像入力部9に入力する。撮像装置3からは一定間隔(フレームレート)で画像が出力されるので、その都度入力処理を行う(ST12)。入力した画像には、画像処理部9において歪み補正やフィルタ等の画像処理、グレースケール変換等の、後の認識処理に適した画像処理が行われる(ST13)。
The detection processing operation will be described with reference to FIG. First, a template image is read as preprocessing (ST11). This is performed in an initialization process before the start of image input from the imaging device 3, and thereafter, the read image is held in the template image holding unit 11. The template image to be read is an image corresponding to the marker to be detected.
Next, the captured image of the imaging device 3 is input to the image input unit 9. Since images are output from the imaging device 3 at a constant interval (frame rate), input processing is performed each time (ST12). The input image is subjected to image processing suitable for later recognition processing such as distortion correction, image processing such as filtering, and grayscale conversion in the image processing section 9 (ST13).

画像の視野範囲において、検知対象の標識が出現する領域が予め絞り込める場合は、注目領域(ROI)として画像の抽出を行いグレー変換等の必要な画像処理を施す(ST14)。次に、注目領域画像とテンプレート画像とのマッチング処理をマッチング処理部12にて行う(ST15)。使用するテンプレート画像はステップST11でテンプレート画像保持部11に保持している検知対象の標識画像全てを順にマッチングさせる。ここでいうマッチングとは、テンプレート画像と検査画像(ROI)とのそれぞれの特徴を比較することである。本実施形態では、正規化相互相関を用いた場合で、以下の式により相関値を計算する(ST16)。また、ここで使用するテンプレート画像は、標識部の全体が含まれる画像である。   When the region where the detection target sign appears in the field of view of the image can be narrowed down in advance, the image is extracted as a region of interest (ROI) and necessary image processing such as gray conversion is performed (ST14). Next, matching processing between the attention area image and the template image is performed by the matching processing unit 12 (ST15). In step ST11, the template images to be used are matched in order with all of the marker images to be detected held in the template image holding unit 11. The term “matching” here refers to comparing the features of the template image and the inspection image (ROI). In this embodiment, when normalized cross-correlation is used, a correlation value is calculated by the following equation (ST16). Further, the template image used here is an image including the entire sign part.

Figure 2018022220
Figure 2018022220

マッチング結果は、最も高かった相関値が予め設定した基準値を超えたか否かで道路標識判定部13が検知判定を行う(ST17)。相関値を超えたテンプレート画像がなかった場合は検知なし、相関値を超えるテンプレート画像が一つあった場合にはそのテンプレート画像の標識を検知したことを結果出力部14が出力する(ST18)。基準値を超えるテンプレート画像が複数あった場合は、最大値のテンプレートを選択する等の処理を行う。判定後は次の画像検査に移るため、ステップST12の処理に戻る。
上述した構成のうち、画像入力部8、画像処理部9、注目領域抽出部10、テンプレート画像保持部11、マッチング処理部12、道路標識判定部13、結果出力部14により標識検知部15が構成されている。
PC4は、上述した処理動作に基づく画像認識結果を用い、一時不停止の検出や車線変更の検出、赤信号無視の検出を行う。
In the matching result, the road sign determination unit 13 performs detection determination based on whether or not the highest correlation value exceeds a preset reference value (ST17). If there is no template image exceeding the correlation value, no result is detected, and if there is one template image exceeding the correlation value, the result output unit 14 outputs that the label of the template image has been detected (ST18). When there are a plurality of template images exceeding the reference value, processing such as selecting the template with the maximum value is performed. After the determination, the process returns to step ST12 in order to proceed to the next image inspection.
Among the configurations described above, the sign detection unit 15 is configured by the image input unit 8, the image processing unit 9, the attention area extraction unit 10, the template image holding unit 11, the matching processing unit 12, the road sign determination unit 13, and the result output unit 14. Has been.
The PC 4 uses the image recognition result based on the processing operation described above to detect temporary stop, detect lane changes, and ignore red signals.

次に、一時停止無視検出について説明する。図8は、一時停止無視検出の処理に用いられるブロック図を示している。この一時停止無視検出には、上述した標識検知部15及び一時停止検知部16が用いられる。一時停止検知部16には、車両2から送られた速度データ及び入力画像時間情報が入力される。入力画像時間情報は、撮像装置3による画像入力時の時間データである。一時停止検知部16は、速度データと入力画像時間情報とに基づいて一時停止無視のイベント検知を行う。   Next, temporary disregard detection will be described. FIG. 8 shows a block diagram used for the process of detecting suspension disregard. The sign detection unit 15 and the pause detection unit 16 described above are used for this temporary stop detection. The temporary stop detector 16 receives speed data and input image time information sent from the vehicle 2. The input image time information is time data when an image is input by the imaging device 3. The pause detection unit 16 detects an event that ignores pause based on the speed data and the input image time information.

図9は一時停止標識検知後に車両2が停止した場合を示し、図10は一時停止標識を無視して車両2が停止しなかった場合を示す。
車両停止をチェックする期間は、一時停止標識検知からパラメータの「停止探索時間」で設定された期間であり、この期間に車両速度がパラメータの「停止見なし速度」を下回った場合に停止したと判断する。同様に、停止探索時間内に停止見なし速度を下回らなかった場合に停止しなかったと判断し、一時停止検知部16は一時停止無視のイベント検知フラグを出力する。
一時停止検知部16から送られたイベント検知フラグは、標識検知部15から送られた標識検知フラグと共にPC4に入力される。各フラグを受け取ったPC4は、車両2に一時停止無視があったか否かを判断する。
FIG. 9 shows a case where the vehicle 2 stops after detection of the stop sign, and FIG. 10 shows a case where the vehicle 2 does not stop ignoring the stop sign.
The vehicle stop check period is the period set by the parameter “stop search time” from the detection of the stop sign, and it is determined that the vehicle has stopped if the vehicle speed falls below the parameter “deemed stop speed” during this period. To do. Similarly, it is determined that the vehicle has not stopped when it is not less than the stop speed within the stop search time, and the temporary stop detection unit 16 outputs an event detection flag for ignoring the temporary stop.
The event detection flag sent from the pause detection unit 16 is input to the PC 4 together with the sign detection flag sent from the sign detection unit 15. The PC 4 receiving each flag determines whether or not the vehicle 2 has been temporarily ignored.

次に、赤信号無視について説明する。これは、赤信号を認識した結果を用いて赤信号無視イベントを検知する。撮像装置3によって赤信号が検知されたとき、車両2が一定の速度以上で赤信号道路領域を通過する場合に信号無視として検知する。このとき、車両2は赤信号に近付いて停止線を越えてしまうので、検知した信号領域のサイズは一定のサイズ閾値よりも大きい。   Next, red signal neglect will be described. This detects a red signal ignoring event using the result of recognizing the red signal. When a red signal is detected by the imaging device 3, it is detected that the signal is ignored when the vehicle 2 passes through the red signal road region at a certain speed or higher. At this time, since the vehicle 2 approaches the red signal and crosses the stop line, the size of the detected signal region is larger than a certain size threshold.

次に、車線変更検出について説明する。40km/h以上の速度でかつ両方の白線が有効のとき(低速では細い道等ですれ違いを行うため斜線を跨ぐ走行をすることがあるために除外する)、下側端部に検出した白線のX座標の一つ前のフレームとの差分に関してLPF(ローパスフィルタ)をかけた後のスレッショルド以上のとき、車線変更を行ったと検出する。40km/h以下または白線が無効の場合は車線安定を待つ。
上述の方式で車線変更を検出し、前回の車線変更からどのくらいの期間で再度車線変更を行ったかに応じて、例えばイベントフラグ値0:イベントなし(基本)、1:9秒以内に車線変更、2:6秒以内に車線変更、3:3秒以内に車線変更といった条件フラグを立てる。このフラグはサーバ5に転送され、これにより頻繁に車線変更を繰り返す危険運転を検出する。
Next, lane change detection will be described. When both white lines are effective at speeds of 40 km / h or more (excluded because there is a case where the vehicle crosses the diagonal line in order to pass on a narrow road at low speed), the white line detected at the lower end When the difference from the previous frame of the X coordinate is equal to or higher than the threshold after LPF (low pass filter) is applied, it is detected that the lane has been changed. If it is less than 40km / h or white line is invalid, wait for lane stability.
Depending on how long the lane change was detected by the above-mentioned method and the lane change was made again after the previous lane change, for example, event flag value 0: no event (basic), lane change within 1: 9 seconds, 2: Set a condition flag such as lane change within 6 seconds, lane change within 3: 3 seconds. This flag is transferred to the server 5 to detect dangerous driving that frequently repeats lane changes.

次に、速度超過検出について説明する。図11は、速度超過検出の処理に用いられるブロック図を示している。この一時停止無視検出には、上述した標識検知部15及び速度超過検知部17が用いられる。速度超過検知部17には、車両2から送られた速度データ及び入力画像時間情報と、標識検知部15から送られた標識検知フラグとが入力される。速度超過検知部17は、速度データと入力画像時間情報とに基づいて一時停止無視のイベント検知を行う。   Next, the overspeed detection will be described. FIG. 11 shows a block diagram used for the overspeed detection process. The above-described sign detection unit 15 and overspeed detection unit 17 are used for this temporary stop ignore detection. The overspeed detection unit 17 receives speed data and input image time information sent from the vehicle 2 and a sign detection flag sent from the sign detection unit 15. The overspeed detection unit 17 detects the event of ignoring the pause based on the speed data and the input image time information.

図12は速度標識検知後に車両2が速度超過をしなかった場合を示し、図13は速度標識検知後に車両2が速度超過をした場合を示す。
速度超過をチェックする期間は、制限速度標識検知からパラメータの「速度計測時間」で設定された期間であり、この期間に車両速度がパラメータの「制限速度」を上回った場合に速度超過があったと判断する。同様に、速度計測時間内に制限速度を上回らなかった場合に速度超過がなかったと判断する。速度超過検知部17は、速度超過があったと判断した場合に速度超過ありのイベント検知フラグを出力する。
速度超過検知部17から送られたイベント検知フラグは、標識検知部15から送られた検知制限速度フラグと共にPC4に入力される。各フラグを受け取ったPC4は、車両2に速度超過があったか否かを判断する。
FIG. 12 shows a case where the vehicle 2 has not exceeded the speed after detecting the speed sign, and FIG. 13 shows a case where the vehicle 2 has exceeded the speed after detecting the speed sign.
The period to check for overspeed is the period set by the parameter “speed measurement time” from the detection of the speed limit sign, and if the vehicle speed exceeds the parameter “limit speed” during this period, to decide. Similarly, if the speed limit is not exceeded within the speed measurement time, it is determined that the speed has not exceeded. The speed excess detection unit 17 outputs an event detection flag with a speed excess when it is determined that the speed has been exceeded.
The event detection flag sent from the overspeed detection unit 17 is input to the PC 4 together with the detection limit speed flag sent from the sign detection unit 15. The PC 4 receiving each flag determines whether the vehicle 2 has exceeded the speed.

上述したように、本発明の第1の実施形態では、図2に示したように先ず加速度データ及び位置データによる運転評価を行い、その後、運転の危険度が閾値以上である場合に画像認識処理を行ってさらに運転評価を行っている。このように、運転評価を2段階に分けて行うことにより、処理負荷が高い画像認識を極力減らすことができ、画像認識の処理量を減少させて処理時間の短縮を図ることが可能な挙動データ解析システムを提供することができる。   As described above, in the first embodiment of the present invention, as shown in FIG. 2, first, driving evaluation is performed based on acceleration data and position data, and then image recognition processing is performed when the driving risk is equal to or higher than a threshold value. For further driving evaluation. In this way, by performing driving evaluation in two stages, behavior data that can reduce image recognition with a high processing load as much as possible, and can reduce the processing amount of image recognition and shorten the processing time. An analysis system can be provided.

第1の実施形態では、画像データ、位置データ、加速度データをSDカード等の記憶媒体6によってPC4に転送していたが、図14に示すように3GやLTE等の携帯用通信手段を用いて直接サーバ5に転送する場合も考えられる。この場合、サーバ5はCPU、ROM、RAM、HDD、外部I/O等を備えた処理部5aを備えており、挙動データ解析装置として機能する。この構成では、通信するデータ量に応じて通信料金が発生するため、通信するデータ量は極力減らす必要がある。以下、この構成における処理動作を第2の実施形態として図15に示すフローチャートに基づいて説明する。   In the first embodiment, image data, position data, and acceleration data are transferred to the PC 4 by the storage medium 6 such as an SD card. However, as shown in FIG. 14, portable communication means such as 3G or LTE is used. A case of transferring directly to the server 5 is also conceivable. In this case, the server 5 includes a processing unit 5a including a CPU, ROM, RAM, HDD, external I / O, and the like, and functions as a behavior data analysis apparatus. In this configuration, since a communication fee is generated according to the amount of data to be communicated, it is necessary to reduce the amount of data to be communicated as much as possible. The processing operation in this configuration will be described below as a second embodiment with reference to the flowchart shown in FIG.

先ず、加速度データ及び位置データのリクエストをサーバ5側から撮像装置3側に向けて送信し(ST21)、撮像装置3はそのリクエストに応じてサーバ5にデータを送信する(ST22)。ここで、加速度データ及び位置データについてはデータ量が少ないため、常時送信していてもよい。その後、サーバ5側で加速度データ及び位置データの解析を行い運転危険度の評価を行う(ST23)。危険度が閾値以下の場合には、安全運転であると判断して処理を終了する。   First, a request for acceleration data and position data is transmitted from the server 5 side to the imaging device 3 side (ST21), and the imaging device 3 transmits data to the server 5 in response to the request (ST22). Here, the acceleration data and the position data may be constantly transmitted because the data amount is small. Thereafter, acceleration data and position data are analyzed on the server 5 side to evaluate the driving risk (ST23). If the degree of risk is less than or equal to the threshold value, it is determined that the vehicle is safe driving, and the process ends.

ステップST23で危険度が閾値以上であった場合には、サーバ5側から撮像装置3側に画像データの送信リクエストを行い(ST24)、撮像装置3はリクエストに応じて画像データをサーバ5に送信する(ST25)。
加速度データ及び位置データを解析する際に、運転の評価のみではなく急制動、急ハンドル、スピードの出し過ぎ等の、後で画像認識を行うために使用したい危険な場面を予め抽出しておくことにより、画像データの送信リクエストに必要な総データ時間を指定することも可能である。これにより、特に必要な場面のみを抽出して画像データの容量を減らすことができる。このように、サーバ5側で受信した画像に対して画像認識処理を行い(ST26)、加速度データ及び位置データによる運転評価を行う(ST27)。
この構成により、画像認識の処理量を従来に比して減らすことができ、画像処理の負荷を低減することにより処理時間を短縮することができる。
If the degree of risk is greater than or equal to the threshold value in step ST23, the server 5 side sends an image data transmission request to the imaging device 3 side (ST24), and the imaging device 3 transmits the image data to the server 5 in response to the request. (ST25).
When analyzing acceleration data and position data, extract not only driving evaluation but also dangerous scenes that you want to use later for image recognition such as sudden braking, sudden steering, excessive speed, etc. Thus, it is possible to designate the total data time required for the image data transmission request. Thereby, it is possible to reduce the capacity of the image data by extracting only particularly necessary scenes. In this manner, image recognition processing is performed on the image received on the server 5 side (ST26), and driving evaluation based on acceleration data and position data is performed (ST27).
With this configuration, the amount of image recognition processing can be reduced as compared to the conventional case, and the processing time can be shortened by reducing the load of image processing.

第2の実施形態では、運転の危険度を評価して評価値が閾値以下の場合には画像認識処理を行わない構成としたが、評価値が低い(危険運転を行う)運転者の場合は全ての運転を画像認識処理し、評価値が高い(安全運転を行う)運転者の場合には急制動をかけた場合のみ画像認識処理を行う構成としてもよい。これは、過去に事故を起こしたことがある(危険運転を行った)運転者は急制動の回数が多いということが実験的に判明したことから、加速度センサ3cにより急制動を検出してその回数や行い方から画像処理方法を変更するものである。以下、この処理動作を第3の実施形態として説明する。   In the second embodiment, the degree of driving risk is evaluated and the image recognition process is not performed when the evaluation value is equal to or less than the threshold value. However, in the case of a driver with a low evaluation value (performing dangerous driving) A configuration may be adopted in which image recognition processing is performed for all driving and the image recognition processing is performed only when sudden braking is applied to a driver with a high evaluation value (performing safe driving). This is because it has been experimentally found that a driver who has caused an accident in the past (has performed dangerous driving) has a large number of sudden brakings. The image processing method is changed based on the number of times and how to do it. Hereinafter, this processing operation will be described as a third embodiment.

第3の実施形態における運転評価は、急制動の回数または急制動の仕方に基づいて行う、急制動は、事故寸前のヒヤリハット事例の際に生じ易く、一般的には事故率と相関している。すなわち急制動が多い運転者は危険運転の傾向があるといえる。そこで、本実施形態では所定時間または所定距離あたりの急制動回数(例えば1時間に何回急制動をかけたか)や走行距離または走行時間に対する急制動のタイミング(例えば0〜50km区間に比して50〜100km区間で急制動回数が多いのは疲れにより集中力が落ちるタイプであることを示す)を用いて運転評価を行う。
急制動の検出は、速度センサにより速度の時間変化から加速度を調べる方法、GPSの位置情報の変化から加速度を調べる方法、加速度センサにより加速度を調べる方法等があるが、本実施形態では加速度センサ3cにより加速度を検出する場合を説明する。
The driving evaluation in the third embodiment is performed based on the number of sudden brakings or the manner of sudden braking. Sudden braking is likely to occur in the case of a near-miss accident just before an accident and is generally correlated with the accident rate. . That is, it can be said that a driver with a lot of sudden braking has a tendency of dangerous driving. Therefore, in the present embodiment, the number of sudden brakings per predetermined time or predetermined distance (for example, how many sudden brakings are applied per hour) and the timing of sudden braking with respect to the traveling distance or traveling time (for example, as compared with a 0-50 km section) Driving evaluation is carried out using a method in which the number of sudden brakings in the 50 to 100 km section is a type in which the concentration decreases due to fatigue.
Detection of sudden braking includes a method of examining acceleration from a change in speed with a speed sensor, a method of examining acceleration from a change in GPS position information, a method of examining acceleration using an acceleration sensor, and the like. In this embodiment, the acceleration sensor 3c is used. The case where acceleration is detected will be described.

第3の実施形態における処理動作を図16に示すフローチャートに基づいて説明する。
先ず、サーバ5は撮像装置3によって収集された加速度データ、位置データ、画像データを取得する(ST31)。各データには、記録時の時刻も記録されている。
次に、サーバ5は加速度データから0.3G(1G=9.8m/sとする)以上の加速度で減速した回数(急制動回数)を算出し(ST32)、記録時刻から所定時間(例えば1時間)毎の急制動回数を算出する(ST33)。なお、本実施形態では急制動を0.3G以上の加速度による減速としたが、この値は任意に設定可能である。
The processing operation in the third embodiment will be described based on the flowchart shown in FIG.
First, the server 5 acquires acceleration data, position data, and image data collected by the imaging device 3 (ST31). Each data also records the time of recording.
Next, the server 5 calculates the number of times of deceleration (the number of times of sudden braking) at an acceleration of 0.3 G (1G = 9.8 m / s 2 ) or more from the acceleration data (ST32), and a predetermined time (for example, from the recording time) The number of sudden brakings is calculated every 1 hour (ST33). In this embodiment, sudden braking is decelerated by acceleration of 0.3 G or more, but this value can be set arbitrarily.

次に、算出した所定時間毎の急制動回数が予め設定された所定回数を超えているか否かが判断され(ST34)、所定回数を超えている場合には記録されている全画像データを解析する(ST35)。所定回数を超えていない場合には、記録されている画像データのうち急制動が記録された時刻周辺の画像データのみを解析する(ST36)。
上述の構成により、第2の実施形態よりも細かな条件で運転者の危険度を判別することができ、多種多様な危険度に応じた解析用の画像データをその都度適切に処理することにより、運転者に応じた運転評価を短時間で行うことができる。
Next, it is determined whether or not the calculated number of times of sudden braking exceeds a predetermined number of times set in advance (ST34), and if it exceeds the predetermined number of times, all recorded image data is analyzed. (ST35). If the predetermined number of times has not been exceeded, only the image data around the time when sudden braking is recorded is analyzed among the recorded image data (ST36).
With the above-described configuration, it is possible to determine the risk level of the driver under conditions that are finer than those of the second embodiment, and by appropriately processing the image data for analysis corresponding to various risk levels each time. The driving evaluation according to the driver can be performed in a short time.

第3の実施形態において、急制動の発生率は地形によって左右される。例えば、土地が広く道路も広い地域では急制動は発生しにくく、市街地のような道路が狭く人が飛び出し易い地域では急制動が発生し易い。
そこで、予めサーバ5あるいは撮像装置3に記録されている地図データと取得した位置データとを用い、急制動が発生した地点を算出してその地点が急制動多発地域か否かを判定し、急制動多発地域であれば急制動の回数に予め定めた係数を乗じる構成としてもよい。例えば、市街地の1車線道路を走行している場合には急制動回数に係数0.5を乗じて計数し、市街地ではない2車線道路を走行している場合には急制動回数に計数1を乗じて計数して、最終的な急制動回数が所定値を超えたか否かにより処理方法を変更してもよい。この構成により、地域性により異なる急制動発生率を考慮した運転評価を行うことができる。
In the third embodiment, the rate of sudden braking depends on the terrain. For example, sudden braking is unlikely to occur in areas where land is wide and roads are wide, and sudden braking is likely to occur in areas such as urban areas where roads are narrow and people are likely to jump out.
Therefore, using the map data recorded in advance in the server 5 or the imaging device 3 and the acquired position data, a point where sudden braking has occurred is calculated, and it is determined whether or not the point is a region where frequent sudden braking occurs. In the case of frequent braking, the number of sudden brakings may be multiplied by a predetermined coefficient. For example, when driving on a one-lane road in an urban area, the number of sudden braking is counted by multiplying by a factor of 0.5, and when traveling on a two-lane road that is not an urban area, the number of sudden braking is counted as 1. The processing method may be changed depending on whether or not the final number of sudden braking exceeds a predetermined value. With this configuration, it is possible to perform driving evaluation in consideration of the sudden braking occurrence rate that varies depending on regional characteristics.

第3の実施形態において、位置情報を用いて図16のステップST34に示す所定回数を変更する構成としてもよい。例えば、1車線道路を走行している割合が8割を占めている場合には所定回数を下げ、2車線道路を走行している割合が8割を占めている場合には所定回数を上げる構成とする。これにより、より細かな運転条件に応じた運転評価を行うことができる。   In 3rd Embodiment, it is good also as a structure which changes the predetermined frequency shown to step ST34 of FIG. 16 using a positional information. For example, when the percentage of traveling on one lane road accounts for 80%, the predetermined number of times is reduced, and when the percentage of traveling on two lane roads accounts for 80%, the predetermined number of times is increased. And Thereby, the driving | running evaluation according to a more detailed driving | running condition can be performed.

また、撮像装置3として用いられるドライビングレコーダは長期記録を可能とするために上書きが可能であり、衝突や運転者が停止スイッチを押下することにより上書きが行われなくなる。そこで、ドライビングレコーダに記録された急制動回数が所定値よりも多い場合には画像データをサーバ5に送信し、急制動回数が所定値よりも少ない場合には画像データをサーバ5に送信することなく上書きする構成としてもよい。
さらに、急制動回数が多い場合には画像データをそのまま保存し、急制動回数が少ない場合には画像データを圧縮して保存する構成としてもよい。
The driving recorder used as the imaging device 3 can be overwritten to enable long-term recording, and is not overwritten by a collision or when the driver presses a stop switch. Therefore, when the number of sudden brakings recorded in the driving recorder is larger than a predetermined value, the image data is transmitted to the server 5, and when the number of sudden brakings is smaller than the predetermined value, the image data is transmitted to the server 5. It is good also as a structure overwritten without.
Further, the image data may be stored as it is when the number of sudden braking is large, and the image data may be compressed and stored when the number of sudden braking is small.

第3の実施形態では、車両2に生じたイベントの度合いとして所定時間における急制動の回数を計測し、これに基づいて解析処理である運転評価方法を変更したが、車両2に生じたイベントとしては他のものを用いてもよい。イベントの度合いとしては、所定時間における急ハンドルの回数、所定時間における車線変更の回数等が挙げられる。
また、急制動の回数が所定値よりも多い場合には白線検知による白線無視の有無の解析や信号無視の有無の解析、一時停止無視の有無の解析を行い、急制動の回数が所定値よりも少ない場合には一時停止無視の有無の解析のみを行う構成としてもよい。これにより、解析の種類を異ならせて解析の必要が薄いデータは解析を除外することにより、処理の負荷を軽減することができる。
In the third embodiment, the number of sudden brakings in a predetermined time is measured as the degree of the event that has occurred in the vehicle 2, and the driving evaluation method that is the analysis process is changed based on this. Others may be used. Examples of the degree of the event include the number of sudden handles in a predetermined time, the number of lane changes in a predetermined time, and the like.
Also, if the number of sudden braking is greater than the predetermined value, analyze whether white line is ignored by white line detection, analyze whether signal is ignored, and analyze whether to ignore temporary stop. If the number is too small, only the analysis of whether or not the pause is ignored may be performed. As a result, the processing load can be reduced by excluding the analysis of data that need not be analyzed with different types of analysis.

上述した第1ないし第3の各実施形態では、移動体である車両2を運転者が運転する際の挙動データ解析システム及び挙動データ解析装置及び挙動データ解析方法を説明したが、本発明が適用可能な範囲は運転者により運転される移動体には限定されない。本発明が適用可能な移動体は、例えば遠隔操作により運転される移動体、あるいは情報処理装置等により機械制御で運転される移動体、すなわち自動運転による移動体であってもよい。   In each of the first to third embodiments described above, the behavior data analysis system, the behavior data analysis device, and the behavior data analysis method when the driver drives the vehicle 2 that is a moving body have been described. The possible range is not limited to a moving body driven by a driver. The mobile body to which the present invention is applicable may be, for example, a mobile body that is operated by remote operation, or a mobile body that is driven by machine control by an information processing apparatus or the like, that is, a mobile body that is driven automatically.

以上、本発明の好ましい実施の形態について説明したが、本発明はかかる特定の実施形態に限定されるものではなく、上述の説明で特に限定しない限り、特許請求の範囲に記載された本発明の趣旨の範囲内において、種々の変形・変更が可能である。本発明の実施の形態に記載された効果は、本発明から生じる最も好適な効果を例示したに過ぎず、本発明による効果は、本発明の実施の形態に記載されたものに限定されるものではない。   The preferred embodiments of the present invention have been described above. However, the present invention is not limited to such specific embodiments, and unless specifically limited by the above description, the present invention described in the claims is not limited. Various modifications and changes are possible within the scope of the gist. The effects described in the embodiments of the present invention are merely examples of the most preferable effects resulting from the present invention, and the effects of the present invention are limited to those described in the embodiments of the present invention. is not.

1 挙動データ解析システム
2 移動体(車両)
3 挙動データ収集装置(撮像装置)
4 挙動データ解析装置(PC)
5 挙動データ解析装置(サーバ)
1 Behavior data analysis system 2 Mobile body (vehicle)
3 Behavior data collection device (imaging device)
4 Behavior data analyzer (PC)
5 Behavior data analyzer (server)

特開2013−206031号公報JP 2013-206031 A

Claims (7)

運転される移動体の移動情報を挙動データとして記録可能な挙動データ収集装置と、
前記挙動データ収集装置により記録された挙動データを解析する挙動データ解析装置とを備え、
前記挙動データ解析装置は、前記挙動データから算出した前記移動体に生じたイベントの度合いから前記移動体の運転を評価し、その評価結果に基づいて前記挙動データの解析処理方法を変更する挙動データ解析システム。
A behavior data collection device capable of recording movement information of a moving vehicle to be driven as behavior data;
A behavior data analysis device for analyzing behavior data recorded by the behavior data collection device;
The behavior data analysis device evaluates the operation of the moving body from the degree of the event generated in the moving body calculated from the behavior data, and changes the behavior data analysis processing method based on the evaluation result Analysis system.
請求項1記載の挙動データ解析システムにおいて、
前記挙動データ収集装置は撮像装置を有することを特徴とする挙動データ解析システム。
The behavior data analysis system according to claim 1,
A behavior data analysis system, wherein the behavior data collection device includes an imaging device.
請求項1または2記載の挙動データ解析システムにおいて、
前記イベントが急制動であり、前記挙動データ解析装置は所定時間内における前記急制動の回数に基づいて前記挙動データの解析処理方法を変更することを特徴とする挙動データ解析システム。
In the behavior data analysis system according to claim 1 or 2,
The behavior data analysis system, wherein the event is sudden braking, and the behavior data analysis device changes an analysis processing method of the behavior data based on the number of sudden brakings within a predetermined time.
請求項1または2記載の挙動データ解析システムにおいて、
前記イベントが急ハンドルであり、前記挙動データ解析装置は所定時間内における前記急制動の回数に基づいて前記挙動データの解析処理方法を変更することを特徴とする挙動データ解析システム。
In the behavior data analysis system according to claim 1 or 2,
The behavior data analysis system, wherein the event is a sudden handle, and the behavior data analysis device changes the analysis processing method of the behavior data based on the number of sudden brakings within a predetermined time.
請求項3または4記載の挙動データ解析システムにおいて、
前記挙動データが前記移動体の位置データを含み、前記挙動データ解析装置は前記位置データに基づいて前記挙動データの解析処理方法を変更することを特徴とする挙動データ解析システム。
In the behavior data analysis system according to claim 3 or 4,
The behavior data analysis system characterized in that the behavior data includes position data of the moving body, and the behavior data analysis device changes an analysis processing method of the behavior data based on the position data.
運転される移動体の移動情報である挙動データから前記移動体に生じたイベントを算出し、算出した前記イベントの度合いから前記移動体の運転を評価し、その評価結果に基づいて前記挙動データの解析処理方法を変更する挙動データ解析装置。   An event occurring in the moving body is calculated from behavior data that is movement information of the moving body to be driven, and the driving of the moving body is evaluated from the calculated degree of the event, and the behavior data is calculated based on the evaluation result. Behavior data analysis device that changes the analysis processing method. 運転される移動体の移動情報を挙動データとして記録する第1の工程と、前記挙動データに基づいて前記移動体に生じたイベントの度合いより前記移動体の運転を評価する第2の工程と、前記評価が所定の閾値以上であるか否かを判定する第3の工程とを行い、前記評価が所定の閾値以上である場合には画像認識処理を行った後に画像データを含めて再度運転を評価する第4の工程を行う挙動データ解析方法。   A first step of recording movement information of the driven moving body as behavior data; a second step of evaluating the driving of the moving body based on the degree of an event that has occurred in the moving body based on the behavior data; And a third step of determining whether or not the evaluation is equal to or greater than a predetermined threshold. If the evaluation is equal to or greater than the predetermined threshold, the image recognition process is performed and then the operation is performed again including the image data. A behavior data analysis method for performing the fourth step to be evaluated.
JP2016151241A 2016-08-01 2016-08-01 Behavior data analysis system, and behavior data analysis device, and behavior data analysis method Pending JP2018022220A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016151241A JP2018022220A (en) 2016-08-01 2016-08-01 Behavior data analysis system, and behavior data analysis device, and behavior data analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016151241A JP2018022220A (en) 2016-08-01 2016-08-01 Behavior data analysis system, and behavior data analysis device, and behavior data analysis method

Publications (1)

Publication Number Publication Date
JP2018022220A true JP2018022220A (en) 2018-02-08

Family

ID=61165671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016151241A Pending JP2018022220A (en) 2016-08-01 2016-08-01 Behavior data analysis system, and behavior data analysis device, and behavior data analysis method

Country Status (1)

Country Link
JP (1) JP2018022220A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3457317A1 (en) * 2017-09-15 2019-03-20 Kabushiki Kaisha Toshiba Signal identifying device, signal identifying method, and driving support system
JP2019159659A (en) * 2018-03-12 2019-09-19 パナソニックIpマネジメント株式会社 Information processing device
JP2019164587A (en) * 2018-03-20 2019-09-26 株式会社Jvcケンウッド Vehicle imaging recording device, vehicle imaging control method, and program
JP2019212021A (en) * 2018-06-05 2019-12-12 セイコーソリューションズ株式会社 Driving evaluation device
JP2020024740A (en) * 2019-10-24 2020-02-13 株式会社Jvcケンウッド Imaging and recording device for vehicle, imaging control method for vehicle, and program
WO2020066213A1 (en) * 2018-09-26 2020-04-02 株式会社デンソー Drive recorder and image storing system
WO2020218330A1 (en) * 2019-04-23 2020-10-29 Arithmer株式会社 System, method and program for determining whether stop request display was ignored, and recording medium storing the program
JP2021022318A (en) * 2019-07-30 2021-02-18 トヨタ自動車株式会社 Operation selecting device
WO2022196660A1 (en) * 2021-03-19 2022-09-22 株式会社デンソー Driving assistance device, driving assistance method, drive recorder, and driving assistance control program
CN117636270A (en) * 2024-01-23 2024-03-01 南京理工大学 Vehicle robbery event identification method and device based on monocular camera

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3457317A1 (en) * 2017-09-15 2019-03-20 Kabushiki Kaisha Toshiba Signal identifying device, signal identifying method, and driving support system
JP2019159659A (en) * 2018-03-12 2019-09-19 パナソニックIpマネジメント株式会社 Information processing device
JP2019164587A (en) * 2018-03-20 2019-09-26 株式会社Jvcケンウッド Vehicle imaging recording device, vehicle imaging control method, and program
WO2019181358A1 (en) * 2018-03-20 2019-09-26 株式会社Jvcケンウッド Vehicular image capture recording device, vehicular image capture control method, and program
JP2019212021A (en) * 2018-06-05 2019-12-12 セイコーソリューションズ株式会社 Driving evaluation device
JP7268964B2 (en) 2018-06-05 2023-05-08 セイコーソリューションズ株式会社 Driving evaluation system
WO2020066213A1 (en) * 2018-09-26 2020-04-02 株式会社デンソー Drive recorder and image storing system
JP2020052634A (en) * 2018-09-26 2020-04-02 株式会社デンソー Dashboard camera and image storage system
WO2020218330A1 (en) * 2019-04-23 2020-10-29 Arithmer株式会社 System, method and program for determining whether stop request display was ignored, and recording medium storing the program
JP2020181242A (en) * 2019-04-23 2020-11-05 Arithmer株式会社 System, method, and program for stop-request-display ignorance determination, and recording medium with the program recorded thereon
JP2021022318A (en) * 2019-07-30 2021-02-18 トヨタ自動車株式会社 Operation selecting device
JP7151657B2 (en) 2019-07-30 2022-10-12 トヨタ自動車株式会社 Operation selection device
JP2020024740A (en) * 2019-10-24 2020-02-13 株式会社Jvcケンウッド Imaging and recording device for vehicle, imaging control method for vehicle, and program
WO2022196660A1 (en) * 2021-03-19 2022-09-22 株式会社デンソー Driving assistance device, driving assistance method, drive recorder, and driving assistance control program
CN117636270A (en) * 2024-01-23 2024-03-01 南京理工大学 Vehicle robbery event identification method and device based on monocular camera
CN117636270B (en) * 2024-01-23 2024-04-09 南京理工大学 Vehicle robbery event identification method and device based on monocular camera

Similar Documents

Publication Publication Date Title
JP2018022220A (en) Behavior data analysis system, and behavior data analysis device, and behavior data analysis method
US9384401B2 (en) Method for fog detection
KR100459476B1 (en) Apparatus and method for queue length of vehicle to measure
CN102765365B (en) Pedestrian detection method based on machine vision and pedestrian anti-collision warning system based on machine vision
KR101971878B1 (en) Video surveillance system and method using deep-learning based car number recognition technology in multi-lane environment
JP5031617B2 (en) Related area specifying apparatus and method, and image recognition apparatus and method
US20060233424A1 (en) Vehicle position recognizing device and vehicle position recognizing method
KR101032160B1 (en) System and method for road visibility measurement using camera
US9626599B2 (en) Reconfigurable clear path detection system
CN111626170B (en) Image recognition method for railway side slope falling stone intrusion detection
KR101176552B1 (en) Method and apparatus for recognizing speed limit signs and method for recognizing image
JP4577153B2 (en) Environment recognition device
JP4864043B2 (en) Image processing apparatus, method, and program
CN113055649A (en) Tunnel intelligent video monitoring method and device, intelligent terminal and storage medium
JP6678552B2 (en) Vehicle type identification device and vehicle type identification method
KR20080004833A (en) Apparatus and method for detecting a navigation vehicle in day and night according to luminous state
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
CN107506739B (en) Night forward vehicle detection and distance measurement method
CN113343849A (en) Fusion sensing equipment based on radar and video
CN108198428A (en) Lorry intercepting system and hold-up interception method
CN116631187B (en) Intelligent acquisition and analysis system for case on-site investigation information
Arunmozhi et al. Stop sign and stop line detection and distance calculation for autonomous vehicle control
KR100532058B1 (en) Traffic information acquisition method and apparatus using camera calibration
KR102492290B1 (en) Drone image analysis system based on deep learning for traffic measurement
KR20100051775A (en) Real-time image analysis using the multi-object tracking and analyzing vehicle information and data management system and how to handle