JP6083695B2 - Motion detection system - Google Patents

Motion detection system Download PDF

Info

Publication number
JP6083695B2
JP6083695B2 JP2012208461A JP2012208461A JP6083695B2 JP 6083695 B2 JP6083695 B2 JP 6083695B2 JP 2012208461 A JP2012208461 A JP 2012208461A JP 2012208461 A JP2012208461 A JP 2012208461A JP 6083695 B2 JP6083695 B2 JP 6083695B2
Authority
JP
Japan
Prior art keywords
image
driver
movement
luminance
difference value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012208461A
Other languages
Japanese (ja)
Other versions
JP2014063374A (en
Inventor
浩二 木下
浩二 木下
研二 村上
研二 村上
正晴 一色
正晴 一色
大野 浩一
浩一 大野
寿吏 小阪
寿吏 小阪
陽 白木
陽 白木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ehime University NUC
Original Assignee
Ehime University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ehime University NUC filed Critical Ehime University NUC
Priority to JP2012208461A priority Critical patent/JP6083695B2/en
Publication of JP2014063374A publication Critical patent/JP2014063374A/en
Application granted granted Critical
Publication of JP6083695B2 publication Critical patent/JP6083695B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、動作検出システムに関する。さらに詳しくは、自動車等の運転中において、運転手の動作を検出するために使用される動作検出システムに関する。   The present invention relates to an operation detection system. More specifically, the present invention relates to an operation detection system used for detecting the operation of a driver while driving an automobile or the like.

自動車等の事故原因として、脇見運転が大きな割合を占めている。脇見運転の原因には、周囲に気を取られる(周囲を注視する)ことを要因とするものや、ダッシュボードへの荷物の出し入れや地図閲覧、オーディオ機器の操作などのように運転に関係のない動作をすることを要因とするものなどがある。とくに、近年では、携帯電話を操作する行為が脇見運転の大きな原因となっている。   As a cause of accidents such as automobiles, driving aside sees a large percentage. Causes of driving aside are those related to driving, such as those that are distracted by the surroundings (watching the surroundings), loading and unloading the dashboard, browsing the map, operating audio equipment, etc. There are things that are caused by not working. In particular, in recent years, the act of operating mobile phones has become a major cause of driving aside.

このような脇見運転などに起因する事故を防止する方法として、運転手の動作を解析して危険な動作が検出された場合に、運転手に警告を発したり、ハンドルやブレーキなどの作動を制御したりして危険を回避する技術が研究開発されている。   As a method of preventing accidents caused by such aside-looking driving, when the driver's motion is analyzed and a dangerous motion is detected, a warning is given to the driver and the operation of the steering wheel, brake, etc. is controlled R & D has been done on technology to avoid dangers.

上記の技術を実現する上では、運転手の動作を的確に検出し把握することが重要であるので、運転手の動作を検出する技術も種々開発されている(例えば、特許文献1、2)。   In order to realize the above-described technology, it is important to accurately detect and grasp the driver's motion, so various technologies for detecting the driver's motion have been developed (for example, Patent Documents 1 and 2). .

特許文献1、2の技術は、運転中の車内を撮影し、撮影された画像に基づいて運転手の動作を判断している。そして、特許文献1、2の技術では、運転手の動作のオプティカルフローを求め、このオプティカルフローに基づいて、運転手の動作を評価している。   In the techniques of Patent Documents 1 and 2, the inside of a driving vehicle is photographed, and the operation of the driver is determined based on the photographed image. In the techniques of Patent Documents 1 and 2, an optical flow of the driver's motion is obtained, and the driver's motion is evaluated based on the optical flow.

ここで、画像からオプティカルフローを求める方法として、大きく分けると、マッチング法(照合法)と時空間勾配法がある。マッチング法は、連続する画像間で対応する点を探索して求め、その対応する点の相対的な位置を比較してオプティカルフローを求める方法である。一方、時空間勾配法は、画像中の各点の明るさの空間的および時間的な勾配に基づいてオプティカルフローを求める方法である。なお、上述した特許文献1、2の技術では、マッチング法を使用してオプティカルフローを求めている。   Here, as a method for obtaining an optical flow from an image, there are roughly a matching method (collation method) and a spatiotemporal gradient method. The matching method is a method of finding an optical flow by searching for a corresponding point between successive images and comparing the relative positions of the corresponding points. On the other hand, the spatiotemporal gradient method is a method for obtaining an optical flow based on the spatial and temporal gradients of the brightness of each point in an image. In the above-described techniques of Patent Documents 1 and 2, the optical flow is obtained using the matching method.

特許第425271号公報Japanese Patent No. 425271 特開2011−159214号公報JP 2011-159214 A

しかるに、マッチング法の場合、一の画像中から対象物に相当する部分を検出し、この部分に対応する部分を他の画像から検出(マッチング)しなければならない。このマッチングには、非常に時間がかかるため、オプティカルフローを算出するために長時間を要するという問題がある。
また、撮影された画像の画質が悪い場合には、対応する部分を適切に検出できないので、オプティカルフローを算出することは非常に難しくなる一方、画像を高画質で撮影した場合、一画像のデータ容量が大きくなり、大容量の記憶装置が必要となるという問題も生じる。
However, in the case of the matching method, a portion corresponding to the object must be detected from one image, and a portion corresponding to this portion must be detected (matched) from another image. Since this matching takes a long time, there is a problem that it takes a long time to calculate the optical flow.
Also, if the image quality of the captured image is poor, the corresponding portion cannot be detected properly, so it is very difficult to calculate the optical flow. On the other hand, if the image is captured with high image quality, one image data There is also a problem that the capacity increases and a large capacity storage device is required.

一方、オプティカルフローを求める際に、時空間勾配法を採用した場合には、以下のごとき問題が生じる。   On the other hand, when the spatio-temporal gradient method is employed when obtaining the optical flow, the following problems occur.

まず、時空間勾配法では、輝度値を用いて見かけ上の動き(画像内での動き)を計算する。時刻tにおける画素(x,y)の輝度値をI(x,y,t)とすると、横の動きu(x,y)と縦の動きv(x,y)との間には、以下の関係が成立する。そして、その関係を満たすu(x,y)とv(x,y)が求まれば、オプティカルフローを求めることができる。なお、I(x,y,t)、I(x,y,t)、I(x,y,t)は、それぞれ輝度値のx方向微分、輝度値のy方向微分、輝度値の時間微分を示しており,ディジタル画像の場合は,各方向の輝度値の差分で求める。

x(x,y,t)u(x,y)+I(x,y,t)v(x,y)+I(x,y,t)=0
First, in the spatiotemporal gradient method, an apparent movement (movement in an image) is calculated using a luminance value. Assuming that the luminance value of the pixel (x, y) at time t is I (x, y, t), between the horizontal motion u (x, y) and the vertical motion v (x, y), The relationship is established. If u (x, y) and v (x, y) satisfying the relationship are obtained, an optical flow can be obtained. Note that I x (x, y, t), I y (x, y, t), and I t (x, y, t) are the x-direction derivative of the luminance value, the y-direction derivative of the luminance value, and the luminance value, respectively. In the case of a digital image, it is obtained by the difference in luminance value in each direction.

I x (x, y, t) u (x, y) + I y (x, y, t) v (x, y) + I t (x, y, t) = 0

ここで、上記式において、I、I、Iは撮影された画像から求めることができるものの、u(x,y)とv(x,y)の2つは未知である。すると、1つの関係式に対して未知数が2つ存在しているので、u(x,y)およびv(x,y)を把握できず、オプティカルフローを求めることができない。
別に拘束条件を設定すれば、u(x,y)およびv(x,y)の値を得ることはできるものの、u(x,y)およびv(x,y)の値を迅速に算出することは非常に難しい。
Here, in the above formula, I x, I y, but I t can be determined from the photographed image, two of u (x, y) and v (x, y) is unknown. Then, since there are two unknowns for one relational expression, u (x, y) and v (x, y) cannot be grasped, and an optical flow cannot be obtained.
If the constraint condition is set separately, the values of u (x, y) and v (x, y) can be obtained, but the values of u (x, y) and v (x, y) are quickly calculated. It is very difficult.

本発明は上記事情に鑑み、時空間勾配法を利用しつつ、迅速かつある程度の精度で運転者の動きを検出することができる動作検出システムを提供することを目的とする。   In view of the above circumstances, an object of the present invention is to provide an operation detection system that can detect a driver's movement quickly and with a certain degree of accuracy while using a spatiotemporal gradient method.

第1発明の動作検出システムは、運転者の動作を評価するために使用されるシステムであって、前記運転者の画像を撮影する画像撮影手段と、該画像撮影手段によって撮影された画像に基づいて、前記運転者の動作を評価する評価手段と、を備えており、該評価手段は、画像の各部において、直交する2方向における輝度の空間差分値および輝度の時間差分値を算出する差分算出部と、該差分算出部によって算出された前記2方向の輝度の空間差分値と前記輝度の時間差分値とに基づいて、前記運転者の動作を評価する評価部と、を有しており、前記評価部は、一の方向における見かけ上の動きがないと仮定して得られる前記撮影された画像の各画素の前記直交する2方向の速度に基づいて、前記運転者の動作を推定するものであることを特徴とする。
第2発明の動作検出システムは、第1発明において、前記評価部は、前記2方向の輝度の空間差分値から求められる移動量の大きさに基づいて前記運転者の動作を評価するものであることを特徴とする。
第3発明の動作検出システムは、第1または第2発明において、前記評価手段は、画像において前記運転者の顔が撮影されている検査領域を検出する検出部を備えており、前記評価部は、画像において、前記検出部によって検出された前記検査領域の前記2方向の輝度の空間差分値および前記輝度の時間差分値に基づいて前記運転者の動作を評価することを特徴とする。
A motion detection system according to a first aspect of the present invention is a system used for evaluating a driver's motion, and is based on an image capturing unit that captures an image of the driver, and an image captured by the image capturing unit. Evaluation means for evaluating the driver's movement, and the evaluation means calculates a difference in luminance between two directions orthogonal to each other and a temporal difference value of the luminance in each part of the image. And an evaluation unit that evaluates the operation of the driver based on the spatial difference value of the luminance in the two directions calculated by the difference calculation unit and the temporal difference value of the luminance. The evaluation unit estimates the driver's movement based on the speed in the two orthogonal directions of each pixel of the captured image obtained on the assumption that there is no apparent movement in one direction. Specially To.
The motion detection system according to a second aspect of the present invention is the motion detection system according to the first aspect, wherein the evaluation unit evaluates the driver's motion based on the amount of movement obtained from the spatial difference value of the luminance in the two directions. It is characterized by that.
A motion detection system according to a third aspect of the present invention is the motion detection system according to the first or second aspect, wherein the evaluation unit includes a detection unit that detects an inspection region in which the driver's face is photographed in an image. In the image, the operation of the driver is evaluated based on the spatial difference value of the luminance in the two directions and the temporal difference value of the luminance of the inspection area detected by the detection unit.

第1発明によれば、直交する2方向における輝度の空間差分値を、一の方向における見かけ上の動きがないと仮定として運転者の動作を推定するので、迅速にかつある程度の精度で運転者の動きを評価することができる。例えば、運転者の大きな動きであれば、十分に検出することができる。しかも、輝度の空間差分値と輝度の時間差分値は、画像が粗くても、運転者の大きな動きを推定できる程度の精度で得ることができる。すると、撮影する画像を高画質にする必要がないので、画像撮影手段や記憶装置として安価なものを使用できるので、システムを安価に構成することができる。
第2発明によれば、運転者が大きな動きをすると、算出される移動量が大きくなるので、運転者の動作のうち、危険な動作を把握することができる。
第3発明によれば、運転者の顔が撮影されている領域を検査領域としているので、外乱の影響を小さくすることができる。そして、顔を大きく動かすような脇見を検出しやすくなるので、運転者の動作のうち、危険な行動を把握しやすくなる。
According to the first invention, the driver's movement is estimated on the assumption that there is no apparent movement in one direction based on the spatial difference value of the luminance in two orthogonal directions, so that the driver can be quickly and with a certain degree of accuracy. Can be evaluated. For example, a large movement of the driver can be sufficiently detected. In addition, the spatial difference value of the luminance and the temporal difference value of the luminance can be obtained with such an accuracy that a large movement of the driver can be estimated even if the image is rough. Then, since it is not necessary to improve the quality of the image to be captured, an inexpensive image capturing means or storage device can be used, and the system can be configured at a low cost.
According to the second aspect of the present invention, when the driver makes a large movement, the calculated movement amount increases, so that it is possible to grasp a dangerous operation among the operations of the driver.
According to the third aspect, since the area where the driver's face is photographed is used as the inspection area, the influence of disturbance can be reduced. And since it becomes easy to detect a side look that moves a face greatly, it becomes easy to grasp | ascertain dangerous action among a driver | operator's operation | movement.

本実施形態の動作検出システム1の概略説明図であり、(A)は車両に配置した一例であり、(B)は動作検出システム1のブロック図である。It is a schematic explanatory drawing of the operation | movement detection system 1 of this embodiment, (A) is an example arrange | positioned at the vehicle, (B) is a block diagram of the operation | movement detection system 1. FIG. (A)は輝度の時間差分の説明図であり、(B)、(C)は輝度の空間差分の説明図である。(A) is explanatory drawing of the time difference of a brightness | luminance, (B), (C) is explanatory drawing of the spatial difference of a brightness | luminance. (A)は各画素の動きを散布図で表した例であり、(B)平均移動量L1の時間変動を表した例である。(A) is an example in which the movement of each pixel is represented by a scatter diagram, and (B) is an example in which time fluctuation of the average movement amount L1 is represented. 画像中に設定される検査領域の概略説明図である。It is a schematic explanatory drawing of the test | inspection area | region set in an image. 実際に撮影された画像あって、(A)は通常運転時の連続画像であり、(B)は運転者が大きく動いた状態の連続画像である。There are actually captured images, (A) is a continuous image during normal driving, and (B) is a continuous image in a state where the driver has moved greatly. (A)は図5(A)の画像に基づいて作成した散布図であり、(B)は図5(B)の画像に基づいて作成した散布図である。(A) is a scatter diagram created based on the image of FIG. 5 (A), and (B) is a scatter diagram created based on the image of FIG. 5 (B). 実際に撮影された画像あって、(A)は通常運転時の連続画像であり、(B)は運転者が大きく動いた状態の連続画像である。There are actually captured images, (A) is a continuous image during normal driving, and (B) is a continuous image in a state where the driver has moved greatly. (A)は図7(A)の画像に基づいて作成した散布図であり、(B)は図7(B)の画像に基づいて作成した散布図である。(A) is a scatter diagram created based on the image of FIG. 7 (A), and (B) is a scatter diagram created based on the image of FIG. 7 (B).

本発明の動作検出システムは、自動車を運転している運転手の動作を検出するシステムであって、運転者が通常の動作に比べて大きな動作をした場合に、その動作を検出することができるようにしたことに特徴を有している。   The motion detection system of the present invention is a system that detects the motion of a driver who is driving an automobile, and can detect the motion when the driver performs a motion larger than a normal motion. It has the feature in doing so.

本発明において、「通常の動作に比べて大きな動作」とは、運転者が助手席やダッシュボードにある物品(例えば、携帯電話や地図など)を探したり取ったりするような動作や、大きく後ろを振り返ったりする動作を意味している。つまり、比較的長時間、前方を見ないような状況、いわゆる脇見運転の状態となるような危険な動作を意味している。
もちろん、脇見運転に限らず、シートベルトを装着する様な動作や、ハンドルから手を離すなどの動作の検出も可能であり、かかる動作も本発明が検出すべき動作とすることができる。
In the present invention, “larger operation than normal operation” means an operation in which the driver searches for or takes an article (for example, a mobile phone or a map) on the passenger seat or dashboard, It means an action that looks back on. In other words, it means a situation where the user does not look forward for a relatively long period of time, that is, a dangerous operation that results in a so-called side-view driving state.
Of course, it is possible to detect not only the side-viewing operation but also an operation such as wearing a seat belt or an operation such as releasing a hand from the handle, and this operation can also be detected by the present invention.

まず、本実施形態の動作検出システム1の概略構成を説明する。
図1に示すように、本実施形態の発明の動作検出システム1は、画像撮影手段2と、評価手段10とを備えている。
First, a schematic configuration of the motion detection system 1 of the present embodiment will be described.
As shown in FIG. 1, the motion detection system 1 of the present embodiment includes an image photographing unit 2 and an evaluation unit 10.

(画像撮影手段2)
画像撮影手段2は、自動車の車内を撮影して、運転者の画像を撮影するものである。画像撮影手段2は、自動車の車内のどの位置に設けてもよいが、運転者を正面から撮影できるように配設することが好ましい。例えば、バックミラーの位置に設けたりインジケータの近傍に設けたりすれば、ある程度正面に近い位置から運転者を撮影することができる。
(Image shooting means 2)
The image capturing means 2 captures an image of the driver by capturing the interior of the car. The image photographing means 2 may be provided at any position in the car, but is preferably arranged so that the driver can be photographed from the front. For example, if it is provided at the position of the rearview mirror or in the vicinity of the indicator, the driver can be photographed from a position close to the front to some extent.

また、画像撮影手段2は、車内をある程度の期間連続して撮影でき、連続撮影した複数の画像データを得ることができる機能を有するものであればよい。例えば、CCDカメラやCMOSカメラ等を採用することができる。とくに、画像を、0.1〜1秒間隔、好ましくは0.1秒間隔で撮影できるものが好ましい。   Further, the image photographing means 2 only needs to have a function capable of continuously photographing the interior of the vehicle for a certain period and obtaining a plurality of continuously photographed image data. For example, a CCD camera or a CMOS camera can be employed. In particular, it is preferable that images can be taken at intervals of 0.1 to 1 second, preferably at intervals of 0.1 second.

なお、画像撮影手段2は、一旦画像を保存しておく記憶機能を有しているが、撮影した画像をすぐに評価手段10に送信するようにしてもよい。   The image photographing unit 2 has a storage function for temporarily storing the image, but the photographed image may be transmitted to the evaluation unit 10 immediately.

(評価手段10)
評価手段10は、この画像撮影手段2によって撮影された画像に基づいて運転者の動作を評価するものである。図1に示すように、評価手段10は、記憶部11と、差分算出部12と、評価部13と、を備えている。
(Evaluation means 10)
The evaluation means 10 evaluates the driver's movement based on the image photographed by the image photographing means 2. As illustrated in FIG. 1, the evaluation unit 10 includes a storage unit 11, a difference calculation unit 12, and an evaluation unit 13.

(記憶部11の説明)
記憶部11は、画像撮影手段2が撮影した画像を記憶しておく機能を有している。この記憶部11は、本実施形態の動作検出システム1が搭載されている車両が連続して運転される期間に撮影された全ての画像データを保存しておくことができる機能を有している。
例えば、本実施形態の動作検出システムを、タクシーやバスやトラック等に搭載する場合であれば、約5時間分の画像データを記憶しておくことができるものが好ましい。
(Description of storage unit 11)
The storage unit 11 has a function of storing an image captured by the image capturing unit 2. The storage unit 11 has a function of storing all image data taken during a period in which the vehicle on which the motion detection system 1 of the present embodiment is mounted is continuously driven. .
For example, if the motion detection system of the present embodiment is mounted on a taxi, bus, truck, or the like, it is preferable that the image data for about 5 hours can be stored.

ここで、運転する期間に撮影された全ての画像データを保存する場合、通常、記憶部11は大きな記憶容量が必要となる。しかし、本実施形態の動作検出システム1では、画像がある程度粗くても、目的とする運転者の動作を検出することができる。つまり、1つの画像データ容量を小さくできるので、記憶部11として、記憶容量がそれほど大きくないものでも使用できる。例えば、8G程度の記憶容量しか有しないSDカードなどに、約5時間分の全データを収容することができるようにすることができる。   Here, when all the image data photographed during the driving period is stored, the storage unit 11 usually requires a large storage capacity. However, the motion detection system 1 of the present embodiment can detect the motion of the intended driver even if the image is somewhat rough. That is, since one image data capacity can be reduced, the storage unit 11 can be used even if the storage capacity is not so large. For example, it is possible to accommodate all data for about 5 hours on an SD card having a storage capacity of about 8G.

もちろん、記憶部11は、順次古いデータが消去されるようにしてもよく、その場合にはさらに記憶容量を少なくできる。この場合でも、事故などを検出した際にその前後の画像データが保存されるようにしておけば、画像データを事故の原因究明などに役立てることができる。   Of course, the storage unit 11 may sequentially delete old data, and in that case, the storage capacity can be further reduced. Even in this case, if the image data before and after the accident is detected, the image data can be used for investigation of the cause of the accident.

(差分算出部12の説明)
差分算出部12は、画像データに基づいて、評価部13において運転者の動作を評価する基礎となるデータを作成する機能を有している。
具体的には、差分算出部12は、撮影された画像について、輝度データを利用して画像各部の輝度の時間差分値および輝度の空間差分値を算出する機能を有している。
(Description of the difference calculation unit 12)
The difference calculation unit 12 has a function of creating data serving as a basis for evaluating the driver's movement in the evaluation unit 13 based on the image data.
Specifically, the difference calculation unit 12 has a function of calculating a luminance time difference value and a luminance spatial difference value of each part of the image using the luminance data for the captured image.

まず、輝度の時間差分値は、時間差分値を求める画像(対象画像)と、この対象画像とは異なるタイミングで撮影された画像(比較画像)とを利用して算出される。つまり、両画像において、撮影対象の同じ位置を撮影している領域の輝度値の差を時間差分値として算出する。
例えば、図2(A)に示すように、時刻tにおいて撮影された画像の画素A(x、y)の輝度の時間差分値I(x,y,t)は、時刻t−1において撮影された画像を利用して、以下の式で求められる。なお、I(x,y,t)は、時刻tにおいて撮影された画像の画素A(x、y)の輝度、I(x,y,t−1)は時刻t−1において撮影された画像の画素A(x、y)の輝度を、それぞれ示している。

(x,y,t)=I(x,y,t)−I(x,y,t−1)
First, the luminance time difference value is calculated using an image (target image) for which the time difference value is obtained and an image (comparison image) taken at a timing different from the target image. That is, in both images, the difference between the brightness values of the areas where the same position of the shooting target is shot is calculated as the time difference value.
For example, as shown in FIG. 2A, the time difference value I t (x, y, t) of the luminance of the pixel A (x, y) of the image taken at time t is taken at time t−1. The obtained image is used to obtain the following equation. Note that I (x, y, t) is the luminance of the pixel A (x, y) of the image taken at time t, and I (x, y, t−1) is the image taken at time t−1. The luminance of each pixel A (x, y) is shown.

I t (x, y, t) = I (x, y, t) −I (x, y, t−1)

つぎに、輝度の空間差分値は、対象画像中の異なる領域の輝度値の差を利用して算出される。つまり、対象画像中において撮影対象の異なる位置を撮影している領域間の輝度値の差から、輝度の空間差分値が算出される。具体的には、対象画像において、互いに直交する2方向の空間差分値がそれぞれ別々に算出される。なお、対象画像は、輝度の時間差分値を求める画像と同じ画像である。
例えば、図2(B)、(C)に示すように、画像が、x方向およびy方向にそれぞれ複数の画素を有するとする。すると、対象画像の画素A(x、y)について、x方向の空間差分値I(x,y,t)と、y方向の空間差分値I(x,y,t)は、以下の式で求められる。
なお、I(x,y,t)は、図2(B)、(C)における画素A(x、y)の輝度を示している。また、I(x−1,y,t)は、図2(B)における画素B(x−1、y)の輝度を示しており、I(x,y−1,t)は、図2(C)における画素C(x、y−1)の輝度を示している。

(x,y,t)=I(x,y,t)−I(x−1,y,t)
(x,y,t)=I(x,y,t)−I(x,y−1,t)
Next, the spatial difference value of the luminance is calculated using the difference between the luminance values of different areas in the target image. That is, the spatial difference value of the brightness is calculated from the difference in brightness value between the areas where the different positions of the shooting target are shot in the target image. Specifically, in the target image, spatial difference values in two directions orthogonal to each other are calculated separately. Note that the target image is the same image as the image for obtaining the time difference value of the luminance.
For example, as shown in FIGS. 2B and 2C, it is assumed that the image has a plurality of pixels in the x direction and the y direction, respectively. Then, for the pixel A (x, y) of the target image, the spatial difference value I x (x, y, t) in the x direction and the spatial difference value I y (x, y, t) in the y direction are as follows: It is calculated by the formula.
Note that I (x, y, t) indicates the luminance of the pixel A (x, y) in FIGS. 2 (B) and 2 (C). Further, I (x−1, y, t) indicates the luminance of the pixel B (x−1, y) in FIG. 2B, and I (x, y−1, t) indicates FIG. The luminance of the pixel C (x, y−1) in (C) is shown.

I x (x, y, t) = I (x, y, t) −I (x−1, y, t)
I y (x, y, t) = I (x, y, t) −I (x, y−1, t)

なお、差分算出部12は、一旦記憶部11に記憶されたデータを読みだして差分値の算出に使用してもよいし、画像撮影手段2から直接送信される画像データを使用してもよい。そして、得られた差分値も、評価部13(または検出部14)に直接送信してもよいし、記憶部11に送信して画像データと関連付けて記憶するようにしてもよい。   Note that the difference calculation unit 12 may read out data once stored in the storage unit 11 and use it for calculation of the difference value, or may use image data directly transmitted from the image photographing unit 2. . Then, the obtained difference value may be directly transmitted to the evaluation unit 13 (or the detection unit 14), or may be transmitted to the storage unit 11 and stored in association with the image data.

(評価部13の説明)
評価部13は、時空間勾配法を利用して、対象画像中に撮影されている運転者の動作を評価する機能を有している。この評価部13では、上述した差分算出部12において算出された時間差分値I(x,y,t)と、x方向の空間差分値I(x,y,t)およびy方向の空間差分値I(x,y,t)に基づいて、対象画像中に撮影されている運転者の動作を評価する。
(Description of evaluation unit 13)
The evaluation unit 13 has a function of evaluating the action of the driver photographed in the target image using the spatiotemporal gradient method. In the evaluation unit 13, the time difference value I t (x, y, t) calculated by the difference calculation unit 12 described above, the space difference value I x (x, y, t) in the x direction, and the space in the y direction. Based on the difference value I y (x, y, t), the operation of the driver photographed in the target image is evaluated.

ここで、時空間勾配法において、画像の輝度値を用いて、撮影対象(本願であれば運転者が相当する)の見かけ上の動き(撮影された画像内での動き)を計算する場合、時刻tにおける画素(x,y)の輝度値をI(x,y,t)とすると、直交する2方向の動き、つまり、横の動きu(x,y)と縦の動きv(x,y)との間には、以下の関係が成立する。

(x,y,t)u(x,y)+I(x,y,t)v(x,y)+I(x,y,t)=0

この式では、I(x,y,t)、I(x,y,t)およびI(x,y,t)は画像から求めることができるが、u(x,y)とv(x,y)の2つは未知である。つまり、1つの式に2つの未知数があるので、u(x,y)およびv(x,y)は得ることができない。言い換えれば、撮影対象(本願であれば運転者が相当する)の見かけ上の動きを把握することはできない。
Here, in the spatiotemporal gradient method, when calculating the apparent movement (movement in the captured image) of the object to be imaged (in this case, the driver corresponds) using the luminance value of the image, Assuming that the luminance value of the pixel (x, y) at time t is I (x, y, t), two orthogonal directions of movement, that is, horizontal movement u (x, y) and vertical movement v (x, y The following relationship is established with y).

I x (x, y, t ) u (x, y) + I y (x, y, t) v (x, y) + I t (x, y, t) = 0

In this equation, I x (x, y, t), I y (x, y, t) and I t (x, y, t) can be obtained from the image, but u (x, y) and v Two of (x, y) are unknown. That is, since there are two unknowns in one equation, u (x, y) and v (x, y) cannot be obtained. In other words, it is impossible to grasp the apparent movement of the subject to be photographed (in this case, the driver corresponds).

しかし、評価部13では、u(x,y)、v(x,y)を算出するために、一の方向における輝度の空間差分値を求める際に、他の方向における見かけ上の動きがないと仮定している。つまり、図2(B)、(C)に示すように、x方向およびy方向について、マスクされていない部分の画素のみを用いて輝度の空間差分値を求めることになるので、以下の式が成立する。

(x,y,t)u(x,y)+I(x,y,t)=0
(x,y,t)v(x,y)+I(x,y,t)=0

上記2式では、いずれも1つの式に一つの未知数であるので、u(x,y)およびv(x,y)を算出することができる。つまり、I(x,y,t)、I(x,y,t)およびI(x,y,t)が算出できれば、u(x,y)およびv(x,y)を算出することができる。つまり、画素(x,y)に撮影されている撮影対象の各方向の移動速度を算出することができ、撮影対象の動きを把握することができるのである。
However, when the evaluation unit 13 calculates the spatial difference value of the luminance in one direction in order to calculate u (x, y) and v (x, y), there is no apparent movement in the other direction. Is assumed. That is, as shown in FIGS. 2B and 2C, the luminance spatial difference value is obtained using only the unmasked pixels in the x direction and the y direction. To establish.

I x (x, y, t) u (x, y) + I t (x, y, t) = 0
I y (x, y, t) v (x, y) + I t (x, y, t) = 0

In the above two formulas, both are one unknown in one formula, and therefore u (x, y) and v (x, y) can be calculated. That is, if I x (x, y, t), I y (x, y, t) and I t (x, y, t) can be calculated, u (x, y) and v (x, y) are calculated. can do. That is, it is possible to calculate the moving speed in each direction of the photographing target photographed at the pixel (x, y), and to grasp the movement of the photographing target.

したがって、画像中の運転者が撮影されている領域について、差分算出部12が輝度の時間差分値Iとx方向、y方向の輝度の空間差分値I、Iを算出すれば、評価部13は、上記方法によって、運転者の動作を推定することができる。 Thus, the region where the driver in the image is captured, the time difference calculating portion 12 of the luminance difference value I t and the x direction, spatial difference value I x of y-direction luminance, by calculating the I y, evaluation The unit 13 can estimate the driver's movement by the above method.

ここで、一の方向における見かけ上の動きがないと仮定として運転者の動作を推定した場合、算出されるu(x,y)やv(x,y)の精度は低下することが想定される。しかし、上記方法で算出されるu(x,y)やv(x,y)であっても、十分に通常運転から運転者の大きな動きを区別する程度の精度は得られる。   Here, when the driver's motion is estimated on the assumption that there is no apparent movement in one direction, it is assumed that the accuracy of the calculated u (x, y) and v (x, y) is lowered. The However, even with u (x, y) and v (x, y) calculated by the above method, it is possible to obtain sufficient accuracy to distinguish a driver's large movement from normal driving.

しかも、輝度の空間差分値と輝度の時間差分値は、画像が若干粗くても(画像の画質が若干悪くても)、運転者の大きな動きを推定できる程度の精度で算出することができる。すると、撮影する画像を高画質にする必要がないので、画像撮影手段2や評価手段10の記憶装置11として安価なものを使用できるから、システムを安価に構成することができる。   In addition, the spatial difference value of luminance and the temporal difference value of luminance can be calculated with such an accuracy that a large movement of the driver can be estimated even if the image is slightly rough (even if the image quality of the image is slightly poor). Then, since it is not necessary to make the image to be photographed high in image quality, an inexpensive device can be used as the storage device 11 of the image photographing means 2 or the evaluation means 10, and the system can be configured at a low cost.

(運転者の動作の評価方法)
評価部13は、x方向およびy方向の移動速度に基づいて、各画素(x,y)の移動量Lは以下の式により求めることができる。

L=(u(x,y)+v(x,y)1/2
(Evaluation method of driver's movement)
The evaluation unit 13 can obtain the movement amount L of each pixel (x, y) based on the movement speed in the x direction and the y direction by the following expression.

L = (u (x, y) 2 + v (x, y) 2 ) 1/2

各画素(x,y)について移動量Lが算出されると、この移動量Lに基づいて、運転者の動作を判断して、その動作が危険動作であるか否か等を評価することもできる。
例えば、ある画像について、全ての画素(x,y)の移動量Lの平均値(平均移動量L1)に基づいて運転者の動作を判断する場合には、平均移動量L1が所定の閾値を超えた場合に、運転者が危険動作をしたと評価することができる。この閾値は、運転者が通常の運転動作をしている場合の平均移動量L1を基準として定めることができる。
When the movement amount L is calculated for each pixel (x, y), based on the movement amount L, it is possible to determine the driver's action and evaluate whether or not the action is a dangerous action. it can.
For example, when a driver's movement is determined based on an average value (average movement amount L1) of movement amounts L of all pixels (x, y) for a certain image, the average movement amount L1 has a predetermined threshold value. When it exceeds, it can be evaluated that the driver has performed a dangerous motion. This threshold value can be determined based on the average movement amount L1 when the driver is performing a normal driving operation.

また、各画像について、各画素のu(x,y)、v(x,y)の散布図を作成して、その分布の状況によって運転者が危険動作をしているか否かを判断することもできる。
例えば、図3(A)に示すように、横軸をu(x,y)(画像の水平方向)、縦軸をv(x,y)(画像の垂直方向)とした場合において、各画像のu(x,y)平均値とv(x,y)の平均値の交点に点を打って散布図を作成すれば、その点の分布状況から、運転者の動きの傾向を判断することができる。しかも、散布図では、横軸と縦軸の交点(原点)から点までの距離が各画像の平均移動量L1となる。したがって、散布図を使用すれば、運転者の動きの大きさと、その動作の傾向を同時に判断することができる。例えば、図3(B)に示すように平均移動量L1が時間変動した場合に、その動きの方向も含めて、運転者の動作を確認することができる。そして、図3(A)に示すように、動きの大きさ危険度に応じて、同心円状の危険レベルラインを示しておけば、危険な動きをしたか否かを判別することができる。
Moreover, for each image, a scatter diagram of u (x, y) and v (x, y) for each pixel is created, and it is determined whether or not the driver is performing a dangerous motion depending on the distribution status. You can also.
For example, as shown in FIG. 3A, when the horizontal axis is u (x, y) (the horizontal direction of the image) and the vertical axis is v (x, y) (the vertical direction of the image), each image If a scatter diagram is created by hitting points at the intersection of the average value of u (x, y) and v (x, y), the tendency of the driver's movement can be determined from the distribution of the points Can do. In addition, in the scatter diagram, the distance from the intersection (origin) of the horizontal axis and the vertical axis to the point is the average movement amount L1 of each image. Therefore, if the scatter diagram is used, the magnitude of the driver's movement and the tendency of the movement can be determined at the same time. For example, as shown in FIG. 3B, when the average movement amount L1 fluctuates over time, the driver's operation can be confirmed including the direction of the movement. Then, as shown in FIG. 3A, if a concentric risk level line is shown according to the degree of motion risk, it can be determined whether or not a dangerous motion has occurred.

また、平均移動量L1を算出せずに、全ての画素(x,y)の移動量Lのうち、所定の閾値を超える画素数が一定以上ある場合に、運転者が危険動作をしたと評価することもできる。   In addition, without calculating the average movement amount L1, it is evaluated that the driver has performed a dangerous action when the number of pixels exceeding a predetermined threshold is greater than or equal to a predetermined threshold among the movement amounts L of all the pixels (x, y). You can also

さらに、散布図は、各画像について作成してもよい。この場合、各画像を撮影したタイミングの運転者の動作を、平均移動量L1よりもより詳細に把握することが可能となる。
例えば、画像の各画素におけるu(x,y)値、v(x,y)値で散布図を作成すれば、その点の分布状況から、画像を撮影したときにおける運転者の動きが、危険動作か否かをより詳細に検証することができる。散布図では、横軸と縦軸の交点(原点)から点までの距離が各画素の移動量Lとなる。つまり、原点近傍に点が存在する場合には、運転者は、危険動作に相当するような大きな動きはしていないと判断できる。一方、原点から離れた点が多数存在し、かつ、原点から見て特定の方向に固まっている場合には、運転者が大きな動きをしたと判断することができる。そして、原点から離れた点が、全画素に対してわずかである場合には、その点は誤差の可能性があると判断することもできる。したがって、散布図を使用すれば、各画像を撮影したタイミングにおける運転者の動きをより正確に評価することができる可能性がある。
Furthermore, a scatter diagram may be created for each image. In this case, the operation of the driver at the timing when each image is captured can be grasped in more detail than the average movement amount L1.
For example, if a scatter diagram is created with the u (x, y) value and v (x, y) value at each pixel of the image, the movement of the driver when the image is captured is dangerous due to the distribution of the points. It is possible to verify in more detail whether or not it is an operation. In the scatter diagram, the distance from the intersection (origin) of the horizontal axis and the vertical axis to the point is the movement amount L of each pixel. That is, when there is a point in the vicinity of the origin, the driver can determine that there is no significant movement corresponding to the dangerous action. On the other hand, when there are a number of points away from the origin and the points are fixed in a specific direction as viewed from the origin, it can be determined that the driver has made a large movement. If the number of points away from the origin is small with respect to all pixels, it can be determined that there is a possibility of an error in the point. Therefore, if the scatter diagram is used, there is a possibility that the movement of the driver at the timing when each image is taken can be more accurately evaluated.

上述したように、各画像の各画素のu(x,y)値とv(x,y)値に基づく散布図を作成した場合には、車両の振動に起因する人の縦揺れなどが生じた場合には、その縦揺れなどの影響もu(x,y)値やv(x,y)値に反映されてしまう。つまり、運転者の動きに起因しない輝度の変化(誤差要因)もu(x,y)値やv(x,y)値に反映されることになる。しかし、異なる時間に撮影された複数の画像の各画素におけるu(x,y)値、v(x,y)値を、一つのグラフ上に表示させて散布図を作成すれば、上記のごとき誤差要因を排除して運転者の動きを評価することができる。
例えば、車両の振動などの影響は、u(x,y)値やv(x,y)値に周期的な変動となって現れる。つまり、振動などの影響を除去すると同じ画素においてu(x,y)値やv(x,y)値が一定となる場合であれば(つまり運転者が大きな動きをしていない場合には)、正しいu(x,y)値やv(x,y)値を中心として、u(x,y)値やv(x,y)値は時間変動する。つまり、画像を撮影するタイミングに対応して、u(x,y)値やv(x,y)値が周期的に変動する。このため、異なる時間に撮影された複数の画像の各画素におけるu(x,y)値、v(x,y)値を、一つのグラフ上に表示させて散布図を作成すれば、正しいu(x,y)値やv(x,y)値の点を中心として点が分布する。すると、点の分布状況から車両の振動などの影響の有無を判断できるので、車両の振動などの影響による誤った評価をすることを防止できる。したがって、運転者の動きをより正確に評価することができる可能性がある。とくに、トラックなどのように、運転者が受ける振動が大きい車両などにおける運転者の動きの評価には、この方法が適している。
As described above, when a scatter diagram based on the u (x, y) value and v (x, y) value of each pixel of each image is created, a pitching of a person due to the vibration of the vehicle occurs. In such a case, the influence of the pitching is also reflected in the u (x, y) value and v (x, y) value. That is, the change in luminance (error factor) not caused by the movement of the driver is also reflected in the u (x, y) value and the v (x, y) value. However, if a scatter diagram is created by displaying the u (x, y) value and v (x, y) value at each pixel of a plurality of images taken at different times on a single graph, the above is obtained. The driver's movement can be evaluated by eliminating the error factor.
For example, the effects of vehicle vibrations appear as periodic fluctuations in the u (x, y) value and v (x, y) value. In other words, if the u (x, y) value or v (x, y) value is constant in the same pixel when the influence of vibration or the like is removed (that is, when the driver is not making a large movement). The u (x, y) value and the v (x, y) value vary with time around the correct u (x, y) value and v (x, y) value. That is, the u (x, y) value and the v (x, y) value periodically change in accordance with the timing of capturing an image. For this reason, if a scatter diagram is created by displaying the u (x, y) value and v (x, y) value of each pixel of a plurality of images taken at different times on one graph, the correct u The points are distributed around the point of (x, y) value or v (x, y) value. Then, since the presence / absence of the influence of the vibration of the vehicle can be determined from the point distribution, it is possible to prevent erroneous evaluation due to the influence of the vibration of the vehicle. Therefore, there is a possibility that the movement of the driver can be more accurately evaluated. In particular, this method is suitable for evaluating the movement of the driver in a vehicle such as a truck that is subject to large vibrations.

なお、評価部13は、一旦記憶部11に記憶された画像データや差分値のデータを読みだして移動量Lなどを算出してもよいし、差分算出部12から直接送信されるデータを利用して移動量Lなどを算出してもよい。そして、移動量Lなどは、記憶部11に送信して画像データと関連付けて記憶されるようにすることが好ましい。   Note that the evaluation unit 13 may read the image data or difference value data once stored in the storage unit 11 to calculate the movement amount L or the like, or use data directly transmitted from the difference calculation unit 12. Then, the movement amount L or the like may be calculated. The movement amount L or the like is preferably transmitted to the storage unit 11 and stored in association with the image data.

(検査領域の限定について)
撮影された画像には、動作を把握すべき対象である運転者以外の周囲の物体も撮影されている。周囲の物体が車外の風景であれば、車両の移動に伴って周囲の物体も移動するので、この周囲の物体を撮影した画素でもu(x,y)値およびv(x,y)値が算出されてしまう。例えば、画像では、運転者の腕なども撮影されるが、この部分は通常の運転動作(ハンドル操作など)でも大きな移動が生じる部分であるため、運転者の動作を判断する際に、誤差を生じさせる要因となる。
(Regarding limitation of inspection area)
In the photographed image, surrounding objects other than the driver who is the subject whose movement should be grasped are also photographed. If the surrounding object is a scenery outside the vehicle, the surrounding object also moves with the movement of the vehicle. Therefore, the u (x, y) value and the v (x, y) value are also obtained in the pixels that photograph the surrounding object. It will be calculated. For example, in the image, the driver's arm and the like are also photographed, but this part is a part where a large movement occurs even in a normal driving operation (steering operation, etc.). It will be a factor to cause.

また、画像撮影手段2は車体に固定されているので、車体や車両中の動いていないものは、画像撮影手段2と相対的に移動しないはずである。このため、これらを撮影した部分は、u(x,y)値およびv(x,y)値は通常0となるはずである。しかし、車体の振動等によって画像撮影手段2が揺れたりすれば、上記のものでも、画像撮影手段2に対して相対的に移動してしまい、その部分を撮影した画素でも移動量が算出されてしまう。このような要因でu(x,y)値やv(x,y)値が大きな値を示す場合も、運転者の動作を判断する際の誤差要因となる。   In addition, since the image photographing means 2 is fixed to the vehicle body, the vehicle body or a non-moving object in the vehicle should not move relative to the image photographing means 2. For this reason, the u (x, y) value and the v (x, y) value should normally be 0 in the portion where these are photographed. However, if the image photographing means 2 is shaken by the vibration of the vehicle body or the like, even the above-mentioned one moves relative to the image photographing means 2, and the amount of movement is calculated even in the pixel that photographed that portion. End up. Even if the u (x, y) value or the v (x, y) value shows a large value due to such factors, it becomes an error factor when determining the driver's movement.

そこで、運転者の危険運転に最も関係が深いと考えられる、運転者の顔の動きだけを抽出すれば、上記誤差要因を除くことができ、より正確に運転者の動作を判断することができる。とくに、顔を大きく動かすような脇見を検出しやすくなるので、危険な行動を把握しやすくなる。   Therefore, if only the movement of the driver's face, which is considered to be most relevant to the driver's dangerous driving, is extracted, the above error factors can be eliminated, and the driver's movement can be judged more accurately. . In particular, it becomes easier to detect a side look that moves the face greatly, so it becomes easier to grasp dangerous behavior.

したがって、差分算出部12では、図4に示すように、顔と想定される領域(検査領域)の画素だけについて、輝度の時間差分値および輝度の空間差分値を算出するようにすることが、好ましい。この場合、顔と想定される領域を判断する方法はとくに限定されない。   Therefore, as shown in FIG. 4, the difference calculation unit 12 may calculate the luminance time difference value and the luminance spatial difference value only for the pixels in the region (inspection region) assumed to be a face. preferable. In this case, the method for determining an area assumed to be a face is not particularly limited.

例えば、運転終了後に解析を行う場合であれば、基準となる画像(例えば、車両の運転を開始したときの画像等)において、顔が写っていると想定される領域を人が画像上で検査領域として指定し、全ての画像について、基準となる画像と同じ位置に検査領域を設定してこの検査領域内についてだけ解析を行えばよい。
また、運転席に座ったときに運転者の顔が位置する領域を予め確認しておき、その領域を検査領域として設定しておき、この検査領域だけを解析するようにしてもよい。この場合、上述した記憶部11にその領域のデータだけを保存するようにしてもよい。すると、記憶部11の記憶容量をより少なくすることができる。
For example, if analysis is to be performed after the end of driving, a person inspects on the image a region assumed to have a face in a reference image (for example, an image when the vehicle starts driving). It is only necessary to specify an area as an area, set an inspection area at the same position as the reference image for all images, and perform analysis only within the inspection area.
Alternatively, it is possible to confirm in advance the region where the driver's face is located when sitting in the driver's seat, set the region as the inspection region, and analyze only this inspection region. In this case, only the data in the area may be stored in the storage unit 11 described above. Then, the storage capacity of the storage unit 11 can be further reduced.

もちろん、評価手段10に検査部14を設けておき、この検査部14が、撮影開始直後の画像を使用して、パターンマッチング等の公知の手法により運転者の顔の領域を検出して、その周辺に検査領域を自動で設定するようにしてもよい。この場合、一旦検査領域を設定すると、その検査領域に基づいて撮影や処理を実行すればよいだけある。つまり、各画像ごとにパターンマッチング等をしなくてよいので、処理時間が長時間化や、記憶装置の大容量化などの問題が生じることを防ぐことができる。   Of course, the inspection unit 14 is provided in the evaluation unit 10, and this inspection unit 14 uses the image immediately after the start of photographing to detect the area of the driver's face by a known method such as pattern matching. An inspection area may be automatically set around the periphery. In this case, once the inspection area is set, it is only necessary to perform photographing and processing based on the inspection area. That is, it is not necessary to perform pattern matching or the like for each image, so that problems such as a long processing time and an increase in the capacity of the storage device can be prevented.

なお、事前に指定した検査領域だけを解析する場合、上述したように、差分算出部12は、画像中の検査領域内の画素だけについて輝度の時間差分や空間の時間差分を算出するようにすることができる。
一方、差分算出部12が画像の全画素について輝度の時間差分や空間の時間差分を算出する場合には、評価部13において、検査領域の値だけを使用して運転者の動作を評価するようにすることも可能である。
In the case of analyzing only the inspection region designated in advance, as described above, the difference calculation unit 12 calculates the time difference in luminance and the time difference in space for only the pixels in the inspection region in the image. be able to.
On the other hand, when the difference calculation unit 12 calculates the luminance time difference or the space time difference for all the pixels of the image, the evaluation unit 13 evaluates the driver's movement using only the value of the inspection region. It is also possible to make it.

(その他の実施形態)
上記例では、画像撮影手段2および評価手段10がいずれも車載されている場合を説明した。しかし、画像撮影手段2が評価手段10の記憶部11と同等程度の記憶容量を有する場合には、車内には画像撮影手段2だけを設けて評価手段10は車載しないようにしてもよい。例えば、トラックやタクシーなどにおいて、運転者の運転状況を確認する目的で使用する場合には、車内には画像撮影手段2だけを設けてもよい。この場合、帰社した後、画像撮影手段2からデータを取得し、そのデータを評価手段10によって解析するようにすればよい。
もちろん、画像撮影手段2が十分な記憶容量を有しない場合には、画像撮影手段2とは別に記憶装置を設けておけばよい。例えば、評価手段10の記憶部11だけを車載するようにすることも可能である。
(Other embodiments)
In the above example, the case where both the image photographing unit 2 and the evaluation unit 10 are mounted on the vehicle has been described. However, when the image photographing means 2 has a storage capacity comparable to that of the storage unit 11 of the evaluation means 10, only the image photographing means 2 may be provided in the vehicle so that the evaluation means 10 is not mounted on the vehicle. For example, when used in a truck or taxi for the purpose of confirming the driving situation of the driver, only the image photographing means 2 may be provided in the vehicle. In this case, after returning to the office, data may be acquired from the image capturing unit 2 and the data may be analyzed by the evaluation unit 10.
Of course, if the image photographing means 2 does not have a sufficient storage capacity, a storage device may be provided separately from the image photographing means 2. For example, it is possible to mount only the storage unit 11 of the evaluation unit 10 on the vehicle.

本発明の動作検出システムによって、運転者の動作を検出できることを確認した。
実験では、車両のフロントガラス上部に配置されたカメラ(NPシステム開発製、型番:NDR200P)によって車両内を0.1秒間隔で撮影した。撮影された画像を用いて、画像の各画素について直交する2方向の動き(速度)を算出した。そして、直交する2方向をそれぞれ2軸として散布図を作成した。
It was confirmed that the motion of the driver can be detected by the motion detection system of the present invention.
In the experiment, the inside of the vehicle was photographed at 0.1 second intervals by a camera (manufactured by NP System Development, model number: NDR200P) disposed on the top of the windshield of the vehicle. Using the captured image, the motion (speed) in two directions orthogonal to each pixel of the image was calculated. And a scatter diagram was created with two orthogonal directions as two axes.

上記カメラは,縦480pixel×横640pixelの画像を撮影することができるものであり、運転者の顔を検出した結果から上半身領域を特定して、その領域内で解析している。   The camera is capable of taking an image of 480 pixels by 640 pixels and identifies the upper body region from the result of detecting the driver's face and analyzes it within that region.

結果を図5および図6に示す。
図5は、実際に撮影された画像であって、図5(A)が通常運転時の連続画像であり、図5(B)が運転者が大きく動いた状態の連続画像である。
図6(A)に示すように、通常運転時では、各画素の動きはある程度まとまっており、しかも、その大きさ(原点からの距離)がそれほど大きくないことが確認できる。
一方、図6(B)に示すように、運転者が大きく動いた場合、通常運転よりも原点からの離れた位置まで点が分布しており、大きい動きを検出できていることが確認できる。
The results are shown in FIG. 5 and FIG.
5A and 5B are images actually taken, FIG. 5A is a continuous image during normal driving, and FIG. 5B is a continuous image in a state where the driver has moved greatly.
As shown in FIG. 6A, it can be confirmed that during normal operation, the movement of each pixel is grouped to some extent and the size (distance from the origin) is not so large.
On the other hand, as shown in FIG. 6B, when the driver moves greatly, the points are distributed to a position farther from the origin than in the normal operation, and it can be confirmed that a large movement can be detected.

また、検査領域を顔の周辺に設定して、この検査領域の画素だけの散布図を作成した結果を図7および図8に示す。
図7は、実際に撮影された画像あって、図7(A)が通常運転時の連続画像であり、図7(B)が運転者が大きく動いた状態の連続画像である。
図8(A)に示すように、顔の周辺だけを検査領域とした場合、通常運転時では、各画素の動きは、ほぼ原点近傍に集中していることが確認できる。
一方、図8(B)に示すように、顔の周辺だけを検査領域とした場合でも、運転者が大きく動いた場合には、通常運転よりも原点からの離れた位置まで点が分布していることが確認できる。
そして、顔の周辺だけを検査領域とした場合の方が、通常運転時と運転者が大きく動いた場合との差がはっきりと現れることが確認された。
Further, FIG. 7 and FIG. 8 show the results of setting the inspection area around the face and creating a scatter diagram of only the pixels in the inspection area.
7A and 7B are images actually taken. FIG. 7A is a continuous image during normal driving, and FIG. 7B is a continuous image in a state where the driver has moved greatly.
As shown in FIG. 8A, when only the periphery of the face is set as the inspection region, it can be confirmed that the movement of each pixel is concentrated almost in the vicinity of the origin during normal operation.
On the other hand, as shown in FIG. 8 (B), even when only the periphery of the face is set as the inspection area, when the driver moves greatly, the points are distributed to a position farther from the origin than in the normal driving. It can be confirmed.
Then, it was confirmed that the difference between the normal driving and the case where the driver moved greatly appears more clearly when only the periphery of the face is set as the inspection region.

以上の結果より、本発明の動作検出システムによって、運転者が大きな動きをした場合、その動きを通常運転時の動きと識別して把握することが可能であることが確認された。
そして、本発明の動作検出システムの場合、ある程度画像が粗い場合でも、動きの識別が可能であることも確認された。
From the above results, it has been confirmed that when the driver makes a large movement, the movement detection system of the present invention can recognize and recognize the movement from the movement during normal driving.
In the case of the motion detection system of the present invention, it was also confirmed that the motion can be identified even when the image is rough to some extent.

本発明の動作検出システムは、運転手の危険動作を検出する運転監視システムとして適している。   The motion detection system of the present invention is suitable as a driving monitoring system that detects a dangerous motion of a driver.

1 動作検出システム
2 画像撮影手段
10 評価手段
11 記憶部
12 差分算出部
13 評価部
14 検出部
DESCRIPTION OF SYMBOLS 1 Action detection system 2 Image photographing means 10 Evaluation means 11 Storage part 12 Difference calculation part 13 Evaluation part 14 Detection part

Claims (3)

運転者の動作を評価するために使用されるシステムであって、
前記運転者の画像を撮影する画像撮影手段と、
該画像撮影手段によって撮影された画像に基づいて、前記運転者の動作を評価する評価手段と、を備えており、
該評価手段は、
画像の各部において、直交する2方向における輝度の空間差分値および輝度の時間差分値を算出する差分算出部と、
該差分算出部によって算出された前記2方向の輝度の空間差分値と前記輝度の時間差分値とに基づいて、前記運転者の動作を評価する評価部と、を有しており、
前記評価部は、
一の方向における見かけ上の動きがないと仮定して得られる前記撮影された画像の各画素の前記直交する2方向の速度に基づいて、前記運転者の動作を推定するものである
ことを特徴とする動作検出システム。
A system used to evaluate a driver's movement,
Image capturing means for capturing an image of the driver;
Evaluation means for evaluating the operation of the driver based on an image photographed by the image photographing means,
The evaluation means is:
In each part of the image, a difference calculating unit that calculates a spatial difference value of luminance and a temporal difference value of luminance in two orthogonal directions;
An evaluation unit that evaluates the movement of the driver based on the spatial difference value of the luminance in the two directions calculated by the difference calculation unit and the temporal difference value of the luminance;
The evaluation unit is
The operation of the driver is estimated based on the speed in the two orthogonal directions of each pixel of the captured image obtained on the assumption that there is no apparent movement in one direction. Motion detection system.
前記評価部は、
前記2方向の輝度の空間差分値から求められる移動量の大きさに基づいて前記運転者の動作を評価するものである
ことを特徴とする請求項1記載の動作検出システム。
The evaluation unit is
The motion detection system according to claim 1, wherein the motion of the driver is evaluated based on a movement amount obtained from a spatial difference value of luminance in the two directions.
前記評価手段は、
画像において前記運転者の顔が撮影されている検査領域を検出する検出部を備えており、
前記評価部は、
画像において、前記検出部によって検出された前記検査領域の前記2方向の空間差分値および前記輝度の時間差分値に基づいて前記運転者の動作を評価する
ことを特徴とする請求項1または2記載の動作検出システム。
The evaluation means includes
A detection unit that detects an inspection area in which the driver's face is photographed in an image;
The evaluation unit is
3. The operation of the driver is evaluated based on a spatial difference value in the two directions of the inspection region detected by the detection unit and a temporal difference value of the luminance in the image. Motion detection system.
JP2012208461A 2012-09-21 2012-09-21 Motion detection system Expired - Fee Related JP6083695B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012208461A JP6083695B2 (en) 2012-09-21 2012-09-21 Motion detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012208461A JP6083695B2 (en) 2012-09-21 2012-09-21 Motion detection system

Publications (2)

Publication Number Publication Date
JP2014063374A JP2014063374A (en) 2014-04-10
JP6083695B2 true JP6083695B2 (en) 2017-02-22

Family

ID=50618545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012208461A Expired - Fee Related JP6083695B2 (en) 2012-09-21 2012-09-21 Motion detection system

Country Status (1)

Country Link
JP (1) JP6083695B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006143159A (en) * 2004-11-25 2006-06-08 Alpine Electronics Inc Vehicular motion recognition device
JP5498183B2 (en) * 2010-02-03 2014-05-21 富士重工業株式会社 Behavior detection device

Also Published As

Publication number Publication date
JP2014063374A (en) 2014-04-10

Similar Documents

Publication Publication Date Title
GB2559668A (en) Automatic vehicle leak detection
JP5421999B2 (en) Ambient monitoring device for vehicles
US20180330619A1 (en) Display device and display method for displaying pictures, and storage medium
CN103477380B (en) Driver condition assessment device
JP6384802B2 (en) MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT
KR20200071105A (en) Method, control device and vehicle for detecting at least one object present on a vehicle
JP2019219719A (en) Abnormality detection device and abnormality detection method
WO2019068699A1 (en) Method for classifying an object point as static or dynamic, driver assistance system, and motor vehicle
JP5652239B2 (en) Motion estimation apparatus and program
JP5498183B2 (en) Behavior detection device
JP6384803B2 (en) MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT
JP6602595B2 (en) Vehicle type identification device and vehicle type identification method
KR20130015626A (en) Car collision management system and method
JP6058907B2 (en) In-vehicle recording device
KR101977291B1 (en) Tire abrasion mesuring apparatus, method and computer redable recording medium
JP4039425B2 (en) Image processing apparatus and method
EP3547676B1 (en) Vehicle display control device, vehicle display control system, vehicle display control method, and program
JP6635621B2 (en) Automotive vision system and method of controlling the vision system
JP6083695B2 (en) Motion detection system
KR101738025B1 (en) System for Deciding Accident using Black Box and Driving Method Thereof
JP2008042759A (en) Image processing apparatus
CN105740788A (en) In-vehicle abnormality anti-theft method based on inter-frame histogram disturbance detection
JP4601376B2 (en) Image abnormality determination device
JP4947592B2 (en) Vehicle detection device
JP4661578B2 (en) Mobile object recognition device

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20150407

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150602

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150918

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160824

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170117

R150 Certificate of patent or registration of utility model

Ref document number: 6083695

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees