JP2020052869A - Identification device, identification method, and identification program - Google Patents

Identification device, identification method, and identification program Download PDF

Info

Publication number
JP2020052869A
JP2020052869A JP2018183423A JP2018183423A JP2020052869A JP 2020052869 A JP2020052869 A JP 2020052869A JP 2018183423 A JP2018183423 A JP 2018183423A JP 2018183423 A JP2018183423 A JP 2018183423A JP 2020052869 A JP2020052869 A JP 2020052869A
Authority
JP
Japan
Prior art keywords
change
identification
head
occupant
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018183423A
Other languages
Japanese (ja)
Inventor
望月 誠
Makoto Mochizuki
誠 望月
寺田 佳久
Yoshihisa Terada
佳久 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018183423A priority Critical patent/JP2020052869A/en
Publication of JP2020052869A publication Critical patent/JP2020052869A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an identification device, an identification method, and an identification program capable of immediately identifying that an occupant of a moving object comes into an abnormal state.SOLUTION: An identification device for identifying a state of an occupant of a moving object, includes: an input part for inputting an image including the occupant obtained by an imaging device; and an identification part for identifying whether or not the state of the occupant is in an abnormal state on the basis of a relationship between a change in a position of the head and a change in a position of a predetermined portion other than the head obtained from the image.SELECTED DRAWING: Figure 2

Description

本開示は、識別装置、識別方法および識別プログラムに関する。   The present disclosure relates to an identification device, an identification method, and an identification program.

従来、車両のドライバーの状態を識別する技術が知られている。特許文献1には、ドライバーの生理学データ、車両の運転、および車両を運転するドライバーのモデルのうち少なくとも1つに基づいて、ドライバーの状態を識別することが開示されている。   2. Description of the Related Art Conventionally, a technique for identifying a state of a driver of a vehicle is known. Patent Document 1 discloses that a state of a driver is identified based on at least one of physiological data of the driver, driving of the vehicle, and a model of the driver driving the vehicle.

特許第6219952号公報Japanese Patent No. 6219952

ドライバーが異常状態になったことをより早期に識別することが求められる。そのため、特許文献1に記載の技術には、改善の余地がある。本開示の目的は、移動体の乗員が異常状態になったことをより早期に識別することである。   It is required to identify the driver in an abnormal state earlier. Therefore, the technique described in Patent Document 1 has room for improvement. An object of the present disclosure is to identify an occupant of a moving object in an abnormal state earlier.

本開示の一形態は、移動体の乗員の状態を識別する識別装置であって、撮像装置により得られた前記乗員が含まれる画像を入力する入力部と、前記画像から得られた、前記乗員の頭の位置の変化と前記頭以外の所定部位の位置の変化との関係性に基づいて、前記乗員の状態が異常状態であるか否かを識別する識別部と、を備える、識別装置である。   One embodiment of the present disclosure is an identification device that identifies a state of an occupant of a moving object, an input unit that inputs an image including the occupant obtained by an imaging device, and the occupant obtained from the image. An identification unit that identifies whether or not the occupant is in an abnormal state based on a relationship between a change in the position of the head and a change in the position of the predetermined part other than the head. is there.

なお、本開示の一形態は、方法およびプログラムのいずれかであってもよい。   Note that one embodiment of the present disclosure may be any of a method and a program.

本開示によれば、移動体の乗員が異常状態になったことをより早期に識別することができる。   According to the present disclosure, it is possible to identify earlier that the occupant of the moving object has become abnormal.

図1は、本開示の一実施形態に係る識別装置が搭載されたドライバーモニタリングシステムの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a driver monitoring system equipped with an identification device according to an embodiment of the present disclosure. 図2は、識別処理の一例を示すフローチャートである。FIG. 2 is a flowchart illustrating an example of the identification processing. 図3は、撮像装置で撮影された車内空間の画像を示す模式図である。FIG. 3 is a schematic diagram illustrating an image of the inside of the vehicle taken by the imaging device. 図4は、ドライバーの頭の位置の変化、左肘の位置の変化および相関係数を示すタイムチャートである。FIG. 4 is a time chart showing a change in the position of the driver's head, a change in the position of the left elbow, and a correlation coefficient. 図5は、識別処理の第一変形例を示すフローチャートである。FIG. 5 is a flowchart illustrating a first modification of the identification processing. 図6は、識別処理の第二変形例を示すフローチャートである。FIG. 6 is a flowchart illustrating a second modification of the identification processing. 図7は、識別処理の第三変形例を示すフローチャートである。FIG. 7 is a flowchart illustrating a third modification of the identification processing. 図8は、各部の機能をプログラムにより実現するコンピュータのハードウェア構成の一例を示す図である。FIG. 8 is a diagram illustrating an example of a hardware configuration of a computer that implements the function of each unit by a program.

以下、本開示の一実施形態に係る識別装置100が搭載されたドライバーモニタリングシステム(以下、「DMS」)1について、図面を参照して詳細に説明する。なお、以下に説明する実施形態は一例であり、本開示はこの実施形態により限定されるものではない。   Hereinafter, a driver monitoring system (hereinafter, “DMS”) 1 equipped with an identification device 100 according to an embodiment of the present disclosure will be described in detail with reference to the drawings. The embodiment described below is an example, and the present disclosure is not limited to the embodiment.

DMS1は例えば車両(自動車)に搭載される。車両は、本開示に係る移動体の一例である。以下、DMS1は、車両のドライバーを監視するものとして説明を続けるが、かかる例に限定されない。例えば、DMS1は、ドライバー以外の乗員(例えば、助手席や後席等に着座している乗員)を監視してもよく、この場合、後述する撮像装置200は、ドライバー以外の乗員の上半身の前面を撮影可能な位置に取り付けられ得る。   The DMS 1 is mounted on, for example, a vehicle (automobile). A vehicle is an example of a moving object according to the present disclosure. Hereinafter, the DMS 1 will be described as monitoring the driver of the vehicle, but is not limited to such an example. For example, the DMS 1 may monitor an occupant other than the driver (for example, an occupant sitting in a front passenger seat, a rear seat, or the like). In this case, an imaging device 200 described later uses a front surface of the upper body of the occupant other than the driver. Can be attached to a position where the photograph can be taken.

DMS1は、図1に示すように、撮像装置200と、識別装置100とを備える。   The DMS 1 includes an imaging device 200 and an identification device 100, as shown in FIG.

撮像装置200は、車室内の画像を取得する1台の小型カメラであり得る。但し、かかる例に限定されず、撮像装置200は、TоF(Time Of Flight)センサまたは赤外線センサなどであってもよい。撮像装置200は、車室のコンソール部分に車室内を撮影可能に、特に、車室内のドライバー2(図3参照)の上半身の前面を撮影可能に取り付けられている。   The imaging device 200 may be a single small camera that acquires an image of a vehicle interior. However, the present invention is not limited to this example, and the imaging device 200 may be a TOF (Time Of Flight) sensor or an infrared sensor. The imaging device 200 is attached to a console portion of the vehicle compartment so as to be able to photograph the interior of the vehicle compartment, and particularly to be able to photograph the front surface of the upper body of the driver 2 (see FIG. 3) in the vehicle compartment.

なお、撮像装置200の設置位置は、コンソール部分に限定されず、ステアリングコラムの上、センターディスプレイ付近、ルームミラー位置等、ドライバー2の上半身を撮影可能な位置であればよい。   The installation position of the imaging device 200 is not limited to the console portion, and may be any position that can photograph the upper body of the driver 2, such as on a steering column, near a center display, or a room mirror position.

識別装置100は、例えばECU(Electronic Control Unit)であって、車室内のドライバー2の状態を識別するために、制御基板上に実装された入力端子、出力端子、プロセッサ、プログラムメモリおよびメインメモリを含む。本実施形態では、ドライバー2の状態として、異常状態および通常状態の2種類の状態が定められ得る。但し、かかる例に限定されず、ドライバー2の状態として、異常状態を少なくとも含む3種類以上の状態が定められてもよい。ここで、異常状態は、例えば、意識の喪失などの体調急変した状態であり得る。   The identification device 100 is, for example, an ECU (Electronic Control Unit), and includes an input terminal, an output terminal, a processor, a program memory, and a main memory mounted on a control board in order to identify the state of the driver 2 in the vehicle interior. Including. In the present embodiment, two types of states, an abnormal state and a normal state, can be defined as the state of the driver 2. However, the state of the driver 2 is not limited to this example, and three or more types of states including at least an abnormal state may be determined. Here, the abnormal state may be, for example, a state in which the physical condition has suddenly changed such as loss of consciousness.

プロセッサは、プログラムメモリに格納されたプログラムを、メインメモリを用いて実行して、入力端子を介して受け取った各種信号を処理するとともに、出力端子を介して各種信号を出力する。   The processor executes the program stored in the program memory using the main memory, processes various signals received through the input terminal, and outputs various signals through the output terminal.

識別装置100は、プロセッサがプログラムを実行することで、図1に示すように、入力部120、識別部130、記憶部140、出力部150等として機能する。   The identification device 100 functions as an input unit 120, an identification unit 130, a storage unit 140, an output unit 150, and the like as illustrated in FIG. 1 when a processor executes a program.

入力部120は、撮像装置200から出力された画像信号の入力を受け付ける。   The input unit 120 receives an input of an image signal output from the imaging device 200.

識別部130は、入力部120に入力された画像に基づいてドライバー2の状態(例えば異常状態であるか否かなど)を識別する。識別部130は、機能要素として、骨格情報取得部131、骨格判定部132、および体調急変判定部133を有する。   The identification unit 130 identifies the state of the driver 2 (for example, whether or not the driver 2 is abnormal) based on the image input to the input unit 120. The identification unit 130 includes a skeleton information acquisition unit 131, a skeleton determination unit 132, and a sudden physical condition determination unit 133 as functional elements.

骨格情報取得部131は、入力部120に入力された画像から、ドライバー2の骨格情報を取得する。具体的には、骨格情報取得部131は、ドライバー2の頭の位置と、頭以外の所定部位の位置とを当該画像に基づいて検出する。以下、所定部位として左肘を例に説明を続けるが、左肘以外の部位(例えば、右肘、手首、肩等の腕の関節)であってもよい。   The skeleton information acquisition unit 131 acquires skeleton information of the driver 2 from the image input to the input unit 120. Specifically, the skeleton information acquiring unit 131 detects the position of the head of the driver 2 and the position of a predetermined part other than the head based on the image. Hereinafter, the description will be given by taking the left elbow as an example of the predetermined part, but may be a part other than the left elbow (for example, a joint of an arm such as a right elbow, a wrist, or a shoulder).

このような骨格情報は、公知の骨格検知技術を用いて取得することができる。例えば、骨格情報は、取得対象となる部位の周辺の画像の局所的な特徴量を用いて取得することができる。また、例えば、骨格情報は、畳み込みニューラルネットワーク(Convolutional Neural Network)に代表される深層学習(Deep Learning)等の機械学習によって取得することができる。   Such skeleton information can be obtained by using a known skeleton detection technology. For example, the skeleton information can be acquired by using local feature amounts of an image around a part to be acquired. Further, for example, the skeleton information can be acquired by machine learning such as deep learning represented by a convolutional neural network (Convolutional Neural Network).

骨格判定部132は、骨格情報取得部131で取得されたドライバー2の頭の位置と、頭以外の所定部位の位置とに基づいて、ドライバー2の頭の位置の変化と頭以外の所定部位の位置の変化との相関関係を示す値(具体的には、相関係数)を算出(特定)する。   Based on the position of the head of the driver 2 obtained by the skeleton information obtaining unit 131 and the position of the predetermined part other than the head, the skeleton determining unit 132 changes the position of the head of the driver 2 and determines the position of the predetermined part other than the head. A value (specifically, a correlation coefficient) indicating a correlation with a change in position is calculated (specified).

体調急変判定部133は、骨格判定部132で算出された、ドライバー2の頭の位置の変化と頭以外の所定部位の位置の変化との関係性(相関関係)に基づいて、ドライバー2の状態を識別する。例えば、体調急変判定部133は、まず、骨格判定部132により算出された、頭の位置の変化と当該所定部位の位置の変化との相関を示す値と、所定の閾値との比較に基づいて、頭の位置の変化と当該所定部位の位置の変化とが類似しているか否かを判定する。一例として、当該相関を示す値が当該所定の閾値よりも大きい場合には、体調急変判定部133は、頭の位置の変化と当該所定部位の位置の変化とが類似していると判定する。当該相関を示す値が当該所定の閾値以下である場合には、体調急変判定部133は、頭の位置の変化と当該所定部位の位置の変化とが類似していないと判定する。   The sudden change in physical condition determination unit 133 determines the state of the driver 2 based on the relationship (correlation) between the change in the position of the head of the driver 2 and the change in the position of a predetermined part other than the head, calculated by the skeleton determination unit 132. Identify. For example, the physical condition sudden change determination unit 133 firstly compares the value indicating the correlation between the change in the position of the head and the change in the position of the predetermined part calculated by the skeleton determination unit 132 with a predetermined threshold value. It is determined whether or not the change in the position of the head and the change in the position of the predetermined part are similar. As an example, when the value indicating the correlation is larger than the predetermined threshold, the sudden change in physical condition determination unit 133 determines that the change in the position of the head and the change in the position of the predetermined part are similar. When the value indicating the correlation is equal to or smaller than the predetermined threshold, the sudden change in physical condition determination unit 133 determines that the change in the position of the head and the change in the position of the predetermined part are not similar.

そして、体調急変判定部133は、この判定結果に基づいて、ドライバー2の状態が異常状態であるか否かを識別する。例えば、ドライバー2の頭の位置の変化と当該所定部位の位置の変化とが類似していると判定した場合、体調急変判定部133は、ドライバー2の状態が異常状態であると識別する。頭の位置の変化と当該所定部位の位置の変化とが類似していないと判定した場合、体調急変判定部133は、ドライバー2の状態が通常状態であると識別する。   Then, the sudden change in physical condition determining unit 133 identifies whether or not the state of the driver 2 is abnormal based on the result of the determination. For example, when it is determined that the change in the position of the head of the driver 2 and the change in the position of the predetermined portion are similar, the sudden change in physical condition determination unit 133 determines that the state of the driver 2 is abnormal. When it is determined that the change in the position of the head and the change in the position of the predetermined part are not similar, the sudden change in physical condition determination unit 133 determines that the state of the driver 2 is the normal state.

記憶部140は、識別部130において行われる処理で用いられる各種情報を記憶する。   The storage unit 140 stores various types of information used in the processing performed in the identification unit 130.

出力部150は、車室内または車外への警報を出力する警報装置300、および/または、車両の自動運転等を行うADAS(Advanced Driver Assistance System) ECU400(「運転支援装置」の一例)等に識別部130での識別結果を出力する。なお、図1に示すように、警報装置300およびADAS ECU400は、DMS1内(例えば車両内)に設置され得る。但し、かかる例に限定されず、警報装置300は、所定の施設内に設置されてもよい。この場合、警報装置300と車両とは無線通信および/または有線通信により通信可能に構成され得る。   The output unit 150 identifies an alarm device 300 that outputs an alarm to the vehicle interior or exterior, and / or an ADAS (Advanced Driver Assistance System) ECU 400 (an example of a “driving assistance device”) that performs automatic driving of the vehicle. The identification result in the unit 130 is output. In addition, as shown in FIG. 1, the alarm device 300 and the ADAS ECU 400 can be installed in the DMS 1 (for example, in a vehicle). However, the present invention is not limited to this example, and the alarm device 300 may be installed in a predetermined facility. In this case, the alarm device 300 and the vehicle can be configured to be communicable by wireless communication and / or wired communication.

識別装置100の識別部130において行われる処理の一例について、図2のフローチャートを参照して詳細に説明する。なお、以下に示す処理は、例えば、撮像装置200から画像を受け取る周期(例えば10fps)で繰り返し行われる。また、以下では、上記の所定部位が左肘である例について説明する。   An example of processing performed in the identification unit 130 of the identification device 100 will be described in detail with reference to the flowchart in FIG. The processing described below is repeatedly performed, for example, at a cycle of receiving an image from the imaging device 200 (for example, 10 fps). Hereinafter, an example in which the above-described predetermined portion is the left elbow will be described.

まず、ステップS1で、識別部130(具体的には、骨格情報取得部131)は、撮像装置200から受け取った画像を用いて、ドライバー2の骨格情報を取得する。ドライバー2の骨格情報には、頭の位置の座標(以下、「頭位置情報」という。)および左肘の位置の座標(以下、「左肘位置情報」という。)が含まれる。   First, in step S <b> 1, the identification unit 130 (specifically, the skeleton information obtaining unit 131) obtains skeleton information of the driver 2 using the image received from the imaging device 200. The skeleton information of the driver 2 includes the coordinates of the position of the head (hereinafter, “head position information”) and the coordinates of the position of the left elbow (hereinafter, “left elbow position information”).

図3は、撮像装置200で撮影された車内空間の画像を示す模式図である。なお、図3は、ドライバー2が運転席に正面を向いて着座した状態で、シートベルトを正常に着用し、両手でステアリングホイールを把持している状態を示している。   FIG. 3 is a schematic diagram illustrating an image of the inside of the vehicle taken by the imaging device 200. FIG. 3 shows a state in which the driver 2 normally wears the seatbelt and holds the steering wheel with both hands in a state where the driver 2 is seated in the driver's seat facing the front.

本例では、図3に示すように、撮像画像における左上端を原点とし、右方向を+X方向、下方向を+Y方向として、ドライバー2の各部位の位置の座標を取得する。なお、座標の単位は、ピクセルである。   In this example, as shown in FIG. 3, the coordinates of the position of each part of the driver 2 are acquired with the upper left end of the captured image as the origin, the right direction as the + X direction, and the lower direction as the + Y direction. The unit of coordinates is pixels.

図3には、頭位置情報H(XH,YH)、右肩の位置の座標RS(XRS,YRS)、右手首の位置の座標RW(XRW,YRW)、左肩の位置の座標LS(XLS,YLS)、左肘位置情報LE(XLE,YLE)、および、左手首の位置の座標LW(XLW,YLW)が示されている。 FIG. 3 shows head position information H (X H , Y H ), right shoulder position coordinates RS (X RS , Y RS ), right wrist position coordinates RW (X RW , Y RW ), left shoulder position LS (X LS , Y LS ), left elbow position information LE (X LE , Y LE ), and the coordinates LW (X LW , Y LW ) of the position of the left wrist are shown.

なお、撮像画像における座標系は、撮像装置200の種類、設置位置、FOV(Field of View)等に応じて適宜決定され得る。   Note that the coordinate system in the captured image can be appropriately determined according to the type, installation position, FOV (Field of View), and the like of the imaging device 200.

続くステップS2で、識別部130(具体的には、骨格情報取得部131)は、ステップS1において取得された骨格情報を記憶部140に記憶させる。記憶部140には、新たに取得された骨格情報を含む、直近の複数周期における骨格情報が蓄積される。   In the following step S2, the identification unit 130 (specifically, the skeleton information acquisition unit 131) causes the storage unit 140 to store the skeleton information acquired in step S1. The storage unit 140 accumulates skeleton information in a plurality of latest cycles including newly obtained skeleton information.

続くステップS3で、識別部130(具体的には、骨格判定部132)は、記憶部140に蓄積されている、新たに取得された骨格情報を含む直近の複数周期における骨格情報を用いて、頭位置情報Hと左肘位置情報LEとの相関係数rを算出する。   In subsequent step S3, the identification unit 130 (specifically, the skeleton determining unit 132) uses the skeleton information in the latest plurality of cycles including the newly acquired skeleton information stored in the storage unit 140, A correlation coefficient r between the head position information H and the left elbow position information LE is calculated.

相関係数rは、例えば以下の式(1)により表される。

Figure 2020052869
The correlation coefficient r is represented, for example, by the following equation (1).
Figure 2020052869

ここで、nはデータの個数であり、A(iは1からnまでの自然数)は、i番目のフレームから検出された頭の位置のY座標であり、

Figure 2020052869
は頭の位置のY座標の平均値であり、B(iは1からnまでの自然数)は、i番目のフレームから検出された所定部位(左肘)の位置のY座標であり、
Figure 2020052869
は所定部位(左肘)の位置のY座標の平均値である。 Here, n is the number of data, A i (i is a natural number from 1 to n) is the Y coordinate of the head position detected from the i-th frame,
Figure 2020052869
Is the average value of the Y coordinate of the position of the head, B i (i is a natural number from 1 to n) is the Y coordinate of the position of the predetermined part (left elbow) detected from the i-th frame,
Figure 2020052869
Is the average value of the Y coordinate of the position of the predetermined part (left elbow).

続くステップS4で、識別部130(具体的には、体調急変判定部133)は、ステップS3において算出された相関係数rが予め定められた所定の閾値よりも高いか否かを判定する。このような閾値としては、例えば0.75が挙げられるが、これに限定されない。   In the following step S4, the identification unit 130 (specifically, the sudden change in physical condition determination unit 133) determines whether the correlation coefficient r calculated in step S3 is higher than a predetermined threshold. Such a threshold is, for example, 0.75, but is not limited thereto.

なお、ステップS4では、誤判定を防止するため、相関係数rが所定の閾値よりも高い状態が所定時間継続したか否かを判定するようにしてもよい。   In step S4, in order to prevent erroneous determination, it may be determined whether or not the state in which the correlation coefficient r is higher than a predetermined threshold has continued for a predetermined time.

ステップS4で相関係数rが所定の閾値よりも高いと判定された場合(ステップS4:YES)、処理はステップS5に進む。   If it is determined in step S4 that the correlation coefficient r is higher than the predetermined threshold (step S4: YES), the process proceeds to step S5.

ステップS5で、識別部130(具体的には、体調急変判定部133)は、ドライバー2の状態が異常状態であることを示す信号(以下、「異常状態信号」という。)を出力部150に出力して、処理を終了する。   In step S5, the identification unit 130 (specifically, the sudden change in physical condition determination unit 133) outputs to the output unit 150 a signal indicating that the state of the driver 2 is abnormal (hereinafter, referred to as an “abnormal state signal”). Output and end the process.

一方、ステップS4で相関係数rが所定の閾値よりも高いと判定されなかった場合(ステップS4:NO)、処理はステップS6に進む。   On the other hand, if it is not determined in step S4 that the correlation coefficient r is higher than the predetermined threshold (step S4: NO), the process proceeds to step S6.

ステップS6で、識別部130(具体的には、体調急変判定部133)は、ドライバー2の状態が通常状態であることを示す信号(以下、「通常状態信号」という。)を出力部150に出力して、処理を終了する。   In step S6, the identification unit 130 (specifically, the sudden change in physical condition determination unit 133) outputs to the output unit 150 a signal indicating that the driver 2 is in the normal state (hereinafter, referred to as a “normal state signal”). Output and end the process.

出力部150は、識別部130から異常状態信号を受け取った場合、警報装置300、ADAS ECU400等に、ドライバー2の状態が異常状態であることを示す信号を出力する。警報装置300は、出力部150から当該信号を受け取った場合、車室内または車外へ警報(例えば、当該信号に対応する種類の警報)を出力する。ADAS ECU400は、出力部150から当該信号を受け取った場合、当該信号に応じて車両の運転支援を実行する。例えば、ADAS ECU400は、当該信号に基づき車両の運転状態を手動運転から自動運転に切り換え、車両を所定の停止領域(路肩、駐車場等)まで移動させ、そして、車両を安全に停止させる。   When receiving the abnormal state signal from the identification unit 130, the output unit 150 outputs a signal indicating that the state of the driver 2 is abnormal to the alarm device 300, the ADAS ECU 400, and the like. When receiving the signal from the output unit 150, the alarm device 300 outputs an alarm (for example, an alarm of a type corresponding to the signal) to the inside or outside of the vehicle. When receiving the signal from the output unit 150, the ADAS ECU 400 performs driving assistance of the vehicle in accordance with the signal. For example, the ADAS ECU 400 switches the driving state of the vehicle from manual driving to automatic driving based on the signal, moves the vehicle to a predetermined stop area (road shoulder, parking lot, etc.), and stops the vehicle safely.

次に、図4を参照して、本実施形態の作用効果について説明する。図4は、ドライバーの頭の位置の変化、左肘の位置の変化および相関係数を示すタイムチャートである。図4において、横軸は時間を示しており、縦軸は、Y座標および相関係数を示している。   Next, the operation and effect of the present embodiment will be described with reference to FIG. FIG. 4 is a time chart showing a change in the position of the driver's head, a change in the position of the left elbow, and a correlation coefficient. 4, the horizontal axis indicates time, and the vertical axis indicates the Y coordinate and the correlation coefficient.

図4中、実線は頭の位置のY座標を示し、破線は左肘の位置のY座標を示し、一点鎖線は相関係数を示している。   In FIG. 4, the solid line indicates the Y coordinate of the position of the head, the broken line indicates the Y coordinate of the position of the left elbow, and the dashed line indicates the correlation coefficient.

時刻t0から時刻t1までは、ドライバー2の頭位置座標Hおよび左肘位置座標LEはほぼ変化せず、相関関係がみられない。そのため、相関係数rはほぼゼロである。   From time t0 to time t1, the head position coordinates H and the left elbow position coordinates LE of the driver 2 hardly change, and no correlation is observed. Therefore, the correlation coefficient r is almost zero.

時刻t1から時刻t2まで、相関係数rが上昇している。これは、ドライバー2の頭の位置と左肘の位置とがやや相関を持って変化しているためである。しかしながら、相関係数rは所定の閾値r1までは達しないため、識別部130は、ドライバー2の状態が通常状態であると判定する。   From time t1 to time t2, the correlation coefficient r increases. This is because the position of the head of the driver 2 and the position of the left elbow change slightly with a correlation. However, since the correlation coefficient r does not reach the predetermined threshold value r1, the identification unit 130 determines that the state of the driver 2 is the normal state.

時刻t3で、ドライバー2が意識を喪失し、ドライバー2の頭の位置および左肘の位置が共に下方向に大きく変化すると、頭位置座標HのY座標および左肘位置座標LEのY座標が共にプラス方向に大きく変化し、相関係数rが大きく上昇する。   At time t3, when the driver 2 loses consciousness and both the head position and the left elbow position of the driver 2 greatly change downward, the Y coordinate of the head position coordinate H and the Y coordinate of the left elbow position coordinate LE both change. The value greatly changes in the plus direction, and the correlation coefficient r greatly increases.

そのため、相関係数rが所定の閾値r1を超えた時刻t4で、識別部130は、ドライバー2の状態が異常状態であると判定する。   Therefore, at time t4 when the correlation coefficient r exceeds the predetermined threshold value r1, the identification unit 130 determines that the state of the driver 2 is abnormal.

比較例として、ドライバー2の状態が異常状態であることを、頭の位置が通常の位置から外れた状態が所定時間継続したことに基づいて判定する方法が考えられる。しかしながら、この比較例では、時刻t3で頭の位置が変化を開始しても、時刻t5まではドライバー2の状態が異常状態であると判定されないという課題がある。   As a comparative example, a method of determining that the state of the driver 2 is abnormal based on a state in which the position of the head has deviated from the normal position for a predetermined time has been considered. However, in this comparative example, there is a problem that even if the position of the head starts changing at time t3, the state of the driver 2 is not determined to be abnormal until time t5.

これに対して、本実施形態では、頭の位置の変化と左肘の位置の変化との相関を示す相関係数に基づいてドライバー2の状態が異常状態であると判定するため、時刻t3の直後の時刻t4でドライバー2の状態が異常状態であると判定することができる。   In contrast, in the present embodiment, the state of the driver 2 is determined to be abnormal based on the correlation coefficient indicating the correlation between the change in the position of the head and the change in the position of the left elbow. Immediately after time t4, it can be determined that the state of the driver 2 is abnormal.

以上説明したように、本実施形態では、ドライバー2の頭の位置の変化と頭以外の所定部位の位置の変化とが類似している場合に、ドライバー2の状態が異常状態であると判定する。特に、ドライバー2の頭の位置の変化と頭以外の所定部位の位置の変化との相関を示す相関係数が所定の閾値よりも高い場合に、ドライバー2の状態が異常状態であると判定する。そのため、ドライバーの状態が異常状態になったことを速やかに識別することができる。   As described above, in this embodiment, when the change in the position of the head of the driver 2 is similar to the change in the position of a predetermined part other than the head, the state of the driver 2 is determined to be abnormal. . In particular, when the correlation coefficient indicating the correlation between the change in the position of the head of the driver 2 and the change in the position of the predetermined part other than the head is higher than a predetermined threshold, it is determined that the state of the driver 2 is abnormal. . Therefore, it is possible to quickly identify that the driver has become abnormal.

さらに、本実施形態によれば、ドライバーの状態が異常状態であるか否かを、公知技術よりも精度高く識別することができる。例えば、ドライバーが前方を覗き込む場合、後ろを振り返る場合、および、助手席の荷物を取る場合等であっても、ドライバーの状態が異常状態であると誤識別することを防止できる(つまり、これらの場合において、ドライバーの状態が通常状態であると正確に識別することができる。)   Furthermore, according to the present embodiment, it is possible to determine whether the state of the driver is an abnormal state with higher accuracy than in the related art. For example, even when the driver looks into the front, looks back, or takes luggage in the front passenger seat, it is possible to prevent the driver from being erroneously identified as being in an abnormal state (that is, these conditions). In the case of (1), the driver state can be accurately identified as the normal state.)

以下、本実施形態の変形例について説明する。   Hereinafter, a modified example of the present embodiment will be described.

(第一変形例)
識別装置100の識別部130において行われる処理の第一変形例について、図5のフローチャートを参照して詳細に説明する。上述の実施形態では、頭位置情報Hと左肘位置情報LEとの相関係数に基づいて、ドライバー2の状態を識別した。これに対して、以下に示す第一変形例は、頭位置情報Hの変化方向と左肘位置情報LEの変化方向とに基づいて、ドライバー2の状態を識別するものである。
(First modification)
A first modification of the processing performed in the identification unit 130 of the identification device 100 will be described in detail with reference to the flowchart in FIG. In the above-described embodiment, the state of the driver 2 is identified based on the correlation coefficient between the head position information H and the left elbow position information LE. On the other hand, the first modification example described below identifies the state of the driver 2 based on the change direction of the head position information H and the change direction of the left elbow position information LE.

第一変形例に係る体調急変判定部133は、ドライバー2の頭の位置および当該所定部位の位置が下方向(より詳細には、鉛直方向下向き)に変化したか否かに基づいて、ドライバー2の状態が異常状態であるか否かを識別し得る。例えば、ドライバー2の頭の位置および当該所定部位の位置のうちのいずれか一方が下方向に移動し始めたことが検出されたタイミングから所定の時間以内(例えば同時など)に、頭の位置および当該所定部位の位置の両方が下方向に移動し続けていることが検出された場合、体調急変判定部133は、ドライバー2の状態が異常状態であると識別する。ここで、当該所定の時間の長さは、例えば、複数の乗員の各々に対して予め行われた実験の結果に基づいた最適な長さに設定されてもよい。   The sudden change in physical condition determination unit 133 according to the first modification example is based on whether the position of the head of the driver 2 and the position of the predetermined portion have changed in a downward direction (more specifically, in a vertical downward direction). It can be determined whether or not the state is abnormal. For example, the position of the head and the position of the head within a predetermined time (for example, simultaneously) from the timing when it is detected that one of the position of the head of the driver 2 and the position of the predetermined part has started to move downward are detected. When it is detected that both of the positions of the predetermined part continue to move downward, the physical condition sudden change determination unit 133 identifies that the state of the driver 2 is an abnormal state. Here, the length of the predetermined time may be set to, for example, an optimum length based on a result of an experiment previously performed on each of the plurality of occupants.

以下では、一例として、ドライバー2の頭の位置および当該所定部位の位置の両方が「同時に」下方向に移動したことが検出された場合に、体調急変判定部133が、ドライバー2の状態が異常状態であると識別する例について説明する。   In the following, as an example, if it is detected that both the position of the head of the driver 2 and the position of the predetermined portion have moved downward simultaneously, the physical condition sudden change determination unit 133 determines that the state of the driver 2 is abnormal. An example of identifying a state will be described.

以下、図5を参照して、第一変形例の内容についてより詳細に説明する。ステップS11およびステップS12の処理内容は、上述のステップS1およびステップS2の処理内容と同様であるため、説明を省略する。   Hereinafter, the contents of the first modified example will be described in more detail with reference to FIG. The processing contents of step S11 and step S12 are the same as the processing contents of step S1 and step S2 described above, and a description thereof will be omitted.

ステップS12に続くステップS13で、識別部130(具体的には、骨格判定部132)は、記憶部140に蓄積されている、新たに取得された骨格情報と、前回取得された骨格情報とを用いて、頭位置情報Hの変化方向および左肘位置情報LEの変化方向を算出する。   In step S13 following step S12, the identification unit 130 (specifically, the skeleton determining unit 132) compares the newly obtained skeleton information and the previously obtained skeleton information stored in the storage unit 140. Then, the change direction of the head position information H and the change direction of the left elbow position information LE are calculated.

なお、頭位置情報Hの変化方向および左肘位置情報LEの変化方向の算出には、前回取得された骨格情報に代えて、さらに前に取得された骨格情報を用いてもよい。また、頭位置情報Hの変化方向および左肘位置情報LEの変化方向の算出には、新たに取得された骨格情報を含む、直近の複数周期における骨格情報を用いてもよい。   Note that, in calculating the change direction of the head position information H and the change direction of the left elbow position information LE, skeleton information acquired earlier may be used instead of the skeleton information acquired last time. Further, the calculation of the change direction of the head position information H and the change direction of the left elbow position information LE may use skeleton information in a plurality of latest cycles including newly obtained skeleton information.

続くステップS14で、識別部130(具体的には、体調急変判定部133)は、頭位置情報Hの変化方向と、左肘位置情報LEの変化方向とが、共に下向きであるか否かを判定する。   In the following step S14, the identification unit 130 (specifically, the sudden physical condition determination unit 133) determines whether the change direction of the head position information H and the change direction of the left elbow position information LE are both downward. judge.

ステップS14で頭位置情報Hの変化方向と左肘位置情報LEの変化方向とが共に下向きであると判定された場合(ステップS14:YES)、処理はステップS15に進む。   If it is determined in step S14 that both the change direction of the head position information H and the change direction of the left elbow position information LE are downward (step S14: YES), the process proceeds to step S15.

一方、ステップS14で頭位置情報Hの変化方向と左肘位置情報LEの変化方向の少なくともいずれか一方が下向きではないと判定された場合(ステップS14:NO)、処理はステップS16に進む。   On the other hand, when it is determined in step S14 that at least one of the change direction of the head position information H and the change direction of the left elbow position information LE is not downward (step S14: NO), the process proceeds to step S16.

ステップS15およびステップS16の処理内容は、上述のステップS5およびステップS6の処理内容と同様であるため、説明を省略する。   The processing contents of steps S15 and S16 are the same as the processing contents of step S5 and step S6 described above, and thus description thereof will be omitted.

第一変形例によれば、ドライバー2の頭の位置および頭以外の所定部位の位置が同時に下方向に変化した場合に、ドライバー2の状態が異常状態であると判定するようにしたため、相関係数を算出する必要がない。そのため、上述の実施形態と同様の効果に加え、ECUの処理負荷を軽減することができる。また、直近の2つの骨格情報のみで変化方向を算出することができるため、記憶部140の負荷を軽減することができる。   According to the first modification, when the position of the head of the driver 2 and the position of the predetermined part other than the head simultaneously change in the downward direction, the state of the driver 2 is determined to be an abnormal state. There is no need to calculate numbers. Therefore, in addition to the same effects as in the above-described embodiment, the processing load on the ECU can be reduced. Further, since the change direction can be calculated using only the two latest skeleton information, the load on the storage unit 140 can be reduced.

なお、第一変形例では、頭位置情報Hの変化方向と左肘位置情報LEの変化方向とが共に下向きである場合に、ドライバー2の状態が異常状態であると判定したが、これに限定されない。   In the first modification, when both the change direction of the head position information H and the change direction of the left elbow position information LE are downward, it is determined that the state of the driver 2 is abnormal, but the present invention is not limited to this. Not done.

具体的には、例えば、頭位置情報Hの変化方向と左肘位置情報LEの変化方向とが共に下向きで、かつ、頭位置情報Hの変化方向と左肘位置情報LEの変化方向とのなす角が所定の角度未満である場合に、ドライバー2の状態が異常状態であると判定してもよい。   Specifically, for example, both the change direction of the head position information H and the change direction of the left elbow position information LE are downward, and the change direction of the head position information H and the change direction of the left elbow position information LE are formed. If the angle is less than the predetermined angle, the state of the driver 2 may be determined to be abnormal.

(第二変形例)
識別装置100の識別部130において行われる処理の第二変形例について、図6のフローチャートを参照して詳細に説明する。上述の実施形態では、ドライバー2がステアリングホイールを両手で把持(操作)していることを前提に、頭位置情報Hと左肘位置情報LEとの相関係数rに基づいて、ドライバー2の状態を識別した。これに対して、以下に示す第二変形例は、ドライバー2がステアリングホイールを片手で把持(操作)している場合にもドライバー2の状態を識別できるようにしたものである。
(Second modification)
A second modification of the process performed by the identification unit 130 of the identification device 100 will be described in detail with reference to the flowchart in FIG. In the above-described embodiment, the state of the driver 2 is determined based on the correlation coefficient r between the head position information H and the left elbow position information LE, assuming that the driver 2 is gripping (operating) the steering wheel with both hands. Identified. On the other hand, a second modified example described below allows the state of the driver 2 to be identified even when the driver 2 is gripping (operating) the steering wheel with one hand.

ステップS21およびステップS22の処理内容は、上述のステップS1およびステップS2の処理内容と同様であるため、説明を省略する。   The processing contents of step S21 and step S22 are the same as the processing contents of step S1 and step S2 described above, and a description thereof will be omitted.

ステップS22に続くステップS22−1で、識別部130は、ドライバー2のステアリング把持状態を取得(検知)する。   In step S22-1 following step S22, the identification unit 130 acquires (detects) the steering grip state of the driver 2.

ドライバー2のステアリング把持状態は、例えば、公知のステアリング把持センサから出力される、ドライバー2のステアリング把持状態を示す信号を取得することにより取得することができる。   The steering grip state of the driver 2 can be acquired by, for example, acquiring a signal output from a known steering grip sensor and indicating the steering grip state of the driver 2.

また、ドライバー2がステアリングホイールを両手で把持していない場合、ドライバー2のステアリング把持状態を示す信号には、左右いずれの手でステアリングホイールを把持しているのかを示す信号が含まれる。   When the driver 2 is not gripping the steering wheel with both hands, the signal indicating the steering grip state of the driver 2 includes a signal indicating which of the left and right hands is gripping the steering wheel.

続くステップS22−2で、識別部130は、右肘の位置の座標(以下、「右肘位置情報」という。)REおよび左肘位置情報LEのうち、ステアリングホイールを把持している手の位置情報(すなわち、骨格情報)を選択する。   In the following step S22-2, the identification unit 130 determines the position of the hand holding the steering wheel among the coordinates of the position of the right elbow (hereinafter referred to as “right elbow position information”) RE and the left elbow position information LE. Select information (ie, skeleton information).

続くステップS23で、識別部130は、頭部位置情報と、ステップS22−2で選択された右肘位置情報REまたは左肘位置情報LEとの相関係数を算出する。   In the following step S23, the identification unit 130 calculates a correlation coefficient between the head position information and the right elbow position information RE or the left elbow position information LE selected in step S22-2.

ステップS24ないしステップS26の処理内容は、上述のステップS4ないしステップS6の処理内容と同様であるため、説明を省略する。   The processing contents of steps S24 to S26 are the same as the processing contents of steps S4 to S6 described above, and a description thereof will be omitted.

第二変形例によれば、ステアリングホイールを把持している手の情報を用いることができ、ドライバー2の状態を的確に識別することができる。なお、第二変形例では、右肘位置情報REまたは左肘位置情報LEを用いてドライバー2の状態を識別したが、これに限定されない。肩、手首等、他の部位を用いてもよい。   According to the second modification, the information of the hand holding the steering wheel can be used, and the state of the driver 2 can be accurately identified. In the second modification, the state of the driver 2 is identified using the right elbow position information RE or the left elbow position information LE. However, the present invention is not limited to this. Other parts such as shoulders and wrists may be used.

(第三変形例)
識別装置100の識別部130において行われる処理の第三変形例について、図7のフローチャートを参照して詳細に説明する。上述の実施形態では、頭位置情報Hと左肘位置情報LEとの相関係数に基づいて、ドライバー2の状態を識別した。これに対して、以下に示す第三変形例は、さらにその後のドライバー2の動きを検出することで、ドライバー2の状態の識別精度をさらに向上させたものである。具体的には、第三変形例に係る識別部130は、ドライバー2の頭の位置の変化と頭以外の所定部位の位置の変化とが類似していると判定されたとき、頭の位置の変化量および所定部位の位置の変化量に基づいて、ドライバー2の状態が異常状態であるか否かを識別する。以下、図7を参照して、第三変形例の内容についてより詳細に説明する。
(Third modification)
A third modification of the processing performed in the identification unit 130 of the identification device 100 will be described in detail with reference to the flowchart in FIG. In the above-described embodiment, the state of the driver 2 is identified based on the correlation coefficient between the head position information H and the left elbow position information LE. On the other hand, in a third modified example described below, the subsequent movement of the driver 2 is further detected, thereby further improving the identification accuracy of the state of the driver 2. Specifically, the identification unit 130 according to the third modification example determines that the change in the position of the head of the driver 2 and the change in the position of the predetermined part other than the head are similar to each other. Based on the change amount and the change amount of the position of the predetermined part, it is determined whether or not the state of the driver 2 is abnormal. Hereinafter, the contents of the third modification will be described in more detail with reference to FIG.

ステップS31ないしステップS33の処理内容は、上述のステップS1ないしステップS3の処理内容と同様であるため、説明を省略する。   The processing contents of steps S31 to S33 are the same as the processing contents of steps S1 to S3 described above, and a description thereof will be omitted.

ステップS33に続くステップS34で、識別部130は、相関係数が所定の閾値よりも高いか否かを判定する。   In step S34 following step S33, the identification unit 130 determines whether the correlation coefficient is higher than a predetermined threshold.

ステップS34で相関係数が所定の閾値よりも高いと判定された場合(ステップS34:YES)、処理はステップS34−1に進む。   If it is determined in step S34 that the correlation coefficient is higher than the predetermined threshold (step S34: YES), the process proceeds to step S34-1.

ステップS34−1で、識別部130は、頭位置情報Hおよび左肘位置情報LEの変化量を算出する。なお、この際、頭位置情報Hおよび左肘位置情報LEの変化量を示す指標として、記憶部140に蓄積されている、新たに取得された骨格情報を含む直近の複数周期における骨格情報の標準偏差を算出するようにしてもよい。   In step S34-1, the identification unit 130 calculates the amount of change in the head position information H and the left elbow position information LE. At this time, as an index indicating the amount of change in the head position information H and the left elbow position information LE, the standard of the skeleton information in the latest plurality of cycles including the newly acquired skeleton information stored in the storage unit 140 is stored. The deviation may be calculated.

続くステップS34−2で、識別部130は、頭位置情報Hおよび左肘位置情報LEの変化量が予め定められた第二の所定の閾値よりも小さいか否かを判定する。   In subsequent step S34-2, identification unit 130 determines whether or not the amount of change in head position information H and left elbow position information LE is smaller than a second predetermined threshold.

ステップS34−2で頭位置情報Hおよび左肘位置情報LEの変化量が第二の所定の閾値よりも小さいと判定された場合(ステップS34−2:YES)、処理はステップS35に進む。   When it is determined in step S34-2 that the amount of change in the head position information H and the left elbow position information LE is smaller than the second predetermined threshold (step S34-2: YES), the process proceeds to step S35.

一方、ステップS34−2で頭位置情報Hおよび左肘位置情報LEの変化量が第二の所定の閾値よりも小さくないと判定された場合(ステップS34−2:NO)、処理はステップS36に進む。   On the other hand, when it is determined in step S34-2 that the amounts of change in the head position information H and the left elbow position information LE are not smaller than the second predetermined threshold (step S34-2: NO), the process proceeds to step S36. move on.

ステップS34の説明に戻る。ステップS34で相関係数が所定の閾値よりも高くないと判定された場合(ステップS34:NO)、処理はステップS36に進む。   It returns to description of step S34. If it is determined in step S34 that the correlation coefficient is not higher than the predetermined threshold (step S34: NO), the process proceeds to step S36.

ステップS35およびステップS36の処理内容は、上述のステップS5およびステップS6の処理内容と同様であるため、説明を省略する。   The processing contents of step S35 and step S36 are the same as the processing contents of step S5 and step S6 described above, and thus description thereof will be omitted.

第三変形例によれば、頭位置情報Hと左肘位置情報LEとの相関係数が所定の閾値よりも高いと判定された後、頭位置情報Hおよび左肘位置情報LEの変化量が予め定められた第二の所定の閾値よりも小さい場合に、ドライバー2の状態が異常状態であると判定するようにしたため、ドライバー2の状態の識別精度をさらに向上させることができる。   According to the third modification, after it is determined that the correlation coefficient between the head position information H and the left elbow position information LE is higher than a predetermined threshold, the amount of change in the head position information H and the left elbow position information LE If the state of the driver 2 is determined to be an abnormal state when it is smaller than the second predetermined threshold value, the accuracy of identifying the state of the driver 2 can be further improved.

なお、上述の実施形態、および各変形例は、適宜組み合わせて用いることができる。   Note that the above-described embodiment and each of the modifications can be used in appropriate combination.

また、上述の実施形態および各変形例では、頭以外の所定部位として、左肘または右肘を用いるものを例に説明を行ったが、これに限定されず、左肘または右肘以外の部位を用いることもできる。さらに、頭と、頭以外の複数の所定部位の情報を用いてドライバー2の状態を識別するようにしてもよい。   Further, in the above-described embodiment and each modified example, the case where the left elbow or the right elbow is used as the predetermined part other than the head has been described as an example. However, the present invention is not limited thereto, and the part other than the left elbow or the right elbow may be used. Can also be used. Furthermore, the state of the driver 2 may be identified using information on the head and a plurality of predetermined parts other than the head.

また、上述の実施形態および各変形例では、識別装置100の外部に警報装置300、ADAS ECU400等が設けられたものを例に説明を行ったが、これに限定されない。識別装置100、警報装置300、ADAS ECU400のうち少なくとも2つを一体的に設けることもできる。なお、識別装置100とADAS ECU400とが一体化された場合、識別装置100は、運転支援制御部をさらに有し得る。この場合、運転支援制御部は、識別部130での識別結果に基づいて車両の運転支援を行い得る。   Further, in the above-described embodiment and each of the modified examples, the example in which the alarm device 300, the ADAS ECU 400, and the like are provided outside the identification device 100 has been described. However, the present invention is not limited to this. At least two of the identification device 100, the alarm device 300, and the ADAS ECU 400 may be integrally provided. When the identification device 100 and the ADAS ECU 400 are integrated, the identification device 100 may further include a driving support control unit. In this case, the driving support control unit may support driving of the vehicle based on the identification result of the identification unit 130.

また、上述の実施形態および各変形例では、頭の位置および頭以外の所定部位の位置が共に下方向に変化した場合に、ドライバー2の状態が異常状態であると判定するものを例に説明を行ったが、これに限定されない。頭の位置および頭以外の所定部位の位置が共に上方向、前後方向、左右方向等に変化した場合に、ドライバー2の状態が異常状態であると判定してもよい。   Further, in the above-described embodiment and each of the modifications, an example is described in which the state of the driver 2 is determined to be abnormal when both the position of the head and the position of a predetermined part other than the head change downward. , But is not limited to this. When both the position of the head and the position of the predetermined part other than the head change in the upward direction, the front-back direction, the left-right direction, and the like, the state of the driver 2 may be determined to be abnormal.

また、上述の実施形態および各変形例では、移動体として、車両を例に説明を行ったが、これに限定されない。移動体の他の例としては、飛行機、電車、船舶等が挙げられる。   Further, in the above-described embodiment and each of the modified examples, the vehicle has been described as an example of the moving body, but the moving body is not limited thereto. Other examples of the moving object include an airplane, a train, a ship, and the like.

また、上述の実施形態および各変形例では、異常状態として、意識を喪失した状態を例に説明を行ったが、これに限定されない。異常状態の他の例としては、居眠りをした状態等が挙げられる。   Further, in the above-described embodiment and each of the modified examples, the state in which the consciousness is lost has been described as an example of the abnormal state, but the present invention is not limited to this. As another example of the abnormal state, there is a state of falling asleep.

図8は、上述した実施形態および変形例における各部の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。   FIG. 8 is a diagram illustrating a hardware configuration of a computer that implements the functions of each unit according to the above-described embodiment and modified examples by a program.

図8に示すように、コンピュータ2100は、入力ボタン、タッチパッドなどの入力装置2101、ディスプレイ、スピーカなどの出力装置2102、CPU(Central Processing Unit)2103、ROM(Read Only Memory)2104、RAM(Random Access Memory)2105を備える。また、コンピュータ2100は、ハードディスク装置、SSD(Solid State Drive)などの記憶装置2106、DVD−ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置2107、ネットワークを介して通信を行う送受信装置2108を備える。上述した各部は、バス2109により接続される。   As shown in FIG. 8, a computer 2100 includes an input device 2101 such as an input button and a touch pad, an output device 2102 such as a display and a speaker, a CPU (Central Processing Unit) 2103, a ROM (Read Only Memory) 2104, and a RAM (Random). Access Memory) 2105. Further, the computer 2100 is a reading device that reads information from a recording medium such as a hard disk device, a storage device 2106 such as an SSD (Solid State Drive), a DVD-ROM (Digital Versatile Disk Read Only Memory), and a USB (Universal Serial Bus) memory. 2107, a transmission / reception device 2108 that performs communication via a network. The above-described units are connected by a bus 2109.

そして、読取装置2107は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置2106に記憶させる。あるいは、送受信装置2108が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置2106に記憶させる。   Then, the reading device 2107 reads the program for realizing the function of each unit from a recording medium on which the program is recorded, and causes the storage device 2106 to store the program. Alternatively, the transmission / reception device 2108 communicates with a server device connected to the network, and causes the storage device 2106 to store a program downloaded from the server device for realizing the function of each unit described above.

そして、CPU2103が、記憶装置2106に記憶されたプログラムをRAM2105にコピーし、そのプログラムに含まれる命令をRAM2105から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM2105または記憶装置2106には、各実施の形態で述べた各種処理で得られた情報が記憶され、適宜利用される。   Then, the CPU 2103 copies the program stored in the storage device 2106 to the RAM 2105, and sequentially reads and executes the instructions included in the program from the RAM 2105, thereby realizing the functions of the above-described units. When the program is executed, information obtained by various processes described in each embodiment is stored in the RAM 2105 or the storage device 2106, and is appropriately used.

(本開示のまとめ)
本開示における識別装置は、移動体の乗員の状態を識別する識別装置であって、撮像装置により得られた前記乗員が含まれる画像を入力する入力部と、前記画像から得られた、前記乗員の頭の位置の変化と前記頭以外の所定部位の位置の変化との関係性に基づいて、前記乗員の状態が異常状態であるか否かを識別する識別部と、を備える。
(Summary of the present disclosure)
An identification device according to the present disclosure is an identification device that identifies a state of an occupant of a moving object, and an input unit that inputs an image including the occupant obtained by an imaging device, and the occupant obtained from the image. An identification unit that identifies whether or not the occupant is in an abnormal state based on a relationship between a change in the position of the head and a change in the position of a predetermined part other than the head.

本開示における識別装置において、前記識別部は、前記頭の位置の変化と前記所定部位の位置の変化とが類似している場合、前記乗員の状態が異常状態であると識別する。   In the identification device according to the present disclosure, when the change in the position of the head and the change in the position of the predetermined part are similar, the identification unit identifies the occupant as being in an abnormal state.

本開示における識別装置において、前記識別部は、前記頭の位置の変化と前記所定部位の位置の変化との相関を示す値を算出し、前記相関を示す値と所定の閾値との比較に基づいて、前記頭の位置の変化と前記所定部位の位置の変化とが類似しているか否かを判定し、前記頭の位置の変化と前記所定部位の位置の変化とが類似している場合、前記乗員の状態が異常状態であると識別する。   In the identification device according to the present disclosure, the identification unit calculates a value indicating a correlation between the change in the position of the head and the change in the position of the predetermined part, and based on a comparison between the value indicating the correlation and a predetermined threshold. Then, it is determined whether the change in the position of the head and the change in the position of the predetermined part are similar, and when the change in the position of the head and the change in the position of the predetermined part are similar, The state of the occupant is identified as an abnormal state.

本開示における識別装置において、前記識別部は、前記頭の位置および前記所定部位の位置が同時に下方向に変化したか否かに基づいて、前記乗員の状態が異常状態であるか否かを識別する。   In the identification device according to the present disclosure, the identification unit identifies whether or not the occupant is in an abnormal state based on whether or not the position of the head and the position of the predetermined part have simultaneously changed downward. I do.

本開示における識別装置において、前記識別部は、前記頭の位置および前記所定部位の位置のうちのいずれか一方が下方向に移動し始めたことが検出されたタイミングから所定の時間以内に、前記頭の位置および前記所定部位の位置の両方が下方向に移動し続けていることが検出された場合、前記乗員の状態が異常状態であると識別する。   In the identification device according to an embodiment of the present disclosure, the identification unit may be configured such that, within a predetermined time from a timing when it is detected that one of the position of the head and the position of the predetermined part has begun to move downward, When it is detected that both the position of the head and the position of the predetermined part continue to move downward, the state of the occupant is determined to be abnormal.

本開示における識別装置において、前記識別部は、前記頭の位置の変化と前記所定部位の位置の変化とが類似していると判定されたとき、前記頭の位置の変化量および前記所定部位の位置の変化量に基づいて、前記乗員の状態が異常状態であるか否かを識別する。   In the identification device according to the present disclosure, the identification unit is configured to determine, when it is determined that the change in the position of the head and the change in the position of the predetermined part are similar, the amount of change in the position of the head and the change in the predetermined part. Based on the amount of change in position, it is determined whether or not the occupant is in an abnormal state.

本開示における識別装置において、前記所定部位は、腕の関節である。   In the identification device according to the present disclosure, the predetermined part is an arm joint.

本開示における識別装置において、前記腕は、前記移動体の操舵装置を操作している腕である。   In the identification device according to the present disclosure, the arm is an arm operating a steering device of the moving body.

本開示における識別装置は、前記識別部での識別結果を警報装置に出力する出力部をさらに備える。   The identification device according to the present disclosure further includes an output unit that outputs an identification result of the identification unit to an alarm device.

本開示における識別装置は、前記識別部での識別結果を運転支援装置に出力する出力部をさらに備える。   The identification device according to the present disclosure further includes an output unit that outputs a result of the identification performed by the identification unit to a driving support device.

本開示における識別装置は、前記識別部での識別結果に基づいて前記移動体の運転支援を行う運転支援制御部をさらに備える。   The identification device according to the present disclosure further includes a driving assistance control unit that performs driving assistance of the moving object based on an identification result of the identification unit.

本開示における識別方法は、移動体の乗員の状態を識別する識別方法であって、撮像装置により得られた前記乗員が含まれる画像を入力するステップと、前記画像から得られた、前記乗員の頭の位置の変化と前記頭以外の所定部位の位置の変化との関係性に基づいて、前記乗員の状態が異常状態であるか否かを識別するステップと、を備える。   An identification method according to an embodiment of the present disclosure is an identification method for identifying a state of an occupant of a moving object, including the steps of: inputting an image including the occupant obtained by an imaging device; Identifying whether or not the occupant is in an abnormal state based on a relationship between a change in the position of the head and a change in the position of the predetermined part other than the head.

本開示における識別プログラムは、コンピュータに、撮像装置により得られた前記乗員が含まれる画像を入力する処理と、前記画像から得られた、前記乗員の頭の位置の変化と前記頭以外の所定部位の位置の変化との関係性に基づいて、前記乗員の状態が異常状態であるか否かを識別する処理と、を実行させる。   An identification program according to an embodiment of the present disclosure includes a process of inputting an image including the occupant obtained by an imaging device to a computer, a change in a position of the occupant's head obtained from the image, and a predetermined part other than the head. And a process of identifying whether or not the occupant is in an abnormal state based on the relationship with the change in the position.

本開示に係る識別装置、識別方法および識別プログラムによれば、移動体の乗員が異常状態になったことを速やかに識別することができ、車載用途に好適である。   According to the identification device, the identification method, and the identification program according to the present disclosure, it is possible to quickly identify that the occupant of the moving object has become abnormal, which is suitable for in-vehicle use.

1 ドライバーモニタリングシステム(DMS)
2 ドライバー
100 識別装置
120 入力部
130 識別部
131 骨格情報取得部
132 骨格判定部
133 体調急変判定部
140 記憶部
150 出力部
200 撮像装置
2100 コンピュータ
2101 入力装置
2102 出力装置
2103 CPU
2104 ROM
2105 RAM
2106 記憶装置
2107 読取装置
2108 送受信装置
2109 バス
1 Driver Monitoring System (DMS)
2 driver 100 identification device 120 input unit 130 identification unit 131 skeleton information acquisition unit 132 skeleton determination unit 133 physical condition sudden change determination unit 140 storage unit 150 output unit 200 imaging device 2100 computer 2101 input device 2102 output device 2103 CPU
2104 ROM
2105 RAM
2106 storage device 2107 reading device 2108 transmitting / receiving device 2109 bus

Claims (13)

移動体の乗員の状態を識別する識別装置であって、
撮像装置により得られた前記乗員が含まれる画像を入力する入力部と、
前記画像から得られた、前記乗員の頭の位置の変化と前記頭以外の所定部位の位置の変化との関係性に基づいて、前記乗員の状態が異常状態であるか否かを識別する識別部と、を備える、
識別装置。
An identification device for identifying a state of an occupant of a moving body,
An input unit for inputting an image including the occupant obtained by an imaging device;
Identification for identifying whether or not the occupant is in an abnormal state based on a relationship between a change in the position of the occupant's head and a change in the position of a predetermined part other than the head, obtained from the image; And a unit,
Identification device.
前記識別部は、前記頭の位置の変化と前記所定部位の位置の変化とが類似している場合、前記乗員の状態が異常状態であると識別する、
請求項1に記載の識別装置。
When the change in the position of the head and the change in the position of the predetermined part are similar, the identification unit identifies that the state of the occupant is an abnormal state.
The identification device according to claim 1.
前記識別部は、前記頭の位置の変化と前記所定部位の位置の変化との相関を示す値を算出し、前記相関を示す値と所定の閾値との比較に基づいて、前記頭の位置の変化と前記所定部位の位置の変化とが類似しているか否かを判定し、
前記頭の位置の変化と前記所定部位の位置の変化とが類似している場合、前記乗員の状態が異常状態であると識別する、
請求項2に記載の識別装置。
The identification unit calculates a value indicating a correlation between a change in the position of the head and a change in the position of the predetermined part, and, based on a comparison between the value indicating the correlation and a predetermined threshold value, Determine whether the change and the change in the position of the predetermined part are similar,
When the change in the position of the head and the change in the position of the predetermined portion are similar, the state of the occupant is identified as an abnormal state,
The identification device according to claim 2.
前記識別部は、前記頭の位置および前記所定部位の位置が同時に下方向に変化したか否かに基づいて、前記乗員の状態が異常状態であるか否かを識別する、
請求項1〜3のいずれか一項に記載の識別装置。
The identification unit is configured to identify whether or not the occupant is in an abnormal state, based on whether or not the position of the head and the position of the predetermined part have simultaneously changed downward.
The identification device according to claim 1.
前記識別部は、前記頭の位置および前記所定部位の位置のうちのいずれか一方が下方向に移動し始めたことが検出されたタイミングから所定の時間以内に、前記頭の位置および前記所定部位の位置の両方が下方向に移動し続けていることが検出された場合、前記乗員の状態が異常状態であると識別する、
請求項1〜3のいずれか一項に記載の識別装置。
The identification unit, within a predetermined time from the timing when it is detected that one of the position of the head and the position of the predetermined part has started to move downward, the position of the head and the predetermined part When it is detected that both of the positions continue to move downward, the state of the occupant is identified as an abnormal state,
The identification device according to claim 1.
前記識別部は、前記頭の位置の変化と前記所定部位の位置の変化とが類似していると判定されたとき、前記頭の位置の変化量および前記所定部位の位置の変化量に基づいて、前記乗員の状態が異常状態であるか否かを識別する、
請求項1〜5のいずれか一項に記載の識別装置。
The identification unit, when it is determined that the change in the position of the head and the change in the position of the predetermined part are similar, based on the amount of change in the position of the head and the amount of change in the position of the predetermined part Identifying whether the occupant is in an abnormal state,
The identification device according to claim 1.
前記所定部位は、腕の関節である、
請求項1〜6のいずれか一項に記載の識別装置。
The predetermined site is an arm joint,
The identification device according to claim 1.
前記腕は、前記移動体の操舵装置を操作している腕である、
請求項7に記載の識別装置。
The arm is an arm operating a steering device of the moving body,
The identification device according to claim 7.
前記識別部での識別結果を警報装置に出力する出力部をさらに備える、
請求項1〜8のいずれか一項に記載の識別装置。
An output unit that outputs an identification result of the identification unit to an alarm device,
The identification device according to claim 1.
前記識別部での識別結果を運転支援装置に出力する出力部をさらに備える、
請求項1〜8のいずれか一項に記載の識別装置。
An output unit that outputs an identification result of the identification unit to the driving support device,
The identification device according to claim 1.
前記識別部での識別結果に基づいて前記移動体の運転支援を行う運転支援制御部をさらに備える、
請求項1〜8のいずれか一項に記載の識別装置。
Further comprising a driving support control unit that performs driving support of the moving object based on the identification result in the identification unit,
The identification device according to claim 1.
移動体の乗員の状態を識別する識別方法であって、
撮像装置により得られた前記乗員が含まれる画像を入力するステップと、
前記画像から得られた、前記乗員の頭の位置の変化と前記頭以外の所定部位の位置の変化との関係性に基づいて、前記乗員の状態が異常状態であるか否かを識別するステップと、を備える、
識別方法。
An identification method for identifying a state of an occupant of a moving object,
Inputting an image including the occupant obtained by an imaging device;
A step of identifying whether or not the state of the occupant is abnormal based on the relationship between the change in the position of the occupant's head and the change in the position of a predetermined part other than the head, obtained from the image; And comprising
Identification method.
コンピュータに、
撮像装置により得られた前記乗員が含まれる画像を入力する処理と、
前記画像から得られた、前記乗員の頭の位置の変化と前記頭以外の所定部位の位置の変化との関係性に基づいて、前記乗員の状態が異常状態であるか否かを識別する処理と、を実行させる、
識別プログラム。
On the computer,
A process of inputting an image including the occupant obtained by an imaging device;
A process of identifying whether or not the occupant is in an abnormal state based on the relationship between the change in the position of the occupant's head and the change in the position of a predetermined part other than the head, obtained from the image. And let
Identification program.
JP2018183423A 2018-09-28 2018-09-28 Identification device, identification method, and identification program Pending JP2020052869A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018183423A JP2020052869A (en) 2018-09-28 2018-09-28 Identification device, identification method, and identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018183423A JP2020052869A (en) 2018-09-28 2018-09-28 Identification device, identification method, and identification program

Publications (1)

Publication Number Publication Date
JP2020052869A true JP2020052869A (en) 2020-04-02

Family

ID=69997331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018183423A Pending JP2020052869A (en) 2018-09-28 2018-09-28 Identification device, identification method, and identification program

Country Status (1)

Country Link
JP (1) JP2020052869A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022046326A (en) * 2020-09-10 2022-03-23 ソフトバンク株式会社 Information processing device, information processing method and information processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022046326A (en) * 2020-09-10 2022-03-23 ソフトバンク株式会社 Information processing device, information processing method and information processing program
JP7311474B2 (en) 2020-09-10 2023-07-19 ソフトバンク株式会社 Information processing device, information processing method and information processing program

Similar Documents

Publication Publication Date Title
US10255485B2 (en) Identification device, identification method, and recording medium recording identification program
US10369926B2 (en) Driver state sensing system, driver state sensing method, and vehicle including the same
US11127152B2 (en) Indoor monitoring device
JP2006219009A (en) Automatic adjustment system for vehicular equipment
EP3326868B1 (en) Passenger detection device and passenger detection program
JP2015107798A (en) Method and device for detecting fall of driver of two-wheeled vehicle
JP6516187B2 (en) Sleepiness judging device, sleepiness judging method, sleepiness judging program and recording medium
US11203347B2 (en) In-vehicle device, information management server, information management system, and method
JP2020104680A (en) Indoor monitor device
JP2018057527A (en) Posture estimation device, method and program
CN108885343A (en) Correct the system and method that direction caused by vehicle changes
JP2020057139A (en) Equipment controller
JP6991717B2 (en) Biometric information detection device
JP2020052869A (en) Identification device, identification method, and identification program
JP4858516B2 (en) Face orientation detection device
CN112689587A (en) Method for classifying non-driving task activities in consideration of interruptability of non-driving task activities of driver when taking over driving task is required and method for releasing non-driving task activities again after non-driving task activities are interrupted due to taking over driving task is required
US11325609B2 (en) Vehicle driving assist system
JP7186749B2 (en) Management system, management method, management device, program and communication terminal
US20190100115A1 (en) Systems and methods for vehicle seat occupancy detection
JP2017191367A (en) Safe driving support device and safe driving support program
WO2017217044A1 (en) Viewing direction estimation device
JP6597524B2 (en) Biological information recording device
JP7227106B2 (en) Operation control device, operation control method, and program
JP2017174093A (en) Driver state determination device
CN114575685B (en) Automobile door handle false touch prevention method and system based on vision

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191021