JPWO2020255238A1 - Information processing equipment, programs and information processing methods - Google Patents

Information processing equipment, programs and information processing methods Download PDF

Info

Publication number
JPWO2020255238A1
JPWO2020255238A1 JP2019557640A JP2019557640A JPWO2020255238A1 JP WO2020255238 A1 JPWO2020255238 A1 JP WO2020255238A1 JP 2019557640 A JP2019557640 A JP 2019557640A JP 2019557640 A JP2019557640 A JP 2019557640A JP WO2020255238 A1 JPWO2020255238 A1 JP WO2020255238A1
Authority
JP
Japan
Prior art keywords
level
head
driver
unit
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019557640A
Other languages
Japanese (ja)
Other versions
JP6689470B1 (en
Inventor
拓也 村上
拓也 村上
雄大 中村
雄大 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6689470B1 publication Critical patent/JP6689470B1/en
Publication of JPWO2020255238A1 publication Critical patent/JPWO2020255238A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined

Abstract

運転手の頭部を含む画像から、運転手が姿勢を保持する機能である姿勢保持機能の状態の評価を行う姿勢保持機能評価部(102)と、評価を用いて、運転手の覚醒度のレベルを推定する覚醒度推定部(106)とを備える。From the image including the driver's head, the posture holding function evaluation unit (102) that evaluates the state of the posture holding function, which is the function for the driver to hold the posture, and the evaluation are used to determine the driver's alertness. It is provided with an alertness estimation unit (106) for estimating the level.

Description

本発明は、情報処理装置、プログラム及び情報処理方法に関する。 The present invention relates to an information processing device, a program, and an information processing method.

ドライバーモニタリングシステムが実用化されている。ドライバーモニタリングシステムは、トラック又はバス等の業務用車両に限らず、一般車への普及も進んでいる。 A driver monitoring system has been put into practical use. Driver monitoring systems are becoming more widespread not only in commercial vehicles such as trucks and buses, but also in general vehicles.

ドライバーモニタリングシステムに搭載されている機能として主たるものは、安全運転支援機能として、居眠り運転及びわき見運転の検出機能である。また、自動運転Lv(Level)3においては、自動運転システムから人間への権限移譲が行われるため、これらの機能は、ドライバーが運転可能な状態にあるかを判断する技術として求められている。 The main functions installed in the driver monitoring system are the detection functions for drowsy driving and sideways driving as safe driving support functions. Further, in the automatic driving Lv (Level) 3, since the authority is transferred from the automatic driving system to a human being, these functions are required as a technique for determining whether or not the driver is in a driving state.

従来の技術は、車内に取り付けられたカメラによって、ドライバーの顔を撮影し、その表情等から、ドライバーの状態の推定を行っている。例えば、眠気を推定する技術としては、特許文献1に記載されているように、眼の開き度合いを検出する技術がよく用いられている。 In the conventional technology, the driver's face is photographed by a camera mounted in the vehicle, and the driver's condition is estimated from the facial expression and the like. For example, as a technique for estimating drowsiness, as described in Patent Document 1, a technique for detecting the degree of eye opening is often used.

特開昭61−175129号公報Japanese Unexamined Patent Publication No. 61-175129

従来の眠気を検出する技術は、走行中において運転手の眠気を常時検出することは困難である。例えば、従来の技術では、赤外線カメラを用いていることが多いが、赤外線を遮光するサングラスを運転手が着用している場合、眼の様子が見えないため、瞼の開き度合いを検出することができない。 It is difficult for the conventional technique for detecting drowsiness to constantly detect the drowsiness of the driver while driving. For example, in the conventional technology, an infrared camera is often used, but when the driver wears sunglasses that block infrared rays, the state of the eyes cannot be seen, so the degree of eyelid opening can be detected. Can not.

そこで、本発明は、運転手の眼が隠れている場合でも、運転手の覚醒度のレベルを検出できるようにすることを目的とする。 Therefore, it is an object of the present invention to be able to detect the level of alertness of the driver even when the driver's eyes are hidden.

本発明の一態様に係る情報処理装置は、運転手の頭部を含む画像から、前記運転手が姿勢を保持する機能である姿勢保持機能の状態の評価を行う姿勢保持機能評価部と、前記評価を用いて、前記運転手の覚醒度のレベルを推定する覚醒度推定部と、を備えることを特徴とする。 The information processing apparatus according to one aspect of the present invention includes a posture holding function evaluation unit that evaluates the state of the posture holding function, which is a function of the driver holding the posture, from an image including the driver's head, and the posture holding function evaluation unit. It is characterized by including an arousal level estimation unit that estimates the level of arousal level of the driver using evaluation.

本発明の一態様に係るプログラムは、コンピュータを、運転手の頭部を含む画像から、前記運転手が姿勢を保持する機能である姿勢保持機能の状態の評価を行う姿勢保持機能評価部、及び、前記評価を用いて、前記運転手の覚醒度のレベルを推定する覚醒度推定部、として機能させることを特徴とする。 The program according to one aspect of the present invention includes a posture holding function evaluation unit that evaluates the state of the posture holding function, which is a function of the driver holding the posture, from an image including the driver's head, and a computer. It is characterized in that it functions as an arousal level estimation unit that estimates the level of arousal level of the driver by using the evaluation.

本発明の一態様に係る情報処理方法は、姿勢保持機能評価部が、運転手の頭部を含む画像から、前記運転手が姿勢を保持する機能である姿勢保持機能の状態の評価を行い、覚醒度推定部が、前記評価を用いて、前記運転手の覚醒度のレベルを推定することを特徴とする。 In the information processing method according to one aspect of the present invention, the posture holding function evaluation unit evaluates the state of the posture holding function, which is a function of the driver holding the posture, from an image including the driver's head. The arousal level estimation unit estimates the level of arousal level of the driver by using the evaluation.

本発明の一又は複数の態様によれば、運転手の眼が隠れている場合でも、運転手の覚醒度のレベルを検出することができる。 According to one or more aspects of the invention, the level of alertness of the driver can be detected even when the driver's eyes are hidden.

実施の形態1に係る情報処理装置の構成を概略的に示すブロック図である。It is a block diagram which shows schematic structure of the information processing apparatus which concerns on Embodiment 1. FIG. 実施の形態1における座標系を説明するための概略図である。It is the schematic for demonstrating the coordinate system in Embodiment 1. FIG. 実施の形態1に係る情報処理装置の車両への配置例を示す概略図である。It is the schematic which shows the arrangement example in the vehicle of the information processing apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る情報処理装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware configuration example of the information processing apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る情報処理装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the information processing apparatus which concerns on Embodiment 1. FIG. 実施の形態2に係る情報処理装置の構成を概略的に示すブロック図である。It is a block diagram which shows schematic structure of the information processing apparatus which concerns on Embodiment 2. FIG. 実施の形態2に係る情報処理装置の車両への配置例を示す概略図である。It is the schematic which shows the arrangement example in the vehicle of the information processing apparatus which concerns on Embodiment 2. FIG. 実施の形態2に係る情報処理装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the information processing apparatus which concerns on Embodiment 2.

実施の形態1.
図1は、実施の形態1に係る覚醒度推定装置である情報処理装置100の構成を概略的に示すブロック図である。
図1に示されているように情報処理装置100は、撮像装置130と、覚醒度低下通知装置140とに接続されている。
Embodiment 1.
FIG. 1 is a block diagram schematically showing the configuration of the information processing device 100, which is the alertness estimation device according to the first embodiment.
As shown in FIG. 1, the information processing device 100 is connected to the image pickup device 130 and the alertness decrease notification device 140.

情報処理装置100は、撮像装置130で撮像された画像を示す画像データの入力を受けて、運転手の覚醒度のレベルを推定して、推定されたレベルにより運転手の覚醒度が低下したと判断した場合には、覚醒度低下通知装置140に通知を行わせる。
撮像装置130は、例えば、CCD(Charge Coupled Device)等を利用すればよく、覚醒度低下通知装置140は、ディスプレイ又はスピーカ等を利用すればよい。
The information processing device 100 estimates the level of the driver's arousal level in response to the input of image data indicating the image captured by the image pickup device 130, and the driver's arousal level is lowered by the estimated level. If it is determined, the alertness decrease notification device 140 is notified.
The image pickup device 130 may use, for example, a CCD (Charge Coupled Device) or the like, and the alertness decrease notification device 140 may use a display, a speaker, or the like.

情報処理装置100は、入力インターフェース部(以下、入力I/F部という)101と、姿勢保持機能評価部102と、覚醒度推定部106と、出力インターフェース部(以下、出力I/F部という)107とを備える。
姿勢保持機能評価部102は、頭部座標検出部103と、頭部傾斜角検出部104と、評価部105とを備える。
The information processing device 100 includes an input interface unit (hereinafter referred to as an input I / F unit) 101, a posture holding function evaluation unit 102, an alertness estimation unit 106, and an output interface unit (hereinafter referred to as an output I / F unit). It is provided with 107.
The posture holding function evaluation unit 102 includes a head coordinate detection unit 103, a head inclination angle detection unit 104, and an evaluation unit 105.

入力I/F部101は、撮像装置130から画像データの入力を受ける入力部である。入力I/F部101は、入力された画像データを頭部座標検出部103及び頭部傾斜角検出部104に与える。 The input I / F unit 101 is an input unit that receives input of image data from the image pickup apparatus 130. The input I / F unit 101 gives the input image data to the head coordinate detection unit 103 and the head inclination angle detection unit 104.

ここで、画像データで示される画像には、一名の運転手が映っていてもよいし、他の乗員が映っていてもよい。また、頭部座標の検出と、頭部傾斜角の検出とが可能であれば、画像は、RGB(Red Green Blue)画像でも、IR(infrared)画像でも、距離画像でもよい。 Here, the image shown by the image data may show one driver or another occupant. Further, the image may be an RGB (Red Green Blue) image, an IR (infrared) image, or a distance image as long as the head coordinates can be detected and the head tilt angle can be detected.

姿勢保持機能評価部102は、画像データで示される画像から、運転手が姿勢を保持する機能である姿勢保持機能の状態の評価を行う。 The posture holding function evaluation unit 102 evaluates the state of the posture holding function, which is a function for the driver to hold the posture, from the image shown by the image data.

頭部座標検出部103は、入力I/F部101から与えられる画像データで示される画像から、運転手の頭部の座標である頭部座標を検出する。頭部座標検出部103は、検出された頭部座標を評価部105に与える。 The head coordinate detection unit 103 detects the head coordinates, which are the coordinates of the driver's head, from the image indicated by the image data given from the input I / F unit 101. The head coordinate detection unit 103 gives the detected head coordinates to the evaluation unit 105.

例えば、頭部座標検出部103は、入力I/F部101から与えられる画像データで示される画像から、運転手の顔を検出する。
運転手の顔を検出する方法である顔検出方法は、特に問わない。
具体的には、頭部座標検出部103は、一般的に利用されているHaar−like特徴量を使ったAdaBoostベースの検出器を用いて、運転手の顔を検出してもよい。
For example, the head coordinate detection unit 103 detects the driver's face from the image indicated by the image data given from the input I / F unit 101.
The face detection method, which is a method of detecting the driver's face, is not particularly limited.
Specifically, the head coordinate detection unit 103 may detect the driver's face using an AdaBoost-based detector that uses a commonly used Haar-like feature.

なお、「Haar−like特徴量」は、画像の明暗差により特徴を捉える特徴量であり、画素値をそのまま特徴量として用いる場合と比べて、照明条件の変動又はノイズの影響を受けにくい。また、「AdaBoost」は、Adaptive Boosting の略で、弱い分類器を複数組み合わせて利用することで、パフォーマンスを改善した機械学習アルゴリズムである。 The "Haar-like feature amount" is a feature amount that captures a feature based on the difference in brightness of an image, and is less susceptible to fluctuations in lighting conditions or noise as compared with the case where a pixel value is used as a feature amount as it is. "Adaboost" is an abbreviation for Adaptive Boosting, and is a machine learning algorithm that improves performance by using a plurality of weak classifiers in combination.

次に、頭部座標検出部103は、検出された顔を含む領域である顔検出枠から、運転手の頭部の座標である頭部座標を検出する。
頭部座標の算出方法は、顔検出枠の中心であってもよく、顔の特徴点から頭部の代表点を設定し、その代表点を頭部座標としてもよい。例えば、左右の眼の間の中点を代表点としてもよい。但し、眼の間には特徴的なエッジが存在しなかったり、眼鏡の着用によりエッジができたりするため、直接左右の眼の中点の検出は行わず、左右の目頭の中点としたり、目尻の中点としたりすることで代表点の推定を行ってもよい。
Next, the head coordinate detection unit 103 detects the head coordinates, which are the coordinates of the driver's head, from the face detection frame, which is an area including the detected face.
The method of calculating the head coordinates may be the center of the face detection frame, or a representative point of the head may be set from the feature points of the face, and the representative point may be used as the head coordinates. For example, the midpoint between the left and right eyes may be used as the representative point. However, since there is no characteristic edge between the eyes or an edge is created by wearing glasses, the midpoint of the left and right eyes is not directly detected, but the midpoint of the left and right inner corners of the eye is used. The representative point may be estimated by setting it as the midpoint of the outer corner of the eye.

なお、「顔検出枠」は、画像中から顔の存在する領域を示す枠で、顔の特徴点を内包する。多くの場合枠の形状は正方形である。「顔の特徴点」は、顔らしさを構成する座標で、輪郭、鼻孔、目尻、目頭、口角、唇又は眉等の座標を指す。 The "face detection frame" is a frame indicating an area where the face exists in the image, and includes the feature points of the face. In many cases, the shape of the frame is square. The "facial feature point" is a coordinate that constitutes the facial appearance, and refers to the coordinates of the contour, nostril, outer corner of the eye, inner corner of the eye, corner of the mouth, lips, eyebrows, and the like.

なお、頭部座標検出部103は、検出された顔検出枠を示す顔領域情報を頭部傾斜角検出部104に与える。 The head coordinate detection unit 103 provides the head tilt angle detection unit 104 with face area information indicating the detected face detection frame.

頭部傾斜角検出部104は、入力I/F部101から与えられる画像データで示される画像から、運転手の頭部の傾斜角である頭部傾斜角を検出する。頭部傾斜角検出部104は、検出された頭部傾斜角を評価部105に与える。 The head inclination angle detection unit 104 detects the head inclination angle, which is the inclination angle of the driver's head, from the image indicated by the image data given from the input I / F unit 101. The head tilt angle detection unit 104 gives the detected head tilt angle to the evaluation unit 105.

例えば、頭部傾斜角検出部104は、入力I/F部101から与えられる画像データで示される画像の内、頭部座標検出部103から与えられる顔領域情報で示される顔検出枠内の画像である顔領域画像から、運転手の頭部の傾斜角を検出する。 For example, the head tilt angle detection unit 104 is an image in the face detection frame indicated by the face area information given by the head coordinate detection unit 103 among the images indicated by the image data given by the input I / F unit 101. The tilt angle of the driver's head is detected from the face area image.

具体的には、頭部の傾斜角を検出する方法として、頭部傾斜角検出部104は、頭部の傾斜角10度毎に撮影した画像から検出器を作成しておき、顔領域画像と、その検出器とを用いて、頭部傾斜角を検出してもよい。
また、頭部傾斜角検出部104は、顔領域画像から複数の特徴点を特定し、その特徴点間の距離から、頭部傾斜角を検出してもよい。例えば、頭部傾斜角検出部104は、顔領域画像の垂直方向に二つの特徴点を特定し、その二つの特徴点間の距離により頭部傾斜角を検出してもよい。例えば、頭部傾斜角が大きくなると、その二つの特徴点間の距離は短くなる。この場合に、距離が求められるステレオカメラ又はTOF(Time of Flight)カメラ等で撮像された画像データを用いると、正確かつ容易に、その距離を求めることができる。
Specifically, as a method of detecting the inclination angle of the head, the head inclination angle detection unit 104 creates a detector from images taken every 10 degrees of the inclination angle of the head, and creates a detector as a face area image. , The detector may be used to detect the head inclination angle.
Further, the head tilt angle detection unit 104 may specify a plurality of feature points from the face region image and detect the head tilt angle from the distance between the feature points. For example, the head tilt angle detection unit 104 may specify two feature points in the vertical direction of the face region image and detect the head tilt angle by the distance between the two feature points. For example, as the head tilt angle increases, the distance between the two feature points decreases. In this case, if the image data captured by a stereo camera or a TOF (Time of Flight) camera or the like for which the distance can be obtained is used, the distance can be obtained accurately and easily.

評価部105は、予め定められた期間において頭部座標検出部103で検出される頭部座標のばらつきと、予め定められた期間において頭部傾斜角検出部104で検出される頭部傾斜角のばらつきとを用いて、運転手の姿勢保持機能の状態の評価を行う。
ここでは、評価部105は、予め定められた期間において頭部座標検出部103で検出される頭部座標の分散と、予め定められた期間において頭部傾斜角検出部104で検出される頭部傾斜角の分散とを用いて、運転手の姿勢保持機能の状態の評価を行う。
The evaluation unit 105 determines the variation of the head coordinates detected by the head coordinate detection unit 103 in a predetermined period and the head inclination angle detected by the head inclination angle detection unit 104 in the predetermined period. The state of the driver's posture holding function is evaluated using the variation.
Here, the evaluation unit 105 disperses the head coordinates detected by the head coordinate detection unit 103 in a predetermined period, and the head detected by the head inclination angle detection unit 104 in a predetermined period. The state of the driver's posture holding function is evaluated by using the dispersion of the inclination angle.

例えば、評価部105は、予め定められた期間における頭部座標の分散を算出する。具体的には、評価部105は、直近20秒間の頭部座標の分散を算出する。この場合、撮像装置130が30fps(frame per second)で画像データを入力すると仮定すると、評価部105は、600フレーム分の地球の重力方向の頭部座標を記録し、その座標の分散を算出する。図2に示されているように、地球の重力方向を、ここでは、Y軸とする。なお、撮像装置130のフレームレート、及び、分散を算出する時間はこの例に限定されない。
また、図2に示されている例では、X軸の周りの方向がPitch方向、Y軸の周りの方向がYaw方向、Z軸の周りの方向がRoll方向である。
For example, the evaluation unit 105 calculates the variance of the head coordinates in a predetermined period. Specifically, the evaluation unit 105 calculates the variance of the head coordinates for the last 20 seconds. In this case, assuming that the image pickup apparatus 130 inputs image data at 30 fps (frame per second), the evaluation unit 105 records 600 frames of the head coordinates in the gravity direction of the earth and calculates the dispersion of the coordinates. .. As shown in FIG. 2, the direction of gravity of the earth is taken as the Y axis here. The frame rate of the image pickup apparatus 130 and the time for calculating the variance are not limited to this example.
Further, in the example shown in FIG. 2, the direction around the X-axis is the Pitch direction, the direction around the Y-axis is the Yaw direction, and the direction around the Z-axis is the Roll direction.

ここでは、評価部105は、地球の重力方向の座標の分散を算出したが、同様に地面に対して水平方向の座標の分散を算出してもよい。なお、図2に示されているように、地面に対して水平方向を、ここではX軸とする。水平方向の座標の分散から後述する姿勢保持機能の状態を推定する場合、対応する頭部傾斜角は、Yaw方向又はRoll方向となる。 Here, the evaluation unit 105 calculated the variance of the coordinates in the direction of gravity of the earth, but similarly, the variance of the coordinates in the horizontal direction with respect to the ground may be calculated. As shown in FIG. 2, the horizontal direction with respect to the ground is defined as the X-axis here. When estimating the state of the posture holding function described later from the dispersion of the coordinates in the horizontal direction, the corresponding head inclination angle is the Yaw direction or the Roll direction.

また、評価部105は、予め定められた期間における頭部傾斜角の分散を算出する。具体的には、評価部105は、直近20秒間の頭部傾斜角の分散を算出する。この場合、撮像装置130が30fpsで画像データを入力すると仮定すると、評価部105は、600フレーム分の地球の重力方向の傾斜角であるPitch方向の角度を記録し、その分散を算出する。 In addition, the evaluation unit 105 calculates the variance of the head inclination angle in a predetermined period. Specifically, the evaluation unit 105 calculates the variance of the head inclination angle for the last 20 seconds. In this case, assuming that the image pickup apparatus 130 inputs image data at 30 fps, the evaluation unit 105 records the angle in the Pitch direction, which is the inclination angle of the earth in the gravity direction for 600 frames, and calculates the dispersion.

ここでは、評価部105は、Pitch方向の角度を記録し分散を算出したが、上述のように、Yaw方向又はRoll方向の角度を記録し分散を算出してもよい。 Here, the evaluation unit 105 records the angle in the Pitch direction and calculates the variance, but as described above, the evaluation unit 105 may record the angle in the Yaw direction or the Roll direction and calculate the variance.

そして、評価部105は、頭部座標の分散と頭部傾斜角の分散とから、姿勢保持機能の状態を示す評価値を算出する。例えば、評価部105は、予め定められた期間における頭部座標の分散を、予め定められた期間における頭部傾斜角の分散で割った値、又は、予め定められた期間における頭部傾斜角の分散を、予め定められた期間における頭部座標の分散で割った値を評価値として算出する。 Then, the evaluation unit 105 calculates an evaluation value indicating the state of the posture holding function from the dispersion of the head coordinates and the dispersion of the head inclination angle. For example, the evaluation unit 105 divides the variance of the head coordinates in the predetermined period by the variance of the head inclination angle in the predetermined period, or the value of the head inclination angle in the predetermined period. The value obtained by dividing the variance by the variance of the head coordinates in a predetermined period is calculated as the evaluation value.

具体的には、評価部105は、下記の(1)式により、評価値を算出する。
評価値=(Pitch角の分散)÷(Y座標の分散) (1)
なお、評価部105は、下記の(2)式又は(3)式により、評価値を算出してもよい。
評価値=(X座標の分散)÷(Yaw角の分散) (2)
評価値=(Roll角の分散)÷(X座標の分散) (3)
評価部105は、以上のようにして算出した評価値を覚醒度推定部106に与える。
Specifically, the evaluation unit 105 calculates the evaluation value by the following equation (1).
Evaluation value = (dispersion of Pitch angle) ÷ (variance of Y coordinate) (1)
The evaluation unit 105 may calculate the evaluation value by the following equation (2) or (3).
Evaluation value = (variance of X coordinates) ÷ (variance of Yaw angle) (2)
Evaluation value = (variance of Roll angle) ÷ (variance of X coordinates) (3)
The evaluation unit 105 gives the evaluation value calculated as described above to the alertness estimation unit 106.

例えば、(1)式において、評価値が大きくなる場合、頭部の位置が変わらずに、頭部が上下方向にスイングしているため、運転手の覚醒度が低下して、姿勢保持機能が発揮されていない状態と判断することができる。
(2)式でも、評価値が大きくなる場合、頭部が回転せずに左右に揺れているため、運転手の覚醒度が低下して、姿勢保持機能が発揮されていない状態と判断することができる。
(3)式でも、評価値が大きくなる場合、頭部の位置が変わらずに、頭部が左右にスイングしているため、運転手の覚醒度が低下して、姿勢保持機能が発揮されていない状態と判断することができる。
For example, in the equation (1), when the evaluation value becomes large, the position of the head does not change and the head swings in the vertical direction, so that the driver's alertness decreases and the posture holding function is performed. It can be judged that it is not exhibited.
Even in equation (2), when the evaluation value becomes large, it is judged that the driver's alertness is lowered and the posture holding function is not exhibited because the head is swinging from side to side without rotating. Can be done.
Even in equation (3), when the evaluation value becomes large, the position of the head does not change and the head swings left and right, so the driver's alertness decreases and the posture holding function is exhibited. It can be judged that there is no state.

覚醒度推定部106は、姿勢保持機能評価部102で行われた評価を用いて、運転手の覚醒度のレベルを推定する。
例えば、覚醒度推定部106は、評価部105から与えられる評価値に基づいて、運転手の覚醒度のレベルを推定する。
覚醒度のレベルは、例えば、NEDO(New Energy and Industrial Technology Development Organization)が定めた公知の評価法のように、表情又は体の動き等から推測できる6段階に分けてもよいし、任意の覚醒度レベルに分けてもよい。
The arousal level estimation unit 106 estimates the driver's arousal level using the evaluation performed by the posture holding function evaluation unit 102.
For example, the alertness estimation unit 106 estimates the driver's alertness level based on the evaluation value given by the evaluation unit 105.
The level of arousal level may be divided into 6 stages that can be estimated from facial expressions or body movements, as in the known evaluation method defined by NEDO (New Energy and Industrial Technology Development), for example. It may be divided into degree levels.

NEDOの評価法で覚醒度をレベル分けする場合、覚醒度推定部106は、レベル毎に評価値の閾値を設けて、覚醒度のレベルを推定する。言い換えると、評価値には、対応するレベルが予め特定されているものとする。そして、推定された覚醒度のレベルが、予め定められた閾値を下回る場合、覚醒度推定部106は、出力I/F部107から、覚醒度低下通知装置140に通知指示を行う。 When the arousal level is divided into levels by the NEDO evaluation method, the arousal level estimation unit 106 sets a threshold value of the evaluation value for each level and estimates the level of the arousal level. In other words, it is assumed that the corresponding level is specified in advance in the evaluation value. Then, when the estimated level of arousal level is lower than a predetermined threshold value, the arousal level estimation unit 106 gives a notification instruction from the output I / F unit 107 to the arousal level decrease notification device 140.

出力I/F部107は、覚醒度低下通知装置140に指示等を出力するための出力部である。
覚醒度低下通知装置140は、覚醒度推定部106からの通知指示に応じて、運転者及び同乗者に、覚醒度の低下を通知する。例えば、覚醒度低下通知装置140は、スピーカとディスプレイとを用いて覚醒度の低下を運転者等に通知し、休憩を促すか運転移譲不能状態であることを示す。
The output I / F unit 107 is an output unit for outputting an instruction or the like to the alertness decrease notification device 140.
The alertness decrease notification device 140 notifies the driver and passengers of the decrease in alertness in response to the notification instruction from the alertness estimation unit 106. For example, the alertness decrease notification device 140 notifies the driver and the like of the decrease in alertness by using the speaker and the display, and indicates that a break is urged or the driving is in a non-transferable state.

図3は、実施の形態1に係る情報処理装置100の車両150への配置例を示す概略図である。
車両150の内部には、撮像装置130として機能する車載カメラ151と、情報処理装置100と、記憶装置152と、覚醒度低下通知装置140として機能するスピーカ153及びディスプレイ154とが配置されている。
FIG. 3 is a schematic view showing an example of arrangement of the information processing device 100 according to the first embodiment in the vehicle 150.
Inside the vehicle 150, an in-vehicle camera 151 that functions as an image pickup device 130, an information processing device 100, a storage device 152, a speaker 153 that functions as an alertness decrease notification device 140, and a display 154 are arranged.

ここで、車載カメラ151は、検出対象となる運転手の頭部を含む上半身を撮像する。車載カメラ151は、情報処理装置100と接続されている。なお、図3に示されている車載カメラ151は、ワイヤハーネス等の配線を介して接続されてもよく、無線により接続されてもよい。 Here, the in-vehicle camera 151 captures an image of the upper body including the driver's head to be detected. The in-vehicle camera 151 is connected to the information processing device 100. The in-vehicle camera 151 shown in FIG. 3 may be connected via wiring such as a wire harness, or may be connected wirelessly.

また、車載カメラ151は、一般的なRGBカメラでもよいし、IRカメラでもよい。さらに、車載カメラ151は、Depthセンサでもよい。
「RGBカメラ」は、異なった3本のケーブル等を用いて、赤、緑及び青の3色の信号を通信するカメラであり、一般に3つの独立したCCDセンサを用いるものである。
「IRカメラ」は、赤外線カメラであり、赤外線領域の波長に感度をもつカメラである。
「Depthセンサ」は、3D(three dimensions)センサ、測距センサ又はDepthカメラともいい、二次元画像に加えて深度画像を生成することができるセンサである。測距方式としてステレオカメラ方式、パターン照射方式、TOF方式等があるが、どの方式のセンサでもよい。
Further, the in-vehicle camera 151 may be a general RGB camera or an IR camera. Further, the vehicle-mounted camera 151 may be a Depth sensor.
An "RGB camera" is a camera that communicates signals of three colors of red, green, and blue using three different cables and the like, and generally uses three independent CCD sensors.
An "IR camera" is an infrared camera, which is sensitive to wavelengths in the infrared region.
The "Dept sensor" is also referred to as a 3D (three dimensions) sensor, a distance measuring sensor, or a Dept camera, and is a sensor capable of generating a depth image in addition to a two-dimensional image. The distance measuring method includes a stereo camera method, a pattern irradiation method, a TOF method, and the like, but any type of sensor may be used.

図4は、実施の形態1に係る情報処理装置100のハードウェア構成例を示すブロック図である。
情報処理装置100は、CPU160と、プログラムメモリ161と、データメモリ162と、インターフェース163と、これらを接続するバス164とを備える。
インターフェース163には、車載カメラ151と、スピーカ153と、ディスプレイ154とが接続される。
FIG. 4 is a block diagram showing a hardware configuration example of the information processing apparatus 100 according to the first embodiment.
The information processing device 100 includes a CPU 160, a program memory 161 and a data memory 162, an interface 163, and a bus 164 connecting them.
An in-vehicle camera 151, a speaker 153, and a display 154 are connected to the interface 163.

ここで、頭部座標検出部103、頭部傾斜角検出部104、評価部105及び覚醒度推定部106は、CPU160がプログラムメモリ161に記憶されているプログラムを実行することにより構成することができる。
入力I/F部101及び出力I/F部107は、インターフェース163により構成することができる。
以上のように、情報処理装置100は、特定のプログラムを記憶したコンピュータにより実現することができる。
Here, the head coordinate detection unit 103, the head inclination angle detection unit 104, the evaluation unit 105, and the arousal degree estimation unit 106 can be configured by the CPU 160 executing a program stored in the program memory 161. ..
The input I / F unit 101 and the output I / F unit 107 can be configured by the interface 163.
As described above, the information processing apparatus 100 can be realized by a computer that stores a specific program.

なお、「CPU」は、Central Processing Unitの略称であり、演算及び制御を行う装置である。
CPU160は、プログラムメモリ161に記憶されたプログラムに従って動作する。CPU160は、動作の過程で種々のデータをデータメモリ162に記憶させる。車載カメラ151からインターフェース163を介して入力された画像の認識の結果、インターフェース163を介してスピーカ153とディスプレイ154が制御される。
以下、情報処理装置100で行われる動作を、図5を参照して説明する。
In addition, "CPU" is an abbreviation for Central Processing Unit, and is a device that performs calculation and control.
The CPU 160 operates according to the program stored in the program memory 161. The CPU 160 stores various data in the data memory 162 in the process of operation. As a result of recognizing the image input from the vehicle-mounted camera 151 via the interface 163, the speaker 153 and the display 154 are controlled via the interface 163.
Hereinafter, the operation performed by the information processing apparatus 100 will be described with reference to FIG.

図5は、実施の形態1に係る情報処理装置100の動作を示すフローチャートである。
図5に示されているフローチャートは、画像データ取得ステップ(S10)と、顔検出ステップ(S11)と、頭部座標検出ステップ(S12)と、頭部座標分散算出ステップ(S13)と、頭部傾斜角検出ステップ(S14)と、頭部傾斜角分散算出ステップ(S15)と、評価値算出ステップ(S16)と、覚醒度推定ステップ(S17)と、覚醒度低下通知ステップ(S18)とを有する。
FIG. 5 is a flowchart showing the operation of the information processing apparatus 100 according to the first embodiment.
The flowchart shown in FIG. 5 includes an image data acquisition step (S10), a face detection step (S11), a head coordinate detection step (S12), a head coordinate distribution calculation step (S13), and a head. It has an inclination angle detection step (S14), a head inclination angle dispersion calculation step (S15), an evaluation value calculation step (S16), an arousal degree estimation step (S17), and an arousal degree decrease notification step (S18). ..

画像データ取得ステップS10では、入力I/F部101は、運転手の頭部を含む上半身を撮像した画像の画像データを取得する。 In the image data acquisition step S10, the input I / F unit 101 acquires image data of an image of the upper body including the driver's head.

顔検出ステップS11では、頭部座標検出部103は、取得された画像データで示される画像から、運転手の顔を検出する。なお、頭部座標検出部103は、検出された顔を含む領域である顔検出枠を示す顔領域情報を頭部傾斜角検出部104に与える。 In the face detection step S11, the head coordinate detection unit 103 detects the driver's face from the image indicated by the acquired image data. The head coordinate detection unit 103 provides the head inclination angle detection unit 104 with face area information indicating a face detection frame, which is a region including the detected face.

頭部座標検出ステップS12では、頭部座標検出部103は、顔検出ステップS11で検出された顔を含む領域である顔検出枠から、頭部座標を検出する。
頭部座標分散算出ステップS13では、評価部105は、頭部座標の分散を算出する。
In the head coordinate detection step S12, the head coordinate detection unit 103 detects the head coordinates from the face detection frame, which is an area including the face detected in the face detection step S11.
In the head coordinate variance calculation step S13, the evaluation unit 105 calculates the variance of the head coordinates.

頭部傾斜角検出ステップS14では、頭部傾斜角検出部104は、顔検出ステップS11で検出された顔を含む領域である顔検出枠から、頭部傾斜角を検出する。
頭部傾斜角分散算出ステップS15では、評価部105は、頭部傾斜角検出ステップS14で検出された頭部傾斜角の分散を算出する。
In the head tilt angle detection step S14, the head tilt angle detection unit 104 detects the head tilt angle from the face detection frame which is a region including the face detected in the face detection step S11.
In the head tilt angle dispersion calculation step S15, the evaluation unit 105 calculates the variance of the head tilt angle detected in the head tilt angle detection step S14.

評価値算出ステップS16では、評価部105は、頭部座標の分散と、頭部傾斜角の分散とから、姿勢保持機能の状態を示す評価値を算出する。
覚醒度推定ステップS17では、覚醒度推定部106は、評価値算出ステップS16で算出された評価値から、覚醒度のレベルを推定する。
In the evaluation value calculation step S16, the evaluation unit 105 calculates an evaluation value indicating the state of the posture holding function from the dispersion of the head coordinates and the dispersion of the head inclination angle.
In the arousal level estimation step S17, the arousal level estimation unit 106 estimates the level of the arousal level from the evaluation value calculated in the evaluation value calculation step S16.

覚醒度低下通知ステップS18では、覚醒度推定部106は、覚醒度推定ステップS17で推定された覚醒度のレベルが予め定められた閾値を下回った場合に、出力I/F部107を介して、覚醒度低下通知装置140に、運転手等へ覚醒度の低下を通知するように指示を行う。このような指示を受けた覚醒度低下通知装置140は、運転手及び同乗者等に対してスピーカ153及びディスプレイ154の少なくとも何れか一方を用いて、覚醒度の低下を通知し、休憩を促すか運転移譲不能状態であることを示す。 In the arousal level reduction notification step S18, the arousal level estimation unit 106 uses the output I / F unit 107 via the output I / F unit 107 when the level of the arousal level estimated in the arousal level estimation step S17 falls below a predetermined threshold value. The arousal level decrease notification device 140 is instructed to notify the driver and the like of the decrease in arousal level. Whether the arousal level reduction notification device 140 that receives such an instruction notifies the driver, the passenger, or the like of the decrease in arousal level by using at least one of the speaker 153 and the display 154 and prompts a break. Indicates that the operation cannot be transferred.

以上のように、実施の形態1によれば、運転手の覚醒度のレベルを姿勢保持機能の状態より推定することができる。また、その推定結果に応じて、運転手及び同乗者等に通知を行うことができる。 As described above, according to the first embodiment, the level of the driver's arousal level can be estimated from the state of the posture holding function. In addition, the driver, passengers, and the like can be notified according to the estimation result.

実施の形態1は、頭部の座標と、頭部の傾斜角とから頭部の姿勢保持機能の状態の評価を行うことで覚醒度のレベルを推定するため、眼が隠れている状態でも覚醒度のレベルを推定することができる。
また、覚醒度の推定にカメラ以外のセンサを必要としないため、コスト削減かつ小型化が可能である。
さらに、頭部の傾斜角を推定に用いているため、頭部の動きが、顔の振り向きに起因するものか、車両の振動によるものなのか分離することができる。これにより、安全確認時の振り向き等によって生じる頭部の動きによる誤検出を防ぐことができる。
In the first embodiment, since the level of arousal level is estimated by evaluating the state of the posture holding function of the head from the coordinates of the head and the inclination angle of the head, awakening even when the eyes are hidden. The level of degree can be estimated.
In addition, since a sensor other than a camera is not required to estimate the arousal level, cost reduction and miniaturization are possible.
Further, since the inclination angle of the head is used for estimation, it is possible to distinguish whether the movement of the head is due to the turning of the face or the vibration of the vehicle. As a result, it is possible to prevent erroneous detection due to the movement of the head caused by turning around at the time of safety confirmation.

実施の形態2.
図6は、実施の形態2に係る覚醒度推定装置である情報処理装置200の構成を概略的に示すブロック図である。
図6に示されているように情報処理装置200は、撮像装置130と、覚醒度低下通知装置140とに接続されている。実施の形態2における撮像装置130及び覚醒度低下通知装置140は、実施の形態1における撮像装置130及び覚醒度低下通知装置140と同様である。
Embodiment 2.
FIG. 6 is a block diagram schematically showing the configuration of the information processing device 200, which is the alertness estimation device according to the second embodiment.
As shown in FIG. 6, the information processing device 200 is connected to the image pickup device 130 and the alertness decrease notification device 140. The image pickup device 130 and the alertness decrease notification device 140 in the second embodiment are the same as the image pickup device 130 and the alertness decrease notification device 140 in the first embodiment.

また、実施の形態2における情報処理装置200は、CAN270にも接続されている。「CAN」は、Controller Area Networkの略称であり、車載機器間の通信技術として開発された電子回路及び各装置を接続するための規格に対応したネットワークである。 The information processing device 200 according to the second embodiment is also connected to the CAN 270. "CAN" is an abbreviation for Controller Area Network, and is a network corresponding to a standard for connecting electronic circuits and various devices developed as a communication technology between in-vehicle devices.

情報処理装置200は、入力I/F部201と、姿勢保持機能評価部102と、覚醒度推定部206と、出力I/F部107と、PERCLOS算出部208と、あくび検出部209とを備える。
姿勢保持機能評価部102は、頭部座標検出部103と、頭部傾斜角検出部104と、評価部105とを備える。
The information processing device 200 includes an input I / F unit 201, a posture holding function evaluation unit 102, an alertness estimation unit 206, an output I / F unit 107, a PERCLOS calculation unit 208, and a yawn detection unit 209. ..
The posture holding function evaluation unit 102 includes a head coordinate detection unit 103, a head inclination angle detection unit 104, and an evaluation unit 105.

実施の形態2における姿勢保持機能評価部102及び出力I/F部107は、実施の形態1における姿勢保持機能評価部102及び出力I/F部107と同様である。
但し、姿勢保持機能評価部102の頭部座標検出部103は、検出された顔検出枠を示す顔領域情報を頭部傾斜角検出部104の他、PERCLOS算出部208及びあくび検出部209にも与える。
The posture holding function evaluation unit 102 and the output I / F unit 107 in the second embodiment are the same as the posture holding function evaluation unit 102 and the output I / F unit 107 in the first embodiment.
However, the head coordinate detection unit 103 of the posture holding function evaluation unit 102 transmits the face area information indicating the detected face detection frame to the head inclination angle detection unit 104, as well as the PERCLOS calculation unit 208 and the yawn detection unit 209. give.

入力I/F部201は、撮像装置130から画像データの入力を受ける。入力I/F部201は、入力された画像データを頭部座標検出部103、頭部傾斜角検出部104、PERCLOS算出部208及びあくび検出部209に与える。
また、入力I/F部201は、CAN270から、ステアリングの操舵角、ギアの位置又は車速等の、運転者が運転する車両の状態を示す車両情報の入力を受ける。入力I/F部201は、入力された車両情報を覚醒度推定部206に与える。
The input I / F unit 201 receives the input of image data from the image pickup apparatus 130. The input I / F unit 201 gives the input image data to the head coordinate detection unit 103, the head inclination angle detection unit 104, the PERCLOS calculation unit 208, and the yawn detection unit 209.
Further, the input I / F unit 201 receives input from CAN270 of vehicle information indicating the state of the vehicle driven by the driver, such as the steering angle of the steering wheel, the position of the gear, or the vehicle speed. The input I / F unit 201 gives the input vehicle information to the alertness estimation unit 206.

PERCLOS算出部208は、入力I/F部201から与えられる画像データで示される画像から、運転手の眼が開いている割合である開眼度を検出し、その開眼度に従って、一定時間において運転手が眼を閉じている時間の割合である閉眼割合を算出する閉眼割合算出部である。
ここでは、PERCLOS算出部208は、運転者のPERCLOSを算出する。PERCLOSは、percentage of eye closureの略で、一定時間内における閉眼時間の割合である。PERCLOSは、対象者(ここでは、運転者)の主観的な眠気と相関が高いことで知られており、眠気指標として用いることができる。
The PERCLOS calculation unit 208 detects the degree of eye opening, which is the rate at which the driver's eyes are open, from the image indicated by the image data given from the input I / F unit 201, and according to the degree of eye opening, the driver at a fixed time. Is an eye closure ratio calculation unit that calculates the eye closure ratio, which is the ratio of the time that the eye is closed.
Here, the PERCLOS calculation unit 208 calculates the driver's PERCLOS. PERCLOS is an abbreviation for percentage of eye closure, which is the ratio of eye closure time within a certain period of time. PERCLOS is known to have a high correlation with the subjective drowsiness of the subject (here, the driver), and can be used as a drowsiness index.

例えば、PERCLOS算出部208は、入力I/F部201から与えられる画像データで示される画像の内、頭部座標検出部103から与えられる顔領域情報で示される顔検出枠に対応する顔領域画像において、眼の開き度合いを上下の瞼間の距離から算出する。具体的には、PERCLOS算出部208は、上瞼及び下瞼の円弧上の目尻目頭間の中点をそれぞれ求め、最大開眼時の上下の瞼間の距離に対する上下の瞼間の距離の割合を開眼度とする。
なお、最大開眼時の上下の瞼間の距離に対する上下の瞼間の距離は、予め定められているものとする。このため、開眼度の定義は、眼をつぶっているときの開眼度を0%、覚醒時の開眼度を100%とし、フレーム毎に算出されるものとする。
For example, the PERCLOS calculation unit 208 has a face area image corresponding to the face detection frame indicated by the face area information given by the head coordinate detection unit 103 among the images indicated by the image data given by the input I / F unit 201. In, the degree of eye opening is calculated from the distance between the upper and lower eyelids. Specifically, the PERCLOS calculation unit 208 finds the midpoint between the outer and inner corners of the eyes on the arc of the upper and lower eyelids, and determines the ratio of the distance between the upper and lower eyelids to the distance between the upper and lower eyelids at the time of maximum eye opening. The degree of eye opening.
The distance between the upper and lower eyelids with respect to the distance between the upper and lower eyelids at the time of maximum eye opening shall be predetermined. Therefore, the definition of the degree of eye opening is calculated for each frame, with the degree of eye opening when the eyes are closed as 0% and the degree of eye opening when awake as 100%.

そして、PERCLOS算出部208は、算出された開眼度からPERCLOSを算出する。PERCLOS算出部208は、算出された開眼度に対して、フレーム毎に、予め定められた閾値で開眼又は閉眼の判定を実施し、閉眼であると判定された場合、閉眼フレームとして積算する。例えば、PERCLOS算出部208は、1分間のバッファを設けて、10fpsの撮像装置130で撮影された画像からPERCLOSを算出する場合、1分間で積算された閉眼フレーム数を、6000フレームで割ることで、PERCLOSを算出することができる。 Then, the PERCLOS calculation unit 208 calculates PERCLOS from the calculated degree of eye opening. The PERCLOS calculation unit 208 determines whether the eyes are open or closed for each frame with respect to the calculated degree of eye opening, and when it is determined that the eyes are closed, the calculation is performed as an eye closing frame. For example, when the PERCLOS calculation unit 208 is provided with a buffer for 1 minute and calculates PERCLOS from an image taken by an image pickup device 130 at 10 fps, the number of eye-closure frames accumulated in 1 minute is divided by 6000 frames. , PERCLOS can be calculated.

あくび検出部209は、入力I/F部201から与えられる画像データで示される画像から、運転手の口が開いている割合である開口度を検出し、その開口度に従って、運転手があくびをしているか否かを検出する。 The yawn detection unit 209 detects the opening degree, which is the ratio at which the driver's mouth is open, from the image indicated by the image data given from the input I / F unit 201, and the driver yawns according to the opening degree. Detects whether or not it is done.

例えば、あくび検出部209は、入力I/F部201から与えられる画像データで示される画像の内、頭部座標検出部103から与えられる顔領域情報で示される顔検出枠に対応する顔領域画像において、顔の特徴点から口の開き度合いを上下の唇間の距離から検出する。具体的には、あくび検出部209は、上唇、下唇の円弧上の左右口角間の中点をそれぞれ求め、最大開口時における上下中点間の距離に対する上下中点間の距離を開口度として算出する。 For example, the lips detection unit 209 is a face area image corresponding to the face detection frame indicated by the face area information given by the head coordinate detection unit 103 among the images indicated by the image data given by the input I / F unit 201. In, the degree of opening of the mouth is detected from the feature points of the face from the distance between the upper and lower lips. Specifically, the accretion detection unit 209 obtains the midpoint between the left and right mouth corners on the arc of the upper lip and the lower lip, respectively, and sets the distance between the upper and lower midpoints as the opening degree with respect to the distance between the upper and lower midpoints at the time of maximum opening. calculate.

そして、あくび検出部209は、算出した開口度をもとに、運転手のあくびを検出する。あくびの特徴として、口が一定時間連続して開く、鼻の穴が広がる、涙が出る、又は、あくび発生前に吸気を行う等の特長があるが、ここでは口が一定時間連続して開く特徴を利用した場合について説明する。 Then, the yawn detection unit 209 detects the driver's yawn based on the calculated opening degree. The characteristics of yawning are that the mouth opens continuously for a certain period of time, the nostrils widen, tears come out, or inhalation is performed before yawning occurs, but here the mouth opens continuously for a certain period of time. The case where the feature is used will be described.

具体的には、あくび検出部209は、算出された開口度が予め定められた閾値以上となった場合に、対応するフレームをあくびフレームと判断する。そして、あくび検出部209は、あくびフレームが予め定められた時間である閾値以上継続したときに、あくびであると判定する。また、あくびは短時間で連続して発生しないため、あくび検出部209は、一度あくびを検出した後は、一定時間あくびを検出しない。これにより誤検出を防止することができる。 Specifically, the yawn detection unit 209 determines that the corresponding frame is a yawn frame when the calculated opening degree becomes equal to or higher than a predetermined threshold value. Then, the yawn detection unit 209 determines that the yawn is yawn when the yawn frame continues for a predetermined time, which is a threshold value or longer. Further, since yawning does not occur continuously in a short time, the yawning detection unit 209 does not detect yawning for a certain period of time after detecting yawning once. This makes it possible to prevent erroneous detection.

覚醒度推定部206は、入力I/F部201から与えられる車両情報と、評価部105から与えられる評価値と、PERCLOS算出部208から与えられるPERCLOSと、あくび検出部209から与えられるあくびの有無とから、運転手の覚醒度のレベルを推定する。 The alertness estimation unit 206 has vehicle information given by the input I / F unit 201, an evaluation value given by the evaluation unit 105, PERCLOS given by the PERCLOS calculation unit 208, and the presence or absence of yawning given by the yawn detection unit 209. From, the level of alertness of the driver is estimated.

例えば、覚醒度推定部206は、車両状態情報で示される車両状態を参照し、車両状態が予め定められた条件に該当しない場合に、運転手の覚醒度のレベルを推定する。
ここで、予め定められた条件は、ギアとしてバック又はパーキングが選択されているとき、車速が予め定められた閾値を下回っているとき、又は、操舵角が予め定められた閾値を上回っているときである。これらの条件の何れにも該当しない場合に、覚醒度推定部206は、覚醒度のレベルを推定する。
For example, the arousal level estimation unit 206 refers to the vehicle state indicated by the vehicle state information, and estimates the driver's arousal level when the vehicle state does not correspond to a predetermined condition.
Here, the predetermined conditions are when back or parking is selected as the gear, when the vehicle speed is below the predetermined threshold value, or when the steering angle is above the predetermined threshold value. Is. When none of these conditions are met, the arousal level estimation unit 206 estimates the level of arousal level.

以上の予め定められた条件を考慮することで、実施の形態2においては、覚醒度推定部206は、車両状態情報で示される車両状態が、予め定められた車速以上で、前方に向かって直進している場合に、運転手の覚醒度のレベルを推定する。 By considering the above predetermined conditions, in the second embodiment, the alertness estimation unit 206 advances straight forward toward the front when the vehicle state indicated by the vehicle state information is equal to or higher than the predetermined vehicle speed. If so, estimate the level of alertness of the driver.

そして、覚醒度推定部206は、運転手の覚醒度のレベルを推定すると判断した場合に、入力I/F部201から与えられる車両情報と、評価部105から与えられる評価値と、PERCLOS算出部208から与えられるPERCLOSと、あくび検出部209から与えられるあくびの有無とから、運転手の覚醒度のレベルを推定する。 Then, when the arousal level estimation unit 206 determines that the driver's arousal level is to be estimated, the vehicle information given by the input I / F unit 201, the evaluation value given by the evaluation unit 105, and the PERCLOS calculation unit. The level of alertness of the driver is estimated from the PERCLOS given by 208 and the presence or absence of yawn given by the yawn detection unit 209.

なお、覚醒度推定部206は、入力I/F部201から与えられる車両情報、評価部105から与えられる評価値、PERCLOS算出部208から与えられるPERCLOS、及び、あくび検出部209から与えられるあくびの有無の各々から、各々に対応する覚醒度のレベルを推定する。そして、覚醒度推定部206は、同じタイミングで最も低い覚醒度のレベルをそのタイミングにおける覚醒度のレベルとして採用する。 The arousal level estimation unit 206 includes vehicle information given by the input I / F unit 201, an evaluation value given by the evaluation unit 105, PERCLOS given by the PERCLOS calculation unit 208, and yawns given by the yawn detection unit 209. The level of alertness corresponding to each is estimated from each of the presence or absence. Then, the arousal level estimation unit 206 adopts the lowest arousal level at the same timing as the arousal level at that timing.

ここでは、車両情報として、ステアリングの操舵角の経時変化が用いられる。覚醒度のレベルが低下すると、ステアリングの操舵角は細かく変化すると知られており、この指標を利用する。即ち、操舵角の経時変化の大きさに応じて、覚醒度のレベルが予め対応付けられていればよい。
また、PERCLOSについては、それぞれの値に覚醒度のレベルが予め対応付けられていればよく、あくびの有無についても、それぞれに覚醒度のレベルが予め対応付けられていればよい。
Here, as vehicle information, a change over time in the steering angle of the steering wheel is used. It is known that the steering angle of the steering changes finely as the level of alertness decreases, and this index is used. That is, the level of arousal level may be associated in advance according to the magnitude of the change in steering angle with time.
Further, for PERCLOS, the level of arousal level may be associated with each value in advance, and the level of arousal level may be associated with each value in advance with respect to the presence or absence of yawning.

ここで、評価値に対応する覚醒度のレベルを第1のレベル、車両情報で示される車両の状態に対応する覚醒度のレベルを第2のレベル、PERCLOSに対応する覚醒度のレベルを第3のレベル、及び、あくびをしているか否かに対応する覚醒度のレベルを第4のレベルとすると、覚醒度推定部206は、第1のレベル、第2のレベル、第3のレベル及び第4のレベルから最終的な覚醒度のレベルを特定する。但し、サングラスを着用している等の理由で、第3のレベルが取得できない場合には、第1のレベル、第2のレベル及び第3のレベルから最終的な覚醒度のレベルが特定される。ここでは、これらのレベルの内、最も覚醒度が低いものが最終的な覚醒度のレベルとして特定される。 Here, the level of arousal level corresponding to the evaluation value is the first level, the level of the arousal level corresponding to the state of the vehicle indicated by the vehicle information is the second level, and the level of the arousal level corresponding to PERCLOS is the third level. And the level of alertness corresponding to whether or not yawning is the fourth level, the alertness estimation unit 206 has a first level, a second level, a third level, and a third level. Identify the final level of alertness from level 4. However, if the third level cannot be obtained due to reasons such as wearing sunglasses, the final level of alertness is specified from the first level, the second level, and the third level. .. Here, among these levels, the one with the lowest arousal level is specified as the final arousal level.

なお、覚醒度のレベルは、実施の形態1と同様に、NEDOの評価法が用いられればよいが、任意の覚醒度のレベルが用いられてもよい。覚醒度のレベルは、指標毎に信頼度とともに算出しておくことが望ましい。信頼度とは、出力される値が尤もらしい値であるかを示す指標である。信頼度が高い時に出力される値は尤もらしい値であり、信頼度が低い時に出力される値は誤りであることが多くなるように調整しておく。 As the level of alertness, the NEDO evaluation method may be used as in the first embodiment, but any level of alertness may be used. It is desirable to calculate the level of alertness together with the reliability for each index. The reliability is an index indicating whether the output value is a plausible value. The value output when the reliability is high is a plausible value, and the value output when the reliability is low is adjusted so that it is often incorrect.

覚醒度の推定方法としては、各指標のうち信頼度が予め定められた閾値を上回っているものの中から最も低いレベルが採用されればよい。これにより開閉眼に特徴の出ない運転手でもあくび又は操舵角のばらつき等によって覚醒度のレベルを正しく判定することができる。 As a method for estimating the arousal level, the lowest level among the indicators whose reliability exceeds a predetermined threshold value may be adopted. As a result, even a driver who does not have a characteristic of opening and closing eyes can correctly determine the level of arousal level by yawning or variation in steering angle.

即ち、運転者の覚醒度のレベルの推定には、瞼の開き度合いから推定する方式が有効であり、ドライバーの覚醒度のレベルが低下すると、PERCLOSが高くなることが知られている。赤外線に感度のある撮像装置130を用いて開閉眼を検出する手法が一般的であるが、赤外線の透過率の低いサングラス着用時には眼の状態を検出できない。しかしながら、上述の方法であれば、サングラス着用時等には、PERCLOSによる覚醒度のレベルは推定されないが、他の方法で推定されたレベルを適用することができる。 That is, it is known that a method of estimating the level of the driver's arousal level from the degree of eyelid opening is effective, and that the PERCLOS increases as the level of the driver's arousal level decreases. A method of detecting an open / closed eye using an image pickup device 130 that is sensitive to infrared rays is common, but the state of the eyes cannot be detected when wearing sunglasses having low infrared transmittance. However, according to the above method, the level of arousal level by PERCLOS is not estimated when wearing sunglasses, but the level estimated by another method can be applied.

図7は、実施の形態2に係る情報処理装置200の車両150への配置例を示す概略図である。
車両150の内部には、撮像装置130として機能する車載カメラ151と、情報処理装置200と、記憶装置152と、覚醒度低下通知装置140として機能するスピーカ153及びディスプレイ154と、車速センサ255と、ギアボックス256と、ステアリング257とが配置されている。
FIG. 7 is a schematic view showing an example of arrangement of the information processing device 200 according to the second embodiment in the vehicle 150.
Inside the vehicle 150, there are an in-vehicle camera 151 that functions as an image pickup device 130, an information processing device 200, a storage device 152, a speaker 153 and a display 154 that function as an alertness decrease notification device 140, and a vehicle speed sensor 255. The gearbox 256 and the steering 257 are arranged.

実施の形態2における車載カメラ151、記憶装置152、スピーカ153及びディスプレイ154は、実施の形態1における車載カメラ151、記憶装置152、スピーカ153及びディスプレイ154と同様である。
実施の形態2では、車速センサ255、ギアボックス256及びステアリング257から取得できる情報が、車両情報として、CAN270を介して、情報処理装置200に送られる。
The vehicle-mounted camera 151, the storage device 152, the speaker 153, and the display 154 in the second embodiment are the same as the vehicle-mounted camera 151, the storage device 152, the speaker 153, and the display 154 in the first embodiment.
In the second embodiment, the information that can be acquired from the vehicle speed sensor 255, the gearbox 256, and the steering 257 is sent to the information processing apparatus 200 as vehicle information via the CAN 270.

図4に示されているように、実施の形態2に係る情報処理装置200も、CPU160と、プログラムメモリ161と、データメモリ162と、インターフェース163と、これらを接続するバス164とを備える。
インターフェース163には、車載カメラ151と、スピーカ153と、ディスプレイ154とが接続される。
なお、実施の形態2においては、インターフェース163は、CAN270にも接続されている。
As shown in FIG. 4, the information processing apparatus 200 according to the second embodiment also includes a CPU 160, a program memory 161 and a data memory 162, an interface 163, and a bus 164 connecting them.
An in-vehicle camera 151, a speaker 153, and a display 154 are connected to the interface 163.
In the second embodiment, the interface 163 is also connected to the CAN 270.

図8は、実施の形態2に係る情報処理装置200の動作を示すフローチャートである。
図8に示されているフローチャートは、画像データ取得ステップ(S20)と、顔検出ステップ(S21)と、頭部座標検出ステップ(S22)と、頭部座標分散算出ステップ(S23)と、頭部傾斜角検出ステップ(S24)と、頭部傾斜角分散算出ステップ(S25)と、開眼度検出ステップ(S26)と、PERCLOS算出ステップ(S27)と、開口度検出ステップ(S28)と、あくび検出ステップ(S29)と、評価値算出ステップ(S30)と、覚醒度推定ステップ(S31)と、覚醒度低下通知ステップ(S32)とを有する。
FIG. 8 is a flowchart showing the operation of the information processing apparatus 200 according to the second embodiment.
The flowchart shown in FIG. 8 includes an image data acquisition step (S20), a face detection step (S21), a head coordinate detection step (S22), a head coordinate distribution calculation step (S23), and a head. Tilt angle detection step (S24), head tilt angle dispersion calculation step (S25), eye opening degree detection step (S26), PERCLOS calculation step (S27), opening degree detection step (S28), and accretion detection step. (S29), an evaluation value calculation step (S30), an arousal degree estimation step (S31), and an arousal degree decrease notification step (S32).

画像データ取得ステップS20では、入力I/F部201は、運転手の頭部を含む上半身を撮像した画像の画像データを取得する。画像データで示される画像は、後段の処理で実施する頭部座標の算出と、頭部傾斜角の算出と、PERCLOSの算出と、あくびの検出とが可能であれば、RGB画像、IR画像又は距離画像等のどのような画像であってもよい。 In the image data acquisition step S20, the input I / F unit 201 acquires image data of an image of the upper body including the driver's head. The image shown by the image data is an RGB image, an IR image, or an IR image, if it is possible to calculate the head coordinates, the head inclination angle, the PERCLOS, and the yawn detection to be performed in the subsequent processing. It may be any image such as a distance image.

顔検出ステップS21では、頭部座標検出部103は、取得された画像データで示される画像から、運転手の顔を検出する。なお、頭部座標検出部103は、検出された顔を含む領域である検出枠を示す顔領域情報を頭部傾斜角検出部104、PERCLOS算出部208及びあくび検出部209に与える。 In the face detection step S21, the head coordinate detection unit 103 detects the driver's face from the image indicated by the acquired image data. The head coordinate detection unit 103 gives face area information indicating a detection frame, which is a region including the detected face, to the head inclination angle detection unit 104, the PERCLOS calculation unit 208, and the yawn detection unit 209.

頭部座標検出ステップS22では、頭部座標検出部103は、顔検出ステップS21で検出された顔を含む領域である顔検出枠から、頭部座標を検出する。
頭部座標分散算出ステップS23では、評価部105は、頭部座標の分散を算出する。
In the head coordinate detection step S22, the head coordinate detection unit 103 detects the head coordinates from the face detection frame, which is an area including the face detected in the face detection step S21.
In the head coordinate variance calculation step S23, the evaluation unit 105 calculates the variance of the head coordinates.

頭部傾斜角検出ステップS24では、頭部傾斜角検出部104は、顔検出ステップS21で検出された顔を含む領域である顔検出枠から、頭部傾斜角を検出する。
頭部傾斜角分散算出ステップS25では、評価部105は、頭部傾斜角検出ステップS24で検出された頭部傾斜角の分散を算出する。
In the head tilt angle detection step S24, the head tilt angle detection unit 104 detects the head tilt angle from the face detection frame, which is a region including the face detected in the face detection step S21.
In the head tilt angle dispersion calculation step S25, the evaluation unit 105 calculates the variance of the head tilt angle detected in the head tilt angle detection step S24.

開眼度検出ステップS26では、PERCLOS算出部208は、顔検出ステップS21で検出された顔を含む領域である顔検出枠から、運転手の顔の特徴点を用いて眼の開き度合いである開眼度を検出する。
PERCLOS算出ステップS27では、PERCLOS算出部208は、開眼度検出ステップS26で検出された開眼度からPERCLOSを算出する。
In the eye opening degree detection step S26, the PERCLOS calculation unit 208 uses the feature points of the driver's face from the face detection frame, which is an area including the face detected in the face detection step S21, to determine the degree of eye opening. Is detected.
In the PERCLOS calculation step S27, the PERCLOS calculation unit 208 calculates PERCLOS from the eye opening degree detected in the eye opening degree detection step S26.

開口度検出ステップS28では、あくび検出部209は、顔検出ステップS21で検出された顔を含む領域である顔検出枠から、運転手の顔の特徴点を用いて、口の開き度合いである開口度を検出する。
あくび検出ステップS29では、あくび検出部209は、開口度検出ステップS28で検出された開口度を用いて、あくびの有無を検出する。
In the opening degree detection step S28, the yawn detection unit 209 uses the feature points of the driver's face from the face detection frame, which is an area including the face detected in the face detection step S21, to open the mouth. Detect the degree.
In the yawn detection step S29, the yawn detection unit 209 detects the presence or absence of yawn by using the opening degree detected in the opening degree detection step S28.

評価値算出ステップS30では、評価部105は、頭部座標の分散と、頭部傾斜角の分散とから、姿勢保持機能の状態を示す評価値を算出する。 In the evaluation value calculation step S30, the evaluation unit 105 calculates an evaluation value indicating the state of the posture holding function from the dispersion of the head coordinates and the dispersion of the head inclination angle.

覚醒度推定ステップS31では、覚醒度推定部206は、車両状態情報で示される車両状態を参照し、車両状態が予め定められた条件に該当しない場合に、運転手の覚醒度のレベルを推定する。例えば、覚醒度推定部206は、入力I/F部201から与えられる車両情報と、評価部105から与えられる評価値と、PERCLOS算出部208から与えられるPERCLOSと、あくび検出部209から与えられるあくびの有無とから、運転手の覚醒度のレベルを推定する。 In the arousal level estimation step S31, the awakening level estimation unit 206 refers to the vehicle state indicated by the vehicle state information, and estimates the driver's arousal level when the vehicle state does not correspond to a predetermined condition. .. For example, the alertness estimation unit 206 has vehicle information given by the input I / F unit 201, an evaluation value given by the evaluation unit 105, PERCLOS given by the PERCLOS calculation unit 208, and yawn given by the yawn detection unit 209. The level of alertness of the driver is estimated from the presence or absence of.

覚醒度低下通知ステップS32では、覚醒度推定部206は、覚醒度推定ステップS31で推定された覚醒度のレベルが予め定められた閾値を下回った場合に、出力I/F部107を介して、覚醒度低下通知装置140に、運転手等へ覚醒度の低下を通知するように指示を行う。このような指示を受けた覚醒度低下通知装置140は、運転手及び同乗者等に対してスピーカ153及びディスプレイ154の少なくとも何れか一方を用いて、覚醒度の低下を通知し、休憩を促すか運転移譲不能状態であることを示す。 In the arousal level reduction notification step S32, the arousal level estimation unit 206 uses the output I / F unit 107 via the output I / F unit 107 when the level of the arousal level estimated in the arousal level estimation step S31 falls below a predetermined threshold value. The arousal level decrease notification device 140 is instructed to notify the driver and the like of the decrease in arousal level. Whether the arousal level reduction notification device 140 that receives such an instruction notifies the driver, the passenger, or the like of the decrease in arousal level by using at least one of the speaker 153 and the display 154 and prompts a break. Indicates that the operation cannot be transferred.

以上のように、実施の形態2によれば、運転手の覚醒度のレベルを評価するに適した指標でその評価を行うことができる。
また、その評価の結果に応じてスピーカ153及びディスプレイ154の制御を行うことで、運転手及び同乗者に覚醒度を通知することができる。
As described above, according to the second embodiment, the evaluation can be performed by an index suitable for evaluating the level of the driver's arousal level.
Further, by controlling the speaker 153 and the display 154 according to the evaluation result, the driver and the passenger can be notified of the arousal level.

100,200 情報処理装置、 101,201 入力I/F部、 103 頭部座標検出部、 104 頭部傾斜角検出部、 105 評価部、 106,206 覚醒度推定部、 107 出力I/F部、 208 PERCLOS算出部、 209 あくび検出部、 130 撮像装置、 140 覚醒度低下通知装置、 150 車両、 151 車載カメラ、 152 記憶装置、 153 スピーカ、 154 ディスプレイ、 160 CPU、 161 プログラムメモリ、 162 データメモリ、 163 インターフェース、 164 バス。 100,200 Information processing device, 101,201 input I / F unit, 103 head coordinate detection unit, 104 head tilt angle detection unit, 105 evaluation unit, 106,206 arousal degree estimation unit, 107 output I / F unit, 208 PERCLOS calculation unit, 209 accretion detection unit, 130 imaging device, 140 arousal reduction notification device, 150 vehicle, 151 in-vehicle camera, 152 storage device, 153 speaker, 154 display, 160 CPU, 161 program memory, 162 data memory, 163 Interface, 164 buses.

本発明の一態様に係る情報処理装置は、運転手の頭部を含む画像から、前記運転手の頭部の座標である頭部座標を検出する頭部座標検出部と、前記画像から、前記運転手の頭部の傾斜角である頭部傾斜角を検出する頭部傾斜角検出部と、予め定められた期間における前記頭部座標及び前記頭部傾斜角のばらつきから、前記運転手が姿勢を保持する機能である姿勢保持機能の状態の評価を行う評価部と、前記評価を用いて、前記運転手の覚醒度のレベルを推定する覚醒度推定部と、を備えることを特徴とする。 The information processing apparatus according to one aspect of the present invention includes a head coordinate detection unit that detects head coordinates, which are the coordinates of the driver's head, from an image including the driver's head, and the image. From the head tilt angle detection unit that detects the head tilt angle, which is the tilt angle of the driver's head, and the variation of the head coordinates and the head tilt angle in a predetermined period, the driver takes a posture. It is characterized by including an evaluation unit that evaluates the state of the posture holding function, which is a function of holding the above, and an arousal degree estimation unit that estimates the level of the arousal degree of the driver by using the evaluation.

本発明の一態様に係るプログラムは、コンピュータを、運転手の頭部を含む画像から、前記運転手の頭部の座標である頭部座標を検出する頭部座標検出部、前記画像から、前記運転手の頭部の傾斜角である頭部傾斜角を検出する頭部傾斜角検出部、予め定められた期間における前記頭部座標及び前記頭部傾斜角のばらつきから、前記運転手が姿勢を保持する機能である姿勢保持機能の状態の評価を行う評価部、及び、前記評価を用いて、前記運転手の覚醒度のレベルを推定する覚醒度推定部、として機能させることを特徴とする。 In the program according to one aspect of the present invention, the computer is subjected to a head coordinate detection unit that detects head coordinates, which are the coordinates of the driver's head, from an image including the driver's head. The head tilt angle detection unit that detects the head tilt angle, which is the tilt angle of the driver's head, the head coordinates in a predetermined period, and the variation of the head tilt angle, the driver determines the posture. It is characterized in that it functions as an evaluation unit that evaluates the state of the posture holding function, which is a function to be held, and an arousal degree estimation unit that estimates the level of the arousal degree of the driver by using the evaluation.

本発明の一態様に係る情報処理方法は、頭部座標検出部が、運転手の頭部を含む画像から、前記運転手の頭部の座標である頭部座標を検出し、頭部傾斜角検出部が、前記画像から、前記運転手の頭部の傾斜角である頭部傾斜角を検出し、評価部が、予め定められた期間における前記頭部座標及び前記頭部傾斜角のばらつきから、前記運転手が姿勢を保持する機能である姿勢保持機能の状態の評価を行い、覚醒度推定部が、前記評価を用いて、前記運転手の覚醒度のレベルを推定することを特徴とする。 In the information processing method according to one aspect of the present invention, the head coordinate detection unit detects the head coordinates, which are the coordinates of the driver's head, from the image including the driver's head, and the head inclination angle. The detection unit detects the head tilt angle, which is the tilt angle of the driver's head, from the image, and the evaluation unit detects the variation of the head coordinates and the head tilt angle in a predetermined period. , The state of the posture holding function, which is a function of the driver to hold the posture, is evaluated, and the arousal degree estimation unit estimates the level of the driver's arousal degree by using the evaluation. ..

本発明の一態様に係る情報処理装置は、運転手の頭部を含む画像から、前記運転手の頭部の座標である頭部座標を検出する頭部座標検出部と、前記画像から、前記運転手の頭部の傾斜角である頭部傾斜角を検出する頭部傾斜角検出部と、予め定められた期間における前記頭部座標の分散と、前記予め定められた期間における前記頭部傾斜角の分散とから、前記運転手が姿勢を保持する機能である姿勢保持機能の状態の評価を行う評価部と、前記評価を用いて、前記運転手の覚醒度のレベルを推定する覚醒度推定部と、を備えることを特徴とする。 The information processing apparatus according to one aspect of the present invention includes a head coordinate detection unit that detects head coordinates, which are the coordinates of the driver's head, from an image including the driver's head, and the image. The head tilt angle detection unit that detects the head tilt angle, which is the tilt angle of the driver's head, the dispersion of the head coordinates in a predetermined period, and the head tilt in the predetermined period. Arousal estimation that estimates the level of arousal of the driver using the evaluation unit and the evaluation unit that evaluates the state of the attitude holding function, which is the function of the driver to hold the posture, from the dispersion of the angles. It is characterized by having a part and.

本発明の一態様に係るプログラムは、コンピュータを、運転手の頭部を含む画像から、前記運転手の頭部の座標である頭部座標を検出する頭部座標検出部、前記画像から、前記運転手の頭部の傾斜角である頭部傾斜角を検出する頭部傾斜角検出部、予め定められた期間における前記頭部座標の分散と、前記予め定められた期間における前記頭部傾斜角の分散とから、前記運転手が姿勢を保持する機能である姿勢保持機能の状態の評価を行う評価部、及び、前記評価を用いて、前記運転手の覚醒度のレベルを推定する覚醒度推定部、として機能させることを特徴とする。 In the program according to one aspect of the present invention, the computer is subjected to a head coordinate detection unit that detects head coordinates, which are the coordinates of the driver's head, from an image including the driver's head. The head tilt angle detection unit that detects the head tilt angle, which is the tilt angle of the driver's head, the dispersion of the head coordinates in a predetermined period, and the head tilt angle in the predetermined period. and a dispersion of the evaluation unit for evaluating the driver attitude holding function is a function of holding the posture state, and, using the evaluation, arousal level wakefulness estimation to estimate of the driver It is characterized by functioning as a department.

本発明の一態様に係る情報処理方法は、頭部座標検出部が、運転手の頭部を含む画像から、前記運転手の頭部の座標である頭部座標を検出し、頭部傾斜角検出部が、前記画像から、前記運転手の頭部の傾斜角である頭部傾斜角を検出し、評価部が、予め定められた期間における前記頭部座標の分散と、前記予め定められた期間における前記頭部傾斜角の分散とから、前記運転手が姿勢を保持する機能である姿勢保持機能の状態の評価を行い、覚醒度推定部が、前記評価を用いて、前記運転手の覚醒度のレベルを推定することを特徴とする。 In the information processing method according to one aspect of the present invention, the head coordinate detection unit detects the head coordinates, which are the coordinates of the driver's head, from the image including the driver's head, and the head inclination angle. The detection unit detects the head inclination angle, which is the inclination angle of the driver's head, from the image, and the evaluation unit determines the dispersion of the head coordinates in a predetermined period and the predetermined determination. From the dispersion of the head inclination angle during the period, the state of the posture holding function, which is the function of the driver to hold the posture, is evaluated, and the arousal degree estimation unit uses the evaluation to awaken the driver. It is characterized by estimating the level of degree.

ここで、評価値に対応する覚醒度のレベルを第1のレベル、車両情報で示される車両の状態に対応する覚醒度のレベルを第2のレベル、PERCLOSに対応する覚醒度のレベルを第3のレベル、及び、あくびをしているか否かに対応する覚醒度のレベルを第4のレベルとすると、覚醒度推定部206は、第1のレベル、第2のレベル、第3のレベル及び第4のレベルから最終的な覚醒度のレベルを特定する。但し、サングラスを着用している等の理由で、第3のレベルが取得できない場合には、第1のレベル、第2のレベル及び第のレベルから最終的な覚醒度のレベルが特定される。ここでは、これらのレベルの内、最も覚醒度が低いものが最終的な覚醒度のレベルとして特定される。 Here, the level of arousal level corresponding to the evaluation value is the first level, the level of the arousal level corresponding to the state of the vehicle indicated by the vehicle information is the second level, and the level of the arousal level corresponding to PERCLOS is the third level. And the level of alertness corresponding to whether or not yawning is the fourth level, the alertness estimation unit 206 has a first level, a second level, a third level, and a third level. Identify the final level of alertness from level 4. However, if the third level cannot be obtained due to reasons such as wearing sunglasses, the final level of alertness is specified from the first level, the second level, and the fourth level. .. Here, among these levels, the one with the lowest arousal level is specified as the final arousal level.

Claims (9)

運転手の頭部を含む画像から、前記運転手が姿勢を保持する機能である姿勢保持機能の状態の評価を行う姿勢保持機能評価部と、
前記評価を用いて、前記運転手の覚醒度のレベルを推定する覚醒度推定部と、を備えること
を特徴とする情報処理装置。
A posture holding function evaluation unit that evaluates the state of the posture holding function, which is a function for the driver to hold the posture, from an image including the driver's head.
An information processing device including an arousal level estimation unit that estimates the level of arousal level of the driver using the evaluation.
前記姿勢保持機能評価部は、
前記画像から、前記運転手の頭部の座標である頭部座標を検出する頭部座標検出部と、
前記画像から、前記運転手の頭部の傾斜角である頭部傾斜角を検出する頭部傾斜角検出部と、
予め定められた期間における前記頭部座標及び前記頭部傾斜角のばらつきから、前記評価を行う評価部と、を備えること
を特徴とする請求項1に記載の情報処理装置。
The posture holding function evaluation unit
From the image, a head coordinate detection unit that detects the head coordinates, which are the coordinates of the driver's head,
From the image, a head tilt angle detection unit that detects the head tilt angle, which is the tilt angle of the driver's head,
The information processing apparatus according to claim 1, further comprising an evaluation unit that performs the evaluation based on variations in the head coordinates and the head inclination angle in a predetermined period.
前記評価部は、前記予め定められた期間における前記頭部座標の分散を前記予め定められた期間における前記頭部傾斜角の分散で割った値、又は、前記予め定められた期間における前記頭部傾斜角の分散を前記予め定められた期間における前記頭部座標の分散で割った値を評価値として算出すること
を特徴とする請求項2に記載の情報処理装置。
The evaluation unit divides the variance of the head coordinates in the predetermined period by the variance of the head inclination angle in the predetermined period, or the head in the predetermined period. The information processing apparatus according to claim 2, wherein the value obtained by dividing the variance of the inclination angle by the variance of the head coordinates in the predetermined period is calculated as an evaluation value.
前記評価値に対応する前記レベルが予め特定されていること
を特徴とする請求項3に記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the level corresponding to the evaluation value is specified in advance.
前記運転手が運転する車両の状態である車両状態を示す車両状態情報の入力を受ける入力部と、
前記画像から、前記運転手の眼が開いている割合である開眼度を検出し、前記開眼度に従って、一定時間において前記運転手が眼を閉じている時間の割合である閉眼割合を算出する閉眼割合算出部と、
前記画像から、前記運転手の口が開いている割合である開口度を検出し、前記開口度に従って、前記運転手があくびをしているか否かを検出するあくび検出部と、をさらに備え、
前記評価に対応する前記覚醒度の第1のレベル、前記車両状態に対応する第2のレベル、前記閉眼割合に対応する前記覚醒度の第3のレベル、及び、前記あくびをしているか否かに対応する前記覚醒度の第3のレベルが予め定められており、
前記覚醒度推定部は、前記第1のレベル、前記第2のレベル、前記第3のレベル、及び、第4のレベルから、前記レベルを特定すること
を特徴とする請求項1から3の何れか一項に記載の情報処理装置。
An input unit that receives input of vehicle state information indicating the vehicle state, which is the state of the vehicle driven by the driver.
From the image, the eye opening rate, which is the rate at which the driver's eyes are open, is detected, and the eye closing rate, which is the rate at which the driver closes the eyes at a certain time, is calculated according to the eye opening degree. Percentage calculation unit and
From the image, a yawn detection unit that detects the opening degree, which is the ratio at which the driver's mouth is open, and detects whether or not the driver is yawning according to the opening degree, is further provided.
The first level of the alertness corresponding to the evaluation, the second level corresponding to the vehicle state, the third level of the alertness corresponding to the eye closure rate, and whether or not the person is yawning. The third level of the arousal level corresponding to is predetermined.
Any of claims 1 to 3, wherein the alertness estimation unit identifies the level from the first level, the second level, the third level, and the fourth level. The information processing device according to the first paragraph.
前記覚醒度推定部は、前記第1のレベル、前記第2のレベル、前記第3のレベル、及び、第4のレベルの内、前記覚醒度が最も低いものを前記レベルとして特定すること
を特徴とする請求項5に記載の情報処理装置。
The arousal level estimation unit is characterized in that, among the first level, the second level, the third level, and the fourth level, the one with the lowest arousal level is specified as the level. The information processing apparatus according to claim 5.
前記覚醒度推定部は、前記車両状態が、予め定められた車速以上で、前方に向かって直進していることを示している場合に、前記レベルを特定すること
を特徴とする請求項5又は6に記載の情報処理装置。
5. The information processing apparatus according to 6.
コンピュータを、
運転手の頭部を含む画像から、前記運転手が姿勢を保持する機能である姿勢保持機能の状態の評価を行う姿勢保持機能評価部、及び、
前記評価を用いて、前記運転手の覚醒度のレベルを推定する覚醒度推定部、として機能させること
を特徴とするプログラム。
Computer,
From the image including the driver's head, the posture holding function evaluation unit that evaluates the state of the posture holding function, which is the function of the driver holding the posture, and the posture holding function evaluation unit.
A program characterized by functioning as an arousal level estimation unit that estimates the level of arousal level of the driver using the evaluation.
姿勢保持機能評価部が、運転手の頭部を含む画像から、前記運転手が姿勢を保持する機能である姿勢保持機能の状態の評価を行い、
覚醒度推定部が、前記評価を用いて、前記運転手の覚醒度のレベルを推定すること
を特徴とする情報処理方法。
The posture holding function evaluation unit evaluates the state of the posture holding function, which is a function for the driver to hold the posture, from the image including the driver's head.
An information processing method characterized in that the arousal level estimation unit estimates the level of arousal level of the driver using the evaluation.
JP2019557640A 2019-06-18 2019-06-18 Information processing apparatus, program, and information processing method Active JP6689470B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/024021 WO2020255238A1 (en) 2019-06-18 2019-06-18 Information processing device, program, and information processing method

Publications (2)

Publication Number Publication Date
JP6689470B1 JP6689470B1 (en) 2020-04-28
JPWO2020255238A1 true JPWO2020255238A1 (en) 2021-09-13

Family

ID=70413776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019557640A Active JP6689470B1 (en) 2019-06-18 2019-06-18 Information processing apparatus, program, and information processing method

Country Status (3)

Country Link
JP (1) JP6689470B1 (en)
DE (1) DE112019007484T5 (en)
WO (1) WO2020255238A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7389078B2 (en) * 2021-03-26 2023-11-29 矢崎総業株式会社 Driver evaluation device and driver evaluation system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61175129A (en) 1985-01-29 1986-08-06 Nissan Motor Co Ltd Driving-asleep preventer
US5691693A (en) * 1995-09-28 1997-11-25 Advanced Safety Concepts, Inc. Impaired transportation vehicle operator system
JP6998564B2 (en) * 2017-02-08 2022-01-18 パナソニックIpマネジメント株式会社 Arousal level estimation device and arousal level estimation method

Also Published As

Publication number Publication date
DE112019007484T5 (en) 2022-05-05
WO2020255238A1 (en) 2020-12-24
JP6689470B1 (en) 2020-04-28

Similar Documents

Publication Publication Date Title
JP5109922B2 (en) Driver monitoring device and program for driver monitoring device
CN107665330B (en) System, method and computer readable medium for detecting head pose in vehicle
US9526448B2 (en) State estimation device and state estimation program
US10369926B2 (en) Driver state sensing system, driver state sensing method, and vehicle including the same
US9105172B2 (en) Drowsiness-estimating device and drowsiness-estimating method
JP5790762B2 (en) 瞼 Detection device
JP7118136B2 (en) PASSENGER STATE DETERMINATION DEVICE, WARNING OUTPUT CONTROL DEVICE AND PASSENGER STATE DETERMINATION METHOD
KR20190083155A (en) Apparatus and method for detecting state of vehicle driver
US11455810B2 (en) Driver attention state estimation
JP2018508870A (en) Method and apparatus for detecting instantaneous sleep of a vehicle driver
US11453401B2 (en) Closed eye determination device
EP3440592B1 (en) Method and system of distinguishing between a glance event and an eye closure event
JP2009166783A (en) Symptom inference device
JP6689470B1 (en) Information processing apparatus, program, and information processing method
JP7024332B2 (en) Driver monitor system
JP5050794B2 (en) Sleepiness detection device, sleepiness detection method
WO2022113275A1 (en) Sleep detection device and sleep detection system
US10945651B2 (en) Arousal level determination device
JP6852407B2 (en) Driver status detector
Srivastava Driver's drowsiness identification using eye aspect ratio with adaptive thresholding
JP2019079285A (en) Safe driving promotion system and safe driving promotion method
US20230196797A1 (en) Non-contact depth sensing monitoring in vehicles
JP7127661B2 (en) Eye opening degree calculator
Kaur et al. Driver’s Drowsiness Detection System Using Machine Learning
Agarkar et al. Driver Drowsiness Detection and Warning using Facial Features and Hand Gestures

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191023

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191023

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191023

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200407

R150 Certificate of patent or registration of utility model

Ref document number: 6689470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250