JP6991401B2 - Information processing equipment, programs and information processing methods - Google Patents

Information processing equipment, programs and information processing methods Download PDF

Info

Publication number
JP6991401B2
JP6991401B2 JP2021541019A JP2021541019A JP6991401B2 JP 6991401 B2 JP6991401 B2 JP 6991401B2 JP 2021541019 A JP2021541019 A JP 2021541019A JP 2021541019 A JP2021541019 A JP 2021541019A JP 6991401 B2 JP6991401 B2 JP 6991401B2
Authority
JP
Japan
Prior art keywords
opening
yawning
predetermined
unit
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021541019A
Other languages
Japanese (ja)
Other versions
JPWO2021053806A1 (en
Inventor
隼也 大澤
大貴 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2021053806A1 publication Critical patent/JPWO2021053806A1/en
Application granted granted Critical
Publication of JP6991401B2 publication Critical patent/JP6991401B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4809Sleep detection, i.e. determining whether a subject is asleep or not
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Multimedia (AREA)
  • Anesthesiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、情報処理装置、プログラム及び情報処理方法に関する。 The present invention relates to an information processing apparatus, a program and an information processing method.

車内又は工場等において、事故防止のために人の眠気状態を推定する技術開発が進んでいる。例えば、心拍、脳波又は瞬き等から眠気状態に応じて変化する特徴量を抽出し、その特徴量を閾値と比較することによって眠気状態を推定する技術がある。 Technological development for estimating the drowsiness of a person is progressing in a car or in a factory to prevent accidents. For example, there is a technique for estimating a drowsiness state by extracting a feature amount that changes according to a drowsiness state from a heartbeat, an electroencephalogram, a blink, or the like, and comparing the feature amount with a threshold value.

心拍又は脳波といった生体信号は人の状態を直接計測でき、可能性のある手法であるが、センサを装着する必要があり、煩わしく感じる場合がある。また、センサを装着し忘れた場合には機能自体が損なわれてしまい、コストが高いという問題点がある。 Biological signals such as heartbeats or brain waves can directly measure a person's condition and are a possible technique, but they require a sensor to be attached and may be annoying. Further, if the sensor is forgotten to be attached, the function itself is impaired, and there is a problem that the cost is high.

一方、カメラで撮像された動画像から人の眠気状態を推定する手法は、低コスト、センサ寿命が長い、ユーザに非接触及びシステムが簡易という利点がある。 On the other hand, the method of estimating the drowsiness state of a person from a moving image captured by a camera has the advantages of low cost, long sensor life, non-contact with the user, and simple system.

動画像から人の眠気状態を推定する手法として例えば、瞬目頻度、瞬目速度、及び瞬目持続時間の各々に閾値を設定して、眠気状態を推定する技術がある。しかし、サングラスを装着している場合は瞬目情報を正確に取得できないため、眠気状態を正確に推定できないという問題がある。 As a method for estimating a person's drowsiness state from a moving image, for example, there is a technique for estimating a drowsiness state by setting threshold values for each of blink frequency, blink speed, and blink duration. However, when wearing sunglasses, there is a problem that the drowsiness state cannot be estimated accurately because the blink information cannot be acquired accurately.

瞬目情報を用いず、動画像から人の眠気状態を推定する手法として、例えば、欠伸発生頻度を用いて眠気状態を推定する技術が特許文献1に開示されている。特許文献1に記載された技術は、開口の変化のパターンマッチングで欠伸を判定する(段落0082等)。 As a method for estimating a person's drowsiness state from a moving image without using blink information, for example, a technique for estimating a drowsiness state using the frequency of yawning is disclosed in Patent Document 1. The technique described in Patent Document 1 determines yawning by pattern matching of changes in openings (paragraph 882, etc.).

特開2005-199078号公報Japanese Unexamined Patent Publication No. 2005-199078

しかしながら、上述の特許文献1に記載された技術は、開口の変化のパターンマッチングで欠伸を判定するため、パターンの設定の仕方によっては誤判定率が高くなるという問題点がある。 However, the technique described in the above-mentioned Patent Document 1 has a problem that the erroneous determination rate becomes high depending on the method of setting the pattern because the yawning is determined by the pattern matching of the change of the opening.

そこで、本発明の一又は複数の態様は、精度良く欠伸状態を判定できるようにすることを目的とする。 Therefore, one or more aspects of the present invention are intended to enable accurate determination of the yawning state.

本発明の一態様に係る情報処理装置は、動画像に含まれている複数のフレームの各々から、人物の顔の領域である顔領域を抽出する顔領域抽出部と、前記顔領域から、予め定められた複数の特徴点を抽出する顔特徴点抽出部と、前記複数の特徴点から、前記顔の特徴を示す顔特徴量を算出する顔特徴量算出部と、前記顔特徴量から、前記顔において口が開いている度合いである開口度を特定する開口度特定部と、前記複数のフレームから特定された複数の前記開口度により、前記口が継続して開いている度合いである開口継続度を算出する開口継続度算出部と、前記人物が欠伸以外の予め定められた要因による開口を行っているか否かを判定し、前記予め定められた要因による開口を行っていると判定されたフレームに、予め定められた第1の閾値よりも低い値を欠伸開口継続度として対応付け、前記予め定められた要因による開口を行っていないと判定されたフレームに、前記開口継続度を欠伸開口継続度として対応付け、最新のフレームを含む予め定められた数の連続したフレームの内、前記第1の閾値以上となっている欠伸開口継続度が対応付けられているフレームの数が、予め定められた第2の閾値以上の場合に、前記人物が欠伸をしたと判定する判定処理部と、を備えることを特徴とする。 The information processing apparatus according to one aspect of the present invention has a face area extraction unit that extracts a face area, which is a face area of a person, from each of a plurality of frames included in a moving image, and a face area extraction unit that extracts the face area from the face area in advance. From the face feature point extraction unit that extracts a plurality of defined feature points, the face feature amount calculation unit that calculates the face feature amount indicating the facial feature from the plurality of feature points, and the face feature amount. The opening continuation, which is the degree to which the mouth is continuously opened, by the opening degree specifying portion that specifies the opening degree, which is the degree to which the mouth is open on the face, and the plurality of the opening degrees specified from the plurality of frames. The opening continuity calculation unit that calculates the degree determines whether or not the person is opening due to a predetermined factor other than the missing stretch, and it is determined that the person is opening due to the predetermined factor. A value lower than a predetermined first threshold is associated with the frame as the extension opening continuity, and the opening continuity is defined as the extension opening in the frame determined that the opening is not performed due to the predetermined factor. The number of frames to which the stretch opening continuity, which is equal to or higher than the first threshold value, is associated with the predetermined number of consecutive frames including the latest frame, which is associated with the continuity, is predetermined. It is characterized by comprising a determination processing unit for determining that the person has a defect when the value is equal to or higher than the second threshold value.

本発明の一態様に係るプログラムは、コンピュータを、動画像に含まれている複数のフレームの各々から、人物の顔の領域である顔領域を抽出する顔領域抽出部、前記顔領域から、予め定められた複数の特徴点を抽出する顔特徴点抽出部、前記複数の特徴点から、前記顔の特徴を示す顔特徴量を算出する顔特徴量算出部、前記顔特徴量から、前記顔において口が開いている度合いである開口度を特定する開口度特定部、前記複数のフレームから特定された複数の前記開口度により、前記口が継続して開いている度合いである開口継続度を算出する開口継続度算出部、及び、前記人物が欠伸以外の予め定められた要因による開口を行っているか否かを判定し、前記予め定められた要因による開口を行っていると判定されたフレームに、予め定められた第1の閾値よりも低い値を欠伸開口継続度として対応付け、前記予め定められた要因による開口を行っていないと判定されたフレームに、前記開口継続度を欠伸開口継続度として対応付け、最新のフレームを含む予め定められた数の連続したフレームの内、前記第1の閾値以上となっている欠伸開口継続度が対応付けられているフレームの数が、予め定められた第2の閾値以上の場合に、前記人物が欠伸をしたと判定する判定処理部、として機能させることを特徴とする。 The program according to one aspect of the present invention uses a computer in advance from a face area extraction unit that extracts a face area, which is a face area of a person, from each of a plurality of frames included in a moving image, and from the face area. A face feature point extraction unit that extracts a plurality of defined feature points, a face feature amount calculation unit that calculates a face feature amount indicating the face feature from the plurality of feature points, and a face feature amount that calculates the face feature amount from the face feature amount. The opening continuity, which is the degree to which the mouth is continuously open, is calculated from the opening degree specifying portion that specifies the opening degree, which is the degree to which the mouth is open, and the plurality of the opening degrees specified from the plurality of frames. The opening continuity calculation unit and the frame determined to determine whether or not the person has opened due to a predetermined factor other than yawning, and the frame determined to have opened due to the predetermined factor. , A value lower than the predetermined first threshold value is associated as the yawning opening continuity, and the opening continuity is set as the yawning opening continuity to the frame determined that the opening is not performed due to the predetermined factor. Of the predetermined number of consecutive frames including the latest frame, the number of frames to which the yawning opening continuity, which is equal to or higher than the first threshold value, is associated is predetermined. It is characterized in that it functions as a determination processing unit for determining that the person has yawned when the value is equal to or higher than the second threshold value.

本発明の一態様に係る情報処理方法は、動画像に含まれている複数のフレームの各々から、人物の顔の領域である顔領域を抽出し、前記顔領域から、予め定められた複数の特徴点を抽出し、前記複数の特徴点から、前記顔の特徴を示す顔特徴量を算出し、前記顔特徴量から、前記顔において口が開いている度合いである開口度を特定し、前記複数のフレームから特定された複数の前記開口度により、前記口が継続して開いている度合いである開口継続度を算出し、前記人物が欠伸以外の予め定められた要因による開口を行っているか否かを判定し、前記予め定められた要因による開口を行っていると判定されたフレームに、予め定められた第1の閾値よりも低い値を欠伸開口継続度として対応付け、前記予め定められた要因による開口を行っていないと判定されたフレームに、前記開口継続度を欠伸開口継続度として対応付け、最新のフレームを含む予め定められた数の連続したフレームの内、前記第1の閾値以上となっている欠伸開口継続度が対応付けられているフレームの数が、予め定められた第2の閾値以上の場合に、前記人物が欠伸をしたと判定することを特徴とする。 In the information processing method according to one aspect of the present invention, a face region, which is a region of a person's face, is extracted from each of a plurality of frames included in a moving image, and a plurality of predetermined faces are extracted from the face region. The feature points are extracted, the facial feature amount indicating the facial feature is calculated from the plurality of feature points, and the degree of opening, which is the degree to which the mouth is open in the face, is specified from the facial feature amount. Whether the person opens by a predetermined factor other than yawning by calculating the opening continuity, which is the degree to which the mouth is continuously opened, from the plurality of openings specified from the plurality of frames. It is determined whether or not the frame is opened due to the predetermined factor, and a value lower than the predetermined first threshold value is associated with the frame as the yawning opening continuity, which is predetermined. The opening continuity is associated with the frame determined not to be opened due to the above factor as the yawning opening continuity, and the first threshold value among the predetermined number of consecutive frames including the latest frame. When the number of frames associated with the above-mentioned yawning opening continuity is equal to or greater than a predetermined second threshold value, it is determined that the person has yawned.

本発明の一又は複数の態様によれば、精度良く欠伸状態を判定することができる。 According to one or more aspects of the present invention, the yawning state can be accurately determined.

実施の形態1に係る欠伸判定装置の構成を概略的に示すブロック図である。It is a block diagram which shows schematic structure of the yawning determination apparatus which concerns on Embodiment 1. FIG. 実施の形態1における開口区別判定条件の一例を示す概略図である。It is a schematic diagram which shows an example of the opening distinction determination condition in Embodiment 1. FIG. 欠伸判定条件の一例を示す概略図である。It is a schematic diagram which shows an example of a yawning determination condition. 実施の形態1における処理部の構成を概略的に示すブロック図である。It is a block diagram which shows schematic structure of the processing part in Embodiment 1. FIG. 顔特徴点情報の一例を示す概略図である。It is a schematic diagram which shows an example of the face feature point information. 顔特徴量を説明するための概略図である。It is a schematic diagram for demonstrating the amount of facial features. 顔特徴量情報を示す概略図である。It is a schematic diagram which shows the facial feature amount information. (A)及び(B)は、開口速度を説明するためのグラフである。(A) and (B) are graphs for explaining the opening speed. 欠伸判定装置のハードウェア構成を概略的に示すブロック図である。It is a block diagram which shows the hardware composition of the yawning determination device schematicly. 実施の形態1における欠伸判定部での処理を示すフローチャートである。It is a flowchart which shows the process in the yawning determination part in Embodiment 1. 実施の形態2及び3に係る欠伸判定装置の構成を概略的に示すブロック図である。It is a block diagram which shows schematic structure of the yawning determination apparatus which concerns on Embodiments 2 and 3. 実施の形態2における開口区別判定条件の一例を示す概略図である。It is a schematic diagram which shows an example of the opening distinction determination condition in Embodiment 2. 実施の形態2における顔表情特徴モデルの一例を示す概略図である。It is a schematic diagram which shows an example of the facial expression characteristic model in Embodiment 2. 実施の形態2における処理部の構成を概略的に示すブロック図である。It is a block diagram which shows schematic structure of the processing part in Embodiment 2. FIG. 実施の形態2における欠伸判定部での処理を示すフローチャートである。It is a flowchart which shows the process in the yawning determination part in Embodiment 2. 実施の形態3における開口区別判定条件の一例を示す概略図である。It is a schematic diagram which shows an example of the opening distinction determination condition in Embodiment 3. FIG. 実施の形態3における処理部の構成を概略的に示すブロック図である。It is a block diagram which shows schematic structure of the processing part in Embodiment 3. FIG. 実施の形態3における欠伸判定部での処理を示すフローチャートである。It is a flowchart which shows the process in the yawning determination part in Embodiment 3. FIG.

実施の形態1.
図1は、実施の形態1に係る情報処理装置としての欠伸判定装置100の構成を概略的に示すブロック図である。
欠伸判定装置100は、撮像部110と、データベース部120と、処理部130と、表示部150とを備える。
Embodiment 1.
FIG. 1 is a block diagram schematically showing a configuration of a yawning determination device 100 as an information processing device according to the first embodiment.
The yawn determination device 100 includes an image pickup unit 110, a database unit 120, a processing unit 130, and a display unit 150.

撮像部110は、動画像を取得して、取得された動画像を処理部130に与える。
データベース部120は、欠伸判定条件モデル121を記憶する記憶部である。
欠伸判定条件モデル121は、開口区別判定条件及び欠伸判定条件を含む。
The image pickup unit 110 acquires a moving image and gives the acquired moving image to the processing unit 130.
The database unit 120 is a storage unit that stores the yawning determination condition model 121.
The yawning determination condition model 121 includes an opening distinction determination condition and a yawning determination condition.

開口区別判定条件は、予め定められた要因による開口と、予め定められた要因ではない要因による開口とを区別するために使用される判定条件である。
図2は、開口区別判定条件の一例を示す概略図である。
実施の形態1では、開口区別判定条件は、後述する開口速度評価値が予め定められた閾値(例えば、20)以上である場合には、予め定められた要因ではない要因による開口と判定し、その開口速度評価値が予め定められた閾値未満である場合には、予め定められた要因による開口と判定する条件になっている。開口速度評価値の詳細は、後述する。なお、予め定められた要因ではない要因による開口が行われている場合は、予め定められた要因による開口が行われていないことになる。
The opening distinction determination condition is a determination condition used to distinguish between an opening due to a predetermined factor and an opening due to a factor other than the predetermined factor.
FIG. 2 is a schematic view showing an example of an opening distinction determination condition.
In the first embodiment, when the opening speed evaluation value described later is equal to or higher than a predetermined threshold value (for example, 20), the opening distinction determination condition is determined to be an opening due to a factor other than the predetermined factor. When the opening speed evaluation value is less than a predetermined threshold value, it is a condition for determining the opening due to a predetermined factor. The details of the opening speed evaluation value will be described later. If the opening is performed by a factor other than the predetermined factor, it means that the opening is not performed by the predetermined factor.

欠伸判定条件は、欠伸と判定するための条件である。
図3は、欠伸判定条件の一例を示す概略図である。
実施の形態1では、欠伸判定条件は、過去の予め定められた数のフレーム(例えば、100フレーム)の内、欠伸開口継続度が第1の閾値としての予め定められた値(例えば、40)以上となっているフレームの数が第2の閾値としての予め定められた数(例えば、20)以上の場合に、欠伸と判定する条件となっている。なお、欠伸開口継続度の詳細は、後述する。ここで、過去の予め定められた数のフレームは、最新のフレームを含む予め定められた数の連続したフレームである。
The yawning determination condition is a condition for determining yawning.
FIG. 3 is a schematic view showing an example of yawning determination conditions.
In the first embodiment, the yawning determination condition is a predetermined value (for example, 40) in which the yawning opening continuity is the first threshold value among the predetermined number of frames (for example, 100 frames) in the past. When the number of frames as described above is equal to or greater than a predetermined number (for example, 20) as the second threshold value, it is a condition for determining yawning. The details of the yawning opening continuity will be described later. Here, the predetermined number of frames in the past is a predetermined number of consecutive frames including the latest frame.

図1に戻り、処理部130は、欠伸判定装置100での処理を実行する。
図4は、実施の形態1における処理部130の構成を概略的に示すブロック図である。
処理部130は、入力部131と、顔領域抽出部132と、顔特徴点抽出部133と、顔特徴点記憶部134と、顔特徴量算出部135と、顔特徴量記憶部136と、開口度特定部137と、開口度記憶部138と、開口継続度算出部139と、開口継続度記憶部140と、判定処理部141と、欠伸判定結果記憶部146と、出力部147とを備える。
Returning to FIG. 1, the processing unit 130 executes processing by the yawning determination device 100.
FIG. 4 is a block diagram schematically showing the configuration of the processing unit 130 according to the first embodiment.
The processing unit 130 includes an input unit 131, a face area extraction unit 132, a face feature point extraction unit 133, a face feature point storage unit 134, a face feature amount calculation unit 135, a face feature amount storage unit 136, and an opening. It includes a degree specifying unit 137, an opening degree storage unit 138, an opening continuity calculation unit 139, an opening continuity storage unit 140, a determination processing unit 141, a stretch determination result storage unit 146, and an output unit 147.

判定処理部141は、開口速度評価値算出部142と、開口速度評価値記憶部143と、欠伸判定部144と、一時記憶部145とを備える。 The determination processing unit 141 includes an opening speed evaluation value calculation unit 142, an opening speed evaluation value storage unit 143, a yawning determination unit 144, and a temporary storage unit 145.

入力部131は、撮像部110で取得された動画像の入力を受ける。入力された動画像は、顔領域抽出部132に与えられる。 The input unit 131 receives the input of the moving image acquired by the image pickup unit 110. The input moving image is given to the face area extraction unit 132.

顔領域抽出部132は、動画像に含まれている複数のフレームの各々から、人物の顔の領域である顔領域を抽出する。
例えば、顔領域抽出部132は、Adaboost学習によるHaar-like特徴を用いた識別器を用いて、入力された動画像から人物の顔領域を抽出する。
これについては、例えば、下記の文献に記載されている。
Paul Viola, Michael J. Jones、“Robust Real-Time Face Detection”、International Journal of Computer Vision. Vol. 57、 No.2、 pp137-154、2004年
The face region extraction unit 132 extracts a face region, which is a region of a person's face, from each of the plurality of frames included in the moving image.
For example, the face area extraction unit 132 extracts a person's face area from the input moving image by using a discriminator using the Haar-like feature by AdaBoost learning.
This is described, for example, in the following literature.
Paul Viola, Michael J. Jones, "Robust Real-Time Face Detection", International Journal of Computer Vision. Vol. 57, No. 2, pp137-154, 2004

顔特徴点抽出部133は、抽出された顔領域から、輪郭、眉毛、目、鼻又は口等の予め定められた複数の特徴点である複数の顔特徴点を抽出する。
抽出された顔領域画像において輪郭、眉毛、目、鼻又は口等の顔特徴点を抽出する抽出方法としては、例えば、下記の文献に記載されている公知の方法が用いられればよい。
Wiskott L., Fellous j.-M., Kruger N., von der Mlsburg C.、 “Face Recognition by Elastic Bunch Graph Matching”、 IEEE Transactions on Pattern Analysis and Machine Intelligence、 Vol. 19、 Issue 7、 pp.775-779、 1997年
The facial feature point extraction unit 133 extracts a plurality of facial feature points, which are a plurality of predetermined feature points such as contours, eyebrows, eyes, nose, and mouth, from the extracted face area.
As an extraction method for extracting facial feature points such as contours, eyebrows, eyes, nose or mouth in the extracted facial region image, for example, a known method described in the following documents may be used.
Wiskott L. , Fellous j. -M. , Kruger N. et al. , Von der Mlsburg C.I. , "Face Recognition by Elastic Bunch Graph Matching", IEEE Transitions on Pattern Analysis and Machine Integrity, Vol. 19, Issue 7, pp. 775-779, 1997

また、顔特徴点抽出部133は、抽出された複数の顔特徴点の配置から顔の向きも算出する。顔の向きは、例えば、Yaw、Pitch及びRollの角度で特定される。 In addition, the face feature point extraction unit 133 also calculates the orientation of the face from the arrangement of the extracted plurality of face feature points. The orientation of the face is specified, for example, by the angles of Yaw, Pitch and Roll.

顔特徴点記憶部134は、顔特徴点抽出部133で抽出された複数の顔特徴点及び算出された顔の向きを示す顔特徴点情報を格納する。
図5は、顔特徴点記憶部134に記憶されている顔特徴点情報の一例を示す概略図である。
図5に示されているように、顔特徴点情報は、顔特徴点の座標及び顔の向きの角度を含む。
The face feature point storage unit 134 stores a plurality of face feature points extracted by the face feature point extraction unit 133 and face feature point information indicating the calculated face orientation.
FIG. 5 is a schematic diagram showing an example of face feature point information stored in the face feature point storage unit 134.
As shown in FIG. 5, the facial feature point information includes the coordinates of the facial feature points and the angle of the face orientation.

図4に戻り、顔特徴量算出部135は、抽出された複数の顔特徴点から、顔の特徴を示す顔特徴量を算出する。
例えば、顔特徴量算出部135は、2点の顔特徴点間の距離又は3点の顔特徴点からなる角度等により顔の特徴を表す顔特徴量を算出する。
具体的には、顔特徴量算出部135は、図6に示されているように、人物の顔の正面から見て左目の目頭と目尻との2点間の距離V1、右目の目頭と目尻との2点間の距離V2、上唇と下唇との2点間の距離V3、基準点(例えば、鼻の先端)Pと両眉の内端とを結んだ直線L1、L2間の角度(V4)、基準点Pと鼻の下の両端とを結んだ直線L3、L4間の角度V5、及び、基準点Pと左右両口角とを結んだ直線L5、L6間の角度V6を顔特徴量として算出する。これらの顔特徴量は、口角の上がり、小鼻の開き、眉のしかめ等表情変化において特徴が表れるとされている特徴量である。
Returning to FIG. 4, the facial feature amount calculation unit 135 calculates the facial feature amount indicating the facial feature from the extracted plurality of facial feature points.
For example, the facial feature amount calculation unit 135 calculates a facial feature amount representing a facial feature based on a distance between two facial feature points, an angle consisting of three facial feature points, and the like.
Specifically, as shown in FIG. 6, the facial feature amount calculation unit 135 has a distance V1 between two points between the inner and outer corners of the left eye and the inner and outer corners of the right eye when viewed from the front of the person's face. The distance V2 between the two points, the distance V3 between the upper and lower lips, the angle between the straight lines L1 and L2 connecting the reference point (for example, the tip of the nose) P and the inner ends of both eyebrows (for example). V4), the angle V5 between the straight lines L3 and L4 connecting the reference point P and both ends under the nose, and the angle V6 between the straight lines L5 and L6 connecting the reference point P and the left and right mouth angles are facial features. Calculated as. These facial features are features that are said to appear in facial expression changes such as rising corners of the mouth, opening of the nose, and frowning of the eyebrows.

顔特徴量算出部135が算出する顔特徴量は、以上の例に限定されない。例えば、顔特徴量は、顔の眉間領域、口領域又は頬領域における画像特徴量であってもよい。
このとき画像特徴量は、例えば、HOG(Histograms of Oriented Gradients)特徴量を用いるものとする。
これについては、例えば、下記の文献に記載されている。
N.Dalal, B.Triggs、 “Histograms of Oriented Gradients for human Detection”、 Proc. IEEE Conference on Computer Vision and Pattern Recognition (CVPR)、 pp.886-893、2005年
The facial feature amount calculated by the facial feature amount calculation unit 135 is not limited to the above examples. For example, the facial feature amount may be an image feature amount in the glabellar region, mouth region, or cheek region of the face.
At this time, for the image feature amount, for example, the HOG (Histograms of Oriented Gradients) feature amount is used.
This is described, for example, in the following literature.
N. Dalal, B. Triggs, "Histograms of Oriented Gradients for human Detection", Proc. IEEE Computer Vision and Pattern Recognition (CVPR), pp. 886-893, 2005

なお、画像特徴量としては、HOG特徴量以外でも、SIFT(Scaled Invariance Feature Transform)特徴量、SURF(Speede-up Robust Features)又はHaar-like特徴量が用いられてもよい。 In addition to the HOG feature amount, SIFT (Scaled Invariant Feature Features) feature amount, SURF (Speed-up Robot Features), or Haar-like feature amount may be used as the image feature amount.

図4に戻り、顔特徴量記憶部136は、顔特徴量算出部135で算出された顔特徴量を示す顔特徴量情報を記憶する。
図7は、顔特徴量記憶部136に記憶されている顔特徴量情報を示す概略図である。
図7に示されているように、顔特徴量情報は、顔特徴量として算出された値を格納する。
Returning to FIG. 4, the face feature amount storage unit 136 stores the face feature amount information indicating the face feature amount calculated by the face feature amount calculation unit 135.
FIG. 7 is a schematic diagram showing facial feature amount information stored in the face feature amount storage unit 136.
As shown in FIG. 7, the face feature amount information stores a value calculated as a face feature amount.

図4に戻り、開口度特定部137は、顔特徴量記憶部136に記憶されている顔特徴量から、人物の顔において口が開いている度合いである開口度を特定する。
例えば、開口度特定部137は、上唇と下唇との2点間の距離V3を開口度として特定する。
Returning to FIG. 4, the opening degree specifying unit 137 specifies the opening degree, which is the degree to which the mouth is open in the face of a person, from the facial feature amount stored in the facial feature amount storage unit 136.
For example, the opening degree specifying portion 137 specifies the distance V3 between the two points of the upper lip and the lower lip as the opening degree.

また、開口度特定部137は、距離V3を正規化して0~100までのパーセントの値に変換して用いてもよい。
具体的には、2次元の画像において、人物が正面を向いているときの開口度100%における距離V3と、人物が上又は下を見ているときの開口度100%における距離V3とは異なる。このため、開口度特定部137は、人物が正面を向いているときは、距離V3=5cmで開口度100%となるようにし、人物が上を向いているときは、距離V3=3cmで開口度100%となるように、顔特徴点記憶部134に記憶されている顔の向きに応じて、開口度100%となる距離V3の値を変化させる正規化処理を行ってもよい。
Further, the opening degree specifying unit 137 may be used by normalizing the distance V3 and converting it into a percentage value from 0 to 100.
Specifically, in a two-dimensional image, the distance V3 at 100% opening when the person is facing the front is different from the distance V3 at 100% opening when the person is looking up or down. .. Therefore, the opening degree specifying portion 137 is set so that the opening degree is 100% at a distance V3 = 5 cm when the person is facing the front, and the opening degree is opened at a distance V3 = 3 cm when the person is facing upward. A normalization process may be performed in which the value of the distance V3 at which the opening degree is 100% is changed according to the direction of the face stored in the face feature point storage unit 134 so that the degree becomes 100%.

開口度記憶部138は、開口度特定部137により特定された開口度を記憶する。 The opening degree storage unit 138 stores the opening degree specified by the opening degree specifying unit 137.

開口継続度算出部139は、開口度記憶部138に記憶されている複数の開口度により、口が継続して開いている度合いである開口継続度を算出する。複数の開口度は、複数のフレームから特定される。
例えば、開口継続度算出部139は、動画像におけるt番目(tは1以上の整数)のフレームであるtフレームの開口度と、過去のフレームの開口度とを重み付けして加算することで、開口継続度を算出する。t+1番目のフレームであるt+1フレームにおける開口継続度xt+1の算出式は、下記の(1)式である。

Figure 0006991401000001
The opening continuity calculation unit 139 calculates the opening continuity degree, which is the degree to which the mouth is continuously opened, from the plurality of opening degrees stored in the opening degree storage unit 138. Multiple apertures are specified from multiple frames.
For example, the aperture continuity calculation unit 139 weights and adds the aperture degree of the t-frame, which is the t-th frame (t is an integer of 1 or more) in the moving image, and the aperture degree of the past frame. Calculate the opening continuity. The formula for calculating the opening continuity x t + 1 in the t + 1 frame, which is the t + 1st frame, is the following formula (1).
Figure 0006991401000001

ここで、xは、tフレームにおける開口継続度、yt+1は、t+1フレームにおける開口度、αは、パラメータの調整値であり、0<α<1を満たす。
この開口継続度は、継続して開口する場合に数値が高くなる時間フィルタをかけた値である。
Here, x t is the opening continuity in the t frame, y t + 1 is the opening degree in the t + 1 frame, α is the adjustment value of the parameter, and 0 <α <1 is satisfied.
This opening continuity is a time-filtered value in which the numerical value becomes higher when the opening is continued.

開口継続度記憶部140は、開口継続度算出部139で算出された開口継続度を記憶する。 The opening continuity storage unit 140 stores the opening continuity calculated by the opening continuity calculation unit 139.

判定処理部141は、フレーム内の人物が欠伸以外の予め定められた要因による開口を行っているか否かを判定する。判定処理部141は、予め定められた要因による開口を行っていると判定されたフレームに、予め定められた第1の閾値よりも低い値を欠伸開口継続度として対応付け、予め定められた要因による開口を行っていないと判定されたフレームに、開口継続度算出部139で算出された開口継続度を欠伸開口継続度として対応付ける。
そして、判定処理部141は、最新のフレームを含む予め定められた数の連続したフレームの内、第1の閾値以上となっている欠伸開口継続度が対応付けられているフレームの数が、予め定められた第2の閾値以上の場合に、その人物が欠伸をしたと判定する。
The determination processing unit 141 determines whether or not the person in the frame has opened due to a predetermined factor other than yawning. The determination processing unit 141 associates a value lower than the predetermined first threshold value with the frame determined to be opened by a predetermined factor as the yawning opening continuity, and determines the predetermined factor. The frame determined not to be opened by the above is associated with the opening continuity calculated by the opening continuity calculation unit 139 as the yawning opening continuity.
Then, in the determination processing unit 141, among a predetermined number of consecutive frames including the latest frame, the number of frames associated with the yawning opening continuity that is equal to or higher than the first threshold value is determined in advance. If it is equal to or higher than the specified second threshold value, it is determined that the person has yawned.

実施の形態1では、判定処理部141は、フレーム内の人物が会話を行っている場合に、予め定められた要因による開口を行っていると判定する。
具体的には、判定処理部141は、人物の口が開く速度である開口速度が予め定められた第3の閾値未満の場合に、その人物が会話を行っていると判定する。
In the first embodiment, the determination processing unit 141 determines that when a person in the frame is having a conversation, an opening is performed due to a predetermined factor.
Specifically, the determination processing unit 141 determines that the person is having a conversation when the opening speed, which is the speed at which the person's mouth opens, is less than a predetermined third threshold value.

判定処理部141での処理は、開口速度評価値算出部142、開口速度評価値記憶部143、欠伸判定部144及び一時記憶部145で実現される。以下、説明する。 The processing in the determination processing unit 141 is realized by the opening speed evaluation value calculation unit 142, the opening speed evaluation value storage unit 143, the yawning determination unit 144, and the temporary storage unit 145. This will be described below.

開口速度評価値算出部142は、開口継続度記憶部140に記憶されている開口継続度から、開口速度が速くなるほど大きくなる値である開口速度評価値を算出する。
tフレームにおける開口速度zは、下記の(2)式で算出することができる。

Figure 0006991401000002
ここで、V3は、tフレームにおける距離V3、V3t-1は、t-1フレームにおける距離V3である。The opening speed evaluation value calculation unit 142 calculates an opening speed evaluation value, which is a value that increases as the opening speed increases, from the opening continuity stored in the opening continuity storage unit 140.
The opening speed zt in the t -frame can be calculated by the following equation (2).
Figure 0006991401000002
Here, V3 t is the distance V3 in the t frame, and V3 t-1 is the distance V3 in the t-1 frame.

開口速度評価値算出部142は、(2)式を用いて、開口速度zを算出してもよいが、実施の形態1では、下記の(3)式~(5)式に示されている開口速度評価値z#1~z#3の内の何れか一つを算出している。

Figure 0006991401000003
Figure 0006991401000004
Figure 0006991401000005
The opening speed evaluation value calculation unit 142 may calculate the opening speed zt using the formula (2), but in the first embodiment, it is shown by the following formulas (3) to (5). Any one of the existing opening speed evaluation values z # 1 t to z # 3 t is calculated.
Figure 0006991401000003
Figure 0006991401000004
Figure 0006991401000005

開口速度評価値z#1~z#3は、何れも開口速度zが速くなるほど、大きくなる値である。このため、開口速度評価値z#1~z#3が第4の閾値未満であるか否かを判定することで、開口速度が予め定められた第3の閾値未満であるか否かを判定することができる。
実施の形態1では、開口速度評価値算出部142は、開口速度評価値z#3を算出するものとする。ここで、(5)式では、xの勾配に着目しており、上記の(1)式のαの値を小さく設定した場合、開口速度が速くなると、xとyとの差分が大きくなるため、開口速度評価値z#3は、開口速度の評価値として使用することができる。
The opening speed evaluation values z # 1 t to z # 3 t are all values that increase as the opening speed z t increases. Therefore, whether or not the opening speed is less than a predetermined third threshold value by determining whether or not the opening speed evaluation values z # 1 t to z # 3 t are less than the fourth threshold value. Can be determined.
In the first embodiment, the opening speed evaluation value calculation unit 142 calculates the opening speed evaluation value z # 3 t . Here, in equation (5), attention is paid to the gradient of x t , and when the value of α in equation (1) above is set small, the difference between x t and y t increases as the opening speed increases. Since it becomes large, the opening speed evaluation value z # 3 t can be used as an evaluation value of the opening speed.

ここで、開口速度は、開口継続度の傾斜が大きい場合に数値が高くなる。このため、図8(A)及び(B)に示されているように、欠伸時は開口速度が速く、会話時は開口速度が遅くなる。 Here, the opening speed becomes higher when the inclination of the opening continuity is large. Therefore, as shown in FIGS. 8A and 8B, the opening speed is high during yawning and slow during conversation.

図4に戻り、開口速度評価値記憶部143は、開口速度評価値算出部142で算出された開口速度評価値を記憶する。 Returning to FIG. 4, the opening speed evaluation value storage unit 143 stores the opening speed evaluation value calculated by the opening speed evaluation value calculation unit 142.

欠伸判定部144は、開口継続度記憶部140に記憶されている開口継続度と、開口速度評価値記憶部143に記憶されている開口速度評価値とを用いて、予め定められた要因(ここでは、会話)による開口と、予め定められた要因ではない要因による開口とを判別し、欠伸を判定する。 The yawning determination unit 144 uses a predetermined factor (here) using the opening continuity stored in the opening continuity storage unit 140 and the opening speed evaluation value stored in the opening speed evaluation value storage unit 143. Then, the opening due to the conversation) and the opening due to a factor other than the predetermined factor are discriminated, and the yawning is determined.

具体的には、開口速度評価値記憶部143に記憶されている開口速度評価値が欠伸判定条件モデル121に含まれている開口区別判定条件において、開口速度評価値が予め定められた閾値(例えば、20)未満である場合には、予め定められた要因による開口と判定する。ここでの閾値は、第4の閾値ともいう。 Specifically, in the opening distinction determination condition in which the opening speed evaluation value stored in the opening speed evaluation value storage unit 143 is included in the yawning determination condition model 121, the opening speed evaluation value is a predetermined threshold value (for example). , 20), it is determined that the opening is due to a predetermined factor. The threshold value here is also referred to as a fourth threshold value.

次に、欠伸判定部144は、予め定められた要因による開口と判定した場合には、無効値を欠伸開口継続値とし、予め定められた要因ではない要因による開口と判定した場合には、そのフレームの開口継続度を欠伸開口継続度として、そのフレームを識別するための識別情報であるフレーム識別番号に対応付けて、一時記憶部145に記憶する。無効値は、第1の閾値よりも小さい値であれば、どのような値でもよい。 Next, when the yawning determination unit 144 determines that the opening is due to a predetermined factor, the invalid value is set as the continuation value of the yawning opening, and when it is determined that the opening is due to a factor other than the predetermined factor, the invalid value is used. The degree of opening continuity of the frame is set as the degree of continuation of yawning, and is stored in the temporary storage unit 145 in association with the frame identification number which is the identification information for identifying the frame. The invalid value may be any value as long as it is smaller than the first threshold value.

そして、欠伸判定部144は、欠伸判定条件モデル121に含まれている欠伸判定条件が満たされている場合に、欠伸と判定する。
ここでは、欠伸判定部144は、過去の予め定められた数のフレーム(例えば、100フレーム)の内、欠伸開口継続度が予め定められた値(例えば、40)以上となっているフレームの数が予め定められた数(例えば、20)以上のときに、欠伸と判定する。
Then, the yawning determination unit 144 determines that yawning is achieved when the yawning determination condition included in the yawning determination condition model 121 is satisfied.
Here, the yawning determination unit 144 is the number of frames in which the degree of continuation of the yawning opening is a predetermined value (for example, 40) or more among the predetermined number of frames in the past (for example, 100 frames). When is a predetermined number (for example, 20) or more, it is determined to be yawning.

欠伸判定結果記憶部146は、欠伸判定部144での欠伸判定結果を記憶する。ここでの欠伸判定結果は、例えば、「欠伸」又は「欠伸ではない」である。 The yawning determination result storage unit 146 stores the yawning determination result in the yawning determination unit 144. The yawning determination result here is, for example, "yawning" or "not yawning".

出力部147は、欠伸判定結果記憶部146に記憶されている欠伸判定結果を図1に示されている表示部150に送り、表示部150にその欠伸判定結果又はその欠伸判定結果に対応する情報を表示させる。 The output unit 147 sends the yawning determination result stored in the yawning determination result storage unit 146 to the display unit 150 shown in FIG. 1, and the display unit 150 receives the yawning determination result or the information corresponding to the yawning determination result. Is displayed.

図9は、実施の形態1に係る欠伸判定装置100のハードウェア構成を概略的に示すブロック図である。
実施の形態1に係る欠伸判定装置100は、カメラ161と、補助記憶装置162と、プロセッサ163と、メモリ164と、表示装置165とを備えるコンピュータ160により構成することができる。
FIG. 9 is a block diagram schematically showing a hardware configuration of the yawning determination device 100 according to the first embodiment.
The yawning determination device 100 according to the first embodiment can be configured by a computer 160 including a camera 161, an auxiliary storage device 162, a processor 163, a memory 164, and a display device 165.

具体的には、撮像部110は、撮像装置としてのカメラ161により実現することができる。
データベース部120は、HDD(Hard Disk Drive)等の補助記憶装置162により実現することができる。
Specifically, the image pickup unit 110 can be realized by a camera 161 as an image pickup device.
The database unit 120 can be realized by an auxiliary storage device 162 such as an HDD (Hard Disk Drive).

処理部130は、プロセッサ163及びメモリ164により実現することができる。
プロセッサ163は、CPU(Central Processing Unit)等により実現することができ、メモリ164は、不揮発メモリにより実現することができる。プロセッサ163は、補助記憶装置162に記憶されているプログラムをメモリ164に読み出して、そのプログラムを実行することで各種処理を実行する。このようなプログラムは、ネットワークを通じて提供されてもよく、また、記録媒体に記録されて提供されてもよい。即ち、このようなプログラムは、例えば、プログラムプロダクトとして提供されてもよい。
表示部150は、表示装置165により実現することができる。
The processing unit 130 can be realized by the processor 163 and the memory 164.
The processor 163 can be realized by a CPU (Central Processing Unit) or the like, and the memory 164 can be realized by a non-volatile memory. The processor 163 reads the program stored in the auxiliary storage device 162 into the memory 164 and executes the program to execute various processes. Such a program may be provided through a network, or may be recorded and provided on a recording medium. That is, such a program may be provided, for example, as a program product.
The display unit 150 can be realized by the display device 165.

図10は、実施の形態1における欠伸判定部144での処理を示すフローチャートである。
まず、欠伸判定部144は、開口継続度記憶部140に記憶されている開口継続度と、開口速度評価値記憶部143に記憶されている開口速度評価値とを取得する(S10)。
FIG. 10 is a flowchart showing the processing in the yawning determination unit 144 in the first embodiment.
First, the stretchout determination unit 144 acquires the opening continuity stored in the opening continuity storage unit 140 and the opening speed evaluation value stored in the opening speed evaluation value storage unit 143 (S10).

次に、欠伸判定部144は、取得された開口速度評価値が、開口区別判定条件における閾値a以上であるか否かを判定する(S11)。開口速度評価値が閾値a未満である場合(S11でNo)には、処理はステップS12に進み、開口速度評価値が閾値a以上である場合(S11でYes)には、処理はステップS13に進む。 Next, the yawning determination unit 144 determines whether or not the acquired opening speed evaluation value is equal to or greater than the threshold value a in the opening discrimination determination condition (S11). When the opening speed evaluation value is less than the threshold value a (No in S11), the process proceeds to step S12, and when the opening speed evaluation value is equal to or more than the threshold value a (Yes in S11), the process proceeds to step S13. move on.

ステップS12では、開口速度評価値が閾値a未満であり、動画像に映っている人物の開口が欠伸以外の会話であると考えられるため、欠伸判定部144は、開口継続度を予め定められた値である無効値(例えば、「-1」)とする。そして、処理はステップS13に進む。 In step S12, the opening speed evaluation value is less than the threshold value a, and it is considered that the opening of the person shown in the moving image is a conversation other than yawning. It is an invalid value (for example, "-1") which is a value. Then, the process proceeds to step S13.

ステップS13では、欠伸判定部144は、現フレームの開口継続度を、欠伸開口継続度として、そのフレーム番号とともに一時記憶部145に記憶させる。ここで、欠伸開口継続度は、開口速度評価値が閾値a以上である場合には、現フレームに対応して開口継続度算出部139で算出された開口継続度であり、開口速度評価値が閾値a未満である場合には、ステップS12で設定された無効値となる。 In step S13, the yawning determination unit 144 stores the opening continuity of the current frame as the yawning opening continuity in the temporary storage unit 145 together with the frame number. Here, the yawning opening continuity is the opening continuity calculated by the opening continuity calculation unit 139 corresponding to the current frame when the opening speed evaluation value is equal to or higher than the threshold value a, and the opening speed evaluation value is If it is less than the threshold value a, it becomes an invalid value set in step S12.

次に、欠伸判定部144は、欠伸判定条件モデル121に含まれている欠伸判定条件を満たすか否かを判定する(S14)。ここでは、欠伸判定部144は、過去の予め定められた数のフレーム(例えば、100フレーム)の内、欠伸開口継続度が予め定められた値(例えば、40)以上となっているフレームの数が予め定められた数(例えば、20)以上のときに、欠伸と判定する。欠伸判定条件が満たされている場合(S14でYes)には、処理はステップS15に進み、欠伸判定条件が満たされていない場合(S14でNo)には、処理はステップS16に進む。 Next, the yawning determination unit 144 determines whether or not the yawning determination condition condition included in the yawning determination condition model 121 is satisfied (S14). Here, the yawning determination unit 144 is the number of frames in which the degree of continuation of the yawning opening is a predetermined value (for example, 40) or more among the predetermined number of frames in the past (for example, 100 frames). When is a predetermined number (for example, 20) or more, it is determined to be yawning. If the yawning determination condition is satisfied (Yes in S14), the process proceeds to step S15, and if the yawning determination condition is not satisfied (No in S14), the process proceeds to step S16.

ステップS15では、欠伸判定部144は、欠伸と判定し、その判定結果を欠伸判定結果記憶部146に記憶する。なお、欠伸判定部144は、欠伸は続けて発生しないと想定し、一度欠伸と判定したら一定フレーム(例えば、100フレーム)は、欠伸と判定しない。
一方、ステップS16では、欠伸判定部144は、欠伸ではないと判定し、その判定結果を欠伸判定結果記憶部146に記憶する。
In step S15, the yawning determination unit 144 determines that the yawning is due, and stores the determination result in the yawning determination result storage unit 146. The yawning determination unit 144 assumes that yawning does not occur continuously, and once yawning is determined, a certain frame (for example, 100 frames) is not determined to be yawning.
On the other hand, in step S16, the yawning determination unit 144 determines that the yawning is not, and stores the determination result in the yawning determination result storage unit 146.

以上のように、実施の形態1によれば、動画像に映っている人物が会話している状態では、欠伸と判定しないため、人物の口が開いている状態から、精度よく欠伸を検出することができる。 As described above, according to the first embodiment, when the person shown in the moving image is talking, it is not determined to be yawning, so that the yawning is detected accurately from the state where the person's mouth is open. be able to.

実施の形態2.
図11は、実施の形態2に係る情報処理装置としての欠伸判定装置200の構成を概略的に示すブロック図である。
欠伸判定装置200は、撮像部110と、データベース部220と、処理部230と、表示部150とを備える。
実施の形態2に係る欠伸判定装置200の撮像部110及び表示部150は、実施の形態1に係る欠伸判定装置100の撮像部110及び表示部150と同様である。
Embodiment 2.
FIG. 11 is a block diagram schematically showing the configuration of the yawning determination device 200 as the information processing device according to the second embodiment.
The yawn determination device 200 includes an image pickup unit 110, a database unit 220, a processing unit 230, and a display unit 150.
The image pickup unit 110 and the display unit 150 of the yawn determination device 200 according to the second embodiment are the same as the image pickup unit 110 and the display unit 150 of the yawn determination device 100 according to the first embodiment.

データベース部220は、欠伸判定条件モデル221と、顔表情特徴モデル222とを記憶する記憶部である。
欠伸判定条件モデル221は、開口区別判定条件及び欠伸判定条件を含む。
実施の形態2における欠伸判定条件モデル221の欠伸判定条件は、実施の形態1における欠伸判定条件モデル121の欠伸判定条件と同様である。
The database unit 220 is a storage unit that stores the yawning determination condition model 221 and the facial expression feature model 222.
The yawn determination condition model 221 includes an opening distinction determination condition and a yawn determination condition.
The yawning determination condition of the yawning determination condition model 221 in the second embodiment is the same as the yawning determination condition of the yawning determination condition model 121 in the first embodiment.

開口区別判定条件は、予め定められた要因による開口と、予め定められた要因ではない要因による開口とを区別するために使用される判定条件である。
図12は、開口区別判定条件の一例を示す概略図である。
実施の形態2では、開口区別判定条件は、後述する顔表情特徴比較結果に応じて、予め定められた要因による開口か、予め定められた要因ではない要因による開口かを判定する条件になっている。実施の形態2では、予め定められた要因は、人物の表情が、笑顔又は怒った顔であることである。
The opening distinction determination condition is a determination condition used to distinguish between an opening due to a predetermined factor and an opening due to a factor other than the predetermined factor.
FIG. 12 is a schematic view showing an example of the opening distinction determination condition.
In the second embodiment, the opening distinction determination condition is a condition for determining whether the opening is due to a predetermined factor or a factor other than the predetermined factor according to the facial expression feature comparison result described later. There is. In the second embodiment, the predetermined factor is that the facial expression of the person is a smiling face or an angry face.

顔表情特徴モデル222は、笑顔判定条件及び驚き判定条件を含む。
笑顔判定条件は、顔特徴量に基づいて、動画像に含まれている人物の表情が笑顔であることを判定するための条件である。
驚き判定条件は、顔特徴量に基づいて、動画像に含まれている人物の表情が驚いた顔であることを判定するための条件である。
The facial expression feature model 222 includes a smile determination condition and a surprise determination condition.
The smile determination condition is a condition for determining that the facial expression of the person included in the moving image is a smile based on the facial feature amount.
The surprise determination condition is a condition for determining that the facial expression of the person included in the moving image is a surprised face based on the facial feature amount.

図13は、顔表情特徴モデル222の一例を示す概略図である。
顔特徴量が、図13に示されている何れかの条件を満たす場合には、人物の表情が笑顔又は驚いた顔であると判定される。
FIG. 13 is a schematic view showing an example of the facial expression feature model 222.
When the facial feature amount satisfies any of the conditions shown in FIG. 13, it is determined that the facial expression of the person is a smiling face or a surprised face.

図11に戻り、処理部230は、欠伸判定装置200での処理を実行する。
図14は、実施の形態2における処理部230の構成を概略的に示すブロック図である。
処理部230は、入力部131と、顔領域抽出部132と、顔特徴点抽出部133と、顔特徴点記憶部134と、顔特徴量算出部135と、顔特徴量記憶部136と、開口度特定部137と、開口度記憶部138と、開口継続度算出部139と、開口継続度記憶部140と、判定処理部241と、欠伸判定結果記憶部146と、出力部147とを備える。
Returning to FIG. 11, the processing unit 230 executes the processing by the yawning determination device 200.
FIG. 14 is a block diagram schematically showing the configuration of the processing unit 230 according to the second embodiment.
The processing unit 230 includes an input unit 131, a face area extraction unit 132, a face feature point extraction unit 133, a face feature point storage unit 134, a face feature amount calculation unit 135, a face feature amount storage unit 136, and an opening. It includes a degree specifying unit 137, an opening degree storage unit 138, an opening continuity calculation unit 139, an opening continuity storage unit 140, a determination processing unit 241 and a stretch determination result storage unit 146, and an output unit 147.

判定処理部241は、欠伸判定部244と、一時記憶部145と、顔表情特徴比較部248と、顔表情特徴比較結果記憶部249とを備える。 The determination processing unit 241 includes a yawn determination unit 244, a temporary storage unit 145, a facial expression feature comparison unit 248, and a facial expression feature comparison result storage unit 249.

実施の形態2における処理部230の入力部131、顔領域抽出部132、顔特徴点抽出部133、顔特徴点記憶部134、顔特徴量算出部135、顔特徴量記憶部136、開口度特定部137、開口度記憶部138、開口継続度算出部139、開口継続度記憶部140、一時記憶部145、欠伸判定結果記憶部146及び出力部147は、実施の形態1における処理部130の入力部131、顔領域抽出部132、顔特徴点抽出部133、顔特徴点記憶部134、顔特徴量算出部135、顔特徴量記憶部136、開口度特定部137、開口度記憶部138、開口継続度算出部139、開口継続度記憶部140、一時記憶部145、欠伸判定結果記憶部146及び出力部147と同様である。 Input unit 131, face area extraction unit 132, face feature point extraction unit 133, face feature point storage unit 134, face feature amount calculation unit 135, face feature amount storage unit 136, opening degree specification of the processing unit 230 in the second embodiment. Unit 137, opening degree storage unit 138, opening continuity calculation unit 139, opening continuity storage unit 140, temporary storage unit 145, stretch determination result storage unit 146, and output unit 147 are inputs of the processing unit 130 in the first embodiment. Unit 131, face area extraction unit 132, face feature point extraction unit 133, face feature point storage unit 134, face feature amount calculation unit 135, face feature amount storage unit 136, opening degree identification unit 137, opening degree storage unit 138, opening. This is the same as the continuity calculation unit 139, the opening continuity storage unit 140, the temporary storage unit 145, the stretchout determination result storage unit 146, and the output unit 147.

実施の形態2でも、判定処理部241は、フレーム内の人物が欠伸以外の予め定められた要因による開口を行っているか否かを判定する。
但し、実施の形態2では、判定処理部241は、人物の表情が欠伸とは異なる予め定められた表情である場合に、予め定められた要因による開口を行っていると判定する。
実施の形態2における判定処理部241での処理は、欠伸判定部244、一時記憶部145、顔表情特徴比較部248及び顔表情特徴比較結果記憶部249により実現される。以下説明する。
Also in the second embodiment, the determination processing unit 241 determines whether or not the person in the frame makes an opening due to a predetermined factor other than yawning.
However, in the second embodiment, the determination processing unit 241 determines that the opening is performed by a predetermined factor when the facial expression of the person is a predetermined facial expression different from the yawning.
The processing in the determination processing unit 241 in the second embodiment is realized by the yawn determination unit 244, the temporary storage unit 145, the facial expression feature comparison unit 248, and the facial expression feature comparison result storage unit 249. This will be described below.

顔表情特徴比較部248は、顔特徴量から、フレーム内の人物が予め定められた表情であるか否かを判定する顔表情判定部である。ここでは、顔表情特徴比較部248は、現在の顔特徴と、顔表情特徴(例えば、笑顔又は驚き時に表出する顔の特徴)とを比較することで、人物の表情を判定する。 The facial expression feature comparison unit 248 is a facial expression determination unit that determines whether or not a person in the frame has a predetermined facial expression based on the facial feature amount. Here, the facial expression feature comparison unit 248 determines the facial expression of a person by comparing the current facial feature with the facial expression feature (for example, the facial feature that appears at the time of a smile or surprise).

例えば、顔表情特徴比較部248は、顔特徴量記憶部136に記憶されている顔特徴量を用いて欠伸時に発生しない顔特徴が見られるかを判定する。一般に、人物の顔が笑顔又は驚いた顔になっている場合には、欠伸時には発生しない顔特徴が表れる。従って、顔表情特徴比較部248は、人物の顔の特徴量が、欠伸時には発生しない顔特徴を示す顔特徴量となっている場合には、欠伸を要因とする開口ではないと判定する。 For example, the facial expression feature comparison unit 248 uses the facial feature amount stored in the facial feature amount storage unit 136 to determine whether facial features that do not occur during yawning can be seen. In general, when a person's face is smiling or surprised, facial features that do not occur during yawning appear. Therefore, when the facial expression feature comparison unit 248 is a facial feature that indicates a facial feature that does not occur during yawning, the facial expression feature comparison unit 248 determines that the opening is not due to yawning.

具体的には、顔表情特徴比較部248は、顔特徴量記憶部136に記憶されている顔表情の何れかが、図13の顔表情特徴モデル222に示されている判定条件を満たしている場合には、笑顔による開口又は驚きによる開口であると判定する。 Specifically, in the facial expression feature comparison unit 248, any of the facial expressions stored in the facial feature amount storage unit 136 satisfies the determination condition shown in the facial expression feature model 222 of FIG. In some cases, it is determined that the opening is due to a smile or an opening due to surprise.

なお、顔表情特徴比較部248は、顔特徴量記憶部136に記憶されている顔特徴量を用いて、Random Forest、SVM(Support Vector Machine)、Adaboost、CNN(Convolutional Neural Network)等の機械学習技術を用いて、予め定められた要因による開口か否かを判定してもよい。 The facial feature comparison unit 248 uses the facial feature amount stored in the facial feature amount storage unit 136 to perform machine learning such as Random Forest, SVM (Support Vector Machine), AdaBoost, and CNN (Convolutional Neural Network). Techniques may be used to determine if the opening is due to a predetermined factor.

顔表情特徴比較結果記憶部249は、顔表情特徴比較部248での比較結果(判定結果ともいう)を記憶する。
顔表情特徴比較部248での比較結果は、例えば、「笑顔による開口」、「驚きによる開口」又は「開口」であるものとする。「開口」は、「笑顔による開口」又は「驚きによる開口」であると判定されなかった場合の比較結果である。ここで、「笑顔による開口」は、フレーム内の人物の表情が笑顔であることを示し、「驚きによる開口」は、その表情が驚いた顔であることを示す。
The facial expression feature comparison result storage unit 249 stores the comparison result (also referred to as a determination result) in the facial expression feature comparison unit 248.
The comparison result in the facial expression feature comparison unit 248 is, for example, "aperture due to a smile", "opening due to surprise", or "opening". The "opening" is a comparison result when it is not determined to be "opening due to a smile" or "opening due to surprise". Here, "aperture by smile" indicates that the facial expression of the person in the frame is a smile, and "aperture by surprise" indicates that the facial expression is a surprised face.

欠伸判定部244は、開口継続度記憶部140に記憶されている開口継続度と、顔表情特徴比較結果記憶部249に記憶されている比較結果とを用いて、予め定められた要因による開口であるか否かを判別し、欠伸を判定する。例えば、欠伸判定部244は、顔表情特徴比較部248での判定結果が、人物の表情が予め定められた表情である場合に、予め定められた要因による開口を行っていると判定し、その判定結果が、その人物の表情が予め定められた表情ではない場合に、予め定められた要因ではない要因による開口であると判定する。 The yawning determination unit 244 uses an opening continuity stored in the opening continuity storage unit 140 and a comparison result stored in the facial expression feature comparison result storage unit 249 to determine an opening due to a predetermined factor. It is determined whether or not it is present, and yawning is determined. For example, the yawning determination unit 244 determines that when the determination result of the facial expression feature comparison unit 248 is a predetermined facial expression, the opening is performed by a predetermined factor. When the determination result is that the facial expression of the person is not a predetermined facial expression, it is determined that the opening is due to a factor other than the predetermined factor.

具体的には、欠伸判定部244は、顔表情特徴比較結果記憶部249に記憶されている比較結果が「笑顔による開口」又は「驚きによる開口」である場合には、予め定められた要因による開口と判定し、その比較結果が「開口」である場合には、予め定められた要因ではない要因による開口と判定する。 Specifically, the yawning determination unit 244 is based on a predetermined factor when the comparison result stored in the facial expression feature comparison result storage unit 249 is "opening due to smile" or "opening due to surprise". If it is determined to be an opening and the comparison result is "opening", it is determined to be an opening due to a factor other than a predetermined factor.

次に、欠伸判定部244は、予め定められた要因による開口と判定した場合には、無効値を欠伸開口継続値とし、予め定められた要因ではない要因による開口と判定した場合には、そのフレームの開口継続度を欠伸開口継続度として、そのフレームを識別するための識別情報であるフレーム識別番号に対応付けて、一時記憶部145に記憶する。
そして、欠伸判定部244は、欠伸判定条件モデル221に含まれている欠伸判定条件が満たされている場合に、欠伸と判定する。
Next, when the yawning determination unit 244 determines that the opening is due to a predetermined factor, the invalid value is set as the continuation value of the yawning opening, and when it is determined that the opening is due to a factor other than the predetermined factor, the invalid value is used. The degree of opening continuity of the frame is set as the degree of continuation of yawning, and is stored in the temporary storage unit 145 in association with the frame identification number which is the identification information for identifying the frame.
Then, the yawning determination unit 244 determines that yawning is achieved when the yawning determination condition included in the yawning determination condition model 221 is satisfied.

図15は、実施の形態2における欠伸判定部244での処理を示すフローチャートである。
まず、欠伸判定部244は、開口継続度記憶部140に記憶されている開口継続度と、顔表情特徴比較結果記憶部249に記憶されている比較結果とを取得する(S20)。
FIG. 15 is a flowchart showing the processing in the yawning determination unit 244 in the second embodiment.
First, the yawning determination unit 244 acquires the opening continuity stored in the opening continuity storage unit 140 and the comparison result stored in the facial expression feature comparison result storage unit 249 (S20).

次に、欠伸判定部244は、取得された比較結果が予め定められた要因による開口であるか否かを判定する(S21)。例えば、欠伸判定部244は、比較結果が「笑顔による開口」又は「驚きによる開口」である場合には、予め定められた要因による開口であると判定し、比較結果が「開口」である場合には、予め定められた要因ではない要因による開口であると判定する。予め定められた要因による開口である場合(S21でYes)には、処理はステップS22に進み、予め定められた要因ではない要因による開口である場合(S21でNo)には、処理はステップS23に進む。 Next, the yawning determination unit 244 determines whether or not the acquired comparison result is an opening due to a predetermined factor (S21). For example, when the comparison result is "opening due to smile" or "opening due to surprise", the yawning determination unit 244 determines that the opening is due to a predetermined factor, and when the comparison result is "opening". Is determined to be an opening due to a factor other than a predetermined factor. If the opening is due to a predetermined factor (Yes in S21), the process proceeds to step S22, and if the opening is due to a factor other than the predetermined factor (No in S21), the process proceeds to step S23. Proceed to.

ステップS22では、欠伸判定部244は、開口継続度を予め定められた値である無効値(例えば、「-1」)とする。そして、処理はステップS23に進む。 In step S22, the yawning determination unit 244 sets the opening continuity to an invalid value (for example, “-1”) which is a predetermined value. Then, the process proceeds to step S23.

ステップS23では、欠伸判定部244は、現フレームの開口継続度を、欠伸開口継続度として、そのフレーム番号とともに一時記憶部145に記憶させる。ここで、欠伸開口継続度は、予め定められた要因ではない要因による開口である場合には、現フレームに対応して開口継続度算出部139で算出された開口継続度であり、予め定められた要因による開口である場合には、ステップS22で設定された無効値となる。 In step S23, the yawning determination unit 244 stores the opening continuity of the current frame as the yawning opening continuity in the temporary storage unit 145 together with the frame number. Here, the yawning opening continuity is the opening continuity calculated by the opening continuity calculation unit 139 corresponding to the current frame when the opening is due to a factor other than a predetermined factor, and is predetermined. If the opening is due to a factor, the invalid value set in step S22 is used.

次に、欠伸判定部244は、欠伸判定条件モデル221に含まれている欠伸判定条件を満たすか否かを判定する(S24)。ここでは、欠伸判定部244は、過去の予め定められた数のフレーム(例えば、100フレーム)の内、欠伸開口継続度が予め定められた値(例えば、40)以上となっているフレームの数が予め定められた数(例えば、20)以上のときに、欠伸と判定する。欠伸判定条件が満たされている場合(S24でYes)には、処理はステップS25に進み、欠伸判定条件が満たされていない場合(S24でNo)には、処理はステップS26に進む。 Next, the yawning determination unit 244 determines whether or not the yawning determination condition condition included in the yawning determination condition model 221 is satisfied (S24). Here, the yawning determination unit 244 is the number of frames in which the degree of continuation of the yawning opening is a predetermined value (for example, 40) or more among the predetermined number of frames in the past (for example, 100 frames). When is a predetermined number (for example, 20) or more, it is determined to be yawning. If the yawning determination condition is satisfied (Yes in S24), the process proceeds to step S25, and if the yawning determination condition is not satisfied (No in S24), the process proceeds to step S26.

ステップS25では、欠伸判定部244は、欠伸と判定し、その判定結果を欠伸判定結果記憶部146に記憶する。なお、欠伸判定部244は、欠伸は続けて発生しないと想定し、一度欠伸と判定したら一定フレーム(例えば、100フレーム)は、欠伸と判定しない。
一方、ステップS26では、欠伸判定部144は、欠伸ではないと判定し、その判定結果を欠伸判定結果記憶部146に記憶する。
In step S25, the yawning determination unit 244 determines that the yawning occurs, and stores the determination result in the yawning determination result storage unit 146. The yawning determination unit 244 assumes that yawning does not occur continuously, and once yawning is determined, a certain frame (for example, 100 frames) is not determined to be yawning.
On the other hand, in step S26, the yawning determination unit 144 determines that the yawning is not, and stores the determination result in the yawning determination result storage unit 146.

以上のように、実施の形態2によれば、動画像に映っている人物の表情が笑顔又は驚いた顔となっている状態では、欠伸と判定しないため、人物の口が開いている状態から、精度よく欠伸を検出することができる。 As described above, according to the second embodiment, when the facial expression of the person in the moving image is a smile or a surprised face, it is not determined to be yawning, so that the person's mouth is open. , Yawning can be detected accurately.

実施の形態3.
図11に示されているように、実施の形態3に係る情報処理装置としての欠伸判定装置300は、撮像部110と、データベース部320と、処理部330と、表示部150とを備える。
実施の形態3に係る欠伸判定装置300の撮像部110及び表示部150は、実施の形態1に係る欠伸判定装置100の撮像部110及び表示部150と同様である。
Embodiment 3.
As shown in FIG. 11, the yawning determination device 300 as the information processing device according to the third embodiment includes an imaging unit 110, a database unit 320, a processing unit 330, and a display unit 150.
The image pickup unit 110 and the display unit 150 of the yawn determination device 300 according to the third embodiment are the same as the image pickup unit 110 and the display unit 150 of the yawn determination device 100 according to the first embodiment.

データベース部320は、欠伸判定条件モデル321と、顔表情特徴モデル222とを記憶する記憶部である。
実施の形態3における顔表情特徴モデル222は、実施の形態2における顔表情特徴モデル222と同様である。
The database unit 320 is a storage unit that stores the yawning determination condition model 321 and the facial expression feature model 222.
The facial expression feature model 222 in the third embodiment is the same as the facial expression feature model 222 in the second embodiment.

欠伸判定条件モデル321は、開口区別判定条件及び欠伸判定条件を含む。
実施の形態3における欠伸判定条件モデル321の欠伸判定条件は、実施の形態1における欠伸判定条件モデル121の欠伸判定条件と同様である。
The yawn determination condition model 321 includes an opening distinction determination condition and a yawn determination condition.
The yawning determination condition of the yawning determination condition model 321 in the third embodiment is the same as the yawning determination condition of the yawning determination condition model 121 in the first embodiment.

開口区別判定条件は、予め定められた要因による開口と、予め定められた要因ではない要因による開口とを区別するために使用される判定条件である。
図16は、開口区別判定条件の一例を示す概略図である。
実施の形態3では、開口区別判定条件は、開口速度評価値が予め定められた閾値(例えば、20)未満である場合には、予め定められた要因による開口と判定し、その開口速度評価値が予め定められた閾値以上である場合には、予め定められた要因ではない要因による開口であると判定する条件と、顔表情特徴比較結果に応じて、予め定められた要因による開口か、予め定められた要因ではない要因による開口かを判定する条件とになっている。実施の形態3でも、予め定められた要因は、人物の表情が、笑顔又は怒った顔であることである。
The opening distinction determination condition is a determination condition used to distinguish between an opening due to a predetermined factor and an opening due to a factor other than the predetermined factor.
FIG. 16 is a schematic view showing an example of the opening distinction determination condition.
In the third embodiment, when the opening speed evaluation value is less than a predetermined threshold value (for example, 20), the opening discrimination determination condition determines that the opening is due to a predetermined factor, and the opening speed evaluation value is determined. If is equal to or greater than a predetermined threshold value, the opening is due to a factor other than the predetermined factor, and depending on the facial expression feature comparison result, the opening is due to the predetermined factor. It is a condition to judge whether the opening is due to a factor other than the specified factor. Also in the third embodiment, the predetermined factor is that the facial expression of the person is a smiling face or an angry face.

図11に戻り、処理部330は、欠伸判定装置300での処理を実行する。
図17は、実施の形態3における処理部330の構成を概略的に示すブロック図である。
処理部330は、入力部131と、顔領域抽出部132と、顔特徴点抽出部133と、顔特徴点記憶部134と、顔特徴量算出部135と、顔特徴量記憶部136と、開口度特定部137と、開口度記憶部138と、開口継続度算出部139と、開口継続度記憶部140と、判定処理部341と、欠伸判定結果記憶部146と、出力部147とを備える。
Returning to FIG. 11, the processing unit 330 executes processing by the yawning determination device 300.
FIG. 17 is a block diagram schematically showing the configuration of the processing unit 330 in the third embodiment.
The processing unit 330 includes an input unit 131, a face area extraction unit 132, a face feature point extraction unit 133, a face feature point storage unit 134, a face feature amount calculation unit 135, a face feature amount storage unit 136, and an opening. It includes a degree specifying unit 137, an opening degree storage unit 138, an opening continuity degree calculation unit 139, an opening continuity degree storage unit 140, a determination processing unit 341, a missing extension determination result storage unit 146, and an output unit 147.

判定処理部341は、開口速度評価値算出部142と、開口速度評価値記憶部143と、欠伸判定部344と、一時記憶部145と、顔表情特徴比較部248と、顔表情特徴比較結果記憶部249とを備える。 The determination processing unit 341 includes an opening speed evaluation value calculation unit 142, an opening speed evaluation value storage unit 143, a stretch determination unit 344, a temporary storage unit 145, a facial expression feature comparison unit 248, and a facial expression feature comparison result storage. A unit 249 is provided.

実施の形態3における処理部330の入力部131、顔領域抽出部132、顔特徴点抽出部133、顔特徴点記憶部134、顔特徴量算出部135、顔特徴量記憶部136、開口度特定部137、開口度記憶部138、開口継続度算出部139、開口継続度記憶部140、一時記憶部145、欠伸判定結果記憶部146及び出力部147は、実施の形態1における処理部130の入力部131、顔領域抽出部132、顔特徴点抽出部133、顔特徴点記憶部134、顔特徴量算出部135、顔特徴量記憶部136、開口度特定部137、開口度記憶部138、開口継続度算出部139、開口継続度記憶部140、一時記憶部145、欠伸判定結果記憶部146及び出力部147と同様である。 Input unit 131, face area extraction unit 132, face feature point extraction unit 133, face feature point storage unit 134, face feature amount calculation unit 135, face feature amount storage unit 136, opening degree specification of the processing unit 330 in the third embodiment. Unit 137, opening degree storage unit 138, opening continuity calculation unit 139, opening continuity storage unit 140, temporary storage unit 145, stretch determination result storage unit 146, and output unit 147 are inputs of the processing unit 130 in the first embodiment. Unit 131, face area extraction unit 132, face feature point extraction unit 133, face feature point storage unit 134, face feature amount calculation unit 135, face feature amount storage unit 136, opening degree identification unit 137, opening degree storage unit 138, opening. This is the same as the continuity calculation unit 139, the opening continuity storage unit 140, the temporary storage unit 145, the stretchout determination result storage unit 146, and the output unit 147.

また、実施の形態3における処理部330の顔表情特徴比較部248及び顔表情特徴比較結果記憶部249は、実施の形態2における処理部230の顔表情特徴比較部248及び顔表情特徴比較結果記憶部249と同様である。 Further, the facial expression feature comparison unit 248 and the facial expression feature comparison result storage unit 249 of the processing unit 330 in the third embodiment store the facial expression feature comparison unit 248 and the facial expression feature comparison result storage of the processing unit 230 in the second embodiment. It is the same as the part 249.

実施の形態3でも、判定処理部341は、フレーム内の人物が予め定められた要因による開口を行っているか否かを判定する。
但し、実施の形態3では、判定処理部341は、その人物が会話を行っている場合、又は、その人物の表情が欠伸とは異なる予め定められた表情である場合に、予め定められた要因による開口を行っていると判定する。
実施の形態3における判定処理部341での処理は、開口速度評価値算出部142、開口速度評価値記憶部143、欠伸判定部344、一時記憶部145、顔表情特徴比較部248及び顔表情特徴比較結果記憶部249により実現される。以下説明する。
Also in the third embodiment, the determination processing unit 341 determines whether or not the person in the frame makes an opening due to a predetermined factor.
However, in the third embodiment, the determination processing unit 341 determines a predetermined factor when the person is having a conversation or when the facial expression of the person is a predetermined facial expression different from the yawning. It is determined that the opening is performed by.
The processing in the determination processing unit 341 in the third embodiment includes the opening speed evaluation value calculation unit 142, the opening speed evaluation value storage unit 143, the stretch determination unit 344, the temporary storage unit 145, the facial expression feature comparison unit 248, and the facial expression feature. It is realized by the comparison result storage unit 249. This will be described below.

欠伸判定部344は、開口継続度記憶部140に記憶されている開口継続度と、開口速度評価値記憶部143に記憶されている開口速度と、顔表情特徴比較結果記憶部249に記憶されている比較結果とを用いて、予め定められた要因による開口と、予め定められた要因ではない要因による開口とを区別し、欠伸を判定する。 The missing stretch determination unit 344 is stored in the opening continuity storage unit 140, the opening speed stored in the opening speed evaluation value storage unit 143, and the facial expression feature comparison result storage unit 249. Using the comparison results, the opening due to a predetermined factor and the opening due to a factor other than the predetermined factor are distinguished, and the loss is determined.

具体的には、欠伸判定部344は、開口速度評価値記憶部143に記憶されている開口速度評価値が欠伸判定条件モデル121に含まれている開口区別判定条件において、開口速度評価値が予め定められた閾値(例えば、20)未満である場合には、予め定められた要因による開口と判定する。 Specifically, the yawning determination unit 344 sets the opening speed evaluation value in advance under the opening distinction determination condition in which the opening speed evaluation value stored in the opening speed evaluation value storage unit 143 is included in the yawning determination condition model 121. If it is less than a predetermined threshold (for example, 20), it is determined that the opening is due to a predetermined factor.

また、欠伸判定部344は、顔表情特徴比較結果記憶部249に記憶されている比較結果が「笑顔による開口」又は「驚きによる開口」である場合には、予め定められた要因による開口であると判定し、その比較結果が「開口」である場合には、予め定められた要因ではない要因による開口と判定する。 Further, the yawning determination unit 344 is an opening due to a predetermined factor when the comparison result stored in the facial expression feature comparison result storage unit 249 is "opening due to smile" or "opening due to surprise". If the comparison result is "opening", it is determined that the opening is due to a factor other than a predetermined factor.

次に、欠伸判定部344は、予め定められた要因による開口と判定した場合には、無効値を欠伸開口継続値とし、予め定められた要因ではない要因による開口と判定した場合には、そのフレームの開口継続度を欠伸開口継続度として、そのフレームを識別するための識別情報であるフレーム識別番号に対応付けて、一時記憶部145に記憶する。
そして、欠伸判定部344は、欠伸判定条件モデル321に含まれている欠伸判定条件が満たされている場合に、欠伸と判定する。
ここでは、欠伸判定部344は、過去の予め定められた数のフレーム(例えば、100フレーム)の内、欠伸開口継続度が予め定められた値(例えば、40)以上となっているフレームの数が予め定められた数(例えば、20)以上のときに、欠伸と判定する。
Next, when the yawning determination unit 344 determines that the opening is due to a predetermined factor, the invalid value is set as the continuation value of the yawning opening, and when it is determined that the opening is due to a factor other than the predetermined factor, the invalid value is used. The degree of opening continuity of the frame is set as the degree of continuation of yawning, and is stored in the temporary storage unit 145 in association with the frame identification number which is the identification information for identifying the frame.
Then, the yawning determination unit 344 determines that yawning is achieved when the yawning determination condition included in the yawning determination condition model 321 is satisfied.
Here, the yawning determination unit 344 is the number of frames in which the degree of continuation of the yawning opening is a predetermined value (for example, 40) or more among the predetermined number of frames in the past (for example, 100 frames). When is a predetermined number (for example, 20) or more, it is determined to be yawning.

図18は、実施の形態3における欠伸判定部344での処理を示すフローチャートである。
まず、欠伸判定部344は、開口継続度記憶部140に記憶されている開口継続度と、開口速度評価値記憶部143に記憶されている開口速度評価値と、顔表情特徴比較結果記憶部249に記憶されている比較結果とを取得する(S30)。
FIG. 18 is a flowchart showing the process in the yawning determination unit 344 in the third embodiment.
First, the stretchlessness determination unit 344 has an opening continuity stored in the opening continuity storage unit 140, an opening speed evaluation value stored in the opening speed evaluation value storage unit 143, and a facial expression feature comparison result storage unit 249. The comparison result stored in is acquired (S30).

次に、欠伸判定部344は、取得された開口速度評価値が、開口区別判定条件における閾値a以上であるか否かを判定する(S31)。開口速度評価値が閾値a未満である場合(S31でNo)には、処理はステップS32に進み、開口速度評価値が閾値a以上である場合(S31でYes)には、処理はステップS33に進む。 Next, the yawning determination unit 344 determines whether or not the acquired opening speed evaluation value is equal to or greater than the threshold value a in the opening discrimination determination condition (S31). When the opening speed evaluation value is less than the threshold value a (No in S31), the process proceeds to step S32, and when the opening speed evaluation value is equal to or more than the threshold value a (Yes in S31), the process proceeds to step S33. move on.

ステップS32では、開口速度評価値が閾値a未満であり、動画像に映っている人物の開口が欠伸以外の会話であると考えられるため、欠伸判定部344は、開口継続度を予め定められた値である無効値(例えば、「-1」)とする。そして、処理はステップS33に進む。 In step S32, the opening speed evaluation value is less than the threshold value a, and it is considered that the opening of the person shown in the moving image is a conversation other than yawning. Therefore, the yawning determination unit 344 determines the opening continuity degree in advance. It is an invalid value (for example, "-1") which is a value. Then, the process proceeds to step S33.

ステップS33では、欠伸判定部344は、取得された比較結果が予め定められた要因による開口であるか否かを判定する。例えば、欠伸判定部344は、比較結果が「笑顔による開口」又は「驚きによる開口」である場合には、予め定められた要因による開口であると判定し、比較結果が「開口」である場合には、予め定められた要因ではない要因による開口であると判定する。予め定められた要因による開口である場合(S33でYes)には、処理はステップS34に進み、予め定められた要因ではない要因による開口である場合(S34でNo)には、処理はステップS35に進む。 In step S33, the yawning determination unit 344 determines whether or not the acquired comparison result is an opening due to a predetermined factor. For example, when the comparison result is "opening due to smile" or "opening due to surprise", the yawning determination unit 344 determines that the opening is due to a predetermined factor, and when the comparison result is "opening". Is determined to be an opening due to a factor other than a predetermined factor. If the opening is due to a predetermined factor (Yes in S33), the process proceeds to step S34, and if the opening is due to a factor other than the predetermined factor (No in S34), the process proceeds to step S35. Proceed to.

ステップS34では、欠伸判定部344は、開口継続度を予め定められた値である無効値(例えば、「-1」)とする。そして、処理はステップS35に進む。 In step S34, the yawning determination unit 344 sets the opening continuity to an invalid value (for example, “-1”) which is a predetermined value. Then, the process proceeds to step S35.

ステップS35では、欠伸判定部344は、現フレームの開口継続度を、欠伸開口継続度として、そのフレーム番号とともに一時記憶部145に記憶させる。 In step S35, the yawning determination unit 344 stores the opening continuity of the current frame as the yawning opening continuity in the temporary storage unit 145 together with the frame number.

次に、欠伸判定部344は、欠伸判定条件モデル321に含まれている欠伸判定条件を満たすか否かを判定する(S36)。ここでは、欠伸判定部344は、過去の予め定められた数のフレーム(例えば、100フレーム)の内、欠伸開口継続度が予め定められた値(例えば、40)以上となっているフレームの数が予め定められた数(例えば、20)以上のときに、欠伸と判定する。欠伸判定条件が満たされている場合(S36でYes)には、処理はステップS37に進み、欠伸判定条件が満たされていない場合(S36でNo)には、処理はステップS38に進む。 Next, the yawning determination unit 344 determines whether or not the yawning determination condition condition included in the yawning determination condition model 321 is satisfied (S36). Here, the yawning determination unit 344 is the number of frames in which the degree of continuation of the yawning opening is a predetermined value (for example, 40) or more among the predetermined number of frames in the past (for example, 100 frames). When is a predetermined number (for example, 20) or more, it is determined to be yawning. If the yawning determination condition is satisfied (Yes in S36), the process proceeds to step S37, and if the yawning determination condition is not satisfied (No in S36), the process proceeds to step S38.

ステップS37では、欠伸判定部344は、欠伸と判定し、その判定結果を欠伸判定結果記憶部146に記憶する。なお、欠伸判定部344は、欠伸は続けて発生しないと想定し、一度欠伸と判定したら一定フレーム(例えば、100フレーム)は、欠伸と判定しない。
一方、ステップS36では、欠伸判定部344は、欠伸ではないと判定し、その判定結果を欠伸判定結果記憶部146に記憶する。
In step S37, the yawning determination unit 344 determines that the yawning occurs, and stores the determination result in the yawning determination result storage unit 146. The yawning determination unit 344 assumes that yawning does not occur continuously, and once yawning is determined, a certain frame (for example, 100 frames) is not determined to be yawning.
On the other hand, in step S36, the yawning determination unit 344 determines that the yawning is not, and stores the determination result in the yawning determination result storage unit 146.

以上のように、実施の形態3によれば、動画像に映っている人物が会話している状態、笑顔である状態、及び、驚いている状態では、欠伸と判定しないため、人物の口が開いている状態から、精度よく欠伸を検出することができる。 As described above, according to the third embodiment, when the person shown in the moving image is talking, smiling, or surprised, it is not determined to be yawning, so that the person's mouth is open. Yawning can be detected accurately from the open state.

以上に記載された実施の形態1~3では、欠伸判定装置100、200、300が、撮像部110、データベース部120、処理部130、230、330及び表示部150の全てを備えているが、実施の形態1~3は、このような例に限定されない。例えば、撮像部110、データベース部120及び表示部150の少なくとも一つは、欠伸判定装置100、200、300とネットワークで接続された別の装置であってもよい。 In the above-described embodiments 1 to 3, the yawning determination devices 100, 200, and 300 include all of the imaging unit 110, the database unit 120, the processing units 130, 230, 330, and the display unit 150. Embodiments 1 to 3 are not limited to such examples. For example, at least one of the image pickup unit 110, the database unit 120, and the display unit 150 may be another device connected to the yawn determination devices 100, 200, and 300 via a network.

100,200,300 欠伸判定装置、 110 撮像部、 120,220,320 データベース部、 121,221,321 欠伸判定条件モデル、 222 顔表情特徴モデル、 130,230,330 処理部、 131 入力部、 132 顔領域抽出部、 133 顔特徴点抽出部、 134 顔特徴点記憶部、 135 顔特徴量算出部、 136 顔特徴量記憶部、 137 開口度特定部、 138 開口度記憶部、 139 開口継続度算出部、 140 開口継続度記憶部、 141,241,341 判定処理部、 142 開口速度評価値算出部、 143 開口速度評価値記憶部、 144,244,344 欠伸判定部、 145 一時記憶部、 146 欠伸判定結果記憶部、 147 出力部、 248 顔表情特徴比較部、 249 顔表情特徴比較結果記憶部、 150 表示部。 100,200,300 deficiency determination device, 110 imaging unit, 120, 220, 320 database unit, 121,221,321 deficiency determination condition model, 222 facial expression feature model, 130, 230, 330 processing unit, 131 input unit, 132 Face area extraction unit, 133 Face feature point extraction unit, 134 Face feature point storage unit, 135 Face feature amount calculation unit, 136 Face feature amount storage unit, 137 Openness specification unit, 138 Openness storage unit, 139 Opening continuity calculation unit Unit, 140 Opening continuity storage unit, 141,241,341 Judgment processing unit, 142 Opening speed evaluation value calculation unit, 143 Opening speed evaluation value storage unit, 144,244,344 Missing extension judgment unit, 145 Temporary storage unit, 146 Missing extension Judgment result storage unit, 147 output unit, 248 facial expression feature comparison unit, 249 facial expression feature comparison result storage unit, 150 display unit.

Claims (14)

動画像に含まれている複数のフレームの各々から、人物の顔の領域である顔領域を抽出する顔領域抽出部と、
前記顔領域から、予め定められた複数の特徴点を抽出する顔特徴点抽出部と、
前記複数の特徴点から、前記顔の特徴を示す顔特徴量を算出する顔特徴量算出部と、
前記顔特徴量から、前記顔において口が開いている度合いである開口度を特定する開口度特定部と、
前記複数のフレームから特定された複数の前記開口度により、前記口が継続して開いている度合いである開口継続度を算出する開口継続度算出部と、
前記人物が欠伸以外の予め定められた要因による開口を行っているか否かを判定し、前記予め定められた要因による開口を行っていると判定されたフレームに、予め定められた第1の閾値よりも低い値を欠伸開口継続度として対応付け、前記予め定められた要因による開口を行っていないと判定されたフレームに、前記開口継続度を欠伸開口継続度として対応付け、最新のフレームを含む予め定められた数の連続したフレームの内、前記第1の閾値以上となっている欠伸開口継続度が対応付けられているフレームの数が、予め定められた第2の閾値以上の場合に、前記人物が欠伸をしたと判定する判定処理部と、を備えること
を特徴とする情報処理装置。
A face area extraction unit that extracts a face area, which is a face area of a person, from each of a plurality of frames included in a moving image, and a face area extraction unit.
A face feature point extraction unit that extracts a plurality of predetermined feature points from the face area, and a face feature point extraction unit.
A face feature amount calculation unit that calculates a face feature amount indicating the face feature from the plurality of feature points, and a face feature amount calculation unit.
An opening degree specifying portion that specifies the opening degree, which is the degree to which the mouth is open in the face, from the facial feature amount.
An opening continuity calculation unit that calculates an opening continuity, which is the degree to which the mouth is continuously opened, by a plurality of opening degrees specified from the plurality of frames.
It is determined whether or not the person is opening due to a predetermined factor other than yawning, and a predetermined first threshold value is set in the frame determined to be opening due to the predetermined factor. A value lower than is associated with the yawning opening continuity, and the frame determined that the opening is not performed due to the predetermined factor is associated with the opening continuation as the yawning opening continuity, and the latest frame is included. When the number of frames associated with the yawning opening continuity that is equal to or greater than the first threshold value among the predetermined number of consecutive frames is equal to or greater than the predetermined second threshold value. An information processing apparatus including a determination processing unit for determining that the person has yawned.
前記判定処理部は、前記人物が会話を行っている場合に、前記予め定められた要因による開口を行っていると判定すること
を特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the determination processing unit determines that the person is making an opening due to a predetermined factor when the person is having a conversation.
前記判定処理部は、前記口が開く速度である開口速度が予め定められた第3の閾値未満の場合に、前記人物が会話を行っていると判定すること
を特徴とする請求項2に記載の情報処理装置。
The second aspect of the present invention is characterized in that the determination processing unit determines that the person is having a conversation when the opening speed, which is the opening speed of the mouth, is less than a predetermined third threshold value. Information processing equipment.
前記判定処理部は、
前記開口継続度から、前記開口速度が速くなるほど大きくなる値である開口速度評価値を算出する開口速度評価値算出部と、
前記開口速度評価値が予め定められた第4の閾値未満である場合に、前記開口速度が前記第3の閾値未満であると判定する欠伸判定部と、を備えること
を特徴とする請求項3に記載の情報処理装置。
The determination processing unit
An opening speed evaluation value calculation unit that calculates an opening speed evaluation value, which is a value that increases as the opening speed increases from the opening continuity.
3. The third aspect of the present invention is provided with a yawning determination unit for determining that the opening speed is less than the third threshold value when the opening speed evaluation value is less than a predetermined fourth threshold value. The information processing device described in.
前記判定処理部は、前記人物の表情が欠伸とは異なる予め定められた表情である場合に、前記予め定められた要因による開口を行っていると判定すること
を特徴とする請求項1に記載の情報処理装置。
The first aspect of claim 1, wherein the determination processing unit determines that the opening is performed by the predetermined factor when the facial expression of the person is a predetermined facial expression different from the yawning. Information processing equipment.
前記判定処理部は、
前記顔特徴量から、前記人物の表情が前記予め定められた表情であるか否かを判定する顔表情判定部と、
前記顔表情判定部での判定結果が、前記人物の表情が前記予め定められた表情である場合に、前記予め定められた要因による開口を行っていると判定し、前記顔表情判定部での判定結果が、前記人物の表情が前記予め定められた表情ではない場合に、前記予め定められた要因による開口を行っていないと判定する欠伸判定部と、を備えること
を特徴とする請求項5に記載の情報処理装置。
The determination processing unit
A facial expression determination unit that determines whether or not the facial expression of the person is a predetermined facial expression from the facial feature amount.
When the determination result in the facial expression determination unit is that the facial expression of the person is the predetermined facial expression, it is determined that the opening is performed by the predetermined factor, and the facial expression determination unit determines that the opening is performed. 5. The fifth aspect of the present invention is characterized in that the determination result includes a stretch determination unit for determining that the opening due to the predetermined factor is not performed when the facial expression of the person is not the predetermined facial expression. The information processing device described in.
前記予め定められた表情は、笑顔又は驚いた顔であること
を特徴とする請求項5又は6に記載の情報処理装置。
The information processing apparatus according to claim 5 or 6, wherein the predetermined facial expression is a smiling face or a surprised face.
前記判定処理部は、前記人物が会話を行っている場合、又は、前記人物の表情が欠伸とは異なる予め定められた表情である場合に、前記予め定められた要因による開口を行っていると判定すること
を特徴とする請求項1に記載の情報処理装置。
When the person is having a conversation or the facial expression of the person is a predetermined facial expression different from the yawning, the determination processing unit is said to perform the opening due to the predetermined factor. The information processing apparatus according to claim 1, wherein the determination is made.
前記判定処理部は、前記口が開く速度である開口速度が予め定められた第3の閾値未満の場合に、前記人物が会話を行っていると判定すること
を特徴とする請求項8に記載の情報処理装置。
The eighth aspect of the present invention is characterized in that the determination processing unit determines that the person is having a conversation when the opening speed, which is the opening speed of the mouth, is less than a predetermined third threshold value. Information processing equipment.
前記判定処理部は、
前記開口継続度から、前記開口速度が速くなるほど大きくなる値である開口速度評価値を算出する開口速度評価値算出部と、
前記開口速度評価値が予め定められた第4の閾値未満である場合に、前記開口速度が前記第3の閾値未満であると判定する欠伸判定部と、を備えること
を特徴とする請求項9に記載の情報処理装置。
The determination processing unit
An opening speed evaluation value calculation unit that calculates an opening speed evaluation value, which is a value that increases as the opening speed increases from the opening continuity.
9. The aspect 9 is provided with a yawning determination unit for determining that the opening speed is less than the third threshold value when the opening speed evaluation value is less than a predetermined fourth threshold value. The information processing device described in.
前記判定処理部は、
前記顔特徴量から、前記人物の表情が前記予め定められた表情であるか否かを判定する顔表情判定部と、
前記顔表情判定部での判定結果が、前記人物の表情が前記予め定められた表情である場合に、前記予め定められた要因による開口を行っている判定し、前記顔表情判定部での判定結果が、前記人物の表情が前記予め定められた表情ではない場合に、前記予め定められた要因による開口を行っていないと判定する欠伸判定部と、を備えること
を特徴とする請求項8に記載の情報処理装置。
The determination processing unit
A facial expression determination unit that determines whether or not the facial expression of the person is a predetermined facial expression from the facial feature amount.
When the determination result in the facial expression determination unit is that the facial expression of the person is the predetermined facial expression, it is determined that the opening is performed by the predetermined factor, and the determination in the facial expression determination unit. The eighth aspect of the present invention is characterized by comprising a stretchout determination unit for determining that the opening is not performed due to the predetermined factor when the facial expression of the person is not the predetermined facial expression. The information processing device described.
前記予め定められた表情は、笑顔又は驚いた顔であること
を特徴とする請求項11に記載の情報処理装置。
The information processing apparatus according to claim 11, wherein the predetermined facial expression is a smiling face or a surprised face.
コンピュータを、
動画像に含まれている複数のフレームの各々から、人物の顔の領域である顔領域を抽出する顔領域抽出部、
前記顔領域から、予め定められた複数の特徴点を抽出する顔特徴点抽出部、
前記複数の特徴点から、前記顔の特徴を示す顔特徴量を算出する顔特徴量算出部、
前記顔特徴量から、前記顔において口が開いている度合いである開口度を特定する開口度特定部、
前記複数のフレームから特定された複数の前記開口度により、前記口が継続して開いている度合いである開口継続度を算出する開口継続度算出部、及び、
前記人物が欠伸以外の予め定められた要因による開口を行っているか否かを判定し、前記予め定められた要因による開口を行っていると判定されたフレームに、予め定められた第1の閾値よりも低い値を欠伸開口継続度として対応付け、前記予め定められた要因による開口を行っていないと判定されたフレームに、前記開口継続度を欠伸開口継続度として対応付け、最新のフレームを含む予め定められた数の連続したフレームの内、前記第1の閾値以上となっている欠伸開口継続度が対応付けられているフレームの数が、予め定められた第2の閾値以上の場合に、前記人物が欠伸をしたと判定する判定処理部、として機能させること
を特徴とするプログラム。
Computer,
A face area extraction unit that extracts a face area, which is a face area of a person, from each of a plurality of frames included in a moving image.
A face feature point extraction unit that extracts a plurality of predetermined feature points from the face area,
A facial feature amount calculation unit that calculates a facial feature amount indicating the facial feature from the plurality of feature points.
An opening degree specifying portion that specifies the opening degree, which is the degree to which the mouth is open in the face, from the facial feature amount.
An opening continuity calculation unit that calculates an opening continuity, which is the degree to which the mouth is continuously open, based on the plurality of openings specified from the plurality of frames, and an opening continuity calculation unit.
It is determined whether or not the person is opening due to a predetermined factor other than yawning, and a predetermined first threshold value is set in the frame determined to be opening due to the predetermined factor. A value lower than is associated with the yawning opening continuity, and the frame determined that the opening is not performed due to the predetermined factor is associated with the opening continuation as the yawning opening continuity, and the latest frame is included. When the number of frames associated with the yawning opening continuity that is equal to or greater than the first threshold value among the predetermined number of consecutive frames is equal to or greater than the predetermined second threshold value. A program characterized by functioning as a determination processing unit for determining that the person has yawned.
動画像に含まれている複数のフレームの各々から、人物の顔の領域である顔領域を抽出し、
前記顔領域から、予め定められた複数の特徴点を抽出し、
前記複数の特徴点から、前記顔の特徴を示す顔特徴量を算出し、
前記顔特徴量から、前記顔において口が開いている度合いである開口度を特定し、
前記複数のフレームから特定された複数の前記開口度により、前記口が継続して開いている度合いである開口継続度を算出し、
前記人物が欠伸以外の予め定められた要因による開口を行っているか否かを判定し、前記予め定められた要因による開口を行っていると判定されたフレームに、予め定められた第1の閾値よりも低い値を欠伸開口継続度として対応付け、
前記予め定められた要因による開口を行っていないと判定されたフレームに、前記開口継続度を欠伸開口継続度として対応付け、
最新のフレームを含む予め定められた数の連続したフレームの内、前記第1の閾値以上となっている欠伸開口継続度が対応付けられているフレームの数が、予め定められた第2の閾値以上の場合に、前記人物が欠伸をしたと判定すること
を特徴とする情報処理方法。
The face area, which is the area of the human face, is extracted from each of the multiple frames included in the moving image.
A plurality of predetermined feature points are extracted from the face area, and a plurality of predetermined feature points are extracted.
From the plurality of feature points, a facial feature amount indicating the facial feature is calculated.
From the facial features, the degree of opening, which is the degree to which the mouth is open in the face, is specified.
The opening continuity, which is the degree to which the mouth is continuously opened, is calculated from the plurality of openings specified from the plurality of frames.
It is determined whether or not the person is opening due to a predetermined factor other than yawning, and a predetermined first threshold value is set in the frame determined to be opening due to the predetermined factor. Corresponding to a value lower than the yawning opening continuity,
The opening continuity is associated with the frame determined not to be opened due to the predetermined factor as the yawning opening continuity.
Of the predetermined number of consecutive frames including the latest frame, the number of frames associated with the yawning opening continuity that is equal to or higher than the first threshold value is the predetermined second threshold value. An information processing method characterized in that it is determined that the person has yawned in the above cases.
JP2021541019A 2019-09-20 2019-09-20 Information processing equipment, programs and information processing methods Active JP6991401B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/036871 WO2021053806A1 (en) 2019-09-20 2019-09-20 Information processing device, program, and information processing method

Publications (2)

Publication Number Publication Date
JPWO2021053806A1 JPWO2021053806A1 (en) 2021-11-25
JP6991401B2 true JP6991401B2 (en) 2022-01-12

Family

ID=74884460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021541019A Active JP6991401B2 (en) 2019-09-20 2019-09-20 Information processing equipment, programs and information processing methods

Country Status (3)

Country Link
JP (1) JP6991401B2 (en)
DE (1) DE112019007642T5 (en)
WO (1) WO2021053806A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005199078A (en) 2005-02-07 2005-07-28 Toshiba Corp State monitoring device
CN109934199A (en) 2019-03-22 2019-06-25 扬州大学 A kind of Driver Fatigue Detection based on computer vision and system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5365374B2 (en) * 2009-06-30 2013-12-11 日産自動車株式会社 Deficiency determination apparatus and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005199078A (en) 2005-02-07 2005-07-28 Toshiba Corp State monitoring device
CN109934199A (en) 2019-03-22 2019-06-25 扬州大学 A kind of Driver Fatigue Detection based on computer vision and system

Also Published As

Publication number Publication date
DE112019007642T5 (en) 2022-05-19
WO2021053806A1 (en) 2021-03-25
JPWO2021053806A1 (en) 2021-11-25

Similar Documents

Publication Publication Date Title
Davison et al. Objective micro-facial movement detection using facs-based regions and baseline evaluation
US8837773B2 (en) Apparatus which detects moving object from image and method thereof
CN106557723B (en) Face identity authentication system with interactive living body detection and method thereof
Davison et al. Micro-facial movement detection using individualised baselines and histogram-based descriptors
Basu et al. Human emotion recognition from facial thermal image based on fused statistical feature and multi-class SVM
US20210271865A1 (en) State determination device, state determination method, and recording medium
JP2014093023A (en) Object detection device, object detection method and program
Zhao et al. Applying contrast-limited adaptive histogram equalization and integral projection for facial feature enhancement and detection
US20160203357A1 (en) Feature point location estimation device, feature point location estimation method, and feature point location estimation program
JP6784261B2 (en) Information processing equipment, image processing system, image processing method and program
Dey et al. Computer vision based gender detection from facial image
Dadiz et al. Detecting depression in videos using uniformed local binary pattern on facial features
CN111860057A (en) Face image blurring and living body detection method and device, storage medium and equipment
JP6101470B2 (en) Facial expression analysis apparatus and facial expression analysis program
JP6991401B2 (en) Information processing equipment, programs and information processing methods
JP2014119879A (en) Face expression evaluation result smoothing device and face expression evaluation result smoothing program
JP7439932B2 (en) Information processing system, data storage device, data generation device, information processing method, data storage method, data generation method, recording medium, and database
WO2022024274A1 (en) Image processing device, image processing method, and recording medium
WO2022049704A1 (en) Information processing system, information processing method, and computer program
Lollett et al. Driver’s drowsiness classifier using a single-camera robust to mask-wearing situations using an eyelid, lower-face contour, and chest movement feature vector gru-based model
Mariappan et al. A labVIEW design for frontal and non-frontal human face detection system in complex background
KR102616230B1 (en) Method for determining user&#39;s concentration based on user&#39;s image and operating server performing the same
Horak et al. Eyes detection and tracking for monitoring driver vigilance
Adepoju et al. Gender classification based on local binary pattern and K-nearest neighbour
Colak et al. Eyematch: an eye localization method for frontal face images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210714

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211207

R150 Certificate of patent or registration of utility model

Ref document number: 6991401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150