JP7217838B2 - Mouth opening calculator - Google Patents

Mouth opening calculator Download PDF

Info

Publication number
JP7217838B2
JP7217838B2 JP2022551480A JP2022551480A JP7217838B2 JP 7217838 B2 JP7217838 B2 JP 7217838B2 JP 2022551480 A JP2022551480 A JP 2022551480A JP 2022551480 A JP2022551480 A JP 2022551480A JP 7217838 B2 JP7217838 B2 JP 7217838B2
Authority
JP
Japan
Prior art keywords
degree
opening
person
face
mouth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022551480A
Other languages
Japanese (ja)
Other versions
JPWO2022064581A5 (en
JPWO2022064581A1 (en
Inventor
亮介 小辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022064581A1 publication Critical patent/JPWO2022064581A1/ja
Publication of JPWO2022064581A5 publication Critical patent/JPWO2022064581A5/en
Application granted granted Critical
Publication of JP7217838B2 publication Critical patent/JP7217838B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Epidemiology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Primary Health Care (AREA)
  • Educational Technology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Child & Adolescent Psychology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本開示は、人物の口の開き度合いを算出する技術に関するものである。 The present disclosure relates to technology for calculating the degree of mouth opening of a person.

車両の運転者の口の開き度合いである開口度の変化から、運転者の状態を判定する技術が知られている。例えば下記の特許文献1には、運転者の開口度の時間変化に基づいて、運転者の漫然度や覚醒度を判定する技術が開示されている。 2. Description of the Related Art A technology for determining a driver's condition from changes in the degree of opening of the mouth of a vehicle driver is known. For example, Patent Literature 1 below discloses a technique for determining a driver's absentmindedness and arousal based on a change in the degree of opening of the driver over time.

特開2010-241371号公報JP 2010-241371 A

特許文献1の技術では、カメラが撮影した運転者の顔画像から運転者の口を検出することによって開口度を算出している。よって、例えば運転者がマスクを着用しているときなど、運転者の口が遮蔽されている場合には、カメラで運転者の口を撮影できないため、開口度を算出することができない。 In the technique of Patent Document 1, the degree of opening is calculated by detecting the driver's mouth from the driver's face image captured by a camera. Therefore, when the driver's mouth is covered, for example, when the driver wears a mask, the camera cannot photograph the driver's mouth, so the degree of opening cannot be calculated.

本開示は以上のような課題を解決するためになされたものであり、人物の口が遮蔽されている場合でも、当該人物の開口度を算出することが可能な開口度算出装置を提供することを目的とする。 SUMMARY OF THE INVENTION The present disclosure has been made to solve the above-described problems, and provides an opening degree calculation device capable of calculating the degree of opening of a person even when the person's mouth is blocked. With the goal.

本開示に係る開口度算出装置は、人物の顔画像から、人物の顔の各部位を検出する顔部位検出部と、顔画像における、人物の顔の口よりも上にある特定部位と顎との間の距離に基づいて、人物の口の開き度合いである開口度を算出する開口度算出部と、を備え、顔部位検出部は、顔画像における人物の特定部位の位置の履歴を記憶する履歴記憶部と、現在の顔画像から人物の特定部位が検出されない場合に、人物の特定部位の位置の履歴から現在の人物の特定部位の位置を推定する推定部と、を備え、現在の顔画像から人物の特定部位が検出されない場合、開口度算出部は、推定された現在の人物の特定部位の位置に基づいて開口度を算出する

The mouth opening degree calculation device according to the present disclosure includes a face part detection unit that detects each part of a person's face from a person's face image, and a specific part above the mouth of the person's face and the chin in the face image. a degree-of-mouth opening calculation unit that calculates the degree of opening, which is the degree of opening of a person's mouth , based on the distance between a current facial image comprising: a history storage unit; If the specific part of the person is not detected from the image, the degree of opening calculation unit calculates the degree of opening based on the estimated current position of the specific part of the person .

本開示に係る開口度算出装置は、人物の顔の口よりも上にある特定部位と顎との間の距離に基づいて開口度を算出できるため、人物の口がマスク等で遮蔽されていても開口度を算出することが可能である。 The degree of mouth opening calculation device according to the present disclosure can calculate the degree of mouth opening based on the distance between the chin and a specific part of the face above the mouth of the person. It is also possible to calculate the degree of mouth opening.

本開示の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。 Objects, features, aspects and advantages of the present disclosure will become more apparent with the following detailed description and accompanying drawings.

実施の形態1に係る開口度算出装置の構成を示す図である。1 is a diagram showing a configuration of an aperture calculation device according to Embodiment 1; FIG. 実施の形態1に係る開口度算出装置の動作を示すフローチャートである。4 is a flowchart showing the operation of the mouth opening degree calculation device according to Embodiment 1; 実施の形態1における開口度算出処理を示すフローチャートである。4 is a flowchart showing opening degree calculation processing according to Embodiment 1. FIG. 開口度算出装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of an opening degree calculation apparatus. 開口度算出装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of an opening degree calculation apparatus. 実施の形態2に係る開口度算出装置の構成を示す図である。FIG. 10 is a diagram showing the configuration of an aperture calculation device according to Embodiment 2; 実施の形態2に係る開口度算出装置の動作を示すフローチャートである。9 is a flowchart showing the operation of the mouth opening degree calculation device according to Embodiment 2; 実施の形態2における開口度補正処理を示すフローチャートである。10 is a flowchart showing aperture correction processing according to Embodiment 2. FIG. 実施の形態3に係る開口度算出装置の構成を示す図である。FIG. 10 is a diagram showing the configuration of an aperture calculation device according to Embodiment 3; 実施の形態3における開口度算出処理を示すフローチャートである。14 is a flowchart showing opening degree calculation processing in Embodiment 3. FIG. 実施の形態3における開口度補正処理を示すフローチャートである。10 is a flowchart showing aperture correction processing in Embodiment 3. FIG. 開口度算出装置の乗員状態判定装置への適用例を示す図である。It is a figure which shows the example of application to a passenger|crew state determination apparatus of an opening degree calculation apparatus. あくび判定部の動作を示すフローチャートである。4 is a flow chart showing the operation of a yawn determination unit; 会話判定部の動作を示すフローチャートである。It is a flowchart which shows operation|movement of a conversation determination part.

<実施の形態1>
図1は、実施の形態1に係る開口度算出装置10の構成を示す図である。図1のように、開口度算出装置10は、顔部位検出部11および開口度算出部12を備えており、ユーザである人物の顔を撮影するカメラ20に接続されている。
<Embodiment 1>
FIG. 1 is a diagram showing the configuration of an aperture calculation device 10 according to Embodiment 1. As shown in FIG. As shown in FIG. 1, the mouth opening degree calculation device 10 includes a face part detection unit 11 and a mouth opening degree calculation unit 12, and is connected to a camera 20 for photographing the face of a person who is a user.

顔部位検出部11は、カメラ20が撮影したユーザの顔の画像(以下「顔画像」という)から、ユーザの顔の各部位を検出する。顔部位検出部11は、顔の部位のうち、少なくとも口および顎と、口よりも上にある特定部位とを検出することが可能である。特定部位としては、例えば目、鼻、眉、眉間、両目の間の中央点、などが考えられるが、眉や眉間は髪の毛で隠れやすいため、目、鼻、両目の間の中央点などが好ましい。 The face part detection unit 11 detects each part of the user's face from an image of the user's face captured by the camera 20 (hereinafter referred to as "face image"). The face part detection unit 11 can detect at least the mouth, the chin, and specific parts above the mouth among the parts of the face. As the specific part, for example, the eyes, nose, eyebrows, between the eyebrows, the center point between the eyes, etc. can be considered, but since the eyebrows and between the eyebrows are easily hidden by hair, the eyes, the nose, the center point between the eyes are preferable. .

開口度算出部12は、顔部位検出部11による顔の各部位の検出結果に基づいてユーザの口の開き度合いである開口度を算出する。開口度算出部12は、顔部位検出部11がユーザの口を検出した場合は口の形状(例えば、顔画像における上唇と下唇との間の距離)から開口度を算出する。しかし、顔部位検出部11がユーザの口を検出できなかった場合には、開口度算出部12は、顔画像における特定部位と顎との間の距離(「特定部位から顎までの距離」ともいう)から開口度を算出する。よって、開口度算出部12は、ユーザの口がマスク等で遮蔽されていても、当該ユーザの開口度を算出することが可能である。 The degree-of-openness calculation unit 12 calculates the degree of opening, which is the degree of opening of the user's mouth, based on the results of detection of each part of the face by the face part detection unit 11 . The degree-of-openness calculation unit 12 calculates the degree of opening from the shape of the mouth (for example, the distance between the upper and lower lips in the face image) when the facial part detection unit 11 detects the user's mouth. However, if the facial part detection unit 11 fails to detect the user's mouth, the opening degree calculation unit 12 calculates the distance between the specific part in the face image and the chin (also called "the distance from the specific part to the chin"). ) to calculate the degree of opening. Therefore, even if the mouth of the user is blocked by a mask or the like, the degree of mouth opening calculation unit 12 can calculate the degree of mouth opening of the user.

図1に示すように、開口度算出部12は、基準データ記憶部121と信頼度算出部122とを備えている。 As shown in FIG. 1 , the mouth opening degree calculation unit 12 includes a reference data storage unit 121 and a reliability calculation unit 122 .

基準データ記憶部121は、人物の特定部位から顎までの距離と開口度との関係を表す基準データが記憶された記憶媒体である。開口度算出部12は、顔部位検出部11が検出したユーザの特定部位から顎までの距離と、基準データ記憶部121に記憶されている基準データとを比較することによって、ユーザの開口度を算出する。 The reference data storage unit 121 is a storage medium storing reference data representing the relationship between the distance from a specific part of a person to the chin and the degree of opening. The degree-of-openness calculation unit 12 compares the distance from the specific part of the user detected by the face part detection unit 11 to the chin with the reference data stored in the reference data storage unit 121, thereby calculating the degree of opening of the user. calculate.

基準データは固定のデータでもよいが、特定部位から顎までの距離と開口度との関係には個人差があるため、基準データは個々のユーザごとに設定されることが望ましい。本実施の形態では、顔部位検出部11がユーザの特定部位、顎および口の全てを検出できたときに、開口度算出部12が、人物の口の形状に基づいて開口度を算出するとともに、検出されたユーザの特定部位から顎までの距離と、算出された開口度とに基づいて、当該ユーザの特定部位から顎までの距離と開口度との関係を演算し、その演算結果を用いて基準データを更新する。それにより、基準データは、現在のユーザに適したデータとなる。 The reference data may be fixed data, but since there are individual differences in the relationship between the distance from the specific site to the jaw and the degree of mouth opening, it is desirable that the reference data be set for each individual user. In the present embodiment, when the facial part detection unit 11 can detect all of the user's specific parts, chin and mouth, the opening degree calculation unit 12 calculates the opening degree based on the shape of the person's mouth. , based on the detected distance from the specific part of the user to the chin and the calculated degree of opening, calculate the relationship between the distance from the specific part of the user to the chin and the degree of opening, and use the calculation result to update the reference data. As a result, the reference data becomes data suitable for the current user.

また、開口度算出装置10が個人認証機能を有する場合(あるいは個人認証機能を有する機器と組み合わされる場合)、基準データ記憶部121に、個々のユーザごとの基準データが保存されてもよい。 Further, when the mouth opening degree calculation device 10 has a personal authentication function (or when combined with a device having a personal authentication function), the reference data storage unit 121 may store reference data for each individual user.

信頼度算出部122は、開口度算出部12が算出する開口度の信頼度を算出する。信頼度の算出方法は任意の方法でよく、例えば、カメラ20が撮影した顔画像の画質(白飛びや黒潰れの程度)や、顔部位検出部11による顔の部位の検出精度、基準データの精度(例えば基準データの更新回数)などに基づいて信頼度を算出してもよい。なお、開口度算出装置10が、開口度の信頼度の情報を必要としないアプリケーションに適用される場合には、信頼度算出部122は省略されてもよい。 The reliability calculation unit 122 calculates the reliability of the degree of mouth opening calculated by the degree of opening calculation unit 12 . An arbitrary method may be used to calculate the reliability. For example, the image quality of the face image captured by the camera 20 (degree of blown-out highlights and blocked-up shadows), the detection accuracy of facial parts by the facial part detection unit 11, and the amount of reference data. The reliability may be calculated based on the accuracy (for example, the number of updates of the reference data). Note that the reliability calculation unit 122 may be omitted when the degree of mouth opening calculation device 10 is applied to an application that does not require information on the degree of reliability of the degree of mouth opening.

次に、図2および図3のフローチャートに基づいて、開口度算出装置10の動作を説明する。 Next, the operation of the degree-of-openness calculation device 10 will be described based on the flow charts of FIGS.

図2を参照し、開口度算出装置10が動作を開始すると、顔部位検出部11が、カメラ20からユーザの顔画像を取得し(ステップS101)、取得した顔画像から顔の各部位を探索する(ステップS102)。 Referring to FIG. 2, when the mouth opening degree calculation device 10 starts operating, the face part detection unit 11 acquires the user's face image from the camera 20 (step S101), and searches for each part of the face from the acquired face image. (step S102).

次に、開口度算出部12が顔画像からユーザの開口度を算出する処理である開口度算出処理が行われる(ステップS103)。図3は、開口度算出処理を示すフローチャートである。 Next, an opening degree calculation process is performed in which the degree of opening calculation unit 12 calculates the degree of opening of the user from the face image (step S103). FIG. 3 is a flowchart showing the opening degree calculation process.

開口度算出処理では、まず、顔部位検出部11により顔画像から口が検出されたか否かが確認される(ステップS201)。口が検出されていれば(ステップS201でYES)、開口度算出部12は、口の形状(例えば、顔画像における上唇と下唇との間の距離)から、開口度を算出する(ステップS202)。さらに、顔部位検出部11により顔画像から特定部位および顎が検出されたか否かが確認される(ステップS203)。特定部位および顎が検出されていれば(ステップS203でYES)、開口度算出部12は、検出されたユーザの特定部位と顎との間の距離とステップS203で算出した開口度とに基づき、信頼度算出部122に記憶されている基準データを更新して(ステップS204)、開口度算出処理を終了する。なお、特定部位および顎が検出されていなければ(ステップS203でNO)、ステップS204は行われない。 In the degree-of-openness calculation process, first, it is confirmed whether or not the mouth is detected from the face image by the facial part detection unit 11 (step S201). If the mouth is detected (YES in step S201), the degree of opening calculation unit 12 calculates the degree of opening from the shape of the mouth (for example, the distance between the upper lip and the lower lip in the face image) (step S202). ). Further, it is confirmed whether or not the specific part and the chin are detected from the face image by the face part detection unit 11 (step S203). If the specific part and the chin have been detected (YES in step S203), the degree-of-openness calculation unit 12, based on the distance between the detected specific part of the user and the chin and the degree of opening calculated in step S203, The reference data stored in the reliability calculation unit 122 is updated (step S204), and the opening calculation process ends. Note that if the specific site and jaw are not detected (NO in step S203), step S204 is not performed.

一方、顔画像から口が検出されていなければ(ステップS201でNO)、顔部位検出部11により特定部位および顎が検出されたか否かが確認される(ステップS205およびS206)。特定部位および顎が検出されていれば(ステップS205およびS206の両方でYES)、開口度算出部12は、特定部位と顎との間の距離に基づいて、ユーザの開口度を算出する(ステップS207)。 On the other hand, if the mouth is not detected from the face image (NO in step S201), it is checked whether or not the specific part and chin have been detected by the facial part detection unit 11 (steps S205 and S206). If the specific site and the chin have been detected (YES in both steps S205 and S206), the degree-of-openness calculator 12 calculates the user's degree of mouth opening based on the distance between the specific site and the chin (step S207).

なお、特定部位または顎が検出されていなければ(ステップS205またはS206でNO)、開口度算出部12は、開口度の算出を失敗したと判断する(ステップS208)。ステップS208が行われた後は、図2のステップS101へ戻る。ステップS208では、開口度算出部12が、開口度の算出を失敗した旨の通知、あるいは、開口度の無効値を出力してもよい。 If the specific part or jaw is not detected (NO in step S205 or S206), the mouth opening degree calculation unit 12 determines that calculation of the mouth opening degree has failed (step S208). After step S208 is performed, the process returns to step S101 in FIG. In step S208, the degree-of-openness calculation unit 12 may output a notification indicating that calculation of the degree of opening has failed, or an invalid value of the degree of opening.

図2に戻り、開口度算出処理(ステップS103)が終了すると、開口度算出部12の信頼度算出部122が、開口度算出処理で算出された開口度の信頼度を算出する(ステップS104)。そして、開口度算出部12が、開口度および信頼度の算出結果を出力し(ステップS105)、ステップS101へ戻る。 Returning to FIG. 2, when the degree of mouth opening calculation processing (step S103) ends, the reliability calculation unit 122 of the degree of opening calculation unit 12 calculates the reliability of the degree of opening calculated in the degree of opening calculation processing (step S104). . Then, the mouth opening degree calculation unit 12 outputs the calculation results of the mouth opening degree and reliability (step S105), and returns to step S101.

このように、実施の形態1に係る開口度算出装置10は、顔の口よりも上にある特定部位(目や鼻など)と顎との間の距離に基づいて開口度を算出することができるため、ユーザの口がマスク等で遮蔽されていても開口度を算出することが可能である。 As described above, the degree of mouth opening calculation device 10 according to the first embodiment can calculate the degree of mouth opening based on the distance between the chin and a specific part (eyes, nose, etc.) above the mouth of the face. Therefore, even if the user's mouth is covered with a mask or the like, the degree of mouth opening can be calculated.

図4および図5は、それぞれ開口度算出装置10のハードウェア構成の例を示す図である。図1に示した開口度算出装置10の構成要素の各機能は、例えば図4に示す処理回路50により実現される。すなわち、開口度算出装置10は、人物の顔画像から人物の顔の各部位を検出し、顔画像における、人物の顔の口よりも上にある特定部位と顎との間の距離に基づいて、人物の口の開き度合いである開口度を算出するための処理回路50を備える。処理回路50は、専用のハードウェアであってもよいし、メモリに格納されたプログラムを実行するプロセッサ(中央処理装置(CPU:Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)とも呼ばれる)を用いて構成されていてもよい。 4 and 5 are diagrams each showing an example of the hardware configuration of the aperture calculation device 10. FIG. Each function of the constituent elements of the mouth opening degree calculation device 10 shown in FIG. 1 is realized by, for example, a processing circuit 50 shown in FIG. That is, the mouth opening calculation device 10 detects each part of the person's face from the face image of the person, and based on the distance between the chin and a specific part of the person's face above the mouth in the face image , a processing circuit 50 for calculating the degree of mouth opening of a person. The processing circuit 50 may be dedicated hardware, or a processor (central processing unit (CPU: Central Processing Unit), processing device, arithmetic device, microprocessor, microcomputer, etc.) that executes a program stored in a memory. Also called a DSP (Digital Signal Processor)).

処理回路50が専用のハードウェアである場合、処理回路50は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものなどが該当する。開口度算出装置10の構成要素の各々の機能が個別の処理回路で実現されてもよいし、それらの機能がまとめて一つの処理回路で実現されてもよい。 When the processing circuit 50 is dedicated hardware, the processing circuit 50 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a combination of these. Each function of the constituent elements of the aperture calculation device 10 may be implemented by individual processing circuits, or these functions may be collectively implemented by one processing circuit.

図5は、処理回路50がプログラムを実行するプロセッサ51を用いて構成されている場合における開口度算出装置10のハードウェア構成の例を示している。この場合、開口度算出装置10の構成要素の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせ)により実現される。ソフトウェア等はプログラムとして記述され、メモリ52に格納される。プロセッサ51は、メモリ52に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、開口度算出装置10は、プロセッサ51により実行されるときに、人物の顔画像から、人物の顔の各部位を検出する処理と、顔画像における、人物の顔の口よりも上にある特定部位と顎との間の距離に基づいて、人物の口の開き度合いである開口度を算出する処理と、が結果的に実行されることになるプログラムを格納するためのメモリ52を備える。換言すれば、このプログラムは、開口度算出装置10の構成要素の動作の手順や方法をコンピュータに実行させるものであるともいえる。 FIG. 5 shows an example of the hardware configuration of the aperture calculation device 10 when the processing circuit 50 is configured using a processor 51 that executes a program. In this case, the functions of the constituent elements of the aperture calculation device 10 are implemented by software or the like (software, firmware, or a combination of software and firmware). Software or the like is written as a program and stored in the memory 52 . The processor 51 implements the function of each part by reading and executing the program stored in the memory 52 . That is, when executed by the processor 51, the mouth opening degree calculation device 10 performs a process of detecting each part of a person's face from a person's face image, and a process of detecting each part of the person's face above the mouth in the face image. A memory 52 is provided for storing a program that results in the execution of a process of calculating the degree of opening, which is the degree of opening of a person's mouth, based on the distance between the specific part and the chin. In other words, it can be said that this program causes a computer to execute the procedures and methods of the operations of the constituent elements of the degree-of-openness calculation device 10 .

ここで、メモリ52は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)およびそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。 Here, the memory 52 is, for example, a non-volatile or Volatile semiconductor memory, HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disc) and its drive device, etc., or any storage medium that will be used in the future. may

以上、開口度算出装置10の構成要素の機能が、ハードウェアおよびソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、開口度算出装置10の一部の構成要素を専用のハードウェアで実現し、別の一部の構成要素をソフトウェア等で実現する構成であってもよい。例えば、一部の構成要素については専用のハードウェアとしての処理回路50でその機能を実現し、他の一部の構成要素についてはプロセッサ51としての処理回路50がメモリ52に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。 The configuration in which the functions of the components of the mouth opening degree calculation device 10 are realized by either hardware or software has been described above. However, the configuration is not limited to this, and may be a configuration in which some of the constituent elements of the opening degree calculation device 10 are realized by dedicated hardware, and other constituent elements are realized by software or the like. For example, the functions of some of the components are realized by the processing circuit 50 as dedicated hardware, and the processing circuit 50 as a processor 51 executes the programs stored in the memory 52 for some of the other components. Its function can be realized by reading and executing it.

以上のように、開口度算出装置10は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。 As described above, the mouth opening degree calculation device 10 can realize each of the functions described above using hardware, software, etc., or a combination thereof.

なお、図1においては、カメラ20が開口度算出装置10に外付けされた構成を示したが、カメラ20は開口度算出装置10に内蔵されてもよい。また、顔部位検出部11および開口度算出部12の機能の一部は、開口度算出装置10と通信可能な外部のサーバー上で実現されていてもよい。 Although FIG. 1 shows a configuration in which the camera 20 is externally attached to the degree of mouth opening calculation device 10 , the camera 20 may be built in the degree of opening calculation device 10 . Also, part of the functions of the facial part detection unit 11 and the degree of opening calculation unit 12 may be implemented on an external server that can communicate with the degree of opening calculation device 10 .

また、開口度算出装置10が個人認証機能を有する場合、システムと併用する場合は過去の保存情報を使用することも可とする。 In addition, when the mouth opening degree calculation device 10 has a personal authentication function, it is also possible to use past stored information when using it together with the system.

<実施の形態2>
実施の形態1はユーザの顔とカメラ20との位置関係が一定であるとの前提に立ったものであるが、実際には、カメラ20に対するユーザの顔の向きが変化したり、ユーザの顔とカメラ20との間の距離が変化したりすることが想定される。カメラ20に対するユーザの顔の向きが変化すると、顔画像における特定部位と顎との間の距離が変化する。また、ユーザの顔とカメラ20との距離が変化すると、顔画像におけるユーザの顔のサイズが変化するため、顔画像における特定部位と顎との間の距離が変化する。よって、顔画像における特定部位と顎との間の距離から開口度を算出する場合には、顔画像におけるユーザの顔の向きおよびサイズを考慮して、算出される開口度を補正することが好ましい。そこで、実施の形態2では、顔画像におけるユーザの顔の向きおよびサイズを加味して、開口度を算出する開口度算出装置10を提案する。
<Embodiment 2>
Embodiment 1 is based on the premise that the positional relationship between the user's face and the camera 20 is constant. and the camera 20 may change. When the orientation of the user's face with respect to the camera 20 changes, the distance between the specific part in the face image and the chin changes. Further, when the distance between the user's face and the camera 20 changes, the size of the user's face in the face image changes, so the distance between the specific part in the face image and the chin changes. Therefore, when calculating the degree of opening from the distance between the specific part in the face image and the chin, it is preferable to correct the calculated degree of opening in consideration of the orientation and size of the user's face in the face image. . Accordingly, the second embodiment proposes an opening degree calculation device 10 that calculates the degree of opening in consideration of the orientation and size of the user's face in the face image.

図6は、実施の形態2に係る開口度算出装置10の構成を示す図である。図6の開口度算出装置10の構成は、図1の構成に対し、顔向き算出部13および顔サイズ算出部14を追加するとともに、開口度算出部12に開口度補正部123を設けたものである。 FIG. 6 is a diagram showing the configuration of the degree-of-openness calculation device 10 according to the second embodiment. The configuration of the mouth opening degree calculation device 10 in FIG. 6 is obtained by adding a face orientation calculation unit 13 and a face size calculation unit 14 to the configuration in FIG. is.

顔向き算出部13は、カメラ20が撮影した顔画像における顔の各部位の位置関係から、カメラ20に対するユーザの顔の向きを算出する。顔サイズ算出部14は、カメラ20が撮影した顔画像から、ユーザの顔の輪郭を検出して、ユーザの顔のサイズを算出する。 The face orientation calculation unit 13 calculates the orientation of the user's face with respect to the camera 20 from the positional relationship of each part of the face in the face image captured by the camera 20 . The face size calculator 14 detects the contour of the user's face from the face image captured by the camera 20, and calculates the size of the user's face.

開口度算出部12の開口度補正部123は、顔向き算出部13が算出したユーザの顔の向きおよび顔サイズ算出部14が算出したユーザの顔のサイズに基づいて、開口度算出部12が算出したユーザの開口度を補正する。 The openness correction unit 123 of the openness calculation unit 12 corrects the opening degree calculation unit 12 based on the orientation of the user's face calculated by the face orientation calculation unit 13 and the size of the user's face calculated by the face size calculation unit 14. The calculated degree of opening of the user is corrected.

例えば、カメラ20がユーザの顔の正面やや上方、顔から50cmの位置に配置された状態を通常状態と仮定する。この場合、ユーザが下を向くと、顔画像における特定部位と顎との間の距離は通常状態よりも小さくなり、開口度算出部12により算出される開口度は通常状態よりも小さくなるため、開口度補正部123は、開口度算出部12が算出した開口度を大きくする補正を行う。また、ユーザがカメラ20に顔を近づけ、顔とカメラ20との間の距離が50cmよりも小さくなると、顔画像における顔のサイズが通常状態よりも大きくなり、開口度算出部12により算出される開口度は通常状態よりも大きくなるため、開口度補正部123は、開口度算出部12が算出した開口度を小さくする補正を行う。開口度算出部12からは、補正後の開口度が出力される。その結果、開口度算出部12から出力されるユーザの開口度は、顔画像におけるユーザの顔の向きおよびサイズが加味された値となる。 For example, it is assumed that the normal state is a state in which the camera 20 is positioned slightly above the front of the user's face and at a position 50 cm from the face. In this case, when the user looks down, the distance between the specific part in the facial image and the chin becomes smaller than in the normal state, and the degree of opening calculated by the degree-of-openness calculation unit 12 becomes smaller than in the normal state. The degree-of-openness correction unit 123 performs correction to increase the degree of opening calculated by the degree-of-openness calculation unit 12 . Further, when the user brings the face closer to the camera 20 and the distance between the face and the camera 20 becomes smaller than 50 cm, the size of the face in the face image becomes larger than the normal state, and the opening degree calculation unit 12 calculates the size of the face. Since the degree of opening is larger than that in the normal state, the degree of opening correcting section 123 performs correction to reduce the degree of opening calculated by the degree of opening calculating section 12 . The opening degree calculator 12 outputs the corrected opening degree. As a result, the user's mouth opening degree output from the mouth opening degree calculation unit 12 is a value that takes into consideration the orientation and size of the user's face in the face image.

なお、開口度算出部12の信頼度算出部122の動作は、実施の形態1と同じでよいが、信頼度算出部122も、ユーザの顔の向きおよびサイズを加味して、開口度の信頼度を算出してもよい。 The operation of the reliability calculation unit 122 of the degree of mouth opening calculation unit 12 may be the same as that in the first embodiment. degrees can be calculated.

図7は、実施の形態2に係る開口度算出装置10の動作を示すフローチャートである。図7のフローは、図2のフローの開口度算出処理(ステップS103)の後に、ステップS103で算出された開口度を補正する開口度補正処理(ステップS103a)を追加したものである。それ以外のステップは図2と同じであるため、ここでは開口度補正処理についてのみ説明する。 FIG. 7 is a flow chart showing the operation of the degree-of-openness calculation device 10 according to the second embodiment. The flow of FIG. 7 is obtained by adding an opening degree correction process (step S103a) for correcting the opening degree calculated in step S103 after the opening degree calculation process (step S103) of the flow of FIG. Since the other steps are the same as those in FIG. 2, only the aperture correction process will be described here.

図8は、開口度補正処理のフローチャートである。開口度補正処理が開始されると、顔向き算出部13がユーザの顔の向きを算出できたか否か、および、顔サイズ算出部14がユーザの顔のサイズを算出できたか否かが確認される(ステップS301およびS302)。ユーザの顔の向きおよびサイズが算出されていれば(ステップS301およびS302の両方でYES)、開口度補正部123が、ユーザの顔の向きおよびサイズに基づき、開口度算出処理(図7のステップS103)で算出された開口度を補正して(ステップS303)、開口度補正処理を終了する。なお、ユーザの顔の向きおよびサイズのいずれかが算出されていなければ(ステップS301またはS302でNO)、開口度算出部12は、開口度の算出を失敗したと判断する(ステップS304)。ステップS304が行われた後は、図7のステップS101へ戻る。ステップS304では、開口度算出部12が、開口度の算出を失敗した旨の通知、あるいは、開口度の無効値を出力してもよい。 FIG. 8 is a flowchart of the aperture correction process. When the degree of opening correction process is started, it is confirmed whether or not the face orientation calculation unit 13 has calculated the orientation of the user's face, and whether or not the face size calculation unit 14 has calculated the size of the user's face. (steps S301 and S302). If the orientation and size of the user's face have been calculated (YES in both steps S301 and S302), the degree-of-openness correction unit 123 performs the degree-of-openness calculation processing (step The degree of opening calculated in S103) is corrected (step S303), and the degree of opening correcting process ends. If either the orientation or size of the user's face has not been calculated (NO in step S301 or S302), the degree of mouth opening calculation unit 12 determines that the degree of mouth opening has been calculated unsuccessfully (step S304). After step S304 is performed, the process returns to step S101 in FIG. In step S304, the degree-of-openness calculation unit 12 may output a notification indicating that calculation of the degree of opening has failed, or an invalid value of the degree of opening.

このように、実施の形態2に係る開口度算出装置10は、顔画像におけるユーザの顔の向きおよびサイズを加味して開口度を算出することができるため、ユーザの顔とカメラ20との位置関係が一定しない場合でも、高い精度で開口度を算出することが可能である。 As described above, since the degree of mouth opening calculation device 10 according to Embodiment 2 can calculate the degree of opening taking into consideration the orientation and size of the user's face in the face image, the position of the user's face and the camera 20 is calculated. Even if the relationship is not constant, it is possible to calculate the degree of opening with high accuracy.

<実施の形態3>
実施の形態1および2の開口度算出装置10では、顔画像からユーザの特定部位および顎を検出できなかった場合や、顔画像から顔の向きおよびサイズを算出できなかった場合、開口度の算出を失敗したと判断されていた。実施の形態3では、そのような場合に、ユーザの特定部位の位置、顎の位置、顔の向きおよびサイズを推定し、その推定結果を用いて開口度を算出できる開口度算出装置10を提案する。
<Embodiment 3>
In the mouth opening calculation device 10 of Embodiments 1 and 2, when the user's specific part and chin cannot be detected from the face image, or when the orientation and size of the face cannot be calculated from the face image, the mouth opening calculation is performed. was judged to have failed. Embodiment 3 proposes an opening degree calculation device 10 capable of estimating the position of a specific part of the user, the position of the chin, the direction and size of the face, and calculating the degree of opening using the estimation results in such a case. do.

図9は、実施の形態3に係る開口度算出装置10の構成を示す図である。図9の開口度算出装置10の構成は、図6の構成に対し、顔部位検出部11に履歴記憶部111および推定部112を、顔向き算出部13に履歴記憶部131および推定部132を、顔サイズ算出部14に履歴記憶部141および推定部142を、それぞれ設けたものである。 FIG. 9 is a diagram showing the configuration of the degree-of-openness calculation device 10 according to the third embodiment. 9 is different from the configuration shown in FIG. , a history storage unit 141 and an estimation unit 142 are provided in the face size calculation unit 14, respectively.

顔部位検出部11の履歴記憶部111および推定部112について説明する。履歴記憶部111は、顔画像の過去フレームで検出したユーザの特定部位の位置の履歴と、顔画像の過去フレームで検出したユーザの顎の位置の履歴とを記憶する。推定部112は、現在の顔画像からユーザの特定部位が検出されない場合に、履歴記憶部111に記憶されているユーザの特定部位の位置の履歴から、ユーザの特定部位の位置の軌跡を求め、その軌跡に基づいて現在のユーザの特定部位の位置を推定する。この場合、開口度算出部12は、推定された現在のユーザの特定部位の位置に基づいて開口度を算出する。また、推定部112は、現在の顔画像からユーザの顎が検出されない場合に、履歴記憶部111に記憶されているユーザの顎の位置の履歴から、ユーザの顎の位置の軌跡を求め、その軌跡に基づいて現在のユーザの顎の位置を推定する。この場合、開口度算出部12は、推定された現在のユーザの顎の位置に基づいて、開口度を算出する。なお、履歴記憶部111に記憶される特定部位の位置の履歴および顎の位置の履歴には、過去に推定部112が推定した特定部位の位置および顎の位置が含まれていてもよい。 The history storage unit 111 and the estimation unit 112 of the face part detection unit 11 will be described. The history storage unit 111 stores a history of positions of specific parts of the user detected in past frames of the face image and a history of positions of the user's chin detected in past frames of the face image. When the specific part of the user is not detected from the current face image, the estimating unit 112 obtains the trajectory of the position of the specific part of the user from the history of the positions of the specific part of the user stored in the history storage unit 111, Based on the trajectory, the current position of the specific part of the user is estimated. In this case, the mouth opening degree calculation unit 12 calculates the mouth opening degree based on the estimated position of the current specific part of the user. In addition, when the user's jaw is not detected from the current face image, the estimation unit 112 obtains the trajectory of the user's jaw position from the history of the user's jaw position stored in the history storage unit 111. Estimate the current user jaw position based on the trajectory. In this case, the mouth opening degree calculation unit 12 calculates the mouth opening degree based on the estimated current position of the user's jaw. The history of the position of the specific part and the history of the position of the jaw stored in the history storage unit 111 may include the position of the specific part and the position of the jaw estimated by the estimation unit 112 in the past.

顔向き算出部13の履歴記憶部131および推定部132について説明する。履歴記憶部131は、顔画像の過去フレームで検出したユーザの顔の向きの履歴を記憶する。推定部132は、現在の顔画像からユーザの顔の向きが算出できない場合に、履歴記憶部131に記憶されているユーザの顔の向きの履歴から、ユーザの顔の向きの軌跡を求め、その軌跡に基づいて現在のユーザの顔の向きを推定する。この場合、開口度算出部12の開口度補正部123は、推定された現在のユーザの顔の向きに基づいて開口度を補正する。なお、履歴記憶部131に記憶される顔の向きの履歴には、過去に推定部132が推定した顔の向きが含まれていてもよい。 The history storage unit 131 and the estimation unit 132 of the face orientation calculation unit 13 will be described. The history storage unit 131 stores a history of the orientation of the user's face detected in past frames of the face image. When the user's face orientation cannot be calculated from the current face image, the estimation unit 132 obtains the trajectory of the user's face orientation from the history of the user's face orientation stored in the history storage unit 131, and calculates the trajectory of the user's face orientation. Estimate the current user's face orientation based on the trajectory. In this case, the degree-of-openness correction unit 123 of the degree-of-openness calculation unit 12 corrects the degree of opening based on the estimated current orientation of the user's face. Note that the face orientation history stored in the history storage unit 131 may include the face orientation estimated by the estimation unit 132 in the past.

顔サイズ算出部14の履歴記憶部141および推定部142について説明する。履歴記憶部141は、顔画像の過去フレームで検出したユーザの顔のサイズの履歴を記憶する。推定部142は、現在の顔画像からユーザの顔のサイズが算出できない場合に、履歴記憶部141に記憶されているユーザの顔のサイズの履歴から、ユーザの顔のサイズの軌跡を求め、その軌跡に基づいて現在のユーザの顔のサイズを推定する。この場合、開口度算出部12の開口度補正部123は、推定された現在のユーザの顔のサイズに基づいて開口度を補正する。なお、履歴記憶部141に記憶される顔のサイズの履歴には、過去に推定部142が推定した顔のサイズが含まれていてもよい。 The history storage unit 141 and the estimation unit 142 of the face size calculation unit 14 will be described. The history storage unit 141 stores a history of the size of the user's face detected in past frames of the face image. When the size of the user's face cannot be calculated from the current face image, the estimation unit 142 obtains the trajectory of the size of the user's face from the history of the user's face size stored in the history storage unit 141. Estimate the size of the current user's face based on the trajectory. In this case, the degree of mouth opening correction unit 123 of the degree of opening calculation unit 12 corrects the degree of opening based on the estimated size of the current face of the user. Note that the face size history stored in the history storage unit 141 may include the face size previously estimated by the estimation unit 142 .

実施の形態3に係る開口度算出装置10の基本的な動作は実施の形態2で示した図7のフローと同様であるが、開口度算出処理(ステップS103)および開口度補正処理(ステップS103a)の内容が実施の形態2とは異なる。よって、ここでは実施の形態3における開口度算出処理および開口度補正処理について説明する。 The basic operation of the degree-of-openness calculation device 10 according to the third embodiment is the same as the flow of FIG. ) is different from that in the second embodiment. Therefore, the degree-of-opening calculation processing and the degree-of-opening correction processing according to the third embodiment will be described here.

図10は、実施の形態3における開口度算出処理を示すフローチャートである。開口度算出処理が開始されると、顔部位検出部11により顔画像から口が検出されたか否かが確認される(ステップS201)。口が検出されていれば(ステップS201でYES)、図3と同様のステップ201~204の処理が実行される。ステップ201~204の処理は、実施の形態1で説明したとおりであるため、ここでは説明を省略する。 FIG. 10 is a flowchart showing opening degree calculation processing according to the third embodiment. When the degree-of-openness calculation process is started, it is checked whether or not the mouth is detected from the face image by the facial part detection unit 11 (step S201). If the mouth is detected (YES in step S201), the processing of steps 201 to 204 similar to that of FIG. 3 is executed. Since the processes of steps 201 to 204 are the same as those described in the first embodiment, the description is omitted here.

顔画像から口が検出されていなければ(ステップS201でNO)、顔部位検出部11により特定部位および顎が検出されたか否かが確認される(ステップS205およびS206)。特定部位および顎が検出されていれば(ステップS205およびS206の両方でYES)、開口度算出部12は、特定部位と顎との間の距離に基づいて、ユーザの開口度を算出する(ステップS207)。 If the mouth is not detected from the face image (NO in step S201), it is checked whether or not the specific part and chin have been detected by the facial part detection unit 11 (steps S205 and S206). If the specific site and the chin have been detected (YES in both steps S205 and S206), the degree-of-openness calculator 12 calculates the user's degree of mouth opening based on the distance between the specific site and the chin (step S207).

しかし、特定部位が検出されていなければ(ステップS205でNO)、顔部位検出部11の推定部112が、履歴記憶部111に記憶されている特定部位の位置の履歴を参照し、当該履歴から現在の特定部位の位置を推定可能か否か(具体的には、履歴から特定部位の位置の軌跡が得られるか否か)を判断する(ステップS205a)。現在の特定部位の位置を推定可能であれば(ステップS205aでYES)、推定部112は、現在の特定部位の位置を推定する(ステップS205b)。 However, if the specific part is not detected (NO in step S205), the estimation unit 112 of the facial part detection unit 11 refers to the history of the position of the specific part stored in the history storage unit 111, and from the history, It is determined whether or not the current position of the specific part can be estimated (specifically, whether or not the trajectory of the position of the specific part can be obtained from the history) (step S205a). If the current position of the specific part can be estimated (YES in step S205a), the estimation unit 112 estimates the current position of the specific part (step S205b).

また、顎が検出されていなければ(ステップS206でNO)、顔部位検出部11の推定部112が、履歴記憶部111に記憶されている顎の位置の履歴を参照し、当該履歴から現在の顎の位置を推定可能か否か(具体的には、履歴から顎の位置の軌跡が得られるか否か)を判断する(ステップS206a)。現在の顎の位置を推定可能であれば(ステップS206aでYES)、推定部112は、現在の顎の位置を推定する(ステップS206b)。 If the chin is not detected (NO in step S206), the estimation unit 112 of the facial part detection unit 11 refers to the history of the chin position stored in the history storage unit 111, It is determined whether or not the position of the jaw can be estimated (specifically, whether or not the trajectory of the position of the jaw can be obtained from the history) (step S206a). If the current jaw position can be estimated (YES in step S206a), the estimation unit 112 estimates the current jaw position (step S206b).

特定部位の位置の推定(ステップS205b)、または顎の位置の推定(ステップS206a)が行われた場合、ステップS207では、開口度算出部12が、その推定結果を用いて、ユーザの開口度を算出する。 When the position of the specific part is estimated (step S205b) or the jaw position is estimated (step S206a), in step S207, the degree of opening calculation unit 12 uses the estimation result to calculate the degree of opening of the user. calculate.

なお、ステップS205aまたはS206aにおいて、現在の特定部位または顎の位置が推定不可能と判断された場合には、開口度算出部12は、開口度の算出を失敗したと判断する(ステップS208)。ステップS208が行われた後は、図7のステップS101へ戻る。 If it is determined in step S205a or S206a that the current position of the specific part or jaw cannot be estimated, the degree of mouth opening calculation unit 12 determines that calculation of the degree of mouth opening has failed (step S208). After step S208 is performed, the process returns to step S101 in FIG.

図11は、実施の形態3における開口度補正処理のフローチャートである。開口度補正処理が開始されると、顔向き算出部13がユーザの顔の向きを算出できたか否か、および、顔サイズ算出部14がユーザの顔のサイズを算出できたか否かが確認される(ステップS301およびS302)。ユーザの顔の向きおよびサイズが算出されていれば(ステップS301およびS302の両方でYES)、開口度補正部123は、ユーザの顔の向きおよびサイズに基づき、開口度算出処理(図7のステップS103)で算出された開口度を補正して(ステップS303)、開口度補正処理を終了する。 FIG. 11 is a flowchart of aperture correction processing according to the third embodiment. When the degree of opening correction process is started, it is confirmed whether or not the face orientation calculation unit 13 has calculated the orientation of the user's face, and whether or not the face size calculation unit 14 has calculated the size of the user's face. (steps S301 and S302). If the direction and size of the user's face have been calculated (YES in both steps S301 and S302), the degree-of-openness correction unit 123 performs the degree-of-openness calculation processing (step The degree of opening calculated in S103) is corrected (step S303), and the degree of opening correcting process ends.

しかし、ユーザの顔の向きが算出されていなければ(ステップS301でNO)、顔向き算出部13の推定部132が、履歴記憶部131に記憶されているユーザの顔の向きの履歴を参照し、当該履歴から現在の顔の向きを推定可能か否か(具体的には、履歴から顔の向きの軌跡が得られるか否か)を判断する(ステップS301a)。現在の顔の向きを推定可能であれば(ステップS301aでYES)、推定部132は、現在の顔の向きを推定する(ステップS301b)。 However, if the user's face orientation has not been calculated (NO in step S301), the estimation unit 132 of the face orientation calculation unit 13 refers to the history of the user's face orientation stored in the history storage unit 131. , it is determined whether or not the current face orientation can be estimated from the history (specifically, whether or not the trajectory of the face orientation can be obtained from the history) (step S301a). If the current face orientation can be estimated (YES in step S301a), the estimation unit 132 estimates the current face orientation (step S301b).

また、ユーザの顔のサイズが算出されていなければ(ステップS302でNO)、顔サイズ算出部14の推定部142は、履歴記憶部141に記憶されているユーザの顔のサイズの履歴を参照し、当該履歴から現在の顔のサイズを推定可能か否か(具体的には、履歴から顔のサイズの軌跡が得られるか否か)を判断する(ステップS302a)。現在の顔のサイズを推定可能であれば(ステップS302aでYES)、推定部142は、現在の顔のサイズを推定する(ステップS302b)。 If the user's face size has not been calculated (NO in step S302), the estimation unit 142 of the face size calculation unit 14 refers to the history of the user's face size stored in the history storage unit 141. , whether or not the current face size can be estimated from the history (specifically, whether or not the locus of the face size can be obtained from the history) is determined (step S302a). If the current face size can be estimated (YES in step S302a), the estimation unit 142 estimates the current face size (step S302b).

なお、ステップS301aまたはS302aにおいて、現在の顔の向きおよびサイズが推定不可能と判断された場合には、開口度算出部12は、開口度の算出を失敗したと判断する(ステップS304)。ステップS304が行われた後は、図7のステップS101へ戻る。 If it is determined in step S301a or S302a that the current face orientation and size cannot be estimated, the degree of mouth opening calculation unit 12 determines that the degree of mouth opening calculation has failed (step S304). After step S304 is performed, the process returns to step S101 in FIG.

このように、実施の形態3に係る開口度算出装置10は、顔画像からユーザの特定部位および顎を検出できなかった場合や、顔画像から顔の向きおよびサイズを算出できなかった場合でも、それらを推定することにより、開口度の算出を行うことができる。 As described above, the mouth opening degree calculation device 10 according to the third embodiment can detect the user's specific part and chin from the face image, or even when the face orientation and size cannot be calculated from the face image. By estimating them, the degree of opening can be calculated.

なお、実施の形態3において、信頼度算出部122は、開口度算出部12が開口度の算出に用いた情報(特定部位の位置、顎の位置、顔の向き、顔のサイズ)のうち、推定された事項が多いほど(つまり、検出または算出できなかった事項が多いほど)、開口度の信頼度は低くなると判断するとよい。 In Embodiment 3, the reliability calculation unit 122 uses the information (the position of the specific part, the position of the chin, the orientation of the face, the size of the face) used by the mouth opening calculation unit 12 to calculate the degree of opening, It may be determined that the more items that are estimated (that is, the more items that could not be detected or calculated), the lower the reliability of the degree of mouth opening.

<実施の形態4>
実施の形態4では、開口度算出装置10が適用される具体的なアプリケーションの一例を示す。図12は、開口度算出装置10を、乗員状態判定装置30へ適用した例を示す図である。図12に示されている開口度算出装置10は、実施の形態1~3のいずれに係るものでもよい。
<Embodiment 4>
Embodiment 4 shows an example of a specific application to which the degree of opening calculation device 10 is applied. FIG. 12 is a diagram showing an example in which the degree of opening calculation device 10 is applied to the occupant state determination device 30. As shown in FIG. The opening degree calculation device 10 shown in FIG. 12 may be according to any one of the first to third embodiments.

乗員状態判定装置30は、車両の乗員(運転者を含む)の状態を判定する車載装置であり、乗員があくびをしているか否かを判定するあくび判定部31と、乗員が会話をしているか否かを判定する会話判定部32とを備えている。例えば、乗員状態判定装置30は、あくびをしている乗員は覚醒度が低いと判定したり、会話をしている乗員は覚醒度が高いと判断したりする。なお、乗員状態判定装置30は、あくび判定部31および会話判定部32のうちの片方だけを備えてもよい。 The occupant state determination device 30 is an in-vehicle device that determines the state of a vehicle occupant (including a driver). and a conversation determination unit 32 for determining whether or not the user is present. For example, the occupant state determination device 30 determines that a yawning occupant has a low wakefulness level, or that a conversational occupant has a high alertness level. Note that the occupant state determination device 30 may include only one of the yawn determination section 31 and the conversation determination section 32 .

実施の形態4において、開口度算出装置10のユーザは、乗員状態判定装置30が搭載された車両の乗員である。すなわち、カメラ20は乗員の顔画像を撮影し、開口度算出装置10は乗員の開口度およびその信頼度を算出する。また、開口度算出装置10の出力、すなわち乗員の開口度およびその信頼度は、乗員状態判定装置30のあくび判定部31および会話判定部32に提供される。 In the fourth embodiment, the user of the degree of opening calculation device 10 is an occupant of a vehicle in which the occupant state determination device 30 is mounted. That is, the camera 20 captures an image of the passenger's face, and the degree of opening calculation device 10 calculates the degree of opening of the passenger and its reliability. In addition, the output of the degree-of-openness calculation device 10 , that is, the degree of opening of the occupant and its reliability is provided to the yawning determination section 31 and the conversation determination section 32 of the occupant state determination device 30 .

図13は、あくび判定部31の動作を示すフローチャートである。以下、図13を参照して、あくび判定部31の動作を説明する。 FIG. 13 is a flow chart showing the operation of the yawn determination unit 31. As shown in FIG. The operation of the yawn determination unit 31 will be described below with reference to FIG.

あくび判定部31は、開口度算出装置10が算出した乗員の開口度およびその信頼度を取得する(ステップS401)。そして、あくび判定部31は、乗員の開口度が予め定められた閾値以上となった状態が一定時間以上続いているか否かを確認する(ステップS402)。 The yawn determination unit 31 acquires the occupant's degree of opening calculated by the degree of opening calculation device 10 and its reliability (step S401). Then, the yawn determination unit 31 confirms whether or not the state in which the opening degree of the occupant is equal to or greater than a predetermined threshold has continued for a certain period of time or longer (step S402).

乗員の開口度が閾値以上となった状態が一定時間以上続いている場合(ステップS402でYES)、あくび判定部31はさらに、当該開口度の信頼度が予め定められた閾値以上か否かを確認する(ステップS403)。このとき開口度の信頼度が閾値以上であれば(ステップS403でYES)、あくび判定部31は乗員があくびをしていると判定する(ステップS404)。しかし、開口度の信頼度が閾値より低ければ(ステップS403でNO)、あくび判定部31はあくびの判定を失敗したと判断する(ステップS405)。ステップS405では、あくび判定部31が、あくびの判定を失敗した旨の通知、あるいは、あくび判定の無効値を出力してもよい。 If the degree of opening of the occupant has remained equal to or greater than the threshold for a certain period of time or longer (YES in step S402), the yawning determination unit 31 further determines whether the reliability of the degree of opening is equal to or greater than a predetermined threshold. Confirm (step S403). At this time, if the reliability of the degree of opening is equal to or higher than the threshold (YES in step S403), the yawning determination unit 31 determines that the occupant is yawning (step S404). However, if the reliability of the degree of mouth opening is lower than the threshold (NO in step S403), the yawning determination unit 31 determines that the yawning determination has failed (step S405). In step S405, the yawn determination unit 31 may output a notification indicating that yawn determination has failed, or an invalid value for yawn determination.

一方、乗員の開口度が閾値以上となった状態が一定時間以上続いていない場合も(ステップS402でNO)、あくび判定部31はさらに、当該開口度の信頼度が予め定められた閾値以上か否かを確認する(ステップS406)。このとき開口度の信頼度が閾値以上であれば(ステップS406でYES)、あくび判定部31は乗員があくびをしていないと判定する(ステップS407)。しかし、開口度の信頼度が閾値より低ければ(ステップS406でNO)、あくび判定部31はあくびの判定を失敗したと判断する(ステップS408)。ステップS408でも、あくび判定部31は、あくびの判定を失敗した旨の通知、あるいは、あくび判定の無効値を出力してもよい。 On the other hand, if the degree of opening of the occupant has not continued for a certain period of time or longer (NO in step S402), the yawning determination unit 31 further determines whether the reliability of the degree of opening is equal to or greater than the predetermined threshold. Confirm whether or not (step S406). At this time, if the reliability of the degree of opening is greater than or equal to the threshold (YES in step S406), the yawning determination unit 31 determines that the occupant is not yawning (step S407). However, if the reliability of the degree of mouth opening is lower than the threshold (NO in step S406), the yawn determination unit 31 determines that the yawn determination has failed (step S408). Also in step S408, the yawn determination unit 31 may output a notification indicating that yawn determination has failed, or an invalid value for yawn determination.

あくび判定部31は、以上の動作を繰り返し実行する。なお、ステップS403で用いられる信頼度の閾値と、ステップS406で用いられる信頼度の閾値とは、互いに同じ値でも、互いに異なる値でもよい。 The yawn determination unit 31 repeats the above operations. Note that the reliability threshold used in step S403 and the reliability threshold used in step S406 may be the same value or different values.

図14は、会話判定部32の動作を示すフローチャートである。以下、図14を参照して、会話判定部32の動作を説明する。 FIG. 14 is a flow chart showing the operation of the conversation determining section 32. As shown in FIG. The operation of the conversation determination unit 32 will be described below with reference to FIG.

会話判定部32は、開口度算出装置10が算出した乗員の開口度およびその信頼度を取得する(ステップS501)。そして、会話判定部32は、乗員の開口度が周期的に変化しているか否かを確認する(ステップS502)。 The conversation determination unit 32 acquires the occupant's degree of opening calculated by the degree of opening calculation device 10 and its reliability (step S501). Then, the conversation determination unit 32 confirms whether or not the opening degree of the passenger is periodically changing (step S502).

乗員の開口度が周期的に変化している場合(ステップS502でYES)、会話判定部32はさらに、当該開口度の信頼度が予め定められた閾値以上か否かを確認する(ステップS503)。このとき開口度の信頼度が閾値以上であれば(ステップS503でYES)、会話判定部32は乗員が会話をしていると判定する(ステップS504)。しかし、開口度の信頼度が閾値より低ければ(ステップS503でNO)、会話判定部32は会話の判定を失敗したと判断する(ステップS505)。ステップS505では、会話判定部32が、会話の判定を失敗した旨の通知、あるいは、会話判定の無効値を出力してもよい。 If the occupant's openness is periodically changing (YES in step S502), the conversation determination unit 32 further checks whether the reliability of the openness is equal to or greater than a predetermined threshold (step S503). . At this time, if the reliability of the degree of opening is equal to or higher than the threshold (YES in step S503), the conversation determination unit 32 determines that the passenger is having a conversation (step S504). However, if the reliability of the degree of opening is lower than the threshold (NO in step S503), the conversation determining unit 32 determines that the conversation has failed (step S505). In step S505, the conversation determination unit 32 may output a notification indicating that the conversation determination has failed, or an invalid value for the conversation determination.

一方、乗員の開口度が周期的に変化していない場合も(ステップS502でNO)、会話判定部32はさらに、当該開口度の信頼度が予め定められた閾値以上か否かを確認する(ステップS506)。このとき開口度の信頼度が閾値以上であれば(ステップS506でYES)、会話判定部32は乗員が会話をしていないと判定する(ステップS507)。しかし、開口度の信頼度が閾値より低ければ(ステップS506でNO)、会話判定部32は会話の判定を失敗したと判断する(ステップS508)。ステップS508でも、会話判定部32は、会話の判定を失敗した旨の通知、あるいは、会話判定の無効値を出力してもよい。 On the other hand, even if the occupant's openness does not change periodically (NO in step S502), the conversation determination unit 32 further checks whether the reliability of the openness is equal to or higher than a predetermined threshold value ( step S506). At this time, if the reliability of the degree of opening is equal to or greater than the threshold (YES in step S506), the conversation determining unit 32 determines that the passenger is not speaking (step S507). However, if the reliability of the degree of opening is lower than the threshold (NO in step S506), the conversation determination unit 32 determines that the conversation has failed (step S508). Also in step S508, the conversation determination unit 32 may output a notification indicating that the conversation determination has failed, or an invalid value for the conversation determination.

会話判定部32は、以上の動作を繰り返し実行する。なお、ステップS503で用いられる信頼度の閾値と、ステップS506で用いられる信頼度の閾値とは、互いに同じ値でも、互いに異なる値でもよい。 The conversation determination unit 32 repeats the above operations. Note that the reliability threshold used in step S503 and the reliability threshold used in step S506 may be the same value or different values.

開口度算出装置10は、乗員の口がマスク等で遮蔽されていても開口度を算出することが可能であるため、乗員状態判定装置30は、乗員の口がマスク等で遮蔽されていても、乗員の状態を判定することが可能である。 Since the degree of opening calculation device 10 can calculate the degree of opening even if the mouth of the occupant is blocked by a mask or the like, the occupant state determination device 30 can , it is possible to determine the state of the occupant.

なお、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。 In addition, it is possible to combine each embodiment freely, and to modify|transform and abbreviate|omit each embodiment suitably.

上記した説明は、すべての態様において、例示であって、例示されていない無数の変形例が想定され得るものと解される。 It is to be understood that the above description is illustrative in all aspects and that countless variations not illustrated can be envisaged.

10 開口度算出装置、11 顔部位検出部、12 開口度算出部、13 顔向き算出部、14 顔サイズ算出部、20 カメラ、121 基準データ記憶部、122 信頼度算出部、123 開口度補正部、111 履歴記憶部、112 推定部、131 履歴記憶部、132 推定部、141 履歴記憶部、142 推定部、30 乗員状態判定装置、31 あくび判定部、32 会話判定部、50 処理回路、51 プロセッサ、52 メモリ。 10 opening degree calculation device 11 face part detection unit 12 opening degree calculation unit 13 face orientation calculation unit 14 face size calculation unit 20 camera 121 reference data storage unit 122 reliability calculation unit 123 opening degree correction unit , 111 history storage unit, 112 estimation unit, 131 history storage unit, 132 estimation unit, 141 history storage unit, 142 estimation unit, 30 occupant state determination device, 31 yawn determination unit, 32 conversation determination unit, 50 processing circuit, 51 processor , 52 memory.

Claims (11)

人物の顔画像から、前記人物の顔の各部位を検出する顔部位検出部と、
前記顔画像における、前記人物の顔の口よりも上にある特定部位と顎との間の距離に基づいて、前記人物の口の開き度合いである開口度を算出する開口度算出部と、
を備え
前記顔部位検出部は、
前記顔画像における前記人物の特定部位の位置の履歴を記憶する履歴記憶部と、
現在の前記顔画像から前記人物の特定部位が検出されない場合に、前記人物の特定部位の位置の履歴から現在の前記人物の特定部位の位置を推定する推定部と、
を備え、
現在の前記顔画像から前記人物の特定部位が検出されない場合、前記開口度算出部は、推定された現在の前記人物の特定部位の位置に基づいて前記開口度を算出する、
開口度算出装置。
a face part detection unit that detects each part of the face of the person from the face image of the person;
an opening degree calculation unit that calculates an opening degree, which is the degree of opening of the mouth of the person, based on the distance between the chin and a specific part of the face above the mouth of the person in the face image;
with
The facial part detection unit includes:
a history storage unit that stores a history of positions of specific parts of the person in the face image;
an estimating unit for estimating the current position of the specific part of the person from a history of positions of the specific part of the person when the specific part of the person is not detected from the current face image;
with
When the specific part of the person is not detected from the current face image, the degree of opening calculation unit calculates the degree of opening based on the estimated position of the current specific part of the person.
Mouth opening calculation device.
前記特定部位は目、鼻、または両目の間の中央点である、
請求項1に記載の開口度算出装置。
wherein the specific site is the eye, nose, or midpoint between the eyes;
The mouth opening degree calculation device according to claim 1 .
前記顔部位検出部は、
前記顔画像における前記人物の顎の位置の履歴を記憶する履歴記憶部と、
現在の前記顔画像から前記人物の顎が検出されない場合に、前記人物の顎の位置の履歴から現在の前記人物の顎の位置を推定する推定部と、
を備え、
現在の前記顔画像から前記人物の顎が検出されない場合、前記開口度算出部は、推定された現在の前記人物の顎の位置に基づいて前記開口度を算出する、
請求項1に記載の開口度算出装置。
The facial part detection unit includes:
a history storage unit that stores a history of the position of the chin of the person in the face image;
an estimating unit for estimating the current chin position of the person from the history of the chin positions of the person when the chin of the person is not detected from the current face image;
with
If the chin of the person is not detected from the current face image, the degree of opening calculation unit calculates the degree of opening based on the estimated current position of the chin of the person.
The mouth opening degree calculation device according to claim 1 .
前記顔画像から、前記人物の顔の向きを算出する顔向き算出部をさらに備え、
前記開口度算出部は、前記人物の顔の向きを加味して前記開口度を算出する、
請求項1に記載の開口度算出装置。
further comprising a face orientation calculation unit that calculates the orientation of the face of the person from the face image,
The degree of opening calculation unit calculates the degree of opening by taking into account the orientation of the face of the person.
The mouth opening degree calculation device according to claim 1 .
前記顔向き算出部は、
前記顔画像における前記人物の顔の向きの履歴を記憶する履歴記憶部と、
現在の前記顔画像から前記人物の顔の向きを算出できない場合に、前記人物の顔の向きの履歴から現在の前記人物の顔の向きを推定する推定部と、
を備え、
現在の前記顔画像から前記人物の顔の向きを算出できない場合、前記開口度算出部は、推定された現在の前記人物の顔の向きを加味して前記開口度を算出する、
請求項に記載の開口度算出装置。
The face orientation calculation unit
a history storage unit that stores a history of the orientation of the person's face in the face image;
an estimation unit that estimates the current face orientation of the person from the history of the face orientation of the person when the face orientation of the person cannot be calculated from the current face image;
with
When the face orientation of the person cannot be calculated from the current face image, the degree of opening calculation unit calculates the degree of opening by adding the estimated current face orientation of the person.
The opening degree calculation device according to claim 4 .
前記顔画像における前記人物の顔のサイズを算出する顔サイズ算出部をさらに備え、
前記開口度算出部は、前記顔画像における前記人物の顔のサイズを加味して前記開口度を算出する、
請求項1に記載の開口度算出装置。
further comprising a face size calculation unit that calculates the size of the person's face in the face image,
The degree of opening calculation unit calculates the degree of opening by taking into account the size of the person's face in the face image.
The mouth opening degree calculation device according to claim 1 .
前記顔サイズ算出部は、
前記顔画像における前記人物の顔のサイズの履歴を記憶する履歴記憶部と、
現在の前記顔画像から前記人物の顔のサイズを算出できない場合に、前記人物の顔のサイズの履歴から現在の前記人物の顔のサイズを推定する推定部と、
を備え、
現在の前記顔画像から前記人物の顔のサイズを算出できない場合、前記開口度算出部は、推定された現在の前記人物の顔のサイズを加味して前記開口度を算出する、
請求項に記載の開口度算出装置。
The face size calculator,
a history storage unit that stores a history of the size of the person's face in the face image;
an estimation unit that estimates the current face size of the person from a history of the face size of the person when the size of the face of the person cannot be calculated from the current face image;
with
When the size of the face of the person cannot be calculated from the current face image, the degree of opening calculation unit calculates the degree of opening by adding the estimated current face size of the person.
The opening degree calculation device according to claim 6 .
前記顔画像から前記人物の口が検出された場合、前記開口度算出部は、前記人物の口の形状に基づいて前記開口度を算出する、
請求項1に記載の開口度算出装置。
When the mouth of the person is detected from the face image, the degree of opening calculation unit calculates the degree of opening based on the shape of the mouth of the person.
The mouth opening degree calculation device according to claim 1 .
前記開口度算出部は、前記人物の特定部位と顎との間の距離と前記開口度との関係を表す基準データを記憶しており、前記顔画像から検出された前記人物の特定部位と顎との間の距離と前記基準データとを比較することによって前記開口度を算出する、
請求項1に記載の開口度算出装置。
The opening degree calculation unit stores reference data representing a relationship between a distance between a specific part of the person and the chin and the degree of opening, and calculates the distance between the specific part and the chin of the person detected from the face image. calculating the degree of opening by comparing the distance between and the reference data;
The mouth opening degree calculation device according to claim 1 .
前記顔画像から前記人物の特定部位、顎および口が検出された場合、前記開口度算出部は、前記人物の口の形状に基づいて前記開口度を算出するとともに、検出された前記人物の特定部位と顎との間の距離と算出された前記開口度とを用いて、前記基準データを更新する、
請求項に記載の開口度算出装置。
When a specific part, chin, and mouth of the person are detected from the face image, the opening degree calculation unit calculates the opening degree based on the shape of the mouth of the person, and specifies the detected person. updating the reference data using the distance between the part and the jaw and the calculated openness;
The opening degree calculation device according to claim 9 .
前記開口度算出部はさらに、算出された前記開口度の信頼度を算出する、
請求項1に記載の開口度算出装置。
The mouth opening degree calculation unit further calculates a reliability of the calculated mouth opening degree,
The mouth opening degree calculation device according to claim 1 .
JP2022551480A 2020-09-24 2020-09-24 Mouth opening calculator Active JP7217838B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/035900 WO2022064581A1 (en) 2020-09-24 2020-09-24 Opening-degree calculation device and opening-degree calculation method

Publications (3)

Publication Number Publication Date
JPWO2022064581A1 JPWO2022064581A1 (en) 2022-03-31
JPWO2022064581A5 JPWO2022064581A5 (en) 2022-12-28
JP7217838B2 true JP7217838B2 (en) 2023-02-03

Family

ID=80845569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022551480A Active JP7217838B2 (en) 2020-09-24 2020-09-24 Mouth opening calculator

Country Status (3)

Country Link
JP (1) JP7217838B2 (en)
DE (1) DE112020007397T5 (en)
WO (1) WO2022064581A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010071021A1 (en) 2008-12-17 2010-06-24 アイシン精機株式会社 Opened/closed eye recognizing apparatus and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048469A (en) * 2009-08-25 2011-03-10 Seiko Epson Corp Image processing device, image processing method, and image processing program
JP5423379B2 (en) * 2009-08-31 2014-02-19 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2020035122A (en) * 2018-08-29 2020-03-05 オムロン株式会社 Face momentum measurement device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010071021A1 (en) 2008-12-17 2010-06-24 アイシン精機株式会社 Opened/closed eye recognizing apparatus and program

Also Published As

Publication number Publication date
WO2022064581A1 (en) 2022-03-31
DE112020007397T5 (en) 2023-04-27
JPWO2022064581A1 (en) 2022-03-31

Similar Documents

Publication Publication Date Title
JP4830650B2 (en) Tracking device
US20210051420A1 (en) Method of operating a hearing device, and hearing device
CN110537207B (en) Face orientation estimating device and face orientation estimating method
JP6287827B2 (en) Information processing apparatus, information processing method, and program
US20230041382A1 (en) Electronic device and method for tracking object thereof
JP2010134490A (en) Detection device and method, and program
US11195108B2 (en) Abnormality detection device and abnormality detection method for a user
CN114531898A (en) Information processing apparatus, information processing method, and information processing program
JP7217838B2 (en) Mouth opening calculator
CN112287792B (en) Method and device for collecting face image and electronic equipment
JP2012003720A (en) State estimation device, state estimation method, and program
WO2022113275A1 (en) Sleep detection device and sleep detection system
JP7175381B2 (en) Arousal level estimation device, automatic driving support device, and arousal level estimation method
JP7483060B2 (en) Hand detection device, gesture recognition device, and hand detection method
JP2013120954A (en) Sleeping face recognition device
JP7359084B2 (en) Emotion estimation device, emotion estimation method and program
JP7259648B2 (en) Face orientation estimation device and method
WO2023170777A1 (en) Vehicle-occupant monitoring device, vehicle-occupant monitoring method, and vehicle-occupant monitoring program
WO2022230117A1 (en) Information processing system, information processing method, and recording medium
CN111625755B (en) Data processing method, device, server, terminal and readable storage medium
JP7466766B2 (en) Reflex eye movement evaluation device, reflex eye movement evaluation system, and reflex eye movement evaluation method
JP7276968B2 (en) 3D DATA UPDATE DEVICE, FACE POSITION ESTIMATION DEVICE, 3D DATA UPDATE METHOD AND PROGRAM
JP7072737B2 (en) Gesture detector and gesture detection method
WO2022249534A1 (en) Information processing device, information processing method, and program
JP6698966B2 (en) False detection determination device and false detection determination method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221026

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230124

R150 Certificate of patent or registration of utility model

Ref document number: 7217838

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150