JP7217838B2 - Mouth opening calculator - Google Patents
Mouth opening calculator Download PDFInfo
- Publication number
- JP7217838B2 JP7217838B2 JP2022551480A JP2022551480A JP7217838B2 JP 7217838 B2 JP7217838 B2 JP 7217838B2 JP 2022551480 A JP2022551480 A JP 2022551480A JP 2022551480 A JP2022551480 A JP 2022551480A JP 7217838 B2 JP7217838 B2 JP 7217838B2
- Authority
- JP
- Japan
- Prior art keywords
- degree
- opening
- person
- face
- mouth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/20—Workers
- A61B2503/22—Motor vehicles operators, e.g. drivers, pilots, captains
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
- A61B2576/02—Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Epidemiology (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Primary Health Care (AREA)
- Educational Technology (AREA)
- Social Psychology (AREA)
- Psychology (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Developmental Disabilities (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Child & Adolescent Psychology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本開示は、人物の口の開き度合いを算出する技術に関するものである。 The present disclosure relates to technology for calculating the degree of mouth opening of a person.
車両の運転者の口の開き度合いである開口度の変化から、運転者の状態を判定する技術が知られている。例えば下記の特許文献1には、運転者の開口度の時間変化に基づいて、運転者の漫然度や覚醒度を判定する技術が開示されている。 2. Description of the Related Art A technology for determining a driver's condition from changes in the degree of opening of the mouth of a vehicle driver is known. For example, Patent Literature 1 below discloses a technique for determining a driver's absentmindedness and arousal based on a change in the degree of opening of the driver over time.
特許文献1の技術では、カメラが撮影した運転者の顔画像から運転者の口を検出することによって開口度を算出している。よって、例えば運転者がマスクを着用しているときなど、運転者の口が遮蔽されている場合には、カメラで運転者の口を撮影できないため、開口度を算出することができない。 In the technique of Patent Document 1, the degree of opening is calculated by detecting the driver's mouth from the driver's face image captured by a camera. Therefore, when the driver's mouth is covered, for example, when the driver wears a mask, the camera cannot photograph the driver's mouth, so the degree of opening cannot be calculated.
本開示は以上のような課題を解決するためになされたものであり、人物の口が遮蔽されている場合でも、当該人物の開口度を算出することが可能な開口度算出装置を提供することを目的とする。 SUMMARY OF THE INVENTION The present disclosure has been made to solve the above-described problems, and provides an opening degree calculation device capable of calculating the degree of opening of a person even when the person's mouth is blocked. With the goal.
本開示に係る開口度算出装置は、人物の顔画像から、人物の顔の各部位を検出する顔部位検出部と、顔画像における、人物の顔の口よりも上にある特定部位と顎との間の距離に基づいて、人物の口の開き度合いである開口度を算出する開口度算出部と、を備え、顔部位検出部は、顔画像における人物の特定部位の位置の履歴を記憶する履歴記憶部と、現在の顔画像から人物の特定部位が検出されない場合に、人物の特定部位の位置の履歴から現在の人物の特定部位の位置を推定する推定部と、を備え、現在の顔画像から人物の特定部位が検出されない場合、開口度算出部は、推定された現在の人物の特定部位の位置に基づいて開口度を算出する。
The mouth opening degree calculation device according to the present disclosure includes a face part detection unit that detects each part of a person's face from a person's face image, and a specific part above the mouth of the person's face and the chin in the face image. a degree-of-mouth opening calculation unit that calculates the degree of opening, which is the degree of opening of a person's mouth , based on the distance between a current facial image comprising: a history storage unit; If the specific part of the person is not detected from the image, the degree of opening calculation unit calculates the degree of opening based on the estimated current position of the specific part of the person .
本開示に係る開口度算出装置は、人物の顔の口よりも上にある特定部位と顎との間の距離に基づいて開口度を算出できるため、人物の口がマスク等で遮蔽されていても開口度を算出することが可能である。 The degree of mouth opening calculation device according to the present disclosure can calculate the degree of mouth opening based on the distance between the chin and a specific part of the face above the mouth of the person. It is also possible to calculate the degree of mouth opening.
本開示の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。 Objects, features, aspects and advantages of the present disclosure will become more apparent with the following detailed description and accompanying drawings.
<実施の形態1>
図1は、実施の形態1に係る開口度算出装置10の構成を示す図である。図1のように、開口度算出装置10は、顔部位検出部11および開口度算出部12を備えており、ユーザである人物の顔を撮影するカメラ20に接続されている。<Embodiment 1>
FIG. 1 is a diagram showing the configuration of an
顔部位検出部11は、カメラ20が撮影したユーザの顔の画像(以下「顔画像」という)から、ユーザの顔の各部位を検出する。顔部位検出部11は、顔の部位のうち、少なくとも口および顎と、口よりも上にある特定部位とを検出することが可能である。特定部位としては、例えば目、鼻、眉、眉間、両目の間の中央点、などが考えられるが、眉や眉間は髪の毛で隠れやすいため、目、鼻、両目の間の中央点などが好ましい。
The face
開口度算出部12は、顔部位検出部11による顔の各部位の検出結果に基づいてユーザの口の開き度合いである開口度を算出する。開口度算出部12は、顔部位検出部11がユーザの口を検出した場合は口の形状(例えば、顔画像における上唇と下唇との間の距離)から開口度を算出する。しかし、顔部位検出部11がユーザの口を検出できなかった場合には、開口度算出部12は、顔画像における特定部位と顎との間の距離(「特定部位から顎までの距離」ともいう)から開口度を算出する。よって、開口度算出部12は、ユーザの口がマスク等で遮蔽されていても、当該ユーザの開口度を算出することが可能である。
The degree-of-
図1に示すように、開口度算出部12は、基準データ記憶部121と信頼度算出部122とを備えている。
As shown in FIG. 1 , the mouth opening
基準データ記憶部121は、人物の特定部位から顎までの距離と開口度との関係を表す基準データが記憶された記憶媒体である。開口度算出部12は、顔部位検出部11が検出したユーザの特定部位から顎までの距離と、基準データ記憶部121に記憶されている基準データとを比較することによって、ユーザの開口度を算出する。
The reference
基準データは固定のデータでもよいが、特定部位から顎までの距離と開口度との関係には個人差があるため、基準データは個々のユーザごとに設定されることが望ましい。本実施の形態では、顔部位検出部11がユーザの特定部位、顎および口の全てを検出できたときに、開口度算出部12が、人物の口の形状に基づいて開口度を算出するとともに、検出されたユーザの特定部位から顎までの距離と、算出された開口度とに基づいて、当該ユーザの特定部位から顎までの距離と開口度との関係を演算し、その演算結果を用いて基準データを更新する。それにより、基準データは、現在のユーザに適したデータとなる。
The reference data may be fixed data, but since there are individual differences in the relationship between the distance from the specific site to the jaw and the degree of mouth opening, it is desirable that the reference data be set for each individual user. In the present embodiment, when the facial
また、開口度算出装置10が個人認証機能を有する場合(あるいは個人認証機能を有する機器と組み合わされる場合)、基準データ記憶部121に、個々のユーザごとの基準データが保存されてもよい。
Further, when the mouth opening
信頼度算出部122は、開口度算出部12が算出する開口度の信頼度を算出する。信頼度の算出方法は任意の方法でよく、例えば、カメラ20が撮影した顔画像の画質(白飛びや黒潰れの程度)や、顔部位検出部11による顔の部位の検出精度、基準データの精度(例えば基準データの更新回数)などに基づいて信頼度を算出してもよい。なお、開口度算出装置10が、開口度の信頼度の情報を必要としないアプリケーションに適用される場合には、信頼度算出部122は省略されてもよい。
The
次に、図2および図3のフローチャートに基づいて、開口度算出装置10の動作を説明する。
Next, the operation of the degree-of-
図2を参照し、開口度算出装置10が動作を開始すると、顔部位検出部11が、カメラ20からユーザの顔画像を取得し(ステップS101)、取得した顔画像から顔の各部位を探索する(ステップS102)。
Referring to FIG. 2, when the mouth opening
次に、開口度算出部12が顔画像からユーザの開口度を算出する処理である開口度算出処理が行われる(ステップS103)。図3は、開口度算出処理を示すフローチャートである。
Next, an opening degree calculation process is performed in which the degree of
開口度算出処理では、まず、顔部位検出部11により顔画像から口が検出されたか否かが確認される(ステップS201)。口が検出されていれば(ステップS201でYES)、開口度算出部12は、口の形状(例えば、顔画像における上唇と下唇との間の距離)から、開口度を算出する(ステップS202)。さらに、顔部位検出部11により顔画像から特定部位および顎が検出されたか否かが確認される(ステップS203)。特定部位および顎が検出されていれば(ステップS203でYES)、開口度算出部12は、検出されたユーザの特定部位と顎との間の距離とステップS203で算出した開口度とに基づき、信頼度算出部122に記憶されている基準データを更新して(ステップS204)、開口度算出処理を終了する。なお、特定部位および顎が検出されていなければ(ステップS203でNO)、ステップS204は行われない。
In the degree-of-openness calculation process, first, it is confirmed whether or not the mouth is detected from the face image by the facial part detection unit 11 (step S201). If the mouth is detected (YES in step S201), the degree of
一方、顔画像から口が検出されていなければ(ステップS201でNO)、顔部位検出部11により特定部位および顎が検出されたか否かが確認される(ステップS205およびS206)。特定部位および顎が検出されていれば(ステップS205およびS206の両方でYES)、開口度算出部12は、特定部位と顎との間の距離に基づいて、ユーザの開口度を算出する(ステップS207)。
On the other hand, if the mouth is not detected from the face image (NO in step S201), it is checked whether or not the specific part and chin have been detected by the facial part detection unit 11 (steps S205 and S206). If the specific site and the chin have been detected (YES in both steps S205 and S206), the degree-of-
なお、特定部位または顎が検出されていなければ(ステップS205またはS206でNO)、開口度算出部12は、開口度の算出を失敗したと判断する(ステップS208)。ステップS208が行われた後は、図2のステップS101へ戻る。ステップS208では、開口度算出部12が、開口度の算出を失敗した旨の通知、あるいは、開口度の無効値を出力してもよい。
If the specific part or jaw is not detected (NO in step S205 or S206), the mouth opening
図2に戻り、開口度算出処理(ステップS103)が終了すると、開口度算出部12の信頼度算出部122が、開口度算出処理で算出された開口度の信頼度を算出する(ステップS104)。そして、開口度算出部12が、開口度および信頼度の算出結果を出力し(ステップS105)、ステップS101へ戻る。
Returning to FIG. 2, when the degree of mouth opening calculation processing (step S103) ends, the
このように、実施の形態1に係る開口度算出装置10は、顔の口よりも上にある特定部位(目や鼻など)と顎との間の距離に基づいて開口度を算出することができるため、ユーザの口がマスク等で遮蔽されていても開口度を算出することが可能である。
As described above, the degree of mouth opening
図4および図5は、それぞれ開口度算出装置10のハードウェア構成の例を示す図である。図1に示した開口度算出装置10の構成要素の各機能は、例えば図4に示す処理回路50により実現される。すなわち、開口度算出装置10は、人物の顔画像から人物の顔の各部位を検出し、顔画像における、人物の顔の口よりも上にある特定部位と顎との間の距離に基づいて、人物の口の開き度合いである開口度を算出するための処理回路50を備える。処理回路50は、専用のハードウェアであってもよいし、メモリに格納されたプログラムを実行するプロセッサ(中央処理装置(CPU:Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)とも呼ばれる)を用いて構成されていてもよい。
4 and 5 are diagrams each showing an example of the hardware configuration of the
処理回路50が専用のハードウェアである場合、処理回路50は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものなどが該当する。開口度算出装置10の構成要素の各々の機能が個別の処理回路で実現されてもよいし、それらの機能がまとめて一つの処理回路で実現されてもよい。
When the
図5は、処理回路50がプログラムを実行するプロセッサ51を用いて構成されている場合における開口度算出装置10のハードウェア構成の例を示している。この場合、開口度算出装置10の構成要素の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせ)により実現される。ソフトウェア等はプログラムとして記述され、メモリ52に格納される。プロセッサ51は、メモリ52に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、開口度算出装置10は、プロセッサ51により実行されるときに、人物の顔画像から、人物の顔の各部位を検出する処理と、顔画像における、人物の顔の口よりも上にある特定部位と顎との間の距離に基づいて、人物の口の開き度合いである開口度を算出する処理と、が結果的に実行されることになるプログラムを格納するためのメモリ52を備える。換言すれば、このプログラムは、開口度算出装置10の構成要素の動作の手順や方法をコンピュータに実行させるものであるともいえる。
FIG. 5 shows an example of the hardware configuration of the
ここで、メモリ52は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)およびそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
Here, the
以上、開口度算出装置10の構成要素の機能が、ハードウェアおよびソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、開口度算出装置10の一部の構成要素を専用のハードウェアで実現し、別の一部の構成要素をソフトウェア等で実現する構成であってもよい。例えば、一部の構成要素については専用のハードウェアとしての処理回路50でその機能を実現し、他の一部の構成要素についてはプロセッサ51としての処理回路50がメモリ52に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
The configuration in which the functions of the components of the mouth opening
以上のように、開口度算出装置10は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
As described above, the mouth opening
なお、図1においては、カメラ20が開口度算出装置10に外付けされた構成を示したが、カメラ20は開口度算出装置10に内蔵されてもよい。また、顔部位検出部11および開口度算出部12の機能の一部は、開口度算出装置10と通信可能な外部のサーバー上で実現されていてもよい。
Although FIG. 1 shows a configuration in which the
また、開口度算出装置10が個人認証機能を有する場合、システムと併用する場合は過去の保存情報を使用することも可とする。
In addition, when the mouth opening
<実施の形態2>
実施の形態1はユーザの顔とカメラ20との位置関係が一定であるとの前提に立ったものであるが、実際には、カメラ20に対するユーザの顔の向きが変化したり、ユーザの顔とカメラ20との間の距離が変化したりすることが想定される。カメラ20に対するユーザの顔の向きが変化すると、顔画像における特定部位と顎との間の距離が変化する。また、ユーザの顔とカメラ20との距離が変化すると、顔画像におけるユーザの顔のサイズが変化するため、顔画像における特定部位と顎との間の距離が変化する。よって、顔画像における特定部位と顎との間の距離から開口度を算出する場合には、顔画像におけるユーザの顔の向きおよびサイズを考慮して、算出される開口度を補正することが好ましい。そこで、実施の形態2では、顔画像におけるユーザの顔の向きおよびサイズを加味して、開口度を算出する開口度算出装置10を提案する。<Embodiment 2>
Embodiment 1 is based on the premise that the positional relationship between the user's face and the
図6は、実施の形態2に係る開口度算出装置10の構成を示す図である。図6の開口度算出装置10の構成は、図1の構成に対し、顔向き算出部13および顔サイズ算出部14を追加するとともに、開口度算出部12に開口度補正部123を設けたものである。
FIG. 6 is a diagram showing the configuration of the degree-of-
顔向き算出部13は、カメラ20が撮影した顔画像における顔の各部位の位置関係から、カメラ20に対するユーザの顔の向きを算出する。顔サイズ算出部14は、カメラ20が撮影した顔画像から、ユーザの顔の輪郭を検出して、ユーザの顔のサイズを算出する。
The face
開口度算出部12の開口度補正部123は、顔向き算出部13が算出したユーザの顔の向きおよび顔サイズ算出部14が算出したユーザの顔のサイズに基づいて、開口度算出部12が算出したユーザの開口度を補正する。
The
例えば、カメラ20がユーザの顔の正面やや上方、顔から50cmの位置に配置された状態を通常状態と仮定する。この場合、ユーザが下を向くと、顔画像における特定部位と顎との間の距離は通常状態よりも小さくなり、開口度算出部12により算出される開口度は通常状態よりも小さくなるため、開口度補正部123は、開口度算出部12が算出した開口度を大きくする補正を行う。また、ユーザがカメラ20に顔を近づけ、顔とカメラ20との間の距離が50cmよりも小さくなると、顔画像における顔のサイズが通常状態よりも大きくなり、開口度算出部12により算出される開口度は通常状態よりも大きくなるため、開口度補正部123は、開口度算出部12が算出した開口度を小さくする補正を行う。開口度算出部12からは、補正後の開口度が出力される。その結果、開口度算出部12から出力されるユーザの開口度は、顔画像におけるユーザの顔の向きおよびサイズが加味された値となる。
For example, it is assumed that the normal state is a state in which the
なお、開口度算出部12の信頼度算出部122の動作は、実施の形態1と同じでよいが、信頼度算出部122も、ユーザの顔の向きおよびサイズを加味して、開口度の信頼度を算出してもよい。
The operation of the
図7は、実施の形態2に係る開口度算出装置10の動作を示すフローチャートである。図7のフローは、図2のフローの開口度算出処理(ステップS103)の後に、ステップS103で算出された開口度を補正する開口度補正処理(ステップS103a)を追加したものである。それ以外のステップは図2と同じであるため、ここでは開口度補正処理についてのみ説明する。
FIG. 7 is a flow chart showing the operation of the degree-of-
図8は、開口度補正処理のフローチャートである。開口度補正処理が開始されると、顔向き算出部13がユーザの顔の向きを算出できたか否か、および、顔サイズ算出部14がユーザの顔のサイズを算出できたか否かが確認される(ステップS301およびS302)。ユーザの顔の向きおよびサイズが算出されていれば(ステップS301およびS302の両方でYES)、開口度補正部123が、ユーザの顔の向きおよびサイズに基づき、開口度算出処理(図7のステップS103)で算出された開口度を補正して(ステップS303)、開口度補正処理を終了する。なお、ユーザの顔の向きおよびサイズのいずれかが算出されていなければ(ステップS301またはS302でNO)、開口度算出部12は、開口度の算出を失敗したと判断する(ステップS304)。ステップS304が行われた後は、図7のステップS101へ戻る。ステップS304では、開口度算出部12が、開口度の算出を失敗した旨の通知、あるいは、開口度の無効値を出力してもよい。
FIG. 8 is a flowchart of the aperture correction process. When the degree of opening correction process is started, it is confirmed whether or not the face
このように、実施の形態2に係る開口度算出装置10は、顔画像におけるユーザの顔の向きおよびサイズを加味して開口度を算出することができるため、ユーザの顔とカメラ20との位置関係が一定しない場合でも、高い精度で開口度を算出することが可能である。
As described above, since the degree of mouth opening
<実施の形態3>
実施の形態1および2の開口度算出装置10では、顔画像からユーザの特定部位および顎を検出できなかった場合や、顔画像から顔の向きおよびサイズを算出できなかった場合、開口度の算出を失敗したと判断されていた。実施の形態3では、そのような場合に、ユーザの特定部位の位置、顎の位置、顔の向きおよびサイズを推定し、その推定結果を用いて開口度を算出できる開口度算出装置10を提案する。<Embodiment 3>
In the mouth opening
図9は、実施の形態3に係る開口度算出装置10の構成を示す図である。図9の開口度算出装置10の構成は、図6の構成に対し、顔部位検出部11に履歴記憶部111および推定部112を、顔向き算出部13に履歴記憶部131および推定部132を、顔サイズ算出部14に履歴記憶部141および推定部142を、それぞれ設けたものである。
FIG. 9 is a diagram showing the configuration of the degree-of-
顔部位検出部11の履歴記憶部111および推定部112について説明する。履歴記憶部111は、顔画像の過去フレームで検出したユーザの特定部位の位置の履歴と、顔画像の過去フレームで検出したユーザの顎の位置の履歴とを記憶する。推定部112は、現在の顔画像からユーザの特定部位が検出されない場合に、履歴記憶部111に記憶されているユーザの特定部位の位置の履歴から、ユーザの特定部位の位置の軌跡を求め、その軌跡に基づいて現在のユーザの特定部位の位置を推定する。この場合、開口度算出部12は、推定された現在のユーザの特定部位の位置に基づいて開口度を算出する。また、推定部112は、現在の顔画像からユーザの顎が検出されない場合に、履歴記憶部111に記憶されているユーザの顎の位置の履歴から、ユーザの顎の位置の軌跡を求め、その軌跡に基づいて現在のユーザの顎の位置を推定する。この場合、開口度算出部12は、推定された現在のユーザの顎の位置に基づいて、開口度を算出する。なお、履歴記憶部111に記憶される特定部位の位置の履歴および顎の位置の履歴には、過去に推定部112が推定した特定部位の位置および顎の位置が含まれていてもよい。
The
顔向き算出部13の履歴記憶部131および推定部132について説明する。履歴記憶部131は、顔画像の過去フレームで検出したユーザの顔の向きの履歴を記憶する。推定部132は、現在の顔画像からユーザの顔の向きが算出できない場合に、履歴記憶部131に記憶されているユーザの顔の向きの履歴から、ユーザの顔の向きの軌跡を求め、その軌跡に基づいて現在のユーザの顔の向きを推定する。この場合、開口度算出部12の開口度補正部123は、推定された現在のユーザの顔の向きに基づいて開口度を補正する。なお、履歴記憶部131に記憶される顔の向きの履歴には、過去に推定部132が推定した顔の向きが含まれていてもよい。
The
顔サイズ算出部14の履歴記憶部141および推定部142について説明する。履歴記憶部141は、顔画像の過去フレームで検出したユーザの顔のサイズの履歴を記憶する。推定部142は、現在の顔画像からユーザの顔のサイズが算出できない場合に、履歴記憶部141に記憶されているユーザの顔のサイズの履歴から、ユーザの顔のサイズの軌跡を求め、その軌跡に基づいて現在のユーザの顔のサイズを推定する。この場合、開口度算出部12の開口度補正部123は、推定された現在のユーザの顔のサイズに基づいて開口度を補正する。なお、履歴記憶部141に記憶される顔のサイズの履歴には、過去に推定部142が推定した顔のサイズが含まれていてもよい。
The
実施の形態3に係る開口度算出装置10の基本的な動作は実施の形態2で示した図7のフローと同様であるが、開口度算出処理(ステップS103)および開口度補正処理(ステップS103a)の内容が実施の形態2とは異なる。よって、ここでは実施の形態3における開口度算出処理および開口度補正処理について説明する。
The basic operation of the degree-of-
図10は、実施の形態3における開口度算出処理を示すフローチャートである。開口度算出処理が開始されると、顔部位検出部11により顔画像から口が検出されたか否かが確認される(ステップS201)。口が検出されていれば(ステップS201でYES)、図3と同様のステップ201~204の処理が実行される。ステップ201~204の処理は、実施の形態1で説明したとおりであるため、ここでは説明を省略する。 FIG. 10 is a flowchart showing opening degree calculation processing according to the third embodiment. When the degree-of-openness calculation process is started, it is checked whether or not the mouth is detected from the face image by the facial part detection unit 11 (step S201). If the mouth is detected (YES in step S201), the processing of steps 201 to 204 similar to that of FIG. 3 is executed. Since the processes of steps 201 to 204 are the same as those described in the first embodiment, the description is omitted here.
顔画像から口が検出されていなければ(ステップS201でNO)、顔部位検出部11により特定部位および顎が検出されたか否かが確認される(ステップS205およびS206)。特定部位および顎が検出されていれば(ステップS205およびS206の両方でYES)、開口度算出部12は、特定部位と顎との間の距離に基づいて、ユーザの開口度を算出する(ステップS207)。
If the mouth is not detected from the face image (NO in step S201), it is checked whether or not the specific part and chin have been detected by the facial part detection unit 11 (steps S205 and S206). If the specific site and the chin have been detected (YES in both steps S205 and S206), the degree-of-
しかし、特定部位が検出されていなければ(ステップS205でNO)、顔部位検出部11の推定部112が、履歴記憶部111に記憶されている特定部位の位置の履歴を参照し、当該履歴から現在の特定部位の位置を推定可能か否か(具体的には、履歴から特定部位の位置の軌跡が得られるか否か)を判断する(ステップS205a)。現在の特定部位の位置を推定可能であれば(ステップS205aでYES)、推定部112は、現在の特定部位の位置を推定する(ステップS205b)。
However, if the specific part is not detected (NO in step S205), the
また、顎が検出されていなければ(ステップS206でNO)、顔部位検出部11の推定部112が、履歴記憶部111に記憶されている顎の位置の履歴を参照し、当該履歴から現在の顎の位置を推定可能か否か(具体的には、履歴から顎の位置の軌跡が得られるか否か)を判断する(ステップS206a)。現在の顎の位置を推定可能であれば(ステップS206aでYES)、推定部112は、現在の顎の位置を推定する(ステップS206b)。
If the chin is not detected (NO in step S206), the
特定部位の位置の推定(ステップS205b)、または顎の位置の推定(ステップS206a)が行われた場合、ステップS207では、開口度算出部12が、その推定結果を用いて、ユーザの開口度を算出する。
When the position of the specific part is estimated (step S205b) or the jaw position is estimated (step S206a), in step S207, the degree of opening
なお、ステップS205aまたはS206aにおいて、現在の特定部位または顎の位置が推定不可能と判断された場合には、開口度算出部12は、開口度の算出を失敗したと判断する(ステップS208)。ステップS208が行われた後は、図7のステップS101へ戻る。
If it is determined in step S205a or S206a that the current position of the specific part or jaw cannot be estimated, the degree of mouth opening
図11は、実施の形態3における開口度補正処理のフローチャートである。開口度補正処理が開始されると、顔向き算出部13がユーザの顔の向きを算出できたか否か、および、顔サイズ算出部14がユーザの顔のサイズを算出できたか否かが確認される(ステップS301およびS302)。ユーザの顔の向きおよびサイズが算出されていれば(ステップS301およびS302の両方でYES)、開口度補正部123は、ユーザの顔の向きおよびサイズに基づき、開口度算出処理(図7のステップS103)で算出された開口度を補正して(ステップS303)、開口度補正処理を終了する。
FIG. 11 is a flowchart of aperture correction processing according to the third embodiment. When the degree of opening correction process is started, it is confirmed whether or not the face
しかし、ユーザの顔の向きが算出されていなければ(ステップS301でNO)、顔向き算出部13の推定部132が、履歴記憶部131に記憶されているユーザの顔の向きの履歴を参照し、当該履歴から現在の顔の向きを推定可能か否か(具体的には、履歴から顔の向きの軌跡が得られるか否か)を判断する(ステップS301a)。現在の顔の向きを推定可能であれば(ステップS301aでYES)、推定部132は、現在の顔の向きを推定する(ステップS301b)。
However, if the user's face orientation has not been calculated (NO in step S301), the
また、ユーザの顔のサイズが算出されていなければ(ステップS302でNO)、顔サイズ算出部14の推定部142は、履歴記憶部141に記憶されているユーザの顔のサイズの履歴を参照し、当該履歴から現在の顔のサイズを推定可能か否か(具体的には、履歴から顔のサイズの軌跡が得られるか否か)を判断する(ステップS302a)。現在の顔のサイズを推定可能であれば(ステップS302aでYES)、推定部142は、現在の顔のサイズを推定する(ステップS302b)。
If the user's face size has not been calculated (NO in step S302), the
なお、ステップS301aまたはS302aにおいて、現在の顔の向きおよびサイズが推定不可能と判断された場合には、開口度算出部12は、開口度の算出を失敗したと判断する(ステップS304)。ステップS304が行われた後は、図7のステップS101へ戻る。
If it is determined in step S301a or S302a that the current face orientation and size cannot be estimated, the degree of mouth opening
このように、実施の形態3に係る開口度算出装置10は、顔画像からユーザの特定部位および顎を検出できなかった場合や、顔画像から顔の向きおよびサイズを算出できなかった場合でも、それらを推定することにより、開口度の算出を行うことができる。
As described above, the mouth opening
なお、実施の形態3において、信頼度算出部122は、開口度算出部12が開口度の算出に用いた情報(特定部位の位置、顎の位置、顔の向き、顔のサイズ)のうち、推定された事項が多いほど(つまり、検出または算出できなかった事項が多いほど)、開口度の信頼度は低くなると判断するとよい。
In Embodiment 3, the
<実施の形態4>
実施の形態4では、開口度算出装置10が適用される具体的なアプリケーションの一例を示す。図12は、開口度算出装置10を、乗員状態判定装置30へ適用した例を示す図である。図12に示されている開口度算出装置10は、実施の形態1~3のいずれに係るものでもよい。<Embodiment 4>
Embodiment 4 shows an example of a specific application to which the degree of opening
乗員状態判定装置30は、車両の乗員(運転者を含む)の状態を判定する車載装置であり、乗員があくびをしているか否かを判定するあくび判定部31と、乗員が会話をしているか否かを判定する会話判定部32とを備えている。例えば、乗員状態判定装置30は、あくびをしている乗員は覚醒度が低いと判定したり、会話をしている乗員は覚醒度が高いと判断したりする。なお、乗員状態判定装置30は、あくび判定部31および会話判定部32のうちの片方だけを備えてもよい。
The occupant
実施の形態4において、開口度算出装置10のユーザは、乗員状態判定装置30が搭載された車両の乗員である。すなわち、カメラ20は乗員の顔画像を撮影し、開口度算出装置10は乗員の開口度およびその信頼度を算出する。また、開口度算出装置10の出力、すなわち乗員の開口度およびその信頼度は、乗員状態判定装置30のあくび判定部31および会話判定部32に提供される。
In the fourth embodiment, the user of the degree of opening
図13は、あくび判定部31の動作を示すフローチャートである。以下、図13を参照して、あくび判定部31の動作を説明する。
FIG. 13 is a flow chart showing the operation of the
あくび判定部31は、開口度算出装置10が算出した乗員の開口度およびその信頼度を取得する(ステップS401)。そして、あくび判定部31は、乗員の開口度が予め定められた閾値以上となった状態が一定時間以上続いているか否かを確認する(ステップS402)。
The
乗員の開口度が閾値以上となった状態が一定時間以上続いている場合(ステップS402でYES)、あくび判定部31はさらに、当該開口度の信頼度が予め定められた閾値以上か否かを確認する(ステップS403)。このとき開口度の信頼度が閾値以上であれば(ステップS403でYES)、あくび判定部31は乗員があくびをしていると判定する(ステップS404)。しかし、開口度の信頼度が閾値より低ければ(ステップS403でNO)、あくび判定部31はあくびの判定を失敗したと判断する(ステップS405)。ステップS405では、あくび判定部31が、あくびの判定を失敗した旨の通知、あるいは、あくび判定の無効値を出力してもよい。
If the degree of opening of the occupant has remained equal to or greater than the threshold for a certain period of time or longer (YES in step S402), the yawning
一方、乗員の開口度が閾値以上となった状態が一定時間以上続いていない場合も(ステップS402でNO)、あくび判定部31はさらに、当該開口度の信頼度が予め定められた閾値以上か否かを確認する(ステップS406)。このとき開口度の信頼度が閾値以上であれば(ステップS406でYES)、あくび判定部31は乗員があくびをしていないと判定する(ステップS407)。しかし、開口度の信頼度が閾値より低ければ(ステップS406でNO)、あくび判定部31はあくびの判定を失敗したと判断する(ステップS408)。ステップS408でも、あくび判定部31は、あくびの判定を失敗した旨の通知、あるいは、あくび判定の無効値を出力してもよい。
On the other hand, if the degree of opening of the occupant has not continued for a certain period of time or longer (NO in step S402), the yawning
あくび判定部31は、以上の動作を繰り返し実行する。なお、ステップS403で用いられる信頼度の閾値と、ステップS406で用いられる信頼度の閾値とは、互いに同じ値でも、互いに異なる値でもよい。
The
図14は、会話判定部32の動作を示すフローチャートである。以下、図14を参照して、会話判定部32の動作を説明する。 FIG. 14 is a flow chart showing the operation of the conversation determining section 32. As shown in FIG. The operation of the conversation determination unit 32 will be described below with reference to FIG.
会話判定部32は、開口度算出装置10が算出した乗員の開口度およびその信頼度を取得する(ステップS501)。そして、会話判定部32は、乗員の開口度が周期的に変化しているか否かを確認する(ステップS502)。
The conversation determination unit 32 acquires the occupant's degree of opening calculated by the degree of opening
乗員の開口度が周期的に変化している場合(ステップS502でYES)、会話判定部32はさらに、当該開口度の信頼度が予め定められた閾値以上か否かを確認する(ステップS503)。このとき開口度の信頼度が閾値以上であれば(ステップS503でYES)、会話判定部32は乗員が会話をしていると判定する(ステップS504)。しかし、開口度の信頼度が閾値より低ければ(ステップS503でNO)、会話判定部32は会話の判定を失敗したと判断する(ステップS505)。ステップS505では、会話判定部32が、会話の判定を失敗した旨の通知、あるいは、会話判定の無効値を出力してもよい。 If the occupant's openness is periodically changing (YES in step S502), the conversation determination unit 32 further checks whether the reliability of the openness is equal to or greater than a predetermined threshold (step S503). . At this time, if the reliability of the degree of opening is equal to or higher than the threshold (YES in step S503), the conversation determination unit 32 determines that the passenger is having a conversation (step S504). However, if the reliability of the degree of opening is lower than the threshold (NO in step S503), the conversation determining unit 32 determines that the conversation has failed (step S505). In step S505, the conversation determination unit 32 may output a notification indicating that the conversation determination has failed, or an invalid value for the conversation determination.
一方、乗員の開口度が周期的に変化していない場合も(ステップS502でNO)、会話判定部32はさらに、当該開口度の信頼度が予め定められた閾値以上か否かを確認する(ステップS506)。このとき開口度の信頼度が閾値以上であれば(ステップS506でYES)、会話判定部32は乗員が会話をしていないと判定する(ステップS507)。しかし、開口度の信頼度が閾値より低ければ(ステップS506でNO)、会話判定部32は会話の判定を失敗したと判断する(ステップS508)。ステップS508でも、会話判定部32は、会話の判定を失敗した旨の通知、あるいは、会話判定の無効値を出力してもよい。 On the other hand, even if the occupant's openness does not change periodically (NO in step S502), the conversation determination unit 32 further checks whether the reliability of the openness is equal to or higher than a predetermined threshold value ( step S506). At this time, if the reliability of the degree of opening is equal to or greater than the threshold (YES in step S506), the conversation determining unit 32 determines that the passenger is not speaking (step S507). However, if the reliability of the degree of opening is lower than the threshold (NO in step S506), the conversation determination unit 32 determines that the conversation has failed (step S508). Also in step S508, the conversation determination unit 32 may output a notification indicating that the conversation determination has failed, or an invalid value for the conversation determination.
会話判定部32は、以上の動作を繰り返し実行する。なお、ステップS503で用いられる信頼度の閾値と、ステップS506で用いられる信頼度の閾値とは、互いに同じ値でも、互いに異なる値でもよい。 The conversation determination unit 32 repeats the above operations. Note that the reliability threshold used in step S503 and the reliability threshold used in step S506 may be the same value or different values.
開口度算出装置10は、乗員の口がマスク等で遮蔽されていても開口度を算出することが可能であるため、乗員状態判定装置30は、乗員の口がマスク等で遮蔽されていても、乗員の状態を判定することが可能である。
Since the degree of opening
なお、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。 In addition, it is possible to combine each embodiment freely, and to modify|transform and abbreviate|omit each embodiment suitably.
上記した説明は、すべての態様において、例示であって、例示されていない無数の変形例が想定され得るものと解される。 It is to be understood that the above description is illustrative in all aspects and that countless variations not illustrated can be envisaged.
10 開口度算出装置、11 顔部位検出部、12 開口度算出部、13 顔向き算出部、14 顔サイズ算出部、20 カメラ、121 基準データ記憶部、122 信頼度算出部、123 開口度補正部、111 履歴記憶部、112 推定部、131 履歴記憶部、132 推定部、141 履歴記憶部、142 推定部、30 乗員状態判定装置、31 あくび判定部、32 会話判定部、50 処理回路、51 プロセッサ、52 メモリ。
10 opening
Claims (11)
前記顔画像における、前記人物の顔の口よりも上にある特定部位と顎との間の距離に基づいて、前記人物の口の開き度合いである開口度を算出する開口度算出部と、
を備え、
前記顔部位検出部は、
前記顔画像における前記人物の特定部位の位置の履歴を記憶する履歴記憶部と、
現在の前記顔画像から前記人物の特定部位が検出されない場合に、前記人物の特定部位の位置の履歴から現在の前記人物の特定部位の位置を推定する推定部と、
を備え、
現在の前記顔画像から前記人物の特定部位が検出されない場合、前記開口度算出部は、推定された現在の前記人物の特定部位の位置に基づいて前記開口度を算出する、
開口度算出装置。 a face part detection unit that detects each part of the face of the person from the face image of the person;
an opening degree calculation unit that calculates an opening degree, which is the degree of opening of the mouth of the person, based on the distance between the chin and a specific part of the face above the mouth of the person in the face image;
with
The facial part detection unit includes:
a history storage unit that stores a history of positions of specific parts of the person in the face image;
an estimating unit for estimating the current position of the specific part of the person from a history of positions of the specific part of the person when the specific part of the person is not detected from the current face image;
with
When the specific part of the person is not detected from the current face image, the degree of opening calculation unit calculates the degree of opening based on the estimated position of the current specific part of the person.
Mouth opening calculation device.
請求項1に記載の開口度算出装置。 wherein the specific site is the eye, nose, or midpoint between the eyes;
The mouth opening degree calculation device according to claim 1 .
前記顔画像における前記人物の顎の位置の履歴を記憶する履歴記憶部と、
現在の前記顔画像から前記人物の顎が検出されない場合に、前記人物の顎の位置の履歴から現在の前記人物の顎の位置を推定する推定部と、
を備え、
現在の前記顔画像から前記人物の顎が検出されない場合、前記開口度算出部は、推定された現在の前記人物の顎の位置に基づいて前記開口度を算出する、
請求項1に記載の開口度算出装置。 The facial part detection unit includes:
a history storage unit that stores a history of the position of the chin of the person in the face image;
an estimating unit for estimating the current chin position of the person from the history of the chin positions of the person when the chin of the person is not detected from the current face image;
with
If the chin of the person is not detected from the current face image, the degree of opening calculation unit calculates the degree of opening based on the estimated current position of the chin of the person.
The mouth opening degree calculation device according to claim 1 .
前記開口度算出部は、前記人物の顔の向きを加味して前記開口度を算出する、
請求項1に記載の開口度算出装置。 further comprising a face orientation calculation unit that calculates the orientation of the face of the person from the face image,
The degree of opening calculation unit calculates the degree of opening by taking into account the orientation of the face of the person.
The mouth opening degree calculation device according to claim 1 .
前記顔画像における前記人物の顔の向きの履歴を記憶する履歴記憶部と、
現在の前記顔画像から前記人物の顔の向きを算出できない場合に、前記人物の顔の向きの履歴から現在の前記人物の顔の向きを推定する推定部と、
を備え、
現在の前記顔画像から前記人物の顔の向きを算出できない場合、前記開口度算出部は、推定された現在の前記人物の顔の向きを加味して前記開口度を算出する、
請求項4に記載の開口度算出装置。 The face orientation calculation unit
a history storage unit that stores a history of the orientation of the person's face in the face image;
an estimation unit that estimates the current face orientation of the person from the history of the face orientation of the person when the face orientation of the person cannot be calculated from the current face image;
with
When the face orientation of the person cannot be calculated from the current face image, the degree of opening calculation unit calculates the degree of opening by adding the estimated current face orientation of the person.
The opening degree calculation device according to claim 4 .
前記開口度算出部は、前記顔画像における前記人物の顔のサイズを加味して前記開口度を算出する、
請求項1に記載の開口度算出装置。 further comprising a face size calculation unit that calculates the size of the person's face in the face image,
The degree of opening calculation unit calculates the degree of opening by taking into account the size of the person's face in the face image.
The mouth opening degree calculation device according to claim 1 .
前記顔画像における前記人物の顔のサイズの履歴を記憶する履歴記憶部と、
現在の前記顔画像から前記人物の顔のサイズを算出できない場合に、前記人物の顔のサイズの履歴から現在の前記人物の顔のサイズを推定する推定部と、
を備え、
現在の前記顔画像から前記人物の顔のサイズを算出できない場合、前記開口度算出部は、推定された現在の前記人物の顔のサイズを加味して前記開口度を算出する、
請求項6に記載の開口度算出装置。 The face size calculator,
a history storage unit that stores a history of the size of the person's face in the face image;
an estimation unit that estimates the current face size of the person from a history of the face size of the person when the size of the face of the person cannot be calculated from the current face image;
with
When the size of the face of the person cannot be calculated from the current face image, the degree of opening calculation unit calculates the degree of opening by adding the estimated current face size of the person.
The opening degree calculation device according to claim 6 .
請求項1に記載の開口度算出装置。 When the mouth of the person is detected from the face image, the degree of opening calculation unit calculates the degree of opening based on the shape of the mouth of the person.
The mouth opening degree calculation device according to claim 1 .
請求項1に記載の開口度算出装置。 The opening degree calculation unit stores reference data representing a relationship between a distance between a specific part of the person and the chin and the degree of opening, and calculates the distance between the specific part and the chin of the person detected from the face image. calculating the degree of opening by comparing the distance between and the reference data;
The mouth opening degree calculation device according to claim 1 .
請求項9に記載の開口度算出装置。 When a specific part, chin, and mouth of the person are detected from the face image, the opening degree calculation unit calculates the opening degree based on the shape of the mouth of the person, and specifies the detected person. updating the reference data using the distance between the part and the jaw and the calculated openness;
The opening degree calculation device according to claim 9 .
請求項1に記載の開口度算出装置。 The mouth opening degree calculation unit further calculates a reliability of the calculated mouth opening degree,
The mouth opening degree calculation device according to claim 1 .
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/035900 WO2022064581A1 (en) | 2020-09-24 | 2020-09-24 | Opening-degree calculation device and opening-degree calculation method |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2022064581A1 JPWO2022064581A1 (en) | 2022-03-31 |
JPWO2022064581A5 JPWO2022064581A5 (en) | 2022-12-28 |
JP7217838B2 true JP7217838B2 (en) | 2023-02-03 |
Family
ID=80845569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022551480A Active JP7217838B2 (en) | 2020-09-24 | 2020-09-24 | Mouth opening calculator |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7217838B2 (en) |
DE (1) | DE112020007397T5 (en) |
WO (1) | WO2022064581A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010071021A1 (en) | 2008-12-17 | 2010-06-24 | アイシン精機株式会社 | Opened/closed eye recognizing apparatus and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011048469A (en) * | 2009-08-25 | 2011-03-10 | Seiko Epson Corp | Image processing device, image processing method, and image processing program |
JP5423379B2 (en) * | 2009-08-31 | 2014-02-19 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP2020035122A (en) * | 2018-08-29 | 2020-03-05 | オムロン株式会社 | Face momentum measurement device |
-
2020
- 2020-09-24 DE DE112020007397.1T patent/DE112020007397T5/en active Pending
- 2020-09-24 WO PCT/JP2020/035900 patent/WO2022064581A1/en active Application Filing
- 2020-09-24 JP JP2022551480A patent/JP7217838B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010071021A1 (en) | 2008-12-17 | 2010-06-24 | アイシン精機株式会社 | Opened/closed eye recognizing apparatus and program |
Also Published As
Publication number | Publication date |
---|---|
WO2022064581A1 (en) | 2022-03-31 |
DE112020007397T5 (en) | 2023-04-27 |
JPWO2022064581A1 (en) | 2022-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4830650B2 (en) | Tracking device | |
US20210051420A1 (en) | Method of operating a hearing device, and hearing device | |
CN110537207B (en) | Face orientation estimating device and face orientation estimating method | |
JP6287827B2 (en) | Information processing apparatus, information processing method, and program | |
US20230041382A1 (en) | Electronic device and method for tracking object thereof | |
JP2010134490A (en) | Detection device and method, and program | |
US11195108B2 (en) | Abnormality detection device and abnormality detection method for a user | |
CN114531898A (en) | Information processing apparatus, information processing method, and information processing program | |
JP7217838B2 (en) | Mouth opening calculator | |
CN112287792B (en) | Method and device for collecting face image and electronic equipment | |
JP2012003720A (en) | State estimation device, state estimation method, and program | |
WO2022113275A1 (en) | Sleep detection device and sleep detection system | |
JP7175381B2 (en) | Arousal level estimation device, automatic driving support device, and arousal level estimation method | |
JP7483060B2 (en) | Hand detection device, gesture recognition device, and hand detection method | |
JP2013120954A (en) | Sleeping face recognition device | |
JP7359084B2 (en) | Emotion estimation device, emotion estimation method and program | |
JP7259648B2 (en) | Face orientation estimation device and method | |
WO2023170777A1 (en) | Vehicle-occupant monitoring device, vehicle-occupant monitoring method, and vehicle-occupant monitoring program | |
WO2022230117A1 (en) | Information processing system, information processing method, and recording medium | |
CN111625755B (en) | Data processing method, device, server, terminal and readable storage medium | |
JP7466766B2 (en) | Reflex eye movement evaluation device, reflex eye movement evaluation system, and reflex eye movement evaluation method | |
JP7276968B2 (en) | 3D DATA UPDATE DEVICE, FACE POSITION ESTIMATION DEVICE, 3D DATA UPDATE METHOD AND PROGRAM | |
JP7072737B2 (en) | Gesture detector and gesture detection method | |
WO2022249534A1 (en) | Information processing device, information processing method, and program | |
JP6698966B2 (en) | False detection determination device and false detection determination method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221026 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221026 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7217838 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |