JP7037159B2 - Systems, programs, and methods for measuring a subject's jaw movements - Google Patents
Systems, programs, and methods for measuring a subject's jaw movements Download PDFInfo
- Publication number
- JP7037159B2 JP7037159B2 JP2021515056A JP2021515056A JP7037159B2 JP 7037159 B2 JP7037159 B2 JP 7037159B2 JP 2021515056 A JP2021515056 A JP 2021515056A JP 2021515056 A JP2021515056 A JP 2021515056A JP 7037159 B2 JP7037159 B2 JP 7037159B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- subject
- point
- motion
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C19/00—Dental auxiliary appliances
- A61C19/04—Measuring instruments specially adapted for dentistry
- A61C19/045—Measuring instruments specially adapted for dentistry for recording mandibular movement, e.g. face bows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biophysics (AREA)
- Dentistry (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Epidemiology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
- Image Analysis (AREA)
Description
本発明は、被験者の顎運動を測定するためのシステム、プログラム、および方法に関する。さらに、被験者の顎運動を測定するために利用される運動点軌跡学習済モデルを構築するためのシステム、プログラム、および方法にも関する。 The present invention relates to a system, program, and method for measuring jaw movements of a subject. In addition, it relates to systems, programs, and methods for constructing motion point trajectory trained models used to measure a subject's jaw motion.
歯科分野における診断行為の1つとして、顎運動の評価が挙げられる。顎運動には、咀嚼していない状況(非機能時)で顎骨の可動範囲を確認する「限界運動測定」と、咀嚼時(機能時)の下顎運動(咀嚼運動)を測定する「咀嚼時顎運動測定」がある。歯科医療現場では、顎関節症の患者や、歯の欠損補綴が必要な患者などに適用されている。 One of the diagnostic actions in the dental field is the evaluation of jaw movement. Jaw movements include "marginal movement measurement" to check the range of movement of the jawbone when not chewing (during non-function) and "mastication jaw" to measure mandibular movement (mastication movement) during mastication (during functioning). There is "exercise measurement". In the field of dentistry, it is applied to patients with temporomandibular joint disease and patients who need prosthesis for missing teeth.
特許文献1は、顎運動を測定するための手法を開示している。この手法では、患者にヘッドフレームおよび下顎マーカー具を固定する必要がある。特許文献1に示されるような従来の顎運動を測定するための手法では、測定のために必要な器具を患者に装着するために、患者は病院に直接出向く必要があった。これは、患者および医師等にとって大きな負担および手間となり得る。さらに、これらの器具はいずれも専用品であり、非常に高価でコスト高であり得る。
本発明は、被験者の顎運動を簡易に測定することが可能なシステム等を提供することを目的とする。 An object of the present invention is to provide a system or the like capable of easily measuring the jaw movement of a subject.
本発明の一実施形態において、顎運動を測定するためのシステムは、顎運動中の被験者の顔の連続した複数の画像を取得する取得手段と、前記被験者の顔の座標系を少なくとも補正する補正手段と、前記顔の下顎領域内の運動点を少なくとも抽出する抽出手段と、前記運動点を追跡することによって、前記運動点の軌跡を示す運動点軌跡情報を少なくとも生成する生成手段とを備える。 In one embodiment of the invention, the system for measuring jaw movement is an acquisition means for acquiring a plurality of consecutive images of the subject's face during jaw movement and a correction that at least corrects the coordinate system of the subject's face. The means includes an extraction means for extracting at least a motion point in the lower jaw region of the face, and a generation means for generating at least motion point trajectory information indicating the trajectory of the motion point by tracking the motion point.
一実施形態において、前記抽出手段は、前記顔の下顎領域内の運動点を抽出する第1の抽出手段と、前記複数の画像から前記顔の上顔面領域内の固定点を抽出する第2の抽出手段とを備え、前記補正手段は、前記固定点と、事前に定義された顔基準位置テンプレートとに基づいて、前記座標系を補正する。 In one embodiment, the extraction means has a first extraction means for extracting motion points in the lower jaw region of the face and a second extraction means for extracting fixed points in the upper facial region of the face from the plurality of images. The correction means includes extraction means, and the correction means corrects the coordinate system based on the fixed point and a predefined face reference position template.
一実施形態において、前記第1の抽出手段は、前記複数の画像において複数の特徴部分を抽出し、前記複数の特徴部分のうち、所定期間内の座標変化が所定の範囲内の特徴部分を運動点として抽出し、前記第2の抽出手段は、前記複数の特徴部分のうち、所定期間内の座標変化が所定の閾値未満の特徴部分を固定点として抽出する In one embodiment, the first extraction means extracts a plurality of feature portions in the plurality of images, and among the plurality of feature portions, a feature portion whose coordinate change within a predetermined period is within a predetermined range is moved. The second extraction means extracts a feature portion whose coordinate change within a predetermined period is less than a predetermined threshold value as a fixed point among the plurality of feature portions.
一実施形態において、前記補正手段は、前記被験者の顔の座標系を補正する第1の補正手段と、前記固定点を追跡することによって、固定点の軌跡を示す固定点軌跡情報を生成する第2の生成手段と、前記固定点軌跡情報に基づいて、前記運動点軌跡情報を補正する第2の補正手段とを備える。 In one embodiment, the correction means has a first correction means for correcting the coordinate system of the subject's face, and a second correction means for generating fixed point locus information indicating the locus of the fixed point by tracking the fixed point. 2. The generation means and the second correction means for correcting the motion point locus information based on the fixed point locus information are provided.
一実施形態において、前記補正手段は、複数の被験者の顔の基準座標系を学習する処理を施された基準座標系学習済モデルであって、前記基準座標系学習済モデルは、入力された画像中の被験者の顔の座標系を前記基準座標系に補正するように構成されている、基準座標系学習済モデルを備える。 In one embodiment, the correction means is a reference coordinate system trained model that has been processed to learn the reference coordinate system of the faces of a plurality of subjects, and the reference coordinate system trained model is an input image. It comprises a reference coordinate system trained model configured to correct the coordinate system of the subject's face inside to the reference coordinate system.
一実施形態において、前記基準座標系学習済モデルは、入力された画像中の被験者の顔の座標系と、前記基準座標系との差分をとることと、前記差分に基づいて、前記入力された画像を変換処理することとによって前記座標系を補正する。 In one embodiment, the reference coordinate system trained model takes a difference between the coordinate system of the subject's face in the input image and the reference coordinate system, and the input is based on the difference. The coordinate system is corrected by converting the image.
一実施形態において、前記変換処理は、アフィン変換を含む。 In one embodiment, the conversion process comprises an affine transformation.
一実施形態において、前記抽出手段は、前記複数の画像において複数の特徴部分を抽出し、前記複数の特徴部分のうち、所定期間内の座標変化が所定の範囲内のピクセルを運動点として抽出する。 In one embodiment, the extraction means extracts a plurality of feature portions in the plurality of images, and extracts pixels among the plurality of feature portions whose coordinate changes within a predetermined period are within a predetermined range as motion points. ..
一実施形態において、前記補正手段は、前記被験者の顔のベース顔モデルを生成するベース顔モデル生成手段と、前記複数の画像中の前記被験者の顔を前記ベース顔モデルに反映させることにより、前記被験者の顎運動顔モデルを生成する顎運動顔モデル生成手段とを備え、前記補正手段は、前記ベース顔モデルの座標系に基づいて、前記顎運動顔モデルの座標系を補正することにより、前記座標系を補正する。 In one embodiment, the correction means reflects the subject's face in the plurality of images in the base face model, and the base face model generation means for generating the base face model of the subject's face. The correction means includes a jaw movement face model generation means for generating a jaw movement face model of a subject, and the correction means corrects the coordinate system of the jaw movement face model based on the coordinate system of the base face model. Correct the coordinate system.
一実施形態において、前記抽出手段は、前記顎運動顔モデルまたは前記ベース顔モデルにおける運動点を抽出する。 In one embodiment, the extraction means extracts motion points in the jaw motion face model or the base face model.
一実施形態において、本発明のシステムは、前記生成された運動点軌跡情報に少なくとも基づいて、前記被験者の顎運動の評価を示す顎運動評価情報を生成する評価手段をさらに備える。 In one embodiment, the system of the present invention further comprises an evaluation means that generates jaw movement evaluation information indicating the evaluation of the jaw movement of the subject based on at least the generated movement point trajectory information.
一実施形態において、本発明のシステムは、前記被験者の前記下顎領域に設置されるように構成された標点をさらに備え、前記抽出手段は、前記複数の画像中の前記標点を運動点として抽出する。 In one embodiment, the system of the present invention further comprises a reference point configured to be placed in the mandibular region of the subject, and the extraction means uses the reference point in the plurality of images as a motion point. Extract.
一実施形態において、前記被験者の前記上顔面領域に設置されるように構成された標点をさらに備え、前記第2の抽出手段は、前記複数の画像中の前記標点を固定点として抽出する。 In one embodiment, the second extraction means further comprises a reference point configured to be installed in the upper facial region of the subject, and the second extraction means extracts the reference point in the plurality of images as a fixed point. ..
一実施形態において、前記標点は、前記標点上の特定点を表すように構成されている。 In one embodiment, the reference point is configured to represent a specific point on the reference point.
本発明の一実施形態において、顎運動を測定するためのプログラムは、プロセッサ部を備えるシステムにおいて実行され、前記プログラムは、顎運動中の被験者の顔の連続した複数の画像を取得することと、前記被験者の顔の座標系を少なくとも補正することと、前記顔の下顎領域内の運動点を少なくとも抽出することと、前記運動点を追跡することによって、前記運動点の軌跡を示す運動点軌跡情報を少なくとも生成することとを含む処理を前記プロセッサ部に行わせる。 In one embodiment of the present invention, a program for measuring jaw movement is executed in a system including a processor unit, and the program acquires a plurality of consecutive images of a subject's face during jaw movement. Motion point trajectory information indicating the trajectory of the motion point by at least correcting the coordinate system of the subject's face, extracting at least the motion points in the lower jaw region of the face, and tracking the motion points. The processor unit is made to perform a process including at least generating.
本発明の一実施形態において、顎運動を測定するための方法は、顎運動中の被験者の顔の連続した複数の画像を取得することと、前記被験者の顔の座標系を少なくとも補正することと、前記顔の下顎領域内の運動点を少なくとも抽出することと、前記運動点を追跡することによって、前記運動点の軌跡を示す運動点軌跡情報を少なくとも生成することとを含む。 In one embodiment of the invention, the method for measuring jaw movement is to acquire a plurality of consecutive images of the subject's face during jaw movement and to at least correct the coordinate system of the subject's face. , At least extracting the motion points in the lower jaw region of the face, and by tracking the motion points, at least generating motion point trajectory information indicating the trajectory of the motion points.
本発明の一実施形態において、顎運動を測定するためのシステムは、顎運動中の被験者の顔の連続した複数の画像を取得する取得手段と、前記複数の画像に基づいて、前記顔の下顎領域内の運動点を少なくとも抽出する抽出手段と、前記運動点を追跡することによって、前記運動点の軌跡を示す運動点軌跡情報を少なくとも生成する生成手段と、前記運動点軌跡情報に少なくとも基づいて、前記被験者の顎運動の評価を示す顎運動評価情報を生成する評価手段であって、前記評価手段は、複数の被験者の運動点軌跡情報を学習する処理を施された運動点軌跡学習済モデルを備え、前記運動点軌跡学習済モデルは、入力された運動点軌跡情報を顎運動の評価と相関させるように構成されている、評価手段とを備える。 In one embodiment of the present invention, the system for measuring jaw movement is an acquisition means for acquiring a plurality of consecutive images of a subject's face during jaw movement, and a lower jaw of the face based on the plurality of images. Based on at least the extraction means for extracting at least the motion points in the region, the generation means for generating at least the motion point trajectory information indicating the trajectory of the motion points by tracking the motion points, and the motion point trajectory information. , An evaluation means for generating jaw movement evaluation information indicating the evaluation of the jaw movement of the subject, the evaluation means is a movement point trajectory learned model subjected to processing for learning the movement point trajectory information of a plurality of subjects. The model having learned the locus of motion points includes an evaluation means configured to correlate the input locus of motion points with the evaluation of jaw movement.
本発明の一実施形態において、顎運動を測定するためのプログラムは、プロセッサ部を備えるシステムにおいて実行され、前記プログラムは、顎運動中の被験者の顔の連続した複数の画像を取得することと、前記複数の画像に基づいて、前記顔の下顎領域内の運動点を少なくとも抽出することと、前記運動点を追跡することによって、前記運動点の軌跡を示す運動点軌跡情報を少なくとも生成することと、複数の被験者の運動点軌跡情報を学習する処理を施された運動点軌跡学習済モデルを利用して、前記運動点軌跡情報に少なくとも基づいて、前記被験者の顎運動の評価を示す顎運動評価情報を生成することであって、前記運動点軌跡学習済モデルは、入力された運動点軌跡情報を顎運動の評価と相関させるように構成されている、こととを含む処理を前記プロセッサ部に行わせる。 In one embodiment of the present invention, a program for measuring jaw movement is executed in a system including a processor unit, and the program acquires a plurality of consecutive images of a subject's face during jaw movement. Based on the plurality of images, at least the motion points in the lower jaw region of the face are extracted, and by tracking the motion points, at least the motion point trajectory information indicating the trajectory of the motion points is generated. , Jaw movement evaluation showing the evaluation of the jaw movement of the subject based on at least the movement point trajectory information by using the movement point trajectory learned model that has been processed to learn the movement point trajectory information of a plurality of subjects. The processor unit is subjected to processing including the generation of information, wherein the motion point trajectory trained model is configured to correlate the input motion point trajectory information with the evaluation of jaw movement. Let me do it.
本発明の一実施形態において、顎運動を測定するための方法は、顎運動中の被験者の顔の連続した複数の画像を取得することと、前記複数の画像に基づいて、前記顔の下顎領域内の運動点を少なくとも抽出することと、前記運動点を追跡することによって、前記運動点の軌跡を示す運動点軌跡情報を少なくとも生成することと、複数の被験者の運動点軌跡情報を学習する処理を施された運動点軌跡学習済モデルを利用して、前記運動点軌跡情報に少なくとも基づいて、前記被験者の顎運動の評価を示す顎運動評価情報を生成することであって、前記運動点軌跡学習済モデルは、入力された運動点軌跡情報を顎運動の評価と相関させるように構成されている、こととを含む。 In one embodiment of the invention, the method for measuring jaw movement is to acquire a plurality of consecutive images of the subject's face during jaw movement, and based on the plurality of images, the mandibular region of the face. Processing to learn at least the motion point trajectory information of a plurality of subjects by extracting at least the motion points in the motion point, generating at least the motion point trajectory information indicating the trajectory of the motion point by tracking the motion point, and learning the motion point trajectory information of a plurality of subjects. This is to generate jaw movement evaluation information indicating the evaluation of the jaw movement of the subject based on at least the movement point trajectory information by using the movement point trajectory learned model. The trained model includes that the input motion point trajectory information is configured to correlate with the evaluation of jaw motion.
本発明の一実施形態において、被験者の顎運動を測定するために利用される運動点軌跡学習済モデルを構築するためのシステムは、複数の被験者の運動点を追跡することによって得られた運動点の軌跡を示す運動点軌跡情報を少なくとも取得する取得手段と、少なくとも前記複数の被験者の前記運動点軌跡情報を入力用教師データとした学習処理により、運動点軌跡学習済モデルを構築する構築手段とを備える。 In one embodiment of the present invention, the system for constructing a motion point trajectory trained model used for measuring the jaw motion of a subject is a motion point obtained by tracking the motion points of a plurality of subjects. An acquisition means for acquiring at least the motion point trajectory information indicating the trajectory of the motion point, and a construction means for constructing a motion point trajectory trained model by learning processing using the motion point trajectory information of at least the plurality of subjects as input teacher data. To prepare for.
一実施形態において、前記学習処理は、教師あり学習であり、前記取得手段は、前記複数の被験者の顎運動の評価を取得し、前記取得された顎運動の評価が出力用教師データとして利用される。 In one embodiment, the learning process is supervised learning, the acquisition means acquires evaluations of jaw movements of the plurality of subjects, and the acquired evaluations of jaw movements are used as output teacher data. To.
一実施形態において、前記学習処理は、教師なし学習であり、本発明のシステムは、前記構築された運動点軌跡学習済モデルの出力を分類する分類手段をさらに備える。 In one embodiment, the learning process is unsupervised learning, and the system of the present invention further comprises a classification means for classifying the output of the constructed motion point trajectory trained model.
本発明の一実施形態において、被験者の顎運動を測定するために利用される運動点軌跡学習済モデルを構築するためのプログラムは、プロセッサ部を備えるシステムにおいて実行され、前記プログラムは、複数の被験者の運動点を追跡することによって得られた運動点の軌跡を示す運動点軌跡情報を少なくとも取得することと、少なくとも前記複数の被験者の前記運動点軌跡情報を入力用教師データとした学習処理により、運動点軌跡学習済モデルを構築することとを含む処理を前記プロセッサ部に行わせる。 In one embodiment of the present invention, a program for constructing a motion point trajectory trained model used for measuring a subject's jaw motion is executed in a system including a processor unit, and the program is a plurality of subjects. By acquiring at least the motion point trajectory information indicating the trajectory of the motion point obtained by tracking the motion points of the above, and by learning processing using the motion point trajectory information of at least the plurality of subjects as input teacher data. The processor unit is made to perform a process including constructing a model in which the motion point trajectory has been learned.
一実施形態において、被験者の顎運動を測定するために利用される運動点軌跡学習済モデルを構築するための方法は、複数の被験者の運動点を追跡することによって得られた運動点の軌跡を示す運動点軌跡情報を少なくとも取得することと、少なくとも前記複数の被験者の前記運動点軌跡情報を入力用教師データとした学習処理により、運動点軌跡学習済モデルを構築することとを含む。 In one embodiment, a method for constructing a motion point trajectory trained model used to measure a subject's jaw motion is to track the trajectory of the motion points obtained by tracking the motion points of a plurality of subjects. It includes at least acquiring the motion point trajectory information to be shown, and constructing a motion point trajectory trained model by a learning process using the motion point trajectory information of at least the plurality of subjects as input teacher data.
本発明によれば、被験者の顎運動を簡易に測定することが可能なシステム等を提供することができる。ユーザは、本発明のシステムを用いることにより、場所を問わずに、例えば、医療機関以外にも、会社、自宅等で顎運動を測定することができるようになる。 According to the present invention, it is possible to provide a system or the like capable of easily measuring the jaw movement of a subject. By using the system of the present invention, the user can measure jaw movements at any place, for example, at a company, at home, or the like, in addition to a medical institution.
(定義)
本明細書において「下顎領域」は、顔の下顎骨上の領域のことをいう。(Definition)
As used herein, the term "mandible region" refers to the region on the mandible of the face.
本明細書において「上顔面領域」は、顔の下顎領域以外の領域のことをいう。すなわち、顔の領域は、「下顎領域」と「上顔面領域」とに二分される。 As used herein, the term "upper facial region" refers to an region other than the mandibular region of the face. That is, the facial region is divided into a "mandibular region" and a "upper facial region".
本明細書において「顔の座標系」とは、顔において定義された座標系のことをいう。「顔の座標系」は、例えば、水平系(x軸)と、矢状系(y軸)と、冠状系(z軸)とからなる。「顔の座標系」における水平系は、例えば、眼耳平面(フランクフルト平面)、鼻聴導線(もしくはカンペル平面)、ヒップ平面、咬合平面、または、両瞳孔線等に沿って定義される。「顔の座標系」の矢状系は、例えば、正中線、または、正中矢状平面等に沿って定義される。「顔の座標系」の冠状系は、例えば、眼窩平面等に沿って定義される。水平系、矢状系、および冠状系を定義する平面または線は、上述したものに限定されず、任意の平面または線に沿って定義され得る。 As used herein, the term "face coordinate system" refers to a coordinate system defined for a face. The "face coordinate system" includes, for example, a horizontal system (x-axis), a sagittal system (y-axis), and a coronal system (z-axis). The horizontal system in the "face coordinate system" is defined along, for example, the eye-ear plane (Frankfurt plane), the nasal hearing line (or Campel plane), the hip plane, the occlusal plane, or both pupil lines. The sagittal system of the "face coordinate system" is defined, for example, along the median line, the mid-sagittal plane, and the like. The coronal system of the "face coordinate system" is defined, for example, along the orbital plane. The planes or lines that define the horizontal, sagittal, and coronal systems are not limited to those described above and can be defined along any plane or line.
本明細書において「顔の基準座標系」とは、正面を向いた人間が通常有する顔の座標系のことをいう。「顔の基準座標系」は、複数の顔の画像を学習することによって導出される。 As used herein, the term "face reference coordinate system" refers to the face coordinate system normally possessed by a person facing the front. The "face reference coordinate system" is derived by learning multiple facial images.
本明細書において「運動点」とは、顎運動によって運動する部位上の点または領域のことをいう。 As used herein, the term "exercise point" refers to a point or region on a site that is exercised by jaw movement.
本明細書において「固定点」とは、顎運動によっては運動しない部位上の点または領域のことをいう。 As used herein, the term "fixed point" refers to a point or region on a site that does not move due to jaw movement.
本明細書において「ベース顔モデル」とは、顔の3次元モデルのことをいい、いわゆる「3Dアバター」である。実際の顎運動を撮影した動画から抽出された特徴部分の動きを「ベース顔モデル」に対して反映させると、実際の顎運動を反映した「顎運動顔モデル」となる。「顎運動顔モデル」は、いわゆる、動画中の顎運動に合わせて「動く3Dアバター」である。 In the present specification, the "base face model" refers to a three-dimensional model of a face, and is a so-called "3D avatar". When the movement of the characteristic part extracted from the video of the actual jaw movement is reflected on the "base face model", the "jaw movement face model" that reflects the actual jaw movement is obtained. The "jaw movement face model" is a so-called "moving 3D avatar" according to the jaw movement in the moving image.
本明細書において「約」とは、後に続く数値の±10%を意味する。 As used herein, "about" means ± 10% of the value that follows.
以下、図面を参照しながら、本発明の実施の形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
1.患者の顎運動を簡易に測定するためのフロー
図1は、本発明の一実施形態を用いて、患者の顎運動を簡易に測定するためのフロー10の一例を示す。フロー10は、歯科医が、患者20が咀嚼している様子を動画で撮影するだけで、患者20の顎運動が測定され(すなわち、咀嚼時顎運動測定が行われ)、顎運動の測定結果が歯科医に提供されるというものである。 1. 1. Flow for simply measuring a patient's jaw movement FIG. 1 shows an example of a
はじめに、歯科医が、端末装置300(例えば、スマートフォン、タブレット等)を用いて、患者20が咀嚼している様子を動画で撮影する。なお、動画は、連続した複数の画像(静止画)であると見なせるため、本明細書では、「動画」と「連続した複数の画像」とは同義に用いられる。 First, a dentist uses a terminal device 300 (for example, a smartphone, a tablet, etc.) to take a moving image of the patient 20 chewing. Since a moving image can be regarded as a plurality of continuous images (still images), the "moving image" and the "consecutive plurality of images" are used interchangeably in the present specification.
ステップS1では、撮影された動画が、サーバ装置30に提供される。動画がサーバ装置30に提供される態様は問わない。例えば、動画は、ネットワーク(例えば、インターネット、LAN等)を介してサーバ装置30に提供され得る。例えば、動画は、記憶媒体(例えば、リムーバブルメディア)を介してサーバ装置30に提供され得る。
In step S1, the captured moving image is provided to the
次いで、サーバ装置30において、ステップS1で提供された動画に対する処理が行われる。サーバ装置30による処理により、患者20の顎運動の測定結果が生成される。顎運動の測定結果は、例えば、顎運動の軌跡を表す情報であり得る。あるいは、顎運動の測定結果は、例えば、顎運動の軌跡を表す情報に基づいて生成された患者20の顎運動を評価した顎運動評価情報であり得る。顎運動評価情報は、例えば、顎運動の軌跡が正常なパターンであるか否かの情報を含む。
Next, in the
ステップS2では、サーバ装置30で生成された顎運動の測定結果が、歯科医に提供される。顎運動の測定結果が提供される態様は問わない。例えば、顎運動の測定結果は、ネットワークを介して提供されてもよいし、記憶媒体を介して提供されてもよい。あるいは、例えば、顎運動の測定結果は、紙媒体を介して提供されてもよい。
In step S2, the measurement result of the jaw movement generated by the
歯科医は、ステップS2で提供された患者20の顎運動の測定結果を確認する。 The dentist confirms the measurement result of the jaw movement of the patient 20 provided in step S2.
このように、歯科医は、特有の器具を必要とすることなく、端末装置300で患者20の咀嚼の様子を撮影するだけで、患者20の顎運動を簡易に測定することができる。
As described above, the dentist can easily measure the jaw movement of the patient 20 simply by photographing the state of chewing of the patient 20 with the
上述した例では、フロー10において、咀嚼時顎運動測定を行うことを説明したが、本発明は、これに限定されない。例えば、フロー10において、限界運動測定を行うこともできる。これは、例えば、歯科医が、端末装置300を用いて、患者20が顎を大きく動かした様子(例えば、大きく口を開けた様子、顎を前に出した様子等)を動画で撮影し、撮影された動画をサーバ装置30で処理することによって達成され得る。
In the above-mentioned example, it has been described that the jaw movement during mastication is measured in the
上述した例では、歯科医が、患者20の顎運動の動画を撮影するだけで、顎運動の測定結果の提供を受けることができるフロー10を説明したが、本発明は、これに限定されない。例えば、患者20が、自身の端末装置300を用いて、自身が咀嚼している様子を動画で撮影するだけで、あるいは、患者20が、別の人に、端末装置300を用いて、自身が咀嚼している様子を動画で撮影してもらうだけで、患者20の顎運動の測定結果が、医師、歯科医、介護者、または患者20の家族あるいは患者20本人に提供されるというフローも可能である。
In the above-mentioned example, the dentist has described the
なお、上述したサーバ装置30による処理を端末装置300で行うことも可能である。この場合は、サーバ装置30が省略され得、端末装置300は、スタンドアローンで動くことができる。患者20の顎運動の測定結果が、医師、歯科医、介護者、または家族に提供される上述した例では、端末装置300からサーバ装置30を介することなく、顎運動の測定結果が病院の医師もしくは歯科医、または、介護者、または、患者の20の家族あるいは患者20本人に提供され得る。
It is also possible for the
上述したフロー10は、後述する本発明のコンピュータシステム100を利用して実現され得る。
The above-mentioned
2.被験者の顎運動を測定するためのコンピュータシステムの構成
図2は、被験者の顎運動を測定するためのコンピュータシステム100の構成の一例を示す。 2. 2. Configuration of a Computer System for Measuring the Jaw Movement of a Subject FIG. 2 shows an example of the configuration of a
コンピュータシステム100は、データベース部200に接続されている。また、コンピュータシステム100は、少なくとも1つの端末装置300にネットワーク400を介して接続され得る。
The
ネットワーク400は、任意の種類のネットワークであり得る。ネットワーク400は、例えば、インターネットであってもよいし、LANであってもよい。ネットワーク400は、有線ネットワークであってもよいし、無線ネットワークであってもよい。
The
コンピュータシステム100の一例は、サーバ装置であるが、これに限定されない。端末装置300の一例は、ユーザが保持するコンピュータ(例えば、端末装置)、または、病院に設置されているコンピュータ(例えば、端末装置)であるが、これに限定されない。ここで、コンピュータ(サーバ装置または端末装置)は、任意のタイプのコンピュータであり得る。例えば、端末装置は、スマートフォン、タブレット、パーソナルコンピュータ、スマートグラス等の任意のタイプの端末装置であり得る。
An example of the
コンピュータシステム100は、インターフェース部110と、プロセッサ部120と、メモリ170部とを備える。
The
インターフェース部110は、コンピュータシステム100の外部と情報のやり取りを行う。コンピュータシステム100のプロセッサ部120は、インターフェース部110を介して、コンピュータシステム100の外部から情報を受信することが可能であり、コンピュータシステム100の外部に情報を送信することが可能である。インターフェース部110は、任意の形式で情報のやり取りを行うことができる。
The
インターフェース部110は、例えば、コンピュータシステム100に情報を入力することを可能にする入力部を備える。入力部が、どのような態様でコンピュータシステム100に情報を入力することを可能にするかは問わない。例えば、入力部がタッチパネルである場合には、ユーザがタッチパネルにタッチすることによって情報を入力するようにしてもよい。あるいは、入力部がマウスである場合には、ユーザがマウスを操作することによって情報を入力するようにしてもよい。あるいは、入力部がキーボードである場合には、ユーザがキーボードのキーを押下することによって情報を入力するようにしてもよい。あるいは、入力部がマイクである場合には、ユーザがマイクに音声を入力することによって情報を入力するようにしてもよい。あるいは、入力部がカメラである場合には、カメラが撮像した情報を入力するようにしてもよい。あるいは、入力部がデータ読み取り装置である場合には、コンピュータシステム100に接続された記憶媒体から情報を読み取ることによって情報を入力するようにしてもよい。あるいは、入力部が受信器である場合、受信器がネットワーク400を介してコンピュータシステム100の外部から情報を受信することにより入力してもよい。
The
インターフェース部110は、例えば、コンピュータシステム100から情報を出力することを可能にする出力部を備える。出力部が、どのような態様でコンピュータシステム100から情報を出力することを可能にするかは問わない。例えば、出力部が表示画面である場合、表示画面に情報を出力するようにしてもよい。あるいは、出力部がスピーカである場合には、スピーカからの音声によって情報を出力するようにしてもよい。あるいは、出力部がデータ書き込み装置である場合、コンピュータシステム100に接続された記憶媒体に情報を書き込むことによって情報を出力するようにしてもよい。あるいは、出力部が送信器である場合、送信器がネットワーク400を介してコンピュータシステム100の外部に情報を送信することにより出力してもよい。この場合、ネットワークの種類は問わない。例えば、送信器は、インターネットを介して情報を送信してもよいし、LANを介して情報を送信してもよい。
The
例えば、出力部は、コンピュータシステム100によって生成された運動点軌跡情報を出力することができる。例えば、出力部は、コンピュータシステム100によって生成された顎運動評価情報を出力することができる。
For example, the output unit can output the motion point trajectory information generated by the
プロセッサ部120は、コンピュータシステム100の処理を実行し、かつ、コンピュータシステム100全体の動作を制御する。プロセッサ部120は、メモリ部170に格納されているプログラムを読み出し、そのプログラムを実行する。これにより、コンピュータシステム100を所望のステップを実行するシステムとして機能させることが可能である。プロセッサ部120は、単一のプロセッサによって実装されてもよいし、複数のプロセッサによって実装されてもよい。
The
メモリ部170は、コンピュータシステム100の処理を実行するために必要とされるプログラムやそのプログラムの実行に必要とされるデータ等を格納する。メモリ部170は、被験者の顎運動を測定するための処理をプロセッサ部120に行わせるためのプログラム(例えば、後述する図8、図9に示される処理を実現するプログラム)、および、被験者の顎運動を測定するために利用される運動点軌跡学習済モデルを構築するための処理(例えば、後述する図10に示される処理を実現するプログラム)を格納してもよい。ここで、プログラムをどのようにしてメモリ部170に格納するかは問わない。例えば、プログラムは、メモリ部170にプリインストールされていてもよい。あるいは、プログラムは、ネットワークを経由してダウンロードされることによってメモリ部170にインストールされるようにしてもよい。この場合、ネットワークの種類は問わない。メモリ部170は、任意の記憶手段によって実装され得る。
The
データベース部200には、例えば、複数の被験者のそれぞれについて、顎運動中の被験者の顔の連続した複数の画像が格納され得る。顎運動中の被験者の顔の連続した複数の画像は、例えば、端末装置300からネットワーク400を介してデータベース部200に送信されたものであってもよいし、例えば、コンピュータシステム100が備える撮影手段によって撮影されたものであってもよい。複数の被験者の顎運動中の顔の連続した複数の画像は、後述する顔基準座標系学習済モデルを構築するために利用され得る。
The
データベース部200には、例えば、複数の被験者のそれぞれについて、顎運動中の顔の連続した複数の画像またはそれらの画像から導出された運動点軌跡情報と、その被験者の顎運動の評価とが関連付けて格納され得る。格納されたデータは、後述する運動点軌跡学習済モデルを構築するために利用され得る。
In the
また、データベース部200には、例えば、コンピュータシステム100によって出力された運動点軌跡情報、または顎運動評価情報が格納され得る。
Further, the
端末装置300は、少なくとも、カメラ等の撮影手段を備える。撮影手段は、少なくとも連続した複数の画像を撮影することが可能である限り、任意の構成を備え得る。撮影手段は、顎運動中の被験者の顔の連続した複数の画像を撮影するために利用される。撮影される画像は、2次元情報(縦×横)を含む画像であってもよいし、3次元情報(縦×横×奥行)を含む画像であってもよい。
The
図3は、一実施形態におけるプロセッサ部120の構成の一例を示す。
FIG. 3 shows an example of the configuration of the
プロセッサ部120は、取得手段121と、抽出手段122と、生成手段123とを備える。
The
取得手段121は、顎運動中の被験者の顔の連続した複数の画像を取得するように構成されている。取得手段121は、例えば、データベース部200に格納されている顎運動中の被験者の顔の連続した複数の画像をインターフェース部110を介して取得することができる。あるいは、取得手段121は、例えば、インターフェース部110を介して端末装置300から受信された連続した複数の画像を取得することができる。
The acquisition means 121 is configured to acquire a plurality of consecutive images of the face of the subject during jaw movement. The acquisition means 121 can acquire, for example, a plurality of consecutive images of the subject's face during jaw movement stored in the
取得手段121は、後述する運動点軌跡学習済モデルを構築するために、複数の被験者の運動点を追跡することによって得られた運動点の軌跡を示す運動点軌跡情報を取得するように構成されてもよい。運動点軌跡情報は、例えば、本発明のコンピュータシステム100を用いて取得された運動点軌跡情報であってもよいし、公知の任意の顎運動測定装置から得られた運動点軌跡情報であってもよい。取得手段121は、例えば、データベース部200に格納されている運動点軌跡情報をインターフェース部110を介して取得することができる。取得手段121は、さらに、後述する運動点軌跡学習済モデルを構築するために、複数の被験者の顎運動の評価を取得するように構成されてもよい。取得手段121は、例えば、データベース部200に格納されている顎運動の評価をインターフェース部110を介して取得することができる。
The acquisition means 121 is configured to acquire motion point trajectory information indicating the trajectory of the motion point obtained by tracking the motion points of a plurality of subjects in order to construct a model in which the motion point trajectory has been learned, which will be described later. You may. The motion point trajectory information may be, for example, motion point trajectory information acquired by using the
抽出手段122は、顔の下顎領域内の運動点を少なくとも抽出するように構成されている。抽出手段122は、例えば、取得手段121が取得した画像から運動点を抽出することができる。抽出手段122は、例えば、後述する補正手段131による出力から運動点を抽出することができる。抽出手段122は、例えば、画像中の運動点がどこであるかの入力を受け、その入力に基づいて、運動点を抽出するようにしてもよいし、入力を受けることなく、自動的に運動点を抽出するようにしてもよい。抽出手段122は、例えば、顔の正中線上の点または領域を運動点として自動的に抽出することができる。顔の下顎領域内の正中線上の点は、顎運動によって大きく動くため、顎運動を評価するために好適である。抽出手段122は、例えば、下顎の先端の点を運動点として自動的に抽出するようにしてもよい。 The extraction means 122 is configured to extract at least the motion points in the lower jaw region of the face. The extraction means 122 can, for example, extract a motion point from an image acquired by the acquisition means 121. The extraction means 122 can, for example, extract a motion point from the output of the correction means 131 described later. For example, the extraction means 122 may receive an input of where the motion point in the image is, and extract the motion point based on the input, or may automatically extract the motion point without receiving the input. May be extracted. The extraction means 122 can automatically extract, for example, a point or region on the midline of the face as a motion point. The points on the midline in the mandibular region of the face are suitable for assessing jaw movement because they move significantly with jaw movement. For example, the extraction means 122 may automatically extract a point at the tip of the lower jaw as a movement point.
一実施形態において、抽出手段122が運動点を自動的に抽出する場合、抽出手段122は、まず、複数の画像の各々に対して、顔の複数の特徴部分を検出する。顔の複数の特徴部分のうちの1つは、例えば、画像中の1以上のピクセルとして表現され得る。顔の複数の特徴部分は、例えば、目、眉毛、鼻、口、眉間、顎、耳、喉、輪郭等に該当する部分であり得る。抽出手段122による顔の複数の特徴部分の抽出は、例えば、複数の被験者の顔画像を用いて特徴部分を学習する処理を施された学習済モデルを用いて行うことができる。一例において、抽出手段122による顔の複数の特徴部分の抽出は、顔認識アプリケーション「Openface」を用いて行うことができる(Tadas Baltrusaitis, Peter Robinson, Louis-Philippe Morency、「OpenFace: an open source facial behavior analysis toolkit」、2016 IEEE Winter Conference on Applications of Computer Vision (WACV)、pp.1-10、2016)。「Openface」は、顔の2次元情報(縦×横)を含む画像から顔の3次元情報(縦×横×奥行)を出力できるソフトウェアである。 In one embodiment, when the extraction means 122 automatically extracts the motion points, the extraction means 122 first detects a plurality of feature portions of the face for each of the plurality of images. One of the plurality of feature portions of the face can be represented, for example, as one or more pixels in the image. The plurality of characteristic parts of the face may be, for example, parts corresponding to eyes, eyebrows, nose, mouth, eyebrows, chin, ears, throat, contour and the like. The extraction of a plurality of feature portions of a face by the extraction means 122 can be performed, for example, by using a trained model that has been subjected to a process of learning the feature portions using facial images of a plurality of subjects. In one example, the extraction of a plurality of facial features by the extraction means 122 can be performed using the face recognition application "Openface" (Tadas Baltrusaitis, Peter Robinson, Louis-Philippe Morency, "OpenFace: an open source facial behavior". analysis toolkit ”, 2016 IEEE Winter Conference on Applications of Computer Vision (WACV), pp.1-10, 2016). "Openface" is software that can output three-dimensional information (vertical x horizontal x depth) of a face from an image including two-dimensional information (vertical x horizontal) of the face.
抽出手段122は、例えば、画像に対して色強調処理を行い、色調が周囲と異なる部分を特徴部分として抽出するようにしてもよい。これは、眉毛等の周囲と色調が明確に異なる部分を抽出する際に特に好ましい。 For example, the extraction means 122 may perform color enhancement processing on an image so as to extract a portion having a color tone different from that of the surroundings as a feature portion. This is particularly preferable when extracting a portion having a color tone that is clearly different from the surroundings such as eyebrows.
図4は、抽出手段122による顔の複数の特徴部分の抽出の結果の一例を示す。抽出手段122は、顔認識アプリケーション「Openface」を用いて、顔の複数の特徴部分を抽出している。抽出された複数の特徴部分のそれぞれが、黒点4000で表示されている。「Openface」では、輪郭が特徴部分として抽出され、輪郭内部の目立つ特徴がない部分(例えば、頬、口と顎との間等)を抽出することはできない。
FIG. 4 shows an example of the result of extraction of a plurality of feature portions of a face by the extraction means 122. The extraction means 122 uses the face recognition application "Openface" to extract a plurality of feature portions of a face. Each of the extracted feature portions is displayed with a
抽出手段122は、抽出された複数の特徴部分のうち、下顎領域内の点4100を運動点として抽出する。抽出手段122は、例えば、抽出された複数の特徴部分のうち、所定期間内の座標変化が所定の範囲内の部分を運動点として抽出することができる。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。所定範囲は、例えば、約5mm~約20mmの範囲等であり得る。これにより、顎運動による運動以外で座標変化している特徴部分を誤って運動点として抽出することを回避することができる。例えば、被験者を撮影する際の被験者の身体の大きな動きを誤って抽出することを回避することができる。
The extraction means 122 extracts the
例えば、図4に示されるように、下顎領域内の下顎の下端の運動点4100が抽出され得る。
For example, as shown in FIG. 4, the
再び図3を参照して、生成手段123は、運動点を追跡することによって、運動点の軌跡を示す運動点軌跡情報を少なくとも生成するように構成されている。運動点軌跡情報は、所定期間内の運動点の軌跡を示す情報である。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。生成手段123は、例えば、連続した複数の画像の各々における運動点の画像中の座標を特定し、連続した複数の画像間で座標をトレースすることによって、運動点軌跡情報を生成することができる。このとき、運動点の座標は、2次元座標であってもよいし、3次元座標であってもよい。画像が2次元情報(縦×横)を含む画像である場合には、運動点の座標は2次元座標となり、画像が3次元情報(縦×横×奥行)を含む画像である場合には、運動点の座標は3次元座標となる。あるいは、画像が2次元情報(縦×横)を含む画像であっても、2次元画像から3次元情報(縦×横×奥行)を出力するアルゴリズムを利用する場合には、運動点の座標は3次元座標となり得る。 With reference to FIG. 3 again, the generating means 123 is configured to generate at least the locus information of the locus indicating the locus of the locus by tracking the locus. The motion point locus information is information indicating the trajectory of the motion point within a predetermined period. Here, the predetermined period may be, for example, all or a part of the period in which a plurality of consecutive images are taken. The generation means 123 can generate motion point locus information by, for example, specifying the coordinates in an image of a motion point in each of a plurality of consecutive images and tracing the coordinates between the plurality of consecutive images. .. At this time, the coordinates of the motion point may be two-dimensional coordinates or three-dimensional coordinates. When the image is an image containing two-dimensional information (vertical x horizontal), the coordinates of the motion points are two-dimensional coordinates, and when the image is an image containing three-dimensional information (vertical x horizontal x depth), the coordinates are two-dimensional coordinates. The coordinates of the motion point are three-dimensional coordinates. Alternatively, even if the image contains 2D information (vertical x horizontal), when using an algorithm that outputs 3D information (vertical x horizontal x depth) from the 2D image, the coordinates of the motion point are It can be 3D coordinates.
生成された運動点軌跡情報は、インターフェース部110を介してコンピュータシステム100の外部に出力され得る。
The generated motion point trajectory information can be output to the outside of the
上述した抽出手段122による顔の複数の特徴部分の抽出では、連続した複数の画像の各々において、顔上の同一の点を抽出することが難しい場合がある。例えば、上述したOpenfaceでは、連続した複数の画像の各々で独立して特徴部分を抽出するため、連続した複数の画像のうちの第1の画像で抽出された特徴部分と、連続した複数の画像のうちの第2の画像で抽出された特徴部分とが同一であるとは限らない。さらに、Openfaceでは、目、眉毛、鼻、口、眉間、顎、耳、喉、輪郭等が特徴部分として抽出されるため、例えば、輪郭上の点を下顎領域に対応する特徴部分とする場合には、連続した複数の画像の撮影中に被験者の身体が動いたり、傾いたりすると、画像内の被写体の顔の輪郭が変わり、抽出される特徴部分も変わる。これにより、抽出される顔の複数の特徴部分は、連続した複数の画像間でずれることとなる。 In the extraction of the plurality of feature portions of the face by the extraction means 122 described above, it may be difficult to extract the same points on the face in each of the plurality of consecutive images. For example, in the above-mentioned Openface, since the feature portion is independently extracted from each of a plurality of consecutive images, the feature portion extracted by the first image among the continuous plurality of images and the continuous plurality of images The feature portion extracted in the second image is not always the same. Further, in Openface, eyes, eyebrows, nose, mouth, eyebrows, chin, ears, throat, contour, etc. are extracted as feature parts. Therefore, for example, when a point on the contour is a feature part corresponding to the lower jaw region. When the subject's body moves or tilts while taking a plurality of consecutive images, the contour of the subject's face in the image changes, and the extracted feature portion also changes. As a result, the plurality of featured portions of the extracted face are displaced between the plurality of consecutive images.
図5は、顔とカメラとの角度をずらした場合の動画における2つのフレームについて、Openfaceを用いて顔の特徴部分を抽出した結果を比較した図である。図5において、白線は、鼻筋の延長線であり、黒点が抽出された特徴部分である。矢印で示される下顎上の特徴部分と白線との間の距離が、2つのフレームで異なっていることから、抽出された特徴部分が、2つのフレームで同一ではないことが確認される。 FIG. 5 is a diagram comparing the results of extracting facial feature portions using Openface for two frames in a moving image when the angle between the face and the camera is shifted. In FIG. 5, the white line is an extension of the nasal muscle and is a characteristic portion from which black dots are extracted. Since the distance between the feature portion on the mandible indicated by the arrow and the white line is different in the two frames, it is confirmed that the extracted feature portion is not the same in the two frames.
このように、連続した複数の画像間で抽出される特徴部分が異なると、特徴部分に基づいて抽出される運動点も、連続した複数の画像間で異なるようになる。これでは、正確な運動点軌跡情報を生成することができなくなる。従って、連続した複数の画像間で、抽出される運動点が異ならないように、撮影中の被験者の動きや傾きを補正することが好ましい。 As described above, when the feature portions extracted from the plurality of consecutive images are different, the motion points extracted based on the feature portions are also different between the plurality of consecutive images. This makes it impossible to generate accurate motion point trajectory information. Therefore, it is preferable to correct the movement and inclination of the subject during imaging so that the extracted motion points do not differ between a plurality of consecutive images.
例えば、被験者の下顎領域に標点を設置することにより、抽出手段122は、下顎領域に設置された標点を認識することによって、運動点を抽出するようにしてもよい。標点は、例えば、シールであってもよいし、インクであってもよい。抽出手段122が、標点を運動点として抽出することにより、抽出される運動点は、連続した複数の画像間で同一になり得る。 For example, by setting a gauge point in the mandibular region of the subject, the extraction means 122 may extract the motion point by recognizing the gauge point installed in the mandibular region. The reference point may be, for example, a sticker or an ink. By extracting the reference point as a motion point by the extraction means 122, the extracted motion points can be the same among a plurality of consecutive images.
一実施形態において、標点は、標点上の特定点を表すように構成され得る。標点がある程度の大きさを有すると、抽出手段122によって連続した複数の画像のそれぞれから認識される標点が、連続した複数の画像間でわずかにずれることがある。抽出手段122が、標点内の任意の点を認識してしまうからである。これでは、抽出される運動点が、連続した複数の画像間でわずかに異なってしまい、これは、運動点軌跡情報の誤差につながり得る。抽出手段122が、標点上の特定点を認識するようにすることで、認識される標点のずれを無くすことができ、抽出される運動点を、連続した複数の画像間で同一にすることができる。特定点は、抽出手段122によって点として認識される大きさであることが好ましい。 In one embodiment, the gauge point may be configured to represent a particular point on the gauge point. If the gauge points have a certain size, the gauge points recognized by the extraction means 122 from each of the plurality of consecutive images may be slightly shifted between the plurality of consecutive images. This is because the extraction means 122 recognizes an arbitrary point in the reference point. In this case, the extracted motion points are slightly different between a plurality of consecutive images, which may lead to an error in the motion point trajectory information. By making the extraction means 122 recognize a specific point on the reference point, it is possible to eliminate the deviation of the recognized reference point, and make the extracted motion points the same among a plurality of consecutive images. be able to. The specific point is preferably of a size recognized as a point by the extraction means 122.
例えば、標点は、特定点を表す模様を有することができる。模様は、例えば、ドット模様(例えば、図11Aに示されるようなARマーカー(例えば、ArUcoマーカー)、QRコード(登録商標)等)であり得る。ドット模様は、各ドットの角または模様の中心を特定点として表している。模様は、例えば、機械製図における重心記号(例えば、図11Bに示されるような、円形を4等分して塗り分けた記号)であり得る。機械製図における重心記号は、その中心を特定点として表している。例えば、標点は、色分けされる(例えば、特定点の色を標点の他の部分の色の補色とする、または、特定点の色を肌色の補色とする)ことにより、特定点を表すようにしてもよい。例えば、標点は、その大きさを十分に小さくすることにより、特定点を表すようにしてもよい。 For example, the gauge point can have a pattern representing a specific point. The pattern can be, for example, a dot pattern (eg, an AR marker (eg, ArUco marker) as shown in FIG. 11A, a QR code®, etc.). The dot pattern represents the corner of each dot or the center of the pattern as a specific point. The pattern can be, for example, a center of gravity symbol in mechanical drawing (for example, a symbol in which a circle is divided into four equal parts and painted separately, as shown in FIG. 11B). The center of gravity symbol in the mechanical drawing represents the center as a specific point. For example, the reference point is color-coded (for example, the color of the specific point is the complementary color of the color of other parts of the reference point, or the color of the specific point is the complementary color of the skin color) to represent the specific point. You may do so. For example, the gauge point may represent a specific point by making its size sufficiently small.
例えば、標点が有する模様がドット模様である場合、ドット模様上の少なくとも4点を認識することにより、標点の3次元座標を導出することができる。3次元座標の導出は、AR(拡張現実)の分野等で公知の技術を用いて達成することができる。標点の3次元座標は、運動点の3次元座標に相当することになる。 For example, when the pattern possessed by the reference point is a dot pattern, the three-dimensional coordinates of the reference point can be derived by recognizing at least four points on the dot pattern. Derivation of three-dimensional coordinates can be achieved by using techniques known in the field of AR (augmented reality) and the like. The three-dimensional coordinates of the reference point correspond to the three-dimensional coordinates of the motion point.
なお、抽出手段122は、「Openface」以外のアプリケーションを用いて特徴部分を抽出するようにしてもよい。例えば、複数の画像間で一貫した特徴部分を抽出することができるアプリケーションであることが好ましい。これにより、上述した標点を用いる場合と同様の効果、すなわち、抽出される運動点が、連続した複数の画像間で同一になり得るという効果を得られるからである。また、抽出手段122は、例えば、顔の3次元情報(縦×横×奥行)を含む画像から特徴部分を抽出することも可能である。抽出手段122が、顔の3次元情報(縦×横×奥行)を含む画像から特徴部分を抽出することによっても、抽出される運動点は、連続した複数の画像間で同一になり得る。 The extraction means 122 may extract the feature portion by using an application other than "Open face". For example, an application that can extract a consistent feature portion between a plurality of images is preferable. This is because the same effect as the case of using the above-mentioned reference point, that is, the effect that the extracted motion points can be the same among a plurality of consecutive images can be obtained. Further, the extraction means 122 can, for example, extract a feature portion from an image including three-dimensional information (length x width x depth) of the face. The extraction means 122 also extracts a feature portion from an image including three-dimensional information (length x width x depth) of the face, and the extracted motion points can be the same among a plurality of consecutive images.
このように、抽出手段122が、標点を運動点として抽出する、または、複数の画像間で一貫した特徴部分を抽出することができるアプリケーションを用いて特徴部分を抽出する、または、顔の3次元情報を含む画像から特徴部分を抽出することにより、抽出される運動点は、連続した複数の画像間で同一になり得る。しかしながら、これらの場合であっても、撮影中の被験者の動きや傾きが存在すると、運動点の軌跡に被験者の動きや傾きが含まれることになり、正確な運動点軌跡情報を生成することができなくなる。従って、撮影中の被験者の動きや傾きを補正することが好ましい。 In this way, the extraction means 122 extracts the feature portion using an application capable of extracting the reference point as a motion point, or extracting a consistent feature portion among a plurality of images, or the face 3 By extracting a feature portion from an image containing dimensional information, the extracted motion points can be the same among a plurality of consecutive images. However, even in these cases, if the subject's movement or inclination during imaging is present, the subject's movement or inclination is included in the locus of the motion point, and accurate motion point trajectory information can be generated. become unable. Therefore, it is preferable to correct the movement and inclination of the subject during imaging.
図6Aは、一実施形態におけるプロセッサ部130の構成の一例を示す。プロセッサ部130は、連続した複数の画像間で、抽出される運動点が異ならないように補正をするための構成を有し得る。プロセッサ部130は、上述したプロセッサ部120の代替としてコンピュータシステム100が備えるプロセッサ部である。図6Aでは、図3に示される要素と同一の要素に同じ参照番号を付し、ここでは説明を省略する。
FIG. 6A shows an example of the configuration of the
プロセッサ部130は、取得手段121と、補正手段131と、抽出手段122と、生成手段123とを備える。
The
補正手段131は、取得手段121によって取得された複数の画像に基づいて、被験者の顔の座標系を少なくとも補正するように構成されている。 The correction means 131 is configured to at least correct the coordinate system of the subject's face based on the plurality of images acquired by the acquisition means 121.
一実施形態において、補正手段131は、複数の画像の各々で被験者の顔の座標系が一致するように、複数の画像の各々について、被験者の顔の座標系を補正することができる。補正手段131は、例えば、複数の画像の各々をアフィン変換することにより、顔の座標系を補正することができる。複数の画像が3次元情報(縦×横×奥行)を含む画像である場合には、3次元のアフィン変換が行われ得る。これにより、複数の画像の各々から抽出される運動点が、複数の画像間で一致するようになる。 In one embodiment, the correction means 131 can correct the coordinate system of the subject's face for each of the plurality of images so that the coordinate system of the subject's face matches for each of the plurality of images. The correction means 131 can correct the coordinate system of the face, for example, by performing an affine transformation on each of the plurality of images. When a plurality of images are images including three-dimensional information (length x width x depth), three-dimensional affine transformation can be performed. As a result, the motion points extracted from each of the plurality of images are matched between the plurality of images.
別の実施形態において、補正手段131は、複数の被験者の顔の基準座標系を学習する処理を施された基準座標系学習済モデルを利用して、複数の画像の各々について、被験者の顔の座標系を補正することができる。基準座標系学習済モデルは、入力された画像中の被験者の顔の座標系を基準座標系に補正した画像を出力するように構成されている。基準座標系学習済モデルは、任意の機械学習モデルを用いて構築することができる。 In another embodiment, the correction means 131 utilizes a reference coordinate system trained model that has been processed to learn the reference coordinate system of the faces of a plurality of subjects, for each of the plurality of images, of the subject's face. The coordinate system can be corrected. The reference coordinate system trained model is configured to output an image obtained by correcting the coordinate system of the subject's face in the input image to the reference coordinate system. The frame of reference trained model can be constructed using any machine learning model.
基準座標系学習済モデルは、例えば、教師あり学習によって構築され得る。教師あり学習では、例えば、被験者の顔の画像が入力用教師データとして用いられ、その画像における基準座標系が出力用教師データとして用いられ得る。複数の被験者(例えば、少なくとも50人分)の複数の画像を繰り返し学習することにより、学習済モデルは、複数の被験者の顔が統計上有すると推定される基準座標系を認識することができるようになる。このような学習済モデルに被験者の顔の画像を入力すると、被験者の顔の座標系と基準座標系との差分が出力されるようになる。例えば、被験者の顔の座標系と基準座標系との差分をゼロにまたは所定の閾値未満にするように、入力された画像を変換処理(例えば、拡縮、回転、剪断、平行移動等)するように学習済モデルを構成することによって、基準座標系学習済モデルが生成され得る。画像の変換処理は、例えば、アフィン変換を利用して行われ得る。 The frame of reference trained model can be constructed, for example, by supervised learning. In supervised learning, for example, an image of the subject's face can be used as input teacher data, and the reference coordinate system in the image can be used as output teacher data. By iteratively learning multiple images of multiple subjects (eg, for at least 50 people), the trained model can recognize a frame of reference that is statistically presumed to have the faces of multiple subjects. become. When an image of the subject's face is input to such a trained model, the difference between the subject's face coordinate system and the reference coordinate system is output. For example, the input image is converted (for example, scaling, rotation, shearing, translation, etc.) so that the difference between the coordinate system of the subject's face and the reference coordinate system becomes zero or less than a predetermined threshold. By constructing a trained model in, a frame of reference trained model can be generated. The image conversion process can be performed using, for example, an affine transformation.
基準座標系学習済モデルは、例えば、教師なし学習によって構築され得る。教師なし学習では、例えば、複数の被験者の顔の画像が入力用教師データとして用いられ得る。複数の被験者の多数の画像を繰り返し学習することにより、学習済モデルは、多くの画像に共通する顔の座標系を、複数の被験者が統計上有すると推定される基準座標系として認識することができるようになる。このような学習済モデルに被験者の顔の画像を入力すると、被験者の顔の座標系と基準座標系との差分が出力されるようになる。例えば、被験者の顔の座標系と基準座標系との差分をゼロにまたは所定の閾値未満にするように、入力された画像を変換処理(例えば、拡縮、回転、剪断、平行移動等)するように学習済モデルを構成することによって、基準座標系学習済モデルが生成され得る。画像の変換処理は、例えば、アフィン変換を利用して行われ得る。 The frame of reference trained model can be constructed, for example, by unsupervised learning. In unsupervised learning, for example, facial images of a plurality of subjects can be used as input teacher data. By repeatedly learning a large number of images of multiple subjects, the trained model can recognize the facial coordinate system common to many images as a reference coordinate system that is estimated to be statistically possessed by multiple subjects. become able to. When an image of the subject's face is input to such a trained model, the difference between the subject's face coordinate system and the reference coordinate system is output. For example, the input image is converted (for example, scaling, rotation, shearing, translation, etc.) so that the difference between the coordinate system of the subject's face and the reference coordinate system becomes zero or less than a predetermined threshold. By constructing a trained model in, a frame of reference trained model can be generated. The image conversion process can be performed using, for example, an affine transformation.
入力用教師データに用いられる画像は、例えば、2次元情報(縦×横)を含む画像であってもよいが、3次元情報(縦×横×奥行)を含む画像であることが好ましい。これにより、構築される基準座標系学習済モデルが、3次元情報を含む画像を出力することができるようになるからである。3次元情報(縦×横×奥行)を含む画像は、例えば、RGB-Dカメラを用いて取得され得る。2次元情報を含む画像を利用する場合には、奥行き情報を推定する処理を行い、奥行き情報を付加したうえで、学習処理に利用することが好ましい。 The image used for the input teacher data may be, for example, an image including two-dimensional information (vertical x horizontal), but is preferably an image including three-dimensional information (vertical x horizontal x depth). This is because the constructed reference coordinate system trained model can output an image including three-dimensional information. An image containing three-dimensional information (length x width x depth) can be acquired using, for example, an RGB-D camera. When using an image containing two-dimensional information, it is preferable to perform a process of estimating the depth information, add the depth information, and then use the image for the learning process.
抽出手段122は、補正手段131によって補正された座標系において、顔の下顎領域内の運動点を抽出する。生成手段123は、抽出された運動点を追跡することによって、運動点の軌跡を示す運動点軌跡情報を生成する。複数の画像の各々から抽出される運動点は、それぞれ同一の座標系において取得されるため、生成される運動点軌跡情報は、より正確な情報となる。 The extraction means 122 extracts the motion points in the lower jaw region of the face in the coordinate system corrected by the correction means 131. The generation means 123 generates motion point locus information indicating the locus of the motion point by tracking the extracted motion points. Since the motion points extracted from each of the plurality of images are acquired in the same coordinate system, the generated motion point trajectory information becomes more accurate information.
図6Bは、別の実施形態におけるプロセッサ部140の構成の一例を示す。プロセッサ部140は、顎運動においては運動しない固定点を基準として用いて、被験者の顔の座標系を補正するための構成を有し得る。プロセッサ部140は、上述したプロセッサ部120の代替としてコンピュータシステム100が備えるプロセッサ部である。図6Bでは、図3、図6Aで上述した構成要素と同じ構成要素には同じ参照数字を付し、ここでは説明を省略する。
FIG. 6B shows an example of the configuration of the
プロセッサ部140は、取得手段121と、補正手段131と、抽出手段122と、生成手段123とを備える。抽出手段122は、第1の抽出手段141と、第2の抽出手段142とを備える。
The
第2の抽出手段142は、複数の画像に基づいて、顔の上顔面領域内の固定点を抽出するように構成されている。第2の抽出手段142は、例えば、画像中の固定点がどこであるかの入力を受け、その入力に基づいて、固定点を抽出するようにしてもよいし、入力を受けることなく、自動的に固定点を抽出するようにしてもよい。例えば、固定点は、顎運動によっては運動しない額、眉、眉間、鼻頭等の部位上の点または領域であり得る。例えば、固定点は、解剖学的特徴(例えば、眉、眉間、外眼角(目尻)、内眼角、瞳孔、耳珠、鼻頭等)上の点または領域であり得る。固定点は、画像上で少なくとも3ピクセルを有することが好ましく、固定点は、例えば、少なくとも3ピクセルを有する1つの領域であってもよいし、それぞれが少なくとも1ピクセルを有する3つの点であってもよい。少なくとも3ピクセルあれば、後述する補正手段131が、これら3つを基準として用いて、複数の画像を顔基準位置テンプレートに対応付けるように補正することができるからである。例えば、固定点は、相互に離間した少なくとも3つの点であり得、この場合、後述する補正手段133によって、固定点と事前に定義された顔基準位置テンプレートとに基づいて被験者の顔の座標系を補正する際に生じ得る誤差を小さくすることができる。例えば、固定点は、顔の上顔面領域の少なくとも一部を覆う領域(例えば、額を覆う曲面)であり得、この場合、後述する補正手段133によって、固定点と事前に定義された顔基準位置テンプレートとに基づいて被験者の顔の座標系を補正する際に生じ得る誤差を小さくすることができる。 The second extraction means 142 is configured to extract fixed points in the upper facial region of the face based on a plurality of images. The second extraction means 142 may, for example, receive an input of where the fixed point in the image is and extract the fixed point based on the input, or may automatically extract the fixed point without receiving the input. A fixed point may be extracted. For example, the fixed point can be a point or region on a site such as the forehead, glabellar, glabellar, nasal tip, etc. that does not move with jaw movement. For example, the fixed point can be a point or region on an anatomical feature (eg, eyebrows, glabellar, external eye angle (outer corner of the eye), internal eye angle, pupil, tragus, nose tip, etc.). The fixed point is preferably having at least 3 pixels on the image, and the fixed point may be, for example, one area having at least 3 pixels, or 3 points each having at least 1 pixel. May be good. This is because if there are at least 3 pixels, the correction means 131, which will be described later, can use these three as a reference and correct a plurality of images so as to be associated with the face reference position template. For example, the fixed points can be at least three points that are spaced apart from each other, in which case the coordinate system of the subject's face is based on the fixed points and a predefined face reference position template by the correction means 133 described below. It is possible to reduce the error that may occur when correcting the above. For example, the fixed point can be an area that covers at least a portion of the upper facial area of the face (eg, a curved surface that covers the forehead), in which case the fixed point and a pre-defined face reference by the correction means 133 described below. It is possible to reduce the error that may occur when correcting the coordinate system of the subject's face based on the position template.
一実施形態において、第2の抽出手段142が自動的に固定点を抽出する場合、第2の抽出手段142は、図3を参照して上述した抽出手段122と同様に、まず、複数の画像の各々に対して、顔の複数の特徴部分を検出する。第2の抽出手段142による顔の複数の特徴部分の抽出は、例えば、複数の被験者の顔画像を用いて特徴部分を学習する処理を施された学習済モデルを用いて行うことができ、例えば、顔認識アプリケーション「Openface」を用いて行うことができる。第2の抽出手段142は、抽出された複数の特徴部分のうち、上顔面領域内の点または領域を固定点として抽出する。第2の抽出手段142は、例えば、抽出された複数の特徴部分のうち、所定期間内の座標変化が所定の閾値未満の部分を固定点として抽出することができる。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。所定の閾値は、例えば、約1mmであり得る。第2の抽出手段142は、例えば、画像に対して色強調処理を行い、色調が周囲と異なる部分を特徴部分として抽出するようにしてもよい。これは、眉毛等の周囲と色調が明確に異なる部分を抽出する際に特に好ましい。 In one embodiment, when the second extraction means 142 automatically extracts a fixed point, the second extraction means 142 first, like the extraction means 122 described above with reference to FIG. 3, first has a plurality of images. For each of the above, multiple feature parts of the face are detected. The extraction of a plurality of feature portions of a face by the second extraction means 142 can be performed, for example, by using a trained model that has been processed to learn the feature portions using facial images of a plurality of subjects. , Can be done using the face recognition application "Openface". The second extraction means 142 extracts a point or region in the upper facial region as a fixed point among the plurality of extracted feature portions. The second extraction means 142 can, for example, extract a portion of the extracted plurality of feature portions whose coordinate change within a predetermined period is less than a predetermined threshold value as a fixed point. Here, the predetermined period may be, for example, all or a part of the period in which a plurality of consecutive images are taken. The predetermined threshold can be, for example, about 1 mm. The second extraction means 142 may, for example, perform color enhancement processing on the image to extract a portion having a color tone different from that of the surroundings as a feature portion. This is particularly preferable when extracting a portion having a color tone that is clearly different from the surroundings such as eyebrows.
一実施形態において、被験者の上顔面領域に標点を設置することにより、第2の抽出手段142は、上顔面領域に設置された標点を認識することによって、固定点を抽出するようにしてもよい。本明細書および特許請求の範囲では、上顔面領域に設置される標点は、下顎領域に設置される標点と区別するために、固定点用標点とも呼ばれる。固定点用標点は、下顎領域に設置される標点と同様の構成を有することができる。固定点用標点は、例えば、シールであってもよいし、インクであってもよい。固定点用標点は、下顎領域に設置される標点とは別個に用いられてもよいが、固定点用標点は、下顎領域に設置される標点と併用されることが好ましい。 In one embodiment, by setting a reference point in the upper face region of the subject, the second extraction means 142 extracts the fixed point by recognizing the reference point installed in the upper face region. May be good. In the present specification and claims, a fixed point is also referred to as a fixed point to distinguish it from a point placed in the mandibular region. The fixed point station can have the same configuration as the point point installed in the mandibular region. The fixed point reference point may be, for example, a seal or ink. The fixed point point may be used separately from the point set in the mandibular region, but the fixed point point is preferably used in combination with the point set in the mandibular region.
一実施形態において、固定点用標点は、固定点用標点上の特定点を表すように構成され得る。例えば、固定点用標点は、特定点を表す模様を有することができる。模様は、例えば、ドット模様(例えば、図11Aに示されるようなARマーカー(例えば、ArUcoマーカー)、QRコード(登録商標)等)であり得る。ドット模様は、各ドットの角または模様の中心を特定点として表している。模様は、例えば、機械製図における重心記号(例えば、図11Bに示されるような、円形を4等分して塗り分けた記号)であり得る。機械製図における重心記号は、その中心を特定点として表している。例えば、固定点用標点は、色分けされる(例えば、特定点の色を標点の他の部分の色の補色とする、または、特定点の色を肌色の補色とする)ことにより、特定点を表すようにしてもよい。例えば、固定点用標点は、その大きさを十分に小さくすることにより、特定点を表すようにしてもよい。 In one embodiment, the fixed point gauge may be configured to represent a particular point on the fixed point gauge. For example, a fixed point fixed point can have a pattern representing a specific point. The pattern can be, for example, a dot pattern (eg, an AR marker (eg, ArUco marker) as shown in FIG. 11A, a QR code®, etc.). The dot pattern represents the corner of each dot or the center of the pattern as a specific point. The pattern can be, for example, a center of gravity symbol in mechanical drawing (for example, a symbol in which a circle is divided into four equal parts and painted separately, as shown in FIG. 11B). The center of gravity symbol in the mechanical drawing represents the center as a specific point. For example, a fixed point can be identified by color-coding (for example, the color of a specific point is the complementary color of the color of another part of the reference point, or the color of the specific point is the complementary color of the skin color). It may represent a point. For example, a fixed point fixed point may represent a specific point by making its size sufficiently small.
例えば、固定点用標点が有する模様がドット模様である場合、ドット模様上の少なくとも4点を認識することにより、固定点用標点の3次元座標を導出することができる。3次元座標の導出は、AR(拡張現実)の分野等で公知の技術を用いて達成することができる。固定点用標点の3次元座標は、固定点の3次元座標に相当することになる。 For example, when the pattern of the fixed point gauge point is a dot pattern, the three-dimensional coordinates of the fixed point gauge point can be derived by recognizing at least four points on the dot pattern. Derivation of three-dimensional coordinates can be achieved by using techniques known in the field of AR (augmented reality) and the like. The three-dimensional coordinates of the fixed point reference point correspond to the three-dimensional coordinates of the fixed point.
補正手段131は、固定点と、事前に定義された顔基準位置テンプレートとに基づいて、被験者の顔の座標系を補正するように構成されている。例えば、補正手段131は、複数の画像の各々の固定点が、顔基準位置テンプレート上の対応する点に移動するように、複数の画像の各々を変換処理(例えば、拡縮、回転、剪断、平行移動等)する。あるいは、例えば、補正手段131は、複数の画像の各々の固定点と顔基準位置テンプレート上の対応する点との間の距離をゼロにまたは所定の閾値未満にするように、複数の画像の各々を変換処理する。あるいは、例えば、補正手段131は、複数の画像の各々の固定点によって定義される平面と顔基準位置テンプレート上の対応する平面とが一致するように、複数の画像の各々を変換処理する。変換処理後の複数の画像内の被験者の顔の座標系が、補正後の顔の座標系となる。画像の変換処理は、例えば、アフィン変換によって行われ得る。例えば、固定点が顔の上顔面領域の少なくとも一部を覆う領域(例えば、額を覆う曲面)である場合に、補正手段131は、当該領域と、顔基準位置テンプレート上の対応する領域との誤差が最小になるように、複数の画像の各々を変換処理することができる。これは、例えば、最小二乗法を用いて行うことができる。補正手段131は、例えば、固定点に加えて、運動点も利用して、被験者の顔の座標系を補正するようにしてもよい。 The correction means 131 is configured to correct the coordinate system of the subject's face based on the fixed point and a predefined face reference position template. For example, the correction means 131 transforms each of the plurality of images (eg, scaling, rotation, shearing, translation) so that each fixed point of the plurality of images moves to a corresponding point on the face reference position template. (Move, etc.). Alternatively, for example, the correction means 131 may each of the plurality of images so that the distance between each fixed point of the plurality of images and the corresponding point on the face reference position template is zero or less than a predetermined threshold. Is converted. Alternatively, for example, the correction means 131 transforms each of the plurality of images so that the plane defined by each fixed point of the plurality of images coincides with the corresponding plane on the face reference position template. The coordinate system of the subject's face in the plurality of images after the conversion process becomes the coordinate system of the corrected face. The image conversion process can be performed by, for example, an affine transformation. For example, when the fixed point is a region covering at least a part of the upper facial region of the face (for example, a curved surface covering the forehead), the correction means 131 has the region and the corresponding region on the face reference position template. Each of the plurality of images can be converted so that the error is minimized. This can be done, for example, using the method of least squares. The correction means 131 may, for example, correct the coordinate system of the subject's face by using the motion point in addition to the fixed point.
一例において、顔基準位置テンプレートは、顔が正面を向いている状態での顔の位置(すなわち、顔基準位置)を定義するテンプレートである。例えば、顔基準位置テンプレートは、解剖学的に定義され得る。例えば、顔基準位置テンプレートは、眼耳平面(フランクフルト平面)、鼻聴導線(もしくはカンペル平面)、ヒップ平面、咬合平面、または、両瞳孔線が水平となる状態での顔の位置を定義するテンプレートであり得る。例えば、顔基準位置テンプレートは、正中線、または、正中矢状平面が垂直となる状態での顔の位置を定義するテンプレートであり得る。例えば、顔基準位置テンプレートは、眼窩平面が正面を向く状態での顔の位置を定義するテンプレートであり得る。例えば、顔基準位置テンプレートは、眼耳平面(フランクフルト平面)、鼻聴導線(もしくはカンペル平面)、ヒップ平面、咬合平面、または、両瞳孔線が水平となる状態で、かつ/または、正中線、または、正中矢状平面が垂直となる状態で、かつ/または、眼窩平面が正面を向く状態での顔の位置を定義するテンプレートであり得る。顔基準位置テンプレートは、顔が正面を向いている状態での顔の各部位の位置を確認するために用いられることができる。例えば、補正手段131は、顔基準位置テンプレートにおける顔の部位の位置を確認し、その位置に複数の画像中の対応する部位(例えば、固定点が位置する部位)を移動させるように、複数の画像の各々を変換処理することができる。例えば、補正手段131は、顔基準位置テンプレートにおける種々の平面(例えば、フランクフルト平面、カンペル平面等)の向きを確認し、その向きに複数の画像中の対応する平面(例えば、固定点によって定義される平面)を移動させるように、複数の画像の各々を変換処理することができる。 In one example, the face reference position template is a template that defines the position of the face (that is, the face reference position) when the face is facing the front. For example, a face reference position template can be anatomically defined. For example, the face reference position template is a template that defines the position of the face when the eye-ear plane (Frankfurt plane), the nasal hearing line (or Campel plane), the hip plane, the occlusal plane, or both pupil lines are horizontal. Can be. For example, the face reference position template can be a template that defines the position of the face in a state where the median line or the mid-sagittal plane is vertical. For example, a face reference position template can be a template that defines the position of the face with the orbital plane facing forward. For example, the face reference position template may be an ophthalmic plane (Frankfurt plane), a nasal hearing line (or Campel plane), a hip plane, an occlusal plane, or with both pupil lines horizontal and / or a midline. Alternatively, it may be a template that defines the position of the face with the midsaline plane perpendicular and / or with the orbital plane facing forward. The face reference position template can be used to confirm the position of each part of the face with the face facing forward. For example, the correction means 131 confirms the position of the face part in the face reference position template, and moves a plurality of corresponding parts (for example, a part where a fixed point is located) in the plurality of images to the position. Each of the images can be converted. For example, the correction means 131 confirms the orientation of various planes (eg, Frankfurt plane, Campel plane, etc.) in the face reference position template, and the orientation is defined by the corresponding planes (eg, fixed points) in the plurality of images. Each of the plurality of images can be converted so as to move the plane.
一例において、顔基準位置テンプレートは、連続した複数の画像を撮影する際に利用されるテンプレートとして実装され得る。例えば、顔基準位置テンプレートが、端末装置300を用いて複数の画像を撮影する際に端末装置300の画面に表示され、被験者の顔の向きが、顔基準位置テンプレートに整合した場合にのみ、画像が撮影されるようにすることができる。これにより、撮影される複数の画像の各々における被験者の顔の写り方が一貫し、連続した複数の画像間で、抽出される運動点が異なる可能性を低減することができる。このような撮影される画像を制限することも、コンピュータシステム100による補正の一種である。
In one example, the face reference position template can be implemented as a template used when taking a plurality of consecutive images. For example, the image is displayed only when the face reference position template is displayed on the screen of the
第1の抽出手段141は、図3を参照して上述した抽出手段122と同様の構成であり得る。第1の抽出手段141は、補正手段131によって補正された座標系において、顔の下顎領域内の運動点を抽出する。生成手段123は、抽出された運動点を追跡することによって、運動点の軌跡を示す運動点軌跡情報を生成する。複数の画像の各々から抽出される運動点は、それぞれ同一の座標系において取得されるため、生成される運動点軌跡情報は、より正確な情報となる。 The first extraction means 141 may have the same configuration as the extraction means 122 described above with reference to FIG. The first extraction means 141 extracts the motion points in the lower jaw region of the face in the coordinate system corrected by the correction means 131. The generation means 123 generates motion point locus information indicating the locus of the motion point by tracking the extracted motion points. Since the motion points extracted from each of the plurality of images are acquired in the same coordinate system, the generated motion point trajectory information becomes more accurate information.
上述したように、図6Bに示される例では、固定点を基準として用いて顔の座標系を補正することにより、より正確な運動点軌跡情報を生成することができる。例えば、連続した複数の画像の撮影時に、被験者の身体の動き等により、顎運動とは独立して固定点が移動してしまう場合(例えば、眉を固定点とする際に顎運動をしながら眉を上下に動かしたり、上顔面領域の皮膚が動いたりすることにより、固定点が複数の画像間で一致しない場合等)には、固定点を基準として用いて顔の座標系を補正することに加えて、固定点の移動を相殺するように補正することが好ましい。固定点の移動による運動点の軌跡の誤差が低減され、さらに正確な運動点軌跡情報を生成することができるからである。 As described above, in the example shown in FIG. 6B, more accurate motion point trajectory information can be generated by correcting the coordinate system of the face using the fixed point as a reference. For example, when the fixed point moves independently of the jaw movement due to the movement of the subject's body when taking a plurality of consecutive images (for example, while performing the jaw movement when the eyebrows are set as the fixed point). If the fixed points do not match between multiple images due to the movement of the chin up and down or the skin in the upper facial area, etc.), correct the facial coordinate system using the fixed points as a reference. In addition, it is preferable to correct the movement of the fixed point so as to cancel it. This is because the error of the locus of the moving point due to the movement of the fixed point is reduced, and more accurate information on the locus of the moving point can be generated.
固定点の移動を相殺するように補正するために、補正手段131は、第2の生成手段(図示せず)と、第2の補正手段(図示せず)とをさらに備え得る。 In order to compensate for offsetting the movement of the fixed point, the correction means 131 may further include a second generation means (not shown) and a second correction means (not shown).
第2の生成手段は、固定点を追跡することによって、固定点の軌跡を示す固定点軌跡情報を生成するように構成されている。第2の生成手段は、例えば、少なくとも3ピクセルのそれぞれについて固定点軌跡情報を生成するようにしてもよいし、少なくとも3ピクセルのうちの少なくとも1ピクセル(例えば、最も正中線に近いピクセル、最も上側にあるピクセル、最も下側にあるピクセル、ランダムに選択されるピクセルなど)について固定点軌跡情報を生成するようにしてもよい。第2の生成手段は、例えば、少なくとも3ピクセルの重心について固定点軌跡情報を生成するようにしてもよい。固定点軌跡情報は、所定期間内の固定点の軌跡を示す情報である。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。第2の生成手段は、例えば、連続した複数の画像の各々における固定点の画像中の座標を追跡することによって、固定点軌跡情報を生成することができる。 The second generation means is configured to generate fixed point locus information indicating the locus of the fixed point by tracking the fixed point. The second generation means may, for example, generate fixed point trajectory information for each of at least 3 pixels, or at least 1 pixel out of at least 3 pixels (eg, the pixel closest to the midline, the uppermost). Fixed point trajectory information may be generated for pixels at, the bottom of the pixel, randomly selected pixels, etc.). The second generation means may generate fixed point locus information for, for example, a center of gravity of at least 3 pixels. The fixed point locus information is information indicating the locus of a fixed point within a predetermined period. Here, the predetermined period may be, for example, all or a part of the period in which a plurality of consecutive images are taken. The second generation means can generate fixed point locus information, for example, by tracking the coordinates in the image of the fixed point in each of a plurality of consecutive images.
第2の補正手段は、固定点軌跡情報に基づいて、運動点軌跡情報を補正するように構成されている。例えば、第2補正手段は、運動点の軌跡から固定点の軌跡を差し引くことによって、運動点軌跡情報を補正するようにしてもよい。このとき、例えば、少なくとも3ピクセルのそれぞれの固定点軌跡情報のうち、最も軌跡の移動が小さいピクセルの固定点軌跡情報を用いて、運動点の軌跡から固定点の軌跡を差し引くことによって、運動点軌跡情報を補正することができる。あるいは、例えば、少なくとも3ピクセルのそれぞれの固定点軌跡情報のうち、最も軌跡の移動が大きいピクセルの固定点軌跡情報を用いて、運動点の軌跡から固定点の軌跡を差し引くことによって、運動点軌跡情報を補正することができる。あるいは、例えば、少なくとも3ピクセルの重心の固定点軌跡情報を用いて、運動点の軌跡から固定点の軌跡を差し引くことによって、運動点軌跡情報を補正することができる。 The second correction means is configured to correct the motion point trajectory information based on the fixed point trajectory information. For example, the second correction means may correct the motion point locus information by subtracting the locus of the fixed point from the locus of the motion point. At this time, for example, among the fixed point locus information of each of at least 3 pixels, the fixed point locus information of the pixel having the smallest locus movement is used, and the locus of the fixed point is subtracted from the locus of the locus to move the locus. The trajectory information can be corrected. Alternatively, for example, by using the fixed point locus information of the pixel having the largest movement of the locus among the fixed point locus information of at least 3 pixels, the locus of the fixed point is subtracted from the locus of the moving point to obtain the locus of the moving point. Information can be corrected. Alternatively, for example, the motion point trajectory information can be corrected by subtracting the motion point trajectory from the motion point trajectory using the fixed point trajectory information of the center of gravity of at least 3 pixels.
例えば、第2の補正手段は、運動点の座標から固定点の座標を差し引いて得られる補正後の運動点を追跡することによって、運動点軌跡情報を補正するようにしてもよい。このとき、例えば、少なくとも3ピクセルのそれぞれの固定点軌跡情報のうち、最も軌跡の移動が小さいピクセルの座標を運動点の座標から差し引いて、補正後の運動点を得るようにしてもよい。あるいは、例えば、少なくとも3ピクセルのそれぞれの固定点軌跡情報のうち、最も軌跡の移動が大きいピクセルの座標を運動点の座標から差し引いて、補正後の運動点を得るようにしてもよい。あるいは、例えば、少なくとも3ピクセルの重心の座標を運動点の座標から差し引いて、補正後の運動点を得るようにしてもよい。 For example, the second correction means may correct the motion point locus information by tracking the corrected motion point obtained by subtracting the coordinates of the fixed point from the coordinates of the motion point. At this time, for example, among the fixed point trajectory information of at least 3 pixels, the coordinates of the pixel having the smallest locus movement may be subtracted from the coordinates of the motion point to obtain the corrected motion point. Alternatively, for example, the coordinates of the pixel having the largest movement of the locus among the fixed point locus information of at least 3 pixels may be subtracted from the coordinates of the moving point to obtain the corrected moving point. Alternatively, for example, the coordinates of the center of gravity of at least 3 pixels may be subtracted from the coordinates of the motion point to obtain the corrected motion point.
このようにして補正された運動点軌跡情報には、固定点の移動による誤差が含まれておらず、より正確な情報となり得る。 The motion point trajectory information corrected in this way does not include an error due to the movement of the fixed point, and can be more accurate information.
上述した例では、顔の座標系を補正し、補正された座標系において運動点を抽出し、その運動点を追跡することによって、運動点軌跡情報を生成することを説明したが、本発明では、補正のタイミングはこれに限定されない。例えば、運動点を抽出し、抽出された運動点を補正し、補正された運動点を追跡することによって運動点軌跡情報を生成するようにしてもよい。例えば、運動点を抽出し、抽出された運動点を追跡することによって運動点軌跡情報を生成し、生成された運動点軌跡情報を補正するようにしてもよい。これは、上述した座標系の補正と同様の手法で、運動点の座標系または運動点軌跡情報を補正することによって達成され得る。 In the above-mentioned example, it has been described that the motion point locus information is generated by correcting the coordinate system of the face, extracting the motion points in the corrected coordinate system, and tracking the motion points. , The timing of correction is not limited to this. For example, the motion point locus information may be generated by extracting the motion points, correcting the extracted motion points, and tracking the corrected motion points. For example, the motion point locus information may be generated by extracting the motion points and tracking the extracted motion points, and the generated motion point trajectory information may be corrected. This can be achieved by correcting the coordinate system of the moving point or the moving point locus information by the same method as the correction of the coordinate system described above.
すなわち、生成手段123によって生成される運動点軌跡情報は、下顎の運動点以外の運動(例えば、撮影中の被験者の身体の動き(例えば、上顎の運動)や傾きによるノイズ)を示す情報を含む場合と、下顎の運動点以外の運動を示す情報を含まない場合とがある。前者の場合は、運動点軌跡情報を生成した後に運動点軌跡情報を補正する場合である。後者の場合は、運動点軌跡情報を生成する前に、座標系を補正して運動点を抽出する場合であるか、または、運動点追跡情報を生成する前に、運動点を抽出し、抽出された運動点を補正する場合である。 That is, the motion point trajectory information generated by the generation means 123 includes information indicating motions other than the motion points of the lower jaw (for example, movement of the subject's body during imaging (for example, movement of the upper jaw) and noise due to tilt). In some cases, it may not contain information indicating movement other than the movement point of the lower jaw. In the former case, the motion point trajectory information is corrected after the motion point trajectory information is generated. In the latter case, the coordinate system is corrected to extract the motion points before the motion point trajectory information is generated, or the motion points are extracted and extracted before the motion point tracking information is generated. This is the case of correcting the motion points.
図6Cは、別の実施形態におけるプロセッサ部150の構成の一例を示す。プロセッサ部150は、被験者の顎運動顔モデルを用いて、被験者の顔の座標系を補正するための構成を有し得る。プロセッサ部150は、上述したプロセッサ部120の代替としてコンピュータシステム100が備えるプロセッサ部である。図6Cでは、図3、図6Aで上述した構成要素と同じ構成要素には同じ参照数字を付し、ここでは説明を省略する。
FIG. 6C shows an example of the configuration of the
プロセッサ部150は、取得手段121と、補正手段131と、抽出手段122と、生成手段123とを備える。補正手段131は、ベース顔モデル生成手段151と、顎運動顔モデル生成手段152とを備える。
The
ベース顔モデル生成手段151は、被験者の顔のベース顔モデルを生成するように構成されている。ベース顔モデル作成手段151は、例えば、予め取得された被験者の顔の画像(例えば、データベース部200に格納されている被験者の顔の画像)から、ベース顔モデルを生成するようにしてもよいし、インターフェース部110を介して端末装置300から受信された被験者の顔の画像から、ベース顔モデルを生成するようにしてもよい。ベース顔モデルを生成するために利用される顔の画像は、正面を向いて静止した無表情の画像であることが好ましい。生成されるベース顔モデルが、正面を向いた無表情のものとなり、種々の動きに対応し易くなるからである。ベース顔モデル生成手段151は、公知の任意の手法を用いて、ベース顔モデルを生成することができる。利用される画像は、2次元情報(縦×横)を含む画像であってもよいしが、3次元情報(縦×横×奥行)を含む画像であることが好ましい。3次元情報を含む画像により、より容易にかつ高精度のベース顔モデルを生成することができるからである。
The base face model generation means 151 is configured to generate a base face model of the subject's face. The base face model creating means 151 may generate a base face model from, for example, an image of the subject's face acquired in advance (for example, an image of the subject's face stored in the database unit 200). The base face model may be generated from the image of the subject's face received from the
顎運動顔モデル生成手段152は、複数の画像中の被験者の顔をベース顔モデルに反映させることにより、被験者の顎運動顔モデルを生成するように構成されている。顎運動顔モデル生成手段152は、インターフェース部110を介して端末装置300から受信された連続した複数の画像内の被験者の顔をベース顔モデルに反映することにより、被験者の顎運動顔モデルを生成する。顎運動顔モデル生成手段152は、公知の任意の手法を用いて、顎運動顔モデルを生成することができる。例えば、連続した複数の画像内の被験者の顔の各部位の座標を導出し、各部位の座標をベース顔モデル上にマッピングすることにより顎運動顔モデルが作成され得る。生成された顎運動顔モデルは、複数の画像に写る被験者の動きに合わせて動く3Dアバターとなる。
The jaw movement face model generation means 152 is configured to generate a jaw movement face model of a subject by reflecting the face of the subject in a plurality of images in the base face model. The jaw movement face model generation means 152 generates a jaw movement face model of the subject by reflecting the face of the subject in a plurality of consecutive images received from the
一例において、ベース顔モデル生成手段151および顎運動顔モデル生成手段152は、iPhone(登録商標)Xにおいて実装されている「アニ文字」を構築するための処理と同様の処理によって、顎運動顔モデルを生成することができる。 In one example, the base face model generation means 151 and the jaw movement face model generation means 152 are subjected to the same processing as the processing for constructing the "animoji" implemented in iPhone (registered trademark) X, and the jaw movement face model is performed. Can be generated.
補正手段131は、ベース顔モデルと顎運動顔モデルとの座標系の違いを補正する。補正手段131は、ベース顔モデルの座標系に基づいて、顎運動顔モデルの座標系を補正することによって、顔の座標系を補正するように構成されている。補正手段131は、例えば、任意の座標変換処理を行うことにより、顎運動顔モデルの座標系をベース顔モデルの座標系に変換することによって、顔の座標系を補正する。 The correction means 131 corrects the difference in the coordinate system between the base face model and the jaw movement face model. The correction means 131 is configured to correct the coordinate system of the face by correcting the coordinate system of the jaw movement face model based on the coordinate system of the base face model. The correction means 131 corrects the coordinate system of the face by converting the coordinate system of the jaw movement face model to the coordinate system of the base face model, for example, by performing an arbitrary coordinate conversion process.
補正手段131は、例えば、顎運動顔モデル生成手段152が顎運動顔モデルを生成する前に、連続した複数の画像内の被験者の顔の各部位の座標に対して座標変換処理を行うようにしてもよい。これにより、生成される顎運動顔モデルの座標系は、ベース顔モデルの座標系と一致する。 The correction means 131, for example, causes the jaw movement face model generation means 152 to perform coordinate conversion processing on the coordinates of each part of the subject's face in a plurality of consecutive images before the jaw movement face model generation means 152 generates the jaw movement face model. You may. As a result, the coordinate system of the generated jaw movement face model matches the coordinate system of the base face model.
抽出手段122は、補正手段131によって補正された座標系において、顔の下顎領域内の運動点を抽出する。抽出手段122は、例えば、ベース顔モデルにおいて運動点を抽出するようにしてもよいし、座標変換前の顎運動顔モデルにおいて運動点を抽出するようにしてもよいし、座標変換後の顎運動顔モデルにおいて運動点を抽出するようにしてもよい。ベース顔モデルにおいて運動点を抽出する場合には、運動点は、顎運動顔モデルの生成過程において、顎運動顔モデルの対応する点に反映される。 The extraction means 122 extracts the motion points in the lower jaw region of the face in the coordinate system corrected by the correction means 131. The extraction means 122 may, for example, extract the movement points in the base face model, may extract the movement points in the jaw movement face model before the coordinate conversion, or may extract the movement points in the jaw movement after the coordinate conversion. The movement points may be extracted in the face model. When extracting motion points in the base face model, the motion points are reflected in the corresponding points of the jaw motion face model in the process of generating the jaw motion face model.
生成手段123は、抽出された運動点を追跡することによって、運動点の軌跡を示す運動点軌跡情報を生成する。複数の画像の各々から抽出される運動点は、それぞれ同一の座標系において取得されるため、生成される運動点軌跡情報は、より正確な情報となる。 The generation means 123 generates motion point locus information indicating the locus of the motion point by tracking the extracted motion points. Since the motion points extracted from each of the plurality of images are acquired in the same coordinate system, the generated motion point trajectory information becomes more accurate information.
上述した例では、補正された座標系(すなわち、ベース顔モデルの座標系)における運動点を追跡することによって、運動点軌跡情報を生成することを説明したが、本発明では、補正のタイミングはこれに限定されない。例えば、顎運動顔モデルの座標系において運動点を抽出し、抽出された運動点を補正し、補正された運動点を追跡することによって運動点軌跡情報を生成するようにしてもよい。例えば、顎運動顔モデルの座標系において運動点を抽出し、運動点を追跡することによって生成された運動点軌跡情報を補正することにより、補正された運動点軌跡情報を生成するようにしてもよい。例えば、複数の画像において運動点を抽出し、抽出された運動点を顎運動顔モデルに反映し、反映された運動点または反映された運動点を追跡することによって生成された運動点軌跡情報を補正することによって運動点軌跡情報を生成するようにしてもよい。これは、上述した座標変換処理と同様の手法で、運動点の座標系または運動点の軌跡を補正することによって達成され得る。 In the above example, it has been described that the motion point trajectory information is generated by tracking the motion points in the corrected coordinate system (that is, the coordinate system of the base face model), but in the present invention, the timing of the correction is determined. Not limited to this. For example, the motion point trajectory information may be generated by extracting the motion points in the coordinate system of the jaw motion face model, correcting the extracted motion points, and tracking the corrected motion points. For example, the corrected motion point trajectory information may be generated by extracting the motion points in the coordinate system of the jaw motion face model and correcting the motion point trajectory information generated by tracking the motion points. good. For example, motion point trajectory information generated by extracting motion points in multiple images, reflecting the extracted motion points in the jaw motion face model, and tracking the reflected motion points or the reflected motion points. The motion point trajectory information may be generated by the correction. This can be achieved by correcting the coordinate system of the moving point or the locus of the moving point by the same method as the coordinate conversion process described above.
すなわち、生成手段123によって生成される運動点軌跡情報は、下顎の運動点以外の運動(例えば、撮影中の被験者の身体の動き(例えば、上顎の運動)や傾きによるノイズ)を示す情報を含む場合と、下顎の運動点以外の運動を示す情報を含まない場合とがある。前者の場合は、運動点軌跡情報を生成した後に運動点軌跡情報を補正する場合である。後者の場合は、運動点軌跡情報を生成する前に、座標系を補正して運動点を抽出する場合であるか、または、運動点追跡情報を生成する前に、運動点を抽出し、抽出された運動点を補正する場合である。 That is, the motion point trajectory information generated by the generation means 123 includes information indicating motions other than the motion points of the lower jaw (for example, movement of the subject's body during imaging (for example, movement of the upper jaw) and noise due to tilt). In some cases, it may not contain information indicating movement other than the movement point of the lower jaw. In the former case, the motion point trajectory information is corrected after the motion point trajectory information is generated. In the latter case, the coordinate system is corrected to extract the motion points before the motion point trajectory information is generated, or the motion points are extracted and extracted before the motion point tracking information is generated. This is the case of correcting the motion points.
図6Dは、別の実施形態におけるプロセッサ部160の構成の一例を示す。プロセッサ部160は、生成された運動点軌跡情報に基づいて被験者の運動を評価するための構成を有し得る。プロセッサ部160は、上述したプロセッサ部120の代替としてコンピュータシステム100が備えるプロセッサ部である。図6Dでは、図3で上述した構成要素と同じ構成要素には同じ参照数字を付し、ここでは説明を省略する。
FIG. 6D shows an example of the configuration of the
プロセッサ部160は、取得手段121と、抽出手段122と、生成手段123と、評価手段161とを備える。
The
評価手段161は、運動点軌跡情報に少なくとも基づいて、被験者の顎運動の評価を示す顎運動評価情報を生成するように構成されている。評価手段161は、複数の被験者の運動点軌跡情報を学習する処理を施された運動点軌跡学習済モデルを利用して、顎運動評価情報を生成することができる。運動点軌跡学習済モデルは、入力された運動点軌跡情報を顎運動の評価と相関させるように構成されている。生成手段123によって生成された運動点軌跡情報には、撮影中の被験者の身体の動きや傾きによるノイズが含まれ得るが、運動点軌跡学習済モデルは、このようなノイズも含めた運動点軌跡情報を学習する処理を施されているため、運動点軌跡情報に含まれ得る撮影中の被験者の身体の動きや傾きによるノイズに関わらず、精度よく、顎運動評価情報を生成することができる。学習に用いられる運動点軌跡情報は、2次元の情報(或る平面における運動点の軌跡を示す情報)であってもよいし、3次元の情報(或る空間における運動点の軌跡を示す情報)であってもよいし、4次元の情報(或る空間における運動点の軌跡および運動点の速度を示す情報)であってもよい。ここで、速度は、スカラー量であってもよいが、好ましくは、ベクトル量である。より高次元の情報を利用することにより、構築される運動点軌跡学習済モデルの精度が向上する。運動点軌跡学習済モデルは、例えば、数千、数万、数十万、または数百万の運動点軌跡情報を学習することによって構築され得る。より多くの情報を学習するほど精度は向上するが、過学習に留意する必要がある。 The evaluation means 161 is configured to generate jaw movement evaluation information indicating the evaluation of the jaw movement of the subject, based on at least the movement point trajectory information. The evaluation means 161 can generate jaw motion evaluation information by using the motion point trajectory learned model that has been processed to learn the motion point trajectory information of a plurality of subjects. The motion point trajectory trained model is configured to correlate the input motion point trajectory information with the evaluation of jaw motion. The motion point trajectory information generated by the generation means 123 may include noise due to the movement and inclination of the subject's body during imaging, and the motion point trajectory trained model includes the motion point trajectory including such noise. Since the processing for learning the information is performed, it is possible to accurately generate the jaw movement evaluation information regardless of the noise caused by the movement or tilt of the subject's body during imaging, which may be included in the movement point trajectory information. The motion point trajectory information used for learning may be two-dimensional information (information indicating the trajectory of the motion point in a certain plane) or three-dimensional information (information indicating the trajectory of the motion point in a certain space). ), Or four-dimensional information (information indicating the locus of the moving point and the speed of the moving point in a certain space). Here, the velocity may be a scalar quantity, but is preferably a vector quantity. By using higher-dimensional information, the accuracy of the constructed motion point trajectory trained model is improved. The motion point trajectory trained model can be constructed, for example, by learning thousands, tens of thousands, hundreds of thousands, or millions of motion point trajectory information. The more information you learn, the better the accuracy, but you need to be aware of overfitting.
動点軌跡学習済モデルは、任意の機械学習モデルを用いて構築することができる。運動点軌跡学習済モデルは、例えば、ニューラルネットワークモデルであり得る。 The moving point trajectory trained model can be constructed by using any machine learning model. The motion point trajectory trained model can be, for example, a neural network model.
図7は、評価手段161が利用し得るニューラルネットワークモデル1610の構造の一例を示す。
FIG. 7 shows an example of the structure of the
ニューラルネットワークモデル1610は、入力層と、少なくとも1つの隠れ層と、出力層とを有する。ニューラルネットワークモデル1610の入力層のノード数は、入力されるデータの次元数に対応する。ニューラルネットワークモデル1610の隠れ層は、任意の数のノードを含むことができる。ニューラルネットワークモデル1610の出力層のノード数は、出力されるデータの次元数に対応する。例えば、顎運動に異常が有るかないかを評価する場合、出力層のノード数は、1であり得る。例えば、顎運動の軌跡が7つのパターンのうちのいずれであるかを評価する場合、出力層のノード数は、7であり得る。
The
ニューラルネットワークモデル1610は、取得手段121が取得した情報を使用して予め学習処理がなされ得る。学習処理は、取得手段121が取得したデータを使用して、ニューラルネットワークモデル1610の隠れ層の各ノードの重み係数を計算する処理である。
The
学習処理は、例えば、教師あり学習である。教師あり学習では、例えば、運動点軌跡情報を入力用教師データとし、対応する顎運動の評価を出力用教師データとして、複数の被験者の情報を使用してニューラルネットワークモデル1610の隠れ層の各ノードの重み係数を計算することにより、運動点軌跡情報を顎運動の評価と相関させることが可能な学習済モデルを構築することができる。
The learning process is, for example, supervised learning. In supervised learning, for example, the motion point trajectory information is used as input teacher data, the evaluation of the corresponding jaw movement is used as output teacher data, and the information of a plurality of subjects is used for each node of the hidden layer of the
例えば、教師あり学習のための(入力用教師データ,出力用教師データ)の組は、(第1の被験者の運動点軌跡情報,第1の被験者の顎運動の評価)、(第2の被験者の運動点軌跡情報,第2の被験者の顎運動の評価)、・・・(第iの被験者の運動点軌跡情報,第iの被験者の顎運動の評価、・・・等であり得る。このような学習済のニューラルネットワークモデルの入力層に被験者から新たに取得された運動点軌跡情報を入力すると、その被験者の顎運動の評価が出力層に出力される。 For example, a set of (input teacher data, output teacher data) for supervised learning includes (first subject's motion point trajectory information, first subject's jaw motion evaluation), (second subject). (Evaluation of the jaw movement of the second subject), ... (Information on the movement point trajectory of the i-th subject, evaluation of the jaw movement of the i-th subject, ...). When the motion point trajectory information newly acquired from the subject is input to the input layer of the trained neural network model, the evaluation of the jaw motion of the subject is output to the output layer.
学習処理は、例えば、教師なし学習である。教師なし学習では、例えば、複数の被験者について、運動点軌跡情報を入力用教師データとしたときの複数の出力をクラスタリングすることによって、出力を複数のクラスタに区分する。複数のクラスタの各クラスタについて、属する被験者の顎運動の評価に基づいて、各クラスタを特徴付ける。これにより、運動点軌跡情報を顎運動の評価と相関させることが可能な学習済モデルが構築される。クラスタリングは、例えば、任意の公知の手法を用いて行われ得る。このような学習済のニューラルネットワークモデルの入力層に被験者から新たに取得された運動点軌跡情報を入力すると、その被験者の顎運動の評価が出力層に出力される。 The learning process is, for example, unsupervised learning. In unsupervised learning, for example, for a plurality of subjects, the outputs are divided into a plurality of clusters by clustering a plurality of outputs when the motion point trajectory information is used as input teacher data. For each cluster of multiple clusters, characterize each cluster based on the assessment of jaw movements of the subject to which it belongs. As a result, a trained model capable of correlating the motion point trajectory information with the evaluation of jaw motion is constructed. Clustering can be performed using, for example, any known technique. When the motion point trajectory information newly acquired from the subject is input to the input layer of the trained neural network model, the evaluation of the jaw motion of the subject is output to the output layer.
図6A~図6Cを参照して上述した例で生成された運動点軌跡情報は、例えば、被験者の顎運動を評価するために利用され得る。この場合、プロセッサ部120、130、140、または150は、生成された運動点軌跡情報に少なくとも基づいて、被験者の顎運動の評価を示す顎運動評価情報を生成する評価手段(図示せず)をさらに備え得る。評価手段は、プロセッサ部160が備える評価手段161と同様の構成であってもよいし、異なる構成であってもよい。評価手段は、例えば、複数の被験者の運動点軌跡情報を学習する処理を施された運動点軌跡学習済モデルを利用して、顎運動評価情報を生成することができる。
The motion point trajectory information generated in the example described above with reference to FIGS. 6A-6C can be used, for example, to evaluate the jaw motion of the subject. In this case, the
図6A~図6Cを参照して上述した例では、連続した複数の画像間で、抽出される運動点が異ならないように、撮影中の被験者の動きや傾きに対処するために、補正手段131を備える構成を説明した。図6Dに示される例は、撮影中の被験者の身体の動きや傾きを含めた顎運動の軌跡を学習した学習済モデルを用いることにより、撮影中の被験者の動きや傾きに対処している。 In the above-mentioned example with reference to FIGS. 6A to 6C, the correction means 131 is used to deal with the movement and inclination of the subject during imaging so that the extracted motion points do not differ between a plurality of consecutive images. The configuration including is described. In the example shown in FIG. 6D, the movement and inclination of the subject during imaging are dealt with by using a learned model in which the locus of jaw movement including the body movement and inclination of the subject during imaging is learned.
図2に示される例では、データベース部200は、コンピュータシステム100の外部に設けられているが、本発明はこれに限定されない。データベース部200の少なくとも一部をコンピュータシステム100の内部に設けることも可能である。このとき、データベース部200の少なくとも一部は、メモリ部170を実装する記憶手段と同一の記憶手段によって実装されてもよいし、メモリ部170を実装する記憶手段とは別の記憶手段によって実装されてもよい。いずれにせよ、データベース部200の少なくとも一部は、コンピュータシステム100のための格納部として構成される。データベース部200の構成は、特定のハードウェア構成に限定されない。例えば、データベース部200は、単一のハードウェア部品で構成されてもよいし、複数のハードウェア部品で構成されてもよい。例えば、データベース部200は、コンピュータシステム100の外付けハードディスク装置として構成されてもよいし、ネットワークを介して接続されるクラウド上のストレージとして構成されてもよい。
In the example shown in FIG. 2, the
上述した図3、図6A~図6Dに示される例では、プロセッサ部120、130、140、150、160の各構成要素が同一のプロセッサ部120、130、140、150、160内に設けられているが、本発明はこれに限定されない。プロセッサ部120、130、140、150、160の各構成要素が、複数のプロセッサ部に分散される構成も本発明の範囲内である。このとき、複数のプロセッサ部は、同一のハードウェア部品内に位置してもよいし、近傍または遠隔の別個のハードウェア部品内に位置してもよい。例えば、プロセッサ部150のベース顔モデル生成手段151は、他の構成要素とは別のプロセッサ部によって実装されることが好ましい。これにより、ベースモデル作成という負荷が大きい処理を別個に行うことができるようになるからである。
In the example shown in FIGS. 3 and 6A to 6D described above, the components of the
なお、上述したコンピュータシステム100の各構成要素は、単一のハードウェア部品で構成されていてもよいし、複数のハードウェア部品で構成されていてもよい。複数のハードウェア部品で構成される場合は、各ハードウェア部品が接続される態様は問わない。各ハードウェア部品は、無線で接続されてもよいし、有線で接続されてもよい。本発明のコンピュータシステム100は、特定のハードウェア構成には限定されない。プロセッサ部120、130、140、150、160をデジタル回路ではなくアナログ回路によって構成することも本発明の範囲内である。本発明のコンピュータシステム100の構成は、その機能を実現できる限りにおいて上述したものに限定されない。
Each component of the
3.被験者の顎運動を測定するためのコンピュータシステムによる処理
図8は、被験者の顎運動を測定するためのコンピュータシステム100による処理の一例(処理800)を示すフローチャートである。処理800は、例えば、コンピュータシステム100におけるプロセッサ部130、140または150において実行される。 3. 3. Processing by a computer system for measuring the jaw movement of a subject FIG. 8 is a flowchart showing an example (processing 800) of processing by a
ステップS801では、プロセッサ部の取得手段121が、顎運動中の被験者の顔の連続した複数の画像を取得する。取得手段121は、例えば、データベース部200に格納されている顎運動中の被験者の顔の連続した複数の画像をインターフェース部110を介して取得することができる。あるいは、取得手段121は、例えば、インターフェース部110を介して端末装置300から受信された連続した複数の画像を取得することができる。
In step S801, the acquisition means 121 of the processor unit acquires a plurality of continuous images of the face of the subject during jaw movement. The acquisition means 121 can acquire, for example, a plurality of consecutive images of the subject's face during jaw movement stored in the
ステップS802では、プロセッサ部の補正手段131が、被験者の顔の座標系を少なくとも補正する。プロセッサ部の補正手段131は、例えば、ステップS802で取得された画像に基づいて、被験者の顔の座標系を補正することができる。 In step S802, the correction means 131 of the processor unit at least corrects the coordinate system of the subject's face. The correction means 131 of the processor unit can correct the coordinate system of the subject's face, for example, based on the image acquired in step S802.
ステップS803では、プロセッサ部の抽出手段122が、上述した各実施形態のステップS802で補正された座標系において、顔の下顎領域内の運動点を少なくとも抽出する。抽出手段122は、例えば、画像中の運動点がどこであるかの入力をインターフェース部110を介して(例えば、端末装置300から)受け、その入力に基づいて、運動点を抽出することができる。あるいは、抽出手段122は、例えば、入力を受けることなく、自動的に運動点を抽出することができる。 In step S803, the extraction means 122 of the processor unit extracts at least the motion points in the lower jaw region of the face in the coordinate system corrected in step S802 of each of the above-described embodiments. For example, the extraction means 122 can receive an input of where the motion point in the image is via the interface unit 110 (for example, from the terminal device 300), and can extract the motion point based on the input. Alternatively, the extraction means 122 can automatically extract the motion point without receiving an input, for example.
抽出手段122は、例えば、複数の画像の各々に対して、顔の複数の特徴部分を検出し、抽出された複数の特徴部分のうち、所定期間内の座標変化が所定の範囲内の部分を運動点として抽出することができる。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。所定範囲は、例えば、約5mm~約20mmであり得る。 For example, the extraction means 122 detects a plurality of feature portions of the face for each of the plurality of images, and among the plurality of extracted feature portions, a portion whose coordinate change within a predetermined period is within a predetermined range. It can be extracted as a motion point. Here, the predetermined period may be, for example, all or a part of the period in which a plurality of consecutive images are taken. The predetermined range can be, for example, about 5 mm to about 20 mm.
ステップS804では、プロセッサ部の生成手段123が、運動点を追跡することによって、運動点の軌跡を示す運動点軌跡情報を少なくとも生成する。運動点軌跡情報は、所定期間内の運動点の軌跡を示す情報である。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。 In step S804, the generation means 123 of the processor unit traces the motion point to generate at least the motion point trajectory information indicating the trajectory of the motion point. The motion point locus information is information indicating the trajectory of the motion point within a predetermined period. Here, the predetermined period may be, for example, all or a part of the period in which a plurality of consecutive images are taken.
処理800によれば、複数の画像の各々から抽出される運動点は、それぞれ同一の座標系において取得されるため、生成される運動点軌跡情報は、より正確な情報となる。
According to the
一実施形態において、ステップS802では、プロセッサ部140の補正手段131が、固定点と、事前に定義された顔基準位置テンプレートとに基づいて、被験者の顔の座標系を補正する。
In one embodiment, in step S802, the correction means 131 of the
この実施形態では、ステップS802の前に、ステップS8020を含むことができる。ステップS8020では、プロセッサ部140の抽出手段122の第2の抽出手段142が、ステップS801で取得された複数の画像に基づいて、顔の上顔面領域内の固定点を抽出する。第2の抽出手段142は、例えば、画像中の固定点がどこであるかの入力をインターフェース部110を介して(例えば、端末装置300から)受け、その入力に基づいて、固定点を抽出することができる。あるいは、第2の抽出手段142は、例えば、入力を受けることなく、自動的に固定点を抽出することができる。
In this embodiment, step S8020 can be included before step S802. In step S8020, the second extraction means 142 of the extraction means 122 of the
第2の抽出手段142は、例えば、複数の画像の各々に対して、顔の複数の特徴部分を検出し、抽出された複数の特徴部分のうち、所定期間内の座標変化が所定閾値未満の部分を固定点として抽出することができる。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。所定範囲は、例えば、約5mm~約20mmであり得る。第2の抽出手段142は、例えば、画像に対して色強調処理を行い、色調が周囲と異なる部分を固定点とし抽出することもできる。ステップS8020で抽出される固定点は、ステップS803の抽出するステップで抽出されるものの1つであるとみなすことができ、従って、ステップS8020は、ステップS803の一部であるとみなすことができる。 The second extraction means 142 detects, for example, a plurality of feature portions of the face for each of the plurality of images, and among the plurality of extracted feature portions, the coordinate change within a predetermined period is less than a predetermined threshold value. The part can be extracted as a fixed point. Here, the predetermined period may be, for example, all or a part of the period in which a plurality of consecutive images are taken. The predetermined range can be, for example, about 5 mm to about 20 mm. The second extraction means 142 can, for example, perform color enhancement processing on an image and extract a portion having a color tone different from the surroundings as a fixed point. The fixed point extracted in step S8020 can be considered to be one of those extracted in the extraction step of step S803, and thus step S8020 can be considered to be part of step S803.
ステップS802では、プロセッサ部140の補正手段131が、ステップS8020で抽出された固定点と、事前に定義された顔基準位置テンプレートとに基づいて、被験者の顔の座標系を補正する。例えば、補正手段131は、複数の画像の各々について、ステップS8020で抽出された固定点が、顔基準位置テンプレート上の対応する点に移動するように、複数の画像の各々を変換処理(例えば、拡縮、回転、剪断、平行移動等)する。あるいは、例えば、補正手段131は、複数の画像の各々について、ステップS8020で抽出された固定点と顔基準位置テンプレート上の対応する点との間の距離をゼロにまたは所定の閾値未満にするように、複数の画像の各々を変換処理する。あるいは、例えば、補正手段131は、複数の画像の各々の固定点によって定義される平面と顔基準位置テンプレート上の対応する平面とが一致するように、複数の画像の各々を変換処理する。ここで、例えば、顔基準位置テンプレートは、顔が正面を向いている状態での顔の位置を定義するテンプレートであり、解剖学的に定義され得る。
In step S802, the correction means 131 of the
別の実施形態において、ステップS802では、プロセッサ部130の補正手段131は、複数の被験者の顔の基準座標系を学習する処理を施された基準座標系学習済モデルを利用して、複数の画像の各々について、被験者の顔の座標系を補正することができる。基準座標系学習済モデルは、入力された画像中の被験者の顔の座標系を基準座標系に補正した画像を出力するように構成されている。
In another embodiment, in step S802, the correction means 131 of the
基準座標系学習済モデルは、例えば、教師あり学習によって構築され得る。教師あり学習では、例えば、被験者の顔の画像が入力用教師データとして用いられ、その画像における基準座標系が出力用教師データとして用いられ得る。複数の被験者の複数の画像を繰り返し学習することにより、学習済モデルは、複数の被験者の顔が統計上有すると推定される基準座標系を認識することができるようになる。このような学習済モデルに被験者の顔の画像を入力すると、被験者の顔の座標系と基準座標系との差分が出力されるようになる。例えば、被験者の顔の座標系と基準座標系との差分をゼロにまたは所定の閾値未満にするように、入力された画像を変換処理(例えば、拡縮、回転、剪断、平行移動等)するように学習済モデルを構成することによって、基準座標系学習済モデルが生成され得る。画像の変換処理は、例えば、アフィン変換を利用して行われ得る。 The frame of reference trained model can be constructed, for example, by supervised learning. In supervised learning, for example, an image of the subject's face can be used as input teacher data, and the reference coordinate system in the image can be used as output teacher data. By repeatedly learning a plurality of images of a plurality of subjects, the trained model becomes able to recognize a reference coordinate system that is estimated to be statistically possessed by the faces of the plurality of subjects. When an image of the subject's face is input to such a trained model, the difference between the subject's face coordinate system and the reference coordinate system is output. For example, the input image is converted (for example, scaling, rotation, shearing, translation, etc.) so that the difference between the coordinate system of the subject's face and the reference coordinate system becomes zero or less than a predetermined threshold. By constructing a trained model in, a frame of reference trained model can be generated. The image conversion process can be performed using, for example, an affine transformation.
基準座標系学習済モデルは、例えば、教師なし学習によって構築され得る。教師なし学習では、例えば、複数の被験者の顔の画像が入力用教師データとして用いられ得る。複数の被験者の多数の画像を繰り返し学習することにより、学習済モデルは、多くの画像に共通する顔の座標系を、複数の被験者が統計上有すると推定される基準座標系として認識することができるようになる。このような学習済モデルに被験者の顔の画像を入力すると、被験者の顔の座標系と基準座標系との差分が出力されるようになる。例えば、被験者の顔の座標系と基準座標系との差分をゼロにまたは所定の閾値未満にするように、入力された画像を変換処理(例えば、拡縮、回転、剪断、平行移動等)するように学習済モデルを構成することによって、基準座標系学習済モデルが生成され得る。画像の変換処理は、例えば、アフィン変換を利用して行われ得る。 The frame of reference trained model can be constructed, for example, by unsupervised learning. In unsupervised learning, for example, facial images of a plurality of subjects can be used as input teacher data. By repeatedly learning a large number of images of multiple subjects, the trained model can recognize the facial coordinate system common to many images as a reference coordinate system that is estimated to be statistically possessed by multiple subjects. become able to. When an image of the subject's face is input to such a trained model, the difference between the subject's face coordinate system and the reference coordinate system is output. For example, the input image is converted (for example, scaling, rotation, shearing, translation, etc.) so that the difference between the coordinate system of the subject's face and the reference coordinate system becomes zero or less than a predetermined threshold. By constructing a trained model in, a frame of reference trained model can be generated. The image conversion process can be performed using, for example, an affine transformation.
ステップS802では、プロセッサ部130の補正手段131が、ステップS801で取得された複数の画像を基準座標系学習済モデルに入力し、入力された画像中の被験者の顔の座標系が基準座標系に補正された画像を得ることができる。
In step S802, the correction means 131 of the
さらに別の実施形態において、ステップS802では、プロセッサ部150補正手段131が、被験者の顎運動顔モデルを用いて、被験者の顔の座標系を補正する。
In yet another embodiment, in step S802, the
この実施形態では、ステップS802の前に、ステップS8021と、ステップS8022とを含むことができる。ステップS8021では、プロセッサ部150の補正手段131のベース顔モデル生成手段151が、被験者の顔のベース顔モデルを生成する。ベース顔モデル作成手段151は、例えば、予め取得された被験者の顔の画像(例えば、データベース部200に格納されている被験者の顔の画像)から、ベース顔モデルを生成するようにしてもよいし、インターフェース部110を介して端末装置300から受信された被験者の顔の画像から、ベース顔モデルを生成するようにしてもよい。なお、ベース顔モデルが予め生成されている場合には、ステップS8021は省略され得る。
In this embodiment, step S8021 and step S8022 can be included before step S802. In step S8021, the base face model generation means 151 of the correction means 131 of the
ステップS8022では、プロセッサ部150の補正手段131の顎運動顔モデル生成手段152が、ステップS801で取得された複数の画像中の被験者の顔をベース顔モデルに反映させることにより、被験者の顎運動顔モデルを生成する。生成された顎運動顔モデルは、ステップS801で取得された複数の画像に写る被験者の顎運動に合わせて動く3Dアバターとなる。
In step S8022, the jaw movement face model generation means 152 of the correction means 131 of the
ステップS802では、プロセッサ部150の補正手段131が、ステップS8021で生成されたベース顔モデルの座標系に基づいて、ステップS8022で生成された顎運動顔モデルの座標系を補正する。補正手段131は、例えば、任意の座標変換処理を行うことにより、顎運動顔モデルの座標系をベース顔モデルの座標系に変換することができる。
In step S802, the correction means 131 of the
ステップS802で、固定点と、顔基準位置テンプレートとに基づいて、被験者の顔の座標系を補正した場合には、連続した複数の画像の撮影時の被験者の身体の動き等により、顎運動とは独立して固定点が移動してしまうことがある。このため、処理800は、運動点軌跡情報に含まれ得る固定点軌跡情報を相殺するための処理(ステップS805、ステップS806)を含むことができる。
When the coordinate system of the subject's face is corrected based on the fixed point and the face reference position template in step S802, the jaw movement is caused by the movement of the subject's body during the acquisition of a plurality of consecutive images. May move the fixed point independently. Therefore, the
ステップS805では、プロセッサ部140の補正手段131の第2の生成手段が、ステップS8010で抽出された固定点を追跡することによって、固定点の軌跡を示す固定点軌跡情報を生成する。固定点軌跡情報は、所定期間内の固定点の軌跡を示す情報である。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。第2の生成手段は、例えば、連続した複数の画像の各々における固定点の画像中の座標を追跡することによって、固定点軌跡情報を生成することができる。
In step S805, the second generation means of the correction means 131 of the
ステップS806では、プロセッサ部140の補正手段131の第2の補正手段が、定点軌跡情報に基づいて、運動点軌跡情報を補正する。例えば、第2補正手段は、運動点の軌跡から固定点の軌跡を差し引くことによって、運動点軌跡情報を補正することができる。あるいは、例えば、第2補正手段は、運動点の座標から固定点の座標を差し引いて得られる補正後の運動点を追跡することによって、運動点軌跡情報を補正するようにしてもよい。ステップS805およびステップS806で補正される運動点軌跡情報は、ステップS802の補正するステップで補正されるものの1つであるとみなすことができ、従って、ステップS805およびステップS806は、ステップS802の一部であるとみなすことができる。
In step S806, the second correction means of the correction means 131 of the
このようにして補正された運動点軌跡情報には、固定点の移動による誤差が含まれておらず、より正確な情報となり得る。 The motion point trajectory information corrected in this way does not include an error due to the movement of the fixed point, and can be more accurate information.
上述した例では、補正された座標系における運動点を追跡することによって、運動点軌跡情報を生成することを説明したが、本発明では、補正のタイミングはこれに限定されない。例えば、ステップS802の前のステップS803において、ステップS801で取得された複数の画像から運動点を抽出し、次いで、ステップS804において、運動点を追跡することによって運動点軌跡情報を生成した後に、ステップS802において、ステップS804で生成された運動点軌跡情報を補正するようにしてもよい。あるいは、例えば、ステップS802の前のステップS803において、ステップS801で取得された複数の画像から運動点を抽出し、次いで、ステップS802において、ステップS803で抽出された運動点を補正し、次いで、ステップS804において、補正された運動点を追跡することによって運動点軌跡情報を生成するようにしてもよい。 In the above-mentioned example, it has been described that the motion point trajectory information is generated by tracking the motion points in the corrected coordinate system, but in the present invention, the timing of the correction is not limited to this. For example, in step S803 before step S802, motion points are extracted from a plurality of images acquired in step S801, and then in step S804, motion point trajectory information is generated by tracking the motion points, and then the step. In S802, the motion point locus information generated in step S804 may be corrected. Alternatively, for example, in step S803 before step S802, the motion points are extracted from the plurality of images acquired in step S801, then in step S802, the motion points extracted in step S803 are corrected, and then the step. In S804, the motion point trajectory information may be generated by tracking the corrected motion point.
すなわち、生成手段123によって生成される運動点軌跡情報は、下顎の運動点以外の運動(例えば、撮影中の被験者の身体の動き(例えば、上顎の運動)や傾きによるノイズ)を示す情報を含む場合と、下顎の運動点以外の運動を示す情報を含まない場合とがある。前者は、運動点軌跡情報を生成した後に運動点軌跡情報を補正する場合である。後者は、運動点軌跡情報を生成する前に、座標系を補正して運動点を抽出する場合、または、運動点追跡情報を生成する前に、運動点を抽出し、抽出された運動点を補正する場合である。 That is, the motion point trajectory information generated by the generation means 123 includes information indicating motions other than the motion points of the lower jaw (for example, movement of the subject's body during imaging (for example, movement of the upper jaw) and noise due to tilt). In some cases, it may not contain information indicating movement other than the movement point of the lower jaw. The former is a case where the motion point trajectory information is corrected after the motion point trajectory information is generated. In the latter case, the coordinate system is corrected to extract the motion points before the motion point trajectory information is generated, or the motion points are extracted and the extracted motion points are extracted before the motion point tracking information is generated. This is the case for correction.
図9は、被験者の顎運動を測定するためのコンピュータシステム100による処理の別の例(処理900)を示すフローチャートである。処理900は、被験者の顎運動を評価するための処理である。処理900は、例えば、コンピュータシステム100におけるプロセッサ部160において実行される。
FIG. 9 is a flowchart showing another example (process 900) of processing by the
ステップS901では、プロセッサ部160の取得手段121が、顎運動中の被験者の顔の連続した複数の画像を取得する。ステップS901は、ステップS801と同様の処理である。
In step S901, the acquisition means 121 of the
ステップS902では、プロセッサ部160の抽出手段122が、ステップS801で取得された複数の画像に基づいて、顔の下顎領域内の運動点を少なくとも抽出する。顔の下顎領域内の運動点を抽出する。抽出手段122は、例えば、画像中の運動点がどこであるかの入力をインターフェース部110を介して(例えば、端末装置300から)受け、その入力に基づいて、運動点を抽出することができる。あるいは、抽出手段122は、例えば、入力を受けることなく、自動的に運動点を抽出することができる。
In step S902, the extraction means 122 of the
抽出手段122は、例えば、複数の画像の各々に対して、顔の複数の特徴部分を検出し、抽出された複数の特徴部分のうち、所定期間内の座標変化が所定の範囲内の部分を運動点として抽出することができる。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。所定範囲は、例えば、約5mm~約20mmであり得る。 For example, the extraction means 122 detects a plurality of feature portions of the face for each of the plurality of images, and among the plurality of extracted feature portions, a portion whose coordinate change within a predetermined period is within a predetermined range. It can be extracted as a motion point. Here, the predetermined period may be, for example, all or a part of the period in which a plurality of consecutive images are taken. The predetermined range can be, for example, about 5 mm to about 20 mm.
ステップS903では、プロセッサ部160の生成手段123が、ステップS902で抽出された運動点を追跡することによって、運動点の軌跡を示す運動点軌跡情報を少なくとも生成する。運動点軌跡情報は、所定期間内の運動点の軌跡を示す情報である。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。
In step S903, the generation means 123 of the
ステップS904では、プロセッサ部160の評価手段161が、ステップS903で生成された運動点軌跡情報に少なくとも基づいて、被験者の顎運動の評価を示す顎運動評価情報を生成する。評価手段161は、複数の被験者の運動点軌跡情報を学習する処理を施された運動点軌跡学習済モデルを利用して、顎運動評価情報を生成することができる。運動点軌跡学習済モデルは、入力された運動点軌跡情報を顎運動の評価と相関させるように構成されている。例えば、ステップS903で生成された運動点軌跡情報を運動点軌跡学習済モデルに入力すると、被験者の顎運動の推定された評価が出力され得る。
In step S904, the evaluation means 161 of the
ステップS903で生成された運動点軌跡情報には、撮影中の被験者の身体の動きや傾きによるノイズが含まれ得るが、運動点軌跡学習済モデルは、このようなノイズも含めた運動点軌跡情報を学習する処理を施されているため、ステップS904では、運動点軌跡情報に含まれ得る運撮影中の被験者の身体の動きや傾きによるノイズに関わらず、精度よく、顎運動評価情報を生成することができる。 The motion point trajectory information generated in step S903 may include noise due to the movement and inclination of the subject's body during imaging, and the motion point trajectory trained model includes motion point trajectory information including such noise. In step S904, the jaw movement evaluation information is accurately generated regardless of the noise caused by the movement or tilt of the subject's body during luck photography, which may be included in the movement point trajectory information. be able to.
例えば、ステップS901~ステップS904を行った後に、後述する学習処理と同様の処理を行うことにより、運動点軌跡学習済モデルを更新するようにしてもよい。 For example, after performing steps S901 to S904, the exercise point locus trained model may be updated by performing the same processing as the learning processing described later.
図10は、被験者の顎運動を測定するためのコンピュータシステム100による処理の別の例(処理1000)を示すフローチャートである。処理1000は、被験者の顎運動を測定するために利用される運動点軌跡学習済モデルを構築するための処理である。処理1000は、例えば、コンピュータシステム100におけるプロセッサ部160において実行される。
FIG. 10 is a flowchart showing another example (process 1000) of processing by the
ステップS1001では、プロセッサ部160の取得手段121が、複数の被験者の運動点を追跡することによって得られた運動点の軌跡を示す運動点軌跡情報を少なくとも取得する。取得手段121は、例えば、データベース部200に格納されている運動点軌跡情報をインターフェース部110を介して取得することができる。運動点軌跡情報は、例えば、本発明のコンピュータシステム100を用いて取得された運動点軌跡情報であってもよいし、公知の任意の顎運動測定装置から得られた運動点軌跡情報であってもよい。
In step S1001, the acquisition means 121 of the
ステップS1001では、さらに、取得手段121は、複数の被験者の顎運動の評価を取得するようにしてもよい。取得手段121は、例えば、データベース部200に格納されている顎運動の評価をインターフェース部110を介して取得することができる。
In step S1001, the acquisition means 121 may further acquire an evaluation of the jaw movements of a plurality of subjects. The acquisition means 121 can acquire, for example, the evaluation of the jaw movement stored in the
ステップS1002では、プロセッサ部160が、少なくとも、ステップS1001で取得された複数の被験者の運動点軌跡情報を入力用教師データとした学習処理により、運動点軌跡学習済モデルを構築する。運動点軌跡学習済モデルは、例えば、ニューラルネットワークモデルであり得る。
In step S1002, the
例えば、動点軌跡学習済モデルが、ニューラルネットワークモデルである場合、ステップS1002では、学習処理により、ステップS1001で取得されたデータを使用して、ニューラルネットワークモデルの隠れ層の各ノードの重み係数が計算される。 For example, when the moving point trajectory trained model is a neural network model, in step S1002, the weighting coefficient of each node in the hidden layer of the neural network model is set by using the data acquired in step S1001 by the learning process. It is calculated.
学習処理は、例えば、教師あり学習である。教師あり学習では、例えば、運動点軌跡情報を入力用教師データとし、対応する顎運動の評価を出力用教師データとして、複数の被験者の情報を使用してニューラルネットワークモデル1610の隠れ層の各ノードの重み係数を計算することにより、運動点軌跡情報を顎運動の評価と相関させることが可能な学習済モデルを構築することができる。
The learning process is, for example, supervised learning. In supervised learning, for example, the motion point trajectory information is used as input teacher data, the evaluation of the corresponding jaw movement is used as output teacher data, and the information of a plurality of subjects is used for each node of the hidden layer of the
学習処理は、例えば、教師なし学習である。教師なし学習では、例えば、複数の被験者について、運動点軌跡情報を入力用教師データとしたときの複数の出力を分類する。分類は、任意の公知の手法を用いて行うことができ、分類された出力を顎運動の評価で特徴付けることによって、運動点軌跡情報を顎運動の評価と相関させることが可能な学習済モデルが構築される。 The learning process is, for example, unsupervised learning. In unsupervised learning, for example, for a plurality of subjects, a plurality of outputs when the motion point trajectory information is used as input teacher data are classified. Classification can be performed using any known method, and a trained model capable of correlating motion point trajectory information with jaw motion evaluation by characterizing the classified output with jaw motion evaluation is available. Will be built.
分類は、例えば、クラスタリングによって行われる。例えば、複数の出力をクラスタリングすることによって、出力を複数のクラスタに区分する。複数のクラスタの各クラスタについて、属する被験者の顎運動の評価に基づいて、各クラスタを特徴付ける。これにより、運動点軌跡情報を顎運動の評価と相関させることが可能な学習済モデルが構築される。クラスタリングは、例えば、任意の公知の手法を用いて行われ得る。 Classification is done, for example, by clustering. For example, by clustering a plurality of outputs, the outputs are divided into a plurality of clusters. For each cluster of multiple clusters, characterize each cluster based on the assessment of jaw movements of the subject to which it belongs. As a result, a trained model capable of correlating the motion point trajectory information with the evaluation of jaw motion is constructed. Clustering can be performed using, for example, any known technique.
図8~図10を参照して上述した例では、特定の順序で処理が行われることを説明したが、各処理の順序は説明されたものに限定されず、論理的に可能な任意の順序で行われ得る。 In the above-mentioned example with reference to FIGS. 8 to 10, it has been described that the processes are performed in a specific order, but the order of each process is not limited to the described one, and any order that is logically possible is not limited. Can be done in.
図8~図10を参照して上述した例では、図8~図10に示される各ステップの処理は、プロセッサ部120、プロセッサ部130、プロセッサ部140、プロセッサ部150、またはプロセッサ部160とメモリ部170に格納されたプログラムとによって実現することが説明されたが、本発明はこれに限定されない。図8~図10に示される各ステップの処理のうちの少なくとも1つは、制御回路などのハードウェア構成によって実現されてもよい。
In the above-described example with reference to FIGS. 8 to 10, the processing of each step shown in FIGS. 8 to 10 includes a
上述した例では、コンピュータシステム100が、端末装置300にネットワーク400を介して接続されるサーバ装置である場合を例に説明したが、本発明は、これに限定されない。コンピュータシステム100は、プロセッサ部を備える任意の情報処理装置であり得る。例えば、コンピュータシステム100は、端末装置300であり得る。あるいは、例えば、コンピュータシステム100は、端末装置300とサーバ装置との組み合わせであり得る。
In the above-mentioned example, the case where the
上述した例では、本発明の一実装例としてコンピュータシステム100を説明したが、本発明は、例えば、コンピュータシステム100を含むシステムとしても実装され得る。このシステムは、例えば、上述したコンピュータシステム100と、被験者の下顎領域に設置されるように構成された標点とを備える。標点は、上述したように、標点上の特定点を表すように構成され得る。標点を被験者の下顎領域に設置した状態で撮影した連続した複数の画像を利用することにより、コンピュータシステム100での運動点の抽出処理が容易になり、かつ、抽出される運動点が、複数の画像間で一致することになる。このシステムは、被験者の上顔面領域に設置されるように構成された固定点用標点をさらに備えることができる。固定点用標点も、上述したように、固定用標点上の特定点を表すように構成され得る。固定点用標点を被験者の上顔面領域に設置した状態で撮影した連続した複数の画像を利用することにより、コンピュータシステム100での固定点の抽出処理が容易になる。
In the above-mentioned example, the
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention.
本発明は、被験者の顎運動を簡易に測定することが可能なシステム等を提供するものとして有用である。 The present invention is useful as providing a system or the like capable of easily measuring the jaw movement of a subject.
100 コンピュータシステム
110 インターフェース部
120、130、140、150、160 プロセッサ部
170 メモリ部
200 データベース部
300 端末装置
400 ネットワーク100
Claims (17)
顎運動中の被験者の顔の連続した複数の画像を取得する取得手段であって、前記複数の画像の中には、前記被験者の顔が傾いている画像が含まれており、前記被験者の顔が傾いている画像中の前記被験者の顔は、前記複数の画像のうちの少なくとも1つの画像中の前記被験者の顔に対して傾いている、取得手段と、
前記被験者の顔の座標系を少なくとも補正する補正手段であって、前記補正手段は、前記被験者の顔が傾いている画像を含む前記複数の画像の各々で前記被験者の顔の座標系が一致するように、前記被験者の顔の座標系を補正する、補正手段と、
前記顔の下顎領域内の運動点を少なくとも抽出する抽出手段と、
前記運動点を追跡することによって、前記運動点の軌跡を少なくとも示す運動点軌跡情報を生成する生成手段と
を備えるシステム。 A system for measuring jaw movement,
It is an acquisition means for acquiring a plurality of consecutive images of the subject's face during jaw movement, and the plurality of images include an image in which the subject's face is tilted, and the subject's face is included. The subject's face in the tilted image is tilted with respect to the subject's face in at least one of the plurality of images.
A correction means for at least correcting the coordinate system of the subject's face, wherein the correction means matches the coordinate system of the subject's face in each of the plurality of images including an image in which the subject's face is tilted. As a correction means for correcting the coordinate system of the subject's face,
An extraction means for extracting at least a motion point in the mandibular region of the face,
A system including a generation means for generating motion point locus information indicating at least the locus of the motion point by tracking the motion point.
前記顔の下顎領域内の運動点を抽出する第1の抽出手段と、
前記複数の画像から前記顔の上顔面領域内の固定点を抽出する第2の抽出手段と
を備え、
前記補正手段は、前記固定点と、事前に定義された顔基準位置テンプレートとに基づいて、前記座標系を補正する、請求項1に記載のシステム。 The extraction means is
A first extraction means for extracting a motion point in the lower jaw region of the face,
A second extraction means for extracting a fixed point in the upper facial region of the face from the plurality of images is provided.
The system of claim 1, wherein the correction means corrects the coordinate system based on the fixed point and a predefined face reference position template.
前記第2の抽出手段は、前記複数の特徴部分のうち、所定期間内の座標変化が所定の閾値未満の特徴部分を固定点として抽出する、
請求項2に記載のシステム。 The first extraction means extracts a plurality of feature portions in the plurality of images, and among the plurality of feature portions, the feature portions whose coordinate changes within a predetermined period are within a predetermined range are extracted as motion points.
The second extraction means extracts a feature portion whose coordinate change within a predetermined period is less than a predetermined threshold value as a fixed point among the plurality of feature portions.
The system according to claim 2.
前記被験者の顔の座標系を補正する第1の補正手段と、
前記固定点を追跡することによって、前記固定点の軌跡を示す固定点軌跡情報を生成する第2の生成手段と、
前記固定点軌跡情報に基づいて、前記運動点軌跡情報を補正する第2の補正手段と
を備える、請求項2~3のいずれか一項に記載のシステム。 The correction means
The first correction means for correcting the coordinate system of the subject's face,
A second generation means for generating fixed point locus information indicating the locus of the fixed point by tracking the fixed point, and
The system according to any one of claims 2 to 3, further comprising a second correction means for correcting the motion point trajectory information based on the fixed point trajectory information.
複数の被験者の顔の基準座標系を学習する処理を施された基準座標系学習済モデルであって、前記基準座標系学習済モデルは、入力された画像中の被験者の顔の座標系を前記基準座標系に補正するように構成されている、基準座標系学習済モデル
を備える、請求項1に記載のシステム。 The correction means
It is a reference coordinate system trained model that has been processed to learn the reference coordinate system of the faces of a plurality of subjects, and the reference coordinate system trained model uses the coordinate system of the subject's face in the input image as described above. The system of claim 1, comprising a reference coordinate system trained model configured to be corrected to the reference coordinate system.
入力された画像中の被験者の顔の座標系と、前記基準座標系との差分をとることと、
前記差分に基づいて、前記入力された画像を変換処理することと
によって前記座標系を補正する、請求項5に記載のシステム。 The reference coordinate system trained model is
Taking the difference between the coordinate system of the subject's face in the input image and the reference coordinate system,
The system according to claim 5, wherein the coordinate system is corrected by performing a conversion process on the input image based on the difference.
前記被験者の顔のベース顔モデルを生成するベース顔モデル生成手段と、
前記複数の画像中の前記被験者の顔を前記ベース顔モデルに反映させることにより、前記被験者の顎運動顔モデルを生成する顎運動顔モデル生成手段と
を備え、
前記補正手段は、前記ベース顔モデルの座標系に基づいて、前記顎運動顔モデルの座標系を補正することにより、前記座標系を補正する、請求項1に記載のシステム。 The correction means
A base face model generation means for generating a base face model of the subject's face,
A jaw movement face model generation means for generating a jaw movement face model of the subject by reflecting the face of the subject in the plurality of images in the base face model is provided.
The system according to claim 1, wherein the correction means corrects the coordinate system by correcting the coordinate system of the jaw movement face model based on the coordinate system of the base face model.
前記抽出手段は、前記複数の画像中の前記標点を運動点として抽出する、請求項1、5~11のいずれか一項に記載のシステム。 Further equipped with a gauge point configured to be placed in the mandibular region of the subject.
The system according to any one of claims 1, 5 to 11, wherein the extraction means extracts the reference point in the plurality of images as a motion point.
前記抽出手段は、前記複数の画像中の前記標点を運動点として抽出する、請求項2~4のいずれか一項に記載のシステム。 Further equipped with a gauge point configured to be placed in the mandibular region of the subject.
The system according to any one of claims 2 to 4, wherein the extraction means extracts the reference point in the plurality of images as a motion point.
前記第2の抽出手段は、前記複数の画像中の前記標点を固定点として抽出する、請求項13に記載のシステム。 Further comprising a reference point configured to be placed in the upper facial area of the subject.
The system according to claim 13, wherein the second extraction means extracts the reference point in the plurality of images as a fixed point.
顎運動中の被験者の顔の連続した複数の画像を取得することであって、前記複数の画像の中には、前記被験者の顔が傾いている画像が含まれており、前記被験者の顔が傾いている画像中の前記被験者の顔は、前記複数の画像のうちの少なくとも1つの画像中の前記被験者の顔に対して傾いている、ことと、
前記被験者の顔の座標系を少なくとも補正することであって、前記補正することは、前記被験者の顔が傾いている画像を含む前記複数の画像の各々で前記被験者の顔の座標系が一致するように、前記被験者の顔の座標系を補正することを含む、ことと、
前記顔の下顎領域内の運動点を少なくとも抽出することと、
前記運動点を追跡することによって、前記運動点の軌跡を示す運動点軌跡情報を少なくとも生成することと
を含む処理を前記プロセッサ部に行わせる、プログラム。 A program for measuring jaw movement, wherein the program is executed in a system including a processor unit, and the program is
It is to acquire a plurality of consecutive images of the subject's face during jaw movement, and the plurality of images include an image in which the subject's face is tilted, and the subject's face is included. The subject's face in the tilted image is tilted with respect to the subject's face in at least one of the plurality of images.
The correction is at least correcting the coordinate system of the subject's face, which means that the coordinate system of the subject's face matches in each of the plurality of images including the image in which the subject's face is tilted. As such, including correcting the coordinate system of the subject's face, and
Extracting at least the motion points in the mandibular region of the face and
A program for causing the processor unit to perform a process including at least generating motion point trajectory information indicating the trajectory of the motion point by tracking the motion point.
顎運動中の被験者の顔の連続した複数の画像を取得することであって、前記複数の画像の中には、前記被験者の顔が傾いている画像が含まれており、前記被験者の顔が傾いている画像中の前記被験者の顔は、前記複数の画像のうちの少なくとも1つの画像中の前記被験者の顔に対して傾いている、ことと、
前記被験者の顔の座標系を少なくとも補正することであって、前記補正することは、前記被験者の顔が傾いている画像を含む前記複数の画像の各々で前記被験者の顔の座標系が一致するように、前記被験者の顔の座標系を補正することを含む、ことと、
前記顔の下顎領域内の運動点を少なくとも抽出することと、
前記運動点を追跡することによって、前記運動点の軌跡を示す運動点軌跡情報を少なくとも生成することと
を含む方法。 A method for measuring jaw movement,
It is to acquire a plurality of consecutive images of the subject's face during jaw movement, and the plurality of images include an image in which the subject's face is tilted, and the subject's face is included. The subject's face in the tilted image is tilted with respect to the subject's face in at least one of the plurality of images.
The correction is at least correcting the coordinate system of the subject's face, which means that the coordinate system of the subject's face matches in each of the plurality of images including the image in which the subject's face is tilted. As such, including correcting the coordinate system of the subject's face, and
Extracting at least the motion points in the mandibular region of the face and
A method comprising tracking the motion point to at least generate motion point trajectory information indicating the trajectory of the motion point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022006480A JP2022074153A (en) | 2019-11-08 | 2022-01-19 | System, program and method for measuring jaw movement of subject |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019203439 | 2019-11-08 | ||
JP2019203439 | 2019-11-08 | ||
PCT/JP2020/041567 WO2021090921A1 (en) | 2019-11-08 | 2020-11-06 | System, program, and method for measuring jaw movement of subject |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022006480A Division JP2022074153A (en) | 2019-11-08 | 2022-01-19 | System, program and method for measuring jaw movement of subject |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021090921A1 JPWO2021090921A1 (en) | 2021-11-25 |
JP7037159B2 true JP7037159B2 (en) | 2022-03-16 |
Family
ID=75849068
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021515056A Active JP7037159B2 (en) | 2019-11-08 | 2020-11-06 | Systems, programs, and methods for measuring a subject's jaw movements |
JP2022006480A Pending JP2022074153A (en) | 2019-11-08 | 2022-01-19 | System, program and method for measuring jaw movement of subject |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022006480A Pending JP2022074153A (en) | 2019-11-08 | 2022-01-19 | System, program and method for measuring jaw movement of subject |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7037159B2 (en) |
WO (1) | WO2021090921A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102388337B1 (en) * | 2022-01-25 | 2022-04-20 | (주)힐링사운드 | Service provision method of the application for temporomandibular joint disease improvement service |
CN115187457A (en) * | 2022-06-17 | 2022-10-14 | 先临三维科技股份有限公司 | Model splicing method, motion trail tracking method, device, equipment and medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005349176A (en) | 2004-05-14 | 2005-12-22 | Rise Corp | Jaw movement analyzing method and jaw movement analyzing system |
JP2007058846A (en) | 2005-07-27 | 2007-03-08 | Advanced Telecommunication Research Institute International | Statistic probability model creation apparatus for lip sync animation creation, parameter series compound apparatus, lip sync animation creation system, and computer program |
JP2010142285A (en) | 2008-12-16 | 2010-07-01 | Yoshida Dental Mfg Co Ltd | System and apparatus for tracking lower anterior tooth part movement and temporomandibular joint noise analyzer |
JP2011138388A (en) | 2009-12-28 | 2011-07-14 | Canon Inc | Data correction apparatus and method |
JP2012008949A (en) | 2010-06-28 | 2012-01-12 | Nippon Telegr & Teleph Corp <Ntt> | Face expression amplification device, expression recognition device, face expression amplification method, expression recognition method and program |
JP2019079204A (en) | 2017-10-23 | 2019-05-23 | 佐藤 良治 | Information input-output control system and method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001112743A (en) * | 1999-10-18 | 2001-04-24 | Rikogaku Shinkokai | Three-dimensional jaw motion display device and method and storage medium storing three-dimensional jaw motion display program |
US8444564B2 (en) * | 2009-02-02 | 2013-05-21 | Jointvue, Llc | Noninvasive diagnostic system |
JP5506024B2 (en) * | 2009-05-27 | 2014-05-28 | 株式会社吉田製作所 | Temporomandibular disorder diagnosis support system and apparatus provided with pain detector |
US8620045B2 (en) * | 2010-10-15 | 2013-12-31 | Bruce William Adams | System , method and article for measuring and reporting craniomandibular biomechanical functions |
DE102013000012B4 (en) * | 2013-01-02 | 2019-03-14 | TIONIS e.K. | Measuring arrangement and method for opto-electronic detection of the relative movement between upper and lower jaw of a person |
US10521969B2 (en) * | 2015-02-23 | 2019-12-31 | Osstemimplant Co., Ltd. | Method for simulating mandibular movement, device for same and recording medium for recording same |
-
2020
- 2020-11-06 WO PCT/JP2020/041567 patent/WO2021090921A1/en active Application Filing
- 2020-11-06 JP JP2021515056A patent/JP7037159B2/en active Active
-
2022
- 2022-01-19 JP JP2022006480A patent/JP2022074153A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005349176A (en) | 2004-05-14 | 2005-12-22 | Rise Corp | Jaw movement analyzing method and jaw movement analyzing system |
JP2007058846A (en) | 2005-07-27 | 2007-03-08 | Advanced Telecommunication Research Institute International | Statistic probability model creation apparatus for lip sync animation creation, parameter series compound apparatus, lip sync animation creation system, and computer program |
JP2010142285A (en) | 2008-12-16 | 2010-07-01 | Yoshida Dental Mfg Co Ltd | System and apparatus for tracking lower anterior tooth part movement and temporomandibular joint noise analyzer |
JP2011138388A (en) | 2009-12-28 | 2011-07-14 | Canon Inc | Data correction apparatus and method |
JP2012008949A (en) | 2010-06-28 | 2012-01-12 | Nippon Telegr & Teleph Corp <Ntt> | Face expression amplification device, expression recognition device, face expression amplification method, expression recognition method and program |
JP2019079204A (en) | 2017-10-23 | 2019-05-23 | 佐藤 良治 | Information input-output control system and method |
Non-Patent Citations (2)
Title |
---|
BALTRUSAITIS, Tadas, ROBINSON, Peter, MORENCY, Louis-Philippe,Constrained Local Neural Fields for robust facial landmark detection in the wild,2013 IEEE International Conference on Computer Vision Workshops,2013年,p.354-361 |
清水 雄一郎、 丸山 智章,顎運動測定のための顔検出による基準座標系の自動設定,情報・システムソサイエティ特別企画 学生ポスターセッション予稿集,日本,2019年03月20日,p.97 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021090921A1 (en) | 2021-11-25 |
JP2022074153A (en) | 2022-05-17 |
WO2021090921A1 (en) | 2021-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11704876B2 (en) | Mobile device for viewing of dental treatment outcomes | |
Hutton et al. | Dense surface point distribution models of the human face | |
Lou et al. | Realistic facial expression reconstruction for VR HMD users | |
CN107485844B (en) | Limb rehabilitation training method and system and embedded equipment | |
JP7200439B1 (en) | Avatar display device, avatar generation device and program | |
JP2018538593A (en) | Head mounted display with facial expression detection function | |
JP4950787B2 (en) | Image processing apparatus and method | |
JP6124308B2 (en) | Operation evaluation apparatus and program thereof | |
JP2022074153A (en) | System, program and method for measuring jaw movement of subject | |
CN112232128A (en) | Eye tracking based method for identifying care needs of old disabled people | |
KR102247481B1 (en) | Device and method for generating job image having face to which age transformation is applied | |
WO2023189309A1 (en) | Computer program, information processing method, and information processing device | |
CN114586069A (en) | Method for generating dental images | |
KR20200098796A (en) | Device and method for user-participated human 3D modeling | |
Amirkhanov et al. | WithTeeth: Denture Preview in Augmented Reality. | |
JP6461394B1 (en) | Image generating apparatus and image generating program | |
JP4823298B2 (en) | Three-dimensional shape restoration method, apparatus and program thereof | |
JP2021026265A (en) | Image processing device, image processing program, and image processing method | |
WO2023203385A1 (en) | Systems, methods, and devices for facial and oral static and dynamic analysis | |
US20220398867A1 (en) | Information processing apparatus and facial expression determination method | |
WO2022003843A1 (en) | Determination program, determination device, and determination method | |
US11992731B2 (en) | AI motion based smart hometraining platform | |
WO2023062762A1 (en) | Estimation program, estimation method, and information processing device | |
JP7405809B2 (en) | Estimation device, estimation method, and estimation program | |
JP2022134429A (en) | Learnt model generating method, learnt model generating system, inference device, inference system, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210317 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210317 |
|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20210330 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210830 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211022 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220119 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220119 |
|
C876 | Explanation why request for accelerated appeal examination is justified |
Free format text: JAPANESE INTERMEDIATE CODE: C876 Effective date: 20220119 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220125 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220224 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7037159 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |