JP2022074153A - 被験者の顎運動を測定するためのシステム、プログラム、および方法 - Google Patents
被験者の顎運動を測定するためのシステム、プログラム、および方法 Download PDFInfo
- Publication number
- JP2022074153A JP2022074153A JP2022006480A JP2022006480A JP2022074153A JP 2022074153 A JP2022074153 A JP 2022074153A JP 2022006480 A JP2022006480 A JP 2022006480A JP 2022006480 A JP2022006480 A JP 2022006480A JP 2022074153 A JP2022074153 A JP 2022074153A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- point
- face
- subject
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title abstract description 571
- 238000000034 method Methods 0.000 title description 68
- 210000001847 jaw Anatomy 0.000 description 186
- 238000000605 extraction Methods 0.000 description 86
- 238000012937 correction Methods 0.000 description 72
- 238000011156 evaluation Methods 0.000 description 65
- 230000008569 process Effects 0.000 description 51
- 239000000284 extract Substances 0.000 description 45
- 238000012545 processing Methods 0.000 description 30
- 230000001815 facial effect Effects 0.000 description 23
- 238000005259 measurement Methods 0.000 description 18
- 238000003062 neural network model Methods 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 11
- 230000009466 transformation Effects 0.000 description 10
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 8
- 230000008859 change Effects 0.000 description 8
- 210000004709 eyebrow Anatomy 0.000 description 8
- 210000000887 face Anatomy 0.000 description 7
- 230000005484 gravity Effects 0.000 description 7
- 239000003550 marker Substances 0.000 description 7
- 230000001055 chewing effect Effects 0.000 description 6
- 238000010008 shearing Methods 0.000 description 6
- 230000018984 mastication Effects 0.000 description 5
- 238000010077 mastication Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- RVMGXWBCQGAWBR-UHFFFAOYSA-N 4-oxo-1-benzopyran-2-carboxylic acid Chemical compound C1=CC=C2OC(C(=O)O)=CC(=O)C2=C1 RVMGXWBCQGAWBR-UHFFFAOYSA-N 0.000 description 4
- 229950002478 chromocarb Drugs 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 210000004373 mandible Anatomy 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 210000001508 eye Anatomy 0.000 description 3
- 210000001061 forehead Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000001331 nose Anatomy 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 108091071337 20 family Proteins 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 208000028911 Temporomandibular Joint disease Diseases 0.000 description 1
- 241000746998 Tragus Species 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C19/00—Dental auxiliary appliances
- A61C19/04—Measuring instruments specially adapted for dentistry
- A61C19/045—Measuring instruments specially adapted for dentistry for recording mandibular movement, e.g. face bows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biophysics (AREA)
- Dentistry (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Epidemiology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
【課題】被験者の顎運動を簡易に測定することが可能なシステム等を提供すること。【解決手段】本発明は、顎運動を測定するためのシステムを提供し、前記システムは、顎運動中の被験者の顔の連続した複数の画像を取得すること(ステップS801)と、前記被験者の顔の座標系を少なくとも補正すること(ステップS802)と、前記顔の下顎領域内の運動点を少なくとも抽出すること(ステップS803)と、前記運動点を追跡することによって、前記運動点の軌跡を示す運動点軌跡情報を少なくとも生成すること(ステップS804)とを行うように構成されている。【選択図】図8
Description
本発明は、被験者の顎運動を測定するためのシステム、プログラム、および方法に関する。さらに、被験者の顎運動を測定するために利用される運動点軌跡学習済モデルを構築するためのシステム、プログラム、および方法にも関する。
歯科分野における診断行為の1つとして、顎運動の評価が挙げられる。顎運動には、咀嚼していない状況(非機能時)で顎骨の可動範囲を確認する「限界運動測定」と、咀嚼時(機能時)の下顎運動(咀嚼運動)を測定する「咀嚼時顎運動測定」がある。歯科医療現場では、顎関節症の患者や、歯の欠損補綴が必要な患者などに適用されている。
特許文献1は、顎運動を測定するための手法を開示している。この手法では、患者にヘッドフレームおよび下顎マーカー具を固定する必要がある。特許文献1に示されるような従来の顎運動を測定するための手法では、測定のために必要な器具を患者に装着するために、患者は病院に直接出向く必要があった。これは、患者および医師等にとって大きな負担および手間となり得る。さらに、これらの器具はいずれも専用品であり、非常に高価でコスト高であり得る。
本発明は、被験者の顎運動を簡易に測定することが可能なシステム等を提供することを目的とする。
本発明の一実施形態において、顎運動を測定するためのシステムは、顎運動中の被験者の顔の連続した複数の画像を取得する取得手段と、前記被験者の顔の座標系を少なくとも補正する補正手段と、前記顔の下顎領域内の運動点を少なくとも抽出する抽出手段と、前記運動点を追跡することによって、前記運動点の軌跡を示す運動点軌跡情報を少なくとも生成する生成手段とを備える。
一実施形態において、前記抽出手段は、前記顔の下顎領域内の運動点を抽出する第1の抽出手段と、前記複数の画像から前記顔の上顔面領域内の固定点を抽出する第2の抽出手段とを備え、前記補正手段は、前記固定点と、事前に定義された顔基準位置テンプレートとに基づいて、前記座標系を補正する。
一実施形態において、前記第1の抽出手段は、前記複数の画像において複数の特徴部分を抽出し、前記複数の特徴部分のうち、所定期間内の座標変化が所定の範囲内の特徴部分を運動点として抽出し、前記第2の抽出手段は、前記複数の特徴部分のうち、所定期間内の座標変化が所定の閾値未満の特徴部分を固定点として抽出する
一実施形態において、前記補正手段は、前記被験者の顔の座標系を補正する第1の補正手段と、前記固定点を追跡することによって、固定点の軌跡を示す固定点軌跡情報を生成する第2の生成手段と、前記固定点軌跡情報に基づいて、前記運動点軌跡情報を補正する第2の補正手段とを備える。
一実施形態において、前記補正手段は、複数の被験者の顔の基準座標系を学習する処理を施された基準座標系学習済モデルであって、前記基準座標系学習済モデルは、入力された画像中の被験者の顔の座標系を前記基準座標系に補正するように構成されている、基準座標系学習済モデルを備える。
一実施形態において、前記基準座標系学習済モデルは、入力された画像中の被験者の顔の座標系と、前記基準座標系との差分をとることと、前記差分に基づいて、前記入力された画像を変換処理することとによって前記座標系を補正する。
一実施形態において、前記変換処理は、アフィン変換を含む。
一実施形態において、前記抽出手段は、前記複数の画像において複数の特徴部分を抽出し、前記複数の特徴部分のうち、所定期間内の座標変化が所定の範囲内のピクセルを運動点として抽出する。
一実施形態において、前記補正手段は、前記被験者の顔のベース顔モデルを生成するベース顔モデル生成手段と、前記複数の画像中の前記被験者の顔を前記ベース顔モデルに反映させることにより、前記被験者の顎運動顔モデルを生成する顎運動顔モデル生成手段とを備え、前記補正手段は、前記ベース顔モデルの座標系に基づいて、前記顎運動顔モデルの座標系を補正することにより、前記座標系を補正する。
一実施形態において、前記抽出手段は、前記顎運動顔モデルまたは前記ベース顔モデルにおける運動点を抽出する。
一実施形態において、本発明のシステムは、前記生成された運動点軌跡情報に少なくとも基づいて、前記被験者の顎運動の評価を示す顎運動評価情報を生成する評価手段をさらに備える。
一実施形態において、本発明のシステムは、前記被験者の前記下顎領域に設置されるように構成された標点をさらに備え、前記抽出手段は、前記複数の画像中の前記標点を運動点として抽出する。
一実施形態において、前記被験者の前記上顔面領域に設置されるように構成された標点をさらに備え、前記第2の抽出手段は、前記複数の画像中の前記標点を固定点として抽出する。
一実施形態において、前記標点は、前記標点上の特定点を表すように構成されている。
本発明の一実施形態において、顎運動を測定するためのプログラムは、プロセッサ部を備えるシステムにおいて実行され、前記プログラムは、顎運動中の被験者の顔の連続した複数の画像を取得することと、前記被験者の顔の座標系を少なくとも補正することと、前記顔の下顎領域内の運動点を少なくとも抽出することと、前記運動点を追跡することによって、前記運動点の軌跡を示す運動点軌跡情報を少なくとも生成することとを含む処理を前記プロセッサ部に行わせる。
本発明の一実施形態において、顎運動を測定するための方法は、顎運動中の被験者の顔の連続した複数の画像を取得することと、前記被験者の顔の座標系を少なくとも補正することと、前記顔の下顎領域内の運動点を少なくとも抽出することと、前記運動点を追跡することによって、前記運動点の軌跡を示す運動点軌跡情報を少なくとも生成することとを含む。
本発明の一実施形態において、顎運動を測定するためのシステムは、顎運動中の被験者の顔の連続した複数の画像を取得する取得手段と、前記複数の画像に基づいて、前記顔の下顎領域内の運動点を少なくとも抽出する抽出手段と、前記運動点を追跡することによって、前記運動点の軌跡を示す運動点軌跡情報を少なくとも生成する生成手段と、前記運動点軌跡情報に少なくとも基づいて、前記被験者の顎運動の評価を示す顎運動評価情報を生成する評価手段であって、前記評価手段は、複数の被験者の運動点軌跡情報を学習する処理を施された運動点軌跡学習済モデルを備え、前記運動点軌跡学習済モデルは、入力された運動点軌跡情報を顎運動の評価と相関させるように構成されている、評価手段とを備える。
本発明の一実施形態において、顎運動を測定するためのプログラムは、プロセッサ部を備えるシステムにおいて実行され、前記プログラムは、顎運動中の被験者の顔の連続した複数の画像を取得することと、前記複数の画像に基づいて、前記顔の下顎領域内の運動点を少なくとも抽出することと、前記運動点を追跡することによって、前記運動点の軌跡を示す運動点軌跡情報を少なくとも生成することと、複数の被験者の運動点軌跡情報を学習する処理を施された運動点軌跡学習済モデルを利用して、前記運動点軌跡情報に少なくとも基づいて、前記被験者の顎運動の評価を示す顎運動評価情報を生成することであって、前記運動点軌跡学習済モデルは、入力された運動点軌跡情報を顎運動の評価と相関させるように構成されている、こととを含む処理を前記プロセッサ部に行わせる。
本発明の一実施形態において、顎運動を測定するための方法は、顎運動中の被験者の顔の連続した複数の画像を取得することと、前記複数の画像に基づいて、前記顔の下顎領域内の運動点を少なくとも抽出することと、前記運動点を追跡することによって、前記運動点の軌跡を示す運動点軌跡情報を少なくとも生成することと、複数の被験者の運動点軌跡情報を学習する処理を施された運動点軌跡学習済モデルを利用して、前記運動点軌跡情報に少なくとも基づいて、前記被験者の顎運動の評価を示す顎運動評価情報を生成することであって、前記運動点軌跡学習済モデルは、入力された運動点軌跡情報を顎運動の評価と相関させるように構成されている、こととを含む。
本発明の一実施形態において、被験者の顎運動を測定するために利用される運動点軌跡学習済モデルを構築するためのシステムは、複数の被験者の運動点を追跡することによって得られた運動点の軌跡を示す運動点軌跡情報を少なくとも取得する取得手段と、少なくとも前記複数の被験者の前記運動点軌跡情報を入力用教師データとした学習処理により、運動点軌跡学習済モデルを構築する構築手段とを備える。
一実施形態において、前記学習処理は、教師あり学習であり、前記取得手段は、前記複数の被験者の顎運動の評価を取得し、前記取得された顎運動の評価が出力用教師データとして利用される。
一実施形態において、前記学習処理は、教師なし学習であり、本発明のシステムは、前記構築された運動点軌跡学習済モデルの出力を分類する分類手段をさらに備える。
本発明の一実施形態において、被験者の顎運動を測定するために利用される運動点軌跡学習済モデルを構築するためのプログラムは、プロセッサ部を備えるシステムにおいて実行され、前記プログラムは、複数の被験者の運動点を追跡することによって得られた運動点の軌跡を示す運動点軌跡情報を少なくとも取得することと、少なくとも前記複数の被験者の前記運動点軌跡情報を入力用教師データとした学習処理により、運動点軌跡学習済モデルを構築することとを含む処理を前記プロセッサ部に行わせる。
一実施形態において、被験者の顎運動を測定するために利用される運動点軌跡学習済モデルを構築するための方法は、複数の被験者の運動点を追跡することによって得られた運動点の軌跡を示す運動点軌跡情報を少なくとも取得することと、少なくとも前記複数の被験者の前記運動点軌跡情報を入力用教師データとした学習処理により、運動点軌跡学習済モデルを構築することとを含む。
本発明によれば、被験者の顎運動を簡易に測定することが可能なシステム等を提供することができる。ユーザは、本発明のシステムを用いることにより、場所を問わずに、例えば、医療機関以外にも、会社、自宅等で顎運動を測定することができるようになる。
(定義)
本明細書において「下顎領域」は、顔の下顎骨上の領域のことをいう。
本明細書において「下顎領域」は、顔の下顎骨上の領域のことをいう。
本明細書において「上顔面領域」は、顔の下顎領域以外の領域のことをいう。すなわち、顔の領域は、「下顎領域」と「上顔面領域」とに二分される。
本明細書において「顔の座標系」とは、顔において定義された座標系のことをいう。「顔の座標系」は、例えば、水平系(x軸)と、矢状系(y軸)と、冠状系(z軸)とからなる。「顔の座標系」における水平系は、例えば、眼耳平面(フランクフルト平面)、鼻聴導線(もしくはカンペル平面)、ヒップ平面、咬合平面、または、両瞳孔線等に沿って定義される。「顔の座標系」の矢状系は、例えば、正中線、または、正中矢状平面等に沿って定義される。「顔の座標系」の冠状系は、例えば、眼窩平面等に沿って定義される。水平系、矢状系、および冠状系を定義する平面または線は、上述したものに限定されず、任意の平面または線に沿って定義され得る。
本明細書において「顔の基準座標系」とは、正面を向いた人間が通常有する顔の座標系のことをいう。「顔の基準座標系」は、複数の顔の画像を学習することによって導出される。
本明細書において「運動点」とは、顎運動によって運動する部位上の点または領域のことをいう。
本明細書において「固定点」とは、顎運動によっては運動しない部位上の点または領域のことをいう。
本明細書において「ベース顔モデル」とは、顔の3次元モデルのことをいい、いわゆる「3Dアバター」である。実際の顎運動を撮影した動画から抽出された特徴部分の動きを「ベース顔モデル」に対して反映させると、実際の顎運動を反映した「顎運動顔モデル」となる。「顎運動顔モデル」は、いわゆる、動画中の顎運動に合わせて「動く3Dアバター」である。
本明細書において「約」とは、後に続く数値の±10%を意味する。
以下、図面を参照しながら、本発明の実施の形態を説明する。
1.患者の顎運動を簡易に測定するためのフロー
図1は、本発明の一実施形態を用いて、患者の顎運動を簡易に測定するためのフロー10の一例を示す。フロー10は、歯科医が、患者20が咀嚼している様子を動画で撮影するだけで、患者20の顎運動が測定され(すなわち、咀嚼時顎運動測定が行われ)、顎運動の測定結果が歯科医に提供されるというものである。
図1は、本発明の一実施形態を用いて、患者の顎運動を簡易に測定するためのフロー10の一例を示す。フロー10は、歯科医が、患者20が咀嚼している様子を動画で撮影するだけで、患者20の顎運動が測定され(すなわち、咀嚼時顎運動測定が行われ)、顎運動の測定結果が歯科医に提供されるというものである。
はじめに、歯科医が、端末装置300(例えば、スマートフォン、タブレット等)を用いて、患者20が咀嚼している様子を動画で撮影する。なお、動画は、連続した複数の画像(静止画)であると見なせるため、本明細書では、「動画」と「連続した複数の画像」とは同義に用いられる。
ステップS1では、撮影された動画が、サーバ装置30に提供される。動画がサーバ装置30に提供される態様は問わない。例えば、動画は、ネットワーク(例えば、インターネット、LAN等)を介してサーバ装置30に提供され得る。例えば、動画は、記憶媒体(例えば、リムーバブルメディア)を介してサーバ装置30に提供され得る。
次いで、サーバ装置30において、ステップS1で提供された動画に対する処理が行われる。サーバ装置30による処理により、患者20の顎運動の測定結果が生成される。顎運動の測定結果は、例えば、顎運動の軌跡を表す情報であり得る。あるいは、顎運動の測定結果は、例えば、顎運動の軌跡を表す情報に基づいて生成された患者20の顎運動を評価した顎運動評価情報であり得る。顎運動評価情報は、例えば、顎運動の軌跡が正常なパターンであるか否かの情報を含む。
ステップS2では、サーバ装置30で生成された顎運動の測定結果が、歯科医に提供される。顎運動の測定結果が提供される態様は問わない。例えば、顎運動の測定結果は、ネットワークを介して提供されてもよいし、記憶媒体を介して提供されてもよい。あるいは、例えば、顎運動の測定結果は、紙媒体を介して提供されてもよい。
歯科医は、ステップS2で提供された患者20の顎運動の測定結果を確認する。
このように、歯科医は、特有の器具を必要とすることなく、端末装置300で患者20の咀嚼の様子を撮影するだけで、患者20の顎運動を簡易に測定することができる。
上述した例では、フロー10において、咀嚼時顎運動測定を行うことを説明したが、本発明は、これに限定されない。例えば、フロー10において、限界運動測定を行うこともできる。これは、例えば、歯科医が、端末装置300を用いて、患者20が顎を大きく動かした様子(例えば、大きく口を開けた様子、顎を前に出した様子等)を動画で撮影し、撮影された動画をサーバ装置30で処理することによって達成され得る。
上述した例では、歯科医が、患者20の顎運動の動画を撮影するだけで、顎運動の測定結果の提供を受けることができるフロー10を説明したが、本発明は、これに限定されない。例えば、患者20が、自身の端末装置300を用いて、自身が咀嚼している様子を動画で撮影するだけで、あるいは、患者20が、別の人に、端末装置300を用いて、自身が咀嚼している様子を動画で撮影してもらうだけで、患者20の顎運動の測定結果が、医師、歯科医、介護者、または患者20の家族あるいは患者20本人に提供されるというフローも可能である。
なお、上述したサーバ装置30による処理を端末装置300で行うことも可能である。この場合は、サーバ装置30が省略され得、端末装置300は、スタンドアローンで動くことができる。患者20の顎運動の測定結果が、医師、歯科医、介護者、または家族に提供される上述した例では、端末装置300からサーバ装置30を介することなく、顎運動の測定結果が病院の医師もしくは歯科医、または、介護者、または、患者の20の家族あるいは患者20本人に提供され得る。
上述したフロー10は、後述する本発明のコンピュータシステム100を利用して実現され得る。
2.被験者の顎運動を測定するためのコンピュータシステムの構成
図2は、被験者の顎運動を測定するためのコンピュータシステム100の構成の一例を示す。
図2は、被験者の顎運動を測定するためのコンピュータシステム100の構成の一例を示す。
コンピュータシステム100は、データベース部200に接続されている。また、コンピュータシステム100は、少なくとも1つの端末装置300にネットワーク400を介して接続され得る。
ネットワーク400は、任意の種類のネットワークであり得る。ネットワーク400は、例えば、インターネットであってもよいし、LANであってもよい。ネットワーク400は、有線ネットワークであってもよいし、無線ネットワークであってもよい。
コンピュータシステム100の一例は、サーバ装置であるが、これに限定されない。端末装置300の一例は、ユーザが保持するコンピュータ(例えば、端末装置)、または、病院に設置されているコンピュータ(例えば、端末装置)であるが、これに限定されない。ここで、コンピュータ(サーバ装置または端末装置)は、任意のタイプのコンピュータであり得る。例えば、端末装置は、スマートフォン、タブレット、パーソナルコンピュータ、スマートグラス等の任意のタイプの端末装置であり得る。
コンピュータシステム100は、インターフェース部110と、プロセッサ部120と、メモリ170部とを備える。
インターフェース部110は、コンピュータシステム100の外部と情報のやり取りを行う。コンピュータシステム100のプロセッサ部120は、インターフェース部110を介して、コンピュータシステム100の外部から情報を受信することが可能であり、コンピュータシステム100の外部に情報を送信することが可能である。インターフェース部110は、任意の形式で情報のやり取りを行うことができる。
インターフェース部110は、例えば、コンピュータシステム100に情報を入力することを可能にする入力部を備える。入力部が、どのような態様でコンピュータシステム100に情報を入力することを可能にするかは問わない。例えば、入力部がタッチパネルである場合には、ユーザがタッチパネルにタッチすることによって情報を入力するようにしてもよい。あるいは、入力部がマウスである場合には、ユーザがマウスを操作することによって情報を入力するようにしてもよい。あるいは、入力部がキーボードである場合には、ユーザがキーボードのキーを押下することによって情報を入力するようにしてもよい。あるいは、入力部がマイクである場合には、ユーザがマイクに音声を入力することによって情報を入力するようにしてもよい。あるいは、入力部がカメラである場合には、カメラが撮像した情報を入力するようにしてもよい。あるいは、入力部がデータ読み取り装置である場合には、コンピュータシステム100に接続された記憶媒体から情報を読み取ることによって情報を入力するようにしてもよい。あるいは、入力部が受信器である場合、受信器がネットワーク400を介してコンピュータシステム100の外部から情報を受信することにより入力してもよい。
インターフェース部110は、例えば、コンピュータシステム100から情報を出力することを可能にする出力部を備える。出力部が、どのような態様でコンピュータシステム100から情報を出力することを可能にするかは問わない。例えば、出力部が表示画面である場合、表示画面に情報を出力するようにしてもよい。あるいは、出力部がスピーカである場合には、スピーカからの音声によって情報を出力するようにしてもよい。あるいは、出力部がデータ書き込み装置である場合、コンピュータシステム100に接続された記憶媒体に情報を書き込むことによって情報を出力するようにしてもよい。あるいは、出力部が送信器である場合、送信器がネットワーク400を介してコンピュータシステム100の外部に情報を送信することにより出力してもよい。この場合、ネットワークの種類は問わない。例えば、送信器は、インターネットを介して情報を送信してもよいし、LANを介して情報を送信してもよい。
例えば、出力部は、コンピュータシステム100によって生成された運動点軌跡情報を出力することができる。例えば、出力部は、コンピュータシステム100によって生成された顎運動評価情報を出力することができる。
プロセッサ部120は、コンピュータシステム100の処理を実行し、かつ、コンピュータシステム100全体の動作を制御する。プロセッサ部120は、メモリ部170に格納されているプログラムを読み出し、そのプログラムを実行する。これにより、コンピュータシステム100を所望のステップを実行するシステムとして機能させることが可能である。プロセッサ部120は、単一のプロセッサによって実装されてもよいし、複数のプロセッサによって実装されてもよい。
メモリ部170は、コンピュータシステム100の処理を実行するために必要とされるプログラムやそのプログラムの実行に必要とされるデータ等を格納する。メモリ部170は、被験者の顎運動を測定するための処理をプロセッサ部120に行わせるためのプログラム(例えば、後述する図8、図9に示される処理を実現するプログラム)、および、被験者の顎運動を測定するために利用される運動点軌跡学習済モデルを構築するための処理(例えば、後述する図10に示される処理を実現するプログラム)を格納してもよい。ここで、プログラムをどのようにしてメモリ部170に格納するかは問わない。例えば、プログラムは、メモリ部170にプリインストールされていてもよい。あるいは、プログラムは、ネットワークを経由してダウンロードされることによってメモリ部170にインストールされるようにしてもよい。この場合、ネットワークの種類は問わない。メモリ部170は、任意の記憶手段によって実装され得る。
データベース部200には、例えば、複数の被験者のそれぞれについて、顎運動中の被験者の顔の連続した複数の画像が格納され得る。顎運動中の被験者の顔の連続した複数の画像は、例えば、端末装置300からネットワーク400を介してデータベース部200に送信されたものであってもよいし、例えば、コンピュータシステム100が備える撮影手段によって撮影されたものであってもよい。複数の被験者の顎運動中の顔の連続した複数の画像は、後述する顔基準座標系学習済モデルを構築するために利用され得る。
データベース部200には、例えば、複数の被験者のそれぞれについて、顎運動中の顔の連続した複数の画像またはそれらの画像から導出された運動点軌跡情報と、その被験者の顎運動の評価とが関連付けて格納され得る。格納されたデータは、後述する運動点軌跡学習済モデルを構築するために利用され得る。
また、データベース部200には、例えば、コンピュータシステム100によって出力された運動点軌跡情報、または顎運動評価情報が格納され得る。
端末装置300は、少なくとも、カメラ等の撮影手段を備える。撮影手段は、少なくとも連続した複数の画像を撮影することが可能である限り、任意の構成を備え得る。撮影手段は、顎運動中の被験者の顔の連続した複数の画像を撮影するために利用される。撮影される画像は、2次元情報(縦×横)を含む画像であってもよいし、3次元情報(縦×横×奥行)を含む画像であってもよい。
図3は、一実施形態におけるプロセッサ部120の構成の一例を示す。
プロセッサ部120は、取得手段121と、抽出手段122と、生成手段123とを備える。
取得手段121は、顎運動中の被験者の顔の連続した複数の画像を取得するように構成されている。取得手段121は、例えば、データベース部200に格納されている顎運動中の被験者の顔の連続した複数の画像をインターフェース部110を介して取得することができる。あるいは、取得手段121は、例えば、インターフェース部110を介して端末装置300から受信された連続した複数の画像を取得することができる。
取得手段121は、後述する運動点軌跡学習済モデルを構築するために、複数の被験者の運動点を追跡することによって得られた運動点の軌跡を示す運動点軌跡情報を取得するように構成されてもよい。運動点軌跡情報は、例えば、本発明のコンピュータシステム100を用いて取得された運動点軌跡情報であってもよいし、公知の任意の顎運動測定装置から得られた運動点軌跡情報であってもよい。取得手段121は、例えば、データベース部200に格納されている運動点軌跡情報をインターフェース部110を介して取得することができる。取得手段121は、さらに、後述する運動点軌跡学習済モデルを構築するために、複数の被験者の顎運動の評価を取得するように構成されてもよい。取得手段121は、例えば、データベース部200に格納されている顎運動の評価をインターフェース部110を介して取得することができる。
抽出手段122は、顔の下顎領域内の運動点を少なくとも抽出するように構成されている。抽出手段122は、例えば、取得手段121が取得した画像から運動点を抽出することができる。抽出手段122は、例えば、後述する補正手段131による出力から運動点を抽出することができる。抽出手段122は、例えば、画像中の運動点がどこであるかの入力を受け、その入力に基づいて、運動点を抽出するようにしてもよいし、入力を受けることなく、自動的に運動点を抽出するようにしてもよい。抽出手段122は、例えば、顔の正中線上の点または領域を運動点として自動的に抽出することができる。顔の下顎領域内の正中線上の点は、顎運動によって大きく動くため、顎運動を評価するために好適である。抽出手段122は、例えば、下顎の先端の点を運動点として自動的に抽出するようにしてもよい。
一実施形態において、抽出手段122が運動点を自動的に抽出する場合、抽出手段122は、まず、複数の画像の各々に対して、顔の複数の特徴部分を検出する。顔の複数の特徴部分のうちの1つは、例えば、画像中の1以上のピクセルとして表現され得る。顔の複数の特徴部分は、例えば、目、眉毛、鼻、口、眉間、顎、耳、喉、輪郭等に該当する部分であり得る。抽出手段122による顔の複数の特徴部分の抽出は、例えば、複数の被験者の顔画像を用いて特徴部分を学習する処理を施された学習済モデルを用いて行うことができる。一例において、抽出手段122による顔の複数の特徴部分の抽出は、顔認識アプリケーション「Openface」を用いて行うことができる(Tadas Baltrusaitis, Peter Robinson, Louis-Philippe Morency、「OpenFace: an open source facial behavior analysis toolkit」、2016 IEEE Winter Conference on Applications of Computer Vision (WACV)、pp.1-10、2016)。「Openface」は、顔の2次元情報(縦×横)を含む画像から顔の3次元情報(縦×横×奥行)を出力できるソフトウェアである。
抽出手段122は、例えば、画像に対して色強調処理を行い、色調が周囲と異なる部分を特徴部分として抽出するようにしてもよい。これは、眉毛等の周囲と色調が明確に異なる部分を抽出する際に特に好ましい。
図4は、抽出手段122による顔の複数の特徴部分の抽出の結果の一例を示す。抽出手段122は、顔認識アプリケーション「Openface」を用いて、顔の複数の特徴部分を抽出している。抽出された複数の特徴部分のそれぞれが、黒点4000で表示されている。「Openface」では、輪郭が特徴部分として抽出され、輪郭内部の目立つ特徴がない部分(例えば、頬、口と顎との間等)を抽出することはできない。
抽出手段122は、抽出された複数の特徴部分のうち、下顎領域内の点4100を運動点として抽出する。抽出手段122は、例えば、抽出された複数の特徴部分のうち、所定期間内の座標変化が所定の範囲内の部分を運動点として抽出することができる。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。所定範囲は、例えば、約5mm~約20mmの範囲等であり得る。これにより、顎運動による運動以外で座標変化している特徴部分を誤って運動点として抽出することを回避することができる。例えば、被験者を撮影する際の被験者の身体の大きな動きを誤って抽出することを回避することができる。
例えば、図4に示されるように、下顎領域内の下顎の下端の運動点4100が抽出され得る。
再び図3を参照して、生成手段123は、運動点を追跡することによって、運動点の軌跡を示す運動点軌跡情報を少なくとも生成するように構成されている。運動点軌跡情報は、所定期間内の運動点の軌跡を示す情報である。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。生成手段123は、例えば、連続した複数の画像の各々における運動点の画像中の座標を特定し、連続した複数の画像間で座標をトレースすることによって、運動点軌跡情報を生成することができる。このとき、運動点の座標は、2次元座標であってもよいし、3次元座標であってもよい。画像が2次元情報(縦×横)を含む画像である場合には、運動点の座標は2次元座標となり、画像が3次元情報(縦×横×奥行)を含む画像である場合には、運動点の座標は3次元座標となる。あるいは、画像が2次元情報(縦×横)を含む画像であっても、2次元画像から3次元情報(縦×横×奥行)を出力するアルゴリズムを利用する場合には、運動点の座標は3次元座標となり得る。
生成された運動点軌跡情報は、インターフェース部110を介してコンピュータシステム100の外部に出力され得る。
上述した抽出手段122による顔の複数の特徴部分の抽出では、連続した複数の画像の各々において、顔上の同一の点を抽出することが難しい場合がある。例えば、上述したOpenfaceでは、連続した複数の画像の各々で独立して特徴部分を抽出するため、連続した複数の画像のうちの第1の画像で抽出された特徴部分と、連続した複数の画像のうちの第2の画像で抽出された特徴部分とが同一であるとは限らない。さらに、Openfaceでは、目、眉毛、鼻、口、眉間、顎、耳、喉、輪郭等が特徴部分として抽出されるため、例えば、輪郭上の点を下顎領域に対応する特徴部分とする場合には、連続した複数の画像の撮影中に被験者の身体が動いたり、傾いたりすると、画像内の被写体の顔の輪郭が変わり、抽出される特徴部分も変わる。これにより、抽出される顔の複数の特徴部分は、連続した複数の画像間でずれることとなる。
図5は、顔とカメラとの角度をずらした場合の動画における2つのフレームについて、Openfaceを用いて顔の特徴部分を抽出した結果を比較した図である。図5において、白線は、鼻筋の延長線であり、黒点が抽出された特徴部分である。矢印で示される下顎上の特徴部分と白線との間の距離が、2つのフレームで異なっていることから、抽出された特徴部分が、2つのフレームで同一ではないことが確認される。
このように、連続した複数の画像間で抽出される特徴部分が異なると、特徴部分に基づいて抽出される運動点も、連続した複数の画像間で異なるようになる。これでは、正確な運動点軌跡情報を生成することができなくなる。従って、連続した複数の画像間で、抽出される運動点が異ならないように、撮影中の被験者の動きや傾きを補正することが好ましい。
例えば、被験者の下顎領域に標点を設置することにより、抽出手段122は、下顎領域に設置された標点を認識することによって、運動点を抽出するようにしてもよい。標点は、例えば、シールであってもよいし、インクであってもよい。抽出手段122が、標点を運動点として抽出することにより、抽出される運動点は、連続した複数の画像間で同一になり得る。
一実施形態において、標点は、標点上の特定点を表すように構成され得る。標点がある程度の大きさを有すると、抽出手段122によって連続した複数の画像のそれぞれから認識される標点が、連続した複数の画像間でわずかにずれることがある。抽出手段122が、標点内の任意の点を認識してしまうからである。これでは、抽出される運動点が、連続した複数の画像間でわずかに異なってしまい、これは、運動点軌跡情報の誤差につながり得る。抽出手段122が、標点上の特定点を認識するようにすることで、認識される標点のずれを無くすことができ、抽出される運動点を、連続した複数の画像間で同一にすることができる。特定点は、抽出手段122によって点として認識される大きさであることが好ましい。
例えば、標点は、特定点を表す模様を有することができる。模様は、例えば、ドット模様(例えば、図11Aに示されるようなARマーカー(例えば、ArUcoマーカー)、QRコード(登録商標)等)であり得る。ドット模様は、各ドットの角または模様の中心を特定点として表している。模様は、例えば、機械製図における重心記号(例えば、図11Bに示されるような、円形を4等分して塗り分けた記号)であり得る。機械製図における重心記号は、その中心を特定点として表している。例えば、標点は、色分けされる(例えば、特定点の色を標点の他の部分の色の補色とする、または、特定点の色を肌色の補色とする)ことにより、特定点を表すようにしてもよい。例えば、標点は、その大きさを十分に小さくすることにより、特定点を表すようにしてもよい。
例えば、標点が有する模様がドット模様である場合、ドット模様上の少なくとも4点を認識することにより、標点の3次元座標を導出することができる。3次元座標の導出は、AR(拡張現実)の分野等で公知の技術を用いて達成することができる。標点の3次元座標は、運動点の3次元座標に相当することになる。
なお、抽出手段122は、「Openface」以外のアプリケーションを用いて特徴部分を抽出するようにしてもよい。例えば、複数の画像間で一貫した特徴部分を抽出することができるアプリケーションであることが好ましい。これにより、上述した標点を用いる場合と同様の効果、すなわち、抽出される運動点が、連続した複数の画像間で同一になり得るという効果を得られるからである。また、抽出手段122は、例えば、顔の3次元情報(縦×横×奥行)を含む画像から特徴部分を抽出することも可能である。抽出手段122が、顔の3次元情報(縦×横×奥行)を含む画像から特徴部分を抽出することによっても、抽出される運動点は、連続した複数の画像間で同一になり得る。
このように、抽出手段122が、標点を運動点として抽出する、または、複数の画像間で一貫した特徴部分を抽出することができるアプリケーションを用いて特徴部分を抽出する、または、顔の3次元情報を含む画像から特徴部分を抽出することにより、抽出される運動点は、連続した複数の画像間で同一になり得る。しかしながら、これらの場合であっても、撮影中の被験者の動きや傾きが存在すると、運動点の軌跡に被験者の動きや傾きが含まれることになり、正確な運動点軌跡情報を生成することができなくなる。従って、撮影中の被験者の動きや傾きを補正することが好ましい。
図6Aは、一実施形態におけるプロセッサ部130の構成の一例を示す。プロセッサ部130は、連続した複数の画像間で、抽出される運動点が異ならないように補正をするための構成を有し得る。プロセッサ部130は、上述したプロセッサ部120の代替としてコンピュータシステム100が備えるプロセッサ部である。図6Aでは、図3に示される要素と同一の要素に同じ参照番号を付し、ここでは説明を省略する。
プロセッサ部130は、取得手段121と、補正手段131と、抽出手段122と、生成手段123とを備える。
補正手段131は、取得手段121によって取得された複数の画像に基づいて、被験者の顔の座標系を少なくとも補正するように構成されている。
一実施形態において、補正手段131は、複数の画像の各々で被験者の顔の座標系が一致するように、複数の画像の各々について、被験者の顔の座標系を補正することができる。補正手段131は、例えば、複数の画像の各々をアフィン変換することにより、顔の座標系を補正することができる。複数の画像が3次元情報(縦×横×奥行)を含む画像である場合には、3次元のアフィン変換が行われ得る。これにより、複数の画像の各々から抽出される運動点が、複数の画像間で一致するようになる。
別の実施形態において、補正手段131は、複数の被験者の顔の基準座標系を学習する処理を施された基準座標系学習済モデルを利用して、複数の画像の各々について、被験者の顔の座標系を補正することができる。基準座標系学習済モデルは、入力された画像中の被験者の顔の座標系を基準座標系に補正した画像を出力するように構成されている。基準座標系学習済モデルは、任意の機械学習モデルを用いて構築することができる。
基準座標系学習済モデルは、例えば、教師あり学習によって構築され得る。教師あり学習では、例えば、被験者の顔の画像が入力用教師データとして用いられ、その画像における基準座標系が出力用教師データとして用いられ得る。複数の被験者(例えば、少なくとも50人分)の複数の画像を繰り返し学習することにより、学習済モデルは、複数の被験者の顔が統計上有すると推定される基準座標系を認識することができるようになる。このような学習済モデルに被験者の顔の画像を入力すると、被験者の顔の座標系と基準座標系との差分が出力されるようになる。例えば、被験者の顔の座標系と基準座標系との差分をゼロにまたは所定の閾値未満にするように、入力された画像を変換処理(例えば、拡縮、回転、剪断、平行移動等)するように学習済モデルを構成することによって、基準座標系学習済モデルが生成され得る。画像の変換処理は、例えば、アフィン変換を利用して行われ得る。
基準座標系学習済モデルは、例えば、教師なし学習によって構築され得る。教師なし学習では、例えば、複数の被験者の顔の画像が入力用教師データとして用いられ得る。複数の被験者の多数の画像を繰り返し学習することにより、学習済モデルは、多くの画像に共通する顔の座標系を、複数の被験者が統計上有すると推定される基準座標系として認識することができるようになる。このような学習済モデルに被験者の顔の画像を入力すると、被験者の顔の座標系と基準座標系との差分が出力されるようになる。例えば、被験者の顔の座標系と基準座標系との差分をゼロにまたは所定の閾値未満にするように、入力された画像を変換処理(例えば、拡縮、回転、剪断、平行移動等)するように学習済モデルを構成することによって、基準座標系学習済モデルが生成され得る。画像の変換処理は、例えば、アフィン変換を利用して行われ得る。
入力用教師データに用いられる画像は、例えば、2次元情報(縦×横)を含む画像であってもよいが、3次元情報(縦×横×奥行)を含む画像であることが好ましい。これにより、構築される基準座標系学習済モデルが、3次元情報を含む画像を出力することができるようになるからである。3次元情報(縦×横×奥行)を含む画像は、例えば、RGB-Dカメラを用いて取得され得る。2次元情報を含む画像を利用する場合には、奥行き情報を推定する処理を行い、奥行き情報を付加したうえで、学習処理に利用することが好ましい。
抽出手段122は、補正手段131によって補正された座標系において、顔の下顎領域内の運動点を抽出する。生成手段123は、抽出された運動点を追跡することによって、運動点の軌跡を示す運動点軌跡情報を生成する。複数の画像の各々から抽出される運動点は、それぞれ同一の座標系において取得されるため、生成される運動点軌跡情報は、より正確な情報となる。
図6Bは、別の実施形態におけるプロセッサ部140の構成の一例を示す。プロセッサ部140は、顎運動においては運動しない固定点を基準として用いて、被験者の顔の座標系を補正するための構成を有し得る。プロセッサ部140は、上述したプロセッサ部120の代替としてコンピュータシステム100が備えるプロセッサ部である。図6Bでは、図3、図6Aで上述した構成要素と同じ構成要素には同じ参照数字を付し、ここでは説明を省略する。
プロセッサ部140は、取得手段121と、補正手段131と、抽出手段122と、生成手段123とを備える。抽出手段122は、第1の抽出手段141と、第2の抽出手段142とを備える。
第2の抽出手段142は、複数の画像に基づいて、顔の上顔面領域内の固定点を抽出するように構成されている。第2の抽出手段142は、例えば、画像中の固定点がどこであるかの入力を受け、その入力に基づいて、固定点を抽出するようにしてもよいし、入力を受けることなく、自動的に固定点を抽出するようにしてもよい。例えば、固定点は、顎運動によっては運動しない額、眉、眉間、鼻頭等の部位上の点または領域であり得る。例えば、固定点は、解剖学的特徴(例えば、眉、眉間、外眼角(目尻)、内眼角、瞳孔、耳珠、鼻頭等)上の点または領域であり得る。固定点は、画像上で少なくとも3ピクセルを有することが好ましく、固定点は、例えば、少なくとも3ピクセルを有する1つの領域であってもよいし、それぞれが少なくとも1ピクセルを有する3つの点であってもよい。少なくとも3ピクセルあれば、後述する補正手段131が、これら3つを基準として用いて、複数の画像を顔基準位置テンプレートに対応付けるように補正することができるからである。例えば、固定点は、相互に離間した少なくとも3つの点であり得、この場合、後述する補正手段133によって、固定点と事前に定義された顔基準位置テンプレートとに基づいて被験者の顔の座標系を補正する際に生じ得る誤差を小さくすることができる。例えば、固定点は、顔の上顔面領域の少なくとも一部を覆う領域(例えば、額を覆う曲面)であり得、この場合、後述する補正手段133によって、固定点と事前に定義された顔基準位置テンプレートとに基づいて被験者の顔の座標系を補正する際に生じ得る誤差を小さくすることができる。
一実施形態において、第2の抽出手段142が自動的に固定点を抽出する場合、第2の抽出手段142は、図3を参照して上述した抽出手段122と同様に、まず、複数の画像の各々に対して、顔の複数の特徴部分を検出する。第2の抽出手段142による顔の複数の特徴部分の抽出は、例えば、複数の被験者の顔画像を用いて特徴部分を学習する処理を施された学習済モデルを用いて行うことができ、例えば、顔認識アプリケーション「Openface」を用いて行うことができる。第2の抽出手段142は、抽出された複数の特徴部分のうち、上顔面領域内の点または領域を固定点として抽出する。第2の抽出手段142は、例えば、抽出された複数の特徴部分のうち、所定期間内の座標変化が所定の閾値未満の部分を固定点として抽出することができる。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。所定の閾値は、例えば、約1mmであり得る。第2の抽出手段142は、例えば、画像に対して色強調処理を行い、色調が周囲と異なる部分を特徴部分として抽出するようにしてもよい。これは、眉毛等の周囲と色調が明確に異なる部分を抽出する際に特に好ましい。
一実施形態において、被験者の上顔面領域に標点を設置することにより、第2の抽出手段142は、上顔面領域に設置された標点を認識することによって、固定点を抽出するようにしてもよい。本明細書および特許請求の範囲では、上顔面領域に設置される標点は、下顎領域に設置される標点と区別するために、固定点用標点とも呼ばれる。固定点用標点は、下顎領域に設置される標点と同様の構成を有することができる。固定点用標点は、例えば、シールであってもよいし、インクであってもよい。固定点用標点は、下顎領域に設置される標点とは別個に用いられてもよいが、固定点用標点は、下顎領域に設置される標点と併用されることが好ましい。
一実施形態において、固定点用標点は、固定点用標点上の特定点を表すように構成され得る。例えば、固定点用標点は、特定点を表す模様を有することができる。模様は、例えば、ドット模様(例えば、図11Aに示されるようなARマーカー(例えば、ArUcoマーカー)、QRコード(登録商標)等)であり得る。ドット模様は、各ドットの角または模様の中心を特定点として表している。模様は、例えば、機械製図における重心記号(例えば、図11Bに示されるような、円形を4等分して塗り分けた記号)であり得る。機械製図における重心記号は、その中心を特定点として表している。例えば、固定点用標点は、色分けされる(例えば、特定点の色を標点の他の部分の色の補色とする、または、特定点の色を肌色の補色とする)ことにより、特定点を表すようにしてもよい。例えば、固定点用標点は、その大きさを十分に小さくすることにより、特定点を表すようにしてもよい。
例えば、固定点用標点が有する模様がドット模様である場合、ドット模様上の少なくとも4点を認識することにより、固定点用標点の3次元座標を導出することができる。3次元座標の導出は、AR(拡張現実)の分野等で公知の技術を用いて達成することができる。固定点用標点の3次元座標は、固定点の3次元座標に相当することになる。
補正手段131は、固定点と、事前に定義された顔基準位置テンプレートとに基づいて、被験者の顔の座標系を補正するように構成されている。例えば、補正手段131は、複数の画像の各々の固定点が、顔基準位置テンプレート上の対応する点に移動するように、複数の画像の各々を変換処理(例えば、拡縮、回転、剪断、平行移動等)する。あるいは、例えば、補正手段131は、複数の画像の各々の固定点と顔基準位置テンプレート上の対応する点との間の距離をゼロにまたは所定の閾値未満にするように、複数の画像の各々を変換処理する。あるいは、例えば、補正手段131は、複数の画像の各々の固定点によって定義される平面と顔基準位置テンプレート上の対応する平面とが一致するように、複数の画像の各々を変換処理する。変換処理後の複数の画像内の被験者の顔の座標系が、補正後の顔の座標系となる。画像の変換処理は、例えば、アフィン変換によって行われ得る。例えば、固定点が顔の上顔面領域の少なくとも一部を覆う領域(例えば、額を覆う曲面)である場合に、補正手段131は、当該領域と、顔基準位置テンプレート上の対応する領域との誤差が最小になるように、複数の画像の各々を変換処理することができる。これは、例えば、最小二乗法を用いて行うことができる。補正手段131は、例えば、固定点に加えて、運動点も利用して、被験者の顔の座標系を補正するようにしてもよい。
一例において、顔基準位置テンプレートは、顔が正面を向いている状態での顔の位置(すなわち、顔基準位置)を定義するテンプレートである。例えば、顔基準位置テンプレートは、解剖学的に定義され得る。例えば、顔基準位置テンプレートは、眼耳平面(フランクフルト平面)、鼻聴導線(もしくはカンペル平面)、ヒップ平面、咬合平面、または、両瞳孔線が水平となる状態での顔の位置を定義するテンプレートであり得る。例えば、顔基準位置テンプレートは、正中線、または、正中矢状平面が垂直となる状態での顔の位置を定義するテンプレートであり得る。例えば、顔基準位置テンプレートは、眼窩平面が正面を向く状態での顔の位置を定義するテンプレートであり得る。例えば、顔基準位置テンプレートは、眼耳平面(フランクフルト平面)、鼻聴導線(もしくはカンペル平面)、ヒップ平面、咬合平面、または、両瞳孔線が水平となる状態で、かつ/または、正中線、または、正中矢状平面が垂直となる状態で、かつ/または、眼窩平面が正面を向く状態での顔の位置を定義するテンプレートであり得る。顔基準位置テンプレートは、顔が正面を向いている状態での顔の各部位の位置を確認するために用いられることができる。例えば、補正手段131は、顔基準位置テンプレートにおける顔の部位の位置を確認し、その位置に複数の画像中の対応する部位(例えば、固定点が位置する部位)を移動させるように、複数の画像の各々を変換処理することができる。例えば、補正手段131は、顔基準位置テンプレートにおける種々の平面(例えば、フランクフルト平面、カンペル平面等)の向きを確認し、その向きに複数の画像中の対応する平面(例えば、固定点によって定義される平面)を移動させるように、複数の画像の各々を変換処理することができる。
一例において、顔基準位置テンプレートは、連続した複数の画像を撮影する際に利用されるテンプレートとして実装され得る。例えば、顔基準位置テンプレートが、端末装置300を用いて複数の画像を撮影する際に端末装置300の画面に表示され、被験者の顔の向きが、顔基準位置テンプレートに整合した場合にのみ、画像が撮影されるようにすることができる。これにより、撮影される複数の画像の各々における被験者の顔の写り方が一貫し、連続した複数の画像間で、抽出される運動点が異なる可能性を低減することができる。このような撮影される画像を制限することも、コンピュータシステム100による補正の一種である。
第1の抽出手段141は、図3を参照して上述した抽出手段122と同様の構成であり得る。第1の抽出手段141は、補正手段131によって補正された座標系において、顔の下顎領域内の運動点を抽出する。生成手段123は、抽出された運動点を追跡することによって、運動点の軌跡を示す運動点軌跡情報を生成する。複数の画像の各々から抽出される運動点は、それぞれ同一の座標系において取得されるため、生成される運動点軌跡情報は、より正確な情報となる。
上述したように、図6Bに示される例では、固定点を基準として用いて顔の座標系を補正することにより、より正確な運動点軌跡情報を生成することができる。例えば、連続した複数の画像の撮影時に、被験者の身体の動き等により、顎運動とは独立して固定点が移動してしまう場合(例えば、眉を固定点とする際に顎運動をしながら眉を上下に動かしたり、上顔面領域の皮膚が動いたりすることにより、固定点が複数の画像間で一致しない場合等)には、固定点を基準として用いて顔の座標系を補正することに加えて、固定点の移動を相殺するように補正することが好ましい。固定点の移動による運動点の軌跡の誤差が低減され、さらに正確な運動点軌跡情報を生成することができるからである。
固定点の移動を相殺するように補正するために、補正手段131は、第2の生成手段(図示せず)と、第2の補正手段(図示せず)とをさらに備え得る。
第2の生成手段は、固定点を追跡することによって、固定点の軌跡を示す固定点軌跡情報を生成するように構成されている。第2の生成手段は、例えば、少なくとも3ピクセルのそれぞれについて固定点軌跡情報を生成するようにしてもよいし、少なくとも3ピクセルのうちの少なくとも1ピクセル(例えば、最も正中線に近いピクセル、最も上側にあるピクセル、最も下側にあるピクセル、ランダムに選択されるピクセルなど)について固定点軌跡情報を生成するようにしてもよい。第2の生成手段は、例えば、少なくとも3ピクセルの重心について固定点軌跡情報を生成するようにしてもよい。固定点軌跡情報は、所定期間内の固定点の軌跡を示す情報である。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。第2の生成手段は、例えば、連続した複数の画像の各々における固定点の画像中の座標を追跡することによって、固定点軌跡情報を生成することができる。
第2の補正手段は、固定点軌跡情報に基づいて、運動点軌跡情報を補正するように構成されている。例えば、第2補正手段は、運動点の軌跡から固定点の軌跡を差し引くことによって、運動点軌跡情報を補正するようにしてもよい。このとき、例えば、少なくとも3ピクセルのそれぞれの固定点軌跡情報のうち、最も軌跡の移動が小さいピクセルの固定点軌跡情報を用いて、運動点の軌跡から固定点の軌跡を差し引くことによって、運動点軌跡情報を補正することができる。あるいは、例えば、少なくとも3ピクセルのそれぞれの固定点軌跡情報のうち、最も軌跡の移動が大きいピクセルの固定点軌跡情報を用いて、運動点の軌跡から固定点の軌跡を差し引くことによって、運動点軌跡情報を補正することができる。あるいは、例えば、少なくとも3ピクセルの重心の固定点軌跡情報を用いて、運動点の軌跡から固定点の軌跡を差し引くことによって、運動点軌跡情報を補正することができる。
例えば、第2の補正手段は、運動点の座標から固定点の座標を差し引いて得られる補正後の運動点を追跡することによって、運動点軌跡情報を補正するようにしてもよい。このとき、例えば、少なくとも3ピクセルのそれぞれの固定点軌跡情報のうち、最も軌跡の移動が小さいピクセルの座標を運動点の座標から差し引いて、補正後の運動点を得るようにしてもよい。あるいは、例えば、少なくとも3ピクセルのそれぞれの固定点軌跡情報のうち、最も軌跡の移動が大きいピクセルの座標を運動点の座標から差し引いて、補正後の運動点を得るようにしてもよい。あるいは、例えば、少なくとも3ピクセルの重心の座標を運動点の座標から差し引いて、補正後の運動点を得るようにしてもよい。
このようにして補正された運動点軌跡情報には、固定点の移動による誤差が含まれておらず、より正確な情報となり得る。
上述した例では、顔の座標系を補正し、補正された座標系において運動点を抽出し、その運動点を追跡することによって、運動点軌跡情報を生成することを説明したが、本発明では、補正のタイミングはこれに限定されない。例えば、運動点を抽出し、抽出された運動点を補正し、補正された運動点を追跡することによって運動点軌跡情報を生成するようにしてもよい。例えば、運動点を抽出し、抽出された運動点を追跡することによって運動点軌跡情報を生成し、生成された運動点軌跡情報を補正するようにしてもよい。これは、上述した座標系の補正と同様の手法で、運動点の座標系または運動点軌跡情報を補正することによって達成され得る。
すなわち、生成手段123によって生成される運動点軌跡情報は、下顎の運動点以外の運動(例えば、撮影中の被験者の身体の動き(例えば、上顎の運動)や傾きによるノイズ)を示す情報を含む場合と、下顎の運動点以外の運動を示す情報を含まない場合とがある。前者の場合は、運動点軌跡情報を生成した後に運動点軌跡情報を補正する場合である。後者の場合は、運動点軌跡情報を生成する前に、座標系を補正して運動点を抽出する場合であるか、または、運動点追跡情報を生成する前に、運動点を抽出し、抽出された運動点を補正する場合である。
図6Cは、別の実施形態におけるプロセッサ部150の構成の一例を示す。プロセッサ部150は、被験者の顎運動顔モデルを用いて、被験者の顔の座標系を補正するための構成を有し得る。プロセッサ部150は、上述したプロセッサ部120の代替としてコンピュータシステム100が備えるプロセッサ部である。図6Cでは、図3、図6Aで上述した構成要素と同じ構成要素には同じ参照数字を付し、ここでは説明を省略する。
プロセッサ部150は、取得手段121と、補正手段131と、抽出手段122と、生成手段123とを備える。補正手段131は、ベース顔モデル生成手段151と、顎運動顔モデル生成手段152とを備える。
ベース顔モデル生成手段151は、被験者の顔のベース顔モデルを生成するように構成されている。ベース顔モデル作成手段151は、例えば、予め取得された被験者の顔の画像(例えば、データベース部200に格納されている被験者の顔の画像)から、ベース顔モデルを生成するようにしてもよいし、インターフェース部110を介して端末装置300から受信された被験者の顔の画像から、ベース顔モデルを生成するようにしてもよい。ベース顔モデルを生成するために利用される顔の画像は、正面を向いて静止した無表情の画像であることが好ましい。生成されるベース顔モデルが、正面を向いた無表情のものとなり、種々の動きに対応し易くなるからである。ベース顔モデル生成手段151は、公知の任意の手法を用いて、ベース顔モデルを生成することができる。利用される画像は、2次元情報(縦×横)を含む画像であってもよいしが、3次元情報(縦×横×奥行)を含む画像であることが好ましい。3次元情報を含む画像により、より容易にかつ高精度のベース顔モデルを生成することができるからである。
顎運動顔モデル生成手段152は、複数の画像中の被験者の顔をベース顔モデルに反映させることにより、被験者の顎運動顔モデルを生成するように構成されている。顎運動顔モデル生成手段152は、インターフェース部110を介して端末装置300から受信された連続した複数の画像内の被験者の顔をベース顔モデルに反映することにより、被験者の顎運動顔モデルを生成する。顎運動顔モデル生成手段152は、公知の任意の手法を用いて、顎運動顔モデルを生成することができる。例えば、連続した複数の画像内の被験者の顔の各部位の座標を導出し、各部位の座標をベース顔モデル上にマッピングすることにより顎運動顔モデルが作成され得る。生成された顎運動顔モデルは、複数の画像に写る被験者の動きに合わせて動く3Dアバターとなる。
一例において、ベース顔モデル生成手段151および顎運動顔モデル生成手段152は、iPhone(登録商標)Xにおいて実装されている「アニ文字」を構築するための処理と同様の処理によって、顎運動顔モデルを生成することができる。
補正手段131は、ベース顔モデルと顎運動顔モデルとの座標系の違いを補正する。補正手段131は、ベース顔モデルの座標系に基づいて、顎運動顔モデルの座標系を補正することによって、顔の座標系を補正するように構成されている。補正手段131は、例えば、任意の座標変換処理を行うことにより、顎運動顔モデルの座標系をベース顔モデルの座標系に変換することによって、顔の座標系を補正する。
補正手段131は、例えば、顎運動顔モデル生成手段152が顎運動顔モデルを生成する前に、連続した複数の画像内の被験者の顔の各部位の座標に対して座標変換処理を行うようにしてもよい。これにより、生成される顎運動顔モデルの座標系は、ベース顔モデルの座標系と一致する。
抽出手段122は、補正手段131によって補正された座標系において、顔の下顎領域内の運動点を抽出する。抽出手段122は、例えば、ベース顔モデルにおいて運動点を抽出するようにしてもよいし、座標変換前の顎運動顔モデルにおいて運動点を抽出するようにしてもよいし、座標変換後の顎運動顔モデルにおいて運動点を抽出するようにしてもよい。ベース顔モデルにおいて運動点を抽出する場合には、運動点は、顎運動顔モデルの生成過程において、顎運動顔モデルの対応する点に反映される。
生成手段123は、抽出された運動点を追跡することによって、運動点の軌跡を示す運動点軌跡情報を生成する。複数の画像の各々から抽出される運動点は、それぞれ同一の座標系において取得されるため、生成される運動点軌跡情報は、より正確な情報となる。
上述した例では、補正された座標系(すなわち、ベース顔モデルの座標系)における運動点を追跡することによって、運動点軌跡情報を生成することを説明したが、本発明では、補正のタイミングはこれに限定されない。例えば、顎運動顔モデルの座標系において運動点を抽出し、抽出された運動点を補正し、補正された運動点を追跡することによって運動点軌跡情報を生成するようにしてもよい。例えば、顎運動顔モデルの座標系において運動点を抽出し、運動点を追跡することによって生成された運動点軌跡情報を補正することにより、補正された運動点軌跡情報を生成するようにしてもよい。例えば、複数の画像において運動点を抽出し、抽出された運動点を顎運動顔モデルに反映し、反映された運動点または反映された運動点を追跡することによって生成された運動点軌跡情報を補正することによって運動点軌跡情報を生成するようにしてもよい。これは、上述した座標変換処理と同様の手法で、運動点の座標系または運動点の軌跡を補正することによって達成され得る。
すなわち、生成手段123によって生成される運動点軌跡情報は、下顎の運動点以外の運動(例えば、撮影中の被験者の身体の動き(例えば、上顎の運動)や傾きによるノイズ)を示す情報を含む場合と、下顎の運動点以外の運動を示す情報を含まない場合とがある。前者の場合は、運動点軌跡情報を生成した後に運動点軌跡情報を補正する場合である。後者の場合は、運動点軌跡情報を生成する前に、座標系を補正して運動点を抽出する場合であるか、または、運動点追跡情報を生成する前に、運動点を抽出し、抽出された運動点を補正する場合である。
図6Dは、別の実施形態におけるプロセッサ部160の構成の一例を示す。プロセッサ部160は、生成された運動点軌跡情報に基づいて被験者の運動を評価するための構成を有し得る。プロセッサ部160は、上述したプロセッサ部120の代替としてコンピュータシステム100が備えるプロセッサ部である。図6Dでは、図3で上述した構成要素と同じ構成要素には同じ参照数字を付し、ここでは説明を省略する。
プロセッサ部160は、取得手段121と、抽出手段122と、生成手段123と、評価手段161とを備える。
評価手段161は、運動点軌跡情報に少なくとも基づいて、被験者の顎運動の評価を示す顎運動評価情報を生成するように構成されている。評価手段161は、複数の被験者の運動点軌跡情報を学習する処理を施された運動点軌跡学習済モデルを利用して、顎運動評価情報を生成することができる。運動点軌跡学習済モデルは、入力された運動点軌跡情報を顎運動の評価と相関させるように構成されている。生成手段123によって生成された運動点軌跡情報には、撮影中の被験者の身体の動きや傾きによるノイズが含まれ得るが、運動点軌跡学習済モデルは、このようなノイズも含めた運動点軌跡情報を学習する処理を施されているため、運動点軌跡情報に含まれ得る撮影中の被験者の身体の動きや傾きによるノイズに関わらず、精度よく、顎運動評価情報を生成することができる。学習に用いられる運動点軌跡情報は、2次元の情報(或る平面における運動点の軌跡を示す情報)であってもよいし、3次元の情報(或る空間における運動点の軌跡を示す情報)であってもよいし、4次元の情報(或る空間における運動点の軌跡および運動点の速度を示す情報)であってもよい。ここで、速度は、スカラー量であってもよいが、好ましくは、ベクトル量である。より高次元の情報を利用することにより、構築される運動点軌跡学習済モデルの精度が向上する。運動点軌跡学習済モデルは、例えば、数千、数万、数十万、または数百万の運動点軌跡情報を学習することによって構築され得る。より多くの情報を学習するほど精度は向上するが、過学習に留意する必要がある。
動点軌跡学習済モデルは、任意の機械学習モデルを用いて構築することができる。運動点軌跡学習済モデルは、例えば、ニューラルネットワークモデルであり得る。
図7は、評価手段161が利用し得るニューラルネットワークモデル1610の構造の一例を示す。
ニューラルネットワークモデル1610は、入力層と、少なくとも1つの隠れ層と、出力層とを有する。ニューラルネットワークモデル1610の入力層のノード数は、入力されるデータの次元数に対応する。ニューラルネットワークモデル1610の隠れ層は、任意の数のノードを含むことができる。ニューラルネットワークモデル1610の出力層のノード数は、出力されるデータの次元数に対応する。例えば、顎運動に異常が有るかないかを評価する場合、出力層のノード数は、1であり得る。例えば、顎運動の軌跡が7つのパターンのうちのいずれであるかを評価する場合、出力層のノード数は、7であり得る。
ニューラルネットワークモデル1610は、取得手段121が取得した情報を使用して予め学習処理がなされ得る。学習処理は、取得手段121が取得したデータを使用して、ニューラルネットワークモデル1610の隠れ層の各ノードの重み係数を計算する処理である。
学習処理は、例えば、教師あり学習である。教師あり学習では、例えば、運動点軌跡情報を入力用教師データとし、対応する顎運動の評価を出力用教師データとして、複数の被験者の情報を使用してニューラルネットワークモデル1610の隠れ層の各ノードの重み係数を計算することにより、運動点軌跡情報を顎運動の評価と相関させることが可能な学習済モデルを構築することができる。
例えば、教師あり学習のための(入力用教師データ,出力用教師データ)の組は、(第1の被験者の運動点軌跡情報,第1の被験者の顎運動の評価)、(第2の被験者の運動点軌跡情報,第2の被験者の顎運動の評価)、・・・(第iの被験者の運動点軌跡情報,第iの被験者の顎運動の評価、・・・等であり得る。このような学習済のニューラルネットワークモデルの入力層に被験者から新たに取得された運動点軌跡情報を入力すると、その被験者の顎運動の評価が出力層に出力される。
学習処理は、例えば、教師なし学習である。教師なし学習では、例えば、複数の被験者について、運動点軌跡情報を入力用教師データとしたときの複数の出力をクラスタリングすることによって、出力を複数のクラスタに区分する。複数のクラスタの各クラスタについて、属する被験者の顎運動の評価に基づいて、各クラスタを特徴付ける。これにより、運動点軌跡情報を顎運動の評価と相関させることが可能な学習済モデルが構築される。クラスタリングは、例えば、任意の公知の手法を用いて行われ得る。このような学習済のニューラルネットワークモデルの入力層に被験者から新たに取得された運動点軌跡情報を入力すると、その被験者の顎運動の評価が出力層に出力される。
図6A~図6Cを参照して上述した例で生成された運動点軌跡情報は、例えば、被験者の顎運動を評価するために利用され得る。この場合、プロセッサ部120、130、140、または150は、生成された運動点軌跡情報に少なくとも基づいて、被験者の顎運動の評価を示す顎運動評価情報を生成する評価手段(図示せず)をさらに備え得る。評価手段は、プロセッサ部160が備える評価手段161と同様の構成であってもよいし、異なる構成であってもよい。評価手段は、例えば、複数の被験者の運動点軌跡情報を学習する処理を施された運動点軌跡学習済モデルを利用して、顎運動評価情報を生成することができる。
図6A~図6Cを参照して上述した例では、連続した複数の画像間で、抽出される運動点が異ならないように、撮影中の被験者の動きや傾きに対処するために、補正手段131を備える構成を説明した。図6Dに示される例は、撮影中の被験者の身体の動きや傾きを含めた顎運動の軌跡を学習した学習済モデルを用いることにより、撮影中の被験者の動きや傾きに対処している。
図2に示される例では、データベース部200は、コンピュータシステム100の外部に設けられているが、本発明はこれに限定されない。データベース部200の少なくとも一部をコンピュータシステム100の内部に設けることも可能である。このとき、データベース部200の少なくとも一部は、メモリ部170を実装する記憶手段と同一の記憶手段によって実装されてもよいし、メモリ部170を実装する記憶手段とは別の記憶手段によって実装されてもよい。いずれにせよ、データベース部200の少なくとも一部は、コンピュータシステム100のための格納部として構成される。データベース部200の構成は、特定のハードウェア構成に限定されない。例えば、データベース部200は、単一のハードウェア部品で構成されてもよいし、複数のハードウェア部品で構成されてもよい。例えば、データベース部200は、コンピュータシステム100の外付けハードディスク装置として構成されてもよいし、ネットワークを介して接続されるクラウド上のストレージとして構成されてもよい。
上述した図3、図6A~図6Dに示される例では、プロセッサ部120、130、140、150、160の各構成要素が同一のプロセッサ部120、130、140、150、160内に設けられているが、本発明はこれに限定されない。プロセッサ部120、130、140、150、160の各構成要素が、複数のプロセッサ部に分散される構成も本発明の範囲内である。このとき、複数のプロセッサ部は、同一のハードウェア部品内に位置してもよいし、近傍または遠隔の別個のハードウェア部品内に位置してもよい。例えば、プロセッサ部150のベース顔モデル生成手段151は、他の構成要素とは別のプロセッサ部によって実装されることが好ましい。これにより、ベースモデル作成という負荷が大きい処理を別個に行うことができるようになるからである。
なお、上述したコンピュータシステム100の各構成要素は、単一のハードウェア部品で構成されていてもよいし、複数のハードウェア部品で構成されていてもよい。複数のハードウェア部品で構成される場合は、各ハードウェア部品が接続される態様は問わない。各ハードウェア部品は、無線で接続されてもよいし、有線で接続されてもよい。本発明のコンピュータシステム100は、特定のハードウェア構成には限定されない。プロセッサ部120、130、140、150、160をデジタル回路ではなくアナログ回路によって構成することも本発明の範囲内である。本発明のコンピュータシステム100の構成は、その機能を実現できる限りにおいて上述したものに限定されない。
3.被験者の顎運動を測定するためのコンピュータシステムによる処理
図8は、被験者の顎運動を測定するためのコンピュータシステム100による処理の一例(処理800)を示すフローチャートである。処理800は、例えば、コンピュータシステム100におけるプロセッサ部130、140または150において実行される。
図8は、被験者の顎運動を測定するためのコンピュータシステム100による処理の一例(処理800)を示すフローチャートである。処理800は、例えば、コンピュータシステム100におけるプロセッサ部130、140または150において実行される。
ステップS801では、プロセッサ部の取得手段121が、顎運動中の被験者の顔の連続した複数の画像を取得する。取得手段121は、例えば、データベース部200に格納されている顎運動中の被験者の顔の連続した複数の画像をインターフェース部110を介して取得することができる。あるいは、取得手段121は、例えば、インターフェース部110を介して端末装置300から受信された連続した複数の画像を取得することができる。
ステップS802では、プロセッサ部の補正手段131が、被験者の顔の座標系を少なくとも補正する。プロセッサ部の補正手段131は、例えば、ステップS802で取得された画像に基づいて、被験者の顔の座標系を補正することができる。
ステップS803では、プロセッサ部の抽出手段122が、上述した各実施形態のステップS802で補正された座標系において、顔の下顎領域内の運動点を少なくとも抽出する。抽出手段122は、例えば、画像中の運動点がどこであるかの入力をインターフェース部110を介して(例えば、端末装置300から)受け、その入力に基づいて、運動点を抽出することができる。あるいは、抽出手段122は、例えば、入力を受けることなく、自動的に運動点を抽出することができる。
抽出手段122は、例えば、複数の画像の各々に対して、顔の複数の特徴部分を検出し、抽出された複数の特徴部分のうち、所定期間内の座標変化が所定の範囲内の部分を運動点として抽出することができる。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。所定範囲は、例えば、約5mm~約20mmであり得る。
ステップS804では、プロセッサ部の生成手段123が、運動点を追跡することによって、運動点の軌跡を示す運動点軌跡情報を少なくとも生成する。運動点軌跡情報は、所定期間内の運動点の軌跡を示す情報である。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。
処理800によれば、複数の画像の各々から抽出される運動点は、それぞれ同一の座標系において取得されるため、生成される運動点軌跡情報は、より正確な情報となる。
一実施形態において、ステップS802では、プロセッサ部140の補正手段131が、固定点と、事前に定義された顔基準位置テンプレートとに基づいて、被験者の顔の座標系を補正する。
この実施形態では、ステップS802の前に、ステップS8020を含むことができる。ステップS8020では、プロセッサ部140の抽出手段122の第2の抽出手段142が、ステップS801で取得された複数の画像に基づいて、顔の上顔面領域内の固定点を抽出する。第2の抽出手段142は、例えば、画像中の固定点がどこであるかの入力をインターフェース部110を介して(例えば、端末装置300から)受け、その入力に基づいて、固定点を抽出することができる。あるいは、第2の抽出手段142は、例えば、入力を受けることなく、自動的に固定点を抽出することができる。
第2の抽出手段142は、例えば、複数の画像の各々に対して、顔の複数の特徴部分を検出し、抽出された複数の特徴部分のうち、所定期間内の座標変化が所定閾値未満の部分を固定点として抽出することができる。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。所定範囲は、例えば、約5mm~約20mmであり得る。第2の抽出手段142は、例えば、画像に対して色強調処理を行い、色調が周囲と異なる部分を固定点とし抽出することもできる。ステップS8020で抽出される固定点は、ステップS803の抽出するステップで抽出されるものの1つであるとみなすことができ、従って、ステップS8020は、ステップS803の一部であるとみなすことができる。
ステップS802では、プロセッサ部140の補正手段131が、ステップS8020で抽出された固定点と、事前に定義された顔基準位置テンプレートとに基づいて、被験者の顔の座標系を補正する。例えば、補正手段131は、複数の画像の各々について、ステップS8020で抽出された固定点が、顔基準位置テンプレート上の対応する点に移動するように、複数の画像の各々を変換処理(例えば、拡縮、回転、剪断、平行移動等)する。あるいは、例えば、補正手段131は、複数の画像の各々について、ステップS8020で抽出された固定点と顔基準位置テンプレート上の対応する点との間の距離をゼロにまたは所定の閾値未満にするように、複数の画像の各々を変換処理する。あるいは、例えば、補正手段131は、複数の画像の各々の固定点によって定義される平面と顔基準位置テンプレート上の対応する平面とが一致するように、複数の画像の各々を変換処理する。ここで、例えば、顔基準位置テンプレートは、顔が正面を向いている状態での顔の位置を定義するテンプレートであり、解剖学的に定義され得る。
別の実施形態において、ステップS802では、プロセッサ部130の補正手段131は、複数の被験者の顔の基準座標系を学習する処理を施された基準座標系学習済モデルを利用して、複数の画像の各々について、被験者の顔の座標系を補正することができる。基準座標系学習済モデルは、入力された画像中の被験者の顔の座標系を基準座標系に補正した画像を出力するように構成されている。
基準座標系学習済モデルは、例えば、教師あり学習によって構築され得る。教師あり学習では、例えば、被験者の顔の画像が入力用教師データとして用いられ、その画像における基準座標系が出力用教師データとして用いられ得る。複数の被験者の複数の画像を繰り返し学習することにより、学習済モデルは、複数の被験者の顔が統計上有すると推定される基準座標系を認識することができるようになる。このような学習済モデルに被験者の顔の画像を入力すると、被験者の顔の座標系と基準座標系との差分が出力されるようになる。例えば、被験者の顔の座標系と基準座標系との差分をゼロにまたは所定の閾値未満にするように、入力された画像を変換処理(例えば、拡縮、回転、剪断、平行移動等)するように学習済モデルを構成することによって、基準座標系学習済モデルが生成され得る。画像の変換処理は、例えば、アフィン変換を利用して行われ得る。
基準座標系学習済モデルは、例えば、教師なし学習によって構築され得る。教師なし学習では、例えば、複数の被験者の顔の画像が入力用教師データとして用いられ得る。複数の被験者の多数の画像を繰り返し学習することにより、学習済モデルは、多くの画像に共通する顔の座標系を、複数の被験者が統計上有すると推定される基準座標系として認識することができるようになる。このような学習済モデルに被験者の顔の画像を入力すると、被験者の顔の座標系と基準座標系との差分が出力されるようになる。例えば、被験者の顔の座標系と基準座標系との差分をゼロにまたは所定の閾値未満にするように、入力された画像を変換処理(例えば、拡縮、回転、剪断、平行移動等)するように学習済モデルを構成することによって、基準座標系学習済モデルが生成され得る。画像の変換処理は、例えば、アフィン変換を利用して行われ得る。
ステップS802では、プロセッサ部130の補正手段131が、ステップS801で取得された複数の画像を基準座標系学習済モデルに入力し、入力された画像中の被験者の顔の座標系が基準座標系に補正された画像を得ることができる。
さらに別の実施形態において、ステップS802では、プロセッサ部150補正手段131が、被験者の顎運動顔モデルを用いて、被験者の顔の座標系を補正する。
この実施形態では、ステップS802の前に、ステップS8021と、ステップS8022とを含むことができる。ステップS8021では、プロセッサ部150の補正手段131のベース顔モデル生成手段151が、被験者の顔のベース顔モデルを生成する。ベース顔モデル作成手段151は、例えば、予め取得された被験者の顔の画像(例えば、データベース部200に格納されている被験者の顔の画像)から、ベース顔モデルを生成するようにしてもよいし、インターフェース部110を介して端末装置300から受信された被験者の顔の画像から、ベース顔モデルを生成するようにしてもよい。なお、ベース顔モデルが予め生成されている場合には、ステップS8021は省略され得る。
ステップS8022では、プロセッサ部150の補正手段131の顎運動顔モデル生成手段152が、ステップS801で取得された複数の画像中の被験者の顔をベース顔モデルに反映させることにより、被験者の顎運動顔モデルを生成する。生成された顎運動顔モデルは、ステップS801で取得された複数の画像に写る被験者の顎運動に合わせて動く3Dアバターとなる。
ステップS802では、プロセッサ部150の補正手段131が、ステップS8021で生成されたベース顔モデルの座標系に基づいて、ステップS8022で生成された顎運動顔モデルの座標系を補正する。補正手段131は、例えば、任意の座標変換処理を行うことにより、顎運動顔モデルの座標系をベース顔モデルの座標系に変換することができる。
ステップS802で、固定点と、顔基準位置テンプレートとに基づいて、被験者の顔の座標系を補正した場合には、連続した複数の画像の撮影時の被験者の身体の動き等により、顎運動とは独立して固定点が移動してしまうことがある。このため、処理800は、運動点軌跡情報に含まれ得る固定点軌跡情報を相殺するための処理(ステップS805、ステップS806)を含むことができる。
ステップS805では、プロセッサ部140の補正手段131の第2の生成手段が、ステップS8010で抽出された固定点を追跡することによって、固定点の軌跡を示す固定点軌跡情報を生成する。固定点軌跡情報は、所定期間内の固定点の軌跡を示す情報である。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。第2の生成手段は、例えば、連続した複数の画像の各々における固定点の画像中の座標を追跡することによって、固定点軌跡情報を生成することができる。
ステップS806では、プロセッサ部140の補正手段131の第2の補正手段が、定点軌跡情報に基づいて、運動点軌跡情報を補正する。例えば、第2補正手段は、運動点の軌跡から固定点の軌跡を差し引くことによって、運動点軌跡情報を補正することができる。あるいは、例えば、第2補正手段は、運動点の座標から固定点の座標を差し引いて得られる補正後の運動点を追跡することによって、運動点軌跡情報を補正するようにしてもよい。ステップS805およびステップS806で補正される運動点軌跡情報は、ステップS802の補正するステップで補正されるものの1つであるとみなすことができ、従って、ステップS805およびステップS806は、ステップS802の一部であるとみなすことができる。
このようにして補正された運動点軌跡情報には、固定点の移動による誤差が含まれておらず、より正確な情報となり得る。
上述した例では、補正された座標系における運動点を追跡することによって、運動点軌跡情報を生成することを説明したが、本発明では、補正のタイミングはこれに限定されない。例えば、ステップS802の前のステップS803において、ステップS801で取得された複数の画像から運動点を抽出し、次いで、ステップS804において、運動点を追跡することによって運動点軌跡情報を生成した後に、ステップS802において、ステップS804で生成された運動点軌跡情報を補正するようにしてもよい。あるいは、例えば、ステップS802の前のステップS803において、ステップS801で取得された複数の画像から運動点を抽出し、次いで、ステップS802において、ステップS803で抽出された運動点を補正し、次いで、ステップS804において、補正された運動点を追跡することによって運動点軌跡情報を生成するようにしてもよい。
すなわち、生成手段123によって生成される運動点軌跡情報は、下顎の運動点以外の運動(例えば、撮影中の被験者の身体の動き(例えば、上顎の運動)や傾きによるノイズ)を示す情報を含む場合と、下顎の運動点以外の運動を示す情報を含まない場合とがある。前者は、運動点軌跡情報を生成した後に運動点軌跡情報を補正する場合である。後者は、運動点軌跡情報を生成する前に、座標系を補正して運動点を抽出する場合、または、運動点追跡情報を生成する前に、運動点を抽出し、抽出された運動点を補正する場合である。
図9は、被験者の顎運動を測定するためのコンピュータシステム100による処理の別の例(処理900)を示すフローチャートである。処理900は、被験者の顎運動を評価するための処理である。処理900は、例えば、コンピュータシステム100におけるプロセッサ部160において実行される。
ステップS901では、プロセッサ部160の取得手段121が、顎運動中の被験者の顔の連続した複数の画像を取得する。ステップS901は、ステップS801と同様の処理である。
ステップS902では、プロセッサ部160の抽出手段122が、ステップS801で取得された複数の画像に基づいて、顔の下顎領域内の運動点を少なくとも抽出する。顔の下顎領域内の運動点を抽出する。抽出手段122は、例えば、画像中の運動点がどこであるかの入力をインターフェース部110を介して(例えば、端末装置300から)受け、その入力に基づいて、運動点を抽出することができる。あるいは、抽出手段122は、例えば、入力を受けることなく、自動的に運動点を抽出することができる。
抽出手段122は、例えば、複数の画像の各々に対して、顔の複数の特徴部分を検出し、抽出された複数の特徴部分のうち、所定期間内の座標変化が所定の範囲内の部分を運動点として抽出することができる。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。所定範囲は、例えば、約5mm~約20mmであり得る。
ステップS903では、プロセッサ部160の生成手段123が、ステップS902で抽出された運動点を追跡することによって、運動点の軌跡を示す運動点軌跡情報を少なくとも生成する。運動点軌跡情報は、所定期間内の運動点の軌跡を示す情報である。ここで、所定期間は、例えば、連続した複数の画像が撮影された期間のすべてまたは一部であり得る。
ステップS904では、プロセッサ部160の評価手段161が、ステップS903で生成された運動点軌跡情報に少なくとも基づいて、被験者の顎運動の評価を示す顎運動評価情報を生成する。評価手段161は、複数の被験者の運動点軌跡情報を学習する処理を施された運動点軌跡学習済モデルを利用して、顎運動評価情報を生成することができる。運動点軌跡学習済モデルは、入力された運動点軌跡情報を顎運動の評価と相関させるように構成されている。例えば、ステップS903で生成された運動点軌跡情報を運動点軌跡学習済モデルに入力すると、被験者の顎運動の推定された評価が出力され得る。
ステップS903で生成された運動点軌跡情報には、撮影中の被験者の身体の動きや傾きによるノイズが含まれ得るが、運動点軌跡学習済モデルは、このようなノイズも含めた運動点軌跡情報を学習する処理を施されているため、ステップS904では、運動点軌跡情報に含まれ得る運撮影中の被験者の身体の動きや傾きによるノイズに関わらず、精度よく、顎運動評価情報を生成することができる。
例えば、ステップS901~ステップS904を行った後に、後述する学習処理と同様の処理を行うことにより、運動点軌跡学習済モデルを更新するようにしてもよい。
図10は、被験者の顎運動を測定するためのコンピュータシステム100による処理の別の例(処理1000)を示すフローチャートである。処理1000は、被験者の顎運動を測定するために利用される運動点軌跡学習済モデルを構築するための処理である。処理1000は、例えば、コンピュータシステム100におけるプロセッサ部160において実行される。
ステップS1001では、プロセッサ部160の取得手段121が、複数の被験者の運動点を追跡することによって得られた運動点の軌跡を示す運動点軌跡情報を少なくとも取得する。取得手段121は、例えば、データベース部200に格納されている運動点軌跡情報をインターフェース部110を介して取得することができる。運動点軌跡情報は、例えば、本発明のコンピュータシステム100を用いて取得された運動点軌跡情報であってもよいし、公知の任意の顎運動測定装置から得られた運動点軌跡情報であってもよい。
ステップS1001では、さらに、取得手段121は、複数の被験者の顎運動の評価を取得するようにしてもよい。取得手段121は、例えば、データベース部200に格納されている顎運動の評価をインターフェース部110を介して取得することができる。
ステップS1002では、プロセッサ部160が、少なくとも、ステップS1001で取得された複数の被験者の運動点軌跡情報を入力用教師データとした学習処理により、運動点軌跡学習済モデルを構築する。運動点軌跡学習済モデルは、例えば、ニューラルネットワークモデルであり得る。
例えば、動点軌跡学習済モデルが、ニューラルネットワークモデルである場合、ステップS1002では、学習処理により、ステップS1001で取得されたデータを使用して、ニューラルネットワークモデルの隠れ層の各ノードの重み係数が計算される。
学習処理は、例えば、教師あり学習である。教師あり学習では、例えば、運動点軌跡情報を入力用教師データとし、対応する顎運動の評価を出力用教師データとして、複数の被験者の情報を使用してニューラルネットワークモデル1610の隠れ層の各ノードの重み係数を計算することにより、運動点軌跡情報を顎運動の評価と相関させることが可能な学習済モデルを構築することができる。
学習処理は、例えば、教師なし学習である。教師なし学習では、例えば、複数の被験者について、運動点軌跡情報を入力用教師データとしたときの複数の出力を分類する。分類は、任意の公知の手法を用いて行うことができ、分類された出力を顎運動の評価で特徴付けることによって、運動点軌跡情報を顎運動の評価と相関させることが可能な学習済モデルが構築される。
分類は、例えば、クラスタリングによって行われる。例えば、複数の出力をクラスタリングすることによって、出力を複数のクラスタに区分する。複数のクラスタの各クラスタについて、属する被験者の顎運動の評価に基づいて、各クラスタを特徴付ける。これにより、運動点軌跡情報を顎運動の評価と相関させることが可能な学習済モデルが構築される。クラスタリングは、例えば、任意の公知の手法を用いて行われ得る。
図8~図10を参照して上述した例では、特定の順序で処理が行われることを説明したが、各処理の順序は説明されたものに限定されず、論理的に可能な任意の順序で行われ得る。
図8~図10を参照して上述した例では、図8~図10に示される各ステップの処理は、プロセッサ部120、プロセッサ部130、プロセッサ部140、プロセッサ部150、またはプロセッサ部160とメモリ部170に格納されたプログラムとによって実現することが説明されたが、本発明はこれに限定されない。図8~図10に示される各ステップの処理のうちの少なくとも1つは、制御回路などのハードウェア構成によって実現されてもよい。
上述した例では、コンピュータシステム100が、端末装置300にネットワーク400を介して接続されるサーバ装置である場合を例に説明したが、本発明は、これに限定されない。コンピュータシステム100は、プロセッサ部を備える任意の情報処理装置であり得る。例えば、コンピュータシステム100は、端末装置300であり得る。あるいは、例えば、コンピュータシステム100は、端末装置300とサーバ装置との組み合わせであり得る。
上述した例では、本発明の一実装例としてコンピュータシステム100を説明したが、本発明は、例えば、コンピュータシステム100を含むシステムとしても実装され得る。このシステムは、例えば、上述したコンピュータシステム100と、被験者の下顎領域に設置されるように構成された標点とを備える。標点は、上述したように、標点上の特定点を表すように構成され得る。標点を被験者の下顎領域に設置した状態で撮影した連続した複数の画像を利用することにより、コンピュータシステム100での運動点の抽出処理が容易になり、かつ、抽出される運動点が、複数の画像間で一致することになる。このシステムは、被験者の上顔面領域に設置されるように構成された固定点用標点をさらに備えることができる。固定点用標点も、上述したように、固定用標点上の特定点を表すように構成され得る。固定点用標点を被験者の上顔面領域に設置した状態で撮影した連続した複数の画像を利用することにより、コンピュータシステム100での固定点の抽出処理が容易になる。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
本発明は、被験者の顎運動を簡易に測定することが可能なシステム等を提供するものとして有用である。
100 コンピュータシステム
110 インターフェース部
120、130、140、150、160 プロセッサ部
170 メモリ部
200 データベース部
300 端末装置
400 ネットワーク
110 インターフェース部
120、130、140、150、160 プロセッサ部
170 メモリ部
200 データベース部
300 端末装置
400 ネットワーク
Claims (1)
- 本明細書に記載の発明。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019203439 | 2019-11-08 | ||
JP2019203439 | 2019-11-08 | ||
PCT/JP2020/041567 WO2021090921A1 (ja) | 2019-11-08 | 2020-11-06 | 被験者の顎運動を測定するためのシステム、プログラム、および方法 |
JP2021515056A JP7037159B2 (ja) | 2019-11-08 | 2020-11-06 | 被験者の顎運動を測定するためのシステム、プログラム、および方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021515056A Division JP7037159B2 (ja) | 2019-11-08 | 2020-11-06 | 被験者の顎運動を測定するためのシステム、プログラム、および方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022074153A true JP2022074153A (ja) | 2022-05-17 |
Family
ID=75849068
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021515056A Active JP7037159B2 (ja) | 2019-11-08 | 2020-11-06 | 被験者の顎運動を測定するためのシステム、プログラム、および方法 |
JP2022006480A Pending JP2022074153A (ja) | 2019-11-08 | 2022-01-19 | 被験者の顎運動を測定するためのシステム、プログラム、および方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021515056A Active JP7037159B2 (ja) | 2019-11-08 | 2020-11-06 | 被験者の顎運動を測定するためのシステム、プログラム、および方法 |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7037159B2 (ja) |
WO (1) | WO2021090921A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102388337B1 (ko) * | 2022-01-25 | 2022-04-20 | (주)힐링사운드 | 턱관절 질환 개선 서비스용 어플리케이션의 서비스 제공방법 |
CN115187457A (zh) * | 2022-06-17 | 2022-10-14 | 先临三维科技股份有限公司 | 模型拼接方法、运动轨迹追踪方法、装置、设备及介质 |
WO2024110825A1 (en) * | 2022-11-21 | 2024-05-30 | Olive Khurana | A device and system for monitoring chewing habit and a method thereof |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001112743A (ja) * | 1999-10-18 | 2001-04-24 | Rikogaku Shinkokai | 三次元顎運動表示装置、方法及び三次元顎運動表示プログラムを記憶した記憶媒体 |
JP2005349176A (ja) * | 2004-05-14 | 2005-12-22 | Rise Corp | 顎運動解析方法及び顎運動解析システム |
JP4631078B2 (ja) * | 2005-07-27 | 2011-02-16 | 株式会社国際電気通信基礎技術研究所 | リップシンクアニメーション作成用の統計確率モデル作成装置、パラメータ系列合成装置、リップシンクアニメーション作成システム、及びコンピュータプログラム |
JP5495415B2 (ja) * | 2008-12-16 | 2014-05-21 | 株式会社吉田製作所 | 下顎前歯部運動追尾システム、下顎前歯部運動追尾装置および顎関節雑音分析装置 |
US8444564B2 (en) * | 2009-02-02 | 2013-05-21 | Jointvue, Llc | Noninvasive diagnostic system |
JP5506024B2 (ja) * | 2009-05-27 | 2014-05-28 | 株式会社吉田製作所 | 疼痛検出器を備える顎関節症診断支援システムおよび装置 |
JP5406705B2 (ja) * | 2009-12-28 | 2014-02-05 | キヤノン株式会社 | データ補正装置及び方法 |
JP5300795B2 (ja) * | 2010-06-28 | 2013-09-25 | 日本電信電話株式会社 | 顔表情増幅装置、表情認識装置、顔表情増幅方法、表情認識方法、及びプログラム |
US8620045B2 (en) * | 2010-10-15 | 2013-12-31 | Bruce William Adams | System , method and article for measuring and reporting craniomandibular biomechanical functions |
DE102013000012B4 (de) * | 2013-01-02 | 2019-03-14 | TIONIS e.K. | Messanordnung und Verfahren zur opto-elektronischen Erfassung der Relativbewegung zwischen Ober- und Unterkiefer einer Person |
KR101778951B1 (ko) * | 2015-02-23 | 2017-09-18 | 서울대학교산학협력단 | 하악운동 시뮬레이션 방법, 이를 위한 장치, 및 이를 기록한 기록 매체 |
JP2019079204A (ja) * | 2017-10-23 | 2019-05-23 | 佐藤 良治 | 情報入出力制御システムおよび方法 |
-
2020
- 2020-11-06 WO PCT/JP2020/041567 patent/WO2021090921A1/ja active Application Filing
- 2020-11-06 JP JP2021515056A patent/JP7037159B2/ja active Active
-
2022
- 2022-01-19 JP JP2022006480A patent/JP2022074153A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2021090921A1 (ja) | 2021-05-14 |
JP7037159B2 (ja) | 2022-03-16 |
JPWO2021090921A1 (ja) | 2021-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7037159B2 (ja) | 被験者の顎運動を測定するためのシステム、プログラム、および方法 | |
US12079944B2 (en) | System for viewing of dental treatment outcomes | |
Hutton et al. | Dense surface point distribution models of the human face | |
Lou et al. | Realistic facial expression reconstruction for VR HMD users | |
JP6742405B2 (ja) | 表情検出機能を備えたヘッドマウントディスプレイ | |
US20190147666A1 (en) | Method for Estimating at least one of Shape, Position and Orientation of a Dental Restoration | |
JP4950787B2 (ja) | 画像処理装置及びその方法 | |
JP7200439B1 (ja) | アバター表示装置、アバター生成装置及びプログラム | |
JP6124308B2 (ja) | 動作評価装置及びそのプログラム | |
JP6181373B2 (ja) | 医用情報処理装置及びプログラム | |
CN112232128B (zh) | 基于视线追踪的老年残障人士照护需求识别方法 | |
US20220378548A1 (en) | Method for generating a dental image | |
KR102247481B1 (ko) | 나이 변환된 얼굴을 갖는 직업영상 생성 장치 및 방법 | |
WO2023189309A1 (ja) | コンピュータプログラム、情報処理方法及び情報処理装置 | |
US20230046705A1 (en) | Storage medium, determination device, and determination method | |
CN116630599A (zh) | 一种生成牙齿正畸后预测照片的方法 | |
Amirkhanov et al. | WithTeeth: Denture Preview in Augmented Reality. | |
JP6461394B1 (ja) | 画像生成装置及び画像生成プログラム | |
JP4823298B2 (ja) | 三次元形状復元方法とその装置及びプログラム | |
WO2023203385A1 (en) | Systems, methods, and devices for facial and oral static and dynamic analysis | |
US20220398867A1 (en) | Information processing apparatus and facial expression determination method | |
JP7405809B2 (ja) | 推定装置、推定方法、および推定プログラム | |
WO2022003843A1 (ja) | 判定プログラム、判定装置、および判定方法 | |
WO2023062762A1 (ja) | 推定プログラム、推定方法および情報処理装置 | |
JP7195291B2 (ja) | データ処理装置、データ処理システム、データ処理方法、およびデータ処理用プログラム |