JP7220569B2 - 撮像支援装置、スキャナシステム、および撮像支援方法 - Google Patents

撮像支援装置、スキャナシステム、および撮像支援方法 Download PDF

Info

Publication number
JP7220569B2
JP7220569B2 JP2019001021A JP2019001021A JP7220569B2 JP 7220569 B2 JP7220569 B2 JP 7220569B2 JP 2019001021 A JP2019001021 A JP 2019001021A JP 2019001021 A JP2019001021 A JP 2019001021A JP 7220569 B2 JP7220569 B2 JP 7220569B2
Authority
JP
Japan
Prior art keywords
tooth
type
dimensional
imaging
imaging support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019001021A
Other languages
English (en)
Other versions
JP2020110215A (ja
Inventor
亮佑 鍛治
巳貴則 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
J Morita Manufaturing Corp
Original Assignee
J Morita Manufaturing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by J Morita Manufaturing Corp filed Critical J Morita Manufaturing Corp
Priority to JP2019001021A priority Critical patent/JP7220569B2/ja
Priority to US17/421,235 priority patent/US20220117480A1/en
Priority to PCT/JP2020/000034 priority patent/WO2020145225A1/ja
Priority to EP20738722.6A priority patent/EP3909546A4/en
Publication of JP2020110215A publication Critical patent/JP2020110215A/ja
Application granted granted Critical
Publication of JP7220569B2 publication Critical patent/JP7220569B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Description

本発明は、撮像支援装置、当該撮像支援装置を備えるスキャナシステム、および撮像支援方法に関する。
歯科分野において、口腔内を撮像する撮像装置として様々な装置が開発されている。例えば、患者の口腔内の歯科的部位の三次元(3D)データを得るためのスキャナ装置が撮像装置として開発されている。しかし、このスキャナ装置を用いて口腔内をスキャンして歯列弓の三次元データを取得する場合、使用者の操作によっては撮像した複数の画像間において重複領域、欠損領域などが存在することになる。
そこで、特許文献1では、スキャナ装置で撮像した画像において重複領域、欠損領域を関心領域として識別して表示できるようにしてある。そのため、スキャナ装置を用いて使用者が1つまたは複数の画像を撮像した直後に、再スキャンしなければならない関心領域を使用者に通知することができるので、容易に迅速かつ正確にスキャナ装置をスキャンすることができる。
特表2017-521113号公報
特許文献1では、スキャナ装置を用いて使用者が歯列弓の画像を撮像した場合、歯列弓の画像には、歯肉及び複数の歯を含む他、さらに複数の関心領域も含まれる。しかし、歯列弓の画像に関心領域が表示されるだけでは、歯列弓のうち、どの歯牙に関心領域が表示されているのかまでは容易に認識できない場合があった。
また、特許文献1では、歯列弓の画像に表示されている関心領域の歯牙と、実際の患者の口腔内のどの歯牙とが対応しているのかを容易に認識できない場合もあった。そのため、歯列弓の画像に関心領域を単に表示するだけでは、スキャナ装置の撮像支援に限界があった。
本発明は、上記問題点を解決するためになされたものであり、口腔内を撮像する撮像装置おいて撮像支援の対象となる情報を出力することができる撮像支援装置、当該撮像支援装置を備えるスキャナシステム、および撮像支援方法を提供することを目的とする。
本発明に係る撮像支援装置は、三次元スキャナによる口腔内の歯牙の撮像を支援する撮像支援装置であって、三次元スキャナは、歯牙を撮像することで歯牙の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得するものであり、口腔内の歯牙を撮像して取得した三次元データを入力する入力部と、入力部によって入力された三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワークを含む推定モデルとに基づき、歯牙の種類を識別する識別部と、識別部によって識別された歯牙の種類に基づいて、撮像支援の対象となる歯牙の種類を特定する特定部と、所定タイミングにおいて、特定部で特定された歯牙の種類の情報をユーザへ報知する外部装置へ出力する出力部とを備え、推定モデルに含まれるニューラルネットワークには、前記三次元データのうち少なくとも歯牙の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報が直接入力される。
本発明に係るスキャナシステムは、歯牙の形状情報を取得するスキャナシステムであって、三次元カメラを用いて歯牙を撮像することで歯牙の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得する三次元スキャナと、三次元スキャナによって取得された三次元データに基づき当該歯牙の種類を識別し、認識した歯牙の種類を報知する撮像支援装置とを備え、撮像支援装置は、口腔内の歯牙を撮像して取得した三次元データを入力する入力部と、入力部によって入力された三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワークを含む推定モデルとに基づき、歯牙の種類を識別する識別部と、識別部によって識別された歯牙の種類に基づいて、撮像対象となる歯牙の種類を特定する特定部と、所定タイミングにおいて、特定部で特定された歯牙の種類の情報をユーザへ報知する外部装置へ出力する出力部とを含み、推定モデルに含まれるニューラルネットワークには、前記三次元データのうち少なくとも歯牙の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報が直接入力される。
本発明に係る撮像支援方法は、三次元スキャナによる口腔内の歯牙の撮像を支援する撮像支援方法であって、三次元スキャナは、歯牙を撮像することで歯牙の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得するものであり、口腔内の歯牙を撮像して取得した三次元データを入力するステップと、
入力された三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワークを含む推定モデルとに基づき、歯牙の種類を識別するステップと、識別された歯牙の種類に基づいて、撮像対象となる歯牙の種類を特定するステップと、所定タイミングにおいて、特定された歯牙の種類の情報をユーザへ報知する外部装置へ出力するステップとを含み、推定モデルに含まれるニューラルネットワークには、前記三次元データのうち少なくとも歯牙の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報が直接入力される。
本発明に係る撮像支援装置は、識別部によって識別された歯牙の種類に基づいて、撮像支援の対象となる歯牙の種類を特定するので、口腔内のどの歯牙と対応しているのかが容易に認識できる撮像支援の情報を使用者に出力することができる。
本実施の形態1に係る撮像支援装置の適用例を示す模式図である。 本実施の形態1に係るスキャナシステムの全体構成を示す模式図である。 本実施の形態1に係る撮像支援装置のハードウェア構成を示す模式図である。 本実施の形態1に係るサーバ装置のハードウェア構成を示す模式図である。 本実施の形態1に係る撮像支援装置の使用態様を示す模式図である。 本実施の形態1に係る撮像支援装置の機能構成を示す模式図である。 本実施の形態1に係る撮像支援装置による識別処理を説明するための模式図である。 本実施の形態1に係る識別処理における識別対象となる歯牙の一例を示す模式図である。 本実施の形態1に係る撮像支援装置が実行する支援処理の一例を説明するためのフローチャートである。 本実施の形態1に係る撮像支援装置が実行する歯牙の種類を識別する処理の一例を説明するためのフローチャートである。 本実施の形態1に係る撮像支援装置が実行する支援処理の別の一例を説明するためのフローチャートである。 本実施の形態1に係る撮像支援装置が実行する支援処理のさらに別の一例を説明するためのフローチャートである。 本実施の形態2に係る撮像支援装置が実行する歯牙の種類を識別する処理の一例を説明するためのフローチャートである。
本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。
(実施の形態1)
図1および図2を参照しながら、本実施の形態1に係る撮像支援装置100を適用したスキャナシステムの例を説明する。図1は、本実施の形態1に係る撮像支援装置100の適用例を示す模式図である。図2は、本実施の形態1に係るスキャナシステムの全体構成を示す模式図である。
図1に示すように、ユーザ1は、スキャナシステム10で口腔内の歯牙の撮像することで、対象者2が有する歯牙を含む三次元形状のデータ(以下、「三次元データ」とも称する)を取得することができる。なお、「ユーザ」は、歯科医師などの術者、歯科助手、歯科大学の先生または生徒、歯科技工士、メーカの技術者、製造工場の作業者など、スキャナシステム10を用いる者(使用者)であればいずれであってもよい。「対象者」は、歯科医院の患者、歯科大学における被験者など、スキャナシステム10の対象となる者であればいずれであってもよい。
本実施の形態1に係るスキャナシステム10は、三次元スキャナ200と、撮像支援装置100と、ディスプレイ300と、スピーカ400とを備える。三次元スキャナ200は、内蔵された三次元カメラによってスキャン対象を撮像することで三次元データを取得する。具体的には、三次元スキャナ200は、光学センサなどを用いて口腔内をスキャンすることで、三次元データとしてスキャン対象の歯牙を構成する複数の点のそれぞれの位置情報(縦方向,横方向,高さ方向の各軸の座標)を取得する。撮像支援装置100は、三次元スキャナ200によって取得された三次元データに基づき生成した三次元画像をディスプレイ300に表示する。
たとえば、ユーザ1は、対象者2の歯牙の欠損部分を補う補綴物などをコンピュータ上でデジタル設計するために、三次元スキャナ200によって対象者2の口腔内を撮像して歯牙を含む口腔内の三次元データを取得する。ユーザ1が口腔内を撮像するごとに三次元データが順次取得され、口腔内の三次元画像がディスプレイ300に表示される。ユーザ1は、ディスプレイ300に表示された三次元画像を確認しながら取得する三次元データに過不足がないようにスキャンしていく。このとき、ユーザ1は、三次元スキャナ200によって取得された歯牙を含む三次元データが可視化された三次元画像に基づき、自身の知見によってスキャン中またはスキャンが完了した歯牙の種類を識別する。しかし、知見のレベルはユーザ1ごとに異なるため、ユーザ1の知見に頼っていると識別結果の精度がばらつくことがあった。
そこで、本実施の形態1に係るスキャナシステム10は、撮像支援装置100が有するAI(人工知能:Artificial Intelligence)を利用して、三次元スキャナ200によって取得された三次元データに基づき歯牙の種類を自動的に識別して撮像支援の対象となる歯牙の種類を特定する処理を実行するように構成されている。なお、撮像支援装置100によるAIを利用した歯牙の種類を識別する処理を「識別処理」とも称する。
なお、「歯牙の種類」は、上顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、上顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯といったような各歯牙の種類を意味する。
具体的には、ユーザ1が三次元スキャナ200を用いて対象者2の口腔内の歯牙をスキャンすると、歯牙を含む三次元データが撮像支援装置100に入力される。撮像支援装置100は、入力された歯牙の特徴を含む三次元データおよびニューラルネットワークを含む推定モデルに基づき、当該歯牙の種類を識別する識別処理を実行する。
「推定モデル」は、ニューラルネットワークと当該ニューラルネットワークによって用いられるパラメータとを含み、三次元データに関連付けられた歯牙の種類に対応する歯牙情報と、当該三次元データを用いた当該歯牙の種類の識別結果とに基づき学習されることで最適化(調整)される。具体的には、推定モデルは、歯牙を含む三次元データが入力されると、当該三次元データに基づきニューラルネットワークによって歯牙の特徴を抽出し、抽出した歯牙の特徴に基づき歯牙の種類を推定する。そして、推定モデルは、自身が推定した歯牙の種類と、入力された三次元データに関連付けられた歯牙の種類(歯牙情報)とに基づき、両者が一致すればパラメータを更新しない一方で、両者が一致しなければ両者が一致するようにパラメータを更新することで、パラメータを最適化する。このように、推定モデルは、入力データである三次元データと、正解データである歯牙の種類(歯牙情報)とを含む教師データを利用して、パラメータが最適化されることで学習される。
なお、このような推定モデルを学習する処理を「学習処理」とも称する。また、学習処理によって最適化された推定モデルを、特に「学習済モデル」とも称する。つまり、本実施の形態1においては、学習前の推定モデルおよび学習済みの推定モデルをまとめて「推定モデル」と総称する一方で、特に、学習済みの推定モデルを「学習済モデル」とも称する。
「歯牙情報」は、上顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、上顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯といったような各歯牙の名称を含む。また、「歯牙情報」は、中切歯に割り当てられた1番、側切歯に割り当てられた2番、犬歯に割り当てられた3番、第1小臼歯に割り当てられた4番、第2小臼歯に割り当てられた5番、第1大臼歯に割り当てられた6番、第2大臼歯に割り当てられた7番、第3大臼歯に割り当てられた8番といったような各歯牙に割り当てられた番号(たとえば、歯科分野において一般的に用いられている歯牙の番号)を含む。その他、「歯牙情報」は、各歯牙に割り当てられた色の情報を含んでいてもよいし、各歯牙に割り当てられた記号の情報を含んでいてもよい。
撮像支援装置100によって、例えば、スキャン(撮像)が完了した歯牙の情報を撮像支援として出力する場合、学習済モデルを用いて識別処理が実行されて識別された歯牙の種類に基づいて、撮像支援の対象となる歯牙の種類を特定して、その特定結果をディスプレイ300、およびスピーカ400に出力する。
ディスプレイ300は、特定結果に対応する画像、文字、数字、アイコン、および記号の少なくともいずれか1つを表示する。たとえば、スキャンが完了した歯牙の種類を通知する支援処理を撮像支援装置100で行っている場合、ディスプレイ300は、三次元スキャナ200によって下顎右側の7番に対応する第2大臼歯のスキャンが完了した後に、特定結果として「右下7番のスキャンが完了しました。」というように、下顎右側の7番に対応する第2大臼歯のスキャンが完了した旨の画像を表示する。なお、撮像支援装置100は、特定結果が誤っていた場合、訂正結果を操作入力、音声入力などにより受け付けるようにしてもよい。なお、音声入力は図示しないマイクにより音声を受付けるようにしてもよい。
スピーカ400は、特定結果に対応する音声を出力する。たとえば、スピーカ400は、三次元スキャナ200によって下顎右側の7番に対応する第2大臼歯のスキャンが完了した後において、撮像支援装置100による歯牙の特定結果を利用して、「右下7番完了」というように、下顎右側の7番に対応する第2大臼歯のスキャンが完了した旨の音声を出力する。なお、撮像支援装置100は、スキャンが完了した歯牙の種類をディスプレイ300、およびスピーカ400などに出力するのではなく、スキャンが完了した歯牙の種類を特定した上で、次にスキャンする歯牙の種類をディスプレイ300、およびスピーカ400などに出力してもよい。撮像支援装置100は、スキャンが完了した歯牙の種類を特定した情報から次にスキャンする歯牙の種類を予測する場合、たとえば、スキャンが完了した歯牙の種類と近い位置にある未スキャンの歯牙の種類を次にスキャンする歯牙の種類として予測する。また、撮像支援装置100は、モーションセンサ、ジャイロセンサなどと組み合わせて次にスキャンする歯牙の種類を予測してもよい。
さらに、撮像支援装置100の識別処理による識別結果は、識別処理時に用いられた三次元データとともに、スキャン情報として歯科技工所および管理センターに配置されたサーバ装置500に出力されてもよい。なお、撮像支援装置100は、スキャン情報を歯科技工所および管理センターに配置されたサーバ装置500に出力する場合、ユーザ1の確認を必要としてもよい。
たとえば、図2に示すように、スキャナシステム10は、複数のローカルA~Cのそれぞれに配置されている。たとえば、ローカルAおよびローカルBは歯科医院であり、当該歯科医院の院内において、ユーザ1である術者や歯科助手は、スキャナシステム10を利用して対象者2である患者の歯牙を含む三次元データを取得する。また、ローカルCは歯科大学であり、当該歯科大学において、ユーザ1である先生や生徒は、対象者2である被験者の口腔内の三次元データを取得する。ローカルA~Cのそれぞれで取得されたスキャン情報(三次元データ,識別結果)は、ネットワーク5を介して、ローカルDである歯科技工所および管理センターに配置されたサーバ装置500に出力される。
歯科技工所においては、歯科技工士などが、ローカルA~Cのそれぞれから取得したスキャン情報に基づき、対象者2の歯牙の欠損部分を補う補綴物などを作成する。管理センターにおいては、サーバ装置500が、ローカルA~Cのそれぞれから取得したスキャン情報を蓄積して記憶し、ビッグデータとして保持する。
なお、サーバ装置500は、歯科医院にローカルとは異なる管理センターに配置されるものに限らず、ローカル内に配置されてもよい。たとえば、ローカルA~Cのうちのいずれかのローカル内にサーバ装置500が配置されてもよい。また、1つのローカル内に複数の撮像支援装置100が配置されてもよく、さらに、当該1つのローカル内に当該複数の撮像支援装置100と通信可能なサーバ装置500が配置されてもよい。また、サーバ装置500は、クラウドサービスの形態で実現されてもよい。
歯科技工所においては、ローカルA~Cのように、様々な所からスキャン情報が集約される。このため、歯科技工所で保持されているスキャン情報は、ネットワーク5を介して管理センターに送信されてもよいし、あるいは、CD(Compact Disc)およびUSB(Universal Serial Bus)メモリなどのリムーバブルディスク550を介して管理センターに送られてもよい。
なお、ネットワーク5を介さずに、ローカルA~Cのそれぞれからも、リムーバブルディスク550を介してスキャン情報が管理センターに送られてもよい。また、ローカルA~Cのそれぞれの間においても、ネットワーク5またはリムーバブルディスク550を介してスキャン情報を互いに送り合ってもよい。
各ローカルA~Cの撮像支援装置100は、各自で推定モデルを保持しており、識別処理時に各自が保持する推定モデルを使用して歯牙の種類を識別する。各ローカルA~Cの撮像支援装置100は、各自の学習処理によって各自の推定モデルを学習することで、学習済モデルを生成する。さらに、本実施の形態1においては、サーバ装置500も推定モデルを保持している。サーバ装置500は、各ローカルA~Cの撮像支援装置100および歯科技工所から取得したスキャン情報を用いた学習処理によって推定モデルを学習することで、学習済モデルを生成し、各ローカルA~Cの撮像支援装置100に当該学習済モデルを配布する。なお、本実施の形態1においては、各ローカルA~Cの撮像支援装置100およびサーバ装置500のいずれも学習処理を実行する形態であるが、各ローカルA~Cの撮像支援装置100のみが学習処理を実行する形態、あるいはサーバ装置500のみが学習処理を実行する形態であってもよい。なお、サーバ装置500のみが学習処理を実行する形態である場合、各ローカルA~Cの撮像支援装置100が保持する推定モデル(学習済モデル)は、各ローカルA~Cの撮像支援装置100間で共通化される。
また、サーバ装置500が撮像支援装置100における識別処理や特定処理の機能を有していてもよい。たとえば、各ローカルA~Cは、取得した三次元データをサーバ装置500に送信し、サーバ装置500は、各ローカルA~Cから受信したそれぞれの三次元データに基づき、それぞれにおける歯牙の種類の識別結果を算出してもよいし、識別された歯牙の種類に基づいて撮像支援の対象となる歯牙の種類を特定してもよい。そして、サーバ装置500は、それぞれの識別結果や特定結果を各ローカルA~Cに送信し、各ローカルA~Cは、サーバ装置500から受信した識別結果に基づいて撮像支援の対象となる歯牙の種類を特定してもよいし、特定結果をディスプレイなどに出力してもよい。このように、各ローカルA~Cとサーバ装置500とがクラウドサービスの形態で構成されてもよい。このようにすれば、サーバ装置500が推定モデル(学習済モデル)を保持してさえいれば、各ローカルA~Cは、推定モデル(学習済モデル)を保持することなく識別結果を得ることができる。
このように、本実施の形態1に係るスキャナシステム10によれば、撮像支援装置100が有するAIを利用して、三次元スキャナ200によって取得された三次元データに基づき歯牙の種類が自動的に識別し、識別された歯牙の種類に基づいて撮像支援の対象となる歯牙の種類を特定する。AIを利用することで、ユーザ1の知見により得られた歯牙の特徴を見出すことができる。また、ユーザ1では抽出できない歯牙の特徴を見出すこともでき、これにより、ユーザ1は、自身の知見に頼ることなく、精度良く歯牙の種類を識別することができる。撮像支援装置100は、その識別結果を利用して、例えば、撮像が完了した歯牙の種類を特定する撮像支援を行うことで、撮像が完了した歯牙と歯牙の種類との対応をユーザ1に容易に認識させることができる。
[撮像支援装置のハードウェア構成]
図3を参照しながら、本実施の形態1に係る撮像支援装置100のハードウェア構成の一例を説明する。図3は、本実施の形態1に係る撮像支援装置100のハードウェア構成を示す模式図である。撮像支援装置100は、たとえば、汎用コンピュータで実現されてもよいし、スキャナシステム10専用のコンピュータで実現されてもよい。
図3に示すように、撮像支援装置100は、主なハードウェア要素として、スキャナインターフェース102と、ディスプレイインターフェース103と、スピーカインターフェース104と、周辺機器インターフェース105と、ネットワークコントローラ106と、メディア読取装置107と、PCディスプレイ108と、メモリ109と、ストレージ110と、演算装置130とを備える。
スキャナインターフェース102は、三次元スキャナ200を接続するためのインターフェースであり、撮像支援装置100と三次元スキャナ200との間のデータの入出力を実現する。
ディスプレイインターフェース103は、ディスプレイ300を接続するためのインターフェースであり、撮像支援装置100とディスプレイ300との間のデータの入出力を実現する。ディスプレイ300は、たとえば、LCD(Liquid Crystal Display)または有機ELD(Electroluminescence)ディスプレイなどで構成される。
スピーカインターフェース104は、スピーカ400を接続するためのインターフェースであり、撮像支援装置100とスピーカ400との間のデータの入出力を実現する。
周辺機器インターフェース105は、キーボード601およびマウス602などの周辺機器を接続するためのインターフェースであり、撮像支援装置100と周辺機器との間のデータの入出力を実現する。
ネットワークコントローラ106は、ネットワーク5を介して、歯科技工所に配置された装置、管理センターに配置されたサーバ装置500、および他のローカルに配置された他の撮像支援装置100のそれぞれとの間でデータを送受信する。ネットワークコントローラ106は、たとえば、イーサネット(登録商標)、無線LAN(Local Area Network)、Bluetooth(登録商標)などの任意の通信方式に対応する。
メディア読取装置107は、リムーバブルディスク550に格納されているスキャン情報などの各種データを読み出す。
PCディスプレイ108は、撮像支援装置100専用のディスプレイである。PCディスプレイ108は、たとえば、LCDまたは有機ELディスプレイなどで構成される。なお、本実施の形態1においては、PCディスプレイ108は、ディスプレイ300と別体であるが、ディスプレイ300と共通化されてもよい。
メモリ109は、演算装置130が任意のプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域を提供する。メモリ109は、たとえば、DRAM(Dynamic Random Access Memory)またはSRAM(Static Random Access Memory)などの揮発性メモリデバイスで構成される。
ストレージ110は、識別処理および学習処理などに必要な各種のデータを格納する記憶領域を提供する。ストレージ110は、たとえば、ハードディスクまたはSSD(Solid State Drive)などの不揮発性メモリデバイスで構成される。
ストレージ110は、スキャン情報112と、推定モデル114(学習済モデル114a)と、学習用データセット116と、色分類データ118と、プロファイルデータ119と、識別用プログラム120と、学習用プログラム121と、OS(Operating System)127とを格納する。
スキャン情報112は、三次元スキャナ200によって取得された三次元データ122と、当該三次元データ122に基づき実行された識別処理による識別結果124とを含む。識別結果124は、識別処理に用いられた三次元データ122に関連付けられてストレージ110に格納される。学習用データセット116は、推定モデル114の学習処理に用いられる一群の学習用データである。色分類データ118は、学習用データセット116の生成および学習処理に用いられるデータである。プロファイルデータ119は、対象者2に関する属性情報であって、当該対象者2の年齢、性別、人種、身長、体重、および居住地などのプロファイルがまとめられたデータ(たとえば、カルテの情報)である。識別用プログラム120は、識別処理を実行するためのプログラムである。特定用プログラム120aは、撮像支援の対象となる歯牙の種類を特定する特定処理を実行するためのプログラムである。学習用プログラム121は、推定モデル114の学習処理を実行するためのプログラムであり、その一部には識別処理を実行するためのプログラムも含まれる。
演算装置130は、各種のプログラムを実行することで、識別処理および学習処理などの各種の処理を実行する演算主体であり、コンピュータの一例である。演算装置130は、たとえば、CPU(Central Processing Unit)132、FPGA(Field-Programmable Gate Array)134、およびGPU(Graphics Processing Unit)136などで構成される。
[サーバ装置のハードウェア構成]
図4を参照しながら、本実施の形態1に係るサーバ装置500のハードウェア構成の一例を説明する。図4は、本実施の形態1に係るサーバ装置500のハードウェア構成を示す模式図である。サーバ装置500は、たとえば、汎用コンピュータで実現されてもよいし、スキャナシステム10専用のコンピュータで実現されてもよい。
図4に示すように、サーバ装置500は、主なハードウェア要素として、ディスプレイインターフェース503と、周辺機器インターフェース505と、ネットワークコントローラ506と、メディア読取装置507と、メモリ509と、ストレージ510と、演算装置530とを備える。
ディスプレイインターフェース503は、ディスプレイ350を接続するためのインターフェースであり、サーバ装置500とディスプレイ350との間のデータの入出力を実現する。ディスプレイ350は、たとえば、LCDまたは有機ELDディスプレイなどで構成される。
周辺機器インターフェース505は、キーボード651およびマウス652などの周辺機器を接続するためのインターフェースであり、サーバ装置500と周辺機器との間のデータの入出力を実現する。
ネットワークコントローラ506は、ネットワーク5を介して、ローカルに配置された撮像支援装置100、および歯科技工所に配置された装置のそれぞれとの間でデータを送受信する。ネットワークコントローラ506は、たとえば、イーサネット(登録商標)、無線LAN、Bluetooth(登録商標)などの任意の通信方式に対応してもよい。
メディア読取装置507は、リムーバブルディスク550に格納されているスキャン情報などの各種データを読み出す。
メモリ509は、演算装置530が任意のプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域を提供する。メモリ509は、たとえば、DRAMまたはSRAMなどの揮発性メモリデバイスで構成される。
ストレージ510は、学習処理などに必要な各種のデータを格納する記憶領域を提供する。ストレージ510は、たとえば、ハードディスクまたはSSDなどの不揮発性メモリデバイスで構成される。
ストレージ510は、スキャン情報512と、推定モデル514(学習済モデル514a)と、学習用データセット516と、色分類データ518と、プロファイルデータ519と、学習用プログラム521と、OS527とを格納する。
スキャン情報512は、ネットワーク5を介してローカルに配置された撮像支援装置100および歯科技工所から取得した三次元データ522と、当該三次元データ522に基づき実行された識別処理による識別結果524とを含む。識別結果524は、識別処理に用いられた三次元データ522に関連付けられてストレージ510に格納される。学習用データセット516は、推定モデル514の学習処理に用いられる一群の学習用データである。色分類データ518は、学習用データセット516の生成および学習処理に用いられるデータである。プロファイルデータ519は、対象者2に関する属性情報であって、対象者2の年齢、性別、人種、身長、体重、および居住地などのプロファイルがまとめられたデータ(たとえば、カルテの情報)である。学習用プログラム521は、推定モデル514の学習処理を実行するためのプログラムであり、その一部には識別処理を実行するためのプログラムも含まれる。
なお、推定モデル514(学習済モデル514a)は、ローカルの撮像支援装置100に送信されることで、撮像支援装置100によって、推定モデル114(学習済モデル114a)として保持される。
演算装置530は、各種のプログラムを実行することで、学習処理などの各種の処理を実行する演算主体であり、コンピュータの一例である。演算装置530は、たとえば、CPU532、FPGA534、およびGPU536などで構成される。
[撮像支援装置による特定処理]
図5~図8を参照しながら、本実施の形態1に係る撮像支援装置100による撮像支援装置の一例を説明する。図5は、本実施の形態1に係る撮像支援装置100の使用態様を示す模式図である。以下の説明では、口腔内をスキャン(撮像)して取得した複数の三次元データを繋ぎ合せて歯列弓の三次元データを取得する三次元スキャナ200(スキャン装置)を支援する場合について説明する。もちろん、三次元スキャナ200は、口腔内をスキャンして複数の三次元データを取得しても繋ぎ合わせずに、歯列の一部の三次元データをそれぞれ取得する装置であってもよい。
三次元スキャナ200は、図5に示すように口腔内をスキャンすることで、歯列弓の一部の三次元データを順に取得することができ、それらを繋ぎ合わせることで歯列弓全体の三次元データを取得することができる。しかし、三次元スキャナ200を用いて口腔内をスキャンして歯列弓の三次元データを取得する場合、ユーザ1の操作によっては撮像した複数の三次元データにおいて重複領域、欠損領域などが存在することになる。
そこで、撮像支援装置100は、歯列弓全体を撮像したタイミングで、三次元データから得られる情報が所定基準を満たしていない歯牙の不足部分(欠損領域)を特定して支援情報としてディスプレイ300へ出力する。つまり、図5に示すように、撮像支援装置100は、不足部分の歯牙にマーキングして、「下顎左側第1大臼歯頬側面を再測定してください。」とのメッセージをディスプレイ300に出力して撮像支援を行う。そのため、ユーザ1は、撮像支援装置100の出力により、容易に迅速かつ正確に三次元スキャナ200の再スキャンが可能となる。ここで、所定基準とは、三次元スキャナ200で取得した三次元データから補綴物を生成するために必要となる精度のデータ量などを予め定められた基準である。
なお、図5では、撮像支援装置100は、三次元データが不足している歯牙の種類を「下顎左側第1大臼歯頬側面」などと特定しており、歯牙の種類だけでなく当該歯牙の一部の領域まで特定している。もちろん、撮像支援装置100は、三次元データが不足している歯牙の種類、例えば「下顎左側第1大臼」のみを特定するだけでもよい。
図6は、本実施の形態1に係る撮像支援装置100の機能構成を示す模式図である。図7は、本実施の形態1に係る撮像支援装置100による識別処理を説明するための模式図である。図8は、本実施の形態1に係る識別処理における識別対象となる歯牙の一例を示す模式図である。なお、図8においては、三次元スキャナ200のスキャン対象となる歯牙が線図によって表されている。
図6に示すように、撮像支援装置100は、識別処理および特定処理に係る機能部として、入力部1102と、プロファイル取得部1119と、識別部1130と、特定部1150と、出力部1103とを有する。これらの各機能は、撮像支援装置100の演算装置130がOS127および識別用プログラム120および特定用プログラム120aを実行することで実現される。
入力部1102には、三次元スキャナ200によって取得された三次元データが入力される。プロファイル取得部1119は、対象者2のプロファイルデータ119を取得する。識別部1130は、入力部1102に入力された三次元データと、プロファイル取得部1119によって取得された対象者2のプロファイルデータ119とに基づき、推定モデル114(学習済モデル114a)を用いて歯牙の種類を識別する識別処理を実行する。
推定モデル114は、ニューラルネットワーク1142と、当該ニューラルネットワーク1142によって用いられるパラメータ1144とを含む。パラメータ1144は、ニューラルネットワーク1142による計算に用いられる重み付け係数と、識別の判定に用いられる判定値とを含む。特定部1150は、ユーザ1が撮像を行う必要のある歯牙において、歯牙画像(たとえば、三次元データ)から得られる情報が所定基準を満たしていない歯牙の種類を特定する。具体的には、特定部1150は、識別部1130によって識別された歯牙の種類に基づいて、取得した三次元データのうち予め定めたデータ量を超えていない部分に対応する歯牙の種類を特定する。なお、特定部1150は、データ不足の歯牙の種類を特定する場合だけに限定されず、次に撮像する歯牙の種類を特定したり、停止時の歯牙の種類を特定したりと他の特定を行うことも可能である。出力部1103は、特定部1150による特定結果をディスプレイ300、およびスピーカ400などに出力する。
ここで、図7に示すように、入力部1102に入力される三次元データには、歯牙の各点における三次元の位置情報と、歯牙の各点における色情報とが含まれる。識別処理においては、位置情報が用いられる。位置情報は、予め定められた位置を基準とした三次元における絶対位置の座標を含む。たとえば、位置情報は、歯牙の各点における中心位置を原点として、X軸(たとえば、歯牙の横方向の軸)、Y軸(たとえば、歯牙の縦方向の軸)、およびZ軸(たとえば、歯牙の高さ方向の軸)の各軸における絶対位置の座標を含む。なお、位置情報は、予め定められた位置を基準とした三次元における絶対位置の座標に限らず、たとえば、隣接する点からの距離を示す三次元における相対位置の座標を含んでいてもよい。
ここで、図8に示すように、三次元スキャナ200のスキャン対象となる歯牙が上顎の切歯である場合、得られる三次元画像が、上唇側の部位、口蓋側の部位、および切縁側の部位の画像を少なくとも含むように、ユーザ1によって対象者2の口腔内がスキャンされる。また、三次元スキャナ200のスキャン対象となる歯牙が上顎の犬歯および臼歯である場合、得られる三次元画像が、頬側の部位、口蓋側の部位、および咬合する部位の画像を少なくとも含むように、ユーザ1によって対象者2の口腔内がスキャンされる。三次元スキャナ200のスキャン対象となる歯牙が下顎の切歯である場合、得られる三次元画像が、下唇側の部位、舌側の部位、および切縁側の部位の画像を少なくとも含むように、ユーザ1によって対象者2の口腔内がスキャンされる。三次元スキャナ200のスキャン対象となる歯牙が下顎の犬歯および臼歯である場合、得られる三次元画像が、頬側の部位、舌側の部位、および咬合する部位の画像を少なくとも含むように、ユーザ1によって対象者2の口腔内がスキャンされる。
一般的に、対象者2の歯牙は、その種類によって形状および大きさが異なる。たとえば、上顎の切歯の場合、上唇側の面は一般的にU字形であるのに対して、上顎の犬歯の場合、頬側の面は一般的に五角形である。各歯牙は、形状および大きさがその種類に応じて特徴的であり、識別部1130は、これらの特徴的な形状および大きさが数値化された三次元データに基づき、推定モデル114を用いて当該三次元データに対応する歯牙の種類を識別する。
図7に示すように、推定モデル114は、ニューラルネットワーク1142を含む。ニューラルネットワーク1142においては、入力部1102に入力された三次元データに含まれる位置情報の値が入力層に入力される。そして、ニューラルネットワーク1142においては、たとえば、中間層によって、入力された位置情報の値に対して重み付け係数が乗算されたり所定のバイアスが加算されたりするとともに所定の関数による計算が行われ、その計算結果が判定値と比較される。そして、ニューラルネットワーク1142においては、その計算および判定の結果が識別結果として出力層から出力される。なお、ニューラルネットワーク1142による計算および判定については、三次元データに基づき歯牙を識別できるものであれば、いずれの手法が用いられてもよい。
推定モデル114のニューラルネットワーク1142においては、中間層が多層構造になることで、ディープラーニングによる処理が行われる。本実施の形態においては、3次元画像に特化した識別処理を行う識別用プログラム120として、たとえば、VoxNet、3D ShapeNets、Multi-View CNN、RotationNet、OctNet、FusionNet、PointNet、PointNet++、SSCNet、およびMarrNetなどが用いられるが、その他のプログラムが用いられてもよい。また、ニューラルネットワーク1142の仕組みには既存のものが適用されてもよい。
このような構成において、撮像支援装置100は、複数の歯牙が含まれる三次元画像に対応する三次元データが入力されると、当該三次元データに基づいて、複数の歯牙のそれぞれの特徴を推定モデル114のニューラルネットワーク1142を用いて抽出し、抽出した複数の歯牙のそれぞれの特徴に基づき、当該複数の歯牙のそれぞれの種類を識別することができる。また、図7に示すように、識別対象となる歯牙に限らず、隣接する歯牙を含む三次元データについても撮像支援装置100に入力されることで、推定モデル114のニューラルネットワーク1142は、隣接する歯牙の形状との関係も考慮して歯牙の特徴を抽出することができる。撮像支援装置100は、一般的に認識されている歯牙の特徴に限らず、一般的に認識されていない歯牙の特徴についても抽出することができ、それによって精度良く歯牙の種類を識別することができる。
なお、サーバ装置500が保持する推定モデル514に含まれるニューラルネットワークは、図7に示した推定モデル114に含まれるニューラルネットワーク1142と同様の構成を有する。
[学習用データの生成]
学習用データセット116の生成の一例を説明する。まず、三次元スキャナ200によって三次元データが取得され、当該三次元データには、対応する歯牙の各点における三次元の位置情報と、歯牙の各点における色情報(RGB値)とが含まれる。三次元スキャナ200によって取得された三次元データに基づき三次元画像が生成されると、実際の色が付された歯牙を含む三次元画像が生成される。
次に、各歯牙の色分け処理の準備として、ノイズ除去処理が行われる。たとえば、本実施の形態1においては、三次元データに対応する3次元画像がグレースケール化される。三次元データに対応する三次元画像に含まれる各歯牙に対して予め定められた色が塗布されることで各歯牙が色分けされる。たとえば、撮像支援装置100が保持する色分類データ118は、下顎左側、下顎右側、上顎左側、および上顎右側といったように口腔内の各部位ごとに設けられている。
たとえば、第二大臼歯は、歯牙の番号として7番が割り当てられ、色情報として赤色が割り当てられている。第一大臼歯は、歯牙の番号として6番が割り当てられ、色情報として緑色が割り当てられている。第二小臼歯は、歯牙の番号として5番が割り当てられ、色情報として青色が割り当てられている。このように、各色分類データ118においては、各歯牙の種類に対して歯牙の番号および色情報が予め割り当てられている。
各歯牙に対する色の塗布は、ユーザ1(メーカの技術者または製造工場の作業者など)によって行われる。具体的には、ユーザ1は、自身の知見に基づき三次元画像に含まれる各歯牙の種類を識別し、識別した歯牙の種類に対応する色を、色分類データ118を参照しながら特定し、特定した色を当該歯牙の画像に塗布する。
たとえば、ユーザ1は、三次元画像に含まれる歯牙が第二大臼歯であると識別すると、当該歯牙の画像に赤色を塗布する。また、三次元画像に含まれる歯牙が第一大臼歯であると識別すると、当該歯牙の画像に緑色を塗布する。
また、各歯牙の色分けに応じて、三次元データに対応する歯牙の各点における色情報(RGB値)が各歯牙に塗布された色に対応する値に変更される。たとえば、赤色に塗布された第二大臼歯の各位置座標に対しては、色情報(RGB値)が“255000000”となり、緑色に塗布された第一大臼歯の各位置座標に対しては、色情報(RGB値)が“000255000”となり、青色に塗布された第二小臼歯の各位置座標に対しては、色情報(RGB値)が“00000255”となる。つまり、三次元データに対応する歯牙の各点に対して、予め定められた色情報(RGB値)が関連付けられる。
各歯牙に対して予め定められた色情報が関連付けられると、三次元データには、位置情報と、塗布された色に対応する色情報とが含まれるようになり、このような三次元データが学習用データとして採用される。つまり、本実施の形態に係る学習用データにおいては、識別処理で参照される位置情報に対して、歯牙の種類に対応する色情報が関連付けられる(ラベリングされる)。さらに、三次元データに対応する複数の歯牙のそれぞれの範囲を特定可能に当該三次元データに色情報が関連付けられる。具体的には、各歯牙に対応する位置情報ごとに、同じ色情報が関連付けられる。このような学習用データの集まりが学習用データセット116として、撮像支援装置100に保持される。
このように、学習用データを生成する際に、ユーザ1が三次元画像に含まれる各歯牙に色を塗布して正解データをラベリングすることにおいては、多くの利点がある。たとえば、単なる文字または記号を用いてラベリングした場合、ユーザ1は、各歯牙の範囲を認識し難いが、色分けによってラベリングした場合、ユーザ1は、ラベリング対象である歯牙と当該歯牙に隣接する歯牙との間の境界、およびラベリング対象である歯牙と歯肉との間の境界を色の塗布によって容易に認識することができる。また、ユーザ1は、ラベリング時に様々な角度から三次元画像を確認しながら色を塗布するが、視点の角度を変更した場合でも、ラベリング作業中の歯牙に対してどの範囲まで塗布が完了したのかを認識し易くなる。
なお、本実施の形態においては、ユーザ1が自身の知見に基づき手作業で三次元画像に含まれる各歯牙に色を塗布しているが、一部の作業をソフトウェアで補うことも可能である。たとえば、ラベリング対象である歯牙と当該歯牙に隣接する歯牙との間の境界、およびラベリング対象である歯牙と歯肉との間の境界を、エッジ検出によって特定してもよく、このようにすれば、ラベリング対象である歯牙のみを抽出することができる。
なお、学習用データセット116の生成は、サーバ装置500が保持する学習用データセット516の生成についても適用可能である。たとえば、学習用データセット116を、サーバ装置500が保持する学習用データセット516に適用してもよいし、色分類データ118を、サーバ装置500が保持する色分類データ518に適用してもよい。
[学習済モデルの生成]
学習済モデル114aの生成の一例を説明する。学習用データセット116は、当該学習用データセット116を生成する際にスキャン対象となった対象者2のプロファイルに基づきカテゴリごとに分類することができる。たとえば、年齢(未成年者,現役世代,高齢者)、性別(男性,女性)、人種(アジア人,欧米人,アフリカ系)、身長(150cm未満,150以上)、体重(50kg未満,50kg以上)、および居住地(日本在住,日本以外に在住)のそれぞれに対して、該当する対象者2の歯牙を含む三次元データから生成された学習用データセットを割り当てることができる。なお、各カテゴリの層別は、適宜設定可能である。たとえば、年齢に関しては、所定の年齢差ごと(この場合は3歳ごと)、具体的には、0歳~3歳、4歳~6歳、7歳~9歳、…といったように、より詳細に層別することができる。
撮像支援装置100は、カテゴリごとに分類することができる複数の学習用データセット116を用いて推定モデル114を学習させることで、学習済モデル114aを生成する。なお、学習用データは、カテゴリの分類の仕方によっては重複することがあるが、学習用データが重複する場合には、いずれかの学習用データのみを用いて推定モデル114を学習させればよい。
一般的に歯牙の形状は、年齢、性別、人種、身長、体重、および居住地など、遺伝または生活環境などに依存してその特徴が異なる。たとえば、一般的に、大人の永久歯は、子供の乳歯よりも大きく、両者でその形状が異なる。また、一般的に、男性の歯牙は、女性の歯牙よりも大きく、両者でその形状が異なる。また、一般的に、欧米人の歯牙は、硬い肉やパンを噛み切り易いように先端が尖る傾向があるのに対して、日本人の歯牙は、柔らかい米や野菜をすり潰し易いように先端が滑らかになる傾向がある。このため、本実施の形態のように、プロファイルデータに基づき学習処理を実行すれば、遺伝または生活環境などを考慮して歯牙の種類を識別することができる学習済モデルを生成することができる。
なお、学習済モデル114aの生成は、サーバ装置500が保持する学習済モデル514aの生成についても適用可能である。たとえば、学習用データセット116を、サーバ装置500が保持する学習用データセット516に適用してもよいし、推定モデル114を、サーバ装置500が保持する推定モデル514に適用してもよい。
[識別部の学習処理]
撮像支援装置100が実行する学習処理について説明する。当該学習処理は、撮像支援装置100の演算装置130がOS127および学習用プログラム121を実行することで実現される。撮像支援装置100は、学習用データセット116の中から、学習に用いる学習用データを選択する。撮像支援装置100は、選択した学習用データに含まれる三次元データの位置情報、および当該学習用データを生成する際にスキャン対象となった対象者2のプロファイルデータを推定モデル114に入力する。このとき、撮像支援装置100には、三次元データにラベリングされた正解データは入力されない。撮像支援装置100は、三次元データに対応する歯牙の特徴に基づき、推定モデル114を用いて当該歯牙の種類を識別する識別処理を実行する。識別処理において、撮像支援装置100は、三次元データに加えてプロファイルデータに基づき、推定モデル114を用いて当該歯牙の種類を識別する。
撮像支援装置100は、識別処理によって識別した歯牙の種類の識別結果と、学習処理に用いた学習用データに対応する正解データとの誤差に基づき、推定モデル114のパラメータ1144を更新する。
たとえば、撮像支援装置100は、特定の歯牙の位置情報に基づき識別した結果、当該特定の歯牙に対応する色情報を推定する。撮像支援装置100は、学習用データに含まれる当該特定の歯牙に対応する色情報(正解データ)と、自身が推定した色情報とを比較し、一致すれば推定モデル114のパラメータ1144を維持する一方で、不正解であれば両者が一致するように推定モデル114のパラメータ1144を更新する。
あるいは、撮像支援装置100は、特定の歯牙の位置情報に基づき識別した結果、当該特定の歯牙に対応する色情報を推定し、色分類データ118に基づき当該色情報に対応する歯牙の種類や歯牙の番号(正解データ)を特定する。撮像支援装置100は、学習用データに含まれる当該特定の歯牙に対応する色情報に割り当てられた歯牙の種類や歯牙の番号(正解データ)と、自身が推定した歯牙の種類や歯牙の番号とを比較し、一致すれば推定モデル114のパラメータ1144を維持する一方で、不正解であれば両者が一致するように推定モデル114のパラメータ1144を更新する。
このように、撮像支援装置100は、学習用データに含まれる三次元データに関連付けられた歯牙の種類に対応する歯牙情報(色情報、歯牙の名称、または歯牙の番号など)を正解データとして、識別処理による当該三次元データを用いた当該歯牙の種類の識別結果に基づき、推定モデル114を学習することで、学習済モデル114aを生成することができる。
さらに、撮像支援装置100は、学習処理において、学習用データに加えてプロファイルデータを考慮して推定モデル114を学習するため、対象者2のプロファイルを考慮した学習済モデル114aを生成することができる。
[サーバ装置の学習処理]
サーバ装置500が実行する学習処理について説明する。当該学習処理は、サーバ装置500の演算装置530がOS527および学習用プログラム521を実行することで実現される。
サーバ装置500は、学習用データセットの中から、学習に用いる学習用データを選択する。ここで、学習用データは、サーバ装置500によって蓄積して記憶されたビッグデータを利用して生成されたものであってもよい。たとえば、サーバ装置500は、各ローカルA~Cの撮像支援装置100および歯科技工所から取得したスキャン情報に含まれる三次元データを利用して学習用データを生成しておき、生成した当該学習用データを用いて学習処理を実行してもよい。なお、サーバ装置500は、学習用データを自動で選択するものに限らず、ユーザ1が選択した学習用データを学習処理に用いてもよい。
サーバ装置500は、選択した学習用データに含まれる三次元データ(位置情報)、および当該学習用データを生成する際にスキャン対象となった対象者2のプロファイルデータを推定モデル514に入力する。このとき、サーバ装置500には、三次元データにラベリングされた正解データは入力されない。サーバ装置500は、三次元データに対応する歯牙の特徴に基づき、推定モデル514を用いて当該歯牙の種類を識別する識別処理を実行する。識別処理において、サーバ装置500は、三次元データに加えてプロファイルデータに基づき、推定モデル514を用いて当該歯牙の種類を識別する。
サーバ装置500は、識別処理によって識別した歯牙の種類の識別結果と、学習に用いた学習用データに対応する正解データとの誤差に基づき、推定モデル514のパラメータを更新する。
たとえば、サーバ装置500は、特定の歯牙の位置情報に基づき識別した結果、当該特定の歯牙に対応する色情報を推定する。サーバ装置500は、学習用データセットに含まれる当該特定の歯牙に対応する色情報(正解データ)と、自身が推定した色情報とを比較し、一致すれば推定モデル514のパラメータを維持する一方で、不正解であれば両者が一致するように推定モデル514のパラメータを更新する。
あるいは、サーバ装置500は、特定の歯牙の位置情報に基づき識別した結果、当該特定の歯牙に対応する色情報を推定し、色分類データ518に基づき当該色情報に対応する歯牙の種類や歯牙の番号(正解データ)を特定する。サーバ装置500は、学習用データセットに含まれる当該特定の歯牙に対応する色情報に割り当てられた歯牙の種類や歯牙の番号(正解データ)と、自身が推定した歯牙の種類や歯牙の番号とを比較し、一致すれば推定モデル514のパラメータを維持する一方で、不正解であれば両者が一致するように推定モデル514のパラメータを更新する。
サーバ装置500は、全ての学習用データに基づき学習した場合、学習済みの推定モデル514を学習済モデル514aとして記憶するとともに、サーバ装置500は、生成した学習済モデル514aを各ローカルの撮像支援装置100に送信することができる。
このように、サーバ装置500は、学習用データに含まれる三次元データに関連付けられた歯牙の種類に対応する歯牙情報(色情報,歯牙の名称,歯牙の番号)を正解データとして、識別処理による当該三次元データを用いた当該歯牙の種類の識別結果に基づき、推定モデル514を学習することで、学習済モデル514aを生成することができる。
また、サーバ装置500は、学習処理において、学習用データに加えてプロファイルデータを考慮して推定モデル514を学習するため、対象者2のプロファイルを考慮した学習済モデル514aを生成することができる。
さらに、サーバ装置500は、学習処理に用いる学習用データとして、各ローカルA~Cの撮像支援装置100および歯科技工所から取得したスキャン情報に含まれる三次元データを利用しているため、撮像支援装置100ごとに実行される学習処理よりも、より多くの学習用データに基づいて学習処理を実行することができ、より精度良く歯牙の種類を識別することができる学習済モデル514aを生成することができる。
[撮像支援装置100の支援処理]
次に、撮像支援装置100が実行する支援処理についてフローチャートに基づいて説明する。図9は、本実施の形態1に係る撮像支援装置が実行する支援処理の一例を説明するためのフローチャートである。図9に示す各ステップは、撮像支援装置100の演算装置130がOS127および特定用プログラム120aを実行することで実現される。
図9に示すように、撮像支援装置100は、支援処理Iの開始条件が成立したか否かを判定する(S40)。開始条件は、たとえば、三次元スキャナ200の電源を立ち上げたときに成立してもよいし、三次元スキャナ200の電源を立ち上げた後に支援処理Iに対応するモードに切り替えられたときに成立してもよい。あるいは、開始条件は、支援処理Iに対応するアイコン(たとえば、アシストアイコン)が操作されてアイコンが点滅状態になった後に開始スイッチが操作されたときに成立してもよい。また、開始条件は、一定量の三次元データが取得されたときに成立してもよいし、歯列弓全体を撮像したタイミングに成立してもよい。開始条件は、三次元スキャナ200に対して何らかのアクションが行われたときに成立するものであればよい。
撮像支援装置100は、開始条件が成立していない場合(S40でNO)、本処理を終了する。一方、撮像支援装置100は、開始条件が成立した場合(S40でYES)、三次元データを取得しているか否かを判定する(S41)。たとえば、撮像支援装置100は、支援処理Iを実行するのに十分な量の三次元データが入力されたか否かを判定する。撮像支援装置100は、十分な量の三次元データが入力されていない場合(S41でNO)、S41の処理を繰り返す。
一方、撮像支援装置100は、十分な量の三次元データが入力された場合(S41でYES)、歯牙の種類を識別する処理を行う(S42)。撮像支援装置100は、学習済モデル114aを用いて入力された三次元データから歯牙の種類を識別する。
撮像支援装置100が実行する歯牙の種類を識別する処理についてさらに説明する。図10は、本実施の形態1に係る撮像支援装置100が実行する歯牙の種類を識別する処理の一例を説明するためのフローチャートである。図10に示す各ステップは、撮像支援装置100の演算装置130がOS127および識別用プログラム120を実行することで実現される。まず、ユーザ1によって対象者2のプロファイルデータが入力されたか否かを判定する(S420)。プロファイルデータが入力されていない場合(S420でNO)、三次元データ(位置情報)を学習済モデル114aに入力する(S421)。一方、撮像支援装置100は、プロファイルデータが入力された場合(S420でYES)、三次元データ(位置情報)およびプロファイルデータを学習済モデル114aに入力する(S422)。なお、このとき使用する学習済モデルは、撮像支援装置100によって生成された学習済モデル114aに限らず、サーバ装置500によって生成された学習済モデル514aであってもよい。
S421およびS422の後、撮像支援装置100は、三次元データに対応する歯牙の特徴に基づき、学習済モデル114aを用いて当該歯牙の種類を識別する識別処理を実行する(S423)。このとき、S422でプロファイルデータが学習済モデル114aに入力されていた場合、撮像支援装置100は、三次元データに加えてプロファイルデータに基づき、学習済モデル114aを用いて当該歯牙の種類を識別する。この場合、三次元データのみに基づき学習済モデル114aを用いて歯牙の種類を識別するよりも、より精度良く歯牙の種類を識別することができる。
図9に戻って、撮像支援装置100は、S42で歯牙の種類を識別する処理を行った後、取得した三次元データにおいて不足する三次元データの有無を判定する(S43)。たとえば、撮像支援装置100は、取得した三次元データが予め定めたデータ量を超えていない部分があるか否かを判定する。不足する三次元データがある場合(S43でYES)、撮像支援装置100は、S42によって識別された歯牙の種類に基づいて、三次元データが不足する部分の歯牙の種類を特定し、特定結果をディスプレイ300、およびスピーカ400などに出力し(S44)、本処理を終了する。なお、不足する三次元データがない場合(S43でNO)、撮像支援装置100は、本処理を終了する。
このように、撮像支援装置100は、取得した三次元データにおいてデータ量が不足している歯牙の種類を特定することで、再スキャン(再測定)する歯牙の種類をユーザ1に提供することができる。なお、撮像支援装置100は、入力された三次元データに対応する歯牙の特徴に基づき、学習済モデル114aを用いて当該歯牙の種類を識別するため、ユーザ自身の知見に頼って歯牙の種類を識別するよりも、精度良く歯牙の種類を識別することができ、再スキャンする歯牙の種類の情報を精度良く特定しユーザ1に提供することができる。
さらに、撮像支援装置100は、識別処理において、入力された三次元データに加えてプロファイルデータを考慮して歯牙の種類を識別するため、より精度良く歯牙の種類を識別することができる。
撮像支援装置100は、歯列弓全体を撮像したタイミングで、取得した三次元データのうち予め定めたデータ量を超えていない(所定基準を満たしていない)不足部分の歯牙の種類を特定してディスプレイ300へ出力することを前提に説明した。しかし、これに限られず、歯列弓の1/2、1/3、2/3、1/5、2/5、3/5および4/5近傍のいずれかの画像を形成することができる所定範囲を撮像したタイミングで、撮像支援装置100は、当該不足部分の歯牙の種類を特定してディスプレイ300へ出力してもよい。もちろん、撮像支援装置100は、所定の数の歯牙を撮像したタイミングや所定の時間ごとのタイミングで、特定部1150で特定された歯牙の種類の情報(例えば、不足部分)を外部へ出力してもよい。
支援処理Iでは、三次元データから得られる情報が予め定めたデータ量を超えていない不足部分の歯牙の種類を特定して支援情報として出力する処理について説明した。しかし、これに限られず、撮像支援装置100は、歯牙の種類を特定してユーザ1に支援情報として提供する他の支援処理を実行することが可能である。たとえば、別の一例として、停止前に撮像していた歯牙の種類を特定し所定時間内に撮像を開始する場合に特定した情報をユーザ1に支援情報として提供する支援処理IIについて説明する。図11は、本実施の形態1に係る撮像支援装置が実行する支援処理の別の一例を説明するためのフローチャートである。図11に示す各ステップは、撮像支援装置100の演算装置130がOS127および特定用プログラム120aを実行することで実現される。
図11に示すように、撮像支援装置100は、支援処理IIの開始条件が成立したか否かを判定する(S40a)。開始条件は、たとえば、三次元スキャナ200の電源を立ち上げたときに成立してもよいし、三次元スキャナ200の電源を立ち上げた後に支援処理IIに対応するモードに切り替えられたときに成立してもよい。あるいは、開始条件は、支援処理IIに対応するアイコン(たとえば、アシストアイコン)が操作されてアイコンが点滅状態になった後に開始スイッチが操作されたときに成立してもよい。開始条件は、三次元スキャナ200に対して何らかのアクションが行われたときに成立するものであればよい。
撮像支援装置100は、開始条件が成立していない場合(S40aでNO)、本処理を終了する。一方、撮像支援装置100は、開始条件が成立した場合(S40aでYES)、三次元データを取得する(S41a)。撮像支援装置100は、十分な量の三次元データが入力された場合、歯牙の種類を識別する処理を行う(S42)。撮像支援装置100は、図10に示す処理で、学習済モデル114aを用いて入力された三次元データから歯牙の種類を識別する。
撮像支援装置100は、三次元スキャナ200による歯牙のスキャンを停止したか否かを判定する(S43a)。ここで、スキャンが停止したと判定されるタイミングとして、撮像支援装置100が撮像停止信号を受信したタイミングであっても、入力部1102が所定時間以上、歯牙画像を受信しないタイミングであってもよい。
スキャンを停止したと判定した場合(S43aでYES)、撮像支援装置100は、三次元スキャナ200による歯牙のスキャンが所定時間内(たとえば、スキャンを停止してから3分以内)に開始されたか否かを判定する(S44a)。スキャンが所定時間内に開始された場合(S44aでYES)、撮像支援装置100は、S42によって識別された歯牙の種類に基づいて、停止前にスキャンしていた歯牙の種類を特定し、特定結果をユーザ1に通知する(S45a)。たとえば、撮像支援装置100は、ディスプレイ300、およびスピーカ400などに特定結果を出力することで、特定結果をユーザ1に通知する。そのため、ユーザ1は、停止前にスキャンしていた歯牙の種類に基づいて、適切な位置から三次元スキャナ200による歯牙のスキャンを開始することができる。なお、ユーザ1に通知する特定結果には、停止前にスキャンしていた歯牙の種類の情報、その歯牙と隣接する歯牙の種類の情報、およびその両方の情報を含んでいてもよい。
撮像支援装置100は、停止前にスキャンしていた歯牙の種類を通知した後、処理をS41aに戻す。スキャンが所定時間内に開始されない場合(S44aでNO)、撮像支援装置100は、停止前にスキャンしていた歯牙の種類を外部に出力(S46a)して、本処理を終了する。
なお、スキャンを停止していないと判定した場合(S43aでNO)、撮像支援装置100は、三次元スキャナ200による歯牙のスキャンが終了したか否かを判定する(S47a)。歯牙のスキャンが終了していない場合(S47aでNO)、撮像支援装置100は、処理をS41aに戻す。歯牙のスキャンが終了した場合(S47aでYES)、撮像支援装置100は、本処理を終了する。
さらに別の一例として、複数の三次元画像(三次元データ)を繋ぎ合わせる時に歯牙の種類を特定してユーザ1に支援情報として提供する支援処理IIIについて説明する。図12は、本実施の形態1に係る撮像支援装置が実行する支援処理のさらに別の一例を説明するためのフローチャートである。図12に示す各ステップは、撮像支援装置100の演算装置130がOS127および特定用プログラム120aを実行することで実現される。
図12に示すように、撮像支援装置100は、支援処理IIIの開始条件が成立したか否かを判定する(S40b)。開始条件は、たとえば、三次元スキャナ200の電源を立ち上げたときに成立してもよいし、三次元スキャナ200の電源を立ち上げた後に支援処理IIIに対応するモードに切り替えられたときに成立してもよい。あるいは、開始条件は、支援処理IIIに対応するアイコン(たとえば、アシストアイコン)が操作されてアイコンが点滅状態になった後に開始スイッチが操作されたときに成立してもよい。開始条件は、三次元スキャナ200に対して何らかのアクションが行われたときに成立するものであればよい。
撮像支援装置100は、開始条件が成立していない場合(S40bでNO)、本処理を終了する。一方、撮像支援装置100は、開始条件が成立した場合(S40bでYES)、複数部分の三次元データを取得する(S41b)。たとえば、撮像支援装置100は、歯列弓をスキャンする場合に、歯列弓を1/3の部分ずつに分けて、それぞれスキャンした三次元データを3つ取得する。撮像支援装置100は、複数部分の三次元データがそれぞれ入力された場合、それぞれの三次元データに対して歯牙の種類を識別する処理を行う(S42)。撮像支援装置100は、図10に示す処理で、学習済モデル114aを用いて入力された複数部分の三次元データから歯牙の種類を識別する。
撮像支援装置100は、複数部分の三次元データのうち、一の部分と他の部分とに重複する歯牙の種類があるか否かを判定する(S43b)。一の部分と他の部分とに重複する歯牙の種類がある場合(S43bでYES)、撮像支援装置100は、重複する歯牙の種類を基準に一の部分の三次元データと他の部分の三次元データとを繋ぎ合わせる処理を行う(S44b)。たとえば、撮像支援装置100は、上顎右側の第3大臼歯から第1小臼歯までをスキャンした部分(一の部分)と、上顎右側の第1小臼歯から中切歯までをスキャンした部分(他の部分)との三次元データを取得した場合、一の部分の第1小臼歯と他の部分の第1小臼歯とが重複していると判定する。撮像支援装置100は、重複する歯牙の種類があるので、第1小臼歯を基準に一の部分の三次元データと他の部分の三次元データとを繋ぎ合わせて一つの三次元データにする。
撮像支援装置100は、複数部分の三次元データのうち、繋ぎ合わせ未処理の部分があるか否かを判定する(S45b)。繋ぎ合わせ未処理の部分がある場合(S45bでYES)、撮像支援装置100は、処理をS43bに戻す。繋ぎ合わせ未処理の部分がない場合(S45bでNO)、または一の部分と他の部分とに重複する歯牙の種類がない場合(S43bでNO)、撮像支援装置100は、本処理を終了する。
撮像支援装置100は、歯列弓を複数回に分けてスキャンを行い、複数部分の三次元データを取得した場合であっても、上記の支援処理IIIを行うことで、1つの三次元データに繋ぎ合わせることが容易になる。仮に、上記の支援処理IIIを行わずにユーザ1が複数部分の三次元データを繋ぎ合わせる場合、それぞれの三次元データから歯牙の種類を目視で判断して、それぞれの三次元データを繋ぎ合わせる作業が必要となり作業が煩雑となる。
上記の支援処理I~支援処理IIIについては、撮像支援装置100において、それぞれ個別に処理を実行することが可能であるが、複数の処理を組み合わせて実行してもよい。たとえば、撮像支援装置100は、支援処理Iと支援処理IIとを組み合わせて実行し、スキャンによりデータ量が不足している歯牙の種類を特定しつつ、停止が行われた場合には停止前の歯牙の種類を特定するようにしてもよい。この場合、たとえば、停止後にスキャンを所定時間内に開始する場合、撮像支援装置100は、データ量が不足している歯牙の種類を優先して通知し、データ量が不足している歯牙の種類が再スキャンされたときに、停止前にスキャンしていた歯牙の種類を通知する。もちろん、撮像支援装置100は、通知を逆にしてもよい。
以上のように、本実施の形態1に係る撮像支援装置100は、口腔内の歯牙の撮像を支援する撮像支援装置である。撮像支援装置100は、入力部1102と、識別部1130と、特定部1150と、出力部1103とを備える。入力部1102は、口腔内の歯牙を撮像した歯牙画像を入力する。識別部1130は、入力部1102によって入力された歯牙画像に基づき、歯牙の種類を識別する。特定部1150は、識別部1130によって識別された歯牙の種類に基づいて、撮像支援の対象となる歯牙の種類を特定する。出力部1103は、所定タイミングにおいて、特定部1150で特定された歯牙の種類の情報を外部へ出力する。
これにより、撮像支援装置100は、識別部1130によって識別された歯牙の種類に基づいて、撮像支援の対象となる歯牙の種類を特定するので、口腔内のどの歯牙と対応しているのかが容易に認識できる撮像支援の情報をユーザ1に出力することができる。
特定部1150は、ユーザ1が撮像を行う必要のある歯牙の種類を特定し、出力部1103は、ユーザ1が撮像を行う前に特定部1150で特定された歯牙の種類の情報を外部へ出力する。
これにより、撮像支援装置100は、ユーザ1が次に撮像を行う歯牙を認識させることが容易にできる。
特定部1150は、ユーザ1が撮像を行う必要のある歯牙の種類として、歯牙画像から得られる情報が所定基準を満たしていない歯牙の種類を特定する。たとえば、三次元スキャナ200で歯牙をスキャンする場合、歯牙画像から得られる三次元データにおいて予め定めたデータ量を超えていない部分の歯牙の種類を、識別部1130によって識別された歯牙の種類に基づいて特定する。
これにより、撮像支援装置100は、データ量が不足している歯牙の種類をユーザ1に認識させて、再度撮像を行うことを促すことができる。
特定部1150は、ユーザ1が撮像を行う必要のある歯牙の種類として、撮像が停止されたタイミングで撮像していた歯牙の種類を特定し、出力部1103は、ユーザ1により撮像が開始されるタイミングの前に特定部1150で特定された歯牙の種類および特定された歯牙と隣接する歯牙の種類のうち少なくとも一方の情報を外部へ出力する。
これにより、撮像支援装置100は、撮像を停止した後に撮像を所定時間内に開始する場合に、どの歯牙の種類から撮像を開始するのかをユーザ1に認識させて、効率的な撮像を行うことが可能となる。
出力部1103は、停止されたタイミングから開始されるタイミングまでの所定時間において入力部1102に新たな歯牙画像が入力されない場合に、特定された歯牙の種類の情報を外部へ出力してもよい。
これにより、撮像支援装置100は、撮像を停止したと判断されてから所定時間内に撮像を開始されなければ、ユーザ1が撮像作業をやり直したり他の患者の撮影に移行したりする可能性が高くなるので、停止されたタイミングで特定していた歯牙の種類の情報を外部に出力して、支援処理IIの機能を発揮しないようにすることができる。
出力部1103は、所定範囲の歯列弓を撮像したタイミングに、特定部1150で特定された歯牙の種類の情報を外部へ出力する。所定範囲は、歯列弓の1/2、1/3、2/3、1/5、2/5、3/5および4/5近傍のいずれかの画像を形成することができる範囲である。また、出力部1103は、所定の数の歯牙を撮像したタイミングで、特定部で特定された歯牙の種類の情報を外部へ出力する。
これにより、撮像支援装置100は、ある所定範囲の歯列弓を撮像したタイミング、または所定の数の歯牙を撮像したタイミングで、特定された歯牙の種類(たとえば、データ量が不足している歯牙の種類)がユーザ1に通知されるので煩わしさが軽減される。
入力部1102は、三次元スキャナ200から歯列弓の三次元画像に対応する三次元データが入力され、特定部1150は、入力部1102から入力された三次元データのうち不足している情報がある歯牙の種類を特定する。
これにより、撮像支援装置100は、データ量が不足している歯牙の種類をユーザ1が容易に認識することができ、再測定する歯牙の種類の情報を精度良くユーザ1に提供することができる。
特定部1150は、複数の歯牙画像の間で重複している歯牙の種類を繋ぎ合せに用いる歯牙の種類として特定する。
これにより、撮像支援装置100は、複数の歯牙の画像を繋ぎ合わせることが容易になる。
識別部1130は、入力部1102から入力された歯牙画像に対応する歯牙の特徴に基づき、ニューラルネットワークを含む推定モデル114を用いて当該歯牙の種類を識別し、推定モデル114は、歯牙画像に関連付けられた歯牙の種類に対応する歯牙情報と、歯牙画像を用いた当該歯牙の種類の識別結果とに基づき学習される。
これにより、ユーザ1は、歯牙を含む三次元データを、ニューラルネットワーク1142を含む推定モデル114(学習済モデル114a)に入力することで、当該歯牙の種類を識別することができるため、ユーザ自身の知見に頼って歯牙の種類を識別するよりも、精度良く歯牙の種類を識別することができる。
入力部1102には、複数の歯牙を含む歯牙画像が入力され、識別部1130は、歯牙画像に対応する複数の歯牙のそれぞれの特徴に基づき、当該複数の歯牙のそれぞれの種類を識別する。
これにより、ユーザ1は、複数の歯牙を含む歯牙画像を、ニューラルネットワーク1142を含む推定モデル114(学習済モデル114a)に入力することで、当該複数の歯牙のそれぞれの種類を識別することができるため、ユーザ自身の知見に頼って歯牙の種類を1つ1つ識別するよりも、精度良くかつスムーズに歯牙の種類を識別することができる。さらに、ユーザ1は、隣接する歯牙の形状との関係も考慮してニューラルネットワーク1142を含む推定モデル114によって歯牙の特徴を抽出させることができるため、精度良く歯牙の種類を識別することができる。
歯牙画像は、歯牙の各点における三次元の位置情報を含む。
これにより、ユーザ1は、三次元データに対応する歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を、ニューラルネットワーク1142を含む推定モデル114(学習済モデル114a)に入力することで、当該歯牙の種類を識別することができる。
推定モデル114は、歯牙情報および識別部1130による識別結果に加えて、歯牙を有する対象者に関する属性情報に基づき、学習される。
これにより、ユーザ1は、学習用データに加えて対象者2に関する属性情報に基づいて推定モデル114を学習させることができるため、対象者2の属性情報を考慮した学習済モデルを生成することができる。
前記属性情報は、前記対象者の年齢、性別、人種、身長、体重、および居住地のうちの少なくともいずれか1つの情報を含む。
これにより、ユーザ1は、学習用データに加えて、対象者の年齢、性別、人種、身長、体重、および居住地のうちの少なくともいずれか1つに基づいて推定モデル114を学習させることができるため、これら対象者2のプロファイルを考慮した学習済モデル114aを生成することができる。
歯牙の形状情報を取得するスキャナシステム10であって、三次元カメラを用いて歯牙を撮像する三次元スキャナ200と、三次元スキャナ200によって取得された三次元の歯牙画像に基づき当該歯牙の種類を識別し、認識した歯牙の種類を報知する撮像支援装置100とを備えている。撮像支援装置100は、口腔内の歯牙を撮像した歯牙画像を入力する入力部1102と、入力部1102によって入力された歯牙画像に基づき、歯牙の種類を識別する識別部1130と、識別部1130によって識別された歯牙の種類に基づいて、撮像対象となる歯牙の種類を特定する特定部1150と、所定タイミングにおいて、特定部1150で特定された歯牙の種類の情報を外部へ出力する出力部1103とを含む。
これにより、スキャナシステム10は、識別部1130によって識別された歯牙の種類に基づいて、撮像支援の対象となる歯牙の種類を特定するので、口腔内のどの歯牙と対応しているのかが容易に認識できる撮像支援の情報をユーザ1に出力することができる。
口腔内の歯牙の撮像を支援する撮像支援方法であって、口腔内の歯牙を撮像した歯牙画像を入力するステップと、入力された歯牙画像に基づき、歯牙の種類を識別するステップと、識別された歯牙の種類に基づいて、撮像対象となる歯牙の種類を特定するステップと、所定タイミングにおいて、特定された歯牙の種類の情報を外部へ出力するステップとを含む。
これにより、撮像支援方法は、識別された歯牙の種類に基づいて、撮像支援の対象となる歯牙の種類を特定するので、口腔内のどの歯牙と対応しているのかが容易に認識できる撮像支援の情報をユーザ1に出力することができる。
(実施の形態2)
実施の形態1に係る撮像支援装置100では、AIを利用して、三次元スキャナ200によって取得された三次元データに基づき歯牙の種類を自動的に識別して撮像支援の対象となる歯牙の種類を特定する処理を実行するように構成されていると説明した。しかし、これに限られず、撮像支援装置100では、AIを利用しないで、三次元スキャナ200によって取得された三次元データに基づき歯牙の種類を自動的に識別して撮像支援の対象となる歯牙の種類を特定する処理を実行するように構成してもよい。たとえば、三次元スキャナ200によって取得された三次元画像をパターンマッチングにより歯牙の種類を自動的に識別して撮像支援の対象となる歯牙の種類を特定する処理を実行するように構成することが考えられる。
本実施の形態2に係る撮像支援装置が実行する歯牙の種類を識別する処理について説明する。図13は、本実施の形態2に係る撮像支援装置が実行する歯牙の種類を識別する処理の一例を説明するためのフローチャートである。なお、本実施の形態2に係る撮像支援装置は、推定モデル114を利用しない以外は図3、図5などで説明した撮像支援装置100と同じ構成であり、詳細な説明は繰り返さない。また、図13に示す各ステップは、撮像支援装置の演算装置130がOS127および識別用プログラム120を実行することで実現される。
まず、撮像支援装置は、ストレージなどに予め記憶されているパターンデータを読込む(S420a)。たとえば、図8で示したような識別対象となる歯牙の画像がストレージに記憶されており、撮像支援装置は、当該ストレージからパターンマッチングに用いる画像をパターンデータとして読込む。
撮像支援装置は、三次元スキャナ200によって取得された三次元画像と、ストレージから読込んだパターンデータとを比較し、一致する形状があるか否かを判定する(S421a)。たとえば、撮像支援装置は、三次元スキャナ200によって取得された三次元画像と、ストレージから読込んだパターンデータとの正規化相関を演算して形状が一致している否かを判定している。
一致する形状がない場合(S421aでNO)、撮像支援装置は、ストレージなどに予め記憶されているパターンデータの全てのパターンデータを読込み済みか否かを判定する(S422a)。全てのパターンデータを読込み済みでない場合(S422aでNO)、撮像支援装置は、処理をS420aに戻し、別のパターンデータを読込む(S420a)。
一致する形状がある場合(S421aでYES)、撮像支援装置は、一致したパターンデータから取得された三次元画像の歯牙の種類を識別する(S423a)。たとえば、撮像支援装置は、三次元スキャナ200によって取得された三次元画像が、上顎右側の第3大臼歯のパターンデータと形状が一致した場合、取得された三次元画像の歯牙の種類が上顎右側の第3大臼歯であると識別する。
全てのパターンデータを読込み済みの場合(S422aでYES)、一致したパターンデータから歯牙の種類を識別した場合(S423a)、撮像支援装置は、本処理を終了する。なお、図13に示す歯牙の種類を識別する処理は、図9に示す支援処理I、図11に示す支援処理II、および図12に示す支援処理IIIに含まれる歯牙の種類を識別する処理(S42)に適用することが可能である。
以上のように、本実施の形態2に係る撮像支援装置は、口腔内の歯牙の撮像を支援する撮像支援装置である。撮像支援装置は、入力部と、識別部と、特定部と、出力部とを備える。入力部は、口腔内の歯牙を撮像した歯牙画像を入力する。識別部は、入力部によって入力された歯牙画像に基づき、たとえば、AIを用いずにパターンマッチングにより歯牙の種類を識別する。特定部は、識別部によって識別された歯牙の種類に基づいて、撮像支援の対象となる歯牙の種類を特定する。出力部は、所定タイミングにおいて、特定部で特定された歯牙の種類の情報を外部へ出力する。
これにより、撮像支援装置は、識別部によって識別された歯牙の種類に基づいて、撮像支援の対象となる歯牙の種類を特定するので、口腔内のどの歯牙と対応しているのかが容易に認識できる撮像支援の情報をユーザ1に出力することができる。
(変形例)
(a)本実施の形態1~2では、撮像支援装置が、口腔内の歯の三次元形状を取得するための三次元スキャナ(口腔内スキャナ)を支援すると説明した。しかし、当該撮像支援装置が支援する撮像装置は、口腔用の三次元スキャナに限定されるものではなく、同様の構成を有する撮像装置について適用することができる。例えば、口腔内以外に人の耳の内部を撮像して、外耳内の三次元形状を取得することができる三次元スキャナにも適用できる。また、顎・歯列模型の三次元形状を取得できるデスクトップスキャナにも適用できる。
なお、本実施の形態1~2に係る三次元スキャナでは、合焦法の技術を用いて三次元形状を取得する構成以外に、共焦点法、三角測量法、白色干渉法、ステレオ法、フォトグラメトリ法、SLAM法(Simultaneous Localization and Mapping)、光干渉断層法(Optical Coherence Tomography: OCT)などの技術を用いて三次元形状を取得する構成でもよい。
(b)本実施の形態1~2では、撮像支援装置が支援する撮像装置として、例えば、口腔内カメラ、光干渉断層診断装置(Optical Coherence Tomography: OCT)、紫外・赤外・テラヘルツイメージング装置、蛍光イメージング装置などの撮像装置も含まれる。
(c)本実施の形態1~2では、撮像支援装置と三次元スキャナとを接続したスキャナシステムについて説明した。しかし、撮像支援装置は、これに限定されるものではなく、三次元スキャナに撮像支援装置を搭載した構成でも、撮像支援装置がネットワークを介して三次元スキャナに接続された構成でもよい。さらに、撮像支援装置は、複数の三次元スキャナがネットワーク介して接続されるようなクラウドサービスの形態で提供することも可能である。
(d)本実施の形態1~2では、撮像支援装置が、取得した三次元データにおいてデータ量が不足している歯牙の種類を特定し、再スキャン(再測定)する歯牙の種類をユーザに支援情報として提供することを説明した。さらに、撮像支援装置は、データ量が不足する歯牙の種類をユーザに通知して再スキャンが行われた場合に、たとえば、ユーザが頬側と舌側とを間違ってスキャンしたケースでは、その間違いをさらに特定して再通知するようにしてもよい。具体的に、撮像支援装置は、三次元スキャナに設けたモーションセンサからの値に基づいて、通知した内容からあるべき三次元スキャナの傾きとは異なるか否かを判定し、間違っている場合に再通知を行う。
(e)本実施の形態1~2では、撮像支援装置が、取得した三次元データにおいてデータ量が不足している歯牙の種類を特定することで、再スキャン(再測定)する歯牙の種類をユーザに支援情報として提供することを説明した。データ量が不足している歯牙は1つである場合に限られず、複数である場合も考えられる。データ量が不足している歯牙が複数の場合、撮像支援装置は、たとえば不足しているデータ量が多い順に歯牙の種類を通知する。このように、データ量の不足が多い歯牙の種類から順に通知することで、三次元データ全体として利用価値が高いデータとすることができる。
(f)本実施の形態1~2では、撮像支援装置が、取得した三次元データにおいてデータ量が不足している歯牙の種類を特定してユーザに通知することを説明した。しかし、これに限られず、撮像支援装置は、取得した三次元データにおいてデータが重複している歯牙をユーザが三次元スキャナでスキャンしようとした場合に、重複している旨を通知することが考えられる。たとえば、犬歯の三次元データが十分に取得されている場合に、ユーザが犬歯を無駄に三次元スキャナでスキャンしていると、撮像支援装置が、「犬歯のスキャンは不要(十分)です」と通知する。これにより、撮像支援装置は、三次元スキャナのメモリに無駄なデータを記憶させることを抑え、記憶容量の確保、演算の遅延を回避が可能となる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 ユーザ、2 対象者、5 ネットワーク、10 スキャナシステム、100 撮像支援装置、102 スキャナインターフェース、103,503 ディスプレイインターフェース、104 スピーカインターフェース、105,505 周辺機器インターフェース、106,506 ネットワークコントローラ、107,507 メディア読取装置、108 PCディスプレイ、109,509 メモリ、110,510 ストレージ、112,512 スキャン情報、114,514 推定モデル、114a,514a 学習済モデル、116,516 学習用データセット、118,518 色分類データ、119,519 プロファイルデータ、120 識別用プログラム、120a 特定用プログラム、121,521 学習用プログラム、122,522 三次元データ、124,524 識別結果、127,527 OS、130,530 演算装置、200 三次元スキャナ、300,350 ディスプレイ、400 スピーカ、500 サーバ装置、550 リムーバブルディスク、601,651 キーボード、602,652 マウス、1102 入力部、1103 出力部、1119 プロファイル取得部、1130 識別部、1142 ニューラルネットワーク、1144 パラメータ、1150 特定部。

Claims (18)

  1. 三次元スキャナによる口腔内の歯牙の撮像を支援する撮像支援装置であって、
    前記三次元スキャナは、歯牙を撮像することで歯牙の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得するものであり、
    前記口腔内の歯牙を撮像して取得した前記三次元データを入力する入力部と、
    前記入力部によって入力された前記三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワークを含む推定モデルとに基づき、歯牙の種類を識別する識別部と、
    前記識別部によって識別された歯牙の種類に基づいて、撮像支援の対象となる歯牙の種類を特定する特定部と、
    所定タイミングにおいて、前記特定部で特定された歯牙の種類の情報をユーザへ報知する外部装置へ出力する出力部とを備え、
    前記推定モデルに含まれる前記ニューラルネットワークには、前記三次元データのうち少なくとも歯牙の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報が直接入力される、撮像支援装置。
  2. 前記特定部は、前記ユーザが次に撮像を行う必要のある歯牙の種類を特定し、
    前記出力部は、前記ユーザが前記特定部で特定された次に撮像を行う歯牙の種類の情報を前記ユーザへ報知する前記外部装置へ出力する、請求項1に記載の撮像支援装置。
  3. 前記特定部は、前記ユーザが撮像を行う必要のある歯牙の種類として、前記三次元データから得られる情報が所定基準を満たしていない歯牙の種類を特定する、請求項2に記載の撮像支援装置。
  4. 前記特定部は、前記ユーザが撮像を行う必要のある歯牙の種類として、撮像が停止されたタイミングで撮像していた歯牙の種類を特定し、
    前記出力部は、前記ユーザにより撮像が開始されるタイミングの前に前記特定部で特定された歯牙の種類および特定された歯牙と隣接する歯牙の種類のうち少なくとも一方の情報を前記ユーザへ報知する前記外部装置へ出力する、請求項1~請求項3のいずれか1項に記載の撮像支援装置。
  5. 前記停止されたタイミングとは、前記撮像支援装置が撮像停止信号を受信したタイミングである、請求項4に記載の撮像支援装置。
  6. 前記出力部は、前記停止されたタイミングから前記開始されるタイミングまでの所定時間において前記入力部に新たな前記三次元データが入力されない場合に、特定された歯牙の種類の情報を前記ユーザへ報知する前記外部装置へ出力する、請求項4に記載の撮像支援装置。
  7. 前記口腔内を走査して撮像した複数の前記三次元データを繋ぎ合せて歯列弓の画像を形成するスキャン装置を支援する、請求項1~請求項6のいずれか1項に記載の撮像支援装置。
  8. 前記出力部は、所定範囲の前記歯列弓を撮像したタイミングに、前記特定部で特定された歯牙の種類の情報を前記ユーザへ報知する前記外部装置へ出力する、請求項7に記載の撮像支援装置。
  9. 前記所定範囲は、前記歯列弓の1/2、1/3、2/3、1/5、2/5、3/5および4/5近傍のいずれかの画像を形成することができる範囲である、請求項8に記載の撮像支援装置。
  10. 前記出力部は、所定の数の歯牙を撮像したタイミングで、前記特定部で特定された歯牙の種類の情報を前記ユーザへ報知する前記外部装置へ出力する、請求項7に記載の撮像支援装置。
  11. 前記特定部は、前記入力部から入力された前記三次元データのうち不足している情報がある歯牙の種類を特定する、請求項7~請求項10のいずれか1項に記載の撮像支援装置。
  12. 前記特定部は、複数の前記三次元データの間で重複している歯牙の種類を繋ぎ合せに用いる歯牙の種類として特定する、請求項7~請求項10のいずれか1項に記載の撮像支援装置。
  13. 前記推定モデルは、歯牙の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む前記三次元データに関連付けられた歯牙の種類に対応する歯牙情報と、前記三次元データを用いた当該歯牙の種類の識別結果とに基づき学習されたものである、請求項1~請求項12のいずれか1項に記載の撮像支援装置。
  14. 前記入力部には、複数の歯牙を含む前記三次元データが入力され、
    前記識別部は、前記三次元データに対応する複数の歯牙のそれぞれの特徴に基づき、当該複数の歯牙のそれぞれの種類を識別する、請求項13に記載の撮像支援装置。
  15. 前記推定モデルは、前記歯牙情報および前記識別部による識別結果に加えて、歯牙を有する対象者に関する属性情報に基づき、学習される、請求項13または請求項14に記載の撮像支援装置。
  16. 前記属性情報は、前記対象者の年齢、性別、人種、身長、体重、および居住地のうちの少なくともいずれか1つの情報を含む、請求項15に記載の撮像支援装置。
  17. 歯牙の形状情報を取得するスキャナシステムであって、
    三次元カメラを用いて歯牙を撮像することで歯牙の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得する三次元スキャナと、
    前記三次元スキャナによって取得された前記三次元データに基づき当該歯牙の種類を識別し、認識した歯牙の種類を報知する撮像支援装置とを備え、
    前記撮像支援装置は、
    口腔内の歯牙を撮像して取得した前記三次元データを入力する入力部と、
    前記入力部によって入力された前記三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワークを含む推定モデルとに基づき、歯牙の種類を識別する識別部と、
    前記識別部によって識別された歯牙の種類に基づいて、撮像対象となる歯牙の種類を特定する特定部と、
    所定タイミングにおいて、前記特定部で特定された歯牙の種類の情報をユーザへ報知する外部装置へ出力する出力部とを含み、
    前記推定モデルに含まれる前記ニューラルネットワークには、前記三次元データのうち少なくとも歯牙の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報が直接入力される、スキャナシステム。
  18. 三次元スキャナによる口腔内の歯牙の撮像を支援する撮像支援方法であって、
    前記三次元スキャナは、歯牙を撮像することで歯牙の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得するものであり、
    前記口腔内の歯牙を撮像して取得した前記三次元データを入力するステップと、
    入力された前記三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワークを含む推定モデルとに基づき、歯牙の種類を識別するステップと、
    識別された歯牙の種類に基づいて、撮像対象となる歯牙の種類を特定するステップと、
    所定タイミングにおいて、特定された歯牙の種類の情報をユーザへ報知する外部装置へ出力するステップとを含み、
    前記推定モデルに含まれる前記ニューラルネットワークには、前記三次元データのうち少なくとも歯牙の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報が直接入力される、撮像支援方法。
JP2019001021A 2019-01-08 2019-01-08 撮像支援装置、スキャナシステム、および撮像支援方法 Active JP7220569B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019001021A JP7220569B2 (ja) 2019-01-08 2019-01-08 撮像支援装置、スキャナシステム、および撮像支援方法
US17/421,235 US20220117480A1 (en) 2019-01-08 2020-01-06 Imaging support device, scanner system, and imaging support method
PCT/JP2020/000034 WO2020145225A1 (ja) 2019-01-08 2020-01-06 撮像支援装置、スキャナシステム、および撮像支援方法
EP20738722.6A EP3909546A4 (en) 2019-01-08 2020-01-06 IMAGE CAPTURE SUPPORT DEVICE, SCANNER SYSTEM AND IMAGE CAPTURE SUPPORT METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019001021A JP7220569B2 (ja) 2019-01-08 2019-01-08 撮像支援装置、スキャナシステム、および撮像支援方法

Publications (2)

Publication Number Publication Date
JP2020110215A JP2020110215A (ja) 2020-07-27
JP7220569B2 true JP7220569B2 (ja) 2023-02-10

Family

ID=71521209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019001021A Active JP7220569B2 (ja) 2019-01-08 2019-01-08 撮像支援装置、スキャナシステム、および撮像支援方法

Country Status (4)

Country Link
US (1) US20220117480A1 (ja)
EP (1) EP3909546A4 (ja)
JP (1) JP7220569B2 (ja)
WO (1) WO2020145225A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI712396B (zh) * 2020-01-16 2020-12-11 中國醫藥大學 口腔缺陷模型之修補方法及口腔缺陷模型之修補系統
US20210321872A1 (en) * 2020-04-15 2021-10-21 Align Technology, Inc. Smart scanning for intraoral scanners
US11423697B1 (en) * 2021-08-12 2022-08-23 Sdc U.S. Smilepay Spv Machine learning architecture for imaging protocol detector
JP7414210B2 (ja) 2021-10-08 2024-01-16 朝日レントゲン工業株式会社 歯牙年齢算定装置及び歯牙年齢算定プログラム
JP7469351B2 (ja) * 2022-03-25 2024-04-16 株式会社モリタ製作所 識別装置、識別方法、および識別プログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009517144A (ja) 2005-11-30 2009-04-30 3シェイプ アー/エス 歯の修復物の製作のための印象スキャニング
JP2009523552A (ja) 2006-01-20 2009-06-25 スリーエム イノベイティブ プロパティズ カンパニー 三次元データ取得の視覚化
JP2011212234A (ja) 2010-03-31 2011-10-27 Olympus Corp 歯科画像処理装置、歯科用測色装置、歯科画像処理方法および歯科画像処理プログラム
JP2012245064A (ja) 2011-05-25 2012-12-13 Olympus Corp 歯牙観察装置、歯牙観察方法および歯牙観察プログラム
WO2016143022A1 (ja) 2015-03-09 2016-09-15 富士通株式会社 歯冠情報取得プログラム、情報処理装置、及び歯冠情報取得方法
WO2017111116A1 (ja) 2015-12-24 2017-06-29 株式会社モリタ製作所 三次元計測方法及び三次元計測装置
JP2017521113A (ja) 2014-05-07 2017-08-03 アライン テクノロジー, インコーポレイテッド 口内走査中の関心領域の識別
JP2017213060A (ja) 2016-05-30 2017-12-07 富士通株式会社 歯の種類判定プログラム、歯冠位置判定装置及びその方法
WO2018167530A1 (en) 2017-03-17 2018-09-20 Trophy Dynamic dental arch map

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10695150B2 (en) * 2016-12-16 2020-06-30 Align Technology, Inc. Augmented reality enhancements for intraoral scanning
JP6650996B1 (ja) * 2018-12-17 2020-02-19 株式会社モリタ製作所 識別装置、スキャナシステム、識別方法、および識別用プログラム
JP6936826B2 (ja) * 2019-03-18 2021-09-22 株式会社モリタ製作所 画像処理装置、表示システム、画像処理方法、および画像処理プログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009517144A (ja) 2005-11-30 2009-04-30 3シェイプ アー/エス 歯の修復物の製作のための印象スキャニング
JP2009523552A (ja) 2006-01-20 2009-06-25 スリーエム イノベイティブ プロパティズ カンパニー 三次元データ取得の視覚化
JP2011212234A (ja) 2010-03-31 2011-10-27 Olympus Corp 歯科画像処理装置、歯科用測色装置、歯科画像処理方法および歯科画像処理プログラム
JP2012245064A (ja) 2011-05-25 2012-12-13 Olympus Corp 歯牙観察装置、歯牙観察方法および歯牙観察プログラム
JP2017521113A (ja) 2014-05-07 2017-08-03 アライン テクノロジー, インコーポレイテッド 口内走査中の関心領域の識別
WO2016143022A1 (ja) 2015-03-09 2016-09-15 富士通株式会社 歯冠情報取得プログラム、情報処理装置、及び歯冠情報取得方法
WO2017111116A1 (ja) 2015-12-24 2017-06-29 株式会社モリタ製作所 三次元計測方法及び三次元計測装置
JP2017213060A (ja) 2016-05-30 2017-12-07 富士通株式会社 歯の種類判定プログラム、歯冠位置判定装置及びその方法
WO2018167530A1 (en) 2017-03-17 2018-09-20 Trophy Dynamic dental arch map

Also Published As

Publication number Publication date
JP2020110215A (ja) 2020-07-27
WO2020145225A1 (ja) 2020-07-16
EP3909546A4 (en) 2022-09-21
EP3909546A1 (en) 2021-11-17
US20220117480A1 (en) 2022-04-21

Similar Documents

Publication Publication Date Title
JP7220569B2 (ja) 撮像支援装置、スキャナシステム、および撮像支援方法
JP6650996B1 (ja) 識別装置、スキャナシステム、識別方法、および識別用プログラム
JP5671734B2 (ja) 顔面解析を用いた特注歯セットアップのコンピュータ支援作成
EP3970660A1 (en) Historical scan reference for intraoral scans
JP6936826B2 (ja) 画像処理装置、表示システム、画像処理方法、および画像処理プログラム
JP6831433B2 (ja) 識別装置、歯牙種類識別システム、識別方法、および識別用プログラム
JP6831432B2 (ja) 識別装置、歯牙種類識別システム、識別方法、および識別用プログラム
JP2023099629A (ja) 識別装置、スキャナシステム、識別方法、および識別用プログラム
JP7227188B2 (ja) 識別装置、識別システム、識別方法、および識別用プログラム
JP6900445B2 (ja) 識別装置、歯牙種類識別システム、識別方法、および識別用プログラム
JP7398512B2 (ja) データ生成装置、スキャナシステム、データ生成方法、およびデータ生成用プログラム
JP6831431B2 (ja) 識別装置、歯牙種類識別システム、識別方法、および識別用プログラム
JP6925613B2 (ja) 部分床義歯設計支援装置および部分床義歯設計支援プログラム
JP2020191005A (ja) データ生成装置、スキャナシステム、データ生成方法、およびデータ生成用プログラム
JP7195291B2 (ja) データ処理装置、データ処理システム、データ処理方法、およびデータ処理用プログラム
JP7265359B2 (ja) データ生成装置、スキャナシステム、データ生成方法、およびデータ生成用プログラム
JP7267974B2 (ja) 識別装置、スキャナシステム、識別方法、および識別用プログラム
JP7195466B2 (ja) データ生成装置、スキャナシステム、データ生成方法、およびデータ生成用プログラム
JP2022127947A (ja) 口腔内カメラシステム及び歯牙列モデル生成方法
KR20240013207A (ko) 덴탈 아치의 모델을 취득하기 위한 방법
JP2023143585A (ja) データ処理装置、データ処理方法、およびデータ処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230131

R150 Certificate of patent or registration of utility model

Ref document number: 7220569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150