JP2020502717A - 撮像データを使用するインプラント識別の方法及びそのためのシステム - Google Patents
撮像データを使用するインプラント識別の方法及びそのためのシステム Download PDFInfo
- Publication number
- JP2020502717A JP2020502717A JP2019554490A JP2019554490A JP2020502717A JP 2020502717 A JP2020502717 A JP 2020502717A JP 2019554490 A JP2019554490 A JP 2019554490A JP 2019554490 A JP2019554490 A JP 2019554490A JP 2020502717 A JP2020502717 A JP 2020502717A
- Authority
- JP
- Japan
- Prior art keywords
- component
- components
- imaging data
- image
- attached
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 119
- 238000000034 method Methods 0.000 title claims abstract description 64
- 239000007943 implant Substances 0.000 title description 43
- 238000012545 processing Methods 0.000 claims abstract description 16
- 230000008569 process Effects 0.000 claims description 28
- 238000010801 machine learning Methods 0.000 claims description 7
- 230000005855 radiation Effects 0.000 claims description 6
- 239000000284 extract Substances 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 abstract description 4
- 239000004053 dental implant Substances 0.000 description 27
- 238000003860 storage Methods 0.000 description 26
- 238000004891 communication Methods 0.000 description 19
- 238000000605 extraction Methods 0.000 description 10
- 238000005352 clarification Methods 0.000 description 6
- 210000000988 bone and bone Anatomy 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000003826 tablet Substances 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000007408 cone-beam computed tomography Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- -1 etc. Substances 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 235000013372 meat Nutrition 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012916 structural analysis Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/51—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C8/00—Means to be fixed to the jaw-bone for consolidating natural teeth or for fixing dental prostheses thereon; Dental implants; Implanting tools
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/242—Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Epidemiology (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Quality & Reliability (AREA)
- Biomedical Technology (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Image Analysis (AREA)
- Dental Prosthetics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
実施形態は、取り付けられた構成要素を識別するように撮像データを処理するためのシステム及び方法を含む技術を提供する。実施形態は、取り付けられた構成要素を含む撮像データを受信し、撮像データから取り付けられた構成要素の特徴を抽出し、これらの特徴に照合する照合基準構成要素に関して構成要素のデータストアを検索するように構成された構成要素識別システムを含む。画像と複数の基準構成要素の各々の構成要素モデル内の複数の基準画像との間の類似度に基づいて、基準構成要素の各々に対して関連度スコアを決定することができる。少なくとも1つの照合する基準構成要素は、各関連度スコアを閾値関連度スコアと比較することによって識別することができ、照合する構成要素情報は、各照合する基準構成要素に関してエンドユーザに提供することができる。【選択図】 図1A
Description
〔関連出願への相互参照〕
この出願は、引用によって本明細書にその全体が組み込まれている2016年12月19日出願の「撮像データを使用するインプラント識別の方法及びそのためのシステム(METHODS AND SYSTEMS FOR IMPLANT IDENTIFICATION USING IMAGING DATA)」という名称の米国仮特許出願第62/436,324号に対する優先権及びその利益を主張するPCT出願である。
この出願は、引用によって本明細書にその全体が組み込まれている2016年12月19日出願の「撮像データを使用するインプラント識別の方法及びそのためのシステム(METHODS AND SYSTEMS FOR IMPLANT IDENTIFICATION USING IMAGING DATA)」という名称の米国仮特許出願第62/436,324号に対する優先権及びその利益を主張するPCT出願である。
歯科インプラントをX線から識別することは、インプラントが患者に取り付けられる時に捕捉することができるインプラントの限られた視点に起因して困難である可能性がある。歯科インプラントの2次元放射線画像を撮影することはができるが、インプラントを識別することを可能にする際立った特徴は、捕捉されない場合があり、又は患者に取り付けられたインプラントの正しい向きを確実に捕捉するのは困難であり、非効率的であり、かつ手間がかかる場合がある。従って、多くの場合に、明確な照合を行うことができず、一部の事例ではインプラントを首尾良く識別することができない。
本発明の開示による様々な実施形態を以下に図面を参照して説明する。
以下の説明では様々な実施形態を説明する。説明目的で、これらの実施形態の完全な理解をもたらすために特定の構成及び詳細を示す。しかし、これらの実施形態は、特定の詳細を用いずに実施することができることは当業者に同じく明らかであろう。更に、説明する実施形態を不明瞭にしないために公知の特徴を省略又は簡略化する場合がある。
図1〜図8に例示して本明細書で更に詳しく説明するように、実施形態は、取り付けられた構成要素を含む撮像データを画像に捕捉された対応する構成要素を識別するように処理するためのシステム及び方法を含む技術を提供する。実施形態は、取り付けられた構成要素を含む撮像データを受信し、撮像データから取り付けられた構成要素の特徴を抽出し、かつこれらの特徴に照合する照合基準構成要素に関して構成要素のデータストアを検索するように構成された構成要素識別システムを含む。画像と複数の基準構成要素の各々の構成要素モデル内の複数の基準画像との間の類似度に基づいて基準構成要素の各々に対して関連度スコアを決定することができる。各関連度スコアを閾値関連度スコアと比較することによって少なくとも1つの照合する基準構成要素を識別することができ、各照合する基準構成要素に関して照合する構成要素情報をエンドユーザに提供することができる。
従って、実施形態は、取り付けられたインプラントの効率的な捕捉及び識別を可能にするために画像特徴抽出と画像照合を使用する。一部の実施形態は、様々な角度及び向きでインプラントを捕捉する撮像データを使用して取り付けられた構成要素を照合するために使用することができる構成要素モデルを使用することができる。従って、あらゆる角度設定で撮影された歯科インプラントの2次元画像を識別することができ、取り付けられたインプラントのより容易な撮像捕捉、患者を放射線に露出するX線の回数の減少、並びに照合インプラントを識別する外科医又は他のサービスプロバイダによる時間の節約をもたらす。構成要素モデルは、製造業者から提供されるものとすることができ、及び/又は過去に分類された様々なインプラント画像を使用して生成することができる。従って、撮像ベースの構成要素モデルを使用して、撮像データからの構成要素は、他には識別及び/又は区別することが困難である場合がある広範囲な向きから迅速かつ効率的に識別することができる。
更に、撮像モデルの比較を撮像データから抽出された特徴に照合する基準構成要素に制限することにより、実施形態は、照合する構成要素を識別するために消費されるシステムリソースの量を制限するより効率的で高速の比較処理を提供する。画像比較処理は大量の時間及びリソースを費やす。すなわち、撮像データにマップされる及び/又はそれと比較される構成要素モデルの個数を制限することにより、システムは、撮像データから構成要素をより効率的に識別することができる。従って、システムは、マップする前及び/又は構成要素モデルに対する画像比較を実施する前に、取り付けられた構成要素への潜在的な一致とすることができる基準構成要素を撮像データから識別する。それによってシステムリソースが節約され、構成要素識別処理の速度が増大する。
歯科インプラントは、様々な異なる形状及びサイズで販売されており、その特定の設計、インプラントの目的、製造日、材料等に依存してインプラントに関する様々な異なる特徴を有する。例えば、図1A〜図1Dは、2つの異なる歯科インプラント構成要素の異なる向きを示している。図1A〜図1Dに見ることができるように、構成要素は、様々な異なる幅、長さ、形状、設計、及び他の特徴を含む。例えば、様々な異なる形状及びサイズの歯科ハードウエアを作っている400社よりも多い歯科インプラント企業が存在する。これらの異なるタイプの歯科ハードウエアは、構成要素の長さ、構成要素の幅、構成要素のインタフェースのタイプ、構成要素のフランジのタイプ、構成要素の冠状端部上でマイクロスレッドの存在、構成要素の冠状端部上のカラーの存在、構成要素の本体の先細部のタイプ、構成要素の本体上のスレッドの存在、構成要素の本体上のスレッドのタイプ、構成要素の本体内の溝の存在、構成要素の先端部の形状、構成要素の開口先端部の存在、構成要素の本体の形状、構成要素の先端部内の開口の形状、構成要素の先端部内のチャンバの存在、及び構成要素の先端部内での溝の存在のような異なる特徴を含むことができる。図1A及び図1Bは、異なる向きからの第1の種類の歯科インプラントの異なる視野を示している。図1C〜図1Dは、図1A及び図1Bと同じ2つの向きからの第2の種類の歯科インプラントの異なる視野を示している。図1A及び図1Bは、基準構成要素モデルの2つの異なる向きしか示していないが、完全な基準構成要素モデルは、歯科インプラントのあらゆる可能な視点、仰角、及び視野を示すより多くの向きの視点を有することができる。更に、図1A〜図1Dには示していないが、インプラントの内部特徴を基準構成要素モデル内に更に組み込むことができるように、歯科ハードウエアの内部機構及び構成要素を異なる向きに示すことができる。更に、図1A〜図1Dは基準構成要素の視野を示すが、他の実施形態では、これらの視野は、基準構成要素の放射線画像とすることができる。一部の実施形態では、これらの基準画像は、取り付けられた構成要素とすることができ、他の実施形態では非取り付け構成要素又は独立構成要素のものとすることができる。
例えば、図1A及び図1Bに示すように、歯科インプラント構成要素の複数の視野100A及び100Bが示されている。歯科インプラント構成要素は、インタフェース102及びフランジ104を含む冠状端部110A及び110Bと、スレッド106を含む本体中央部分120A、120Bと、先端部130A、130Bとを含むことができる。歯科インプラント構成要素は、冠状端部110Aにインタフェース102を含むことができる。同じく図1C及び図1Dに示すように、異なる歯科インプラント構成要素の複数の視野100C及び100Dが示されている。歯科インプラント構成要素は、インタフェース102及びフランジ104を含む冠状端部110C及び110Dと、スレッド106を含む本体中央部分120C、120Dと、先端部130C、130Dとを含むことができる。
実際に、市販の様々な異なるインプラントに起因して、放射線画像(例えば、X線画像又は「X線」)から特定のインプラント(構成要素とも呼ぶ)を識別するのは困難である場合がある。例えば、図2A〜図2D及び図3は、本発明の実施形態による複数の向きからの取り付けられた構成要素の例示的X線撮像データを示している。更に、際立った特徴を示すための又はそのような歯科インプラントの好ましい視野を照合するための正しい角度からの放射線画像を取得するのは困難である場合がある。例えば、図2A〜図2D及び図3から分るように、放射線画像内に示す取り付けられた構成要素の向きは、図1A〜図1Dの基準構成要素と同じではない。それにより、基準構成要素の画像と、取り付けられた構成要素の画像又はこれらの構成要素の異なる向きの視点の画像との間で照合する特徴を識別する際に問題をもたらす場合がある。
従って、実施形態は、構成要素特徴のデータストアと、構成要素の基準画像と、基準構成要素モデルと、取り付けられたインプラントに照合する適切な構成要素を識別するための画像の処理及び比較の機能とを使用して構成要素を識別することができるシステムを提供することに関する。歯科インプラントを構成要素モデルにマップすることができるインプラントスレッド、溝、プラットフォーム、及び先端上の部位固有のマーカを使用して3次元構造解析結果及び歯科インプラントの撮像をデータストアのために収集することができる。構成要素モデルは、特徴の比較に向けて受信された画像データへの基準構成要素の可能な最も近い照合を示すために様々な異なる向きからの数百枚又は数千枚の異なる基準構成要素画像を含むことができる。2次元放射線画像を解析し、いずれかの垂直位置及び水平位置での特定のマーカを特定のタイプ及び製造業者の歯科インプラントに相関付けるために画像特徴抽出を使用することができる。
図2A〜図2Dは、本発明の実施形態による識別のための異なる取り付けられた構成要素208を示す異なる向き200A〜200Dからの例示的画像を示している。図2A及び図2Bに示すように、取り付けられた歯科インプラント構成要素208は、骨及び/又は歯根206内に取り付けられたものとして複数の向き、例えば、角度から見ることができる。図2A及び図2Bの放射線画像は、各々が歯牙202及び歯科修復部204を含む様々な要素を含む可能性がある異なる環境内の異なる取り付けられた構成要素を示している。図示のように、異なる視野からのこれらの要素は、取り付けられた構成要素の識別を困難にする場合があり、及び/又はそのような構成要素の識別を妨害する場合がある。解説するように、本発明の実施形態は、取り付けられた時の歯科インプラント208を識別するように構成される。例えば、図2C及び図2Dに示すように、異なる放射線画像内で同じインプラント210を2つの異なる向きから撮像することができる。
図3は、本発明の実施形態による複数の取り付けられた構成要素308A〜308Cを示す例示的放射線画像300を示している。上述した図2の撮像データと同様に、図3の撮像データは、患者の口腔の放射線画像を含むことができる。この放射線画像は、骨306及び歯牙302を3つの異なる歯牙302内に取り付けられた第1のインプラント308A、第2のインプラント308A、及び第3のインプラント308A(すなわち、取り付けられた構成要素)と共に含む。
図4は、本発明の実施形態によるインプラント識別システムの例示的ブロック図である。図4は、診断機械410と、エンドユーザコンピュータデバイス412と、構成要素識別システム420と、構成要素製造業者コンピュータデバイス430とを含む環境400の例である。これらの様々なデバイスは、有線又は無線とすることができる1又は2以上の通信ネットワーク(図示せず)を通して通信するように構成することができ、あらゆる適切な通信プロトコルを使用することができる。
診断機械410は、取り付けられた構成要素の撮像データを取得するように構成されたあらゆる機械を含むことができる。例えば、診断機械は、患者の口腔(又は他の部位)内の取り付けられた構成要素の2次元放射線画像を生成するX線機械を含むことができる。診断機械は、放射線画像撮像データを取得するように構成された画像捕捉デバイス411を含むことができる。画像捕捉構成要素411は、人間の目に対して視認不能である可能性がある取り付けられた構成要素及び/又は取り付けられたインプラントを識別するためのあらゆる技術を実施することができる。例えば、画像捕捉モジュール411は、例えば、X線撮像、パノラマ放射線撮像、磁気共鳴撮像(MRI)走査、コンピュータ体軸断層撮影(CAT)走査、円錐ビームコンピュータ断層撮影(CBCT)走査などを含む画像を取得するための放射線撮像技術を実施することができる。撮像データ413は、撮像方法によって捕捉された全ての内部構造の少なくとも1つの重ね合わせ2D表現を含むことができる。従って、人間の目に基づいて視認不能な内部構造を示す2次元撮像データをこの撮像データによって捕捉することができる。放射線撮像データが得られると、撮像データ413をエンドユーザコンピュータデバイス412に通信することができる。
エンドユーザコンピュータデバイス412は、医者、外科医、病院、及び/又はこれらの画像から構成要素を識別することに関心を有する可能性がある他のプロバイダに関連付けることができる。エンドユーザコンピュータデバイス410は、取り付けられた構成要素の撮像データを取得し、1又は2以上の通信ネットワーク上でこれらの撮像データを通信し、1又は2以上の通信ネットワーク上で構成要素識別結果を受信するように構成されたあらゆるデバイスを含むことができる。例えば、エンドユーザコンピュータデバイスは、1又は2以上のプロバイダに関連付けることができるデスクトップ、ラップトップ、スマート電話、タブレット、スマート腕時計、VRヘッドセット、デジタル眼鏡、及び/又はあらゆる他の適切なデバイスを含むことができる。一部の実施形態では、エンドユーザコンピュータデバイスは、取り付けられた構成要素の撮像データを診断機械410から取得するように構成することができる。例えば、撮像データは、患者の身体の一部分の放射線画像を含むことができる。撮像データ413は、画像捕捉構成要素411を使用して撮像データを取得するように構成された診断機械410から取得することができる。一部の実施形態では、エンドユーザコンピュータデバイス412は、診断機械410の一部とすることができ、及び/又は診断機械によって捕捉された撮像データを受信する個々のコンピュータとすることができる。エンドユーザコンピュータデバイス412は、撮像データ413を送信し、かつ撮像データを提出するのに応答して1又は2以上の照合する構成要素に関する構成要素情報を受信するように、構成要素識別システム420と通信するように構成される。
構成要素識別システム420は、取り付けられた構成要素を含む撮像データをエンドユーザコンピュータデバイスから受信し、撮像データに関連付けられた取り付けられた構成要素を識別し、かつ構成要素情報をエンドユーザコンピュータデバイスに提供するように構成されたあらゆるコンピュータシステムを含むことができる。構成要素識別システム420は、画像方位識別モジュール421と、画像特徴抽出モジュール422と、特徴比較モジュール423と、構成要素照合モジュール424、構成要素明確化モジュール425と、構成要素モデル決定モジュール426とを含むことができる。
画像方位識別モジュール421は、撮像データを受信して取り付けられた構成要素の方位を識別するように撮像データを処理するように構成することができる。例えば、歯科インプラントでは、向きに関連付けられた基準点を撮像データに対する歯科インプラントの向きとして定めることができる。例えば、z軸は、インプラントの深度方向に沿うとすることができ、x軸及びy軸は、歯科インプラントのz軸に沿ういずれかの水平方向の歯科インプラントの幅とすることができる。これに代えて及び/又はこれに加えて、一部の実施形態では、向きは、患者に関連付けられた基準点に従って定めることができる。例えば、向きは、識別しようと試みる構成要素の各タイプに対して定められた基準平面に従って定めることができる。例えば、識別される構成要素のタイプが歯科インプラントである場合に、予め決められた基準平面を顎の中心点に従って定めることができる。従って、撮像データの向きを顎の中心点と放射線画像の視点の間の差に従ってx軸、y軸、及びz軸上で定めることができる。基準平面及び対応する決定された向きが様々な基準画像及び構成要素モデルを通して確実に定められる限り、基準x軸、y軸、及びz軸に対してあらゆる適切な定められた向きを使用することができる。画像方位識別モジュール421は、画像比較及び特徴比較を可能にするために撮像データ(画像とも呼ぶ)が得られた向き及び基準フレームを識別し、方位情報を使用して画像を処理し、かつ画像を基準平面に対して正規化する。一部の実施形態では、画像方位識別モジュールは、取り付けられた構成要素の向きが識別された後に撮像データを正規化するように構成することができる。そのような実施形態では、画像照合処理は、正規化された基準画像を使用して画像を比較及び照合することができる。他の実施形態では、撮像データを基準方位に対して正規化することなく、識別された向きを使用することができ、画像照合処理を実施することができる。一部の実施形態では、画像方位情報は、下記でより詳細に説明するように迅速性及びシステムリソースの効率的な使用を改善するために、後に比較を行って類似度スコアを計算するのに使用される画像の枚数を制限するために使用することができる。例えば、決定された方位情報を使用して、各構成要素モデル内の複数の基準画像の部分集合及び/又は全ての基準構成要素に対して格納された基準画像の基準セットを識別及び/又は選択することができる。従って、より少ない画像を解析することしか必要とされず、より効率的な画像比較処理がもたらされる。
画像特徴抽出モジュール422は、取り付けられた構成要素に関連付けられた複数の特徴を識別するように撮像データを処理するように構成することができる。一部の実施形態では、画像特徴抽出モジュール422は、画像処理技術を使用して撮像データ内の取り付けられた構成要素を識別し、取り付けられた構成要素に関連付けられた様々なサイズ、長さ、形状、及び/又は他の特徴を測定するように構成することができる。例えば、画像特徴抽出モジュール422は、画像内で取り付けられた構成要素に対応する輝度コントラストを見つけることによって画像内の取り付けられた構成要素を識別することができる。図2A〜図2Dに示すように、取り付けられた構成要素は、背景、並びに放射線画像内に表されている骨及び他の組織よりも有意に明るい。一部の実施形態では、画像を通して画像ベクトルマップを定めることができ、このベクトルマップ情報を使用して取り付けられた構成要素に関連付けられた特定の特徴を識別及び抽出することができる。例えば、構成要素のインプラントスレッド、溝、プラットフォーム、及び先端上の部位固有のマーカは、識別して画像内の取り付けられた構成要素に関連付けられた特徴を測定するのに使用することができる。
一部の実施形態では、画像特徴抽出モジュール422は、構成要素の長さ、構成要素の幅、構成要素のインタフェースのタイプ、構成要素のフランジのタイプ、構成要素の冠状端部上のマイクロスレッドの存在、構成要素の冠状端部上のカラーの存在、構成要素の本体の先細部のタイプ、構成要素の本体上のスレッドの存在、構成要素の本体上のスレッドのタイプ、構成要素の本体内の溝の存在、構成要素の先端部の形状、構成要素の開口先端部の存在、構成要素の本体の形状、構成要素の先端部内の開口の形状、構成要素の先端部内のチャンバの存在、及び構成要素の先端部内の溝の存在を含む取り付けられた構成要素の特徴を識別するように構成することができる。更に、画像内の取り付けられた構成要素の個数、構成要素が取り付けられた基質及び肉内の深度、構成要素が取り付けられた筋肉組織のタイプ及び/又は部位に関する情報、構成要素が取り付けられた生物学的エンティティのタイプ(例えば、人間、動物、動物のタイプのような)に関する情報、生物学的エンティティの年齢に関する情報、及び/又は画像から収集することができるあらゆる他の情報を含む追加の情報を画像特徴抽出モジュール422によって識別することができる。
特徴比較モジュール423は、複数の登録された基準構成要素から上述の複数の特徴に関連付けられた複数の基準構成要素を識別するように構成することができる。特徴比較モジュール423は、画像特徴抽出モジュール422によって抽出された特徴を取得し、画像から抽出された特徴のうちの1又は2以上に照合する構成要素に関して複数の基準構成要素に関連付けられた特徴のデータストアを検索することができる。従って、特徴抽出モジュール423は、画像から抽出された特徴に関連付けられた可能性がある1又は2以上の構成要素のリストを取得することができる。例えば、特徴比較モジュール423は、取り付けられた構成要素に関連付けられた特徴のリストを取得することができ、これらの特徴を有する構成要素に関して構成要素特徴データセットを検索することができる。例えば、画像から抽出される特徴のリストは、44〜46mmの長さ、4〜8mmの幅、平坦な先端、及びスレッド付き本体を有する構成要素を含むことができる。特徴比較モジュールは、5つの構成要素がこれらの照合特徴を有すると決定することができ、これらの特徴に関連付けられた識別子を戻すことができる。
構成要素照合モジュール424は、画像と抽出された特徴に関連付けられた基準構成要素との間の類似度を識別するように構成することができる。構成要素照合モジュール424は、画像に照合する構成要素を識別するためにあらゆる数の異なる比較技術を使用することができる。例えば、構成要素照合モジュール424は、識別された特徴に照合するものとして識別された基準構成要素の各々に対して関連度スコアを生成し、この関連度スコアを使用して最も可能性が高い及び/又は取り付けられた構成要素に最も照合する基準構成要素を識別することができる。一部の実施形態では、構成要素照合モジュール424は、戻された構成要素の各々に対する関連度スコアを決定するために、画像と複数の基準構成要素の各々の構成要素モデル内の複数の基準画像との間の類似度に基づいて画像比較を実施することができる。例えば、一部の実施形態では、構成要素照合モジュール424は、撮像データから抽出された特徴を各基準構成要素の3次元マップと比較して、構成要素モデルへの取り付けられた構成要素の適合度を識別することができる。関連度スコアは、この「適合度」又は抽出された特徴と構成要素モデルからの構成要素の3次元マップとの間の差に基づいて決定することができる。一部の実施形態では、3次元マップは、異なる向き及び距離から撮影される構成要素の様々な2次元基準画像を含むことができる。そのような実施形態では、関連度スコアは、画像から識別された特徴と構成要素モデルに関連付けられた複数の基準画像のうちの1又は2以上との間の差を比較することによって同様に決定することができる。
これに加えて及び/又はこれに代えて、一部の実施形態では、構成要素照合モジュール424は、複数の基準構成要素の各々に関して画像を構成要素モデル内の複数の基準画像の各々と比較し、複数の基準構成要素の各々に関して構成要素モデル内の複数の基準画像のうちで最も近い照合する基準画像を識別することによって関連度スコアを決定することができる。従って、構成要素照合モジュール424は、画像照合を使用して、基準構成要素の複数の基準画像から取り付けられたインプラントの向き、配置、及び/又は角度に適合する複数の基準画像のうちの1つを識別することができる。構成要素照合モジュール424は、撮像データの一部分のみ(例えば、取り付けられた構成要素)を基準画像の一部分(例えば、基準画像内の基準構成要素)に対して比較することができる。一部の実施形態では、構成要素照合モジュール424は、最も近い照合する基準画像を決定するのに画像の全体及び/又は複数の部分を比較することができる。
最も近い照合画像が決定された状態で、構成要素照合モジュール424は、撮像データ内の取り付けられた構成要素と複数の基準構成要素の各々に関する最も近い照合する基準画像内の基準構成要素との間の類似度メトリックを計算することができる。従って、構成要素照合モジュール424は、現在の撮像データに最も類似する向き及び配置を有する基準画像を識別し、この最も近い照合する基準画像を使用して取り付けられた構成要素と基準構成要素間の類似度を識別することができる。取り付けられた構成要素から基準画像の基準構成要素への着目点のマッピング、比較される特徴の識別、及び/又はあらゆる他の適切な方法を含む類似度メトリックを計算するあらゆる適切な方法を使用することができる。
これに加えて及び/又はこれに代えて、一部の実施形態では、構成要素照合モジュール424は、画像と分類された基準画像の間の画像類似度に基づいて適切な構成要素を識別するのに、コンピュータ学習アルゴリズムと分類された基準画像の基準セットとを使用して構成要素分類器アルゴリズムを訓練することができる。従って、一部の実施形態では、構成要素照合モジュール424は、訓練された構成要素分類器アルゴリズムを使用して、画像内の取り付けられた構成要素のサイズ及び形状に基づいて画像を分類することができる。構成要素照合モジュール424は、構成要素分類器アルゴリズムに関する結果に基づいて基準構成要素の各々に対する関連度スコアを決定することができ、構成要素分類器アルゴリズムは、特徴に関連付けられた基準構成要素の各々に対する適合度及び/又は適合スコアを提供するように構成することができる。
基準構成要素の各々に対して関連度スコアが計算された状態で、構成要素照合モジュール424は、各関連度スコアを閾値関連度スコアと比較して、可能性が高い一致を示す関連度スコアを識別することができる。一部の画像では、画像の向きと対応する取り付けられた構成要素とは区別可能な特徴を識別するのが困難である場合があるという理由で特定の構成要素を識別することが困難である場合がある。従って、一部の実施形態では、複数の構成要素が、画像照合に基づく比較的高い関連度スコアを有する場合がある。すなわち、構成要素照合モジュール424は、関連度スコアの各々を閾値関連度スコアと比較し、一致ではない可能性が高い(関連度スコアが閾値よりも小さい)構成要素に対して一致である高い可能性を有する(関連度スコアが閾値よりも大きい)構成要素を識別することができる。例えば、画像照合に基づいて、5つの構成要素が画像に照合する特徴を有していたが、2つしか閾値関連度スコアよりも大きい関連度スコアを持たない場合がある。従って、構成要素照合モジュール424は、照合する基準構成要素セットから他の3つの基準構成要素照合を取り除くことができる。
一部の実施形態では、構成要素照合モジュール424は、残りの関連度スコアと残りの関連度スコアセット間の差とに基づいて適合確率を生成することができる。例えば、構成要素照合モジュール424は、以前の照合処理の結果を追跡して正の照合をもたらされた画像照合と負の照合をもたらされた画像照合とを識別することができる。従って、構成要素照合モジュール424は、閾値よりも大きい2つの関連度スコアが存在し、これらの関連度スコアの間の差がその特定の量又は百分率である場合に、適合確率を生成することができることを知ることができる。例えば、関連度スコアが.3及び.5であり、すなわち、関連度スコアの差が.2であり、及び/又は最高関連度スコアが別の関連度スコアよりも66%高い場合に、高い方の関連度スコアを有する構成要素が正しい一致である確率は71%である。従って、構成要素照合モジュール424は、ユーザが画像照合処理によって生成された関連度スコアをより明確に理解し、状況に対して利用することを可能にするための適合確率を提供することができる。従って、構成要素照合モジュール424は、2つの可能な照合及びそれに対応する各構成要素が一致である確率(例えば、71%及び29%)を戻すことができる。エンドユーザは、この一致での信頼性のレベルのメトリックを使用して正しい照合を決定するための追加の画像を提供すること、及び/又はこれらの確率に頼ってこの照合を使用して先に進行することのいずれかを行うことができる可能性を有する。
構成要素明確化モジュール425は、構成要素のうちの1つがエンドユーザによって確認された一致である確率を高めることになる情報を提供するように構成することができる。例えば、各構成要素が一致である確率が71%及び29%ある場合に、構成要素明確化モジュールは、照合結果を提示し、更に、正しい照合を確認するために実施することができる他の段階に関する更に別の情報をエンドユーザに提供することができる。例えば、構成要素明確化モジュール425は、照合する構成要素の特徴を比較して2つの可能な照合する構成要素間の差(すなわち、差別的特徴)を識別することができる。構成要素明確化モジュール425は、様々な構成要素間の差の各タイプと共に格納された命令セットを有し、これらの命令が構成要素を区別するための適切な情報を提供すること、及び/又はこの情報に基づいてオプションのうちの1つを除外することのいずれかを可能にするためにこれらの命令をエンドユーザに提供することができる。
図6Aは、差別的特徴を識別し、これらの差別的特徴をどのように識別することができるかに関する情報をエンドユーザに提供する構成要素明確化モジュールの結果の一例を示している。図6Aに示すように、構成要素明確化モジュールは、構成要素のうちの1つが正しい一致である71%の可能性を有することを識別し、更に構成要素識別システム420が照合する構成要素を確実に識別することを可能にする追加の画像を識別することができる。例えば、構成要素明確化モジュールは、2つの潜在的に照合する基準構成要素間で、基準構成要素の一方が、インプラントの斜視正面視野から見ることができる前面上にそれまで画像内に示されていなかった際立った特徴を有することを識別することができる。従って、構成要素明確化モジュールは、適合確実性を高めるためにエンドユーザにこの視野を提供するように命令することができる。更に、構成要素明確化モジュールは、構成要素の一方がある一定の日付の前には利用可能ではなかったと決定することができ、タイミング、インプラント部位、及び/又は確実な照合を取得するために2つの照合する基準構成要素の一方を排除することができる他の制約条件を提供することができる。例えば、構成要素明確化モジュールは、2005年にはこれら2つの構成要素が利用可能ではなかったことでこの年よりも前に構成要素が取り付けられたことをエンドユーザが確認することができるか否かを尋ねてエンドユーザに時間制約条件を提供することができる。従って、エンドユーザが上記2つの明確化オプションの一方を選択すると、構成要素明確化モジュールは、提出された情報を使用して追加の照合及び関連度スコアの決定を実施すること、及び/又はエンドユーザによって提供されたタイミング制約条件に基づいて2つの照合する構成要素の一方を排除することのいずれかを行うことができる。取り付けられた構成要素のタイプの保証を達成するために、複数の照合する構成要素間の差を裏付ける及び/又は明確化するあらゆる他の適切な情報を構成要素明確化モジュールが実施することができる。
1又は2以上の構成要素が一致であることが確認された状態で、構成要素識別システム420は、少なくとも1つの照合する基準構成要素の各々に関する構成要素識別子及び構成要素情報をエンドユーザコンピュータデバイスに提供することができる。構成要素識別システム420は、エンドユーザに対して有利な可能性があるあらゆる適切な情報を提供することができる。例えば、構成要素情報は、構成要素を取り除くための命令、構成要素と共に使用すべきツール情報、構成要素の型式及びモデル、構成要素の取り扱いに関する警告及び/又は命令、及び/又は外科医、歯科医、医療従事者、及び/又は取り付けられた構成要素に関連付けられたあらゆる他のエンドユーザによって使用することができるあらゆる他の情報を含むことができる。情報のタイプは、識別される及び照合される構成要素のタイプに依存する可能性があるが、構成要素識別システム420に格納された及び/又は関係する第三者によるあらゆる情報を画像照会に応答して提供することができる。
構成要素モデル決定モジュール426は、本明細書に説明するように画像の比較及び照合を実施するように構成要素識別システム420によって使用される基準構成要素モデルを生成及び/又は決定するように構成することができる。例えば、構成要素モデル決定モデルは、照合する構成要素を識別するために、様々な構成要素に関する様々な基準画像を分類するために、及び/又は1又は2以上の構成要素モデルを訓練するための分類モデルを構築するように構成することができる。
一部の実施形態では、構成要素モデル決定モジュール426は、各構成要素の3次元構成要素モデルを構築するように構成することができる。3次元モデルは、構成要素のいずれかの向きの画像に対する照合を可能にする様々な異なる向きからの様々な2次元画像を含むことができる。従って、構成要素モデル決定モジュール426は、撮像データ内の取り付けられた構成要素をその向き、距離/サイズ、及び/又は配置に基づいてモデルと比較するために使用することができるモデルを構築するように構成することができる。
一部の実施形態では、構成要素モデル決定モジュール426は、複数の基準構成要素のうちの少なくとも1つに関連付けられるものとして過去に分類された複数の基準構成要素の複数の基準画像に適用される機械学習アルゴリズムを使用して構成要素モデルを訓練するように構成することができる。あらゆる適切な機械学習アルゴリズムを使用することができ、複数の基準構成要素の基準画像は、機械学習アルゴリズムが様々な基準構成要素間の視覚差を識別し、様々な基準構成要素に関連付けられた様々な基準画像内の視覚的に区別可能な特徴のクラスタリングを生成するほど十分に大きいとすることができる。
一部の実施形態では、構成要素モデル決定モジュール426は、異なる向き、角度、距離等からの基準構成要素の画像の基準セットを含めることによって各基準構成要素に対する構成要素モデルを構成することができる。従って、構成要素モデル決定モジュールは、各構成要素に対して、取り付けられた時に当該構成要素がどのように出現する可能性があるかを示す基準画像の基準ライブラリを構成し、この基準ライブラリを使用して類似構成要素を識別することができる。
一部の実施形態では、構成要素モデル決定モジュール426は、図示の適合結果に関するフィードバックを受信し、それを構成要素識別システム420によって生成及び使用される構成要素モデルの中に組み込むように構成することができる。例えば、構成要素モデル決定モジュール426は、エンドユーザコンピュータデバイスから少なくとも1つの照合する基準構成要素のうちの1つの選択を受信して、その画像を基準構成要素の基準画像として含むように照合する基準構成要素に関連付けられた構成要素モデルを更新することができる。従って、構成要素モデルを構成する基準画像を正のフィードバックを使用して更新することができ、時間経過に伴って様々な異なる向き、角度、距離、及び/又は画像品質を考慮するために追加の基準画像が追加される時にモデルの精度を高めることができる。図6Bは、構成要素に対する構成要素モデル及び/又は画像リポジトリをより詳細に構成するために使用することができる構成要素の照合に関するフィードバックをエンドユーザに見出すエンドユーザデバイスインタフェースの一例を示している。例えば、インタフェースは、患者との相互活動(例えば、手術、歯科修復、保守、又は修理のような)の後に照合される構成要素が正しいか否かに関してサービスプロバイダからの確認を要求することができる。
構成要素識別システム420は、受信した画像に基づいて構成要素の識別を実施するために様々な情報データストア427A〜427Dと通信するように構成することができる。例えば、構成要素識別システム420は、構成要素特徴データストア427A、構成要素モデルデータストア427B、不適合事象データストア427C、及び分類された基準画像データストア427Dへのアクセスを有することができる。データストアは、データの格納及び内部に格納されたデータのアクセスを可能にするためのあらゆる適切なデータストレージ及び/又はコンピュータ可読メモリを含むことができる。
構成要素特徴データストア427Aは、複数の基準構成要素と、それに対応する各基準構成要素に関連付けられた分類された特徴とを含むことができる。構成要素特徴データストア427Aは、構成要素識別システム420が特徴セットを提供し、これらの特徴のうちの少なくとも1つ又は全てに照合する照合基準構成要素セットを受信するように検索可能にすることができる。構成要素特徴データストア427Aは、構成要素識別システム420によって構築され、及び/又は構成要素製造業者又は構成要素特徴情報を収集する別の第三者からインポートすることができる。特徴は、例えば、構成要素の長さ、構成要素の幅、構成要素のインタフェースのタイプ、構成要素のフランジのタイプ、構成要素の冠状端部上のマイクロスレッドの存在、構成要素の冠状端部上のカラーの存在、構成要素の本体の先細部のタイプ、構成要素の本体上のスレッドの存在、構成要素の本体上のスレッドのタイプ、構成要素の本体内の溝の存在、構成要素の先端部の形状、構成要素の開口先端部の存在、構成要素の本体の形状、構成要素の先端部内の開口の形状、構成要素の先端部内のチャンバの存在、及び構成要素の先端部内での溝の存在を含むことができる。
構成要素モデルデータストア427Bは、照合する構成要素を識別するために撮像データを照合及び/又は比較するのに使用することができる1又は2以上の構成要素モデルを含むことができる。上述のように、異なるタイプの構成要素モデルを実施することができ、従って、各構成要素モデルに関して格納された情報のタイプは、構成要素モデルの実施に依存して異なる場合がある。構成要素モデルは、構成要素照合モジュールが撮像データを1又は2以上のモデルと比較すること、及び/又は照合する基準構成要素を識別するために撮像データを構成要素モデルに適用することによって利用可能にすることができる。
不適合事象データストア427Cは、構成要素識別システム420が不適合結果に関するフィードバックを取得することを可能にするあらゆる情報を含むことができる。上述のように、一部の実施形態では、適合確率及び/又は提供された照合の品質に関するフィードバックをエンドユーザから受信することができ、これらの情報を格納及び/又は更新し、構成要素モデル内に組み込むことができる。従って、不適合事象データは、将来においてより少ない不適合を確実にするために明確化の質問及び/又は他の情報のリストを時間と共に学習することができるように、照合しない構成要素及び不適合によって引き起こされた特徴の記録を含むことができる。
分類基準画像データストア427Dは、過去に分類されて特定の基準構成要素に関連付けられたものとして確認されたあらゆる基準画像を含むことができる。例えば、エンドユーザは、システムによって提供された照合する基準構成要素を確認することができ、構成要素識別システム420は、機械学習モデルをより詳細に訓練するように、及び/又は照合する基準構成要素に関連付けられた構成要素モデル内に組み込むように構成要素識別処理中に受信した撮像データを格納することができる。従って、構成要素識別システム420は、確認された照合から学習し、システム自体が生成及び/又は決定したモデルを照会撮像データを使用して更に改善することができる。
構成要素製造業者コンピュータデバイス430は、1又は2以上の構成要素に関する構成要素基準画像を提供することができるあらゆるコンピュータデバイスを含むことができる。例えば、構成要素製造業者コンピュータデバイスは、構成要素モデルを構成する、基準構成要素の各々に関する特徴を識別する、及び/又は撮像データから取り付けられた構成要素を識別する際の使用に向けて構成要素基準画像431、構成要素モデル、構成要素特徴、及び/又は基準構成要素に関連付けられたあらゆる他の適切な情報を構成要素識別システム420に提供するデスクトップコンピュータを含むことができる。構成要素基準画像431は、未取り付け状態にある構成要素の画像又は基準構成要素の取り付けられた構成要素からの撮像データの一例を含むことができる。各構成要素製造業者は、関連の基準画像、モデル、及び/又は特徴リストを構成要素識別システム420に提供する個々の構成要素製造業者コンピュータデバイスを有することができる。一部の実施形態では、構成要素製造業者コンピュータデバイスは、特定の製造業者に関連付けられた又はそうではない基準構成要素の第三者ライブラリを含むことができる。
実施形態は、歯科インプラントである構成要素に関して説明することができるが、類似の構成要素識別機能性を使用してあらゆる数の異なるタイプの構成要素を識別することができる。従って、実施形態は、病院又は医療関連分野での使用に限定されず、当業者は、構成要素を識別する必要性を有するあらゆる数の異なるサービスに向けて実施形態を実施することができることを認識することができる。
図5は、本発明の実施形態による画像からインプラントを識別する方法の例示的流れ図である。段階510において、構成要素識別システム420は、取り付けられた構成要素を含む入力撮像データを受信する。例えば、撮像データは、取り付けられたインプラントの放射線画像を含むことができる。一部の実施形態では、撮像データは、それが予め決められた品質レベルを満たさない場合にシステムが品質改善することができる。これに代えて及び/又はこれに加えて、一部の実施形態では、撮像データは、画像品質に関係なく品質改善することができる。デジタル画像処理技術を適用して特定の特徴を強調表示すること、背景、組織、及び骨とインプラント構成要素間で色及びコントラストを変更すること、及び/又はインプラント識別システムが画像照合の効果を最適化する及び/又は改善することを可能にするあらゆる他の適切な技術を使用してこれらのことを行うことができる。一部の実施形態では、品質改善された画像を基準画像として保存することができ、画像とモデルの間の均一性を確実にするために基準構成要素モデルを同じく品質改善することができる。
段階520において、構成要素識別システム420は、受信した画像を処理し、特徴比較照合を実施して画像から抽出した特徴に関連付けられた基準構成要素を識別する。例えば、構成要素識別システム420は、画像の取り付けられた構成要素から方位を識別し、画像から各取り付けられた構成要素の識別可能特徴セットを抽出し、関連の基準構成要素照合を識別することができる。例えば、この例では、5つの基準構成要素が、撮像データから識別された特徴セットを有するものとして識別される。受信された撮像データの向き及び品質に依存して異なる個数の特徴が抽出及び/又は識別される場合があり、それによって特徴セットに照合する照合する構成要素の個数が影響を受ける可能性があることに注意されたい。
段階530において、構成要素識別システム420は、識別される構成要素照合に対して画像照合処理を実施して構成要素画像照合結果を識別する。例えば、構成要素識別システム420は、画像から抽出した特徴を共有する5つの照合する構成要素を取得し、更にそれらの各々に関する構成要素モデルを使用してこれら各々に対して画像照合処理を実施して取り付けられた構成要素への適合確率を計算する。図5で見ることができるように、構成要素のうちの一部は良好に適合し、他は不十分にしか適合せず、0%の適合可能性が誘導されている。例えば、取り付けられた構成要素の入力撮像データ502をそれと類似の向きを有する基準構成要素単独の視野504、506の捕捉画像と比較することができる。明らかなように、各基準構成要素に関して入力撮像データを基準構成要素モデルと比較すると、類似の特徴を有する画像は、同じ特徴を持たないものよりも高い画像適合スコアを有することになる。従って、基準構成要素画像照合は、入力データと類似の向き及び視点からの画像を比較することにより、入力撮像データに照合する基準構成要素の正確な識別情報を戻すことができる。基準構成要素504、506に関して基準構成要素単独の基準構成要素モデルを示すが、一部の実施形態では、基準画像は、入力画像と類似の向き及び距離で捕捉される構成要素の他の放射線画像とすることができる。
これに加えて、一部の実施形態では、識別された向きを使用して、識別される構成要素照合に対して画像照合処理を実施するのに使用される基準構成要素画像の枚数を制限することができる。例えば、実施形態は、基準構成要素モデルから使用される画像を識別された向きに関連付けられた方位範囲にあるものに制限することができる。従って、画像照合処理中に比較される画像の枚数を制限することによってシステムリソースを節約することができ、処理速度を増大させることができる。
段階540において、構成要素識別システム420は、照合する構成要素情報をエンドユーザコンピュータデバイス412に提供する。構成要素画像照合結果によって識別された適合確率及び/又は関連度スコアの各々を閾値関連度スコアと比較して、一致である高い可能性を有するものを識別し、高い適合可能性を持たないものを除外することができる。従って、一致として提供される構成要素は、最も高い適合確率を有する基準構成要素であるが、この適合可能性もエンドユーザコンピュータデバイス412に提供される。図6Aは、エンドユーザが照合を明確化し、照合する構成要素の裏付けをもたらすことになる情報を提供することを可能にするために提供することができる構成要素情報の別の例を示している。
図7は、本発明の実施形態による照会画像内で取り付けられた構成要素を識別する方法の例示的流れ図である。段階702において、構成要素識別システム420は、1又は2以上の取り付けられた構成要素を含む撮像データを受信する。撮像データは、いずれかの向き、配置、及び/又はサイズ又は距離からの取り付けられた構成要素を示すことができる。
段階704において、構成要素識別システム420は、画像の取り付けられた構成要素を解析することによって画像概説の向き及び距離を識別する。上述のように、向きは、あらゆる適切な基準点に従って定めることができるが、全ての基準画像及び構成要素モデルにわたって確実に適用されるものでなければならない。
段階706において、構成要素識別システム420は、画像から各取り付けられた構成要素の識別可能特徴セットを抽出する。識別可能特徴セットは、取り付けられた構成要素の向き及び撮像データの品質に基づいて変化する場合がある。
段階708において、構成要素識別システム420は、識別可能特徴セットに関連付けられた基準構成要素を識別する。例えば、構成要素識別システム420は、撮像データから抽出した特徴セットに照合する基準構成要素に関して構成要素特徴データストア427Aを検索することができる。取り付けられた構成要素に関連付けられた基準構成要素を識別するために画像照合を使用して解析することができる基準構成要素セットを戻すことができる。
段階710において、構成要素識別システム420は、基準構成要素が識別されたか否かを決定する。例えば、一部の実施形態では、十分な特徴が識別されない場合があり、及び/又は識別された特徴が差別的なものではなく、従って、全ての構成要素が抽出された特徴を満たす。基準構成要素が識別されない場合に、撮像データに問題がある場合があり、画像明確化処理を開始して、照合処理を改善するためにどのような情報を提供することができるかに関するフィードバックをエンドユーザに提供することができる。
基準構成要素が識別された場合に、段階712において、構成要素識別システム420は、画像を基準構成要素に関連付けられた構成要素モデルと比較する。上述のように、構成要素モデルを使用して照合する基準構成要素を取得するために実施することができる様々な異なる比較方法が存在する。例えば、画像比較方法、訓練された分類器モデルの適用に基づいて、及び/又は撮像データを基準構成要素の3次元モデルにマップすることによって関連度スコアを決定することができる。いずれにせよ、識別された関連基準構成要素の各々に対して、撮像データ内の取り付けられた構成要素と基準画像内の構成要素との間の類似度を決定することができる。
段階714において、構成要素識別システム420は、各基準構成要素に対する関連度スコアを決定する。上述のように、関連度スコアを決定する方法は、実施される画像照合処理に基づいて異なる場合がある。更に、一部の実施形態では、関連度スコアは、製造日、構成要素の市場入手可能性、撮像データを入手した先の関係者(例えば、患者)に関する情報、及び/又はあらゆる他の適切な情報を含む画像照合以外の情報を組み込むことができる。
段階716において、構成要素識別システム420は、基準構成要素セットが閾値関連度スコアを上回っているか否かを決定する。例えば、関連度スコアが過度に小さく、従って、構成要素が実際に正しい一致である可能性が低いが、撮像データにある程度の共通性が見出される場合に、この関連度スコアを廃棄することができる。それにより、撮像データが、殆どの基準構成要素間の類似性を使用して構成要素の実際の照合に対して有意ではない類似度を識別する誤感知を制限することができる。例えば、基準構成要素の全ては、画像内で幾分類似する形状及び/又は配置を有するが、これらの類似性は、異なる構成要素間で区別するのに役立たない。従って、これら共通の属性しか共有しない構成要素を照合する構成要素セットから除外することができるように、様々な構成要素間にあるこれら共通の属性に対して生成された関連度スコアよりも大きい閾値関連度スコアを識別することができる。
段階718において、関連度スコアのうちの少なくとも1つが閾値を上回った場合に、構成要素識別システム420は、これらの関連度スコアに基づいて1又は2以上の照合する基準構成要素を決定する。一部の実施形態では、複数の構成要素を照合する基準構成要素として選択することができ、他の実施形態では最も高い照合する構成要素のみを提供することができる。
段階720において、構成要素識別システム420は、画像内で複数の取り付けられた構成要素が識別されたか否かを決定する。複数の構成要素が識別された場合に、処理は、次の取り付けられた構成要素のための段階706に戻り、処理は、各取り付けられた構成要素が識別されるまで各取り付けられた構成要素に対して繰り返される。
識別される追加の構成要素が残っていない場合に、段階722において、構成要素識別システム420は、照合する基準構成要素情報をエンドユーザコンピュータデバイスに提供する。
段階724において、構成要素識別システム420は、異なる向きを有する追加の及び/又は異なる画像を提供するようにエンドユーザに通知する画像明確化処理を実施する。画像明確化処理は、照合する構成要素の識別を可能にするほど十分な区別可能な特徴を提供しない不鮮明画像及び/又は低品質画像に応答して開始することができる。図6Aは、取り付けられた構成要素のより確実な識別を可能にするための追加のデータを取得するために、画像明確化処理中に提供することができる情報を示すインタフェースの一例を示している。構成要素識別システムを使用する方法は、ハードウエアの照合する部分を識別した後又はそれに応答して交換インプラントの自動的オンライン発注段階を含むことができる。当業者は理解するように、構成要素識別システムを使用してハードウエアの照合する部分を識別することにより、1又は2以上の交換インプラントを発注するためのオンライン要求を完了するためにインジケータ、信号、データ、又は他の技術を使用することができる。オンライン発注を開始する前又はその後に、照合が正しいものであること及び/又は自動的又は電子的に行われたオンライン発注が正しいものであることを確実にするための確認を行うことができる。
図8は、様々な実施形態による構成要素識別環境800を示している。図8に示すように、構成要素識別サービス802は、コンピュータデバイス804から撮像データを受信するように構成することができる。構成要素識別サービス802は、1又は2以上のコンピュータ、及び/又はサーバ、又はこれらのあらゆる組合せ上でホストすることができる。例えば、構成要素識別サービス802は、サーバコンピュータ808がホストすることができる。コンピュータデバイス804は、ラップトップコンピュータ又はデスクトップコンピュータ、携帯電話、タブレットなどを含むエンドユーザデバイス、並びに構成要素製造業者コンピュータデバイス820、診断機械(図示せず)、及び/又は他の電子通信デバイスを含むことができるがこれらに限定されない。
構成要素識別サービス802によって受信されたデータは、データストア808に格納することができる。データストア808は、データベース、オブジェクトストレージシステム及びサービス、クラウドベースのストレージサービスのような1又は2以上のデータストア、及び他のデータストアを含むことができる。例えば、基準画像データストア810、構成要素特徴データストア812、及び構成要素モデルデータストア814のような様々なデータストアは、構成要素識別サービス802に対してアクセス可能な非一時的ストレージ媒体上に実施することができる。データストア808は、電子記録管理システム802に対してローカルなもの又はリモートなものとし、上記で解説したネットワーク又はストレージエリアネットワーク又は他のネットワーク接続ストレージシステムのようなネットワーク上でアクセス可能なものとすることができる。
サーバコンピュータ808は、様々なデバイスにネットワーク806を通して接続することができる。ネットワーク806は、例えば、AppleTalk(登録商標)、送信制御プロトコル/インターネットプロトコル(TCP/IP)、インターネットパケット交換(IPX)、システムネットワークアーキテクチャ(SNA)のような様々な通信プロトコルを使用して通信データを送信及び/又は受信するように構成されたあらゆるネットワークを含むことができる。一部の実施形態では、ネットワークは、イーサネット(登録商標)、トークンリングのようなローカルエリアネットワーク(LAN)、又は他のLANを含むことができる。ネットワーク806は、ワイドエリアネットワーク及び/又はインターネットを含むことができる。一部の実施形態では、ネットワーク806は、VPN(仮想プライベートネットワーク)、PSTN(公衆交換電話網)、赤外線ネットワーク、又は「IEEE 802.11」規格群、Bluetooth(登録商標)、Bluetooth(登録商標)Low Energy、NFC、及び/又はあらゆる他の無線プロトコルを実施するネットワークを含むあらゆる無線ネットワークを含むことができる。様々な実施形態では、ネットワークは、携帯電話ネットワーク、セルラーネットワーク、衛星ネットワークのようなモバイルネットワーク、又は他のモバイルネットワークを含むことができる。一部の実施形態では、ネットワークの各々は、本明細書に説明するネットワーク又は当業者に公知のもののような他のネットワークの組合せを含むことができる。
図8には環境800の特定の実施を示すが、これは、単なる例示目的のためのものであり、限定するように意図したものではない。当業者は認識されるであろうが、一部の実施形態では、環境800はより少ない又は多い構成要素を含むことができる。一部の実施形態では、サーバコンピュータ802、エンドユーザコンピュータデバイス804、又は本明細書に説明するあらゆる他のコンピュータデバイスは、モバイルデバイス、タブレットコンピュータデバイス、着用可能デバイス、パーソナルコンピュータ又はラップトップコンピュータ、又は本明細書に説明する他のデバイス又はシステムを含むことができるがこれらに限定されないコンピュータシステムを使用して実施することができる。コンピュータシステムは、I/Oデバイスサブシステムと、表示デバイスサブシステムと、1又は2以上のコンピュータ可読ストレージ媒体を含むストレージサブシステムとを含むことができる。サブシステムは、メモリサブシステムと、通信サブシステムと、処理サブシステムとを含むことができる。バスが、様々なサブシステム間の通信を容易にする。そのようなバスサブシステムの例は、ローカルバス、シリアルバス、バスネットワーク、及び/又はバスコントローラによって調整される複数のバスシステムを含むことができる。バスは、パラレルATA、シリアルATA、業界標準アーキテクチャ(ISA)バス、拡張ISA(EISA)バス、マイクロチャネルアーキテクチャ(MCA)バス、周囲機械相互接続(PCI)バスのような様々な規格、又は当業技術で公知のあらゆる他のアーキテクチャ又は規格を実施することができる。
一部の実施形態では、コンピュータシステムは、I/Oデバイスサブシステムを含むことができる。I/Oサブシステムは、入力及び/又は出力デバイス、又はそのようなデバイスと通信するためのインタフェースを含むことができる。そのようなデバイスは、タッチスクリーン又は他のタッチ感知入力デバイス、キーボード、マウス、トラックボール、運動センサ又は他の移動ベースの動作認識デバイス、スクロールホイール、クリックホイール、ダイヤル、ボタン、スイッチ、音声指令を感受するように構成されたオーディオ認識デバイス、マイクロフォン、眼球移動又は瞬きに基づいて指令を認識するように構成された眼球活動モニタのような画像捕捉ベースのデバイス、及び他のタイプの入力デバイスを限定することなく含むことができる。I/Oデバイスサブシステムは、指紋スキャナ、声紋スキャナ、虹彩スキャナ、又は他の生体測定センサ又は生体測定検出器のような識別デバイス又は認証デバイスを含むことができる。様々な実施形態では、I/Oデバイスサブシステムは、スピーカ、メディアプレーヤのようなオーディオ出力デバイス、又は他の出力デバイスを含むことができる。
コンピュータシステムは、表示デバイスサブシステムを含むことができる。表示デバイスサブシステムは、1又は2以上の発光ダイオード(LED)、LEDアレイ、液晶ディスプレイ(LCD)又はプラズマディスプレイ又は他のフラットスクリーンディスプレイ、タッチスクリーン、ヘッドマウントディスプレイ又は他の着用可能表示デバイス、投影デバイス、ブラウン管(CRT)、及び情報を視覚的に伝達するように構成されたあらゆる他の表示技術のような1又は2以上のライトを含むことができる。コンピュータシステムは、ハードディスクドライブ、固体ドライブ(RAMベース及び/又はフラッシュベースのSSDを含む)、又は他のストレージデバイスを含むストレージサブシステムを含むことができる。様々な実施形態では、コンピュータ可読ストレージ媒体は、本明細書に説明する機能を提供するようにプロセッサによって実行可能なプログラム、コード、又は他の命令を含むソフトウエアを格納するように構成することができる。一部の実施形態では、ストレージシステムは、様々なデータストア又はリポジトリ、又は本明細書に説明する実施形態と併用されるデータを格納する様々なデータストア又はリポジトリとのインタフェースを含むことができる。そのようなデータストアは、データベース、オブジェクトストレージシステム及びサービス、クラウドベースのストレージシステム及びサービス、ファイルシステム、分散データストア、及びあらゆる他のデータストレージシステム又はサービスを含むことができる。一部の実施形態では、ストレージシステムは、1又は2以上の外部及び/又は着脱可能ストレージデバイスと通信するためのメディア読取器、カード読取器、又は他のストレージインタフェースを含むことができる。様々な実施形態では、コンピュータ可読ストレージ媒体は、あらゆる適切なストレージ媒体又はストレージ媒体の組合せを含むことができる。例えば、コンピュータ可読ストレージ媒体は、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、電気的消去可能プログラマブルROM(EEPROM)、フラッシュメモリ、又は他のメモリ技術、光学データストア(例えば、CD−ROM、デジタル多用途ディスク(DVD)、Blu−ray(登録商標)、又は他の光学ストレージデバイス)、磁気ストレージ(例えば、テープドライブ、カセット、磁気ディスクストレージ、又は他の磁気ストレージデバイス)のうちのいずれか1又は2以上を含むことができるがこれらに限定されない。一部の実施形態では、コンピュータ可読ストレージ媒体は、データ信号、又はデータを送信及び/又は受信することを可能にするあらゆる他の媒体を含むことができる。
メモリサブシステムは、RAM、ROM、フラッシュメモリ、又は他のメモリを含む様々なタイプのメモリを含むことができる。メモリは、SRAM(静的RAM)又はDRAM(動的RAM)を含むことができる。一部の実施形態では、メモリは、BIOS(基本入力/出力システム)又は例えば起動中に様々な構成要素の初期化を管理するように構成された他のファームウエアを含むことができる。メモリは、macOS(登録商標)、Windows(登録商標)、Linux(登録商標)、様々なUNIX(登録商標)、又はUNIX又はLinuxベースのオペレーティングシステム、又は他のオペレーティングシステムのようなオペレーティングシステムを更に含むことができる。
コンピュータシステムは、システムと様々な外部コンピュータシステム及び/又はネットワーク(インターネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、モバイルネットワーク、又はあらゆる他のネットワークのような)との間の通信を容易にするように構成された通信サブシステムを含むことができる。通信サブシステムは、様々な有線通信チャネル(イーサネット(登録商標)又は他の有線通信技術のような)又は無線通信チャネルを通じた通信を可能にするハードウエア及び/又はソフトウエア、例えば、無線ネットワーク、モバイル又はセルラーの音声ネットワーク及び/又はデータネットワーク、Wi−Fiネットワーク、又は他の無線通信ネットワーク上の通信を容易にするための無線送受信機を含むことができる。これに加えて又はこれに代えて、通信サブシステムは、GPS(全地球測位システム)のような衛星ベース又は地上ベースのロケーションサービスと通信するためのハードウエア及び/又はソフトウエア構成要素を含むことができる。一部の実施形態では、通信サブシステムは、様々なハードウエアセンサ又はソフトウエアセンサを含むか又はこれらとインタフェースで接続することができる。センサは、連続的及び/又は周期的なデータ又はデータストリームを通信サブシステムを通してコンピュータシステムに提供するように構成することができる。
処理システムは、コンピュータシステムを制御するように作動可能な1又は2以上のプロセッサ又は他のデバイスを含むことができる。処理システムは、中央演算処理装置(CPU)、グラフィック処理ユニット(GPU)、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、又はあらゆる他の汎用又は専用マイクロプロセッサ又は集積回路を含むことができる。処理システム内の様々なプロセッサは、用途に依存して独立に又は組合せで使用することができる。
様々な他の構成を使用することができ、ハードウエアに実施されるものとして示す特定の要素は、その代わりにソフトウエア、ファームウエア、又はその組合せに実施することができる。当業者は、本明細書に説明する特定の実施形態に対する様々な代替を認識するであろう。
本明細書及び図は、説明及び例示を容易にするために提示したものであって限定的であるように意図したものではない特定の実施形態を説明するものである。実施形態は、本発明の開示の精神及び範囲から逸脱することなく異なる環境に使用されるように実施することができる。
本明細書で別途示さない限り又は状況が明確に矛盾しない限り、開示する実施形態を説明する状況(特に以下の特許請求の状況)での用語「a」及び「an」及び「the」及び類似の指示対象語の使用は、単数と複数の両方を包含すると解釈しなければならない。別途言及しない限り、用語「備える」、「有する」、「含む」、及び「含有する」は、非限定的用語として解釈しなければならない(すなわち、「含むがこれに限定されない」を意味する)。「接続された」という用語は、介在するいずれかが存在する場合であっても部分的又は全体的に内部に包含される、取り付けられる、又は互いに接合されることして解釈しなければならない。本明細書で別途示さない限り、本明細書に対する値範囲の列挙は、当該範囲に収まる各個別の値を個々に参照する略記法として機能することしか意図しておらず、各個別の値は、それが本明細書において個々に列挙されるかのように本明細書内に組み込まれている。本明細書で別途示さない限り又は他に状況が明確に矛盾しない限り、本明細書に説明する全ての方法は、あらゆる適切な順序で実施することができる。本明細書に提供するいずれか及び全ての例又は例示的文言(例えば、「のような」)の使用は、本発明の開示の実施形態をより明確に解明することしか意図しておらず、別途主張しない限り、本発明の開示の範囲に対して制限を課さない。本明細書でのいかなる文言も、いずれかの非請求要素が本発明の開示の実施に不可欠であることを示すものとして解釈すべきではない。
別途具体的に述べない限り、「X、Y、又はZのうちの少なくとも1つ」という句のような選言的文言は、当該状況の範囲で項目、用語などをX、Y、又はZのいずれか又はその組合せ(例えば、X、Y、及び/又はZ)とすることができることを示すために一般的に使用されるものとして理解されるように意図したものである。従って、そのような選言的文言は、ある一定の実施形態が、少なくとも1つのX、少なくとも1つのY、又は少なくとも1つのZが各々存在することを必要とすることを意味することを一般的に意図したものではなく、かつ意味されるべきではない。
この出願は、引用によって本明細書にその全体が組み込まれている2016年12月19日出願の「撮像データを使用するインプラント識別の方法及びそのためのシステム(METHODS AND SYSTEMS FOR IMPLANT IDENTIFICATION USING IMAGING DATA)」という名称の米国仮特許出願第62/436,324号に対する優先権及びその利益を主張するPCT出願である。
本明細書では、本発明者が承知する本発明の開示を実施するための最良のモードを含む本発明の開示の好ましい実施形態を説明した。以上の説明を読解した上で、当業者には、これらの好ましい実施形態の変形が明らかになるであろう。本発明者は、当業者がそのような変形を必要に応じて採用することを予想し、本発明の開示が、本明細書で具体的に説明したもの以外の方式を使用して実施されることを意図している。従って、本発明の開示は、本明細書に添付する特許請求の範囲に列挙する主題の全ての修正及び均等物を適用される法律によって許可されるものとして含む。更に、本明細書で別途示さない限り又は他に状況が明確に矛盾しない限り、上述した要素の全ての可能な変形でのこれらの要素のあらゆる組合せは、本発明の開示によって包含されている。
100A 歯科インプラント構成要素
102 インタフェース
106 スレッド
110A 冠状端部
130A 先端部
102 インタフェース
106 スレッド
110A 冠状端部
130A 先端部
Claims (20)
- 構成要素識別システムにより、取り付けられた構成要素の単一画像を含む撮像データをエンドユーザコンピュータデバイスから受信する段階と、
前記構成要素識別システムにより、前記取り付けられた構成要素に関連付けられた複数の特徴を識別するために前記撮像データを処理する段階と、
前記複数の特徴に関連付けられた複数の基準構成要素を複数の登録された基準構成要素から識別する段階と、
前記複数の基準構成要素のうちの1つに対して各々が決定された複数の関連度スコアを決定する段階であって、各関連度スコアが、前記撮像データと、該複数の基準構成要素の各々の構成要素モデル内の複数の基準画像との間の類似度に基づいており、該複数の関連度スコアを決定する該段階が、
前記複数の基準構成要素の各々に関して前記撮像データの前記取り付けられた構成要素を前記構成要素モデル内の前記複数の基準画像の各々に対して比較する段階、
前記複数の基準構成要素の各々に関して前記構成要素モデル内の前記複数の基準画像のうちで最も近い照合する基準画像を識別する段階、及び
前記複数の基準構成要素の各々に関して前記撮像データの前記取り付けられた構成要素と前記最も近い照合する基準画像内の該基準構成要素との間の類似度メトリックを計算する段階、
を含む前記決定する段階と、
前記複数の関連度スコアのうちの各関連度スコアを閾値関連度スコアに対して比較することにより、少なくとも1つの照合する基準構成要素を識別する段階と、
前記構成要素識別システムにより、前記少なくとも1つの照合する基準構成要素の各々に関する構成要素識別子及び構成要素情報を前記エンドユーザコンピュータデバイスに提供する段階と、
を含むことを特徴とする方法。 - 前記複数の特徴は、前記構成要素の長さ、該構成要素の幅、該構成要素のインタフェースのタイプ、該構成要素のフランジのタイプ、該構成要素の冠状端部上のマイクロスレッドの存在、該構成要素の該冠状端部上のカラーの存在、該構成要素の本体の先細部のタイプ、該構成要素の該本体上のスレッドの存在、該構成要素の該本体上の該スレッドのタイプ、該構成要素の該本体内の溝の存在、該構成要素の先端部の形状、該構成要素の開口先端部の存在、該構成要素の該本体の形状、該構成要素の該先端部内の開口の形状、該構成要素の該先端部内のチャンバの存在、及び該構成要素の該先端部内の溝の存在のうちの少なくとも2つを含むことを特徴とする請求項1に記載の方法。
- 各構成要素モデル内の前記複数の基準画像は、複数の向きからの前記基準構成要素の複数の基準画像を更に含むことを特徴とする請求項1に記載の方法。
- 前記取り付けられた構成要素の前記単一画像は、基準方位から捕捉され、
前記撮像データと前記複数の基準構成要素の各々の前記構成要素モデル内の前記複数の基準画像との間の前記類似度は、前記基準方位に基づいている、
ことを特徴とする請求項1に記載の方法。 - 前記エンドユーザコンピュータデバイスから前記少なくとも1つの照合する基準構成要素のうちの1つの選択を受信する段階と、
前記撮像データを前記基準構成要素の基準画像として含むように前記照合する基準構成要素に関連付けられた前記構成要素モデルを更新する段階と、
を更に含むことを特徴とする請求項1に記載の方法。 - 前記撮像データを該撮像データの前記取り付けられた構成要素に関連付けられた方位を識別するように処理する段階と、
前記撮像データの前記取り付けられた構成要素に関連付けられた前記方位に基づいて、各基準構成要素に関連付けられた各構成要素モデル内の前記複数の基準画像の部分集合を選択する段階と、
を更に含むことを特徴とする請求項1に記載の方法。 - 前記基準構成要素に関連付けられた前記構成要素モデルは、前記複数の基準構成要素のうちの少なくとも1つに関連付けられるものとして以前に分類された該複数の基準構成要素の複数の基準画像を処理することにより、機械学習アルゴリズムを使用して決定されることを特徴とする請求項1に記載の方法。
- 前記撮像データは、前記取り付けられた構成要素の放射線画像を含むことを特徴とする請求項1に記載の方法。
- 前記少なくとも1つの照合する基準構成要素の各々に関する前記構成要素識別子及び前記構成要素情報を前記エンドユーザコンピュータデバイスに提供する段階は、前記取り付けられた構成要素に一致する確率を提供する段階を更に含むことを特徴とする請求項1に記載の方法。
- 各構成要素モデルが、それぞれの基準構成要素の複数の基準画像を該それぞれの基準構成要素の3次元モデルを形成するために含むことを特徴とする請求項1に記載の方法。
- 複数の関連度スコアを決定する段階は、
前記複数の基準構成要素に関連付けられた複数の分類された基準画像を使用して前記撮像データ内の前記取り付けられた構成要素のサイズ、配置、及び形状に基づいて該撮像データ内の該取り付けられた構成要素を分類するように機械学習アルゴリズムを使用して訓練された構成要素分類器アルゴリズムを該撮像データに適用する段階と、
前記構成要素分類器アルゴリズムに関する結果に基づいて前記基準構成要素の各々に対する前記関連度スコアを決定する段階と、
を更に含む、
ことを特徴とする請求項1に記載の方法。 - コンピュータデバイスであって、
プロセッサと、
前記プロセッサに結合されたコンピュータ可読媒体であって、
取り付けられた構成要素の単一画像を含む撮像データをエンドユーザコンピュータデバイスから受信し、
前記取り付けられた構成要素に関連付けられた複数の特徴を識別するように前記撮像データを処理し、
複数の登録された基準構成要素から前記複数の特徴に関連付けられた複数の基準構成要素を識別し、
前記複数の基準構成要素のうちの1つに対して各々が決定された複数の関連度スコアであって、各関連度スコアが、前記撮像データと該複数の基準構成要素の各々の構成要素モデル内の複数の基準画像との間の類似度に基づくものである前記複数の関連度スコアを決定し、
前記複数の関連度スコアのうちの各関連度スコアを閾値関連度スコアに対して比較することにより、少なくとも1つの照合する基準構成要素を識別し、かつ
前記少なくとも1つの照合する基準構成要素の各々に関する構成要素識別子及び構成要素情報を前記エンドユーザコンピュータデバイスに提供する、
ことをコンピュータデバイスに行わせるように前記プロセッサによって実行可能なコードを含む前記コンピュータ可読媒体と、
を含むことを特徴とするコンピュータデバイス。 - 前記コンピュータ可読媒体は、
前記エンドユーザコンピュータデバイスから前記少なくとも1つの照合する基準構成要素のうちの1つの選択を受信し、かつ
前記撮像データを前記基準構成要素の基準画像として含むように前記照合する基準構成要素に関連付けられた前記構成要素モデルを更新する、
ことをコンピュータデバイスに行わせるように前記プロセッサによって実行可能なコードを更に含む、
ことを特徴とする請求項12に記載のコンピュータデバイス。 - 複数の関連度スコアを決定することは、
前記複数の基準構成要素に関して前記撮像データの前記取り付けられた構成要素を前記構成要素モデル内の前記複数の基準画像の各々に対して比較し、
前記複数の基準構成要素の各々に関して前記構成要素モデル内の前記複数の基準画像のうちで最も近い照合する基準画像を識別し、かつ
前記複数の基準構成要素の各々に関して前記撮像データ内の前記取り付けられた構成要素と前記最も近い照合する基準画像内の該基準構成要素との間の類似度メトリックを計算する、
ことを更に含む、
ことを特徴とする請求項12に記載のコンピュータデバイス。 - 前記取り付けられた構成要素の前記単一画像は、基準方位から捕捉され、
前記撮像データと前記複数の基準構成要素の各々の前記構成要素モデル内の前記複数の基準画像との間の前記類似度は、前記基準方位に基づくものである、
ことを特徴とする請求項12に記載のコンピュータデバイス。 - 複数の関連度スコアを決定することは、
前記複数の基準構成要素に関連付けられた複数の分類された基準画像を使用して前記撮像データ内の前記取り付けられた構成要素のサイズ、配置、及び形状に基づいて該撮像データ内の該取り付けられた構成要素を分類するように機械学習アルゴリズムを使用して訓練された分類器アルゴリズムを該撮像データに適用し、かつ
前記構成要素分類器アルゴリズムに関する結果に基づいて前記基準構成要素の各々に対する前記関連度スコアを決定する、
ことを更に含む、
ことを特徴とする請求項12に記載のコンピュータデバイス。 - システムであって、
取り付けられた構成要素の単一画像を含んで取り付けられた構成要素に関連付けられた撮像データをエンドユーザコンピュータデバイスから受信し、
前記取り付けられた構成要素に関連付けられた複数の特徴を識別するように前記撮像データを処理し、
複数の登録された基準構成要素から前記複数の特徴に関連付けられた複数の基準構成要素を識別し、
前記複数の基準構成要素のうちの1つに対して各々が決定された複数の関連度スコアであって、各関連度スコアが、前記撮像データと該複数の基準構成要素の各々の構成要素モデル内の複数の基準画像との間の類似度に基づくものである前記複数の関連度スコアを決定し、
前記複数の関連度スコアのうちの各関連度スコアを閾値関連度スコアに対して比較することにより、少なくとも1つの照合する基準構成要素を識別し、かつ
前記少なくとも1つの照合する基準構成要素の各々に関する構成要素識別子及び構成要素情報を前記エンドユーザコンピュータデバイスに送信する、
ように構成された構成要素識別システム、
を含み、
前記エンドユーザコンピュータデバイスは、
前記取り付けられた構成要素に関連付けられた前記撮像データを取得し、
前記撮像データを前記構成要素識別システムに送信し、
前記少なくとも1つの照合する基準構成要素の各々に関する前記構成要素識別子及び構成要素情報を前記構成要素識別システムから受信し、かつ
前記構成要素情報をユーザに表示する、
ように構成される、
ことを特徴とするシステム。 - 前記構成要素識別システムは、
前記少なくとも1つの照合する基準構成要素のうちの1つの選択を前記エンドユーザコンピュータデバイスから受信し、かつ
前記撮像データを前記基準構成要素の基準画像として含むように前記照合する基準構成要素に関連付けられた前記構成要素モデルを更新する、
ように更に構成される、
ことを特徴とする請求項16に記載のシステム。 - 複数の関連度スコアを決定することは、
前記複数の基準構成要素に関して前記撮像データの前記取り付けられた構成要素を前記構成要素モデル内の前記複数の基準画像の各々に対して比較し、
前記複数の基準構成要素の各々に関して前記構成要素モデル内の前記複数の基準画像のうちで最も近い照合する基準画像を識別し、かつ
前記複数の基準構成要素の各々に関して前記撮像データ内の前記取り付けられた構成要素と前記最も近い照合する基準画像内の該基準構成要素との間の類似度メトリックを計算する、
ことを更に含む、
ことを特徴とする請求項16に記載のシステム。 - 前記取り付けられた構成要素の前記単一画像は、基準方位から捕捉され、
前記撮像データと前記複数の基準構成要素の各々の前記構成要素モデル内の前記複数の基準画像との間の前記類似度は、前記基準方位に基づくものであり、
複数の関連度スコアを決定することは、
前記複数の基準構成要素に関連付けられた複数の分類された基準画像を使用して前記撮像データ内の前記取り付けられた構成要素のサイズ、配置、及び形状に基づいて該撮像データ内の該取り付けられた構成要素を分類するように機械学習アルゴリズムを使用して訓練された分類器アルゴリズムを該撮像データに適用し、かつ
前記構成要素分類器アルゴリズムに関する結果に基づいて前記基準構成要素の各々に対する前記関連度スコアを決定する、
ことを更に含む、
ことを特徴とする請求項16に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662436324P | 2016-12-19 | 2016-12-19 | |
US62/436,324 | 2016-12-19 | ||
PCT/US2017/067316 WO2018118919A1 (en) | 2016-12-19 | 2017-12-19 | Methods and systems for implant identification using imaging data |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020502717A true JP2020502717A (ja) | 2020-01-23 |
Family
ID=62627172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019554490A Pending JP2020502717A (ja) | 2016-12-19 | 2017-12-19 | 撮像データを使用するインプラント識別の方法及びそのためのシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US11080554B2 (ja) |
EP (1) | EP3555849A1 (ja) |
JP (1) | JP2020502717A (ja) |
AU (1) | AU2017379813A1 (ja) |
CA (1) | CA3046030A1 (ja) |
WO (1) | WO2018118919A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220022400A (ko) * | 2020-08-18 | 2022-02-25 | (주)헤리바이오 | 임플란트 검색 및 자동 식별을 수행하는 시스템 |
KR102472600B1 (ko) * | 2021-12-20 | 2022-11-29 | 우주엽 | 임플란트픽스쳐 인식장치 및 그 방법 |
KR20230007661A (ko) * | 2021-07-06 | 2023-01-13 | (주)헤리바이오 | Ai 학습을 위한 임플란트 클래스 분류 방법 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11080554B2 (en) * | 2016-12-19 | 2021-08-03 | Loma Linda University | Methods and systems for implant identification using imaging data |
US20200074631A1 (en) * | 2018-09-04 | 2020-03-05 | The Board Of Regents, The University Of Texas System | Systems And Methods For Identifying Implanted Medical Devices |
US11675931B2 (en) * | 2020-03-26 | 2023-06-13 | EMC IP Holding Company LLC | Creating vendor-neutral data protection operations for vendors' application resources |
FR3113155B1 (fr) * | 2020-07-28 | 2022-11-25 | Adventive | Procédé d’identification d’un implant dentaire visible sur une image d’entrée au moyen d’au moins un réseau de neurones à convolution. |
KR102473139B1 (ko) * | 2020-10-05 | 2022-12-02 | 박찬수 | 인공지능 기반의 임플란트 인식 시스템 및 그 방법 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0514554D0 (en) * | 2005-07-15 | 2005-08-24 | Materialise Nv | Method for (semi-) automatic dental implant planning |
US20070127822A1 (en) * | 2005-12-02 | 2007-06-07 | Boose John H | Method and system for analyzing image differences |
US8078255B2 (en) * | 2006-03-29 | 2011-12-13 | University Of Georgia Research Foundation, Inc. | Virtual surgical systems and methods |
US10426578B2 (en) * | 2006-10-16 | 2019-10-01 | Natural Dental Implants, Ag | Customized dental prosthesis for periodontal or osseointegration and related systems |
US8249318B2 (en) * | 2008-09-26 | 2012-08-21 | OsteoWare, Inc. | Method for identifying implanted reconstructive prosthetic devices |
US8565500B2 (en) * | 2010-06-14 | 2013-10-22 | Siemens Medical Solutions Usa, Inc. | Automatic patient and device recognition and association system |
US10603056B2 (en) | 2012-08-31 | 2020-03-31 | Smith & Nephew, Inc. | Patient specific implant technology |
US9031284B2 (en) * | 2012-12-28 | 2015-05-12 | William Bradley Spath | Implant identification system and method |
AU2014281656A1 (en) * | 2013-06-17 | 2016-02-04 | International Electronic Machines Corporation | Pre-screening for robotic work |
US20170340418A1 (en) * | 2016-05-25 | 2017-11-30 | Matthew Raanan | System and method for dental implant recognition |
US11080554B2 (en) * | 2016-12-19 | 2021-08-03 | Loma Linda University | Methods and systems for implant identification using imaging data |
-
2017
- 2017-12-19 US US16/466,681 patent/US11080554B2/en active Active
- 2017-12-19 WO PCT/US2017/067316 patent/WO2018118919A1/en active Application Filing
- 2017-12-19 EP EP17883041.0A patent/EP3555849A1/en not_active Withdrawn
- 2017-12-19 JP JP2019554490A patent/JP2020502717A/ja active Pending
- 2017-12-19 AU AU2017379813A patent/AU2017379813A1/en not_active Abandoned
- 2017-12-19 CA CA3046030A patent/CA3046030A1/en not_active Abandoned
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220022400A (ko) * | 2020-08-18 | 2022-02-25 | (주)헤리바이오 | 임플란트 검색 및 자동 식별을 수행하는 시스템 |
KR102445053B1 (ko) | 2020-08-18 | 2022-09-21 | (주)헤리바이오 | 임플란트 검색 및 자동 식별을 수행하는 시스템 |
KR20230007661A (ko) * | 2021-07-06 | 2023-01-13 | (주)헤리바이오 | Ai 학습을 위한 임플란트 클래스 분류 방법 |
KR102608827B1 (ko) * | 2021-07-06 | 2023-12-01 | (주)헤리바이오 | Ai 학습을 위한 임플란트 클래스 분류 방법 |
KR102472600B1 (ko) * | 2021-12-20 | 2022-11-29 | 우주엽 | 임플란트픽스쳐 인식장치 및 그 방법 |
Also Published As
Publication number | Publication date |
---|---|
CA3046030A1 (en) | 2018-06-28 |
US20190303712A1 (en) | 2019-10-03 |
AU2017379813A1 (en) | 2019-06-27 |
EP3555849A1 (en) | 2019-10-23 |
US11080554B2 (en) | 2021-08-03 |
WO2018118919A1 (en) | 2018-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020502717A (ja) | 撮像データを使用するインプラント識別の方法及びそのためのシステム | |
US10949968B2 (en) | Systems and methods for detecting an indication of a visual finding type in an anatomical image | |
US20240000314A1 (en) | Method for automating collection, association, and coordination of multiple medical data sources | |
CN105378793B (zh) | 用于在对象可能受医学状况影响时进行鉴别的系统、方法和计算机可读介质 | |
CN110869938A (zh) | 人员识别系统和方法 | |
US20210236227A1 (en) | Instrument tracking machine | |
WO2019215604A1 (en) | Systems and methods for detecting an indication of a visual finding type in an anatomical image | |
CN111696083B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
RU2011116406A (ru) | Система и способ для объединения клинических признаков и признаков изображений для диагностики с применением компьютера | |
US10783637B2 (en) | Learning data generation support apparatus, learning data generation support method, and learning data generation support program | |
JP2017507386A (ja) | 医療装置の追跡 | |
US11887732B2 (en) | Parameter selection model using image analysis | |
Al Turkestani et al. | Clinical decision support systems in orthodontics: a narrative review of data science approaches | |
CN111223076A (zh) | 神经系统影像分析方法和装置 | |
US20190198159A1 (en) | Method and system for validating parameters in a medical study | |
US11688498B2 (en) | Medical document display control apparatus, medical document display control method, and medical document display control program | |
CN111753831A (zh) | 一种图像分析方法、装置、图像采集设备及存储介质 | |
CN115736939A (zh) | 房颤患病概率生成方法、装置、电子设备和存储介质 | |
US20180121813A1 (en) | Non-leading computer aided detection of features of interest in imagery | |
CN111192679B (zh) | 一种影像数据异常的处理方法、装置及存储介质 | |
JP2023523791A (ja) | 顔面麻痺及び注視偏位の評価 | |
JP7299314B2 (ja) | 医療文書作成装置、方法およびプログラム、学習装置、方法およびプログラム、並びに学習済みモデル | |
US20240029251A1 (en) | Medical image analysis apparatus, medical image analysis method, and medical image analysis program | |
US20230360213A1 (en) | Information processing apparatus, method, and program | |
US20230057949A1 (en) | Technologies for efficiently producing documentation from voice data in a healthcare facility |