JP6941060B2 - 解剖構造の走査と走査結果表示のためのシステムおよび方法 - Google Patents

解剖構造の走査と走査結果表示のためのシステムおよび方法 Download PDF

Info

Publication number
JP6941060B2
JP6941060B2 JP2017567070A JP2017567070A JP6941060B2 JP 6941060 B2 JP6941060 B2 JP 6941060B2 JP 2017567070 A JP2017567070 A JP 2017567070A JP 2017567070 A JP2017567070 A JP 2017567070A JP 6941060 B2 JP6941060 B2 JP 6941060B2
Authority
JP
Japan
Prior art keywords
scanner
scanning
screen
scan
anatomical structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017567070A
Other languages
English (en)
Other versions
JP2018527965A (ja
Inventor
シュタルダー,セヴェリン
バーナー,マルクス
クライン,コンラート
Original Assignee
シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング filed Critical シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング
Publication of JP2018527965A publication Critical patent/JP2018527965A/ja
Application granted granted Critical
Publication of JP6941060B2 publication Critical patent/JP6941060B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6886Monitoring or controlling distance between sensor and tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4547Evaluating teeth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Endoscopes (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、光学的、口腔内印象を作成するために、患者の歯や顎などの解剖構造の走査を行うためのシステムおよび関連する方法に関する。
本発明は、特にインタラクティブで漸進的な走査に関する。その走査手続の間、個別の走査は組み合わされて解剖構造のモデルを形成する。このタイプの走査は、S. RusinkiewiczおよびMarc LevoyによるEfficient variants of the ICP algorithm, 3-D Digital Imaging and Modeling(2001)に記載される通り、見る人または監視者、または走査を行う人から、およびスクリーンから独立してスキャナにより実行される。スキャナは、ギャップのない高精度の光学的印象をできるだけ早く作成する目的で、手動により導かれる。この目的を達成するためには、単純かつ直感的な、進行中の走査結果の可視化が、非常に重要である。本発明は、自然に走査結果を表示し、したがってスキャナの取り扱いを単純化する。
今日、セレック(CEREC)手法により走査を行う際、患者の歯列が走査されたモデルとして患者の近くでスクリーンに表示される。走査を行う際、歯科医などの走査を操作する人は、どこを見るべきかという絶え間ないジレンマの状態にある。すでに走査されたモデルの品質はスクリーンで見られる。例えば、モデルにおける著しいギャップもまた認識可能である。これらのギャップを詰めるため、およびスキャナを正しい場所に導くため、視線は患者の歯列とスキャナとの間を行ったり来たりせねばならない。モデルと患者の歯列の間の相互関係を築くためには多大な経験と実践が必要とされる。既存のシステムにおける補助手段として、かなり耳障りな音響信号が走査成功についての非視覚的フィードバックとして発信される。
本発明は拡張現実の分野において成立されることが可能であるが、従来の拡張現実アプリケーションとは著しく異なる。
外から見えないビューがオーバーレイされる、多くの拡張現実アプリケーションが存在する。ミニ(BMW)を例にとってみると、車体のマスキング効果をフィードアウトし、より広い視野を可能とする「X線メガネ」の一種を計画中である。解剖においても同様のシステムがある。例えば、Kilgus, T. らによる Mobile markerless augmented reality and its application in forensic medicine, International Journal of Computer Assisted Radiology and Surgery(2015)は、X線データなどのマルチモーダルデータを可動スクリーン上に表示する。このため、スクリーンの空間位置を検出するために外部の深さカメラが使用される。しかしながら、このシステムは漸進的モデルを作成しない。拡張スクリーンは空間的に有意義な方法で、既存のデータをのみを表示する。
内視鏡検査における拡張現実のための同様のアプリケーションが存在する。内視鏡装置は、正確に特定のポイントに誘導されねばならず、拡張現実の助けによって分かりやすく表示されることができる。重要な誘導ポイントおよび予定された挿入経路がインタラクティブに内視鏡画像中にオーバーレイされる。一方、解剖構造のモデルの、インタラクティブおよび漸進的な作成は存在しない。したがって、内視鏡の拡張ディスプレイはもっぱら、前もって予定された挿入経路上への装置のおおよその誘導の補助を行う。
本発明は、拡張現実の現実に対する位置が決定される方法においてもまた、他の拡張現実アプリケーションとは異なる。この位置決めは、スキャナの位置と走査結果により、非常に正確かつ簡単に行われる。
歯科用途では、US 2007/0172101 Alが同様のシステムを記載する。この発明によると、3Dモデルが2D画像の上にスーパーインポーズされる。2D画像は口腔内カメラから生成される。3Dモデルは口腔内スキャナの3D画像の組み合わせである。両方のビューはもともと同じビュー角度から生成される。見る人またはスクリーンの位置は可視化において効果を持たない。
アプリケーションによっては、モデルは走査手続の重要な結果である。特定の状況において、単一の走査は不十分であり得る。例えば、測定が難しい領域などの走査は、不完全に(凹んで)、不良に、またはノイズが多くなり得る。そのような不十分さは、例えば異なるビュー角度から撮られた複数の走査を組み合わせることにより克服され得る可能性がある。走査手続の結果としてのモデルの評価はよって非常に重要である。
併合の方法は、通常走査の3D形状とモデルをアラインする方法であって、通常はICP (Iterative Closest Point)手法の異なる手法である。併合の間、例えば新しいデータが最小限のエラーで既存の走査データに一致するように適用されるなど、新しい走査がすでに走査された走査データに加えられる。この追加がまた成功したかどうかをチェックすることが継続して必要である。このため、例えば発見された最小限のエラーまたはオーバーラップの程度が調べられる。発見された最小限のエラーは通常十分に小さくなくてはならず、オーバーラップの程度も十分に大きくなくてはならない。このような条件が合致する場合、新しい走査はまたモデルの一部となり、そうでない場合少なくとも当面は廃棄される。
走査のモデルへの追加が、時に成功しないのには様々な理由がある。その理由のいくつかとして、
- ユーザがスキャナを早く動かし過ぎ、新しい走査がモデルにオーバーラップしない、または十分にオーバーラップしない、
- ユーザが走査されるオブジェクトがスキャナの走査領域の外に位置されるようにスキャナを動かす、
- 走査データが多くの干渉を含みすぎるため、ICPのエラーが大き過ぎる、
- 走査された構造は厳密に凝集的でなく変形している、などがある。新しい走査はしたがってモデルに合致し得ない。記載したアプリケーションにおいて、パーツは例えば、硬い歯から独立して動くことができる、舌、頬などである。
走査が任意の理由のために追加される場合、スキャナは解剖構造に対して正確な位置において仮想モデルを表示するための補助として、限られた程度においてのみ使用され得る。これはモデルに対する、進行中のスキャンの位置に関する情報がないためである。
手動で操作される漸進的なスキャナについては、ユーザは新しい走査が成功裏にモデルに加えられ得ることを確実にせねばならない。進行中の走査をモデルに加えることができない場合、ユーザは是正措置をとり、スキャナを新しい走査がモデルに追加され得るようにスキャナを動かさねばならない。継続した走査手続が中断されるため、この状況はユーザにとっての操作における問題となる。特にこの種の状況において、仮想モデルが解剖構造上に正しく表示されると、非常に有益である。ユーザはしたがってスキャナをより簡単に既存のモデルに動かすことができる。この種の状況において、進行中の走査はまた正確な位置にオーバーレイされることになる。
仮想モデルが正しい位置に表示され、スキャナが補助として限られた程度においてのみ含まれる、その他の状況も存在する。
例えば、走査手続および走査されたモデルの評価は同時に行われ得ない。使用される走査技術によっては、スキャナは可視光を歯の上に投射し、走査モデルの可視化に干渉する。このような場合、モデルをより正確に評価するために、走査手続を中断することが必要になる可能性がある。
WO 2004/100067 A2はオブジェクトが走査され、走査結果が走査を行っている人に一目で見えるように直接の走査結果を表示するシステムを記載する。このため、スキャナは、US 6503195 B1に記載される腹腔鏡手術において使用されるシステムに非常に似た方法での適切な表示の補助として、使用される。WO 2004/100067 A2 とUS 6503195 B1のいずれも、個別の走査がより大きなモデルにコンパイルされる際のユーザの補助については記載していない。このコンパイルは、進行中の走査が既存のモデルに追加され得ない場合、ユーザにとって特に困難である。本発明はそのような重大な局面のためのシステムを記載する。WO 2004/100067 A2はこれらの重大な局面について触れていない。
WO 2015/181454 Alは、走査結果または追加情報を患者の口腔内の解剖構造上にオーバーレイするシステムを記載する。口腔内スキャナの画像およびオーバービューカメラは3Dポイントクラウドをアラインメントすることで、互いの上にスーパーインポーズされる。この記載は、記載において言及された拡張現実メガネのオーバービューカメラが、正確な重ね合わせを実施するために十分に正確な解剖構造のポイントクラウドの計算を許容することについては示唆しない。
US 2012/0056993 Al、WO 2010/067267 Al およびWO 2014/120909 Alは、走査結果の可視化のためのシステムを記載するさらなる文書である。
本発明の目的は、解剖構造の走査と走査結果の可視化のためのシステムおよび関連する方法を提供することである。走査結果の可視化は、スキャナのより簡単な取り扱いを可能とすることを意図している。できる限り正確なデジタルモデルと走査された解剖構造の重ね合わせは、走査手続における中断の間、また追加で可能であるべきである。
オブジェクトは請求項1に明示される通りシステムにより、および請求項15に明示された方法によって達成される。各従属請求項2〜14および16〜18は、請求項1のシステムおよび/または請求項15の方法の有益なさらなる展開を示す。
解剖構造の走査および走査結果の可視化のためのシステムが提供され、そのシステムは、解剖構造の画像を口腔内でキャプチャする口腔内スキャナ、監視者に対する口腔内スキャナの空間位置を検出する口腔外検出ユニット、および走査手続の間スキャナをスクリーンおよび検出ユニットと接続し、解剖構造のキャプチャされた画像と検出された監視者に対する口腔内スキャナの空間位置に基づいて走査結果を生成し、および走査手続の休止の間、解剖構造の位置、配向、スケーリングを推定し、走査結果として、その推定に基づいて解剖構造の画像を生成し、そこでスクリーンが演算ユニットによって生成された走査結果を表示する、演算ユニットを含む。
本発明によれば、特に、現実の記録された3Dデータとのリアルタイムで重ね合わせのためのビデオ対応3D表面イメージングの使用において、記録装置を使用して3Dデータとユーザの視野の間の変換チェーンを決定することが可能である。
解剖構造は、特に、走査を行う人である歯科医によって走査され検査される走査テンプレートとして歯を含む。有利には、本発明によるシステムを使用することで、歯科医は互いの上にスーパーインポーズされた現実の歯と走査された歯を見て、診断を行うことができる。走査手続の中断の間においてさえもできるだけ正確に走査された解剖構造をデジタルモデルに重ね合わせるために、現実の解剖構造の位置、配向、スケーリングなどのパラメータおよびオーバーレイされた解剖構造の仮想モデルが相関関係にされる。
WO 2015/181454 A1から公知のシステムと対照的に、本発明は有利には、従来なされてきたよりもより正確な、精度の高い重ね合わせのための相関関係を推定するために、走査中の補助としてスキャナの使用を提案する。さらに、本発明によれば、相関関係のために必要とされる特性が、モデルに対する走査の成功した追加の間、様々な特性のうちから選択される。したがって、3D形状が相関関係にされるだけではなく、例えば2D特性も併合され得る。スキャナにより直接検出されなかったが、その近くにあった特性も正確な合致を達成するために使用され得る。それらの特性と走査中の仮想モデルの位置の相関関係が既知であるため、これは可能である
スクリーンは好ましくは、走査を行う人の視野内に直接配置されるように、拡張現実メガネに組み込まれ、一方、検出ユニットはスクリーンのすぐ近くに提供され、理想的にはそこにしっかりと接続される。歯科医はしたがって、自身の目を患者の口とスクリーンの間で行ったり来たりさせる必要もなく、非常に簡単に患者の歯を検査することができる。特に、検出ユニットおよびスクリーンは、走査を行っている人の頭の近くにしっかりと設置することができる。
システムは好ましくは、検出ユニットとスクリーンに対して走査を行う人の目および/または頭の動きを検出するアイカメラをさらに含み、演算ユニットは検出された動きに適応されるスクリーンに表示される走査結果を生成する。アイカメラによって、スクリーンの再較正が回避され得、使用可能な角度範囲が増加され得る。
システムは好ましくは、さらに位置センサを含み、走査を行っている人の動きを検出する。それはまたスキャナの近くに位置センサを含み、スキャナの動きを検出する。演算ユニットは、スクリーンに表示される走査結果を生成する際、検出した動きを考慮に入れる。位置センサはまたスクリーン上に表示される走査結果を可視化し、位置センサがないときよりも更に一層正確にすることを可能にする。システムの堅牢性は位置センサのおかげで向上する。
演算ユニットは有利には座標システムの間の変換を行う。座標システムは、口腔内でキャプチャされた画像の座標システム、スキャナの座標システム、検出ユニットの座標システム、およびスクリーンの座標システムを含む。座標システムは、さらにそれぞれ走査を行っている人の左目と右目のためのスクリーンの座標システム、およびそれぞれ走査を行っている人の左目と右目のための座標システムを含む。座標システム間の変換の結果、正確で、空間的に有意義な、走査結果の可視化がスーパーインポーズされた画像としてスクリーン上で実施される。
スクリーンは好ましくはまた、成功した走査に関する情報を表示する。その結果、失敗した走査が直ちに認識され得ることが常に確実となる。
特に好ましくは、演算ユニットは、スキャナのヘッドの近くのスクリーン上に表示されるように、スキャナによって口腔内でキャプチャされた解剖構造の画像を処理する。スキャナは、したがって、仮想ミラーとして使用され得る。この文脈において仮想とは、従来の光学ミラーがなく、記録された画像がスキャナのヘッドの近くに表示され、スクリーンのみで見ることができることを意味する。このミラーは物理的に存在せず、ミラーの機能はスクリーン上の表示のみで見ることができる。
検出ユニットは、例えば、スキャナの3D位置を検出する3Dカメラで有り得、または単なる2Dカメラでも有り得、それによりある状況下においては、スキャナの3D位置が同様に決定され得る。
光学位置マーカーが有利にはスキャナ上に提供される。この位置マーカーによって、2Dカメラで位置マーカー間の距離を決定すること、およびこの決定されたまたは測定された距離にもとづいてスキャナの2Dカメラに対する距離を推定することにより、検出ユニットとして一般的な2Dカメラを使用して特に簡単に、スキャナの近くの検出ユニットによってスキャナの位置を決定することが可能である。
本発明は、さらに先行する請求項のいずれかに記載される通りに構成されるシステムを使った、解剖構造の走査および走査結果の可視化のための方法をさらに提供し、この方法は、口腔内スキャナにより解剖構造の画像をキャプチャすること、口腔内スキャナの空間位置を検出すること、座標システム間の変換でスキャナによってキャプチャされた2Dおよび/または3D画像をスーパーインポーズすること、およびスクリーン上に生成されたスキャニング結果を表示すること、のステップにより特徴づけられる。
本発明による方法によって、スクリーン上の走査結果の可視化を向上させること、および可視化のさらなる使用を促進することが可能である。
特に、スキャナによって口腔内でキャプチャされた解剖構造の個別の画像を併合することにより、走査結果が形成される。したがって、解剖構造が歯であった場合、顎全体がさらなる手間もなく表示され得る。
それぞれのスキャナの位置は好ましくは、口腔外検出ユニットで追跡および記録される。走査結果の可視化、スキャナの位置の可視化、ならびに口腔外でキャプチャされた画像が、したがって可能である。
それぞれのスキャナの位置は好ましくは、スキャナ上の位置マーカーを使用して追跡される。スクリーン上で位置マーカーを使用することにより、スキャナの位置の正確な決定、ひいてはスキャナの正確な追跡が可能となる。
演算ユニットは好ましくは、侵襲的または非侵襲的方法により解剖構造の位置、配向、スケーリングを推定し、侵襲的方法は、走査される解剖構造上のマーカーまたはその他の追跡センサの取付を含み、非侵襲的方法は、解剖構造の光学的2Dまたは3D特性のペアリングを含む。解剖構造の位置、配向、およびスケーリングの推定の向上のため、自動学習フェーズが自動学習のために演算ユニットに通される。これは、解剖構造の位置、配向、およびスケーリングの推定の向上のために、モデルへの走査の成功した追加の間に演算ユニットが学習フェーズを経て、それにより走査手続における休止の間に仮想モデルを表示することを助け、仮想モデルと解剖構造上またはその近くの特性の間の変換が成功した走査の間に知られ、または学習され得、また、2Dまたは3D特性が、走査手続の休止の間に安定的かつ堅牢に仮想モデルを追跡するために選択されること、を意味する。この推定と学習により、以前可能であったよりもより正確な解剖構造の画像が得られる。
スキャナおよび/または走査結果により口腔内でキャプチャされた解剖構造の画像は、有利な形でスキャナの位置に対してスクリーン上に表示される。包括的かつ正確な走査結果の可視化がしたがって可能である。
本発明によると、したがって、迅速で、複雑でなく、正確な解剖構造の走査という利点、およびユーザにとって快適な走査結果の可視化をもたらす。
本発明の記載されたおよびさらなる特性と詳細が、例示として本発明の特性を描写した下記の詳細な説明および添付の図面から、当業者には明らかになろう。
図1は、本発明によるシステムを示す。 図2は、本発明によるシステムのスクリーンを示す。 図3は、本発明によるシステムのイメージングチェーンの概観を示す。 図4は、本発明によるキャプチャされた走査の座標システムを示す。 図5は、本発明のよるスキャナの座標システムを示す。 図6は、本発明による検出ユニットの座標システムを示す。 図7は、本発明による、走査を行っている人の左目と右目のためのスクリーンの座標システムを示す。 図8は、本発明による、走査を行っている人の左目と右目のための、走査を行っている人である監視者の座標システムを示す。 図9は、本発明による較正を示す。 図10は、本発明による、スキャナ上の位置マーカーによる、現実の歯と歯の仮想モデルの間の相関関係の生成を示す。 図11は、本発明による、再現可能な走査結果を得るための、スーパーインポーズされた、標準走査ガイドを示す。 図12は、本発明による、検出の成功の後、見えなくなるスーパーインポーズされたマーカーを示す。 図13は、本発明による、モデルにおけるギャップまたは低点密度のスーパーインポーズされた表示を示す。 図14は、本発明による、スキャナのヘッドの近くの口腔内スキャナの画像の表示を示す。
本発明は、図面の参照により、好ましい実施形態にもとづいて、下記においてさらに詳細に説明される。
図1は、システムを示し、スクリーン40が拡張現実メガネの形で、走査を行う人の視野中に直接配置される。解剖構造としての現実の歯および走査結果は、走査を行う人に一目で視認可能である。表示ユニットにおいて、スクリーン40は現実の視野(拡張現実)中に仮想コンテンツをスーパーインポーズする。
拡張現実メガネはまもなく市販される。本発明は、例えば、Microsoft HoloLensにより実行され得る。この場合、スキャナの空間位置のための検出ユニット20は、付随する2Dカラー画像付き3Dカメラである。スクリーン40および演算ユニット30とも、メガネに一体化される。
周囲環境に組み込まれる、走査結果および有益なヒントがスクリーン40上で視認可能である。図2に示す通り、解剖構造としての走査される歯、既に得られた歯およびスキャナ10が一目で視認可能であり、それらはスーパーインポーズされる。
システムはスクリーン40を含み、中央要素として、走査結果と情報がそこで見られる。スクリーン40により、走査を行っている人であるユーザは、同時に走査テンプレートとしての歯と走査結果を見て、それらをスーパーインポーズできる。
スクリーン40は多様に設計可能である。第一の例としての半透明スクリーンの場合、例えば、仮想コンテンツは現実上にスーパーインポーズされ、現実はごくわずかに淡く見える。第二の例としての完全な仮想スクリーンの場合、例えば、仮想コンテンツは周囲環境のビデオ上にスーパーインポーズされる。このビデオは自然な視点で記録される。仮想コンテンツは、しかしながら、走査を行っている人の網膜上に直接投射され得る。
もちろん、第一の例と第二の例の任意の組合せもまた考えられ、見られた周囲環境はまた半透明な形でスーパーインポーズされ得、および/また重ね合わせは目の前の2つのスクリーン上に同じコンテンツを表示することなく実施され得る。重ね合わせの程度が各ユーザによって個別に設定されることもまた考えられる。
システムはさらに、口腔内スキャナ10の空間位置を検出し、スクリーン40の間近に提供され、好ましくはそのスクリーン40にしっかりと接続される、検出ユニット20を含む。2Dまたは任意で3Dカメラが、多くの場合、拡張現実メガネに一体化される。このカメラは検出ユニット20として機能し得、走査を行う人である、スキャナ10のユーザの視点と同様の視点からの眺めをキャプチャし得る。検出ユニット20はスキャナ10の空間位置を検出し、口腔内スキャナ10に対して、特定の位置での口腔内走査結果を表示するために使用される。これは、例えば、現実の解剖構造上に仮想走査結果をスーパーインポーズするのに有益である。
システムはさらに、検出ユニット20とスクリーン40に対して、走査を行っている人の目および/または頭の動きを検出する、アイカメラ21を含む。例えば、頭とスクリーン40の距離が変わると、表示もまたしたがって適応されねばならない。見る方向が変われば、表示も同様に変わらねばならない。
システムはまた、ユーザの動きを検出して、安定してスクリーン40のコンテンツを表示する手助けをする、任意の位置センサ22を含む。
特に、システムは、2Dおよび/または3Dデジタル記録装置として構成される、スキャナ10を含む。これは多様な方法で実行され得る。2D画像は、例えば、口腔内カメラによって得られる。3Dモデルは、飛行時間法または他の原理により、構造化照明下の三角測量、ステレオカメラで、共焦点的に、記録され得る。
図1に示す通り、本発明によるシステムは特にまた、アイカメラ21と位置センサ22の他、スキャナ10、スクリーン40、および検出ユニット20が互いに接続される、演算ユニット30を含む。演算ユニット30は、ユーザの見る角度を考慮に入れながら、走査結果と現実の重ね合わせを決定する。
本発明によると、特に、3Dデータとユーザの視野の間の変換チェーンを決定する記録装置を使用して、現実の記録された3Dデータとのリアルタイムスーパーインポーズのためのビデオ対応3D表面イメージングの使用が可能である。
図4〜8に明らかなように、本発明によるシステムには異なる座標システムがある。図4に示す座標システムは、口腔内スキャナ10の結果である、記録された走査によって決定される。さらなる座標システムは、図5に示すスキャナ10の座標システムである。さらなる座標システムは、スキャナ10の位置を検出する検出ユニット(下記ではまたオーバービューカメラ20とも称される)の座標であり、図6に示される。他の座標システムは、例えば歯科医などのユーザまたは走査を行っている人により見られる通り、図7に示す空間の座標システムであり、それぞれの目のためのシステム、すなわち、二つのシステムがある。最後に、また、図8に示す、監視者の座標システムもある。
図2に示すように、現実としてオーバービューカメラ20によりキャプチャされた解剖構造上に仮想コンテンツとしてスキャナ10によりキャプチャされた画像をスーパーインポーズするために、例えば、図3に示すように、前もって指定された座標システム間の数多くの既知の変換が必要である。
変換は現実のスクリーン40への変換に関連する。
他の変換は、走査の間に知られる、現実のスキャナ10への変換に関連する。スキャナ10は、通常非常に高い精度で、現実とデジタルモデルの間の関係を生成する。
他の変換はスキャナ10のオーバービューカメラ20への変換に関連する。スキャナ10の位置はスキャナ10上の容易に認識可能な位置マーカー11によって決定され得る。これらの位置マーカー11は、会社または製品のロゴなど、公知のテクスチャによる任意の図案であり得る。これらの位置マーカーは、図10から明らかなように、これらが既知の幾何学的配置(ジオメトリ)とサイズでスキャナ10上に据付られるため、スキャナ10の位置およびサイズについての情報を提供する。スキャナ10の位置はしたがって2Dオーバービューカメラ20によって十分に検出可能である。光学位置マーカーは、例えば、M. Ozuysal 他によるFeature Harvesting for Tracking-by-Detection, European Conference on Computer Vision(2006)に従って、既知のテクスチャで有り得、追跡され得る。空間位置マーカーは、例えば、D. Wagner他による、Robust and Unobtrusive Marker Tracking on Mobile Phones, Technical Report, Graz University of Technologyに従って追跡され得る。
他の変換はオーバービューカメラ20のスクリーン40への変換に関する。例えばオーバービューカメラ20のスクリーン40への固定された幾何学的配置によってなど、相関関係は安定して決定され得る。
他の変換は走査を行っている人の目のスクリーン40への変換に関連する。この相関関係は人ごとに異なり、初回使用の前の個人的な較正により決定をする必要がある。目が動き見る方向が変化し得るため、システムによっては、目も同様に追跡される必要がある。これは既に触れたアイカメラ21により行われ得る。
このイメージングチェーンは、例えば、同時座標における変換で、計算され得る。座標ベクターの線形変換
Figure 0006941060
は、マトリクス状で線形代数で表され、Aは下記のイメージングマトリクスを示す。
Figure 0006941060
線形画像の連続した実行は、関連するイメージングマトリクスのマトリクスの積に対応する。
更なる詳細が、例えば、Hartley および Zissermannによる「Multiple View Geometry in Computer Vision, Cambridge University Press」などの文献に見られる。
目の位置の決定を避けるため、較正の有効範囲は、例えば、ユーザまたは走査を行っている人の視野の平均空間角度に制限され得る。ユーザが、表示される幾何学的配置がこの空間角度を離れるように振り向くと、重ね合わせは隠れ得る。
様々な座標システムが、相応しい座標変換(変換命令)を用いて変換される。最後に、目それぞれについて、一度に上記の変換を実施する変換命令があり、これは2つの変換が実施されることを意味する。変換仕様は、患者の解剖構造としての歯の動きが、ユーザのそれぞれの目の座標システムに変換されることを可能とし、スキャナ10により記録された3D幾何学的配置がスクリーン40上に目で自然に見られるイメージに対して正しい位置で表示されることを可能とする。
システム全体(特に目からスクリーン)を較正するために、例えばスクリーン10は、図9に見られるように、スキャナ10の仮想表示に合致するようにアラインされ得る。例えば、走査失敗、登録エラー、またはスキャナ10のマスキングなどにより、イメージングチェーンが中断されると、仮想コンテンツは、可能な最適位置で表示される。
この位置は好ましくは、下記により決定される。
‐ スキャナ10上に据付られるアクセレーションセンサ。これらは、スキャナ10の位置の短期的な推定を可能とする。長期的には、しかしながら、小さなエラーが積み重なり、推定される位置はしたがって正確でなくなる。
‐ 走査される解剖構造を追跡すること。患者の上顎の歯は固定的にその頭に直結している。例えば目などの顔特徴の観察は、歯の位置に関する情報を提供し得る。
‐ オーバービューカメラ20の解像度と、例えば患者の歯などの解剖構造までの距離によって、歯の特徴もまた認識され得る。2D特徴の3Dモデル位置に対する相関関係は成功した走査の間に学習され得る。そのような特徴は、例えば、歯の特定のエッジパターンまたは色分布であり得る。
例えばカルマンフィルターなど、演算ユニットで位置の安定的推定を計算するために、解剖構造である歯の動的モデルにおいては、不完全な観察も含まれ得る。これは、GPS信号損失の場合の車両の位置推定と同様な方法で、行われ得る。
スクリーン40のコンテンツは下記で述べられる。
走査結果の再現性を向上させるため、走査プロトコルはルーティン走査の間、スーパーインポーズされ得る。例えば、EnderおよびMehlによるInfluence of scanning strategies on the accuracy of digital intraoral scanning systems, International Journal of Computerized Dentistry(2013)から、モデルの精度を向上させ得ることが公知である。このようなプロトコルは通常、トレーニングフェーズでユーザに教育される。提案されるシステムは、走査の間に直接そのような走査プロトコルを提案およびスーパーインポーズすることを可能とする。スキャナとモデルの間の相関関係が明白であるから、これらの指示は簡単に適用され得る。走査プロトコルは前もって固定的に確立される必要はなく、登録エラーを最小化するためにインタラクティブに提案され得る。小さな登録エラーを修正するために、通常ループ閉じ込み(loop closing)は特に重要であり、例えば、T. Weise他、「In-hand Scanning with Online Loop Closure, ICCV Workshops」(2009)などが参照できる。システムは、モデルの精度を向上させるために、具体的に、特に価値のあるループ閉じ込みを提案する。走査ガイドは、例えば、図11に見られるように、走査方向を示す、矢印によって認識され得る。補助として、番号付きの方向指示ポイントをスーパーインポーズすることもまた考えられる。これらの方向指示ポイントはこの領域の走査が成功するとすぐに消える。このオプションは、図12に見られる。
さらなる補助として、図13に見られるように、走査の品質が、例えば特定の色で仮想的にスーパーインポーズされ得る。例えば、モデルにギャップがある場合、走査の品質が不十分になる。これらの領域は、そして次に走査される領域として、提案され得る。
直接に視認可能でないモデルのビューを可視化するため、スキャナ10が仮想ミラーとして機能する。ユーザの視点からは視認可能でないビューは、図14に示すように、スキャナ10のヘッドの近くで仮想的に反映される。ミラーは仮想であり、したがって、図14のようにスキャナ10の上に直接、またはスキャナ10の隣など、所望の通り配置され得る。必要に応じて、ミラーはまた、拡大鏡または拡大凹面鏡として機能し得る。
他の仮想拡大鏡を含み、重要な領域を拡大して表示することも可能である。
スキャナ10が2D走査を記録する能力を有する場合、仮想ミラーはまたモデルまたは現実の歯の電気歯科用ミラーとして機能し得る。既存の3D走査結果が存在する場合、これらを使用してスキャナ10の位置に対するモデルデータを表示する。3D走査結果が存在しない場合、仮想歯科用ミラーは、スキャナ10の位置に対する2D走査を直接表示する。
表示された走査の画像は、人口照明を導入することにより表示される。対応する仮想光源は好ましくは、例えば額の上など、走査を行っている人である歯科医が通常その照明を配置するところに配置される。この仮想光源を正しく配置することが出来るように、システムは歯科医の患者に対する位置を知る必要がある。最も簡単な場合、オーバービューカメラ20がしっかりと歯科医の頭部に接続される。オーバービューカメラと患者の歯の間の画像相関関係は、走査の結果として知られる。
具体的に理想的には最大0.1秒の遅延(レイテンシ)で、可視化はリアルタイムで行われねばならない。高遅延は一般に本方法の適応性を制限するものではないが、ユーザはスキャナ10の相応の遅い取扱いを強いられる。スキャナ10の位置を決定するのに、3D画像が先に生成され、表示される他の幾何学的配置に登録されねばならない(一般的な座標システムへの変換)ため、遅延は完全に避けらない。
低遅延の可視化は相応の高性能な演算ハードウェアを必要とする。演算ハードウェアは分散型であり得る。したがって、スクリーン40と検出ユニット20の間のCPUとGPUがあり得る。スクリーン40、検出ユニット20、およびスキャナ10を接続する、演算ユニット30における追加のCPUとGPUがあり得る。
仮想モデルと現実の空間配置が次に論じられる。
解剖構造である歯の仮想モデルを出来るだけ自然に表示し、口腔内で正しく配置するために、歯のすぐ近くは分割されねばならない。この分割は、例えば、仮想的に被覆された現実の歯と仮想モデルのオプティカル・フローの相関関係によって、実行され得る。被覆された2Dビューのオプティカル・フローは推定仮想モデルのフローと一致しなければならない。もしそうでなければ、これらの動的干渉が仮想モデルの前に空間的に表示される。口腔内スキャナ10がRGB画像をも供給し、仮想モデルがそのように着色され得る場合、現実の歯とモデルの間の色の差もまた分割に使用され得る。例えば、色値が合致しなければ、仮想モデルはこれらの領域に表示されない。
例えばスキャナ10のヘッドの後ろのモデルのギャップを表示するために、このオプションは選択的にスイッチオフすることが出来る。
特に、走査手続の休止の間、解剖構造の位置、配向、スケーリングがツールによって演算ユニット30により推定される。侵襲的方法と非侵襲的方法の間の差別がなされ、非侵襲的方法が好まれる。
侵襲的方法は、走査される解剖構造上へのマーカーまたはその他追跡センサの取付である。非侵襲的方法は、解剖構造の光学2Dまたは3D特性のペアリングである。2Dまたは3D特性は、例えば、わずかな数の目立った局所またはオブジェクト上に密に分布する数多くの広い領域であり得る。
局所2D特性の例としては、下記が挙げられる。
‐ 解剖構造上の局所の色の違い 本明細書においては、通常これらは歯から歯茎への移行である。
‐ 局所の輝度の違い 本明細書においては、通常これらは歯の上の微妙な輝度の差である。
‐ 最大輝度ポイント
‐ 最小輝度ポイント
局所3D特性の例としては、下記が挙げられる。
‐ 例えば、湾曲の度数で表され得る、解剖構造上の局所形状差
より堅牢な描写を達成するため、局所2Dまたは3D特性は追加でそれらの空間分布について調べられ得る。局所ポイント間の近接関係は、例えば、距離単位によって表され得る。
仮想モデル上の特性とオーバービューカメラによりキャプチャされた特性をアラインすることは一つのオプションである。オーバービューカメラは通常、周囲環境の2Dカラーデータまたは3Dデータをも提供する。特性のアラインメントはより簡単であり、連続した走査手続の間の口腔内カメラおよび走査手続の休止の間のオーバービューカメラの記録条件はより相似している。走査を記録するために必要な任意の照明が、したがって、オーバービューカメラにより画像を記録する間、スイッチオフされ得る。追加の照明が有利には、オーバービューカメラのそれと同様の位置に据え付けられ得る。
他のオプションは、解剖構造の近くの周囲環境を記録すること、およびその情報から解剖構造を推測することである。例えば、ヘッドまたはヘッドのパーツは歯のパラメータを決定するのに使用され得る。ここにもまた、侵襲的および非侵襲的方法がある。例えば、マーカーは顔に侵襲的に取付られる。フェイスマスクの特定の視点が非侵襲的に追跡され得る。
走査手続の休止の間においても出来るだけ正確に仮想モデルを現実の解剖構造上に配置するため、スキャナ10での走査の間、スーパーバイザーとして、画像生成の間、記載された方法による自動学習フェーズがある。したがって、走査および走査のモデルへの成功した追加の間、オーバービューカメラからのデータは、走査手続の休止の間、後で出来るだけ正確に現実の解剖構造上に仮想モデルをスーパーインポーズするため、継続的に分析され評価される。この学習フェーズにおいて、オーバービューカメラにより追跡されている特性のいずれが、仮想モデルの位置、配向、スケーリングを推定するのに使用され得るのかが自動的に検出される。これらの特性は、例えば、出来るだけ安定的な追跡を可能とせねばならない。それらは、局所2Dまたは3D特性など、多くの記載された特性から選択され、前述の状況において、特に安定的かつ堅牢に追跡され得る。自動学習フェーズにより、例えば、解剖構造およびその近くに存在する任意の所望の異なる特性の組合せを選択することが可能である。
これらの特性はまた、推定パラメータに関して意義深くあるべきである。選択された特性と走査の間に知られた推定パラメータの関係が学習される。ある特性が所望のパラメータを推定するのに有用でなければ、走査の間にそれが特定され、これらの特性は後に走査手続において無視され得る。
走査が中断される場合、これらの巧みに選択された特性は、未知のパラメータを推定するために使用される。
所望のパラメータを推定するために相応しい特性が自動的に学習される。したがって、これらの特性は前もって選択される必要がない。代わりに、それらは走査手続から走査手続へと適応的に適合される。自動化された学習フェーズによって、推定パラメータにより走査された解剖構造の近くのみに存在する特性をアラインすることが可能である。例えば、フェイスマスクの位置、配向、およびスケーリング(オーバービューカメラで追跡される)に対する仮想モデルの位置、配向、スケーリングの間の関係がしたがって学習され得る。フェイスマスクは走査手続の中断の間も継続して追跡され得、解剖構造は学習されたフェイスマスクに対する位置、配向、およびスケーリングで、表示され得る。
スキャナが補助として使えなければ、仮想モデルはまた、現実の解剖構造を介してユーザによって手動で位置決めされ得る。この手動較正ステップにおいて、追跡された特性と仮想モデルの位置、配向、およびスケーリングの間の関係がまた学習され得る。手動較正ステップは、高い堅牢度を達成するために、一度のみ、または繰り返して実施され得る。
本発明は、特に、解剖構造を走査するための、および走査結果の可視化のためのシステムと方法を論証し、それは簡単な操作により向上された走査結果の可視化を提供する。


Claims (18)

  1. 解剖構造の走査と走査結果の可視化のためのシステムであって、前記システムが、
    解剖構造の画像を口腔内でキャプチャする、口腔内スキャナ(10)と、
    監視者または前記走査を行っている人に対する前記口腔内スキャナ(10)の空間位置を検出する、口腔外検出ユニット(20)と、
    演算ユニット(30)であって、
    前記走査手続の間、前記スキャナ(10)をスクリーン(40)および前記検出ユニット(20)と接続し、前記解剖構造の口腔内でキャプチャされた画像と前記監視者に対する前記口腔内スキャナ(10)の前記検出された空間位置に基づく走査結果を生成し、前記走査結果を解剖学的構造の仮想モデルと合致させ、また、
    前記走査手続の休止の間、前記解剖構造の位置、配向、およびスケーリングを、前記監視者に対する前記口腔内スキャナ(10)の前記検出された空間位置であるツールによって推定し、走査結果として、推定に対応する前記解剖構造の仮想モデルに対応する画像を生成し、および、
    前記スクリーン(40)が前記演算ユニット(30)によって生成された前記走査結果を表示する、前記演算ユニットを含む、解剖構造の走査と走査結果の可視化のためのシステム。
  2. 前記スクリーン(40)が、走査を行っている人の視野に直接配置されるように、拡張現実メガネに一体化されることと、
    前記検出ユニット(20)が2Dおよび/または3Dオーバービュー画像を生成するカメラであって、前記カメラは前記スクリーン(40)の間近にあり、しっかりとそこに接続されること、により特徴づけられる、請求項1に記載のシステム。
  3. 前記検出ユニット(20)および前記スクリーン(40)が、走査を行っている人の頭の近くにしっかりと据付られることにより特徴づけられる、請求項2に記載のシステム。
  4. 前記検出ユニット(20)および前記スクリーン(40)に対する、走査を行っている人の目および/または頭の動きを検出するアイカメラ(21)をさらに含み、前記演算ユニット(30)が、前記検出された動きに適応されたスーパーインポーズされた画像として前記スクリーン(40)上に表示される走査結果を生成することにより特徴づけられる、請求項2または3に記載のシステム。
  5. 走査を行っている人の動きを検出する位置センサ(22)をさらに含み、前記演算ユニット(30)が、前記スクリーン(40)上に表示されるスーパーインポーズされた画像を生成する際に、前記検出された動きを考慮に入れることにより特徴づけられる、請求項4に記載のシステム。
  6. 前記スキャナ(10)の動きを検出する、前記スキャナの近くの位置センサをさらに含み、前記演算ユニット(30)が、前記スクリーン(40)上に表示されたスーパーインポーズされた画像を生成する際に、前記検出された動きを考慮に入れることにより特徴づけられる、請求項4または5に記載のシステム。
  7. 前記演算ユニット(30)が座標システム間の変換を行うことにより特徴づけられる、請求項1〜6のいずれか1項に記載のシステム。
  8. 前記座標システムが、口腔内でキャプチャされた画像の座標システム、前記スキャナ(10)の座標システム、前記検出ユニット(20)の座標システム、および前記スクリーン(40)の座標システムを含むことにより特徴づけられる、請求項7に記載のシステム。
  9. 記座標システムが、走査を行っている人の左目と右目のための前記スクリーン(40)の座標システムをそれぞれ、および走査を行っている人の左目と右目のための座標システムをそれぞれさらに含むことにより特徴づけられる、請求項8に記載のシステム。
  10. 前記スクリーン(40)が成功した走査に関する情報を表示することにより特徴付けられる、請求項1〜9のいずれか1項に記載のシステム。
  11. 前記演算ユニット(30)が、前記スキャナ(10)のヘッドの近くの前記スクリーン(40)上に表示されるように、前記スキャナ(10)により口腔内でキャプチャされた前記解剖構造の画像を処理することにより特徴付けられる、請求項1〜10のいずれか1項に記載のシステム。
  12. 位置マーカー(11)が、前記スキャナ(10)上に提供されることにより特徴付けられる、請求項1〜11のいずれか1項に記載のシステム。
  13. 前記演算ユニット(30)が侵襲的または非侵襲的方法により前記解剖構造の位置、配向、スケーリングを推定し、前記侵襲的方法が走査される解剖構造上へのマーカーまたはその他の追跡センサの取付を含み、また非侵襲的方法が、前記解剖構造の光学2Dまたは3D特性のペアリングを含むことにより特徴付けられる、請求項1〜12のいずれか1項に記載のシステム。
  14. 前記解剖構造の位置、配向、スケーリングの推定の向上のため、モデルに対する成功した走査の間、前記演算ユニット(30)は、前記走査手続の休止の間仮想モデルを表示する手助けをする学習フェーズを経て、前記仮想モデルと前記解剖構造上またはその近くの特性の間の変換が既知または成功した走査の間に学習され、また前記走査手続の休止の間に安定的にかつ堅牢に仮想モデルを追跡するために、2Dまたは3D特性が選択され得ることにより特徴づけられる、請求項13に記載のシステム。
  15. 請求項1〜14のいずれか1項により構成されるシステムを使用した、解剖構造の走査および前記走査結果を可視化するための方法であって、前記方法が、
    前記口腔内スキャナ(10)で前記解剖構造の画像をキャプチャすること、
    前記口腔外検出ユニット(20)で前記口腔内スキャナ(10)の空間位置または位置を検出すること、
    前記口腔内スキャナ(10)でキャプチャされた画像の座標システムを、走査中の座標システム間の変換により、前記スクリーン(40)の座標システムに変換すること、または、
    前記口腔外検出ユニット(20)および前記演算ユニット(30)によって前記解剖構造の位置、配向、スケーリングを推定することおよび前記演算ユニット(30)で前記推定に対応する前記解剖構造の仮想モデルに対応する画像を生成すること、並びに
    前記スクリーン(40)上に生成された画像を表示すること、とを含む方法。
  16. 走査結果が、前記スキャナ(10)によって口腔内でキャプチャされた前記解剖構造の個別の画像を併合することで形成されることにより特徴づけられる、請求項15に記載の方法。
  17. 前記スキャナ(10)の位置が前記スキャナ(10)上の位置マーカー(11)を使うことにより、追跡されることで特徴づけられる、請求項15または16に記載の方法。
  18. 前記スキャナ(10)により口腔内でキャプチャされた前記解剖構造の画像および/または前記走査結果が、前記スキャナ(10)の位置に対して、前記スキャナ(40)上に表示されることにより特徴づけられる、請求項17に記載の方法。
JP2017567070A 2015-07-08 2016-07-08 解剖構造の走査と走査結果表示のためのシステムおよび方法 Active JP6941060B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102015212806.7 2015-07-08
DE102015212806.7A DE102015212806A1 (de) 2015-07-08 2015-07-08 System und Verfahren zum Scannen von anatomischen Strukturen und zum Darstellen eines Scanergebnisses
PCT/EP2016/066259 WO2017005897A1 (de) 2015-07-08 2016-07-08 System und verfahren zum scannen von anatomischen strukturen und zum darstellen eines scanergebnisses

Publications (2)

Publication Number Publication Date
JP2018527965A JP2018527965A (ja) 2018-09-27
JP6941060B2 true JP6941060B2 (ja) 2021-09-29

Family

ID=56615937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017567070A Active JP6941060B2 (ja) 2015-07-08 2016-07-08 解剖構造の走査と走査結果表示のためのシステムおよび方法

Country Status (9)

Country Link
US (1) US11412993B2 (ja)
EP (1) EP3319508A1 (ja)
JP (1) JP6941060B2 (ja)
KR (1) KR102657956B1 (ja)
CN (1) CN107735016B (ja)
AU (1) AU2016290620B2 (ja)
CA (1) CA2991659A1 (ja)
DE (1) DE102015212806A1 (ja)
WO (1) WO2017005897A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11457998B2 (en) 2016-07-29 2022-10-04 Ivoclar Vivadent Ag Recording device
US10470645B2 (en) 2017-05-22 2019-11-12 Gustav Lo Imaging system and method
CN107644454B (zh) * 2017-08-25 2020-02-18 北京奇禹科技有限公司 一种图像处理方法及装置
CN107909609B (zh) * 2017-11-01 2019-09-20 欧阳聪星 一种图像处理方法及装置
DE102018204098A1 (de) * 2018-03-16 2019-09-19 Sirona Dental Systems Gmbh Bildausgabeverfahren während einer dentalen Anwendung und Bildausgabevorrichtung
CN108827151B (zh) * 2018-06-22 2020-05-19 北京大学口腔医学院 数据配准方法及数据配准系统
EP3649919A1 (de) 2018-11-12 2020-05-13 Ivoclar Vivadent AG Dentales bildaufnahmesystem
CN109700531B (zh) * 2018-12-17 2021-07-30 上海交通大学医学院附属第九人民医院 个体化下颌骨导航配准导板及其配准方法
CN109864829B (zh) * 2019-01-28 2024-06-18 苏州佳世达光电有限公司 扫描系统及扫描方法
DK3689288T3 (da) * 2019-01-30 2022-01-17 Dentsply Sirona Inc Fremgangsmåde og system til tredimensionel billeddannelse
CN113424523B (zh) * 2019-02-15 2023-10-27 株式会社美迪特 扫描过程再生方法
JP6936826B2 (ja) 2019-03-18 2021-09-22 株式会社モリタ製作所 画像処理装置、表示システム、画像処理方法、および画像処理プログラム
CN109770857A (zh) * 2019-03-22 2019-05-21 昆明医科大学附属口腔医院(云南省口腔医院) 一种口腔拍照定位装置
KR102236486B1 (ko) * 2019-04-26 2021-04-06 주식회사 메디씽큐 전자적 루페 장치 및 이를 이용한 진단 방법
US10849723B1 (en) 2019-05-07 2020-12-01 Sdc U.S. Smilepay Spv Scanning device
KR102313319B1 (ko) * 2019-05-16 2021-10-15 서울대학교병원 증강현실 대장 내시경 시스템 및 이를 이용한 모니터링 방법
US10832486B1 (en) 2019-07-17 2020-11-10 Gustav Lo Systems and methods for displaying augmented anatomical features
TWI710357B (zh) * 2020-01-17 2020-11-21 東昕精密科技股份有限公司 Ar牙科贋復製造引導系統及其應用方法
CN113223140A (zh) * 2020-01-20 2021-08-06 杭州朝厚信息科技有限公司 利用人工神经网络生成牙科正畸治疗效果的图像的方法
GB2611627A (en) 2020-02-26 2023-04-12 Get Grin Inc Systems and methods for remote dental monitoring
USD962437S1 (en) 2020-05-14 2022-08-30 Get-Grin Inc. Dental scope
CN112506343B (zh) * 2020-12-07 2022-07-12 青岛农业大学 动物解剖学教学方法、系统、介质、计算机设备、终端
US11445165B1 (en) 2021-02-19 2022-09-13 Dentsply Sirona Inc. Method, system and computer readable storage media for visualizing a magnified dental treatment site
EP4079258A1 (en) * 2021-04-23 2022-10-26 DENTSPLY SIRONA Inc. Dental scanning
WO2024007117A1 (en) * 2022-07-04 2024-01-11 Braun Gmbh Oral scanner system
US20240046555A1 (en) * 2022-08-08 2024-02-08 Gustav Lo Arcuate Imaging for Altered Reality Visualization

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US7013191B2 (en) * 1999-11-30 2006-03-14 Orametrix, Inc. Interactive orthodontic care system based on intra-oral scanning of teeth
US7027642B2 (en) * 2000-04-28 2006-04-11 Orametrix, Inc. Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
JP2007528743A (ja) * 2003-04-30 2007-10-18 ディースリーディー,エル.ピー. 口腔内画像化システム
US7463757B2 (en) 2003-12-09 2008-12-09 Carestream Health, Inc. Tooth locating within dental images
US8194067B2 (en) * 2004-02-04 2012-06-05 3M Innovative Properties Company Planar guides to visually aid orthodontic appliance placement within a three-dimensional (3D) environment
US7323951B2 (en) 2005-07-13 2008-01-29 John Mezzalinqua Associates, Inc. Casing for CATV filter
US11428937B2 (en) * 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
BRPI0619485A2 (pt) 2005-12-08 2011-10-04 Peter S Lovely imagem dental de infravermelho
US7912257B2 (en) 2006-01-20 2011-03-22 3M Innovative Properties Company Real time display of acquired 3D dental data
US20070238981A1 (en) 2006-03-13 2007-10-11 Bracco Imaging Spa Methods and apparatuses for recording and reviewing surgical navigation processes
WO2010067267A1 (en) * 2008-12-09 2010-06-17 Philips Intellectual Property & Standards Gmbh Head-mounted wireless camera and display unit
JP5476036B2 (ja) * 2009-04-30 2014-04-23 国立大学法人大阪大学 網膜投影型ヘッドマウントディスプレイ装置を用いた手術ナビゲーションシステムおよびシミュレーションイメージの重ね合わせ方法
US20120056993A1 (en) * 2010-09-08 2012-03-08 Salman Luqman Dental Field Visualization System with Improved Ergonomics
US9237878B2 (en) 2011-04-22 2016-01-19 Mayo Foundation For Medical Education And Research Generation and assessment of shear waves in elasticity imaging
JP5935344B2 (ja) * 2011-05-13 2016-06-15 ソニー株式会社 画像処理装置、画像処理方法、プログラム、記録媒体、および、画像処理システム
JP2013034764A (ja) * 2011-08-10 2013-02-21 Akira Takebayashi サージカルガイド装置及びドリルの位置決め方法
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
US9517041B2 (en) * 2011-12-05 2016-12-13 Controlrad Systems Inc. X-ray tube
DE102012221374A1 (de) * 2012-11-22 2014-05-22 Sirona Dental Systems Gmbh Verfahren zur Planung einer dentalen Behandlung
US9135498B2 (en) * 2012-12-14 2015-09-15 Ormco Corporation Integration of intra-oral imagery and volumetric imagery
US20140221819A1 (en) * 2013-02-01 2014-08-07 David SARMENT Apparatus, system and method for surgical navigation
US9808148B2 (en) * 2013-03-14 2017-11-07 Jan Erich Sommers Spatial 3D sterioscopic intraoral camera system
CN103442169B (zh) * 2013-07-29 2016-10-05 北京智谷睿拓技术服务有限公司 操纵图像采集设备的拍摄功能的方法和图像采集设备
CN103440626B (zh) * 2013-08-16 2016-10-19 北京智谷睿拓技术服务有限公司 照明方法和照明系统
CN103886145B (zh) 2014-03-12 2017-01-04 南京航空航天大学 牙齿预备体数字化模型设计方法
FR3021518A1 (fr) * 2014-05-27 2015-12-04 Francois Duret Dispositif de visualisation pour faciliter la mesure et le diagnostic 3d par empreinte optique en dentisterie
US10042937B2 (en) 2014-07-30 2018-08-07 Microsoft Technology Licensing, Llc Adjusting search results based on overlapping work histories
US10504386B2 (en) * 2015-01-27 2019-12-10 Align Technology, Inc. Training method and system for oral-cavity-imaging-and-modeling equipment

Also Published As

Publication number Publication date
AU2016290620B2 (en) 2021-03-25
US11412993B2 (en) 2022-08-16
DE102015212806A1 (de) 2017-01-12
CN107735016B (zh) 2022-10-11
AU2016290620A1 (en) 2018-02-01
JP2018527965A (ja) 2018-09-27
CN107735016A (zh) 2018-02-23
EP3319508A1 (de) 2018-05-16
WO2017005897A1 (de) 2017-01-12
CA2991659A1 (en) 2017-01-12
KR20180027492A (ko) 2018-03-14
KR102657956B1 (ko) 2024-04-15
US20180192964A1 (en) 2018-07-12

Similar Documents

Publication Publication Date Title
JP6941060B2 (ja) 解剖構造の走査と走査結果表示のためのシステムおよび方法
CN109069097B (zh) 牙科用三维数据处理装置及其方法
JP4401727B2 (ja) 画像表示装置及び方法
EP2973417B1 (en) A method and system for three-dimensional imaging
WO2017144934A1 (en) Guided surgery apparatus and method
US20220192800A1 (en) Method and system for guiding an intra-oral scan
CN113260335B (zh) 用于测量牙周袋深度的系统
CN108778143B (zh) 用于将腹腔镜图像与超声图像进行叠加的计算设备
JP2007528743A (ja) 口腔内画像化システム
JP6116754B2 (ja) 低侵襲手術において画像データを立体視表示するための装置およびその装置の作動方法
JP7472145B2 (ja) 歯科治療を提案及び可視化するための方法及びシステム
Reiter et al. Surgical structured light for 3D minimally invasive surgical imaging
JP2005349176A (ja) 顎運動解析方法及び顎運動解析システム
JP2021025947A (ja) キャリブレーション装置及びその制御方法及びプログラム及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210903

R150 Certificate of patent or registration of utility model

Ref document number: 6941060

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150