JP6198857B2 - 3次元の画像形成を行うための方法及びシステム - Google Patents

3次元の画像形成を行うための方法及びシステム Download PDF

Info

Publication number
JP6198857B2
JP6198857B2 JP2015561884A JP2015561884A JP6198857B2 JP 6198857 B2 JP6198857 B2 JP 6198857B2 JP 2015561884 A JP2015561884 A JP 2015561884A JP 2015561884 A JP2015561884 A JP 2015561884A JP 6198857 B2 JP6198857 B2 JP 6198857B2
Authority
JP
Japan
Prior art keywords
image
dimensional image
feature points
scanning device
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015561884A
Other languages
English (en)
Other versions
JP2016514984A (ja
Inventor
ヤニック グリネク
ヤニック グリネク
チンゥラン チェン
チンゥラン チェン
Original Assignee
ケアストリーム ヘルス インク
ケアストリーム ヘルス インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ケアストリーム ヘルス インク, ケアストリーム ヘルス インク filed Critical ケアストリーム ヘルス インク
Publication of JP2016514984A publication Critical patent/JP2016514984A/ja
Application granted granted Critical
Publication of JP6198857B2 publication Critical patent/JP6198857B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry
    • A61C19/05Measuring instruments specially adapted for dentistry for determining occlusion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Description

本発明は、物理的被写体の3次元(3D)の画像形成に関し、より具体的には、ユーザが自由に操作する手持ち式スキャニング装置を用いて、3次元の画像形成を行うための方法及びシステムに関する。
映画及びビデオゲームの製作、コンピュータ支援工業設計、矯正器具及び義肢、リバースエンジニアリング及び試作モデルの作成、品質管理及び検査、文化財の文書化などの幅広い応用範囲において、3次元(3D)の画像形成技術はますます重要な役割を果たすようになってきた。一般の人による3次元の画像形成技術の幅広い使用を促進するために、結像光学系を備えて構成された電子型手持ち式3Dカメラの製品が開発されてきた。その携帯性により、ユーザはこのようなカメラ装置を容易に操作して、実在の被写体又は環境を必要に応じて分析することが可能となる。
一般的に言えば、3Dカメラの製品は、被写体の形状及びおそらくはその外観のデータを収集し、データポイントとしてそのデータを3次元空間内に記録するよう設計されている。被写体の表面上の幾何学的サンプルのポイントクラウドが取得されると、これらのポイントを用いて、被写体の形状を推定することができる。例えば、これらのポイントは三角形状のメッシュに変換され、コンピュータ支援設計のモデルとなる。ほとんどの状況で、完全な被写体のモデルを作成するためには、様々な方向からの複数回のスキャニングが必要であり、通常は、特定の透視図での1回のスキャニングで少なくとも1つの3D図が得られる。次いで、複数の3D図は、完全な3次元モデルに組み立てられる。この処理は、通常「スティッチング」処理と呼ばれる。
様々なスティッチング・アルゴリズムが開発されており、それらのほとんどで、最後に取得した画像と、その前に取得した画像とを適切に重ね合わせて、良好で効率的なスティッチングを保証し、それに伴って、3Dモデルの質を向上させることを必要としている。ユーザが自由に操作可能な、すなわち、被写体に対してほとんどランダムな方向又は位置から被写体の3次元図を収集することができる、手持ち式3Dカメラ、すなわち、スキャニング装置の製品の場合、スティッチング処理に関する特有の問題が生じるおそれがある。というのも、ランダムに取り込まれる画像は、所望の結果を導くことなく、単に再現をかく乱させ、計算に対して余分な負荷を与えるだけであり得るためである。従来技術では、スティッチング処理に関して有用な情報が、取り込まれる3D図に含まれ得るよう、3D図の取り込みの途中で、どのようにスキャニング装置を適切に配置させるかに関するガイダンスがユーザに提供されていない。それどころか、操作者が現場において自分で判断しなければならず、それにより、余分なスキャニングが行われ、膨大な計算時間が必要となり得、その一方で、その結果は正確さに欠けていることがたびたび発生する。
したがって、本発明の目的は、手持ち式スキャニング装置を用いて個々の3D図を自由に取り込む間に、3次元画像の形成手順に対するリアルタイムのフィードバックを提供する方法及びシステムを提供し、これにより、この汎用タイプの既知の装置における上記の欠点を克服し、より効率的で正確な3Dの再現を可能にすることである。
上述の目的及びその他の目的を鑑み、3次元画像形成の方法が提供される。この方法では、手持ち式スキャニング装置で被写体の第1の3次元図が取り込まれる第1の位置での前記スキャニング装置の視域の第1の2次元画像を記憶し、前記スキャニング装置が前記第1の位置から第2の位置に移動する間に、前記第1の画像に対する前記第2の位置での前記スキャニング装置の視域の第2の2次元画像の位置測定値を推定し、前記位置測定値に基づいて、フィードバックをユーザに提供するための命令を生成する。尚、前記フィードバックは、前記第2の位置が第2の3次元図を取り込むために適しているかどうかを示すために提供される。
本発明の別の態様では、3次元の画像形成を行うシステムも提供される。前記システムは、ユーザが自由に操作して被写体の3次元図を取り込む手持ち式スキャニング装置と、被写体の第1の3次元図が取り込まれる第1の位置でのスキャニング装置の視域の第1の2次元画像を記憶し、前記スキャニング装置が前記第1の位置から第2の位置に移動する間に、前記第1の画像に対する前記第2の位置での前記スキャニング装置の視域の第2の2次元画像の位置測定値を推定し、前記位置測定値に基づいて、フィードバックをユーザに提供するための命令を生成するよう構成される処理ユニットと、前記処理ユニットからの前記命令に従って、前記フィードバックをユーザに提供するよう構成されるフィードバックユニットと、を含む。尚、前記フィードバックは、前記第2の位置が第2の3次元図を取り込むために適しているかどうかを示すために提供される。
本発明では、新しく取り込まれる3D図に対する、その前に取得された3D図の位置に関する、直接認知可能なフィードバックが提供され、これにより、ユーザは、新しい3D図に関して自分で配置したスキャニング装置の位置が3Dモデリングに対して適しているかどうかを完全に認識することができる。このフィードバックは、3D図に対応するスキャニング装置のファインダー内での2次元画像の追跡に基づく。このフィードバックは、3次元空間における、いずれのスティッチング・アルゴリズムとも関係がないため、顕著な処理コスト及び処理時間の増加が、本発明によって引き起こされることはない。それどころか、スキャニング装置の操作者が、効果的なスキャニングがどこで行われるかを知ることができるため、3Dスティッチング処理が速度と品質の両方に関して大幅に向上する。
その他の本発明の特徴、その特質及び種々の利点は、添付図面とそれに続く特定の好ましい実施形態の詳細な説明によって明らかにしていく。
下記の添付図面に示される通り、本発明の上記の目的及びその他の目的、特徴、並びに利点は、以下の好ましい実施形態に関する、より具体的な説明により明らかにする。
本発明の一実施形態による、3次元の画像形成を行うシステムを示す図である。 本発明の一実施形態による、3次元の画像形成処理を示すフローチャートである。 もう一方の2次元画像に対する、スキャニング装置の視域の一方の2次元画像の位置測定値を推定するための処理を示すフローチャートである。 本発明の一実施形態による、ユーザにフィードバックを提供するための画像を示す図である。 本発明の一実施形態による、ユーザにフィードバックを提供するための画像を示す図である。 本発明の一実施形態による、ユーザにフィードバックを提供するための画像を示す図である。 本発明の別の実施形態による、ユーザにフィードバックを提供するための画像を示す図である。
本発明は、種々の修正形態及び代替的な構造にまで及んでいるが、本発明の実施形態を図面に示し以下に詳細に説明する。しかし、具体的な説明及び図面により、本発明を開示された特定の形態に限定することを意図していないことは理解されよう。それどころか、特許請求されている発明の範囲は、添付されている請求項で示される本発明の範囲内の全ての修正形態及び代替的な構造を含むことを意図する。
本明細書の文脈において定義されない限り、本明細書中で使用される全ての技術用語及び科学用語は、本発明が属する技術分野の当業者が理解することと同じことを意味する。
3次元の画像形成のために3次元スキャニング装置を操作するユーザにリアルタイムのフィードバックを提供する技術を以下に説明するが、本明細書で開示する発明の概念は、このような用途には限定されず、様々な画像形成の用途で有効に用いられることは言うまでもない。例えば、本明細書に記載されているシステム及び方法は、リアルタイムのフィードバックを行うことによって画像形成が向上し得る、2次元画像形成システム又はその他の用途で有効に用いられ得る。このような全ての変更形態及び代替的実施形態は当業者には明らかであり、本開示の範囲内であることを意図する。
さらに、非限定的な実施例として、歯科インプラントの画像形成での使用を例として、本開示の方法及び装置は説明され得る。しかし、スキャニング装置を用いてユーザの自由な制御の元で被写体に対する任意の方向から取り込まれるいくつかの3D図のスティッチングに基づいて、3次元における被写体表面の生成が行われる、同様の3D画像の形成手順にも本開示の教示が適用可能であるということは理解されよう。
図1は、本発明の一実施形態による、3次元の画像形成を行うシステムを示す図である。システム100は、口腔内に義歯を移植するために設計された補綴歯科の手順に適応可能であり、歯冠などの補綴物を作成するための3次元モデリング結果を提供する。図1に示される実施形態によると、システム100は、手持ち式スキャニング装置101、処理ユニット102、及びフィードバックユニット103を少なくとも含むことができる。
図1に示す通り、この手持ち式スキャニング装置は、プローブの形状を有し、ユーザにより自由に操作可能である(すなわち、配置可能である)。しかし、その可搬性及び操作性における十分な利便性をユーザに提供する限り、この種の手持ち式スキャニング装置(本明細書では、単にハンドピースとも呼ばれる)は、あらゆる形態で構成可能である。基本的に、この手持ち式スキャニング装置101はユーザにより操作されて、様々な位置から被写体の3次元図を取り込むことが可能であるが、例えば、取り込まれる3D図の順序には、通常、ルールは存在しない。例えば、例示している実施形態では、ハンドピース101は口腔内カメラとして機能可能であり、被写体は患者の顎、歯、又は歯茎でよい。
この処理ユニット102は、図2に示すステップを実行するよう構成され得、この図2には本発明の一実施形態による3次元の画像形成処理が示されている。具体的には、被写体の第1の3次元図が取り込まれる第1の位置でのスキャニング装置101の視域の第1の2次元画像を記憶し(S201)、スキャニング装置101が第1の位置から第2の位置に移動する間に、第1の画像に対する第2の位置におけるスキャニング装置101の視域の第2の2次元画像の位置測定値を推定し(S202)、この位置測定値に基づいて、フィードバックをユーザに提供するための命令を生成する(S203)ように、この処理は構成されている。本発明の実施形態では、このフィードバックは、3次元の画像形成手順におけるスティッチング処理を行うための第2の3次元図を取り込むために第2の位置が適切であるかどうかを示すために提供される。
処理ユニット102は、図1ではパーソナルコンピュータとして示されている。この処理ユニット102は、例えば、全ての好適な処理プラットフォーム、コンピュータプラットフォーム、コンピュータ装置、処理装置、コンピュータシステム、処理システム、コンピュータ、プロセッサ等で実装可能であり、特定の用途に関して好適な、あるいは特定の設計の要求事項に従った、ハードウェア、及び/又はソフトウェアの全ての好適な組合せを用いて実装可能であることは理解されよう。
上述した通り、被写体の表面全体の図を取得するために、異なる視野から複数の3D図を連続して取り込み、種々のスティッチング・アルゴリズムを用いて、同時に各図の3次元データを1つに「スティッチング」する、あるいは、既存の3次元のモデルにスティッチングすることができる。どちらにしても、良好で効率的なスティッチング処理を行い、モデリング結果の質を高めるために、取り込まれる3D図どうしの間での適切な重なり合いが重要である。ユーザは手持ち式装置を自由に制御することによる恩恵は得ているが、3Dモデリング手順の効率及び正確さを向上させるために、どこにハンドピースを配置させるかについては完全には認識していない。スキャニング装置の視域の視覚画像を供給するよう構成される3D画像形成システムでは、大抵の場合、スキャニング装置の移動後、現在表示されている画面上のビデオ画像に対して、最後の3D図が取り込まれる位置に関する手がかりはユーザには与えられない。
2つの3D図の取り込みと取り込みとの間(すなわち、一方の3D図が取り込まれ、他方のスキャニングが実行されるまでの間)で、ユーザにフィードバックを提供するための命令を生成するよう処理ユニット102は構成されている。このようなリアルタイムのフィードバックのおかげで、スキャニング装置101の現在の配置が、別の3D図を取り込むために適しているかどうかを、ユーザは警告され、あるいは知ることができ、このことがこのスティッチング処理の強みとなる。
上述した通り、最後の3D図が取り込まれる前の位置での、スキャニング装置101の視域の記憶画像(すなわち、第1の画像)に対する、スキャニング装置101の現在の位置での視域の2D画像(すなわち、第2画像)の推定位置測定値に基づいて、フィードバックをユーザに提供するための命令が生成される。例えば、この位置測定値は、第1の画像と第2の画像との間の重複部として、あるいは第1の画像と第2の画像との間の回転角度として推定される。本発明の一実施形態では、重複部が30%を超えて推定された場合、あるいは回転角度が30度未満で推定された場合、フィードバックが提供されて、新しい3D図が取り込まれる、第2の位置がスティッチング処理に対して許容可能であることが示される。
3D画像の形成手順が確実にうまくいくように、最後のスキャニングで取得されるメッシュ面を伴う新しい3D図の重複部を推定することを目指す。スキャニング装置の移動中に取り込まれるデータの3D再現図に基づくユーザガイダンスによって、より安定した結果が提供されるが、これにはリアルタイムの制約、及びアルゴリズムの複雑さという問題もあり、ほとんど恩恵を得られない。これとは対称的に、本発明の実施形態では、スキャニング装置の配置によりフィードバックが行われるため、3D再現アルゴリズムとは関係がない。対応する2D画像どうしの重複部により、3D図どうしの重複部が反映され得ることを想定して、単に対応する2次元画像どうしの相対位置を測定することにより、新しい3D図に関する位置の候補が評価される。遠近的に見ることで被写体の表面が遮断される可能性のあることと、3D図の一部の欠けること(例えば、低い反射率領域の信号の欠如による)がこの想定が有効ではない2つの理由である。しかし、本発明の目的は、単に操作者をガイドし、参考情報を提供するだけであり、この測定の精度が極端に高い必要はない。次に、図3に関して、位置測定値を推定する処理の一例を説明する。
フィードバックユニット103は、処理ユニット102からの命令に従って機能するよう設計されている。すなわち、処理ユニット102により生成される命令に従って、前記フィードバックをユーザに提供するよう設計されている。
図1に示す実施形態では、フィードバックユニット103はモニタとして実装され、スキャニング装置101の視域のライブビデオ画像がこのモニタに写し出され、操作者が被写体に対してスキャニング装置を配置する際の手助けとなる。本発明の一実施形態では、この場合、ライブビデオ画像に重ねられる第1の画像の描写の表示も、フィードバックを提供するための命令の中に含むことができる。このように第1の画像にサインを重ね合わせることにより、スキャニング装置101が現在どこに配置されているか、最後のスキャニングが行われた位置に対してスキャニング装置がどのように移動しているか、の両方の情報がユーザに示される。リアルタイムの追跡による効果を得るために、スキャニング装置101が最後のスキャニングが行われた位置から移動している様子をユーザがはっきりと見ることができるよう、描写の位置及び外観は前記スキャニング装置の移動によって変化するよう構成され得る。
図4a、図4b、及び図4cには一実施例が示されており、この実施例では第1の画像の描写は、内部に十字を有する長方形である。図4aには、最後の3D図が取り込まれたときの、第1の位置でのスキャニング装置101の視域、すなわち、長方形及び十字が全く変形していない状態で画面の真ん中に配置された第1の画像が示されている。図4bには、スキャニング装置101が第2の位置に配置されているときのスキャニング装置101の視域が示されており、この第2の位置では、画面上の長方形及び十字が変形し移動することにより、最後のスキャニングが行われた位置に対して、スキャニング装置が回転、平行移動、傾いていることを反映することができる。フレームを色分けすることにより、3D図を取得するための好適な位置を示している。図4cには、スキャニング装置101が別の第2の位置に配置されたときのスキャニング装置101の視域が示され、この位置が3D図の取得には推薦できない位置であることがオレンジ色のフレームにより示されている。いくつかのケースでは、スキャニング装置が最初の位置から遠く離れてしまうため、第1のフレームの描写は部分的にしか表示されない。
現在の位置が別の3D図を取り込むために適しているかどうかを直接認知可能な表示を提供するために、第1のフレームの描写は、第1の色、例えば、第2の位置が適していることを示すグリーン(図4b)と、第2の色、例えば、第2の位置が適していないことを示すオレンジ(図4c)と、を提示するよう構成されていることが好ましい。
本発明の別の実施形態では、スキャニング装置101に統合される、例えば、本体のスキャニング装置の一側面に取り付けられる発光要素としてフィードバックユニット103を実装することができる。例えば、この発光要素には、全ての光プロジェクタ、及び発光ボタンすなわち発光ダイオードが含まれ得る。本発明の一実施形態では、ハンドピースの取り込み用のボタンの周りにLEDリングが備えられ得、このLEDリングが光の色を変化させる。この発光要素は、第1の色、例えば、第2の位置が適していることを示すグリーン、及び第2の色、例えば、第2の位置が適していないことを示すレッドを発光することができる。この場合、処理ユニットの表示を見ることなくハンドピースから直接発光されている色を見ることにより、取り込み画像の全てのライブ映像が供給されているかどうかにかかわらず、ユーザはスキャニング装置をどのように配置させるかを確認することができる。
本発明のさらに別の実施形態では、フィードバックユニット103はイメージプロジェクタとして実装され得る。スキャニング装置101が移動したときのフィードバックはイメージプロジェクタを介した被写体上の投影画像により提供され得る。
図5には、被写体が患者の歯である歯科の用途において、イメージプロジェクタを介したフィードバックを提供するための例示的な図が示されている。この投影画像は、コンピュータ画面上に映し出された、変形した長方形と十字でよい。あるいは、既に取り込まれている3D図投影像でよい。右側の3D面は、第1の位置で取り込まれたものである。第1の画像に対する第2の画像の推定位置測定値に基づくと、グリーンで示され得る長方形の内側のビデオフレームに3D面を右側から配置するための情報を十分に得ることができる。すなわち、このイメージプロジェクタは、現在の図に対して適切な位置で、右側の3D面を歯の表面に直接投影するよう構成されている。このライブ映像は、説明のため、左側に映し出されているが、実際には、ユーザはこの口の中の3D面を、画面を見ることなしに、自分の目で見ることができる。
2回の取り込みの間で適切なフィードバックを行うことにより、スキャニング装置を任意の位置及び方向で配置することで生じる、かく乱情報すなわち無駄な情報が大幅に削減されるため、計算リソースをある程度まで節約することが可能である。3D画像形成のためのスティッチング処理を、より円滑に、かつ、効率的に実行することができ、それに伴い、最終的な結果の精度も向上する。
図1に示すシステム100の構造は、例示する目的でのみ提供されていることは、当業者には理解されよう。スキャニング装置101、処理ユニット102、及びフィードバックユニット103は、別々のユニットとして示されているが、これらを一体型として実装することも可能である。例えば、処理ユニット102は、ハンドピース装置内に統合可能であり、このハンドピース装置が、リアルタイムのフィードバックを提供するための画面をさらに備えることができる。別の実装形態では、スキャニング装置101と通信するためにラップトップコンピュータが用いられる場合などは、フィードバックユニット103も処理装置に組み込むことができる。通常、本発明の実施形態では、互いに分離され得る、あるいは全体的又は部分的に組み合わされ得るユニット及び/又はサブユニットを含むことができ、これらは専用プロセッサ、多目的プロセッサすなわち汎用プロセッサ、又は制御装置、あるいは当技術分野では既知の装置を用いて実装され得る。
尚、2次元でのスティッチングは、3Dのスティッチング手順と比べると、それ程複雑ではない。スティッチングされる2つの画像上の対応する画素間の空間変換に関する情報を含む変換行列が2次元のスティッチングにより提供される。このような変換行列は、通常、正方行列として作成され、この正方行列により、一方の画像上の2Dポイントと第2の画像上の対応2Dポイントとの間の線形関係が提供される。本発明の分野では、2Dポイント(x,y)は、同次座標(x,y,1)を用いて表される。同次座標に関して、このような変換行列は射影変換行列として規定される。コンピュータビジョンの分野では、空間内の同じ平面のいずれの2画像も、射影変換行列により関連付けられる。2D画素の座標を(x,y)から(x,y)に変換するための通常の3×3の射影変換行列Hは、以下のように表すことができる。:
となるような
但し、「w」は遠近パラメータであり、その等式により決定される。
31=h32=0、かつh33=1の擬似変換の場合、擬似変換から残された6つの自由度に関して、下記のより古典的な表現形式である同等物を用いて書き直すことができる。:
但し、「θ」は2つの画像間の回転角度を表し、(s,s)はそれぞれ2の画像のx軸とy軸に沿った2次元における縮尺の測定値を表し、「w」は2つの画像間の傾きを表し、(t,t)はそれぞれ第2の画像のx軸とy軸に沿った2次元における平行移動の測定値を表す。
本発明の一実施形態においては、一方の画像を他方の画像とスティッチングして変換行列を得る処理では、1.各画像内の特徴ポイントを検知し、2.特徴の数を限定し、3.特徴位置の画像毎に特徴記述子を抽出し、4.第2の画像に対して第1の画像で実行可能(その逆も同様)なランダムサンプルコンセンサス(RANSAC)などの全数探索アルゴリズムを用いて、画像の記述子どうしを照合し、5.対称的に一致したものだけを残す(すなわち、第1の画像内の特徴f1に最も良く一致している特徴が第2の画像内の特徴f2であり、特徴f2に最も良く一致している特徴が特徴f1である)。RANSACアルゴリズムの1回の繰り返しにより、上記の対称的一致の中から3つ特徴ポイントのペアがランダムに抽出されて、変換行列の候補が算出され、次いで、変換されるその一致の第1のポイントと、目標となるその一致の第2のポイントとの間の距離を算出することにより、どのくらいの数のその他の一致がこの変換行列候補と合うかを判定する。この距離が所定の閾値より短い場合、その一致は変換と合うと判定される。続いて、RANSACアルゴリズムを繰り返し、所定の数の回数に達したら終了する。その変換行列と合う一致の数が最も多い変換行列の候補が変換行列として選択される。
画像をスティッチングするための、この特徴ベースのアプローチは、単に一実施例として記載されており、本発明の実施形態では、コンピュータビジョン内の変換を算出するための全ての他の方法を使用することができる。
第1の画像と第2の画像との間での位置測定値の推定は、これらの画像の間で直接行うことも、あるいは基準画像を用いて間接的に行うこともできる。第1のフレームに続く、スキャニング装置101からの視域の画像シーケンスの始まりでは、スティッチングがうまくいくよう、第1の画像と第2の画像との間の重複部が十分でなくてはならないが、ハンドピースが遠くに移動してしまうため、これら2つのフレーム間の重複部が正確な位置測定値を得るために十分でなくなるおそれがある。したがって、視域の画像シーケンス内で選択される基準画像を用いることが望ましい。第1の画像と第2の画像がもはや重なり合わない場合でも、この基準画像は中間点の役割を果たし、これにより、第1の画像に対する第2の画像の位置測定値を決定することができる。
図3には、一方の2次元画像に対する、スキャニング装置の視域のもう一方の2次元画像の位置測定値を推定するための処理を示すフローチャートが示されている。上記で議論した通り、第2の位置が新しい3D図を取り込むために好ましいかどうかを示すフィードバックは、第1の画像に対する第2の画像の推定された位置測定値に基づく。図3に示す通り、前記位置測定値を推定するために、処理ユニット102は、最初に、ステップ301で、スキャニング装置101の視域の2次元画像のシーケンスから基準画像を選択するよう構成され得、その際その基準画像から第1のフレームまでの変換行列Hは有効と判定されている。例えば、基準画像は500ms毎などの特定の時間間隔で取り込むことができる。
ステップ302で、第2の画像を基準画像にスティッチングして、変換行列Hを取得する。
ステップ303で、HとHとを乗算して、第3の変換行列Hを算出し、このHが第1の画像と第2の画像との間の変換を表しているものと想定される。
一般化による損失を伴うことなく、基準画像は第1の画像と同等であり得、この場合、Hが同一の行列と等しく、数値的に評価する必要はない。上記に記載した通り、これは第1のフレームと第2のフレームの間における変換を直接評価したことと同じである。
2つの画像間における変換行列の算出が不可能であり得る状況も存在し得る。例えば、特徴の数又は特徴の一致の数が、全ての変換を判定するために十分でない場合があり得る。そのような場合はスティッチングが失敗に終わり、そうでない場合にはスティッチングは成功する。
ステップ304で、スティッチングが成功した場合、取得した変換行列Hを評価して、有効かどうかをチェックし、第1の画像と第2の画像との間の空間関係の測定値を判定する。H、H及びHが擬似変換行列である本発明の一実施形態では、変換行列Hの有効性の判定では、Hを分解して、第2の画像内の画素と第1の画像内の画素との間の空間的対応関係を記述する少なくとも1つのパラメータを取得すること、つまり、「θ」、「w」、(s,s)、(t,t)などのパラメータを抽出することが含まれ得る。Hが有効であるかどうかを判定するために、この抽出されたパラメータが所定の閾値と比較され得る。例えば、x軸とy軸に関する縮尺値(s,s)が両方とも[0.5,2]の範囲内にある場合、Hは許容可能であると見なされ得る。他のパラメータでも同様である。
本発明の別の実施形態では、変換行列Hの有効性の評価には、Hを第2の画像に適用して中間画像を取得すること、つまりHを第2の画像の画素行列で乗算することと、次いで、中間画像と第1の画像の間における類似性を算出することと、が含まれ得る。類似性の測定値は、[−1,1]の範囲内の中間画像と、[0,1]の範囲における第1の画像の間の正規化相互相関(NCC)、すなわち正規化相互情報量を計算することにより算出することができる。この類似性が所定の閾値と比較されて、Hが有効であるかどうかが判定され得る。
ステップ305で、Hが有効であると判定された場合、第1の画像に対する第2の画像の位置測定値は、この行列から推定される。上述した通り、位置測定値は、例えば、2つの画像間における重複部の測定値又は回転角度であり得る。第2の画像と第1の画像との間のHが有効であるという分解結果により、回転角度などの位置測定値の立体的な推定値が提供される。変換行列を3×3の回転行列及び3×1の平行移動ベクトルへ分解するには、カメラ固有のパラメータ情報が必要となり得、この情報はコンピュータビジョンの分野におけるカメラの校正手順を通して得ることができる。回転θの回転角度の行列は、回転行列Rにおける以下の関係を用いて算出可能である。:
trace(R)=1+2cos(θ)
第2の画像からの情報を含む中間画像内の画素の割合により、2つの画像間における重複部の推定値が提供される。
実際には、処理ユニットは、スキャニング装置が移動する間にいくつかの基準画像を記憶するよう構成され、基準フレームが特定の間隔でサンプリングされ得る。記憶するデータ量を制限するために、基準画像の総数も制限され得る、したがって、いくつかの基準画像は、しばらくすると、新しいものと交換される。複数の基準画像を使用することにより、現在のフレームを用いた追跡が、もはやうまく機能しない場合、別の基準画像に切り替えることにより、追跡を継続することができる。あるいは、より速く追跡を回復させることができる。この追跡は限定した履歴を有する。基準画像が記憶されると、対応する変換行列Hもこの基準画像と共に記憶される。このように、Hが再度算出される必要はない。同じ選択された基準フレームは、取り込まれた画像シーケンス内のそれに続く第2の画像に関しても再使用され得る。
画像間の変換行列は、マッピング方向には関係なく単一の行列で示されるが、より精度を上げるために、変換行列Hが第2の画像の画素座標から第1の画像の画素座標へのマッピングに対応する場合は、変換行列Hを逆にすることで、第1の画像の画素座標から第2の画像の画素座標への反対の関係を取得することができる。
この点において本発明の実施形態は限定されていないが、本明細書で使用される用語「複数(plurality)」及び「ある複数(a plurality)」には、例えば、「複数の(multiple)」又は「2つ以上(two or more)」という意味が含まれ得る。用語「複数(plurality)」及び「ある複数(a plurality)」は、本明細書を通して、2つ以上の構成部品、装置、要素、ユニット、パラメータなどを示すために用いられ得る。
尚、前述の実施形態は本発明を限定するものでなく説明するものであり、下記の請求項の範囲を逸脱することなく、代替的な実施形態が当業者により設計され得る。「含む(include)」、「含んでいる(including)」、及び「含む(comprising)」などの言葉は、存在するが明細書及び請求項に記載されていない要素又はステップを除外しないものとする。また、本明細書及び付随の請求項で使用される、単数形「ある(a)」、「ある(an)」、及び「その(the)」は、文脈により明らかに示されている場合を除き、複数の言及も含むものとする。本発明は、いくつかの異なる要素を含むハードウェアにより、あるいは適切にプログラムされたコンピュータにより実現可能である。いくつかの手段が記載されている装置の請求項では、これらの手段のうちのいくつかは、特に同じハードウェアのアイテムで具体化することが可能である。第1、第2、第3という言葉の使用は、いかなる順番も示しておらず、これらは単に名前として説明され得る。

Claims (3)

  1. 3次元の画像形成方法であって、
    ユーザにより自由に操作される手持ち式スキャニング装置により、被写体の第1の3次元図が取り込まれた位置である第1の位置における、前記スキャニング装置の視域の第1の2次元画像を記憶し、
    前記スキャニング装置が前記第1の位置から第2の位置に移動する間に、前記第1の2次元画像から複数の第1特徴点を抽出し、前記第2の位置での前記スキャニング装置の視域の第2の2次元画像から複数の第2特徴点を抽出し、前記複数の第1の特徴点と前記複数の第2の特徴点との間の対応関係を生成し、複数の特徴点間の前記対応関係を用いて位置関係を生成し、前記複数の第1特徴点と、対応する前記複数の第2特徴点との前記位置関係に基づいて、前記第2の2次元画像の位置測定値を推定し、
    推定された前記位置測定値に基づいて、前記ユーザにフィードバックを提供するための命令を生成し、
    前記フィードバックが、第2の3次元図を取り込むために前記第2の位置が適しているかどうかを示すために提供される、
    ことを特徴とする方法。
  2. 前記第1の2次元画像に対する前記第2の2次元画像の位置測定値の推定では、
    a)前記第1の2次元画像に対する基準画像の変換行列Hが有効であると判定された場合に、2次元画像のシーケンスが前記第1の位置から前記第2の位置に移動する間に取り込まれる前記2次元画像のシーケンスから基準画像を選択し、
    b)前記第2の2次元画像を前記基準画像にスティッチングして、変換行列Hを取得し、
    c)HとHとを乗算して、変換行列Hを取得し、
    d)変換行列Hの有効性を評価し、
    e)変換行列Hが有効であると判定された場合、変換行列Hから前記第1の2次元画像に対する前記第2の2次元画像の前記位置測定値を推定する、
    ことを特徴とする、請求項1に記載の方法。
  3. 3次元の画像形成を行うためのシステムであって、
    ユーザにより自由に操作されて、被写体の3次元図を取り込む手持ち式スキャニング装置と、
    処理ユニットと、
    前記処理ユニットからの命令に従って、前記ユーザにフィードバックを提供するよう構成されるフィードバックユニットと、
    を備え、
    前記処理ユニットは、
    前記被写体の第1の3次元図が取り込まれる第1の位置での前記スキャニング装置の視域の第1の2次元画像を記憶し、
    前記スキャニング装置が前記第1の位置から第2の位置に移動する間に、第2の位置での前記スキャニング装置の視域の第2の2次元画像を記憶し、前記第1の2次元画像から複数の第1特徴点を抽出し、前記第2の2次元画像から複数の第2特徴点を抽出し、前記複数の第1の特徴点と前記複数の第2の特徴点との間の対応関係を生成し、複数の特徴点間の前記対応関係を用いて位置関係を生成し、前記複数の第1特徴点と、対応する前記複数の第2特徴点との位置関係に基づいて、前記第2の2次元画像の位置測定値を推定し、
    推定された前記位置測定値に基づいて、前記ユーザにフィードバックを提供するための命令を生成するよう構成され、
    前記フィードバックが、第2の3次元図を取り込むために前記第2の位置が適しているかどうかを示すために提供される、
    ことを特徴とするシステム。
JP2015561884A 2013-03-11 2013-03-11 3次元の画像形成を行うための方法及びシステム Expired - Fee Related JP6198857B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2013/072424 WO2014139079A1 (en) 2013-03-11 2013-03-11 A method and system for three-dimensional imaging

Publications (2)

Publication Number Publication Date
JP2016514984A JP2016514984A (ja) 2016-05-26
JP6198857B2 true JP6198857B2 (ja) 2017-09-20

Family

ID=51535780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015561884A Expired - Fee Related JP6198857B2 (ja) 2013-03-11 2013-03-11 3次元の画像形成を行うための方法及びシステム

Country Status (5)

Country Link
US (1) US9838670B2 (ja)
EP (1) EP2973417B1 (ja)
JP (1) JP6198857B2 (ja)
DK (1) DK2973417T3 (ja)
WO (1) WO2014139079A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012214473B4 (de) * 2012-08-14 2022-01-13 Sirona Dental Systems Gmbh Verfahren zur Vermessung eines dentalen Objekts mittels einer dentalen Kamera
US10278584B2 (en) * 2013-03-11 2019-05-07 Carestream Dental Technology Topco Limited Method and system for three-dimensional imaging
US9724177B2 (en) 2014-08-19 2017-08-08 Align Technology, Inc. Viewfinder with real-time tracking for intraoral scanning
WO2016077057A2 (en) * 2014-10-24 2016-05-19 Bounce Imaging, Inc. Imaging systems and methods
JP6714019B2 (ja) * 2015-05-07 2020-06-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療手順における動き補償のためのシステム及び方法
US20170215698A1 (en) * 2016-01-28 2017-08-03 Dental Wings Inc. System and method for providing user feedback indications during intra-oral scanning process
JP6707991B2 (ja) 2016-05-30 2020-06-10 富士通株式会社 歯軸推定プログラム、歯軸推定装置及びその方法、並びに歯形データ生成プログラム、歯形データ生成装置及びその方法
US10631799B2 (en) 2016-12-07 2020-04-28 Harris Corporation Dental image collection device providing optical alignment features and related system and methods
CN106910210B (zh) * 2017-03-03 2018-09-11 百度在线网络技术(北京)有限公司 用于生成图像信息的方法和装置
US10916053B1 (en) 2019-11-26 2021-02-09 Sdc U.S. Smilepay Spv Systems and methods for constructing a three-dimensional model from two-dimensional images
US11270523B2 (en) 2017-11-29 2022-03-08 Sdc U.S. Smilepay Spv Systems and methods for constructing a three-dimensional model from two-dimensional images
US11403813B2 (en) 2019-11-26 2022-08-02 Sdc U.S. Smilepay Spv Systems and methods for constructing a three-dimensional model from two-dimensional images
EP3960122A1 (en) 2019-01-30 2022-03-02 DENTSPLY SIRONA Inc. Method and system for two-dimensional imaging
WO2020167027A1 (ko) * 2019-02-15 2020-08-20 주식회사 메디트 신뢰도를 포함하는 스캔 데이터 표시 방법
US11030801B2 (en) 2019-05-17 2021-06-08 Standard Cyborg, Inc. Three-dimensional modeling toolkit
US11620730B2 (en) * 2020-03-23 2023-04-04 Realsee (Beijing) Technology Co., Ltd. Method for merging multiple images and post-processing of panorama
CN111476235B (zh) * 2020-03-31 2023-04-25 成都数之联科技股份有限公司 一种3d曲面文本图片的合成方法
KR102632337B1 (ko) * 2020-04-21 2024-02-01 주식회사 메디트 얼라인 상태 표현 장치 및 방법
US11382727B1 (en) 2021-05-19 2022-07-12 Thamer Marghalani Three-dimensional oral imaging system and method
EP4169479A1 (en) 2021-10-19 2023-04-26 DENTSPLY SIRONA Inc. Method and system for two dimensional imaging

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5578813A (en) * 1995-03-02 1996-11-26 Allen; Ross R. Freehand image scanning device which compensates for non-linear movement
US6094215A (en) 1998-01-06 2000-07-25 Intel Corporation Method of determining relative camera orientation position to create 3-D visual images
US7027642B2 (en) * 2000-04-28 2006-04-11 Orametrix, Inc. Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
JP2002027291A (ja) * 2000-04-29 2002-01-25 Hewlett Packard Co <Hp> 視覚的フィードバックを有するマルチフレームパニング方法
JP4266736B2 (ja) * 2003-07-31 2009-05-20 キヤノン株式会社 画像処理方法および装置
US8035637B2 (en) * 2006-01-20 2011-10-11 3M Innovative Properties Company Three-dimensional scan recovery
JP2008194108A (ja) 2007-02-09 2008-08-28 Shiyoufuu:Kk 位置方向検出機能付き3次元上特性測定・表示装置
US8204299B2 (en) * 2008-06-12 2012-06-19 Microsoft Corporation 3D content aggregation built into devices
CN101706263B (zh) * 2009-11-10 2012-06-13 倪友群 三维表面测量方法及测量系统
US20120062557A1 (en) * 2010-09-10 2012-03-15 Dimensional Photonics International, Inc. Systems and methods for processing and displaying intra-oral measurement data
US9157733B2 (en) * 2010-09-10 2015-10-13 Dimensional Photonics International, Inc. Method of data acquisition for three-dimensional imaging

Also Published As

Publication number Publication date
EP2973417B1 (en) 2020-07-15
EP2973417A1 (en) 2016-01-20
JP2016514984A (ja) 2016-05-26
DK2973417T3 (da) 2020-09-07
US9838670B2 (en) 2017-12-05
WO2014139079A1 (en) 2014-09-18
US20160014396A1 (en) 2016-01-14
EP2973417A4 (en) 2017-03-01

Similar Documents

Publication Publication Date Title
JP6198857B2 (ja) 3次元の画像形成を行うための方法及びシステム
Wang et al. Video see‐through augmented reality for oral and maxillofacial surgery
CN107016717B (zh) 用于患者的透视视图的系统和方法
CN109069097B (zh) 牙科用三维数据处理装置及其方法
US20200268339A1 (en) System and method for patient positioning
JP5583761B2 (ja) 動的基準フレームを用いた3次元表面検出方法及び装置
US8503763B2 (en) Image signatures for use in motion-based three-dimensional reconstruction
US9191648B2 (en) Hybrid stitching
Dey et al. Automatic fusion of freehand endoscopic brain images to three-dimensional surfaces: creating stereoscopic panoramas
JP5328985B2 (ja) 三次元画像を撮影するための方法
Yamany et al. A 3-D reconstruction system for the human jaw using a sequence of optical images
US10810738B1 (en) Marker-less alignment of digital 3D face and jaw models
US10839481B1 (en) Automatic marker-less alignment of digital 3D face and jaw models
Shademan et al. Plenoptic cameras in surgical robotics: Calibration, registration, and evaluation
US20170103569A1 (en) Operator interface for 3d surface display using 2d index image
Park et al. An enhanced method for registration of dental surfaces partially scanned by a 3D dental laser scanning
EP3673864A1 (en) Tooth segmentation using tooth registration
JP6293122B2 (ja) 歯の状況の測定方法
JP2022516487A (ja) 下顎と上顎の3dセグメンテーション
WO2020037582A1 (en) Graph-based key frame selection for 3-d scanning
Ettl Introductory review on ‘Flying Triangulation’: a motion-robust optical 3D measurement principle
Decker et al. Performance evaluation and clinical applications of 3D plenoptic cameras
US20220101618A1 (en) Dental model superimposition using clinical indications
KR20210150633A (ko) 임플란트 수술 도구의 진입각도 및 깊이 측정 시스템 및 그 방법
US11961238B2 (en) Tooth segmentation using tooth registration

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170822

R150 Certificate of patent or registration of utility model

Ref document number: 6198857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees