JP2015526930A - 立体ビデオ撮像 - Google Patents

立体ビデオ撮像 Download PDF

Info

Publication number
JP2015526930A
JP2015526930A JP2015514984A JP2015514984A JP2015526930A JP 2015526930 A JP2015526930 A JP 2015526930A JP 2015514984 A JP2015514984 A JP 2015514984A JP 2015514984 A JP2015514984 A JP 2015514984A JP 2015526930 A JP2015526930 A JP 2015526930A
Authority
JP
Japan
Prior art keywords
video
video camera
feed
camera
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015514984A
Other languages
English (en)
Other versions
JP2015526930A5 (ja
JP6351579B2 (ja
Inventor
ティー. ジェソップ、ニール
ティー. ジェソップ、ニール
マイケル フィッシャー、マシュー
マイケル フィッシャー、マシュー
Original Assignee
ウルトラデント プロダクツ インク.
ウルトラデント プロダクツ インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウルトラデント プロダクツ インク., ウルトラデント プロダクツ インク. filed Critical ウルトラデント プロダクツ インク.
Publication of JP2015526930A publication Critical patent/JP2015526930A/ja
Publication of JP2015526930A5 publication Critical patent/JP2015526930A5/ja
Application granted granted Critical
Publication of JP6351579B2 publication Critical patent/JP6351579B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/00048Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Endoscopes (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【解決手段】 立体ビデオ画像を見るためのシステムおよび方法が開示される。当該システムは、対象の第1のビデオフィードを生成するように構成された第1のビデオカメラと、前記対象の第2のビデオフィードを生成するように構成された第2のビデオカメラとを含むことができる。前記第1のビデオフィードおよび前記第2のビデオフィードは、組み合わされて、略リアルタイムの立体ビデオ画像を生成する。追跡モジュールは、前記第1のビデオカメラおよび第2のビデオカメラに関連付けることができ、選択された追跡点と相対的に、望ましい収束点へ前記第1のビデオカメラおよび前記第2のビデオカメラを方向付けて立体視を保つよう構成することができる。当該システムは、さらに、ビデオカメラのアレイ、ジェスチャー制御モジュール、画像調整モジュール、較正モジュール、または3Dモデリングモジュールを含むことができる。【選択図】 図1a

Description

歯科学の技術は、これまで大幅に進歩している。これらの進歩は、患者ケアの改善を可能にするとともに、歯科医師を訪れる患者の不安を緩和してきた。
先端医療を提供するため現在歯科医師が使用している技術の多くでは、患者口腔内の非常に小さい部分を見て、そこに意識を集中させる能力が必要とされている。ルーペ付き眼鏡は、歯科医師が微小構造を見る能力を高めるため使用されることが多い。それらの眼鏡は高価で重い場合もあり、それを長時間装着する歯科医師の負担を増やしている。また、歯科用ルーペは目に負担がかかり、視野も狭まることにより、拡大された領域とその周囲の領域の双方を歯科医師が同時に見る能力を損ってしまっている。
さらに、患者口腔内の領域において望ましい視野を得るため、歯科医師は、背を丸めて前傾しなければならないことが多い。そのような姿勢は、歯科医師にとって長期的な健康上の問題につながるおそれがある。歯科医師は、姿勢に関する予防策を講じない場合、背痛その他姿勢に関連する背中の問題により、歯科医師として働ける年数が短縮または制限されてしまうおそれもある。また、それら背部の損傷は、歯科医師の私生活の質にも影響を及ぼす可能性がある。
本開示の特徴および利点は、本発明の特徴を例示する以下の詳細な説明と添付の図面を併せて参照することにより明確に理解されるであろう。
図1aは、本開示の実施形態に基づき、複数の少なくとも3つのビデオカメラから選択されるカメラのペアを使って立体ビデオ画像を見るためのシステムのブロック図を示したものである。 図1bは、本開示の実施形態に基づき、ジェスチャー制御モジュールを使って立体ビデオ画像を見るためのシステムのブロック図を示したものである。 図1cは、本開示の実施形態に基づき画像調整モジュールを有する、立体ビデオ画像を見るためのシステムのブロック図を示したものである。 図1dは、本開示の実施形態に基づき較正モジュールを有する、立体ビデオ画像を見るためのシステムのブロック図を示したものである。 図1eは、本開示の実施形態に基づき3Dモデリングモジュールを有する、立体ビデオ画像を見るためのシステムのブロック図を示したものである。 図1fは、本開示の実施形態に基づき無線データリンクを伴う、立体ビデオ画像を見るためのシステムのブロック図を示したものである。 図1gは、本開示の実施形態に基づき、単一の送信機および受信機を有する無線データリンクを伴う、立体ビデオ画像を見るためのシステムのブロック図を示したものである。 図1hは、本開示の実施形態に基づき、第1および第2のビデオカメラの位置を更新するため使用される単一のモーターを伴う、立体ビデオ画像を見るためのシステムのブロック図を示したものである。 図2は、本開示の実施形態に基づき、患者の口腔内の略リアルタイムの立体ビデオ画像を見るため立体ディスプレイを使っている歯科専門家の例を図示している。 図3は、本開示の実施形態に基づき、前記ビデオ画像の立体視を保つため、選択された対象から前記ビデオカメラまでの距離に基づいて前記第1および第2のビデオカメラが方向付けられ、また変更される角度を例示した図である。
以下、前記図示された例示的な実施形態を参照し、本明細書における具体的な表現を使ってこれらの実施形態を説明する。ただし、これらは本発明の範囲を限定するよう意図したものではないことが理解されるであろう。
本発明を開示および説明する前に、本発明は、本明細書に開示する特定の構造、工程段階、または材料に限定されるものではなく、その均等物にまで拡大されることを理解すべきであり、これは当業者であれば理解されるであろう。また言うまでもなく、本明細書で使用する用語は、特定の実施形態のみ説明することを目的としており、限定を意図したものではない。
前置きとして、説明の多くは本明細書において歯科職務と、歯科検診および処置の実施とに関連することに注意すべきである。ただし、これは単なる例示目的で行っていることであり、本明細書で説明するシステムおよび方法は、高倍率の立体撮像、ならびに手術または検診のための望ましい部位追跡の有益性を享受するであろう他の医療専門家にも適用可能である。例えば、本明細書のシステムおよび方法は、特に、患者に意識があり動いている低侵襲手術または警戒心のある患者の関心部位検診などで、動きが生じうる撮像位置に有用である。また、本開示のシステムおよび方法は、全般的な医療職外、例えば研究、教育、微生物学、電子工学、宝石切削、腕時計修理等において、本明細書で説明する態様による目視および追跡にも適用できる。
これを考慮し、以下では技術的実施形態の概要を紹介したのち、具体的な技術的実施形態をさらに詳しく説明する。この最初の説明は、当該技術に関する基本的な理解をもたらすことを目的としたもので、当該技術の特徴をすべて特定することを目的としたものではなく、また請求項の主題の範囲を限定することを目的としたものでもない。
歯科医師が患者の口腔内細部を見る能力は、歯の問題について適切な診断を行い歯科処置全般を行う上で有益である。口腔内の位置を拡大して見られると、歯科医師は、現時点で患者用に利用できる高度かつ複雑な解決策を十分に提供することができる。ただし、口腔内を拡大して見るための一般的な解決策は、1若しくはそれ以上のルーペ付き眼鏡を使用することによる。ルーペを使うと、歯科医師の目に負担がかかって眠気を増すおそれがある。また、歯科医師は望ましい角度で患者の口内を見るため、前傾し、および/または前かがみにならなければならない可能性がある。これは、長期にわたって歯科医師に姿勢、背痛、および体力を消耗させる背部損傷の問題を生じるおそれがある。背部の痛みと損傷は、歯科医師が働ける期間を短縮させ、歯科医師の私生活の質にも悪影響を及ぼすおそれがある。
本開示の諸実施形態によれば、立体ビデオ画像を見るシステムおよび方法が開示される。当該システムおよび方法は、その一例において、歯科医師が患者の口腔内の望ましい視野を得られるようにするとともに、目への負担を軽減し、歯科医師が適切な姿勢を保てるようにする。なお、他の分野、例えば医学、電子工学、教育、微生物学、または高倍率の立体視野が有用な他の任意の分野でも、本開示のシステムおよび方法は同等に適用可能である。そのため、上述のように歯科学に関する説明は単に例示的なものであって、請求項に具体的な記載がない限り、限定的なものと考慮すべきではない。
以上を踏まえた上で、望ましいレベルのケアを患者に提供するには、歯科衛生士、歯科医師、口腔外科医、または他種の歯科専門家は、歯科器具を望ましい方向へ繊細かつ正確に動かすことができなければならない。通常、2次元画像は、患者の口腔内で歯科機器を正確に動かすことを困難にする場合がある。立体画像を使うと立体視の維持が可能になり、医療専門家は奥行きを認識できるようになってその立体画像を見ながら歯科機器を望ましい方向へ正確に動かせるようになる。本明細書における用語「立体視」とは、光学的に分離されて人の両目にそれぞれ投影される2つの実世界射影を見ることにより奥行きの感覚が得られる視覚過程をいう。これは、頭部に装着可能で各々異なる光学的射影が行われる一対のビデオ画面を使って、または単一のビデオ画面に2つの光学的射影が行われる光学的分離によって実現でき、これらについては以下さらに詳しく説明する。
また、本明細書に開示するシステムおよび方法は、立体ビデオ画像を見ている複数の人が、選択された領域を同じ視点から見られるようにする。例えば、歯科医師と歯科助手が、それぞれ一定の位置、例えば患者口腔内の歯または歯の周囲領域の同じ立体ビデオ画像を見ることができる。歯科医師および歯科助手の双方が同じ視点から一定領域の立体ビデオ画像を見る能力は、必要に応じて歯科助手が歯科医師を補佐する能力を大幅に高める。さらに、前記画像は、その他の人、例えば患者または歯科大学の学生から見ることもできる。患者が歯科医師と同じ画像を見ることができると、歯科医師は、患者の歯の状態およびこれから行われる処置について、患者により適切に説明できるようになる。前記立体画像は講師の視点から見られるため、講師の教授内容を学生が学習および理解する能力を大幅に高めることができる。
本開示の一実施形態によれば、立体ビデオ画像を見るためのシステムは、空間的に分離された少なくとも3つのビデオカメラと、前記複数のビデオカメラに関連付けられた追跡モジュールとを含む複数のビデオカメラを有することができる。前記複数のビデオカメラは、複数のビデオカメラペアが略リアルタイムの立体ビデオ画像を生成できるようなっており、前記複数のペアは、それぞれ対象の第1のビデオフィードを生成するように構成された第1のビデオカメラと、対象の第2のビデオフィードを生成するように構成された第2のビデオカメラとを有する。前記追跡モジュールは、選択された追跡点と相対的に、望ましい収束点へ前記第1のビデオカメラおよび前記第2のビデオカメラを方向付けて立体視を保つよう構成できる。
別の例において、立体ビデオ画像を見るためのシステムは、ビデオカメラフィードを提供するように構成されたビデオカメラのアレイを有することができる。画像処理モジュールは、i)前記アレイからビデオカメラフィードを受信し、ii)前記ビデオカメラフィードのうち1若しくはそれ以上を幾何学的に変換して仮想カメラフィードを生成し、iii)少なくとも2つのカメラフィードから立体ビデオ画像を生成するよう構成することができる。この例では、前記2つのカメラフィードのうち少なくとも1つを前記仮想カメラフィードとしてよく、前記少なくとも2つのカメラフィードを収束点へ方向付けることができる。当該システムは、前記アレイに関連付けられた追跡モジュールも含み、その追跡モジュールは、立体視を維持するため前記収束点と相対的に追跡点を追うよう構成できる。
他の例において、立体ビデオ画像を見るためのシステムは、対象の第1のビデオフィードを生成するように構成された第1のビデオカメラと、前記対象の第2のビデオフィードを生成するように構成された第2のビデオカメラとを有することができ、前記第1のビデオフィードおよび前記第2のビデオフィードを組み合わせて、略リアルタイムの立体ビデオ画像が生成される。これらのシステムは、さらに、前記第1のビデオカメラおよび前記第2のビデオカメラに関連付けられた追跡モジュールを有することができる。前記追跡モジュールは、選択された追跡点と相対的に、望ましい収束点へ前記第1のビデオカメラおよび前記第2のビデオカメラを方向付けて立体視を保つよう構成できる。
一具体例においては、ジェスチャー制御モジュールを前記システムに具備して、利用者の動きに基づき当該システムが応答するようにできる。そのジェスチャー制御モジュールには、例えば利用者の動きを感知するセンサーを含めることができる。これと独立した別の例では、前記第1のビデオカメラおよび前記第2のビデオカメラにより受信された画像を選択的に修正するよう、画像調整モジュールを構成することにより、診断または治療の視覚化を強化するようなっている少なくとも1つの調整された視覚的特性を有する可視画像を提供できる。さらに別の具体例では、前記第1のビデオフィードおよび前記第2のビデオフィードの水平方向の位置合わせを較正および調整するよう、較正モジュールを構成できる。さらに別の独立した例では、前記立体ビデオ画像を3Dモデルまたは構造体に変換するよう、3Dモデリングモジュールを構成できる。
ここで図を参照すると、立体ビデオ画像を見るためのシステム100の種々の実施形態が開示されており、図1a〜hの例示によりさらに詳しく説明されている。これら実施形態の各々には、前記追跡モジュール108、前記第1のビデオカメラ102a、前記第2のビデオカメラ102b、モーター112、および前記立体ディスプレイ(表示装置)106を含め、いくつかの共通点がある。他のモジュールまたはカメラ構成については、本開示の一定の実施形態を参照して、より具体的に詳しく説明する。このように、一部の特徴については図1a〜hを参照して全般的に説明し、その他については、特定の図を参照して具体的に説明する。以上を踏まえ、本明細書で説明する特徴のいかなる組み合わせも本開示の例に基づいて実施(実装)することができる。
具体的に図1aを参照すると、前記システム100は、互いに離間された複数のビデオカメラ102a〜dを有する。前記複数のビデオカメラは、複数のビデオカメラペアが略リアルタイムの立体ビデオ画像を生成できるようなっており、前記複数のペアは、それぞれ対象の第1のビデオフィードを生成するように構成された第1のビデオカメラと、前記対象の第2のビデオフィードを生成するように構成された第2のビデオカメラとを有することができる。例えば、ビデオカメラ102aおよびビデオカメラ102bは、1つの状況における前記第1のビデオカメラおよび前記第2のビデオカメラとすることができ、ビデオカメラ102cおよびビデオカメラ102dは、第2の状況における前記第1のビデオカメラおよび前記第2のビデオカメラとすることができる。さらに、前記ビデオカメラは、常にともに使用される別個のペアである必要はない。例えば、ビデオカメラ102aと、ビデオカメラ102cまたは102dとで、第3のカメラペアを構成するなども可能である。例えば歯科環境において、どの2つのカメラが選択され、使用されるかにかかわらず、前記第1のビデオカメラは、患者の口腔内の第1のビデオフィードを生成するため対象へ方向付けられ、第2のビデオカメラは、立体視を生成するため、選択された距離だけ前記第1のビデオカメラから適切に離間される。なお、複数のビデオカメラペアを互いに瞳孔間距離だけ離間し、あるいは必ずしも互いの距離が瞳孔間距離ではないよう、例えば瞳孔間距離と光学的に位置合わせされた適切な角度を成すシミュレートされた瞳孔間距離だけ離間して、または瞳孔間距離との光学的位置合わせから外した位置に通常何らかの信号補正とともに、配置することもできる。
前記複数のビデオカメラは1次元アレイに、例えば3、4、5、...25のビデオカメラなどを、または2次元アレイに、例えばXおよびY軸に沿って構成された配置で、例えば3×3、5×5、4×5、10×10、20×20のカメラなどを配置できる。これにより、どちらの実施形態でも、隣接しあう任意の2つのビデオカメラを前記第1のビデオカメラおよび前記第2のビデオカメラとして使用できる。あるいは、互いに隣接しない任意の2つのビデオカメラを使っても、立体画像をもたらすことができる。どの2つのビデオカメラを使うかの選択は、手作業の選択(例えば、肯定的なジェスチャー制御、あるいは適切なボタン、スイッチ、または他のインターフェース制御の選択による)に基づいて行え、あるいは利用者、例えば歯科専門家、または対象、例えば患者の動きに基づいて自動的に行える。
カメラアレイに関連する別の例では、前記複数のカメラ102a〜d(または通常、アレイに構成されるより多くのビデオカメラ)のいずれも、直交座標空間で特定の配向を伴うカメラの静的アレイの配置により生じる仮想視点を生成するため、同様に使用される。例えば、種々のビデオカメラについては、互いに相対的に知ることができ、かつ当該システムの利用者または対象と相対的に知ることができるよう配置される。また、当該システム内での利用者または対象の位置は、本明細書で説明し若しくは当該技術分野で公知の追跡方法により、ハードウェア(例えば、Polhemus社製の磁気追跡システムまたはモジュールまたは他の追跡システムまたはモジュール)で、あるいはソフトウェアで知ることができる。
そのようなシステムでは、カメラフィードが画像処理モジュール120へと取得され、1若しくはそれ以上のカメラフィードに幾何学的変換を行って、新しい視点、すなわち前記カメラフィード自体から直接生成されるもの以外の視点を示す仮想カメラフィードを生成することができる。これらの仮想カメラフィードは、次いで立体ディスプレイ用の立体または3D信号へと多重化され、または頭部に装着されるディスプレイ(例えば、右目、左目)に送信されて、立体ビデオを生成する。この目的のため、何らかの技術水準のパッケージを含むハードウェアおよびソフトウェアパッケージを使用または修正することができる。例えば、NVIDIAは、利用者が複数のカメラフィードを取得し、数学演算を行ったのち、幾何学的に変換されたビデオフィードを出力して実際のビデオフィードの内挿結果である仮想視点を生成できるようにするビデオパイプラインを有する。これらのビデオ信号は、通常、シリアルデジタルインターフェース(Serial Digital Interface:SDI)形式である。同様に、そのような変換を行うため使用されるソフトウェアは、オープンソースとして利用できる。OpenCV、OpenGL、およびCUDAを使用すると、ビデオフィードを操作することができる。立体視を生成するため、左目および右目用に設計された画像、または単一画面への光学的に分離されたビデオフィードは、表示されるのが仮想画像であっても実画像であっても、通常、瞳孔間距離またはシミュレートされた瞳孔間距離だけ分離されるが、これは必要ではない。なお、この例で示した画像処理モジュールは、仮想カメラフィードの生成を目的としたものである。ただし、この実施形態、または本明細書の他の任意実施形態であって画像処理の有益性を享受するであろう実施形態で使用すると有益な他のいかなるタイプの画像処理も、画像処理モジュールを含むことができる。
これら2つの実施形態、すなわち複数のカメラフィードのうち種々のビデオカメラをペアにするもの、またはカメラアレイを使って仮想画像を生成するもののうちどちらでも、ビデオカメラの選択または仮想画像の生成を制御する方法は多数ある。利用者または対象の動きは、例えば、これらのシステムを制御するために使用でき、利用者の頭部または両目の動き、または対象の口腔内の動きなどが含まれる。前記自動選択は、歯科専門家または患者の相対的な位置に基づいて望ましい画像が提供されるよう構成することもできる。例えば、歯科専門家が患者を見る角度を変えた場合には、アレイ内のカメラが選択および/または移動されて、前記歯科専門家の視角に基づいた画像を提供するようにできる。
ジェスチャー制御についてさらに詳しく説明すると、図1bは、本開示のシステム100に伴うジェスチャー制御モジュール110を示している。ジェスチャー制御に関する詳細の一部については、複数の少なくとも3つのビデオカメラからカメラペアが選択される場合に関連付けて上述したが、ジェスチャー制御は、ビデオカメラが2つしかない実施形態にも適用される。より具体的にいうと、前記ジェスチャー制御モジュールには、利用者、例えば歯科専門家の動きを感知してその動きに基づき応答するセンサーを含めることができる。ジェスチャーは、一定の動作を起こすための意図的なものであっても、利用者の典型的な動きに付随して起こるものであってもよい。意図的なジェスチャーとしては、手または腕のジェスチャー、あるいは利用者の手に把持された手術器具の意図的な動きなどがある。音声ジェスチャー、例えば音声コマンドも意図的なジェスチャーの一例である。
あるいは、本開示のシステムは、利用者による付随的な動きによっても制御でき、例えば利用者の目または頭部の動きに基づいて前記追跡モジュールに追跡点を追わせることができる。目の動きを追跡する場合は、利用者の目付近にセンサーを方向付け若しくは配置することができ、例えば利用者の目へカメラを方向付け、または眼鏡上のセンサーを使って、ビデオ画面上または頭部に装着可能な立体ディスプレイ上で光学的に立体画像を分離することができる。これにより、前記カメラまたはセンサーを使って、利用者の目の動きを検出でき、および/またはアレイ内のカメラが選択および/または移動されて、利用者の視角(すなわち歯科専門家の目)に基づいた画像を提供できる。いずれの場合でも、ジェスチャーを使って、追跡点を動かし、光設定を調整し、倍率レベルを修正し(ズームモジュールを使って)、または本開示のシステムでの使用が望ましい可能性のある他の任意の調整を行うことができる。
ここで図1cの前記システム100を参照すると、この実施形態で上述し各々さらに詳しく後述する前記追跡モジュール108、モーター112、第1のビデオカメラ102a、第2のビデオカメラ102b、および立体ディスプレイ106に加え、画像調整モジュール114も含まれている。前記画像調整モジュールは、第1のビデオカメラおよび第2のビデオカメラにより受信された画像を選択的に修正するよう構成でき、診断または治療の視覚化を強化するようなっている少なくとも1つの調整された視覚的特性を有する可視画像を提供できる。
例えば、前記調整された視覚的特性としては、歯科専門家が特定の光周波数帯域を見る解像度を改善するための前記特定の光周波数帯域の強調またはシフトなどがある。具体的には、可視色の色または色群を強調し若しくはシフトさせて、口内の癌または病変部の診断または治療、軟組織異常(例えば、歯肉、舌、頬など)の診断または治療、歯(例えば、窩洞)の診断または治療などに利用できる。より具体的な例を提供すると、赤外、緑、黄、白、紫、紫外、またはこれら光周波数の組み合わせを使って、癌組織の検出を促進することができる。前記カメラにより検出された画像は、診断または治療を目的として、前記画像調整モジュールを使って着色が強調されるよう修正できる。
別の例では、何らかの材料に関連して特定の照明プロファイル、例えば黄色光または紫外線が使用される(または回避される)場合もある。例えば、紫外線照明を使用すると、一定の材料を硬化させることができる。黄色照明は、材料の硬化が望ましくない場合に使用できる。このように、当該システムは特定の照明プロファイル下で使用するようにでき、また調整された可視特性については、立体ディスプレイにおける可視画像の人工的な着色を軽減して利用者により自然に見えるようにでき、例えば黄色光が最低限に抑えられ、わずかしか存在しない他の光が強調される黄色光環境が可能である。
さらに別の例において、当該システムは高彩度の光で使用するようにでき、前記調整された可視特性は、前記可視画像で白または他の彩度を低減するようにできる。これは、一定の色をより正確に可視化することが望ましい場合、例えば審美または補綴歯科作業用にオフホワイトの着色を整合させる場合有用な可能性がある。さらに別の例では、当該システムを利用して、通常であれば見えない光、例えば405nmの光などの紫外線を検出し、可視スペクトルへとシフトさせる場合に有利な可能性がある。その場合は、前記ビデオカメラのセンサー、例えば電荷結合素子(charged couple device:CCD)センサーまたは相補型金属酸化膜半導体(complementary metal oxide semiconductor:CMOS)センサーに、紫外線に感度の高いものを選択することができる。一実施形態では、単一のカメラに複数のセンサーを内設して、異なるセンサーを光スペクトルの異なる部分用に調整できる。例えば、1つのセンサーは赤外〜青の波長を検出するよう構成し、別のセンサーは紫外波長を検出するよう構成できる。カメラにより撮像される光の色(すなわち波長)に基づき、各カメラの適切なセンサーを選択できる。
関連する実施形態では、前記調整された視覚的特性を、着色剤でさらに強調することができる。口腔内に使用するため一定の着色剤(顔料または染料)を選択すると、一定の材料または状態を強調して見ることが可能になる。これを前記着色剤の視覚的特性を調整する能力と合わせると、歯科専門家にとって一定の歯科作業を見やすくする組み合わせをもたらすことができる。例えば、染料または顔料を使うと、ビデオ画像を使って、前記染料または顔料による着色を強調し、場合によってはシフトさせてより見やすくすることができる。一具体例では、一定の蛍光色素または顔料を使うと、歯科材料、例えばボンディング接着剤(セメント)の存在の有無を判別でき、着色は、それが適切に硬化したかどうかを歯科専門家が判別する上で役立つ。別の例では、一定タイプの歯科学的状態の部分、例えば窩洞、病変部、癌などに着色剤を付着させて、歯科医師が歯科学的状態を診断または治療する際に役立てることができる。前記カメラ内のデジタル撮像センサーおよび/またはそのデジタル撮像センサーの出力信号は、前記立体ディスプレイ106で前記着色剤が強調されて見えるよう構成することができる。
図1dは、追跡モジュール108、モーター112、第1のビデオカメラ102a、第2のビデオカメラ102b、および立体ディスプレイ106に加えて、較正モジュール116を含むシステム100を説明したものである。この較正モジュールは、前記第1のビデオカメラからのピクセルが前記第2のビデオカメラからのピクセルに位置合わせされるように、第1のビデオフィードおよび第2のビデオフィードの水平方向の位置合わせを較正および調整するよう構成できる。前記立体ディスプレイが、右ビデオディスプレイおよび左ビデオディスプレイを含む頭部装着可能な立体ディスプレイである場合は、それら2つの画像の適切な位置合わせを利用者の目用に水平方向に較正して画像ができるだけ自然に見えるようにできる。より不自然な画像が表示されるほど、結果として目への負担も増す。また、略リアルタイムの立体ビデオ画像を画面で見ている場合は、(眼鏡の支援があってもなくても)水平方向の位置合わせでより明確な画像が得られる。ピクセルが適切に位置合わせされると、画像はピクセルがわずかでもずれている場合より自然で鮮明に見える。付加的に較正を行うと、前記第1のビデオカメラおよび前記第2のビデオカメラを垂直方向に位置合わせ調整して、立体視をもたらす望ましい角度にすることもできる。いずれの場合でも、前記較正モジュールが垂直方向の位置合わせに使用されるか水平方向の位置合わせに使用されるかにかかわらず、その位置合わせは、何かが変化した場合、例えば前記第1のビデオカメラまたは前記第2のビデオカメラにパンまたは傾斜の動きがあった後、前記アレイから異なるビデオカメラペアが選択された後などに、維持または再較正されるよう構成できる。これらの動きにより、わずかな位置のずれは生じうるが、位置のずれが生じても再調節は可能である。この較正モジュールは、カメラペアの水平方向および/または垂直方向の位置合わせを手動調整および/または自動調整できるよう構成できる。
その他、較正は、当該システムが初期設定される際、または複数の利用者が同じ機器を使う際に行うこともできる。一例として、前記較正モジュールは複数の利用者に較正を行える。この場合、当該システムは、第1の利用者用には第1のモードで、第2の利用者用には第2のモードで、といったように較正できる。例えば、前記カメラペアにおける各カメラの焦点は、視力の違いについて補正を行うよう調整できる。当該システムは、当該システムを使用しているのが前記第1の利用者か前記第2の利用者かに基づき、前記第1のモードおよび前記第2のモードを自動的に若しくは手動で切り替えるよう構成できる。
図1eは、追跡モジュール108、モーター112、第1のビデオカメラ102a、第2のビデオカメラ102b、および立体ディスプレイ106に加えて、3Dモデリングモジュール118を含むシステム100を説明したものである。この3Dモデリングモジュールは、前記立体ビデオ画像を3Dモデルまたは構造体に変換するよう構成できる。このモジュールは、1若しくはそれ以上のフレームの前記立体ビデオ画像を、モデリング装置、例えば3Dプリンタ、歯科印象モデリング装置、または3Dモデルを作成するためさらに使用できる3D CAD図面に出力できる。3Dモデルまたは構造体を生成する適切な技術へと立体画像が出力されたのちは、当該技術分野で知られたいかなる3Dモデリング技術も使用できる。
図1a〜eで上述した諸実施形態では、前記第1のビデオカメラ102aからの前記第1のビデオフィードと、前記第2のビデオカメラ102bからの前記第2のビデオフィードとを有線通信ケーブル、例えばデジタル・ビジュアル・インターフェース(digital visual interface:DVI)ケーブル、高品位マルチメディア・インターフェース(high−definition multimedia interface:HDMI(登録商標))ケーブル、コンポーネントケーブルなどを介して、前記立体ビデオディスプレイ106に送信することができる。あるいは、前記第1のビデオフィードおよび前記第2のビデオフィードからの情報を前記立体ビデオディスプレイに無線通信することもできる。例えば、図1fは、前記ビデオディスプレイと、前記第1のビデオカメラおよび前記第2のビデオカメラの各々との間に無線142データリンクをもたらすシステム100を示している。さらに別の例では、図1gに示すように、前記第1および第2のビデオフィードは、単一の送信機146に有線接続を介して通信される。この送信機は、前記第1および第2のビデオカメラからの前記第1および第2のビデオフィードを、それぞれビデオディスプレイに無線142通信することができる。前記ビデオディスプレイの無線受信機144を使用すると、前記送信機から前記第1および第2のビデオフィードを受信し、前記ビデオフィードを前記ビデオディスプレイに送信することができる。
ビデオフィードを無線通信するためこれまで開発され、または現在も開発されている種々の規格としては、WirelessHD規格、ワイヤレス・ギガビット・アライアンス(Wireless Gigabit Alliance:WiGig)、ワイヤレス・ホーム・デジタル・インターフェース(Wireless Home Digital Interface:WHDI)、電気電子技術者協会(Institute of Electronics and Electrical Engineers:IEEE)802.15規格、および超広帯域(ultrawideband:UWB)通信プロトコルを使って開発された規格などがある。別の例では、IEEE 802.11規格を使って、前記ビデオカメラ102、104から前記立体ディスプレイ106に信号を送ることができる。略リアルタイムで表示するため、前記第1および第2のビデオフィードからのビデオフィード情報を前記立体ビデオディスプレイに送信できるようにする1若しくはそれ以上の無線規格を使うと、ワイヤーを使用せずにすみ、利用者はより自由に動けるようになる。これは、特に立体ビデオディスプレイが頭部に装着可能な場合に役立つが、本明細書で説明するビデオディスプレイ実施形態のいずれにおいても望ましい。
なお、図1a〜gを参照してさらに詳しく述べると、示されている各カメラには、そのカメラの方向および/または焦点を制御する個々のモーターを含めることができる。図1hは別の実施形態を例示したもので、単一のモーター112を使って、前記第1および第2のビデオカメラ102a、102bの位置がまとめて更新される。前記単一のモーターは、前記第1および第2のビデオカメラに機械的に連結される。例えば、前記モーターは、前記ビデオカメラを方向付ける角度を当該モーターを使って変更可能にする一連の歯車および/またはネジを介して接続できる。他種の機械的連結も使用できることが理解されるであろう。前記第1および第2のビデオカメラの一方または双方の向きをモーターが更新できるようにする任意タイプの機械的連結は、本実施形態の範囲内であると見なされる。
図1a〜1bで説明した諸実施形態の各々においては、上述のように、これらの図の種々の要素のうち何らかの共通点をもつ細部がいくつかある。これらの特徴の一部については、以下、まとめて説明する。例えば、前記第1のビデオカメラ102aと前記第2のビデオカメラ102bの間隔については、これらのカメラを水平方向に離間して人の両目間の間隔をシミュレートし、自然な立体画像を生成するよう組み合わせ可能な第1のビデオフィードおよび第2のビデオフィードを生成して、例えば人の左目および右目から見た視野をシミュレートする画像を表示することができる。この間隔は、瞳孔間距離とも呼ばれる。典型的な瞳孔間距離は、約50ミリメートル(mm)〜約75mmである。あるいは、前記カメラを異なる(通常、より大きい)距離だけ離間することもできるが、やはり光学的に若しくはデジタル処理で位置合わせして、おおよその瞳孔間距離を提供する。前記カメラ間の距離が瞳孔間距離ではなく、または少なくとも光学的に瞳孔間距離をシミュレートしない他の実施形態では、より不自然なカメラ収束角度および当該カメラ間距離用の補正を行う何らかの信号処理が望ましい。
当該システムは、さらに、図1a〜hに示すように、立体ビデオディスプレイ106を有する。一実施形態において、この立体ディスプレイは、人の右目で見ることのできる右ビデオディスプレイと、人の左目で見ることのできる左ビデオディスプレイとを伴う頭部装着可能な立体ディスプレイであってよい。前記第1および第2のビデオフィードを前記左および右ビデオディスプレイに表示することにより、略リアルタイムの立体ビデオ画像が作成できる。あるいは、立体ディスプレイを単一のビデオ画面として、前記第1のビデオフィードおよび前記第2のビデオフィードを光学的に分離し、例えばシャッター分離、偏光分離、色分離などを行うこともできる。前記立体ディスプレイは、利用者が外付けの目視装置、例えば眼鏡を着用してもしなくても立体画像を見られるよう構成できる。一実施形態では、シャッター分離、偏光分離、色分離などを併用できる適切な眼鏡を使って、画面を3次元で見られるようにできる。さらに、前記ビデオディスプレイは、複数の利用者、例えば歯科助手および/または患者が、略リアルタイムの立体ビデオ画像を見るため複数のビデオディスプレイを有するものにしてもよい。
前記立体ビデオ画像では、人の両目の網膜に投影されるわずかに異なる2つのビデオ画像から奥行き感覚につながる視覚が得られる。この奥行き感覚につながる視覚を立体視という。上述した頭部装着可能な立体ディスプレイまたは他の光学的分離技術を使用する場合、前記第1および第2のビデオ画像の付加的なビデオまたはコンピュータ処理は不要である。奥行き感覚は、例えば瞳孔間距離またはシミュレートされた瞳孔間距離だけ分離された前記第1および第2のカメラの異なる投影により生じる。ただし、典型的な瞳孔間距離に対応しない態様でカメラをさらに離し、またはカメラに角度を付けることもあり、その場合は、上述したように前記カメラアレイに含まれる2若しくはそれ以上のカメラから受信される画像に基づいて、略リアルタイムの立体ビデオ画像を適宜補正し、シミュレートされた瞳孔間距離を提供することもできる。
奥行きを認識する能力は、患者への処置を行う歯科医師にとって有益である。奥行きを適切に認識できると、歯科医師は、歯学処置を行う際、小さいながらも非常に重要な動きができるようになる。これまでは奥行き感覚を表示する能力がなかったため、歯学作業におけるカメラおよび表示画面の用途は限られていた。歯科医師は、立体視を伴う表示を提供するように構成された2つの別個のカメラを使うと、その結果もたらされる立体ディスプレイを見て奥行き感覚が得られ、ルーペまたは他の拡大システムを使って学んだ目と手の協調性を実質的に保つことができる。
図1a〜hに戻ると、種々のシステム100には、前記第1のビデオカメラ102aおよび前記第2のビデオカメラ102b(または具体的に図1aで説明した複数のビデオカメラ)と通信可能な追跡モジュール108を含めることもできる。前記追跡モジュールは、選択された追跡点と相対的に、望ましい収束点へ前記第1のビデオカメラおよび前記第2のビデオカメラを方向付けるよう構成できる。
その追跡点は、患者の身体上または身体付近で選択される位置のうち、前記カメラ102a、102bの向きを当該追跡点と相対的に変えられる位置にすることができる。例えば、追跡点は患者の頭部上の位置とすることができる。患者が頭部を動かした場合、前記カメラは、患者が動いても表示画面上の画像が実質的に変わらないよう、患者とともに動くことが可能である。あるいは、患者の口腔内または口腔内付近に追跡点を位置付けることもできる。例えば、追跡点は、歯、歯科器具、または患者の口腔内またはその付近に配置された開口器に位置付けることもできる。さらに、本明細書で一定の例を参照して説明するように、追跡点は利用者、例えば歯科専門家に関連付けてもよく、利用者の動きが追跡機能に直接関係するようにできる。
追跡点は、前記カメラの位置と相対的に患者の動きを追跡できるようにする任意タイプの装置、対象、または信号により提供できる。例えば、追跡は、高周波による三角測量を使って行える。複数の追跡用送受信機が、患者上または患者付近に配置可能である。マーカー、例えば器具に送受信機を含めてもよい。マーカー位置に対する前記器具の位置は、前記器具の送受信機から前記追跡用送受信機へ送信されるトラッカー信号が到着するタイミングに基づいて計算できる。前記器具の送受信機の位置は、例えば三角法を使って計算できる。
別の実施形態において、追跡点は、光学的に追跡可能なマーカー、例えば異なる色の光または赤外光源を使って形成された反射ドットまたは光学ドットであってよい。色光または赤外光の光源は、1若しくはそれ以上の発光ダイオードまたはレーザーであってよい。前記追跡モジュールには、光学的に追跡可能なマーカーと相対的にカメラを実質的に方向付けられるようにする画像認識ソフトウェアを含めることができる。あるいは、赤外受信機を使って、赤外光学ドットの位置を追跡することもできる。
別の実施形態において、前記追跡モジュール108は、例えば人の鼻孔、目、または他の明確な外観的特徴の位置または特徴を認識できる画像認識ソフトウェアを含むことができる。人の選択された外観的特徴が動くと、前記カメラの位置が調整され、人の口腔内の選択された領域の立体ビデオ画像が維持されるようにできる。患者の動きと相対的に前記ビデオカメラの方向を調整する能力により、前記ビデオカメラは、口腔内の望ましい位置について比較的高い倍率を提供できるようになる。前記画像認識ソフトウェアは、パターンを認識するようプログラムできる。例えば、最先端のオートフォーカスのコンパクトカメラに広く使用されているものと同様な顔認識技術を含むソフトウェアを本開示のシステムに使うと、例えばデジタル表示画面で顔の周囲にボックスが表示され、対象の顔が焦点合わせその他の目的用に認識されたことを利用者に通知する。
そのため、本開示のシステムには、図1fに示す任意選択的なズームモジュール110を含めることもできる。このズームモジュールは図1fだけに示ているが、本明細書で説明する実施形態のいずれでも使用できることを理解すべきである。このズームモジュールは、前記第1のビデオカメラ102aおよび前記第2のビデオカメラ102bと通信可能である。また、このズームモジュールは、望ましい倍率の前記略リアルタイムの立体ビデオ画像を提供するよう構成できる。前述のとおり、選択した倍率で望ましい位置を見る能力があると、歯科医師は複雑で細かい処置を行う上で著しい利点が得られる。歯科医師は、通常、ルーペ付きの眼鏡を使って約4倍程度に画像を拡大する。ただし、本開示の諸実施形態によれば、ズーム範囲を制限するのは、前記第1および第2のビデオカメラのズーム範囲のみである。
特定の一実施形態において、前記ビデオカメラ102a、102bは、標準的な画像の1倍〜20倍超、またはそれ以上の倍率を提供するよう構成することができる。この倍率は、光学的拡大、デジタルズーム、またはこの2つの組み合わせのいずれかを使って達成できる。前記立体ディスプレイは、患者の口腔内の望ましい位置について、明瞭で焦点の合った画像を高倍率で提供することができる。ビデオカメラは、奥行き感覚につながる視覚が維持できるよう、実質的に同じ倍率で設定できる。また、複数の前記カメラが倍率を変更する率(速度)は、前記第1および第2のビデオカメラと通信する前記ズームモジュールで画像がズームインおよびズームアウトされる際も、前記立体ビデオ画像の立体視を維持するよう実質的に等しくできる。
別の実施形態において、前記第1および第2のビデオカメラ102a、102bと、前記立体ディスプレイ106とは、比較的高い解像度を表示するよう構成することができる。例えば、前記カメラおよびディスプレイは、720Pプログレッシブビデオディスプレイを1280×720ピクセル(幅×高さ)で、1080iインターレースビデオディスプレイを1920×1080ピクセルで、または1080pプログレッシブビデオディスプレイを1920×1080ピクセルで提供するよう構成できる。ムーアの法則に沿って処理能力およびデジタルメモリが指数関数的に向上し続けるに伴い、前記カメラおよびディスプレイは、いっそう高い解像度、例えば4320Pプログレッシブビデオディスプレイを7680×4320ピクセルでもたらせるようになる。解像度が高まると、ソフトウェア(デジタルズーム)を使って画像を拡大し、実質的に画質を損なうことなくデジタル倍率を提供することができる。このように、ソフトウェアだけを使っても、望ましい倍率レベルの前記略リアルタイムの立体ビデオ画像を提供することができる。
図2は、本開示の一実施形態に基づき、患者の口腔内の略リアルタイムの立体画像を見るため頭部着用可能な立体ディスプレイ206を使っている歯科医師232の例を図示している。第1のビデオカメラ202aおよび第2のビデオカメラ202bは、患者234の上方で固定具242に取り付けることができる。
患者の口腔内を明るく照らすには、光236、例えば歯科用光源を設けることができる。この光が十分な照明を提供することにより、前記第1のビデオカメラ202および前記第2のビデオカメラ204は、望ましい倍率レベルまでズームしながら、前記略リアルタイムの立体ビデオ画像用に選択された視野の奥行きを維持することができる。視野の奥行きは、患者口腔内の望ましい位置すべてについて明瞭で焦点の合った視野を歯科医師が得られるよう選択できる。前記第1および第2のビデオカメラの絞りは、それらのビデオカメラの倍率が高められた場合、変更可能である。あるいは、前記光源を十分明るくして、絞りの変更を不要にすることもできる。また、図1cと関連して前述した画像調整モジュールに有用な種々の照明プロファイルを生成するよう、光を提供することもできる。
前記第1および第2のビデオカメラ202a、202bの視野の奥行きは、患者の口腔の長さを超える。例えば、前記第1および第2のビデオカメラの視野の奥行きが典型的な患者口腔の奥行きの2倍である場合、カメラの視野の奥行きが中央に位置合わせされると仮定すると、前記第1および第2のビデオカメラは、患者の唇に焦点を合わせながら患者の口内の奥に明確な焦点を保つことができる。
一実施形態において、前記頭部装着可能な立体ビデオディスプレイ206は、分割された視野をもたらすよう構成でき、その場合、前記眼鏡の底部は左右の目に別個の高解像度ディスプレイを提供し、前記眼鏡より上では、歯科医師が障害物のない環境を見ることができる。あるいは、眼鏡に分割視野を構成し、その眼鏡の下半分でビデオ画像を提供し、上半分を実質的に透明にして、操作者が、前記頭部装着可能な立体ディスプレイを着用しながら自然環境も見られるようにもできる。この場合、歯科医師は患者の口腔に取り組む間、高倍率レベルを使い、周囲の環境を見るときは無倍率へとすばやく移行できるため、特に有用である。
あるいは、前記頭部装着可能な立体ビデオディスプレイ以外のビデオディスプレイを配置して、前記略リアルタイムの立体ビデオ画像を表示することもできる。例えば、3次元画像を表示するよう、大型のテレビジョン受信機(テレビ)画面を構成することもできる。この配置は望ましい用途に基づくが、一実施形態では、歯科医師232がビデオ画像を見られるよう患者234後方の位置に配置できる。また、患者が、または例えば教育環境において学生が学習のため、画像を見られる位置にも配置できる。前記ビデオディスプレイは、アイウェアの支援があるなしにかかわらず、閲覧者が立体ディスプレイ246で3次元画像を見られるよう構成することができる。
例えば、一実施形態では、前記第1および第2のビデオフィードを、各ビデオフィードを光学的に分離した状態で単一の表示画面246に表示できる。光学的分離技術としては、シャッター分離、偏光分離、色分離などがある。一実施形態において、閲覧者または利用者、例えば歯科医師は、眼鏡を装着し、前記別個の画像を見て立体視および奥行きの感覚を得ることができる。他の実施形態では、立体ビデオを、例えば複数のテレビ画面に表示することができる。例えば、前記立体画像は、1つのテレビ画面、プロジェクション・ディスプレイ(投写型ディスプレイ)、および頭部装着可能な立体ビデオディスプレイに同時に表示できる。
一定のタイプの眼鏡、例えばシャッター分離を使ったLCD眼鏡を前記表示画面と同期させると、前記光学的に分離された略リアルタイムの立体ビデオ画像を閲覧者が見られるようにできる。前記ビデオフィードを光学的に分離すると、人の両目の網膜にそれぞれ投影されるわずかに異なる2つのビデオ画像から奥行き感覚につながる視覚が得られ、立体視がもたらされる。前述のように、奥行き感覚が得られると、歯科医師は、歯科医師としてそれまで学んだ目と手の協調性を実質的にそのまま保つことができる。
前記立体ビデオディスプレイ206は、患者に関する情報を見るために使用することもできる。例えば、X線画像をデジタル化して前記ビデオディスプレイに表示できる。患者のカルテ情報も表示できる。これにより、歯科医師は迅速に患者の状況を知ることができる。また、歯科医師は、以前の画像および患者のカルテに含まれる情報と、患者の現在の状況とを比較することもできる。画像を使用すると、患者に説明し、歯科助手を教育することなどもできる。
一実施形態において、前記固定具242は蝶動可能に(hingeably)取り付けることができ、あるいは高さを調節できる。前記ビデオカメラから患者までの距離は、必要に応じて変更できる。例えば、前記ビデオカメラは、患者口腔の上方約5インチ〜約96インチの距離に配置できる。前記ビデオカメラと患者の距離が変化するに伴い、前記第1のビデオカメラおよび前記第2のビデオカメラが互いに成す角度は調整され、前記略リアルタイムの立体ビデオ画像の立体視が保たれる。
図3は、第1および第2のビデオカメラ302a、302bの角度がいかに対象からの距離と関係するかを例示した図である。なお、この図は縮尺どおりではない。前記カメラは、選択された距離だけ、例えば前述のように瞳孔間距離だけ分離できる。一実施形態において、距離dは距離dと実質的に等しくできる。この例では、d=d=30mmである。ただし、実際の距離はシステム用件に応じて異なり、例えばd+d=約50mm〜75mm範囲の値である。
選択された対象320または領域、例えばこの例では歯を見るため、前記第1のビデオカメラ302aは、法線方向に対して角度θで対象へ方向付けられる。前記第2のビデオカメラ302bは、法線方向に対して角度θで対象へ方向付けることができる。前記対象が前記カメラ302aと302b間の中央に位置合わせされると、θはθに実質的に等しくなるが、これは必ずしも必要なことではない。
前記第1のビデオカメラ302aは、角度θに基づいた第1の平面310のビデオ画像を生成する。前記第2のビデオカメラ302bは、角度θに基づいた第2の平面312のビデオ画像を生成する。前記第1および第2の平面310、312は、収束点316と呼ばれる位置で交差する。一実施形態において、この収束点は、ほぼ前記対象320の位置に選択できる。あるいは、この収束点は、前記カメラの視野の奥行き以内に選択できる。前記第1および第2のカメラをズームして画像が拡大された場合、前記収束点は、最終的な拡大ビデオ画像内に入るよう選択できる。
前記カメラ302a、302bと前記対象320間の距離dが変化すると、前記角度θおよびθは前記収束点がほぼ同じ位置に維持されるよう調整されるようにできる。距離dは、図2の前記固定具242の位置が患者234と相対的に調整されることにより変化する可能性がある。また、距離dは、患者が動いても変化しうる。
上述したように、追跡点を使用すると患者の動きを追跡できる。一実施形態において、前記収束点は、前記追跡点と別個のものとして扱える。例えば、前記追跡点は、患者の前額部に付けた光学的マーカーであってよく、前記収束点は、患者の歯上の焦点であってよい。前記収束点は、前記追跡点がX、Y、およびZ軸のうち少なくとも1つに沿って一定量動くと前記収束点がほぼ同じ距離だけ動くよう、前記追跡点と相関させることができる。あるいは、前記追跡点を前記収束点と実質的に等しくしてもよい。これにより、前記第1および第2のビデオカメラ302a、302bにより生成される選択位置のビデオフィードは、患者が動いても維持可能になるため、歯科医師は、前記選択位置について前記略リアルタイムの立体ビデオ画像の視野を保つことができる。
ここで前記ビデオカメラ作動について説明するため図1a〜hに戻ると、前記第1および第2のビデオカメラ102a、102bが配置される方向は、各ビデオカメラと機械的に連結された少なくとも1つの電気モーター112を使って更新できる。例えば、単一のモーターを使用すると第1の軸に沿ってビデオカメラの角度を変更でき、例えばビデオカメラを回転させることができる。第2のモーターを使用すると、第2の軸に沿って前記ビデオカメラの角度を調整できる。一実施形態では、各ビデオカメラをXおよびY軸に沿って調整して各ビデオを望ましい方向へ向けられるようにするには、2つのモーターで十分である。ただし、第3のモーターを使用すると、第3の軸に沿って前記ビデオカメラの位置を調整できる。前記3つのモーターを使うと、X、Y、およびZ軸に沿って各ビデオカメラの位置を再方向付けでき、実質的にどの方向へも配向可能になる。
前記少なくとも1つのモーター112は、前記追跡モジュール108と通信して前記第1および第2のビデオカメラの位置を更新することができる。一実施形態では、利用者が、前記少なくとも1つのモーター112と通信可能なソフトウェアインターフェースを使って、前記第1および第2のビデオカメラ102a、102bの位置を手動で変更できる。
前記ビデオカメラ102a、102bを望ましい方向へ設定し、利用者が選択した領域、例えば患者の歯を見られるようになったら、その位置を前記収束点として設定できる。前述のように、前記収束点は、選択された追跡点に関連付けられる。前記追跡点の位置は、当該追跡点が前記収束点に対してほぼ1対1で動くよう選択できる。例えば、光学的マーカーは、患者の前額部、または所与の用途に好都合な他の位置に配置することができる。患者が頭部を動かすと、前額部の位置変化は、一般に、患者の歯の位置変化と実質的に同様である(何らかの不自然なねじれた動きがない場合。ただし、歯科診療台に座っている状態では可能性が低い)。このように、前記追跡点が動くと、前記カメラの位置を前記追跡点の動きと相対的に更新して、同じ選択領域、例えば患者の歯に前記収束点を維持することができる。歯科医師は、挿入部材、例えば患者の口腔に挿入される開口器を使って、顎の開口角度が実質的に変わらないよう保つことができる。一実施形態では、開口器を使う場合、その上に、または口腔に近い若しくは口腔内の別の領域、例えば歯、唇、頬、鼻、顎などに前記追跡点を位置付けることができる。別の実施形態では、開口器、例えば口角鈎を使う場合、LED、または他の光源を開口器上に含めることができる。これを受け、画像調整モジュール114が使用される本開示の実施形態では(図1cを参照)、上述したように、前記口角鈎がもたらす照明プロファイルを光の強調またはシフト用に選択することができる。
前記第1および第2のビデオカメラ102a、102bの位置は、当該ビデオカメラの位置を患者に対し物理的に変更しても影響される。例えば、前記カメラは、図2で説明したように、回転、上方移動および下方移動、蝶動、または再配置できる固定具に取り付けることができる。前記固定具を動かすことにより前記ビデオカメラの位置が変更された場合は、前記少なくとも1つのモーター112を使って、選択した領域へ前記ビデオカメラを再方向付けできる。一実施形態では、前記固定具の位置を前記モーターと併用して、前記ビデオカメラを望ましい方向へ向けることができる。例えば、歯科医師は、望ましい照明を提供するよう前記固定具を配置し、前記ビデオカメラを患者の口腔内に向けて位置合わせして、口腔内の望ましい位置へ前記ビデオカメラを方向付けられるようにする。
他の関連実施形態では、医療用立体ビデオ画像を見る方法もいくつか開示されている。それらの方法は、全般的に、対象の選択された領域へ第1のビデオカメラおよび第2のビデオカメラを方向付けて、前記選択された領域の第1のビデオフィードおよび第2のビデオフィードをそれぞれ生成する工程を含み、その場合、前記第1のビデオカメラは、選択された距離だけ前記第2のビデオカメラから離間され、前記第1のビデオカメラおよび前記第2のビデオカメラは、それぞれ前記選択された領域における若しくはその付近の収束点へ方向付けられて、前記選択された領域の立体視を提供する。付加的な工程は、選択された追跡点に前記収束点を関連付ける工程と、前記選択された追跡点の動きと相対的に前記収束点の位置を調整する工程と、前記第1のビデオフィードおよび前記第2のビデオフィードを光学的に分離して略リアルタイムの立体ビデオ画像を生成する表示システムに、前記第1のビデオフィードおよび前記第2のビデオフィードを表示する工程とを含む。
この全般的な方法には、追加工程を含めることもできる。例えば、一実施形態では、ビデオカメラのアレイから前記第1のビデオカメラおよび前記第2のビデオカメラを選択する工程を含めることができる。前記アレイから2つのカメラを選んで前記略リアルタイムの立体画像を生成し、または少なくとも1つの仮想ビデオフィードを使って仮想画像を生成することができる。この後者の実施形態では、立体ビデオ画像を見る方法は、ビデオカメラのアレイを取得する工程と、前記アレイの複数のビデオカメラから複数のビデオカメラフィードを生成する工程とを有することができる。付加的な工程は、少なくとも複数の前記ビデオフィードを幾何学的に変換して仮想カメラフィードを生成する工程と、収束点に関し、選択された追跡点を追跡する工程と、略リアルタイムの立体ビデオ画像を生成する工程とを含む。前記立体ビデオ画像は、少なくとも2つのカメラフィードを有することができ、前記2つのカメラフィードのうち少なくとも1つは前記仮想カメラフィードである。さらに、前記少なくとも2つのカメラフィードは、通常、前記収束点へ方向付けられる。
別の例において、前記方法は、利用者のジェスチャー制御の動きの結果として、前記略リアルタイムの立体画像を修正する工程を含むことができる。別の例において、前記方法は、前記第1のビデオカメラおよび前記第2のビデオカメラにより受信された光信号を選択的に修正することにより、利用者による診断または治療の視覚化を強化するようなっている少なくとも1つの調整された視覚的特性を有する可視画像を提供する工程を含むことができる。これにより、前記略リアルタイムの立体ビデオ画像を表示する際、前記調整された視覚的特性は、診断または治療のための追加情報を利用者、例えば医療または歯科専門家に提供することができる。別の例において、前記方法は、前記第1のビデオフィードおよび前記第2のビデオフィードの水平方向の位置合わせを較正および調整するように構成された較正モジュールを含むことができる。さらに別の実施形態において、前記方法は、前記略リアルタイムの立体ビデオ画像の少なくとも1つのフレームから3Dモデルを生成する工程を含むことができる。
なお、前記対象の選択された領域へ前記第1のビデオカメラおよび前記第2のビデオカメラを方向付けて、前記選択された領域の第1のビデオフィードおよび第2のビデオフィードをそれぞれ生成する工程については、前記第1のビデオカメラは、選択された距離だけ前記第2のビデオカメラから離間される。一実施形態において、選択された距離は瞳孔間距離であってよく、または前述のように異なる距離、例えば適切な角度を使うことにより、または処理工程を使って前記画像を調整することにより、光学的に瞳孔間距離をシミュレートする距離を選択してもよい。通常、第1のビデオカメラおよび第2のビデオカメラは、それぞれ前記選択された領域における若しくはその付近の収束点へ方向付けられて、前記選択された領域の立体視を提供する。
これらの方法は、さらに、対象上または対象付近の選択された追跡点に前記収束点を関連付ける工程を有する。前記選択された追跡点としては、上述のとおり、光学的に追跡可能なマーカーなどがある。一実施形態において、前記光学的に追跡可能なマーカーは、患者の口腔内または口腔付近に設置された開口器に配置できる。あるいは、前記選択された追跡点としては、患者上または患者付近に配置された少なくとも2つの他の送受信機と相対的に、当該追跡点にある送受信機で受信された信号のタイミングに基づき、当該選択された追跡点の位置を三角測量するように構成された複数の無線送受信機なども含めることができる。
例えば、一実施形態では、手術室に、当該手術室内の異なる位置に配置された4つの別個の高周波送受信機を含めることができる。次いで、前記手術室に入室した患者上に追跡送受信機を配置できる。その追跡送受信機は、前記手術室に設置された前記送受信機からの信号を送受信できる。前記手術室における前記追跡送受信機と前記4つの送受信機間の信号のタイミングを使用すると、三角法を使って前記追跡送受信機の位置を3次元で決定できることが理解されるであろう。この三角測量計算の精度は、送受信機の周波数に少なくとも部分的に基づく。送受信機の周波数が高いほど波長が短くなり、前記追跡送受信機の位置について、より正確な決定が行える。単に動きの変化を追跡するだけでも、高い精度は得られる。前記追跡送受信機が室内の前記送受信機の1つに近づき、別の前記送受信機から遠ざかると、その結果生じる信号のタイミング変化により、前記追跡送受信機の位置変化について著しく正確な決定が行える。
前記方法は、さらに、前記選択された追跡点の動きと相対的に前記収束点の位置を調整する工程を有する。一実施形態において、前記収束点は、前記追跡点からのX、Y、およびZ軸距離を有する仮想点として選択できる。前記追跡点が動かされると、前記追跡点からの前記X、Y、およびZ軸距離の変化に基づき、前記第1のビデオカメラおよび前記第2のビデオカメラの向きを変えて前記選択された領域の視野を保つことができる。例えば、前記追跡点と相対的に前記収束点が選択されたのち、前記追跡点を装着した患者の動きによりX、Y、およびZ軸の各々で前記追跡点が1インチ動く可能性がある。すると、前記収束点もX、Y、およびZ軸の各々で1インチ動いたものと仮定でき、前記第1および第2のビデオカメラの位置を再方向付けして、前記収束点の位置を新たな位置へと調整することができる。
前記方法は、さらに、前記第1のビデオフィードおよび前記第2のビデオフィードを光学的に分離して略リアルタイムの立体ビデオ画像を生成する表示システムに、前記第1のビデオフィードおよび前記第2のビデオフィードを表示する工程を含むことができる。一実施形態において、前記第1のビデオフィードは、頭部に装着可能なビデオディスプレイの右のビデオディスプレイに表示でき、前記第2のビデオフィードは、前記頭部に装着可能なビデオディスプレイの左のビデオディスプレイに表示できる。前記右および左のビデオディスプレイは、利用者の右および左目にそれぞれ投影を行える。前記立体ビデオ画像では、両目の網膜に投影されるわずかに異なる2つのビデオ画像から奥行き感覚につながる視覚が得られる。
あるいは、前記第1のビデオフィードおよび前記第2のビデオフィードを単一のディスプレイに表示し、前述のように、シャッター分離、偏光分離、および色分離のうち少なくとも1つを使って前記第1のビデオフィードおよび前記第2のビデオフィードを光学的に分離することもできる。使用される光学的分離法のタイプによっては、眼鏡を使って、利用者が前記単一のディスプレイに表示される画像を分離できるようにし、前記第1のビデオフィードが利用者の右目に方向付けられ、かつ、前記第2のビデオフィードが当該利用者の左目に方向付けられるようにでき、その逆も可能である。
前記第1のビデオカメラおよび前記第2のビデオカメラは、それぞれズームされて、前記略リアルタイムの立体画像の選択された部分について望ましいレベルの倍率を提供できる。前記第1および第2のビデオカメラの各々について倍率が変化する率(速度)は、前記立体ビデオ画像の立体視を維持するよう実質的に等しくできる。最終的な倍率も、同じ理由で実質的に等しい。前記第1および第2のカメラを使って前記立体ビデオ画像を光学的に拡大するほか、前記ビデオ画像は、デジタル倍率を使ってさらに拡大できることが理解されるであろう。
以上、本開示のシステムおよび方法を説明してきたが、本明細書で説明した機能部の多くは、より具体的に各々の実施態様の独立性を強調するため、「モジュール」として説明していることも理解すべきである。例えば、モジュールは、カスタムVLSI回路またはゲートアレイ、論理チップなどの市販の半導体、トランジスタ、または他の個別構成要素を有するハードウェア回路として実装可能である。モジュールは、フィールドプログラマブルゲートアレイ、プログラマブルアレイロジック、プログラマブルロジック装置など、プログラム可能なハードウェア装置で実装することもできる。
モジュールは、ソフトウェアにおいても実装可能で、種々のタイプのプロセッサで実行できる。実行コードの、特定されたモジュールは、例えばオブジェクト、手続き(プロシージャ)、または関数(ファンクション)などとして編成されるコンピュータ命令の1若しくはそれ以上の物理ブロックまたは論理ブロックを有することができる。特定されたモジュールの実行可能部は、物理的に同じ場所に位置する必要はないが、異なる位置に格納された異種の命令を有してよく、それらが論理的に結合されてモジュールとなり、当該モジュール用に記述された目的を達成する。
実際、実行コードのモジュールは、単一の命令であっても多数の命令であってもよく、また複数の異なるコードセグメント、異なるプログラム、複数のメモリ装置にわたり分散させてもよい。同様に、動作データも、本明細書ではモジュール内で特定および例示でき、任意の適切な形態で具体化し任意の適切なタイプのデータ構造内で編成することができる。この動作データは、単一のデータセットとして収集でき、または異なる記憶装置を含む異なる位置に分散可能で、少なくとも部分的に単に電気信号としてシステムまたはネットワークに存在することができる。前記モジュールは、受動的であっても能動的であってもよく、望ましい関数(ファンクション)を実行するよう動作可能なエージェントを含む。
以上の例は1若しくはそれ以上の特定の用途で本発明の原理を例示するものであり、当業者であれば、発明能力を行使することなく、本発明の原理および概念を逸脱しない範囲で、実施態様の形態、用途、および細部に多数の変更形態が可能であることが明確に理解されるであろう。そのため、本発明は、以下に記載する請求項以外に限定されるものではない。

Claims (93)

  1. 立体ビデオ画像を見るためのシステムであって、
    各々が対象のビデオフィードを生成するように構成された少なくとも3つの離間されたビデオカメラを有する複数のビデオカメラであって、
    当該複数のビデオカメラは、複数のビデオカメラペアが略リアルタイムの立体ビデオ画像を生成できるように構成されており、
    前記複数のビデオカメラペアは、それぞれ前記対象の第1のビデオフィードを生成するように構成された第1のビデオカメラと、前記対象の第2のビデオフィードを生成するように構成された第2のビデオカメラとを有するものである、
    前記複数のビデオカメラと、
    前記複数のビデオカメラに関連付けられた追跡モジュールであって、各ビデオカメラペアの前記第1のビデオカメラおよび前記第2のビデオカメラを選択された追跡点と相対的に望ましい収束点へ方向付けて立体視を保つように構成されるものである、前記追跡モジュールと
    を有するシステム。
  2. 請求項1記載のシステムにおいて、前記ビデオカメラペアの各前記ビデオカメラは、互いに瞳孔間距離だけ離間されるものであるシステム。
  3. 請求項1記載のシステムにおいて、前記ビデオカメラペアの前記ビデオカメラのうち少なくとも1つは、互いに瞳孔間距離だけ離間されないものであるシステム。
  4. 請求項1記載のシステムにおいて、第1のビデオカメラペアの前記第1のビデオカメラまたは前記第2のビデオカメラは、第2のビデオカメラペアの前記第1のビデオカメラまたは前記第2のビデオカメラであるシステム。
  5. 請求項1記載のシステムにおいて、前記複数のビデオカメラは、1次元のアレイに位置合わせされるものであるシステム。
  6. 請求項1記載のシステムにおいて、前記複数のビデオカメラは、2次元のアレイに構成されるものであるシステム。
  7. 請求項1記載のシステムにおいて、前記第1のビデオカメラおよび前記第2のビデオカメラのうち少なくとも1つは、前記対象の動きに基づいて選択されるものであるシステム。
  8. 請求項1記載のシステムにおいて、前記第1のビデオカメラおよび前記第2のビデオカメラのうち少なくとも1つは、利用者の動きに基づいて選択されるものであるシステム。
  9. 請求項1記載のシステムにおいて、さらに、
    前記第1のビデオカメラおよび前記第2のビデオカメラに関連付けられたズームモジュールであって、望ましい倍率の前記略リアルタイムの立体ビデオ画像を提供するように構成される、ズームモジュールを有するものであるシステム。
  10. 請求項1記載のシステムにおいて、さらに、
    前記略リアルタイムの立体ビデオ画像を表示するように構成されたビデオディスプレイを有するものであるシステム。
  11. 請求項10記載のシステムにおいて、前記ビデオディスプレイは、前記立体視を生成するよう利用者の右目および左目でそれぞれ見るための右目用ディスプレイおよび左目用ディスプレイを有するものであるシステム。
  12. 請求項10記載のシステムにおいて、前記ビデオディスプレイは単一のビデオ画面を有し、前記第1のビデオフィードおよび前記第2のビデオフィードは、シャッター分離、偏光分離、および色分離のうち少なくとも1つを使って光学的に分離されるものであるシステム。
  13. 請求項1記載のシステムにおいて、前記追跡モジュールは、前記追跡点、前記第1のビデオカメラ、および前記第2のビデオカメラのうち少なくとも1つに動きが生じるに伴い、前記立体視を維持するものであるシステム。
  14. 立体ビデオ画像を見る方法であって、
    ビデオカメラのアレイから第1のビデオカメラおよび第2のビデオカメラを選択する工程と、
    対象の選択された領域へ前記第1のビデオカメラおよび前記第2のビデオカメラを方向付けて、当該選択された領域の第1のビデオフィードおよび第2のビデオフィードをそれぞれ生成する工程であって、前記第1のビデオカメラは選択された距離だけ前記第2のビデオカメラから離間され、前記第1のビデオカメラおよび前記第2のビデオカメラは、それぞれ前記選択された領域における若しくはその付近の収束点へ方向付けられて前記選択された領域の立
    体視を提供するものである、前記方向付ける工程と、
    前記収束点を選択された追跡点に関連付ける工程と、
    前記選択された追跡点の動きと相対的に前記収束点の位置を調整する工程と、
    前記第1のビデオフィードおよび前記第2のビデオフィードを光学的に分離して略リアルタイムの立体ビデオ画像を生成する表示システムに前記第1のビデオフィードおよび前記第2のビデオフィードを表示する工程と
    を有する方法。
  15. 請求項14記載の方法において、この方法は、さらに、
    前記ビデオカメラのアレイから異なる第1のビデオカメラおよび異なる第2のビデオカメラを選択し、結果として、異なる略リアルタイムの立体ビデオ画像を生成する工程を有するものである方法。
  16. 立体ビデオ画像を見るためのシステムであって、
    ビデオカメラフィードを提供するように構成されたビデオカメラのアレイと、
    画像処理モジュールであって、i)前記アレイからビデオカメラフィードを受信し、ii)前記ビデオカメラフィードのうち1若しくはそれ以上を幾何学的に変換して仮想カメラフィードを生成し、iii)少なくとも2つのカメラフィードから立体ビデオ画像を生成するように構成され、前記2つのカメラフィードのうち少なくとも1つは前記仮想カメラフィードであり、前記少なくとも2つのカメラフィードは、前記収束点へ方向付けられるものである、前記画像処理モジュールと、
    前記アレイに関連付けられた追跡モジュールであって、前記収束点と相対的に追跡点を追って立体視を維持するように構成されているものである、前記追跡モジュールと
    を有するシステム。
  17. 請求項16記載のシステムにおいて、前記少なくとも2つのカメラフィードは、互いに瞳孔間距離だけ離間されるものであるシステム。
  18. 請求項16記載のシステムにおいて、前記追跡点は、対象の動きに関連付けられるものであるシステム。
  19. 請求項16記載のシステムにおいて、前記追跡点は、利用者の動きに関連付けられるものであるシステム。
  20. 請求項16記載のシステムにおいて、さらに、
    前記アレイに関連付けられたズームモジュールであって、望ましい倍率の前記略リアルタイムの立体ビデオ画像を提供するように構成される、ズームモジュールを有するものであるシステム。
  21. 請求項16記載のシステムにおいて、さらに、
    前記略リアルタイムの立体ビデオ画像を表示するように構成されたビデオディスプレイを有するものであるシステム。
  22. 請求項21記載のシステムにおいて、前記ビデオディスプレイは、前記立体視を生成するよう利用者の右目および左目でそれぞれ見るための右目用ディスプレイおよび左目用ディスプレイを有するものであるシステム。
  23. 請求項21記載のシステムにおいて、前記ビデオディスプレイは単一のビデオ画面を有し、前記第1のビデオフィードおよび前記第2のビデオフィードは、シャッター分離、偏光分離、および色分離のうち少なくとも1つを使って光学的に分離されるものであるシステム。
  24. 立体ビデオ画像を見る方法であって、
    ビデオカメラのアレイを取得する工程と、
    前記アレイの複数のビデオカメラから複数のビデオカメラフィードを生成する工程と、
    少なくとも複数の前記ビデオフィードを幾何学的に変換して仮想カメラフィードを生成する工程と、
    収束点に関し、選択された追跡点を追跡する工程と、
    略リアルタイムの立体ビデオ画像を生成する工程であって、前記立体ビデオ画像は、少なくとも2つのカメラフィードを有し、前記2つのカメラフィードのうち少なくとも1つは前記仮想カメラフィードであり、前記少なくとも2つのカメラフィードは、前記収束点へ方向付けられるものである、前記生成する工程と
    を有する方法。
  25. 立体ビデオ画像を見るためのシステムであって、
    対象の第1のビデオフィードを生成するように構成された第1のビデオカメラと、
    前記対象の第2のビデオフィードを生成するように構成された第2のビデオカメラであって、前記第1のビデオフィードおよび前記第2のビデオフィードは、組み合わされて略リアルタイムの立体ビデオ画像を生成するものである、前記第2のビデオカメラと、
    前記第1のビデオカメラおよび前記第2のビデオカメラに関連付けられた追跡モジュールであって、選択された追跡点と相対的に望ましい収束点へ前記第1のビデオカメラおよび前記第2のビデオカメラを方向付けて立体視を保つように構成されているものである、前記追跡モジュールと、
    当該システムに関連付けられたジェスチャー制御モジュールであって、当該システムは利用者の動きに基づいて応答するものであり、当該ジェスチャー制御モジュールは、前記第1および第2のビデオカメラの角度および倍率のうち少なくとも1つを調整して、利用者の動きに基づいて前記略リアルタイムの立体ビデオ画像を調整するように構成されているものである、前記ジェスチャー制御モジュールと、
    を有するシステム。
  26. 請求項25記載のシステムにおいて、前記動きは利用者の意図的なジェスチャーであるシステム。
  27. 請求項26記載のシステムにおいて、前記意図的なジェスチャーは、手、腕、音声、または器具のジェスチャーであるシステム。
  28. 請求項25記載のシステムにおいて、前記モジュールにはセンサーが関連付けられ、前記追跡点は利用者の動きに従うものであるシステム。
  29. 請求項28記載のシステムにおいて、前記動きは利用者の頭部の動きまたは目の動きであるシステム。
  30. 請求項25記載のシステムにおいて、さらに、
    前記第1のビデオカメラおよび前記第2のビデオカメラに関連付けられたズームモジュールであって、望ましい倍率の前記略リアルタイムの立体ビデオ画像を提供するように構成される、ズームモジュールを有するものであるシステム。
  31. 請求項25記載のシステムにおいて、前記第1のビデオカメラおよび前記第2のビデオカメラは、互いに瞳孔間距離だけ離間されるものであるシステム。
  32. 請求項25記載のシステムにおいて、歯科環境で使用するようなっており、前記略リアルタイムの立体ビデオ画像は対象の口腔内のものであるシステム。
  33. 請求項25記載のシステムにおいて、さらに、
    前記略リアルタイムの立体ビデオ画像を表示するように構成されたビデオディスプレイを有するものであるシステム。
  34. 請求項33記載のシステムにおいて、前記ビデオディスプレイは、立体視を生成するよう利用者の右目および左目でそれぞれ見るための右目用ディスプレイおよび左目用ディスプレイを有するものであるシステム。
  35. 請求項33記載のシステムにおいて、ビデオディスプレイは単一のビデオ画面を有し、前記第1のビデオフィードおよび前記第2のビデオフィードは、シャッター分離、偏光分離、および色分離のうち少なくとも1つを使って光学的に分離されるものであるシステム。
  36. 請求項33記載のシステムにおいて、前記ビデオディスプレイは、複数の利用者が前記略リアルタイムの立体ビデオ画像を同時に見るための、複数のビデオディスプレイを有するものであるシステム。
  37. 請求項25記載のシステムにおいて、前記追跡モジュールは、前記追跡点、前記第1のビデオカメラ、および前記第2のビデオカメラのうち少なくとも1つに動きが生じるに伴い、立体視を維持するものであるシステム。
  38. 立体ビデオ画像を見る方法であって、
    対象の選択された領域へ第1のビデオカメラおよび第2のビデオカメラを方向付けて、当該選択された領域の第1のビデオフィードおよび第2のビデオフィードをそれぞれ生成する工程であって、前記第1のビデオカメラは、選択された距離だけ前記第2のビデオカメラから離間され、前記第1のビデオカメラおよび前記第2のビデオカメラは、それぞれ前記選択された領域における若しくはその付近の収束点へ方向付けられて、前記選択された領域の立体視を提供するものである、前記方向付ける工程と、
    前記収束点を選択された追跡点に関連付ける工程と、
    前記選択された追跡点の動きと相対的に前記収束点の位置を調整する工程と、
    前記第1のビデオフィードおよび前記第2のビデオフィードを光学的に分離して略リアルタイムの立体ビデオ画像を生成する表示システムに前記第1のビデオフィードおよび前記第2のビデオフィードを表示する工程と、
    利用者のジェスチャー制御の動きの結果として、前記略リアルタイムの立体画像を修正する工程と
    を有する方法。
  39. 請求項38記載の方法において、前記ジェスチャーは、利用者の手、腕、音声、または器具により行われる意図的なジェスチャーである方法。
  40. 請求項38記載の方法において、前記ジェスチャーは頭部の動きまたは目の動きである方法。
  41. 立体ビデオ画像を見るためのシステムであって、
    対象の第1のビデオフィードを生成するように構成された第1のビデオカメラと、
    前記対象の第2のビデオフィードを生成するように構成された第2のビデオカメラであって、前記第1のビデオフィードおよび前記第2のビデオフィードは、組み合わされて略リアルタイムの立体ビデオ画像を生成するものである、前記第2のビデオカメラと、
    前記第1のビデオカメラおよび第2のビデオカメラに関連付けられた追跡モジュールであって、選択された追跡点と相対的に望ましい収束点へ前記第1のビデオカメラおよび前記第2のビデオカメラを方向付けて立体視を保つように構成されているものである、前記追跡モジュールと、
    画像調整モジュールであって、前記第1のビデオカメラにより生成された前記第1のビデオフィードおよび前記第2のビデオカメラにより生成された前記第2のビデオフィードを選択的に修正することにより、診断または治療の視覚化を強化するようなっている少なくとも1つの調整された視覚的特性を有する可視画像を提供するように構成されているものである、前記画像調整モジュールと
    を有するシステム。
  42. 請求項41記載のシステムにおいて、前記調整された視覚的特性は、特定の色または色群の強調を含むものであるシステム。
  43. 請求項42記載のシステムにおいて、前記特定の色または色群は、口内の癌または病変部の診断または治療用に強調されるものであるシステム。
  44. 請求項42記載のシステムにおいて、前記特定の色または色群は、軟組織の診断または治療用に強調されるものであるシステム。
  45. 請求項42記載のシステムにおいて、前記特定の色または色群は、窩洞の診断または治療用に強調されるものであるシステム。
  46. 請求項42記載のシステムにおいて、当該システムは、黄色光下で使用するようなっており、前記調整された可視特性は、前記可視画像における黄色着色の低減であるシステム。
  47. 請求項41記載のシステムにおいて、当該システムは、彩度の高い光で使用するようなっており、前記調整された可視特性は、前記可視画像における彩度の低減であるシステム。
  48. 請求項41記載のシステムにおいて、当該システムは、審美または補綴歯科作業用に白色の着色を整合させるため、前記可視画像が正確な視覚化をもたらすようなっているものであるシステム。
  49. 請求項41記載のシステムにおいて、前記画像調整モジュールは、前記第1および第2のビデオカメラにより検出される紫外線を表示するように構成され、前記紫外線は、前記略リアルタイムの立体ビデオ画像で見えるよう調整されるものであるシステム。
  50. 請求項41記載のシステムにおいて、前記画像調整モジュールは、口腔内の口角鈎により提供される光用に、前記略リアルタイムの立体ビデオ画像の照明プロファイルを調整するように構成されるものであるシステム。
  51. 請求項41記載のシステムにおいて、前記画像調整モジュールは、前記略リアルタイムの立体ビデオ画像において着色剤の表示を強調するように構成されるものであるシステム。
  52. 請求項51記載のシステムにおいて、前記着色剤は、蛍光色素または顔料であるシステム。
  53. 請求項52記載のシステムにおいて、蛍光色素または顔料は、物質の存在を視覚化するようなっている蛍光色素であるシステム。
  54. 請求項51記載のシステムにおいて、前記着色剤は、化学物質が硬化(cure)または硬化(harden)するに伴い色が変化するようなっているものであるシステム。
  55. 請求項41記載のシステムにおいて、さらに、
    前記第1のビデオカメラおよび前記第2のビデオカメラに関連付けられたズームモジュールであって、望ましい倍率の前記略リアルタイムの立体ビデオ画像を提供するように構成される、ズームモジュールを有するものであるシステム。
  56. 請求項41記載のシステムにおいて、前記第1のビデオカメラおよび前記第2のビデオカメラは、互いに瞳孔間距離だけ離間されるものであるシステム。
  57. 請求項41記載のシステムにおいて、さらに、
    前記略リアルタイムの立体ビデオ画像を表示するように構成されたビデオディスプレイを有するものであるシステム。
  58. 請求項57記載のシステムにおいて、前記第1のビデオフィードおよび前記第2のビデオフィードは、前記ディスプレイに無線通信されるものであるシステム。
  59. 請求項57記載のシステムにおいて、前記ビデオディスプレイは、立体視を生成するよう利用者の右目および左目でそれぞれ見るための右目用ディスプレイおよび左目用ディスプレイを有するものであるシステム。
  60. 請求項57記載のシステムにおいて、ビデオディスプレイは単一のビデオ画面を有し、前記第1のビデオフィードおよび前記第2のビデオフィードは、シャッター分離、偏光分離、および色分離のうち少なくとも1つを使って光学的に分離されるものであるシステム。
  61. 請求項57記載のシステムにおいて、前記ビデオディスプレイは、複数の利用者が前記略リアルタイムの立体ビデオ画像を同時に見るための、複数のビデオディスプレイを有するものであるシステム。
  62. 請求項41記載のシステムにおいて、前記追跡モジュールは、前記追跡点、前記第1のビデオカメラ、および前記第2のビデオカメラのうち少なくとも1つに動きが生じるに伴い、立体視を維持するものであるシステム。
  63. 立体ビデオ画像を見る方法であって、
    対象の選択された領域へ第1のビデオカメラおよび第2のビデオカメラを方向付けて、前記選択された領域の第1のビデオフィードおよび第2のビデオフィードをそれぞれ生成する工程であって、前記第1のビデオカメラは、選択された距離だけ前記第2のビデオカメラから離間され、前記第1のビデオカメラおよび前記第2のビデオカメラは、それぞれ前記選択された領域における若しくはその付近の収束点へ方向付けられて、前記選択された領域の立体視を提供するものである、前記方向付ける工程と、
    選択された追跡点に前記収束点を関連付ける工程と、
    前記選択された追跡点の動きと相対的に前記収束点の位置を調整する工程と、
    前記第1のビデオカメラにより生成された前記第1のビデオフィードおよび前記第2のビデオカメラにより生成された前記第2のビデオフィードを選択的に修正することにより、診断または治療の視覚化を強化するようなっている少なくとも1つの調整された視覚的特性を有する可視画像を提供する工程と、
    前記第1のビデオフィードおよび前記第2のビデオフィードを光学的に分離して、前記調整された視覚的特性を有する略リアルタイムの立体ビデオ画像を生成する表示システムに、前記選択的に修正された前記第1のビデオフィードおよび前記第2のビデオフィードを表示する工程と
    を有する方法。
  64. 請求項63記載の方法において、さらに、
    前記第1のビデオカメラおよび前記第2のビデオカメラをズームして、望ましい倍率の前記略リアルタイムの立体ビデオ画像を提供する工程を有するものであるシステム。
  65. 請求項63記載の方法において、前記調整された視覚的特性は、特定の色または色群の強調を含むものである方法。
  66. 請求項65記載の方法において、前記特定の色または色群は、口内の癌または病変部、軟組織、または窩洞の診断または治療用に強調されるものである方法。
  67. 請求項63記載の方法において、さらに、
    前記選択された領域に一定波長の光を当てる工程を有し、前記調整された視覚的特性は、前記略リアルタイムの立体ビデオ画像に表示される前記一定波長の光の着色の修正である方法。
  68. 請求項67記載の方法において、前記着色の修正は、前記略リアルタイムの立体ビデオ画像に表示される前記一定波長の光を視覚的に強調または低減する工程を含むものである方法。
  69. 請求項67記載の方法において、前記着色の修正は、前記第1および第2のビデオカメラによりにより見られる紫外線から前記略リアルタイムの立体ビデオ画像に表示される可視光へと前記一定波長の光をシフトさせる工程を含むものである方法。
  70. 請求項63記載の方法において、前記光信号を選択的に修正する工程は、前記着色剤の視覚的特性を修正する工程を含むものである方法。
  71. 立体ビデオ画像を見るためのシステムであって、
    対象の第1のビデオフィードを生成するように構成された第1のビデオカメラと、
    前記対象の第2のビデオフィードを生成するように構成された第2のビデオカメラであって、前記第1のビデオフィードおよび前記第2のビデオフィードは、組み合わされて略リアルタイムの立体ビデオ画像を生成するものである、前記第2のビデオカメラと、
    前記第1のビデオカメラおよび第2のビデオカメラに関連付けられた追跡モジュールであって、選択された追跡点と相対的に望ましい収束点へ前記第1のビデオカメラおよび前記第2のビデオカメラを方向付けて立体視を保つように構成されているものである、前記追跡モジュールと、
    前記第1のビデオフィードおよび前記第2のビデオフィードの水平方向の位置合わせを較正および調整するように構成された較正モジュールと
    を有するシステム。
  72. 請求項41記載のシステムにおいて、さらに、
    前記第1のビデオフィードおよび前記第2のビデオフィードからそれぞれ略リアルタイムの立体ビデオ画像を生成するため、右ビデオディスプレイおよび左ビデオディスプレイを含む頭部装着可能な立体ディスプレイを有するものであるシステム。
  73. 請求項72記載のシステムにおいて、前記水平方向の位置合わせは、利用者の目に対し較正されて、使用中の前記目への負荷を軽減するものであるシステム。
  74. 請求項71記載のシステムにおいて、前記較正モジュールは、前記第1のビデオカメラおよび前記第2のビデオカメラの垂直方向の位置合わせを調整するようさらに構成されるものであるシステム。
  75. 請求項71記載のシステムにおいて、前記水平方向の位置合わせは、前記第1のビデオカメラまたは前記第2のビデオカメラのパンまたは傾斜の動きの間も維持されるものであるシステム。
  76. 請求項71記載のシステムにおいて、前記較正モジュールは、複数の利用者用に対して較正を提供し、当該システムは、第1の利用者に対して第1のモードで較正を行い、第2の利用者に対して第2のモードで較正を行うものであるシステム。
  77. 請求項76記載のシステムにおいて、当該システムは、当該システムを使用しているのが前記第1の利用者か前記第2の利用者かに基づき、前記第1のモードおよび前記第2のモードを自動的に切り替えるものであるシステム。
  78. 請求項71記載のシステムにおいて、さらに、
    前記第1のビデオカメラおよび前記第2のビデオカメラに関連付けられたズームモジュールであって、望ましい倍率の前記略リアルタイムの立体ビデオ画像を提供するように構成される、ズームモジュールを有するものであるシステム。
  79. 請求項71記載のシステムにおいて、前記第1のビデオカメラおよび前記第2のビデオカメラは、互いに瞳孔間距離だけ離間されるものであるシステム。
  80. 請求項71記載のシステムにおいて、歯科環境で使用するようなっており、前記第1のビデオフィードおよび前記第2のビデオフィードは対象の口腔内のものであるシステム。
  81. 請求項71記載のシステムにおいて、さらに、
    前記略リアルタイムの立体ビデオ画像を表示するように構成されたビデオディスプレイを有するものであるシステム。
  82. 請求項81記載のシステムにおいて、前記第1のビデオフィードおよび前記第2のビデオフィードは、前記ディスプレイに無線通信されるものであるシステム。
  83. 請求項81記載のシステムにおいて、前記ビデオディスプレイは、立体視を生成するよう利用者の右目および左目でそれぞれ見るための右目用ディスプレイおよび左目用ディスプレイを有するものであるシステム。
  84. 請求項81記載のシステムにおいて、ビデオディスプレイは単一のビデオ画面を有し、前記第1のビデオフィードおよび前記第2のビデオフィードは、シャッター分離、偏光分離、および色分離のうち少なくとも1つを使って光学的に分離されるものであるシステム。
  85. 請求項81記載のシステムにおいて、前記ビデオディスプレイは、複数の利用者が前記略リアルタイムの立体ビデオ画像を見るための、複数のビデオディスプレイを有するものであるシステム。
  86. 請求項71記載のシステムにおいて、前記追跡モジュールは、前記追跡点、前記第1のビデオカメラ、および前記第2のビデオカメラのうち少なくとも1つに動きが生じるに伴い、立体視を維持するものであるシステム。
  87. 立体ビデオ画像を見る方法であって、
    対象の選択された領域へ第1のビデオカメラおよび第2のビデオカメラを方向付けて、前記選択された領域の第1のビデオフィードおよび第2のビデオフィードをそれぞれ生成する工程であって、前記第1のビデオカメラは、選択された距離だけ前記第2のビデオカメラから離間され、前記第1のビデオカメラおよび前記第2のビデオカメラは、それぞれ前記選択された領域における若しくはその付近の収束点へ方向付けられて、前記選択された領域の立体視を提供するものである、前記方向付ける工程と、
    前記第1のビデオフィードおよび前記第2のビデオフィードを水平方向に較正する工程と、
    前記収束点を選択された追跡点に関連付ける工程と、
    前記選択された追跡点の動きと相対的に前記収束点の位置を調整する工程と、
    前記第1のビデオフィードおよび前記第2のビデオフィードを光学的に分離して略リアルタイムの立体ビデオ画像を生成する表示システムに、前記第1のビデオフィードおよび前記第2のビデオフィードを表示する工程と
    を有する方法。
  88. 請求項87記載の方法において、さらに、
    前記第1のビデオフィードおよび前記第2のビデオフィードを垂直方向に較正する工程を有するものである方法。
  89. 請求項87記載の方法において、前記水平方向の位置合わせは、前記第1のビデオカメラまたは前記第2のビデオカメラのパンまたは傾斜の動きの間も維持されるものである方法。
  90. 請求項87記載の方法において、さらに、
    第2の利用者に対して、前記第1のビデオフィードおよび前記第2のビデオフィードを水平方向に較正する工程を有するものである方法。
  91. 立体ビデオ画像を見るためのシステムであって、
    対象の第1のビデオフィードを生成するように構成された第1のビデオカメラと、
    前記対象の第2のビデオフィードを生成するように構成された第2のビデオカメラであって、前記第1のビデオカメラおよび前記第2のビデオカメラは、略リアルタイムの立体ビデオ画像を生成するように構成されるものである、前記第2のビデオカメラと、
    前記第1のビデオカメラおよび第2のビデオカメラに関連付けられた追跡モジュールであって、選択された追跡点と相対的に望ましい収束点へ前記第1のビデオカメラおよび前記第2のビデオカメラを方向付けて立体視を保つように構成されているものである、前記追跡モジュールと、
    前記立体ビデオ画像を3Dモデルまたは構造体に変換するように構成された3Dモデリングモジュールと
    を有するシステム。
  92. 請求項91記載のシステムにおいて、さらに、
    前記第1のビデオカメラおよび前記第2のビデオカメラに関連付けられたズームモジュールであって、望ましい倍率の前記略リアルタイムの立体ビデオ画像を提供するように構成される、ズームモジュールを有するものであるシステム。
  93. 立体ビデオ画像を見る方法であって、
    対象の選択された領域へ第1のビデオカメラおよび第2のビデオカメラを方向付けて、前記選択された領域の第1のビデオフィードおよび第2のビデオフィードをそれぞれ生成する工程であって、前記第1のビデオカメラは、選択された距離だけ前記第2のビデオカメラから離間され、前記第1のビデオカメラおよび前記第2のビデオカメラは、それぞれ前記選択された領域における若しくはその付近の収束点へ方向付けられて、前記選択された領域の立体視を提供するものである、前記方向付ける工程と、
    選択された追跡点に前記収束点を関連付ける工程と、
    前記選択された追跡点の動きと相対的に前記収束点の位置を調整する工程と、
    前記第1のビデオフィードおよび前記第2のビデオフィードを光学的に分離して略リアルタイムの立体ビデオ画像を生成する表示システムに、前記第1のビデオフィードおよび前記第2のビデオフィードを表示する工程と、
    前記略リアルタイムの立体ビデオ画像の少なくとも1つのフレームから3Dモデルを生成する工程と
    を有する方法。
JP2015514984A 2012-06-01 2013-03-05 立体ビデオ撮像 Active JP6351579B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261654697P 2012-06-01 2012-06-01
US61/654,697 2012-06-01
PCT/US2013/029042 WO2013180773A1 (en) 2012-06-01 2013-03-05 Stereoscopic video imaging

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018107316A Division JP6687674B2 (ja) 2012-06-01 2018-06-05 立体ビデオ撮像

Publications (3)

Publication Number Publication Date
JP2015526930A true JP2015526930A (ja) 2015-09-10
JP2015526930A5 JP2015526930A5 (ja) 2016-04-28
JP6351579B2 JP6351579B2 (ja) 2018-07-04

Family

ID=49673792

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2015514984A Active JP6351579B2 (ja) 2012-06-01 2013-03-05 立体ビデオ撮像
JP2018107316A Active JP6687674B2 (ja) 2012-06-01 2018-06-05 立体ビデオ撮像
JP2020066334A Pending JP2020127214A (ja) 2012-06-01 2020-04-02 立体ビデオ撮像

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2018107316A Active JP6687674B2 (ja) 2012-06-01 2018-06-05 立体ビデオ撮像
JP2020066334A Pending JP2020127214A (ja) 2012-06-01 2020-04-02 立体ビデオ撮像

Country Status (6)

Country Link
US (2) US10021351B2 (ja)
EP (1) EP2856759A4 (ja)
JP (3) JP6351579B2 (ja)
AU (1) AU2013202775B2 (ja)
BR (1) BR112014029605B1 (ja)
WO (1) WO2013180773A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017189498A (ja) * 2016-04-15 2017-10-19 ミラマ サービス インク 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
WO2018168842A1 (ja) * 2017-03-15 2018-09-20 株式会社モリタ 歯科診療実習装置及び歯科診療実習システム

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9943372B2 (en) 2005-04-18 2018-04-17 M.S.T. Medical Surgery Technologies Ltd. Device having a wearable interface for improving laparoscopic surgery and methods for use thereof
BR112013013565B1 (pt) * 2010-12-02 2021-11-23 Ultradent Products Inc Sistema e método de visualização e rastreamento de imagens de vídeo estereoscópicas
US9204939B2 (en) 2011-08-21 2015-12-08 M.S.T. Medical Surgery Technologies Ltd. Device and method for assisting laparoscopic surgery—rule based approach
US10866783B2 (en) 2011-08-21 2020-12-15 Transenterix Europe S.A.R.L. Vocally activated surgical control system
US9757206B2 (en) 2011-08-21 2017-09-12 M.S.T. Medical Surgery Technologies Ltd Device and method for assisting laparoscopic surgery—rule based approach
US9795282B2 (en) 2011-09-20 2017-10-24 M.S.T. Medical Surgery Technologies Ltd Device and method for maneuvering endoscope
US20130295518A1 (en) * 2012-03-29 2013-11-07 William S. Parker Apparatus and Method for Achieving a Head Up Posture for a 3-D Video Image for Operative Procedures in Dentistry
JP6351579B2 (ja) 2012-06-01 2018-07-04 ウルトラデント プロダクツ インク. 立体ビデオ撮像
ITBO20130693A1 (it) * 2013-12-19 2015-06-20 Cefla Coop Uso del riconoscimento dei gesti in odontoiatria
GB201404134D0 (en) * 2014-03-10 2014-04-23 Bae Systems Plc Interactive information display
US10932657B2 (en) 2014-04-02 2021-03-02 Transenterix Europe S.A.R.L. Endoscope with wide angle lens and adjustable view
WO2015151094A1 (en) * 2014-04-02 2015-10-08 M.S.T. Medical Surgery Technologies Ltd. Endoscope with wide angle lens and adjustable view
WO2015171614A1 (en) 2014-05-05 2015-11-12 Vicarious Surgical Inc. Virtual reality surgical device
WO2016127140A1 (en) 2015-02-05 2016-08-11 Duke University Compact telescope configurations for light scanning systems and methods of using the same
WO2016127088A1 (en) * 2015-02-06 2016-08-11 Duke University Stereoscopic display systems and methods for displaying surgical data and information in a surgical microscope
US10108269B2 (en) 2015-03-06 2018-10-23 Align Technology, Inc. Intraoral scanner with touch sensitive input
CN104825117B (zh) * 2015-04-30 2017-10-10 张文涛 一种无线内窥镜
EP3310043A4 (en) * 2015-06-10 2019-01-16 Sony Interactive Entertainment Inc. HEAD-MOUNTED DISPLAY, DISPLAY CONTROL METHOD AND PROGRAM
EP3130276B8 (en) 2015-08-12 2020-02-26 TransEnterix Europe Sàrl Endoscope with wide angle lens and adjustable view
WO2017075687A1 (en) 2015-11-03 2017-05-11 Synaptive Medical (Barbados) Inc. Dual zoom and dual field-of-view microscope
US11026753B2 (en) * 2016-02-25 2021-06-08 Synaptive Medical Inc. System and method for automatic muscle movement detection
US10694939B2 (en) 2016-04-29 2020-06-30 Duke University Whole eye optical coherence tomography(OCT) imaging systems and related methods
US10363114B2 (en) * 2016-11-01 2019-07-30 American Sterilizer Company Aiming and status indicator system for surgical lightheads and cameras
CN110290749A (zh) * 2016-12-22 2019-09-27 特罗菲公司 一种具有改进的患者定位的牙齿成像设备
US10799308B2 (en) 2017-02-09 2020-10-13 Vicarious Surgical Inc. Virtual reality surgical tools system
FI20175247A (fi) * 2017-03-17 2018-09-18 Planmeca Oy Hammashoitokoneen operaatiovalaisin
CN110944567B (zh) * 2017-08-03 2022-10-11 索尼奥林巴斯医疗解决方案公司 医疗观察装置
EP3681368A4 (en) 2017-09-14 2021-06-23 Vicarious Surgical Inc. SURGICAL CAMERA SYSTEM WITH VIRTUAL REALITY
WO2019094896A1 (en) 2017-11-13 2019-05-16 Vicarious Surgical Inc. Virtual reality wrist assembly
WO2020033208A1 (en) * 2018-08-07 2020-02-13 Intuitive Surgical Operations, Inc. Multi-modal visualization in computer-assisted tele-operated surgery
CN108900817A (zh) * 2018-08-23 2018-11-27 重庆加河科技有限公司 一种基于vr的教育实时监测系统
JP6936826B2 (ja) * 2019-03-18 2021-09-22 株式会社モリタ製作所 画像処理装置、表示システム、画像処理方法、および画像処理プログラム
US20210169581A1 (en) * 2019-12-10 2021-06-10 Globus Medical, Inc. Extended reality instrument interaction zone for navigated robotic surgery
US11683450B2 (en) * 2020-06-04 2023-06-20 FLIR Unmanned Aerial Systems AS Shutter and light signal synchronization systems and methods
CN112584126B (zh) * 2020-12-07 2023-04-07 西诺医疗器械集团有限公司 一种双目裸眼3d视频系统
CN112584123B (zh) * 2020-12-07 2023-04-07 西诺医疗器械集团有限公司 一种双目裸眼3d视频灯
US11445165B1 (en) * 2021-02-19 2022-09-13 Dentsply Sirona Inc. Method, system and computer readable storage media for visualizing a magnified dental treatment site

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0723429A (ja) * 1993-07-05 1995-01-24 Canon Inc 複眼撮像装置
JPH10210506A (ja) * 1997-01-22 1998-08-07 Sony Corp 3次元画像情報入力装置および3次元画像情報入出力装置
JP2000338416A (ja) * 1999-05-31 2000-12-08 Asahi Optical Co Ltd 立体視顕微鏡
JP2002232913A (ja) * 2001-01-31 2002-08-16 Canon Inc 複眼カメラ及び立体視画像観察システム
JP2004057614A (ja) * 2002-07-30 2004-02-26 Olympus Corp 手術用観察装置
JP2005051472A (ja) * 2003-07-28 2005-02-24 Nikon Corp 自動撮影制御装置、自動撮影用プログラム、カメラ
WO2005093687A1 (ja) * 2004-03-26 2005-10-06 Atsushi Takahashi 三次元視覚指示機能を備えた三次元実体デジタル拡大鏡システム
JP2006142001A (ja) * 2004-10-20 2006-06-08 Fuji Photo Film Co Ltd 電子内視鏡装置
JP2011104186A (ja) * 2009-11-19 2011-06-02 Yoshida Dental Mfg Co Ltd 治療用口腔観察装置および歯科治療装置
JP2012015661A (ja) * 2010-06-29 2012-01-19 Fujifilm Corp 撮像装置及び撮像方法

Family Cites Families (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5123726A (en) 1989-10-14 1992-06-23 Concept Vision Systems, Inc. Stereoscopic viewing system and method
JPH0723429Y2 (ja) 1989-01-23 1995-05-31 鐘淵化学工業株式会社 保冷容器
US5124797A (en) 1990-07-20 1992-06-23 New Image Industries, Inc. Modular view lens attachment for micro video imaging camera
US5151722A (en) 1990-11-05 1992-09-29 The Johns Hopkins University Video display on spectacle-like frame
US6405072B1 (en) 1991-01-28 2002-06-11 Sherwood Services Ag Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus
US6675040B1 (en) 1991-01-28 2004-01-06 Sherwood Services Ag Optical object tracking system
US5662111A (en) 1991-01-28 1997-09-02 Cosman; Eric R. Process of stereotactic optical navigation
US6006126A (en) 1991-01-28 1999-12-21 Cosman; Eric R. System and method for stereotactic registration of image scan data
FR2699296B1 (fr) 1992-12-14 1994-12-30 Olivier Boute Dispositif de prise de vues triscopiques.
US5539422A (en) 1993-04-12 1996-07-23 Virtual Vision, Inc. Head mounted display system
US5961456A (en) 1993-05-12 1999-10-05 Gildenberg; Philip L. System and method for displaying concurrent video and reconstructed surgical views
JPH0767022A (ja) * 1993-08-26 1995-03-10 Canon Inc 複眼撮像装置
US5864360A (en) 1993-08-26 1999-01-26 Canon Kabushiki Kaisha Multi-eye image pick-up apparatus with immediate image pick-up
US5543816A (en) 1993-10-07 1996-08-06 Virtual Vision Head mounted display system with aspheric optics
EP0679919B1 (en) 1994-04-21 2000-07-12 Sega Enterprises, Ltd. Head mounted display
JPH0821975A (ja) 1994-07-06 1996-01-23 Olympus Optical Co Ltd 頭部装着型映像表示システム
US5991085A (en) 1995-04-21 1999-11-23 I-O Display Systems Llc Head-mounted personal visual display apparatus with image generator and holder
US5825540A (en) 1996-04-22 1998-10-20 Raytheon Company Autostereoscopic display and method
IL120135A0 (en) 1997-02-03 1997-06-10 Dentop Systems Ltd A video system for three dimensional imaging and photogrammetry
US5898520A (en) 1997-02-11 1999-04-27 Raytheon Company Three-dimensional imaging system having a polarizing filter
DE19836681B4 (de) * 1997-09-19 2008-03-27 Carl Zeiss Ag Stereoskopisches Aufnahme- und Wiedergabesystem
US6219186B1 (en) 1998-04-06 2001-04-17 Optimize Incorporated Compact biocular viewing system for an electronic display
JP2000163558A (ja) 1998-11-27 2000-06-16 Mitsubishi Electric Corp 位置合わせ装置
DE10027166B4 (de) 1999-05-31 2007-03-08 Pentax Corp. Stereoskopmikroskop
US6480174B1 (en) * 1999-10-09 2002-11-12 Optimize Incorporated Eyeglass-mount display having personalized fit module
WO2001056007A1 (en) 2000-01-28 2001-08-02 Intersense, Inc. Self-referenced tracking
US6891518B2 (en) * 2000-10-05 2005-05-10 Siemens Corporate Research, Inc. Augmented reality visualization device
JP2002142233A (ja) 2000-11-01 2002-05-17 Hitoshi Ishida 立体画像を提供するための画像提供装置および画像提供方法、受信装置および受信方法、並びに立体画像を提供するための立体画像提供システムおよび立体画像提供方法。
US6774869B2 (en) 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
US6900777B1 (en) 2001-01-03 2005-05-31 Stryker Corporation Infrared audio/video interface for head-mounted display
US6583808B2 (en) 2001-10-04 2003-06-24 National Research Council Of Canada Method and system for stereo videoconferencing
US20040238732A1 (en) * 2001-10-19 2004-12-02 Andrei State Methods and systems for dynamic virtual convergence and head mountable display
AU2003222014A1 (en) 2002-03-18 2003-10-08 Sarcos Investment Lc Miniaturized imaging device
US6856314B2 (en) * 2002-04-18 2005-02-15 Stmicroelectronics, Inc. Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling
US20030207227A1 (en) 2002-05-02 2003-11-06 Align Technology, Inc. Systems and methods for treating patients
AU2004237202A1 (en) 2003-04-30 2004-11-18 D4D Technologies, Llc Intra-oral imaging system
US20040224279A1 (en) 2003-05-06 2004-11-11 Ormco Corporation Dental display system
WO2005070319A1 (en) 2004-01-22 2005-08-04 Smith & Nephew, Inc. Methods, systems, and apparatuses for providing patient-mounted surgical navigational sensors
JP4373286B2 (ja) 2004-05-06 2009-11-25 オリンパス株式会社 頭部装着型表示装置
US7436568B1 (en) 2004-08-17 2008-10-14 Kuykendall Jr Jacob L Head mountable video display
US20060082647A1 (en) 2004-10-20 2006-04-20 Fuji Photo Film Co., Ltd. Electronic endoscope apparatus
US8358330B2 (en) * 2005-10-21 2013-01-22 True Vision Systems, Inc. Stereoscopic electronic microscope workstation
WO2007066249A2 (en) * 2005-12-09 2007-06-14 Koninklijke Philips Electronics, N.V. Model-based flow analysis and visualization
US20070236514A1 (en) * 2006-03-29 2007-10-11 Bracco Imaging Spa Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation
JP5055500B2 (ja) 2006-04-04 2012-10-24 並木精密宝石株式会社 治療用アンテナプローブとその使用方法及び電磁治療システム
JP5228305B2 (ja) 2006-09-08 2013-07-03 ソニー株式会社 表示装置、表示方法
TW200838292A (en) * 2007-03-14 2008-09-16 Ming-Yan Lin Visual space point recognition method
US20080239080A1 (en) 2007-03-26 2008-10-02 Moscato Jonathan D Head-mounted rear vision system
US20100283843A1 (en) 2007-07-17 2010-11-11 Yang Cai Multiple resolution video network with eye tracking based control
KR100926127B1 (ko) 2007-10-25 2009-11-11 포항공과대학교 산학협력단 복수 카메라를 이용한 실시간 입체 영상 정합 시스템 및 그방법
JP5483518B2 (ja) 2007-12-27 2014-05-07 株式会社モリタ製作所 診療表示装置、診療装置及び診療用表示装置
US8615383B2 (en) 2008-01-18 2013-12-24 Lockheed Martin Corporation Immersive collaborative environment using motion capture, head mounted display, and cave
US8217995B2 (en) 2008-01-18 2012-07-10 Lockheed Martin Corporation Providing a collaborative immersive environment using a spherical camera and motion capture
WO2009094646A2 (en) 2008-01-24 2009-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image guided ablation
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
WO2009116663A1 (ja) 2008-03-21 2009-09-24 Takahashi Atsushi 三次元デジタル拡大鏡手術支援システム
US8477175B2 (en) 2009-03-09 2013-07-02 Cisco Technology, Inc. System and method for providing three dimensional imaging in a network environment
US8939894B2 (en) 2009-03-31 2015-01-27 Intuitive Surgical Operations, Inc. Three-dimensional target devices, assemblies and methods for calibrating an endoscopic camera
US8287127B2 (en) 2009-04-03 2012-10-16 Seiko Epson Corporation Aerial three-dimensional image display systems
JP5333067B2 (ja) 2009-08-31 2013-11-06 ソニー株式会社 画像表示装置及び頭部装着型ディスプレイ
EP2555530A1 (en) 2010-03-29 2013-02-06 Panasonic Corporation Video processing device
US9479759B2 (en) 2010-03-29 2016-10-25 Forstgarten International Holding Gmbh Optical stereo device and autofocus method therefor
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US8564641B1 (en) * 2010-06-11 2013-10-22 Lucasfilm Entertainment Company Ltd. Adjusting stereo images
JP5688543B2 (ja) 2010-07-20 2015-03-25 パナソニックIpマネジメント株式会社 立体画像撮像装置および立体画像撮像装置におけるレンズ駆動方法
US8493206B2 (en) 2010-07-30 2013-07-23 Gravity Jack, Inc. Augmented reality and location determination methods and apparatus
US20120069143A1 (en) * 2010-09-20 2012-03-22 Joseph Yao Hua Chu Object tracking and highlighting in stereoscopic images
BR112013013565B1 (pt) 2010-12-02 2021-11-23 Ultradent Products Inc Sistema e método de visualização e rastreamento de imagens de vídeo estereoscópicas
KR101066068B1 (ko) * 2011-03-22 2011-09-20 (주)유디피 듀얼 카메라를 이용한 영상 감시 장치 및 방법
AU2011205223C1 (en) 2011-08-09 2013-03-28 Microsoft Technology Licensing, Llc Physical interaction with virtual objects for DRM
US9077846B2 (en) 2012-02-06 2015-07-07 Microsoft Technology Licensing, Llc Integrated interactive space
JP6351579B2 (ja) 2012-06-01 2018-07-04 ウルトラデント プロダクツ インク. 立体ビデオ撮像
US9110503B2 (en) 2012-11-30 2015-08-18 WorldViz LLC Precision position tracking device
WO2015008470A2 (en) 2013-07-16 2015-01-22 Seiko Epson Corporation Information processing apparatus, information processing method, and information processing system
JP6252004B2 (ja) 2013-07-16 2017-12-27 セイコーエプソン株式会社 情報処理装置、情報処理方法、および、情報処理システム
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0723429A (ja) * 1993-07-05 1995-01-24 Canon Inc 複眼撮像装置
JPH10210506A (ja) * 1997-01-22 1998-08-07 Sony Corp 3次元画像情報入力装置および3次元画像情報入出力装置
JP2000338416A (ja) * 1999-05-31 2000-12-08 Asahi Optical Co Ltd 立体視顕微鏡
JP2002232913A (ja) * 2001-01-31 2002-08-16 Canon Inc 複眼カメラ及び立体視画像観察システム
JP2004057614A (ja) * 2002-07-30 2004-02-26 Olympus Corp 手術用観察装置
JP2005051472A (ja) * 2003-07-28 2005-02-24 Nikon Corp 自動撮影制御装置、自動撮影用プログラム、カメラ
WO2005093687A1 (ja) * 2004-03-26 2005-10-06 Atsushi Takahashi 三次元視覚指示機能を備えた三次元実体デジタル拡大鏡システム
JP2006142001A (ja) * 2004-10-20 2006-06-08 Fuji Photo Film Co Ltd 電子内視鏡装置
JP2011104186A (ja) * 2009-11-19 2011-06-02 Yoshida Dental Mfg Co Ltd 治療用口腔観察装置および歯科治療装置
JP2012015661A (ja) * 2010-06-29 2012-01-19 Fujifilm Corp 撮像装置及び撮像方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017189498A (ja) * 2016-04-15 2017-10-19 ミラマ サービス インク 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
WO2018168842A1 (ja) * 2017-03-15 2018-09-20 株式会社モリタ 歯科診療実習装置及び歯科診療実習システム
JP2018155815A (ja) * 2017-03-15 2018-10-04 株式会社モリタ 歯科診療実習装置及び歯科診療実習システム

Also Published As

Publication number Publication date
BR112014029605B1 (pt) 2023-10-31
US11856178B2 (en) 2023-12-26
US20150156461A1 (en) 2015-06-04
JP2020127214A (ja) 2020-08-20
BR112014029605A2 (pt) 2017-06-27
US20180332255A1 (en) 2018-11-15
EP2856759A1 (en) 2015-04-08
AU2013202775B2 (en) 2015-09-17
JP2018174536A (ja) 2018-11-08
EP2856759A4 (en) 2015-12-09
WO2013180773A1 (en) 2013-12-05
AU2013202775A1 (en) 2013-12-19
JP6351579B2 (ja) 2018-07-04
US10021351B2 (en) 2018-07-10
JP6687674B2 (ja) 2020-04-28

Similar Documents

Publication Publication Date Title
JP6687674B2 (ja) 立体ビデオ撮像
US10716460B2 (en) Stereoscopic video imaging and tracking system
US11336804B2 (en) Stereoscopic visualization camera and integrated robotics platform
US10424115B2 (en) Head-worn platform for integrating virtuality with reality
CN104918572B (zh) 用于外科手术的视频捕获和显示的数字系统
WO2018200309A2 (en) Stereoscopic visualization camera and platform
EP3709066B1 (en) Observation device, observation unit, and observation method
US20210335483A1 (en) Surgery visualization theatre
US10747004B2 (en) Ergonomic protective eyewear
WO2021226134A1 (en) Surgery visualization theatre
JP2021000438A (ja) 撮像システムおよび観察方法
US10448004B1 (en) Ergonomic protective eyewear
US20240127931A1 (en) Surgery visualization theatre
EP4146115A1 (en) Surgery visualization theatre

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160305

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180605

R150 Certificate of patent or registration of utility model

Ref document number: 6351579

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250