JP7036828B2 - 拡張現実眼科手術用顕微鏡の投射のためのシステムと方法 - Google Patents

拡張現実眼科手術用顕微鏡の投射のためのシステムと方法 Download PDF

Info

Publication number
JP7036828B2
JP7036828B2 JP2019537244A JP2019537244A JP7036828B2 JP 7036828 B2 JP7036828 B2 JP 7036828B2 JP 2019537244 A JP2019537244 A JP 2019537244A JP 2019537244 A JP2019537244 A JP 2019537244A JP 7036828 B2 JP7036828 B2 JP 7036828B2
Authority
JP
Japan
Prior art keywords
operator
augmented reality
digital image
lens
control means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019537244A
Other languages
English (en)
Other versions
JP2020506745A (ja
Inventor
オフチンニコフ ミケール
クーンツ ジョン
ドス サントス セサリオ
スティーブン ホッパー アンドリュー
Original Assignee
アルコン インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルコン インコーポレイティド filed Critical アルコン インコーポレイティド
Publication of JP2020506745A publication Critical patent/JP2020506745A/ja
Application granted granted Critical
Publication of JP7036828B2 publication Critical patent/JP7036828B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/13Ophthalmic microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/08Biomedical applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Graphics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biophysics (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)

Description

本開示は眼科手術及び手術器具に関し、より詳しくは、拡張現実眼科手術用顕微鏡の投射のためのシステム及び方法に関する。
眼科において、眼科手術は眼及び付属的視覚構造に対して行われ、毎年何万人もの人々の視力を保存し、改善している。しかしながら、視覚が眼内の小さい変化によってさえ影響を受けやすく、多くの眼構造が微細で繊細な性質であることを考えると、眼科手術は施行が難しく、軽微又は稀な手術のエラーを減少させたり、又は外科的技術の精度を少し高めたりしただけでも、術後の患者の視力には非常に大きな差が生じる可能性がある。
眼科手術は、眼及び付属的視覚構造に対して行われる。眼科手術中、患者は支持台の上に仰向けで、手術用顕微鏡の下に位置付けられる。開瞼器が挿入されて眼球が露出した状態に保たれる。外科医は、手術用顕微鏡を使って患者の眼を見ることが多く、手術器具が導入されて、様々な種類の処置が行われてもよい。手術用顕微鏡は、処置中に眼の一部を画像化し、任意選択により照明する。手術用顕微鏡は、多くの形態で、例えば天井取付型手術用顕微鏡又は移動式のカート取付型手術用顕微鏡として構成されてもよい。
顕微鏡画像は、眼科手術中に小さい眼構造を見るために使用される。これらは拡大されるものの、これらの画像がそれ以外に通常の視力で見えるものにどれだけよくマッチするかが、外科医がどれだけうまく施術できるかに影響を与える。単眼顕微鏡画像は、見ている物体に関する情報を大きさ、フォーカス、陰影、及びオクルージョンを通じて提供する。現在、立体(3D)表示により両眼視差、すなわち片眼での画像の見え方と反対の眼での見え方との差異が加わり、それによってこれらはより写実的となり、より多くの視覚情報が外科医に提供される。しかしながら、眼科手術で使用される顕微鏡画像に含まれる情報にはまだ改善の余地が残っている。
本開示は眼科手術のためのシステムを提供する。システムは、眼科顕微鏡のイメージングシステムに通信可能に連結された拡張現実装置を含む。拡張現実装置は、デジタル画像を投射するように構成されたレンズと、レンズに連結された外面であって、少なくとも部分的に透明な外面と、拡張現実装置のオペレータの眼の焦点を検出し、焦点に基づく信号を送信するように構成された視線制御手段と、視線制御手段と外面に通信可能に連結された調光システムと、を含む。調光システムは、眼科顕微鏡のイメージングシステムからデジタル画像を受信し、デジタル画像をレンズに投射し、視線制御手段からオペレータの眼の焦点に関する信号を受信し、受信した信号に基づいて、拡張現実装置の外面を少なくとも部分的に透明と不透明との間で変化させるように動作可能なプロセッサをさらに含んでいてもよい。
システムは、以下のようなその他の特徴の1つ又は複数をさらに有していてもよく、これらは明確に相互に排他的でない限り組み合わせてもよい:i)拡張現実装置は拡張現実グラスを含んでいてもよく、ii)デジタル画像は、オペレータの各眼のためにレンズ上に投射される別々の画像を含んでいてもよく、iii)システムはデジタル画像と関与するように構成された器具を含んでいてもよく、iii-a)器具はオペレータが操作する物理的器具を含んでいてもよく、iii-b)器具はオペレータが操作するデジタル器具を含んでいてもよく、iv)システムはデジタル画像と関与するように構成された制御装置を含んでいてもよい。
本開示はさらに、眼科手術を行う方法を提供する。方法は、眼科顕微鏡のイメージングシステムからデジタル画像を受信するステップと、デジタル画像を拡張現実装置のレンズへと投射するステップと、オペレータの眼の焦点に関する信号を受信するステップと、受信した信号に基づいて、拡張現実装置の外面を少なくとも部分的に透明と不透明との間で変化させるステップと、を含んでいてもよい。
方法は、以下のようなその他の特徴の1つ又は複数をさらに有していてもよく、これらは明確に相互に排他的でない限り組み合わせてもよい:i)拡張現実装置は拡張現実グラスを含んでいてもよく、ii)デジタル画像は、オペレータの各眼のためにレンズ上に投射される別々の画像を含んでいてもよく、iii)方法は、器具をデジタル画像と関与させるステップをさらに含んでいてもよく、iii-a)器具はオペレータが操作する物理的器具を含んでいてもよく、iii-b)器具はオペレータが操作するデジタル器具を含んでいてもよく、iv)方法はデジタル画像と関与するように構成された制御装置を含んでいてもよい。
本開示はそこに命令が記憶された非一時的コンピュータ読取可能媒体をさらに含み、命令は、プロセッサにより読取可能であり、読み取られ、実行されると、眼科顕微鏡のイメージングシステムからデジタル画像を受信し、デジタル画像を拡張現実装置のレンズに投射し、オペレータの眼の焦点に関する信号を受信し、受信した信号に基づいて、拡張現実装置の外面を少なくも部分的に透明と不透明との間で変化させるように構成される。
非一時的コンピュータ読取可能媒体は、以下のようなその他の特徴の1つ又は複数をさらに有していてもよく、これらは明確に相互に排他的でない限り組み合わせてもよい:i)拡張現実装置は拡張現実グラスを含んでいてもよく、ii)デジタル画像は、オペレータの各眼のためにレンズ上に投射される別々の画像を含んでいてもよく、iii)プロセッサは、器具をデジタル画像と関与するように構成されていてもよく、iii-a)器具はオペレータが操作する物理的器具を含んでいてもよく、iii-b)器具はオペレータが操作するデジタル器具を含んでいてもよい。
上記の何れのシステムも、上記の何れの非一時的コンピュータ読取可能媒体も含んでいてよく、上記の何れの方法も実行してよい。上記の何れの非一時的コンピュータ読取可能媒体も、上記の何れの方法も実行してよい。
本発明ならびにその特徴及び利点をさらによく理解するために、ここで、以下の説明を添付の図面と共に参照するが、図は正確な縮尺によらず、図中、同様の番号は同様の特徴を示す。
眼科手術を行うための眼科手術用顕微鏡システムの概略図である。 外面が透明である場合の拡張現実装置を用いた部分ビューを示す。 外面が不透明である場合の拡張現実装置を用いた部分ビューを示す。 デジタル画像が器具と関与している場合の拡張現実装置を用いた部分ビューを示す。 本明細書に記載されている拡張現実眼科手術用顕微鏡の投射の方法を示す。
以下の説明の中で、開示されている主題を論じやすくするために、例として詳細事項が示されている。しかしながら、当業者にとっては開示されている実施形態は例示にすぎず、考えうる実施形態のすべてを網羅しているわけではないことが明らかであるはずである。
本開示は、眼科手術中に拡張現実を使用するためのシステムと方法を提供する。幾つかの場合に、システムは拡張現実装置、例えばヘッドセット及び/又はグラスを使用して、眼科顕微鏡からの画像を表示する。例えば、拡張現実グラスは、1つ又は複数の透明又は半透明のレンズと、個々の画像を、これらをレンズで反射させることによって各眼へと投射する光学系と、を含んでいてもよい。画像は、レンズを通じてオペレータの通常の視野に追加されるデジタル画像、立体(3D)画像、例えばホログラムとして解釈される。幾つかの場合に、デジタル又は3D画像は半透明である。それゆえ、投射された画像はオペレータにとって、グラスを通して通常見える物理的空間に追加されて見える。投射された画像の半透明性により、オペレータは画像の背後の物理的空間が目障りとなって、投射された画像をはっきりと見ることが難しいかもしれない。本開示のシステムは、透明から不透明へと変化してもよいレンズ外面を含んでいてもよい。例えば、外面は、透明と不透明との間で変化するように電子的に制御される調光フィルムを含んでいてもよい。外面は、調光システムから信号を受信したことに基づいて、透明と不透明との間の変化を開始してもよい。調光システムは、視線制御手段を含んでいてもよい。視線制御手段は、オペレータの視線を検出し、オペレータの焦点が投射画像に合っているか、又は物理的空間に合っているかを特定してもよい。視線制御手段はまた、オペレータの焦点が物理的空間から投射画像に、又はその逆に移ったことを検出してもよい。視線制御手段がオペレータの焦点が物理的空間から投射画像に移ったことを検出すると、視線制御手段は外面を透明から不透明へと変化させる信号を送信してもよい。それに加えて、視線制御手段が使用の焦点が投射画像から物理的空間へと移ったことを検出すると、視線制御手段は、外面を不透明から透明に変化させる信号を送信してもよい。
幾つかの場合において、システムと方法は、眼科手術中に手術室の機器をタッチレス操作するために使用されてもよい。例えば、拡張現実装置により投射されるデジタル又は3D画像は、手術機器のための仮想制御手段を含んでいてもよい。拡張現実装置は、オペレータの手を、手が手術機器を操作している間に追跡するために提供されてもよい。さらに、物理的装置は、オペレータにより使用されてもよい。例えば、物理的装置には制御ノブ、ハンドル、キーボード、及び/又は具体的な実装にとって適当な他の何れかの好適な物理的装置が含まれていてもよく、これらに限定されない。幾つかの場合において、物理的装置は、例えばプラスチック又は紙製等、使い捨てであってもよい。仮想制御手段及び/又は物理的装置の使用により、オペレータは滅菌性を損なわずに手術機器を精密に制御できるかもしれない。
図1は、眼科手術を実行するための眼科手術用顕微鏡システム100の概略図である。顕微鏡システム100は、例えば有線又は無線でイメージングシステム104に通信可能に連結された眼科顕微鏡102を含む。イメージングシステム104は、例えば有線又は無線で拡張現実装置106に通信可能に連結されてもよい。
眼科顕微鏡102は少なくとも1つの顕微鏡レンズ120を含み、それを通じて光ビームが眼又は付属的構造で反射してからカメラ122に入る。カメラ122は、ライトフィールドカメラ、ビデオカメラ、又は捕捉された画像のデジタル情報をイメージングシステム104に提供する他の何れのカメラであってもよい。イメージングシステム104は、カメラ122から受信したデジタル情報を使って、視覚的表示装置、例えばマルチビューディスプレイ、3Dグラス又はゴーグル、スクリーン、及び/又は他の何れかの適当なディスプレイ上に画像を表示する。幾つかの実施形態において、3Dグラスは拡張現実装置106に含められてもよく、さらに拡張現実グラス124に含められてもよい。
顕微鏡レンズ120は、眼科手術において使用される何れの種類の拡大レンズを含んでいてもよく、これは例えば広角レンズを含む直接接触レンズ及び間接レンズである。図1には1つの顕微鏡レンズ120が示されているが、複数のレンズを使って、視覚画像の拡大又はその他の面を変化させることができるようにしてもよい。幾つかの実施形態において、拡大レンズ120は眼科顕微鏡102内にあってもよく、又はまったくなくてもよい。特に、カメラ122はイメージングシステム104と共に、眼科顕微鏡102により捕捉されるデータを使って何れの視覚画像の焦点も変更してよいため、イメージングシステム104を使って表示される視覚画像を、顕微鏡レンズ120を使用せずに拡大することが可能であるかもしれない。
カメラ122は、光ビームがどの方向から到達したかに関する情報を捕捉して、その情報をデジタル化できる何れのライトフィールドカメラ又はその他の機器もしくはセンサであってもよい。カメラ122は、光の色や強度等の画像情報だけでなく、光線のベクトルに関する方向情報も捕捉してよい。カメラ122は、1つ又は複数の光センサを含んでいてもよく、これは光をデジタル画像に変換できる何れの電子機器であってもよい。例えば、光センサは、光-デジタルセンサ、半導体電荷結合素子(CCD)、相補型金属酸化膜半導体(CMOS)デバイス、N型金属酸化膜半導体(NMOS)デバイス、又は1つ又は複数の集積回路の一部としてフォトダイオードアレイを含む別の電子機器であってよい。
イメージングシステム104は、カメラ122からのデジタル情報を使って、画像情報及び方向情報を生成してもよい。この方向情報はさらに、デジタル画像及び/又は3D画像を生成するために使用されてもよい。イメージングシステム104は、カメラ122から分離されてそれと通信しても、又はカメラ122の一部であってもよい。イメージングシステム104は処理リソースを含んでいてもよく、これは、カメラ122からのデジタル情報を処理して視覚的ディスプレイ上に画像を表示するために使用可能な情報を生成するための1つ又は複数のアルゴリズムを記憶するメモリと通信してもよい。このようなアルゴリズムは、情報の生成において、例えば光センサの配置等のカメラ122の構成要素の配置及び追加の要素の有無に関する情報を使用してもよい。イメージングシステム104はまた、拡張現実グラス124又は他の何れかの適当な視覚ディスプレイを使ってデジタル画像及び/又は3D画像を表示するために使用可能な情報を生成するのに適した、眼科手術以外に関して開発された何れのアルゴリズムも使用してよい。カメラ122は、イメージングシステム104と共に、また任意選択により1つ又は複数の追加のカメラ、光センサ、もしくは処理リソースと共に、デジタル画像及び/又は3D画像を、拡張現実グラス124を用いた眼科手術中に使用するのに十分な解像度で表示するために使用可能な情報を生成してもよい。
拡張現実装置106は、拡張現実グラス124を含んでいてよい。拡張現実グラス124は、オペレータの頭部に装着して、左眼及び右眼に異なる画像を投射し、オペレータの頭部が動いたときに画像の視点を調整できる何れの装置を含んでいてもよい。拡張現実グラス124は、デジタル画像及び/又は3D画像を1つ又は複数のレンズ108上に表示する能力を含み、位置認識を利用してデジタル現実を提供することができる。デジタル画像は、オペレータの各眼のためにレンズに投射される個々の画像からなっていてもよい。合成されたデジタル画像は、3D画像又はホログラムとして解釈されもてもよい。デジタル画像及び/又は3D画像は実質的に透明であってもよい。それに加えて、拡張現実装置106の一部は、人に、例えばベルトを介して、拡張現実グラス124を介して、グラスのクリップを介して物理的に取り付けられることによって、又は、例えばスマートフォンもしくはラップトップ等のコンピューティングデバイスを通して見る等、オペレータが手で持つことによって装着されてもよい。拡張現実装置106は本明細書において、観察装置として拡張現実グラス124を使用するように示されているが、特定の実装に適当であるように、何れの観察装置が利用されてもよい。
拡張現実装置106は、外面110をさらに含んでいてもよい。外面110は、拡張現実グラス124と合体されていてもよく、又は拡張現実グラス124に取り付けられた別の装置であってもよい。例えば、外面110はレンズ108又は拡張現実グラス124にクリップで取り付けられ、又はそれ以外の方法で結合されてもよい。外面110は、交差偏光フィルム又は、電子信号に応答して透明と不透明との間で変化可能なその他の種類のフィルムもしくは被覆材を含んでいてもよい。外面110が不透明に変化すると、外面110は基本的に光を発しなくてもよく、暗く、又は黒く見えてもよい。それに加えて、外面110は、透明と不透明との間で段階的変化を有するように動作してもよく、それによって光は部分的に外面110を通ってもよい。
拡張現実装置106はまた、視線制御手段112も含んでいてよい。視線制御手段は、例えば有線又は無線で拡張現実グラス124及び調光システム114に通信可能に連結されてもよい。視線制御手段112は、オペレータの視線の方向及び/又は焦点を特定する何れの装置であってもよい。視線制御手段112は、オペレータの片眼又は両眼を追跡して、オペレータの視線を特定するように動作可能であってもよい。例えば、視線制御手段112は、オペレータの眼の焦点が、デジタル画像及び/又は3D画像等の1つ又は複数のデジタル画像の投射を含んでいてもよいレンズ108に合っているか、又はオペレータの眼の焦点がレンズ108の先の物理的空間に合っているかを特定するように動作可能であってもよい。
それに加えて、拡張現実装置106は調光システム114を含んでいてもよい。調光システム114は、例えば有線又は無線で拡張現実グラス124及び/又は外面110に通信可能に連結されてもよい。調光システム114は、外面110を透明から不透明へと変化させるように動作可能であってもよい。調光システム114により行われる変化は、略瞬間的であってもよい。調光システム114は、例えば有線又は無線で視線制御手段112に通信可能に連結されて、視線制御手段112から信号を受信し、及び/又はそこに送信してもよい。例えば、視線制御手段112が、オペレータの眼の焦点がレンズ108に投射されたデジタル画像に合っていると判断した場合、視線制御手段112は信号を調光システム114に送信してもよい。視線制御手段112から信号を受信すると、調光システム114は外面110を不透明に変化させてもよい。さらに、視線制御手段112が、オペレータの眼の焦点がレンズ108の先の物理的空間に合っていると判断すると、視線制御手段112は調光システム114に信号を送信してもよい。視線制御手段112から信号を受け取ると、調光システム114は外面110を透明又は半透明に変化させてもよい。
調光システム114は処理リソース116を含んでいてもよく、これは、視線制御手段112からのデジタル情報を処理して外面110を透明と不透明との間で変化させるための1つ又は複数のアルゴリズムを記憶するメモリ118と通信してもよい。このようなアルゴリズムは、オペレータの眼の視線の焦点及び/又は方向に関する情報、又は特定の実装に固有のその他の何れの適当な情報も使用してよい。調光システム114はまた、外面110を透明と不透明との間で変化させるのに適した、眼科手術以外に関連して開発された何れのアルゴリズムを使用してもよい。
図2Aは、外面110が透明である場合の、拡張現実装置106を用いた部分ビュー202を示す。図2Aは、図1に関して述べたレンズ108を通した部分ビュー202を含む。図2Aに示される例において、調光システム114はすでに外面110を透明又は半透明に変化させて、物理的空間204がデジタル画像206を通して完全に、又は部分的に見えるようにしたかもしれない。例えば、視線制御手段112は、オペレータの眼の焦点が物理的空間204に合っている、又は眼がそこに向けられていることを検出したかもしれない。したがって、視線制御手段112は信号を調光システム114に送信したかもしれず、調光システム114は外面110を透明又は半透明に変化させたかもしれない。部分ビュー202は、拡張現実装置106のレンズ108がオペレータの視野の中に位置付けられ、オペレータの実際の物理的空間204の視野の全部が隠されていない拡張現実環境の例示的な図を示している。
拡張現実装置のレンズ108は、レンズ108内のデジタル画像206の投射と、レンズ108上へのデジタル画像206の投射より先とその周囲の両方の実際の物理的空間204のビューとを同時に提供する。幾つかの実施形態において、拡張現実装置106はイメージングシステム104と共同して、オペレータに見える物理的空間204とレンズ108上に示されることになるデジタル画像206とを確立するように機能する。特に、レンズ108上のデジタル画像206の大きさと範囲は、オペレータの視野の特定の部分に限定されず、これは、デジタル画像206がオペレータの視野全体に広がるかもしれないからである。幾つかの実施形態において、デジタル画像206は所定の観察寸法に限定されてもよい。幾つかの実施形態において、デジタル画像206はレンズ108に適合する寸法として、デジタル画像206によってオペレータの視野全体が見えなくならないようにしてもよい。例えば、デジタル画像206はオペレータの両眼の視野のうちの一方の一部分にわたって延び、反対の眼は物理的空間204を見ることができるようにしてもよい。さらに、レンズ108上で表示されるデジタル画像206の投射は、物理的位置に対応する特定の空間領域に固定されてもよい。拡張現実装置106は、その物理的位置に対するオペレータの向きに関して、デジタル画像206の投射の一部又は全部を表示してもよい。拡張現実装置106は、1つ又は複数の加速度計及び/又はジャイロスコープを含み、オペレータの頭の動きを示してもよい。例えば、オペレータがある特定の物理的位置のほうを向いている場合にデジタル画像206は表示されるが、デジタル画像206は、オペレータが動いてその物理的位置がオペレータと整列しなくなると、取り除かれてもよい。
デジタル画像206は、特定の大きさ又は位置に限定されなくてもよい。幾つかの実施形態において、デジタル画像206は眼科手術中の眼の投射であってもよい。幾つかの実施形態において、デジタル画像206は、様々なデジタルコンテンツの投射、例えば物理的又はデジタル制御手段、2次元(2D)画像、ビデオ、テキスト、実行可能アプリケーション、及び/又は特定の実装に固有の他の何れのデジタルコンテンツであってもよい。
幾つかの実施形態において、レンズ108に投射されるデジタル画像206は、オペレータとの物理的相互作用を通じて関与されるように動作可能であってもよい。具体的には、デジタル画像206は、レンズ108に投射され、オペレータにより関与されて、様々な行為及び結果がトリガされてもよい。例えば、物理的空間204の物理的接触により、デジタル画像206の中にさらに別の情報が現れること、眼科手術に関連する機器の動き、及び/又はレンズ108に投射されるデジタル画像206からの情報の除去が作動されてもよい。拡張現実装置106は、レンズ108に投射されたデジタル画像206をある物理的位置と相関させ、その後、オペレータとそのデジタル画像206との物理的相互作用を認識して、所定の結果を生じさせるように動作可能であってもよい。
図2Bは、外面110が不透明である場合の、拡張現実装置106を用いた部分ビュー208を示す。図2Bは、図1に関して述べたレンズ108を通した部分ビュー208を含む。図2Bに示される例において、調光システム114はすでに外面110を不透明に、例えば黒又は無色に変化させたかもしれず、それによって物理的空間204はデジタル画像206の背後に完全に隠れている。例えば、視線制御手段112は、オペレータの眼の焦点がデジタル画像206に合っている、又は眼がそこに向けられていることを検出したかもしれない。したがって、視線制御手段112は調光システム114に信号を送信したかもしれず、調光システム114は外面110を不透明に変化させたかもしれない。部分ビュー208は、拡張現実装置106のレンズ108がオペレータの視野の中に位置付けられ、外面1100がオペレータの実際の物理的空間204の視野の全体を見えなくしている拡張現実環境の例示的な図を示す。
図2Cは、デジタル画像206が器具212と関与している場合の、拡張現実装置106を用いた部分ビュー210を示す。図2Cは、図1に関して述べたレンズ108を通した部分ビュー208を含む。図2Cに示される例において、調光システム114はすでに外面110を不透明に、例えば黒又は無色に変化させたかもしれず、それによって物理的空間204はデジタル画像206の背後に完全に隠れている。オペレータは、デジタル画像206を物理的又はデジタル器具212と関与させて、デジタル画像206を操作し、又はそれと相互作用してもよい。器具212との関与として示されているが、関与は、オペレータの付加物又は別の人物の付加物となされてもよい。拡張現実装置106は、器具212又は、デジタル空間内の所定の位置に割り当てられた1つ又は複数のその他の項目による物理的動作を認識してデジタル画像206とのデジタルリアクションを開始するように動作可能であってもよい。さらに、デジタル画像206との関与は、実際の物理的環境の中でなくてもよく、その代わりに、オペレータによる実際の物理的行動と、レンズ108に投射される、拡張現実装置106によるこれらの行動の拡張デジタル現実への適用との組合せであってもよい。それに加えて、デジタル画像206との関与は、制御手段又は入力/出力装置の使用、例えばボタン、レバー、キーボード、マウス、音声認識制御手段、又は特定の実装のための他の何れの適当な制御手段を通じて行われてもよい。オペレータは、物理的制御手段又は、デジタル画像206上の制御手段を保持又は操作してよい。物理的制御手段は、オペレータに物理的装置を扱っている触覚を提供するために利用されてもよい。そのため、物理的制御手段は使い捨てであってもよく、手術環境の滅菌性に影響を与えないかもしれない。デジタル画像206のオペレータによる関与により、手術器具のタッチレス制御が可能となるかもしれない。
図3は、本明細書に記載されているような、拡張現実眼科手術用顕微鏡の投射の方法300を示す。方法300は、上述のシステム及び装置と共に使用されてよい。方法300は、拡張現実装置を使ってデジタル画像を投射し、外面を透明と不透明との間で変化させてもよい。方法300に記載される特定の動作は任意選択によるものであってもよく、又は本開示のシステム及び装置を使った各種の眼科手術において順番が変更されてもよい。
ステップ305で、眼科顕微鏡は顕微鏡レンズを通じて画像を捕捉し、その画像をカメラ及び/又はイメージングシステムに送信する。例えば、図1に関して述べた眼科顕微鏡102は、顕微鏡レンズ120を使って画像を捕捉してもよい。
ステップ310で、カメラ及び/又はイメージングシステムは受信した画像をデジタル画像に変換する。例えば、イメージングシステム104は、カメラ122及び/又は眼科顕微鏡102から画像を受信して、その画像をデジタル画像に変換してもよい。
ステップ315で、拡張現実装置はデジタル画像を受信する。例えば、イメージングシステム104は、デジタル画像を拡張現実装置に送信してもよい。拡張現実装置は、デジタル画像を受信して、それをさらなる処理のために準備してもよい。
ステップ320で、拡張現実装置はデジタル画像を拡張現実グラスの1つ又は複数のレンズに投射する。例えば、デジタル画像は、拡張現実グラス124のレンズ108に投射されてもよい。
ステップ325で、拡張現実装置はオペレータの眼の焦点又は方向を特定する。例えば、図1に関して述べた視線制御手段112は、オペレータの眼の視線を検出し、視線の焦点又は方向を特定してもよい。視線制御手段112は、視線、例えばオペレータの眼の焦点又は方向における変化も検出するように動作可能であってよい。
ステップ330で、拡張現実装置は、オペレータの眼の焦点に基づく信号を受信する。例えば、視線制御手段112は調光システム114に、オペレータの眼の焦点又は方向に関する情報を含む信号を送信してもよい。調光システム114は、視線制御手段112から信号を受信してもよい。
ステップ335で、拡張現実装置は、オペレータの焦点がデジタル画像に合っているか否かを特定する。例えば、視線制御手段112及び/又は調光システム114は、オペレータの眼の焦点が投射されたデジタル画像、例えば図2A~2Cに関して示されたデジタル画像206に合っているか否かを特定するように動作可能であってもよい。オペレータの眼の焦点がデジタル画像206に合っていると、方法300はステップ340に進み、そこで調光システム114は外面110を不透明に変化させる。オペレータの眼の焦点がデジタル画像206に合っていないと、方法300はステップ345に進み、そこで調光システム114は外面110を透明又は半透明に変化させる。
上で開示された主題は、例示的であり、限定的ではないと考えるものとし、付属の特許請求の範囲は本開示の実際の主旨と範囲に含まれる改変、改良、及び他の実施形態のすべてを包含することが意図される。例えば、上記の何れのシステムも、上記の何れの非一時的コンピュータ読取可能媒体も含んでいてよく、上記の何れの方法も実行してよい。上記の何れの非一時的コンピュータ読取可能媒体も、上記の何れの方法も実行してよい。それゆえ、法の下で可能な限り最大限に、本開示の範囲は以下の特許請求の範囲及びその均等物の可能な限り最も広い解釈により特定されるものとし、上記の詳細な説明によって制限又は限定されないものとする。

Claims (20)

  1. 眼科手術のためのシステムにおいて、
    眼科顕微鏡のイメージングシステムに通信可能に連結された拡張現実装置を含み、前記拡張現実装置は、
    デジタル画像を投射するように構成されたレンズであって、少なくとも部分的に透明な外面を備える、レンズと、
    前記拡張現実装置のオペレータの眼の焦点を検出し、焦点に基づく信号を送信するように構成された視線制御手段と、
    前記視線制御手段と前記外面に通信可能に連結された調光システムであって、
    前記眼科顕微鏡の前記イメージングシステムから前記デジタル画像を受信し、
    前記デジタル画像を前記レンズに投射し、
    前記視線制御手段から前記オペレータの前記眼の前記焦点に関する信号を受信し、
    前記受信した信号に基づいて、前記視線制御手段が前記オペレータの焦点が前記レンズの先の物理的空間から前記デジタル画像に移ったことを検出する時に、前記レンズの前記外面を透明から不透明へと変化させ、かつ、前記視線制御手段が前記オペレータの焦点が前記デジタル画像から物理的空間に移ったことを検出する時に、前記レンズの前記外面を不透明から透明へと変化させるように動作可能なプロセッサを含む調光システムと、
    を含むシステム。
  2. 前記拡張現実装置は前記レンズを備える拡張現実グラスを含む、請求項1に記載のシステム。
  3. 前記デジタル画像は、前記オペレータの各眼のために前記レンズ上に投射される別々の画像を含む、請求項1に記載のシステム。
  4. 前記デジタル画像と関与するように構成された器具をさらに含む、請求項1に記載のシステム。
  5. 前記器具は前記オペレータが操作する物理的器具を含む、請求項4に記載のシステム。
  6. 前記器具は前記オペレータが操作するデジタル器具を含む、請求項4に記載のシステム。
  7. 前記デジタル画像と関与するように構成された制御装置をさらに含む、請求項1に記載のシステム。
  8. 眼科手術のためのシステムを作動させる方法において、
    前記システムは、
    眼科顕微鏡のイメージングシステムからデジタル画像を受信し、
    前記デジタル画像を拡張現実装置のレンズへと投射し、
    オペレータの眼の焦点に関する信号を受信し、
    前記受信した信号に基づいて、視線制御手段が前記オペレータの眼の焦点が前記拡張現実装置の先の物理的空間から前記拡張現実装置上の前記デジタル画像に移ったことを検出する時に、前記拡張現実装置の外面を透明から不透明へと変化させ、かつ、前記視線制御手段が前記オペレータの眼の焦点が前記デジタル画像から前記拡張現実装置の先の物理的空間に移ったことを検出する時に、前記拡張現実装置の前記外面を不透明から透明へと変化させるように構成された、眼科手術のためのシステムを作動させる方法。
  9. 拡張現実装置は拡張現実グラスを含む、請求項8に記載の方法。
  10. 前記デジタル画像は、前記オペレータの各眼のために前記レンズ上に投射される別々の画像を含む、請求項8に記載の方法。
  11. 器具をデジタル画像と関与させるステップをさらに含む、請求項8に記載の方法。
  12. 前記器具は前記オペレータが操作する物理的器具を含む、請求項11に記載の方法。
  13. 前記器具は前記オペレータが操作するデジタル器具を含む、請求項11に記載の方法。
  14. 前記システムは、前記デジタル画像と関与するように構成された制御装置をさらに含む、請求項8に記載の方法。
  15. そこに命令が記憶された非一時的コンピュータ読取可能媒体において、前記命令はプロセッサにより読取可能であり、読み取られ、実行されると、前記プロセッサに、
    眼科顕微鏡のイメージングシステムからデジタル画像を受信させ、
    前記デジタル画像を拡張現実装置のレンズに投射させ、
    オペレータの眼の焦点に関する信号を受信させ、
    前記受信した信号に基づいて、視線制御手段が前記オペレータの焦点が前記レンズの先の物理的空間から前記デジタル画像に移ったことを検出する時に、前記レンズの外面を透明から不透明へと変化させ、かつ、前記視線制御手段が前記オペレータの焦点が前記デジタル画像から物理的空間に移ったことを検出する時に、前記レンズの前記外面を不透明から透明へと変化させるように構成される非一時的コンピュータ読取可能媒体。
  16. 前記拡張現実装置は拡張現実グラスを含む、請求項15に記載の非一時的コンピュータ読取可能媒体。
  17. 前記デジタル画像は、前記オペレータの各眼のために前記レンズ上に投射される別々の画像を含む、請求項15に記載の非一時的コンピュータ読取可能媒体。
  18. 前記プロセッサは、器具を前記デジタル画像と関与させるようにさらに構成される、請求項15に記載の非一時的コンピュータ読取可能媒体。
  19. 前記器具は前記オペレータが操作する物理的器具を含む、請求項18に記載の非一時的コンピュータ読取可能媒体。
  20. 前記器具は前記オペレータが操作するデジタル器具を含む、請求項18に記載の非一時的コンピュータ読取可能媒体。
JP2019537244A 2017-01-30 2018-01-24 拡張現実眼科手術用顕微鏡の投射のためのシステムと方法 Active JP7036828B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762452077P 2017-01-30 2017-01-30
US62/452,077 2017-01-30
PCT/IB2018/050432 WO2018138653A1 (en) 2017-01-30 2018-01-24 Systems and method for augmented reality ophthalmic surgical microscope projection

Publications (2)

Publication Number Publication Date
JP2020506745A JP2020506745A (ja) 2020-03-05
JP7036828B2 true JP7036828B2 (ja) 2022-03-15

Family

ID=61157247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019537244A Active JP7036828B2 (ja) 2017-01-30 2018-01-24 拡張現実眼科手術用顕微鏡の投射のためのシステムと方法

Country Status (7)

Country Link
US (1) US10638080B2 (ja)
EP (2) EP3574361B1 (ja)
JP (1) JP7036828B2 (ja)
CN (1) CN110235047A (ja)
AU (1) AU2018212779A1 (ja)
CA (1) CA3045780A1 (ja)
WO (1) WO2018138653A1 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US10973391B1 (en) * 2017-05-22 2021-04-13 James X. Liu Mixed reality viewing of a surgical procedure
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
CN110727109A (zh) * 2019-10-18 2020-01-24 蒂姆维澳(上海)网络技术有限公司 Ar眼镜及其控制方法
US11992373B2 (en) * 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
WO2021168449A1 (en) 2020-02-21 2021-08-26 Raytrx, Llc All-digital multi-option 3d surgery visualization system and control
JP7546367B2 (ja) * 2020-03-17 2024-09-06 ソニー・オリンパスメディカルソリューションズ株式会社 制御装置および医療用観察システム
KR102378114B1 (ko) * 2020-04-01 2022-03-24 고려대학교 산학협력단 증강 현실을 이용한 수술 가이드 방법 및 장치
US20210330395A1 (en) 2020-04-23 2021-10-28 Johnson & Johnson Surgical Vision, Inc. Location pad surrounding at least part of patient eye for tracking position of a medical instrument
US11832883B2 (en) 2020-04-23 2023-12-05 Johnson & Johnson Surgical Vision, Inc. Using real-time images for augmented-reality visualization of an ophthalmology surgical tool
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
JP7528258B2 (ja) * 2020-05-07 2024-08-05 ライカ インストゥルメンツ (シンガポール) プライヴェット リミテッド 頭部装着可能ディスプレイデバイスおよび顕微鏡から受信された画像を表示する方法
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11357594B2 (en) * 2020-08-07 2022-06-14 Johnson & Johnson Surgical Vision, Inc. Jig assembled on stereoscopic surgical microscope for applying augmented reality techniques to surgical procedures
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
US12023106B2 (en) 2020-10-12 2024-07-02 Johnson & Johnson Surgical Vision, Inc. Virtual reality 3D eye-inspection by combining images from position-tracked optical visualization modalities
US12045957B2 (en) 2020-10-21 2024-07-23 Johnson & Johnson Surgical Vision, Inc. Visualizing an organ using multiple imaging modalities combined and displayed in virtual reality
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
WO2024057210A1 (en) 2022-09-13 2024-03-21 Augmedics Ltd. Augmented reality eyewear for image-guided medical intervention

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013542462A (ja) 2010-09-21 2013-11-21 マイクロソフト コーポレーション 透過頭部装着ディスプレイ用不透明フィルター
CN106297472A (zh) 2016-10-25 2017-01-04 深圳市科创数字显示技术有限公司 Ar与vr相结合的眼角膜智能手术培训系统

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6118845A (en) * 1998-06-29 2000-09-12 Surgical Navigation Technologies, Inc. System and methods for the reduction and elimination of image artifacts in the calibration of X-ray imagers
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
US7339148B2 (en) * 2002-12-16 2008-03-04 Olympus America Inc. Confocal microscope
US7369101B2 (en) * 2003-06-12 2008-05-06 Siemens Medical Solutions Usa, Inc. Calibrating real and virtual views
US7376903B2 (en) * 2004-06-29 2008-05-20 Ge Medical Systems Information Technologies 3D display system and method
US20060176242A1 (en) * 2005-02-08 2006-08-10 Blue Belt Technologies, Inc. Augmented reality device and method
US8777413B2 (en) * 2006-01-20 2014-07-15 Clarity Medical Systems, Inc. Ophthalmic wavefront sensor operating in parallel sampling and lock-in detection mode
WO2008078320A2 (en) * 2006-12-22 2008-07-03 Yossi Gross Electronic transparency regulation element to enhance viewing through lens system
US20080297535A1 (en) * 2007-05-30 2008-12-04 Touch Of Life Technologies Terminal device for presenting an improved virtual environment to a user
WO2010054473A1 (en) * 2008-11-13 2010-05-20 Queen's University At Kingston System and method for integrating gaze tracking with virtual reality or augmented reality
US20120022408A1 (en) * 2010-06-18 2012-01-26 Vantage Surgical Systems, Inc. Surgical Procedures Using Visual Images Overlaid with Visual Representations of Selected Three-Dimensional Data
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US8743244B2 (en) * 2011-03-21 2014-06-03 HJ Laboratories, LLC Providing augmented reality based on third party information
US8570372B2 (en) * 2011-04-29 2013-10-29 Austin Russell Three-dimensional imager and projection device
US9727132B2 (en) * 2011-07-01 2017-08-08 Microsoft Technology Licensing, Llc Multi-visor: managing applications in augmented reality environments
GB2498954B (en) * 2012-01-31 2015-04-15 Samsung Electronics Co Ltd Detecting an object in an image
US8933912B2 (en) * 2012-04-02 2015-01-13 Microsoft Corporation Touch sensitive user interface with three dimensional input sensor
US8994672B2 (en) * 2012-04-09 2015-03-31 Sony Corporation Content transfer via skin input
US20140160264A1 (en) * 2012-12-10 2014-06-12 The Johns Hopkins University Augmented field of view imaging system
US10268276B2 (en) * 2013-03-15 2019-04-23 Eyecam, LLC Autonomous computing and telecommunications head-up displays glasses
WO2014189969A1 (en) * 2013-05-21 2014-11-27 Camplex, Inc. Surgical visualization systems
WO2015042460A1 (en) * 2013-09-20 2015-03-26 Camplex, Inc. Surgical visualization systems and displays
US20160294960A1 (en) * 2014-03-30 2016-10-06 Gary Stephen Shuster Systems, Devices And Methods For Person And Object Tracking And Data Exchange
US9143693B1 (en) * 2014-06-10 2015-09-22 Google Inc. Systems and methods for push-button slow motion
DE102014113901A1 (de) * 2014-09-25 2016-03-31 Carl Zeiss Meditec Ag Verfahren zur Korrektur eines OCT-Bildes und Kombinationsmikroskop
GB2532954A (en) 2014-12-02 2016-06-08 Ibm Display control system for an augmented reality display system
US10238279B2 (en) * 2015-02-06 2019-03-26 Duke University Stereoscopic display systems and methods for displaying surgical data and information in a surgical microscope
US10295815B2 (en) * 2015-02-09 2019-05-21 Arizona Board Of Regents On Behalf Of The University Of Arizona Augmented stereoscopic microscopy
US9358103B1 (en) * 2015-02-10 2016-06-07 Omega Ophthalmics Llc Prosthetic capsular devices, systems, and methods
CN113017836A (zh) * 2015-02-20 2021-06-25 柯惠Lp公司 手术室和手术部位感知
NZ773826A (en) * 2015-03-16 2022-07-29 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
US10162412B2 (en) * 2015-03-27 2018-12-25 Seiko Epson Corporation Display, control method of display, and program
US10888389B2 (en) * 2015-09-10 2021-01-12 Duke University Systems and methods for arbitrary viewpoint robotic manipulation and robotic surgical assistance
WO2017091704A1 (en) * 2015-11-25 2017-06-01 Camplex, Inc. Surgical visualization systems and displays
CA3193007A1 (en) * 2016-01-12 2017-07-20 Esight Corp. Language element vision augmentation methods and devices
US20170256095A1 (en) * 2016-03-02 2017-09-07 Siemens Medical Solutions Usa, Inc. Blocking screen in Augmented Reality
US10134198B2 (en) * 2016-04-19 2018-11-20 Adobe Systems Incorporated Image compensation for an occluding direct-view augmented reality system
US9844321B1 (en) * 2016-08-04 2017-12-19 Novartis Ag Enhanced ophthalmic surgical experience using a virtual reality head-mounted display
US10516879B2 (en) * 2016-08-12 2019-12-24 Avegant Corp. Binocular display with digital light path length modulation
US10187634B2 (en) * 2016-08-12 2019-01-22 Avegant Corp. Near-eye display system including a modulation stack
US10146067B2 (en) * 2016-09-09 2018-12-04 Ching-Lai Tsai Eye-protective shade for augmented reality smart glasses
US10379611B2 (en) * 2016-09-16 2019-08-13 Intel Corporation Virtual reality/augmented reality apparatus and method
US10388072B2 (en) * 2016-10-31 2019-08-20 Verizon Patent And Licensing Inc. Methods and systems for dynamically customizing a scene for presentation to a user
US20180158390A1 (en) * 2016-12-01 2018-06-07 Charles Sanglimsuwan Digital image modification

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013542462A (ja) 2010-09-21 2013-11-21 マイクロソフト コーポレーション 透過頭部装着ディスプレイ用不透明フィルター
CN106297472A (zh) 2016-10-25 2017-01-04 深圳市科创数字显示技术有限公司 Ar与vr相结合的眼角膜智能手术培训系统

Also Published As

Publication number Publication date
AU2018212779A1 (en) 2019-07-04
WO2018138653A1 (en) 2018-08-02
CN110235047A (zh) 2019-09-13
CA3045780A1 (en) 2018-08-02
EP3574361A1 (en) 2019-12-04
EP3574361B1 (en) 2022-04-20
US10638080B2 (en) 2020-04-28
JP2020506745A (ja) 2020-03-05
US20180220100A1 (en) 2018-08-02
EP4050403A1 (en) 2022-08-31

Similar Documents

Publication Publication Date Title
JP7036828B2 (ja) 拡張現実眼科手術用顕微鏡の投射のためのシステムと方法
US10241329B2 (en) Varifocal aberration compensation for near-eye displays
Orlosky et al. Modular: Eye-controlled vision augmentations for head mounted displays
WO2016092950A1 (ja) 医療用眼鏡型表示装置、情報処理装置及び情報処理方法
EP3274985A1 (en) Combining video-based and optic-based augmented reality in a near eye display
US11612317B2 (en) Ophthalmic surgery using light-field microscopy
JP2017509925A (ja) 3dビデオ顕微鏡装置
KR20130107981A (ko) 시선 추적 장치 및 방법
US11094283B2 (en) Head-wearable presentation apparatus, method for operating the same, and medical-optical observation system
JP2006195665A (ja) 情報処理装置
JP6576639B2 (ja) 電子眼鏡および電子眼鏡の制御方法
JP2005312605A (ja) 注視点位置表示装置
JP2017191546A (ja) 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
JP6996883B2 (ja) 医療用観察装置
JP2018018449A (ja) 情報処理システム、操作方法及び操作プログラム
WO2018183000A1 (en) Motion parallax in object recognition
JP2010249907A (ja) 撮影装置および撮像方法
JP2016133541A (ja) 電子眼鏡および電子眼鏡の制御方法
JP2023143437A (ja) 制御装置、制御方法、及び制御プログラム
JP2023006630A (ja) 検出装置およびその制御方法
CN118394205A (zh) 利用眼动追踪技术的混合现实交互
JP2019004274A (ja) 撮像表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190725

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191227

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200121

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220303

R150 Certificate of patent or registration of utility model

Ref document number: 7036828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150