JP6463428B2 - ジェスチャ制御機能を有する手術用顕微鏡、および、手術用顕微鏡のジェスチャ制御を行う方法 - Google Patents

ジェスチャ制御機能を有する手術用顕微鏡、および、手術用顕微鏡のジェスチャ制御を行う方法 Download PDF

Info

Publication number
JP6463428B2
JP6463428B2 JP2017157117A JP2017157117A JP6463428B2 JP 6463428 B2 JP6463428 B2 JP 6463428B2 JP 2017157117 A JP2017157117 A JP 2017157117A JP 2017157117 A JP2017157117 A JP 2017157117A JP 6463428 B2 JP6463428 B2 JP 6463428B2
Authority
JP
Japan
Prior art keywords
movement
surgical microscope
gesture
optical imaging
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017157117A
Other languages
English (en)
Other versions
JP2018029961A (ja
Inventor
テメリス ゲオルゲ
テメリス ゲオルゲ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leica Instruments Singapore Pte Ltd
Original Assignee
Leica Instruments Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=56686738&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6463428(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Leica Instruments Singapore Pte Ltd filed Critical Leica Instruments Singapore Pte Ltd
Publication of JP2018029961A publication Critical patent/JP2018029961A/ja
Application granted granted Critical
Publication of JP6463428B2 publication Critical patent/JP6463428B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0012Surgical microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/18Arrangements with more than one light path, e.g. for comparing two specimens
    • G02B21/20Binocular arrangements
    • G02B21/22Stereoscopic arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/32Micromanipulators structurally combined with microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/364Projection microscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/368Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements details of associated display arrangements, e.g. mounting of LCD monitor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Microscoopes, Condenser (AREA)

Description

本発明は、視野を有し、少なくとも部分的に視野内に位置する検査領域をイメージングする光学イメージング装置を含む、手術用顕微鏡に関する。本発明はさらに、光学イメージング装置を含む手術用顕微鏡のジェスチャ制御を行う方法に関する。
手術用顕微鏡は、術者が外科手術を行うために手術領域に容易にアクセスできるよう、手術領域での低倍率および比較的大きな作動距離を提供することを目的とした光学デバイスである。手術領域または検査領域は、通常は光学イメージング装置によってイメージングされ、当該光学イメージング装置により、通常は立体視アイピースを介してかつ/またはモニタもしくはスクリーンを介して、術者の目に対し、検査領域の画像が形成される。当該アイピースまたはモニタもしくはスクリーンは、光学イメージング装置でイメージングされかつ画像記録用カメラによって検出された画像を表示する。
手術用顕微鏡は、術者の手術への集中維持の妨げが最小となるように設計されている。しかし、手術ワークフローは、術者が、例えば焦点、ズーム、視野など、すなわち、その時点で観察している手術領域もしくは検査領域の顕微鏡パラメータを変更するときに妨げられる。こうした顕微鏡パラメータの変更には、術者が手術器具から手を離し、顕微鏡のインタラクション手段、例えば顕微鏡ハンドル、ボタンおよび調整ホイールなどを操作することが要求される。
したがって、手術中に何らかの顕微鏡パラメータを変更するには、従来技術の手術用顕微鏡を利用している術者は、顕微鏡のインタラクション手段に手を伸ばしてこれを操作すべく、手術器具を作業場所などに置かなければならない。こうした術者の調整操作によって、手術ワークフローが中断されて術者の集中が失われることがあり、そのため、この術者は、顕微鏡アイピースから視線を外して異なる周囲光条件へ適応するという不便を強いられる。さらに、こうした調整は患者での手術を遅延させることがある。また、手術器具を置く必要から、汚染の危険も増大する。加えて、術者は、最適でない顕微鏡設定、すなわち、上述した不便および遅延を回避するための改善の余地をいまだ有する設定を利用することになりかねない。
上述した不便性は、フットスイッチおよびマウススイッチなどの、術者が顕微鏡を足もしくは口で制御できるようにする従来技術手段の開発をもたらした。フットスイッチまたはマウススイッチを利用すれば上述した欠点のうち幾つかは克服できるかもしれないが、こうした従来技術手段は直感的でなく、トレーニングを要し、全ての術者にとって便利であるとはいえない状態にとどまっている。さらに、フットスイッチは、手術用顕微鏡の視野の制御には適しておらず、手動制御と同等の正確性は得られない。したがって、顕微鏡ハンドルは顕微鏡の制御および顕微鏡とのインタラクションのための主たる手法として用いられ続けている。
したがって、本発明の課題の1つは、既存の手術用顕微鏡を、特に妨害のない手術ワークフローの点で、それぞれ例えば調整による妨害が最小に保たれる手術ワークフローの点で、さらに発展させた手術用顕微鏡を提供することにある。
さらに、本発明の課題の別の1つとして、当該手術用顕微鏡と同じ利点を提供できる方法を提供することも挙げられる。
冒頭に言及した形式の手術用顕微鏡では、上記課題は、本発明にしたがって、手術用顕微鏡がさらに、対象物の動き、例えば指および器具の少なくとも一方の動きを検出するジェスチャ検出ユニットを含み、このジェスチャ検出ユニットが、信号路を介して光学イメージング装置に接続されており、かつ対象物の動きに基づいて信号路を介して制御信号を光学イメージング装置へ出力するように構成されており、光学イメージング装置が制御信号に基づいてその状態を変更するように構成されていることにより、解決される。
冒頭に言及した形式の方法では、上記課題は、本発明にしたがって、基準点に対する動き、特にジェスチャ検出ユニットに対する対象物の動き、例えば指および器具の少なくとも一方の動きを非接触で検出する、かつ/または対象物から基準点までの距離を非接触で検出するステップと、対象物の動きに基づいて光学イメージング装置を制御するステップとを含む方法により、解決される。
以下では、本発明のさらなる実施形態を説明する。ここで説明するさらなる実施形態はそれぞれ、固有の利点および技術的効果を有し、よって、説明する他のいずれの実施形態とも任意に組み合わせることができる。
対象物の動きは、手術用顕微鏡の隣接域で、好ましくは術者の手の届く範囲内で検出可能である。より好ましくは、対象物の動きは、光学イメージング装置と検査領域との間で検出される。
動きまたは距離の非接触での検出は、光学手段または超音波手段によって実現可能である。
手術用顕微鏡の隣接域での対象物の動きの検出とは、術者が顕微鏡の側方に手を配し、何も触らずに顕微鏡を回転させまたはその位置を変えることのできる仮想ハンドルとして作用させることができるという利点を有する。
ジェスチャ制御の基準点は予め定めることができ、したがって好ましくはジェスチャ検出ユニットであってよい。当該基準点を検査領域内に配置することもできる。いずれの場合にも、対象物の絶対位置は、対象物の相対運動または相対位置の計算にしか用いられない。
こうした本発明の手術用顕微鏡は、術者が手術プロシージャへの集中を維持できるという利点、ジェスチャによる手術用顕微鏡の制御は顕微鏡ハンドルによる制御よりも迅速に行えるため手術用顕微鏡の調整中もしくは再調整中に遅延が発生しないという利点、および、術者が手術用顕微鏡の調整もしくは再調整のために手術器具を置く必要がないので汚染の危険が最小化されるという利点を有する。また、例えばフットスイッチもしくはマウススイッチを用いる場合よりも、手術用顕微鏡の手動制御はいっそう正確となる。このように、本発明の利点の1つは、術者の注意を逸らしたりまたは手術ワークフローを妨害したりせずに術者および手術ワークフローを支援できる手術用顕微鏡を提供できるということである。
本発明のジェスチャ制御機能を有する手術用顕微鏡のさらなる利点は、手術用顕微鏡の直感的操作が可能となり、モバイルフォンのオペレーティングシステムに類似した手術用顕微鏡のインタラクティブな操作手段と、手術用顕微鏡に既存の要素すなわち3Dカメラまたは微分干渉コントラストユニット(DICユニット)を用いた本発明のジェスチャ制御を実現する手段とが得られ、既存の安価な手術用顕微鏡のアップグレードが提供されることである。さらに、本発明は、ボタン、フットスイッチまたはマウススイッチなどの可視の要素を追加する必要がないので、既存の手術用顕微鏡の外観を変化させない。
ジェスチャとは、指もしくは器具などの1つの対象物の動き、または、2つの対象物相互の相対運動、または、1つもしくは複数の対象物の回転であると理解されたい。1つもしくは複数の対象物の回転は、いずれかの空間軸線を中心として、例えばイメージング軸線に対して垂直なまたは平行な軸線を中心として行うことができる。こうした空間軸線を中心とした回転は任意に組み合わせ可能である。
本発明の手術用顕微鏡は、検出ユニットによって検出可能な複雑なジェスチャのセット、例えば親指を立てる、掌を開く、掌を閉じるなどを含むことができる。さらに、任意の数の指の検出、例えば2本の指の検出も、ジェスチャ検出ユニットによって1つのジェスチャとして解釈することができる。
対象物の動きは手術領域に対してほぼ平行な平面において行うことができ、これは水平運動と称することができる。イメージング軸線に対して平行な対象物の動きは、垂直運動と称することができる。
手術領域は、検査領域と称することもでき、手術もしくは検査を受ける患者の一部であって、手術用顕微鏡の視野としてアドレシング可能な部分であると理解されたい。手術用顕微鏡の視野は、顕微鏡の対物レンズの開口数と、対物レンズから検出領域までの距離とによって定められる。検出領域は、光学イメージング装置の光軸に対して、特に、光学イメージング装置のうち検査領域に面する光学要素の光軸すなわちその時点で適用されている顕微鏡対物レンズの光軸に対して、ほぼ垂直である。
手術用顕微鏡は、顕微鏡を支持するアームを含むことができ、このアームはスタンドに取り付け可能である。手術用顕微鏡には通常、ステージは設けられないが、付加的なステージを有するように修正した構成も可能である。
対象物の動きは、光学イメージング装置の視野内で検出可能である。言い換えれば、対象物の動きが光学イメージング装置の視野内で検出可能であるとは、つまり、対象物とその動きとが光学イメージング装置によってイメージングされ、術者が視認できるということである。
手術用顕微鏡はさらに、全体的な立体視アイピースのうち1つのアイピースが用いられたか、2つのアイピースが用いられたか、または、どちらのアイピースも用いられなかったかを判別するアイピース制御ユニットを含むことができる。ここでの判別部は、術者が顔をアイピースに近づけた場合にアイピースを起動可能な接近センサとして理解できる。
術者が片方の目のみを立体視アイピースに近づけた場合、使用されるほうのアイピースのみを起動可能であり、つまりこのアイピースのみに、イメージングされた手術領域を供給可能である。術者の妨げとならないよう、使用されないアイピースは起動されない。つまり、使用されないアイピースによる、イメージングされた検査領域または手術領域への障害光は伝送されない。
立体視アイピースの2つのアイピースのどちらも使用されない場合、手術用顕微鏡は照明のオフ切り替えを開始できる。照明のオフ切り替えは、好ましくは予め定められた遅延時間の後に実行可能となる。したがって、術者に対する短時間の中断は、手術用顕微鏡の照明の切り替えが開始されるほど長くはならない。
また、片方のみのアイピースの使用の検出は、術者のジェスチャとして解釈することもできる。手術用顕微鏡が片方のみのアイピースの使用を検出した場合、ジェスチャ検出ユニットは、このジェスチャを左右の選択と解釈することができ、これは、例えば手術用顕微鏡の初期化中の照明または倍率の選択などであってよい。
本発明の手術用顕微鏡の別の実施形態によれば、対象物のこうした動きを実行し、光学イメージング装置の視野の隣接域で、検査領域に面する対物レンズの光軸に対して垂直な方向で検出することができる。好ましくは、検出は、視野のうち術者が指および/または器具を届かせるのに都合がよい一方側で実行され、ここで、本発明の手術用顕微鏡のこの実施形態では、指および/または器具は、アイピースまたは顕微鏡のスクリーンを介しても術者に不可視である。
ジェスチャ検出ユニットは、光検出によって、つまり非接触で、対象物の動きを検出する。制御信号は、電気線路を介してアナログ信号またはデジタル信号の形態で出力可能であり、また、無線で受信器へ伝送することもできる。制御信号の無線伝送は、例えば、制御信号がジェスチャ制御ユニットから離れた位置にある手術用顕微鏡の被制御部材へ送信されるために電気線路の故障の危険、例えば電気線路での障害の危険が増大するような場合に有利である。
ジェスチャ検出ユニットは、手術用顕微鏡に組み込んで設けることができる。つまり、ジェスチャ検出ユニットは既存のあらゆる手術用顕微鏡に統合可能である。
また、ジェスチャ検出ユニットを、手術用顕微鏡に取り付けられる別個のユニットとして構成し、手術用顕微鏡のワイヤケーブルまたは無線コネクション手段に接続することもできる。
本発明の手術用顕微鏡の第1の有利な実施形態では、ジェスチャ検出ユニットは、検査領域と光学イメージング装置との間に位置しかつ検査領域から離間した検出領域を含み、ここで、ジェスチャ検出ユニットのジェスチャ検出は、当該検出領域内での対象物の動きに限定される。
こうした検出領域は、ジェスチャすなわち対象物の動きを検出するための3次元ボリュームと解釈すべきである。当該検出領域の外側では、対象物の動きは、光学イメージング装置へ出力される制御信号を形成しない。検出領域を検査領域から離れた位置に定めることにより、検査領域で患者の手術が行われている間、術者、特に例えばメスなどの器具によって手術用顕微鏡が調整もしくは再調整されることはないという利点が得られる。つまり、検査領域のうち光学イメージング装置によってイメージングされた部分は変更されず、術者が例えば視野の変化などによって注意を逸らされることがない。ただし、指を検出領域内へ動かすことにより、術者が手術用顕微鏡の調整もしくは再調整を行うこともできる。
本発明の手術用顕微鏡の第2の有利な実施形態では、検出領域は、少なくとも部分的に検査領域に重なる。当該実施形態では、検査領域のうち、光学イメージング装置によってイメージングされてアイピースまたはスクリーンを介して術者が視認できる部分が、動く対象物をもイメージングする。このことにより、術者が対象物の動きを正確に監視できるという利点が得られる。
検出領域は、光学イメージング装置の視野を越えて延在可能である。つまり、対象物の動きの検出は、視野によって制限されるのでない検出領域において、視野の外側で行われる。視野を越えて延在する検出領域は、例えばパン(顕微鏡の対物レンズの光軸に対してほぼ垂直な平面における手術領域もしくは検査領域のシフト)またはズーム(倍率変更)などの手術用顕微鏡の所定の調整にとって有利でありうる。
本発明の手術用顕微鏡の別の有利な実施形態では、ジェスチャ検出ユニットはさらに、検出領域内の対象物の3次元の運動を区別する運動検出モジュールを含み、この運動検出モジュールは、運動データ線路を介してジェスチャ検出ユニットに接続され、かつ対象物の動きに基づいて運動データ線路を介して運動データ信号をジェスチャ検出ユニットへ出力するように構成される。
運動検出モジュールは、その時点で適用されている顕微鏡の対物レンズの光軸に対してほぼ垂直な検出平面で行われた動きを区別できる。つまり、検出平面は検査領域に対してほぼ平行であり、検出領域内に位置する。検出領域はその時点で適用されている顕微鏡の対物レンズの光軸に沿って延在するので、多様な検出平面が可能である。
運動検出モジュールは、検出平面内の対象物の動きと、検出平面に対してほぼ垂直な方向に沿った対象物の動きとを区別できる。
運動検出モジュールは、さらに、対象物までの距離に依存する距離信号を形成するように構成可能な距離検出ユニットを含むことができる。距離検出ユニットは、距離線路を介して距離信号をバイナリ比較器へ供給でき、このバイナリ比較器によって、対象物がその時点で適用されている顕微鏡の対物レンズの光軸に沿った方向で検出領域内にあるかが判別される。
運動検出モジュールはさらに、検出平面内の動きと検出平面に対して垂直な動きとを組み合わせた動き、すなわち3次元の運動を検出するように構成可能である。
本発明の手術用顕微鏡の別の有利な実施形態では、ジェスチャ検出ユニットはさらに、運動データ線路を介して運動検出モジュールに接続された関係マッピングユニットを含み、この関係マッピングユニットは、対象物の動きと、信号路を介して光学イメージング装置へ供給される制御信号との間の関係をマッピングするように構成される。
関係マッピングユニットは、非一時性の記憶媒体に格納可能な、特定の制御信号と対象物の動きのパターンとの双方向固有の対応関係を表す関係マップを形成するように構成可能である。
関係マッピングユニットはさらに、対象物の運動データを受信して、測定された動きのパターンに対応して見出された特定の動きのパターンを符号化した信号を出力する、類似性ユニットを含むことができる。
関係マッピングユニットは、計算ユニットに接続可能であるか、または、計算ユニットを含むことができる。計算ユニットは、マイクロコントローラまたはパーソナルコンピュータなどであってよい。計算ユニットは、一般に、または、サービスおよびメンテナンス中にのみ、ユーザとのインタラクションが可能である。計算ユニットはさらに、ユーザ特有の対象物の動きを関係マップに記録するように構成可能である。
本発明の手術用顕微鏡の別の有利な実施形態では、光学イメージング装置は、制御信号に応じて位置を変化させる可動機械要素を含む。当該実施形態によれば、術者が手術用顕微鏡を機械的に制御できるという利点、例として、例えば患者領域および手術領域の種々の領域をイメージングすべく、検査領域の部分に対して視野を移動させることができるという利点が得られる。
さらに、手術用顕微鏡の機械要素が、位置および/または光強度および/または適用されるフィルタの点で調整可能な、かつ/または照明手段に対する類似の調整が可能な、可動照明手段を含む構成も考えられる。
本発明の手術用顕微鏡の別の有利な実施形態では、光学イメージング装置は、この光学イメージング装置に光学的に接続された投影ユニットを含み、この投影ユニットは、付加画像および/またはインタラクティブ画像を、イメージングされた検査領域に少なくとも部分的に重なる少なくとも1つのインタラクション部に投影するように構成される。
投影ユニットは、手術用顕微鏡の転用性およびインタラクション性の増大という利点を有する。
投影ユニットは、画像のオーバレイの可能なビームコンバイナを介して、光学イメージング装置に光学的に接続できる。別の実施形態では、投影ユニットは、付加画像および/またはインタラクティブ画像を直接に現実画像として検査領域に投影することができる。なおここでは、視認性のために、仮想画像をオーバレイすることが好ましい。
インタラクション部とは、イメージングされた検査領域の一部分であって、好ましくはイメージングされた検査領域の縁に位置する部分、より好ましくは角に位置する部分であると理解されたい。つまり、インタラクション部とは、イメージングされた検査領域のうち、手術用顕微鏡のアイピースまたはスクリーンを介してのみ可視となりうる仮想セクションである。
投影ユニットによる付加画像および/またはインタラクティブ画像のオーバレイは、例えば、不透明なオーバレイまたは半透明なオーバレイで実行可能である。
投影ユニットは、手術用顕微鏡のパラメータ、または、例えば患者のバイタルサインを含む画像を投影することができる。投影画像はさらに、本発明の方法に関連して以下に説明する機能を有する投影仮想ボタンとしても機能しうる。
上で言及した本発明の方法は主として2つのステップを有する。第1のステップでは、対象物の動きが、光学的に、つまり非接触方式で、検出される。動きの検出とは、その時点で適用されている顕微鏡の対物レンズの光軸に対してほぼ垂直な平面内の動きと、対象物からジェスチャ検出ユニットまでの距離の検出とをいう。よって、本発明の方法は、対象物の3次元の運動を検出するように構成される。
第2のステップでは、ジェスチャ検出ユニットが、対象物の動きに基づいて光学イメージング装置を制御する制御信号をこの光学イメージング装置へ供給する。
本発明の方法の第1の有利な実施形態では、当該方法はさらに、対象物の距離および運動データを計算ユニットへ供給するステップを含む。対象物の距離および運動データはデータ線路を介して供給可能であり、ここで、データはアナログまたはデジタルで符号化可能である。計算ユニットは、受信した対象物の距離および運動データを一時記憶するように構成可能である。
本発明の方法の第2の有利な実施形態では、当該方法はさらに、検出された対象物の動きを区別するステップを含む。当該区別の第1のステップは、検査領域に対して平行に配向された平面内の対象物の動きと、検査領域に対してほぼ垂直な方向の動き、すなわち、その時点で適用されている顕微鏡対物レンズの光軸に対して平行な動きとを区別すること、または、これら2つの組み合わせ運動を区別することであってよい。
本発明の方法の別の有利な実施形態には、対象物の動きと予め定められた動きのパターンとを比較するさらなるステップが含まれる。当該ステップ中、計算ユニットに格納可能な対象物の距離および運動データは、例えば関係マップに格納可能な、予め定められた動きのパターンと比較される。当該関係マップは、読み出され、測定された距離および動いている対象物の運動データと比較される。関係マップの項目それぞれにつき、測定された対象物の動きと対応する予め定められた動きのパターンとの類似度を表す類似値を出力でき、類似値どうしを比較して順序づけることができる。ここでは、測定された動きと予め定められた運動のパターンとの最高類似度を表す最高類似値を出力可能である。
本発明の方法の別の実施形態では、当該方法がさらに、対象物の動きに基づいて手術用顕微鏡の可動機械要素を制御するステップを含むと有利である。
当該方法の当該ステップでは、制御信号は、ジェスチャ検出ユニットによって形成され、信号路または無線コネクションを介して手術用顕微鏡の受信器へ供給される。当該受信器は制御信号を受信して解釈し、続いて、受信した制御信号に応じて手術用顕微鏡のステータスの変更を開始する。
本発明の方法の別の有利な実施形態では、当該方法はさらに、少なくとも1つの付加画像および/またはインタラクティブ画像を、イメージングされた検査領域の少なくとも1つのインタラクション部へ投影するステップと、対象物を予め定められたインタラクション運動のパターンと比較するステップと、少なくとも1つのインタラクション部内の対象物の動きに基づいて、光学イメージング装置および/または手術用顕微鏡を制御するステップとを含む。
こうした実施形態は、転用性および術者による非接触での光入力に応答して実行可能な機能性が増大されるという利点を有する。
当該実施形態では、イメージングされた検査領域の少なくとも1つのインタラクション部へ投影される付加画像および/またはインタラクティブ画像は、手術環境および/または患者のデータの画像を含むことができる。このような投影画像は、患者のバイタルサインまたは手術用顕微鏡のパラメータまたは術者に関心ある類似のデータであってよい。
当該方法は、対象物の位置とイメージングされた検査領域の少なくとも1つのインタラクション部の位置とを比較するように構成可能であり、さらに、対象物がインタラクション部内に位置することが検出された場合、第2の関係マップのローディングを開始することができる。第2の関係マップは、対象物がインタラクション部外の検出領域で検出された場合にローディングされる第1の関係マップと同様に、予め定められた動きのパターンの種々のセットを含むことができる。
オフライン動きが検出された後、当該方法の当該実施形態では、手術用顕微鏡の設定の変更、例えば手術用顕微鏡の照明モードもしくはイメージングモードの変更、検査領域においてその時点で観察されている部分の画像保存、または、実行すべき類似の機能を開始することができる。
オフライン運動とは、ユーザが対象物とインタラクションした後に、すなわち、対象物の運動後に実行される所定の操作を開始することであると理解されたい。例えば、顕微鏡のイメージングモードの変更は、対象物のマウスクリックに類似した垂直運動が検出された後に実行できる。反対に、オンライン運動とは、対象物が動いている間に所定の操作を直接に開始することであり、例えばイメージングされた検査領域のパン、ズームまたはチルトが挙げられる。
本発明の方法の別の有利な実施形態では、当該方法はさらに、対象物を光学的に検出するステップと、対象物のタイプを識別するために、検出された対象物と予め定められた対象物のパターンとを比較するステップと、対象物のタイプに基づいて少なくとも2つの関係マップからいずれかを選択するステップとを含む。当該方法の当該実施形態は、対象物によって制御できる可能パラメータが対象物に応じて定められるという利点を有する。つまり、メスが検出された場合、このメスの動きに基づいて行える操作を、指が検出された場合に行える操作と区別できる。このことは例えば、メスが検出された場合に、意図しないメスでの切除を回避するために、患者の動きを非アクティブ化できるという意味で、有利である。
さらに、メスが検出された場合にローディングされる関係マップは、指が検出された場合にローディングされる関係マップより精細な調整段階を有することができる。こうした区別により、手術用顕微鏡の粗調整を術者の指によって実行できる一方、メスが使用される場合には微調整を実行できる。
当該方法の当該実施形態では、2つ以上の異なる対象物が検出される場合、例えばメスまたは指のどちらの対象物が対応する関係マップのローディングを開始したかを判別するさらなるステップを含むことができる。対象物の動きにマッピングされた手術用顕微鏡の操作の所定のサブセットを全ての操作モードに設けることができ、ここで、種々の操作モードにおいて粗調整または微調整を行うことができる。
本発明の手術用顕微鏡および本発明の方法のジェスチャ検出は、適切なモデルおよびアルゴリズム、例えば3Dモデルベースアルゴリズム、アピアランスベースアルゴリズム、スケルトンベースアルゴリズムおよび類似のアプローチを基礎とすることができる。
ジェスチャ検出は、典型的には、ステレオカメラ、深度認識カメラ、シングルカメラまたはマルチ距離検出ユニットによって実行可能である。
上述したいずれかの実施形態における本発明の方法は、適切なタイプの非一時性の記憶媒体によって実現される。非一時性の記憶媒体は、例えば、CDもしくはDVDなどの光学記憶媒体、FDもしくはHDDなどの磁気記憶媒体、または、電荷蓄積に基づく非一時性記憶媒体(フラッシュメモリ)であってよい。これらの非一時性記憶媒体は、マイクロコントローラ内またはユーザのための入出力手段を提供しうるパーソナルコンピュータ内に配置可能である。
以下では、対象物の可能な動きの幾つかの例を、手術用顕微鏡の対応する可能な調整操作とともに示す。
以下の説明では、例となる座標系として、検査領域に対して平行な平面に配置されたx軸およびy軸と検査領域に対してほぼ垂直に配向されたz軸との、相互に垂直に配向された3軸を含む座標系を導入する。検査領域のうち術者に可視となるイメージング部分に対して、x軸は、術者が観察する画像の左側から右側へ延在するように配向可能である。y軸は、当該x軸に対して垂直に配向可能であり、術者が観察する画像の下方から上方へ延在可能である。z軸は、検査領域から手術用顕微鏡の光学イメージング装置へ向かうように配向可能である。
このように定義される座標系では、単独の対象物の動きは、x軸に沿って、および、y軸に沿って、および、x軸に沿った動きとy軸に沿った動きとから成る1方向に沿って行うことができる。ジェスチャ検出ユニットが検出したこうした動きによって、対象物の位置に置かれた画像の定点が対象物に沿って動き、検査領域のイメージング部分の運動(スクロール/パン)を開始させることができる。
対象物で可能なさらなる動きは、半円または円の弧角セクタを記述する軌跡に沿って行われる。画像の定点(からの)こうした対象物の動きによって、検査領域のイメージング部分に、画像中心を中心とした回転を開始させることができる。
z軸に沿った対象物の動きは、顕微鏡の焦点の変化すなわち作動距離を変化させることがある。対象物が動いている間の作動距離の変化を回避するために、作動距離の変更開始は、イメージングされた検査領域のうちその中心から離間して配置されうる部分に制限することができる。
また、例えば輝度および照明モードの点で、対象物の動きに基づいて照明を制御することもできる。照明強度の変更に対して、イメージングされた検査領域の条片状セクションを、術者が観察する画像の上縁に位置するように適用する構成も考えられる。つまり、画像の上縁に位置する当該セクションにおいて、照明強度を増大するには対象物を左方から右方へ動かし、相応に照明強度を低減するには対象物を右方から左方へ動かすことができる。
対象物の動きによって制御可能な他の顕微鏡パラメータとして、照明光源の偏光状態、照明モード(例えば白色光、狭帯域イメージング、緑色光)、および、光学イメージング装置の光路に導入可能なフィルタなどが挙げられる。
さらに、対象物のz軸に沿った動きは、マウスクリックと同様のユーザ入力として解釈可能である。特に、イメージングされた検査領域に付加画像および/またはインタラクティブ画像を投影する投影ユニットと組み合わせて、術者が、少なくとも1つの投影画像の下方に対象物(術者の指またはメス)を配し、z軸に沿って対象物の動きを実行することにより、手術用顕微鏡またはその計算ユニットの予め定められた機能をトリガすることができる。イメージングされた検査領域のインタラクション部におけるz軸に沿ったこうした動きにより、対応するインタラクション部に関連する機能を開始できる。こうした機能として、例えば、手術用顕微鏡を種々のイメージングモードへ切り替えることが挙げられる。
イメージングされた検査領域のインタラクション部に投影される画像を焦点の種々のモードに関連づけ、こうしたインタラクション部におけるz方向に沿った対象物の動きによって焦点を手動からローカルへ切り替え、または、アウトフォーカスのオンオフを切り替えることもできる。
さらに、ジェスチャ検出ユニットは2つ以上の対象物を同時に検出することができ、ここで、2つの異なる対象物は、互いに向き合う方向へ、または、互いに離れる方向へ、動くことが可能である。こうした組み合わせ動きの検出により、光学イメージング装置のズームアウトもしくはズームインすなわち手術用顕微鏡の倍率変更を開始する制御信号を形成することができる。
2つの対象物の組み合わせ運動の別の可能な組み合わせから、検査領域のチルトを行うことができる。当該チルトは、その時点で適用されている対物レンズの光軸が検査領域に対して垂直に配向されていない場合に、利用可能である。さらに、回転運動と検査領域のチルトとの種々の組み合わせも可能であって、関係マップにしたがって、すなわち、上述した関係マップに予め定められた動きのパターンを記憶することにより、プログラミングできる。
特に、ズームインもしくはズームアウトもしくは視野移動のための上述したジェスチャは、スマートフォンで通常利用されているゆえに術者にもなじみ深いジェスチャにきわめてよく似ているので、例えばフットスイッチおよびマウススイッチの場合のような集中的なトレーニングは必要ない。
本発明の手術用顕微鏡および本発明の手術用顕微鏡のジェスチャ制御を行う方法は、さらに、ジェスチャ制御のアクティブ化もしくは非アクティブ化を行うオンオフジェスチャを含むことができる。任意の可能なジェスチャ、例えば、スクリーンの所定エリアもしくは検出領域の所定エリアに対象物もしくは指を配し、対象物もしくは指による仮想のダブルクリックを行うことによって、ジェスチャ制御をアクティブ化もしくは非アクティブ化できる。ここで、対象物もしくは指は、このエリアでのクリックを実行することもできるし、または、ジェスチャ制御のアクティブ化もしくは非アクティブ化のために数秒そこに留めることもできる。
さらに、ジェスチャ制御のアクティブ化もしくは非アクティブ化は、同じジェスチャもしくは異なるジェスチャによって実行できるが、オーディオコメント、手術用顕微鏡の物理ボタン、アイピースの使用、または、術者の手もしくは指もしくは対象物による複雑なジェスチャによっても実行できる。こうした複雑なジェスチャは、好ましくは、顕微鏡の隣接域で、すなわち、対象物とイメージングされるエリアとの間以外の領域で、行うことができる。特に複雑なジェスチャは、術者によるジェスチャ制御の意図しないアクティブ化もしくは非アクティブ化が生じえないという利点を有する。
手術用顕微鏡は、術者用アイピースの側方に配置可能であって、補助者が術者の邪魔にならずに検査領域での術者の措置を観察して手術をフォローできるように検査領域をイメージング可能な、補助者用アイピースを含むことができる。補助者用アイピースも、この補助者用アイピースが使用されているかを検出するセンサ装置を含むことができる。術者用アイピースが使用されておらず、補助者用アイピースのみが使用されていることを手術用顕微鏡が検出した場合、補助者用アイピースを通してイメージングされる視野を、例えば90°回転させることによって、補助者用アイピースを使用している観察者の位置へ適合化でき、相応にジェスチャ制御の環境も90°回転させることができる。
したがって、補助者用アイピースは、そちらの位置のほうが術者にとってより都合が良い場合、術者用アイピースとして利用することもできる。
手術用顕微鏡はさらに、視覚化手段、例えば投影ユニットまたは照明手段へ伝達されるフィードバック信号を出力するように構成可能なフィードバック形成器を含むことができる。当該フィードバック信号は、所定のジェスチャに対応する音を形成し、術者に聴取可能なフィードバックを提供する音響手段すなわちスピーカへも伝送可能である。さらに、当該フィードバック信号は、所定のジェスチャの検出を表す機械的フィードバック手段、例えば振動エレメントへも伝送可能である。
フィードバック形成器は、ジェスチャの検出を表すフィードバックの形成のみを行うように構成してもよいし、または、ジェスチャに関連する対応行動を実行するように構成してもよい。また、ジェスチャ制御に関連しない種々の顕微鏡機能、例えば最大ズーム、エラー表示、画像保存、または、患者のバイタルが注意を要する場合などの機能を含むように構成してもよい。
以下では、添付図を参照しながら本発明を例示しつつ説明する。図中、同じ機能および/または同じ技術効果を提供する要素には同じ参照番号を付してある。
図示した特徴以下に説明する特徴の組み合わせは例示にすぎない。特定の特徴の上述した技術効果が特定の用途に対して必要とされる場合または省略してかまわない場合、個々の特徴を追加または省略できる。
本発明の手術用顕微鏡の第1の実施形態の概略的な側面図が示されている。 本発明の手術用顕微鏡の第2の実施形態の概略的な正面図が示されている。 対象物の可能な種々の動きのパターンが示されている。 本発明の手術用顕微鏡の作動距離の典型的な調整が示されている。 イメージング注記を選択するための4つのインタラクション部のうち1つの例示的な用途が示されている。
図1には、本発明の手術用顕微鏡1の第1の実施形態の概略的な側面図が示されており、この手術用顕微鏡1は光学イメージング装置3を含み、この光学イメージング装置3は、例えばアイピース5を含む立体視アイピース4と、手術用顕微鏡1の側部に配置された補助者用アイピース5aを含む補助者用立体視アイピース4aと、対物レンズ7とを有する。光学イメージング装置3は、患者13であってよい検査領域11の一部である視野9を定める。
視野9は、光学イメージング装置3の開口数とz軸に沿って測定される作動距離15とによって定められる。視野9はx軸およびy軸に沿って延在する。
手術用顕微鏡1はさらに、この手術用顕微鏡1のハウジング19に取り付けられるジェスチャ検出ユニット17を含む。ジェスチャ検出ユニット17は、図1の実施形態では基準点38として作用する。他の実施形態では、基準点38は例えば検査領域11に位置してもよい。
アイピース5および補助者用アイピース5aは、これらのアイピース5,5aのどちらがイメージングされた視野9の観察に用いられたかを検出するセンサ6を含む。当該センサ6は、図示の実施形態ではセンサ6aに近接して設けられている。
ジェスチャ検出ユニット17は2つの信号路76を含み、ここで、第1の信号路76は電気線路(実線)であり、第2の信号路76は無線コネクション(破線)である。これら2つの信号路76を介して、制御信号77が矢印で示されているように伝送される。
実線で示されている信号路76は、手術用顕微鏡1を支持する支持アーム82bのジョイント82aである可動機械要素に接続されている。
ジェスチャ検出ユニット17は、ジェスチャの検出領域21が少なくとも部分的に光学イメージング装置3の観察領域23に重なるよう、x軸を中心としてチルトされ、かつ視野9に面して配置されている。観察領域23は破線の囲みによって表示されている。
対物レンズ7は、z軸に対して平行な光軸25を定めている。光軸25は対物レンズ7にしたがって配向されており、光学イメージング装置3の別の要素(例えばアイピース5)に必ずしもしたがわなくてよいことに注意されたい。
図1では、3Dボリュームとしての検出領域21は、検査領域11の視野9までの所定の距離の位置に定められている。破線で囲まれたボリューム内の(図示されていない)対象物の動きのみが検出される。つまり、上述した対象物の(z軸に対する)動きまたは検出領域21より下方の動きは無視され、制御信号を形成しない。
図2には、本発明の手術用顕微鏡1の第2の実施形態の概略的な正面図が示されている。ここでは、ジェスチャ検出ユニット17が手術用顕微鏡1のハウジング19内に統合されて構成されている。当該実施形態は、補助者用立体視アイピース4aを含まない。
図2に示されている実施形態では、手術用顕微鏡1の3Dカメラ27により、信号路76を介して対象物29の距離情報が供給される。
ジェスチャ検出ユニット17はさらに、信号路76aを介して3Dカメラ27からのデータが供給される運動検出モジュール78を含む。
運動検出モジュール78は、運動データ信号80を、運動データ線路79を介してジェスチャ検出ユニット17へ供給する。
信号路76を介して、ジェスチャ検出ユニット17は、制御信号77を光学イメージング装置3へ出力する。制御信号77および運動データ信号80は矢印で表されている。
ジェスチャ検出ユニット17はさらに、検出された動き65を光学イメージング装置3または可動機械要素82によって行われる操作にマッピングする関係マッピングユニット81を含む。
手術用顕微鏡1はさらに、付加画像および/または(図示されていない)インタラクティブ画像71をイメージングされた検査領域へ投影するように構成された投影ユニット83を含む。図示の実施形態では、投影ユニット83は、光学イメージング装置3への光結合のために、ビームスプリッタ33を利用している。
図2では、対象物29は検出領域21内に位置するメス31であり、その動きがジェスチャ検出ユニット17によって検出される。
3Dカメラ27は概略的に示されているのみであって、ビームスプリッタ33および2Dセンサ35のみが示されている。2DセンサはCCDカメラであってよい。2つのチャネルのセクション23a,23bをそれぞれ異なって観察できるため、視野9の3次元画像を形成ないしイメージングし、アイピース5を介して観察することができる。
図2に示されている手術用顕微鏡1の実施形態では、ジェスチャ検出ユニット17は3Dカメラ27から、特には2Dセンサ35からデータを受信し、メス31の距離データを評価する。ここで、当該距離データはメス31の頂部からの距離37に相当する。
図2の手術用顕微鏡1は、補助者用立体視アイピース4aを含んでいない。
図3には、(図示されていない)対象物の種々の動きのパターンが概略的に示されており、ここでは、単手指ジェスチャ39と2手指ジェスチャ41とを区別できる。
可能な単手指ジェスチャ39は、y軸に沿った対象物の動き、例えば垂直ジェスチャ43、水平ジェスチャ45、2D組み合わせジェスチャ47、円運動ジェスチャ49、および、z軸を測定できる場合の、z方向に沿って対象物が動く上昇ジェスチャ51である。
可能な2手指ジェスチャ41は、位置調整ジェスチャ53a,53b、ズームインジェスチャ55およびズームアウトジェスチャ57である。
z軸に沿って可能な2手指ジェスチャ41は、(図示されていない)2つの対象物がz方向に沿って動く第2の上昇ジェスチャ59のケースで示されており、ここでは、太い矢印がそれぞれ異なる方向を指しているが、これは図に対して選択されているパースペクティブ線のためである。
図3にはさらに、可能な単手指ジェスチャ39である回転ジェスチャ49aおよび円運動ジェスチャ49も示されている。回転ジェスチャ49aは、x‐y平面において、第1の回転位置31aから第2の回転位置31bおよび第3の回転位置31cへのメス31の回転により行われる。
図4には、メス31の動きに基づき、光学イメージング装置によって実行される操作の例が示されている。
図4には、光学イメージング装置3の2つの状態での視野9の画像が示されている。未焦準状態61では、画像は、不正確な作動距離とこれによる手術用顕微鏡1の焦点外れとのために暈けている。
未焦準状態61において、メス31は、図4では見えない(例えば図2を参照)検出領域21内に位置している。つまり、メス31の動きは(図示されていない)ジェスチャ検出ユニット17によって検出され、このジェスチャ検出ユニット17により、光学イメージング装置3の状態を変更するための制御信号が形成される。
メス31は、矢印によって示されている動き65を実行する。当該動き65は、メス31の開始位置67で開始され、終了位置69で終了する。
検出された動きにより、光学イメージング装置3の作動距離を制御する制御信号が形成され、当該制御信号により、光学イメージング装置3の作動距離15の変更が開始され、手術用顕微鏡1の焦点が調整される。
メス31が開始位置67から終了位置69へ移動すると、メス31の動き65がオンラインジェスチャとして検出される。つまり、術者は、動き65中に直接に手術用顕微鏡1の状態変更を視認できる。
光学イメージング装置3によりイメージングされた視野9が焦準状態63に至ると、術者はメスの動きを停止する。当該停止位置は終了位置69に対応する。
図5には、幾つかのイメージングモードからいずれかのモードを選択するためのインタラクション部の例示的な用途が示されている。
図5には、焦準状態63の同じ視野9が示されており、ここでは、(図示されていない)投影ユニットが、4つの半透明な画像71を、オーバレイ方式で、イメージングされた検査領域に投影している。当該画像71は、視野9のインタラクション部73を定めている。当該画像71およびインタラクション部73には、図5の第1のビュー75aにおいてのみ番号が付されている。
画像71は、対応するインタラクション部73によってアクティブ化可能な、光学イメージング装置3の操作の視覚的フィードバックを含む。
図5では、図示されているインタラクション部73は種々のイメージングモードに対応している。ここで、メス31は、第1のビュー75aではインタラクション部73外に位置しているが、その後、第2のビュー75bでは左下のインタラクション部73aへ移動している。
第3のビュー75cでは、メス31の動き65は画面から出ており、このことがz軸に沿った矢印で示されている。当該ジェスチャは(図示されていない)ジェスチャ検出ユニット17によって検出され、このジェスチャ検出ユニット17によって制御信号が形成され、この制御信号が(図示されていない)計算ユニットによって処理される。当該計算ユニットは、続いて、イメージングモードを、左下のインタラクション部73aに対応するものへと変更する。
図5の第3のビュー75cにおいて選択されたイメージングモードは、モード「MFL400」である。メス31の動き65が認識された後、左下のインタラクション部73aに対応する機能をアクティブ化する動き65が検出されたことは、左下のインタラクション部73aにおける代替画像71すなわち修正画像71の投影によって表される。
第3のビュー75cに示されている動き65はオフライン運動であり、つまり、インタラクション部73のアクティブ化に対応する操作は動き65の完了後でないと実行されない。
図の説明の最初の部分で既に言及したように、図1−図5に示されている実施形態は、例示のためのものであって、本発明の権利保護範囲を限定するものではないと理解されたい。したがって、任意の数のインタラクション部73、単手指ジェスチャ39、2手指ジェスチャ41および視野9の機能セクションを設けることができる。
1 手術用顕微鏡、 3 光学イメージング装置、 4 立体視アイピース、 4a 補助者用立体視アイピース、 5 アイピース、 5a 補助者用アイピース、 6 センサ、 6a 近接センサ、 7 対物レンズ、 9 視野、 11 検査領域、 13 患者、 15 作動距離、 17 ジェスチャ検出ユニット、 19 ハウジング、 21 検出領域、 23,23a,23b 観察領域、 25 光軸、 27 3Dカメラ、 29 対象物、 31 メス、 31a 第1の回転位置、 31b 第2の回転位置、 31c 第3の回転位置、 33 ビームスプリッタ、 35 2Dセンサ、 37 距離、 38 基準点、 39 単手指ジェスチャ、 41 2手指ジェスチャ、 43 垂直ジェスチャ、 45 水平ジェスチャ、 47 2D組み合わせジェスチャ、 49 円運動ジェスチャ、 49a 回転ジェスチャ、 51 上昇ジェスチャ、 53a,53b 位置調整ジェスチャ、 55 ズームインジェスチャ、 57 ズームアウトジェスチャ、 59 第2の上昇ジェスチャ、 61 未焦準状態、 63 焦準状態、 65 動き、 67 開始位置、 69 終了位置、 71 画像、 73 インタラクション部、 73a 左下のインタラクション部、 75a 第1のビュー、 75b 第2のビュー、 75c 第3のビュー、 76,76a 信号路、 77 制御信号、 78 運動検出モジュール、 79 運動データ線路、 80 運動データ信号、 81 関係マッピングユニット、 82 可動機械要素、 82a ジョイント、 82b 支持アーム、 83 投影ユニット、 x x軸、 y y軸、 z z軸

Claims (14)

  1. 視野(9)を有し、少なくとも部分的に前記視野(9)内に位置する検査領域(11)をイメージングする光学イメージング装置(3)を含む、
    手術用顕微鏡(1)において、
    前記手術用顕微鏡(1)は、
    対象物(29)の動き(65)を非接触で検出するジェスチャ検出ユニット(17)をさらに含み、
    前記ジェスチャ検出ユニット(17)は、信号路(76)を介して前記光学イメージング装置(3)に接続されており、
    前記ジェスチャ検出ユニット(17)は、前記対象物(29)の前記動き(65)に基づいて、前記信号路(76)を介して制御信号(77)を前記光学イメージング装置(3)へ出力するように構成されており、
    前記光学イメージング装置(3)は、前記制御信号(77)に基づいてその状態を変更するように構成されており
    前記ジェスチャ検出ユニット(17)は、前記検査領域(11)と前記光学イメージング装置(3)との間に位置し、かつ前記検査領域(11)から離間した3次元の検出領域(21)を有し、
    前記ジェスチャ検出ユニット(17)のジェスチャ検出は、前記検出領域(21)内での前記対象物(29)の前記動き(65)に制限されている、
    ことを特徴とする手術用顕微鏡(1)。
  2. 前記検出領域(21)は、少なくとも部分的に前記検査領域(11)に重なる、
    請求項記載の手術用顕微鏡(1)。
  3. 前記ジェスチャ検出ユニット(17)は、前記検出領域(21)内での前記対象物(29)の3次元の動き(65)を区別する運動検出モジュール(78)をさらに含み、
    前記運動検出モジュール(78)は、運動データ線路(79)を介して前記ジェスチャ検出ユニット(17)に接続されており、
    前記運動検出モジュール(78)は、前記対象物(29)の前記動き(65)に基づいて、前記運動データ線路(79)を介して運動データ信号(80)を前記ジェスチャ検出ユニット(17)へ出力するように構成されている、
    請求項または記載の手術用顕微鏡(1)。
  4. 前記ジェスチャ検出ユニット(17)は、前記運動データ線路(79)を介して前記運動検出モジュール(78)に接続された関係マッピングユニット(81)をさらに含み、
    前記関係マッピングユニット(81)は、前記対象物(29)の動き(65)と、前記信号路(76)を介して前記光学イメージング装置(3)へ供給される制御信号(77)との間の関係をマッピングするように構成されている、
    請求項記載の手術用顕微鏡(1)。
  5. 前記光学イメージング装置(3)は、制御信号(77)に応じて位置を変化させる可動機械要素(82)を含む、
    請求項1からまでのいずれか1項記載の手術用顕微鏡(1)。
  6. 前記光学イメージング装置(3)は、該光学イメージング装置(3)に光学的に接続された投影ユニット(83)を含み、
    前記投影ユニット(83)は、付加画像および/またはインタラクティブ画像(71)を、イメージングされた前記検査領域(11)に少なくとも部分的に重なる少なくとも1つのインタラクション部(73)へ投影するように構成されている、
    請求項1からまでのいずれか1項記載の手術用顕微鏡(1)。
  7. 視野(9)を有し、少なくとも部分的に前記視野(9)内に位置する検査領域(11)をイメージングする光学イメージング装置(3)を含む手術用顕微鏡(1)のジェスチャ制御を行う方法であって、
    ジェスチャ検出ユニット(17)によって、3次元の検出領域(21)における対象物(29)の動き(65を非接触で検出するステップであって、前記検出領域(21)は、前記検査領域(11)と前記光学イメージング装置(3)との間に位置し、かつ前記検査領域(11)から離間しており、前記ジェスチャ検出ユニット(17)のジェスチャ検出は、前記検出領域(21)内での前記対象物(29)の前記動き(65)に制限されている、ステップと、
    前記対象物(29)の前記動き(65)に基づいて前記光学イメージング装置(3)を制御するステップと
    を含む、方法。
  8. 前記方法は、前記対象物(29)の距離および/または運動データを計算ユニットに供給するステップをさらに含む、
    請求項記載の方法。
  9. 前記方法は、検出された前記対象物(29)の前記動き(65)を区別するステップをさらに含む、
    請求項または記載の方法。
  10. 前記方法は、前記対象物(29)の前記動き(65)を予め定められた動きのパターンと比較するステップをさらに含む、
    請求項からまでのいずれか1項記載の方法。
  11. 前記方法は、前記対象物(29)の前記動き(65)に基づいて、前記手術用顕微鏡(1)の可動機械要素(82)を制御するステップをさらに含む、
    請求項から10までのいずれか1項記載の方法。
  12. 前記方法は、
    少なくとも1つの付加画像および/またはインタラクティブ画像(71)を、イメージングされた検査領域(11)の少なくとも1つのインタラクション部(73)へ投影するステップと、
    前記対象物(29)の前記動き(65)を、予め定められたインタラクション運動のパターンと比較するステップと、
    前記少なくとも1つのインタラクション部(73)内の前記対象物(29)の動き(65)に基づいて、前記光学イメージング装置(3)および/または前記手術用顕微鏡(1)を制御するステップと、
    をさらに含む、
    請求項から11までのいずれか1項記載の方法。
  13. 前記方法は、
    前記対象物(29)を光学的に検出するステップと、
    前記対象物(29)のタイプを識別するために、検出された前記対象物(29)と予め定められた対象物のパターンとを比較するステップと、
    前記対象物(29)の前記タイプに基づいて少なくとも2つの関係マップのいずれかを選択するステップと
    をさらに含む、
    請求項から12までのいずれか1項記載の方法。
  14. 請求項から13までのいずれか1項記載の方法を実行するように構成された、非一時性の記憶媒体。
JP2017157117A 2016-08-16 2017-08-16 ジェスチャ制御機能を有する手術用顕微鏡、および、手術用顕微鏡のジェスチャ制御を行う方法 Active JP6463428B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16184312.3 2016-08-16
EP16184312.3A EP3285107B2 (en) 2016-08-16 2016-08-16 Surgical microscope with gesture control and method for a gesture control of a surgical microscope

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018248138A Division JP7085982B2 (ja) 2016-08-16 2018-12-28 ジェスチャ制御機能を有する手術用顕微鏡、および、手術用顕微鏡のジェスチャ制御を行う方法

Publications (2)

Publication Number Publication Date
JP2018029961A JP2018029961A (ja) 2018-03-01
JP6463428B2 true JP6463428B2 (ja) 2019-02-06

Family

ID=56686738

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017157117A Active JP6463428B2 (ja) 2016-08-16 2017-08-16 ジェスチャ制御機能を有する手術用顕微鏡、および、手術用顕微鏡のジェスチャ制御を行う方法
JP2018248138A Active JP7085982B2 (ja) 2016-08-16 2018-12-28 ジェスチャ制御機能を有する手術用顕微鏡、および、手術用顕微鏡のジェスチャ制御を行う方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018248138A Active JP7085982B2 (ja) 2016-08-16 2018-12-28 ジェスチャ制御機能を有する手術用顕微鏡、および、手術用顕微鏡のジェスチャ制御を行う方法

Country Status (4)

Country Link
US (3) US11284948B2 (ja)
EP (1) EP3285107B2 (ja)
JP (2) JP6463428B2 (ja)
CN (2) CN112099215B (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3285107B2 (en) * 2016-08-16 2024-02-28 Leica Instruments (Singapore) Pte. Ltd. Surgical microscope with gesture control and method for a gesture control of a surgical microscope
WO2019029936A1 (en) 2017-08-11 2019-02-14 Brainlab Ag MICROSCOPE ADJUSTMENT USING VIDEO
DE102018206406B3 (de) * 2018-04-25 2019-09-12 Carl Zeiss Meditec Ag Mikroskopiesystem und Verfahren zum Betrieb eines Mikroskopiesystems
IL262619B (en) * 2018-10-25 2020-05-31 Beyeonics Surgical Ltd System and method to automatically adjust illumination during a microsurgical procedure
DE102018128848A1 (de) * 2018-11-16 2020-05-20 Olympus Winter & Ibe Gmbh Verfahren und Vorrichtung zur Ausführung verschiedener Funktionen im Zusammenhang mit chirurgischen Geräten
EP3674774A1 (en) * 2018-12-27 2020-07-01 Leica Instruments (Singapore) Pte. Ltd. Digital microscope system, method for operating the same and computer program
EP3744281B1 (en) * 2019-05-27 2023-07-26 Leica Instruments (Singapore) Pte. Ltd. Microscope system and method for operating a surgical microscope
EP3744286A1 (en) * 2019-05-27 2020-12-02 Leica Instruments (Singapore) Pte. Ltd. Microscope system and method for controlling a surgical microscope
US10758309B1 (en) 2019-07-15 2020-09-01 Digital Surgery Limited Methods and systems for using computer-vision to enhance surgical tool control during surgeries
US11048072B1 (en) * 2019-12-31 2021-06-29 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
US20230350177A1 (en) * 2020-01-08 2023-11-02 Brainlab Ag Robotic microscope and control thereof
EP3848779A1 (en) 2020-01-09 2021-07-14 BHS Technologies GmbH Head-mounted display system and method for controlling a medical imaging device
CN111538269B (zh) * 2020-04-27 2023-05-16 北京他山科技有限公司 一种非接触按钮传感器单元及触发的方法
US11601121B2 (en) 2020-06-26 2023-03-07 Intel Corporation Bootstrapped switch circuit, a track-and-hold circuit, an analog-to-digital converter, a method for operating a track-and-hold circuit, a base station and a mobile device
CN111999877A (zh) * 2020-09-30 2020-11-27 微迪光学(无锡)有限公司 一种头戴式手势感应显微镜
DE102021204031A1 (de) * 2021-04-22 2022-10-27 Carl Zeiss Meditec Ag Verfahren zum Betreiben eines Operationsmikroskops und Operationsmikroskop

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040254454A1 (en) 2001-06-13 2004-12-16 Kockro Ralf Alfons Guide system and a probe therefor
EP1395194B1 (en) * 2001-06-13 2007-08-29 Volume Interactions Pte. Ltd. A guide system
DE10335369B4 (de) 2003-07-30 2007-05-10 Carl Zeiss Verfahren zum Bereitstellen einer berührungslosen Gerätefunktionssteuerung und Vorrichtung zum Durchführen des Verfahrens
JP4398352B2 (ja) 2004-12-02 2010-01-13 オリンパス株式会社 医療用立体撮像装置
DE102006010767B4 (de) 2006-03-08 2008-04-17 Carl Zeiss Surgical Gmbh Mikroskopiesystem
US20080136775A1 (en) * 2006-12-08 2008-06-12 Conant Carson V Virtual input device for computing
WO2010114843A1 (en) * 2009-03-31 2010-10-07 Charles Luley Associates, Inc. Dba Cla Medical Injection of secondary images into microscope viewing fields
US20100315335A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Pointing Device with Independently Movable Portions
WO2011085815A1 (en) 2010-01-14 2011-07-21 Brainlab Ag Controlling a surgical navigation system
WO2011113483A1 (en) 2010-03-17 2011-09-22 Brainlab Ag Flow control in computer-assisted surgery based on marker positions
US20120274550A1 (en) * 2010-03-24 2012-11-01 Robert Campbell Gesture mapping for display device
DE102010003339B4 (de) 2010-03-26 2012-02-02 Leica Microsystems (Schweiz) Ag Sterile Bedieneinheit mit Sensorbildschirm
WO2012128305A1 (ja) * 2011-03-23 2012-09-27 ナノフォトン株式会社 顕微鏡
JP6074170B2 (ja) * 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US9330477B2 (en) 2011-09-22 2016-05-03 Digital Surgicals Pte. Ltd. Surgical stereo vision systems and methods for microsurgery
US10022041B2 (en) * 2012-06-27 2018-07-17 Camplex, Inc. Hydraulic system for surgical applications
US20140022171A1 (en) * 2012-07-19 2014-01-23 Omek Interactive, Ltd. System and method for controlling an external system using a remote device with a depth sensor
DE102012220195B4 (de) 2012-11-06 2021-03-04 Leica Microsystems Cms Gmbh Widefield-Mikroskop oder Konfokalmikroskop
US9928634B2 (en) * 2013-03-01 2018-03-27 Microsoft Technology Licensing, Llc Object creation using body gestures
KR20140138424A (ko) * 2013-05-23 2014-12-04 삼성전자주식회사 제스쳐를 이용한 사용자 인터페이스 방법 및 장치
US9645652B2 (en) * 2013-05-28 2017-05-09 The Boeing Company Ubiquitous natural user system for human-machine interaction
JP6207240B2 (ja) * 2013-06-05 2017-10-04 キヤノン株式会社 情報処理装置及びその制御方法
WO2015012006A1 (ja) 2013-07-22 2015-01-29 オリンパスメディカルシステムズ株式会社 医療用携帯端末装置
EP3028198A2 (fr) * 2013-08-01 2016-06-08 Université Pierre et Marie Curie (Paris 6) Dispositif de commande centralisé sans intermédiaire, avec ou sans contact, d'appareils médicaux distants
US9597009B2 (en) * 2013-12-19 2017-03-21 Novartis Ag Marker-based tool tracking
DE102014001784A1 (de) * 2014-02-12 2015-08-13 Carl Zeiss Meditec Ag Bedienelement für eine Positioniervorrichtung einer medizinischen Vorrichtung
KR101534282B1 (ko) * 2014-05-07 2015-07-03 삼성전자주식회사 포터블 디바이스의 사용자 입력 방법 및 상기 사용자 입력 방법이 수행되는 포터블 디바이스
US10595716B2 (en) * 2014-05-09 2020-03-24 X-Biomedical Inc. Portable surgical methods, systems, and apparatus
US9785247B1 (en) * 2014-05-14 2017-10-10 Leap Motion, Inc. Systems and methods of tracking moving hands and recognizing gestural interactions
DE102014106865A1 (de) 2014-05-15 2015-11-19 Carl Zeiss Meditec Ag Bediensystem für ein Operationsmikroskop mit automatischer Folge- oder Ausrichtungsvorrichtung, Verfahren und Operationsmikroskop
DE102014007909A1 (de) * 2014-05-27 2015-12-03 Carl Zeiss Meditec Ag Chirurgisches Mikroskop
US9465444B1 (en) * 2014-06-30 2016-10-11 Amazon Technologies, Inc. Object recognition for gesture tracking
CN106030495B (zh) * 2015-01-30 2021-04-13 索尼深度传感解决方案股份有限公司 利用单个感测系统的基于多模式姿势的交互系统及方法
US10191553B2 (en) * 2015-03-12 2019-01-29 Dell Products, L.P. User interaction with information handling systems using physical objects
US20160331584A1 (en) * 2015-05-14 2016-11-17 Novartis Ag Surgical tool tracking to control surgical system
EP3285107B2 (en) * 2016-08-16 2024-02-28 Leica Instruments (Singapore) Pte. Ltd. Surgical microscope with gesture control and method for a gesture control of a surgical microscope

Also Published As

Publication number Publication date
CN107765414A (zh) 2018-03-06
JP7085982B2 (ja) 2022-06-17
US20220211448A1 (en) 2022-07-07
EP3285107A1 (en) 2018-02-21
CN107765414B (zh) 2020-11-10
US20180049811A1 (en) 2018-02-22
US11284948B2 (en) 2022-03-29
EP3285107B1 (en) 2021-05-05
JP2019088808A (ja) 2019-06-13
EP3285107B2 (en) 2024-02-28
CN112099215B (zh) 2022-11-01
CN112099215A (zh) 2020-12-18
US20230355323A1 (en) 2023-11-09
JP2018029961A (ja) 2018-03-01
US11744653B2 (en) 2023-09-05

Similar Documents

Publication Publication Date Title
JP6463428B2 (ja) ジェスチャ制御機能を有する手術用顕微鏡、および、手術用顕微鏡のジェスチャ制御を行う方法
US20210382559A1 (en) Ui for head mounted display system
US7091928B2 (en) Intelligent eye
EP2275852B1 (en) Microscope controller and microscope system having the microscope controller
BR112012025516B1 (pt) sistema cirúrgico robotizado com controle aperfeiçoado
JP2021522940A (ja) 仮想フットペダル
JP2021524096A (ja) 足制御型カーソル
WO2018216501A1 (ja) 制御装置、制御方法、および手術システム
US20230404699A1 (en) System for a Microscope System and Corresponding Method and Computer Program
WO2021148346A1 (en) Apparatuses, methods and computer programs for controlling a microscope system
US20220331038A1 (en) User interface for controlling a surgical system
CA3117533A1 (en) Ui for head mounted display system
US20230169698A1 (en) Microscope system and corresponding system, method and computer program for a microscope system
WO2018087977A1 (ja) 情報処理装置、情報処理方法、プログラム
JP7414590B2 (ja) 制御装置および医療用観察システム
EP4125676A1 (en) Systems and methods for facilitating automated operation of a device in a surgical space
JP7367041B2 (ja) 頭部装着型ディスプレイシステムのためのui
JP6307860B2 (ja) 撮像装置、撮像方法及びプログラム
JP2018102009A (ja) 撮像装置、撮像制御装置、撮像方法、撮像制御方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180418

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180711

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181228

R150 Certificate of patent or registration of utility model

Ref document number: 6463428

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250