JP7379373B2 - 3D visualization camera and integrated robot platform - Google Patents

3D visualization camera and integrated robot platform Download PDF

Info

Publication number
JP7379373B2
JP7379373B2 JP2020558426A JP2020558426A JP7379373B2 JP 7379373 B2 JP7379373 B2 JP 7379373B2 JP 2020558426 A JP2020558426 A JP 2020558426A JP 2020558426 A JP2020558426 A JP 2020558426A JP 7379373 B2 JP7379373 B2 JP 7379373B2
Authority
JP
Japan
Prior art keywords
processor
image
joint
optical
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020558426A
Other languages
Japanese (ja)
Other versions
JP2021521939A (en
Inventor
ラミレス ルナ マキシミリアーノ
ウェイスマン マイケル
ポール リーダーラー トーマス
チャールズ ポルチン ジョージ
バートン トリパティ アショック
テリー パトリック
Original Assignee
アルコン インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルコン インコーポレイティド filed Critical アルコン インコーポレイティド
Publication of JP2021521939A publication Critical patent/JP2021521939A/en
Application granted granted Critical
Publication of JP7379373B2 publication Critical patent/JP7379373B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • A61B90/25Supports therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B90/57Accessory clamps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00725Calibration or performance testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/065Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/066Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring torque
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0801Prevention of accidental cutting or pricking
    • A61B2090/08021Prevention of accidental cutting or pricking of the patient or his organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Endoscopes (AREA)
  • Microscoopes, Condenser (AREA)
  • Manipulator (AREA)

Description

本発明は、立体視覚化カメラ及び統合ロボットプラットフォームに関する。 The present invention relates to a stereoscopic visualization camera and an integrated robot platform.

手術は芸術である。優れた芸術家が、常人の能力をはるかに超えた芸術品を作り上げる。芸術家は筆を使って絵の具の容器を、閲覧者から強く独特な感情を引き起こす鮮明な画像に変える。芸術家は紙に書かれた平凡な言葉をドラマチックで荘厳なパフォーマンスに変える。芸術家は楽器を掴み、楽器に美しい音楽を放たせる。同様に、外科医は、見たところは平凡な外科用メス、ツイーザ、及びプローブをとり、人生を変える生物学的奇跡を生み出す。 Surgery is an art. Great artists create works of art that far exceed the abilities of ordinary people. The artist uses a brush to transform a container of paint into a vivid image that evokes strong and unique emotions in the viewer. Artists transform ordinary words written on paper into dramatic and majestic performances. An artist grabs an instrument and lets it emit beautiful music. Similarly, surgeons take seemingly ordinary scalpels, tweezers, and probes and create life-changing biological miracles.

芸術家のように、外科医は自身の方法及び好みを有する。向上心がある芸術家は、技能の基礎が教えられる。初心者は多くの場合、規定の方法に従う。経験、自信、及び知識を得るにつれて、自分自身及び個人的環境の独自の芸術性の反映を発展させる。同様に、医学生も外科処置の基礎を教えられる。これらの方法について厳格にテストされる。生徒が研修期間及び実務を通して進むにつれて、手術が最良に完了すべきとどのように信じるかに基づいて、基礎から導き出されるもの(なお医療規格内にある)を発展させる。例えば、異なる有名な外科医によって行われる同じ医療処置を考える。イベントの順序、ペース、スタッフの配置、器具の配置、及び撮像機器の使用は、好みに基づいて各外科医で様々である。切開のサイズ及び形状でさえも外科医に固有であることができる。 Like artists, surgeons have their own methods and preferences. Aspiring artists are taught the basics of the craft. Beginners often follow a prescribed method. As you gain experience, confidence, and knowledge, you develop a unique artistic reflection of yourself and your personal environment. Similarly, medical students are taught the basics of surgical procedures. These methods are rigorously tested. As students progress through training and practice, they develop what is derived from the basics (still within medical standards) based on how they believe the surgery should be best completed. For example, consider the same medical procedure performed by different renowned surgeons. The order of events, pace, staffing, instrumentation, and use of imaging equipment will vary for each surgeon based on preference. Even the size and shape of the incision can be specific to the surgeon.

外科医の芸術家のような独自性及び特技により、外科医の方法を変える又は変更する外科器具に外科医はうんざりする。器具は外科医の延長であり、同時に及び/又は調和のとれた同期で動作すべきである。処置の流れを決める又は外科医のリズムを変える外科器具は多くの場合、破棄されるか、又は順応するように変更される。 The artist's uniqueness and skill of the surgeon makes the surgeon weary of surgical instruments that alter or alter the surgeon's methods. The instruments are an extension of the surgeon and should operate simultaneously and/or in harmonious synchronization. Surgical instruments that dictate the course of a procedure or change a surgeon's rhythm are often discarded or modified to accommodate.

一例では、特定の外科処置が、人間が裸眼で容易に視覚化するには小さすぎる患者の構造が関わる顕微鏡手術視覚化を考える。これらの顕微鏡手術処置では、微小構造を適宜見るために拡大が求められる。外科医は一般に、自身の目の自然な延長である視覚化器具を欲する。実際に、顕微鏡手術視覚化の初期の尽力は、拡大鏡をヘッドマウント光学接眼レンズ(外科用ルーペと呼ばれる)に取り付けることを含んだ。最初のものは1876年に開発された。外科用ルーペの大いに改善されたバージョン(幾つかは光学ズーム及び一体化光源を含む)はなお今日、外科医によって使用されている。図1は、光源102と、拡大鏡104とを有する1つの外科用ルーペ100の図を示す。150年にわたり外科用ルーペの勢力が維持されていることの一因は、外科用ルーペが文字通り外科医の目の延長であることである。 In one example, consider microsurgical visualization, where a particular surgical procedure involves patient structures that are too small to be easily visualized by the naked human eye. These microsurgical procedures require magnification to appropriately view the microstructures. Surgeons generally desire visualization instruments that are natural extensions of their eyes. In fact, early efforts in microsurgical visualization involved attaching magnifying glasses to head-mounted optical eyepieces (called surgical loupes). The first one was developed in 1876. Much improved versions of surgical loupes (some including optical zooms and integrated light sources) are still used by surgeons today. FIG. 1 shows a diagram of one surgical loupe 100 having a light source 102 and a magnifying glass 104. FIG. One reason surgical loupes have remained so powerful for 150 years is that they are literally an extension of the surgeon's eyes.

長寿命にも拘わらず、外科用ルーペは完全ではない。図1のルーペ100等の拡大鏡及び光源を有するルーペは、はるかに大きな重量を有する。外科医の顔の前にわずかな量の重量を配置することであっても、特に長時間の手術中、不快感及び疲労を増大させる可能性がある。外科用ルーペ100は、遠隔電源に接続されたケーブル106も含む。ケーブルは事実上、鎖として機能し、それにより、外科実行中、外科医の可動性を制限する。 Despite their long lifespan, surgical loupes are not perfect. A loupe with a magnifying glass and a light source, such as loupe 100 of FIG. 1, has a much greater weight. Placing even a small amount of weight in front of the surgeon's face can increase discomfort and fatigue, especially during long surgeries. Surgical loupe 100 also includes a cable 106 connected to a remote power source. The cable effectively functions as a chain, thereby limiting the surgeon's mobility during the surgical performance.

別の顕微鏡手術視覚化器具は、手術用顕微鏡とも呼ばれる外科医用顕微鏡である。外科用顕微鏡の広範囲の商業的開発は、外科用ルーペに取って代わることを目的として1950年代に始まった。外科用顕微鏡は、光路、レンズ、及び外科用ルーペと比較して高い倍率を提供する集束要素を含む。光学要素の大きなアレイ(及びその結果としての重量)は、外科用顕微鏡を外科医から取り外す必要があったことを意味する。この取り外しは、外科医に操作のためのより多くのスペースを与えるが、外科用顕微鏡のかさ高さは、患者の上方で相当な操作空間を消費させ、それにより、外科ステージのサイズを低減させる。 Another microsurgical visualization instrument is a surgeon's microscope, also called a surgical microscope. Widespread commercial development of surgical microscopes began in the 1950's with the purpose of replacing surgical loupes. A surgical microscope includes an optical path, a lens, and a focusing element that provides high magnification compared to surgical loupes. The large array of optical elements (and resulting weight) meant that the surgical microscope had to be removed from the surgeon. Although this removal gives the surgeon more space to maneuver, the bulk of the surgical microscope consumes considerable maneuvering space above the patient, thereby reducing the size of the surgical stage.

図2は、従来技術による外科用顕微鏡200の図を示す。想像できるように、手術エリアでの外科用顕微鏡のサイズ及び存在により、揺れを受けやすかった。スコープヘッド201に安定性及び剛性を提供するために、顕微鏡は、比較的大きなブームアーム202及び204又は他の同様の支持構造体に接続される。大きなブームアーム202及び204は、追加の手術スペースを消費し、外科医及びスタッフの機動性を下げる。合計で、図2に示される外科用顕微鏡200は350キログラム(「kg」)という重さになり得る。 FIG. 2 shows a diagram of a surgical microscope 200 according to the prior art. As can be imagined, the size and presence of the surgical microscope in the surgical area made it susceptible to shaking. To provide stability and rigidity to scope head 201, the microscope is connected to relatively large boom arms 202 and 204 or other similar support structures. Large boom arms 202 and 204 consume additional surgical space and reduce surgeon and staff mobility. In total, the surgical microscope 200 shown in FIG. 2 can weigh as much as 350 kilograms ("kg").

外科用顕微鏡200を使用して標的術部を見るために、外科医は接眼レンズ206を直接通して見る。外科医の背中への応力を低減するために、接眼レンズ206は一般に、アーム202を使用して高さを調整して、外科医の自然な視線に沿って位置決めされる。しかしながら、外科医は、標的術部のみを見ることによって手術を行うのではない。接眼レンズ206は、外科医が患者への作業距離のアーム長さ内にいるように位置決めされる必要がある。そのような精密な位置決めは、特に長時間にわたり使用される場合、外科用顕微鏡200が外科医にとって障害ではなく延長になることを保証するのに極めて重要である。 To view the target surgical site using surgical microscope 200, the surgeon looks directly through eyepiece 206. To reduce stress on the surgeon's back, the eyepiece 206 is generally positioned along the surgeon's natural line of sight with height adjustment using the arm 202. However, the surgeon does not perform surgery by looking only at the target surgical site. The eyepiece 206 needs to be positioned so that the surgeon is within an arm length of the working distance to the patient. Such precise positioning is extremely important to ensure that the surgical microscope 200 becomes an extension rather than an obstacle to the surgeon, especially when used for extended periods of time.

任意の複雑な機器のように、外科医が外科用顕微鏡を使用して快適さを感じるには、数十から数百の時間がかかる。図2に示されるように、外科用顕微鏡200の設計は、外科医から標的術部まで略90°角度の光路を必要とする。例えば、標的術部からスコープヘッド201までに完全に垂直な光路が必要とされる。これは、あらゆる顕微鏡手術処置で、スコープヘッド201を患者の真上に位置決めする必要があることを意味する。加えて、外科医は、接眼レンズ206を略水平に(又は幾らか僅かに下方に傾斜して)見る必要がある。外科医の自然な傾きは、術部における両手に視覚を向けるためである。外科医によってはさらに、手の運動をより精密に制御するために、両手を術部のより近くに移動させたい者もいる。不都合なことに、外科用顕微鏡200は、外科医にこの柔軟性を与えない。その代わり、外科用顕微鏡200は容赦なく、全て患者上方の価値ある手術空間を消費しながら、外科医が両目を接眼レンズ206に配置し、手術実行中、頭部をアームの長さに保持すべきであると決定付ける。スコープヘッド201は外科医の視界を遮るため、外科医は単に患者に視線を落とすことさえもできない。 Like any complex instrument, it takes tens to hundreds of hours for a surgeon to feel comfortable using a surgical microscope. As shown in FIG. 2, the design of surgical microscope 200 requires an approximately 90 degree optical path from the surgeon to the target surgical site. For example, a completely perpendicular optical path from the target surgical site to the scope head 201 is required. This means that in any microsurgical procedure it is necessary to position the scope head 201 directly above the patient. In addition, the surgeon must view the eyepiece 206 generally horizontally (or tilted somewhat downwardly). This is because the surgeon's natural tilt directs the eye toward both hands at the surgical site. Some surgeons also desire to move their hands closer to the operative site for more precise control of hand movements. Unfortunately, surgical microscope 200 does not provide the surgeon with this flexibility. Instead, the surgical microscope 200 inexorably requires the surgeon to place both eyes in the eyepieces 206 and hold the head at arm's length while performing the surgery, all while consuming valuable surgical space above the patient. It is decided that it is. Because the scope head 201 blocks the surgeon's view, the surgeon cannot even simply look down at the patient.

更に悪いことに、外科用顕微鏡200によっては、共同術者(例えば、アシスタント外科医、看護師、又は他の臨床スタッフ)用の第2の対の接眼レンズ208を含むものがある。第2の対の接眼レンズ208は通常、第1の接眼レンズ206から直角に位置決めされる。接眼レンズ206と208との近さは、アシスタントが外科医の近くに立たなければ(又は座らなければ)ならないことを決定付け、動きを更に制限する。これは、幾らかのスペースを有しての施術を好む外科医によっては不快であり得る。拡大恩恵にも拘わらず、外科用顕微鏡200は外科医の自然な延長ではない。代わりに、手術室内の横柄なディレクターである。 To make matters worse, some surgical microscopes 200 include a second pair of eyepieces 208 for a co-operator (eg, an assistant surgeon, nurse, or other clinical staff). A second pair of eyepieces 208 is typically positioned perpendicularly from the first eyepiece 206 . The closeness of eyepieces 206 and 208 dictates that the assistant must stand (or sit) close to the surgeon, further restricting movement. This can be uncomfortable for some surgeons who prefer to operate with some space. Despite its magnifying benefits, surgical microscope 200 is not a natural extension of the surgeon. Instead, it's the overbearing director in the operating room.

本開示は、立体視覚化カメラ及びロボットアームを含む立体視ロボットシステムに関する。一例の立体視ロボットシステムは、オペレータがロボットアームを使用して立体視覚化カメラを位置決めできるようにしながら、標的手術部位の立体画像を取得するように構成される。本明細書に開示するように、ロボットアームは、非意図的なカメラ移動から生じ得るジッタ又は他のアーチファクトなしで立体視覚化カメラが高分解能画像を記録できるようにする構造的安定性を提供する電子機械的に操作されるジョイントを含む。ロボットアームはまた、オペレータが立体視覚化カメラを異なる位置及び/又は向きに位置決めして、標的手術部位の所望のビューを取得できるようにする構造的柔軟性も提供する。したがって、一例の立体視ロボットシステムは、どこであれ外科医に合った位置で外科医が人生を変える顕微鏡手術を快適に完了できるようにする。 The present disclosure relates to a stereoscopic viewing robot system that includes a stereoscopic visualization camera and a robotic arm. An example stereoscopic robotic system is configured to obtain stereoscopic images of a target surgical site while allowing an operator to position a stereoscopic visualization camera using a robotic arm. As disclosed herein, the robotic arm provides structural stability that allows the stereoscopic visualization camera to record high-resolution images without jitter or other artifacts that may result from unintentional camera movement. Contains electromechanically operated joints. The robotic arm also provides structural flexibility that allows the operator to position the stereoscopic visualization camera in different positions and/or orientations to obtain desired views of the target surgical site. Thus, one example stereoscopic robotic system allows surgeons to comfortably complete life-changing microsurgery wherever it suits them.

本開示の立体視ロボットシステムは、視覚化装置の物理的制限及び機械的制限ではなく、外科医又は患者の必要に最もよく合う、術野に相対する任意の数の向きで位置決めすることができる。本立体視ロボットシステムは、外科医又は他のオペレータが立体視覚化カメラを楽々と位置決めできるようにする電動ジョイント移動補助を提供するように構成される。幾つかの実施形態では、本立体視ロボットシステムは、立体カメラを位置決めしているオペレータから検出される力に基づいてロボットアームの電動補助付き移動を提供するように構成される。本立体視ロボットシステムはまた、オペレータが立体視覚化カメラの向き及び/又は位置を変更できるようにしながら、オペレータが標的手術部位への視覚的ロックを選択できるようにもし得る。追加又は代替として、本立体視ロボットシステムには、立体視覚化カメラ及び/又はロボットアームが患者、手術スタッフ、及び/又は手術機器に接触するのを阻止する1つ又は複数の境界が構成される。要するに、本立体視ロボットシステムは、一般に制限又は妨げなく顕微鏡外科処置を行う自由を外科医に与えながら、外科医の目の延長として働く。 The stereoscopic robotic system of the present disclosure can be positioned in any number of orientations relative to the surgical field that best suit the needs of the surgeon or patient, rather than the physical and mechanical limitations of the visualization device. The stereoscopic robotic system is configured to provide powered joint movement assistance that allows a surgeon or other operator to effortlessly position a stereoscopic visualization camera. In some embodiments, the present stereoscopic robotic system is configured to provide power-assisted movement of the robotic arm based on forces detected from an operator positioning the stereoscopic camera. The stereoscopic robotic system may also allow the operator to select visual lock to the target surgical site while allowing the operator to change the orientation and/or position of the stereoscopic visualization camera. Additionally or alternatively, the stereoscopic robotic system is configured with one or more boundaries that prevent the stereoscopic visualization camera and/or the robotic arm from contacting the patient, surgical staff, and/or surgical equipment. . In short, the present stereoscopic robotic system acts as an extension of the surgeon's eye while generally giving the surgeon the freedom to perform microsurgical procedures without restriction or hindrance.

本明細書に記載される趣旨の態様は、単独で又は本明細書に記載される1つ若しくは複数の他の態様と組み合わせて有用であり得る。上記説明を制限することなく、本開示の第1の態様では、ロボット撮像装置は、セキュア構造又はカートに接続されるように構成されたベースセクションと、ロボットアームであって、ベースセクションに接続される第1の端部、結合インターフェースを含む第2の端部、及び第1の端部を第2の端部に接続する複数のジョイント及びリンクを有するロボットアームとを含む。各ジョイントは、軸の回りでジョイントを回転させるように構成されたモータと、ジョイントのそれぞれの位置を送信するように構成されたジョイントセンサとを含む。本ロボット撮像装置は、結合インターフェースにおいてロボットアームに接続される立体カメラも含む。立体カメラは、標的手術部位の左画像及び右画像を記録して、標的手術部位の立体画像ストリームを生成するように構成される。本ロボット撮像装置は、結合インターフェースに位置決めされ、オペレータにより立体カメラに付与される並進力及び回転力を検出し、並進力及び回転力を示す出力データを送信するように構成されるセンサを更に含む。本ロボット撮像装置は、少なくともロボットアームの現在位置並びに検出された並進力及び回転力に基づいて、ロボットアームのジョイントのそれぞれの回転方向、速度、及び持続時間を指定する1つ又は複数の命令及び/又はデータ構造により定義される少なくとも1つのアルゴリズムを記憶するメモリを更に含む。さらに、本ロボット撮像装置は、センサ及びロボットアームに通信可能に結合される少なくとも1つのプロセッサを含む。センサから、並進力及び回転力を示す出力データを受信することと、メモリ内の少なくとも1つのアルゴリズムを使用して、ロボットアームの現在位置及びセンサからの出力データに基づいてロボットアームの移動シーケンスを決定することとを行うように構成される少なくとも1つのプロセッサ。少なくとも1つのプロセッサはまた、少なくとも1つのジョイントに提供される1つ又は複数のモータ制御信号を介して、決定された移動シーケンスに基づいてロボットアームのジョイントの少なくとも1つを回転させるようにも構成される。少なくとも1つのジョイントの回転は、オペレータによる立体カメラに付与される検出された並進力及び検出された回転力に基づいて、ロボットアームの動力補助付き移動を提供する。 Any aspect of the subject matter described herein may be useful alone or in combination with one or more other aspects described herein. Without limiting the above description, in a first aspect of the present disclosure, a robotic imaging device includes a base section configured to be connected to a secure structure or cart, and a robotic arm connected to the base section. a first end including a coupling interface, a second end including a coupling interface, and a robotic arm having a plurality of joints and links connecting the first end to the second end. Each joint includes a motor configured to rotate the joint about an axis and a joint sensor configured to transmit a respective position of the joint. The robotic imaging device also includes a stereo camera connected to the robot arm at a coupling interface. The stereoscopic camera is configured to record left and right images of the target surgical site to generate a stereoscopic image stream of the target surgical site. The robotic imaging device further includes a sensor positioned at the coupling interface and configured to detect translational and rotational forces applied to the stereoscopic camera by an operator and to transmit output data indicative of the translational and rotational forces. . The robotic imaging device includes one or more instructions that specify the direction, speed, and duration of rotation of each joint of the robotic arm based on at least the current position of the robotic arm and the detected translational and rotational forces. and/or a memory for storing at least one algorithm defined by the data structure. Additionally, the robotic imaging device includes at least one processor communicatively coupled to the sensor and the robotic arm. receiving output data indicative of translational and rotational forces from the sensor; and using at least one algorithm in the memory to determine a movement sequence of the robot arm based on the current position of the robot arm and the output data from the sensor. at least one processor configured to: determine; The at least one processor is also configured to rotate at least one of the joints of the robot arm based on the determined movement sequence via one or more motor control signals provided to the at least one joint. be done. Rotation of the at least one joint provides powered movement of the robotic arm based on detected translational forces and detected rotational forces applied to the stereoscopic camera by an operator.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第2の態様によれば、少なくとも1つのプロセッサは、複数のジョイントのジョイントセンサからの出力データに基づいて、ロボットアームの現在位置を特定するように構成される。 According to a second aspect of the present disclosure, which may be used in conjunction with any other aspect recited herein, unless otherwise noted, at least one processor comprises a plurality of joints. The robot arm is configured to identify the current position of the robot arm based on output data from the joint sensor.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第3の態様によれば、センサは、自由度6の触力覚デバイス又はトルクセンサの少なくとも一方を含む。 According to a third aspect of the present disclosure, which may be used in conjunction with any other aspect listed herein, the sensor includes a six degree of freedom haptic sensor. It includes at least one of a device and a torque sensor.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第4の態様によれば、立体カメラは、動力補助付き移動を可能にするリリースボタンを有する少なくとも1つの制御アームを含み、少なくとも1つのプロセッサは、リリースボタンが選択されたことを示す入力メッセージを受信することと、リリースボタンに関連する入力メッセージを受信した後、センサからの出力データを使用して移動シーケンスを決定することとを行うように構成される。 According to a fourth aspect of the disclosure, which may be used in conjunction with any other aspect listed herein, unless otherwise noted, the stereoscopic camera is capable of powered movement. at least one control arm having a release button to select the sensor; and determining a movement sequence using output data from.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第5の態様によれば、本装置は、ロボットアームの結合インターフェースに接続するように構成された第1の端部と、立体カメラに接続するように構成された第2の結合インターフェースを含む第2の端部とを有する結合板を更に含む。結合板は、移動シーケンスに従って少なくとも1つのプロセッサにより制御可能なジョイント及びモータのそれぞれの位置を送信するように構成されたジョイントセンサを含む少なくとも1つのジョイントを含む。 According to a fifth aspect of the present disclosure, which may be used in conjunction with any other aspect recited herein, unless otherwise noted, the apparatus is adapted to a coupling interface of a robotic arm. The apparatus further includes a coupling plate having a first end configured to connect and a second end including a second coupling interface configured to connect to a stereoscopic camera. The coupling plate includes at least one joint including a joint sensor configured to transmit respective positions of the joint and motor controllable by the at least one processor according to a movement sequence.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第6の態様によれば、センサは、結合インターフェース又は第2の結合インターフェースに配置される。 According to a sixth aspect of the present disclosure, which may be used in conjunction with any other aspect listed herein, unless otherwise noted, the sensor is connected to a coupling interface or a second coupling placed in the interface.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第7の態様によれば、結合板は、立体カメラを水平向きと垂直向きとの間でオペレータにより手動で回転できるようにする第2のジョイントを含む。第2のジョイントは、第2のジョイントの位置を送信するように構成されたジョイントセンサを含む。 According to a seventh aspect of the present disclosure, which may be used in conjunction with any other aspect recited herein, except as otherwise noted, the coupling plate aligns the stereoscopic camera with a horizontal orientation. A second joint is included to allow manual rotation by an operator between vertical orientations. The second joint includes a joint sensor configured to transmit a position of the second joint.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第8の態様によれば、立体カメラは、結合インターフェースにおいてロボットアームに接続するように構成される底面を含む筐体を含む。 According to an eighth aspect of the present disclosure, which may be used in conjunction with any other aspect listed herein, unless otherwise noted, a stereoscopic camera is attached to a robot arm at a coupling interface. including a housing including a bottom surface configured to connect.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第9の態様によれば、ロボット撮像装置はロボットアームを含み、ロボットアームは、セキュア構造に接続される第1の端部、結合インターフェースを含む第2の端部、及び第1の端部を第2の端部に接続する複数のジョイント及びリンクであって、各ジョイントは、軸の回りでジョイントを回転させるように構成されたモータ及びジョイントのそれぞれの位置を送信するように構成されたジョイントセンサを含む、複数のジョイント及びリンクを備える。本ロボット撮像装置はまた、結合インターフェースにおいてロボットアームに接続される撮像デバイスであって、撮像デバイスは、標的手術部位の画像を記録するように構成される、撮像デバイスと、結合インターフェースに位置決めされ、オペレータにより撮像デバイスに付与される力及び/又はトルクを検出し、力及び/又はトルクを示す力及び/又はトルク出力データを送信するように構成されるセンサとを含む。本ロボット撮像装置は、センサ及びロボットアームに通信可能に結合される少なくとも1つのプロセッサを更に含む。少なくとも1つのプロセッサは、センサから力及び/又はトルク出力データを受信することと、力及び/又はトルク出力データを並進ベクトル及び回転ベクトルに変換することと、運動学を使用して、ロボットアームの現在位置並びに並進ベクトル及び回転ベクトルに基づいてロボットアームの移動シーケンスを決定することであって、移動シーケンスは、ロボットアームのジョイントの少なくとも幾つかの移動の回転方向、速度、及び持続時間を指定する、決定することと、少なくとも1つのジョイントに提供される1つ又は複数のモータ制御信号を介して、決定された移動シーケンスに基づいてロボットアームのジョイントの少なくとも1つを回転させることを行うように構成される。 According to a ninth aspect of the disclosure, which may be used in conjunction with any other aspect recited herein, except as otherwise noted, a robotic imaging device includes a robotic arm; The arm has a first end connected to the secure structure, a second end including a coupling interface, and a plurality of joints and links connecting the first end to the second end, each The joint includes a plurality of joints and links including a motor configured to rotate the joint about an axis and a joint sensor configured to transmit a respective position of the joint. The robotic imaging apparatus also includes an imaging device connected to the robotic arm at the coupling interface, the imaging device positioned at the coupling interface with the imaging device configured to record an image of the target surgical site; and a sensor configured to detect force and/or torque applied to the imaging device by an operator and transmit force and/or torque output data indicative of the force and/or torque. The robotic imaging device further includes at least one processor communicatively coupled to the sensor and the robotic arm. At least one processor receives force and/or torque output data from the sensor, converts the force and/or torque output data into translational vectors and rotational vectors, and uses kinematics to control the robot arm. determining a movement sequence of the robot arm based on the current position and the translation and rotation vectors, the movement sequence specifying a rotational direction, velocity, and duration of movement of at least some of the joints of the robot arm; , and rotating at least one of the joints of the robot arm based on the determined movement sequence via one or more motor control signals provided to the at least one joint. configured.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第10の態様によれば、プロセッサは、移動シーケンスに基づいて、ロボットアームの現在位置又はロボットアームの特徴位置の少なくとも一方に基づいて少なくとも1つのスケーリング係数を決定することと、移動シーケンスの少なくとも1つのジョイント速度にスケーリング係数を適用することとを行うように構成される。 According to a tenth aspect of the present disclosure, which may be used in conjunction with any other aspect listed herein, except as otherwise noted, the processor is configured to: configured to determine at least one scaling factor based on at least one of a current position of the arm or a characteristic position of the robot arm; and apply the scaling factor to at least one joint velocity of the movement sequence. .

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第11の態様によれば、少なくとも1つのスケーリング係数は、仮想境界からのロボットアーム又は撮像デバイスの距離に基づいて構成される。少なくとも1つのスケーリング係数は、仮想境界に近づくにつれて「0」の値に低減する。 According to an eleventh aspect of the present disclosure, which may be used in conjunction with any other aspect recited herein, unless otherwise noted, at least one scaling factor from a virtual boundary of the robot arm or imaging device. The at least one scaling factor decreases to a value of "0" as the virtual boundary is approached.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第12の態様によれば、仮想境界は、患者、医療機器、又は手術室スタッフの少なくとも1つに対応する。 According to a twelfth aspect of the present disclosure, which may be used in conjunction with any other aspect recited herein, unless otherwise noted, the virtual boundary is a patient, a medical device, or Corresponding to at least one member of the operating room staff.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第13の態様によれば、プロセッサは、少なくとも1つのスケーリング係数が移動シーケンスに適用されたことを示すアイコンをディスプレイデバイスに表示させるように構成される。 According to a thirteenth aspect of the present disclosure, which may be used in conjunction with any other aspect listed herein, except as otherwise noted, the processor is configured to move the at least one scaling factor. The display device is configured to cause the display device to display an icon indicating that the sequence has been applied.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第14の態様によれば、プロセッサは、ロボットアームのジョイント間又はジョイント限界間のジョイント角度に基づいて少なくとも1つのスケーリング係数を決定することと、移動シーケンスの少なくとも1つのジョイント速度にスケーリング係数を適用することとを行うように構成される。 According to a fourteenth aspect of the present disclosure, which may be used in conjunction with any other aspect recited herein, except as otherwise noted, the processor is configured to The apparatus is configured to determine at least one scaling factor based on a joint angle between limits and to apply the scaling factor to at least one joint velocity of the movement sequence.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第15の態様によれば、プロセッサは、力及び/又はトルク出力データに重力補償を提供することと、力適用補償を力及び/又はトルク出力データに提供して、センサのロケーションと力及び/又はトルクがオペレータにより付与される撮像デバイスのロケーションとの間のオフセットを補償することとを行うように構成される。 According to a fifteenth aspect of the present disclosure, which may be used in conjunction with any other aspect listed herein, except as otherwise noted, the processor provides force and/or torque output data. and force application compensation to the force and/or torque output data to account for the offset between the location of the sensor and the location of the imaging device at which the force and/or torque is applied by the operator. and configured to compensate.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第16の態様によれば、プロセッサは、ロボットアームの複数のジョイントのジョイント特異点を特定又は識別して、ヒステリシス及びバックラッシュを制御することと、ジョイント特異点を通してのロボットアーム移動を避けながら、運動学に基づいて移動シーケンスを決定することとを行うように構成される。 According to a sixteenth aspect of the present disclosure, which may be used in conjunction with any other aspect recited herein, except as otherwise noted, the processor comprises a plurality of joints of a robot arm. The system is configured to identify or identify joint singularities to control hysteresis and backlash, and to determine movement sequences based on kinematics while avoiding robot arm movement through joint singularities. Ru.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第17の態様によれば、本ロボット撮像装置は、ロボットアームの結合インターフェースに接続するように構成された第1の端部と、立体カメラに接続するように構成された第2の結合インターフェースを含む第2の端部とを有する結合板を更に含む。結合板は、移動シーケンスに従って少なくとも1つのプロセッサにより制御可能なジョイントのそれぞれ及びモータの位置を送信するように構成されたジョイントセンサを含む少なくとも1つのジョイントを含む。センサは、結合インターフェース又は第2の結合インターフェースに配置される。 According to a seventeenth aspect of the present disclosure, which may be used in conjunction with any other aspect recited herein, unless otherwise noted, the robotic imaging device comprises: The apparatus further includes a coupling plate having a first end configured to connect to the interface and a second end including a second coupling interface configured to connect to the stereoscopic camera. The coupling plate includes at least one joint including a joint sensor configured to transmit a position of each of the joints and a motor controllable by the at least one processor according to a movement sequence. The sensor is located at the coupling interface or the second coupling interface.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第18の態様によれば、ロボットアームは少なくとも4つのジョイントを含み、結合板は少なくとも2つのジョイントを含む。 Unless otherwise noted, according to an eighteenth aspect of the disclosure, which may be used in conjunction with any other aspect recited herein, the robotic arm includes at least four joints; The coupling plate includes at least two joints.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第19の態様によれば、プロセッサは、移動シーケンスにより指定される移動の回転方向、速度、及び持続時間を示す1つ又は複数のコマンド信号をジョイントのそれぞれのモータに送信することにより、ロボットアームのジョイントの少なくとも1つに回転させるように構成される。 According to a nineteenth aspect of the disclosure, which may be used in conjunction with any other aspect recited herein, unless otherwise noted, the processor performs a movement specified by a movement sequence. The robot arm is configured to rotate at least one of the joints of the robot arm by sending one or more command signals to the joint's respective motors indicating a direction, speed, and duration of rotation.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第20の態様によれば、プロセッサは、移動シーケンス中、ロボットアームが移動しているとき、撮像デバイスにより記録された画像を比較して、移動シーケンス中、ロボットアームが決定されたように移動していることを確認するように構成される。 According to a twentieth aspect of the present disclosure, which may be used in conjunction with any other aspect recited herein, except as otherwise noted, the processor causes the robot arm to move during the movement sequence. While moving, the robot arm is configured to compare images recorded by the imaging device to ensure that the robot arm is moving as determined during the movement sequence.

別段のことが記される場合を除き、本明細書に列記される任意の他の態様と併せて使用し得る本開示の第21の態様によれば、運動学は、逆運動学又はヤコビアン運動学の少なくとも一方を含む。 According to a twenty-first aspect of the disclosure, which may be used in conjunction with any other aspect recited herein, unless otherwise noted, the kinematics is an inverse kinematics or a Jacobian motion. including at least one of the following:

本開示の22の態様によれば、図3~図65に関連して示され説明される構造及び機能は、図3~図65の任意の他の図及び先の態様の任意の1つ又は複数に関連して示され説明される任意の構造及び機能と組み合わせて使用し得る。 According to twenty-two aspects of the present disclosure, the structures and features shown and described in connection with FIGS. It may be used in combination with any of the structures and features shown and described in connection with the plurality.

したがって、上記態様及び本明細書における開示に鑑みて、本開示の利点は、立体カメラとロボットアームとの間でシームレスな調整を提供する立体視ロボットシステムを提供することである。 Accordingly, in view of the above aspects and the disclosure herein, an advantage of the present disclosure is to provide a stereoscopic robotic system that provides seamless coordination between a stereoscopic camera and a robotic arm.

本開示の別の利点は、ロボットアームを使用して、立体視ロボットカメラの焦点距離、作業距離、及び/又は倍率を上げる立体視ロボットシステムを提供することである。 Another advantage of the present disclosure is to provide a stereoscopic robotic system that uses a robotic arm to increase the focal length, working distance, and/or magnification of a stereoscopic robotic camera.

本開示の更なる別の利点は、オペレータにより立体カメラに付与される力/トルクに基づいてロボットアームの動力補助付き移動を提供する立体視ロボットシステムを提供することである。 Yet another advantage of the present disclosure is to provide a stereoscopic robotic system that provides powered movement of a robotic arm based on forces/torques applied to a stereoscopic camera by an operator.

本明細書で考察された利点は、本明細書に開示される実施形態の1つ又は幾つかで見出し得、恐らく本明細書に開示される実施形態の全てで見出されるわけではない。追加の特徴及び利点が本明細書に記載され、以下の詳細な説明及び図から明らかになろう。 The advantages discussed herein may be found in one or some, and perhaps not all, of the embodiments disclosed herein. Additional features and advantages are described herein and will be apparent from the detailed description and figures below.

図1は、一対の従来技術による外科用ルーペの図を示す。FIG. 1 shows a diagram of a pair of prior art surgical loupes. 図2は、従来技術による外科用顕微鏡の図を示す。FIG. 2 shows a diagram of a surgical microscope according to the prior art. 図3は、本開示の実施形態例による立体視覚化カメラの斜視図の図を示す。FIG. 3 shows an illustration of a perspective view of a stereoscopic visualization camera according to an example embodiment of the present disclosure. 図4は、本開示の実施形態例による立体視覚化カメラの斜視図の図を示す。FIG. 4 shows an illustration of a perspective view of a stereoscopic visualization camera according to an example embodiment of the present disclosure. 図5は、本開示の実施形態例による、図3及び図4の立体視覚化カメラを含む顕微鏡手術環境の図を示す。FIG. 5 depicts a diagram of a microsurgical environment including the stereoscopic visualization camera of FIGS. 3 and 4, according to an example embodiment of the present disclosure. 図6は、本開示の実施形態例による、図3及び図4の立体視覚化カメラを含む顕微鏡手術環境の図を示す。FIG. 6 depicts a diagram of a microsurgical environment including the stereoscopic visualization camera of FIGS. 3 and 4, according to an example embodiment of the present disclosure. 図7は、本開示の実施形態例による、図3~図6の一例の立体視覚化カメラ内の光学要素を示す図を示す。FIG. 7 shows a diagram illustrating optical elements within the example stereoscopic visualization camera of FIGS. 3-6, according to an example embodiment of the present disclosure. 図8は、本開示の実施形態例による、図3~図6の一例の立体視覚化カメラ内の光学要素を示す図を示す。FIG. 8 shows a diagram illustrating optical elements within the example stereoscopic visualization camera of FIGS. 3-6, according to an example embodiment of the present disclosure. 図9は、本開示の実施形態例による、図7及び図8の一例の立体視覚化カメラの偏向要素の図を示す。FIG. 9 shows a diagram of deflection elements of the example stereoscopic visualization camera of FIGS. 7 and 8, according to example embodiments of the present disclosure. 図10は、本開示の実施形態例による、図7及び図8の一例の立体視覚化カメラの右光学画像センサ及び左光学画像センサの一例の図を示す。FIG. 10 shows an illustration of an example right optical image sensor and a left optical image sensor of the example stereoscopic visualization camera of FIGS. 7 and 8, according to an example embodiment of the present disclosure. 図11は、本開示の実施形態例による、図7及び図8の一例の立体視覚化カメラの光学要素の一例のキャリアの図を示す。FIG. 11 shows a diagram of an example carrier of an optical element of the example stereoscopic visualization camera of FIGS. 7 and 8, according to an example embodiment of the present disclosure. 図12は、本開示の実施形態例による、図7及び図8の一例の立体視覚化カメラの光学要素の一例のキャリアの図を示す。FIG. 12 shows a diagram of an example carrier of an optical element of the example stereoscopic visualization camera of FIGS. 7 and 8, according to an example embodiment of the present disclosure. 図13は、本開示の実施形態例による、図7及び図8の一例の立体視覚化カメラの一例の屈曲部の図を示す。FIG. 13 illustrates a view of the example flexure of the example stereoscopic visualization camera of FIGS. 7 and 8, according to example embodiments of the present disclosure. 図14は、本開示の実施形態例による、画像データを取得し処理する一例の立体視覚化カメラのモジュールの図を示す。FIG. 14 depicts a diagram of an example stereo visualization camera module that acquires and processes image data, according to example embodiments of the present disclosure. 図15は、本開示の実施形態例による図14のモジュールの内部構成要素の図を示す。FIG. 15 shows a diagram of internal components of the module of FIG. 14 according to an example embodiment of the disclosure. 図16は、本開示の実施形態例による、図14及び図15の情報プロセッサモジュールの図を示す。FIG. 16 depicts a diagram of the information processor module of FIGS. 14 and 15, according to an example embodiment of the present disclosure. 図17は、本開示の実施形態例によるディスプレイモニタの一例を示す。FIG. 17 illustrates an example display monitor according to an example embodiment of the present disclosure. 図18は、右光路と左光路との間の疑似視差を示す図を示す。FIG. 18 shows a diagram illustrating pseudo parallax between the right and left optical paths. 図19は、右光路と左光路との間の疑似視差を示す図を示す。FIG. 19 shows a diagram illustrating pseudo parallax between the right and left optical paths. 図20は、右光路と左光路との間の疑似視差を示す図を示す。FIG. 20 shows a diagram illustrating pseudo parallax between the right and left optical paths. 図21は、右光路と左光路との間の疑似視差を示す図を示す。FIG. 21 shows a diagram illustrating pseudo parallax between the right and left optical paths. 図22は、右光路及び左光路のそれぞれの2枚の平行レンズの位置に関連したピンボケ状況を示す図を示す。FIG. 22 is a diagram showing the out-of-focus situation related to the positions of the two parallel lenses in each of the right optical path and the left optical path. 図23は、立体画像に融合される際、疑似視差がデジタルグラフィックス及び/又は画像の精度をいかに失わせるかを示す図を示す。FIG. 23 shows a diagram illustrating how pseudo-parallax causes digital graphics and/or images to lose accuracy when fused into a stereoscopic image. 図24は、立体画像に融合される際、疑似視差がデジタルグラフィックス及び/又は画像の精度をいかに失わせるかを示す図を示す。FIG. 24 shows a diagram illustrating how pseudo-parallax causes digital graphics and/or images to lose accuracy when fused into a stereoscopic image. 図25は、本開示の実施形態例による、疑似視差を低減するか、又はなくす一例の手順を示す流れ図を示す。FIG. 25 depicts a flowchart illustrating an example procedure for reducing or eliminating pseudo-parallax, according to example embodiments of the present disclosure. 図26は、本開示の実施形態例による、疑似視差を低減するか、又はなくす一例の手順を示す流れ図を示す。FIG. 26 depicts a flowchart illustrating an example procedure for reducing or eliminating pseudo-parallax, according to example embodiments of the present disclosure. 図27は、本開示の実施形態例による、光学画像センサのピクセルグリッドに対してズーム反復点がいかに調整されるかを示す図を示す。FIG. 27 shows a diagram illustrating how zoom iteration points are adjusted relative to a pixel grid of an optical image sensor, according to example embodiments of the present disclosure. 図28は、本開示の実施形態例による、ズーム反復点を見つけるテンプレート照合プログラムを示す図を示す。FIG. 28 depicts a diagram illustrating a template matching program for finding zoom iteration points, according to example embodiments of the present disclosure. 図29は、本開示の実施形態例による、ズーム反復点を見つけるテンプレート照合プログラムを示す図を示す。FIG. 29 depicts a diagram illustrating a template matching program for finding zoom iteration points, according to example embodiments of the present disclosure. 図30は、本開示の実施形態例による、ズーム反復点を見つけるテンプレート照合プログラムを示す図を示す。FIG. 30 depicts a diagram illustrating a template matching program for finding zoom iteration points, according to example embodiments of the present disclosure. 図31は、本開示の実施形態例による、ズーム反復点を見つけるテンプレート照合プログラムを示す図を示す。FIG. 31 depicts a diagram illustrating a template matching program that finds zoom iteration points, according to example embodiments of the present disclosure. 図32は、本開示の実施形態例による、ズーム反復点を見つけるテンプレート照合プログラムを示す図を示す。FIG. 32 depicts a diagram illustrating a template matching program that finds zoom iteration points, according to example embodiments of the present disclosure. 図33は、本開示の実施形態例による図5の顕微鏡手術環境の側面図を示す。FIG. 33 depicts a side view of the microsurgical environment of FIG. 5 in accordance with an example embodiment of the present disclosure. 図34は、本開示の実施形態例による図5のロボットアーム例の実施形態を示す。FIG. 34 illustrates an embodiment of the example robot arm of FIG. 5 in accordance with an example embodiment of the present disclosure. 図35は、本開示の実施形態例による、カートに接続された図33及び図34のロボットアームの図を示す。FIG. 35 shows a diagram of the robotic arm of FIGS. 33 and 34 connected to a cart, according to an example embodiment of the present disclosure. 図36は、本開示の実施形態例による、図33及び図34のロボットアームが天井板に搭載される図を示す。FIG. 36 shows a view of the robot arm of FIGS. 33 and 34 mounted to a ceiling plate, according to an example embodiment of the present disclosure. 図37は、本開示の実施形態例による、ロボットアームの結合板の実施形態を示す。FIG. 37 illustrates an embodiment of a coupling plate of a robot arm, according to an example embodiment of the present disclosure. 図38は、本開示の実施形態例による、異なる回転位置における結合板の図を示す。FIG. 38 shows views of the coupling plate in different rotational positions, according to example embodiments of the present disclosure. 図39は、本開示の実施形態例による、異なる回転位置における結合板の図を示す。FIG. 39 shows views of the coupling plate in different rotational positions, according to example embodiments of the present disclosure. 図40は、本開示の実施形態例による、異なる回転位置における結合板の図を示す。FIG. 40 shows views of the coupling plate in different rotational positions, according to example embodiments of the present disclosure. 図41は、本開示の実施形態例による、図3~図40の立体視ロボットプラットフォームの実施形態を示す。FIG. 41 illustrates an embodiment of the stereoscopic robot platform of FIGS. 3-40, according to example embodiments of the present disclosure. 図42は、本開示の実施形態例による、図3~図33の立体視覚化カメラを較正する手順又はルーチンの一例を示す。FIG. 42 illustrates an example procedure or routine for calibrating the stereoscopic visualization camera of FIGS. 3-33, according to example embodiments of the present disclosure. 図43は、本開示の実施形態例による、離散ステップで物体平面を移動させる図3~図33及び図42の立体視覚化カメラ例の実施形態を示す。FIG. 43 illustrates an embodiment of the example stereoscopic visualization camera of FIGS. 3-33 and 42 that moves the object plane in discrete steps, according to an example embodiment of the present disclosure. 図44は、本開示の実施形態例による、図3~図33及び図42の立体視覚化カメラの投影中心を決定する、プロセッサにより実行可能なルーチンを示すグラフを示す。FIG. 44 depicts a graph illustrating a routine executable by a processor for determining the projection center of the stereoscopic visualization cameras of FIGS. 3-33 and 42, according to example embodiments of the present disclosure. 図45は、本開示の実施形態例による、図3~図33の立体視覚化カメラの瞳孔間距離がいかに測定され較正されるかを示す光学概略の平面図を示す。FIG. 45 shows a plan view of an optical schematic illustrating how the interpupillary distance of the stereoscopic visualization cameras of FIGS. 3-33 is measured and calibrated, according to example embodiments of the present disclosure. 図46は、本開示の実施形態例による、図3~図33の立体視覚化カメラの光軸をいかに測定し較正し得るかを示す光学概略の平面図を示す。FIG. 46 depicts a top view of an optical schematic illustrating how the optical axis of the stereoscopic visualization cameras of FIGS. 3-33 may be measured and calibrated, according to example embodiments of the present disclosure. 図47は、本開示の実施形態例による、光学パラメータが十分に特徴付けられた較正済み立体視覚化カメラの図を示す。FIG. 47 shows a diagram of a calibrated stereoscopic visualization camera with well-characterized optical parameters, according to an example embodiment of the present disclosure. 図48は、本開示の実施形態例による、図5及び図33~図41のロボットアームを較正する手順又はルーチンの例を示す。FIG. 48 illustrates an example procedure or routine for calibrating the robotic arm of FIGS. 5 and 33-41, according to example embodiments of the present disclosure. 図49は、本開示の実施形態例による、立体視覚化カメラ及び/又はロボットアームがロボット空間に対していかに較正されるかを示す図を示す。FIG. 49 shows a diagram illustrating how a stereoscopic visualization camera and/or robot arm is calibrated to robot space, according to an example embodiment of the present disclosure. 図50は、本開示の実施形態例による、立体視覚化カメラ及び/又はロボットアームの移動を制限する水平及び垂直境界プランを示す図を示す。FIG. 50 depicts a diagram illustrating horizontal and vertical boundary plans to limit movement of a stereoscopic visualization camera and/or robot arm, according to an example embodiment of the disclosure. 図51は、本開示の実施形態例による、ロボットアームの回転ジョイント速度及び/又は結合板が境界までの距離に基づいていかにスケーリングされるかの一例を示す。FIG. 51 illustrates an example of how a rotating joint velocity of a robot arm and/or a coupling plate may be scaled based on distance to a boundary, according to example embodiments of the present disclosure. 図52は、本開示の実施形態例による、代替モダリティ視覚化からの画像を立体画像と融合する手順の一例の図を示す。FIG. 52 depicts an illustration of an example procedure for fusing images from alternative modality visualizations with stereoscopic images, according to example embodiments of the present disclosure. 図53は、本開示の実施形態例による、図3~図52の立体視覚化カメラ及び/又はロボットアームの組合せにより生成されるライブ断面融合視覚化を示す図を示す。FIG. 53 shows a diagram illustrating a live cross-sectional fusion visualization produced by the stereoscopic visualization camera and/or robotic arm combination of FIGS. 3-52, according to an example embodiment of the present disclosure. 図54は、本開示の実施形態例による、図3~図52の立体視覚化カメラ及び/又はロボットアームの組合せにより生成されるライブ断面融合視覚化を示す図を示す。FIG. 54 depicts a diagram illustrating a live cross-sectional fusion visualization produced by the stereoscopic visualization camera and/or robotic arm combination of FIGS. 3-52, according to an example embodiment of the present disclosure. 図55は、本開示の実施形態例による、図3~図52の立体視覚化カメラ及び/又はロボットアームの組合せにより生成されるライブ断面融合視覚化を示す図を示す。FIG. 55 shows a diagram illustrating a live cross-sectional fusion visualization produced by the stereoscopic visualization camera and/or robotic arm combination of FIGS. 3-52, according to an example embodiment of the present disclosure. 図56は、本開示の実施形態例による、図3~図52の立体視覚化カメラ及び/又はロボットアームの組合せにより生成されるライブ断面融合視覚化を示す図を示す。FIG. 56 shows a diagram illustrating a live cross-sectional fusion visualization produced by the stereoscopic visualization camera and/or robotic arm combination of FIGS. 3-52, according to an example embodiment of the present disclosure. 図57は、本開示の実施形態例による、図3~図52の立体視覚化カメラ及び/又はロボットアームの組合せにより生成されるライブ断面融合視覚化を示す図を示す。FIG. 57 shows a diagram illustrating a live cross-sectional fusion visualization produced by the stereoscopic visualization camera and/or robotic arm combination of FIGS. 3-52, according to an example embodiment of the present disclosure. 図58は、本開示の実施形態例による、図3~図52の立体視覚化カメラ及び/又はロボットアームの組合せにより生成されるライブ断面融合視覚化を示す図を示す。FIG. 58 depicts a diagram illustrating a live cross-sectional fusion visualization produced by the stereoscopic visualization camera and/or robotic arm combination of FIGS. 3-52, according to an example embodiment of the present disclosure. 図59は、本開示の実施形態例による、図3~図52の立体視覚化カメラ及び/又はロボットアームの組合せにより生成されるライブ断面融合視覚化を示す図を示す。FIG. 59 shows a diagram illustrating a live cross-sectional fusion visualization produced by the stereoscopic visualization camera and/or robotic arm combination of FIGS. 3-52, according to an example embodiment of the present disclosure. 図60は、本開示の実施形態例による、図3~図52の立体視覚化カメラ及び/又はロボットアームの組合せにより生成されるライブ断面融合視覚化を示す図を示す。FIG. 60 depicts a diagram illustrating a live cross-sectional fusion visualization produced by the stereoscopic visualization camera and/or robotic arm combination of FIGS. 3-52, according to example embodiments of the present disclosure. 図61は、本開示の実施形態例による、図3~図52の立体視覚化カメラ及び/又はロボットアームの組合せにより生成されるライブ断面融合視覚化を示す図を示す。FIG. 61 depicts a diagram illustrating a live cross-sectional fusion visualization produced by the stereoscopic visualization camera and/or robotic arm combination of FIGS. 3-52, according to example embodiments of the present disclosure. 図62は、本開示の実施形態例による、図3~図52の立体視覚化カメラの補助付き駆動を提供する手順を示す図を示す。FIG. 62 depicts a diagram illustrating a procedure for providing assisted driving of the stereoscopic visualization cameras of FIGS. 3-52, according to example embodiments of the present disclosure. 図63は、本開示の実施形態例による、入力デバイスを使用して図3~図52の視覚化カメラ例を移動させる手順の一例の図を示す。FIG. 63 depicts an illustration of an example procedure for moving the example visualization camera of FIGS. 3-52 using an input device, according to an example embodiment of the present disclosure. 図64は、本開示の実施形態例による、立体視覚化カメラの標的ロックを提供するアルゴリズム、ルーチン、又は手順を示す図を示す。FIG. 64 depicts a diagram illustrating an algorithm, routine, or procedure for providing target locking of a stereoscopic visualization camera, according to example embodiments of the present disclosure. 図65は、本開示の実施形態例による、図64の標的ロック特徴の仮想球を示す図を示す。FIG. 65 illustrates a diagram illustrating a virtual sphere of the target lock feature of FIG. 64, according to an example embodiment of the disclosure.

本開示は、一般には立体視覚化カメラ及びプラットフォームに関する。立体視覚化カメラはデジタル立体顕微鏡(「DSM」)と呼ばれることもある。一例のカメラ及びプラットフォームは、従来技術による顕微鏡(図1の外科用ルーペ100及び図2の外科用顕微鏡200等)よりもはるかに小型、軽量であり、操作しやすい自己充足型ヘッドユニットに顕微鏡光学要素及びビデオセンサを統合するように構成される。一例のカメラは、立体ビデオ信号を1つ又は複数のテレビジョンモニタ、プロジェクタ、ホログラフィックデバイス、スマートメガネ、仮想現実デバイス、又は外科環境内の他の視覚ディスプレイデバイスに送信するように構成される。 TECHNICAL FIELD This disclosure generally relates to stereoscopic visualization cameras and platforms. A stereoscopic visualization camera is sometimes referred to as a digital stereomicroscope (“DSM”). One example camera and platform is much smaller and lighter than prior art microscopes (such as surgical loupes 100 in FIG. 1 and surgical microscope 200 in FIG. 2), and the microscope optical components are housed in a self-contained head unit that is easy to operate. configured to integrate elements and video sensors. An example camera is configured to transmit stereoscopic video signals to one or more television monitors, projectors, holographic devices, smart glasses, virtual reality devices, or other visual display devices within the surgical environment.

モニタ又は他の視覚的ディスプレイデバイスは外科環境内に位置決めされて、患者に手術を行っている間、外科医の視線内に容易にあるようにし得る。この柔軟性により、外科医は、個人の好み又は習慣に基づいてディスプレイモニタを配置することができる。加えて、本明細書に開示される立体視覚化カメラの柔軟性及びスリムな外形は、患者の上方で消費されるエリアを低減する。完全に、立体視覚化カメラ及びモニタ(例えば、立体視覚化プラットフォーム)は、外科医及び外科チームが上述した外科用顕微鏡200と比較して、移動を決定付けられず又は制限されずに患者に対して複雑な顕微鏡手術処置を行えるようにする。それに従って一例の立体視覚化プラットフォームは、外科医の目の延長として動作して、外科医が、従来既知の視覚化システムによって引き起こされるストレス、制限、及び制約に対応せずに傑作の顕微鏡手術を行えるようにする。 A monitor or other visual display device may be positioned within the surgical environment so that it is easily within the surgeon's line of sight while performing surgery on a patient. This flexibility allows the surgeon to position the display monitor based on personal preference or habit. Additionally, the flexibility and slim profile of the stereoscopic visualization camera disclosed herein reduces the area consumed above the patient. In general, a stereoscopic visualization camera and monitor (e.g., a stereoscopic visualization platform) allows the surgeon and surgical team to move relative to the patient without being dictated or restricted compared to the surgical microscope 200 described above. Allowing complex microsurgical procedures to be performed. Accordingly, one example stereoscopic visualization platform operates as an extension of the surgeon's eye to enable the surgeon to perform microsurgical masterpieces without dealing with the stresses, limitations, and constraints posed by previously known visualization systems. Make it.

本明細書における開示は一般に、顕微鏡手術を参照する。一例の立体視覚化カメラは、例えば、頭蓋手術、脳外科手術、神経外科、脊髄手術、眼科手術、角膜移植、整形外科手術、耳、鼻、及び喉の手術、歯科手術、整形手術及び再建手術、又は一般的な手術を含め、略あらゆる顕微鏡手術処置に使用することができる。 The disclosure herein generally refers to microsurgery. An example stereoscopic visualization camera may be used for, for example, cranial surgery, neurosurgery, neurosurgery, spinal surgery, ophthalmology surgery, corneal transplantation, orthopedic surgery, ear, nose, and throat surgery, dental surgery, plastic surgery, and reconstructive surgery, or can be used for virtually any microsurgical procedure, including general surgery.

本開示は、標的部位、シーン、又は視野も参照する。本明細書で使用される場合、標的部位又は視野は、一例の立体視覚化カメラにより記録又は他の方法で撮像されている物体(又は物体の部分)を含む。一般に、標的部位、シーン、又は視野は、一例の立体視覚化カメラの主対物レンズ組立体から作業距離分、離れており、一例の立体視覚化カメラと位置合わせされる。標的部位は、患者の生体組織、骨、筋肉、皮膚、又はそれらの組合せを含み得る。これらの場合、標的部位は、患者の解剖学的構造の進行に対応する深度成分を有することにより三次元であり得る。標的部位は、一例の立体視覚化カメラの較正又は検証に使用される1つ又は複数のテンプレートを含むこともできる。テンプレートは、紙(又はプラスチックシート)上のグラフィック設計等の二次元又は特定の領域での患者の解剖学的構造の近似等の三次元であり得る。 This disclosure also refers to target sites, scenes, or fields of view. As used herein, a target region or field of view includes the object (or portion of an object) that is being recorded or otherwise imaged by an example stereoscopic visualization camera. Generally, the target region, scene, or field of view is a working distance away from and aligned with the example stereoscopic visualization camera's main objective lens assembly. The target site may include the patient's anatomy, bone, muscle, skin, or a combination thereof. In these cases, the target site may be three-dimensional by having a depth component that corresponds to the progression of the patient's anatomy. The target site can also include one or more templates used to calibrate or verify an example stereoscopic visualization camera. The template can be two-dimensional, such as a graphic design on paper (or a plastic sheet), or three-dimensional, such as an approximation of the patient's anatomy in specific areas.

全体を通して、x方向、y方向、z方向、及びチルト方向も参照される。z方向は、一例の立体視覚化カメラから標的部位への軸に沿い、一般に深度と呼ばれる。x方向及びy方向は、z方向に入射する平面にあり、標的部位の平面を構成する。x方向は、y方向の軸から90°の軸に沿う。x方向及び/又はy方向に沿った運動は、平面内運動と呼ばれ、一例の立体視覚化カメラの運動、一例の立体視覚化カメラ内の光学要素の運動、及び/又は標的部位の運動を指し得る。 Throughout, reference is also made to the x, y, z, and tilt directions. The z-direction is along the axis from one example stereoscopic visualization camera to the target site and is commonly referred to as depth. The x and y directions lie in a plane incident on the z direction and constitute the plane of the target site. The x-direction is along an axis 90° from the y-direction axis. Movement along the x-direction and/or y-direction is referred to as in-plane movement, and may include movement of an example stereoscopic visualization camera, movement of an optical element within an example stereoscopic visualization camera, and/or movement of a target region. It can be pointed out.

チルト方向は、x方向、y方向、及び/又はz方向に対してオイラー角(例えば、ヨー軸、ピッチ軸、及びロール軸)に沿った運動に対応する。例えば、完璧に位置合わせされたレンズは、x方向、y方向、及び/又はz方向に対して略0°を有する。換言すれば、レンズの面は、z方向に沿った光に対して90°、すなわち、直交する。加えて、レンズの縁部(レンズが矩形を有する場合)は、x方向及びy方向に沿って平行する。レンズ及び/又は光学画像センサは、ヨー運動、ピッチ運動、及び/又はルール運動を通してチルトすることができる。例えば、レンズ及び/又は光学画像センサは、z方向に対して、ピッチ軸に沿ってチルトして、上方又は下方に面し得る。z方向に沿った光は、非直角でレンズの面(上方又は下方にピッチされる)に接触する。ヨー軸、ピッチ軸、又はロール軸に沿ったレンズ及び/又は光学画像センサのチルトにより、例えば、焦点又はZRPを調整することができる。 A tilt direction corresponds to movement along Euler angles (eg, yaw, pitch, and roll axes) with respect to the x, y, and/or z directions. For example, a perfectly aligned lens has approximately 0° relative to the x, y, and/or z directions. In other words, the surface of the lens is 90° or perpendicular to the light along the z direction. Additionally, the edges of the lens (if the lens has a rectangular shape) are parallel along the x and y directions. The lens and/or optical image sensor may be tilted through yaw, pitch, and/or rule motion. For example, the lens and/or the optical image sensor may be tilted along the pitch axis relative to the z-direction to face upward or downward. Light along the z-direction contacts the surface of the lens (pitched upward or downward) at a non-orthogonal angle. By tilting the lens and/or the optical image sensor along the yaw, pitch, or roll axes, focus or ZRP can be adjusted, for example.

I.一例の立体視覚化カメラ
図3及び図4は、本開示の実施形態例による立体視覚化カメラ300の斜視図の図を示す。一例のカメラ300は、光学要素、レンズモータ(例えば、アクチュエータ)、及び信号処理回路を囲むように構成された筐体302を含む。カメラ300は、幅(x軸に沿う)15センチメートル(cm)~28cm、好ましくは約22cmを有する。加えて、カメラ300は、長さ(y軸に沿う)15cmから32cm、好ましくは約25cmを有する。さらに、カメラ300は、高さ(z軸に沿う)10cm~20cm、好ましくは約15cmを有する。カメラ300の重さは3kg~7kg、好ましくは約3.5kgである。
I. Example Stereo Visualization Camera FIGS. 3 and 4 illustrate illustrations of perspective views of a stereo visualization camera 300 according to example embodiments of the present disclosure. An example camera 300 includes a housing 302 configured to enclose optical elements, a lens motor (eg, an actuator), and signal processing circuitry. Camera 300 has a width (along the x-axis) of 15 centimeters (cm) to 28 cm, preferably about 22 cm. Additionally, camera 300 has a length (along the y-axis) of 15 cm to 32 cm, preferably about 25 cm. Furthermore, the camera 300 has a height (along the z-axis) of 10 cm to 20 cm, preferably about 15 cm. The camera 300 weighs between 3 kg and 7 kg, preferably about 3.5 kg.

カメラ300は制御アーム304a及び304b(例えば、操作ハンドル)も含み、制御アームは、倍率レベル、フォーカス、及び他の顕微鏡特徴を制御するように構成される。制御アーム304a及び304bは、特定の特徴をアクティブ化又は選択する各制御機構305a及び305bを含み得る。例えば、制御アーム304a及び304bは、蛍光モードを選択し、標的部位に投影される光の量/タイプを調整し、ディスプレイ出力信号(例えば、1080p又は4K及び/又は立体視の選択)を制御する制御機構305a及び305bを含み得る。加えて、制御機構305a及び/又は305bは、較正手順の開始及び/又は実行及び/又は立体視覚化カメラ300に接続されたロボットアームの移動に使用し得る。幾つかの場合、制御機構305a及び305bは同じボタン及び/又は特徴を含み得る。他の場合、制御機構305a及び305bは異なる特徴を含み得る。さらに、制御アーム304a及び304bは、オペレータが立体視覚化カメラ300を位置決めできるようにするグリップとして構成することもできる。 Camera 300 also includes control arms 304a and 304b (eg, operating handles) that are configured to control magnification level, focus, and other microscope features. Control arms 304a and 304b may include respective control mechanisms 305a and 305b that activate or select particular features. For example, control arms 304a and 304b select the fluorescence mode, adjust the amount/type of light projected onto the target area, and control display output signals (e.g., selection of 1080p or 4K and/or stereoscopic viewing). Control mechanisms 305a and 305b may be included. Additionally, control mechanism 305a and/or 305b may be used to initiate and/or perform a calibration procedure and/or move a robotic arm connected to stereoscopic visualization camera 300. In some cases, controls 305a and 305b may include the same buttons and/or features. In other cases, control mechanisms 305a and 305b may include different features. Further, control arms 304a and 304b can also be configured as grips that allow an operator to position stereoscopic visualization camera 300.

各制御アーム304は、図3に示されるように、回転可能な支柱306を介して筐体302に接続される。この接続により、制御アーム304は筐体302に対して回転することができる。この回転は、外科医が制御アーム304を所望のように配置する柔軟性を提供し、外科性能と同期する立体視覚化カメラ300の適応性を更に強化する。 Each control arm 304 is connected to the housing 302 via a rotatable post 306, as shown in FIG. This connection allows control arm 304 to rotate relative to housing 302. This rotation provides flexibility for the surgeon to position control arm 304 as desired, further enhancing the adaptability of stereoscopic visualization camera 300 in synchronization with surgical performance.

図3及び図4に示される一例のカメラ300は、2つの制御アーム304a及び304bを含むが、カメラ300が1つのみの制御アームを含んでもよく、又は制御アームを含まなくてもよいことを理解されたい。立体視覚化カメラ300が制御アームを含まない場合、制御機構は筐体302に統合し、及び/又は遠隔制御機構を介して提供し得る。 Although the example camera 300 shown in FIGS. 3 and 4 includes two control arms 304a and 304b, it is understood that the camera 300 may include only one control arm or no control arms. I want to be understood. If stereoscopic visualization camera 300 does not include a control arm, a control mechanism may be integrated into housing 302 and/or provided via a remote control mechanism.

図4は、本開示の実施形態例による立体視覚化カメラ300の後ろ側の下から上への斜視図を示す。立体視覚化カメラ300は、支持体に接続するように構成された取り付けブラケット402を含む。図5及び図6においてより詳細に説明するように、支持体は、大きな可操作性を提供する1つ又は複数のジョイントを有するアームを含み得る。アームは、可動カートに接続してもよく、又は壁若しくは天井に固定してもよい。 FIG. 4 shows a bottom-to-top perspective view of the rear side of a stereoscopic visualization camera 300 according to an example embodiment of the present disclosure. Stereo visualization camera 300 includes a mounting bracket 402 configured to connect to a support. As explained in more detail in FIGS. 5 and 6, the support may include an arm with one or more joints that provide great maneuverability. The arm may be connected to a movable cart or fixed to a wall or ceiling.

立体視覚化カメラ300は、電力アダプタを受けるように構成された電力ポート404も含む。電力は、ACコンセント及び/又はカートの電池から受け取り得る。幾つかの場合、立体視覚化カメラ300は、内部電池を含み、コードなしの動作を促進し得る。これらの場合、電力ポート404は、電池の充電に使用し得る。代替の実施形態では、電力ポート404は、立体視覚化カメラ300が支持体内のワイヤ(又は他の導電性配線材料)を介して電力を受け取るように取り付けブラケット402に統合し得る。 Stereo visualization camera 300 also includes a power port 404 configured to receive a power adapter. Power may be received from an AC outlet and/or the cart's battery. In some cases, stereoscopic visualization camera 300 may include an internal battery to facilitate cordless operation. In these cases, power port 404 may be used to charge the battery. In an alternative embodiment, power port 404 may be integrated into mounting bracket 402 such that stereoscopic visualization camera 300 receives power via wire (or other conductive wiring material) within the support.

図4は、立体視覚化カメラ300がデータポート406を含み得ることも示す。一例のデータポート406は、例えば、Ethernet(登録商標)インターフェース、高精細マルチメディアインターフェース(「HDMI(登録商標)」)インターフェース、ユニバーサルシリアルバス(「USB」)インターフェース、シリアルデジタルインターフェース(「SDI」)、デジタル光学インターフェース、RS-232シリアル通信インターフェース等を含む任意のタイプのポートを含み得る。データポート406は、立体視覚化カメラ300と、1つ又は複数の計算デバイス、サーバ、記録デバイス、及び/又はディスプレイデバイスに配線されたコードとの間に通信接続を提供するように構成される。通信接続は、更なる処理、記憶、及び/又は表示のために、立体ビデオ信号又は二次元ビデオ信号を送信し得る。データポート406は、制御信号を立体視覚化カメラ300に送信できるようにもし得る。例えば、接続されたコンピュータ(例えば、ラップトップコンピュータ、デスクトップコンピュータ、及び/又はタブレットコンピュータ)におけるオペレータは、操作の指示、較正の実行、又は出力ディスプレイ設定の変更を行う制御信号を立体視覚化カメラ300に送信し得る。 FIG. 4 also shows that stereoscopic visualization camera 300 may include a data port 406. Example data ports 406 include, for example, an Ethernet interface, a high-definition multimedia interface ("HDMI") interface, a universal serial bus ("USB") interface, a serial digital interface ("SDI"), etc. , digital optical interfaces, RS-232 serial communication interfaces, and the like. Data port 406 is configured to provide a communication connection between stereoscopic visualization camera 300 and a cord wired to one or more computing devices, servers, recording devices, and/or display devices. The communication connection may transmit stereoscopic or two-dimensional video signals for further processing, storage, and/or display. Data port 406 may also enable control signals to be sent to stereoscopic visualization camera 300. For example, an operator at a connected computer (e.g., a laptop computer, a desktop computer, and/or a tablet computer) can send control signals to the stereoscopic visualization camera 300 to direct operations, perform calibrations, or change output display settings. can be sent to.

幾つかの実施形態では、データポート406は、無線インターフェースと置換(及び/又は無線インターフェースで補足)し得る。例えば、立体視覚化カメラ300は、Wi-Fiを介して立体ディスプレイ信号を1つ又は複数のディスプレイデバイスに送信し得る。内部電池と組み合わせた無線インターフェースの使用により、立体視覚化カメラ300をワイヤフリーにすることができ、それにより、外科環境内の可操作性を更に改善する。 In some embodiments, data port 406 may replace (and/or supplement) a wireless interface. For example, stereoscopic visualization camera 300 may transmit stereoscopic display signals to one or more display devices via Wi-Fi. The use of a wireless interface in combination with an internal battery allows the stereoscopic visualization camera 300 to be wire-free, thereby further improving maneuverability within the surgical environment.

図4に示される立体視覚化カメラ300は、主対物レンズ組立体の前部作業距離主対物レンズ408も含む。一例のレンズ408は、立体視覚化カメラ300内の光路の開始部にある。立体視覚化カメラ300内部の光源からの光は、レンズ408を通して標的部位に送られる。さらに、標的部位から反射された光は、レンズ408で受け取られ、下流の光学要素に渡される。 The stereoscopic visualization camera 300 shown in FIG. 4 also includes a front working distance main objective 408 of the main objective lens assembly. An example lens 408 is at the beginning of the optical path within stereoscopic visualization camera 300. Light from a light source within stereoscopic visualization camera 300 is directed through lens 408 to the target site. Additionally, light reflected from the target site is received by lens 408 and passed to downstream optical elements.

II.立体視覚化カメラの例示的な可操作性
図5及び図6は、本開示の実施形態例による、顕微鏡手術環境500内で使用される立体視覚化カメラ300の図を示す。示されるように、立体視覚化カメラ300の小さなフットプリント及び可操作性は(特に多度自由度アームと併せて使用される場合)、患者502に対する柔軟な位置決めを可能にする。立体視覚化カメラ300の図中の患者502の一部は、標的部位503を含む。外科医504は、患者502(仰臥位で横たわっている)の上方に十分過ぎるほどの手術空間を残しながら、立体視覚化カメラ300を略あらゆる向きで位置決めすることができる。それに従って立体視覚化カメラ300は最小の侵襲性で(又は非侵襲的に)外科医504が妨害又は邪魔なしで人生を変える顕微鏡手術処置を行えるようにする。
II. Exemplary Operability of a Stereo Visualization Camera FIGS. 5 and 6 show diagrams of a stereo visualization camera 300 used within a microsurgical environment 500, according to example embodiments of the present disclosure. As shown, the small footprint and maneuverability of the stereoscopic visualization camera 300 (especially when used in conjunction with a multi-degree-of-freedom arm) allows for flexible positioning relative to the patient 502. The portion of patient 502 in the view of stereoscopic visualization camera 300 includes target region 503 . The surgeon 504 can position the stereoscopic visualization camera 300 in nearly any orientation while leaving more than enough surgical space above the patient 502 (lying supine). Accordingly, the stereoscopic visualization camera 300 minimally invasively (or non-invasively) enables the surgeon 504 to perform life-changing microsurgical procedures without interference or obstruction.

図5では、立体視覚化カメラ300は、取り付けブラケット402を介して機械アーム506に接続される。アーム506は、電子機械ブレーキを有する1つ又は複数の回転又は延長可能なジョイントを含み、立体視覚化カメラ300の容易な再位置決めを促進し得る。立体視覚化カメラ300を動かすために、外科医504又はアシスタント508は、アーム506の1つ又は複数のジョイントのブレーキ解放を作動させる。立体視覚化カメラ300が所望の位置に動かした後、ブレーキを係合させて、アーム506のジョイントを所定位置にロックし得る。 In FIG. 5, stereoscopic visualization camera 300 is connected to mechanical arm 506 via mounting bracket 402. Arm 506 may include one or more rotatable or extendable joints with electromechanical brakes to facilitate easy repositioning of stereoscopic visualization camera 300. To move stereoscopic visualization camera 300, surgeon 504 or assistant 508 activates a brake release on one or more joints of arm 506. After the stereoscopic visualization camera 300 is moved to the desired position, a brake may be engaged to lock the joint of the arm 506 in place.

立体視覚化カメラ300の大きな特徴は、接眼レンズを含まないことである。これは、立体視覚化カメラ300を外科医504の目と位置合わせする必要がないことを意味する。この自由により、従来既知の外科用顕微鏡では実際的又は可能ではなかった所望の位置に立体視覚化カメラ300を位置決め方向付けることができる。換言すれば、外科医504は、外科用顕微鏡の接眼レンズにより決められる単に適切なビューに制限されるのではなく、処置を行うのに最適なビューを用いて顕微鏡手術を行うことができる。 A major feature of the stereoscopic visualization camera 300 is that it does not include an eyepiece. This means that there is no need to align the stereoscopic visualization camera 300 with the surgeon's 504 eyes. This freedom allows the stereoscopic visualization camera 300 to be positioned and oriented in a desired position that was not practical or possible with previously known surgical microscopes. In other words, the surgeon 504 can perform microsurgery using the optimal view to perform the procedure, rather than being limited to just the appropriate view determined by the eyepiece of the surgical microscope.

図5に戻ると、立体視覚化カメラ300は、機械アーム506を介して、ディスプレイモニタ512及び514を有するカート510(集合的に立体視覚化プラットフォーム又は立体ロボットプラットフォーム516)に接続される。図示の構成では、立体視覚化プラットフォーム516は自己充足型であり、手術室間を含め、顕微鏡手術環境500内の任意の所望のロケーションに移動し得る。統合プラットフォーム516は、ディスプレイモニタ512及び514を接続することによりシステムを構成する必要な時間なしで、立体視覚化カメラ300を需要に応じて移動及び使用できるようにする。 Returning to FIG. 5, the stereoscopic visualization camera 300 is connected via a mechanical arm 506 to a cart 510 (collectively a stereoscopic visualization platform or a stereoscopic robotic platform 516) having display monitors 512 and 514. In the illustrated configuration, stereoscopic visualization platform 516 is self-contained and may be moved to any desired location within microsurgical environment 500, including between operating rooms. The integration platform 516 allows the stereoscopic visualization camera 300 to be moved and used on demand without the necessary time to configure the system by connecting display monitors 512 and 514.

ディスプレイモニタ512及び514は、高精細テレビジョン、超高精細テレビジョン、スマートメガネ、プロジェクタ、1つ又は複数のコンピュータ画面、ラップトップコンピュータ、タブレットコンピュータ、及び/又はスマートフォンを含む任意のタイプのディスプレイを含み得る。ディスプレイモニタ512及び514は、立体視覚化カメラ300と同様に、機械アームに接続されて、柔軟な位置決めを可能にし得る。幾つかの場合、ディスプレイモニタ512及び514はタッチスクリーンを含み得、オペレータが立体視覚化カメラ300にコマンドを送信し、及び/又はディスプレイの設定を調整できるようにする。 Display monitors 512 and 514 can include any type of display, including high-definition televisions, ultra-high-definition televisions, smart glasses, projectors, one or more computer screens, laptop computers, tablet computers, and/or smartphones. may be included. Display monitors 512 and 514, like stereoscopic visualization camera 300, may be connected to a mechanical arm to allow flexible positioning. In some cases, display monitors 512 and 514 may include touch screens to allow an operator to send commands to stereoscopic visualization camera 300 and/or adjust display settings.

幾つかの実施形態では、カート516はコンピュータ520を含み得る。これらの実施形態では、コンピュータ520は、立体視覚化カメラ300に接続されたロボット機械アームを制御し得る。追加又は代替として、コンピュータ520は、ディスプレイモニタ512及び514に表示するために、立体視覚化カメラ300からのビデオ(又は立体ビデオ)信号(例えば、画像ストリーム又はフレームストリーム)を処理し得る。例えば、コンピュータ520は、立体視覚化カメラ300からの左ビデオ信号及び右ビデオ信号を結合又はインターリーブして、標的部位の立体画像を表示する立体信号を作成し得る。コンピュータ520はまた、ビデオ信号及び/又は立体ビデオ信号をビデオファイルに記憶する(メモリに記憶される)のに使用することもでき、それにより、外科医の施術を文書化し、再生することができる。さらに、コンピュータ520は、設定を選択及び/又は較正を実行する制御信号を立体視覚化カメラ300に送信することもできる。 In some embodiments, cart 516 may include computer 520. In these embodiments, computer 520 may control a robotic mechanical arm connected to stereoscopic visualization camera 300. Additionally or alternatively, computer 520 may process video (or stereoscopic video) signals (eg, image streams or frame streams) from stereoscopic visualization camera 300 for display on display monitors 512 and 514. For example, computer 520 may combine or interleave the left and right video signals from stereoscopic visualization camera 300 to create a stereoscopic signal that displays a stereoscopic image of the target site. Computer 520 can also be used to store video signals and/or stereoscopic video signals in video files (stored in memory) so that the surgeon's procedures can be documented and played back. Additionally, computer 520 can also send control signals to stereoscopic visualization camera 300 to select settings and/or perform calibrations.

幾つかの実施形態では、図5の顕微鏡手術環境500は眼科手術処置を含む。この実施形態では、機械アーム506は患者の目の周回掃引を実行するようにプログラムし得る。そのような掃引により、外科医は、硝子体網膜処置中、周辺部網膜を調べることができる。これとは対照的に、従来の光学顕微鏡を用いる場合、外科医が周辺部網膜を見ることができる唯一の方法は、強膜圧迫法として知られる技法を用いて目の横を視野内に押すことである。 In some embodiments, the microsurgical environment 500 of FIG. 5 includes an ophthalmic surgical procedure. In this embodiment, mechanical arm 506 may be programmed to perform a circumferential sweep of the patient's eye. Such a sweep allows the surgeon to examine the peripheral retina during vitreoretinal procedures. In contrast, when using a traditional light microscope, the only way a surgeon can see the peripheral retina is by pushing the side of the eye into the field of view using a technique known as scleral compression. It is.

図6は、後方到達法頭蓋底神経外科手術のために患者502が着座位置にある顕微鏡手術環境500の図を示す。図示の実施形態では、立体視覚化カメラ300は、患者502の後頭部に面するように水平位置に配置される。機械アーム506は、立体視覚化カメラ300を示されるように位置決めできるようにするジョイントを含む。加えて、カート510はモニタ512を含み、モニタ512は外科医の自然な閲覧方向と位置合わせし得る。 FIG. 6 shows a diagram of a microsurgical environment 500 with a patient 502 in a seated position for posterior access skull base neurosurgery. In the illustrated embodiment, stereoscopic visualization camera 300 is placed in a horizontal position facing the back of the patient's 502 head. Mechanical arm 506 includes a joint that allows stereoscopic visualization camera 300 to be positioned as shown. Additionally, cart 510 includes a monitor 512 that may be aligned with the surgeon's natural viewing direction.

接眼レンズがないことにより、立体視覚化カメラ300を水平に、外科医504の目の高さのビューよりも低く位置決めすることができる。さらに、比較的軽量であり、柔軟性があることにより、他の既知の外科用顕微鏡では想像できないように立体視覚化カメラ300を位置決めすることができる。それにより、立体視覚化カメラ300は、任意の所望の位置及び/又は向きの患者502及び/又は外科医504に顕微鏡手術ビューを提供する。 The lack of an eyepiece allows the stereoscopic visualization camera 300 to be positioned horizontally and below the surgeon's 504 eye level view. Additionally, the relative light weight and flexibility allows the stereoscopic visualization camera 300 to be positioned in ways unimaginable with other known surgical microscopes. The stereoscopic visualization camera 300 thereby provides a microsurgical view to the patient 502 and/or surgeon 504 in any desired position and/or orientation.

図5及び図6は、立体視覚化カメラ300を位置決めする2つの実施形態例を示すが、立体視覚化カメラ300が、機械アーム506の自由度の数に応じて任意の数の位置に位置決め可能なことを理解されたい。幾つかの実施形態では、上に面する(例えば、逆さまになる)ように立体視覚化カメラ300を位置決めすることが完全に可能である。 Although FIGS. 5 and 6 illustrate two example embodiments of positioning the stereoscopic visualization camera 300, the stereoscopic visualization camera 300 can be positioned in any number of positions depending on the number of degrees of freedom of the mechanical arm 506. I want you to understand that. In some embodiments, it is entirely possible to position the stereoscopic visualization camera 300 so that it is facing upwards (eg, upside down).

III.既知の外科用顕微鏡との一例の立体視覚化プラットフォームの比較
図3から図6の立体視覚化カメラ300を図2の外科用顕微鏡200と比較すると、違いは容易に明らかである。外科用顕微鏡への接眼レンズ206の包含により、外科医は常に目を、スコープヘッド201及び患者に対して一定位置にある接眼レンズに向ける必要がある。さらに、外科用顕微鏡の嵩張り及び重量により、外科用顕微鏡は患者に対して概して垂直の向きでしか位置決めすることができない。これとは対照的に、一例の立体視覚化カメラ300は、接眼レンズを含まず、患者に対して任意の向き又は位置に位置決めすることができ、それにより、術中、外科医は自由に移動することができる。
III. Comparison of an Example Stereo Visualization Platform with Known Surgical Microscopes When comparing the stereo visualization camera 300 of FIGS. 3-6 with the surgical microscope 200 of FIG. 2, the differences are readily apparent. The inclusion of the eyepiece 206 in the surgical microscope requires the surgeon to always direct his eyes toward the eyepiece in a fixed position relative to the scope head 201 and the patient. Additionally, the bulk and weight of surgical microscopes allows them to be positioned only in a generally perpendicular orientation relative to the patient. In contrast, the example stereoscopic visualization camera 300 does not include an eyepiece and can be positioned in any orientation or position relative to the patient, allowing the surgeon to move freely during the procedure. I can do it.

他の臨床スタッフが顕微鏡手術標的部位を見られるようにするためには、外科用顕微鏡200では第2の接眼レンズ208を追加する必要がある。一般に、最も既知の外科用顕微鏡200では、第3の接眼レンズを追加することができない。これとは対照的に、一例の立体視覚化カメラ300は、無制限数のディスプレイモニタに通信可能に結合することができる。図5及び図6は先に、カート510に接続されたディスプレイモニタ512及び514を示したが、手術室は、立体視覚化カメラ300によって記録された顕微鏡手術ビューを全て示すディスプレイモニタで囲むことができる。したがって、ビューを1人又は2人に制限する(又は接眼レンズの共有を必要とする)代わりに、外科チーム全体が標的術部の拡大ビューを見ることができる。さらに、訓練室及び観察室等の他の部屋内の人々に、外科医に表示されたものと同じ拡大ビューを提示することができる。 To allow other clinical staff to view the microsurgical target area, surgical microscope 200 requires the addition of a second eyepiece 208. Generally, most known surgical microscopes 200 do not allow the addition of a third eyepiece. In contrast, the example stereoscopic visualization camera 300 can be communicatively coupled to an unlimited number of display monitors. Although FIGS. 5 and 6 previously showed display monitors 512 and 514 connected to cart 510, the operating room may be surrounded by display monitors showing all microsurgical views recorded by stereoscopic visualization camera 300. can. Thus, instead of limiting the view to one or two people (or requiring sharing of eyepieces), the entire surgical team can see a magnified view of the target surgical site. Additionally, people in other rooms, such as training rooms and observation rooms, can be presented with the same magnified view that is displayed to the surgeon.

立体視覚化カメラ300と比較して、2接眼レンズ外科用顕微鏡200は、衝突又は非意図的な移動をより受けやすい。術中、外科医は、接眼レンズを通して見るために、頭を接眼レンズ206及び208上に配置するため、スコープヘッド201は一定の力及び周期的な衝突を受ける。第2の接眼レンズ208の追加は、第2の角度からの力を倍にする。一緒に、外科医による一定の力及び定期的な衝突は、スコープヘッド201を動かし得、それにより、スコープヘッド201の再位置決めが必要になる。この再位置決めは、外科処置を遅延させ、外科医を不快にさせる。 Compared to the stereoscopic visualization camera 300, the two-eyepiece surgical microscope 200 is more susceptible to collisions or unintentional movement. During surgery, the scope head 201 is subjected to constant forces and periodic collisions as the surgeon positions his head over the eyepieces 206 and 208 in order to view through the eyepieces. The addition of the second eyepiece 208 doubles the power from the second angle. Together, constant force and periodic bumps by the surgeon can move scope head 201, thereby requiring repositioning of scope head 201. This repositioning delays the surgical procedure and makes the surgeon uncomfortable.

一例の立体視覚化カメラ300は、接眼レンズを含まず、所定位置にロックされると、外科医からの接触を受け取る意図はない。これは、外科医の施術中、立体視覚化カメラ300が非意図的に動く又は衝突する可能性の大幅な低下に対応する。 The example stereoscopic visualization camera 300 does not include an eyepiece and is not intended to receive contact from the surgeon once locked in place. This corresponds to a significant reduction in the possibility that the stereoscopic visualization camera 300 will move or collide unintentionally during the surgeon's procedure.

第2の接眼レンズ208を促進するために、外科医用顕微鏡200は、ビームスプリッタ210を装備する必要があり、ビームスプリッタ210は、精密金属管内に収容されたガラスレンズ及びミラーを含み得る。ビームスプリッタ210の使用は第1の接眼レンズで受け取る光を低減させ、その理由は、光の幾らかが第2の接眼レンズ208に反射されるためである。さらに、第2の接眼レンズ208及びビームスプリッタ210の追加は、スコープヘッド201の重量及び嵩張りを増大させる。 To facilitate the second eyepiece 208, the surgical microscope 200 must be equipped with a beam splitter 210, which may include a glass lens and mirror housed within a precision metal tube. The use of beam splitter 210 reduces the light received by the first eyepiece because some of the light is reflected to the second eyepiece 208. Additionally, the addition of second eyepiece 208 and beam splitter 210 increases the weight and bulk of scope head 201.

外科用顕微鏡200とは対照的に、立体視覚化カメラ300は、センサの光路のみを含み、それにより、重量及び嵩張りを低減する。加えて、光の一部をリダイレクトするビームスプリッタが必要ないため、光学センサは入射光全てを受け取る。これは、一例の立体視覚化カメラ300の光学センサによって受信される画像が、可能な限り明るくクリアであることを意味する。 In contrast to surgical microscope 200, stereoscopic visualization camera 300 includes only a sensor optical path, thereby reducing weight and bulk. In addition, there is no need for a beam splitter to redirect some of the light, so the optical sensor receives all of the incident light. This means that the images received by the optical sensors of the example stereoscopic visualization camera 300 are as bright and clear as possible.

外科用顕微鏡の幾つかのモデルは、ビデオカメラを取り付けることができ得る。例えば、図2の外科用顕微鏡200は、ビームスプリッタ214を介して光路に接続された平面視ビデオカメラ212を含む。ビデオカメラ212は、Leica(登録商標)TrueVision(登録商標)3D視覚化システム眼科カメラ等の平面視又は立体視であり得る。ビデオカメラ212は、ディスプレイモニタに表示するためにビームスプリッタ214から受信した画像を記録する。ビデオカメラ212及びビームスプリッタ214の追加は、スコープヘッド201の重量を更に追加する。加えて、ビームスプリッタ214は、接眼レンズ206及び/又は208に向かう追加の光を消費する。 Some models of surgical microscopes may be able to be fitted with a video camera. For example, the surgical microscope 200 of FIG. 2 includes a planar viewing video camera 212 connected to the optical path via a beam splitter 214. Video camera 212 may be monoscopic or stereoscopic, such as a Leica® TrueVision® 3D Visualization System Ophthalmic Camera. Video camera 212 records images received from beam splitter 214 for display on a display monitor. The addition of video camera 212 and beam splitter 214 further adds weight to scope head 201. In addition, beam splitter 214 consumes additional light directed to eyepiece 206 and/or 208.

各ビームスプリッタ210及び214は、入射光を部分的に3つの経路に分割し、光を外科医のビューから除去する。外科医の目は、外科医に提示された術部からの光が、外科医が処置を行うことができるようにするのに十分でなければならないような、限られた低光感度を有する。しかしながら、外科医は、特に眼科処置では、患者の標的部位に適用される光の強度を上げることが常に可能であるわけではない。患者の目は限られた高光感度を有し、それを超えると光毒性が生じる。したがって、ビームスプリッタの数並びに割合及び補助デバイス208及び212を使用できるようにするために第1の接眼レンズ206から分割することができる光の量には制限がある。 Each beam splitter 210 and 214 partially splits the incoming light into three paths and removes the light from the surgeon's view. The surgeon's eye has limited low light sensitivity such that the light from the surgical site presented to the surgeon must be sufficient to enable the surgeon to perform the procedure. However, surgeons are not always able to increase the intensity of the light applied to the target area of the patient, especially in ophthalmic procedures. The patient's eyes have a limited high light sensitivity, beyond which phototoxicity occurs. Therefore, there are limits to the number and proportion of beam splitters and the amount of light that can be split from the first eyepiece 206 to enable use of the auxiliary devices 208 and 212.

図3から図6の一例の立体視覚化カメラ300はビームスプリッタを含まず、それにより、光学撮像センサは、主対物レンズ組立体からの全量の光を受け取る。これにより、事後処理によりモニタでの表示に十分明るく可視(及び調整可能)にすることができるため、低光感度を有するセンサ、さらには使用する可視光の波長外の感度を有する光学センサの使用が可能になる。 The example stereoscopic visualization camera 300 of FIGS. 3-6 does not include a beam splitter so that the optical imaging sensor receives all of the light from the main objective lens assembly. This allows the use of sensors with low light sensitivity, or even optical sensors with sensitivities outside the wavelengths of visible light used, since post-processing can make them bright enough to be visible (and tunable) for display on a monitor. becomes possible.

さらに、光路を画定する光学要素は、立体視覚化カメラ300それ自体内に含まれるため、カメラを通して制御することができる。この制御により、光学要素の配置及び調整を顕微鏡接眼レンズではなく三次元立体表示に向けて最適化することができる。カメラのこの構成により、制御をカメラ制御機構から又はリモートコンピュータから電子的に提供することができる。加えて、制御は、ズームしながらフォーカスを維持するように、又は光学欠陥及び/又は疑似視差に関して調整するように、光学要素を調整するように構成された、カメラ300に搭載される1つ又は複数のプログラムを通して自動的に提供することができる。これとは対照的に、外科用顕微鏡200の光学要素は、ビデオカメラ212の外部にあり、一般に接眼レンズ206を通した標的部位の閲覧に向けて最適化されたオペレータ入力を介してのみ制御される。 Furthermore, the optical elements that define the optical path are contained within the stereoscopic visualization camera 300 itself and thus can be controlled through the camera. This control allows the placement and adjustment of optical elements to be optimized for a three-dimensional stereoscopic display rather than a microscope eyepiece. This configuration of the camera allows control to be provided electronically from the camera control mechanism or from a remote computer. In addition, the control may include one or more controls mounted on camera 300 configured to adjust the optical elements to maintain focus while zooming or to adjust for optical defects and/or pseudo-parallax. Can be delivered automatically through multiple programs. In contrast, the optical elements of surgical microscope 200 are external to video camera 212 and are typically controlled only via operator input, which is optimized for viewing the target site through eyepiece 206. Ru.

最後の比較では、外科用顕微鏡200は、視野又は標的部位を動かすX-Yパンデバイス220を含む。X-Yパンデバイス220は、外科用スコープヘッド201をしっかりと支持し移動させなければならないため、通常、大きく、重く、高価な電子機械モジュールである。加えて、スコープヘッド201を移動させると、接眼レンズ206の新しい位置に外科医の位置が変わる。 In a final comparison, surgical microscope 200 includes an XY panning device 220 that moves the field of view or target area. The XY pan device 220 is typically a large, heavy, and expensive electromechanical module because it must firmly support and move the surgical scope head 201. Additionally, moving scope head 201 repositions the surgeon to a new position of eyepiece 206.

これとは対照的に、一例の立体視覚化カメラ300は、実行されると、プロセッサに、広いピクセルグリッドにわたりX-Yパンを可能にする光学センサのピクセルデータを選択あっせる命令を含むメモリを含む。加えて、一例の立体視覚化カメラ300は、主対物レンズ光学要素を制御して、カメラ300を移動させずに標的部位までの作業距離を偏向する小型のモータ又はアクチュエータを含み得る。 In contrast, one example stereoscopic visualization camera 300 includes memory containing instructions that, when executed, cause a processor to selectively coordinate pixel data of an optical sensor to enable X-Y panning over a wide pixel grid. include. Additionally, an example stereoscopic visualization camera 300 may include a small motor or actuator that controls the main objective lens optics to deflect the working distance to the target site without moving the camera 300.

IV.立体視覚化カメラの一例の光学要素
図7及び図8は、本開示の実施形態例による、図3から図6の一例の立体視覚化カメラ300内の光学要素を示す図を示す。立体画像を構築するために、標的部位の左ビュー及び右ビューを取得することは比較的簡単に見え得る。しかしながら、入念な設計及び補償なしでは、多くの立体画像は左ビューと右ビューとの間の位置合わせ問題を有する。長時間にわたり見られる場合、位置合わせ問題は、左ビューと右ビューとの違いの結果として観察者の脳に混乱を生み出す恐れがある。この混乱は、頭痛、疲労、目眩、更には吐き気を生じさせる恐れがある。
IV. Optical Elements of an Example Stereo Visualization Camera FIGS. 7 and 8 illustrate diagrams illustrating optical elements within an example stereo visualization camera 300 of FIGS. 3-6, according to example embodiments of the present disclosure. It may seem relatively simple to obtain left and right views of the target site in order to construct a stereoscopic image. However, without careful design and compensation, many stereoscopic images have registration problems between left and right views. When viewed over long periods of time, alignment problems can create confusion in the observer's brain as a result of the difference between the left and right views. This confusion can cause headaches, fatigue, dizziness, and even nausea.

一例の立体視覚化カメラ300は、他の左及び右光学要素が共通キャリアに固定されている間、幾つかの光学要素の独立した制御及び/又は調整を用いる右光路及び左光路を有することにより、位置合わせ問題を低減する(又はなくす)。実施形態例では、幾つかの左及び右ズームレンズは共通キャリアに固定して、左倍率及び右倍率が略同じであることを保証し得る。しかしながら、前部レンズ又は後部レンズは独立して、半径方向、回転、軸方向で調整可能であり、及び/又はチルトして、ズーム反復点の移動等のズーム浴び率の小さな差、視覚的欠陥、及び/又は疑似視差を補償し得る。調整可能なレンズにより提供される補償は、全ズーム倍率範囲を通して略完全に位置合わせされた光路を生じさせる。 An example stereoscopic visualization camera 300 is constructed by having a right optical path and a left optical path with independent control and/or adjustment of some optical elements while other left and right optical elements are fixed to a common carrier. , reduce (or eliminate) alignment problems. In example embodiments, several left and right zoom lenses may be fixed to a common carrier to ensure that the left and right magnifications are approximately the same. However, the front lens or the rear lens can be independently adjusted radially, rotationally, axially, and/or tilted, resulting in small differences in zoom exposure, such as movement of the zoom repetition point, and visual defects. , and/or compensate for pseudo parallax. The compensation provided by the adjustable lens results in a substantially perfectly aligned optical path throughout the entire zoom magnification range.

追加又は代替として、位置合わせ問題は、ピクセル読み出し及び/又はレンダリング技法を用いて低減し得る(又はなくし得る)。例えば、右画像(右光学センサにより記録される)は、左画像(左光学センサにより記録される)に対して上方又は下方に調整されて、画像間の垂直位置合わせずれを補正し得る。同様に、右画像も左画像に対して左又は右に調整されて、画像間の水平位置合わせずれを補正し得る。 Additionally or alternatively, alignment issues may be reduced (or eliminated) using pixel readout and/or rendering techniques. For example, the right image (recorded by the right optical sensor) may be adjusted upward or downward relative to the left image (recorded by the left optical sensor) to correct for vertical misalignment between the images. Similarly, the right image may also be adjusted to the left or right relative to the left image to correct for horizontal misalignment between the images.

図7及び図8は、アーチファクト、疑似視差、及び歪みが略ない、位置合わせされた光路を提供する光学要素の一例の構成及び位置を以下に示す。後述するように、特定の光学要素は、較正及び/又は使用中に移動して、光路を更に位置合わせし、いかなる残留ひずみ、疑似視差、及び/又は欠陥も除去し得る。図示の実施形態では、光学要素は2つの並行路に位置決めされて、左ビュー及び右ビューを生成する。代替の実施形態は、折り畳まれ、偏向され、又は他の方法で平行ではない光路を含み得る。 7 and 8 below illustrate an example configuration and position of optical elements that provide aligned optical paths that are substantially free of artifacts, pseudo-parallax, and distortion. As discussed below, certain optical elements may be moved during calibration and/or use to further align the optical path and eliminate any residual distortion, spurious parallax, and/or defects. In the illustrated embodiment, the optical elements are positioned in two parallel paths to produce a left view and a right view. Alternative embodiments may include optical paths that are folded, deflected, or otherwise non-parallel.

図示の経路は、立体視ディスプレイに表示された左ビュー及び右ビューが、約4フィート(約1.2m)先にある物体を見ている成人である人間の目の集束角と同様である概ね6度の集束角を生み出す距離だけ隔てられるように見えるような人間の視覚系に対応し、それにより、立体視を生み出す。幾つかの実施形態では、左ビュー及び右ビューから生成される画像データは、ディスプレイモニタ512及び514で一緒に結合されて、標的部位又は標的シーンの立体画像を生成する。代替の実施形態は、左ビューが閲覧者の左目のみに提示され、対応する右ビューが右目のみに提示される他の立体ディスプレイを備える。適切な位置合わせ及び較正の調整及び検証に使用される例示的な実施形態では、両ビューとも両目に重ねて表示される。 The path shown is approximately such that the left and right views displayed on a stereoscopic display are similar to the convergence angle of an adult human eye viewing an object approximately 4 feet away. Corresponds to the human visual system which appears to be separated by a distance that produces a convergence angle of 6 degrees, thereby producing stereopsis. In some embodiments, image data generated from the left and right views are combined together at display monitors 512 and 514 to generate a stereoscopic image of the target site or scene. Alternative embodiments include other stereoscopic displays in which the left view is presented only to the viewer's left eye and the corresponding right view is presented only to the right eye. In an exemplary embodiment used to adjust and verify proper alignment and calibration, both views are displayed superimposed on both eyes.

立体ビューは、人間の視覚系をより密に模倣するため、平面ビューよりも優れている。立体ビューは、奥行き知覚、距離知覚、及び相対サイズ知覚を提供して、標的術部のよりリアルなビューを外科医に提供する。網膜手術等の処置では、外科的な運動及び力はあまりに小さく、外科医はそれらを感じることができないため、立体ビューは不可欠である。立体ビューの提供は、脳が奥行きを知覚しながら些少な運動を検知する場合、外科医の脳が触覚を拡大させるのに役立つ。 Stereo views are better than flat views because they more closely mimic the human visual system. The stereoscopic view provides depth perception, distance perception, and relative size perception to provide the surgeon with a more realistic view of the target surgical site. In procedures such as retinal surgery, stereoscopic views are essential because surgical movements and forces are too small for the surgeon to feel. Providing a stereoscopic view helps the surgeon's brain magnify the sense of touch when the brain detects small movements while perceiving depth.

図7は、透明であり、光学要素を露出させる筐体302を有する一例の立体視覚化カメラ300の側面図を示す。図8は、図7に示される光学要素により提供された光路を示す図を示す。図8に示されるように、光路は右光路及び左光路を含む。図8における光路は、前方向に面し、立体視覚化カメラ300を見下ろす視点から示される。この図から、左光路は図8の右側に見え、一方、右光路は左側に示される。 FIG. 7 shows a side view of an example stereoscopic visualization camera 300 having a housing 302 that is transparent and exposes optical elements. FIG. 8 shows a diagram illustrating the optical path provided by the optical element shown in FIG. As shown in FIG. 8, the optical path includes a right optical path and a left optical path. The light path in FIG. 8 is shown from a perspective facing forward and looking down on the stereoscopic visualization camera 300. From this figure, the left optical path is visible on the right side of FIG. 8, while the right optical path is shown on the left side.

図7に示される光学要素は、左光路の部分である。図7における右光路が一般に、光学要素の関係ロケーション及び構成に関して左光路と同一であることを理解されたい。上述したように、光路の中心間の瞳孔間距離は58mmから70mmであり、これは10mmから25mmにスケーリングし得る。各光学要素は、特定の直径(例えば、2mm~29mm)を有するレンズを備える。したがって、光学要素自体間の距離は、1mm~23mm、好ましくは約10mmである。 The optical elements shown in FIG. 7 are part of the left optical path. It should be appreciated that the right optical path in FIG. 7 is generally identical to the left optical path with respect to relative location and configuration of optical elements. As mentioned above, the interpupillary distance between the centers of the optical paths is 58 mm to 70 mm, which can be scaled from 10 mm to 25 mm. Each optical element comprises a lens having a particular diameter (eg, 2 mm to 29 mm). The distance between the optical elements themselves is therefore between 1 mm and 23 mm, preferably about 10 mm.

一例の立体視覚化カメラ300は、標的部位700(シーン又は視野(「FOV」又は標的手術部位とも呼ばれる)の画像を取得するように構成される。標的部位700は患者の解剖学的構造の位置を含む。標的部位700は、研究所生体試料、較正スライド/テンプレート等を含むこともできる。標的部位700からの画像は、主対物レンズ組立体702を介して立体視覚化カメラ300において受信され、主対物レンズ組立体702は、前部作業距離レンズ408(図4に示される)及び後部作業距離レンズ704を含む。 The example stereoscopic visualization camera 300 is configured to capture images of a target region 700 (also referred to as a scene or field of view (“FOV” or target surgical region). The target region 700 is a location of a patient's anatomy. Target site 700 may also include a laboratory biological sample, a calibration slide/template, etc. Images from target site 700 are received at stereoscopic visualization camera 300 via main objective lens assembly 702; Main objective lens assembly 702 includes a front working distance lens 408 (shown in FIG. 4) and a rear working distance lens 704.

A.一例の主対物レンズ組立体
一例の主対物レンズ組立体702は、任意のタイプの屈折組立体又は反射組立体を含み得る。図7は、前部作業距離レンズ408が静止しており、後部作業距離レンズ704がz軸に沿って移動可能なアクロマート屈折組立体として対物レンズ組立体702を示す。前部作業距離レンズ408は、平凸(「PCX」)レンズ及び/又はメニスカスレンズを含み得る。後部作業距離レンズ704はアクロマートレンズを含み得る。主対物レンズ組立体702がアクロマート屈折組立体を含む例では、前部作業距離レンズ408は、半球レンズ及び/又はメニスカスレンズを含み得る。加えて、後部作業距離レンズ704は、アクロマートダブレットレンズ、レンズのアクロマートダブレット群、及び/又はアクロマートトリプレットレンズを含み得る。
A. Example Main Objective Lens Assembly The example main objective lens assembly 702 may include any type of refractive or reflective assembly. FIG. 7 shows objective lens assembly 702 as an achromatic refractive assembly in which front working distance lens 408 is stationary and rear working distance lens 704 is movable along the z-axis. Front working distance lens 408 may include a plano-convex (“PCX”) lens and/or a meniscus lens. Rear working distance lens 704 may include an achromatic lens. In examples where main objective lens assembly 702 includes an achromatic refractive assembly, front working distance lens 408 may include a hemispherical lens and/or a meniscus lens. Additionally, the rear working distance lens 704 may include an achromatic doublet lens, an achromatic doublet group of lenses, and/or an achromatic triplet lens.

主対物レンズ組立体702の倍率は6xから20xである。幾つかの場合、主対物レンズ組立体702の倍率は、作業距離に基づいて僅かに変化し得る。例えば、主対物レンズ組立体702は、200mm作業距離では倍率8.9x及び450mm作業距離では倍率8.75xを有し得る。 The magnification of the main objective lens assembly 702 is 6x to 20x. In some cases, the magnification of main objective lens assembly 702 may vary slightly based on working distance. For example, main objective lens assembly 702 may have a magnification of 8.9x at a 200 mm working distance and 8.75x at a 450 mm working distance.

一例の後部作業距離レンズ704は、前部作業距離レンズ408に対して移動可能であり、それにより、後部作業距離レンズ704と前部作業距離レンズ408との間隔を変更するように構成される。レンズ408と704との間隔は、主対物レンズ組立体702の全体前方焦点距離、ひいては焦点面の位置を決める。幾つかの実施形態では、焦点距離は、レンズ408と704との間の距離に、前部作業距離レンズ408の厚さの半分を加えたものである。 The example rear working distance lens 704 is configured to be movable relative to the front working distance lens 408 to thereby change the spacing between the rear working distance lens 704 and the front working distance lens 408. The spacing between lenses 408 and 704 determines the overall front focal length of main objective lens assembly 702 and thus the location of the focal plane. In some embodiments, the focal length is the distance between lenses 408 and 704 plus half the thickness of front working distance lens 408.

前部作業距離レンズ408及び後部作業距離レンズ704は一緒に、下流の光学画像センサに最適なフォーカスを提供するために、無限共役像を提供するように構成される。換言すれば、標的部位700の厳密に焦点面に配置された物体は、その像を無限の距離に投影し、それにより、提供される作業距離において無限に結合される。一般に、物体は、焦点面から光路に沿って特定の距離にわたりピントが合って見える。しかしながら、特定の閾値距離を超えると、物体はぼやけるか、又はピンボケして見え始める。 The front working distance lens 408 and the rear working distance lens 704 are configured together to provide an infinite conjugate image to provide optimal focus to the downstream optical image sensor. In other words, an object placed exactly in the focal plane of the target site 700 will project its image to an infinite distance, thereby being combined infinitely at the working distance provided. Generally, an object appears in focus for a certain distance along the optical path from the focal plane. However, beyond a certain threshold distance, objects begin to appear blurry or out of focus.

図7は、前部作業距離レンズ408の外面と標的部位700の焦点面へとの間の距離である作業距離706を示す。作業距離706は視野角に対応し得、作業距離が長いほど、視野は広くなり、又は表示可能面積は大きくなる。それに従って作業距離706は、焦点が合った標的部位又はシーンの平面を設定する。図示の例では、作業距離706は、後部作業距離レンズ704を動かすことにより200mmから450mmまで調整可能である。一例では、視野は、作業距離が450mmである場合、上流のズームレンズを用いて20mm×14mm~200mm×140mmで調整可能である。 FIG. 7 shows working distance 706, which is the distance between the outer surface of front working distance lens 408 and the focal plane of target region 700. The working distance 706 may correspond to the viewing angle; the longer the working distance, the wider the field of view or the larger the viewable area. Working distance 706 accordingly sets the plane of the target region or scene in focus. In the illustrated example, working distance 706 is adjustable from 200 mm to 450 mm by moving rear working distance lens 704. In one example, the field of view is adjustable from 20 mm x 14 mm to 200 mm x 140 mm using an upstream zoom lens when the working distance is 450 mm.

図7及び図8に示される主対物レンズ組立体702は、左光路及び右光路の両方で、標的部位700の画像を提供する。これは、レンズ408及び704の幅が左右光路の少なくとも2倍であるべきことを意味する。代替の実施形態では、主対物レンズ組立体702は、左右別個の前部作業距離レンズ408及び左右別個の後部作業距離レンズ704を含み得る。別個の作業距離レンズの各対の幅は、図7及び図8に示されるレンズ408及び704の幅の1/4~1/2であり得る。さらに、各後部作業距離レンズ704は独立して調整可能であり得る。 The main objective lens assembly 702 shown in FIGS. 7 and 8 provides images of the target region 700 in both the left and right optical paths. This means that the width of lenses 408 and 704 should be at least twice the width of the left and right optical paths. In an alternative embodiment, the main objective lens assembly 702 may include separate left and right front working distance lenses 408 and separate left and right rear working distance lenses 704. The width of each pair of separate working distance lenses can be 1/4 to 1/2 the width of lenses 408 and 704 shown in FIGS. 7 and 8. Additionally, each rear working distance lens 704 may be independently adjustable.

幾つかの実施形態では、主対物レンズ組立体702は置換可能であり得る。例えば、異なる主対物レンズ組立体を追加して、作業距離範囲、倍率、開口数、及び/又は屈折/反射タイプを変更し得る。これらの実施形態では、立体視覚化カメラ300は、下流の光学要素のポジショニング、光学画像センサの特性、及び/又は主対物レンズ組立体設置の際に基になる画像処理のパラメータを変更し得る。オペレータは、図3の制御機構305及び/又はユーザ入力デバイスの一方を用いて立体視覚化カメラ300にどの主対物レンズ組立体が設置されるかを指定し得る。 In some embodiments, main objective lens assembly 702 may be replaceable. For example, different main objective lens assemblies may be added to change the working distance range, magnification, numerical aperture, and/or refractive/reflective type. In these embodiments, the stereoscopic visualization camera 300 may change the positioning of downstream optical elements, the characteristics of the optical image sensor, and/or the parameters of the underlying image processing during main objective lens assembly installation. An operator may specify which main objective lens assembly is installed on stereoscopic visualization camera 300 using one of the controls 305 and/or the user input device of FIG. 3.

B.一例の照明源
標的部位700を照明するために、一例の立体視覚化カメラ300は1つ又は複数の照明源を含む。図7及び図8は、可視光源708a、近赤外線(「NIR」)光源708b、及び近紫外線(「NUV」)光源708cを含む3つの照明源を示す。他の例では、立体視覚化カメラ300は、追加の光源又はより少数の光源を含み得る(又は光源を含まないことがある)。例えば、NIR光源及びNUV光源は省くことが可能である。一例の光源708は、標的シーン700に投影される光を生成するように構成される。生成された光は標的シーンと相互作用し、標的シーンから反射され、光の幾らかは主対物レンズ組立体702に反射される。他の例は、外部光源又は環境からの周囲光を含み得る。
B. Example Illumination Sources To illuminate target region 700, example stereoscopic visualization camera 300 includes one or more illumination sources. 7 and 8 illustrate three illumination sources, including a visible light source 708a, a near-infrared ("NIR") light source 708b, and a near-ultraviolet ("NUV") light source 708c. In other examples, stereoscopic visualization camera 300 may include additional or fewer light sources (or may include no light sources). For example, NIR and NUV light sources can be omitted. An example light source 708 is configured to generate light that is projected onto the target scene 700. The generated light interacts with and is reflected from the target scene, and some of the light is reflected to the main objective lens assembly 702. Other examples may include ambient light from an external light source or environment.

一例の可視光源708aは、可視領域外の波長を有する幾らかの光に加えて、光スペクトルの人間可視部分の光を出力するように構成される。NIR光源708bは、「近赤外線」とも呼ばれる、主に、可視スペクトルの赤色部分を僅かに超えた波長にある光を出力するように構成される。NUV光源708cは、「近紫外線」とも呼ばれる、主に、可視スペクトルの青色部分における波長における光を出力するように構成される。光源708により出力される光スペクトルは、後述する各コントローラにより制御される。光源708により発せられる光の輝度は、切り替え率及び/又は印加電圧波形により制御し得る。 An example visible light source 708a is configured to output light in the human visible portion of the light spectrum in addition to some light having wavelengths outside the visible range. NIR light source 708b is configured to output light primarily at wavelengths slightly beyond the red portion of the visible spectrum, also referred to as "near infrared." NUV light source 708c is configured to output light at wavelengths primarily in the blue portion of the visible spectrum, also referred to as "near ultraviolet light." The light spectrum output by the light source 708 is controlled by each controller described below. The brightness of the light emitted by light source 708 may be controlled by the switching rate and/or the applied voltage waveform.

図7及び図8は、可視光源708a及びNIR光源708bが主対物レンズ組立体702を通して直接、標的部位700に提供されることを示す。図8に示されるように、可視光源708aからの可視光は、可視経路710aに沿って伝搬する。さらに、NIR光源708bからのNIR光はNIR経路710bに沿って伝搬する。光源708a及び708bは主対物レンズ組立体702の背後(標的部位700に関して)にあるものとして示されているが、他の例では、光源708a及び708bは、主対物レンズ組立体702の前に提供し得る。一実施形態では、光源708a及び708bは、筐体302の外部に標的部位700に面して提供し得る。更に他の実施形態では、光源708は、例えば、Koeher照明セットアップ及び/又は暗視野照明セットアップを用いて立体視覚化カメラ300とは別個に提供し得る。 7 and 8 show that a visible light source 708a and a NIR light source 708b are provided directly to the target site 700 through the main objective lens assembly 702. As shown in FIG. 8, visible light from visible light source 708a propagates along visible path 710a. Additionally, NIR light from NIR light source 708b propagates along NIR path 710b. Although light sources 708a and 708b are shown as being behind main objective assembly 702 (with respect to target site 700), in other examples light sources 708a and 708b may be provided in front of main objective assembly 702. It is possible. In one embodiment, light sources 708a and 708b may be provided external to housing 302 facing target site 700. In yet other embodiments, light source 708 may be provided separately from stereoscopic visualization camera 300 using, for example, a Koeher lighting setup and/or a darkfield lighting setup.

光源708a及び708bとは対照的に、NUV光源708cからのNUV光は、落射照明セットアップを用いて、偏向要素712(例えば、ビームスプリッタ)によって主対物レンズ組立体702に反射される。偏向要素712は、NUV波長範囲を超える光のみを反射するように塗膜又は他の方法で構成し得、それにより、NUV光を濾波する。NUV光源708cからのNUV光は、NUV経路710cに沿って伝搬する。 In contrast to light sources 708a and 708b, NUV light from NUV light source 708c is reflected by deflection element 712 (eg, a beam splitter) to main objective lens assembly 702 using an epi-illumination setup. Deflection element 712 may be coated or otherwise configured to reflect only light above the NUV wavelength range, thereby filtering NUV light. NUV light from NUV light source 708c propagates along NUV path 710c.

幾つかの実施形態では、NIR光源708b及びNUV光源708cは、フィルタ(例えば、フィルタ740)によってブロックされなかった光を更にフィルタリングする励起フィルタと併用し得る。フィルタは、主対物レンズ組立体702の前及び/又は主対物レンズ組立体の後で、光源708b及び708cの前に配置し得る。NUV光源708b及びNIR光源708cからの光は、濾波後、解剖学的物体の蛍光部位914(図9に示される)における蛍光を励起する波長を含む。さらに、NUV光源708c及びNIR光源708bからの光は、濾波後、蛍光部位914によって発せられるものと同じ範囲にはない波長を含み得る。 In some embodiments, NIR light source 708b and NUV light source 708c may be used in conjunction with an excitation filter to further filter light that is not blocked by the filter (eg, filter 740). Filters may be placed before the main objective assembly 702 and/or after the main objective assembly and before the light sources 708b and 708c. The light from NUV light source 708b and NIR light source 708c, after filtering, includes wavelengths that excite fluorescence at fluorescent site 914 (shown in FIG. 9) of the anatomical object. Additionally, the light from NUV light source 708c and NIR light source 708b, after filtering, may include wavelengths that are not in the same range as that emitted by fluorescent moieties 914.

光源708から主対物レンズ組立体を通る光の投影は、作業距離706及び/又は焦点面に基づいて照明される視野を変更するという利点を提供する。光は主対物レンズ組立体702を通るため、光が投影される角度は、作業距離706に基づいて変わり、視野角に対応する。それに従ってこの構成は、作業距離又は倍率に関係なく、視野が光源708により適宜照明されることを保証する。 Projecting light from light source 708 through the main objective lens assembly provides the advantage of varying the illuminated field of view based on working distance 706 and/or focal plane. As the light passes through the main objective lens assembly 702, the angle at which the light is projected varies based on the working distance 706 and corresponds to the viewing angle. This arrangement accordingly ensures that the field of view is suitably illuminated by the light source 708, regardless of the working distance or magnification.

C.一例の偏向要素
図7及び図8に示される一例の偏向要素712は、主対物レンズ組立体702を通してNUV光源708cからの特定の波長の光を標的部位700に透過させるように構成される。偏向要素712は、標的部位700から受け取った光を、ズーム及び記録のために、前部レンズセット714を含む下流の光学要素に反射するようにも構成される。幾つかの実施形態では、偏向要素712は、特定の波長の光が前部レンズセット714に達するように、主対物レンズ組立体702を通して、標的部位700から受け取った光を濾波し得る。
C. Example Deflection Element The example deflection element 712 shown in FIGS. 7 and 8 is configured to transmit light of a particular wavelength from the NUV light source 708c through the main objective lens assembly 702 and to the target site 700. Deflection element 712 is also configured to reflect light received from target site 700 to downstream optical elements, including front lens set 714, for zooming and recording. In some embodiments, deflection element 712 may filter light received from target site 700 through main objective lens assembly 702 such that light of a particular wavelength reaches front lens set 714.

偏向要素712は、光を指定された方向に反射する任意のタイプのミラー又はレンズを含み得る。一例では、偏向要素712はダイクロイックミラー又はフィルタを含み、ダイクロイックミラー又はフィルタは、異なる波長で異なる反射及び透過特性を有する。図7及び図8の立体視覚化カメラ300は、右光路及び左光路の両方に光を提供する1つの偏向要素712を含む。他の例では、カメラ300は、右光路及び左光路のそれぞれに別個の偏向要素を含み得る。さらに、別個の偏向要素をNUV光源708cに提供し得る。 Deflection element 712 may include any type of mirror or lens that reflects light in a specified direction. In one example, deflection element 712 includes a dichroic mirror or filter that has different reflection and transmission properties at different wavelengths. The stereoscopic visualization camera 300 of FIGS. 7 and 8 includes one deflection element 712 that provides light in both the right and left optical paths. In other examples, camera 300 may include separate deflection elements in each of the right and left optical paths. Additionally, a separate deflection element may be provided to NUV light source 708c.

図9は、本開示の実施形態例による、図7及び図8の偏向要素712の図を示す。簡潔にするために、主対物レンズ組立体702は示されていない。この例では、偏向要素712は、特定の波長の光を透過及び反射する2つの平行面902及び904を含む。平行面902及び904は、左右の光路(経路906として表される)に対して45°の角度に設定される。45°の角度は、この角度が反射光を透過光から90°の角度で伝搬させ、それにより、分離された光を下流の前部レンズセット714において検出させることなく最適な分離を提供するため、選択される。他の実施形態では、偏向要素712の角度は、非意図的に不要な波長の光を伝搬せずに、10度~80度であることができる。 FIG. 9 shows a diagram of the deflection element 712 of FIGS. 7 and 8, according to an example embodiment of the present disclosure. For simplicity, main objective lens assembly 702 is not shown. In this example, deflection element 712 includes two parallel surfaces 902 and 904 that transmit and reflect light of specific wavelengths. Parallel surfaces 902 and 904 are set at a 45° angle with respect to the left and right optical paths (represented as path 906). The 45° angle is selected because this angle causes the reflected light to propagate at a 90° angle from the transmitted light, thereby providing optimal separation without causing the separated light to be detected downstream at the front lens set 714. , selected. In other embodiments, the angle of deflection element 712 can be between 10 degrees and 80 degrees without unintentionally propagating unwanted wavelengths of light.

一例のNUV光源708cは偏向要素712の背後(標的部位700に関して)に配置される。光源708cからの光は、経路908に沿って伝搬し、偏向要素712に接触する。NUV光源708cの主な波長範囲前後のNUV光は、偏向要素712を透過し、経路910に沿って標的部位700に達する。NUV光源708cの主な波長範囲を超える(及び下回る)波長を有するNUV光源708cからの光は反射され、経路912に沿って光シンク又は筐体302の非使用領域に達する。 An example NUV light source 708c is positioned behind deflection element 712 (with respect to target site 700). Light from light source 708c propagates along path 908 and contacts deflection element 712. NUV light around the main wavelength range of NUV light source 708c passes through deflection element 712 and reaches target site 700 along path 910. Light from NUV light source 708c having wavelengths above (and below) the primary wavelength range of NUV light source 708c is reflected along path 912 to an optical sink or unused area of housing 302.

NUV光は、標的部位700に達すると、解剖学的物体の1つ又は複数の蛍光部位914によって吸収される。幾つかの場合、解剖学的物体には、NUV光を吸収し、異なる主波長の光を発するように構成された造影剤が注入されていることがある。他の場合、解剖学的物体は自然にNUV光を吸収し、異なる主波長の光を発し得る。蛍光部位914により反射又は発せられた光の少なくとも幾らかは、偏向要素712に接触するまで経路916に沿って伝搬する。光の大半は表面904から反射され、経路906に沿って前部レンズセット714に達する。NUV光源708cの主な波長範囲前後のNUV光を含む光の一部は、偏向要素712を透過し、経路918に沿って光シンク又は筐体302の非使用領域に送られる。それに従って図9に示される偏向要素712は、刺激光の大部分を下流の前部レンズセット714への伝達をブロックしながら、スペクトルのある領域を有する標的部位700における蛍光剤の光学刺激を可能にする。 Once the NUV light reaches the target site 700, it is absorbed by one or more fluorescent sites 914 on the anatomical object. In some cases, the anatomical object may be injected with a contrast agent configured to absorb NUV light and emit light at a different dominant wavelength. In other cases, anatomical objects may naturally absorb NUV light and emit light at a different dominant wavelength. At least some of the light reflected or emitted by fluorescent site 914 propagates along path 916 until it contacts deflection element 712. Most of the light is reflected from surface 904 and travels along path 906 to front lens set 714 . A portion of the light containing NUV light around the main wavelength range of NUV light source 708c is transmitted through deflection element 712 and sent along path 918 to an optical sink or unused area of housing 302. Accordingly, the deflection element 712 shown in FIG. Make it.

偏向要素712の反射特性及び透過特性が、他の光スペクトル要件に合うように変更可能なことを理解されたい。幾つかの場合、筐体302は、所望の光反射特性及び透過特性に基づいて偏向要素712及び/又はNUV光源708cを交換できるようにするスロットを含み得る。経路908と経路910との間の偏向要素712内部の第1の経路及び経路916と経路918との間の偏向要素712内部の第2の経路がそれぞれ傾斜して、光が空気と偏向要素712の内部との間を移動する際の光の屈折を概略的に表すことも理解されたい。示される角度は、実際の反射角度を表す意図はない。 It should be appreciated that the reflection and transmission properties of deflection element 712 can be modified to suit other optical spectrum requirements. In some cases, the housing 302 may include slots that allow the deflection element 712 and/or the NUV light source 708c to be replaced based on desired light reflection and transmission properties. A first path within the deflection element 712 between paths 908 and 910 and a second path within the deflection element 712 between paths 916 and 918 are each tilted so that the light is directed between the air and the deflection element 712. It should also be understood that it schematically represents the refraction of light as it travels to and from the interior of the . The angles shown are not intended to represent actual reflection angles.

D.一例のズームレンズ
図7及び図8の一例の立体視覚化カメラ300は、標的部位700の焦点距離及び視野角を変更して、ズーム倍率を提供する1枚又は複数枚のズームレンズを含む。図示の例では、ズームレンズは、前部レンズセット714、ズームレンズ組立体716、及びレンズバレルセット718を含む。他の実施形態では、前部レンズセット714及び/又はレンズバレルセット718が省略可能であることを理解されたい。代替的には、ズームレンズは追加のレンズを含み得、更なる倍率及び/又は画像分解能を提供する。
D. Example Zoom Lens The example stereoscopic visualization camera 300 of FIGS. 7 and 8 includes one or more zoom lenses that change the focal length and viewing angle of the target region 700 to provide zoom magnification. In the illustrated example, the zoom lens includes a front lens set 714, a zoom lens assembly 716, and a lens barrel set 718. It should be appreciated that in other embodiments, front lens set 714 and/or lens barrel set 718 may be omitted. Alternatively, a zoom lens may include additional lenses to provide additional magnification and/or image resolution.

前部レンズセット714は、右光路用の右前部レンズ720及び左光路用の左前部レンズ722を含む。レンズ720及び722はそれぞれ、偏向要素712からの光をズームレンズ組立体716内の各レンズに向ける正収束レンズを含み得る。それに従ってレンズ720及び722の側方位置は、ズームレンズ組立体716に伝搬する、主対物レンズ組立体702及び偏向要素712からのビームを定義する。 Front lens set 714 includes a right front lens 720 for the right optical path and a left front lens 722 for the left optical path. Lenses 720 and 722 may each include a positive converging lens that directs light from deflection element 712 to each lens in zoom lens assembly 716. The lateral positions of lenses 720 and 722 accordingly define the beam from main objective lens assembly 702 and deflection element 712 that propagates to zoom lens assembly 716.

レンズ720及び722の一方又は両方は、左右の光路の光軸に合うように半径方向において調整可能であり得る。換言すれば、レンズ720及び722の一方又は両方は、光路に入射する平面において左右及び/又は上下に移動し得る。幾つかの実施形態では、レンズ720及び722の1枚又は複数枚は回転又はチルトして、画像光学欠陥及び/又は疑似視差を低減するか、又はなくし得る。ズーム中にレンズ720及び722のいずれか一方又は両方の移動は、各光路のズーム反復点(「ZRP」)をユーザにとって静止したままであるように見えるようにし得る。半径方向の運動に加えて、前部レンズ720及び722の一方又は両方は、光路の倍率に合うように軸方向に(各光路に沿って)移動し得る。 One or both of lenses 720 and 722 may be radially adjustable to align with the optical axes of the left and right optical paths. In other words, one or both of lenses 720 and 722 may move left and right and/or up and down in the plane incident on the optical path. In some embodiments, one or more of lenses 720 and 722 may be rotated or tilted to reduce or eliminate image optical defects and/or pseudo-parallax. Movement of either or both lenses 720 and 722 during zooming may cause the zoom repetition point (“ZRP”) of each optical path to appear to the user to remain stationary. In addition to radial movement, one or both of front lenses 720 and 722 may move axially (along each optical path) to match the magnification of the optical paths.

一例のズームレンズ組立体716は、レンズバレルセット718に伝搬する光線のサイズを変更することにより、視野(例えば、線形視野)のサイズを変更するアフォーカルズーム系を形成する。ズームレンズ組立体716は、右前部ズームレンズ726及び左前部ズームレンズ728を有する前部ズームレンズセット724を含む。ズームレンズ組立体716は、右後部ズームレンズ732及び左後部ズームレンズ734を有する後部ズームレンズセット730も含む。前部ズームレンズ726及び728は正収束レンズであり得、一方、後部ズームレンズ732及び734は負発散レンズを含む。 One example zoom lens assembly 716 forms an afocal zoom system that changes the size of the field of view (eg, a linear field of view) by changing the size of the light rays that propagate to the lens barrel set 718. Zoom lens assembly 716 includes a front zoom lens set 724 having a front right zoom lens 726 and a front left zoom lens 728. Zoom lens assembly 716 also includes a rear zoom lens set 730 having a right rear zoom lens 732 and a left rear zoom lens 734. Front zoom lenses 726 and 728 may be positive converging lenses, while rear zoom lenses 732 and 734 include negative diverging lenses.

左右光路のそれぞれの画像ビームのサイズは、前部ズームレンズ726及び728、後部ズームレンズ732及び734、並びにレンズバレルセット718間の距離に基づいて決まる。一般に、光路のサイズは、後部ズームレンズ732及び734がレンズバレルセット718に向かって移動する(各光路に沿って)につれて低減し、それにより、倍率が下がる。加えて、前部ズームレンズ726及び728も、後部ズームレンズ732及び734がレンズバレルセット718に向かって移動するにつれて、レンズバレルセット718に向かって(又は離れて)移動して(放物線弧において等)、焦点面の位置を標的部位700上に維持し得、それにより、フォーカスを維持する。 The size of each image beam in the left and right optical paths is determined based on the distance between front zoom lenses 726 and 728, rear zoom lenses 732 and 734, and lens barrel set 718. Generally, the size of the optical paths decreases as the rear zoom lenses 732 and 734 move towards the lens barrel set 718 (along each optical path), thereby decreasing the magnification. In addition, front zoom lenses 726 and 728 also move towards (or away from) lens barrel set 718 (equivalently in a parabolic arc) as rear zoom lenses 732 and 734 move towards lens barrel set 718. ), the focal plane position may be maintained over the target region 700, thereby maintaining focus.

前部ズームレンズ726及び728は、第1のキャリア内に含まれ得(例えば、前部ズームセット724)、一方、後部ズームレンズ732及び724は第2のキャリア内に含まれる(例えば、後部ズームセット730)。各キャリア724及び730は、左右の倍率が同時に変わるように、トラック(又はレール)上を光路に沿って移動し得る。この実施形態では、左右光路間のいずれの僅かな倍率差も、右前部レンズ720及び/又は左前部レンズ722を移動させることにより補正し得る。追加又は代替として、レンズバレルセット718の右レンズバレル736及び/又は左レンズバレル738は、軸方向に移動し得る。 Front zoom lenses 726 and 728 may be contained within a first carrier (e.g., front zoom set 724), while rear zoom lenses 732 and 724 may be contained within a second carrier (e.g., rear zoom set 724). set 730). Each carrier 724 and 730 may move along the optical path on a track (or rail) such that the left and right magnifications change simultaneously. In this embodiment, any slight magnification difference between the left and right optical paths may be corrected by moving the right front lens 720 and/or the left front lens 722. Additionally or alternatively, right lens barrel 736 and/or left lens barrel 738 of lens barrel set 718 may move axially.

代替の実施形態では、右前部ズームレンズ726は、左前部ズームレンズ728とは別個に軸方向に移動し得る。加えて、右後部ズームレンズ732は、左後部ズームレンズ734とは別個に軸方向に移動し得る。別個の移動により、特に前部レンズセット714及びレンズバレルセット718が光路に沿って静止しているとき、ズームレンズ組立体716により小さな倍率差を補正できるようにする。さらに、幾つかの実施形態では、右前部ズームレンズ726及び/又は左前部ズームレンズ728は、半径方向及び/又は回転方向に調整可能であり得(及び/又はチルトし得)、それにより、ZRPの見掛けの位置を光路内に維持する。追加又は代替として、右後部ズームレンズ732及び/又は左後部ズームレンズ734は、波形方向及び/又は回転方向に調整可能であり得(及び/又はチルトし得)、それにより、ZRPの見掛けの位置を光路内に維持する。 In an alternative embodiment, the right front zoom lens 726 may move axially independently of the left front zoom lens 728. Additionally, right rear zoom lens 732 may move axially independently of left rear zoom lens 734. The separate movements allow zoom lens assembly 716 to correct for small magnification differences, especially when front lens set 714 and lens barrel set 718 are stationary along the optical path. Further, in some embodiments, the right front zoom lens 726 and/or the left front zoom lens 728 may be radially and/or rotationally adjustable (and/or tiltable), thereby allowing the ZRP maintain the apparent position of within the optical path. Additionally or alternatively, right rear zoom lens 732 and/or left rear zoom lens 734 may be waveform-wise and/or rotationally adjustable (and/or tiltable), thereby adjusting the apparent position of the ZRP. in the optical path.

一例のレンズバレルセット718は、右レンズバレル736及び左レンズバレル738を含み、これらは、ズームレンズ組立体716に加えてアフォーカルズーム系の一部である。レンズ736及び738は、ズームレンズ組立体716からの光線を直線化又はフォーカスするように構成された正収束レンズを含み得る。換言すれば、レンズ736及び738は、ズームレンズ組立体716の無限結合出力をフォーカスする。 An example lens barrel set 718 includes a right lens barrel 736 and a left lens barrel 738, which are part of an afocal zoom system in addition to the zoom lens assembly 716. Lenses 736 and 738 may include positive converging lenses configured to straighten or focus the light rays from zoom lens assembly 716. In other words, lenses 736 and 738 focus the infinitely coupled output of zoom lens assembly 716.

幾つかの例では、レンズバレルセット718は、筐体302内で半径方向及び軸方向において固定される。他の例では、レンズバレルセット718は、光路に沿って軸方向に移動可能であり、それにより、倍率の増大を提供し得る。追加又は代替として、レンズ736及び738のそれぞれは、半径方向及び/又は回転方向において調整可能であり得(及び/又はチルトし得)、それにより、例えば、前部レンズセット714、前部ズームレンズセット724、及び/又は後部ズームレンズセット730の左右レンズ間の光学特性差(倍率又は天然ガラスのずれ)を補正する。 In some examples, lens barrel set 718 is radially and axially fixed within housing 302. In other examples, lens barrel set 718 may be axially movable along the optical path, thereby providing increased magnification. Additionally or alternatively, each of lenses 736 and 738 may be radially and/or rotationally adjustable (and/or tiltable), such that, for example, front lens set 714, front zoom lens The optical characteristic difference (magnification or natural glass shift) between the left and right lenses of the set 724 and/or the rear zoom lens set 730 is corrected.

一例の前部レンズセット714、ズームレンズ組立体716、及びレンズバレルセット718は一緒に、好ましくは回折限界分解能を有するズームレンズにおいて、5Xから約20Xの光学ズームを達成するように構成される。幾つかの実施形態では、前部レンズセット714、ズームレンズ組立体716、及びレンズバレルセット718は、画質を妥協することができる場合、より高いズーム範囲(例えば、25Xから100X)を提供し得る。これらの実施形態では、立体視覚化カメラ300は、選択された光学範囲が光学範囲外であり、画質の低下を受けることを示すメッセージをオペレータに出力し得る。 An example front lens set 714, zoom lens assembly 716, and lens barrel set 718 are configured together to achieve an optical zoom of 5X to about 20X, preferably in a zoom lens with diffraction-limited resolution. In some embodiments, front lens set 714, zoom lens assembly 716, and lens barrel set 718 may provide a higher zoom range (e.g., 25X to 100X) if image quality can be compromised. . In these embodiments, the stereoscopic visualization camera 300 may output a message to the operator indicating that the selected optical range is outside the optical range and will suffer a reduction in image quality.

幾つかの実施形態では、前部レンズセット714、ズームレンズ組立体716、レンズバレルセット718、及び/又は主対物レンズ組立体702のレンズはそれぞれ、互いの光学歪みパラメータのバランスをとる材料を用いて、複数の光学サブ要素からダブレットとして構築し得る。ダブレット構築は、色収差及び光学収差を低減する。例えば、前部作業距離レンズ408及び後部作業距離レンズ702はそれぞれ、ダブレットとして構築し得る。別の例では、前部レンズ720及び722、前部ズームレンズ726及び728、後部ズームレンズ732及び734、並びにレンズバレル736及び738はそれぞれ、ダブレットレンズを含み得る。 In some embodiments, the lenses of front lens set 714, zoom lens assembly 716, lens barrel set 718, and/or main objective lens assembly 702 each use materials that balance the optical distortion parameters of each other. can be constructed as a doublet from multiple optical sub-elements. Doublet construction reduces chromatic and optical aberrations. For example, front working distance lens 408 and rear working distance lens 702 may each be constructed as a doublet. In another example, front lenses 720 and 722, front zoom lenses 726 and 728, rear zoom lenses 732 and 734, and lens barrels 736 and 738 may each include a doublet lens.

更なる実施形態では、前部レンズセット714、ズームレンズ組立体716、レンズバレルセット718、及び/又は主対物レンズ組立体702のレンズは、異なるように調整し得、及び/又は異なる特性を有し得、それにより、異なる機能を有する2つの平行光路を提供する。例えば、ズームレンズ組立体716内の右レンズは、右光路に5Xから10Xの光学ズームを提供するように選択し得、一方、ズームレンズ組立体716内の左レンズは、左光路に15Xから20Xの光学ズームを提供するように選択される。そのような構成は、平面視ビューであるが、2つの異なる倍率を同時に及び/又は同じ画面上に表示できるようにし得る。 In further embodiments, the lenses of front lens set 714, zoom lens assembly 716, lens barrel set 718, and/or main objective lens assembly 702 may be adjusted differently and/or have different characteristics. , thereby providing two parallel optical paths with different functions. For example, the right lens in zoom lens assembly 716 may be selected to provide 5X to 10X of optical zoom in the right optical path, while the left lens in zoom lens assembly 716 may be selected to provide 15X to 20X in the left optical path. selected to provide optical zoom. Such a configuration may allow two different magnifications to be displayed simultaneously and/or on the same screen, although in planar view.

E.一例のフィルタ
図7及び図8の一例の立体視覚化カメラ300は、所望の波長の光を選択的に透過する1つ又は複数の光学フィルタ740(又はフィルタ組立体)を含む。図8は、1つのフィルタ740を左右光路に適用し得ることを示す。他の例では、各光路は別個のフィルタを有し得る。別個のフィルタの包含により、例えば、左右光路からの異なる波長の光を同時に濾波することができ、それにより、例えば、可視光画像と併せて蛍光画像を表示することができる。
E. Example Filters The example stereoscopic visualization camera 300 of FIGS. 7 and 8 includes one or more optical filters 740 (or filter assemblies) that selectively transmit desired wavelengths of light. FIG. 8 shows that one filter 740 can be applied to the left and right optical paths. In other examples, each optical path may have a separate filter. The inclusion of separate filters allows, for example, different wavelengths of light from the left and right optical paths to be filtered simultaneously, thereby allowing, for example, a fluorescence image to be displayed in conjunction with a visible light image.

図7は、フィルタ740が回転軸を中心として回転する車輪を含むことを示す。図示の実施形態では、フィルタ740は3つの異なる光学フィルタ対を収容することができる。しかしながら、他の実施形態では、フィルタ740は追加又はより少数のフィルタ対を含み得る。一般に、標的部位700からフィルタ740において受け取った光は、広帯域スペクトルの波長を含む。主対物レンズ組立体702、前部レンズセット714、ズームレンズ組立体716、及びレンズバレルセット718のレンズは、オペレータにとって関心がある波長及び望ましくない波長を含む比較的広帯域の光を透過するように構成される。加えて、下流の光学画像センサは特定の波長に対して感度を有する。それに従って一例のフィルタ740は、光スペクトルの特定の部分を透過及びブロックして、異なる所望の特徴を達成する。 FIG. 7 shows that filter 740 includes wheels that rotate about an axis of rotation. In the illustrated embodiment, filter 740 can house three different optical filter pairs. However, in other embodiments, filter 740 may include additional or fewer filter pairs. Generally, the light received at filter 740 from target site 700 includes a broad spectrum of wavelengths. The lenses of main objective lens assembly 702, front lens set 714, zoom lens assembly 716, and lens barrel set 718 are configured to transmit a relatively broad band of light, including wavelengths of interest and undesirable wavelengths to the operator. configured. Additionally, downstream optical image sensors are sensitive to specific wavelengths. The example filter 740 accordingly transmits and blocks certain portions of the light spectrum to achieve different desired characteristics.

車輪として、フィルタ740は、毎秒約4回で位置を変更可能な機械デバイスを備える。他の実施形態では、フィルタ740はデジタル微小ミラーを含み得、デジタル微小ミラーは、毎秒60回等のビデオフレームレートで移行路方向を変更することができる。これらの他の実施形態では、左右光路のそれぞれが微小ミラーを含む。左右の微小ミラーは、同期された切り替え又は同時切り替えを有し得る。 As a wheel, filter 740 comprises a mechanical device that can change position approximately 4 times per second. In other embodiments, filter 740 may include a digital micromirror that can change transition path direction at a video frame rate, such as 60 times per second. In these other embodiments, each of the left and right optical paths includes a micromirror. The left and right micromirrors may have synchronized switching or simultaneous switching.

幾つかの実施形態では、フィルタ740は光源708と同期して、「時間インターリーブ」マルチスペクトル撮像を実現し得る。例えば、フィルタ740は、赤外線遮断フィルタ、近赤外線バンドパスフィルタ、及び近紫外線遮断フィルタを含み得る。異なるフィルタタイプが、光源708の異なるスペクトル並びに偏向要素712のハンスンは特性及び透過特性と併せて機能して、所定の回数、特定の所望の波長の光を透過するように選択される。 In some embodiments, filter 740 may be synchronized with light source 708 to achieve "time interleaved" multispectral imaging. For example, filter 740 may include an infrared blocking filter, a near-infrared bandpass filter, and a near-ultraviolet blocking filter. Different filter types are selected to operate in conjunction with the different spectra of light source 708 and the characteristics and transmission characteristics of deflection element 712 to transmit light of a particular desired wavelength a predetermined number of times.

一モードでは、フィルタ740及び光源708は、可視光モードを提供するように構成される。このモードでは、可視光源708aは、可視領域からの光を標的部位700に押下させ、その幾らかは主対物レンズ組立体702に反射される。反射光は、光学画像センサに影響し得る可視スペクトルを超えた幾らかの光を含み得る。可視光は、偏向要素712により反射され、前部レンズセット714、ズームレンズ組立体716、及びレンズバレルセット718を透過する。この例では、フィルタ740は、赤外線遮断フィルタ又は近紫外線遮断フィルタを光路に適用して、可視スペクトル内の光のみが最終光学セット742及び光学画像センサ744を透過するように、可視スペクトル外の光を除去するように構成される。 In one mode, filter 740 and light source 708 are configured to provide a visible light mode. In this mode, the visible light source 708 a forces light from the visible region down onto the target site 700 , some of which is reflected into the main objective lens assembly 702 . Reflected light may include some light beyond the visible spectrum that can affect optical image sensors. Visible light is reflected by deflection element 712 and transmitted through front lens set 714, zoom lens assembly 716, and lens barrel set 718. In this example, filter 740 applies an infrared blocking filter or a near ultraviolet blocking filter to the optical path so that only light within the visible spectrum passes through final optics set 742 and optical image sensor 744. configured to remove.

別のモードでは、フィルタ740及び光源708は、狭波長の蛍光のみを光学センサ744に提供するように構成される。このモードでは、NUV光源708cは、スペクトルの藍色領域からの光を標的部位700に透過させる。偏向要素712は、藍色領域の所望の光を透過させ、その間、望ましくない光を反射する。藍色光は、蛍光が発せられるように標的部位700と相互作用する。幾つかの例では、δ-アミノレブリン酸(「5ala」)及び/又はプロトポルフィリンIXが標的部位700に適用されて、藍色光を受け取ったとき、蛍光を発するようにさせる。主対物レンズ組立体702は、反射された藍色光及び幾らかの可視光に加えて蛍光を受け取る。藍色光は左右光路から出て偏向要素712を透過する。したがって、可視光及び蛍光のみが、前部レンズセット714、ズームレンズ組立体716、及びレンズバレルセット718を透過する。この例では、フィルタ740は、近紫外線遮断フィルタを光路に適用して、可視光及び任意の残留NUV藍色光を含む所望の蛍光スペクトル外の光を除去するように構成される。したがって、狭波長の蛍光のみが光学画像センサ744に達し、相対強度に基づいて蛍光をより容易に検出し、区別できるようにする。 In another mode, filter 740 and light source 708 are configured to provide only narrow wavelength fluorescence to optical sensor 744. In this mode, NUV light source 708c transmits light from the blue region of the spectrum to target site 700. The deflection element 712 transmits the desired light in the blue region while reflecting the undesired light. The blue light interacts with the target site 700 such that fluorescence is emitted. In some examples, delta-aminolevulinic acid ("5ala") and/or protoporphyrin IX is applied to target site 700 to cause it to fluoresce when it receives indigo light. Main objective lens assembly 702 receives reflected blue light and some visible light, as well as fluorescent light. The blue light exits from the left and right optical paths and passes through the deflection element 712. Therefore, only visible light and fluorescence pass through front lens set 714, zoom lens assembly 716, and lens barrel set 718. In this example, filter 740 is configured to apply a near-UV blocking filter to the optical path to remove light outside the desired fluorescence spectrum, including visible light and any residual NUV blue light. Therefore, only narrow wavelength fluorescence reaches the optical image sensor 744, allowing the fluorescence to be more easily detected and distinguished based on relative intensity.

更に別のモードでは、フィルタ740及び光源708は、インドシアニングリーン(「ICG」)蛍光を光学センサ744に提供するように構成される。このモードでは、NIV光源708bは、可視スペクトルの遠赤領域(近赤外線とも見なされる)の光を標的部位700に送る。加えて、可視光源708aが、可視光を標的シーン700に送る。可視光及び遠赤光は、標的部位におけるICGを有する材料によって吸収され、ICGは次に、更に遠赤の領域の高刺激蛍光を発する。主対物レンズ組立体702は、反射されたNIR光及び可視光に加えて蛍光を受け取る。光は偏向要素712により前部レンズセット714、ズームレンズ組立体716、及びレンズバレルセット718に反射される。この例では、フィルタ740は、近赤外線バンドパスフィルタを光路に適用して、可視光及びNIR光の少なくとも幾らかを含む所望の蛍光スペクトル外の光を除去するように構成される。したがって、更に遠赤の領域の蛍光のみが光学画像センサ744に達し、相対強度に基づいて蛍光をより容易に検出し、区別できるようにする。 In yet another mode, filter 740 and light source 708 are configured to provide indocyanine green (“ICG”) fluorescence to optical sensor 744. In this mode, the NIV light source 708b sends light in the far-red region of the visible spectrum (also considered near-infrared) to the target site 700. Additionally, visible light source 708a sends visible light to target scene 700. The visible and far-red light is absorbed by the material bearing the ICG at the target site, and the ICG then emits highly stimulated fluorescence in the far-red region. Main objective lens assembly 702 receives reflected NIR and visible light as well as fluorescent light. Light is reflected by deflection element 712 to front lens set 714, zoom lens assembly 716, and lens barrel set 718. In this example, filter 740 is configured to apply a near-infrared bandpass filter to the optical path to remove light outside the desired fluorescence spectrum, including at least some visible and NIR light. Therefore, only the fluorescence in the far-red region reaches the optical image sensor 744, allowing the fluorescence to be more easily detected and distinguished based on relative intensity.

Figure 0007379373000001
Figure 0007379373000001

上記表1は、特定の所望の波長の光を光学センサ744に到達させる光源とフィルタとの可能な異なる組合せをまとめたものを示す。画像センサ744において受け取られる異なるタイプの光を更に増大させるために、他のタイプのフィルタ及び/又は光源を使用してもよいことを理解されたい。例えば、標的部位700に適用される特定の生物学的染料又は造影剤に対応する狭波長の光を透過するように構成されたバンドパスフィルタを使用し得る。幾つかの例では、フィルタ740は、連結されたフィルタ又は2つ以上のフィルタを含み得、それにより、2つの異なる範囲からの光を濾波できるようにする。例えば、第1のフィルタ740は、所望の波長範囲の可視光のみが光学センサ744に透過されるように、赤外線遮断フィルタ及び近紫外線遮断フィルタを適用し得る。 Table 1 above summarizes the different possible combinations of light sources and filters that allow light of a particular desired wavelength to reach the optical sensor 744. It should be appreciated that other types of filters and/or light sources may be used to further increase the different types of light received at image sensor 744. For example, a bandpass filter configured to transmit a narrow wavelength of light corresponding to a particular biological dye or contrast agent applied to target area 700 may be used. In some examples, filter 740 may include a concatenated filter or two or more filters, thereby allowing light from two different ranges to be filtered. For example, the first filter 740 may apply an infrared blocking filter and a near ultraviolet blocking filter so that only visible light in a desired wavelength range is transmitted to the optical sensor 744.

他の実施形態では、別個のフィルタ740を左右の光路に使用し得る。例えば、右フィルタは赤外線遮断フィルタを含み得、一方、左フィルタは近赤外線透過フィルタを含む。そのような構成では、IGC緑色蛍光波長と同時に、可視波長での標的部位700の表示が可能である。別の例では、右フィルタは赤外線遮断フィルタを含み得、一方、左フィルタは近紫外線遮断フィルタを含む。この構成では、標的部位700は、5ALA蛍光と同時に可視光で表示し得る。これらの他の実施形態では、右及び左画像ストリームはなお、結合して、可視光での標的部位700のビューと組み合わせた特定の解剖学的構造の蛍光ビューを提供する立体ビューにし得る。 In other embodiments, separate filters 740 may be used for the left and right optical paths. For example, the right filter may include an infrared blocking filter, while the left filter includes a near infrared transmitting filter. Such a configuration allows display of target site 700 at visible wavelengths simultaneously with IGC green fluorescence wavelengths. In another example, the right filter may include an infrared blocking filter, while the left filter includes a near ultraviolet blocking filter. In this configuration, target site 700 can be displayed in visible light simultaneously with 5ALA fluorescence. In these other embodiments, the right and left image streams may still be combined into a stereoscopic view that provides a fluorescent view of specific anatomical structures combined with a view of the target site 700 in visible light.

F.一例の最終光学要素セット
図7及び図8の一例の立体視覚化カメラ300は、フィルタ740から受け取った光を光学画像センサ744にフォーカスする最終光学要素セット742を含む。最終光学要素セット742は、右最終光学要素745及び左最終光学要素747を含み、これらはそれぞれ正収束レンズを含み得る。光の収束に加えて、光学要素745及び747は、光が光学画像センサ744に達する前、左右光路における微小な収差を補正するように構成し得る。幾つかの例では、レンズ745及び747は、半径方向及び/又は軸方向に移動可能であり得、それにより、前部レンズセット714、ズームレンズ組立体716、及びレンズバレルセット718により生じる倍率及び/又は合焦収差を補正する。一例では、左最終光学要素747は半径方向において移動し得、一方、右の最終光学要素745は固定されて、倍率変更中、ZRP移動を除去する。
F. Example Final Optical Element Set The example stereoscopic visualization camera 300 of FIGS. 7 and 8 includes a final optical element set 742 that focuses the light received from the filter 740 onto an optical image sensor 744. Final optical element set 742 includes right final optical element 745 and left final optical element 747, each of which may include a positive converging lens. In addition to focusing light, optical elements 745 and 747 may be configured to correct for small aberrations in the left and right optical paths before the light reaches optical image sensor 744. In some examples, lenses 745 and 747 may be radially and/or axially movable, thereby increasing the magnification and /or correct focusing aberrations. In one example, the left final optical element 747 may move in the radial direction, while the right final optical element 745 is fixed to eliminate ZRP movement during magnification changes.

G.一例の画像センサ
図7及び図8の一例の立体視覚化カメラ300は、最終光学要素セット742から受け取った入射光を取得及び/又は記録する画像センサ744を含む。画像センサ744は、右光路に沿って伝搬する光を取得及び/又は記録する右光学画像センサ746及び左光路に沿って伝搬する光を取得及び/又は記録する左光学画像センサ748を含む。左光学画像センサ746及び右光学画像センサ748のそれぞれは、例えば、相補形金属酸化膜半導体(「CMOS」)検知要素、N型金属酸化膜半導体(「NMOS」)、及び/又は半導体電荷結合素子(「CCD」)検知要素を含む。幾つかの実施形態では、左光学センサ746及び右光学センサ748は同一であり、及び/又は同じ特性を有する。他の実施形態では、左光学センサ746及び右光学センサ748は、様々な機能を提供する異なる検知要素及び/又は特性を含む。例えば、右光学画像センサ746(第1のカラーフィルタアレイを使用する)は、青色蛍光により高感度であるように構成し得、一方、左光学画像センサ748(第2のカラーフィルタアレイを使用する)は、可視光により高感度であるように構成される。
G. Example Image Sensor The example stereoscopic visualization camera 300 of FIGS. 7 and 8 includes an image sensor 744 that captures and/or records incident light received from a final set of optical elements 742. Image sensors 744 include a right optical image sensor 746 that captures and/or records light propagating along a right optical path and a left optical image sensor 748 that captures and/or records light propagating along a left optical path. Each of left optical image sensor 746 and right optical image sensor 748 may include, for example, a complementary metal oxide semiconductor (“CMOS”) sensing element, an N-type metal oxide semiconductor (“NMOS”), and/or a semiconductor charge-coupled device. (“CCD”) includes a sensing element. In some embodiments, left optical sensor 746 and right optical sensor 748 are the same and/or have the same characteristics. In other embodiments, left optical sensor 746 and right optical sensor 748 include different sensing elements and/or characteristics that provide different functions. For example, right optical image sensor 746 (using a first color filter array) may be configured to be more sensitive to blue fluorescence, while left optical image sensor 748 (using a second color filter array) may be configured to be more sensitive to blue fluorescence. ) is configured to be more sensitive to visible light.

図10は、本開示の実施形態例による、画像センサ744の右光学画像センサ746及び左光学画像センサ748の一例を示す。右光学画像センサ746は、感光要素(例えば、ピクセル)の第1の二次元グリッド又はマトリックス1002を含む。加えて、左光学画像センサ748は、感光要素の第2の二次元ピクセルグリッド1004を含む。各ピクセルは、特定の波長の光のみを透過し、それにより、下の光検出器に接触できるようにするフィルタを含む。異なる色のフィルタがセンサ746及び748にわたり拡散して、グリッドにわたり全波長の光検出を提供する。光検出器は、可視光並びに可視スペクトルの上及び下の追加の範囲に感度を有し得る。 FIG. 10 illustrates an example of a right optical image sensor 746 and a left optical image sensor 748 of image sensor 744, according to example embodiments of the present disclosure. The right optical image sensor 746 includes a first two-dimensional grid or matrix 1002 of photosensitive elements (eg, pixels). Additionally, left optical image sensor 748 includes a second two-dimensional pixel grid 1004 of photosensitive elements. Each pixel includes a filter that allows only certain wavelengths of light to pass through and thus contact the photodetector below. Different colored filters are spread across sensors 746 and 748 to provide full wavelength light detection across the grid. Photodetectors may be sensitive to visible light and additional ranges above and below the visible spectrum.

グリッド1002及び1004の感光要素は、視野内にある標的部位700の表現として、様々な波長の光を記録するように構成される。感光要素に入射した光は、電荷を蓄積させる。電荷を読み出して、検知要素において受け取っている光の量を特定する。加えて、検知要素のフィルタ特性は製造許容誤差内であることが分かっているため、受け取った光の波長の範囲は既知である。標的部位700の表現は、各光学画像センサ746及び748のグリッド1002及び1004が標的部位700を空間的にサンプリングするように、感光要素に向けられる。空間サンプリングの分解能は、画質及びパリティに影響するパラメータである。 The photosensitive elements of grids 1002 and 1004 are configured to record light of various wavelengths as a representation of target region 700 within the field of view. Light incident on the photosensitive element causes a charge to accumulate. The charge is read out to determine the amount of light being received at the sensing element. Additionally, the range of wavelengths of the received light is known because the filter characteristics of the sensing element are known to be within manufacturing tolerances. A representation of target region 700 is directed to the photosensitive element such that grids 1002 and 1004 of each optical image sensor 746 and 748 spatially sample target region 700. Spatial sampling resolution is a parameter that affects image quality and parity.

図10においてピクセルグリッド1002及び1004に示されるピクセルの数は、光学画像センサ746及び748における実際のピクセルの数を表さない。代わりに、センサは通常、1280×720ピクセル及び8500×4500ピクセル、好ましくは約2048×1560ピクセルの分解能を有する。しかしながら、グリッド1002及び1004の全てのピクセルが画像伝送に選択されるわけではない。代わりに、グリッド1002及び1004のサブセット又はピクセルセットが送信に選択される。例えば、図10では、ピクセルセット1006は、右画像としての伝送にピクセルグリッド1002から選択され、ピクセルセット1008は、左画像としての伝送にピクセルグリッド1004から選択される。示されるように、ピクセルセット1006は、各ピクセルグリッド1002及び1004に関連して、ピクセルセット1008と同じ位置に配置される必要はない。ピクセルセット1006及び1008の別個の制御により、左画像及び右画像を位置合わせし、及び/又は移動するZRP等の画像欠陥及び/又は疑似視差を補正することができる。 The number of pixels shown in pixel grids 1002 and 1004 in FIG. 10 does not represent the actual number of pixels in optical image sensors 746 and 748. Instead, the sensor typically has a resolution of 1280 x 720 pixels and 8500 x 4500 pixels, preferably about 2048 x 1560 pixels. However, not all pixels of grids 1002 and 1004 are selected for image transmission. Instead, a subset or pixel set of grids 1002 and 1004 is selected for transmission. For example, in FIG. 10, pixel set 1006 is selected from pixel grid 1002 for transmission as the right image, and pixel set 1008 is selected from pixel grid 1004 for transmission as the left image. As shown, pixel set 1006 need not be co-located with pixel set 1008 in relation to each pixel grid 1002 and 1004. Separate control of pixel sets 1006 and 1008 allows left and right images to be aligned and/or correct for image defects such as moving ZRP and/or pseudo-parallax.

ピクセルグリッドからのピクセルセットの選択により、画像欠陥/疑似視差を補正し、及び/又は右光学画像及び左光学画像をより正確に位置合わせするピクセルグリッドの一部を選択することができる。換言すれば、ピクセルセットは、ピクセルグリッドに対して移動又は調整されて(リアルタイムで)、疑似視差を低減又はなくすことにより画質を改善し得る。代替的には、立体画像の左ビュー及び右ビューの一方又は両方は、画像処理パイプラインで垂直に動かして(例えば、表示のためのビューのレンダリング中)、同じ効果を達成することができる。センサの回転位置合わせずれも垂直に補正することができる。ピクセルセットは、使用中、ピクセルグリッドにわたっても移動して、視野をパンする外観を提供することもできる。一例では、2048×1560ピクセルを有するピクセルグリッドから、1920×1080ピクセルのウィンドウのピクセルセットを選択し得る。ピクセルウィンドウ又はセットの位置は、ソフトウェア/ファームウェアにより制御し得、セットアップ及び/又は使用中、移動し得る。それに従って光学画像センサ746及び748の分解能は、ピクセルセット又はウィンドウの長さ方向及び幅方向におけるピクセル数に基づいて指定される。 Selection of pixel sets from the pixel grid may correct image defects/pseudo-parallax and/or select a portion of the pixel grid that more accurately aligns the right and left optical images. In other words, the pixel set may be moved or adjusted (in real time) relative to the pixel grid to improve image quality by reducing or eliminating pseudo-parallax. Alternatively, one or both of the left and right views of the stereo image can be moved vertically in the image processing pipeline (eg, during rendering of the view for display) to achieve the same effect. Rotational misalignment of the sensor can also be corrected vertically. The pixel set may also be moved across the pixel grid during use to provide the appearance of panning the field of view. In one example, a pixel set for a window of 1920x1080 pixels may be selected from a pixel grid having 2048x1560 pixels. The position of the pixel window or set may be controlled by software/firmware and may be moved during setup and/or use. Accordingly, the resolution of optical image sensors 746 and 748 is specified based on the number of pixels in the length and width of a pixel set or window.

1.一例の画像センサを用いての色検知
上述したように、光学検知要素746及び748は、特定の色の光を検出する異なるフィルタを有するピクセルを含む。例えば、幾つかのピクセルは、主に赤色光を透過するフィルタで覆われ、幾つかは主に緑色光を透過するフィルタで覆われ、幾つかは主に青色光を透過するフィルタで覆われる。幾つかの実施形態では、ベイヤーパターンがピクセルグリッド1002及び1004に適用される。しかしながら、他の実施形態では、特定の波長の光に最適化された異なるカラーパターンを使用することもできることを理解されたい。例えば、各検知領域における緑色フィルタを広帯域フィルタ又は近赤外線フィルタで置換し、それにより、検知スペクトルを広げ得る。
1. Color Sensing with an Example Image Sensor As mentioned above, optical sensing elements 746 and 748 include pixels with different filters that detect light of a particular color. For example, some pixels are covered with filters that primarily transmit red light, some are covered with filters that primarily transmit green light, and some are covered with filters that primarily transmit blue light. In some embodiments, a Bayer pattern is applied to pixel grids 1002 and 1004. However, it should be understood that other embodiments may use different color patterns optimized for particular wavelengths of light. For example, the green filter in each sensing region can be replaced with a broadband filter or a near-infrared filter, thereby broadening the sensing spectrum.

ベイヤーパターンは、ピクセルの2行×2列をグループ化し、それぞれ碁盤の目パターンで1つを赤色フィルタで覆い、1つを青色フィルタで覆い、2つを緑色フィルタで覆うことにより実施される。したがって、赤及び青の分解能はそれぞれ、対象となる検知領域全体の1/4であり、一方、緑色分解能は、対象となる検知領域全体の半分である。 The Bayer pattern is implemented by grouping two rows by two columns of pixels and covering each with a red filter, one with a blue filter, and two with a green filter in a checkerboard pattern. Therefore, the red and blue resolutions are each one-fourth of the total sensing area of interest, while the green resolution is one-half of the total sensing area of interest.

緑色は検知領域の半分に割り当てられて、光学画像センサ746及び748にルミナンスセンサとして動作させ、人間の視覚系を模倣させ得る。加えて、赤及び青は、人間の視覚系のクロミナンスセンサを模倣するが、緑色検知ほど重要ではない。特定の領域での赤、緑、及び青の量が特定されると、後述する図16のデベイヤープログラム1580aを併せて考察するように、赤値、緑値、及び青値を平均することにより、可視スペクトル内の他の色が特定される。 Green color may be assigned to half of the sensing area to cause optical image sensors 746 and 748 to act as luminance sensors and mimic the human visual system. In addition, red and blue mimic the chrominance sensors of the human visual system, but are less important than green sensing. Once the amount of red, green, and blue in a particular region is determined, the amount of red, green, and blue can be determined by averaging the red, green, and blue values, as discussed below in conjunction with the debayer program 1580a of FIG. , other colors within the visible spectrum are identified.

幾つかの実施形態では、光学画像センサ746及び748は、フィルタではなく、積層構成要素を使用して、色を検知し得る。例えば、検知要素は、ピクセルエリア内部に垂直に積み重ねられた赤、緑、及び青の検知構成要素を含み得る。幾つかの別の例では、プリズムは、特に塗膜されたビームスプリッタを使用して、検知要素が各分割ビーム経路に配置された状態で、入射光を成分に1回又は複数回(通常、少なくとも2回で、「3チップ」として知られる3成分色が生成される)分割する。他のセンサタイプは、緑色フィルタの1つを広帯域フィルタ又は近赤外線フィルタで置換する等の異なるパターンを使用し、それにより、デジタル外科用顕微鏡の検知可能性を広げる。 In some embodiments, optical image sensors 746 and 748 may detect color using laminated components rather than filters. For example, the sensing elements may include red, green, and blue sensing components stacked vertically within the pixel area. In some other examples, the prism splits the incident light into its components one or more times (usually At least twice, a three-component color known as a "three-chip" is produced). Other sensor types use different patterns, such as replacing one of the green filters with a broadband filter or a near-infrared filter, thereby extending the detection potential of the digital surgical microscope.

2.一例の画像センサを用いての可視範囲外の光の検知
光学画像センサ746及び748の一例の検知要素フィルタは、検知要素が検出することができる範囲内の近紫外線光を透過するようにも構成される。これにより、光学画像センサ746及び748は可視範囲外の少なくとも幾らかの光を検出することができる。そのような感度は、画像を「ウォッシュアウト」し、多くのタイプの画面でコントラストを下げ、色品質に悪影響を及ぼすため、スペクトルの可視部分における画質を低減させる恐れがある。その結果、フィルタ740は、赤外線遮断フィルタを使用して、可視波長を光学画像センサ746及び748に透過させながら、近赤外線波長をブロックし得る。
2. Detecting Light Outside the Visible Range Using an Example Image Sensor The example sensing element filters of optical image sensors 746 and 748 are also configured to transmit near-ultraviolet light within the range that the sensing elements can detect. be done. This allows optical image sensors 746 and 748 to detect at least some light outside the visible range. Such sensitivity can reduce image quality in the visible part of the spectrum by "washing out" the image, lowering contrast on many types of screens, and negatively impacting color quality. As a result, filter 740 may block near-infrared wavelengths while allowing visible wavelengths to pass to optical image sensors 746 and 748 using an infrared blocking filter.

しかしながら、そのような近赤外線感度が望ましいことがある。例えば、ICG等の蛍光剤を標的部位700に導入することができる。ICGは、可視又は他の波長又は光で励起又は活性化し、近赤外線範囲の蛍光を発する。上述したように、NIR光源708bはNIR光を提供し、可視光源708aは可視光を提供して、ICGを用いる薬剤を励起させる。励起光は更に赤色スペクトルに沿い、これは、近赤外線バンドパス又はハイパスフィルタを使用してフィルタ740に透過し得る。次に、赤色スペクトルからの光は、光学画像センサ746及び748により検出される。フィルタ740のスペクトル特性を光源708及び蛍光剤の予期される挙動と合わせることにより、標的部位700における薬剤を含む血液等の薬剤及び生物学的構造を、薬剤を含まない他の構造から区別することができる。 However, such near-infrared sensitivity may be desirable. For example, a fluorescent agent such as ICG can be introduced into target site 700. When excited or activated by visible or other wavelengths or light, ICG emits fluorescence in the near-infrared range. As mentioned above, NIR light source 708b provides NIR light and visible light source 708a provides visible light to excite the drug using ICG. The excitation light is further along the red spectrum, which may be transmitted to filter 740 using a near-infrared bandpass or highpass filter. Light from the red spectrum is then detected by optical image sensors 746 and 748. By combining the spectral characteristics of filter 740 with the expected behavior of light source 708 and fluorescent agent, drug and biological structures, such as drug-containing blood, at target site 700 are distinguished from other non-drug-containing structures. Can be done.

なお、この例では、NIR光源708bは、フィルタ740内の近赤外線フィルタと異なる主波長を有する。特に、NIR光源708bは、約780ナノメートル(「nm」)(概ねこの前後に光の出力スペクトルの大半が存在する)の主波長を有する。これとは対照的に、フィルタ740の近赤外線フィルタは、約810nmから910nmの範囲の波長の光を透過する。NIR光源708bからの光及びフィルタ740を透過した光は両方とも「近赤外線」波長である。しかしながら、光波長は、一例の立体視覚化カメラ300が光源708を用いて刺激し、刺激光を濾波しながら光学画像センサ744を用いて検出することができるように分離される。それに従ってこの構成により、蛍光剤の使用が可能になる。 Note that in this example, NIR light source 708b has a different dominant wavelength than the near-infrared filter in filter 740. In particular, NIR light source 708b has a dominant wavelength of approximately 780 nanometers ("nm"), around which most of the light output spectrum lies. In contrast, the near-infrared filter of filter 740 transmits light at wavelengths in the range of approximately 810 nm to 910 nm. The light from NIR light source 708b and the light transmitted through filter 740 are both at "near infrared" wavelengths. However, the light wavelengths are separated such that the example stereoscopic visualization camera 300 can stimulate using the light source 708 and detect using the optical image sensor 744 while filtering the stimulating light. This configuration accordingly allows the use of fluorescent agents.

別の実施形態では、薬剤は青色、紫色、及び近紫外線領域で励起し、赤色領域の光を蛍光することができる。そのような薬剤の一例には、5ALAの導入によって生じる悪性神経膠腫内のポルフィリン蓄積がある。この例では、青色光を、残りのスペクトルを透過しながら濾波して除外する必要がある。この状況では近紫外線遮断フィルタが使用される。上述した「近赤外線」の場合と同様に、NUV光源708cは、フィルタ740内の近紫外線遮断フィルタとは異なる主波長を有する。 In another embodiment, the agent can be excited in the blue, violet, and near ultraviolet regions and fluoresce light in the red region. An example of such an agent is porphyrin accumulation within malignant gliomas caused by the introduction of 5ALA. In this example, blue light needs to be filtered out while transmitting the rest of the spectrum. Near UV blocking filters are used in this situation. Similar to the "near infrared" case described above, the NUV light source 708c has a different dominant wavelength than the near ultraviolet blocking filter in the filter 740.

H.一例のレンズキャリア
先のセクションIV(D)では、前部レンズセット714、ズームレンズ組立体716、及び/又はレンズバレルセット718のレンズの少なくとも幾つかが、レールに沿って1つ又は複数のキャリアで移動し得ることを述べた。例えば、前部ズームレンズセット724は、前部ズームレンズ726及び728を一緒に軸方向に移動させるキャリアを備え得る。
H. Example Lens Carrier In Section IV(D) above, at least some of the lenses of front lens set 714, zoom lens assembly 716, and/or lens barrel set 718 are mounted on one or more carriers along a rail. I mentioned that it can be moved. For example, front zoom lens set 724 may include a carrier that axially moves front zoom lenses 726 and 728 together.

図11及び図12は、本開示の実施形態例による一例のキャリアの図を示す。図11では、キャリア724は、支持構造体1102内に右前部ズームレンズ726及び左前部ズームレンズ728を含む。キャリア724は、レール1106に移動可能に接続するように構成されたレールホルダ1104を含む。力「F」が作動セクション1108に印加されて、キャリア724をレール1106に沿って移動させる。力「F」は、リードねじ又は他の線形作動デバイスにより印加し得る。図11に示されるように、力「F」はキャリア724のオフセットに印加される。レール1106とキャリア724との摩擦が、モーメントMを生成し、モーメントMは支持構造体1102を図11に示されるY軸の回りを僅かに移動させる。この僅かな移動は、右前部ズームレンズ726及び左前部ズームレンズ728を逆方向に僅かにシフトさせ、立体画像のビュー間の視差誤差である疑似視差を生じさせる恐れがある。 11 and 12 illustrate diagrams of an example carrier according to example embodiments of the present disclosure. In FIG. 11, the carrier 724 includes a right front zoom lens 726 and a left front zoom lens 728 within the support structure 1102. Carrier 724 includes a rail holder 1104 configured to movably connect to rail 1106. Force “F” is applied to actuation section 1108 to move carrier 724 along rail 1106. Force "F" may be applied by a lead screw or other linear actuation device. As shown in FIG. 11, force "F" is applied to the offset of carrier 724. The friction between rail 1106 and carrier 724 creates a moment M y that causes support structure 1102 to move slightly about the Y axis shown in FIG. 11 . This slight movement may cause the front right zoom lens 726 and the front left zoom lens 728 to shift slightly in opposite directions, creating pseudo-parallax, which is a parallax error between views of a stereoscopic image.

図12は別の例のキャリア724を示す。この例では、力「F」は、レールホルダ1104及び支持構造体1102に接続された中心構造体1202に対称に印加される。力「F」はモーメントMを生成し、モーメントMはキャリア724を図12に示されるX軸の回りを僅かに回転又は移動させる。回転運動は、右前部ズームレンズ726及び左前部ズームレンズ728を同じ度数の運動だけ同じ方向にシフトさせ、それにより、疑似視差の発生を低減する(又はなくす)。 FIG. 12 shows another example carrier 724. In this example, force “F” is applied symmetrically to central structure 1202 connected to rail holder 1104 and support structure 1102. Force “F” creates a moment M x that causes carrier 724 to rotate or move slightly about the X-axis shown in FIG. 12 . The rotational movement shifts the front right zoom lens 726 and the front left zoom lens 728 by the same degree of movement in the same direction, thereby reducing (or eliminating) the occurrence of pseudo parallax.

図11及び図12は1つのキャリア内のレンズ726及び728を示すが、他の実施形態では、レンズ726及び728はそれぞれキャリア内にあり得る。これらの例では、各レンズは別個のトラック又はレール上にある。別個のリードねじを各レンズに提供して、各光路に沿った独立した軸方向運動を提供し得る。 Although FIGS. 11 and 12 show lenses 726 and 728 in one carrier, in other embodiments lenses 726 and 728 can be in each carrier. In these examples, each lens is on a separate track or rail. Separate lead screws may be provided for each lens to provide independent axial movement along each optical path.

I.一例の屈曲部
先のセクションIV(D)では、前部レンズセット714、ズームレンズ組立体716、及び/又はレンズバレルセット718のレンズの少なくとも幾つかが、半径方向に移動、回転、及び/又はチルトし得ることを述べた。追加又は代替として、光学画像センサ746及び748は、軸方向に移動し、及び/又は各入射光路に関してチルトし得る。軸方向運動及び/又はチルト運動は、1つ又は複数の屈曲部により提供し得る。幾つかの例では、屈曲部は、第1の屈曲部が第1の方向での運動を提供し、別個の屈曲部が第2の方向での独立した運動を提供するように連結し得る。別の例では、第1の屈曲部は、ピッチ軸に沿ったチルトを提供し、別個の屈曲部はヨー軸に沿ったチルトを提供する。
I. Example Bends In Section IV(D) above, at least some of the lenses of front lens set 714, zoom lens assembly 716, and/or lens barrel set 718 are radially moved, rotated, and/or I mentioned that it can be tilted. Additionally or alternatively, optical image sensors 746 and 748 may move axially and/or tilt with respect to each incident optical path. Axial movement and/or tilt movement may be provided by one or more bends. In some examples, the flexures may be coupled such that a first flexure provides movement in a first direction and a separate flexure provides independent movement in a second direction. In another example, the first flexure provides tilt along the pitch axis and the separate flexure provides tilt along the yaw axis.

図13は、本開示の実施形態例による一例の二重屈曲部1300の図を示す。図13に示される屈曲部1300は、光学画像センサ744用のものであり、最終的なフォーカスのために、各光軸に沿って右光学画像センサ746及び左光学画像センサ748を独立して移動させるように構成される。屈曲部1300は、一例の立体視覚化カメラ300の筐体302に接続し、作動のための剛性ベースを提供するための支持梁1301を含む。屈曲部1300は、運動方向1310を除き全方向で剛性の、各チャネル(例えば、センサ746及び748)の梁1302も含む。梁1302は、梁1302を運動方向1310、この例では平行四辺形並進において移動できるようにする可撓性ヒンジ1303に接続される。 FIG. 13 shows a diagram of an example double bend 1300, according to example embodiments of the present disclosure. The flexure 1300 shown in FIG. 13 is for optical image sensor 744 and independently moves right optical image sensor 746 and left optical image sensor 748 along each optical axis for final focus. configured to allow The flexure 1300 includes a support beam 1301 for connecting to the housing 302 of the example stereoscopic visualization camera 300 and providing a rigid base for operation. Flexure 1300 also includes a beam 1302 for each channel (eg, sensors 746 and 748) that is rigid in all directions except the direction of motion 1310. Beam 1302 is connected to a flexible hinge 1303 that allows beam 1302 to move in a direction of motion 1310, in this example a parallelogram translation.

アクチュエータデバイス1304は、所望の方向に所望の距離だけ梁1302を屈曲させる。アクチュエータデバイス1304は、各チャネルに押しねじ1306及び引きねじ1308を含み、これらのねじは逆の力を梁1302に印加して、可撓性ヒンジ1303を移動させる。梁1302は、例えば、押しねじ1306を回して梁1302を押すことにより内側に移動し得る。図13に示される屈曲部1300は、右光学画像センサ746及び左光学画像センサ748を軸方向にそれぞれの光軸に沿って独立して移動させるように構成される。 Actuator device 1304 bends beam 1302 a desired distance in a desired direction. Actuator device 1304 includes a push screw 1306 and a pull screw 1308 in each channel that apply opposing forces to beam 1302 to move flexible hinge 1303. Beam 1302 may be moved inward by, for example, turning push screw 1306 to push beam 1302. The flexure 1300 shown in FIG. 13 is configured to axially move the right optical image sensor 746 and the left optical image sensor 748 independently along their respective optical axes.

梁1302が所望の位置に屈曲した後、ロック機構に係合して、更なる移動を阻止し、それにより、剛性カラムを生み出す。ロック機構は、押しねじ1306及びそれぞれの同心引きねじ1308を含み、これらのねじは、締められると、梁1302の剛性カラムを生じさせる大きな逆の力を生成する。 After the beam 1302 has flexed to the desired position, it engages a locking mechanism to prevent further movement, thereby creating a rigid column. The locking mechanism includes a set screw 1306 and a respective concentric pull screw 1308 that, when tightened, generates a large opposing force that creates a rigid column of beam 1302.

光学画像センサ746及び748は同じ屈曲部1300に接続されて示されるが、他の例では、センサは別個の屈曲部に接続し得る。例えば、図8に戻ると、右光学画像センサ746は屈曲部750に接続され、左光学画像センサ748は屈曲部752に接続される。別個の屈曲部750及び752の使用により、光学画像センサ746及び748は、例えば、左右の光学ビューを位置合わせし、及び/又は疑似視差を低減又はなくすように別個に調整することができる。 Although optical image sensors 746 and 748 are shown connected to the same flexure 1300, in other examples the sensors may be connected to separate flexures. For example, returning to FIG. 8, right optical image sensor 746 is connected to flexure 750 and left optical image sensor 748 is connected to flexure 752. Through the use of separate flexures 750 and 752, optical image sensors 746 and 748 can be adjusted separately to, for example, align left and right optical views and/or reduce or eliminate pseudo-parallax.

加えて、図13は屈曲部1300に接続された画像センサ746及び748を示すが、他の例では、前部レンズセット714、ズームレンズ組立体716、レンズバレルセット718、及び/又は最終光学要素セット742のレンズは、代わりに代替又は追加の屈曲部に接続し得る。幾つかの場合、前部レンズセット714、ズームレンズ組立体716、レンズバレルセット718、及び/又は最終光学要素セット742の左右の各レンズは、別個の屈曲部1300に接続されて、独立した半径方向、回転方向、及び/又はチルトの調整を提供し得る。 Additionally, although FIG. 13 shows image sensors 746 and 748 connected to flexure 1300, in other examples front lens set 714, zoom lens assembly 716, lens barrel set 718, and/or final optical element The lenses of set 742 may alternatively be connected to alternative or additional bends. In some cases, each left and right lens of front lens set 714, zoom lens assembly 716, lens barrel set 718, and/or final optical element set 742 is connected to a separate flexure 1300 to provide an independent radius. Directional, rotational, and/or tilt adjustments may be provided.

屈曲部1300は、1μm未満の運動分解能を提供し得る。非常に細かい運動調整の結果として、左右の光路からの画像は、4Kディスプレイモニタで数ピクセル、さらには1ピクセルの位置合わせ精度を有し得る。そのような精度は、左右のビューを重ね、立体視ではなく両ビューを両目で観測することにより、各ディスプレイ512、514で閲覧し得る。 Flexure 1300 may provide motion resolution of less than 1 μm. As a result of very fine motion coordination, images from the left and right optical paths can have registration accuracy of several pixels or even one pixel on a 4K display monitor. Such accuracy can be viewed on each display 512, 514 by overlapping the left and right views and observing both views with both eyes rather than stereoscopically.

幾つかの実施形態では、屈曲部1300は、「SYSTEM FOR THE SUB-MICRON POSITIONING OF A READ/WRITE TRANSDUCER」という名称の米国特許第5,359,474号明細書に開示される屈曲部に含むことができ、この特許を全体的に参照により本明細書に援用する。更に他の実施形態では、前部レンズセット714、ズームレンズ組立体716、レンズバレルセット718、及び/又は最終光学要素セット742のレンズは、半径方向において静止し得る。代わりに、光路において調整可能な偏向方向を有する偏向要素(例えば、ミラー)を使用して、右光路及び/又は左光路を操縦して、位置合わせ及び/又は疑似視差を調整し得る。追加又は代替として、チルト/シフトレンズを光路に提供し得る。例えば、光軸のチルトは、調整可能なウェッジレンズを用いて制御し得る。更なる実施形態では、前部レンズセット714、ズームレンズ組立体716、レンズバレルセット718、及び/又は最終光学要素セット742のレンズは、電子的に変更することができるパラメータを有する動的レンズを含み得る。例えば、レンズは、Invenios France SAS製のVarioptic液晶レンズを含み得る。 In some embodiments, the flexure 1300 may include a flexure as disclosed in U.S. Pat. , which patent is hereby incorporated by reference in its entirety. In yet other embodiments, the lenses of front lens set 714, zoom lens assembly 716, lens barrel set 718, and/or final optical element set 742 may be radially stationary. Alternatively, deflection elements (eg, mirrors) with adjustable deflection directions in the optical paths may be used to steer the right and/or left optical paths to adjust alignment and/or pseudo-parallax. Additionally or alternatively, a tilt/shift lens may be provided in the optical path. For example, the tilt of the optical axis may be controlled using an adjustable wedge lens. In further embodiments, the lenses of front lens set 714, zoom lens assembly 716, lens barrel set 718, and/or final optical element set 742 include dynamic lenses with parameters that can be changed electronically. may be included. For example, the lens may include a Varioptic liquid crystal lens manufactured by Invenios France SAS.

V.立体視覚化カメラの一例のプロセッサ
一例の立体視覚化カメラ300は、右光路及び左光路からの画像データを記録し、画像データを立体画像として表示するためにモニタ512及び/又は514に出力するように構成される。図14は、本開示の実施形態例による、画像データを取得し処理する一例の立体視覚化カメラ300のモジュールの図を示す。モジュールが、特定のハードウェア、コントローラ、プロセッサ、ドライバ、及び/又はインターフェースにより実行される動作、メソッド、アルゴリズム、ルーチン、及び/又はステップを示すことを理解されたい。他の実施形態では、モジュールは結合、更に分割、及び/又は削除し得る。さらに、モジュール(又はモジュールの部分)の1つ又は複数は、リモートサーバ、コンピュータ、及び/又は分散計算環境等の立体視覚化カメラ300の外部に提供し得る。
V. Processor of an Example Stereo Visualization Camera The example stereo visualization camera 300 is configured to record image data from the right and left optical paths and output the image data to monitors 512 and/or 514 for display as stereo images. It is composed of FIG. 14 shows a diagram of modules of an example stereoscopic visualization camera 300 that acquires and processes image data, according to example embodiments of the present disclosure. It is to be understood that modules refer to operations, methods, algorithms, routines, and/or steps performed by particular hardware, controllers, processors, drivers, and/or interfaces. In other embodiments, modules may be combined, further divided, and/or deleted. Additionally, one or more of the modules (or portions of modules) may be provided external to stereoscopic visualization camera 300, such as on a remote server, computer, and/or distributed computing environment.

図14の図示の実施形態では、図7から図13における構成要素408、702~750、及び1300はまとめて光学要素1402と呼ばれる。光学要素1402(特に光学画像センサ746及び748)は、画像捕捉モジュール1404及びモータ・照明モジュール1406に通信可能に結合される。画像捕捉モジュール1404は情報プロセッサモジュール1408に通信可能に結合され、情報プロセッサモジュール1408は、外部配置のユーザ入力デバイス1410及び1つ又は複数のディスプレイモニタ512及び/又は514に通信可能に結合し得る。 In the illustrated embodiment of FIG. 14, components 408, 702-750, and 1300 in FIGS. 7-13 are collectively referred to as optical element 1402. Optical elements 1402 (particularly optical image sensors 746 and 748) are communicatively coupled to image capture module 1404 and motor and illumination module 1406. Image capture module 1404 is communicatively coupled to information processor module 1408, which may be communicatively coupled to externally located user input device 1410 and one or more display monitors 512 and/or 514.

一例の画像捕捉モジュール1404は、光学画像センサ746及び748から画像データを受信するように構成される。加えて、画像捕捉モジュール1404は、各ピクセルグリッド1002及び1004内にピクセルセット1006及び1008を定義し得る。画像捕捉モジュール1404は、フレームレート及び露出時間等の画像記憶特性を指定することもできる。 An example image capture module 1404 is configured to receive image data from optical image sensors 746 and 748. Additionally, image capture module 1404 may define pixel sets 1006 and 1008 within each pixel grid 1002 and 1004. Image capture module 1404 can also specify image storage characteristics such as frame rate and exposure time.

一例のモータ・照明モジュール1406は、1つ又は複数のモータ(又はアクチュエータ)を制御して、光学要素1402の1つ又は複数の半径方向位置、軸方向位置、及び/又はチルト位置を変更するように構成される。例えば、モータ又はアクチュエータは、図11及び図12に示されるように、駆動ねじを回して、トラック1106に沿ってキャリア724を移動させ得る。モータ又はアクチュエータはまた、図13の屈曲部1300の押しねじ1306及び/又は引きねじ1308を回して、レンズ及び/又は光学画像センサの半径方向位置、軸方向位置、又はチルト位置を調整することもできる。モータ・照明モジュール1406は、光源708を制御する駆動装置を含むこともできる。 An example motor and illumination module 1406 controls one or more motors (or actuators) to change one or more radial positions, axial positions, and/or tilt positions of optical element 1402. It is composed of For example, a motor or actuator may turn a drive screw to move carrier 724 along track 1106, as shown in FIGS. 11 and 12. The motor or actuator may also turn push screw 1306 and/or pull screw 1308 of flexure 1300 in FIG. 13 to adjust the radial, axial, or tilt position of the lens and/or optical image sensor. can. Motor and lighting module 1406 may also include a drive to control light source 708.

一例の情報プロセッサモジュール1408は、表示のために画像データを処理するように構成される。例えば、情報プロセッサモジュール1408は、色補正を画像データに提供し、画像データからの欠陥をフィルタリングし、及び/又は立体表示のために画像データをレンダリングし得る。情報プロセッサモジュール1408はまた、指定された調整を光学要素に対して実行する命令を画像捕捉モジュール1404及び/又はモータ・照明モジュール1406に提供することにより、1つ又は複数の較正ルーチンを実行して、立体視覚化カメラ300を較正することもできる。情報プロセッサモジュール1408は更に、画像位置合わせを改善し、及び/又は疑似視差を低減する命令を決定し、リアルタイムで画像捕捉モジュール1404及び/又はモータ・照明モジュール1406に提供し得る。 An example information processor module 1408 is configured to process image data for display. For example, information processor module 1408 may provide color correction to the image data, filter defects from the image data, and/or render the image data for stereoscopic display. Information processor module 1408 also performs one or more calibration routines by providing instructions to image capture module 1404 and/or motor and illumination module 1406 to perform specified adjustments to the optical elements. , the stereoscopic visualization camera 300 may also be calibrated. Information processor module 1408 may further determine and provide instructions to image capture module 1404 and/or motor and illumination module 1406 in real time to improve image alignment and/or reduce pseudo-parallax.

一例のユーザ入力デバイス1410は、立体視覚化カメラ300の動作を変更する命令を提供するコンピュータを含み得る。ユーザ入力デバイス1410は、立体視覚化カメラ300のパラメータ及び/又は特徴を選択する制御機構を含むこともできる。一実施形態では、ユーザ入力デバイス1410は図3の制御アーム304を含む。ユーザ入力デバイス1410は、情報プロセッサモジュール1408にハードワイヤードし得る。追加又は代替として、ユーザ入力デバイス1410は、情報プロセッサモジュール1408に無線又は光学的に通信可能に結合される。 An example user input device 1410 may include a computer that provides instructions to change the operation of stereoscopic visualization camera 300. User input device 1410 may also include controls for selecting parameters and/or characteristics of stereoscopic visualization camera 300. In one embodiment, user input device 1410 includes control arm 304 of FIG. User input device 1410 may be hardwired to information processor module 1408. Additionally or alternatively, user input device 1410 is communicatively coupled to information processor module 1408 wirelessly or optically.

一例のディスプレイモニタ512及び514は、例えば、三次元閲覧経験を提供するように構成されたテレビジョン及び/又はコンピュータモニタを含む。例えば、ディスプレイモニタはLG(登録商標)55LW5600テレビジョンを含み得る。代替的には、ディスプレイモニタ512及び514は、ラップトップ画面、タブレット画面、スマートフォン画面、スマートメガネ、プロジェクタ、ホログラフィックディスプレイ等を含み得る。 Example display monitors 512 and 514 include, for example, a television and/or computer monitor configured to provide a three-dimensional viewing experience. For example, the display monitor may include an LG® 55LW5600 television. Alternatively, display monitors 512 and 514 may include laptop screens, tablet screens, smartphone screens, smart glasses, projectors, holographic displays, etc.

以下のセクションでは、画像捕捉モジュール1404、モータ・照明モジュール1406、及び情報プロセッサモジュール1408についてより詳細に説明する。 The following sections describe the image capture module 1404, motor and lighting module 1406, and information processor module 1408 in more detail.

A.一例の画像捕捉モジュール
図15は、本開示の実施形態例による画像捕捉モジュール1404の図を示す。一例の画像捕捉モジュール1404は画像センサコントローラ1502を含み、画像センサコントローラ1502は、プロセッサ1504、メモリ1506、及び通信インターフェース1508を含む。プロセッサ1504、メモリ1506、及び通信インターフェース1508は一緒に、画像センサコントローラバス1512を介して通信可能に結合し得る。
A. Example Image Capture Module FIG. 15 shows a diagram of an image capture module 1404 according to an example embodiment of the disclosure. An example image capture module 1404 includes an image sensor controller 1502 that includes a processor 1504, a memory 1506, and a communication interface 1508. Processor 1504, memory 1506, and communication interface 1508 may be communicatively coupled together via image sensor controller bus 1512.

プロセッサ1504には、メモリ1506内に永続的に記憶された1つ又は複数のプログラム1510をプログラム可能である。プログラム1510は、実行されると、プロセッサ1504に、1つ又は複数のステップ、ルーチン、アルゴリズム等を実行させる機械可読命令を含む。幾つかの実施形態では、プログラム1510は、情報プロセッサモジュール1408から及び/又はユーザ入力デバイス1410からメモリ1506に送信し得る。他の例では、プログラム1510は、情報プロセッサモジュール1408から及び/又はユーザ入力デバイス1410からプロセッサ1504に直接送信し得る。 Processor 1504 is programmable with one or more programs 1510 permanently stored in memory 1506. Program 1510 includes machine-readable instructions that, when executed, cause processor 1504 to perform one or more steps, routines, algorithms, etc. In some embodiments, program 1510 may be transmitted to memory 1506 from information processor module 1408 and/or from user input device 1410. In other examples, program 1510 may be sent directly to processor 1504 from information processor module 1408 and/or from user input device 1410.

一例の画像センサコントローラ1502は、光学要素1402の右光学画像センサ746及び左光学画像センサ748に通信可能に結合される。画像センサコントローラ1502は、タイミング制御データ及び/又はプログラミングデータに加えて、電力を光学画像センサ746及び748に提供するように構成される。加えて、画像センサコントローラ1502は、光学画像センサ746及び748から画像及び/又は診断データを受信するように構成される。 An example image sensor controller 1502 is communicatively coupled to a right optical image sensor 746 and a left optical image sensor 748 of optical element 1402. Image sensor controller 1502 is configured to provide power to optical image sensors 746 and 748 in addition to timing control data and/or programming data. Additionally, image sensor controller 1502 is configured to receive images and/or diagnostic data from optical image sensors 746 and 748.

各光学画像センサ746及び748は、特定のパラメータ及び/又は特性を制御するプログラマブルレジスタを含む。レジスタの1つ又は複数は、図10の各ピクセルグリッド1002及び1004内のピクセルセット1006及び1008の位置を指定し得る。レジスタは、ピクセルグリッド1002及び1004の原点又は縁部点に対する開始位置の値を記憶し得る。レジスタはまた、ピクセルセット1006及び1008の幅及び高さを指定して、関心のある矩形領域を画定することもできる。画像センサコントローラ1502は、指定されたピクセルセット1006及び1008内にあるピクセルのピクセルデータを読み出すように構成される。幾つかの実施形態では、光学画像センサ746及び748のレジスタは、円、楕円、三角形等の他の形状のピクセルセットの指定を促進し得る。追加又は代替として、光学画像センサ746及び748のレジスタは、ピクセルグリッド1002及び1004のそれぞれに複数のピクセルセットを同時に指定できるようにし得る。 Each optical image sensor 746 and 748 includes programmable registers that control certain parameters and/or characteristics. One or more of the registers may specify the location of pixel sets 1006 and 1008 within each pixel grid 1002 and 1004 of FIG. The registers may store starting position values relative to the origin or edge points of pixel grids 1002 and 1004. The register can also specify the width and height of pixel sets 1006 and 1008 to define a rectangular area of interest. Image sensor controller 1502 is configured to read pixel data for pixels within designated pixel sets 1006 and 1008. In some embodiments, the registers of optical image sensors 746 and 748 may facilitate specifying pixel sets of other shapes, such as circles, ellipses, triangles, etc. Additionally or alternatively, registers in optical image sensors 746 and 748 may allow multiple pixel sets to be designated simultaneously to pixel grids 1002 and 1004, respectively.

ピクセルグリッド1002及び1004のピクセルの感光部分は、埋め込み回路により制御され、埋め込み回路は異なる感光モードを指定する。モードはリセットモード、積分モード、及び読み出しモードを含む。リセットモード中、ピクセルの電荷蓄積構成要素は、既知の電圧レベルにリセットされる。積分モード中、ピクセルは「オン」状態に切り替えられる。検知エリア又はピクセルの要素に達した光は、電荷を電荷蓄積構成要素(例えば、キャパシタ)内に蓄積させる。蓄えられた電荷の量は、積分モード中、検知要素に入射した光の量に対応する。読み出しモード中、電荷量はデジタル値に変換され、埋め込み回路を介して光学画像センサ746及び748から読み出され、画像センサコントローラ1502に送信される。あらゆるピクセルを読み出すために、所与の領域内の各ピクセルの電荷蓄積構成要素は、切り替え内部回路により読み出し回路に順次接続され、読み出し回路は、アナログ値からデジタル値への電荷の変換を実行する。幾つかの実施形態では、ピクセルアナログデータは12ビットデジタルデータに変換される。しかしながら、分解能がノイズ許容度、整定時間、フレームレート、及びデータ送信速度に基づいてより高い又はより低いことがあることを理解されたい。各ピクセルのデジタルピクセルデータはレジスタに記憶し得る。 The photosensitive portions of the pixels of pixel grids 1002 and 1004 are controlled by embedded circuitry that specifies different photosensitive modes. The modes include reset mode, integration mode, and readout mode. During the reset mode, the charge storage components of the pixel are reset to a known voltage level. During integration mode, the pixels are switched to the "on" state. Light reaching an element of the sensing area or pixel causes charge to accumulate in a charge storage component (eg, a capacitor). The amount of charge stored corresponds to the amount of light incident on the sensing element during the integration mode. During the readout mode, the amount of charge is converted to a digital value and read from the optical image sensors 746 and 748 via embedded circuitry and sent to the image sensor controller 1502. To read out every pixel, the charge storage components of each pixel within a given area are sequentially connected to a readout circuit by a switching internal circuit, and the readout circuit performs the conversion of the charge from analog values to digital values. . In some embodiments, pixel analog data is converted to 12-bit digital data. However, it should be understood that the resolution may be higher or lower based on noise tolerance, settling time, frame rate, and data transmission rate. Digital pixel data for each pixel may be stored in a register.

図15の画像センサコントローラ1502の一例のプロセッサ1504は、ピクセルセット1006及び1008内の各ピクセルからピクセルデータ(例えば、ピクセルの要素への入射光量に対応する、ピクセルに貯蔵された電荷を示すデジタルデータ)を受信するように構成される。プロセッサ1504は、右光学画像センサ746から受信したピクセルデータから右画像を形成する。加えて、プロセッサ1504は、左光学画像センサ748から受信したピクセルデータから左画像を形成する。代替的には、プロセッサ1504は、左画像及び右画像のそれぞれの一部のみ(例えば、一行又は数行)を形成してから、データを下流に送信する。幾つかの実施形態では、プロセッサ1504はレジスタ位置を使用して、画像内の各ピクセルの位置を特定する。 The example processor 1504 of the image sensor controller 1502 of FIG. ). Processor 1504 forms a right image from the pixel data received from right optical image sensor 746. Additionally, processor 1504 forms a left image from the pixel data received from left optical image sensor 748. Alternatively, processor 1504 forms only a portion (eg, one or several rows) of each of the left and right images before transmitting the data downstream. In some embodiments, processor 1504 uses register locations to locate each pixel within the image.

右画像及び左画像が作成された後、プロセッサ1504は右画像及び左画像を同期する。次に、プロセッサ1504は、右画像及び左画像の両方を通信インターフェース1508に送信し、通信インターフェース1508は画像を処理して、通信チャネル1514を介して情報プロセッサモジュール1408に送信するためのフォーマットにする。幾つかの実施形態では、通信チャネル1514は、USB2.0又は3.0規格に準拠し、銅線又は光ファイバケーブルを含み得る。通信チャネル1514は、最高で毎秒左右画像(立体分解能1920×1080及びデータ変換分解能12ビットを有する)約60対以上を1秒当たり送信することが可能であり得る。銅線USBの使用により、電力を情報プロセッサモジュール1408から画像捕捉モジュール1404に提供することができる。 After the right and left images are created, processor 1504 synchronizes the right and left images. Processor 1504 then sends both the right and left images to communication interface 1508 which processes the images into a format for transmission to information processor module 1408 via communication channel 1514. . In some embodiments, communication channel 1514 is compliant with USB 2.0 or 3.0 standards and may include copper wire or fiber optic cable. The communication channel 1514 may be capable of transmitting up to about 60 or more pairs of left and right images (with a stereoscopic resolution of 1920×1080 and a data conversion resolution of 12 bits) per second. Power can be provided from the information processor module 1408 to the image capture module 1404 through the use of copper wire USB.

以下のセクションでは、特定のプログラム1510を実行して、光学画像センサ746及び748から画像データを取得及び/又は処理する画像センサコントローラ1502のプロセッサ1504により提供される特徴について更に説明する。 The following sections further describe features provided by processor 1504 of image sensor controller 1502 that executes particular programs 1510 to acquire and/or process image data from optical image sensors 746 and 748.

1.一例の露出
一例のプロセッサ1504は、光学画像センサ746及び748が上述した積分モードである時間量を制御又はプログラムし得る。積分モードは、露出時間と呼ばれる時間期間にわたり行われる。プロセッサ1504は、光学画像センサ746及び748の露出レジスタに値を書き込むことにより露出時間を設定し得る。追加又は代替として、プロセッサ1504は、露出時間の開始及び終了を通知する命令を光学画像センサ746及び748に送信し得る。露出時間は、数ミリ秒(「ms」)~数秒でプログラムし得る。好ましくは、露出時間は概ね、フレームレートの逆数である。
1. Example Exposure The example processor 1504 may control or program the amount of time that the optical image sensors 746 and 748 are in the integration mode described above. Integration mode occurs over a period of time called the exposure time. Processor 1504 may set the exposure time by writing values to exposure registers of optical image sensors 746 and 748. Additionally or alternatively, processor 1504 may send instructions to optical image sensors 746 and 748 to signal the start and end of the exposure time. Exposure times can be programmed from a few milliseconds ("ms") to a few seconds. Preferably, the exposure time is approximately the inverse of the frame rate.

幾つかの実施形態では、プロセッサ1504は、ローリングシャッタ法を光学画像センサ746及び748に適用して、ピクセルデータを読み取り得る。この方法下では、ピクセルセット1006及び1008のピクセルの所与の行の露出時間は、その行内のピクセルが読み出され、次にリセットされた直後に開始される。短時間後、次の行(通常、設定されたばかりの行に物理的に最も近い)が読み出され、それに従ってリセットされ、その露出時間が再開される。各ピクセル行の順次読み出しは、ピクセルセット1006及び1008の最後又は最下行が読み出されリセットされるまで続けられる。次に、プロセッサ1504はピクセルセット1006及び1008の最上行に戻り、次の画像のピクセルデータを読み出す。 In some embodiments, processor 1504 may apply a rolling shutter method to optical image sensors 746 and 748 to read pixel data. Under this method, the exposure time for a given row of pixels in pixel sets 1006 and 1008 begins immediately after the pixels in that row are read out and then reset. After a short period of time, the next row (usually physically closest to the row just set) is read out, reset accordingly, and its exposure time is resumed. Sequential reading of each pixel row continues until the last or bottom row of pixel sets 1006 and 1008 is read and reset. Processor 1504 then returns to the top row of pixel sets 1006 and 1008 and reads the pixel data for the next image.

別の実施形態では、プロセッサ1504はグローバルシャッタ法を適用する。この方法下では、プロセッサ1504は、ローリングシャッタ法と同様にして読み出し及びリセットを実施する。しかしながら、この方法では、積分は、ピクセルセット1006及び1008内の全てのピクセルで同時に行われる。グローバルシャッタ法は、全てのピクセルが同時に露出されるため、ローリングシャッタ法と比較して、画像内の欠陥が減るという利点を有する。比較として、ローリングシャッタ法では、ピクセルセットのラインの露出間に僅かな時間遅延がある。小さな欠陥は、ライン露出間、特に読み出し間で標的部位700に小さな変化が生じ得る上のラインと下のラインとの間の時間中に生じる恐れがある。 In another embodiment, processor 1504 applies a global shutter method. Under this method, processor 1504 performs reads and resets similar to the rolling shutter method. However, in this method, the integration is performed on all pixels in pixel sets 1006 and 1008 simultaneously. The global shutter method has the advantage of reducing defects in the image compared to the rolling shutter method because all pixels are exposed at the same time. By way of comparison, in the rolling shutter method there is a slight time delay between the exposure of lines of pixel sets. Small defects may occur during the time between the top and bottom lines where small changes in target region 700 may occur between line exposures, especially between readouts.

2.一例のダイナミックレンジ
一例のプロセッサ1504は、1つ又は複数のプログラム1510を実行して、光学画像センサ746及び748のダイナミックレンジ外の光を検出し得る。一般に、極めて明るい光はピクセルの電荷貯蔵領域を完全に満たし、それにより、厳密な輝度レベルに関する画像情報を失うことになる。同様に、極めて低い光又は光がないことは、ピクセル内の有意味な電荷を影響することができず、これもまた画像情報の損失に繋がる。それに従ってこのピクセルデータからの作成された画像は、標的部位700における光強度を正確に反映しない。
2. Example Dynamic Range Example processor 1504 may execute one or more programs 1510 to detect light outside the dynamic range of optical image sensors 746 and 748. Typically, extremely bright light completely fills the charge storage area of the pixel, thereby causing a loss of image information regarding the exact brightness level. Similarly, very low light or no light cannot affect any meaningful charge within the pixel, which also leads to loss of image information. The image created from this pixel data accordingly does not accurately reflect the light intensity at the target site 700.

ダイナミックレンジ外の光を検出するために、プロセッサ1504は、例えば、マルチ露出プログラム、マルチスロープピクセル積分プログラム、及びマルチセンサ画像融合プログラムを含む幾つかの高ダイナミックレンジ(「HDR」)プログラム1510の1つを実行し得る。一例では、マルチ露出プログラムは、光学画像センサ746及び748に統合又は埋め込まれたHDR特徴を利用し得る。この方法下では、ピクセルセット1006及び1008は、通常の露出時間にわたり積分モードになる。ピクセルセット1006及び1008のラインは読み出され、光学画像センサ746及び748のメモリ及び/又は画像センサコントローラ1502のメモリ1506に記憶される。読み出しがプロセッサ1504により実行された後、ピクセルセット1006及び1008内の各ラインは、通常の露出時間未満の第2の露出時間にわたり再びオンになる。プロセッサ1504は、第2の露出時間後、ピクセルの各ラインを読み出し、このピクセルデータを同じラインの通常露出時間からのピクセルデータと結合する。プロセッサ1504は、トーンマッピングを適用して、通常長さの露出時間からのピクセルデータか、及び長さの短い露出時間からのピクセルデータを選び(又は結合し)、生成されたピクセルデータを、下流の処理及び表示と互換性がある範囲にマッピングする。マルチ露出プログラムを使用する場合、プロセッサ1504は、光学画像センサ746及び748のダイナミックレンジを拡大し、表示のためにピクセルデータの結果としての範囲を圧縮することが可能である。 To detect light outside the dynamic range, processor 1504 may run one of several high dynamic range ("HDR") programs 1510, including, for example, a multi-exposure program, a multi-slope pixel integration program, and a multi-sensor image fusion program. one can be carried out. In one example, the multi-exposure program may utilize HDR features integrated or embedded in optical image sensors 746 and 748. Under this method, pixel sets 1006 and 1008 are in integration mode for a normal exposure time. The lines of pixel sets 1006 and 1008 are read out and stored in memory of optical image sensors 746 and 748 and/or memory 1506 of image sensor controller 1502. After readout is performed by processor 1504, each line in pixel sets 1006 and 1008 is turned on again for a second exposure time that is less than the normal exposure time. Processor 1504 reads each line of pixels after the second exposure time and combines this pixel data with pixel data from the same line's normal exposure time. Processor 1504 applies tone mapping to select (or combine) pixel data from normal length exposure times and pixel data from short length exposure times, and transmits the generated pixel data downstream. mapping to a range compatible with processing and display. When using a multi-exposure program, processor 1504 can expand the dynamic range of optical image sensors 746 and 748 and compress the resulting range of pixel data for display.

プロセッサ1510は、比較的暗い光の場合でも同様のプログラムを動作し得る。しかしながら、第2の露出時間が通常時間未満である代わりに、第2の露出時間は通常時間よりも長く、それにより、電荷を蓄積するより多くの時間をピクセルに提供する。プロセッサ1510はトーンマッピングを使用して、ピクセルデータ読み出しを調整し、より長い露出時間を補償し得る。 Processor 1510 may operate similar programs even in relatively dim light. However, instead of the second exposure time being less than the normal time, the second exposure time is longer than the normal time, thereby providing the pixel with more time to accumulate charge. Processor 1510 may use tone mapping to adjust pixel data readout to compensate for longer exposure times.

3.一例のフレームレート
一例のプロセッサ1510は、光学画像センサ746及び748のフレームレートを制御又は指定し得る。幾つかの実施形態では、光学画像センサ746及び748は、ピクセルセット1006及び1008内の各ピクセルが上述した撮像モードを通して循環する毎秒当たりの回数を指定するオンボードタイミング回路及びプログラマブル制御レジスタを含む。フレーム又は画像は、ピクセルセットが3つのモードを通して進む都度、形成される。フレームレートは、ピクセルセット1006及び1008内のピクセルが積分され、読み出され、リセットされる毎秒当たりの回数である。
3. Example Frame Rate Example processor 1510 may control or specify the frame rate of optical image sensors 746 and 748. In some embodiments, optical image sensors 746 and 748 include onboard timing circuitry and programmable control registers that specify the number of times per second that each pixel in pixel sets 1006 and 1008 cycles through the imaging modes described above. A frame or image is formed each time a set of pixels progresses through the three modes. The frame rate is the number of times per second that the pixels in pixel sets 1006 and 1008 are integrated, read out, and reset.

プロセッサ1510は、読み出しが適切なときに行われるように、光学画像センサ746及び748と同期し得る。他の例では、プロセッサ1510は光学画像センサ746及び748と非同期である。これらの他の例では、光学画像センサ746及び748は、一時的なメモリ又はキューへのローカル読み出し後、ピクセルデータを記憶し得る。次に、ピクセルデータは、右画像及び左画像の同期のために、プロセッサ1510により周期的に読み出し得る。 Processor 1510 may synchronize optical image sensors 746 and 748 so that readouts occur at the appropriate times. In other examples, processor 1510 is asynchronous with optical image sensors 746 and 748. In these other examples, optical image sensors 746 and 748 may store pixel data after local readout to a temporary memory or queue. Pixel data may then be read periodically by processor 1510 for right and left image synchronization.

時系列でのフレーム又は画像の処理(例えば、画像ストリームの作成)は、ビデオとして伝達される動きの錯覚を提供する。一例のプロセッサ1510は、観測者に滑らかなビデオの見た目を提供するフレームレートをプログラムするように構成される。低すぎるフレームレートは、任意の動きを途切れ途切れ又は不均等にする。最大閾値フレームレートを超える動画品質は、観測者にとって識別可能ではない。一例のプロセッサ1510は、典型的な外科視覚化で毎秒約20~70フレーム、好ましくは毎秒50~60フレームを生成するように構成される。 Processing frames or images in time sequence (eg, creating an image stream) provides the illusion of motion that is conveyed as video. One example processor 1510 is configured to program a frame rate that provides a smooth video appearance to a viewer. A frame rate that is too low will make any motion choppy or uneven. Video quality above the maximum threshold frame rate is not discernible to the observer. An example processor 1510 is configured to generate approximately 20-70 frames per second, preferably 50-60 frames per second for typical surgical visualization.

4.一例のセンサ同期
図15の一例のプロセッサ1504は、光学画像センサ746及び748の同期を制御するように構成される。プロセッサ1504は、例えば、光学画像センサ746及び748に電力を同時に提供し得る。次に、プロセッサ1504は、クロック信号を光学画像センサ746及び748の両方に提供し得る。クロック信号は、光学画像センサ746及び748が自由実行モードで独立して、しかし同期され及び/又は同時に動作できるようにする。したがって、光学画像センサ746及び748は、ピクセルデータを略同時に記録する。一例のプロセッサ1504は、ピクセルデータを光学画像センサ746及び748から受信し、画像及び/又はフレームの少なくとも一部を構築し、任意のわずかなタイミングずれを説明するように画像及び/又はフレーム(又はその一部)を同期させる。通常、光学画像センサ746及び748間のラグは、200マイクロ秒未満である。他の実施形態では、プロセッサ1504は同期ピンを使用して、例えば、各リセットモード後、光学画像センサ746及び748を同時にアクティブ化し得る。
4. Example Sensor Synchronization The example processor 1504 of FIG. 15 is configured to control the synchronization of optical image sensors 746 and 748. Processor 1504 may, for example, simultaneously provide power to optical image sensors 746 and 748. Processor 1504 may then provide clock signals to both optical image sensors 746 and 748. The clock signal allows optical image sensors 746 and 748 to operate independently, but synchronized and/or simultaneously in a free running mode. Therefore, optical image sensors 746 and 748 record pixel data substantially simultaneously. An example processor 1504 receives pixel data from optical image sensors 746 and 748, constructs at least a portion of the image and/or frame, and configures the image and/or frame (or some of them). Typically, the lag between optical image sensors 746 and 748 is less than 200 microseconds. In other embodiments, processor 1504 may use a synchronization pin to simultaneously activate optical image sensors 746 and 748, for example, after each reset mode.

B.一例のモータ・照明モジュール
図15の一例の立体視覚化カメラ300は、光学要素1402のレンズを移動させ、及び/又は光源708から出力される照明を制御する1つ又は複数のモータ又はアクチュエータを制御するモータ・照明モジュール1406を含む。一例のモータ・照明モジュール1406は、プロセッサ1522、メモリ1524、及び通信バス1528を介して通信可能に一緒に結合された通信インターフェース1526を含むモータ・照明コントローラ1520を含む。メモリ1524は、プロセッサ1522で実行可能であり、光学要素1402のレンズ及び/又は光源708の制御、調整、及び/又は較正を実行する1つ又は複数のプログラム1530を記憶する。幾つかの実施形態では、プログラム1530は、情報プロセッサモジュール1408及び/又はユーザ入力デバイス1410からメモリ1524に送信し得る。
B. Example Motor and Lighting Module The example stereoscopic visualization camera 300 of FIG. 15 controls one or more motors or actuators that move the lens of optical element 1402 and/or control the illumination output from light source 708. A motor/lighting module 1406 is included. One example motor and lighting module 1406 includes a motor and lighting controller 1520 that includes a processor 1522, a memory 1524, and a communication interface 1526 communicatively coupled together via a communication bus 1528. Memory 1524 stores one or more programs 1530 that are executable on processor 1522 and that perform control, adjustment, and/or calibration of lenses and/or light sources 708 of optical element 1402. In some embodiments, program 1530 may be transmitted to memory 1524 from information processor module 1408 and/or user input device 1410.

通信インターフェース1526は、画像捕捉モジュール1404の通信インターフェース1508及び情報プロセッサモジュール1408の通信インターフェース1532に通信可能に結合される。通信インターフェース1526は、コマンドメッセージ、タイミング信号、ステータスメッセージ等を画像捕捉モジュール1404及び情報プロセッサモジュール1408から受信するように構成される。例えば、画像捕捉モジュール1404のプロセッサ1504は、タイミング信号をプロセッサ1522に送信して、照明制御と光学画像センサ746及び748の露出時間とのタイミングを同期させ得る。別の例では、情報処理モジュール1408は、特定の光源708にアクティブ化し及び/又は光学要素1402の特定のレンズを移動させるように命令するコマンドメッセージを送信し得る。コマンドは、例えば、ユーザ入力デバイス1410を介してオペレータから受信した入力に応答し得る。追加又は代替として、コマンドは、較正ルーチン及び/又はリアルタイム調整に応答して、疑似視差等の画像位置合わせずれ及び/又は欠陥を低減又はなくし得る。 Communication interface 1526 is communicatively coupled to communication interface 1508 of image capture module 1404 and communication interface 1532 of information processor module 1408. Communication interface 1526 is configured to receive command messages, timing signals, status messages, etc. from image capture module 1404 and information processor module 1408. For example, the processor 1504 of the image capture module 1404 may send timing signals to the processor 1522 to synchronize the timing of the lighting control and exposure times of the optical image sensors 746 and 748. In another example, information processing module 1408 may send a command message instructing a particular light source 708 to activate and/or move a particular lens of optical element 1402. The commands may be responsive to input received from an operator via user input device 1410, for example. Additionally or alternatively, the commands may be responsive to calibration routines and/or real-time adjustments to reduce or eliminate image misregistration and/or defects, such as pseudo-parallax.

一例のモータ・照明モジュール1406は、光学要素1402のレンズの軸方向及び/又は半径方向位置及び/又は光源708から出力される光を調整するモータを制御する電力を提供する駆動装置を含む。特に、モータ・照明モジュール1406は、NUV信号をNUV光源708cに送信するNUV光駆動装置1534、NIR信号をNIR光源708bに送信するNIR光駆動装置1536、及び可視光信号を可視光源708aに送信する可視光駆動装置1538を含む。 An example motor and illumination module 1406 includes a drive that provides power to control a motor that adjusts the axial and/or radial position of the lens of the optical element 1402 and/or the light output from the light source 708. In particular, the motor and lighting module 1406 includes a NUV light driver 1534 that sends NUV signals to NUV light source 708c, a NIR light driver 1536 that sends NIR signals to NIR light source 708b, and a visible light signal to visible light source 708a. A visible light driving device 1538 is included.

加えて、モータ・照明モジュール1406は、図7及び図8のフィルタ740を制御するフィルタモータ信号をフィルタモータ1542に送信するフィルタモータ駆動装置1540を含む。モータ・照明モジュール1406は、後部ズームレンズモータ信号を後部ズームレンズモータ1546に送信する後部ズームレンズモータ駆動装置1544、前部ズームレンズモータ信号を前部ズームレンズモータ1550に送信する前部ズームレンズモータ駆動装置1548、及び作業距離レンズモータ信号を作業距離レンズモータ1554に送信する後部作業距離レンズモータ駆動装置1552を含む。モータ・照明モジュール1406はまた、偏向要素712を移動及び/又はチルトさせるモータ及び/又はアクチュエータを含むこともできる。 In addition, motor and lighting module 1406 includes a filter motor drive 1540 that sends filter motor signals to filter motor 1542 that control filter 740 of FIGS. 7 and 8. The motor and illumination module 1406 includes a rear zoom lens motor drive 1544 that sends rear zoom lens motor signals to a rear zoom lens motor 1546 and a front zoom lens motor that sends front zoom lens motor signals to a front zoom lens motor 1550 . A drive 1548 and a rear working distance lens motor drive 1552 that sends working distance lens motor signals to a working distance lens motor 1554 . Motor and lighting module 1406 may also include a motor and/or actuator to move and/or tilt deflection element 712.

後部ズームレンズモータ1546は、キャリア730をトラック又はレールに沿って軸方向に移動させる駆動ねじを回転するように構成される。前部ズームレンズモータ1550は、キャリア724を図11及び図12に示されるトラック1106に沿って軸方向に移動させる駆動ねじを回転するように構成される。作業距離レンズモータ1554は、後部作業距離レンズ702をトラック又はレールに沿って軸方向に移動させる駆動ねじを回転するように構成される。 Rear zoom lens motor 1546 is configured to rotate a drive screw that moves carrier 730 axially along a track or rail. Front zoom lens motor 1550 is configured to rotate a drive screw that moves carrier 724 axially along track 1106 shown in FIGS. 11 and 12. Working distance lens motor 1554 is configured to rotate a drive screw that moves rear working distance lens 702 axially along a track or rail.

駆動装置1536、1538、及び1540は、任意のタイプの照明駆動装置、変圧器、及び/又はバラストを含み得る。駆動装置1536、1538、及び1540は、光源708により出力される光の強度を制御するパルス幅変調(「PWM」)信号を出力するように構成される。幾つかの実施形態では、プロセッサ1522は、フィルタモータ駆動装置1540を使用して特定のフィルタを適用するタイミングに対応するように、駆動装置1536、1538、及び1540のタイミングを制御し得る。 Drives 1536, 1538, and 1540 may include any type of lighting drive, transformer, and/or ballast. Drives 1536 , 1538 , and 1540 are configured to output pulse width modulated (“PWM”) signals that control the intensity of light output by light source 708 . In some embodiments, processor 1522 may control the timing of drives 1536, 1538, and 1540 to correspond to the timing of applying a particular filter using filter motor drive 1540.

一例の駆動装置1540、1544、1548、及び1552は、例えば、ステッパモータ駆動装置及び/又はDCモータ駆動装置を含み得る。同様に、モータ1542、1546、1550、及び/又は1554は、ステッパモータ、DCモータ、又は他の電気、磁気、熱、油圧、若しくは空気圧アクチュエータを含み得る。モータ1542、1546、1550、及び/又は1554は、例えば、フィードバック報告及び制御のために、ロータリエンコーダ、スロット型光学スイッチ(例えば、フォトインタラプタ)、及び/又は線形エンコーダを含み、シャフト及び/又は車軸の角度位置を報告し得る。代替の実施形態は、適した駆動装置を有するボイスコイルモータ、圧電モータ、リニアモータ、及びそれらの均等物を含み得る。 Example drives 1540, 1544, 1548, and 1552 may include, for example, a stepper motor drive and/or a DC motor drive. Similarly, motors 1542, 1546, 1550, and/or 1554 may include stepper motors, DC motors, or other electrical, magnetic, thermal, hydraulic, or pneumatic actuators. Motors 1542, 1546, 1550, and/or 1554 may include, for example, rotary encoders, slotted optical switches (e.g., photointerrupters), and/or linear encoders for feedback reporting and control, and may include shaft and/or axle may report the angular position of. Alternative embodiments may include voice coil motors, piezoelectric motors, linear motors, and equivalents thereof with suitable drives.

駆動装置1534、1536、1538、1540、1544、1548、及び1552を制御するために、プロセッサ1522は、コマンドメッセージをデジタル信号及び/又はアナログ信号に変換するプログラム1530を使用するように構成される。プロセッサ1522は、デジタル信号及び/又はアナログ信号を適切な駆動装置に送信し、駆動装置は、受信信号に対応するPWM信号等のアナログ電力信号を出力する。アナログ電力信号は、電力を適切なモータ又はアクチュエータに提供し、所望量だけモータ又はアクチュエータを回転させる(又は他の方法で移動させる)。 To control drives 1534, 1536, 1538, 1540, 1544, 1548, and 1552, processor 1522 is configured to use a program 1530 that converts command messages into digital and/or analog signals. Processor 1522 transmits digital and/or analog signals to appropriate drives, which output analog power signals, such as PWM signals, corresponding to the received signals. The analog power signal provides power to the appropriate motor or actuator to rotate (or otherwise move) the motor or actuator by the desired amount.

プロセッサ1522は、フィードバックを駆動装置1534、1536、1538、1540、1544、1548、及び1552、モータ1542、1546、1550、及び/又は1554、及び/又は光源708から受信し得る。フィードバックは、例えば、照明レベル又は照明出力に対応する。モータに関しては、フィードバックは、モータ(又は他のアクチュエータ)の位置及び/又は移動量に対応する。プロセッサ1522は、プログラム1530を使用して、受信信号をデジタルフィードバックに翻訳して、例えば、対応するモータ又はアクチュエータシャフトの角度位置に基づいてレンズの半径方向位置、チルト位置、及び/又は軸方向位置を特定する。次に、プロセッサ1522は、ユーザへの表示のために及び/又は較正のために光学要素1402のレンズの位置を追跡するために、位置情報と共にメッセージを情報プロセッサモジュール1408に送信し得る。 Processor 1522 may receive feedback from drives 1534, 1536, 1538, 1540, 1544, 1548, and 1552, motors 1542, 1546, 1550, and/or 1554, and/or light source 708. The feedback corresponds to the lighting level or the lighting output, for example. For motors, the feedback corresponds to the position and/or amount of movement of the motor (or other actuator). Processor 1522 uses program 1530 to translate the received signal into digital feedback to determine, for example, the radial position, tilt position, and/or axial position of the lens based on the angular position of the corresponding motor or actuator shaft. Identify. Processor 1522 may then send a message with the position information to information processor module 1408 to track the position of the lens of optical element 1402 for display to a user and/or for calibration.

幾つかの実施形態では、モータ・照明モジュール1406は、光学要素1402内の個々のレンズの軸方向位置、チルト位置、及び/又は半径方向位置を変更する追加の駆動装置を含み得る。例えば、モータ・照明モジュール1406は、チルト及び/又は半径方向/軸方向調整のための光学画像センサ746及び748の屈曲部750及び752を作動させるモータを制御する駆動装置を含み得る。さらに、モータ・照明モジュール1406は、前部レンズ720及び722、前部ズームレンズ726及び728、後部ズームレンズ732及び734、レンズバレル736及び738、及び/又は最終光学要素745及び747を個々に、軸方向にx軸又はy軸に沿って及び/又は軸方向にチルト及び/又は調整するモータ(又はアクチュエータ)を制御する駆動装置を含み得る。レンズ及び/又はセンサの独立した調整により、例えば、モータ・照明コントローラ1520は画像欠陥を除去し、及び/又は左右画像を位置合わせすることができる。 In some embodiments, motor and illumination module 1406 may include additional drives to change the axial position, tilt position, and/or radial position of individual lenses within optical element 1402. For example, motor and illumination module 1406 may include a drive that controls a motor that operates flexures 750 and 752 of optical image sensors 746 and 748 for tilt and/or radial/axial adjustment. In addition, the motor and illumination module 1406 individually connects front lenses 720 and 722, front zoom lenses 726 and 728, rear zoom lenses 732 and 734, lens barrels 736 and 738, and/or final optical elements 745 and 747. It may include a drive for controlling a motor (or actuator) to tilt and/or adjust axially along the x-axis or y-axis and/or axially. Independent adjustment of the lenses and/or sensors allows the motor and lighting controller 1520 to remove image defects and/or align left and right images, for example.

以下のセクションでは、プロセッサ1552がいかに、1つ又は複数のプログラム1530を実行して、作業距離、ズーム、フィルタ位置、レンズ位置、及び/又は光出力を偏向するかを説明する。 The following sections describe how processor 1552 executes one or more programs 1530 to deflect working distance, zoom, filter position, lens position, and/or light output.

1.一例の作業距離
図15のモータ・照明モジュール1406の一例のプロセッサ1522は、立体視覚化カメラ300の作業距離を調整するように構成される。作業距離は、後部作業距離レンズ704と前部作業距離レンズ408との間の距離を調整することにより設定される。プロセッサ1522は、後部作業距離レンズ704を前部作業距離レンズ408に対して移動させることにより距離を調整する。特に、プロセッサ1522は信号を後部作業距離レンズモータ駆動装置1552に送信し、この信号は、後部作業距離レンズ704を移動させる量に比例する所定の時間にわたり、作業距離レンズモータ1554をアクティブ化する。作業距離レンズモータ1554は、後部作業距離レンズ704を保持する摺動トラックに取り付けられたねじを通してリードねじを駆動する。作業距離レンズモータ1554は、レンズ704を所望の距離だけ移動させ、それにより、作業距離を調整する。作業距離レンズモータ1554は、フィードバック信号をプロセッサ1522に提供し得、プロセッサ1522は、後部作業距離レンズ704が所望量、移動したか否かを判断する。移動が所望未満又は所望を超える場合、プロセッサ1522は、後部作業距離レンズ704の位置を更に改良する命令を送信し得る。幾つかの実施形態では、情報プロセッサモジュール1408は、後部作業距離レンズ704のフィードバック制御を決定し得る。
1. Example Working Distance The example processor 1522 of the motor and lighting module 1406 of FIG. 15 is configured to adjust the working distance of the stereoscopic visualization camera 300. The working distance is set by adjusting the distance between the rear working distance lens 704 and the front working distance lens 408. Processor 1522 adjusts the distance by moving rear working distance lens 704 relative to front working distance lens 408. In particular, processor 1522 sends a signal to rear working distance lens motor drive 1552 that activates working distance lens motor 1554 for a predetermined period of time proportional to the amount to move rear working distance lens 704. Working distance lens motor 1554 drives a lead screw through a screw attached to a sliding track that holds rear working distance lens 704. Working distance lens motor 1554 moves lens 704 a desired distance, thereby adjusting the working distance. Working distance lens motor 1554 may provide a feedback signal to processor 1522, which determines whether rear working distance lens 704 has moved the desired amount. If the movement is less than or more than desired, processor 1522 may send instructions to further refine the position of rear working distance lens 704. In some embodiments, information processor module 1408 may determine feedback control of rear working distance lens 704.

後部作業距離レンズ704の位置を特定するために、プロセッサ1522は1つ又は複数の較正プログラム1530を動作し得る。例えば、アクティブ化されると、プロセッサ1522は、運動範囲の一端部における限度スイッチをトリガーするまで、作業距離レンズモータ1554にリードねじを駆動して、後部作業距離レンズ704をトラック又はレールに沿って移動させるように命令し得る。プロセッサ1522は、モータ1554のエンコーダのゼロ点としてこの停止位置を示し得る。後部作業距離レンズ704の現在位置及び対応するエンコーダ値を知ることで、プロセッサ1522は、後部作業距離レンズ704を所望位置に移動させるためのシャフト回転数を特定することが可能になる。シャフト回転数はアナログ信号で作業距離レンズモータ1554に送信され(駆動装置1552を介して)、それに従ってレンズ704を指定された位置に移動させる。 To determine the position of rear working distance lens 704, processor 1522 may operate one or more calibration programs 1530. For example, when activated, processor 1522 drives a lead screw to working distance lens motor 1554 to move rear working distance lens 704 along a track or rail until it triggers a limit switch at one end of the range of motion. You can order it to move. Processor 1522 may indicate this stop position as the zero point of the encoder of motor 1554. Knowing the current position of the rear working distance lens 704 and the corresponding encoder value allows the processor 1522 to determine the number of shaft rotations to move the rear working distance lens 704 to the desired position. The shaft rotation speed is sent in an analog signal to the working distance lens motor 1554 (via drive 1552), which moves the lens 704 to the specified position accordingly.

2.一例のズーム
図15の一例のプロセッサ1522は、1つ又は複数のプログラム1530を実行して、立体視覚化カメラ300のズームレベルを変更するように構成される。上述したように、ズーム(例えば、倍率変更)は、互いに対して並びに前部レンズセット714及びレンズバレルセット718に対して、前部ズームセット724及び後部ズームセット730の位置を変更することにより達成される。後部作業距離レンズ704について上述した較正手順と同様に、プロセッサ1522は、トラック又はレールに沿ったセット724及び730の位置を較正し得る。特に、プロセッサ1522は、後部ズームレンズモータ1546及び前部ズームレンズモータ1550にセット724及び730(例えば、キャリア)をレール(又は複数のレール)に沿って限度スイッチにおける停止位置まで移動させる命令を送信する。プロセッサ1522は、エンコーダフィードバックをモータ1546及び1550から受信して、セット724及び730の停止位置に関連するエンコーダ値を特定する。次にプロセッサ1522は、エンコーダ値をゼロにし、又は停止位置における既知のエンコーダ値を使用して、レールに沿ったセット724及び730の所望の位置を達成するために、モータ1546及び1550をどれくらいアクティブ化させるかを決定し得る。
2. Example Zoom The example processor 1522 of FIG. 15 is configured to execute one or more programs 1530 to change the zoom level of the stereoscopic visualization camera 300. As discussed above, zooming (e.g., changing magnification) is accomplished by changing the position of front zoom set 724 and rear zoom set 730 with respect to each other and with respect to front lens set 714 and lens barrel set 718. be done. Similar to the calibration procedure described above for rear working distance lens 704, processor 1522 may calibrate the position of sets 724 and 730 along the track or rail. In particular, processor 1522 sends commands to rear zoom lens motor 1546 and front zoom lens motor 1550 to move sets 724 and 730 (e.g., carriers) along a rail (or rails) to a stop position at a limit switch. do. Processor 1522 receives encoder feedback from motors 1546 and 1550 to identify encoder values associated with set 724 and 730 stop positions. Processor 1522 then determines how much to activate motors 1546 and 1550 to achieve the desired position of sets 724 and 730 along the rail, either by zeroing the encoder value or using the known encoder value at the stop position. You can decide whether to

停止位置の較正に加えて、プロセッサ1522は、所望のズームレベルを達成するためのセット724及び730の位置を定義するプログラム1530を実行し得る。例えば、較正手順中、距離設定と1組の所望のズーム値との既知のパターンをプログラム1530(又はルックアップテーブル)として記憶し得る。較正手順は、テンプレートを標的部位700に配置し、プロセッサ522に、特定の示されたマーカ又は文字が左右の画像又はフレームで特定のサイズになるまでセット724及び730を移動するように命令することを含み得る。例えば、較正ルーチンは、標的部位700におけるテンプレート上の文字「E」が、10ピクセル分の高さを有するものとして左右の画像に表示されるときに対応するレール上のセット724及び730の位置を特定し得る。 In addition to calibrating the stop positions, processor 1522 may execute a program 1530 that defines the positions of sets 724 and 730 to achieve the desired zoom level. For example, during a calibration procedure, a known pattern of distance settings and a set of desired zoom values may be stored as a program 1530 (or lookup table). The calibration procedure involves placing a template at the target site 700 and instructing the processor 522 to move the sets 724 and 730 until a particular indicated marker or character is of a particular size in the left and right images or frames. may include. For example, the calibration routine determines the positions of sets 724 and 730 on the corresponding rails when the letter "E" on the template at target site 700 is displayed in the left and right images as having a height of 10 pixels. can be specified.

幾つかの実施形態では、情報プロセッサモジュール1408は、視覚的分析を実行し、ズームイン又はズームアウトに望ましいセット724及び730の移動に関する命令をプロセッサ1522に送信し得る。加えて、情報プロセッサ1408は、所望のズームレベルにある標的部位700が合焦されるように焦点面を移動させる命令を送信し得る。命令は、例えば、後部作業距離レンズ704を移動させる命令及び/又はセット724及び730を一緒に及び/又は個々に移動させる命令を含み得る。幾つかの代替の実施形態では、プロセッサ1522は、ユーザ入力デバイス1410又は別のコンピュータから、特定のズームレベルにおける前部ズームセット724及び後部ズームセット730のレール位置の較正パラメータを受信し得る。 In some embodiments, information processor module 1408 may perform visual analysis and send instructions to processor 1522 regarding desired movement of sets 724 and 730 to zoom in or out. Additionally, information processor 1408 may send instructions to move the focal plane so that target region 700 at a desired zoom level is in focus. The instructions may include, for example, instructions to move rear working distance lens 704 and/or instructions to move sets 724 and 730 together and/or individually. In some alternative embodiments, processor 1522 may receive calibration parameters for the rail positions of front zoom set 724 and rear zoom set 730 at a particular zoom level from user input device 1410 or another computer.

一例のプロセッサ1522及び/又は情報プロセッサモジュール1408は、倍率が変更された場合、画像が合焦したままであるような命令を送信し得る。プロセッサ1522は、例えば、プログラム1530及び/又はルックアップテーブルを使用して、標的部位700へのフォーカスを維持するために、特定のレンズがいかに、光軸に沿って移動すべきかを決定し得る。プログラム1530及び/又はルックアップテーブルは、倍率レベル及び/又はレール上の設定ポイント及び焦点面を移動しないようにするために必要な対応するレンズ調整を指定し得る。 An example processor 1522 and/or information processor module 1408 may send instructions such that the image remains in focus when the magnification is changed. Processor 1522 may, for example, use program 1530 and/or look-up tables to determine how a particular lens should move along the optical axis to maintain focus on target region 700. The program 1530 and/or the lookup table may specify the magnification level and/or the set point on the rail and the corresponding lens adjustment required to avoid moving the focal plane.

以下の表2は、倍率を変更しながら、プロセッサ1522がフォーカスを維持するために使用し得る一例のプログラム1530又はルックアップテーブルを示す。前部ズームレンズセット724及び後部ズームレンズセット730の位置は、各セット724及び730の停止位置までのレールの長さに基づいて正規化される。倍率を下げるには、後部ズームレンズセットはレンズバレルセット718に向かって移動し、それにより、レールに沿った位置を増大させる。前部ズームレンズセット724も移動する。しかしながら、その移動は後部ズームレンズセット730の移動と必ずしも等しいものである必要はない。代わりに、前部ズームレンズセット724の移動は、倍率を変更しながら、フォーカスを維持するよう焦点面の位置を保持するように、セット724と730との間の距離変更を説明する。例えば、倍率レベルを10Xから9Xに下げるには、プロセッサ1522は、後部ズームレンズセット730に位置10から位置11にレールに沿って移動するように命令する。加えて、プロセッサ1522は、前部ズームレンズセット724に位置5から位置4にレール(又はセット730と同じレール)に沿って移動するように命令する。倍率を変更するために、セット724及び730を移動させるのみならず、フォーカスを維持するために、セット724及び730は互いに対しても移動した。 Table 2 below shows an example program 1530 or lookup table that processor 1522 may use to maintain focus while changing magnification. The positions of the front zoom lens set 724 and the rear zoom lens set 730 are normalized based on the length of the rail to the stop position of each set 724 and 730. To decrease magnification, the rear zoom lens set moves toward lens barrel set 718, thereby increasing its position along the rail. The front zoom lens set 724 also moves. However, that movement does not necessarily have to be equal to the movement of rear zoom lens set 730. Instead, movement of front zoom lens set 724 accounts for changing the distance between sets 724 and 730 to maintain focal plane position to maintain focus while changing magnification. For example, to decrease the magnification level from 10X to 9X, processor 1522 commands rear zoom lens set 730 to move along the rail from position 10 to position 11. Additionally, processor 1522 commands front zoom lens set 724 to move along the rail (or the same rail as set 730) from position 5 to position 4. Not only were sets 724 and 730 moved to change magnification, but they were also moved relative to each other to maintain focus.

Figure 0007379373000002
Figure 0007379373000002

セット724及び730をいかに移動し得るかの一例を表2が提供することを理解されたい。他の例では、表2は、より精密な倍率及び/又はセット724及び730の位置を説明するための追加の行を含み得る。追加又は代替として、表2は、後部作業距離レンズ704の列を含み得る。例えば、後部作業距離レンズ704は、フォーカスを維持するために、前部ズームレンズセット724への代替又は追加として移動し得る。さらに、表2は、作業距離を変更しながらフォーカスを維持するセット724及び730並びに後部作業距離レンズ704の位置を指定する行を含み得る。 It should be appreciated that Table 2 provides an example of how sets 724 and 730 may be moved. In other examples, Table 2 may include additional rows to describe more precise magnification and/or locations of sets 724 and 730. Additionally or alternatively, Table 2 may include a row of rear working distance lenses 704. For example, rear working distance lens 704 may be moved as an alternative or addition to front zoom lens set 724 to maintain focus. Additionally, Table 2 may include rows specifying the position of rear working distance lens 704 and sets 724 and 730 that maintain focus while changing working distance.

表2中の値は、較正を通して決定し得、及び/又はリモートコンピュータ又はユーザ入力デバイス1410から受信し得る。較正中、情報プロセッサモジュール1408は、異なる倍率及び/又は作業距離を通して進む較正プログラム1560を動作し得る。情報プロセッサモジュール1408におけるプロセッサ1562は、画像自体の画像処理を実行し得、又は、ピクセルデータを受信して、例えば、所定の形状及び/又は文字を有するテンプレートを使用して、所望の倍率が達成されるときを判断し得る。プロセッサ1562は、受信した画像のピントが合っているか否かを判断する。画像がピンボケしているとの判断に応答して、プロセッサ1562は、前部ズームレンズセット724及び/又は後部作業距離レンズセット704を調整する命令をプロセッサ1522に送信する。調整は、プロセッサ1562により画像にピントが合っていると判断されるまでの光路に沿った前方向及び逆方向での反復移動を含み得る。画像にピントが合っていると判断するに、プロセッサ1562は、例えば、光の曖昧さが最小である画像を探し、及び/又は隣接するピクセル領域間の光の値の差(差が大きいほど、よりピントが合った画像に対応する)についてピクセルデータを分析する画像分析を実行し得る。所望の作業距離及び倍率で画像にピントが合っていると判断された後、プロセッサ1562及び/又はプロセッサ1522は次に、セット724及び730及び/又は後部作業距離レンズ704の位置及び対応する倍率レベルを記録し得る。 The values in Table 2 may be determined through calibration and/or may be received from a remote computer or user input device 1410. During calibration, information processor module 1408 may run calibration program 1560 that advances through different magnifications and/or working distances. A processor 1562 in the information processor module 1408 may perform image processing on the image itself or may receive pixel data to achieve a desired magnification using, for example, a template with predetermined shapes and/or characters. be able to judge when Processor 1562 determines whether the received image is in focus. In response to determining that the image is out of focus, processor 1562 sends instructions to processor 1522 to adjust front zoom lens set 724 and/or rear working distance lens set 704. Adjustments may include repeated movements forward and backward along the optical path until the image is determined to be in focus by processor 1562. In determining that an image is in focus, processor 1562 may, for example, look for an image with minimal light ambiguity and/or determine the difference in light values between adjacent pixel regions (the greater the difference, the more An image analysis may be performed that analyzes pixel data for (corresponding to a more focused image). After determining that the image is in focus at the desired working distance and magnification, processor 1562 and/or processor 1522 then determines the position and corresponding magnification level of sets 724 and 730 and/or rear working distance lens 704. can be recorded.

3.一例のフィルタ位置
図15のモータ・照明モジュール1406の一例のプロセッサ1522は、受信した命令に基づいてフィルタ740を左右の光路に移動させるように構成される。幾つかの例では、フィルタ740はミラーアレイを含み得る。これらの例では、プロセッサ1522は、1つ又は複数のモータ1542を作動させて、ミラーの位置を変更する命令をフィルタモータ駆動装置1540に送信する。幾つかの場合、駆動装置1540は、1つ又は複数の経路に沿ってフィルタ740に電荷を送信し、特定のミラー要素をオン又はオフ位置に切り替えさせ得る。これらの例では、フィルタタイプ選択は一般に、どのミラーを作動するかに二元的に基づく。
3. Example Filter Position The example processor 1522 of the motor and lighting module 1406 of FIG. 15 is configured to move the filter 740 to the left and right optical paths based on received instructions. In some examples, filter 740 may include a mirror array. In these examples, processor 1522 sends commands to filter motor drive 1540 to operate one or more motors 1542 to change the position of the mirror. In some cases, driver 1540 may send a charge along one or more paths to filter 740 to switch a particular mirror element to an on or off position. In these examples, filter type selection is generally based dually on which mirror to activate.

他の例では、フィルタ740は、赤外線遮断フィルタ、近赤外線バンドパスフィルタ、及び近紫外線遮断フィルタ等の異なるタイプのフィルタを有するホィールを含み得る。これらの例では、ホィールはフィルタモータ1542により回転される。プロセッサ1522は、異なるフィルタのパーテーションに対応するホィールの停止位置を決定する。プロセッサ1522はまた、各停止位置に対応するロータリエンコーダ値も決定する。 In other examples, filter 740 may include wheels with different types of filters, such as infrared blocking filters, near-infrared bandpass filters, and near-UV blocking filters. In these examples, the wheel is rotated by filter motor 1542. Processor 1522 determines wheel stop positions corresponding to different filter partitions. Processor 1522 also determines the rotary encoder value corresponding to each stop position.

プロセッサ1522は較正プログラム1530を動作し得、及び/又はプロセッサ1562は較正プログラム1560を動作して、停止位置を決定し得る。例えば、プロセッサ1522は、フィルタホィール740をゆっくりと回転し得、プロセッサ1562は、ピクセルにおいて受け取られる光が変わるときを判断する(画像分析を使用して又は画像捕捉モジュール1404からピクセルデータを読み出して)。ピクセルにおける光値の変化は、光路に適用されているフィルタタイプの変更を示す)。幾つかの場合、プロセッサ1522は、どの光源708がアクティブ化されているかを変更し得、異なるフィルタタイプが適用される場合、ピクセルにおける更なる区別を生み出す。 Processor 1522 may operate calibration program 1530 and/or processor 1562 may operate calibration program 1560 to determine the stop position. For example, processor 1522 may slowly rotate filter wheel 740 and processor 1562 determines when the light received at a pixel changes (using image analysis or reading pixel data from image capture module 1404). . A change in light value at a pixel indicates a change in the filter type being applied to the light path). In some cases, processor 1522 may change which light source 708 is activated, creating further differentiation in pixels when different filter types are applied.

4.一例の光制御及びフィルタ
先に開示したように、プロセッサ1522は、フィルタ740と併せて光源708を制御して、所望の波長の光を光学画像センサ746及び748に到達させ得る。幾つかの例では、プロセッサ1522は、光源708の1つ又は複数のアクティブ化とフィルタ740の1つ又は複数のアクティブ化との間のタイミングを制御又は同期し得る。タイミングを同期するために、プログラム1530は、特定のフィルタをアクティブ化する遅延時間を指定し得る。プロセッサ1522はプログラム1530を使用して、例えば、光源708をオンにする信号の送信と相対して、フィルタ740をアクティブ化する信号をいつ送信するかを決定する。スケジュールされたタイミングは、指定された光源708がアクティブ化される場合、適切なフィルタ740が適用されることを保証する。そのような構成により、ある光源708により強調表示された特徴(蛍光等)を、白色光又は周囲光等の第2の光源708下で表示される特徴の上に又は特徴と併せて表示することができる。
4. Example Light Control and Filters As previously disclosed, processor 1522 may control light source 708 in conjunction with filter 740 to direct desired wavelengths of light to optical image sensors 746 and 748. In some examples, processor 1522 may control or synchronize the timing between activation of one or more of light sources 708 and activation of one or more of filters 740. To synchronize timing, program 1530 may specify a delay time to activate a particular filter. Processor 1522 uses program 1530 to determine when to send a signal to activate filter 740, for example, relative to sending a signal to turn on light source 708. Scheduled timing ensures that the appropriate filter 740 is applied when the specified light source 708 is activated. Such a configuration allows features highlighted by one light source 708 (such as fluorescence) to be displayed on top of or in conjunction with features displayed under a second light source 708, such as white light or ambient light. I can do it.

幾つかの場合、光源708は、光フィルタ740を変更し得る速度ほど高速に切り替え得、それにより、異なる光で記録された画像を併せて、互いの上に表示できるようにする。例えば、蛍光を発する(染料又は造影剤の投与に起因して)静脈又は他の解剖学的構造は、周囲照明下の画像の上に表示し得る。この例では、静脈は、可視光で示される背景の解剖学的特徴に対して強調表示される。この場合、情報プロセッサモジュール1408のプロセッサ1562及び/又はグラフィックス処理ユニット1564(例えば、ビデオカード又はグラフィックスカード)は、あるフィルタの適用中に記録された1つ又は複数の画像を、後続フィルタの適用中に記録された画像と結合し、又は重ね得る。 In some cases, the light source 708 may be switched as fast as the light filter 740 may be changed, thereby allowing images recorded with different lights to be displayed together on top of each other. For example, veins or other anatomical structures that fluoresce (due to administration of a dye or contrast agent) may be displayed on top of the image under ambient illumination. In this example, the veins are highlighted against background anatomical features shown in visible light. In this case, the processor 1562 and/or the graphics processing unit 1564 (e.g., a video card or graphics card) of the information processor module 1408 may process one or more images recorded during the application of a filter by applying a subsequent filter. It can be combined with or superimposed on the image recorded in it.

幾つかの実施形態では、プロセッサ1522は、複数の光源708を同時にアクティブ化し得る。光源708は同時又は順次アクティブ化されて、異なる波長の光を「インターリーブ」し、光学画像センサ746及び748における適切なピクセルを使用して異なる情報を抽出できるようにする。光源を同時にアクティブ化することは、暗視野の照明に役立ち得る。例えば、幾つかの用途は、UV光を使用して、標的部位700における蛍光を刺激する。しかしながら、UV光はオペレータにより非常に暗く知覚される。したがって、プロセッサ1522は、UV光に感度を有するが、幾らかの可視光を検出することもできるピクセルを圧倒せずに外科医が視野を観測できるように、可視光源1538を周期的にアクティブ化して、幾らかの可視光を視野に追加し得る。別の例では、複数の光源708を交互にすることにより、幾つかの場合、レンジの縁部で重複する感度を有する光学画像センサ746及び748のピクセルのウォッシュアウトが回避される。 In some embodiments, processor 1522 may activate multiple light sources 708 simultaneously. Light sources 708 may be activated simultaneously or sequentially to "interleave" different wavelengths of light, allowing the appropriate pixels in optical image sensors 746 and 748 to be used to extract different information. Activating the light sources simultaneously can be useful for dark field illumination. For example, some applications use UV light to stimulate fluorescence at target site 700. However, UV light is perceived by operators as very dim. Accordingly, the processor 1522 periodically activates the visible light source 1538 to allow the surgeon to observe the field of view without overwhelming pixels that are sensitive to UV light but may also detect some visible light. , may add some visible light to the field of view. In another example, alternating the multiple light sources 708 avoids washout of pixels of optical image sensors 746 and 748 that have overlapping sensitivities at the edges of the range in some cases.

5.光強度制御
図15の一例のプロセッサ1522は、1つ又は複数のプログラム1530を実行して、光源708により提供される照明レベルの強度を変更するように構成される。被写界深度が標的部位700における照明レベルに依存することを理解されたい。一般に、高い照明ほど大きな被写界深度を提供する。プロセッサ1522は、視野をウォッシュアウト又は過熱せずに、所望の被写界深度に適切な量の照明が提供されることを保証するように構成される。
5. Light Intensity Control Processor 1522 in the example of FIG. 15 is configured to execute one or more programs 1530 to change the intensity of the illumination level provided by light source 708. It should be appreciated that the depth of field depends on the illumination level at the target area 700. Generally, higher illumination provides greater depth of field. Processor 1522 is configured to ensure that the appropriate amount of illumination is provided for the desired depth of field without washing out or overheating the field of view.

可視光源708aは、可視光駆動装置1538により駆動され、スペクトルの人間可視部分の光及びその領域外の幾らかの光を出力する。NIR光源708bはNIR光駆動装置1536により駆動され、主に、近赤外線と呼ばれる波長の光を出力する。NUV光源708cはNUV光駆動装置1534により駆動され、主に、近紫外線と呼ばれる、可視スペクトルの藍色部分の波長の光を出力する。各光駆動装置1534、1536、及び1538は、プロセッサ1522により提供されるコマンドにより制御される。光源708の各出力スペクトルの制御は、PWM信号により達成され、制御電圧又は電流は最小(例えば、オフ)値と最大(例えば、オン)値との間で切り替えられる。光源708から出力される光の輝度は、切り替え率及び電圧又は電流がPWM信号のサイクル毎の最大レベルにある時間の割合を変更することにより制御される。 Visible light source 708a is driven by visible light driver 1538 and outputs light in the human visible portion of the spectrum and some light outside that region. The NIR light source 708b is driven by the NIR light driving device 1536, and mainly outputs light of a wavelength called near-infrared rays. The NUV light source 708c is driven by the NUV light driving device 1534, and mainly outputs light having a wavelength in the blue portion of the visible spectrum, called near ultraviolet light. Each optical driver 1534 , 1536 , and 1538 is controlled by commands provided by processor 1522 . Control of each output spectrum of light source 708 is accomplished by a PWM signal, with the control voltage or current being switched between a minimum (eg, off) value and a maximum (eg, on) value. The brightness of the light output from light source 708 is controlled by varying the switching rate and the percentage of time that the voltage or current is at its maximum level per cycle of the PWM signal.

幾つかの例では、プロセッサ1522は、視野のサイズ又はズームレベルに基づいて光源708の出力を制御する。プロセッサ1522は、光強度がズームの関数になる特定の光の感度設定を指定するプログラム1530を実行し得る。プログラム1530は、例えば、ズームレベルを光強度値に相関付けるルックアップテーブルを含み得る。プロセッサ1522は、プログラム1530を使用して、選択された倍率レベルに基づいて光源708のPWM信号を選択する。幾つかの例では、プロセッサ1522は、倍率が上げられるにつれて光強度を低減して、単位面積当たりで視野に提供される光量を維持し得る。 In some examples, processor 1522 controls the output of light source 708 based on the size of the field of view or zoom level. Processor 1522 may execute a program 1530 that specifies a particular light sensitivity setting where light intensity is a function of zoom. Program 1530 may include, for example, a lookup table that correlates zoom levels to light intensity values. Processor 1522 uses program 1530 to select a PWM signal for light source 708 based on the selected magnification level. In some examples, processor 1522 may reduce the light intensity as magnification is increased to maintain the amount of light provided to the field of view per unit area.

C.一例の情報プロセッサモジュール
図15の立体視覚化カメラ300内の一例の情報プロセッサモジュール1408は、表示のために画像捕捉モジュール1404から受信した画像/フレームを分析し処理するように構成される。加えて、情報プロセッサモジュール1408は、異なるデバイスとインターフェースし、制御命令を画像捕捉モジュール1404及び/又はモータ・照明モジュール1406へのメッセージに翻訳するように構成される。情報プロセッサモジュール1408はまた、手動較正用のインターフェースを提供し、及び/又は光学要素1402の自動較正を管理し得る。
C. Example Information Processor Module An example information processor module 1408 within stereoscopic visualization camera 300 of FIG. 15 is configured to analyze and process images/frames received from image capture module 1404 for display. In addition, information processor module 1408 is configured to interface with different devices and translate control instructions into messages to image capture module 1404 and/or motor and lighting module 1406. Information processor module 1408 may also provide an interface for manual calibration and/or manage automatic calibration of optical element 1402.

図15に示されるように、情報プロセッサモジュール1408は、画像捕捉モジュール1404及びモータ・照明モジュール1406に通信可能及び/又は電気的に結合される。例えば、通信チャネル1514は通信チャネル1566及び1568に加えて、USB2.0又はUSB3.0接続を含み得る。したがって、情報プロセッサモジュール1408は、モジュール1404及び1406への電力を調整し提供する。幾つかの実施形態では、情報プロセッサモジュール1408は、壁のコンセントからの110ボルト交流電流(「AC」)電力をモジュール1404及び1406用の5ボルト、10ボルト、12ボルト、及び/又は24ボルト直流電流(「DC」)供給に変換する。追加又は代替として、情報プロセッサモジュール1408は、立体視覚化カメラ300の筐体302内部の電池及び/又はカート510における電池から電力を受け取る。 As shown in FIG. 15, information processor module 1408 is communicatively and/or electrically coupled to image capture module 1404 and motor and lighting module 1406. For example, communication channel 1514 may include communication channels 1566 and 1568 as well as a USB 2.0 or USB 3.0 connection. Accordingly, information processor module 1408 regulates and provides power to modules 1404 and 1406. In some embodiments, information processor module 1408 converts 110 volt alternating current ("AC") power from a wall outlet to 5 volts, 10 volts, 12 volts, and/or 24 volts direct current for modules 1404 and 1406. Convert to a current (“DC”) supply. Additionally or alternatively, information processor module 1408 receives power from a battery within housing 302 of stereoscopic visualization camera 300 and/or from a battery in cart 510.

一例の情報プロセッサモジュール1408は、画像捕捉モジュール1404及びモータ・照明モジュール1406と双方向通信するための通信インターフェース1532を含む。情報プロセッサモジュール1408は、1つ又は複数のプログラム1560を実行して、画像捕捉モジュール1404から受信した画像/フレームを処理するように構成されたプロセッサ1562も含む。プログラム1560はメモリ1570に記憶し得る。加えて、プロセッサ1562は、光学要素1402の較正を実行し、及び/又は光学要素1402を調整して、右画像及び左画像を位置合わせし、及び/又は視覚的結果を除去し得る。 The example information processor module 1408 includes a communication interface 1532 for bi-directional communication with the image capture module 1404 and the motor and lighting module 1406. Information processor module 1408 also includes a processor 1562 configured to execute one or more programs 1560 to process images/frames received from image capture module 1404. Program 1560 may be stored in memory 1570. In addition, processor 1562 may perform a calibration of optical element 1402 and/or adjust optical element 1402 to align the right and left images and/or remove visual results.

画像及び/又はフレームを処理して、レンダリングされる三次元立体表示するために、一例の情報プロセッサモジュール1408はグラフィックス処理ユニット1564を含む。図16は、本開示の実施形態例によるグラフィックス処理ユニット1564の図を示す。動作中、プロセッサ1562は画像及び/又はフレームを画像捕捉モジュール1404から受信する。アンパックルーチン1602が、画像/フレームを、通信チャネル1514にわたる伝送に貢献するフォーマットから画像処理に貢献するフォーマットに変換又は他の方法で変更する。例えば、画像及び/又はフレームは、複数のメッセージにおいて通信チャネル1514にわたり伝送し得る。一例のアンパックルーチン1602は、複数のメッセージからのデータを結合して、フレーム/画像を再度組み立てる。幾つかの実施形態では、アンパックルーチン1602は、グラフィックス処理ユニット1564により要求されるまで、フレーム及び/又は画像をキューに配置し得る。他の例では、プロセッサ1562は、左右の画像/フレーム対のそれぞれを完全に受信しアンパックした後、送信し得る。 The example information processor module 1408 includes a graphics processing unit 1564 to process images and/or frames for rendered three-dimensional stereoscopic display. FIG. 16 shows a diagram of a graphics processing unit 1564 according to an example embodiment of the disclosure. In operation, processor 1562 receives images and/or frames from image capture module 1404. An unpack routine 1602 converts or otherwise changes the image/frame from a format conducive to transmission over communication channel 1514 to a format conducive to image processing. For example, images and/or frames may be transmitted across communication channel 1514 in multiple messages. An example unpack routine 1602 combines data from multiple messages to reassemble a frame/image. In some embodiments, unpack routine 1602 may place frames and/or images in a queue until requested by graphics processing unit 1564. In other examples, processor 1562 may completely receive and unpack each of the left and right image/frame pairs before transmitting.

一例のグラフィック処理ユニット1564は、1つ又は複数のプログラム1580(図15に示される)を使用して、レンダリングに向けて画像を準備する。プログラム1580の例を図15及び図16に示す。プログラム1580は、グラフィックス処理ユニット1564のプロセッサにより実行し得る。代替的には、図16に示される各プログラム1580は、別個のグラフィックスプロセッサ、マイクロコントローラ、及び/又は特定用途向け集積回路(「ASIC」)により実行し得る。例えば、デベイヤープログラム1580aは、近傍ピクセルにわたりピクセル値を平滑化又は平均して、図7及び図8の左右の光学画像センサ746及び748のピクセルグリッド1002及び1004に適用されるベイヤーパターンを補償するように構成される。グラフィックス処理ユニット1564は、色補正及び/又はホワイトバランス調整のプログラム1580b、1580c、及び1580dを含むこともできる。グラフィックス処理ユニット1564は、ディスプレイモニタ512及び514への表示に向けて、色補正された画像/フレームを準備するレンダラープログラム1580eも含む。グラフィックス処理ユニット1564は、周辺入力ユニットインターフェース1574と更に対話し、及び/又はそれを含み得、周辺入力ユニットインターフェース1574は、標的部位700の立体表示と共に提示する他の画像及び/又はグラフィックスを結合、融合、又は他の方法で含むように構成される。プログラム1580及び情報プロセッサモジュール1408の更なる詳細についてより一般に以下で考察する。 An example graphics processing unit 1564 uses one or more programs 1580 (shown in FIG. 15) to prepare images for rendering. Examples of the program 1580 are shown in FIGS. 15 and 16. Program 1580 may be executed by the processor of graphics processing unit 1564. Alternatively, each program 1580 shown in FIG. 16 may be executed by a separate graphics processor, microcontroller, and/or application specific integrated circuit (“ASIC”). For example, debayer program 1580a smooths or averages pixel values over neighboring pixels to compensate for the Bayer pattern applied to pixel grids 1002 and 1004 of left and right optical image sensors 746 and 748 in FIGS. 7 and 8. It is configured as follows. Graphics processing unit 1564 may also include color correction and/or white balance adjustment programs 1580b, 1580c, and 1580d. Graphics processing unit 1564 also includes a renderer program 1580e that prepares color corrected images/frames for display on display monitors 512 and 514. Graphics processing unit 1564 may further interact with and/or include a peripheral input unit interface 1574 that may provide other images and/or graphics for presentation along with the stereoscopic representation of target region 700. combined, fused, or otherwise configured to include. Further details of program 1580 and information processor module 1408 are discussed more generally below.

一例の情報プロセッサモジュール1408は、1つ又は複数のプログラム1562を実行して、立体視覚化カメラ300の待ち時間をチェックし改善し得る。待ち時間は、標的部位700においてイベントが生じ、その同じイベントをディスプレイモニタ512及び514に表示するのにかかる時間量を指す。低待ち時間は、立体視覚化カメラ300が外科医の目の延長である感じを提供し、一方、高待ち時間は、顕微鏡外科処置から注意を逸らす傾向がある。一例のプロセッサ1562は、読み出された画像に基づいて結合された立体画像が、表示に向けて送信されるまで、光学画像センサ746及び748から読み出し中の画像間でどれくらいの時間が経過するかを追跡し得る。高待ち時間の検出は、プロセッサ1562にキュー時間を低減させ、フレームレートを増大させ、及び/又は幾つかの色補正ステップをスキップさせ得る。 The example information processor module 1408 may execute one or more programs 1562 to check and improve the latency of the stereoscopic visualization camera 300. Latency refers to the amount of time it takes for an event to occur at target site 700 and for that same event to be displayed on display monitors 512 and 514. Low latency provides the feeling that the stereoscopic visualization camera 300 is an extension of the surgeon's eye, while high latency tends to divert attention from the microsurgical procedure. An example processor 1562 determines how much time elapses between images being read from optical image sensors 746 and 748 before a combined stereo image based on the read images is transmitted for display. can be tracked. Detection of high latency may cause processor 1562 to reduce queue time, increase frame rate, and/or skip some color correction steps.

1.一例のユーザ入力
図15の情報プロセッサモジュール1408の一例のプロセッサ1562は、ユーザ入力命令をモータ・照明モジュール1406及び/又は画像捕捉モジュール1402へのメッセージに変換するように構成される。ユーザ入力命令は、倍率レベル、作業距離、焦点面(例えば、フォーカス)の高さ、光源708、及び/又はフィルタ740のフィルタタイプを含む立体視覚化カメラ300の光学態様を変更する要求を含み得る。ユーザ入力命令は、ピントが合っている画像の表示、及び/又は画像位置合わせの表示、及び/又は左画像と右画像との間で位置合わせされたZRPの表示を含め、較正を実行する要求を含むこともできる。ユーザ入力命令は、フレームレート、露出時間、色補正、画像分解能等の立体視覚化カメラ300のパラメータへの調整を更に含み得る。
1. Example User Input The example processor 1562 of the information processor module 1408 of FIG. 15 is configured to convert user input instructions into messages to the motor and lighting module 1406 and/or the image capture module 1402. User input instructions may include requests to change optical aspects of stereoscopic visualization camera 300, including magnification level, working distance, focal plane (e.g., focus) height, light source 708, and/or filter type of filter 740. . User input instructions include requests to perform calibration, including displaying images in focus and/or displaying image alignment and/or displaying ZRP aligned between left and right images. can also be included. User input instructions may further include adjustments to parameters of stereoscopic visualization camera 300 such as frame rate, exposure time, color correction, image resolution, and the like.

ユーザ入力命令は、ユーザ入力デバイス1410から受信し得、ユーザ入力デバイス1410は、図3の制御アーム304の制御機構305及び/又は遠隔制御機構を含み得る。ユーザ入力デバイス1410は、コンピュータ、タブレットコンピュータ等を含むこともできる。幾つかの実施形態では、命令は、ネットワークインターフェース1572及び/又は周辺入力ユニットインターフェース1574を介して受信される。他の実施形態では、命令は、有線接続及び/又はRFインターフェースから受信し得る。 User input instructions may be received from user input device 1410, which may include control mechanism 305 of control arm 304 of FIG. 3 and/or a remote control mechanism. User input device 1410 may also include a computer, tablet computer, or the like. In some embodiments, instructions are received via network interface 1572 and/or peripheral input unit interface 1574. In other embodiments, the instructions may be received from a wired connection and/or an RF interface.

一例のプロセッサ1562は、命令タイプを決定し、ユーザ入力がいかに処理されるべきかを決定するプログラム1560を含む。一例では、ユーザは、制御機構305のボタンを押下して、倍率レベルを変更し得る。オペレータが立体視覚化カメラ300を所望の倍率レベルに到達させるまでボタンを押下し続ける。これらの例では、ユーザ入力命令は、例えば、倍率レベルを増大すべきであることを示す情報を含む。受信される各命令で(又は命令を示す信号が受信された各時間期間で)、プロセッサ1562は、倍率の変更を示す制御命令をモータ・照明プロセッサ1406に送信する。プロセッサ1522は、プログラム1530から、例えば、表2を使用して、ズームレンズセット724及び730を移動させる量を決定する。それに従ってプロセッサ1522は、信号又はメッセージを後部ズームレンズモータ駆動装置1544及び/又は前部ズームレンズモータ駆動装置1548に送信して、後部ズームレンズモータ1546及び/又は前部ズームレンズモータ1550に、プロセッサ1562により指定された量だけ後部ズームレンズセット730及び/又は前部ズームレンズセット724を移動させて、所望の倍率レベルを達成する。 An example processor 1562 includes a program 1560 that determines instruction types and how user input is to be processed. In one example, a user may press a button on control 305 to change the magnification level. The operator continues to press the button until the stereo visualization camera 300 reaches the desired magnification level. In these examples, the user input instructions include, for example, information indicating that the magnification level should be increased. At each command received (or each time period in which a signal indicating a command is received), processor 1562 sends a control command to motor and lighting processor 1406 indicating a change in magnification. Processor 1522 determines the amount to move zoom lens sets 724 and 730 from program 1530, for example using Table 2. Processor 1522 accordingly sends signals or messages to rear zoom lens motor drive 1544 and/or front zoom lens motor drive 1548 to cause rear zoom lens motor 1546 and/or front zoom lens motor 1550 to The rear zoom lens set 730 and/or the front zoom lens set 724 are moved by the amount specified by 1562 to achieve the desired magnification level.

上記例では、立体視覚化カメラ300が、ユーザ入力に基づいて変更を提供するが、フォーカス及び/又は高画質を維持するように自動調整も行うことを理解されたい。例えば、倍率レベルを単に変更する代わりに、プロセッサ1522はまた、フォーカスを維持するために、ズームレンズセット724及び730をいかに移動させるべきかを決定し、それにより、オペレータがこのタスクを手動で実行する必要があることから救う。加えて、プロセッサ1562は、リアルタイムで、倍率レベルが変更される場合、左右画像内のZRPを調整及び/又は位置合わせし得る。これは、例えば、図10のピクセルグリッド1002及び1004に関してピクセルセット1006及び1008の位置を選択又は変更することにより行い得る。 It should be appreciated that in the example above, stereoscopic visualization camera 300 provides changes based on user input, but also makes automatic adjustments to maintain focus and/or high image quality. For example, instead of simply changing the magnification level, processor 1522 also determines how zoom lens sets 724 and 730 should be moved to maintain focus, thereby allowing the operator to manually perform this task. Save from what you need to do. Additionally, processor 1562 may adjust and/or align the ZRP in the left and right images when the magnification level is changed in real time. This may be done, for example, by selecting or changing the positions of pixel sets 1006 and 1008 with respect to pixel grids 1002 and 1004 in FIG. 10.

別の例では、プロセッサ1562は、フレームレートを変更する命令をユーザ入力デバイス1410から受信し得る。プロセッサ1562は、メッセージを画像捕捉モジュール1404のプロセッサ1504に送信する。そして、プロセッサ1504は、新しいフレームレートを示すものを右画像センサ746及び左画像センサ748のレジスタに書き込む。プロセッサ1504はまた、新しいフレームレートで内部レジスタを更新して、ピクセルが読み出されるペースを変更することもできる。 In another example, processor 1562 may receive instructions from user input device 1410 to change the frame rate. Processor 1562 sends the message to processor 1504 of image capture module 1404. Processor 1504 then writes an indication of the new frame rate to the registers of right image sensor 746 and left image sensor 748. Processor 1504 may also update internal registers with the new frame rate to change the pace at which pixels are read out.

更に別の例では、プロセッサ1562は、ZRPの較正ルーチンを開始する命令をユーザ入力デバイス1410から受信し得る。これに応答して、プロセッサ1562は、較正をいかに動作させるべきかを指定するプログラム1560を実行し得る。プログラム1560は、例えば、画質を検証するルーチンに加えて、倍率レベル及び/又は作業距離の進行又は反復を含み得る。ルーチンは、各倍率レベルで、ZRPに加えてフォーカスを検証すべきであることを指定し得る。ルーチンはまた、ピントの合った画像を達成するように、ズームレンズセット724及び730及び/又は後部作業距離レンズ704をいかに調整すべきかを指定することもできる。ルーチンは、右画像及び左画像のZRPを倍率レベルでいかにセンタリングすべきかを更に指定し得る。プログラム1560は、画質が検証されると、ピクセルセット1006及び1008の位置及び対応する倍率レベルに加えて、ズームレンズセット724及び/又は730及び/又は後部作業距離レンズ704の位置を記憶し得る(ルックアップテーブルに)。したがって、同じ倍率レベルが後に要求される場合、プロセッサ1562はルックアップテーブルを使用して、モータ・照明モジュール1406へのズームレンズセット724及び/又は730及び/又は後部作業距離レンズ704の位置及び画像捕捉モジュール1404へのピクセルセット1006及び1008の位置を指定する。幾つかの較正ルーチンでは、光学要素1402のレンズの少なくとも幾つかが、ZRPをセンタリングし、及び/又は左右画像を位置合わせするように半径方向/回転方向において調整し、及び/又はチルトし得ることを理解されたい。 In yet another example, processor 1562 may receive an instruction from user input device 1410 to initiate a ZRP calibration routine. In response, processor 1562 may execute a program 1560 that specifies how the calibration should operate. Program 1560 may include, for example, routines to verify image quality, as well as progressions or iterations of magnification levels and/or working distances. The routine may specify that focus should be verified in addition to ZRP at each magnification level. The routine may also specify how zoom lens sets 724 and 730 and/or rear working distance lens 704 should be adjusted to achieve a focused image. The routine may further specify how the ZRP of the right and left images should be centered at the magnification level. Program 1560 may store the positions of pixel sets 1006 and 1008 and the corresponding magnification levels, as well as the position of zoom lens sets 724 and/or 730 and/or rear working distance lens 704, once image quality is verified ( lookup table). Therefore, if the same magnification level is later requested, processor 1562 uses the lookup table to determine the position and image of zoom lens set 724 and/or 730 and/or rear working distance lens 704 to motor and illumination module 1406. Specify the location of pixel sets 1006 and 1008 to acquisition module 1404. In some calibration routines, at least some of the lenses of optical element 1402 may be adjusted and/or tilted in a radial/rotational direction to center the ZRP and/or align the left and right images. I want you to understand.

2.一例のインターフェース
立体視覚化カメラ300と外部デバイスとの通信を促進するために、一例の情報プロセッサモジュール1408は、ネットワークインターフェース1572及び周辺入力ユニットインターフェース1574を含む。一例のネットワークインターフェース1572は、リモートデバイスを情報プロセッサモジュール1408に通信可能に結合して、例えば、記録されたビデオを記憶し、作業距離、ズームレベル、フォーカス、較正、又は立体視覚化カメラ300の他の特徴を制御できるようにするよう構成される。幾つかの実施形態では、リモートデバイスは、ルックアップテーブルを較正する値若しくはパラメータを提供し得、又はより一般には、較正パラメータを有するプログラム1530を提供し得る。ネットワークインターフェース1572は、Ethernet(登録商標)インターフェース、ローカルエリアネットワークインターフェース、及び/又はWi-Fiインターフェースを含み得る。
2. Example Interfaces To facilitate communication between stereoscopic visualization camera 300 and external devices, example information processor module 1408 includes a network interface 1572 and a peripheral input unit interface 1574. An example network interface 1572 communicatively couples a remote device to the information processor module 1408 to store recorded video, work distance, zoom level, focus, calibration, or other information of the stereoscopic visualization camera 300, for example. configured to allow control of the characteristics of the In some embodiments, a remote device may provide values or parameters to calibrate the lookup table, or more generally may provide a program 1530 with calibration parameters. Network interface 1572 may include an Ethernet interface, a local area network interface, and/or a Wi-Fi interface.

一例の周辺入力ユニットインターフェース1574は、1つ又は複数の周辺機器1576に通信可能に結合し、患者の生理学的データ等の周辺データを立体画像データと統合するのを促進するように構成される。周辺入力ユニットインターフェース1574は、Bluetooth(登録商標)インターフェース、USBインターフェース、HDMI(登録商標)インターフェース、SDI等を含み得る。幾つかの実施形態では、周辺入力ユニットインターフェース1574は、ネットワークインターフェース1572と結合し得る。 An example peripheral input unit interface 1574 is configured to communicatively couple to one or more peripherals 1576 and facilitate integrating peripheral data, such as patient physiological data, with stereoscopic image data. Peripheral input unit interface 1574 may include a Bluetooth interface, a USB interface, an HDMI interface, SDI, and the like. In some embodiments, peripheral input unit interface 1574 may be coupled to network interface 1572.

周辺機器1576は、例えば、データ又はビデオ記憶ユニット、患者生理学的センサ、医療撮像デバイス、輸液ポンプ、透析装置、及び/又はタブレットコンピュータ等を含み得る。周辺データは、専用二次元赤外線専用カメラからの画像データ、ユーザのラップトップコンピュータからの診断画像、及び/又はAlcon Constellation(登録商標)システム及びWaveTec Optiwave Refractive Analysis(ORA(登録商標))システム等の眼科デバイスからの画像又は患者診断テキストを含み得る。 Peripherals 1576 may include, for example, data or video storage units, patient physiological sensors, medical imaging devices, infusion pumps, dialysis machines, tablet computers, and/or the like. Ambient data may include image data from a dedicated two-dimensional infrared-only camera, diagnostic images from a user's laptop computer, and/or data from systems such as the Alcon Constellation® system and the WaveTec Optiwave Refractive Analysis (ORA®) system. It may include images from an ophthalmic device or patient diagnostic text.

一例の周辺入力ユニットインターフェース1574は、周辺機器1576からのデータを立体画像との併用に適切なデジタル形態に変換及び/又はフォーマットするように構成される。デジタル形態になると、グラフィックス処理ユニット1564は、周辺データを他のシステムデータ及び/又は立体画像/フレームと統合する。データは、ディスプレイモニタ512及び/又は514に表示するように立体画像と共にレンダリングされる。 An example peripheral input unit interface 1574 is configured to convert and/or format data from peripheral 1576 into a digital form suitable for use with stereoscopic images. Once in digital form, graphics processing unit 1564 integrates the peripheral data with other system data and/or stereoscopic images/frames. The data is rendered with stereoscopic images for display on display monitors 512 and/or 514.

立体画像への周辺データの包含を構成するために、プロセッサ1562は統合セットアップを制御し得る。一例では、プロセッサ1562は、グラフィックス処理ユニット1564に構成パネルをディスプレイモニタ512及び/又は514に表示させ得る。構成パネルは、オペレータが周辺機器1576をインターフェース1574及びプロセッサ1562に接続して、続けて、機器1576との通信を確立できるようにし得る。プロセッサ1564は次に、どのデータが利用可能かを読み出し得、又はオペレータが構成パネルを使用して、データディレクトリロケーションを選択できるようにし得る。ディレクトリロケーション内の周辺データは、構成パネルに表示される。構成パネルはまた、オペレータに、周辺データを立体画像データに重ねる又は別個のピクチャとして表示する選択肢を提供することもできる。 Processor 1562 may control the integration setup to configure the inclusion of peripheral data into the stereo image. In one example, processor 1562 may cause graphics processing unit 1564 to display configuration panels on display monitors 512 and/or 514. The configuration panel may allow an operator to connect peripheral device 1576 to interface 1574 and processor 1562 and subsequently establish communication with device 1576. Processor 1564 may then read what data is available or allow the operator to select a data directory location using a configuration panel. Peripheral data within the directory location is displayed in the configuration panel. The configuration panel may also provide the operator with the option of overlaying the peripheral data with the stereoscopic image data or displaying it as a separate picture.

周辺データ(及びオーバーレイフォーマット)の選択は、プロセッサ1562にデータを読み出させ、グラフィックス処理ユニット1564に送信させる。グラフィックス処理ユニット1564は、オーバーレイグラフィック(リアルタイム立体画像との術前画像又はグラフィックスの融合等)、「ピクチャインピクチャ」、及び/又はメイン立体画像ウィンドウの横又は上のサブウィンドウとして提示するために周辺データを立体画像データに適用する。 Selection of peripheral data (and overlay format) causes processor 1562 to read and transmit the data to graphics processing unit 1564. Graphics processing unit 1564 may be used to display overlay graphics (such as merging preoperative images or graphics with real-time stereoscopic images), "picture-in-picture", and/or for presentation as a subwindow next to or above the main stereoscopic image window. Apply peripheral data to stereoscopic image data.

3.一例のデベイヤープログラム
図16の一例のデベイヤープログラム1580aは、あらゆるピクセル値の赤色、緑色、及び青色の値を有する画像及び/又はフレームを生成するように構成される。上述したように、右光学画像センサ746及び左光学画像センサ748のピクセルは、赤色波長範囲、青色波長範囲、又は緑色波長範囲の光を透過するフィルタを有する。したがって、各ピクセルは光データの一部のみを含む。したがって、画像捕捉モジュール1404から情報プロセッサモジュール1408において受信される各画像及び/又はフレームは、赤色、青色、又は緑色ピクセルデータのいずれかを含むピクセルを有する。
3. Example Debayer Program The example debayer program 1580a of FIG. 16 is configured to generate images and/or frames having red, green, and blue values for every pixel value. As mentioned above, the pixels of the right optical image sensor 746 and the left optical image sensor 748 have filters that transmit light in the red wavelength range, the blue wavelength range, or the green wavelength range. Therefore, each pixel contains only a portion of the light data. Accordingly, each image and/or frame received at the information processor module 1408 from the image capture module 1404 has pixels that include either red, blue, or green pixel data.

一例のデベイヤープログラム1580aは、隣接及び/又は近傍ピクセルの赤色、青色、及び緑色ピクセルデータを平均して、各ピクセルのより完全な色データを特定するように構成される。一例では、赤色データを有するピクセル及び青色データを有するピクセルは、緑色データを有する2つのピクセル間に配置される。2つのピクセルの緑色ピクセルデータは平均され、赤色データを有するピクセル及び青色データを有するピクセルに割り当てられる。幾つかの場合、平均された緑色データは、各緑色ピクセルからの赤色データを有するピクセル及び青色データを有するピクセルの距離に基づいて加重し得る。較正後、元々赤色又は青色データのみを有するピクセルはここで、緑色データを含む。したがって、デベイヤープログラム1580aがグラフィックス処理ユニット1564により実行された後、各ピクセルは、赤色光、青色光、及び緑色光の量についてのピクセルデータを含む。異なる色のピクセルデータはブレンドされて、色スペクトルでの結果としての色を決定し、これは表示のためにレンダラープログラム1580e及び/又はディスプレイモニタ512及び514により使用し得る。幾つかの例では、デベイヤープログラム1580aは、結果色を決定し、色を示すデータ又は識別子を記憶し得る。 The example debayer program 1580a is configured to average red, blue, and green pixel data of adjacent and/or neighboring pixels to determine more complete color data for each pixel. In one example, a pixel with red data and a pixel with blue data are placed between two pixels with green data. The green pixel data of the two pixels are averaged and assigned to a pixel with red data and a pixel with blue data. In some cases, the averaged green data may be weighted based on the distance of pixels with red data and pixels with blue data from each green pixel. After calibration, pixels that originally had only red or blue data now contain green data. Thus, after debayer program 1580a is executed by graphics processing unit 1564, each pixel includes pixel data for amounts of red light, blue light, and green light. Pixel data of different colors are blended to determine a resulting color in the color spectrum, which may be used by renderer program 1580e and/or display monitors 512 and 514 for display. In some examples, debayer program 1580a may determine a result color and store data or an identifier indicative of the color.

4.一例の色補正
一例の色補正プログラム1580b、1580c、及び1580dは、ピクセル色データを調整するように構成される。センサ色補正プログラム1580bは、光学画像センサ746及び748の色検知における変動性を説明又は調整するように構成される。ユーザ色補正プログラム1580cは、オペレータの知覚及びフィードバックに基づいてピクセル色データを調整するように構成される。さらに、ディスプレイ色補正プログラム1580dは、ディスプレイモニタタイプに基づいてピクセル色データを調整するように構成される。
4. Example Color Correction Example color correction programs 1580b, 1580c, and 1580d are configured to adjust pixel color data. Sensor color correction program 1580b is configured to account for or adjust for variability in color sensing of optical image sensors 746 and 748. User color correction program 1580c is configured to adjust pixel color data based on operator perception and feedback. Additionally, display color correction program 1580d is configured to adjust pixel color data based on display monitor type.

センサ変動性について色を補正するために、一例の色補正プログラム1580bは、グラフィックス処理ユニット1564及び/又はプロセッサ1562により実行可能な較正ルーチンを指定する。センサ較正は、X-Rite,Inc.によるColorChecker(登録商標)Digital SG等の較正されたカラーチャートを標的部位700に配置することを含む。プロセッサ1562及び/又はグラフィックス処理ユニット1564はプログラム1580bを実行し、プログラム1580bは、カラーチャートの左右画像を記録する命令を画像捕捉モジュール1404に送信することを含む。左右画像からのピクセルデータ(デベイヤープログラム1580aによる処理後)は、ネットワークインターフェース1572を介して周辺ユニット1576及び/又はリモートコンピュータからメモリ1570に記憶し得るカラーチャートに関連するピクセルデータと比較し得る。プロセッサ1562及び/又はグラフィックス処理ユニット1564は、ピクセルデータ間の差を特定する。差は較正データ又はパラメータとしてメモリ1570に記憶される。センサ色補正プログラム1580bは、較正パラメータを続く左右画像に適用する。 To correct colors for sensor variability, example color correction program 1580b specifies a calibration routine executable by graphics processing unit 1564 and/or processor 1562. Sensor calibration was performed by X-Rite, Inc. The method includes placing a calibrated color chart at the target site 700, such as the ColorChecker® Digital SG by ColorChecker® Digital SG. Processor 1562 and/or graphics processing unit 1564 execute program 1580b, which includes sending instructions to image capture module 1404 to record left and right images of the color chart. Pixel data from the left and right images (after processing by debayer program 1580a) may be compared to pixel data associated with a color chart that may be stored in memory 1570 from a peripheral unit 1576 and/or a remote computer via network interface 1572. Processor 1562 and/or graphics processing unit 1564 identify differences between pixel data. The differences are stored in memory 1570 as calibration data or parameters. Sensor color correction program 1580b applies the calibration parameters to subsequent left and right images.

幾つかの例では、差は、プログラム1580bが、光学画像センサ746及び748の全てのピクセルにグローバルに適用されて、可能な限りカラーチャートに近い色を生成することができる色補正データの最良適合を見つけるように、ピクセルの領域にわたり平均し得る。追加又は代替として、プログラム1580bは、ユーザ入力デバイス1410から受信したユーザ入力命令を処理して、色を補正し得る。命令は、オペレータの好みに基づいて、赤色、青色、及び緑色ピクセルデータへの局所的及び/又は大域的変更を含み得る。 In some examples, the difference is the best fit of color correction data that program 1580b can apply globally to all pixels of optical image sensors 746 and 748 to produce colors as close to the color chart as possible. can be averaged over a region of pixels to find . Additionally or alternatively, program 1580b may process user input instructions received from user input device 1410 to correct colors. The instructions may include local and/or global changes to red, blue, and green pixel data based on operator preferences.

一例のセンサ色補正プログラム1580bは、ホワイトバランスを補正するようにも構成される。一般に、白色光は、等しい値を有する赤色、緑色、及び青色ピクセルを生成するはずである。しかしながら、ピクセル間の差が、撮像中に使用される光の色温度、各ピクセルのフィルタ及び検知要素の固有の側面、及び例えば、図7及び図8の偏向要素712のスペクトル濾波パラメータから生じ得る。一例のセンサ色補正プログラム1580bは、光不均衡を補正する較正ルーチンを指定するように構成される。 The example sensor color correction program 1580b is also configured to correct white balance. In general, white light should produce red, green, and blue pixels with equal values. However, differences between pixels can arise from the color temperature of the light used during imaging, unique aspects of each pixel's filter and sensing elements, and the spectral filtering parameters of deflection element 712 of FIGS. 7 and 8, for example. . An example sensor color correction program 1580b is configured to specify a calibration routine that corrects for light imbalance.

ホワイトバランスを実行するために、プロセッサ1562は(プログラム1580bからの命令に従って)、オペレータがニュートラルカードを標的部位700に配置する命令をディスプレイモニタ512及び/又は514に表示し得る。次に、プロセッサ1562は、画像捕捉モジュール1404にニュートラルカードの1つ又は複数の画像を記録するように命令し得る。アンパックルーチン1602及びデベイヤープログラム1580aによる処理後、プログラム1580bは、各ピクセルが略等しい値の赤色、青色、及び緑色データを有するように、赤色、青色、及び緑色データのそれぞれの局所的及び/又は大域的ホワイトバランス較正重み値を決定する。ホワイトバランス較正重み値はメモリ1570に記憶される。動作中、グラフィックス処理ユニット1564は、プログラム1580bを使用して、ホワイトバランス較正パラメータを適用して、ホワイトバランスを提供する。 To perform white balancing, processor 1562 (according to instructions from program 1580b) may display instructions on display monitor 512 and/or 514 for the operator to place a neutral card at target site 700. Processor 1562 may then instruct image capture module 1404 to record one or more images of the neutral card. After processing by the unpack routine 1602 and the debayer program 1580a, the program 1580b locally and/or Determine global white balance calibration weight values. White balance calibration weight values are stored in memory 1570. In operation, graphics processing unit 1564 uses program 1580b to apply white balance calibration parameters to provide white balance.

幾つかの例では、プログラム1580bは、右光学画像センサ746及び左光学画像センサ748で個々にホワイトバランス較正パラメータを決定する。これらの例では、プログラム1580bは、左画像及び右画像に別個の較正パラメータを記憶し得る。他の場合、センサ色補正プログラム1580bは、カラーピクセルデータが右光学画像センサ746及び左光学画像センサ748で略同一であるように右ビューと左ビューとの間の重みを決定する。決定された重みは、立体視覚化カメラ300の動作中、続けて使用するために、ホワイトバランス較正パラメータに適用し得る。 In some examples, program 1580b determines white balance calibration parameters for right optical image sensor 746 and left optical image sensor 748 individually. In these examples, program 1580b may store separate calibration parameters for the left and right images. Otherwise, the sensor color correction program 1580b determines the weights between the right and left views such that the color pixel data is substantially the same on the right optical image sensor 746 and the left optical image sensor 748. The determined weights may be applied to white balance calibration parameters for continued use during operation of stereoscopic visualization camera 300.

幾つかの実施形態では、図16のセンサ色補正プログラム1580bは、ホワイトバランス較正パラメータをデジタル利得として右光学画像センサ746及び左光学画像センサ748のピクセルに提供すべきであることを指定する。例えば、画像捕捉モジュール1404のプロセッサ1504は、デジタル利得を各ピクセルから読み出されたピクセルデータに適用する。他の実施形態では、ホワイトバランス較正パラメータは、各ピクセルの色検知要素のアナログ利得として適用すべきである。 In some embodiments, the sensor color correction program 1580b of FIG. 16 specifies that white balance calibration parameters should be provided as digital gains to the pixels of the right optical image sensor 746 and the left optical image sensor 748. For example, processor 1504 of image capture module 1404 applies digital gain to pixel data read from each pixel. In other embodiments, the white balance calibration parameter should be applied as an analog gain of each pixel's color sensing element.

一例のセンサ色補正プログラム1580bは、異なる光源708及び/又はフィルタタイプのフィルタ740がアクティブ化される場合、ホワイトバランス及び/又は色補正を実行し得る。その結果、メモリ1570は、どの光源708が選択されたかに基づいて異なる較正パラメータを記憶し得る。さらに、センサ色補正プログラム1580bは、ホワイトバランス及び/又は色補正を異なるタイプの外光に関して実行し得る。オペレータは、ユーザ入力デバイス1410を使用して、外部光源の特性及び/又はタイプを指定し得る。この較正により、立体視覚化カメラ300は、異なる照明環境での色補正及び/又はホワイトバランスを提供することができる。 An example sensor color correction program 1580b may perform white balance and/or color correction when different light sources 708 and/or filter types 740 are activated. As a result, memory 1570 may store different calibration parameters based on which light source 708 is selected. Additionally, sensor color correction program 1580b may perform white balance and/or color correction for different types of ambient light. An operator may specify the characteristics and/or type of the external light source using user input device 1410. This calibration allows the stereoscopic visualization camera 300 to provide color correction and/or white balance in different lighting environments.

一例のプログラム1580bは、各光学画像センサ746及び748に対して較正を別個に実行するように構成される。したがって、プログラム1580bは、動作中、異なる較正パラメータを左右の画像に適用する。しかしながら、幾つかの例では、較正は、一方のセンサ746又は748のみで実行されてもよく、較正パラメータは他方のセンサに使用される。 The example program 1580b is configured to perform calibration for each optical image sensor 746 and 748 separately. Thus, during operation, program 1580b applies different calibration parameters to the left and right images. However, in some examples, calibration may be performed on only one sensor 746 or 748, and the calibration parameters are used for the other sensor.

一例のユーザ色補正プログラム1580cは、輝度、コントラスト、ガンマ、色合い、及び/又は飽和等の画質パラメータに関するオペレータ提供フィードバックを要求するように構成される。フィードバックは、ユーザ入力デバイス1410から命令として受信し得る。ユーザにより行われる調整は、メモリ1570にユーザ較正パラメータとして記憶される。これらのパラメータは続けて、光学画像線さ746及び748の色補正後、ユーザ色補正プログラム1580cにより左右の光学画像に適用される。 An example user color correction program 1580c is configured to request operator-provided feedback regarding image quality parameters such as brightness, contrast, gamma, hue, and/or saturation. Feedback may be received as instructions from user input device 1410. Adjustments made by the user are stored in memory 1570 as user calibration parameters. These parameters are subsequently applied to the left and right optical images by user color correction program 1580c after color correction of optical image lines 746 and 748.

図16の一例のディスプレイ色補正プログラム1580dは、例えば、Datacolor(登録商標)Spyderカラーチェッカを使用してディスプレイモニタに関して画像の色を補正するように構成される。プログラム1580dは、プログラム1580bと同様に、画像捕捉モジュール1404に、標的シーン700における表示色温度の画像を記録するように命令する。ディスプレイ色補正プログラム1580dは、ルーチンを動作させて、メモリ1570内のルックアップテーブルに記憶された予期されるディスプレイ出力に合うようにピクセルデータを調整する。調整されたピクセルデータは、ディスプレイ較正パラメータをメモリ1570に記憶し得る。幾つかの例では、カメラ又は他の撮像センサを周辺入力ユニットインターフェース1574に接続し得、周辺入力ユニットインターフェース1574は、ディスプレイモニタ512及び514から記録された色に関する画像又は他のフィードバックを提供し、画像又は他のフィードバックは、ピクセルデータの調整に使用される。 The example display color correction program 1580d of FIG. 16 is configured to correct the color of an image with respect to a display monitor using, for example, a Datacolor® Spyder color checker. Program 1580d, like program 1580b, instructs image capture module 1404 to record an image of the displayed color temperature in target scene 700. Display color correction program 1580d operates routines to adjust pixel data to match the expected display output stored in lookup tables in memory 1570. The adjusted pixel data may store display calibration parameters in memory 1570. In some examples, a camera or other imaging sensor may be connected to peripheral input unit interface 1574, which provides images or other feedback regarding the colors recorded from display monitors 512 and 514; Image or other feedback is used to adjust the pixel data.

5.一例の立体画像ディスプレイ
図16のグラフィックス処理ユニット1564の一例のレンダラープログラム1580eは、三次元立体表示に向けて左右画像及び/又はフレームを準備するように構成される。左右画像のピクセルデータがプログラム1580b、1580c、及び1580dにより色補正された後、レンダラープログラム1580eは、左目及び右目データを立体表示に適したフォーマットにし、ディスプレイモニタ512又は514の一方に送信するために、最終的にレンダリングされたものを出力バッファに配置するように構成される。
5. Example Stereo Image Display The example renderer program 1580e of graphics processing unit 1564 of FIG. 16 is configured to prepare left and right images and/or frames for three-dimensional stereo display. After the left and right image pixel data is color corrected by programs 1580b, 1580c, and 1580d, renderer program 1580e formats the left and right eye data suitable for stereoscopic display and sends them to one of display monitors 512 or 514. , is configured to place the final rendered into the output buffer.

一般に、レンダラープログラム1580eは、右画像及び/又はフレーム及び左画像及び/又はフレームを受信する。レンダラープログラム1580eは、右及び左の画像及び/又はフレームを結合して、1つのフレームにする。幾つかの実施形態では、プログラム1580eは、上下モードで動作し、左画像データを半分の高さに凝縮する。次に、プログラム1580eは、凝縮された左画像データを結合フレームの上半分に配置する。同様に、プログラム1580eは、右画像データを半分の高さに凝縮し、凝縮された右画像データを結合フレームの下半分に配置する。 Generally, renderer program 1580e receives a right image and/or frame and a left image and/or frame. Renderer program 1580e combines the right and left images and/or frames into one frame. In some embodiments, program 1580e operates in top-down mode and condenses the left image data to half the height. Next, program 1580e places the condensed left image data in the top half of the combined frame. Similarly, program 1580e condenses the right image data to half the height and places the condensed right image data in the bottom half of the combined frame.

他の実施形態では、レンダラープログラム1580eは横並びモードで動作し、左右の各画像は半分の幅に凝縮され、左画像データが画像の左半分に提供され、一方、右画像データが画像の右半分に提供されるように1つの画像に結合される。更に代替の実施形態では、レンダラープログラム1580eは、行インターリーブモードで動作し、左右フレーム内の1つ置きのラインは破棄される。左右フレームは一緒に結合されて、完全な立体画像を形成する。 In other embodiments, the renderer program 1580e operates in side-by-side mode, where each left and right image is condensed to half the width, with left image data provided to the left half of the image, while right image data is provided to the right half of the image. are combined into one image so that it is provided. In a further alternative embodiment, renderer program 1580e operates in a line interleaved mode, with every other line in the left and right frames being discarded. The left and right frames are joined together to form a complete stereoscopic image.

一例のレンダラープログラム1580eは、結合された左右画像を接続された各ディスプレイモニタに別個にレンダリングするように構成される。例えば、両ディスプレイモニタ512及び514が接続される場合、レンダラープログラム1580eは、第1の結合立体画像をディスプレイモニタ512に向けてレンダリングし、第2の結合立体画像をディスプレイモニタ514に向けてレンダリングする。レンダラープログラム1580eは、ディスプレイモニタ及び/又は画面のタイプ及び/又は画面サイズと互換性があるように、第1及び第2の結合立体画像をフォーマットする。 An example renderer program 1580e is configured to render the combined left and right images separately to each connected display monitor. For example, if both display monitors 512 and 514 are connected, renderer program 1580e renders a first combined stereoscopic image toward display monitor 512 and a second combined stereoscopic image toward display monitor 514. . Renderer program 1580e formats the first and second combined stereoscopic images to be compatible with the display monitor and/or screen type and/or screen size.

幾つかの実施形態では、レンダラープログラム1580eは、ディスプレイモニタが立体データをいかに表示すべきかに基づいて画像処理モードを選択する。オペレータの脳による立体画像データの適切な解釈には、立体画像の左目データがオペレータの左目に伝達され、立体画像の右目データがオペレータの右目に伝達される必要がある。一般に、ディスプレイモニタは、第1の偏光を左目データに提供し、第2の逆の偏光を右目データに提供する。したがって、結合された立体画像は、ディスプレイモニタの偏光に一致しなければならない。 In some embodiments, renderer program 1580e selects an image processing mode based on how the display monitor should display stereoscopic data. Proper interpretation of the stereoscopic image data by the operator's brain requires that the left eye data of the stereoscopic image be communicated to the operator's left eye and the right eye data of the stereoscopic image be communicated to the operator's right eye. Generally, a display monitor provides a first polarization for left-eye data and a second, opposite polarization for right-eye data. Therefore, the combined stereoscopic image must match the polarization of the display monitor.

図17は、本開示の実施形態例によるディスプレイモニタ512の一例を示す。ディスプレイモニタ512は、例えば、画面1702を有するLG(登録商標)55LW5600三次元テレビジョンであり得る。一例のディスプレイモニタ512は、全ての奇数行1704が第1の偏光を有し、全ての偶数行1706が逆の偏光を有するように画面1702上に偏光フィルムを使用する。図17に示されるディスプレイモニタ512との互換性のために、レンダラープログラム1580eは、左右の画像データが交互のラインにあるような行インターリーブモードを選択する必要がある。幾つかの場合、レンダラープログラム1580eは、立体画像を準備する前、ディスプレイモニタ512の表示特性を要求(又は他の方法で受信)し得る。 FIG. 17 illustrates an example display monitor 512 according to example embodiments of the present disclosure. Display monitor 512 may be, for example, an LG® 55LW5600 three-dimensional television with screen 1702. An example display monitor 512 uses a polarizing film on the screen 1702 such that all odd rows 1704 have a first polarization and all even rows 1706 have the opposite polarization. For compatibility with the display monitor 512 shown in FIG. 17, the renderer program 1580e should select a row interleave mode such that left and right image data are in alternating lines. In some cases, renderer program 1580e may request (or otherwise receive) the display characteristics of display monitor 512 before preparing the stereoscopic image.

画面1702に表示された立体画像を見るために、外科医504(図5から外科医を想起する)は、行1704の第1の偏光に一致する第1の偏光を含む左レンズ1714を含むメガネ1712を装着する。加えて、メガネ1712は、行1706の第2の偏光に一致する第2の偏光を含む右レンズ1716を含む。したがって、左レンズ1714は、左行1704からの左画像データからの光のみの大半を透過させながら、右画像データからの光の大半をブロックする。加えて、右レンズ1716は、右行1706からの右画像データからの光のみの大半を透過させながら、左画像データからの左の大半をブロックする。各目に到達する「誤った」ビューからの光の量は、「クロストーク」として知られ、一般に、快適な閲覧を可能にするのに十分に低い値に保持される。したがって、外科医504は、左目で左光学画像センサ748により記録された左画像データを見ながら、右目で右光学画像センサ746により記録された右画像データを見る。外科医の脳は2つのビューを一緒に融合して、三次元距離及び/又は奥行きの知覚を作り出す。さらに、そのようなディスプレイモニタの使用は、立体視覚化カメラ300の精度を観測するのに有利である。外科医又はオペレータがメガネを装着しない場合、左右の両ビューは両目で観測可能である。平らな標的が焦点面に配置される場合、2つの画像は理論上、位置合わせされる。位置合わせずれが検出される場合、プロセッサ1562により再較正手順を開始することができる。 To view the stereo image displayed on screen 1702, surgeon 504 (recall the surgeon from FIG. 5) wears glasses 1712 that include a left lens 1714 that includes a first polarization that matches the first polarization of row 1704 Installing. Additionally, glasses 1712 include a right lens 1716 that includes a second polarization that matches the second polarization of row 1706. Thus, the left lens 1714 blocks most of the light from the right image data while only transmitting most of the light from the left image data from the left row 1704. In addition, right lens 1716 blocks most of the left image data from the left image data while only transmitting most of the light from the right image data from right row 1706 . The amount of light from the "false" view that reaches each eye is known as "crosstalk" and is generally kept low enough to allow comfortable viewing. Thus, the surgeon 504 views the right image data recorded by the right optical image sensor 746 with his right eye while viewing the left image data recorded by the left optical image sensor 748 with his left eye. The surgeon's brain fuses the two views together to create a three-dimensional distance and/or depth perception. Furthermore, the use of such a display monitor is advantageous for observing the accuracy of the stereoscopic visualization camera 300. If the surgeon or operator does not wear glasses, both left and right views are visible with both eyes. If a flat target is placed in the focal plane, the two images are theoretically aligned. If misalignment is detected, a recalibration procedure can be initiated by processor 1562.

一例のレンダラープログラム1580eは、円偏光に関して左右ビューをレンダリングするように構成される。しかしながら、他の実施形態では、レンダラープログラム1580eは、線形偏光と互換性がある立体画像を提供し得る。どのタイプの偏光が使用されるかに関係なく、一例のプロセッサ1562はプログラム1560を実行して、レンダラープログラム1580eにより出力された立体画像の偏光を検証又はチェックし得る。偏光をチェックするために、プロセッサ1562及び/又は周辺入力ユニットインターフェース1574は、診断データを左画像及び/又は右画像に挿入する。例えば、プロセッサ1562及び/又は周辺入力ユニットインターフェース1574は、「左」テキストを左画像に重ね、「右」テキストを右画像に重ね得る。プロセッサ1562及び/又は周辺入力ユニットインターフェース1574は、オペレータに、メガネ1712を装着しながら一度に片目を閉じて、左ビューが左目で受け取られ、右ビューが右目で受け取られていることを確認するように指示するプロンプトを表示し得る。オペレータは、ユーザ入力デバイス1410を介して偏光が正確であるか否かを示す確認を提供し得る。偏光が正確ではない場合、一例のレンダラープログラム1580eは、左右の画像を結合立体画像に挿入する位置を逆にするように構成される。 An example renderer program 1580e is configured to render left and right views for circularly polarized light. However, in other embodiments, the renderer program 1580e may provide stereoscopic images that are compatible with linear polarization. Regardless of what type of polarization is used, example processor 1562 may execute program 1560 to verify or check the polarization of the stereo image output by renderer program 1580e. To check polarization, processor 1562 and/or peripheral input unit interface 1574 insert diagnostic data into the left image and/or right image. For example, processor 1562 and/or peripheral input unit interface 1574 may overlay "left" text on the left image and "right" text on the right image. Processor 1562 and/or peripheral input unit interface 1574 may prompt the operator to close one eye at a time while wearing glasses 1712 to ensure that the left view is received by the left eye and the right view is received by the right eye. may display prompts for instructions. The operator may provide confirmation via user input device 1410 indicating whether the polarization is accurate. If the polarization is not accurate, the example renderer program 1580e is configured to reverse the insertion of the left and right images into the combined stereoscopic image.

更に他の実施形態では、一例のレンダラープログラム1580eは、結合立体画像を作成する代わりに、フレームの順次投影を提供するように構成される。ここで、レンダラープログラム1580eは、右画像及び/又はフレームで順次インターリーブされた左画像及び又はフレームをレンダリングする。したがって、左右の画像は外科医504に交互に提示される。これらの他の実施形態では、画面1702は偏光されない。代わりに、メガネ1712の左右のレンズは電子的又は光学的にフレームシーケンスの各部分と同期し得、それにより、対応する左右のビューをユーザに提供して、奥行きを識別する。 In yet other embodiments, the example renderer program 1580e is configured to provide sequential projections of frames instead of creating a combined stereoscopic image. Here, the renderer program 1580e renders the left image and/or frame sequentially interleaved with the right image and/or frame. Therefore, the left and right images are alternately presented to the surgeon 504. In these other embodiments, screen 1702 is not polarized. Alternatively, the left and right lenses of glasses 1712 may be electronically or optically synchronized with each portion of the frame sequence, thereby providing the user with corresponding left and right views to discern depth.

幾つかの例では、レンダラープログラム1580eは、別個のディスプレイモニタに又は1つのディスプレイモニタ上の別個のウィンドウに表示するように右画像及び左画像の幾らかを提供し得る。そのような構成は、光学要素1402の左右の光路のレンズが独立して調整可能な場合、特に有利であり得る。一例では、右光路は第1の倍率レベル設定し得、一方、左光路は第2の倍率レベルに設定される。それに従って一例のレンダラープログラム1580eは、左ビューからの画像ストリームをディスプレイモニタ512に表示し、右ビューからの画像ストリームをディスプレイモニタ514に表示し得る。幾つかの場合、左ビューはディスプレイモニタ512の第1のウィンドウに表示し得、一方、右ビューは同じディスプレイモニタ512の第2のウィンドウに表示される(例えば、ピクチャインピクチャ)。したがって、立体ではないが、左右の画像の同時表示は有用な情報を外科医に提供する。 In some examples, the renderer program 1580e may provide some of the right and left images for display on separate display monitors or in separate windows on one display monitor. Such a configuration may be particularly advantageous if the lenses in the left and right optical paths of optical element 1402 are independently adjustable. In one example, the right optical path may be set to a first magnification level, while the left optical path is set to a second magnification level. Accordingly, example renderer program 1580e may display the image stream from the left view on display monitor 512 and the image stream from the right view on display monitor 514. In some cases, the left view may be displayed in a first window of display monitor 512, while the right view is displayed in a second window of the same display monitor 512 (eg, picture-in-picture). Therefore, although not stereoscopic, the simultaneous display of left and right images provides useful information to the surgeon.

別の例では、光源708及びフィルタ740を素早く切り替えて、可視光及び蛍光を有する交互の画像を生成し得る。一例のレンダラープログラム1580eは、異なる光源下で左ビュー及び右ビューを結合して、立体表示を提供して、例えば、背景を可視光で表示しながら、染料剤を有する静脈を強調表示し得る。 In another example, light source 708 and filter 740 may be quickly switched to produce alternating images with visible light and fluorescence. An example renderer program 1580e may combine the left and right views under different light sources to provide a stereoscopic display to highlight veins with dye while displaying the background in visible light, for example.

更に別の例では、デジタルズームを右及び/又は左光学画像センサ746又は748に適用し得る。デジタルズームは一般に、画像の知覚される分解能に影響し、表示分解能及び閲覧者の好み等の要因に依存する。例えば、画像捕捉モジュール1404のプロセッサ1504は、デジタルズームピクセル間で同期され散在する補間ピクセルを作成することによりデジタルズームを適用し得る。プロセッサ1504は、光学画像センサ746及び748の選択及び補間ピクセルを調整するプログラム1510を動作し得る。プロセッサ1504は、続けてレンダリングし表示するために、デジタルズームを情報プロセッサモジュール1408に適用した状態の右画像及び左画像を送信する。 In yet another example, digital zoom may be applied to the right and/or left optical image sensor 746 or 748. Digital zoom generally affects the perceived resolution of the image and depends on factors such as display resolution and viewer preference. For example, processor 1504 of image capture module 1404 may apply digital zoom by creating synchronized interspersed interpolation pixels between digital zoom pixels. Processor 1504 may operate a program 1510 that adjusts the selection and interpolation pixels of optical image sensors 746 and 748. Processor 1504 transmits the right and left images with digital zoom applied to information processor module 1408 for subsequent rendering and display.

幾つかの実施形態では、プロセッサ1504は、デジタルズーム画像をデジタルズームのない画像間で記録して、標的部位700の関心領域のデジタルズームのピクチャインピクチャ(又は別個のウィンドウ)表示を提供すべきであるとの命令をプロセッサ1562から受信する。それに従ってプロセッサ1504は、デジタルズームをピクセルグリッド1002及び1004からの1つおきの読み出しに適用する。これにより、レンダラープログラム1580eは、デジタルズームされた立体画像に加えて、立体最高分解能画像を同時に表示することができる。代替的には、デジタル的にズームすべき画像は、現在の画像からコピーされ、スケーリングされ、レンダリングフェーズ中、現在の画像の上に重ねられた適切な位置に配置される。この代替の構成は、「交互」記録要件を回避する。 In some embodiments, processor 1504 should record digitally zoomed images between images without digitally zoomed to provide a picture-in-picture (or separate window) display of the digitally zoomed region of interest of target region 700. instructions are received from processor 1562. Processor 1504 accordingly applies digital zoom to every other readout from pixel grids 1002 and 1004. This allows the renderer program 1580e to simultaneously display the highest resolution stereoscopic image in addition to the digitally zoomed stereoscopic image. Alternatively, the image to be digitally zoomed is copied from the current image, scaled and placed in the appropriate position superimposed on top of the current image during the rendering phase. This alternative configuration avoids the "alternating" recording requirement.

6.一例の較正
図14~図16の一例の情報プロセッサモジュール1408は、1つ又は複数の較正プログラム1560を実行して、例えば、作業距離及び/又は倍率を較正するように構成し得る。例えば、プロセッサ1562は、較正ステップを実行して、主対物レンズ組立体702から標的部位700までの作業距離(ミリメートル単位で測定される)を作業距離レンズモータ1554の既知のモータ位置にマッピングする命令をモータ・照明モジュール1406に送信し得る。プロセッサ1562は、エンコーダカウント及び作業距離を記録しながら、光軸に沿って離散ステップで物体平面を順次移動させ、左右の画像を再フォーカスすることにより較正を実行する。幾つかの例では、作業距離は外部デバイスにより測定し得、外部デバイスは、周辺入力ユニットインターフェース1574及び/又はユーザ入力デバイス1410へのインターフェースを介して、測定された作業距離値をプロセッサ1562に送信する。プロセッサ1562は、後部作業距離レンズ704の位置(作業距離レンズモータ1554の位置に基づく)及び対応する作業距離を記憶し得る。
6. Example Calibration The example information processor module 1408 of FIGS. 14-16 may be configured to execute one or more calibration programs 1560 to calibrate, for example, working distance and/or magnification. For example, processor 1562 performs a calibration step to provide instructions for mapping the working distance (measured in millimeters) from main objective lens assembly 702 to target site 700 to a known motor position of working distance lens motor 1554. may be sent to the motor and lighting module 1406. Processor 1562 performs calibration by sequentially moving the object plane in discrete steps along the optical axis and refocusing the left and right images while recording encoder counts and working distances. In some examples, the working distance may be measured by an external device that transmits the measured working distance value to the processor 1562 via the peripheral input unit interface 1574 and/or the interface to the user input device 1410. do. Processor 1562 may store the position of rear working distance lens 704 (based on the position of working distance lens motor 1554) and the corresponding working distance.

一例のプロセッサ1562はまた、プログラム1560を実行して、倍率較正を実行することもできる。プロセッサ1562は、モータ・照明モジュール1406を使用して倍率レベルを選択して光学要素1402を設定し得る。プロセッサ1562は、光学要素1402の位置又は各倍率レベルに関する対応するモータ位置を記録し得る。倍率レベルは、既知のサイズの物体の画像内で高さを測定することにより特定し得る。例えば、プロセッサ1562は、10ピクセル分の高さを有するものとして物体を測定し、ルックアップテーブルを使用して、10ピクセル高さが5X倍率に対応すると判断し得る。 Example processor 1562 may also execute program 1560 to perform magnification calibration. Processor 1562 may select a magnification level and set optical element 1402 using motor and illumination module 1406. Processor 1562 may record the position of optical element 1402 or the corresponding motor position for each magnification level. The magnification level may be determined by measuring the height within the image of an object of known size. For example, processor 1562 may measure the object as having a height of 10 pixels and use a lookup table to determine that 10 pixels height corresponds to a 5X magnification.

2つの異なる撮像モダリティの立体視点を合わせるために、単純なピンホールカメラであるかのようにモデリングすることが望ましいことが多い。MRI脳腫瘍等の3Dコンピュータモデルの視点は、ユーザ調整可能な方向及び距離(例えば、画像が合成立体カメラにより記録されたかのように)から見ることができる。調整可能性を使用して、ライブ外科画像の視点を合わせることができ、したがって、ライブ外科画像の視点は既知でなければならない。一例のプロセッサ1562は、例えば、右光学画像センサ746及び左光学画像センサ748の投影中心(「COP」)等のこれらのピンホールカメラモデルパラメータの1つ又は複数を較正し得る。投影中心を特定するために、プロセッサ1562は、投影中心から物体平面へのフォーカス距離を特定する。まず、プロセッサ1562は、倍率レベルに光学要素1402を設定する。次にプロセッサ1562は、物体平面、物体平面距離未満の距離d、及び物体平面距離よりも大きい距離dを含む光軸に沿った3つの異なる距離における画像の高さの測定値を記録する。プロセッサ1562は、2つの最も極端な位置における同様の三角に代数数式を使用して、投影中心へのフォーカス距離を特定する。プロセッサ1562は、同じ方法を使用して、又は較正に使用される倍率間の比率を特定することにより、他の倍率でのフォーカス距離を特定し得る。プロセッサは投影中心を使用して、MRI腫瘍モデル等の所望の融合物体の画像の視点をライブ立体外科画像に合わせ得る。追加又は代替として、OpenCV calibrateCamera等の既存のカメラ較正手順を使用して、上記パラメータ及び光学要素1402の歪みモデル等の追加のカメラ情報を見つけ得る。 In order to match the stereo perspective of two different imaging modalities, it is often desirable to model them as if they were simple pinhole cameras. The perspective of a 3D computer model, such as an MRI brain tumor, can be viewed from user-adjustable directions and distances (eg, as if the images were recorded by a synthetic stereo camera). Adjustability can be used to match the perspective of the live surgical image, so the perspective of the live surgical image must be known. An example processor 1562 may calibrate one or more of these pinhole camera model parameters, such as, for example, the center of projection (“COP”) of right optical image sensor 746 and left optical image sensor 748. To identify the projection center, processor 1562 determines the focus distance from the projection center to the object plane. First, processor 1562 sets optical element 1402 to a magnification level. Processor 1562 then records measurements of the height of the image at three different distances along the optical axis, including the object plane, a distance d less than the object plane distance, and a distance d greater than the object plane distance. Processor 1562 uses algebraic formulas for similar triangles at the two most extreme positions to determine the focus distance to the projection center. Processor 1562 may determine focus distances at other magnifications using the same method or by determining the ratio between the magnifications used for calibration. The processor may use the projection center to center an image of a desired fused object, such as an MRI tumor model, on the live stereoscopic surgical image. Additionally or alternatively, existing camera calibration procedures, such as OpenCV calibrateCamera, may be used to find the above parameters and additional camera information, such as a distortion model of optical element 1402.

一例のプロセッサ1562は、左右の光軸を更に較正し得る。プロセッサ1562は、較正のために左光軸と右光軸との瞳孔間距離を特定する。瞳孔間距離を特定するために、一例のプロセッサ1562は左右の画像を記録し、ピクセルセット1006及び1008はピクセルグリッド1002及び1004にセンタリングされる。プロセッサ1562は、左右の画像のZRP(及び/又は変位された物体への距離)の位置を特定し、これは、画像位置合わせずれ及び視差の度数を示す。加えて、プロセッサ1562は、倍率レベルに基づいて視差及び/又は距離をスケーリングする。次に、プロセッサ1562は、視差の度数及び/又はディスプレイにおける物体へのスケーリングされた距離を考慮に入れて、三角測量計算を使用して瞳孔間距離を特定する。プロセッサ1562は次に、較正点として、瞳孔間距離を指定された倍率レベルでの光軸に関連付ける。 The example processor 1562 may further calibrate the left and right optical axes. Processor 1562 determines the interpupillary distance between the left and right optical axes for calibration. To determine interpupillary distance, example processor 1562 records left and right images, and pixel sets 1006 and 1008 are centered on pixel grids 1002 and 1004. Processor 1562 determines the location of the ZRP (and/or distance to the displaced object) of the left and right images, which is indicative of image misregistration and degree of parallax. Additionally, processor 1562 scales the disparity and/or distance based on the magnification level. Processor 1562 then determines the interpupillary distance using triangulation calculations, taking into account the degree of parallax and/or the scaled distance to objects in the display. Processor 1562 then relates the interpupillary distance to the optical axis at the specified magnification level as a calibration point.

VI.画像位置合わせ及び疑似視差調整実施形態
人間の視覚と同様に、立体画像は、関心点で収束する右ビュー及び左ビューを含む。右ビュー及び左ビューは、関心点から僅かに異なる角度で記録され、それにより、2つのビュー間に視差が生じる。関心点の前又は後のシーン内のアイテムは、閲覧者からのアイテムの距離又は奥行きを推測することができるような視差を示す。知覚される距離の精度は、例えば、閲覧者の視力の明瞭さに依存する。大半の人間は、視力に何らかのレベルの不完全性を示し、右ビューと左ビューとの間に幾らかの不正確性を生じさせる。しかしながら、それでもなお立体を達成することが可能であり、脳は幾らかのレベルの精度でビューを融合する。
VI. Image Registration and Pseudo-Parallax Adjustment Embodiments Similar to human vision, stereoscopic images include right and left views that converge at a point of interest. The right and left views are recorded at slightly different angles from the point of interest, thereby creating a parallax between the two views. Items in the scene before or after the point of interest exhibit parallax such that the distance or depth of the item from the viewer can be inferred. The accuracy of the perceived distance depends, for example, on the clarity of the viewer's vision. Most humans exhibit some level of imperfection in their visual acuity, resulting in some inaccuracy between right and left views. However, it is still possible to achieve three-dimensionality, and the brain fuses the views with some level of precision.

左画像及び右画像が、人間により見られるのではなく、カメラにより記録される場合、ディスプレイ画面上の結合画像間の視差は立体視を生み出し、二次元ディスプレイに三次元立体画像の見た目を提供する。視差の誤差は、三次元立体画像の品質に影響する恐れがある。理論上、好ましい視差と比較した観測視差の不正確性は、疑似視差として知られている。人間と異なり、カメラは、不正確性を自動的に補償する脳を持たない。 If the left and right images are recorded by a camera rather than viewed by a human, the parallax between the combined images on the display screen creates stereopsis, providing the appearance of a three-dimensional stereo image on a two-dimensional display. . Parallax errors may affect the quality of three-dimensional stereoscopic images. The inaccuracy of the observed parallax compared to the theoretically preferred parallax is known as spurious parallax. Unlike humans, cameras do not have brains that automatically compensate for inaccuracies.

疑似視差が大きくなる場合、三次元立体画像は、目眩、頭痛、及び吐き気を誘導するポイントまで閲覧不可能になり得る。顕微鏡及び/又はカメラにおいて視差に影響し得る多くの要因がある。例えば、左右のビューの光学チャネルは、厳密に等しいわけではないことがある。光学チャネルは、不一致のフォーカス、倍率、及び/又は関心点の位置合わせずれを有し得る。これらの問題は、異なる倍率及び/又は作業距離で様々な深刻度を有し得、それにより、較正を通して補正する取り組みを低減する。 If pseudo-parallax becomes large, three-dimensional stereoscopic images can become unviewable to the point of inducing dizziness, headaches, and nausea. There are many factors that can affect parallax in a microscope and/or camera. For example, the optical channels of the left and right views may not be exactly equal. The optical channels may have mismatched focus, magnification, and/or misalignment of points of interest. These problems may have varying severity at different magnifications and/or working distances, thereby reducing efforts to correct through calibration.

図2の外科用顕微鏡200等の既知の外科用顕微鏡は、接眼レンズ206を通して適切なビューを提供するように構成される。多くの場合、既知の外科用顕微鏡の光学要素の画質は、立体視カメラには十分ではない。この理由は、外科用顕微鏡の製造業者が、主な閲覧が接眼レンズを通しての閲覧であると仮定しているためである。任意のカメラ付属品(カメラ212等)は、平面視であり、疑似視差を受けないか、又は疑似視差がそれほど明白ではない低画像分解能で立体視である。 Known surgical microscopes, such as surgical microscope 200 of FIG. 2, are configured to provide a suitable view through eyepiece 206. In many cases, the image quality of the optical elements of known surgical microscopes is not sufficient for stereoscopic cameras. The reason for this is that surgical microscope manufacturers assume that the primary viewing is through the eyepiece. Any camera accessory (such as camera 212) is either monoscopic and not subject to pseudo-parallax, or stereoscopic at a lower image resolution where pseudo-parallax is not as apparent.

ISO10936-1:2000,Optics and optical instruments-Operation microscopes-Part 1:Requirements and test methods等の国際規格は、外科用顕微鏡の画質に仕様限度を提供するために作成された。仕様限度は一般に、外科用顕微鏡の接眼レンズを通して見ることについて設定され、三次元立体表示を考慮していない。例えば、疑似視差に関して、ISO10936-1:2000は、左右のビュー間の垂直軸の差は15分未満であるべきであると指定している。軸の小さな角度ずれは多くの場合、1/60度に対応する分又は1/60分に対応する秒で定量化される。15分仕様限度は、作業距離250mm及び視野35mm(視野角8°を有する)を有する典型的な外科用顕微鏡では左右のビュー間の3%差に対応する。 International standards such as ISO10936-1:2000, Optics and optical instruments-Operation microscopes-Part 1: Requirements and test methods specify specifications for the image quality of surgical microscopes. Created to provide limits. Specification limits are generally set for viewing through the eyepiece of a surgical microscope and do not take into account three-dimensional stereoscopic viewing. For example, regarding pseudo-parallax, ISO 10936-1:2000 specifies that the vertical axis difference between the left and right views should be less than 15 minutes. Small angular deviations of axis are often quantified in minutes corresponding to 1/60th of a degree or seconds corresponding to 1/60th of a minute. The 15 minute specification limit corresponds to a 3% difference between the left and right views for a typical surgical microscope with a working distance of 250 mm and a field of view of 35 mm (with a viewing angle of 8°).

3%差は、外科医の脳が小さな程度の誤差を解消することが可能な接眼レンズ閲覧の場合、許容可能である。しかしながら、この3%差は、ディスプレイモニタ上で立体的に見られる場合、左右のビュー間に顕著な差を生じさせる。例えば、左右のビューが一緒に見られる場合、3%差は、分断されて見え、長時間にわたり見ることが難しい画像を生成する。 A 3% difference is acceptable for eyepiece viewing where the surgeon's brain can resolve small degrees of error. However, this 3% difference creates a noticeable difference between the left and right views when viewed stereoscopically on a display monitor. For example, if the left and right views are viewed together, a 3% difference produces an image that appears disconnected and difficult to view over long periods of time.

別の問題は、既知の外科用顕微鏡が、1つ又は少数の倍率レベルでのみ15分仕様限度を満たし得、及び/又は個々の光学要素のみが特定の仕様限度を満たし得ることである。例えば、個々のレンズは特定の基準を満たすように製造される。しかしながら、個々の光学要素が光路において組み合わせられると、規格からの小さなずれは、相殺されるのではなく増幅され得る。これは、共通の主対物レンズを含む5つ以上の光学要素が光路に使用される場合、特に顕著であり得る。加えて、平行チャネル上に光学要素を完全に一致させることは非常に難しい。せいぜい、製造中、外科用顕微鏡の光学要素は、1つ又は少数の特定の倍率レベルでのみ、15分仕様限度を満たすように較正される。したがって、外科用顕微鏡がISO10936-1:2000仕様を満たすということになっているにも拘わらず、較正ポイント間の誤差は大きいことがある。 Another problem is that known surgical microscopes may meet the 15 minute specification limit at only one or a few magnification levels, and/or only individual optical elements may meet certain specification limits. For example, individual lenses are manufactured to meet specific criteria. However, when individual optical elements are combined in the optical path, small deviations from specification can be amplified rather than canceled out. This may be particularly noticeable when more than five optical elements are used in the optical path, including a common main objective. In addition, it is very difficult to perfectly match optical elements on parallel channels. At most, during manufacturing, the optical elements of a surgical microscope are calibrated to meet the 15 minute specification limit at only one or a few specific magnification levels. Therefore, even though surgical microscopes are supposed to meet ISO 10936-1:2000 specifications, the errors between calibration points can be large.

加えて、ISO10936-1:2000仕様では、追加の構成要素が追加される場合、より大きな許容差が許されている。例えば、第2の接眼レンズ(例えば、接眼レンズ208)の追加は、疑似視差を2分増大させる。ここでも、誤差は、接眼レンズ206及び208を通して見るには許容可能であり得るが、画像位置合わせずれは、カメラを通して立体的に見た場合、より顕著になる。 Additionally, the ISO 10936-1:2000 specification allows for greater tolerances when additional components are added. For example, adding a second eyepiece (eg, eyepiece 208) increases the pseudo-parallax by two minutes. Again, the error may be acceptable when viewed through the eyepieces 206 and 208, but the image misregistration becomes more noticeable when viewed stereoscopically through the camera.

既知の外科用顕微鏡と比較して、本明細書に開示される一例の立体視覚化カメラ300は、光学要素1402の少なくとも幾つかを自動的に調整して、疑似視差を低減又はなくすように構成される。光学要素を立体視覚化カメラ300に組み込むことにより、三次元立体表示に向けて微調整を自動的に(時にはリアルタイムで)行うことが可能になる。幾つかの実施形態では、一例の立体視覚化カメラ300は20秒~40秒の精度を提供し得、これは、既知の外科用顕微鏡の15分精度と比較して、光学誤差の97%低減に近い。 In comparison to known surgical microscopes, the example stereoscopic visualization camera 300 disclosed herein is configured to automatically adjust at least some of the optical elements 1402 to reduce or eliminate pseudo-parallax. be done. Incorporating optical elements into the stereoscopic visualization camera 300 allows fine adjustments to be made automatically (sometimes in real time) toward a three-dimensional stereoscopic display. In some embodiments, an example stereoscopic visualization camera 300 may provide an accuracy of 20 seconds to 40 seconds, which is a 97% reduction in optical error compared to the 15 minute accuracy of known surgical microscopes. Close to.

精度の改善により、一例の立体視覚化カメラ300は、既知の立体顕微鏡では実行することが可能ではない特徴を提供することができる。例えば、多くの新しい顕微鏡外科処置は、最適なサイジング、位置決め、マッチング、配向、及び診断に生体の術部での正確な測定に頼っている。これは、血管のサイズ特定、円環眼内レンズ(「IOL」)の配置角度、術前画像からライブビューへの血管系の一致、動脈下の腫瘍の深さ等の特定を含む。それに従って一例の立体視覚化カメラ300は、例えば、グラフィカルオーバーレイ又は画像分析を使用して解剖学的構造のサイズを特定し、精密な測定を行えるようにする。 The improved accuracy allows the example stereoscopic visualization camera 300 to provide features that are not possible with known stereoscopic microscopes. For example, many new microsurgical procedures rely on accurate measurements at the in-vivo surgical site for optimal sizing, positioning, matching, orientation, and diagnosis. This includes determining the size of the blood vessels, the angle of placement of the toric intraocular lens ("IOL"), matching the vasculature from the pre-operative image to the live view, determining the depth of the tumor below the artery, etc. Accordingly, the example stereoscopic visualization camera 300 uses, for example, graphical overlays or image analysis to determine the size of anatomical structures and allow precise measurements to be made.

既知の外科用顕微鏡では、外科医が既知のサイズの物体(マイクロ定規等)を視野内に配置する必要がある。外科医は物体のサイズを周囲の解剖学的構造と比較して、おおよそのサイズを特定する。しかしながら、外科医は物体を適切な位置に配置し、次に、測定が行われた後、物体を取り出す必要があるため、この手順は比較的遅い。加えて、サイズは外科医の主観的比較及び測定に基づくため、測定は近似しか提供しない。幾つかの既知の立体視カメラは、サイズを特定するためのグラフィカルオーバーレイを提供する。しかしながら、疑似視差が左右のビュー間に存在する場合、これらのオーバーレイの精度は下がる。 Known surgical microscopes require the surgeon to place an object of known size (such as a micro-rule) within the field of view. The surgeon compares the size of the object to surrounding anatomical structures to determine its approximate size. However, this procedure is relatively slow because the surgeon must place the object in the appropriate position and then remove the object after measurements are taken. In addition, the measurements provide only an approximation since the sizes are based on the surgeon's subjective comparisons and measurements. Some known stereoscopic cameras provide a graphical overlay to specify size. However, if pseudo-parallax exists between the left and right views, the accuracy of these overlays decreases.

A.疑似視差の原因としてのZRP
ZRP不正確性は、疑似視差を生じさせる左右の画像間の大きな誤差原因を提供する。ZRP又はズーム反復点とは、倍率レベルが変わっても同じ位置に留まる視野内の点を指す。図18及び図19は、異なる倍率レベルでの左右の視野でのZRPの例を示す。特に、図18は、低倍率レベルでの左視野1800及び高倍率レベルでの左視野1850を示す。加えて、図19は、低倍率レベルでの右視野1900及び高倍率レベルでの右視野1950を示す。
A. ZRP as a cause of pseudo parallax
ZRP inaccuracy provides a large source of error between the left and right images resulting in pseudo parallax. A ZRP or zoom repeat point refers to a point in the field of view that remains the same as the magnification level changes. Figures 18 and 19 show examples of ZRP in left and right fields of view at different magnification levels. In particular, FIG. 18 shows the left field of view 1800 at a low magnification level and the left field of view 1850 at a high magnification level. Additionally, FIG. 19 shows the right field of view 1900 at a low magnification level and the right field of view 1950 at a high magnification level.

図18及び図19が、本開示での例示的な参照点を提供する十字線1802及び1902を示すことに留意されたい。十字線1802は、y方向又はy軸に沿って位置決めされる第1の十字線1802a及びx方向又はx軸に沿って位置決めされる第2の十字線1802bを含む。さらに、十字線1902は、y方向又はy軸に沿って位置決めされる第1の十字線1902a及びx方向又はx軸に沿って位置決めされる第2の十字線1902bを含む。実際の実施では、一例の立体視覚化カメラ300はデフォルトにより通常、オペレータにより要求される場合を除き、光路に十字線を含まないか、又は光路に十字線を追加しない。 Note that FIGS. 18 and 19 show crosshairs 1802 and 1902 that provide exemplary reference points in this disclosure. The crosshairs 1802 include a first crosshair 1802a positioned along the y direction or y-axis and a second crosshair 1802b positioned along the x direction or x-axis. Additionally, the crosshairs 1902 include a first crosshair 1902a positioned along the y direction or y-axis and a second crosshair 1902b positioned along the x direction or x-axis. In an actual implementation, the example stereoscopic visualization camera 300 typically by default does not include or add crosshairs to the optical path unless requested by an operator.

理想的には、ZRPは中央位置又は原点に位置すべきである。例えば、ZRPは十字線1802及び1902にセンタリングされるべきである。しかしながら、光学要素1402の不正確性及び/又は光学要素1402間のわずかな位置合わせずれは、ZRPを十字線1802及び1902の中心から離れて配置させる。疑似視差の程度は、左右のビュー間で位置合わせズレしたZRPに加えて、左右のビューの各ZRPが各中心から離れて配置される程度に対応する。さらに、光学要素1402における不正確性は、倍率変更にともなってZRPをわずかに変動させ得、それにより、疑似視差の程度を更に大きくする。 Ideally, the ZRP should be located at the center or origin. For example, the ZRP should be centered on crosshairs 1802 and 1902. However, inaccuracies in optical elements 1402 and/or slight misalignments between optical elements 1402 cause the ZRP to be positioned away from the center of crosshairs 1802 and 1902. The degree of pseudo-parallax corresponds to the degree to which each ZRP of the left and right views is arranged apart from the center, in addition to the ZRP that is misaligned between the left and right views. Furthermore, inaccuracies in optical element 1402 may cause the ZRP to vary slightly with magnification changes, thereby further increasing the degree of pseudo-parallax.

図18は、図7の標的部位700の視野1800及び1850内の3つの三日月形物体1804、1806、及び1808を示す。視野1800及び1850が光学画像センサ746及び748に関して線形の視野であることを理解されたい。物体1804、1806、及び1808は視野1800内に配置されて、疑似視差が左右の画像の位置合わせずれからいかに生じるかを示した。物体1804は、十字線1802aに沿って十字形1802bの上に位置決めされる。物体1806は、十字線1802bに沿って十字線1802aの左側に位置決めされる。物体1808は、十字線1802bの僅かに下に十字線1802aの右側に位置決めされる。左視野1800のZRP1810は、物体1808の切り欠きに位置決めされる。 FIG. 18 shows three crescent-shaped objects 1804, 1806, and 1808 within fields of view 1800 and 1850 of target site 700 of FIG. It should be appreciated that fields of view 1800 and 1850 are linear fields of view with respect to optical image sensors 746 and 748. Objects 1804, 1806, and 1808 were placed within the field of view 1800 to illustrate how pseudo-parallax results from misalignment of the left and right images. Object 1804 is positioned along crosshair 1802a and above crosshair 1802b. Object 1806 is positioned along crosshair 1802b to the left of crosshair 1802a. Object 1808 is positioned slightly below crosshair 1802b and to the right of crosshair 1802a. ZRP 1810 in left field of view 1800 is positioned in a notch in object 1808.

左視野1800は、一例の立体視覚化カメラ300のズームレンズ組立体716を使用して倍率レベルを上げる(例えば、ズームする)ことにより、左視野1850に変更される。倍率を上げると、視野1850に示されるように、物体1804、1806、及び1808は拡大又は成長するように見える。図示の例では、視野1850は視野1800の倍率レベルの約3Xである。 Left field of view 1800 is changed to left field of view 1850 by increasing the magnification level (eg, zooming) using zoom lens assembly 716 of example stereoscopic visualization camera 300. As the magnification is increased, objects 1804, 1806, and 1808 appear to enlarge or grow, as shown in field of view 1850. In the illustrated example, field of view 1850 is approximately 3X the magnification level of field of view 1800.

低倍率視野1800と比較して、高倍率視野1850内の物体1804、1806、及び1808は、ZRP1810に関して3X、互いから離れて移動しながら、約3X増大したサイズを有する。加えて、物体1804、1806、及び1808の位置は、十字線1802に相対して移動している。物体1804はここで、十字線1802aの左にシフトされ、十字線1802bから僅かに離れてシフトされる。加えて、物体1806はここで、十字線1802aの左に更にシフトされ、十字線1802bの僅かに上にシフトされる。一般に、物体1808は、十字線1802に関して同じ(又は略同じ)位置に配置され、ZRP1810は十字線1802及び物体1806に関して厳密に同じ(又は略同じ)位置に配置される。換言すれば、倍率が上がるにつれて、物体1804、1806、及び1808(及び視野1850内の他の何か)は、ZRP1810から離れて外側に移動するように見える。 Compared to low magnification field 1800, objects 1804, 1806, and 1808 in high magnification field 1850 have approximately 3X increased size while moving 3X away from each other with respect to ZRP 1810. Additionally, the positions of objects 1804, 1806, and 1808 have moved relative to crosshair 1802. Object 1804 is now shifted to the left of crosshair 1802a and slightly away from crosshair 1802b. Additionally, object 1806 is now shifted further to the left of crosshair 1802a and slightly above crosshair 1802b. Generally, object 1808 is placed in the same (or approximately the same) position with respect to crosshair 1802 and ZRP 1810 is placed in exactly the same (or approximately the same) position with respect to crosshair 1802 and object 1806. In other words, as the magnification increases, objects 1804, 1806, and 1808 (and anything else within field of view 1850) appear to move outward and away from ZRP 1810.

物体1804、1806、及び1808は、図19に示される右視野1900及び1950に示される。しかしながら、ZRPの位置は異なる。特に、右視野1900及び1950において、ZRP1910は十字線1902bの上に、十字線1902aの左に配置される。したがって、ZRP1910は、左視野1800及び1850におけるZRP1810と異なる位置に配置される。図示の例では、左右の光路が好ましくは、第1の倍率レベルにおいて位置合わせされると仮定される。したがって、左視野1800内の同じ物体1804、1806、及び1808と同じ位置にある右視野1900に示される物体1804、1806、及び1808。左右のビューは位置合わせされるため、疑似視差は存在しない。 Objects 1804, 1806, and 1808 are shown in right fields of view 1900 and 1950 shown in FIG. However, the location of the ZRP is different. In particular, in right fields of view 1900 and 1950, ZRP 1910 is positioned above crosshair 1902b and to the left of crosshair 1902a. Therefore, ZRP 1910 is placed at a different position than ZRP 1810 in left fields of view 1800 and 1850. In the illustrated example, it is assumed that the left and right optical paths are preferably aligned at a first magnification level. Thus, objects 1804, 1806, and 1808 shown in right field of view 1900 in the same position as the same objects 1804, 1806, and 1808 in left field of view 1800. Since the left and right views are aligned, there is no pseudo-parallax.

しかしながら、高倍率視野1950では、物体1804、1806、及び1808は拡大し、ZRP1910から離れて移動する。ZRP1910の位置を所与として、物体1804は右側に移動又はシフトし、物体1806は下方に移動又はシフトする。加えて、物体1808は、視野1900内の位置と比較して下方及び右に移動する。 However, in high magnification field of view 1950, objects 1804, 1806, and 1808 magnify and move away from ZRP 1910. Given the position of ZRP 1910, object 1804 moves or shifts to the right and object 1806 moves or shifts downward. Additionally, object 1808 moves downward and to the right compared to its position within field of view 1900.

図20は、高倍率左視野1850を高倍率右視野と比較するピクセル図を示す。グリッド2000は、左光学画像センサ746のピクセルグリッド1002上の物体1804(R)、1806(R)、及び1808(R)の位置が重ねられた左光学画像センサ748のピクセルグリッド1004上の物体1804(L)、1806(L)、及び1808(L)の位置を表し得る。図20は、物体1804、1806、及び1808が左視野1850及び右視野1950で異なる位置にあることを明らかに示す。例えば、物体1804(R)は、十字線1902aの右及び十字線1902bの上に配置され、一方、同じ物体1804(L)は、十字線1802aの左及び十字線1802bの更に上に配置される。 FIG. 20 shows a pixel diagram comparing the high magnification left field 1850 to the high magnification right field. Grid 2000 represents object 1804 on pixel grid 1004 of left optical image sensor 748 with the positions of objects 1804(R), 1806(R), and 1808(R) on pixel grid 1002 of left optical image sensor 746 superimposed. (L), 1806(L), and 1808(L). FIG. 20 clearly shows that objects 1804, 1806, and 1808 are in different positions in left field of view 1850 and right field of view 1950. For example, object 1804(R) is placed to the right of crosshair 1902a and above crosshair 1902b, while the same object 1804(L) is placed to the left of crosshair 1802a and further above crosshair 1802b. .

物体1804、1806、及び1808の位置差は疑似視差に対応し、疑似視差は、異なる位置にZRP1810及び1910を生成する光学要素1402の光学位置合わせの欠陥によって生じる。歪みがない又は他の撮像誤差がないと仮定すると、図20に示される疑似視差は一般に、画像内の全ての点で同じである。外科用顕微鏡(図2の顕微鏡200等)の接眼レンズを通して見る場合、物体1804、1806、及び1808の位置差は目立たないことがある。しかしながら、立体画像でディスプレイモニタ512及び514において見る場合、差は容易に明らかになり、頭痛、吐き気、及び/又は目眩を生じさせる恐れがある。 The positional difference of objects 1804, 1806, and 1808 corresponds to pseudo-parallax, which is caused by a defect in the optical alignment of optical element 1402 that produces ZRPs 1810 and 1910 at different positions. Assuming no distortion or other imaging errors, the pseudo-parallax shown in FIG. 20 is generally the same for all points in the image. When viewed through the eyepiece of a surgical microscope (such as microscope 200 in FIG. 2), the difference in position of objects 1804, 1806, and 1808 may not be noticeable. However, when viewed in stereo on display monitors 512 and 514, the differences are readily apparent and can cause headaches, nausea, and/or dizziness.

図21は、左右ZRPに関する疑似視差を示す図を示す。図は、図10の左ピクセルグリッド1002及び左ピクセルグリッド1004のオーバーレイを含むピクセルグリッド2100を含む。この図示の例では、左光路の左ZRP2102は、x軸に沿って+4及びy軸に沿って0に配置される。加えて、右光路の右ZRP2104は、x軸に沿って-1及びy軸に沿って0に配置される。原点2106は、x軸とy軸との交点に示される。 FIG. 21 shows a diagram showing pseudo parallax regarding left and right ZRP. The illustration includes a pixel grid 2100 that includes an overlay of left pixel grid 1002 and left pixel grid 1004 of FIG. In this illustrated example, the left ZRP 2102 of the left optical path is positioned at +4 along the x-axis and 0 along the y-axis. Additionally, the right ZRP 2104 of the right optical path is positioned at −1 along the x-axis and 0 along the y-axis. The origin 2106 is shown at the intersection of the x and y axes.

この例では、物体2108は、第1の低倍率で左右の画像に関して位置合わせされる。倍率が3X上がるにつれて、物体2108のサイズは増大し、ZRP2102及び2104から離れて移動した。輪郭物体2110は、ZRP2102及び2104が原点2106に位置合わせされることに基づいて、第2のより高い倍率では物体2108の理論上の位置を示す。特に、第1の倍率レベルでの物体2108の切り欠きは、x軸に沿った+2位置にある。3X倍率を用いる場合、切り欠きは、切り欠きがより高い倍率レベルでx軸に沿って+6に配置されるようにx軸に沿って3X移動する。加えて、ZRP2102及び2104は理論上、原点2106に位置合わせされるため、物体2110は、左右のビュー(オーバーレイを所与として1つの物体として図21に示される)の間に位置合わせされる。 In this example, object 2108 is aligned with respect to the left and right images at a first low magnification. As the magnification increased by 3X, object 2108 increased in size and moved away from ZRPs 2102 and 2104. Contour object 2110 shows the theoretical position of object 2108 at a second higher magnification based on ZRPs 2102 and 2104 being aligned to origin 2106. In particular, the cutout of object 2108 at the first magnification level is at position +2 along the x-axis. When using 3X magnification, the cutout is moved 3X along the x-axis such that the cutout is positioned at +6 along the x-axis at the higher magnification level. Additionally, because ZRPs 2102 and 2104 are theoretically aligned to origin 2106, object 2110 is aligned between the left and right views (shown in FIG. 21 as one object given the overlay).

しかしながら、この例では、左ZRP2102及び右ZRP2104の位置合わせずれは、物体2110をより高倍率で左右のビュー間で位置合わせずれさせる。右光路に関して、右ZRP2104は、低倍率において物体2108の切り欠きから3ピクセル分、離れるようにx軸に沿って-1に配置される。3Xで拡大される場合、この差は9ピクセルになり、これは物体2110(R)として示される。同様に、左ZRP2102はx軸に沿って+4ピクセルに配置される。3X倍率で、物体2108は、2ピクセル分離れることから6ピクセル分離れるように移動し、これはx軸に沿って-2における物体2110(L)として示される。 However, in this example, misalignment of left ZRP 2102 and right ZRP 2104 causes object 2110 to be misaligned between the left and right views at higher magnification. For the right optical path, the right ZRP 2104 is positioned −1 along the x-axis so that it is 3 pixels away from the notch of the object 2108 at low magnification. When magnified by 3X, this difference becomes 9 pixels, shown as object 2110(R). Similarly, left ZRP 2102 is located at +4 pixels along the x-axis. At 3X magnification, object 2108 moves from 2 pixels apart to 6 pixels apart, which is shown as object 2110 (L) at -2 along the x-axis.

物体2110(L)及び物体2110(R)の位置差は、より高倍率での左右のビュー間の疑似視差に対応する。左右のビューが結合されて、表示される立体画像が生成される場合、レンダラープログラム1850eが行インターリーブモードを使用するとき、物体2110の位置は各行で位置合わせずれする。位置合わせずれは立体視の生成にとって有害であり、ぼやけて見え、又はオペレータを混乱させる画像を生成する恐れがある。 The positional difference between object 2110(L) and object 2110(R) corresponds to pseudo-parallax between the left and right views at higher magnification. When the left and right views are combined to generate the displayed stereoscopic image, the position of object 2110 is misaligned with each row when renderer program 1850e uses row interleaved mode. Misalignment is detrimental to the production of stereoscopic vision and can produce images that appear blurry or confusing to the operator.

B.疑似視差の他の原因
左右の光路間のZRP位置合わせずれは疑似視差の大きな原因であるが、他の誤差原因も存在する。例えば、疑似視差は、左右の光路間の不等倍率変更から生じることがある。平行光路間の倍率差は、光学要素1402のレンズの光学特性又は特性の僅かなばらつきから生じることがある。さらに、僅かな差は、図7及び図8の左右の前部ズームレンズ726及び728のそれぞれ及び左右の後部ズームレンズ736及び738のそれぞれが独立して制御される場合、位置決めから生じることがある。
B. Other causes of pseudo parallax Although ZRP misalignment between the left and right optical paths is a major cause of pseudo parallax, other error causes also exist. For example, pseudo-parallax may result from unequal magnification changes between the left and right optical paths. Magnification differences between parallel optical paths may result from slight variations in the optical properties or properties of the lenses of optical element 1402. Furthermore, slight differences may result from positioning if left and right front zoom lenses 726 and 728, respectively, and left and right rear zoom lenses 736 and 738, respectively, of FIGS. 7 and 8 are independently controlled. .

再び図18及び図19を参照すると、倍率変更差は、左右の光路で異なるサイズの物体及び物体間の異なる間隔を生み出す。例えば、左光路がより高い倍率変更を有する場合、物体1804、1806、及び1808は、図19の右視野1950内の物体1804、1806、及び1808と比較して大きく見え、ZRP1810からより長い距離移動する。ZRP1810及び1910が位置合わせられる場合であっても、物体1804、1806、及び1808の位置差は疑似視差を生み出す。 Referring again to FIGS. 18 and 19, the magnification change difference produces objects of different sizes and different spacing between objects in the left and right optical paths. For example, if the left optical path has a higher magnification change, objects 1804, 1806, and 1808 will appear larger compared to objects 1804, 1806, and 1808 in the right field of view 1950 of FIG. do. Even if ZRPs 1810 and 1910 are aligned, the difference in position of objects 1804, 1806, and 1808 creates pseudo-parallax.

疑似視差の別の原因は、左右の光路の不等フォーカスから生じる。一般に、左右のビュー間の任意のフォーカス差は、画質の知覚される低下を生じさせ得、左ビューが優勢であるべきか、それとも右ビューが優勢であるべきかについて潜在的な混乱を生じさせ得る。フォーカス差が顕著である場合、ピントずれ(「OOF(Out-Of-Focus)」)状況を生じさせ得る。OOF状況は特に、左右のビューが同じ画像に示される立体画像で顕著である。加えて、OOF状況は容易に補正可能ではなく、その理由は、ピントずれ光路の再フォーカスにより通常、他の光路の焦点が合わなくなるためである。一般に、両光路がフォーカスされる点を特定する必要があり、これは、光路に沿って左右のレンズの位置を変更し、及び/又は標的部位700からの作業距離を調整することを含み得る。 Another source of pseudo-parallax arises from unequal focus of the left and right optical paths. In general, any focus difference between the left and right views can create a perceived reduction in image quality and create potential confusion as to whether the left or right view should predominate. obtain. If the focus difference is significant, it can create an out-of-focus (“OOF”) situation. The OOF situation is particularly noticeable in stereoscopic images where left and right views are shown in the same image. Additionally, OOF situations are not easily correctable because refocusing an out-of-focus optical path typically brings other optical paths out of focus. Generally, it is necessary to identify the point at which both optical paths are focused, which may involve changing the position of the left and right lenses along the optical path and/or adjusting the working distance from the target site 700.

図22は、OOF状況がいかに生じるかを示す図を示す。図は、知覚される分解能(例えば、フォーカス)を最適分解能セクション2202に対するレンズ位置に関連付ける。この例では、左後部ズームレンズ734は位置L1にあり、一方、右後部ズームレンズ732は位置R1にある。位置L1及びR1において、後部ズームレンズ732及び734は、左右の光路が一致したフォーカスレベルを有するような最適分解能2202の範囲内にある。しかしながら、距離ΔPに対応する、L1及びR1の位置に差がある。後に、作業距離706は、一点がピントずれするように変更される。この例では、両後部ズームレンズ732及び734は、距離ΔPが変わらないように位置L2及びR2に対して同じ距離、移動する。しかしながら、位置変化により、左後部ズームレンズ734が右後部ズームレンズ732よりも高い分解能(例えば、よりよいフォーカス)を有するように分解能は大きく変わる。分解能ΔRはOOF状況に対応し、これは、左右の光路間のフォーカス位置合わせずれから疑似視差を生じさせる。 FIG. 22 shows a diagram illustrating how an OOF situation arises. The diagram relates perceived resolution (eg, focus) to lens position relative to optimal resolution section 2202. In this example, left rear zoom lens 734 is at position L1, while right rear zoom lens 732 is at position R1. At positions L1 and R1, the rear zoom lenses 732 and 734 are within the optimal resolution 2202 such that the left and right optical paths have matched focus levels. However, there is a difference in the positions of L1 and R1, which correspond to the distance ΔP. Later, the working distance 706 is changed so that one point is out of focus. In this example, both rear zoom lenses 732 and 734 move the same distance relative to positions L2 and R2 so that the distance ΔP remains the same. However, due to the position change, the resolution changes significantly such that the left rear zoom lens 734 has higher resolution (eg, better focus) than the right rear zoom lens 732. The resolution ΔR corresponds to an OOF situation, which causes pseudo-parallax from focus misalignment between the left and right optical paths.

疑似視差の更に別の原因は、標的部位700において移動している撮像物体から生じ得る。疑似視差は、右光学画像センサ746及び左光学画像センサ748の露出間の小さな同期誤差から生じる。左右のビューが同時に記録されない場合、物体は2つのビュー間で変位又は位置合わせずれして見える。結合された立体画像は、左右のビューで2つの異なる位置に同じ物体を示す。 Yet another source of pseudo-parallax may arise from an imaging object that is moving at target region 700. Pseudo-parallax results from small synchronization errors between the exposures of the right optical image sensor 746 and the left optical image sensor 748. If the left and right views are not recorded simultaneously, the object will appear displaced or misaligned between the two views. The combined stereo image shows the same object in two different positions in left and right views.

さらに、疑似視差の別の原因は、拡大中に移動するZRP点が関わる。セクションIV(A)において上述した例では、左右のビューのZRPがx方向又はy方向で移動しないと仮定する。しかしながら、ZRPは、ズームレンズ726、728、732、及び/又は734が光路又は光軸と厳密に平行に(例えば、z方向において)移動しない場合、拡大中、シフトし得る。図11を参照して上述したように、力が作動セクション1108に印加されると、キャリア724はわずかにシフト又は回転し得る。この回転は、倍率レベルが変更される場合、左右のZRPを僅かに移動させ得る。 Furthermore, another source of pseudo-parallax involves ZRP points that move during magnification. In the example described above in Section IV(A), it is assumed that the ZRPs of the left and right views do not move in the x or y direction. However, the ZRP may shift during magnification if the zoom lenses 726, 728, 732, and/or 734 do not move strictly parallel to the optical path or axis (eg, in the z direction). As described above with reference to FIG. 11, carrier 724 may shift or rotate slightly when a force is applied to actuation section 1108. This rotation may cause the left and right ZRPs to move slightly if the magnification level is changed.

一例では、倍率変更中、キャリア730は一方向に移動し、一方、キャリア724は、倍率変更の一部では同じ方向に、フォーカス調整のための倍率変更の残りの部分では逆方向に移動する。キャリア724の移動軸が光軸からわずかにチルト又は回転する場合、左光路及び/又は右光路のZRPは、第1の部分にわたり一方向にシフトし、続けて、倍率変更の第2の部分にわたり逆方向にシフトする。加えて、力は不等に印加されるため、右前部ズームレンズ726及び左前部ズームレンズ728は、左右の光路間で様々な程度のZRPシフトを受け得る。ZRPの位置変化は一緒に、光路の位置合わせずれを生じさせ、それにより、疑似視差を生じさせる。 In one example, during a magnification change, carrier 730 moves in one direction, while carrier 724 moves in the same direction for part of the magnification change and in the opposite direction for the remainder of the magnification change for focus adjustment. If the axis of movement of the carrier 724 is tilted or rotated slightly from the optical axis, the ZRP of the left optical path and/or the right optical path will shift in one direction over the first portion and subsequently over the second portion of the magnification change. Shift in the opposite direction. Additionally, because the forces are applied unequally, the front right zoom lens 726 and the front left zoom lens 728 may experience varying degrees of ZRP shift between the left and right optical paths. Together, the ZRP position changes cause optical path misalignment, thereby creating pseudo-parallax.

C.疑似視差の低減は、立体ビューとのデジタルグラフィックス及び画像の組み込みを促進する
外科用顕微鏡がよりデジタル化されるにつれて、設計者は、グラフィックス、画像、及び/又は他のデジタル効果をライブビュー画像に重ねる特徴を追加している。例えば、ガイダンスオーバーレイ、立体磁気共鳴撮像(「MRI」)画像の融合、及び/又は外部データを、カメラにより記録された画像、さらには接眼レンズ自体内に表示される画像と組み合わせ得る。疑似視差は、下の立体画像とのオーバーレイの精度を低減する。外科医は一般に、例えば、MRIを介して視覚化された腫瘍が、多くは三次元で、融合ライブ外科立体ビュー内に可能な限り正確に配置されることを要求する。そうでなければ、術前腫瘍画像は、外科医に殆ど情報を提供せず、それにより、手術の性能を損なう。
C. Reducing pseudo-parallax facilitates the incorporation of digital graphics and images with stereoscopic views As surgical microscopes become more digital, designers are increasing the ability to incorporate graphics, images, and/or other digital effects into live view. Adds features that can be superimposed on images. For example, guidance overlays, fusion of stereoscopic magnetic resonance imaging ("MRI") images, and/or external data may be combined with images recorded by the camera and even images displayed within the eyepiece itself. Pseudo-parallax reduces the accuracy of overlay with the underlying stereo image. Surgeons typically require that tumors visualized, for example, via MRI, often in three dimensions, be positioned as precisely as possible within a fused live surgical stereoscopic view. Otherwise, preoperative tumor images provide little information to the surgeon, thereby impairing surgical performance.

例えば、外科ガイドは、左ビューとの位置合わせがずれながら、右ビュー画像と位置合わせし得る。2つのビュー間で位置合わせずれした外科ガイドは、オペレータにとって容易に明らかである。別の例では、外科ガイドは、グラフィックス処理ユニット1564が結合立体画像を作成する前、情報プロセッサモジュール1408において左右のビューと別個に位置合わせし得る。しかしながら、左右のビュー間の位置合わせずれは、ガイド間に位置合わせずれを生み出し、それにより、ガイドの有効性を下げ、顕微鏡外科処置中、混乱及び遅延を生み出す。 For example, the surgical guide may be aligned with the right view image while being misaligned with the left view. A misaligned surgical guide between the two views is readily apparent to the operator. In another example, the surgical guide may be registered with the left and right views separately in the information processor module 1408 before the graphics processing unit 1564 creates the combined stereoscopic image. However, misalignment between the left and right views creates misalignment between the guides, thereby reducing the effectiveness of the guide and creating confusion and delays during microsurgical procedures.

「IMAGING SYSTEM AND METHODS DISPLAYING A FUSED MULTIDIMENSIONAL RECONSTRUCTED IMAGE」という名称の米国特許第9,552,660号明細書(参照により本明細書に援用される)には、術前画像及び/又はグラフィックスがいかに、立体画像と視覚的に融合されるかが開示されている。図23及び図24は、履帯画像に融合される場合、疑似視差がデジタルグラフィックス及び/又は画像の精度をいかに失わせるかを示す図を示す。図24は患者の目2402の正面図を示し、図23は、図24の平面A-Aに沿った目の断面図を示す。図23では、情報プロセッサモジュール1408は、焦点面2302から、例えば、目2402の後嚢上の関心物体2304までの尾側距離dを特定するように命令される。情報プロセッサモジュール1408は、例えば、距離dが目2402の左右のビューからの画像データの三角測量計算により特定されることを指定するプログラム1560を動作させる。ビュー2306は、左光学画像センサ748の視点から示され、ビュー2308は、右光学画像センサ746の視点から示される。左ビュー2306及び右ビュー2308は、目2402の前中心2310と一致すると仮定される。加えて、左ビュー2306及び右ビュー2308は、理論上の右投影2312及び理論上の左投影2314として焦点面2302に投影される物体2304の二次元ビューである。この例では、プロセッサ1562は、三角測量ルーチンを使用して理論上の右投影2312の外挿と理論上の左投影2314の外挿との交点を計算することにより、関心物体2304への距離dを特定する。 No. 9,552,660, entitled "IMAGING SYSTEM AND METHODS DISPLAYING A FUSED MULTIDIMENSIONAL RECONSTRUCTED IMAGE," which is incorporated herein by reference, describes how is , it is disclosed how the images can be visually fused with stereoscopic images. FIGS. 23 and 24 show diagrams illustrating how pseudo-parallax can cause digital graphics and/or images to lose accuracy when fused into track images. FIG. 24 shows a front view of a patient's eye 2402, and FIG. 23 shows a cross-sectional view of the eye along plane AA of FIG. In FIG. 23, information processor module 1408 is instructed to determine a caudal distance d from focal plane 2302 to an object of interest 2304 on, for example, the posterior capsule of eye 2402. Information processor module 1408 operates program 1560 that specifies, for example, that distance d is determined by triangulating image data from the left and right views of eye 2402. View 2306 is shown from the perspective of left optical image sensor 748 and view 2308 is shown from the perspective of right optical image sensor 746. Left view 2306 and right view 2308 are assumed to coincide with the anterior center 2310 of eye 2402. Additionally, left view 2306 and right view 2308 are two-dimensional views of object 2304 projected onto focal plane 2302 as a theoretical right projection 2312 and a theoretical left projection 2314. In this example, processor 1562 calculates the distance d to object of interest 2304 by calculating the intersection of the extrapolation of theoretical right projection 2312 and the extrapolation of theoretical left projection 2314 using a triangulation routine. Identify.

しかしながら、この例では、疑似視差が存在し、疑似視差は、図23及び図24に示されるように、実際の左投影2316を距離Pだけ、理論上の左投影2314の左に配置させる。プロセッサ1562は、実際の左投影2316及び右投影2312を使用し、三角測量ルーチンを使用して右投影2312の外挿と実際の左投影2316の外挿との交点2320への距離を特定する。交点2320への距離は、距離dに誤差距離eを加えたものに等しい。それに従って疑似視差は、立体画像からとられたデータを使用して誤った距離計算を生じさせる。図23及び図24に示されるように、小さな程度の疑似視差であっても、大きな誤差を生み出し得る。融合画像の状況では、誤った距離は、立体画像と融合する腫瘍三次元視覚化の不正確な配置に繋がる。不正確な配置は、手術を遅延させ、外科医の施術を妨げ、又は視覚化システム全体を無視させ得る。更に悪いことには、外科医は、腫瘍画像の不正確な配置に頼り、顕微鏡外科処置中、ミスを犯し得る。 However, in this example, there is a pseudo-parallax that causes the actual left projection 2316 to be placed a distance P to the left of the theoretical left projection 2314, as shown in FIGS. 23 and 24. Processor 1562 uses actual left projection 2316 and right projection 2312 and uses a triangulation routine to determine the distance to intersection 2320 of the extrapolation of right projection 2312 and the extrapolation of actual left projection 2316. The distance to intersection 2320 is equal to distance d plus error distance e. Accordingly, pseudo-parallax results in incorrect distance calculations using data taken from stereoscopic images. As shown in FIGS. 23 and 24, even a small amount of pseudo parallax can produce a large error. In the context of fused images, incorrect distances lead to inaccurate placement of the three-dimensional tumor visualization that is fused with the stereo image. Inaccurate placement can delay the surgery, interfere with the surgeon's work, or cause the entire visualization system to be ignored. To make matters worse, surgeons may rely on inaccurate placement of tumor images and make mistakes during microsurgical procedures.

D.一例の立体視覚化カメラは疑似視差を低減又はなくす
図3~図16の一例の立体視覚化カメラ300は、視覚的欠陥、疑似視差、及び/又は通常、疑似視差を生じさせる位置合わせずれした光路を低減又はなくすように構成される。幾つかの例では、立体視覚化カメラ300は、左右の光路のZRPを左光学画像センサ746及び右光学画像センサ748のピクセルセット1006及び1008の各中心に位置合わせすることにより、疑似視差を低減又はなくす。追加又は代替として、立体視覚化カメラ300は、左右の画像の光路を位置合わせし得る。立体視覚化カメラ300が、較正中、疑似視差を低減する動作を実行し得ることを理解されたい。さらに、立体視覚化カメラ300は、使用中、検出された疑似視差をリアルタイムで低減し得る。
D. An example stereoscopic visualization camera reduces or eliminates pseudo-parallax The example stereoscopic visualization camera 300 of FIGS. configured to reduce or eliminate In some examples, stereoscopic visualization camera 300 reduces pseudo-parallax by aligning the ZRPs of the left and right optical paths to the respective centers of pixel sets 1006 and 1008 of left optical image sensor 746 and right optical image sensor 748. Or lose it. Additionally or alternatively, stereoscopic visualization camera 300 may align the optical paths of the left and right images. It should be appreciated that stereoscopic visualization camera 300 may perform operations to reduce pseudo-parallax during calibration. Additionally, stereoscopic visualization camera 300 may reduce detected pseudo-parallax in real time during use.

図25及び図26は、本開示の実施形態例による、疑似視差を低減又はなくす一例の手順2500を示す流れ図を示す。手順2500は図25及び図26に示される流れ図を参照して説明されるが、手順2500に関連するステップを実行する多くの他の方法を使用し得ることを理解されたい。例えば、ブロックの多くの順序は変更し得、特定のブロックは他のブロックと結合し得、記載されるブロックの多くは任意選択的である。さらに、手順2500に記載される動作は、例えば、一例の立体視覚化カメラ300の光学要素1402、画像捕捉モジュール1404、モータ・照明モジュール1406、及び/又は情報プロセッサモジュール1408を含む複数のデバイスの中で実行し得る。例えば、手順2500は、情報プロセッサモジュール1408のプログラム1560の1つにより実行し得る。 25 and 26 depict a flowchart illustrating an example procedure 2500 for reducing or eliminating pseudo-parallax, according to example embodiments of the present disclosure. Although procedure 2500 is described with reference to the flowcharts shown in FIGS. 25 and 26, it is understood that many other methods of performing the steps associated with procedure 2500 may be used. For example, the order of many of the blocks may be changed, certain blocks may be combined with other blocks, and many of the blocks described are optional. Additionally, the operations described in step 2500 may be performed within a plurality of devices including, for example, optical element 1402, image capture module 1404, motor and lighting module 1406, and/or information processor module 1408 of example stereoscopic visualization camera 300. It can be executed with For example, procedure 2500 may be performed by one of the programs 1560 of information processor module 1408.

一例の手順2500は、立体視覚化カメラ300が、左右の光路を位置合わせする命令を受信した(ブロック2502)とき、開始される。命令は、立体視覚化カメラ300が較正ルーチンを実行することをオペレータが要求することに応答して、ユーザ入力デバイス1410から受信し得る。他の例では、命令は、左右の画像が位置合わせずれしていると判断された後、情報プロセッサモジュール1408から受信し得る。情報プロセッサモジュール1408は、左右の画像を重ね、ピクセルの大きなエリアにわたる大きな差は位置合わせがずれた画像を示す、ピクセル値の差を特定するプログラム1560を実行することにより、画像が位置合わせされていないと判断し得る。幾つかの例では、プログラム1560は、オーバーレイ機能を実行せずに左右の画像のピクセルデータを比較し得、例えば、左ピクセルデータが右ピクセルデータから減算されて、位置合わせずれの深刻度を判断する。 The example methodology 2500 begins when stereoscopic visualization camera 300 receives a command to align left and right optical paths (block 2502). Instructions may be received from user input device 1410 in response to an operator requesting that stereoscopic visualization camera 300 perform a calibration routine. In other examples, the instructions may be received from the information processor module 1408 after the left and right images are determined to be misaligned. The information processor module 1408 determines whether the images are aligned by running a program 1560 that overlays the left and right images and identifies differences in pixel values where large differences over large areas of pixels indicate misaligned images. It can be concluded that there is no such thing. In some examples, program 1560 may compare pixel data of left and right images without performing an overlay function, for example, left pixel data may be subtracted from right pixel data to determine the severity of misalignment. do.

疑似視差を低減する命令を受信した後、一例の立体視覚化カメラ300は、左光路又は右光路の一方のZRPを見つける。例示を目的として、手順2500は、左光路のZRPをまず特定することを含む。しかしながら、他の実施形態では、手順2500は、右光路のZRPをまず特定し得る。左ZRPを特定するために、立体視覚化カメラ300は、少なくとも1枚のズームレンズ(例えば、左前部ズームレンズ728及び/又は左後部ズームレンズ734)を左光路のz軸に沿って第1の倍率レベルに移動させる(ブロック2504)。前部ズームレンズ726及び728が同じキャリア724に接続され、後部ズームレンズ732及び734が同じキャリア730に接続される場合、左レンズの移動は、右レンズも移動させる。しかしながら、手順2500のこのセクション中、左レンズのみの移動が考慮される。 After receiving the instruction to reduce pseudo-parallax, the example stereoscopic visualization camera 300 finds a ZRP in one of the left optical path or the right optical path. For purposes of illustration, procedure 2500 includes first identifying the ZRP of the left optical path. However, in other embodiments, procedure 2500 may first identify the ZRP of the right optical path. To identify the left ZRP, stereoscopic visualization camera 300 moves at least one zoom lens (e.g., left front zoom lens 728 and/or left rear zoom lens 734) to a first position along the z-axis of the left optical path. Move to magnification level (block 2504). If front zoom lenses 726 and 728 are connected to the same carrier 724 and rear zoom lenses 732 and 734 are connected to the same carrier 730, movement of the left lens also moves the right lens. However, during this section of procedure 2500, movement of only the left lens is considered.

第1の倍率レベルにおいて、立体視覚化カメラ300は、左ズームレンズをz方向に沿って移動させる(ブロック2506)。移動は、例えば、第1の倍率レベル周囲での前後運動を含み得る。例えば、第1の倍率レベルが5Xである場合、移動は4X~6Xであり得る。移動は、5Xから4X等の一方向での移動を含むこともできる。この移動中、立体視覚化カメラ300は、1枚又は複数枚の他のレンズを調整して、標的部位700のフォーカスを維持し得る。ブロック2508において、左ズームレンズの移動中、立体視覚化カメラ300は、例えば、左光学画像センサ748を使用して、標的部位700の画像及び/又はフレーム2509のストリーム又はシーケンスを記録する。画像2509は、ピクセルグリッド1004の原点及び左ZRPの潜在的な位置を含むように較正されたオーバーサイズピクセルセット1008を使用して記録される。 At the first magnification level, the stereoscopic visualization camera 300 moves the left zoom lens along the z direction (block 2506). The movement may include, for example, back and forth movement around the first magnification level. For example, if the first magnification level is 5X, the movement may be 4X to 6X. Movement can also include movement in one direction, such as from 5X to 4X. During this movement, stereoscopic visualization camera 300 may adjust one or more other lenses to maintain focus on target region 700. At block 2508, during movement of the left zoom lens, stereoscopic visualization camera 300 records a stream or sequence of images and/or frames 2509 of target region 700 using, for example, left optical image sensor 748. Image 2509 is recorded using an oversized pixel set 1008 that is calibrated to include the origin of pixel grid 1004 and the potential location of the left ZRP.

情報プロセッサモジュール1408の一例のプロセッサ1562は、画像ストリームを分析して、画像間でx方向又はy方向において移動しないエリアの部分を見つける(ブロック2510)。エリアの部分は、1つ又は少数のピクセルを含み得、左ZRPに対応する。上述したように、倍率変更中、物体はZRPから離れて移動し、又はZRPに向かって移動する。ZRPにおける物体のみが、倍率が変更された場合、視野に関して一定位置に留まる。プロセッサ1562は、ピクセルデータを使用して各ピクセルについて画像ストリーム間のデルタを計算し得る。画像ストリームにわたり最小のデルタを有するエリアは、左ZRPに対応する。 A processor 1562 of the example information processor module 1408 analyzes the image stream to find portions of the area that do not move in the x or y direction between images (block 2510). The portion of the area may include one or a few pixels and corresponds to the left ZRP. As mentioned above, during a magnification change, the object moves away from or towards the ZRP. Only objects in the ZRP remain in a constant position with respect to the field of view when the magnification is changed. Processor 1562 may calculate a delta between image streams for each pixel using the pixel data. The area with the smallest delta across the image stream corresponds to the left ZRP.

情報プロセッサモジュール1408の一例のプロセッサ1562は次に、ピクセルグリッド1004に関して画像ストリーム間で移動しないエリアの部分の座標を特定する(例えば、左ZRPの位置を特定する)(ブロック2512)。他の例では、情報プロセッサモジュール1408のプロセッサ1562は、原点と左ZRPに対応するエリアの部分との間の距離を特定する。距離は、ピクセルグリッド1004上の左ZRPの位置を特定するのに使用される。左ZRPの位置が特定されると、情報プロセッサモジュール1408のプロセッサ1562は、左ZRPがピクセルセットの中心(1ピクセル以内)に配置されるような左光学画像センサ748のピクセルセット(例えば、ピクセルセット1008)を特定する(ブロック2514)。この時点で、左ZRPは左光路内でセンタリングされる。 The example processor 1562 of the information processor module 1408 then determines the coordinates of a portion of the area that does not move between image streams with respect to the pixel grid 1004 (eg, locates the left ZRP) (block 2512). In another example, processor 1562 of information processor module 1408 determines the distance between the origin and the portion of the area that corresponds to the left ZRP. The distance is used to locate the left ZRP on the pixel grid 1004. Once the left ZRP is located, the processor 1562 of the information processor module 1408 locates the pixel set (e.g., pixel set 1008) (block 2514). At this point, the left ZRP is centered within the left optical path.

幾つかの例では、ブロック2504~2514は、左ZRPが原点のピクセル内にあり、疑似視差が最小になるまで、ピクセルセットを再選択することにより繰り返し実行し得る。ピクセルグリッドが特定された後、情報プロセッサモジュール1408のプロセッサ1562は、較正点として、ピクセルセットの座標及び/又は左ZRPの座標の少なくとも一方をメモリ1570に記憶する(ブロック2516)。情報プロセッサモジュール1408のプロセッサ1562は、立体視覚化カメラ300が第1の倍率レベルに戻る場合、同じピクセルセットが選択されるように第1の倍率レベルに較正点を関連付け得る。 In some examples, blocks 2504-2514 may be performed iteratively by reselecting the pixel set until the left ZRP is within the origin pixel and pseudo-parallax is minimized. After the pixel grid is identified, processor 1562 of information processor module 1408 stores at least one of the pixel set coordinates and/or left ZRP coordinates in memory 1570 as a calibration point (block 2516). Processor 1562 of information processor module 1408 may associate the calibration point with the first magnification level such that the same pixel set is selected when stereoscopic visualization camera 300 returns to the first magnification level.

図27は、左ZRPが、左光学画像センサ748のピクセルグリッドに関していかに調整されるかを示す図を示す。まず、原点2704にセンタリングされた初期(例えば、オーバーサイズ)ピクセルセット2702が選択される。ピクセルセット2702は、潜在的なZRPを画像ストリームに記録するのに十分に大きい。この図示の例では、左ZRP2706は、原点2704の右上に配置される。情報プロセッサモジュール1408のプロセッサ1562は、左ZRP2706の位置に基づいて、左ZRP2706がピクセルセット2708の中心に配置又は位置するようなピクセルセット2708を特定する。 FIG. 27 shows a diagram illustrating how the left ZRP is adjusted with respect to the pixel grid of the left optical image sensor 748. First, an initial (eg, oversized) pixel set 2702 centered at the origin 2704 is selected. Pixel set 2702 is large enough to record potential ZRPs in the image stream. In this illustrated example, left ZRP 2706 is located to the upper right of origin 2704. Based on the position of left ZRP 2706, processor 1562 of information processor module 1408 identifies a pixel set 2708 such that left ZRP 2706 is centered or located in pixel set 2708.

図25において左ZRPが特定され、ピクセルセットの原点と位置合わせされた後、一例の手順2500は、図26において左右の画像を位置合わせする。画像を位置合わせするために、一例のプロセッサ1562は、左ZRPが原点と位置合わせされた後に記録された左右の画像からのピクセルデータを比較する。幾つかの実施形態では、プロセッサ1562は、左右の画像を重ねて、例えば、減算法及び/又はテンプレート法を使用して差を特定する。プロセッサ1562は、結果として生成される右画像が左画像と位置合わせされるか、又は一致するような、右光路のピクセルセットを選択又は特定する(ブロック2519)。 After the left ZRP is identified and aligned with the origin of the pixel set in FIG. 25, the example procedure 2500 aligns the left and right images in FIG. To register the images, the example processor 1562 compares pixel data from the left and right images recorded after the left ZRP is registered with the origin. In some embodiments, processor 1562 overlays the left and right images and identifies differences using, for example, subtraction and/or template methods. Processor 1562 selects or identifies a set of pixels in the right optical path such that the resulting right image is aligned or coincident with the left image (block 2519).

一例のプロセッサ1562は、図示の実施形態では、右ZRPを特定する。ステップは、左ZRPについてブロック2504~2512において考察したステップと同様である。例えば、ブロック2518において、立体視覚化カメラ300は、右ズームレンズを第1の倍率レベルに移動させる。幾つかの実施形態では、右レンズの倍率レベルは、左ZRPの特定に使用された倍率レベルと異なる。次に、情報プロセッサモジュール1408の一例のプロセッサ1562は、右ズームレンズを倍率レベル前後に移動させ、移動中、右光学画像センサ746から画像2521のストリームを受信する(ブロック2520及び2522)。情報プロセッサモジュール1408の一例のプロセッサ1562は、画像間で移動しないエリアの部分を見つけることにより、画像の右ストリームから右ZRPを特定する(ブロック2524)。プロセッサ1562は次に、右ZRPの座標及び/又は位置合わせされたピクセルセット1006の中心と右ZRPとの間の距離を特定する(ブロック2526)。 The example processor 1562 identifies the right ZRP in the illustrated embodiment. The steps are similar to those discussed in blocks 2504-2512 for the left ZRP. For example, at block 2518, the stereoscopic visualization camera 300 moves the right zoom lens to a first magnification level. In some embodiments, the magnification level of the right lens is different than the magnification level used to identify the left ZRP. The example processor 1562 of the information processor module 1408 then moves the right zoom lens back and forth through the magnification level and receives a stream of images 2521 from the right optical image sensor 746 during the movement (blocks 2520 and 2522). The example processor 1562 of the information processor module 1408 identifies the right ZRP from the right stream of images by finding portions of the area that do not move between images (block 2524). Processor 1562 then determines the coordinates of the right ZRP and/or the distance between the center of aligned pixel set 1006 and the right ZRP (block 2526).

次に、プロセッサ1562は、例えば、右ZRPの距離又は座標を使用して、x方向、y方向、及び/又はチルト方向の少なくとも1つにおいて右光路内で少なくとも1枚のレンズを移動させて、右ZRPを位置合わせされたピクセルセット1006の中心と位置合わせするように、モータ・照明モジュール1406に命令する(ブロック2528)。換言すれば、右ZRPは、位置合わせされたピクセルセット1006の中心と一致するように移動する。幾つかの例では、右前部レンズ720、右レンズバレル736、右最終光学要素745、及び/又は右画像センサ746は、右光路のz方向に関してx方向、y方向、及び/又はチルト方向に移動する(例えば、屈曲部を使用して)。移動の程度は、ピクセルセット1006の中心からの右ZRPの距離に比例する。幾つかの実施形態では、プロセッサ1562は、レンズ移動と同じ効果を有するように、右前部レンズ720、右レンズバレル736、及び/又は右最終光学要素745の属性をデジタルに変更する。プロセッサ1562はステップ2520~2528を繰り返し、及び/又は続く右画像を使用して、右ZRPがピクセルセット1006の中心と位置合わせされることを確認し、及び/又はピクセルセットの中心と右ZRPを位置合わせするのに必要な更なるレンズ移動を繰り返し決定し得る。 The processor 1562 then moves the at least one lens in the right optical path in at least one of the x direction, y direction, and/or tilt direction using, for example, the right ZRP distance or coordinates; The motor and illumination module 1406 is commanded to align the right ZRP with the center of the aligned pixel set 1006 (block 2528). In other words, the right ZRP moves to coincide with the center of the aligned pixel set 1006. In some examples, the right front lens 720, the right lens barrel 736, the right final optical element 745, and/or the right image sensor 746 move in the x direction, the y direction, and/or the tilt direction with respect to the z direction of the right optical path. (e.g. using a bend). The degree of movement is proportional to the distance of the right ZRP from the center of pixel set 1006. In some embodiments, processor 1562 digitally changes attributes of right front lens 720, right lens barrel 736, and/or right final optical element 745 to have the same effect as lens movement. Processor 1562 repeats steps 2520-2528 and/or uses subsequent right images to verify that the right ZRP is aligned with the center of pixel set 1006 and/or aligns the right ZRP with the center of the pixel set. Additional lens movements needed to align may be iteratively determined.

一例のプロセッサ1562は、較正点として、右ピクセルセット及び/又は右ZRPの座標をメモリ1570に記憶する(ブロック2530)。プロセッサ1562は、右ZRPを位置合わせするために移動した右レンズの位置を較正点に記憶することもできる。幾つかの例では、右光路の較正点は、第1の倍率レベルと併せて左光路の較正点と共に記憶される。したがって、立体視覚化カメラ300が続けて第1の倍率レベルに設定される場合、プロセッサ1562は、較正点内のデータを光学画像センサ746及び748及び/又は1つ又は複数の光学要素1402の半径方向位置決めに適用する。 The example processor 1562 stores the coordinates of the right pixel set and/or right ZRP in memory 1570 as a calibration point (block 2530). Processor 1562 may also store the position of the right lens moved to align the right ZRP at a calibration point. In some examples, the right optical path calibration point is stored along with the left optical path calibration point in conjunction with the first magnification level. Accordingly, when the stereoscopic visualization camera 300 is subsequently set to the first magnification level, the processor 1562 converts the data within the calibration points to the radius of the optical image sensors 746 and 748 and/or the one or more optical elements 1402. Applies to directional positioning.

幾つかの例では、手順2500は、異なる倍率レベル及び/又は作業距離で繰り返し得る。したがって、プロセッサ1562は、別の倍率レベル又は作業距離でZRP較正が必要であるか否かを判断する(ブロック2532)。別の倍率レベルを選択すべき場合、手順2500は図25におけるブロック2504に戻る。しかしながら、別の倍率レベルが必要ない場合、一例の手順は終了する。 In some examples, procedure 2500 may be repeated at different magnification levels and/or working distances. Therefore, processor 1562 determines whether ZRP calibration is required at another magnification level or working distance (block 2532). If another magnification level is to be selected, procedure 2500 returns to block 2504 in FIG. However, if another magnification level is not needed, the example procedure ends.

各較正点はルックアップテーブルに記憶し得る。テーブル内の各行は、異なる倍率レベル及び/又は作業距離に対応し得る。ルックアップテーブル内の列は、左ZRP、右ZRP、左ピクセルセット、及び/又は右ピクセルセットの座標を提供し得る。加えて、1つ又は複数の列は、位置合わせされた左右の画像に加えて、倍率レベルにおいてフォーカスを達成するための光学要素1402のレンズの関連位置(例えば、半径方向位置、回転方向位置、チルト位置、及び/又は軸方向位置)を指定し得る。 Each calibration point may be stored in a lookup table. Each row in the table may correspond to a different magnification level and/or working distance. Columns in the lookup table may provide coordinates for the left ZRP, right ZRP, left pixel set, and/or right pixel set. In addition, one or more columns may be used to determine the relative position of the lens of optical element 1402 (e.g., radial position, rotational position, tilt position and/or axial position).

それに従って手順2500は、各光学画像センサ746及び748のピクセルグリッド並びに三次元立体画像において互いに位置合わせすべき標的部位のビューに加えて、右ZRP及び左ZRPを生成する。幾つかの場合、左右の画像及び対応するZRPは、1ピクセル以内の精度及び位置合わせを有する。そのような精度は、左右のビュー(例えば、左右の光路からの画像)を重ね、立体的にではなく両目で両ビューを観測することによりディスプレイ514又は514で観測可能であり得る。 Accordingly, the procedure 2500 generates a right ZRP and a left ZRP in addition to the pixel grid of each optical image sensor 746 and 748 and the views of the target region to be aligned with each other in the three-dimensional stereo image. In some cases, the left and right images and the corresponding ZRP have accuracy and registration within one pixel. Such accuracy may be observable on the display 514 or 514 by overlapping the left and right views (eg, images from the left and right optical paths) and observing both views with both eyes rather than stereoscopically.

幾つかの例では、右ZRPがピクセルセットの原点と位置合わせされ、又は一致するような右ピクセルセットがまず選択されることを理解されたい。次に、左右の光学画像は、光学要素1402の1枚又は複数枚の右レンズ及び/又は左レンズを移動させることにより位置合わせし得る。代替の手順はなお、互いの間で及び光学画像センサ746及び748に関してセンタリングされ位置合わせされた右ZRP及び左ZRPを提供する。 It should be appreciated that in some examples, the right pixel set is first selected such that the right ZRP is aligned or coincident with the origin of the pixel set. The left and right optical images may then be aligned by moving one or more right and/or left lenses of optical element 1402. An alternative procedure still provides right and left ZRPs that are centered and aligned with each other and with respect to optical image sensors 746 and 748.

手順2500は最終的に、左右のZRPが位置合わせされたままであり、左右の画像が位置合わせされたままであることを保証することにより、全光学倍率範囲を通して立体視覚化カメラ300における疑似視差を低減又はなくす。換言すれば、左右の光学画像センサ746及び748の二重光学系は、左右の光路間の画像の中心における視差が焦点面において概ねゼロであるように位置合わせされる。さらに、各光路のZRPは各ピクセルセットの中心に割り当てられているため、一例の立体視覚化カメラ300は、倍率範囲にわたり同焦点であり、倍率及び作業距離範囲にわたり同中心である。したがって、倍率のみを変更することで、同じ中心点に合わせながら、両光学画像センサ746及び748において標的部位700のフォーカスを維持する。 The procedure 2500 ultimately reduces pseudo-parallax in the stereoscopic visualization camera 300 throughout the entire optical magnification range by ensuring that the left and right ZRPs remain aligned and the left and right images remain aligned. Or lose it. In other words, the dual optics of left and right optical image sensors 746 and 748 are aligned such that the parallax at the center of the image between the left and right optical paths is approximately zero at the focal plane. Furthermore, because the ZRP of each optical path is assigned to the center of each pixel set, the example stereoscopic visualization camera 300 is parfocal over a range of magnifications and concentric over a range of magnifications and working distances. Therefore, only changing the magnification maintains focus of the target region 700 on both optical image sensors 746 and 748 while aligning to the same center point.

上記手順2500は、外科処置が実行される前及び/又はオペレータにより要求されると、較正において実行し得る。一例の手順2500はまた、術前顕微鏡外科画像及び/又は外科ガイダンスグラフィックスとの画像見当合わせ前、実行することもできる。さらに、一例の手順2500は、立体視覚化カメラ300の動作中、リアルタイムで自動的に実行し得る。 The above procedure 2500 may be performed in calibration before a surgical procedure is performed and/or as requested by an operator. The example procedure 2500 may also be performed prior to image registration with preoperative microsurgical images and/or surgical guidance graphics. Further, the example procedure 2500 may be performed automatically in real time during operation of the stereoscopic visualization camera 300.

1.一例のテンプレートマッチング
幾つかの実施形態では、情報プロセッサモジュール1408の一例のプロセッサ1562は、1つ又は複数のテンプレートと併せてプログラム1560を使用して、右ZRP及び/又は左ZRPの位置を特定するように構成される。図28は、プロセッサ1562が標的テンプレート2802をいかに使用して、左ZRPの位置を特定するかを示す図を示す。この例では、図28は、原点2804又は左画像センサ748の左ピクセルグリッド1004の中心と位置合わせされたテンプレート2802を含む第1の左画像を示す。テンプレート2802は、立体視覚化カメラ300を適切な位置に移動させることにより位置合わせし得る。代替的には、テンプレート2802は、位置合わせされるまで標的部位700において移動し得る。他の例では、テンプレート2802は、ピクセルグリッド1004の中心との位置合わせが必要ない別のパターンを含み得る。例えば、テンプレートは、グラフィカル波形パターン、グラフィカル呼吸計パターン、患者の術部のビュー、及び/又はx方向及びy方向の両方で幾らかの程度の非周期性を有する視覚的に区別可能な特徴を有するグリッドを含み得る。テンプレートは、周期性がある画像のサブセットが、複数の位置においてより大きな画像に完全に位置合わせされないようにするよう構成され、周期性がある画像のサブセットが、複数の位置においてより大きな画像に完全に位置合わせされることは、そのようなテンプレートをマッチングに不適なものにする。テンプレートマッチングに適するテンプレート画像は、「テンプレートマッチング可能」テンプレート画像として知られる。
1. Example Template Matching In some embodiments, the example processor 1562 of the information processor module 1408 uses the program 1560 in conjunction with one or more templates to locate the right ZRP and/or the left ZRP. It is configured as follows. FIG. 28 shows a diagram illustrating how processor 1562 uses target template 2802 to locate the left ZRP. In this example, FIG. 28 shows a first left image that includes a template 2802 aligned with the origin 2804 or the center of the left pixel grid 1004 of the left image sensor 748. Template 2802 may be aligned by moving stereoscopic visualization camera 300 to the appropriate position. Alternatively, template 2802 may be moved at target site 700 until registered. In other examples, template 2802 may include another pattern that does not require alignment with the center of pixel grid 1004. For example, the template may include a graphical waveform pattern, a graphical respirator pattern, a view of a patient's surgical site, and/or visually distinguishable features that have some degree of aperiodicity in both the x and y directions. may include a grid with a The template is configured to prevent a periodic subset of images from being perfectly aligned to a larger image at multiple locations, and to ensure that a periodic subset of images is not perfectly aligned to a larger image at multiple locations. alignment makes such templates unsuitable for matching. Template images suitable for template matching are known as "template matchable" template images.

図28に示されるテンプレート2802は、第1の倍率レベルで撮像される。左ZRP2806はテンプレート2802に関して示される。ZRP2806は、原点2804に関してL、Lの座標を有する。しかしながら、この時点で、プロセッサ1562はまだ左ZRP2806を識別していない。 The template 2802 shown in FIG. 28 is imaged at a first magnification level. Left ZRP 2806 is shown with respect to template 2802. ZRP 2806 has coordinates L x , L y with respect to origin 2804 . However, at this point, processor 1562 has not yet identified left ZRP 2806.

ZRP2806を見つけるために、プロセッサ1562は、左ズームレンズ(例えば、左前部ズームレンズ728及び/又は左後部ズームレンズ734)に倍率を第1の倍率レベルから第2の倍率レベルに、特にこの例では、1Xから2Xに変更させる。図29は、倍率レベルが2倍になったピクセルグリッド1004上の標的2802を含む第2の左画像の図を示す。第1の倍率レベルから第2の倍率レベルに、標的2802の部分はサイズを増大させ、左ZRP2806から離れて均一に拡大し、左ZRP2806は第1及び第2の画像に関して静止したままである。加えて、ピクセルグリッド1004の原点2804と左ZRP2806との間の距離は同じままである。 To find ZRP 2806, processor 1562 magnifies the left zoom lenses (e.g., left front zoom lens 728 and/or left rear zoom lens 734) from a first magnification level to a second magnification level, particularly in this example. , change from 1X to 2X. FIG. 29 shows a view of the second left image containing target 2802 on pixel grid 1004 with the magnification level doubled. From the first magnification level to the second magnification level, a portion of the target 2802 increases in size and expands uniformly away from the left ZRP 2806, which remains stationary with respect to the first and second images. Additionally, the distance between the origin 2804 of pixel grid 1004 and left ZRP 2806 remains the same.

一例のプロセッサ1562は、図29に示される第2の画像からデジタルテンプレート画像3000を同期する。デジタルテンプレート画像を作成するために、プロセッサ1562は、図29に示される第2の画像をコピーし、第1の倍率から第2の倍率への倍率変更の往復により、コピー画像をスケーリングする。例えば、第1の画像から第2の画像への倍率変更が、2倍であった場合、第2の画像は1/2にスケーリングされる。図30は、テンプレート2802を含むデジタルテンプレート画像3000の図を示す。図30のデジタルテンプレート画像3000におけるテンプレート2802は、図28に示される第1の左画像におけるテンプレート2802と同じサイズにスケーリングされる。 The example processor 1562 synchronizes the digital template image 3000 from the second image shown in FIG. To create the digital template image, processor 1562 copies the second image shown in FIG. 29 and scales the copied image by scaling back and forth from a first magnification to a second magnification. For example, if the magnification change from the first image to the second image is 2x, the second image is scaled by 1/2. FIG. 30 shows an illustration of a digital template image 3000 that includes template 2802. Template 2802 in digital template image 3000 of FIG. 30 is scaled to the same size as template 2802 in the first left image shown in FIG.

一例のプロセッサ1562は、デジタルテンプレート画像3000を使用して、左ZRP2806を見つける。図31は、ピクセルグリッド1004に記録された第1の左画像(又は第1の倍率レベルで記録された続く左画像)の上に重ねられたデジタルテンプレート画像3000を示す図を示す。第1の左画像とのデジタルテンプレート画像3000の組み合わせは、図31に示されるように、結果ビューを生成する。まず、デジタルテンプレート画像3000はピクセルグリッド1004の原点2804にセンタリングされる。 The example processor 1562 uses the digital template image 3000 to find the left ZRP 2806. FIG. 31 shows a diagram showing a digital template image 3000 superimposed on a first left image (or a subsequent left image recorded at a first magnification level) recorded in a pixel grid 1004. Combining the digital template image 3000 with the first left image produces a resulting view, as shown in FIG. 31. First, the digital template image 3000 is centered at the origin 2804 of the pixel grid 1004.

一例のプロセッサ1562は、デジタルテンプレート画像3000を下のテンプレート2802と比較して、位置合わせされたか、又は一致したか否かを判断する。次に、一例のプロセッサ1562は、デジタルテンプレート画像3000を1つ又は複数のピクセル分、水平又は垂直に移動させ、別の比較を実行する。プロセッサ1562はデジタルテンプレート画像3000を繰り返し移動させ、デジタルテンプレート画像3000が下のテンプレート2802にいかに密に一致するかに関する各位置でのメトリックのマトリックスを編纂する。プロセッサ1562は、最良に一致するメトリックに対応するマトリックス内の位置を選択する。幾つかの例では、プロセッサ1562はOpenCV(登録商標)Template Match機能を使用する。 The example processor 1562 compares the digital template image 3000 to the underlying template 2802 to determine whether it is aligned or matched. The example processor 1562 then moves the digital template image 3000 horizontally or vertically by one or more pixels and performs another comparison. Processor 1562 iteratively moves digital template image 3000 and compiles a matrix of metrics at each location regarding how closely digital template image 3000 matches underlying template 2802. Processor 1562 selects the position within the matrix that corresponds to the best matching metric. In some examples, processor 1562 uses the OpenCV® Template Match function.

図32は、テンプレート2802と位置合わせされたデジタルテンプレート画像3000を有する図を示す。最適なマッチングを達成するためにデジタルテンプレート画像3000が移動した距離は、Δx及びΔyとして示される。デジタルテンプレート画像3000がM1/M2(第1の倍率レベルを第2の倍率レベルで除算したもの)のスケールで合成されたことを知り、プロセッサ1562は、以下の式(1)及び(2)を使用して左ZRP2806の座標(L,L)を特定する。
Lx=Δx/(M1/M2)-式(1)
Ly=Δy/(M1/M2)-式(2)
FIG. 32 shows a diagram with a digital template image 3000 aligned with template 2802. The distance that digital template image 3000 has moved to achieve optimal matching is indicated as Δx and Δy. Knowing that the digital template image 3000 was synthesized at a scale of M1/M2 (the first magnification level divided by the second magnification level), the processor 1562 calculates the following equations (1) and (2). to identify the coordinates (L x ,L y ) of the left ZRP 2806.
Lx=Δx/(M1/M2) - Formula (1)
Ly=Δy/(M1/M2)-Formula (2)

左ZRP2806の座標(L,L)が特定された後、一例のプロセッサ1562は、図25及び図26の手順2500と併せて上述したように、左ZRP2806と位置合わせ又は一致する原点を有するピクセルサブセットを選択又は特定する。幾つかの実施形態では、プロセッサ1562は、テンプレートマッチングを繰り返し使用して、より高精度のZRP位置及び/又はピクセルサブセットに収束し得る。さらに、上記例は左ZRPの発見について考察したが、同じテンプレートマッチング手順を使用して、右ZRPを見つけることができる。 After the coordinates (L x ,L y ) of the left ZRP 2806 are determined, the example processor 1562 has the origin aligned or coincident with the left ZRP 2806, as described above in conjunction with procedure 2500 of FIGS. 25 and 26. Select or identify a pixel subset. In some embodiments, processor 1562 may iteratively use template matching to converge on a more accurate ZRP location and/or pixel subset. Furthermore, although the above example considered finding the left ZRP, the same template matching procedure can be used to find the right ZRP.

幾つかの実施形態では、上記テンプレートマッチングプログラム1560は、左右の画像の位置合わせに使用し得る。これらの実施形態では、左右の画像は、倍率レベルで記録される。両画像は、例えば、図28の標的テンプレート2802を含み得る。右画像の一部は選択され、左画像に重ねられる。次に、右画像の部分は、1つ又は複数のピクセル分、水平及び/又は垂直に左画像の前後でシフトされる。一例のプロセッサ1562は、右画像の部分の各位置において比較を実行して、左画像とどの程度密な一致があるかを判断する。最適位置が特定されると、右画像が一般に左画像と一致するような、右ピクセルグリッド1002のピクセルセット1006が特定される。左画像と一致するように、ピクセルセット1006の位置は、右画像の部分をどれくらい移動したかに基づいて特定し得る。特に、プロセッサ1562は、x方向、y方向、及び/又はチルト方向における移動量を使用して、右ピクセルセット1006の対応する座標を特定する。 In some embodiments, the template matching program 1560 may be used to align left and right images. In these embodiments, left and right images are recorded at the magnification level. Both images may include target template 2802 of FIG. 28, for example. A portion of the right image is selected and superimposed on the left image. Portions of the right image are then shifted horizontally and/or vertically in front of and behind the left image by one or more pixels. The example processor 1562 performs a comparison at each location of the portion of the right image to determine how closely there is a match with the left image. Once the optimal location is identified, a set of pixels 1006 of the right pixel grid 1002 is identified such that the right image generally matches the left image. The position of pixel set 1006 may be determined based on how much the portion of the right image is moved to match the left image. In particular, processor 1562 uses the amount of movement in the x, y, and/or tilt directions to identify corresponding coordinates of right pixel set 1006.

2.一例の左右画像の位置合わせ
幾つかの実施形態では、図14~図16の情報プロセッサモジュール1408の一例のプロセッサ1562は、ディスプレイモニタ512及び/又は514に左右の画像のオーバーレイを表示する。プロセッサ1562は、左右の画像を位置合わせするためにユーザフィードバックを受信するように構成される。この例では、左右の画像の各ピクセルデータは、例えば、グラフィックス処理ユニット1564を使用してディスプレイモニタ512の各ピクセルに精密にマッピングされる。重ねられた左右の画像の表示により、いかなる疑似視差もオペレータに容易に明らかになる。一般に、疑似視差がない場合、左右の画像は略厳密に位置合わせされるべきである。
2. Exemplary Left and Right Image Alignment In some embodiments, the example processor 1562 of the information processor module 1408 of FIGS. 14-16 displays an overlay of left and right images on the display monitors 512 and/or 514. Processor 1562 is configured to receive user feedback to align the left and right images. In this example, each pixel data of the left and right images is precisely mapped to each pixel of display monitor 512 using, for example, graphics processing unit 1564. The display of the superimposed left and right images makes any spurious parallax easily apparent to the operator. In general, in the absence of pseudo-parallax, the left and right images should be approximately exactly aligned.

オペレータは、疑似視差を検出する場合、制御機構305又はユーザ入力デバイス1410を作動させて、左右の画像のいずれかを移動させ、左右の画像の他方と位置合わせし得る。制御機構305からの命令は、後続画像がオペレータ入力を反映してディスプレイモニタ512に表示されるように、プロセッサ1562に、左右のピクセルセットの位置をリアルタイムでそれに従って調整させ得る。他の例では、命令は、プロセッサ1562に、半径方向調整、回転方向調整、軸方向調整、又はチルトを介して光学要素1402の1つ又は複数の位置を変更させ得る。オペレータは、左右の画像が位置合わせされるまで、制御機構305及び/又はユーザ入力デバイス1410を介して入力を提供し続ける。確認命令を受信すると、プロセッサ1562は、設定された倍率レベルでの画像位置合わせを反映した較正点をルックアップテーブルに記憶する。 If the operator detects pseudo-parallax, the operator may actuate control mechanism 305 or user input device 1410 to move either the left or right image into alignment with the other of the left or right images. Instructions from control mechanism 305 may cause processor 1562 to adjust the positions of the left and right pixel sets accordingly in real time so that subsequent images are displayed on display monitor 512 to reflect operator input. In other examples, the instructions may cause processor 1562 to change one or more positions of optical element 1402 via radial adjustment, rotational adjustment, axial adjustment, or tilt. The operator continues to provide input via control mechanism 305 and/or user input device 1410 until the left and right images are aligned. Upon receiving the confirmation command, processor 1562 stores calibration points in a lookup table that reflect image alignment at the set magnification level.

追加又は代替として、上述したテンプレートマッチング法を使用して、立体視覚化カメラ300の立体光軸に概ね直交する平坦標的にフォーカスしながら、画像位置合わせを提供し得る。さらに、テンプレートマッチング法を使用して、「テンプレートマッチング可能」なシーンが左右の光路のビューにある場合は常に、左右のビューをリアルタイムで位置合わせし得る。一例では、テンプレート画像は、例えば、左ビューのサブセットからコピーされ、ビューの中心又はその近傍にセンタリングされる。ピントが合った画像の中心からのサンプリングにより、標的部位700の同様のビューが他方のビュー(この例では右ビュー)に提示されることが保証される。ピンボケ画像の場合、本実施形態での、オートフォーカス動作の成功後のみ、この位置合わせ方法が実行されるようなことは当てはまらない。次に、選択されたテンプレートは他のビュー(この例では右ビュー)の現在ビュー(又はそのコピー)においてマッチングされ、y軸のみが結果からとられる。ビューが垂直に位置合わせされると、テンプレートマッチのy値はゼロピクセル又はその近傍にある。非ゼロy値は、2つのビュー間の垂直位置合わせずれを示し、同じ値のyを使用した補正が適用されて、第1のビューのピクセル読み出しセットを選択するか、又は負の値のyを使用した補正が他のビューのピクセル読み出しセットに適用される。代替的には、補正は、視覚化パイプラインの他の部分に適用することができ、又はピクセル読み出しセットと上記パイプラインとの間で分割することができる。 Additionally or alternatively, the template matching method described above may be used to provide image alignment while focusing on a flat target generally orthogonal to the stereoscopic optical axis of the stereoscopic visualization camera 300. Additionally, template matching methods may be used to align the left and right views in real time whenever a "template matchable" scene is in view of the left and right optical paths. In one example, the template image is copied from, for example, a subset of the left view and centered at or near the center of the view. Sampling from the center of the focused image ensures that a similar view of the target region 700 is presented in the other view (the right view in this example). In the case of an out-of-focus image, it is not the case in this embodiment that this alignment method is performed only after a successful autofocus operation. The selected template is then matched in the current view (or a copy thereof) of the other view (the right view in this example), and only the y-axis is taken from the result. When the view is vertically aligned, the y value of the template match is at or near zero pixels. A non-zero y value indicates a vertical misalignment between the two views, and a correction using the same value of y is applied to select the pixel readout set of the first view, or a negative value of y The correction using is applied to the pixel readout set of the other view. Alternatively, corrections can be applied to other parts of the visualization pipeline, or can be split between the pixel readout set and the pipeline.

幾つかの例では、オペレータは、右ZRPをピクセルグリッド1002の原点と手動で位置合わせすることもできる。例えば、右ZRPの位置を特定した後、プロセッサ1562(及び/又は周辺入力ユニットインターフェース1574又はグラフィックス処理ユニット1564)は、右ZRPをディスプレイモニタ512により表示される右画像においてグラフィカルに強調表示させる。プロセッサ1562はまた、ピクセルグリッド1002の原点を示すグラフィックを表示することもできる。オペレータは制御機構305及び/又はユーザ入力デバイス1410を使用して、右ZRPを原点に進ませる。プロセッサ1562は、制御機構305及び/又はユーザ入力デバイス1410からの命令を使用して、それに従って光学要素1402の1つ又は複数を移動させる。プロセッサ1562は、右ZRPの現在位置及び原点をグラフィカルに表示して、オペレータに位置決めに関する更新されたフィードバックを提供することに加えて、右画像ストリームをリアルタイムで提供し得る。オペレータは、右ZRPが位置合わせされるまで、制御機構305及び/又はユーザ入力デバイス1410を介して入力を提供し続ける。確認命令を受信すると、プロセッサ1562は、設定された倍率レベルでの光学要素1402の位置を反映した較正点をルックアップテーブルに記憶する。 In some examples, the operator may also manually align the right ZRP with the origin of pixel grid 1002. For example, after locating the right ZRP, processor 1562 (and/or peripheral input unit interface 1574 or graphics processing unit 1564) causes the right ZRP to be graphically highlighted in the right image displayed by display monitor 512. Processor 1562 may also display a graphic indicating the origin of pixel grid 1002. The operator uses control mechanism 305 and/or user input device 1410 to advance the right ZRP to the origin. Processor 1562 uses instructions from control mechanism 305 and/or user input device 1410 to move one or more of optical elements 1402 accordingly. Processor 1562 may provide a right image stream in real time, in addition to graphically displaying the current position and origin of the right ZRP to provide the operator with updated feedback regarding positioning. The operator continues to provide input via control mechanism 305 and/or user input device 1410 until the right ZRP is aligned. Upon receiving the verification command, processor 1562 stores a calibration point in a look-up table that reflects the position of optical element 1402 at the set magnification level.

3.位置合わせ誤差の比較
一例の立体視覚化カメラ300は、立体カメラを有する既知のデジタル外科用顕微鏡と比較して、左右の画像間でより少ない位置合わせ誤差を生成する。後述する分析は、カメラを有する既知のデジタル外科用顕微鏡のZRP位置合わせずれにより生成された疑似視と一例の立体視覚化カメラ300とを比較する。まず、両カメラは第1の倍率レベルに設定され、焦点面は患者の目の第1の位置に位置決めされる。以下の式(3)を使用して、各カメラから目への作業距離(「WD」)を特定する。
WD=(IPD/2)/tan(α)-式(3)
3. Registration Error Comparison The example stereoscopic visualization camera 300 produces less registration error between left and right images compared to known digital surgical microscopes having stereoscopic cameras. The analysis described below compares the example stereoscopic visualization camera 300 with the pseudo vision produced by ZRP misregistration of a known digital surgical microscope with a camera. First, both cameras are set to a first magnification level and the focal plane is positioned at a first location of the patient's eye. Identify each camera-to-eye working distance (“WD”) using equation (3) below.
WD=(IPD/2)/tan(α)-Equation (3)

この式中、IPDは瞳孔間距離に対応し、約23mmである。加えて、αは、例えば、右光学画像センサ746と左光学画像センサ748との間の角度の半分であり、この例では2.50°である。集束角はこの角度の2倍であり、この例では5°である。その結果としての作業距離は263.39mmである。 In this formula, IPD corresponds to the interpupillary distance and is approximately 23 mm. Additionally, α is, for example, half the angle between right optical image sensor 746 and left optical image sensor 748, which is 2.50° in this example. The focusing angle is twice this angle, in this example 5°. The resulting working distance is 263.39 mm.

カメラは第2の倍率レベルにズームインされ、患者の目の第2の位置において三角測量で測定される。この例では、第2の位置は、第1の位置とカメラから同じ物理的距離にあるが、第2の倍率レベルで提示される。倍率変更は、センサピクセルグリッドの中心へのZRPの一方又は両方の位置合わせずれに起因して水平疑似視差を生じさせる。既知のカメラシステムでは、疑似視差は、例えば、3分であると特定され、これは0.05°に対応する。上記式(3)中、0.05°値がαに追加され、これは作業距離258.22mmを生成する。作業距離差は5.17mm(263.39mm-258.22mm)であり、これは、カメラ付属品を有する既知のデジタル外科用顕微鏡の誤差に対応する。 The camera is zoomed in to a second magnification level and triangulated at a second position of the patient's eye. In this example, the second location is at the same physical distance from the camera as the first location, but is presented at a second magnification level. Magnification changes create horizontal pseudo-parallax due to misalignment of one or both of the ZRPs to the center of the sensor pixel grid. In known camera systems, the pseudo parallax is specified to be, for example, 3 minutes, which corresponds to 0.05°. In equation (3) above, a 0.05° value is added to α, which produces a working distance of 258.22 mm. The working distance difference is 5.17 mm (263.39 mm - 258.22 mm), which corresponds to the error of known digital surgical microscopes with camera attachments.

これとは対照的に、一例の立体視覚化カメラ300は、ピクセルセット又はグリッドの中心の1ピクセル以内でZRPを自動的に位置合わせすることが可能である。視野角が5°であり、4Kディスプレイモニタと併用される4K画像センサを用いて記録される場合、1ピクセル精度は0.00125°(5°/4000)又は4.5秒に対応する。上記式(3)を使用して、0.00125°をαに追加し、それにより、作業距離は263.25mmになる。立体視覚化カメラ300の作業距離差は0.14mm(263.39mm-263.25mm)である。既知のデジタル外科用顕微鏡の5.17mm誤差と比較した場合、一例の立体視覚化カメラ300は位置合わせ誤差を97.5%低減する。 In contrast, the example stereoscopic visualization camera 300 is capable of automatically aligning the ZRP to within one pixel of the center of a pixel set or grid. If the viewing angle is 5° and recorded using a 4K image sensor used with a 4K display monitor, one pixel accuracy corresponds to 0.00125° (5°/4000) or 4.5 seconds. Using equation (3) above, add 0.00125° to α, resulting in a working distance of 263.25 mm. The working distance difference of the stereoscopic visualization camera 300 is 0.14 mm (263.39 mm-263.25 mm). The example stereoscopic visualization camera 300 reduces alignment error by 97.5% when compared to the 5.17 mm error of known digital surgical microscopes.

幾つかの実施形態では、立体視覚化カメラ300は、分解能が高いほど高精度であり得る。上記例では、分解能は5°視野で約4.5秒である。視野2°の8K超高精細システム(4000行のそれぞれに8000個のピクセルを有する)の場合、立体視覚化カメラ300の分解能は約1秒である。これは、左右のビューのZRPが1ピクセル又は1秒まで位置合わせし得ることを意味する。これは、分オーダの疑似視差を有する既知のデジタル顕微鏡外科システムよりもはるかに精密である。 In some embodiments, stereoscopic visualization camera 300 may be more accurate with higher resolution. In the above example, the resolution is approximately 4.5 seconds with a 5° field of view. For an 8K ultra-high definition system (with 8000 pixels in each of 4000 rows) with a 2° field of view, the resolution of the stereoscopic visualization camera 300 is approximately 1 second. This means that the ZRP of the left and right views can be aligned down to 1 pixel or 1 second. This is much more precise than known digital microsurgical systems, which have pseudo-parallaxes on the order of minutes.

4.疑似視差の他の原因の低減
上記例は、一例の立体視覚化カメラ300が、ZRP及び/又は左右の画像自体の位置合わせずれの結果としての疑似視差をいかに低減するかを考察している。立体視覚化カメラ300は、疑似視差の他の原因を低減するように構成することもできる。例えば、立体視覚化カメラ300は、略同じ瞬間に画像を記録するように左右の光学画像センサ746及び748を同時にクロッキングすることによる動きに起因した疑似視差を低減し得る。
4. Reducing Other Sources of Pseudo-Parallax The above example considers how an example stereoscopic visualization camera 300 reduces pseudo-parallax as a result of ZRP and/or misalignment of the left and right images themselves. The stereoscopic visualization camera 300 can also be configured to reduce other sources of pseudo-parallax. For example, stereoscopic visualization camera 300 may reduce pseudo-parallax due to motion by simultaneously clocking left and right optical image sensors 746 and 748 to record images at approximately the same instant.

一例の立体視覚化カメラ300は、左右の光路間の倍率が異なることに起因した疑似視差を低減することもできる。例えば、立体視覚化カメラ300は、左光路に基づいて倍率レベルを設定し得る。立体視覚化カメラ300は次に、右画像の倍率が左に合うように自動調整を行い得る。例えば、プロセッサ1562は画像データを使用して、例えば、左右の画像に共通する特定の特徴間のピクセル数を測定することにより制御パラメータを計算し得る。次に、プロセッサ1562は、デジタルスケーリング、補間ピクセルの挿入、及び/又は無関係ピクセルの削除により左右の画像の倍率レベルを等化し得る。一例のプロセッサ1562及び/又はグラフィックス処理ユニット1564は、倍率が左画像に一致するように右画像を再レンダリングし得る。追加又は代替として、立体視覚化カメラ300は、左右の光学要素1402の独立調整を含み得る。プロセッサ1562は、左右の光学要素1402を別個に制御して、同じ倍率を達成し得る。幾つかの例では、プロセッサ1562はまず、例えば、左倍率レベルを設定し、次に、右光学要素1402を別個に調整して、同じ倍率レベルを達成し得る。 The stereoscopic visualization camera 300 as an example can also reduce pseudo parallax caused by different magnifications between the left and right optical paths. For example, stereoscopic visualization camera 300 may set the magnification level based on the left optical path. The stereoscopic visualization camera 300 may then automatically adjust the magnification of the right image to match the left. For example, processor 1562 may use the image data to calculate control parameters, eg, by measuring the number of pixels between particular features common to the left and right images. Processor 1562 may then equalize the magnification levels of the left and right images by digital scaling, inserting interpolated pixels, and/or removing irrelevant pixels. The example processor 1562 and/or graphics processing unit 1564 may re-render the right image so that the scale factor matches the left image. Additionally or alternatively, stereoscopic visualization camera 300 may include independent adjustment of left and right optical elements 1402. Processor 1562 may separately control left and right optical elements 1402 to achieve the same magnification. In some examples, processor 1562 may first set a left magnification level, for example, and then separately adjust right optical element 1402 to achieve the same magnification level.

一例の立体視覚化カメラ300は、フォーカスが異なることに起因する疑似視差を更に低減し得る。一例では、プロセッサ1562は、所与の倍率及び/又は作業距離での角光路の最良フォーカスを決定するプログラム1560を実行し得る。プロセッサ1562はまず、最良分解能ポイントへの光学要素1402のフォーカスを実行する。次に、プロセッサ1562は、適する非物体平面位置におけるOOF状況をチェックし、左右の画像のフォーカスを一致させ得る。次に、プロセッサ1562は、最良分解能でのフォーカスを再チェックし、左右両方の光学要素1402が物体平面上及び物体背面から離れての両方で十分に等しくフォーカスするまで、フォーカスを繰り返し調整する。 The example stereoscopic visualization camera 300 may further reduce pseudo parallax due to different focus. In one example, processor 1562 may execute a program 1560 that determines the best focus of an angular light path at a given magnification and/or working distance. Processor 1562 first performs focusing of optical element 1402 to the best resolution point. Processor 1562 may then check the OOF situation at the appropriate non-object plane location and match the focus of the left and right images. The processor 1562 then rechecks the focus at best resolution and repeatedly adjusts the focus until both left and right optical elements 1402 are sufficiently equally focused both on the object plane and away from the object back surface.

一例のプロセッサ1562は、左右の画像の一方又は両方のフォーカスに関連する信号をモニタすることにより最適なフォーカスを測定し検証し得る。例えば、左右の画像の「鮮鋭度」信号がグラフィックス処理ユニット1564により同時に及び/又は同期して生成される。信号は、フォーカス変更につれて変化し、画像分析プログラム、エッジ検出分析プログラム、パターン強度のフーリエ変換の帯域幅プログラム、及び/又は変調伝達関数(「MTF」)測定プログラムから特定し得る。プロセッサ1562は、鮮鋭画像を示す最大信号をモニタしながら、光学要素1402のフォーカスを調整する。 An example processor 1562 may measure and verify optimal focus by monitoring signals related to focus of one or both left and right images. For example, left and right image "sharpness" signals are generated by graphics processing unit 1564 simultaneously and/or synchronously. The signal changes as focus changes and may be determined from an image analysis program, an edge detection analysis program, a Fourier transform bandwidth program of pattern intensity, and/or a modulation transfer function ("MTF") measurement program. Processor 1562 adjusts the focus of optical element 1402 while monitoring the maximum signal indicative of a sharp image.

OOF状況を最適化するために、プロセッサ1562は、左右両方画像の鮮鋭信号をモニタし得る。フォーカスが物体平面から動き、例えば、左画像に関連する信号が増大するが、右画像に関連する信号が低減する場合、プロセッサ1562は、光学要素1402がフォーカスからずれて移動していると判断するように構成される。しかしながら、左右両方の画像に関連する信号が比較的高く、概ね等しい場合、プロセッサ1562は、光学要素1402がフォーカスのために適宜位置決めされていると判断するように構成される。 To optimize the OOF situation, processor 1562 may monitor the sharpness signals of both the left and right images. If the focus moves from the object plane, for example, the signal associated with the left image increases while the signal associated with the right image decreases, processor 1562 determines that optical element 1402 is moving out of focus. It is configured as follows. However, if the signals associated with both left and right images are relatively high and approximately equal, processor 1562 is configured to determine that optical element 1402 is properly positioned for focus.

5.低疑似視差の利点
一例の立体視覚化カメラ300は、左右の画像間の疑似視差が低い結果として、既知のデジタル外科用顕微鏡よりも優れた幾つかの利点を有する。例えば、略完全に位置合わせされた左右の画像は、外科医に略完全な立体表示を生成し、それにより、目の疲労を低減する。これにより、立体視覚化カメラ300を面倒な器具ではなく外科医の目の延長として使用することが可能になる。
5. Advantages of Low Pseudo-Parallax The example stereoscopic visualization camera 300 has several advantages over known digital surgical microscopes as a result of the low pseudo-parallax between the left and right images. For example, nearly perfectly aligned left and right images create a nearly perfect stereoscopic view for the surgeon, thereby reducing eye fatigue. This allows the stereoscopic visualization camera 300 to be used as an extension of the surgeon's eye rather than a cumbersome instrument.

別の例では、精密に位置合わせされた左右の画像により、術部の正確な測定をデジタル撮影することができる。例えば、適切なサイズのIOLを決定し、正確に移植することができるように、患者の目の水晶体包のサイズを測定し得る。別の場合、赤外線蛍光オーバーレイを融合画像に正確に配置することができるように、動いている血管の動きを測定し得る。ここで、実際の移動速度は一般に、外科医の関心ではないが、オーバーレイ画像の配置及びリアルタイム位置合わせにとって重要である。重ねられた画像の適宜一致したスケール、位置合わせ、及び視点は全て、正確に有用された結合ライブ立体画像及び交互モード画像の提供にとって重要である。 In another example, precisely aligned left and right images allow accurate measurements of the surgical site to be digitally captured. For example, the size of the lens capsule in a patient's eye may be measured so that an appropriately sized IOL can be determined and accurately implanted. Alternatively, the motion of a moving blood vessel may be measured so that an infrared fluorescence overlay can be precisely placed on the fused image. Here, the actual movement speed is generally not of concern to the surgeon, but is important for the placement and real-time registration of the overlay images. Properly matched scale, alignment, and perspective of the superimposed images are all important to providing accurately usable combined live stereoscopic and alternating mode images.

幾つかの例では、プロセッサ1562は、オペレータがディスプレイモニタ512上で測定パラメータを描画できるようにし得る。プロセッサ1562は画面に描画された座標を受信し、それに従ってその座標を立体画像に変換する。プロセッサ1562は、ディスプレイモニタ512に描画された定規を立体画像に示される倍率レベルにスケーリングすることにより測定値を特定し得る。プロセッサ1562により行われる測定には、立体ディスプレイに表示される2つ又は3つの位置のポイント間測定、ポイントツーサーフェス測定、サーフェス特徴付け測定、ボリューム特定測定、速度検証測定、座標変換、機器及び/又は組織追跡等がある。 In some examples, processor 1562 may enable an operator to draw measured parameters on display monitor 512. Processor 1562 receives the coordinates drawn on the screen and converts the coordinates into a stereoscopic image accordingly. Processor 1562 may determine measurements by scaling a ruler drawn on display monitor 512 to the magnification level shown in the stereo image. Measurements performed by processor 1562 include point-to-point measurements of two or three locations displayed on a stereoscopic display, point-to-surface measurements, surface characterization measurements, volume identification measurements, velocity verification measurements, coordinate transformations, equipment and/or Or there is organization tracking, etc.

VII.立体視覚化カメラのロボットシステム例
図5及び図6と併せて考察したように、一例の立体視覚化カメラ300は、立体視覚化プラットフォーム又は立体視ロボットプラットフォーム516の一部として機械的又はロボットアーム506に接続し得る。一例のロボットアーム506は、1つ又は複数の処置中、オペレータが患者の上及び/又は隣に立体視覚化カメラ300を位置決め且つ/又は向けられるようにするよう構成される。したがって、ロボットアーム506は、オペレータが立体視覚化カメラ300を標的手術部位の所望の視野(「FOV」)に移動できるようにする。外科医は一般的に、画面に表示される画像と外科医のFOVとのより容易な視覚的向き及び対応性を可能にするように、外科医自身のFOVと同様のFOVにカメラを位置決め且つ/又は向けることを好む。本明細書に開示される一例のロボットアーム506は、外科医自身のFOVを遮ることなく外科医のFOVと一致又は一貫した位置決めを可能にするように構造的柔軟性及び補助付き制御を提供する。
VII. Exemplary Stereoscopic Visualization Camera Robotic System As discussed in conjunction with FIGS. can be connected to. The example robotic arm 506 is configured to allow an operator to position and/or direct the stereoscopic visualization camera 300 above and/or next to the patient during one or more procedures. Accordingly, the robotic arm 506 allows the operator to move the stereoscopic visualization camera 300 to a desired field of view ("FOV") of the target surgical site. The surgeon typically positions and/or orients the camera to a similar FOV to the surgeon's own FOV, allowing for easier visual orientation and correspondence between the image displayed on the screen and the surgeon's FOV. I like things. An example robotic arm 506 disclosed herein provides structural flexibility and assisted control to enable positioning that is coincident or consistent with the surgeon's FOV without obstructing the surgeon's own FOV.

本明細書に開示される立体視ロボットプラットフォーム516とは対照的に、既知の立体顕微鏡保持デバイスは、オペレータにより手動で移動する単純な機構を含む。これらのデバイスは、手動での再位置決めを可能にする電子機械的ブレーキを装備した複数の回転ジョイントを含む。さらに、オペレータがビューを容易且つ処置を邪魔せずに変更できるように、幾つかの既知の保持デバイスは電動ジョイントを有する。電動ジョイントは、例えば、単純なX-Y位置決めから、接続された剛性アームを操作する複数の独立した回転ジョイントを備えるデバイスまでの種々のレベルの複雑性を有する。大半の処置中、種々の方向からビューを素早く容易に取得することが望ましい。しかしながら、既知の立体顕微鏡保持デバイスは1つ又は複数の問題を有する。 In contrast to the stereoscopic robotic platform 516 disclosed herein, known stereoscopic microscope holding devices include a simple mechanism that is manually moved by an operator. These devices include multiple rotating joints equipped with electromechanical brakes that allow manual repositioning. Furthermore, some known holding devices have motorized joints so that the operator can change the view easily and without interfering with the procedure. Powered joints have varying levels of complexity, for example, from simple XY positioning to devices with multiple independent rotational joints operating connected rigid arms. During most procedures, it is desirable to quickly and easily obtain views from various directions. However, known stereomicroscope holding devices have one or more problems.

既知の立体顕微鏡保持デバイスは、一般に画像の所望の側面を見るために顕微鏡を操作する外科医の手動能力により制限される限られた位置、方向、及び/又は向き精度を有する。複数のジョイントを有する保持デバイスは、デバイス操作により通常、全てのジョイントが一度に動くことになるため、特に操作が面倒であり得る。オペレータはしばしば、アームがいかに動くかを見ている。アームが所望のロケーションに位置決めされた後、オペレータは、撮像デバイスのFOVが所望のロケーションに位置合わせされたか否かをチェックする。多くの場合、デバイスが適宜位置合わせされた場合であっても、デバイスのフォーカスを調整する必要がある。更なる既知の立体顕微鏡保持デバイスは、標的手術部位にある他の物体に関して一貫したFOV又は焦点面を提供することができず、その理由は、処置中に患者が移動し、又はシフトする際、デバイスがアーム位置メモリを有さず、又はメモリが不正確であるためである。 Known stereoscopic microscope holding devices have limited positional, directional, and/or orientation accuracy that is generally limited by the surgeon's manual ability to manipulate the microscope to view the desired side of the image. Retention devices with multiple joints can be particularly cumbersome to operate because device operation typically involves movement of all the joints at once. The operator often watches how the arm moves. After the arm is positioned at the desired location, the operator checks whether the FOV of the imaging device is aligned at the desired location. In many cases, it is necessary to adjust the focus of the device even if the device is properly aligned. Additional known stereoscopic microscope holding devices are unable to provide a consistent FOV or focal plane with respect to other objects at the target surgical site, because as the patient moves or shifts during the procedure, This is because the device does not have arm position memory or the memory is inaccurate.

既知の立体顕微鏡保持デバイスは一般に、制御が物体面焦点距離、倍率、及び照明等の顕微鏡パラメータから独立している位置決めシステムを有する。これらのデバイスでは、位置決め、例えばズームの調整は手動で実行しなければならない。一例では、オペレータは、フォーカスの際又は作業距離変更の際、レンズ限界に達し得る。オペレータは保持デバイスの位置を手動で変更し、次に立体顕微鏡を再フォーカスする必要がある。 Known stereomicroscope holding devices generally have a positioning system whose control is independent of microscope parameters such as object plane focal length, magnification, and illumination. In these devices, positioning, e.g. zoom adjustment, must be performed manually. In one example, an operator may reach a lens limit when focusing or changing working distance. The operator must manually reposition the holding device and then refocus the stereomicroscope.

既知の立体顕微鏡保持デバイスは、単に手術部位の観測を目的としている。既知のデバイスは、FOV内の組織のロケーション又はFOV内の組織からFOV外の別の物体までの距離を特定しない。既知のデバイスはまた、MRI画像とライブビューとの結合等の代替のビューイングモダリティを形成するための組織とライブ手術部位内の他の物体との比較も提供しない。代わりに、既知のデバイスからのビューは別個に表示され、他の医療画像又はテンプレートから位置合わせされない。 Known stereomicroscope holding devices are intended solely for observation of the surgical site. Known devices do not identify the location of tissue within the FOV or the distance from tissue within the FOV to another object outside the FOV. Known devices also do not provide comparison of tissue with other objects within a live surgical site to form alternative viewing modalities, such as combining MRI images with a live view. Instead, views from known devices are displayed separately and are not aligned from other medical images or templates.

さらに、既知の立体顕微鏡保持デバイスは、観測を除き、精密さにあまり重きを置かないため、正確ではないことがあるパラメータを有する。ISO規格10936-1:2000(E)「Optics and optical instruments-Operation microscopes-Part 1:Requirements and test methods」における要件は大方、通常の人間であるオペレータが接眼レンズを使用して妥当な立体光学画像を達成するために導き出されたものである。オペレータの脳は、複数のビューを結合して頭の中で画像を生成し、立体視を達成する。ビューは一般に、他の方法では一緒に結合又は比較されない。オペレータが許容可能な画像を見、頭痛等の有害な影響を受けない限り、オペレータのニーズは満たされてきた。同じ事が、幾らかの不安定性、アームの垂れ下がり、及び不正確な移動制御が許されている立体顕微鏡保持デバイスに対しても言える。しかしながら、高分解能デジタルカメラが既知のデバイスと併用される場合、構造的不正確性は容易に観測可能であり、特に顕微鏡外科処置の場合、有用性が損なわれ得る。 Furthermore, known stereomicroscope holding devices have parameters that may not be accurate, as they do not place much emphasis on precision, except for observation. The requirements in ISO standard 10936-1:2000 (E) "Optics and optical instruments-Operation microscopes-Part 1: Requirements and test methods" are mostly for ordinary people. The operator uses the eyepiece to obtain a reasonable stereoscopic optical image. It was derived in order to achieve this. The operator's brain combines multiple views to create an image in their head to achieve stereopsis. Views generally are not otherwise combined or compared together. As long as the operator sees acceptable images and does not experience deleterious effects such as headaches, the operator's needs have been met. The same is true for stereomicroscope holding devices, which are allowed to have some instability, arm sag, and imprecise movement control. However, when high-resolution digital cameras are used in conjunction with known devices, structural inaccuracies are easily observable and can compromise their usefulness, especially in the case of microsurgical procedures.

上述したように、既知の立体顕微鏡保持デバイスは、カメラの重さに起因して垂れ下がり得る。一般に、既知のロボット位置決めシステムは較正されて、システム自体のみでの遵守性又は不正確性を特定する。立体顕微鏡保持デバイスは、カメラ又はカメラマウントと保持デバイスとの間のいかなる不正確性も考慮に入れない。垂れ下がりは一般に、画像をディスプレイで観測しながら、オペレータがカメラを手動で位置決めすることにより補償される。電動の動きを提供するシステムでは、例えば、軸の回りの復元トルクモーメントの方向が逆になる、カメラの重力中心(「CG」)がアームジョイントの回転軸の逆側に再位置決めされた場合、垂れ下がりの変化が生じる。続けて、カメラの位置、方向、及び/又は向きを調整することによりオペレータにより補償される機構におけるいかなる遵守又は垂れ下がりも、位置、方向、及び/又は向きの誤差を増大させる。幾つかの場合、例えば、カメラがロボット特異点を通って移動する場合、モーメント反転が素早く生じ、その結果として生成されるカメラ画像の誤差は素早く過度にシフトする。そのような誤差は、例えば、部位内の組織又は機器を正確に追従又は追跡する既知の立体顕微鏡保持デバイスの能力を制限する。 As mentioned above, known stereo microscope holding devices can sag due to the weight of the camera. Generally, known robot positioning systems are calibrated to identify compliance or inaccuracies within the system itself alone. The stereo microscope holding device does not take into account any inaccuracies between the camera or camera mount and the holding device. Sag is generally compensated for by the operator manually positioning the camera while viewing the image on the display. In systems that provide motorized movement, for example, if the center of gravity ("CG") of the camera is repositioned to the opposite side of the axis of rotation of the arm joint, the direction of the restoring torque moment about the axis is reversed; A drooping change occurs. Subsequently, any compliance or sag in the mechanism that is compensated by the operator by adjusting the camera position, direction, and/or orientation increases the position, direction, and/or orientation error. In some cases, for example when the camera moves through a robot singularity, moment reversals occur quickly and the resulting camera image errors quickly shift excessively. Such errors, for example, limit the ability of known stereomicroscope holding devices to accurately follow or track tissue or equipment within a site.

既知の立体顕微鏡保持デバイスは、手術危機を空間的に位置特定して追跡し、続けてそれらの代表的な表示をモニタに提供する特徴を含む。しかしながら、これらの既知のシステムでは、目立って配置される立体位置特定カメラ又は三角測量デバイス及び機器に目立つ基準デバイスが必要とされる。デバイスの追加は、複雑性、コスト、及び操作の目障りを増大させる。 Known stereomicroscope holding devices include features for spatially locating and tracking surgical crises and subsequently providing a representative display thereof on a monitor. However, these known systems require a conspicuously placed stereolocation camera or triangulation device and instrument with a conspicuous reference device. Adding devices increases complexity, cost, and operational nuisance.

本明細書に開示される一例の立体視ロボットプラットフォーム516は、機械的又はロボットアーム506に接続された一例の立体視覚化カメラ300を含む。図5及び図6は、一例の立体視ロボットプラットフォーム516を示す。カメラ300により記録された立体画像は、1つ又は複数のディスプレイモニタ512、514を介して表示される。ロボットアーム506はカート510に機械的に接続され、カート510はまた、ディスプレイモニタ512、514の1つ又は複数を支持し得る。ロボットアームは、例えば、サイズ、性質、機能、及び動作が一般に人間に類似した連結式ロボットアームを含み得る。 An example stereoscopic robot platform 516 disclosed herein includes an example stereoscopic visualization camera 300 connected to a mechanical or robotic arm 506. 5 and 6 illustrate an example stereoscopic robot platform 516. The stereo images recorded by camera 300 are displayed via one or more display monitors 512, 514. Robotic arm 506 is mechanically connected to cart 510, which may also support one or more display monitors 512, 514. Robotic arms may include, for example, articulated robotic arms that are generally human-like in size, nature, function, and operation.

図33は、本開示の実施形態例による、図5の顕微鏡手術環境500の側面図を示す。図示の例では、ディスプレイモニタ512は、1つ又は複数のジョイントを有して柔軟な位置決めを可能にする機械的アーム3302を介してカート510に接続し得る。幾つかの実施形態では、機械的アーム3302は、術中、患者にわたって延びて、外科医の比較的接近したビューを提供するのに十分な長さであり得る。 FIG. 33 illustrates a side view of the microsurgical environment 500 of FIG. 5, according to an example embodiment of the present disclosure. In the illustrated example, display monitor 512 may be connected to cart 510 via a mechanical arm 3302 that has one or more joints to allow flexible positioning. In some embodiments, mechanical arm 3302 may be long enough to extend across the patient and provide a relatively close view of the surgeon during surgery.

図33はまた、立体視覚化カメラ300及びロボットアーム506を含め、立体視ロボットプラットフォーム516の側面図も示す。カメラ300は、結合板3304を介してロボットアーム506に機械的に結合される。幾つかの実施形態では、結合板3304は、カメラ300の更なる程度の位置決め及び又は向きを提供する1つ又は複数のジョイントを含み得る。幾つかの実施形態では、結合板3304は、オペレータにより手動で移動又は回転される必要がある。例えば、結合板3304は、カメラ300をz軸に沿って光軸を有すること(すなわち、患者に向かって下方を指す)とx軸又はy軸に沿った光軸を有すること(すなわち、患者に向かって側方を指す)との間で素早く位置決めできるようにするジョイントを有し得る。 FIG. 33 also shows a side view of stereoscopic robotic platform 516, including stereoscopic visualization camera 300 and robotic arm 506. Camera 300 is mechanically coupled to robot arm 506 via coupling plate 3304. In some embodiments, coupling plate 3304 may include one or more joints that provide an additional degree of positioning and/or orientation of camera 300. In some embodiments, the coupling plate 3304 needs to be manually moved or rotated by the operator. For example, coupling plate 3304 may allow camera 300 to have an optical axis along the z-axis (i.e., pointing down toward the patient) and an optical axis along the x- or y-axis (i.e., pointing toward the patient). may have a joint that allows for quick positioning between the

一例の結合板3304は、カメラ300を移動させるためにオペレータにより付与された力及び/又はトルクを検出するように構成されたセンサ3306を含み得る。幾つかの実施形態では、オペレータは、制御アーム304a及び304b(図3に示される)を握ることによりカメラ300を位置決めし得る。オペレータが制御アーム304a及び304bを掴んだ後、ユーザは、ロボットアーム306からの補助を用いてカメラ300を位置決め且つ/又は向け得る。センサ3306は、オペレータにより提供される力ベクトル又はトルク角度を検出する。本明細書に開示される一例のプラットフォーム516は、検知された力/トルクを使用して、オペレータにより提供される力/トルクに対応するカメラ300の補助付き移動を提供するために、ロボットアーム506のどのジョイントを回転させるべきか(及びジョイントをいかに素早く回転させるべきか)を判断する。センサ3306は、結合板3304とカメラ300との間のインターフェースに配置されて、制御アーム304を介してオペレータにより付与された力及び/又はトルクを検出し得る。 An example coupling plate 3304 may include a sensor 3306 configured to detect force and/or torque applied by an operator to move camera 300. In some embodiments, an operator may position camera 300 by grasping control arms 304a and 304b (shown in FIG. 3). After the operator grasps the control arms 304a and 304b, the user may position and/or direct the camera 300 with assistance from the robotic arm 306. Sensor 3306 detects the force vector or torque angle provided by the operator. An example platform 516 disclosed herein uses the sensed force/torque to move the robot arm 500 to provide assisted movement of the camera 300 in response to the force/torque provided by the operator. Determine which joints in the throat should be rotated (and how quickly the joints should be rotated). A sensor 3306 may be positioned at the interface between coupling plate 3304 and camera 300 to detect force and/or torque applied by an operator via control arm 304.

幾つかの実施形態では、センサ3306は、例えば、自由度6の触力覚検知モジュールを含み得る。これらの実施形態では、センサ3306は、x軸、y軸、及びz軸での並進力又は並進運動を検出し得る。センサ3306はまた、ヨー軸、ピッチ軸、及びロール軸の回りの回転力又は回転運動を別個に検出することもできる。並進力と回転力との切り離しにより、立体視ロボットプラットフォーム516はロボットアーム506を制御するための順運動学及び/又は逆運動学をより容易に計算できるようになり得る。 In some embodiments, the sensor 3306 may include, for example, a six degree of freedom tactile sensing module. In these embodiments, sensor 3306 may detect translational force or movement in the x, y, and z axes. Sensor 3306 can also separately detect rotational force or motion about the yaw, pitch, and roll axes. The decoupling of translational and rotational forces may allow stereoscopic robot platform 516 to more easily calculate forward and/or inverse kinematics for controlling robot arm 506.

ロボットアーム506はユーザ単独では移動可能ではないことがあるため、一例のセンサ3306は力を検出するように構成し得る。代わりに、センサ3306は、ユーザにより適用された並進力及び回転力を検出し、これらは、ロボットアーム506の補助付き移動制御を提供するのにどのジョイントを回転させるかを判断するために立体視ロボットプラットフォーム516により使用される。他の例では、ロボットアーム506は、補助なし又は少なくとも初期補助なしでのオペレータによる移動を可能にし得る。これらの他の例では、センサ3306は、ユーザにより付与された運動を検出し、これは、1つ又は複数のジョイントを続けて回転させ、それにより補助付き移動を提供するために立体視ロボットプラットフォーム516により使用される。運動又は運動を生じさせる力の初期検出から立体視ロボットプラットフォーム516がジョイントを回転させるまでの時間は、200ミリ秒(「ms」)未満、100ms未満、50ms未満、又はわずか10ms未満であり得、ユーザはロボットアーム506の非補助付き移動の初期時間に気付かない。 Because the robot arm 506 may not be movable by the user alone, an example sensor 3306 may be configured to detect force. Instead, the sensor 3306 detects translational and rotational forces applied by the user, which are used in stereoscopic vision to determine which joints to rotate to provide assisted movement control of the robot arm 506. Used by robot platform 516. In other examples, the robotic arm 506 may allow movement by an operator without assistance or at least initial assistance. In these other examples, the sensor 3306 detects motion exerted by a user, which causes the stereoscopic robotic platform to sequentially rotate one or more joints, thereby providing assisted locomotion. 516. The time from initial detection of the motion or force that causes the motion to when the stereoscopic robotic platform 516 rotates the joint may be less than 200 milliseconds (“ms”), less than 100 ms, less than 50 ms, or even less than just 10 ms; The user is unaware of the initial time of unassisted movement of the robot arm 506.

一例のセンサ3306は、回転力/運動を示すデジタルデータ及び並進力/運動を示すデジタルデータを出力し得る。この例では、デジタルデータは、各軸で検出された力/運動について8ビット、16ビット、32ビット、又は64ビット分解能を有し得る。代替的には、センサ3306は、検知された力及び/又は運動に比例するアナログ信号を送信し得る。一例のセンサ3306は、例えば、1ms、5ms、10ms、20ms、50ms、100ms等の定期的なサンプリングレートでデータを送信し得る。代替的には、センサ3306は力/運動データの略連続的なストリームを提供し得る。 An example sensor 3306 may output digital data indicative of rotational force/motion and digital data indicative of translational force/motion. In this example, the digital data may have 8-bit, 16-bit, 32-bit, or 64-bit resolution for the detected force/motion in each axis. Alternatively, sensor 3306 may transmit an analog signal proportional to sensed force and/or motion. An example sensor 3306 may transmit data at a regular sampling rate, such as 1 ms, 5 ms, 10 ms, 20 ms, 50 ms, 100 ms, etc., for example. Alternatively, sensor 3306 may provide a substantially continuous stream of force/motion data.

幾つかの実施形態では、一例のセンサ3306は代わりに、制御アーム304a及び304bの1つ若しくは複数又は制御アーム304a及び304bと筐体302との間に配置し得る。制御アーム304a及び304bのそれぞれがセンサ3306を含む例では、一例の立体視ロボットプラットフォーム516は、2組の並進力又は並進運動及び回転力又は回転運動を受信し得る。これらの例では、立体視ロボットプラットフォーム516はセンサ3306からの値を平均し得る。 In some embodiments, an example sensor 3306 may instead be located between one or more of control arms 304a and 304b or between control arms 304a and 304b and housing 302. In examples where each of the control arms 304a and 304b includes a sensor 3306, the example stereoscopic robot platform 516 may receive two sets of translational forces or movements and rotational forces or rotational movements. In these examples, stereoscopic robot platform 516 may average the values from sensors 3306.

図示の実施形態では、ロボットアーム506の第1の端部はカート510に搭載され、一方、ロボットアームの第2の逆端部は、立体視覚化カメラ300(例えば、ロボット端部エフェクタ)に機械的に接続される。図33は、プラットフォーム516の残りの部分を外科医の邪魔にならないロケーションに維持しながら、立体視覚化カメラ300を手術部位の上方に位置決めする等、延長位置に立体視覚化カメラ300を保持するロボットアーム506を示す。カート510は、立体視ロボットプラットフォーム516をしっかりと保持するように構成され、規定の動作位置で倒れないような重量を有しバランスがとられる。 In the illustrated embodiment, a first end of the robot arm 506 is mounted on a cart 510, while a second opposite end of the robot arm is mechanically attached to a stereoscopic visualization camera 300 (e.g., a robot end effector). connected. FIG. 33 shows a robotic arm holding the stereoscopic visualization camera 300 in an extended position, such as positioning the stereoscopic visualization camera 300 above the surgical site while maintaining the remainder of the platform 516 out of the surgeon's way. 506 is shown. The cart 510 is configured to securely hold the stereoscopic robot platform 516 and is weighted and balanced to prevent it from tipping over in a defined operating position.

一例の立体視ロボットプラットフォーム516は以下の利点を提供するように構成される。 The example stereoscopic robot platform 516 is configured to provide the following advantages.

1.視覚化の強化。ロボットアーム506と立体視覚化カメラ300との間の通信により、プラットフォーム516は、手術部位を素早くより正確に視覚化するようにカメラ300を向け操縦することができる。例えば、ロボットアーム506は、カメラ300を光軸に沿って移動させて、単にカメラ内に含まれる場合を超えてフォーカス及びズームの範囲を拡張することができる。プラットフォーム516の比較的小さなサイズにより、より多種多様な外科処置及び向きでHeads-Up Surgery(登録商標)を提供し、それにより、手術効率及び外科医エルゴノミクスを改善する。 1. Enhanced visualization. Communication between robotic arm 506 and stereoscopic visualization camera 300 allows platform 516 to direct and maneuver camera 300 to quickly and more accurately visualize the surgical site. For example, the robotic arm 506 can move the camera 300 along the optical axis to extend the range of focus and zoom beyond just being contained within the camera. The relatively small size of platform 516 provides Heads-Up Surgery® with a greater variety of surgical procedures and orientations, thereby improving surgical efficiency and surgeon ergonomics.

2.次元性能の強化。立体画像内の全ての点の正確な測定機能を有する一例の立体視覚化カメラ300は、測定情報をロボットアーム506に通信するように構成される。そしてロボットアーム506は、正確な位置、方向、及び/又は向き特定機能を有し、画像内及び画像間の次元を立体視ロボットプラットフォーム516及び患者の解剖学的構造に共通する座標系に関して正確に変換することができるようにカメラ300に見当合わせされる。 2. Enhanced dimensional performance. An example stereoscopic visualization camera 300, which has the capability of accurately measuring every point in a stereoscopic image, is configured to communicate measurement information to the robotic arm 506. The robotic arm 506 then has precise position, direction, and/or orientation capabilities to accurately determine intra-image and inter-image dimensions with respect to a coordinate system common to the stereoscopic robotic platform 516 and the patient's anatomy. It is registered to camera 300 so that it can be converted.

3.立体視覚化カメラ300からの立体画像の品質及び正確性により、種々のモダリティの外部ソースからの画像又は診断データと結合して、融合画像を構築することができる。そのような融合画像は、処置をより正確且つ効率的に実行し、よりよい患者結果を達成するために外科医により使用することができる。 3. The quality and accuracy of stereo images from stereo visualization camera 300 allows them to be combined with images or diagnostic data from external sources of various modalities to construct a fused image. Such fused images can be used by surgeons to perform procedures more accurately and efficiently and achieve better patient outcomes.

4.立体視覚化カメラ300、ロボットアーム506、及び/又は画像及び運動プロセッサ(例えば、図14のプロセッサ1408)は、有利な処置適用に向けてプログラムすることができる。例えば、特定の視覚化部位位置、方向、及び/又は向きを保存し、後に処置に戻すことができる。例えば、組織の特定の長さ又はラインを辿るように精密な移動路をプログラムすることができる。他の例では、予めプログラムされたウェイポイントを設定することができ、それにより、オペレータが、医療処置中、どのステップが実行されているかに基づいてロボットアーム506の位置及び/又は向きを変更できるようにする。 4. The stereoscopic visualization camera 300, the robotic arm 506, and/or the image and motion processor (eg, processor 1408 of FIG. 14) can be programmed for advantageous treatment applications. For example, a particular visualization site location, orientation, and/or orientation can be saved and returned to the procedure later. For example, precise travel paths can be programmed to follow specific lengths or lines of tissue. In other examples, pre-programmed waypoints can be set so that the operator can change the position and/or orientation of the robotic arm 506 based on what steps are being performed during the medical procedure. do it like this.

5.立体視ロボットプラットフォーム516は、正確な画像位置情報の使用及び分析により本質的にガイドされる手術を提供する。そのようなガイダンスは、外科処置の少なくとも部分を実行する別のロボットシステム等の他のデバイスに通信することができる。そのような他のデバイスの構成要素と機能を共有する立体視ロボットプラットフォーム516の構成要素はパッケージに一緒に統合し得、性能の効率、正確性、及びコストを達成し得る。 5. The stereoscopic robotic platform 516 provides surgery that is inherently guided by the use and analysis of precise image location information. Such guidance may be communicated to other devices, such as another robotic system, that performs at least a portion of the surgical procedure. Components of stereoscopic robot platform 516 that share functionality with components of such other devices may be integrated together into a package to achieve efficiency, accuracy, and cost of performance.

A.ロボットアーム実施形態
図34は、本開示の実施形態例による一例のロボットアーム506の実施形態を示す。幾つかの実施形態では、ロボットアーム506は、Universal Robots S/AからのモデルUR5と同様であるか、又はモデルUR5を含む。ロボットアーム506の外面はアルミニウム及びプラスチック材料を含み、手術室での使用に関して互換性を有し、容易に清掃される。
A. Robot Arm Embodiment FIG. 34 illustrates an example robot arm 506 embodiment according to example embodiments of the present disclosure. In some embodiments, robotic arm 506 is similar to or includes model UR5 from Universal Robots S/A. The exterior surface of robotic arm 506 includes aluminum and plastic materials, making it compatible for use in operating rooms and easily cleaned.

ロボットアーム506は電子機械的なものとして本明細書に説明されるが、他の例では、ロボットアーム506は機械的、油圧的、又は空気圧的であり得る。幾つかの実施形態では、ロボットアーム506は、例えば、制御弁を有する真空チャックを使用してカメラ300を保持し操作する混合作動機構を有し得る。さらに、ロボットアーム506は、特定の数のジョイント及びリンクを含むものとして以下に説明されるが、ロボットアーム506が任意の数のジョイント、任意の長さのリンクを含み得、且つ/又は任意のタイプのジョイント又はセンサを含み得ることを理解されたい。 Although robotic arm 506 is described herein as electromechanical, in other examples, robotic arm 506 can be mechanical, hydraulic, or pneumatic. In some embodiments, the robotic arm 506 may have a mixed actuation mechanism to hold and operate the camera 300 using, for example, a vacuum chuck with a control valve. Additionally, although the robotic arm 506 is described below as including a particular number of joints and links, the robotic arm 506 may include any number of joints, any length of links, and/or any number of joints and links. It should be understood that this may include any type of joint or sensor.

本明細書に記載されるように、患者の任意の外科処置で3D立体表示をオペレータに提供しながら、術野の制限のないビューを提供するように、ロボットアーム506は配置され、ジョイントは向けられる。重要性の低い運動でのロボットアーム506の運動は、オペレータにとって好都合であるのに十分高速であるが、それでも安全であるように提供される。ロボットアーム506の移動は、術中、細かく正確であるように制御される。加えて、ロボットアームの移動は、外科処置に必要とされる運動の全範囲を通してスムーズで予測可能であるように制御される。本明細書に記載されるように、ロボットアーム506の移動は、遠隔制御により又はアーム自体の手動操作を介して制御可能である。幾つかの実施形態では、ロボットアーム506は、最小の力で(例えば、補助付きガイダンス特徴を介して)、例えば小指1本だけを用いて位置決め可能であるように構成される。 The robotic arm 506 is positioned and the joints are oriented to provide an unrestricted view of the surgical field while providing the operator with a 3D stereoscopic representation of any surgical procedure on a patient, as described herein. It will be done. Movement of the robot arm 506 in non-critical movements is provided to be fast enough to be convenient for the operator, but still safe. Movement of the robotic arm 506 is controlled to be fine and precise during the procedure. Additionally, the movement of the robotic arm is controlled to be smooth and predictable throughout the full range of motion required for the surgical procedure. As described herein, movement of the robotic arm 506 can be controlled by remote control or via manual manipulation of the arm itself. In some embodiments, the robotic arm 506 is configured to be positionable with minimal force (eg, via assisted guidance features), eg, using only one pinky finger.

幾つかの実施形態では、ロボットアーム506は、ジョイントに機械的又は電子的ロックブレーキを含み得る。オペレータにより設定された後、カメラ300の、一般にロケーション及び方向である目的又は「姿勢」ると、ブレーキを係合し得る。ロボットアーム506は、望ましくない手動又は非意図的な運動を回避するために、ロック若しくはアンロックスイッチ又は他の入力デバイスを含み得る。ロックされている場合、一例のロボットアームは、立体視覚化カメラ300が安定したクリアな画像を提供できるようにするのに十分な安定性を提供する。ロボットアーム506は追加又は代替として、立体視覚化カメラ300の新しい姿勢への移動に続く振動を吸収又は減衰させる1つ又は複数の減衰デバイスを含み得る。減衰デバイスは、例えば、流体充填線形又は回転抑制装置、ゴムベースの防振搭載抑制装置、及び/又は同調質量ばね抑制装置を含み得る。代替又は追加として、アーム506は、例えば、比例積分導関数(「PID」)サーボシステムの使用を通した電子機械的減衰を含み得る。 In some embodiments, robotic arm 506 may include mechanical or electronic locking brakes at the joints. Once set by the operator, the objective or "pose" of the camera 300, generally the location and orientation, may engage the brakes. Robotic arm 506 may include a lock or unlock switch or other input device to avoid unwanted manual or unintentional movement. When locked, the example robotic arm provides sufficient stability to allow the stereoscopic visualization camera 300 to provide stable and clear images. Robotic arm 506 may additionally or alternatively include one or more damping devices to absorb or dampen vibrations following movement of stereoscopic visualization camera 300 to a new pose. The damping device may include, for example, a fluid-filled linear or rotational restraint, a rubber-based anti-vibration mounting restraint, and/or a tuned mass spring restraint. Alternatively or additionally, arm 506 may include electromechanical damping, such as through the use of a proportional-integral-derivative (“PID”) servo system.

一例のロボットアーム506には、1つ又は複数のリンクが移送及び格納のために戻る格納位置を構成し得る。格納位置は、ロボットアームを簡潔なフットプリントで移送且つ格納できるようにし、それでもなお、幾つかの外科処置で必要とされる長いリーチで展開できるようにする。立体視覚化カメラ300の配線等のケーブルはロボットアーム506に沿って提供されて、外科処置への干渉を回避する。 An example robotic arm 506 may have one or more links configured to a storage position back for transfer and storage. The retracted position allows the robotic arm to be transported and retracted with a compact footprint, yet allows for deployment with the long reach required in some surgical procedures. Cables, such as wiring for the stereoscopic visualization camera 300, are provided along the robotic arm 506 to avoid interference with the surgical procedure.

図34に示される実施形態では、ロボットアーム506は、R1、R2、R3、R4、R5、及びR6と記される6つのジョイントを含む。他の実施形態では、ロボットアーム506はより少数又は追加のジョイントを含み得る。さらに、幾つかの実施形態では、ジョイントR1~R6の少なくとも幾つかは+/-360°の回転運動機能を有する。回転運動は、各ジョイントについて、1つ又は複数のアンチバックラッシュジョイントギアボックスを通して機械的回転ジョイントを駆動するように構成された電気モータを含む電子機械的サブシステムにより提供し得る。ジョイントR1~R6のそれぞれは、ジョイント位置を検出する1つ又は複数の回転センサを含み得る。さらに、各ジョイントはスリップクラッチ及び/又は電子機械的ブレーキを含み得る。 In the embodiment shown in FIG. 34, the robot arm 506 includes six joints labeled R1, R2, R3, R4, R5, and R6. In other embodiments, robotic arm 506 may include fewer or additional joints. Additionally, in some embodiments, at least some of the joints R1-R6 have +/-360° rotational movement capability. The rotational motion may be provided by an electromechanical subsystem that includes, for each joint, an electric motor configured to drive the mechanical rotational joint through one or more anti-backlash joint gearboxes. Each of joints R1-R6 may include one or more rotation sensors that detect joint position. Additionally, each joint may include a slip clutch and/or an electromechanical brake.

ジョイントR1~R6のそれぞれは、1ミリメートル(「mm」)の約+/-1/10の運動の全体再現性を有し得る(カメラ300が取り付けられた状態で)。ジョイントは、毎秒0.5°~180°に制御することができる可変回転速度を有しであり得る。これは一緒に、毎秒1mm~毎秒1mのカメラ移動に置き換えられる。幾つかの実施形態では、立体視ロボットプラットフォーム516は、外科処置中、所定位置にあるジョイントR1~R6の1つ又は複数の速度ガバナーを有し得る。ジョイントR1~R6のそれぞれは、電源及び/又はロボットアーム506のコントローラ内のコマンド線に電気的に接続し得る。電力及びコマンド信号のワイヤは、ジョイント及びリンク内部で配線し得る。さらに、ジョイントの1つ又は複数は、リンクに接続するためのOリング等の抑制装置を含み得る。抑制装置は、例えば、ロボットアーム506における振動、カート510からの振動、及び/又は立体視覚化カメラ300を介して付与される振動を低減又は吸収し得る。 Each of joints R1-R6 may have an overall repeatability of motion of approximately +/-1/10 of a millimeter ("mm") (with camera 300 attached). The joint may have a variable rotation speed that can be controlled from 0.5° to 180° per second. This together translates into a camera movement of 1 mm/sec to 1 m/sec. In some embodiments, stereoscopic robotic platform 516 may have one or more velocity governors of joints R1-R6 in place during a surgical procedure. Each of joints R1-R6 may be electrically connected to a power source and/or a command line within a controller of robot arm 506. Power and command signal wires may be routed within the joints and links. Additionally, one or more of the joints may include a restraining device, such as an O-ring, for connecting to the link. The suppression device may, for example, reduce or absorb vibrations in the robot arm 506, vibrations from the cart 510, and/or vibrations applied via the stereoscopic visualization camera 300.

ジョイントR1は、フランジ3402に機械的に結合されるベースジョイントを含み、フランジ3402は静止構造3404に固定される。フランジ3402は任意のタイプの機械的コネクタを含み得る。静止構造3404は、例えば、図5のカート510、壁、天井、テーブル等を含み得る。ジョイントR1は、z軸を含み得る第1の軸3410の回りを回転するように構成される。 Joint R1 includes a base joint that is mechanically coupled to a flange 3402, which is fixed to a stationary structure 3404. Flange 3402 may include any type of mechanical connector. Stationary structure 3404 may include, for example, cart 510 of FIG. 5, a wall, a ceiling, a table, etc. Joint R1 is configured to rotate about a first axis 3410, which may include the z-axis.

ジョイントR1は、リンク3430を介してジョイントR2に接続される。一例のリンク3430は、ロボットアーム506の下流セクションに構造的支持を提供するように構成された円筒体又は他の管状構造を含む。リンク3430は、ジョイントR2との回転固定接続を提供して、リンク3430がジョイントRへの接続により所定位置に保持されている間、ジョイントR2を回転できるようにするよう構成される。ジョイントR2は、例えば、軸3412の回りを回転するように構成されたショルダジョイントを含み得る。一例の軸3412は、軸3410に垂直(又は略垂直)であるように構成される。軸3412は、z軸の回りのジョイントR1の回転を所与として、x-y平面内にあるように構成される。 Joint R1 is connected to joint R2 via link 3430. An example link 3430 includes a cylindrical body or other tubular structure configured to provide structural support to a downstream section of robotic arm 506. Link 3430 is configured to provide a rotationally fixed connection with joint R2, allowing joint R2 to rotate while link 3430 is held in place by its connection to joint R. Joint R2 may include, for example, a shoulder joint configured to rotate about axis 3412. An example axis 3412 is configured to be perpendicular (or substantially perpendicular) to axis 3410. Axis 3412 is configured to lie in the xy plane, given the rotation of joint R1 about the z-axis.

ジョイントR2は、リンク3432を介してジョイントR3に機械的に結合される。リンク3432は、リンク3430よりも長い長さを有するように構成され、ロボットアーム506の下流部分に構造的支持を提供するように構成される。ジョイントR3は、例えば、エルボジョイントを含み得る。ジョイントR2と一緒に、ジョイントR3は、ロボットアーム506の拡張可能な位置決め及び/又は向き決めを提供する。ジョイントR3は、軸3414の回りを回転するように構成され、軸3414は軸3410に垂直又は直交し、軸3412に平行する。 Joint R2 is mechanically coupled to joint R3 via link 3432. Link 3432 is configured to have a longer length than link 3430 and is configured to provide structural support to a downstream portion of robotic arm 506. Joint R3 may include, for example, an elbow joint. Joint R3, together with joint R2, provides extendable positioning and/or orientation of robot arm 506. Joint R3 is configured to rotate about an axis 3414 that is perpendicular or orthogonal to axis 3410 and parallel to axis 3412.

ジョイントR3はリンク3434を介してジョイントR4に接続され、リンク3434はロボットアーム506の下流部分に構造的支持を提供する。一例のジョイントR4は、例えば、軸3416の回りの回転を提供するように構成された第1のリストジョイントであり得、軸3416は軸3412及び3414に直交し得る。ジョイントR4はリンク3436を介してジョイントR5に機械的に接続される。ジョイントR5は、軸3416に直交する軸3418の回りの回転を提供するよう構成された第2のリストジョイントであり得る。ジョイントR5はリンク3438を介してジョイントR6に機械的に接続される。ジョイントR6は、軸3418に直交する軸3420の回りで回転するように構成された第3のリストジョイントであり得る。リストジョイントR4~R6は一緒に、本明細書に記載される立体視覚化カメラ300を位置決めするに当たり精密な柔軟性を提供する。 Joint R3 is connected to joint R4 via link 3434, which provides structural support to the downstream portion of robot arm 506. An example joint R4 can be, for example, a first wrist joint configured to provide rotation about an axis 3416, which can be orthogonal to axes 3412 and 3414. Joint R4 is mechanically connected to joint R5 via link 3436. Joint R5 may be a second wrist joint configured to provide rotation about axis 3418 orthogonal to axis 3416. Joint R5 is mechanically connected to joint R6 via link 3438. Joint R6 may be a third wrist joint configured to rotate about an axis 3420 that is perpendicular to axis 3418. Wrist joints R4-R6 together provide precision flexibility in positioning the stereoscopic visualization camera 300 described herein.

一例のロボットアーム506はコネクタ3450を含む。一例のコネクタ3450はリンク3440を介してジョイントR6に接続される。幾つかの実施形態では、一例のリンク3440は、ジョイントR6がコネクタ3450を回転できるようにするスリーブを含み得る。本明細書に考察するように、コネクタ3450は、結合板3304又は結合板が使用されない場合には立体視覚化カメラ300に直接、機械的に結合するように構成し得る。コネクタ3450は、ロボットアーム506を結合板3304及び/又は立体視覚化カメラ300に固定する1つ又は複数のねじを含み得る。 The example robot arm 506 includes a connector 3450. An example connector 3450 is connected to joint R6 via link 3440. In some embodiments, example link 3440 may include a sleeve that allows joint R6 to rotate connector 3450. As discussed herein, connector 3450 may be configured to mechanically couple directly to coupling plate 3304 or stereoscopic visualization camera 300 if a coupling plate is not used. Connector 3450 may include one or more screws that secure robot arm 506 to coupling plate 3304 and/or stereoscopic visualization camera 300.

幾つかの実施形態では、示される例のロボットアーム506は、人間の腕と大凡同様の向きで最大リーチ85mmを有し得る。アーム506は積載量5キログラムを有し得る。さらに、アーム506は、人間の近傍で安全な動作を可能にする「協働」デバイスとして構成し得る。例えば、ロボットアーム506が外面に対して及ぼすことができる最大力は制御される。万が一、ロボットアームの一部が別の物体に不意に接触した場合、衝突が検出され、運動は瞬時に停止する。例えば、停電という緊急停止状況中、ジョイントR1~R6は、バックドライブすることができ、又はオペレータがロボットシステムの部分を掴み、邪魔にならない所にスイングするように手動で回転することができる。例えば、ジョイント内のスリップクランチは、動作中、ジョイントモータがアーム506に回転適用することができる最大トルクを制限する。電源がオフになると、手動操作される場合、ジョイントのスリップクラッチはスリップして、オペレータがロボットアーム506を邪魔にならない所に素早く移動させられるようにする。 In some embodiments, the example robotic arm 506 shown may have a maximum reach of 85 mm with an orientation roughly similar to a human arm. Arm 506 may have a payload of 5 kilograms. Additionally, arm 506 may be configured as a "cooperative" device that allows for safe operation in the vicinity of a human. For example, the maximum force that robot arm 506 can exert on an external surface is controlled. If a part of the robot arm accidentally comes into contact with another object, the collision will be detected and the movement will stop instantly. For example, during an emergency shutdown situation such as a power outage, joints R1-R6 can be backdriven or manually rotated such that an operator grabs a portion of the robotic system and swings it out of the way. For example, a slip crunch in the joint limits the maximum torque that the joint motor can rotationally apply to arm 506 during operation. When powered off, the joint's slip clutch slips when manually operated, allowing the operator to quickly move the robot arm 506 out of the way.

図35~図40は、本開示の実施形態例による、ロボットアーム506及び立体視覚化カメラ300の構成例を示す。図35は、フランジ3402を介してカート510に接続されたロボットアーム506の図を示す。この例では、立体視覚化カメラ300はコネクタ3540に直接接続される。この実施形態では、コネクタ3540及び/又は立体視覚化カメラ300は、オペレータにより立体視覚化カメラ300に付与された並進及び/又は回転の力/運動を検知する図33のセンサ3306を含み得る。コネクタ3540がセンサ3306を含む場合、力/運動出力データはロボットアーム506を介してコントローラに送信し得る。例えば、センサ3306が立体視覚化カメラ300に配置される場合、出力データは制御データと共に別個のコントローラに送信し得る。幾つかの実施形態では、コントローラはカート510内に提供されてもよく、又はサーバに別個に提供されてもよい。 35-40 illustrate example configurations of a robotic arm 506 and stereoscopic visualization camera 300, according to example embodiments of the present disclosure. FIG. 35 shows a view of robotic arm 506 connected to cart 510 via flange 3402. In this example, stereoscopic visualization camera 300 is connected directly to connector 3540. In this embodiment, connector 3540 and/or stereoscopic visualization camera 300 may include sensor 3306 of FIG. 33 that senses translational and/or rotational forces/motions applied to stereoscopic visualization camera 300 by an operator. If connector 3540 includes sensor 3306, force/movement output data may be sent to controller via robot arm 506. For example, if sensor 3306 is placed on stereoscopic visualization camera 300, the output data may be sent to a separate controller along with control data. In some embodiments, the controller may be provided within the cart 510 or separately on the server.

図36は、ロボットアーム506がフランジ3402を介して天井板3404に搭載される実施形態を示す。ロボットアームは、手術室の天井から懸架されて、床空間の混雑を低減し得る。ロボットアーム506は、ジョイントを含め、上方に位置決めされ、手術活動が実行されるエリアから、外科医及び手術室スタッフの邪魔にならない所にトラバースすることができ、ディスプレイモニタ512及び514のクリアビューを提供しながら、それでもなおカメラ300の機能的な位置決め及び/又は向き決めを提供する。 FIG. 36 shows an embodiment in which a robot arm 506 is mounted to a ceiling plate 3404 via a flange 3402. The robotic arm may be suspended from the ceiling of the operating room to reduce floor space crowding. Robotic arm 506 is positioned above, including the joints, and can traverse out of the way of the surgeon and operating room staff from the area where surgical activities are performed and provides a clear view of display monitors 512 and 514. while still providing functional positioning and/or orientation of camera 300.

図37は結合板3304の実施形態を示す。図示の例では、結合板3304の第1の端部3702はロボットアーム506のコネクタ3450に接続される。結合板3304の第2の端部3704は立体視覚化カメラ300に接続される。一例の結合板3304は、立体視覚化カメラ300を移動させる追加の自由度を提供するように構成される。結合板3304はまた、ロボットアーム506の最大リーチを拡張する。結合板3304は10cm~100cmの長さを有し得る。 FIG. 37 shows an embodiment of a bonding plate 3304. In the illustrated example, first end 3702 of coupling plate 3304 is connected to connector 3450 of robot arm 506. A second end 3704 of coupling plate 3304 is connected to stereoscopic visualization camera 300. The example coupling plate 3304 is configured to provide additional degrees of freedom to move the stereoscopic visualization camera 300. The coupling plate 3304 also extends the maximum reach of the robot arm 506. Bonding plate 3304 can have a length of 10 cm to 100 cm.

結合板3304は1つ又は複数のジョイントを含み得る。図示の例では、結合板3304はジョイントR7、R8、及びR9を含む。一例のジョイントは、各軸の回りの回転を提供する機械的ジョイントである。ジョイントR7~R9は、オペレータがリリースボタン又はレバーを作動させた後、移動可能な回転可能ラッチ機構を含み得る。各ジョイントR7~R9は、それ自体のリリースボタンを有してもよく、又は1つのボタンがジョイントR7~R9のそれぞれをリリースしてもよい。 Bonding plate 3304 may include one or more joints. In the illustrated example, coupling plate 3304 includes joints R7, R8, and R9. One example joint is a mechanical joint that provides rotation about each axis. Joints R7-R9 may include rotatable latching mechanisms that are movable after an operator actuates a release button or lever. Each joint R7-R9 may have its own release button, or one button may release each of joints R7-R9.

ジョイントR7~R9は、各リンクを介して一緒に接続し得る。加えて、リンク3718は、ロボットアーム506のコネクタ3450への接続を提供する。ジョイントR7は軸3710の回りを回転するように構成され、一方、ジョイントR8は軸3712の回りを回転するように構成され、ジョイントR9は軸3714の回りを回転するように構成される。軸3710及び3714は互いに平行し、軸3712に直交する。ジョイントR7及びR9は、+/-360°回転を提供するように構成し得る。他の例では、ジョイントR7及びR9は各軸3710及び3714の回りの+/-90°、+/-180°回転、又は+/-270°回転を提供し得る。ジョイントR8は、軸3712の回りの+/-90°回転を提供し得る。幾つかの例では、ジョイントR8は+90°、0°、及び-90°のみに設定し得る。 Joints R7-R9 may be connected together via respective links. Additionally, link 3718 provides a connection to connector 3450 of robot arm 506. Joint R7 is configured to rotate about axis 3710, while joint R8 is configured to rotate about axis 3712, and joint R9 is configured to rotate about axis 3714. Axes 3710 and 3714 are parallel to each other and perpendicular to axis 3712. Joints R7 and R9 may be configured to provide +/-360° rotation. In other examples, joints R7 and R9 may provide +/-90°, +/-180° rotation, or +/-270° rotation about the respective axes 3710 and 3714. Joint R8 may provide +/-90° rotation about axis 3712. In some examples, joint R8 may only be set to +90°, 0°, and -90°.

幾つかの実施形態では、ジョイントR7~R9は、連続移動を提供するモータを含み得る。ジョイントR7~R9は、回転位置又は示すデータを通信又は提供するスイッチ又は位置センサ等の制御デバイスを含むこともできる。このようにして、ジョイントR7~R9は、ロボットアーム506のジョイントR1~R6と同様であり得、補助付き移動及びフィードバック制御のための位置検知を提供する。ジョイントR7~R9の電力及び制御は、ロボットアーム506を通して配線されるワイヤ、コネクタ3450内の電力/ワイヤコネクタ、及び/又はロボットアーム506外部のワイヤを介して提供し得る。 In some embodiments, joints R7-R9 may include motors that provide continuous movement. Joints R7-R9 may also include control devices such as switches or position sensors that communicate or provide rotational position or indicative data. In this manner, joints R7-R9 may be similar to joints R1-R6 of robot arm 506, providing position sensing for assisted movement and feedback control. Power and control for joints R7-R9 may be provided via wires routed through robot arm 506, a power/wire connector within connector 3450, and/or wires external to robot arm 506.

図37は、光軸3720がz軸に沿って提供されるように、立体視覚化カメラ300が水平向きに位置決めされる一例を示す。水平向きは、横たわった患者の撮像に使用し得る。これとは対照的に、図38は、ジョイントR8が90°回転して、光軸3720がx軸又はx軸に直交するy軸に沿って提供されるようにカメラ300を垂直向きに位置決めする実施形態を示す。垂直向きは、座っている患者の撮像に使用し得る。ジョイントR8が立体視覚化カメラ300を処置に基づいて水平位置と垂直位置との間で素早く向き変更できるようにすることを理解されたい。 FIG. 37 shows an example in which stereoscopic visualization camera 300 is positioned horizontally such that optical axis 3720 is provided along the z-axis. Horizontal orientation may be used for imaging a lying patient. In contrast, FIG. 38 shows joint R8 rotated 90° to position camera 300 in a vertical orientation such that optical axis 3720 is provided along the x-axis or the y-axis orthogonal to the x-axis. An embodiment is shown. Vertical orientation may be used for imaging seated patients. It should be appreciated that joint R8 allows stereoscopic visualization camera 300 to be quickly reoriented between horizontal and vertical positions based on the procedure.

図36及び図37に示される例では、一例のセンサ3306は、例えば、ロボットアームのコネクタ3450(結合板3304トの接続)及び/又は結合板の第1の端部3702(コネクタ3450との接続における)に配置し得る。代替又は追加として、一例のセンサ3306は、例えば、結合板の第2の端部3704(カメラ300との接続において)及び/又は結合板3304の第2の端部3704との接続においてカメラ300に配置し得る。 In the examples shown in FIGS. 36 and 37, the example sensor 3306 may be connected to, for example, the connector 3450 of the robot arm (connection to the coupling plate 3304) and/or the first end 3702 of the coupling plate (connection to the connector 3450). ). Alternatively or additionally, the example sensor 3306 may be connected to the second end 3704 of the bonding plate (in connection with the camera 300) and/or to the camera 300 in connection with the second end 3704 of the bonding plate 3304, for example. can be placed.

図39及び図40は、水平向きであり、ジョイントR9の軸3714の回りを+90°回転した立体視覚化カメラ300を示す。図40は、水平向きであり、ジョイントR9の軸3714の回りを-90°回転した一例の立体視覚化カメラ300を示す。 39 and 40 show the stereoscopic visualization camera 300 in a horizontal orientation and rotated +90° about the axis 3714 of joint R9. FIG. 40 shows an example stereoscopic visualization camera 300 oriented horizontally and rotated −90° about axis 3714 of joint R9.

図34~図40に示されるように、一例のロボットアーム506は、立体視覚化カメラ300に支持を提供し、カメラの光軸の精密な位置決め及び/又は向き決め及び照準合わせを可能にするように構成される。立体視覚化カメラ300は接眼レンズを有さず、外科医の目に向けられる必要はないため、従来は実際的ではなかった、その撮像に望ましい多くの位置及び/又は向きを達成し得る。外科医は、接眼レンズへの外科医の向きに最適ではなくむしろ、処置に最適なビューで実行することができる。 As shown in FIGS. 34-40, an example robotic arm 506 is configured to provide support for the stereoscopic visualization camera 300 and to enable precise positioning and/or orientation and aiming of the optical axis of the camera. It is composed of Because the stereoscopic visualization camera 300 does not have an eyepiece and does not need to be aimed at the surgeon's eyes, it can achieve many positions and/or orientations desirable for its imaging that were previously impractical. The surgeon can perform the procedure in a view that is not optimal due to the surgeon's orientation to the eyepiece, but rather the optimal view for the procedure.

一例のロボットアーム506は、立体視覚化カメラ300と併用される場合、外科医が、曲がり角及び容易には見えない他のロケーションを見られるようにする。ロボットアーム506はまた、仰向け、俯せ、座位、半座位等を含め、患者を異なる位置に配置できるようにもする。したがって、ロボットアーム506は、患者を特定処置に最もよい位置に配置できるようにする。一例のロボットアーム506は、立体視覚化カメラ300と併用される場合、最も妨げのない位置に設置することができる。したがって、アーム506及びカメラ300は、邪魔にならないように好都合に配置され向き決めされながら、見えるロケーション及び向きについて外科医に多くの可能性を提供する。 The example robotic arm 506, when used in conjunction with the stereoscopic visualization camera 300, allows the surgeon to see corners and other locations that are not easily visible. Robotic arm 506 also allows the patient to be placed in different positions, including supine, prone, sitting, semi-sitting, and the like. Robotic arm 506 thus allows the patient to be placed in the best position for a particular procedure. An example robotic arm 506 can be placed in the most unobstructed position when used in conjunction with the stereoscopic visualization camera 300. Thus, arm 506 and camera 300 are conveniently placed and oriented out of the way, while providing the surgeon with many possibilities for viewing location and orientation.

ロボットアーム506及び/又は結合板3304のリンク及びジョイントの配置は、一般的に電動化された自由度6(又は9)と共に、リンク及びジョイント構成がカメラの姿勢に対して独特ではない状態で、カメラ300を所望通りに位置決めできるようにする。より詳細に後述するように、アーム506及び/又は板3304のジョイント及びリンクは、カメラ300の姿勢又はFOVを変えずに、手動で再位置決め且つ/又は再向き決めし得る。この構成により、例えば、カメラ300を通しての手術部位のビューを変えずに、遮蔽視線から出るようにエルボジョイントを移動させることができる。さらに、制御システムは、カメラ300のロケーション及び姿勢を特定し、例えば、人員又はディスプレイの遮蔽を回避するようにロボットアーム506の代替の位置及び/又は向きを計算し表示することができる。表示された画像を反転、転回、又は他の方法で向き変更させる画像プロセッサの能力と共に、結合板3304の種々の位置及び/又は向きの使用により、ロボットアーム506の更に多くの位置及び/又は向きが可能になる。 The arrangement of the links and joints of the robot arm 506 and/or coupling plate 3304 is typically motorized with six (or nine) degrees of freedom, with the link and joint configuration not unique to the camera pose. To enable a camera 300 to be positioned as desired. As discussed in more detail below, the joints and links of arm 506 and/or plate 3304 may be manually repositioned and/or reoriented without changing the pose or FOV of camera 300. This configuration allows, for example, to move the elbow joint out of the occluded line of sight without changing the view of the surgical site through camera 300. Additionally, the control system can identify the location and orientation of camera 300 and calculate and display alternative positions and/or orientations of robotic arm 506 to avoid occlusion of personnel or displays, for example. The use of various positions and/or orientations of the coupling plate 3304, along with the image processor's ability to flip, rotate, or otherwise reorient the displayed image, allows for even more positions and/or orientations of the robot arm 506. becomes possible.

ジョイント特異点が任意の一般的な移動で回避されるように、ロボットアーム506及び/又は結合板3304は一般に配置され、ジョイントは位置決めされる。ジョイント特異点の回避は、ヒステリシス及びバックラッシュのよりよいロボット制御を提供する。さらに、ロボットアーム506及び/又は結合板3304のリンク及びジョイントの長さ及び構成は、略あらゆる所望の運動パスに沿ったスムーズな移動を提供する。例えば、ロボットアーム506の再位置決め及び/又は再向き決めにより、焦点を変えずに手術部位内の標的点のカメラ300ビューの方向を変えることができ、それにより、外科医が異なる方向/向きから同じ標的点を見られるようにする。別の例では、ロボットアーム506は、カメラ300を視線に沿って標的点に向けて又は標的点から離れて並進させることにより、焦点を変えずに標的点までの作業距離を変更することが可能である。立体視ロボットプラットフォーム516の立体視覚化カメラ300と共にロボットアーム506及び/又は結合板3304を使用して多くの同様の運動パスを所望通りに達成可能である。 Robot arm 506 and/or coupling plate 3304 are generally positioned and joints are positioned such that joint singularities are avoided with any general movement. Avoiding joint singularities provides better robot control of hysteresis and backlash. Additionally, the length and configuration of the links and joints of the robot arm 506 and/or coupling plate 3304 provide smooth movement along substantially any desired motion path. For example, repositioning and/or reorienting the robotic arm 506 may change the direction of the camera 300 view of a target point within the surgical site without changing focus, thereby allowing the surgeon to view the same point from a different direction/orientation. Make the target point visible. In another example, the robotic arm 506 can change the working distance to the target point without changing focus by translating the camera 300 along the line of sight toward or away from the target point. It is. Many similar motion paths can be achieved as desired using the robot arm 506 and/or coupling plate 3304 in conjunction with the stereoscopic visualization camera 300 of the stereoscopic robot platform 516.

B.ロボット制御実施形態
図34~図40の一例のロボットアーム506及び/又は結合板3304は、1つ又は複数のコントローラにより制御し得る。図41は、本開示の実施形態例による、図3~図40の立体視ロボットプラットフォーム516の実施形態を示す。一例の立体視ロボットプラットフォーム516は、立体視覚化カメラ300と、図14及び図15と併せて説明した対応する画像捕捉モジュール1404及びモータ及び照明モジュール1406とを含む。
B. Robot Control Embodiment The example robot arm 506 and/or coupling plate 3304 of FIGS. 34-40 may be controlled by one or more controllers. FIG. 41 illustrates an embodiment of the stereoscopic robot platform 516 of FIGS. 3-40, according to example embodiments of the present disclosure. An example stereoscopic robot platform 516 includes a stereoscopic visualization camera 300 and corresponding image capture module 1404 and motor and lighting module 1406 described in conjunction with FIGS. 14 and 15.

図示の実施形態では、立体視ロボットプラットフォーム516は、立体視覚化カメラ300からリモートに配置されるサーバ又はプロセッサ4102を含む。プロセッサ4102は、例えば、プロセッサ4102により実行されると、プロセッサ4102に本明細書に記載される動作を実行させるメモリ1570に記憶された命令により定義される1つ又は複数のソフトウェアプログラムが構成されたラップトップコンピュータ、ワークステーション、デスクトップコンピュータ、タブレットコンピュータ、スマートフォン等を含み得る。この例では、一例のプロセッサ4102は、図14~図16の情報プロセッサモジュール1408、画像センサコントローラ1502、及び/又はモータ・照明コントローラ1520を含む(又はこれ(ら)に関連して説明された動作を実行する)ように構成される。 In the illustrated embodiment, the stereoscopic robot platform 516 includes a server or processor 4102 that is located remotely from the stereoscopic visualization camera 300. Processor 4102 is configured with one or more software programs defined, for example, by instructions stored in memory 1570 that, when executed by processor 4102, cause processor 4102 to perform the operations described herein. May include laptop computers, workstations, desktop computers, tablet computers, smartphones, etc. In this example, the example processor 4102 includes (or operates as described in connection with) the information processor module 1408, the image sensor controller 1502, and/or the motor and lighting controller 1520 of FIGS. 14-16. configured to run).

幾つかの例では、画像センサコントローラ1502及び/又はモータ・照明コントローラ1520の動作の少なくとも幾つかは、画像捕捉モジュール1404並びにモータ及び照明モジュール1406とそれぞれ共有し得る。例えば、プロセッサ4102は、フォーカス、倍率、及び/又は作業距離を変更するコマンドを生成し得、モータ・照明コントローラ1520の第1の部分並びにモータ及び照明モジュール1406内のモータ・照明コントローラ1520の第2の部分を介して、駆動装置1534~1552を制御する。追加又は代替として、プロセッサ4102に動作可能に配置される情報プロセッサモジュール1408の第1の部分は、個々の左/右画像及び/又は立体画像を画像捕捉モジュール1404内の情報プロセッサモジュール1408の第2の部分から受信するように構成される。情報プロセッサモジュール1408の第1の部分は、画像をグラフィカルガイドライン/テキスト、MRI機、X線、又は他の撮像デバイスからの画像オーバーレイ、及び/又は蛍光画像と視覚的に融合することを含め、1つ又は複数のディスプレイモニタ512及び/又は514に表示するように画像を処理するように構成し得る。 In some examples, at least some of the operations of image sensor controller 1502 and/or motor and lighting controller 1520 may be shared with image capture module 1404 and motor and lighting module 1406, respectively. For example, processor 4102 may generate commands to change focus, magnification, and/or working distance in a first portion of motor and lighting controller 1520 and a second portion of motor and lighting controller 1520 in motor and lighting module 1406. The drive devices 1534 to 1552 are controlled through the section . Additionally or alternatively, a first portion of the information processor module 1408 operably disposed in the processor 4102 may capture individual left/right images and/or stereoscopic images from a second portion of the information processor module 1408 within the image capture module 1404. is configured to receive data from the A first portion of the information processor module 1408 includes 1 Images may be configured to be processed for display on one or more display monitors 512 and/or 514.

プロセッサ4102は、ワイヤハーネス4102を介して立体視覚化カメラ300の画像捕捉モジュール1404並びにモータ及び照明モジュール1406に電気的且つ/又は通信可能に結合される。幾つかの実施形態では、ワイヤハーネス4102は、ロボットアーム内部にあってもよく、又はロボットアームを通して配線されてもよい。他の実施形態では、ワイヤハーネス4102は内部にあってもよく、又はロボットアームを通して配線されてもよい。更に他の実施形態では、画像捕捉モジュール1404並びにモータ及び照明モジュール1406は、例えば、Bluetooth(登録商標)を介してプロセッサ4102と無線通信し得る。 Processor 4102 is electrically and/or communicatively coupled to image capture module 1404 and motor and lighting module 1406 of stereoscopic visualization camera 300 via wiring harness 4102 . In some embodiments, the wire harness 4102 may be within or routed through the robot arm. In other embodiments, the wire harness 4102 may be internal or routed through the robot arm. In yet other embodiments, image capture module 1404 and motor and lighting module 1406 may wirelessly communicate with processor 4102 via Bluetooth®, for example.

一例のプロセッサ4102はまた、ワイヤハーネス4102を介してセンサ3306に電気的且つ/又は通信可能に結合される。プロセッサ4102は、例えば、センサ3306から回転出力データ及び/又は並進出力データを受信するように構成される。データは、デジタルデータ及び/又はアナログ信号を含み得る。幾つかの実施形態では、プロセッサ4102は、検出された力及び/又は運動を示す出力データの略連続ストリームをセンサ3306から受信する。他の例では、プロセッサ4102は、定期的なサンプリング間隔で出力データを受信する。更に他の例では、プロセッサ4102は、出力データを要求する要求メッセージを定期的に送信する。 The example processor 4102 is also electrically and/or communicatively coupled to the sensor 3306 via the wiring harness 4102. Processor 4102 is configured to receive rotational output data and/or translational output data from sensor 3306, for example. The data may include digital data and/or analog signals. In some embodiments, processor 4102 receives a substantially continuous stream of output data from sensor 3306 indicative of detected force and/or motion. In other examples, processor 4102 receives output data at regular sampling intervals. In yet another example, processor 4102 periodically sends a request message requesting output data.

図示の例では、プロセッサ4102は、ディスプレイモニタ512、入力デバイス1410a、1410b、及び他のデバイス/システム4104(例えば、X線機械、コンピュータ断層撮影(「CT」)機械、磁気共鳴撮像(「MRI」)機械等の医療撮像デバイス、カメラ、画像又は手術ガイダンスを記憶するワークステーション等)の少なくとも1つに通信可能に更に結合される。入力デバイス1410aはタッチスクリーンデバイスを含み得、入力デバイス1410bはフットスイッチを含み得る。タッチスクリーン入力デバイス1410aは、ディスプレイモニタ512と統合してもよく、且つ/又は例えば図5のカート510における別個のデバイスとして提供されてよい。一例のディスプレイモニタ512は、立体視覚化カメラ300により記録された標的手術部位の立体ビデオ(又は別個の二次元左右ビデオ)を含む1つ又は複数のユーザインターフェースを表示するように構成される。 In the illustrated example, the processor 4102 includes a display monitor 512, input devices 1410a, 1410b, and other devices/systems 4104 (e.g., an X-ray machine, a computed tomography ("CT") machine, a magnetic resonance imaging ("MRI") ) a medical imaging device such as a machine, a camera, a workstation storing images or surgical guidance, etc.). Input device 1410a may include a touch screen device and input device 1410b may include a footswitch. Touch screen input device 1410a may be integrated with display monitor 512 and/or may be provided as a separate device in cart 510 of FIG. 5, for example. An example display monitor 512 is configured to display one or more user interfaces that include stereoscopic video (or separate two-dimensional left and right videos) of the target surgical site recorded by stereoscopic visualization camera 300.

タッチスクリーン入力デバイス1410aは、立体視覚化カメラ300、結合板3304、及び/又はロボットアーム506の制御に関連するユーザ入力を受信する1つ又は複数のユーザインターフェースを提供するように構成される。入力デバイス1401aは、作業距離、フォーカス、倍率、照明のソース及びレベル、フィルタ、及び/又は立体視覚化カメラ300のデジタルズームを制御する命令をオペレータが指定、設定、又は他の方法で提供できるようにするよう構成された1つ又は複数のグラフィカル制御ボタン、スライダ等を含み得る。入力デバイス1410aはまた、ディスプレイモニタ512に表示された表示立体ビデオにフォーカス且つ/又は他の方法で重ねる手術ガイダンスグラフィックス/テキスト、ビデオ、及び/又は画像をオペレータが選択できるようにする1つ又は複数の制御ボタンを含むこともできる。入力デバイス1410aはまた、オペレータ入力又は外科処置視覚化テンプレートの作成を可能にするよう構成されたユーザインターフェースを含むこともできる。入力デバイス1410aは、速度、運動、展開/格納、較正、標的ロック等の動作パラメータの制御、ビュー位置の記憶、及び/又はカメラ300の向きの変更又は新しい向きの入力を行う選択肢を含め、ロボットアーム506及び/又は結合板3304を制御する1つ又は複数の制御ボタンを更に含み得る。ロボットアーム506及び/又は結合板3304のユーザインターフェース制御は、カメラ300を移動させる制御を含み得、カメラ300を移動させる制御は個々のジョイントR1~R9のコマンドに変換される。追加又は代替として、ロボットアーム506及び/又は結合板3304のユーザインターフェース制御は、ジョイントR1~R9のそれぞれを個々に移動させる制御を含み得る。入力デバイス1410aを介して受信される入力は、処理のためにプロセッサ4102に送信される。 Touch screen input device 1410a is configured to provide one or more user interfaces for receiving user input related to controlling stereoscopic visualization camera 300, coupling plate 3304, and/or robotic arm 506. Input device 1401a allows an operator to specify, set, or otherwise provide instructions to control working distance, focus, magnification, source and level of illumination, filters, and/or digital zoom of stereoscopic visualization camera 300. may include one or more graphical control buttons, sliders, etc. configured to do so. Input device 1410a may also include one or more surgical guidance graphics/text, videos, and/or images that allow the operator to focus and/or otherwise overlay the displayed stereoscopic video displayed on display monitor 512. It may also include multiple control buttons. Input device 1410a may also include a user interface configured to allow operator input or creation of surgical procedure visualization templates. Input device 1410a may include options to control operational parameters such as speed, motion, deployment/retraction, calibration, target lock, store view position, and/or change camera 300 orientation or input new orientation. One or more control buttons may further be included to control arm 506 and/or coupling plate 3304. User interface controls for robot arm 506 and/or coupling plate 3304 may include controls for moving camera 300, which are translated into commands for individual joints R1-R9. Additionally or alternatively, user interface controls for robot arm 506 and/or coupling plate 3304 may include controls for individually moving each of joints R1-R9. Input received via input device 1410a is sent to processor 4102 for processing.

一例のフットスイッチ入力デバイス1410は、例えば、立体視覚化カメラ300、結合板3304、及び/又はロボットアーム506の位置を制御する入力を受信するように構成されたフードペダルを含み得る。例えば、フットプレート入力デバイス1410bは、x軸、y軸、及び/又はz軸に沿ってカメラ300を移動させる制御を含み得る。フットプレート入力デバイス1410bはまた、カメラ300の位置を記憶し、且つ/又は前に記憶された位置を返す制御を含むこともできる。フットプレート入力デバイス1410bは、カメラ300のフォーカス、ズーム、倍率等を変更する制御を更に含み得る。 An example footswitch input device 1410 may include, for example, a hood pedal configured to receive input to control the position of the stereoscopic visualization camera 300, the coupling plate 3304, and/or the robotic arm 506. For example, footplate input device 1410b may include controls to move camera 300 along the x-axis, y-axis, and/or z-axis. Footplate input device 1410b may also include controls to store the position of camera 300 and/or return a previously stored position. Footplate input device 1410b may further include controls to change focus, zoom, magnification, etc. of camera 300.

他の実施形態では、立体視ロボットプラットフォーム516は、ジョイスティック、マウス、又は他の同様の2D若しくは3D手動入力デバイス等の追加の入力デバイス1410及び/又は代替の入力デバイス1410を含み得る。入力デバイス1410は、X-Yパンデバイスと同様の入力を提供するように構成され、追加の自由度によりシステム運動の柔軟性が生じる。3Dマウス又は自由度6のコントローラ等の3D機能を有する入力デバイスは、柔軟で好都合な入力コマンドに適する。これらのユーザ制御デバイスの主な利点は、運動が生じている間、手術画像を容易に見ることができることである。さらに、外科医は、手術全体及び付近部位の周囲で何が起きているかを見て、例えば、カメラ300が手術スタッフ及び/又は付近の装備にぶつかることを回避することができる。 In other embodiments, the stereoscopic robot platform 516 may include additional and/or alternative input devices 1410, such as a joystick, mouse, or other similar 2D or 3D manual input device. Input device 1410 is configured to provide input similar to an XY panning device, with additional degrees of freedom resulting in flexibility of system movement. Input devices with 3D functionality, such as a 3D mouse or a controller with six degrees of freedom, are suitable for flexible and convenient input commands. The main advantage of these user-controlled devices is that surgical images can be easily viewed while motion is occurring. Additionally, the surgeon can see what is happening throughout the surgery and around the nearby site, for example, to avoid camera 300 hitting surgical staff and/or nearby equipment.

任意選択的に、入力デバイス1410は、頭部、目、又は眼鏡搭載追跡デバイス、音声認識デバイス、及び/又はジェスチャ入力デバイスを含み得る。これらのタイプの入力デバイス1410は、オペレータが滅菌グローブで何も触れる必要がないように「ハンズフリー」動作性を促進する。手術の特定の手の動きが認識され、カメラ300、結合板3304、及び/又はロボットアーム506への制御信号に変換されるジェスチャ認識制御を使用し得る。同様の機能が音声認識デバイスにより提供され、この場合、マイクロホンが「カメラを左に移動」等のオペレータからのコマンドを検知し、発話をコマンドとして認識し、それを適切なカメラ及び/又はロボット制御信号に変換する。代替の実施形態は、3Dディスプレイに対するオペレータの目の位置を特定し、表示されたシーンのどこをオペレータが見ているかに応じてビューを調整することができるように構成された目追跡デバイスを含む。 Optionally, input device 1410 may include a head-, eye-, or glasses-mounted tracking device, a voice recognition device, and/or a gesture input device. These types of input devices 1410 facilitate "hands-free" operability so that the operator does not have to touch anything with sterile gloves. Gesture recognition controls may be used in which surgical specific hand movements are recognized and translated into control signals to camera 300, coupling plate 3304, and/or robotic arm 506. Similar functionality is provided by voice recognition devices, where the microphone detects commands from an operator, such as "move camera to the left", recognizes the utterance as a command, and directs it to the appropriate camera and/or robot control. Convert to signal. Alternative embodiments include an eye tracking device configured to locate the operator's eyes relative to the 3D display and adjust the view depending on where the operator is looking in the displayed scene. .

他の実施形態は、基準系においてオペレータの頭部(例えば、オペレータの3D眼鏡に搭載された追跡可能ターゲット又は1組のターゲットを介して)及び「頭部追跡」をアクティブ化するフットスイッチの位置を追跡するように構成されたデバイスを含む。一例の追跡入力デバイスは、作動時におけるオペレータの頭部の開始位置を記憶し、次に、何らかの短い時間間隔で頭部位置を連続して検出するように構成される。追跡入力デバイスはプロセッサ4102と併せて、現在位置と開始位置との間の運動デルタベクトルを計算し、ベクトルを対応するロボットアーム又はカメラレンズ移動に変換し得る。例えば、追跡入力デバイス1410及びプロセッサ4102は、画面上の画像が左/右に移動するように、左/右頭部移動をロボットアーム移動に変換し得る。追跡入力デバイス1410及びプロセッサ4102はまた、画面上の画像が上/下に移動するように、上/下頭部移動をロボットアーム又はカメラレンズ移動に変換し、画面上の画像がズームイン/ズームアウトされるように、前/後頭部移動をロボットアーム又はカメラレンズ移動に変換することもできる。例えば、頭部回転をロボットアーム506の「標的ロック」移動に変換することにより、他の移動変換も可能である。本明細書に記載されるように、標的ロックは、幾らかの許容差内でロボットプラットフォーム516の焦点をシーン又はFOV内の同じポイントに維持し、オペレータの頭部移動に類似する方向においてロボットアーム506(ひいてはビュー)を旋回させるように構成される。 Other embodiments include positioning the operator's head in the frame of reference (e.g., via a trackable target or set of targets mounted on the operator's 3D glasses) and a footswitch that activates "head tracking." including devices configured to track. One example tracking input device is configured to store the starting position of the operator's head during actuation and then continuously detect the head position at some short time interval. The tracking input device, in conjunction with the processor 4102, may calculate a motion delta vector between the current position and the starting position and convert the vector into a corresponding robot arm or camera lens movement. For example, tracking input device 1410 and processor 4102 may convert left/right head movements into robot arm movements such that an image on the screen moves left/right. Tracking input device 1410 and processor 4102 also convert up/down head movements into robot arm or camera lens movements such that the image on the screen moves up/down, and the image on the screen zooms in/out. Forward/occipital head movements can also be translated into robot arm or camera lens movements, as shown in FIG. Other movement transformations are also possible, for example, by converting head rotation into a “target locking” movement of the robot arm 506. As described herein, the target lock maintains the focus of the robot platform 516 at the same point within the scene or FOV within some tolerance and moves the robot arm in a direction similar to operator head movement. 506 (and thus the view).

特定の外科処置前、機器及び視覚化に望ましいパスを確立する手術計画が作成される。幾つかの実施形態では、入力デバイス1410は、オペレータからの更なる入力が略ない状態で、そのような所定のパスを辿るように構成される。したがって、オペレータは、手術部位のビューが予め計画されたように自動的に変わる間、動作を継続することができる。幾つかの実施形態では、手術計画は、カメラの位置、倍率、フォーカス等に対応する1組の予め計画されたウェイポイントを含み得る。オペレータは、外科処置が進むにつれて、入力デバイス1410を作動させて、ウェイポイントを通して進めさせ得る(プロセッサ4102にロボットアーム506、結合板3304、及び/又はカメラ300を計画通りに移動させる)。 Before a particular surgical procedure, a surgical plan is created that establishes the desired path for equipment and visualization. In some embodiments, input device 1410 is configured to follow such predetermined path with substantially no further input from the operator. Thus, the operator can continue to operate while the view of the surgical site changes automatically in a pre-planned manner. In some embodiments, the surgical plan may include a set of preplanned waypoints that correspond to camera position, magnification, focus, etc. The operator may actuate input device 1410 to advance through waypoints (to cause processor 4102 to move robotic arm 506, coupling plate 3304, and/or camera 300 as planned) as the surgical procedure progresses.

図示の実施形態では、一例のセンサ3306は入力デバイスである。センサ3306は、立体視覚化カメラ300でのオペレータの運動又は力を検出し、検出された力/運動を回転及び/又は並進データに変換するように構成される。センサ3306は、ロボットアーム506がカメラ300へのオペレータの穏やかなプッシュに電子機械的に応答できるようにする自由度6触力覚検知モジュール又は光学センサ(例えば、力/トルクセンサ)等の運動予期入力デバイスを含み得る。光学センサは、与えられた力及び/又はトルクを電気信号に変換し、それにより、オペレータによる望ましい力/トルク入力を検知し、検知された線形及び/又は回転方向において提供される運動要求に変換できるようにするよう構成された電子光学デバイスを含み得る。他の実施形態では、他のセンサタイプをセンサ3306に使用し得る。例えば、センサ3306は、オペレータからの触覚要求を検知するように構成された歪ゲージ又は圧電デバイスを含み得る。 In the illustrated embodiment, example sensor 3306 is an input device. Sensor 3306 is configured to detect operator movement or force on stereoscopic visualization camera 300 and convert the detected force/movement into rotational and/or translational data. The sensor 3306 is a motion anticipator, such as a six degree of freedom tactile sensing module or an optical sensor (e.g., a force/torque sensor) that allows the robot arm 506 to electromechanically respond to gentle operator pushes on the camera 300. May include an input device. The optical sensor converts the applied force and/or torque into an electrical signal, thereby detecting the desired force/torque input by the operator and converting it into a provided motion request in the sensed linear and/or rotational direction. may include an electro-optical device configured to enable. In other embodiments, other sensor types may be used for sensor 3306. For example, sensor 3306 may include a strain gauge or piezoelectric device configured to sense tactile requests from an operator.

実施形態では、外科医は制御アーム304の1つ又は複数を保持し、又はリリースボタン(制御アーム304の一方又は両方に配置し得る)を押す。リリースボタンを作動させると、カメラ300は、オペレータが「補助付き移動」モードの開始を望むことを示すメッセージをプロセッサ4102に送信する。プロセッサ4102は、外科医がカメラ300を望む方向に穏やかに操縦できるようにロボットアーム506及び/又は結合板3304を構成する。この移動中、プロセッサ4102はロボットアーム506及び/又は結合板にカメラ300を「パワーステアリング」で移動させ、その重さを安全に支持し、どのジョイントをアクティブ化すべきであり、どのジョイントを制動すべきかを調整された様式で自動的に判断して、外科医が望む移動を達成する。 In embodiments, the surgeon holds one or more of the control arms 304 or presses a release button (which may be located on one or both of the control arms 304). Upon actuation of the release button, the camera 300 sends a message to the processor 4102 indicating that the operator desires to enter "assisted mobility" mode. Processor 4102 configures robotic arm 506 and/or coupling plate 3304 to allow the surgeon to gently maneuver camera 300 in a desired direction. During this movement, the processor 4102 "power steers" the camera 300 to the robot arm 506 and/or coupling plate to safely support its weight, determine which joints to activate, and which joints to brake. Automatically determines force in a coordinated manner to achieve the surgeon's desired movement.

図示の例では、図41の立体視ロボットプラットフォーム516は、ロボットアーム506及び/又は結合板3304を制御するように構成されたロボットアームコントローラ4106を含む。ロボットアームコントローラ4106は、プロセッサ4102からの1つ又は複数のメッセージ又は命令を、ジョイントR1~R9の任意の1つを回転させる1つ又は複数のメッセージ及び/又は信号に変換するように構成されたプロセッサ、サーバ、マイクロコントローラ、ワークステーション等を含み得る。ロボットアームコントローラ4106はまた、ロボットアーム506及び/又は結合板3304からのジョイントの位置及び/又は速度等のセンサ情報を受信し、プロセッサ4102への1つ又は複数のメッセージに変換するようにも構成される。 In the illustrated example, the stereoscopic robotic platform 516 of FIG. 41 includes a robotic arm controller 4106 configured to control the robotic arm 506 and/or the coupling plate 3304. Robot arm controller 4106 is configured to convert one or more messages or instructions from processor 4102 into one or more messages and/or signals that cause rotation of any one of joints R1-R9. May include processors, servers, microcontrollers, workstations, etc. Robot arm controller 4106 is also configured to receive sensor information, such as joint position and/or velocity, from robot arm 506 and/or coupling plate 3304 and convert it into one or more messages to processor 4102. be done.

幾つかの実施形態では、ロボットアームコントローラ4106は、プロセッサ4102とロボットアーム506との間に配置されるスタンドアロンモジュールとして構成される。他の実施形態では、ロボットアームコントローラ4106はロボットアーム506内に含まれ得る。更に他の実施形態では、ロボットアームコントローラ4106はプロセッサ4102と共に含まれ得る。 In some embodiments, robotic arm controller 4106 is configured as a standalone module disposed between processor 4102 and robotic arm 506. In other embodiments, robotic arm controller 4106 may be included within robotic arm 506. In yet other embodiments, robotic arm controller 4106 may be included with processor 4102.

一例のロボットアームコントローラ4106は、ロボットプロセッサ4122により実行可能な、メモリ4120に記憶された1つ又は複数の命令を含む。命令は、1つ又は複数のソフトウェアプログラム、アルゴリズム、及び/又はルーチンになるように構成し得る。メモリ4120は任意のタイプの揮発性メモリ又は不揮発性メモリを含み得る。一例のロボットプロセッサ4122は、プロセッサ4102に通信可能に結合され、ロボットアーム506及び/又は結合板3304の動作に関連する1つ又は複数のメッセージを受信するように構成される。一例のロボットプロセッサ4120はまた、ジョイントR1~R9の位置及び/又は速度を示す1つ又は複数のメッセージをプロセッサ4102に送信するようにも構成される。1つ又は複数のメッセージはまた、ジョイントが移動ストップに達したこと又は移動が妨げられていることを示すこともできる。 An example robot arm controller 4106 includes one or more instructions stored in memory 4120 that are executable by a robot processor 4122. The instructions may be configured into one or more software programs, algorithms, and/or routines. Memory 4120 may include any type of volatile or non-volatile memory. An example robot processor 4122 is communicatively coupled to processor 4102 and configured to receive one or more messages related to operation of robot arm 506 and/or coupling plate 3304. The example robot processor 4120 is also configured to send one or more messages to the processor 4102 indicating the positions and/or velocities of joints R1-R9. The one or more messages may also indicate that the joint has reached a movement stop or that movement is prevented.

一例のプロセッサ4120は、全てのジョイントの全ての運動が全体としてカメラ300における所望の撮像運動を生じさせるように調整されて、どのジョイントR1~R9が給電されるかを決定するように構成される。「カメラを左に移動」例では、外科医の相対視点から左にシンプル且つ滑らかに並進するようにカメラの手術画像を見えさせる幾つかのジョイントの複雑な運動があり得る。「カメラを左に移動」例では、カメラ300が結合板3304を通してロボットアーム506にいかに接続されるかに応じて、特定のジョイントへの制御信号は位置/向きに応じて劇的に異なり得ることに留意されたい。 The example processor 4120 is configured to determine which joints R1-R9 are powered such that all motions of all joints are adjusted to collectively produce the desired imaging motion in the camera 300. . In the "move camera to the left" example, there may be complex movements of several joints that make the surgical image of the camera appear to be a simple and smooth translation to the left from the surgeon's relative perspective. In the "Move Camera Left" example, depending on how the camera 300 is connected to the robot arm 506 through the coupling plate 3304, the control signals to a particular joint can vary dramatically depending on position/orientation. Please note that.

メモリ4120は、ジョイントR1~R9がジョイントの既知の位置に基づいていかに移動するかを指定する1つ又は複数の命令を含み得る。ロボットアームコントローラ4106は、命令されたカメラ移動がジョイント移動にいかに変換されるかを決定する1つ又は複数の命令を実行するように構成される。一例では、ロボットアームコントローラ4106は、立体視覚化カメラ300がz軸に沿って下方に移動し、x-y平面において側方に移動すべきであることを示すメッセージをプロセッサ4102から受信し得る。換言すれば、プロセッサ4102は、カメラ300の所望の移動に関する入力デバイス1410を介して受信される入力を示す送信する。一例のロボットアームコントローラ4106は、3次元座標における移動ベクトルを、所望の位置/向きを達成するジョイント位置移動情報に変換するように構成される。ロボットアームコントローラ4106は、所望の移動と併せてロボットアーム506及び/又は結合板3304のリンク及びジョイントの現在位置(及び/又はカメラ300の位置/向き)を特定又は考慮に入れて、移動デルタベクトルを決定し得る。加えて、ロボットアームコントローラ4106は、1つ又は複数のチェックを実行して、所望の移動により、カメラ300が、アーム506及び結合板3304と同じ座標系において定義される1つ又は複数の三次元境界により指定される制限エリアに入らない又は近づかないことを保証し得る。境界に近いエリアは、移動信号がジョイントに送信される場合、ロボットアームコントローラ4106により提供される低減されたスケーリング係数を指定し得、低減されたスケーリング係数は、ロボットアーム506が境界に近づく場合、ジョイントをよりゆっくりと移動させ、境界を越えて移動させないようにする。 Memory 4120 may include one or more instructions that specify how joints R1-R9 move based on the known positions of the joints. Robotic arm controller 4106 is configured to execute one or more instructions that determine how commanded camera movements are translated into joint movements. In one example, robotic arm controller 4106 may receive a message from processor 4102 indicating that stereoscopic visualization camera 300 should move downward along the z-axis and sideways in the xy plane. In other words, the processor 4102 transmits an input indicating the input received via the input device 1410 regarding the desired movement of the camera 300. An example robot arm controller 4106 is configured to convert movement vectors in three-dimensional coordinates into joint position movement information that achieves a desired position/orientation. The robot arm controller 4106 determines the movement delta vector by identifying or taking into account the current positions of the links and joints of the robot arm 506 and/or the coupling plate 3304 (and/or the position/orientation of the camera 300) in conjunction with the desired movement. can be determined. In addition, robot arm controller 4106 performs one or more checks to ensure that the desired movement causes camera 300 to move in one or more three dimensions defined in the same coordinate system as arm 506 and coupling plate 3304. It can be guaranteed not to enter or approach the restricted area specified by the boundary. The area near the boundary may specify a reduced scaling factor provided by the robot arm controller 4106 when a movement signal is sent to the joint, and the reduced scaling factor may be applied when the robot arm 506 approaches the boundary. Move the joint more slowly and avoid moving it beyond its boundaries.

境界チェックが実行された後、ロボットアームコントローラ4106は移動デルタ及び各ジョイントR1~R9の現在位置/向きを使用して、ジョイントの1つ又は複数を回転させて、ロボットアーム506にカメラ300を指定ロケーションに移動させるのに最適又は略最適な移動シーケンスを決定する。ロボットアームコントローラ4106は、例えば、移動デルタベクトルを満たすのに必要な最小量のジョイント移動を決定する最適化ルーチンを使用し得る。ジョイント移動量が決定された後、一例のロボットアームコントローラ4106は、1つ又は複数のメッセージ(任意のスケーリング係数を考慮に入れた回転量及び回転速度を示す)をモータコントローラ4124に送信するように構成される。ロボットアームコントローラ4106は、ロボットアーム506及び/又は結合板3304を定義又は調整されたシーケンスで移動させる一連のメッセージを送信し得る。一連のメッセージはまた、例えば、ロボットアーム506が仮想又は物理境界に近づく場合、ジョイント速度を変更させることもできる。 After the bounds check is performed, the robot arm controller 4106 uses the translation delta and the current position/orientation of each joint R1-R9 to rotate one or more of the joints to direct the robot arm 506 to the camera 300. Determining an optimal or near-optimal movement sequence to move to a location. Robot arm controller 4106 may, for example, use an optimization routine to determine the minimum amount of joint movement necessary to satisfy the movement delta vector. After the amount of joint movement is determined, the example robot arm controller 4106 may send one or more messages to the motor controller 4124 indicating the amount and speed of rotation taking into account any scaling factors. configured. Robot arm controller 4106 may send a series of messages that move robot arm 506 and/or coupling plate 3304 in a defined or coordinated sequence. The series of messages can also cause joint velocities to change, for example, when the robot arm 506 approaches a virtual or physical boundary.

一例のモータコントローラ4124は、受信したメッセージを、ジョイントR1~R9の1つ又は複数を回転させるパルス幅変調(「PWM」)信号等のアナログ信号に翻訳又は変換するように構成される。モータコントローラ4124は、例えば、適切なジョイントモータへの入力ラインを選択し得、パルス持続時間はモータが回転する時間量の制御に使用され、パルスの周波数、デューティサイクル、及び/又は振幅は回転速度の制御に使用される。モータコントローラ4124はまた、ジョイントモータ及び対応するジョイントセンサに電力を提供することもできる。 One example motor controller 4124 is configured to translate or convert the received messages into analog signals, such as pulse width modulated (“PWM”) signals that rotate one or more of joints R1-R9. The motor controller 4124 may, for example, select the input lines to the appropriate joint motor, the pulse duration used to control the amount of time the motor rotates, and the frequency, duty cycle, and/or amplitude of the pulses determined by the rotational speed. used for control. Motor controller 4124 may also provide power to the joint motors and corresponding joint sensors.

幾つかの実施形態では、ロボットアームコントローラ4106はモータコントローラ4124と併せて、ジョイントセンサ位置情報を受信又は読み取り、運動学を通してロボットジョイント及びカメラ300のロケーション及び向きを特定するように構成される。各ジョイントR1~R9は、ジョイント位置、ジョイント回転速度、及び/又はジョイント回転方向を示すデータを検出し送信する少なくとも1つのセンサを含み得る。幾つかの実施形態では、センサは位置情報のみを送信し、速度/方向は、時間の経過に伴う位置情報差に基づいてロボットアームコントローラ4106により特定される。ロボットアームコントローラ4106は、移動情報を特定するためにセンサデータをプロセッサ4102に送信し得る。 In some embodiments, the robot arm controller 4106, in conjunction with the motor controller 4124, is configured to receive or read joint sensor position information and determine the location and orientation of the robot joint and camera 300 through kinematics. Each joint R1-R9 may include at least one sensor that detects and transmits data indicative of joint position, joint rotational speed, and/or joint rotational direction. In some embodiments, the sensor only transmits position information and the velocity/direction is determined by the robot arm controller 4106 based on the difference in position information over time. Robotic arm controller 4106 may send sensor data to processor 4102 to determine movement information.

ロボットアームコントローラ4106は、プロセッサ4102から移動命令を受信し、ヤコビアン、順運動学、及び/又は逆運動学を通して、どのモータ及びジョイントをアクティブ化すべきか、速度及び距離、並びに方向を決定する。次に、ロボットアームコントローラ4106は、適切なコマンド信号をモータコントローラ4124内のモータ電力増幅器に送信して、ロボットアーム506内のジョイントモータを駆動する。 Robot arm controller 4106 receives movement instructions from processor 4102 and determines which motors and joints to activate, speed and distance, and direction through Jacobian, forward kinematics, and/or inverse kinematics. Robot arm controller 4106 then sends appropriate command signals to motor power amplifiers in motor controller 4124 to drive the joint motors in robot arm 506.

一例のロボットアーム506は、適切なモータ電力信号を受信し、それに従って移動する。アーム506におけるセンサ及びブレーキは、ロボットアームコントローラ4106から種々の動作及びフィードバック情報に対して応答する。幾つかの実施形態では、ロボットアーム506は結合板3304に機械的且つ通信可能に接続され、結合板3304は結合器ステータス及び向き情報をロボットアームコントローラ4106に送信する。 An example robotic arm 506 receives appropriate motor power signals and moves accordingly. Sensors and brakes on arm 506 are responsive to various motion and feedback information from robot arm controller 4106. In some embodiments, the robotic arm 506 is mechanically and communicatively connected to a coupling plate 3304 that transmits coupler status and orientation information to the robotic arm controller 4106.

幾つかの実施形態では、図41の一例のロボットアーム506は結合器コントローラ4130を含む。一例の結合器コントローラ4130は、ロボットプロセッサ4106を迂回し、制御情報をプロセッサ4102と結合板3304との間で制御情報を中継するように構成される。結合器コントローラ4130は、メッセージをプロセッサ4102から受信し、それに対応してジョイントR7~R9を結合板3304上で回転させ得る。結合器コントローラ4130はまた、ジョイント位置及び/又は速度に関するセンサ情報を受信し、ジョイント位置及び/又は速度を示す1つ又は複数のメッセージをプロセッサ4102に送信することもできる。これらの実施形態では、プロセッサ4102は、ロボットアーム506を制御するメッセージと、結合板3304についての別個のメッセージとを送信し得る。 In some embodiments, the example robotic arm 506 of FIG. 41 includes a coupler controller 4130. The example combiner controller 4130 is configured to bypass the robot processor 4106 and relay control information between the processor 4102 and the combiner plate 3304. Coupler controller 4130 may receive messages from processor 4102 and rotate joints R7-R9 on coupling plate 3304 in response. Coupler controller 4130 may also receive sensor information regarding joint position and/or velocity and send one or more messages to processor 4102 indicating the joint position and/or velocity. In these embodiments, processor 4102 may send messages to control robotic arm 506 and separate messages for coupling plate 3304.

幾つかの実施形態では、ロボットアームコントローラ4106は、ジョイントR7~R9がいかに動くべきかを決定するように構成される。しかしながら、結合板3304がロボットアーム506に直接、通信可能に結合されていない場合、ロボットプロセッサ4106は、プロセッサ4102を介して移動信号を結合器コントローラ4130に送信し得る。ロボットプロセッサ4106の少なくとも幾人かのオペレータがプロセッサ4102と共に配置される場合、結合器コントローラ4130は、ロボットアーム506が移動コマンド又は信号をプロセッサ4102から受信するのと併せて、移動コマンド又は信号をプロセッサ4102から受信する。 In some embodiments, robot arm controller 4106 is configured to determine how joints R7-R9 should move. However, if coupling plate 3304 is not communicatively coupled directly to robot arm 506, robot processor 4106 may send movement signals to coupler controller 4130 via processor 4102. If at least some operators of robot processor 4106 are co-located with processor 4102, combiner controller 4130 sends movement commands or signals to processor 4102 in conjunction with robot arm 506 receiving movement commands or signals from processor 4102. 4102.

図41に示される実施形態では、一例の立体視覚化カメラ300、プロセッサ4102、結合板3304、ロボットアーム506、ロボットアームコントローラ4106、及び/又は入力デバイス1410は、入力電力モジュール4140を介して電力を受信する。一例のモジュール4140は、電源(壁のコンセントからの電力等)及び/又は電力線異常によるシステム性能の妨害を回避する絶縁トランスを含む。幾つかの場合、電源は電池電源を含むことができる。 In the embodiment shown in FIG. 41, the example stereoscopic visualization camera 300, processor 4102, coupling plate 3304, robot arm 506, robot arm controller 4106, and/or input device 1410 receive power via an input power module 4140. Receive. One example module 4140 includes an isolation transformer to avoid disturbance of system performance due to power supply (such as power from a wall outlet) and/or power line anomalies. In some cases, the power source can include a battery power source.

立体視覚化プラットフォーム516はまた、電力を即時遮断するように構成された緊急停止スイッチ4142を含むこともできる。スイッチ4142は、ロボットアーム506及び/又は結合板3304への電力のみを遮断し得る。プロセッサ4106は、緊急停止スイッチ4142のアクティブ化を検出し、ジョイントブレーキを係合させて、ロボットアーム506の落下を防ぎ得る。幾つかの場合、ロボットアーム506は、電力損失を検出した後、ジョイントブレーキをアクティブ化するように構成される。幾つかの実施形態では、ロボットアーム506のジョイントR1~R6は、閾値を超える力が適用された場合、スリップし、それにより、オペレータが、緊急時、電力あり又はなしでアームを邪魔にならない所に素早く移動させられるよう構成される。 The stereoscopic visualization platform 516 may also include an emergency shut-off switch 4142 configured to immediately shut off power. Switch 4142 may only cut off power to robot arm 506 and/or coupling plate 3304. Processor 4106 may detect activation of emergency stop switch 4142 and engage the joint brake to prevent robot arm 506 from falling. In some cases, robotic arm 506 is configured to activate joint brakes after detecting power loss. In some embodiments, joints R1-R6 of the robot arm 506 slip if a force above a threshold is applied, allowing an operator to move the arm out of the way with or without power in an emergency. It is constructed so that it can be moved quickly.

幾つかの実施形態では、一例のプロセッサ4102は、ロボットアーム506、結合板3304、及び/又は立体視覚化カメラ300の1つ又は複数のグラフィカル表現を表示するように構成される。プロセッサ4102は、ロボットアーム506、結合板3304、及び/又はカメラ300の制御を提供する1つ又は複数のユーザインターフェースにグラフィカル表現を表示させ得る。プロセッサ4102は、ロボットアーム506、結合板3304、及び/又はカメラの現在位置を反映するようにグラフィカル表現を位置決めし向き決めし得る。プロセッサ4102は、例えば、ロボットアームコントローラ4106からのフィードバックメッセージを使用して、グラフィカル表現におけるどのジョイントを回転させるべきかを決定し、それにより、ディスプレイデバイスの向き及び/又は位置を変更する。幾つかの場合、プロセッサ4102は、例えば、オペレータがグラフィカル表現においてリンク、ジョイント、又はカメラ300を所望の位置に移動させることにより、グラフィカル表現を介してユーザ入力を受信するように構成される。立体視覚化カメラ300が移動する場合、プロセッサ4102は、カメラが移動したロケーションに対応する新しい座標を送信し得る。ジョイント又はリンクが移動した場合、プロセッサ4102は、ジョイントの回転及び/又はリンクの位置を示すメッセージをロボットアームコントローラ4106に送信し得る。 In some embodiments, the example processor 4102 is configured to display one or more graphical representations of the robotic arm 506, the coupling plate 3304, and/or the stereoscopic visualization camera 300. Processor 4102 may cause graphical representations to be displayed on one or more user interfaces that provide control of robotic arm 506, coupling plate 3304, and/or camera 300. Processor 4102 may position and orient the graphical representation to reflect the current position of robotic arm 506, coupling plate 3304, and/or camera. Processor 4102 uses, for example, feedback messages from robot arm controller 4106 to determine which joints in the graphical representation to rotate, thereby changing the orientation and/or position of the display device. In some cases, processor 4102 is configured to receive user input via the graphical representation, such as by an operator moving a link, joint, or camera 300 to a desired position in the graphical representation. If stereo visualization camera 300 moves, processor 4102 may send new coordinates corresponding to the location to which the camera moved. If the joint or link moves, processor 4102 may send a message to robotic arm controller 4106 indicating the rotation of the joint and/or the position of the link.

幾つかの実施形態では、プロセッサ4102は、ロボットアームコントローラ4106と併せて動作して、ロボットアーム506及び/又は結合板3304の移動に基づいて又はロボットアーム506及び/又は結合板3304の移動と協働して、カメラの1つ又は複数のレンズを調整するように動作する。例えば、ロボットアーム506が手術部位に向かって移動する場合、プロセッサ4102はロボットアームコントローラ4106と併せて動作して、立体視覚化カメラ300のレンズの1つ又は複数を移動させてフォーカスを維持することにより、作業距離又は焦点を変更する。プロセッサ4102は、ロボットアームコントローラ4106と併せて動作して、例えば、ロボットアーム506の移動により、作業距離が短くなると判断する。EPUプロセッサ4102は、ロボットアームコントローラ4106と併せて動作して、ロボットアーム506の移動により設定される新しい作業距離に基づいてレンズの新しい位置を決定する。これは、フォーカスを調整するために1つ又は複数のレンズを移動させることを含み得る。幾つかの実施形態では、プロセッサ4102は、ロボットアーム506の新しい位置に関して較正ルーチンを動作させて、例えば、疑似視差をなくすようにカメラ300に命令し得る。 In some embodiments, the processor 4102 operates in conjunction with the robot arm controller 4106 to perform operations based on or in cooperation with the movement of the robot arm 506 and/or the coupling plate 3304. and operates to adjust one or more lenses of the camera. For example, as the robotic arm 506 moves toward the surgical site, the processor 4102 operates in conjunction with the robotic arm controller 4106 to move one or more of the lenses of the stereoscopic visualization camera 300 to maintain focus. to change the working distance or focus. Processor 4102 operates in conjunction with robot arm controller 4106 to determine, for example, that movement of robot arm 506 will reduce the working distance. EPU processor 4102 operates in conjunction with robot arm controller 4106 to determine a new position of the lens based on the new working distance established by robot arm 506 movement. This may include moving one or more lenses to adjust focus. In some embodiments, processor 4102 may instruct camera 300 to run a calibration routine with respect to the new position of robotic arm 506 to eliminate pseudo-parallax, for example.

幾つかの場合、オペレータは、立体視覚化カメラ300の1つ又は複数のレンズの位置を変更しており、レンズ移動限界に達し得る。レンズの位置はカメラ300からプロセッサ4102に送信され、限界に達したと判断する。限界に達したことを検出した後、プロセッサ4102は、オペレータからの入力に基づいてロボットアーム506を移動させ(コントローラ4106を介して)、それにより、コマンドをレンズ移動からアーム移動に拡張して、所望の倍率又は標的エリアに達し得る。したがって、ロボットアームコントローラ4106と併せて動作するプロセッサ4102は、オペレータが、ロボットアームのインターフェースとカメラとの間の変更ではなく1つのみのユーザインターフェースを使用できるようにする。プロセッサ4102及び/又はコントローラ4106が任意の所定の移動限界と突き合わせて所望の移動をチェックして、移動によりカメラ300又はロボットアーム506が制限された患者又はオペレータの空間に入らないことを保証することを理解されたい。限界違反が検出される場合、プロセッサ4102はロボットアームコントローラ4106と併せて、限界を示すアラートをオペレータに表示して、ロボットアーム506が停止した理由を示し得る(タッチスクリーン入力デバイス1410a及び/又はディスプレイモニタ512に表示されるユーザインターフェースを介して)。 In some cases, the operator is changing the position of one or more lenses of the stereoscopic visualization camera 300 and a lens movement limit may be reached. The position of the lens is sent from camera 300 to processor 4102, which determines that the limit has been reached. After detecting that the limit has been reached, processor 4102 moves robot arm 506 (via controller 4106) based on input from the operator, thereby extending the command from lens movement to arm movement. A desired magnification or target area can be reached. Thus, the processor 4102 working in conjunction with the robot arm controller 4106 allows the operator to use only one user interface rather than changing between the robot arm interface and the camera. Processor 4102 and/or controller 4106 checking the desired movement against any predetermined movement limits to ensure that movement does not cause camera 300 or robotic arm 506 to enter restricted patient or operator space. I want you to understand. If a limit violation is detected, the processor 4102, in conjunction with the robot arm controller 4106, may display an alert to the operator indicating the limit and the reason why the robot arm 506 has stopped (touch screen input device 1410a and/or display). (via a user interface displayed on monitor 512).

C.ロボットアーム及び静止カメラ較正実施形態
上述したように、一例の立体視覚化カメラ300は、様々な倍率で標的手術部位の高分解能立体ビデオ画像を提供するように構成される。立体視覚化プラットフォーム516の一環として、立体視覚化カメラ300はロボットアーム506及び/又は結合板3304と併せて動作して、画像フォーカス、作業距離、倍率等を精密且つクリアに変更する。画像取得柔軟性を達成するために、立体視覚化プラットフォーム516は、1つ又は複数の較正、初期化、及び/又はリセットルーチンを動作させるように構成される。幾つかの実施形態では、立体視覚化カメラ300、ロボットアーム506、結合板3304、又はより一般的には立体視覚化プラットフォーム516は、製造中及び/又は設置後、較正される。ロボットアーム506と共にカメラ300の較正は、ロボットアーム506及びオペレータ空間に対するカメラ300の位置決め情報を提供する。幾つかの実施形態では、立体視覚化プラットフォーム516の電源投入後、カメラ300及び/又はロボットアーム506は、更なる較正/初期化を実行して、そのときのカメラ300のロケーション及び向きを測定し検証するように構成される。
C. Robotic Arm and Stationary Camera Calibration Embodiment As mentioned above, the example stereoscopic visualization camera 300 is configured to provide high-resolution stereoscopic video images of a target surgical site at various magnifications. As part of the stereoscopic visualization platform 516, the stereoscopic visualization camera 300 operates in conjunction with the robot arm 506 and/or the coupling plate 3304 to precisely and clearly change image focus, working distance, magnification, etc. To achieve image acquisition flexibility, stereoscopic visualization platform 516 is configured to run one or more calibration, initialization, and/or reset routines. In some embodiments, the stereoscopic visualization camera 300, robotic arm 506, coupling plate 3304, or more generally the stereoscopic visualization platform 516 is calibrated during manufacturing and/or after installation. Calibration of camera 300 with robot arm 506 provides positioning information for camera 300 with respect to robot arm 506 and operator space. In some embodiments, after powering up the stereoscopic visualization platform 516, the camera 300 and/or the robotic arm 506 perform further calibration/initialization to determine the current location and orientation of the camera 300. Configured to verify.

一例のプロセッサ4102は、較正からの結果(例えば較正データ)を例えば、図41のメモリ1570及び/又はメモリ4120に記憶するように構成される。較正結果は、メモリ1570及び/又は4120内の較正レジスタ及び/又はルックアップテーブル(「LUT」)に記憶し得る。記憶された較正データは、光学特性、機能特性、及び/又は性能特性を、オペレータ又はプロセッサ4102により調整可能、測定可能、且つ/又は検証可能なカメラ300、ロボットアーム506、及び/又は結合板3304の属性に関連付け又はマッピングする。例えば、主対物レンズ組立体702(図7の)の作業距離アクチュエータモータエンコーダ位置が、LUTにおいて作業距離にマッピングされる。別の例では、ズームレンズ組立体716の線形エンコーダに沿ったズームレンズ軸位置が、LUTにおいて倍率レベルにマッピングされる。これらの各例について、一例のプロセッサ4102は、エンコーダ特性の適正レベルを決定し、調整し、特性が指定された又は所望の作業距離及び/又は倍率を提供することを検証するように構成される。幾つかの実施形態では、LUTは複合し得、その場合、カメラ300、ロボットアーム506、及び/又は結合板3304の全ての関連する態様の全体制御について、複数の性能特性がプラットフォーム516の複数の属性にマッピングされる。 The example processor 4102 is configured to store results from the calibration (eg, calibration data), for example, in memory 1570 and/or memory 4120 of FIG. 41. Calibration results may be stored in calibration registers and/or look-up tables (“LUTs”) within memory 1570 and/or 4120. The stored calibration data provides optical, functional, and/or performance characteristics of the camera 300, robotic arm 506, and/or coupling plate 3304 that are adjustable, measurable, and/or verifiable by an operator or processor 4102. associated with or mapped to the attributes of For example, the working distance actuator motor encoder position of main objective lens assembly 702 (of FIG. 7) is mapped to the working distance in the LUT. In another example, the zoom lens axis position along the linear encoder of zoom lens assembly 716 is mapped to a magnification level in the LUT. For each of these examples, the example processor 4102 is configured to determine the appropriate level of the encoder characteristic, adjust it, and verify that the characteristic provides the specified or desired working distance and/or magnification. . In some embodiments, the LUTs may be multiple, in which multiple performance characteristics are determined by multiple performance characteristics of platform 516 for overall control of all relevant aspects of camera 300, robot arm 506, and/or coupling plate 3304. mapped to an attribute.

ロボットアーム506と一例の立体視覚化カメラ300との組合せは、ロボットアーム506の基準系に関して高度に正確な位置、方向、及び/又は向き情報を提供する。以下のセクションに、視覚的ヒントを定義するために立体視覚化カメラ300がいかに較正されるかを説明する。視覚的ヒントが決定された後、立体視覚化カメラ300はロボットアーム506及び/又は結合板3306の基準系に見当合わせされる。したがって、較正及び見当合わせ後、手術部位の立体ビューは、ロボットアーム506及び/又は結合板3304の位置、方向、及び向きの制御と組み合わせた立体視覚化カメラ300の統合制御を用いて統一される。 The combination of the robotic arm 506 and the example stereoscopic visualization camera 300 provides highly accurate position, orientation, and/or orientation information with respect to the reference frame of the robotic arm 506. The following section describes how stereoscopic visualization camera 300 is calibrated to define visual hints. After the visual cues are determined, the stereoscopic visualization camera 300 is registered to the reference frame of the robot arm 506 and/or the coupling plate 3306. Thus, after calibration and registration, a stereoscopic view of the surgical site is unified using integrated control of the stereoscopic visualization camera 300 in combination with control of the position, orientation, and orientation of the robotic arm 506 and/or the coupling plate 3304. .

幾つかの実施形態では、図41の一例のプロセッサ4102は、視覚的ヒントを含め、立体視覚化カメラ300の見当合わせをロボットアーム506の位置、方向、及び/又は向き較正と精密に統合して、規定の座標系に関して、取得された立体画像及びそれらの間の全ての点の統一された位置、方向、及び/又は向き認識を定義するように構成される。一例のプロセッサ4102は、立体視覚化カメラ300からの本質的な視覚的撮像データを使用して、ロボットアーム506の物理的な位置決め及び/又は向き決めを調整又は指示して、オペレータが望むように視覚化を提供するように構成される。加えて、プロセッサ4102により提供されるそのような指示及び調整は、フォーカス、作業距離、予め定義される位置、向き等の視覚化の好ましい特性を維持するように提供される。 In some embodiments, the example processor 4102 of FIG. 41 precisely integrates the registration of the stereoscopic visualization camera 300 with the position, direction, and/or orientation calibration of the robot arm 506, including visual cues. , configured to define a unified position, direction, and/or orientation perception of the acquired stereoscopic images and all points therebetween with respect to a defined coordinate system. The example processor 4102 uses the essential visual imaging data from the stereoscopic visualization camera 300 to adjust or direct the physical positioning and/or orientation of the robotic arm 506 as desired by the operator. Configured to provide visualization. Additionally, such instructions and adjustments provided by processor 4102 are provided to maintain desirable characteristics of the visualization, such as focus, working distance, predefined position, orientation, etc.

幾つかの実施形態では、立体視覚化カメラ300、ロボットアーム506、及び/又は結合板3304の較正は一般に、(i)立体画像に影響する、立体視覚化プラットフォーム516の機能パラメータの不正確性を特定且つ/又は測定すること、(ii)立体画像の不正確性を所望レベル以下に最小化するように立体視覚化プラットフォーム516を較正又は調整すること、(iii)互いに対する又は較正テンプレートとの立体画像のデュアルチャネルの同時比較を通して所望レベルの較正精度内で調整が行われたことを検証すること、並びに(iv)タスクの実行に立体視覚化プラットフォーム516を使用することであって、較正の精度レベルは検出可能であり、維持される、使用することを含む。 In some embodiments, the calibration of stereoscopic visualization camera 300, robotic arm 506, and/or coupling plate 3304 generally addresses (i) inaccuracies in functional parameters of stereoscopic visualization platform 516 that affect stereoscopic images; (ii) calibrating or adjusting the stereoscopic visualization platform 516 to minimize stereoscopic image inaccuracies below a desired level; (iii) stereoscopic images relative to each other or with a calibration template; (iv) using the stereoscopic visualization platform 516 to perform the task, the accuracy of the calibration being verified through simultaneous dual-channel comparison of the images; Levels are detectable and maintained, including using.

代替の実施形態では、ロボットアーム506には、ロボットアーム506のジョイント及びリンクの互いとの物理的関係を精密に較正するとともに、ロボットアーム506及び/又は初期姿勢構成とのカメラ300の視覚的ヒントの関係を較正するのに使用される1つ又は複数の固定較正基準が提供される。ロボットプラットフォーム較正基準は、ロボットアーム506を手術室等の外部環境又は外部環境内の患者若しくは標的空間と見当合わせ又は統合するのに使用することができる。固定較正基準は、ロボットアーム506の本体の外側部分への専用アタッチメント又は搭載ポイント、ジョイント、角等のロボットアーム506の既知の外部特徴の組合せを含むことができる。 In an alternative embodiment, the robot arm 506 is provided with precise calibration of the physical relationships of the joints and links of the robot arm 506 to each other, as well as visual cues of the camera 300 with the robot arm 506 and/or the initial pose configuration. One or more fixed calibration standards are provided that are used to calibrate the relationship. The robotic platform calibration reference can be used to register or integrate the robotic arm 506 with an external environment, such as an operating room, or with a patient or target space within the external environment. The fixed calibration reference may include a dedicated attachment to an external portion of the body of the robot arm 506 or a combination of known external features of the robot arm 506 such as mounting points, joints, corners, etc.

1.立体視覚化カメラの較正の実施形態
手術部位の立体ビューを一致させるために、一例のプロセッサ4102及び/又は立体視覚化カメラ300は、1つ又は複数の較正ルーチンを実行するように構成される。一例のルーチンは、プロセッサ4102により実行されると、プロセッサ4102に特定の作業距離、倍率(例えばズームレベル)、及びフォーカスレベルに対応するレンズ位置を決定させる、メモリ1570に記憶される1つ又は複数の命令により指定し得る。命令はまた、プロセッサ4102に、異なる作業距離及び/又は倍率での立体視覚化カメラ300の投影中心、立体光軸、及び/又はZRPを特定する1つ又は複数のルーチンを動作させることもできる。較正により、例えば、プロセッサ4102は、倍率及び/又は作業距離が変わった場合、標的手術部位にフォーカスした状態を保つことができる。
1. Stereo Visualization Camera Calibration Embodiments To match stereo views of a surgical site, the example processor 4102 and/or stereo visualization camera 300 are configured to perform one or more calibration routines. One example routine includes one or more routines stored in memory 1570 that, when executed by processor 4102, cause processor 4102 to determine a lens position corresponding to a particular working distance, magnification (e.g., zoom level), and focus level. It can be specified by the command. The instructions may also cause processor 4102 to operate one or more routines that identify the projection center, stereoscopic optical axis, and/or ZRP of stereoscopic visualization camera 300 at different working distances and/or magnifications. Calibration allows, for example, processor 4102 to remain focused on the target surgical site when magnification and/or working distance changes.

図42は、本開示の実施形態例による、立体視覚化カメラ300を較正する一例の手順4200又はルーチンを示す。手順4200について図42に示される流れ図を参照して説明するが、手順4200に関連するステップを実行する多くの他の方法が使用可能なことを理解されたい。例えば、ブロックの多くの順序は変更し得、特定のブロックは他のブロックと結合し得、記載されるブロックの多くは任意選択的なものである。さらに、手順4200に記載される動作は、例えば、一例の立体視覚化カメラ300の光学要素1402、画像捕捉モジュール1404、モータ及び照明モジュール1406、及び/又は情報プロセッサモジュール1408を含め、複数のデバイスの間で実行し得る。例えば、手順4200は、情報プロセッサモジュール1408のプログラム1560の1つにより実行し得る。 FIG. 42 illustrates an example procedure 4200 or routine for calibrating stereoscopic visualization camera 300, according to example embodiments of the present disclosure. Although procedure 4200 will be described with reference to the flow diagram shown in FIG. 42, it should be understood that many other methods of performing the steps associated with procedure 4200 can be used. For example, the order of many of the blocks may be changed, certain blocks may be combined with other blocks, and many of the blocks described are optional. Additionally, the operations described in step 4200 may be performed on multiple devices, including, for example, optical element 1402, image capture module 1404, motor and lighting module 1406, and/or information processor module 1408 of example stereoscopic visualization camera 300. It can be executed between For example, procedure 4200 may be performed by one of the programs 1560 of information processor module 1408.

一例の手順4200は、立体視覚化カメラ300が電源投入される(ブロック4202)とき、又は他の方法で初期化されるとき、開始される。カメラ300はロボットアーム506に搭載し得る。代替的には、手順4200は、立体視覚化カメラ300が固定マウントに接続されるとき、実行することができる。一例の手順4200は次に、図25及び図26に関連して上述したように、ZRP位置合わせを実行する(ブロック4204)。一例のプロセッサ4102は、上述したようにZRPを自動的に位置合わせし、且つ/又はオペレータと併せて動作して、画像センサ746、748上の左右の光路の位置合わせを提供し得る。幾つかの例では、プロセッサ4102及び/又はオペレータは、ZRPをピクセルグリッド原点と位置合わせするように移動させるためのレンズ構成要素の傾斜に非常に小さな調整を行うのに十分な精度で、モータを介して小さな移動又は屈曲部(図13の屈曲部1300)の屈曲を生じさせ得る。半手動位置合わせ中、プロセッサ4102は、画像センサ746及び748からの左画像及び右画像をディスプレイモニタ512において重ねさせ得る。オペレータは入力デバイス1410を使用して画像を調整し、ZRPが適宜位置合わせされるまで、それに従ってセンサ746及び748のピクセルセットを移動させ得る。 The example methodology 4200 begins when the stereoscopic visualization camera 300 is powered on (block 4202) or otherwise initialized. Camera 300 may be mounted on robot arm 506. Alternatively, procedure 4200 can be performed when stereoscopic visualization camera 300 is connected to a fixed mount. The example methodology 4200 then performs ZRP alignment (block 4204), as described above with respect to FIGS. 25 and 26. An example processor 4102 may automatically align the ZRP as described above and/or operate in conjunction with an operator to provide alignment of the left and right optical paths on the image sensors 746, 748. In some examples, the processor 4102 and/or the operator may operate the motor with sufficient precision to make very small adjustments to the tilt of the lens component to move the ZRP into alignment with the pixel grid origin. A small movement or bending of the bend (bend 1300 in FIG. 13) may occur through the bend. During semi-manual registration, processor 4102 may cause left and right images from image sensors 746 and 748 to overlap on display monitor 512. The operator may adjust the image using input device 1410 and move the pixel sets of sensors 746 and 748 accordingly until the ZRP is properly aligned.

位置合わせ中、ZRPは画像中心に位置合わせされて、疑似視差を回避するように設定される。ディスプレイでの約1ピクセル以内の位置合わせが可能である。左右ビューから画像中心への位置合わせの程度は、ズーム動作中を含め、重ねられた画像において可視である。8°FOVの例では、4K画像センサ746、748及びディスプレイモニタ512の対応する4K表示分解能(約4000ピクセル×約2000行を含む)の使用は、システム分解能8°/4000ピクセル=7秒角を生成する。しかしながら、ZRP位置合わせは大半の任意の倍率で実行することができ、分解能(同数のピクセル(例えば、4000))は低減(又は増大)されたFOV角で除算される。例えば、高倍率でのカメラ300の実施形態例は、約2°のFOV角を生成する。8K UHDディスプレイモニタ512並びにセンサ746及び748は、約4000行内に約8000ピクセルを有する。このシステムの分解能は2°/8000ピクセル=1秒角である。これは、分角単位で測定された分解能を有する許容差を有する、組み立てられた、個々に測定された構成要素の精度、従来技術の既知のシステムよりも約1桁以上良好である。画像センサ及びディスプレイモニタは、同じ物理的センサ又はディスプレイ空間において一般にピクセルが小さくなるほど高密度になるため、立体視覚化カメラ300の精度調整可能性は、より小さいピクセルサイズにスケーリングする。立体視覚化カメラ300の強化された高精度位置合わせは、より良好でより正確なデジタルエフェクトを提供する。 During alignment, the ZRP is aligned to the image center and set to avoid pseudo parallax. Alignment to within about 1 pixel on the display is possible. The degree of alignment from the left and right views to the image center is visible in the superimposed images, including during zoom operations. In the 8° FOV example, the use of the 4K image sensors 746, 748 and the corresponding 4K display resolution of the display monitor 512 (which includes approximately 4000 pixels x approximately 2000 lines) results in a system resolution of 8°/4000 pixels = 7 arc seconds. generate. However, ZRP registration can be performed at almost any magnification, where the resolution (same number of pixels (eg, 4000)) is divided by the reduced (or increased) FOV angle. For example, an example embodiment of camera 300 at high magnification produces a FOV angle of approximately 2 degrees. 8K UHD display monitor 512 and sensors 746 and 748 have approximately 8000 pixels in approximately 4000 rows. The resolution of this system is 2°/8000 pixels = 1 arcsec. This is about an order of magnitude better than known systems of the prior art, with accuracy of assembled, individually measured components, with tolerances having resolution measured in minutes. Because image sensors and display monitors generally become denser with smaller pixels in the same physical sensor or display space, the accuracy adjustability of stereoscopic visualization camera 300 scales to smaller pixel sizes. The enhanced precision alignment of the stereoscopic visualization camera 300 provides better and more accurate digital effects.

ZRPの位置合わせは、低倍率から高倍率に循環する際、左右の画像が所望の許容差範囲内で画像中心に留まり、標的手術部位の画像が正確である場合、完了する。ZRPが立体視覚化カメラ300の倍率性能全体を通して位置合わせされた後、各倍率レベルのピクセルセットロケーション及び/又はレンズロケーションは、例えば、LUT4203又は他のデータ構造に記憶される。他の例では、プロセッサ4102は、較正レジスタに、各倍率レベルのピクセルセットロケーション及び/又はレンズロケーションを書き込む。 ZRP registration is complete when the left and right images remain centered within the desired tolerance and the image of the target surgical site is accurate when cycling from low to high magnification. After the ZRPs are aligned throughout the magnification capabilities of stereoscopic visualization camera 300, the pixel set locations and/or lens locations for each magnification level are stored, for example, in LUT 4203 or other data structure. In other examples, processor 4102 writes pixel set locations and/or lens locations for each magnification level to a calibration register.

ZRPが位置合わせされた後、一例のプロセッサ4102は、作業距離及び/又は倍率(例えばズーム)に関して較正する(ブロック4206)ように構成される。図15の作業距離及びズーム例に関連して上述したように、作業距離の精密な知識は、ロボットアーム506が所望の座標に対してカメラを精密に位置決めし得るように、カメラ300において重要である。幾つかの場合、正確な基準が、ロボットアーム506の機械的寸法と共に使用されて、画像からの物体面データを、本明細書ではロボット空間と呼ばれる立体視覚化プラットフォーム516を示す座標系に変換される。 After the ZRP is aligned, the example processor 4102 is configured to calibrate (block 4206) for working distance and/or magnification (eg, zoom). As discussed above in connection with the working distance and zoom example of FIG. 15, precise knowledge of the working distance is important in camera 300 so that robot arm 506 can precisely position the camera relative to the desired coordinates. be. In some cases, precise fiducials are used in conjunction with the mechanical dimensions of the robot arm 506 to transform the object plane data from the images into a coordinate system indicative of the stereoscopic visualization platform 516, referred to herein as robot space. Ru.

一例の較正手順4200が実行されて、立体視覚化カメラ300の光学系の作業距離をマッピングし、作業距離は、共通モード対物(「CMO」)レンズ組立体(例えば、図4及び図7の前部作業距離主対物レンズ408)から物体面までミリメートル単位で計算又は測定し得る。作業距離は、例えば、物理的ストップ又は限界スイッチトリガー位置等の既知の「ホーム」ロケーションからのモータシャフトエンコードデバイスのカウントで測定されるフォーカスモータ位置等の既知の測定可能なパラメータにマッピングされる。 An example calibration procedure 4200 is performed to map the working distance of the optical system of the stereoscopic visualization camera 300, which is a common mode objective ("CMO") lens assembly (e.g., in front of FIGS. 4 and 7). The working distance from the main objective lens 408) to the object plane can be calculated or measured in millimeters. The working distance is mapped to a known measurable parameter, such as a focus motor position measured in counts of a motor shaft encoding device from a known "home" location, such as a physical stop or limit switch trigger position.

ブロック4206における較正は、プロセッサ4102が光軸に沿って離散ステップで物体面を順次移動させ、図43と併せてより詳細に考察するように、エンコーダカウント及び作業距離を記録しながら画像を再フォーカスすることにより実行される。プロセッサ4102は、CMOの正面から作業距離を外部から測定する。エンコーダカウント及び作業距離のマッピングは、LUT4203又は異なるLUT及び/又は較正レジスタに記憶される。この較正は、所望の作業距離を所与として、プロセッサ4102がエンコーダカウント位置をモータコントローラに出力できるようにする。立体視覚化カメラ300の例示的な実施形態は、高回転カウント数シャフトエンコードデバイスを使用し、作業距離の分解能は各エンコーダカウント当たり1μmのオーダである。代替の実施形態は、所望に応じてより高い又はより低い作業距離分解能を提供する異なるエンコーダ分解能を含み得る。 Calibration at block 4206 involves processor 4102 sequentially moving the object plane in discrete steps along the optical axis and refocusing the image while recording encoder counts and working distance, as discussed in more detail in conjunction with FIG. It is executed by Processor 4102 externally measures the working distance from the front of the CMO. The mapping of encoder counts and working distances is stored in LUT 4203 or in different LUTs and/or calibration registers. This calibration allows the processor 4102 to output encoder count positions to the motor controller given the desired working distance. The exemplary embodiment of the stereoscopic visualization camera 300 uses a high revolution count shaft encoding device, with working distance resolution on the order of 1 μm for each encoder count. Alternative embodiments may include different encoder resolutions that provide higher or lower working distance resolution as desired.

図43は、本開示の実施形態例による、離散ステップで物体面を移動させる一例の立体視覚化カメラ300の実施形態を示す。一例の立体視覚化カメラ300は、図7の主対物レンズ組立体702(例えばシングルCMO)を含み、これは、標的手術部位の左右ビューを提供するように構成される。図示の例では、主対物レンズ組立体702は、筐体4302内の静止前部作業距離レンズ408と、可動後部作業距離レンズ740とを有する色消しレンズ屈折組立体として示され、可動後部作業距離レンズ740はz軸(又は他の光学軸)に沿って移動可能である。後部作業距離704の移動は、前部作業距離レンズ408までの距離を変更させる。レンズ408と704との間の間隔は、主対物レンズ組立体702の全体前部焦点距離4304を決め、したがって、前部焦点面4306(又は単に「焦点面」)のロケーションを決める。前部焦点面4306は、主対物レンズ組立体702の主面4308から焦点距離4304に等しい距離に配置される。主面4308のロケーションの測定は難しいことがあり、したがって、筐体4302の底面から前部焦点面までの距離が作業距離4310として定義される。したがって、作業距離4310は、ピントが合った標的部位又はシーンの平面を正確に設定する。 FIG. 43 illustrates an example stereoscopic visualization camera 300 embodiment that moves an object plane in discrete steps, according to example embodiments of the present disclosure. One example stereoscopic visualization camera 300 includes a main objective lens assembly 702 (eg, single CMO) of FIG. 7, which is configured to provide left and right views of the target surgical site. In the illustrated example, the main objective lens assembly 702 is shown as an achromatic lens refractive assembly having a stationary front working distance lens 408 within a housing 4302 and a movable rear working distance lens 740, with a movable rear working distance lens 740. Lens 740 is movable along the z-axis (or other optical axis). Movement of the rear working distance 704 changes the distance to the front working distance lens 408. The spacing between lenses 408 and 704 determines the overall front focal length 4304 of main objective lens assembly 702, and thus the location of the front focal plane 4306 (or simply "focal plane"). Front focal plane 4306 is positioned at a distance equal to focal length 4304 from main surface 4308 of main objective lens assembly 702 . Measuring the location of major surface 4308 can be difficult, so the distance from the bottom of housing 4302 to the front focal plane is defined as working distance 4310. Thus, working distance 4310 accurately establishes the plane of the target region or scene that is in focus.

前部焦点面4306における物体の撮像は、主対物レンズ組立体702の後ろ又は背後から無限遠に配置された連続画像を作成する。瞳孔間距離(「IPD」)4312により横方向に隔てられた、カメラ300の光学系及びセンサ714、716、718、744R、及び744Lを含む2つの平行光路は、主対物レンズ組立体702の光軸4324からわずかに異なる方向で左光軸4320及び右光軸4322に沿って左ビュー及び右ビューをそれぞれ生成する。2つの光路は、それぞれの外部収束左右軸が画像4330のFOVの中心と一致するように設定されるよう調整される。このポイント4330は、本明細書では、前部焦点面4306における立体視覚化カメラ300の「先端部」と呼ばれる。 Imaging the object at the front focal plane 4306 creates a series of images positioned at infinity behind or behind the main objective lens assembly 702 . Two parallel optical paths, including optics of camera 300 and sensors 714, 716, 718, 744R, and 744L, separated laterally by an interpupillary distance (“IPD”) 4312, provide light from main objective lens assembly 702. Left and right views are generated along left optical axis 4320 and right optical axis 4322 in slightly different directions from axis 4324, respectively. The two optical paths are adjusted such that their respective external left and right axes of convergence are set to coincide with the center of the FOV of image 4330. This point 4330 is referred to herein as the "tip" of the stereoscopic visualization camera 300 at the front focal plane 4306.

後部作業距離レンズ740の位置の調整は、主対物レンズ組立体702前部焦点距離4304を変更させる。示されるように、後部作業距離レンズ740の位置変更は、新しい前部焦点面4306’の位置に配置された新しい作業距離4310’を生み出す。後部作業距離レンズ740の移動はまた、左光軸4320’及び右光軸4322’を再び位置合わせさせ、カメラ300の再配置先端部4330’を生じさせる。焦点面4306の上又は下でのカメラ300を用いての物体の視覚化は、物体のフォーカスを低減する。 Adjusting the position of the rear working distance lens 740 causes the main objective lens assembly 702 front focal length 4304 to change. As shown, the repositioning of the rear working distance lens 740 creates a new working distance 4310' located at the new front focal plane 4306' location. Movement of rear working distance lens 740 also realigns left optical axis 4320' and right optical axis 4322', resulting in repositioning tip 4330' of camera 300. Visualizing an object with camera 300 above or below the focal plane 4306 reduces focus of the object.

作業距離較正と同様にして、プロセッサ4102が、既知のサイズの物体の画像高さを測定しながら、倍率を変えることにより、同様のLUT又は作業距離LUT4203内の追加の列を構築することができる。倍率は、物理的ストップ又は限界スイッチトリガー位置等の既知の「ホーム」ロケーションからのモータシャフトエンコードデバイスのカウントを特定することにより定量化することができる。プロセッサ4102は、例えば、各倍率位置でのセンサピクセル数で、画像高さを相対的に測定することができる。倍率は、例えば、ピクセル単位の高さをミリメートル単位の高さで除算することで特徴付けることができる。 Similar to working distance calibration, processor 4102 can construct similar LUTs or additional columns in working distance LUT 4203 by varying the magnification while measuring the image height of an object of known size. . Multipliers can be quantified by determining the counts of a motor shaft encoding device from a known "home" location, such as a physical stop or limit switch trigger position. Processor 4102 can measure image height relative to, for example, the number of sensor pixels at each magnification position. Magnification can be characterized, for example, by dividing the height in pixels by the height in millimeters.

図42に戻ると、立体視覚化カメラ300の作業距離及び倍率が較正された後、一例のプロセッサ4102は、投影中心を特定する(ブロック4208)ように構成される。投影中心(例えばCOP)は、図15に関連して上述したように、立体視覚化カメラ300をモデリングする1つ又は複数のルーチンを使用して特定し得る。手術部位の左右立体ビューを一致させるために、多くの場合、ソフトウェア、ファームウェア、ハードウェア、及び/又はプロセッサ4102のGPUコードに実装される数学的モデルを使用して物理的カメラ300をモデリングすることが望ましい。脳腫瘍のMRI画像等の3Dコンピュータモデルの視点は多くの場合、ユーザ調整可能な方向及び距離からレンダリングされ見ることができる(例えば、まるで画像が合成立体カメラにより捕捉されるかのように)。プロセッサ4102はモデルの調整可能性を使用して、ライブ手術画像の視点を一致させ得、したがって、ライブ手術画像の視点は既知でなければならない。 Returning to FIG. 42, after the working distance and magnification of the stereoscopic visualization camera 300 are calibrated, the example processor 4102 is configured to identify a projection center (block 4208). The center of projection (eg, COP) may be identified using one or more routines modeling the stereoscopic visualization camera 300, as described above in connection with FIG. 15. Modeling the physical camera 300 using a mathematical model, often implemented in software, firmware, hardware, and/or GPU code of the processor 4102, to match left and right stereoscopic views of the surgical site. is desirable. Views of 3D computer models, such as MRI images of brain tumors, are often rendered and viewed from user-adjustable directions and distances (eg, as if the images were captured by a synthetic stereoscopic camera). Processor 4102 may use the tunability of the model to match the perspective of the live surgical image; therefore, the perspective of the live surgical image must be known.

立体視覚化カメラ300及び/又はプロセッサ4102の例示的な実施形態は、各値の倍率及び作業距離でカメラモデルパラメータを正確に測定し計算するように構成される。これらの値は、立体視覚化カメラ300内に含まれる別個の光学系により制御される。デュアル光学系は、左右のチャネル/ビュー間の画像の中心における視差が焦点面4330において概ねゼロであるように位置合わせされる。さらに、立体視覚化カメラ300は、倍率範囲にわたり同焦点であり、倍率及び作業距離範囲にわたり同中心(par central)であり、その理由は、左右の各チャネルのZRPが各ピクセルグリッドの中心に位置合わせされているためである(ブロック4202において上述)。換言すれば、倍率のみを変更すると、両チャネルにおいて画像のピントは維持され、同じ中心点でトレーニングされる。同様に、作業距離のみを変更すると、標的及び立体視覚化カメラ300が静止したままである場合、画像において垂直視差は生じず、左右のビュー間の水平視差のみが増大するはずである。 The exemplary embodiments of stereoscopic visualization camera 300 and/or processor 4102 are configured to accurately measure and calculate camera model parameters at each value of magnification and working distance. These values are controlled by a separate optical system contained within the stereoscopic visualization camera 300. The dual optics are aligned such that the parallax at the center of the image between the left and right channels/views is approximately zero at the focal plane 4330. Furthermore, the stereoscopic visualization camera 300 is parfocal over a range of magnifications and par central over a range of magnifications and working distances because the ZRP of each left and right channel is located at the center of each pixel grid. (described above in block 4202). In other words, if only the magnification is changed, the image remains in focus in both channels and is trained on the same center point. Similarly, changing only the working distance should result in no vertical disparity in the images if the target and stereoscopic visualization camera 300 remain stationary, and only increase the horizontal disparity between the left and right views.

図44は、本開示の実施形態例による、立体視覚化カメラ300のCOPを特定するプロセッサ4102により実行可能なルーチンを示すグラフ4400を示す。図示の例では、ピンホール又はモデリングされたカメラ300のCOPは、ピンホールの平面(O)において光軸4402に沿う。カメラモデルのCOPを特定するために、仮想ピンホールカメラモデルが使用され、ここでは、プロセッサ4102は、COPから物体面までの実際の焦点距離4404を特定するように構成される。較正ルーチン中、プロセッサ4102は、例えば、光軸4402に沿った3つの異なる距離における高さ4408の物体を用いた光学画像センサ744の平面、物体面、物体面距離未満の距離「d」、及び物体面距離超の距離「d」におけるピクセル数単位の画像高さ4406の測定値が記録されている間、カメラ300の倍率を維持する。プロセッサ4102は、2つの最も極端な位置における同様の三角形に基づいて、COP4410までの焦点距離4404を特定する代数を含むルーチンを使用する。プロセッサ4102は、較正に使用される倍率に対する代替の倍率の比率に基づいて、代替の倍率での焦点距離を特定し得る。 FIG. 44 depicts a graph 4400 illustrating a routine executable by processor 4102 to identify the COP of stereoscopic visualization camera 300, according to example embodiments of the present disclosure. In the illustrated example, the COP of the pinhole or modeled camera 300 is along the optical axis 4402 at the plane (O) of the pinhole. To identify the COP of the camera model, a virtual pinhole camera model is used, where the processor 4102 is configured to identify the actual focal length 4404 from the COP to the object plane. During the calibration routine, processor 4102 determines, for example, the plane of optical image sensor 744 with an object of height 4408 at three different distances along optical axis 4402, the object plane, a distance “d” less than the object plane distance, and The magnification of the camera 300 is maintained while a measurement of the image height 4406 in pixels at a distance "d" above the object plane distance is recorded. Processor 4102 uses a routine that includes algebra to identify focal length 4404 to COP 4410 based on similar triangles at the two most extreme positions. Processor 4102 may identify the focal length at the alternate magnification based on the ratio of the alternate magnification to the magnification used for calibration.

図42に戻ると、一例のプロセッサ4102は、様々な作業距離及び倍率でのCOPを特定するように構成される。プロセッサ4102は、LUT4203、異なるLUT、又は1つ若しくは複数の較正レジスタにおいてレンズのモータシャフトエンコーダカウントを様々な作業距離及び倍率でのCOPに関連付ける。幾つかの実施形態では、プロセッサ4102は、1つの倍率及び/又は作業距離のCOPの関連のみを記憶し、1つの既知のCOP関係を使用して他の倍率及び/又は作業距離を計算し得る。 Returning to FIG. 42, the example processor 4102 is configured to identify COPs at various working distances and magnifications. Processor 4102 associates the lens motor shaft encoder counts in LUT 4203, different LUTs, or one or more calibration registers to COPs at various working distances and magnifications. In some embodiments, processor 4102 may only store COP relationships for one magnification and/or working distance and use one known COP relationship to calculate other magnification and/or working distances. .

COPについて較正した後、一例のプロセッサ4102は、立体左右光軸及び立体視覚化カメラ300の軸間の瞳孔間距離(「IPD」)を較正する(ブロック4210)ように構成される。立体視覚化カメラ300の光学系を特徴付けるために、左右のチャネル/ビュー間のIPDは既知であるべきである。実施形態では、IPDは、図7に示されるセンサ及び光学系を保持する機械的構成要素に設計し得る。したがって、IPDは機械的に設定される。しかしながら、実際の光軸は、光学要素及び光学要素のマウントの機械軸と異なり得る。他の実施形態では、IPDは立体視覚化カメラ300内で変更することができる。 After calibrating for the COP, the example processor 4102 is configured to calibrate the stereo left and right optical axes and the interpupillary distance (“IPD”) between the axes of the stereoscopic visualization camera 300 (block 4210). To characterize the optical system of the stereoscopic visualization camera 300, the IPD between the left and right channels/views should be known. In embodiments, the IPD may be designed into a mechanical component that holds the sensor and optics shown in FIG. Therefore, the IPD is set mechanically. However, the actual optical axis may be different from the mechanical axis of the optical element and the optical element's mount. In other embodiments, the IPD can be changed within the stereoscopic visualization camera 300.

幾つかの用途では、立体視覚化カメラ300の系における基準軸又は機械軸に対する立体光学軸の方向を精密に知ることが望ましい。これにより、例えば、プロセッサ4102は機械的手段を通して立体視覚化カメラ300を精密に照準付けることができる。照準付けることは、立体視覚化カメラ300の基準系に関して、立体光軸に同時に注目して幾何学的に定義されるビューベクトルにより特徴付けることができる。加えて、立体視覚化カメラ300を構成する光学センサ744の左右チャネルのクロッキングがビューベクトルに含まれる。 In some applications, it is desirable to precisely know the orientation of the stereoscopic optical axis relative to a reference or mechanical axis in the system of stereoscopic visualization camera 300. This allows, for example, processor 4102 to precisely aim stereoscopic visualization camera 300 through mechanical means. Aiming can be characterized by a view vector defined geometrically with respect to the reference frame of the stereoscopic visualization camera 300 and simultaneously focusing on the stereoscopic optical axis. In addition, the clocking of the left and right channels of the optical sensor 744 that makes up the stereoscopic visualization camera 300 is included in the view vector.

図45は、本開示の実施形態例による、立体視覚化カメラ300のIPDをいかに測定し較正し得るかを示す光学概略の平面図を示す。図示の例では、光軸4502は、機械軸4504と完全に位置合わせされる。右画像センサ746及び左画像センサ748(1つ又は複数のカメラモデルにより近似される)は、IPD4506だけ離間される。センサ746及び748は物体4508(標的手術部位内の)に位置合わせされフォーカスする。物体4508は、焦点面4512における物体の左ビュー又は右ビューの表示に示されるように、物体面における視差が理論上、ゼロであるように、センサ746及び748から焦点距離4510に配置される。この説明のための例では、明確にするために、物体4508は円盤であり、その正面図はアイテム4514として示される。 FIG. 45 depicts a top view of an optical schematic illustrating how the IPD of stereoscopic visualization camera 300 may be measured and calibrated, according to example embodiments of the present disclosure. In the illustrated example, optical axis 4502 is perfectly aligned with mechanical axis 4504. Right image sensor 746 and left image sensor 748 (approximated by one or more camera models) are separated by IPD 4506. Sensors 746 and 748 are aligned and focused on object 4508 (within the target surgical site). Object 4508 is positioned at a focal distance 4510 from sensors 746 and 748 such that the parallax in the object plane is theoretically zero, as shown in the left or right view representation of the object at focal plane 4512. In this illustrative example, object 4508 is a disc, the front view of which is shown as item 4514, for clarity.

図45も、物体4508が機械軸に沿って距離「d」だけ変位し、アイテム4508’として示される別の例を示す。物体4508の変位は視差を生み出し、視差は左ビュー4520の表示ではPとして右ビュー4522の表示ではPとして現れる。この例では、機械軸及び光軸は一致し、視差の大きさは等しい。視差は、例えば、左ビュー4520と右ビュー4522との間の差分のピクセル数をカウントし、COP較正ステップにおいて特定された倍率係数ピクセル/mmで乗算することにより測定することができる。プロセッサ4102は、三角測量を使用してIPDを計算し得る。各ビューの変位距離d及び視差の測定精度は、立体視覚化カメラ300のIPDの精密な知識に寄与する。 FIG. 45 also shows another example in which object 4508 is displaced a distance "d" along the mechanical axis and is designated as item 4508'. The displacement of the object 4508 creates a parallax that appears as P L in the left view 4520 display and P R in the right view 4522 display. In this example, the mechanical and optical axes are coincident and the magnitude of the parallax is equal. Disparity can be measured, for example, by counting the number of pixels of difference between left view 4520 and right view 4522 and multiplying by the magnification factor pixel/mm specified in the COP calibration step. Processor 4102 may calculate the IPD using triangulation. The measurement accuracy of the displacement distance d and parallax of each view contributes to precise knowledge of the IPD of the stereoscopic visualization camera 300.

図46は、本開示の実施形態例による、立体視覚化カメラ300の光軸をいかに測定し較正することができるかを示す光学概略の平面図を示す。この例では、光軸4502は、4602として示される角度(α)だけ機械軸4504からずれている。右画像センサ746及び左画像センサ748(1つ又は複数のカメラモデルで近似される)は、焦点面4604における物体4508の左ビュー又は右ビューの表示に示されるように、物体4508の平面における視差が理論上、ゼロであるように焦点距離に配置された物体4508(標的手術部位内の)に位置合わせされフォーカスする。 FIG. 46 shows a top view of an optical schematic illustrating how the optical axis of stereoscopic visualization camera 300 can be measured and calibrated, according to example embodiments of the present disclosure. In this example, optical axis 4502 is offset from mechanical axis 4504 by an angle (α) shown as 4602. The right image sensor 746 and the left image sensor 748 (approximated by one or more camera models) are configured to detect the parallax in the plane of the object 4508 as shown in the representation of the left or right view of the object 4508 at the focal plane 4604. The object 4508 (within the target surgical site) is aligned and focused at a focal length such that 0 is theoretically zero.

図46も、物体4508が機械軸に沿って距離「d」だけ変位し、物体4508’として示される別の例を示す。物体4508の変位は視差を生み出し、視差は左ビュー4610の表示ではPとして及び右ビュー4612の表示ではPとして現れる。機械軸4504及び光軸4502が一致しないこの例では、視差の大きさは等しくない。一例のプロセッサ4102は、三角測量を介してIPD及び位置合わせずれ角度α(例えば、立体光軸)を計算するように構成される。各ビューの変位距離d及び視差の測定精度により、プロセッサ4102は、立体視覚化カメラ300のIPD及び光軸を正確に決定することができる。 FIG. 46 also shows another example in which object 4508 is displaced a distance "d" along the mechanical axis and is designated as object 4508'. The displacement of the object 4508 creates a parallax that appears as P L in the left view 4610 display and as P R in the right view 4612 display. In this example, where mechanical axis 4504 and optical axis 4502 do not coincide, the magnitude of the parallax is unequal. The example processor 4102 is configured to calculate the IPD and misalignment angle α (eg, stereo optical axis) via triangulation. The accuracy of measuring the displacement distance d and disparity of each view allows the processor 4102 to accurately determine the IPD and optical axis of the stereoscopic visualization camera 300.

同様の手順は、例えば、垂直面における機械軸及び光軸の位置合わせずれを測定するのに使用することもできる。例えば、水平面又は垂直面における位置合わせずれの組合せは、機械軸に関してビューベクトルを正確に推測することができるように組み合わせることができる。幾つかの実施形態では、IPD及び光軸パラメータは、様々なレベルの作業距離及び/又は倍率で測定し得る。IPD、光軸、作業距離、及び/又は倍率間の関係は、プロセッサ4102によりLUT4203、別のLUT、及び/又は較正レジスタに記憶し得る。 A similar procedure can also be used, for example, to measure the misalignment of mechanical and optical axes in the vertical plane. For example, a combination of misalignments in the horizontal or vertical planes can be combined such that the view vector can be accurately estimated with respect to the mechanical axis. In some embodiments, IPD and optical axis parameters may be measured at various levels of working distance and/or magnification. The relationship between IPD, optical axis, working distance, and/or magnification may be stored by processor 4102 in LUT 4203, another LUT, and/or a calibration register.

図42に戻ると、一例の立体視覚化カメラ300の光軸及び/又はIPDが較正された後、一例のプロセッサ4102は、較正プロセスを完了して、カメラ300をロボットアーム506に接続できるようにする(ブロック4212)よう構成される。手順4200は次に終了し得る。幾つかの実施形態では、カメラ300が再初期化され、且つ/又は任意の較正を検証又は確認することができない場合、一例の手順4200の少なくとも部分は繰り返される。 Returning to FIG. 42, after the optical axis and/or IPD of the example stereoscopic visualization camera 300 is calibrated, the example processor 4102 completes the calibration process so that the camera 300 can be connected to the robotic arm 506. (block 4212). Procedure 4200 may then end. In some embodiments, at least a portion of the example procedure 4200 is repeated if the camera 300 is reinitialized and/or any calibration cannot be verified or confirmed.

幾つかの実施形態では、手順4200の上記ステップが手動又は半手動で実行可能なことを理解されたい。他の実施形態では、上記ステップは、プロセッサ4200により自動的に連続して実行し得る。幾つかの実施形態では、測定は、左右両方のビューにおける識別を可能にするのに十分なコントラストを含む十分な数の物体を有する、適した標的又は任意の標的の画像認識を通して行うことができる。加えて、プロセッサ4102は、立体視覚化カメラ300の光学要素の正確な相対位置を評価するために、視差測定値を特定又は計算し得る。プロセッサ4102は光学測定をリアルタイムで実行し得る。 It should be appreciated that in some embodiments, the above steps of procedure 4200 can be performed manually or semi-manually. In other embodiments, the above steps may be performed automatically and sequentially by processor 4200. In some embodiments, measurements can be made through image recognition of a suitable target or any target that has a sufficient number of objects with sufficient contrast to allow discrimination in both left and right views. . In addition, processor 4102 may identify or calculate parallax measurements to evaluate the precise relative positions of optical elements of stereoscopic visualization camera 300. Processor 4102 may perform optical measurements in real time.

幾つかの実施形態では、較正及び測定のこれら又は均等な方法を実行する自動化反復技法の使用は、精度を上げ、較正及び測定に必要な時間及び/又は労力を低減することができる。例えば、作業距離(ひいては変位d)は、上述したように、エンコーダカウントの数量とLUT4203により正確に既知である。倍率、及び例えばそのピクセル/mm変換係数も、上述したように、エンコーダカウントの数量とLUT4203により正確に既知である。差異又は物体サイズ特定のための画像におけるピクセルのカウントは、例えば、テンプレート照合を使用して上述したように、手動で正確に実行又は正確に自動化することができる。これらの値の測定及び記憶は、一例のプロセッサ4102により立体カメラモデルパラメータ及びビューベクトルを準リアルタイムで正確に推測することができるように組み合わせることができる。 In some embodiments, the use of automated iterative techniques to perform these or equivalent methods of calibration and measurement can increase accuracy and reduce the time and/or effort required for calibration and measurements. For example, the working distance (and thus the displacement d) is precisely known by the quantity of encoder counts and LUT 4203, as described above. The magnification, and for example its pixel/mm conversion factor, is also precisely known by the quantity of encoder counts and LUT 4203, as described above. Counting pixels in an image for difference or object size identification can be precisely performed manually or precisely automated, for example as described above using template matching. Measuring and storing these values can be combined to allow the example processor 4102 to accurately estimate stereoscopic camera model parameters and view vectors in near real time.

図47は、光学パラメータが完全に特徴付けられる較正された立体視覚化カメラ300の図を示す。図示の実施形態では、カメラモデルを介して特定されるように、想像上の左右画像センサ位置4700に繋がる左右光軸が示されている。図47はまた、中央立体光軸又はビューベクトル4702も示す。カメラモデルの想像上の左右ビュー構成要素は、焦点距離Zに位置決めされている。加えて、カメラモデルの左右ビュー構成要素は、測定された有効IPDだけ離間される。図示の例では、焦点面における物体は、立体視覚化カメラ300内の画像センサ746及び748により記録される想像上の左右ビュー構成要素により同様の立体視点で見られる。 FIG. 47 shows a diagram of a calibrated stereoscopic visualization camera 300 whose optical parameters are fully characterized. In the illustrated embodiment, left and right optical axes are shown leading to imaginary left and right image sensor positions 4700, as identified via the camera model. FIG. 47 also shows a central stereoscopic optical axis or view vector 4702. The imaginary left and right view components of the camera model are positioned at focal length Z. Additionally, the left and right view components of the camera model are separated by the measured effective IPD. In the illustrated example, objects at the focal plane are viewed from a similar stereo perspective by imaginary left and right view components recorded by image sensors 746 and 748 within stereo visualization camera 300.

2.立体視覚化の較正により追加の画像との融合を可能にする
一例のプロセッサ4102は、高分解能クリア画像を提供するのみならず、ライブ立体画像を、外部デバイス4104から受信した1つ又は複数の画像/モデルと位置合わせするためにも較正パラメータ/情報を使用するように構成される。LUT4203及び/又は較正レジスタ内のカメラモデルパラメータに関連する較正データのマッピングにより、プロセッサ4102は、ソフトウェア、ファームウェア、ハードウェア、及び/又はコンピュータコードで実装される立体視覚化カメラ300の数学的モデルを作成することができる。一例では、プロセッサ4102は、例えば、図42と併せて考察した手順4200を使用してカメラモデルパラメータを受信、特定、又は評価するように構成される。較正が既に実行されている場合、プロセッサ4102は、1つ又は複数のメモリ1570及び/又は4120からのカメラモデルパラメータを評価する。プロセッサ4102はまた、デバイス4104から、術前画像、MRI画像、MRI又はCTデータからの手術部位の3Dモデル、X線画像、及び/又は手術ガイド/テンプレート等の代替のモダリティの画像データを受信する。プロセッサ4102は、カメラモデルパラメータを使用して代替モダリティデータの合成立体画像をレンダリングするように構成される。一例のプロセッサ4102はまた、モニタ512を介した表示に合成立体画像を提供するようにも構成される。幾つかの例では、プロセッサ4102は、合成立体画像を現在の立体視覚化と融合するように構成され、まるで1つの視覚化デバイスにより取得されたかのように同一の視点で、各モダリティの望ましい側面を見ることができ、且つ/又は重ねることができる。
2. Calibration of Stereoscopic Visualization Enables Fusion with Additional Images The example processor 4102 not only provides high-resolution clear images, but also integrates live stereoscopic images with one or more images received from an external device 4104. / configured to also use the calibration parameters/information to align with the model. Mapping of calibration data associated with camera model parameters in LUT 4203 and/or calibration registers causes processor 4102 to generate a mathematical model of stereoscopic visualization camera 300 implemented in software, firmware, hardware, and/or computer code. can be created. In one example, processor 4102 is configured to receive, identify, or evaluate camera model parameters using, for example, procedure 4200 discussed in conjunction with FIG. 42. If calibration has already been performed, processor 4102 evaluates camera model parameters from one or more of memories 1570 and/or 4120. The processor 4102 also receives from the device 4104 image data of alternative modalities, such as preoperative images, MRI images, 3D models of the surgical site from MRI or CT data, X-ray images, and/or surgical guides/templates. . Processor 4102 is configured to render a composite stereoscopic image of alternative modality data using the camera model parameters. The example processor 4102 is also configured to provide the composite stereoscopic image for display via the monitor 512. In some examples, the processor 4102 is configured to fuse the composite stereoscopic images with the current stereoscopic visualization to show desired aspects of each modality from the same perspective as if acquired by one visualization device. can be viewed and/or superimposed.

幾つかの実施形態では、図47に示されるパラメータは、プロセッサ4102により、代替のモダリティの合成立体画像、例えばMRI画像データを立体視覚化カメラ300の立体視点と一致させるのに使用される。したがって、一例のプロセッサ4102は、記憶された光学較正パラメータを立体画像合成に使用する。一例では、プロセッサ4102は光学較正パラメータを使用して、ライブ立体画像を、MRIデバイスを使用して術前に撮像された脳腫瘍の三次元モデルと融合する。一例のプロセッサ4102は光学較正パラメータを使用して、立体画像に一致する脳腫瘍の三次元モデルの対応するロケーション、サイズ、及び又は向きを選択する。換言すれば、プロセッサ4102は、立体視覚化カメラ300により記録されたビューに対応する三次元モデルの一部を選択する。プロセッサ4102はまた、カメラ300の作業距離、倍率、及び/又は向きがいかに変わるかの検出に基づいて、モデルのどの部分が表示されるかを変更することもできる。 In some embodiments, the parameters shown in FIG. 47 are used by processor 4102 to match synthetic stereoscopic images of alternative modalities, such as MRI image data, with the stereoscopic perspective of stereoscopic visualization camera 300. Accordingly, the example processor 4102 uses stored optical calibration parameters for stereoscopic image synthesis. In one example, processor 4102 uses optical calibration parameters to fuse a live stereoscopic image with a three-dimensional model of a brain tumor imaged preoperatively using an MRI device. The example processor 4102 uses optical calibration parameters to select a corresponding location, size, and/or orientation of a three-dimensional model of a brain tumor that matches the stereo image. In other words, processor 4102 selects a portion of the three-dimensional model that corresponds to the view recorded by stereoscopic visualization camera 300. Processor 4102 may also change which portions of the model are displayed based on detecting how the working distance, magnification, and/or orientation of camera 300 changes.

プロセッサ4102は、モデルのグラフィカル表現を立体画像に重ねさせ得、且つ/又はモデルのグラフィカル表現を立体画像と視覚的に融合して表示させ得る。プロセッサ4102により実行される画像処理は、モデルのグラフィカル表現とライブ立体ビューとの間の境界を平滑化することを含み得る。画像処理はまた、下にあるライブ立体ビューも外科医に見えるように、モデルのグラフィカル表現の少なくとも一部の透明度を上げることを含むこともできる。 Processor 4102 may cause the graphical representation of the model to be superimposed on the stereoscopic image and/or the graphical representation of the model may be visually fused and displayed with the stereoscopic image. Image processing performed by processor 4102 may include smoothing the boundaries between the graphical representation of the model and the live stereoscopic view. Image processing may also include increasing the transparency of at least a portion of the graphical representation of the model so that the underlying live stereoscopic view is also visible to the surgeon.

幾つかの例では、プロセッサ4102は、立体画像におけるあらゆるピクセルの深度マップを生成且つ/又はレンダリングするように構成される。プロセッサ4102は較正パラメータを使用して、例えば、画像における組織深度を特定し得る。プロセッサ4102は、対象組織に注意するため且つ/又はカメラ300がロボットアーム506と嵌合したとき、非意図的な接触を回避するために機器のロケーションを識別するための画像認識に深度情報を使用し得る。深度情報はプロセッサ4102により、例えば、調整された少なくとも半自動化された外科処置を行うために、ロボット縫合デバイス、診断機器、処置モニタリング及び記録システム等に出力される。 In some examples, processor 4102 is configured to generate and/or render a depth map for every pixel in the stereo image. Processor 4102 may use the calibration parameters to determine tissue depth in the image, for example. Processor 4102 uses depth information for image recognition to note tissue of interest and/or to identify location of equipment to avoid unintentional contact when camera 300 mates with robotic arm 506. It is possible. Depth information is output by processor 4102 to, for example, a robotic suturing device, diagnostic equipment, a procedure monitoring and recording system, etc., for performing a coordinated at least semi-automated surgical procedure.

3.ロボットアーム較正の実施形態
立体視覚化カメラ300は、上述したように較正された後、ロボットアーム506及び/又は結合板3304に接続し得る。後述するように、記憶された較正パラメータにより提供される焦点距離Zに関する作業距離の精密な知識は、立体視覚化カメラ300の位置及び/又は向きを特定するために、一例のプロセッサ4102及び/又はロボットプロセッサ4122により使用される。ロボットアームとの立体視覚化カメラ300の組合せは、標的手術部位のフォーカス又はビューを保ちながら、種々の作業距離のシームレスな遷移を提供するように構成される。
3. Robot Arm Calibration Embodiments The stereoscopic visualization camera 300 may be connected to the robot arm 506 and/or the coupling plate 3304 after being calibrated as described above. As discussed below, precise knowledge of the working distance relative to the focal length Z provided by the stored calibration parameters may be used by example processor 4102 and/or Used by robot processor 4122. The combination of the stereoscopic visualization camera 300 with the robotic arm is configured to provide seamless transitions between various working distances while maintaining focus or view of the target surgical site.

後述するロボットアーム506の較正手順は、ロボットアームタイプに関係なく実行し得る。例えば、較正手順は、単に1つ又は2つのリンク及びジョイントから、6つ以上のジョイントを含むジョイント構造までの回転ジョイントを介して互いに接続された機械的リンクを含む連結式ロボットシステムに対して実行し得る。較正手順はまた、X、Y、及びZ方向を有する座標系を使用する、線形ジョイントを有するガントレイを備えたデカルトロボットシステムに対して実行することもできる。デカルトロボットシステムの最後のジョイントは、リストタイプスイベルジョイントを含み得る。較正手順は、ベースに回転ジョイントを備え、1つ又は複数の追加の回転及び/又は線形ジョイントを備えて、円筒形作業空間を形成する円筒座標ロボットシステムに対して更に実行し得る。さらに、較正手順は、2つ以上の回転軸で動作し得るジョイントを介してベースに接続されたアームを備え、1つ又は複数の線形又はリストジョイントを更に備える極座標ロボットシステムに対して実行し得る。較正手順はさらに、組み立て用途に使用される主に円筒形で動作する選択的コンプライアンスアームを備える選択的コンプライアンス組立ロボットアーム(「SCARA(Selective Compliance Assembly Robot Arm)」)システムに対して実行し得る。 The robot arm 506 calibration procedure described below may be performed regardless of robot arm type. For example, the calibration procedure can be performed for articulated robotic systems that include mechanical links connected to each other via revolute joints, ranging from just one or two links and joints to joint structures that include six or more joints. It is possible. The calibration procedure can also be performed for a Cartesian robotic system with a gun tray with linear joints that uses a coordinate system with X, Y, and Z directions. The last joint of the Cartesian robot system may include a wrist type swivel joint. The calibration procedure may further be performed for a cylindrical coordinate robot system comprising a rotational joint at the base and one or more additional rotational and/or linear joints to form a cylindrical workspace. Additionally, the calibration procedure may be performed for a polar robot system comprising an arm connected to the base via a joint capable of operating in two or more rotational axes and further comprising one or more linear or wrist joints. . The calibration procedure may further be performed on a Selective Compliance Assembly Robot Arm (“SCARA”) system comprising a selective compliance arm operating in a primarily cylindrical shape that is used for assembly applications.

図48は、本開示の実施形態例による、ロボットアーム506を較正する一例の手順4800又はルーチンを示す。手順4800について図48に示される流れ図を参照して説明するが、手順4800に関連するステップを実行する多くの他の方法が使用可能なことを理解されたい。例えば、ブロックの多くの順序は変更し得、特定のブロックは他のブロックと結合し得、記載されるブロックの多くは任意選択的なものである。さらに、手順4800に記載される動作は、例えば、図14の一例の立体視覚化カメラ300の光学要素1402、画像捕捉モジュール1404、モータ及び照明モジュール1406、情報プロセッサモジュール1408、及び/又はジョイントR1~R9、及び図41のロボットアームコントローラ4106を含め、複数のデバイスの間で実行し得る。例えば、手順4800は、ロボットアームコントローラ4106のメモリ4120に記憶されたプログラムにより実行し得る。 FIG. 48 illustrates an example procedure 4800 or routine for calibrating a robotic arm 506, according to example embodiments of the present disclosure. Although procedure 4800 will be described with reference to the flow diagram shown in FIG. 48, it should be understood that many other methods of performing the steps associated with procedure 4800 can be used. For example, the order of many of the blocks may be changed, certain blocks may be combined with other blocks, and many of the blocks described are optional. Additionally, the operations described in step 4800 may be performed, for example, on optical element 1402, image capture module 1404, motor and lighting module 1406, information processor module 1408, and/or joints R1-- of example stereoscopic visualization camera 300 of FIG. R9 and among multiple devices, including the robot arm controller 4106 of FIG. For example, procedure 4800 may be performed by a program stored in memory 4120 of robot arm controller 4106.

幾つかの実施形態では、結合板3304はロボットアーム506に接続される(ブロック4802)。結合板3304が使用されない場合、立体視覚化カメラ300はロボットアーム506の接続又は結合インターフェース3450に直接接続される。結合板3304が使用される場合、立体視覚化カメラ300は結合板に接続される(ブロック4804)。上述したように、結合板3304の第1の端部3702はロボットアーム506に接続され、結合板3304の第2の端部3704は立体視覚化カメラ300に接続される。 In some embodiments, coupling plate 3304 is connected to robotic arm 506 (block 4802). If the coupling plate 3304 is not used, the stereoscopic visualization camera 300 is connected directly to the robotic arm 506 connection or coupling interface 3450. If a bonding plate 3304 is used, the stereoscopic visualization camera 300 is connected to the bonding plate (block 4804). As mentioned above, the first end 3702 of the coupling plate 3304 is connected to the robot arm 506 and the second end 3704 of the coupling plate 3304 is connected to the stereoscopic visualization camera 300.

一例の立体視覚化カメラ300がロボットアーム506に接続された後、一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、カメラ及びビューベクトルをロボットアーム506の静止ベース3404周囲に由来する座標系に較正する(ブロック4806)ように構成される。本明細書では、この座標系は「ロボティック空間」又は「ロボット空間」と呼ばれる。この較正ステップ中、ロボットアーム506への既知の移動は、プロセッサ4102及び/又はロボットアームコントローラ4106により使用されて、標的手術部位の視覚化中、カメラ300のビューベクトル及び物体面の向き及びロケーションを特定する。 After the example stereoscopic visualization camera 300 is connected to the robot arm 506, the example processor 4102 and/or robot arm controller 4106 calibrates the camera and view vectors to a coordinate system originating around the stationary base 3404 of the robot arm 506. (block 4806). This coordinate system is referred to herein as "robotic space" or "robot space." During this calibration step, the known movements to the robot arm 506 are used by the processor 4102 and/or the robot arm controller 4106 to determine the orientation and location of the view vector and object plane of the camera 300 during visualization of the target surgical site. Identify.

幾つかの実施形態では、カメラ300、結合板3304、及びロボットアーム506の機械的特徴は、一緒に機械的に接続された場合、カメラ300、結合板3304、及びロボットアーム506間の関係が一意に特定され知られるように存在する。これらの実施形態では、プロセッサ4102及び/又はロボットアームコントローラ4106は、カメラ300、結合板3304、及びロボットアーム506の既知の機械的ジオメトリからビューベクトルの位置、方向、及び/又は向きを特定する。 In some embodiments, the mechanical features of camera 300, coupling plate 3304, and robotic arm 506, when mechanically connected together, create a unique relationship between camera 300, coupling plate 3304, and robotic arm 506. Exists as specified and known. In these embodiments, processor 4102 and/or robot arm controller 4106 determine the position, direction, and/or orientation of the view vector from the known mechanical geometry of camera 300, coupling plate 3304, and robot arm 506.

数学的特徴が存在しない他の実施形態では、一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、ロボット空間においてカメラ300とロボットアーム506との間の空間関係を正確に特定するルーチンを実行するように構成される。プロセッサ4102及び/又はロボットアームコントローラ4106は、立体視覚化カメラ300を開始位置に移動させ、開始位置は格納位置、再向き決め位置、又は手術位置を含み得る。立体視覚化カメラ300は次に、カメラを開始位置から、ロボットアーム506の静止ベース3404に配置された較正ターゲットを概ね視覚化する位置に移動させる。較正ターゲットは、例えば、ロボットアーム506のモーションスフィア内の位置におけるカート510の好都合なエリアに配置し得る。較正ターゲットの幾つかの例には、例えば、一意の既知の向きで互いに対して配置することができる(二次元画像又は立体画像において)小さなスフィア又は他の一意に認識可能な物体がある。スフィアの座標は、カート510及び静止ベース3404に対して固定され、既知であり、したがって、ロボット空間において既知である。プロセッサ4102及び/又はロボットアームコントローラ4106は、例えば、メモリ4120に座標を記憶するように構成される。 In other embodiments where no mathematical features are present, the example processor 4102 and/or robot arm controller 4106 may be configured to execute a routine that accurately identifies the spatial relationship between the camera 300 and the robot arm 506 in robot space. It is composed of The processor 4102 and/or the robotic arm controller 4106 move the stereoscopic visualization camera 300 to a starting position, which may include a retracted position, a reorientation position, or a surgical position. Stereo visualization camera 300 then moves the camera from the starting position to a position that generally visualizes a calibration target located on stationary base 3404 of robotic arm 506. The calibration target may be placed in a convenient area of the cart 510 at a location within the motion sphere of the robot arm 506, for example. Some examples of calibration targets include, for example, small spheres or other uniquely recognizable objects that can be placed relative to each other (in a two-dimensional or stereoscopic image) in a unique, known orientation. The coordinates of the sphere are fixed and known relative to the cart 510 and stationary base 3404, and therefore known in robot space. Processor 4102 and/or robot arm controller 4106 are configured to store coordinates in memory 4120, for example.

較正中、プロセッサ4102及び/又はロボットアームコントローラ4106は、作業距離、倍率、立体光軸、及び/又はIPDに関するビューベクトルデータ4807を受信する。立体視覚化カメラ300は、較正ターゲットにおけるスフィアを同時に視覚化し、立体画像における視差の使用を通してスフィアの位置を特定するように設定される。プロセッサ4102及び/又はロボットアームコントローラ4106は、カメラ300における基準(すなわち、「カメラ空間」)に関して初期座標系、例えば、X、Y、及びZにおけるスフィアの位置を記録する。X、Y、Z位置は、元のロケーションに対応し得、原点又は他の既知の座標値を有するものとしてファイル又はLUTにおいて定義し得る。プロセッサ4102及び/又はロボットアームコントローラ4106はまた、ジョイントセンサからの出力データも使用して、ロボットアーム506におけるジョイント及びリンクの位置及び向きを特定する。プロセッサ4102及び/又はロボットアームコントローラ4106はまた、位置情報を受信して、結合デバイス3304の位置及び向きも特定する。ロボットアーム506及び結合デバイス3304の位置及び向きは一緒に、プロセッサ4102及び/又はロボットアームコントローラ4106がカメラ300の姿勢を特定できるようにする。プロセッサ4102及び/又はロボットアームコントローラ4106は、カメラにより記録された較正ターゲットのスフィアの位置及びロボットアーム506及び/又は結合板3304の位置として基づいて、カメラ空間とロボット空間との間で座標変換を実行するように構成される。プロセッサ4102及び/又はロボットアームコントローラ4106は、座標変換をLUT4203、ロボットアーム506の異なるLUT、及び/又は1つ又は複数の較正レジスタに記憶し得る。 During calibration, processor 4102 and/or robot arm controller 4106 receives view vector data 4807 regarding working distance, magnification, stereo optical axis, and/or IPD. The stereoscopic visualization camera 300 is configured to simultaneously visualize the sphere at the calibration target and locate the sphere through the use of parallax in the stereoscopic image. Processor 4102 and/or robot arm controller 4106 record the position of the sphere in an initial coordinate system, e.g., X, Y, and Z, with respect to a reference at camera 300 (ie, "camera space"). The X, Y, Z location may correspond to an original location and may be defined in a file or LUT as having an origin or other known coordinate values. Processor 4102 and/or robot arm controller 4106 also use output data from joint sensors to identify the positions and orientations of joints and links in robot arm 506. Processor 4102 and/or robot arm controller 4106 also receive position information to determine the position and orientation of coupling device 3304. The position and orientation of robotic arm 506 and coupling device 3304 together enable processor 4102 and/or robotic arm controller 4106 to determine the pose of camera 300. Processor 4102 and/or robot arm controller 4106 performs coordinate transformations between camera space and robot space based on the location of the calibration target sphere recorded by the camera and the location of robot arm 506 and/or coupling plate 3304. configured to run. Processor 4102 and/or robot arm controller 4106 may store coordinate transformations in LUT 4203, a different LUT of robot arm 506, and/or one or more calibration registers.

幾つかの実施形態では、カメラ300は移動して、カート510、天井、壁、及び/又は手術エリアに配置された複数の較正ターゲットの画像を記録する。各較正ターゲットは、物理的なX、Y、Zロケーションを識別できるようにする一意の向きを有し得る。プロセッサ4102及び/又はロボットアームコントローラ4106は、各較正ターゲットに対して追加の座標変換を実行し、変換を1つ又は複数のLUT及び/又はレジスタに記憶する。 In some embodiments, camera 300 moves to record images of multiple calibration targets located on cart 510, the ceiling, walls, and/or the surgical area. Each calibration target may have a unique orientation that allows its physical X, Y, Z location to be identified. Processor 4102 and/or robot arm controller 4106 perform additional coordinate transformations for each calibration target and store the transformations in one or more LUTs and/or registers.

他の実施形態では、プロセッサ4102及び/又はロボットアームコントローラ4106は、代替の方法を使用して、ロボット空間に対してカメラ300を較正し得る。この状況では、「較正」とは、「見当合わせ」を意味するものとして解釈され、ここで、プロセッサ4102及び/又はロボットアームコントローラ4106は、見当合わせが変わり得る広い空間にわたり見当合わせを計算するように構成される。例えば、別個の立体カメラがカート510における較正ターゲット及びカメラ300及び/又は患者又は手術ベッドに設置された同様の較正ターゲットの観測及び位置特定に使用されるシステムを使用することができる。プロセッサ4102及び/又はロボットアームコントローラ4106は、カメラ300をモデリングし追跡するように構成され、カメラ300は、ビューベクトル及び作業距離と共に手術機器としてモデリングされ追跡される。ビューベクトル及び作業距離は、標的手術部位を正確に視覚化するためのパラメータを定義する。これらの他の実施形態では、他のカメラは、立体カメラ300等の基準系におけるそのような各機器の座標系のロケーション及び向き情報を特定し報告する。次に、線形代数を使用して、互いに対する機器の姿勢及び/又はロケーションがプロセッサ4102及び/又はロボットアームコントローラ4106により計算され、それにより、ロボット空間に対してカメラ300が較正されることになる。 In other embodiments, processor 4102 and/or robot arm controller 4106 may use alternative methods to calibrate camera 300 with respect to robot space. In this context, "calibration" is interpreted to mean "registration," where processor 4102 and/or robot arm controller 4106 are configured to calculate registration over a wide space in which registration may vary. It is composed of For example, a system may be used in which a separate stereoscopic camera is used to observe and locate a calibration target on cart 510 and camera 300 and/or a similar calibration target located on the patient or surgical bed. Processor 4102 and/or robotic arm controller 4106 are configured to model and track camera 300, where camera 300 is modeled and tracked as a surgical instrument along with a view vector and working distance. The view vector and working distance define parameters for accurately visualizing the target surgical site. In these other embodiments, other cameras identify and report coordinate system location and orientation information for each such device in a reference frame, such as stereoscopic camera 300. Using linear algebra, the pose and/or location of the instruments relative to each other is then calculated by processor 4102 and/or robot arm controller 4106, thereby calibrating camera 300 with respect to robot space. .

幾つかの実施形態では、プロセッサ4102及び/又はロボットアームコントローラ4106はまた、結合板3304に関しても較正するように構成される。幾つかの場合、結合板3304は、ジョイントR7~R9の位置に応じてアクティブ化する1つ又は複数のスイッチを含む。スイッチの既知の位置は、座標変換の一環としてプロセッサ4102及び/又はロボットアームコントローラ4106により使用される。追加又は代替として、結合板3304は、カメラ300からの画像がモニタリングされている間、ロボットアーム506を移動させて、向きを特定することにより較正される。結合板3304が図37に示されるように向けられる例では、ロボットアーム506は、仮定された向きに相対する方向に移動(例えば、z軸に沿ってカメラ300を移動)するように命令される。仮定された向きが、カメラ300が下方に照準付けされた図37に示されるものである場合、ロボットアーム506の下方移動により、カメラ300が近づくにつれて画像内の物体は大きくなるはずである。例えば、画像内の物体が、代わりに横又は上/下に移動する場合、プロセッサ4102及び/又はロボットアームコントローラ4106は、移動を検出し、仮定された向きが不正確であると判断するように構成される。プロセッサ4102及び/又はロボットアームコントローラ4106は、エラーを生成し、正確な向きをオペレータにプロンプトし、且つ/又は画像において検出された移動に基づいて正確な向きを特定し得る。上述したように、カメラ300の移動からの画像内の変化は、例えば、画像テンプレート照合アルゴリズムの使用を通して自動的に復号化される。幾つかの実施形態では、プロセッサ4102及び/又はロボットアームコントローラ4106によるテンプレート照合アルゴリズムの使用は、結合板3304におけるジョイントの向きを特定し、これは較正のためにLUTに記憶される。 In some embodiments, processor 4102 and/or robot arm controller 4106 are also configured to calibrate with respect to coupling plate 3304. In some cases, coupling plate 3304 includes one or more switches that activate depending on the position of joints R7-R9. The known position of the switch is used by processor 4102 and/or robot arm controller 4106 as part of the coordinate transformation. Additionally or alternatively, coupling plate 3304 is calibrated by moving and orienting robotic arm 506 while images from camera 300 are monitored. In the example where coupling plate 3304 is oriented as shown in FIG. 37, robotic arm 506 is commanded to move in a direction relative to the assumed orientation (e.g., move camera 300 along the z-axis). . If the assumed orientation is that shown in FIG. 37 with camera 300 aimed downward, the object in the image should become larger as camera 300 approaches due to the downward movement of robot arm 506. For example, if the object in the image instead moves sideways or up/down, processor 4102 and/or robot arm controller 4106 may detect the movement and determine that the assumed orientation is incorrect. configured. Processor 4102 and/or robot arm controller 4106 may generate an error, prompt the operator for the correct orientation, and/or determine the correct orientation based on movement detected in the image. As mentioned above, changes in the image from movement of camera 300 are automatically decoded, for example, through the use of image template matching algorithms. In some embodiments, use of a template matching algorithm by processor 4102 and/or robot arm controller 4106 identifies the orientation of the joints in bonding plate 3304, which is stored in a LUT for calibration.

図49は、本開示の実施形態例による、立体視覚化カメラ300及び/又はロボットアーム506がロボット空間に対していかに較正されるかを示す図を示す。図示の実施形態では、各ジョイントR1~R9及び対応するリンクは、回転機能及び/又は長さに基づいてモデリングされる。メモリ4120は、モデルに関連する数学的パラメータを記憶し得る。さらに、プロセッサ4102及び/又はロボットアームコントローラ4106は、数学的モデルを使用して、例えば、ロボットアーム506及び/又はカメラ300の現在位置を特定し得、これ(ら)は、オペレータにより提供される意図される移動に基づいてジョイントがいかに回転すべきかの計算に使用し得る。 FIG. 49 shows a diagram illustrating how stereoscopic visualization camera 300 and/or robot arm 506 are calibrated to robot space, according to example embodiments of the present disclosure. In the illustrated embodiment, each joint R1-R9 and corresponding link is modeled based on rotational function and/or length. Memory 4120 may store mathematical parameters associated with the model. Additionally, processor 4102 and/or robot arm controller 4106 may use a mathematical model to determine, for example, the current position of robot arm 506 and/or camera 300, which is provided by an operator. It can be used to calculate how the joint should rotate based on the intended movement.

図示の例では、ジョイントR1は座標位置(0,0,0)に提供される。ジョイントR1~R9の間の長さはリンクの長さに対応する。図示の例では、立体視覚化カメラ300は、9個の結合器に接続されたロボットエンドエフェクタとしてモデリングされる。図49に示される三次元空間は、行列乗算を含み得る一連の10個の同次変換を使用してモデリングされる。最初の6つのフレーム又はジョイントR1~R6はロボットアーム506の順運動学を表し、ロボットアームのデナビット-ハーテンバーグパラメータを使用して計算し得る。次の3つのフレーム又はジョイントR7~R9は、ロボットアーム506のツール先端部から結合板3304の先端部への変換を表す。最後のフレームR10は、結合板3304のツール先端部から立体視覚化カメラ300の制御点までの変換を表す。 In the illustrated example, joint R1 is provided at coordinate position (0,0,0). The length between joints R1-R9 corresponds to the length of the link. In the illustrated example, stereoscopic visualization camera 300 is modeled as a robotic end effector connected to nine combiners. The three-dimensional space shown in FIG. 49 is modeled using a series of ten homogeneous transformations that may include matrix multiplications. The first six frames or joints R1-R6 represent the forward kinematics of the robot arm 506 and may be calculated using the Denavit-Hartenberg parameters of the robot arm. The next three frames or joints R7-R9 represent the transformation from the tool tip of the robot arm 506 to the tip of the coupling plate 3304. The last frame R10 represents the transformation from the tool tip of the coupling plate 3304 to the control point of the stereoscopic visualization camera 300.

フレーム又はジョイントR7は結合板3304のピッチジョイントを表し、0°~90°で変更することができる。フレーム又はジョイントR8は結合板3304のヨージョイントを表し、ヨー構成に応じて-90°、0°、及び90°間で変更することができる。結合板のジョイントR7~R9は電圧源及び電位差計を含み得る。ロボットアーム506のコネクタ3450及び/又は結合器コントローラ4130は、電位差計からの電圧出力を受信するように構成されたI/Oツール先端部コネクタを含み得る。プロセッサ4102及び/又はロボットアームコントローラ4106は、出力電圧を受信し、それに対応して結合板3304のピッチ角及びヨー角を特定するように構成される。プロセッサ4102及び/又はロボットアームコントローラ4106は、結合板のピッチ及びヨー情報をロボットアーム506のジョイントR1~R6からのセンサ出力データと結合して、フレームR1~R10の位置を計算し、ロボットアーム506、結合板3304、及び/又はカメラ300の三次元位置を特定する。 Frame or joint R7 represents the pitch joint of the coupling plate 3304 and can vary from 0° to 90°. Frame or joint R8 represents the yaw joint of coupling plate 3304 and can vary between -90°, 0°, and 90° depending on the yaw configuration. Joints R7-R9 of the coupling plate may include voltage sources and potentiometers. Connector 3450 and/or coupler controller 4130 of robot arm 506 may include an I/O tool tip connector configured to receive a voltage output from a potentiometer. The processor 4102 and/or the robot arm controller 4106 are configured to receive the output voltage and determine the pitch and yaw angles of the coupling plate 3304 in response. Processor 4102 and/or robot arm controller 4106 combine the coupling plate pitch and yaw information with sensor output data from joints R1-R6 of robot arm 506 to calculate the positions of frames R1-R10 and , the coupling plate 3304, and/or the camera 300.

制御点は、運動学的連鎖の一番端にあるフレーム10を表し、どの特徴が選択されるかに基づいて位置に関して完全にプログラム可能である。例えば、オペレータが補助付き駆動特徴を選択する場合、プロセッサ4102及び/又はロボットアームコントローラ4106は、制御アーム304の回転軸に沿ってカメラ内部にあるようにカメラ300を表す制御点を設定するように構成される。別の例では、オペレータが標的ロック特徴を選択する場合、プロセッサ4102及び/又はロボットアームコントローラ4106は、カメラ300の制御点を光軸ビューベクトルの原点に設定するように構成される。 The control point represents the frame 10 at the very end of the kinematic chain and is completely programmable in position based on which features are selected. For example, if the operator selects the assisted drive feature, processor 4102 and/or robot arm controller 4106 may cause control points to represent camera 300 to be within the camera along the axis of rotation of control arm 304. configured. In another example, if the operator selects a target lock feature, processor 4102 and/or robot arm controller 4106 are configured to set the control point of camera 300 to the origin of the optical axis view vector.

図48に戻ると、ロボット空間に対してカメラ300を較正した後、プロセッサ4102及び/又はロボットアームコントローラ4106は、患者空間に対してロボット空間を較正する(ブロック4808)ように構成される。患者空間の較正は、立体視覚化プラットフォーム516が、ロボットシステムと患者との間の向きが必要な患者の正確な視覚化を行うために必要である。幾つかの実施形態では、この向きは固定される。他の実施形態では、この向きは、変化する場合、検知され、分かる。幾つかの実施形態では、患者は手術室ベッドに配置され、1つ又は複数の基準4809を使用してベッドに見当合わせされる。例えば、患者が脳手術を受けている場合、患者はベッドに固定され、外部フレームが患者の頭蓋骨に固定される。フレームは立体視覚化カメラ300により観測可能であり、既知のロケーションの2つ以上の非共線形物体が同時に可視であり、それにより、フレームの位置及び向き、ひいては患者の頭蓋骨の位置及び向きを特定することが可能である較正ターゲットの配置等の配置で基準4809を含み得る。他の実施形態は、患者に移植され、MRI又は同様の画像で可視の基準4809を使用し得る。そのような基準4809は、正確に患者の頭蓋骨及びMRI画像を追跡し、患者空間を表す座標系に見当合わせするのに使用することができる。さらに、他の実施形態は、患者自体に生来の特徴の画像認識を使用し得る。例えば、バイオメトリックデータ、in-situ x線、又は同様の代替モダリティ撮像を使用した顔又は同様の認識を使用して、患者の位置及び向きを精密に特定することができる。別の例では、上述したように1つ又は複数の深度マップ計算及びプロセッサ4102及び/又はロボットアームコントローラ4106により実行される表面照合機能を使用して、患者の顔表面のモデルを特定することができる。 Returning to FIG. 48, after calibrating camera 300 with respect to robot space, processor 4102 and/or robot arm controller 4106 are configured to calibrate robot space with respect to patient space (block 4808). Patient space calibration is necessary for the stereoscopic visualization platform 516 to provide accurate visualization of the patient requiring orientation between the robotic system and the patient. In some embodiments, this orientation is fixed. In other embodiments, this orientation is sensed and known if it changes. In some embodiments, the patient is placed in an operating room bed and registered to the bed using one or more fiducials 4809. For example, if a patient is undergoing brain surgery, the patient is secured to a bed and an external frame is secured to the patient's skull. The frame is observable by a stereoscopic visualization camera 300, and two or more non-collinear objects of known locations are visible simultaneously, thereby determining the position and orientation of the frame and thus the patient's skull. The fiducials 4809 may be included in an arrangement such as an arrangement of calibration targets that may be performed. Other embodiments may use fiducials 4809 that are implanted in the patient and visible on MRI or similar images. Such fiducials 4809 can be used to accurately track and register the patient's skull and MRI images to a coordinate system representing patient space. Additionally, other embodiments may use image recognition of the patient's own natural features. For example, facial or similar recognition using biometric data, in-situ x-rays, or similar alternative modality imaging can be used to precisely identify the patient's location and orientation. In another example, a model of the patient's facial surface may be identified using one or more depth map computations and surface matching functions performed by processor 4102 and/or robotic arm controller 4106 as described above. can.

実施形態では、ロボット空間に関する手術室ベッドの位置及び向きは固定され、特定される。幾つかの実施形態は、例えば、ベッドを既知の位置及び向きでカート510の付属器具に機械的に見当合わせする剛性フレームを含む。代替として、ベッドはロボットアーム506に関して固定することができ、基準を使用して位置及び向きを特定することができる。例えば、ロボットカート510及びベッドは、床にアンカーで固定され、処置の持続時間にわたり固定することができる。 In embodiments, the position and orientation of the operating room bed with respect to the robot space is fixed and specified. Some embodiments include, for example, a rigid frame that mechanically registers the bed with the attachments of the cart 510 in a known position and orientation. Alternatively, the bed can be fixed with respect to the robotic arm 506 and the position and orientation can be determined using fiducials. For example, the robotic cart 510 and bed can be anchored to the floor and remain fixed for the duration of the procedure.

カメラ300により患者の基準4809を視覚化した後、ロボット空間におけるそれらの位置及び向きは、プロセッサ4102及び/又はロボットアームコントローラ4106により復号化、記憶することができ、ここで、ロボット空間から患者空間への座標変換が可能になる。なお、ある空間から別の空間への座標系変換は一般に、選択可能であり、可逆的である。例えば、プロセッサ4102及び/又はロボットアームコントローラ4106が離散したジョイント運動及び向きを特定できるようにするために、所望のカメラ運動又は姿勢からロボット空間に変換することがより効率的であり得る。代替的には、情報を患者空間においてディスプレイモニタ512上で外科医に提示することがより容易であり、より効率的であり得る。患者及びベクトルのロケーションは、プロセッサ4102及び/又はロボットアームコントローラ4106により大半の任意の座標系のそれぞれ、例えば、カート原点、患者基準系、GPS、及び/又は所望の他の座標系であるように変換することができる。 After visualizing patient fiducials 4809 by camera 300, their position and orientation in robot space can be decoded and stored by processor 4102 and/or robot arm controller 4106, where they are transferred from robot space to patient space. Coordinate transformation becomes possible. Note that the coordinate system transformation from one space to another is generally selectable and reversible. For example, it may be more efficient to translate from desired camera motion or pose to robot space to allow processor 4102 and/or robot arm controller 4106 to identify discrete joint motions and orientations. Alternatively, it may be easier and more efficient to present the information to the surgeon on display monitor 512 in the patient space. The patient and vector locations may be determined by processor 4102 and/or robot arm controller 4106 in each of most arbitrary coordinate systems, such as the cart origin, patient reference frame, GPS, and/or any other coordinate system desired. can be converted.

幾つかの実施形態では、プロセッサ4102及び/又はロボットアームコントローラ4106は、自動化された反復技法を使用して、ロボット/患者空間較正及び測定のこれら又は均等な方法を実行して、精度を上げ、較正時間を短縮するように構成される。例示的な実施形態では、基準に対する立体視覚化カメラ300の変位及び向きは、プロセッサ4102及び/又はロボットアームコントローラ4106により正確に既知である。ロボットアーム506の運動は正確に実行することができ、続く基準の画像は正確に分析することができる。較正パラメータの視覚化及び知識は、測定、ひいては較正を自動的に正確に実行することができるように、プロセッサ4102及び/又はロボットアームコントローラ4106により結合することができる。これは、例えば、ある外科処置及びある患者から次の外科処置及び患者に正確な較正を維持するのに重要である。 In some embodiments, the processor 4102 and/or the robot arm controller 4106 use automated iterative techniques to perform these or equivalent methods of robot/patient space calibration and measurement to increase accuracy and Configured to reduce calibration time. In the exemplary embodiment, the displacement and orientation of the stereoscopic visualization camera 300 relative to the reference is precisely known by the processor 4102 and/or the robot arm controller 4106. Movements of the robot arm 506 can be performed accurately and subsequent reference images can be accurately analyzed. Visualization and knowledge of calibration parameters can be coupled by processor 4102 and/or robot arm controller 4106 so that measurements, and thus calibration, can be performed automatically and accurately. This is important, for example, to maintain accurate calibration from one surgical procedure and patient to the next.

幾つかの例では、プロセッサ4102及び/又はロボットアームコントローラ4106は、患者空間及び/又はロボット空間に対するロボットアーム506及び/又はカメラ300の境界を決定するように構成される。境界は、ロボットアーム506及び/又はカメラ300が画定されたエリア若しくは空間に接触しない又は画定されたエリア若しくは空間から出ないようにするためにソフトウェアに実装される仮想限界を表す。幾つかの例では、限界は、プロセッサ4102及び/又はロボットアームコントローラ4106によりジョイント移動信号に適用されるスケーリング係数として、メモリ4120に記憶される1つ若しくは複数のLUT又はレジスタにおいて定義される。スケーリング係数の大きさは、個々の各境界への限界に近づくにつれてゼロに低減する。例えば、オペレータ入力に基づいてジョイント回転の量及び速度を決定し得る。しかしながら、プロセッサ4102及び/又はロボットアームコントローラ4106は、信号を適切なジョイントに送信する前、スケーリング係数でジョイント回転をスケーリングする。加えて、プロセッサ4102及び/又はロボットアームコントローラ4106は、ジョイントが所望の量、移動するが、ジョイントが境界に達するまで減速するように回転量を維持し得る。スケーリング係数が適用される回転エリアにおけるジョイントに、所望の移動が境界から離れる移動である場合、スケーリング係数が適用されないことがあることを理解されたい。したがって、プロセッサ4102及び/又はロボットアームコントローラ4106は、現在位置及びオペレータからの推定所望移動に基づいて、特定のジョイントにスケーリング係数を適用しながら、スケーリング係数「1」を他のジョイントに適用し得る。 In some examples, processor 4102 and/or robot arm controller 4106 are configured to determine the boundaries of robot arm 506 and/or camera 300 relative to patient space and/or robot space. Boundaries represent virtual limits implemented in software to prevent robotic arm 506 and/or camera 300 from touching or exiting a defined area or space. In some examples, the limits are defined in one or more LUTs or registers stored in memory 4120 as scaling factors applied to joint movement signals by processor 4102 and/or robot arm controller 4106. The magnitude of the scaling factor decreases to zero as the limit to each individual boundary is approached. For example, the amount and speed of joint rotation may be determined based on operator input. However, processor 4102 and/or robot arm controller 4106 scales the joint rotations with a scaling factor before sending the signals to the appropriate joints. In addition, processor 4102 and/or robot arm controller 4106 may maintain the amount of rotation such that the joint moves the desired amount but decelerates until the joint reaches the boundary. It should be appreciated that a scaling factor may not be applied to a joint in a rotational area to which a scaling factor is applied if the desired movement is away from the boundary. Thus, the processor 4102 and/or the robot arm controller 4106 may apply a scaling factor to a particular joint while applying a scaling factor of '1' to other joints based on the current position and estimated desired movement from the operator. .

スケーリング係数は厳密に0~1であり、それにより、それらを一緒に繋げられ、ソフトウェアが無限数の可能な境界をサポートできるようにする。スケーリング係数は、境界に近づくにつれて線形に低減し得、ロボットアーム506が境界に近づくにつれて、ジョイントR1~R9の回転を徐々に遅くさせる。他の例では、スケーリング係数は、境界に近づくにつれて指数的に低下し得る。 The scaling factors are exactly between 0 and 1, allowing them to be chained together, allowing the software to support an infinite number of possible boundaries. The scaling factor may decrease linearly as the boundary is approached, gradually slowing the rotation of joints R1-R9 as the robot arm 506 approaches the boundary. In other examples, the scaling factor may decrease exponentially as the boundary is approached.

一般に、オペレータは通常、ディスプレイモニタ512上の術野又は立体画像に注目する。したがって、オペレータは通常、ロボットアーム506及び/又は結合板3304の個々のリンクの位置に気付かない。したがって、ロボットアーム506が限界に近づこうとしているとき又はロボットアーム506の別の部分に衝突しようとしているとき、常に直観的であるわけではない。したがって、ジョイント限界は常にアクティブであり得、ロボットアーム506の任意の部分がそれ自体に当たるか、又はジョイントをエルボロック等の特異点構成にするのを阻止し得る。一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、ロボットアーム506の現在位置に基づいてスケーリング係数を決定するように構成される。プロセッサ4102及び/又はロボットアームコントローラ4106はまた、どのスケーリング係数を適用すべきかを判断するために、オペレータにより提供される意図される移動命令を考慮に入れることもできる。現在の移動及び/又は予期される移動に基づいて、プロセッサ4102及び/又はロボットアームコントローラ4106は、例えば、1つ又は複数のLUTを使用して、ジョイント角度空間における距離に基づいてスケーリング係数を計算する。ジョイント角度空間は、ジョイントロック又はロボットアーム506がそれ自体に当たることを生じさせることが分かっているジョイント角度の特定の組合せを定義し得る。したがって、ジョイント角度空間決定は、互いに対するジョイントの現在の移動(及び/又は予期される移動)を特定し比較することに基づく。 Generally, the operator typically focuses on the surgical field or stereo image on display monitor 512. Therefore, the operator is typically unaware of the position of the individual links of the robot arm 506 and/or the coupling plate 3304. Therefore, it is not always intuitive when the robot arm 506 is about to approach a limit or collide with another part of the robot arm 506. Accordingly, the joint limits may be active at all times and may prevent any portion of the robot arm 506 from hitting itself or putting the joint into a singularity configuration such as an elbow lock. The example processor 4102 and/or robot arm controller 4106 are configured to determine the scaling factor based on the current position of the robot arm 506. Processor 4102 and/or robot arm controller 4106 may also take into account the intended movement instructions provided by the operator to determine which scaling factor to apply. Based on the current movement and/or expected movement, processor 4102 and/or robot arm controller 4106 calculates a scaling factor based on distance in joint angular space, e.g., using one or more LUTs. do. The joint angle space may define a particular combination of joint angles that are known to cause the joint lock or robot arm 506 to hit itself. Joint angular space determination is therefore based on identifying and comparing the current (and/or expected) movements of the joints relative to each other.

ロボットアーム506の境界に加えて、メモリ4120は、ロボットアーム506がカート510に当たらないようにし、ロボットアームがディスプレイモニタ512に当たらないようにし、且つ/又はカメラ300がロボットアーム506に当たらないようにするデカルト限界に関連する境界を記憶し得る。プロセッサ4102及び/又はロボットアームコントローラ4106は、例えば、デカルト限界の決定及び/又は適用に図49と併せて考察した座標系を使用し得る。幾つかの例では、限界は特定のリンクに相対又は係留し得る。したがって、リンクが3D空間において移動した場合、リンクの周囲の境界もそれに従って移動する。他の例では、限界は静止し、図49に示される3D空間内で特定の座標平面又は線に固定される。プロセッサ4102及び/又はロボットアームコントローラ4106は、デカルト空間においてスケーリング係数を計算又は特定し、順運動学変換を適用することにより限界を適用し得る。 In addition to the boundaries of the robot arm 506, the memory 4120 can prevent the robot arm 506 from hitting the cart 510, prevent the robot arm from hitting the display monitor 512, and/or prevent the camera 300 from hitting the robot arm 506. can remember the bounds associated with the Cartesian limits. Processor 4102 and/or robot arm controller 4106 may, for example, use the coordinate system discussed in conjunction with FIG. 49 to determine and/or apply Cartesian limits. In some examples, limits may be relative to or anchored to a particular link. Therefore, if the link moves in 3D space, the boundaries around the link will also move accordingly. In other examples, the limit is stationary and fixed to a particular coordinate plane or line within the 3D space shown in FIG. 49. Processor 4102 and/or robot arm controller 4106 may calculate or identify scaling factors in Cartesian space and apply the limits by applying forward kinematics transformations.

一例のプロセッサ4102及び/又はロボットアームコントローラ4106はまた、患者境界を決定することもでき、患者境界は、ロボットアーム506及び/又はカメラ300の点が違反することができない仮想的な配置を画定する。患者境界は、境界平面のロケーションまでのロボットアーム506及び/又は結合板3304上の各位置ジョイントの距離について、デカルト空間においてスケーリング係数を計算することにより決定し得る。境界平面は、図50の向き5002で示されるように、非ピッチ構成と同じある垂直Zロケーションに配置されるX、Y平面として実施される。図50の向き5004に示される半分座っている患者等のピッチ構成では、境界平面は、カメラ300が面する方向に応じて正又は負のX値に配置されたY、Z平面として設定される。 The example processor 4102 and/or robotic arm controller 4106 may also determine patient boundaries, which define a virtual configuration that no points of the robotic arm 506 and/or camera 300 can violate. . The patient boundary may be determined by calculating a scaling factor in Cartesian space for the distance of each position joint on the robot arm 506 and/or coupling plate 3304 to the location of the boundary plane. The bounding plane is implemented as an X,Y plane located at the same vertical Z location as the non-pitch configuration, as shown by orientation 5002 in FIG. In a pitch configuration such as a half-seated patient shown in orientation 5004 of FIG. 50, the bounding plane is set as a Y,Z plane positioned at a positive or negative .

上述した一例の境界は、デフォルト境界としてメモリ4120に記憶し得、且つ/又は外科処置前に、プロセッサ4102及び/又はロボットアームコントローラ4106により決定し得る。幾つかの実施形態では、特定の境界は、実行する外科処置の入力されたタイプに基づいて評価又は決定し得る。例えば、患者境界は、カメラ300が患者を撮像し、較正情報/パラメータを使用して患者深度を特定することにより決定し得る。次に、プロセッサ4102及び/又はロボットアームコントローラ4106は、患者の上又は隣の指定されたロケーションへの境界を作成し適用し得る。モニタ、手術スタッフ、又は手術機器の検出後、同様の境界を作成し得る。 The example boundaries described above may be stored in memory 4120 as default boundaries and/or determined by processor 4102 and/or robotic arm controller 4106 prior to the surgical procedure. In some embodiments, particular boundaries may be evaluated or determined based on the input type of surgical procedure being performed. For example, patient boundaries may be determined by camera 300 imaging the patient and using calibration information/parameters to determine patient depth. Processor 4102 and/or robotic arm controller 4106 may then create and apply boundaries to the specified location on or next to the patient. Similar boundaries may be created after detection of monitors, surgical staff, or surgical equipment.

例えば、境界は、より大きなサイズの器具又は接触した場合に特定のリスクを課す器具のような特定の手術器具の使用の周囲に決定することができる。一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、器具タイプの入力を受信し、且つ/又は画像分析を使用して立体画像において器具を検出し得る。他の例では、プロセッサ4102及び/又はロボットアームコントローラ4106は、手術器具に関連する深度情報を計算して、そのサイズ、向き、及び/又は位置を特定する。一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、手術機器の画像を図49に関連して考察した座標系等の座標系に変換する。プロセッサ4102及び/又はロボットアームコントローラ4106はまた、「1」未満の値を有するスケーリング係数を手術機器のロケーションに対応するエリアに適用し、それにより、ロボットアーム506及び/又はカメラ300が手術器具に不注意で接触しないようにする。幾つかの場合、プロセッサ4102及び/又はロボットアームコントローラ4106は、処置中、手術器具の移動を追跡し、それに従って境界を変更し得る。 For example, boundaries may be determined around the use of certain surgical instruments, such as instruments of larger size or instruments that pose a particular risk if contacted. An example processor 4102 and/or robotic arm controller 4106 may receive instrument type input and/or detect instruments in stereo images using image analysis. In other examples, processor 4102 and/or robotic arm controller 4106 calculate depth information associated with a surgical instrument to determine its size, orientation, and/or location. The example processor 4102 and/or robotic arm controller 4106 transforms the surgical instrument image into a coordinate system, such as the coordinate system discussed in connection with FIG. 49. Processor 4102 and/or robotic arm controller 4106 also apply a scaling factor having a value less than "1" to an area corresponding to the location of the surgical instrument, thereby causing robotic arm 506 and/or camera 300 to Avoid inadvertent contact. In some cases, processor 4102 and/or robotic arm controller 4106 may track movement of surgical instruments and change boundaries accordingly during the procedure.

図51は、本開示の実施形態例による、境界への距離に基づいてロボットアーム506及び/又は結合板3304の回転ジョイント速度がいかにスケーリングされるかの一例を示す。グラフ5102はジョイントR1の回転速度を示し、グラフ5104は、スケーリング係数が値「1」から下げられる境界に近いエリアに対応する第1のゾーン5112及びスケーリング係数が値「0」に下げられる境界に対応する第2のゾーン5114に関連するショルダ角度(例えば、回転位置)5110を示す。 FIG. 51 illustrates an example of how rotary joint velocity of the robot arm 506 and/or coupling plate 3304 is scaled based on distance to a boundary, according to example embodiments of the present disclosure. Graph 5102 shows the rotational speed of joint R1, and graph 5104 shows a first zone 5112 corresponding to the area near the boundary where the scaling factor is lowered from the value "1" and at the boundary where the scaling factor is lowered to the value "0". A shoulder angle (eg, rotational position) 5110 is shown associated with a corresponding second zone 5114.

図51は、ロボットアーム506、特にジョイントR1が少なくとも1つのリンク及び/又は立体視覚化カメラ300を第1のゾーン5112に近づける際、回転速度が第2のゾーン5114までの距離に関して動的にスケーリングされることを示す。次に、少なくとも1つのリンク及び/又は立体視覚化カメラ300が第2のゾーン5114に達すると、スケーリング係数は値「0」に下げられ、境界に向かう全ての回転ジョイント移動は停止する。換言すれば、ロボットアーム506及び立体視覚化カメラ300が限界又は境界に近づくにつれて、プロセッサ4102及び/又はロボットアームコントローラ4106はジョイントR1~R9の少なくとも幾つかの回転速度を低減させ、第2のゾーン5114に達した(グラフ5102及び5104において20秒と30秒との間に示されるように)場合、最終的に速度「0」度/秒の速度に到達させる。グラフはまた、少なくとも1つのリンク及び/又は立体視覚化カメラ300が第2のゾーン5114から離れて移動する場合、第2のゾーン5114に近づいていないため、プロセッサ4102及び/又はロボットアームコントローラ4106がスケーリング係数「1」を使用することも示す。 FIG. 51 shows that as the robot arm 506, particularly joint R1, approaches the at least one link and/or stereoscopic visualization camera 300 to the first zone 5112, the rotational speed dynamically scales with respect to the distance to the second zone 5114. Indicates that the Then, when at least one link and/or stereoscopic visualization camera 300 reaches the second zone 5114, the scaling factor is lowered to the value "0" and all revolute joint movement towards the boundary is stopped. In other words, as the robot arm 506 and the stereoscopic visualization camera 300 approach a limit or boundary, the processor 4102 and/or the robot arm controller 4106 reduce the rotational speed of at least some of the joints R1-R9 so that the second zone When 5114 is reached (as shown between 20 seconds and 30 seconds in graphs 5102 and 5104), a speed of "0" degrees/second is finally reached. The graph also shows that if the at least one link and/or stereoscopic visualization camera 300 moves away from the second zone 5114, the processor 4102 and/or the robot arm controller 4106 It is also shown that a scaling factor of "1" is used.

幾つかの実施形態では、プロセッサ4102及び/又はロボットアームコントローラ4106は、ディスプレイモニタ512又は他のユーザインターフェースにロボットアーム506のステータスを表す1つ又は複数のグラフィカルアイコンを表示させるように構成される。例えば、ロボットアーム506及び/又はカメラ300が、スケーリング係数が値「1」を有するゾーン又はエリアに配置されている場合、緑色のアイコンを表示し得る。さらに、ロボットアーム506及び/又はカメラ300が第1のゾーン5112内に配置されている場合、黄色のアイコンを表示して、ジョイント回転速度が減じられることを示し得る。さらに、ロボットアーム506が第2のゾーン5114又は境界/限界に達した場合、赤色のアイコンを表示して、境界を越えたそれ以上の移動が可能ではないことを示し得る。 In some embodiments, processor 4102 and/or robotic arm controller 4106 are configured to cause display monitor 512 or other user interface to display one or more graphical icons representing the status of robotic arm 506. For example, if the robotic arm 506 and/or the camera 300 are located in a zone or area where the scaling factor has a value of "1", a green icon may be displayed. Additionally, if the robot arm 506 and/or camera 300 are positioned within the first zone 5112, a yellow icon may be displayed to indicate that the joint rotation speed is reduced. Additionally, if the robot arm 506 reaches the second zone 5114 or boundary/limit, a red icon may be displayed to indicate that no further movement beyond the boundary is possible.

図48に戻ると、ロボット空間境界が決定された後、一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、ロボットアーム506が立体視覚化カメラと動作できるようにする(ブロック4812)よう構成される。これは、ロボットアーム506及び立体視覚化カメラ300を外科処置中に使用できるようにすることを含み得る。これはまた、補助付き駆動及び/又は標的ロック等の特徴を含むこともできる。追加又は代替として、これは、図41の入力デバイス1410の1つ又は複数における1つ又は複数のユーザ制御を可能にすることを含み得る。ロボットアーム506が立体視覚化カメラ300と共に可能になった後、一例の手順4800は終了する。立体視覚化プラットフォーム516が再初期化される場合、故障検出を受ける場合、又は較正を検証することができない場合、一例の手順4800を繰り返し得る。 Returning to FIG. 48, after the robot space boundaries are determined, the example processor 4102 and/or robot arm controller 4106 are configured to enable the robot arm 506 to operate with the stereoscopic visualization camera (block 4812). . This may include making the robotic arm 506 and stereoscopic visualization camera 300 available for use during the surgical procedure. It may also include features such as assisted drive and/or target locking. Additionally or alternatively, this may include enabling one or more user controls on one or more of the input devices 1410 of FIG. 41. After the robotic arm 506 is enabled with the stereoscopic visualization camera 300, the example procedure 4800 ends. The example procedure 4800 may be repeated if the stereoscopic visualization platform 516 is reinitialized, experiences a fault detection, or is unable to verify calibration.

D.立体視覚化カメラ及びロボットアーム動作の実施形態
一例の立体視覚化カメラ300は、ロボットアーム506及び/又は結合板3304と併せて動作して、強化された視覚化特徴を提供するように構成される。より詳細に後述するように、強化された特徴は、フォーカスの拡張、焦点先端部(focal tip)位置決めの自動化、画像内の物体間の距離測定の提供、視覚化と連合したロボット運動の提供、垂れ下がり補償、画像融合、及び視覚化位置/向きの記憶を含む。強化された視覚化特徴はまた、ロボットアーム506の補助付き駆動機能及びロボットアーム506及び/又は結合板3304の向きが変更可能でありながら、カメラを特定のビューにロックできるようにする標的ロック機能を含むこともできる。
D. Embodiments of Stereo Visualization Camera and Robot Arm Operation The example stereo visualization camera 300 is configured to operate in conjunction with the robot arm 506 and/or the coupling plate 3304 to provide enhanced visualization features. . As discussed in more detail below, the enhanced features include focus extension, automating focal tip positioning, providing distance measurements between objects in images, providing robot motion in conjunction with visualization, Includes sag compensation, image fusion, and visualization position/orientation storage. Enhanced visualization features also include assisted drive capabilities of the robot arm 506 and target locking capabilities that allow the camera to be locked to a particular view while the robot arm 506 and/or coupling plate 3304 can be reoriented. can also be included.

1.フォーカス拡張実施形態
幾つかの実施形態では、ロボットアーム506及び/又は結合板3304は、カメラ300のフォーカス拡張を提供し得る。図43に関連して上述したように、立体視覚化カメラ300は、作業距離を変更する主対物レンズ組立体702を含む。手術部位における物体にフォーカスするために、主対物レンズ組立体702は、物体の直前から物体を超えたところまで焦点距離を変更する。しかしながら、幾つかの場合、主対物レンズ組立体702は、最良フォーカスを達成する前、前部作業距離レンズ408の機械的限界に達する。
1. Focus Extension Embodiments In some embodiments, the robotic arm 506 and/or the coupling plate 3304 may provide focus extension of the camera 300. As described above in connection with FIG. 43, stereoscopic visualization camera 300 includes a main objective lens assembly 702 that changes the working distance. To focus on an object at the surgical site, main objective lens assembly 702 changes focal length from just in front of the object to beyond the object. However, in some cases, the main objective lens assembly 702 reaches the mechanical limits of the front working distance lens 408 before achieving best focus.

一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、機械的限界に達したときを検出し、且つ/又はレンズ408の機械的限界に達しようとしていると判断し、それに従ってレンズ408の代わりにロボットアーム506の位置を調整するように構成される。プロセッサ4102及び/又はロボットアームコントローラ4106は、ロボットアーム506を使用して、カメラ300のビューベクトルを計算し、光軸に沿ってロボットアーム506を作動させることによりフォーカスを拡張するように構成される。プロセッサ4102及び/又はロボットアームコントローラ4106は、立体視覚化カメラ300の上記較正パラメータを使用して、フォーカスを達成するのに必要な距離を特定する。例えば、上述したように、前部作業距離レンズ408の位置は、標的物体までの主対物レンズ組立体702の物理的な作業距離にマッピングされる。この距離は、カメラ300の中心が標的物体からどれくらい遠いかについての推定を提供する。さらに、較正パラメータは、前部作業距離レンズ408のモータ又はエンコーダステップと作業距離との間のマッピングを含み得、特定の作業距離又はフォーカスの達成に必要な距離の推定を提供する。したがって、プロセッサ4102及び/又はロボットアームコントローラ4106は、前部作業距離レンズ408の現在のエンコーダ値を読み取り、カメラ300から標的物体までの垂直距離を表すメートル数を特定し得る。換言すれば、プロセッサ4102及び/又はロボットアームコントローラ4106は、レンズ移動(エンコーダカウント単位)をロボット空間内の物理的距離に変換する。プロセッサ4102及び/又はロボットアームコントローラ4106は次に、ロボットアーム506を光軸に沿って特定された距離移動させるためのジョイント回転速度、方向、及び/又は持続時間(例えば、移動シーケンス)を決定する。プロセッサ4102及び/又はロボットアームコントローラ4106は次に、1つ又は複数の信号を移動シーケンスに対応する適切なジョイントに送信して、ロボットアーム506にフォーカス拡張を提供させる。幾つかの場合、プロセッサ4102及び/又はロボットアームコントローラ4106は、信号がロボットアーム506及び/又は結合板3304のジョイントR1~R9に送信される前、スケーリング係数を適用し得る。 The example processor 4102 and/or robot arm controller 4106 detects when a mechanical limit is reached and/or determines that the mechanical limit of the lens 408 is about to be reached and replaces the lens 408 with the robot accordingly. The arm 506 is configured to adjust its position. The processor 4102 and/or the robotic arm controller 4106 are configured to use the robotic arm 506 to calculate a view vector for the camera 300 and extend the focus by actuating the robotic arm 506 along the optical axis. . Processor 4102 and/or robot arm controller 4106 use the above calibration parameters of stereoscopic visualization camera 300 to determine the distance required to achieve focus. For example, as discussed above, the position of the front working distance lens 408 is mapped to the physical working distance of the main objective lens assembly 702 to the target object. This distance provides an estimate of how far the center of camera 300 is from the target object. Additionally, the calibration parameters may include a mapping between the motor or encoder steps of the front working distance lens 408 and the working distance, providing an estimate of the distance required to achieve a particular working distance or focus. Accordingly, processor 4102 and/or robot arm controller 4106 may read the current encoder value of front working distance lens 408 and determine the number of meters representing the vertical distance from camera 300 to the target object. In other words, processor 4102 and/or robot arm controller 4106 convert lens movement (in encoder counts) into physical distance within robot space. Processor 4102 and/or robot arm controller 4106 then determine joint rotation speed, direction, and/or duration (e.g., movement sequence) for moving robot arm 506 the specified distance along the optical axis. . Processor 4102 and/or robot arm controller 4106 then sends one or more signals to the appropriate joints corresponding to the movement sequence to cause robot arm 506 to provide focus expansion. In some cases, processor 4102 and/or robot arm controller 4106 may apply a scaling factor before the signals are sent to joints R1-R9 of robot arm 506 and/or coupling plate 3304.

フォーカスの拡張がロボットアーム506の自動移動を生じさせることを理解されたい。換言すれば、ロボットアーム506は、最良フォーカス点を通してカメラ300の運動を継続することができる。加えて、ロボットアーム506の移動は、ロボットアームを移動させるオペレータからの入力なしで、むしろフォーカスの変更に関するオペレータ画像から行われる。幾つかの場合、プロセッサ4102及び/又はロボットアームコントローラ4106は、クリアな画像を維持するようにフォーカスを自動的に調整し得る。 It should be appreciated that focus expansion causes automatic movement of the robot arm 506. In other words, the robot arm 506 can continue to move the camera 300 through the best focus point. Additionally, movement of the robot arm 506 is performed without input from an operator moving the robot arm, rather from operator images regarding changes in focus. In some cases, processor 4102 and/or robot arm controller 4106 may automatically adjust focus to maintain a clear image.

幾つかの実施形態では、プロセッサ4102及び/又はロボットアームコントローラ4106は、入力デバイス1410を介した1つのボタン押下に応答してロボットアーム506をカメラの作業距離に沿って移動させるように構成される。この特徴は、オペレータが主対物レンズ組立体702のモータ位置を修正し、ロボットアーム506及び/又は結合板3304を移動させることによりフォーカスを得られるようにする。この「ロボットオートフォーカス」特徴又は手順は、図43に関連して上述したように、プロセッサ4102及び/又はロボットアームコントローラ4106が主対物レンズ組立体702の正面から標的までの距離を推定又は特定することにより達成される。プロセッサ4102及び/又はロボットアームコントローラ4106は、特定された距離をフィードバック法則を用いて、特定された距離が値「0」に達するまで、ロボットアーム506の垂直速度(又はカメラ300の光軸に沿った速度)を命令するように構成される。プロセッサ4102及び/又はロボットアームコントローラ4106は、処置中、このオートフォーカスアルゴリズムを随時使用して、標的物体にフォーカスし得る。幾つかの実施形態では、プロセッサ4102及び/又はロボットアームコントローラ4106は、オートフォーカスの方向をサーチする際、オートフォーカスがシード又は開始点として使用された最後からのロボットアーム506及び/又は結合板3304の移動を使用し、それにより、標的物体にフォーカスする速度及び精度を改善し得る。 In some embodiments, the processor 4102 and/or the robotic arm controller 4106 are configured to move the robotic arm 506 along the working distance of the camera in response to a single button press via the input device 1410. . This feature allows the operator to obtain focus by modifying the motor position of the main objective lens assembly 702 and moving the robot arm 506 and/or the coupling plate 3304. This "robot autofocus" feature or procedure, as described above in connection with FIG. This is achieved by Processor 4102 and/or robot arm controller 4106 uses feedback laws to increase the vertical velocity of robot arm 506 (or along the optical axis of camera 300) until the determined distance reaches a value of "0". configured to command speed). Processor 4102 and/or robotic arm controller 4106 may use this autofocus algorithm from time to time during a procedure to focus on a target object. In some embodiments, the processor 4102 and/or robot arm controller 4106 selects the last robot arm 506 and/or coupling plate 3304 from which autofocus was used as a seed or starting point when searching for an autofocus direction. movement can be used to improve the speed and accuracy of focusing on the target object.

一例のプロセッサ4102及び/又はロボットアームコントローラ4106が、それぞれが位置、フォーカス、作業距離、及び/又は倍率にマッピングされたエンコーダカウントを有する各モータにより移動可能であり得る前部レンズセット714、レンズバレルセット718、及び/又は最終光学セット742の移動への追加又は代替として、ロボットアーム506及び/又は結合板3304を移動させるように構成し得ることを理解されたい。例えば、プロセッサ4102及び/又はロボットアームコントローラ4106は、前部レンズセット714、レンズバレルセット718、及び/又は最終光学セット742のいずれかが移動限界に近づこうとしている場合、ロボットアーム506を光軸に沿って移動させ得る。幾つかの例では、プロセッサ4102及び/又はロボットアームコントローラ4106は、ロボットアーム506をまず、概ねフォーカス又はフォーカス近傍である位置に移動させ、次に前部レンズセット714、レンズバレルセット718、及び/又は最終光学セット742を調整して、標的画像に略理想的にフォーカスし得る。 An example processor 4102 and/or robot arm controller 4106 may be movable by a front lens set 714, lens barrel, each motor having an encoder count mapped to position, focus, working distance, and/or magnification. It should be appreciated that in addition to or as an alternative to moving set 718 and/or final optical set 742, robotic arm 506 and/or coupling plate 3304 may be configured to move. For example, processor 4102 and/or robot arm controller 4106 may cause robot arm 506 to move toward the optical axis if any of front lens set 714, lens barrel set 718, and/or final optics set 742 are approaching the limits of travel. can be moved along. In some examples, processor 4102 and/or robot arm controller 4106 first move robot arm 506 to a position that is generally at or near focus, and then move front lens set 714, lens barrel set 718, and/or Alternatively, the final optical set 742 may be adjusted to approximately ideally focus the target image.

2.フォーカス先端部自動位置決めの実施形態
幾つかの実施形態では、ロボットアーム506及び/又は結合板3304は、立体視覚化カメラ300と併せて動作して、フォーカス先端部自動位置決めを提供し得る。これらの実施形態では、プロセッサ4102及び/又はロボットアームコントローラ4106は、特定の画像及びその内容の情報又はフィードバックなしで標的手術部位の視覚化に向けてカメラ300を位置決めするように構成される。プロセッサ4102及び/又はロボットアームコントローラ4106は、図42及び図49に関連して上述した、較正されたカメラモデルパラメータを使用して、開ループカメラ位置決めを実行し得る。プロセッサ4102及び/又はロボットアームコントローラ4106は、カメラの焦点又はフォーカス先端部がシーン内にあるように、ロボットアーム506に立体視覚化カメラ300を位置決めさせ得る。立体視覚化カメラ300は、ロボットアーム506及び/又は結合板の姿勢に関する較正情報及びカメラ300の光学較正パラメータに基づいて、座標系に関してカメラ300の照準方向を決定する。プロセッサ4102及び/又はロボットアームコントローラ4106は、ロボットアーム506の座標系に関してカメラ300の立体光軸と一致して位置合わせされる、幾何学的に定義されるビューベクトルにより照準を特徴付け得る。
2. Focus Tip Auto Positioning Embodiments In some embodiments, the robotic arm 506 and/or the coupling plate 3304 may operate in conjunction with the stereoscopic visualization camera 300 to provide focus tip auto positioning. In these embodiments, the processor 4102 and/or the robotic arm controller 4106 are configured to position the camera 300 for visualization of the target surgical site without information or feedback of specific images and their contents. Processor 4102 and/or robot arm controller 4106 may perform open-loop camera positioning using the calibrated camera model parameters described above in connection with FIGS. 42 and 49. Processor 4102 and/or robot arm controller 4106 may position stereoscopic visualization camera 300 on robot arm 506 such that the focal point or focus tip of the camera is within the scene. The stereoscopic visualization camera 300 determines the pointing direction of the camera 300 with respect to the coordinate system based on calibration information regarding the pose of the robot arm 506 and/or the coupling plate and optical calibration parameters of the camera 300. Processor 4102 and/or robot arm controller 4106 may characterize the aim with a geometrically defined view vector that is aligned with the stereoscopic optical axis of camera 300 with respect to the coordinate system of robot arm 506.

幾つかの実施形態では、プロセッサ4102及び/又はロボットアームコントローラ4106は、初期化ルーチンを実行して、較正パラメータ及び/又は他のメモリデータを、先端部位置決めに使用し得る実際の物理的な基準位置に位置合わせするように構成される。例えば、プロセッサ4102及び/又はロボットアームコントローラ4106は、ロボットアーム506及び/又は結合板を、全ての位置データフィールドが0(又は三次元空間では0,0,0)に設定される「位置0」におけるハードスポットに移動させ得る。それ以上の運動は、この点に相対して行われ、位置データは、例えば、ロボットアーム506及び/又は結合板3304の種々のジョイントモータのエンコーダカウントに従って更新される。 In some embodiments, processor 4102 and/or robot arm controller 4106 execute an initialization routine to set calibration parameters and/or other memory data to actual physical references that may be used for tip positioning. configured to align to the position. For example, processor 4102 and/or robot arm controller 4106 may place robot arm 506 and/or coupling plate at “position 0” where all position data fields are set to 0 (or 0,0,0 in three-dimensional space). can be moved to hard spots in the body. Further movements are performed relative to this point and the position data is updated according to encoder counts of the various joint motors of the robot arm 506 and/or the coupling plate 3304, for example.

他の実施形態では、プロセッサ4102及び/又はロボットアームコントローラ4106は、1つ又は複数の視覚化パラメータに基づいてカメラ300の先端部位置を決定又は設定し得る。例えば、プロセッサ4102及び/又はロボットアームコントローラ4106は、ビューベクトルの基端部(例えば、カメラ300を照準決めるための「開始点」)として投影中心ロケーションを使用し得る。幾つかの手術システムでは、手術機器におけるこの点は、「後(hind)」点と呼ばれ、先端部に関連して提供し得る。プロセッサ4102及び/又はロボットアームコントローラ4106は、先端部及び後点からのビューベクトル方向を計算して、ロボットアーム506の座標系に関するカメラ300の照準を決定する。 In other embodiments, processor 4102 and/or robot arm controller 4106 may determine or set the tip position of camera 300 based on one or more visualization parameters. For example, processor 4102 and/or robot arm controller 4106 may use the projection center location as the proximal end of the view vector (eg, the “starting point” for aiming camera 300). In some surgical systems, this point on the surgical instrument is referred to as a "hind" point and may be provided in relation to the tip. The processor 4102 and/or the robot arm controller 4106 calculate view vector directions from the tip and back points to determine the aiming of the camera 300 with respect to the coordinate system of the robot arm 506.

追加又は代替として、プロセッサ4102及び/又はロボットアームコントローラ4106は、投影中心から立体画像の焦点面の範囲を計算する焦点距離を決定し得る。焦点面における画像の中心は「先端」点である。プロセッサ4102及び/又はロボットアームコントローラ4106は、較正された作業距離を使用して、カメラ300から先端点までの実際の物理的な空間距離を決定し得る。さらに、プロセッサ4102及び/又はロボットアームコントローラ4106は、倍率較正に関して上述したように、倍率を決定し得る。 Additionally or alternatively, the processor 4102 and/or the robot arm controller 4106 may determine a focal length that calculates the extent of the focal plane of the stereo image from the projection center. The center of the image in the focal plane is the "tip" point. Processor 4102 and/or robot arm controller 4106 may use the calibrated working distance to determine the actual physical spatial distance from camera 300 to the tip point. Additionally, processor 4102 and/or robot arm controller 4106 may determine the magnification factor as described above with respect to magnification calibration.

3.距離測定の実施形態
幾つかの実施形態では、ロボットアーム506及び/又は結合板3304は、立体視覚化カメラ300と併せて動作して、立体画像における物体間の距離測定及び/又は深度測定を提供し得る。例えば、プロセッサ4102は、ロボット空間に変換された光学較正パラメータを使用してロボットアーム506の座標系に関してカメラ300の焦点又はフォーカス先端部の中心を位置関係的に決定し得る。図45及び図46に関連して上述したように、画像における任意の点のビューベクトル及び左/右視差情報はプロセッサ4102により使用されて、三角測量を通して先端部又は画像における任意の他の点に関する三次元におけるその位置を計算することができる。この三角測量により、プロセッサ4102は、画像における任意の点をロボット座標系にマッピングできるようになる。したがって、プロセッサ4102は、ロボットアーム506の同じ座標空間に関して複数の物体のロケーション及び/又は深度或いは/並びに物体の異なる部分のロケーションを計算することができ、それにより、物体間で距離測定及び/又は深度測定を行えるようになる。
3. Distance Measurement Embodiments In some embodiments, the robotic arm 506 and/or coupling plate 3304 operate in conjunction with the stereoscopic visualization camera 300 to provide distance and/or depth measurements between objects in stereoscopic images. It is possible. For example, processor 4102 may positionally determine the focal point or center of the focus tip of camera 300 with respect to the coordinate system of robot arm 506 using optical calibration parameters translated to robot space. As described above in connection with FIGS. 45 and 46, the view vector and left/right disparity information for any point in the image can be used by processor 4102 to perform triangulation regarding the tip or any other point in the image. Its position in three dimensions can be calculated. This triangulation allows processor 4102 to map any point in the image to the robot coordinate system. Accordingly, the processor 4102 can calculate the location and/or depth of multiple objects and/or the location of different parts of the objects with respect to the same coordinate space of the robot arm 506, thereby providing distance measurements and/or Becomes able to measure depth.

プロセッサ4102は、立体画像上に且つ/又は立体画像と併せて視覚的に距離及び/又は深度測定情報を表示させ得る。幾つかの場合、オペレータは入力デバイス1410を使用して、画面上の物体を選択し、又は指若しくは手術機器を使用して患者における実際の物体を直接指すことにより2つ以上の物体を選択し得る。プロセッサ4102は選択の指示を受信し、それに従って物体の座標及び物体間の距離を特定する。プロセッサ4102は次に、立体画像と併せて定規グラフィック及び/又は距離を示す値(及び/又は選択された物体の表示)を表示し得る。 Processor 4102 may visually display distance and/or depth measurement information on and/or in conjunction with the stereoscopic images. In some cases, the operator uses input device 1410 to select an object on the screen, or selects two or more objects by pointing directly at the actual object at the patient using a finger or a surgical instrument. obtain. Processor 4102 receives the selection indication and determines the coordinates of the objects and distances between the objects accordingly. Processor 4102 may then display a ruler graphic and/or a distance value (and/or an indication of the selected object) in conjunction with the stereo image.

さらに、物体の追跡により、前に撮像された(又は前に他の画像で提供された)他の物体のロケーションを記憶し、後に比較することができる。例えば、カメラ300は、物体の少なくとも幾つかが現在FOVの外部にあるロケーションに移動し得る。しかしながら、オペレータは、FOV内の物体と、現在、FOV外部にある前に撮像された物体との間の距離を特定するようにプロセッサ4102に命令することができる。 Furthermore, object tracking allows the location of other objects previously imaged (or previously provided in other images) to be remembered and compared later. For example, camera 300 may move to a location where at least some of the objects are currently outside the FOV. However, an operator can instruct processor 4102 to determine the distance between an object within the FOV and a previously imaged object that is currently outside the FOV.

幾つかの実施形態では、プロセッサ4102は、MRI画像、X線画像、手術テンプレート又はガイドライン、術前画像等の代替モダリティ視覚化からのデジタル画像又はモードと融合するために、物体の座標を使用し得る。一例にプロセッサ4102は、座標面における物体のロケーション及び深度情報を使用して、代替モダリティ視覚化を適宜スケーリング、向き決め、且つ位置決めするように構成される。プロセッサ4102は、表示される立体画像に同一の特徴(例えば、物体)を有する代替モダリティ視覚化の少なくとも一部を選択し得る。例えば、プロセッサ4102は、画像分析ルーチンを使用して、立体画像において血管パターン、傷、変形、又は他の見ることができる物理的な構造若しくは物体を見つけ得る。プロセッサ4102は次に、代替モダリティ視覚化において同一の特徴を見つけ得る。プロセッサ4102は、同一の特徴を含む代替モダリティ視覚化の一部を選択する。プロセッサ4102は次に、立体画像における座標、深度、及び/又は特徴間の距離を、代替モダリティ視覚化の選択された部分のスケーリング、回転、及び/又は向き決めに使用し得る。プロセッサは次に、代替モダリティ視覚化の調整された部分を立体画像と融合し得る。プロセッサ4102は、識別可能な物体が互いに対して及び/又はFOVに対していかに移動するかを追跡し、それに従って融合画像をいかに更新すべきかを決定し得る。例えば、別の手術ロケーションへのカメラ300の移動は、プロセッサ4102に、その別の手術ロケーションの立体画像との融合に術前画像の別の部分を選択させ得る。 In some embodiments, the processor 4102 uses the coordinates of the object to fuse with digital images or modes from alternative modality visualizations, such as MRI images, X-ray images, surgical templates or guidelines, preoperative images, etc. obtain. In one example, processor 4102 is configured to use the location of the object in the coordinate plane and depth information to scale, orient, and position the alternate modality visualization accordingly. Processor 4102 may select at least some of the alternative modality visualizations that have the same features (eg, objects) in the displayed stereo image. For example, processor 4102 may use image analysis routines to find blood vessel patterns, scars, deformations, or other visible physical structures or objects in stereoscopic images. Processor 4102 may then find the same feature in the alternate modality visualization. Processor 4102 selects a portion of the alternative modality visualization that includes the same features. Processor 4102 may then use the coordinates, depth, and/or distances between features in the stereo image to scale, rotate, and/or orient selected portions of the alternate modality visualization. The processor may then fuse the adjusted portions of the alternate modality visualization with the stereo image. Processor 4102 may track how the distinguishable objects move relative to each other and/or relative to the FOV and determine how to update the fused image accordingly. For example, movement of camera 300 to another surgical location may cause processor 4102 to select another portion of the pre-operative image for fusion with the stereoscopic image of that other surgical location.

幾つかの場合、プロセッサ4102及び/又はロボットアームコントローラ4106は、ロボットアーム506を移動させて、FOV内の物体の移動を追跡させ得る。プロセッサ4102は、物体の座標位置を使用して、移動又は暗化(obfuscation)を検出する。移動又は暗化の検出に応答して、プロセッサ4102及び/又はロボットアームコントローラ4106は、物体の移動を追跡し、又は暗化を解消するために、ロボットアーム506及び/又は結合板3304がいかに移動すべきかを決定するように構成される。例えば、プロセッサ4102及び/又はロボットアームコントローラ4106は、ロボットアーム506を円形路で移動させて、複数の方向から患者の網膜上の点を視覚化して、器具からの反射又は暗化を回避し得る。 In some cases, processor 4102 and/or robotic arm controller 4106 may move robotic arm 506 to track movement of objects within the FOV. Processor 4102 uses the object's coordinate location to detect movement or obfuscation. In response to detecting movement or darkening, processor 4102 and/or robot arm controller 4106 may track movement of the object or determine how robot arm 506 and/or coupling plate 3304 moves to resolve the darkening. configured to determine whether to do so. For example, processor 4102 and/or robotic arm controller 4106 may move robotic arm 506 in a circular path to visualize points on the patient's retina from multiple directions to avoid reflections or darkening from instruments. .

4.画像融合の実施形態
上述したように、プロセッサ4102は、代替モダリティからの画像をライブ立体画像に融合するように構成される。例えば、外科医は、深い脳腫瘍を有する患者に対して手術を行っている場合、プロセッサ4102が、ディスプレイモニタ512へのカメラ300からのライブ画像として、適切なロケーション、適切な深度、且つ立体視点における脳腫瘍のMRI画像を視覚化するように命令することができる。幾つかの実施形態では、プロセッサ4102は、FOV内の1つ又は複数の物体の距離及び/又は深度測定情報を代替モダリティビューとの融合に使用するように構成される。プロセッサ4102はまた、図42に関連して考察した較正ステップで計算され、1つ又は複数のLUTに記憶された立体光軸(例えば、ビューベクトル)、IPD、及び/又はカメラモデルパラメータを使用して撮像融合を提供することもできる。光学較正パラメータの使用により、プロセッサ4102は、まるで画像が立体視覚化カメラ300により取得されたかのように代替モダリティ画像を表示することができる。プロセッサ4102は、カメラの光学較正パラメータを使用して、カメラ300の適用される作業距離及び倍率を所与として、代替モダリティ画像が手術部位における焦点から距離Zにおいて見られるように、カメラ300の有効IPDに基づいて代替モダリティ画像をモデリング、スケーリング、又は変更し得る。
4. Image Fusion Embodiments As mentioned above, processor 4102 is configured to fuse images from alternative modalities into a live stereoscopic image. For example, if a surgeon is performing surgery on a patient with a deep brain tumor, processor 4102 may display live images from camera 300 to display monitor 512 of the brain tumor at the appropriate location, at the appropriate depth, and in a stereoscopic perspective. can be instructed to visualize an MRI image of. In some embodiments, processor 4102 is configured to use range and/or depth measurement information of one or more objects within the FOV for fusion with alternative modality views. Processor 4102 also uses the stereo optical axis (e.g., view vector), IPD, and/or camera model parameters calculated in the calibration step discussed in connection with FIG. 42 and stored in one or more LUTs. can also provide imaging fusion. The use of optical calibration parameters allows processor 4102 to display alternative modality images as if the images were acquired by stereoscopic visualization camera 300. Processor 4102 uses the camera's optical calibration parameters to adjust the effectiveness of camera 300 such that, given the applied working distance and magnification of camera 300, the alternate modality image is viewed at a distance Z from the focal point at the surgical site. Alternate modality images may be modeled, scaled, or modified based on the IPD.

図52は、本開示の実施形態例による、代替モダリティ視覚化からの画像を立体画像と融合する一例の手順5200の図を示す。手順5200について図52に示される流れ図を参照して説明するが、手順5200に関連するステップを実行する多くの他の方法が使用可能なことを理解されたい。例えば、ブロックの多くの順序は変更し得、特定のブロックは他のブロックと結合し得、記載されるブロックの多くは任意選択的なものである。さらに、手順5200に記載される動作は、例えば、図14の一例の立体視覚化カメラ300の光学要素1402、画像捕捉モジュール1404、モータ及び照明モジュール1406、情報プロセッサモジュール1408、及び/又はジョイントR1~R9、及び図41のロボットアームコントローラ4106を含め、複数のデバイスの間で実行し得る。例えば、手順5200は、プロセッサ4102のメモリ1570に記憶されたプログラムにより実行し得る。 FIG. 52 depicts a diagram of an example procedure 5200 for fusing images from alternative modality visualizations with stereoscopic images, according to example embodiments of the present disclosure. Although procedure 5200 will be described with reference to the flow diagram shown in FIG. 52, it should be understood that many other methods of performing the steps associated with procedure 5200 can be used. For example, the order of many of the blocks may be changed, certain blocks may be combined with other blocks, and many of the blocks described are optional. Additionally, the operations described in step 5200 may be performed, for example, on optical element 1402, image capture module 1404, motor and lighting module 1406, information processor module 1408, and/or joints R1-- of example stereoscopic visualization camera 300 of FIG. R9 and among multiple devices, including the robot arm controller 4106 of FIG. For example, procedure 5200 may be performed by a program stored in memory 1570 of processor 4102.

手順5200の一例のプロセッサ4102は、光学較正パラメータを使用して、例えば、前に生成された患者の三次元MRIデータをカメラ300により記録された立体画像として適切な視点を有する立体画像としてレンダリングするように構成される。プロセッサ4102は、例えば、図41のデバイス4104からMRIデータ等の代替モダリティ視覚化を受信し得る(ブロック5202)。プロセッサ5202はまた、入力デバイス1410を介して、代替モダリティ視覚化を立体視覚化カメラ300により記録された立体画像と融合すべきであることを示す入力5203を受信することもできる(ブロック5204)。 Processor 4102 of example procedure 5200 uses optical calibration parameters to render previously generated three-dimensional MRI data of a patient as a stereoscopic image with a suitable perspective as the stereoscopic image recorded by camera 300, for example. It is configured as follows. Processor 4102 may receive alternative modality visualizations, such as MRI data, for example, from device 4104 of FIG. 41 (block 5202). Processor 5202 may also receive input 5203 via input device 1410 indicating that the alternate modality visualization should be fused with the stereoscopic images recorded by stereoscopic visualization camera 300 (block 5204).

手順5200中、外科医がカメラ300を所望の向きで外科処置の位置に位置決めした場合、姿勢データ5205がプロセッサ4102により取得される(ブロック5206)。姿勢データ5201は、ロボットアーム506、結合板3304、及び/又は立体視覚化カメラ300の位置を含み得る。プロセッサ4102はまた、図42のLUT4203つ等の1つ又は複数のLUTから、カメラ300に関連する倍率及び作業距離光学較正パラメータ5207にアクセスする(ブロック5208)。プロセッサ4102は、姿勢データ5205を倍率及び作業距離光学較正パラメータ5207と併せて使用して、カメラ300の立体軸及びIPDを決定する(ブロック5210)。プロセッサ4102は、姿勢データ、立体軸データ、IPDデータ、及び/又は光学較正パラメータを適用して、MRIデータの少なくとも一部を選択し、且つ/又は選択された部分が立体視覚化カメラ300により見られたものとして患者の脳のビューの視点で提供されるようにMRIデータの選択された部分を変更、スケーリング、向き決め、分割等する(ブロック5212)。プロセッサ4102は、立体光軸ビューベクトル及びIPDを適用して、MRIデータの選択された部分をカメラ300の現在ライブビューに対応する立体画像にレンダリングする(ブロック5114)ように構成される。プロセッサ4102は次に、本明細書で考察されるように、立体MRI画像をカメラ300からのライブ立体画像と融合し得る(ブロック5216)。 During procedure 5200, when the surgeon positions camera 300 in a desired orientation and position for the surgical procedure, pose data 5205 is obtained by processor 4102 (block 5206). Pose data 5201 may include the positions of robot arm 506, coupling plate 3304, and/or stereoscopic visualization camera 300. Processor 4102 also accesses magnification and working distance optical calibration parameters 5207 associated with camera 300 from one or more LUTs, such as LUT 4203 of FIG. 42 (block 5208). Processor 4102 uses pose data 5205 in conjunction with magnification and working distance optical calibration parameters 5207 to determine the stereo axis and IPD of camera 300 (block 5210). Processor 4102 applies pose data, stereo axis data, IPD data, and/or optical calibration parameters to select at least a portion of the MRI data and/or to cause the selected portion to be viewed by stereoscopic visualization camera 300. The selected portions of the MRI data are modified, scaled, oriented, segmented, etc., so as to be provided in perspective of a view of the patient's brain as seen in the image (block 5212). Processor 4102 is configured to apply the stereoscopic optical axis view vector and IPD to render the selected portion of the MRI data into a stereoscopic image corresponding to the current live view of camera 300 (block 5114). Processor 4102 may then fuse the stereoscopic MRI images with live stereoscopic images from camera 300 (block 5216), as discussed herein.

上述したように、プロセッサ4102は、レンダリングされたMRIデータの位置決め又は立体視覚化カメラ300からの立体画像との融合に物体又は特徴を使用し得る。例えば、プロセッサ4102は、1つ又は複数の画像分析ルーチンを使用して、立体画像における別個の特徴又は物体を識別し、レンダリングされた立体MRIデータにおいて同じ別個の特徴を見つけ、特徴又は物体が位置合わせされ、同じ縮尺、サイズ、深度、向き等を有するように、レンダリングされた立体MRIデータをカメラ立体画像の適切な部分に重ね得る。プロセッサ4102は、レンダリングされた立体MRIデータを少なくとも部分的に透明にして、ライブ画像も見られるようにし得る。追加又は代替として、プロセッサ4102は、レンダリングされた立体MRIデータの境界において陰影を調整して、レンダリングされた立体MRIデータとカメラ立体画像との間の視覚的コントラストを低減し得る。次に、図52の一例の手順5200は終了し得る。 As discussed above, processor 4102 may use objects or features to position or fuse rendered MRI data with stereoscopic images from stereoscopic visualization camera 300. For example, the processor 4102 may use one or more image analysis routines to identify distinct features or objects in stereoscopic images, locate the same distinct features in rendered stereoscopic MRI data, and locate features or objects. The rendered stereoscopic MRI data may be superimposed on the appropriate portion of the camera stereo image so that it is aligned and has the same scale, size, depth, orientation, etc. Processor 4102 may render the rendered stereoscopic MRI data at least partially transparent so that live images can also be viewed. Additionally or alternatively, the processor 4102 may adjust shading at the borders of the rendered stereoscopic MRI data to reduce visual contrast between the rendered stereoscopic MRI data and the camera stereo image. The example procedure 5200 of FIG. 52 may then end.

一例の手順5200は、カメラ300の立体画像に相対して正確なロケーションに外科医が脳腫瘍を視覚化できるようにする。外科医は、外科処置を通して特に部分的にこの融合視覚化を使用し得る。例えば、外科医は、現在レベルの切開下の「x線ビジョン」として最もよく説明されるように、まだ露出されていない腫瘍を見ることができる。ライブ又はレンダリングされた立体MRI画像の透明度の制御は、融合画像の明確さを最適化するように入力デバイス1410を介して調整し得る。それに従って一例の手順は、より安全でより正確且つ効率的な腫瘍の切除を可能にする。 The example procedure 5200 allows a surgeon to visualize a brain tumor in a precise location relative to the stereo image of the camera 300. Surgeons may use this fused visualization particularly in parts throughout the surgical procedure. For example, a surgeon can see a tumor that has not yet been exposed, best described as "x-ray vision" under the current level of the incision. Control of the transparency of live or rendered stereoscopic MRI images may be adjusted via input device 1410 to optimize clarity of the fused image. One example procedure accordingly allows for safer, more accurate and efficient tumor resection.

幾つかの実施形態では、FOV、焦点、作業距離、及び/又は倍率が変わった場合、手順5200を繰り返し得る。これらの実施形態では、プロセッサ4102は、更新された姿勢情報を使用し、ルックアップテーブルから対応する立体軸及びIPDを抽出して、MRIデータを更新された正確な立体画像に再レンダリングするように構成される。プロセッサ4102は、ライブビュー及び対応するMRIデータが適切な位置、深度、及び向きに配置されるように、新たにレンダリングされたMRIデータを現在の立体画像に融合するよう構成される。 In some embodiments, procedure 5200 may be repeated if the FOV, focus, working distance, and/or magnification changes. In these embodiments, the processor 4102 uses the updated pose information and extracts the corresponding stereo axes and IPD from the lookup table to re-render the MRI data into an updated accurate stereo image. configured. Processor 4102 is configured to fuse the newly rendered MRI data with the current stereoscopic image so that the live view and corresponding MRI data are placed in the proper position, depth, and orientation.

幾つかの実施形態では、一例のプロセッサ4102は、立体視覚化カメラ300、ロボットアーム506、及び/又は結合板3304と共に動作して、ライブ断面融合視覚化を生成するように構成される。手術部位の断面視覚化は、他の方法では利用可能ではない大きく改善された視点を外科医に提供する。図53は、患者の頭部内部を仮想線で示す膠芽細胞腫5302を有する患者5300の図を示す。特に、膠芽細胞腫5302は、患者の脳5304内にあることがあり、明るい仮想線で示される。図53の図は、例えば、MRIデバイスからの術前診断画像に典型的なものであり、多くの画像スライスが積層され、患者の頭蓋5306の内部の3Dモデルがレンダリングされ視覚化される。 In some embodiments, the example processor 4102 is configured to operate with the stereoscopic visualization camera 300, the robotic arm 506, and/or the coupling plate 3304 to generate a live cross-sectional fusion visualization. Cross-sectional visualization of the surgical site provides the surgeon with a greatly improved perspective not otherwise available. FIG. 53 shows a diagram of a patient 5300 with a glioblastoma 5302 showing the interior of the patient's head in phantom. In particular, a glioblastoma 5302 may be within the patient's brain 5304 and is shown as a bright phantom line. The illustration of FIG. 53 is typical of a preoperative diagnostic image from, for example, an MRI device, in which many image slices are stacked to render and visualize a 3D model of the interior of the patient's skull 5306.

図示の例では、脳手術を通して膠芽細胞腫5302を除去すべきである。図54は、頭蓋5306へのアクセスを提供するために開頭処置5400を受けている患者5300の斜視図の図を示す。手順5400は、手術機器5402を使用した脳切除及び牽引も含む。一般に、手術アクセス部位5404は、膠芽細胞腫5302にアクセスするために深い円錐形に作られる。 In the illustrated example, glioblastoma 5302 is to be removed through brain surgery. FIG. 54 shows a perspective view illustration of a patient 5300 undergoing a craniotomy procedure 5400 to provide access to the cranium 5306. Procedure 5400 also includes brain resection and retraction using surgical instrument 5402. Generally, surgical access site 5404 is created in a deep cone shape to access glioblastoma 5302.

図55は、本開示の実施形態例による、立体視覚化カメラ300及びロボットアーム506を含み、開頭処置5400を視覚化する立体視覚化プラットフォーム516の図を示す。示されるように、開頭処置5400は、ロボットアーム506が、頭蓋5306の上部を通して円錐手術部位5404の視覚化軸5500に沿って立体視覚化カメラ300を照準付けるように位置決めされるよう準備される。手術を行っている外科医のビューは一般に、図57に示されるように、頭蓋506の上部を通してである。図7から理解することができるように、手術の深度及び例えば手術機器5402の先端部は見ることが難しい。 FIG. 55 shows a diagram of a stereoscopic visualization platform 516 that includes a stereoscopic visualization camera 300 and a robotic arm 506 to visualize a craniotomy procedure 5400, according to an example embodiment of the disclosure. As shown, craniotomy procedure 5400 is prepared such that robotic arm 506 is positioned to aim stereoscopic visualization camera 300 along visualization axis 5500 of cone surgical site 5404 through the top of skull 5306. The surgeon's view performing the surgery is generally through the top of the skull 506, as shown in FIG. As can be seen from FIG. 7, the depth of the surgery and, for example, the tip of the surgical instrument 5402 is difficult to see.

図55に示される一例の立体視覚化カメラ300は、円錐手術アクセス部位の軸5500を下に見た高精度立体画像を提供する。上述したように、アクセス部位において両ビューに共通する全ての点でカメラ300の左ビューと右ビューとの間の視差情報がプロセッサ4102により使用されて、例えば、物体面等の既知の基準深度からの各点の深度を特定する。図示の例では、左ビューと右ビューとの間の視差は値「0」に等しく、それにより、プロセッサ4102は画像における各点の深度マップを特定することができる。深度マップは、まるでマップが異なる角度から見られたかのようにプロセッサ4102により再レンダリングすることができる。さらに、プロセッサ4102は、外科医及び/又はオペレータからの命令を受信すると、深度マップの少なくとも一部を透明にするように構成される。図示の例では、図57の断平面AA下の深度マップの一部は、プロセッサ4102により透明にすることができ、それにより、プロセッサ4102がライブ手術アクセス部位5404の断面図を生成できるようにする。 The example stereoscopic visualization camera 300 shown in FIG. 55 provides a high precision stereoscopic image looking down the axis 5500 of the conical surgical access site. As mentioned above, the disparity information between the left and right views of camera 300 at all points common to both views at the access site is used by processor 4102 to determine from a known reference depth, e.g., an object plane. Determine the depth of each point in . In the illustrated example, the disparity between the left and right views is equal to the value "0", which allows processor 4102 to identify a depth map for each point in the image. The depth map can be re-rendered by processor 4102 as if the map were viewed from a different angle. Additionally, processor 4102 is configured to make at least a portion of the depth map transparent upon receiving instructions from a surgeon and/or operator. In the illustrated example, a portion of the depth map below section plane AA in FIG. .

図56は、円錐形手術アクセス部位5404の局部透視図の図を示す。図示の手術アクセス部位5404は、この考察で明確にするために、段付き円錐セグメントを含む。この例では、部位5404の掃引円錐角は角度「α」で示されている。 FIG. 56 shows an illustration of a local perspective view of a conical surgical access site 5404. The illustrated surgical access site 5404 includes stepped conical segments for clarity in this discussion. In this example, the sweep cone angle of section 5404 is indicated by angle "α."

図58は、開頭処置5400の円錐形手術アクセス部位5404の図を示す。手術機器5402のサイズ及び形状の事前知識は、その位置、方向、及び/又は向きの画像認識と共に、プロセッサ4102が図58に示される断面図で画像データを生成できるようにする。図57に表される立体ビューにおける機器5402の認識により、図58の断面図における精密な配置及び例えば、患者の脳5304の手術中、外科医には見えない機器の下側の視覚化が可能になる。 FIG. 58 shows a view of a conical surgical access site 5404 of a craniotomy procedure 5400. Prior knowledge of the size and shape of surgical instrument 5402, along with image recognition of its position, direction, and/or orientation, enables processor 4102 to generate image data in the cross-sectional view shown in FIG. 58. Recognition of the instrument 5402 in the stereoscopic view depicted in FIG. 57 allows precise placement in the cross-sectional view of FIG. 58 and visualization of the underside of the instrument that is invisible to the surgeon, for example, during surgery on a patient's brain 5304. Become.

幾つかの実施形態では、プロセッサ4102は、膠芽細胞腫5302の画像を準ライブ又はライブ立体画像と融合するように構成される。上述したように、ロボットアーム506とカメラ300との組合せは、ロボット基準系又はロボット空間に対するビューの高精度の位置、方向、及び/又は向き情報を提供する。ロボットアーム506及びカメラ300を患者5300の基準系に見当合わせ又は較正した後、手術アクセス部位5404の正確な位置、方向、及び/又は向き情報及び患者に対するそれぞれの位置がプロセッサ4102により生成される。図59に示されるように、プロセッサ4102は画像融合を使用して、膠芽細胞腫5302のMRI画像の選択部分を断面ビューに重ねる。加えて、画像融合は、例えば、脳脈管又は画像への方眼が望まれる他の構造を含む他の関連するMRI画像の視覚化を可能にする。例示的な外科処置は、外科医が、機器5402の安全なスペーシング及びポジショニングに加えて、膠芽細胞腫5302の深度ロケーションを見て理解することができる状態で進められる。 In some embodiments, processor 4102 is configured to fuse images of glioblastoma 5302 with quasi-live or live stereoscopic images. As discussed above, the combination of robot arm 506 and camera 300 provides highly accurate position, orientation, and/or orientation information of the view relative to the robot reference frame or robot space. After registering or calibrating the robotic arm 506 and camera 300 to the reference frame of the patient 5300, precise position, orientation, and/or orientation information of the surgical access site 5404 and its respective position relative to the patient is generated by the processor 4102. As shown in FIG. 59, processor 4102 uses image fusion to overlay selected portions of the MRI image of glioblastoma 5302 onto a cross-sectional view. In addition, image fusion allows visualization of other relevant MRI images, including, for example, cerebral vessels or other structures for which orientation to the image is desired. The exemplary surgical procedure proceeds with the surgeon being able to see and understand the depth location of the glioblastoma 5302, as well as the safe spacing and positioning of the instrument 5402.

図59は、手術アクセス部位5404の断面図の図を示す。この例では、膠芽細胞腫5302の一部5302’は立体視覚化カメラ300から見える。図60は、図57の平面AAに直交する断面ビューの図を示す。図は、手術アクセス部位5404のライブビューと融合されたMRIデータに基づいて、プロセッサ4102により生成された断面ビューを示し得る。プロセッサ4102による深度マップの使用により、図61に示されるように、種々の所望の断平面及び断平面の組合せでの手術アクセス部位5404のレンダリングが可能になる。レンダリングにより、プロセッサ4102は、可視部分5402’及びMRIデータからの残りの部分を含む完全な膠芽細胞腫5302を表示することができる。プロセッサ4102は、カメラ300の視点から又は図61に示されるように、断面ビューとして視覚化を表示し得る。 FIG. 59 shows an illustration of a cross-sectional view of surgical access site 5404. In this example, a portion 5302' of glioblastoma 5302 is visible from stereoscopic visualization camera 300. FIG. 60 shows a cross-sectional view perpendicular to plane AA of FIG. 57. The diagram may show a cross-sectional view generated by processor 4102 based on MRI data fused with a live view of surgical access site 5404. Use of the depth map by processor 4102 allows rendering of surgical access site 5404 in various desired cross-sectional planes and cross-sectional plane combinations, as shown in FIG. 61. Rendering allows the processor 4102 to display the complete glioblastoma 5302, including the visible portion 5402' and the remaining portion from the MRI data. Processor 4102 may display the visualization from the perspective of camera 300 or as a cross-sectional view, as shown in FIG. 61.

5.視覚化が連合したロボット運動の実施形態
幾つかの実施形態では、一例のプロセッサ4102は、ロボットアームコントローラ4106、立体視覚化カメラ300、ロボットアーム506、及び/又は結合板3304と関連して動作して、視覚化をロボット運動と連合させる。幾つかの例では、プロセッサ4012及び/又はロボットアームコントローラ4106は閉ループで動作して、ロボット運動に基づいて連合視覚化を提供する。これらの例では、プロセッサ4012及び/又はロボットアームコントローラ4106は、特定の画像及びその内容(例えば、物体、識別可能な特徴等)に基づいて手術部位の視覚化に向けてロボットアーム506、結合板3304、及び/又はカメラ300を位置決めするように構成される。上述したように、ロボットアーム506及びカメラ300の位置は、プロセッサ4012及び/又はロボットアームコントローラ4106に既知である。加えて、カメラにより記録された画像データは立体であり、深度データを提供する。その結果、プロセッサ4012及び/又はロボットアームコントローラ4106は、あらゆる視覚化点の患者又はロボット三次元空間内のロケーションを特定することができる。したがって、ロボットアーム506がカメラ300を所望の方向に、初期画像を有する初期位置から移動させると、所望の画像変化が第2の移動後の画像で見られることが予期される。
5. Embodiments of Robot Motion Coupled with Visualization In some embodiments, the example processor 4102 operates in conjunction with the robot arm controller 4106, the stereoscopic visualization camera 300, the robot arm 506, and/or the coupling plate 3304. to combine visualization with robot movement. In some examples, processor 4012 and/or robot arm controller 4106 operate in a closed loop to provide federated visualization based on robot motion. In these examples, the processor 4012 and/or the robotic arm controller 4106 may direct the robotic arm 506, coupling plate, etc. toward visualization of the surgical site based on the particular image and its content (e.g., objects, identifiable features, etc.). 3304 and/or configured to position the camera 300. As mentioned above, the positions of robot arm 506 and camera 300 are known to processor 4012 and/or robot arm controller 4106. Additionally, the image data recorded by the camera is stereoscopic and provides depth data. As a result, processor 4012 and/or robot arm controller 4106 can determine the location of any visualization point in patient or robot three-dimensional space. Thus, when the robot arm 506 moves the camera 300 in a desired direction from an initial position with an initial image, it is expected that the desired image change will be seen in the second, post-movement image.

代替的には、予期される移動後画像は、所望の移動を表す式を初期画像データに適用するように構成されたプロセッサ4102及び/又はロボットアームコントローラ4106により較正することができ、それにより、計算された第2の画像が生成される。プロセッサ4102及び/又はロボットアームコントローラ4106は、上述したように、テンプレート照合ルーチン又は関数を使用して移動後の実際の画像を計算された画像と比較する。誤差が検出される場合、プロセッサ4102及び/又はロボットアームコントローラ4106は、ロボットアーム506及び/又はカメラ300をそれに従って動かすことにより誤差を補正することができる。例えば、初期画像及びオペレータから受信される所望の移動「100ピクセル右へ」を所与として、理論的に移動した画像の画像データは、プロセッサ4102及び/又はロボットアームコントローラ4106による100ピクセルの右シフトとして計算することができる。次に、開示されたように、種々の調整されたロボットジョイントへのコマンドを実行して、ロボットアーム506及び/又はカメラ300を理論上の望ましい位置に再配置することにより、物理的な移動が行われる。第2の画像がカメラ300により記録され、プロセッサ4102及び/又はロボットアームコントローラ4106により、例えば、テンプレート照合関数又はその均等物を使用して計算された画像データと比較される。移動が正確な場合、データはカメラ300の先端部において100%相関を示し、両画像は完全に位置合わせされる。しかしながら、実際の画像データが別のロケーション、例えば、101ピクセル右及び5ピクセル上に最良の相関を示す場合、プロセッサ4102及び/又はロボットアームコントローラ4106により移動を変更して、ロボットアーム506を介してカメラ300を1ピクセル左及び5ピクセル下に物理的に移動させることにより誤差を補正することができる。 Alternatively, the expected post-movement image can be calibrated by processor 4102 and/or robot arm controller 4106 configured to apply an equation representing the desired movement to the initial image data, thereby: A calculated second image is generated. Processor 4102 and/or robot arm controller 4106 compares the actual image after movement to the calculated image using a template matching routine or function, as described above. If an error is detected, processor 4102 and/or robot arm controller 4106 can correct the error by moving robot arm 506 and/or camera 300 accordingly. For example, given an initial image and a desired movement "100 pixels to the right" received from the operator, the image data for the theoretically moved image may be shifted to the right by 100 pixels by processor 4102 and/or robot arm controller 4106. It can be calculated as The physical movement is then performed by executing commands to various adjusted robot joints to reposition the robot arm 506 and/or camera 300 to the theoretical desired position, as disclosed. It will be done. A second image is recorded by camera 300 and compared by processor 4102 and/or robot arm controller 4106 to image data calculated using, for example, a template matching function or its equivalent. If the movement is accurate, the data will be 100% correlated at the tip of camera 300 and both images will be perfectly aligned. However, if the actual image data shows the best correlation at another location, e.g., 101 pixels to the right and 5 pixels above, the movement may be modified by processor 4102 and/or robot arm controller 4106 to The error can be corrected by physically moving the camera 300 one pixel to the left and five pixels down.

6.垂れ下がり補償の実施形態
幾つかの実施形態では、ロボットアーム506及び/又は結合板3304のジョイントR1~R9の少なくとも幾つかは、幾らかの垂れ下がりを受け得る。プロセッサ4102及び/又はロボットアームコントローラ4106は、ロボットアーム垂れ下がりの補正を提供するように構成し得る。幾つかの場合、プロセッサ4102及び/又はロボットアームコントローラ4106は、運動精度がロボットアーム506の運動範囲にわたり保たれるように、一連の小さな動きで垂れ下がり補償を実行するよう構成される。例えば、垂れ下がりを特徴付けなくすために、垂れ下がり補償は、特定のロボットジョイントを運動させる運動方向において実行されて、実際のロボットジョイント回転位置の関数として誤差を分離する。カメラ300の負荷重量をモーメントアーム(又はリンク)長で乗算することにより計算されるトルクモーメントと誤差を比較することにより、そのジョイントのコンプライアンスを特定することができる。代替的には、ジョイントコンプライアンスは、分析技法例えば、有限要素解析(「FEA」)を使用して計算し得る。
6. Sag Compensation Embodiments In some embodiments, at least some of the joints R1-R9 of the robot arm 506 and/or the coupling plate 3304 may experience some sag. Processor 4102 and/or robot arm controller 4106 may be configured to provide compensation for robot arm sag. In some cases, processor 4102 and/or robot arm controller 4106 are configured to perform sag compensation in a series of small movements such that motion accuracy is maintained over the range of motion of robot arm 506. For example, to decharacterize sag, sag compensation is performed in the direction of motion in which a particular robot joint is moved to isolate errors as a function of actual robot joint rotational position. By comparing the error to the torque moment calculated by multiplying the loaded weight of camera 300 by the moment arm (or link) length, the compliance of that joint can be determined. Alternatively, joint compliance may be calculated using analytical techniques, such as finite element analysis ("FEA").

上記コンプライアンス特徴付けを全ての回転位置における全てのジョイントについて使用し記憶して、プロセッサ4102及び/又はロボットアームコントローラ4106は、特定のカメラ位置での全体垂れ下がりを計算し得る。プロセッサ4102及び/又はロボットアームコントローラ4106は、LUT及び/又は較正レジスタへの各カメラ位置の垂れ下がり補正係数を特定し得る。さらに、プロセッサ4102及び/又はロボットアームコントローラ4106は、垂れ下がり補正が移動コマンド/信号に組み込まれるように、垂れ下がり係数をロボットアーム移動コマンド又は移動シーケンス(スケーリング係数の適用前又は適用後)に適用し得る。補正係数は、進行中の運動手順で計算し得、それにより、カメラ300の正確な追跡及び追従を可能にする。この補正係数は更に、立体視覚化プラットフォーム516の較正/位置決めのための第2のカメラの必要性をなくし、カメラ300に基準ターゲットを有する必要性をなくし、ひいてはドレープインターフェースの問題をなくす。 Using and storing the above compliance characterization for all joints at all rotational positions, processor 4102 and/or robot arm controller 4106 may calculate the total droop at a particular camera position. Processor 4102 and/or robot arm controller 4106 may specify a sag correction factor for each camera position into a LUT and/or calibration register. Further, the processor 4102 and/or the robot arm controller 4106 may apply the sag factor to the robot arm movement command or movement sequence (before or after applying the scaling factor) such that the sag correction is incorporated into the movement command/signal. . The correction factor may be calculated during the ongoing motion procedure, thereby allowing accurate tracking and following of the camera 300. This correction factor further eliminates the need for a second camera for calibration/positioning of stereoscopic visualization platform 516, eliminates the need to have a reference target on camera 300, and thus eliminates drape interface problems.

7.視覚化位置/向きの保存の実施形態
幾つかの実施形態では、一例のプロセッサ4102は、立体視覚化カメラ300の特定の向き及び/又は位置に戻るために、視覚化パラメータを保存するように構成される。視覚化パラメータは、立体視覚化カメラ300、ロボットアーム506、及び/又は結合板3304のビューベクトル、ロケーション、倍率、作業距離、フォーカス、位置、及び/又は向きを含み得る。
7. Visualization Position/Orientation Saving Embodiments In some embodiments, the example processor 4102 is configured to save visualization parameters to return to a particular orientation and/or position of the stereoscopic visualization camera 300. be done. The visualization parameters may include a view vector, location, magnification, working distance, focus, position, and/or orientation of stereoscopic visualization camera 300, robot arm 506, and/or coupling plate 3304.

一例では、外科医は、可視照明下で血管の一部の吻合中、小さな構造の高倍率視覚化を望むことがある。外科医は次に、開存性をチェックするために、赤外線照明下で血管全体のより広いビューにズームアウトしたいことがある。外科医は次に、縫合を完了するために、拡大視覚化に戻り得る。この例では、プロセッサ4102は、各位置の視覚化パラメータを保存するように構成される。プロセッサ4102は、2秒、5秒、30秒等の時間期間にわたり連続して見られたロケーションに対応する位置を記憶し得る。プロセッサ4102はまた、入力デバイス1410を介した外科医からの命令を受信した後、位置を記憶することもできる。 In one example, a surgeon may desire high magnification visualization of small structures during anastomosis of a portion of a blood vessel under visible illumination. The surgeon may then want to zoom out to a wider view of the entire vessel under infrared illumination to check patency. The surgeon can then return to magnified visualization to complete the suturing. In this example, processor 4102 is configured to save visualization parameters for each location. Processor 4102 may store locations corresponding to locations viewed consecutively over time periods such as 2 seconds, 5 seconds, 30 seconds, etc. Processor 4102 may also store the position after receiving instructions from the surgeon via input device 1410.

プロセッサ4102は、記憶したロケーション及び/又はウェイポイントのリストを表示し得る。記憶されたロケーションを選択すると、プロセッサ4102及び/又はロボットアームコントローラ4106は、ロボットアーム及び/又は結合板3304を前のロケーションに移動させ、前に設定されたように、光照明及びフィルタリングを含め、光学パラメータを調整する。そのような構成により、外科医は、処置の表示された画像から目を離さずに又は手及び機器を部位から移動させずに、記憶された全てのロケーションを連続してシームレスに見ることができる。 Processor 4102 may display a list of stored locations and/or waypoints. Upon selecting a stored location, processor 4102 and/or robot arm controller 4106 moves robot arm and/or coupling plate 3304 to the previous location, including light illumination and filtering, as previously configured. Adjust optical parameters. Such a configuration allows the surgeon to seamlessly view all stored locations in succession without taking his eyes off the displayed image of the procedure or moving his hands and instruments from the site.

幾つかの実施形態では、プロセッサ4102は、外科処置前、オペレータがウェイポイント又は位置/向きを作成できるようにするよう構成し得る。ウェイポイントはシーケンスで提供し得、それにより、プロセッサ4102は、処置中、オペレータから進む入力を受信した後、指定されたウェイポイントを通って進むことができる。プロセッサ4102は、タッチスクリーン入力デバイス1410aを介してロボットアーム506、結合板3304、及び/又はカメラ300の三次元表現を提供して、オペレータが立体視覚化プラットフォーム516を仮想的に位置決めできるようにし得る。これは、倍率、作業距離、及び/又はフォーカスを仮想化された患者に関連して且つ/又は患者の代替モダリティ視覚化に基づいて提供することを含み得る。プロセッサ4102は、視覚化パラメータを例えばメモリ1570及び/又は各ウェイポイントのメモリ4120に記憶するように構成される。 In some embodiments, processor 4102 may be configured to allow an operator to create waypoints or positions/orientations prior to a surgical procedure. Waypoints may be provided in a sequence such that processor 4102 can advance through the designated waypoints after receiving advance input from an operator during a procedure. Processor 4102 may provide a three-dimensional representation of robotic arm 506, coupling plate 3304, and/or camera 300 via touch screen input device 1410a to allow an operator to virtually position stereoscopic visualization platform 516. . This may include providing magnification, working distance, and/or focus relative to the virtualized patient and/or based on alternative modality visualizations of the patient. Processor 4102 is configured to store visualization parameters, for example, in memory 1570 and/or memory 4120 of each waypoint.

幾つかの実施形態では、プロセッサ4102は、特定の処置に固有の特定の視覚化を実行するように構成される。例えば、プロセッサ4102における画像認識機能を使用して、カメラ300を対象物体と自動的に位置合わせする。手術部幾つかの画像はプロセッサ4102により前の画像又は標的物体の画像と比較されて、立体画像内の所望の物体並びにその位置及び向きの認識を提供する。プロセッサ4102及び/又はロボットアームコントローラ4106は、例えば、ロボットアーム506を物体に向けて移動させ、物体に向けてカメラ300をズームさせ、特定の物体及び処置に所望の画像ビュー属性を設定するように構成される。例えば、眼科では、例えば、患者の網膜の視神経頭を画像認識から見つけることができるように、ライブ網膜画像を保存された画像と比較することができる。プロセッサ4102及び/又はロボットアームコントローラ4106は次に、ロボットアーム506及び/又は結合板3304を自動的に移動させ、カメラ300の先端部が診断する視神経頭を指すようにカメラ300をフォーカスし、且つ/又はカメラ300の倍率を変更する。プロセッサ4102は次に、カメラ300及び/又はモニタ512を赤変なしの画像表示に向けて設定し得、網膜の特徴を周囲組織からより容易に区別できるようにする。 In some embodiments, processor 4102 is configured to perform particular visualizations specific to particular procedures. For example, image recognition functionality in processor 4102 may be used to automatically align camera 300 with a target object. The surgical site several images are compared by the processor 4102 with previous images or images of the target object to provide recognition of the desired object and its location and orientation within the stereo image. The processor 4102 and/or the robotic arm controller 4106 may, for example, move the robotic arm 506 toward the object, zoom the camera 300 toward the object, and set desired image view attributes for a particular object and procedure. configured. For example, in ophthalmology, live retinal images can be compared with stored images so that, for example, the optic nerve head of a patient's retina can be found from image recognition. Processor 4102 and/or robot arm controller 4106 then automatically moves robot arm 506 and/or coupling plate 3304 to focus camera 300 such that the tip of camera 300 points to the optic nerve head to be diagnosed; /or change the magnification of the camera 300; Processor 4102 may then set camera 300 and/or monitor 512 to display images without reddening, allowing retinal features to be more easily distinguished from surrounding tissue.

記憶された視覚化の保存及び記憶された視覚化へのリターンに加えて、あるビューから別のビューへの運動パスも一例のプロセッサにより保存することができる。上述した吻合例では、プロセッサ4102及び/又はロボットアームコントローラ4106は、ロボットアーム506及び/又はカメラ300に高倍率下で血管の全長を辿らせ、動脈瘤又は他の状況をチェックし得る。プロセッサ4102は、所望のように連続脈管を認識し辿るように構成し得る。プロセッサ4102は、テンプレート照合ルーチンを限られた組のピクセルに対して実行して、ロボットアーム506及び/又はカメラ300の運動方向を能動的に決定し得る。 In addition to storing stored visualizations and returning to stored visualizations, motion paths from one view to another may also be stored by an example processor. In the anastomosis example described above, processor 4102 and/or robotic arm controller 4106 may cause robotic arm 506 and/or camera 300 to follow the length of the blood vessel under high magnification to check for an aneurysm or other condition. Processor 4102 may be configured to recognize and follow continuous vessels as desired. Processor 4102 may perform a template matching routine on a limited set of pixels to actively determine the direction of movement of robotic arm 506 and/or camera 300.

一例のプロセッサ4102はまた、異なる視角からなされた物体の視覚化内の運津パスをプログラムし記憶することもできる。例えば、患者の目の眼科隅角検査は、眼内の点の回りを旋回するようにプロセッサ4102及び/又はロボットアームコントローラ4106をプログラムすることにより実行することができる。この例では、ロボットアーム506は、患者の目が多くの視角から見えるように一般的に円錐運動でカメラ300を掃引する。手術部位視覚化のそのような運動は、照明からの疑似反射を除外するか、又は代替視角で障害物周囲を見るのに最良の角度を選択するのに使用することができる。 The example processor 4102 can also program and store path paths within visualizations of objects made from different viewing angles. For example, a goniometric examination of a patient's eye can be performed by programming processor 4102 and/or robotic arm controller 4106 to pivot around a point within the eye. In this example, robotic arm 506 sweeps camera 300 in a generally conical motion so that the patient's eyes are viewed from many viewing angles. Such movement of surgical site visualization can be used to filter out spurious reflections from illumination or to select the best angle to view around obstacles at alternative viewing angles.

幾つかの実施形態では、プロセッサ4102は、深度マップ計算において遮蔽を低減するように構成される。遮蔽は、第1のビューが他方のビューとは異なる幾らかの部分を見る、立体画像の2つのビューの視差に起因して深度マップ計算に固有である。その結果、各ビューは他のビューの幾らかの部分を見ない。ロボットアーム506を種々の配置間で移動させ、画像ピクセルの三次元ロケーションの知識を使用しながら深度マップを再計算することにより、遮蔽が低減する。深度マップは、既知の運動ステップが実行された後、予期されたマップ変更が計算された後、誤差が差により特定された後、及び平均マップが構築された後、マップを反復的に計算することにより深度マップをより正確にし得る。 In some embodiments, processor 4102 is configured to reduce occlusion in depth map calculations. Occlusion is inherent in depth map calculations due to the parallax of two views of a stereoscopic image, where the first view sees some different part than the other view. As a result, each view does not see some portion of the other views. By moving the robot arm 506 between various configurations and recalculating the depth map while using knowledge of the three-dimensional location of the image pixels, occlusion is reduced. Depth maps are computed iteratively after known motion steps have been performed, after expected map changes have been computed, after errors have been identified by difference, and after an average map has been constructed. This can make the depth map more accurate.

E.補助付き駆動の実施形態
幾つかの実施形態では、プロセッサ4102及び/又はロボットアームコントローラ4106は、メモリ1570及び/又は4120に記憶された命令により定義される1つ又は複数のアルゴリズム、ルーチン等を実行して、立体視覚化カメラ300を動かすためにオペレータにより与えられた、検出された力に基づいて、ロボットアーム506及び/又は結合板3304が電動ジョイント移動を提供できるようにするよう構成される。これらの実施形態では、補助付き駆動特徴は、立体視覚化カメラ300を所望のロケーション及び/又は向きに移動させることにより、ロボットアーム506を外科医の延長として動作できるようにする。後述するように、プロセッサ4102及び/又はロボットアームコントローラ4106は、オペレータにより付与される力/トルク/移動及びアームジョイントの位置をモニタして、オペレータの意図を推測し、それに従ってロボットアーム506及び/又は結合板3304を移動させるように構成される。
E. Assisted Drive Embodiments In some embodiments, processor 4102 and/or robot arm controller 4106 execute one or more algorithms, routines, etc. defined by instructions stored in memory 1570 and/or 4120. The robotic arm 506 and/or the coupling plate 3304 are configured to provide motorized joint movement based on the detected force applied by the operator to move the stereoscopic visualization camera 300. In these embodiments, the assisted drive feature allows the robotic arm 506 to operate as an extension of the surgeon by moving the stereoscopic visualization camera 300 to a desired location and/or orientation. As described below, processor 4102 and/or robot arm controller 4106 monitors the forces/torques/travels applied by the operator and the position of the arm joints to infer operator intent and adjust robot arm 506 and/or robot arm controller 4106 accordingly. Or configured to move the coupling plate 3304.

図62は、本開示の実施形態例による、立体視覚化カメラ300の補助付き駆動を提供するアルゴリズム、ルーチン、又は手順6200を示す図を示す。手順6200について図62に示される流れ図を参照して説明するが、手順6200に関連するステップを実行する多くの他の方法が使用可能なことを理解されたい。例えば、ブロックの多くの順序は変更し得、特定のブロックは他のブロックと結合し得、記載されるブロックの多くは任意選択的なものである。さらに、手順6200に記載される動作は、例えば、図14の一例の立体視覚化カメラ300の情報プロセッサモジュール1408及び/又は図41のジョイントR1~R9及びロボットアームコントローラ4106を含め、複数のデバイス間で実行し得る。幾つかの例では、手順6200は、ロボットアームコントローラ4106のメモリ4120に記憶されたプログラムにより実行し得る。一例の手順6200は、フォーカスがカメラ300に適用される際、定期的に実行し得る。例えば、手順6200は、1(「ms」)、5ms、8ms、20ms、50ms等であり得るあらゆる更新サイクルで力/トルクデータをサンプリングし得る。 FIG. 62 depicts a diagram illustrating an algorithm, routine, or procedure 6200 for providing assisted driving of stereoscopic visualization camera 300, according to example embodiments of the disclosure. Although procedure 6200 will be described with reference to the flow diagram shown in FIG. 62, it should be understood that many other methods of performing the steps associated with procedure 6200 can be used. For example, the order of many of the blocks may be changed, certain blocks may be combined with other blocks, and many of the blocks described are optional. Additionally, the operations described in step 6200 may be performed between multiple devices, including, for example, information processor module 1408 of example stereoscopic visualization camera 300 of FIG. 14 and/or joints R1-R9 and robot arm controller 4106 of FIG. It can be executed with In some examples, procedure 6200 may be performed by a program stored in memory 4120 of robotic arm controller 4106. The example procedure 6200 may be performed periodically when focus is applied to the camera 300. For example, procedure 6200 may sample force/torque data at every update cycle, which may be 1 ("ms"), 5ms, 8ms, 20ms, 50ms, etc.

図示の実施形態では、プロセッサ4102及び/又はロボットアームコントローラ4106は、オペレータによりカメラ300に付与された力に関連する力/トルク出力データ6201をセンサ3306から受信する。プロセッサ4102及び/又はロボットアームコントローラ4106は、受信した出力データ6201をフィルタリングする(ブロック6202)ように構成される。出力データは力及び/又はトルクベクトルを含み得る。フィルタリングは、第1のローパスフィルタ、第2のローパスフィルタ、及び/又はカートの振動をターゲットとしたノッチフィルタを適用することを含み得る。他の例では、プロセッサ4102及び/又はロボットアームコントローラ4106は、1つのローパスフィルタ及びノッチフィルタを使用し得る。 In the illustrated embodiment, processor 4102 and/or robot arm controller 4106 receives force/torque output data 6201 from sensor 3306 related to the force applied to camera 300 by an operator. Processor 4102 and/or robot arm controller 4106 are configured to filter received output data 6201 (block 6202). Output data may include force and/or torque vectors. Filtering may include applying a first low pass filter, a second low pass filter, and/or a notch filter targeted to cart vibrations. In other examples, processor 4102 and/or robot arm controller 4106 may use one low pass filter and a notch filter.

一例のプロセッサ4102及び/又はロボットアームコントローラ4106はまた、ロボットアーム506及び/又は結合板3304における1つ又は複数のジョイントセンサからジョイント位置データ6203も受信する。プロセッサ4102及び/又はロボットアームコントローラ4106は、ジョイント位置データ6203を使用して、フィルタリングされた力/トルク出力データの補償を提供する(ブロック6204)。補償は、重力補償及び/又は力付与点補償を含み得る。重力補償の場合、地球の重力の影響がフィルタリングされたデータがから除去される。力付与点補償の場合、プロセッサ4102及び/又はロボットアームコントローラ4106は、カメラ300(例えば、制御アーム304)に力が付与された点に基づいてフィルタリングされたデータ(及び/又は重力補償されたデータ)に補償を提供する。図35に関連して上述したように、センサ3306は、制御アーム304からある角度であるオフセット距離だけ離れて配置される。オフセット距離及び角度は、制御アーム304に付与された力を、センサ3306で検出される際、方向及び角度だけわずかにシフトさせる。力付与補償は、まるで力が制御アーム304ではなくセンサ3306に直接付与されたかのように力値を調整する。力付与補償は、センサ3306と制御アーム304との間の既知の角度及び/又は距離に基づいて予め決定し得る。重力補償及び力付与点補償は一緒になって、フィルタリングされた力/トルクデータを変更し、オペレータがカメラの制御アーム304に提供した力/トルクに比例する力/トルクベクトルを生成する。 The example processor 4102 and/or robot arm controller 4106 also receives joint position data 6203 from one or more joint sensors in the robot arm 506 and/or coupling plate 3304. Processor 4102 and/or robot arm controller 4106 use joint position data 6203 to provide compensation of the filtered force/torque output data (block 6204). The compensation may include gravity compensation and/or point of force compensation. In the case of gravity compensation, the effects of Earth's gravity are filtered out from the data. For force application point compensation, processor 4102 and/or robot arm controller 4106 may generate filtered data (and/or gravity compensated data) based on the point at which a force was applied to camera 300 (e.g., control arm 304). ). As discussed above in connection with FIG. 35, sensor 3306 is positioned an offset distance that is an angle from control arm 304. The offset distance and angle causes the force applied to control arm 304 to be slightly shifted in direction and angle as detected by sensor 3306. Force application compensation adjusts the force value as if the force were applied directly to the sensor 3306 rather than the control arm 304. Force application compensation may be predetermined based on the known angle and/or distance between sensor 3306 and control arm 304. Together, the gravity compensation and force application point compensation modify the filtered force/torque data to produce a force/torque vector that is proportional to the force/torque provided by the operator to the camera's control arm 304.

一例のプロセッサ4102及び/又はロボットアームコントローラ4106はまた、補償されフィルタリングされた力/トルク出力データと併せてジョイント位置データ6203を使用して、力/トルク系からグローバル系又はロボット空間への座標変換も実行する(ブロック6206)。変換は、既知のロボット空間及びセンサ3306の向きに基づく1つ又は複数の予め定義される式及び関係を含み得る。一例のプロセッサ4102及び/又はロボットアームコントローラ4106はまた、ジョイント位置データ6203を使用して、立体視覚化カメラ300のカメラ系とグローバル系又はロボット空間との間の座標変換も実行する(ブロック6208)。カメラ系の座標変換は、上述したように、ロボットアーム506のロボット空間にマッピングされた光学較正パラメータに基づき得る。 The example processor 4102 and/or robot arm controller 4106 also uses the joint position data 6203 in conjunction with the compensated and filtered force/torque output data to perform coordinate transformations from the force/torque system to the global system or robot space. (block 6206). The transformation may include one or more predefined equations and relationships based on the known robot space and sensor 3306 orientation. The example processor 4102 and/or robot arm controller 4106 also uses the joint position data 6203 to perform coordinate transformations between the camera system of the stereoscopic visualization camera 300 and the global system or robot space (block 6208). . The coordinate transformation of the camera system may be based on optical calibration parameters mapped to the robot space of the robot arm 506, as described above.

座標変換を実行した後、一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、少なくとも1つのシグモイド関数を使用して力/トルクベクトルを1つ又は複数の並進/回転ベクトルに変換するように構成される(ブロック6210)。並進/回転ベクトルの作成は、オペレータの意図する方向の推測を生成する。並進及び回転情報は、オペレータの意図する移動をミラーリング、一致、且つ/又は近似するためにロボットアーム506のジョイントをいかに回転させるべきかの判断に使用される。 After performing the coordinate transformation, the example processor 4102 and/or robot arm controller 4106 are configured to transform the force/torque vector into one or more translation/rotation vectors using at least one sigmoid function. (block 6210). The creation of translation/rotation vectors generates an estimate of the operator's intended orientation. The translation and rotation information is used to determine how the joints of the robot arm 506 should be rotated to mirror, match, and/or approximate the operator's intended movement.

幾つかの例では、一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、ロボット速度スケーリングを並進/回転ベクトルに適用する(ブロック6212)ように構成される。速度スケーリングは、例えば、ロボットアーム506の動作状況に基づき得る。例えば、速度スケーリングは、例えば、外科処置が開始されると、アームが手術室スタッフ、機器、及び/又は患者に比較的高速で非意図的に当たることを防ぐために、基づいて適用し得る。処置がまだ開始されていない場合、一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、患者が存在しないとき、ロボットアーム506の較正又は設定により小さな速度スケーリングを提供し得る。 In some examples, the example processor 4102 and/or robot arm controller 4106 is configured to apply robot velocity scaling to the translation/rotation vector (block 6212). Velocity scaling may be based on the operating conditions of the robot arm 506, for example. For example, velocity scaling may be applied based on, for example, once a surgical procedure has begun, to prevent the arm from unintentionally hitting operating room staff, equipment, and/or the patient at relatively high speeds. If a procedure has not yet begun, the example processor 4102 and/or robotic arm controller 4106 may provide less velocity scaling to calibrate or set up the robotic arm 506 when a patient is not present.

一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、スケーリングされた並進/回転ベクトルに基づいてロボットアーム506のジョイントの潜在的な移動シーケンスを決定する。可能なシーケンスを評価しながら、プロセッサ4102及び/又はロボットアームコントローラ4106は、回避するジョイント特異点を識別し、それにより、ロボットアーム506の対応する移動動作を除外する(ブロック6214)。上述したように、特異点は、エルボロック又はヒステリシス及びバックラッシュを受けやすい可能性がある他の位置を含み得る。プロセッサ4102及び/又はロボットアームコントローラ4106は、例えば、ヤコビアン運動学(例えば、ヤコビアン行列の逆)を使用して移動特異点がなくなった後、移動シーケンスを選択する(ブロック6216)ように構成される。ヤコビアン運動学の式は、スケーリングされた並進/回転ベクトルに基づいて、ロボットアーム506及び/又は結合板506の特定のジョイントをいかに移動させるべきかを定義する。ヤコビアン運動学は速度制御を提供し、一方、後述する逆運動学は位置制御を提供する。幾つかの実施形態では、プロセッサ4102及び/又はロボットアームコントローラ4106は代わりに逆運動学又は他のロボットアーム制御ルーチンを使用し得る。プロセッサ4102及び/又はロボットアームコントローラ4106は、ロボットアーム及び/又は結合板3304の特定のジョイントを調整された様式でいかに移動させるべきかを指定し、例えば、ジョイント回転速度、ジョイント回転方向、及び/又はジョイント回転持続時間を指定する移動シーケンスを決定する。移動シーケンスはまた、ロボットアーム506及び/又は結合板3304のジョイントを回転すべきシーケンスを指定することもできる。ロボットアーム及び/又は結合板3304の任意のジョイントR1~R9は移動シーケンスに応じて、個々に回転してもよく、又は重複した移動を有してもよい。 The example processor 4102 and/or robot arm controller 4106 determines potential movement sequences for the joints of the robot arm 506 based on the scaled translation/rotation vectors. While evaluating possible sequences, processor 4102 and/or robot arm controller 4106 identify joint singularities to avoid, thereby excluding corresponding translation motions of robot arm 506 (block 6214). As mentioned above, singularities may include elbow locks or other locations that may be susceptible to hysteresis and backlash. The processor 4102 and/or the robot arm controller 4106 are configured to select a movement sequence (block 6216) after the movement singularity is eliminated using, for example, Jacobian kinematics (e.g., inverse Jacobian matrix). . The Jacobian kinematics equations define how a particular joint of the robot arm 506 and/or coupling plate 506 should be moved based on the scaled translation/rotation vectors. Jacobian kinematics provides velocity control, while inverse kinematics, described below, provides position control. In some embodiments, processor 4102 and/or robot arm controller 4106 may instead use inverse kinematics or other robot arm control routines. Processor 4102 and/or robot arm controller 4106 specify how particular joints of robot arm and/or coupling plate 3304 are to be moved in a coordinated manner, e.g., joint rotation speed, joint rotation direction, and/or Or, determine a movement sequence that specifies the joint rotation duration. The movement sequence can also specify the sequence in which the joints of the robot arm 506 and/or the coupling plate 3304 are to be rotated. Any joints R1-R9 of the robot arm and/or coupling plate 3304 may rotate individually or have overlapping movements, depending on the movement sequence.

移動シーケンスが決定された後、プロセッサ4102及び/又はロボットアームコントローラ4106は、ジョイント速度スケーリング及び/又は許可胃を使用して衝突回避を実行するように構成される。例えば、プロセッサ4102及び/又はロボットアームコントローラ4106は、移動シーケンスがロボットアーム506及び/又は結合板3304の1つ又は複数のジョイント及び/又はリンクを境界又は患者若しくは機器の周囲の空間等の他の画定されたデカルト限界に近づけるか否かを判断するように構成される。図49に関連して上述したように、プロセッサ4102及び/又はロボットアームコントローラ4106は、移動シーケンスからのロボット空間におけるリンク及び/又はジョイントの位置の推定を1つ又は複数の定義された境界及び/又は角度限界と比較し得る。境界からの距離に基づいて、プロセッサ4102及び/又はロボットアームコントローラ4106は、スケーリング値を介して1つ又は複数のジョイント速度限界を適用する(ブロック6218)。プロセッサ4102及び/又はロボットアームコントローラ4106はまた、例えば、ロボットアーム506のリンクが互いに当たらないようにし、且つ/又はロボットアーム506、結合板3304、及び/又はカメラ300が境界を越えないようにする1つ又は複数のジョイント位置限界を適用する(ブロック6220)こともできる。位置限界直前のロケーション(例えば、位置限界の1センチメートル(「cm」)前、2cm前、10cm前等)及び/又は位置限界のロケーションは、スケーリング係数の値が「0」であるデカルトロボット空間におけるロケーションに対応し得る。 After the movement sequence is determined, processor 4102 and/or robot arm controller 4106 are configured to perform collision avoidance using joint velocity scaling and/or clearance. For example, the processor 4102 and/or the robot arm controller 4106 may determine whether the movement sequence bounds one or more joints and/or links of the robot arm 506 and/or the coupling plate 3304 or other areas such as the space around the patient or equipment. The method is configured to determine whether a defined Cartesian limit is approached. As described above in connection with FIG. 49, the processor 4102 and/or the robot arm controller 4106 may estimate the position of the links and/or joints in robot space from the movement sequence within one or more defined boundaries and/or or can be compared to the angular limit. Based on the distance from the boundary, processor 4102 and/or robot arm controller 4106 applies one or more joint velocity limits via scaling values (block 6218). Processor 4102 and/or robot arm controller 4106 may also, for example, prevent links of robot arm 506 from hitting each other and/or prevent robot arm 506, coupling plate 3304, and/or camera 300 from crossing boundaries. One or more joint position limits may also be applied (block 6220). The location immediately before the position limit (e.g., 1 centimeter (“cm”) before, 2 cm before, 10 cm before the position limit, etc.) and/or the location of the position limit is in Cartesian robot space where the value of the scaling factor is “0”. can correspond to a location in .

幾つかの例では、プロセッサ4102及び/又はロボットアームコントローラ4106は、式への入力として提供される境界を用いてヤコビアン運動学を実行し得、境界に近いエリアを通る移動にはより高い費用係数が提供される。境界費用係数の使用により、プロセッサ4102及び/又はロボットアームコントローラ4106は、移動シーケンスを決定する際、可能であれば、境界に近いロケーションを避けることができる。費用係数は、ロボット空間における特定のロケーションに関連するスケーリング係数の低減への反比例を含み得る。1つのスケーリング係数を各ジョイント/リンクに適用してもよく、又は別個のスケーリング係数がロボット空間内の同じロケーションの各ジョイントに存在してもよい。 In some examples, the processor 4102 and/or the robot arm controller 4106 may perform Jacobian kinematics with boundaries provided as input to the equation, with higher cost factors for movement through areas near the boundaries. is provided. Use of boundary cost factors allows processor 4102 and/or robot arm controller 4106 to avoid locations near boundaries, if possible, when determining movement sequences. The cost factor may include an inverse proportionality to the reduction of the scaling factor associated with a particular location in robot space. One scaling factor may be applied to each joint/link, or a separate scaling factor may exist for each joint at the same location in robot space.

衝突回避を提供した後、一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、ロボットアーム506の比較的高速の反転の補正を提供する(ブロック6222)ように構成される。プロセッサ4102及び/又はロボットアームコントローラ4106は、ゼロ位相遅延アルゴリズムを実施して、1つ又は複数のジョイントに回転方向を素早く変更させる指向性衝撃を拒絶し得る。ゼロ位相遅延アルゴリズムは、例えば、オペレータが方向を逆にする速度が速すぎる場合、ロボットアームが逆戻り又は揺動しないようにするフィルタにより実施し得る。 After providing collision avoidance, the example processor 4102 and/or robot arm controller 4106 are configured to provide correction for relatively fast reversals of the robot arm 506 (block 6222). Processor 4102 and/or robot arm controller 4106 may implement a zero phase delay algorithm to reject directional shocks that cause one or more joints to quickly change rotational direction. A zero phase delay algorithm may be implemented, for example, with a filter that prevents the robot arm from backtracking or rocking if the operator reverses direction too quickly.

図62に示されるように、一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、移動シーケンスのコマンドに確認する(ブロック6224)ように構成される。プロセッサ4102及び/又はロボットアームコントローラ4106は、コマンドに確認して、コマンド(又はコマンドを示す信号)がジョイントモータの動作パラメータ(例えば、持続時間、回転速度等)以内にあることを保証し得る。プロセッサ4102及び/又はロボットアームコントローラ4106はまた、コマンドを現在閾値と比較することによりコマンドに確認して、移動シーケンスのいかなるフェーズ中でもロボットアーム506が過剰な電流を消費しないことを保証することもできる。 As shown in FIG. 62, the example processor 4102 and/or robot arm controller 4106 is configured to confirm commands for a movement sequence (block 6224). Processor 4102 and/or robot arm controller 4106 may check the command to ensure that the command (or a signal indicative of the command) is within joint motor operating parameters (eg, duration, rotational speed, etc.). Processor 4102 and/or robot arm controller 4106 may also validate commands by comparing them to current thresholds to ensure that robot arm 506 does not consume excessive current during any phase of the movement sequence. .

一例のプロセッサ4102及び/又はロボットアームコントローラ4106はまた、1つ又は複数のアンチノイズフィルタを移動コマンド又は移動コマンドを示す信号に適用することもできる(ブロック6226)。フィルタは、ジョイントモータに過渡信号を誘導し得る高周波ノイズ成分を除去する高周波ローパスフィルタを含み得る。任意のフィルタリング後、プロセッサ4102及び/又はロボットアームコントローラ4106は、移動シーケンスに従って、1つ又は複数の信号又はメッセージを介して1つ又は複数のコマンドをロボットアーム及び/又は結合板3304の適切なジョイントモータに送信する(ブロック6228)。送信されたコマンドは、各ジョイントにおけるモータにロボットアーム506及び/又は結合板3304を移動させ、それにより、カメラ300をオペレータにより意図されるように移動させる。一例の手順6200は、オペレータが力をカメラ300に付与する限り、繰り返し得る。 The example processor 4102 and/or robot arm controller 4106 may also apply one or more anti-noise filters to the movement commands or signals indicative of the movement commands (block 6226). The filter may include a high frequency low pass filter that removes high frequency noise components that may induce transient signals in the joint motor. After any filtering, processor 4102 and/or robot arm controller 4106 transmits one or more commands via one or more signals or messages to the appropriate joints of robot arm and/or coupling plate 3304 according to the movement sequence. to the motor (block 6228). The transmitted commands cause the motors at each joint to move the robot arm 506 and/or the coupling plate 3304, thereby moving the camera 300 as intended by the operator. The example procedure 6200 may be repeated as long as the operator applies force to the camera 300.

図63は、本開示の実施形態例による、入力デバイス1410を介して一例の視覚化カメラ300を移動刺せる一例の手順6300の図を示す。一連の手順6300は図62の手順6200と略同一であるが、センサ3306に関連するブロック6202~6206は削除されている。図示の例では、制御入力6301は、制御アーム304飢えのボタン、フットペダル、ジョイスティック、タッチスクリーンインターフェース等の入力デバイス1410から受信される。制御入力6301は、ロボットアーム506のデカルトロボット空間内のカメラの指向性移動を示す。 FIG. 63 depicts an illustration of an example procedure 6300 for moving an example visualization camera 300 via an input device 1410, according to example embodiments of the present disclosure. The sequence of steps 6300 is substantially the same as step 6200 of FIG. 62, but blocks 6202-6206 related to sensor 3306 are deleted. In the illustrated example, control input 6301 is received from an input device 1410 such as a button on control arm 304, a foot pedal, a joystick, a touch screen interface, etc. Control input 6301 indicates directional movement of the camera within the Cartesian robot space of robot arm 506.

図63に示されるように、制御入力6301は、ロボットアーム506及び/又は結合板3304における1つ又は複数のジョイントセンサからのジョイント位置データ6203と結合されて、カメラ系からグローバル系及び/又はロボット空間への座標変換を実行する(ブロック6208)。一例の手順6300は次に、手順6200に関して考察したのと同じように続く。プロセッサ4102及び/又はロボットアームコントローラ4106はそれに従って、入力デバイス1410から受信した制御入力6301に基づいてロボットアーム506、結合板3304、及び/又はカメラ300を所望のロケーション及び/又は向きに移動させる。 As shown in FIG. 63, control inputs 6301 are combined with joint position data 6203 from one or more joint sensors in robot arm 506 and/or coupling plate 3304 to provide a control input from a camera system to a global system and/or a robot system. A coordinate transformation to space is performed (block 6208). The example procedure 6300 then continues in the same manner as discussed with respect to procedure 6200. Processor 4102 and/or robot arm controller 4106 accordingly move robot arm 506, coupling plate 3304, and/or camera 300 to a desired location and/or orientation based on control input 6301 received from input device 1410.

F.標的ロック実施形態
幾つかの実施形態では、プロセッサ4102及び/又はロボットアームコントローラ4106は、メモリ1570及び/又は4120に記憶された命令により定義される1つ又は複数のアルゴリズム、ルーチン等を実行して、ロボットアーム506及び/又は結合板3304が標的ロック特徴を提供できるようにするよう構成される。これらの実施形態では、標的ロック特徴は、標的手術部位にロックしながら、立体視覚化カメラ300を再び向けられるようにすることにより、ロボットアーム506が外科医の延長として動作できるようにする。後述するように、プロセッサ4102及び/又はロボットアームコントローラ4106は、オペレータにより付与される力/トルク/移動及びアームジョイントの位置をモニタして、オペレータの意図を推測し、それに従って、カメラ300の焦点がロック又は静止したままであるようにロボットアーム506及び/又は結合板3304を再び向けるように構成される。
F. Target Lock Embodiments In some embodiments, processor 4102 and/or robot arm controller 4106 execute one or more algorithms, routines, etc. defined by instructions stored in memory 1570 and/or 4120. , the robotic arm 506 and/or the coupling plate 3304 are configured to enable the target locking feature to be provided. In these embodiments, the target locking feature allows the robotic arm 506 to operate as an extension of the surgeon by allowing the stereoscopic visualization camera 300 to be redirected while locking onto the target surgical site. As described below, the processor 4102 and/or the robot arm controller 4106 monitor the forces/torques/travels applied by the operator and the position of the arm joints to infer the operator's intent and adjust the focus of the camera 300 accordingly. The robot arm 506 and/or the coupling plate 3304 are configured to reorient the robot arm 506 and/or the coupling plate 3304 so that it remains locked or stationary.

標的ロック特徴は、全ての運動を仮想球の表面に制約させることにより、カメラ300を再び向けられるようにする。カメラ300の先端部は、仮想球の外面(例えば、仮想球の上半球)に配置され、カメラ300の焦点又は標的手術部位は仮想球の中心を構成する。一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、カメラ300を球の中心に向けた状態を維持し、それにより、移動中、標的手術部位にピントが合った状態を維持しながら、オペレータがカメラ300を仮想球の外面にわたり移動させられるようにする。標的ロック特徴は、オペレータが同じ標的部位の大きく異なるビューを容易に素早く取得できるようにする。 The target lock feature allows the camera 300 to be reoriented by constraining all motion to the surface of the virtual sphere. The tip of camera 300 is placed on the outer surface of the virtual sphere (eg, the upper hemisphere of the virtual sphere), and the focal point or target surgical site of camera 300 constitutes the center of the virtual sphere. The example processor 4102 and/or robot arm controller 4106 maintains the camera 300 centered on the sphere so that the operator can maintain the camera 300 while maintaining focus on the target surgical site during movement. 300 can be moved over the outer surface of the virtual sphere. The target locking feature allows the operator to easily and quickly obtain widely different views of the same target area.

図64は、本開示の実施形態例による、立体視覚化カメラ300に標的ロックを提供するアルゴリズム、ルーチン、又は手順6400を示す図を示す。手順6400について図64に示される流れ図を参照して説明するが、手順6400に関連するステップを実行する多くの他の方法が使用可能なことを理解されたい。例えば、ブロックの多くの順序は変更し得、特定のブロックは他のブロックと結合し得、記載されるブロックの多くは任意選択的なものである。さらに、手順6400に記載される動作は、例えば、図14の一例の立体視覚化カメラ300の情報プロセッサモジュール1408及び/又は図41のジョイントR1~R9及びロボットアームコントローラ4106を含め、複数のデバイス間で実行し得る。幾つかの例では、手順6400は、ロボットアームコントローラ4106のメモリ4120に記憶されたプログラムにより実行し得る。 FIG. 64 depicts a diagram illustrating an algorithm, routine, or procedure 6400 for providing target locking to stereoscopic visualization camera 300, according to example embodiments of the disclosure. Although procedure 6400 will be described with reference to the flow diagram shown in FIG. 64, it should be understood that many other methods of performing the steps associated with procedure 6400 can be used. For example, the order of many of the blocks may be changed, certain blocks may be combined with other blocks, and many of the blocks described are optional. Additionally, the operations described in step 6400 may be performed between multiple devices, including, for example, information processor module 1408 of example stereoscopic visualization camera 300 of FIG. 14 and/or joints R1-R9 and robot arm controller 4106 of FIG. It can be executed with In some examples, procedure 6400 may be performed by a program stored in memory 4120 of robotic arm controller 4106.

一例の手順6400は補助付き駆動手順6200と同様である。しかしながら、手順6400は、カメラ300の焦点を維持するためのジョイント位置のコマンドを提供し、一方、一例の手順6200はジョイント速度の計算を提供する。一例の手順6400は、オペレータにより入力された所望の力/移動ベクトルを特定し、ロボットアーム506及び/又は結合板3304の1つ又は複数のジョイントがカメラ300を再び向けるように移動する間、カメラ300の焦点が静止したままであるように回転変換を計算する。カメラ300を再び向けることにより、標的手術部位を異なる角度から撮像することが可能になる。再び向けることは、第1のビューパスが、例えば、機器により塞がれ、外科医が現在の焦点の維持を望む場合、必要であり得る。 The example procedure 6400 is similar to the assisted drive procedure 6200. However, procedure 6400 provides joint position commands to maintain the focus of camera 300, while example procedure 6200 provides joint velocity calculations. The example procedure 6400 includes identifying a desired force/movement vector input by an operator and moving the camera 300 while one or more joints of the robot arm 506 and/or coupling plate 3304 move to redirect the camera 300. Compute the rotational transformation so that the focus of 300 remains stationary. Redirecting the camera 300 allows the target surgical site to be imaged from different angles. Redirection may be necessary if the first viewing path is occluded, for example by an instrument, and the surgeon wishes to maintain the current focus.

一例の手順6400は、オペレータが入力デバイス1410上の標的ロックボタンを選択した場合、開始され、標的ロックボタンの選択により、命令メッセージ又は信号がプロセッサ4102及び/又はロボットアームコントローラ4106に送信される。メッセージを受信した後、プロセッサ4102及び/又はロボットアームコントローラ4106は標的ロックモードで動作し、このモードでは、オペレータがカメラ300の向きを変更できるようにしながら、作業距離及び/又は焦点は静止したまま保持され、オペレータによるカメラ300の向き変更は、ロボットアーム及び/又は結合板3304の1つ又は複数のジョイントに補助付き移動を提供させる。命令が受信されると、一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、現在の作業距離、倍率、力、及び/又はカメラ300の他の光学パラメータを記録し得る。プロセッサ4102及び/又はロボットアームコントローラ4106はまた、FOVの現在の画像を記録することもできる。 The example procedure 6400 begins when an operator selects a target lock button on the input device 1410, which causes a command message or signal to be sent to the processor 4102 and/or the robot arm controller 4106. After receiving the message, processor 4102 and/or robot arm controller 4106 operate in target lock mode, in which the working distance and/or focus remains stationary while allowing the operator to change the orientation of camera 300. When held, reorientation of camera 300 by an operator causes one or more joints of the robot arm and/or coupling plate 3304 to provide assisted movement. Once the command is received, the example processor 4102 and/or robotic arm controller 4106 may record the current working distance, magnification, force, and/or other optical parameters of the camera 300. Processor 4102 and/or robot arm controller 4106 may also record a current image of the FOV.

手順6400が開始された後、プロセッサ4102及び/又はロボットアームコントローラ4106は、カメラ300のオペレータにより付与された力に関連する力/トルク出力データ6201をセンサ3306から受信する。図62に関連して考察したように、プロセッサ4102及び/又はロボットアームコントローラ4106は、データ6102をフィルタリングし、重力/力付与補償を提供する(ブロック6202及び6204)。また図62と同様に、プロセッサ4102及び/又はロボットアームコントローラ4106は、ジョイント位置データ6203を補償されフィルタリングされた力/トルク出力データと併せて使用して、力/トルク系とグローバル系又はロボット空間との間の座標変換を実行する(ブロック6206)。プロセッサ4102及び/又はロボットアームコントローラ4106はまた、ジョイント位置データ6203を使用して、立体視覚化カメラ300のカメラ系とグローバル系又はロボット空間との間の座標変換も実行する(ブロック6208)。一例のプロセッサ4102及び/又はロボットアームコントローラ4106はまた、グローバル系又はロボット空間から、仮想球に対応する球座標への変換も実行する(ブロック6410)。 After procedure 6400 is initiated, processor 4102 and/or robot arm controller 4106 receives force/torque output data 6201 from sensor 3306 related to forces applied by an operator of camera 300. As discussed in connection with FIG. 62, processor 4102 and/or robot arm controller 4106 filter data 6102 and provide gravity/force application compensation (blocks 6202 and 6204). Also similar to FIG. 62, processor 4102 and/or robot arm controller 4106 may use joint position data 6203 in conjunction with compensated and filtered force/torque output data to determine whether the force/torque system and global or robot space (block 6206). Processor 4102 and/or robot arm controller 4106 also use joint position data 6203 to perform coordinate transformations between the camera system of stereoscopic visualization camera 300 and the global system or robot space (block 6208). The example processor 4102 and/or robot arm controller 4106 also performs a transformation from global or robot space to spherical coordinates corresponding to a virtual sphere (block 6410).

座標変換後、一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、例えば、カメラ300の動作モードに基づいて軌道速度をスケーリングする(ブロック6412)ように構成される。スケーリングは図62のブロック6212において実行されたスケーリングと同様であり得る。図64の一例の手順6400は、プロセッサ4102及び/又はロボットアームコントローラ4106が球端点(sphere end point)を計算すること(ブロック6414)に続く。球端点の計算は、オペレータの望む移動方向についての推測を提供し、球を回転させずにカメラ300を仮想球にわたり移動させるべき程度を決定する。 After the coordinate transformation, the example processor 4102 and/or robot arm controller 4106 is configured to scale the trajectory velocity (block 6412) based on, for example, the mode of operation of the camera 300. The scaling may be similar to the scaling performed in block 6212 of FIG. 62. The example procedure 6400 of FIG. 64 continues with the processor 4102 and/or robot arm controller 4106 calculating a sphere end point (block 6414). The calculation of the sphere endpoints provides an estimate of the operator's desired direction of movement and determines how much the camera 300 should be moved across the virtual sphere without rotating the sphere.

図65は、本開示の実施形態例による、標的ロック特徴の仮想球6500を示す図を示す。図65に示されるように、立体視覚化カメラ300は、ジョイント位置データ6203から特定される現在位置に基づいて球6500に仮想的に配置される。カメラ300のビューベクトルは、球6500の中心に配置された、xyz標的として示される先端部を指す。プロセッサ4102及び/又はロボットアームコントローラ4106は、変換された力/トルクデータを使用して、xyz標的を指したビューベクトルを維持しながら球6500の表面に沿って球上のカメラ300をいかに移動させるべきかを決定するように構成され、球上の任意の所与の点は、回転球角度「v」及び「u」の関数である式により与えられる。力/トルクデータが使用される場合、プロセッサ4102及び/又はロボットアームコントローラ4106は、並進力に対応する「x」成分及び「y」成分を使用して、球端点を特定するために、仮想球6500上でカメラ300をいかに移動させるべきかを直接決定する。 FIG. 65 shows a diagram illustrating a virtual sphere 6500 of target locking features, according to an example embodiment of the disclosure. As shown in FIG. 65, stereoscopic visualization camera 300 is virtually placed on sphere 6500 based on the current position specified from joint position data 6203. The view vector of camera 300 points to the tip, shown as an xyz target, located at the center of sphere 6500. Processor 4102 and/or robot arm controller 4106 use the transformed force/torque data to determine how to move camera 300 on the sphere along the surface of sphere 6500 while maintaining the view vector pointing at the xyz target. is configured to determine whether any given point on the sphere is given by an equation that is a function of the rotation sphere angles "v" and "u". If force/torque data is used, the processor 4102 and/or the robot arm controller 4106 may use the "x" and "y" components corresponding to the translational force to determine the virtual sphere to identify the sphere endpoints. 6500 directly determines how the camera 300 should be moved.

プロセッサ4102及び/又はロボットアームコントローラ4106は、異なる入力に対して球端点を別様に特定し得る。例えば、図63に示されるように、入力が入力デバイス1410を介して受信される場合、プロセッサ4102及び/又はロボットアームコントローラ4106は、「上」、「下」、「左」、及び「右」をカメラ座標からx、yベクトルとして提供されるロボット空間座標に変換する。力/トルクデータと同様に、x、yベクトルはプロセッサ4102及び/又はロボットアームコントローラ4106により、球端点を特定するために、カメラ300を仮想球6500でいかに移動させるべきかを直接決定するのに使用される。入力が入力デバイスを介して受信される場合、図63に示されるように、ブロック6202~6206と併せて考察した動作を省き得ることを理解されたい。 Processor 4102 and/or robot arm controller 4106 may identify sphere endpoints differently for different inputs. For example, as shown in FIG. 63, if input is received via input device 1410, processor 4102 and/or robot arm controller 4106 may select "up," "down," "left," and "right." from camera coordinates to robot space coordinates provided as x,y vectors. Similar to force/torque data, the x,y vectors are used by processor 4102 and/or robot arm controller 4106 to directly determine how camera 300 should be moved on virtual sphere 6500 to locate the sphere endpoints. used. It should be appreciated that if the input is received via an input device, the operations discussed in conjunction with blocks 6202-6206, as shown in FIG. 63, may be omitted.

幾つかの例では、プロセッサ4102及び/又はロボットアームコントローラ4106は、軌道入力データを受信するように構成される。これらの例では、プロセッサ4102及び/又はロボットアームコントローラ4106は、仮想球6500の球角度「u」に沿った移動を繰り返しながら、球角度「v」を一定に保つ。球角度「u」に沿った反復移動は、軌道入力での球端点を特定できるようにする。入力が仮想球6500に適用されるが、他の例では、入力を他の形状に適用し得ることを理解されたい。例えば、仮想球6500は代わりに、仮想円柱形、楕円形、卵形、ピラミッド/錐台等として定義し得る。 In some examples, processor 4102 and/or robot arm controller 4106 are configured to receive trajectory input data. In these examples, processor 4102 and/or robot arm controller 4106 repeatedly moves virtual sphere 6500 along sphere angle "u" while keeping sphere angle "v" constant. Iterative movement along the sphere angle "u" allows the sphere endpoints at the trajectory input to be identified. Although the input is applied to virtual sphere 6500, it should be understood that in other examples the input may be applied to other shapes. For example, virtual sphere 6500 may alternatively be defined as a virtual cylinder, ellipse, oval, pyramid/frustum, etc.

他の例では、プロセッサ4102及び/又はロボットアームコントローラ4106は、レベルスコープ入力データを受信するように構成される。これらの例では、プロセッサ4102及び/又はロボットアームコントローラ4106は、仮想球6500の球角度「v」に沿った移動を繰り返しながら、球角度「u」を一定に保つ。球角度「v」に沿った反復移動は、カメラ300を仮想球6500の上部に移動させる。 In other examples, processor 4102 and/or robot arm controller 4106 are configured to receive levelscope input data. In these examples, processor 4102 and/or robot arm controller 4106 repeatedly moves virtual sphere 6500 along sphere angle "v" while keeping sphere angle "u" constant. Repeated movement along sphere angle “v” moves camera 300 to the top of virtual sphere 6500.

図64に戻ると、球端点が特定された後、プロセッサ4102及び/又はロボットアームコントローラ4106は、カメラ300が特定された端点まで仮想球に沿って移動した後、カメラ300がx、y、z標的を見ることを維持するために必要な回転量を計算する(ブロック6416)ように構成される。プロセッサ4102及び/又はロボットアームコントローラ4106はまた、この計算中、アンチヨー補正を提供する(ブロック6418)こともできる。換言すれば、プロセッサ4102及び/又はロボットアームコントローラ4106は、仮想球6500上のカメラ300の新しい位置を所与として、カメラ300のビューベクトル又は先端部が、標的手術部位又は焦点に対応する仮想球6500の中心を指す同じx、y、z標的に提供されるようにカメラ300をいかに向けるべきかを決定するよう構成される。 Returning to FIG. 64, after the sphere endpoints are identified, the processor 4102 and/or robot arm controller 4106 moves the camera 300 along the virtual sphere to the identified endpoints and then moves the camera 300 along the x, y, z The system is configured to calculate the amount of rotation required to maintain view of the target (block 6416). Processor 4102 and/or robot arm controller 4106 may also provide anti-yaw correction (block 6418) during this calculation. In other words, processor 4102 and/or robot arm controller 4106 determines, given a new position of camera 300 on virtual sphere 6500, that the view vector or tip of camera 300 corresponds to the target surgical site or focal point on the virtual sphere. 6500 is configured to determine how to point the camera 300 so that it is provided with the same x, y, z target pointing to the center of the 6500.

このステップ中、プロセッサ4102及び/又はロボットアームコントローラ4106は、所望の向きを達成するために必要なロボットアーム506及び/又は結合板3304のジョイント角度を決定する。x、y、z球端点がブロック6414において計算された後、プロセッサ4102及び/又はロボットアームコントローラ4106は、カメラ300のロール量及びピッチ量を決定する。幾つかの実施形態では、計算は2ステッププロセスである。まず、プロセッサ4102及び/又はロボットアームコントローラ4106は、x、y、z球端点を所与として、回転せずにカメラ300の移動を提供する初期4×4変換行列Tを計算する。次に、プロセッサ4102及び/又はロボットアームコントローラ4106は、続くジョイント回転サイクルでカメラ300がx、y、zに配置された(且つ/又はx、y、z球端点に位置決めされた)標的を見るのを維持するような局所ロール量及びピッチ量を計算する。プロセッサ4102及び/又はロボットアームコントローラ4106は、以下の式(4)及び(5)を使用して、ロール量及びピッチ量を計算し得、式中、Tnextは4×4変換行列に対応する。計算は各更新サイクル(例えば8ms)で実行することができる。

Figure 0007379373000003
During this step, processor 4102 and/or robot arm controller 4106 determines the joint angles of robot arm 506 and/or coupling plate 3304 required to achieve the desired orientation. After the x, y, z spherical endpoints are calculated at block 6414, processor 4102 and/or robot arm controller 4106 determine roll and pitch amounts for camera 300. In some embodiments, the calculation is a two-step process. First, processor 4102 and/or robot arm controller 4106 calculates an initial 4x4 transformation matrix T that provides movement of camera 300 without rotation, given the x, y, z sphere endpoints. The processor 4102 and/or the robot arm controller 4106 then causes the camera 300 to view the target located in x, y, z (and/or positioned at the x, y, z sphere endpoint) in a subsequent joint rotation cycle. The local roll amount and pitch amount are calculated to maintain the following. The processor 4102 and/or the robot arm controller 4106 may calculate the roll and pitch amounts using equations (4) and (5) below, where T next corresponds to a 4x4 transformation matrix. . Calculations can be performed on each update cycle (eg 8ms).
Figure 0007379373000003

上記式(4)中、xtaregt_next、ytaregt_next、及びztaregt_nextは、Tnext行列への制約である。上記制約は、ロール角及びピッチ角が、上記x、y、z式が有効であるように選ばれることを指定する。換言すれば、ジョイント回転の次の更新されたサイクルにおける標的のx、y、zロケーションは、現在のサイクルにおける標的のx、y、zロケーションに等しいロケーションである必要がある。制約により、カメラ300はロール角及びピッチ角を介して回転できるようになるが、x、y、zロケーションに相対してロックされたままであることができる。 In the above equation (4), xtaregt_next , ytaregt_next , and ztaregt_next are constraints on the Tnext matrix. The above constraints specify that the roll and pitch angles are chosen such that the x, y, z equations above are valid. In other words, the x, y, z location of the target in the next updated cycle of joint rotation needs to be the same location as the x, y, z location of the target in the current cycle. The constraints allow camera 300 to rotate through roll and pitch angles, but remain locked relative to the x, y, z location.

さらに式(5)の最初の行列の下の行における-sinθはピッチ角に対応し、一方、2番目の行列の下の行におけるsinθはロール角に対応する。ピッチの閉形式表現は、関数cos(roll)を所与として存在し得る。プロセッサ4102及び/又はロボットアームコントローラ4106は、反復方法を使用して、fn(cos(roll))に等しいピッチを用いて関数cos(roll)として計算されたロールを推定して、上記式の正確なロール/ピッチ解対を生成し得る。 Further, -sin θ in the bottom row of the first matrix of equation (5) corresponds to the pitch angle, while sin θ in the bottom row of the second matrix corresponds to the roll angle. A closed-form representation of pitch may exist given the function cos(roll). The processor 4102 and/or the robot arm controller 4106 use an iterative method to estimate the roll calculated as a function cos(roll) with a pitch equal to fn(cos(roll)) to correct the above equation. roll/pitch solution pairs can be generated.

ブロック6416及び6418に関連して説明した動作からロール量及びピッチ量が計算された後、一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、特異点回避を提供し、逆運動学を計算して、仮想球6500に沿ったカメラ300の新しいx、y、z位置に加えてロール量及びピッチ量を達成するジョイント回転を決定する(ブロック6214及び6420)ように構成される。逆運動学の計算により、プロセッサ4102及び/又はロボットアームコントローラ4106は、ロボットアーム506及び/又は結合板3304のジョイントの移動シーケンスを決定することができる。 After the roll and pitch amounts are calculated from the operations described in connection with blocks 6416 and 6418, the example processor 4102 and/or robot arm controller 4106 provides singularity avoidance and calculates inverse kinematics. , are configured to determine joint rotations that achieve a new x, y, z position of camera 300 along virtual sphere 6500, as well as roll and pitch amounts (blocks 6214 and 6420). Inverse kinematics calculations allow processor 4102 and/or robot arm controller 4106 to determine a movement sequence for the joints of robot arm 506 and/or coupling plate 3304.

一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、ジョイント速度限界及び/又は位置限界に加えて誤差補正を移動シーケンスに適用し得る(ブロック6418、6218、6220)。図62に関連して上述したように、限界及び誤差補正は、ロボットアーム506、カメラ300、及び/又は結合板3304がそれら自体に当たらず、1つ又は複数の境界を越えず、且つ/又は許容可能なジョイント位置内にないようにし得る。プロセッサ4102及び/又はロボットアームコントローラ4106はまた、移動シーケンスに基づいて、ロボットアーム506及び/又は結合板3304の1つ又は複数のジョイントR1~R9にコマンド(又はコマンドを示す信号)を送信する前、移動シーケンスのジョイントへのコマンドがアンチノイズフィルタリングを提供することを確認する(ブロック6224、6226、6228)こともできる。一例の手順6400は次に、他の移動が検出されない場合、終了し得る。その他の場合、オペレータ入力が受信されるとき、手順6400は定期的な間隔(例えば、10ms、20ms等)で繰り返される。 The example processor 4102 and/or robot arm controller 4106 may apply error corrections to the movement sequence in addition to joint velocity limits and/or position limits (blocks 6418, 6218, 6220). As discussed above in connection with FIG. 62, limits and error corrections ensure that the robot arm 506, camera 300, and/or coupling plate 3304 do not hit themselves, cross one or more boundaries, and/or may not be within acceptable joint positions. Processor 4102 and/or robot arm controller 4106 may also perform commands (or signals indicative of commands) prior to sending commands (or signals indicative of commands) to one or more joints R1-R9 of robot arm 506 and/or coupling plate 3304 based on the movement sequence. , commands to the joints of the movement sequence may also be verified to provide anti-noise filtering (blocks 6224, 6226, 6228). The example procedure 6400 may then terminate if no other movement is detected. Otherwise, procedure 6400 is repeated at regular intervals (eg, 10ms, 20ms, etc.) when operator input is received.

幾つかの実施形態では、プロセッサ4102及び/又はロボットアームコントローラ4106は、機器の標的ロック追跡を提供し得る。これらの例では、仮想球6500の中心のxyz標的は、移動する標的に対応する動的軌道で置換される。そのような特徴は、例えば、脊椎器具の追跡を可能にし得る。これらの実施形態では、機器は1つ又は複数の基準及び/又は他のマーカを含み得る。一例の立体視覚化カメラ300は、基準を含む画像を記録する。プロセッサ4102及び/又はロボットアームコントローラ4106は、カメラ形空間からロボット空間への座標変換を実行して、機器がx、y、z軸に沿っていかに移動しているかを特定し得る。一例のプロセッサ4102及び/又はロボットアームコントローラ4106は、基準が画像においていかに移動するかを追跡し、対応するx、y、z移動ベクトルを決定し得る。幾つかの場合、x、y、zベクトルは、図64のブロック6414の球端点計算に入力されて、仮想球6500の中心ロケーションを変更し得る。球6500の移動に応答して、プロセッサ4102及び/又はロボットアームコントローラ4106は、新しい標的ロケーションで同じ作業距離及び/又は向きを維持するためにロボットアーム506をいかに位置決めすべきかを決定する。プロセッサ4102及び/又はロボットアームコントローラ4106は次に、逆運動学を適用して、標的の移動を追跡するためのロボットアーム506及び/又は結合板のジョイント回転を決定し得る。手順6200及び6400と同様に、プロセッサ4102及び/又はロボットアームコントローラ4106は、決定された移動シーケンスにおいて指定されたようにコマンドをジョイントに送信する前、誤差補正、ジョイント限界、フィルタ、及び/又は確認を適用し得る。 In some embodiments, processor 4102 and/or robotic arm controller 4106 may provide target lock tracking of the equipment. In these examples, the xyz target at the center of virtual sphere 6500 is replaced with a dynamic trajectory corresponding to the moving target. Such features may, for example, enable tracking of spinal instruments. In these embodiments, the device may include one or more fiducials and/or other markers. An example stereoscopic visualization camera 300 records images that include fiducials. Processor 4102 and/or robot arm controller 4106 may perform a coordinate transformation from camera-shaped space to robot space to determine how the instrument is moving along the x, y, and z axes. An example processor 4102 and/or robot arm controller 4106 may track how the fiducial moves in the image and determine a corresponding x, y, z movement vector. In some cases, the x, y, z vectors may be input into the sphere endpoint calculation of block 6414 of FIG. 64 to change the center location of virtual sphere 6500. In response to movement of sphere 6500, processor 4102 and/or robot arm controller 4106 determine how to position robot arm 506 to maintain the same working distance and/or orientation at the new target location. Processor 4102 and/or robot arm controller 4106 may then apply inverse kinematics to determine joint rotation of robot arm 506 and/or coupling plate to track movement of the target. Similar to steps 6200 and 6400, processor 4102 and/or robot arm controller 4106 performs error correction, joint limits, filters, and/or validation before sending commands to joints as specified in the determined movement sequence. can be applied.

結論
本明細書に記載されたシステム、構造、方法、及び手順のそれぞれが、1つ又は複数のコンピュータプログラム又は構成要素を使用して実施し得ることが理解されよう。これらのプログラム及び構成要素は、ランダムアクセスメモリ(「RAM」)、読み取り専用メモリ(「ROM」)、フラッシュメモリ、磁気又は光学ディスク、光学メモリ、又は他の記憶媒体、並びにそれらの組み合わせ及び派生物を含め、任意の従来のコンピュータ可読媒体上の一連のコンピュータ命令として提供し得る。命令は、プロセッサにより実行されるように構成し得、プロセッサは、一連のコンピュータ命令を実行すると、開示された方法及び手順の全て又は一部を実行するか、又は実行を促進する。
Conclusion It will be appreciated that each of the systems, structures, methods, and procedures described herein may be implemented using one or more computer programs or components. These programs and components may be stored in random access memory ("RAM"), read-only memory ("ROM"), flash memory, magnetic or optical disks, optical memory, or other storage media, and combinations and derivatives thereof. may be provided as a sequence of computer instructions on any conventional computer-readable medium, including. The instructions may be configured to be executed by a processor, which, when executing the sequence of computer instructions, performs or facilitates performing all or a portion of the disclosed methods and procedures.

本明細書に記載された実施形態例への様々な変更及び変形が当業者には明らかになることを理解されたい。そのような変更及び変形は、本趣旨及び範囲から逸脱せずに、意図される利点を低減せずに行うことができる。したがって、そのような変更及び変形が添付の特許請求の範囲によって包含されることが意図される。さらに、現在の米国法と一致して、「手段」又は「ステップ」が請求項において明示的に記載される場合を除き、米国特許法第112条(f)又はAIA改正前米国特許法第112条第6段落の発動が意図されないことを理解されたい。したがって、請求項は、本明細書に記載される対応する構造、材料、若しくは動作、又はそれらの均等物への限定を意図されない。 It should be understood that various modifications and variations to the example embodiments described herein will be apparent to those skilled in the art. Such changes and modifications may be made without departing from the spirit and scope of the invention and without diminishing its intended advantages. It is therefore intended that such changes and modifications be covered by the appended claims. Additionally, consistent with current U.S. law, unless "means" or "step" are explicitly recited in a claim, 35 U.S.C. 112(f) or pre-AIA 35 U.S.C. It is to be understood that it is not intended that Article 6, paragraph 6 be invoked. Therefore, the claims are not intended to be limited to the corresponding structures, materials, or acts described herein or their equivalents.

Claims (21)

ロボット撮像装置であって、
セキュア構造又はカートに接続されるように構成されたベースセクションと、
ロボットアームであって、
前記ベースセクションに接続される第1の端部、
結合インターフェースを含む第2の端部、及び
前記第1の端部を前記第2の端部に接続する複数のジョイント及びリンクであって、各ジョイントは、軸の回りで前記ジョイントを回転させるように構成されたモータ及び前記ジョイントのそれぞれの位置を送信するように構成されたジョイントセンサを含む、複数のジョイント及びリンク
を含む、ロボットアームと、
前記結合インターフェースにおいて前記ロボットアームに接続される立体カメラであって、標的手術部位の左画像及び右画像を記録して、前記標的手術部位の立体画像ストリームを生成するように構成される、立体カメラと、
前記結合インターフェースに位置決めされ、オペレータにより前記立体カメラに付与される並進力及び回転力を検出し、前記並進力及び前記回転力を示す出力データを送信するように構成されるセンサと、
少なくとも前記ロボットアームの現在位置並びに検出された並進力及び回転力に基づいて、前記ロボットアームの前記ジョイントのそれぞれの回転方向、速度、及び持続時間を指定する1つ又は複数の命令及び/又はデータ構造により定義される少なくとも1つのアルゴリズムを記憶するメモリと、
前記ロボットアームの前記結合インターフェースに接続するように構成された第1の端部と、前記立体カメラに接続するように構成された第2の結合インターフェースを含む第2の端部とを有する結合板と、
前記センサ及び前記ロボットアームに通信可能に結合される少なくとも1つのプロセッサと、
を備え、
前記少なくとも1つのプロセッサは、
前記センサから、前記並進力及び前記回転力を示す前記出力データを受信することと、
前記メモリ内の前記少なくとも1つのアルゴリズムを使用して、前記ロボットアームの現在位置及び前記センサからの前記出力データに基づいて前記ロボットアームの移動シーケンスを決定することと、
前記少なくとも1つのジョイントに提供される1つ又は複数のモータ制御信号を介して、前記決定された移動シーケンスに基づいて前記ロボットアームの前記ジョイントの少なくとも1つを回転させることと、
を行うように構成され、
前記少なくとも1つのジョイントの前記回転は、前記オペレータによる前記立体カメラに付与される前記検出された並進力及び前記検出された回転力に基づいて、前記ロボットアームの動力補助付き移動を提供し、
前記結合板は、前記オペレータによって選択的に移動可能とされ、回転可能ラッチ機構を有する1つ又は複数のジョイントを含む、ロボット撮像装置。
A robot imaging device,
a base section configured to be connected to a secure structure or cart;
A robot arm,
a first end connected to the base section;
a second end including a coupling interface; and a plurality of joints and links connecting the first end to the second end, each joint configured to rotate the joint about an axis. a robot arm including a plurality of joints and links including a motor configured to and a joint sensor configured to transmit a position of each of the joints;
a stereoscopic camera connected to the robotic arm at the coupling interface and configured to record left and right images of a target surgical site to generate a stereoscopic image stream of the target surgical site; and,
a sensor positioned at the coupling interface and configured to detect translational and rotational forces applied to the stereoscopic camera by an operator and transmit output data indicative of the translational and rotational forces;
one or more instructions and/or data specifying a direction, speed, and duration of rotation of each of the joints of the robot arm based on at least the current position of the robot arm and detected translational and rotational forces; a memory storing at least one algorithm defined by the structure;
a coupling plate having a first end configured to connect to the coupling interface of the robot arm and a second end including a second coupling interface configured to connect to the stereoscopic camera; and,
at least one processor communicatively coupled to the sensor and the robotic arm;
Equipped with
The at least one processor includes:
receiving from the sensor the output data indicative of the translational force and the rotational force;
using the at least one algorithm in the memory to determine a movement sequence for the robotic arm based on the current position of the robotic arm and the output data from the sensor;
rotating the at least one joint of the robotic arm based on the determined movement sequence via one or more motor control signals provided to the at least one joint;
is configured to do
the rotation of the at least one joint provides powered movement of the robotic arm based on the detected translational force and the detected rotational force applied to the stereoscopic camera by the operator;
The coupling plate is selectively movable by the operator and includes one or more joints having a rotatable latching mechanism.
前記少なくとも1つのプロセッサは、前記複数のジョイントの前記ジョイントセンサからの出力データに基づいて、前記ロボットアームの前記現在位置を特定するように構成される、請求項1に記載の装置。 2. The apparatus of claim 1, wherein the at least one processor is configured to determine the current position of the robotic arm based on output data from the joint sensors of the plurality of joints. 前記センサは、自由度6の触力覚デバイス又はトルクセンサの少なくとも一方を含む、請求項1又は請求項2に記載の装置。 3. The apparatus of claim 1 or claim 2, wherein the sensor comprises at least one of a six degrees of freedom haptic device or a torque sensor. 前記立体カメラは、前記動力補助付き移動を可能にするリリースボタンを有する少なくとも1つの制御アームを含み、
前記少なくとも1つのプロセッサは、
前記リリースボタンが選択されたことを示す入力メッセージを受信することと、
前記リリースボタンに関連する前記入力メッセージを受信した後、前記センサからの前記出力データを使用して前記移動シーケンスを決定することと、
を行うように構成される、請求項1又は請求項2に記載の装置。
the stereoscopic camera includes at least one control arm having a release button to enable the powered movement;
The at least one processor includes:
receiving an input message indicating that the release button has been selected;
determining the movement sequence using the output data from the sensor after receiving the input message associated with the release button;
3. A device according to claim 1 or claim 2, configured to perform.
前記結合板は、前記移動シーケンスに従って前記少なくとも1つのプロセッサにより制御可能な前記ジョイント及びモータのそれぞれの位置を送信するように構成されたジョイントセンサを含む少なくとも1つのジョイントを含む、請求項1又は請求項4に記載の装置。 1 or 2 , wherein the coupling plate includes at least one joint comprising a joint sensor configured to transmit respective positions of the joint and motor controllable by the at least one processor according to the movement sequence. The device according to item 4. 前記センサは、前記結合インターフェース又は前記第2の結合インターフェースに配置される、請求項5に記載の装置。 6. The apparatus of claim 5, wherein the sensor is located at the coupling interface or the second coupling interface. 前記結合板は、前記立体カメラを水平向きと垂直向きとの間でオペレータにより手動で回転できるようにする第2のジョイントを含み、前記第2のジョイントは、前記第2のジョイントの位置を送信するように構成されたジョイントセンサを含む、請求項5に記載の装置。 The coupling plate includes a second joint that allows the stereoscopic camera to be manually rotated by an operator between horizontal and vertical orientations, the second joint transmitting a position of the second joint. 6. The apparatus of claim 5, including a joint sensor configured to. 前記立体カメラは、前記結合インターフェースにおいて前記ロボットアームに接続するように構成される底面を含む筐体を含む、請求項1又は請求項4に記載の装置。 5. The apparatus of claim 1 or claim 4, wherein the stereoscopic camera includes a housing including a bottom surface configured to connect to the robotic arm at the coupling interface. ロボット撮像装置であって、
ロボットアームであって、
セキュア構造に接続される第1の端部、
結合インターフェースを含む第2の端部、及び
前記第1の端部を前記第2の端部に接続する複数のジョイント及びリンクであって、各ジョイントは、軸の回りで前記ジョイントを回転させるように構成されたモータ及び前記ジョイントのそれぞれの位置を送信するように構成されたジョイントセンサを含む、複数のジョイント及びリンク
を含む、ロボットアームと、
前記結合インターフェースにおいて前記ロボットアームに接続される撮像デバイスであって、前記撮像デバイスは、標的手術部位の画像を記録するように構成される、撮像デバイスと、
前記結合インターフェースに位置決めされ、オペレータにより前記撮像デバイスに付与される力及び/又はトルクを検出し、前記力及び/又は前記トルクを示す力及び/又はトルク出力データを送信するように構成されるセンサと、
前記ロボットアームの前記結合インターフェースに接続するように構成された第1の端部と、立体カメラに接続するように構成された第2の結合インターフェースを含む第2の端部とを有する結合板と、
前記センサ及び前記ロボットアームに通信可能に結合される少なくとも1つのプロセッサと、
を備え、
前記少なくとも1つのプロセッサは、
前記センサから前記力及び/又はトルク出力データを受信することと、
前記力及び/又はトルク出力データを並進ベクトル及び回転ベクトルに変換することと、
運動学を使用して、前記ロボットアームの現在位置並びに前記並進ベクトル及び前記回転ベクトルに基づいて前記ロボットアームの移動シーケンスを決定することであって、前記移動シーケンスは、前記ロボットアームの前記ジョイントの少なくとも幾つかの移動の回転方向、速度、及び持続時間を指定する、決定することと、
前記少なくとも1つのジョイントに提供される1つ又は複数のモータ制御信号を介して、前記決定された移動シーケンスに基づいて前記ロボットアームの前記ジョイントの少なくとも1つを回転させることと、
を行うように構成され、
前記結合板は、前記オペレータによって選択的に移動可能とされ、回転可能ラッチ機構を有する1つ又は複数のジョイントを含む、ロボット撮像装置。
A robot imaging device,
A robot arm,
a first end connected to a secure structure;
a second end including a coupling interface; and a plurality of joints and links connecting the first end to the second end, each joint configured to rotate the joint about an axis. a robot arm including a plurality of joints and links including a motor configured to and a joint sensor configured to transmit a position of each of the joints;
an imaging device connected to the robotic arm at the coupling interface, the imaging device configured to record images of a target surgical site;
a sensor positioned at the coupling interface and configured to detect a force and/or torque applied to the imaging device by an operator and transmit force and/or torque output data indicative of the force and/or torque; and,
a coupling plate having a first end configured to connect to the coupling interface of the robot arm and a second end including a second coupling interface configured to connect to a stereoscopic camera; ,
at least one processor communicatively coupled to the sensor and the robotic arm;
Equipped with
The at least one processor includes:
receiving the force and/or torque output data from the sensor;
converting the force and/or torque output data into translational and rotational vectors;
using kinematics to determine a movement sequence of the robot arm based on the current position of the robot arm and the translation vector and the rotation vector, the movement sequence comprising: specifying or determining rotational direction, speed, and duration of at least some of the movements;
rotating the at least one joint of the robotic arm based on the determined movement sequence via one or more motor control signals provided to the at least one joint;
is configured to do
The coupling plate is selectively movable by the operator and includes one or more joints having a rotatable latching mechanism.
前記プロセッサは、
前記移動シーケンスに基づいて、前記ロボットアームの前記現在位置又は前記ロボットアームの特徴位置の少なくとも一方に基づいて少なくとも1つのスケーリング係数を決定することと、
前記移動シーケンスの少なくとも1つのジョイント速度に前記スケーリング係数を適用することと、
を行うように構成される、請求項9に記載の装置。
The processor includes:
determining at least one scaling factor based on at least one of the current position of the robot arm or a characteristic position of the robot arm based on the movement sequence;
applying the scaling factor to at least one joint velocity of the movement sequence;
10. The apparatus of claim 9, configured to perform.
前記少なくとも1つのスケーリング係数は、仮想境界からの前記ロボットアーム又は前記撮像デバイスの距離に基づいて構成され、
前記少なくとも1つのスケーリング係数は、前記仮想境界に近づくにつれて「0」の値に低減する、請求項10に記載の装置。
the at least one scaling factor is configured based on a distance of the robotic arm or the imaging device from a virtual boundary;
11. The apparatus of claim 10, wherein the at least one scaling factor decreases to a value of "0" as the virtual boundary is approached.
前記仮想境界は、患者、医療機器、又は手術室スタッフの少なくとも1つに対応する、請求項11に記載の装置。 12. The apparatus of claim 11, wherein the virtual boundary corresponds to at least one of a patient, medical equipment, or operating room staff. 前記プロセッサは、前記少なくとも1つのスケーリング係数が前記移動シーケンスに適用されたことを示すアイコンをディスプレイデバイスに表示させるように構成される、請求項11に記載の装置。 12. The apparatus of claim 11, wherein the processor is configured to cause a display device to display an icon indicating that the at least one scaling factor has been applied to the movement sequence. 前記プロセッサは、
前記ロボットアームのジョイント間又はジョイント限界間のジョイント角度に基づいて少なくとも1つのスケーリング係数を決定することと、
前記移動シーケンスの少なくとも1つのジョイント速度に前記スケーリング係数を適用することと、
を行うように構成される、請求項9又は請求項13に記載の装置。
The processor includes:
determining at least one scaling factor based on joint angles between joints or between joint limits of the robot arm;
applying the scaling factor to at least one joint velocity of the movement sequence;
14. A device according to claim 9 or 13, configured to perform.
前記プロセッサは、
前記力及び/又はトルク出力データに重力補償を提供することと、
力適用補償を前記力及び/又はトルク出力データに提供して、前記センサのロケーションと前記力及び/又はトルクが前記オペレータにより付与される前記撮像デバイスのロケーションとの間のオフセットを補償することと、
を行うように構成される、請求項9又は請求項13に記載の装置。
The processor includes:
providing gravity compensation to said force and/or torque output data;
providing force application compensation to the force and/or torque output data to compensate for an offset between a location of the sensor and a location of the imaging device at which the force and/or torque is applied by the operator; ,
14. A device according to claim 9 or 13, configured to perform.
前記プロセッサは、
前記ロボットアームの前記複数のジョイントのジョイント特異点を特定又は識別して、ヒステリシス及びバックラッシュを制御することと、
前記ジョイント特異点を通してのロボットアーム移動を避けながら、前記運動学に基づいて前記移動シーケンスを決定することと、
を行うように構成される、請求項9、請求項13又は請求項15に記載の装置。
The processor includes:
identifying or identifying joint singularities of the plurality of joints of the robot arm to control hysteresis and backlash;
determining the movement sequence based on the kinematics while avoiding robot arm movement through the joint singularity;
16. The apparatus of claim 9, claim 13 or claim 15, configured to perform.
前記結合板は、前記移動シーケンスに従って前記少なくとも1つのプロセッサにより制御可能な前記ジョイントのそれぞれ及びモータの位置を送信するように構成されたジョイントセンサを含む少なくとも1つのジョイントを含み、
前記センサは、前記結合インターフェース又は前記第2の結合インターフェースに配置される、請求項9又は請求項13に記載の装置。
the coupling plate includes at least one joint including a joint sensor configured to transmit a position of each of the joints and a motor controllable by the at least one processor according to the movement sequence;
14. Apparatus according to claim 9 or claim 13, wherein the sensor is located at the coupling interface or the second coupling interface.
前記ロボットアームは少なくとも4つのジョイントを含み、前記結合板は少なくとも2つのジョイントを含む、請求項17に記載の装置。 18. The apparatus of claim 17, wherein the robotic arm includes at least four joints and the coupling plate includes at least two joints. 前記プロセッサは、前記移動シーケンスにより指定される移動の前記回転方向、前記速度、及び前記持続時間を示す1つ又は複数のコマンド信号を前記ジョイントのそれぞれの前記モータに送信することにより、前記ロボットアームの前記ジョイントの少なくとも1つに回転させるように構成される、請求項9、請求項13、又は請求項17に記載の装置。 The processor controls the robot arm by sending one or more command signals to the motor of each of the joints indicating the rotational direction, the speed, and the duration of movement specified by the movement sequence. 18. The apparatus of claim 9, claim 13, or claim 17, configured to rotate at least one of the joints of. 前記プロセッサは、前記移動シーケンス中、前記ロボットアームが移動しているとき、前記撮像デバイスにより記録された画像を比較して、前記移動シーケンス中、前記ロボットアームが決定されたように移動していることを確認するように構成される、請求項9、請求項13、又は請求項17に記載の装置。 The processor compares images recorded by the imaging device when the robotic arm is moving during the movement sequence to determine whether the robotic arm is moving as determined during the movement sequence. 18. The apparatus of claim 9, claim 13, or claim 17, configured to confirm that. 前記運動学は、逆運動学又はヤコビアン運動学の少なくとも一方を含む、請求項9、請求項13、又は請求項17に記載の装置。 18. The apparatus of claim 9, claim 13, or claim 17, wherein the kinematics includes at least one of inverse kinematics or Jacobian kinematics.
JP2020558426A 2018-04-27 2019-04-29 3D visualization camera and integrated robot platform Active JP7379373B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862663689P 2018-04-27 2018-04-27
US62/663,689 2018-04-27
PCT/US2019/029729 WO2019210322A1 (en) 2018-04-27 2019-04-29 Stereoscopic visualization camera and integrated robotics platform

Publications (2)

Publication Number Publication Date
JP2021521939A JP2021521939A (en) 2021-08-30
JP7379373B2 true JP7379373B2 (en) 2023-11-14

Family

ID=68295756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020558426A Active JP7379373B2 (en) 2018-04-27 2019-04-29 3D visualization camera and integrated robot platform

Country Status (7)

Country Link
EP (1) EP3745982A1 (en)
JP (1) JP7379373B2 (en)
CN (1) CN112074248A (en)
AU (2) AU2019261643B2 (en)
CA (1) CA3093009A1 (en)
TW (1) TWI734106B (en)
WO (1) WO2019210322A1 (en)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7169130B2 (en) * 2018-09-03 2022-11-10 川崎重工業株式会社 robot system
CN114929146A (en) * 2019-12-16 2022-08-19 直观外科手术操作公司 System for facilitating directed teleoperation of non-robotic devices in a surgical space
WO2021124292A1 (en) * 2019-12-19 2021-06-24 Alcon Inc. Head tracking control for ophthalmic surgery
CN111083310B (en) * 2019-12-26 2022-03-08 广东弓叶科技有限公司 Data synchronization processing method and system for 2D linear array camera and 3D linear array camera
CN111581424B (en) * 2020-05-12 2024-03-12 叶建美 Map coordinate positioning method based on image recognition
US20220183778A1 (en) * 2020-06-18 2022-06-16 Brainlab Ag Compensation of gravity-related displacements of medical carrier structures
EP4165462A4 (en) * 2020-07-17 2023-08-30 Huawei Technologies Co., Ltd. A camera for a portable electronic device with optical image stabilization
CN111951248B (en) * 2020-08-12 2023-11-28 上海仁度生物科技股份有限公司 Positioning calibration device and method for automatic nucleic acid extraction equipment
EP3989236A1 (en) * 2020-10-23 2022-04-27 Leica Instruments (Singapore) Pte. Ltd. System for a microscope system and corresponding method and computer program
CN112618155A (en) * 2020-12-17 2021-04-09 上海市普陀区中心医院 A light filtering protective structure for ophthalmology laser surgery
WO2022141138A1 (en) * 2020-12-30 2022-07-07 诺创智能医疗科技(杭州)有限公司 Hybrid master-slave mapping method, robotic arm system, and computer device
CN116367973A (en) * 2021-01-15 2023-06-30 三星电子株式会社 Service robot device
WO2022179117A1 (en) * 2021-02-25 2022-09-01 南京微纳科技研究院有限公司 Navigation method and apparatus based on fluorescence molecular imaging, and storage medium
DE102021204033B3 (en) 2021-04-22 2022-06-15 Carl Zeiss Meditec Ag Method for operating a surgical microscope and surgical microscope
CN113223175B (en) * 2021-05-12 2023-05-05 武汉中仪物联技术股份有限公司 Pipeline three-dimensional nonlinear model construction method and system based on real attitude angle
US12010466B2 (en) 2021-06-22 2024-06-11 Industrial Technology Research Institute Visual recognition based method and system for projecting patterned light, method and system applied to oral inspection, and machining system
CN113962911B (en) * 2021-08-08 2024-08-30 南京理工大学 Visual field blind-supplement video rapid fusion method for special vehicle
CN115835011A (en) * 2021-09-15 2023-03-21 Oppo广东移动通信有限公司 Image processing chip, application processing chip, electronic device, and image processing method
CN113905327B (en) * 2021-09-23 2024-01-26 国网江苏省电力有限公司 Power transmission line external damage prevention alarm method and system based on multiple positioning parameters
CN114147714B (en) * 2021-12-02 2023-06-09 浙江机电职业技术学院 Method and system for calculating control parameters of mechanical arm of autonomous robot
CN114131612B (en) * 2021-12-20 2024-01-30 中国科学院长春光学精密机械与物理研究所 Redundant mechanical arm real-time look-ahead track planning method based on NURBS curve interpolation algorithm
DE102022200821B9 (en) 2022-01-25 2023-05-25 Carl Zeiss Meditec Ag Method for calibrating a stereoscopic medical microscope and medical microscope assembly
CN114581265B (en) * 2022-03-08 2022-09-20 北京女娲补天科技信息技术有限公司 System and method for analyzing eating preference of diner
CN114638894B (en) * 2022-03-18 2024-07-23 纯米科技(上海)股份有限公司 Robot walking positioning method, system, electronic device and storage medium
CN114800519B (en) * 2022-05-20 2023-09-26 天津大学 Six-degree-of-freedom industrial robot dynamic parameter identification method considering friction
WO2024047397A2 (en) * 2022-09-01 2024-03-07 Impel Ip, Llc Integrated mechatronic system for managing ophthalmology surgeries under the free hands and feet concept through execution of voice commands
CN115778320B (en) * 2022-11-10 2023-06-09 北京悬丝医疗科技有限公司 Movable joint type pulse feeling instrument
GB2627451A (en) * 2023-02-21 2024-08-28 Cmr Surgical Ltd Control system for a surgical robotic system
DE102023108646A1 (en) * 2023-04-04 2024-10-10 B. Braun New Ventures GmbH Medical robot-assisted visualization system and control method for a visualization system
CN117207204B (en) * 2023-11-09 2024-01-30 之江实验室 Control method and control device of playing robot
CN118633901B (en) * 2024-08-15 2024-10-11 山东大学 Method, system and product for automatically searching retina optic nerve head by OCT

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014139023A1 (en) 2013-03-15 2014-09-18 Synaptive Medical (Barbados) Inc. Intelligent positioning system and methods therefore
WO2015137038A1 (en) 2014-03-14 2015-09-17 ソニー株式会社 Robot arm device, robot arm control method and program
WO2016017532A1 (en) 2014-08-01 2016-02-04 ソニー・オリンパスメディカルソリューションズ株式会社 Medical observation device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5359474A (en) 1992-09-18 1994-10-25 Riederer Thomas P System for the sub-micron positioning of a read/write transducer
US10383765B2 (en) * 2012-04-24 2019-08-20 Auris Health, Inc. Apparatus and method for a global coordinate system for use in robotic surgery
CN202631839U (en) * 2012-05-08 2012-12-26 吴立业 Medical microsurgery equipment
WO2014036499A1 (en) 2012-08-30 2014-03-06 Truevision Systems, Inc. Imaging system and methods displaying a fused multidimensional reconstructed image
JP6238628B2 (en) * 2013-08-06 2017-11-29 キヤノン株式会社 Robot device, robot control method, robot control program, and part manufacturing method using robot device
US9539059B2 (en) * 2013-09-24 2017-01-10 Sony Olympus Medical Solutions Inc. Medical robot arm apparatus, medical robot arm control system, medical robot arm control method, and program
CN206170133U (en) * 2016-10-19 2017-05-17 上海发那科机器人有限公司 Robot removes incessant power supply unit

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014139023A1 (en) 2013-03-15 2014-09-18 Synaptive Medical (Barbados) Inc. Intelligent positioning system and methods therefore
WO2015137038A1 (en) 2014-03-14 2015-09-17 ソニー株式会社 Robot arm device, robot arm control method and program
WO2016017532A1 (en) 2014-08-01 2016-02-04 ソニー・オリンパスメディカルソリューションズ株式会社 Medical observation device

Also Published As

Publication number Publication date
JP2021521939A (en) 2021-08-30
WO2019210322A1 (en) 2019-10-31
EP3745982A1 (en) 2020-12-09
TWI734106B (en) 2021-07-21
AU2019261643A1 (en) 2020-09-24
AU2024219905A1 (en) 2024-10-10
CN112074248A (en) 2020-12-11
AU2019261643B2 (en) 2024-06-27
CA3093009A1 (en) 2019-10-31
TW201945141A (en) 2019-12-01

Similar Documents

Publication Publication Date Title
JP7379373B2 (en) 3D visualization camera and integrated robot platform
US11336804B2 (en) Stereoscopic visualization camera and integrated robotics platform
US11529210B2 (en) Stereoscopic visualization camera and platform
US11571272B2 (en) Stereoscopic camera with fluorescence visualization
US20230122367A1 (en) Surgical visualization systems and displays
US20230255446A1 (en) Surgical visualization systems and displays
US11154378B2 (en) Surgical visualization systems and displays
US20230120611A1 (en) Stereoscopic camera with fluorescence strobing based visualization

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231101

R150 Certificate of patent or registration of utility model

Ref document number: 7379373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150