JP7115493B2 - Surgical arm system and surgical arm control system - Google Patents
Surgical arm system and surgical arm control system Download PDFInfo
- Publication number
- JP7115493B2 JP7115493B2 JP2019551211A JP2019551211A JP7115493B2 JP 7115493 B2 JP7115493 B2 JP 7115493B2 JP 2019551211 A JP2019551211 A JP 2019551211A JP 2019551211 A JP2019551211 A JP 2019551211A JP 7115493 B2 JP7115493 B2 JP 7115493B2
- Authority
- JP
- Japan
- Prior art keywords
- arm
- oblique
- field
- view
- control system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims description 60
- 238000012545 processing Methods 0.000 claims description 60
- 230000008859 change Effects 0.000 claims description 33
- 208000004350 Strabismus Diseases 0.000 claims description 30
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000007423 decrease Effects 0.000 claims description 5
- 238000002674 endoscopic surgery Methods 0.000 description 51
- 238000010586 diagram Methods 0.000 description 46
- 238000003384 imaging method Methods 0.000 description 42
- 230000003287 optical effect Effects 0.000 description 42
- 238000004891 communication Methods 0.000 description 33
- 238000004364 calculation method Methods 0.000 description 26
- 238000000034 method Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 19
- 239000003638 chemical reducing agent Substances 0.000 description 13
- 230000007246 mechanism Effects 0.000 description 13
- 238000001356 surgical procedure Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000010336 energy treatment Methods 0.000 description 7
- 239000003550 marker Substances 0.000 description 7
- 230000009467 reduction Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 210000004204 blood vessel Anatomy 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 208000005646 Pneumoperitoneum Diseases 0.000 description 4
- 210000003815 abdominal wall Anatomy 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000005284 excitation Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 210000000056 organ Anatomy 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 239000003153 chemical reaction reagent Substances 0.000 description 2
- MOFVSTNWEDAEEK-UHFFFAOYSA-M indocyanine green Chemical compound [Na+].[O-]S(=O)(=O)CCCCN1C2=CC=C3C=CC=CC3=C2C(C)(C)C1=CC=CC=CC=CC1=[N+](CCCCS([O-])(=O)=O)C2=CC=C(C=CC=C3)C3=C2C1(C)C MOFVSTNWEDAEEK-UHFFFAOYSA-M 0.000 description 2
- 229960004657 indocyanine green Drugs 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 230000005043 peripheral vision Effects 0.000 description 2
- 238000007789 sealing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000002679 ablation Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000002350 laparotomy Methods 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000002406 microsurgery Methods 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001954 sterilising effect Effects 0.000 description 1
- 238000004659 sterilization and disinfection Methods 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009885 systemic effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00147—Holding or positioning arrangements
- A61B1/00149—Holding or positioning arrangements using articulated arms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00006—Operational features of endoscopes characterised by electronic signal processing of control signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00147—Holding or positioning arrangements
- A61B1/0016—Holding or positioning arrangements using motor drive units
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00174—Optical arrangements characterised by the viewing angles
- A61B1/00179—Optical arrangements characterised by the viewing angles for off-axis viewing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/24—Base structure
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/36—Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/301—Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Optics & Photonics (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Robotics (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Mechanical Engineering (AREA)
- Astronomy & Astrophysics (AREA)
- Multimedia (AREA)
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Microscoopes, Condenser (AREA)
Description
本開示は、斜視鏡の制御装置及び医療用システムに関する。 The present disclosure relates to strabismus control devices and medical systems.
従来、例えば下記の特許文献1には、作業時に違和感のないように、内視鏡画像の上下左右方向と作業者の上下左右操作方向とが一致する内視鏡画像をモニタに表示可能とすることを想定した技術が記載されている。 Conventionally, for example, in Patent Document 1 below, it is possible to display an endoscopic image on a monitor in which the up, down, left, and right directions of the endoscopic image match the operator's up, down, left, and right operation directions so as not to cause discomfort during work. A technique that assumes this is described.
近時においては、人体内部に挿入される硬性鏡として、斜視鏡が用いられるようになっている。しかし、斜視鏡による斜視回転はスコープ軸に対して回るため、単純な水平方向または上下方向の移動に比べて回転後の視野が直感的にわかりにくいという問題がある。そのため、斜視回転によって観察対象物が画面の視野外に出てしまったり、視野に映っていた器具を見失うなどの問題が発生していた。 In recent years, strabismus scopes have been used as rigid scopes to be inserted into the human body. However, since oblique rotation by the oblique scope rotates around the scope axis, there is a problem that the field of view after rotation is less intuitive than simple horizontal or vertical movement. As a result, oblique rotation causes problems such as the object to be observed moving out of the field of view of the screen, or losing sight of the instrument in the field of view.
そこで、観察対象物をモニタ画像の視野から見失わないようにすることが求められていた。 Therefore, it has been demanded not to lose sight of the observed object from the field of view of the monitor image.
本開示によれば、複数の関節部が複数のリンクにより回動可能に連結され、先端に斜視鏡を支持可能な多関節アームと、前記斜視鏡の位置及び姿勢を変更するように前記多関節アームを制御する制御システムと、を備え、前記制御システムは、前記斜視鏡を通して撮像される視野内で、前記視野内の前記観察対象物の位置に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御する、手術アームシステムが提供される。 According to the present disclosure, a multi-joint arm having a plurality of joints rotatably connected by a plurality of links and capable of supporting a squintoscope at its distal end; a control system for controlling an arm, wherein the control system controls the speed of rotation or the speed of movement of the strabismus within a field of view imaged through the strabismus based on the position of the observed object within the field of view; A surgical arm system is provided that controls at least one of the
また、本開示によれば、複数の関節部が複数のリンクにより回動可能に連結され、先端に斜視鏡を支持可能な多関節アームを制御し、前記斜視鏡の位置及び姿勢を変更するように前記多関節アームを制御する手術アーム制御システムであって、前記斜視鏡を通して撮像される視野内で、前記視野内の前記観察対象物の位置に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御する、手術アーム制御システムが提供される。 Further, according to the present disclosure, a multi-joint arm having a plurality of joints rotatably connected by a plurality of links and capable of supporting a squintoscope at its distal end is controlled to change the position and posture of the squintoscope. a surgical arm control system for controlling the articulated arm in a field of view imaged through the squintoscope, based on the position of the observed object within the field of view, the speed of rotation or the speed of movement of the squintoscope A surgical arm control system is provided for controlling at least one of the
本開示によれば、観察対象物をモニタ画像の視野から見失わないようにすることが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。According to the present disclosure, it is possible to prevent the observation target from being lost from the field of view of the monitor image.
In addition, the above effects are not necessarily limited, and in addition to the above effects or instead of the above effects, any of the effects shown in this specification, or other effects that can be grasped from this specification may be played.
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and drawings, constituent elements having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description.
なお、説明は以下の順序で行うものとする。
1.基本構成
1.1.内視鏡システムの構成例
1.2.医療用支持アーム装置の具体的構成例
1.3.制御装置の構成例
2.斜視鏡による斜視回転動作と観察対象物への追従動作
2.1.斜視鏡の回転動作
2.2.視野の中心からの距離に応じた斜視回転速度の変更
2.3.観察対象物への追従動作
2.4.斜視回転動作と追従動作のための制御部の構成例
2.5.追従動作の詳細
2.6.追従動作の具体例
3.斜視鏡の回転を独立して制御する保持ユニットを設けた例
4.まとめIn addition, description shall be performed in the following order.
1. Basic configuration 1.1. Configuration example of endoscope system 1.2. Concrete Configuration Example of Medical Support Arm Device 1.3. Configuration example of
<<1.基本構成>>
まず、図1~図4を参照して、本開示の一実施形態に係る内視鏡システムの基本構成を説明する。<<1. Basic configuration>>
First, the basic configuration of an endoscope system according to an embodiment of the present disclosure will be described with reference to FIGS. 1 to 4. FIG.
<1.1.内視鏡システムの構成例>
図1は、本開示に係る技術が適用され得る内視鏡手術システム5000の概略的な構成の一例を示す図である。図1では、術者(医師)5067が、内視鏡手術システム5000を用いて、患者ベッド5069上の患者5071に手術を行っている様子が図示されている。図示するように、内視鏡手術システム5000は、内視鏡5001と、その他の術具5017と、内視鏡5001を支持する支持アーム装置5027と、内視鏡下手術のための各種の装置が搭載されたカート5037と、から構成される。<1.1. Configuration example of endoscope system>
FIG. 1 is a diagram showing an example of a schematic configuration of an
内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ5025a~5025dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5025a~5025dから、内視鏡5001の鏡筒5003や、その他の術具5017が患者5071の体腔内に挿入される。図示する例では、その他の術具5017として、気腹チューブ5019、エネルギー処置具5021及び鉗子5023が、患者5071の体腔内に挿入されている。また、エネルギー処置具5021は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具5017はあくまで一例であり、術具5017としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
In endoscopic surgery, instead of cutting the abdominal wall and laparotomy, tubular piercing instruments called
内視鏡5001によって撮影された患者5071の体腔内の術部の画像が、表示装置5041に表示される。術者5067は、表示装置5041に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5021や鉗子5023を用いて、例えば患部を切除する等の処置を行う。なお、図示は省略しているが、気腹チューブ5019、エネルギー処置具5021及び鉗子5023は、手術中に、術者5067又は助手等によって支持される。
A
(支持アーム装置)
支持アーム装置5027は、ベース部5029から延伸するアーム部5031を備える。図示する例では、アーム部5031は、関節部5033a、5033b、5033c、及びリンク5035a、5035bから構成されており、アーム制御装置5045からの制御により駆動される。アーム部5031によって内視鏡5001が支持され、その位置及び姿勢が制御される。これにより、内視鏡5001の安定的な位置の固定が実現され得る。(support arm device)
The
(内視鏡)
内視鏡5001は、先端から所定の長さの領域が患者5071の体腔内に挿入される鏡筒5003と、鏡筒5003の基端に接続されるカメラヘッド5005と、から構成される。図示する例では、硬性の鏡筒5003を有するいわゆる硬性鏡として構成される内視鏡5001を図示しているが、内視鏡5001は、軟性の鏡筒5003を有するいわゆる軟性鏡として構成されてもよい。(Endoscope)
The
鏡筒5003の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡5001には光源装置5043が接続されており、当該光源装置5043によって生成された光が、鏡筒5003の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者5071の体腔内の観察対象に向かって照射される。なお、内視鏡5001は、斜視鏡であるものとする。
The tip of the
カメラヘッド5005の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5039に送信される。なお、カメラヘッド5005には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
An optical system and an imaging element are provided inside the
なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5005には撮像素子が複数設けられてもよい。この場合、鏡筒5003の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
Note that the
(カートに搭載される各種の装置)
CCU5039は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5001及び表示装置5041の動作を統括的に制御する。具体的には、CCU5039は、カメラヘッド5005から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5039は、当該画像処理を施した画像信号を表示装置5041に提供する。また、CCU5039は、カメラヘッド5005に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。(various devices mounted on the cart)
The
表示装置5041は、CCU5039からの制御により、当該CCU5039によって画像処理が施された画像信号に基づく画像を表示する。内視鏡5001が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置5041としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置5041として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5041が設けられてもよい。
The
光源装置5043は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡5001に供給する。
The
アーム制御装置5045は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5027のアーム部5031の駆動を制御する。
The
入力装置5047は、内視鏡手術システム5000に対する入力インタフェースである。ユーザは、入力装置5047を介して、内視鏡手術システム5000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置5047を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置5047を介して、アーム部5031を駆動させる旨の指示や、内視鏡5001による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5021を駆動させる旨の指示等を入力する。
The
入力装置5047の種類は限定されず、入力装置5047は各種の公知の入力装置であってよい。入力装置5047としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5057及び/又はレバー等が適用され得る。入力装置5047としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5041の表示面上に設けられてもよい。
The type of the
あるいは、入力装置5047は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置5047は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。更に、入力装置5047は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置5047が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者5067)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
Alternatively, the
処置具制御装置5049は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5021の駆動を制御する。気腹装置5051は、内視鏡5001による視野の確保及び術者の作業空間の確保の目的で、患者5071の体腔を膨らめるために、気腹チューブ5019を介して当該体腔内にガスを送り込む。レコーダ5053は、手術に関する各種の情報を記録可能な装置である。プリンタ5055は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
The treatment
以下、内視鏡手術システム5000において特に特徴的な構成について、更に詳細に説明する。
A particularly characteristic configuration of the
(支持アーム装置)
支持アーム装置5027は、基台であるベース部5029と、ベース部5029から延伸するアーム部5031と、を備える。図示する例では、アーム部5031は、複数の関節部5033a、5033b、5033cと、関節部5033bによって連結される複数のリンク5035a、5035bと、から構成されているが、図1では、簡単のため、アーム部5031の構成を簡略化して図示している。実際には、アーム部5031が所望の自由度を有するように、関節部5033a~5033c及びリンク5035a、5035bの形状、数及び配置、並びに関節部5033a~5033cの回転軸の方向等が適宜設定され得る。例えば、アーム部5031は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5031の可動範囲内において内視鏡5001を自由に移動させることが可能になるため、所望の方向から内視鏡5001の鏡筒5003を患者5071の体腔内に挿入することが可能になる。(support arm device)
The
関節部5033a~5033cにはアクチュエータが設けられており、関節部5033a~5033cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5045によって制御されることにより、各関節部5033a~5033cの回転角度が制御され、アーム部5031の駆動が制御される。これにより、内視鏡5001の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5045は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5031の駆動を制御することができる。
The
例えば、術者5067が、入力装置5047(フットスイッチ5057を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5045によってアーム部5031の駆動が適宜制御され、内視鏡5001の位置及び姿勢が制御されてよい。当該制御により、アーム部5031の先端の内視鏡5001を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部5031は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5031は、手術室から離れた場所に設置される入力装置5047を介してユーザによって遠隔操作され得る。
For example, when the
また、力制御が適用される場合には、アーム制御装置5045は、ユーザからの外力を受け、その外力にならってスムーズにアーム部5031が移動するように、各関節部5033a~5033cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部5031に触れながらアーム部5031を移動させる際に、比較的軽い力で当該アーム部5031を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡5001を移動させることが可能となり、ユーザの利便性を向上させることができる。
When force control is applied, the
ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡5001が支持されていた。これに対して、支持アーム装置5027を用いることにより、人手によらずに内視鏡5001の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
Here, generally, in endoscopic surgery, the
なお、アーム制御装置5045は必ずしもカート5037に設けられなくてもよい。また、アーム制御装置5045は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5045は、支持アーム装置5027のアーム部5031の各関節部5033a~5033cにそれぞれ設けられてもよく、複数のアーム制御装置5045が互いに協働することにより、アーム部5031の駆動制御が実現されてもよい。
Note that the
(光源装置)
光源装置5043は、内視鏡5001に術部を撮影する際の照射光を供給する。光源装置5043は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5043において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5005の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。(light source device)
The
また、光源装置5043は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5005の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
Further, the driving of the
また、光源装置5043は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5043は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
Also, the
(カメラヘッド及びCCU)
図2を参照して、内視鏡5001のカメラヘッド5005及びCCU5039の機能についてより詳細に説明する。図2は、図1に示すカメラヘッド5005及びCCU5039の機能構成の一例を示すブロック図である。(camera head and CCU)
Referring to FIG. 2, the functions of
図2を参照すると、カメラヘッド5005は、その機能として、レンズユニット5007と、撮像部5009と、駆動部5011と、通信部5013と、カメラヘッド制御部5015と、を有する。また、CCU5039は、その機能として、通信部5059と、画像処理部5061と、制御部5063と、を有する。カメラヘッド5005とCCU5039とは、伝送ケーブル5065によって双方向に通信可能に接続されている。
Referring to FIG. 2, the
まず、カメラヘッド5005の機能構成について説明する。レンズユニット5007は、鏡筒5003との接続部に設けられる光学系である。鏡筒5003の先端から取り込まれた観察光は、カメラヘッド5005まで導光され、当該レンズユニット5007に入射する。レンズユニット5007は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット5007は、撮像部5009の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
First, the functional configuration of the
撮像部5009は撮像素子によって構成され、レンズユニット5007の後段に配置される。レンズユニット5007を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部5009によって生成された画像信号は、通信部5013に提供される。
The
撮像部5009を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者5067は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
As an imaging device constituting the
また、撮像部5009を構成する撮像素子は、3D表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成される。3D表示が行われることにより、術者5067は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部5009が多板式で構成される場合には、各撮像素子に対応して、レンズユニット5007も複数系統設けられる。
In addition, the imaging device constituting the
また、撮像部5009は、必ずしもカメラヘッド5005に設けられなくてもよい。例えば、撮像部5009は、鏡筒5003の内部に、対物レンズの直後に設けられてもよい。
Also, the
駆動部5011は、アクチュエータによって構成され、カメラヘッド制御部5015からの制御により、レンズユニット5007のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部5009による撮像画像の倍率及び焦点が適宜調整され得る。
The
通信部5013は、CCU5039との間で各種の情報を送受信するための通信装置によって構成される。通信部5013は、撮像部5009から得た画像信号をRAWデータとして伝送ケーブル5065を介してCCU5039に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画像信号は光通信によって送信されることが好ましい。手術の際には、術者5067が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部5013には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル5065を介してCCU5039に送信される。
また、通信部5013は、CCU5039から、カメラヘッド5005の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部5013は、受信した制御信号をカメラヘッド制御部5015に提供する。なお、CCU5039からの制御信号も、光通信によって伝送されてもよい。この場合、通信部5013には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部5015に提供される。
The
なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU5039の制御部5063によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡5001に搭載される。
Note that the imaging conditions such as the frame rate, exposure value, magnification, and focus are automatically set by the
カメラヘッド制御部5015は、通信部5013を介して受信したCCU5039からの制御信号に基づいて、カメラヘッド5005の駆動を制御する。例えば、カメラヘッド制御部5015は、撮像画像のフレームレートを指定する旨の情報及び/又は撮像時の露光を指定する旨の情報に基づいて、撮像部5009の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部5015は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部5011を介してレンズユニット5007のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部5015は、更に、鏡筒5003やカメラヘッド5005を識別するための情報を記憶する機能を備えてもよい。
The camera
なお、レンズユニット5007や撮像部5009等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド5005について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
By arranging the
次に、CCU5039の機能構成について説明する。通信部5059は、カメラヘッド5005との間で各種の情報を送受信するための通信装置によって構成される。通信部5059は、カメラヘッド5005から、伝送ケーブル5065を介して送信される画像信号を受信する。この際、上記のように、当該画像信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部5059には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部5059は、電気信号に変換した画像信号を画像処理部5061に提供する。
Next, the functional configuration of the
また、通信部5059は、カメラヘッド5005に対して、カメラヘッド5005の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。
The
画像処理部5061は、カメラヘッド5005から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部5061は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。
An
画像処理部5061は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部5061が複数のGPUによって構成される場合には、画像処理部5061は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
The
制御部5063は、内視鏡5001による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部5063は、カメラヘッド5005の駆動を制御するための制御信号を生成する。この際、撮像条件がユーザによって入力されている場合には、制御部5063は、当該ユーザによる入力に基づいて制御信号を生成する。あるいは、内視鏡5001にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部5063は、画像処理部5061による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
The
また、制御部5063は、画像処理部5061によって画像処理が施された画像信号に基づいて、術部の画像を表示装置5041に表示させる。この際、制御部5063は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部5063は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具5021使用時のミスト等を認識することができる。制御部5063は、表示装置5041に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者5067に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
Further, the
カメラヘッド5005及びCCU5039を接続する伝送ケーブル5065は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
A
ここで、図示する例では、伝送ケーブル5065を用いて有線で通信が行われていたが、カメラヘッド5005とCCU5039との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル5065を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフの移動が当該伝送ケーブル5065によって妨げられる事態が解消され得る。
Here, in the illustrated example, wired communication is performed using the
以上、本開示に係る技術が適用され得る内視鏡手術システム5000の一例について説明した。なお、ここでは、一例として内視鏡手術システム5000について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、本開示に係る技術は、検査用軟性内視鏡システムや顕微鏡手術システムに適用されてもよい。
An example of the
<1.2.医療用支持アーム装置の具体的構成例>
次に、本開示の実施の形態に係る医療用支持アーム装置の具体的構成例について詳細に説明する。以下に説明する支持アーム装置は、アーム部の先端に内視鏡を支持する支持アーム装置として構成された例であるが、本実施形態は係る例に限定されない。<1.2. Specific Configuration Example of Medical Support Arm Device>
Next, a specific configuration example of the medical support arm device according to the embodiment of the present disclosure will be described in detail. The support arm device described below is an example configured as a support arm device that supports an endoscope at the distal end of an arm portion, but the present embodiment is not limited to such an example.
まず、図3を参照して、本実施形態に係る支持アーム装置1400の概略構成について説明する。図3は、本実施形態に係る支持アーム装置1400の外観を示す概略図である。
First, referring to FIG. 3, a schematic configuration of a
本実施形態に係る支持アーム装置1400は、ベース部1410及びアーム部1420を備える。ベース部1410は支持アーム装置1400の基台であり、ベース部1410からアーム部1420が延伸される。また、図3には図示しないが、ベース部1410内には、支持アーム装置1400を統合的に制御する制御部が設けられてもよく、アーム部1420の駆動が当該制御部によって制御されてもよい。当該制御部は、例えばCPUやDSP等の各種の信号処理回路によって構成される。
A
アーム部1420は、複数の能動関節部1421a~1421fと、複数のリンク1422a~1422fと、アーム部1420の先端に設けられた先端ユニットとしての内視鏡装置423とを有する。
The
リンク1422a~1422fは略棒状の部材である。リンク1422aの一端が能動関節部1421aを介してベース部1410と連結され、リンク1422aの他端が能動関節部1421bを介してリンク1422bの一端と連結され、さらに、リンク1422bの他端が能動関節部1421cを介してリンク1422cの一端と連結される。リンク1422cの他端は受動スライド機構1100を介してリンク1422dに連結され、さらに、リンク1422dの他端は受動関節部200を介してリンク1422eの一端と連結される。リンク1422eの他端は能動関節部1421d,1421eを介してリンク1422fの一端と連結される。内視鏡装置1423は、アーム部1420の先端、すなわち、リンク1422fの他端に、能動関節部1421fを介して連結される。このように、ベース部1410を支点として、複数のリンク1422a~1422fの端同士が、能動関節部1421a~1421f、受動スライド機構1100及び受動関節部1200によって互いに連結されることにより、ベース部1410から延伸されるアーム形状が構成される。
かかるアーム部1420のそれぞれの能動関節部1421a~1421fに設けられたアクチュエータが駆動制御されることにより、内視鏡装置1423の位置及び姿勢が制御される。本実施形態において、内視鏡装置1423は、その先端が施術部位である患者の体腔内に進入して施術部位の一部領域を撮影する。ただし、アーム部1420の先端に設けられる先端ユニットは内視鏡装置1423に限定されず、アーム部1420の先端には先端ユニットとして各種の医療用器具が接続されてよい。このように、本実施形態に係る支持アーム装置1400は、医療用器具を備えた医療用支持アーム装置として構成される。
The position and posture of the
ここで、以下では、図3に示すように座標軸を定義して支持アーム装置1400の説明を行う。また、座標軸に合わせて、上下方向、前後方向、左右方向を定義する。すなわち、床面に設置されているベース部1410に対する上下方向をz軸方向及び上下方向と定義する。また、z軸と互いに直交する方向であって、ベース部1410からアーム部1420が延伸されている方向(すなわち、ベース部1410に対して内視鏡装置1423が位置している方向)をy軸方向及び前後方向と定義する。さらに、y軸及びz軸と互いに直交する方向をx軸方向及び左右方向と定義する。
Below, the
能動関節部1421a~1421fはリンク同士を互いに回動可能に連結する。能動関節部1421a~1421fはアクチュエータを有し、当該アクチュエータの駆動により所定の回転軸に対して回転駆動される回転機構を有する。各能動関節部1421a~1421fにおける回転駆動をそれぞれ制御することにより、例えばアーム部1420を伸ばしたり、縮めたり(折り畳んだり)といった、アーム部1420の駆動を制御することができる。ここで、能動関節部1421a~1421fは、例えば公知の全身協調制御及び理想関節制御によってその駆動が制御され得る。上述したように、能動関節部1421a~1421fは回転機構を有するため、以下の説明において、能動関節部1421a~1421fの駆動制御とは、具体的には、能動関節部1421a~1421fの回転角度及び/又は発生トルク(能動関節部1421a~1421fが発生させるトルク)が制御されることを意味する。
The
受動スライド機構1100は、受動形態変更機構の一態様であり、リンク1422cとリンク1422dとを所定方向に沿って互いに進退動可能に連結する。例えば受動スライド機構1100は、リンク1422cとリンク1422dとを互いに直動可能に連結してもよい。ただし、リンク1422cとリンク1422dとの進退運動は直線運動に限られず、円弧状を成す方向への進退運動であってもよい。受動スライド機構1100は、例えばユーザによって進退動の操作が行われ、リンク1422cの一端側の能動関節部1421cと受動関節部1200との間の距離を可変とする。これにより、アーム部1420の全体の形態が変化し得る。受動スライド機構1100の構成の詳細は後述する。
The
受動関節部1200は、受動形態変更機構の一態様であり、リンク1422dとリンク1422eとを互いに回動可能に連結する。受動関節部1200は、例えばユーザによって回動の操作が行われ、リンク1422dとリンク1422eとの成す角度を可変とする。これにより、アーム部1420の全体の形態が変化し得る。受動関節部1200の構成の詳細は後述する。
The passive
なお、本明細書において、「アーム部の姿勢」とは、一つ又は複数のリンクを挟んで隣り合う能動関節部同士の間の距離が一定の状態で、制御部による能動関節部1421a~1421fに設けられたアクチュエータの駆動制御によって変化し得るアーム部の状態をいう。また、「アーム部の形態」とは、受動形態変更機構が操作されることに伴って、リンクを挟んで隣り合う能動関節部同士の間の距離や、隣り合う能動関節部の間をつなぐリンク同士の成す角度が変わることで変化し得るアーム部の状態をいう。
In this specification, the “posture of the arm” means that the
本実施形態に係る支持アーム装置1400は、6つの能動関節部1421a~1421fを有し、アーム部1420の駆動に関して6自由度が実現されている。つまり、支持アーム装置1400の駆動制御は制御部による6つの能動関節部1421a~1421fの駆動制御により実現される一方、受動スライド機構1100及び受動関節部1200は、制御部による駆動制御の対象とはなっていない。
The
具体的には、図3に示すように、能動関節部1421a,1421d,1421fは、接続されている各リンク1422a,1422eの長軸方向及び接続されている内視鏡装置1423の撮影方向を回転軸方向とするように設けられている。能動関節部1421b,1421c,1421eは、接続されている各リンク1422a~1422c,1422e,1422f及び内視鏡装置423の連結角度をy-z平面(y軸とz軸とで規定される平面)内において変更する方向であるx軸方向を回転軸方向とするように設けられている。このように、本実施形態においては、能動関節部1421a,1421d,1421fは、いわゆるヨーイングを行う機能を有し、能動関節部1421b,1421c,1421eは、いわゆるピッチングを行う機能を有する。
Specifically, as shown in FIG. 3, the
このようなアーム部1420の構成を有することにより、本実施形態に係る支持アーム装置1400ではアーム部1420の駆動に対して6自由度が実現されるため、アーム部1420の可動範囲内において内視鏡装置1423を自由に移動させることができる。図3では、内視鏡装置1423の移動可能範囲の一例として半球を図示している。半球の中心点RCM(遠隔運動中心)が内視鏡装置1423によって撮影される施術部位の撮影中心であるとすれば、内視鏡装置1423の撮影中心を半球の中心点に固定した状態で、内視鏡装置1423を半球の球面上で移動させることにより、施術部位を様々な角度から撮影することができる。
By having such a configuration of the
また、アーム部1420は、上記の自由度に加え、リンク1422fと同軸上で内視鏡装置1423を回転させる1421gの自由度を有していても良い。これにより、リンク1422fの長手軸を回転軸として内視鏡装置1423を回転させることが可能となる。
In addition to the above degrees of freedom, the
<1.3.制御装置の構成例>>
ここまで、本実施形態に係る支持アーム装置1400の構成について説明した。以下、本実施形態に係る支持アーム装置1400におけるアーム部1420の駆動制御、すなわち、能動関節部1421a~1421fに設けられたアクチュエータ1430の回転駆動を制御するための制御装置の構成例について説明する。<1.3. Configuration example of control device>>
So far, the configuration of the
図4は、制御装置1350を含む支持アーム装置1400の全体構成例を示すブロック図である。制御装置1350は、制御部1351と記憶部1357と入力部1359とを備える。
FIG. 4 is a block diagram showing an overall configuration example of the
制御部1351は、例えばCPUやDSP等の各種の信号処理回路によって構成される。制御部1351は、制御装置1350を統合的に制御するとともに、支持アーム装置1400におけるアーム部1420の駆動を制御するための各種の演算を行う。具体的に、制御部1351は、全身協調制御部1353と理想関節制御部1355とを有する。全身協調制御部1353は、支持アーム装置1400のアーム部1420の能動関節部1421a~1421fに設けられたアクチュエータ1430を駆動制御するために、全身協調制御における各種の演算を行う。理想関節制御部1355は、外乱の影響を補正することにより全身協調制御に対する理想的な応答を実現する理想関節制御における各種の演算を行う。記憶部1357は、例えばRAM(Random Access Memory)やROM(Read Only Memory)等の記憶素子であってもよく、あるいは、半導体メモリ、ハードディスク、外付けの記憶装置であってよい。
The
入力部359は、ユーザが制御部351に対して支持アーム装置400の駆動制御に関する情報や命令等を入力するための入力インタフェースである。入力部359は、例えばレバー、ペダル等のユーザが操作する操作手段を有し、当該レバー、ペダル等の操作に応じて、アーム部420の各構成部材の位置や速度等が、瞬時的な運動目的として設定されてもよい。かかる入力部359は、例えばレバーやペダルの他、マウス、キーボード、タッチパネル、ボタン及びスイッチ等のユーザが操作する操作手段を有してもよい。
The input unit 359 is an input interface for the user to input information, instructions, etc. regarding drive control of the
また、制御装置1350により制御されるアーム部1420は、能動関節部1421を備える。能動関節部1421(1421a~1421f)は、リンク1422a~1422f及び内視鏡装置1423を接続又は支持するための支持部材等、アーム部1420の駆動に必要な各種の構成を有する。ここまでの説明及び以下の説明において、アーム部1420の関節部の駆動とは、能動関節部1421a~1421fにおけるアクチュエータ430の駆動を意味していてもよい。
Also, the
能動関節部1421は、トルクセンサ1428、エンコーダ1427及びアクチュエータ1430を備える。なお、図4では、アクチュエータ1430とエンコーダ1427及びトルクセンサ1428とが分離して図示されているが、エンコーダ1427及びトルクセンサ1428はアクチュエータ1430に含まれて構成されてもよい。
Active joint 1421 comprises
アクチュエータ1430は、モータと、モータドライバと、減速機と、から構成される。アクチュエータ1430は、例えば力制御に対応するアクチュエータである。アクチュエータ1430では、モータの回転が減速機によって所定の減速比で減速され、出力軸を介して後段の他の部材に伝達されることにより、当該他の部材が駆動されることとなる。
モータは、回転駆動力を生み出す駆動機構である。モータは、モータドライバからの制御により、制御部からのトルク指令値に対応するトルクを発生するように駆動される。モータとしては、例えばブラシレスモータが用いられる。ただし、本実施形態はかかる例に限定されず、モータとしては各種の公知の種類のモータが用いられてよい。 A motor is a driving mechanism that produces rotational driving force. The motor is controlled by the motor driver so as to generate torque corresponding to the torque command value from the controller. A brushless motor, for example, is used as the motor. However, the present embodiment is not limited to such an example, and various known types of motors may be used as the motor.
モータドライバは、モータに電流を供給することによりモータを回転駆動させるドライバ回路(ドライバIC(Integrated Circuit))であり、モータに供給する電流量を調整することにより、モータの回転数を制御することができる。モータドライバは、制御部からのトルク指令値τに対応する電流をモータに供給することにより、当該モータを駆動させる。 A motor driver is a driver circuit (driver IC (Integrated Circuit)) that rotates a motor by supplying current to the motor, and controls the number of revolutions of the motor by adjusting the amount of current supplied to the motor. can be done. The motor driver drives the motor by supplying the motor with a current corresponding to the torque command value τ from the control unit.
また、モータドライバは、モータに供給する電流量を調整することにより、アクチュエータ1430の回転運動における粘性抵抗係数を調整することができる。これにより、アクチュエータ1430における回転運動、すなわち、能動関節部1421a~1421fにおける回転運動に対して、所定の抵抗を負荷することが可能となる。例えば、能動関節部1421a~1421fを、外部から加えられる力に対して回転しやすい状態(すなわち、アーム部1420を手動で移動しやすい状態)にすることもできるし、逆に、外部から加えられる力に対して回転し難い状態(すなわち、アーム部1420を手動で移動し難い状態)にすることもできる。
Also, the motor driver can adjust the viscous resistance coefficient in the rotary motion of the
モータの回転軸(駆動軸)には、減速機が連結される。減速機は、連結されたモータの回転軸の回転速度(すなわち、入力軸の回転速度)を、所定の減速比で減速させて出力軸に伝達する。本実施形態では、減速機の構成は特定のものに限定されず、減速機としては各種の公知の種類の減速機が用いられてよい。ただし、減速機としては、例えばハーモニックドライブ(登録商標)等の、高精度に減速比が設定可能なものが用いられることが好ましい。また、減速機の減速比は、アクチュエータ1430の用途に応じて適宜設定され得る。例えば、本実施形態のように、アクチュエータ1430が支持アーム装置400の能動関節部1421a~1421fに適用される場合であれば、1:100程度の減速比を有する減速機が好適に用いられ得る。
A speed reducer is connected to the rotation shaft (drive shaft) of the motor. The speed reducer reduces the rotation speed of the rotation shaft of the connected motor (that is, the rotation speed of the input shaft) at a predetermined reduction ratio and transmits the reduced speed to the output shaft. In this embodiment, the configuration of the speed reducer is not limited to a specific one, and various known types of speed reducer may be used as the speed reducer. However, as the speed reducer, it is preferable to use a speed reducer such as Harmonic Drive (registered trademark) whose speed reduction ratio can be set with high accuracy. Also, the speed reduction ratio of the speed reducer can be appropriately set according to the application of the
エンコーダ1427は、入力軸の回転角度(すなわち、モータの回転軸の回転角度)を検出する。エンコーダ1427によって検出された入力軸の回転数と、減速機の減速比と、に基づいて、能動関節部1421a~1421fの回転角度、回転角速度及び回転角加速度等の情報を得ることができる。エンコーダ1427としては、例えば磁気式エンコーダ、光学式エンコーダ等の各種の公知のロータリエンコーダが用いられてよい。なお、エンコーダ1427は、アクチュエータ1430の入力軸にのみ設けられてもよいし、減速機よりも後段に、アクチュエータ1430の出力軸の回転角度等を検出するためのエンコーダが更に設けられてもよい。
Encoder 1427 detects the rotation angle of the input shaft (that is, the rotation angle of the rotation shaft of the motor). Based on the rotation speed of the input shaft detected by the
トルクセンサ1428は、アクチュエータ1430の出力軸に接続され、アクチュエータ1430に作用するトルクを検出する。トルクセンサ1428は、アクチュエータ1430によって出力されるトルク(発生トルク)を検出する。また、トルクセンサ1428は、アクチュエータ1430に外部から加えられる外トルクも検出することができる。
以上、能動関節部1421の構成について説明した。ここで、本実施形態では、アーム部1420の動作が力制御によって制御される。当該力制御においては、支持アーム装置1400では、各アクチュエータ1430に設けられたエンコーダ1427及びトルクセンサ1428によって、各能動関節部1421a~1421fの回転角度、及び各能動関節部1421a~1421fに作用するトルクがそれぞれ検出される。このとき、トルクセンサ1428によって検出される各能動関節部1421a~1421fに作用するトルクには、アーム部1420及び/又は内視鏡装置1423に作用する力も含まれ得る。
The configuration of the active
また、エンコーダ1427によって検出された回転角度、及びトルクセンサ1428によって検出されたトルク値に基づいて、現在のアーム部1420の状態(位置、速度等)が取得され得る。支持アーム装置1400では、取得されたアーム部1420の状態(アーム状態)に基づいて、アーム部1420が所望の運動目的を実行するために必要な、各能動関節部1421a~1421fに設けられたアクチュエータ1430が発生すべきトルクが算出され、当該トルクを制御値として各能動関節部1421a~1421fのアクチュエータ1430が駆動されることになる。
Also, based on the rotation angle detected by the
なお、アクチュエータ1430としては、一般的に力制御によってその動作が制御される各種の装置において用いられている、各種の公知のアクチュエータを用いることができる。例えば、アクチュエータ1430としては、本願出願人による先行特許出願である特開2009-269102号公報や特開2011-209099号公報等に記載のものを好適に用いることができる。
As the
本実施形態に係る支持アーム装置1400において、アクチュエータ1430、及びアクチュエータを構成する各部品の構成は上記の構成に限定されず、他の構成であってもよい。
In the
以上、内視鏡システムの基本構成を説明した。以下では、上記説明した内視鏡システムの具体的な実施形態を説明する。 The basic configuration of the endoscope system has been described above. Specific embodiments of the endoscope system described above will be described below.
<<2.斜視鏡による斜視回転動作と観察対象物への追従動作>>
<2.1.斜視鏡の回転動作>
本実施形態では、上述した内視鏡5001(内視鏡装置423)として、斜視鏡を用いる。図5は、斜視鏡100の外観を示す模式図である。斜視鏡100では、対物レンズの被写体への向き(C1)は、斜視鏡100の長手方向(スコープ軸C2)に対して所定の角度φを有している。つまり、斜視鏡100では、スコープの接眼光学系に対して対物光学系が角度を成している。斜視鏡100では、観察のために斜視鏡100をスコープ軸C2を回転軸として回転(以下、斜視回転という)させる動作が行われる。斜視回転を行うことで、回り込んだ視野や上下左右の周辺視野を得ることが可能である。<<2. Oblique Rotation Operation and Observation Observation Observation Operation by Observation Mirror>>
<2.1. Rotational Movement of Periscope>
In this embodiment, a perspective scope is used as the endoscope 5001 (endoscope device 423) described above. FIG. 5 is a schematic diagram showing the appearance of the
図6は、斜視回転によって表示装置5041に表示された視野200が変わる様子を示す模式図である。図6に示すように、視野200がモニタに表示されている状態で、斜視回転角αだけ斜視鏡を斜視回転し、視野200の天地方向を制御すると、モニタに表示される視野は、視野200から視野200’に変化する。従って、斜視回転およびカメラの天地方向の2軸を制御することで、上下左右の周辺視野を得ることができる。
FIG. 6 is a schematic diagram showing how the field of
図7は、斜視回転によってモニタに映し出される視野が変化する様子を示す模式図である。図7は、斜視鏡で体内を観察する様子を示しており、様々な臓器215の中にユーザ(術者)が見ようとする観察対象物210が存在する状態を示している。図7では、モニタの視野200を矩形領域で示し、視野200とともに、ユーザ(術者)が見ようとする観察対象物210とスコープ軸C2を示している。また、図7では、術者が鉗子などの術具220を観察対象物210に接触させ、観察対象物210を把持等している様子を示している。
FIG. 7 is a schematic diagram showing how the field of view displayed on the monitor changes due to oblique rotation. FIG. 7 shows how the inside of the body is observed with a squintoscope, and shows a state in which an
図7に示すように、観察対象物210は、スコープ軸C2の位置に対して視野200の下側(術具220を操作する術者側)に位置している。図7では、スコープ軸C2を中心として斜視鏡100を回転させた場合に、視野200に対して観察対象物210が移動する様子を示している。
As shown in FIG. 7, the
図7に示す「斜視下」の図では、斜視鏡100対物光学系の光軸を視野200の上下方向で下側に向けた状態を示している。この場合、視野200の中に観察対象物210が入り、術者はモニタ上で観察対象物210を視認することができる。
7 shows a state in which the optical axis of the
図7に示す「斜視右」の図では、斜視鏡100対物光学系の光軸を視野200の左右方向で右側に向けた状態を示している。この場合、視野200から観察対象物210が外れ、術者はモニタ上で観察対象物210を視認することができなくなる。
7 shows a state in which the optical axis of the objective optical system of the
図7に示す「斜視上」の図では、斜視鏡100の対物光学系の光軸を視野200の上下方向で上側に向けた状態を示している。また、図7に示す「斜視左」の図では、斜視鏡100対物光学系の光軸を視野200の左右方向で左側に向けた状態を示している。これらの場合も、視野200から観察対象物210が外れ、術者はモニタ上で観察対象物210を視認することができなくなる。
7 shows a state in which the optical axis of the objective optical system of the
以上のように、斜視鏡100では、斜視回転を行うことで、観察対象物210に対する視野の位置を変化させることができ、スコープ軸C2の周辺の比較的広い範囲を視認できる。一方、図7に示したように、斜視回転によってユーザが見たい部分や器具がモニタの視野200から外れてしまい、それらの場所を見失ってしまう可能性がある。
As described above, with the
このため、本実施形態では、観察対象物210の位置を検出して、観察対象物210が画面中央に移動するようにアームを制御する。また、本実施形態では、視野200に対する観察対象物210の位置に応じて斜視回転の際の回転速度を変更する。具体的に、視野200の中心から観察対象物210が離れるほど、斜視回転の際の回転速度が遅くなるように制御が行われる。視野200の中心から観察対象物210が離れるほど、斜視回転を行った際に観察対象物210が視野200から外れやすくなる。このため、視野200の中心から観察対象物210が離れるほど、斜視回転の際の回転速度を遅くすることで、観察対象物210が視野200から外れにくくなり、観察対象物210の位置を見失ってしまうことが抑制されることになる。但し、追従機能と斜視回転の速度は異なるため、追従のために画面を上下左右方向に動かす自由度の移動速度と、斜視回転の速度を協調させて制御しないと、画面外に外れてしまう可能性がある。このため、観察対象物210が画面中央に来るように制御しつつ、画面中央から対象物21までの距離L、若しくは相対位置に応じて、斜視回転の速度を減速するように制御する。
Therefore, in this embodiment, the position of the observed
<2.2.視野の中心からの距離に応じた斜視回転速度の変更>
ここでは、視野200の中心から観察対象物210までの距離に応じた斜視回転速度の変更について説明する。図8は、視野200の中心から観察対象物210までの距離を算出する手法を示す模式図である。図8に示すように、斜視回転速度をω[rad/s]、画面中央Oから観察対象物210の位置pまでのピクセル数を(x,y)[pixels]としたとき、画面中央から観察対象物210の位置までのピクセル数lは、l=√(x2+y2)で得られる。ここから斜視回転速度ω=f(l)の関数で調整することで実現する。例えば画面中央から対角の画面頂点までのピクセル数をlmax[pixels]、斜視回転速度の最高速をωmaxとしたとき、
ω=ωmax*(lmax-l)=ωmax*(lmax-√(x2+y2))
とする。
これにより、観察対象物210の位置が画面中央のときω=ωmax、観察対象物210の位置が対角の画面頂点のときω=0という形で調整される。この例では、線形な計算としているが、高次の関数等を使用してもよい。また、カメラから被写体までの距離Z[mm]、画角θが既知であれば、画面中央から観察対象物210までの距離L[mm]を計算して、ω=f(L)としてもよい。<2.2. Change in oblique rotation speed according to distance from center of visual field>
Here, the change of the oblique rotation speed according to the distance from the center of the field of
ω=ωmax*(lmax−l)=ωmax*(lmax−√(x2+y2))
and
As a result, ω=ωmax when the position of the
図9は、画面内の被写体位置に応じて斜視回転の速度を規定するマップの例を示す模式図である。マップ400は、図8に基づき、画面中央Oからの距離が大きくなるほど斜視回転の速度を小さくする例を示している。マップ400のドットの濃さは斜視回転の速度に対応しており、マップ410は、マップ400におけるドットの濃さと斜視回転の速度との関係を示している。マップ410に示すように、ドットの濃度が濃くなるほど、斜視回転の速度は速くなる。従って、マップ400において、画面中央Oからの距離が大きくなるほど斜視回転の速度は低下する。
FIG. 9 is a schematic diagram showing an example of a map that defines the oblique rotation speed according to the subject position within the screen. Based on FIG. 8, the
また、ドットの濃さと、斜視回転の速度及び被写体(観察対象物210)との距離との関係を示している。マップ420によれば、被写体との距離が近いほど斜視回転の速度は低くなる。被写体との距離が近い程、斜視鏡100の動きに応じて視野200内で観察対象物210の動く量が増大するため、被写体との距離が近いほど斜視回転の速度を低下させることで、視野200から観察対象物210を見失うことを抑制できる。
It also shows the relationship between the density of dots, the oblique rotation speed, and the distance to the subject (observation object 210). According to the
図10は、画面中央Oから観察対象物210までの距離(横軸)と、斜視回転速度(縦軸)との関係を示す特性図である。上述したように画面中央Oから観察対象物210までの距離が大きくなるほど、斜視回転の速度が低下するように制御が行われるが、制御の手法として図10に示すようなバリエーションが想定できる。
FIG. 10 is a characteristic diagram showing the relationship between the distance from the screen center O to the observed object 210 (horizontal axis) and the oblique rotation speed (vertical axis). As described above, control is performed so that the oblique rotation speed decreases as the distance from the screen center O to the
図10に示す特性1の場合、斜視回転の速度を優先して制御が行われる。アームのXY方向の移動が十分速い場合は、このような特性でも観察対象物210への追従は可能である。画面端(Lmax)でも斜視鏡回転速度は0ではないため、斜視回転開始時の観察対象物210の位置によっては観察対象物210が画面から外れることもあり得る。
In the case of characteristic 1 shown in FIG. 10, control is performed with priority given to the oblique rotation speed. If the movement of the arm in the XY directions is sufficiently fast, it is possible to follow the observed
図10に示す特性2、特性3の場合、アームのXY移動の速度が斜視回転による視野の展開よりも遅いケースを想定している。観察対象物210が画面中央Oに近い時には斜視回転を速く行い、画面端(Lmax)でも斜視鏡回転速度は0ではない。観察対象物210が画面中央Oから一定距離以上離れたときも速度を持つため、斜視回転開始時の観察対象物210の位置によっては観察対象物210が画面から外れることもあり得る。
In the case of
また、図10に示す特性4の場合は、XY移動がかなり遅い場合で、観察対象物210を絶対に視野200からはずさないケースを想定している。観察対象物210が画面中央Oからある程度外れると、斜視回転を完全に停止してXY移動のみが行われる。
Further, in the case of characteristic 4 shown in FIG. 10, it is assumed that the XY movement is considerably slow and the
特性1~4のいずれにおいても、斜視回転の最高速とアームのXY移動の速度の関係、観察対象物210が視野200外へ移動することを許容するかどうか、等に応じて特性が変わることなる。
<2.3.観察対象物への追従動作>
[観察対象物を画面中央に移動させるアームの動かし方]
図11は、斜視鏡100の長軸中心の回転(斜視回転)により対物光学系の光軸の向きが変化する様子を示している。図10に示すように、斜視回転によって術者が見る方向を変えることが可能であるが、図7で説明したように視野も移動してしまう。一方、図12は、トロッカ点中心の光学軸の回転やそれに近い動きを与えることで、XY方向の移動を行った場合を示している。なお、トロッカ点とは、トロッカが人体に挿入される位置をいうものとする。図12に示すように、トロッカ点を中心として斜視鏡100に回転の動き(斜視鏡ピボットの動き)を加えると、視野を外さずに斜視回転角を変えることができる。このような動きを行う場合は、斜視回転角とXY移動を連動させて動かす。In any of the properties 1 to 4, the properties change depending on the relationship between the maximum oblique rotation speed and the XY movement speed of the arm, whether or not the
<2.3. Follow-Up Operation to Observation Object>
[How to move the arm to move the observation target to the center of the screen]
FIG. 11 shows how the orientation of the optical axis of the objective optical system changes due to the rotation of the
以下では、斜視鏡100の斜視回転と併用する、視野に対する斜視鏡100の動き方の例について説明する。図13は、斜視鏡の姿勢を変えない平行移動の例を示しており、平行移動の動きとともに、斜視回転を行う場合を示す模式図である。この場合、カメラ視野に対する斜視鏡100の姿勢を変えずに移動が行われる。
In the following, an example of how the
斜視角α(Y軸周り)、斜視回転角ψ(Z軸周り)、硬性鏡長さL、観察対象物までの距離R、視野中央の点V、平行移動の量(ax, ay, az)としたとき、平行移動を表す同時変換行列は以下になる。 Oblique angle α (around the Y axis), oblique rotation angle ψ (around the Z axis), rigid scope length L, distance R to the observation object, point V at the center of the visual field, amount of translation (ax, ay, az) , the simultaneous transformation matrix representing translation is as follows.
また、斜視角と斜視回転角の同時変換行列は以下のように表すことができる。なお、硬性鏡根元の初期位置は簡易化のため(0,0,0)の原点とする Also, a simultaneous conversion matrix for oblique angles and oblique rotation angles can be expressed as follows. For simplicity, the initial position of the base of the rigid scope is the origin of (0,0,0).
この時、視野中央の点Vは以下のようになる。 At this time, the point V at the center of the field of view is as follows.
以上のこの式から明らかなように、硬性鏡を平行移動させるのと同じ移動量だけ視野が移動することができる。逆にVを一定に保つようにψの値に応じたax, ayを制御することで図13のように斜視回転をさせつつ対象点を見続けることができる。さらに(Rcosψα, Rsinψsinα)の変化量よりもVの位置を一定位置に保つために動く(ax, ay)の変化量が十分早ければ、斜視鏡の回転によって対象物が視野から外れることがなくなるため、前述のように斜視回転速度を制御すると対象物を画面から見失うことなく斜視を回転することができる。また、(Rcosψα, Rsinψsinα)と (ax, ay)の変化量の相対差が影響するため斜視回転角の速度以外に(ax, ay)の速度を調整することでも同様の動きが実現できる。このような動きは、トロッカ点の拘束がないケースに限定され、例えば、胸部の小開胸/小切開での斜視鏡下手術の場合に相当する。Y方向を動きであるため、視野200とカメラの距離は維持される。
As is clear from this formula above, the field of view can be moved by the same amount of movement as the translation of the rigid scope. Conversely, by controlling ax and ay according to the value of ψ so as to keep V constant, it is possible to keep looking at the target point while rotating obliquely as shown in FIG. Furthermore, if the amount of change in (ax, ay) to keep V at a fixed position is sufficiently faster than the amount of change in (Rcosψα, Rsinψsinα), the rotation of the oblique mirror will not cause the object to move out of the field of view. If the oblique rotation speed is controlled as described above, the oblique rotation can be performed without losing sight of the object on the screen. Also, since the relative difference between (Rcosψα, Rsinψsinα) and (ax, ay) affects the amount of change, the same movement can be realized by adjusting the velocity (ax, ay) in addition to the velocity of the oblique rotation angle. Such movement is limited to the case of no trocar point constraint, for example, strabiscopy with a small thoracotomy/small incision in the chest. Since the motion is in the Y direction, the distance between the field of
また、図14は、拘束点300を中心とした回転によって視野を上下左右方向に移動する例を示している。拘束点300は、例えばトロッカ点に相当する。この場合、アームの構成としては、拘束点300を中心とした3自由度でも実現可能である。拘束点300を中心とするX軸周りの回転をφ、Y軸周りの回転をθ、とすると、各々の回転行列は以下のようになる。
Also, FIG. 14 shows an example in which the field of view is moved vertically and horizontally by rotation about the
また、拘束点300を中心とした回転の同時変換行列は以下のようになる。
Also, the simultaneous transformation matrix for rotation about the
この時、視野中央の点Vは以下のように表すことができる。 At this time, the point V at the center of the field of view can be expressed as follows.
上記のVが保たれるようにθ、φ、ψが調整されれば視野が外れない。目標とする斜視角ψが決まっているとき、Vの値を保つようなθとφの目標値が選ぶ。この目標値を指令値としてθ、φ、ψを制御する際に、前述の斜視回転角の調整を入れることにより、目標値に追従する過程においても視野から対象物を外すことなく制御することが可能となる。 If θ, φ, and ψ are adjusted so that the above V is maintained, the field of view does not deviate. When the target oblique angle ψ is determined, the target values of θ and φ are selected so that the value of V is maintained. When controlling θ, φ, and ψ using these target values as command values, by adjusting the oblique rotation angle described above, it is possible to control the object without removing it from the field of view even in the process of following the target values. It becomes possible.
またψの姿勢によってθおよびφの変化に対するVの変化量も変わるため斜視回転角ψの値に応じてXとYの変化量が同じになるようθとφの回転速度を調整してもよい。なお上記計算は計算が煩雑になるため簡易実装のためα=0、ψ=0として斜視回転角に関係なく硬性鏡軸をθ、φで回転させて視野の移動を簡単化してもよい。 Also, since the amount of change in V relative to the change in θ and φ changes depending on the attitude of ψ, the rotational speed of θ and φ may be adjusted so that the amount of change in X and Y becomes the same according to the value of the oblique rotation angle ψ. . Since the above calculations are complicated, for simple implementation, α=0 and ψ=0 may be set and the rigid scope axis may be rotated by θ and φ regardless of the oblique rotation angle to simplify the movement of the field of view.
[観察対象物を画面中央に移動させるアームの制御]
以下では、拘束点300を中心に斜視鏡100を動かす場合に、観察対象物210が視野200の中央に位置するように追従を行う例について、説明する。画面内の対象物の位置を画像認識等によって認識し、その情報に基づいて観察対象物を画面内で移動するようなアームの制御方法を用いてもよい。また、視線検出によって術者の観察対象点を定め、観察対象点を視野の中央に移動させることもできる。[Control of the arm that moves the object to be observed to the center of the screen]
In the following, an example of following the
本実施形態によれば、支持アーム装置に取り付けられて患者の人体内部へ挿入される内視鏡の光軸上に患者の人体内部に存在する対象物が一致するように、支持アーム装置を制御して内視鏡を移動させる制御部、を備える情報処理装置が提供される。画像認識等によって対象物を認識して対象物が画面中心に映るようにアームを制御することで、内視鏡により得られる画像の中心部に手術器具又は腫瘍等の対象物を捉えることが可能となり、術者の利便性が向上する。かかる情報処理装置は、内視鏡手術システム5000と別に構成されてもよいし、内視鏡手術システム5000に含まれる任意の装置として構成されてもよい。
According to this embodiment, the support arm device is controlled so that the object existing inside the patient's body is aligned with the optical axis of the endoscope attached to the support arm device and inserted into the patient's body. and a control unit that moves the endoscope by moving the endoscope. By recognizing the target using image recognition, etc., and controlling the arm so that the target appears in the center of the screen, it is possible to capture the target, such as a surgical instrument or a tumor, in the center of the image obtained by the endoscope. As a result, convenience for the operator is improved. Such an information processing device may be configured separately from the
以下、図15及び図16を参照して、本実施形態の概要を説明する。 The outline of this embodiment will be described below with reference to FIGS. 15 and 16. FIG.
図15及び図16は、本実施形態の概要を説明するための図である。図15では、患者5071の腹壁に穿刺されたトロッカ5025aから患者5071の体腔内に内視鏡5001の鏡筒5003が挿入された様子が示されている。実線で示された内視鏡5001は、現在の位置姿勢を示しており、破線で示された内視鏡5001は、本実施形態に係る内視鏡制御処理による移動先の(即ち、未来の)位置姿勢を示している。また、患者5071の腹壁に穿刺されたトロッカ5025dから鉗子5023が挿入されている。図16では、図15に示した内視鏡5001により得られる画像(以下、内視鏡映像とも称する)が示されており、左図が現在の位置姿勢で得られる画像であり、右図が本実施形態に係る内視鏡制御処理による移動後に得られる画像である。
15 and 16 are diagrams for explaining the outline of this embodiment. FIG. 15 shows how the
図15を参照すると、内視鏡5001の現在の位置姿勢では、鉗子5023の先端が内視鏡5001の視野6052内に捉えられているものの、中心軸(即ち、光軸)6051上にはない。そのため、図16の左図に示すように、中心に鉗子5023の先端が映っていない内視鏡映像が得られることになる。本実施形態に係る内視鏡手術システム5000は、このような状況において、画面中心に鉗子5023等の術具が映るように、内視鏡5001を移動させる処理を行う。詳しくは、内視鏡手術システム5000は、鉗子5023の先端が中心軸6051上に位置するように、図示しない支持アーム装置5027により内視鏡5001を移動させる。これにより、図16の右図に示すように、中心に鉗子5023の先端が映った内視鏡映像が得られることになる。なお、以下では、斜視角および斜視回転角を無視して、鉗子5023の先端を中心軸6051上に位置させる例を示すが、斜視角および斜視回転角を考慮することで、斜視鏡200の制御を行うことができる。また、鉗子5023の先端を中心軸6051上に位置させる例を示すが、観察対象物210を画像認識することにより、観察対象物210をターゲットとして中心軸6051上に位置させる場合ことも同様に行うことができる。
Referring to FIG. 15, in the current position and orientation of the
このように、内視鏡手術システム5000は、術具を自動で追従して、術具が画面中心に映った内視鏡映像を提供することが可能となる。よって、術者は、内視鏡5001を操作せずとも、快適に手術を継続することが可能となる。
In this way, the
<2.4.斜視回転動作と追従動作のための制御部の構成例>
図21は、上述した斜視回転動作と追従動作を行うための支持アーム装置1400の制御部1351の構成を示す模式図である。図21に示すように、制御部1351は、観察対象物210を撮像して得られる視野200内で、視野の中心から観察対象物210の位置までの距離を取得する距離取得部1351aと、視野の中心から観察対象物210の位置までの距に基づいて、斜視鏡100の斜視回転の速度又は斜視鏡100の移動速度を算出する速度算出部1351bと、を備える。距離取得部1351aによる視野の中心から観察対象物210の位置までの距離の取得は、CCU5039の制御部5063が観察対象物210を画像認識した結果に基づいて行われる。<2.4. Configuration Example of Control Unit for Oblique Rotation Operation and Follow-up Operation>
FIG. 21 is a schematic diagram showing the configuration of the
また、制御部1351は、CCU5039の制御部5063が観察対象物210を画像認識した結果に基づいて、観察対象物210が視野200の中心に位置するように支持アーム装置1400を制御する。この際、制御部1351は、視野200内の観察対象物210の位置に応じて、斜視鏡100の斜視回転の速度又は斜視鏡100の移動速度の少なくとも一方を制御する。制御部1351は、視野200内の観察対象物210の位置に応じて、斜視鏡100の長軸周りの回転角及び回転速度を制御する。CCU5039の制御部5063は、上述したように、各種の画像認識技術を用いて、観察対象物210の画像の特徴と視野200内での位置を認識することができる。制御部1351は、CCU5039から、観察対象物210の視野200内での位置に関する情報を取得する。
Further, the
術者は、表示装置5041に表示された術部の画像をリアルタイムで見ながら、入力装置5047を操作することで、表示装置5041に表示された術部から観察対象物210を指定することができる。制御部5063は、指定された観察対象物210に基づいて、観察対象物210の画像の特徴と視野200内での位置を認識する。
The operator can specify the
<2.5.追従動作の詳細>
続いて、図17を参照して、上述した内視鏡制御を実現する処理を説明する。<2.5. Details of follow-up operation>
Next, with reference to FIG. 17, processing for realizing the above-described endoscope control will be described.
図17は、本実施形態に係る内視鏡制御処理の概要を説明するための図である。図17に示した各々のブロックは処理を示しており、内視鏡制御処理は複数の処理から成る。図17に示すように、内視鏡手術システム5000は、画像処理を行って、術具等のターゲットを検出する。次いで、内視鏡手術システム5000は、検出結果に基づいてターゲットの位置を算出する。次に、内視鏡手術システム5000は、算出されたターゲットの位置及びトロッカ位置に基づいて、現在の内視鏡の姿勢を算出する。次いで、内視鏡手術システム5000は、算出した現在の内視鏡の姿勢及び仮想面(平面又は曲面)の設定情報に基づいて、目標となる内視鏡先端位置を算出する。次に、内視鏡手術システム5000は、現在の内視鏡の姿勢と目標となる内視鏡先端位置とに基づいて内視鏡の姿勢の変化量を演算し、演算した変化量に応じた姿勢変化を実現させるためのアームの制御情報(即ち指令)を生成する。そして、内視鏡手術システム5000は、生成した指令に従って動作するよう支持アーム(例えば、アーム部5031)を制御する。内視鏡手術システム5000は、以上説明した一連の処理を繰り返し行う。
FIG. 17 is a diagram for explaining an overview of endoscope control processing according to the present embodiment. Each block shown in FIG. 17 represents a process, and the endoscope control process consists of a plurality of processes. As shown in FIG. 17, the
以下、本実施形態に係る内視鏡制御処理の詳細を説明する。 Details of the endoscope control process according to the present embodiment will be described below.
(1)はじめに
本実施形態によれば、内視鏡手術システム5000は、内視鏡映像から術具を認識して自動で追従する機能を実現可能である。以下では、画像処理部分(マーカ検出)および検出結果からアームが内視鏡を操作して、トロッカ点を考慮しつつ画面中心に術具がくるように移動させるための計算方法を説明する。(1) Introduction According to this embodiment, the
以下、機能要件を説明した後、画像処理による術具(マーカー)の検出方法を記載し、そのあとに検出結果から目標となる移動情報と姿勢情報に変換して動作するまでの計算方法を説明する。 In the following, after explaining the functional requirements, the method of detecting the surgical tool (marker) by image processing is described, and then the calculation method of converting the detection result into target movement information and posture information and moving it is described. do.
ここでは、斜視角および斜視回転角を無視して、拘束点中心にアームを動かした場合の例を示す。 Here, an example in which the oblique angle and oblique rotation angle are ignored and the arm is moved around the constraint point is shown.
(2)画像処理
内視鏡手術システム5000は、画像処理により術具(例えば、術具の先端位置及び/又は姿勢)を検出する。(2) Image Processing The
例えば、目印となるマーカーを術具先端部に取り付けることで、内視鏡映像に基づく画像処理により術具の位置が検出されてもよい。マーカーは、検出容易であることが望ましい。例えば、マーカーは青又は緑といった、体腔内の臓器や血管の色と比べて目立つ色(例えば、色相環において臓器や血管の色とは反対側に位置する色)であってもよい。また、マーカーは、2次元コード又はバーコード等の特定のパターンであってもよい。 For example, the position of the surgical instrument may be detected by image processing based on endoscopic images by attaching a marker to the distal end of the surgical instrument. Markers should be easily detectable. For example, the marker may be a color such as blue or green that stands out from the color of the organ or blood vessel in the body cavity (eg, the color that is on the opposite side of the color wheel from the color of the organ or blood vessel). Alternatively, the marker may be a specific pattern such as a two-dimensional code or barcode.
例えば、目印となるマーカーを術具の体外に出ている部分に取り付けることで、外部のセンサによるマーカーの検出結果、術具の長さ及び姿勢等の情報に基づいて術具の位置が検出されてもよい。 For example, by attaching a marker to the part of the surgical instrument that is outside the body, the position of the surgical instrument can be detected based on information such as the marker detection result by an external sensor, the length and posture of the surgical instrument. may
なお、術具の検出は、画像処理以外の手法により行われてもよい。 Note that detection of the surgical tool may be performed by a method other than image processing.
例えば、特別なトロッカを作成することで、術具の挿入量とトロッカの角度とに基づいて術具の位置が算出されてもよい。 For example, by creating a special trocar, the position of the surgical instrument may be calculated based on the insertion amount of the surgical instrument and the angle of the trocar.
例えば、術具を内視鏡とは別の支持アーム装置に取り付けることで、支持アーム装置の位置姿勢情報から術具の位置が算出されてもよい。 For example, by attaching the surgical tool to a support arm device different from the endoscope, the position of the surgical tool may be calculated from the position and orientation information of the support arm device.
(3)目標計算
内視鏡手術システム5000は、目標計算を行う。目標計算は、位置及び姿勢の二つを計算して、移動を指示するための計算である。(3) Target Calculation The
詳しくは、内視鏡手術システム5000は、最初に目標位置を画像処理結果から求めたあと、トロッカ点を起点とした現在の姿勢及び目標位置到達時の姿勢に基づいて、姿勢の変化量を決定する。また、内視鏡手術システム5000は、画像処理の結果から移動量を求める間はエンコーダから取得される現在の位置・姿勢を基に目標計算を行うが、実際の指令を行う場合は、最後に行った指令値に、算出した値を足し合わせて行う。この理由は、現在値と指令値との間に制御誤差に起因するズレが発生していて、指令値を出す場合に現在値を起点にゴールを設定してしまうと動作がスムーズでなくなり、また誤差が大きくなっていく問題が発生するためである。
Specifically, the
以下、図18を参照して、目標計算処理の流れの一例を説明する。 An example of the flow of the target calculation process will be described below with reference to FIG.
図18は、本実施形態に係る内視鏡手術システム5000による目標計算処理の流れの一例を示すフローチャートである。図18に示すように、内視鏡手術システム5000は、まず、座標計算を行う。
FIG. 18 is a flowchart showing an example of the flow of target calculation processing by the
座標計算において、内視鏡手術システム5000は、まず、現在値基準で座標を計算する。詳しくは、内視鏡手術システム5000は、画像処理結果を取得する(ステップS402)。次いで、内視鏡手術システム5000は、検出位置をカメラ座標系に変換する(即ち、2Dから3Dへの変換)(ステップS404)。次に、内視鏡手術システム5000は、カメラ座標系からWorld座標系へ変換する(ステップS406)。次いで、内視鏡手術システム5000は、トロッカ点から単位ベクトルへ変換する(ステップS408)。次に、内視鏡手術システム5000は、既定平面(即ち、仮想面)との交点までの長さを求める(ステップS410)。次いで、内視鏡手術システム5000は、トロッカ点から既定平面までのベクトルをWorld座標系へ変換する(ステップS412)。
In the coordinate calculation, the
内視鏡手術システム5000は、現在値基準で座標を計算した後、指令値基準で座標を計算する。詳しくは、内視鏡手術システム5000は、内視鏡の長さを基に挿入深さへ変換する(ステップS414)。
After calculating the coordinates based on the current value, the
座標計算後、内視鏡手術システム5000は、姿勢計算を行う。
After coordinate calculation, the
姿勢計算において、内視鏡手術システム5000は、まず、現在値基準で姿勢を計算する。詳しくは、内視鏡手術システム5000は、現在の姿勢ベクトルを取得する(ステップS416)。次いで、内視鏡手術システム5000は、計算した新しい目標ベクトルの姿勢を求める(ステップS418)。次に、内視鏡手術システム5000は、計算した新しい目標ベクトルとの間の相対的な姿勢変化量を求める(ステップS420)。
In posture calculation, the
内視鏡手術システム5000は、現在値基準で姿勢を計算した後、指令値基準で姿勢を計算する。詳しくは、内視鏡手術システム5000は、最終指令値の姿勢からの姿勢変化量に変換する(ステップS422)。
After calculating the posture based on the current value, the
以上説明した処理により、内視鏡手術システム5000は、目標位置及び目標姿勢を得る。
Through the processing described above, the
(4)目標位置計算
図19は、本実施形態に係る目標位置計算を説明するための図である。図19に示すように、画像処理結果は、カメラ先端の画面中心を(0.5,0.5)としたカメラ座標系から見た位置が、[0.0-1.0]に正規化された値で通知される。そのままでは無次元の値のため、内視鏡手術システム5000は、最初にメートル単位系に変換する。ただし、内視鏡手術システム5000は、画像処理結果は2Dで奥行き方向の情報がないため、変換の際に奥行きを例えば50[mm]と仮定して、画角と組み合わせて仮想的な位置とする。(4) Target Position Calculation FIG. 19 is a diagram for explaining target position calculation according to this embodiment. As shown in FIG. 19, in the image processing result, the position viewed from the camera coordinate system with the center of the screen at the tip of the camera as (0.5, 0.5) is normalized to [0.0-1.0]. specified value. Due to the dimensionless values as is, the endoscopic
奥行を50[mm]と仮定した理由を説明する。第1の理由は、仮定した値が実際の値より大きいと、(x,y)の移動量が実際の(x,y)より大きくなり、オーバーランする(振動的になる)ためである。第2の理由は、想定術式での撮影距離を50[mm]~100[mm]と設定して、最短の距離としたためである。第3の理由は、実距離のほうが大きい場合、次の画像処理結果で新たに残差から移動が決定されるため、最終的にゴールに到達可能なためである。 The reason why the depth is assumed to be 50 [mm] will be explained. The first reason is that if the assumed values are larger than the actual values, the amount of movement of (x, y) becomes larger than the actual (x, y) and overruns (oscillates). The second reason is that the photographing distance in the assumed technique is set to 50 [mm] to 100 [mm], which is the shortest distance. The third reason is that when the actual distance is larger, the movement is newly determined from the residual in the next image processing result, so that the goal can be finally reached.
(5)目標姿勢計算
内視鏡手術システム5000は、目標位置が決まったあとに目標姿勢を求める。制御部1351は、目標位置及び目標姿勢に基づいて、アーム部これにより、アーム部1420を制御する。(5) Desired Posture Calculation The
<2.6.追従動作の具体例>
図20A~図20Dは、本実施形態による斜視鏡の制御により、斜視を左に向けた場合の具体例を説明するための模式図である。図20A~図20Dにおいても、図7と同様に、様々な臓器215の中にユーザ(術者)が見ようとする観察対象物210が存在する状態を示している。ここで、図20Aは、スコープ軸Cの位置に対して対物光学系の光軸が視野200の下側(術具220を操作する術者側)に向いている状態(斜視下の状態)を示している。図20Bは、図20Aの視野200を拡大して示している。この場合に、視野200の左側を見ようとして斜視回転を行うと、図20Cに示すように、観察対象物210への追従動作を行わない既存の技術では、図20Bに比べて斜視回転により観察対象物210の左側が観察できるようになる反面、観察対象物210が見えなくなってしまう。<2.6. Specific example of follow-up operation>
FIGS. 20A to 20D are schematic diagrams for explaining a specific example when the squint is turned to the left by controlling the squint mirror according to the present embodiment. Similar to FIG. 7, FIGS. 20A to 20D also show states in which observation objects 210 that the user (operator) wants to see exist in
一方、本実施形態では、図20Dに示すように、観察対象物210が画面中央に位置するように、観察対象物210へ追従するようにアームの制御を行うため、観察対象物210を見失うことなく斜視鏡100を左向きに回転させることが可能である。
On the other hand, in this embodiment, as shown in FIG. 20D, the arm is controlled to follow the
<<3.斜視鏡の回転を独立して制御する保持ユニットを設けた例>>
上述した図3に示した構成例では、アーム部1420の能動関節部1421a~1421fの制御のみで斜視鏡100の姿勢と位置を変更する例を示した。一方、アーム部1420の先端に斜視鏡の回転を独立して制御する、アクチュエータ内蔵の保持ユニットが設けられていても良い。この場合、斜視鏡100の回転は保持ユニットで行い、斜視鏡全体の位置や術部に対する姿勢はアームの能動関節部で制御することが可能となる。<<3. Example of providing a holding unit that independently controls the rotation of the perspective scope>>
In the configuration example shown in FIG. 3 described above, an example in which the attitude and position of the
図22は、図3に示した構成例において、アーム部1420の先端に斜視鏡100の回転とカメラヘッド7100の回転を独立して制御する保持ユニット7000が設けられた構成を示す模式図である。保持ユニット7000は、アーム部1420の先端の内視鏡ユニット取付け部7300に装着され、カメラヘッド取り付け部7100、カメラヘッド回転駆動部7200、斜視鏡取付け部7400、斜視鏡回転駆動部7500を備えている。
FIG. 22 is a schematic diagram showing a configuration in which a
図22に示すように、カメラヘッド5005は、カメラヘッド取り付け部7100を介してカメラヘッド回転駆動部7200に装着されている。カメラヘッド回転駆動部7200は、モータなどのアクチュエータ7210を備え、内視鏡ユニット取付け部7300及び保持ユニット7000の本体に対してカメラヘッド5005を回転させる。
As shown in FIG. 22, the
また、斜視鏡100は、斜視鏡取付け部7400を介して斜視鏡回転駆動部7500に装着されている。斜視鏡回転駆動部7500は、モータなどのアクチュエータ7510を備え、内視鏡ユニット取付け部7300及び保持ユニット7000の本体に対して斜視鏡100をその軸周りに回転させる。
Also, the
図23は、図22に示す構成例における、アーム部1420及び制御装置1350を含む支持アーム装置1400と、内視鏡ユニット5006、CCU5039の構成を示す模式図である。制御装置1350は、図4に示した構成に加え、CCU5039との通信を行うCCU通信部1358を備えている。CCU5039は、図2に示した構成に加え、制御装置1350と通信を行うアーム通信部5064を備えている。制御装置1350とCCU5039は、CCU通信部1358とアーム通信部5064が通信を行うことにより、互いに情報の送受信が可能である。また、内視鏡ユニット5006は、図2に示したカメラヘッド5005に保持ユニット7000の機能が追加されたものであり、図2に示した制御部5015の代わりに、内視鏡ユニット制御部5014を備えている。内視鏡ユニット5006は、図2に示したカメラヘッド5005の構成に加え、斜視制御部(第1の制御部)5016、カメラヘッド制御部(第2の制御部)5017、斜視鏡回転駆動部7500、カメラヘッド回転駆動部7200を備えている。斜視制御部5016、カメラヘッド制御部5017は、保持ユニット7000に設けられていても良い。また、内視鏡ユニット制御部5014、斜視制御部5016、カメラヘッド制御部5017の機能は、制御装置1350の制御部1351が備えていても良い。
FIG. 23 is a schematic diagram showing the configuration of the
斜視制御部5016は、内視鏡ユニット制御部5014の指令に基づき、アクチュエータ7510を駆動する。アクチュエータ7510、斜視回転部エンコーダ7520は、斜視鏡回転駆動部7500に設けられている。内視鏡ユニット制御部5014は、斜視回転部エンコーダ7520が検出するアクチュエータ7510の回転角に基づいて、アクチュエータ7510を駆動し、斜視鏡100の軸周りの回転を制御する。
The oblique
また、カメラヘッド制御部5017は、内視鏡ユニット制御部5014の指令に基づき、アクチュエータ7210を駆動する。アクチュエータ7210、カメラヘッド回転部エンコーダ7220は、カメラヘッド回転駆動部7200に設けられている。内視鏡ユニット制御部5014は、カメラヘッド回転部エンコーダ7220が検出するアクチュエータ7210の回転角に基づいて、カメラヘッド5005の軸周りの回転を制御する。
Also, the camera
以上の構成により、内視鏡ユニット取付け部7300に対して、斜視鏡100とカメラヘッド5005が独立して回転することができる。これにより、斜視鏡100を回転させて所望の観察対象物を視認するとともに、カメラヘッド5005を回転させて画像の天地を適正に制御することが可能となる。
With the above configuration, the
図24は、図22及び図23に示す構成において、処理の流れを示すシーケンス図である。先ず、ステップS502では、斜視鏡100の斜視回転とカメラヘッド5005の天地制御の姿勢に関する情報が、内視鏡ユニットからCCU5039に送られる。次のステップS504では、斜視鏡100の斜視回転とカメラヘッド5005の天地制御の姿勢に関する情報が、CCU5039からアーム制御装置に送られる。
24 is a sequence diagram showing the flow of processing in the configuration shown in FIGS. 22 and 23. FIG. First, in step S502, the endoscope unit sends to the
次のステップS506では、アーム制御指令および内視鏡ユニットの駆動指令値を算出する。次のステップS508では、内視鏡ユニットの駆動指令値が、駆動指令とともにアーム制御装置からCCU5039に送られる。また、ステップS510では、アーム制御指令に基づいてアームが制御される。
In the next step S506, arm control commands and endoscope unit drive command values are calculated. In the next step S508, the drive command value for the endoscope unit is sent from the arm control device to the
ステップS512では、内視鏡ユニットの駆動指令値が、駆動指令とともにCCU5039から内視鏡ユニットに送られる。次のステップS514では、駆動指令値に基づいて内視鏡ユニットが制御される。
In step S512, the drive command value for the endoscope unit is sent from the
次のステップS516では、斜視鏡100の斜視回転とカメラヘッド5005の天地制御の姿勢に関する情報が、内視鏡ユニットからCCU5039に送られる。次のステップS504では、斜視鏡100の斜視回転とカメラヘッド5005の天地制御の姿勢に関する情報が、CCU5039からアーム制御装置に送られる。
次のステップS510では、In the next step S516, information on oblique rotation of the
In the next step S510,
<<4.まとめ>>
以上説明したように本実施形態によれば、モニタの視野200の中央から離れるほど斜視回転の速度を遅くするようにしたため、斜視鏡100の斜視回転を用いて周囲を視認しようとした場合に、観察対象物210が視野200から外れてしまうことを抑制できる。<<4. Summary>>
As described above, according to the present embodiment, the speed of oblique rotation is decreased as the distance from the center of the field of
また、本実施形態によれば、患者の人体内部に存在する観察対象物210を画像認識し、斜視鏡100の対物光学系の光軸と観察対象物210の位置が一致するように、医療用アームを制御して内視鏡の先端を仮想面上に拘束しながら内視鏡を移動させる。これにより、斜視回転を行った場合に、視野200の中心部に手術器具又は腫瘍等の観察対象物210を捉えることが可能となり、術者の利便性が向上する。
Further, according to the present embodiment, the
従って、術者は、見たい部分や器具などが常に画面内に維持されつつ斜視回転を行うことが可能となり、斜視回転で観察対象物210を見失うことを抑制できる。また、被写体を中心としたピボットの動作のように距離情報に基づいた姿勢制御を行わずに簡易的に実現が可能となる。
Therefore, the operator can perform oblique rotation while keeping the desired part, instrument, etc. within the screen at all times, and can suppress losing sight of the
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, the technical scope of the present disclosure is not limited to such examples. It is obvious that those who have ordinary knowledge in the technical field of the present disclosure can conceive of various modifications or modifications within the scope of the technical idea described in the claims. is naturally within the technical scope of the present disclosure.
なお、本明細書において説明した各装置による一連の処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体(非一時的な媒体:non-transitory media)に予め格納される。そして、各プログラムは、例えば、コンピュータによる実行時にRAMに読み込まれ、CPUなどのプロセッサにより実行される。 A series of processes by each device described in this specification may be realized using any of software, hardware, and a combination of software and hardware. Programs constituting software are stored in advance in a storage medium (non-transitory media) provided inside or outside each device, for example. Each program, for example, is read into a RAM when executed by a computer, and executed by a processor such as a CPU.
また、本明細書においてフローチャート等を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。 Further, the processes described using flowcharts and the like in this specification do not necessarily have to be executed in the illustrated order. Some processing steps may be performed in parallel. Also, additional processing steps may be employed, and some processing steps may be omitted.
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Also, the effects described herein are merely illustrative or exemplary, and are not limiting. In other words, the technology according to the present disclosure can produce other effects that are obvious to those skilled in the art from the description of this specification, in addition to or instead of the above effects.
なお、以下のような構成も本開示の技術的範囲に属する。
(1) 複数の関節部が複数のリンクにより回動可能に連結され、先端に斜視鏡を支持可能な多関節アームと、
前記斜視鏡の位置及び姿勢を変更するように前記多関節アームを制御する制御システムと、
を備え、
前記制御システムは、前記斜視鏡を通して撮像される視野内で、前記視野内の観察対象物の位置に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御する、手術アームシステム。
(2) 前記制御システムは、前記斜視鏡の長軸周りの回転角及び回転速度を制御する、前記(1)に記載の手術アームシステム。
(3) 前記制御システムは、前記視野内で前記観察対象物の位置を移動するように前記多関節アームの姿勢と移動速度を制御する、前記(1)又は(2)に記載の手術アームシステム。
(4) 前記制御システムは、前記視野内で、前記視野の中心から前記観察対象物の位置までの距離に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御する、前記(1)~(3)のいずれかに記載の手術アームシステム。
(5) 前記制御システムは、前記視野の中心から前記観察対象物の位置までの距離が長いほど前記回転速度を遅くする、前記(1)~(4)のいずれかに記載の手術アームシステム。
(6) 前記制御システムは、前記観察対象物の位置を判別した結果に基づいて、前記観察対象物が前記視野の中心に位置するように前記斜視鏡を支持する多関節アームを制御する、前記(1)~(5)のいずれかに記載の手術アームシステム。
(7) 前記制御システムは、前記観察対象物を画像認識した結果に基づいて、前記観察対象物が前記視野の中心に位置するように前記斜視鏡を支持する多関節アームを制御する、前記(6)に記載の手術アームシステム。
(8) 前記制御システムは、前記観察対象物が前記視野の端に位置する場合は、前記回転速度を0にする、前記(1)~(7)のいずれかに記載の手術アームシステム。
(9) 前記制御システムは、前記距離の増加量に対する前記回転速度の減少量が線形の関係になるように前記回転速度を制御する、前記(5)に記載の手術アームシステム。
(10) 前記制御システムは、前記距離が所定範囲内の場合は、前記回転速度を前記中心と前記観察対象物の位置が一致する場合の前記回転速度と同一とする、前記(5)に記載の手術アームシステム。
(11) 前記制御システムは、前記距離が所定範囲を超える場合は、前記回転速度を一定値とする、前記(5)に記載の手術アームシステム。
(12) 前記制御システムは、前記斜視鏡の回転を制御する第1の制御部と前記多関節アームを制御する第2の制御部を備える、前記(1)~(11)のいずれかに記載の手術アームシステム。
(13) 前記多関節アームは、前記斜視鏡とカメラヘッドをそれぞれ独立して回転制御可能に保持する保持ユニットを備える、前記(12)に記載の手術アームシステム。
(14) 前記保持ユニットは前記第1の制御部を含み、
前記第2の制御部は、前記カメラヘッドと接続された画像処理部を介して、前記第1の制御部が取得した前記斜視鏡の回転角情報を取得し、前記回転角情報に基づいて前記多関節アームを制御する、前記(13)に記載の手術アームシステム。
(15) 複数の関節部が複数のリンクにより回動可能に連結され、先端に斜視鏡を支持可能な多関節アームを制御し、前記斜視鏡の位置及び姿勢を変更するように前記多関節アームを制御する手術アーム制御システムであって、
前記斜視鏡を通して撮像される視野内で、前記視野内の観察対象物の位置に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御する、手術アーム制御システム。Note that the following configuration also belongs to the technical scope of the present disclosure.
(1) a multi-joint arm having a plurality of joints rotatably connected by a plurality of links and capable of supporting a squintoscope at its distal end;
a control system for controlling the articulated arm to change the position and orientation of the oblique scope;
with
The surgical arm system, wherein the control system controls at least one of a speed of rotation or a speed of translation of the squintoscope within a field of view imaged through the squintoscope based on a position of an object viewed within the field of view.
(2) The surgical arm system according to (1), wherein the control system controls the rotational angle and rotational speed of the oblique scope about its longitudinal axis.
(3) The surgical arm system according to (1) or (2) above, wherein the control system controls the posture and movement speed of the articulated arm so as to move the position of the observation object within the field of view. .
(4) The control system controls at least one of the rotational speed and the moving speed of the oblique mirror based on the distance from the center of the field of view to the position of the observed object within the field of view, ) to (3), the surgical arm system.
(5) The surgical arm system according to any one of (1) to (4), wherein the control system reduces the rotation speed as the distance from the center of the field of view to the position of the observation object increases.
(6) The control system controls the articulated arm that supports the squintoscope so that the observation object is positioned at the center of the field of view, based on the result of determining the position of the observation object. A surgical arm system according to any one of (1) to (5).
(7) The control system controls the articulated arm that supports the squintoscope so that the observation object is positioned at the center of the field of view based on the result of image recognition of the observation object, The surgical arm system according to 6).
(8) The surgical arm system according to any one of (1) to (7), wherein the control system sets the rotation speed to 0 when the observation object is positioned at the edge of the field of view.
(9) The surgical arm system according to (5) above, wherein the control system controls the rotational speed so that the amount of decrease in rotational speed with respect to the amount of increase in distance has a linear relationship.
(10) The control system according to (5) above, wherein, when the distance is within a predetermined range, the rotational speed is the same as the rotational speed when the center and the position of the observation target match. surgical arm system.
(11) The surgical arm system according to (5), wherein the control system sets the rotation speed to a constant value when the distance exceeds a predetermined range.
(12) The control system according to any one of (1) to (11) above, wherein the control system includes a first control section that controls rotation of the oblique scope and a second control section that controls the articulated arm. surgical arm system.
(13) The surgical arm system according to (12), wherein the articulated arm includes a holding unit that holds the oblique scope and the camera head independently of each other so as to be rotationally controllable.
(14) The holding unit includes the first control section,
The second control unit acquires the rotation angle information of the squint mirror acquired by the first control unit via an image processing unit connected to the camera head, and based on the rotation angle information, The surgical arm system according to (13) above, which controls an articulated arm.
(15) A multi-joint arm having a plurality of joints rotatably connected by a plurality of links and capable of supporting a strabismus at its distal end is controlled to change the position and posture of the strabismus. A surgical arm control system for controlling
A surgical arm control system for controlling, within a field of view imaged through the oblique scope, at least one of a speed of rotation or a speed of movement of the oblique scope based on a position of an object to be observed within the field of view.
100 斜視鏡
200 視野
210 観察対象物
350 制御装置
351 制御部
351a 距離取得部
351b 速度算出部
400 支持アーム装置REFERENCE SIGNS
Claims (15)
前記斜視鏡の位置及び姿勢を変更するように前記多関節アームを制御する制御システムと、
を備え、
前記制御システムは、
前記斜視鏡を通して撮像される視野内で、前記視野内の観察対象物の位置に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御し、
前記視野の中心から前記観察対象物の位置までの距離が長いほど前記回転速度を遅くする、手術アームシステム。 a multi-joint arm having a plurality of joints rotatably connected by a plurality of links and capable of supporting a squintoscope at its distal end;
a control system for controlling the articulated arm to change the position and orientation of the oblique scope;
with
The control system is
controlling at least one of a rotational speed or a moving speed of the oblique mirror based on a position of an object to be observed within the visual field imaged through the oblique mirror;
The surgical arm system , wherein the longer the distance from the center of the field of view to the position of the observation object, the slower the rotation speed .
前記斜視鏡の位置及び姿勢を変更するように前記多関節アームを制御する制御システムと、
を備え、
前記制御システムは、
前記斜視鏡を通して撮像される視野内で、前記視野内の観察対象物の位置に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御し、
前記観察対象物が前記視野の端に位置する場合は、前記回転速度を0にする、手術アームシステム。 a multi-joint arm having a plurality of joints rotatably connected by a plurality of links and capable of supporting a squintoscope at its distal end;
a control system for controlling the articulated arm to change the position and orientation of the oblique scope;
with
The control system is
controlling at least one of a rotational speed or a moving speed of the oblique mirror based on a position of an object to be observed within the visual field imaged through the oblique mirror;
The surgical arm system, wherein the rotation speed is set to 0 when the observation object is positioned at the edge of the field of view.
前記第2の制御部は、前記カメラヘッドと接続された画像処理部を介して、前記第1の制御部が取得した前記斜視鏡の回転角情報を取得し、前記回転角情報に基づいて前記多関節アームを制御する、請求項12に記載の手術アームシステム。 The holding unit includes the first control section,
The second control unit acquires the rotation angle information of the squint mirror acquired by the first control unit via an image processing unit connected to the camera head, and based on the rotation angle information, 13. The surgical arm system of claim 12 , which controls an articulated arm.
前記斜視鏡を通して撮像される視野内で、前記視野内の観察対象物の位置に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御し、前記視野の中心から前記観察対象物の位置までの距離が長いほど前記回転速度を遅くする、手術アーム制御システム。 A multi-joint arm having a plurality of joints rotatably connected by a plurality of links and capable of supporting a squintoscope at its distal end is controlled, and the multi-joint arm is controlled to change the position and posture of the squintoscope. A surgical arm control system comprising:
Within the field of view imaged through the squinting scope, at least one of the rotational speed and the moving speed of the squinting scope is controlled based on the position of the observation object within the field of view, and the observation object is moved from the center of the field of view. A surgical arm control system , wherein the longer the distance to the position, the slower the rotational speed .
前記斜視鏡を通して撮像される視野内で、前記視野内の観察対象物の位置に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御し、前記観察対象物が前記視野の端に位置する場合は、前記回転速度を0にする、手術アーム制御システム。 controlling at least one of a rotational speed and a moving speed of the oblique mirror based on a position of an observation object within the field of view in a field of view imaged through the oblique scope, and the observation object being positioned at an edge of the field of view; A surgical arm control system that, if positioned, zeroes the rotational speed.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017211783 | 2017-11-01 | ||
JP2017211783 | 2017-11-01 | ||
PCT/JP2018/039539 WO2019087904A1 (en) | 2017-11-01 | 2018-10-24 | Surgical arm system and surgical arm control system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019087904A1 JPWO2019087904A1 (en) | 2020-12-10 |
JP7115493B2 true JP7115493B2 (en) | 2022-08-09 |
Family
ID=66331868
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019551211A Active JP7115493B2 (en) | 2017-11-01 | 2018-10-24 | Surgical arm system and surgical arm control system |
Country Status (5)
Country | Link |
---|---|
US (1) | US11612306B2 (en) |
EP (1) | EP3705018A4 (en) |
JP (1) | JP7115493B2 (en) |
CN (1) | CN111278344B (en) |
WO (1) | WO2019087904A1 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111278344B (en) * | 2017-11-01 | 2023-09-05 | 索尼公司 | Surgical Arm System and Surgical Arm Control System |
JP2020162633A (en) * | 2019-03-28 | 2020-10-08 | ソニー株式会社 | Imaging control device, imaging control method, program and imaging system |
EP3992690A4 (en) * | 2019-08-02 | 2022-09-07 | Sony Group Corporation | Endoscope system, control device, and control method |
CN112754662B (en) * | 2020-12-31 | 2022-07-15 | 北京科迈启元科技有限公司 | Variable-angle RCM (Radar Cross-section) actuating mechanism and surgical device |
CN113311941B (en) * | 2021-05-08 | 2023-11-10 | 南通大学 | Experimental device for biological vision perception mechanism research |
CN113524182B (en) * | 2021-07-13 | 2023-05-16 | 东北石油大学 | Device and method for intelligently adjusting distance between person and screen |
JPWO2023017651A1 (en) * | 2021-08-13 | 2023-02-16 | ||
CN114713421B (en) * | 2022-05-05 | 2023-03-24 | 罗海华 | Control method and system for remote control spraying |
WO2024128212A1 (en) * | 2022-12-15 | 2024-06-20 | 国立大学法人 東京大学 | Information processing device for outputting information based on point-of-gaze, and information processing method and program for outputting information based on point-of-gaze |
WO2024171116A1 (en) * | 2023-02-17 | 2024-08-22 | Revolve Surgical Inc. | Robotically assisted, fulcrum-effect correction devices and methods |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004275203A (en) | 2003-03-12 | 2004-10-07 | Olympus Corp | Endoscope supporting device |
JP2016524487A (en) | 2013-05-09 | 2016-08-18 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Endoscopic robot control from anatomical features |
JP2017093818A (en) | 2015-11-25 | 2017-06-01 | リバーフィールド株式会社 | Image system and fixture |
WO2017163407A1 (en) | 2016-03-25 | 2017-09-28 | 株式会社ニコン | Endoscope device, endoscope system, and surgery system provided with same |
Family Cites Families (93)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3236070B2 (en) * | 1992-06-04 | 2001-12-04 | オリンパス光学工業株式会社 | Scope holding device and scope device |
US5673367A (en) * | 1992-10-01 | 1997-09-30 | Buckley; Theresa M. | Method for neural network control of motion using real-time environmental feedback |
JP3618413B2 (en) | 1995-05-15 | 2005-02-09 | オリンパス株式会社 | Endoscope device |
JP3668269B2 (en) * | 1995-01-10 | 2005-07-06 | オリンパス株式会社 | Intrabody cavity manipulator device |
JP2000051149A (en) * | 1998-08-05 | 2000-02-22 | Techno Sophia:Kk | Linear motor driven-non-blind spot diagnosis and treatment endoscope for colon |
JP4445598B2 (en) * | 1999-03-19 | 2010-04-07 | オリンパス株式会社 | Endoscope visual field control system |
JP4382894B2 (en) | 1998-12-04 | 2009-12-16 | オリンパス株式会社 | Field of view endoscope system |
US9107683B2 (en) * | 1999-09-17 | 2015-08-18 | Intuitive Surgical Operations, Inc. | Systems and methods for cancellation of joint motion using the null-space |
US6471637B1 (en) * | 1999-09-24 | 2002-10-29 | Karl Storz Imaging, Inc. | Image orientation for endoscopic video displays |
US7037258B2 (en) * | 1999-09-24 | 2006-05-02 | Karl Storz Imaging, Inc. | Image orientation for endoscopic video displays |
JP2002024795A (en) * | 2000-07-04 | 2002-01-25 | Sony Corp | Information processing device and method, and recording medium |
JP5319040B2 (en) * | 2000-12-26 | 2013-10-16 | オリンパス株式会社 | Endoscope apparatus and method for operating endoscope apparatus |
JP4647839B2 (en) * | 2001-06-11 | 2011-03-09 | オリンパス株式会社 | Rigid video endoscope system |
US6663559B2 (en) * | 2001-12-14 | 2003-12-16 | Endactive, Inc. | Interface for a variable direction of view endoscope |
JP4171833B2 (en) * | 2002-03-19 | 2008-10-29 | 国立大学法人東京工業大学 | Endoscope guidance device and method |
JP2004173973A (en) * | 2002-11-27 | 2004-06-24 | Azemoto Shiyougo | Method for estimating parameter of projection model for strabismus endoscope |
JP2004173972A (en) * | 2002-11-27 | 2004-06-24 | Azemoto Shiyougo | Image processing system for strabismus endoscope and strabismus endoscopic apparatus with the same |
US7517314B2 (en) * | 2004-10-14 | 2009-04-14 | Karl Storz Development Corp. | Endoscopic imaging with indication of gravity direction |
JP4689291B2 (en) | 2005-02-09 | 2011-05-25 | オリンパス株式会社 | Endoscope apparatus and program for endoscope apparatus |
EP1967126B1 (en) * | 2005-12-28 | 2014-05-21 | Olympus Medical Systems Corp. | Container device |
JP4960112B2 (en) * | 2007-02-01 | 2012-06-27 | オリンパスメディカルシステムズ株式会社 | Endoscopic surgery device |
JP5259167B2 (en) * | 2007-12-06 | 2013-08-07 | オリンパスメディカルシステムズ株式会社 | Light source device and endoscope device |
JP4715863B2 (en) | 2008-05-01 | 2011-07-06 | ソニー株式会社 | Actuator control apparatus, actuator control method, actuator, robot apparatus, and computer program |
CN102123651B (en) * | 2009-01-15 | 2014-02-26 | 奥林巴斯医疗株式会社 | Endoscope system |
WO2010101749A1 (en) * | 2009-03-05 | 2010-09-10 | Massachusetts Institute Of Technology | Predictive semi-autonomous vehicle navigation system |
WO2011122516A1 (en) * | 2010-03-30 | 2011-10-06 | テルモ株式会社 | Medical manipulator system |
JP2011209099A (en) | 2010-03-30 | 2011-10-20 | Sony Corp | Torque sensor and robot apparatus |
DE102010024003A1 (en) * | 2010-06-11 | 2011-12-15 | Karl Storz Gmbh & Co. Kg | endoscope |
CN102090880B (en) * | 2011-01-31 | 2012-09-19 | 广州宝胆医疗器械科技有限公司 | Three-dimensional hard electronic arthroscope system |
US10052157B2 (en) * | 2011-08-21 | 2018-08-21 | M.S.T. Medical Surgery Technologies Ltd | Device and method for assisting laparoscopic surgery—rule based approach |
AU2012301718B2 (en) * | 2011-09-02 | 2017-06-15 | Stryker Corporation | Surgical instrument including a cutting accessory extending from a housing and actuators that establish the position of the cutting accessory relative to the housing |
JP2013236749A (en) * | 2012-05-15 | 2013-11-28 | Denso Corp | Apparatus for supporting dental implantation surgery |
US9220570B2 (en) * | 2012-06-29 | 2015-12-29 | Children's National Medical Center | Automated surgical and interventional procedures |
EP2873362B1 (en) * | 2012-07-10 | 2018-09-19 | Olympus Corporation | Insertion device |
JP5846385B2 (en) * | 2012-11-07 | 2016-01-20 | 国立大学法人東京工業大学 | Endoscope operation system |
DE202014010578U1 (en) * | 2013-01-10 | 2016-01-07 | M.S.T. Medical Surgery Technologies Ltd. | Surgical control system |
KR102087595B1 (en) * | 2013-02-28 | 2020-03-12 | 삼성전자주식회사 | Endoscope system and control method thereof |
US20160299170A1 (en) * | 2013-03-29 | 2016-10-13 | Sony Corporation | Laser scanning observation device and laser scanning method |
JP6656148B2 (en) * | 2013-10-24 | 2020-03-04 | オーリス ヘルス インコーポレイテッド | System and associated method for robot-assisted endoluminal surgery |
JP6091410B2 (en) * | 2013-12-26 | 2017-03-08 | オリンパス株式会社 | Endoscope apparatus operating method and endoscope system |
WO2015121765A1 (en) * | 2014-02-12 | 2015-08-20 | Koninklijke Philips N.V. | Robotic control of surgical instrument visibility |
WO2015129474A1 (en) * | 2014-02-28 | 2015-09-03 | ソニー株式会社 | Robot arm apparatus, robot arm control method, and program |
EP3135445B1 (en) * | 2014-03-28 | 2021-04-28 | Sony Corporation | Robot arm device |
US10743947B2 (en) * | 2014-05-15 | 2020-08-18 | Covidien Lp | Systems and methods for controlling a camera position in a surgical robotic system |
JP6419462B2 (en) * | 2014-06-10 | 2018-11-07 | キヤノンメディカルシステムズ株式会社 | X-ray diagnostic equipment |
JP6519144B2 (en) * | 2014-11-06 | 2019-05-29 | ソニー株式会社 | Endoscope system, image processing apparatus, image processing method, and program |
JP6632204B2 (en) * | 2015-03-13 | 2020-01-22 | キヤノン株式会社 | Driving device, robot device, and article manufacturing method |
WO2016185943A1 (en) * | 2015-05-21 | 2016-11-24 | シャープ株式会社 | Actuator |
WO2017015235A1 (en) * | 2015-07-17 | 2017-01-26 | The Johns Hopkins University | Delta mechanism with enhanced torsional stiffness |
JP6753081B2 (en) * | 2016-03-09 | 2020-09-09 | ソニー株式会社 | Endoscopic surgery system, image processing method and medical observation system |
US10807233B2 (en) * | 2016-07-26 | 2020-10-20 | The University Of Connecticut | Skill transfer from a person to a robot |
CN106361440B (en) * | 2016-08-31 | 2019-07-12 | 北京术锐技术有限公司 | A kind of flexible operation tool system and its control method under kinematic constraint |
JP6514166B2 (en) * | 2016-09-16 | 2019-05-15 | ファナック株式会社 | Machine learning apparatus, robot system and machine learning method for learning robot operation program |
JP2018078463A (en) * | 2016-11-10 | 2018-05-17 | ソニー株式会社 | Image processing apparatus, setting method, and program |
JP2018075674A (en) * | 2016-11-10 | 2018-05-17 | ソニー株式会社 | Joint driving actuator |
JP2018075218A (en) * | 2016-11-10 | 2018-05-17 | ソニー株式会社 | Medical support arm and medical system |
EP3590406A4 (en) | 2017-02-28 | 2020-04-01 | Sony Corporation | Medical observation system, control device, and control method |
US20190365489A1 (en) * | 2017-02-28 | 2019-12-05 | Sony Corporation | Medical support arm system and control device |
US11696814B2 (en) * | 2017-02-28 | 2023-07-11 | Sony Corporation | Medical arm system, control device, and control method |
DE112018001058B4 (en) * | 2017-02-28 | 2020-12-03 | Sony Corporation | MEDICAL ARM SYSTEM AND CONTROL DEVICE |
US10904437B2 (en) * | 2017-03-16 | 2021-01-26 | Sony Corporation | Control apparatus and control method |
JP7146735B2 (en) * | 2017-03-29 | 2022-10-04 | ソニー・オリンパスメディカルソリューションズ株式会社 | Control device, external equipment, medical observation system, control method, display method and program |
JP2018198750A (en) * | 2017-05-26 | 2018-12-20 | ソニー株式会社 | Medical system, control device for medical support arm, and control method for medical support arm |
US11344180B2 (en) * | 2017-06-15 | 2022-05-31 | Children's National Medical Center | System, apparatus, and method for calibrating oblique-viewing rigid endoscope |
WO2019012817A1 (en) * | 2017-07-14 | 2019-01-17 | ソニー株式会社 | Image processing device, image processing method for image processing device, and program |
CN110913744B (en) * | 2017-07-19 | 2023-07-11 | 索尼公司 | Surgical system, control method, surgical device, and program |
WO2019044328A1 (en) * | 2017-08-31 | 2019-03-07 | ソニー株式会社 | Medical image processing device, medical image processing system, and driving method of medical image processing device |
WO2019087934A1 (en) * | 2017-11-01 | 2019-05-09 | Sony Corporation | Medical holding apparatus, medical arm system, and drape mounting mechanism |
JP7159579B2 (en) * | 2017-11-01 | 2022-10-25 | ソニーグループ株式会社 | Medical holding device and medical arm system |
CN111278344B (en) * | 2017-11-01 | 2023-09-05 | 索尼公司 | Surgical Arm System and Surgical Arm Control System |
JPWO2019092950A1 (en) * | 2017-11-13 | 2020-11-12 | ソニー株式会社 | Image processing equipment, image processing method and image processing system |
US20210030510A1 (en) * | 2018-02-09 | 2021-02-04 | Sony Corporation | Surgery system, image processor, and image processing method |
JP7151109B2 (en) * | 2018-03-19 | 2022-10-12 | ソニーグループ株式会社 | Medical imaging device and medical observation system |
JP2021097720A (en) * | 2018-03-20 | 2021-07-01 | ソニーグループ株式会社 | Endoscope and arm system |
JP7363767B2 (en) * | 2018-03-29 | 2023-10-18 | ソニーグループ株式会社 | Image processing device, image processing method, and program |
KR20210005682A (en) * | 2018-04-26 | 2021-01-14 | 데카 프로덕츠 리미티드 파트너쉽 | Endoscope with rotatable camera and related methods |
JPWO2019239942A1 (en) * | 2018-06-15 | 2021-07-01 | ソニーグループ株式会社 | Surgical observation device, surgical observation method, surgical light source device, and surgical light irradiation method |
US20210321887A1 (en) * | 2018-08-28 | 2021-10-21 | Sony Corporation | Medical system, information processing apparatus, and information processing method |
JPWO2020045014A1 (en) * | 2018-08-28 | 2021-08-12 | ソニーグループ株式会社 | Medical system, information processing device and information processing method |
WO2020075773A1 (en) * | 2018-10-12 | 2020-04-16 | Sony Corporation | A system, method and computer program for verifying features of a scene |
JP2020071270A (en) * | 2018-10-29 | 2020-05-07 | ソニー株式会社 | Image capturing lens and image capturing device |
US20220022728A1 (en) * | 2018-12-04 | 2022-01-27 | Sony Group Corporation | Medical system, information processing device, and information processing method |
US11653119B2 (en) * | 2019-03-14 | 2023-05-16 | Sony Semiconductor Solution Corporation | Solid-state image sensor and imaging device |
JP2020156800A (en) * | 2019-03-27 | 2020-10-01 | ソニー株式会社 | Medical arm system, control device and control method |
WO2020203167A1 (en) * | 2019-03-29 | 2020-10-08 | ソニー株式会社 | Image processing device, image processing method, and program |
WO2020213296A1 (en) * | 2019-04-19 | 2020-10-22 | ソニー株式会社 | Signal processing device, signal processing method, program and directivity changing system |
JP7480477B2 (en) * | 2019-07-10 | 2024-05-10 | ソニーグループ株式会社 | Medical observation system, control device and control method |
EP3992690A4 (en) * | 2019-08-02 | 2022-09-07 | Sony Group Corporation | Endoscope system, control device, and control method |
JP2021040988A (en) * | 2019-09-12 | 2021-03-18 | ソニー株式会社 | Medical support arm and medical system |
JP2021040987A (en) * | 2019-09-12 | 2021-03-18 | ソニー株式会社 | Medical support arm and medical system |
JP7385731B2 (en) * | 2020-02-27 | 2023-11-22 | オリンパス株式会社 | Endoscope system, image processing device operating method, and endoscope |
JP2022020592A (en) * | 2020-07-20 | 2022-02-01 | ソニーグループ株式会社 | Medical arm control system, medical arm control method, and program |
JP2022045236A (en) * | 2020-09-08 | 2022-03-18 | ソニーグループ株式会社 | Medical imaging device, learning model generation method, and learning model generation program |
-
2018
- 2018-10-24 CN CN201880069629.8A patent/CN111278344B/en active Active
- 2018-10-24 JP JP2019551211A patent/JP7115493B2/en active Active
- 2018-10-24 US US16/758,864 patent/US11612306B2/en active Active
- 2018-10-24 EP EP18874625.9A patent/EP3705018A4/en active Pending
- 2018-10-24 WO PCT/JP2018/039539 patent/WO2019087904A1/en unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004275203A (en) | 2003-03-12 | 2004-10-07 | Olympus Corp | Endoscope supporting device |
JP2016524487A (en) | 2013-05-09 | 2016-08-18 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Endoscopic robot control from anatomical features |
JP2017093818A (en) | 2015-11-25 | 2017-06-01 | リバーフィールド株式会社 | Image system and fixture |
WO2017163407A1 (en) | 2016-03-25 | 2017-09-28 | 株式会社ニコン | Endoscope device, endoscope system, and surgery system provided with same |
Also Published As
Publication number | Publication date |
---|---|
WO2019087904A1 (en) | 2019-05-09 |
US11612306B2 (en) | 2023-03-28 |
JPWO2019087904A1 (en) | 2020-12-10 |
CN111278344B (en) | 2023-09-05 |
CN111278344A (en) | 2020-06-12 |
US20210369351A1 (en) | 2021-12-02 |
EP3705018A1 (en) | 2020-09-09 |
EP3705018A4 (en) | 2020-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7115493B2 (en) | Surgical arm system and surgical arm control system | |
JP7003985B2 (en) | Medical support arm system and control device | |
CN110325093B (en) | Medical arm system, control device, and control method | |
WO2020196338A1 (en) | Medical arm system, control device, and control method | |
JP7480477B2 (en) | Medical observation system, control device and control method | |
WO2017145475A1 (en) | Information processing device for medical use, information processing method, information processing system for medical use | |
US11540700B2 (en) | Medical supporting arm and medical system | |
WO2021049438A1 (en) | Medical support arm and medical system | |
JP2019084334A (en) | Medical holding apparatus, medical arm system, and drape mounting mechanism | |
WO2018088113A1 (en) | Joint driving actuator and medical system | |
JP2020074926A (en) | Medical observation system, signal processing device and medical observation method | |
CN113905652A (en) | Medical observation system, control device, and control method | |
WO2021049220A1 (en) | Medical support arm and medical system | |
JP7544033B2 (en) | Medical system, information processing device, and information processing method | |
WO2022269992A1 (en) | Medical observation system, information processing device, and information processing method | |
WO2023176133A1 (en) | Endoscope holding device, endoscopic surgery system, and control method | |
WO2020050187A1 (en) | Medical system, information processing device, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220614 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220711 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7115493 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |