JP7115493B2 - Surgical arm system and surgical arm control system - Google Patents

Surgical arm system and surgical arm control system Download PDF

Info

Publication number
JP7115493B2
JP7115493B2 JP2019551211A JP2019551211A JP7115493B2 JP 7115493 B2 JP7115493 B2 JP 7115493B2 JP 2019551211 A JP2019551211 A JP 2019551211A JP 2019551211 A JP2019551211 A JP 2019551211A JP 7115493 B2 JP7115493 B2 JP 7115493B2
Authority
JP
Japan
Prior art keywords
arm
oblique
field
view
control system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019551211A
Other languages
Japanese (ja)
Other versions
JPWO2019087904A1 (en
Inventor
容平 黒田
淳 新井
優 薄井
毅 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2019087904A1 publication Critical patent/JPWO2019087904A1/en
Application granted granted Critical
Publication of JP7115493B2 publication Critical patent/JP7115493B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/0016Holding or positioning arrangements using motor drive units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00174Optical arrangements characterised by the viewing angles
    • A61B1/00179Optical arrangements characterised by the viewing angles for off-axis viewing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Mechanical Engineering (AREA)
  • Astronomy & Astrophysics (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Microscoopes, Condenser (AREA)

Description

本開示は、斜視鏡の制御装置及び医療用システムに関する。 The present disclosure relates to strabismus control devices and medical systems.

従来、例えば下記の特許文献1には、作業時に違和感のないように、内視鏡画像の上下左右方向と作業者の上下左右操作方向とが一致する内視鏡画像をモニタに表示可能とすることを想定した技術が記載されている。 Conventionally, for example, in Patent Document 1 below, it is possible to display an endoscopic image on a monitor in which the up, down, left, and right directions of the endoscopic image match the operator's up, down, left, and right operation directions so as not to cause discomfort during work. A technique that assumes this is described.

特開2006-218027号公報JP 2006-218027 A

近時においては、人体内部に挿入される硬性鏡として、斜視鏡が用いられるようになっている。しかし、斜視鏡による斜視回転はスコープ軸に対して回るため、単純な水平方向または上下方向の移動に比べて回転後の視野が直感的にわかりにくいという問題がある。そのため、斜視回転によって観察対象物が画面の視野外に出てしまったり、視野に映っていた器具を見失うなどの問題が発生していた。 In recent years, strabismus scopes have been used as rigid scopes to be inserted into the human body. However, since oblique rotation by the oblique scope rotates around the scope axis, there is a problem that the field of view after rotation is less intuitive than simple horizontal or vertical movement. As a result, oblique rotation causes problems such as the object to be observed moving out of the field of view of the screen, or losing sight of the instrument in the field of view.

そこで、観察対象物をモニタ画像の視野から見失わないようにすることが求められていた。 Therefore, it has been demanded not to lose sight of the observed object from the field of view of the monitor image.

本開示によれば、複数の関節部が複数のリンクにより回動可能に連結され、先端に斜視鏡を支持可能な多関節アームと、前記斜視鏡の位置及び姿勢を変更するように前記多関節アームを制御する制御システムと、を備え、前記制御システムは、前記斜視鏡を通して撮像される視野内で、前記視野内の前記観察対象物の位置に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御する、手術アームシステムが提供される。 According to the present disclosure, a multi-joint arm having a plurality of joints rotatably connected by a plurality of links and capable of supporting a squintoscope at its distal end; a control system for controlling an arm, wherein the control system controls the speed of rotation or the speed of movement of the strabismus within a field of view imaged through the strabismus based on the position of the observed object within the field of view; A surgical arm system is provided that controls at least one of the

また、本開示によれば、複数の関節部が複数のリンクにより回動可能に連結され、先端に斜視鏡を支持可能な多関節アームを制御し、前記斜視鏡の位置及び姿勢を変更するように前記多関節アームを制御する手術アーム制御システムであって、前記斜視鏡を通して撮像される視野内で、前記視野内の前記観察対象物の位置に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御する、手術アーム制御システムが提供される。 Further, according to the present disclosure, a multi-joint arm having a plurality of joints rotatably connected by a plurality of links and capable of supporting a squintoscope at its distal end is controlled to change the position and posture of the squintoscope. a surgical arm control system for controlling the articulated arm in a field of view imaged through the squintoscope, based on the position of the observed object within the field of view, the speed of rotation or the speed of movement of the squintoscope A surgical arm control system is provided for controlling at least one of the

本開示によれば、観察対象物をモニタ画像の視野から見失わないようにすることが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
According to the present disclosure, it is possible to prevent the observation target from being lost from the field of view of the monitor image.
In addition, the above effects are not necessarily limited, and in addition to the above effects or instead of the above effects, any of the effects shown in this specification, or other effects that can be grasped from this specification may be played.

本開示に係る医療用支持アーム装置を適用可能な内視鏡手術システムの概略的な構成の一例を示す図である。1 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which a medical support arm device according to the present disclosure can be applied; FIG. 図1に示すカメラヘッド及びCCUの機能構成の一例を示すブロック図である。2 is a block diagram showing an example of functional configurations of a camera head and a CCU shown in FIG. 1; FIG. 本開示の実施の形態に係る医療用支持アーム装置の構成例を示す斜視図である。1 is a perspective view showing a configuration example of a medical support arm device according to an embodiment of the present disclosure; FIG. 医療支持アーム装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a medical support arm apparatus. 斜視鏡100の外観を示す模式図である。1 is a schematic diagram showing the appearance of a perspective mirror 100. FIG. 斜視回転によって視野200が変わる様子を示す模式図である。FIG. 10 is a schematic diagram showing how the field of view 200 changes due to oblique rotation. 斜視回転によってモニタに映し出される視野が変化する様子を示す模式図である。FIG. 10 is a schematic diagram showing how a field of view displayed on a monitor changes due to oblique rotation; 視野200の中心から観察対象物210までの距離を算出する手法を示す模式図である。FIG. 4 is a schematic diagram showing a method of calculating the distance from the center of the field of view 200 to the observed object 210; 画面内の被写体位置に応じて斜視回転の速度を規定するマップの例を示す模式図である。FIG. 10 is a schematic diagram showing an example of a map that defines the oblique rotation speed according to the subject position within the screen; 画面中央Oから観察対象物210までの距離(横軸)と、斜視回転速度(縦軸)との関係を示す特性図である。FIG. 10 is a characteristic diagram showing the relationship between the distance (horizontal axis) from the screen center O to the observed object 210 and the oblique rotation speed (vertical axis). 斜視鏡100の斜視回転により対物光学系の光軸の向きが変化する様子を示す模式図である。4 is a schematic diagram showing how the direction of the optical axis of the objective optical system changes due to oblique rotation of the oblique mirror 100. FIG. トロッカ点中心の光学軸の回転やそれに近い動きを与えることで、XY方向の移動を行った場合を示す模式図である。FIG. 10 is a schematic diagram showing a case where movement in the XY directions is performed by giving rotation of the optical axis centered on the trocar point or a movement close thereto. Y方向の移動の例を示しており、Y方向の動きとともに、斜視回転を行う場合を示す模式図である。It is a schematic diagram showing an example of movement in the Y direction, and showing a case where oblique rotation is performed along with the movement in the Y direction. 拘束点300を中心とした回転の例を示す模式図である。FIG. 4 is a schematic diagram showing an example of rotation about a constraint point 300; 観察対象物を画面中央に移動させるアームの制御を説明するための図である。FIG. 4 is a diagram for explaining control of an arm that moves an observation target to the center of the screen; 観察対象物を画面中央に移動させるアームの制御を説明するための図である。FIG. 4 is a diagram for explaining control of an arm that moves an observation target to the center of the screen; 観察対象物を画面中央に移動させる制御処理の概要を説明するための図である。FIG. 10 is a diagram for explaining an overview of control processing for moving an observation target to the center of the screen; 目標計算処理の流れの一例を示すフローチャートである。4 is a flowchart showing an example of the flow of target calculation processing; 目標位置計算を説明するための図である。FIG. 4 is a diagram for explaining target position calculation; 本実施形態による斜視鏡の制御により、斜視を左に向けた場合の具体例を説明するための模式図である。FIG. 10 is a schematic diagram for explaining a specific example when the squint is turned to the left by controlling the squint mirror according to the present embodiment; 本実施形態による斜視鏡の制御により、斜視を左に向けた場合の具体例を説明するための模式図である。FIG. 10 is a schematic diagram for explaining a specific example when the squint is turned to the left by controlling the squint mirror according to the present embodiment; 本実施形態による斜視鏡の制御により、斜視を左に向けた場合の具体例を説明するための模式図である。FIG. 10 is a schematic diagram for explaining a specific example when the squint is turned to the left by controlling the squint mirror according to the present embodiment; 本実施形態による斜視鏡の制御により、斜視を左に向けた場合の具体例を説明するための模式図である。FIG. 10 is a schematic diagram for explaining a specific example when the squint is turned to the left by controlling the squint mirror according to the present embodiment; 斜視回転動作と追従動作を行うための支持アーム装置の制御部の構成を示す模式図である。FIG. 4 is a schematic diagram showing the configuration of a control unit of a support arm device for performing oblique rotation and follow-up operations; 図3に示した構成例において、アーム部の先端に斜視鏡の回転とカメラヘッドの回転を独立して制御する保持ユニットが設けられた構成を示す模式図である。FIG. 4 is a schematic diagram showing a configuration in which a holding unit for independently controlling rotation of the oblique mirror and rotation of the camera head is provided at the tip of the arm in the configuration example shown in FIG. 3 ; 図22に示す構成例における、アーム部及び制御装置を含む支持アーム装置と、内視鏡ユニット、CCUの構成を示す模式図である。FIG. 23 is a schematic diagram showing configurations of a support arm device including an arm section and a control device, an endoscope unit, and a CCU in the configuration example shown in FIG. 22; 図22及び図23に示す構成において、処理の流れを示すシーケンス図である。FIG. 24 is a sequence diagram showing the flow of processing in the configurations shown in FIGS. 22 and 23; FIG.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and drawings, constituent elements having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description.

なお、説明は以下の順序で行うものとする。
1.基本構成
1.1.内視鏡システムの構成例
1.2.医療用支持アーム装置の具体的構成例
1.3.制御装置の構成例
2.斜視鏡による斜視回転動作と観察対象物への追従動作
2.1.斜視鏡の回転動作
2.2.視野の中心からの距離に応じた斜視回転速度の変更
2.3.観察対象物への追従動作
2.4.斜視回転動作と追従動作のための制御部の構成例
2.5.追従動作の詳細
2.6.追従動作の具体例
3.斜視鏡の回転を独立して制御する保持ユニットを設けた例
4.まとめ
In addition, description shall be performed in the following order.
1. Basic configuration 1.1. Configuration example of endoscope system 1.2. Concrete Configuration Example of Medical Support Arm Device 1.3. Configuration example of control device 2 . Oblique Rotation Operation and Observation Observation Observation Operation by Observation Mirror 2.1. Rotational movement of oblique scope 2.2. Change in oblique rotation speed according to the distance from the center of the visual field 2.3. Follow-up operation to observed object 2.4. Configuration example of control unit for oblique rotation motion and follow-up motion 2.5. Details of tracking operation 2.6. Concrete example of follow-up operation3. 4. An example in which a holding unit is provided to independently control the rotation of the squint scope; summary

<<1.基本構成>>
まず、図1~図4を参照して、本開示の一実施形態に係る内視鏡システムの基本構成を説明する。
<<1. Basic configuration>>
First, the basic configuration of an endoscope system according to an embodiment of the present disclosure will be described with reference to FIGS. 1 to 4. FIG.

<1.1.内視鏡システムの構成例>
図1は、本開示に係る技術が適用され得る内視鏡手術システム5000の概略的な構成の一例を示す図である。図1では、術者(医師)5067が、内視鏡手術システム5000を用いて、患者ベッド5069上の患者5071に手術を行っている様子が図示されている。図示するように、内視鏡手術システム5000は、内視鏡5001と、その他の術具5017と、内視鏡5001を支持する支持アーム装置5027と、内視鏡下手術のための各種の装置が搭載されたカート5037と、から構成される。
<1.1. Configuration example of endoscope system>
FIG. 1 is a diagram showing an example of a schematic configuration of an endoscopic surgery system 5000 to which technology according to the present disclosure can be applied. FIG. 1 shows an operator (doctor) 5067 performing surgery on a patient 5071 on a patient bed 5069 using an endoscopic surgery system 5000 . As illustrated, the endoscopic surgery system 5000 includes an endoscope 5001, other surgical tools 5017, a support arm device 5027 for supporting the endoscope 5001, and various devices for endoscopic surgery. and a cart 5037 on which is mounted.

内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ5025a~5025dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5025a~5025dから、内視鏡5001の鏡筒5003や、その他の術具5017が患者5071の体腔内に挿入される。図示する例では、その他の術具5017として、気腹チューブ5019、エネルギー処置具5021及び鉗子5023が、患者5071の体腔内に挿入されている。また、エネルギー処置具5021は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具5017はあくまで一例であり、術具5017としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。 In endoscopic surgery, instead of cutting the abdominal wall and laparotomy, tubular piercing instruments called trocars 5025a to 5025d are punctured into the abdominal wall multiple times. Then, the barrel 5003 of the endoscope 5001 and other surgical instruments 5017 are inserted into the body cavity of the patient 5071 from the trocars 5025a to 5025d. In the illustrated example, a pneumoperitoneum tube 5019 , an energy treatment instrument 5021 and forceps 5023 are inserted into the patient's 5071 body cavity as other surgical instruments 5017 . Also, the energy treatment tool 5021 is a treatment tool that performs tissue incision and ablation, blood vessel sealing, or the like, using high-frequency current or ultrasonic vibration. However, the illustrated surgical tool 5017 is merely an example, and various surgical tools generally used in endoscopic surgery, such as a forceps and a retractor, may be used as the surgical tool 5017 .

内視鏡5001によって撮影された患者5071の体腔内の術部の画像が、表示装置5041に表示される。術者5067は、表示装置5041に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5021や鉗子5023を用いて、例えば患部を切除する等の処置を行う。なお、図示は省略しているが、気腹チューブ5019、エネルギー処置具5021及び鉗子5023は、手術中に、術者5067又は助手等によって支持される。 A display device 5041 displays an image of a surgical site in a body cavity of a patient 5071 photographed by the endoscope 5001 . The operator 5067 uses the energy treatment tool 5021 and the forceps 5023 to perform treatment such as excision of the affected area while viewing the image of the operated area displayed on the display device 5041 in real time. Although not shown, the pneumoperitoneum tube 5019, the energy treatment instrument 5021, and the forceps 5023 are supported by the operator 5067, an assistant, or the like during surgery.

(支持アーム装置)
支持アーム装置5027は、ベース部5029から延伸するアーム部5031を備える。図示する例では、アーム部5031は、関節部5033a、5033b、5033c、及びリンク5035a、5035bから構成されており、アーム制御装置5045からの制御により駆動される。アーム部5031によって内視鏡5001が支持され、その位置及び姿勢が制御される。これにより、内視鏡5001の安定的な位置の固定が実現され得る。
(support arm device)
The support arm device 5027 has an arm portion 5031 extending from the base portion 5029 . In the illustrated example, the arm portion 5031 is composed of joint portions 5033a, 5033b, 5033c and links 5035a, 5035b, and is driven under the control of the arm control device 5045. The arm 5031 supports the endoscope 5001 and controls its position and orientation. As a result, stable position fixation of the endoscope 5001 can be achieved.

(内視鏡)
内視鏡5001は、先端から所定の長さの領域が患者5071の体腔内に挿入される鏡筒5003と、鏡筒5003の基端に接続されるカメラヘッド5005と、から構成される。図示する例では、硬性の鏡筒5003を有するいわゆる硬性鏡として構成される内視鏡5001を図示しているが、内視鏡5001は、軟性の鏡筒5003を有するいわゆる軟性鏡として構成されてもよい。
(Endoscope)
The endoscope 5001 is composed of a lens barrel 5003 having a predetermined length from its distal end inserted into a body cavity of a patient 5071 and a camera head 5005 connected to the proximal end of the lens barrel 5003 . In the illustrated example, an endoscope 5001 configured as a so-called rigid scope having a rigid barrel 5003 is illustrated, but the endoscope 5001 is configured as a so-called flexible scope having a flexible barrel 5003. good too.

鏡筒5003の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡5001には光源装置5043が接続されており、当該光源装置5043によって生成された光が、鏡筒5003の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者5071の体腔内の観察対象に向かって照射される。なお、内視鏡5001は、斜視鏡であるものとする。 The tip of the lens barrel 5003 is provided with an opening into which an objective lens is fitted. A light source device 5043 is connected to the endoscope 5001, and light generated by the light source device 5043 is guided to the tip of the lens barrel 5003 by a light guide extending inside the lens barrel 5003, and reaches the objective. The light is irradiated through the lens toward an observation target within the body cavity of the patient 5071 . Note that the endoscope 5001 is assumed to be a perspective scope.

カメラヘッド5005の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5039に送信される。なお、カメラヘッド5005には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。 An optical system and an imaging element are provided inside the camera head 5005, and reflected light (observation light) from an observation target is converged on the imaging element by the optical system. The imaging device photoelectrically converts the observation light to generate an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image. The image signal is transmitted to a camera control unit (CCU: Camera Control Unit) 5039 as RAW data. The camera head 5005 has a function of adjusting the magnification and focal length by appropriately driving the optical system.

なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5005には撮像素子が複数設けられてもよい。この場合、鏡筒5003の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。 Note that the camera head 5005 may be provided with a plurality of imaging elements, for example, in order to support stereoscopic viewing (3D display). In this case, a plurality of relay optical systems are provided inside the lens barrel 5003 to guide the observation light to each of the plurality of imaging elements.

(カートに搭載される各種の装置)
CCU5039は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5001及び表示装置5041の動作を統括的に制御する。具体的には、CCU5039は、カメラヘッド5005から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5039は、当該画像処理を施した画像信号を表示装置5041に提供する。また、CCU5039は、カメラヘッド5005に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
(various devices mounted on the cart)
The CCU 5039 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the operations of the endoscope 5001 and the display device 5041 in an integrated manner. Specifically, the CCU 5039 subjects the image signal received from the camera head 5005 to various image processing such as development processing (demosaicing) for displaying an image based on the image signal. The CCU 5039 provides the image signal subjected to the image processing to the display device 5041 . Also, the CCU 5039 transmits a control signal to the camera head 5005 to control its driving. The control signal may include information regarding imaging conditions such as magnification and focal length.

表示装置5041は、CCU5039からの制御により、当該CCU5039によって画像処理が施された画像信号に基づく画像を表示する。内視鏡5001が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置5041としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置5041として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5041が設けられてもよい。 The display device 5041 displays an image based on an image signal subjected to image processing by the CCU 5039 under the control of the CCU 5039 . When the endoscope 5001 is compatible with high-resolution imaging such as 4K (horizontal pixel number 3840×vertical pixel number 2160) or 8K (horizontal pixel number 7680×vertical pixel number 4320), and/or 3D display , the display device 5041 may be one capable of high-resolution display and/or one capable of 3D display. In the case of 4K or 8K high-resolution imaging, using a display device 5041 with a size of 55 inches or more provides a more immersive feeling. Also, a plurality of display devices 5041 having different resolutions and sizes may be provided depending on the application.

光源装置5043は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡5001に供給する。 The light source device 5043 is composed of a light source such as an LED (light emitting diode), for example, and supplies the endoscope 5001 with irradiation light for imaging the surgical site.

アーム制御装置5045は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5027のアーム部5031の駆動を制御する。 The arm control device 5045 is configured by a processor such as a CPU, for example, and operates according to a predetermined program to control driving of the arm portion 5031 of the support arm device 5027 according to a predetermined control method.

入力装置5047は、内視鏡手術システム5000に対する入力インタフェースである。ユーザは、入力装置5047を介して、内視鏡手術システム5000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置5047を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置5047を介して、アーム部5031を駆動させる旨の指示や、内視鏡5001による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5021を駆動させる旨の指示等を入力する。 The input device 5047 is an input interface for the endoscopic surgery system 5000. FIG. The user can input various information and instructions to the endoscopic surgery system 5000 via the input device 5047 . For example, through the input device 5047, the user inputs various types of information regarding surgery, such as patient's physical information and information about the surgical technique. Further, for example, the user, via the input device 5047, instructs to drive the arm unit 5031, or instructs to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 5001. , an instruction to drive the energy treatment instrument 5021, or the like.

入力装置5047の種類は限定されず、入力装置5047は各種の公知の入力装置であってよい。入力装置5047としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5057及び/又はレバー等が適用され得る。入力装置5047としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5041の表示面上に設けられてもよい。 The type of the input device 5047 is not limited, and the input device 5047 may be various known input devices. As the input device 5047, for example, a mouse, keyboard, touch panel, switch, footswitch 5057 and/or lever can be applied. When a touch panel is used as the input device 5047 , the touch panel may be provided on the display surface of the display device 5041 .

あるいは、入力装置5047は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置5047は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。更に、入力装置5047は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置5047が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者5067)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。 Alternatively, the input device 5047 is a device worn by the user, such as a glasses-type wearable device or an HMD (Head Mounted Display). is done. Also, the input device 5047 includes a camera capable of detecting the movement of the user, and performs various inputs according to the user's gestures and line of sight detected from images captured by the camera. Furthermore, the input device 5047 includes a microphone capable of picking up the user's voice, and various voice inputs are performed via the microphone. As described above, the input device 5047 is configured to be capable of inputting various kinds of information in a non-contact manner, so that a user belonging to a clean area (for example, an operator 5067) can operate a device belonging to an unclean area without contact. becomes possible. In addition, since the user can operate the device without taking his/her hands off the surgical tool, the user's convenience is improved.

処置具制御装置5049は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5021の駆動を制御する。気腹装置5051は、内視鏡5001による視野の確保及び術者の作業空間の確保の目的で、患者5071の体腔を膨らめるために、気腹チューブ5019を介して当該体腔内にガスを送り込む。レコーダ5053は、手術に関する各種の情報を記録可能な装置である。プリンタ5055は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。 The treatment instrument control device 5049 controls driving of the energy treatment instrument 5021 for tissue cauterization, incision, blood vessel sealing, or the like. The pneumoperitoneum device 5051 inflates the body cavity of the patient 5071 for the purpose of securing the visual field of the endoscope 5001 and securing the operator's working space, and injects gas into the body cavity through the pneumoperitoneum tube 5019 . send in. The recorder 5053 is a device capable of recording various types of information regarding surgery. The printer 5055 is a device capable of printing various types of information regarding surgery in various formats such as text, images, and graphs.

以下、内視鏡手術システム5000において特に特徴的な構成について、更に詳細に説明する。 A particularly characteristic configuration of the endoscopic surgery system 5000 will be described in more detail below.

(支持アーム装置)
支持アーム装置5027は、基台であるベース部5029と、ベース部5029から延伸するアーム部5031と、を備える。図示する例では、アーム部5031は、複数の関節部5033a、5033b、5033cと、関節部5033bによって連結される複数のリンク5035a、5035bと、から構成されているが、図1では、簡単のため、アーム部5031の構成を簡略化して図示している。実際には、アーム部5031が所望の自由度を有するように、関節部5033a~5033c及びリンク5035a、5035bの形状、数及び配置、並びに関節部5033a~5033cの回転軸の方向等が適宜設定され得る。例えば、アーム部5031は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5031の可動範囲内において内視鏡5001を自由に移動させることが可能になるため、所望の方向から内視鏡5001の鏡筒5003を患者5071の体腔内に挿入することが可能になる。
(support arm device)
The support arm device 5027 includes a base portion 5029 as a base and an arm portion 5031 extending from the base portion 5029 . In the illustrated example, the arm portion 5031 is composed of a plurality of joint portions 5033a, 5033b, 5033c and a plurality of links 5035a, 5035b connected by the joint portion 5033b. , the configuration of the arm portion 5031 is simplified. In practice, the shape, number and arrangement of the joints 5033a to 5033c and the links 5035a and 5035b, the directions of the rotation axes of the joints 5033a to 5033c, and the like are appropriately set so that the arm 5031 has a desired degree of freedom. obtain. For example, the arm portion 5031 may preferably be configured to have 6 or more degrees of freedom. As a result, the endoscope 5001 can be freely moved within the movable range of the arm portion 5031, so that the barrel 5003 of the endoscope 5001 can be inserted into the body cavity of the patient 5071 from a desired direction. be possible.

関節部5033a~5033cにはアクチュエータが設けられており、関節部5033a~5033cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5045によって制御されることにより、各関節部5033a~5033cの回転角度が制御され、アーム部5031の駆動が制御される。これにより、内視鏡5001の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5045は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5031の駆動を制御することができる。 The joints 5033a to 5033c are provided with actuators, and the joints 5033a to 5033c are configured to be rotatable around a predetermined rotation axis by driving the actuators. By controlling the driving of the actuator by the arm control device 5045, the rotation angles of the joints 5033a to 5033c are controlled, and the driving of the arm 5031 is controlled. Thereby, control of the position and attitude of the endoscope 5001 can be achieved. At this time, the arm control device 5045 can control the driving of the arm section 5031 by various known control methods such as force control or position control.

例えば、術者5067が、入力装置5047(フットスイッチ5057を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5045によってアーム部5031の駆動が適宜制御され、内視鏡5001の位置及び姿勢が制御されてよい。当該制御により、アーム部5031の先端の内視鏡5001を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部5031は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5031は、手術室から離れた場所に設置される入力装置5047を介してユーザによって遠隔操作され得る。 For example, when the operator 5067 appropriately performs an operation input via the input device 5047 (including the foot switch 5057), the arm control device 5045 appropriately controls the driving of the arm section 5031 in accordance with the operation input. The position and orientation of the scope 5001 may be controlled. With this control, the endoscope 5001 at the distal end of the arm section 5031 can be moved from an arbitrary position to an arbitrary position, and then fixedly supported at the position after the movement. Note that the arm portion 5031 may be operated by a so-called master-slave method. In this case, the arm portion 5031 can be remotely operated by the user via an input device 5047 installed at a location remote from the operating room.

また、力制御が適用される場合には、アーム制御装置5045は、ユーザからの外力を受け、その外力にならってスムーズにアーム部5031が移動するように、各関節部5033a~5033cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部5031に触れながらアーム部5031を移動させる際に、比較的軽い力で当該アーム部5031を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡5001を移動させることが可能となり、ユーザの利便性を向上させることができる。 When force control is applied, the arm control device 5045 receives an external force from the user and operates the actuators of the joints 5033a to 5033c so that the arm 5031 moves smoothly according to the external force. A so-called power assist control for driving may be performed. Accordingly, when the user moves the arm portion 5031 while directly touching the arm portion 5031, the arm portion 5031 can be moved with a relatively light force. Therefore, it becomes possible to move the endoscope 5001 more intuitively and with a simpler operation, and the user's convenience can be improved.

ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡5001が支持されていた。これに対して、支持アーム装置5027を用いることにより、人手によらずに内視鏡5001の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。 Here, generally, in endoscopic surgery, the endoscope 5001 is supported by a doctor called a scopist. On the other hand, the use of the support arm device 5027 makes it possible to more reliably fix the position of the endoscope 5001 without manual intervention, so that an image of the surgical site can be stably obtained. , the operation can be performed smoothly.

なお、アーム制御装置5045は必ずしもカート5037に設けられなくてもよい。また、アーム制御装置5045は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5045は、支持アーム装置5027のアーム部5031の各関節部5033a~5033cにそれぞれ設けられてもよく、複数のアーム制御装置5045が互いに協働することにより、アーム部5031の駆動制御が実現されてもよい。 Note that the arm control device 5045 does not necessarily have to be provided on the cart 5037 . Also, the arm control device 5045 does not necessarily have to be one device. For example, the arm control device 5045 may be provided in each of the joints 5033a to 5033c of the arm portion 5031 of the support arm device 5027, and the arm portion 5031 is driven by a plurality of arm control devices 5045 cooperating with each other. Control may be implemented.

(光源装置)
光源装置5043は、内視鏡5001に術部を撮影する際の照射光を供給する。光源装置5043は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5043において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5005の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
(light source device)
The light source device 5043 supplies irradiation light to the endoscope 5001 when imaging the surgical site. The light source device 5043 is composed of, for example, a white light source composed of an LED, a laser light source, or a combination thereof. At this time, when a white light source is configured by a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high precision. can be adjusted. In this case, the observation target is irradiated with laser light from each of the RGB laser light sources in a time division manner, and by controlling the drive of the imaging device of the camera head 5005 in synchronization with the irradiation timing, each of the RGB can be handled. It is also possible to pick up images by time division. According to this method, a color image can be obtained without providing a color filter in the imaging device.

また、光源装置5043は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5005の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。 Further, the driving of the light source device 5043 may be controlled so as to change the intensity of the output light every predetermined time. By controlling the drive of the imaging device of the camera head 5005 in synchronism with the timing of the change in the intensity of the light to acquire images in a time division manner and synthesizing the images, a high dynamic A range of images can be generated.

また、光源装置5043は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5043は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。 Also, the light source device 5043 may be configured to be capable of supplying light in a predetermined wavelength band corresponding to special light observation. In special light observation, for example, the wavelength dependence of light absorption in body tissues is used to irradiate a narrower band of light than the irradiation light (i.e., white light) used during normal observation, thereby observing the mucosal surface layer. So-called Narrow Band Imaging is performed in which a predetermined tissue such as a blood vessel is imaged with high contrast. Alternatively, in special light observation, fluorescence observation may be performed in which an image is obtained from fluorescence generated by irradiation with excitation light. Fluorescence observation involves irradiating body tissue with excitation light and observing fluorescence from the body tissue (autofluorescence observation), or locally injecting a reagent such as indocyanine green (ICG) into the body tissue and observing the body tissue. A fluorescent image may be obtained by irradiating excitation light corresponding to the fluorescent wavelength of the reagent. The light source device 5043 can be configured to be able to supply narrowband light and/or excitation light corresponding to such special light observation.

(カメラヘッド及びCCU)
図2を参照して、内視鏡5001のカメラヘッド5005及びCCU5039の機能についてより詳細に説明する。図2は、図1に示すカメラヘッド5005及びCCU5039の機能構成の一例を示すブロック図である。
(camera head and CCU)
Referring to FIG. 2, the functions of camera head 5005 and CCU 5039 of endoscope 5001 are described in more detail. FIG. 2 is a block diagram showing an example of functional configurations of the camera head 5005 and CCU 5039 shown in FIG.

図2を参照すると、カメラヘッド5005は、その機能として、レンズユニット5007と、撮像部5009と、駆動部5011と、通信部5013と、カメラヘッド制御部5015と、を有する。また、CCU5039は、その機能として、通信部5059と、画像処理部5061と、制御部5063と、を有する。カメラヘッド5005とCCU5039とは、伝送ケーブル5065によって双方向に通信可能に接続されている。 Referring to FIG. 2, the camera head 5005 has a lens unit 5007, an imaging section 5009, a drive section 5011, a communication section 5013, and a camera head control section 5015 as its functions. The CCU 5039 also has a communication unit 5059, an image processing unit 5061, and a control unit 5063 as its functions. The camera head 5005 and CCU 5039 are connected by a transmission cable 5065 so as to be able to communicate bidirectionally.

まず、カメラヘッド5005の機能構成について説明する。レンズユニット5007は、鏡筒5003との接続部に設けられる光学系である。鏡筒5003の先端から取り込まれた観察光は、カメラヘッド5005まで導光され、当該レンズユニット5007に入射する。レンズユニット5007は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット5007は、撮像部5009の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。 First, the functional configuration of the camera head 5005 will be described. A lens unit 5007 is an optical system provided at a connection portion with the lens barrel 5003 . Observation light captured from the tip of the lens barrel 5003 is guided to the camera head 5005 and enters the lens unit 5007 . A lens unit 5007 is configured by combining a plurality of lenses including a zoom lens and a focus lens. The optical characteristics of the lens unit 5007 are adjusted so that the observation light is condensed on the light receiving surface of the imaging device of the imaging unit 5009 . Also, the zoom lens and the focus lens are configured so that their positions on the optical axis can be moved in order to adjust the magnification and focus of the captured image.

撮像部5009は撮像素子によって構成され、レンズユニット5007の後段に配置される。レンズユニット5007を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部5009によって生成された画像信号は、通信部5013に提供される。 The image pickup unit 5009 is configured by an image pickup element and arranged after the lens unit 5007 . Observation light that has passed through the lens unit 5007 is condensed on the light receiving surface of the image sensor, and an image signal corresponding to the observation image is generated by photoelectric conversion. An image signal generated by the imaging unit 5009 is provided to the communication unit 5013 .

撮像部5009を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者5067は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。 As an imaging device constituting the imaging unit 5009, for example, a CMOS (Complementary Metal Oxide Semiconductor) type image sensor, which has a Bayer arrangement and is capable of color imaging, is used. As the imaging element, for example, one capable of capturing a high-resolution image of 4K or higher may be used. By obtaining a high-resolution image of the surgical site, the operator 5067 can grasp the state of the surgical site in more detail, and the surgery can proceed more smoothly.

また、撮像部5009を構成する撮像素子は、3D表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成される。3D表示が行われることにより、術者5067は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部5009が多板式で構成される場合には、各撮像素子に対応して、レンズユニット5007も複数系統設けられる。 In addition, the imaging device constituting the imaging unit 5009 is configured to have a pair of imaging devices for acquiring image signals for right eye and left eye corresponding to 3D display. The 3D display enables the operator 5067 to more accurately grasp the depth of the living tissue in the surgical site. Note that when the imaging unit 5009 is configured as a multi-plate type, a plurality of systems of lens units 5007 are provided corresponding to each imaging element.

また、撮像部5009は、必ずしもカメラヘッド5005に設けられなくてもよい。例えば、撮像部5009は、鏡筒5003の内部に、対物レンズの直後に設けられてもよい。 Also, the imaging unit 5009 does not necessarily have to be provided in the camera head 5005 . For example, the imaging unit 5009 may be provided inside the lens barrel 5003 immediately after the objective lens.

駆動部5011は、アクチュエータによって構成され、カメラヘッド制御部5015からの制御により、レンズユニット5007のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部5009による撮像画像の倍率及び焦点が適宜調整され得る。 The drive unit 5011 is configured by an actuator, and moves the zoom lens and focus lens of the lens unit 5007 by a predetermined distance along the optical axis under control from the camera head control unit 5015 . Thereby, the magnification and focus of the image captured by the imaging unit 5009 can be appropriately adjusted.

通信部5013は、CCU5039との間で各種の情報を送受信するための通信装置によって構成される。通信部5013は、撮像部5009から得た画像信号をRAWデータとして伝送ケーブル5065を介してCCU5039に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画像信号は光通信によって送信されることが好ましい。手術の際には、術者5067が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部5013には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル5065を介してCCU5039に送信される。 Communication unit 5013 is configured by a communication device for transmitting and receiving various information to and from CCU 5039 . The communication unit 5013 transmits the image signal obtained from the imaging unit 5009 as RAW data to the CCU 5039 via the transmission cable 5065 . At this time, the image signal is preferably transmitted by optical communication in order to display the captured image of the surgical site with low latency. During surgery, the operator 5067 performs surgery while observing the state of the affected area using captured images. Therefore, for safer and more reliable surgery, moving images of the operated area are displayed in real time as much as possible. This is because it is required. When optical communication is performed, the communication unit 5013 is provided with a photoelectric conversion module that converts an electrical signal into an optical signal. After the image signal is converted into an optical signal by the photoelectric conversion module, it is transmitted to the CCU 5039 via the transmission cable 5065 .

また、通信部5013は、CCU5039から、カメラヘッド5005の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部5013は、受信した制御信号をカメラヘッド制御部5015に提供する。なお、CCU5039からの制御信号も、光通信によって伝送されてもよい。この場合、通信部5013には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部5015に提供される。 The communication unit 5013 also receives a control signal for controlling driving of the camera head 5005 from the CCU 5039 . The control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and/or information to specify the magnification and focus of the captured image. Contains information about conditions. The communication section 5013 provides the received control signal to the camera head control section 5015 . Note that the control signal from the CCU 5039 may also be transmitted by optical communication. In this case, the communication unit 5013 is provided with a photoelectric conversion module that converts an optical signal into an electrical signal, and the control signal is provided to the camera head control unit 5015 after being converted into an electrical signal by the photoelectric conversion module.

なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU5039の制御部5063によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡5001に搭載される。 Note that the imaging conditions such as the frame rate, exposure value, magnification, and focus are automatically set by the control unit 5063 of the CCU 5039 based on the acquired image signal. That is, the endoscope 5001 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.

カメラヘッド制御部5015は、通信部5013を介して受信したCCU5039からの制御信号に基づいて、カメラヘッド5005の駆動を制御する。例えば、カメラヘッド制御部5015は、撮像画像のフレームレートを指定する旨の情報及び/又は撮像時の露光を指定する旨の情報に基づいて、撮像部5009の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部5015は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部5011を介してレンズユニット5007のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部5015は、更に、鏡筒5003やカメラヘッド5005を識別するための情報を記憶する機能を備えてもよい。 The camera head control unit 5015 controls driving of the camera head 5005 based on control signals from the CCU 5039 received via the communication unit 5013 . For example, the camera head control unit 5015 controls the driving of the imaging element of the imaging unit 5009 based on the information specifying the frame rate of the captured image and/or the information specifying the exposure during imaging. Also, for example, the camera head control unit 5015 appropriately moves the zoom lens and the focus lens of the lens unit 5007 via the driving unit 5011 based on information specifying the magnification and focus of the captured image. The camera head control unit 5015 may further have a function of storing information for identifying the lens barrel 5003 and camera head 5005 .

なお、レンズユニット5007や撮像部5009等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド5005について、オートクレーブ滅菌処理に対する耐性を持たせることができる。 By arranging the lens unit 5007, the imaging unit 5009, and the like in a sealed structure with high airtightness and waterproofness, the camera head 5005 can be made resistant to autoclave sterilization.

次に、CCU5039の機能構成について説明する。通信部5059は、カメラヘッド5005との間で各種の情報を送受信するための通信装置によって構成される。通信部5059は、カメラヘッド5005から、伝送ケーブル5065を介して送信される画像信号を受信する。この際、上記のように、当該画像信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部5059には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部5059は、電気信号に変換した画像信号を画像処理部5061に提供する。 Next, the functional configuration of the CCU 5039 will be explained. A communication unit 5059 is configured by a communication device for transmitting and receiving various information to and from the camera head 5005 . The communication unit 5059 receives image signals transmitted from the camera head 5005 via the transmission cable 5065 . At this time, as described above, the image signal can be preferably transmitted by optical communication. In this case, the communication unit 5059 is provided with a photoelectric conversion module that converts an optical signal into an electrical signal for optical communication. The communication unit 5059 provides the image processing unit 5061 with the image signal converted into the electric signal.

また、通信部5059は、カメラヘッド5005に対して、カメラヘッド5005の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。 The communication unit 5059 also transmits a control signal for controlling driving of the camera head 5005 to the camera head 5005 . The control signal may also be transmitted by optical communication.

画像処理部5061は、カメラヘッド5005から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部5061は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。 An image processing unit 5061 performs various types of image processing on the image signal, which is RAW data transmitted from the camera head 5005 . The image processing includes, for example, development processing, image quality improvement processing (band enhancement processing, super-resolution processing, NR (noise reduction) processing and/or camera shake correction processing, etc.), and/or enlargement processing (electronic zoom processing). etc., various known signal processing is included. Also, the image processing unit 5061 performs detection processing on the image signal for performing AE, AF, and AWB.

画像処理部5061は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部5061が複数のGPUによって構成される場合には、画像処理部5061は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。 The image processing unit 5061 is configured by a processor such as a CPU or GPU, and the processor operates according to a predetermined program to perform the image processing and detection processing described above. Note that when the image processing unit 5061 is composed of a plurality of GPUs, the image processing unit 5061 appropriately divides information related to image signals and performs image processing in parallel by the plurality of GPUs.

制御部5063は、内視鏡5001による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部5063は、カメラヘッド5005の駆動を制御するための制御信号を生成する。この際、撮像条件がユーザによって入力されている場合には、制御部5063は、当該ユーザによる入力に基づいて制御信号を生成する。あるいは、内視鏡5001にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部5063は、画像処理部5061による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。 The control unit 5063 performs various controls related to the imaging of the surgical site by the endoscope 5001 and the display of the captured image. For example, the control unit 5063 generates control signals for controlling driving of the camera head 5005 . At this time, if the imaging condition is input by the user, the control unit 5063 generates a control signal based on the input by the user. Alternatively, when the endoscope 5001 is equipped with the AE function, the AF function, and the AWB function, the control unit 5063 optimizes the exposure value, focal length, and A white balance is calculated appropriately and a control signal is generated.

また、制御部5063は、画像処理部5061によって画像処理が施された画像信号に基づいて、術部の画像を表示装置5041に表示させる。この際、制御部5063は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部5063は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具5021使用時のミスト等を認識することができる。制御部5063は、表示装置5041に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者5067に提示されることにより、より安全かつ確実に手術を進めることが可能になる。 Further, the control unit 5063 causes the display device 5041 to display an image of the surgical site based on the image signal subjected to image processing by the image processing unit 5061 . At this time, the control unit 5063 recognizes various objects in the surgical site image using various image recognition techniques. For example, the control unit 5063 detects the shape, color, and the like of the edges of objects included in the surgical site image, thereby detecting surgical tools such as forceps, specific body parts, bleeding, mist when using the energy treatment tool 5021, and the like. can recognize. When displaying the image of the surgical site on the display device 5041, the control unit 5063 uses the recognition result to superimpose and display various surgical assistance information on the image of the surgical site. By superimposing and displaying the surgery support information and presenting it to the operator 5067, it becomes possible to proceed with the surgery more safely and reliably.

カメラヘッド5005及びCCU5039を接続する伝送ケーブル5065は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。 A transmission cable 5065 connecting the camera head 5005 and the CCU 5039 is an electrical signal cable compatible with electrical signal communication, an optical fiber compatible with optical communication, or a composite cable of these.

ここで、図示する例では、伝送ケーブル5065を用いて有線で通信が行われていたが、カメラヘッド5005とCCU5039との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル5065を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフの移動が当該伝送ケーブル5065によって妨げられる事態が解消され得る。 Here, in the illustrated example, wired communication is performed using the transmission cable 5065, but communication between the camera head 5005 and the CCU 5039 may be performed wirelessly. If the communication between them is performed wirelessly, it is not necessary to lay the transmission cable 5065 in the operating room, so the situation that the transmission cable 5065 interferes with the movement of the medical staff in the operating room can be resolved.

以上、本開示に係る技術が適用され得る内視鏡手術システム5000の一例について説明した。なお、ここでは、一例として内視鏡手術システム5000について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、本開示に係る技術は、検査用軟性内視鏡システムや顕微鏡手術システムに適用されてもよい。 An example of the endoscopic surgery system 5000 to which the technology according to the present disclosure can be applied has been described above. Although the endoscopic surgery system 5000 has been described as an example here, the system to which the technique according to the present disclosure can be applied is not limited to such an example. For example, the technology according to the present disclosure may be applied to a flexible endoscope system for inspection and a microsurgery system.

<1.2.医療用支持アーム装置の具体的構成例>
次に、本開示の実施の形態に係る医療用支持アーム装置の具体的構成例について詳細に説明する。以下に説明する支持アーム装置は、アーム部の先端に内視鏡を支持する支持アーム装置として構成された例であるが、本実施形態は係る例に限定されない。
<1.2. Specific Configuration Example of Medical Support Arm Device>
Next, a specific configuration example of the medical support arm device according to the embodiment of the present disclosure will be described in detail. The support arm device described below is an example configured as a support arm device that supports an endoscope at the distal end of an arm portion, but the present embodiment is not limited to such an example.

まず、図3を参照して、本実施形態に係る支持アーム装置1400の概略構成について説明する。図3は、本実施形態に係る支持アーム装置1400の外観を示す概略図である。 First, referring to FIG. 3, a schematic configuration of a support arm device 1400 according to this embodiment will be described. FIG. 3 is a schematic diagram showing the appearance of the support arm device 1400 according to this embodiment.

本実施形態に係る支持アーム装置1400は、ベース部1410及びアーム部1420を備える。ベース部1410は支持アーム装置1400の基台であり、ベース部1410からアーム部1420が延伸される。また、図3には図示しないが、ベース部1410内には、支持アーム装置1400を統合的に制御する制御部が設けられてもよく、アーム部1420の駆動が当該制御部によって制御されてもよい。当該制御部は、例えばCPUやDSP等の各種の信号処理回路によって構成される。 A support arm device 1400 according to this embodiment includes a base portion 1410 and an arm portion 1420 . A base portion 1410 is a base of the support arm device 1400 and an arm portion 1420 extends from the base portion 1410 . In addition, although not shown in FIG. 3, a control unit that integrally controls the support arm device 1400 may be provided in the base unit 1410, and the driving of the arm unit 1420 may be controlled by the control unit. good. The control unit is composed of various signal processing circuits such as a CPU and a DSP, for example.

アーム部1420は、複数の能動関節部1421a~1421fと、複数のリンク1422a~1422fと、アーム部1420の先端に設けられた先端ユニットとしての内視鏡装置423とを有する。 The arm section 1420 has a plurality of active joint sections 1421a to 1421f, a plurality of links 1422a to 1422f, and an endoscope device 423 as a distal end unit provided at the distal end of the arm section 1420. FIG.

リンク1422a~1422fは略棒状の部材である。リンク1422aの一端が能動関節部1421aを介してベース部1410と連結され、リンク1422aの他端が能動関節部1421bを介してリンク1422bの一端と連結され、さらに、リンク1422bの他端が能動関節部1421cを介してリンク1422cの一端と連結される。リンク1422cの他端は受動スライド機構1100を介してリンク1422dに連結され、さらに、リンク1422dの他端は受動関節部200を介してリンク1422eの一端と連結される。リンク1422eの他端は能動関節部1421d,1421eを介してリンク1422fの一端と連結される。内視鏡装置1423は、アーム部1420の先端、すなわち、リンク1422fの他端に、能動関節部1421fを介して連結される。このように、ベース部1410を支点として、複数のリンク1422a~1422fの端同士が、能動関節部1421a~1421f、受動スライド機構1100及び受動関節部1200によって互いに連結されることにより、ベース部1410から延伸されるアーム形状が構成される。 Links 1422a to 1422f are substantially bar-shaped members. One end of the link 1422a is connected to the base portion 1410 via the active joint portion 1421a, the other end of the link 1422a is connected to one end of the link 1422b via the active joint portion 1421b, and the other end of the link 1422b is the active joint. It is connected to one end of the link 1422c via the portion 1421c. The other end of link 1422c is connected via passive slide mechanism 1100 to link 1422d, and the other end of link 1422d is connected via passive joint 200 to one end of link 1422e. The other end of link 1422e is connected to one end of link 1422f via active joints 1421d and 1421e. The endoscope device 1423 is connected to the distal end of the arm portion 1420, that is, the other end of the link 1422f via the active joint portion 1421f. In this way, with the base portion 1410 as a fulcrum, the ends of the plurality of links 1422a to 1422f are connected to each other by the active joint portions 1421a to 1421f, the passive slide mechanism 1100, and the passive joint portion 1200. An elongated arm shape is configured.

かかるアーム部1420のそれぞれの能動関節部1421a~1421fに設けられたアクチュエータが駆動制御されることにより、内視鏡装置1423の位置及び姿勢が制御される。本実施形態において、内視鏡装置1423は、その先端が施術部位である患者の体腔内に進入して施術部位の一部領域を撮影する。ただし、アーム部1420の先端に設けられる先端ユニットは内視鏡装置1423に限定されず、アーム部1420の先端には先端ユニットとして各種の医療用器具が接続されてよい。このように、本実施形態に係る支持アーム装置1400は、医療用器具を備えた医療用支持アーム装置として構成される。 The position and posture of the endoscope device 1423 are controlled by controlling the actuators provided in the active joints 1421a to 1421f of the arm 1420. As shown in FIG. In this embodiment, the endoscope device 1423 enters into the body cavity of the patient whose distal end is the site to be treated, and photographs a partial area of the site to be treated. However, the distal end unit provided at the distal end of the arm portion 1420 is not limited to the endoscope device 1423, and various medical instruments may be connected to the distal end of the arm portion 1420 as the distal end unit. Thus, the support arm device 1400 according to this embodiment is configured as a medical support arm device equipped with medical instruments.

ここで、以下では、図3に示すように座標軸を定義して支持アーム装置1400の説明を行う。また、座標軸に合わせて、上下方向、前後方向、左右方向を定義する。すなわち、床面に設置されているベース部1410に対する上下方向をz軸方向及び上下方向と定義する。また、z軸と互いに直交する方向であって、ベース部1410からアーム部1420が延伸されている方向(すなわち、ベース部1410に対して内視鏡装置1423が位置している方向)をy軸方向及び前後方向と定義する。さらに、y軸及びz軸と互いに直交する方向をx軸方向及び左右方向と定義する。 Below, the support arm device 1400 will be described by defining coordinate axes as shown in FIG. Also, the up-down direction, front-rear direction, and left-right direction are defined according to the coordinate axes. That is, the vertical direction with respect to the base portion 1410 installed on the floor is defined as the z-axis direction and the vertical direction. Also, the direction perpendicular to the z-axis and the direction in which the arm portion 1420 extends from the base portion 1410 (that is, the direction in which the endoscope device 1423 is positioned with respect to the base portion 1410) is the y-axis. Define direction and front-to-rear direction. Further, directions orthogonal to the y-axis and z-axis are defined as x-axis direction and left-right direction.

能動関節部1421a~1421fはリンク同士を互いに回動可能に連結する。能動関節部1421a~1421fはアクチュエータを有し、当該アクチュエータの駆動により所定の回転軸に対して回転駆動される回転機構を有する。各能動関節部1421a~1421fにおける回転駆動をそれぞれ制御することにより、例えばアーム部1420を伸ばしたり、縮めたり(折り畳んだり)といった、アーム部1420の駆動を制御することができる。ここで、能動関節部1421a~1421fは、例えば公知の全身協調制御及び理想関節制御によってその駆動が制御され得る。上述したように、能動関節部1421a~1421fは回転機構を有するため、以下の説明において、能動関節部1421a~1421fの駆動制御とは、具体的には、能動関節部1421a~1421fの回転角度及び/又は発生トルク(能動関節部1421a~1421fが発生させるトルク)が制御されることを意味する。 The active joints 1421a-1421f rotatably connect the links to each other. The active joints 1421a to 1421f have actuators, and have rotation mechanisms that are driven to rotate about a predetermined rotation axis by driving the actuators. By controlling the rotational drive of each of the active joints 1421a to 1421f, it is possible to control the driving of the arm 1420, such as extending and contracting (folding) the arm 1420, for example. Here, the driving of the active joints 1421a to 1421f can be controlled by, for example, well-known systemic coordinated control and ideal joint control. As described above, since the active joints 1421a to 1421f have a rotation mechanism, in the following description, drive control of the active joints 1421a to 1421f specifically refers to the rotation angle and /or means that the generated torque (torque generated by the active joints 1421a to 1421f) is controlled.

受動スライド機構1100は、受動形態変更機構の一態様であり、リンク1422cとリンク1422dとを所定方向に沿って互いに進退動可能に連結する。例えば受動スライド機構1100は、リンク1422cとリンク1422dとを互いに直動可能に連結してもよい。ただし、リンク1422cとリンク1422dとの進退運動は直線運動に限られず、円弧状を成す方向への進退運動であってもよい。受動スライド機構1100は、例えばユーザによって進退動の操作が行われ、リンク1422cの一端側の能動関節部1421cと受動関節部1200との間の距離を可変とする。これにより、アーム部1420の全体の形態が変化し得る。受動スライド機構1100の構成の詳細は後述する。 The passive slide mechanism 1100 is one aspect of the passive form changing mechanism, and connects the link 1422c and the link 1422d so as to move forward and backward along a predetermined direction. For example, the passive slide mechanism 1100 may connect the link 1422c and the link 1422d so as to be able to move linearly with each other. However, the forward/backward motion of the link 1422c and the link 1422d is not limited to linear motion, and may be forward/backward motion in an arc-shaped direction. The passive slide mechanism 1100 is, for example, operated to advance and retreat by a user, and makes the distance between the active joint portion 1421c on one end side of the link 1422c and the passive joint portion 1200 variable. This can change the overall shape of the arm portion 1420 . The details of the configuration of the passive slide mechanism 1100 will be described later.

受動関節部1200は、受動形態変更機構の一態様であり、リンク1422dとリンク1422eとを互いに回動可能に連結する。受動関節部1200は、例えばユーザによって回動の操作が行われ、リンク1422dとリンク1422eとの成す角度を可変とする。これにより、アーム部1420の全体の形態が変化し得る。受動関節部1200の構成の詳細は後述する。 The passive joint section 1200 is one aspect of the passive form changing mechanism, and rotatably connects the link 1422d and the link 1422e to each other. The passive joint section 1200 is, for example, rotated by a user to change the angle formed by the link 1422d and the link 1422e. This can change the overall shape of the arm portion 1420 . The details of the configuration of the passive joint section 1200 will be described later.

なお、本明細書において、「アーム部の姿勢」とは、一つ又は複数のリンクを挟んで隣り合う能動関節部同士の間の距離が一定の状態で、制御部による能動関節部1421a~1421fに設けられたアクチュエータの駆動制御によって変化し得るアーム部の状態をいう。また、「アーム部の形態」とは、受動形態変更機構が操作されることに伴って、リンクを挟んで隣り合う能動関節部同士の間の距離や、隣り合う能動関節部の間をつなぐリンク同士の成す角度が変わることで変化し得るアーム部の状態をいう。 In this specification, the “posture of the arm” means that the active joints 1421a to 1421f are moved by the control unit while the distance between the active joints adjacent to each other across one or more links is constant. It refers to the state of the arm that can be changed by the drive control of the actuator provided in the arm. In addition, the "shape of the arm" refers to the distance between the active joints adjacent to each other across the link, or the distance between the active joints that connect the adjacent active joints, as the passive shape changing mechanism is operated. It refers to the state of the arms that can change by changing the angle between them.

本実施形態に係る支持アーム装置1400は、6つの能動関節部1421a~1421fを有し、アーム部1420の駆動に関して6自由度が実現されている。つまり、支持アーム装置1400の駆動制御は制御部による6つの能動関節部1421a~1421fの駆動制御により実現される一方、受動スライド機構1100及び受動関節部1200は、制御部による駆動制御の対象とはなっていない。 The support arm device 1400 according to this embodiment has six active joints 1421a to 1421f, and the arm 1420 is driven with six degrees of freedom. In other words, drive control of the support arm device 1400 is realized by drive control of the six active joints 1421a to 1421f by the control unit, while the passive slide mechanism 1100 and the passive joints 1200 are not subject to drive control by the control unit. is not.

具体的には、図3に示すように、能動関節部1421a,1421d,1421fは、接続されている各リンク1422a,1422eの長軸方向及び接続されている内視鏡装置1423の撮影方向を回転軸方向とするように設けられている。能動関節部1421b,1421c,1421eは、接続されている各リンク1422a~1422c,1422e,1422f及び内視鏡装置423の連結角度をy-z平面(y軸とz軸とで規定される平面)内において変更する方向であるx軸方向を回転軸方向とするように設けられている。このように、本実施形態においては、能動関節部1421a,1421d,1421fは、いわゆるヨーイングを行う機能を有し、能動関節部1421b,1421c,1421eは、いわゆるピッチングを行う機能を有する。 Specifically, as shown in FIG. 3, the active joints 1421a, 1421d, and 1421f rotate the longitudinal direction of the connected links 1422a and 1422e and the imaging direction of the connected endoscope device 1423. It is provided so as to be in the axial direction. The active joints 1421b, 1421c, 1421e define the connection angle of the connected links 1422a to 1422c, 1422e, 1422f and the endoscope device 423 on the yz plane (the plane defined by the y-axis and the z-axis). It is provided so that the x-axis direction, which is the direction of change inside, is the rotation axis direction. Thus, in this embodiment, the active joint portions 1421a, 1421d, and 1421f have a so-called yawing function, and the active joint portions 1421b, 1421c, and 1421e have a so-called pitching function.

このようなアーム部1420の構成を有することにより、本実施形態に係る支持アーム装置1400ではアーム部1420の駆動に対して6自由度が実現されるため、アーム部1420の可動範囲内において内視鏡装置1423を自由に移動させることができる。図3では、内視鏡装置1423の移動可能範囲の一例として半球を図示している。半球の中心点RCM(遠隔運動中心)が内視鏡装置1423によって撮影される施術部位の撮影中心であるとすれば、内視鏡装置1423の撮影中心を半球の中心点に固定した状態で、内視鏡装置1423を半球の球面上で移動させることにより、施術部位を様々な角度から撮影することができる。 By having such a configuration of the arm portion 1420, the support arm device 1400 according to the present embodiment realizes six degrees of freedom for driving the arm portion 1420. The mirror device 1423 can be freely moved. FIG. 3 illustrates a hemisphere as an example of the movable range of the endoscope device 1423 . Assuming that the center point RCM (remote motion center) of the hemisphere is the imaging center of the treatment site imaged by the endoscope device 1423, with the imaging center of the endoscope device 1423 fixed at the center point of the hemisphere, By moving the endoscope device 1423 on the spherical surface of the hemisphere, the treatment site can be imaged from various angles.

また、アーム部1420は、上記の自由度に加え、リンク1422fと同軸上で内視鏡装置1423を回転させる1421gの自由度を有していても良い。これにより、リンク1422fの長手軸を回転軸として内視鏡装置1423を回転させることが可能となる。 In addition to the above degrees of freedom, the arm portion 1420 may have a degree of freedom 1421g for rotating the endoscope device 1423 coaxially with the link 1422f. As a result, the endoscope device 1423 can be rotated around the longitudinal axis of the link 1422f.

<1.3.制御装置の構成例>>
ここまで、本実施形態に係る支持アーム装置1400の構成について説明した。以下、本実施形態に係る支持アーム装置1400におけるアーム部1420の駆動制御、すなわち、能動関節部1421a~1421fに設けられたアクチュエータ1430の回転駆動を制御するための制御装置の構成例について説明する。
<1.3. Configuration example of control device>>
So far, the configuration of the support arm device 1400 according to the present embodiment has been described. A configuration example of a control device for controlling the driving of the arm portion 1420 in the support arm device 1400 according to the present embodiment, that is, the rotational driving of the actuator 1430 provided in the active joint portions 1421a to 1421f will be described below.

図4は、制御装置1350を含む支持アーム装置1400の全体構成例を示すブロック図である。制御装置1350は、制御部1351と記憶部1357と入力部1359とを備える。 FIG. 4 is a block diagram showing an overall configuration example of the support arm device 1400 including the control device 1350. As shown in FIG. The control device 1350 includes a control section 1351 , a storage section 1357 and an input section 1359 .

制御部1351は、例えばCPUやDSP等の各種の信号処理回路によって構成される。制御部1351は、制御装置1350を統合的に制御するとともに、支持アーム装置1400におけるアーム部1420の駆動を制御するための各種の演算を行う。具体的に、制御部1351は、全身協調制御部1353と理想関節制御部1355とを有する。全身協調制御部1353は、支持アーム装置1400のアーム部1420の能動関節部1421a~1421fに設けられたアクチュエータ1430を駆動制御するために、全身協調制御における各種の演算を行う。理想関節制御部1355は、外乱の影響を補正することにより全身協調制御に対する理想的な応答を実現する理想関節制御における各種の演算を行う。記憶部1357は、例えばRAM(Random Access Memory)やROM(Read Only Memory)等の記憶素子であってもよく、あるいは、半導体メモリ、ハードディスク、外付けの記憶装置であってよい。 The control unit 1351 is composed of various signal processing circuits such as a CPU and a DSP. The control unit 1351 integrally controls the control device 1350 and performs various calculations for controlling the driving of the arm unit 1420 in the support arm device 1400 . Specifically, the control unit 1351 has a whole body coordination control unit 1353 and an ideal joint control unit 1355 . The whole body coordination control section 1353 performs various calculations in the whole body coordination control in order to drive and control the actuators 1430 provided in the active joint sections 1421a to 1421f of the arm section 1420 of the support arm device 1400. FIG. The ideal joint control unit 1355 performs various calculations in ideal joint control that realizes an ideal response to whole-body cooperative control by correcting the influence of disturbance. The storage unit 1357 may be, for example, a storage element such as a RAM (Random Access Memory) or a ROM (Read Only Memory), or may be a semiconductor memory, a hard disk, or an external storage device.

入力部359は、ユーザが制御部351に対して支持アーム装置400の駆動制御に関する情報や命令等を入力するための入力インタフェースである。入力部359は、例えばレバー、ペダル等のユーザが操作する操作手段を有し、当該レバー、ペダル等の操作に応じて、アーム部420の各構成部材の位置や速度等が、瞬時的な運動目的として設定されてもよい。かかる入力部359は、例えばレバーやペダルの他、マウス、キーボード、タッチパネル、ボタン及びスイッチ等のユーザが操作する操作手段を有してもよい。 The input unit 359 is an input interface for the user to input information, instructions, etc. regarding drive control of the support arm device 400 to the control unit 351 . The input unit 359 has operation means such as a lever or a pedal operated by a user, and the position, speed, etc. of each component of the arm unit 420 changes instantaneously according to the operation of the lever, pedal, or the like. may be set as a goal. The input unit 359 may have operation means operated by the user, such as a mouse, a keyboard, a touch panel, buttons, and switches, in addition to levers and pedals.

また、制御装置1350により制御されるアーム部1420は、能動関節部1421を備える。能動関節部1421(1421a~1421f)は、リンク1422a~1422f及び内視鏡装置1423を接続又は支持するための支持部材等、アーム部1420の駆動に必要な各種の構成を有する。ここまでの説明及び以下の説明において、アーム部1420の関節部の駆動とは、能動関節部1421a~1421fにおけるアクチュエータ430の駆動を意味していてもよい。 Also, the arm portion 1420 controlled by the control device 1350 includes an active joint portion 1421 . The active joint section 1421 (1421a to 1421f) has various configurations necessary for driving the arm section 1420, such as supporting members for connecting or supporting the links 1422a to 1422f and the endoscope device 1423. In the description up to this point and the description below, driving the joints of the arm 1420 may mean driving the actuators 430 in the active joints 1421a to 1421f.

能動関節部1421は、トルクセンサ1428、エンコーダ1427及びアクチュエータ1430を備える。なお、図4では、アクチュエータ1430とエンコーダ1427及びトルクセンサ1428とが分離して図示されているが、エンコーダ1427及びトルクセンサ1428はアクチュエータ1430に含まれて構成されてもよい。 Active joint 1421 comprises torque sensor 1428 , encoder 1427 and actuator 1430 . Although actuator 1430 , encoder 1427 and torque sensor 1428 are shown separately in FIG. 4 , encoder 1427 and torque sensor 1428 may be included in actuator 1430 .

アクチュエータ1430は、モータと、モータドライバと、減速機と、から構成される。アクチュエータ1430は、例えば力制御に対応するアクチュエータである。アクチュエータ1430では、モータの回転が減速機によって所定の減速比で減速され、出力軸を介して後段の他の部材に伝達されることにより、当該他の部材が駆動されることとなる。 Actuator 1430 is composed of a motor, a motor driver, and a speed reducer. Actuator 1430 is, for example, an actuator corresponding to force control. In actuator 1430, the rotation of the motor is reduced at a predetermined reduction ratio by the speed reducer, and transmitted to another member in the subsequent stage via the output shaft, thereby driving the other member.

モータは、回転駆動力を生み出す駆動機構である。モータは、モータドライバからの制御により、制御部からのトルク指令値に対応するトルクを発生するように駆動される。モータとしては、例えばブラシレスモータが用いられる。ただし、本実施形態はかかる例に限定されず、モータとしては各種の公知の種類のモータが用いられてよい。 A motor is a driving mechanism that produces rotational driving force. The motor is controlled by the motor driver so as to generate torque corresponding to the torque command value from the controller. A brushless motor, for example, is used as the motor. However, the present embodiment is not limited to such an example, and various known types of motors may be used as the motor.

モータドライバは、モータに電流を供給することによりモータを回転駆動させるドライバ回路(ドライバIC(Integrated Circuit))であり、モータに供給する電流量を調整することにより、モータの回転数を制御することができる。モータドライバは、制御部からのトルク指令値τに対応する電流をモータに供給することにより、当該モータを駆動させる。 A motor driver is a driver circuit (driver IC (Integrated Circuit)) that rotates a motor by supplying current to the motor, and controls the number of revolutions of the motor by adjusting the amount of current supplied to the motor. can be done. The motor driver drives the motor by supplying the motor with a current corresponding to the torque command value τ from the control unit.

また、モータドライバは、モータに供給する電流量を調整することにより、アクチュエータ1430の回転運動における粘性抵抗係数を調整することができる。これにより、アクチュエータ1430における回転運動、すなわち、能動関節部1421a~1421fにおける回転運動に対して、所定の抵抗を負荷することが可能となる。例えば、能動関節部1421a~1421fを、外部から加えられる力に対して回転しやすい状態(すなわち、アーム部1420を手動で移動しやすい状態)にすることもできるし、逆に、外部から加えられる力に対して回転し難い状態(すなわち、アーム部1420を手動で移動し難い状態)にすることもできる。 Also, the motor driver can adjust the viscous resistance coefficient in the rotary motion of the actuator 1430 by adjusting the amount of current supplied to the motor. This makes it possible to apply a predetermined resistance to the rotational movement of the actuator 1430, that is, the rotational movement of the active joints 1421a to 1421f. For example, the active joints 1421a to 1421f can be put in a state in which they are easily rotated by a force applied from the outside (that is, in a state in which the arm 1420 is easily moved manually). A state in which it is difficult to rotate against a force (ie, a state in which it is difficult to manually move the arm portion 1420) can be made.

モータの回転軸(駆動軸)には、減速機が連結される。減速機は、連結されたモータの回転軸の回転速度(すなわち、入力軸の回転速度)を、所定の減速比で減速させて出力軸に伝達する。本実施形態では、減速機の構成は特定のものに限定されず、減速機としては各種の公知の種類の減速機が用いられてよい。ただし、減速機としては、例えばハーモニックドライブ(登録商標)等の、高精度に減速比が設定可能なものが用いられることが好ましい。また、減速機の減速比は、アクチュエータ1430の用途に応じて適宜設定され得る。例えば、本実施形態のように、アクチュエータ1430が支持アーム装置400の能動関節部1421a~1421fに適用される場合であれば、1:100程度の減速比を有する減速機が好適に用いられ得る。 A speed reducer is connected to the rotation shaft (drive shaft) of the motor. The speed reducer reduces the rotation speed of the rotation shaft of the connected motor (that is, the rotation speed of the input shaft) at a predetermined reduction ratio and transmits the reduced speed to the output shaft. In this embodiment, the configuration of the speed reducer is not limited to a specific one, and various known types of speed reducer may be used as the speed reducer. However, as the speed reducer, it is preferable to use a speed reducer such as Harmonic Drive (registered trademark) whose speed reduction ratio can be set with high accuracy. Also, the speed reduction ratio of the speed reducer can be appropriately set according to the application of the actuator 1430 . For example, if the actuator 1430 is applied to the active joints 1421a to 1421f of the support arm device 400 as in this embodiment, a speed reducer having a speed reduction ratio of about 1:100 can be preferably used.

エンコーダ1427は、入力軸の回転角度(すなわち、モータの回転軸の回転角度)を検出する。エンコーダ1427によって検出された入力軸の回転数と、減速機の減速比と、に基づいて、能動関節部1421a~1421fの回転角度、回転角速度及び回転角加速度等の情報を得ることができる。エンコーダ1427としては、例えば磁気式エンコーダ、光学式エンコーダ等の各種の公知のロータリエンコーダが用いられてよい。なお、エンコーダ1427は、アクチュエータ1430の入力軸にのみ設けられてもよいし、減速機よりも後段に、アクチュエータ1430の出力軸の回転角度等を検出するためのエンコーダが更に設けられてもよい。 Encoder 1427 detects the rotation angle of the input shaft (that is, the rotation angle of the rotation shaft of the motor). Based on the rotation speed of the input shaft detected by the encoder 1427 and the speed reduction ratio of the speed reducer, information such as the rotation angles, rotation angular velocities, and rotation angular accelerations of the active joints 1421a to 1421f can be obtained. As the encoder 1427, various known rotary encoders such as a magnetic encoder and an optical encoder may be used. The encoder 1427 may be provided only on the input shaft of the actuator 1430, or an encoder for detecting the rotation angle and the like of the output shaft of the actuator 1430 may be provided after the speed reducer.

トルクセンサ1428は、アクチュエータ1430の出力軸に接続され、アクチュエータ1430に作用するトルクを検出する。トルクセンサ1428は、アクチュエータ1430によって出力されるトルク(発生トルク)を検出する。また、トルクセンサ1428は、アクチュエータ1430に外部から加えられる外トルクも検出することができる。 Torque sensor 1428 is connected to the output shaft of actuator 1430 and detects torque acting on actuator 1430 . Torque sensor 1428 detects the torque (generated torque) output by actuator 1430 . Torque sensor 1428 can also detect an external torque applied to actuator 1430 from the outside.

以上、能動関節部1421の構成について説明した。ここで、本実施形態では、アーム部1420の動作が力制御によって制御される。当該力制御においては、支持アーム装置1400では、各アクチュエータ1430に設けられたエンコーダ1427及びトルクセンサ1428によって、各能動関節部1421a~1421fの回転角度、及び各能動関節部1421a~1421fに作用するトルクがそれぞれ検出される。このとき、トルクセンサ1428によって検出される各能動関節部1421a~1421fに作用するトルクには、アーム部1420及び/又は内視鏡装置1423に作用する力も含まれ得る。 The configuration of the active joint portion 1421 has been described above. Here, in this embodiment, the motion of the arm portion 1420 is controlled by force control. In the force control, in the support arm device 1400, the rotation angles of the active joints 1421a to 1421f and the torque acting on the active joints 1421a to 1421f are determined by the encoders 1427 and the torque sensors 1428 provided in the actuators 1430. are detected respectively. At this time, the torque acting on each of the active joints 1421a to 1421f detected by the torque sensor 1428 may include force acting on the arm 1420 and/or the endoscope device 1423.

また、エンコーダ1427によって検出された回転角度、及びトルクセンサ1428によって検出されたトルク値に基づいて、現在のアーム部1420の状態(位置、速度等)が取得され得る。支持アーム装置1400では、取得されたアーム部1420の状態(アーム状態)に基づいて、アーム部1420が所望の運動目的を実行するために必要な、各能動関節部1421a~1421fに設けられたアクチュエータ1430が発生すべきトルクが算出され、当該トルクを制御値として各能動関節部1421a~1421fのアクチュエータ1430が駆動されることになる。 Also, based on the rotation angle detected by the encoder 1427 and the torque value detected by the torque sensor 1428, the current state (position, speed, etc.) of the arm section 1420 can be acquired. In the support arm device 1400, based on the acquired state of the arm portion 1420 (arm state), the actuators provided in the active joint portions 1421a to 1421f necessary for the arm portion 1420 to perform the desired exercise purpose are controlled. The torque to be generated by 1430 is calculated, and the actuators 1430 of the active joints 1421a to 1421f are driven using this torque as a control value.

なお、アクチュエータ1430としては、一般的に力制御によってその動作が制御される各種の装置において用いられている、各種の公知のアクチュエータを用いることができる。例えば、アクチュエータ1430としては、本願出願人による先行特許出願である特開2009-269102号公報や特開2011-209099号公報等に記載のものを好適に用いることができる。 As the actuator 1430, various known actuators generally used in various devices whose operations are controlled by force control can be used. For example, as the actuator 1430, those described in JP-A-2009-269102, JP-A-2011-209099, etc., which are prior patent applications filed by the applicant of the present application, can be suitably used.

本実施形態に係る支持アーム装置1400において、アクチュエータ1430、及びアクチュエータを構成する各部品の構成は上記の構成に限定されず、他の構成であってもよい。 In the support arm device 1400 according to the present embodiment, the configurations of the actuator 1430 and the components that make up the actuator are not limited to the configurations described above, and may be other configurations.

以上、内視鏡システムの基本構成を説明した。以下では、上記説明した内視鏡システムの具体的な実施形態を説明する。 The basic configuration of the endoscope system has been described above. Specific embodiments of the endoscope system described above will be described below.

<<2.斜視鏡による斜視回転動作と観察対象物への追従動作>>
<2.1.斜視鏡の回転動作>
本実施形態では、上述した内視鏡5001(内視鏡装置423)として、斜視鏡を用いる。図5は、斜視鏡100の外観を示す模式図である。斜視鏡100では、対物レンズの被写体への向き(C1)は、斜視鏡100の長手方向(スコープ軸C2)に対して所定の角度φを有している。つまり、斜視鏡100では、スコープの接眼光学系に対して対物光学系が角度を成している。斜視鏡100では、観察のために斜視鏡100をスコープ軸C2を回転軸として回転(以下、斜視回転という)させる動作が行われる。斜視回転を行うことで、回り込んだ視野や上下左右の周辺視野を得ることが可能である。
<<2. Oblique Rotation Operation and Observation Observation Observation Operation by Observation Mirror>>
<2.1. Rotational Movement of Periscope>
In this embodiment, a perspective scope is used as the endoscope 5001 (endoscope device 423) described above. FIG. 5 is a schematic diagram showing the appearance of the perspective mirror 100. As shown in FIG. In the perspective mirror 100, the orientation (C1) of the objective lens toward the subject forms a predetermined angle φ with respect to the longitudinal direction of the perspective mirror 100 (scope axis C2). That is, in the oblique scope 100, the objective optical system forms an angle with respect to the ocular optical system of the scope. In the squinting scope 100, an operation of rotating the squinting scope 100 around the scope axis C2 as a rotation axis (hereinafter referred to as oblique rotation) is performed for observation. By performing oblique rotation, it is possible to obtain a wraparound field of view and up, down, left, and right peripheral vision.

図6は、斜視回転によって表示装置5041に表示された視野200が変わる様子を示す模式図である。図6に示すように、視野200がモニタに表示されている状態で、斜視回転角αだけ斜視鏡を斜視回転し、視野200の天地方向を制御すると、モニタに表示される視野は、視野200から視野200’に変化する。従って、斜視回転およびカメラの天地方向の2軸を制御することで、上下左右の周辺視野を得ることができる。 FIG. 6 is a schematic diagram showing how the field of view 200 displayed on the display device 5041 changes due to oblique rotation. As shown in FIG. 6, in a state where the field of view 200 is displayed on the monitor, when the perspective mirror is obliquely rotated by the oblique rotation angle α and the vertical direction of the field of view 200 is controlled, the field of view displayed on the monitor is the field of view 200. to the field of view 200'. Therefore, by controlling oblique rotation and two axes in the vertical direction of the camera, it is possible to obtain peripheral vision in the vertical and horizontal directions.

図7は、斜視回転によってモニタに映し出される視野が変化する様子を示す模式図である。図7は、斜視鏡で体内を観察する様子を示しており、様々な臓器215の中にユーザ(術者)が見ようとする観察対象物210が存在する状態を示している。図7では、モニタの視野200を矩形領域で示し、視野200とともに、ユーザ(術者)が見ようとする観察対象物210とスコープ軸C2を示している。また、図7では、術者が鉗子などの術具220を観察対象物210に接触させ、観察対象物210を把持等している様子を示している。 FIG. 7 is a schematic diagram showing how the field of view displayed on the monitor changes due to oblique rotation. FIG. 7 shows how the inside of the body is observed with a squintoscope, and shows a state in which an observation object 210 that the user (operator) wants to see exists among various organs 215 . In FIG. 7, the field of view 200 of the monitor is indicated by a rectangular area, and together with the field of view 200, the observation object 210 that the user (operator) intends to see and the scope axis C2 are shown. FIG. 7 also shows a state in which the operator brings a surgical instrument 220 such as forceps into contact with the observation object 210 and holds the observation object 210 .

図7に示すように、観察対象物210は、スコープ軸C2の位置に対して視野200の下側(術具220を操作する術者側)に位置している。図7では、スコープ軸C2を中心として斜視鏡100を回転させた場合に、視野200に対して観察対象物210が移動する様子を示している。 As shown in FIG. 7, the observation object 210 is positioned below the field of view 200 (on the side of the operator who operates the surgical instrument 220) with respect to the position of the scope axis C2. FIG. 7 shows how the observed object 210 moves with respect to the field of view 200 when the oblique scope 100 is rotated about the scope axis C2.

図7に示す「斜視下」の図では、斜視鏡100対物光学系の光軸を視野200の上下方向で下側に向けた状態を示している。この場合、視野200の中に観察対象物210が入り、術者はモニタ上で観察対象物210を視認することができる。 7 shows a state in which the optical axis of the oblique mirror 100 objective optical system is directed downward in the vertical direction of the field of view 200. FIG. In this case, the observation object 210 enters the field of view 200, and the operator can visually recognize the observation object 210 on the monitor.

図7に示す「斜視右」の図では、斜視鏡100対物光学系の光軸を視野200の左右方向で右側に向けた状態を示している。この場合、視野200から観察対象物210が外れ、術者はモニタ上で観察対象物210を視認することができなくなる。 7 shows a state in which the optical axis of the objective optical system of the oblique mirror 100 is oriented rightward in the lateral direction of the field of view 200. FIG. In this case, the observation object 210 is out of the field of view 200, and the operator cannot visually recognize the observation object 210 on the monitor.

図7に示す「斜視上」の図では、斜視鏡100の対物光学系の光軸を視野200の上下方向で上側に向けた状態を示している。また、図7に示す「斜視左」の図では、斜視鏡100対物光学系の光軸を視野200の左右方向で左側に向けた状態を示している。これらの場合も、視野200から観察対象物210が外れ、術者はモニタ上で観察対象物210を視認することができなくなる。 7 shows a state in which the optical axis of the objective optical system of the oblique mirror 100 is directed upward in the vertical direction of the field of view 200. FIG. 7 shows a state in which the optical axis of the objective optical system of the oblique mirror 100 is oriented leftward in the horizontal direction of the field of view 200. FIG. In these cases as well, the observation object 210 is out of the field of view 200, and the operator cannot visually recognize the observation object 210 on the monitor.

以上のように、斜視鏡100では、斜視回転を行うことで、観察対象物210に対する視野の位置を変化させることができ、スコープ軸C2の周辺の比較的広い範囲を視認できる。一方、図7に示したように、斜視回転によってユーザが見たい部分や器具がモニタの視野200から外れてしまい、それらの場所を見失ってしまう可能性がある。 As described above, with the perspective scope 100, by performing oblique rotation, the position of the field of view with respect to the observed object 210 can be changed, and a relatively wide range around the scope axis C2 can be visually recognized. On the other hand, as shown in FIG. 7, there is a possibility that the portion or instrument that the user wants to see will be out of the field of view 200 of the monitor due to the oblique rotation, and the user will lose sight of those places.

このため、本実施形態では、観察対象物210の位置を検出して、観察対象物210が画面中央に移動するようにアームを制御する。また、本実施形態では、視野200に対する観察対象物210の位置に応じて斜視回転の際の回転速度を変更する。具体的に、視野200の中心から観察対象物210が離れるほど、斜視回転の際の回転速度が遅くなるように制御が行われる。視野200の中心から観察対象物210が離れるほど、斜視回転を行った際に観察対象物210が視野200から外れやすくなる。このため、視野200の中心から観察対象物210が離れるほど、斜視回転の際の回転速度を遅くすることで、観察対象物210が視野200から外れにくくなり、観察対象物210の位置を見失ってしまうことが抑制されることになる。但し、追従機能と斜視回転の速度は異なるため、追従のために画面を上下左右方向に動かす自由度の移動速度と、斜視回転の速度を協調させて制御しないと、画面外に外れてしまう可能性がある。このため、観察対象物210が画面中央に来るように制御しつつ、画面中央から対象物21までの距離L、若しくは相対位置に応じて、斜視回転の速度を減速するように制御する。 Therefore, in this embodiment, the position of the observed object 210 is detected, and the arm is controlled so that the observed object 210 moves to the center of the screen. Further, in the present embodiment, the rotation speed during oblique rotation is changed according to the position of the observation object 210 with respect to the field of view 200 . Specifically, control is performed so that the rotation speed during oblique rotation becomes slower as the observation object 210 is further away from the center of the field of view 200 . The farther the observation object 210 is from the center of the field of view 200, the more likely the observation object 210 will be out of the field of view 200 when the oblique rotation is performed. For this reason, the more the observation object 210 moves away from the center of the field of view 200, the slower the rotation speed during oblique rotation. It will be suppressed. However, since the tracking function and the squint rotation speed are different, if you don't control the movement speed of the degree of freedom to move the screen up, down, left and right for tracking and the squint rotation speed in coordination, it may be out of the screen. have a nature. Therefore, while controlling the observation object 210 to come to the center of the screen, the oblique rotation speed is controlled to be reduced according to the distance L from the screen center to the object 21 or the relative position.

<2.2.視野の中心からの距離に応じた斜視回転速度の変更>
ここでは、視野200の中心から観察対象物210までの距離に応じた斜視回転速度の変更について説明する。図8は、視野200の中心から観察対象物210までの距離を算出する手法を示す模式図である。図8に示すように、斜視回転速度をω[rad/s]、画面中央Oから観察対象物210の位置pまでのピクセル数を(x,y)[pixels]としたとき、画面中央から観察対象物210の位置までのピクセル数lは、l=√(x+y)で得られる。ここから斜視回転速度ω=f(l)の関数で調整することで実現する。例えば画面中央から対角の画面頂点までのピクセル数をlmax[pixels]、斜視回転速度の最高速をωmaxとしたとき、
ω=ωmax*(lmax-l)=ωmax*(lmax-√(x2+y2))
とする。
これにより、観察対象物210の位置が画面中央のときω=ωmax、観察対象物210の位置が対角の画面頂点のときω=0という形で調整される。この例では、線形な計算としているが、高次の関数等を使用してもよい。また、カメラから被写体までの距離Z[mm]、画角θが既知であれば、画面中央から観察対象物210までの距離L[mm]を計算して、ω=f(L)としてもよい。
<2.2. Change in oblique rotation speed according to distance from center of visual field>
Here, the change of the oblique rotation speed according to the distance from the center of the field of view 200 to the observed object 210 will be described. FIG. 8 is a schematic diagram showing a method of calculating the distance from the center of the field of view 200 to the observed object 210. As shown in FIG. As shown in FIG. 8, when the oblique rotation speed is ω [rad/s] and the number of pixels from the screen center O to the position p of the observation object 210 is (x, y) [pixels], observation from the screen center is performed. The number of pixels l to the position of the object 210 is given by l=√(x 2 +y 2 ). From here, it is realized by adjusting the oblique rotation speed ω=f(l) as a function. For example, when the number of pixels from the center of the screen to the diagonal screen vertex is lmax [pixels], and the maximum oblique rotation speed is ωmax,
ω=ωmax*(lmax−l)=ωmax*(lmax−√(x2+y2))
and
As a result, ω=ωmax when the position of the observation object 210 is at the center of the screen, and ω=0 when the position of the observation object 210 is at the diagonal screen vertex. In this example, a linear calculation is used, but a higher-order function or the like may be used. Also, if the distance Z [mm] from the camera to the subject and the angle of view θ are known, the distance L [mm] from the center of the screen to the observed object 210 may be calculated to set ω=f(L). .

図9は、画面内の被写体位置に応じて斜視回転の速度を規定するマップの例を示す模式図である。マップ400は、図8に基づき、画面中央Oからの距離が大きくなるほど斜視回転の速度を小さくする例を示している。マップ400のドットの濃さは斜視回転の速度に対応しており、マップ410は、マップ400におけるドットの濃さと斜視回転の速度との関係を示している。マップ410に示すように、ドットの濃度が濃くなるほど、斜視回転の速度は速くなる。従って、マップ400において、画面中央Oからの距離が大きくなるほど斜視回転の速度は低下する。 FIG. 9 is a schematic diagram showing an example of a map that defines the oblique rotation speed according to the subject position within the screen. Based on FIG. 8, the map 400 shows an example in which the oblique rotation speed decreases as the distance from the screen center O increases. The density of dots in map 400 corresponds to the speed of oblique rotation, and map 410 shows the relationship between the density of dots in map 400 and the speed of oblique rotation. As shown in map 410, the darker the dot, the faster the oblique rotation. Therefore, in the map 400, the speed of oblique rotation decreases as the distance from the screen center O increases.

また、ドットの濃さと、斜視回転の速度及び被写体(観察対象物210)との距離との関係を示している。マップ420によれば、被写体との距離が近いほど斜視回転の速度は低くなる。被写体との距離が近い程、斜視鏡100の動きに応じて視野200内で観察対象物210の動く量が増大するため、被写体との距離が近いほど斜視回転の速度を低下させることで、視野200から観察対象物210を見失うことを抑制できる。 It also shows the relationship between the density of dots, the oblique rotation speed, and the distance to the subject (observation object 210). According to the map 420, the closer the distance to the subject, the lower the oblique rotation speed. The closer the distance to the subject, the greater the amount of movement of the observation object 210 within the field of view 200 in accordance with the movement of the oblique mirror 100. Losing sight of the observation object 210 from the observation object 200 can be suppressed.

図10は、画面中央Oから観察対象物210までの距離(横軸)と、斜視回転速度(縦軸)との関係を示す特性図である。上述したように画面中央Oから観察対象物210までの距離が大きくなるほど、斜視回転の速度が低下するように制御が行われるが、制御の手法として図10に示すようなバリエーションが想定できる。 FIG. 10 is a characteristic diagram showing the relationship between the distance from the screen center O to the observed object 210 (horizontal axis) and the oblique rotation speed (vertical axis). As described above, control is performed so that the oblique rotation speed decreases as the distance from the screen center O to the observation object 210 increases, but variations such as those shown in FIG. 10 can be assumed as control methods.

図10に示す特性1の場合、斜視回転の速度を優先して制御が行われる。アームのXY方向の移動が十分速い場合は、このような特性でも観察対象物210への追従は可能である。画面端(Lmax)でも斜視鏡回転速度は0ではないため、斜視回転開始時の観察対象物210の位置によっては観察対象物210が画面から外れることもあり得る。 In the case of characteristic 1 shown in FIG. 10, control is performed with priority given to the oblique rotation speed. If the movement of the arm in the XY directions is sufficiently fast, it is possible to follow the observed object 210 even with such characteristics. Since the oblique mirror rotation speed is not 0 even at the screen edge (Lmax), the observation object 210 may be out of the screen depending on the position of the observation object 210 at the start of oblique rotation.

図10に示す特性2、特性3の場合、アームのXY移動の速度が斜視回転による視野の展開よりも遅いケースを想定している。観察対象物210が画面中央Oに近い時には斜視回転を速く行い、画面端(Lmax)でも斜視鏡回転速度は0ではない。観察対象物210が画面中央Oから一定距離以上離れたときも速度を持つため、斜視回転開始時の観察対象物210の位置によっては観察対象物210が画面から外れることもあり得る。 In the case of characteristics 2 and 3 shown in FIG. 10, it is assumed that the speed of the XY movement of the arm is slower than the development of the field of view due to oblique rotation. When the observation object 210 is close to the center O of the screen, the oblique rotation is fast, and the oblique mirror rotation speed is not 0 even at the edge of the screen (Lmax). Since the observation object 210 has a speed even when it is separated from the screen center O by a certain distance or more, the observation object 210 may be out of the screen depending on the position of the observation object 210 at the start of oblique rotation.

また、図10に示す特性4の場合は、XY移動がかなり遅い場合で、観察対象物210を絶対に視野200からはずさないケースを想定している。観察対象物210が画面中央Oからある程度外れると、斜視回転を完全に停止してXY移動のみが行われる。 Further, in the case of characteristic 4 shown in FIG. 10, it is assumed that the XY movement is considerably slow and the observation object 210 is never removed from the field of view 200 . When the observation object 210 deviates from the screen center O to some extent, the oblique rotation is completely stopped and only the XY movement is performed.

特性1~4のいずれにおいても、斜視回転の最高速とアームのXY移動の速度の関係、観察対象物210が視野200外へ移動することを許容するかどうか、等に応じて特性が変わることなる。
<2.3.観察対象物への追従動作>
[観察対象物を画面中央に移動させるアームの動かし方]
図11は、斜視鏡100の長軸中心の回転(斜視回転)により対物光学系の光軸の向きが変化する様子を示している。図10に示すように、斜視回転によって術者が見る方向を変えることが可能であるが、図7で説明したように視野も移動してしまう。一方、図12は、トロッカ点中心の光学軸の回転やそれに近い動きを与えることで、XY方向の移動を行った場合を示している。なお、トロッカ点とは、トロッカが人体に挿入される位置をいうものとする。図12に示すように、トロッカ点を中心として斜視鏡100に回転の動き(斜視鏡ピボットの動き)を加えると、視野を外さずに斜視回転角を変えることができる。このような動きを行う場合は、斜視回転角とXY移動を連動させて動かす。
In any of the properties 1 to 4, the properties change depending on the relationship between the maximum oblique rotation speed and the XY movement speed of the arm, whether or not the observation object 210 is permitted to move outside the field of view 200, and the like. Become.
<2.3. Follow-Up Operation to Observation Object>
[How to move the arm to move the observation target to the center of the screen]
FIG. 11 shows how the orientation of the optical axis of the objective optical system changes due to the rotation of the perspective mirror 100 about the long axis (perspective rotation). As shown in FIG. 10, it is possible to change the viewing direction of the operator by oblique rotation, but the field of view also shifts as described with reference to FIG. On the other hand, FIG. 12 shows a case where movement in the XY directions is performed by giving a rotation of the optical axis centered on the trocar point or a movement close thereto. Note that the trocar point is the position where the trocar is inserted into the human body. As shown in FIG. 12, applying a rotational movement (perspective scope pivot movement) to the perspective scope 100 about the trocar point can change the perspective rotation angle without losing the field of view. When such a movement is performed, the oblique rotation angle and the XY movement are interlocked.

以下では、斜視鏡100の斜視回転と併用する、視野に対する斜視鏡100の動き方の例について説明する。図13は、斜視鏡の姿勢を変えない平行移動の例を示しており、平行移動の動きとともに、斜視回転を行う場合を示す模式図である。この場合、カメラ視野に対する斜視鏡100の姿勢を変えずに移動が行われる。 In the following, an example of how the oblique mirror 100 moves with respect to the field of view in combination with the oblique rotation of the oblique mirror 100 will be described. FIG. 13 shows an example of parallel movement without changing the posture of the oblique mirror, and is a schematic diagram showing a case where oblique rotation is performed along with the movement of parallel movement. In this case, the movement is performed without changing the attitude of the oblique mirror 100 with respect to the camera field of view.

斜視角α(Y軸周り)、斜視回転角ψ(Z軸周り)、硬性鏡長さL、観察対象物までの距離R、視野中央の点V、平行移動の量(ax, ay, az)としたとき、平行移動を表す同時変換行列は以下になる。 Oblique angle α (around the Y axis), oblique rotation angle ψ (around the Z axis), rigid scope length L, distance R to the observation object, point V at the center of the visual field, amount of translation (ax, ay, az) , the simultaneous transformation matrix representing translation is as follows.

Figure 0007115493000001
Figure 0007115493000001

また、斜視角と斜視回転角の同時変換行列は以下のように表すことができる。なお、硬性鏡根元の初期位置は簡易化のため(0,0,0)の原点とする Also, a simultaneous conversion matrix for oblique angles and oblique rotation angles can be expressed as follows. For simplicity, the initial position of the base of the rigid scope is the origin of (0,0,0).

Figure 0007115493000002
Figure 0007115493000002

この時、視野中央の点Vは以下のようになる。 At this time, the point V at the center of the field of view is as follows.

Figure 0007115493000003
Figure 0007115493000003

以上のこの式から明らかなように、硬性鏡を平行移動させるのと同じ移動量だけ視野が移動することができる。逆にVを一定に保つようにψの値に応じたax, ayを制御することで図13のように斜視回転をさせつつ対象点を見続けることができる。さらに(Rcosψα, Rsinψsinα)の変化量よりもVの位置を一定位置に保つために動く(ax, ay)の変化量が十分早ければ、斜視鏡の回転によって対象物が視野から外れることがなくなるため、前述のように斜視回転速度を制御すると対象物を画面から見失うことなく斜視を回転することができる。また、(Rcosψα, Rsinψsinα)と (ax, ay)の変化量の相対差が影響するため斜視回転角の速度以外に(ax, ay)の速度を調整することでも同様の動きが実現できる。このような動きは、トロッカ点の拘束がないケースに限定され、例えば、胸部の小開胸/小切開での斜視鏡下手術の場合に相当する。Y方向を動きであるため、視野200とカメラの距離は維持される。 As is clear from this formula above, the field of view can be moved by the same amount of movement as the translation of the rigid scope. Conversely, by controlling ax and ay according to the value of ψ so as to keep V constant, it is possible to keep looking at the target point while rotating obliquely as shown in FIG. Furthermore, if the amount of change in (ax, ay) to keep V at a fixed position is sufficiently faster than the amount of change in (Rcosψα, Rsinψsinα), the rotation of the oblique mirror will not cause the object to move out of the field of view. If the oblique rotation speed is controlled as described above, the oblique rotation can be performed without losing sight of the object on the screen. Also, since the relative difference between (Rcosψα, Rsinψsinα) and (ax, ay) affects the amount of change, the same movement can be realized by adjusting the velocity (ax, ay) in addition to the velocity of the oblique rotation angle. Such movement is limited to the case of no trocar point constraint, for example, strabiscopy with a small thoracotomy/small incision in the chest. Since the motion is in the Y direction, the distance between the field of view 200 and the camera is maintained.

また、図14は、拘束点300を中心とした回転によって視野を上下左右方向に移動する例を示している。拘束点300は、例えばトロッカ点に相当する。この場合、アームの構成としては、拘束点300を中心とした3自由度でも実現可能である。拘束点300を中心とするX軸周りの回転をφ、Y軸周りの回転をθ、とすると、各々の回転行列は以下のようになる。 Also, FIG. 14 shows an example in which the field of view is moved vertically and horizontally by rotation about the constraint point 300 . Constraint points 300 correspond to trocar points, for example. In this case, the arm can be configured with three degrees of freedom around the constraint point 300 . Let φ be the rotation about the X-axis and θ be the rotation about the Y-axis with the constraint point 300 as the center, then each rotation matrix is as follows.

Figure 0007115493000004
Figure 0007115493000004

また、拘束点300を中心とした回転の同時変換行列は以下のようになる。 Also, the simultaneous transformation matrix for rotation about the constraint point 300 is as follows.

Figure 0007115493000005
Figure 0007115493000005

この時、視野中央の点Vは以下のように表すことができる。 At this time, the point V at the center of the field of view can be expressed as follows.

Figure 0007115493000006
Figure 0007115493000006

上記のVが保たれるようにθ、φ、ψが調整されれば視野が外れない。目標とする斜視角ψが決まっているとき、Vの値を保つようなθとφの目標値が選ぶ。この目標値を指令値としてθ、φ、ψを制御する際に、前述の斜視回転角の調整を入れることにより、目標値に追従する過程においても視野から対象物を外すことなく制御することが可能となる。 If θ, φ, and ψ are adjusted so that the above V is maintained, the field of view does not deviate. When the target oblique angle ψ is determined, the target values of θ and φ are selected so that the value of V is maintained. When controlling θ, φ, and ψ using these target values as command values, by adjusting the oblique rotation angle described above, it is possible to control the object without removing it from the field of view even in the process of following the target values. It becomes possible.

またψの姿勢によってθおよびφの変化に対するVの変化量も変わるため斜視回転角ψの値に応じてXとYの変化量が同じになるようθとφの回転速度を調整してもよい。なお上記計算は計算が煩雑になるため簡易実装のためα=0、ψ=0として斜視回転角に関係なく硬性鏡軸をθ、φで回転させて視野の移動を簡単化してもよい。 Also, since the amount of change in V relative to the change in θ and φ changes depending on the attitude of ψ, the rotational speed of θ and φ may be adjusted so that the amount of change in X and Y becomes the same according to the value of the oblique rotation angle ψ. . Since the above calculations are complicated, for simple implementation, α=0 and ψ=0 may be set and the rigid scope axis may be rotated by θ and φ regardless of the oblique rotation angle to simplify the movement of the field of view.

[観察対象物を画面中央に移動させるアームの制御]
以下では、拘束点300を中心に斜視鏡100を動かす場合に、観察対象物210が視野200の中央に位置するように追従を行う例について、説明する。画面内の対象物の位置を画像認識等によって認識し、その情報に基づいて観察対象物を画面内で移動するようなアームの制御方法を用いてもよい。また、視線検出によって術者の観察対象点を定め、観察対象点を視野の中央に移動させることもできる。
[Control of the arm that moves the object to be observed to the center of the screen]
In the following, an example of following the observation object 210 so as to be positioned in the center of the field of view 200 when the oblique scope 100 is moved around the constraint point 300 will be described. An arm control method may be used in which the position of an object within the screen is recognized by image recognition or the like, and the observation object is moved within the screen based on that information. It is also possible to determine the operator's observation target point by line-of-sight detection and move the observation target point to the center of the field of view.

本実施形態によれば、支持アーム装置に取り付けられて患者の人体内部へ挿入される内視鏡の光軸上に患者の人体内部に存在する対象物が一致するように、支持アーム装置を制御して内視鏡を移動させる制御部、を備える情報処理装置が提供される。画像認識等によって対象物を認識して対象物が画面中心に映るようにアームを制御することで、内視鏡により得られる画像の中心部に手術器具又は腫瘍等の対象物を捉えることが可能となり、術者の利便性が向上する。かかる情報処理装置は、内視鏡手術システム5000と別に構成されてもよいし、内視鏡手術システム5000に含まれる任意の装置として構成されてもよい。 According to this embodiment, the support arm device is controlled so that the object existing inside the patient's body is aligned with the optical axis of the endoscope attached to the support arm device and inserted into the patient's body. and a control unit that moves the endoscope by moving the endoscope. By recognizing the target using image recognition, etc., and controlling the arm so that the target appears in the center of the screen, it is possible to capture the target, such as a surgical instrument or a tumor, in the center of the image obtained by the endoscope. As a result, convenience for the operator is improved. Such an information processing device may be configured separately from the endoscopic surgery system 5000 or may be configured as an arbitrary device included in the endoscopic surgery system 5000 .

以下、図15及び図16を参照して、本実施形態の概要を説明する。 The outline of this embodiment will be described below with reference to FIGS. 15 and 16. FIG.

図15及び図16は、本実施形態の概要を説明するための図である。図15では、患者5071の腹壁に穿刺されたトロッカ5025aから患者5071の体腔内に内視鏡5001の鏡筒5003が挿入された様子が示されている。実線で示された内視鏡5001は、現在の位置姿勢を示しており、破線で示された内視鏡5001は、本実施形態に係る内視鏡制御処理による移動先の(即ち、未来の)位置姿勢を示している。また、患者5071の腹壁に穿刺されたトロッカ5025dから鉗子5023が挿入されている。図16では、図15に示した内視鏡5001により得られる画像(以下、内視鏡映像とも称する)が示されており、左図が現在の位置姿勢で得られる画像であり、右図が本実施形態に係る内視鏡制御処理による移動後に得られる画像である。 15 and 16 are diagrams for explaining the outline of this embodiment. FIG. 15 shows how the barrel 5003 of the endoscope 5001 is inserted into the body cavity of the patient 5071 through the trocar 5025a punctured in the abdominal wall of the patient 5071. FIG. The endoscope 5001 indicated by the solid line indicates the current position and orientation, and the endoscope 5001 indicated by the dashed line indicates the destination (that is, the future position) of the endoscope control processing according to the present embodiment. ) indicates the position and orientation. A forceps 5023 is inserted from a trocar 5025d punctured in the abdominal wall of the patient 5071. FIG. FIG. 16 shows images obtained by the endoscope 5001 shown in FIG. 15 (hereinafter also referred to as endoscopic images). It is an image obtained after movement by endoscope control processing according to the present embodiment.

図15を参照すると、内視鏡5001の現在の位置姿勢では、鉗子5023の先端が内視鏡5001の視野6052内に捉えられているものの、中心軸(即ち、光軸)6051上にはない。そのため、図16の左図に示すように、中心に鉗子5023の先端が映っていない内視鏡映像が得られることになる。本実施形態に係る内視鏡手術システム5000は、このような状況において、画面中心に鉗子5023等の術具が映るように、内視鏡5001を移動させる処理を行う。詳しくは、内視鏡手術システム5000は、鉗子5023の先端が中心軸6051上に位置するように、図示しない支持アーム装置5027により内視鏡5001を移動させる。これにより、図16の右図に示すように、中心に鉗子5023の先端が映った内視鏡映像が得られることになる。なお、以下では、斜視角および斜視回転角を無視して、鉗子5023の先端を中心軸6051上に位置させる例を示すが、斜視角および斜視回転角を考慮することで、斜視鏡200の制御を行うことができる。また、鉗子5023の先端を中心軸6051上に位置させる例を示すが、観察対象物210を画像認識することにより、観察対象物210をターゲットとして中心軸6051上に位置させる場合ことも同様に行うことができる。 Referring to FIG. 15, in the current position and orientation of the endoscope 5001, the tip of the forceps 5023 is captured within the field of view 6052 of the endoscope 5001, but not on the central axis (that is, the optical axis) 6051. . Therefore, as shown in the left diagram of FIG. 16, an endoscopic image is obtained in which the tip of the forceps 5023 is not shown in the center. In such a situation, the endoscopic surgery system 5000 according to the present embodiment performs a process of moving the endoscope 5001 so that the forceps 5023 and other surgical instruments are shown in the center of the screen. Specifically, the endoscopic surgery system 5000 moves the endoscope 5001 by a support arm device 5027 (not shown) so that the tip of the forceps 5023 is positioned on the central axis 6051 . As a result, as shown in the right diagram of FIG. 16, an endoscopic image is obtained in which the tip of the forceps 5023 is reflected in the center. An example in which the tip of the forceps 5023 is positioned on the central axis 6051 ignoring the oblique angle and oblique rotation angle will be described below. It can be performed. In addition, although an example in which the tip of the forceps 5023 is positioned on the central axis 6051 is shown, the observation object 210 can also be positioned on the central axis 6051 as a target by recognizing the image of the observation object 210. be able to.

このように、内視鏡手術システム5000は、術具を自動で追従して、術具が画面中心に映った内視鏡映像を提供することが可能となる。よって、術者は、内視鏡5001を操作せずとも、快適に手術を継続することが可能となる。 In this way, the endoscopic surgery system 5000 can automatically follow the surgical tool and provide an endoscopic image in which the surgical tool is shown in the center of the screen. Therefore, the operator can comfortably continue the operation without operating the endoscope 5001 .

<2.4.斜視回転動作と追従動作のための制御部の構成例>
図21は、上述した斜視回転動作と追従動作を行うための支持アーム装置1400の制御部1351の構成を示す模式図である。図21に示すように、制御部1351は、観察対象物210を撮像して得られる視野200内で、視野の中心から観察対象物210の位置までの距離を取得する距離取得部1351aと、視野の中心から観察対象物210の位置までの距に基づいて、斜視鏡100の斜視回転の速度又は斜視鏡100の移動速度を算出する速度算出部1351bと、を備える。距離取得部1351aによる視野の中心から観察対象物210の位置までの距離の取得は、CCU5039の制御部5063が観察対象物210を画像認識した結果に基づいて行われる。
<2.4. Configuration Example of Control Unit for Oblique Rotation Operation and Follow-up Operation>
FIG. 21 is a schematic diagram showing the configuration of the control section 1351 of the support arm device 1400 for performing the oblique rotation motion and the follow-up motion described above. As shown in FIG. 21, the control unit 1351 includes a distance acquisition unit 1351a that acquires the distance from the center of the field of view to the position of the observation object 210 within the field of view 200 obtained by imaging the observation object 210, and a speed calculation unit 1351b that calculates the speed of oblique rotation of the squint mirror 100 or the moving speed of the squint mirror 100 based on the distance from the center of the observation object 210 to the position of the observation object 210 . Acquisition of the distance from the center of the field of view to the position of the observation object 210 by the distance acquisition unit 1351a is performed based on the result of image recognition of the observation object 210 by the control unit 5063 of the CCU 5039 .

また、制御部1351は、CCU5039の制御部5063が観察対象物210を画像認識した結果に基づいて、観察対象物210が視野200の中心に位置するように支持アーム装置1400を制御する。この際、制御部1351は、視野200内の観察対象物210の位置に応じて、斜視鏡100の斜視回転の速度又は斜視鏡100の移動速度の少なくとも一方を制御する。制御部1351は、視野200内の観察対象物210の位置に応じて、斜視鏡100の長軸周りの回転角及び回転速度を制御する。CCU5039の制御部5063は、上述したように、各種の画像認識技術を用いて、観察対象物210の画像の特徴と視野200内での位置を認識することができる。制御部1351は、CCU5039から、観察対象物210の視野200内での位置に関する情報を取得する。 Further, the control unit 1351 controls the support arm device 1400 so that the observation object 210 is positioned at the center of the field of view 200 based on the image recognition result of the observation object 210 by the control unit 5063 of the CCU 5039 . At this time, the control unit 1351 controls at least one of the oblique rotation speed of the squint mirror 100 and the movement speed of the squint mirror 100 according to the position of the observation object 210 within the field of view 200 . The control unit 1351 controls the rotation angle and rotation speed of the oblique mirror 100 about the major axis according to the position of the observation object 210 within the field of view 200 . The control unit 5063 of the CCU 5039 can recognize the features of the image of the observed object 210 and the position within the field of view 200 using various image recognition techniques, as described above. The control unit 1351 acquires information about the position of the observed object 210 within the field of view 200 from the CCU 5039 .

術者は、表示装置5041に表示された術部の画像をリアルタイムで見ながら、入力装置5047を操作することで、表示装置5041に表示された術部から観察対象物210を指定することができる。制御部5063は、指定された観察対象物210に基づいて、観察対象物210の画像の特徴と視野200内での位置を認識する。 The operator can specify the observation object 210 from the operative site displayed on the display device 5041 by operating the input device 5047 while viewing the image of the operative site displayed on the display device 5041 in real time. . The control unit 5063 recognizes the features of the image of the observed object 210 and the position within the field of view 200 based on the specified observed object 210 .

<2.5.追従動作の詳細>
続いて、図17を参照して、上述した内視鏡制御を実現する処理を説明する。
<2.5. Details of follow-up operation>
Next, with reference to FIG. 17, processing for realizing the above-described endoscope control will be described.

図17は、本実施形態に係る内視鏡制御処理の概要を説明するための図である。図17に示した各々のブロックは処理を示しており、内視鏡制御処理は複数の処理から成る。図17に示すように、内視鏡手術システム5000は、画像処理を行って、術具等のターゲットを検出する。次いで、内視鏡手術システム5000は、検出結果に基づいてターゲットの位置を算出する。次に、内視鏡手術システム5000は、算出されたターゲットの位置及びトロッカ位置に基づいて、現在の内視鏡の姿勢を算出する。次いで、内視鏡手術システム5000は、算出した現在の内視鏡の姿勢及び仮想面(平面又は曲面)の設定情報に基づいて、目標となる内視鏡先端位置を算出する。次に、内視鏡手術システム5000は、現在の内視鏡の姿勢と目標となる内視鏡先端位置とに基づいて内視鏡の姿勢の変化量を演算し、演算した変化量に応じた姿勢変化を実現させるためのアームの制御情報(即ち指令)を生成する。そして、内視鏡手術システム5000は、生成した指令に従って動作するよう支持アーム(例えば、アーム部5031)を制御する。内視鏡手術システム5000は、以上説明した一連の処理を繰り返し行う。 FIG. 17 is a diagram for explaining an overview of endoscope control processing according to the present embodiment. Each block shown in FIG. 17 represents a process, and the endoscope control process consists of a plurality of processes. As shown in FIG. 17, the endoscopic surgery system 5000 performs image processing to detect targets such as surgical instruments. The endoscopic surgery system 5000 then calculates the position of the target based on the detection result. Next, the endoscopic surgery system 5000 calculates the current orientation of the endoscope based on the calculated target position and trocar position. Next, the endoscopic surgery system 5000 calculates the target distal end position of the endoscope based on the calculated current endoscope posture and setting information of the virtual plane (flat or curved plane). Next, the endoscopic surgery system 5000 calculates the amount of change in the posture of the endoscope based on the current posture of the endoscope and the target position of the distal end of the endoscope, and determines the amount of change according to the calculated amount of change. It generates arm control information (that is, commands) for realizing posture changes. The endoscopic surgery system 5000 then controls the support arm (for example, the arm section 5031) to operate according to the generated command. The endoscopic surgery system 5000 repeats the series of processes described above.

以下、本実施形態に係る内視鏡制御処理の詳細を説明する。 Details of the endoscope control process according to the present embodiment will be described below.

(1)はじめに
本実施形態によれば、内視鏡手術システム5000は、内視鏡映像から術具を認識して自動で追従する機能を実現可能である。以下では、画像処理部分(マーカ検出)および検出結果からアームが内視鏡を操作して、トロッカ点を考慮しつつ画面中心に術具がくるように移動させるための計算方法を説明する。
(1) Introduction According to this embodiment, the endoscopic surgery system 5000 can realize a function of recognizing a surgical tool from an endoscopic image and automatically following it. A calculation method for operating the endoscope by the arm based on the image processing portion (marker detection) and the detection result to move the surgical instrument to the center of the screen while considering the trocar point will be described below.

以下、機能要件を説明した後、画像処理による術具(マーカー)の検出方法を記載し、そのあとに検出結果から目標となる移動情報と姿勢情報に変換して動作するまでの計算方法を説明する。 In the following, after explaining the functional requirements, the method of detecting the surgical tool (marker) by image processing is described, and then the calculation method of converting the detection result into target movement information and posture information and moving it is described. do.

ここでは、斜視角および斜視回転角を無視して、拘束点中心にアームを動かした場合の例を示す。 Here, an example in which the oblique angle and oblique rotation angle are ignored and the arm is moved around the constraint point is shown.

(2)画像処理
内視鏡手術システム5000は、画像処理により術具(例えば、術具の先端位置及び/又は姿勢)を検出する。
(2) Image Processing The endoscopic surgery system 5000 detects a surgical tool (for example, the tip position and/or posture of the surgical tool) by image processing.

例えば、目印となるマーカーを術具先端部に取り付けることで、内視鏡映像に基づく画像処理により術具の位置が検出されてもよい。マーカーは、検出容易であることが望ましい。例えば、マーカーは青又は緑といった、体腔内の臓器や血管の色と比べて目立つ色(例えば、色相環において臓器や血管の色とは反対側に位置する色)であってもよい。また、マーカーは、2次元コード又はバーコード等の特定のパターンであってもよい。 For example, the position of the surgical instrument may be detected by image processing based on endoscopic images by attaching a marker to the distal end of the surgical instrument. Markers should be easily detectable. For example, the marker may be a color such as blue or green that stands out from the color of the organ or blood vessel in the body cavity (eg, the color that is on the opposite side of the color wheel from the color of the organ or blood vessel). Alternatively, the marker may be a specific pattern such as a two-dimensional code or barcode.

例えば、目印となるマーカーを術具の体外に出ている部分に取り付けることで、外部のセンサによるマーカーの検出結果、術具の長さ及び姿勢等の情報に基づいて術具の位置が検出されてもよい。 For example, by attaching a marker to the part of the surgical instrument that is outside the body, the position of the surgical instrument can be detected based on information such as the marker detection result by an external sensor, the length and posture of the surgical instrument. may

なお、術具の検出は、画像処理以外の手法により行われてもよい。 Note that detection of the surgical tool may be performed by a method other than image processing.

例えば、特別なトロッカを作成することで、術具の挿入量とトロッカの角度とに基づいて術具の位置が算出されてもよい。 For example, by creating a special trocar, the position of the surgical instrument may be calculated based on the insertion amount of the surgical instrument and the angle of the trocar.

例えば、術具を内視鏡とは別の支持アーム装置に取り付けることで、支持アーム装置の位置姿勢情報から術具の位置が算出されてもよい。 For example, by attaching the surgical tool to a support arm device different from the endoscope, the position of the surgical tool may be calculated from the position and orientation information of the support arm device.

(3)目標計算
内視鏡手術システム5000は、目標計算を行う。目標計算は、位置及び姿勢の二つを計算して、移動を指示するための計算である。
(3) Target Calculation The endoscopic surgery system 5000 performs target calculation. The target calculation is a calculation for instructing movement by calculating both position and orientation.

詳しくは、内視鏡手術システム5000は、最初に目標位置を画像処理結果から求めたあと、トロッカ点を起点とした現在の姿勢及び目標位置到達時の姿勢に基づいて、姿勢の変化量を決定する。また、内視鏡手術システム5000は、画像処理の結果から移動量を求める間はエンコーダから取得される現在の位置・姿勢を基に目標計算を行うが、実際の指令を行う場合は、最後に行った指令値に、算出した値を足し合わせて行う。この理由は、現在値と指令値との間に制御誤差に起因するズレが発生していて、指令値を出す場合に現在値を起点にゴールを設定してしまうと動作がスムーズでなくなり、また誤差が大きくなっていく問題が発生するためである。 Specifically, the endoscopic surgery system 5000 first obtains the target position from the image processing result, and then determines the amount of change in posture based on the current posture with the trocar point as the starting point and the posture when the target position is reached. do. The endoscopic surgery system 5000 performs target calculation based on the current position/orientation obtained from the encoder while the movement amount is obtained from the result of image processing. Add the calculated value to the command value. The reason for this is that there is a gap between the current value and the command value due to a control error. This is because a problem occurs in which the error increases.

以下、図18を参照して、目標計算処理の流れの一例を説明する。 An example of the flow of the target calculation process will be described below with reference to FIG.

図18は、本実施形態に係る内視鏡手術システム5000による目標計算処理の流れの一例を示すフローチャートである。図18に示すように、内視鏡手術システム5000は、まず、座標計算を行う。 FIG. 18 is a flowchart showing an example of the flow of target calculation processing by the endoscopic surgery system 5000 according to this embodiment. As shown in FIG. 18, the endoscopic surgery system 5000 first performs coordinate calculation.

座標計算において、内視鏡手術システム5000は、まず、現在値基準で座標を計算する。詳しくは、内視鏡手術システム5000は、画像処理結果を取得する(ステップS402)。次いで、内視鏡手術システム5000は、検出位置をカメラ座標系に変換する(即ち、2Dから3Dへの変換)(ステップS404)。次に、内視鏡手術システム5000は、カメラ座標系からWorld座標系へ変換する(ステップS406)。次いで、内視鏡手術システム5000は、トロッカ点から単位ベクトルへ変換する(ステップS408)。次に、内視鏡手術システム5000は、既定平面(即ち、仮想面)との交点までの長さを求める(ステップS410)。次いで、内視鏡手術システム5000は、トロッカ点から既定平面までのベクトルをWorld座標系へ変換する(ステップS412)。 In the coordinate calculation, the endoscopic surgery system 5000 first calculates the coordinates based on the current value. Specifically, the endoscopic surgery system 5000 acquires the image processing result (step S402). Next, the endoscopic surgery system 5000 transforms the detected position into the camera coordinate system (that is, transforms from 2D to 3D) (step S404). Next, the endoscopic surgery system 5000 transforms from the camera coordinate system to the World coordinate system (step S406). Next, the endoscopic surgery system 5000 converts the trocar points to unit vectors (step S408). Next, the endoscopic surgery system 5000 obtains the length up to the intersection with the predetermined plane (that is, the virtual plane) (step S410). Next, the endoscopic surgery system 5000 transforms the vector from the trocar point to the predetermined plane into the World coordinate system (step S412).

内視鏡手術システム5000は、現在値基準で座標を計算した後、指令値基準で座標を計算する。詳しくは、内視鏡手術システム5000は、内視鏡の長さを基に挿入深さへ変換する(ステップS414)。 After calculating the coordinates based on the current value, the endoscopic surgery system 5000 calculates the coordinates based on the command value. Specifically, the endoscopic surgery system 5000 converts the length of the endoscope into the insertion depth (step S414).

座標計算後、内視鏡手術システム5000は、姿勢計算を行う。 After coordinate calculation, the endoscopic surgery system 5000 performs attitude calculation.

姿勢計算において、内視鏡手術システム5000は、まず、現在値基準で姿勢を計算する。詳しくは、内視鏡手術システム5000は、現在の姿勢ベクトルを取得する(ステップS416)。次いで、内視鏡手術システム5000は、計算した新しい目標ベクトルの姿勢を求める(ステップS418)。次に、内視鏡手術システム5000は、計算した新しい目標ベクトルとの間の相対的な姿勢変化量を求める(ステップS420)。 In posture calculation, the endoscopic surgery system 5000 first calculates the posture based on the current value. Specifically, the endoscopic surgery system 5000 acquires the current posture vector (step S416). Next, the endoscopic surgery system 5000 obtains the posture of the calculated new target vector (step S418). Next, the endoscopic surgery system 5000 obtains a relative posture change amount with respect to the calculated new target vector (step S420).

内視鏡手術システム5000は、現在値基準で姿勢を計算した後、指令値基準で姿勢を計算する。詳しくは、内視鏡手術システム5000は、最終指令値の姿勢からの姿勢変化量に変換する(ステップS422)。 After calculating the posture based on the current value, the endoscopic surgery system 5000 calculates the posture based on the command value. Specifically, the endoscopic surgery system 5000 converts the posture change amount from the posture of the final command value (step S422).

以上説明した処理により、内視鏡手術システム5000は、目標位置及び目標姿勢を得る。 Through the processing described above, the endoscopic surgery system 5000 obtains the target position and target orientation.

(4)目標位置計算
図19は、本実施形態に係る目標位置計算を説明するための図である。図19に示すように、画像処理結果は、カメラ先端の画面中心を(0.5,0.5)としたカメラ座標系から見た位置が、[0.0-1.0]に正規化された値で通知される。そのままでは無次元の値のため、内視鏡手術システム5000は、最初にメートル単位系に変換する。ただし、内視鏡手術システム5000は、画像処理結果は2Dで奥行き方向の情報がないため、変換の際に奥行きを例えば50[mm]と仮定して、画角と組み合わせて仮想的な位置とする。
(4) Target Position Calculation FIG. 19 is a diagram for explaining target position calculation according to this embodiment. As shown in FIG. 19, in the image processing result, the position viewed from the camera coordinate system with the center of the screen at the tip of the camera as (0.5, 0.5) is normalized to [0.0-1.0]. specified value. Due to the dimensionless values as is, the endoscopic surgical system 5000 first converts to the metric unit system. However, in the endoscopic surgery system 5000, the image processing result is 2D and there is no information in the depth direction. do.

奥行を50[mm]と仮定した理由を説明する。第1の理由は、仮定した値が実際の値より大きいと、(x,y)の移動量が実際の(x,y)より大きくなり、オーバーランする(振動的になる)ためである。第2の理由は、想定術式での撮影距離を50[mm]~100[mm]と設定して、最短の距離としたためである。第3の理由は、実距離のほうが大きい場合、次の画像処理結果で新たに残差から移動が決定されるため、最終的にゴールに到達可能なためである。 The reason why the depth is assumed to be 50 [mm] will be explained. The first reason is that if the assumed values are larger than the actual values, the amount of movement of (x, y) becomes larger than the actual (x, y) and overruns (oscillates). The second reason is that the photographing distance in the assumed technique is set to 50 [mm] to 100 [mm], which is the shortest distance. The third reason is that when the actual distance is larger, the movement is newly determined from the residual in the next image processing result, so that the goal can be finally reached.

(5)目標姿勢計算
内視鏡手術システム5000は、目標位置が決まったあとに目標姿勢を求める。制御部1351は、目標位置及び目標姿勢に基づいて、アーム部これにより、アーム部1420を制御する。
(5) Desired Posture Calculation The endoscopic surgery system 5000 obtains the desired posture after the target position is determined. The control unit 1351 controls the arm unit 1420 based on the target position and the target posture.

<2.6.追従動作の具体例>
図20A~図20Dは、本実施形態による斜視鏡の制御により、斜視を左に向けた場合の具体例を説明するための模式図である。図20A~図20Dにおいても、図7と同様に、様々な臓器215の中にユーザ(術者)が見ようとする観察対象物210が存在する状態を示している。ここで、図20Aは、スコープ軸Cの位置に対して対物光学系の光軸が視野200の下側(術具220を操作する術者側)に向いている状態(斜視下の状態)を示している。図20Bは、図20Aの視野200を拡大して示している。この場合に、視野200の左側を見ようとして斜視回転を行うと、図20Cに示すように、観察対象物210への追従動作を行わない既存の技術では、図20Bに比べて斜視回転により観察対象物210の左側が観察できるようになる反面、観察対象物210が見えなくなってしまう。
<2.6. Specific example of follow-up operation>
FIGS. 20A to 20D are schematic diagrams for explaining a specific example when the squint is turned to the left by controlling the squint mirror according to the present embodiment. Similar to FIG. 7, FIGS. 20A to 20D also show states in which observation objects 210 that the user (operator) wants to see exist in various organs 215. FIG. Here, FIG. 20A shows a state (perspective state) in which the optical axis of the objective optical system faces the lower side of the field of view 200 (toward the operator who operates the surgical tool 220) with respect to the position of the scope axis C. showing. FIG. 20B shows an enlarged view of the field of view 200 of FIG. 20A. In this case, when oblique rotation is performed to look at the left side of the field of view 200, as shown in FIG. Although the left side of the object 210 can be observed, the observed object 210 becomes invisible.

一方、本実施形態では、図20Dに示すように、観察対象物210が画面中央に位置するように、観察対象物210へ追従するようにアームの制御を行うため、観察対象物210を見失うことなく斜視鏡100を左向きに回転させることが可能である。 On the other hand, in this embodiment, as shown in FIG. 20D, the arm is controlled to follow the observation object 210 so that the observation object 210 is positioned at the center of the screen. It is possible to rotate the squint scope 100 to the left without any movement.

<<3.斜視鏡の回転を独立して制御する保持ユニットを設けた例>>
上述した図3に示した構成例では、アーム部1420の能動関節部1421a~1421fの制御のみで斜視鏡100の姿勢と位置を変更する例を示した。一方、アーム部1420の先端に斜視鏡の回転を独立して制御する、アクチュエータ内蔵の保持ユニットが設けられていても良い。この場合、斜視鏡100の回転は保持ユニットで行い、斜視鏡全体の位置や術部に対する姿勢はアームの能動関節部で制御することが可能となる。
<<3. Example of providing a holding unit that independently controls the rotation of the perspective scope>>
In the configuration example shown in FIG. 3 described above, an example in which the attitude and position of the oblique scope 100 are changed only by controlling the active joints 1421a to 1421f of the arm 1420 is shown. On the other hand, a holding unit with a built-in actuator may be provided at the tip of the arm portion 1420 to independently control the rotation of the oblique mirror. In this case, the rotation of the oblique scope 100 is performed by the holding unit, and the position of the oblique scope as a whole and the posture with respect to the surgical site can be controlled by the active joint portion of the arm.

図22は、図3に示した構成例において、アーム部1420の先端に斜視鏡100の回転とカメラヘッド7100の回転を独立して制御する保持ユニット7000が設けられた構成を示す模式図である。保持ユニット7000は、アーム部1420の先端の内視鏡ユニット取付け部7300に装着され、カメラヘッド取り付け部7100、カメラヘッド回転駆動部7200、斜視鏡取付け部7400、斜視鏡回転駆動部7500を備えている。 FIG. 22 is a schematic diagram showing a configuration in which a holding unit 7000 for independently controlling the rotation of the perspective mirror 100 and the rotation of the camera head 7100 is provided at the tip of the arm section 1420 in the configuration example shown in FIG. . The holding unit 7000 is attached to the endoscope unit mounting portion 7300 at the tip of the arm portion 1420, and includes a camera head mounting portion 7100, a camera head rotation driving portion 7200, a perspective mirror mounting portion 7400, and a perspective mirror rotation driving portion 7500. there is

図22に示すように、カメラヘッド5005は、カメラヘッド取り付け部7100を介してカメラヘッド回転駆動部7200に装着されている。カメラヘッド回転駆動部7200は、モータなどのアクチュエータ7210を備え、内視鏡ユニット取付け部7300及び保持ユニット7000の本体に対してカメラヘッド5005を回転させる。 As shown in FIG. 22, the camera head 5005 is attached to the camera head rotation drive section 7200 via the camera head attachment section 7100 . The camera head rotation drive section 7200 includes an actuator 7210 such as a motor, and rotates the camera head 5005 with respect to the body of the endoscope unit attachment section 7300 and the holding unit 7000 .

また、斜視鏡100は、斜視鏡取付け部7400を介して斜視鏡回転駆動部7500に装着されている。斜視鏡回転駆動部7500は、モータなどのアクチュエータ7510を備え、内視鏡ユニット取付け部7300及び保持ユニット7000の本体に対して斜視鏡100をその軸周りに回転させる。 Also, the oblique mirror 100 is attached to the oblique mirror rotation driving section 7500 via the oblique mirror mounting section 7400 . The squint scope rotation driving section 7500 includes an actuator 7510 such as a motor, and rotates the squint scope 100 about its axis with respect to the body of the endoscope unit mounting section 7300 and the holding unit 7000 .

図23は、図22に示す構成例における、アーム部1420及び制御装置1350を含む支持アーム装置1400と、内視鏡ユニット5006、CCU5039の構成を示す模式図である。制御装置1350は、図4に示した構成に加え、CCU5039との通信を行うCCU通信部1358を備えている。CCU5039は、図2に示した構成に加え、制御装置1350と通信を行うアーム通信部5064を備えている。制御装置1350とCCU5039は、CCU通信部1358とアーム通信部5064が通信を行うことにより、互いに情報の送受信が可能である。また、内視鏡ユニット5006は、図2に示したカメラヘッド5005に保持ユニット7000の機能が追加されたものであり、図2に示した制御部5015の代わりに、内視鏡ユニット制御部5014を備えている。内視鏡ユニット5006は、図2に示したカメラヘッド5005の構成に加え、斜視制御部(第1の制御部)5016、カメラヘッド制御部(第2の制御部)5017、斜視鏡回転駆動部7500、カメラヘッド回転駆動部7200を備えている。斜視制御部5016、カメラヘッド制御部5017は、保持ユニット7000に設けられていても良い。また、内視鏡ユニット制御部5014、斜視制御部5016、カメラヘッド制御部5017の機能は、制御装置1350の制御部1351が備えていても良い。 FIG. 23 is a schematic diagram showing the configuration of the support arm device 1400 including the arm section 1420 and the control device 1350, the endoscope unit 5006, and the CCU 5039 in the configuration example shown in FIG. The control device 1350 includes a CCU communication unit 1358 that communicates with the CCU 5039 in addition to the configuration shown in FIG. The CCU 5039 has an arm communication section 5064 that communicates with the control device 1350 in addition to the configuration shown in FIG. The control device 1350 and the CCU 5039 can exchange information with each other through communication between the CCU communication section 1358 and the arm communication section 5064 . An endoscope unit 5006 is obtained by adding the function of the holding unit 7000 to the camera head 5005 shown in FIG. It has The endoscope unit 5006 includes, in addition to the configuration of the camera head 5005 shown in FIG. 7500 and a camera head rotation drive unit 7200 . The perspective controller 5016 and camera head controller 5017 may be provided in the holding unit 7000 . Also, the functions of the endoscope unit control section 5014, the perspective control section 5016, and the camera head control section 5017 may be provided in the control section 1351 of the control device 1350. FIG.

斜視制御部5016は、内視鏡ユニット制御部5014の指令に基づき、アクチュエータ7510を駆動する。アクチュエータ7510、斜視回転部エンコーダ7520は、斜視鏡回転駆動部7500に設けられている。内視鏡ユニット制御部5014は、斜視回転部エンコーダ7520が検出するアクチュエータ7510の回転角に基づいて、アクチュエータ7510を駆動し、斜視鏡100の軸周りの回転を制御する。 The oblique view control section 5016 drives the actuator 7510 based on a command from the endoscope unit control section 5014 . The actuator 7510 and the perspective rotation section encoder 7520 are provided in the perspective mirror rotation drive section 7500 . The endoscope unit control section 5014 drives the actuator 7510 based on the rotation angle of the actuator 7510 detected by the perspective rotation section encoder 7520 to control the rotation of the perspective mirror 100 around the axis.

また、カメラヘッド制御部5017は、内視鏡ユニット制御部5014の指令に基づき、アクチュエータ7210を駆動する。アクチュエータ7210、カメラヘッド回転部エンコーダ7220は、カメラヘッド回転駆動部7200に設けられている。内視鏡ユニット制御部5014は、カメラヘッド回転部エンコーダ7220が検出するアクチュエータ7210の回転角に基づいて、カメラヘッド5005の軸周りの回転を制御する。 Also, the camera head control section 5017 drives the actuator 7210 based on a command from the endoscope unit control section 5014 . Actuator 7210 and camera head rotation section encoder 7220 are provided in camera head rotation drive section 7200 . The endoscope unit control section 5014 controls the rotation of the camera head 5005 about the axis based on the rotation angle of the actuator 7210 detected by the camera head rotation section encoder 7220 .

以上の構成により、内視鏡ユニット取付け部7300に対して、斜視鏡100とカメラヘッド5005が独立して回転することができる。これにより、斜視鏡100を回転させて所望の観察対象物を視認するとともに、カメラヘッド5005を回転させて画像の天地を適正に制御することが可能となる。 With the above configuration, the oblique scope 100 and the camera head 5005 can be independently rotated with respect to the endoscope unit mounting portion 7300 . As a result, it is possible to rotate the perspective mirror 100 to visually recognize a desired observation object, and to rotate the camera head 5005 to properly control the orientation of the image.

図24は、図22及び図23に示す構成において、処理の流れを示すシーケンス図である。先ず、ステップS502では、斜視鏡100の斜視回転とカメラヘッド5005の天地制御の姿勢に関する情報が、内視鏡ユニットからCCU5039に送られる。次のステップS504では、斜視鏡100の斜視回転とカメラヘッド5005の天地制御の姿勢に関する情報が、CCU5039からアーム制御装置に送られる。 24 is a sequence diagram showing the flow of processing in the configuration shown in FIGS. 22 and 23. FIG. First, in step S502, the endoscope unit sends to the CCU 5039 information on oblique rotation of the oblique scope 100 and orientation of the camera head 5005 for vertical control. In the next step S504, information regarding oblique rotation of the squint mirror 100 and orientation for vertical control of the camera head 5005 is sent from the CCU 5039 to the arm control device.

次のステップS506では、アーム制御指令および内視鏡ユニットの駆動指令値を算出する。次のステップS508では、内視鏡ユニットの駆動指令値が、駆動指令とともにアーム制御装置からCCU5039に送られる。また、ステップS510では、アーム制御指令に基づいてアームが制御される。 In the next step S506, arm control commands and endoscope unit drive command values are calculated. In the next step S508, the drive command value for the endoscope unit is sent from the arm control device to the CCU 5039 together with the drive command. Also, in step S510, the arm is controlled based on the arm control command.

ステップS512では、内視鏡ユニットの駆動指令値が、駆動指令とともにCCU5039から内視鏡ユニットに送られる。次のステップS514では、駆動指令値に基づいて内視鏡ユニットが制御される。 In step S512, the drive command value for the endoscope unit is sent from the CCU 5039 to the endoscope unit together with the drive command. In the next step S514, the endoscope unit is controlled based on the drive command value.

次のステップS516では、斜視鏡100の斜視回転とカメラヘッド5005の天地制御の姿勢に関する情報が、内視鏡ユニットからCCU5039に送られる。次のステップS504では、斜視鏡100の斜視回転とカメラヘッド5005の天地制御の姿勢に関する情報が、CCU5039からアーム制御装置に送られる。
次のステップS510では、
In the next step S516, information on oblique rotation of the oblique scope 100 and orientation of the camera head 5005 for vertical control is sent from the endoscope unit to the CCU 5039. FIG. In the next step S504, information regarding oblique rotation of the squint mirror 100 and orientation for vertical control of the camera head 5005 is sent from the CCU 5039 to the arm control device.
In the next step S510,

<<4.まとめ>>
以上説明したように本実施形態によれば、モニタの視野200の中央から離れるほど斜視回転の速度を遅くするようにしたため、斜視鏡100の斜視回転を用いて周囲を視認しようとした場合に、観察対象物210が視野200から外れてしまうことを抑制できる。
<<4. Summary>>
As described above, according to the present embodiment, the speed of oblique rotation is decreased as the distance from the center of the field of view 200 of the monitor increases. It is possible to prevent the observed object 210 from moving out of the field of view 200 .

また、本実施形態によれば、患者の人体内部に存在する観察対象物210を画像認識し、斜視鏡100の対物光学系の光軸と観察対象物210の位置が一致するように、医療用アームを制御して内視鏡の先端を仮想面上に拘束しながら内視鏡を移動させる。これにより、斜視回転を行った場合に、視野200の中心部に手術器具又は腫瘍等の観察対象物210を捉えることが可能となり、術者の利便性が向上する。 Further, according to the present embodiment, the observation object 210 existing inside the human body of the patient is image-recognized, and the position of the observation object 210 is aligned with the optical axis of the objective optical system of the squintoscope 100 . The endoscope is moved while controlling the arm to constrain the tip of the endoscope on a virtual plane. As a result, when oblique rotation is performed, it is possible to capture an observation object 210 such as a surgical instrument or a tumor in the center of the field of view 200, thereby improving the operator's convenience.

従って、術者は、見たい部分や器具などが常に画面内に維持されつつ斜視回転を行うことが可能となり、斜視回転で観察対象物210を見失うことを抑制できる。また、被写体を中心としたピボットの動作のように距離情報に基づいた姿勢制御を行わずに簡易的に実現が可能となる。 Therefore, the operator can perform oblique rotation while keeping the desired part, instrument, etc. within the screen at all times, and can suppress losing sight of the observation object 210 due to oblique rotation. Further, it is possible to easily realize the posture control based on the distance information as in the case of the pivot movement centering on the subject.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, the technical scope of the present disclosure is not limited to such examples. It is obvious that those who have ordinary knowledge in the technical field of the present disclosure can conceive of various modifications or modifications within the scope of the technical idea described in the claims. is naturally within the technical scope of the present disclosure.

なお、本明細書において説明した各装置による一連の処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体(非一時的な媒体:non-transitory media)に予め格納される。そして、各プログラムは、例えば、コンピュータによる実行時にRAMに読み込まれ、CPUなどのプロセッサにより実行される。 A series of processes by each device described in this specification may be realized using any of software, hardware, and a combination of software and hardware. Programs constituting software are stored in advance in a storage medium (non-transitory media) provided inside or outside each device, for example. Each program, for example, is read into a RAM when executed by a computer, and executed by a processor such as a CPU.

また、本明細書においてフローチャート等を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。 Further, the processes described using flowcharts and the like in this specification do not necessarily have to be executed in the illustrated order. Some processing steps may be performed in parallel. Also, additional processing steps may be employed, and some processing steps may be omitted.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Also, the effects described herein are merely illustrative or exemplary, and are not limiting. In other words, the technology according to the present disclosure can produce other effects that are obvious to those skilled in the art from the description of this specification, in addition to or instead of the above effects.

なお、以下のような構成も本開示の技術的範囲に属する。
(1) 複数の関節部が複数のリンクにより回動可能に連結され、先端に斜視鏡を支持可能な多関節アームと、
前記斜視鏡の位置及び姿勢を変更するように前記多関節アームを制御する制御システムと、
を備え、
前記制御システムは、前記斜視鏡を通して撮像される視野内で、前記視野内の観察対象物の位置に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御する、手術アームシステム。
(2) 前記制御システムは、前記斜視鏡の長軸周りの回転角及び回転速度を制御する、前記(1)に記載の手術アームシステム。
(3) 前記制御システムは、前記視野内で前記観察対象物の位置を移動するように前記多関節アームの姿勢と移動速度を制御する、前記(1)又は(2)に記載の手術アームシステム。
(4) 前記制御システムは、前記視野内で、前記視野の中心から前記観察対象物の位置までの距離に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御する、前記(1)~(3)のいずれかに記載の手術アームシステム。
(5) 前記制御システムは、前記視野の中心から前記観察対象物の位置までの距離が長いほど前記回転速度を遅くする、前記(1)~(4)のいずれかに記載の手術アームシステム。
(6) 前記制御システムは、前記観察対象物の位置を判別した結果に基づいて、前記観察対象物が前記視野の中心に位置するように前記斜視鏡を支持する多関節アームを制御する、前記(1)~(5)のいずれかに記載の手術アームシステム。
(7) 前記制御システムは、前記観察対象物を画像認識した結果に基づいて、前記観察対象物が前記視野の中心に位置するように前記斜視鏡を支持する多関節アームを制御する、前記(6)に記載の手術アームシステム。
(8) 前記制御システムは、前記観察対象物が前記視野の端に位置する場合は、前記回転速度を0にする、前記(1)~(7)のいずれかに記載の手術アームシステム。
(9) 前記制御システムは、前記距離の増加量に対する前記回転速度の減少量が線形の関係になるように前記回転速度を制御する、前記(5)に記載の手術アームシステム。
(10) 前記制御システムは、前記距離が所定範囲内の場合は、前記回転速度を前記中心と前記観察対象物の位置が一致する場合の前記回転速度と同一とする、前記(5)に記載の手術アームシステム。
(11) 前記制御システムは、前記距離が所定範囲を超える場合は、前記回転速度を一定値とする、前記(5)に記載の手術アームシステム。
(12) 前記制御システムは、前記斜視鏡の回転を制御する第1の制御部と前記多関節アームを制御する第2の制御部を備える、前記(1)~(11)のいずれかに記載の手術アームシステム。
(13) 前記多関節アームは、前記斜視鏡とカメラヘッドをそれぞれ独立して回転制御可能に保持する保持ユニットを備える、前記(12)に記載の手術アームシステム。
(14) 前記保持ユニットは前記第1の制御部を含み、
前記第2の制御部は、前記カメラヘッドと接続された画像処理部を介して、前記第1の制御部が取得した前記斜視鏡の回転角情報を取得し、前記回転角情報に基づいて前記多関節アームを制御する、前記(13)に記載の手術アームシステム。
(15) 複数の関節部が複数のリンクにより回動可能に連結され、先端に斜視鏡を支持可能な多関節アームを制御し、前記斜視鏡の位置及び姿勢を変更するように前記多関節アームを制御する手術アーム制御システムであって、
前記斜視鏡を通して撮像される視野内で、前記視野内の観察対象物の位置に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御する、手術アーム制御システム。
Note that the following configuration also belongs to the technical scope of the present disclosure.
(1) a multi-joint arm having a plurality of joints rotatably connected by a plurality of links and capable of supporting a squintoscope at its distal end;
a control system for controlling the articulated arm to change the position and orientation of the oblique scope;
with
The surgical arm system, wherein the control system controls at least one of a speed of rotation or a speed of translation of the squintoscope within a field of view imaged through the squintoscope based on a position of an object viewed within the field of view.
(2) The surgical arm system according to (1), wherein the control system controls the rotational angle and rotational speed of the oblique scope about its longitudinal axis.
(3) The surgical arm system according to (1) or (2) above, wherein the control system controls the posture and movement speed of the articulated arm so as to move the position of the observation object within the field of view. .
(4) The control system controls at least one of the rotational speed and the moving speed of the oblique mirror based on the distance from the center of the field of view to the position of the observed object within the field of view, ) to (3), the surgical arm system.
(5) The surgical arm system according to any one of (1) to (4), wherein the control system reduces the rotation speed as the distance from the center of the field of view to the position of the observation object increases.
(6) The control system controls the articulated arm that supports the squintoscope so that the observation object is positioned at the center of the field of view, based on the result of determining the position of the observation object. A surgical arm system according to any one of (1) to (5).
(7) The control system controls the articulated arm that supports the squintoscope so that the observation object is positioned at the center of the field of view based on the result of image recognition of the observation object, The surgical arm system according to 6).
(8) The surgical arm system according to any one of (1) to (7), wherein the control system sets the rotation speed to 0 when the observation object is positioned at the edge of the field of view.
(9) The surgical arm system according to (5) above, wherein the control system controls the rotational speed so that the amount of decrease in rotational speed with respect to the amount of increase in distance has a linear relationship.
(10) The control system according to (5) above, wherein, when the distance is within a predetermined range, the rotational speed is the same as the rotational speed when the center and the position of the observation target match. surgical arm system.
(11) The surgical arm system according to (5), wherein the control system sets the rotation speed to a constant value when the distance exceeds a predetermined range.
(12) The control system according to any one of (1) to (11) above, wherein the control system includes a first control section that controls rotation of the oblique scope and a second control section that controls the articulated arm. surgical arm system.
(13) The surgical arm system according to (12), wherein the articulated arm includes a holding unit that holds the oblique scope and the camera head independently of each other so as to be rotationally controllable.
(14) The holding unit includes the first control section,
The second control unit acquires the rotation angle information of the squint mirror acquired by the first control unit via an image processing unit connected to the camera head, and based on the rotation angle information, The surgical arm system according to (13) above, which controls an articulated arm.
(15) A multi-joint arm having a plurality of joints rotatably connected by a plurality of links and capable of supporting a strabismus at its distal end is controlled to change the position and posture of the strabismus. A surgical arm control system for controlling
A surgical arm control system for controlling, within a field of view imaged through the oblique scope, at least one of a speed of rotation or a speed of movement of the oblique scope based on a position of an object to be observed within the field of view.

100 斜視鏡
200 視野
210 観察対象物
350 制御装置
351 制御部
351a 距離取得部
351b 速度算出部
400 支持アーム装置
REFERENCE SIGNS LIST 100 oblique mirror 200 field of view 210 observation object 350 control device 351 control unit 351a distance acquisition unit 351b speed calculation unit 400 support arm device

Claims (15)

複数の関節部が複数のリンクにより回動可能に連結され、先端に斜視鏡を支持可能な多関節アームと、
前記斜視鏡の位置及び姿勢を変更するように前記多関節アームを制御する制御システムと、
を備え、
前記制御システムは、
前記斜視鏡を通して撮像される視野内で、前記視野内の観察対象物の位置に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御
前記視野の中心から前記観察対象物の位置までの距離が長いほど前記回転速度を遅くする、手術アームシステム。
a multi-joint arm having a plurality of joints rotatably connected by a plurality of links and capable of supporting a squintoscope at its distal end;
a control system for controlling the articulated arm to change the position and orientation of the oblique scope;
with
The control system is
controlling at least one of a rotational speed or a moving speed of the oblique mirror based on a position of an object to be observed within the visual field imaged through the oblique mirror;
The surgical arm system , wherein the longer the distance from the center of the field of view to the position of the observation object, the slower the rotation speed .
複数の関節部が複数のリンクにより回動可能に連結され、先端に斜視鏡を支持可能な多関節アームと、
前記斜視鏡の位置及び姿勢を変更するように前記多関節アームを制御する制御システムと、
を備え、
前記制御システムは、
前記斜視鏡を通して撮像される視野内で、前記視野内の観察対象物の位置に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御し、
前記観察対象物が前記視野の端に位置する場合は、前記回転速度を0にする、手術アームシステム。
a multi-joint arm having a plurality of joints rotatably connected by a plurality of links and capable of supporting a squintoscope at its distal end;
a control system for controlling the articulated arm to change the position and orientation of the oblique scope;
with
The control system is
controlling at least one of a rotational speed or a moving speed of the oblique mirror based on a position of an object to be observed within the visual field imaged through the oblique mirror;
The surgical arm system, wherein the rotation speed is set to 0 when the observation object is positioned at the edge of the field of view.
前記制御システムは、前記斜視鏡の長軸周りの回転角及び回転速度を制御する、請求項1又は2に記載の手術アームシステム。 3. The surgical arm system of claim 1 or 2 , wherein the control system controls the rotation angle and speed of rotation about the longitudinal axis of the oblique scope. 前記制御システムは、前記視野内で前記観察対象物の位置を移動するように前記多関節アームの姿勢と移動速度を制御する、請求項1から3のいずれか一項に記載の手術アームシステム。 4. The surgical arm system according to any one of claims 1 to 3 , wherein said control system controls the attitude and movement speed of said articulated arm so as to move the position of said observation object within said field of view. 前記制御システムは、前記視野内で、前記視野の中心から前記観察対象物の位置までの距離に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御する、請求項1から4のいずれか一項に記載の手術アームシステム。 5. The control system of claims 1 to 4, wherein the control system controls at least one of rotation speed and movement speed of the oblique mirror based on the distance from the center of the field of view to the position of the observation object within the field of view. A surgical arm system according to any one of the preceding paragraphs . 前記制御システムは、前記観察対象物の位置を判別した結果に基づいて、前記観察対象物が前記視野の中心に位置するように前記斜視鏡を支持する多関節アームを制御する、請求項1から5のいずれか一項に記載の手術アームシステム。 2. From claim 1, wherein the control system controls the articulated arm that supports the squintoscope so that the observation object is positioned at the center of the field of view based on the result of determining the position of the observation object. 6. The surgical arm system according to any one of 5 . 前記制御システムは、前記観察対象物を画像認識した結果に基づいて、前記観察対象物が前記視野の中心に位置するように前記斜視鏡を支持する多関節アームを制御する、請求項6に記載の手術アームシステム。 7. The control system according to claim 6, wherein the control system controls the articulated arm that supports the squintoscope so that the observation object is positioned at the center of the field of view, based on a result of image recognition of the observation object. surgical arm system. 前記制御システムは、前記距離の増加量に対する前記回転速度の減少量が線形の関係になるように前記回転速度を制御する、請求項に記載の手術アームシステム。 2. The surgical arm system according to claim 1 , wherein said control system controls said rotational speed such that said rotational speed decreases with respect to said distance increments in a linear relationship. 前記制御システムは、前記距離が所定範囲内の場合は、前記回転速度を前記中心と前記観察対象物の位置が一致する場合の前記回転速度と同一とする、請求項に記載の手術アームシステム。 2. The surgical arm system according to claim 1 , wherein when said distance is within a predetermined range, said control system makes said rotational speed the same as said rotational speed when said center coincides with said position of said observation object. . 前記制御システムは、前記距離が所定範囲を超える場合は、前記回転速度を一定値とする、請求項に記載の手術アームシステム。 2. The surgical arm system according to claim 1 , wherein said control system keeps said rotational speed constant when said distance exceeds a predetermined range. 前記制御システムは、前記斜視鏡の回転を制御する第1の制御部と前記多関節アームを制御する第2の制御部を備える、請求項1から10のいずれか一項に記載の手術アームシステム。 The surgical arm system according to any one of claims 1 to 10 , wherein said control system comprises a first controller for controlling rotation of said oblique scope and a second controller for controlling said articulated arm. . 前記多関節アームは、前記斜視鏡とカメラヘッドをそれぞれ独立して回転制御可能に保持する保持ユニットを備える、請求項11に記載の手術アームシステム。 12. The surgical arm system according to claim 11 , wherein the articulated arm includes a holding unit that holds the oblique scope and camera head independently and rotatably. 前記保持ユニットは前記第1の制御部を含み、
前記第2の制御部は、前記カメラヘッドと接続された画像処理部を介して、前記第1の制御部が取得した前記斜視鏡の回転角情報を取得し、前記回転角情報に基づいて前記多関節アームを制御する、請求項12に記載の手術アームシステム。
The holding unit includes the first control section,
The second control unit acquires the rotation angle information of the squint mirror acquired by the first control unit via an image processing unit connected to the camera head, and based on the rotation angle information, 13. The surgical arm system of claim 12 , which controls an articulated arm.
複数の関節部が複数のリンクにより回動可能に連結され、先端に斜視鏡を支持可能な多関節アームを制御し、前記斜視鏡の位置及び姿勢を変更するように前記多関節アームを制御する手術アーム制御システムであって、
前記斜視鏡を通して撮像される視野内で、前記視野内の観察対象物の位置に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御前記視野の中心から前記観察対象物の位置までの距離が長いほど前記回転速度を遅くする、手術アーム制御システム。
A multi-joint arm having a plurality of joints rotatably connected by a plurality of links and capable of supporting a squintoscope at its distal end is controlled, and the multi-joint arm is controlled to change the position and posture of the squintoscope. A surgical arm control system comprising:
Within the field of view imaged through the squinting scope, at least one of the rotational speed and the moving speed of the squinting scope is controlled based on the position of the observation object within the field of view, and the observation object is moved from the center of the field of view. A surgical arm control system , wherein the longer the distance to the position, the slower the rotational speed .
複数の関節部が複数のリンクにより回動可能に連結され、先端に斜視鏡を支持可能な多関節アームを制御し、前記斜視鏡の位置及び姿勢を変更するように前記多関節アームを制御する手術アーム制御システムであって、 A multi-joint arm having a plurality of joints rotatably connected by a plurality of links and capable of supporting a squintoscope at its distal end is controlled, and the multi-joint arm is controlled to change the position and posture of the squintoscope. A surgical arm control system comprising:
前記斜視鏡を通して撮像される視野内で、前記視野内の観察対象物の位置に基づいて、前記斜視鏡の回転速度または移動速度の少なくとも一方を制御し、前記観察対象物が前記視野の端に位置する場合は、前記回転速度を0にする、手術アーム制御システム。 controlling at least one of a rotational speed and a moving speed of the oblique mirror based on a position of an observation object within the field of view in a field of view imaged through the oblique scope, and the observation object being positioned at an edge of the field of view; A surgical arm control system that, if positioned, zeroes the rotational speed.
JP2019551211A 2017-11-01 2018-10-24 Surgical arm system and surgical arm control system Active JP7115493B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017211783 2017-11-01
JP2017211783 2017-11-01
PCT/JP2018/039539 WO2019087904A1 (en) 2017-11-01 2018-10-24 Surgical arm system and surgical arm control system

Publications (2)

Publication Number Publication Date
JPWO2019087904A1 JPWO2019087904A1 (en) 2020-12-10
JP7115493B2 true JP7115493B2 (en) 2022-08-09

Family

ID=66331868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019551211A Active JP7115493B2 (en) 2017-11-01 2018-10-24 Surgical arm system and surgical arm control system

Country Status (5)

Country Link
US (1) US11612306B2 (en)
EP (1) EP3705018A4 (en)
JP (1) JP7115493B2 (en)
CN (1) CN111278344B (en)
WO (1) WO2019087904A1 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111278344B (en) * 2017-11-01 2023-09-05 索尼公司 Surgical Arm System and Surgical Arm Control System
JP2020162633A (en) * 2019-03-28 2020-10-08 ソニー株式会社 Imaging control device, imaging control method, program and imaging system
EP3992690A4 (en) * 2019-08-02 2022-09-07 Sony Group Corporation Endoscope system, control device, and control method
CN112754662B (en) * 2020-12-31 2022-07-15 北京科迈启元科技有限公司 Variable-angle RCM (Radar Cross-section) actuating mechanism and surgical device
CN113311941B (en) * 2021-05-08 2023-11-10 南通大学 Experimental device for biological vision perception mechanism research
CN113524182B (en) * 2021-07-13 2023-05-16 东北石油大学 Device and method for intelligently adjusting distance between person and screen
JPWO2023017651A1 (en) * 2021-08-13 2023-02-16
CN114713421B (en) * 2022-05-05 2023-03-24 罗海华 Control method and system for remote control spraying
WO2024128212A1 (en) * 2022-12-15 2024-06-20 国立大学法人 東京大学 Information processing device for outputting information based on point-of-gaze, and information processing method and program for outputting information based on point-of-gaze
WO2024171116A1 (en) * 2023-02-17 2024-08-22 Revolve Surgical Inc. Robotically assisted, fulcrum-effect correction devices and methods

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004275203A (en) 2003-03-12 2004-10-07 Olympus Corp Endoscope supporting device
JP2016524487A (en) 2013-05-09 2016-08-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Endoscopic robot control from anatomical features
JP2017093818A (en) 2015-11-25 2017-06-01 リバーフィールド株式会社 Image system and fixture
WO2017163407A1 (en) 2016-03-25 2017-09-28 株式会社ニコン Endoscope device, endoscope system, and surgery system provided with same

Family Cites Families (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3236070B2 (en) * 1992-06-04 2001-12-04 オリンパス光学工業株式会社 Scope holding device and scope device
US5673367A (en) * 1992-10-01 1997-09-30 Buckley; Theresa M. Method for neural network control of motion using real-time environmental feedback
JP3618413B2 (en) 1995-05-15 2005-02-09 オリンパス株式会社 Endoscope device
JP3668269B2 (en) * 1995-01-10 2005-07-06 オリンパス株式会社 Intrabody cavity manipulator device
JP2000051149A (en) * 1998-08-05 2000-02-22 Techno Sophia:Kk Linear motor driven-non-blind spot diagnosis and treatment endoscope for colon
JP4445598B2 (en) * 1999-03-19 2010-04-07 オリンパス株式会社 Endoscope visual field control system
JP4382894B2 (en) 1998-12-04 2009-12-16 オリンパス株式会社 Field of view endoscope system
US9107683B2 (en) * 1999-09-17 2015-08-18 Intuitive Surgical Operations, Inc. Systems and methods for cancellation of joint motion using the null-space
US6471637B1 (en) * 1999-09-24 2002-10-29 Karl Storz Imaging, Inc. Image orientation for endoscopic video displays
US7037258B2 (en) * 1999-09-24 2006-05-02 Karl Storz Imaging, Inc. Image orientation for endoscopic video displays
JP2002024795A (en) * 2000-07-04 2002-01-25 Sony Corp Information processing device and method, and recording medium
JP5319040B2 (en) * 2000-12-26 2013-10-16 オリンパス株式会社 Endoscope apparatus and method for operating endoscope apparatus
JP4647839B2 (en) * 2001-06-11 2011-03-09 オリンパス株式会社 Rigid video endoscope system
US6663559B2 (en) * 2001-12-14 2003-12-16 Endactive, Inc. Interface for a variable direction of view endoscope
JP4171833B2 (en) * 2002-03-19 2008-10-29 国立大学法人東京工業大学 Endoscope guidance device and method
JP2004173973A (en) * 2002-11-27 2004-06-24 Azemoto Shiyougo Method for estimating parameter of projection model for strabismus endoscope
JP2004173972A (en) * 2002-11-27 2004-06-24 Azemoto Shiyougo Image processing system for strabismus endoscope and strabismus endoscopic apparatus with the same
US7517314B2 (en) * 2004-10-14 2009-04-14 Karl Storz Development Corp. Endoscopic imaging with indication of gravity direction
JP4689291B2 (en) 2005-02-09 2011-05-25 オリンパス株式会社 Endoscope apparatus and program for endoscope apparatus
EP1967126B1 (en) * 2005-12-28 2014-05-21 Olympus Medical Systems Corp. Container device
JP4960112B2 (en) * 2007-02-01 2012-06-27 オリンパスメディカルシステムズ株式会社 Endoscopic surgery device
JP5259167B2 (en) * 2007-12-06 2013-08-07 オリンパスメディカルシステムズ株式会社 Light source device and endoscope device
JP4715863B2 (en) 2008-05-01 2011-07-06 ソニー株式会社 Actuator control apparatus, actuator control method, actuator, robot apparatus, and computer program
CN102123651B (en) * 2009-01-15 2014-02-26 奥林巴斯医疗株式会社 Endoscope system
WO2010101749A1 (en) * 2009-03-05 2010-09-10 Massachusetts Institute Of Technology Predictive semi-autonomous vehicle navigation system
WO2011122516A1 (en) * 2010-03-30 2011-10-06 テルモ株式会社 Medical manipulator system
JP2011209099A (en) 2010-03-30 2011-10-20 Sony Corp Torque sensor and robot apparatus
DE102010024003A1 (en) * 2010-06-11 2011-12-15 Karl Storz Gmbh & Co. Kg endoscope
CN102090880B (en) * 2011-01-31 2012-09-19 广州宝胆医疗器械科技有限公司 Three-dimensional hard electronic arthroscope system
US10052157B2 (en) * 2011-08-21 2018-08-21 M.S.T. Medical Surgery Technologies Ltd Device and method for assisting laparoscopic surgery—rule based approach
AU2012301718B2 (en) * 2011-09-02 2017-06-15 Stryker Corporation Surgical instrument including a cutting accessory extending from a housing and actuators that establish the position of the cutting accessory relative to the housing
JP2013236749A (en) * 2012-05-15 2013-11-28 Denso Corp Apparatus for supporting dental implantation surgery
US9220570B2 (en) * 2012-06-29 2015-12-29 Children's National Medical Center Automated surgical and interventional procedures
EP2873362B1 (en) * 2012-07-10 2018-09-19 Olympus Corporation Insertion device
JP5846385B2 (en) * 2012-11-07 2016-01-20 国立大学法人東京工業大学 Endoscope operation system
DE202014010578U1 (en) * 2013-01-10 2016-01-07 M.S.T. Medical Surgery Technologies Ltd. Surgical control system
KR102087595B1 (en) * 2013-02-28 2020-03-12 삼성전자주식회사 Endoscope system and control method thereof
US20160299170A1 (en) * 2013-03-29 2016-10-13 Sony Corporation Laser scanning observation device and laser scanning method
JP6656148B2 (en) * 2013-10-24 2020-03-04 オーリス ヘルス インコーポレイテッド System and associated method for robot-assisted endoluminal surgery
JP6091410B2 (en) * 2013-12-26 2017-03-08 オリンパス株式会社 Endoscope apparatus operating method and endoscope system
WO2015121765A1 (en) * 2014-02-12 2015-08-20 Koninklijke Philips N.V. Robotic control of surgical instrument visibility
WO2015129474A1 (en) * 2014-02-28 2015-09-03 ソニー株式会社 Robot arm apparatus, robot arm control method, and program
EP3135445B1 (en) * 2014-03-28 2021-04-28 Sony Corporation Robot arm device
US10743947B2 (en) * 2014-05-15 2020-08-18 Covidien Lp Systems and methods for controlling a camera position in a surgical robotic system
JP6419462B2 (en) * 2014-06-10 2018-11-07 キヤノンメディカルシステムズ株式会社 X-ray diagnostic equipment
JP6519144B2 (en) * 2014-11-06 2019-05-29 ソニー株式会社 Endoscope system, image processing apparatus, image processing method, and program
JP6632204B2 (en) * 2015-03-13 2020-01-22 キヤノン株式会社 Driving device, robot device, and article manufacturing method
WO2016185943A1 (en) * 2015-05-21 2016-11-24 シャープ株式会社 Actuator
WO2017015235A1 (en) * 2015-07-17 2017-01-26 The Johns Hopkins University Delta mechanism with enhanced torsional stiffness
JP6753081B2 (en) * 2016-03-09 2020-09-09 ソニー株式会社 Endoscopic surgery system, image processing method and medical observation system
US10807233B2 (en) * 2016-07-26 2020-10-20 The University Of Connecticut Skill transfer from a person to a robot
CN106361440B (en) * 2016-08-31 2019-07-12 北京术锐技术有限公司 A kind of flexible operation tool system and its control method under kinematic constraint
JP6514166B2 (en) * 2016-09-16 2019-05-15 ファナック株式会社 Machine learning apparatus, robot system and machine learning method for learning robot operation program
JP2018078463A (en) * 2016-11-10 2018-05-17 ソニー株式会社 Image processing apparatus, setting method, and program
JP2018075674A (en) * 2016-11-10 2018-05-17 ソニー株式会社 Joint driving actuator
JP2018075218A (en) * 2016-11-10 2018-05-17 ソニー株式会社 Medical support arm and medical system
EP3590406A4 (en) 2017-02-28 2020-04-01 Sony Corporation Medical observation system, control device, and control method
US20190365489A1 (en) * 2017-02-28 2019-12-05 Sony Corporation Medical support arm system and control device
US11696814B2 (en) * 2017-02-28 2023-07-11 Sony Corporation Medical arm system, control device, and control method
DE112018001058B4 (en) * 2017-02-28 2020-12-03 Sony Corporation MEDICAL ARM SYSTEM AND CONTROL DEVICE
US10904437B2 (en) * 2017-03-16 2021-01-26 Sony Corporation Control apparatus and control method
JP7146735B2 (en) * 2017-03-29 2022-10-04 ソニー・オリンパスメディカルソリューションズ株式会社 Control device, external equipment, medical observation system, control method, display method and program
JP2018198750A (en) * 2017-05-26 2018-12-20 ソニー株式会社 Medical system, control device for medical support arm, and control method for medical support arm
US11344180B2 (en) * 2017-06-15 2022-05-31 Children's National Medical Center System, apparatus, and method for calibrating oblique-viewing rigid endoscope
WO2019012817A1 (en) * 2017-07-14 2019-01-17 ソニー株式会社 Image processing device, image processing method for image processing device, and program
CN110913744B (en) * 2017-07-19 2023-07-11 索尼公司 Surgical system, control method, surgical device, and program
WO2019044328A1 (en) * 2017-08-31 2019-03-07 ソニー株式会社 Medical image processing device, medical image processing system, and driving method of medical image processing device
WO2019087934A1 (en) * 2017-11-01 2019-05-09 Sony Corporation Medical holding apparatus, medical arm system, and drape mounting mechanism
JP7159579B2 (en) * 2017-11-01 2022-10-25 ソニーグループ株式会社 Medical holding device and medical arm system
CN111278344B (en) * 2017-11-01 2023-09-05 索尼公司 Surgical Arm System and Surgical Arm Control System
JPWO2019092950A1 (en) * 2017-11-13 2020-11-12 ソニー株式会社 Image processing equipment, image processing method and image processing system
US20210030510A1 (en) * 2018-02-09 2021-02-04 Sony Corporation Surgery system, image processor, and image processing method
JP7151109B2 (en) * 2018-03-19 2022-10-12 ソニーグループ株式会社 Medical imaging device and medical observation system
JP2021097720A (en) * 2018-03-20 2021-07-01 ソニーグループ株式会社 Endoscope and arm system
JP7363767B2 (en) * 2018-03-29 2023-10-18 ソニーグループ株式会社 Image processing device, image processing method, and program
KR20210005682A (en) * 2018-04-26 2021-01-14 데카 프로덕츠 리미티드 파트너쉽 Endoscope with rotatable camera and related methods
JPWO2019239942A1 (en) * 2018-06-15 2021-07-01 ソニーグループ株式会社 Surgical observation device, surgical observation method, surgical light source device, and surgical light irradiation method
US20210321887A1 (en) * 2018-08-28 2021-10-21 Sony Corporation Medical system, information processing apparatus, and information processing method
JPWO2020045014A1 (en) * 2018-08-28 2021-08-12 ソニーグループ株式会社 Medical system, information processing device and information processing method
WO2020075773A1 (en) * 2018-10-12 2020-04-16 Sony Corporation A system, method and computer program for verifying features of a scene
JP2020071270A (en) * 2018-10-29 2020-05-07 ソニー株式会社 Image capturing lens and image capturing device
US20220022728A1 (en) * 2018-12-04 2022-01-27 Sony Group Corporation Medical system, information processing device, and information processing method
US11653119B2 (en) * 2019-03-14 2023-05-16 Sony Semiconductor Solution Corporation Solid-state image sensor and imaging device
JP2020156800A (en) * 2019-03-27 2020-10-01 ソニー株式会社 Medical arm system, control device and control method
WO2020203167A1 (en) * 2019-03-29 2020-10-08 ソニー株式会社 Image processing device, image processing method, and program
WO2020213296A1 (en) * 2019-04-19 2020-10-22 ソニー株式会社 Signal processing device, signal processing method, program and directivity changing system
JP7480477B2 (en) * 2019-07-10 2024-05-10 ソニーグループ株式会社 Medical observation system, control device and control method
EP3992690A4 (en) * 2019-08-02 2022-09-07 Sony Group Corporation Endoscope system, control device, and control method
JP2021040988A (en) * 2019-09-12 2021-03-18 ソニー株式会社 Medical support arm and medical system
JP2021040987A (en) * 2019-09-12 2021-03-18 ソニー株式会社 Medical support arm and medical system
JP7385731B2 (en) * 2020-02-27 2023-11-22 オリンパス株式会社 Endoscope system, image processing device operating method, and endoscope
JP2022020592A (en) * 2020-07-20 2022-02-01 ソニーグループ株式会社 Medical arm control system, medical arm control method, and program
JP2022045236A (en) * 2020-09-08 2022-03-18 ソニーグループ株式会社 Medical imaging device, learning model generation method, and learning model generation program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004275203A (en) 2003-03-12 2004-10-07 Olympus Corp Endoscope supporting device
JP2016524487A (en) 2013-05-09 2016-08-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Endoscopic robot control from anatomical features
JP2017093818A (en) 2015-11-25 2017-06-01 リバーフィールド株式会社 Image system and fixture
WO2017163407A1 (en) 2016-03-25 2017-09-28 株式会社ニコン Endoscope device, endoscope system, and surgery system provided with same

Also Published As

Publication number Publication date
WO2019087904A1 (en) 2019-05-09
US11612306B2 (en) 2023-03-28
JPWO2019087904A1 (en) 2020-12-10
CN111278344B (en) 2023-09-05
CN111278344A (en) 2020-06-12
US20210369351A1 (en) 2021-12-02
EP3705018A1 (en) 2020-09-09
EP3705018A4 (en) 2020-10-14

Similar Documents

Publication Publication Date Title
JP7115493B2 (en) Surgical arm system and surgical arm control system
JP7003985B2 (en) Medical support arm system and control device
CN110325093B (en) Medical arm system, control device, and control method
WO2020196338A1 (en) Medical arm system, control device, and control method
JP7480477B2 (en) Medical observation system, control device and control method
WO2017145475A1 (en) Information processing device for medical use, information processing method, information processing system for medical use
US11540700B2 (en) Medical supporting arm and medical system
WO2021049438A1 (en) Medical support arm and medical system
JP2019084334A (en) Medical holding apparatus, medical arm system, and drape mounting mechanism
WO2018088113A1 (en) Joint driving actuator and medical system
JP2020074926A (en) Medical observation system, signal processing device and medical observation method
CN113905652A (en) Medical observation system, control device, and control method
WO2021049220A1 (en) Medical support arm and medical system
JP7544033B2 (en) Medical system, information processing device, and information processing method
WO2022269992A1 (en) Medical observation system, information processing device, and information processing method
WO2023176133A1 (en) Endoscope holding device, endoscopic surgery system, and control method
WO2020050187A1 (en) Medical system, information processing device, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220711

R151 Written notification of patent or utility model registration

Ref document number: 7115493

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151