JP2017176414A - Control device, method and surgery system - Google Patents

Control device, method and surgery system Download PDF

Info

Publication number
JP2017176414A
JP2017176414A JP2016067417A JP2016067417A JP2017176414A JP 2017176414 A JP2017176414 A JP 2017176414A JP 2016067417 A JP2016067417 A JP 2016067417A JP 2016067417 A JP2016067417 A JP 2016067417A JP 2017176414 A JP2017176414 A JP 2017176414A
Authority
JP
Japan
Prior art keywords
line
sight
reference point
unit
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016067417A
Other languages
Japanese (ja)
Inventor
加奈 松浦
Kana Matsuura
加奈 松浦
和田 成司
Seiji Wada
成司 和田
前田 毅
Takeshi Maeda
毅 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016067417A priority Critical patent/JP2017176414A/en
Priority to PCT/JP2017/010580 priority patent/WO2017169824A1/en
Publication of JP2017176414A publication Critical patent/JP2017176414A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To execute calibration easily and surely.SOLUTION: A control device acquires a detection value of a sight line by an input part, and detects a reference point by a reference point detection part. The control device estimates that the sight line points to the reference point. When it is estimated that the sight line points to the reference point by the estimation part, the control device corrects the detection value of the sight line by a correction part based on a difference between the detection value of the sight line and the reference point. The technique can be applied for, for example, when an operator performs surgery using a surgical tool, correcting a detection value of a sight line of the operator.SELECTED DRAWING: Figure 5

Description

本技術は、制御装置および方法並びに手術システムに関し、特に簡単かつ確実にキャリブレーションを実行することができるようにした制御装置および方法並びに手術システムに関する。   The present technology relates to a control apparatus and method and a surgical system, and more particularly to a control apparatus and method and a surgical system which can perform calibration easily and reliably.

操作者の視線を検出し、モニタに表示されるメニュー、オブジェクト等を視線によって選択させることで、コンピュータの動作を制御することが提案されている。このような制御を実現するには、視線を正確に検出することが必要になる。このため、実際の視線の位置と、検出された視線の位置とのずれを補正するキャリブレーションが要求される。   It has been proposed to control the operation of a computer by detecting the line of sight of the operator and selecting menus, objects, etc. displayed on the monitor by the line of sight. In order to realize such control, it is necessary to accurately detect the line of sight. For this reason, calibration is required to correct the deviation between the actual line-of-sight position and the detected line-of-sight position.

例えば特許文献1には、選択されたオブジェクトと、表示された他のオブジェクトとの関係に基づいてずれを補正することが提案されている。   For example, Patent Document 1 proposes correcting a shift based on a relationship between a selected object and another displayed object.

また、特許文献2には、音声によるキーワードが検出されたときのオブジェクトの位置に基づいて、ずれを補正することが提案されている。   Japanese Patent Application Laid-Open No. 2004-228561 proposes correcting a deviation based on the position of an object when a voice keyword is detected.

特開2012−65781号公報JP 2012-65781 A 特開2007−25963号公報JP 2007-25963 A

しかし、上記した提案によれば、キャリブレーション専用の画面上で補正を行う場合に較べてキャリブレーションが簡単になるが、正確性が十分でなく、特に医療用のシステムに適用することは困難であった。   However, according to the above proposal, the calibration becomes simpler than when correction is performed on a calibration-dedicated screen, but the accuracy is not sufficient, and it is difficult to apply to a medical system in particular. there were.

本技術はこのような状況に鑑みてなされたものであり、簡単かつ確実にキャリブレーションを実行することができるようにするものである。   The present technology has been made in view of such a situation, and makes it possible to execute calibration easily and reliably.

本技術の一側面は、視線の検出値を取得する入力部と、参照点を検出する参照点検出部と、前記視線が前記参照点を指向していることを推定する推定部と、前記推定部により前記視線が前記参照点を指向していることが推定されたときに、前記視線の検出値と前記参照点の差に基づいて、前記視線の検出値を補正する補正部とを備える制御装置である。   One aspect of the present technology includes an input unit that acquires a detection value of a line of sight, a reference point detection unit that detects a reference point, an estimation unit that estimates that the line of sight is directed to the reference point, and the estimation A control unit that corrects the detection value of the line of sight based on a difference between the detection value of the line of sight and the reference point when the line of sight estimates that the line of sight is directed to the reference point Device.

前記視線は、術具を用いて手術する術者の手術中の視線である。   The line of sight is a line of sight during an operation of an operator who operates using a surgical instrument.

前記推定部は、前記術具が使用中であるとき、前記視線が前記参照点を指向していると推定することができる。   The estimation unit can estimate that the line of sight is directed to the reference point when the surgical instrument is in use.

前記術具は通電して使用されることができる。   The surgical instrument can be used while being energized.

前記参照点検出部は、通電して使用される前記術具の先端を前記参照点として検出し、前記補正部は、前記視線の検出値と前記術具の先端との誤差に対応して、前記視線の検出値を補正することができる。   The reference point detection unit detects a tip of the surgical tool used by being energized as the reference point, and the correction unit corresponds to an error between the detected value of the line of sight and the tip of the surgical tool, The line-of-sight detection value can be corrected.

前記参照点検出部は、通電して使用される前記術具の軌跡を前記参照点として検出し、前記補正部は、前記視線の検出値と前記術具の軌跡との誤差に対応して、前記視線の検出値を補正することができる。   The reference point detection unit detects a trajectory of the surgical tool used by being energized as the reference point, and the correction unit corresponds to an error between the detected value of the line of sight and the trajectory of the surgical tool, The line-of-sight detection value can be corrected.

前記推定部は、モニタに表示されているオブジェクトのパターンが検出された場合、前記モニタに表示されている前記オブジェクトの前記パターンに基づく動作が切り替えられたとき、前記視線が前記参照点を指向していると推定することができる。   When the pattern of the object displayed on the monitor is detected and the motion based on the pattern of the object displayed on the monitor is switched, the estimation unit directs the line of sight toward the reference point. Can be estimated.

前記参照点検出部は、音声コマンドを受け付けるときモニタに表示されるオブジェクトを前記参照点として検出し、前記推定部は、前記音声コマンド受け付ける前記オブジェクトの表示が検出されたとき、前記視線が前記参照点を指向していると推定することができる。   The reference point detection unit detects an object displayed on a monitor when receiving a voice command as the reference point, and the estimation unit detects the display of the object that receives the voice command and the line of sight is the reference It can be estimated that the point is oriented.

本技術の一側面は、視線の検出値を取得する入力ステップと、参照点を検出する参照点検出ステップと、前記視線が前記参照点を指向していることを推定する推定ステップと、前記推定ステップの処理により前記視線が前記参照点を指向していることが推定されたときに、前記視線の検出値と前記参照点の差に基づいて、前記視線の検出値を補正する補正ステップとを含む制御方法である。   One aspect of the present technology includes an input step of acquiring a detection value of a line of sight, a reference point detection step of detecting a reference point, an estimation step of estimating that the line of sight is directed to the reference point, and the estimation A correction step of correcting the detected value of the line of sight based on a difference between the detected value of the line of sight and the reference point when it is estimated that the line of sight is directed to the reference point by the processing of the step; It is a control method including.

本技術の一側面は、被手術者の術野を撮影する撮影部と、前記撮影部により撮影された術野画像を表示する表示部と、視線の検出値を取得する入力部と、参照点を検出する参照点検出部と、前記視線が前記参照点を指向していることを推定する推定部と、前記推定部により前記視線が前記参照点を指向していることが推定されたときに、前記視線の検出値と前記参照点の差に基づいて、前記視線の検出値を補正する補正部とを備える手術システムである。   One aspect of the present technology is an imaging unit that images the surgical field of the subject, a display unit that displays the surgical field image captured by the imaging unit, an input unit that acquires a detection value of the line of sight, and a reference point A reference point detection unit that detects the line of sight, an estimation unit that estimates that the line of sight is directed to the reference point, and the estimation unit that estimates that the line of sight is directed to the reference point And a correction unit that corrects the detected value of the line of sight based on a difference between the detected value of the line of sight and the reference point.

本技術の一側面においては、視線の検出値が取得され、参照点が検出され、視線が参照点を指向していることが推定され、視線が参照点を指向していることが推定されたときに、視線の検出値と参照点の差に基づいて、視線の検出値が補正される。   In one aspect of the present technology, a gaze detection value is obtained, a reference point is detected, a gaze is estimated to be directed to the reference point, and a gaze is directed to the reference point Sometimes, the line-of-sight detection value is corrected based on the difference between the line-of-sight detection value and the reference point.

以上のように、本技術の一側面によれば、簡単かつ確実にキャリブレーションを実行することができるようになる。   As described above, according to one aspect of the present technology, calibration can be performed easily and reliably.

なお、本明細書に記載された効果はあくまで例示であって、限定されるものではなく、また付加的な効果があってもよい。   Note that the effects described in this specification are merely examples, and are not limited, and may have additional effects.

本技術の一実施の形態の手術システムの構成を模式的に示す斜視図である。It is a perspective view showing typically the composition of the operation system of one embodiment of this art. 本技術の一実施の形態の手術システムの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the surgery system of one embodiment of this technique. 本技術の一実施の形態の手術システムの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the surgery system of one embodiment of this technique. 本技術の一実施の形態の視線補正処理を説明するフローチャートである。It is a flowchart explaining the gaze correction process of one embodiment of this technique. 本技術の一実施の形態の視線補正処理を説明する図である。It is a figure explaining line-of-sight correction processing of one embodiment of this art. 本技術の一実施の形態の視線補正処理を説明する図である。It is a figure explaining line-of-sight correction processing of one embodiment of this art. 本技術の一実施の形態の視線補正処理を説明するフローチャートである。It is a flowchart explaining the gaze correction process of one embodiment of this technique. 本技術の一実施の形態の視線補正処理を説明する図である。It is a figure explaining line-of-sight correction processing of one embodiment of this art. 本技術の一実施の形態の視線補正処理を説明するフローチャートである。It is a flowchart explaining the gaze correction process of one embodiment of this technique. 本技術の一実施の形態の視線補正処理を説明する図である。It is a figure explaining line-of-sight correction processing of one embodiment of this art.

以下、本技術を実施するための実施の形態について説明する。なお、説明は以下の順序で行う。
1.実施の形態:手術システム
(1)手術システムの構成(図1)
(2)手術システムの機能的構成(図2、図3)
(3)視線補正処理(図4乃至図10)
2.その他
Hereinafter, an embodiment for carrying out the present technology will be described. The description will be given in the following order.
1. Embodiment: Surgery System (1) Configuration of Surgery System (Fig. 1)
(2) Functional configuration of the surgical system (FIGS. 2 and 3)
(3) Gaze correction processing (FIGS. 4 to 10)
2. Other

<実施の形態>
(1)手術システムの構成(図1)
図1は、本技術の一実施の形態の手術システムの構成を模式的に示す斜視図である。
<Embodiment>
(1) Configuration of surgical system (Fig. 1)
FIG. 1 is a perspective view schematically illustrating a configuration of a surgical system according to an embodiment of the present technology.

手術システム10は、術野カメラ11、カメラアーム12、制御装置13、モニタアーム14、モニタ15、動作認識用カメラ16、フットスイッチ17、マイクロフォン18および手術台19により構成される。手術システム10は、手術室等に配置され、術野カメラ11により撮影される画像を参照した外科手術等の処置を可能にする。   The surgical system 10 includes a surgical field camera 11, a camera arm 12, a control device 13, a monitor arm 14, a monitor 15, a motion recognition camera 16, a foot switch 17, a microphone 18, and an operating table 19. The surgical system 10 is disposed in an operating room or the like, and enables a procedure such as a surgical operation with reference to an image taken by the surgical field camera 11.

具体的には、手術システム10の術野カメラ11(手術用撮影装置)は、カメラアーム12により保持された3Dカメラ等のモダリティ機器である。術野カメラ11は、手術台19に横たわる被手術者32の術野等を撮影し、その結果得られる3D画像を術野画像として制御装置13に送信する。カメラアーム12は、術野カメラ11を保持し、術野カメラ11の位置や角度を制御する。   Specifically, the surgical field camera 11 (surgical imaging device) of the surgical system 10 is a modality device such as a 3D camera held by the camera arm 12. The operative field camera 11 images the operative field or the like of the patient 32 lying on the operating table 19 and transmits the 3D image obtained as a result to the control device 13 as an operative field image. The camera arm 12 holds the operative field camera 11 and controls the position and angle of the operative field camera 11.

動作認識用カメラ16は、例えば2Dカメラであり、モニタ15の上に配置される。動作認識用カメラ16は、マイクロフォン18を頭部31Aに装着した術者31を撮影する。動作認識用カメラ16は、撮影の結果得られる2D画像を術者画像として制御装置13に送信する。モニタアーム14は、モニタ15を保持し、モニタ15と動作認識用カメラ16の位置や角度を制御する。   The motion recognition camera 16 is a 2D camera, for example, and is disposed on the monitor 15. The motion recognition camera 16 photographs the operator 31 with the microphone 18 mounted on the head 31A. The motion recognition camera 16 transmits a 2D image obtained as a result of imaging to the control device 13 as an operator image. The monitor arm 14 holds the monitor 15 and controls the positions and angles of the monitor 15 and the motion recognition camera 16.

モニタ15は、画像を表示する画面を有する3Dモニタであり、術者31から比較的近い位置(図1の例では、手術台19の上の術者31に近い位置)に配置される。モニタ15は、制御装置13から送信されてくる術野画像等を表示する。モニタ15の上には動作認識用カメラ16が配置される。   The monitor 15 is a 3D monitor having a screen for displaying an image, and is disposed at a position relatively close to the operator 31 (in the example of FIG. 1, a position close to the operator 31 on the operating table 19). The monitor 15 displays an operation field image transmitted from the control device 13. An action recognition camera 16 is disposed on the monitor 15.

制御装置13は、動作モードを、手動モードまたはハンズフリーモードに設定する。手動モードとは、術者31の手による入力(例えば、カメラアーム12への加力や、各部に設けられた図示せぬ操作ボタン等の操作)に基づいて手術システム10の制御を行うモードである。ハンズフリーモードとは、術者31の手によらない、音声、視線、頭部31Aの動きや方向、ジェスチャなどの非接触の入力やフットフットスイッチ17への脚部31Bの接触による入力に基づいて、手術システム10の制御を行うモードである。   The control device 13 sets the operation mode to the manual mode or the hands-free mode. The manual mode is a mode in which the surgical system 10 is controlled based on an input by the operator 31 (for example, an applied force to the camera arm 12 or an operation of an operation button (not shown) provided in each part). is there. The hands-free mode is based on non-contact input such as voice, line of sight, movement and direction of the head 31A, gestures, etc., and input by contact of the foot 31B to the foot foot switch 17 without depending on the hand of the operator 31. In this mode, the operation system 10 is controlled.

また、制御装置13は、動作認識用カメラ16から送信されてくる術者画像内の頭部31Aの位置を検出することにより、頭部31Aの動きや方向を認識する。また、制御装置13は、術者画像から術者31の視線の方向を検出し、その方向に基づいてモニタ15の画面上の視線の位置を認識する。さらに、制御装置13は、術者画像から術者31のジェスチャを認識する。   Further, the control device 13 recognizes the movement and direction of the head 31 </ b> A by detecting the position of the head 31 </ b> A in the surgeon image transmitted from the motion recognition camera 16. The control device 13 detects the direction of the line of sight of the operator 31 from the surgeon image, and recognizes the position of the line of sight on the screen of the monitor 15 based on the direction. Furthermore, the control device 13 recognizes the gesture of the operator 31 from the operator image.

制御装置13は、マイクロフォン18から送信されてくる音声を受信し、その音声に対して音声認識を行う。制御装置13は、フットスイッチ17から送信されてくるフットスイッチ17に対する操作を表す操作信号を受信し、その操作信号に基づいてフットスイッチ17に対する操作の内容を認識する。   The control device 13 receives the voice transmitted from the microphone 18 and performs voice recognition on the voice. The control device 13 receives an operation signal representing an operation on the foot switch 17 transmitted from the foot switch 17, and recognizes the content of the operation on the foot switch 17 based on the operation signal.

さらに、動作モードがハンズフリーモードである場合、制御装置13は、次のような情報を入力情報とする。すなわち、頭部31Aの動きや方向、術者31のジェスチャ、モニタ15の画面上の視線の位置を表す視線位置情報、音声認識結果、音量、およびフットスイッチ17に対する操作の内容を表す操作情報が入力情報とされる。制御装置13は、入力情報に基づいて術者31からの指令および術者31の状態を認識する。   Furthermore, when the operation mode is the hands-free mode, the control device 13 uses the following information as input information. That is, the movement and direction of the head 31 </ b> A, the gesture of the surgeon 31, line-of-sight position information indicating the position of the line of sight on the screen of the monitor 15, voice recognition result, volume, and operation information indicating the content of operations on the foot switch 17 Input information. The control device 13 recognizes the command from the operator 31 and the state of the operator 31 based on the input information.

制御装置13は、術者31の状態に応じて、術者31からの指令を許可する。制御装置13は、許可された指令に応じて、術野カメラ11の撮影を制御したり、カメラアーム12やモニタアーム14の駆動を制御したり、モニタ15の表示を制御したり、動作モードを変更したりする。   The control device 13 permits a command from the operator 31 according to the state of the operator 31. The control device 13 controls the imaging of the operative field camera 11, controls the drive of the camera arm 12 and the monitor arm 14, controls the display of the monitor 15, and changes the operation mode according to the permitted command. Or change it.

術者31は、裸眼でモニタ15に表示された術野画像を3D画像として認識する。   The surgeon 31 recognizes the operative field image displayed on the monitor 15 with the naked eye as a 3D image.

マイクロフォン18は、術者31の頭部31Aに装着される。マイクロフォン18は、術者31の音声等を含む周囲の音声を取得し、制御装置13に送信する。   The microphone 18 is attached to the head 31 </ b> A of the operator 31. The microphone 18 acquires surrounding sounds including the voice of the operator 31 and transmits it to the control device 13.

フットスイッチ17は、術者31の周囲に配置され、術者31の脚部31Bの接触により操作される。フットスイッチ17は、術者31からの脚部31Bの操作を表す操作信号を制御装置13に送信する。   The foot switch 17 is disposed around the operator 31 and is operated by contact of the leg 31B of the operator 31. The foot switch 17 transmits an operation signal representing the operation of the leg 31 </ b> B from the operator 31 to the control device 13.

以上のように構成される手術システム10では、術者31は、被手術者32を手術台19の上に横たわらせ、モニタ15に表示される術野画像等を見ながら、外科手術等の処置を行う。   In the surgical operation system 10 configured as described above, the surgeon 31 lays the surgical subject 32 on the operating table 19 and looks at the surgical field image displayed on the monitor 15 while performing surgery and the like. Take action.

また、術者31は、動作モード、術野カメラ11の撮影条件、術野カメラ11の位置や角度、モニタ15の表示等を変更する場合、非接触の入力または足の接触による入力を行う。従って、術者31は、図示せぬ術具を把持した状態で入力を行うことができる。また、術者31は、入力を行うたびに、滅菌処理を行う必要がない。   Further, the operator 31 performs non-contact input or input by touching the foot when changing the operation mode, the imaging conditions of the surgical field camera 11, the position and angle of the surgical field camera 11, the display of the monitor 15, and the like. Therefore, the operator 31 can perform input while holding a surgical tool (not shown). Further, the surgeon 31 does not need to perform sterilization each time input is performed.

なお、視線検出方法、術者31の頭部31Aの動きや方向、および、ジェスチャの検出方法、音声の取得方法としては、任意の方法を採用することができる。例えば、視線検出デバイスやマイクロフォン18は、ウェアラブルデバイスでなくてもよい。   It should be noted that any method can be adopted as the line-of-sight detection method, the movement and direction of the head 31A of the operator 31, the gesture detection method, and the voice acquisition method. For example, the line-of-sight detection device or the microphone 18 may not be a wearable device.

本明細書では、モニタ15の水平方向をx方向といい、垂直方向をy方向といい、モニタ15の画面に対して垂直な方向をz方向という。   In this specification, the horizontal direction of the monitor 15 is referred to as the x direction, the vertical direction is referred to as the y direction, and the direction perpendicular to the screen of the monitor 15 is referred to as the z direction.

なお、手術システム10では、視線検出は、動作認識用カメラ16により撮影された術者画像を用いて行われるようにしたが、術者31が、視線検出デバイスを備えた眼鏡を装着し、視線検出デバイスが視線検出を行うようにしてもよい。   In the surgical system 10, the line of sight detection is performed using an operator image taken by the motion recognition camera 16, but the operator 31 wears glasses equipped with a line of sight detection device, and the line of sight is detected. The detection device may perform line-of-sight detection.

また、手術システム10では、動作認識用カメラ16と術者31との距離が短いため、術者画像から頭部31Aの動きや方向を検出したが、術者31がマーカ(不図示)を装着し、術者画像内のマーカの位置から頭部31Aの動きや方向を検出するようにしてもよい。   In the surgical system 10, since the distance between the motion recognition camera 16 and the operator 31 is short, the movement and direction of the head 31 </ b> A are detected from the operator image, but the operator 31 wears a marker (not shown). Then, the movement and direction of the head 31A may be detected from the position of the marker in the operator image.

さらに、モニタ15は、術者31から比較的遠い位置に配置されるようにしてもよい。また、モニタ15を、術者31が3D偏光眼鏡を用いることにより3D画像を認識可能な3Dモニタとし、術者31に、3D偏光眼鏡を装着させるようにしてもよい。   Further, the monitor 15 may be arranged at a position relatively far from the operator 31. The monitor 15 may be a 3D monitor that allows the operator 31 to recognize a 3D image by using the 3D polarized glasses, and the operator 31 may wear the 3D polarized glasses.

(2)手術システムの機能的構成
図2は、本技術の一実施の形態の手術システムの機能的構成を示すブロック図である。この実施の形態において制御装置13は、術野カメラ11、カメラアーム12、モニタ15および動作認識用カメラ16等の動作を制御するように構成されている他、情報入力インタフェース51から所定の情報が入力されるように構成されている。
(2) Functional Configuration of Surgery System FIG. 2 is a block diagram illustrating a functional configuration of the surgery system according to the embodiment of the present technology. In this embodiment, the control device 13 is configured to control operations of the operative field camera 11, the camera arm 12, the monitor 15, the motion recognition camera 16, and the like, and predetermined information is received from the information input interface 51. It is configured to be entered.

情報入力インタフェース51は、音声検出部61、視線検出部62、ヘッドトラック部63、ジェスチャ検出部64、フットスイッチ65等を有している。音声検出部61はマイクロフォン18を構成要素とし、術者31等の発する音声を検出する。視線検出部62は動作認識用カメラ16の画像信号から、術者31の視線を検出する。ヘッドトラック部63は動作認識用カメラ16の画像信号から、術者31の頭部31Aの動きを検出する。ジェスチャ検出部64は動作認識用カメラ16の画像信号から、術者31のジェスチャを検出する。従って、視線検出部62、ヘッドトラック部63およびジェスチャ検出部64は、画像信号処理部74内に構成されていると考えることもできる。フットスイッチ65は、図1のフットスイッチ17の操作を検出し、その操作に対応する信号を出力する。   The information input interface 51 includes an audio detection unit 61, a line-of-sight detection unit 62, a head track unit 63, a gesture detection unit 64, a foot switch 65, and the like. The sound detection unit 61 includes the microphone 18 as a component, and detects sound emitted from the operator 31 and the like. The line-of-sight detection unit 62 detects the line of sight of the operator 31 from the image signal of the motion recognition camera 16. The head track unit 63 detects the movement of the head 31 </ b> A of the operator 31 from the image signal of the motion recognition camera 16. The gesture detection unit 64 detects the gesture of the operator 31 from the image signal of the motion recognition camera 16. Therefore, it can be considered that the line-of-sight detection unit 62, the head track unit 63, and the gesture detection unit 64 are configured in the image signal processing unit 74. The foot switch 65 detects the operation of the foot switch 17 in FIG. 1 and outputs a signal corresponding to the operation.

制御装置13は、センサ入力部71、キャリブレーション部72、動作制御部73、および画像信号処理部74を有している。センサ入力部71は、情報入力インタフェース51からの信号を入力し、キャリブレーション部72や動作制御部73に出力する。キャリブレーション部72は、検出値補正部81と補正値更新部82を有する。   The control device 13 includes a sensor input unit 71, a calibration unit 72, an operation control unit 73, and an image signal processing unit 74. The sensor input unit 71 inputs a signal from the information input interface 51 and outputs it to the calibration unit 72 and the operation control unit 73. The calibration unit 72 includes a detection value correction unit 81 and a correction value update unit 82.

検出値補正部81と補正値更新部82には、センサ入力部71を介して視線検出部62により検出された術者31の視線の検出値が入力される。検出値補正部81は入力された検出値を補正値更新部82より供給された補正値に基づき補正し、補正後の検出値を動作制御部73に出力する。補正値更新部82は検出値補正部81から補正後の検出値を現在の検出値として受け取り、センサ入力部71を介して視線検出部62より供給される術者31の新たな視線の検出値と比較して、必要に応じて新たな補正値を計算する。計算結果は検出値補正部81に出力される。   The detection value correction unit 81 and the correction value update unit 82 are input with the detected value of the line of sight of the operator 31 detected by the line of sight detection unit 62 via the sensor input unit 71. The detection value correction unit 81 corrects the input detection value based on the correction value supplied from the correction value update unit 82, and outputs the corrected detection value to the operation control unit 73. The correction value update unit 82 receives the corrected detection value from the detection value correction unit 81 as the current detection value, and is supplied from the line-of-sight detection unit 62 via the sensor input unit 71. Compared with, a new correction value is calculated as necessary. The calculation result is output to the detection value correction unit 81.

制御装置13の動作制御部73は、術野カメラ11、カメラアーム12、モニタ15および動作認識用カメラ16の動作を制御する他、画像信号処理部74の動作を制御する。画像信号処理部74は、術野カメラ11および動作認識用カメラ16が撮影した画像の画像信号を処理し、モニタ15に出力して表示させる。   The operation control unit 73 of the control device 13 controls the operation of the image signal processing unit 74 in addition to controlling the operation of the operative field camera 11, the camera arm 12, the monitor 15, and the operation recognition camera 16. The image signal processing unit 74 processes image signals of images taken by the operative field camera 11 and the motion recognition camera 16 and outputs them to the monitor 15 for display.

以上の基本的構成を有する手術システム10により、術者31が行う手術が支援される。すなわち、被手術者32の所定の部位が術野カメラ11により撮影され、その画像がモニタ15に表示される。術者31はその画像を見ながら手術を行う。   The operation performed by the operator 31 is supported by the operation system 10 having the above basic configuration. That is, a predetermined part of the patient 32 is photographed by the operative field camera 11 and the image is displayed on the monitor 15. The surgeon 31 performs an operation while viewing the image.

図3は、本技術の一実施の形態の手術システムの機能的構成を示すブロック図である。本実施の形態の手術システム10は、図2に示す基本的構成以外に、簡単かつ確実にキャリブレーションが実行できるように、図3に示すように構成される。すなわち、画像信号処理部74は参照点検出部101を有する。参照点検出部101は、術野カメラ11が出力する画像信号から、参照点を検出し、補正値更新部82に供給する。補正値更新部82は参照点を利用して、補正値を計算する。   FIG. 3 is a block diagram illustrating a functional configuration of the surgical operation system according to the embodiment of the present technology. The surgical operation system 10 according to the present embodiment is configured as shown in FIG. 3 so that calibration can be easily and reliably performed in addition to the basic configuration shown in FIG. That is, the image signal processing unit 74 includes the reference point detection unit 101. The reference point detection unit 101 detects a reference point from the image signal output from the operative field camera 11 and supplies it to the correction value update unit 82. The correction value update unit 82 calculates a correction value using the reference point.

参照点としては、手術中に使用される術具の表示位置、所定のオブジェクトの表示位置等を用いることができる。   As the reference point, a display position of a surgical instrument used during surgery, a display position of a predetermined object, or the like can be used.

また、制御装置13は情報入力部111を有する。情報入力部111は術者31の手術中の操作に関する情報を入力し、補正のタイミングについての判定処理を行う。例えば術者31が術具(後述する図5参照)を使用した場合、術具が使用されていることを表す信号の入力を受け、判定処理を行う。また、情報入力部111は動作制御部73の出力から、カメラアーム12やモニタアーム14の動作モード切り替えの指示、あるいは視線によるシステム動作の切り替えの指示が出されたかを判定する。さらに情報入力部111は、音声コマンドをお受け付けるための所定のオブジェクト(後述する図10参照)が表示されているかを判定する。判定結果は補正値更新部82に出力される。その他の構成は図2の手術システム10と同様である。   The control device 13 includes an information input unit 111. The information input unit 111 inputs information related to the operation of the surgeon 31 during the operation, and performs a determination process for correction timing. For example, when the surgeon 31 uses a surgical instrument (see FIG. 5 described later), a determination process is performed upon receiving an input of a signal indicating that the surgical instrument is being used. Further, the information input unit 111 determines from the output of the operation control unit 73 whether an instruction to switch the operation mode of the camera arm 12 or the monitor arm 14 or an instruction to switch the system operation by line of sight has been issued. Further, the information input unit 111 determines whether a predetermined object (see FIG. 10 described later) for receiving a voice command is displayed. The determination result is output to the correction value update unit 82. Other configurations are the same as those of the surgical system 10 of FIG.

(3)視線補正処理
(3−1)視線補正処理1
次に手術システム10の第1の視線補正処理について説明する。図4は、本技術の一実施の形態の視線補正処理を説明するフローチャートである。
(3) Gaze correction processing (3-1) Gaze correction processing 1
Next, the first line-of-sight correction process of the surgical system 10 will be described. FIG. 4 is a flowchart for describing line-of-sight correction processing according to an embodiment of the present technology.

ステップS11において視線検出部62は、術者31の視線を検出する。すなわち動作認識用カメラ16が術者31の頭部31A(いまの場合、顔)を撮影し、その目の位置から視線を検出する。この視線検出処理は以後継続され、検出値補正部81と補正値更新部82には、現在の視線の検出値が常に入力される。   In step S <b> 11, the line-of-sight detection unit 62 detects the line of sight of the operator 31. That is, the motion recognition camera 16 captures the head 31A (in this case, the face) of the operator 31 and detects the line of sight from the position of the eyes. The line-of-sight detection process is continued thereafter, and the detection value correction unit 81 and the correction value update unit 82 always receive the current line-of-sight detection value.

ステップS12において検出値補正部81は、初期視線を校正する。この校正処理は、校正専用の画面をモニタ15に表示させ、それを術者31に視認させ、その誤差を補正することで行われる。この校正処理は、最初に1回だけ行われる。   In step S12, the detected value correction unit 81 calibrates the initial line of sight. This calibration process is performed by displaying a calibration-dedicated screen on the monitor 15 so that the operator 31 can visually recognize it and correcting the error. This calibration process is initially performed only once.

ステップS13において補正値更新部82は補正値を更新する。いまの場合、校正結果に基づいて補正値が更新される。検出値補正部81は補正値に基づいて、いま検出されている視線の検出値を補正する。   In step S13, the correction value update unit 82 updates the correction value. In this case, the correction value is updated based on the calibration result. The detection value correction unit 81 corrects the detection value of the line of sight that is currently detected based on the correction value.

ステップS14において参照点検出部101は、参照点を検出する。参照点について図5を参照して説明する。図5は、本技術の一実施の形態の視線補正処理を説明する図である。図5は術野カメラ11により撮影され、モニタ15に表示された画像を示している。図5には術者31が通電して使用する術具201として電気メスが映っている。ここではこの術具201の先端202が参照点とされる。参照点検出部101により検出された参照点の位置情報は、補正値更新部82に供給される。   In step S14, the reference point detection unit 101 detects a reference point. Reference points will be described with reference to FIG. FIG. 5 is a diagram for describing line-of-sight correction processing according to an embodiment of the present technology. FIG. 5 shows an image taken by the operative field camera 11 and displayed on the monitor 15. In FIG. 5, an electric knife is shown as a surgical instrument 201 used by the surgeon 31 energized. Here, the distal end 202 of the surgical instrument 201 is used as a reference point. The reference point position information detected by the reference point detection unit 101 is supplied to the correction value update unit 82.

ステップS15において補正値更新部82は、誤差を計算する。すなわち現在の視線の検出値(すなわち視線検出位置の座標)と、参照点の座標との誤差が計算される。図5の例では、視線検出位置211は、術具201の先端202から離れ、その右上に位置しており、この視線検出位置211と先端202の位置の誤差が計算される。   In step S15, the correction value update unit 82 calculates an error. That is, an error between the current gaze detection value (that is, the gaze detection position coordinates) and the reference point coordinates is calculated. In the example of FIG. 5, the line-of-sight detection position 211 is located far from the distal end 202 of the surgical instrument 201 and is located at the upper right thereof, and an error between the position of the line-of-sight detection position 211 and the distal end 202 is calculated.

ステップS16において補正値更新部82は、誤差量の判定を行う。すなわち、ステップS15で計算された誤差量が基準の範囲内であるかが判定される。誤差量が基準の範囲内である場合、つまり、誤差量が小さい基準値以上であり、かつ大きい基準値以下である場合、ステップS17において補正値更新部82は補正値を決定する。具体的には誤差値が補正値に設定される。   In step S16, the correction value update unit 82 determines the error amount. That is, it is determined whether the error amount calculated in step S15 is within the reference range. When the error amount is within the reference range, that is, when the error amount is not less than the small reference value and not more than the large reference value, the correction value update unit 82 determines a correction value in step S17. Specifically, the error value is set as the correction value.

ステップS18において情報入力部111(推定部)は、補正のタイミングの判定を行う。つまり、いまが補正のタイミングであるかが判定される。例えば術者31が術具201としての電気メスを使用するとき、通電状態にするため、その電源をオンするスイッチを操作する。あるいはフットスイッチ17が操作される。電気メスを使用しているとき、術者31は確実にその先端202を視認している。そこで術具201(いまの場合、電気メス)が使用されていることを表す信号が入力されたとき、術者31が確実にその先端202を視認していると推定する。すなわちそのときの誤差量は、偶発的なエラーではなく、正しく検出された誤差量である。   In step S18, the information input unit 111 (estimation unit) determines the correction timing. That is, it is determined whether it is a correction timing now. For example, when the surgeon 31 uses an electric knife as the surgical instrument 201, a switch for turning on the power is operated in order to turn on the power. Alternatively, the foot switch 17 is operated. When using the electric knife, the operator 31 is surely viewing the tip 202. Therefore, when a signal indicating that the surgical instrument 201 (in this case, an electric knife) is used is input, it is estimated that the operator 31 is surely viewing the tip 202. That is, the error amount at that time is not an accidental error but an error amount that is correctly detected.

そこで、術具201が使用されているときは、ステップS18で補正のタイミングであると判定され、処理はステップS13に戻り、補正値を更新する処理が実行される。すなわち、補正値更新部82は、ステップS17で決定された誤差量に基づく補正値で元の補正値を更新する。検出値補正部81はこの補正値に基づき視線の検出値を補正する。つまり、図5において、現在の視線検出位置211が参照点としての先端202の位置と一致するように補正される。これにより確実に、検出値を正しい位置の値に補正することができる。   Therefore, when the surgical instrument 201 is being used, it is determined in step S18 that the correction timing is reached, the process returns to step S13, and a process for updating the correction value is executed. That is, the correction value update unit 82 updates the original correction value with the correction value based on the error amount determined in step S17. The detection value correction unit 81 corrects the detection value of the line of sight based on the correction value. That is, in FIG. 5, the current gaze detection position 211 is corrected so as to coincide with the position of the tip 202 as a reference point. As a result, the detected value can be reliably corrected to the correct position value.

その後、新たな視線検出値に対して、ステップS14で新たな参照点が検出され、同様の処理が繰り返される。   Thereafter, a new reference point is detected in step S14 for the new line-of-sight detection value, and the same processing is repeated.

ステップS18でいまは補正のタイミングではないと判定された場合、すなわち術具201が使用されていないときは、術者31が術具201の先端202を視認していると推定することができない。そこでこの場合には、ステップS19において補正値更新部82は補正値を破棄する。すなわちステップS17で決定された補正値が破棄される。そして処理はステップS14に戻り、それ以降の処理が繰り返される。すなわち新たな検出値と参照点に基づいて同様の処理が繰り返される。   When it is determined in step S18 that it is not the timing for correction, that is, when the surgical instrument 201 is not used, it cannot be estimated that the operator 31 is viewing the distal end 202 of the surgical instrument 201. Therefore, in this case, the correction value update unit 82 discards the correction value in step S19. That is, the correction value determined in step S17 is discarded. Then, the process returns to step S14, and the subsequent processes are repeated. That is, the same processing is repeated based on the new detection value and the reference point.

誤差量が下の基準値より小さい場合、誤差は殆ど無いと考えられるので、補正の必要が無い。また、誤差量が大きい基準値より大きい場合、偶発的に異常値が検出されたと考えられる。そこでステップS16で誤差量が基準の範囲内ではないと判定された場合には、処理はステップS16からステップS14に戻る。そして、新たな視線検出値と新たな参照点が検出され、同様の処理が繰り返される。   If the amount of error is smaller than the lower reference value, it is considered that there is almost no error, so there is no need for correction. If the error amount is larger than the large reference value, it is considered that an abnormal value has been detected accidentally. Therefore, if it is determined in step S16 that the error amount is not within the reference range, the process returns from step S16 to step S14. Then, a new line-of-sight detection value and a new reference point are detected, and the same processing is repeated.

図6は、本技術の一実施の形態の視線補正処理を説明する図である。図6において線251は術具201の先端202の軌跡を表している。すなわち術具201が、術具201A、201B、201Cと順次その位置を移動させたときの軌跡が線251として表されている。   FIG. 6 is a diagram for describing line-of-sight correction processing according to an embodiment of the present technology. In FIG. 6, a line 251 represents the locus of the distal end 202 of the surgical instrument 201. In other words, the trajectory when the surgical instrument 201 is sequentially moved to the surgical instruments 201A, 201B, and 201C is represented as a line 251.

線252は術者31の実際の視線の軌跡を表している。術者31の実際の視線の軌跡の線252は、術具201の先端202の軌跡の線251に近似した線となっている。一方、線253は、術者31の視線検出位置の軌跡を表している。この視線検出位置の軌跡を表す線253は、術者31の実際の視線の軌跡の線252から離間している。しかし、上述した補正処理により、視線検出位置の軌跡を表す線253を、術者31の実際の視線の軌跡の線252に近づけることができる。   A line 252 represents the actual line of sight of the operator 31. The actual line-of-sight line 252 of the surgeon 31 is a line that approximates the line 251 of the path of the distal end 202 of the surgical instrument 201. On the other hand, a line 253 represents the locus of the eye gaze detection position of the operator 31. The line 253 representing the locus of the visual line detection position is separated from the line 252 of the actual visual locus of the operator 31. However, the line 253 representing the locus of the line-of-sight detection position can be brought close to the line 252 of the locus of the actual line of sight of the operator 31 by the correction processing described above.

なお、軌跡の線251,253を計算し、それに基づいて補正処理を行うようにしてもよい。   The locus lines 251 and 253 may be calculated and the correction process may be performed based on the calculated lines.

以上のようにして、術者31が特別の負担を感じることなく、手術に必要な操作をしている間に、その裏で、簡単かつ確実にキャリブレーションが実行される。   As described above, the calibration is easily and reliably performed on the back of the operator 31 while performing an operation necessary for the operation without feeling a special burden.

(3−2)視線補正処理2
次に、図7を参照して、第2の視線補正処理について説明する。図7は、本技術の一実施の形態の視線補正処理を説明するフローチャートである。
(3-2) Line-of-sight correction processing 2
Next, the second line-of-sight correction process will be described with reference to FIG. FIG. 7 is a flowchart for describing line-of-sight correction processing according to an embodiment of the present technology.

ステップS31において視線検出部62は、術者31の視線を検出する。すなわち動作認識用カメラ16が術者31の頭部31A(いまの場合、顔)を撮影し、その目の位置から視線を検出する。この視線検出処理は以後継続され、検出値補正部81と補正値更新部82には、現在の視線の検出値が常に入力される。   In step S31, the line-of-sight detection unit 62 detects the line of sight of the operator 31. That is, the motion recognition camera 16 captures the head 31A (in this case, the face) of the operator 31 and detects the line of sight from the position of the eyes. The line-of-sight detection process is continued thereafter, and the detection value correction unit 81 and the correction value update unit 82 always receive the current line-of-sight detection value.

ステップS32において検出値補正部81は、初期視線を校正する。この校正処理は、校正専用の画面をモニタ15に表示させ、それを術者31に視認させ、その誤差を補正することで行われる。この校正処理は、最初に1回だけ行われる。   In step S32, the detection value correcting unit 81 calibrates the initial line of sight. This calibration process is performed by displaying a calibration-dedicated screen on the monitor 15 so that the operator 31 can visually recognize it and correcting the error. This calibration process is initially performed only once.

ステップS33において補正値更新部82は補正値を更新する。いまの場合、校正結果に基づいて補正値が更新される。検出値補正部81は補正値に基づいて検出値を補正する。ここまでの処理は、図4のステップS11乃至ステップS13の処理と同様である。   In step S33, the correction value update unit 82 updates the correction value. In this case, the correction value is updated based on the calibration result. The detection value correction unit 81 corrects the detection value based on the correction value. The processing so far is the same as the processing in steps S11 to S13 in FIG.

ステップS34において視線検出部62は、視線検出頻度からパターンを抽出する。ここで図8を参照して、パターンについて説明する。   In step S34, the line-of-sight detection unit 62 extracts a pattern from the line-of-sight detection frequency. Here, the pattern will be described with reference to FIG.

図8は、本技術の一実施の形態の視線補正処理を説明する図である。図8に示されるように、モニタ15の下方中央の領域301には、5個のオブジェクト311乃至315が表示されている。これらは例えば手術システム10の手術中に、カメラアーム12やモニタアーム14の動作モード切り替えの操作、あるいは視線によるシステム動作の切り替えの操作の状態に関するオブジェクトである。   FIG. 8 is a diagram for describing line-of-sight correction processing according to an embodiment of the present technology. As shown in FIG. 8, five objects 311 to 315 are displayed in an area 301 in the lower center of the monitor 15. These are, for example, objects related to the operation mode switching operation of the camera arm 12 and the monitor arm 14 during the operation of the surgical system 10 or the system operation switching operation based on the line of sight.

術者31はこれらのオブジェクトを視認することで所定の動作モードを選択し、設定する。すなわち、この視認はキャリブレーションのためのものではなく、手術のための操作の一環として行われるものである。この場合、術者31は領域301のオブジェクト311乃至315を視認する。その結果、各オブジェクト311乃至315に視線を向ける時間が長くなり、その位置における視線の検出頻度が他の領域より多くなる。図8の例では、領域331における視線検出位置341乃至345が、視線の検出頻度が多い位置として検出されている。すなわち、この例では瞬間的な視線ではなく、視線の累積値に基づいて検出が行われる。   The operator 31 selects and sets a predetermined operation mode by visually recognizing these objects. That is, this visual recognition is not performed for calibration but is performed as part of an operation for surgery. In this case, the operator 31 visually recognizes the objects 311 to 315 in the region 301. As a result, the time for which the line of sight is directed to each of the objects 311 to 315 becomes longer, and the frequency of detection of the line of sight at that position is higher than in other areas. In the example of FIG. 8, the line-of-sight detection positions 341 to 345 in the region 331 are detected as positions where the line-of-sight detection frequency is high. That is, in this example, detection is performed based on the accumulated value of the line of sight, not the instantaneous line of sight.

視線検出部62は、このように、視線の検出頻度が他の領域より多くなる領域をパターンとして検出する。この例では、5個の検出頻度が多い点がほぼ直線上に並ぶように、所定の間隔で配列されている状態がパターンとして検出される。   In this way, the line-of-sight detection unit 62 detects, as a pattern, an area where the line-of-sight detection frequency is greater than other areas. In this example, a state in which five frequently detected points are arranged at a predetermined interval is detected as a pattern so that the points are arranged almost on a straight line.

ステップS35において参照点検出部101は、参照点を検出する。図8の例では、領域301にオブジェクト311乃至315が直線上に並ぶように、所定の間隔で表示されているパターンが、参照点として検出される。参照点検出部101により検出された参照点の位置情報は、補正値更新部82に供給される。   In step S35, the reference point detection unit 101 detects a reference point. In the example of FIG. 8, a pattern displayed at a predetermined interval so that the objects 311 to 315 are arranged in a straight line in the region 301 is detected as a reference point. The reference point position information detected by the reference point detection unit 101 is supplied to the correction value update unit 82.

ステップS36において補正値更新部82は、パターンが一致したかを判定する。すなわち、ステップS34で抽出されたパターンと、ステップS35で参照点として検出されたパターンが比較される。   In step S36, the correction value update unit 82 determines whether the patterns match. That is, the pattern extracted in step S34 is compared with the pattern detected as the reference point in step S35.

ステップS34で抽出されたパターンと、ステップS35で参照点として検出されたパターンが一致すると判定された場合、ステップS37において補正値更新部82は、誤差を計算する。すなわち現在の視線の検出値(すなわち視線検出位置の座標)と、参照点の座標との誤差が計算される。図8の例では、領域331の視線検出位置341乃至345は、領域301のオブジェクト311乃至315から、時計回転方向に若干回転したように、右上方向に位置している。ここでは視線検出位置341乃至345が存在する領域331と、オブジェクト311乃至315が存在する領域301の位置の誤差が計算される。   If it is determined that the pattern extracted in step S34 matches the pattern detected as the reference point in step S35, the correction value update unit 82 calculates an error in step S37. That is, an error between the current gaze detection value (that is, the gaze detection position coordinates) and the reference point coordinates is calculated. In the example of FIG. 8, the line-of-sight detection positions 341 to 345 in the area 331 are located in the upper right direction so that they are slightly rotated clockwise from the objects 311 to 315 in the area 301. Here, the position error between the region 331 where the line-of-sight detection positions 341 to 345 exist and the region 301 where the objects 311 to 315 exist is calculated.

ステップS38において補正値更新部82は、誤差量の判定を行う。すなわち、ステップS37で計算された誤差量が基準の範囲内であるかが判定される。誤差量が基準の範囲内である場合、つまり、誤差量が小さい基準値以上であり、かつ大きい基準値以下である場合、ステップS39において補正値更新部82は補正値を決定する。具体的には誤差値が補正値に設定される。   In step S38, the correction value update unit 82 determines the amount of error. That is, it is determined whether the error amount calculated in step S37 is within the reference range. When the error amount is within the reference range, that is, when the error amount is not less than the small reference value and not more than the large reference value, the correction value update unit 82 determines the correction value in step S39. Specifically, the error value is set as the correction value.

ステップS40において情報入力部111は、補正のタイミングの判定を行う。つまり、いまが補正のタイミングであるかが判定される。動作制御部73は術野カメラ11、カメラアーム12、モニタアーム14、画像信号処理部74、モニタ15等を制御し、それらの制御情報を有している。情報入力部111は、動作制御部73の制御情報を監視し、カメラアーム12やモニタアーム14の動作モード切り替えの指示、あるいは視線によるシステム動作の切り替えの指示等が出されたとき、それを検出する。情報入力部111によりその検出が行われたとき、術者31はその切り替えのためにオブジェクト311乃至315を視認していると推定することができる。すなわちそのときの誤差量は、偶発的なエラーではなく、正しく検出された誤差量である。   In step S40, the information input unit 111 determines the correction timing. That is, it is determined whether it is a correction timing now. The operation control unit 73 controls the operative field camera 11, the camera arm 12, the monitor arm 14, the image signal processing unit 74, the monitor 15, and the like, and has control information thereof. The information input unit 111 monitors the control information of the operation control unit 73 and detects when an instruction to switch the operation mode of the camera arm 12 or the monitor arm 14 or an instruction to switch the system operation by line of sight is issued. To do. When the detection is performed by the information input unit 111, it can be estimated that the operator 31 is viewing the objects 311 to 315 for the switching. That is, the error amount at that time is not an accidental error but an error amount that is correctly detected.

そこで、動作モード切り替えの指示、あるいは視線によるシステム動作の切り替えの指示が入力されたと情報入力部111により判定されたときは、ステップS40で補正のタイミングであると判定され、処理はステップS33に戻る。そして、補正値を更新する処理が実行される。すなわち、補正値更新部82は、ステップS39で決定された誤差量に基づく補正値で元の補正値を更新する。検出値補正部81はこの補正値に基づき視線の検出値を補正する。つまり、図8において、領域331の位置が領域301の位置と一致するように補正が行われる。すなわち、現在の視線検出位置341乃至345が、参照点としてのオブジェクト311乃至315の位置と一致するように補正される。これにより確実に、検出値を正しい位置の値に補正することができる。   Therefore, when the information input unit 111 determines that an operation mode switching instruction or a system operation switching instruction based on the line of sight has been input, it is determined in step S40 that the correction timing is reached, and the process returns to step S33. . And the process which updates a correction value is performed. That is, the correction value update unit 82 updates the original correction value with the correction value based on the error amount determined in step S39. The detection value correction unit 81 corrects the detection value of the line of sight based on the correction value. That is, in FIG. 8, the correction is performed so that the position of the area 331 matches the position of the area 301. That is, the current gaze detection positions 341 to 345 are corrected so as to coincide with the positions of the objects 311 to 315 as reference points. As a result, the detected value can be reliably corrected to the correct position value.

その後、新たな視線検出値が検出され、ステップS34で新たなパターンが抽出され、同様の処理が繰り返される。   Thereafter, a new line-of-sight detection value is detected, a new pattern is extracted in step S34, and the same processing is repeated.

動作モード切り替えの指示、あるいは視線によるシステム動作の切り替えの指示が情報入力部111で検出されていないときは、ステップS40でいまは補正のタイミングではないと判定される。すなわちこのときは、必ずしも術者31が領域301を視認していると推定することができない。そこでこのときは、ステップS41において補正値更新部82は補正値を破棄する。すなわちステップS39で決定された補正値が破棄される。そして処理はステップS34に戻り、それ以降の処理が繰り返される。すなわち新たなパターンに基づいて同様の処理が繰り返される。   When an instruction to switch the operation mode or an instruction to switch the system operation by line of sight has not been detected by the information input unit 111, it is determined in step S40 that it is not the timing for correction. That is, at this time, it cannot always be estimated that the operator 31 is viewing the region 301. Therefore, at this time, the correction value update unit 82 discards the correction value in step S41. That is, the correction value determined in step S39 is discarded. Then, the process returns to step S34, and the subsequent processes are repeated. That is, the same processing is repeated based on the new pattern.

ステップS36においてパターンが一致しないと判定された場合、術者31は抽出されたパターンとは別のパターンを視認していることになる。この場合に補正すると、却って誤差が大きくなるので補正は実行すべきではない。そこでこの場合には、処理はステップS36からステップS34に戻る。そして、新たなパターンが抽出され、同様の処理が繰り返される。   If it is determined in step S36 that the patterns do not match, the surgeon 31 has visually recognized a pattern different from the extracted pattern. If the correction is made in this case, the error becomes larger, and the correction should not be executed. Therefore, in this case, the process returns from step S36 to step S34. Then, a new pattern is extracted and the same process is repeated.

誤差量が小さい基準値より小さい場合、誤差は殆ど無いと考えられるので、補正の必要が無い。また、誤差量が大きい基準値より大きい場合、偶発的に異常値が検出されたと考えられる。そこでステップS38で誤差量が基準の範囲内ではないと判定された場合には、処理はステップS38からステップS34に戻る。そして、新たなパターンが抽出され、同様の処理が繰り返される。   When the amount of error is smaller than the small reference value, it is considered that there is almost no error, so there is no need for correction. If the error amount is larger than the large reference value, it is considered that an abnormal value has been detected accidentally. Therefore, if it is determined in step S38 that the error amount is not within the reference range, the process returns from step S38 to step S34. Then, a new pattern is extracted and the same process is repeated.

以上のようにして、術者31が特別の負担を感じることなく、手術に必要な操作をしている間に、その裏で、簡単かつ確実にキャリブレーションが実行される。   As described above, the calibration is easily and reliably performed on the back of the operator 31 while performing an operation necessary for the operation without feeling a special burden.

(3−3)視線補正処理3
次に、図9を参照して、第3の視線補正処理について説明する。図9は、本技術の一実施の形態の視線補正処理を説明するフローチャートである。
(3-3) Line-of-sight correction processing 3
Next, the third line-of-sight correction process will be described with reference to FIG. FIG. 9 is a flowchart for describing line-of-sight correction processing according to an embodiment of the present technology.

ステップS51において視線検出部62は、術者31の視線を検出する。すなわち動作認識用カメラ16が術者31の頭部31A(いまの場合、顔)を撮影し、その目の位置から視線を検出する。この視線検出処理は以後継続され、検出値補正部81と補正値更新部82には、現在の視線の検出値が常に入力される。   In step S <b> 51, the line-of-sight detection unit 62 detects the line of sight of the operator 31. That is, the motion recognition camera 16 captures the head 31A (in this case, the face) of the operator 31 and detects the line of sight from the position of the eyes. The line-of-sight detection process is continued thereafter, and the detection value correction unit 81 and the correction value update unit 82 always receive the current line-of-sight detection value.

ステップS52において検出値補正部81は、初期視線を校正する。この校正処理は、校正専用の画面をモニタ15に表示させ、それを術者31に視認させ、その誤差を補正することで行われる。この校正処理は、最初に1回だけ行われる。   In step S52, the detection value correction unit 81 calibrates the initial line of sight. This calibration process is performed by displaying a calibration-dedicated screen on the monitor 15 so that the operator 31 can visually recognize it and correcting the error. This calibration process is initially performed only once.

ステップS53において補正値更新部82は補正値を更新する。いまの場合、校正結果に基づいて補正値が更新される。検出値補正部81は補正値に基づいて検出値を補正する。   In step S53, the correction value update unit 82 updates the correction value. In this case, the correction value is updated based on the calibration result. The detection value correction unit 81 corrects the detection value based on the correction value.

ステップS54において参照点検出部101は、参照点を検出する。ここまでの処理は図4のステップS11乃至ステップS14の処理と同様である。ここでこの例における参照点について説明する。   In step S54, the reference point detection unit 101 detects a reference point. The process so far is the same as the process of step S11 thru | or step S14 of FIG. Here, reference points in this example will be described.

図10は、本技術の一実施の形態の視線補正処理を説明する図である。図10においては、モニタ15の左上にオブジェクト401が表示されている。このオブジェクト401は術者31から音声コマンドの入力を受け付けるタイミングのときに表示され、術者31がこのオブジェクト401を視認しながら発した音声コマンドの入力だけが受け付けられる。   FIG. 10 is a diagram for describing line-of-sight correction processing according to an embodiment of the present technology. In FIG. 10, an object 401 is displayed on the upper left of the monitor 15. This object 401 is displayed at a timing when an input of a voice command from the surgeon 31 is accepted, and only an input of a voice command issued by the surgeon 31 while viewing the object 401 is accepted.

すなわち、術者31が音声コマンドを入力するには、オブジェクト401を視認していなければならない。従って音声コマンドが入力されたタイミングにおいては、術者31はオブジェクト401を視認する必要がある。そこで、この例では、オブジェクト401が参照点として検出される。参照点検出部101により検出された参照点の位置情報は、補正値更新部82に供給される。   That is, in order for the surgeon 31 to input a voice command, the object 401 must be visually recognized. Therefore, the operator 31 needs to visually recognize the object 401 at the timing when the voice command is input. Therefore, in this example, the object 401 is detected as a reference point. The reference point position information detected by the reference point detection unit 101 is supplied to the correction value update unit 82.

ステップS55において音声検出部61は、音声コマンドを認識したかを判定する。ここで認識される音声コマンドは、キャリブレーションのためのものではなく、手術のための操作の一環として発せられるものである。この場合、術者31はオブジェクト401を視認する。音声コマンドが認識されたと判定された場合、ステップS56において補正値更新部82は、誤差を計算する。すなわち現在の視線の検出値(すなわち視線検出位置の座標)と、参照点の座標との誤差が計算される。図10の例では、視線検出位置402とオブジェクト401の位置の誤差が計算される。   In step S55, the voice detection unit 61 determines whether a voice command has been recognized. The voice command recognized here is not for calibration, but is issued as part of an operation for surgery. In this case, the operator 31 visually recognizes the object 401. When it is determined that the voice command is recognized, the correction value update unit 82 calculates an error in step S56. That is, an error between the current gaze detection value (that is, the gaze detection position coordinates) and the reference point coordinates is calculated. In the example of FIG. 10, an error between the line-of-sight detection position 402 and the position of the object 401 is calculated.

ステップS57において補正値更新部82は、誤差量の判定を行う。すなわち、ステップS56で計算された誤差量が基準の範囲内であるかが判定される。誤差量が基準の範囲内である場合、つまり、誤差量が小さい基準値以上であり、かつ大きい基準値以下である場合、ステップS58において補正値更新部82は補正値を決定する。具体的には誤差値が補正値とされる。   In step S57, the correction value update unit 82 determines the amount of error. That is, it is determined whether the error amount calculated in step S56 is within the reference range. When the error amount is within the reference range, that is, when the error amount is not less than the small reference value and not more than the large reference value, the correction value update unit 82 determines the correction value in step S58. Specifically, the error value is used as the correction value.

ステップS59において情報入力部111は、補正のタイミングの判定を行う。つまり、いまが補正のタイミングであるかが判定される。参照点検出部101はオブジェクト401を参照点として検出している。このオブジェクト401は術者31から音声コマンドの入力を受け付けるタイミングのときに表示され、術者31がこのオブジェクト401を視認しながら発した音声コマンドの入力だけが受け付けられる。従ってこのオブジェクト401が表示されているタイミングで音声コマンドが認識されたときは、術者31はオブジェクト401を視認していると推定することができる。すなわちそのときの誤差量は、偶発的なエラーではなく、正しく検出された誤差量である。   In step S59, the information input unit 111 determines the correction timing. That is, it is determined whether it is a correction timing now. The reference point detection unit 101 detects the object 401 as a reference point. This object 401 is displayed at a timing when an input of a voice command from the surgeon 31 is accepted, and only an input of a voice command issued by the surgeon 31 while viewing the object 401 is accepted. Accordingly, when a voice command is recognized at the timing when the object 401 is displayed, it can be estimated that the surgeon 31 is viewing the object 401. That is, the error amount at that time is not an accidental error but an error amount that is correctly detected.

音声コマンドはステップS55において既に検出されているので、視認しなければ音声コマンドが受け付けられないというオブジェクト401が表示されていれば、術者31はオブジェクト401を視認していると推定することができる。そこで、視認しなければ音声コマンドが受け付けられないというオブジェクト401が表示されているときは、ステップS59で補正のタイミングであると判定され、処理はステップS53に戻り、補正値を更新する処理が実行される。すなわち、補正値更新部82は、ステップS58で決定された誤差量に基づく補正値で元の補正値を更新する。検出値補正部81はこの補正値に基づき視線の検出値を補正する。つまり図10において、現在の視線検出位置402が、参照点としてのオブジェクト401の位置と一致するように補正される。これにより確実に、検出値を正しい位置の値に補正することができる。   Since the voice command has already been detected in step S55, it can be estimated that the surgeon 31 is viewing the object 401 if the object 401 is displayed that the voice command cannot be accepted unless it is visually recognized. . Therefore, when the object 401 is displayed that the voice command cannot be received unless it is visually recognized, it is determined in step S59 that the correction timing is reached, the process returns to step S53, and the process of updating the correction value is executed. Is done. That is, the correction value update unit 82 updates the original correction value with the correction value based on the error amount determined in step S58. The detection value correction unit 81 corrects the detection value of the line of sight based on the correction value. That is, in FIG. 10, the current gaze detection position 402 is corrected so as to coincide with the position of the object 401 as a reference point. As a result, the detected value can be reliably corrected to the correct position value.

その後、ステップS54で新たな参照点が検出され、同様の処理が繰り返される。   Thereafter, a new reference point is detected in step S54, and the same processing is repeated.

誤差量が小さい基準値より小さい場合、誤差は殆ど無いと考えられるので、補正の必要が無い。また、誤差量が大きい基準値より大きい場合、偶発的に異常値が検出されたと考えられる。そこでステップS57で誤差量が基準の範囲内ではないと判定された場合には、ステップS60において補正値更新部82は補正値を破棄する。すなわちステップS56で決定された補正値が破棄される。そして処理はステップS54に戻り、それ以降の処理が繰り返される。すなわち新たな視線検出点と参照点が検出され、同様の処理が繰り返される。   When the amount of error is smaller than the small reference value, it is considered that there is almost no error, so there is no need for correction. If the error amount is larger than the large reference value, it is considered that an abnormal value has been detected accidentally. Therefore, when it is determined in step S57 that the error amount is not within the reference range, the correction value update unit 82 discards the correction value in step S60. That is, the correction value determined in step S56 is discarded. Then, the process returns to step S54, and the subsequent processes are repeated. That is, new line-of-sight detection points and reference points are detected, and the same processing is repeated.

ステップS55で音声コマンドが認識されないと判定された場合にも、処理はステップS54に戻り、それ以降の処理が繰り返される。すなわち新たな視線検出点と参照点が検出され、同様の処理が繰り返される。   Even when it is determined in step S55 that the voice command is not recognized, the process returns to step S54, and the subsequent processes are repeated. That is, new line-of-sight detection points and reference points are detected, and the same processing is repeated.

以上のようにして、術者31が特別の負担を感じることなく、手術に必要な操作をしている間に、その裏で、簡単かつ確実にキャリブレーションが実行される。   As described above, the calibration is easily and reliably performed on the back of the operator 31 while performing an operation necessary for the operation without feeling a special burden.

以上においては図4、図7および図9の視線補正処理を個別に説明したが、それらは同時に並行して実施されるようにしてもよいし、所定の順番で、直列的に順次繰り返し実行されるようにしてもよい。   In the above description, the line-of-sight correction processes in FIGS. 4, 7, and 9 have been individually described. However, they may be performed in parallel at the same time, or may be repeatedly performed in series in a predetermined order. You may make it do.

本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。   In this specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .

なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。   In addition, the effect described in this specification is an illustration to the last, and is not limited, There may exist another effect.

また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.

例えば、第1の実施の形態では、制御装置13は、複数の種類の非接触の入力の組み合わせに基づいて制御を行うこと、および、術者31の状態に応じて制御を制限することの両方により、手術の安全性を向上させたが、いずれか一方のみにより手術の安全性を向上させるようにしてもよい。   For example, in the first embodiment, the control device 13 performs both control based on a combination of a plurality of types of non-contact inputs and restricts control according to the state of the operator 31. Thus, although the safety of the operation is improved, the safety of the operation may be improved by only one of them.

また、制御装置13による制御対象は、手術用装置であれば、どのようなものであってもよい。例えば、制御装置13は、内視鏡やビデオ顕微鏡等の手術用撮影装置を制御することもできる。   Further, the control target by the control device 13 may be anything as long as it is a surgical device. For example, the control device 13 can also control a surgical imaging device such as an endoscope or a video microscope.

さらに、ズーム制御は、術野カメラ11の撮影制御によって行われるのではなく、画像信号処理部74において術野画像を処理することにより行われるようにしてもよい。   Furthermore, the zoom control may be performed by processing the surgical field image in the image signal processing unit 74 instead of being performed by the imaging control of the surgical field camera 11.

この場合、画像信号処理部74は、ズームイン撮影指令に応じて、術野カメラ11から送信されてくる術野画像を拡大することにより、視線の位置に対応する被写体を中心にズームイン撮影されたズームイン画像を術野画像から生成する電子ズームを行う。同様に、画像信号処理部74は、ズームアウト撮影指令に応じて、術野カメラ11から送信されてくる術野画像を縮小することにより、視線の位置に対応する被写体を中心にズームアウト撮影されたズームアウト画像を術野画像から生成する。なお、このとき、画像信号処理部74は、視線位置情報に基づいて、ズームイン画像やズームアウト画像内の視線に対応する位置にマーカを重畳するようにしてもよい。   In this case, the image signal processing unit 74 enlarges the surgical field image transmitted from the surgical field camera 11 in response to the zoom-in photographing command, thereby zooming in on the subject corresponding to the position of the line of sight. An electronic zoom is performed to generate an image from an operative field image. Similarly, the image signal processing unit 74 performs zoom-out shooting around the subject corresponding to the position of the line of sight by reducing the surgical field image transmitted from the surgical field camera 11 in response to the zoom-out shooting command. A zoomed-out image is generated from the operative field image. At this time, the image signal processing unit 74 may superimpose a marker at a position corresponding to the line of sight in the zoom-in image or the zoom-out image based on the line-of-sight position information.

また、モニタ15に術野画像が表示されている間、常に、アノテーション表示が行われるようにしてもよい。非接触の入力は、術者31の音声、視線、頭部31Aの動きや方向、およびジェスチャに限定されない。例えば、術者31の頭部31A以外の動きや姿勢などであってもよい。   Further, annotation display may always be performed while the surgical field image is displayed on the monitor 15. The non-contact input is not limited to the voice of the operator 31, the line of sight, the movement and direction of the head 31A, and the gesture. For example, the movement or posture of the operator 31 other than the head 31A may be used.

非接触の入力を受け付ける手段は、マイクロフォン18などのようにウェアラブルであってもよいし、ウェアラブルでなくてもよい。   The means for accepting non-contact input may be wearable like the microphone 18 or may not be wearable.

制御装置13は、動作モードが手動モードである場合であっても、術者31の状態を推定し、その状態に応じて術野カメラ11、カメラアーム12、および画像信号処理部74の制御を制限するようにしてもよい。   Even when the operation mode is the manual mode, the control device 13 estimates the state of the operator 31 and controls the operative field camera 11, the camera arm 12, and the image signal processing unit 74 according to the state. You may make it restrict | limit.

<その他>
なお、本技術は、以下のような構成をとることもできる。
(1)
視線の検出値を取得する入力部と、
参照点を検出する参照点検出部と、
前記視線が前記参照点を指向していることを推定する推定部と、
前記推定部により前記視線が前記参照点を指向していることが推定されたときに、前記視線の検出値と前記参照点の差に基づいて、前記視線の検出値を補正する補正部と
を備える制御装置。
(2)
前記視線は、術具を用いて手術する術者の手術中の視線である
前記(1)に記載の制御装置。
(3)
前記推定部は、前記術具が使用中であるとき、前記視線が前記参照点を指向していると推定する
前記(1)または(2)に記載の制御装置。
(4)
前記術具は通電して使用される
前記(1)、(2)または(3)に記載の制御装置。
(5)
前記参照点検出部は、通電して使用される前記術具の先端を前記参照点として検出し、
前記補正部は、前記視線の検出値と前記術具の先端との誤差に対応して、前記視線の検出値を補正する
前記(1)乃至(4)のいずれかに記載の制御装置。
(6)
前記参照点検出部は、通電して使用される前記術具の軌跡を前記参照点として検出し、
前記補正部は、前記視線の検出値と前記術具の軌跡との誤差に対応して、前記視線の検出値を補正する
前記(1)乃至(5)のいずれかに記載の制御装置。
(7)
前記推定部は、モニタに表示されているオブジェクトのパターンが検出された場合、前記モニタに表示されている前記オブジェクトの前記パターンに基づく動作が切り替えられたとき、前記視線が前記参照点を指向していると推定する
前記(1)乃至(6)のいずれかに記載の制御装置。
(8)
前記参照点検出部は、音声コマンドを受け付けるときモニタに表示されるオブジェクトを前記参照点として検出し、
前記推定部は、前記音声コマンド受け付ける前記オブジェクトの表示が検出されたとき、前記視線が前記参照点を指向していると推定する
前記(1)乃至(7)のいずれかに記載の制御装置。
(9)
視線の検出値を取得する入力ステップと、
参照点を検出する参照点検出ステップと、
前記視線が前記参照点を指向していることを推定する推定ステップと、
前記推定ステップの処理により前記視線が前記参照点を指向していることが推定されたときに、前記視線の検出値と前記参照点の差に基づいて、前記視線の検出値を補正する補正ステップと
を含む制御方法。
(10)
被手術者の術野を撮影する撮影部と、
前記撮影部により撮影された術野画像を表示する表示部と、
視線の検出値を取得する入力部と、
参照点を検出する参照点検出部と、
前記視線が前記参照点を指向していることを推定する推定部と、
前記推定部により前記視線が前記参照点を指向していることが推定されたときに、前記視線の検出値と前記参照点の差に基づいて、前記視線の検出値を補正する補正部と
を備える手術システム。
<Others>
In addition, this technique can also take the following structures.
(1)
An input unit for obtaining a detection value of the line of sight;
A reference point detector for detecting a reference point;
An estimation unit that estimates that the line of sight is directed to the reference point;
A correction unit that corrects the detection value of the line of sight based on a difference between the detection value of the line of sight and the reference point when the estimation unit estimates that the line of sight is directed to the reference point; A control device provided.
(2)
The control device according to (1), wherein the line of sight is a line of sight during an operation of an operator who operates using a surgical instrument.
(3)
The control unit according to (1) or (2), wherein the estimation unit estimates that the line of sight is directed toward the reference point when the surgical instrument is in use.
(4)
The control device according to (1), (2), or (3), wherein the surgical instrument is used by being energized.
(5)
The reference point detection unit detects the distal end of the surgical instrument used by being energized as the reference point,
The control device according to any one of (1) to (4), wherein the correction unit corrects the detection value of the line of sight according to an error between the detection value of the line of sight and a distal end of the surgical instrument.
(6)
The reference point detection unit detects a trajectory of the surgical tool used by being energized as the reference point,
The control device according to any one of (1) to (5), wherein the correction unit corrects the detection value of the line of sight according to an error between the detection value of the line of sight and a trajectory of the surgical instrument.
(7)
When the pattern of the object displayed on the monitor is detected and the motion based on the pattern of the object displayed on the monitor is switched, the estimation unit directs the line of sight toward the reference point. The control device according to any one of (1) to (6).
(8)
The reference point detection unit detects an object displayed on a monitor when receiving a voice command as the reference point,
The control device according to any one of (1) to (7), wherein when the display of the object that receives the voice command is detected, the estimation unit estimates that the line of sight is directed to the reference point.
(9)
An input step for obtaining a detected value of the line of sight;
A reference point detecting step for detecting a reference point;
An estimation step for estimating that the line of sight is directed to the reference point;
A correction step of correcting the detected value of the line of sight based on the difference between the detected value of the line of sight and the reference point when it is estimated that the line of sight is directed to the reference point by the process of the estimating step. A control method including and.
(10)
An imaging unit for imaging the surgical field of the subject;
A display unit for displaying an operative field image photographed by the photographing unit;
An input unit for obtaining a detection value of the line of sight;
A reference point detector for detecting a reference point;
An estimation unit that estimates that the line of sight is directed to the reference point;
A correction unit that corrects the detection value of the line of sight based on a difference between the detection value of the line of sight and the reference point when the estimation unit estimates that the line of sight is directed to the reference point; Surgery system provided.

10 手術システム, 11 術野カメラ, 12 カメラアーム, 13 制御装置, 15 モニタ, 51 情報入力インタフェース, 61 音声検出部, 62 視線検出部, 72 キャリブレーション部, 73 動作制御部, 74 画像信号処理部, 81 検出値補正部, 82 補正値更新部, 101 参照点検出部, 111 情報入力部   DESCRIPTION OF SYMBOLS 10 Surgical system, 11 Surgical field camera, 12 Camera arm, 13 Control apparatus, 15 Monitor, 51 Information input interface, 61 Voice detection part, 62 Eye gaze detection part, 72 Calibration part, 73 Operation control part, 74 Image signal processing part , 81 Detection value correction unit, 82 Correction value update unit, 101 Reference point detection unit, 111 Information input unit

Claims (10)

視線の検出値を取得する入力部と、
参照点を検出する参照点検出部と、
前記視線が前記参照点を指向していることを推定する推定部と、
前記推定部により前記視線が前記参照点を指向していることが推定されたときに、前記視線の検出値と前記参照点の差に基づいて、前記視線の検出値を補正する補正部と
を備える制御装置。
An input unit for obtaining a detection value of the line of sight;
A reference point detector for detecting a reference point;
An estimation unit that estimates that the line of sight is directed to the reference point;
A correction unit that corrects the detection value of the line of sight based on a difference between the detection value of the line of sight and the reference point when the estimation unit estimates that the line of sight is directed to the reference point; A control device provided.
前記視線は、術具を用いて手術する術者の手術中の視線である
請求項1に記載の制御装置。
The control device according to claim 1, wherein the line of sight is a line of sight during an operation of an operator who operates using a surgical instrument.
前記推定部は、前記術具が使用中であるとき、前記視線が前記参照点を指向していると推定する
請求項2に記載の制御装置。
The control device according to claim 2, wherein the estimation unit estimates that the line of sight is directed toward the reference point when the surgical instrument is in use.
前記術具は通電して使用される
請求項3に記載の制御装置。
The control device according to claim 3, wherein the surgical instrument is used while being energized.
前記参照点検出部は、通電して使用される前記術具の先端を前記参照点として検出し、
前記補正部は、前記視線の検出値と前記術具の先端との誤差に対応して、前記視線の検出値を補正する
請求項4に記載の制御装置。
The reference point detection unit detects the distal end of the surgical instrument used by being energized as the reference point,
The control device according to claim 4, wherein the correction unit corrects the detection value of the line of sight according to an error between the detection value of the line of sight and a distal end of the surgical instrument.
前記参照点検出部は、通電して使用される前記術具の軌跡を前記参照点として検出し、
前記補正部は、前記視線の検出値と前記術具の軌跡との誤差に対応して、前記視線の検出値を補正する
請求項4に記載の制御装置。
The reference point detection unit detects a trajectory of the surgical tool used by being energized as the reference point,
The control device according to claim 4, wherein the correction unit corrects the detection value of the line of sight according to an error between the detection value of the line of sight and a trajectory of the surgical instrument.
前記推定部は、モニタに表示されているオブジェクトのパターンが検出された場合、前記モニタに表示されている前記オブジェクトの前記パターンに基づく動作が切り替えられたとき、前記視線が前記参照点を指向していると推定する
請求項2に記載の制御装置。
When the pattern of the object displayed on the monitor is detected and the motion based on the pattern of the object displayed on the monitor is switched, the estimation unit directs the line of sight toward the reference point. The control device according to claim 2.
前記参照点検出部は、音声コマンドを受け付けるときモニタに表示されるオブジェクトを前記参照点として検出し、
前記推定部は、前記音声コマンド受け付ける前記オブジェクトの表示が検出されたとき、前記視線が前記参照点を指向していると推定する
請求項2に記載の制御装置。
The reference point detection unit detects an object displayed on a monitor when receiving a voice command as the reference point,
The control device according to claim 2, wherein when the display of the object that receives the voice command is detected, the estimation unit estimates that the line of sight is directed to the reference point.
視線の検出値を取得する入力ステップと、
参照点を検出する参照点検出ステップと、
前記視線が前記参照点を指向していることを推定する推定ステップと、
前記推定ステップの処理により前記視線が前記参照点を指向していることが推定されたときに、前記視線の検出値と前記参照点の差に基づいて、前記視線の検出値を補正する補正ステップと
を含む制御方法。
An input step for obtaining a detected value of the line of sight;
A reference point detecting step for detecting a reference point;
An estimation step for estimating that the line of sight is directed to the reference point;
A correction step of correcting the detected value of the line of sight based on the difference between the detected value of the line of sight and the reference point when it is estimated that the line of sight is directed to the reference point by the process of the estimating step. A control method including and.
被手術者の術野を撮影する撮影部と、
前記撮影部により撮影された術野画像を表示する表示部と、
視線の検出値を取得する入力部と、
参照点を検出する参照点検出部と、
前記視線が前記参照点を指向していることを推定する推定部と、
前記推定部により前記視線が前記参照点を指向していることが推定されたときに、前記視線の検出値と前記参照点の差に基づいて、前記視線の検出値を補正する補正部と
を備える手術システム。
An imaging unit for imaging the surgical field of the subject;
A display unit for displaying an operative field image photographed by the photographing unit;
An input unit for obtaining a detection value of the line of sight;
A reference point detector for detecting a reference point;
An estimation unit that estimates that the line of sight is directed to the reference point;
A correction unit that corrects the detection value of the line of sight based on a difference between the detection value of the line of sight and the reference point when the estimation unit estimates that the line of sight is directed to the reference point; Surgery system provided.
JP2016067417A 2016-03-30 2016-03-30 Control device, method and surgery system Pending JP2017176414A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016067417A JP2017176414A (en) 2016-03-30 2016-03-30 Control device, method and surgery system
PCT/JP2017/010580 WO2017169824A1 (en) 2016-03-30 2017-03-16 Control device, method and surgery system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016067417A JP2017176414A (en) 2016-03-30 2016-03-30 Control device, method and surgery system

Publications (1)

Publication Number Publication Date
JP2017176414A true JP2017176414A (en) 2017-10-05

Family

ID=59965362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016067417A Pending JP2017176414A (en) 2016-03-30 2016-03-30 Control device, method and surgery system

Country Status (2)

Country Link
JP (1) JP2017176414A (en)
WO (1) WO2017169824A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140377A (en) * 2019-02-27 2020-09-03 富士通株式会社 Information processing program, information processing method, and information processing apparatus
WO2022070746A1 (en) * 2020-09-30 2022-04-07 株式会社ドワンゴ Eye tracking system, eye tracking method, and eye tracking program
KR20220148484A (en) * 2021-04-29 2022-11-07 숭실대학교산학협력단 Virtual reality based visual perseption analysis system, virtual reality based visual perseption analysis method and computer program stored in a recording medium to execute the method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3796019B2 (en) * 1997-09-02 2006-07-12 三洋電機株式会社 Gaze detection device
US20140160004A1 (en) * 2012-12-11 2014-06-12 Biosense Webster (Israel), Ltd. Use of physician eye tracking during a procedure

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140377A (en) * 2019-02-27 2020-09-03 富士通株式会社 Information processing program, information processing method, and information processing apparatus
JP7200749B2 (en) 2019-02-27 2023-01-10 富士通株式会社 Information processing program, information processing method, and information processing apparatus
WO2022070746A1 (en) * 2020-09-30 2022-04-07 株式会社ドワンゴ Eye tracking system, eye tracking method, and eye tracking program
JP2022057959A (en) * 2020-09-30 2022-04-11 株式会社ドワンゴ Eye tracking system, eye tracking method and eye tracking program
KR20220148484A (en) * 2021-04-29 2022-11-07 숭실대학교산학협력단 Virtual reality based visual perseption analysis system, virtual reality based visual perseption analysis method and computer program stored in a recording medium to execute the method thereof
KR102625583B1 (en) * 2021-04-29 2024-01-16 숭실대학교 산학협력단 Virtual reality based visual perseption analysis system, virtual reality based visual perseption analysis method and computer program stored in a recording medium to execute the method thereof

Also Published As

Publication number Publication date
WO2017169824A1 (en) 2017-10-05

Similar Documents

Publication Publication Date Title
US9766441B2 (en) Surgical stereo vision systems and methods for microsurgery
JP6697482B2 (en) Tracking surgical instruments for controlling surgical systems
US11439473B2 (en) Surgical control apparatus, surgical control method, and program
US20200046208A1 (en) Medical observation system, apparatus for controlling the same, and method for controlling the same
US8194949B2 (en) User adjustment measurement scale on video overlay
US20130076863A1 (en) Surgical stereo vision systems and methods for microsurgery
JP6903991B2 (en) Surgical system, how to operate the surgical system and control device of the surgical system
WO2018211969A1 (en) Input control device, input control method, and surgery system
JP6965338B2 (en) Medical observation device, control device, and observation field correction method
WO2017061293A1 (en) Surgical operation system, surgical operation control device, and surgical operation control method
WO2017169824A1 (en) Control device, method and surgery system
US20200037847A1 (en) Control apparatus for medical system, control method for medical system, and medical system
JP2018198685A (en) Controller, control method, and surgical system
JP2001134371A (en) Visual line detector
WO2017145606A1 (en) Image processing device, image processing method, and endoscope system
US11850730B2 (en) Double eye tracker configuration for a robot-assisted surgical system
JP7163913B2 (en) Medical systems and control units
JP2014023818A (en) Imaging system and function control method applied to the same
US20220321803A1 (en) Medical observation system, control device, and control method
JP2021142175A (en) Operation field monitor system
AU2009209231B2 (en) User adjustable measurement scale on video overlay
TW202122049A (en) Micro-work robot closely, accurately and quickly coordinating and controlling an imaging unit, an operating body and an arm unit holding the operating body