JP2021168160A - 医療用観察装置、医療用観察方法、およびプログラム - Google Patents

医療用観察装置、医療用観察方法、およびプログラム Download PDF

Info

Publication number
JP2021168160A
JP2021168160A JP2021104857A JP2021104857A JP2021168160A JP 2021168160 A JP2021168160 A JP 2021168160A JP 2021104857 A JP2021104857 A JP 2021104857A JP 2021104857 A JP2021104857 A JP 2021104857A JP 2021168160 A JP2021168160 A JP 2021168160A
Authority
JP
Japan
Prior art keywords
surgical
state
unit
control
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021104857A
Other languages
English (en)
Inventor
毅 前田
Tsuyoshi Maeda
成司 和田
Seiji Wada
竜己 坂口
Tatsuki Sakaguchi
加奈 松浦
Kana Matsuura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of JP2021168160A publication Critical patent/JP2021168160A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35444Gesture interface, controlled machine observes operator, executes commands

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)

Abstract

【課題】非接触の入力により手術用装置を制御する場合に手術用装置の誤動作を防止することができるようにする。
【解決手段】状態推定部は、認識部により認識された術者からの少なくとも1種類の非接触の入力に基づいて、術者の状態を推定する。指令部は、状態推定部により推定された状態に応じて、認識部により認識された術者からの少なくとも1種類の非接触の入力に基づく術用カメラ、カメラアーム、または画像処理部の制御を制限する。本開示は、例えば、術用カメラ、カメラアーム、動作認識用カメラ、ディスプレイ、制御装置、眼鏡、マイクロフォン、マーカ、フットスイッチ等を有し、画像を参照した処置を可能にする手術システム等に適用することができる。
【選択図】図3

Description

本開示は、手術用制御装置、手術用制御方法、およびプログラムに関し、特に、非接触の入力により手術用装置を制御する場合に手術用装置の誤動作を防止することができるようにした手術用制御装置、手術用制御方法、およびプログラムに関する。
音声、ジェスチャ、視線などの非接触の入力により、手術用装置を制御する手術システムが考案されている(例えば、特許文献1参照)。このような手術システムでは、滅菌対策が必須である術者が、操作ボタン等に接触することなく手術用装置を制御することができる。
しかしながら、非接触の入力は、接触による入力に比べて、入力が誤認識される可能性があり、手術用装置が誤動作する場合がある。手術システムにおいては、手術用装置の誤動作が患者の生命を左右するため、手術用装置の誤動作を防止することは必須である。
米国特許出願公開第2011/026678号明細書
従って、非接触の入力により手術用装置を制御する場合にフェールセーフを実現し、手術用装置の誤動作を防止することが求められている。
本開示は、このような状況に鑑みてなされたものであり、非接触の入力により手術用装置を制御する場合に手術用装置の誤動作を防止することができるようにするものである。
本開示の一側面の手術用制御装置は、第1の非接触入力認識部により認識されたユーザからの少なくとも1種類の非接触の入力に基づいて、前記ユーザの状態を推定する状態推定部と、前記状態推定部により推定された前記状態に応じて、第2の非接触入力認識部により認識された前記ユーザからの少なくとも1種類の非接触の入力に基づく手術用装置の制御を制限する制限部とを備える手術用制御装置である。
本開示の一側面の手術用制御方法およびプログラムは、本開示の一側面の手術用制御装置に対応する。
本開示の一側面においては、第1の非接触入力認識部により認識されたユーザからの少なくとも1種類の非接触の入力に基づいて、前記ユーザの状態が推定され、推定された前記状態に応じて、第2の非接触入力認識部により認識された前記ユーザからの少なくとも1種類の非接触の入力に基づく手術用装置の制御が制限される。
本開示の一側面によれば、手術用装置を制御することができる。また、本開示の一側面によれば、非接触の入力により手術用装置を制御する場合に手術用装置の誤動作を防止することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示を適用した手術システムの第1実施の形態の構成例を示すブロック図である。 図1のカメラアームによる術用カメラの駆動を説明する図である。 図1の制御装置の構成例を示すブロック図である。 入力情報と指令の関係の例を示す図である。 図3の制御部によるピボット動作指令の実行を説明する図である。 図3の制御部によるスライド動作指令の実行を説明する図である。 図3の状態推定部により推定される術者の状態の例を示す図である。 図3の状態推定部における術者の状態の推定方法を説明する図である。 図1の手術システムの制御装置の制御処理を説明するフローチャートである。 図9の状態推定処理の詳細を説明するフローチャートである。 本開示を適用した手術システムの第2実施の形態の構成例を示すブロック図である。 コンピュータのハードウエアの構成例を示すブロック図である。
以下、本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1実施の形態:手術システム(図1乃至図10)
2.第2実施の形態:手術システム(図11)
3.第3実施の形態:コンピュータ(図12)
<第1実施の形態>
(手術システムの第1実施の形態の構成例)
図1は、本開示を適用した手術システムの第1実施の形態の構成例を示すブロック図である。
手術システム10は、術用カメラ11、カメラアーム12、動作認識用カメラ13、ディスプレイ14、制御装置15、手術台16、眼鏡17、マイクロフォン18、マーカ19、およびフットスイッチ20により構成される。手術システム10は、手術室等に配置され、術用カメラ11により撮影される画像を参照した外科手術等の処置を可能にする。
具体的には、手術システム10の術用カメラ11(手術用撮影装置)は、カメラアーム12により保持された3Dカメラ等のモダリティ機器である。術用カメラ11は、手術台16に横たわる患者21の術野等を撮影し、その結果得られる3D画像を術野画像として制御装置15に送信する。カメラアーム12は、術用カメラ11を保持し、術用カメラ11の位置や角度を制御する。
動作認識用カメラ13は、例えば2Dカメラであり、ディスプレイ14の上に配置される。動作認識用カメラ13は、眼鏡17、マイクロフォン18、およびマーカ19を頭部22Aに装着した術者22を撮影する。動作認識用カメラ13は、撮影の結果得られる2D画像を術者画像として制御装置15に送信する。
ディスプレイ14は、比較的大きい画面を有する3Dディスプレイであり、術者22から比較的離れた位置(図1の例では、手術台16を挟んで術者22と対向する位置)に配置される。制御装置15から送信されてくる術野画像等を表示する。
制御装置15は、動作モードを、手動モードまたはハンズフリーモードに設定する。手動モードとは、術者22の手による入力(例えば、カメラアーム12への加力や、各部に設けられた図示せぬ操作ボタン等の操作)に基づいて手術システム10の制御を行うモードである。ハンズフリーモードとは、術者22の手によらない、音声、視線、頭部22Aの動きや方向、ジェスチャなどの非接触の入力やフットフットスイッチ20への脚部22Bの接触による入力に基づいて、手術システム10の制御を行うモードである。
また、制御装置15は、動作認識用カメラ13から送信されてくる術者画像を受信し、術者画像内の術者22の頭部22Aに装着されたマーカ19の位置を検出することにより、頭部22Aの動きの検出(ヘッドトラッキング)や頭部22Aの方向の認識を行う。さらに、制御装置15は、術者画像から術者22のジェスチャを認識する。
制御装置15は、眼鏡17から送信されてくる術者22の視線の方向を表す情報を受信し、その情報と頭部22Aの位置および方向とに基づいてディスプレイ14の画面上の視線の位置を認識する。制御装置15は、マイクロフォン18から送信されてくる音声を受信し、その音声に対して音声認識を行う。制御装置15は、フットスイッチ20から送信されてくるフットスイッチ20に対する操作を表す操作信号を受信し、その操作信号に基づいてフットスイッチ20に対する操作の内容を認識する。
さらに、動作モードがハンズフリーモードである場合、制御装置15は、頭部22Aの動きや方向、術者22のジェスチャ、ディスプレイ14の画面上の視線の位置を表す視線位置情報、音声認識結果、音量、およびフットスイッチ20に対する操作の内容を表す操作情報を入力情報とする。制御装置15は、入力情報に基づいて術者22からの指令および術者22の状態を認識する。
制御装置15は、術者22の状態に応じて、術者22からの指令を許可する。制御装置15は、許可された指令に応じて、術用カメラ11の撮影を制御したり、カメラアーム12の駆動を制御したり、ディスプレイ14の表示を制御したり、動作モードを変更したりする。
眼鏡17は、術者22の頭部22Aに装着され、3D偏光眼鏡と視線検出デバイスにより構成される。術者22は、眼鏡17の3D偏光眼鏡を介してディスプレイ14を見ることにより、ディスプレイ14に表示される術野画像を3D画像として認識することができる。
また、術者22は、眼鏡17を介して周囲を見ることにより、眼鏡17に視線を入力する。眼鏡17の視線検出デバイスは、術者22の視線を検出し、視線の方向を表す情報を制御装置15に送信する。
マイクロフォン18は、術者22の頭部22Aに装着される。マイクロフォンは、術者22の音声等を含む周囲の音声を取得し、制御装置15に送信する。マーカ19は、術者22の頭部22Aに装着される。
フットスイッチ20は、術者22の周囲に配置され、術者22の脚部22Bの接触により操作される。フットスイッチ20は、術者22からの脚部22Bの操作を表す操作信号を制御装置15に送信する。
以上のように構成される手術システム10では、術者22は、患者21を手術台16の上に横たわらせ、ディスプレイ14に表示される術野画像等を、眼鏡17を介して見ながら、外科手術等の処置を行う。
また、術者22は、動作モード、術用カメラ11の撮影条件、術用カメラ11の位置や角度、ディスプレイ14の表示等を変更する場合、非接触の入力または足の接触による入力を行う。従って、術者22は、図示せぬ術具を把持した状態で入力を行うことができる。また、術者22は、入力を行うたびに、滅菌処理を行う必要がない。
なお、視線検出方法、術者22の頭部22Aの動きや方向、および、ジェスチャの検出方法、音声の取得方法としては、任意の方法を採用することができる。例えば、視線検出デバイスやマイクロフォン18は、ウェアラブルデバイスでなくてもよい。
本明細書では、ディスプレイ14の水平方向をx方向といい、垂直方向をy方向といい、ディスプレイ14の画面に対して垂直な方向をz方向という。
(術用カメラの駆動の説明)
図2は、図1のカメラアーム12による術用カメラ11の駆動を説明する図である。
図2のAに示すように、カメラアーム12は、術用カメラ11に、撮影中心を変更せずに撮影角度を変更するピボット動作を行わせることができる。具体的には、カメラアーム12は、術用カメラ11の撮影対象である術野の中心Pからの距離が常に一定になるように、術用カメラ11を移動させることができる。これにより、術用カメラ11は、術野の中心Pが同一であり、撮影角度が異なる術野画像を撮影することができる。
また、図2のBに示すように、カメラアーム12は、術用カメラ11に、撮影中心をx方向に移動させるx方向へのスライド動作を行わせることができる。具体的には、カメラアーム12は、術用カメラ11をx方向に移動させることができる。これにより、術用カメラ11は、撮影対象である術野の中心Pをx方向に移動させることができる。
さらに、図示は省略するが、カメラアーム12は、術用カメラ11にy方向やz方向へのスライド動作を行わせることができる。術用カメラ11がy方向へのスライド動作を行う場合、術用カメラ11は、撮影範囲を拡大または縮小することができる。また、術用カメラ11がz方向へのスライド動作を行う場合、術用カメラ11は、撮影対象である術野の中心Pをz方向に移動させることができる。
なお、本明細書では、術用カメラ11のスライド動作が、カメラアーム12による術用カメラ11の移動によって行われるものとするが、カメラアーム12による術用カメラ11の撮影角度の変更によって行われるようにしてもよい。
(制御装置の構成例)
図3は、図1の制御装置15の構成例を示すブロック図である。
図3の制御装置15は、認識部61、指令部62、モード設定部63、状態推定部64、制御部65、および画像処理部66により構成される。
制御装置15の認識部61は、音声認識部71、視線認識部72、頭部認識部73、ジェスチャ認識部74、および操作認識部75により構成される。
音声認識部71(非接触入力認識部)は、マイクロフォン18から送信されてくる音声に対して音声認識を行い、術者22(ユーザ)の非接触の入力として、発話を認識する。また、音声認識部71は、術者22の非接触の入力として、マイクロフォン18から送信されてくる音声の音量を認識する。音声認識部71は、音声認識結果である発話および音量を入力情報として指令部62に供給する。
視線認識部72(非接触入力認識部)は、眼鏡17から送信されてくる視線の方向を表す情報と、頭部認識部73により認識される頭部22Aの位置および方向とに基づいて、術者22の非接触の入力として、ディスプレイ14の画面上の視線の位置を認識する。視線認識部72は、その位置を表す視線位置情報を入力情報として指令部62、状態推定部64、および画像処理部66に供給する。
頭部認識部73(非接触入力認識部)は、動作認識用カメラ13から送信されてくる術者画像から術者画像内のマーカ19の位置を検出することにより、術者22からの非接触の入力として、術者22の頭部22Aの位置、動き、および方向を認識する。頭部認識部73は、頭部22Aの動きや方向を入力情報として指令部62と状態推定部64に供給する。また、頭部認識部73は、頭部22Aの位置および方向を視線認識部72に供給する。
ジェスチャ認識部74(非接触入力認識部)は、動作認識用カメラ13から送信されてくる術者画像から、術者22からの非接触の入力として、術者22のジェスチャの入力を認識する。ジェスチャ認識部74は、術者22のジェスチャを入力情報として指令部62に供給する。
操作認識部75(接触入力認識部)は、フットスイッチ20から送信されてくる操作信号を受信し、術者22からの接触による入力として、フットスイッチ20に対する操作の内容を認識する。操作認識部75は、その操作の内容を表す操作情報を入力情報として指令部62に供給する。
指令部62は、認識部61から供給される入力情報に基づいて、術者22からの指令を認識する。指令部62は、認識された指令が動作モードを変更する指令である場合、その指令をモード設定部63に通知する。
一方、術者22から認識された指令が動作モードを変更する指令ではない場合、指令部62(制限部)は、状態推定部64から供給される状態に応じて、術者22からの指令を制限する。即ち、指令部62は、状態推定部64から供給される状態に応じて、術者22からの所定の指令を許可する。指令部62は、許可された指令を制御部65に供給する。
モード設定部63は、指令部62から供給される指令に応じて、動作モードを手動モードまたはハンズフリーモードに設定する。モード設定部63は、設定された動作モードを状態推定部64に供給する。
状態推定部64は、モード設定部63から供給される動作モードがハンズフリーモードである場合、認識部61から供給される入力情報に基づいて術者22の状態を推定する。状態推定部64は、推定された状態を指令部62に通知する。
制御部65は、指令部62から供給される指令を実行する。具体的には、指令部62から供給される指令が、術用カメラ11の撮影制御に関する指令である場合、制御部65は、その指令に応じて術用カメラ11(手術用装置)の撮影制御を行う。
また、指令部62から供給される指令が、カメラアーム12の駆動制御に関する指令である場合、制御部65は、その指令に応じてカメラアーム12(手術用装置)の駆動制御を行う。また、指令部62から供給される指令が、ディスプレイ14の表示制御に関する指令である場合、制御部65は、その指令を画像処理部66に供給することにより画像処理部66(手術用装置)を制御する。
画像処理部66は、術用カメラ11から送信されてくる術野画像を処理する。具体的には、画像処理部66は、術用カメラ11から送信されてくる術野画像をそのままディスプレイ14に供給し、表示させる。
また、画像処理部66は、制御部65から供給される指令が、アノテーション表示指令である場合、視線認識部72から供給される視線位置情報に基づいて、術用カメラ11から送信されてくる術野画像内の術者22の視線に対応する位置にマーク(所定の画像)を重畳させる。そして、画像処理部66は、マークが重畳された術野画像をディスプレイ14に供給し、表示させる。
さらに、画像処理部66は、制御部65から供給される指令が、メニューボタンなどのGUI(Graphical User Interface)をディスプレイ14に表示させるメニュー表示指令である場合、術用カメラ11から送信されてくる術野画像にGUIの画像を重畳させる。画像処理部66は、GUIが重畳された術野画像をディスプレイ14に供給し、表示させる。
(入力情報と指令の関係の例)
図4は、入力情報と指令の関係の例を示す図である。
図4に示すように、入力情報のうちの音声認識結果が「ズームイン」であり、かつ、視線位置情報がディスプレイ14の画面内の位置を表す場合、指令部62は、術者22からの指令が、視線位置情報が表す視線の位置に対応する被写体を中心に術用カメラ11にズームイン撮影させる指令(以下、ズームイン撮影指令という)であることを認識する。
同様に、入力情報のうちの音声認識結果が「ズームアウト」であり、かつ、視線位置情報がディスプレイ14の画面内の位置を表す場合、指令部62は、術者22からの指令が、視線位置情報が表す視線の位置に対応する被写体を中心に術用カメラ11にズームアウト撮影させる指令(以下、ズームアウト撮影指令という)であることを認識する。
また、入力情報のうちの音声認識結果が「フォーカス」であり、かつ、視線位置情報がディスプレイ14の画面内の位置を表す場合、指令部62は、術者22からの指令が、視線位置情報が表す視線の位置に対応する被写体で合焦するように術用カメラ11のフォーカス制御を行う指令(以下、フォーカス制御指令という)であることを認識する。
なお、ズームイン撮影指令、ズームアウト撮影指令、およびフォーカス制御指令は、術用カメラ11の撮影制御に関する指令であるため、これらの指令の種類は、「撮影制御」に分類される。
以上により、術者22は、コマンド入力に適している音声で撮影制御の内容を入力し、位置入力に適している視線で撮影制御に必要な位置を入力することができる。従って、術者22は、撮影制御に関する指令を容易に行うことができる。
また、入力情報のうちの音声認識結果が「ピボット」であり、視線位置情報がディスプレイ14の画面内の位置を表し、視線位置情報が時間的に変化せず、頭部22Aの動きが移動である場合、かつ、操作情報がフットスイッチ20の押下を表す場合、指令部62は、術者22からの指令が、頭部22Aの動きに応じて術用カメラ11がピボット動作するようにカメラアーム12を制御する指令(以下、ピボット動作指令という)であることを認識する。
入力情報のうちの音声認識結果が「スライド」であり、頭部22Aの動きが回転であり、視線位置情報がディスプレイ14の画面内の位置を表し、視線位置情報が表す位置の時間的変化の方向が、頭部22Aの回転方向と同一である場合、かつ、操作情報がフットスイッチ20の押下を表す場合、指令部62は、術者22からの指令が、視線の位置に応じて術用カメラ11がスライド動作するようにカメラアーム12を制御する指令(以下、スライド動作指令という)であることを認識する。
なお、ピボット動作指令およびスライド動作指令は、カメラアーム12の駆動制御に関する指令であるため、これらの指令の種類は、「カメラアーム制御」に分類される。
以上のように、2以上の入力情報の組み合わせが条件を満たしていない場合、指令部62は、術者22からの指令として、種類が「撮影制御」または「カメラアーム制御」である、術野画像を変更する指令を認識しない。
例えば、入力情報のうちの音声認識結果が「ズームイン」(「ズームアウト」、「フォーカス」)である場合であっても、視線位置情報が画面内の位置を表さない場合には、指令部62は、誤認識と判断し、術者22からの指令がズームイン撮影指令(ズームアウト撮影指令、フォーカス制御指令)であることを認識しない。
逆に、入力情報のうちの視線位置情報が画面内の位置を表す場合であっても、音声認識結果が「ズームイン」(「ズームアウト」、「フォーカス」)ではない場合には、指令部62は、誤認識と判断し、術者22からの指令がズームイン撮影指令(ズームアウト撮影指令、フォーカス制御指令)であることを認識しない。
入力情報のうちの音声認識結果が「フォーカス」であり、視線位置情報が画面内の位置を表し、頭部22Aの動きが移動であり、操作情報がフットスイッチ20の押下を表す場合であっても、視線位置情報が時間的に変化している場合、指令部62は、誤認識と判断し、術者22からの指令がピボット動作指令であることを認識しない。
また、入力情報のうちの音声認識結果が「フォーカス」であり、視線位置情報が画面内の位置を表し、頭部22Aの動きが移動であり、視線位置情報が時間的に変化していない場合であっても、操作情報がフットスイッチ20の押下を表さない場合、指令部62は、誤認識と判断し、術者22からの指令がピボット動作指令であることを認識しない。
従って、手術への影響が大きい、術野画像が変更される指令の認識正答率を向上させることができる。その結果、手術の安全性を向上させることができる。
また、種類が「カメラアーム制御」である、術野画像の内容を大きく変更する指令は、種類が「撮影制御」である指令に比べて、手術への影響が大きい。従って、図4の例では、種類が「カメラアーム制御」である指令の認識条件における入力情報の数が、種類が「撮影制御」である指令の認識条件における入力情報の数である2より大きい3になっている。
なお、種類が「撮影制御」である指令の認識条件として、操作情報がフットスイッチ20の押下を表す場合という条件を追加し、認識条件における入力情報の数を3つにしてもよい。
入力情報のうちの音声認識結果が「メニュー」であり、かつ、操作情報がフットスイッチ20の押下を表す場合、指令部62は、術者22からの指令がメニュー表示指令であることを認識する。なお、メニュー表示指令は、画像処理部66(表示制御装置)のメニューボタンなどのGUIの表示制御に関する指令であるため、メニュー表示指令の種類は、「メニュー表示制御」に分類される。
また、入力情報のうちの音声認識結果が「アノテーション」または「ポインタ」であり、かつ、操作情報がフットスイッチ20の押下を表す場合、指令部62は、術者22からの指令が、ディスプレイ14の画面内の術者22の視線に対応する位置にマークをアノテーションとして表示させるアノテーション表示指令であることを認識する。なお、アノテーション表示指令は、画像処理部66のアノテーションの表示制御に関する指令であるため、アノテーション表示指令の種類は、「アノテーション表示制御」に分類される。
さらに、入力情報のうちの音声認識結果が「ハンズフリー」であり、かつ、操作情報がフットスイッチ20の押下を表す場合、指令部62は、術者22からの指令が、動作モードをハンズフリーモードに設定させる指令(以下、ハンズフリーモード指令という)であることを認識する。
入力情報のうちの音声認識結果が「停止」であり、かつ、操作情報がフットスイッチ20の押下を表す場合、指令部62は、術者22からの指令が、通常状態における動作モードを手動モードに設定させる指令(以下、手動モード指令という)であることを認識する。
以上のように、術者22が、メニュー表示指令、アノテーション表示指令、または手動モード指令に関する発話をマイクロフォン18に入力し、フットスイッチ20を押下することにより決定操作を行うと、指令部62は、その指令を認識する。
また、入力情報のうちの操作情報がフットスイッチ20の長押しを表す場合、指令部62は、術者22からの指令が通常状態における手動モード指令であることを認識する。入力情報のうちの視線位置情報が表す位置がディスプレイ14の画面外であり、かつ、操作情報がフットスイッチ20の押下を表す場合、指令部62は、術者22からの指令が通常状態における手動モード指令であることを認識する。
さらに、入力情報のうちの術者22のジェスチャが予め登録されたジェスチャ以外である場合、または、入力情報のうちの音量が所定値より大きい場合、指令部62は、緊急状態における手動モード指令であることを認識する。緊急状態とは、誤動作などにより緊急にハンズフリーモードの停止が必要になった状態である。
なお、緊急状態における手動モード指令の認識条件は、他の指令の認識条件以外の条件であれば、術者22のジェスチャが予め登録されたジェスチャ以外である、または、音量が所定値より大きいという条件以外であってもよい。
ハンズフリーモード指令および手動モード指令は、制御装置15の動作モードの制御に関する指令であるため、これらの指令の種類は、「モード制御」に分類される。
なお、入力情報と指令の関係は、上述した図4の例に限定されない。
即ち、術者22が、指令の認識に必要な入力内容を、その入力内容の種類に適した音声や音量、視線、頭部22Aの動きや方向、ジェスチャ、またはフットフットスイッチ20の操作を用いて入力することができれば、認識条件はどのようなものであってもよい。例えば、図4の例では、種類が「メニュー表示制御」、「アノテーション表示制御」、および「モード制御」である指令の認識条件における非接触の入力の入力情報の種類は、1つであったが、複数であってもよい。
また、指令部62により認識される指令は、手術システム10の各部を制御する指令であれば、どのような指令であってもよい。例えば、指令部62は、術用カメラ11の各種のパラメータを設定する指令を認識するようにしてもよい。
(ピボット動作指令の実行の説明)
図5は、図3の制御部65によるピボット動作指令の実行を説明する図である。
なお、図5のAは、y方向から見た頭部22Aとディスプレイ14を示す図であり、図5のBは、z方向とy方向の間の方向から見た術用カメラ11を示す図である。
図5のAに示すように、術者22が「ピボット」という音声を発し、術者22の視線がディスプレイ14の画面内の位置Rに存在するとき、術者22が、フットスイッチ20を押下しながら、画面上の視線の位置を動かさずに頭部22Aだけx方向に移動すると、指令部62は、ピボット動作指令を認識する。
制御部65は、指令部62からピボット動作指令が供給された場合、カメラアーム12を駆動制御し、術用カメラ11をx方向に頭部22Aの移動量に応じた量だけピボット動作させる。これにより、図5のBに示すように、術用カメラ11は、中心Pからの距離を変更させずに、x方向に頭部22Aの移動量に応じた量だけ移動する。
(スライド動作指令の実行の説明)
図6は、図3の制御部65によるスライド動作指令の実行を説明する図である。
なお、図6のAは、y方向から見た頭部22Aとディスプレイ14を示す図であり、図6のBは、z方向から見た術用カメラ11を示す図である。
図6のAに示すように、術者22が「スライド」という音声を発し、術者22の視線がディスプレイ14の画面内の位置Rに存在するとき、術者22が、フットスイッチ20を押下しながら、頭部22Aを右方向に角度αだけ回転させ、画面上の視線の位置をx方向に移動させると、指令部62は、スライド動作指令を認識する。
制御部65は、指令部62からスライド動作指令が供給された場合、カメラアーム12を駆動制御し、移動後の画面上の視線の位置R´に対応する被写体が撮影中心となるように、術用カメラ11をx方向にスライド動作させる。これにより、術用カメラ11の撮影対象である術野の中心Pがx方向に移動する。
なお、制御部65は、頭部22Aの回転速度に応じて、スライド動作の速度を制御するようにしてもよい。
(推定される術者の状態の例)
図7は、図3の状態推定部64により推定される術者22の状態の例を示す図である。
図7に示すように、状態推定部64は、術者22の状態を、手技外動作状態、俯瞰状態、注視状態、または観察状態と推定する。
手技外動作状状態とは、術者22が手技以外の動作(例えば、鉗子などを把持した手元の確認、周囲の助手やスタッフなどの状況把握など)を行っている状態である。手技外動作状態では、術者22はディスプレイ14に正対していないと想定される。従って、術野画像を変更する必要性はない。よって、指令部62は、術者22の状態が手技外動作状態であると推定された場合、動作モードを変更する、種類が「モード制御」である指令以外の術者22からの指令を、術野画像を変更しない、種類が「メニュー表示制御」である指令に制限する。
俯瞰状態とは、術者22が、組織の損傷や出血の有無の確認などを行うために術野を俯瞰している状態である。俯瞰状態では、術者22の視線がディスプレイ14の画面内で頻繁に動いていると想定される。また、俯瞰状態では、術者22は、周囲の助手やスタッフなどに術野画像内の所定の位置を指示したい場合がある。従って、術者22の状態が俯瞰状態であると推定された場合、種類が「モード制御」である指令以外の術者22からの指令を、種類が「メニュー表示制御」である指令と、術野画像にアノテーションを重畳する、種類が「アノテーション表示制御」である指令に制限する。
注視状態とは、術者22が術野画像内の一点を注視して手技を行っている状態である。注視状態では、術者22の視線がディスプレイ14の画面内にあり、術者22の視線の動きは少ないが、術者22は動いていると想定される。注視状態では、術者22は、術野画像の内容を変更する必要はないが、手技に適した撮影条件で撮影された術野画像を見る必要がある。従って、指令部62は、術者22の状態が注視状態であると推定された場合、種類が「モード制御」である指令以外の術者22からの指令を、種類が「メニュー表示制御」および「アノテーション表示制御」である指令と、撮影条件を変更する、種類が「撮影制御」である指令に制限する。
観察状態とは、術者22が手技を一旦中断し、重要な処置を行うために患者21を観察している状態である。観察状態では、術者22の視線がディスプレイ14の画面内にあり、術者22の視線の動きおよび術者22の動きが少ないと想定される。観察状態では、術者22は、術野を多方面から観察する必要があるため、術野画像の内容を変更する必要がある。
従って、指令部62は、術者22の状態が観察状態であると推定された場合、種類が「モード制御」である指令以外の術者22からの指令の全てを許可する。即ち、指令部62は、種類が「メニュー表示制御」、「アノテーション表示制御」、および「撮影制御」である指令だけでなく、術用カメラ11の位置を変更する、種類が「カメラアーム制御」である指令も許可する。
以上のように、術野画像を変更する必要性は、低い方から順に、手技外動作状態、俯瞰状態、注視状態、観察状態となる。
なお、ここでは、術野画像を変更する必要性がより高い状態では、より低い状態において許可される指令が全て許可されるものとするが、許可される指令は状態ごとに決定されるようにしてもよい。
例えば、術者22の状態が、手技外動作状態、俯瞰状態、注視状態、観察状態である場合、それぞれ、種類が「メニュー表示制御」、「アノテーション表示制御」、「撮影制御」、「カメラアーム制御」である指令のみ許可されるようにしてもよい。
(術者の状態の推定方法の説明)
図8は、図3の状態推定部64における術者22の状態の推定方法を説明する図である。
状態推定部64は、入力情報のうちの頭部22Aの方向または視線位置情報に基づいて、術者22がディスプレイ14と正対しているかどうかを判定する。
具体的には、状態推定部64は、頭部22Aの方向が、ディスプレイ14への方向である場合、術者22がディスプレイ14と正対していると判断し、ディスプレイ14への方向ではない場合、ディスプレイ14と正対していないと判断する。
または、状態推定部64は、視線位置情報が表す位置がディスプレイ14の画面内である場合、ディスプレイ14と正対していると判断し、画面外である場合、ディスプレイ14と正対していないと判断する。
また、状態推定部64は、視線位置情報が表す位置の所定の時間内の移動量に基づいて、移動量が所定値より大きい場合、視線の移動量が多いと判定し、所定値以下である場合、視線の移動量が少ないと判定する。
さらに、状態推定部64は、頭部22Aの動きに基づいて、所定の時間内の頭部22Aの動き量が所定値より大きい場合、術者22が動いていると判定し、所定値以下である場合、術者22が動いていないと判定する。
なお、認識部61が、術者22の頭部22A以外の部分の動きを認識し、状態推定部64は、術者22の頭部22A以外の部分の動きに基づいて、術者22の動きの有無を判定するようにしてもよい。この場合、認識部61は、所定の時間内の術者22の頭部22A以外の部分の動き量が所定値より大きいとき、術者22が動いていると判定し、所定値以下である場合、術者22が動いていないと判定する。
図8に示すように、状態推定部64は、術者22がディスプレイ14と正対していないと判定した場合、術者22の状態を手技外動作と推定する。この場合、「モード制御」以外の、許可される術者22からの指令の種類は、「メニュー表示制御」である。
また、状態推定部64は、術者22がディスプレイ14と正対していると判定し、かつ、視線の移動量が多いと判定した場合、術者22の状態を俯瞰状態と推定する。この場合、「モード制御」以外の、許可される指令の種類は、「メニュー表示制御」、および「アノテーション表示制御」である。
さらに、状態推定部64は、術者22がディスプレイ14と正対していると判定し、視線の移動量が少ないと判定し、術者22が動いていると判定した場合、術者22の状態を注視状態と推定する。この場合、「モード制御」以外の、許可される指令の種類は、「メニュー表示制御」、「アノテーション表示制御」、および「撮影制御」である。
また、状態推定部64は、術者22がディスプレイ14と正対していると判定し、視線の移動量が少ないと判定し、術者22が動いていないと判定した場合、術者22の状態を観察状態と推定する。この場合、「モード制御」以外の、許可される指令の種類は、「メニュー表示制御」、「アノテーション表示制御」、「撮影制御」、および「カメラアーム制御」である。
なお、術者22は、ディスプレイ14を見ながら鉗子等を用いて手技を行うため、一般的に、手技中の術者22の頭部22Aの動きは非常に少ないが、手元の動きは多い。従って、頭部22Aの動き量が所定値より大きい場合ではなく、頭部22Aの動きが所定値以下であり、頭部22A以外の動きが所定値より大きい場合に、状態推定部64が、術者22の状態を注視状態と判定するようにしてもよい。
(手術システムの処理の説明)
図9は、図1の手術システム10の制御装置15の制御処理を説明するフローチャートである。この制御処理は、例えば、制御装置15の電源がオンにされたとき開始される。
図9のステップS11において、モード設定部63は、動作モードを手動モードに設定し、状態推定部64に供給する。
ステップS12において、認識部61は、入力情報を認識する。認識部61は、入力情報のうちの音声認識結果、音量、ジェスチャ、操作情報を指令部62に供給する。また、認識部61は、視線位置情報を指令部62、状態推定部64、および画像処理部66に供給する。認識部61は、頭部22Aの動きや方向を入力情報として指令部62と状態推定部64に供給する。
ステップS13において、指令部62は、認識部61から供給される入力情報に基づいて、術者22からの指令を認識する。ステップS14において、指令部62は、認識された指令の種類が「モード制御」であるかどうかを判定する。
ステップS14で認識された指令の種類が「モード制御」であると判定された場合、指令部62は、その指令をモード設定部63に通知し、処理をステップS15に進む。ステップS15において、モード設定部63は、指令部62から供給される指令に応じて、動作モードを変更する。モード設定部63は、変更後の動作モードを状態推定部64に供給し、処理をステップS16に進める。
一方、ステップS14で認識された指令の種類が「モード制御」ではないと判定された場合、処理はステップS16に進む。
ステップS16において、状態推定部64は、モード設定部63から供給される動作モードがハンズフリーモードであるかどうかを判定する。ステップS16で動作モードがハンズフリーモードであると判定された場合、処理はステップS17に進む。
ステップS17において、制御装置15は、認識部61から供給される入力情報に基づいて術者22の状態を推定する状態推定処理を行う。この状態推定処理の詳細は、後述する図10を参照して説明する。
ステップS18において、指令部62は、ステップS13で認識された、種類が「モード制御」である指令以外の術者22からの指令の種類が許可されているかどうかを判定する。ステップS18で許可されていると判定された場合、指令部62は、その指令を制御部65に供給する。
そして、ステップS19において、制御部65は、指令部62から供給される指令を実行し、処理をステップS20に進める。
一方、ステップS16で動作モードがハンズフリーモードではないと判定された場合、または、ステップS18で種類が「モード制御」である指令以外の術者22からの指令の種類が許可されていないと判定された場合、処理はステップS20に進む。
ステップS20において、制御装置15は、制御装置15の電源をオフにするかどうか、例えば、術者22から制御装置15の電源のオフが指令されたかどうかを判定する。ステップS20で制御装置15の電源をオフにしないと判定された場合、処理はステップS12に戻り、ステップS12乃至S20の処理が繰り返される。
一方、ステップS20で制御装置15の電源をオフにすると判定された場合、処理は終了する。
図10は、図9のステップS17の状態推定処理の詳細を説明するフローチャートである。
図10のステップS41において、状態推定部64は、入力情報のうちの頭部22Aの方向または視線位置情報に基づいて、術者22がディスプレイ14と正対しているかどうかを判定する。
ステップS41で術者22がディスプレイ14と正対していないと判定された場合、ステップS42において、状態推定部64は、術者22の状態を手技外動作状態と推定し、指令部62に通知する。
ステップS43において、指令部62は、「モード制御」以外の、許可する術者22からの指令の種類を「メニュー表示制御」とする。そして、処理は図9のステップS17に戻り、ステップS18の処理が行われる。
一方、ステップS41で術者22がディスプレイ14と正対していると判定された場合、ステップS44において、状態推定部64は、視線位置情報が表す位置の所定の時間内の移動量に基づいて、視線の移動量が多いかどうかを判定する。
ステップS44で視線の移動量が多いと判定された場合、ステップS45において、状態推定部64は、術者22の状態を俯瞰状態と推定し、指令部62に通知する。
ステップS46において、指令部62は、「モード制御」以外の、許可する術者22からの指令の種類を「メニュー表示制御」および「アノテーション表示制御」とする。そして、処理は図9のステップS17に戻り、ステップS18の処理が行われる。
また、ステップS44で視線の移動量が少ないと判定された場合、ステップS47において、状態推定部64は、頭部22Aの動きに基づいて、術者22が動いているかどうかを判定する。ステップS47で術者22が動いていると判定された場合、ステップS48において、状態推定部64は、術者22の状態を注視状態と推定し、指令部62に通知する。
ステップS49において、指令部62は、「モード制御」以外の、許可する術者22からの指令の種類を「メニュー表示制御」、「アノテーション表示制御」、および「撮影制御」とする。そして、処理は図9のステップS17に戻り、ステップS18の処理が行われる。
一方、ステップS47で術者22が動いていないと判定された場合、ステップS50において、状態推定部64は、術者22の状態を観察状態と推定し、指令部62に通知する。
ステップS51において、指令部62は、許可する術者22からの指令の種類を「メニュー表示制御」、「アノテーション表示制御」、「撮影制御」、および「カメラアーム制御」とする。そして、処理は図9のステップS17に戻り、ステップS18の処理が行われる。
以上のように、手術システム10は、複数の種類の非接触の入力の組み合わせに基づいて、術用カメラ11、カメラアーム12、または画像処理部66を制御する。従って、術者22は、例えば、各入力内容の種類に適した非接触の入力を行うことにより、簡便に、直感的に術用カメラ11、カメラアーム12、および画像処理部66を制御することができる。即ち、手術システム10は、NUI(Natural User Interface)を実現することができる。その結果、術者22の負担が軽減する。
また、1種類の非接触の入力により術用カメラ11、カメラアーム12、または画像処理部66を制御する場合に比べて、入力の認識正答率が向上し、手術の安全性が向上する。
また、手術システム10は、非接触または脚部22Bの接触により入力を行うことができるので、両手を手技で使用している場合であっても、術者22自身が入力を行うことができる。その結果、術者22が手で入力を行う場合に比べて、入力のために手技を中断する必要がないため、手術時間を短縮することができる。また、術者22以外の人が操作する場合に比べて、術者22の意図通りの制御を行うことができるので、術者22の負担が軽減する。
さらに、手術システム10は、術者22の状態に応じて術者22からの指令の実行を制限することによりフェールセーフを実現し、術者22からの指令の誤認識による術者22の意図しない制御を防止することができる。従って、手術の安全性が向上する。
また、手術システム10は、動作モードをハンズフリーモードから手動モードに変更することができるため、術者22からの指令の誤認識により術者22の意図しない制御が行われた場合に、その制御を停止することができる。
<第2実施の形態>
(手術システムの第2実施の形態の構成例)
図11は、本開示を適用した手術システムの第2実施の形態の構成例を示すブロック図である。
図11に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図11の手術システム100の構成は、ディスプレイ14、制御装置15の代わりに、ディスプレイ101、制御装置102が設けられる点と、眼鏡17およびマーカ19が設けられない点とが、図1の手術システム10の構成と異なる。
手術システム100では、ディスプレイ101と術者22との距離が、ディスプレイ14と術者22との距離に比べて短くなっており、術者22は、眼鏡17を装着せずに裸眼でディスプレイ101に表示された術野画像を3D画像として認識する。
具体的には、手術システム100のディスプレイ101は、比較的小さい画面を有する3Dディスプレイであり、術者22から比較的近い位置(図11の例では、手術台16の上の術者22に近い位置)に配置される。ディスプレイ101は、制御装置102から送信されてくる術野画像等を表示する。ディスプレイ101の上には動作認識用カメラ13が配置される。
制御装置102は、視線および頭部22Aの動きや方向の認識方法を除いて、制御装置15と同様であるので、以下では、その認識方法についてのみ説明する。制御装置102は、動作認識用カメラ13から送信されてくる術者画像内の頭部22Aの位置を検出することにより、頭部22Aの動きや方向を認識する。また、制御装置102は、術者画像から術者22の視線の方向を検出し、その方向に基づいてディスプレイ14の画面上の視線の位置を認識する。
なお、手術システム100では、術者22が眼鏡17を装着しないため、視線検出は、動作認識用カメラ13により撮影された術者画像を用いて行われるようにしたが、術者22が、視線検出デバイスを備えた眼鏡を装着し、視線検出デバイスが視線検出を行うようにしてもよい。
また、手術システム100では、動作認識用カメラ13と術者22との距離が短いため、術者画像から頭部22Aの動きや方向を検出したが、術者22がマーカ19を装着し、術者画像内のマーカ19の位置から頭部22Aの動きや方向を検出するようにしてもよい。
さらに、ディスプレイ101は、術者22から比較的遠い位置に配置されるようにしてもよい。また、ディスプレイ101が、術者22が3D偏光眼鏡を用いることにより3D画像を認識可能な3Dディスプレイであり、術者22は、3D偏光眼鏡を装着するようにしてもよい。
<第3実施の形態>
(本開示を適用したコンピュータの説明)
上述した一連の制御装置15(102)の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図12は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータ200において、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、及びドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロフォンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータ200では、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ200(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ200では、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、コンピュータ200が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
また、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、第1乃至第3実施の形態では、制御装置15(102)は、複数の種類の非接触の入力の組み合わせに基づいて制御を行うこと、および、術者22の状態に応じて制御を制限することの両方により、手術の安全性を向上させたが、いずれか一方のみにより手術の安全性を向上させるようにしてもよい。
また、制御装置15(102)による制御対象は、手術用装置であれば、どのようなものであってもよい。例えば、制御装置15(102)は、内視鏡やビデオ顕微鏡等の手術用撮影装置を制御することもできる。
さらに、ズーム制御は、術用カメラ11の撮影制御によって行われるのではなく、画像処理部66において術野画像を処理することにより行われるようにしてもよい。
この場合、画像処理部66は、ズームイン撮影指令に応じて、術用カメラ11から送信されてくる術野画像を拡大することにより、視線の位置に対応する被写体を中心にズームイン撮影されたズームイン画像を術野画像から生成する電子ズームを行う。同様に、画像処理部66は、ズームアウト撮影指令に応じて、術用カメラ11から送信されてくる術野画像を縮小することにより、視線の位置に対応する被写体を中心にズームアウト撮影されたズームアウト画像を術野画像から生成する。なお、このとき、画像処理部66は、視線位置情報に基づいて、ズームイン画像やズームアウト画像内の視線に対応する位置にマーカを重畳するようにしてもよい。
また、ディスプレイ14に術野画像が表示されている間、常に、アノテーション表示が行われるようにしてもよい。非接触の入力は、術者22の音声、視線、頭部22Aの動きや方向、およびジェスチャに限定されない。例えば、術者22の頭部22A以外の動きや姿勢などであってもよい。
非接触の入力を受け付ける手段は、眼鏡17やマイクロフォン18などのようにウェアラブルであってもよいし、ウェアラブルでなくてもよい。
制御装置15(102)は、動作モードが手動モードである場合であっても、術者22の状態を推定し、その状態に応じて術用カメラ11、カメラアーム12、および画像処理部66の制御を制限するようにしてもよい。
なお、本開示は、以下のような構成もとることができる。
(1)
第1の非接触入力認識部により認識されたユーザからの少なくとも1種類の非接触の入力に基づいて、前記ユーザの状態を推定する状態推定部と、
前記状態推定部により推定された前記状態に応じて、第2の非接触入力認識部により認識された前記ユーザからの少なくとも1種類の非接触の入力に基づく手術用装置の制御を制限する制限部と
を備える手術用制御装置。
(2)
前記非接触の入力は、前記ユーザの音声、視線、動き、またはジェスチャの入力である
ように構成された
前記(1)に記載の手術用制御装置。
(3)
前記制御は、前記第2の非接触入力認識部により認識された前記ユーザからの少なくとも1種類の非接触の入力と、接触入力認識部により認識された前記ユーザからの接触による入力とに基づいて行われる
ように構成された
前記(1)または(2)に記載の手術用制御装置。
(4)
前記状態推定部は、前記ユーザの状態を、手技外動作状態、俯瞰状態、注視状態、または観察状態と推定する
ように構成された
前記(1)乃至(3)のいずれかに記載の手術用制御装置。
(5)
前記手術用装置の制御は、表示制御装置のメニュー表示制御、表示制御装置のアノテーション表示制御、術野画像を撮影する手術用撮影装置の撮影制御、または前記手術用撮影装置を保持するアームの駆動制御である
ように構成された
前記(4)に記載の手術用制御装置。
(6)
前記制限部は、前記状態推定部により前記ユーザの状態が手技外動作状態であると推定された場合、前記手術用装置の制御を前記表示制御装置のメニュー表示制御に制限する
ように構成された
前記(5)に記載の手術用制御装置。
(7)
前記制限部は、前記状態推定部により前記ユーザの状態が俯瞰状態であると推定された場合、前記手術用装置の制御を前記表示制御装置のアノテーション表示制御に制限する
ように構成された
前記(5)または(6)に記載の手術用制御装置。
(8)
前記制限部は、前記状態推定部により前記ユーザの状態が注視状態であると推定された場合、前記手術用装置の制御を前記手術用撮影装置の撮影制御に制限する
ように構成された
前記(5)乃至(7)のいずれかに記載の手術用制御装置。
(9)
前記制限部は、前記状態推定部により前記ユーザの状態が観察状態であると推定された場合、前記手術用装置の制御を前記アームの駆動制御に制限する
ように構成された
前記(5)乃至(8)のいずれかに記載の手術用制御装置。
(10)
前記第2の非接触入力認識部により認識された前記ユーザからの少なくとも1種類の非接触の入力に基づいて、前記手術用制御装置の動作モードを設定するモード設定部
をさらに備える
前記(1)乃至(9)のいずれかに記載の手術用制御装置。
(11)
前記状態推定部は、前記動作モードが、前記ユーザからの少なくとも1種類の非接触の入力に基づいて前記手術用装置を制御するモードである場合、前記状態を推定する
ように構成された
前記(10)に記載の手術用制御装置。
(12)
手術用制御装置が、
第1の非接触入力認識部により認識されたユーザからの少なくとも1種類の非接触の入力に基づいて、前記ユーザの状態を推定する状態推定ステップと、
前記状態推定ステップの処理により推定された前記状態に応じて、第2の非接触入力認識部により認識された前記ユーザからの少なくとも1種類の非接触の入力に基づく手術用装置の制御を制限する制限ステップと
を含む手術用制御方法。
(13)
コンピュータを、
第1の非接触入力認識部により認識されたユーザからの少なくとも1種類の非接触の入力に基づいて、前記ユーザの状態を推定する状態推定部と、
前記状態推定部により推定された前記状態に応じて、第2の非接触入力認識部により認識された前記ユーザからの少なくとも1種類の非接触の入力に基づく手術用装置の制御を制限する制限部と
して機能させるためのプログラム。
11 術用カメラ, 12 カメラアーム, 15 制御装置, 62 指令部, 63 モード設定部, 64 状態推定部, 66 画像処理部, 71 音声認識部, 72 視線認識部, 73 頭部認識部, 74 ジェスチャ認識部, 75 操作認識部
本開示は、医療用観察装置、医療用観察方法、およびプログラムに関し、特に、非接触の入力により手術用装置を制御する場合に手術用装置の誤動作を防止することができるようにした医療用観察装置、医療用観察方法、およびプログラムに関する。
本開示の一側面の医療用観察装置は、術野画像を取得するカメラを保持するアーム部と、第1の非接触入力認識部により認識されたユーザからの少なくとも前記ユーザの視線を含む非接触の入力に基づいて、前記ユーザの状態を推定する状態推定部と、前記状態推定部により推定された前記ユーザの状態に基づいて前記術野画像を変更するよう制御する制御部とを備える医療用観察装置である。
本開示の一側面の医療用観察方法およびプログラムは、本開示の一側面の医療用観察装置に対応する。
本開示の一側面においては、第1の非接触入力認識部により認識されたユーザからの少なくとも前記ユーザの視線を含む非接触の入力に基づいて、前記ユーザの状態が推定され、推定された前記ユーザの状態に基づいて術野画像を変更するよう制御される。

Claims (13)

  1. 第1の非接触入力認識部により認識されたユーザからの少なくとも1種類の非接触の入力に基づいて、前記ユーザの状態を推定する状態推定部と、
    前記状態推定部により推定された前記状態に応じて、第2の非接触入力認識部により認識された前記ユーザからの少なくとも1種類の非接触の入力に基づく手術用装置の制御を制限する制限部と
    を備える手術用制御装置。
  2. 前記非接触の入力は、前記ユーザの音声、視線、動き、またはジェスチャの入力である
    ように構成された
    請求項1に記載の手術用制御装置。
  3. 前記制御は、前記第2の非接触入力認識部により認識された前記ユーザからの少なくとも1種類の非接触の入力と、接触入力認識部により認識された前記ユーザからの接触による入力とに基づいて行われる
    ように構成された
    請求項1に記載の手術用制御装置。
  4. 前記状態推定部は、前記ユーザの状態を、手技外動作状態、俯瞰状態、注視状態、または観察状態と推定する
    ように構成された
    請求項1に記載の手術用制御装置。
  5. 前記手術用装置の制御は、表示制御装置のメニュー表示制御、表示制御装置のアノテーション表示制御、術野画像を撮影する手術用撮影装置の撮影制御、または前記手術用撮影装置を保持するアームの駆動制御である
    ように構成された
    請求項4に記載の手術用制御装置。
  6. 前記制限部は、前記状態推定部により前記ユーザの状態が手技外動作状態であると推定された場合、前記手術用装置の制御を前記表示制御装置のメニュー表示制御に制限する
    ように構成された
    請求項5に記載の手術用制御装置。
  7. 前記制限部は、前記状態推定部により前記ユーザの状態が俯瞰状態であると推定された場合、前記手術用装置の制御を前記表示制御装置のアノテーション表示制御に制限する
    ように構成された
    請求項5に記載の手術用制御装置。
  8. 前記制限部は、前記状態推定部により前記ユーザの状態が注視状態であると推定された場合、前記手術用装置の制御を前記手術用撮影装置の撮影制御に制限する
    ように構成された
    請求項5に記載の手術用制御装置。
  9. 前記制限部は、前記状態推定部により前記ユーザの状態が観察状態であると推定された場合、前記手術用装置の制御を前記アームの駆動制御に制限する
    ように構成された
    請求項5に記載の手術用制御装置。
  10. 前記第2の非接触入力認識部により認識された前記ユーザからの少なくとも1種類の非接触の入力に基づいて、前記手術用制御装置の動作モードを設定するモード設定部
    をさらに備える
    請求項1に記載の手術用制御装置。
  11. 前記状態推定部は、前記動作モードが、前記ユーザからの少なくとも1種類の非接触の入力に基づいて前記手術用装置を制御するモードである場合、前記状態を推定する
    ように構成された
    請求項10に記載の手術用制御装置。
  12. 手術用制御装置が、
    第1の非接触入力認識部により認識されたユーザからの少なくとも1種類の非接触の入力に基づいて、前記ユーザの状態を推定する状態推定ステップと、
    前記状態推定ステップの処理により推定された前記状態に応じて、第2の非接触入力認識部により認識された前記ユーザからの少なくとも1種類の非接触の入力に基づく手術用装置の制御を制限する制限ステップと
    を含む手術用制御方法。
  13. コンピュータを、
    第1の非接触入力認識部により認識されたユーザからの少なくとも1種類の非接触の入力に基づいて、前記ユーザの状態を推定する状態推定部と、
    前記状態推定部により推定された前記状態に応じて、第2の非接触入力認識部により認識された前記ユーザからの少なくとも1種類の非接触の入力に基づく手術用装置の制御を制限する制限部と
    して機能させるためのプログラム。
JP2021104857A 2015-10-09 2021-06-24 医療用観察装置、医療用観察方法、およびプログラム Pending JP2021168160A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015201343 2015-10-09
JP2015201343 2015-10-09
JP2017544454A JP6904254B2 (ja) 2015-10-09 2016-09-27 手術用制御装置、手術用制御方法、およびプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017544454A Division JP6904254B2 (ja) 2015-10-09 2016-09-27 手術用制御装置、手術用制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2021168160A true JP2021168160A (ja) 2021-10-21

Family

ID=58487616

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017544454A Active JP6904254B2 (ja) 2015-10-09 2016-09-27 手術用制御装置、手術用制御方法、およびプログラム
JP2021104857A Pending JP2021168160A (ja) 2015-10-09 2021-06-24 医療用観察装置、医療用観察方法、およびプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017544454A Active JP6904254B2 (ja) 2015-10-09 2016-09-27 手術用制御装置、手術用制御方法、およびプログラム

Country Status (5)

Country Link
US (1) US11439473B2 (ja)
EP (1) EP3335661A4 (ja)
JP (2) JP6904254B2 (ja)
CN (1) CN108135658B (ja)
WO (1) WO2017061294A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018198685A (ja) * 2017-05-26 2018-12-20 ソニー株式会社 制御装置、制御方法、および手術システム
US10610310B2 (en) * 2017-10-02 2020-04-07 Robin Elizabeth McKenzie TODD User interface system and methods for overlaying surgical video output
DE102017221084A1 (de) * 2017-11-24 2019-05-29 Siemens Healthcare Gmbh Bildgebende medizinische Einrichtung und Verfahren für eine durch Bildgebung gestützte Intervention
CN108392269B (zh) * 2017-12-29 2021-08-03 广州布莱医疗科技有限公司 一种手术辅助方法及手术辅助机器人
US11373356B2 (en) * 2018-03-28 2022-06-28 Robert Bosch Gmbh Method and system for efficient rendering of 3D particle systems for weather effects
US20210298853A1 (en) * 2018-07-26 2021-09-30 Sony Corporation Information processing apparatus, information processing method, and computer program
CN109754651A (zh) * 2019-01-31 2019-05-14 北京汉博信息技术有限公司 手术示教方法及系统
WO2020195204A1 (ja) * 2019-03-22 2020-10-01 ソニー・オリンパスメディカルソリューションズ株式会社 制御装置及び医療用観察システム
CN111265310B (zh) * 2020-02-27 2021-10-22 首都医科大学附属北京地坛医院 一种医用手术防针刺保护系统
CN113797418A (zh) * 2020-06-12 2021-12-17 中强光电股份有限公司 医疗影像设备以及医疗影像显示方法
CN113842209B (zh) * 2021-08-24 2024-02-09 深圳市德力凯医疗设备股份有限公司 超声设备控制方法、超声设备及计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001299691A (ja) * 2000-04-25 2001-10-30 Olympus Optical Co Ltd 内視鏡装置の操作システム
US20050033580A1 (en) * 1994-09-22 2005-02-10 Computer Motion, Inc. Speech interface for an automated endoscope system
JP2008529707A (ja) * 2005-02-18 2008-08-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医療機器の自動制御
JP2011206180A (ja) * 2010-03-29 2011-10-20 Olympus Corp 操作入力装置およびマニピュレータシステム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3816599B2 (ja) * 1996-10-29 2006-08-30 オリンパス株式会社 体腔内処置観察システム
ES2262423B1 (es) 2005-02-18 2007-11-16 Manuel Fernandez Guerrero Sistema de activacion y desactivacion automatica de radiacion ionizante controlado por la mirada del operador.
JP5800616B2 (ja) * 2011-07-15 2015-10-28 オリンパス株式会社 マニピュレータシステム
US20140024889A1 (en) * 2012-07-17 2014-01-23 Wilkes University Gaze Contingent Control System for a Robotic Laparoscope Holder

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050033580A1 (en) * 1994-09-22 2005-02-10 Computer Motion, Inc. Speech interface for an automated endoscope system
JP2001299691A (ja) * 2000-04-25 2001-10-30 Olympus Optical Co Ltd 内視鏡装置の操作システム
JP2008529707A (ja) * 2005-02-18 2008-08-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医療機器の自動制御
JP2011206180A (ja) * 2010-03-29 2011-10-20 Olympus Corp 操作入力装置およびマニピュレータシステム

Also Published As

Publication number Publication date
US20180256272A1 (en) 2018-09-13
US11439473B2 (en) 2022-09-13
CN108135658A (zh) 2018-06-08
JPWO2017061294A1 (ja) 2018-08-02
EP3335661A4 (en) 2019-05-22
JP6904254B2 (ja) 2021-07-14
EP3335661A1 (en) 2018-06-20
WO2017061294A1 (ja) 2017-04-13
CN108135658B (zh) 2021-09-10

Similar Documents

Publication Publication Date Title
JP6904254B2 (ja) 手術用制御装置、手術用制御方法、およびプログラム
WO2017061293A1 (ja) 手術システム、並びに、手術用制御装置および手術用制御方法
US11547520B2 (en) Systems, methods, and computer-readable storage media for controlling aspects of a robotic surgical device and viewer adaptive stereoscopic display
US11471024B2 (en) Surgical imaging system, image processing apparatus for surgery, and method for controlling an imaging procedure
US10992857B2 (en) Input control device, input control method, and operation system
JP2016115965A (ja) 医療用眼鏡型表示装、情報処理装置及び情報処理方法
JP2015192697A (ja) 制御装置および制御方法、並びに撮影制御システム
JP2012216953A (ja) 情報処理装置、表示制御方法及び表示制御装置
EP3603562A1 (en) Medical observation apparatus and observation field correction method
JP2015149552A (ja) ウェアラブル型電子機器
US10585476B2 (en) Apparatus operation device, apparatus operation method, and electronic apparatus system
JPWO2018216302A1 (ja) 医療用観察装置、処理方法、および医療用観察システム
JP2018107603A (ja) センサ情報取得装置、センサ情報取得方法、センサ情報取得プログラム及び医療器具
EP3603476A1 (en) Medical system control device, medical system control method, and medical system
JP2017176414A (ja) 制御装置および方法並びに手術システム
US20180259780A1 (en) Medical image display apparatus, medical information processing system, and medical image display control method
WO2023026528A1 (ja) 手術システム、制御方法、およびプログラム
CN114341945A (zh) 用于生成关于图像的至少一个被检查区域的信息的显微镜、控制电路、方法和计算机程序
JP2017173720A (ja) 音声認識装置及び方法、並びにコンピュータプログラム及び記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221108