JP2020146374A - 力覚表示装置および力覚表示方法 - Google Patents

力覚表示装置および力覚表示方法 Download PDF

Info

Publication number
JP2020146374A
JP2020146374A JP2019048548A JP2019048548A JP2020146374A JP 2020146374 A JP2020146374 A JP 2020146374A JP 2019048548 A JP2019048548 A JP 2019048548A JP 2019048548 A JP2019048548 A JP 2019048548A JP 2020146374 A JP2020146374 A JP 2020146374A
Authority
JP
Japan
Prior art keywords
force
display
unit
display mode
gripping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019048548A
Other languages
English (en)
Other versions
JP6801897B2 (ja
Inventor
大輔 原口
Daisuke HARAGUCHI
大輔 原口
靖志 田中
Yasushi Tanaka
靖志 田中
悠貴 古澤
Yuki Furusawa
悠貴 古澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Riverfield Inc
Original Assignee
Riverfield Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Riverfield Inc filed Critical Riverfield Inc
Priority to JP2019048548A priority Critical patent/JP6801897B2/ja
Priority to US17/438,674 priority patent/US20220151721A1/en
Priority to PCT/JP2020/005839 priority patent/WO2020189120A1/ja
Priority to EP20773771.9A priority patent/EP3939749A4/en
Priority to CN202080019745.6A priority patent/CN113543934B/zh
Publication of JP2020146374A publication Critical patent/JP2020146374A/ja
Application granted granted Critical
Publication of JP6801897B2 publication Critical patent/JP6801897B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/28Surgical forceps
    • A61B17/29Forceps for use in minimally invasive surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/77Manipulators with motion or force scaling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Endoscopes (AREA)
  • Surgical Instruments (AREA)

Abstract

【課題】術具操作の正確性や安全性を高めることが容易な術具の力覚表示装置および力覚表示方法を提供する。【解決手段】閉じて対象物の把持、および、開いて対象物の剥離が可能な術具に働く力を操作者に知覚可能に表示する装置であって、術具における対象物を把持する力である把持力、および、対象物を剥離する力である剥離力の測定信号が入力される入力部51と、測定信号に基づいて、把持力に関する情報を把持表示態様として表示し、剥離力に関する情報を把持表示態様とは異なる態様である剥離表示態様として表示する画像情報を作成する画像生成部53と、画像情報を表示する表示部60に向けて、作成された画像情報を出力する出力部54と、が設けられていることを特徴とする。【選択図】 図1

Description

本発明は、鉗子等の術具を把持する医用ロボットシステムに用いて好適な力覚表示装置および力覚表示方法に関する。
近年、手術支援に用いられる医用ロボットを用いた内視鏡外科手術が普及しつつある。内視鏡外科手術では、医用ロボットに取り付けられた腹腔鏡や内視鏡、鉗子など(以下、「術具」とも表記する。)が用いられる。
医用ロボットは医師による術具の遠隔操作が可能である。また、直観的な操作が可能な医用ロボットも提案されている。さらに、正確性や安全性を高めることを目的として、医用ロボットを操作する医師に対して、術具に作用する外力を伝える力覚提示が可能な医用ロボットも提案されている(例えば、特許文献1および2参照。)。
特許文献1には、医療用具により受けた測定された応力に従って、ハプティックコントロールから触覚フィードバックを受ける内容や、ニードルに受けた応力の感触を有するようにモニター上に測定された応力等を表示する内容が開示されている。
特許文献2には、触覚フィードバックで生成された情報に基づいて3D(3次元)触覚表現を更新する内容が開示されている。具体的には、外科器具が患者の骨と接触していると判定されるとき、患者の状態の3D表現、例えば、3D図示表現及び/または3D触覚表現を更新する内容が記載されている。
特表2005−510289号公報 特開2018−158104号公報
力覚の提示方法が、操作を行う医師の手への触覚による提示の場合、操作を行っている医師が直感的に力覚を把握できるという利点がある。その一方で、触覚への提示の強さが同じであっても、受け取る医師が異なると強さの感じ方が異なる場合があり、正確性に欠けるおそれがあった。また、操作を行う医師に対してのみ力覚が提示され、他の医師などへの提示がされないため、第三者によるリアルタイムチェックや、客観性の確保が難しいという問題があった。
特許文献1および2に開示されている技術のように、モニター上に測定された応力等(力覚)を表示する方法では、例えば、閉じて対象物を把持したり、開いて剥離したりする術具、例えば鉗子に作用する外力の向きを適切に表示することが難しいという問題があった。言い換えると、表示されている外力が、対象物を把持している際に作用している力なのか、剥離する際に作用している力なのか、容易に区別できる表示が難しいという問題があった。
本発明は、上記の課題を解決するためになされたものであって、術具操作の正確性や安全性を高めることが容易な術具の力覚表示装置および力覚表示方法を提供することを目的とする。
上記目的を達成するために、本発明は、以下の手段を提供する。
本発明の第1の態様に係る力覚表示装置は、閉じて対象物の把持、および、開いて前記対象物の剥離が可能な術具に働く力を操作者に知覚可能に表示する装置であって、前記術具における前記対象物を把持する力である把持力、および、前記対象物を剥離する力である剥離力の測定信号が入力される入力部と、前記測定信号に基づいて、前記把持力に関する情報を把持表示態様として表示し、前記剥離力に関する情報を前記把持表示態様とは異なる態様である剥離表示態様として表示する画像情報を作成する画像生成部と、前記画像情報を表示する表示部に向けて、作成された前記画像情報を出力する出力部と、が設けられていることを特徴とする。
本発明の第2の態様に係る力覚表示方法は、閉じて対象物の把持、および、開いて前記対象物の剥離が可能な術具に働く力を操作者に知覚可能に表示する表示方法であって、前記術具における前記対象物を把持する力である把持力、および、前記対象物を剥離する力である剥離力の測定信号が入力される入力ステップと、前記測定信号に基づいて、前記把持力に関する情報を把持表示態様として表示し、前記剥離力に関する情報を前記把持表示態様とは異なる態様である剥離表示態様として表示する画像情報を作成する画像生成ステップと、前記画像情報を表示する表示部に向けて、作成された前記画像情報を出力する出力ステップと、を有することを特徴とする。
本発明の第1態様に係る力覚表示装置および第2の態様に係る力覚表示方法によれば、把持力に関する情報を把持表示態様として表示し、剥離力に関する情報を把持表示態様とは異なる態様である剥離表示態様として表示できる。そのため、表示されている情報が、把持力に関する情報なのか、剥離力に関する情報なのか、把握しやすくなる。
上記発明の第1の態様において前記把持表示態様および前記剥離表示態様は、前記術具の種類に基づいて色あるいは色彩を異ならせる表示態様であって、前記画像生成部は、前記把持表示態様を第一の色あるいは色彩を用いた表示態様とし、前記剥離表示態様を前記第一の色あるいは色彩とは異なる第二の色あるいは色彩を用いた表示態様とすることが好ましい。
このように術具の種類に基づいて色あるいは色彩を異ならせて表示を行うことにより、情報の視認が行いやすくなる。例えば、把持表示態様や、剥離表示態様により表示されている術具の種類を、表示される色あるいは色彩により確認することが可能となる。また、把持表示態様を第一の色あるいは色彩を用いて表示し、剥離表示態様を第一の色あるいは色彩とは異なる第二の色あるいは色彩を用いて表示することにより、把持表示態様と、剥離表示態様との識別を行いやすくなる。
上記発明の第1の態様において前記把持表示態様および前記剥離表示態様は、前記術具における力の大きさに基づいて長さが変化する表示であって、前記画像生成部は、前記把持表示態様を、所定の長さを有する基準指標と比較して、表示の長さが短い態様および長い態様の一方とし、前記剥離表示態様を、前記基準指標と比較して、表示の長さが短い態様および長い態様の他方とする前記画像情報を生成することが好ましい。
このように基準指標と比較して表示の長さを変えて、把持力に関する情報なのか、剥離力に関する情報なのかを表示することにより、情報の視認が行いやすくなる。例えば、基準指標と比較して表示の長さを短くすることにより、把持力に関する情報を表示し、基準指標と比較して表示の長さを長くすることにより、剥離力に関する情報を表示することにより、情報の視認が行いやすくなる。
また、表示の長さと、基準指標との差の大きさが把持力の大きさ、または、剥離力の大きさとして表示される。そのため、把持力の大きさや、剥離力の大きさの視認が行いやすい。
上記発明の第1の態様において前記把持表示態様および前記剥離表示態様は、前記術具における力の大きさに基づいて長さが変化する棒状または帯状の形状を有する表示態様であることが好ましい。
このように術具における力の大きさに基づいて長さが変化する棒状または帯状の形状として表示することにより、基準指標と比較が行いやすくなる。そのため、表示されている情報が、把持力に関する情報なのか、剥離力に関する情報なのか、把握しやすくなる。
上記発明の第1の態様において前記把持表示態様および前記剥離表示態様は、前記術具における力の大きさに基づいて色あるいは色彩を変化させる表示態様であることが好ましい。
このように術具における力の大きさに基づいて表示の色あるいは色彩を変化させることにより、術具における力の大きさを把握しやすくなる。そのため、表示されている把持力や、剥離力の大きさを把握しやすくなる。
上記発明の第1の態様において前記把持表示態様および前記剥離表示態様は、前記術具における力の大きさに基づいて所定の形状を有する表示図形の面積が変化する表示であって、前記画像生成部は、前記把持表示態様を、基準線を含む1つの前記表示図形である態様とし、前記剥離表示態様を、前記基準線を間に挟んで間隔をあけて配置される2つの前記表示図形である態様とする前記画像情報を生成することが好ましい。
このように表示図形を1つにするか2つにするかにより、把持力に関する情報なのか、剥離力に関する情報なのかを表示することにより、情報の視認が行いやすくなる。さらに、1つの表示図形の場合には基準線を含んで表示図形を表示し、2つの場合には、基準線を間に挟んで間隔をあけて表示図形を表示することにより、更に、情報の視認が行いやすくなる。また、表示図形の面積が把持力の大きさ、または、剥離力の大きさとして表示される。そのため、把持力の大きさや、剥離力の大きさの視認が行いやすい。
上記発明の第1の態様において前記把持表示態様および前記剥離表示態様は、前記術具における力の大きさに基づいて面積が変化する扇状の形状を有する表示態様であることが好ましい。
このように術具における力の大きさに基づいて面積が変化する扇状の形状として表示することにより、把持力の大きさであっても、剥離力の大きさであっても、その大きさを把握しやすくなる。
本発明の第1の態様に係る力覚表示装置、および、第2の態様に係る力覚表示方法によれば、把持力に関する情報を把持表示態様として表示し、剥離力に関する情報を把持表示態様とは異なる態様である剥離表示態様として表示するため、術具操作の正確性や安全性を高めることが容易になるという効果を奏する。
本発明の第1の実施形態に係る医用ロボットシステムの構成を説明するブロック図である。 図1のスレーブユニットに設けられるカートリッジの構成を説明する斜視図である。 図1の制御装置における力覚の表示に関する制御を説明するフローチャートである。 図4(a)は図1の表示装置における表示の態様を説明する模式図であり、図4(b)は他の態様を説明する模式図であり、図4(c)はさらに他の態様を説明する模式図である。 図1の表示装置における別の表示の態様を説明する模式図である。 力覚表示部における表示態様を説明する模式図である。 図7(a)は剥離表示態様を説明する図であり、図7(b)は把持表示態様を説明する図であり、図7(c)は力を測定していない場合の表示態様を説明する図である。 本発明の第1の実施形態の第1変形例に係る医用ロボットシステムの構成を説明するブロック図である。 図8の表示装置における表示の態様を説明する模式図である。 本発明の第1の実施形態の第2変形例に係る医用ロボットシステムの構成を説明するブロック図である。 図11(a)は、第1表示装置における表示の態様を説明する模式図であり、図11(b)は、第2表示装置における表示の態様を説明する模式図である。 本発明の第2の実施形態に係る医用ロボットシステムの構成を説明するブロック図である。 図12のスレーブユニットの構成を説明するブロック図である。 図12の表示装置における表示の態様を説明する模式図である。 図14の第1力覚表示部、第2力覚表示部、第3力覚表示部における表示態様を説明する模式図である。 本発明の第2の実施形態の第1変形例に係る医用ロボットシステムの構成を説明するブロック図である。 図16の表示装置における第1力覚表示部、第2力覚表示部、第3力覚表示部における表示態様を説明する模式図である。 本発明の第2の実施形態の第2変形例に係る医用ロボットシステムの構成を説明するブロック図である。 図18の表示装置における第1力覚表示部、第2力覚表示部、第3力覚表示部における表示態様を説明する模式図である。 本発明の第2の実施形態の第3変形例に係る医用ロボットシステムの構成を説明するブロック図である。 図20の表示装置における第1力覚表示部、第2力覚表示部、第3力覚表示部における表示態様を説明する模式図である。 本発明の第2の実施形態の第4変形例に係る医用ロボットシステムの構成を説明するブロック図である。 図22の表示装置における第1力覚表示部、第2力覚表示部、第3力覚表示部における表示態様を説明する模式図である。
〔第1の実施形態〕
以下、本発明の第1の実施形態に係る医用ロボットシステム1ついて図1から図7を参照しながら説明する。本実施形態の医用ロボットシステム1は、手術支援に用いられるものである。例えば、内視鏡外科手術の支援に用いて好適なものである。
医用ロボットシステム1には、図1に示すように、スレーブユニット10と、内視鏡ユ
ニット20と、操作ユニット30と、発音装置40と、制御装置(力覚表示装置)50と、表示装置(表示部)60と、が主に設けられている。
スレーブユニット10は、図1および図2に示すように、内視鏡外科手術に用いられる鉗子などの術具14を支持するものであり、操作ユニット30に入力される操作に従って術具14の位置および姿勢の少なくとも一方を制御するものである。また、術具14が鉗子である場合には鉗子を開閉駆動するものである。
本実施形態では、スレーブユニット10が、第1スレーブ装置10A、および、第2スレーブ装置10Bを有している例に適用して説明する。なお、スレーブユニット10が有しているスレーブ装置の数は、2つよりも多くてもよいし、少なくてもよい。
本実施形態では、第1スレーブ装置10A、および、第2スレーブ装置10Bがロボットアームである例に適用して説明する。さらに第1スレーブ装置10Aおよび第2スレーブ装置10Bは同じ構成を有し、同種の術具14を支持するものである例に適用して説明する。
なお、第1スレーブ装置10A、および、第2スレーブ装置10Bは術具14の位置および姿勢の少なくとも一方を制御するもの、または、術具14としての鉗子の開閉駆動できるものであればよく、アーム状の構成を有していなくてもよい。
第1スレーブ装置10A、および、第2スレーブ装置10Bには、図2に示すように、カートリッジ11と、シャフト12と、関節部13と、が少なくとも設けられている。なお、カートリッジ11、シャフト12、および、関節部13において第1スレーブ装置10Aに設けられたものか、第2スレーブ装置10Bに設けられたものか区別する必要がない場合には、カートリッジ11、シャフト12、および、関節部13と表記する。第1スレーブ装置10Aに設けられたものか、第2スレーブ装置10Bに設けられたものか区別する場合には、それぞれ、カートリッジ11A、シャフト12Aおよび関節部13Aと、カートリッジ11B、シャフト12Bおよび関節部13Bと表記する。
カートリッジ11は、シャフト12、関節部13、および、術具14を支持するものである。本実施形態では、カートリッジ11が立方体状の形状を有している例に適用して説明する。
カートリッジ11には、シャフト12、関節部13、および、術具14の少なくとも1つを駆動する空気圧アクチュエータなどの駆動源が収納されていてもよい。また、シャフト12に加わる外力を測定するシャフトセンサ15、関節部13に加わる外力を測定する関節センサ16、術具14である鉗子により外部へ加えられる開閉の力を測定する術具センサ17の少なくとも1つが収納されていてもよい。
なお、シャフトセンサ15、関節センサ16および術具センサ17において第1スレーブ装置10Aに設けられたものか、第2スレーブ装置10Bに設けられたものか区別する必要がない場合には、シャフトセンサ15、関節センサ16および術具センサ17と表記する。第1スレーブ装置10Aに設けられたものか、第2スレーブ装置10Bに設けられたものか区別する場合には、それぞれ、シャフトセンサ15A、関節センサ16Aおよび術具センサ17Aと、シャフトセンサ15B、関節センサ16Bおよび術具センサ17Bと表記する。
シャフト12は、カートリッジ11から延びる円筒状または円柱状に形成された部材である。シャフト12は、カートリッジ11に対して自身の中心軸線まわりに回転可能に配
置されている。なお、シャフト12は、円筒状または円柱状に形成されてもよいし、角柱状に形成されてもよい。
関節部13は、術具14を支持するとともに、屈曲することにより術具14の位置や姿勢を制御するものである。関節部13は、シャフト12と術具14との間に位置するものである。言い換えると、関節部13の一方の端部は、シャフト12におけるカートリッジ11から離れた側の端部と隣接し、他方の端部は術具14と隣接している。なお、関節部13の構成としては、屈曲を可能とする公知の構成を用いることができ、具体的な構成を限定するものではない。
内視鏡ユニット20は、図1に示すように、内視鏡外科手術を行う際に用いられる映像または画像を取得するものである。具体的には、患者の体腔内であって手術の対象である領域の映像または画像を取得するものである。取得した映像または画像の情報は、制御装置50へ出力される。なお、内視鏡ユニット20としては、映像または画像の情報を出力できるものであればよく、その構成を限定するものではない。
操作ユニット30は、スレーブユニット10の制御に用いられるものである。具体的には、第1スレーブ装置10Aおよび第2スレーブ装置10Bを操作して内視鏡外科手術を行う際に用いられるものである。
操作ユニット30には、ハンド操作部31およびフット操作部35が主に設けられている。ハンド操作部31は、医用ロボットシステム1の操作者(例えば、内視鏡外科手術の術者)が手を用いてスレーブユニット10の動きを入力する際に用いるものである。
ハンド操作部31には、操作者の右手に対応する右手用操作部32と、左手に対応する左手用操作部33と、が主に設けられている。右手用操作部32および左手用操作部33は、操作者から入力された情報を信号に変換して制御部52へ出力するものである。また、右手用操作部32および左手用操作部33は、制御部52から入力された制御信号に基づいて、操作者に対して力覚を提示するものである。
なお、右手用操作部32および左手用操作部33としては、公知の構成および方式のものを用いることができ、構成および方式を限定するものではない。また、ハンド操作部31は、上述のように右手用操作部32および左手用操作部33の両者を有していてもよいし、右手用操作部32および左手用操作部33の一方のみを有してもよい。
フット操作部35は、操作者が足を用いてスレーブユニット10の動きや機能を操作する際に用いるものである。フット操作部35には、第1フットスイッチ36と、第2フットスイッチ37と、第3フットスイッチ38とが主に設けられている。第1フットスイッチ36、第2フットスイッチ37、第3フットスイッチ38は、操作者が足で踏むことにより操作されるスイッチである。
例えば、術具14へ高周波電流の供給および停止や、スレーブユニット10の制御モードの切り替えなど、を例示することができる。なお、フット操作部35による操作の種類や内容は、公知の種類や内容であればよく、種類や内容を限定するものではない。またフット操作部35は、上述のように3つのフットスイッチを有していてもよいし、3つよりも少ないフットスイッチを有していてもよいし、3つよりも多いフットスイッチを有していてもよい。
発音装置40は、操作者を含む内視鏡外科手術に関与する関係者の少なくとも一部に対して、制御装置50から入力される制御信号に基づいて音を発するものである。音を発生
させる構成等は、公知の構成等を用いることができ、特に限定するものではない。
制御装置50は、スレーブユニット10の動作等や、発音装置40における発音を制御するものであり、表示装置60に表示される内容や表示される態様を制御するものである。
制御装置50は、図1に示すように、CPU(中央演算処理ユニット)、ROM、RAM、入出力インタフェース等を有するコンピュータ等の情報処理装置である。上述のROM等の記憶装置に記憶されているプログラムは、CPU、ROM、RAM、入出力インタフェースを協働させて、少なくとも入力部51、制御部52、画像生成部53、および、出力部54として機能させるものである。
入力部51は、外部から信号が入力されるものである。具体的には、入力部51は、操作ユニット30と操作内容に関する信号が入力可能に接続され、内視鏡ユニット20と映像や画像の信号が入力可能に接続されている。
さらに、入力部51は、シャフト12に加わる外力を測定するシャフトセンサ15、関節部13に加わる外力を測定する関節センサ16、および、術具14である鉗子により外部へ加えられる開閉の力を測定する術具センサ17と、測定信号が入力可能に接続されている。
なお、シャフトセンサ15、関節センサ16、および、術具センサ17が配置されている位置は、それぞれの測定対象の外力が測定できる位置であればよく、その位置を限定するものではない。また、シャフトセンサ15、関節センサ16、および、術具センサ17により外力を測定する方式は、公知の方式を用いることができ、特に限定するものではない。
制御部52は、スレーブユニット10および術具14の動作や、機能の発揮を制御する信号を生成するものである。制御信号は、操作ユニット30から入力される操作に関する信号に基づいて生成されるものである。
画像生成部53は、表示装置60に表示される映像や画像の情報である画像情報を生成するものである。具体的には、内視鏡ユニット20から入力される映像や画像の信号、および、シャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて、画像情報を生成するものである。画像情報の内容については後述する。
出力部54は、制御部52において生成された制御信号および画像生成部53において生成された画像情報を出力するものである。出力部54は、スレーブユニット10および術具14と制御信号の出力が可能に接続され、表示装置60と画像情報が出力可能に接続されている。
表示装置60は、制御装置50から出力された画像情報に基づいて、映像や画像を表示するものである。表示装置60は、内視鏡外科手術の術者を含めた手術の関係者に対して表示を行うものである。表示装置60としては、映像や画像を表示する公知の方式や構成を用いることができ、方式や構成を限定するものではない。
次に、上記の構成からなる医用ロボットシステム1における制御、具体的には力覚の表示に関する制御について説明する。まず、制御装置50における演算処理の流れを、図3を参照しながら説明し、その後に表示する内容について説明する。
制御装置50に電力が供給されると、図3に示すように、制御装置50は、タイマカウンタが所定時間に達したか否かを判定する処理を行う(S11)。本実施形態では、所定時間が200msである例に適用して説明する。なお所定時間は、上述のように200msであってもよいし、200msよりも長くても、短くてもよい。
タイマカウンタが所定時間に達していないと判定された場合(NOの場合)には、制御装置50は、再びS11の判定処理を行う。
タイマカウンタが所定時間に達したと判定された場合(YESの場合)には、制御装置50は、シャフト12に働く外力を検出したか否かを判定する処理を行う(S12:入力ステップ)。言い換えると、入力部51にシャフトセンサ15から力の測定信号であるアーム測定信号が入力しているか否かを判定する処理を行う。
シャフト12に働く外力を検出したと判定された場合(YESの場合)には、制御装置50は、検知した外力を力覚として提示する制御信号を生成する処理を行う(S13)。検出した外力は、シャフトセンサ15により測定された力の大きさである。検出された外力は、シャフトセンサ15から出力される測定信号に基づいて推定される。
具体的には、測定信号を出力したシャフトセンサ15が設けられたスレーブ装置に対応するハンド操作部31に、検出した外力を力覚として提示させる処理を行う。例えば、測定信号を出力したシャフトセンサ15が、第1スレーブ装置10Aのシャフト12に作用する力を測定するものである場合には、第1スレーブ装置10Aの操作に用いられるハンド操作部31(右手用操作部32または左手用操作部33)に、検出した外力を力覚として提示させる処理を行う。
さらに、入力された測定信号に基づいて推定される力の大きさに応じて、提示する力覚の強さを設定する処理を行う。対応するハンド操作部31は、制御装置50から出力される制御信号に基づいて、シャフトセンサ15に作用する力に応じた力覚を操作者に提示する。
S13の処理が終了すると、制御装置50は検知した外力(外力に関する情報)を、視覚を用いて把握できる情報として提示する処理を行う(S14:画像生成ステップ、出力ステップ)。具体的には、測定信号を出力したシャフトセンサ15が設けられたスレーブ装置に対応するとともに、入力された測定信号に基づいて推定される力の大きさに応じた映像や画像を表示させる画像情報を生成する処理を行う。画像情報を生成する処理の内容については後述する。生成された画像情報は表示装置60へ出力される。表示装置60は入力された画像情報に基づいて映像や画像を表示する。
S14の処理が終了すると、または、S12においてシャフト12に働く外力が検出されない判定がされた場合(NOの場合)には、制御装置50は、関節部13に働く外力を検出したか否かを判定する処理を行う(S15:入力ステップ)。言い換えると、入力部51に関節センサ16から力の測定信号である関節測定信号が入力しているか否かを判定する処理を行う。
関節部13に働く外力を検出したと判定された場合(YESの場合)には、制御装置50は、検知した外力を力覚として提示する制御信号を生成する処理を行う(S16)。検出した外力は、関節センサ16により測定された力の大きさである。検出された外力は、関節センサ16から出力される測定信号に基づいて推定される。
具体的には、測定信号を出力した関節センサ16が設けられたスレーブ装置に対応するハンド操作部31に、検出した外力を力覚として提示させる処理を行う。さらに、入力さ
れた測定信号に基づいて推定される力の大きさに応じて、提示する力覚の強さを設定する処理を行う。対応するハンド操作部31は、制御装置50から出力される制御信号に基づいて、関節センサ16に作用する力に応じた力覚を操作者に提示する。
S16の処理が終了すると、制御装置50は検知した外力(力に関する情報)を、視覚を用いて把握できる情報として提示する処理を行う(S17:画像生成ステップ、出力ステップ)。具体的には、測定信号を出力した関節センサ16が設けられたスレーブ装置に対応するとともに、入力された測定信号に基づいて推定される力の大きさに応じた映像や画像を表示させる画像情報を生成する処理を行う。画像情報を生成する処理の内容については後述する。生成された画像情報は表示装置60へ出力される。表示装置60は入力された画像情報に基づいて映像や画像を表示する。
S17の処理が終了すると、または、S15において関節部13に働く外力が検出されない判定がされた場合(NOの場合)には、制御装置50は、術具14に働く外力を検出したか否かを判定する処理を行う(S18:入力ステップ)。言い換えると、入力部51に術具センサ17から力の測定信号である術具測定信号が入力しているか否かを判定する処理を行う。
術具14に働く外力を検出したと判定された場合(YESの場合)には、制御装置50は、検知した外力を力覚として提示する制御信号を生成する処理を行う(S19)。検出した外力は、術具センサ17により測定された力(具体的には、鉗子が把持する力、または、剥離する力)の大きさである。検出された外力は、術具センサ17から出力される測定信号に基づいて推定される。
具体的には、測定信号を出力した術具センサ17が設けられたスレーブ装置に対応するハンド操作部31に、検出した外力を力覚として提示させる処理を行う。さらに、入力された測定信号に基づいて推定される力の大きさに応じて、提示する力覚の強さを設定する処理を行う。対応するハンド操作部31は、制御装置50から出力される制御信号に基づいて、術具センサ17に作用する力に応じた力覚を操作者に提示する。
S19の処理が終了すると、制御装置50は検知した外力(術具に作用する力に関する情報)を、視覚を用いて把握できる情報として提示する処理を行う(S20:画像生成ステップ、出力ステップ)。具体的には、測定信号を出力した術具センサ17が設けられたスレーブ装置に対応するとともに、入力された測定信号に基づいて推定される力の大きさに応じた映像や画像を表示させる画像情報を生成する処理を行う。画像情報を生成する処理の内容については後述する。生成された画像情報は表示装置60へ出力される。表示装置60は入力された画像情報に基づいて映像や画像を表示する。
S20の処理が終了すると、制御装置50はタイマカウンタを0にリセットする処理を行う(S21)。リセットの処理が終了すると、制御装置50はS11に戻り、上述の処理を繰り返し行う。例えば、少なくとも、医用ロボットシステム1による内視鏡外科手術の支援が行われている期間は、上述の処理の繰り返しが行われる。
次に画像生成部53において生成される画像情報について説明する。具体的には、表示装置60における表示の態様について説明する。図4(a)は、本実施形態の画像生成部53により生成された画像情報に基づいて、表示装置60が表示する態様を説明する模式図である。
画像生成部53は、図4(a)に示すように、表示装置60における表示面に、左右方向の中央である内視鏡画像表示部61を設定するとともに、内視鏡画像表示部61の左下
に第1力覚表示部62と、右上に第2力覚表示部63とを設定する。
内視鏡画像表示部61は、第1力覚表示部62および第2力覚表示部63よりも広い面積を有する領域である。画像生成部53は、内視鏡ユニット20から入力された映像または画像の情報を内視鏡画像表示部61に表示させる画像情報を生成する。
第1力覚表示部62および第2力覚表示部63は、内視鏡画像表示部61よりも狭い面積を有する領域である。画像生成部53は、シャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて、画像情報を生成するものである。
第1力覚表示部62および第2力覚表示部63は、枠により他の領域と区画されるものであり、区画された内部にシャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づく表示が行われる。本実施形態の第1力覚表示部62および第2力覚表示部63は、同じ矩形状に形成された同色の枠を有している。第1力覚表示部62および第2力覚表示部63における表示態様については後述する。
本実施形態では、第1力覚表示部62は、第1スレーブ装置10Aに対応するシャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて表示が行われる領域であり、第2力覚表示部63は、第2スレーブ装置10Bに対応するシャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて表示が行われる領域である例に適用して説明する。
なお、第1力覚表示部62が第2スレーブ装置10Bに対応するシャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて表示が行われる領域であり、第2力覚表示部63が第1スレーブ装置10Aに対応するシャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて表示が行われる領域であってもよい。
なお、本実施形態では、第1力覚表示部62が表示装置60における表示面の左下に位置し、第2力覚表示部63が右上に位置する例に適用して説明するが、図4(b)に示すように、第1力覚表示部62が表示面の左上に位置し、第2力覚表示部63が右下に位置してもよいし、図4(c)に示すように、第1力覚表示部62が表示面の左側中央のやや上に位置し、第2力覚表示部63が右側中央のやや下に位置してもよい。
また、本実施形態では第1力覚表示部62および第2力覚表示部63が、同じ矩形状に形成された同色の枠を有している例に適用して説明したが、第1力覚表示部62および第2力覚表示部63が異なる形状に形成された枠を有していてもよい。例えば、図5に示すように、第1力覚表示部62が矩形状に形成された枠を有し、第2力覚表示部63が楕円状に形成された枠を有していてもよい。
さらに本実施形態では第1力覚表示部62および第2力覚表示部63が、同じ色の枠を有している例に適用して説明したが、第1力覚表示部62および第2力覚表示部63が異なる色の枠を有していてもよい。
次に第1力覚表示部62および第2力覚表示部63における表示態様について説明する。なお、第1力覚表示部62および第2力覚表示部63における表示態様は同じであるため、代表して第1力覚表示部62における表示態様について説明し、第2力覚表示部63における表示態様の説明は省略する。また、第1力覚表示部62および第2力覚表示部63は、互いに区別が容易になるように第1スレーブ装置10Aおよび第2スレーブ装置10Bの名称が表示されてもよい。
第1力覚表示部62の表示態様は、図6に示す通りである。つまり、第1力覚表示部62には、第1スレーブ装置10Aのシャフト12、関節部13および術具14の3次元モデルが表示される。つまり、3次元モデルのシャフト12m、3次元モデルの関節部13mおよび3次元モデルの術具14mが表示される。3次元モデルは、実際のシャフト12の姿勢や、関節部13の屈曲状態が反映して表示されるものである。
なお、3次元モデルにおける術具14mの形状は、入力部51を介して入力される術具14の種類を表す種類情報に基づいて決められる。制御装置50には、術具14の種類を表す種類情報と、表示される3次元モデルにおける術具14mの形状と、が対応付けして記憶されている。画像生成部53は、入力された種類情報に対応付けされた術具14mの形状の情報を取得し、3次元モデルを表示する画像情報を生成する。
なお、入力部51を介して入力される種類情報は、医用ロボットシステム1のセッティングを行う作業者や、内視鏡外科手術を行う術者などが入力する情報であってもよいし、取付けられた術具14の種類を検知するセンサから出力される検知信号であってもよい。
3次元モデルにおけるシャフト12mの部分には、シャフトセンサ15から入力される信号に基づいて、力の大きさ、および、力の向きを示す円錐状の図形15fが表示される。また、3次元モデルにおける関節部13mの部分には、関節センサ16から入力される信号に基づいて、力の大きさ、および、力の向きを示す円錐状の図形16fが表示される。
本実施形態では、円錐状の図形の底面から頂点までの距離が力の大きさに対応する例に適用して説明する。また、力の大きさに応じて円錐状の図形を表示する色が変化する。例えば、力が大きくなるに伴い、緑、黄および赤に変化する。さらに、本実施形態では、円錐状の図形の底面から頂点に向かう方向が力の向きを表す例に適用して説明する。
3次元モデルにおける術具14に隣接する領域、例えば術具14の先端側に隣接する領域には、術具センサ17から入力される信号に基づいて、術具14である鉗子が閉じる力の大きさ、または、開く力の大きさを示す帯状の図形が表示される。
本実施形態では、図7(a)に示すように、帯状図形14fの長さが予め定められた基準指標14sよりも長くする剥離表示態様で表示することで、術具14である鉗子が開く力を表現する。また、図7(b)に示すように、基準指標14sよりも帯状図形14fの長さを短くする把持表示態様で表示することで術具14が閉じる力を表現する例に適用して説明する。
また、力の大きさに応じて帯状図形14fと基準指標14sの長さの差を変化させ、当該長さの差により力の大きさを表示する。例えば、力が大きくなると当該長さの差を大きく表示し、力が小さくなると当該長さの差が小さく表示される。
または、力の大きさに応じて帯状図形14fの色を変化させてもよい。例えば、力が大きくなるに伴い、緑、黄および赤に変化する。術具センサ17が力を測定していない場合には、図7(c)に示すように、帯状図形14fは基準指標14sと同じ長さで表示され、かつ、白色で表示される。
上記の構成の制御装置50によれば、把持力に関する情報を把持表示態様として表示し、剥離力に関する情報を把持表示態様とは異なる態様である剥離表示態様として表示できる。そのため、表示されている情報が、把持力に関する情報なのか、剥離力に関する情報
なのか、把握しやすくなる。
基準指標14sと比較して帯状図形14fの長さを変えて、把持力に関する情報なのか、剥離力に関する情報なのかを表示することにより、情報の視認が行いやすくなる。また、帯状図形14fの長さと、基準指標14sとの差の大きさを把持力の大きさ、または、剥離力の大きさとして表示することにより、把持力の大きさや、剥離力の大きさの視認が行いやすくなる。
術具センサ17が測定する力の大きさに基づいて長さが変化する帯状図形14fとして表示することにより、基準指標14sと比較が行いやすくなる。そのため、表示されている情報が、把持力に関する情報なのか、剥離力に関する情報なのか、把握しやすくなる。
術具センサ17が測定する力の大きさに基づいて帯状図形14fの色あるいは色彩を変化させることにより、術具14における力の大きさを把握しやすくなる。そのため、表示されている把持力や、剥離力の大きさを把握しやすくなる。
外力が測定された箇所と関連を付けて当該外力の情報を画像として表示する画像情報を作成し、表示装置60に画像情報を表示させることができる。言い換えると、表示されている外力の情報が、どの箇所で測定されたか識別可能な態様で表示することができる。
また、内視鏡画像表示部61とは異なる第1力覚表示部62と第2力覚表示部63に外力の情報を画像として表示するため、内視鏡画像表示部61に重ねて外力の情報を表示する場合と比較して、表示されている外力の情報を把握しやすくなる。また、内視鏡画像表示部61に表示されるシャフト12や、関節部13や、術具14に働く力の視認を妨げにくくなる。
外力の値の大きさを色、形状、及び面積の少なくとも1つを用いて表現することにより、数値で外力の値の大きさを表現する場合と比較して、外力の値の大きさを直感的に把握しやすくなる。
関節部13に作用する力と、第1スレーブ装置10A、第2スレーブ装置10Bにおける関節部13以外の箇所であるシャフト12に作用する外力に関する情報を表示することにより、1箇所(例えば関節部13のみ)に作用する外力などを表示する場合と比較して、操作している第1スレーブ装置10A、第2スレーブ装置10Bの状況を把握しやすくなる。
例えば、第1スレーブ装置10Aと第2スレーブ装置10Bとが接触した場合には、第1スレーブ装置10Aと第2スレーブ装置10Bとにおける関節部13以外の箇所(例えばシャフト12)に接触による外力が作用する。この外力に関する情報が表示されるため、操作者は第1スレーブ装置10Aと第2スレーブ装置10Bとが接触したことを把握することができる。
術具14に作用する力に関する情報として、鉗子が開く力(剥離する力)の情報と、鉗子が閉じる力(把持する力)の情報を表示することにより、術具14の操作状況を把握しやすくなる。
第1スレーブ装置10Aと第2スレーブ装置10Bに把持されている術具14の形状を表す画像を表示することにより、表示されている外力の情報が、第1スレーブ装置10Aで測定された外力の情報か、第2スレーブ装置10Bで測定された外力の情報かを把握しやすくなる。
〔第1の実施形態の第1変形例〕
次に、本発明の第1の実施形態の第1変形例に係る医用ロボットシステムについて図8および図9を参照しながら説明する。本変形例の医用ロボットシステムの基本構成は、第1の実施形態と同様であるが、第1の実施形態とは、内視鏡ユニットが設けられていない点が異なっている。よって、本変形例においては、図8および図9を用いて力覚の表示に関連するものについて説明し、その他の説明を省略する。
本変形例の医用ロボットシステム101には、図8に示すように、スレーブユニット10と、操作ユニット30と、発音装置40と、制御装置(力覚表示装置)150と、表示装置60と、が主に設けられている。
制御装置150は、スレーブユニット10の動作等や、発音装置40における発音を制御するものであり、表示装置60に表示される内容や表示される態様を制御するものである。
制御装置150は、図8に示すように、CPU(中央演算処理ユニット)、ROM、RAM、入出力インタフェース等を有するコンピュータ等の情報処理装置である。上述のROM等の記憶装置に記憶されているプログラムは、CPU、ROM、RAM、入出力インタフェースを協働させて、少なくとも入力部51、制御部52、画像生成部153、および、出力部54として機能させるものである。
画像生成部153は、表示装置60に表示される映像や画像の情報である画像情報を生成するものである。具体的には、シャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて画像情報を生成するものである。第1の実施形態の画像生成部53とは、内視鏡ユニット20から入力される映像や画像の信号に基づく画像情報を生成しない点が異なる。
次に、上記の構成からなる医用ロボットシステム101における制御について説明する。なお、制御装置150における力覚の表示に関する制御については第1の実施形態と同様であるため、その説明を省略する。
次に画像生成部153において生成される画像情報について説明する。具体的には、表示装置60における表示の態様について説明する。図9は、本変形例の画像生成部153により生成された画像信号に基づいて、表示装置60が表示する態様を説明する模式図である。
画像生成部153は、図9に示すように、表示装置60における表示面を左右に分割した左側に第1力覚表示部162を設定し、右側に第2力覚表示部163を設定する。言い換えると、第1の実施形態と比較すると、表示装置60の表示面に内視鏡画像表示部61が設定されていない点が異なる。
なお、本変形例では、表示面を左右に分割する例に適用して説明したが、上下に分割してもよく、分割する態様を限定するものではない。また、本変形例では第1力覚表示部162の表示面積と、第2力覚表示部163の表示面積が等しい例に適用して説明するが、第1力覚表示部162の表示面積が第2力覚表示部163の表示面積よりも小さくてもよいし、大きくてもよい。
さらに、本変形例では第1力覚表示部162および第2力覚表示部163が共に同じ矩形状の枠で囲われている例に適用して説明するが、第1力覚表示部162および第2力覚
表示部163の枠が異なる形状であってもよいし、矩形状以外の形状であってもよく、特に限定するものではない。また、第1力覚表示部162および第2力覚表示部163の枠の色が同じ色であってもよいし、異なる色であってもよい。
本変形例の第1力覚表示部162および第2力覚表示部163における表示態様は、第1の実施形態の第1力覚表示部62および第2力覚表示部63における表示態様と同様であるため、その説明を省略する。
上記の制御装置150によれば、内視鏡ユニット20が必須の構成ではないため、第1の実施形態の医用ロボットシステム1と比較して、内視鏡ユニット20を用いない手術にも医用ロボットシステム101を用いやすくなる。
〔第1の実施形態の第2変形例〕
次に、本発明の第1の実施形態の第2変形例に係る医用ロボットシステムについて図10および図11を参照しながら説明する。本変形例の医用ロボットシステムおよび力覚表示装置の基本構成は、第1の実施形態と同様であるが、第1の実施形態とは、設けられている表示装置の数が異なっている。よって、本変形例においては、図10および図11を用いて力覚の表示に関連するものについて説明し、その他の説明を省略する。
本変形例の医用ロボットシステム201には、図10に示すように、スレーブユニット10と、内視鏡ユニット20と、操作ユニット30と、発音装置40と、制御装置(力覚表示装置)250と、第1表示装置(表示部)260Aおよび第2表示装置(表示部)260Bと、が主に設けられている。
制御装置250は、スレーブユニット10の動作等や、発音装置40における発音を制御するものであり、第1表示装置260Aおよび第2表示装置260Bに表示される内容や表示される態様を制御するものである。
制御装置250は、図10に示すように、CPU(中央演算処理ユニット)、ROM、RAM、入出力インタフェース等を有するコンピュータ等の情報処理装置である。上述のROM等の記憶装置に記憶されているプログラムは、CPU、ROM、RAM、入出力インタフェースを協働させて、少なくとも入力部51、制御部52、画像生成部253、および、出力部54として機能させるものである。
制御装置250は、スレーブユニット10の動作等や、発音装置40における発音を制御するものであり、表示装置60に表示される内容や表示される態様を制御するものである。
画像生成部253は、第1表示装置260Aおよび第2表示装置260Bに表示される映像や画像の情報である画像情報を生成するものである。具体的には、内視鏡ユニット20から入力される映像や画像の信号に基づいて第1表示装置260Aへ出力する画像情報を生成し、シャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて、第2表示装置260Bへ出力する画像情報を生成するものである。画像情報の内容については後述する。
第1表示装置260Aおよび第2表示装置260Bは、制御装置250から出力された画像情報に基づいて、映像や画像を表示するものである。第1表示装置260Aおよび第2表示装置260Bは、内視鏡外科手術の術者を含めた手術の関係者に対して表示を行うものである。第1表示装置260Aおよび第2表示装置260Bとしては、映像や画像を表示する公知の方式や構成を用いることができ、方式や構成を限定するものではない。
なお第1表示装置260Aおよび第2表示装置260Bは、同じ大きさの表示面を有する者であってもよいし、一方が他方よりも大きな表示面を有する者であってもよい。また、映像や画像を表示する方式や構成が同じであってもよいし、異なっていてもよい。
次に、上記の構成からなる医用ロボットシステム201における制御について説明する。なお、制御装置250における力覚の表示に関する制御については第1の実施形態と同様であるため、その説明を省略する。
次に画像生成部253において生成される画像情報について説明する。具体的には、第1表示装置260Aおよび第2表示装置260Bにおける表示の態様について説明する。図11は、本変形例の画像生成部253により生成された画像信号に基づいて、第1表示装置260Aおよび第2表示装置260Bが表示する態様を説明する模式図である。
画像生成部253は、図10(a)に示すように、第1表示装置260Aにおける表示面に内視鏡画像表示部261を設定する。また、第2表示装置260Bを左右に分割した左側に第1力覚表示部262を設定し、右側に第2力覚表示部263を設定する。
なお本変形例では、第1表示装置260Aに内視鏡画像表示部261を設定し、第2表示装置260Bに第1力覚表示部262および第2力覚表示部263を設定する例に適用して説明するが、第1表示装置260Aに第1力覚表示部262および第2力覚表示部263を設定し、第2表示装置260Bに内視鏡画像表示部261を設定してもよい。
上記の制御装置250によれば、内視鏡画像表示部261が設定される表示装置と、第1力覚表示部262および第2力覚表示部263が設定される表示装置とが異なるため、内視鏡画像の視認性や、力覚表示の視認性を向上させやすい。
〔第2の実施形態〕
次に、本発明の第2の実施形態に係る医用ロボットシステムおよび力覚表示装置ついて図12から図15を参照しながら説明する。本実施形態の医用ロボットシステムおよび力覚表示装置の基本構成は、第1の実施形態と同様であるが、第1の実施形態とは、スレーブユニットの構成および力覚表示の態様が異なっている。よって、本実施形態においては、図12から図15を用いてスレーブユニットの構成および力覚表示の態様について説明し、その他の説明を省略する。
本実施形態の医用ロボットシステム301には、図12に示すように、スレーブユニット310と、内視鏡ユニット20と、操作ユニット30と、発音装置40と、制御装置(力覚表示装置)350と、表示装置60と、が主に設けられている。
スレーブユニット310は、第1の実施形態のスレーブユニット10と同様に、内視鏡外科手術に用いられる鉗子などの術具14を支持するものであり、操作ユニット30に入力される操作に従って術具14の位置および姿勢の少なくとも一方を制御するものである。また、術具14が鉗子である場合には鉗子を開閉駆動するものである。
本実施形態では、スレーブユニット310が、第1スレーブ装置10Aと、および、第2スレーブ装置10Bと、第3スレーブ装置10Cと、を有している例に適用して説明する。
本実施形態では、第1スレーブ装置10A、第2スレーブ装置10B、および、第3スレーブ装置10Cがロボットアームである例に適用して説明する。さらに第3スレーブ装
置10Cが、第1スレーブ装置10Aおよび第2スレーブ装置10Bと同じ構成を有し、同種の術具14を支持するものである例に適用して説明する。
なお、第3スレーブ装置10Cは、第1スレーブ装置10Aおよび第2スレーブ装置10Bと同様に、術具14の位置および姿勢の少なくとも一方を制御するもの、または、術具14としての鉗子の開閉駆動できるものであればよく、アーム状の構成を有していなくてもよい。
第3スレーブ装置10Cには、第1スレーブ装置10Aおよび第2スレーブ装置10Bと同様に、カートリッジ11と、シャフト12と、関節部13と、が少なくとも設けられている(図2参照。)。なお、カートリッジ11、シャフト12、および、関節部13において第1スレーブ装置10A、第2スレーブ装置10B、および、第3スレーブ装置10Cのいずれかに設けられたものか区別する必要がない場合には、カートリッジ11、シャフト12、および、関節部13と表記する。
第1スレーブ装置10Aに設けられたものか、第2スレーブ装置10Bに設けられたものか、第3スレーブ装置10Cに設けられたものか区別する場合には、それぞれ、カートリッジ11A、シャフト12Aおよび関節部13Aと、カートリッジ11B、シャフト12Bおよび関節部13Bと、カートリッジ11C、シャフト12Cおよび関節部13Cと表記する。
さらに図13に示すように、第3スレーブ装置10Cには、第1スレーブ装置10Aおよび第2スレーブ装置10Bと同様に、シャフト12に加わる外力を測定するシャフトセンサ15、関節部13に加わる外力を測定する関節センサ16、術具14である鉗子により外部へ加えられる開閉の力を測定する術具センサ17が設けられている。
なお、シャフトセンサ15、関節センサ16および術具センサ17において第3スレーブ装置10Cに設けられたものを区別する場合には、シャフトセンサ15C、関節センサ16Cおよび術具センサ17Cと表記する。
制御装置350は、スレーブユニット310の動作等や、発音装置40における発音を制御するものであり、表示装置60に表示される内容や表示される態様を制御するものである。
制御装置350は、図12に示すように、CPU(中央演算処理ユニット)、ROM、RAM、入出力インタフェース等を有するコンピュータ等の情報処理装置である。上述のROM等の記憶装置に記憶されているプログラムは、CPU、ROM、RAM、入出力インタフェースを協働させて、少なくとも入力部51、制御部52、画像生成部353、および、出力部54として機能させるものである。
画像生成部353は、表示装置60に表示される映像や画像の情報である画像情報を生成するものである。具体的には、内視鏡ユニット20から入力される映像や画像の信号、および、シャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて、画像情報を生成するものである。画像情報の内容については後述する。
次に、上記の構成からなる医用ロボットシステム301における制御について説明する。なお、制御装置350における力覚の表示に関する制御については第1の実施形態と同様であるため、その説明を省略する。
次に画像生成部353において生成される画像情報について説明する。具体的には、表
示装置60における表示の態様について説明する。図14は、本変形例の画像生成部353により生成された画像信号に基づいて、表示装置60が表示する態様を説明する模式図である。
画像生成部353は、図14に示すように、表示装置60における表示面に、左右方向の左側に内視鏡画像表示部361を設定するとともに、右側に力覚表示部365を設定する。力覚表示部365の内部には、左側から右側に向かって順に第1力覚表示部362、第2力覚表示部363、および、第3力覚表示部364を設定する。
内視鏡画像表示部361は、第1力覚表示部362、第2力覚表示部363および第3力覚表示部364よりも広い面積を有する領域である。画像生成部353は、内視鏡ユニット20から入力された映像または画像の情報を内視鏡画像表示部361に表示させる画像情報を生成する。
第1力覚表示部362、第2力覚表示部363および第3力覚表示部364は、力覚表示部365の内部に設定される領域である。また、内視鏡画像表示部361よりも狭い面積を有する領域である。画像生成部353は、シャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて、画像情報を生成するものである。
第1力覚表示部362、第2力覚表示部363および第3力覚表示部364は、枠により他の領域と区画されるものであり、区画された内部にシャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づく表示が行われる。本実施形態の第1力覚表示部362、第2力覚表示部363および第3力覚表示部364は、同じ矩形状に形成された枠を有している。また、第1力覚表示部362および第2力覚表示部363は同色の枠を有し、第3力覚表示部364は第1力覚表示部362および第2力覚表示部363と異なる色の枠を有している例に適用して説明する。第1力覚表示部362、第2力覚表示部363および第3力覚表示部364における表示態様については後述する。
本実施形態では、第1力覚表示部362は、第1スレーブ装置10Aに対応するシャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて表示が行われる領域であり、第2力覚表示部363は、第2スレーブ装置10Bに対応するシャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて表示が行われる領域であり、第3力覚表示部364は、第3スレーブ装置10Cに対応するシャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて表示が行われる領域である例に適用して説明する。
次に第1力覚表示部362、第2力覚表示部363および第3力覚表示部364における表示態様について説明する。なお、第1力覚表示部362、第2力覚表示部363および第3力覚表示部364における表示態様は同じであるため、代表して第1力覚表示部362における表示態様について説明し、第2力覚表示部363および第3力覚表示部364における表示態様の説明は省略する。
本実施形態では第1力覚表示部362、第2力覚表示部363および第3力覚表示部364の区別を容易にするために、第1力覚表示部362にLeft Arm、第2力覚表示部363にRight Arm、第3力覚表示部364にThird Armとの名称が表示される例に適用して説明する。
第1力覚表示部362、第2力覚表示部363および第3力覚表示部364の表示態様は、図15に示す通りである。第1力覚表示部362には、第1スレーブ装置10Aのシ
ャフト12、関節部13および術具14の3次元モデルが表示される。つまり、3次元モデルのシャフト12m、3次元モデルの関節部13mおよび3次元モデルの術具14mが表示される。3次元モデルは、実際のシャフト12の姿勢や、関節部13の屈曲状態が反映して表示されるものである。
第2力覚表示部363および第3力覚表示部364にも同様に、それぞれ第2スレーブ装置10Bおよび第3スレーブ装置10Cのシャフト12、関節部13および術具14の3次元モデルが表示される。
なお、3次元モデルにおける術具14mの形状は、入力部51を介して入力される術具14の種類を表す種類情報に基づいて決められる。制御装置350には、術具14の種類を表す種類情報と、表示される3次元モデルにおける術具14mの形状と、が対応付けして記憶されている。画像生成部353は、入力された種類情報に対応付けされた術具14mの形状の情報を取得し、3次元モデルを表示する画像情報を生成する。
なお、入力部51を介して入力される種類情報は、医用ロボットシステム301のセッティングを行う作業者や、内視鏡外科手術を行う術者などが入力する情報であってもよいし、取付けられた術具14の種類を検知するセンサから出力される検知信号であってもよい。
3次元モデルにおけるシャフト12mに隣接する位置には、シャフトセンサ15から入力される信号に基づいて力の大きさを表す棒グラフ315fが表示される。本実施形態では、棒グラフ315fを表示する位置にForce(Shaft)と表示され、かつ、棒グラフ315fの基準線(base)が表示される例に適用して説明する。
また、3次元モデルにおける関節部13mに隣接する位置には、関節センサ16から入力される信号に基づいて力の大きさを表す棒グラフ316fが表示される。本実施形態では、棒グラフ316fを表示する位置にForce(Wrist)と表示され、かつ、棒グラフ316fの基準線(base)が表示される例に適用して説明する。
本実施形態では、棒グラフ315fおよび棒グラフ316fが横方向へ延びるグラフであって、棒グラフ315fおよび棒グラフ316fの長さが力の大きさに対応する例に適用して説明する。また、力の大きさに応じて棒グラフ315fおよび棒グラフ316fの色が変化する。例えば、力が大きくなるに伴い、緑、黄および赤に変化する。
3次元モデルにおける術具14に隣接する位置には、術具センサ17から入力される信号に基づいて、術具14である鉗子が閉じる力の大きさ、または、開く力の大きさを示す扇状の図形314fが表示される。
本実施形態では、半円形の枠の中に扇状図形314fが表示される。半円形の枠は、水平方向に直線状に延びる枠と、上方向に凸な円弧状の枠とから構成されている。また、水平方向に延びる枠の中央から上方へ延びる基準線(base)が設けられている。
本実施形態では、術具14が閉じる力は、基準線(base)から左側に扇状図形314fを表示する把持表示態様で表現される。また、術具14である鉗子が開く力は、基準線(base)から右側に扇状図形314fを表示する剥離表示態様で表現される。なお、術具14が閉じる力は、基準線(base)から右側に扇状図形314fを表示して表現してもよいし、術具14である鉗子が開く力は、基準線(base)から左側に扇状図形314fを表示して表現してもよい。
力の大きさは、扇状図形314fの面積により表現される。言い換えると、基準線(base)からの開き角度の大きさにより表現される。例えば、力が大きくなると扇状図形314fの面積が大きくなり、力が小さくなると扇状図形314fの面積が小さくなる。
または、力の大きさに応じて扇状図形314fの色を変化させてもよい。例えば、力が大きくなるに伴い、緑、黄および赤に変化する。術具センサ17が力を測定していない場合には、半円形の枠および基準線(base)のみが表示され、扇状図形314fは表示されない。
上記の制御装置350によれば、第1スレーブ装置10A、第2スレーブ装置10B、および、第3スレーブ装置10Cのそれぞれに対応して設けられた第1力覚表示部362、第2力覚表示部363および第3力覚表示部364の内側に、当該スレーブ装置で測定された外力を表示することにより、複数のスレーブ装置が設けられている場合であっても、表示されている外力の情報が、どのスレーブ装置で測定された外力の情報か把握しやすくなる。
第1スレーブ装置10A、第2スレーブ装置10B、および、第3スレーブ装置10Cのそれぞれに対応して第1力覚表示部362、第2力覚表示部363および第3力覚表示部364の形状、および、少なくとも一部の色彩を異ならせることにより、表示されている外力の情報が、どのスレーブ装置で測定された外力の情報か把握しやすくなる。
第1スレーブ装置10A、第2スレーブ装置10B、および、第3スレーブ装置10Cのそれぞれに把持されている術具14の形状を表す画像を、対応する第1力覚表示部362、第2力覚表示部363および第3力覚表示部364に表示することにより、表示されている外力の情報が、どの術具14を把持しているスレーブ装置で測定された外力の情報か把握しやすくなる。
〔第2の実施形態の第1変形例〕
次に、本発明の第2の実施形態の第1変形例に係る医用ロボットシステムについて図16および図17を参照しながら説明する。本変形例の医用ロボットシステムおよび力覚表示装置の基本構成は、第2の実施形態と同様であるが、第2の実施形態とは、力覚表示部における表示の態様が異なっている。よって、本変形例においては、図16および図17を用いて力覚表示部における表示の態様について説明し、その他の説明を省略する。
本実施形態の医用ロボットシステム401には、図16に示すように、スレーブユニット310と、内視鏡ユニット20と、操作ユニット30と、発音装置40と、制御装置(力覚表示装置)450と、表示装置60と、が主に設けられている。
制御装置450は、スレーブユニット310の動作等や、発音装置40における発音を制御するものであり、表示装置60に表示される内容や表示される態様を制御するものである。
制御装置450は、図16に示すように、CPU(中央演算処理ユニット)、ROM、RAM、入出力インタフェース等を有するコンピュータ等の情報処理装置である。上述のROM等の記憶装置に記憶されているプログラムは、CPU、ROM、RAM、入出力インタフェースを協働させて、少なくとも入力部51、制御部52、画像生成部453、および、出力部54として機能させるものである。
画像生成部453は、表示装置60に表示される映像や画像の情報である画像情報を生成するものである。具体的には、内視鏡ユニット20から入力される映像や画像の信号、
および、シャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて、画像情報を生成するものである。画像情報の内容については後述する。
次に、上記の構成からなる医用ロボットシステム401における制御について説明する。なお、制御装置450における力覚の表示に関する制御については第1の実施形態と同様であるため、その説明を省略する。また、表示装置60における表示の態様は第2の実施形態と同様であるため、その説明を省略する。
次に第1力覚表示部362、第2力覚表示部363および第3力覚表示部364における表示態様について説明する。なお、第1力覚表示部362、第2力覚表示部363および第3力覚表示部364における表示態様は同じであるため、代表して第1力覚表示部362における表示態様について説明し、第2力覚表示部363および第3力覚表示部364における表示態様の説明は省略する。
第1力覚表示部362、第2力覚表示部363および第3力覚表示部364の表示態様は、図17に示す通りである。第1力覚表示部362には、第1スレーブ装置10Aのシャフト12、関節部13および術具14の3次元モデルが表示される。つまり、3次元モデルのシャフト12m、3次元モデルの関節部13mおよび3次元モデルの術具14mが表示される。3次元モデルは、実際のシャフト12の姿勢や、関節部13の屈曲状態が反映して表示されるものである。
第2力覚表示部363および第3力覚表示部364にも同様に、それぞれ第2スレーブ装置10Bおよび第3スレーブ装置10Cのシャフト12、関節部13および術具14の3次元モデルが表示される。
3次元モデルにおけるシャフト12mには、シャフトセンサ15から入力される信号に基づいて力の大きさ、および、力の方向を表す先端が円錐形状を有する円柱グラフ415fが表示される。
また、3次元モデルにおける関節部13mには、関節センサ16から入力される信号に基づいて力の大きさ、および、力の方向を表す先端が円錐形状を有する円柱グラフ416fが表示される。
本実施形態では、円柱グラフ415fおよび円柱グラフ416fの長さが力の大きさに対応し、円柱グラフ415fおよび円柱グラフ416fの延びる方向が力の方向に対応する例に適用して説明する。また、力の大きさに応じて円柱グラフ415fおよび円柱グラフ416fの色が変化してもよい。例えば、力が大きくなるに伴い、緑、黄および赤に変化してもよい。
3次元モデルにおける術具14に隣接する位置には、術具センサ17から入力される信号に基づいて、術具14である鉗子が閉じる力の大きさ、または、開く力の大きさを示す扇状の図形414fが表示される。
本実施形態では、術具14が閉じる力は、1つの扇状図形414fを表示する把持表示態様で表現される。また、術具14である鉗子が開く力は、2つに分裂した扇状図形414fを表示する剥離表示態様で表現される。
さらに、1つの扇状図形414fを表示する場合には基準線を含んで扇状図形414fを表示し、2つの場合には、基準線を間に挟んで間隔をあけて扇状図形414fを表示してもよい。
力の大きさは、扇状図形414fの面積により表現される。例えば、力が大きくなると扇状図形414fの面積が大きくなり、力が小さくなると扇状図形414fの面積が小さくなる。
または、力の大きさに応じて扇状図形414fの色を変化させてもよい。例えば、力が大きくなるに伴い、緑、黄および赤に変化する。術具センサ17が力を測定していない場合には、扇状図形414fは表示されない。
上記の制御装置450によれば、扇状図形414fを1つにするか2つにするかにより、把持力に関する情報なのか、剥離力に関する情報なのかを表示され、情報の視認が行いやすくなる。また、扇状図形414fの面積が把持力の大きさ、または、剥離力の大きさとして表示することにより、把持力の大きさや、剥離力の大きさの視認が行いやすい。
さらに、1つの扇状図形414fを表示する場合には基準線を含んで扇状図形414fを表示し、2つの場合には、基準線を間に挟んで間隔をあけて扇状図形414fを表示することにより、更に、情報の視認が行いやすくなる。
〔第2の実施形態の第2変形例〕
次に、本発明の第2の実施形態の第2変形例に係る医用ロボットシステムについて図18および図19を参照しながら説明する。本変形例の医用ロボットシステムおよび力覚表示装置の基本構成は、第2の実施形態と同様であるが、第2の実施形態とは、力覚表示部における表示の態様が異なっている。よって、本変形例においては、図18および図19を用いて力覚表示部における表示の態様について説明し、その他の説明を省略する。
本実施形態の医用ロボットシステム501には、図18に示すように、スレーブユニット310と、内視鏡ユニット20と、操作ユニット30と、発音装置40と、制御装置(力覚表示装置)550と、表示装置60と、が主に設けられている。
制御装置550は、スレーブユニット310の動作等や、発音装置40における発音を制御するものであり、表示装置60に表示される内容や表示される態様を制御するものである。
制御装置550は、図18に示すように、CPU(中央演算処理ユニット)、ROM、RAM、入出力インタフェース等を有するコンピュータ等の情報処理装置である。上述のROM等の記憶装置に記憶されているプログラムは、CPU、ROM、RAM、入出力インタフェースを協働させて、少なくとも入力部51、制御部52、画像生成部553、および、出力部54として機能させるものである。
画像生成部553は、表示装置60に表示される映像や画像の情報である画像情報を生成するものである。具体的には、内視鏡ユニット20から入力される映像や画像の信号、および、シャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて、画像情報を生成するものである。画像情報の内容については後述する。
次に、上記の構成からなる医用ロボットシステム501における制御について説明する。なお、制御装置550における力覚の表示に関する制御については第1の実施形態と同様であるため、その説明を省略する。また、表示装置60における表示の態様は第2の実施形態と同様であるため、その説明を省略する。
次に第1力覚表示部362、第2力覚表示部363および第3力覚表示部364におけ
る表示態様について説明する。なお、第1力覚表示部362、第2力覚表示部363および第3力覚表示部364における表示態様は同じであるため、代表して第1力覚表示部362における表示態様について説明し、第2力覚表示部363および第3力覚表示部364における表示態様の説明は省略する。
第1力覚表示部362、第2力覚表示部363および第3力覚表示部364の表示態様は、図19に示す通りである。第1力覚表示部362には、第1スレーブ装置10Aのシャフト12、関節部13および術具14の3次元モデルが表示される。つまり、3次元モデルのシャフト12m、3次元モデルの関節部13mおよび3次元モデルの術具14mが表示される。3次元モデルは、実際のシャフト12の姿勢や、関節部13の屈曲状態が反映して表示されるものである。
第2力覚表示部363および第3力覚表示部364にも同様に、それぞれ第2スレーブ装置10Bおよび第3スレーブ装置10Cのシャフト12、関節部13および術具14の3次元モデルが表示される。
3次元モデルにおけるシャフト12mには、シャフトセンサ15から入力される信号に基づいて力の大きさ、および、力の方向を表す円環状のグラフ515fが表示される。
また、3次元モデルにおける関節部13mには、関節センサ16から入力される信号に基づいて力の大きさ、および、力の方向を表す円環状のグラフ516fが表示される。本実施形態では、円環状グラフ515fおよび円環状のグラフ516fは、一部が切り欠いた形状である例に適用して説明するが、切欠きがない形状であってもよい。
また本実施形態では、円環状グラフ515fおよび円環状のグラフ516fに表示される色が力の大きさに対応するとともに、力が働く方向に対応する例に適用して説明する。具体的には、円環状グラフ515fおよび円環状のグラフ516fのうち、力が働く方向に対応する領域の色を変化させることにより、力が働く方向が表示される例に適用して説明する。さらに、力が大きくなるに伴い、力が働く方向に対応する領域の色を緑、黄および赤に変化する例に適用して説明する。
3次元モデルにおける術具14に隣接する位置には、術具センサ17から入力される信号に基づいて、術具14である鉗子が閉じる力の大きさ、または、開く力の大きさを示す扇状の図形514fが表示される。
本実施形態では、術具14が閉じる力は、扇状図形514fを赤色で表示する把持表示態様で表現される。また、術具14である鉗子が開く力は、扇状図形514fを青色で表示する剥離表示態様で表現される。
力の大きさは、扇状図形514fの面積により表現される。例えば、力が大きくなると扇状図形514fの面積が大きくなり、力が小さくなると扇状図形514fの面積が小さくなる。
または、力の大きさに応じて扇状図形514fの色の濃淡を変化させてもよい。例えば、力が大きくなるに伴い濃い色に変化し、力が小さくなるに伴い薄い色に変化する例に適用して説明する。術具センサ17が力を測定していない場合には、扇状図形514fは表示されない。
上記の制御装置550によれば、扇状図形514fの色あるいは色彩を異ならせて表示を行うことにより、情報の視認が行いやすくなる。例えば、把持表示態様や、剥離表示態
様により表示されている扇状図形514fを、表示される色あるいは色彩により確認することが可能となる。
扇状図形514fにおける力の大きさに基づいて表示の色あるいは色彩の濃淡を変化させることにより、扇状図形514fにおける力の大きさを把握しやすくなる。そのため、表示されている把持力や、剥離力の大きさを把握しやすくなる。
なお、扇状図形514fにおける色あるいは色彩を、術具14の種類に基づいて定めてもよい。このようにすることで、情報の視認が行いやすくなる。術具14の種類は、第2の実施形態と同様に、入力部51を介して入力される術具14の種類を表す種類情報を用いることができる。
〔第2の実施形態の第3変形例〕
次に、本発明の第2の実施形態の第3変形例に係る医用ロボットシステムについて図20および図21を参照しながら説明する。本変形例の医用ロボットシステムおよび力覚表示装置の基本構成は、第2の実施形態と同様であるが、第2の実施形態とは、力覚表示部における表示の態様が異なっている。よって、本変形例においては、図20および図21を用いて力覚表示部における表示の態様について説明し、その他の説明を省略する。
本実施形態の医用ロボットシステム601には、図20に示すように、スレーブユニット310と、内視鏡ユニット20と、操作ユニット30と、発音装置40と、制御装置(力覚表示装置)650と、表示装置60と、が主に設けられている。
制御装置650は、スレーブユニット310の動作等や、発音装置40における発音を制御するものであり、表示装置60に表示される内容や表示される態様を制御するものである。
制御装置650は、図20に示すように、CPU(中央演算処理ユニット)、ROM、RAM、入出力インタフェース等を有するコンピュータ等の情報処理装置である。上述のROM等の記憶装置に記憶されているプログラムは、CPU、ROM、RAM、入出力インタフェースを協働させて、少なくとも入力部51、制御部52、画像生成部653、および、出力部54として機能させるものである。
画像生成部653は、表示装置60に表示される映像や画像の情報である画像情報を生成するものである。具体的には、内視鏡ユニット20から入力される映像や画像の信号、および、シャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて、画像情報を生成するものである。画像情報の内容については後述する。
次に、上記の構成からなる医用ロボットシステム601における制御について説明する。なお、制御装置650における力覚の表示に関する制御については第1の実施形態と同様であるため、その説明を省略する。また、表示装置60における表示の態様は第2の実施形態と同様であるため、その説明を省略する。
次に第1力覚表示部362、第2力覚表示部363および第3力覚表示部364における表示態様について説明する。なお、第1力覚表示部362、第2力覚表示部363および第3力覚表示部364における表示態様は同じであるため、代表して第1力覚表示部362における表示態様について説明し、第2力覚表示部363および第3力覚表示部364における表示態様の説明は省略する。
第1力覚表示部362、第2力覚表示部363および第3力覚表示部364の表示態様
は、図21に示す通りである。第1力覚表示部362、第2力覚表示部363および第3力覚表示部364の下段には、シャフトセンサ15から入力される信号に基づいて力の大きさを表す円図形615fが表示される。本実施形態では、円図形615fを表示する位置にForce(Shaft)と表示される例に適用して説明する。
第1力覚表示部362、第2力覚表示部363および第3力覚表示部364の中段には、関節センサ16から入力される信号に基づいて力の大きさを表す円図形616fが表示される。本実施形態では、円図形616fを表示する位置にForce(Wrist)と表示される例に適用して説明する。
第1力覚表示部362、第2力覚表示部363および第3力覚表示部364の上段には、術具センサ17から入力される信号に基づいて力の大きさを表す円図形614fが表示される。本実施形態では、円図形614fを表示する位置にGripと表示される例に適用して説明する。
本実施形態では、力の大きさに応じて円図形615f、円図形616fおよび円図形614fの色が変化する。例えば、力が大きくなるに伴い、緑、黄および赤(または橙)に変化する。
上記の制御装置650によれば、外力の値の大きさを、色を用いて表現することにより、数値で外力の値の大きさを表現する場合と比較して、外力の値の大きさを直感的に把握しやすくなる。
〔第2の実施形態の第4変形例〕
次に、本発明の第2の実施形態の第4変形例に係る医用ロボットシステムについて図22および図23を参照しながら説明する。本変形例の医用ロボットシステムおよび力覚表示装置の基本構成は、第2の実施形態と同様であるが、第2の実施形態とは、力覚表示部における表示の態様が異なっている。よって、本変形例においては、図22および図23を用いて力覚表示部における表示の態様について説明し、その他の説明を省略する。
本実施形態の医用ロボットシステム701には、図22に示すように、スレーブユニット310と、内視鏡ユニット20と、操作ユニット30と、発音装置40と、制御装置(力覚表示装置)750と、表示装置60と、が主に設けられている。
制御装置750は、スレーブユニット310の動作等や、発音装置40における発音を制御するものであり、表示装置60に表示される内容や表示される態様を制御するものである。
制御装置750は、図22に示すように、CPU(中央演算処理ユニット)、ROM、RAM、入出力インタフェース等を有するコンピュータ等の情報処理装置である。上述のROM等の記憶装置に記憶されているプログラムは、CPU、ROM、RAM、入出力インタフェースを協働させて、少なくとも入力部51、制御部52、画像生成部753、および、出力部54として機能させるものである。
画像生成部753は、表示装置60に表示される映像や画像の情報である画像情報を生成するものである。具体的には、内視鏡ユニット20から入力される映像や画像の信号、および、シャフトセンサ15、関節センサ16、および、術具センサ17から入力される信号に基づいて、画像情報を生成するものである。画像情報の内容については後述する。
次に、上記の構成からなる医用ロボットシステム701における制御について説明する
。なお、制御装置750における力覚の表示に関する制御については第1の実施形態と同様であるため、その説明を省略する。また、表示装置60における表示の態様は第2の実施形態と同様であるため、その説明を省略する。
次に第1力覚表示部362、第2力覚表示部363および第3力覚表示部364における表示態様について説明する。なお、第1力覚表示部362、第2力覚表示部363および第3力覚表示部364における表示態様は同じであるため、代表して第1力覚表示部362における表示態様について説明し、第2力覚表示部363および第3力覚表示部364における表示態様の説明は省略する。
第1力覚表示部362、第2力覚表示部363および第3力覚表示部364の表示態様は、図23に示す通りである。第1力覚表示部362、第2力覚表示部363および第3力覚表示部364の下段には、シャフトセンサ15から入力される信号に基づいて力の大きさを表す円グラフ715fが表示される。本実施形態では、円グラフ715fを表示する位置にForce(Shaft)と表示される例に適用して説明する。
第1力覚表示部362、第2力覚表示部363および第3力覚表示部364の中段には、関節センサ16から入力される信号に基づいて力の大きさを表す円グラフ716fが表示される。本実施形態では、円グラフ716fを表示する位置にForce(Wrist)と表示される例に適用して説明する。
第1力覚表示部362、第2力覚表示部363および第3力覚表示部364の上段には、術具センサ17から入力される信号に基づいて力の大きさを表す円グラフ714fが表示される。本実施形態では、円グラフ714fを表示する位置にGripと表示される例に適用して説明する。
本実施形態では、力の大きさに応じて円グラフ715f、円グラフ716fおよび円グラフ714fの面積が変化すると共に色が変化する。例えば、力が大きくなるに伴い、円グラフの面積が大きくなると共に、緑、黄および赤(または橙)に変化する。
上記の制御装置750によれば、外力の値の大きさを色、形状、及び面積を用いて表現することにより、数値で外力の値の大きさを表現する場合と比較して、外力の値の大きさを直感的に把握しやすくなる。
なお、本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。例えば、本発明を上記の実施形態や変形例に適用したものに限られることなく、これらの実施形態や変形例を適宜組み合わせた実施形態に適用してもよく、特に限定するものではない。
1,101,201,301,401,501,601,701…医用ロボットシステム、 14…術具、 14s…基準指標、 50,150,250,350,450,550,650,750…制御装置(力覚表示装置)、 51…入力部、 53,153,253,353,453,553,653,753…画像生成部、 54…出力部、 60…表示装置(表示部)、 260A…第1表示装置(表示部)、 260B…第2表示装置(表示部)、 S12,S15,S18…入力ステップ、 S14,S17,S20…画像生成ステップ、出力ステップ

Claims (8)

  1. 閉じて対象物の把持、および、開いて前記対象物の剥離が可能な術具に働く力を操作者に知覚可能に表示する装置であって、
    前記術具における前記対象物を把持する力である把持力、および、前記対象物を剥離する力である剥離力の測定信号が入力される入力部と、
    前記測定信号に基づいて、前記把持力に関する情報を把持表示態様として表示し、前記剥離力に関する情報を前記把持表示態様とは異なる態様である剥離表示態様として表示する画像情報を作成する画像生成部と、
    前記画像情報を表示する表示部に向けて、作成された前記画像情報を出力する出力部と、
    が設けられていることを特徴とする力覚表示装置。
  2. 前記把持表示態様および前記剥離表示態様は、前記術具の種類に基づいて色あるいは色彩を異ならせる表示態様であって、
    前記画像生成部は、前記把持表示態様を第一の色あるいは色彩を用いた表示態様とし、前記剥離表示態様を前記第一の色あるいは色彩とは異なる第二の色あるいは色彩を用いた表示態様とすることを特徴とする請求項1記載の力覚表示装置。
  3. 前記把持表示態様および前記剥離表示態様は、前記術具における力の大きさに基づいて長さが変化する表示であって、
    前記画像生成部は、前記把持表示態様を、所定の長さを有する基準指標と比較して、表示の長さが短い態様および長い態様の一方とし、前記剥離表示態様を、前記基準指標と比較して、表示の長さが短い態様および長い態様の他方とする前記画像情報を生成することを特徴とする請求項1記載の力覚表示装置。
  4. 前記把持表示態様および前記剥離表示態様は、前記術具における力の大きさに基づいて長さが変化する棒状または帯状の形状を有する表示態様であることを特徴とする請求項3記載の力覚表示装置。
  5. 前記把持表示態様および前記剥離表示態様は、前記術具における力の大きさに基づいて色あるいは色彩を変化させる表示態様であることを特徴とする請求項3または4に記載の力覚表示装置。
  6. 前記把持表示態様および前記剥離表示態様は、前記術具における力の大きさに基づいて所定の形状を有する表示図形の面積が変化する表示であって、
    前記画像生成部は、前記把持表示態様を、基準線を含む1つの前記表示図形である態様とし、前記剥離表示態様を、前記基準線を間に挟んで間隔をあけて配置される2つの前記表示図形である態様とする前記画像情報を生成することを特徴とする請求項1に記載の力覚表示装置。
  7. 前記把持表示態様および前記剥離表示態様は、前記術具における力の大きさに基づいて面積が変化する扇状の形状を有する表示態様であることを特徴とする請求項6記載の力覚表示装置。
  8. 閉じて対象物の把持、および、開いて前記対象物の剥離が可能な術具に働く力を操作者に知覚可能に表示する表示方法であって、
    前記術具における前記対象物を把持する力である把持力、および、前記対象物を剥離する力である剥離力の測定信号が入力される入力ステップと、
    前記測定信号に基づいて、前記把持力に関する情報を把持表示態様として表示し、前記
    剥離力に関する情報を前記把持表示態様とは異なる態様である剥離表示態様として表示する画像情報を作成する画像生成ステップと、
    前記画像情報を表示する表示部に向けて、作成された前記画像情報を出力する出力ステップと、
    を有することを特徴とする力覚表示方法。
JP2019048548A 2019-03-15 2019-03-15 力覚表示装置および力覚表示方法 Active JP6801897B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019048548A JP6801897B2 (ja) 2019-03-15 2019-03-15 力覚表示装置および力覚表示方法
US17/438,674 US20220151721A1 (en) 2019-03-15 2020-02-14 Force sense display device and force sense display method
PCT/JP2020/005839 WO2020189120A1 (ja) 2019-03-15 2020-02-14 力覚表示装置および力覚表示方法
EP20773771.9A EP3939749A4 (en) 2019-03-15 2020-02-14 DEVICE AND METHOD FOR DISPLAYING A FORCE PERCEPTION
CN202080019745.6A CN113543934B (zh) 2019-03-15 2020-02-14 力觉显示装置以及力觉显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019048548A JP6801897B2 (ja) 2019-03-15 2019-03-15 力覚表示装置および力覚表示方法

Publications (2)

Publication Number Publication Date
JP2020146374A true JP2020146374A (ja) 2020-09-17
JP6801897B2 JP6801897B2 (ja) 2020-12-16

Family

ID=72431004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019048548A Active JP6801897B2 (ja) 2019-03-15 2019-03-15 力覚表示装置および力覚表示方法

Country Status (5)

Country Link
US (1) US20220151721A1 (ja)
EP (1) EP3939749A4 (ja)
JP (1) JP6801897B2 (ja)
CN (1) CN113543934B (ja)
WO (1) WO2020189120A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022168905A1 (ja) * 2021-02-04 2022-08-11 オリンパス株式会社 内視鏡システム、手技支援方法および手技支援プログラム
WO2022201312A1 (ja) 2021-03-23 2022-09-29 リバーフィールド株式会社 力覚通知装置および力覚通知方法
WO2022244105A1 (ja) * 2021-05-18 2022-11-24 リバーフィールド株式会社 力覚表示装置、力覚表示方法およびプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114098981B (zh) * 2021-11-24 2024-05-07 东南大学 一种双臂协作的头颈部辅助牵拉手术机器人及其控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0998978A (ja) * 1995-10-06 1997-04-15 Olympus Optical Co Ltd 医療器具
JP2006043349A (ja) * 2004-08-09 2006-02-16 Hitachi Medical Corp 手術支援装置
US20120071863A1 (en) * 2010-09-17 2012-03-22 Samsung Electronics Co., Ltd. Surgery robot system, surgery apparatus and method for providing tactile feedback
WO2018163680A1 (ja) * 2017-03-10 2018-09-13 ソニー株式会社 手術用システム、外科手術システム、制御装置、起歪体、外科手術用器具、並びに外力検知システム
US20190000533A1 (en) * 2017-06-28 2019-01-03 Ethicon Llc Systems and methods of displaying surgical instrument status

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6810281B2 (en) * 2000-12-21 2004-10-26 Endovia Medical, Inc. Medical mapping system
JP2001104333A (ja) * 1999-10-07 2001-04-17 Hitachi Ltd 手術支援装置
JP2002316087A (ja) * 2001-04-18 2002-10-29 Ricoh Co Ltd 粘着部品の剥離方法と剥離工具及び剥離装置
US6785572B2 (en) * 2001-11-21 2004-08-31 Koninklijke Philips Electronics, N.V. Tactile feedback and display in a CT image guided robotic system for interventional procedures
CN1299650C (zh) * 2005-03-11 2007-02-14 天津大学 具有力感觉的显微外科手术机器人控制系统
US20070074584A1 (en) * 2005-10-03 2007-04-05 Joseph Talarico Gentle touch surgical instrument and method of using same
US7920124B2 (en) * 2006-08-29 2011-04-05 Canon Kabushiki Kaisha Force sense presentation device, mixed reality system, information processing method, and information processing apparatus
US8709036B2 (en) * 2009-05-13 2014-04-29 University of Pittsburgh—of the Commonwealth System of Higher Education Tension transducing forceps
WO2015021333A1 (en) * 2013-08-07 2015-02-12 Cornell Universty Semiconductor tweezers and instrumentation for tissue detection and characterization
CN104424838A (zh) * 2013-08-26 2015-03-18 王尧 宫腔镜手术模拟器
CN107205779A (zh) * 2014-12-29 2017-09-26 助视会有限公司 手术模拟器系统和方法
CN106650237B (zh) * 2016-11-16 2019-07-02 南京信息工程大学 一种支持力触觉反馈的虚拟柔性体手术仿真系统
US11071594B2 (en) 2017-03-16 2021-07-27 KB Medical SA Robotic navigation of robotic surgical systems
JP2019048548A (ja) 2017-09-08 2019-03-28 いすゞ自動車株式会社 ミラーベースカバー
CN107736932A (zh) * 2017-10-27 2018-02-27 上海诺英医疗器械有限公司 一种低温等离子剥离刀手术系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0998978A (ja) * 1995-10-06 1997-04-15 Olympus Optical Co Ltd 医療器具
JP2006043349A (ja) * 2004-08-09 2006-02-16 Hitachi Medical Corp 手術支援装置
US20120071863A1 (en) * 2010-09-17 2012-03-22 Samsung Electronics Co., Ltd. Surgery robot system, surgery apparatus and method for providing tactile feedback
WO2018163680A1 (ja) * 2017-03-10 2018-09-13 ソニー株式会社 手術用システム、外科手術システム、制御装置、起歪体、外科手術用器具、並びに外力検知システム
US20190000533A1 (en) * 2017-06-28 2019-01-03 Ethicon Llc Systems and methods of displaying surgical instrument status

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022168905A1 (ja) * 2021-02-04 2022-08-11 オリンパス株式会社 内視鏡システム、手技支援方法および手技支援プログラム
WO2022201312A1 (ja) 2021-03-23 2022-09-29 リバーフィールド株式会社 力覚通知装置および力覚通知方法
CN117042716A (zh) * 2021-03-23 2023-11-10 瑞德医疗机器股份有限公司 力觉通知装置以及力觉通知方法
WO2022244105A1 (ja) * 2021-05-18 2022-11-24 リバーフィールド株式会社 力覚表示装置、力覚表示方法およびプログラム
JP7217065B1 (ja) * 2021-05-18 2023-02-02 リバーフィールド株式会社 力覚表示装置、力覚表示方法およびプログラム

Also Published As

Publication number Publication date
WO2020189120A1 (ja) 2020-09-24
JP6801897B2 (ja) 2020-12-16
EP3939749A4 (en) 2022-07-13
CN113543934A (zh) 2021-10-22
US20220151721A1 (en) 2022-05-19
EP3939749A1 (en) 2022-01-19
CN113543934B (zh) 2022-07-15

Similar Documents

Publication Publication Date Title
JP6801897B2 (ja) 力覚表示装置および力覚表示方法
AU2019352792B2 (en) Indicator system
KR102171873B1 (ko) 햅틱 글로브 및 수술로봇 시스템
JP7492506B2 (ja) ナビゲーション支援
US20180235719A1 (en) Ungrounded master control devices and methods of use
CN107921623A (zh) 机器人系统
KR101967635B1 (ko) 엔드 이펙터 및 원격 제어 장치
JP6867654B2 (ja) 医用ロボットシステムの力覚表示装置および力覚表示方法
KR100997194B1 (ko) 간접적으로 수술감을 제공하는 원격 수술 로봇 시스템 및 그 제어 방법
US20220378531A1 (en) Surgical robot
KR101114226B1 (ko) 이력정보를 이용한 수술 로봇 시스템 및 그 제어 방법
KR100956762B1 (ko) 이력정보를 이용한 수술 로봇 시스템 및 그 제어 방법
JP6807122B1 (ja) 手術ロボット、及び手術ロボットの制御ユニット
JP6875690B1 (ja) 手術ロボット、及び手術ロボットの制御ユニット
Amato et al. A versatile mechatronic tool for minimally invasive surgery
WO2020210190A1 (en) Method and system for color based indication of suture strain
GB2608016A (en) Feature identification
GB2611972A (en) Feature identification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200608

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200608

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201118

R150 Certificate of patent or registration of utility model

Ref document number: 6801897

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250