JP7387383B2 - ロボットの緩いモード - Google Patents

ロボットの緩いモード Download PDF

Info

Publication number
JP7387383B2
JP7387383B2 JP2019194060A JP2019194060A JP7387383B2 JP 7387383 B2 JP7387383 B2 JP 7387383B2 JP 2019194060 A JP2019194060 A JP 2019194060A JP 2019194060 A JP2019194060 A JP 2019194060A JP 7387383 B2 JP7387383 B2 JP 7387383B2
Authority
JP
Japan
Prior art keywords
anatomical feature
medical
medical device
controller
body part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019194060A
Other languages
English (en)
Other versions
JP2020065936A (ja
Inventor
アサフ・ゴバリ
バディム・グリナー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Biosense Webster Israel Ltd
Original Assignee
Biosense Webster Israel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Biosense Webster Israel Ltd filed Critical Biosense Webster Israel Ltd
Publication of JP2020065936A publication Critical patent/JP2020065936A/ja
Application granted granted Critical
Publication of JP7387383B2 publication Critical patent/JP7387383B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2074Interface software
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/302Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/743Keyboards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/744Mouse
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/03Automatic limiting or abutting means, e.g. for safety
    • A61B2090/033Abutting means, stops, e.g. abutting on tissue or skin
    • A61B2090/036Abutting means, stops, e.g. abutting on tissue or skin abutting on tissue or skin
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/065Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Surgical Instruments (AREA)
  • Application Of Or Painting With Fluid Materials (AREA)
  • Numerical Control (AREA)

Description

本発明は、概して、ロボットの制御に関し、具体的には、排他的にではなく、医療処置中のロボットの制御に関する。
前置きとして、医療器具は、他の用途の中でも特に、脳手術又は副鼻腔拡張に使用することができる。副鼻腔拡張では、医療器具は、様々な副鼻腔を通して鼻腔を介して挿入することができる。脳手術では、頭蓋骨を開けて腫瘍を除去する代わりに、鼻腔及び副鼻腔を介して医療ツールを挿入することができる。ロボットアームは、医療器具を保持するためにそのような用途において有用であり得る。
Cooperによる米国特許第6,132,368号は、患者にロボット支援外科手術を行うためのシステム及び方法を記載している。具体的には、非滅菌駆動及び制御構成要素、滅菌可能なエンドエフェクタ又は外科用ツール、並びに、外科用ツールを駆動及び制御構成要素と連結し、それらの間で運動及び電気信号を伝達するための機械的要素を含む中間コネクタ構成要素を含む、3構成要素外科用システムが提供される。駆動及び制御構成要素は、滅菌手術部位から遮蔽され、外科用ツールは滅菌可能で使い捨て可能であり、中間コネクタは滅菌可能で再利用可能である。このようにして、中間コネクタは、ロボットシステムの駆動及び制御構成要素内のモータ又は電気的接続を損傷することなく、外科処置後に滅菌することができる。
Orbanらの米国特許出願公開第2006/0161138号は、統合滅菌アダプタ、電気ロボット外科システムを備えた滅菌ドレープを記載しており、滅菌手術野と非滅菌ロボットシステムとの間の滅菌バリアを維持するために、電気ロボット外科システムの一部をドレープするための使用方法が提供され、機械的及び電気的エネルギ及び信号を伝達するためのインターフェースも提供される。
Culpらの米国特許出願公開第2008/0114388号は、発電ユニットを有するハンドピース、及び電力生成ユニットに通電信号を供給するための制御コンソールを含む外科用ツールシステムを記載している。ハンドピースに関連付けられたメモリ内のデータに基づいて、制御コンソールは、モータ駆動モード又は直接駆動モードのいずれかで、ハンドピース電力生成ユニットに通電信号を供給する。モータ駆動モードでは、信号は、発電ユニットの部品であるロ-タの位置に基づいて、電力生成ユニットと一体化された巻線に供給される。直接駆動モードでは、通電信号は、ロータ位置とは無関係に、発電ユニットに供給される。
Sheltonらの米国特許出願公開第2015/0053749号は、外科用器具及びエンドエフェクタを備えた外科用器具システムを記載しており、エンドエフェクタは遠位端部、エンドエフェクタを外科用器具に取り付けるように構成された近位接続部、第1のジョー、及び第1のジョーに対して移動可能な第2のジョーを備え、第2のジョーは、開いた向きと、部分的に閉じた向きと、閉じた向きとの間で移動可能である。エンドエフェクタは、第2のジョーの方向を検出するように構成された少なくとも1つのセンサ、及び第2のジョーの方向をシミュレートするように構成されたインジケータのアレイを更に備えることができる。
本開示の実施形態によれば、生体の身体部位に可逆的に挿入されるように構成された医療器具と、医療器具によって身体部位に印加された力を検出するように構成された力センサと、医療器具に取り付けられたロボットアームであって、ロボットアームの動きを制御し、医療器具を操作するように構成された複数のロボット関節を含む、ロボットアームと、身体部位における医療器具の器具位置を追跡するように構成された第1の位置センサと、生体上に配置され、身体部位内への医療器具の挿入中に身体部位の身体位置を追跡するように構成された第2の位置センサと、コントローラであって、器具位置及び身体位置に応じて、身体部位に対する医療器具の位置を計算することと、医療器具によって印加された検出された力を、計算された位置で解剖学的特徴部に印加するための許容力レベルと比較することと、計算された位置で医療器具によって印加された検出された力が許容力レベルよりも大きいことに応じて、複数のロボット関節の少なくとも1つのロボット関節の剛性を緩めるために、ロボットアームに制御コマンドを送信するか、又はロボットアームの電力を切断することと、を行うように構成されている、コントローラと、を備える、ロボットアーム制御システムが提供される。
更に、本開示の実施形態によれば、力センサは医療器具上に配置されている。
更に、本開示の実施形態によれば、コントローラは、解剖学的特徴部に印加するための許容力レベルを設定するように構成されている。
更に、本開示の実施形態によれば、コントローラは、身体部位の少なくとも1つの所与の位置に対して医療スキャンを位置合わせすることであって、医療スキャンが解剖学的特徴部の画像を含む、ことと、医療スキャンの位置合わせ及び器具位置に基づいて、解剖学的特徴部が医療器具の計算された位置にあることを識別することと、を行うように構成されている。
更に、本開示の実施形態によれば、コントローラは、解剖学的特徴部の識別に基づいて、解剖学的特徴部に印加するための許容力レベルを設定するように構成されている。
更に、本開示の実施形態によれば、解剖学的特徴部の画像は放射線濃度を有し、コントローラは、解剖学的特徴部の画像の放射線濃度に基づいて、解剖学的特徴部に印加するための許容力レベルを設定するように構成されている。
また更に、本開示の実施形態によれば、コントローラは、解剖学的特徴部の画像の放射線濃度に基づいて、解剖学的特徴部の組織タイプを識別することと、解剖学的特徴部の組織タイプに基づいて、解剖学的特徴部に印加するための許容力レベルを設定することと、を行うように構成されている。
更に、本開示の実施形態によれば、コントローラは、制御コマンドをロボットアームに送信して、計算された位置で医療器具によって印加された検出された力が許容力レベルよりも大きいことに応じて、医療器具を落下させるように構成されている。
本開示の更に別の実施形態によれば、生体の身体部位に可逆的に挿入される医療器具に取り付けられたロボットアームの動きを制御することと、医療器具によって身体部位に印加された力を検出することと、身体部位内の医療器具の器具位置を追跡することと、身体部位内への医療器具の挿入中に身体部位の身体位置を追跡することと、器具位置及び身体位置に応じて、身体部位に対する医療器具の位置を計算することと、医療器具によって印加された検出された力を、計算された位置で解剖学的特徴部に印加するための許容力レベルと比較することと、計算された位置で医療器具によって印加された検出された力が許容力レベルよりも大きいことに応じて、ロボットアームの少なくとも1つのロボット関節の剛性を緩めるために、ロボットアームに制御コマンドを送信するか、又はロボットアームの電力を切断することと、を含む、ロボットアーム制御方法が提供される。
更に、本開示の実施形態によれば、力を検出することは、医療器具上に配置された力センサによって実行される。
更に、本開示の実施形態によれば、本方法は、解剖学的特徴部に印加するための許容力レベルを設定することを含む。
また更に、本開示の実施形態によれば、本方法は、身体部位の少なくとも1つの所与の位置に対して医療スキャンを位置合わせすることあって、医療スキャンが解剖学的特徴部の画像を含む、ことと、医療スキャンの位置合わせ及び器具位置に基づいて、解剖学的特徴部が医療器具の計算された位置にあることを識別することと、を含む。
更に、本開示の実施形態によれば、解剖学的特徴部に印加するための許容力レベルを設定することは、解剖学的特徴部の識別に基づく。
更に、本開示の実施形態によれば、解剖学的特徴部の画像は放射線濃度を有し、解剖学的特徴部に印加するための許容力レベルを設定することは、解剖学的特徴部の画像の放射線濃度に基づく。
更に、本開示の実施形態によれば、本方法は、解剖学的特徴部の画像の放射線濃度に基づいて解剖学的特徴部の組織タイプを識別することを含み、解剖学的特徴部に印加するための許容力レベルを設定することは、解剖学的特徴部の組織タイプに基づく。
また更に、本開示の実施形態によれば、送信することは、制御コマンドをロボットアームに送信して、計算された位置で医療用器具によって印加された検出された力が許容力レベルよりも大きいことに応じて、医療器具を落下させることを含む。
本開示の更に別の実施形態によれば、プログラム命令が記憶された非一時的なコンピュータ可読媒体を備えたソフトウェア製品であって、命令が、中央処理装置(CPU)によって読み取られると、CPUに、生体の身体部位に可逆的に挿入される医療器具に取り付けられたロボットアームの動きを制御させ、医療器具によって身体部位に印加された検出された力を記憶させ、身体部位内の医療器具の器具位置を記憶させ、身体部位への医療器具の挿入中に身体部位の身体位置を記憶させ、器具位置及び身体位置に応じて、身体部位に対する医療器具の位置を計算させ、医療器具によって印加された検出された力を、計算された位置で解剖学的特徴部に印加するための許容力レベルと比較させ、計算された位置で医療器具によって印加された検出された力が許容力レベルよりも大きいことに応じて、ロボットアームの少なくとも1つのロボット関節の剛性を緩めるために、ロボットアームに制御コマンドを送信させるか、又はロボットアームの電力を切断させる、ソフトウェア製品、も提供される。
本発明は、添付の図面と併せると、以下の詳細な説明から理解されよう。
本発明の実施形態に係る、ロボット医療処置システムの概略図である。 本発明の実施形態に係る、ロボット医療処置システムで使用される磁場放射アセンブリの概略図である。 例示的な医療器具の概略断面側面図である。 図3Bの医療器具の概略断面正面図である。 本発明の実施形態に係る、図3A及び図3Bの医療器具に関するベクトルを示す概略図である。 本発明の実施形態に係る、図1のロボット医療処置システムの動作において実施される例示的なステップを含むフローチャートである。 本発明の実施形態に係る、フローチャートの実施中に使用されるスクリーンのフロー図である。 図1のロボット医療処置システムで使用する方法における例示的なステップを含むフローチャートである。
概説
前置きとして、医療器具は、医療処置中に医師によって慎重に操作される必要があり得る。医師は、他の外科的作業のために両手を自由にする必要がある場合がある。いくつかの状況では、医師は、助手に、医療器具を保持して案内するように依頼してもよい。器具を保持及び案内する作業は、正確かつ迅速に実行することが困難であり得る。ロボットは、医療器具を把持し、必要に応じて適所に保持することによってこの作業を容易にすることができ、それによって、取り扱いがやや容易になる。しかしながら、ロボットが動作するパラメータがロボットの仕様外にある場合、ロボットは、特定の状況において危険を引き起こす場合もある。例えば、患者内に既に配置された医療器具を保持するためにロボットアームを使用する耳鼻咽喉(ENT)処置中に、ロボットアームは、患者の大きな後続の動きに正確に対処することができない場合がある。そのような場合、ロボットアームは、医療器具の位置を調節するように試みることができるが、調節は不正確な場合があり、患者に外傷を引き起こす場合がある。
本発明の実施形態では、システムは、ロボットアームの少なくとも1つのロボット関節の剛性を緩めるために、医療器具を保持するロボットアームに制御コマンドを送信するコントローラを含む。制御コマンドは、医療器具によって身体部位に印加された力が、医療器具の位置で身体部位の解剖学的特徴部に加えられる許容力レベルよりも大きいことを検出することに応じて、送信される。いくつかの実施形態では、ロボットアームへの電力は、過度の力を検出した際に切断されてもよい。
「緩い」モードとして知られる場合がある、ロボットアームの剛性を緩めることは、医師が医療器具を手動で移動又は除去することを可能にする。更に、ロボットが「緩い」モードになっているときに患者が移動する場合、医療器具は、典型的には、患者に外傷を引き起こすことなく、又はより少ない外傷で、患者と共に移動する。
例えば、医療器具が副鼻腔口に挿入される場合、医療器具は、患者が頭部を移動させたときに視神経の近くにある可能性がある。そのような瞬間において、システムは、医療器具によって印加された力が視神経の領域内で過剰であることを感知し、したがってロボットアームを「緩い」モードにする制御コマンドを送信する。
解剖学的特徴部の識別は、システムと位置合わせされたCTスキャン又は他のスキャンデータなどの医療スキャンを使用して実行してもよい。医療スキャンは、骨、軟組織、血液、器官、神経などの様々な解剖学的特徴部の表示を提供することができる。ほんの一例として、様々な解剖学的特徴部の表示は、スキャンにおけるHounsfieldユニット(HU)などの様々な放射線濃度値に基づいてもよい。加えて、又は代替的に、視神経又は脳などの解剖学的特徴部は、画像分析を使用して自動で、又は専門オペレータ又は放射線専門医によって手動で、医療スキャンにおいて識別されることができる。次いで、識別された解剖学的特徴部をシステムと位置合わせすることができる。
いくつかの実施形態では、システムは、身体部位及び医療器具の位置を感知するのに適した位置センサ、並びに医療器具によって患者の身体部位に印加された力を検出するための、医療器具上に配置された少なくとも1つの力センサを含む。コントローラは、身体部位及び医療器具の検知された位置に基づいて、身体部位に対する医療器具の相対位置を計算する。
コントローラは、医療スキャンの位置合わせ及び器具位置に基づいて、解剖学的特徴部が医療器具の計算された位置にあることを識別することができる。コントローラは、医療スキャンにおける解剖学的特徴部の画像の放射線濃度に基づいて、解剖学的特徴部の組織タイプ(例えば、骨、軟組織、脂肪、又は血液)を識別することができる。本明細書及び特許請求の範囲で使用される用語「計算された位置にある」は、任意の適切な測定ユニットで測定された計算された位置の所与の距離内の解剖学的特徴部を含むと定義される。例えば、患者の頭部内で動作するとき、多くの微細な、敏感な解剖学的構造部が存在する場合、医療スキャン内の解剖学的特徴部の位置が医療用器具の計算された位置の1mm以内、又は場合によっては3mmなどのより大きな距離内にある場合、解剖学的特徴部は「計算された位置にある」と見なされてもよい。身体の他の部位では、許容誤差はより大きくなり得る。
コントローラは、解剖学的特徴部の識別された組織タイプ又は識別(例えば、視神経又は脳)に基づいて、解剖学的特徴部に印加するための許容力レベルを設定する。例えば、骨に対しては、軟組織又は視神経に対するよりも、より大きな力が許容される。
コントローラは、医療器具によって印加された検出された力を、計算された位置で解剖学的特徴部に印加するための許容力レベルと比較し、計算された位置で医療器具によって印加された検出された力が許容力レベルよりも大きいとき、ロボットアームの少なくとも1つのロボット関節の剛性を緩めるように、ロボットアームに制御コマンド(これは、ロボットアームへの電力を切断することを含んでもよい)を送信する。緩いモードは、ロボットが医療器具を落下させることにつながり得るが、この不都合は、外傷のリスクと比較して一般的により許容可能である。
以下に記載の実施形態では、力センサは、一般に、医療器具上に配置され、ロボットアーム上には配置されない。ロボットアーム上に配置された力センサは、ロボットアームの重量のために、正確な力読取りを提供しない場合がある。吸引ツールなどの別の医療器具が使用される場合、吸引ツールは、力センサがロボットアーム上に配置されたときに医療器具によって印加される力の不正確な誤った力読取りを生じさせ得る。しかしながら、場合によっては、力センサは、医療器具上の代わりに、又はそれに加えてロボットアーム上に配置されてもよい。
以下に記載の実施形態は、患者の鼻腔及び副鼻腔内で実施される処置を具体的に参照するが、本発明の原理は同様に、他の種類のロボット手術において、頭部内及び身体の他の部分内の両方で、必要な変更を加えて適用することができる。全てのそのような代替的な実施形態は、本発明の範囲内であると考えられる。
システムの説明
参照により本明細書に援用される文書は本出願の一体部分と見なされるべきであり、いずれかの用語が、それらの援用された文書内で、本明細書で明示的又は暗示的に行われる定義と相反するように定義される場合を除き、本明細書における定義のみが考慮されるべきである。
ここで図面に目を向けて、本発明の実施形態に係る、ロボット医療処置システム20の概略図である図1、及びシステム20で使用される磁場放射アセンブリ24の概略図である図2を参照する。ロボット医療処置システム20は、典型的には、患者22の副鼻腔又は別の身体部位(脳など)の侵襲的及び/又は調査処置中に使用される。
処置のために、磁場放射アセンブリ24は、例えば、患者が座っている(又は横たわっている)椅子25(又はベッド)にアセンブリ24を固定することによって、患者22の頭部の後ろ及び/又は周りに配置されてもよい。描かれている例の磁場放射アセンブリ24は、馬蹄形のフレームに固定された5つの磁場放射器26を備え、フレームは磁場放射器26が患者22の頭部を囲むように患者22の下又は周りに配置される。あるいは、より少数の又はより多数の放射器26が、様々な異なる構成で使用されてもよい。磁場放射器26は、磁場放射アセンブリ24に近接し、患者22の頭部を含む領域30にそれぞれの周波数で交流磁場を放射するように構成される。交流磁場は、位置センサ32及び位置センサ36内に信号を誘導する。位置センサ32は、医療器具28の位置を追跡するために医療器具28上に配置されて示されている。ほんの一例として、医療器具28は、身体部位に挿入するためのプローブ、内視鏡、及び/又はENTツール、吸引ツール、マイクロデブリーダ、又はシェーバなどの外科用ツールのうちの任意の1つ以上を含んでもよい。
医療器具28は、医療器具28を操作するように構成されたロボットアーム40に取り付けられて保持されている。ロボットアーム40は、ロボットアーム40の動きを制御し、医療器具28を操作するように構成された複数のロボット関節を含む。
位置センサ36は、患者22の位置を追跡するために(例えば、患者22の頭部を追跡するために)患者22上に(例えば、患者22の額又は任意の他の適切な身体部位上)に配置して示されている。
各位置センサ32、36は通常、3つの直交コイルのセットを含み、磁場放射アセンブリ24に対する位置センサ32、36の位置と向きを導出するために、コントローラ38によって信号を分析することができる。位置センサ32、36の位置及び向きは、領域30内の位置センサの実質的に任意の配置に対して決定され得ることが理解されよう。位置センサ32、36は本明細書では磁気位置センサとして記載されているが、医療器具28及び患者22の位置は、任意の適切な位置検知技術、例えば電気、超音波、光学、慣性、又は当技術分野で知られている他の適切なタイプを使用して、計算することができる。
以下により詳細に記載されるように、位置センサ32は医療器具28に取り付けられ、位置センサ32の位置及び向きの決定により、患者22の身体部分(生体)に可逆的に挿入することができる医療器具28の遠位端部34(又は他の位置)の位置及び向きを追跡することが可能になる。医療器具28が剛性医療器具である場合、位置センサ32は一般に、医療器具28の任意の適切な部分(例えば、医療器具28の遠位端部34又は近位端部52)、及び/又は医療器具28を保持しているロボットアーム40上に配置されてもよい。医療器具28の遠位端部34が可撓性である場合、医療器具28の遠位端部34の位置を正確に追跡するために、位置センサ32は一般に医療器具28の遠位端部34に配置される。
同様に、位置センサ36の位置及び向きの決定により、患者22の身体部分(例えば、頭部)の位置及び向きを追跡することが可能になる。位置センサ36は、患者22の額に配置されるものとして図1に示されている。位置センサ36は、患者22の位置/動きを追跡するために、患者22の他の適切な身体部位に配置されてもよい。
放射器26などの磁場放射器を用いたシステムは、患者に挿入されたエンティティの追跡を目的としたものであり、参照により本明細書中に組み込まれているGovariらの米国特許出願公開第2016/0007842号に記載されている。更に、Biosense Webster of 33 Technology Drive,Irvine,CA 92618 USA製のCarto(登録商標)システムは、磁場によって照射される領域内のコイルの位置及び向きを見つけるために、本明細書に記載されるのと同様のシステムを使用する。
ロボットアーム40は、一般に、それ自体のロボット座標系を有する。ロボット座標系は磁場放射器26の磁気座標系と位置合わせされ、及び/又はその逆であってもよい。ロボット座標系と磁気座標系との位置合わせは、例えば、ロボットアーム40、又はロボットアーム40に取り付けられた医療器具28を、磁場放射器26に既知の1つ以上の位置に、例えば、磁場放射アセンブリ24上の位置に、又は位置センサ36に、又は患者22上の1つ以上の他の既知の位置に、移動させることによって実行することができる。ロボット座標系と磁気座標系との位置合わせが実行されると、ロボットアーム40を正しく操作するために、磁気座標系の位置をロボット座標系に変換することができる。
放射器26を含むシステム20の要素は、1つ以上のメモリと通信する処理ユニットを含むコントローラ38により制御することができる。典型的には、これらの要素はケーブルを介してプロセッサ38に接続されてよく、例えば、放射器26はケーブル58を介してプロセッサ38に接続されてもよい。あるいは、又は更に、これらの要素は、プロセッサ38に無線で連結されてもよい。プロセッサ38は、キーパッド、及び/又はマウス若しくはトラックボールなどのポインティングデバイスを典型的に含む動作制御装置51を備えるコンソール50内に取り付けられてもよい。コンソール50は、医療器具28の近位端部52などのロボット医療処置システム20の他の要素にも接続する。医師54は、動作制御装置51を使用して、手順を実行しながらコントローラ38と相互作用し、コントローラ38は、システム20によって生成された結果を表示画面56上に提示することができる。図1では、表示画面56は、医師54が身体部位内の医療器具28を案内するための補助として使用できる以前のCTスキャン(又は他の適切なスキャン)の様々なビュー59を表示している。表示画面56は、医療器具28によって捕捉された画像61も示す。
実際には、コントローラ38のこれらの機能の一部又は全てを単一の物理的構成要素に組み合わせるか、あるいは複数の物理的構成要素を使用して実装することができる。これらの物理的構成要素は、ハードワイヤード装置又はプログラマブル装置、あるいはこれら2つの組み合わせを備えてもよい。いくつかの実施形態では、処理回路の機能の少なくともいくつかは、適切なソフトウェアの制御下でプログラム可能なプロセッサによって実行されてもよい。このソフトウェアは、例えばネットワークを介して電子的形態で装置にダウンロードされてもよい。加えて又は代わりに、このソフトウェアは、光学的メモリ、磁気的メモリ、又は電子的メモリなどの有形の非一時的なコンピュータ可読媒体に記憶されていてもよい。
ロボット医療処置システム20は、内視鏡が医療器具28に含まれるときに内視鏡のレンズを洗浄するように構成されたレンズ洗浄デバイス63を任意選択で含むことができる。レンズ洗浄デバイス63は、レンズに水を噴霧するためのウォータジェット噴霧器、又は、適切な材料、例えば、限定するものではないが、一片のガーゼでレンズを拭くためのワイパを含んでもよい。レンズ洗浄デバイス63は、ロボットアーム40に配置されてもよい。あるいは又は更に、レンズ洗浄デバイス63は、医療器具28が身体部位から取り外されたときに作動することができる、例えばジェットスプレーを備えた医療器具28の一部として実装されてもよい。
図3A~図3C、図4、図5は、医療器具28を剛性医療器具として、位置センサ32を可動位置センサとして説明する。可動位置センサは、医療器具28の任意の適切な部分に固定することができるので、位置センサ32の位置は、適切な較正が実行されるまで、最初は医療器具28の遠位端部34を示さない。いくつかの実施形態では、ロボット医療処置システム20は、位置センサ32が医療器具28と一体化される場合、及び/又は医療器具28の遠位端部34に対する位置センサ32の位置が既知である場合に、実装され得る。他の実施形態では、位置センサ32はロボットアーム40に配置されてもよく、そのような場合、位置センサ32の位置は、適切な較正が実行されるまで、最初は医療器具28の遠位端部34を示さない。
本発明の実施形態によれば、図3Aは医療器具28の概略断面側面図であり、図3Bは医療器具28の概略断面正面図であり、図3Cは医療器具28に関連するベクトルを示す概略図である。以下の医療器具28の記載において、医療器具28は、長手方向対称軸62を有する剛性シリンダ60を含むと仮定される。図3A及び図3Bでは、医療器具28は、xyz直交軸のセット上に描かれており、長手方向対称軸62がz軸を画定している。明確にするために、図3A及び図3Bでは、医療器具28のxyz軸は、シリンダ60から変位して描かれている。
位置センサ32は、位置センサ32を完全に封入するように典型的にはプラスチックから形成されるセンサホルダ64によってシリンダ60に固定される。本明細書で説明するように、位置センサ32と相互作用する磁場に応じて生成される位置センサ32からの信号は、位置センサ32の位置及び向きを決定するために使用される。位置センサ32からの信号を伝える導線は、医療器具28の近位端部52に接続され、そこからコンソール50に接続されてもよい。導線は、図3A及び図3Bには示されていない。
位置センサ32は、典型的には位置センサ32の内部対称軸の方向であるが、必ずしもそうでなくてよい、センサ方向70を有すると仮定され、本明細書で言及される向きは、磁場放射器26(図2)によって画定される基準フレームに対するセンサ方向の向きを示す。位置センサ32のセンサ方向70は、矢印として図3A及び図3Cに概略的に示されている。
センサホルダ64は、シリンダ60の直径と実質的に同じ直径を有するが、ホルダ64とシリンダ60との間に滑り嵌めが存在するように十分に異なる直径を有するように形成された穴68を有するように製造される。ホルダ64が製造されるとき、穴68の中心は、位置センサ32から既知の距離Aになるように作製される。Aの典型的な値は0.5cmであるが、Aはこの値よりも小さくても大きくてもよい。異なる直径を有する医療器具に寸法決めされた穴を有する、一連のセンサホルダを構築することができる。更に、ホルダ64に含まれることにより、穴68の中心は、センサ方向70に対して既知の向きθを有する。したがって、図3Cに示すように、位置センサ32から穴68の中心までの、本明細書ではベクトルVとも呼ばれる既知の変位ベクトル(A,θ)が存在する。
穴68は、典型的にはベクトルVに直交する対称軸69を有し、穴68は、ホルダ64が製造されるときに形成されるため、ベクトルVに対して既知の方向φを有する(図3C)。
以下にも記載のように、システム20の操作中、センサホルダ64の穴68はシリンダ60上にスライドし、ホルダ64が近位端部52に接近すると、ホルダ64はシリンダ60に固定される。穴68内でシリンダ60をスライドさせる際、軸69及び62は一致し、方向φとも一致することが理解されよう。ホルダ64は、ヘッドを有する止めねじ72を備え、ヘッドは医師54(図1)によって把持され得る。ヘッドを使用して、医師54は、止めねじを手で締めて、シリンダ60に沿った所望の位置にホルダ64を固定することができる。位置センサ32の中心から遠位端34までの距離は、距離Bと仮定される。距離Aとは異なり、センサホルダ64がシリンダ60に固定されるときに距離Bは既知ではないが、システム20の動作において以下に記載のように、コントローラ38は距離Bを計算することができる。
図3Aは、医療器具28上に配置された、又は医療器具28内に埋め込まれた力センサ35も示している。力センサ35は、医療器具28によって身体部位に印加される力を示す信号を提供するように構成される。複数の力センサ35を医療器具28に沿った異なる横方向位置に配置して、医療器具28の異なる位置で力の読み取り値を提供することができる。開示内容が参照により本明細書に組み込まれる、米国特許出願公開第2007/0100332号及び同第2009/0093806号は、カテーテルに埋め込まれた力センサを使用してカテーテルの遠位先端部と体腔内組織との間の接触圧力を感知する方法を記載している。更に、Biosense Webster of 33 Technology Drive,Irvine,CA 92618 USAによって製造されるCarto(登録商標)SmartTouch(商標)システムは、ロボット医療処置システム20に適した力センサを含む。
図4は、ロボット医療処置システム20の動作で実施される例示的なステップを含むフローチャートであり、図5は、本発明の実施形態に係る、フローチャートの実施中の表示画面56の概略図である。フローチャートのステップは、図1、図2、図3A、図3B、及び図3Cによっても示されている。
最初のステップ100では、患者22の頭部は、本明細書では例として透視CTであると仮定される、コンピュータ断層撮影(CT)によってスキャンされ、スキャンからのCTデータはコントローラ38によって取得される。患者22のCTスキャンは、医療処置に対応するフローチャートの残りのステップの実施とは独立して実行することができる。典型的には、ステップ100は、医療処置の次のステップの数日前に実行してもよい。いくつかの実施形態では、任意の他の適切な医療スキャンが、CTスキャンを補足する又はCTスキャンに取って代わることができる。
第1の処置ステップ102では、放射線アセンブリ24が患者22の頭部の下又は後ろに取り付けられる。次いで、放射器26が作動され、位置合わせステップ104で、放射器26の基準フレームが被験者の頭部の基準フレームと位置合わせされる。位置合わせは、典型的には、当技術分野で知られている任意の手段によって、例えば、位置センサ36などの磁場センサコイル、又はそのようなコイルのグループを、患者22の外部特徴に対し、及び放射器26を保持する磁場放射アセンブリ24と共に、1つ以上の既知の位置及び向きに配置することによって、行われる。一般に、このステップでは、コントローラ38は、身体部位の少なくとも1つの所与の位置(例えば、患者22の外部特徴)に対してCTデータ(又は他の医療スキャン)を位置合わせするように構成される。
初期表示ステップ106において、コントローラ38は、ステップ100で受信されたCTデータを使用して、患者22の外部特徴の表現150(本明細書では画像150とも呼ばれる)を生成する。CTデータは、Hounsfieldユニット(HU)を有するボクセルの形態であり、患者22の外部特徴の画像150は、ボクセル値及びそれらのHU値から生成される。画像150は、典型的にはグレースケール画像である。グレースケールの値は、黒色から白色まで、対応するボクセルのHounsfieldユニット(HU)と相関させることができる。
HU値は放射線濃度値であり、当技術分野で知られているように、それぞれ-1000と0である空気と水の値は別として、高密度骨などの任意の他の物質又は種のHounsfieldユニットの値は、とりわけ、本明細書で言及されるCTスキャンを生成するために使用される放射X線のスペクトルに依存する。次に、X線のスペクトルは、X線発生器に印加されるkVの電位、及び発生器のアノードの組成を含む多数の要因に依存する。本開示を明確にするために、特定の物質又は種のHounsfieldユニットの値は、以下の表Iに示すとおりであると仮定される。
Figure 0007387383000001
しかしながら、表Iに示される特定の種(空気及び水以外)に対するHUの数値は、純粋に例示的であると理解されるべきであり、当業者は、本明細書で参照されるCT画像を生成するために使用される種及びX線マシンに従って、過度の実験を行うことなく、これらの例示的な値を修正することができよう。典型的には、HU値とグレースケール値との間の変換は、所与のCTマシンからのCTスキャン出力であるDICOM(Digital Imaging and Communications in Medicine)ファイルにエンコードされる。
コントローラ38は、表示画面56上に画像150を表示し、図5は、表示画面56上に表示される画像150を概略的に示す。
HU値は、CT画像内の異なる位置における異なる組織タイプ(例えば、骨、軟組織、脂肪、血液)の表示も提供する。CTスキャンとロボット医療処置システム20との位置合わせにより、医療器具28に隣接する解剖学的特徴部を、医療器具28の位置におけるボクセルのHU値に基づいて識別することが可能になり得る。例えば、軟組織は、遠位端部34の位置におけるCTスキャンにおけるHU値に基づいて、医療器具28の遠位端部34にあるものとして識別することができる。あるいは、高密度骨は、遠位端部34付近のHU値に基づいてCTスキャンで識別されてもよい。他の解剖学的特徴部は、CTスキャンの分析から、自動的に(画像解析技術を使用して)又は手動で(訓練されたオペレータ又は放射線専門医によって)のいずれかで、識別することができる。次に、識別された解剖学的特徴部は、医療処置中に使用するために、ロボット医療処置システム20と位置合わせすることができる。したがって、異なる解剖学的特徴部は、医療器具28が身体部分に挿入されたときに、遠位端部34又は医療器具28の別の位置に近いものとして識別され得る。医療器具28は、解剖学的特徴部の感度に基づいて、解剖学的特徴部に過度な力を加えることを回避するように制御することができる。例えば、視神経は、CTスキャンにおいて自動的に、又は放射線専門医によって識別され、次いで医療処置中に使用するためにロボット医療処置システム20と位置合わせすることができる。医療器具28は、医療器具28が視神経の位置にあるときに視神経に過度な力を加えることを回避するように制御することができる。これらの機能については、図6を参照してより詳細に説明する。
操作ステップ108では、医師はセンサホルダ64の穴68を医療器具28の剛性シリンダ60上にスライドさせ、次いで医師54は止めネジ72を使用してセンサホルダを医療器具28の近位端部52の近くの所定の位置にロックする。ホルダ64が所定の位置にロックされると、ロボットアーム40は、医師54によるロボットアーム40の手動移動を可能にする緩いモードに設定される。医師54は、医療器具28の遠位端部34を患者22の外部特徴の選択された領域、例えば患者の鼻の側面の領域と接触させる。
遠位端部34の位置決めは、センサホルダ64及びその封入された位置センサ32を領域30にも移動させ、その結果、コントローラ38は位置センサ32の位置及び向きを計算することができる。コントローラ38がこの計算を実行すると、典型的には、センサ方向70を表すアイコン152が、表示画面56上の画像150の近傍に導入される。アイコン152は、画像150及び磁場放射器26の共通の基準フレーム内で、センサ信号から決定される位置センサ32の位置及び向きに従って、表示画面56上に配置され、方向付けられる。
医師54が医療器具28を操作しているという事実により、医師54は位置センサ32の実際の位置及び向きを認識している。アイコン152の位置及び向きと位置センサ32の実際の位置及び向きとの比較は、ロボット医療処置システム20の正しい動作の確認を医師54に提供する。
較正ステップ110において、医師54は、典型的には、制御51を使用することにより、医療器具28の遠位端部34が患者22の外部特徴と接触していることをコントローラ38に通知する。通知を受信すると、コントローラ38は、位置センサ32の既知の位置に対して2つの移動を実行する。第1の移動はベクトルV(A,θ)(図3C)に対応し、コントローラ38は、θによって画定される方向に沿って値Aだけ軸62上の点P(図3A)に位置センサ32の位置を移動させる。点Pに対応する点P’は図5に描かれ、最初の移動の終了を示す。通常、点P’は画面56に描かれない。
点Pから、コントローラ38は、方向φに対応する方向に第2の移動を実行する。軸69と軸62は一致しているため、第2の移動は、軸62に沿った移動に対応する方向にある。コントローラ38は、画像150のデータを使用して、軸69に沿った方向φに動く点Pが患者22の外面と接触する位置を画像データから決定することにより、第2の移動の実際の長さを決定する。外部表面との接触は、画像内で測定される放射線濃度の少なくとも所定の変化、例えば、画像データのHounsfieldユニットの値の変化があるときに生じる。変化の適切な値は、200~500Hounsfieldユニットである。接触は、軸62の点Qにあると仮定される。点Qは、点Pからここでは既知の距離Bにあり、したがって、第2の移動は、本明細書ではベクトルWとも呼ばれる、図3Cに示されるベクトル(B,φ)に対応する。
点Qの位置の計算はCT画像データを使用するが、画像150は患者22の実際の外部特徴部と位置合わせされるため、点Qは患者22の実際の外部点に対応することが理解されよう。
較正ステップの終了時に、コントローラ38は画面56からアイコン152を削除し、アイコン154を点Qに対応する画像150上の位置に配置する。アイコン154の位置及び向きと実際の位置及び遠位端部34の向きとの比較により、較正ステップの正しい完了の確認が医師54に提供される。
較正ステップの2つの移動の合計、V+Wは、コントローラ38によって記憶されるベクトルである。
継続追跡ステップ112では、コントローラ38は、遠位端部34の位置を決定するために、ステップ110で記憶されたベクトルを位置センサ32の位置に追加する。遠位端部34の向きは方向φに対応し、それは、位置センサ32を追跡する際にコントローラ38によっても決定される。したがって、コントローラ38は、位置センサ32の位置及び向きを計算することによって、遠位端34の位置及び向きを計算することができる。コントローラ38は、表示画面56上の遠位端部34の位置及び向きに対応するアイコンを配置することができる。いくつかの実施形態では、遠位端部34が患者22内にある場合、アイコンを不明瞭にし得る画像150の外部特徴部は、少なくとも部分的に透明にされる。患者22の解剖学的特徴部に対する遠位端部34の位置は、位置合わせされた画像上の座標に対する遠位端部34の計算された位置に基づいて導出することができる。上記の方法で、捕捉されたCT又は他の画像のアイコンの動きを観察することにより、医療器具28の遠位端部34を患者22の身体部分の所望の位置に誘導することができる。
いくつかの実施形態では、医療器具28の遠位端部34は、適切な経路探索アルゴリズムに基づいてロボットアーム40によって身体部分に自動的に誘導されてもよい。例示的なアルゴリズムは、参照により本明細書に組み込まれる、Glinerらの米国特許出願公開第2017/0056112(A1)号を参照して記述される。
ここで、図1のロボット医療処置システム20で使用する方法における例示的なステップを含むフローチャート200である、図6を参照する。図1も参照する。
図4を参照して上述したように、CTスキャンのHU値は、CT画像内の異なる位置の異なる組織タイプ(例えば、骨、軟組織、脂肪、血液)又は他の物質(例えば、水)の表示を提供する。CTスキャンとロボット医療処置システム20との位置合わせにより、医療器具28に隣接する解剖学的特徴部を、医療器具28の位置におけるボクセルのHU値に基づいて識別することが可能になり得る。例えば、軟組織は、遠位端部34の位置におけるCTスキャンにおけるHU値に基づいて、医療器具28の遠位端部34にあるものとして識別することができる。あるいは、高密度骨は、遠位端部34付近のHU値に基づいてCTスキャンで識別されてもよい。他の解剖学的特徴部は、CTスキャンの分析から、自動的に(画像解析技術を使用して)又は手動で(訓練されたオペレータ又は放射線専門医によって)のいずれかで、識別することができる。次に、識別された解剖学的特徴部は、医療処置中に使用するために、ロボット医療処置システム20と位置合わせすることができる。例えば、視神経は、CTスキャンにおいて自動的に又は放射線専門医によって識別され、次いでロボット医療処置システム20と位置合わせされてもよい。医療器具28は、医療器具28が視神経の位置にあるときに視神経に過度な力を加えることを回避するように制御することができる。
位置センサ32は、身体部位内の医療器具28の器具位置を追跡する(ブロック202)ように構成される。位置センサ36は、身体部位への医療器具28の挿入中に身体部位の身体位置を追跡する(ブロック204)ように構成される。力センサ35(図3A)は、医療器具28によって身体部位に印加された力を検出する(ブロック206)ように構成される。
コントローラ38は、器具位置及び身体位置に応じて、身体部位に対する医療器具28の位置を計算する(ブロック208)ように構成される。
コントローラ38は、医療スキャンの位置合わせ及び器具位置に基づいて、解剖学的特徴部が医療器具28の計算された位置にあることを識別する(ブロック210)ように構成される。例えば、コントローラ38は、医療用器具28の計算された位置に対応するCTスキャン内の位置を識別する。CTスキャンの位置は、解剖学的特徴部を含み得る。解剖学的特徴部は、以下の工程212で識別される組織タイプであってもよい。加えて、又は代替的に、解剖学的特徴部は、CTスキャン内で自動的に(例えば、画像解析を使用して)、又は放射線専門医によって識別された器官又は神経又は他の特徴部であってもよく、次いで医療処置の前にロボット医療処置システム20と位置合わせされてもよい。
コントローラ38は、解剖学的特徴部の画像の放射線濃度(例えば、HU値)に基づいて、解剖学的特徴部の組織タイプ(例えば、骨、軟組織、血液、脂肪)を識別する(ブロック212)ように構成される。加えて、又は代替的に、コントローラ38は、医療処置の前にロボット医療処置システム20と位置合わせされた解剖学的特徴部の識別に基づいて、解剖学的特徴部(例えば、視神経又は脳)の識別を識別する(ブロック212)ように構成される。
コントローラ38は、解剖学的特徴部に印加するための許容される力レベルを設定する(ブロック214)ように構成される。いくつかの実施形態では、コントローラ38は、解剖学的特徴部の既知の又は推定された感度及び/又は重要性に基づいて、解剖学的特徴部に印加するための許容力レベルを設定するように構成される。例えば、視神経は、別の神経よりも重要であり得る。いくつかの実施形態では、コントローラ38は、解剖学的特徴部の組織タイプの感度及び/又は重要性に基づいて、解剖学的特徴部に印加するための許容力レベルを設定するように構成される。例えば、軟組織は硬骨よりも敏感である。いくつかの実施形態では、コントローラ38は、解剖学的特徴部の画像の放射線濃度(例えば、HU値)に基づいて、解剖学的特徴部に印加するための許容力レベルを設定するように構成される。ほんの一例として、許容力レベルは、眼窩周囲の組織では2グラム力(gmf)、視神経では1gmf未満、鼻骨では30gmfに設定でき、ここで1gmfは標準重力での質量1グラムの重量に等しい。
コントローラ38は、医療器具28によって印加された検出された力を、計算された位置で解剖学的特徴部に印加するための許容力レベルと比較する(ブロック216)ように構成される。医療器具28が複数の力センサ35を含む場合、力センサ35からの読み取り値は平均化され得る。加えて、又は代替的に、異なる力センサ35からの読み取り値は、コントローラ38によって個別に処理されてもよく、コントローラ38は、各それぞれの力センサ35の位置で検出された力を、各力センサ35のそれぞれに隣接する解剖学的特徴部の許容力レベルと比較する。
コントローラ38は、計算された位置にある医療器具28によって印加される検出された力が許容力レベルよりも大きいことに応じて、ロボットアーム40の複数のロボット関節の少なくとも1つのロボット関節の剛性を緩めるように、ロボットアーム40に制御コマンドを送信する(ブロック218)か、又はロボットアーム40の電力を切断するように構成される。緩いモードでは、ロボットアーム40が医療器具28を落下させることもあるが、ロボットアーム40のアクチュエータへのフィードバックがまだある場合、これは外傷のリスクと比較して許容可能である。いくつかの実施形態では、コントローラ38は、制御コマンドをロボットアーム40に送信して、計算された位置で医療器具28によって印加された検出された力が許容力レベルよりも大きいことに応じて、医療器具28を落下させるように構成される。
本発明の様々に異なる特徴が、明確性のために複数の別個の実施形態として記載されているが、これらが単一の実施形態中に組み合わせて提示されてもよい。逆に、説明を簡単にするために単一の実施形態として記載されている本発明の様々に異なる特徴が、別々に又は任意の適切な部分的組み合わせとして提示されてもよい。
上述の実施形態は、例として引用されており、本発明は、上述に特に示され、記載されたものによって限定されない。むしろ、本発明の範囲は、上述の様々な特徴の組み合わせ及び副組み合わせの両方、並びに前述の記載を読むと当業者が思い付くであろう先行技術に開示されていないその変形及び修正、を含む。
〔実施の態様〕
(1) 生体の身体部位に可逆的に挿入されるように構成された医療器具と、
前記医療器具によって前記身体部位に印加された力を検出するように構成された力センサと、
前記医療器具に取り付けられたロボットアームであって、前記ロボットアームの動きを制御し、前記医療器具を操作するように構成された複数のロボット関節を含む、ロボットアームと、
前記身体部位における前記医療器具の器具位置を追跡するように構成された第1の位置センサと、
前記生体上に配置され、前記身体部位内への前記医療器具の前記挿入中に前記身体部位の身体位置を追跡するように構成された第2の位置センサと、
コントローラであって、
前記器具位置及び前記身体位置に応じて、前記身体部位に対する前記医療器具の位置を計算することと、
前記医療器具によって印加された前記検出された力を、前記計算された位置で解剖学的特徴部に印加するための許容力レベルと比較することと、
前記計算された位置で前記医療器具によって印加された前記検出された力が前記許容力レベルよりも大きいことに応じて、前記複数のロボット関節の少なくとも1つのロボット関節の剛性を緩めるために、前記ロボットアームに制御コマンドを送信するか、又は前記ロボットアームの電力を切断することと、を行うように構成されている、コントローラと、
を備える、ロボットアーム制御システム。
(2) 前記力センサが、前記医療器具上に配置されている、実施態様1に記載のシステム。
(3) 前記コントローラが、前記解剖学的特徴部に印加するための前記許容力レベルを設定するように構成されている、実施態様1に記載のシステム。
(4) 前記コントローラが、
前記身体部位の少なくとも1つの所与の位置に対して医療スキャンを位置合わせすることであって、前記医療スキャンが前記解剖学的特徴部の画像を含む、ことと、
前記医療スキャンの前記位置合わせ及び前記器具位置に基づいて、前記解剖学的特徴部が前記医療器具の前記計算された位置にあることを識別することと、を行うように構成されている、実施態様3に記載のシステム。
(5) 前記コントローラが、前記解剖学的特徴部の識別に基づいて、前記解剖学的特徴部に印加するための前記許容力レベルを設定するように構成されている、実施態様4に記載のシステム。
(6) 前記解剖学的特徴部の前記画像が放射線濃度を有し、
前記コントローラが、前記解剖学的特徴部の前記画像の前記放射線濃度に基づいて、前記解剖学的特徴部に印加するための前記許容力レベルを設定するように構成されている、
実施態様4に記載のシステム。
(7) 前記コントローラが、
前記解剖学的特徴部の前記画像の前記放射線濃度に基づいて、前記解剖学的特徴部の組織タイプを識別することと、
前記解剖学的特徴部の前記組織タイプに基づいて、前記解剖学的特徴部に印加するための前記許容力レベルを設定することと、を行うように構成されている、実施態様6に記載のシステム。
(8) 前記コントローラは、前記ロボットアームに制御コマンドを送信して、前記計算された位置で前記医療器具によって印加された前記検出された力が前記許容力レベルよりも大きいことに応じて前記医療器具を落下させるように構成されている、実施態様1に記載のシステム。
(9) 生体の身体部位に可逆的に挿入される医療器具に取り付けられたロボットアームの動きを制御することと、
前記医療器具によって前記身体部位に印加された力を検出することと、
前記身体部位内の前記医療器具の器具位置を追跡することと、
前記身体部位内への前記医療器具の前記挿入中に前記身体部位の身体位置を追跡することと、
前記器具位置及び前記身体位置に応じて、前記身体部位に対する前記医療器具の位置を計算することと、
前記医療器具によって印加された前記検出された力を、前記計算された位置で解剖学的特徴部に印加するための許容力レベルと比較することと、
前記計算された位置で前記医療器具によって印加された前記検出された力が前記許容力レベルよりも大きいことに応じて、前記ロボットアームの少なくとも1つのロボット関節の剛性を緩めるために、前記ロボットアームに制御コマンドを送信するか、又は前記ロボットアームの電力を切断することと、
を含む、ロボットアーム制御方法。
(10) 前記力を前記検出することが、前記医療器具上に配置された力センサによって実行される、実施態様9に記載の方法。
(11) 前記解剖学的特徴部に印加するための前記許容力レベルを設定することを更に含む、実施態様9に記載の方法。
(12) 前記身体部位の少なくとも1つの所与の位置に対して医療スキャンを位置合わせすることであって、前記医療スキャンが前記解剖学的特徴部の画像を含む、ことと、
前記医療スキャンの前記位置合わせ及び前記器具位置に基づいて、前記解剖学的特徴部が前記医療器具の前記計算された位置にあることを識別することと、
を更に含む、実施態様11に記載の方法。
(13) 前記解剖学的特徴部に印加するための前記許容力レベルを前記設定することが、前記解剖学的特徴部の識別に基づく、実施態様12に記載の方法。
(14) 前記解剖学的特徴部の前記画像が放射線濃度を有し、
前記解剖学的特徴部に印加するための前記許容力レベルを前記設定することが、前記解剖学的特徴部の前記画像の前記放射線濃度に基づく、
実施態様12に記載の方法。
(15) 前記解剖学的特徴部の前記画像の前記放射線濃度に基づいて前記解剖学的特徴部の組織タイプを識別することを更に含み、前記解剖学的特徴部に印加するための前記許容力レベルを前記設定することが、前記解剖学的特徴部の前記組織タイプに基づく、実施態様14に記載の方法。
(16) 前記送信することは、制御コマンドを前記ロボットアームに送信して、前記計算された位置で前記医療用器具によって印加された前記検出された力が前記許容力レベルよりも大きいことに応じて、前記医療器具を落下させることを含む、実施態様9に記載の方法。
(17) プログラム命令が記憶された非一時的なコンピュータ可読媒体を備えたソフトウェア製品であって、前記命令が、中央処理装置(CPU)によって読み取られると、前記CPUに、
生体の身体部位に可逆的に挿入される医療器具に取り付けられたロボットアームの動きを制御させ、
前記医療器具によって前記身体部位に印加された検出された力を記憶させ、
前記身体部位内の前記医療器具の器具位置を記憶させ、
前記身体部位への前記医療器具の前記挿入中に前記身体部位の身体位置を記憶させ、
前記器具位置及び前記身体位置に応じて、前記身体部位に対する前記医療器具の位置を計算させ、
前記医療器具によって印加された前記検出された力を、前記計算された位置で解剖学的特徴部に印加するための許容力レベルと比較させ、
前記計算された位置で前記医療器具によって印加された前記検出された力が前記許容力レベルよりも大きいことに応じて、ロボットアームの少なくとも1つのロボット関節の剛性を緩めるために、前記ロボットアームに制御コマンドを送信させるか、又は前記ロボットアームの電力を切断させる、ソフトウェア製品。

Claims (8)

  1. 生体の身体部位に可逆的に挿入されるように構成された医療器具と、
    前記医療器具によって前記身体部位に印加された力を検出するように構成された力センサと、
    前記医療器具に取り付けられたロボットアームであって、前記ロボットアームの動きを制御し、前記医療器具を操作するように構成された複数のロボット関節を含む、ロボットアームと、
    前記身体部位における前記医療器具の器具位置を追跡するように構成された第1の位置センサと、
    前記生体上に配置され、前記身体部位内への前記医療器具の前記挿入中に前記身体部位の身体位置を追跡するように構成された第2の位置センサと、
    コントローラであって、
    前記器具位置及び前記身体位置に応じて、前記身体部位に対する前記医療器具の位置を計算することと、
    前記医療器具によって印加された前記検出された力を、前記計算された位置で解剖学的特徴部に印加するための許容力レベルと比較することと、
    前記計算された位置で前記医療器具によって印加された前記検出された力が前記許容力レベルよりも大きいことに応じて、前記複数のロボット関節の少なくとも1つのロボット関節の剛性を緩めるために、前記ロボットアームに制御コマンドを送信するか、又は前記ロボットアームの電力を切断することと、を行うように構成されている、コントローラと、
    を備える、ロボットアーム制御システム。
  2. 前記力センサが、前記医療器具上に配置されている、請求項1に記載のシステム。
  3. 前記コントローラが、前記解剖学的特徴部に印加するための前記許容力レベルを設定するように構成されている、請求項1に記載のシステム。
  4. 前記コントローラが、
    前記身体部位の少なくとも1つの所与の位置に対して医療スキャンを位置合わせすることであって、前記医療スキャンが前記解剖学的特徴部の画像を含む、ことと、
    前記医療スキャンの前記位置合わせ及び前記器具位置に基づいて、前記解剖学的特徴部が前記医療器具の前記計算された位置にあることを識別することと、を行うように構成されている、請求項3に記載のシステム。
  5. 前記コントローラが、前記解剖学的特徴部の識別に基づいて、前記解剖学的特徴部に印加するための前記許容力レベルを設定するように構成されている、請求項4に記載のシステム。
  6. 前記解剖学的特徴部の前記画像が放射線濃度を有し、
    前記コントローラが、前記解剖学的特徴部の前記画像の前記放射線濃度に基づいて、前記解剖学的特徴部に印加するための前記許容力レベルを設定するように構成されている、
    請求項4に記載のシステム。
  7. 前記コントローラが、
    前記解剖学的特徴部の前記画像の前記放射線濃度に基づいて、前記解剖学的特徴部の組織タイプを識別することと、
    前記解剖学的特徴部の前記組織タイプに基づいて、前記解剖学的特徴部に印加するための前記許容力レベルを設定することと、を行うように構成されている、請求項6に記載のシステム。
  8. 前記コントローラは、前記ロボットアームに制御コマンドを送信して、前記計算された位置で前記医療器具によって印加された前記検出された力が前記許容力レベルよりも大きいことに応じて前記医療器具を落下させるように構成されている、請求項1に記載のシステム。
JP2019194060A 2018-10-26 2019-10-25 ロボットの緩いモード Active JP7387383B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/171,996 2018-10-26
US16/171,996 US11497566B2 (en) 2018-10-26 2018-10-26 Loose mode for robot

Publications (2)

Publication Number Publication Date
JP2020065936A JP2020065936A (ja) 2020-04-30
JP7387383B2 true JP7387383B2 (ja) 2023-11-28

Family

ID=68344672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019194060A Active JP7387383B2 (ja) 2018-10-26 2019-10-25 ロボットの緩いモード

Country Status (7)

Country Link
US (1) US11497566B2 (ja)
EP (1) EP3643265B1 (ja)
JP (1) JP7387383B2 (ja)
CN (1) CN111096795B (ja)
AU (1) AU2019240619A1 (ja)
CA (1) CA3057357A1 (ja)
IL (1) IL269765B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116212196A (zh) 2019-07-19 2023-06-06 科林达斯公司 机器人致动中的细长医疗装置的负载感测
US20230100698A1 (en) * 2021-09-29 2023-03-30 Cilag Gmbh International Methods for Controlling Cooperative Surgical Instruments
US20230240780A1 (en) * 2022-02-02 2023-08-03 Mazor Robotics Ltd. Protection systems, assemblies, and devices
US20240024028A1 (en) * 2022-07-21 2024-01-25 Mazor Robotics Ltd. Systems and methods for verifying a pose of a target

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061979A (ja) 1993-12-28 2003-03-04 Olympus Optical Co Ltd 医療器具
US20140066944A1 (en) 2010-08-02 2014-03-06 The Johns Hopkins University Tool exchange interface and control algorithm for cooperative surgical robots
US20150199174A1 (en) 2014-01-10 2015-07-16 Robert Bosch Gmbh Method for Checking an Output
US20160007842A1 (en) 2014-07-09 2016-01-14 Acclarent, Inc. Guidewire Navigation for Sinuplasty
US20170020411A1 (en) 2015-07-23 2017-01-26 Biosense Webster (Israel) Ltd. Surface Registration of a CT Image with a Magnetic Tracking System
US20170079727A1 (en) 2012-06-21 2017-03-23 Globus Medical, Inc. System and method for surgical tool insertion using multiaxis force and moment feedback
US20170136622A1 (en) 2015-06-02 2017-05-18 5D Robotics, Inc. Unified collaborative environments
WO2018125917A1 (en) 2016-12-28 2018-07-05 Auris Surgical Robotics, Inc. Apparatus for flexible instrument insertion

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3539645B2 (ja) * 1995-02-16 2004-07-07 株式会社日立製作所 遠隔手術支援装置
US6017354A (en) 1996-08-15 2000-01-25 Stryker Corporation Integrated system for powered surgical tools
US7666191B2 (en) 1996-12-12 2010-02-23 Intuitive Surgical, Inc. Robotic surgical system with sterile surgical adaptor
US6132368A (en) 1996-12-12 2000-10-17 Intuitive Surgical, Inc. Multi-component telepresence system and method
US8004229B2 (en) * 2005-05-19 2011-08-23 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US6782287B2 (en) * 2000-06-27 2004-08-24 The Board Of Trustees Of The Leland Stanford Junior University Method and apparatus for tracking a medical instrument based on image registration
CA2626833C (en) 2005-10-27 2016-06-07 St. Jude Medical, Atrial Fibrillation Division, Inc. Systems and methods for electrode contact assessment
US8622935B1 (en) * 2007-05-25 2014-01-07 Endosense Sa Elongated surgical manipulator with body position and distal force sensing
US8357152B2 (en) 2007-10-08 2013-01-22 Biosense Webster (Israel), Ltd. Catheter with pressure sensing
US8553952B2 (en) * 2008-11-29 2013-10-08 Supratik Kumar Moulik Method and system for automated interpretation of computer tomography scan data
SG11201507610RA (en) * 2013-03-15 2015-10-29 Synaptive Medical Barbados Inc Planning, navigation and simulation systems and methods for minimally invasive therapy
US20150053737A1 (en) 2013-08-23 2015-02-26 Ethicon Endo-Surgery, Inc. End effector detection systems for surgical instruments
US10223794B2 (en) * 2014-03-28 2019-03-05 Koninklijke Philips N.V. Method and device for generating one or more computer tomography images based on magnetic resonance images with the help of tissue class separation
JP6100727B2 (ja) 2014-04-09 2017-03-22 ファナック株式会社 リードスルー機能を有する人協調型産業用ロボット
EP3009091A1 (en) * 2014-10-17 2016-04-20 Imactis Medical system for use in interventional radiology
US10166080B2 (en) * 2015-06-12 2019-01-01 The Johns Hopkins University Cooperatively-controlled surgical robotic system with redundant force sensing
US10188465B2 (en) 2015-08-26 2019-01-29 Biosense Webster (Israel) Ltd. Automatic ENT surgery preplanning using a backtracking maze problem solution
CN108024693B (zh) * 2015-09-10 2021-07-09 直观外科手术操作公司 在图像引导医疗程序中利用跟踪的系统和方法
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US10828028B2 (en) * 2016-04-15 2020-11-10 Ethicon Llc Surgical instrument with multiple program responses during a firing motion
US20180098816A1 (en) * 2016-10-06 2018-04-12 Biosense Webster (Israel) Ltd. Pre-Operative Registration of Anatomical Images with a Position-Tracking System Using Ultrasound
US11751948B2 (en) * 2016-10-25 2023-09-12 Mobius Imaging, Llc Methods and systems for robot-assisted surgery
EP3360502A3 (en) * 2017-01-18 2018-10-31 KB Medical SA Robotic navigation of robotic surgical systems
US10398434B2 (en) * 2017-06-29 2019-09-03 Ethicon Llc Closed loop velocity control of closure member for robotic surgical instrument
US10856928B2 (en) * 2017-08-29 2020-12-08 Ethicon Llc Electrically-powered surgical systems
WO2019056871A1 (zh) * 2017-09-20 2019-03-28 微创(上海)医疗机器人有限公司 手术机器人系统
US11317937B2 (en) * 2018-03-08 2022-05-03 Cilag Gmbh International Determining the state of an ultrasonic end effector
US11213359B2 (en) * 2017-12-28 2022-01-04 Cilag Gmbh International Controllers for robot-assisted surgical platforms
US11298186B2 (en) * 2018-08-02 2022-04-12 Point Robotics Medtech Inc. Surgery assistive system and method for obtaining surface information thereof
CN111035454B (zh) * 2019-12-26 2021-09-10 苏州微创畅行机器人有限公司 可读存储介质以及手术机器人
US12016566B2 (en) * 2020-10-02 2024-06-25 Cilag Gmbh International Surgical instrument with adaptive function controls
US20220104910A1 (en) * 2020-10-02 2022-04-07 Ethicon Llc Monitoring of user visual gaze to control which display system displays the primary information
US20220104806A1 (en) * 2020-10-02 2022-04-07 Ethicon Llc Surgical instrument with adaptive configuration control

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061979A (ja) 1993-12-28 2003-03-04 Olympus Optical Co Ltd 医療器具
US20140066944A1 (en) 2010-08-02 2014-03-06 The Johns Hopkins University Tool exchange interface and control algorithm for cooperative surgical robots
US20170079727A1 (en) 2012-06-21 2017-03-23 Globus Medical, Inc. System and method for surgical tool insertion using multiaxis force and moment feedback
US20150199174A1 (en) 2014-01-10 2015-07-16 Robert Bosch Gmbh Method for Checking an Output
US20160007842A1 (en) 2014-07-09 2016-01-14 Acclarent, Inc. Guidewire Navigation for Sinuplasty
US20170136622A1 (en) 2015-06-02 2017-05-18 5D Robotics, Inc. Unified collaborative environments
US20170020411A1 (en) 2015-07-23 2017-01-26 Biosense Webster (Israel) Ltd. Surface Registration of a CT Image with a Magnetic Tracking System
JP2018094404A (ja) 2016-12-07 2018-06-21 グローバス メディカル インコーポレイティッド 多軸力及びモーメントフィードバックを使用した外科用ツール挿入ためのシステム及び方法
WO2018125917A1 (en) 2016-12-28 2018-07-05 Auris Surgical Robotics, Inc. Apparatus for flexible instrument insertion

Also Published As

Publication number Publication date
AU2019240619A1 (en) 2020-05-14
JP2020065936A (ja) 2020-04-30
IL269765A (en) 2020-04-30
IL269765B1 (en) 2023-03-01
CA3057357A1 (en) 2020-04-26
CN111096795A (zh) 2020-05-05
EP3643265A1 (en) 2020-04-29
CN111096795B (zh) 2024-06-07
US20200129246A1 (en) 2020-04-30
IL269765B2 (en) 2023-07-01
US11497566B2 (en) 2022-11-15
EP3643265B1 (en) 2023-10-11
EP3643265C0 (en) 2023-10-11

Similar Documents

Publication Publication Date Title
JP7387383B2 (ja) ロボットの緩いモード
CN112770689B (zh) 用于抽吸和冲洗的系统和器械
JP7282858B2 (ja) 個人向けのグリッパーを使用する頭部の登録
KR102542190B1 (ko) 영상 안내 수술에서의 정합 보상의 시스템 및 방법
EP3632360B1 (en) Automatic probe reinsertion
CN114652441A (zh) 图像引导外科手术中的姿势估计以及透视成像系统的校准的系统和方法
KR20160010539A (ko) 외부 촬상과의 로봇 의료 시스템 통합을 위한 시스템 및 방법
EP3673854B1 (en) Correcting medical scans
US20230149053A1 (en) Systems And Methods For Performing Lateral-Access Spine Surgery
CN112788989B (zh) 具有延展性引导件的扩张器械和具有一体式位置传感器的扩张导管
EP4081127A1 (en) Position registered sideview ultrasound (us) imager inserted into brain via trocar
IL273514B1 (en) Grasping tool with coagulation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231115

R150 Certificate of patent or registration of utility model

Ref document number: 7387383

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150