JP7323672B2 - 脊椎の処置のためのコンピュータ支援外科用ナビゲーションシステム - Google Patents
脊椎の処置のためのコンピュータ支援外科用ナビゲーションシステム Download PDFInfo
- Publication number
- JP7323672B2 JP7323672B2 JP2022067700A JP2022067700A JP7323672B2 JP 7323672 B2 JP7323672 B2 JP 7323672B2 JP 2022067700 A JP2022067700 A JP 2022067700A JP 2022067700 A JP2022067700 A JP 2022067700A JP 7323672 B2 JP7323672 B2 JP 7323672B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- representation
- location
- user
- fiducials
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00203—Electrical control of surgical instruments with speech control or speech recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00207—Electrical control of surgical instruments with hand gesture control or hand gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2048—Tracking techniques using an accelerometer or inertia sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
- A61B2034/2057—Details of tracking cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
- A61B2034/207—Divots for calibration
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/252—User interfaces for surgical systems indicating steps of a surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/254—User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/256—User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/258—User interfaces for surgical systems providing specific settings for specific users
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/363—Use of fiducial points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10064—Fluorescence image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
- G06T2207/30012—Spine; Backbone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30052—Implant; Prosthesis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Description
本出願は、2021年4月19日に出願された米国仮特許出願第63/176,424号の利益を主張し、その開示は参照によりその全体が本明細書に組み込まれる。
本開示は、手術中の機器及び動作のコンピュータ支援ナビゲーションに関する。
Globus Medical、Inc.(以下、「Globus Medical」又は「Globus」)によるExcelsiusHubは、放射線患者画像を使用してリアルタイムの外科的ナビゲーション及び視覚化を可能にし、インプラント計画に基づいて、適合する外科用器具を正確な場所及び軌道に誘導するか、又はフリーハンドのナビゲーションを支援するための視覚化を提供する。ソフトウェアは、外科手術前又は手術中に取得された患者固有のCT画像、又は外科手術中に取得された透視画像を再フォーマットし、好ましい視点に基づいて画面上にそれらを表示する。動作前に、外科医は、CT画像に捕捉された患者の解剖学的構造に対して器具及び他の軌道を作成、記憶、アクセス、及びシミュレートすることができる。手術中、システムは、使用中の器具を認識し、インプラントを一貫した精度で配置するためのフリーハンドのナビゲーションによってユーザを補助する。ExcelsiusHubは、患者の解剖学的構造内又はその上の外科用器具の位置を追跡し、これらの画像上の器具の位置を連続的に更新する。外科手術は、様々なGlobus Medicalの特殊外科用器具を使用して、外科医によって実行される。
ExcelsiusHubは、放射線患者画像(例えば、術前CT、術中CT及び/又は蛍光透視法)、患者動的基準ベース、及び高度なカメラ追跡システムを使用して、リアルタイムの外科的視覚化を可能にする外科的処置ナビゲーションシステムである。システムは、仮想患者(患者画像上の点)と物理的患者(患者の解剖学的構造上の対応する点)との間の位置合わせに基づいてマッピングされる。この位置合わせが作成されると、ソフトウェアは、患者画像上の追跡された器具の相対位置を表示する。この視覚化は、インプラントの配置及び他の外科的処置のための外科医の計画及びアプローチを誘導するのに役立ち得る。位置合わせと結合された患者のスキャンは、フリーハンドのナビゲーションのために独立してシステムを使用するときに外科医にガイダンス支援を提供し、又はExcelsiusGPSロボットシステムとともに使用されるときに、ロボットガイダンスを提供し、エンドエフェクタを整列させることができる。手術中は、カメラ追跡システムを使用して、ロボットアーム上のエンドエフェクタを含む、適合する器具の位置を患者の解剖学的構造内又はその上で追跡し、光学追跡を利用して患者画像上の器具位置を連続的に更新する。システムソフトウェアは、ナビゲーション機能、データ記憶、ネットワーク接続、ユーザ管理、症例管理、及び安全機能を担うことができる。ExcelsiusHub外科用器具は、典型的には、手動で操作することができる非滅菌の再利用可能な器具である。
ExcelsiusHubは、開放又は経皮的処置で解剖学的構造を正確に位置させるため、かつ外科手術中に適合する外科用器具又はインプラントを正確に位置付けするための補助として使用することができる。ExcelsiusHubは、定位手術の使用が適切であり得、脊椎や骨盤などの硬い解剖学的構造への参照が、CT、X線、及び/又はMRIベースの解剖学モデルに対して識別できる、任意の病状に適応される。ExcelsiusHubは、術前CT、術中CT、及び/又は術中蛍光透視処置を支持する。
ExcelsiusHub可視化システムは、既に認可されている後方固定及び椎体間インプラントの配置のためのスタンドアロンナビゲーション及びガイダンスを提供する。ExcelsiusHubは、ExcelsiusGPSロボットシステムで動作して、カメラ及び追跡システム機能を提供することができる。ExcelsiusHubはまた、術中モバイルCTシステムのユニバーサルビューイングステーション及び位置合わせ動作を提供することができる。Excelsiusを有効にする技術は、ExcelsiusHubを通してサポート及び通信が可能であり、手術室に所望の一体構成要素を提供することができる。
図1に示すように、いくつかの実施形態によると、カメラ追跡システム200は、カメラアームアセンブリ100、ディスプレイアセンブリ120、及びハウジングベースアセンブリ130の3つのサブアセンブリに分割することができる。カメラアームアセンブリ100は、離間したステレオカメラ102及び関節運動アーム104を含む。ハウジングベースアセンブリ130は、少なくとも1つのプロセッサ及びメモリを有する処理プラットフォームと、入力及び/又は出力ユーザインターフェースと、他のシステム構成要素と有線(例えば、コネクタパネル107)及び/又は無線接続を通して通信するように構成されている通信回路と、を含む。処理プラットフォームとともに動作するカメラ102は、器具、患者(例えば、動的基準ベース(DRB))、手術ロボットなど上でのマーカ、例えば、反射マーカの姿勢を検出するように構成されている。
ナビゲートされた器具
ExcelsiusHubは、前から存在するすべてのGlobusにナビゲートされ、配列された器具類と連動する。これには、Globusスクリュー及び拡張器を配置するためのドリル、突き錐、プローブ、タップ、及びドライバ、Globus椎体間をナビゲートして配置するための椎間板準備器具(キュレット、Cobbエレベータ、やすり、スクレーパなど)、トライアル、挿入器が含まれる。各器具は、カメラによって認識される固有のアレイパターンによって識別される。
ExcelsiusHubは、既存の患者固定器具及び現在のDRBとともに使用され得る。
ExcelsiusHubは、既存の術中位置合わせ固定物及び蛍光透視位置合わせとともに使用され得る。
ExcelsiusHubで動作するソフトウェアは、ExcelsiusGPSロボットシステムで利用可能な既存の脊椎ソフトウェアを含み得る。システムソフトウェアは、すべてのナビゲーション機能、データ記憶、ネットワーク接続、ユーザ管理、症例管理、及び安全機能を担うことができる。
脊椎の外科的処置は、ExcelsiusHubシステムによって支持される。構成タブは、処置タイプを表示する。どちらのハードウェアでもソフトウェアが同じであるため、脊椎の処置ステップは、ExcelsiusGPSロボットシステムで見たものと同じである。
ExcelsiusHubシステムによってサポートされる様々な脊椎の外科的処置脊椎の外科的処置を以下の表に列挙する。
処置のセットアップ
構成タブ
症例を選択した後、モニタに構成タブを表示する。いくつかの実施形態による、例示的なユーザインターフェースを図2に示す。構成タブを使用して、登録された外科医、撮像モダリティ、及び処置タイプのリスト中から外科医を選択する。撮像モダリティは、術中CT、蛍光透視法、及び術前CTを含み得る。右矢印をクリックして、次のタブに進む。
ワークフロータブを使用して、所望の操作順序(例えば、最初に椎体間)で処置(例えば、椎体間、又はスクリュー)の所望のステージを選択する。各ステージについて、撮像モダリティ、椎体間インプラントシステム、及び、頸部、胸部、腰部、及び仙腸関節部を含み得る解剖学的モデル上の所望の椎体間レベルを選択する。「ステージを追加する」ボタンをクリックすることにより、ステージをワークフローに追加する。「器具を検証する」をクリックして、次のタブへ進む。いくつかの実施形態による、例示的なユーザインターフェースを図3に示す。
検証タブは、ワークフロータブで選択された器具の可視性、場所、検証ステータスを含むナビゲーション詳細を表示する。検証は、1つ以上の器具が、例えば、取り扱い中に破損する可能性があるかどうかを示すために使用される。アレイを有するすべての器具は、使用前に、必要に応じて、検証アダプタ、器具、インプラント、拡張器のいずれかを用いて検証すべきである。
図5を参照すると、いくつかの実施形態によると、器具の先端を、別の機器、例えば、位置合わせされた器具のアレイ上又は外科用ロボットシステムの位置合わせされたロボットアート上の既知の場所に提供された検証ドット内に配置することによって、又は検証されるべき検証アダプタを器具上の既知の場所に提供された検証ディボット内に配置することによって、各器具を検証することができる。ディボットは、器具の検証に使用するためのナビゲートされた器具のアレイ上の定義された場所において形成することができる。ExcelsiusGPSロボットシステムを使用する場合、ディボットはまた、エンドエフェクタの上面又はカメラ102によって追跡され得る他の既知の場所に位置させることができる。次に、両方の器具がカメラ102に見え、安定して保持されていることを確実にする。次に、ポップアップ画面が、検証進捗の動作を示すために、検証タブ上に表示される。
患者取り付け器具は、手術部位に隣接する硬性の骨解剖学的構造に固定される。ユーザは、所望の器具を選択する。患者取り付け器具は、いくつかの実施形態によると、精度を維持するために、手術部位の中心から185mm以下に配置されるべきである。骨クランプは、棘突起、腸骨稜、長骨、又は安全にクランプされ得る任意の硬性の骨構造などの解剖学的構造上にクランプされる。クアットロスパイクは、腸骨稜又は長骨に挿入される。ロッド取り付け具は、既存の脊椎ロッド、例えば、直径4.5mm~6.35mmに固定される。様々な患者取り付け器具の例示的な推奨される解剖学的場所は、いくつかの実施形態によると、以下の表に記載されている。
動的基準ベースの挿入
ユーザは、図7に示すように、いくつかの実施形態によれば、患者取り付け器具の上方で、動的基準ベース(DRB)上の圧縮クランプを位置付けし、ノブを締め付ける。必要に応じて、図8に示すように、いくつかの実施形態によれば、クランプドライバを使用して、DRBノブを更に締め付けることができる。ユーザは、カメラ102の方向に、DRB上の反射マーカを位置付けする。外科的処置を妨げないように、患者基準器具の初期配置に注意すべきである。ナビゲーション後、患者取り付け器具が取り外される。
監視マーカは、カメラ追跡システムがカメラ102を使用してDRBとの相対距離を追跡できるように、例えば、処置中にDRBの不要なシフトを識別するために、硬性の骨解剖学的構造に挿入される。図9は、いくつかの実施形態によれば、監視マーカ902から離間したDRB900の配置を示す。
ユーザは、使い捨て反射マーカを監視マーカ902のマーカ支柱に取り付ける。[0082]ユーザは、反射マーカ球体904上に嵌合するように設計された嵌入キャップを、監視マーカ902上に取り付ける。ユーザは、監視マーカ902を手術部位の近くの硬性の骨解剖学的構造に挿入し、マレットで穏やかに衝撃を与えることができる。ユーザは、嵌入キャップを取り外す。ユーザは、除去ツールを使用する前に、反射マーカ904を取り外す。マーカとともに骨クランプを使用するために、ユーザは、使い捨てマーカを骨クランプの先端に取り付ける。ユーザは、クランプドライバを使用して骨クランプを固定することができる。次いで、ユーザは、クランプが堅固に固定されていることを検証する。
クアットロスパイク及び監視マーカは、手動で、又は除去ツールを使用して、骨解剖学的構造から取り外される。図10に示されるように、いくつかの実施形態によれば、骨クランプは、クランプドライバでクランプを緩め、除去ツールを取り付け、骨クランプを持ち上げることによって取り外される。
術中CT位置合わせ固定物のセットアップ
図11に示すように、いくつかの実施形態によると、旋回アームスターバースト1100は、位置合わせ固定物1110の位置合わせ固定物支柱1102のスターバースト支柱の上方に配置され、固定するように90°回転される。位置合わせ固定物1110は、図12に示されるように、いくつかの実施形態によれば、患者取り付け器具支柱1202上に位置付けされ、圧縮クランプ1200ノブが締め付けられる。必要に応じて、クランプドライバを使用して、圧縮クランプ1200上のノブを更に締め付けることができる。完成したアセンブリを、いくつかの実施形態による図13に示す。旋回アームを解放するために、固定物上の解放ボタン1300が押され、旋回アーム90°が回転して引き上げられる。術中CT位置合わせ固定物は、6つの自由度を有し、3つの関節のうちの1つを調整することによって、手術部位上で安定し、ホバリングするように動かすことができる。固定物に埋め込まれた金属基準物のみが、3Dスキャン(反射マーカではない)内にある必要がある。術中CT位置合わせ固定物は、画像取得と解剖学的ランドマークチェックを実行する間に移動しないことが、動作上有用又は必要である場合がある。
いくつかの実施形態によれば、図14に示す画像タブの選択により、CTスキャン画像をロードするために必要なステップが表示される。画像は、例えば、USBドライブ、ハードドライブ、及び/又はネットワークデバイスからロードされ得る。イーサネット(登録商標)を介して画像が転送される場合、転送が完了したときに、ハードドライブ上に自動的に現れ得る。
自動位置合わせは、画像をロードするときに実行することができる。しかしながら、自動位置合わせ動作が失敗したか、そうでなければ利用されない場合、図15に示すように、いくつかの実施形態によれば、手動位置合わせを許容にするために手動位置合わせ画面を表示することができる。位置合わせ画面の左パネル上の画像は、術中CTの描写を伴う完全なスキャンである。
位置合わせが完了した後、位置合わせが正常に計算されたことを確実にするために、ランドマークチェックを実行することができる。検証プローブを使用して、解剖学的ランドマーク又は基準物を位置合わせ固定物上でタッチして、対応する場所がシステムモニタ上に示されていることの検証をトリガする。このプロセスは、他の、例えば、2~3つの他のランドマークを使用して繰り返すことができる。
次いで、患者取り付け器具が動かないことを確実にしながら、術中CT位置合わせ固定物を取り外すことができる。
計画タブは、ユーザが、いくつかの実施形態による図16の例示的なユーザインターフェースに示されるような、患者画像上ですべてのスクリュー挿入軌道(例えば、1600)及び椎間体配置(例えば、1610)を計画することを許容する。インプラントは、事前計画タブで行われた選択に基づいて、システムに(例えば、定義された特性で)予めロードされ、画面の右側に表示される。
ナビゲートタブにより、ユーザは、患者の解剖学的構造に対するナビゲートされた器具軌道及び計画された軌道を視覚化することが許容される。いくつかの実施形態による、例示的なユーザインターフェースを図17に示す。所望のインプラントラベルを画面の右側に選択することができる。
画像タブ
画像のロード
画像タブは、CTスキャン画像をロードするために必要なステップを示す。いくつかの実施形態による、例示的なユーザインターフェースを図18に示す。画像は、例えば、USBドライブ、ハードドライブ、又はネットワーク化されたデバイスからロードされ得る。イーサネット(登録商標)を通して画像が転送される場合、転送が完了したときに、ハードドライブ上に自動的に現れ得る。
計画タブにより、ユーザが、患者画像上のすべてのスクリュー軌道及び椎体間配置を計画することが許容される。いくつかの実施形態による、例示的なユーザインターフェースを図19に示す。インプラントは、事前計画タブで行われた選択に基づいて、スクリーンの右側に予めロードされている(例えば、システムに事前定義された特性)。
ナビゲートタブにより、ユーザは、インプラント計画に従って、患者の解剖学的構造に対するナビゲートされた器具及び軌道の整列を視覚化することができる。
例えば、図20に示されるように、いくつかの実施形態によれば、別の表示画面は、術前CT画像を位置合わせするために蛍光透視画像の捕捉が可能になる前に、完了すべき3つのステップを強調表示する。ステップは、DRBを挿入し、Cアーム撮像デバイスのCアームを位置付けし、監視マーカをカメラナビゲーションシステムで位置合わせすることができる。アニメーションを使用して、ステップを視覚的に描写することができる。
動作は、術中蛍光透視画像を、計画した各レベルについて、前後方向(anteroposterior、AP)と横方向に1枚ずつ取得する。同じ画像を、複数のレベルについて使用することができる。
位置合わせが完了した後、位置合わせが正常に計算されたことを動作上確実にするために、ランドマークチェック又は検証を実行することができる。検証プローブを使用して、解剖学的ランドマークに触れ、対応する場所がシステムモニタ上に示されていることを検証する。このプロセスは、例えば、2~3つのランドマークを使用して繰り返すことができる。
図25を参照すると、ユーザは、画面の右側で所望のインプラントラベルを選択する。リアルタイム器具/インプラント軌道(実際の計画)は、計画されたスクリューとともに患者画像上に表示されるように更新され、ユーザが所望の軌道を確認することが許容される。リアルタイム軌道が容認できない場合、ユーザは、計画タブに戻って別の軌道を選択することができる。リアルタイム軌道が容認できる場合、ユーザは、器具の現在の軌道に従って、所望の深さにスクリューを挿入する。
蛍光透視位置合わせ固定物を慎重に取り外す。患者の取り付け器具が移動しないことを確実にする。
画像タブ
位置合わせのセットアップ
図20の画面に実質的に対応し得る、図26に示される1つの画面は、図20について上述したように、蛍光透視画像が患者を位置合わせするために捕捉され得る前に、完了すべき3つのステップを強調表示する。
術中蛍光透視画像は、AP及び横方向で1つずつ取得される。
位置合わせが完了した後、位置合わせが正常に計算されたことを動作上確実にするために、ランドマークチェック又は検証を実行することができる。ナビゲートされた検証プローブを使用して、解剖学的ランドマークに触れ、対応する場所がシステムモニタ上に示されていることを検証する。このプロセスは、例えば、2~3つのランドマークを使用して繰り返すことができる。
次いで、患者取り付け器具が動かないことを確実にしながら、蛍光透視位置合わせ固定物が取り外される。
計画タブにより、ユーザが、患者画像上のすべてのスクリュー軌道及び椎体間配置を計画することが許容される。いくつかの実施形態による、例示的なユーザインターフェースを図28に示す。インプラントは、事前計画タブで行われた選択に基づいて、スクリーンの右側に予めロードされている。
ナビゲートタブにより、ユーザは、患者の解剖学的構造に対するナビゲートされた器具軌道及び計画された軌道を視覚化することが許容される。いくつかの実施形態による、例示的なユーザインターフェースを図29に示す。
図30は、ナビゲートされた外科手術のためのカメラ追跡システム10を含み、かつ任意選択でロボット支援のための外科用ロボットシステムを含み、各々がいくつかの実施形態に従って構成されている、手術室内での外科的処置の間、任意選択で拡張現実(XR)ヘッドセット3150a~3150bを着用している人員の俯瞰図である。
図31は、カメラ追跡システム10及びナビゲーションシステム3604を含み、任意選択で、各々がいくつかの実施形態に従って動作可能である外科用ロボット3102、撮像デバイス3620及びXRヘッドセット3150を更に含む外科用システムのブロック図を示す。
本開示の様々な実施形態の上記説明において、本開示の態様は、任意の新規かつ有用なプロセス、機械、製造、又は組成物、又はそれらの任意の新規かつ有用な改良を含む多数の特許可能なクラス又は文脈のいずれかにおいて本明細書に例示及び説明され得る。したがって、本開示の態様は、完全にハードウェア、完全にソフトウェア(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、又はソフトウェアとハードウェアを組み合わせた実装で実施されてもよく、これらはすべて、本明細書において概して「回路」、「モジュール」、「構成要素」、又は「システム」と称され得る。更に、本開示の態様は、その上に具現化されたコンピュータ可読プログラムコードを有する1つ以上のコンピュータ可読媒体を含むコンピュータプログラム製品の形態を取り得る。
Claims (7)
- 外科手術中のコンピュータ支援ナビゲーションのための外科用システムであって、
患者の標的解剖学的構造及び位置合わせ固定物の基準物のセットの三次元(3D)放射線表現を取得することと、
前記3D放射線表現内の前記基準物のセットの場所を、カメラ追跡システムによって追跡される3D撮像空間に位置合わせすることを試みることと、
前記セットの前記基準物のうちの1つが、前記3D撮像空間に正常に位置合わせされなかった場所を有すると判定することに基づいて、
前記基準物が前記3D撮像空間に正常に位置合わせされていないことを示すグラフィックオーバーレイとともに、前記3D放射線表現の少なくとも1つのビューを表示することと、
前記基準物が前記3D放射線表現内のどこに位置しているかを識別するユーザ供給場所情報を受信することと、
前記ユーザ供給場所情報に基づいて、前記基準物の前記場所を前記3D撮像空間に位置合わせすることと、を行うように動作可能な少なくとも1つのプロセッサを備え、
前記基準物が前記3D放射線表現内のどこに位置しているかを識別するユーザ供給場所情報を受信するための動作が、
前記3D放射線表現及び/又は前記3D撮像空間内の前記基準物の3つの直交ビューを表示することと、
前記3つの直交ビュー内の初期場所にオーバーレイされたグラフィックオブジェクトを表示することと、
ユーザインターフェースを通したユーザからの入力に応答して、前記3つの直交ビュー内の前記グラフィックオブジェクトが表示されている場所を移動させることと、
前記3つの直交ビュー内の前記グラフィックオブジェクトが表示されている場所に基づいて、前記3D放射線表現及び/又は前記3D撮像空間内の前記基準物の場所を判定することと、を含み、
前記基準物の前記場所を前記3D撮像空間に位置合わせするための前記動作が、前記3D放射線表現内の前記基準物の判定された前記場所に基づき、
前記3つの直交ビュー内の前記初期場所にオーバーレイされた前記グラフィックオブジェクトを表示するための前記動作が、
位置合わせ固定物テンプレートによって定義される基準物の相対位置に基づいて、前記基準物の予測場所に対応するように前記初期場所を判定することと、を含む
外科用システム。 - 前記少なくとも1つのプロセッサが、前記3つの直交ビュー内の前記グラフィックオブジェクトが表示されている前記場所を移動させて、前記外科用システムの前記ユーザインターフェースを通して受信された方向の入力を追跡するように更に動作可能である、請求項1に記載の外科用システム。
- 前記少なくとも1つのプロセッサが、
前記カメラ追跡システムのカメラから動画で捕捉されたツールの場所を、前記ツールが、3D画像空間に正常に位置合わせされた前記基準物のうちの1つに向かってユーザによって移動されている間、追跡することと、
前記3D撮像空間内の追跡された前記場所に従って、前記ツールの更新された表現を表示することと、
前記ツールの追跡された前記場所のうちの指定された1つと、前記3D画像空間に位置合わせされた前記基準物のうちの前記1つの前記場所との比較に基づいて、前記3D画像空間に正常に位置合わせされた前記基準物のうちの前記1つの位置合わせ精度を確認することと、行うように更に動作可能である、請求項1に記載の外科用システム。 - 前記3D放射線表現内の前記基準物のセットの場所を前記カメラ追跡システムによって追跡される前記3D撮像空間に位置合わせすることを試みるための動作が、
前記カメラ追跡システムの少なくとも1つのカメラから、前記患者に固定された基準アレイの光学画像を取得することであって、前記基準アレイが、前記3D撮像空間において前記カメラ追跡システムの前記少なくとも1つのカメラによって検出可能な光学マーカのセットを含む、取得することと、
前記光学マーカのセットのパターンの場所を、前記3D放射線表現内の前記基準物のセットのパターンの場所に位置合わせすることを試みることと、
前記位置合わせ固定物の前記基準物のうちのいずれにも正常に位置合わせされていない前記基準アレイの前記光学マーカのうちのいずれかを識別することと、を含む、請求項1に記載の外科用システム。 - 前記動作が、
仮想インプラントデバイスを、前記標的解剖学的構造の前記3D放射線表現のビュー上にオーバーレイとして表示することと、
前記標的解剖学的構造内への前記仮想インプラントデバイスの埋め込み軌道を表す前記仮想インプラントデバイスの軌道のグラフィック表示を表示することと、
前記外科用システムのユーザインターフェースを通して受信されたステアリング入力を追跡するために、前記3D放射線表現の前記ビュー内に表示される前記仮想インプラントデバイスの前記軌道の前記グラフィック表示の姿勢を更新することと、
前記仮想インプラントデバイスの計画軌道として、前記軌道の前記グラフィック表示の前記姿勢のうちのユーザが指定した1つを記憶することと、を行うことを更に含む、請求項1に記載の外科用システム。 - 前記動作が、
インプラント計画のためにユーザによって選択可能なインプラントデバイスのセットを表示することと、
前記ユーザインターフェースを通してユーザによって選択されたユーザ選択可能インプラントデバイスのセットのうちの1つのテンプレートに基づいて、前記仮想インプラントデバイスのグラフィック表現を生成することと、を行うことを更に含む、請求項5に記載の外科用システム。 - 前記動作が、
前記標的解剖学的構造の前記3D放射線表現の前記ビュー上のオーバーレイとして、仮想インプラントデバイスの前記計画軌道を表示することと、
前記カメラ追跡システムの少なくとも1つのカメラから、前記仮想インプラントデバイスに対応する実インプラントデバイスに固定された基準アレイの光学画像を取得することであって、前記基準アレイが、前記3D撮像空間において前記カメラ追跡システムの前記少なくとも1つのカメラによって検出可能な光学マーカのセットを含む、取得することと、
前記実インプラントデバイスが前記患者の前記標的解剖学的構造に対してユーザによって位置付けられている間に、前記光学画像内の前記基準アレイの姿勢に基づいて、前記3D撮像空間内の前記実インプラントデバイスの姿勢を追跡することと、
前記3D撮像空間内の追跡された前記姿勢に従って、前記仮想インプラントデバイスの前記計画軌道に対する前記実インプラントデバイスの更新されたグラフィック表現を表示することと、を行うことを更に含む、請求項5に記載の外科用システム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163176424P | 2021-04-19 | 2021-04-19 | |
US63/176,424 | 2021-04-19 | ||
US17/656,522 US20230081244A1 (en) | 2021-04-19 | 2022-03-25 | Computer assisted surgical navigation system for spine procedures |
US17/656,522 | 2022-03-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022165410A JP2022165410A (ja) | 2022-10-31 |
JP7323672B2 true JP7323672B2 (ja) | 2023-08-08 |
Family
ID=81324951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022067700A Active JP7323672B2 (ja) | 2021-04-19 | 2022-04-15 | 脊椎の処置のためのコンピュータ支援外科用ナビゲーションシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230081244A1 (ja) |
EP (1) | EP4079247A1 (ja) |
JP (1) | JP7323672B2 (ja) |
CN (1) | CN115211962A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115831341B (zh) * | 2023-01-10 | 2023-05-26 | 浙江伽奈维医疗科技有限公司 | 一种手术导航的自适应注册系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019022658A (ja) | 2017-07-21 | 2019-02-14 | グローバス メディカル インコーポレイティッド | ロボット外科用プラットフォーム |
JP2020096795A (ja) | 2018-10-19 | 2020-06-25 | キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc | デバイス対画像レジストレーションアルゴリズムからの結果の可視化及び操作 |
US20210045813A1 (en) | 2019-08-14 | 2021-02-18 | Warsaw Orthopedic, Inc. | Systems, devices, and methods for surgical navigation with anatomical tracking |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2676627B1 (en) * | 2012-04-18 | 2021-07-28 | Medtronic Navigation, Inc. | System and method for automatic registration between an image and a subject |
US20170209225A1 (en) * | 2017-04-10 | 2017-07-27 | Danling Wu | Stereotactic medical procedure using sequential references and system thereof |
US11540767B2 (en) * | 2017-07-03 | 2023-01-03 | Globus Medical Inc. | Intraoperative alignment assessment system and method |
WO2019028021A1 (en) * | 2017-07-31 | 2019-02-07 | Children's National Medical Center | SYSTEM AND METHOD OF LOCATION BASED ON ARTIFICIAL VISION AND HYBRID EQUIPMENT |
WO2019040829A1 (en) * | 2017-08-24 | 2019-02-28 | Amdt Holdings, Inc. | METHODS AND SYSTEMS FOR DETERMINING ADJUSTMENT REQUIREMENTS OF EXTERNAL FIXING DEVICES |
KR20200109292A (ko) * | 2017-08-25 | 2020-09-22 | 쇼우푸 첸 | 치열 교정 응용에서 최적화 방법 |
WO2020163324A1 (en) * | 2019-02-05 | 2020-08-13 | Smith & Nephew Inc. | Methods for improved surgical planning using machine learning and devices thereof |
US11553969B1 (en) * | 2019-02-14 | 2023-01-17 | Onpoint Medical, Inc. | System for computation of object coordinates accounting for movement of a surgical site for spinal and other procedures |
WO2021062001A1 (en) * | 2019-09-24 | 2021-04-01 | Nuvasive, Inc. | Systems and methods for facilitating robotic surgical procedures |
CN114746043A (zh) * | 2019-09-26 | 2022-07-12 | 史赛克公司 | 外科导航系统 |
-
2022
- 2022-03-25 US US17/656,522 patent/US20230081244A1/en active Pending
- 2022-04-15 JP JP2022067700A patent/JP7323672B2/ja active Active
- 2022-04-18 CN CN202210404950.5A patent/CN115211962A/zh active Pending
- 2022-04-19 EP EP22168773.4A patent/EP4079247A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019022658A (ja) | 2017-07-21 | 2019-02-14 | グローバス メディカル インコーポレイティッド | ロボット外科用プラットフォーム |
JP2020096795A (ja) | 2018-10-19 | 2020-06-25 | キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc | デバイス対画像レジストレーションアルゴリズムからの結果の可視化及び操作 |
US20210045813A1 (en) | 2019-08-14 | 2021-02-18 | Warsaw Orthopedic, Inc. | Systems, devices, and methods for surgical navigation with anatomical tracking |
Also Published As
Publication number | Publication date |
---|---|
EP4079247A1 (en) | 2022-10-26 |
CN115211962A (zh) | 2022-10-21 |
JP2022165410A (ja) | 2022-10-31 |
US20230081244A1 (en) | 2023-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7290924B2 (ja) | ロボット外科用プラットフォーム | |
US20230355347A1 (en) | Methods And Systems For Display Of Patient Data In Computer-Assisted Surgery | |
US20240050156A1 (en) | Surgical Systems And Methods For Providing Surgical Guidance With A Head-Mounted Device | |
JP7204663B2 (ja) | 慣性計測装置を使用して手術の正確度を向上させるためのシステム、装置、及び方法 | |
EP3443924B1 (en) | A graphical user interface for use in a surgical navigation system with a robot arm | |
US11357581B2 (en) | Method for using a physical object to manipulate a corresponding virtual object in a virtual environment, and associated apparatus and computer program product | |
EP3375400A2 (en) | Robotic navigation of robotic surgical systems | |
EP3711700B1 (en) | System for neuronavigation registration and robotic trajectory guidance, and related methods and devices | |
EP0571827B1 (en) | System and method for augmentation of endoscopic surgery | |
US20070016008A1 (en) | Selective gesturing input to a surgical navigation system | |
US20210361357A1 (en) | Robot surgical platform | |
JP2021129984A (ja) | 予定の器具アタッチメントの仮想モデルの表示により物理的器具アタッチメントの正しい選択を確実にする | |
JP2021171657A (ja) | 手術中の支援されたナビゲーションのための拡張現実ヘッドセットのカメラによって追跡された参照アレイを備えた手術器具の位置合わせ | |
JP2021194538A (ja) | 基準シードを介した可視光での外科手術での対象の追跡および合成画像登録 | |
JP7323672B2 (ja) | 脊椎の処置のためのコンピュータ支援外科用ナビゲーションシステム | |
JP7282816B2 (ja) | ナビゲートされたロボット外科手術のためのエクステンデッドリアリティ器具相互作用ゾーン | |
EP3733112A1 (en) | System for robotic trajectory guidance for navigated biopsy needle | |
US20220338937A1 (en) | Device For Navigating A Medical Instrument Relative To A Patient Anatomy | |
JP7460714B2 (ja) | 頭蓋外科手術計画システム、制御方法およびコンピュータプログラム製品 | |
US20230368418A1 (en) | Accuracy check and automatic calibration of tracked instruments | |
US20230165640A1 (en) | Extended reality systems with three-dimensional visualizations of medical image scan slices | |
Gieseler et al. | Design of smart tools to support preand intra-operative use of surgical navigation systems: Concepts of microcontroller-based display and actuator modules. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230314 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230727 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7323672 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |