JP2020507383A - 医療用拡大高解像度撮像及び追跡法 - Google Patents

医療用拡大高解像度撮像及び追跡法 Download PDF

Info

Publication number
JP2020507383A
JP2020507383A JP2019541749A JP2019541749A JP2020507383A JP 2020507383 A JP2020507383 A JP 2020507383A JP 2019541749 A JP2019541749 A JP 2019541749A JP 2019541749 A JP2019541749 A JP 2019541749A JP 2020507383 A JP2020507383 A JP 2020507383A
Authority
JP
Japan
Prior art keywords
area
image
tracking
resolution
imaging system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019541749A
Other languages
English (en)
Other versions
JP7280188B2 (ja
Inventor
シュナイダー,ロン
ツァイタウニ,アブラハム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elbit Systems Ltd
Original Assignee
Elbit Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elbit Systems Ltd filed Critical Elbit Systems Ltd
Publication of JP2020507383A publication Critical patent/JP2020507383A/ja
Application granted granted Critical
Publication of JP7280188B2 publication Critical patent/JP7280188B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/542Event management; Broadcasting; Multicasting; Notifications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00119Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Robotics (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Microscoopes, Condenser (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

医療行為用の領域の広視野撮像を実行し、撮り込まれた領域の一部のデジタル的に拡大された画像を提供しながら、全領域内の器具及び組織の追跡を提供する撮像システム及び方法が提供される。光学追跡が、立体撮像によって実行され、様々な要素が、画像処理によって任意に特定可能なある形状及び物体と同様に、様々なマーカー及び基準を任意に追跡する。【選択図】 図1

Description

本発明は、医療用、特には、超高解像度画像に基づいた光学追跡を提供するための、広視野超高解像度拡大デジタル撮像方法の分野に関する。
WIPO公報2014037953号は、当該出願の記載を援用するもので、外科的処置の動画撮り込み及び表示システムを開示しており、一つ以上のレンズに光学的に結合し、外科的処置の場面のビデオシーケンスを撮り込むように構成された少なくとの一つのデジタル画像センサーと、撮り込まれたビデオシーケンスの少なくとも一つの対象領域(ROI)を受信するように構成された少なくとも一つのインターフェースと、電子ディスプレイであって、前記デジタル画像センサーの少なくとも一つが、該電子ディスプレイの画素解像度よりも実質的に大きい画素解像度を有するように選択された電子ディスプレイと、少なくとも一つの撮り込まれたビデオシーケンス及び少なくとも一つの受信されたROIを受信し、少なくとも一つの選択されたROIに基づいて、撮り込まれたビデオシーケンスの一部を、少なくとも一つの電子ディスプレイに表示するように構成されたコンピューター処理装置と、を含んでもよい。
以下は、発明の初期理解を提供する簡易化された概要である。概要は、キー要素を必ずしも識別したり発明の範囲を制限したりせず、以下の記載への導入としてのみ提供される。
本発明の一つの局面は、少なくとも一つの、器具のような要素によって手術される処置領域の可視スペクトル帯/範囲における高解像度デジタル画像を撮り込むステップと、前記撮り込まれた画像から得られた、前記処置領域のデジタル的に拡大されたエリアを表示するステップと、前記撮り込まれた画像内に視認可能な少なくとも一つの器具の位置及び方向(P&O)と追跡するするステップと、を含む方法が提供され、前記器具の追跡機構は、前記撮り込まれた画像に基づき、前記表示の解像度は、前記撮り込まれた画像の解像度よりも小さく、前記追跡は、前記拡大されたエリアの少なくとも外側で実行される。
本発明のこれらの、任意の、及び/又は、他の局面及び/又は利点は、詳細な記載から可能な限り推論できる、及び/又は、本発明の実施によって学習できる以下の詳細な記載に明らかにされる。
本発明の実施形態がより理解され、それがどのように実行されるかを示すために、全体を通して同じ数字が対応する要素又は部分を示す添付の図面を、ただ例示として参照する。添付の図面は以下である。
発明のいくつかの実施形態における、撮像システムの高レベルの模式的なブロック図である。 発明のいくつかの実施形態における、撮像システムの高レベルの模式的なブロック図である。 発明のいくつかの実施形態における、光学ユニットの性能の限定されない例を示す。 発明のいくつかの実施形態における、方法を示す高レベルのフローチャートである。
以下の説明において、本発明の様々な局面が記載される。説明の目的として、本発明の完全な理解を提供するために、特定の構成及び詳細が明らかにされる。しかし、本発明が、ここに表された特定の詳細なしに実施されることは、同業者には明らかであろう。さらに、本発明をあいまいにしないために、既知の特徴が、省略されたり簡易化されたりしている。図面を特に参照して、示されている部分は、例としてのみで、本発明の例示的な検討の目的とのためであり、発明の原理及び概念的な局面の最も有用で容易に理解される記載であると思われるものを提供するために表されることが、強調される。この点において、発明の基礎的な理解に必要とされる以上に詳細に発明の構造的な詳細を示す試みはなされず、図面を伴う記載は、同業者に、発明の様々な形態がどのように具体化されるかを明らかにする。
発明の少なくとも一つの実施形態が詳細に説明される前に、発明は、その適用において、以下の記載に明らかにされた又は図面に示された要素の構成及び配置の詳細に限定されないことが理解されるべきである。発明は、開示された実施形態の組合せと同様に、様々な方法で実施され又は実行される他の実施形態に適用可能である。また、ここに使用される表現及び用語は、説明の目的のためであり、限定としてみなされるべきではないことが理解されるべきである。
他に特別に述べない限り、以下の検討から明らかなように、明細書の検討を通して、「処理する」、「コンピューティングする」、「計算する」、「決定する」、「拡張する」等の用語を使用することは、コンピューティングシステムのレジスター及び/又はメモリー内の物理的な、例えば、電子的な、量として表されるデータを処理し、及び/又は、このデータを、コンピューティングシステムのメモリー、レジスター、又は、他のそのような情報記録装置、伝達装置、又は表示装置内の物理的な量として同様に表される他のデータに変換する、コンピューター又はコンピューティングシステム、又は、同様の電子コンピューティング装置の動作及び/又は処理に関することが認識される。開示されたモジュール又はユニットのいくつかは、少なくとも部分的に、コンピューター処理装置によって実行されてもよい。
本発明の実施形態は、手術領域をデジタル的に拡大するために使用される撮像システムによって、手術処置中の器具及び組織を追跡する、精密、効率的かつ経済的な方法及び機構を提供する。器具及び組織がROI(対象領域)内に視認できない場合でも、それらが全ての処置領域において高解像度で撮像されたFOV(視野)に視認できる場合、器具及び/又は組織を同時に追跡しながら、全画像FOVよりも小さいROIをクロッピングし、それをディスプレイに合うようにサイズを変更することで、画像のデジタル的な拡大を可能とする、医療処置用の高解像度ビデオ撮像を実行する、撮像システム及び方法が提供される。器具及び組織の光学的な追跡は、器具及び組織の立体撮像によって、又は、構造化された光、タイムオブフライト等の方法によって、実行されてもよい。追跡される要素は、画像において明確に識別可能で、画像処理技術を使用して追跡される、ある特徴、色、形状及び物体と同様に、様々なマーカー及び基準であってもよい。
図1は、発明のいくつかの実施形態による、撮像システム100の高レベルの模式的なブロック図である。撮像システム100は、少なくとも一つの器具70(追跡される要素の限定されない例として、任意の物体又は組織の一部も含む)によって手術される、処置領域91の可視スペクトル範囲内のデジタル画像110Aを撮り込むように構成された光学ユニット110と、光学ユニット110によって撮り込まれた画像110Aから、処置領域91内のエリア92(ROI)をデジタル的に拡大し、デジタル的に拡大されたエリア112をディスプレイ125に表示するように構成された画像処理ユニット120と、撮り込まれた画像110Aを用いて処置領域91内の少なくとも一つの器具70の位置及び方向(P&O)を追跡するように構成された追跡ユニット130と、を含む。
画像は、デジタル的に拡大されたエリア112を表示するために使用されるディスプレイ125の解像度よりも著しく高い高解像度で撮り込まれる。例えば、撮り込まれた高解像度は、9000・7000画素(水平値及び垂直値)であり、デジタル的に拡大された値は、4500・2500画素(例えば、ディスプレイのサイズによる)よりも小さい。拡大された解像度の表示のために、撮像システム100は、ディスプレイの解像度に合うようにサイズの変更を実行してもよい。ある実施形態において、高解像度画像は、4500・2500画素よりも低い解像度で撮り込まれ、ディスプレイ解像度は、最大で2000・2000画素であってもよい。ディスプレイ解像度の撮り込まれる解像度に対する比は、1:1よりも小さい任意の比であってもよい。ディスプレイは、例えば、任意の種類のスクリーン又は投影システム、任意の種類の頭部に装着可能なディスプレイ等であってもよい。
画像112は、領域91の高解像度画像からクロッピングされたROIを使用することで生成される(最大高解像度画像は、破線で表される画像111として模式的に示され、その広さはディスプレイのサイズを超えるので、その最大解像度で表示できない)。領域91内の、器具70、及び、物体、粒子、可能性のある組織のような他の要素の追跡は、拡大エリア92の外側で(典型的には、拡大エリア92の内側と同様に)実行され、表示された拡大エリア112を越えたデータの追跡、すなわち、全ての処置領域91を表すエリア111に関連するデータの追跡を提供する。それゆえ、単独の撮像センサーを使用すること、デジタル拡大及び光学追跡の両方が、同じ撮り込まれた画像に基づいて実行される。例えば、撮像システム100は、デジタル的に拡大されたエリア92を、撮り込まれた処置領域91の三分の一よりも小さくして提供し、撮り込まれた処置領域91の残りで追跡を実行するように構成されてもよい。撮像システム100による広範囲の追跡は、付加的な追跡システムを余剰とし、同様に追跡のための同じ撮像システム100を用いることで、追跡の正確さと簡易化を強調する。
光学システム110及び撮り込まれた画像110Aは、立体視的であってもよく、追跡は、立体3D(三次元)画像情報に応じて実行されてもよい。デジタル画像は、立体視画像処理、構造化された光撮像及び又はタイムオブフライト撮像から得られた深度及び/又は3Dデータを含んでもよい。
器具70は、基準71を含んでもよく、P&O追跡は、器具の基準71に対して実行されてもよい。あるいは又は補足的には、P&O追跡は、形、色、特定の部分要素のような、器具70の様々な特徴に対して実行されてもよい。処置領域91は、組織マーカー(又は可能性のある基準)81を含んでもよく、追跡ユニット130は、さらに、撮り込まれた画像110Aを用いて、処置領域91内の組織マーカー81を追跡するように構成されてもよい。あるいは又は補足的には、P&O追跡は、形、色、特定の部分要素のような、処置領域91の様々な特徴に対して実行されてもよい。基準71及びマーカー81は、従来当該技術で使用されている任意の種類であってよい。追跡が光学撮像に基づくと、組織部位及び/又は器具部位の形状は、基準71及び/又はマーカー81の必要なく、又は、追跡がそれらのみに基づく場合に必要とされるよりも少ない基準71及びマーカー81を用いて、追跡のために使用されてもよい。例えば、特定の組織の特徴(例えば、血管、ある組織の種類、組織の成長など)及び/又は特定の器具の特徴(例えば、刃又はハンドル部)が、効率的な光学追跡を可能にするために十分に明確な形状を有するとして識別されてもよく、組織及び/又は器具の追跡を実行するように使用されてもよい。追跡ユニット130は、追跡ターゲットを選択して最適化し、対応するデータを提供するように構成されてもよい。
撮像システム100は、器具70及び/又は器具の一部と、特定の組織、他の器具70、外科医の指などとの間の距離及び相対位置のような、器具70の追跡されたP&Oに関連するデータを提供するように構成されてもよい。撮像システム100は、特定された処置において切除されることを意図されていないある組織への器具の刃の接近や、組織に望まれない損傷を引き起こす可能性のある器具70としての切除を伴うレーザーの向きのような、ある状況に対応する警告及び/又はガイダンスを提供するように構成されてもよい。撮像システム100は、望まれた組織に達するように、及び、器具を望まれた経路を通して動かせるように、外科医を補助するガイダンスデータを提供するように構成されてもよい。撮像システム100は、器具70の追跡されたP&Oと処置領域91間との間の特定された空間的な関係に関連する警告及び/又はガイダンスを提供するように構成されてもよい。
撮像システム100は、さらに、領域91を含む領域の画像を撮り込む、広い視野を有する付加的な低解像度カメラを含み、拡大システムの作業FOVの外側及び周囲の粗い追跡データを提供してもよい。
図2Aは、発明のいくつかの実施形態による、撮像システム100の高レベルの模式的なブロック図である。光学ユニット110は、画像110Aを撮り込む複数のカメラ115、117を含み、高解像度カメラ115(それぞれ視野115Aを有する)は、領域91(及び、領域91内のROI92を引き伸ばしてもよい)を撮像し、広域FOBカメラ117(それぞれFOV115Aよりも広いFOV117Aを有する)は、高解像度カメラ115で撮り込まれた画像111と広域FOVカメラ117で撮り込まれた画像113からなる合成画像116を提供するより広い領域93をカバーする。画像111及び113の重複領域は、画像パラメータの校正に使用され、及び/又は、画像116内の画像111及び113間の連続転移を提供するように処理されてもよい。
画像111及び113は、それぞれ寸法a1−a2及びb1−b2を有するように模式的に示されており、例えば、a1及びa2は、1〜10cmであり、b1及びb2は、10〜100cmである。Dで表される、光学ユニット110の典型的な作業距離は、10〜100cmにわたる。
例えば、図2Bは、本発明のいくつかの実施形態による、光学ユニット110の性能の限定されない例を示している。使用される寸法は、Dが約50cm、a1及びa2が約8cm、b1が約35cm、b2が約45cmである。図2Bは、グランドサイン(例えば、a1、a2、b1及びb2)及び深度の精度(限定されない例として、広域FOVカメラに対して0.3〜0.4mmの範囲内、狭域FOVカメラ115に対して、0.035〜0.045mmの範囲内)の変化を示す。
ある実施形態において、追跡(例えば、任意の3D追跡方法による)は、同様に領域93に対して実行されてもよく、画像111及び113間の重複領域は、追跡ユニット130と領域93内で動作するトラッカーとの間の追跡を引き渡す及び/又は校正するために使用されてもよい。ある実施形態において、追跡ユニット130はさらに、広域FOVカメラ117を通して同様に領域93を追跡するように構成されてもよい。
例えば、高解像度カメラ115は、ビデオマイクロスコープの一部でもよく、広域FOVカメラ117は、可視領域及び/又は近赤外領域で動作してもよい。画像処理ユニット120は、高解像度カメラ115の画像111を、可能な限り、CT(コンピューター断層撮影)、MRI(磁気共鳴撮像)等からのデータのようなデータを、それに重ねてディスプレイ125に表示するように構成されてもよい。ある実施形態において、エリア116内の任意の特徴に関連して増強された任意のデータは、ディスプレイ125に投影されてもよい。データのどの部分が重なるべきか、及び、どのように調整するかに関する情報は、追跡ユニット130によるデータの追跡に従って提供されてもよい。例えば、撮像された腫瘍又は脊柱の2D又は3DMRI画像が、追跡ユニット130による追跡データを用いて、高い位置精度で、広域及び狭域FOVカメラ117及び115によって取得された画像116に重ねられてもよい。いくつかの場合、マーカー/基準81は、エリア91の外側及びエリア93の内側であってもよい。そのような場合、カメラ117は、エリア及び/又は組織の追跡のためにマーカー81の画像を撮り込み、カメラ115は、器具70の追跡のために器具70又はマーカー71の画像を撮り込むように構成されてもよい。
いくつかの実施形態において、システム100は、使用されるカメラ115及び/又はカメラ117からの追跡データを使用するように構成されてもよい。両情報源からのデータの追跡が使用可能なエリアにおいて、追跡データは、情報源からのデータを比較することによって、例えば、補間又は他の混合方法によって、改良されて追跡を改良してもよい。ある実施形態において、より正確なデータ(又は一つの情報源からのデータ)は、追跡のために使用され、精度の低いデータ(又は二つ目の情報源からのデータ)は、トラッカー結果のノイズを減少させ、安全性及び/又は他の目的のために、追跡結果を二重に確認するために使用されてもよい。エリア116及び111間の転移において、追跡データは、カメラ115及びカメラ117からのデータを用いて補間されてもよく、可能であれば、追跡エリアがエリア111の中心に向かうほど、カメラ117へのウェイトが減少する。ある実施形態において、カメラ117へのウェイトは、エリア111の中心に達する前にゼロに設定されてもよい。
図3は、発明のいくつかの実施形態による、方法200を示す高レベルのフローチャートである。方法の段階は、方法200を実行するように任意に構成された、上記のシステム100に対して実行される。方法200は、少なくとも一つのコンピューター処理装置によって、少なくとも部分的に実行される。ある実施形態は、ともに実施されるコンピューター読み取り可能プログラムを有するコンピューター読み取り可能な記憶媒体を備え、方法200の適切な段階を実行するように構成された、コンピュータープログラム製品を備える。方法200は、それらの順序に関わりなく、任意の以下の段階のような、撮像システム100を動作させる段階を含んでもよい。
方法200は、少なくとも一つの器具によって手術される処置領域の可視スペクトル範囲内の高解像度デジタル画像を撮り込むこと(段階210)、撮り込まれた画像から得られた、処置領域のデジタル的に拡大されたエリアを表示すること(段階220)、及び、撮り込まれた画像を用いて処置領域内の少なくとも一つの器具の位置及び方向(P&O)を追跡すること(段階230)を含んでもよく、ここで、追跡は、拡大されたエリアの少なくとも外側で実行される(段階235)。ディスプレイの解像度は、撮り込み高解像度よりも小さく、例えば、デジタル的に拡大されたエリアは、撮り込まれた処置領域よりも、任意の係数(例えば、1.5、2、3、5及びそれ以上)だけ小さくてもよく、追跡230は、全処置領域にわたって実行されてもよい。
方法200は、撮り込まれた画像を用いて、器具の基準及び/又は器具の部位の形状を追跡することを含んでもよい(段階232)。方法200は、処置領域内の組織マーカー及び/又は組織の部位の形状を追跡することを含んでもよい(段階234)。
方法200は、追跡のために、立体的又は構造化された光デジタル画像を使用することを含んでもよい(段階240)。例えば立体撮像、構造化された光撮像及び/又はタイムオブフライト撮像から得られた、深度データ又は3D情報の任意の種類は、デジタル画像に取り込まれてもよい。
方法200は、器具の追跡されたP&Oに関するデータの提供を含んでもよく(段階250)、可能であれば、器具の追跡されたP&Oと処理領域間の空間的な関係に関する警告及び/又はガイダンスを提供することを含んでもよい(段階255)。
方法200は、広域FOV(視野)カメラによって、デジタル的に拡大されたエリアの周囲のエリアを撮り込むことを含んでもよく(段階260)、デジタル的に拡大されたエリア及び撮り込まれた周囲のエリアを含む画像を提供することを含んでもよい(段階265)。方法200は、さらに、提供された画像を外部撮像データで増強することを含んでもよく(段階270)、追跡されたP&Oに従って外部撮像データの表示された位置を調整することで、外部撮像データに対する遅延を任意に補償することを含んでもよい(段階275)。
撮像システム100及び方法200は、WIPO公報2014/037953号に記載されたようなシステム及び方法において実行されてもよく、WIPO公報201403795号に記載された要素を取り込んでもよい。
本発明の局面は、発明の実施形態に係る方法、装置(システム)及びコンピュータープログラム製品のフローチャート図、及び/又は、部分図を参照して上記される。フローチャート図及び/又は部分図の各部分、及び、フローチャート図及び/又は部分図の一部の組合せは、コンピュータープログラムの命令によって実行可能であることが理解される。これらのコンピュータープログラムの命令は、汎用コンピューター、専用コンピューター、又は、他のプログラム可能なデータ処理装置の処理装置に提供されて、機械が製造されてもよく、コンピューター又は他のプログラム可能な処理装置を介して実行される命令は、フローチャート及び/又は、部分図又はその一部に特定された機能/動作を実行する手段を生成する。
これらのコンピュータープログラムの命令は、コンピューター、他のプログラム可能なデータ処理装置、又は、他の機器に命令することのできるコンピューター読み取り可能な媒体に保存されて、特定の方法で機能され、コンピューター読み取り可能媒体に保存された命令は、フローチャート、及び/又は、部分図又はその一部に特定された機能/動作を実行する命令を含む製造品を生産する。
コンピュータープラグラムの命令は、コンピューター、他のプログラム可能なデータ処理装置、又は他の機器に読み込まれ、コンピューター、他のプログラム可能な装置又は他の機器で実行される一連の動作ステップを生じさせ、コンピューターで実行されたプロセスを発生してもよく、コンピューター又は他のプログラム可能な機器で実行される命令は、フローチャート、及び/又は、部分図又はその一部に特定された機能/動作を実行するためのプロセスを提供する。
上記のフローチャート及び図は、本発明の様々な実施形態による、システム、方法及びコンピュータープログラム製品の実行可能な構成、機能性及び動作を示している。この点において、フローチャート及び部分図の各部は、特定の論理機能を実行するための一つ以上の実行可能な命令を含む、モジュール、セグメント、コードの一部を表してもよい。いくつかの他の実行において、その部分に記された機能は、図に記された順序以外で起こる得ることも特筆される。例えば、含まれる機能性に応じて、連続して示される2つの部分は、実際、実質的に同時に実行され、又は、それらの部分は、いくつかの場合は、逆の順序で実行されてもよい。部分図及び又はフローチャート図の各部分、及び、部分図及び/又はフローチャート図の部分の組合せは、特定された命令又は動作、又は、専用ハードウェア及びコンピューターの命令の組合せを実行する、専用ハードウェアベースのシステムによって実行可能であることも特筆される。
上記の記載において、実施形態は、発明の例又は実行を示す。「一つの実施形態」、「実施形態」、「ある実施形態」又は「いくつかの実施形態」の様々な出現は、必ずしも全てがいくつかの実施形態に関与しない。発明の様々な特徴が、一つの実施形態の文脈に記載されているが、特徴は、別々に、又は、任意の適切な組み合わせで提供されてもよい。逆に、発明は、ここでは明確化のために別々の実施形態の文脈に記載されているが、発明は、一つの実施形態に実行されてもよい。発明のある実施形態は、上記の異なる実施形態から特徴を含んでもよく、ある実施形態は、上記の他の実施形態から要素を取り込んでもよい。特定の実施形態の文脈における発明の要素の開示は、特定の実施形態のみへのそれらの使用を限定すると解釈されるべきではない。さらに、発明は様々な方法で実行され、又は、実施されることが可能であり、発明は、上記に概略したもの以外のある実施形態に実行可能であることが理解されるべきである。
発明は、これらの図面、又は、対応する記載に限定されない。例えば、フローは、各図示されたボックス又は状態を通して、又は、図示されて記載されているものと正確に同じ順序で移動する必要はない。ここに使用された技術的及び科学的な用語の意味は、他に定義されなければ、発明が属する分野の同業者によって共通に理解されるべきである。発明は、限られた数の実施形態に対して記載されているが、それらは、発明の範囲において限定として解釈されるべきではなく、むしろ、好ましい実施形態のいくつかの例示である。他の可能な変形、改造、及び適用も、発明の範囲内である。したがって、発明の範囲は、記載されたものに限定されず、添付された請求項及びそれらと法的に等価なものによって限定されるべきである。

Claims (22)

  1. 少なくとも一つの要素によって手術される処置領域の可視スペクトル帯における高解像度デジタル画像を撮り込むステップと、
    前記撮り込まれた画像から得られた、前記処置領域のデジタル的に拡大されたエリアを表示するステップと、
    前記撮り込まれた画像を用いて、前記処置領域内の前記少なくとも一つの要素の位置及び方向(P&O)を追跡するステップと、を含み、
    前記表示の解像度は、前記撮り込まれた画像の解像度よりも小さく、
    前記追跡ステップは、前記拡大されたエリアの少なくとも外側で実行される、方法。
  2. 前記撮り込まれた高解像度画像は、そのより大きい寸法において少なくとも4000画素であり、前記表示の解像度は、そのより大きい寸法において最大で2000画素である、請求項1の方法。
  3. 前記表示ステップは、頭部に装着可能なディスプレイで実行される、請求項1の方法。
  4. 前記デジタル画像は、立体撮像、構造化された光撮像、及び、タイムオブフライト撮像の少なくとも一つから得られた深度データを含む、請求項1の方法。
  5. 前記少なくとも一つの要素は、少なくとも一つの器具を含む、請求項1の方法。
  6. 前記少なくとも一つの器具は、少なくとも一つの基準を含み、前記追跡ステップは、前記少なくとも一つの基準に対して行われる、請求項5の方法。
  7. さらに、前記少なくとも一つの器具の前記追跡されたP&Oと前記処置領域との間の空間的な関係に関する警告又はガイダンスを提供するステップを含む、請求項5の方法。
  8. 前記処置領域は、組織マーカーを含み、さらに、前記撮り込まれた画像を用いて前記処置領域内の前記組織マーカーを追跡するステップを含む、請求項1の方法。
  9. さらに、広域FOV(視野)カメラを用いて、前記デジタル的に拡大されたエリアの周囲及び該エリアを含むエリアを任意に撮り込むステップと、前記任意に撮り込まれたデータを前記追跡に使用するステップと、を含む、請求項1の方法。
  10. 前記広域FOVカメラは、近赤外線帯で作動する、請求項9の方法。
  11. さらに、前記画像を外部撮像データで増強するステップを含む、請求項9の方法。
  12. さらに、前記追跡されたP&Oに従って、前記外部撮像データの表示された位置を調整することで、前記外部撮像データに対する遅延を補償するステップを含む、請求項11の方法。
  13. 少なくとも一つの器具で手術される、処置領域の可視スペクトル帯における高解像度デジタル画像を撮り込むように構成された光学ユニットと、
    前記光学ユニットによって撮り込まれた画像から、前記処置領域内のエリアをデジタル的に拡大し、前記デジタル的に拡大されたエリアをディスプレイに表示するように構成され、前記ディスプレイの解像度が、前記撮り込まれた高解像度よりも小さい、画像処理ユニットと、
    前記撮り込まれた画像を用いて前記処置領域内の前記少なくとも一つの器具の位置及び方向(P&O)を追跡するように構成され、前記追跡が、前記拡大されたエリアの少なくとも外側で実行される、追跡ユニットと、を含む撮像システム。
  14. 前記ディスプレイは、頭部に装着可能なディスプレイである、請求項13の撮像システム。
  15. 前記撮り込まれた高解像度画像は、そのより大きい寸法において少なくとも4000画素であり、前記ディスプレイの解像度は、そのより大きい寸法において最大で2000画素である、請求項13の撮像システム。
  16. 前記光学ユニット及び前記撮り込まれた画像は、立体的であり、構造化された光を使用し、及び/又は、タイムオブフライトデータを取り込む、請求項13の撮像システム。
  17. 前記少なくとも一つの器具は、少なくとも一つの基準を含み、前記P&O追跡は、前記少なくとも一つの器具の基準に対して実行される、請求項13の撮像システム。
  18. 前記処置領域は、組織マーカーを含み、前記追跡ユニットは、さらに、前記撮り込まれた画像を用いて前記処置領域内の前記組織マーカーを追跡するように構成されている、請求項13の撮像システム。
  19. さらに、前記少なくとも一つの器具の前記追跡されたP&Oと前記処置領域との間の空間的な関係に関する警告又はガイダンスを提供するように構成されている、請求項13の撮像システム。
  20. 前記光学ユニットは、さらに、前記デジタル的に拡大されたエリアの周囲のエリアを撮り込むように構成された広域FOVカメラを含み、前記画像処理ユニットは、さらに、前記デジタル的に拡大されたエリア及び撮り込まれた周囲のエリアを含む画像を提供するように構成されている、請求項13の撮像システム。
  21. 前記画像処理ユニットは、さらに、前記提供された画像を、外部撮像データで増強するように構成されている、請求項20の撮像システム。
  22. 前記画像処理ユニットは、さらに、前記追跡されたP&Oに従って前記外部撮像データの表示された位置を調整することで、前記外部撮像データに対する遅延を補償するように構成されている、請求項21の撮像システム。
JP2019541749A 2017-02-02 2018-01-31 医療用拡大高解像度撮像方法及び撮像システム Active JP7280188B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IL250432A IL250432A0 (en) 2017-02-02 2017-02-02 Magnified imaging with high resolution and traceability for medical use
IL250432 2017-02-02
PCT/IL2018/050107 WO2018142397A1 (en) 2017-02-02 2018-01-31 Magnified high resolution imaging and tracking for medical use

Publications (2)

Publication Number Publication Date
JP2020507383A true JP2020507383A (ja) 2020-03-12
JP7280188B2 JP7280188B2 (ja) 2023-05-23

Family

ID=62454747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019541749A Active JP7280188B2 (ja) 2017-02-02 2018-01-31 医療用拡大高解像度撮像方法及び撮像システム

Country Status (7)

Country Link
US (1) US11823374B2 (ja)
EP (1) EP3576664A4 (ja)
JP (1) JP7280188B2 (ja)
CN (1) CN110461268B (ja)
CA (1) CA3052396A1 (ja)
IL (1) IL250432A0 (ja)
WO (1) WO2018142397A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021194539A (ja) * 2020-06-09 2021-12-27 グローバス メディカル インコーポレイティッド 外科手術中のコンピュータ支援ナビゲーション用のカメラ追跡バー

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110192390A (zh) 2016-11-24 2019-08-30 华盛顿大学 头戴式显示器的光场捕获和渲染
US11287874B2 (en) 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
US20200186786A1 (en) * 2018-12-06 2020-06-11 Novarad Corporation Calibration for Augmented Reality
US11237627B2 (en) 2020-01-16 2022-02-01 Novarad Corporation Alignment of medical images in augmented reality displays
US11153555B1 (en) * 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
DE102021102274A1 (de) * 2021-02-01 2022-08-04 B. Braun New Ventures GmbH Chirurgisches Assistenzsystem mit Operationsmikroskop und Kamera und Darstellungsverfahren

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004177782A (ja) * 2002-11-28 2004-06-24 Keyence Corp 拡大観察装置、拡大画像観察方法、拡大観察装置操作プログラムおよびコンピュータで読み取り可能な記録媒体
JP2008126063A (ja) * 2006-11-17 2008-06-05 General Electric Co <Ge> フルオロスコピィ画像投影への用具及び/又は埋植物の統合を備えた医用ナビゲーション・システム並びに方法
US20090245600A1 (en) * 2008-03-28 2009-10-01 Intuitive Surgical, Inc. Automated panning and digital zooming for robotic surgical systems
US20120184846A1 (en) * 2011-01-19 2012-07-19 Duke University Imaging and visualization systems, instruments, and methods using optical coherence tomography
JP2013248387A (ja) * 2012-06-01 2013-12-12 Xerox Corp 呼吸速度推定のためのビデオプロセッシング
JP2014131552A (ja) * 2013-01-07 2014-07-17 Akira Takebayashi 医療支援装置
WO2015131088A1 (en) * 2014-02-27 2015-09-03 University Surgical Associates, Inc. Interactive display for surgery
US20160183799A1 (en) * 2011-09-23 2016-06-30 Dexcom, Inc. Systems and methods for processing and transmitting sensor data

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5766016A (en) * 1994-11-14 1998-06-16 Georgia Tech Research Corporation Surgical simulator and method for simulating surgical procedure
US5836869A (en) 1994-12-13 1998-11-17 Olympus Optical Co., Ltd. Image tracking endoscope system
US20120321759A1 (en) * 2007-01-05 2012-12-20 Myskin, Inc. Characterization of food materials by optomagnetic fingerprinting
JP2010142381A (ja) 2008-12-17 2010-07-01 Scalar Corp 内視鏡手術用ヘッドマウントディスプレイ、及び内視鏡手術システム
GB2491766A (en) * 2010-02-26 2012-12-12 Myskin Inc Analytic methods of tissue evaluation
JP2012103315A (ja) * 2010-11-08 2012-05-31 Three M Innovative Properties Co 浮いている合成画像を提供可能なマイクロレンズ積層体
WO2015023990A1 (en) * 2013-08-15 2015-02-19 The Trustees Of Dartmouth College Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance
US9642606B2 (en) * 2012-06-27 2017-05-09 Camplex, Inc. Surgical visualization system
IL221863A (en) 2012-09-10 2014-01-30 Elbit Systems Ltd Digital video photography system when analyzing and displaying
IL229527A (en) 2013-11-21 2015-06-30 Elbit Systems Ltd A wide-field medical tracking system
CN106029000A (zh) * 2014-02-21 2016-10-12 阿克伦大学 用于引导医疗干预的成像和显示系统
JP2016115965A (ja) * 2014-12-11 2016-06-23 ソニー株式会社 医療用眼鏡型表示装、情報処理装置及び情報処理方法
US9645379B2 (en) * 2014-12-29 2017-05-09 Novartis Ag Magnification in ophthalmic procedures and associated devices, systems, and methods

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004177782A (ja) * 2002-11-28 2004-06-24 Keyence Corp 拡大観察装置、拡大画像観察方法、拡大観察装置操作プログラムおよびコンピュータで読み取り可能な記録媒体
JP2008126063A (ja) * 2006-11-17 2008-06-05 General Electric Co <Ge> フルオロスコピィ画像投影への用具及び/又は埋植物の統合を備えた医用ナビゲーション・システム並びに方法
US20090245600A1 (en) * 2008-03-28 2009-10-01 Intuitive Surgical, Inc. Automated panning and digital zooming for robotic surgical systems
US20120184846A1 (en) * 2011-01-19 2012-07-19 Duke University Imaging and visualization systems, instruments, and methods using optical coherence tomography
US20160183799A1 (en) * 2011-09-23 2016-06-30 Dexcom, Inc. Systems and methods for processing and transmitting sensor data
JP2013248387A (ja) * 2012-06-01 2013-12-12 Xerox Corp 呼吸速度推定のためのビデオプロセッシング
JP2014131552A (ja) * 2013-01-07 2014-07-17 Akira Takebayashi 医療支援装置
WO2015131088A1 (en) * 2014-02-27 2015-09-03 University Surgical Associates, Inc. Interactive display for surgery

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021194539A (ja) * 2020-06-09 2021-12-27 グローバス メディカル インコーポレイティッド 外科手術中のコンピュータ支援ナビゲーション用のカメラ追跡バー
JP7376533B2 (ja) 2020-06-09 2023-11-08 グローバス メディカル インコーポレイティッド 外科手術中のコンピュータ支援ナビゲーション用のカメラ追跡バー

Also Published As

Publication number Publication date
EP3576664A1 (en) 2019-12-11
CN110461268B (zh) 2021-06-25
US11823374B2 (en) 2023-11-21
WO2018142397A1 (en) 2018-08-09
EP3576664A4 (en) 2020-12-02
US20200242755A1 (en) 2020-07-30
JP7280188B2 (ja) 2023-05-23
IL250432A0 (en) 2017-06-29
CN110461268A (zh) 2019-11-15
CA3052396A1 (en) 2018-08-09

Similar Documents

Publication Publication Date Title
JP2020507383A (ja) 医療用拡大高解像度撮像及び追跡法
US20240080433A1 (en) Systems and methods for mediated-reality surgical visualization
US20240000295A1 (en) Light field capture and rendering for head-mounted displays
US10706610B2 (en) Method for displaying an object
US20140022283A1 (en) Augmented reality apparatus
US9750399B2 (en) Real-time depth estimation from monocular endoscope images
US20160163105A1 (en) Method of operating a surgical navigation system and a system using the same
CN106796344A (zh) 锁定在感兴趣对象上的放大图像的头戴式显示
JP2006320722A (ja) 対象領域の2d撮像の表示範囲の拡張方法
JP2008532602A (ja) 外科手術ナビゲーションと顕微鏡による可視化の方法と装置
CN108778143B (zh) 用于将腹腔镜图像与超声图像进行叠加的计算设备
US20120050277A1 (en) Stereoscopic image displaying method and device
EP2641402B1 (en) Visualisation of images and video for autostereoscopic display
US10631948B2 (en) Image alignment device, method, and program
CN111161143A (zh) 一种光学定位技术辅助的手术视野全景拼接方法
WO2015053319A1 (ja) 画像処理装置、及び手術顕微鏡システム
Bichlmeier et al. Virtual window for improved depth perception in medical AR
US20230015060A1 (en) Methods and systems for displaying preoperative and intraoperative image data of a scene
US20230147711A1 (en) Methods for generating stereoscopic views in multicamera systems, and associated devices and systems
EP4322114A1 (en) Projective bisector mirror
US20230355319A1 (en) Methods and systems for calibrating instruments within an imaging system, such as a surgical imaging system
JP6396114B2 (ja) 医用画像処理装置
Mitsuhiro HAYASHIBE et al. Medicine Meets Virtual Reality 11 117 JD Westwood et al.(Eds.) IOS Press, 2003

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220307

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221223

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230511

R150 Certificate of patent or registration of utility model

Ref document number: 7280188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150