JP2021522931A - 機械学習を使用する手術中の自動腫瘍識別 - Google Patents

機械学習を使用する手術中の自動腫瘍識別 Download PDF

Info

Publication number
JP2021522931A
JP2021522931A JP2020563492A JP2020563492A JP2021522931A JP 2021522931 A JP2021522931 A JP 2021522931A JP 2020563492 A JP2020563492 A JP 2020563492A JP 2020563492 A JP2020563492 A JP 2020563492A JP 2021522931 A JP2021522931 A JP 2021522931A
Authority
JP
Japan
Prior art keywords
live
image
contours
tumor
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020563492A
Other languages
English (en)
Other versions
JP7418352B2 (ja
JPWO2019219387A5 (ja
Inventor
ファイク キャン メラル
ファイク キャン メラル
シャム バラット
シャム バラット
ラモン クイード エルカンプ
ラモン クイード エルカンプ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2021522931A publication Critical patent/JP2021522931A/ja
Publication of JPWO2019219387A5 publication Critical patent/JPWO2019219387A5/ja
Priority to JP2023142788A priority Critical patent/JP2023165737A/ja
Application granted granted Critical
Publication of JP7418352B2 publication Critical patent/JP7418352B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0808Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0891Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/468Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Neurology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Quality & Reliability (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

超音波システムは、USスキャナとUSスキャナに動作可能に接続されたUSプローブとを含む。少なくとも1つの電子プロセッサは、患者の関心領域内の腫瘍及び周囲血管の一連の術前画像を取得するためにUSスキャナ及びUSプローブを制御し、取得された術前画像がROI内の腫瘍及び周囲血管の輪郭でラベル付けされるグラフィカルユーザインタフェースを提供し、患者調整トレーニングニューラルネットワークを生成するようにラベル付けされた術前画像を用いて患者に対してトレーニングされたニューラルネットワークを調整し、患者のROI内の腫瘍及び周囲血管のライブ画像を取得するようにUSスキャナ及びUSプローブを制御することによりライブ撮像を実行し、腫瘍及び周囲血管のライブ輪郭を出力するために患者調整トレーニングNNにライブ画像を入力し、ライブ輪郭を重ね合わせたライブ画像を表示するように表示装置を制御するようにプログラムされる。

Description

以下は、広くは、画像ガイド介入処置、画像ガイド神経外科、画像ガイド脳外科、超音波撮像技術、超音波プローブ追跡技術、超音波画像表示、及び関連技術に関する。
脳神経外科手術における術前磁気共鳴撮像(MRI)は、腫瘍の外科的切除に先立って病理を識別し、手術を計画するために使用される通常の標準である。1つ又は複数の腫瘍及び周囲血管系は、術前MR画像上でセグメント化され、術前計画に使用される。神経ナビゲーションは、脳神経外科手術の際に使用され、外科医が開頭術により病理に至る通り道をナビゲートことを可能にする。光学的追跡のような高精度追跡技術は、神経ナビゲーションのための手術ツールを追跡するために使用される。追跡情報は、外科医が頭蓋骨内をナビゲートし、術前撮像に基づいて計画通りに手術を実行することができるように、患者及び術前画像に対して位置合わせされる。しかしながら、いくつかの因子が、手術中に脳を変形させ、神経ナビゲーションのための術前撮像の有用性を減少させる。この現象は、脳神経外科行為でよく知られており、通常、脳シフトは開頭術で始まり、その後の硬膜(脳組織を適所に保持する太い線維膜)の除去後に顕著になる。脳シフトを引き起こすことができる他の因子は、腫脹、重力、腫瘍切除、及び脳脊髄液ドレナージを含む。一般的に言えば、脳シフトは、処置を通して常に悪化する。
術中又は「ライブ」撮像は、脳シフトを明らかにし、手術計画を修正し、更新するように外科医をガイドすることができる。利用可能なモダリティの中で、MRIは、優れた画質及び解像度を提供する。しかしながら、これは、外科手術フローに悪影響を及ぼし(鉄系金属は、室内で見つけられることができず、他の金属は、撮像領域の近くに配置されることができず、したがって、広範囲の患者の準備が、各術中MRI画像取得に対して必要である)、時間がかかり(MRシーケンスは45分を要する)、ハイエンド手術室を除いて利用不可能である。他方で、術中超音波(US)は、MRIほど問題を起こさず(金属に関する制限はなく、広範囲の患者準備もない)、リアルタイム画像視覚化で分単位で実行されることができ、幅広く利用可能である。しかしながら、USの画質及び解像度は、MRIと比較して貧弱であり、MRIに対するUSの位置合わせは、単純なタスクではなく、全ての腫瘍がUS撮像において可視であるわけではない。
術中超音波を使用する際のこれらの困難に対応するために、初期(術前)超音波画像が、開頭術後であるが硬膜を除去する前に取得される。硬膜が依然として定位置の状態で、脳シフトは、最小限であり、術前US画像は、術前MRIと良好に位置合わせされる。このような画像位置合わせは、外科医に、腫瘍の重ねられたセグメンテーションと一緒に見られる場合に腫瘍が超音波下でどのように見えるかの視覚的理解を提供する。硬膜を除去した後に、術前MR画像に対する超音波の剛体位置合わせは、通常、術中ナビゲーションに対して十分に正確ではない。この点で、セグメンテーションは、術中(すなわち、ライブ)画像の解釈を助けるために、術中超音波画像の上に重ねて提示されることができるが、ライブ画像に対するセグメンテーションの位置合わせは、準最適位置合わせのためにあまり正確ではないかもしれない。
脳シフト後、術前のMRI腫瘍セグメンテーション及びUS画像上の重ね合わせは、US画像は変形後の組織を表示するが、セグメンテーションは変形していない組織に対するものであるため、無効になる。この点で、US及びMRIの画像解釈、並びに特定の腫瘍が解剖学的構造内でどのように位置し、どのように変形するかの理解における、外科医の経験は、区別因子であり、変形された脳組織の術中US画像に基づいて、何が残存腫瘍であり、何がそうではないかを外科医が決定するのを助ける。
様々な非剛体位置合わせ技術が、脳シフトの存在下での脳外科手術のための術中USの使用可能性の問題に取り組むために、研究者により使用されているが、成功は限られている。第1の例示的な技法では、術前MR画像が、術中超音波画像に基づいて変形されるが、このアプローチは、ほとんどの場合、平面に対応する2次元(2D)超音波画像が使用され、平面外方向の変形を捕捉しないため、かなりの不正確さをもたらす可能性がある。第2の例示的な技法では、変形した脳組織の光学表面スキャンは、有限要素モデリングによって脳の体積変形を計算するように実行される。このアプローチは、脳の表面に近い病変の視覚化に限られており、より深い病変に関する正確な情報を提供するものではない。
以下は、これらの問題を克服するための新規で改良されたシステム及び方法を開示する。
開示された一態様では、USシステムが、USスキャナと、前記USスキャナに動作可能に接続されたUSプローブとを含む。少なくとも1つの電子プロセッサは、患者の関心領域(ROI)における腫瘍及び周囲血管の一連の術前画像を取得するために前記USスキャナ及びUSプローブを制御し、前記取得された術前画像が前記ROI内の腫瘍及び周囲血管の輪郭でラベル付けされるグラフユーザインタフェース(GUI)を提供し、患者調整されたトレーニングされたニューラルネットワークを生成するように、前記ラベル付けされた術前画像を使用して前記患者に対してトレーニングされたニューラルネットワークを調整し、前記患者のROI内の腫瘍及び周囲血管のライブ画像を取得するために前記USスキャナ及びUSプローブを制御することによりライブ撮像を実行し、前記腫瘍及び周囲血管のライブ輪郭を出力するために前記患者調整されたトレーニングされたNNに前記ライブ画像を入力し、前記ライブ輪郭を重ね合わせた前記ライブ画像を表示するために表示装置を制御するようにプログラムされる。
他の開示された態様では、非一時的記憶媒体が、ライブ脳撮像方法を実行するために、USシステム及び表示装置と動作可能に通信するプロセッサによって読取可能かつ実行可能な命令を記憶する。この方法は、2次元(2D)ライブ脳画像を取得するように前記USシステムを制御するステップと、前記2Dライブ脳画像内に撮像された腫瘍及び周囲血管のライブ輪郭を生成するように、前記2Dライブ脳画像にニューラルネットワークを適用するステップと、前記ライブ輪郭を重ね合わされた前記2Dライブ脳画像を提示するように前記表示装置を制御するステップとを含む。
他の開示された態様では、USシステムが、USスキャナと、前記USスキャナに動作可能に接続されたUSプローブとを含む。少なくとも1つの電子プロセッサは、ROIの2Dライブ画像を取得するように前記USスキャナ及び前記USプローブを制御し、前記2Dライブ画像において撮像された腫瘍及び周囲血管のライブ輪郭を生成するようにニューラルネットワークを前記2Dライブ脳画像に適用し、前記ライブ輪郭を重ね合わされた前記2Dライブ画像を提示するように表示装置を制御するようにプログラムされる。
1つの利点は、脳シフト中に腫瘍位置を決定することにある。
他の利点は、術前腫瘍輪郭と、脳シフト中の術中腫瘍輪郭との間の相関を学習するようにニューラルネットワークをトレーニングするのに機械学習を利用することにある。
他の利点は、外科的処置中の脳シフトによる腫瘍の新しい位置を予測することにある。
他の利点は、脳シフトにより変化した腫瘍輪郭を有するMR画像及びUS画像のオーバーレイを提供することにある。
他の利点は、最初の術前MR画像の取得後にMR撮像を必要とせず、かつ神経外科手術中に腫瘍又は血管の輪郭描出を更新することを必要としない、超音波撮像のみを使用する上述の利点の1つ以上を提供することにある。
他の利点は、利用可能であれば、術中MR画像の形の追加情報が、術中US画像における輪郭推定を改善するために使用されることができる、前述の利点のうちの1つ以上を提供することにある。
他の利点は、利用可能であれば、術中MR画像の手動輪郭形成の形の追加情報が、後の術中US画像における輪郭推定を改善するのに使用されることができる、前述の利点のうちの1つ又は複数を提供することにある。
所与の実施形態は、本開示を読んで理解すると当業者に明らかになるように、前述の利点のいずれも提供しない、1つ、2つ、より多く、又はすべてを提供してもよく、かつ/又は他の利点を提供してもよい。
本開示は、様々な構成要素及び構成要素の取り合わせ、ならびに様々なステップ及びステップの取り合わせの形態をとることができる。図面は、好ましい実施形態を例示する目的のためだけのものであり、本開示を限定するものとして解釈されるべきではない。
一態様による、神経外科に使用するための例示的な超音波(US)画像ガイダンス装置を概略的に示す。 図1の装置の例示的なフローチャート動作を示す。 図1の装置のニューラルネットワークの概略的な例を示す。 図1の装置によって生成された輪郭を有する画像を示す。
画像ガイド脳外科手術では、超音波(US)が、外科的処置中に術中撮像を提供するために一般的に使用される。典型的なワークフローでは、術前MRI画像が取得され、腫瘍及び重要な血管がセグメント化され、手術が計画される。手術の日に、患者が、準備され、頭蓋骨の一部が、脳を包む最も外側の硬膜に対するアクセスを提供するように除去される(すなわち開頭術)。この点で、術前US画像が取得され、表示される。前記US撮像は、カメラ又は他の位置決めセンサを使用して追跡され、前記術前MRI画像に手動で描かれた腫瘍/血管輪郭は、おそらく前記術前MRI画像及びUS画像の剛体空間的位置合わせの後に、前記術前US画像の標示上に重ね合わされる。代わりに、US撮像プローブが、体積の三次元(3D)画像を作成する2Dマトリクスアレイプローブであることができる。この場合、MRIベースのセグメンテーションは、3D体積画像の2Dスライス上の輪郭として、又は3D US体積自体の上の体積(おそらく異なる色符号化及び透明度を有する)として重ね合わせられることができる。前記2Dマトリックスアレイプローブは、空間平均化により滑らかな画像を取得するように追跡されることができる。腫瘍の視覚的外観は、USモダリティ及びMRIでは全く異なるかもしれず、外科医は、切除に対する標的腫瘍を識別するために前記術前US画像を調査する。次いで、硬膜の一部が、脳に対するアクセスを提供するために除去され、外科的腫瘍除去が、開始する。処置を通して断続的に取得されたライブUS画像(すなわち術中)は、前記ライブUS画像に重ね合わせられる前記MRI画像から腫瘍/血管輪郭とともに基準として視覚化される。
しかしながら、例えば、硬膜が切除されると、及び腫瘍組織が切除され、手術の間に腫瘍の大きさを縮小させると、脳が手術中に変形することができるという、脳シフトに関連する問題が生じる。脳シフトは、前記MRIからの重ね合わされた輪郭が、もはや前記ライブUS撮像に示される対応する解剖学的構造の位置を正確に反映しないことをもたらす可能性がある。従来、これは、ライブUS画像におけるシフトを視覚的に(かつ他のフィードバック、例えば触覚フィードバックに基づいて)検出し、シフトを心の中で考慮する外科医によって対処される。術中MRIスキャナが、手術室内で使用可能である場合、更新されたMRI画像が、時折取得され、分割されて、更新されたMRI輪郭を生成してもよい。しかしながら、MRIは、一般に、リアルタイムのライブ撮像を提供することができない。脳腫瘍の外科的除去は、数時間を要する可能性があり、数ミクロンのオーダーの精度が時々必要とされることに留意されたい。脳シフトは、手術の間に徐々に生じる可能性があり、例えば、より多くの腫瘍組織が切除されると、これは、周囲の脳組織の圧力を変化させ、漸進的によりおおきな脳シフトを生じ、これにより、時折の術中MRIは、処置を通したガイダンスに対して十分ではない。
本明細書に開示されるアプローチでは、前記術中US画像から直接的に腫瘍及び主要血管の最新の輪郭を生成するためのトレーニングされたニューラルネットワークが、記載される。これは、脳シフトが外科的処置にわたって徐々に変化しうるので、脳シフトの追跡を可能になる。いくつかの実施形態では、前記MRIからの輪郭は、重ね合わされ続け、前記ニューラルネットワークからのこれらの新たに生成された最新の輪郭も、例えば、異なる色符号化を使用して重ね合わされ、外科医に対して最大限の情報を提供する。
前記ニューラルネットワークのトレーニングは、非常に正確でなければならず、更に、患者特有のばらつきに対応しなければならない。この目的のために、開示されたアプローチは、過去の患者データを使用する前記ニューラルネットワークの初期トレーニング、及び前記術前MRIからの輪郭、又は前記術前US画像において脳神経外科医によって調整された若しくは新たに描出された対応する輪郭でラベル付けされた最初の術前US画像を使用する前記ニューラルネットワークの更新トレーニングを含む患者特有の微調整を採用する。
手術中、前記ニューラルネットワークへの入力データは、2D超音波画像(すなわち、手術中に外科医に視覚的ガイダンスを提供するために使用される術中又は「ライブ」US画像)のシーケンス、又はスライスされることができ、前記ニューラルネットワークにより処理する1つの3D超音波画像又は3D超音波画像のシーケンスであり、代替的には、ネットワークが、入力として3D US体積画像と共に動作するようにトレーニングされることができる。前記ニューラルネットワークの出力は、1つ以上の腫瘍及び/又は血管輪郭である。
前記初期トレーニングのために、適切なトレーニングデータは、グラウンドトゥルース輪郭として機能する対応するMRI由来の腫瘍及び血管輪郭でラベル付けされた術前US画像を使用して、過去の類似した脳手術からを収集されることができる。前記術前US画像は、開頭術後であるが、硬膜に切り込む前、かつ任意の腫瘍組織の除去前に取得されるので、脳シフトは、前記トレーニングデータにおいて無視できるはずである。従来の逆伝搬トレーニングは、前記術前MRI画像内に手動で描かれたグラウンドトゥルース輪郭に最適にマッチする輪郭を出力するように前記ニューラルネットワークをトレーニングするのに使用されてもよい。
前記微調整は、トレーニングデータとして、再びグラウンドトゥルースとして機能する、前記MRI輪郭でラベル付けされた現在の患者の術前画像を使用する。(より正確には、このトレーニングデータは、前記MRI輪郭及び/又は神経外科医によって前記術前US画像において調整される又は新たに描かれる輪郭でラベル付けされた、3D術前US画像を提供するために組み合わされ得る1組の術前2D US画像スライス、又は3D撮像のための2Dマトリックスアレイプローブを使用して得られた3D US体積画像からなる。)前記ニューラルネットワークの初期トレーニングにいおて使用されたのと同じ逆伝搬ベースのトレーニングは、前記微調整を提供するために更新トレーニングにおいて使用されてもよく、結果として得られる微調整されたニューラルネットワークは、現在の患者に特有である。
MRIスキャナが、外科手術室内で利用可能である場合、外科的処置中の様々な時点で追加の微調整ステップを実行することが企図される。例えば、数時間後及び脳腫瘍のかなりの部分の除去後、前記微調整されたニューラルネットワークは、期限切れ(すなわち、手術に必要とされる予測精度を欠いている)であり得、新しいMRI画像が、取得され、対応する現在のUS画像と共に、手動で輪郭を描かれてもよい。次いで、これは、前記ニューラルネットワークの更なる微調整(すなわち、更新トレーニング)のための更新トレーニングデータとして機能する。
いくつかの実施形態では、前記ニューラルネットワークは、現在のUS画像に対して出力された輪郭が前記シーケンス内の以前のUS画像に対して出力された以前の輪郭に依存する再帰型ニューラルネットワーク(RNN)であってもよい。これは、(1)腫瘍が、腫瘍組織摘出により手術の過程でサイズにおいて減少し、(2)この収縮が、緩やかであるという期待を反映している。しかしながら、前記RNNをトレーニングするためには、手術の過程にわたるラベル付けされたシーケンストレーニングデータを持つことが必要であり、これは、時折更新されたMRI(すなわち、グラウンドトゥルース)輪郭ラベルを提供するために、手術室内にMRIスキャナが存在する場合に提供されることができる。
更に他の変形形態では、強化学習(RI)を使用することが企図され、この強化学習では、時折、ライブシーケンスのUS画像が、手動で輪郭描写され、トレーニングされ微調整されたニューラルネットワークによって出力された輪郭に対するこの手動US輪郭の忠実度が、前記ニューラルネットワークの更新トレーニング(すなわち、RI)のための更なるフィードバックとして使用される。いくつかの例では、前記RIが、手動輪郭ではなくMRI主導輪郭を使用して実行されることができる。予測中に前記ニューラルネットワークによって作成されたいかなるエラーも、前記RIによって考慮されることができ、したがって、前記ニューラルネットワークは、その特定のタイプのエラーに対してより保守的であることができる。
一般に、前記ニューラルネットワークは、2D US画像(3D画像を集合的に構成してもよいし、構成しなくてもよい)のシーケンスを入力として受信し、US画像平面の空間基準における1つ又は複数の輪郭を出力するように構成される。任意のニューラルネットワークアーキテクチャが、本明細書に開示される実施形態において使用されうる。
例示的な実施形態では、開示されたアプローチが、術前MRI撮像及び術中US撮像を使用する脳外科手術処置において使用される。神経外科手術ガイダンスのための脳撮像は、器官シフト又は変形が精神的修正又は弾性位置合わせ技術によって十分に調整されることができる多くの他の介入処置と比較して、高い精度を要求する。しかしながら、より一般的には、開示されたアプローチが、器官変形が生じ得、外科的処置の過程にわたって有益に追跡される前立腺、乳房、又は肝臓生検処置のような他のタイプの介入処置において応用を見出してもよい。
図1を参照すると、先行する記載を実施するのに適した例示的な介入撮像装置が、示されている。超音波(US)撮像装置10は、例えば、オランダ、アムステルダムのコーニンクレッカ・フィリップス・エヌ・ヴェから入手可能なEPIQ(登録商標)超音波撮像システム、オランダ、アムステルダムのコーニンクレッカ・フィリップス・エヌ・ヴェから入手可能なUS/MRI融合ガイド前立腺生検のためのUroNav(登録商標)システム、従来の3D撮像(CT、MR、コーンビームCTなど)とのUSの一般的な融合のためのPercuNav(登録商標)システム(アムステルダムのコーニンクレッカ・フィリップス・エヌ・ヴェから入手可能)であってもよく、又は他の市販の又は特注の超音波撮像システムであってもよい。超音波撮像装置10は、超音波撮像を実行するためにUSスキャナ14に動作可能に接続されたUSプローブ12を含む。例示的な超音波プローブ12は、無線接続により、ケーブル配線15を介して超音波撮像システム10と接続される。USプローブ12は、超音波平面内の二次元(2D)画像フレームを取得するセンサアレイ16を含む。外科医又は他のオペレータは、超音波プローブ12のフリーハンドの又は支持された移動によって、前記画像フレームの位置及び向き(すなわち、「姿勢」)を調整することができる。このようなフリーハンドの動きは、USプローブ12(したがって、超音波平面の)並進スイープを伴ってもよく、及び/又はUSプローブ12を軸の周りで回転させることを含んでもよい。USスキャナ14及びUSプローブ12は、患者の一部の2次元又は3次元(2D/3D)画像フレームの「ライブ」連続物を取得するように構成され、各2D画像フレームは、超音波平面の現在の姿勢に対応するか、又は3D撮像の場合には、複数の平面が、考慮されることができる。
USスキャナ14は、また、少なくとも1つの電子プロセッサ20(例えば、マイクロプロセッサ、マイクロコントローラなど)、少なくとも1つのユーザ入力装置(例えば、マウス、キーボード、及び/又はトラックボールなど)22、及び超音波画像及び/又はUSスキャナ設定、及び/又は画像パラメータなどを表示するための表示装置24を含み、かつ/又はこれらと動作可能に接続される。表示装置24は、ユーザ入力装置22からユーザ入力を受け取るための1つ以上のフィールドを含むグラフィカルユーザインタフェース(GUI)26を表示するように構成されている。
少なくとも1つの電子プロセッサ20は、例えば、USスキャナ14を動作して術前US画像を取得し、ライブUS撮像を実行し、撮像方法又はプロセス100を実行して神経外科手術ガイダンスのために患者の画像を取得することを含む開示された動作を実行するために、少なくとも1つの電子プロセッサ20によって読み取り可能かつ実行可能である命令を記憶する非一時的記憶媒体28と動作可能に接続される。前記非一時的記憶媒体は、例えば、ハードディスクドライブ又は他の磁気記憶媒体、ソリッドステートドライブ(SSD)、フラッシュドライブ、電子的に消去可能な読取専用メモリ(EEROM)又は他の電子メモリ、光ディスク又は他の光記憶装置、又はこれらの様々な組合せなどを含んでもよい。いくつかの実施形態では、前記命令を記憶する前記非一時的記憶媒体が、例えば、内部ハードドライブ、SSD、フラッシュメモリ、及び/又は同様のもの形態で、USスキャナ14内に配置される。
いくつかの実施形態では、少なくとも1つの電子プロセッサ20が、腫瘍輪郭を決定するためにトレーニングされたニューラルネットワーク(NN)30を適用するようにプログラムされる。例えば、前記電子プロセッサは、腫瘍輪郭の予測中にリアルタイムで実行するためのグラフィカル処理ユニット(GPU)であることができる。前記少なくとも1つの電子プロセッサは、過去の神経外科患者のUS画像及びグラウンドトゥルースとして機能する手動で描かれた輪郭を使用して、NN30の初期トレーニングを実行するようにプログラムされてもよい。代わりに、前記初期トレーニングが、オフラインで、例えば、USスキャナ14のベンダによって、又はUSスキャナ14のための神経外科画像ガイダンスパッケージ又はアドオンのベンダによって実行されてもよく、トレーニングされたNN30は、前記ベンダから供給され、非一時的記憶媒体28に記憶される。いずれの場合も、トレーニングされたNN30の患者固有の調整は、この調整が各患者に対して実行され、事前トレーニングされたコンポーネントとして供給されることができないので、好ましくは、少なくとも1つの電子プロセッサ20によって実行される。NN30のトレーニング及び患者固有の調整が、計算集約的であるので、少なくとも1つの電子プロセッサ20が、有線又は無線接続(例えば、病院ネットワークとの有線又は無線接続)によって、USスキャナ14と動作可能に接続される遠隔サーバコンピュータ、又はクラウド計算リソース等を有することが企図されている。少なくとも1つの電子プロセッサ20が、遠隔サーバコンピュータを有する場合、ベンダは、NN30のトレーニング及び微調整を改善するために、異なるサイトにおける微調整データに対するアクセスを持ってもよい。NN30は、例えば、ソフトウェア更新として頻繁に更新されてもよい。この構成では、USスキャナ14の電子プロセッサが、患者のUS画像を取得し、ユーザが患者の選択US画像を輪郭描写するGUIを提供するように前記スキャナを動作させ、次いで、この患者固有のトレーニングデータは、供給された患者固有のトレーニングデータを使用してNN30を更新トレーニングすることによって患者固有の調整を実行する遠隔サーバにアップロードされる。いくつかの例示的な例では、NN30が、再帰型NN(RNN)であることができる。いくつかの実施形態では、MR装置32が、更新MR画像内に描かれた輪郭の形態で追加の更新トレーニングデータを提供するようにUSプローブ12及びUSスキャナ14を有する医療環境内に配置されることができる。例えば、NN30は、MRI画像を用いた処置中に前記NNを数回再トレーニングすることによって微調整されることができる。ユーザは、処置中にNN30の微調整を遠隔で実行することができる。
図2を参照すると、撮像方法100の例示的な実施形態が、フローチャートとして概略的に示されている。このプロセスを開始するために、USプローブ12は、スキャンされるべき患者の一部(例えば、脳、又はより詳細には、切除されるべき1つ又は複数の腫瘍を含む脳の領域)の上又は近くに配置される。102において、少なくとも1つの電子プロセッサ20は、神経外科手術を受けようとしている患者の関心領域(ROI)内の腫瘍及び周囲血管の一連の術前画像(例えば、2D、3D、又は4D画像)を取得するために、USスキャナ14及びUSプローブ12を制御するようにプログラムされる。いくつかの例では、前記ROIは、前記患者の脳であることができる。典型的には、動作102が、前記術前US画像における脳シフトの量を最小化するように、開頭術後であるが、硬膜を切断する前に実行される。変形実施形態では、術前US撮像動作102が、開頭術の前に実行されることができる。
104において、少なくとも1つの電子プロセッサ20は、前記取得された術前画像が前記ROI内の腫瘍及び周囲血管の輪郭でラベル付けされるGUI26を提供するようにプログラムされる。いくつかの例では、外科医が、、GUI26上の腫瘍の輪郭をラベル付けするのにユーザ入力装置22を使用することができる。GUI26は、表示装置24上に表示されることができる。前記ユーザは、例えば、マウス又はタッチスクリーンを使用して輪郭を描写し、前記輪郭の周りの点をマークし、次いで、これらの点をスプライン曲線などによって接続するか、又は前記輪郭全体又はその一部を1つ以上の連続線として描いてもよい。他の例では、術前MR画像は、MR装置32で取得され、腫瘍の輪郭は、医療専門家によってユーザ入力装置22を用いて手動でラベル付けされる。処置の開始時に、プローブ12は、術前MR輪郭に位置合わせされ、前記輪郭は、表示装置24上の前記取得されたUS画像に移される。
106において、少なくとも1つの電子プロセッサ20は、トレーニングされたニューラルネットワークを生成するために、異なる患者の類似のROIのMRベースの腫瘍輪郭とともにUS撮像データを用いてNN30をトレーニングするようにプログラムされる。例えば、前記撮像データは、非一時的なコンピュータ可読媒体28から取り出され、前記NNをトレーニングするためにNN30に適用されることができる。動作106は、動作102及び/又は104の前、同時、又は後に実行されることができることが理解されよう。例えばベンダがトレーニングされたNN30を供給する、オフライン構成では、動作106が、動作102、104の前に実行される。
108において、少なくとも1つの電子プロセッサ20は、患者調整トレーニングニューラルネットワークを生成するように、動作102、104において生成されたラベル付けされた2D術前画像を使用して、患者に対してトレーニングされたNN30を調整するようにプログラムされる。いくつかの実施形態では、少なくとも1つの電子プロセッサ20は、(104からの)ラベル付けされた2DライブUS画像を用いて患者調整トレーニングニューラルネットワーク30を更新するようにプログラムされる。加えて、脳神経外科の後半段階で、脳神経外科医が、ライブ撮像上に重ね合わされた輪郭が徐々の脳シフトによりずれた位置になったと疑う場合、追加の患者固有のトレーニングデータは、室内MRI32(利用可能な場合)によって取得された術中画像及び/又はMR画像の手動輪郭描出及びNN30の患者固有の調整を更新するようにこの追加の患者固有のデータに対して繰り返される動作108によって、生成されることができる。
110において、少なくとも1つの電子プロセッサ20は、患者のROI(例えば、脳)内の腫瘍及び周囲血管のライブ(すなわち、術中)画像(例えば、2D画像)を取得するようにUSスキャナ14及びUSプローブ12を制御することによって、ライブ撮像を実行するようにプログラムされる。これらの画像は、外科的処置の間に取得される。前記ライブ撮像は、必ずしも画像の連続ストリームである必要がないことに留意されたい。むしろ、いくつかの実施態様では、前記神経外科医は、前記神経外科医が新しいライブ画像を取得するように腫瘍の視覚化を行うことを望むときはいつでも、USプローブ12を(再)配置してもよい。
112において、少なくとも1つの電子プロセッサ20は、腫瘍及び周囲血管のライブ輪郭を出力するために、患者調整トレーニングNNに前記ライブ画像を入力するようにプログラムされる。他の言い方をすれば、少なくとも1つの電子プロセッサ20は、前記ライブ脳画像において撮像された腫瘍及び周囲血管のライブ輪郭を生成するように前記ライブ脳画像にNN30を適用するようにプログラムされる。このように、外科的処置の間に、腫瘍及び周囲血管の輪郭が、自動的に生成される。これは、USセンサアレイ16が、3D体積に超音波照射することができる場合には直接的に行われてもよく、又はUSプローブ12のフリーハンド又はモーター駆動スイープと併せて行われてもよい。好ましくは、前記画像は、動作112によって出力された輪郭を重ね合わされた状態で表示装置24上に表示され(動作114)、腫瘍及び周囲血管の標示(すなわち、「ライブ」輪郭)とともに介入処置のライブUS撮像を提供する。
一実施形態では、少なくとも1つの電子プロセッサ20は、(104からの)ラベル付けされた術前画像を使用してNN30を調整するようにプログラムされる。他の実施形態では、患者調整トレーニングニューラルネットワーク30は、術中MR画像内に描かれた輪郭で少なくとも部分的に更新される。そうするために、少なくとも1つの電子プロセッサ20は、外科手術中にROIのMR画像を取得するようにMR撮像装置32を制御するようにプログラムされる。GUI26が提供され、これにより、取得されたMR画像は、腫瘍及び周囲血管の輪郭でラベル付けされる(104に類似)。USスキャナ14及びプローブ12は、US画像の更新シリーズを取得するように少なくとも1つの電子プロセッサ20によって制御される。GUI26は、腫瘍及び周囲血管の輪郭でラベル付けされる前記取得されたUS画像の更新シリーズによって提供又は更新される。前記US画像の更新シリーズは、患者調整トレーニングNN30を更新調整するために使用される。
他の実施形態では、前記ライブ脳画像の取得は、中断され、少なくとも1つの電子プロセッサ20は、選択されたライブ脳画像が腫瘍及び周囲血管の輪郭でラベル付けされるGUI26を提供するようにプログラムされる。NN30は、前記選択及びラベル付けされたライブ脳画像を使用して前記ライブ輪郭を生成するように更新調整される。
114において、少なくとも1つの電子プロセッサ20は、前記ライブ輪郭を重ね合わされた前記ライブUS画像を表示するように表示装置24を制御するようにプログラムされる。いくつかの例では、表示装置24上の表示が、空間的に位置合わせされた術前磁気共鳴画像からの基準輪郭を重ね合わされた前記ライブ輪郭を含む。前記MRI画像は、前記USライブ画像と空間的に位置合わせされることができ、いくつかの例では、前記術前MRI画像は、外科医が見ることができるように、手術中に別個のウィンドウに表示されることができる。
この開示は、MRI対USで異なる腫瘍がどのように見えるか、何が類似する特徴又は異なる特徴であるかを理解するために、セグメント化された(すなわち輪郭描出された)術前MRI、術前US、セグメント化された術中MRI及び術中USに対してトレーニングするために、畳み込み(convolutional)ニューラルネットワーク(CNN)を用いるディープラーニングを使用する機械学習フレームワークを含む。トレーニングの間、MRIは、追跡された取得により、前記トレーニングデータとして機能する前記US画像上に重ね合わされる、手動で実行されるセグメンテーションによって、グラウンドトゥルース(ground truth)を提供する。
一度前記ネットワークがトレーニングされると、手術中に外科医によって使用されるワークステーション上にソフトウェアとして展開され、代わりに、前記術前MRI及びUS画像に基づいて術中US検査中に追加の情報を提供するために、超音波スキャナ上にロードされることができる。
脳神経外科手術中の自動腫瘍識別のためのディープニューラルネットワークをトレーニングするために必要なデータは、位置合わせされた超音波(US)及び磁気共鳴(MR)画像対から成る。前記MR画像は、ほとんどの脳病変がMR画像において可視であり、MR画像からセグメント化されるので、グラウンドトゥルースとして機能する。ここで、全てのセグメンテーションは、当分野の専門家によって実行されると仮定され、したがって、グランドトゥルースである。前記セグメンテーションは、腫瘍体積の内側が1の値を持ち、外側が0の値を持つバイナリ体積マトリクスとして表される。対応するUS画像データは、常に、US画像とMR画像との間の高精度の位置合わせが実行されることができるように追跡されながら取得される。追跡された術前及び手術US画像(術中USは、対になるマッチする術中のセグメント化されたMR画像が存在する場合にのみ使用されることができる)は、トレーニングサンプルと呼ばれる堆積を作成するために使用される。各トレーニングサンプルについて、前記トレーニングは、対応する位置合わせされたセグメンテーション体積を用いて実行される。最後に、セグメンテーション情報は、前記超音波画像内の腫瘍を識別するために、前記超音波画像上に伝えられる。
図3は、例示的な畳み込みニューラルネットワークの概略図を示す。入力は、追跡され位置合わせされた超音波画像から生成された体積である。目標値は、MR画像から手動で得られた同じ幾何学形状のバイナリセグメンテーションマップである。
前記畳み込みニューラルネットワークの目的は、超音波画像から残りの腫瘍セグメンテーションを決定することであり、したがって、前記入力としてのUS画像を持つネットワークアーキテクチャが、提案される。このネットワークをトレーニングするために、前記入力された超音波画像上に重ね合わされた前記MR画像を処理することによって得られた目標(トレーニング中に使用されるグラウンドトゥルース出力)セグメンテーション結果が、使用される。このようなアーキテクチャは、プーリング層と結合された最初の層内の幾つかの畳み込み層を使用する。典型的には、畳み込み層の後には、1つ以上の完全に接続された層が続き、最後には前記バイナリセグメンテーションマップの画素値に対して確率値を返す出力層が続く。
前記ネットワークは、十分に大きなトレーニングデータのための逆伝搬のような標準的なニューラルネットワークトレーニング技術を用いてトレーニングされる。腫瘍外観において大きな患者間のばらつきが存在する可能性があり、最初の集団ベースのトレーニング後のモデルの出力が、各症例に対して十分に正確ではないかもしれない。これに対処するために、前記ネットワークは、手術の日に、開頭術後に取得された前記術前MR及びUS画像を使用して微調整される。この患者固有の微調整ステップは、前記ワークフローの本質的な部分であり、モデルが手術中に使用される特定のケースに適合するのを助ける。神経外科医は、手術中の任意の時点で前記ワークフローを中断することなく、超音波スイープを実行することができる。結果として得られた追跡及び位置合わせされたUS体積は、前記スイープされた体積内の残存腫瘍の予測を行うために前記ニューラルネットワークに送られる。腫瘍領域を示す予測されたセグメンテーションマップは、前記バイナリセグメンテーションマップの境界の輪郭として、又は前記画像の上に重ねられ、腫瘍領域の確率を示す疑似カラーでのいずれかで表示されることができる。
これらの2つの表示フォーマットは、図4に示され、図4は、前記画像の「左」側に腫瘍部位を予測する輪郭を示し、「右」側は、腫瘍の確率を表示するヒートマップを示し、腫瘍位置の尤度が増加することにつれて、色の陰影が暗くなる。
代わりに、追跡された術中USスイープが、実行されることができ、全ての出力画像は、残りの腫瘍位置が前記ニューラルネットワーク予測を使用してマークされる、新しい更新された位置合わせされた体積を構築するのに使用される。次いで、この最近取得された体積及びその予測されたセグメンテーションは、追跡された切除又は他の介入ツールに対して残りの腫瘍を表示するのに使用される。
代替実施形態では、術中MRが手術中に存在する場合、強化学習フレームワークを使用して前記トレーニングされたネットワークを更に微調整することが可能である。前記トレーニングされたネットワークは、前記術中超音波体積から予測を行うために依然として使用されることができ、次いで、これらは、前記術中MRからのセグメンテーションと比較される。このモデルは、非腫瘍組織を腫瘍として誤って推定すること、又はその逆に対してペナルティを科されることができる。これは、前記モデルが現在のケースに適応し、現在のケースのより正確な将来予測を行うのに役立つ。
前記トレーニングされたニューラルネットワークは、手術中に予測を行うためにソフトウェアに埋め込まれる。このソフトウェアは、前記超音波スキャナ上で実行されて、画像が取得されているときにリアルタイムで残留腫瘍セグメンテーションを推定することができる。
本開示は、好ましい実施形態を参照して説明されてきた。前述の詳細な説明を読み、理解すると、修正及び変更が、他者に思い浮かぶ可能性がある。本開示は、添付の特許請求の範囲又はその均等物の範囲内に入る限り、そのような全ての修正及び変更を含むものと解釈されることが意図される。

Claims (20)

  1. 超音波スキャナ及び前記超音波スキャナに動作可能に接続された超音波プローブと、
    少なくとも1つの電子プロセッサと、
    を有する超音波装置において、
    前記少なくとも1つの電子プロセッサが、
    患者の関心領域内の腫瘍及び周囲血管の一連の術前画像を取得するように前記超音波スキャナ及び超音波プローブを制御し、
    前記取得された術前画像が前記関心領域内の腫瘍及び周囲血管の輪郭でラベル付けされるグラフィカルユーザインタフェースを提供し、
    患者調整トレーニングニューラルネットワークを生成するように前記ラベル付けされた術前画像を使用して前記患者に対してトレーニングされたニューラルネットワークを調整し、
    前記患者の関心領域内の腫瘍及び周囲血管のライブ画像を取得するように前記超音波スキャナ及び超音波プローブを制御することによりライブ撮像を実行し、
    前記腫瘍及び周囲血管のライブ輪郭を出力するように前記患者調整トレーニングニューラルネットワークに前記ライブ画像を入力し、
    前記ライブ輪郭を重ね合わせた前記ライブ画像を表示するように表示装置を制御する、
    ようにプログラムされる、
    超音波装置。
  2. 前記少なくとも1つの電子プロセッサが、
    前記ライブ輪郭を重ね合わされ、空間的に位置合わせされた術前磁気共鳴画像からの輪郭を重ね合わされた前記2次元ライブ画像を表示する、
    ように構成される、請求項1に記載の装置。
  3. 前記少なくとも1つの電子プロセッサが、
    前記調整の前に、前記トレーニングされたニューラルネットワークを生成するように異なる患者の同様の関心領域の撮像データを用いてニューラルネットワークをトレーニングする、
    請求項1及び2のいずれか一項に記載の装置。
  4. 前記少なくとも1つの電子プロセッサが、
    前記2次元ライブ超音波画像のうちの選択された1つ又は複数が前記関心領域内の腫瘍及び周囲血管の輪郭でラベル付けされる前記グラフィカルユーザインタフェースを提供し、
    前記ラベル付けされた2次元ライブ超音波画像を用いて前記患者調整トレーニングニューラルネットワークを更新調整する、
    ように更にプログラムされる、請求項3に記載の装置。
  5. 前記少なくとも1つの電子プロセッサが、
    外科的処置の間、前記関心領域の磁気共鳴画像を取得するように磁気共鳴撮像装置を制御し、
    前記取得された磁気共鳴画像が腫瘍及び周辺血管の輪郭でラベル付けされる前記グラフィカルユーザインタフェースを提供し、
    超音波画像の更新シリーズを取得するように前記超音波スキャナ及び超音波プローブを制御し、
    前記取得された超音波画像の更新シリーズが、前記腫瘍及び周囲血管の輪郭でラベル付けされる、前記グラフィカルユーザインタフェースを提供し、
    前記掉尾画像の更新シリーズを用いて前記患者調整トレーニングニューラルネットワークを更新調整する、
    ように更にプログラムされる、請求項3に記載の装置。
  6. 前記ニューラルネットワークが、再帰型ニューラルネットワークである、請求項1乃至5のいずれか一項に記載の装置。
  7. 前記関心領域が、脳である、請求項1乃至6のいずれか一項に記載の装置。
  8. ライブ脳撮像方法を実行するように超音波システム及び表示装置と動作可能に通信するプロセッサによって読取可能かつ実行可能な命令を記憶する非一時的記憶媒体において、前記方法が、
    2次元ライブ脳画像を取得するように前記超音波システムを制御するステップと、
    前記2次元ライブ脳画像内に撮像された腫瘍及び周囲血管のライブ輪郭を生成するように前記2次元ライブ脳画像にニューラルネットワークを適用するステップと、
    前記ライブ輪郭を重ね合わされた前記2次元ライブ脳画像を提示するように前記表示装置を制御するステップと、
    有する、非一時的記憶媒体。
  9. 前記ライブ脳撮像方法が、
    前記ライブ脳画像を取得する前に、一連の2次元術前脳画像を取得するように前記超音波システムを制御するステップと、
    前記2次元術前脳画像が、前記腫瘍及び周囲血管の輪郭でラベル付けされるグラフィカルユーザインタフェースを提供するステップと、
    前記ラベル付けされた2次元術前画像を使用して、前記ライブ輪郭を生成するのに使用される前記ニューラルネットワークを調整するステップと、
    を更に有する、請求項8に記載の非一時的記憶媒体。
  10. 前記ライブ脳撮像方法が、
    生きた脳画像の取得を中断し、選択されたライブ脳画像が前記腫瘍及び周囲血管の輪郭でラベル付けされる前記グラフィカルユーザインタフェースを提供するステップと、
    前記選択されラベル付けされたライブ脳画像を使用して、前記ライブ輪郭を生成するのに使用される前記ニューラルネットワークを更新調整するステップと、
    を更に有する、請求項9に記載の非一時的記憶媒体。
  11. 前記ライブ脳撮像方法が、
    前記2次元ライブ脳画像を取得するように前記超音波システムを制御する前に、前記腫瘍及び周辺血管の輪郭でラベル付けされた以前の患者のラベル付けされた超音波脳画像を使用して、前記ライブ輪郭を生成するのに使用される前記ニューラルネットワークをトレーニングするステップ、
    を更に有する、請求項8乃至10のいずれか一項に記載の非一時的記憶媒体。
  12. 前記表示装置を制御するステップが、
    前記ライブ輪郭を重ね合わされ、かつ前記2次元ライブ脳画像と空間的に位置合わせされた術前磁気共鳴画像から取得された基準輪郭を重ね合わされた前記2Dライブ脳画像を提示するように前記表示装置を制御するステップ、
    を有する、請求項8乃至11のいずれか一項に記載の非一時的記憶媒体。
  13. 超音波スキャナ及び前記超音波スキャナに動作可能に接続された超音波プローブと、
    少なくとも1つの電子プロセッサと、
    を有する超音波装置において、前記少なくとも1つの電子プロセッサが、
    関心領域の2次元ライブ画像を取得するように前記超音波スキャナ及び前記超音波プローブを制御し、
    前記2次元ライブ画像において撮像された腫瘍及び周囲血管のライブ輪郭を生成するように前記2次元ライブ脳画像にニューラルネットワークを適用し、
    前記ライブ輪郭を重ね合わせて前記2次元ライブ画像を提示するように表示装置を制御する、
    ようにプログラムされる、超音波装置。
  14. 前記少なくとも1つの電子プロセッサが、
    前記ライブ画像を取得する前に、一連の2次元術前画像を取得するように前記超音波スキャナ及び前記超音波プローブを制御し、
    前記2次元術前脳画像が前記腫瘍及び周囲血管の輪郭でラベル付けされるグラフィカルユーザインタフェースを提供し、
    前記ラベル付けされた2次元術前画像を使用して、前記ライブ輪郭を生成するのに使用される前記ニューラルネットワークを調整する、
    ように更にプログラムされる、請求項13に記載の装置。
  15. 前記少なくとも1つの電子プロセッサが、
    前記ライブ画像の取得を中断し、選択されたライブ画像が前記腫瘍及び周囲血管の輪郭でラベル付けされるグラフィカルユーザインタフェースを提供し、
    前記選択されラベル付けされたライブ画像を使用して、前記ライブ輪郭を生成するのに使用される前記ニューラルネットワークを更新調整する、
    ように更にプログラムされる、請求項13及び14のいずれか一項に記載の装置。
  16. 前記少なくとも1つの電子プロセッサが、
    前記2次元ライブ画像を取得するように前記超音波スキャナ及び前記超音波プローブを制御する前に、前記腫瘍及び周囲血管の輪郭でラベル付けされた以前の患者のラベル付けされた超音波画像を使用して、前記ライブ輪郭を生成するのに使用される前記ニューラルネットワークをトレーニングする、
    ように更にプログラムされる、請求項13乃至15のいずれか一項に記載の装置。
  17. 前記少なくとも1つの電子プロセッサが、
    前記ライブ輪郭を重ね合わされ、前記2次元ライブ画像と空間的に位置合わせされた術前磁気共鳴画像から取得された基準輪郭を重ね合わされた前記2次元ライブ画像を提示するように前記表示装置を制御する、
    ように更にプログラムされる、請求項13乃至17のいずれか一項に記載の装置。
  18. 前記少なくとも1つの電子プロセッサが、
    外科的処置の間、前記関心領域の磁気共鳴画像を取得するように磁気共鳴撮像装置を制御し、
    前記取得された磁気共鳴画像が前記腫瘍及び周辺血管の輪郭でラベル付けされる前記グラフィカルユーザインタフェースを提供し、
    前記2次元超音波画像の更新シリーズを取得するように前記超音波スキャナ及び前記超音波プローブを制御し、
    前記取得された超音波画像の更新シリーズが前記腫瘍及び周囲血管の輪郭でラベル付けされる前記グラフィカルユーザインタフェースを提供し、
    前記2次元超音波画像の更新シリーズを用いて、前記患者調整トレーニングニューラルネットワークを更新調整する、
    ように更にプログラムされる、請求項16及び17のいずれか一項に記載の装置。
  19. 前記ニューラルネットワークが、再帰型ニューラルネットワークである、請求項13乃至18のいずれか一項に記載の装置。
  20. 前記関心領域が、脳である、請求項13乃至19のいずれか一項に記載の装置。
JP2020563492A 2018-05-16 2019-05-01 機械学習を使用する手術中の自動腫瘍識別 Active JP7418352B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023142788A JP2023165737A (ja) 2018-05-16 2023-09-04 機械学習を使用する手術中の自動腫瘍識別

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862672108P 2018-05-16 2018-05-16
US62/672,108 2018-05-16
PCT/EP2019/061164 WO2019219387A1 (en) 2018-05-16 2019-05-01 Automated tumor identification during surgery using machine-learning

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023142788A Division JP2023165737A (ja) 2018-05-16 2023-09-04 機械学習を使用する手術中の自動腫瘍識別

Publications (3)

Publication Number Publication Date
JP2021522931A true JP2021522931A (ja) 2021-09-02
JPWO2019219387A5 JPWO2019219387A5 (ja) 2022-03-23
JP7418352B2 JP7418352B2 (ja) 2024-01-19

Family

ID=66554327

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020563492A Active JP7418352B2 (ja) 2018-05-16 2019-05-01 機械学習を使用する手術中の自動腫瘍識別
JP2023142788A Pending JP2023165737A (ja) 2018-05-16 2023-09-04 機械学習を使用する手術中の自動腫瘍識別

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023142788A Pending JP2023165737A (ja) 2018-05-16 2023-09-04 機械学習を使用する手術中の自動腫瘍識別

Country Status (5)

Country Link
US (1) US11903771B2 (ja)
EP (1) EP3794607A1 (ja)
JP (2) JP7418352B2 (ja)
CN (1) CN112166474B (ja)
WO (1) WO2019219387A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021049198A (ja) * 2019-09-25 2021-04-01 株式会社日立製作所 手術支援装置及び手術ナビゲーションシステム
US12027277B1 (en) * 2019-12-05 2024-07-02 Evidation Health, Inc. Active learning for wearable health sensor
EP3838163A1 (en) * 2019-12-17 2021-06-23 Koninklijke Philips N.V. Method and system for improved ultrasound plane acquisition
JP7408381B2 (ja) * 2019-12-26 2024-01-05 キヤノンメディカルシステムズ株式会社 画像処理装置、プログラム及び方法
WO2021146497A1 (en) * 2020-01-15 2021-07-22 Pingkun Yan Trackerless 2d ultrasound frame to 3d image volume registration
US20220061922A1 (en) * 2020-08-25 2022-03-03 Acclarent, Inc. Apparatus and method for posterior nasal nerve ablation
WO2022069208A1 (en) * 2020-09-29 2022-04-07 Koninklijke Philips N.V. Ultrasound image-based patient-specific region of interest identification, and associated devices, systems, and methods
CN113499091B (zh) * 2021-08-19 2023-08-15 四川大学华西医院 一种患者体表和体内肿瘤运动相关性及肿瘤内部动度的预测方法和系统
KR102616368B1 (ko) * 2021-09-17 2023-12-20 동의대학교 산학협력단 진단 프로브 및 이를 이용한 의료용 초음파 스캐너
CN114052795B (zh) * 2021-10-28 2023-11-07 南京航空航天大学 一种结合超声自主扫描的病灶成像及防误扎治疗系统
WO2023150428A1 (en) 2022-02-03 2023-08-10 Evidation Health, Inc. Systems and methods for self-supervised learning based on naturally-occurring patterns of missing data

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06233761A (ja) * 1993-02-09 1994-08-23 Hitachi Medical Corp 医用画像診断装置
US20100322489A1 (en) * 2009-06-18 2010-12-23 Omisa Inc. System and method for image segmentation
US20160035093A1 (en) * 2014-07-31 2016-02-04 California Institute Of Technology Multi modality brain mapping system (mbms) using artificial intelligence and pattern recognition
JP2017508579A (ja) * 2013-03-15 2017-03-30 シナプティヴ メディカル (バルバドス) インコーポレイテッドSynaptive Medical (Barbados) Inc. 医療処置中に組織構造の位置を確認するための方法及びシステム
WO2018015414A1 (en) * 2016-07-21 2018-01-25 Siemens Healthcare Gmbh Method and system for artificial intelligence based medical image segmentation

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7103399B2 (en) 2003-09-08 2006-09-05 Vanderbilt University Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery
US7912258B2 (en) * 2005-09-27 2011-03-22 Vanderbilt University Method and apparatus for standardizing ultrasonography training using image to physical space registration of tomographic volumes from tracked ultrasound
KR101883258B1 (ko) * 2010-08-13 2018-07-31 스미스 앤드 네퓨, 인크. 해부학적 계측점의 검출 방법
KR102186096B1 (ko) * 2013-07-01 2020-12-03 한국전자통신연구원 유방암 진단을 위한 초음파 스캐닝 보조 장치 및 초음파 스캐닝 방법
JP2016536035A (ja) 2013-09-30 2016-11-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 変形可能レジストレーションのためのシステム及びモジュラーネットワーク
CN103914845B (zh) * 2014-04-09 2016-08-17 武汉大学 基于主动轮廓模型的超声图像分割中获取初始轮廓的方法
AU2016220549B2 (en) 2015-02-17 2021-09-23 Nanyang Technological University Regenerable draw solute for osmotically driven processes
CN104851101A (zh) 2015-05-25 2015-08-19 电子科技大学 一种基于深度学习的脑肿瘤自动分割方法
CN106056595B (zh) * 2015-11-30 2019-09-17 浙江德尚韵兴医疗科技有限公司 基于深度卷积神经网络自动识别甲状腺结节良恶性的辅助诊断系统
WO2017193251A1 (zh) * 2016-05-09 2017-11-16 深圳迈瑞生物医疗电子股份有限公司 识别超声图像中感兴趣区域轮廓的方法及系统
US20170337682A1 (en) * 2016-05-18 2017-11-23 Siemens Healthcare Gmbh Method and System for Image Registration Using an Intelligent Artificial Agent
US10127659B2 (en) * 2016-11-23 2018-11-13 General Electric Company Deep learning medical systems and methods for image acquisition
CN107480677B (zh) * 2017-08-07 2020-04-28 北京深睿博联科技有限责任公司 一种识别三维ct图像中感兴趣区域的方法及装置
CN107506766B (zh) * 2017-08-25 2020-03-17 东软医疗系统股份有限公司 图像分割方法及装置
EP3540632B1 (de) * 2018-03-16 2023-04-26 Siemens Healthcare GmbH Verfahren zum klassifizieren von gewebeproben

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06233761A (ja) * 1993-02-09 1994-08-23 Hitachi Medical Corp 医用画像診断装置
US20100322489A1 (en) * 2009-06-18 2010-12-23 Omisa Inc. System and method for image segmentation
JP2017508579A (ja) * 2013-03-15 2017-03-30 シナプティヴ メディカル (バルバドス) インコーポレイテッドSynaptive Medical (Barbados) Inc. 医療処置中に組織構造の位置を確認するための方法及びシステム
US20160035093A1 (en) * 2014-07-31 2016-02-04 California Institute Of Technology Multi modality brain mapping system (mbms) using artificial intelligence and pattern recognition
WO2018015414A1 (en) * 2016-07-21 2018-01-25 Siemens Healthcare Gmbh Method and system for artificial intelligence based medical image segmentation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
AZIZI SHEKOOFEH; ET AL: "TOWARD A REAL-TIME SYSTEM FOR TEMPORAL ENHANCED ULTRASOUND-GUIDED PROSTATE BIOPSY", INTERNATIONAL JOURNAL OF COMPUTER ASSISTED RADIOLOGY AND SURGERY, vol. VOL:13, NR:8,, JPN5021009486, 27 March 2018 (2018-03-27), DE, pages 1201 - 1209, ISSN: 0005165204 *

Also Published As

Publication number Publication date
JP7418352B2 (ja) 2024-01-19
JP2023165737A (ja) 2023-11-17
CN112166474A (zh) 2021-01-01
WO2019219387A1 (en) 2019-11-21
EP3794607A1 (en) 2021-03-24
US20210204914A1 (en) 2021-07-08
US11903771B2 (en) 2024-02-20
CN112166474B (zh) 2024-09-13

Similar Documents

Publication Publication Date Title
JP7418352B2 (ja) 機械学習を使用する手術中の自動腫瘍識別
US20210059762A1 (en) Motion compensation platform for image guided percutaneous access to bodily organs and structures
EP3641685B1 (en) Systems for performing intraoperative surface-based registration and navigation
US10022199B2 (en) Registration correction based on shift detection in image data
EP3282994B1 (en) Method and apparatus to provide updated patient images during robotic surgery
US10588702B2 (en) System and methods for updating patient registration during surface trace acquisition
CN114948199B (zh) 一种外科手术辅助系统及手术路径规划方法
US8098917B2 (en) Automatically updating a geometric model
EP3480780A1 (en) Determining a transformation between coordinate frames of sets of image data
US20180168735A1 (en) Methods for improving patient registration
CN117100393A (zh) 一种用于视频辅助外科手术靶标定位的方法、系统和装置
US20220183759A1 (en) Determining a surgical port for a trocar or laparoscope
US20240216010A1 (en) Method and device for registration and tracking during a percutaneous procedure
EP3863551B1 (en) Using a current workflow step for control of medical data processing
US20230145531A1 (en) Systems and methods for registering visual representations of a surgical space
CN118695821A (zh) 用于将术中图像数据与微创医疗技术集成的系统和方法
CN118234422A (zh) 用于经皮手术期间的配准和跟踪的方法和装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230904

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240109

R150 Certificate of patent or registration of utility model

Ref document number: 7418352

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150