JP2021516810A - 術前画像に基づく手術ビデオ検索 - Google Patents

術前画像に基づく手術ビデオ検索 Download PDF

Info

Publication number
JP2021516810A
JP2021516810A JP2020545593A JP2020545593A JP2021516810A JP 2021516810 A JP2021516810 A JP 2021516810A JP 2020545593 A JP2020545593 A JP 2020545593A JP 2020545593 A JP2020545593 A JP 2020545593A JP 2021516810 A JP2021516810 A JP 2021516810A
Authority
JP
Japan
Prior art keywords
disease
organ
information
images
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020545593A
Other languages
English (en)
Other versions
JP7150036B2 (ja
Inventor
ハベッケ,マーティン
ケー. バラール,ジョエル
ケー. バラール,ジョエル
ヤン,リン
ジン,シン
Original Assignee
ヴェリリー ライフ サイエンシズ エルエルシー
ヴェリリー ライフ サイエンシズ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴェリリー ライフ サイエンシズ エルエルシー, ヴェリリー ライフ サイエンシズ エルエルシー filed Critical ヴェリリー ライフ サイエンシズ エルエルシー
Publication of JP2021516810A publication Critical patent/JP2021516810A/ja
Application granted granted Critical
Publication of JP7150036B2 publication Critical patent/JP7150036B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Urology & Nephrology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Gynecology & Obstetrics (AREA)
  • Pathology (AREA)
  • Computational Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Optimization (AREA)
  • Educational Administration (AREA)

Abstract

【課題】 患者に行われる次の手技に関連する手術ビデオを検索するためのフレームワークを提示すること。【解決手段】 システムは、ディスプレイと、手術ビデオ、医用画像装置から取得された人体の臓器の画像、および医用画像装置から取得された人体の疾患の画像を含むデータベースと、を備える。プロセッサを含むコントローラは、メモリ、データベース、およびディスプレイに結合され、そのメモリは、プロセッサによって実行されるときにシステムに各動作を実行させる情報を格納する。例えば、プロセッサは、臓器の画像から第1の臓器情報を決定することができ、疾患の画像から第1の疾患情報を決定することができる。プロセッサは、第1の臓器情報および第1の疾患情報と、手術ビデオに索引付けされた第2の疾患情報および第2の臓器情報との間の類似性スコアを計算することができる。プロセッサは、その類似性スコアに基づいて、手術ビデオのうちの1つまたは複数を選択し、その手術ビデオをディスプレイ上に表示する。【選択図】図1

Description

関連出願の相互参照
本出願は、2018年3月19日に出願された米国仮出願第62/644,737号の利益を主張し、その出願は、その全体が参照により本明細書によって組み込まれる。
本開示は、概して、ビデオ検索に関し、特に、外科手技に関するが、これに限定されない。
医師が今後の手術を行う方法を学ぶためには、過去の手術症例の研究および評価が重要である。伝統的に、医師は、手術室内で生の手術を数多く観察することによってトレーニングされてきた。これには、外科医の多くの時間が欠かせない(多くの手術は、完了するのに数時間かかる)。さらに、外科医は、患者と地理的に近くにいる必要があり、外科医を適切に経験させるためには、手術の種類(および患者の種類)は、医師が将来行うことになる手術に関連する必要がある。
本発明の非限定的かつ非網羅的な実施形態を以下の図を参照して説明するが、ここで、特に指定されない限り、同様の参照番号は、様々な図全体を通して同様の部分を指す。必要に応じて図面が煩雑にならないように、要素のすべての事例が必ずしも標識されているわけではない。図面は必ずしも縮尺通りではなく、説明されている原理を示すことに重点が置かれている。
本開示の一実施形態による、手術ビデオを検索するためのシステムを示す。 本開示の一実施形態による、臓器および疾患のセグメンテーションを示す。 本開示の一実施形態による、画像類似性スコアを提供するために機械学習モデルをトレーニングするための例示的なフローチャートを示す。 本開示の一実施形態による、1つまたは複数の術前画像に基づいて関連する手術ビデオを検索するためにディスプレイに出力される例示的なグラフィカルユーザインターフェースを示す。 本開示の一実施形態による、1つまたは複数の術前画像に基づいて手術ビデオを検索するためのフローチャートを示す。 本開示の一実施形態による、手術ビデオを検索するための方法を示す。
本明細書には、手術ビデオ検索のためのシステムおよび方法の実施形態が、記載されている。以下の説明では、多くの具体的な詳細は、実施形態の徹底的な理解を提供するために、記載されている。しかしながら、関連技術の当業者は、本明細書に記載された技術が、具体的な詳細のうちの1つ以上を用いずに、または他の方法、コンポーネント、材料などを用いて実施することができることを認識するであろう。他の事例では、周知の構造、材料、または操作は、特定の態様を不明瞭にしないように、詳細には図示または記載されていない。
本明細書全体を通した「一実施形態」または「実施形態」への参照は、実施形態に関連して記載された特定の特徴、構造、または特性が、本発明の少なくとも1つの実施形態に含まれることを意味する。このように、本明細書全体を通して、様々な場所での「一実施形態では」または「実施形態では」という句の出現は、必ずしもすべてが同じ実施形態を指しているわけではない。さらに、特定の特徴、構造、または特性は、1つ以上の実施形態において、任意の好適な様式で組み合わされ得る。
本明細書には、1つまたは複数の術前画像および/またはユーザ選択されたメタデータに少なくとも部分的に基づいて、関連する手術ビデオを検索するためのシステム、装置、および方法の実施形態が、記載されている。このような手術ビデオは、術前計画のための(例えば、外科医が難題を予想し、潜在的な危険性を回避するのを助けるための)重要なリソースを表し得る。術前計画に関した関連する手術ビデオを検索することは、非常に重要であり得、その理由は、所与の手技が、患者の性別、年齢、体型、疾患の病期、医療履歴、合併症、ならびに非常に他の多くの潜在的な変数に起因して大きく変化し得るからである。本開示において、筆者らは、術前画像(例えば、磁気共鳴画像、コンピュータ断層撮影スキャン、X線画像、陽電子放出技術スキャン、超音波スキャン、他の医用画像技術からの画像など)から特徴を分析および抽出し、この情報に基づいて患者に行われる次の手技に関連する(例えば、類似の)手術ビデオを検索するためのフレームワークを提示する。
(1)術前磁気共鳴(MR)/コンピュータ断層撮影(CT)画像(個々のMRもしくはCT画像、または他の種類の画像)と、大規模なデータベースに格納された以前の患者からの手術ビデオとのペア、および(2)今後の患者からのMR/CT画像(個別もしくはペアにされた、および/または他の種類の画像)が与えられると、ここでシステムは、今後の患者に類似したMR/CT画像を有する最も近い以前の患者を計算し、それらの手術ビデオを検索することができる。
一連の画像検索方法を使用して、MR/CT画像入力として与えられた類似の疾患症例を検索することができる。ただし、同様の疾患症例が、必ずしも同様の手術を示すとは限らない。周囲の臓器、骨、および組織が、手術に大きな影響を与える可能性がある。この問題に対処するため、ここに提示されたフレームワークでは、システムは、疾患の類似性だけでなく、重大な周辺領域の類似性も考慮に入れる。
いくつかの実施形態では、このフレームワークには、4つの主要なステップがある。(1)MR/CT画像から臓器レベル情報(例えば、大きさ、形状、位置)を取得する。臓器の分布は、手術のための風景を形成する。臓器情報には、臓器、組織、骨、軟骨等に関する情報が含まれることを理解されたい。(2)MR/CT画像または臨床データから疾患関連情報(例えば、疾患の種類、病変領域の位置、疾患の病期)を取得する。この情報は、関心領域(複数可)を規定する。(3)臓器分布および疾患状態に基づいて、類似性スコアを計算する。さらに、マスクを使用して、所定の手技に関連しないものを隠すことができ、関心領域内の臓器分布のみが使用される。例えば、鼻の美容手技が行われ、その画像に目が含まれている場合、類似性スコアを計算するときに目を考慮する必要がない場合がある。(4)システムは、最も高い類似性スコアを有する手術ビデオを検索する(例えば、閾値範囲内の手術ビデオが選択され得る)。
ステップ1において、システムは、MR/CT画像内の臓器セグメンテーションを実行する。より具体的には、3D全層畳み込みニューラルネットワーク(例えば、ノード/人工ニューロンの入力層、1つまたは複数の隠れ層、および出力層を有する)が、トレーニングされ、そしてMR/CT画像に適用されて、様々な種類の臓器をセグメント化する。3D深層教師ありネットワーク(3D DSN)を使用して、類似性スコアを生成することができる。いくつかの実施形態では、条件付きランダムフィールドモデルを使用して、輪郭精密化を強化することができる。他の実施形態では、マルチスケールコンテキスト/マルチスケールピラミッド特徴および膨張畳み込みを使用して、全体的なセグメンテーション結果を改善することができる。セグメンテーション後、大きさ、形状、および位置情報を計算することができる。
ステップ2において、さらに疾患固有の計算が必要である。各疾患について、システムは、次々にトレーニングされ、深層学習モデル(複数可)または他の一部の方法を適用して、疾患領域を突き止め、疾患病期を割り当てる。「疾患」には、がん、潰瘍、感染部位(細菌性またはウイルス性)、壊死組織、自己免疫疾患、遺伝性疾患、および他の種類の身体の劣化または異型が、広く含まれることが理解される。「疾患」は、不健康ではあるが、それ以外では「正常な」組織の部分(例えば、胃のバイパス手術、ラップバンド手術などの場合)さえも含む場合がある。次いで、関心領域が、疾患情報、およびどのように手技が行われていく予定であるか(例えば、どの器具か、またはどのスタイルの手技か)についてのメタデータに基づいて生成される。
ステップ3において、システムは、まず、疾患の種類、性別、年齢、体型等に基づいて、明らかな不一致(例えば、無関係な)ビデオをフィルタ除外する(各種類の手技に対して、システムのユーザは、関連するパラメータのそれらの独自のセットを選択し、それらの独自の類似性尺度を有することができる)。次いで、システムは、同じ疾患の病期、および疾患領域の類似する位置(例えば、臓器内およびその周囲の相対位置の距離によって測定される)を有するビデオを検索することができる。最後に、これらのビデオの中で、システムは、関心領域内で2人の患者の臓器間の類似性(例えば、大きさの類似性、形状の類似性、および相対位置の類似性)を計算する。このフレームワークの出力は、最も高い類似性スコアを有するビデオである。別の実施形態では、患者または手技についての追加情報(例えば、BMI、患者の年齢等)も使用して、類似性スコアを推定する。いくつかの実施形態では、類似性スコアは、ユーザの仕様設定および好みを包含し得る。例えば、1つの固有の組み合わせのためのビデオが十分に存在しない場合、外科医は、選択の際により少ないフィルタの使用を選択するか、または外科医が必ずしもすべての条件を満足せずに関心を有する特定の領域内のビデオを選択することができる(例えば、外科医が、より多くの基準を追加する−より具体的にすることができる−、または基準を取り去って−、十分なビデオを見つけることができる)。さらに、類似性スコアが計算される前に患者の画像を倍率変更することができることが、さらに理解される(例えば、2人の患者が双子であるが、一方は、他方の倍率変更版(より背が高い)であり、2人目の患者について手術する際に最初の患者のビデオを見ることは、実際上便利であり得、一方が背が高いという事実は、それほど重要ではない)。「倍率変更」は、様々なことを意味する可能性があり(例えば、垂直方向および/または水平方向に縮小/拡大)、特定の疾患/手技の場合には、変形は、問題にもならない場合があり、臓器および疾患の相対的な位置が問題になるだけである。
以下のセクションは、上で考察した実施形態、および追加の実施形態について、図と関連させながら説明する。
図1は、本開示の一実施形態による、手術ビデオを検索するためのシステム100を示す。システム100は、医用画像装置101、ディスプレイ103、プロセッサ105、データベース107(手術ビデオ111、および関連する術前スキャンを含む)、およびネットワーク109を備える。図に示すように、医用画像装置101は、コンピュータ断層撮影(CT)スキャン装置、磁気共鳴画像(MRI)装置、X線装置、陽電子放出技術(PET)装置、超音波装置などのうちの1つを含み得る。ディスプレイ103は、発光ダイオード(LED)スクリーン、液晶ディスプレイ、プロジェクタなどであってもよい。プロセッサ105は、ローカライズされた装置(例えば、マイクロコントローラ、1つまたは複数のテンソル処理装置などの機械学習アルゴリズムを実行するように特別に設計されたコンピュータチップ、汎用プロセッサ、多くのサーバ上で実行する分散型システムなど)を含んでもよく、または分散型システム上でホストとして働く仮想マシンを含んでもよい(例えば、ネットワーク109)。さらに、その処理の一部は、ローカルに行われてもよく、これに対して、他の処理タスクは、リモートサーバ上で実行されてもよいことが理解される。同様に、データベース107は、ハードドライブなどの上でローカルに走っていてもよく、または多くのサーバ上で走る分散型システムであってもよい。
図示してある実施形態では、医用画像装置101は、人体の臓器、および人体の疾患の画像を(例えば、X線、磁気画像などを用いて)捕捉するように適合されている。造影剤を使用して、手術画像内の腫瘍などの特定の構造を強調することができることが理解される。ディスプレイ103は、医師などのユーザに手術ビデオを表示するように適合されている。データベース107は、手術ビデオおよび手術スキャン(例えば、各手術ビデオに対応する術前のMRおよびCTスキャン)を含む。プロセッサ105は、医用画像装置101、データベース107、ディスプレイ103、およびネットワーク109に(有線または無線のどちらかによって)結合されている。図示してある実施形態では、プロセッサ105は、プロセッサ105によって実行されたときにシステム100に様々な動作を実行させる命令/ロジック(機械コード、またはメモリ内に設計/構築されたネイティブ命令であってもよい)を格納するメモリに結合されている。例えば、プロセッサ105は、撮像された患者の臓器の形状、臓器の大きさ、または臓器の位置のうちの少なくとも1つを含む臓器情報を決定することができる。プロセッサ105は、スキャンから臓器の3D再構成(例えば、図2Aを参照)を構築することによって、臓器の大きさ、形状、および位置を測定することができ、この再構成を使用して、臓器の体積、臓器間の距離(例えば、ダイス係数または他の距離を使用して)、および身体内の共通基準点に対する差などについてのデータを計算することができる。
同様に、プロセッサ105はまた、疾患の形状、疾患の位置、および疾患の病期のうちの少なくとも1つを含む疾患情報/データも決定することができる。いくつかの実施形態では、疾患の形状、体積、位置、および病期は、同様に、疾患の3D再構成を構築して測定を行い、そして広がりを推測するための3D再構成を使用することによって決定される。複雑な3Dモデル構造および関連する計算は、コンピュータシステムによって完成される必要があり、頭の中で達成することはできないことが理解される。
臓器および疾患の情報を使用して、プロセッサ105は、医用画像装置101によって捕捉された画像内の疾患情報および臓器情報と、手術ビデオに対応する第2の疾患情報および第2の臓器情報との間の類似性スコアに基づいて、データベース107から手術ビデオのうちの1つまたは複数を再呼び出しすることができる。言い換えると、撮像装置101によって捕捉された臓器および疾患の情報は、以前に捕捉され、データベース107内の特定のビデオとしてタグ付けされた他の臓器および疾患の情報と比較される。例えば、患者の術前スキャン(例えば、腫瘍のMR/CTスキャン)が捕捉され得、次いで腫瘍を除去するための手術のビデオ111が捕捉され得る。術前スキャンおよび手術ビデオ111の両方は、データベース107内に格納され得る。システム100は、現在の患者の画像(医用画像装置101によって捕捉された)を、データベース107内に格納された術前画像および3Dモデルと比較することができる。次いで、システム100は、対応する手術ビデオ111および関連データが現在の患者に関連する場合、それらを再呼び出しすることができる。次いで、システム100は、ディスプレイ103上に手術ビデオ111のうちの1つまたは複数を表示することができる。
一実施形態では、プロセッサ105は、メモリ(例えば、データベース107)に結合され、そのメモリは、機械学習アルゴリズム(例えば、深層教師ありネットワーク)を含むロジック(ファームウェア、ソフトウェアか、またはそれらの2つの組み合わせのいずれかに実装される)を含むことができる。いくつかの実施形態では、機械学習アルゴリズムは、臓器および疾患の画像をセグメント化することができる。セグメント化された臓器および疾患を使用して、臓器および疾患の3Dモデルのためのデータを生成することができる(例えば、図2Aを参照)。いくつかの実施形態では、機械学習アルゴリズムは、複数の深層学習モデルを含むことができ、その場合、複数の深層学習モデル内の各深層学習モデルは、トレーニングされて、異なる種類の疾患を認識する。例えば、1つの深層学習モデルをトレーニングして人体の黒色腫を認識することができ、一方、別の深層学習モデルをトレーニングしてリンパ腫を認識する。疾患は、多くの場合、術前MRまたはCTスキャンが捕捉される前に既に診断されているため、これを使用して機械学習アルゴリズムが必要とする処理を削減することができる。一実施形態では、手術ビデオのうちの1つまたは複数を選択することは、メタデータを使用して類似性スコアを計算することを含む。メタデータは、患者の年齢、患者の肥満指数、疾患の種類、患者の性別、または患者の既往症のうちの少なくとも1つを含むことができる。
一実施形態では、プロセッサ105は、手術ビデオのうちの1つまたは複数を選択する前に、プロセッサ105による検討から、手術ビデオデータベース内の1つまたは複数の無関係なビデオを削除することができる。言い換えると、粗いフィルタを適用して、現在の患者にほとんどまたは全く関連を有さないビデオを削除することができる。例えば、ビデオ内の患者が、現在検査および撮像されている第1の患者とは、異なる疾患、異なる性別、異なる体型、異なる疾患位置、および/または異なる年齢のうちの少なくとも1つを有する場合、ビデオは無関係であり得る。主治医の医師またはスタッフによってデータベースに追加されたビデオ内のデータと、メタデータ(例えば、年齢、体重、身長等)との両方を使用することによって、無関係なビデオを削除することができる。
図2Aは、本開示の一実施形態による、臓器および疾患のセグメンテーションを示す。図に示すように、臓器および疾患の画像は、最初の3Dモデル201にセグメント化される。3Dモデル201を使用して、臓器の形状、臓器の大きさ、臓器の位置、疾患の大きさ/範囲(例えば、腫瘍の大きさおよび広がり)、疾患の形状、疾患の位置、および/または疾患の病期を決定することができる。これは、データベース内の他の術前画像(3Dモデル203に変換することができる)と比較され得る。3Dモデル201に類似する術前画像を使用して、データベースから関連する手術ビデオを識別および引き出すことができる。
一実施形態では、全層3D畳み込みニューラルネットワーク(または他の種類の機械学習モデル、アルゴリズム、ニューラルネットワークなど)を利用して、術前画像、および手術ビデオデータベース(例えば、図1に例示されたデータベース107)内の画像またはビデオに関連付けられたそれぞれの特徴ベクトルを生成することができる。1つまたは複数の機械学習モデルが、術前画像のセグメンテーションのために(例えば、臓器および/または疾患情報を決定するために)利用され得る。例えば、第1の機械学習モデルを使用して、異なる臓器を識別する(すなわち、特定の臓器に属するものとして個々の画素にラベルを付けるか、ないし注釈を付ける)ことができる。第2の機械学習モデルが、出力(例えば、注釈付き画像)を受信して、画像を特徴付ける特徴ベクトルを生成することができる(例えば、各臓器が、関連する特徴ベクトルを有してもよく、かつ/または特徴ベクトルが、全体として画像を特徴付けてもよい)。具体的には、多くの医用画像技術は、3次元画像または表現(例えば、CTスキャン、MRIスキャンなど)を生成するため、全層3D畳み込みニューラルネットワークは、画像の3次元空間内の相対的なx、y、およびz位置に関連した画像のそれぞれの画素のための入力、ならびに1つまたは複数のカラー値(例えば、階調および/またはカラー画像の場合)を受信することができ、画像を記述ないし特徴付ける特徴ベクトルを出力する。したがって、術前画像の(例えば、手技が行われ得る患者の)それぞれ、ならびにデータベースからの画像(術前またはその他)は、比較可能な方法で特徴付けられてもよい。いくつかの実施形態では、ビデオからの静止画像が、特徴ベクトルを決定するために利用されてもよいことが理解される。
図2Bは、本開示の一実施形態による、画像類似性スコアを提供するために、機械学習モデル208(例えば、3D深層教師ありネットワーク)をトレーニングするための例示的なフローチャート205を示す。フローチャート205は、機械学習モデルをトレーニングして画像類似性スコアを提供する1つの実行可能な実施態様であることと、本開示の実施形態に従って、画像類似性スコアを提供するために適用され得る他のトレーニング方法、および/または機械学習モデルアーキテクチャの分散が存在し得ることと、が理解される。さらに、本開示の教示に従って、ブロックが、群チャート205に追加され、またはそこから削除されてもよいことが理解される。
ブロック206は、複数の手術画像および/またはビデオを含むトレーニングデータを提供することを示す。トレーニングデータは、術前画像、手術ビデオなどを含む手術ビデオデータベースから得られてもよい。トレーニングデータは、注釈を付けることができる(例えば、医師、外科医、開業医、他の個々人、および/または1つもしくは複数の機械学習モデルによって)。具体的には、トレーニングデータ内で、サンプル画像のトリプレットが照合される。画像の各トリプレットには、アンカー画像、ポジティブ画像、およびネガティブ画像がある。これらの画像は、2D画像、3D画像、ビデオなどであってもよく、色データ、階調データ、またはその他を含んでもよい。アンカー画像207のそれぞれは、類似画像(例えば、ポジティブ画像209)および非類似画像(例えば、ネガティブ画像211)と照合される。画像のトリプレットセットは、注釈付きまたはラベル付きの術前画像(例えば、医師、外科医、他の個人、またはその他)、ラベルなしの術前画像、および/またはデータベース(例えば、図1に示されている手術ビデオデータベース)からの他の画像、ビデオなどから選択されてもよい。いくつかの実施形態では、類似画像(すなわち、ポジティブ画像およびアンカー画像のペア)は、異なる期間に同じ患者から選択される。同じまたは他の実施形態では、画像は、様々なデータ収集方法(例えば、メタデータを比較して無関係な画像を削除し、次いで関連する画像から適切な類似および非類似画像を選択すること)を介して収集される。
画像の各トリプレット(または画像のトリプレットのうちの少なくとも1つを含むトレーニングデータのバッチ)は、ブロック208に示すように、機械学習モデルに進む。機械学習モデルは、トレーニングされて画像を特徴空間に埋め込み(例えば、符号化し)、画像間の特徴空間内の距離の二乗(またはその距離の絶対値)は、類似性(または類似性の欠如)に対応する。機械学習モデルは、1つまたは複数の畳み込みニューラルネットワークであってもよく、各ニューラルネットワークは、層状に配置されている複数の相互接続されたノードを含み、深層ニューラルネットワークのアーキテクチャを形成する。次いで、ブロック210に示すように、機械学習モデルを通過する画像は、特徴空間内に埋め込まれる。
画像のトリプレットセットが特徴空間内に埋め込まれると、ブロック210は、ブロック212に進み、そこでは、損失値が、トリプレット損失を示す損失関数から決定される。言い換えると、損失関数は、画像のトリプレットセットを内包するように定義される。具体的には、ブロック215に示すように、損失関数は、特徴空間内の所定のマージン(すなわち、離隔距離)が類似および非類似の画像ペアの間に実現されるように定義される。損失値がわかると、ブロック212は、ブロック214に進み、そこでは、最適化アルゴリズム(例えば、勾配降下)を使用して、トリプレット損失を低減するように機械学習モデルの重みを調整ないし更新する。これは、トレーニングが完了するまで、機械学習モデルが、画像のトリプレットセットのそれぞれに対して更新される重みを有し続ける反復プロセスである。
ブロック215は、機械学習モデルのトレーニング前後の、特徴空間内の画像の典型的なトリプレットセットを示す。トレーニング前では、特徴空間内で、アンカーとポジティブ画像との間の第1の距離216は、アンカーとネガティブ画像との間の第2の距離217よりも大きい。しかしながら、トレーニング後では、マージンが、ポジティブおよびネガティブのペアとの間に強制され、その結果、第1の距離216は、第2の距離217よりも小さい。このようにして、画像間の特徴空間内の距離は、類似性(または類似性の欠如)を示す。
したがって、トレーニングされた機械学習モデルを使用して、特徴空間内に入力画像(例えば、外科医が、手術ビデオと関連付けられた比較可能な画像を見つけたいと望んでいる術前画像)を埋め込むことができる。続いて、特徴空間内の入力画像と他の画像との間の離隔距離を利用して、関連する手術ビデオを間引くか、ないし検索することができる。例えば、離隔距離の所定の閾値(二乗またはその他)の範囲内のすべての画像を検索することができる。同じまたは他の実施形態では、特徴空間内の位置は、類似性スコアを決定する際に利用される多くの特徴ベクトルのうちの1つであり得る。いくつかの実施形態では、離隔距離(またはその変形)は、それ自体、類似性スコアに対応し得る。
図2Cは、本開示の一実施形態による、1つまたは複数の術前画像に少なくとも部分的に基づいて、関連する手術ビデオを検索するために、ディスプレイ(例えば、図1に示したディスプレイ103)に出力される例示的なグラフィカルユーザインターフェース(GUI)220を示す。GUI220は、ユーザ(例えば、外科医、技術者、またはその他)が本開示の実施形態に従って利用して、(関連する)手術ビデオを検索および出力するためにシステム(例えば、図1に示したシステム100)が利用することができる入力(例えば、制約条件、パラメータ重み付け、術前画像選択など)を提供することができる。GUI220は、単に例示的なものにすぎず、限定するものと見なされるべきではないことが理解される。逆に、GUI220は、様々な要因(例えば、ユーザ選択、手技の種類など)に従って構成可能であり得る。したがって、本開示の教示に従って、他のグラフィカルユーザインターフェースの態様を利用することができることが、理解される。
GUI220は、情報を表示し、かつ/またはシステムのユーザとやりとりするための様々なセクションを含む。例示した実施形態では、それらのセクションは、制約条件セクション222、パラメータ重み付けセクション226、被検索ビデオセクション234、ならびにアップロード230ボタン、およびサーチ232ボタンを含む。制約条件セクション222は、データベース(例えば、図1に示したデータベース107)内の手術ビデオのフィルタリングのために構成され得る複数の制約条件224を含む。言い換えると、ユーザは、無関係であると見なされるビデオをフィルタリングして、潜在的に計算負担を低減すること、検索されたビデオの精度/関連性を高めることを与えることができる。いくつかの実施形態では、複数の制約条件224は、手術ビデオデータベース内の手術ビデオに関連付けられ得るメタデータ(例えば、とりわけ、患者の年齢、患者の肥満指数、疾患の種類、患者の性別、患者の既往症)を含むことができる。例えば、ユーザは、複数の制約条件224のうちの1つを調整して、性別によって患者をフィルタリング除外することができる(例えば、外科手技を受ける個人が男性である場合、男性のビデオのみがサーチされる)。同じまたは他の実施形態では、制約条件は、範囲によってフィルタリングされ得る。例えば、複数の制約条件224のうちの1つは、ユーザが閾値範囲外の手術ビデオをフィルタリング除外するのを可能にすることができる(例えば、システムのユーザが18歳〜24歳の年齢の個々人の手術ビデオのみが関連するものと見なされるべきであると判断した場合、閾値範囲外のビデオは、フィルタリング除外されることになる)。
パラメータ重み付けセクション226は、複数のパラメータ228を含み、それらのパラメータは、システムのユーザによってランク付け、ないし重み付けされて、関連性を示すことができる。パラメータは、以前考察されたメタデータ(例えば、患者の年齢、患者の肥満指数、疾患の種類、患者の性別、または患者の既往症)、臓器固有のパラメータ(例えば、大きさ、形状、位置)、疾患固有の情報(例えば、疾患の形状、疾患の位置、または疾患の病期のうちの少なくとも1つ)のいずれかを含むことができる。必ずしもすべてではないが、パラメータの組み合わせのうちのいずれか1つが、個別にランク付けされてもよいことが理解される。いくつかの実施形態では、パラメータは、優先度レベルに応じてランク付けされる(例えば、第1および第2のパラメータ228は、レベル1にランク付けされて高優先度を示し、第3および第4のパラメータは、レベル2にランク付けされて中優先度を示し、第5のパラメータは、レベル3にランク付けされて低優先度を示す)。いくつかの実施形態では、パラメータは、絶対的尺度に基づいてランク付けされる(例えば、すべてのパラメータのランクの合計全体は、1に等しい)。同じまたは他の実施形態では、システムのユーザによる手動のランク付けに加えて、またはその代わりに、機械学習モデルをトレーニングしてパラメータをランク付けする。例えば、ユーザは、患者(例えば、外科医が、関連する手術ビデオを検索したいと望んでいる術前患者)の関係するメタデータ、臓器情報、および/または疾患情報を有する術前画像を(例えば、ボタン230を介して)アップロードすることができる。その後、機械学習モデルは、アップロードされたコンテンツに基づいて、メタデータ制約条件および/またはパラメータ重み付け値を事前選択することができる。次いで、必要に応じて、ユーザは、事前選択された値を調整することができる(例えば、外科医は、経験に基づいて、特定のパラメータまたは制約条件が特に重要であるか、または関連することを見出すことができる)。
術前画像がデータベースからアップロードまたは選択され、そしてメタデータ制約条件および/またはパラメータ重み付け値が構成されると、システムのユーザは、ボタン232を選択することによって、関連するビデオをサーチすることができる。したがって、関連ビデオ発見セクション234は、サーチが実行された後にデータが読み込まれ、類似性スコアに基づく関連する手術ビデオが、再実行され、表示される。手術ビデオは、データベース(例えば、図1に示したデータベース107)から検索され得る。術前画像(例えば、外科医が来たるべき手技の調製の一部として関係ビデオを取得したいと望んでいる患者の)に関連付けられた臓器情報または疾患情報のうちの少なくとも1つに基づく。複数の手術ビデオ(例えば、ビデオ236〜246)を表示することができる。複数の手術ビデオのそれぞれは、ユーザによってアップロード/選択されて、それぞれの類似性スコアを計算する術前画像と比較して(例えば、データベース内で)索引付けされ得る。例示した実施形態では、類似性スコアは、0〜1の値であり、スコア1は、完全な関係に対応し(すなわち、それ自体と比較された同じ手術ビデオのみが、結果として完全な関係となる)、0は、無関係であることに対応する。いくつかの実施形態では、検索された手術ビデオは、類似性スコアに関するそれらの相対的なランクに従って表示されることになる(例えば、手術ビデオは、最高スコアから最低スコアまでの降順で表示される)。同じまたは他の実施形態では、閾値類似性スコアの値または範囲があってもよく、その場合、その値または範囲外のビデオは、表示されないことになる(例えば、0.6よりも大きい類似性スコアを有する手術ビデオのみが、検索され得る)。
図2Dは、本開示の一実施形態による、1つまたは複数の術前画像に少なくとも部分的に基づいて手術ビデオを検索するためのフローチャート260を示す。フローチャート260は、1つの可能な実施態様であり、システム(例えば、図1に示したシステム100)は、1つまたは複数の術前画像(例えば、患者に関係する他の情報の中でもとりわけ、臓器情報、疾患情報)と、手術ビデオ(例えば、関連する臓器情報、疾患情報、またはその他を有する)との間の類似性スコアを計算して、データベースに索引付けされた関連する手術ビデオを検索するために使用することができる。一実施形態では、フローチャート260は、図2Cに示したGUI220によって補完されるシステムレベルアーキテクチャに対応する。番号付けされたブロック262〜278は、任意の順番で、さらには並行して行われてもよいことが理解される。さらに、ブロックは、本開示の教示に従って、フローチャート260に追加されてもよく、またはそこから削除されてもよい。
図2Dに示すように、ブロック262は、入力情報(例えば、データベースまたはその他からのメタデータ制約条件、パラメータ重み付け値、および術前画像)を受信することを示す。例えば、一実施形態では、術前画像は、第1の臓器情報(例えば、臓器の形状、臓器の大きさ、臓器の位置、またはその他のうちの少なくとも1つ)、および第1の疾患情報(例えば、疾患の形状、疾患の位置、疾患の大きさ、疾患の病期、またはその他のうちの少なくとも1つ)に関連付けられてもよい。他の実施形態では、第1の臓器情報および第1の疾患情報は、当初は既知でなくてもよく、その後、既知になってもよい(例えば、ブロック268によって決定されたときに)。
ブロック266は、複数の手術ビデオを含むデータベースから複数のビデオをフィルタリングすることを示す。言い換えると、入力(例えば、メタデータ制約条件、パラメータ重み付け値など)に基づいて、無関係であると見なされた手術ビデオは、ブロック266によってフィルタリングされ得、その結果、データベース264内で索引付けされた各ビデオが、ブロック268に渡されるとは限らない。
ブロック268は、手術ビデオをセグメント化および/または分類して、術前画像、手術ビデオなどに関連付けられた特徴ベクトルを生成することを示す。データベース264からの手術ビデオは、ブロック266から受信した情報に基づいて、ブロック268に渡され得る(例えば、閾値範囲外のメタデータを有する手術ビデオは、ブロック268には渡されない)。続いて、ブロック268は、そこに渡された術前画像、手術ビデオなどのそれぞれを分類し、関連する特徴ベクトルを出力する。例えば、術前画像が注釈付きでない場合、ブロック268は、第1の臓器情報を含む特徴ベクトルを決定することができ、その第1の臓器情報は、臓器の形状、臓器の大きさ、または臓器の位置のうちの少なくとも1つを示し得る。
個々の臓器は、術前画像からセグメント化され得、大きさ、形状、または他の特性値が決定される。いくつかの実施形態では、機械学習モデル(例えば、全層3D畳み込みニューラルネットワーク、他のニューラルネットワーク、または他の機械学習モデルアーキテクチャ)を利用して、臓器情報を決定し、対応する画像に関連付けられた特徴ベクトルを出力することができる。さらに、疾患情報(例えば、疾患の形状、疾患の位置、疾患の大きさ、疾患の病期、またはその他)もまた、特徴付けないし分類する機械学習モデルを介して、決定され得る(例えば、セグメンテーションに基づいて)。一実施形態では、術前画像入力に基づいて疾患を分類するようにトレーニングされた機械学習モデルを利用して、疾患情報を提供することができる。同じまたは他の実施形態では、術前画像は、セグメント化/分類された(すなわち、注釈付きの)臓器情報および/または疾患情報を既に有し得る。そのような実施形態では、ブロック268は、注釈付き情報に基づいて特徴ベクトルを生成することができる。いくつかの実施形態では、臓器または疾患情報は、比較可能な属性(例えば、臓器および/または疾患の画像の3D形状、テクスチャ、粗さ、大きさ、位置)をさらに含むことができる。
一実施形態では、ブロック268は、3D深層教師ありネットワークを含み、その3D深層教師ありネットワークは、入力術前画像と、手術ビデオデータベース内の画像またはビデオ(もしくはその一部)との間(例えば、ブロック266におけるフィルタリングの前または後)の画像類似性スコア(例えば、図2Bと関連して以前説明したような)を生成する。機械学習モデルは、他の画像またはビデオ(手術ビデオデータベースからの)と同じ特徴空間(すなわち、埋め込み)内に入力術前画像を配置し、その結果、画像ペア(例えば、入力術前画像、および手術ビデオデータベースからの画像)間の二乗距離(またはその他)は、画像類似性スコアに対応する。次いで、特徴ベクトルまたはベクトルが、画像ペアの間の二乗距離に割り当てられ得、そのベクトルは、関係する手術画像/ビデオを検索するための多くの異なる特徴ベクトルのうちの1つであり得る。
いくつかの実施形態では、ブロック268によって生成された特徴ベクトルは、具体的な記述子を有さなくてもよい。逆に、機械学習モデルは、特徴技術を使用して、術前画像のどの特徴が関連しているかを判断してもよい。そのような関連する特徴は、正確に記述され得る記述子を有さなくてもよい。したがって、各特徴ベクトルは、記述可能である要素(例えば、臓器の形状、大きさ、または位置などの臓器情報、疾患の形状、位置、大きさ、または病期などの疾患情報)を含むことができる一方で、他の特徴も含むことができる。したがって、術前画像のそれぞれの各特徴ベクトルは、例えば、機械学習モデルのアーキテクチャに基づいて、数十、数百、数千、またはそれ以上を含むことができる。
ブロック270は、術前画像のそれぞれに関連付けられた各特徴ベクトル(例えば、臓器の画像からの第1の臓器情報、疾患の画像からの第1の疾患情報、手術ビデオに索引付けされた第2の疾患情報、手術ビデオに索引付けされた第2の臓器情報)を受け取り、そして特徴リストまたは配列を組み立てる。一実施形態では、各特徴ベクトルを連結して、特徴配列を形成する。一実施形態では、特徴配列の各横列は、個々の画像(例えば、術前画像、手術ビデオなど)に対応し得る。同じまたは他の実施形態では、特徴ベクトルの各要素は、特徴配列の縦列が同じ特徴(例えば、臓器の大きさ、形状、位置、臓器の体積、疾患の大きさ、疾患の形状、疾患の位置、疾患の病期、臓器のテクスチャ、疾患のテクスチャ、臓器の粗さ、疾患の粗さ、または特徴技術を介して決定されるそれらなどの他の特徴)に対応するように標準化されてもよい。
いくつかの実施形態では、ブロック270は、ルートAを通って、類似性の採点が行われるブロック274に進む。具体的には、1つまたは複数の機械学習モデルがトレーニングされて、入力特徴ベクトル(例えば、第1の臓器情報、第1の疾患情報、または手術ビデオもしくはその他からの画像の他の特徴に関係する)を比較する。次いで、機械学習モデルは、入力特徴ベクトルを特徴リスト/配列と比較して、特徴リスト/配列内に各特徴ベクトル(例えば、データベースに索引付けされたそれぞれの手術ビデオに関連付けられている)の類似性スコアを出力する。いくつかの実施形態では、類似性スコアは、機械学習モデルが、画像を比較するときに出力する信頼値であり得る。
一実施形態では、類似性スコアは、ベクトル内の特徴要素間の統計的比較に基づいて決定される。例えば、第1の術前画像の特徴ベクトルには、臓器の大きさに関連付けられた第1の要素を含む臓器情報と、疾患の形状に関連付けられた第2の要素を含む疾患情報と、が含まれる。第2の特徴ベクトル(例えば、特徴リスト/配列からの)は、データベースに含まれる第1の手術ビデオに関連付けられている。この第2の特徴ベクトルには、臓器の大きさに関連付けられた第1の要素を含む第2の臓器情報と、疾患の形状に関連付けられた第2の要素を含む第2の疾患情報と、が含まれる。それぞれの要素の値は、正規化され、その後、比較され得る。個々の要素間の差は、(例えば、第1および第2の特徴ベクトルの第1の要素間の差)である。続いて、要素間の差は、二乗して合計されて(例えば、二乗平均値の平方根)、データベース内で索引付けされた第1の手術ビデオの類似性スコアを決定することができる。このプロセスは、特徴リスト/配列内の特徴ベクトルのそれぞれに対して繰り返され得る。
いくつかの実施形態では、特徴リスト/配列から指定された特徴ベクトルを利用して、類似性スコアを決定することができる。例えば、一実施形態では、画像またはビデオは、メタデータ(例えば、ブロック266の場合に説明されたように)に基づいて、手術ビデオデータベースからフィルタリングされる。続いて、画像類似性スコア(例えば、図2Bに関連して説明したように)が、機械学習モデルを介して画像ペアの間で決定される。したがって、そのような実施形態では、類似性スコアは、術前画像(複数可)と、手術ビデオデータベースからの他の画像またはビデオとの間に埋め込んでいる、特徴空間内の二乗距離(またはその他)に対応し得る。一実施形態では、その二乗距離は、正規化されてもよい。
同じまたは他の実施形態では、ブロック270は、ブロック272に進むことができ、そこでは、個々の特徴(すなわち、特徴ベクトルの要素)が、(例えば、入力パラメータ重み付けに従って、および/または機械学習モデルを介して決定されるように)ランク付けされる。したがって、特徴リスト/配列の個々の要素は、正規化され、その後、重み付けされ得る。例えば、一実施形態では、特徴リスト/配列の横列内の各要素は、特定の特徴またはパラメータ(例えば、疾患情報、臓器情報等)に関連付けられている。パラメータは、特徴ベクトルのそれぞれに共通に関連付けられている係数の横列を介して重み付けされ得、その結果、特定の要素/特徴が、同じような方法で重み付けされる(例えば、臓器の大きさが重み付けされている場合、すべての特徴ベクトルにわたって等しく重み付けされることになる)。言い換えると、ブロック272がブロック274に進むと、本開示の教示に従って、特徴要素の加重平均を利用して、類似性スコアを決定することができる。
特徴リスト/配列に含まれる特徴ベクトルのそれぞれの類似性スコアがわかると、ブロック274は、ブロック276に進み、そのブロックは、データベース内のどの手術ビデオがどの特徴ベクトルに索引付けされるかを判断して、それぞれの手術ビデオをその対応する類似性スコアに関連付ける。例えば、ブロック276は、類似性スコア0.98を有する索引付きビデオ1、類似性スコア0.44を有する索引付きビデオ2などを例示する。
ブロック276は、ブロック278に進み、関連する手術ビデオを検索した。特に、データベース内の手術ビデオの関連性は、閾値または範囲に関係するそれらの類似性スコアに基づいて、決定され、そして検索され得る。その実施形態では、関連性の閾値範囲は、0.7よりも大きい任意の値に対応する。したがって、例示した実施形態では、ブロック278は、0.7を超える類似性スコアを有するデータベースから手術ビデオのリスト(例えば、索引付きビデオ1、3、および4)を選択(および表示)することになる。
図3は、本開示の一実施形態による、手術ビデオを検索するための方法を示す。番号付けされたブロック301〜309は、任意の順番で、さらには並行して行われてもよいことが理解される。さらに、ブロックは、本開示の教示に従って、方法300に追加されてもよく、またはそこから削除されてもよい。
ブロック301は、プロセッサを使って、人体の臓器および疾患の1つまたは複数の画像を含むデータを受信することを示す。いくつかの実施形態では、臓器および疾患の1つまたは複数の画像は、コンピュータ断層撮影(CT)スキャン装置、磁気共鳴(MR)画像装置、またはX線装置のうちの1つなどの医用画像装置を使って捕捉された。画像は、方法300を開始する前に、医用画像装置によって捕捉され(そしてデータベース内に格納され)得ることが理解される。言い換えると、方法300を実行する装置は、医用画像装置と直接通信しなくてもよい。
ブロック303は、プロセッサを使って、画像データから臓器の形状、臓器の大きさ、または臓器の位置のうちの少なくとも1つを含む臓器情報を決定することを示す。いくつかの実施形態では、プロセッサは、機械学習アルゴリズムを含むロジックを有し、臓器情報を決定することは、機械学習アルゴリズムを使用して臓器の画像をセグメント化することを含む。いくつかの実施形態では、機械学習アルゴリズムは、畳み込みニューラルネットワーク(CNN)および/または深層教師ありネットワークを含む。一実施形態では、機械学習アルゴリズムは、入力層、1つまたは複数の隠れ層、および出力層を含むことができる。したがって、ここで提示された方法の実施形態は、機械知能を使用してヒトのデータを分析する。
ブロック305は、プロセッサを使って、疾患の形状、疾患の位置、または疾患の病期のうちの少なくとも1つを含む疾患情報を決定することを示す。疾患情報を決定することは、臓器情報の決定方法と同様の方法で達成することができる。機械学習アルゴリズムは、複数の深層学習モデルを含むことができ、その場合、複数の深層学習モデル内の各深層学習モデルをトレーニングして、異なる種類の疾患を認識することが理解される。例えば、1つの深層学習モデルをトレーニングして、周囲の組織から黒色腫を認識することができ、別の深層学習モデルをトレーニングして、周囲の組織から脳腫瘍等を認識することができる。疾患の種類をアルゴリズムに供給することは、術前スキャンにおける疾患および健康な組織を正確にセグメント化する(例えば、不健康なものから健康なものを解析する)のに有効であり得、その理由は、特定の疾患の初期診断は、通常、手動で実行されるからであり、また、その初期診断が、機械学習アルゴリズムの計算から計算の複雑な層(疾患の種類の判別)を削除するからである。
ブロック307は、プロセッサを使って、画像内の疾患情報および第1の臓器情報と、手術ビデオに対応する最初の第2の疾患情報および第2の臓器情報との間の類似性スコア(例えば、体積の差、表面積の差、本明細書に列挙された変数のうちのいくつかの二乗平均値の平方根、任意のユニットを使用して重み付けされたスコアなど)に基づいて、データベースから手術ビデオのうちの1つまたは複数を選択することを示す。いくつかの実施形態では、データベース内の手術ビデオのそれぞれは、データベースに格納された少なくとも1つの関連する術前画像を有し、第2の疾患情報および第2の臓器情報は、少なくとも1つの関連する術前画像から導出されることが理解される。例えば、患者が手術を受ける前に、患者は、MRまたはCTスキャンを受けて疾患または損傷の位置を示すことができ、次いで、患者は、ビデオフォーマットで記録される手術を受けることができる。術前MR/CTスキャンと、手術のビデオ記録との両方は、データベースにアップロードされ、互いに索引付けされ得る。したがって、ここで提示された機械学習アルゴリズムは、術前スキャンをサーチして類似の手術ビデオを見つけることができる。この理由は、臓器および疾患の類似性が、必ずしもビデオ内で視認できるとは限らない場合があるためである。例えば、手術は、関節鏡視下で行われる場合があるが、ビデオカメラでは、疾患の全範囲を見ることができない場合がある。
いくつかの実施形態では、手術ビデオのうちの1つまたは複数を選択することは、メタデータを使用して類似性スコアを計算することを含む。メタデータは、患者の年齢、患者の肥満指数、疾患の種類、患者の性別、または患者の既往症のうちの少なくとも1つを含むことができる。このデータは、ビデオおよび術前スキャンがデータベースにアップロードされたときに、医師によって追加されてもよい。いくつかの実施形態では、プロセッサが手術ビデオのうちの1つまたは複数を選択する前に、メタデータを使用して、プロセッサが検討した手術ビデオ内の1つまたは複数の無関係なビデオを削除することができる。言い換えると、プロセッサは、再呼び出しされるビデオのプールから明らかに無関係なビデオを分離除外することができる。例えば、データベース内の1つのビデオが、「扁桃摘出術」としてタグ付けされ、医師が、黒色腫を切除することに関連する手術ビデオを探している場合、扁桃摘出術は、考慮されないことになる。さらに一般的に言うと、ビデオ内の患者が、手術を必要とする最初の患者とは、異なる疾患、異なる性別、異なる体型、異なる疾患位置、または異なる年齢を有している場合、プロセッサは、1つまたは複数のビデオを「無関係である」と見なすことができる。
無関係な状態の患者のビデオを考慮から除外する方法と同様に、身体の他の部分における疾患に関するビデオもまた、フィルタリング除外することができる。一実施形態では、類似性スコアは、関心領域内の臓器情報および疾患情報を使用して計算され、この場合、関心領域は、人体内の体積である。言い換えると、目の前の患者が患者の腹部に疾患を有する場合、脳手術のビデオは、この実施形態では関心領域が患者の腹部であるという理由から、除外され得る。これらの粗いフィルタリング技術を使用して(例えば、メタデータおよび関心領域を使用してデータベース内の最も関連性の高いビデオのみに焦点を当てる)、処理時間を劇的に低減することができ、その理由は、機械学習アルゴリズムが、データベース内の3D画像データのわずかな割合のみを処理するだけでよいためである。
ブロック309は、ディスプレイ上に手術ビデオのうちの1つまたは複数を表示することを示す。これには、データベースから再呼び出しされた手術ビデオをディスプレイに送信することが含まれ得る。ユーザは、検索したいと望むビデオの数を選択することができ、このようにして、システムは、最も関連性のあるビデオのみを返すことができる。検索されたビデオは、サムネイルとして表示することができる。サムネイルの下には、ビデオのコンテンツの短い説明があり得る(例えば、ビデオの患者の疾患の種類、ビデオの患者の年齢、ビデオの患者の性別、ビデオの患者の肥満指数、疾患の位置など)。この説明はまた、メタデータとして使用されて、ビデオをソートおよび比較することができる。
上記で説明したプロセスは、コンピュータソフトウェアおよびハードウェアの観点から説明されている。説明された技法は、機械によって実行されると、説明された動作を機械に実行させる、有形のまたは非一時的な機械(例えば、コンピュータ)可読記憶媒体内で具現化される機械実行可能命令を構成し得る。さらに、プロセスは、特定用途向け集積回路(「ASIC」:Application Specific Integrated Circuit)などのハードウェア内に具現化され得る。
有形の機械可読記憶媒体には、機械またはコントローラ(例えば、コンピュータ、ネットワークデバイス、携帯情報端末、製造ツール、1つ以上のプロセッサのセットを有する任意のデバイス、ファームウェア/ソフトウェアによって構成された汎用プロセッサ、プログラマブルゲートアレイ、または特定用途向け集積回路など)によってアクセス可能な非一時的形態の情報を提供する(例えば、格納する)任意の機構も含む。例えば、機械可読記憶媒体は、記録可能/記録不可能な媒体(例えば、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光学記憶媒体、フラッシュメモリデバイスなど)を含む。
要約中に記載されているものを含む、本発明の図示された実施形態の上記の記載は、網羅的であること、または本発明を開示された正確な形態に限定することを意図していない。本発明の特定の実施形態、およびそのための実施例は、例示的目的のために本明細書に記載されているが、当業者が認識するように、本発明の範囲内で様々な修正が可能である。
これらの修正は、上記の詳細な説明に照らして、本発明に対して行うことができる。以下の特許請求の範囲で使用される用語は、本発明を明細書に開示された特定の実施形態に限定するものと解釈されるべきではない。むしろ、本発明の範囲は、以下の特許請求の範囲によって完全に決定されるべきであり、それらは、特許請求項解釈の確立された原則に従って解釈されるべきである。

Claims (23)

  1. システムであって、
    手術ビデオを表示するように適合されたディスプレイと、
    前記手術ビデオ、医用画像装置から取得された人体の臓器の画像、および前記医用画像装置から取得された人体の疾患の画像を含むデータベースと、
    メモリ、前記データベース、および前記ディスプレイに結合されたプロセッサを含むコントローラと、を備え、前記メモリが、前記プロセッサによって実行されるときに、前記システムに、
    前記プロセッサを使って、前記臓器の前記画像から、前記臓器の形状、前記臓器の大きさ、または前記臓器の位置のうちの少なくとも1つを含む第1の臓器情報を決定することと、
    前記プロセッサを使って、前記疾患の前記画像から、前記疾患の形状、前記疾患の位置、前記疾患の大きさ、または前記疾患の病期のうちの少なくとも1つを含む第1の疾患情報を決定することと、
    前記プロセッサを使って、前記臓器の前記画像および前記疾患の前記画像からそれぞれ導出された前記第1の臓器情報および前記第1の疾患情報と、前記手術ビデオに索引付けされた第2の疾患情報および第2の臓器情報との間の類似性スコアを計算することと、
    前記プロセッサを使って、前記類似性スコアに基づいて、前記手術ビデオのうちの1つまたは複数を選択することと、
    前記手術ビデオのうちの前記1つまたは複数を前記ディスプレイ上に表示することと、を含む動作を実行させる情報を格納する、システム。
  2. 前記医用画像装置が、コンピュータ断層撮影(CT)スキャン装置、磁気共鳴画像(MRI)装置、超音波装置、陽電子放出断層撮影(PET)装置、またはX線装置のうちの1つを含む、請求項1に記載のシステム。
  3. 前記メモリが、機械学習アルゴリズムを含んでおり、前記第1の臓器情報を決定することが、前記機械学習アルゴリズムを使用して、前記臓器の前記画像をセグメント化することを含む、請求項1に記載のシステム。
  4. 前記機械学習アルゴリズムが、教師ありネットワークを含む、請求項3に記載のシステム。
  5. 前記機械学習アルゴリズムが、前記類似性スコアを決定するためのトリプレット損失法を介してトレーニングされる、請求項3に記載のシステム。
  6. 前記機械学習アルゴリズムが、複数の深層学習モデルを含んでおり、前記複数の深層学習モデル内の各深層学習モデルが、前記疾患の異なる種類を認識するようにトレーニングされている、請求項3に記載のシステム。
  7. 前記メモリが、前記プロセッサによって実行されるときに、前記システムに、
    前記プロセッサが前記手術ビデオのうちの1つまたは複数を選択する以前に、前記手術ビデオ内の1つまたは複数の無関係なビデオを前記プロセッサによる検討から除外すること、を含む動作を実行させる情報をさらに格納する、請求項1に記載のシステム。
  8. 前記1つまたは複数の無関係なビデオが、前記臓器の前記画像、および前記疾患の前記画像に表示される患者とは異なる疾患、患者の異なる性別、患者の異なる体型、異なる疾患位置、または患者の異なる年齢のうちの少なくとも1つを描写する、請求項7に記載のシステム。
  9. 前記類似性スコアを計算することが、患者の年齢、患者の肥満指数、疾患の種類、患者の性別、または患者の既往症のうちの少なくとも1つを含むメタデータを使用することを含む、請求項1に記載のシステム。
  10. 前記データベース内の前記手術ビデオの前記各々が、前記データベースに格納された少なくとも1つの関連する術前画像を有しており、前記第2の疾患情報および前記第2の臓器情報が、前記少なくとも1つの関連する術前画像から導出されており、前記少なくとも1つの術前画像が、コンピュータ断層撮影(CT)スキャン、磁気共鳴画像(MRI)スキャン、超音波画像、陽電子放出断層撮影スキャン、またはX線のうちの少なくとも1つを含む、請求項1に記載のシステム。
  11. 手術ビデオの検索のための方法であって、
    メモリおよびデータベースに結合されたプロセッサを使って、人体の臓器の1つまたは複数の画像、および疾患の1つまたは複数の画像を受信することであって、ここで、臓器の前記1つまたは複数の画像、および疾患の前記1つまたは複数の画像が、医用画像装置を使って捕捉されており、前記データベースが手術ビデオを含み、
    前記プロセッサを使って、前記臓器の前記1つまたは複数の画像から、前記臓器の形状、前記臓器の大きさ、または前記臓器の位置のうちの少なくとも1つを含む第1の臓器情報を決定することと、
    前記プロセッサを使って、前記疾患の前記1つまたは複数の画像から、前記疾患の形状、前記疾患の位置、前記疾患の大きさ、または前記疾患の病期のうちの少なくとも1つを含む第1の疾患情報を決定することと、
    前記プロセッサを使って、前記臓器の前記画像および前記疾患の前記画像からそれぞれ導出された前記第1の臓器情報および前記第1の疾患情報と、前記手術ビデオに索引付けされた第2の疾患情報および第2の臓器情報との間の類似性スコアを計算することと、
    前記プロセッサを使って、前記類似性スコアに基づいて、前記データベースから前記手術ビデオのうちの1つまたは複数を選択することと、
    前記手術ビデオのうちの前記1つまたは複数をディスプレイ上に表示することと、を含む、方法。
  12. 前記データベース内の前記手術ビデオの前記各々が、前記データベース内に格納された少なくとも1つの関連する術前画像を有しており、前記第2の疾患情報および前記第2の臓器情報が、前記少なくとも1つの関連する術前画像から導出される、請求項11に記載の方法。
  13. 前記メモリが、機械学習アルゴリズムを含んでおり、前記第1の臓器情報を決定することが、前記機械学習アルゴリズムを使用して、前記臓器の前記画像をセグメント化することを含む、請求項11に記載の方法。
  14. 前記機械学習アルゴリズムが、教師ありネットワークを含む、請求項11に記載の方法。
  15. 前記機械学習アルゴリズムが、複数の深層学習モデルを含んでおり、前記複数の深層学習モデル内の各深層学習モデルが、前記疾患の異なる種類を認識するようにトレーニングされている、請求項11に記載の方法。
  16. 前記類似性スコアを計算することが、患者の年齢、患者の肥満指数、疾患の種類、患者の性別、または患者の既往症のうちの少なくとも1つを含むメタデータを使用することを含む、請求項11に記載の方法。
  17. 前記類似性スコアを計算することが、関心領域内の前記第1の臓器情報および前記第1の疾患情報を使用することを含んでおり、前記関心領域が、前記人体内の体積である、請求項11に記載の方法。
  18. 前記医用画像装置が、コンピュータ断層撮影(CT)スキャン装置、磁気共鳴画像(MRI)装置、超音波装置、陽電子放出断層撮影(PET)装置、またはX線装置のうちの1つを含む、請求項11に記載の方法。
  19. 格納された命令を有するコンピュータ可読媒体であって、前記命令が、コンピューティングシステムに、
    前記コンピューティングシステムを使って、人体の臓器の1つまたは複数の画像、および疾患の1つまたは複数の画像を受信することであって、ここで、前記臓器の前記1つまたは複数の画像、および前記疾患の前記1つまたは複数の画像が、医用画像装置を使って捕捉され、データベース内に格納されており、前記データベースが、手術ビデオを含み、
    前記コンピューティングシステムを使って、前記臓器の前記1つまたは複数の画像から、前記臓器の形状、前記臓器の大きさ、または前記臓器の位置のうちの少なくとも1つを含む第1の臓器情報を決定することと、
    前記コンピューティングシステムを使って、前記疾患の前記1つまたは複数の画像から、前記疾患の形状、前記疾患の位置、または前記疾患の病期のうちの少なくとも1つを含む第1の臓器情報を決定することと、
    前記プロセッサを使って、前記臓器の前記1つまたは複数の画像、および前記疾患の前記1つまたは複数の画像から、それぞれ導出された前記第1の臓器情報および前記第1の疾患情報と、前記手術ビデオに索引付けされた第2の疾患情報および第2の臓器情報との間の類似性スコアを計算することと、
    前記コンピューティングシステムを使って、前記類似性スコアに基づいて、前記データベースから前記手術ビデオのうちの1つまたは複数を選択することと、
    前記手術ビデオのうちの前記1つまたは複数をディスプレイ上に表示することと、を含む、動作を実行させる、コンピュータ可読媒体。
  20. 前記メモリが、機械学習アルゴリズムを含んでおり、前記臓器情報を決定することが、前記機械学習アルゴリズムを使用して前記臓器の前記画像をセグメント化することを含む、請求項19に記載のコンピュータ可読媒体。
  21. 前記類似性スコアを計算することが、メタデータを使用することを含んでおり、前記メタデータが、患者の年齢、患者の肥満指数、疾患の種類、患者の性別、または患者の既往症のうちの少なくとも1つを含む、請求項19に記載のコンピュータ可読媒体。
  22. 前記医用画像装置が、コンピュータ断層撮影(CT)スキャン装置、磁気共鳴画像(MRI)装置、超音波装置、陽電子放出断層撮影(PET)装置、またはX線装置のうちの1つを含む、請求項19に記載のコンピュータ可読媒体。
  23. 前記データベース内の前記手術ビデオの前記各々が、前記データベース内に格納された少なくとも1つの関連する術前画像を有しており、前記第2の疾患情報および前記第2の臓器情報が、前記少なくとも1つの関連する術前画像から導出されており、前記少なくとも1つの術前画像が、コンピュータ断層撮影(CT)スキャン、磁気共鳴画像(MRI)スキャン、超音波画像、陽電子放出断層撮影スキャン、またはX線のうちの少なくとも1つを含む、請求項19に記載のコンピュータ可読媒体。
JP2020545593A 2018-03-19 2019-03-14 術前画像に基づく手術ビデオ検索 Active JP7150036B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862644737P 2018-03-19 2018-03-19
US62/644,737 2018-03-19
PCT/US2019/022352 WO2019182875A1 (en) 2018-03-19 2019-03-14 Surgical video retrieval based on preoperative images

Publications (2)

Publication Number Publication Date
JP2021516810A true JP2021516810A (ja) 2021-07-08
JP7150036B2 JP7150036B2 (ja) 2022-10-07

Family

ID=65952165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020545593A Active JP7150036B2 (ja) 2018-03-19 2019-03-14 術前画像に基づく手術ビデオ検索

Country Status (5)

Country Link
US (2) US11657087B2 (ja)
EP (1) EP3769315A1 (ja)
JP (1) JP7150036B2 (ja)
CN (1) CN111919260A (ja)
WO (1) WO2019182875A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10678244B2 (en) 2017-03-23 2020-06-09 Tesla, Inc. Data synthesis for autonomous control systems
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
WO2019079430A1 (en) 2017-10-17 2019-04-25 Verily Life Sciences Llc SYSTEMS AND METHODS FOR SEGMENTING SURGICAL VIDEOS
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US10956817B2 (en) * 2018-04-18 2021-03-23 Element Ai Inc. Unsupervised domain adaptation with similarity learning for images
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
JP6914233B2 (ja) * 2018-08-31 2021-08-04 富士フイルム株式会社 類似度決定装置、方法およびプログラム
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
JP2021191320A (ja) * 2018-09-11 2021-12-16 ソニーグループ株式会社 手術支援システム、表示制御装置、および表示制御方法
IL282172B2 (en) 2018-10-11 2024-02-01 Tesla Inc Systems and methods for training machine models with enhanced data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US20200273560A1 (en) 2019-02-21 2020-08-27 Theator inc. Surgical image analysis to determine insurance reimbursement
WO2020172414A1 (en) 2019-02-21 2020-08-27 Theator inc. Systems and methods for analysis of surgical videos
US11348235B2 (en) * 2019-03-22 2022-05-31 Verily Life Sciences Llc Improving surgical video consumption by identifying useful segments in surgical videos
JP7192990B2 (ja) * 2019-06-17 2022-12-20 日本電信電話株式会社 学習装置、検索装置、学習方法、検索方法、学習プログラム、及び検索プログラム
US11185386B2 (en) * 2019-08-22 2021-11-30 Taipei Medical University Smart marking system for surgical video and method thereof
CA3096145A1 (en) * 2019-10-11 2021-04-11 Royal Bank Of Canada System and method of machine learning using embedding networks
US11449717B2 (en) * 2020-03-12 2022-09-20 Fujifilm Business Innovation Corp. System and method for identification and localization of images using triplet loss and predicted regions
CN111652073B (zh) * 2020-05-08 2023-02-28 腾讯科技(深圳)有限公司 视频分类方法、装置、系统、服务器和存储介质
US11918374B2 (en) * 2020-05-08 2024-03-05 Wisconsin Alumni Research Foundation Apparatus for monitoring treatment side effects
US11288797B2 (en) * 2020-07-08 2022-03-29 International Business Machines Corporation Similarity based per item model selection for medical imaging
US20240047043A1 (en) * 2020-12-16 2024-02-08 Koninklijke Philips N.V. Image selection for presentation
CN112890774B (zh) * 2021-01-18 2023-08-01 吾征智能技术(北京)有限公司 一种基于唇部图像的疾病辅助预测系统、设备、存储介质
CN113116511B (zh) * 2021-04-16 2023-04-07 杭州维纳安可医疗科技有限责任公司 电信号输出方法、装置、设备、系统及存储介质
CN113553460B (zh) * 2021-08-13 2022-06-28 北京安德医智科技有限公司 影像检索方法及装置、电子设备和存储介质
CN115985509A (zh) * 2022-12-14 2023-04-18 广东省人民医院 一种医学影像学数据检索系统、方法、装置和存储介质
CN117437392B (zh) * 2023-12-15 2024-03-26 杭州锐健医疗科技有限公司 交叉韧带止点标记及其模型训练的方法和关节镜系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002325754A (ja) * 2001-04-27 2002-11-12 Canon Inc 画像処理方法および装置
JP2007275408A (ja) * 2006-04-10 2007-10-25 Fujifilm Corp 類似画像検索装置および方法並びにプログラム
JP2010167042A (ja) * 2009-01-21 2010-08-05 Canon Inc 医用診断支援装置及びその制御方法、並びに、プログラム
JP2013047940A (ja) * 2011-07-22 2013-03-07 Toshiba Corp 医用画像制御システム及び携帯端末
JP2014179092A (ja) * 2013-03-14 2014-09-25 Depuy Synthes Products Llc 医療用画像データからの患者固有の整形外科手術計画の生成
US20170213339A1 (en) * 2016-01-21 2017-07-27 Impac Medical Systems, Inc. Systems and methods for segmentation of intra-patient medical images
JP2017219878A (ja) * 2016-06-02 2017-12-14 東芝メディカルシステムズ株式会社 医用画像管理装置、医用画像管理システムおよび医用画像管理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1172064A3 (en) * 2000-07-13 2003-01-15 Computer Motion, Inc. Method and apparatus for accessing medical data over a network
JP2006223375A (ja) * 2005-02-15 2006-08-31 Olympus Corp 手術データ記録装置、手術データ表示装置及び手術データ記録表示方法
US8171030B2 (en) 2007-06-18 2012-05-01 Zeitera, Llc Method and apparatus for multi-dimensional content search and video identification
WO2009113102A2 (en) 2008-02-27 2009-09-17 Tata Consultancy Services Limited Content based visual information retrieval systems
JP5836267B2 (ja) 2009-05-18 2015-12-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 電磁追跡内視鏡システムのためのマーカーなし追跡の位置合わせおよび較正のための方法およびシステム
WO2014139021A1 (en) * 2013-03-15 2014-09-18 Synaptive Medical (Barbados) Inc. Intramodal synchronization of surgical data
CN103324853A (zh) * 2013-06-25 2013-09-25 上海交通大学 基于医学图像特征的相似度计算系统及方法
WO2016200887A1 (en) 2015-06-09 2016-12-15 Intuitive Surgical Operations, Inc. Video content searches in a medical context
US10037407B2 (en) * 2015-11-23 2018-07-31 Koninklijke Philips N.V. Structured finding objects for integration of third party applications in the image interpretation workflow
US10642955B2 (en) * 2015-12-04 2020-05-05 Saudi Arabian Oil Company Devices, methods, and computer medium to provide real time 3D visualization bio-feedback
CN105868539A (zh) * 2016-03-24 2016-08-17 苏州麦迪斯顿医疗科技股份有限公司 一种多媒体医疗数据索引方法及装置
JP6596406B2 (ja) * 2016-12-09 2019-10-23 富士フイルム株式会社 診断支援装置とその作動方法および作動プログラム、並びに診断支援システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002325754A (ja) * 2001-04-27 2002-11-12 Canon Inc 画像処理方法および装置
JP2007275408A (ja) * 2006-04-10 2007-10-25 Fujifilm Corp 類似画像検索装置および方法並びにプログラム
JP2010167042A (ja) * 2009-01-21 2010-08-05 Canon Inc 医用診断支援装置及びその制御方法、並びに、プログラム
JP2013047940A (ja) * 2011-07-22 2013-03-07 Toshiba Corp 医用画像制御システム及び携帯端末
JP2014179092A (ja) * 2013-03-14 2014-09-25 Depuy Synthes Products Llc 医療用画像データからの患者固有の整形外科手術計画の生成
US20170213339A1 (en) * 2016-01-21 2017-07-27 Impac Medical Systems, Inc. Systems and methods for segmentation of intra-patient medical images
JP2017219878A (ja) * 2016-06-02 2017-12-14 東芝メディカルシステムズ株式会社 医用画像管理装置、医用画像管理システムおよび医用画像管理方法

Also Published As

Publication number Publication date
US20230252075A1 (en) 2023-08-10
WO2019182875A1 (en) 2019-09-26
CN111919260A (zh) 2020-11-10
JP7150036B2 (ja) 2022-10-07
EP3769315A1 (en) 2021-01-27
US20190286652A1 (en) 2019-09-19
US11657087B2 (en) 2023-05-23

Similar Documents

Publication Publication Date Title
JP7150036B2 (ja) 術前画像に基づく手術ビデオ検索
US8380013B2 (en) Case image search apparatus, method and computer-readable recording medium
US7933437B2 (en) Information processing apparatus and its control method and data processing system
JP7366583B2 (ja) 医用情報処理装置、方法及びプログラム
US20180089840A1 (en) Automatic Medical Image Retrieval
JP5502346B2 (ja) 症例画像登録装置、方法およびプログラムならびに症例画像検索装置、方法、プログラムおよびシステム
KR20170046104A (ko) 질환 모델 기반의 의료 정보 서비스 제공 방법 및 장치
JP5431924B2 (ja) 臨床医駆動の例示ベースのコンピュータ支援診断
US20170154167A1 (en) A system and a related method for automatically selecting a hanging protocol for a medical study
JP7333132B1 (ja) マルチビューサブ空間クラスタリングに基づくマルチモード医学データ融合システム
WO2008001928A1 (fr) Appareil d'affichage d'image médicale et programme d'affichage d'image médicale
CN113962311A (zh) 知识数据和人工智能驱动的眼科多病种识别系统
JP7170747B2 (ja) 類似度決定装置、方法およびプログラム
JP5539478B2 (ja) 情報処理装置および情報処理方法
Le Van et al. Detecting lumbar implant and diagnosing scoliosis from vietnamese X-ray imaging using the pre-trained api models and transfer learning
JP7444382B2 (ja) 画像符号化装置、方法およびプログラム、画像復号化装置、方法およびプログラム、画像処理装置、学習装置、方法およびプログラム、並びに類似画像検索装置、方法およびプログラム
CN111226287A (zh) 用于分析医学成像数据集的方法、用于分析医学成像数据集的系统、计算机程序产品以及计算机可读介质
JP2006235971A (ja) 画像参照装置及び画像分類検索方法
EP3667674A1 (en) Method and system for evaluating images of different patients, computer program and electronically readable storage medium
JP5390393B2 (ja) 標本に基づくフィルタ
Ling et al. Machine learning-based segmentation of images to diagnose the orthopedic diseases and to guide the orthopedic surgeries
Lu et al. An Approach to Classifying X-Ray Images of Scoliosis and Spondylolisthesis Based on Fine-Tuned Xception Model.
Shusharinaa et al. Integrating deep learning algorithms for the lung segmentation and body-part-specific anatomical classification with Medical Imaging and Data Resource Center (MIDRC)
CN116072266A (zh) 医疗图像数据的处理装置以及医疗图像数据的处理方法
CN118116603A (zh) 用于对医学图像数据集进行分类的方法和系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201029

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220927

R150 Certificate of patent or registration of utility model

Ref document number: 7150036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150