JP2019530116A - マルチモーダル医用画像処理 - Google Patents

マルチモーダル医用画像処理 Download PDF

Info

Publication number
JP2019530116A
JP2019530116A JP2019533702A JP2019533702A JP2019530116A JP 2019530116 A JP2019530116 A JP 2019530116A JP 2019533702 A JP2019533702 A JP 2019533702A JP 2019533702 A JP2019533702 A JP 2019533702A JP 2019530116 A JP2019530116 A JP 2019530116A
Authority
JP
Japan
Prior art keywords
data
medical
classifier
training
clinical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019533702A
Other languages
English (en)
Other versions
JP2019530116A5 (ja
Inventor
ケスケメシー、ピーター
ライケン、トビアス
Original Assignee
ケイロン メディカル テクノロジーズ リミテッド
ケイロン メディカル テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ケイロン メディカル テクノロジーズ リミテッド, ケイロン メディカル テクノロジーズ リミテッド filed Critical ケイロン メディカル テクノロジーズ リミテッド
Publication of JP2019530116A publication Critical patent/JP2019530116A/ja
Publication of JP2019530116A5 publication Critical patent/JP2019530116A5/ja
Priority to JP2022080601A priority Critical patent/JP2022116080A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Epidemiology (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

本発明は医用画像における関心領域の識別に関する。より具体的には、本発明は、複数の種類の医用画像データについて訓練されたエンコード方法および/または分類方法に基づく医用画像内の関心領域の識別に関する。態様および/または実施形態は、シングルモダリティのデータ入力ソースに基づいて医用画像内の関心領域を分類するために、マルチモーダルデータ入力に基づいてエンコーダおよび/または分類器を訓練する方法を提供しようとするものである。

Description

本発明は医用画像における関心領域の識別に関する。より具体的には、本発明は、複数の種類の医用撮像データについて訓練されたエンコーディング(符号化方法)および/または分類方法に基づく医用画像内の関心領域の識別に関する。
コンピュータ支援診断(Computer−aided Diagnosis:CADとも呼ぶ)は、磁気共鳴映像法、X線映像法、超音波映像法などの技術を使用して生成された医用画像の解釈を支援するために医療専門家によって過去40年間開発および使用されてきた技術である。
これらのような医用画像技術は大量の画像データを生成し、それは典型的には放射線科医のような医療専門家によって手動で処理され、そして具体的には診断の決定に関してその医療専門家によって分析又は評価される。典型的な診断は、例えば、マンモグラフィにおけるような癌のスクリーニングおよび検出に関する。
関心のある画像の領域を1以上のたとえば放射線科医の医療専門家に示す可能性がある各画像内で顕著な領域を強調するために、コンピュータ支援診断は、医用画像技術と共に使用して医用画像技術を使用して生成された画像データを処理することができる。
それはまだ医療専門家が容認できると考える信頼性のレベルに達していないので、コンピュータ支援診断は医療専門家の意見の代わりとして使用されることはほとんどない。
さらに、X線画像データのようないくつかの医用画像データは、得られる画像における解像度または明瞭さの欠如のために、所定の診断を達成するためいつも最適なデータであるというわけにはいかない。そのため、直ちに利用可能な画像データに基づいて予備診断を確認するために、その医療専門家または他の医療専門家によってさらなるデータまたは試験を実行する必要がある。
態様および/または実施形態は、シングルモダリティのデータ入力ソースに基づいて医用画像内の関心領域を分類するために、マルチモーダルデータ入力に基づいてエンコーダおよび/または分類器を訓練する方法を提供しようとしている。
第1の態様によれば、医用または臨床画像データ内の関心領域を自動的に識別するための方法が提供され、その方法は、ラベル付けされていない入力データを受信し、その入力データは、複数のモダリティのデータのうちの1つからのデータを含み、訓練済みエンコーダを使用してそのラベル付けされていない入力データをエンコード(符号化)し、訓練済み共同表現モジュールを使用して共同表現を決定し、訓練済み分類器に対する入力としてその共同表現を使用することによってその入力データに対するラベル付きデータを生成すること、を含む。
このようにして、本方法は、入力データの共同表現を得るために手作業で作成された特徴に頼る必要がない。本方法は、いくつかの事前訓練済み構成要素を使用して自動的に共同表現を決定する。
好ましくは、エンコーダ、共同表現モジュール、および分類器は、複数のモダリティを含む入力訓練データを用いて訓練される。実行時(またはテスト時)に、本方法は1つの入力モダリティだけを受信する(受け取る)ことができる。医用または臨床データにおける関心領域の識別の精度を向上させるために、事前訓練済み構成要素は、1つの入力のみが受信されたときに共同表現を決定するために使用できる複数の入力モダリティを使用して訓練される。
好ましくは、1つまたは複数のモダリティの入力データが提供される。 場合によっては、複数の種類の医用画像を入力として使用することができる。
好ましくは、入力データは、マンモグラフィ; X線; コンピュータ断層撮影(CT)スキャン; 磁気共鳴映像法(MRI)データ; 組織構造データ; マンモグラフィデータ; 遺伝子配列データおよび/または超音波データのうちの1つまたは複数を含む。
好ましくは、共同表現モジュールは、1つまたは複数の訓練済みエンコーダから受信された1つまたは複数の出力を使用して訓練される。
好ましくは、共同表現モジュールは、エンコードされたデータを浮動小数点数の三次元テンソルとして受け取る。任意選択で、共同表現はベクトルの形をとる。
好ましくは、ラベル付きデータを生成することは、ラベル付けされていない入力データ内の1つまたは複数の関心領域の表示を生成することをさらに含む。
好ましくは、ラベル付けされていない入力データのモダリティの数は、エンコーダ、共同表現モジュール、および分類器を訓練するために使用される入力訓練データのモダリティの数よりも1つ少ない。このようにして、訓練済み構成要素は、入力データを補助するために常にデータの追加的なモダリティを有することになる。
第2の態様によれば、医用または臨床データについて分類器を訓練する方法が提供され、事前ラベル付けされたデータセットからラベル付けされていない入力データを受信すること、前記入力データは複数のモダリティからのデータを含み、共同表現を形成するために、複数のモダリティからのラベル付けされていない入力データをエンコードすることと、共同表現から適応可能な分類アルゴリズムを使用して分類を実行して、共同表現からラベル付けされたデータを生成することと、事前ラベル付けされたデータセットからラベル付けされたデータと事前ラベル付けされたデータとを比較し、比較データを出力することと、比較データに応じて適応可能分類アルゴリズムを調整することと、比較データが適応可能分類アルゴリズムに対してそれ以上の調整を行う必要がないことを示す所定の閾値に達するまで上記方法を繰り返すこととを含む。
好ましくは、共同表現を形成するために複数のモダリティからのラベル付けされていない入力データをエンコーディングするステップは、複数の関連したおよび/または対のエンコーダによって実行される。
少なくとも2つのデータソースを使用して分類器を訓練することによって、例えば関心領域を識別するために、医用または臨床データを分類する際に使用する訓練済みエンコーダペアリングおよび共同表現を生成することができる。
好ましくは、入力データは複数の情報ソースからのデータを含む。好ましくは、2つのモダリティの入力データが受信される。好ましくは、ラベル付けされていない入力データは1つまたは複数の医用画像の形式である。好ましくは、ラベル付けされていない入力データは複数の医用画像の形式である。好ましくは、複数の医用画像は関連している。好ましくは、入力データは、マンモグラフィ;X線;コンピュータ断層撮影(CT)スキャン;磁気共鳴映像法(MRI)スキャン;および/または超音波スキャンのうちの1つまたは複数を含む。好ましくは、医用画像はダイコムファイルの形式である。
ダイコムファイルのフォーマットとすることができる例えばマンモグラフィ、X線、CT、MRIおよび/または超音波データを含む医用データのような、複数のソースおよび/またはモダリティから入力データを提供することによって、分類器、エンコーダ、および共同表現の訓練をこのデータを使用して実行することができる。複数の医用画像が関連している場合、例えばそれらがすべて特定の種類の癌性成長に関連している場合、分類器、エンコーダ、および共同表現のためのより安定的な訓練を実行することができる。
好ましくは、共同表現を形成するために複数のモダリティからのラベル付けされていない入力データをエンコードするステップは、各モダリティについて別々に実行される。
複数の異なる様式から共同表現を生成することは、その様式について訓練された特定のエンコーダの使用を必要とし、かつ/またはそれから利益を得ることができる。
好ましくは、適応可能分類アルゴリズムは機械学習アルゴリズムを含む。
機械学習アルゴリズムを提供することによって、本明細書に開示されている方法を使用して行われた誤差を将来から学習することができ、それによって将来行われる可能性がある誤差の数を減らすことができる。
好ましくは、適応可能分類アルゴリズムは、サポートベクターマシン(SVM)、多層パーセプトロン、および/またはランダムフォレストを含む。
バックプロパゲーションを使用して訓練される分類器、例えば多層パーセプトロンを使用することは、分類器が訓練されている間にエンコーダモデルのパラメータを微調整することを可能にする。SVMは、あるレベルの安定性と汎化能力を提供することによって、目に見えないデータに対してもうまく機能することができる。ランダムフォレストはより速い訓練速度を提供し、そして特徴選択を容易にすることができる。
第3の態様によれば、医用または臨床の目的のためデータを分類する方法が提供され、ラベル付けされていない入力データを受け取り、前記入力データは、複数のモダリティのデータのうちの1つからのデータを含み、訓練済みエンコーダを使用してラベル付けされていない入力データを訓練済み共同表現にエンコード(符号化)し、訓練済み共同表現に対して学習済み分類アルゴリズムを使用して分類を実行し、訓練済み共同表現からラベル付けされたデータを生成することを含む。好ましくは、1つの様式の入力データが提供される。
2つのデータソースを使用して分類器を訓練することによって、訓練済みエンコーダおよび共同表現は、医用または臨床データを分類するために、例えば関心領域を識別するために使用するために生成され得る。このような分類は、必要に応じてシングルモダリティのみが存在し得るため、例えば患者がX線を受けたばかりであるがさらなる検査が行われていない場合に、シングルモダリティのみを使用して実行され得る。しかしながら、先に述べたように、訓練の方法すなわち分類は、その時には欠けている場合でも他の様式から利益を引き出すことができる。
好ましくは、分類を実行することは、ラベル付けされていないデータ内の1つまたは複数の関心領域の表示を生成することをさらに含む。好ましくは、1つまたは複数の関心領域は癌性増殖を示す。
関心領域に注意を引くことによって、ユーザは、そうでなければ無視しているかもしれない医用画像の一部を検討することができる。ユーザはまた、指示されていない領域をより詳細に見直すことができることによって時間を節約することができ、したがって、関心がない画像の部分を分析する無駄な努力を回避することができる。
好ましくは、ラベル付けされていない入力データのモダリティ数は、学習済み分類アルゴリズムを訓練するために使用される入力データのモダリティ数よりも1つ少ない。好ましくは、使用される任意のエンコーダまたはデコーダは、任意のVGG、および/またはAlexNet、および/またはRNNを含むCNNsであり、好ましくは512個の隠れユニットを持つ双方向LSTMを含む。
第4の態様によれば、本明細書に記載のそれぞれの方法を使用して医用または臨床目的のために分類器を訓練するためのおよび/またはデータを分類するための装置が提供される。
実施形態について、一例として、そして同様の参照番号を有する添付の図面を参照しながら説明する。
図1は、マルチモーダルニューラルエンコーダのための訓練プロセスを示す。 図2は、エンコーダ−デコーダアーキテクチャのより詳細な図を示す。 図3は、分類器のための訓練プロセスを示す。 図4は、使用時の訓練済分類器を示す。 図5は、使用時の訓練済分類器の第2の例を示す。
図1を参照して、第1の実施形態は、マルチモーダルニューラルエンコーダ1の訓練について説明する。
この実施形態では、2つ以上の別々のDigital Imaging and Communications in Medicine(ダイコム)ファイル5、6を受信するように動作可能なマルチモーダルニューラルエンコーダ1を訓練する方法が提供される。各ダイコムファイル5、6は、ダイコムデコーダ10、11に入力される。各ダイコムファイル5、6は、異なる種類のセンサまたは画像化技術(または「モダリティ」)、すなわち異なる情報ソース(情報源)からのものであり得る。例えば、一方のダイコムファイル5はX線データからのものであり得、他方のダイコムファイル6は組織構造的データからのものであり得る。同様に、X線データ、組織構造データ、MRIデータ、マンモグラフィデータおよび遺伝子配列データの任意の組み合わせを入力として使用することができる。
入力データは、あらゆるモダリティ、およびあらゆるタイプの次元を持つことができる。一例として、一方の入力は二次元マンモグラフィ画像であり得、他方の入力は一次元遺伝子データであり得る。
ダイコムデコーダ10、11は、対応するダイコム画像5、6を読み取り、それを無劣化のJoint Photographic Experts Group(JPEG)画像に変換する。JPEG画像15、16はメモリに読み込まれ、そこで浮動小数点数の3次元テンソルとして表される。
これらのテンソルは、対応するエンコーダ20、21に入力されて、共有表現(shared representation)(共同表現(joint representation)と呼ばれることもある)25が得られる。機械学習技術を実装することによって、システムは自動的に最も適切な共同表現を学習して作成する。共同表現25は、所与の長さのベクトル(すなわち1次元テンソル)の形であり得る。正確な長さは任意であるが、この実施形態では、通常、512から4000要素の範囲内であり、各要素は実数である。各エンコーダ20、21からの出力は、同じ共同表現25に入力される。共同表現の要素は、エンコーダ20、21から受信した重みによって接続された実数である。したがって、共同表現は、マルチモーダル入力からの重みの集合を使用して作成される。各入力は、共同表現を作成するための独自の重みの集合を有する。たとえば、2つの入力モダリティを持つシナリオを考える。最初の入力モダリティの表現は次のように作成される:

y(1)=f(1) (W(1)x(1)+b(1))

f(1) は非線形関数、W(1) は重みの集合、x(1) は入力、b(1) は第1のモダリティに対するバイアスである。2番目のモダリティの表現は次のように作成される:

y(2)=f(2) (W(2)x(2)+b(2))

f(2) は非線形関数、W(2) は重みの集合、x(2) は入力、b(2) は第2のモダリティに対するバイアスである。
したがって、各エンコーダの出力表現はベクトルである。それぞれが異なる入力モダリティを扱う複数のエンコーダがあるとき、それらは同じ長さを有することができる。例えば、n個の異なる入力について:
len(y(1))==len(y(2))==len(y(3))== … ==len(y(n))
これらのベクトルは、個々のベクトルと同じ長さ(len)の1つの共同表現に結合できる。ベクトルは、ニューラルネットワーク内でいくつかの方法で組み合わせることができる。これは、次の方法でなされる。
1.総和:共同表現は、すべてのn個のベクトルの合計である;
2.平均プ−ルリング:すべてのn個のベクトルの平均が共同表現として扱われる;
3.最大プールリング:ベクトルの最大値が共同表現として扱われる; または
4.学習済みプールリング:1x1カーネルを有する畳み込み層は、n個のベクトルのそれぞれについて加重平均を作成するために使用され、畳み込み層における重みは訓練され得る。
学習済みプーリングは、個々の表現を共同表現にする最良の方法を開発するためのより高い柔軟性を提供することができる。さらに、訓練するプロセスを通じて、最良の加重平均をバックプロパゲーションによって自動的に設定することができる。
図2を参照して、マルチモーダルニューラルエンコーダ1のより詳細なバージョンを説明する。
共同表現の第1の要素25aは、各エンコーダ20、21から入力重みを受け取り、第2の要素25b、第3の要素25c、その他の要素(図示せず)についても同様である。(示されていない他のエンコーダを含むことができる)さらなるエンコーダ22もまた、分析されている画像モダリティの数に応じて、共通の共同表現25に入力(Feed)することができる。より多くのモダリティの入力は、エンコーダ20〜22を訓練するより効果的および/または効率的な方法を提供することができる。すべてのエンコーダからの各出力は、共同表現内のすべての要素に接続されている。層間の重みは行列に格納される。マルチモーダルニューラルエンコーダ1の一部として使用され得る多くのCNNは、一の終端または終端層に低レベルの表現を有する。したがって、CNNは、全結合層が後に続くいくつかの畳み込み層を含むことができる。1つまたは複数のCNNは、高次元入力を低次元表現にエンコードするように動作可能であり得る。この実施形態では、そのような表現は、共同表現25の形態であるが、同じ表現を共有する複数のエンコーダをさらに備える。各エンコーダ20〜22は、同じ全結合層に接続するように動作可能である。共同表現25は、すべてのエンコーダ20〜22から入力を受け取り、すべてのデコーダ30〜32にその出力を送るように、各エンコーダ20〜22の層および各デコーダ30〜32の層に全結合され動作可能なデータ構造である。
使用可能な共同表現25を生成するために、任意のエンコーダの出力に対して加重和が実行される。エンコーダ20〜22についてこの表現に示されるように、複数のエンコーダがある場合、共同表現は、すべてのエンコーダ20〜22の出力にわたる加重和である。図4を参照して説明するように、共同表現25の重みは訓練中にのみ更新され、実行時には一定のままである。実行時には、重み更新を実行するアルゴリズム、この実施形態ではバックプロパゲーションアルゴリズムは、まったく実行されない。共同表現25から提供されるデータは次に1つまたは複数のデコーダに出力される。各デコーダ30、31はデータをJPEG画像15、16に復元する。各デコーダ30、31は、元のダイコムファイル5、6のモダリティのうちの1つを含む、少なくとも1つのモダリティの入力データをデコードするのに適している。更なるエンコーダ22を使用して同じ共同表現25にデータを入力(feed)した場合、更なるデコーダ32を使用してデータをJPEG画像に戻すことができる。
したがって、共同表現25は、各エンコーダから受信される重みを使用して訓練される。マルチモーダルニューラルオートエンコーダ1のさらなる訓練は、バックプロパゲーションおよび勾配降下法を使用して実行され得る。バックプロパゲーションは、パラメータに関する誤差の勾配を計算する。その後、勾配降下法を使用して重みを更新する。誤差関数、または復元基準は、平均二乗誤差である:
xiとyiは、それぞれ入力画像と再構成画像のピクセルである。この訓練する手順は教師なし学習タスクである。したがって、ラベル付けされたデータは必要ない。

Dn={(x0), … ,(xn)}
それにより、マルチモーダルニューラルオートエンコーダ1は、エンコーダ20、21および共同表現25を訓練する。デコーダ30、31はこのプロセス中に訓練される必要はない。訓練プロセスは、訓練されるすべてのコンポーネントに対して実質的に同時に発生し、これは「エンドツーエンド」プロセスとして知られている。オートエンコーダ1は、入力15,16を低次元の共同表現25にエンコードし、次に、デコーダ30、31を介した入力を、エンコーダに与えられた入力15、16と実質的に同じである出力17、18に再構成するように動作可能である。エンコーダ20、21とデコーダ30、31の両方における重みは、バックプロパゲーションアルゴリズムを使用して同時に訓練される。
重みは、入力15を提供することによって更新することができ、その後、入力15は、プロセスを通じて「順方向パス」を経て、その際に最終的に出力17に処理される。出力17が(訓練するセットからの)予想される出力と一致しない場合、2つの間の差は誤差になる。次いで、その誤差は、プロセスを通して逆伝搬する(Backpropagated)ことができ、それによって各パラメータに関して損失の勾配を計算する。その後、勾配をゼロに設定することで、重みを正確に更新することができる。したがって、出力17が入力15とあまりにも異なる場合、アルゴリズムはペナルティを科される。出力が入力と同じになるように構成され、訓練するセットが使用されるので、マルチモーダルニューラルエンコーダ1を訓練するプロセスのこの段階は、教師なしで実行することができる。
図3を参照して、分類器を訓練することの詳細を以下に説明する。
マルチモーダルニューラルオートエンコーダ1が複数のモダリティを用いた教師なし事前訓練を受けると、エンコーダ20、21および共同表現25を含むマルチエンコーダモジュール65は、訓練時間50の一部として分類器55への入力として機能する。分類器は、多層パーセプトロン、サポートベクターマシン(SVM)、またはランダムフォレストなどの形態であり得る。分類器に多層パーセプトロンを使用するとき、分類器はバックプロパゲーション法と勾配降下法によっても訓練されることができ、エンコーダからの事前訓練された重みのより利用しやすい微調整を可能にする。この訓練手順は教師付き学習タスクであり、ラベル付きのデータセットを必要とする:

Dn={(x0,y0), … ,(xn,yn)}


(数2)は、d次元画像、y∈[0,1]はラベルである。
分類器を訓練するこの段階の出力は、以前のように画像自体ではなく、(画像)入力のラベルである。したがって、誤差を計算するために、1つ以上が存在する場合は、これらのラベルを含むデータセットが必要である。そのようなデータセットは、既に分類され、関連するラベルを付されている訓練データ75の形で提供される。したがって、分類器55が提供される入力に基づいてラベルを生成するとき、そのラベルは訓練データ75から正しいことが知られているラベルでチェックできる。図2を参照すると、2つのラベルの違いは誤差の結果であり、誤差の原因を見つけて減らすためにバックプロパゲーションを実行できる。
使用される分類器の種類、例えばSVM、ランダムフォレスト、または多層パーセプトロンは、別個の訓練アルゴリズムを使用して訓練されることができる。これらのアルゴリズムは、最大マージン最適化、決定木にわたる平均化、およびバックプロパゲーションをそれぞれ含み得る。
ここで図4を参照して、訓練された分類器を使用するプロセスをここでさらに詳細に説明する。
図4は、ラベル付けしたデータのモダリティに対応する事前訓練済みエンコーダモデルを使用して分類器が訓練された後のランタイム100を示す。ランタイム100の間、共同表現25内の実数の値は供給された各データポイントごとに異なるが、共同表現に対する重みは一定のままである。この例では、ダイコムファイル5の形式の単一の入力がダイコムデコーダ10に入力され、ダイコムデコーダ10は、前述のように、ダイコム画像を読み取り、それを無劣化のJPEG画像15に変換する。JPEG画像はその後メモリに読み込まれる。ここでは、浮動小数点数の3次元テンソルとして表現されている。共同表現25を得るために、テンソルはエンコーダ20に入力される。纏められたエンコーダモジュール70が設けられ、これはエンコーダ20と共同表現25とを含む。纏められたエンコーダモジュール70は、分類器55に供給される出力を提供し、そこで分類器は予測を出力する。ランタイム100の間、および/または纏められたエンコーダモジュール70の使用を通じて、さらなる訓練も提供され得る。
図4の説明に加えて、図5は、ダイコムファイルの形の複数の入力の例を示す。この例では、各入力は、訓練する段階で上述したように異なるモダリティに関連し得る。
医用画像内の関心領域を識別するように動作可能なコンピュータ支援診断(CAD)システムが提供される。医用画像から病理を分類する機能は、非線形の非常に複雑な機能である。畳み込みニューラルネットワーク(CNN)は、そのような任意の機能をモデル化することができる:

y=f(Wx+b)

f は非線形関数、W は重みの集合、x は入力、b はバイアスベクトルである。
重みの行列は、マルチフェーズ訓練を使用して誤差基準を最小限に抑えるように最適化されている。マルチフェーズ訓練は、画像再構成基準を使用して、共同表現25を通して訓練されたマルチモーダルニューラルオートエンコーダ1を得ること、および、両方のモダリティについての共同表現を得るために事前訓練済みの共同表現25を通過する入力を提供することによって分類器55を訓練することを含む。
したがって、CADは、所与の瞬間にはシングルモダリティしか提供されない場合でも、異なるモダリティの共同表現を使用することによって医用画像内の関心領域の識別を提供することができる。例えば、患者がX線を受けただけで、それ以上の情報にアクセスできない場合、画像の分析は、その他の、存在しないモダリティの恩恵を受けて提供され得る。したがって、本発明は、複数のモダリティ(例えば、マンモグラムおよび対応する組織構造画像)から特徴を学習するように動作可能であるが、分析を実行するために実行時にただ1つのモダリティを必要とする。予測を行うための好ましい方法は、細胞レベルの組織構造画像からである。しかしながら、患者が診断されるときには組織構造的データは一般的には存在せず、医用画像データへのアクセスしかない。
分類器55の出力は、受信された入力15に異常があるか否かを示す単純な「はい/いいえ」の回答の形態であり得る。CADは入力画像のパッチを取り、その個々のパッチに異常があるかどうかを確かめることができる。CADは、入力全体をカバーするピッチのグリッドに対してそのような動作を実行することができ、それによって、そのような異常を有するように見える領域の周りの関心領域を識別することを可能にする。
この実施形態では、具体的には2つの入力15、16を使用してマルチモーダルニューラルエンコーダ1および分類器55を訓練する。しかしながら、訓練済みニューラルエンコーダ1および分類器55を使用するためには単一の入力のみが必要とされる。生成された出力は、ランタイム中に提供されないさらなるデータ(例えば、組織構造的データ)を使用して得られた訓練から利益を得ることができる。いくつかの実施形態では、訓練済みニューラルエンコーダ1および分類器55を使用して出力を生成するのに必要とされる1つまたは複数のより少ない入力で、複数の入力が提供され得る。
本明細書に記載されているような任意のシステムの特徴も方法の特徴として提供することができ、逆もまた同様である。本明細書で使用されるとき、ミーンズプラスファンクションの特徴は、それらの対応する構造に関して代替的に表現されてもよい。
一態様における任意の特徴は、任意の適切な組み合わせで他の態様に適用され得る。特に、方法の態様はシステムの態様に適用することができ、逆もまた同様である。さらに、ある態様におけるいくつかの、および/またはすべての特徴は、あらゆる適切な組み合わせで、他のあらゆる態様における、いくつかの、および/またはすべての特徴に適用することができる。
また、任意の態様において説明され定義された様々な特徴の特定の組み合わせは、独立して実施および/または提供および/または使用することができることを理解されたい。

Claims (28)

  1. 医用または臨床画像データ内の関心領域を自動的に識別するための方法であって、
    複数のモダリティのデータのうちの1つからのデータを含む、ラベル付けされていない入力データを受信し、
    訓練済みエンコーダを使用してそのラベル付けされていない入力データをエンコードし、
    訓練済み共同表現モジュールを使用して共同表現を決定し、および、
    訓練済み分類器に対する入力として共同表現を使用することによって、その入力データに対するラベル付きデータを生成する、
    方法。
  2. 前記エンコーダ、前記共同表現モジュール、および前記分類器は、複数のモダリティを含む入力訓練データを用いて訓練される、請求項1に記載の方法。
  3. 1以上のモダリティの入力データが提供される、請求項1または2に記載の方法。
  4. 入力データは、マンモグラフィ、X線、コンピュータ断層撮影(CT)スキャン、磁気共鳴映像法(MRI)データ、組織構造データ、マンモグラフィデータ、遺伝子配列データ、および/または超音波データのうちの1または複数含む、請求項3に記載の方法。
  5. 前記共同表現モジュールは、前記1つまたは複数の訓練済みエンコーダから受信された1つまたは複数の出力を使用して訓練される、請求項1乃至4のいずれかに記載の方法。
  6. 前記共同表現モジュールは、前記エンコードされたデータを浮動小数点数の三次元テンソルとして受け取る、請求項1乃至5のいずれかに記載の方法。
  7. 前記共同表現は、ベクトルの形式である、請求項1乃至6のいずれかに記載の方法。
  8. ラベル付きデータを生成することは、前記ラベル付けされていない入力データ内の1以上の関心領域の表示を生成することをさらに含む、請求項1乃至7のいずれかに記載の方法。
  9. 前記ラベル付けされていない入力データのモダリティ数は、前記エンコーダ、前記共同表現モジュール、および前記分類器を訓練するために使用される入力訓練データのモダリティ数より少ない、請求項1乃至8のいずれかに記載の方法。
  10. 医用または臨床データのための分類器を訓練する方法であって、
    事前ラベル付けされたデータセットから、複数のモダリティからのデータを含むラベル付けされていない入力データを受信するステップと、
    共同表現を形成するために複数のモダリティから前記ラベル付けされていない入力データをエンコードするステップと、
    前記共同表現から適応可能分類アルゴリズムを使用して分類を行い、前記共同表現からラベル付きデータを生成するステップと、
    事前ラベル付けされたデータセットからの事前ラベル付けされたデータを前記ラベル付きデータと比較し、比較データを出力するステップと、
    前記比較データに応じて前記適応可能分類アルゴリズムを調整するステップと、
    前記比較データが、前記適応可能分類アルゴリズムにさらなる調整が不要であることを示す予め定められた閾値に到達するまで上記を繰り返すステップと、
    を含む方法。
  11. 共同表現を形成するために複数のモダリティから前記ラベル付けされていない入力データをエンコードするステップは、複数の関連したおよび/または対のエンコーダにより実行される、請求項1に記載された医用または臨床データのための分類器を訓練する方法。
  12. 前記入力データは、複数のソースからのデータを含む、請求項1または2に記載された医用または臨床データのための分類器を訓練する方法。
  13. 2つのモダリティの入力データが受信される、請求項1乃至12のいずれかに記載された医用または臨床データのための分類器を訓練する方法。
  14. 前記ラベル付けされていない入力データは1以上の医用画像の形式である、請求項1乃至13のいずれかに記載された医用または臨床データのための分類器を訓練する方法。
  15. 前記ラベル付けされていない入力データは複数の医用画像の形式である、請求項1乃至14のいずれかに記載された医用または臨床データのための分類器を訓練する方法。
  16. 前記複数の医用画像は関連している、請求項6に記載された医用または臨床データのための分類器を訓練する方法。
  17. 前記入力データは、マンモグラフィ、X線、コンピュータ断層撮影(CT)スキャン、磁気共鳴映像法(MRI)スキャン、および/または超音波スキャンのうちの1つまたは複数を含む、請求項1乃至16のいずれかに記載された医用または臨床データのための分類器を訓練する方法。
  18. 前記医用画像は、ダイコム(DICOM)ファイルの形式である、請求項5乃至8のいずれかに記載された医用または臨床データのための分類器を訓練する方法。
  19. 共同表現を形成するために複数のモダリティから前記ラベル付けされていない入力データをエンコードするステップは、それぞれのモダリティに対して別々に行われる、請求項1乃至18のいずれかに記載された医用または臨床データのための分類器を訓練する方法。
  20. 前記適応可能分類アルゴリズムは、機械学習アルゴリズムを含む、請求項1乃至19のいずれかに記載された医用または臨床データのための分類器を訓練する方法。
  21. 前記適応可能分類アルゴリズムは、サポートベクターマシン(SVM)、多層パーセプトロン、および/またはランダムフォレストを含む、請求項1乃至19のいずれかに記載された医用または臨床データのための分類器を訓練する方法。
  22. 医用または臨床目的のためデータを分類する方法であって、
    複数のモダリティのデータの内の1つからのデータを含む、ラベル付けされていない入力データを受信するステップと、
    訓練済みエンコーダを使用して前記ラベル付けされていない入力データを訓練済み共同表現にエンコードするステップと、
    前記訓練済み共同表現からラベル付きデータを生成するために前記訓練済み共同表現で学習済みの分類アルゴリズムを使用して分類を行うステップと、
    を含む方法。
  23. 1つのモダリティの入力データが提供される、請求項13に記載された医用または臨床目的のためのデータを分類する方法。
  24. 前記分類を行うステップは、ラベル付けされていないデータ内の1以上の関心領域の表示を生成することをさらに含む、請求項13または14に記載された医用または臨床目的のためのデータを分類する方法。
  25. 前記1以上の関心領域はがん性増殖を示す、請求項13乃至15のいずれかに記載された医用または臨床目的のためのデータを分類する方法。
  26. ラベル付けされていない入力データのモダリティ数は、前記学習済み分類アルゴリズムを訓練するために使用された入力データのモダリティ数より少ない、請求項1乃至25のいずれかに記載された医用または臨床目的のためのデータを分類する方法。
  27. 使用されるいかなるエンコーダまたはデコーダも、VGGおよび/またはAlexNet、および/またはRNNを含み、選択的に512個の隠れユニットを有する双方向LSTMを含む、CNNである、請求項1乃至26のいずれかに記載された医用または臨床目的のための、分類器を訓練しおよび/またはデータを分類する方法。
  28. 請求項1乃至27のいずれかに記載された方法を使用し、医用または臨床目的のための、分類器を訓練しおよび/またはデータを分類する装置。
JP2019533702A 2016-09-05 2017-09-05 マルチモーダル医用画像処理 Pending JP2019530116A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022080601A JP2022116080A (ja) 2016-09-05 2022-05-17 マルチモーダル医用画像処理

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GBGB1615051.8A GB201615051D0 (en) 2016-09-05 2016-09-05 Multi-modal medical image procesing
GB1615051.8 2016-09-05
PCT/GB2017/052583 WO2018042211A1 (en) 2016-09-05 2017-09-05 Multi-modal medical image processing

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022080601A Division JP2022116080A (ja) 2016-09-05 2022-05-17 マルチモーダル医用画像処理

Publications (2)

Publication Number Publication Date
JP2019530116A true JP2019530116A (ja) 2019-10-17
JP2019530116A5 JP2019530116A5 (ja) 2020-10-01

Family

ID=57140008

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019533702A Pending JP2019530116A (ja) 2016-09-05 2017-09-05 マルチモーダル医用画像処理
JP2022080601A Pending JP2022116080A (ja) 2016-09-05 2022-05-17 マルチモーダル医用画像処理

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022080601A Pending JP2022116080A (ja) 2016-09-05 2022-05-17 マルチモーダル医用画像処理

Country Status (6)

Country Link
US (1) US11106950B2 (ja)
EP (2) EP3507767A1 (ja)
JP (2) JP2019530116A (ja)
CN (1) CN109844808A (ja)
GB (1) GB201615051D0 (ja)
WO (1) WO2018042211A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6797344B1 (ja) * 2020-07-10 2020-12-09 三菱電機株式会社 学習装置、活用装置、プログラム、学習方法及び活用方法
JP2021526259A (ja) * 2018-05-30 2021-09-30 クアンタム−エスアイ インコーポレイテッドQuantum−Si Incorporated 訓練された統計モデルを使用するマルチモーダル予測のための方法および装置
WO2022138961A1 (ja) 2020-12-25 2022-06-30 富士フイルム株式会社 情報処理装置、情報処理装置の作動方法、情報処理装置の作動プログラム
JP7457315B2 (ja) 2019-12-20 2024-03-28 株式会社トプコン 情報処理装置、推論モデル生成方法、情報処理方法、及びプログラム
JP7490576B2 (ja) 2018-05-30 2024-05-27 クアンタム-エスアイ インコーポレイテッド 訓練された統計モデルを使用するマルチモーダル予測のための方法および装置

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201615051D0 (en) 2016-09-05 2016-10-19 Kheiron Medical Tech Ltd Multi-modal medical image procesing
CN106650789B (zh) * 2016-11-16 2023-04-07 同济大学 一种基于深度lstm网络的图像描述生成方法
JP6897335B2 (ja) * 2017-05-31 2021-06-30 富士通株式会社 学習プログラム、学習方法および物体検知装置
US10789942B2 (en) * 2017-10-24 2020-09-29 Nec Corporation Word embedding system
US10762637B2 (en) * 2017-10-27 2020-09-01 Siemens Healthcare Gmbh Vascular segmentation using fully convolutional and recurrent neural networks
EP3783533A1 (en) * 2018-04-17 2021-02-24 BGI Shenzhen Artificial intelligence-based ophthalmic disease diagnostic modeling method, apparatus, and system
US20190325060A1 (en) * 2018-04-24 2019-10-24 Cisco Technology, Inc. SYMBOLIC CLUSTERING OF IoT SENSORS FOR KNOWLEDGE DISCOVERY
US10956787B2 (en) * 2018-05-14 2021-03-23 Quantum-Si Incorporated Systems and methods for unifying statistical models for different data modalities
US11971963B2 (en) 2018-05-30 2024-04-30 Quantum-Si Incorporated Methods and apparatus for multi-modal prediction using a trained statistical model
US11967436B2 (en) * 2018-05-30 2024-04-23 Quantum-Si Incorporated Methods and apparatus for making biological predictions using a trained multi-modal statistical model
JP7223539B2 (ja) * 2018-09-25 2023-02-16 キヤノンメディカルシステムズ株式会社 乳がん診断支援装置、乳がん診断支援システム、および乳がん診断支援方法
KR102246318B1 (ko) * 2018-10-05 2021-04-30 주식회사 딥바이오 병리 이미지 검색을 위한 시스템 및 방법
GB2577909B (en) 2018-10-10 2020-11-18 Symetrica Ltd Gamma-ray spectrum classification
US11083913B2 (en) 2018-10-25 2021-08-10 Elekta, Inc. Machine learning approach to real-time patient motion monitoring
US10803987B2 (en) * 2018-11-16 2020-10-13 Elekta, Inc. Real-time motion monitoring using deep neural network
KR102258756B1 (ko) * 2019-04-12 2021-05-28 계명대학교 산학협력단 의료 영상을 이용한 암의 병기 결정 방법 및 의료 영상 분석 장치
WO2020241074A1 (ja) * 2019-05-30 2020-12-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法及びプログラム
EP3767536A1 (en) * 2019-07-17 2021-01-20 Naver Corporation Latent code for unsupervised domain adaptation
EP4049238A1 (en) 2019-10-25 2022-08-31 Deephealth, Inc. System and method for analyzing three-dimensional image data
CN111084621B (zh) * 2019-12-30 2022-09-06 上海数创医疗科技有限公司 基于深度自编码器的qrs波群形态识别方法和装置
CN112348082B (zh) * 2020-11-06 2021-11-09 上海依智医疗技术有限公司 深度学习模型构建方法、影像处理方法及可读存储介质
CN112862727B (zh) * 2021-03-16 2023-06-23 上海壁仞智能科技有限公司 一种跨模态图像转换方法及装置
WO2023059742A1 (en) * 2021-10-05 2023-04-13 Neumora Therapeutics, Inc. Machine learning systems for processing multi-modal patient data
CN113827277B (zh) * 2021-10-21 2023-10-03 复旦大学 一种声致超声成像方法
CN115177291B (zh) * 2022-08-01 2023-11-10 首都医科大学附属北京朝阳医院 用于识别重症监护病房获得性肌无力的方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016016265A (ja) * 2014-07-10 2016-02-01 株式会社東芝 画像処理装置、画像処理方法及び医用画像診断装置
US20160093048A1 (en) * 2014-09-25 2016-03-31 Siemens Healthcare Gmbh Deep similarity learning for multimodal medical images

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9402601B1 (en) * 1999-06-22 2016-08-02 Teratech Corporation Methods for controlling an ultrasound imaging procedure and providing ultrasound images to an external non-ultrasound application via a network
CN1820274A (zh) * 2003-06-27 2006-08-16 美国西门子医疗解决公司 使用机器学习来利用cad系统的常规使用期间所收集到的知识适配cad过程以对医学成像提供cad(计算机辅助决策 )支持
US7657299B2 (en) * 2003-08-21 2010-02-02 Ischem Corporation Automated methods and systems for vascular plaque detection and analysis
JP4477439B2 (ja) * 2004-07-12 2010-06-09 日立ソフトウエアエンジニアリング株式会社 画像分割処理システム
US20080292194A1 (en) * 2005-04-27 2008-11-27 Mark Schmidt Method and System for Automatic Detection and Segmentation of Tumors and Associated Edema (Swelling) in Magnetic Resonance (Mri) Images
US20110301447A1 (en) * 2010-06-07 2011-12-08 Sti Medical Systems, Llc Versatile video interpretation, visualization, and management system
CN113705586A (zh) * 2013-03-07 2021-11-26 飞利浦影像引导治疗公司 血管内图像中的多模态分割
JP6164639B2 (ja) * 2013-05-23 2017-07-19 国立研究開発法人情報通信研究機構 ディープ・ニューラルネットワークの学習方法、及びコンピュータプログラム
US9767385B2 (en) * 2014-08-12 2017-09-19 Siemens Healthcare Gmbh Multi-layer aggregation for object detection
WO2016092394A1 (en) * 2014-12-10 2016-06-16 Koninklijke Philips N.V. Systems and methods for translation of medical imaging using machine learning
JP2019512758A (ja) * 2016-01-15 2019-05-16 株式会社Preferred Networks マルチモーダル生成機械学習のためのシステムおよび方法
US20180039884A1 (en) * 2016-08-03 2018-02-08 Barnaby Dalton Systems, methods and devices for neural network communications
GB201615051D0 (en) 2016-09-05 2016-10-19 Kheiron Medical Tech Ltd Multi-modal medical image procesing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016016265A (ja) * 2014-07-10 2016-02-01 株式会社東芝 画像処理装置、画像処理方法及び医用画像診断装置
US20160093048A1 (en) * 2014-09-25 2016-03-31 Siemens Healthcare Gmbh Deep similarity learning for multimodal medical images

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
HEUNG-IL SUK ET AL.: ""Latent feature representation with stacked auto-encoder for AD/MCI diagnosis"", BRAIN STRUCTURE AND FUNCTION VOLUME, vol. 220, JPN6021037056, 22 December 2013 (2013-12-22), CH, pages 841 - 859, XP035457038, ISSN: 0004684496, DOI: 10.1007/s00429-013-0687-3 *
HUIJIE LIN ET AL.: ""Psychological stress detection from cross-media microblog data using Deep Sparse Neural Network"", 2014 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO (ICME), JPN6021037058, 14 July 2014 (2014-07-14), US, pages 1 - 6, XP032639262, ISSN: 0004601293, DOI: 10.1109/ICME.2014.6890213 *
MOHAMMAD HAVAEI ET AL.: ""HeMIS: Hetero-Modal Image Segmentation"", COMPUTER VISION AND PATTERN RECOGNITION, JPN7021003890, 18 July 2016 (2016-07-18), US, pages 1 - 11, ISSN: 0004836498 *
SIQI LIU ET AL.: ""Multimodal Neuroimaging Feature Learning for Multiclass Diagnosis of Alzheimer's Disease"", IEEE TRANSACTIONS ON BIOMEDICAL ENGINEERING, vol. 62, no. 4, JPN6021037053, 20 November 2014 (2014-11-20), US, pages 1132 - 1140, XP011575707, ISSN: 0004836497, DOI: 10.1109/TBME.2014.2372011 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021526259A (ja) * 2018-05-30 2021-09-30 クアンタム−エスアイ インコーポレイテッドQuantum−Si Incorporated 訓練された統計モデルを使用するマルチモーダル予測のための方法および装置
JP7490576B2 (ja) 2018-05-30 2024-05-27 クアンタム-エスアイ インコーポレイテッド 訓練された統計モデルを使用するマルチモーダル予測のための方法および装置
JP7457315B2 (ja) 2019-12-20 2024-03-28 株式会社トプコン 情報処理装置、推論モデル生成方法、情報処理方法、及びプログラム
JP6797344B1 (ja) * 2020-07-10 2020-12-09 三菱電機株式会社 学習装置、活用装置、プログラム、学習方法及び活用方法
WO2022009419A1 (ja) * 2020-07-10 2022-01-13 三菱電機株式会社 学習装置、活用装置、プログラム、学習方法及び活用方法
WO2022138961A1 (ja) 2020-12-25 2022-06-30 富士フイルム株式会社 情報処理装置、情報処理装置の作動方法、情報処理装置の作動プログラム

Also Published As

Publication number Publication date
CN109844808A (zh) 2019-06-04
US20190197366A1 (en) 2019-06-27
WO2018042211A1 (en) 2018-03-08
JP2022116080A (ja) 2022-08-09
EP4102455A1 (en) 2022-12-14
EP3507767A1 (en) 2019-07-10
GB201615051D0 (en) 2016-10-19
US11106950B2 (en) 2021-08-31

Similar Documents

Publication Publication Date Title
JP2019530116A (ja) マルチモーダル医用画像処理
US10043088B2 (en) Image quality score using a deep generative machine-learning model
JP7309605B2 (ja) ディープラーニング医療システムおよび画像収集のための方法
US10489907B2 (en) Artifact identification and/or correction for medical imaging
CN109919928B (zh) 医学影像的检测方法、装置和存储介质
Dilsizian et al. Machine meets biology: a primer on artificial intelligence in cardiology and cardiac imaging
US11464491B2 (en) Shape-based generative adversarial network for segmentation in medical imaging
US10997466B2 (en) Method and system for image segmentation and identification
US20240054637A1 (en) Systems and methods for assessing pet radiology images
JP2021120852A (ja) 医用情報処理装置、医用情報処理モデルトレーニング方法及び医用情報処理プログラム
CN113240699B (zh) 图像处理方法及装置,模型的训练方法及装置,电子设备
Mehta et al. Deep learning framework for automatic bone age assessment
US20220415021A1 (en) Data augmentation for a machine learning method
AU2019204365C1 (en) Method and System for Image Segmentation and Identification
Goyal et al. Musculoskeletal abnormality detection in medical imaging using GnCNNr (group normalized convolutional neural networks with regularization)
CN117616467A (zh) 训练并使用深度学习算法来基于降维表示比较医学图像的方法
EP3864620A1 (en) Correcting segmentation of medical images using a statistical analysis of historic corrections
Masood et al. Multi-Level Swin Transformer Enabled Automatic Segmentation and Classification of Breast Metastases
Khalili et al. Automatic lung segmentation in chest X-ray images using SAM with prompts from YOLO
Prajapati Measuring and Predicting Image Noise of Computed Tomographic Examinations Using Statistical and Deep Learning Approaches
Srinivasan et al. Deep Learning Based Brain Tumor Detection and Recommendation System
WO2023017438A1 (en) System and method for medical image translation
WO2020257592A1 (en) Application of artificial intelligence on detecting canine left atrial enlargement on thoracic radiographs

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200818

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220517

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220517

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220623

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220713

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220719

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220729

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220802

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220830

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221018

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20221108

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230307

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230404

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230404