JP7350878B2 - 画像解析方法、装置、プログラム - Google Patents

画像解析方法、装置、プログラム Download PDF

Info

Publication number
JP7350878B2
JP7350878B2 JP2021555530A JP2021555530A JP7350878B2 JP 7350878 B2 JP7350878 B2 JP 7350878B2 JP 2021555530 A JP2021555530 A JP 2021555530A JP 2021555530 A JP2021555530 A JP 2021555530A JP 7350878 B2 JP7350878 B2 JP 7350878B2
Authority
JP
Japan
Prior art keywords
region
computer
interest
layers
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021555530A
Other languages
English (en)
Other versions
JPWO2020194111A5 (ja
JP2022524878A (ja
Inventor
拓矢 後藤
宏毅 中野
正治 阪本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2022524878A publication Critical patent/JP2022524878A/ja
Publication of JPWO2020194111A5 publication Critical patent/JPWO2020194111A5/ja
Application granted granted Critical
Publication of JP7350878B2 publication Critical patent/JP7350878B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、画像解析に関し特に検出モデルの学習に関連している。
画像の解析は、多くの分野で重要である。1つの非限定的な例は、腫瘍を識別するためのX線画像の解析であり、そのような解析において、X線画像から肺腫瘍などの病気を検出する効率的な検出モデルを有することは、有用である。
したがって、当技術分野において、前述の問題に対処する必要がある。
第1の態様から見ると、本発明は、入力画像を取得することと、入力画像内の対象領域を指定する注釈付き画像を取得することと、入力画像を、ターゲット領域を表示する出力画像を入力画像から生成する検出モデルに入力することと、対象領域外の誤差よりも重く、対象領域内の誤差に重み付けする損失関数を使用して、出力画像と注釈付き画像の間の誤差を計算することと、誤差を減らすような方法で検出モデルを更新することとを含む、コンピュータ実装方法を提供する。
さらに別の態様から見ると、本発明は、プロセッサまたはプログラム可能な回路と、命令を集合的に含んでいる1つまたは複数のコンピュータ可読媒体とを備えている装置を提供し、これらの命令は、プロセッサまたはプログラム可能な回路によって実行されることに応答して、プロセッサまたはプログラム可能な回路に、入力画像を取得することと、入力画像内の対象領域を指定する注釈付き画像を取得することと、入力画像を、ターゲット領域を表示する出力画像を入力画像から生成する検出モデルに入力することと、対象領域外の誤差よりも重く、対象領域内の誤差に重み付けする損失関数を使用して、出力画像と注釈付き画像の間の誤差を計算することと、誤差を減らすような方法で検出モデルを更新することとを実行させる。
さらに別の態様から見ると、本発明は、画像解析のためのコンピュータ・プログラム製品を提供し、このコンピュータ・プログラム製品は、処理回路によって読み取り可能な、本発明のステップを実行する方法を実行するために処理回路によって実行される命令を格納する、コンピュータ可読ストレージ媒体を備える。
さらに別の態様から見ると、本発明は、コンピュータ可読媒体に格納された、デジタル・コンピュータの内部メモリに読み込み可能なコンピュータ・プログラムを提供し、このコンピュータ・プログラムは、コンピュータ上で実行された場合に本発明のステップを実行するためのソフトウェア・コード部分を含む。
さらに別の態様から見ると、本発明は、プログラム命令を集合的に格納している1つまたは複数のコンピュータ可読ストレージ媒体を含んでいるコンピュータ・プログラム製品を提供し、これらのプログラム命令は、プロセッサまたはプログラム可能な回路に、入力画像を取得することと、入力画像内の対象領域を指定する注釈付き画像を取得することと、入力画像を、ターゲット領域を表示する出力画像を入力画像から生成する検出モデルに入力することと、注釈付き画像によって指定された対象領域外の誤差よりも重く、指定された対象領域内の誤差に重み付けする損失関数を使用して、出力画像と注釈付き画像の間の誤差を計算することと、誤差を減らすような方法で検出モデルを更新することとを含んでいる動作を実行させるように、プロセッサまたはプログラム可能な回路によって実行可能である。
さらに別の態様から見ると、本発明は、プロセッサまたはプログラム可能な回路と、命令を集合的に含んでいる1つまたは複数のコンピュータ可読媒体とを備えている装置を提供し、これらの命令は、プロセッサまたはプログラム可能な回路によって実行されることに応答して、プロセッサまたはプログラム可能な回路に、ターゲット領域を表示する出力画像を入力画像から生成するためのニューラル・ネットワークを実現することを実行させ、このニューラル・ネットワークは、入力と出力の間に、複数の畳み込み層と、複数のプーリング層と、複数の逆畳み込み層と、複数のバッチ正規化層とを含み、複数のバッチ正規化層は、複数の畳み込み層および複数のプーリング層の一部を含んでいる第1の経路と、その他の複数の畳み込み層および複数の逆畳み込み層を含んでいる第2の経路とのうちの少なくとも1つに含まれている既定の数の層ごとに、それぞれ配置される。
さらに別の態様から見ると、本発明は、プログラム命令を集合的に格納している1つまたは複数のコンピュータ可読ストレージ媒体を含んでいるコンピュータ・プログラム製品を提供し、これらのプログラム命令は、プロセッサまたはプログラム可能な回路に、ターゲット領域を表示する出力画像を入力画像から生成するためのニューラル・ネットワークを実現することを含んでいる動作を実行させるように、プロセッサまたはプログラム可能な回路によって実行可能であり、このニューラル・ネットワークは、入力と出力の間に、複数の畳み込み層と、複数のプーリング層と、複数の逆畳み込み層と、複数のバッチ正規化層とを含み、複数のバッチ正規化層は、複数の畳み込み層および複数のプーリング層の一部を含んでいる第1の経路と、その他の複数の畳み込み層および複数の逆畳み込み層を含んでいる第2の経路とのうちの少なくとも1つに含まれている既定の数の層ごとに、それぞれ配置される。
本発明の実施形態に従って、入力画像を取得することと、入力画像内の対象領域を指定する注釈付き画像を取得することと、入力画像を、ターゲット領域を表示する出力画像を入力画像から生成する検出モデルに入力することと、対象領域外の誤差よりも重く、対象領域内の誤差に重み付けする損失関数を使用して、出力画像と注釈付き画像の間の誤差を計算することと、誤差を減らすような方法で検出モデルを更新することとを含む、コンピュータ実装方法が提供される。
重み付き交差エントロピーが損失関数として使用される。このようにして、重み付き交差エントロピーを使用して誤差が重み付けされ得る。
検出モデルは、入力と出力の間に、1つまたは複数の畳み込み層と、1つまたは複数のプーリング層と、1つまたは複数の逆畳み込み層と、1つまたは複数のバッチ正規化層とを含んでよい。このようにして、一部の実施形態では、検出モデルは、学習の収束を加速し、過剰学習を制限する。
コンピュータ実装方法は、入力画像内の少なくとも1つの座標を取得することと、少なくとも1つの座標に従って対象領域を指定することとをさらに含んでよい。このようにして、少なくとも1つの座標から対象領域を概略的に指定することができる。
本発明の別の実施形態によれば、プロセッサまたはプログラム可能な回路と、命令を集合的に含んでいる1つまたは複数のコンピュータ可読媒体とを備えている装置が提供され、これらの命令は、プロセッサまたはプログラム可能な回路によって実行されることに応答して、プロセッサまたはプログラム可能な回路に、入力画像を取得することと、入力画像内の対象領域を指定する注釈付き画像を取得することと、入力画像を、ターゲット領域を表示する出力画像を入力画像から生成する検出モデルに入力することと、対象領域外の誤差よりも重く、対象領域内の誤差に重み付けする損失関数を使用して、出力画像と注釈付き画像の間の誤差を計算することと、誤差を減らすような方法で検出モデルを更新することとを実行させる。このようにして、プロセッサまたはプログラム可能な回路は、入力画像を取得し、検出モデルを正確に学習する。
本発明の別の実施形態によれば、プログラム命令を集合的に格納している1つまたは複数のコンピュータ可読ストレージ媒体を含んでいるコンピュータ・プログラム製品が提供され、これらのプログラム命令は、プロセッサまたはプログラム可能な回路に、入力画像を取得することと、入力画像内の対象領域を指定する注釈付き画像を取得することと、入力画像を、ターゲット領域を表示する出力画像を入力画像から生成する検出モデルに入力することと、注釈付き画像によって指定された対象領域外の誤差よりも重く、指定された対象領域内の誤差に重み付けする損失関数を使用して、出力画像と注釈付き画像の間の誤差を計算することと、誤差を減らすような方法で検出モデルを更新することとを含んでいる動作を実行させるように、プロセッサまたはプログラム可能な回路によって実行可能である。このようにして、検出モデルの機械学習に関連する精度を向上させることができる。
本発明の別の実施形態によれば、プロセッサまたはプログラム可能な回路と、命令を集合的に含んでいる1つまたは複数のコンピュータ可読媒体とを備えている装置が提供され、これらの命令は、プロセッサまたはプログラム可能な回路によって実行されることに応答して、プロセッサまたはプログラム可能な回路に、ターゲット領域を表示する出力画像を入力画像から生成するためのニューラル・ネットワークを実現することを実行させ、このニューラル・ネットワークは、入力と出力の間に、複数の畳み込み層と、複数のプーリング層と、複数の逆畳み込み層と、複数のバッチ正規化層とを含み、複数のバッチ正規化層は、複数の畳み込み層および複数のプーリング層の一部を含んでいる第1の経路と、その他の複数の畳み込み層および複数の逆畳み込み層を含んでいる第2の経路とのうちの少なくとも1つに含まれている既定の数の層ごとに、それらの既定の数の層の後に、それぞれ配置される。
本発明の別の実施形態によれば、プログラム命令を集合的に格納している1つまたは複数のコンピュータ可読ストレージ媒体を含んでいるコンピュータ・プログラム製品が提供され、これらのプログラム命令は、プロセッサまたはプログラム可能な回路に、ターゲット領域を表示する出力画像を入力画像から生成するためのニューラル・ネットワークを実現することを含んでいる動作を実行させるように、プロセッサまたはプログラム可能な回路によって実行可能であり、このニューラル・ネットワークは、入力と出力の間に、複数の畳み込み層と、複数のプーリング層と、複数の逆畳み込み層と、複数のバッチ正規化層とを含み、複数のバッチ正規化層は、複数の畳み込み層および複数のプーリング層の一部を含んでいる第1の経路と、その他の複数の畳み込み層および複数の逆畳み込み層を含んでいる第2の経路とのうちの少なくとも1つに含まれている既定の数の層ごとに、それらの既定の数の層の後に、それぞれ配置される。このようにして、一部の実施形態では、検出モデルは、学習の収束を加速し、過剰学習を制限する。
発明の概要の節は、本発明の実施形態のすべての必要な特徴を必ずしも説明していない。本発明は、前述した特徴の部分的組み合わせであってもよい。本発明の上記およびその他の特徴および利点が、添付の図面と併用される以下の実施形態の説明から、さらに明らかになるであろう。
以下では、次の図に示された好ましい実施形態を単に例として参照し、本発明が説明される。
本発明の例示的な実施形態に従って、検出モデルを学習するためのシステムが損失関数を利用するコンピューティング環境を示す機能ブロック図である。 本発明の少なくとも1つの実施形態に従って、図1の環境内の検出モデルの例示的なネットワークを示す図である。 本発明の少なくとも1つの実施形態に従って、図1の環境内のコンピューティング・デバイス上で実行される検出モデルの動作プロセスを示す図である。 本実施形態に従う出力画像と従来方法によって取得された出力画像の間の比較の例を示す図である。 本発明の少なくとも1つの実施形態に従って、損失関数を利用して検出モデルを学習するためのシステムに対する変更が行われた、コンピューティング環境を示す機能ブロック図である。 本変更に従って、装置100による対象領域の指定の例を示す図である。 本発明の少なくとも1つの実施形態に従って、損失関数を利用して検出モデルを学習するためのシステムに対するさらに別の変更が行われた、コンピューティング環境を示す機能ブロック図である。 本発明の少なくとも1つの実施形態に従って、図1に示されたコンピューティング環境内の1つまたは複数のコンピューティング・デバイスのコンポーネントのブロック図である。
以下では、本発明のいくつかの実施形態について説明する。これらの実施形態は、特許請求の範囲に従う本発明を制限せず、実施形態に記載された特徴のすべての組み合わせは、本明細書において開示された特徴によって提供される実施形態を含むことができるが、これらの実施形態に限定されない。
図1は、本実施形態に従う、装置100の機能ブロック図である。装置100は、PC(Personal Computer:パーソナル・コンピュータ)、タブレット・コンピュータ、スマートフォン、ワーク・ステーション、サーバ・コンピュータ、または汎用コンピュータなどのコンピュータ、複数のコンピュータが接続されたコンピュータ・システム、あるいは損失関数を利用して検出モデルを学習するためのシステムを実行できる任意のプログラム可能な電子デバイスまたはプログラム可能な電子デバイスの組み合わせであってよい。そのようなコンピュータ・システムは、広い定義ではコンピュータでもある。さらに、装置100は、コンピュータ・システム内で実行できる1つまたは複数の仮想コンピュータ環境によって実装される。代わりに、装置100は、検出モデルを更新するように設計された特殊なコンピュータであってよく、または特殊な回路によって利用される特殊なハードウェアを含んでよい。さらに、装置100はインターネットに接続することができる場合、装置100はクラウド・コンピューティングにおいて利用される。
装置100は、損失関数を使用して、注釈付き画像と、入力画像を検出モデルに入力することによって生成された出力画像との間の誤差を計算し、この誤差を減らすような方法で検出モデルを更新する。そのような実行において、本実施形態に従う装置100は、損失関数として、対象領域(ROI:region of interest)外の誤差よりも重く、対象領域(ROI)内の誤差に重み付けすることによって、検出モデルを学習する。本実施形態では、装置100が、動物のX線画像から肺腫瘍などの病気を検出する検出モデルを学習する事例が、一例として示される。しかし、検出モデルは、この例を含むが、例えば動物内の腫瘍などの組織構造を認識する特徴の範囲に限定されない。装置100は、さまざまな画像からさまざまな領域を検出する検出モデルを学習してよい。装置100は、入力画像取得セクション110、注釈付き画像取得セクション120、検出モデル130、誤差計算セクション140、重み格納セクション150、および更新セクション160を含む。
入力画像取得セクション110は、複数の入力画像を取り出し、これらの入力画像は、理解を明確にする目的で、特定の実施形態によって「元の」画像であると考えられる。例えば、1つの実施形態では、入力画像取得セクション110は、動物の複数のX線画像を取り出す。入力画像取得セクション110は、検出モデル130に複数の取得された入力画像が提供されるように、検出モデル130と通信する。
注釈付き画像取得セクション120は、複数の入力画像の各々について、入力画像内の対象領域を指定する注釈付き画像を取り出す。例えば、注釈付き画像取得セクション120は、各注釈付き画像を取り出してよく、注釈付き画像では、ある領域が他の領域と異なるということを示すラベルが、入力画像内の対象領域に付けられる。注釈付き画像取得セクション120は、取得された注釈付き画像を誤差計算セクション140に伝達する。
検出モデル130は、入力画像取得セクション110から取り出された複数の入力画像を受信し、ターゲット領域を表示する各出力画像をこれらの入力画像から生成する。本実施形態では、下でさらに説明される多層ニューラル・ネットワークが、検出モデル130のアルゴリズムとして使用される。ただし、検出モデル130は本実施形態に限定されない。代わりに、下で説明されるモデルに加えて、CNN、FCN、SegNet、およびU-Netなどのニューラル・ネットワーク、またはターゲット領域を検出できる任意のアルゴリズム(サポート・ベクター・マシン(SVM:support vector machine)および決定木など)が、検出モデル130として使用される。検出モデル130は、生成された出力画像を誤差計算セクション140に伝達する。
誤差計算セクション140は、損失関数を使用して、検出モデル130から供給された出力画像と、注釈付き画像取得セクション120から供給された注釈付き画像との間の各誤差を計算する。これを実行するときに、誤差計算セクション140は、重み付き交差エントロピーを損失関数として使用して、対象領域外の誤差よりも重く、対象領域内の誤差に重み付けする。言い換えると、一例として、誤差計算セクション140は、医師によって肺腫瘍として指定された領域外の誤差よりも重く、この領域内の誤差に重み付けする。このことが、以下でさらに詳細に説明される。
重み格納セクション150は、前もって重みを格納し、それらの重みを誤差計算セクション140に供給する。誤差計算セクション140は、重み付き交差エントロピーと共に重みを活用して誤差を計算する。
誤差計算セクション140は、重み格納セクション150から供給された重みを重み付き交差エントロピーに適用して、出力画像と注釈付き画像の間の誤差を計算し、これらの誤差を更新セクション160に供給する。
更新セクション160は、誤差計算セクション140から供給された誤差を減らすような方法で検出モデル130を更新する。例えば、更新セクション160は、誤差逆伝播手法を使用して、誤差を最小限に抑えるような方法で検出モデルの各パラメータを更新する。当業者は、誤差逆伝播手法自体が、検出モデルを学習する際に使用されるアルゴリズムとして広く受け入れられているということを認識するであろう。
図2は、本実施形態に従って、検出モデル130の例示的なネットワークを示している。一例として、検出モデル130は、入力と出力の間に、1つまたは複数の畳み込み層と、1つまたは複数のプーリング層と、1つまたは複数の逆畳み込み層と、1つまたは複数のバッチ正規化層とを含む。この図では、一例として、検出モデル130は、入力層210と出力層260の間に、複数の畳み込み層220a~220w(集合的に「畳み込み層220」と呼ばれる)、複数のプーリング層230a~230e(集合的に「プーリング層230」と呼ばれる)、複数の逆畳み込み層240a~240e(集合的に「逆畳み込み層240」と呼ばれる)、および複数のバッチ正規化層250a~250i(集合的に「バッチ正規化層250」と呼ばれる)を含む。
畳み込み層220はそれぞれ、既定の大きさを有するカーネル(フィルタ)をスライドさせながら、入力画像に適用される畳み込み演算を実行することによって、特徴マップを出力する。
プーリング層230はそれぞれ、入力画像をより処理しやすい形状に変形させるために、情報を圧縮してダウンサンプリングする。この場合、各プーリング層230は、例えば、各範囲の最大値を選択して圧縮するために、最大プーリングを使用してよく、または各範囲の平均値を計算して圧縮するために、平均プーリングを使用してもよい。
逆畳み込み層240はそれぞれ、それらに入力された特徴マップ内の各要素の周囲または間あるいはその両方に空白を追加することによって、サイズを拡張し、その後、既定の大きさを有するカーネル(フィルタ)をスライドさせながら適用される逆畳み込み演算を実行する。
バッチ正規化層250はそれぞれ、各ユニットの出力を、ミニ・バッチごとに正規化された新しい値に置き換える。言い換えると、各バッチ正規化層250は、複数の画像の各々の要素が正規化された分布を有するように、正規化を実行する。
本実施形態に従う検出モデル130は、例えば、複数の畳み込み層220a~220lおよび複数のプーリング層230a~230eを含むエンコーディング経路である第1の経路と、複数の畳み込み層220m~220wおよび複数の逆畳み込み層240a~240eを含むデコーディング経路である第2の経路とを含む。エンコーディング経路およびデコーディング経路はそれぞれ、同じ寸法を有している特徴マップを接続する。
さらに、本実施形態に従う検出モデル130では、複数のバッチ正規化層250が、複数の畳み込み層220および複数のプーリング層230の一部を含む第1の経路と、その他の複数の畳み込み層220および複数の逆畳み込み層240を含む第2の経路とのうちの少なくとも1つに含まれている既定の数の層ごとに、それぞれ配置される。
一例として、複数のバッチ正規化層250a~250dが、エンコーディング経路内の既定の数の層ごとに、それぞれ配置され、複数のバッチ正規化層250e~250iが、デコーディング経路内の既定の数の層ごとに、それぞれ配置される。より詳細には、この図に示されているように、エンコーディング経路内で、複数のバッチ正規化層250a~250dが、デコーディング経路に接続された畳み込み層220d、220f、220h、および220jの後にそれぞれ配置されている。さらに、デコーディング経路内で、複数のバッチ正規化層250e~250hが、畳み込み層220n、220p、220r、220t、および220vの後にそれぞれ配置されている。
このようにして、本実施形態の検出モデル130に従って、少なくとも1つのバッチ正規化層250が、エンコーディング経路およびデコーディング経路のうちの少なくとも1つに配置され、したがって、内部変数の分布の大きい変化(内部共変量シフト)を防ぎ、学習の収束を加速することができ、過剰学習を制限することもできる。さらに、そのような検出モデル130を使用することによって、本実施形態に従う装置100は、誤差を含むラベルから正しいラベル分類を学習するときに、検出モデル130をより効率的に学習することができる。
図3は、装置100が本実施形態に従って検出モデル130を学習する動作プロセスを示している。
ステップ310で、装置100が複数の入力画像を取得する。例えば、入力画像取得セクション110は、動物の複数のX線画像を取得する。画像のサイズが互いに異なっている場合、入力画像取得セクション110は、入力画像として、それぞれ前処理(例えば、ピクセル値の正規化、既定の形状へのトリミング、および既定のサイズへのサイズ変更)が適用された画像を取得してよい。この時点で、入力画像取得セクション110は、例えば、インターネットを介して、ユーザ入力を介して、またはデータを格納できるメモリ・デバイスなどを介して、複数の入力画像を取得してよい。入力画像取得セクション110は、複数の取得された入力画像と共に検出モデル130を供給する。
ステップ320で、装置100は、複数の入力画像の各々について、入力画像内の対象領域を指定する注釈付き画像を取得する。例えば、注釈付き画像取得セクション120は、各注釈付き画像を取得し、注釈付き画像では、例えば、医師によって肺腫瘍として指定された領域内のピクセルがクラスc=1でラベル付けされ、この領域外のピクセルがクラスc=0でラベル付けされる。上記の説明では、肺腫瘍として指定された領域の内側または外側のいずれにピクセルが存在するかに基づいて、2つのクラス(例えば、c=0およびc=1)に従って各ピクセルがラベル付けされる例が示されたが、本実施形態はこれに限定されない。例えば、注釈付き画像取得セクション120は、各注釈付き画像を取得してよく、注釈付き画像では、肺領域内にあり、かつ肺腫瘍領域内にあるピクセルがクラスc=2でラベル付けされ、肺領域内にあるが、肺腫瘍領域外にあるピクセルがクラスc=1でラベル付けされ、肺領域外にあり、肺腫瘍領域外にあるピクセルがクラスc=0でラベル付けされる。言い換えると、注釈付き画像取得セクション120は、3つ以上のクラス(例えば、c=0、c=1、およびc=2)に従ってラベル付けされた各注釈付き画像を取得してよい。この時点で、注釈付き画像取得セクション120は、ネットワークを介して、ユーザ入力を介して、またはデータを格納できるメモリ・デバイスなどを介して、各注釈付き画像を取得してよい。注釈付き画像取得セクション120は、取得された注釈付き画像を誤差計算セクション140に供給する。
ステップ330で、装置100が、ステップ310で取得された複数の入力画像の各々を検出モデル130に入力し、検出モデル130が、ターゲット領域の出力画像を入力画像から生成する。例えば、複数の入力画像の各々について、検出モデル130は出力画像を生成し、これらの出力画像では、入力画像内のターゲット領域(すなわち、肺腫瘍領域)であると予測された領域内のピクセルが、クラスc=1でラベル付けされ、この領域外のピクセルがクラスc=0でラベル付けされる。次に、検出モデル130は、生成された出力画像の各々を誤差計算セクション140に供給する。上記の説明では、装置100が注釈付き画像の取得後に出力画像を生成する例が示されたが、装置100はこれに限定されない。装置100は、出力画像の生成後に注釈付き画像を取得してよい。言い換えると、ステップ330の後にステップ320が実行される。
ステップ340で、装置100が、損失関数を使用して、ステップ330で取得された出力画像と、ステップ320で取得された注釈付き画像との間の各誤差を計算する。このとき、誤差計算セクション140は、交差エントロピーを損失関数として使用する。通常、交差エントロピーは、確率分布および参照固定確率分布(reference fixed probability distribution)という2つの確率分布の間で定義される尺度であり、確率分布および参照固定確率分布が同じである場合に最小値を有し、確率分布と参照固定確率分布の差異が大きいほど、大きい値を有する。ここで、出力画像と注釈付き画像の間の誤差を計算するときに、この交差エントロピーが、入力画像内のピクセルのいずれにも重み付けしないで使用される場合、誤差は、広い面積を有するピクセル・グループによる影響を強く受ける。これが発生すると、例えば、注釈付き画像に誤差が含まれている場合、この誤差を最小限に抑えるように検出モデルが更新された場合でも、ターゲット領域を検出するための検出モデルを正確に学習できなくなることがある。
したがって、本実施形態では、誤差を計算するために誤差計算セクション140によって使用される損失関数が、対象領域外の誤差よりも重く、対象領域内の誤差に重み付けする。このとき、誤差計算セクション140は、重み付き交差エントロピーを損失関数として使用してよい。例えば、重み格納セクション150は、この重み付き交差エントロピーに適用される重みを前もって格納し、これらの重みを誤差計算セクション140に供給する。誤差計算セクション140は、重み格納セクション150から供給された重みを重み付き交差エントロピーに適用して、出力画像と注釈付き画像の間の誤差を計算する。ここで、対象領域外の誤差よりも重く、対象領域内の誤差に重み付けするときに、重み付き交差エントロピーにおいて、ターゲット領域内の重みが、ターゲット領域外の重みよりも大きい値になるように設定される。代わりに、重み付き交差エントロピーにおいて、対象領域内の重みが、対象領域外の重みよりも大きい値になるように設定される。これが、数式を使用して説明される。
誤差計算セクション140は、例えば、次式で示された重み付き交差エントロピーを損失関数として使用する。Xが入力画像内のすべてのピクセル「i」の集合であり、Cがすべてのクラスcの集合であり、Wがクラスcの重みであり、p が注釈付き画像内のピクセル「i」でのクラスcの値であり、q が出力画像内のピクセル「i」でのクラスcの値であるということに、注意するべきである。
式1:
Figure 0007350878000001
ここで例が説明され、この例では、注釈付き画像取得セクション120は、医師によって肺腫瘍として指定された対象領域(ROI)内のピクセルがクラスc=1としてラベル付けされ、対象領域外のピクセルがクラスc=0としてラベル付けされる、注釈付き画像を取得し、検出モデル130は、入力画像内の肺腫瘍領域であると予測されたターゲット領域内のピクセルにクラスc=1が与えられ、ターゲット領域外のピクセルにクラスc=0が与えられる、出力画像を生成する。
この場合、式1は、以下に示す式に展開される。具体的には、交差エントロピーが4つの構成要素の和として展開され、それらの構成要素は、(1)対象領域内のピクセルがc=1でラベル付けされ、ターゲット領域内にあると予測された構成要素、(2)対象領域内のピクセルがc=0でラベル付けされ、ターゲット領域外にあると予測された構成要素、(3)対象領域外のピクセルがc=1でラベル付けされ、ターゲット領域内にあると予測された構成要素、および(4)対象領域外のピクセルがc=0でラベル付けされ、ターゲット領域外にあると予測された構成要素である。
式2:
Figure 0007350878000002
しかし、前述した事例では、対象領域内のピクセルがc=0でラベル付けされる確率は0であり、したがって、式2内の第2の項の構成要素は0である。同様に、対象領域外のピクセルがc=1でラベル付けされる確率は0であり、したがって、式2内の第3の項の構成要素は0である。対象領域内のピクセルがc=1でラベル付けされる確率および対象領域外のピクセルがc=0でラベル付けされる確率は、両方とも1であり、したがって式2は、以下の式のように示され得る。具体的には、交差エントロピーが2つの構成要素の和として示され、それらの構成要素は、対象領域内のピクセルがターゲット領域内にあると予測された構成要素、および対象領域外のピクセルがターゲット領域外にあると予測された構成要素である。
式3:
Figure 0007350878000003
本実施形態では、損失関数が、対象領域外の誤差よりも重く、対象領域内の誤差に重み付けする。言い換えると、式3では、第1の項の構成要素の重みWcが、第2の項の構成要素の重みWcよりも大きい値に設定される。ここで、重み付き交差エントロピーでは、ターゲット領域外の重みよりも大きい値になるようにターゲット領域内の重みを設定することによって、対象領域内の誤差が、対象領域外の誤差よりも重く重み付けされる。言い換えると、式2内の第2の項の構成要素および第4の項の構成要素の重みよりも大きい値になるように、式2内の第1の項の構成要素および第3の項の構成要素の重みを設定することによって、式3内の第2の構成要素の重みよりも大きい値になるように、式3内の第1の構成要素の重みが設定される。代わりに、重み付き交差エントロピーでは、対象領域外の重みよりも大きい値になるように対象領域内の重みを設定することによって、対象領域内の誤差が、対象領域外の誤差よりも重く重み付けされる。言い換えると、式2内の第3の項の構成要素および第4の項の構成要素の重みよりも大きい値になるように、式2内の第1の項の構成要素および第2の項の構成要素の重みを設定することによって、式3内の第2の項の構成要素の重みよりも大きい値になるように、式3内の第1の項の構成要素の重みが設定される。次に、誤差計算セクション140は、この方法で計算された出力画像と注釈付き画像の間の誤差を更新セクション160に供給する。
ステップ350で、装置100が、ステップ340で計算された誤差を減らすような方法で、検出モデル130を更新する。例えば、更新セクション160は、誤差逆伝播手法を使用して、この誤差を最小限に抑えるような方法で検出モデル130の各パラメータを更新し、その後、プロセスを終了する。
装置100は、バッチ学習、ミニ・バッチ学習、およびオンライン学習などのさまざまな学習方法に従って、ステップ330からステップ350までのプロセスを繰り返し実行することができる。
図4は、本実施形態に従う出力画像と従来方法によって取得された出力画像の間の比較の例を示している。この図では、入力画像、従来方法によって取得された出力画像、本実施形態に従って取得された出力画像、および本実施形態に従って取得された出力画像が入力画像に重ね合わせられたオーバーレイ画像が、左から右へ、述べられた順序で示されている。この図に示されているように、従来方法に従う検出モデルでは、入力画像をクラスに分割し、肺腫瘍領域と他の領域の間の予測を行うことは不可能だった。これに対して、本実施形態に従って装置100によって学習された検出モデル130では、肺腫瘍領域(図に白色で示された領域)および他の領域(図に黒色で示された領域)がクラスに従って分割された出力を取得することが可能になった。この出力が入力画像に重ね合わせられた画像を見ると、検出モデル130によって予測されたターゲット領域が、実際の肺腫瘍領域にほとんど一致しており、検出モデル130の信頼性を確認することができる。
このようにして、本実施形態の装置100に従って、損失関数を使用して出力画像と注釈付き画像の間の誤差を計算する場合、損失関数は、対象領域外の誤差よりも重く、対象領域内の誤差に重み付けする。このため、装置100は、(i)対象領域内のピクセルに起因する影響を強め、(ii)出力画像と注釈付き画像の間の誤差を計算することができる。次に検出モデルは、この方法で計算された誤差を最小限に抑えるような方法で更新され、したがって、例えば誤差が注釈付き画像に含まれている場合でも、装置100は、ターゲット領域を検出するための検出モデル130を正確に学習することができる。言い換えると、装置100は、誤差を含むラベルから正しいラベル分類を学習する弱教師あり学習によって検出モデル130を学習することができる。
図5は、本実施形態の変更に従う、装置100の機能ブロック図である。この図では、図1のコンポーネントと同じ機能および構成を有しているコンポーネントに、同じ参照番号が与えられ、以下の説明は異なる点のみを含む。本変更に従う装置100は、座標取得セクション510および対象領域指定セクション520をさらに含む。
座標取得セクション510は、入力画像内の少なくとも1つの座標を取得する。座標取得セクション510は、少なくとも1つの取得された座標を対象領域指定セクション520に供給する。ここで座標取得セクション510は、入力画像内の単一の点のみの座標を取得してよく、または入力画像内の複数の座標のセットを取得してもよい。
対象領域指定セクション520は、座標取得セクション510から供給された少なくとも1つの座標に従って対象領域を指定する。ここで対象領域指定セクション520は、少なくとも1つの座標を参照として使用して、既定の範囲を対象領域として指定してよい。これの代わりに、または追加として、対象領域指定セクション520は、少なくとも1つの座標でのテクスチャに類似するテクスチャを有する範囲を対象領域として指定してよい。これの代わりに、または追加として、対象領域指定セクション520は、複数の座標のセットによって囲まれた領域を対象領域として指定してよい。対象領域指定セクション520は、指定された対象領域に関する情報を注釈付き画像取得セクション120に供給する。注釈付き画像取得セクション120は、対象領域指定セクション520によって指定された対象領域に従って注釈付き画像を取り出す。
図6は、本変更に従って、装置100による対象領域の指定の例を示している。例えば、装置100は、入力画像を画面に表示し、ユーザ(例えば、医師、獣医師、検査技師、または学生、ただしこれらに限定されない)による操作によって生じた入力を受信する。座標取得セクション510は、ユーザ入力に基づいて、入力画像内の少なくとも1つの座標(例えば、この図の左側の画像に示されている十字マークによって示された位置の座標)を取り出す。次に、対象領域指定セクション520は、少なくとも1つの座標を参照として使用して、既定の範囲になる対象領域を指定し、例えば既定の範囲は、この図の右側の画像に示されているような、十字マークによって示された位置の座標を中心とする、既定のサイズを有する楕円形の範囲(この図では、白色で示された領域)である。
しかし、対象領域を指定するための方法は、これに限定されない。前述したように、対象領域指定セクション520は、例えば、十字マークによって示された位置のテクスチャに類似するテクスチャを有する範囲を対象領域として指定してよい。別の例として、ユーザは、マウス操作などを使用して入力画像内の部分的領域を囲むなどの操作を実行してよく、座標取得セクション510は、この領域を囲む複数の座標のセットを取得してよい。次に、対象領域指定セクション520は、複数の座標のこのセットによって囲まれた領域を対象領域として指定してよい。さらに、対象領域指定セクション520は、前述した複数の指定方法の組み合わせを使用してよい。言い換えると、対象領域指定セクション520は、少なくとも1つの座標を参照として使用して、既定の範囲内の少なくとも1つの座標のテクスチャに類似するテクスチャを有する範囲を対象領域として指定してよい。代替として、対象領域指定セクション520は、複数の座標のセットによって囲まれた領域内の類似するテクスチャを含む範囲を対象領域として指定してよい。
このようにして、本変更に従う装置100は、入力画像内の少なくとも1つの座標にユーザ入力を有することによって、対象領域を概略的に指定する。次に、本変更の装置100に従って、このようにして概略的に指定された対象領域に従う注釈付き画像(すなわち、誤差を含む注釈付き画像)が取得された場合でも、誤差を含むラベルから正しいラベル分類が学習され、したがって、ターゲット領域を検出するための検出モデル130を正確に学習することができる。
図7は、本実施形態の別の変更に従って、装置100の例示的なブロック図を示している。この図では、図5のコンポーネントと同じ機能および構成を有しているコンポーネントに、同じ参照番号が与えられ、以下の説明は異なる点のみを含む。本変更に従う装置100は、対象領域表示セクション710および変更セクション720をさらに含む。
対象領域表示セクション710は、例えば、対象領域指定セクション520によって指定された対象領域をモニタなどに表示する。
変更セクション720は、対象領域表示セクション710が対象領域を表示している間に、ユーザ入力を受信し、対象領域指定セクション520によって指定された対象領域を変更する。
このようにして、本変更に従う装置100は、対象領域指定セクション520によって概略的に指定された対象領域を表示し、この対象領域をユーザに変更させるための機能を有する。このようにして、本変更の装置100に従って、機械的に指定された対象領域内のユーザの操作に基づいて変更を反映し、誤差の少ない注釈付き画像を取得することができる。
一例として、前述した実施形態は、次の方法で変更され得る。例えば、装置100は、複数の検出モデルを含み、同じ入力画像の対象領域が異なる範囲を有するように設定された、複数の注釈付き画像を取り出す。次に、装置100は、複数の注釈付き画像を使用して複数の検出モデルの各々を学習し、各検出モデルによって出力されたターゲット領域が検出モデル130によって出力されたターゲット領域として重なる領域を使用してよい。例えば、装置100は、2つの検出モデルを含み、同じ入力画像について、相対的に広い範囲を有するように対象領域が設定された注釈付き画像、および相対的に狭い範囲を有するように対象領域が設定された注釈付き画像を取り出す。次に、装置100は、相対的に広い範囲を有するように対象領域が設定された注釈付き画像を使用して検出モデルのうちの1つを学習し、相対的に狭い範囲を有するように対象領域が設定された注釈付き画像を使用して他の検出モデルを学習する。その後、2つの検出モデルの両方によってターゲット領域として予測された領域が、検出モデル130によって出力されたターゲット領域として使用される。
別の例として、前述した実施形態は、次の方法で変更され得る。例えば、対象領域指定セクション520が、少なくとも1つの座標に従って対象領域を指定する場合、注釈付き画像取得セクション120は、少なくとも1つの座標に対応する注釈付き画像を設定してよい。上記の説明は、注釈付き画像取得セクション120が、対象領域内のピクセルがクラスc=1でラベル付けされ、対象領域外のピクセルがクラスc=0でラベル付けされた注釈付き画像を取得する場合の例である。言い換えると、注釈付き画像取得セクション120は、対象領域内のすべてのピクセルが同じクラスでラベル付けされた注釈付き画像を取得する。しかし、注釈付き画像取得セクション120は、対象領域内のピクセルが、これらのピクセルの位置に対応するクラスでラベル付けされた注釈付き画像を取得してよい。言い換えると、一例として、対象領域指定セクション520が、少なくとも1つの座標を中心とする対象領域を指定した場合、注釈付き画像取得セクション120は、少なくとも1つの座標でのピクセルがクラスc=1でラベル付けされ、他のピクセルが、これらのピクセルが少なくとも1つの座標から遠いほど0により近いクラスでラベル付けされた注釈付き画像を取得してよい。このようにして、装置100は、検出モデルを学習するために、対象領域内でも、ユーザによって指定された位置に近いピクセルの影響をさらに強めることができる。
本発明の種々の実施形態は、(1)動作が実行されるプロセスのステップ、および(2)動作を実行する役割を担う装置のセクションを表すことができるブロックを含む、フローチャートおよびブロック図を参照して説明される。特定のステップおよびセクションは、専用回路、コンピュータ可読媒体に格納されたコンピュータ可読命令と共に提供されるプログラム可能な回路、またはコンピュータ可読媒体に格納されたコンピュータ可読命令と共に提供されるプロセッサ、あるいはその組み合わせによって実装される。専用回路は、デジタル・ハードウェア回路またはアナログ・ハードウェア回路あるいはその両方を含んでよく、集積回路(IC:integrated circuits)または個別の回路あるいはその両方を含んでよい。プログラム可能な回路は、論理AND、OR、XOR、NAND、NOR、およびその他の論理演算、フリップフロップ、レジスタ、記憶素子などを備える、フィールドプログラマブル・ゲート・アレイ(FPGA:field-programmable gate arrays)、プログラマブル・ロジック・アレイ(PLA:programmable logic arrays)などの、再構成可能なハードウェア回路を含んでよい。
本発明は、システム、方法、またはコンピュータ・プログラム製品、あるいはその組み合わせであってよい。コンピュータ・プログラム製品は、プロセッサに本発明の態様を実行させるためのコンピュータ可読プログラム命令を有するコンピュータ可読ストレージ媒体を含んでよい。
コンピュータ可読ストレージ媒体は、命令実行デバイスによって使用するための命令を保持および格納できる有形のデバイスであることができる。コンピュータ可読ストレージ媒体は、例えば、電子ストレージ・デバイス、磁気ストレージ・デバイス、光ストレージ・デバイス、電磁ストレージ・デバイス、半導体ストレージ・デバイス、またはこれらの任意の適切な組み合わせであってよいが、これらに限定されない。コンピュータ可読ストレージ媒体のさらに具体的な例の非網羅的リストは、ポータブル・コンピュータ・ディスク、ハード・ディスク、ランダム・アクセス・メモリ(RAM:random access memory)、読み取り専用メモリ(ROM:read-only memory)、消去可能プログラマブル読み取り専用メモリ(EPROM:erasable programmable read-only memoryまたはフラッシュ・メモリ)、スタティック・ランダム・アクセス・メモリ(SRAM:static random access memory)、ポータブル・コンパクト・ディスク読み取り専用メモリ(CD-ROM:compact disc read-only memory)、デジタル多用途ディスク(DVD:digital versatile disk)、メモリ・スティック、フロッピー(R)・ディスク、パンチカードまたは命令が記録されている溝の中の隆起構造などの機械的にエンコードされるデバイス、およびこれらの任意の適切な組み合わせを含む。本明細書において使用されるとき、コンピュータ可読ストレージ媒体は、それ自体が、電波またはその他の自由に伝搬する電磁波、導波管またはその他の送信媒体を伝搬する電磁波(例えば、光ファイバ・ケーブルを通過する光パルス)、あるいはワイヤを介して送信される電気信号などの一過性の信号であると解釈されるべきではない。
本明細書に記載されたコンピュータ可読プログラム命令は、コンピュータ可読ストレージ媒体から各コンピューティング・デバイス/処理デバイスへ、またはネットワーク(例えば、インターネット、ローカル・エリア・ネットワーク、広域ネットワーク、または無線ネットワーク、あるいはその組み合わせ)を介して外部コンピュータまたは外部ストレージ・デバイスへダウンロードされ得る。このネットワークは、銅伝送ケーブル、光伝送ファイバ、無線送信、ルータ、ファイアウォール、スイッチ、ゲートウェイ・コンピュータ、またはエッジ・サーバ、あるいはその組み合わせを備えてよい。各コンピューティング・デバイス/処理デバイス内のネットワーク・アダプタ・カードまたはネットワーク・インターフェイスは、コンピュータ可読プログラム命令をネットワークから受信し、それらのコンピュータ可読プログラム命令を各コンピューティング・デバイス/処理デバイス内のコンピュータ可読ストレージ媒体に格納するために転送する。
本発明の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セット・アーキテクチャ(ISA:instruction-set-architecture)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、あるいは、Smalltalk(R)、C++などのオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語などの従来の手続き型プログラミング言語を含む1つまたは複数のプログラミング言語の任意の組み合わせで記述されたソース・コードまたはオブジェクト・コードであってよい。コンピュータ可読プログラム命令は、ユーザのコンピュータ上で全体的に実行すること、ユーザのコンピュータ上でスタンドアロン・ソフトウェア・パッケージとして部分的に実行すること、ユーザのコンピュータ上およびリモート・コンピュータ上でそれぞれ部分的に実行すること、あるいはリモート・コンピュータ上またはサーバ上で全体的に実行することができる。後者のシナリオでは、リモート・コンピュータは、ローカル・エリア・ネットワーク(LAN:local area network)または広域ネットワーク(WAN:wide area network)を含む任意の種類のネットワークを介してユーザのコンピュータに接続されてよく、または接続は、(例えば、インターネット・サービス・プロバイダを使用してインターネットを介して)外部コンピュータに対して行われてよい。一部の実施形態では、本発明の態様を実行するために、例えばプログラマブル論理回路、フィールドプログラマブル・ゲート・アレイ(FPGA)、またはプログラマブル・ロジック・アレイ(PLA)を含む電子回路は、コンピュータ可読プログラム命令の状態情報を利用することによって、電子回路を個別化するためのコンピュータ可読プログラム命令を実行してよい。
本発明の態様は、本明細書において、本発明の実施形態に従って、方法、装置(システム)、およびコンピュータ・プログラム製品のフローチャート図またはブロック図あるいはその両方を参照して説明される。フローチャート図またはブロック図あるいはその両方の各ブロック、ならびにフローチャート図またはブロック図あるいはその両方に含まれるブロックの組み合わせが、コンピュータ可読プログラム命令によって実装され得るということが理解されるであろう。
これらのコンピュータ可読プログラム命令は、コンピュータまたはその他のプログラム可能なデータ処理装置のプロセッサを介して実行される命令が、フローチャートまたはブロック図あるいはその両方のブロックに指定される機能/動作を実装する手段を作り出すべく、汎用コンピュータ、専用コンピュータ、または他のプログラム可能なデータ処理装置のプロセッサに提供されてマシンを作り出すものであってよい。これらのコンピュータ可読プログラム命令は、命令が格納されたコンピュータ可読ストレージ媒体がフローチャートまたはブロック図あるいはその両方のブロックに指定される機能/動作の態様を実装する命令を含む製品を備えるように、コンピュータ可読ストレージ媒体に格納され、コンピュータ、プログラム可能なデータ処理装置、または他のデバイス、あるいはその組み合わせに特定の方式で機能するように指示できるものであってもよい。
コンピュータ可読プログラム命令は、コンピュータ上、その他のプログラム可能な装置上、またはその他のデバイス上で実行される命令が、フローチャートまたはブロック図あるいはその両方のブロックに指定される機能/動作を実装するように、コンピュータ、その他のプログラム可能なデータ処理装置、またはその他のデバイスに読み込まれてもよく、それによって、一連の動作可能なステップを、コンピュータ上、その他のプログラム可能な装置上、またはコンピュータ実装プロセスを生成するその他のデバイス上で実行させる。
図内のフローチャートおよびブロック図は、本発明のさまざまな実施形態に従って、システム、方法、およびコンピュータ・プログラム製品の可能な実装のアーキテクチャ、機能、および動作を示す。これに関連して、フローチャートまたはブロック図内の各ブロックは、指定された論理機能を実装するための1つまたは複数の実行可能な命令を備える、命令のモジュール、セグメント、または部分を表してよい。一部の代替の実装では、ブロックに示された機能は、図に示された順序とは異なる順序で発生してよい。例えば、連続して示された2つのブロックは、実際には、含まれている機能に応じて、実質的に同時に実行されるか、または場合によっては逆の順序で実行される。ブロック図またはフローチャート図あるいはその両方の各ブロック、ならびにブロック図またはフローチャート図あるいはその両方に含まれるブロックの組み合わせは、指定された機能または動作を実行するか、または専用ハードウェアとコンピュータ命令の組み合わせを実行する専用ハードウェアベースのシステムによって実装され得るということにも注意する。
本発明の実施形態が説明されたが、本発明の技術的範囲は、前述した実施形態に限定されない。種々の変更および改良が前述した実施形態に追加され得るということは、当業者にとって明らかである。そのような変更または改良が追加された実施形態が本発明の技術的範囲に含まれ得るということも、特許請求の範囲から明らかである。
特許請求の範囲、実施形態、または図に示された装置、システム、プログラム、および方法によって実行される各プロセスの動作、手順、ステップ、および段階は、順序が「の前に(prior to)」、「前に(before)」などによって示されない限り、かつ前のプロセスからの出力が後のプロセスで使用されない限り、任意の順序で実行され得る。特許請求の範囲、実施形態、または図において「最初に」または「次に」などの語句を使用してプロセス・フローが説明される場合でも、プロセスがこの順序で実行されなければならないということを必ずしも意味していない。
図8は、本発明の実施形態に従って、前述の動作を実行するように構成されたコンピュータの例示的なハードウェア構成を示している。コンピュータ700にインストールされているプログラムは、コンピュータ700に、本発明の実施形態の装置もしくはその1つまたは複数のセクション(モジュール、コンポーネント、要素などを含む)として機能させるか、または本発明の実施形態の装置もしくはその1つまたは複数のセクションに関連付けられた動作を実行させることができ、またはコンピュータ700に、本発明の実施形態のプロセスもしくはそのステップを実行させることができ、あるいはその両方を実行させることができる。そのようなプログラムは、コンピュータ700に、本明細書に記載されたフローチャートおよびブロック図のブロックの一部またはすべてに関連付けられた特定の動作を実行させるように、CPU700-12によって実行される。
本実施形態に従うコンピュータ700は、ホスト・コントローラ700-10によって相互に接続されたCPU700-12、RAM700-14、グラフィック・コントローラ700-16、およびディスプレイ・デバイス700-18を含む。コンピュータ700は、入出力コントローラ700-20を介してホスト・コントローラ700-10に接続された、通信インターフェイス700-22、ハード・ディスク・ドライブ700-24、DVDドライブ700-26、およびICカード・ドライブなどの、入出力ユニットも含む。コンピュータは、入出力チップ700-40を介して入出力コントローラ700-20に接続されたROM700-30およびキーボード700-42などの従来の入出力ユニットも含む。
CPU700-12は、ROM700-30およびRAM700-14に格納されたプログラムに従って動作し、それによって各ユニットを制御する。グラフィック・コントローラ700-16は、RAM700-14内またはグラフィック・コントローラ700-16自体の内部で提供されたフレーム・バッファ上などで、CPU700-12によって生成された画像データを取得し、画像データをディスプレイ・デバイス700-18に表示させる。
通信インターフェイス700-22は、ネットワーク700-50を介して他の電子デバイスと通信する。ハード・ディスク・ドライブ700-24は、コンピュータ700内のCPU700-12によって使用されるプログラムおよびデータを格納する。DVDドライブ700-26は、DVD-ROM700-01からプログラムまたはデータを読み取り、RAM700-14を介してプログラムまたはデータをハード・ディスク・ドライブ700-24に提供する。ICカード・ドライブは、プログラムおよびデータをICカードから読み取るか、またはプログラムおよびデータをICカードに書き込むか、あるいはその両方を実行する。
ROM700-30は、有効化時にコンピュータ700によって実行される起動プログラムなど、またはコンピュータ700のハードウェアに依存するプログラム、あるいはその両方を格納する。入出力チップ700-40は、パラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポートなどを介して、さまざまな入出力ユニットを入出力コントローラ700-20に接続してもよい。
DVD-ROM700-01またはICカードなどのコンピュータ可読媒体によって、プログラムが提供される。このプログラムは、コンピュータ可読媒体から読み取られ、コンピュータ可読媒体の例でもあるハード・ディスク・ドライブ700-24、RAM700-14、またはROM700-30にインストールされ、CPU700-12によって実行される。これらのプログラムに記述された情報処理がコンピュータ700に読み取られ、その結果、プログラムと前述のさまざまな種類のハードウェア・リソースの間の連携が生じる。装置または方法は、記録媒体上で提供された受信バッファ領域などに対するコンピュータ700-50の使用法に従って、情報の操作または処理を実現することによって構成される。
例えば、コンピュータ700と外部デバイスの間で通信が実行される場合、CPU700-12は、RAM700-14に読み込まれた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インターフェイス700-22に対して通信処理を指示してよい。通信インターフェイス700-22は、CPU700-12の制御下で、RAM700-14、ハード・ディスク・ドライブ700-24、DVD-ROM700-01、またはICカードなどの記録媒体内で提供された送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワーク700-50に送信するか、またはネットワーク700-50から受信された受信データを、記録媒体上で提供された受信バッファ領域などに書き込む。
加えて、CPU700-12は、ファイルまたはデータベースのすべてまたは必要な部分がRAM700-14に読み取られることを引き起こしてよく、ファイルまたはデータベースは、ハード・ディスク・ドライブ700-24、DVDドライブ700-26(DVD-ROM700-01)、ICカードなどの外部記録媒体に格納されており、CPU700-12は、RAM700-14上のデータに対してさまざまな種類の処理を実行してよい。次にCPU700-12は、処理されたデータを外部記録媒体に書き戻してよい。
さまざまな種類のプログラム、データ、テーブル、およびデータベースなどのさまざまな種類の情報が、記録媒体に格納され、情報処理が適用される。CPU700-12は、RAM700-14から読み取られたデータに対してさまざまな種類の処理を実行してよく、それらの処理は、本開示全体を通じて説明され、プログラムの命令シーケンスによって指定される、さまざまな種類の動作、情報の処理、条件の判定、条件付き分岐、無条件分岐、情報の検索/置換などを含み、その結果をRAM700-14に書き戻す。加えて、CPU700-12は、記録媒体内のファイル、データベースなどに含まれる情報を検索してよい。例えば、第1の属性の属性値をそれぞれ含んでいる複数のエントリが、第2の属性の属性値に関連付けられ、記録媒体に格納されている場合、CPU700-12は、複数のエントリの中から、指定された第1の属性の属性値を含む条件に一致するエントリを検索してよく、このエントリに格納されている第2の属性の属性値を読み取ることによって、既定の条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得する。
上で説明されたプログラムまたはソフトウェア・モジュールは、コンピュータ700上または、コンピュータ700の近くのコンピュータ可読媒体に格納される。加えて、専用通信ネットワークまたはインターネットに接続されたサーバ・システム内で提供されるハード・ディスクまたはRAMなどの記録媒体をコンピュータ可読媒体として使用することによって、ネットワークを介してプログラムをコンピュータ700に提供することができる。
本発明は、システム、方法、またはコンピュータ・プログラム製品、あるいはその組み合わせであってよい。コンピュータ・プログラム製品は、プロセッサに本発明の態様を実行させるためのコンピュータ可読プログラム命令を含むコンピュータ可読ストレージ媒体を含んでよい。
コンピュータ可読ストレージ媒体は、命令実行デバイスによって使用するための命令を保持および格納できる有形のデバイスであることができる。コンピュータ可読ストレージ媒体は、例えば、電子ストレージ・デバイス、磁気ストレージ・デバイス、光ストレージ・デバイス、電磁ストレージ・デバイス、半導体ストレージ・デバイス、またはこれらの任意の適切な組み合わせであってよいが、これらに限定されない。コンピュータ可読ストレージ媒体のさらに具体的な例の非網羅的リストは、ポータブル・コンピュータ・ディスク、ハード・ディスク、ランダム・アクセス・メモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュ・メモリ)、スタティック・ランダム・アクセス・メモリ(SRAM)、ポータブル・コンパクト・ディスク読み取り専用メモリ(CD-ROM)、デジタル・バーサタイル・ディスク(DVD)、メモリ・スティック、フロッピー(R)・ディスク、パンチカードまたは命令が記録されている溝の中の隆起構造などの機械的にエンコードされるデバイス、およびこれらの任意の適切な組み合わせを含む。本明細書において使用されるとき、コンピュータ可読ストレージ媒体は、それ自体が、電波またはその他の自由に伝搬する電磁波、導波管またはその他の送信媒体を伝搬する電磁波(例えば、光ファイバ・ケーブルを通過する光パルス)、あるいはワイヤを介して送信される電気信号などの一過性の信号であると解釈されるべきではない。
本明細書に記載されたコンピュータ可読プログラム命令は、コンピュータ可読ストレージ媒体から各コンピューティング・デバイス/処理デバイスへ、またはネットワーク(例えば、インターネット、ローカル・エリア・ネットワーク、広域ネットワーク、または無線ネットワーク、あるいはその組み合わせ)を介して外部コンピュータまたは外部ストレージ・デバイスへダウンロードされ得る。このネットワークは、銅伝送ケーブル、光伝送ファイバ、無線送信、ルータ、ファイアウォール、スイッチ、ゲートウェイ・コンピュータ、またはエッジ・サーバ、あるいはその組み合わせを備えてよい。各コンピューティング・デバイス/処理デバイス内のネットワーク・アダプタ・カードまたはネットワーク・インターフェイスは、コンピュータ可読プログラム命令をネットワークから受信し、それらのコンピュータ可読プログラム命令を各コンピューティング・デバイス/処理デバイス内のコンピュータ可読ストレージ媒体に格納するために転送する。
本発明の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セット・アーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、あるいは、Smalltalk(R)、C++などのオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語などの従来の手続き型プログラミング言語を含む1つまたは複数のプログラミング言語の任意の組み合わせで記述されたソース・コードまたはオブジェクト・コードであってよい。コンピュータ可読プログラム命令は、ユーザのコンピュータ上で全体的に実行すること、ユーザのコンピュータ上でスタンドアロン・ソフトウェア・パッケージとして部分的に実行すること、ユーザのコンピュータ上およびリモート・コンピュータ上でそれぞれ部分的に実行すること、あるいはリモート・コンピュータ上またはサーバ上で全体的に実行することができる。後者のシナリオでは、リモート・コンピュータは、ローカル・エリア・ネットワーク(LAN)または広域ネットワーク(WAN)を含む任意の種類のネットワークを介してユーザのコンピュータに接続されてよく、または接続は、(例えば、インターネット・サービス・プロバイダを使用してインターネットを介して)外部コンピュータに対して行われてよい。一部の実施形態では、本発明の態様を実行するために、例えばプログラマブル論理回路、フィールドプログラマブル・ゲート・アレイ(FPGA)、またはプログラマブル・ロジック・アレイ(PLA)を含む電子回路は、コンピュータ可読プログラム命令の状態情報を利用することによって、電子回路を個別化するためのコンピュータ可読プログラム命令を実行してよい。
本発明の態様は、本明細書において、本発明の実施形態に従って、方法、装置(システム)、およびコンピュータ・プログラム製品のフローチャート図またはブロック図あるいはその両方を参照して説明される。フローチャート図またはブロック図あるいはその両方の各ブロック、ならびにフローチャート図またはブロック図あるいはその両方に含まれるブロックの組み合わせが、コンピュータ可読プログラム命令によって実装され得るということが理解されるであろう。
これらのコンピュータ可読プログラム命令は、コンピュータまたはその他のプログラム可能なデータ処理装置のプロセッサを介して実行される命令が、フローチャートまたはブロック図あるいはその両方のブロックに指定される機能/動作を実装する手段を作り出すべく、汎用コンピュータ、専用コンピュータ、または他のプログラム可能なデータ処理装置のプロセッサに提供されてマシンを作り出すものであってよい。これらのコンピュータ可読プログラム命令は、命令が格納されたコンピュータ可読ストレージ媒体がフローチャートまたはブロック図あるいはその両方のブロックに指定される機能/動作の態様を実装する命令を含む製品を備えるように、コンピュータ可読ストレージ媒体に格納され、コンピュータ、プログラム可能なデータ処理装置、または他のデバイス、あるいはその組み合わせに特定の方式で機能するように指示できるものであってもよい。
コンピュータ可読プログラム命令は、コンピュータ上、その他のプログラム可能な装置上、またはその他のデバイス上で実行される命令が、フローチャートまたはブロック図あるいはその両方のブロックに指定される機能/動作を実装するように、コンピュータ、その他のプログラム可能なデータ処理装置、またはその他のデバイスに読み込まれてもよく、それによって、一連の動作可能なステップを、コンピュータ上、その他のプログラム可能な装置上、またはコンピュータ実装プロセスを生成するその他のデバイス上で実行させる。
図内のフローチャートおよびブロック図は、本発明の種々の実施形態に従って、システム、方法、およびコンピュータ・プログラム製品の可能な実装のアーキテクチャ、機能、および動作を示す。これに関連して、フローチャートまたはブロック図内の各ブロックは、指定された論理機能を実装するための1つまたは複数の実行可能な命令を備える、命令のモジュール、セグメント、または部分を表してよい。一部の代替の実装では、ブロックに示された機能は、図に示された順序とは異なる順序で発生してよい。例えば、連続して示された2つのブロックは、実際には、含まれている機能に応じて、実質的に同時に実行されるか、または場合によっては逆の順序で実行される。ブロック図またはフローチャート図あるいはその両方の各ブロック、ならびにブロック図またはフローチャート図あるいはその両方に含まれるブロックの組み合わせは、指定された機能または動作を実行するか、または専用ハードウェアとコンピュータ命令の組み合わせを実行する専用ハードウェアベースのシステムによって実装され得るということにも注意する。
本発明の実施形態が説明されたが、本発明の技術的範囲は、前述した実施形態に限定されない。さまざまな変更および改良が前述した実施形態に追加され得るということは、当業者にとって明らかである。そのような変更または改良が追加された実施形態が本発明の技術的範囲に含まれ得るということも、特許請求の範囲から明らかである。
特許請求の範囲、実施形態、または図に示された装置、システム、プログラム、および方法によって実行される各プロセスの動作、手順、ステップ、および段階は、順序が「の前に(prior to)」、「前に(before)」などによって示されない限り、かつ前のプロセスからの出力が後のプロセスで使用されない限り、任意の順序で実行され得る。特許請求の範囲、実施形態、または図において「最初に」または「次に」などの語句を使用してプロセス・フローが説明される場合でも、プロセスがこの順序で実行されなければならないということを必ずしも意味していない。

Claims (12)

  1. コンピュータの情報処理により画像を解析する方法であって、前記方法が、
    入力画像を取得することと、
    前記入力画像内の対象領域(ROI:region of interest)を指定する注釈付き画像を取得することと、
    前記入力画像を、ターゲット領域を表示する出力画像を前記入力画像から生成する検出モデルに入力することと、
    重み付き交差エントロピーによる損失関数を使用して、前記出力画像と前記注釈付き画像の間の誤差を計算することであって、前記ターゲット領域内の前記重み付き交差エントロピーの重みが、前記ターゲット領域外の重みよりも大きい値を有するように設定され、前記対象領域内の前記重み付き交差エントロピーの重みが、前記対象領域外の重みよりも大きい値を有するように設定される、前記計算することと、
    前記誤差を減らすように前記検出モデルを更新することを含む、方法。
  2. 前記重み付き交差エントロピーが、
    式1:
    Figure 0007350878000004
    によって示され、Xが前記入力画像内のすべてのピクセルiの集合であり、Cがすべてのクラスcの集合であり、Wcが前記クラスcの重みであり、picが前記注釈付き画像内の前記ピクセルiでの前記クラスcの値であり、qicが前記出力画像内の前記ピクセルiでの前記クラスcの前記値である、請求項に記載の方法。
  3. 前記検出モデルが、入力と出力の間に、1つまたは複数の畳み込み層、1つまたは複数のプーリング層、1つまたは複数の逆畳み込み層、および1つまたは複数のバッチ正規化層を含む、請求項1~の何れか1項に記載の方法。
  4. 前記複数のバッチ正規化層が、前記複数の畳み込み層および前記複数のプーリング層の一部を含む第1の経路と、その他の前記複数の畳み込み層および前記複数の逆畳み込み層を含む第2の経路とのうちの少なくとも1つに含まれている既定の数の層ごとに、それぞれ配置される、請求項に記載の方法。
  5. 前記入力画像内の少なくとも1つの座標を取得することと、
    前記少なくとも1つの座標に従って前記対象領域を指定することをさらに含む、請求項1~の何れか1項に記載の方法。
  6. 前記少なくとも1つの座標に従って前記対象領域を前記指定することが、前記少なくとも1つの座標を参照として使用して、既定の範囲を前記対象領域として指定することを含む、請求項に記載の方法。
  7. 前記少なくとも1つの座標に従って前記対象領域を前記指定することが、前記少なくとも1つの座標でのテクスチャに類似するテクスチャを有する範囲を前記対象領域として指定することを含む、請求項5~6の何れかに1項に記載の方法。
  8. 前記少なくとも1つの座標に従って前記対象領域を前記指定することが、複数の座標のセットによって囲まれた範囲を前記対象領域として指定することを含む、請求項5~7の何れか1項に記載の方法。
  9. 前記指定された対象領域を表示することと、
    前記対象領域が表示されている間に、ユーザ入力を受信し、前記対象領域を変更するとこをさらに含む、請求項5~8の何れか1項に記載の方法。
  10. 請求項1~の何れか1項に記載の方法をコンピュータ・ハードウェアによる手段として構成した装置。
  11. 請求項1~の何れか1項に記載の方法をコンピュータに実行させる、コンピュータ・プログラム。
  12. 請求項11に記載の前記コンピュータ・プログラムをコンピュータ可読ストレージ媒体に記録した、ストレージ媒体。
JP2021555530A 2019-03-28 2020-03-13 画像解析方法、装置、プログラム Active JP7350878B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US16/367,365 2019-03-28
US16/367,365 US11074479B2 (en) 2019-03-28 2019-03-28 Learning of detection model using loss function
US16/507,625 US11120305B2 (en) 2019-03-28 2019-07-10 Learning of detection model using loss function
US16/507,625 2019-07-10
PCT/IB2020/052309 WO2020194111A1 (en) 2019-03-28 2020-03-13 Learning of detection model using loss function

Publications (3)

Publication Number Publication Date
JP2022524878A JP2022524878A (ja) 2022-05-10
JPWO2020194111A5 JPWO2020194111A5 (ja) 2022-08-12
JP7350878B2 true JP7350878B2 (ja) 2023-09-26

Family

ID=72603881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021555530A Active JP7350878B2 (ja) 2019-03-28 2020-03-13 画像解析方法、装置、プログラム

Country Status (6)

Country Link
US (2) US11074479B2 (ja)
JP (1) JP7350878B2 (ja)
CN (1) CN113614780A (ja)
DE (1) DE112020000279T5 (ja)
GB (1) GB2596751B (ja)
WO (1) WO2020194111A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11074479B2 (en) * 2019-03-28 2021-07-27 International Business Machines Corporation Learning of detection model using loss function
US11592828B2 (en) * 2020-01-16 2023-02-28 Nvidia Corporation Using neural networks to perform fault detection in autonomous driving applications
US11379991B2 (en) * 2020-05-29 2022-07-05 National Technology & Engineering Solutions Of Sandia, Llc Uncertainty-refined image segmentation under domain shift
AU2021401039A1 (en) * 2020-12-16 2023-07-13 Memorial Sloan Kettering Cancer Center Detection of annotated regions of interest in images
CN113516147B (zh) * 2020-12-21 2024-03-05 阿里巴巴集团控股有限公司 印刷误差检测方法、设备、系统及存储介质
CN113947598B (zh) * 2021-12-20 2022-05-31 宁波昌亚新材料科技股份有限公司 基于图像处理的塑料餐盒缺陷检测方法、装置及系统
CN114187292B (zh) * 2022-02-14 2022-05-31 北京阿丘科技有限公司 棉纺纸筒的异常检测方法、装置、设备及存储介质
CN115019181B (zh) * 2022-07-28 2023-02-07 北京卫星信息工程研究所 遥感图像旋转目标检测方法、电子设备及存储介质
CN115063753B (zh) * 2022-08-17 2023-05-12 苏州魔视智能科技有限公司 一种安全带佩戴检测模型训练方法及安全带佩戴检测方法
JP7473765B2 (ja) 2022-09-29 2024-04-24 山陽特殊製鋼株式会社 非金属介在物の自動領域識別方法およびそれを組み込んだ介在物判別システム
CN115861462B (zh) * 2022-10-17 2023-11-03 北京百度网讯科技有限公司 图像生成模型的训练方法、装置、电子设备及存储介质
CN116630812B (zh) * 2023-07-21 2023-09-26 四川发展环境科学技术研究院有限公司 基于可见光图像分析的水体特征检测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008245719A (ja) 2007-03-29 2008-10-16 Fujifilm Corp 対象領域抽出方法および装置ならびにプログラム
JP2017162456A (ja) 2016-03-11 2017-09-14 株式会社東芝 道路シーンのセマンティックセグメンテーションのための制約付きデコンボリューションネットワークのトレーニング
US20180232601A1 (en) 2017-02-16 2018-08-16 Mitsubishi Electric Research Laboratories, Inc. Deep Active Learning Method for Civil Infrastructure Defect Detection

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2978374B2 (ja) 1992-08-21 1999-11-15 松下電器産業株式会社 画像処理装置及び画像処理方法並びに空気調和機の制御装置
JP3216280B2 (ja) 1992-12-11 2001-10-09 松下電器産業株式会社 空気調和機の制御装置と画像処理装置の応用機器
JP3264460B2 (ja) 1993-04-26 2002-03-11 富士写真フイルム株式会社 画像判別方法
JPH07175776A (ja) 1993-12-17 1995-07-14 Nec Corp パターン学習認識装置
DE19544228C1 (de) 1995-11-28 1997-03-06 Man Takraf Foerdertechnik Gmbh Fahrwerk für einen Zweiträgerbrückenkran
JPH1091757A (ja) * 1996-09-11 1998-04-10 Ge Yokogawa Medical Syst Ltd 関心領域形状修正方法および医用装置
JP2006031440A (ja) 2004-07-16 2006-02-02 Konica Minolta Photo Imaging Inc 画像処理方法、画像処理装置、画像処理プログラム及び画像処理システム
JP4719893B2 (ja) 2005-05-02 2011-07-06 国立大学法人佐賀大学 制御装置、制御方法、及びそのプログラム
DE102006013476B4 (de) * 2006-03-23 2012-11-15 Siemens Ag Verfahren zur positionsgenauen Darstellung von interessierenden Gewebebereichen
JP5130523B2 (ja) 2007-03-01 2013-01-30 国立大学法人東京工業大学 情報処理装置、情報処理方法、及びプログラム
US8582854B2 (en) * 2008-09-15 2013-11-12 Siemens Aktiengesellschaft Method and system for automatic coronary artery detection
US8879813B1 (en) * 2013-10-22 2014-11-04 Eyenuk, Inc. Systems and methods for automated interest region detection in retinal images
US9569736B1 (en) 2015-09-16 2017-02-14 Siemens Healthcare Gmbh Intelligent medical image landmark detection
US9972092B2 (en) * 2016-03-31 2018-05-15 Adobe Systems Incorporated Utilizing deep learning for boundary-aware image segmentation
US10032067B2 (en) 2016-05-28 2018-07-24 Samsung Electronics Co., Ltd. System and method for a unified architecture multi-task deep learning machine for object recognition
EP3482346A1 (en) 2016-07-08 2019-05-15 Avent, Inc. System and method for automatic detection, localization, and semantic segmentation of anatomical objects
JP6809869B2 (ja) 2016-11-02 2021-01-06 Eizo株式会社 ガーゼ検出システム
US11308350B2 (en) 2016-11-07 2022-04-19 Qualcomm Incorporated Deep cross-correlation learning for object tracking
US10580131B2 (en) * 2017-02-23 2020-03-03 Zebra Medical Vision Ltd. Convolutional neural network for segmentation of medical anatomical images
JP2020518915A (ja) * 2017-04-27 2020-06-25 パスハラキス スタブロスPASCHALAKIS, Stavros 自動眼底画像分析用のシステムおよび方法
JP2018206321A (ja) 2017-06-09 2018-12-27 コニカミノルタ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
CN107301640A (zh) 2017-06-19 2017-10-27 太原理工大学 一种基于卷积神经网络的目标检测实现肺部微小结节检测的方法
EP3596697B1 (en) * 2017-06-28 2021-03-17 Deepmind Technologies Limited Generalizable medical image analysis using segmentation and classification neural networks
US9968257B1 (en) * 2017-07-06 2018-05-15 Halsa Labs, LLC Volumetric quantification of cardiovascular structures from medical imaging
US10891778B2 (en) * 2018-01-10 2021-01-12 The Board Of Trustees Of The University Of Illinois Apparatus and method for producing three-dimensional models from magnetic resonance imaging
CN109035197B (zh) 2018-05-31 2021-09-28 东南大学 基于三维卷积神经网络的ct造影图像肾脏肿瘤分割方法及系统
US11966838B2 (en) * 2018-06-19 2024-04-23 Nvidia Corporation Behavior-guided path planning in autonomous machine applications
CN109145939B (zh) 2018-07-02 2021-11-02 南京师范大学 一种小目标敏感的双通道卷积神经网络语义分割方法
CN108898188A (zh) 2018-07-06 2018-11-27 四川奇迹云科技有限公司 一种图像数据集辅助标记系统及方法
CN109035263B (zh) * 2018-08-14 2021-10-15 电子科技大学 基于卷积神经网络的脑肿瘤图像自动分割方法
CN109351970A (zh) * 2018-11-16 2019-02-19 北京遥感设备研究所 一种毛细结构3d打印制造方法
US11068694B2 (en) * 2019-01-23 2021-07-20 Molecular Devices, Llc Image analysis system and method of using the image analysis system
US11074479B2 (en) 2019-03-28 2021-07-27 International Business Machines Corporation Learning of detection model using loss function

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008245719A (ja) 2007-03-29 2008-10-16 Fujifilm Corp 対象領域抽出方法および装置ならびにプログラム
JP2017162456A (ja) 2016-03-11 2017-09-14 株式会社東芝 道路シーンのセマンティックセグメンテーションのための制約付きデコンボリューションネットワークのトレーニング
US20180232601A1 (en) 2017-02-16 2018-08-16 Mitsubishi Electric Research Laboratories, Inc. Deep Active Learning Method for Civil Infrastructure Defect Detection

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Guanyu Yang et al.,"Automatic Segmentation of Kidney and Renal Tumor in CT Images Based on 3D Fully Convolutional Neural Network with Pyramid Pooling Module",2018 24th International Conference on Pattern Recognition (ICPR),米国,IEEE,2018年08月20日,pp.3790-3795
Jie Wu et al.,"Texture Feature based Automated Seeded Region Growing in Abdominal MRI Segmentation",2008 International Conference on BioMedical Engineering and Informatics,米国,IEEE,2008年05月27日,pp.263-267
Ozgun Cicek et al.,"3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation",Medical Image Computing and Computer-Assisted Intervention - MICCAI 2016,ドイツ,Springer, Cham,2016年10月02日,pp.424-432,https://link.springer.com/chapter/10.1007/978-3-319-46723-8_49
久保田 涼介、小暮 潔,"全層畳み込みニューラルネットワークを用いた透明物体の輪郭抽出",電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2018年05月10日,Vol.118, No.36,pp.41-46
田中 秀郎、外3名,"ガボールフィルタの振幅及び位相情報を用いたテクスチャ画像の領域分割",電子情報通信学会論文誌,日本,社団法人電子情報通信学会,2001年12月01日,Vol.J84-D-II, No.12,pp.2565-2576

Also Published As

Publication number Publication date
US11074479B2 (en) 2021-07-27
DE112020000279T5 (de) 2021-10-14
CN113614780A (zh) 2021-11-05
US20200311479A1 (en) 2020-10-01
GB202114744D0 (en) 2021-12-01
US11120305B2 (en) 2021-09-14
GB2596751A (en) 2022-01-05
JP2022524878A (ja) 2022-05-10
US20200311483A1 (en) 2020-10-01
GB2596751B (en) 2023-01-18
WO2020194111A1 (en) 2020-10-01

Similar Documents

Publication Publication Date Title
JP7350878B2 (ja) 画像解析方法、装置、プログラム
Usman et al. Volumetric lung nodule segmentation using adaptive roi with multi-view residual learning
US11586851B2 (en) Image classification using a mask image and neural networks
CN111161275B (zh) 医学图像中目标对象的分割方法、装置和电子设备
US10853449B1 (en) Report formatting for automated or assisted analysis of medical imaging data and medical diagnosis
CN108171260B (zh) 一种图片识别方法及系统
JP7034013B2 (ja) 自動画像レジストレーション品質評価
CN114945951A (zh) 用于图像分类的不确定性引导的半监督神经网络训练
US11164306B2 (en) Visualization of inspection results
US11748937B2 (en) Sub-pixel data simulation system
KR102160390B1 (ko) 인공지능 기반의 사용자 의료정보 분석 방법 및 시스템
CN112734873B (zh) 对抗生成网络的图像属性编辑方法、装置、设备及介质
US20210366594A1 (en) Method and system for refining label information
Galdran et al. A no-reference quality metric for retinal vessel tree segmentation
US20210145389A1 (en) Standardizing breast density assessments
CN111161789B (zh) 一种模型预测的关键区域的分析方法及装置
Ankireddy Assistive diagnostic tool for brain tumor detection using computer vision
EP4239589A1 (en) Ai-assisted generation of annotated medical images
WO2022117014A1 (en) System, method and apparatus for training a machine learning model
US11244443B2 (en) Examination apparatus, examination method, recording medium storing an examination program, learning apparatus, learning method, and recording medium storing a learning program
CN116415020A (zh) 一种图像检索的方法、装置、电子设备及存储介质
Khan et al. A convex selective segmentation model based on a piece-wise constant metric-guided edge detector function
CN114723746B (zh) 基于知识蒸馏的病灶区域深度组学特征提取方法及装置
CN114881992B (zh) 颅骨骨折的检测方法、装置及存储介质
US20240177369A1 (en) System and methods for color gamut normalization for pathology slides

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230913

R150 Certificate of patent or registration of utility model

Ref document number: 7350878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150