JP7138780B2 - 画像処理装置とその作動方法および作動プログラム、運用装置とその作動方法および作動プログラム、並びに機械学習システム - Google Patents
画像処理装置とその作動方法および作動プログラム、運用装置とその作動方法および作動プログラム、並びに機械学習システム Download PDFInfo
- Publication number
- JP7138780B2 JP7138780B2 JP2021512160A JP2021512160A JP7138780B2 JP 7138780 B2 JP7138780 B2 JP 7138780B2 JP 2021512160 A JP2021512160 A JP 2021512160A JP 2021512160 A JP2021512160 A JP 2021512160A JP 7138780 B2 JP7138780 B2 JP 7138780B2
- Authority
- JP
- Japan
- Prior art keywords
- label
- image
- specified
- region
- complex
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/149—Segmentation; Edge detection involving deformable models, e.g. active contour models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Description
本開示の技術は、画像処理装置とその作動方法および作動プログラム、運用装置とその作動方法および作動プログラム、並びに機械学習システムに関する。
画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションが知られている。セマンティックセグメンテーションは、U字型の畳み込みニューラルネットワーク(U-Net;U-Shaped Neural Network)等の機械学習モデル(以下、単にモデル)で実現される。
クラスは、入力画像に映る物体の種類と言い換えてもよい。また、セマンティックセグメンテーションは、端的に言えば、入力画像に映る物体のクラスとその輪郭を判別するものである。モデルは、物体のクラスと輪郭の判別結果を出力画像として出力する。例えば入力画像にコップ、本、携帯電話の3つの物体が映っていた場合、出力画像は、理想的には、コップ、本、携帯電話が各々クラスとして判別され、かつこれら物体の輪郭を忠実に辿った輪郭線がそれぞれの物体に描かれたものとなる。
特表2016-534709号公報に記載されているように、モデルのクラスの判別精度を高めるためには、モデルに学習データを与えて学習させ、モデルを更新していくことが必要である。学習データは、学習用入力画像と、学習用入力画像内のクラスのラベルが指定されたアノテーション画像とで構成される。
アノテーション画像において、ジグザグに入り組んだ輪郭等の比較的複雑な輪郭をもつ領域(以下、複雑領域)と、滑らかな輪郭等の比較的単純な輪郭をもつ領域(以下、単純領域)とに、同じクラスのラベルが指定される場合がある。こうした複雑領域と単純領域とが区別されていない状態のアノテーション画像を学習データとして与えてモデルを学習させると、クラスの判別精度を評価する場合に、単純領域に評価の比重が偏るため、複雑領域に学習の労力があまり掛けられない。したがって、出力画像における複雑領域の判別精度が低下することがあった。
本開示の技術は、セマンティックセグメンテーションを実施するための機械学習モデルにおける、比較的複雑な輪郭をもつ領域の判別精度の低下を抑制することが可能な画像処理装置とその作動方法および作動プログラム、運用装置とその作動方法および作動プログラム、並びに機械学習システムを提供することを目的とする。
上記目的を達成するために、本開示の画像処理装置は、画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに対して、学習データとして与えるアノテーション画像において、クラスのラベルが指定された複数の指定領域の中から、指定領域のうちの少なくとも一部の領域であって、比較的複雑な輪郭をもつ領域である複雑領域を抽出する抽出部と、アノテーション画像に元々指定されていた元ラベルとは別に、複雑領域に対して追加ラベルを設定する設定部と、を備える。
設定部は、元ラベルが同じクラスを示す複数の指定領域からそれぞれ抽出された複数の複雑領域に対して、同じ追加ラベルを設定することが好ましい。
抽出部は、複数の指定領域の各々に対して、複雑領域を抽出する処理を行うことが好ましい。
抽出部において、第1の指定領域と第2の指定領域の境界を複雑領域として抽出した場合、設定部は、境界の複雑領域に対して、第1の指定領域および第2の指定領域のうちのいずれかに関わる1つの追加ラベルを選択的に設定することが好ましい。
設定部は、複雑領域のうちの設定サイズ以下の小複雑領域に対しては、小複雑領域を包含する指定領域の元ラベルを設定することが好ましい。
本開示の画像処理装置の作動方法は、画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに対して、学習データとして与えるアノテーション画像において、クラスのラベルが指定された複数の指定領域の中から、指定領域のうちの少なくとも一部の領域であって、比較的複雑な輪郭をもつ領域である複雑領域を抽出する抽出ステップと、アノテーション画像に元々指定されていた元ラベルとは別に、複雑領域に対して追加ラベルを設定する設定ステップと、を備える。
本開示の画像処理装置の作動プログラムは、画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに対して、学習データとして与えるアノテーション画像において、クラスのラベルが指定された複数の指定領域の中から、指定領域のうちの少なくとも一部の領域であって、比較的複雑な輪郭をもつ領域である複雑領域を抽出する抽出部と、アノテーション画像に元々指定されていた元ラベルとは別に、複雑領域に対して追加ラベルを設定する設定部として、コンピュータを機能させる。
本開示の運用装置は、追加ラベルが設定されたアノテーション画像を、学習データとして与えられて学習された機械学習モデルに、入力画像を入力してセマンティックセグメンテーションを実施させ、出力画像を出力させる処理部と、元ラベルと追加ラベルとの関係を記憶したラベル情報に基づいて、出力画像の追加ラベルを元ラベルに置換する置換部と、を備える。
本開示の運用装置の作動方法は、追加ラベルが設定されたアノテーション画像を、学習データとして与えられて学習された機械学習モデルに、入力画像を入力してセマンティックセグメンテーションを実施させ、出力画像を出力させる処理ステップと、元ラベルと追加ラベルとの関係を記憶したラベル情報に基づいて、出力画像の追加ラベルを元ラベルに置換する置換ステップと、を備える。
本開示の運用装置の作動プログラムは、追加ラベルが設定されたアノテーション画像を、学習データとして与えられて学習された機械学習モデルに、入力画像を入力してセマンティックセグメンテーションを実施させ、出力画像を出力させる処理部と、元ラベルと追加ラベルとの関係を記憶したラベル情報に基づいて、出力画像の追加ラベルを元ラベルに置換する置換部として、コンピュータを機能させる。
本開示の機械学習システムは、画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに対して、学習データとして与えるアノテーション画像において、クラスのラベルが指定された複数の指定領域の中から、指定領域のうちの少なくとも一部の領域であって、比較的複雑な輪郭をもつ領域である複雑領域を抽出する抽出部と、アノテーション画像に元々指定されていた元ラベルとは別に、複雑領域に対して追加ラベルを設定する設定部と、追加ラベルが設定されたアノテーション画像を、学習データとして与えられて学習された機械学習モデルに、入力画像を入力してセマンティックセグメンテーションを実施させ、出力画像を出力させる処理部と、元ラベルと追加ラベルとの関係を記憶したラベル情報に基づいて、出力画像の追加ラベルを元ラベルに置換する置換部と、を備える。
本開示の技術によれば、セマンティックセグメンテーションを実施するための機械学習モデルにおける、比較的複雑な輪郭をもつ領域の判別精度の低下を抑制することが可能な画像処理装置とその作動方法および作動プログラム、運用装置とその作動方法および作動プログラム、並びに機械学習システムを提供することができる。
[第1実施形態]
図1において、機械学習システム2は、画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するためのモデルM(図2参照)を用いるシステムである。機械学習システム2は、画像処理装置10、学習装置11、および運用装置12を備える。画像処理装置10、学習装置11、および運用装置12は、例えばデスクトップ型のパーソナルコンピュータである。画像処理装置10、学習装置11、および運用装置12は、ネットワーク13を介して相互に通信可能に接続されている。ネットワーク13は、例えば、LAN(Local Area Network)、もしくはインターネット、公衆通信網等のWAN(Wide Area Network)である。
図1において、機械学習システム2は、画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するためのモデルM(図2参照)を用いるシステムである。機械学習システム2は、画像処理装置10、学習装置11、および運用装置12を備える。画像処理装置10、学習装置11、および運用装置12は、例えばデスクトップ型のパーソナルコンピュータである。画像処理装置10、学習装置11、および運用装置12は、ネットワーク13を介して相互に通信可能に接続されている。ネットワーク13は、例えば、LAN(Local Area Network)、もしくはインターネット、公衆通信網等のWAN(Wide Area Network)である。
図2において、画像処理装置10はアノテーション画像AIを受信する。アノテーション画像AIは、学習用入力画像IIL内のクラスのラベルが指定された画像である。画像処理装置10は、アノテーション画像AIを修正アノテーション画像MAIとする。修正アノテーション画像MAIは、アノテーション画像AIにおいてクラスのラベルが指定された指定領域R(図3参照)から抽出された複雑領域CR(図7等参照)に対して、元々指定されていた元ラベルとは別に、追加ラベルが設定された画像である(図10参照)。また、画像処理装置10は、元ラベルと追加ラベルとの関係を記憶したラベル情報LTを作成する。画像処理装置10は、修正アノテーション画像MAIを学習装置11に、ラベル情報LTを運用装置12に、それぞれ出力する。
学習装置11は、画像処理装置10からの修正アノテーション画像MAIを受信する。また、学習装置11は学習用入力画像IILを受信する。これら修正アノテーション画像MAIおよび学習用入力画像IILによって、モデルMのクラスの判別精度を高めるための学習データLDが構成される。
学習装置11はモデルMを有している。学習装置11は、学習データLDをモデルMに与えて学習させ、モデルMのクラスの判別精度を予め設定されたレベルまで引き上げる。学習装置11は、クラスの判別精度が予め設定されたレベルとされたモデルMを、学習済みモデルTMとして運用装置12に出力する。
運用装置12は、画像処理装置10からのラベル情報LTを受信する。また、運用装置12は、学習装置11からの学習済みモデルTMを受信する。運用装置12は、映った物体のクラスおよびその輪郭が未だ判別されていない入力画像IIを学習済みモデルTMに与える。学習済みモデルTMは、入力画像IIに映る物体のクラスとその輪郭を判別し、その判別結果として出力画像OIを出力する。運用装置12は、ラベル情報LTに基づいて、出力画像OIの追加ラベルを元ラベルに置換し、置換済み出力画像ROIとする。
図3Aに示すように、学習用入力画像IILは、本例においては、培養中の細胞を映した位相差顕微鏡の画像である。学習用入力画像IILには、分化細胞、未分化細胞、死細胞、培地が物体として映っている。この場合のアノテーション画像AIは、図3Bに示すように、ラベル1の「分化細胞」、ラベル2の「未分化細胞」、ラベル3の「死細胞」、ラベル4の「培地」が、各々手動で指定されたものとなる。ラベル4の「培地」は、他のラベル1~ラベル3を指定することで自ずと指定される領域である。以下、ラベル1の「分化細胞」が指定された領域を指定領域R1、ラベル2の「未分化細胞」が指定された領域を指定領域R2、ラベル3の「死細胞」が指定された領域を指定領域R3、ラベル4の「培地」が指定された領域を指定領域R4と表記する。また、特に区別する必要がない場合は、前述のように、指定領域R1~R4をまとめて指定領域Rと表記する。なお、学習済みモデルTMに与えられる入力画像IIも、学習用入力画像IILと同じく、培養中の細胞を映した位相差顕微鏡の画像である。
図4において、画像処理装置10、学習装置11、および運用装置12を構成するコンピュータは、基本的な構成は同じであり、ストレージデバイス30、メモリ31、CPU(Central Processing Unit)32、通信部33、ディスプレイ34、および入力デバイス35を備えている。これらはバスライン36を介して相互接続されている。
ストレージデバイス30は、画像処理装置10等を構成するコンピュータに内蔵、またはケーブル、ネットワークを通じて接続されたハードディスクドライブである。もしくはストレージデバイス30は、ハードディスクドライブを複数台連装したディスクアレイである。ストレージデバイス30には、オペレーティングシステム等の制御プログラム、各種アプリケーションプログラム、およびこれらのプログラムに付随する各種データ等が記憶されている。なお、ハードディスクドライブに代えてソリッドステートドライブを用いてもよい。
メモリ31は、CPU32が処理を実行するためのワークメモリである。CPU32は、ストレージデバイス30に記憶されたプログラムをメモリ31へロードして、プログラムにしたがった処理を実行することにより、コンピュータの各部を統括的に制御する。
通信部33は、ネットワーク13を介した各種情報の伝送制御を行うネットワークインターフェースである。ディスプレイ34は各種画面を表示する。画像処理装置10等を構成するコンピュータは、各種画面を通じて、入力デバイス35からの操作指示の入力を受け付ける。入力デバイス35は、キーボード、マウス、タッチパネル等である。
なお、以下の説明では、画像処理装置10の各部に添え字の「A」を、学習装置11の各部に添え字の「B」を、運用装置12の各部に添え字の「C」を、それぞれ付して区別する。
図5において、画像処理装置10のストレージデバイス30Aには、作動プログラム40が記憶されている。作動プログラム40は、コンピュータを画像処理装置10として機能させるためのアプリケーションプログラムである。すなわち、作動プログラム40は、本開示の技術に係る「画像処理装置の作動プログラム」の一例である。
ストレージデバイス30Aには、アノテーション画像AIも記憶されている。アノテーション画像AIは、画像処理装置10において事前に作成されて記憶されたものでもよいし、画像処理装置10とは別の装置において作成され、別の装置から送信されたものを記憶したものでもよい。
作動プログラム40が起動されると、画像処理装置10を構成するコンピュータのCPU32Aは、メモリ31等と協働して、リードライト(以下、RW(Read Write)と略す)制御部45、抽出部46、設定部47、および送信制御部48として機能する。
RW制御部45は、ストレージデバイス30A内の各種データの読み出し、およびストレージデバイス30Aへの各種データの記憶を制御する。RW制御部45は、ストレージデバイス30Aからアノテーション画像AIを読み出し、アノテーション画像AIを抽出部46に出力する。
抽出部46は、複数の指定領域Rの中から、指定領域Rのうちの少なくとも一部の領域であって、比較的複雑な輪郭をもつ領域である複雑領域CRを抽出する。抽出部46は、複雑領域CRを抽出したアノテーション画像AIである抽出アノテーション画像EAIを設定部47に出力する。
ここで、複雑領域CRは、予め設定された条件にて、複雑であると定義された領域である。予め設定された条件は、1つは、指定領域Rの絶対的なサイズを閾値とした条件である。具体的には、面積が原寸大で例えば5μm2以下、ジグザグの隣り合う山同士のピッチが原寸大で例えば1μm以下、等である。あるいは、予め設定された条件は、アノテーション画像AIに映る複数の指定領域Rのサイズを参照した相対的な閾値が設定された条件である。具体的には、アノテーション画像AI中の各指定領域Rの面積の代表値(平均値、中間値、最大値、最小値等)の例えば1/10以下、アノテーション画像AI中の各指定領域Rのジグザグの隣り合う山同士のピッチの代表値(平均値、中間値、最大値、最小値等)の例えば1/10以下、等である。なお、閾値をユーザが変更可能に構成してもよい。
なお、複雑領域CRの抽出方法としては、例えば、アノテーション画像AIに移動平均フィルタ(平滑化フィルタともいう)を掛け、移動平均フィルタを掛ける前と掛けた後との輪郭の差分が閾値よりも大きい部分を複雑領域CRとして抽出する方法がある。他には、アノテーション画像AIにディスタンストランスフォームを施して、輪郭からの距離が閾値よりも短い部分を複雑領域CRとして抽出する方法、複雑領域CRを抽出するために学習されたモデルを用いる方法等が挙げられる。いずれの場合も、閾値は、前述のように、指定領域Rの絶対的なサイズを元にした値であってもよいし、アノテーション画像AIに映る複数の指定領域Rのサイズを参照した相対的な値であってもよい。
設定部47は、抽出部46からの抽出アノテーション画像EAIの複雑領域CRに対して追加ラベルを設定する。設定部47は、追加ラベルを設定した抽出アノテーション画像EAIを、修正アノテーション画像MAIとしてRW制御部45に出力する。また、設定部47は、ラベル情報LTを作成してRW制御部45に出力する。
RW制御部45は、設定部47からの修正アノテーション画像MAIおよびラベル情報LTを、ストレージデバイス30Aに記憶する。また、RW制御部45は、修正アノテーション画像MAIおよびラベル情報LTをストレージデバイス30Aから読み出し、これらを送信制御部48に出力する。
送信制御部48は、修正アノテーション画像MAIを学習装置11に送信する制御を行う。また、送信制御部48は、ラベル情報LTを運用装置12に送信する制御を行う。
図6に示すように、ラベル情報LTは、追加ラベルとこれに対応する元ラベルが登録された情報である。追加ラベルは、元ラベルのラベル1の「分化細胞」に対応するラベル1_1の「分化細胞(複雑)」、ラベル2の「未分化細胞」に対応するラベル2_1の「未分化細胞(複雑)」、ラベル3の「死細胞」に対応するラベル3_1の「死細胞(複雑)」の計3種がある。
図7、および図7の破線部分を拡大した図8に示すように、抽出部46は、ラベル1の「分化細胞」の指定領域R1A、R1Bから、複雑領域CR1A、CR1Bを、ラベル2の「未分化細胞」の指定領域R2から複雑領域CR2を、ラベル3の「死細胞」の指定領域R3A、R3Bから複雑領域CR3A、CR3Bを、それぞれ抽出する。抽出部46は、ラベル4の「培地」の指定領域R4からは、複雑領域CRを抽出しない。これは、分化細胞、未分化細胞、死細胞はいずれも培地で囲まれているので、「培地」の指定領域R4から複雑領域CRを抽出した場合、複雑領域CR1~CR3と重複してしまうためである。なお、指定領域Rと同じく、複雑領域CR1~CR3も、前述のようにまとめて複雑領域CRと表記する場合がある。
図9に概念的に示すように、抽出部46は、複数の指定領域Rの各々に対して、複雑領域CRを抽出する処理を行う。図9では、図9Aに示すように指定領域R1Aから複雑領域CR1Aを、図9Bに示すように指定領域R1Bから複雑領域CR1Bを、また、図9Cに示すように指定領域R2から複雑領域CR2を、図9Dに示すように指定領域R3Aから複雑領域CR3Aを、図9Eに示すように指定領域R3Bから複雑領域CR3Bを、それぞれ抽出した場合を例示している。複雑領域CR1A、CR1B、CR2は、指定領域R1A、R1B、R2のうちの一部の領域であり、ジグザグに入り組んだ輪郭の例である。複雑領域CR3A、CR3Bは、指定領域R3A、R3B自体であり、微細な点の輪郭の例である。なお、1つの指定領域Rから、複数の複雑領域CRが抽出される場合もある。
図10は、図6で示したラベル情報LTにしたがって、図7で示した抽出アノテーション画像EAIの複雑領域CRに対して、設定部47において追加ラベルを設定する様子を示す。具体的には、設定部47は、ラベル1の「分化細胞」の指定領域R1の複雑領域CR1に対して、ラベル1_1の「分化細胞(複雑)」を追加ラベルとして設定する。また、設定部47は、ラベル2の「未分化細胞」の指定領域R2の複雑領域CR2に対して、ラベル2_1の「未分化細胞(複雑)」を追加ラベルとして設定する。さらに、設定部47は、ラベル3の「死細胞」の指定領域R3の複雑領域CR3に対して、ラベル3_1の「死細胞(複雑)」を追加ラベルとして設定する。
ラベル1の「分化細胞」の指定領域R1の2つの複雑領域CR1A、CR1Bに対するラベル1_1の「分化細胞(複雑)」、ラベル3の「死細胞」の指定領域R3の2つの複雑領域CR3A、CR3Bに対するラベル3_1の「死細胞(複雑)」から分かるように、設定部47は、元ラベルが同じクラスを示す複数の指定領域Rからそれぞれ抽出された複数の複雑領域CRに対して、同じ追加ラベルを設定する。
また、図11に示すように、抽出部46において、第1の指定領域と第2の指定領域の境界を複雑領域CRとして抽出した場合、設定部47は、境界の複雑領域CRに対して、第1の指定領域および第2の指定領域のうちのいずれかに関わる1つの追加ラベルを選択的に設定する。
図11では、指定領域R1と指定領域R2が接しており、その境界が複雑領域CR1、CR2としてそれぞれ抽出された場合を例示している。この場合、設定部47は、複雑領域CR1、CR2のうちの複雑領域CR1に対してだけ、ラベル1_1の「分化細胞(複雑)」を追加ラベルとして設定し、複雑領域CR2に対しては追加ラベルを設定しない。
図12において、学習装置11のストレージデバイス30Bには、作動プログラム55が記憶されている。作動プログラム55は、コンピュータを学習装置11として機能させるためのアプリケーションプログラムである。
ストレージデバイス30Bには、学習用入力画像IILおよびモデルMも記憶されている。学習用入力画像IILは、前述のように、アノテーション画像AIの元となった画像である。モデルMは、例えばU-Netである。
作動プログラム55が起動されると、学習装置11を構成するコンピュータのCPU32Bは、メモリ31等と協働して、RW制御部60、学習部61、評価部62、更新部63、および送信制御部64として機能する。
RW制御部60は、画像処理装置10のRW制御部45と同様、ストレージデバイス30B内の各種データの読み出し、およびストレージデバイス30Bへの各種データの記憶を制御する。RW制御部60は、画像処理装置10からの修正アノテーション画像MAIをストレージデバイス30Bに記憶する。RW制御部60は、ストレージデバイス30Bから学習用入力画像IILを読み出し、学習用入力画像IILを学習部61に出力する。また、RW制御部60は、修正アノテーション画像MAIをストレージデバイス30Bから読み出し、修正アノテーション画像MAIを評価部62に出力する。さらに、RW制御部60は、モデルMをストレージデバイス30Bから読み出し、モデルMを学習部61、更新部63、および送信制御部64のいずれかに出力する。
学習部61は、学習用入力画像IILを学習データLDとしてモデルMに与えて学習させる。これによりモデルMから出力された学習用出力画像OILを、学習部61は評価部62に出力する。
学習部61は、例えばミニバッチデータを用いたミニバッチ学習をモデルMに行わせる。ミニバッチデータは、学習用入力画像IILと修正アノテーション画像MAIとを分割した複数の分割画像(例えば元の画像の1/100のサイズの枠で分割した1万枚の分割画像)のうちの一部(例えば100枚)で構成される。学習部61は、こうしたミニバッチデータを複数組(例えば100組)作成し、各組を順次モデルMに与えて学習させる。
評価部62は、修正アノテーション画像MAIと学習用出力画像OILとを比較し、モデルMのクラスの判別精度を評価する。つまり、修正アノテーション画像MAIは、学習用出力画像OILとのいわば答え合わせを行うための画像であり、モデルMのクラスの判別精度が高いほど、修正アノテーション画像MAIと学習用出力画像OILとの差異は小さくなる。評価部62は、評価結果を更新部63に出力する。
評価部62は、損失関数を用いて、モデルMのクラスの判別精度を評価する。損失関数は、修正アノテーション画像MAIと学習用出力画像OILとの差異の程度を表す関数である。損失関数の算出値が0に近いほど、モデルMのクラスの判別精度が高いことを示す。
更新部63は、評価部62からの評価結果に応じて、モデルMを更新する。具体的には、更新部63は、学習係数を伴う確率的勾配降下法等により、モデルMの各種パラメータの値を変化させる。学習係数は、モデルMの各種パラメータの値の変化幅を示す。すなわち、学習係数が比較的大きい値であるほど、各種パラメータの値の変化幅は大きくなり、モデルMの更新度合いも大きくなる。更新部63で更新されたモデルMは、RW制御部60によりストレージデバイス30Bに記憶される。
これら学習部61によるモデルMの学習、評価部62によるクラスの判別精度の評価、および更新部63によるモデルMの更新は、クラスの判別精度が予め設定されたレベルとなるまで、繰り返し続けられる。
送信制御部64は、クラスの判別精度が予め設定されたレベルとされたモデルMである学習済みモデルTMを、運用装置12に送信する制御を行う。
図13において、運用装置12のストレージデバイス30Cには、作動プログラム70が記憶されている。作動プログラム70は、コンピュータを運用装置12として機能させるためのアプリケーションプログラムである。すなわち、作動プログラム70は、本開示の技術に係る「運用装置の作動プログラム」の一例である。
ストレージデバイス30Cには入力画像IIも記憶されている。入力画像IIは、前述のように、これから学習済みモデルTMに与えて、映った物体のクラスおよびその輪郭を学習済みモデルTMに判別させる画像である。
作動プログラム70が起動されると、運用装置12を構成するコンピュータのCPU32Cは、メモリ31等と協働して、RW制御部75、処理部76、および置換部77として機能する。
RW制御部75は、画像処理装置10のRW制御部45および学習装置11のRW制御部60と同様、ストレージデバイス30C内の各種データの読み出し、およびストレージデバイス30Cへの各種データの記憶を制御する。RW制御部75は、画像処理装置10からのラベル情報LTをストレージデバイス30Cに記憶する。また、RW制御部75は、学習装置11からの学習済みモデルTMをストレージデバイス30Cに記憶する。RW制御部75は、ストレージデバイス30Cから入力画像IIおよび学習済みモデルTMを読み出し、これらを処理部76に出力する。また、RW制御部75は、ラベル情報LTをストレージデバイス30Cから読み出し、ラベル情報LTを置換部77に出力する。
処理部76は、学習済みモデルTMに入力画像IIを入力してセマンティックセグメンテーションを実施させ、出力画像OIを出力させる。処理部76は、出力画像OIを置換部77に出力する。置換部77は、ラベル情報LTに基づいて、出力画像OIの追加ラベルを元ラベルに置換する。置換部77で追加ラベルが元ラベルに置換された出力画像OIである置換済み出力画像ROIは、RW制御部75によりストレージデバイス30Cに記憶される。
ここで、学習済みモデルTMは、図12で示したように、修正アノテーション画像MAIを学習データLDとして与えられて学習されたモデルである。このため、学習済みモデルTMは、ラベル1の「分化細胞」、ラベル2の「未分化細胞」といった元ラベルのクラスだけでなく、ラベル1_1の「分化細胞(複雑)」、ラベル2_1の「未分化細胞(複雑)」といった追加ラベルのクラスとその輪郭を判別するモデルとなる。したがって、出力画像OIは、図14に示すように、ラベル1の「分化細胞」の領域RR1、ラベル2の「未分化細胞」の領域RR2、ラベル3の「死細胞」の領域RR3、ラベル4の「培地」の領域RR4に加えて、ラベル1_1の「分化細胞(複雑)」の領域RR1_1、ラベル2_1の「未分化細胞(複雑)」の領域RR2_1、ラベル3_1の「死細胞(複雑)」の領域RR3_1が判別された画像となる。なお、出力画像OIの二点鎖線の枠は、「死細胞(複雑)」の領域RR3_1と判別された、「死細胞」の領域RR3の微細な点の集合を示している。
図15は、図6で示したラベル情報LTに基づいて、図14で示した出力画像OIの追加ラベルを、置換部77において元ラベルに置換する様子を示す。具体的には、置換部77は、領域RR1_1(領域RR1_1Aおよび領域RR1_1B)のラベル1_1「分化細胞(複雑)」をラベル1「分化細胞」に、領域RR2_1(領域RR2_1Aおよび領域RR2_1B)のラベル2_1「未分化細胞(複雑)」をラベル2「未分化細胞」に、それぞれ置換する。また、置換部77は、領域RR3_1のラベル3_1「死細胞(複雑)」をラベル3「死細胞」に置換する。こうした置換を行うことで、置換済み出力画像ROIにおいては、領域RR1_1は領域RR1に、領域RR2_1は領域RR2に、領域RR3_1は領域RR3に、それぞれ包含される。なお、置換済み出力画像ROIの二点鎖線の枠は、領域RR3_1からラベルが置換された領域RR3の集合を示している。
次に、上記構成による作用について、図16~図18のフローチャートを参照して説明する。まず、画像処理装置10において作動プログラム40が起動されると、図5で示したように、画像処理装置10のCPU32Aは、RW制御部45、抽出部46、設定部47、および送信制御部48として機能される。
図16において、画像処理装置10では、図7で示したように、抽出部46により、アノテーション画像AIの指定領域Rから複雑領域CRが抽出される(ステップST100)。複雑領域CRが抽出された抽出アノテーション画像EAIは、設定部47に出力される。なお、ステップST100は、本開示の技術に係る「抽出ステップ」の一例である。
図10で示したように、設定部47により、複雑領域CRに対して追加ラベルが設定される(ステップST110)。追加ラベルが設定された修正アノテーション画像MAIは、図6で示したラベル情報LTとともに、RW制御部45によってストレージデバイス30Aに記憶される。そして、修正アノテーション画像MAIは、送信制御部48により学習装置11に送信される。また、ラベル情報LTは、送信制御部48により運用装置12に送信される。なお、ステップST110は、本開示の技術に係る「設定ステップ」の一例である。
学習装置11において作動プログラム55が起動されると、図12で示したように、学習装置11のCPU32Bは、RW制御部60、学習部61、評価部62、更新部63、および送信制御部64として機能される。
図17において、学習装置11では、学習部61により、学習用入力画像IILがモデルMに与えられ、これにより学習用出力画像OILがモデルMから出力される(ステップST200)。学習用出力画像OILは、評価部62に出力される。
評価部62により、修正アノテーション画像MAIと学習用出力画像OILとが比較され、この比較結果に基づいて、モデルMのクラスの判別精度が評価される(ステップST210)。評価結果は更新部63に出力される。
評価結果が、モデルMの判別精度が予め設定されたレベル未満であるという内容であった場合(ステップST220でNO)、更新部63によりモデルMが更新される(ステップST230)。そして、更新後のモデルMを用いて、ステップST200、ステップST210が繰り返される。対して、評価結果が、モデルMの判別精度が予め設定されたレベルであるという内容であった場合(ステップST220でYES)、処理が終了される。この判別精度が予め設定されたレベルとされたモデルMは、学習済みモデルTMとして送信制御部64により運用装置12に送信される。
運用装置12において作動プログラム70が起動されると、図13で示したように、運用装置12のCPU32Cは、RW制御部75、処理部76、および置換部77として機能される。
図18において、運用装置12では、図14で示したように、処理部76により、学習済みモデルTMに入力画像IIが入力されてセマンティックセグメンテーションが実施され、出力画像OIが出力される(ステップST300)。出力画像OIは、置換部77に出力される。なお、ステップST300は、本開示の技術に係る「処理ステップ」の一例である。
図15で示したように、置換部77により、ラベル情報LTに基づいて、出力画像OIの追加ラベルが元ラベルに置換される(ステップST310)。追加ラベルが元ラベルに置換された置換済み出力画像ROIは、例えば、入力画像IIと並べて運用装置12のディスプレイ34に表示され、ユーザの閲覧に供される。なお、ステップST310は、本開示の技術に係る「置換ステップ」の一例である。
以上説明したように、画像処理装置10では、図7で示したように、抽出部46により、アノテーション画像AIの指定領域Rから複雑領域CRが抽出される。そして、図10で示したように、設定部47により、アノテーション画像AIに元々指定されていた元ラベルとは別に、複雑領域CRに対して追加ラベルが設定される。こうして追加ラベルが設定された修正アノテーション画像MAIが、学習装置11においてモデルMに学習データLDとして与えられて、モデルMが学習される。したがって、複雑領域CRの判別精度の低下を抑制することが可能となる。
図10で示したように、設定部47により、元ラベルが同じクラスを示す複数の指定領域Rからそれぞれ抽出された複数の複雑領域CRに対して、同じ追加ラベルが設定される。すなわち、元ラベルが同じ指定領域Rの複雑領域CRに対しては、同じ追加ラベルが設定される。したがって、追加ラベルが無暗に乱立することを防ぐことができる。モデルMのクラスの判別精度は、判別対象のクラスが少ない程容易に高められるので、追加ラベルの乱立を防ぐことができれば、結果としてモデルMのクラスの判別精度を高めることができる。
図9で示したように、抽出部46により、複数の指定領域Rの各々に対して、複雑領域CRを抽出する処理が行われる。したがって、指定領域Rのサイズの大小に左右されることなく、指定領域Rの各々から複雑領域CRを抽出することが可能となる。
また、図11で示したように、抽出部46において、第1の指定領域と第2の指定領域の境界が複雑領域CRとして抽出された場合、設定部47により、境界の複雑領域CRに対して、第1の指定領域および第2の指定領域のうちのいずれかに関わる1つの追加ラベルが選択的に設定される。したがって、略同じ位置にあって略同じ形状の複雑領域CRに対して、2つの追加ラベルが設定されてしまうことを避けることができる。このため追加ラベルの設定数が減り、モデルMに余計な学習をさせて学習の効率が下がることを防ぐことができる。
運用装置12では、図14で示したように、処理部76により、学習済みモデルTMに入力画像IIが入力されてセマンティックセグメンテーションが実施され、出力画像OIが出力される。そして、図15で示したように、置換部77により、ラベル情報LTに基づいて、出力画像OIの追加ラベルが元ラベルに置換される。
追加ラベルは、複雑領域CRの判別精度の低下を抑制するために、画像処理装置10において便宜的に設定したものであり、元ラベルのクラスだけを指定してアノテーション画像AIを作成したユーザにとっては不要な情報である。したがって、置換部77によって追加ラベルを元ラベルに置換して、出力画像OIを置換済み出力画像ROIとすることで、ユーザにとって本来必要な画像を提供することができる。
[第2実施形態]
図19に示す第2実施形態では、設定部47は、複雑領域CRのうちの設定サイズ以下の小複雑領域CRSに対しては、小複雑領域CRSを包含する指定領域Rの元ラベルを設定する。
図19に示す第2実施形態では、設定部47は、複雑領域CRのうちの設定サイズ以下の小複雑領域CRSに対しては、小複雑領域CRSを包含する指定領域Rの元ラベルを設定する。
図19では、ラベル3の「死細胞」の複雑領域CR3が小複雑領域CRS3であり、当該小複雑領域CRS3がラベル4の「培地」の指定領域R4で囲まれていた場合を例示している。この場合、設定部47は、小複雑領域CRS3に対して、小複雑領域CRS3を包含する指定領域R4の元ラベルであるラベル4の「培地」を設定する。こうすることで、修正アノテーション画像MAIにおいては、小複雑領域CRS3は指定領域R4に包含されて消滅する。
このように、第2実施形態では、設定部47により、複雑領域CRのうちの設定サイズ以下の小複雑領域CRSに対して、小複雑領域CRSを包含する指定領域Rの元ラベルが設定される。つまり、小複雑領域CRSはゴミ等のノイズと見なして追加ラベルを設定しない。このため追加ラベルの設定数が減り、モデルMに余計な学習をさせて学習の効率が下がることを防ぐことができる。
アノテーション作業では、ゴミ等のノイズを誤って指定領域Rとして指定してしまうことがある。第2実施形態では、このように誤って指定してしまった指定領域Rに、追加ラベルが設定されてしまうことを防ぐこともできる。なお、設定サイズは、例えばユーザが設定する。
[第3実施形態]
図20に示す第3実施形態では、画像処理装置10、学習装置11、および運用装置12の機能を1台のコンピュータに統合する。
図20に示す第3実施形態では、画像処理装置10、学習装置11、および運用装置12の機能を1台のコンピュータに統合する。
図20において、機械学習システム100は、画像処理装置10、学習装置11、および運用装置12と同じく、例えばデスクトップ型のパーソナルコンピュータである。機械学習システム100のストレージデバイス101には、作動プログラム102が記憶されている。作動プログラム102は、上記第1実施形態の作動プログラム40、作動プログラム55、および作動プログラム70を統合した作動プログラムである。すなわち、作動プログラム102は、本開示の技術に係る「画像処理装置の作動プログラム」および「運用装置の作動プログラム」の一例である。なお、図示は省略したが、ストレージデバイス101には、アノテーション画像AI、修正アノテーション画像MAI、ラベル情報LT、学習用入力画像IIL、モデルM、学習済みモデルTM、置換済み出力画像ROI等も記憶される。
作動プログラム102が起動されると、機械学習システム100を構成するコンピュータのCPU103は、メモリ(図示せず)等と協働して、抽出部46、設定部47、学習部61、評価部62、更新部63、処理部76、および置換部77として機能する。つまり、機械学習システム100は、上記第1実施形態の画像処理装置10、学習装置11、および運用装置12の機能を統合した装置である。なお、各部の処理は、上記第1実施形態と同じであるため、説明を省略する。
このように、機械学習システムのコンピュータのハードウェア構成は、処理能力、安全性、信頼性等の要求される性能に応じて適宜変更することができる。さらに、ハードウェアに限らず、作動プログラム40、55、70、102等のアプリケーションプログラムについても、安全性および信頼性の確保を目的として、二重化したり、あるいは、複数のストレージデバイスに分散して格納することももちろん可能である。
上記各実施形態では、入力画像IIおよび学習用入力画像IILとして、培養中の細胞を映した位相差顕微鏡の画像を例示し、クラスとして細胞、培地等を例示したが、これに限定されない。例えばMRI(Magnetic Resonance Imaging)画像を入力画像IIおよび学習用入力画像IILとし、肝臓、腎臓といった臓器をクラスとしてもよい。
モデルMはU-Netに限らず、他の畳み込みニューラルネットワーク、例えばSegNetでもよい。
上記各実施形態において、例えば、RW制御部45、60、75、抽出部46、設定部47、送信制御部48、64、学習部61、評価部62、更新部63、処理部76、置換部77といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。各種のプロセッサには、上述したように、ソフトウェア(作動プログラム40、55、70、102)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU32A、32B、32C、103に加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、および/または、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
以上の記載から、以下の付記項1~3に記載の発明を把握することができる。
[付記項1]
画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに対して、学習データとして与えるアノテーション画像において、前記クラスのラベルが指定された複数の指定領域の中から、前記指定領域のうちの少なくとも一部の領域であって、比較的複雑な輪郭をもつ領域である複雑領域を抽出する抽出プロセッサと、
前記アノテーション画像に元々指定されていた元ラベルとは別に、前記複雑領域に対して追加ラベルを設定する設定プロセッサと、
を備える画像処理装置。
画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに対して、学習データとして与えるアノテーション画像において、前記クラスのラベルが指定された複数の指定領域の中から、前記指定領域のうちの少なくとも一部の領域であって、比較的複雑な輪郭をもつ領域である複雑領域を抽出する抽出プロセッサと、
前記アノテーション画像に元々指定されていた元ラベルとは別に、前記複雑領域に対して追加ラベルを設定する設定プロセッサと、
を備える画像処理装置。
[付記項2]
付記項1に記載の画像処理装置において前記追加ラベルが設定された前記アノテーション画像を、前記学習データとして与えられて学習された前記機械学習モデルに、入力画像を入力して前記セマンティックセグメンテーションを実施させ、出力画像を出力させる処理プロセッサと、
前記元ラベルと前記追加ラベルとの関係を記憶したラベル情報に基づいて、前記出力画像の前記追加ラベルを前記元ラベルに置換する置換プロセッサと、
を備える運用装置。
付記項1に記載の画像処理装置において前記追加ラベルが設定された前記アノテーション画像を、前記学習データとして与えられて学習された前記機械学習モデルに、入力画像を入力して前記セマンティックセグメンテーションを実施させ、出力画像を出力させる処理プロセッサと、
前記元ラベルと前記追加ラベルとの関係を記憶したラベル情報に基づいて、前記出力画像の前記追加ラベルを前記元ラベルに置換する置換プロセッサと、
を備える運用装置。
[付記項3]
画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに対して、学習データとして与えるアノテーション画像において、前記クラスのラベルが指定された複数の指定領域の中から、前記指定領域のうちの少なくとも一部の領域であって、比較的複雑な輪郭をもつ領域である複雑領域を抽出する抽出プロセッサと、
前記アノテーション画像に元々指定されていた元ラベルとは別に、前記複雑領域に対して追加ラベルを設定する設定プロセッサと、
前記追加ラベルが設定された前記アノテーション画像を、前記学習データとして与えられて学習された前記機械学習モデルに、入力画像を入力して前記セマンティックセグメンテーションを実施させ、出力画像を出力させる処理プロセッサと、
前記元ラベルと前記追加ラベルとの関係を記憶したラベル情報に基づいて、前記出力画像の前記追加ラベルを前記元ラベルに置換する置換プロセッサと、
を備える機械学習システム。
画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに対して、学習データとして与えるアノテーション画像において、前記クラスのラベルが指定された複数の指定領域の中から、前記指定領域のうちの少なくとも一部の領域であって、比較的複雑な輪郭をもつ領域である複雑領域を抽出する抽出プロセッサと、
前記アノテーション画像に元々指定されていた元ラベルとは別に、前記複雑領域に対して追加ラベルを設定する設定プロセッサと、
前記追加ラベルが設定された前記アノテーション画像を、前記学習データとして与えられて学習された前記機械学習モデルに、入力画像を入力して前記セマンティックセグメンテーションを実施させ、出力画像を出力させる処理プロセッサと、
前記元ラベルと前記追加ラベルとの関係を記憶したラベル情報に基づいて、前記出力画像の前記追加ラベルを前記元ラベルに置換する置換プロセッサと、
を備える機械学習システム。
本開示の技術は、上述の種々の実施形態と種々の変形例を適宜組み合わせることも可能である。また、上記各実施形態に限らず、要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。さらに、本開示の技術は、プログラムに加えて、プログラムを非一時的に記憶する記憶媒体にもおよぶ。
以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことはいうまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
本明細書において、「Aおよび/またはB」は、「AおよびBのうちの少なくとも1つ」と同義である。つまり、「Aおよび/またはB」は、Aだけであってもよいし、Bだけであってもよいし、AおよびBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「および/または」で結び付けて表現する場合も、「Aおよび/またはB」と同様の考え方が適用される。
本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
Claims (11)
- 画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに対して、学習データとして与えるアノテーション画像において、前記クラスのラベルが指定された複数の指定領域の中から、前記指定領域のうちの少なくとも一部の領域であって、比較的複雑な輪郭をもつ領域である複雑領域を抽出する抽出部と、
前記アノテーション画像に元々指定されていた元ラベルとは別に、前記複雑領域に対して追加ラベルを設定する設定部と、
を備える画像処理装置。 - 前記設定部は、前記元ラベルが同じクラスを示す複数の前記指定領域からそれぞれ抽出された複数の前記複雑領域に対して、同じ前記追加ラベルを設定する請求項1に記載の画像処理装置。
- 前記抽出部は、複数の前記指定領域の各々に対して、前記複雑領域を抽出する処理を行う請求項1または請求項2に記載の画像処理装置。
- 前記抽出部において、第1の指定領域と第2の指定領域の境界を前記複雑領域として抽出した場合、前記設定部は、前記境界の前記複雑領域に対して、前記第1の指定領域および前記第2の指定領域のうちのいずれかに関わる1つの追加ラベルを選択的に設定する請求項1から請求項3のいずれか1項に記載の画像処理装置。
- 前記設定部は、前記複雑領域のうちの設定サイズ以下の小複雑領域に対しては、前記小複雑領域を包含する前記指定領域の前記元ラベルを設定する請求項1から請求項4のいずれか1項に記載の画像処理装置。
- 画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに対して、学習データとして与えるアノテーション画像において、前記クラスのラベルが指定された複数の指定領域の中から、前記指定領域のうちの少なくとも一部の領域であって、比較的複雑な輪郭をもつ領域である複雑領域を抽出する抽出ステップと、
前記アノテーション画像に元々指定されていた元ラベルとは別に、前記複雑領域に対して追加ラベルを設定する設定ステップと、
を備える画像処理装置の作動方法。 - 画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに対して、学習データとして与えるアノテーション画像において、前記クラスのラベルが指定された複数の指定領域の中から、前記指定領域のうちの少なくとも一部の領域であって、比較的複雑な輪郭をもつ領域である複雑領域を抽出する抽出部と、
前記アノテーション画像に元々指定されていた元ラベルとは別に、前記複雑領域に対して追加ラベルを設定する設定部として、
コンピュータを機能させる画像処理装置の作動プログラム。 - 請求項1から請求項5のいずれか1項に記載の画像処理装置において前記追加ラベルが設定された前記アノテーション画像を、前記学習データとして与えられて学習された前記機械学習モデルに、入力画像を入力して前記セマンティックセグメンテーションを実施させ、出力画像を出力させる処理部と、
前記元ラベルと前記追加ラベルとの関係を記憶したラベル情報に基づいて、前記出力画像の前記追加ラベルを前記元ラベルに置換する置換部と、
を備える運用装置。 - 請求項6に記載の画像処理装置の作動方法において前記追加ラベルが設定された前記アノテーション画像を、前記学習データとして与えられて学習された前記機械学習モデルに、入力画像を入力して前記セマンティックセグメンテーションを実施させ、出力画像を出力させる処理ステップと、
前記元ラベルと前記追加ラベルとの関係を記憶したラベル情報に基づいて、前記出力画像の前記追加ラベルを前記元ラベルに置換する置換ステップと、
を備える運用装置の作動方法。 - 請求項7に記載の画像処理装置の作動プログラムにおいて前記追加ラベルが設定された前記アノテーション画像を、前記学習データとして与えられて学習された前記機械学習モデルに、入力画像を入力して前記セマンティックセグメンテーションを実施させ、出力画像を出力させる処理部と、
前記元ラベルと前記追加ラベルとの関係を記憶したラベル情報に基づいて、前記出力画像の前記追加ラベルを前記元ラベルに置換する置換部として、
コンピュータを機能させる運用装置の作動プログラム。 - 画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに対して、学習データとして与えるアノテーション画像において、前記クラスのラベルが指定された複数の指定領域の中から、前記指定領域のうちの少なくとも一部の領域であって、比較的複雑な輪郭をもつ領域である複雑領域を抽出する抽出部と、
前記アノテーション画像に元々指定されていた元ラベルとは別に、前記複雑領域に対して追加ラベルを設定する設定部と、
前記追加ラベルが設定された前記アノテーション画像を、前記学習データとして与えられて学習された前記機械学習モデルに、入力画像を入力して前記セマンティックセグメンテーションを実施させ、出力画像を出力させる処理部と、
前記元ラベルと前記追加ラベルとの関係を記憶したラベル情報に基づいて、前記出力画像の前記追加ラベルを前記元ラベルに置換する置換部と、
を備える機械学習システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019070660 | 2019-04-02 | ||
JP2019070660 | 2019-04-02 | ||
PCT/JP2020/014954 WO2020204051A1 (ja) | 2019-04-02 | 2020-03-31 | 画像処理装置とその作動方法および作動プログラム、運用装置とその作動方法および作動プログラム、並びに機械学習システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020204051A1 JPWO2020204051A1 (ja) | 2020-10-08 |
JP7138780B2 true JP7138780B2 (ja) | 2022-09-16 |
Family
ID=72668955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021512160A Active JP7138780B2 (ja) | 2019-04-02 | 2020-03-31 | 画像処理装置とその作動方法および作動プログラム、運用装置とその作動方法および作動プログラム、並びに機械学習システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US12062184B2 (ja) |
JP (1) | JP7138780B2 (ja) |
WO (1) | WO2020204051A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11416775B2 (en) * | 2020-04-17 | 2022-08-16 | International Business Machines Corporation | Training robust machine learning models |
US20240104880A1 (en) * | 2021-12-27 | 2024-03-28 | Rakuten Group, Inc. | Information processing apparatus and method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008217706A (ja) | 2007-03-07 | 2008-09-18 | Tokyo Institute Of Technology | ラベリング装置、ラベリング方法及びプログラム |
JP2018173814A (ja) | 2017-03-31 | 2018-11-08 | 富士通株式会社 | 画像処理装置、画像処理方法、画像処理プログラム、及び教師データ生成方法 |
JP2018195293A (ja) | 2017-05-18 | 2018-12-06 | 三菱電機株式会社 | 画像処理システム、画像においてマルチラベル意味エッジ検出を行う方法、および、非一時的コンピューター可読記憶媒体 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005311473A (ja) * | 2004-04-16 | 2005-11-04 | Sharp Corp | 撮像装置および信号処理方法ならびにそのプログラムと記録媒体 |
JP5617426B2 (ja) * | 2010-08-16 | 2014-11-05 | 大日本印刷株式会社 | ジャギー緩和処理装置及びジャギー緩和処理方法 |
US9830502B2 (en) | 2013-10-28 | 2017-11-28 | Dh Technologies Development Pte. Ltd. | Method and system for classifying and identifying individual cells in a microscopy image |
US10685446B2 (en) * | 2018-01-12 | 2020-06-16 | Intel Corporation | Method and system of recurrent semantic segmentation for image processing |
-
2020
- 2020-03-31 WO PCT/JP2020/014954 patent/WO2020204051A1/ja active Application Filing
- 2020-03-31 JP JP2021512160A patent/JP7138780B2/ja active Active
-
2021
- 2021-09-27 US US17/485,535 patent/US12062184B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008217706A (ja) | 2007-03-07 | 2008-09-18 | Tokyo Institute Of Technology | ラベリング装置、ラベリング方法及びプログラム |
JP2018173814A (ja) | 2017-03-31 | 2018-11-08 | 富士通株式会社 | 画像処理装置、画像処理方法、画像処理プログラム、及び教師データ生成方法 |
JP2018195293A (ja) | 2017-05-18 | 2018-12-06 | 三菱電機株式会社 | 画像処理システム、画像においてマルチラベル意味エッジ検出を行う方法、および、非一時的コンピューター可読記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
US12062184B2 (en) | 2024-08-13 |
WO2020204051A1 (ja) | 2020-10-08 |
JPWO2020204051A1 (ja) | 2020-10-08 |
US20220012895A1 (en) | 2022-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2846309B1 (en) | Method and apparatus for segmenting object in image | |
US9111375B2 (en) | Evaluation of three-dimensional scenes using two-dimensional representations | |
US20180130203A1 (en) | Automated skin lesion segmentation using deep side layers | |
JP7242882B2 (ja) | 情報処理装置、情報処理装置の作動方法、情報処理装置の作動プログラム | |
JP2021501377A (ja) | 畳み込みニューラルネットワークの高速計算 | |
CN110622175A (zh) | 神经网络分类 | |
JP7138780B2 (ja) | 画像処理装置とその作動方法および作動プログラム、運用装置とその作動方法および作動プログラム、並びに機械学習システム | |
US11688061B2 (en) | Interpretation of whole-slide images in digital pathology | |
WO2019240900A1 (en) | Attention loss based deep neural network training | |
US20200349674A1 (en) | Intelligent image enhancement | |
JP2018195231A (ja) | 学習モデル作成装置、該方法および該プログラム | |
US11841892B2 (en) | Generating test scenarios by detecting failure patterns and themes in customer experiences | |
JP7195233B2 (ja) | 機械学習モデルの運用装置とその作動方法および作動プログラム、並びに機械学習モデルの学習装置とその作動方法および作動プログラム | |
CN115699041A (zh) | 利用专家模型的可扩展迁移学习 | |
US11900249B2 (en) | Mini-batch learning apparatus, operation program of mini-batch learning apparatus, operation method of mini-batch learning apparatus, and image processing apparatus | |
JP6559353B2 (ja) | 自動核セグメンテーション | |
US12100101B2 (en) | Generating 2D mapping using 3D data | |
US11429871B2 (en) | Detection of data offloading through instrumentation analysis | |
CN113196335A (zh) | 小批量学习装置及其工作程序和工作方法 | |
CN113906418A (zh) | 一种利用随机样本的接受和拒绝来确定症状关系的方法 | |
CN114067183B (zh) | 神经网络模型训练方法、图像处理方法、装置和设备 | |
US12045153B1 (en) | Apparatus and method of hot-swapping a component of a component unit in a cluster | |
US20230177388A1 (en) | Visualization and editing of machine learning models | |
WO2024098742A1 (zh) | 一种图像处理方法、装置、电子设备和存储介质 | |
US20240177369A1 (en) | System and methods for color gamut normalization for pathology slides |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7138780 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |