JP2018032071A - 検証装置、検証方法及び検証プログラム - Google Patents

検証装置、検証方法及び検証プログラム Download PDF

Info

Publication number
JP2018032071A
JP2018032071A JP2016161871A JP2016161871A JP2018032071A JP 2018032071 A JP2018032071 A JP 2018032071A JP 2016161871 A JP2016161871 A JP 2016161871A JP 2016161871 A JP2016161871 A JP 2016161871A JP 2018032071 A JP2018032071 A JP 2018032071A
Authority
JP
Japan
Prior art keywords
verification
image data
data
unit
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016161871A
Other languages
English (en)
Inventor
綾塚 祐二
Yuji Ayatsuka
祐二 綾塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CRESCO Ltd
Original Assignee
CRESCO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CRESCO Ltd filed Critical CRESCO Ltd
Priority to JP2016161871A priority Critical patent/JP2018032071A/ja
Priority to EP17186882.1A priority patent/EP3287954A1/en
Priority to US15/681,455 priority patent/US10354172B2/en
Publication of JP2018032071A publication Critical patent/JP2018032071A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

【課題】容易に高精度に対象の事象を検証することができる検証装置を提供する。
【解決手段】検証対象の画像データを取得する取得部と、取得部が取得した画像データを、対象の事象に関し、異なる複数の学習データで学習させ、当該事象に該当する可能性を示す値を求める複数の分類器を有する分類部と、複数の分類器で求められた各値から、取得部が取得した画像の検証対象の状態を特定する特定部とを備える。
【選択図】図1

Description

本発明は、検証装置、検証方法及び検証プログラムであって、特に、機械学習を利用した検証装置、検証方法及び検証プログラムに関する。
従来から、画像を様々な検証に利用することがある。例えば、人体の特徴に関する画像を利用して、病変等を確認することがある。また、製品の画像を利用して、製品の製造時に混入した異物の有無や欠陥を確認することもある。さらに、製造された半導体基板の画像を利用して、基板に配置される半導体部品の欠陥を確認することもある。このような確認の際、見落としを避けるため、その補助として、ディープラーニングと呼ばれる機械学習技術を利用することもある。
機械学習を利用する方法として、学習データで学習させた分類器を利用する方法がある。例えば、機械学習を用いて、画像データから病気によって生じる心身の変化である「病変」を検証する場合、対象の病変がある「正例」の画像データと、対象の病変がない「負例」の画像データをそれぞれ複数用意してこれらを学習データとする。
この際、分類器の精度は、学習データに依存する。しかしながら、学習データは多ければ多いほど精度が高くなるのではない。例えば、データが多くなると、与えられたデータに過度に適用して他のデータでの精度が落ちる「過学習」とよばれる状態を引き起こすことがある。この過学習を避けて分類器の精度を向上させる場合、様々なチューニングが必要となる。
特開2015−176283号公報 特開2015−176169号公報 特開2014−135092号公報 特開2005−115525号公報
https://blogs.nvidia.com/blog/2016/05/10/deep-learning-chest-x-rays/(2016年7月22日年検索)
上述したように、分類器を利用する場合、チューニング等の様々な調整等が必要であり、容易に精度の高い結果を得ることは困難である。したがって、例えば、機械学習に精通していないユーザ等が、容易に機械学習を利用して精度の高い結果を得ることは困難である。
上記課題に鑑み、機械学習を利用して容易に精度の高い検証結果を得ることのできる検証装置を提供することを目的とする。
上記課題を解決するため、本発明に係る検証装置は、検証対象の画像データを取得する取得部と、取得部が取得した画像データを、対象の事象に関し、異なる複数の学習データで学習させ、当該事象に該当する可能性を示す値を求める複数の分類器を有する分類部と、複数の分類器で求められた各値から、取得部が取得した画像の検証対象の状態を特定する特定部を備えるものである。
本発明に係る検証装置、検証方法及び検証プログラムによれば、機械学習を利用して容易に精度の高い検証結果を得ることができる。
実施形態に係る検証装置の一例を説明するブロック図である。 実施形態に係る検証装置の他の例を説明するブロック図である。 実施形態に係る検証装置で取得する画像の一例を説明する図である。 実施形態に係る検証方法を説明するフローチャートである。 検証方法を説明する説明図ある。 検証方法を説明する他の説明図である。 実施形態に係る検証装置の回路構成を説明するブロック図である。
本発明に係る検証装置は、取得する検証対象の画像データを用いて、検証対象が該当する事象を検証するものである。以下に、図面を用いて本発明の実施形態に係る検証装置について説明する。以下の説明においては、同一の構成については同一の符号を用いて説明を省略する。なお、以下の説明においては、主に、病変の有無の可能性を検証するものとして説明する。
図1に示すように、実施形態に係る検証装置1は、検証対象の画像データを取得する取得部101と、取得部101が取得した画像データを、対象の事象に関し、異なる複数の学習データで学習させ、当該事象に該当する可能性を示す値を求める複数の分類器を有する分類部102と、複数の分類器で求められた各値から、取得部101が取得した画像の検証対象の状態を特定する特定部103とを備える。
《検証装置》
検証装置1は、図2に示すように、中央処理装置(CPU)10、記憶装置11、入力部12、出力部13、通信I/F14を備えるパーソナルコンピュータ等の情報処理装置である。記憶装置11は、検証プログラムPを備え、この検証プログラムPが実行されることで、CPU10が、取得部101、分類部102、特定部103、受付部104及び学習部105としての処理を実行する。
また、記憶装置11は、検証プログラムPとともに、学習データ112及び変更条件データ113を記憶することができる。
学習データ112は、対象の事象として規定される異常がない場合の画像データと、異常がある場合の画像データである。検証装置1の検証対象が病変の有無に関するとき、学習データ112は、対象の事象として規定される動物に生じる所定の病変がない場合の画像データ(負例データ)と、病変がある場合の画像データ(正例データ)である。
ここで、学習データ112では、正例の学習データとして、異なる複数のデータセットを規定する。例えば、複数の正例データを所定数毎のグループに分け、それぞれのグループを1つのデータセットとすることができる。具体的には、1000の正例データがあり、100のデータを1つのグループとするとき、10のグループに分けられる。このとき、ランダムに取り出した100のデータを1つのデータセット(グループ)とし、それを繰り返すことで複数のデータセット(グループ)を作ってもよい。
学習データ112では、例えば、対象の病変がある画像データ以外のすべての画像データを負例データとすることができる。また例えば、何れの病変もない画像データを負例のデータとすることができる。その他、対象の病変と間違えやすい他の病変があるデータを負例データとしてもよい。なお、負例の学習データも、異なる複数のデータセットを利用してもよい。
変更条件データ113は、検証対象に応じて、特定部103で利用する重み値の変更条件を規定するデータである。分類部102は、複数の分類器がそれぞれ分類結果の値を求めるが、各分類器で得られる値の重みが異なることがある。そのときに、重み付けをするのが重み値である。また、対象のデータの取得方法に応じて、重み付けの値を変更する方が好ましいことがある。例えば、取得部101が取得する画像データが眼底画像であるとき、その画像の取得方法、具体的には、どのような断面で画像を取得したかに応じて画像データに現れる病変が異なることがある。例えば、ある被験者の眼底画像を、図3(a)に示すように、A−Aで取得する場合と、B−Bで取得する場合とで得られる結果が異なる。例えば、A−Aで得られた画像は、図3(b)に示すようになり、B−Bで得られた画像は、図3(c)に示すようになる。このような場合、画像の取得方法により、判定結果が異なる場合もある。したがって、画像データの種別すなわち、画像データの取得方法に応じて、重み値を変更する条件に関するデータである。
取得部101は、検証対象の画像データを取得する。例えば、取得部101は、画像の撮像装置(図示せず)から画像データを取得してもよいし、他の情報処理装置から画像データを取得してもよい。また、ここでいう画像データとは、二次元画像のデータ及び三次元画像のデータに限定されず、二次元画像のデータや三次元画像のデータから求められた解析結果に関するデータであってもよい。
分類部102は、取得部101が取得した画像データを、対象の事象に関し、異なる複数の学習データで学習させ、当該事象に該当する可能性を示す値を求める複数の分類器を有する。各分類器が備える値は、一般的な分類器で確信度とされる対象の事象に該当する確率を表す値である。ここで、分類部102は、異常がない場合の画像データで学習された少なくとも1つの分類器と、異常がある場合の画像データで学習された複数の分類器とを有する。検証装置1の検証対象が病変の有無に関するとき、分類部102は、病変がない場合の学習データで学習された少なくとも1つの分類器と、病変がある場合の学習データで学習された複数の分類器とを有する。
分類部102で利用される分類器は、単純ベイズ分類器等の機械学習により規定されるものであり、予め与えられた学習データ(教師データ)を用いて、新たに与えられた対象のデータが該当する事象を分類するものである。
ここで、上述したように、学習データ112において、対象の病変に対して、複数の異なるデータセットが規定される。したがって、分類部102は、各データセットに対して、複数の分類部を備える。また、1種類の病変に限定されず、学習データ112として複数種類の病変についてデータを備えることで、複数種類の病変の有無について検証することができる。
特定部103は、複数の分類器で求められた各値から、取得部101が取得した画像の検証対象の状態を特定する。ここで、特定部103は、各分類器で求められた値を総合的に考慮する算出式(例えば、(式1)を用いて後述)を利用し、検証対象の状態として、検証対象における異常の有無の可能性を特定する。検証装置1の検証対象が病変の有無に関するとき、特定部103は、検証対象である動物の状態として、特定の病変の有無の可能性を特定する。
特定部103は、複数の分類器で求められた値に応じて、各値を重み付けする重み値を算出し、各値について当該重み値で重み付けされた値から、取得部101が取得した画像の検証対象の状態を特定する。
例えば、ある病変1が生じている場合の確信度を求めるため、(式1)に示すように、正例に病変1である場合の画像データを使用し、負例に正常である場合の画像データを使用した分類器で得られた値(確信度)a=C1,N(T)と、正例に病変1である場合の画像データを使用し、負例に病変1以外の場合の画像データを使用した分類器で得られた値(確信度)b=C1,other(T)とを重み値として用いる。なお、C1,2(T)は、正例に病変1である場合の画像データを使用し、負例に病変2である場合の画像データを使用した分類器で得られた値(確信度)
1,N(T)+((a+b)/2)・C1,2(T) ・・・(式1)
上述の(式1)の例では、「正例に病変1である場合の画像データを使用し、負例に病変2である場合の画像データを使用した分類器で得られた値の重み値」を、「正例に病変1である場合の画像データを使用し、負例に正常である場合の画像データを使用した分類器で得られた値」と、「正例に病変1である場合の画像データを使用し、負例に病変1以外の場合の画像データを使用した分類器で得られた値」を用いて算出する例である。
また、特定部103は、画像データの種別と、当該の重み付けに利用する重み値の変更条件とが関連付けられ、変更条件記憶部で記憶される変更条件データから、取得部101が取得した画像データの種別と関連付けられる重み値の変更条件を抽出し、抽出した変更条件を用いて重み値を変更し、変更された重み値を用いて、取得部101が取得した画像の検証対象が該当する事象を特定する。特定部103は、取得部101が取得した画像データに基づいて得られた特定結果に加え、受付部104に入力された対象データを用いて、検証対象が該当する事象を特定する。
受付部104は、取得部101が取得した画像データと共に、検証対象に対して他の方法で取得された対象データの入力を受け付ける。例えば、検証装置1が動物の病変を検証する場合、取得部101が取得した画像データとは異なる取得装置で得られた画像データや採血の結果得られたデータ、これまでの病変に関する経過データや治療経緯に関するデータ等である。具体的には、取得部101が取得する画像データが眼底画像に関するデータであるとき、受付部104は、他のCT画像のデータや、採血結果のデータの入力を受け付ける。
学習部105は、各分類器に対応する学習データを利用して、分類部102が有する複数の分類器に対し、機械学習によりそれぞれ学習させる。
なお、取得部101が取得する画像データの種類は、複数あってもよい。例えば、ある方向の断面(「第1断面」)を撮像した画像データと、別の方向の断面(第1断面とは異なる「第2断面」)を撮像した画像データとを取得してもよい。
仮に、第1断面と第2断面とがある場合、分類部102は、第1断面の画像データと第2断面の画像データとは、同一の分類器によって分類してもよいし、それぞれ別の学習データ112を用いて学習された異なる分類器によって分類してもよい。なお、第1断面と第2断面を利用するとき、学習データ112では、第1断面用に正例データについて異なる複数のデータセットを有し、負例データについても異なる複数のデータセットを有する。また、学習データ122では、第2断面用にも正例データについて異なる複数のデータセットを有し、負例データについても異なる複数のデータセットを有する。
なお、図2に示す例では、1台の検証装置1内に取得部101、分類部102、特定部103、受付部104及び学習部105と、検証プログラムP、学習データ112及び変更条件データ113を有しているがこれに限定されない。例えば、検証装置1が複数台の情報処理装置で構成されてもよい。また例えば、各データ112,113が検証装置1と接続される外部の記憶装置で記憶され、検証装置1はその外部の記憶装置からデータ112,113を読み出して利用してもよい。
《検証方法》
図4に示すフローチャートを用いて、検証装置1における処理を説明する。検証装置1では、学習部105により、予め記憶装置11で記憶される学習データ112により、分類部102の各分類器が学習される(S1)。ここで、各分類器は、学習データ112の中で、それぞれ異なるデータセットの学習データで学習される。
検証の際、取得部101は、検証対象の画像データを取得する(S2)。
その後、分類部102の各分類器が、ステップS2で取得した画像データについて、対象の事象に関し、当該事象に該当する可能性を示す値それぞれを求める(S3)。
続いて、特定部103は、ステップS3で求められた各値から、ステップS2で取得された画像の検証対象の状態を特定する際に用いる重み値を算出する(S4)。
また、特定部103は、ステップS3で求めた各値と、ステップS4で求めた重み値を用いて、検証対象の状態を特定する値を求め、検証対象の状態を特定する(S5)。
《具体例》
病変Dに関して、負例データとして他の全てのデータ、すなわち、病変Dの見られないデータから、サンプリングしたデータを使って学習させた分類器を「分類器I」とする。同様に、負例データとして正常と判別されるデータを用いたもの分類器を「分類器II」とする。また、負例データとして他の病変D’のデータを用いる分類器を「分類器III」とする。
病変Dに対し分類器I及び分類器IIを、それぞれ複数用意する。また、病変Dと紛らわしい病変D’,D’’等がある場合、分類器III分類器も用意する。
特定部103は、検証対象の状態の特定結果として、複数の候補を出力してもよい。このとき、特定部103は、特定結果として、分類部102で得られた値(確信度)とともに、候補を出力してもよい。さらに、特定部103は、特定結果として、閾値以上の値を求めた分類器の識別情報(例えば、分類器名)と、分類器で得られた値のリストを特定結果として出力してもよい。
なお、特定部103は、分類部102で得られた全ての値が閾値に達しない場合、検証対象の状態ができないとしてもよい。なお、分類部102は、最初のステップでは分類器I及び分類器IIで値を求め、その結果、紛らわしい他の病変がある場合、分類器IIIで値を求めるようにしてもよい。この場合、検証装置1は、病変Dと他の複数の病変D’,D’’等との分類を行う分類器IIIを用意してもよい。
図5(a)は、正常な場合(N)と病変がある場合(D1〜D7)の平面上での分布のイメージ図である。また、D1〜D7は、病変の種類の違いを表す。なお、図5(a)中のXは、取得部101が取得するデータXの位置を特定する。
ここで、ある分類器は、図5(b)に示すように、正常であるか、病変であるかを分類する。また、ある分類器I1は、図5(c)に示すように、D1であるか否かを分類する。さらに、別の分類器I2も、図5(d)に示すように、Dであるか否かを分類する。ここで、分類器I1と分類器I2とは、両方が病変D1であるか否かを判定するものであるが、これらは、それぞれ、学習データとして異なるデータセットを利用したものである。したがって、分類器I1と分類器I2との結果を合わせることで、検証装置1における検証の精度を向上させることができる。例えば、図5(c)に示すように、分類器I1を用いた場合に求めたデータXが病変D1である確信度c1と、分類器I2を用いた場合に求めたデータXが病変D1である確信度c2とは異なる。すなわち、同一の病変D1に対しても、複数の分類器I1,I2を用いることで、検証装置1における検証の精度を向上させることができる。
加えて、図6(a)に示す分類器II及び図6(b)に示す分類器IIIを利用し、図6(c)に示すように全ての分類器で得られた値を組み合わせて判断することで、さらに検証装置1における検証の精度を向上させることができる。具体的には、図6(a)に示す分類器IIは、正常であるかD1であるかのみを分類するものであり、それ以外のデータについては考慮しない分類器である。また、図6(b)に示す分類器IIIは、D1であるかD6のみを分類するものであり、それ以外のデータについては考慮しない分類器である。
たとえば、分類器I1で、D1である確信度c1が0.9であったとし、分類器IIIで、D1である確信度c4が0.9であると得られた場合、特定部103では、D1である可能性が0.9程度であると出力することができる。
一方、分類器I1で、D1である確信度c1が0.1であったとし、分類器IIIで、D1である確信度c4が0.9であると得られた場合、特定部103では、分類器IIIで得られた確信度c4の重みを低くして、D1である可能性が0.9程度であると出力することはない。
《判定例》
例えば、分類部102は、ある画像について、7の分類器を用いてそれぞれ以下のように確信度を求める。
・分類器ERM-2による確信度: 0.96
・分類器ERM-Nによる確信度: 0.95
・分類器abnormalによる確信度: 0.94
・分類器ERM-1による確信度: 0.93
・分類器wetAMD-3による確信度: 0.67
・分類器wetAMD-1による確信度: 0.54
また、特定部103は、これら複数の分類器で求められた確信度による総合結果として、画像が、「ERM」に関するものであると特定する。ここで、「ERM」と「wetAMD」は病変の種類である。また、分類器ERM-2、分類器ERM-N、分類器ERM-1は「ERM」について分類する分類器である。さらに、分類器wetAMD-3、分類器wetAMD-1は「wetAMD」について分類する分類器である。また、分類器abnormalは、病変の種類を問わず病変の有無について分類する分類器である。
上記の複数の分類器による確信度では、「ERM」に関する確信度が高い傾向にあるため、特定部103は、「ERM」と特定する。
このように、検証装置1は、複数の分類器で得られた確信度を、各確信度を用いて重み値で調整し、最終的に検証対象の状態を特定する。
上述の説明では、検証装置1が、病変の有無の可能性を検証する例で説明したが、これに限定されない。例えば、製品の画像を利用して、製品の製造時に混入した異物の有無や欠陥の検証に利用することができる。また、製造された半導体基板の画像を利用して、基板に配置される半導体部品の欠陥の検証に利用することができる。
上述したように、実施形態に係る検証装置1では、1つの事象に対し、異なる学習データで学習させた複数の分類器を用いる。また、検証装置1では、複数の分類器の結果を合わせて、最終的な結果を求める。これにより、対象の事象を見落とす確率を低減することができる。この際、多量の学習データを複数のデータセットとして利用するため、過学習による弊害を防止することができる。
さらに、検証装置1では、複数の事象の学習データで学習させた分類器を組み合わせることで、1種類の事象だけでなく、複数種類の事象を検証することができる。
また、検証処理を、検証装置1のCPUが検証プログラムP等を実行することにより、実現することとしているが、これは検証装置1に集積回路(IC(Integrated Circuit)チップ、大規模集積回路(LSI:Large Scale Integration)等に形成された論理回路(ハードウェア)や専用回路によって実現してもよい。また、これらの回路は、1または複数の集積回路により実現されてよく、上述した複数の機能部の機能を1つの集積回路により実現されることとしてもよい。LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSIなどと呼称されることもある。すなわち、図7に示すように、検証装置1は、取得回路101aと、分類回路102aと、特定回路103aと、受付回路104aと、学習回路105aとから構成されてよく、それぞれの機能は、上述した同様の名称を有する各部と同様である。
また、上記検証プログラムPは、CPUが読み取り可能な記録媒体に記録されていてよく、記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記検索プログラムは、当該検索プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記プロセッサに供給されてもよい。本発明は、上記映像表示プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
なお、検証プログラムPは、例えば、ActionScript、JavaScript(登録商標)、Python、Rubyなどのスクリプト言語、C言語、C++、C#、Objective-C、Java(登録商標)などのコンパイラ言語などを用いて実装できる。
1 検証装置
10 CPU
101 取得部
102 分類部
103 特定部
104 受付部
105 学習部
11 記憶装置
112 学習データ
113 変更条件データ
12 入力部
13 出力部
14 通信I/F

Claims (9)

  1. 検証対象の画像データを取得する取得部と、
    前記取得部が取得した画像データを、対象の事象に関し、異なる複数の学習データで学習させ、当該事象に該当する可能性を示す値を求める複数の分類器を有する分類部と、
    前記複数の分類器で求められた各値から、前記取得部が取得した画像の検証対象の状態を特定する特定部と、
    を備える検証装置。
  2. 前記学習データは、対象の事象として規定される異常がない場合の画像データと、異常がある場合の画像データであって、
    前記分類部は、前記異常がない場合の画像データで学習された少なくとも1つの分類器と、前記異常がある場合の画像データで学習された複数の分類器とを有し、
    前記特定部は、検証対象の状態として、検証対象における異常の有無の可能性を特定する
    請求項1に記載の検証装置。
  3. 前記学習データは、対象の事象として規定される動物に生じる所定の病変がない場合の画像データと、前記病変がある場合の画像データであって、
    前記分類部は、前記病変がない場合の学習データで学習された少なくとも1つの分類器と、前記病変がある場合の学習データで学習された複数の分類器とを有し、
    前記特定部は、検証対象である動物の状態として、前記特定の病変の有無の可能性を特定する
    請求項1に記載の検証装置。
  4. 前記特定部は、前記複数の分類器で求められた値に応じて、各値を重み付けする重み値を算出し、各値について当該重み値で重み付けされた値から、前記取得部が取得した画像の検証対象の状態を特定する請求項1乃至3のいずれか1項に記載の検証装置。
  5. 前記特定部は、画像データの種別と、当該画像データに対して求めた値の重み付けに利用する重み値の変更条件とが関連付けられ、変更条件記憶部で記憶される変更条件データから、前記取得部が取得した画像データの種別と関連付けられる重み値の変更条件を抽出し、抽出した変更条件を用いて重み値を変更し、変更された重み値を用いて、前記取得部が取得した画像の検証対象が該当する事象を特定する請求項1乃至4のいずれか1項に記載の検証装置。
  6. 前記取得部が取得した画像データと共に、前記検証対象に対して他の方法で取得された対象データの入力を受け付ける受付部をさらに備え、
    前記特定部は、前記取得部が取得した画像データに基づいて得られた特定結果に加え、前記受付部に入力された対象データを用いて、検証対象が該当する事象を特定する請求項1乃至5のいずれか1項に記載の検証装置。
  7. 各分類器に対応する学習データを利用して、複数の分類器に対してそれぞれ学習させる学習部をさらに備える請求項1乃至6のいずれか1項に記載の検証装置。
  8. 検証対象の画像データを取得する取得ステップと、
    前記取得ステップで取得した画像データを、対象の事象に関し、異なる複数の学習データで学習された複数の分類器によって、当該事象に該当する可能性を示す値それぞれを求める分類ステップと、
    前記分類ステップで求められた各値から、前記取得ステップで取得された画像の検証対象の状態を特定する特定ステップと、を有する検証方法。
  9. コンピュータを、
    検証対象の画像データを取得する取得機能と、
    前記取得機能が取得した画像データを、対象の事象に関し、異なる複数の学習データで学習させ、当該事象に該当する可能性を示す値を求める複数の分類器を有する分類機能と、
    前記複数の分類器で求められた各値から、前記取得部が取得した画像の検証対象の状態を特定する特定機能とを実現させる検証プログラム。
JP2016161871A 2016-08-22 2016-08-22 検証装置、検証方法及び検証プログラム Pending JP2018032071A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016161871A JP2018032071A (ja) 2016-08-22 2016-08-22 検証装置、検証方法及び検証プログラム
EP17186882.1A EP3287954A1 (en) 2016-08-22 2017-08-18 Verification device, verification method, and verification program
US15/681,455 US10354172B2 (en) 2016-08-22 2017-08-21 Verification device, verification method, and verification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016161871A JP2018032071A (ja) 2016-08-22 2016-08-22 検証装置、検証方法及び検証プログラム

Publications (1)

Publication Number Publication Date
JP2018032071A true JP2018032071A (ja) 2018-03-01

Family

ID=59772380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016161871A Pending JP2018032071A (ja) 2016-08-22 2016-08-22 検証装置、検証方法及び検証プログラム

Country Status (3)

Country Link
US (1) US10354172B2 (ja)
EP (1) EP3287954A1 (ja)
JP (1) JP2018032071A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102002732B1 (ko) * 2018-09-20 2019-07-23 건국대학교 산학협력단 앙상블 모델을 이용한 심층 신경망 기반 데이터 처리 방법 및 장치
WO2019176990A1 (ja) * 2018-03-13 2019-09-19 オムロン株式会社 検査装置、画像識別装置、識別装置、検査方法、及び検査プログラム
JP2019204321A (ja) * 2018-05-24 2019-11-28 株式会社ジェイテクト 情報処理方法、情報処理装置、及びプログラム
JP2022506857A (ja) * 2018-11-16 2022-01-17 ディープ バイオ インク 教師あり学習に基づく合意診断方法及びそのシステム
JP7190777B6 (ja) 2018-11-16 2022-12-16 ディープ バイオ インク 教師あり学習に基づく合意診断方法及びそのシステム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109117890B (zh) * 2018-08-24 2020-04-21 腾讯科技(深圳)有限公司 一种图像分类方法、装置和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007514464A (ja) * 2003-11-13 2007-06-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像の診断的評価を支援する装置及び方法
JP2013192624A (ja) * 2012-03-16 2013-09-30 Hitachi Ltd 医用画像診断支援装置、医用画像診断支援方法ならびにコンピュータプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7298877B1 (en) * 2001-11-20 2007-11-20 Icad, Inc. Information fusion with Bayes networks in computer-aided detection systems
JP4397667B2 (ja) 2003-10-06 2010-01-13 富士フイルム株式会社 識別処理に用いる特徴量の種類と識別条件を決定する装置、プログラムならびにプログラムを記録した記録媒体、および特定内容のデータを選別する装置
US20060018524A1 (en) * 2004-07-15 2006-01-26 Uc Tech Computerized scheme for distinction between benign and malignant nodules in thoracic low-dose CT
JP5791751B2 (ja) 2009-06-18 2015-10-07 キヤノン株式会社 画像認識方法及び画像認識装置
JP6330385B2 (ja) 2014-03-13 2018-05-30 オムロン株式会社 画像処理装置、画像処理方法およびプログラム
JP6299299B2 (ja) 2014-03-14 2018-03-28 オムロン株式会社 事象検出装置および事象検出方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007514464A (ja) * 2003-11-13 2007-06-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像の診断的評価を支援する装置及び方法
JP2013192624A (ja) * 2012-03-16 2013-09-30 Hitachi Ltd 医用画像診断支援装置、医用画像診断支援方法ならびにコンピュータプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LUYAO WANG ET AL.: "Classification of Hepatic Tissues from CT Images Based on Texture Features and Multiclass Support Ve", ADVANCES IN NEURAL NETWORKS - ISNN 2009, JPN7020002710, 2009, pages 374 - 381, XP047444686, ISSN: 0004456572, DOI: 10.1007/978-3-642-01510-6_43 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019176990A1 (ja) * 2018-03-13 2019-09-19 オムロン株式会社 検査装置、画像識別装置、識別装置、検査方法、及び検査プログラム
JP2019159820A (ja) * 2018-03-13 2019-09-19 オムロン株式会社 検査装置、画像識別装置、識別装置、検査方法、及び検査プログラム
JP2019204321A (ja) * 2018-05-24 2019-11-28 株式会社ジェイテクト 情報処理方法、情報処理装置、及びプログラム
JP7102941B2 (ja) 2018-05-24 2022-07-20 株式会社ジェイテクト 情報処理方法、情報処理装置、及びプログラム
KR102002732B1 (ko) * 2018-09-20 2019-07-23 건국대학교 산학협력단 앙상블 모델을 이용한 심층 신경망 기반 데이터 처리 방법 및 장치
JP2022506857A (ja) * 2018-11-16 2022-01-17 ディープ バイオ インク 教師あり学習に基づく合意診断方法及びそのシステム
JP7190777B6 (ja) 2018-11-16 2022-12-16 ディープ バイオ インク 教師あり学習に基づく合意診断方法及びそのシステム
JP7190777B2 (ja) 2018-11-16 2022-12-16 ディープ バイオ インク 教師あり学習に基づく合意診断方法及びそのシステム

Also Published As

Publication number Publication date
US10354172B2 (en) 2019-07-16
US20180053072A1 (en) 2018-02-22
EP3287954A1 (en) 2018-02-28

Similar Documents

Publication Publication Date Title
US10354172B2 (en) Verification device, verification method, and verification program
US9779354B2 (en) Learning method and recording medium
CN108280477B (zh) 用于聚类图像的方法和装置
JP6472621B2 (ja) 分類器構築方法、画像分類方法および画像分類装置
WO2019051941A1 (zh) 车型识别方法、装置、设备及计算机可读存储介质
WO2017017722A1 (ja) 処理装置、処理方法及びプログラム
JP6584250B2 (ja) 画像分類方法、分類器の構成方法および画像分類装置
CN109948680B (zh) 病历数据的分类方法及系统
US20190347472A1 (en) Method and system for image identification
US20210398674A1 (en) Method for providing diagnostic system using semi-supervised learning, and diagnostic system using same
Uddin Addressing accuracy paradox using enhanched weighted performance metric in machine learning
US20230112591A1 (en) Machine learning based medical data checker
WO2018211688A1 (ja) コンピュータシステム、被験者診断方法及びプログラム
JP2020085583A (ja) 検査装置及び検査方法
CN116385380A (zh) 基于深度特征的缺陷检测方法、系统、设备及存储介质
CN112766427A (zh) 图像识别模型的训练方法、装置及设备
US20140199792A1 (en) Defect pattern evaluation method, defect pattern evaluation apparatus, and recording media
US20210166362A1 (en) Wafer map identification method and computer-readable recording medium
CN113610747B (zh) 检验半导体样本的系统和方法
US20140270493A1 (en) Adaptable classification method
CN110895630B (zh) 晶圆堆叠方法及装置、存储介质和电子设备
CN114283114A (zh) 图像处理方法、装置、设备及存储介质
CN111199256A (zh) 图像优化网络的训练方法、图像处理方法及装置
Shobha Rani et al. Chronological age assessment based on wrist radiograph processing–Some novel approaches
Baek et al. Contrastive deep clustering for detecting new defect patterns in wafer bin maps

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180905

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210302