JP2021128418A - 画像分類装置及び方法 - Google Patents

画像分類装置及び方法 Download PDF

Info

Publication number
JP2021128418A
JP2021128418A JP2020021469A JP2020021469A JP2021128418A JP 2021128418 A JP2021128418 A JP 2021128418A JP 2020021469 A JP2020021469 A JP 2020021469A JP 2020021469 A JP2020021469 A JP 2020021469A JP 2021128418 A JP2021128418 A JP 2021128418A
Authority
JP
Japan
Prior art keywords
image
classification
class
subclass
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020021469A
Other languages
English (en)
Other versions
JP7328915B2 (ja
Inventor
壮太 小松
Sota KOMATSU
壮太 小松
昌義 石川
Masayoshi Ishikawa
昌義 石川
史浩 別宮
Fumihiro Betsumiya
史浩 別宮
武史 柿沼
Takeshi Kakinuma
武史 柿沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Tech Corp filed Critical Hitachi High Tech Corp
Priority to JP2020021469A priority Critical patent/JP7328915B2/ja
Priority to PCT/JP2020/041530 priority patent/WO2021161595A1/ja
Priority to US17/793,832 priority patent/US20230058441A1/en
Priority to CN202080094984.8A priority patent/CN115004248A/zh
Priority to KR1020227026994A priority patent/KR20220124226A/ko
Publication of JP2021128418A publication Critical patent/JP2021128418A/ja
Application granted granted Critical
Publication of JP7328915B2 publication Critical patent/JP7328915B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

【課題】適切な教師データを作成することができる画像分類装置及びその方法を提供する。
【解決手段】教師情報を含む分類対象クラスの画像と、教師情報が付与されていない分類対象外クラスの画像を用いて画像分類を行う画像分類装置であって、分類対象クラスに属する画像群と分類対象外クラスに属する画像群とを入力する画像群入力部と、画像群の各画像について特徴量を抽出し、分類対象外クラスに属する画像群について、画像の特徴量をクラスタリングして、サブクラスに分割するサブクラス化部を備える。
【選択図】図1

Description

本発明は画像分類装置及び方法に係り、特に学習機能を備えた画像分類システムにおいて使用される教師データを提供するための画像分類装置及び方法に関する。
学習機能を備えた画像分類システムは、深層学習等の画像分類モデルを用いて構成されることがある。深層学習等の画像分類モデルを用いる場合、教師データとして多くの入力画像と画像の種別を表す教師情報が必要であり、教師情報は多くの場合専門家による手作業で作成されている。
専門家は画像が示す意味で教師データのクラス分けを行う。このとき、同じクラス内に複数の特徴を持つ画像がまとめられることがある。例えば、専門家が明示的に画像分類モデルに分類させたいクラス(以下、分類対象クラスという)以外の画像をすべてまとめた分類対象外クラスを作成することがある。この場合、単一のクラスに本来は分離すべき多様な画像が混入してしまう恐れがある。
この場合に、分類すべき画像が混入したクラスの存在は画像分類器を学習する際に分類精度の意味で必ずしも最適ではない。これは一般に教師データは一つのクラスに一つの特徴が対応している教師データの方が画像分類モデルを学習させる際コンパクトな学習ができるため好ましいためである。そこで、コンパクトな学習を行うため、一つのクラスに一つの特徴が対応するように分類対象外クラスを分割することが必要となる。
教師データを必要とする画像分類分野では、分類対象外クラスを特徴ごとに分割する作業にかかる工数が課題となる。特許文献1では、分類対象クラス以外の分類対象外クラスを分類対象クラスの生成モデルを用いて、分類対象クラスとの類似度から分類対象外クラスを自動で分割し、工数を削減する取り組みが行われてきた。
特開2014−135014号公報
特許文献1では、分類対象クラスの生成モデルを用いて、分類対象外クラスを分類対象クラスとの類似度から分割する。そのため、分類対象外クラスの画像のうち、全ての分類対象クラスと類似度が小さい画像については分割することができず、分類対象外クラスに含まれている画像を特徴ごとに分割することはできない。
このことから本発明においては、分類対象外クラスのような複数の特徴をもつ画像がまとめられているクラスに対して、特徴ごとに分割し分割されたクラスをサブクラスとして生成することで適切な教師データを作成することができる画像分類装置及び方法を提供することを目的とする。
以上のことから本発明においては、教師情報を含む分類対象クラスの画像と、教師情報が付与されていない分類対象外クラスの画像を用いて画像分類を行う画像分類装置であって、分類対象クラスに属する画像群と分類対象外クラスに属する画像群とを入力する画像群入力部と、画像群の各画像について特徴量を抽出し、分類対象外クラスに属する画像群について、画像の特徴量をクラスタリングして、サブクラスに分割するサブクラス化部を備えることを特徴とする。
また教師情報を含む分類対象クラスの画像と、教師情報が付与されていない分類対象外クラスの画像を用いて画像分類を行う画像分類方法であって、分類対象クラスに属する画像群と分類対象外クラスに属する画像群の各画像について特徴量を抽出し、分類対象外クラスに属する画像群について、画像の特徴量をクラスタリングして、サブクラスに分割することを特徴とする。
本発明によれば、分類対象外クラスを特徴毎のサブクラスに分割することが可能となる。これにより、適切な教師データ作成を支援し、画像分類モデルの精度向上に必要な工数を削減できる。
本発明の実施例に係る画像分類装置の一例を示す図。 教師データのクラス構造の一例を示す図。 サブクラス化部を実現するためのサブクラス化処理の処理手順例を示す図。 結果修正入力部103におけるモニタ画面の一例を示す図。 図3の処理ステップS302における処理の詳細処理フローを示した図。 異物混入検査における撮影画像において異物の画像内で占める割合が小さい例を示す図。 異物混入検査における撮影画像において異物の画像内で占める割合が大きい例を示す図。 サブクラスに分割する前の特徴量分布の一例を示す図。 サブクラスに分割した後の特徴量分布の一例を示す図。
以下本発明の実施例について、図面を参照して詳細に説明する。
図1に本発明の実施例に係る画像分類装置の一例を示す。画像分類装置100は学習画像入力部101、画像特徴ごとに分割するサブクラス化部102及び結果修正入力部103を備え、分類対象外となるクラスに属する画像を画像の特徴ごとにクラスを分割してサブクラスを形成し、サブクラスに属する画像に対する結果修正をユーザが行うことで、正しく特徴ごとに分割されたクラスを作成する。画像分類装置100の出力である分割されたクラスとそれに含まれる画像は、学習機能を備えた画像分類システムにおける教師データとして提供される。
学習画像入力部101には、分類対象クラスに属する学習画像群D1(以下、分類対象画像群)と分類対象外クラスに属する学習画像群D2(以下、分類対象外画像群)とそれぞれの属するクラスのアノテーション情報(図示せず)を入力する。このとき、分類対象外クラスであることは明示的に入力されている。
図2に、教師データのクラス構造の一例を示す。一例として、「犬」「猫」「その他(猿・鳥・牛)」の画像群を3つのクラスをもつ学習画像について説明する。この場合ユーザは「犬」クラスCL1a、「猫」クラスCL1bを分類対象クラスCL1とし、「その他(猿・鳥・牛)」を分類対象外クラスCL2と設定している。
この場合に、これらのクラス分けは人の手作業によって行われているため、誤りがあることも考えられる。例えば、「犬」クラスCL1aに「猫」クラスCL1bに属するべき画像が含まれていることや、「その他(猿・鳥・牛)」クラスCL2に「犬」クラスCL1aに属するべき画像が含まれていることが考えられる。このように、学習画像群にノイズが含まれている場合がある。なお、「その他(猿・鳥・牛)」クラスCL2の画像枚数が「犬」クラスCL1aや「猫」クラスCL1bより多くても少なくてもよく、各クラス間の枚数の大小は問わない。
図1の画像分類装置において、学習画像入力部101は一意に分類対象外画像群D2が定まるならば手法は限定しない。例えば、分類対象クラスCL1と教師データとなる全画像群を与えても良い。そのとき、全画像群から分類対象クラスCL1に属する画像を差し引いた画像群を分類対象外クラスCL2に属しているものとする。
画像特徴ごとに分割するサブクラス化部102は、分類対象外クラスCL2を画像の特徴ごとに分割する。図2で示す例では、「その他」クラスCL2を「猿」サブクラスCL2a、「鳥」サブクラスCL2b、「牛」サブクラスCL2cに分割する。なお分割された「猿」「鳥」「牛」のクラスは、「その他」クラスCL2におけるサブクラスとして位置づけられる。このとき、全て正しいクラスに分割されていなくてもよく、誤りを含んでいてもよい。誤りを含んでいた場合は結果修正入力部103にてユーザが修正を行う。
結果修正入力部103により、サブクラス化部102において定められたサブクラスあるいはこれをユーザが見直ししたサブクラスを含むクラスの情報D3が与えられる。クラスの情報D3には、分類対象クラスCL1である「犬」クラスCL1aや「猫」クラスCL1bの他に、分類対象外クラスCL2である「その他(猿・鳥・牛)」をサブクラス化した「猿」サブクラスCL2a、「鳥」サブクラスCL2b、「牛」サブクラスCL2cの画像群とその教師情報が含まれており、学習機能を備えた画像分類システムにおける教師データとして提供される。
図3は、画像特徴ごとに分割するサブクラス化部102を実現するためのサブクラス化処理の処理手順例を説明する図である。図3の一連の処理における最初の処理である処理ステップS302では、分類対象画像群D1と分類対象外画像群D2を入力とし、画像群を形成する各画像について特徴量を抽出する。処理ステップS302で求めた情報D4が、分類対象画像群D1と分類対象外画像D2におけるそれぞれの個別画像における特徴量である。処理ステップS302の具体的な処理内容に関して図5、図6a,図6bを用いて後述する。
次に処理ステップS304において特徴量をクラスタリングし、分類対象外画像群D2を特徴ごとに分割したサブクラスの情報D3を得る。処理ステップS304の具体的な処理内容に関して図7a,図7bを用いて後述する。
処理ステップS302における特徴量抽出処理の代表的な事例について、図5、図6a,図6bを用いて説明する。処理ステップS302における特徴量を抽出する代表的な手法として、画像全体を微少領域に例えばマトリクス状に細分化し、細分化された小領域である画素ごとにラベル付けによる数値化を行い、この数値を用いた識別により画像における特徴量並びに特徴量を示す領域を明確化する手法が知られている。この手法によれば、通常は背景情報を主体に構成される画像において、特徴量が存在する画像である場合に、特徴量であることと、特徴量の部位や形状を抽出することができる。
係る抽出処理では、処理ステップS302で出力される特徴量の情報D3は、分類対象外画像群D2のうち、全ての画像で共通するような特徴(例えば、背景)は除外されるように特徴量を抽出する。その場合、特徴量は背景以外の部分を表し、同じオブジェクトが含まれている画像同士の特徴量は近い値となる。例えば畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いて特徴量抽出を行っても良い。又は主成分分析等の手法を用いても良いし、CNNと主成分分析を組み合わせた手法でもよい。
処理ステップS302では特徴量抽出を行う前に、画像内の注目すべき領域を事前に求めておいて、その領域に注目して特徴量抽出を行っても良い。例えば、分類対象外画像に手作業で注目領域を設定してもよいし、自動で注目領域を設定してもよい。
図5は、図3の処理ステップS302における上記処理の詳細処理フローを示した図である。図5は、自動で注目領域を設定する際の一例として、画像内の注目すべきオブジェクトが占める画素の割合を用いて注目領域を設定するプログラムである。
図5の処理ステップS502では、分類対象画像群D1、分類対象外画像群D2内の個々の画像に対し、微少領域化した画素ごとにオブジェクトの種別をラベル付けする。このとき、画素ごとにオブジェクトのラベルを分類するタスクであるSemantec Segmentationで用いられるようなモデルを用いるのがよい。
画素ごとにラベル付けされた分類対象画像群D1´、分類対象外画像群D2´を用いて、処理ステップS504においてラベルごとの画像群内の画素数をカウントする。次に処理ステップS505では全てのラベルを判定したことの是非を確認し、全てのラベルを判定した時(Yes)は一連の処理を終了する。未判定のラベルがある時(No)は処理ステップS506の処理を実行する。これにより処理ステップS505以降の処理は、ラベルごとに繰り返し処理される。以下、現ループで対象となっているラベルを対象ラベルと称する。
処理ステップS506では、対象ラベルをもつ画素数が条件(例えば所定個数以下)を満たすかを判定し、条件を満たす時(Yes)処理ステップS507にて対象ラベルをもつ画素を注目領域に設定する。条件を満たさない時(No)は、処理ステップS505に戻り、対象ラベルの判定が全て終了したことを確認する。この処理を全てのラベルに対して行い、分類対象外画像群D2の全ての画像の画素が注目領域かそれ以外かに分類することが可能となる。
図6a、図6bは、異物混入検査における撮影画像601について、この画像をマトリクス状に微少領域に分割し画素群として表したものである。白抜きの部分が異物であり、それ以外の画素が異物を含まないものとしている。
図5の処理ステップS506は例えば、異物混入検査における画像601において、図6aに示すように、異物は画像内で占める割合が小さいと分かっている場合、対象ラベルの画素数が閾値より小さいか判定する。また、図6bに示すように異物は画像内で占める割合が大きいと分かっている場合、対象ラベルの画素数が閾値より大きいか判定する。
次に図3の処理ステップS304における処理内容について、図7a,図7bを用いて説明する。図3の処理ステップS304では、特徴量の情報D3をクラスタリングする。
このとき、例えばK−meansのような分割するクラスタ数を指定する手法を用いても良いし、階層クラスタ分析のような分割するクラスタ数を指定しない手法を用いても良い。また、処理ステップS302、S304は一つのアルゴリズムで行っても良い。例えば、CNNを用いた教師なしクラスタリング手法のようなCNNで特徴量を抽出しその特徴量のクラスタリング結果を疑似的な教師情報を用いてCNNを学習するような手法を用いても良い。クラスタリング手法の種類は限定しない。
このとき、分類対象画像群D1の特徴量を抽出して当該特徴量を包含する最小の円または球の半径を粒度と定義し、分類対象画像群D1と同様な粒度の特徴を抽出することが可能となることも考えられる。
クラスタリングする際に粒度に着目してサブクラスに分割した事例を、図7a、図7bに示して説明する。図7a、図7bは、図2の画像群から抽出した特徴量が2次元ベクトルの座標系上に表すことができた場合の例である。図7a、図7bは、それぞれサブクラスに分割する前、後を示している。
サブクラスに分割する前の特徴量分布の一例を示す図7aの二次元平面では、対象クラスCL1として犬クラスCL1aと猫クラスCL1bが設定されていて、犬クラスCL1aは同平面の第1象限に存在し、かつ猫クラスCL1bは同平面の第2象限に存在するものとする。これに対し、分類対象外クラスCL2として、その他クラスが設定されている場合、その他クラスの特徴量は原点付近の縦軸上に不均一に存在し、例えば特定の象限に表れるといったような明確な傾向を示さないものであるとする。
また図7aの二次元平面では、特徴量についての粒度がシンボルの大きさで表されており、犬クラスCL1aである星形のマークが小さく表示されているのに対し、猫クラスCL1bの四角のマークが大きく表示されている。この事例では、犬クラスCL1aの特徴量を包含する球(2次元では円)の半径と猫クラスCL1bの特徴量を包含する球の半径から、分類対象クラスCL2の粒度の統計値を求め、その統計値に基づいてその他クラスを分割することが可能である。
サブクラスに分割した後の特徴量分布の一例を示す図7bは、分類対象クラスCL1の粒度を用いてその他クラスCL2をサブクラス化した例である。その他クラスCL2の特徴量は原点付近の縦軸上に不均一に存在していたが、粒度の情報を用いた分類化により、原点付近の縦軸上部に位置するサブクラス1(CL2a)、原点付近に位置するサブクラス2(CL2b)、原点付近の縦軸下部に位置するサブクラス3(CL2c)に分けることができたことを表している。なおここでは、全てのクラスの粒度が近くなるようにサブクラス化されたものとする。
図4に結果修正入力部103におけるモニタ画面の一例を示す。モニタ画面は、大きく4つの領域に分けて構成されている。領域404は、分類対象クラスCL1の表示領域であり、先の例に従えば犬クラスCL1aと猫クラスCL1bに属する画像が表示されている。領域401は、分類対象外クラスCL2の表示領域であり、先の例に従えば猿クラスCL2aと鳥クラスCL2bと牛クラスCL2cに属すると判断された画像が表示されている。402は、ユーザによるサブクラス追加機能のための操作ボタンを表す領域である。また領域403は、各画像について、その画像を当該サブクラスに分類した根拠データを表示したものである。
サブクラス化部102にて作成されたサブクラスを、サブクラス結果表示・修正部401のモニタ画面に表示する。このうち領域401はユーザがサブクラス結果を正しいサブクラスに修正する機能を有する。例えば、サブクラス1の大半の画像が猿の画像であり鳥画像X1が含まれていた場合、ユーザは鳥画像X1を誤りと判断し、鳥画像の多く含むサブクラス2に修正する。このとき、マウスを使ってドラッグ&ドロップで移動するようにしてもよいし、ショートカットキーなどを用意して移動してもよく、修正の方法は限定しない。また、修正時に表示されているサブクラス以外のサブクラスを用意するときのためにサブクラス追加機能402を有する。また、分類対象クラスについてもノイズを含んでいる可能性があるため、領域404にて修正できる機能を有する。
領域401はユーザの修正作業の効率化のため、左から順に信頼度の小さい画像から表示するのがよい。信頼度とは例えば、処理ステップS304がK−meansであった場合、画像から抽出された特徴量の所属するクラスタ中心からの距離の逆数を信頼度とし、また、CNNを用いたクラスタリング手法であった場合、画像の分類確率を信頼度として、信頼度の低い画像から順に左側に表示する。また、分類対象クラスの特徴量を抽出している場合は、特徴量を包含する最小の球の球面からの距離を信頼度とし、領域404で信頼度の低い画像から順に左側に表示するのがよい。つまり、画像をサブクラスに分類した際の当該サブクラスに組み入れることの信頼度に応じて、サブクラス内における画像の配列を定めるのがよい。
また、選択している画像の分類スコアを領域403に表示する。このとき、領域403の表示位置は限定しない。例えば、マウスを画像に置いている間ポップアップするようにしても良い。この分類スコアは、画像をサブクラスに分類した際の当該サブクラスに組み入れることの根拠情報を表示したものといえる。
またクラスまたはサブクラスに分類される各画像について、この画像が当該クラスまたはサブクラスに分類されるのが妥当であると判断する根拠となる特徴量について、各画像の特徴量部位を協調的に表示しておくのがよい。
以下に、コンパクトな学習について詳述する。コンパクトな学習とは、特徴量の分布がクラスごとによく集まるような学習を示す。図7a、図7bを例にコンパクトな学習の利点を説明する。
一般に教師データを用いる画像分類では、クラスごとに粒度の範囲まで分類確率が大きくなるように学習する。図7aのその他クラスCL2の粒度は大きく、犬クラスCL1aや猫クラスCL1bの特徴量について、その他クラスへCL2の分類確率が大きくなってしまい、誤った分類をしてしまう可能性がある。そこで、図7bのようにその他クラスCL2をサブクラスに分割すれば、犬クラスや猫クラスの特徴量について、各サブクラスへの分類確率は小さく、精度向上が見込める。
本実施例によれば、分類対象外クラスCL2を自動でコンパクトな学習が可能となるようなサブクラスに分割することが可能となる。
100:画像分類装置
101:学習画像入力部
102:サブクラス化部
103:結果修正入力部

Claims (11)

  1. 教師情報を含む分類対象クラスの画像と、前記教師情報が付与されていない分類対象外クラスの画像を用いて画像分類を行う画像分類装置であって、
    分類対象クラスに属する画像群と分類対象外クラスに属する画像群とを入力する画像群入力部と、前記画像群の各画像について特徴量を抽出し、前記分類対象外クラスに属する画像群について、前記画像の前記特徴量をクラスタリングして、サブクラスに分割するサブクラス化部を備えることを特徴とする画像分類装置。
  2. 請求項1に記載の画像分類装置であって、
    画像分類装置は表示部を有する結果修正入力部を備え、前記表示部には前記分類対象クラスに属する画像群と、前記分類対象外クラスに属する画像群を分割した前記サブクラスに属する画像群として別個に表示し、表示された画像のクラス修正を可能とすることを特徴とする画像分類装置。
  3. 請求項1または請求項2に記載の画像分類装置であって、
    前記サブクラス化部は、前記画像の前記特徴量を抽出する際に、画像全体を微少領域に細分化し、細分化された小領域である画素ごとにラベル付けによる数値化を行い、この数値を用いた識別により画像における特徴量並びに特徴量を示す領域を明確化することを特徴とする画像分類装置。
  4. 請求項1から請求項3のいずれか1項に記載の画像分類装置であって、
    前記サブクラス化部は、前記画像の前記特徴量をクラスタリングする際に、当該特徴量を包含する最小の円または球の半径を粒度と定義し、粒度に応じてサブクラスを形成することを特徴とする画像分類装置。
  5. 請求項2に記載の画像分類装置であって、
    前記結果修正入力部の前記表示部には、新たなサブクラスの設定手段を備えていることを特徴とする画像分類装置。
  6. 請求項2または請求項5に記載の画像分類装置であって、
    前記結果修正入力部の前記表示部には、画像をサブクラスに分類した際の当該サブクラスに組み入れることの根拠情報を表示する分類スコア表示部を備えていることを特徴とする画像分類装置。
  7. 請求項2、請求項5、請求項6のいずれか1項に記載の画像分類装置であって、
    前記結果修正入力部の前記表示部には、画像をサブクラスに分類した際の当該サブクラスに組み入れることの信頼度に応じて、サブクラスにおける画像の配列を定めて表示されていることを特徴とする画像分類装置。
  8. 請求項2、請求項5、請求項6、請求項7のいずれか1項に記載の画像分類装置であって、
    前記結果修正入力部の前記表示部には、クラスまたはサブクラスに分類される各画像について、この画像が当該クラスまたはサブクラスに分類されるのが妥当であると判断する根拠となる特徴量について、各画像の特徴量部位を表示することを特徴とする画像分類装置。
  9. 請求項1から請求項8のいずれか1項に記載の画像分類装置であって、
    前記サブクラス化部は、分類対象外画像内の注目すべき領域を事前に特定し、その領域に基づいてクラスタリングすることを特徴とする画像分類装置。
  10. 請求項1から請求項9のいずれか1項に記載の画像分類装置であって、
    画像分類装置が与える分類対象クラスに属する画像群及びその情報と、分割したサブクラスに属する画像群及びその情報は、学習機能を備えた画像分類システムにおいて使用される教師データとして提供されることを特徴とする画像分類装置。
  11. 教師情報を含む分類対象クラスの画像と、前記教師情報が付与されていない分類対象外クラスの画像を用いて画像分類を行う画像分類方法であって、
    分類対象クラスに属する画像群と分類対象外クラスに属する画像群の各画像について特徴量を抽出し、前記分類対象外クラスに属する画像群について、前記画像の前記特徴量をクラスタリングして、サブクラスに分割することを特徴とする画像分類方法。
JP2020021469A 2020-02-12 2020-02-12 画像分類装置及び方法 Active JP7328915B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020021469A JP7328915B2 (ja) 2020-02-12 2020-02-12 画像分類装置及び方法
PCT/JP2020/041530 WO2021161595A1 (ja) 2020-02-12 2020-11-06 画像分類装置及び方法
US17/793,832 US20230058441A1 (en) 2020-02-12 2020-11-06 Image Classification Device and Method
CN202080094984.8A CN115004248A (zh) 2020-02-12 2020-11-06 图像分类装置及方法
KR1020227026994A KR20220124226A (ko) 2020-02-12 2020-11-06 화상 분류 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020021469A JP7328915B2 (ja) 2020-02-12 2020-02-12 画像分類装置及び方法

Publications (2)

Publication Number Publication Date
JP2021128418A true JP2021128418A (ja) 2021-09-02
JP7328915B2 JP7328915B2 (ja) 2023-08-17

Family

ID=77291475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020021469A Active JP7328915B2 (ja) 2020-02-12 2020-02-12 画像分類装置及び方法

Country Status (5)

Country Link
US (1) US20230058441A1 (ja)
JP (1) JP7328915B2 (ja)
KR (1) KR20220124226A (ja)
CN (1) CN115004248A (ja)
WO (1) WO2021161595A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149323A (ja) * 2003-11-18 2005-06-09 Canon Inc 画像処理システム及び画像処理装置並びに画像処理方法
JP2006099565A (ja) * 2004-09-30 2006-04-13 Kddi Corp コンテンツ識別装置
JP2008165572A (ja) * 2006-12-28 2008-07-17 Fuji Xerox Co Ltd データ分類装置、データ分類プログラム
JP2014164499A (ja) * 2013-02-25 2014-09-08 Nippon Telegr & Teleph Corp <Ntt> 画像分類装置及び画像分類プログラム
JP2019101959A (ja) * 2017-12-07 2019-06-24 ヤフー株式会社 抽出装置、抽出方法、抽出プログラム及びモデル

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5880454B2 (ja) 2013-01-11 2016-03-09 富士ゼロックス株式会社 画像識別装置及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149323A (ja) * 2003-11-18 2005-06-09 Canon Inc 画像処理システム及び画像処理装置並びに画像処理方法
JP2006099565A (ja) * 2004-09-30 2006-04-13 Kddi Corp コンテンツ識別装置
JP2008165572A (ja) * 2006-12-28 2008-07-17 Fuji Xerox Co Ltd データ分類装置、データ分類プログラム
JP2014164499A (ja) * 2013-02-25 2014-09-08 Nippon Telegr & Teleph Corp <Ntt> 画像分類装置及び画像分類プログラム
JP2019101959A (ja) * 2017-12-07 2019-06-24 ヤフー株式会社 抽出装置、抽出方法、抽出プログラム及びモデル

Also Published As

Publication number Publication date
CN115004248A (zh) 2022-09-02
KR20220124226A (ko) 2022-09-13
US20230058441A1 (en) 2023-02-23
JP7328915B2 (ja) 2023-08-17
WO2021161595A1 (ja) 2021-08-19

Similar Documents

Publication Publication Date Title
US11790643B2 (en) Deep learning for tooth detection and evaluation
CN109344874B (zh) 一种基于深度学习的染色体自动分析方法及系统
Sharma et al. Crowdsourcing for chromosome segmentation and deep classification
US20180336683A1 (en) Multi-Label Semantic Boundary Detection System
CN105849274B (zh) 用于显微图像中的单独细胞的分类和识别的方法和系统
US20070065003A1 (en) Real-time recognition of mixed source text
CN108805170A (zh) 形成用于全监督式学习的数据集
CN110517262B (zh) 目标检测方法、装置、设备及存储介质
EP3848472A2 (en) Methods and systems for automated counting and classifying microorganisms
Wood et al. A fully-automated, robust, and versatile algorithm for long-term budding yeast segmentation and tracking
CN112487930A (zh) 自动染色体核型分析方法、系统和存储介质
Lidasan et al. Mushroom recognition using neural network
WO2021161595A1 (ja) 画像分類装置及び方法
Saputra et al. Integration GLCM and geometric feature extraction of region of interest for classifying tuna
CN116433704A (zh) 一种基于中心点的细胞核分割方法及相关设备
CN111968115B (zh) 基于栅格化图像处理方法的骨科耗材检测方法及系统
CN115601547A (zh) 样本图像获取、货物管理方法、装置、设备及存储介质
Sharma Foreground clustering for joint segmentation and localization in videos and images
US11568176B1 (en) Deep feature extraction and training tools and associated methods
Lv et al. Automated nanoparticle count via modified blendmask instance segmentation on sem images
Sormunen Pallet detection in warehouse environment
JP6964296B2 (ja) 領域抽出装置、方法、及びプログラム
Ashraf et al. An integral computer vision system for apple detection, classification, and semantic segmentation
CN110246133B (zh) 一种玉米籽粒分类方法、装置、介质及设备
CN118072175A (zh) 一种基于颜色识别的饲草种子的高效清选方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230804

R150 Certificate of patent or registration of utility model

Ref document number: 7328915

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150