JP7210380B2 - 画像学習プログラム、画像学習方法、及び画像認識装置 - Google Patents

画像学習プログラム、画像学習方法、及び画像認識装置 Download PDF

Info

Publication number
JP7210380B2
JP7210380B2 JP2019104825A JP2019104825A JP7210380B2 JP 7210380 B2 JP7210380 B2 JP 7210380B2 JP 2019104825 A JP2019104825 A JP 2019104825A JP 2019104825 A JP2019104825 A JP 2019104825A JP 7210380 B2 JP7210380 B2 JP 7210380B2
Authority
JP
Japan
Prior art keywords
image
learning
teacher
category
recognition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019104825A
Other languages
English (en)
Other versions
JP2020197999A (ja
Inventor
俊 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2019104825A priority Critical patent/JP7210380B2/ja
Publication of JP2020197999A publication Critical patent/JP2020197999A/ja
Application granted granted Critical
Publication of JP7210380B2 publication Critical patent/JP7210380B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像学習プログラム、画像学習方法、及び画像認識装置に関する。
画像認識技術として、Fully Convolutional Network(FCN:全層畳み込みネットワーク)を用いたSemantic Segmentation(セマンティック・セグメンテーション)が知られている(例えば、非特許文献1参照)。セマンティック・セグメンテーションは、デジタル画像のピクセル単位でのクラス分類(クラス推論)を行っている。つまり、セマンティック・セグメンテーションは、デジタル画像の各ピクセルに対してクラス推論を行い、推論結果として、クラス分けした各ピクセル対してカテゴリをラベリングすることで、デジタル画像を複数のカテゴリの画像領域に分割する。
Zhao, Hengshuang, et al. "Pyramid scene parsing network." IEEE Conf. on Computer Vision and Pattern Recognition (CVPR). 2017
ここで、セマンティック・セグメンテーションでは、学習データセットを用いて深層学習を行うことにより、画像認識の精度を高めている。学習データセットは、学習対象の画像となる学習画像と、学習画像に対する回答となる領域分割された教師画像とを含む。教師画像には、複数のカテゴリの画像領域が含まれている。ここで、学習画像に出現するカテゴリの出現頻度は、カテゴリの種類によって異なるものとなっている。例えば、学習画像が車両の走行時における画像である場合、信号機等の小さいオブジェクトは、道路等の大きいオブジェクトに比べて、出現頻度が少ないものとなっている。つまり、学習画像に含まれる所定のカテゴリの画像領域が、他のカテゴリの画像領域に比して極端に小さいものとなっており、カテゴリ間の出現頻度が不均衡となっている。この場合、学習方法によっては、出現頻度の多いカテゴリの学習が優先的に行われることから、出現頻度の少ないカテゴリの学習が進まないという場合があった。
本発明は、カテゴリ間の出現頻度が不均衡である場合でも、学習効率を向上させることができる画像学習プログラム、画像学習方法、及び画像認識装置を提供することを目的とする。
態様の1つに係る画像学習プログラムは、画像セグメンテーションを行う画像認識装置によって実行される画像学習プログラムであって、前記画像認識装置の学習に用いられる学習データセットは、前記画像認識装置の学習対象の画像となる学習画像と、前記学習画像に対応する教師画像と、を含み、前記教師画像は、複数のカテゴリの画像領域を含み、複数の前記カテゴリは、前記教師画像中において所定の画像領域となる第1のカテゴリと、前記第1のカテゴリよりも小さな画像領域となる第2のカテゴリと、を含み、前記画像認識装置に、前記教師画像よりも小さな画像領域となる選択教師画像を、前記教師画像から抽出すると共に、前記選択教師画像に対応する選択学習画像を、前記学習画像から抽出する第1のステップと、前記第1のステップにより抽出した前記選択学習画像及び前記選択教師画像を用いて画像学習を行う第2のステップと、を実行させ、前記第1のステップでは、前記第2のカテゴリの画像領域を含むように、前記学習画像及び前記教師画像から、前記選択学習画像及び前記選択教師画像を抽出する。
態様の1つに係る画像学習方法は、画像セグメンテーションを行う画像認識装置が実行する画像学習方法であって、前記画像認識装置の学習に用いられる学習データセットは、前記画像認識装置の学習対象の画像となる学習画像と、前記学習画像に対応する教師画像と、を含み、前記教師画像は、複数のカテゴリの画像領域を含み、複数の前記カテゴリは、前記教師画像中において所定の画像領域となる第1のカテゴリと、前記第1のカテゴリよりも小さな画像領域となる第2のカテゴリと、を含み、前記画像認識装置は、前記教師画像よりも小さな画像領域となる選択教師画像を、前記教師画像から抽出すると共に、前記選択教師画像に対応する選択学習画像を、前記学習画像から抽出する第1のステップと、前記第1のステップにより抽出した前記選択学習画像及び前記選択教師画像を用いて画像学習を行う第2のステップと、を実行し、前記第1のステップでは、前記第2のカテゴリの画像領域を含むように、前記学習画像及び前記教師画像から、前記選択学習画像及び前記選択教師画像を抽出する。
態様の1つに係る画像認識装置は、画像セグメンテーションを行う画像認識装置であって、前記画像認識装置の学習に用いられる学習データセットは、前記画像認識装置の学習対象の画像となる学習画像と、前記学習画像に対応する教師画像と、を含み、前記教師画像は、複数のカテゴリの画像領域を含み、複数の前記カテゴリは、前記教師画像中において所定の画像領域となる第1のカテゴリと、前記第1のカテゴリよりも小さな画像領域となる第2のカテゴリと、を含み、前記教師画像よりも小さな画像領域となる選択教師画像を、前記教師画像から抽出すると共に、前記選択教師画像に対応する選択学習画像を、前記学習画像から抽出する画像抽出部と、前記第1のステップにより抽出した前記選択学習画像及び前記選択教師画像を用いて画像学習を行う画像認識部と、を備え、前記画像抽出部は、前記第2のカテゴリの画像領域を含むように、前記学習画像及び前記教師画像から、前記選択学習画像及び前記選択教師画像を抽出する。
図1は、実施形態に係る画像認識装置の概要を示す図である。 図2は、実施形態に係る画像認識装置の学習時における機能の概要を示す図である。 図3は、学習データセットの学習画像の一例を示す図である。 図4は、学習データセットの教師画像の一例を示す図である。 図5は、クロッピングされる学習画像の一例を示す図である。 図6は、クロッピングされる教師画像の一例を示す図である。 図7は、画像認識装置の画像学習に関する処理の一例を示す図である。
本出願に係る実施形態を、図面を参照しつつ詳細に説明する。以下の説明において、同様の構成要素について同一の符号を付すことがある。さらに、重複する説明は省略することがある。また、本出願に係る実施形態を説明する上で密接に関連しない事項は、説明及び図示を省略することがある。
(実施形態)
図1は、実施形態に係る画像認識装置の概要を示す図である。図2は、実施形態に係る画像認識装置の学習時における機能の概要を示す図である。画像認識装置1は、入力される入力画像Iに含まれるオブジェクトを認識し、認識した結果を出力画像Oとして出力するものである。画像認識装置1は、カメラ等の撮像装置において撮像された撮影画像が入力画像Iとして入力される。画像認識装置1は、入力画像Iに対して画像セグメンテーションを行う。画像セグメンテーションとは、デジタル画像の分割された画像領域に対してクラスをラベリングすることであり、クラス推論(クラス分類)ともいう。つまり、画像セグメンテーションとは、デジタル画像の分割された所定の画像領域が、何れのクラスであるかを判別して、画像領域が示すクラスを識別するための識別子(カテゴリ)を付すことで、複数のカテゴリに領域分割することである。画像認識装置1は、入力画像Iを画像セグメンテーション(クラス推論)した画像を、出力画像Oとして出力する。
画像認識装置1は、例えば、車の車載認識カメラに設けられている。車載認識カメラは、車の走行状況を所定のフレームレートでリアルタイムに撮像し、撮像した撮影画像を画像認識装置1に入力する。画像認識装置1は、所定のフレームレートで入力される撮影画像を入力画像Iとして取得する。画像認識装置1は、入力画像Iに含まれるオブジェクトをクラス分類して、クラス分類された画像を出力画像Oとして、所定のフレームレートで出力する。なお、画像認識装置1は、車載認識カメラへの搭載に限定されず、他の装置に設けてもよい。
図3は、学習データセットの学習画像の一例を示す図である。図4は、学習データセットの教師画像の一例を示す図である。画像認識装置1の学習には、学習データセットDが用いられる。学習データセットDは、学習対象となる画像である学習画像Gと、学習画像Gに対応する教師画像Tと、を含む。図3に示す学習画像Gは、画像認識装置1の学習時において、入力画像Iとして入力される。入力画像I(学習画像G)は、複数の画素(ピクセル)からなるデジタル画像である。図4に示す教師画像Tは、学習画像Gに対応する画像セグメンテーションされた回答となる画像、つまり、複数のカテゴリに領域分割された画像となっている。教師画像Tは、アノテーション作業により生成される画像となっている。
再び図1及び図2を参照して、画像認識装置1について説明する。画像認識装置1は、制御部5と、記憶部6と、画像認識部7とを備えている。
記憶部6は、プログラム及びデータを記憶する。また、記憶部6は、制御部5の処理結果を一時的に記憶する作業領域としても利用してもよい。記憶部6は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の記憶デバイスを含んでよい。また、記憶部6は、複数の種類の記憶デバイスを含んでよい。また、記憶部6は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。
記憶部6は、プログラムとして、画像学習プログラムPを含む。画像学習プログラムPは、画像認識部7に学習を行わせるためのプログラムである。また、記憶部6は、データとして、学習データセットDを含む。学習データセットDは、画像認識部7の学習に用いられるデータであり、図3に示す学習画像Gと、図4に示す教師画像Tとを含む。
制御部5は、画像認識装置1の動作を統括的に制御して各種の機能を実現する。制御部5は、例えば、CPU(Central Processing Unit)等の集積回路を含んでいる。具体的に、制御部5は、記憶部6に記憶されているプログラムに含まれる命令を実行して、画像認識部7等を制御することによって各種機能を実現する。制御部5は、例えば、画像学習プログラムPを実行することにより、学習データセットDを用いて、画像認識部7の学習を実行させる。また、制御部5は、画像認識部7の学習にあたり、学習データセットDの学習画像G及び教師画像Tをクロッピング処理する。
画像認識部7は、GPU(Graphics Processing Unit)等の集積回路を含んでいる。画像認識部7は、例えば、セマンティック・セグメンテーションを用いた画像セグメンテーションを行っている。セマンティック・セグメンテーションは、学習画像G等の入力画像Iの各ピクセルに対してクラス推論を行い、クラス分けされた各ピクセルに対してカテゴリをラベリングすることで、入力画像Iを複数のカテゴリごとに領域分割する。画像認識部7は、入力画像Iが入力されると、画像セグメンテーションを行うことで、入力画像Iのピクセルごとにクラス分類された画像を、出力画像Oとして出力する。
画像認識部7は、全てが畳み込み層で構成されるFCN(Fully Convolutional Network)等のニューラル・ネットワーク(以下、単にネットワークともいう)を用いた画像セグメンテーションを行っている。画像認識部7は、エンコーダ22と、デコーダ23とを有している。
エンコーダ22は、入力画像Iに対してエンコード処理を実行する。エンコード処理は、入力画像Iの特徴量を抽出した特徴マップ(Feature Map)を生成しつつ、特徴マップの解像度を低くするダウンサンプリング(プーリングともいう)を実行する処理である。具体的に、エンコード処理では、畳み込み層とプーリング層とにおいて入力画像Iに処理が行われる。畳み込み層では、入力画像Iの特徴量を抽出するためのカーネル(フィルタ)を、入力画像Iにおいて所定のストライドで移動させる。そして、畳み込み層では、畳み込み層の重みに基づいて、入力画像Iの特徴量を抽出するための畳み込み計算が行われ、この畳み込み計算により特徴量が抽出された特徴マップを生成する。生成される特徴マップは、カーネルのチャネル数に応じた数だけ生成される。プーリング層では、特徴量が抽出された特徴マップを縮小して、低解像度となる特徴マップを生成する。エンコード処理では、畳み込み層における処理とプーリング層における処理とを複数回繰り返し実行することで、ダウンサンプリングされた特徴量を有する特徴マップを生成する。
デコーダ23は、エンコード処理後の特徴マップに対してデコード処理を実行する。デコード処理は、特徴マップの解像度を高くするアップサンプリング(アンプーリングともいう)を実行する処理である。具体的に、デコード処理は、逆畳み込み層とアンプーリング層とにおいて特徴マップに処理が行われる。アンプーリング層では、特徴量を含む低解像度の特徴マップを拡大して、高解像度となる特徴マップを生成する。逆畳み込み層では、特徴マップに含まれる特徴量を、復元させるための逆畳み込み計算が、逆畳み込み層の重みに基づいて実行され、この計算により特徴量を復元させた特徴マップを生成する。そして、デコード処理では、アンプーリング層における処理と逆畳み込み層における処理とを複数回繰り返し実行することで、アップサンプリングされ、領域分割された画像である出力画像Oを生成する。出力画像Oは、画像認識部7に入力される入力画像Iと同じ解像度になるまで、アップサンプリングされる。
以上のように、画像認識部7は、入力画像Iに対して、エンコード処理及びデコード処理を実行し、ピクセル単位でクラス推論(クラス分類)を行うことで、入力画像Iの画像セグメンテーションを行う。そして、画像認識部7は、入力画像Iをクラスごとに領域分割した画像を、出力画像Oとして出力する。
次に、図5から図7を参照して、学習データセットDを用いた画像認識装置1の学習に関する処理について説明する。図5は、クロッピングされる学習画像の一例を示す図である。図6は、クロッピングされる教師画像の一例を示す図である。図7は、画像認識装置の画像学習に関する処理の一例を示す図である。画像認識装置1の学習では、学習データセットDの学習画像G及び教師画像Tをクロッピングし、クロッピングした学習データセットDを用いて、画像認識部7の学習を行っている。
なお、以下の説明では、学習データセットDとして、特定のカテゴリを前景とし、その他の全てのカテゴリを背景とする、2クラスに分類された教師画像Tを用いた学習データセットDを例にして説明する。具体的に、図3の学習画像G及び図4の教師画像Tを含む学習データセットDは、前景となるカテゴリが信号機となっており、背景となるカテゴリが信号機以外の全てのカテゴリとなっている。
先ず、画像認識装置1において、制御部5は、学習データセットDをクロッピングするクロッピング処理を実行する(ステップS1:第1のステップ)。クロッピング処理は、教師画像Tよりも小さな画像領域となる選択教師画像T1~T3を、教師画像Tから抽出すると共に、選択教師画像T1~T3に対応する選択学習画像G1~G3を、学習画像Gから抽出する処理である。なお、教師画像T及び学習画像Gから抽出される選択教師画像T1~T3及び選択学習画像G1~G3の画像数は、特に限定されない。
ここで、教師画像Tは、複数の(つまり、前景と背景の)カテゴリの画像領域を含んでおり、複数のカテゴリは、教師画像中において所定の画像領域となる第1のカテゴリと、第1のカテゴリよりも小さな画像領域となる第2のカテゴリと、を含んでいる。具体的に、第1のカテゴリは、教師画像Tにおいて支配的な画像領域を占める背景のカテゴリとなっており、第2のカテゴリよりも大きな画像領域となっている。換言すれば、第1のカテゴリは、教師画像Tにおいて出現頻度の高いメジャーとなるカテゴリである。第2のカテゴリは、教師画像Tにおいて非支配的な画像領域となる前景のカテゴリとなっており、第1のカテゴリよりも小さな画像領域となっている。換言すれば、第2のカテゴリは、教師画像Tにおいて出現頻度の低いマイナーとなるカテゴリである。
クロッピング処理では、第2のカテゴリの画像領域を含むように、学習画像G及び教師画像Tから、選択学習画像G1~G3及び選択教師画像T1~T3を抽出する。具体的に、クロッピング処理では、先ず、教師画像Tに基づいて、選択教師画像の画像領域をクロッピングする。クロッピング処理を行う場合、入力情報としては、教師画像T、教師画像Tの各ピクセルに付されている入力ラベル、クロッピングされる選択教師画像T1~T3の画像サイズ、教師画像Tの画像サイズ、学習対象となるカテゴリが入力される。そして、クロッピング処理では、入力されたカテゴリに対応する、教師画像Tにおける入力ラベルのラベル値を全て抽出する。この後、クロッピング処理では、抽出したラベル値の中から、ランダムに一つのラベル値を選択し、このラベル値に対応するピクセルを含むように、選択教師画像T1~T3を抽出する。また、クロッピング処理では、抽出した選択教師画像T1~T3の画像領域と同じ位置となる、選択学習画像G1~G3を抽出する。なお、選択学習画像G1~G3及び選択教師画像T1~T3の画像領域の大きさは、背景のカテゴリと前景のカテゴリとの不均衡が解消される大きさとなっており、また、抽出される画像の特徴と画像に対する人間の認識との隔たり、つまり、セマンティックギャップが生じないような大きさとなっている。
続いて、制御部5は、クロッピング処理した選択教師画像T1~T3と選択学習画像G1~G3とを用いて、画像認識部7による画像学習を行うステップS2~S8(第2のステップ)を実行する。具体的に、制御部5は、クロッピング処理した選択学習画像G1~G3を画像認識装置1の画像認識部7に入力する(ステップS2)。選択学習画像G1~G3が入力されると、画像認識部7は、選択学習画像G1~G3を入力画像Iとして、選択学習画像G1~G3に対してエンコード処理を実行する(ステップS3)。画像認識部7は、エンコード処理を実行することで、ダウンサンプリングされた特徴量を含む低解像度の特徴マップを生成する。画像認識部7は、ダウンサンプリングされた低解像度の特徴量を含む特徴マップに対してデコード処理を実行する(ステップS4)。画像認識部7は、デコード処理を実行することで、特徴量を含む特徴マップを復元しながらアップサンプリングして、選択学習画像G1~G3と同じ解像度とする。そして、画像認識部7は、画像をピクセル単位でクラスごとに領域分割するクラス推論を実行する(ステップS5)。画像認識部7は、クラス推論の結果として、出力画像Oを取得する(ステップS6)。
次に、画像認識部7の学習を行う処理では、選択教師画像T1~T3に対する出力画像Oの誤差を取得するステップ(ステップS7)を実行する。
つまり、ステップS7において、画像認識部7は、出力画像Oを取得すると、抽出した選択教師画像T1~T3を取得する。画像認識部7は、取得した選択教師画像T1~T3と出力画像Oとから、選択教師画像T1~T3と出力画像Oとの誤差量を算出する。
そして、画像認識部7の学習を行う処理では、誤差に基づいて、画像認識部7による画像セグメンテーションを修正するステップ(ステップS8)を実行する。
具体的に、画像認識部7は、誤差を取得すると、誤差量に基づいて誤差逆伝播法によりネットワークにおける誤差が修正されるように、ネットワークの畳み込み層及び逆畳み込み層の重みを学習させ、ネットワークを更新する(ステップS8)。画像認識部7は、ステップS8の実行により、学習データセットDを用いた学習を終了する。そして、画像認識部7は、ステップS2からステップS8を、学習データセットDから抽出した選択教師画像T1~T3と選択学習画像G1~G3とのセット数に応じて繰り返し実行する。
以上のように、実施形態に係る画像認識装置1の学習では、教師画像T及び学習画像Gに対してクロッピング処理を行うことで抽出される選択教師画像T1~T3及び選択学習画像G1~G3を用いることができる。このとき、選択教師画像T1~T3及び選択学習画像G1~G3に、第2(前景)のカテゴリの画像領域を含ませることができる。このため、選択教師画像T1~T3及び選択学習画像G1~G3において、カテゴリ間における出現頻度の不均衡を是正することができるため、第2のカテゴリに関する画像学習を適切に進めることができる。
また、実施形態に係る画像認識装置1の学習では、画像セグメンテーションとしてFCNに基づく処理を行うことができる。このため、学習時において用いた選択学習画像G1~G3及び選択教師画像T1~T3の画像サイズと、学習後の画像認識時における入力画像Iの画像サイズとが異なる場合であっても、画像セグメンテーションを適切に実行することが可能となる。
1 画像認識装置
5 制御部
6 記憶部
7 画像認識部
22 エンコーダ
23 デコーダ
I 入力画像
O 出力画像
P 画像学習プログラム
D 学習データセット
G 学習画像
T 教師画像
G1~G3 選択学習画像
T1~T3 選択教師画像

Claims (4)

  1. 画像セグメンテーションを行う画像認識装置によって実行される画像学習プログラムであって、
    前記画像認識装置の学習に用いられる学習データセットは、
    前記画像認識装置の学習対象の画像となる学習画像と、
    前記学習画像に対応する教師画像と、を含み、
    前記教師画像は、複数のカテゴリの画像領域を含み、
    複数の前記カテゴリは、前記教師画像中において支配的な画像領域を占める出現頻度の高いカテゴリである第1のカテゴリと、前記第1のカテゴリよりも非支配的な画像領域となる出現頻度の低いカテゴリである第2のカテゴリと、を含み、
    前記画像認識装置に、
    前記教師画像よりも小さな画像領域となる選択教師画像を、前記教師画像から抽出すると共に、前記選択教師画像に対応する選択学習画像を、前記学習画像から抽出する第1のステップと、
    前記第1のステップにより抽出した前記選択学習画像及び前記選択教師画像を用いて画像学習を行う第2のステップと、を実行させ、
    前記第1のステップでは、前記第2のカテゴリの画像領域を含むように、前記学習画像及び前記教師画像から、前記選択学習画像及び前記選択教師画像を抽出する画像学習プログラム。
  2. 前記第2のステップでは、
    前記選択学習画像に対して前記画像セグメンテーションを行って、出力画像を取得するステップと、
    前記選択教師画像に対する前記出力画像の誤差を取得するステップと、
    前記誤差に基づいて、前記画像セグメンテーションの処理を修正するステップと、
    を実行させており、
    前記画像セグメンテーションは、FCN(Fully Convolutional Network)に基づく処理である請求項1に記載の画像学習プログラム。
  3. 画像セグメンテーションを行う画像認識装置が実行する画像学習方法であって、
    前記画像認識装置の学習に用いられる学習データセットは、
    前記画像認識装置の学習対象の画像となる学習画像と、
    前記学習画像に対応する教師画像と、を含み、
    前記教師画像は、複数のカテゴリの画像領域を含み、
    複数の前記カテゴリは、前記教師画像中において支配的な画像領域を占める出現頻度の高いカテゴリである第1のカテゴリと、前記第1のカテゴリよりも非支配的な画像領域となる出現頻度の低いカテゴリである第2のカテゴリと、を含み、
    前記画像認識装置は、
    前記教師画像よりも小さな画像領域となる選択教師画像を、前記教師画像から抽出すると共に、前記選択教師画像に対応する選択学習画像を、前記学習画像から抽出する第1のステップと、
    前記第1のステップにより抽出した前記選択学習画像及び前記選択教師画像を用いて画像学習を行う第2のステップと、を実行し、
    前記第1のステップでは、前記第2のカテゴリの画像領域を含むように、前記学習画像及び前記教師画像から、前記選択学習画像及び前記選択教師画像を抽出する画像学習方法。
  4. 画像セグメンテーションを行う画像認識装置であって、
    前記画像認識装置の学習に用いられる学習データセットは、
    前記画像認識装置の学習対象の画像となる学習画像と、
    前記学習画像に対応する教師画像と、を含み、
    前記教師画像は、複数のカテゴリの画像領域を含み、
    複数の前記カテゴリは、前記教師画像中において支配的な画像領域を占める出現頻度の高いカテゴリである第1のカテゴリと、前記第1のカテゴリよりも非支配的な画像領域となる出現頻度の低いカテゴリである第2のカテゴリと、を含み、
    前記教師画像よりも小さな画像領域となる選択教師画像を、前記教師画像から抽出すると共に、前記選択教師画像に対応する選択学習画像を、前記学習画像から抽出する画像抽出部と、
    出した前記選択学習画像及び前記選択教師画像を用いて画像学習を行う画像認識部と、を備え、
    前記画像抽出部は、前記第2のカテゴリの画像領域を含むように、前記学習画像及び前記教師画像から、前記選択学習画像及び前記選択教師画像を抽出する画像認識装置。
JP2019104825A 2019-06-04 2019-06-04 画像学習プログラム、画像学習方法、及び画像認識装置 Active JP7210380B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019104825A JP7210380B2 (ja) 2019-06-04 2019-06-04 画像学習プログラム、画像学習方法、及び画像認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019104825A JP7210380B2 (ja) 2019-06-04 2019-06-04 画像学習プログラム、画像学習方法、及び画像認識装置

Publications (2)

Publication Number Publication Date
JP2020197999A JP2020197999A (ja) 2020-12-10
JP7210380B2 true JP7210380B2 (ja) 2023-01-23

Family

ID=73648106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019104825A Active JP7210380B2 (ja) 2019-06-04 2019-06-04 画像学習プログラム、画像学習方法、及び画像認識装置

Country Status (1)

Country Link
JP (1) JP7210380B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020003434A1 (ja) 2018-06-28 2020-01-02 株式会社島津製作所 機械学習方法、機械学習装置、及び機械学習プログラム
JP2020154602A (ja) 2019-03-19 2020-09-24 日本製鉄株式会社 能動学習方法及び能動学習装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020003434A1 (ja) 2018-06-28 2020-01-02 株式会社島津製作所 機械学習方法、機械学習装置、及び機械学習プログラム
JP2020154602A (ja) 2019-03-19 2020-09-24 日本製鉄株式会社 能動学習方法及び能動学習装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Jun Fu;Jing Liu;Yuhang Wang;Jin Zhou;Changyong Wang;Hanqing Lu,Stacked Deconvolutional Network for Semantic Segmentation,IEEE Transactions on Image Processing,IEEE,2019年01月25日,pp.1-13,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8626494
薮崎 隼人 他,畳み込みニューラルネットワークを用いた脂肪細胞セグメンテーションにおける分割精度改善手法の提案,情報処理学会 研究報告 数理モデル化と問題解決(MPS),日本,情報処理学会,2017年02月20日,Vol.2017-MPS-112 No.27,pp.1-6

Also Published As

Publication number Publication date
JP2020197999A (ja) 2020-12-10

Similar Documents

Publication Publication Date Title
CN109376681B (zh) 一种多人姿态估计方法及系统
US20210350168A1 (en) Image segmentation method and image processing apparatus
CN110176027B (zh) 视频目标跟踪方法、装置、设备及存储介质
CN109325954B (zh) 图像分割方法、装置及电子设备
CN105981051B (zh) 用于图像解析的分层互连多尺度卷积网络
CN111178211A (zh) 图像分割方法、装置、电子设备及可读存储介质
CN108229490A (zh) 关键点检测方法、神经网络训练方法、装置和电子设备
CN111275034B (zh) 从图像中提取文本区域的方法、装置、设备和存储介质
CN110781980B (zh) 目标检测模型的训练方法、目标检测方法及装置
CN110991560A (zh) 一种结合上下文信息的目标检测方法及系统
JP4567660B2 (ja) 電子画像内で物体のセグメントを求める方法
CN112836653A (zh) 人脸隐私化方法、设备、装置及计算机存储介质
JP7210380B2 (ja) 画像学習プログラム、画像学習方法、及び画像認識装置
CN111738069A (zh) 人脸检测方法、装置、电子设备及存储介质
JP7148462B2 (ja) 画像認識評価プログラム、画像認識評価方法、評価装置及び評価システム
CN113192060B (zh) 一种图像分割的方法、装置、电子设备及存储介质
Ong et al. Efficient deep learning-based wound-bed segmentation for mobile applications
JP2020038572A (ja) 画像学習プログラム、画像学習方法、画像認識プログラム、画像認識方法、学習データセットの生成プログラム、学習データセットの生成方法、学習データセット、及び画像認識装置
CN113744141B (zh) 图像的增强方法、装置和自动驾驶的控制方法、装置
US11797854B2 (en) Image processing device, image processing method and object recognition system
JP7238510B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN109961083B (zh) 用于将卷积神经网络应用于图像的方法和图像处理实体
CN112861860A (zh) 一种基于上下边界提取的自然场景下文字检测方法
JP7542396B2 (ja) 物体認識装置、物体認識システム、学習方法、物体認識装置の物体認識方法、学習プログラム及び物体認識装置の物体認識プログラム
KR102436197B1 (ko) 이미지 객체 검출 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230111

R150 Certificate of patent or registration of utility model

Ref document number: 7210380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150