JP2019197445A - 画像認識装置、画像認識方法、およびプログラム - Google Patents

画像認識装置、画像認識方法、およびプログラム Download PDF

Info

Publication number
JP2019197445A
JP2019197445A JP2018091882A JP2018091882A JP2019197445A JP 2019197445 A JP2019197445 A JP 2019197445A JP 2018091882 A JP2018091882 A JP 2018091882A JP 2018091882 A JP2018091882 A JP 2018091882A JP 2019197445 A JP2019197445 A JP 2019197445A
Authority
JP
Japan
Prior art keywords
block
blocks
image recognition
convolution
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018091882A
Other languages
English (en)
Other versions
JP6935868B2 (ja
Inventor
豪 入江
Takeshi Irie
豪 入江
清晴 相澤
Kiyoharu Aizawa
清晴 相澤
章人 竹木
Akito Takeki
章人 竹木
伊神大貴
Daiki Igami
大貴 伊神
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
University of Tokyo NUC
Original Assignee
Nippon Telegraph and Telephone Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, University of Tokyo NUC filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018091882A priority Critical patent/JP6935868B2/ja
Publication of JP2019197445A publication Critical patent/JP2019197445A/ja
Application granted granted Critical
Publication of JP6935868B2 publication Critical patent/JP6935868B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】畳み込みニューラルネットワークのパラメータ数を増加させることなく、画像認識を精度よく行うことができるようにする。【解決手段】画像認識装置100は、少なくとも一つの畳み込み層と、当該畳み込み層の出力を、所定の2方向に対して相互排反である1以上のブロックに分割し、当該1以上のブロックの各々について、当該ブロックに含まれる当該畳み込み層の出力を、当該ブロック内における位置に応じて相互排反な複数のサブブロックに分割し、全てのブロックにわたり、当該位置が対応するサブブロックに含まれる要素の値を集約して、当該複数のサブブロックの各々における集約結果を出力するプーリング層とを含む畳み込みニューラルネットワークを用いて画像認識を行う。【選択図】図1

Description

本発明は、画像認識装置、画像認識方法、およびプログラムに係り、特に、畳み込みニューラルネットワークによる画像認識を精度よく行うための画像認識装置、画像認識方法、およびプログラムに関する。
画像認識は、入力された画像に対して、その内容に関するラベルを出力する問題である。ラベルは様々なものがあり得るが、多くは画像中に写る物体や場所、シーンの名称が代表的である。
例えば、犬が写る画像が入力された場合、画像認識技術は「犬」というラベルを出力することが期待される。
画像認識技術の性能は、入力された画像に対して、いかに正確に期待される(正しい)ラベルを出力できるかにより議論され、より正しいラベルを出力できるものほど高精度であるとされる。
画像は、RGBの画素を要素としたテンソルにより構成されているが、このような低レベル(物理信号レベル)な情報と、高レベルな意味的なラベルとの間には大きな隔たりがあるため、画像を入力としてそのまま高精度な認識を実行する(つまり、正確なラベルを出力する)認識器を学習することは困難であると考えられていた。
しかしながら、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)を認識器として用いることで、このような画素の配列から直接ラベルを出力するような学習をしても、高精度な認識ができることが実証された(非特許文献1)。以降、画像認識精度について、CNNによる飛躍的な改善が報告されている。
一般に、CNNによる画像認識の認識精度は様々な要因に依存することが知られている。
前提として、CNNによる画像認識では、事前に認識したいラベルについて、それが正解となるような画像の集合(学習用画像と呼ぶ)を基にCNNを学習する必要がある。したがって、認識精度は学習用画像の質と量に依存する。
また、認識精度に大きく作用する要因としてCNNの構造が挙げられる。通常、CNNは、比較的単純な処理を行う数種類の作用素(層、レイヤなどと呼ばれる)を、幾層にも積み重ねて実現される。
例えば、代表的なものに畳み込み層やプーリング層、全結合層などが存在する。
畳み込み層は、入力されたテンソルに対して、高さ×幅方向に一定の大きさを持つ畳み込みフィルタを適用する層である(非特許文献1参照)。何種類のフィルタを持つかは任意であり、設計者により設計される。
畳み込み層はパラメータとして畳み込みフィルタの重みを有しており、これはデータに基づいて学習される。
また、一般に学習すべきパラメータを持たない層としてプーリング層が知られている。入力テンソルに対して高さ×幅方向に一定の大きさを持つ“フィルタ”を適用する点では畳み込み層と同様であるが、プーリング層は当該大きさの範囲に対して、最大の値を出力する(最大値プーリング)、平均値を出力する(平均値プーリング)等、固定的かつ単純な作用を適用する点で異なる。
特に、パラメータ数を増加させずに入力テンソルの大きさを減少させたい場合などに利用される。
CNNの性能は、これら畳み込み層やプーリング層をどのように構成し、配置するかによって左右される。
基本的なCNNの設計指針は、全体のパラメータ数を抑えつつ、精度の高い認識が可能にすることであり、従来から、配置に関する研究の他、畳み込み層やプーリング層自体を改善することを試みる研究が進められてきている。
例えば、非特許文献2では、残差ブロックと呼ばれる畳み込み層の変形が開示されている。
ある入力テンソルがあった場合に、残差ブロックは、特定の畳み込み層を適用して出力するパスと、何の作用も適用せずにそのまま入力テンソルを出力するパスとを持ち、これら2種の出力の足し合わせを最終的な出力とする。
すなわち、元の入力テンソルに対する差分を、畳み込み層に学習させることを狙っている。
また、非特許文献3では、Dilated Convolutionと呼ばれる畳み込み層の亜種が開示されている。
通常の畳み込み層では、畳み込みフィルタは、高さ・幅方向に連続する一部領域に対して適用されるが、Dilated Convolutionでは一定間隔を開けた不連続な領域に適用される。
この工夫により、パラメータ数を増加させることなく、より入力テンソルの広い範囲に作用させることができるようになっている。
特に、画像はマルチスケール性、すなわち、同じ物体でも大きく写っている場合もあれば小さく写っている場合もあるという性質があり、様々な大きさをカバーできるような処理系が好ましく、また、より広い範囲を処理することで、複数の物体間の関係性を考慮することもできるという効果が期待できる。
また、特許文献1に開示されている技術では、CNNと再帰型ニューラルネット(Recurrent Neural Net:RNN)を組み合わせて用いる映像認識方法が開示されている。
特開2017−111660号公報
Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton, "ImageNet Classification with Deep Convolutional Neural Networks." In Proc. Advances in Neural Information Processing Systems (NIPS), 2012, Pages. 1097-1105. Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun, "Deep Residual Learning for Image Recognition." In Proc. Conference on Computer Vision & Pattern Recognition (CVPR) , 2016, Pages. 770-778. Fisher Yu, Vladlen Koltun, "Multi-Scale Context Aggregation by Dilated Convolutions." In Proc. International Conference on Learning Representations, arXiv:1511.07122, インターネット<URL:https://arxiv.org/abs/1511.07122>, 2015.
CNNを用いた画像認識では、パラメータ数を増加させずに精度を保つことが重要な指針となる。非特許文献1では、畳み込み層の他、基本的なプーリング層である最大値プーリングが開示されており、これらの組み合わせによりCNNが構成されている。
しかし、最大値プーリングはパラメータこそ持たないものの、入力されたテンソルのサイズを単純に小さくするだけであり、情報の欠損を引き起こしてしまうため、精度を保つという観点では望ましい性能を発揮しない、という問題があった。
また、非特許文献2に開示されている残差ブロックは大きな精度改善をもたらすことが知られているものの、パラメータを持つ畳み込み層の積み重ねを新たに導入する必要があるものであるため、パラメータ数の増加が避けられない、という問題があった。
また、非特許文献3に開示されているDilated Convolutionは、通常のCNNに組み込まれる畳み込み層とパラメータ数を変えずに、入力テンソルのより広い範囲の情報を用いた処理ができる技術である。一方で、間隔を空けた畳み込み層により、近接する画素間の関係性をうまく捉えることができないことがデメリットとして知られており、どのような場合であっても精度が改善できるわけではない、という問題があった。
特許文献1に開示されている技術は、映像認識においてRNNとCNNを組み合わせたものである。RNN自体は、少ないパラメータ数で再帰的処理を実現する処理ブロックと見做すこともできるが、通常は映像のような時系列データへの適用が主であり、静的な画像認識に適用した場合の精度改善効果は限定的である、という問題があった。
本発明は上記の点に鑑みてなされたものであり、畳み込みニューラルネットワークのパラメータ数を増加させることなく、画像認識を精度よく行うことができる画像認識装置、画像認識方法、およびプログラムを提供することを目的とする。
本発明に係る画像認識装置は、入力された1以上のチャネルを有する画像に対して、畳み込みニューラルネットワークを用いた画像認識を行う画像認識装置であって、前記畳み込みニューラルネットワークは、少なくとも一つの畳み込み層と、前記畳み込み層の出力を、所定の2方向に対して相互排反である1以上のブロックに分割し、前記1以上のブロックの各々について、前記ブロックに含まれる前記畳み込み層の出力を、前記ブロック内における位置に応じて相互排反な複数のサブブロックに分割し、全てのブロックにわたり、前記位置が対応するサブブロックに含まれる要素の値を集約して、前記複数のサブブロックの各々における集約結果を出力するプーリング層と、を備えて構成される。
また、本発明に係る画像認識方法は、入力された1以上のチャネルを有する画像に対して、畳み込みニューラルネットワークを用いた画像認識を行う画像認識方法であって、前記畳み込みニューラルネットワークは、少なくとも一つの畳み込み層と、前記畳み込み層の出力を、所定の2方向に対して相互排反である1以上のブロックに分割し、前記1以上のブロックの各々について、前記ブロックに含まれる前記畳み込み層の出力を、前記ブロック内における位置に応じて相互排反な複数のサブブロックに分割し、全てのブロックにわたり、前記位置が対応するサブブロックに含まれる要素の値を集約して、前記複数のサブブロックの各々における集約結果を出力するプーリング層と、を含む。
本発明に係る画像認識装置及び画像認識方法によれば、入力された1以上のチャネルを有する画像に対して、畳み込みニューラルネットワークを用いた画像認識を行う。
そして、当該畳み込みニューラルネットワークは、少なくとも一つの畳み込み層と、当該畳み込み層の出力を、所定の2方向に対して相互排反である1以上のブロックに分割し、当該1以上のブロックの各々について、当該ブロックに含まれる当該畳み込み層の出力を、当該ブロック内における位置に応じて相互排反な複数のサブブロックに分割し、全てのブロックにわたり、当該位置が対応するサブブロックに含まれる要素の値を集約して、当該複数のサブブロックの各々における集約結果を出力するプーリング層とを含む。
このように、少なくとも一つの畳み込み層と、当該畳み込み層の出力を、所定の2方向に対して相互排反である1以上のブロックに分割し、当該1以上のブロックの各々について、当該ブロックに含まれる当該畳み込み層の出力を、当該ブロック内における位置に応じて相互排反な複数のサブブロックに分割し、全てのブロックにわたり、当該位置が対応するサブブロックに含まれる要素の値を集約して、当該複数のサブブロックの各々における集約結果を出力するプーリング層とを含む畳み込みニューラルネットワークを用いて画像認識を行うことにより、畳み込みニューラルネットワークのパラメータ数を増加させることなく、画像認識を精度よく行うことができる。
また、本発明に係る画像認識装置の前記所定の2方向は、幅方向及び高さ方向であり、前記ブロックは、幅及び高さが同一であり、かつ、前記幅及び前記高さの値が2のべき乗であり、前記複数のサブブロックは、前記ブロックを、前記ブロック内における左上、左下、右上、及び右下の各位置に応じて相互排反な複数のサブブロックに分割したものであるとすることができる。
また、本発明に係る画像認識方法の前記所定の2方向は、幅方向及び高さ方向であり、前記ブロックは、幅及び高さが同一であり、かつ、前記幅及び前記高さの値が2のべき乗であり、前記複数のサブブロックは、前記ブロックを、前記ブロック内における左上、左下、右上、及び右下の各位置に応じて相互排反な複数のサブブロックに分割したものである。
また、本発明に係る画像認識装置の前記畳み込みニューラルネットワークは、複数の畳み込み層を含み、前記複数の畳み込み層では、共通のパラメータを用いることができる。
また、本発明に係る画像認識方法の前記畳み込みニューラルネットワークは、複数の畳み込み層を含み、前記複数の畳み込み層では、共通のパラメータを用いる。
本発明に係るプログラムは、上記の画像認識装置の各部として機能させるためのプログラムである。
本発明の画像認識装置、画像認識方法、およびプログラムによれば、畳み込みニューラルネットワークのパラメータ数を増加させることなく、画像認識を精度よく行うことができる。
本発明の実施の形態に係る画像認識装置の構成を示すブロック図である。 本発明の実施の形態に係る画像認識装置のブロック集約部の処理の一例を示すイメージ図である。 本発明の実施の形態に係る画像認識装置のブロック集約部の処理の一例を示すイメージ図である。 本発明の実施の形態に係る画像認識装置のブロック畳み込み部の処理の一例を示すイメージ図である。 本発明の実施の形態に係る画像認識装置の認識処理部の処理の一例を示すイメージ図である。 本発明の実施の形態に係る画像認識装置の画像認識処理ルーチンを示すフローチャートである。 本発明の実施の形態に係る画像認識装置の実験結果を示す図である。 本発明の実施の形態に係る画像認識装置の実験結果を示す図である。 本発明の実施の形態に係る画像認識装置の実験結果を示す図である。 本発明の実施の形態に係る画像認識装置の実験結果を示す図である。 本発明の実施の形態に係る画像認識装置の実験結果を示す図である。
以下、本発明の実施の形態について図面を用いて説明する。
<本発明の実施の形態に係る画像認識装置の概要>
まず、本発明の実施形態の概要について説明する。
本実施形態に係る画像認識装置は、少なくとも一つの畳み込み層と、当該畳み込み層の出力を、所定の2方向に対して相互排反である1以上のブロックに分割し、当該1以上のブロックの各々について、当該ブロックに含まれる当該畳み込み層の出力を、当該ブロック内における位置に応じて相互排反な複数のサブブロックに分割し、全てのブロックにわたり、当該位置が対応するサブブロックに含まれる要素の値を集約して、当該複数のサブブロックの各々における集約結果を出力するプーリング層とを含む畳み込みニューラルネットワーク(CNN)を用いて画像認識を行う。
当該プーリング層は、パラメータを持たない新たなプーリング層でありながら、最大値プーリング等とは異なり、一切の情報欠損を起こすことが無い。これにより、本実施形態に係る画像認識装置は、画像認識の安定した精度改善効果を得ることができる。
また、当該プーリング層は、当該位置が対応するサブブロックに含まれる要素の値を集約した複数のテンソルを出力する。そして、複数の出力テンソルの各々に対して、共通のパラメータを用いる畳み込み層を適用することで、全体としてもパラメータ数増加の無いCNNを構成することが可能である。
すなわち、本実施形態に係る画像認識装置は、当該CNNを用いて画像認識を行うことにより、パラメータ数を増加させることなく、画像認識を精度よく行うことができる。
<本発明の実施の形態に係る画像認識装置の構成>
図1を参照して、本発明の実施の形態に係る画像認識装置100の構成について説明する。図1は、本発明の実施の形態に係る画像認識装置100の構成を示すブロック図である。
画像認識装置100は、CPUと、RAMと、後述する画像認識処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。
図1に示すように、本実施形態に係る画像認識装置100は、CNN記憶部101と、入力部102と、畳み込み部103と、第一ブロック集約部104と、第一ブロック畳み込み部105と、第二ブロック集約部106と、第二ブロック畳み込み部107と、認識処理部108と、出力部109とを備えて構成される。
本実施形態のCNNは、畳み込み部103により計算される畳み込み層、第一ブロック集約部104により計算されるプーリング層、第一ブロック畳み込み部105により計算される畳み込み層、第二ブロック集約部106により計算されるプーリング層、第二ブロック畳み込み部107により計算される畳み込み層、及び認識処理部108により計算される出力層により構成される。また、出力層は、Global Ave. Pooling(GAP)層、全結合層、及びソフトマックス関数により構成される。
第一ブロック集約部104により計算されるプーリング層と、第二ブロック集約部106により計算されるプーリング層とは同一の構成である。
また、第一ブロック畳み込み部105により計算される畳み込み層と、第二ブロック畳み込み部107により計算される畳み込み層とは同一の構成である。
CNN記憶部101は、CNNの各層の学習済みパラメータを記憶している。
具体的には、CNN記憶部101は、畳み込み部103、第一ブロック集約部104、第一ブロック畳み込み部105、第二ブロック集約部106、第二ブロック畳み込み部107、及び認識処理部108の各々が用いるCNNの各層(複数の畳み込み層、複数のプーリング層、及び出力層)のパラメータを記憶している。本実施形態では、畳み込み部103、第一ブロック畳み込み部105、及び第二ブロック畳み込み部107の各々が用いる畳み込み層のパラメータを同一のものとする。
なお、画像認識処理を実行する際には、画像認識装置100を構成するCNNは学習済みであることが一般的であり、本実施形態でも学習済みのCNNを利用することを前提に説明を進めるが、後述のプーリング層及び畳み込み層の構成及び処理は、CNNが学習済みであるかないかに関わらず同一であるため、特に区別しない。
入力部102は、1以上のチャネルを有する画像110の入力を受け付ける。
具体的には、入力部102は、画像110を、外部からの通信により入力を受け付ける。通信手段は任意のものを用いることができるが、本実施形態においては、インターネット、TCP/IPにより通信するよう接続されているものとする。
そして、入力部102は、受け付けた画像110を、畳み込み部103に渡す。
畳み込み部103は、入力部102が受け付けた画像110に対して、CNNの畳み込み層の処理を実行する。
具体的には、畳み込み部103は、入力された画像110に対して、CNN記憶部101から取得した畳み込み層のパラメータを用いて、当該畳み込み層を適用した結果であるテンソルを得る。
ここで、畳み込み層は、従来の畳み込み層を用いてよい(非特許文献1〜3)。
なお、画像110は、3次元(3階)テンソルとして表現することができ、実態として入力される画像110は、任意の大きさを持つ3次元テンソルで構わない。
また、畳み込み層は1層である必要はなく、複数の畳み込み層を含むように構成しても構わない。畳み込み層の入出力は共に3次元テンソルであるため、何層で構成してもその後の処理は実行可能である。
また、畳み込み部103は、結果的に最終的な出力が3次元テンソルであれば、必ずしも畳み込み層だけによって構成されている必要はない。例えば、非特許文献1〜3に記載の全結合層や最大値プーリング層、Rectified Linear Unit(ReLU)等の活性化関数、バッチ正規化等、任意の公知の層や処理要素を介在させても構わない。
そして、畳み込み部103は、畳み込み層により得られたテンソルを、第一ブロック集約部104に渡す。
第一ブロック集約部104は、畳み込み層の出力を、所定の2方向に対して相互排反である1以上のブロックに分割し、当該1以上のブロックの各々について、当該ブロックに含まれる当該畳み込み層の出力を、当該ブロック内における位置に応じて相互排反な複数のサブブロックに分割し、全てのブロックにわたり、当該位置が対応するサブブロックに含まれる要素の値を集約して、当該複数のサブブロックの各々における集約結果を出力するプーリング層の処理を計算する。
具体的には、第一ブロック集約部104は、畳み込み層の出力である3次元テンソルが入力されると、CNN記憶部101から取得したプーリング層のパラメータを用いたプーリング層を適用し、4つの小さな3次元テンソルに分割して出力する。
例えば、畳み込み部103の畳み込み層から出力された3次元テンソルXがあり、そのサイズ(高さ・幅・深さ/チャネル数)がH×W×Cであるとする。第一ブロック集約部104は、このテンソルXにプーリング層を適用して、各々サイズがH/2×W/2×Cであるような4つの小さなテンソルに分割して出力する。
より具体的には、まず、第一ブロック集約部104は、畳み込み部103により得られたテンソルに対して、4つのテンソルに分割する。分割の仕方を、図2を用いて説明する。ここで、簡単のため、本実施形態では当該プーリング層に入力されるテンソルのサイズが4×4×1の場合について示すが、その他のサイズの場合であっても同様である。
第一ブロック集約部104は、プーリング層を適用することにより、大まかに図2の(1)〜(3)の3つの処理を実行する。まず、入力テンソルを、高さ及び幅方向に対して、2×2×1のサイズの相互排反なブロックに分割する(図2(1))。図2の例では4つのブロックに分割しているが、いくつのブロックに分割されるかは、入力テンソルとブロックのサイズに依存する。
例えば、入力テンソルのサイズが8×8×1で、ブロックのサイズを2×2とするならば、16個のブロックに分割される。なお、分割されたブロックのそれぞれも3次元テンソルである。
次に、第一ブロック集約部104は、各ブロックの要素について、その要素がブロック内のどの位置にあるか、より具体的には、左上、左下、右上、右下の4種類のどの位置にあるかに基づいてサブブロックに分割する(図2(2))。図2の例では、左上は黒、左下は濃いグレー、右上は薄いグレー、右下は白で示している。
最後に、第一ブロック集約部104は、全てのブロックについて、同位置のサブブロックに属する要素(図2では同色の要素)を集約し、最終的に4種の小さいテンソルを構成して出力する(図2(3))。
なお、図2の例では、分割する際のブロックのサイズを2×2×Cとしたが、これに限られるものではない。望ましくは正方形で、一辺の大きさnが2のべき乗(すなわち、n×n×Cで、nが2のべき乗)になるようなブロックサイズを用いる。
例えば、図3に、入力テンソルのサイズが8×8×1で、これをサイズ4×4×1のブロックに分割する場合の例を図示する。この場合、図2の例とは異なり、各ブロック内のサブブロックは各々2×2×1のサイズを持つことになる。いずれにしても、サイズH×W×Cの入力テンソルを、サイズH/2×W/2×Cの小さなテンソルに4分割して出力することに変わりはない。
第一ブロック集約部104の処理は、通常のプーリング層と同様、学習が必要なパラメータを一切持たないため、ネットワーク全体のパラメータ数になんら影響を及ぼさない点で好ましい性質を持つ。
また、通常のプーリング層(最大値プーリング層や平均値プーリング層など)が、入力テンソルの情報を損失してしまうのに対して、第一ブロック集約部104で適用するプーリング層は、元の入力テンソルの情報を一切損失しないという特徴を持つ。
したがって、第一ブロック集約部104で適用するプーリング層は、パラメータ数を一切増加させることなく、さらに情報損失を引き起こさずに後の畳み込み層に情報を伝達することができるため、高い認識精度を保持することができるという利点がある。
そして、第一ブロック集約部104は、当該プーリング層の出力である4つのテンソルを、第一ブロック畳み込み部105に渡す。
第一ブロック畳み込み部105は、第一ブロック集約部104により得られる複数のテンソルの各々に対して、畳み込み層を適用する処理を行う。
具体的には、第一ブロック畳み込み部105は、複数のテンソルの各々について、当該テンソルに対し、CNN記憶部101から取得した畳み込み層のパラメータを用いた畳み込み層を適用して、当該畳み込み層を適用した結果であるテンソルを得る(図4)。
第一ブロック畳み込み層105が適用する畳み込み層と、通常の畳み込み層(例えば、畳み込み部103)との違いは、各テンソルに適用する畳み込み層は全て同一のもの、つまり、同一のパラメータを持つ畳み込み層であるということである。
すなわち、第一ブロック畳み込み層105が適用する畳み込み層を用いることで、通常の畳み込み層のみを用いる場合と比してパラメータ数が増加しない。
また、第一ブロック集約部104で適用するプーリング層は、入力テンソルの情報を損失無く伝達することができるが、第一ブロック畳み込み層105が適用する畳み込み層では、伝達された全ての情報に対して畳み込み処理を適用するため、豊富な情報源を活かした処理ができる構成となっている。すなわち、結果として高い認識精度を保つ効果をより大きく享受できるようになる。
そして、第一ブロック畳み込み部105は、複数のテンソルについて、それぞれ当該畳み込み層を適用して得られた複数のテンソルを、第二ブロック集約部106に渡す。
第二ブロック集約部106及び第二ブロック畳み込み部107では、第一ブロック集約部104及び第一ブロック畳み込み部105と同様に、第一ブロック畳み込み部105により得られた複数のテンソルの各々について、当該テンソルに対してプーリング層及び畳み込み層を適用する処理を実行する。
第二ブロック集約部106では、複数のテンソルの各々について、当該テンソルに対してプーリング層を適用する処理を実行するため、テンソル1つあたり4つの小さいテンソルに分割されることになる。
このため、第二ブロック集約部106での処理の終了時点では4×4=16個の小さいテンソルが出力されることになる。
第二ブロック畳み込み部107は、全てのテンソルに対して常に同一のパラメータを持つ畳み込み層を適用する。つまり、16個の小さいテンソルに対して全て同一の畳み込み層を適用する。
なお、プーリング層・畳み込み層をさらに繰り返す構成とした場合も、同様であり、この処理原理は変わらない。
そして、第二ブロック畳み込み部107は、複数のテンソルについて、当該畳み込み層を適用して得られた複数のテンソルを、認識処理部108に渡す。
認識処理部108は、第二ブロック畳み込み部107により得られた複数のテンソルに基づいて、画像認識処理を行う。
具体的には、認識処理部108は、GAP層を適用して、第二ブロック畳み込み部107により得られた複数のテンソルを、一つのベクトルに集約し、集約したベクトルに対して、CNN記憶部101から取得した全結合層及びソフトマックス関数のパラメータを用いた全結合層及びソフトマックス関数を適用し、ベクトルである認識結果120を求める。
一つのベクトルに集約するGAP層の適用では、例えば、非特許文献2に記載のGlobal Average Pooling(GAP)処理等を用いる。
なお、このベクトルの各要素は、事前に学習したクラスへの帰属確率(スコア)を表すものであり、ある要素の値が大きいほど、入力された画像110がその要素に対応するクラスへの帰属確率が高いと見做すことができる(非特許文献2)。
図5を用いて認識処理部108の処理の流れを説明する。認識処理部108は、畳み込み層の出力である複数のテンソルを受け取ると、次の3ステップの処理によって構成される。
まず、複数のテンソルに対してGAP層を適用して一本のベクトルに変換する。次に、当該ベクトルに対して全結合層を適用して、認識したい対象クラス数分の要素を持つベクトルに変換する。最後に、このベクトルに対してソフトマックス関数を適用し、最終的な認識結果を表すベクトルである認識結果120に変換する。
そして、認識処理部108は、認識結果120を出力部109に渡す。
出力部109は、認識処理部108により得られた認識結果120を出力する。
<本発明の実施の形態に係る画像認識装置の作用>
図6は、本発明の実施の形態に係る画像認識処理ルーチンを示すフローチャートである。
入力部102に画像110が入力されると、画像認識装置100において、図6に示す画像認識処理ルーチンが実行される。
まず、ステップS201において、入力部102が画像110の入力を受け付ける。
ステップS202において、畳み込み部103は、ステップS201により受け付けた画像110に対して、CNNの畳み込み層を適用する処理を実行し、畳み込み層の出力であるテンソルを得る。
ステップS203において、第一ブロック集約部104は、上記ステップS202により得られたテンソルに対して、所定の2方向に対して相互排反である1以上のブロックに分割し、当該1以上のブロックの各々について、当該ブロックに含まれる当該畳み込み層の出力を、当該ブロック内における位置に応じて相互排反な複数のサブブロックに分割し、全てのブロックにわたり、当該位置が対応するサブブロックに含まれる要素の値を集約して、当該複数のサブブロックの各々における集約結果を出力するプーリング層を適用して、プーリング層の出力である複数のテンソルを得る。
ステップS204において、第一ブロック畳み込み部105は、上記ステップS203により得られた複数のテンソルの各々に対して、畳み込み層を適用する処理を行い、畳み込み層の出力であるテンソルを得る。
ステップS205において、第二ブロック集約部106は、上記ステップS204により得られた複数のテンソルの各々に対して、プーリング層を適用する処理を実行し、プーリング層の出力である複数のテンソルを得る。
ステップS206において、第二ブロック畳み込み部107は、上記ステップS205により得られた複数のテンソルの各々に対して、畳み込み層を適用する処理を実行し、畳み込み層の出力であるテンソルを得る。
ステップS207において、認識処理部108は、上記ステップS206により得られた複数のテンソルに対して出力層を適用することにより、画像認識処理を行う。
ステップS208において、上記ステップS207により得られた認識結果120を出力する。
<本発明の実施の形態に係るCNNの学習>
本実施形態では学習済みのCNNを仮定して認識処理を説明したが、本実施形態における構成のCNNも、非特許文献1〜3にあるような公知のCNNと同様に、誤差逆伝搬法(確率勾配法などのアルゴリズム)により、同様に学習することが可能である。
この場合、学習データとして少なくとも1組の画像ファイルとそのクラス(正解クラス)を示す情報を用意した上で、当該学習データに対する認識精度が高くなるように、すなわち、学習データに含まれる各画像に対する認識結果が正解クラスとなるように、誤差逆伝搬法によってCNNのパラメータを更新していく。
より正確には認識結果を表すベクトル内の、正解クラスに対応する要素が高い値を持ち、その他のクラスに対応する要素が小さい値を持つように、CNNのパラメータを更新していく。
そして、この学習処理を、終了条件が満たされるまで繰り返せばよい。終了条件については任意のものを用いてよいが、例えば、「所定の回数を繰り返すまで」、「目的関数の値が一定以上変化しなくなるまで」、「精度の値が一定以上になるまで」、「学習データとは別に用意された検証用データを用いた場合の精度の値が一定以上変化しなくなるまで」、「学習データとは別に用意された検証用データを用いた場合の精度の値が一定以上になるまで」などとすればよい。
<本発明の実施の形態に係る画像認識装置の実験結果>
次に、本実施形態に係る画像認識装置100の有効性を示すための実験結果について説明する。以下、本実施形態に係る画像認識装置100の第一ブロック集約部104、第二ブロック集約部106で用いたプーリング手法をParallel Grid Pooling(PGP)と呼ぶ。
<<データセット>>
画像分類のタスクにおいて標準的なデータセットであるCIFAR−10、CIFAR−100(参考文献1)、SVHN(参考文献2)を用いた実験を行った。
[参考文献1]G. E. Hinton: “Learning multiple layers of representation”, Trends in cognitive sciences, 11, 10, 2007, pp. 428-434.
[参考文献2] Y. Netzer, T. Wang, A. Coates, A. Bissacco, B. Wu and A. Y. Ng: “Reading digits in natural images with unsupervised feature learning”, NIPS Workshop on Machine Learning Systems", Vol. 2011, p. 5.
CIFAR−10/100は、60,000枚の32×32のカラー画像からなるデータセットであり、学習用画像が50,000枚とテスト用画像が10,000枚で構成されている。
これら2つのデータセットに対して広く用いられている(非特許文献2、参考文献3、4)標準的なデータ拡張(Data Augmentation)手法として、学習時に各端を40×40になるようゼロパディングした画像から32×32の画像をランダムにクロップし、得られた画像をランダムに左右反転した。
[参考文献3]G. Huang, Z. Liu, K. Q. Weinberger and L. van der Maaten:“Densely connected convolutional networks”, CVPR (2017).
[参考文献4]S. Xie, R. Girshick, Piotr, Z. Tu, K. He:“Aggregated residual transformations for deep neural networks”, CVPR (2017).
前処理として、チャネルの平均値と標準分散を用いて色の正規化を行った。また、50,000枚の学習用画像全てを用いて学習を行い、学習終了時のテストエラー率を最終結果とした。
Street View House Numbers(SVHN)とは、Google Street Viewから家・マンションの部屋番号の数字(0〜9)を集めた、32×32のカラー画像からなるデータセットである。
学習用画像が73,257枚、テスト用画像が26,032枚、追加の学習用画像が531,131枚で構成されている。
参考文献3、5に従い、データ拡張(Data Augmentation)手法は用いず、追加の学習用画像も含めた全ての学習用画像を用いて学習を行った。
[参考文献5]S. Zagoruyko and N. Komodakis: “Wide residual networks”, BMVC (2016).
<<ネットワークモデル>>
PGPの有効性を確認するため、畳み込み層として複数種類のネットワークモデルを用いて実験を行った。
具体的には、pre−activationResNet(PreResNet)、PyramidNet、DenseNetの計3種類を畳み込み層のネットワークモデルとして用いた。
PreResNetに対しては、ボトルネック構造を持ったモデルを利用し、層の深さを20、29、38、47、74、101、164の7種類に変化させて実験を行った。
PyramidNetに対しては、ボトルネック構造を持ったモデルを利用し、パラメータ増加率はα=28とした。
DenseNetに対しては、ボトルネック構造を持ち、かつ、省パラメータなモデルであるDenseNet−BCを用いた。
PGPを適用した場合の各ネットワークモデルの性能変化をより厳密に確認するため、学習に関するハイパーパラメータ(エポック数、学習率、モーメンタム率等)については同一のものを使用した。
<<実装の詳細>>
学習率のスケジューリングにはCosine Annealing(参考文献6)を用いた。
[参考文献6]I. Loshchilov and F. Hutter: “SGDR: stochastic gradient descent with restarts”, ICLR (2017).
Cosine Annealingは、最初は学習率を高い値にしてから学習を始め、それからコサイン曲線に従う形で急速かつスムーズに学習率を低い値に落とす学習率のスケジューリング法である。
Cosine Annealing のパラメータは、下記式(1)とした。
参考文献3に従い、全てのモデルに対して総学習イテレーション数を、CIFAR−10/100では300epoch、SVHNでは40epochとした。また、重み減衰は10-4に設定し、パラメータが0.9のモーメンタム付きの確率的勾配降下法を用い、ミニバッチサイズは64とした。
各層の重みの初期化は参考文献7の方法を用いた。
[参考文献7]K. He, X. Zhang, S. Ren and J. Sun: “Delving deep into rectifiers: Surpassing human-level performance on ImageNet classification”, ICCV, 2015, pp. 1026-103.
<<結果>>
各データセットに対して各種ネットワークモデルを学習した結果のテストエラー率をベースライン(Baseline)として評価を行った。
畳み込み層としての各ネットワークモデルの出力にPGPを適用して学習した場合の結果を図7、図8に示す。
全てのデータセットに対して非特許文献3の拡張畳み込み(Dilated)を利用したネットワークは、ベースラインの結果と比較してより低いエラー率を達成した。PGPを用いたネットワークは拡張畳み込みを利用したネットワークを更に上回るエラー率を示した。
特にPyramidNetB−164(α=28)にPGPを適用したモデルは、CIFAR−10とCIFAR−100においてそれぞれ0.53%、1.71%改善し、3.38%、17.94%のエラー率を記録した。
これは、同程度のパラメータ数を持つ手法の中では最高精度のものである。
次に、各ネットワークモデルに対して、ベースラインの重みを転移した場合の各データセットのテストエラー率を図9に示す。
PGPを用いたネットワーク構造が、ほぼ全てのデータセットに対して最良の結果を示した。例えば、PreResNetでは層の深さに関わらずPGPを用いた場合のエラー率が低下しているが、それはPGPの構造自体にデータ拡張の効果があるからと考えられる。
各ネットワークモデルに拡張畳み込みもしくはPGPを適用して学習した後、学習した重みを元のネットワークに転移した場合の各データセットのテストエラー率を図10、11に示す。
拡張畳み込みをネットワークモデルに適用して学習した重みを元のネットワークに転移した結果、ベースラインよりもテストエラー率が悪化した。
これは、拡張畳み込みを適用したネットワークモデルではGAP層の前に集約する演算があるため、元のネットワークと同じ演算を行う経路が無くなってしまったためにうまく認識性能が発揮できなくなったと考えられる。
一方、PGPをネットワークモデルに適用して学習した重みを元のネットワークに転移した結果、ほぼ全てにおいてベースライン及び拡張畳み込みより認識性能が向上することを確認した。
画像分類の標準的データセットであるCIFAR−10、CIFAR−100、SVHNを用いた実験により、PGPの有効性を確認した。
以上説明したように、本発明の実施形態に係る画像認識装置によれば、少なくとも一つの畳み込み層と、当該畳み込み層の出力を、所定の2方向に対して相互排反である1以上のブロックに分割し、当該1以上のブロックの各々について、当該ブロックに含まれる当該畳み込み層の出力を、当該ブロック内における位置に応じて相互排反な複数のサブブロックに分割し、全てのブロックにわたり、当該位置が対応するサブブロックに含まれる要素の値を集約して、当該複数のサブブロックの各々における集約結果を出力するプーリング層とを含む畳み込みニューラルネットワークを用いて画像認識を行うことにより、畳み込みニューラルネットワークのパラメータ数を増加させることなく、画像認識を精度よく行うことができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
上述の実施形態において、CNNは、畳み込み層、プーリング層、GAP層、全結合層、及びソフトマックス関数により構成されたがこれに限定されるものではない。例えば、これら以外にも、最大値プーリング層、平均値プーリング層、バッチ正規化、Rectified Linear Unit(ReLU)等の活性化関数、非特許文献1〜3に記載の任意の公知の層/処理要素等を更に用いて構成してもよい。
また、第一ブロック集約部104及び第二ブロック集約部106は、複数のプーリング層を適用する処理を実行するように構成されてもよい。
また、第一ブロック畳み込み部105及び第二ブロック畳み込み部107は、複数の畳み込み層を適用する処理を実行するように構成されてもよい。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な磁気ディスク、光ディスク、半導体メモリ等の記録媒体に格納して提供することも、ネットワークを通して提供することも可能である。
また、いかなる構成要素についても、単一のコンピュータやサーバによって実現しなければならないものではなく、ネットワークによって接続された複数のコンピュータに分散して実現することも可能である。
100 画像認識装置
101 CNN記憶部
102 入力部
103 畳み込み部
104 第一ブロック集約部
105 第一ブロック畳み込み部
106 第二ブロック集約部
107 第二ブロック畳み込み部
108 認識処理部
109 出力部
110 画像
120 認識結果

Claims (7)

  1. 入力された1以上のチャネルを有する画像に対して、畳み込みニューラルネットワークを用いた画像認識を行う画像認識装置であって、
    前記畳み込みニューラルネットワークは、
    少なくとも一つの畳み込み層と、
    前記畳み込み層の出力を、所定の2方向に対して相互排反である1以上のブロックに分割し、前記1以上のブロックの各々について、前記ブロックに含まれる前記畳み込み層の出力を、前記ブロック内における位置に応じて相互排反な複数のサブブロックに分割し、全てのブロックにわたり、前記位置が対応するサブブロックに含まれる要素の値を集約して、前記複数のサブブロックの各々における集約結果を出力するプーリング層と、
    を含む画像認識装置。
  2. 前記所定の2方向は、幅方向及び高さ方向であり、
    前記ブロックは、幅及び高さが同一であり、かつ、前記幅及び前記高さの値が2のべき乗であり、
    前記複数のサブブロックは、前記ブロックを、前記ブロック内における左上、左下、右上、及び右下の各位置に応じて相互排反な複数のサブブロックに分割したものである
    請求項1記載の画像認識装置。
  3. 前記畳み込みニューラルネットワークは、複数の畳み込み層を含み、
    前記複数の畳み込み層では、共通のパラメータを用いる
    請求項1又は2記載の画像認識装置。
  4. 入力された1以上のチャネルを有する画像に対して、畳み込みニューラルネットワークを用いた画像認識を行う画像認識方法であって、
    前記畳み込みニューラルネットワークは、
    少なくとも一つの畳み込み層と、
    前記畳み込み層の出力を、所定の2方向に対して相互排反である1以上のブロックに分割し、前記1以上のブロックの各々について、前記ブロックに含まれる前記畳み込み層の出力を、前記ブロック内における位置に応じて相互排反な複数のサブブロックに分割し、全てのブロックにわたり、前記位置が対応するサブブロックに含まれる要素の値を集約して、前記複数のサブブロックの各々における集約結果を出力するプーリング層と、
    を含む画像認識方法。
  5. 前記所定の2方向は、幅方向及び高さ方向であり、
    前記ブロックは、幅及び高さが同一であり、かつ、前記幅及び前記高さの値が2のべき乗であり、
    前記複数のサブブロックは、前記ブロックを、前記ブロック内における左上、左下、右上、及び右下の各位置に応じて相互排反な複数のサブブロックに分割したものである
    請求項4記載の画像認識方法。
  6. 前記畳み込みニューラルネットワークは、複数の畳み込み層を含み、
    前記複数の畳み込み層では、共通のパラメータを用いる
    請求項4又は5記載の画像認識方法。
  7. コンピュータを、請求項1〜3の何れか1項記載の画像認識装置の各部として機能させるためのプログラム。
JP2018091882A 2018-05-11 2018-05-11 画像認識装置、画像認識方法、およびプログラム Active JP6935868B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018091882A JP6935868B2 (ja) 2018-05-11 2018-05-11 画像認識装置、画像認識方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018091882A JP6935868B2 (ja) 2018-05-11 2018-05-11 画像認識装置、画像認識方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2019197445A true JP2019197445A (ja) 2019-11-14
JP6935868B2 JP6935868B2 (ja) 2021-09-15

Family

ID=68538698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018091882A Active JP6935868B2 (ja) 2018-05-11 2018-05-11 画像認識装置、画像認識方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP6935868B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111582215A (zh) * 2020-05-17 2020-08-25 华中科技大学同济医学院附属协和医院 一种胆胰系统正常解剖结构的扫查识别系统和方法
JP2021117969A (ja) * 2020-01-23 2021-08-10 同▲済▼大学 ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法
CN113807363A (zh) * 2021-09-08 2021-12-17 西安电子科技大学 基于轻量化残差网络的图像分类方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099707A (ja) * 2014-11-19 2016-05-30 株式会社デンソー 演算処理装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099707A (ja) * 2014-11-19 2016-05-30 株式会社デンソー 演算処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
岡谷 貴之: "画像認識のための深層学習の研究動向 −畳込みニューラルネットワークとその利用法の発展−", 人工知能, vol. 第31巻 第2号, JPN6021030865, 1 March 2016 (2016-03-01), JP, pages 169 - 179, ISSN: 0004566625 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021117969A (ja) * 2020-01-23 2021-08-10 同▲済▼大学 ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法
CN111582215A (zh) * 2020-05-17 2020-08-25 华中科技大学同济医学院附属协和医院 一种胆胰系统正常解剖结构的扫查识别系统和方法
CN113807363A (zh) * 2021-09-08 2021-12-17 西安电子科技大学 基于轻量化残差网络的图像分类方法
CN113807363B (zh) * 2021-09-08 2024-04-19 西安电子科技大学 基于轻量化残差网络的图像分类方法

Also Published As

Publication number Publication date
JP6935868B2 (ja) 2021-09-15

Similar Documents

Publication Publication Date Title
Yue et al. Dual adversarial network: Toward real-world noise removal and noise generation
WO2020216227A9 (zh) 图像分类方法、数据处理方法和装置
CN111079532B (zh) 一种基于文本自编码器的视频内容描述方法
Cui et al. Fast and practical neural architecture search
KR101970488B1 (ko) 실내 의미론적 분할을 위한 컬러-깊이 영상의 단계적 레지듀얼 특성 결합 네트워크 장치
US20190244362A1 (en) Differentiable Jaccard Loss Approximation for Training an Artificial Neural Network
CN110473137A (zh) 图像处理方法和装置
KR20180136720A (ko) 다채널 특징맵을 이용하는 영상 처리 장치 및 방법
CN111445418A (zh) 图像去雾处理方法、装置及计算机设备
KR20180004898A (ko) 딥러닝 기반의 이미지 처리 기술 및 그 방법
CN112215332B (zh) 神经网络结构的搜索方法、图像处理方法和装置
CN113065645B (zh) 孪生注意力网络、图像处理方法和装置
WO2020258902A1 (zh) 图像生成和神经网络训练方法、装置、设备和介质
CN114549913B (zh) 一种语义分割方法、装置、计算机设备和存储介质
JP6935868B2 (ja) 画像認識装置、画像認識方法、およびプログラム
US20220157046A1 (en) Image Classification Method And Apparatus
CN114418030A (zh) 图像分类方法、图像分类模型的训练方法及装置
US11620514B2 (en) Training artificial neural networks with reduced computational complexity
Zhuo et al. Ridnet: Recursive information distillation network for color image denoising
CN114781499A (zh) 一种构建基于ViT模型的密集预测任务适配器的方法
KR102305981B1 (ko) 신경망 압축 훈련 방법 및 압축된 신경망을 이용하는 방법
CN117475134A (zh) 基于多尺度跨层特征融合网络的伪装目标检测算法
US20230143985A1 (en) Data feature extraction method and related apparatus
CN117058235A (zh) 跨多种室内场景的视觉定位方法
WO2023086198A1 (en) Robustifying nerf model novel view synthesis to sparse data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180511

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180604

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R150 Certificate of patent or registration of utility model

Ref document number: 6935868

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150