JP6943338B2 - 画像処理装置、システム、方法及びプログラム - Google Patents

画像処理装置、システム、方法及びプログラム Download PDF

Info

Publication number
JP6943338B2
JP6943338B2 JP2020518924A JP2020518924A JP6943338B2 JP 6943338 B2 JP6943338 B2 JP 6943338B2 JP 2020518924 A JP2020518924 A JP 2020518924A JP 2020518924 A JP2020518924 A JP 2020518924A JP 6943338 B2 JP6943338 B2 JP 6943338B2
Authority
JP
Japan
Prior art keywords
unit
images
modal
image
detection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020518924A
Other languages
English (en)
Other versions
JPWO2019220622A1 (ja
Inventor
あずさ 澤田
あずさ 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019220622A1 publication Critical patent/JPWO2019220622A1/ja
Application granted granted Critical
Publication of JP6943338B2 publication Critical patent/JP6943338B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Description

本発明は、画像処理装置、システム、方法及びプログラムに関し、特にマルチモーダル画像を入力とする物体検出方式における画像処理装置、システム、方法及びプログラムに関する。
近年、画像中に写った複数の検出対象の物体(但し、検出対象は非物体でもよい。)について、領域の検出と属性の分類とを行い、何がどの位置に写っているかを出力する物体検出手法の技術の研究が進められている。例えば、特許文献1には、畳み込みニューラルネットワークを用いたFaster R-CNN(Regions with CNN(Convolutional Neural Network) features)という技術が開示されている。Faster R-CNNは、多種の物体を扱える検出手法であり、検出すべき領域の候補(以下、検出候補領域とする。)を算出したのち、それらを識別して出力を得る構造をもつ。具体的には、特許文献1にかかるシステムは、入力画像を受け取ると、まず、畳み込みニューラルネットワークにより特徴マップを抽出する。そして、当該システムは、抽出された特徴マップをもとに、Region Proposal Network(以下、RPNと呼ぶ。)により検出候補領域を算出する。その後、当該システムは、算出された検出候補領域と、前記特徴マップをもとに、各検出候補領域の識別を行う。
ところで、物体検出において、例えば可視光の画像だけを用いると、夜間など照明条件が良くない場合には物体検出が困難になる。そこで、可視光に赤外光や距離画像など他のモーダルを組み合わせたマルチモーダルの画像を用いて物体検出を行うことで、より多様な状況で物体検出の性能(精度)を維持又は向上させることができる。ここで、非特許文献1は、上記のFaster R-CNNをマルチモーダル画像に適用した例である。非特許文献1での入力画像は、位置ずれのないように取得された可視画像と遠赤外画像のデータセットである。非特許文献1では、各モーダルの画像から特徴マップを算出する過程の途中で、マップ内の同じ位置の画素ごとの重みつき和によりモーダル融合を行っている。RPNの動作は単一モーダルのときと同様で、入力の特徴マップ(モーダル融合前後どちらも可能)から、検出対象らしさのスコアと、既定の矩形領域を回帰で改善したモーダル間で共通の領域がそれぞれ出力される。
尚、物体検出や画像処理に関連する技術としては、例えば、以下の文献が挙げられる。特許文献2には、複数の撮像部で個々に生成された撮像画の画像データを用いて、個々に生成された撮像画よりも性能を向上させた撮像画の画像データを生成する技術が開示されている。また、特許文献3には、画像内の複数の領域から特徴量を抽出して特徴マップを生成する技術が開示されている。
また、特許文献4には、マルチモーダル画像からターゲット領域を特定するために合成画像を生成する画像処理システムに関する技術が開示されている。特許文献4にかかる画像処理システムは、まず、組織標本を所定のスライス間隔でスライスした複数の断面画像を、複数の染色ごとに生成する。そして、当該画像処理システムは、異なる染色の断面画像群について、対応する断面位置ごとに画像を合成する。
また、特許文献5には、画像中の被写体のカテゴリー及びその領域を認識するための画像認識装置に関する技術が開示されている。特許文献5にかかる画像認識装置は、入力画像を複数の局所領域に分割し、検出物体に関して予め学習しておいた判別基準を用いて、局所領域ごとに被写体のカテゴリーを判別する。また、特許文献6には、撮像画像から認識された物体の任意の位置における他の物体の重なりを検出する技術が開示されている。
また、非特許文献2及び3には、マルチモーダル画像からより視認性の高い画像を生成する技術が開示されている。また、非特許文献4には、マルチモーダル画像の相関スコアマップに関する技術が開示されている。
米国特許出願公開第2017/0206431号明細書 国際公開2017/208536号 特開2017−157138号公報 特開2017−068308号公報 特開2016−018538号公報 特開2009−070314号公報
Jingjing Liu, Shaoting Zhang, Shu Wang, Dimitris N. Metaxas. "Multispectral Deep Neural Networks for Pedestrian Detection." In Proceedings of the British Machine Vision Conference, 2016. Shibata, Takashi, Masayuki Tanaka, and Masatoshi Okutomi. "Misalignment-Robust Joint Filter for Cross-Modal Image Pairs." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2017. Shibata, Takashi, Masayuki Tanaka, and Masatoshi Okutomi. "Unified image fusion based on application-adaptive importance measure." Image Processing (ICIP), 2015 IEEE International Conference on. IEEE, 2015. S. Kim, D. Min, B. Ham, S. Ryu, M. N. Do, and K. Sohn. "Dasc: Dense adaptive self-correlation descriptor for multi-modal and multi-spectral correspondence." In Proc. of IEEE Conf. on Computer Vision and Pattern Recognition (CVPR), 2015.
ここで、非特許文献1にかかる技術には、同一の検出対象に対して異なる複数のモーダルにより撮影された画像の組から当該検出対象を画像認識する際の認識精度が不十分であるという問題点がある。
その理由は、まず、一般の撮影装置ではモーダル間でカメラの光軸にずれがあり、画像処理によって事前に光軸のずれ(視差)を補正することのできないため、視差によるモーダル間の位置ずれが生じるためである。そして、非特許文献1にかかる技術では、入力するマルチモーダル画像についてモーダル間に位置ずれがないことを前提としているためである。また、同一のカメラにより複数のモーダルを切り替えて複数の画像が撮影された場合でも、検出対象又はカメラの移動に伴い、やはりモーダル間の位置ずれが生じる。尚、特許文献1から6並びに非特許文献2から4にかかる技術も上述した問題点を解決するものではない。
本開示は、このような問題点を解決するためになされたものであり、同一の検出対象に対して異なる複数のモーダルにより撮影された画像の組から当該検出対象を画像認識する際の認識精度を向上させるための画像処理装置、システム、方法及びプログラムを提供することを目的とする。
本開示の第1の態様にかかる画像処理装置は、
特定の検出対象に対して異なる複数のモーダルにより撮影された複数の画像のそれぞれにおいて当該検出対象が含まれる複数の正解領域と、当該検出対象に付されるラベルとを対応付けた正解ラベルを用いて、前記複数の画像の間で共通する所定の位置にそれぞれ対応する複数の候補領域について、前記複数の画像ごとに対応する前記正解領域を含む度合いを判定する判定手段と、
前記複数の画像のそれぞれから抽出された複数の特徴マップと、前記判定手段による前記複数の画像ごとの判定結果の組と、前記正解ラベルとに基づいて、第1のモーダルにより撮影された第1の画像に含まれる前記検出対象の位置と、第2のモーダルにより撮影された第2の画像に含まれる前記検出対象の位置との位置ずれ量を予測する際に用いる第1のパラメータを学習し、当該学習した第1のパラメータを記憶手段に保存する第1の学習手段と、
を備える。
本開示の第2の態様にかかる画像処理システムは、
特定の検出対象に対して異なる複数のモーダルにより撮影された複数の画像と、前記複数の画像のそれぞれにおいて前記検出対象が含まれる複数の正解領域と当該検出対象に付されるラベルとを対応付けた正解ラベルと、を記憶する第1の記憶手段と、
第1のモーダルにより撮影された第1の画像に含まれる前記検出対象の位置と、第2のモーダルにより撮影された第2の画像に含まれる前記検出対象の位置との位置ずれ量を予測する際に用いる第1のパラメータを記憶する第2の記憶手段と、
前記正解ラベルを用いて、前記複数の画像の間で共通する所定の位置にそれぞれ対応する複数の候補領域について、前記複数の画像ごとに対応する前記正解領域を含む度合いを判定する判定手段と、
前記複数の画像のそれぞれから抽出された複数の特徴マップと、前記判定手段による前記複数の画像ごとの判定結果の組と、前記正解ラベルとに基づいて、前記第1のパラメータを学習し、当該学習した第1のパラメータを前記第2の記憶手段に保存する第1の学習手段と、
を備える。
本開示の第3の態様にかかる画像処理方法は、
画像処理装置が、
特定の検出対象に対して異なる複数のモーダルにより撮影された複数の画像のそれぞれにおいて当該検出対象が含まれる複数の正解領域と、当該検出対象に付されるラベルとを対応付けた正解ラベルを用いて、前記複数の画像の間で共通する所定の位置にそれぞれ対応する複数の候補領域について、前記複数の画像ごとに対応する前記正解領域を含む度合いを判定し、
前記複数の画像のそれぞれから抽出された複数の特徴マップと、前記複数の画像ごとの判定結果の組と、前記正解ラベルとに基づいて、第1のモーダルにより撮影された第1の画像に含まれる前記検出対象の位置と、第2のモーダルにより撮影された第2の画像に含まれる前記検出対象の位置との位置ずれ量を予測する際に用いる第1のパラメータを学習し、
前記学習した第1のパラメータを記憶装置に保存する。
本開示の第4の態様にかかる画像処理プログラムは、
特定の検出対象に対して異なる複数のモーダルにより撮影された複数の画像のそれぞれにおいて当該検出対象が含まれる複数の正解領域と、当該検出対象に付されるラベルとを対応付けた正解ラベルを用いて、前記複数の画像の間で共通する所定の位置にそれぞれ対応する複数の候補領域について、前記複数の画像ごとに対応する前記正解領域を含む度合いを判定する処理と、
前記複数の画像のそれぞれから抽出された複数の特徴マップと、前記複数の画像ごとの判定結果の組と、前記正解ラベルとに基づいて、第1のモーダルにより撮影された第1の画像に含まれる前記検出対象の位置と、第2のモーダルにより撮影された第2の画像に含まれる前記検出対象の位置との位置ずれ量を予測する際に用いる第1のパラメータを学習する処理と、
前記学習した第1のパラメータを記憶装置に保存する処理と、
をコンピュータに実行させる。
本開示により、同一の検出対象に対して異なる複数のモーダルにより撮影された画像の組から当該検出対象を画像認識する際の認識精度を向上させるための画像処理装置、システム、方法及びプログラムを提供することができる。
本実施の形態1にかかる画像処理装置の構成を示す機能ブロック図である。 本実施の形態1にかかる画像処理方法の流れを説明するためのフローチャートである。 本実施の形態1にかかる画像処理装置のハードウェア構成を示すブロック図である。 本実施の形態2にかかる画像処理システムの構成を示すブロック図である。 本実施の形態2にかかる各学習ブロックの内部構成を示すブロック図である。 本実施の形態2にかかる学習処理の流れを説明するためのフローチャートである。 本実施の形態3にかかる画像処理システムの構成を示すブロック図である。 本実施の形態3にかかる画像認識処理ブロックの内部構成を示すブロック図である。 本実施の形態3にかかる画像認識処理を含む物体検出処理の流れを説明するためのフローチャートである。 本実施の形態3にかかる物体検出の概念を説明する図である。
以下では、本開示の実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。
<実施の形態1>
図1は、本実施の形態1にかかる画像処理装置1の構成を示す機能ブロック図である。画像処理装置1は、複数のモーダルにより撮影された画像の組に対する画像処理を行うコンピュータである。尚、画像処理装置1は、2台以上の情報処理装置により構成されていてもよい。
ここで、複数のモーダルにより撮影された画像の組とは、特定の検出対象に対して異なる複数のモーダルにより撮影された画像の組である。ここで、本明細書における「モーダル」とは、画像の様式であり、例えば、可視光や遠赤外光等による撮影装置の撮影モードを示す。そのため、あるモーダルにより撮影された画像は、ある撮影モードにより撮影された撮影画像のデータを示す。また、複数のモーダルにより撮影された画像の組は、マルチモーダル画像と呼ぶこともでき、また、以降、「複数のモーダルの画像」又は、単に「複数の画像」と呼ぶ場合もある。尚、検出対象とは、撮影画像内に映る物体であり、画像認識により検出すべき対象物である。但し、検出対象には、物体に限らず、背景等の非物体を含めてもよい。
画像処理装置1は、判定部11と、学習部12と、記憶部13とを備える。判定部11は、正解ラベルを用いて、複数のモーダルの画像の間で共通する所定の位置にそれぞれ対応する複数の候補領域について、複数の画像ごとに対応する正解領域を含む度合いを判定する判定手段である。ここで、「正解ラベル」は、複数のモーダルの画像のそれぞれにおいて共通の検出対象が含まれる複数の正解領域と、当該検出対象に付されるラベルとを対応付けた情報である。また、「ラベル」とは、検出対象の種別を示す情報であり、クラス等と呼ぶこともできる。
学習部12は、複数の画像の間における特定の検出対象の位置ずれ量を予測する際に用いるパラメータ14を学習し、当該学習したパラメータ14を記憶部13に保存する第1の学習手段である。ここで、学習部12は、複数のモーダルの画像のそれぞれから抽出された複数の特徴マップと、判定部11による複数の画像ごとの判定結果の組と、正解ラベルとに基づいて、学習を行う。また、「位置ずれ量」とは、第1のモーダルにより撮影された第1の画像に含まれる検出対象の位置と、第2のモーダルにより撮影された第2の画像に含まれる検出対象の位置との差分である。また、パラメータ14は、上記位置ずれ量を予測するモデルに用いられる設定値である。そして、「学習」とは機械学習を示す。すなわち、学習部12は、複数の特徴マップと、判定結果の組と、正解ラベルとに基づいて、パラメータ14を設定した当該モデルにより求められる値が正解ラベルに基づく目標値に近付くように、パラメータ14を調整する。尚、パラメータ14は、当該モデルにおける複数のパラメータ値の集合であってもよい。
記憶部13は、記憶装置により実現され、パラメータ14を記憶するための記憶領域である。
図2は、本実施の形態1にかかる画像処理方法の流れを説明するためのフローチャートである。まず、判定部11は、正解ラベルを用いて、複数のモーダルの画像の間で共通する所定の位置にそれぞれ対応する複数の候補領域について、複数の画像ごとに対応する正解領域を含む度合いを判定する(S11)。次に、学習部12は、複数の特徴マップと、ステップS11における判定結果の組と、正解ラベルとに基づいて、複数の画像の間における特定の検出対象の位置ずれ量を予測する際に用いるパラメータ14を学習する(S12)。そして、学習部12は、ステップS12において学習したパラメータ14を記憶部13に保存する(S13)。
図3は、本実施の形態1にかかる画像処理装置1のハードウェア構成を示すブロック図である。画像処理装置1は、ハードウェア構成として、少なくとも記憶装置101と、メモリ102と、プロセッサ103とを備える。記憶装置101は、上述した記憶部13に相当し、例えば、ハードディスク、フラッシュメモリ等の不揮発性記憶装置である。記憶装置101は、少なくともプログラム1011と、パラメータ1012とを記憶する。プログラム1011は、本実施の形態にかかる上述した画像処理が少なくとも実装されたコンピュータプログラムである。パラメータ1012は、上述したパラメータ14に相当する。メモリ102は、RAM(Random Access Memory)等の揮発性記憶装置であり、プロセッサ103の動作時に一時的に情報を保持するための記憶領域である。プロセッサ103は、CPU(Central Processing Unit)等の制御回路であり、画像処理装置1の各構成を制御する。そして、プロセッサ103は、記憶装置101からプログラム1011をメモリ102へ読み込み、プログラム1011を実行する。これにより、画像処理装置1は、上述した判定部11及び学習部12の機能を実現する。
ここで、一般には、光軸のずれ(視差)による画像間の位置ずれは、各点に対する位置ずれの大きさが写っている対象と受光面との距離に依存する。そのため、2次元の画像としての大域的な変換によって完全に補正することはできない。特に、カメラ間の距離に比べて視差が大きい近距離の物体に対しては角度の違いや別の物体による遮蔽のため見えの違いが発生する。
そこで、本実施の形態により学習したパラメータを用いたモーダル間の位置ずれの予測モデルにより、同一の検出対象に対して異なる複数のモーダルにより撮影された画像の組の位置ずれを精度よく予測することができる。そして、画像の組から選択された検出候補領域に対応する特徴マップについての識別過程において、予測した位置ずれの分をずらすことができる。これにより位置ずれに関わらず各モーダルからの特徴マップを空間的に正しく融合することができ、位置ずれによる検出性能の低下を防ぐことができる。よって、予測した位置ずれを加味することで、当該画像の組からの検出対象を画像認識する際の認識精度を向上させることができる。
<実施の形態2>
本実施の形態2は、上述した実施の形態1の一実施例である。図4は、本実施の形態2にかかる画像処理システム1000の構成を示すブロック図である。画像処理システム1000は、マルチモーダル画像から特定の検出対象の検出を行うための画像認識処理に用いられる各種パラメータを学習するための情報システムである。画像処理システム1000は、上述した画像処理装置1に機能を追加及び具体化したものであってもよい。また、画像処理システム1000は、複数台のコンピュータ装置により構成されて、後述する各機能ブロックを実現するものであってもよい。
画像処理システム1000は、記憶装置100と、記憶装置200と、特徴マップ抽出部学習ブロック310と、領域候補選択部学習ブロック320と、モーダル融合識別部学習ブロック330とを少なくとも備える。また、領域候補選択部学習ブロック320は、スコア算出部学習ブロック321、矩形回帰部学習ブロック322及び位置ずれ予測部学習ブロック323を含む。
ここで、画像処理システム1000を構成する少なくとも1つのコンピュータは、プロセッサ(不図示)がプログラムをメモリ(不図示)に読み込み、実行する。これにより、画像処理システム1000は、当該プログラムが実行されることにより、特徴マップ抽出部学習ブロック310と、領域候補選択部学習ブロック320と、モーダル融合識別部学習ブロック330を実現することができる。ここで、当該プログラムは、本実施の形態にかかる後述の学習処理が実装されたコンピュータプログラムである。例えば、当該プログラムは、上述したプログラム1011に改良を加えたものである。また、当該プログラムは、複数のプログラムモジュールに分割されたものであってもよく、各プログラムモジュールが1又は複数のコンピュータにより実行されるものであってもよい。
記憶装置100は、第1の記憶手段の一例であり、例えば、ハードディスク、フラッシュメモリ等の不揮発性記憶装置である。記憶装置100は、学習用データ110を記憶する。学習用データ110は、画像処理システム1000における機械学習に用いる入力データである。学習用データ110は、マルチモーダル画像120と正解ラベル130との組合せを、複数含むデータの集合である。つまり、マルチモーダル画像120と正解ラベル130とは対応付けられているものとする。
マルチモーダル画像120は、複数のモーダルにより撮影された画像群の集まりである。例えば、モーダルが2つの場合、マルチモーダル画像120は、モーダルA画像121及びモーダルB画像122の組を含み、モーダルA画像121及びモーダルB画像122は、近い時刻に同一の対象を異なる複数のモーダルで撮影した撮影画像の組である。ここで、モーダルの種類は例えば可視光や遠赤外光などであるが、これら以外であっても良い。例えば、モーダルA画像121は、モーダルA(可視光)の撮影モードにより撮影が可能なカメラAにより撮影された画像である。また、モーダルB画像122は、モーダルB(遠赤外光)の撮影モードにより撮影が可能なカメラBにより撮影された画像である。そのため、マルチモーダル画像120に含まれる複数のモーダルの画像のそれぞれは、複数のモーダルのそれぞれに対応する複数のカメラにより同時刻又は数ミリ秒以内の差で撮影されたものであってもよい。この場合、カメラAとカメラBの設置位置の違いがあることから、両カメラにより概ね同時刻に同一の対象を撮影したとしても、異なる視野から撮影されることとなる。そのため、両カメラによる撮影された複数のモーダルの画像の間で同一の対象の表示位置について位置ずれが生じることとなる。
また、マルチモーダル画像120に含まれる複数のモーダルの画像のそれぞれは、同一のカメラにより近い時刻に撮影された画像であってもよい。その場合、当該カメラは、所定間隔で前記複数のモーダルを切り替えて撮影するものとする。例えばモーダルAの画像を可視画像とした場合、モーダルBの画像を同一カメラで撮影した撮影時刻が僅かにずれた画像としてもよい。例えば、モーダルAの画像およびモーダルBの画像を取得するために用いるカメラが、内視鏡のようにRGB面順次方式のものとする。この場合、注目フレームをモーダルAの画像、次フレームをモーダルBの画像とみなしてもよい。つまり、マルチモーダル画像120に含まれる複数のモーダルの画像は、同一のカメラにより撮影された、前後に隣接するフレームの画像同士、又は、前後で数フレーム離れた画像同士であってもよい。特に、カメラが車両等の移動体に搭載されて、車外を撮影するものである場合、隣接するフレームの撮影画像同士であっても位置ずれが無視できない。その理由は、固定された位置に設置された同一のカメラで同一の対象を連続して撮影したとしても、移動中に対象との距離や視野が変化するためである。よって、同一のカメラで異なるモーダルにより撮影された複数のモーダルの画像の間でも同一の対象の表示位置について位置ずれが生じることとなる。
或いは、マルチモーダル画像120の取得に使用するカメラは、例えば異なる衛星に搭載されている光学センサなどであってもよい。より具体的には、光学衛星からの画像をモーダルAの画像、広域の温度情報や電波情報を取得する衛星からの画像をモーダルBの画像とみなしてもよい。この場合、これら両衛星画像の撮影時刻は同一時刻であってもよいし、異なっていてもよい。
また、マルチモーダル画像120の各画像データ群には、3種類以上のモーダルによる撮影画像が含まれていても良い。
正解ラベル130は、マルチモーダル画像120中の複数の画像の組のそれぞれに含まれる検出すべき対象のラベルと、その対象が写っている各正解領域を含む。ここで、ラベルは、検出対象の種別を示し、検出対象に付されるものである。そして、マルチモーダル画像120中の画像データ群ごとに、正解ラベル130中の正解領域131と132が同じ対象を指すことを示すために対応付けられているものとする。例えば、正解ラベル130は、ラベル133(クラスの種別)、モーダルAの正解領域131、モーダルBの正解領域132の組合せで表現してもよい。図4の例では、正解領域131は、モーダルA画像121内で検出対象を含む領域であり、正解領域132は、モーダルB画像122内で同一の検出対象を含む領域であるものとする。ここで、「領域」は、矩形の場合、領域の代表点(中心等)の座標(X軸及びY軸の座標値)、幅、高さの組合せ等で表現すればよい。また、「領域」は、矩形ではなく、対象の写っている画素の集合をリストや画像で表現したマスク領域を用いてもよい。尚、モーダルAおよびモーダルBの正解領域をそれぞれ記載する代わりに、モーダルAおよびモーダルBのそれぞれでの正解領域の代表点の座標の差分を、位置ずれの正解値として、正解ラベルに含めても良い。
記憶装置200は、第2の記憶手段及び記憶部13の一例であり、例えば、ハードディスク、フラッシュメモリ等の不揮発性記憶装置である。記憶装置200は、辞書210、220及び230を記憶する。また、辞書220は、辞書221、222及び223を含む。ここで、辞書210等のそれぞれは、所定の処理モジュール(モデル)に設定されるパラメータの集合であり、例えば、データベースである。特に、辞書210等のそれぞれは、後述する各学習ブロックにおいて学習済みの値である。尚、辞書210等には、学習開始前にパラメータの初期値が設定されていてもよい。また、辞書210等の詳細については、以後の各学習ブロックの説明と併せて説明する。
図5は、本実施の形態2にかかる各学習ブロックの内部構成を示すブロック図である。特徴マップ抽出部学習ブロック310は、特徴マップ抽出部311と学習部312とを含む。特徴マップ抽出部311は、マルチモーダル画像120内のモーダルA画像121及びモーダルB画像122のそれぞれから、物体検出に有用な情報を示す特徴マップを算出(抽出)するモデル、つまり処理モジュールである。そして、学習部312は、第4の学習手段の一例であり、特徴マップ抽出部311のパラメータを調整する手段である。具体的には、学習部312は、辞書210に保存されたパラメータを読み出して特徴マップ抽出部311に設定して、1つのモーダルの画像を特徴マップ抽出部311に入力して特徴マップを抽出させる。つまり、学習部312は、マルチモーダル画像120中のモーダルA画像121およびモーダルB画像122に関してそれぞれ独立に特徴マップ抽出部311を用いて特徴マップを算出するものとする。
そして、学習部312は、抽出された特徴マップを用いて計算される損失関数が小さくなるように特徴マップ抽出部311のパラメータを調整(学習)し、調整後のパラメータにより辞書210を更新(保存)する。尚、上記で用いる損失関数は、初回時においては一時的に接続した任意の画像認識出力の誤差に対応するものを用いても良い。また、2回目以降については、後述する領域候補選択部学習ブロック320等における出力が正解ラベルに近付くように同様に調整する。
例えば、特徴マップ抽出部311としてニューラルネットワークのモデルを用いる場合には、抽出された特徴マップから画像分類を行う識別器を一時的に付加して分類誤差から誤差逆伝播法で重みパラメータを更新する方法がある。ここで、特徴マップとは、画像内の各画素値に所定の変換を行った結果を、画像内の各位置に対応したマップ状に配置した情報である。言い換えると、特徴マップとは、入力画像における所定領域に含まれる画素値の集合から算出される特徴量を画像内の位置関係と対応付けたデータの集合である。また、例えばCNNの場合、特徴マップ抽出部311の処理は、入力画像から畳み込み層、プーリング層等を適当な回数経由するような演算を行うものとする。その場合、パラメータは、各畳み込み層で用いるフィルタの値といえる。尚、各畳み込み層の出力は複数の特徴マップを含んでいてもよく、その場合、畳み込み層に入力される画像または特徴マップの枚数と出力される特徴マップの枚数の積が保持するフィルタの枚数となる。
特徴マップ抽出部の辞書210は、特徴マップ抽出部学習ブロック310により学習されたパラメータの集合を保持する部位である。そして、辞書210内のパラメータを特徴マップ抽出部311に設定することで、学習された特徴マップ抽出の方法を再現することができる。尚、辞書210はモーダルごとに独立な辞書になっていても良い。また、辞書210内のパラメータは、第4のパラメータの一例である。
スコア算出部学習ブロック321は、判定部3211と、スコア算出部3212と、学習部3213とを含む。判定部3211は、上述した判定部11の一例である。スコア算出部3212は、検出候補領域を選ぶための優先度として領域に対するスコアを算出するモデル、つまり処理モジュールである。言い換えると、スコア算出部3212は、設定されたパラメータを用いて候補領域に対する検出対象の度合いを示すスコアを算出する。そして、学習部3213は、第2の学習手段の一例であり、スコア算出部3212のパラメータを調整する手段である。すなわち、学習部3213は、判定部3211による判定結果の組及び特徴マップに基づいて、スコア算出部3212のパラメータを学習し、学習したパラメータを辞書221に保存する。
例えば、モーダルAとモーダルBで共通の既定の矩形領域の集合が予め定義され、記憶装置100等に保存されているものとする。ここで、矩形領域は、例えば、中心位置を指定する2つの座標、幅と高さの4つで定義されるが、これに限定されない。言い換えると、既定の矩形領域は、特徴マップ上の画素位置ごとに配置された、あらかじめ与えたスケールやアスペクト比をそれぞれもつ領域といえる。そして、判定部3211は、既定の矩形領域の集合から1つの矩形領域を選択し、当該選択された矩形領域の座標と、正解ラベル130に含まれる正解領域131及び132のそれぞれとのIoU(Intersection over Union)を算出する。ここでIoUとは重複度の尺度で、共通部分の面積を合併した領域の面積で割った値である。IoUは、候補領域が正解領域を含む度合いの一例でもある。また、IoUは、検出対象が複数ある場合でも区別しない。そして、判定部3211は、この処理を、記憶装置100内の全ての既定の矩形領域について繰り返す。その後、判定部3211は、IoUが一定値(閾値)以上になる既定の矩形領域を正例とする。また、判定部3211は、IoUが一定値未満になる既定の矩形領域を負例とする。このとき、判定部3211は、正例と負例のバランスを取るために、IoUが一定値以上になる既定の矩形領域のうち所定数をサンプリングして正例としてもよい。同様に、判定部3211は、IoUが一定値未満になる既定の矩形領域のうち所定数をサンプリングして負例としてもよい。また、判定部3211は、各矩形領域について、モーダルAに対応する正解領域131とのIoUに基づく正否の判定結果と、モーダルBに対応する正解領域132とのIoUに基づく正否の判定結果との組を生成するものといえる。
学習部3213は、辞書221に保存されたパラメータを読み出してスコア算出部3212に設定して、1つの矩形領域をスコア算出部3212に入力してスコアを算出させる。そして、学習部3213は、判定部3211により正例と判定された矩形領域及びモーダルについて算出されるスコアが相対的に高くなるように、パラメータを調整(学習)する。また、学習部3213は、判定部3211により負例と判定された矩形領域及びモーダルについて算出されるスコアが相対的に低くなるように、パラメータを調整(学習)する。そして、学習部3213は、調整後のパラメータにより辞書221を更新(保存)する。
また、例えば、学習部3213は、特徴マップ抽出部の辞書210を用いて特徴マップ抽出部311により抽出された特徴マップからサンプリングされた既定の矩形領域に対して検出対象か否かの正負2値分類の学習を行うようにしてもよい。ここで、スコア算出部3212としてニューラルネットワークのモデルを用いる場合には、正負に対応する2つの出力を用意し、交差エントロピー誤差関数に関する勾配降下法により重みパラメータを決めればよい。このとき、正例に対応する矩形領域に対する予測では出力の正例に当たる要素が1に、負例にあたる要素が0に値が近づくようにネットワークのパラメータが更新される。また、各既定の矩形領域に対する出力は、その矩形領域の中心位置周辺の特徴マップからそれぞれ計算して同じ配置でマップ状に並べるものとするとよい。これにより、学習部3213による処理を、畳み込み層による演算として表現できる。尚、既定の矩形領域の形状については出力されるマップをそれに応じて複数用意すればよい。
スコア算出部の辞書221は、スコア算出部学習ブロック321により学習されたパラメータの集合を保持する部位である。そして、辞書221内のパラメータをスコア算出部3212に設定することで、学習されたスコア算出の方法を再現することができる。また、辞書221内のパラメータは、第2のパラメータの一例である。
矩形回帰部学習ブロック322は、矩形回帰部3222と、学習部3223とを含む。尚、矩形回帰部学習ブロック322は、上述した判定部3211相当の機能を有する処理モジュールをさらに含むものであっても良い。または、矩形回帰部学習ブロック322は、上述した判定部3211から既定の矩形領域に対する正否の判定結果の組を示す情報を受信してもよい。
矩形回帰部3222は、検出候補領域を予測するためにベースとする既定の矩形領域の座標をより正確に検出対象に一致させる変換を返すモデル、つまり処理モジュールである。言い換えると、矩形回帰部3222は、候補領域の位置及び形状を、当該候補領域の正否の判定に用いられた正解領域に近付ける回帰を行う。そして、学習部3223は、第3の学習手段の一例であり、矩形回帰部3222のパラメータを調整する手段である。すなわち、学習部3223は、判定部3211による判定結果の組及び特徴マップに基づいて、矩形回帰部3222のパラメータを学習し、学習したパラメータを辞書222に保存する。ただし、学習部3223が回帰した結果として出力する矩形領域の情報は基準とする一つのモーダル上での位置、あるいはモーダルAとモーダルBの中間的な位置などとする。
また、学習部3223は、スコア算出部学習ブロック321と同じ基準で判定した正例にあたる既定の矩形領域について、特徴マップ抽出部の辞書210を用いて特徴マップ抽出部311により抽出された特徴マップを用いる。そして、学習部3223は、例えば、いずれかのモーダルについて正解ラベル130に含まれる正解領域への矩形座標の変換を正解として回帰の学習を行う。
ここで、矩形回帰部3222としてニューラルネットワークのモデルを用いる場合には、該当する矩形領域の中心位置周辺の特徴マップからそれぞれ計算して同じ配置でマップ状に並べるものとするとよい。これにより、学習部3223による処理を、畳み込み層による演算として表現できる。尚、既定の矩形領域の形状については出力されるマップをそれに応じて複数用意すればよい。
また、領域を表す座標の正解領域との差について平滑化L1損失関数などに関する勾配降下法により重みパラメータを決定すればよい。
矩形回帰部の辞書222は、矩形回帰部学習ブロック322により学習されたパラメータの集合を保持する部位である。そして、辞書222内のパラメータを矩形回帰部3222に設定することで、学習された矩形回帰の方法を再現することができる。また、辞書222内のパラメータは、第3のパラメータの一例である。
位置ずれ予測部学習ブロック323は、位置ずれ予測部3232と、学習部3233とを含む。尚、位置ずれ予測部学習ブロック323は、上述した判定部3211相当の機能を有する処理モジュールをさらに含むものであっても良い。または、位置ずれ予測部学習ブロック323は、上述した判定部3211から既定の矩形領域に対する正否の判定結果の組を示す情報を受信してもよい。
位置ずれ予測部3232は、検出対象を含む入力領域についてモーダル間の位置ずれを予測するモデル、つまり処理モジュールである。言い換えると、位置ずれ予測部3232は、ラベルにおけるモーダル間の位置ずれ量を予測する。そして、学習部3233は、第1の学習手段の一例であり、位置ずれ予測部3232のパラメータを調整する手段である。すなわち、学習部3233は、候補領域が正解領域を含む度合いが所定値以上である判定結果の組における複数の正解領域のそれぞれと、検出対象における所定の基準領域との差分を位置ずれ量として、位置ずれ予測部3232のパラメータを学習する。ここで、学習部3233は、複数の正解領域のいずれか一方、又は、複数の正解領域の中間の位置を基準領域とするとよい。尚、矩形回帰部学習ブロック322に含まれる学習部3223も、同様に基準領域を定めても良い。そして、学習部3233は、学習したパラメータを辞書223に保存する。
また、学習部3233は、スコア算出部学習ブロック321において正例とした既定の矩形領域に対して、特徴マップ抽出部の辞書210を用いて得られた特徴マップを用いる。そして、学習部3233は、正解ラベル130に従って例えば対応する正解領域間の位置ずれ量を正解として位置ずれ予測部3232に予測させるようにパラメータを調整する。つまり、学習部3233は、辞書210に保存されたパラメータを用いて特徴マップ抽出部311により抽出された複数の特徴マップを用いて、パラメータを学習する。
言い換えると、まず、学習部3233は、辞書223に保存されたパラメータを読み出して位置ずれ予測部3232に設定する。そして、学習部3233は、正例の候補領域の正解領域と、当該正解領域の検出対象における所定の基準領域との差分を位置ずれ量とするようにパラメータを調整(学習)する。例えば、一方の正解領域を基準領域とした場合、当該正解領域と他方の正解領域との差分を位置ずれ量とする。また、各正解領域の中間位置を基準領域とする場合、少なくも一方の正解領域と基準領域との差分を2倍したものが、位置ずれ量となる。そして、学習部3233は、調整後のパラメータにより辞書223を更新(保存)する。
また、矩形回帰部学習ブロック322で目的変数を基準とするモーダルの領域に合わせた場合には、他方のモーダルでの領域が相対的にどうずれるかを位置ずれ量の正解にすればよい。ここで、位置ずれ予測部3232としてニューラルネットワークのモデルを用いる場合には、該当する既定の矩形領域の中心位置周辺の特徴マップからそれぞれ位置ずれ量を計算して同じ配置でマップ状に並べるものとするとよい。これにより、学習部3233による処理を、畳み込み層による演算として表現できる。尚、既定の矩形領域の形状については出力されるマップをそれに応じて複数用意すればよい。また、重みパラメータの更新には位置ずれ量の平滑化L1損失関数に関する勾配降下法を選ぶことができる。他には、類似度を計測して対応をとる方法が考えられるが、類似度の計算に含まれるパラメータがあれば交差検定等で決定する。
なお、予測する位置ずれの形式は、設置したカメラの特性に応じて選択してもよい。例えば、マルチモーダル画像120中の画像データ群を構成するモーダルA画像121を撮影するカメラAとモーダルB画像122を撮影するカメラBが、横に整列して並んでいる場合、水平方向の平行移動のみに限った予測を学習してもよい。
位置ずれ予測部の辞書223は、位置ずれ予測部学習ブロック323により学習されたパラメータの集合を保持する部位である。そして、辞書223内のパラメータを位置ずれ予測部3232に設定することで、学習されたモーダル間の位置ずれ予測の方法を再現することができる。また、辞書223内のパラメータは、第1のパラメータの一例である。
モーダル融合識別部学習ブロック330は、モーダル融合識別部331と、学習部332とを含む。モーダル融合識別部331は、各モーダルの特徴マップを元に、全モーダルの特徴マップへの融合を行い、検出候補領域を識別して検出結果を導くモデル、つまり処理モジュールである。学習部332は、第5の学習手段の一例であり、モーダル融合識別部331のパラメータを調整する手段である。そして、例えば、学習部332は、領域候補選択部学習ブロック320により算出された検出候補領域について、特徴マップ抽出部の辞書210を用いて特徴マップ抽出部311により抽出された特徴マップをモーダルごとに切り出したものを入力とする。そして、学習部332は、当該入力についてモーダル融合識別部331によりモーダル融合及び検出候補領域の識別を行わせる。このとき、学習部332は、正解ラベル130の示す検出対象のクラスや領域位置を予測させるようにモーダル融合識別部331のパラメータを調整(学習)する。そして、学習部332は、調整後のパラメータにより辞書230を更新(保存)する。
ここで、モーダル融合識別部331としてニューラルネットワークのモデルを用いる場合には、それぞれ切り出された各モーダルの特徴マップを畳み込み層などにより融合した特徴を算出し、その特徴を用いて全結合層で識別を行うような構造にしてもよい。また、学習部332は、クラス分類については交差エントロピー誤差、検出領域の調整には座標の変換パラメータの平滑化L1損失関数などに関する勾配降下法によってネットワークの重みを決定する。ただし、識別機能としては決定木やサポートベクタマシンを用いることもできる。
モーダル融合識別部の辞書230は、モーダル融合識別部学習ブロック330により学習されたパラメータの集合を保持する部位である。そして、辞書230内のパラメータをモーダル融合識別部331に設定することで、学習されたモーダル融合および識別の方法を再現することができる。また、辞書230内のパラメータは、第5のパラメータの一例である。
尚、図4では、領域候補選択部の辞書220を機能ごとに221〜223に分離して記したが、共有する部分があっても良い。また、図5では、各学習ブロックの内部に学習対象のモデル(特徴マップ抽出部311等)を記載したが、これらは、領域候補選択部学習ブロック320の外部に存在してもよい。例えば、学習対象のモデルは、記憶装置200等に保存されたライブラリであり、各学習ブロックが呼び出して実行するものであってもよい。また、スコア算出部3212、矩形回帰部3222及び位置ずれ予測部3232をまとめて、領域候補選出部と呼ぶこともできる。
尚、学習対象の各部位(モデル)としてニューラルネットワークを用いる場合には、辞書210、220、230にネットワークの重みパラメータが格納され、学習ブロック310、320、330としてはそれぞれの誤差関数に関する勾配降下法が用いられる。ニューラルネットワークでは上流の部位に対しても誤差関数の勾配を計算することができる。そのため、図4の破線が示すように、領域候補選択部学習ブロック320やモーダル融合識別部学習ブロック330によって特徴マップ抽出部の辞書210を更新することもできる。
図6は、本実施の形態2にかかる学習処理の流れを説明するためのフローチャートである。まず、特徴マップ抽出部学習ブロック310の学習部312は、特徴マップ抽出部311を学習する(S201)。尚、この時点では、辞書210に任意の初期パラメータが保存されており、任意の特徴マップの正解データが学習部312に入力されるものとする。続いて、学習部312は、ステップS201の結果のパラメータを特徴マップ抽出部の辞書210に反映(更新)する(S202)。続いて、領域候補選択部学習ブロック320は、更新された辞書210を用いて抽出される特徴マップを使って、領域候補選出部を学習する(S203)。すなわち、スコア算出部学習ブロック321は、判定部3211の判定結果に基づき、学習部3213がスコア算出部3212を学習する。また、矩形回帰部学習ブロック322は、判定部3211の判定結果に基づき、学習部3223が矩形回帰部3222を学習する。また、位置ずれ予測部学習ブロック323は、判定部3211の判定結果に基づき、学習部3233が位置ずれ予測部3232を学習する。そして、領域候補選択部学習ブロック320は、ステップS203の結果のパラメータを領域候補選択部の辞書220、つまり辞書221〜223に反映(更新)する(S204)。ただしニューラルネットワークを用いるときには、領域候補選択部学習ブロック320は、特徴マップ抽出部の辞書210も同時に更新する。具体的には、領域候補選択部学習ブロック320は、学習ブロック321〜323におけるそれぞれの損失関数の重みパラメータに関する勾配を、特徴マップ抽出部311のパラメータについても計算して、その勾配にもとづいて更新を行う。その後、モーダル融合識別部学習ブロック330の学習部332は、モーダル融合識別部331を学習する(S205)。このとき、学習部332は、領域候補選択部の辞書221〜223を用いて得られる検出候補領域における、特徴マップ抽出部の辞書210を用いて得られる特徴マップを用いる。そして、学習部332は、ステップS205の結果のパラメータをモーダル融合識別部の辞書230に反映(更新)する(S206)。ただしニューラルネットワークを用いるときには、学習部332は、特徴マップ抽出部の辞書210も同時に更新する。具体的には、学習部332は、学習ブロック330における損失関数のパラメータに関する勾配を、特徴マップ抽出部311のパラメータについても計算して、その勾配にもとづいて更新を行う。その後、画像処理システム1000は、ステップS203からS206の処理が、あらかじめ設定した所定の回数繰り返したか否か、つまり、終了条件であるか否かを判定する(S207)。当該処理が所定の回数未満のである場合、(S207でNO)、検出候補領域の予測に対する条件が変更されているため、再びステップS203に戻る。そして、各パラメータが十分に最適化されるまでステップS203からS206を繰り返す。ステップS207において、当該処理が所定の回数繰り返された場合(S207でYES)、当該学習処理を終了する。尚、当該処理の繰り返しの最終回の学習においては、ステップS206における特徴マップ抽出部の辞書の更新を行わず、パラメータを固定しておいてもよい。
尚、図6のステップS203からS207の繰り返し処理については、他の処理を採用しても構わない。例えば、次のような処理を採用しても良い。まず、ステップS203及びS204の後、ステップS205と並行してS203を実行する(S208)。そして、モーダル融合識別部学習ブロック330による学習と領域候補選択部学習ブロック320による学習との双方を考慮して特徴マップ抽出部学習ブロック310の学習を行う(S209)。その後、学習結果に応じて辞書210、220及び230の更新を行う(S210)。そして、特徴マップ抽出部の辞書210が更新されていた場合、再度、ステップS208、S209及びS210を行う。ステップS210において特徴マップ抽出部の辞書210が更新されてない場合、当該学習処理を終了する。
このように、本実施の形態にかかる画像処理システム1000は、マルチモーダル画像120内の各モーダルA画像121及びモーダルB画像122のそれぞれに対応する正解領域131及び132を用いて、領域候補選択部学習ブロック320においてモデルの学習を行う。特に、領域候補選択部学習ブロック320内の位置ずれ予測部学習ブロック323は、特定のラベルにおけるモーダル間の位置ずれ量を予測する位置ずれ予測部3232のパラメータを学習する。これにより、入力された画像間の位置ずれに応じたモーダルごとの正確な検出候補領域を算出することができる。
また、本実施の形態では、各モーダルに対応し、位置ずれを加味した正解領域の組を用いて、スコア算出部や矩形回帰部のパラメータも学習する。そのため、非特許文献1と比べて、位置ずれを反映したスコア算出や矩形回帰を行うことができ、これらの精度も向上し得る。
さらに、本実施の形態では、上記の正解領域の組による矩形領域の正否判定結果の組を用いて特徴マップ抽出部のパラメータの学習を行ない、学習後のパラメータを用いて再度、特徴マップを抽出した上で、領域候補選択部の各種パラメータの学習を行う。これにより、選択する領域候補の精度をさらに向上できる。
さらに、このようにして抽出された特徴マップを用いて、モーダル融合識別部のパラメータを学習する。これにより、モーダル融合識別部の処理の精度を向上できる。
また、本実施の形態により、物体検出の性能を向上させることができる。その理由は、視差による画像内の位置ずれは受光面からの距離に依存するが、同じ物体のみを主に含む領域ごとには平行移動で近似できるためである。そして、検出候補領域をモーダルごとに分けることにより、予測された位置ずれの分だけ移動させた検出候補領域を組み合わせて位置ずれのない場合とほぼ同様の特徴マップの組から認識できるためである。さらに学習時に、位置ずれの補正された検出候補領域に対する認識方法を獲得することができるためである。
<実施の形態3>
本実施の形態3は、上述した実施の形態2の応用例である。本実施の形態3は、実施の形態2にかかる画像処理システム1000により学習された各パラメータを用いて、任意のマルチモーダル画像から物体検出を行うための画像認識処理を行うものである。図7は、本実施の形態3にかかる画像処理システム1000aの構成を示すブロック図である。画像処理システム1000aは、図4の画像処理システム1000に機能を追加したものであり、図4における記憶装置200以外の構成は、図7では省略している。そのため、画像処理システム1000aは、上述した画像処理装置1に機能を追加及び具体化したものであってもよい。また、画像処理システム1000aは、複数台のコンピュータ装置により構成されて、後述する各機能ブロックを実現するものであってもよい。
画像処理システム1000aは、記憶装置500と、記憶装置200と、モーダル画像入力部611及び612と、画像認識処理ブロック620と、出力部630とを少なくとも備える。また、画像認識処理ブロック620は、特徴マップ抽出部621及び622と、モーダル融合識別部626とを少なくとも含む。
ここで、画像処理システム1000aを構成する少なくとも1つのコンピュータは、プロセッサ(不図示)がプログラムをメモリ(不図示)に読み込み、実行する。これにより、画像処理システム1000aは、当該プログラムが実行されることにより、モーダル画像入力部611及び612、画像認識処理ブロック620並びに出力部630を実現することができる。ここで、当該プログラムは、上述した学習処理に加えて、本実施の形態にかかる後述の画像認識処理が実装されたコンピュータプログラムである。例えば、当該プログラムは、上述した実施の形態2にかかるプログラムに改良を加えたものである。また、当該プログラムは、複数のプログラムモジュールに分割されたものであってもよく、各プログラムモジュールが1又は複数のコンピュータにより実行されるものであってもよい。
記憶装置500は、例えば、ハードディスク、フラッシュメモリ等の不揮発性記憶装置である。記憶装置500は、入力データ510及び出力データ530を記憶する。入力データ510は、画像認識対象のマルチモーダル画像520を含む情報である。尚、入力データ510は、複数のマルチモーダル画像520を含むものであってもよい。マルチモーダル画像520は、上述したマルチモーダル画像120と同様に、異なる複数のモーダルにより撮影されたモーダルA画像521及びモーダルB画像522の組である。例えば、モーダルA画像521はモーダルAにより撮影された画像であり、モーダルB画像522はモーダルBにより撮影された画像であるものとする。出力データ530は、入力データ510に対する画像認識処理の結果を示す情報である。例えば、出力データ530は、検出対象として識別された領域及びラベル、検出対象としての確からしさを示すスコア等を含むものである。
記憶装置200は、図4と同様の構成であり、特に、図6による学習処理が終了した後のパラメータが保存されているものとする。
モーダル画像入力部611及び612は、記憶装置500からモーダルA画像521及びモーダルB画像522を読み出して、画像認識処理ブロック620へ出力するための処理モジュールである。具体的には、モーダル画像入力部611は、モーダルA画像521を入力し、モーダルA画像521を特徴マップ抽出部621へ出力する。また、モーダル画像入力部612は、モーダルB画像522を入力し、モーダルB画像522を特徴マップ抽出部622へ出力する。
図8は、本実施の形態3にかかる画像認識処理ブロック620の内部構成を示すブロック図である。尚、記憶装置200は、図7と同様である。画像認識処理ブロック620は、特徴マップ抽出部621及び622と、領域候補選択部623と、切り出し部624及び625と、モーダル融合識別部626とを備える。また、画像認識処理ブロック620の内部構成として図示している検出候補領域627及び628は、説明の便宜上、記載したものであり、画像認識処理における中間データである。そのため、検出候補領域627及び628は、実体としては、画像処理システム1000a内のメモリに存在するものである。
特徴マップ抽出部621及び622は、上述した特徴マップ抽出部311と同等の機能を有する処理モジュールである。例えば、畳み込みニューラルネットワークやHOG(Histograms of Oriented Gradients)特徴などの局所特徴抽出器を適用することができる。また、特徴マップ抽出部621及び622は、特徴マップ抽出部311と同じライブラリを用いても良い。ここで、特徴マップ抽出部621及び622は、辞書210に保存されたパラメータを内部のモデル式等に設定する。例えば、画像認識処理ブロック620内の制御部(不図示)が記憶装置200から辞書210の各種パラメータを読み出して、特徴マップ抽出部621及び622を呼び出す際に、パラメータを引数として与えても良い。
そして、特徴マップ抽出部621は、モーダル画像入力部611から入力されるモーダルA画像521から、上記パラメータが設定済みのモデル式により、(モーダルAの)特徴マップを抽出する。特徴マップ抽出部621は、抽出した特徴マップを領域候補選択部623及び切り出し部624へ出力する。同様に、特徴マップ抽出部622は、モーダル画像入力部612から入力されるモーダルB画像522から、上記パラメータが設定済みのモデル式により、(モーダルBの)特徴マップを抽出する。特徴マップ抽出部622は、抽出した特徴マップを領域候補選択部623及び切り出し部625へ出力する。
領域候補選択部623は、特徴マップ抽出部621及び622から各モーダルの特徴マップを入力し、モーダル間の位置ずれを考慮して、複数の既定の矩形領域の中から各モーダルに対応する検出候補領域の組を選択する。そして、領域候補選択部623は、選択した検出候補領域の組を切り出し部624及び625へ出力する。ここで、矩形領域の自由度は、上述した通り、中心位置を指定する2つの座標、幅と高さの4つである。そのため、モーダル間でスケールが変わらないと仮定する場合、領域候補選択部623は、中心位置座標のみをモーダルの数だけ出力すればよい。尚、出力する検出候補領域の組は複数あっても良い。領域候補選択部623は、スコア算出部6231、矩形回帰部6232、位置ずれ予測部6233、選定部6234及び算出部6235を含む処理モジュールである。
スコア算出部6231は、入力される各モーダルの特徴マップについて、個別に検出対象らしさを評価するスコアを算出する。矩形回帰部6232は、既定の矩形領域それぞれに対してより正確な位置と幅及び高さを予測する。位置ずれ予測部6233は、モーダル間の位置合わせのための位置ずれ量を予測する。選定部6234は、スコア算出部6231のスコアと矩形回帰部6232の回帰結果をもとに、回帰後の複数の領域の中から検出候補領域を選び出す。算出部6235は、選定部6234により選定された検出候補領域に対応する他のモーダルの領域を、位置ずれ予測部6233により予測された位置ずれ量から算出する。
ここで、スコア算出部6231、矩形回帰部6232及び位置ずれ予測部6233は、上述したスコア算出部3212、矩形回帰部3222及び位置ずれ予測部3232と同等の機能を有する処理モジュールである。そのため、スコア算出部6231、矩形回帰部6232及び位置ずれ予測部6233は、上述したスコア算出部3212、矩形回帰部3222及び位置ずれ予測部3232と同じライブラリを用いても良い。ここで、スコア算出部6231は、辞書221に保存されたパラメータを内部のモデル式等に設定する。同様に、矩形回帰部6232は、辞書222に保存されたパラメータを内部のモデル式等に設定する。また、位置ずれ予測部6233は、辞書223に保存されたパラメータを内部のモデル式等に設定する。例えば、上述した制御部が記憶装置200から辞書220の各種パラメータを読み出して、スコア算出部6231、矩形回帰部6232及び位置ずれ予測部6233を呼び出す際に、対応するパラメータを引数としてそれぞれに与えても良い。
スコア算出部6231は、画像内の既定の矩形領域のすべての中から検出候補領域を絞り込むために、スコア算出部の辞書221を用いて検出対象らしさの信頼度のスコアを算出する。ただし、スコア算出部6231は、特徴マップ抽出部621および622により抽出された特徴マップのすべてを入力とする。そして、スコア算出部6231は、モーダルA及びモーダルBの両方の情報から検出対象かそれ以外かを予測する。ただし、上述した学習段階において、スコア算出部6231のパラメータは、対応する既定の矩形領域と正解領域との重複度があらかじめ与えた閾値を超える場合に検出対象であるとみなすようなスコアを算出するように学習されている。そして、ニューラルネットワークを用いる場合では、畳み込み層を用いると特徴マップ上の画素位置ごとの出力を設けることができる。そのため、スコア算出部6231のパラメータは、それぞれが検出対象か否かの2値分類をするように学習しておけばよい。
矩形回帰部6232は、矩形回帰部の辞書222を用いて、対象の既定の矩形領域に対して、基準とするモーダルA上でより正確に検出対象を囲む矩形座標を予測する処理モジュールである。ここで、矩形回帰部6232が対象とする既定の矩形領域は、ある正解領域との重複度があらかじめ与えた閾値を超えるような領域である。例えば、矩形回帰部6232は、スコア算出部6231において所定値以上のスコアが算出された矩形領域を対象としてもよい。また、ニューラルネットワークを用いる場合では、畳み込み層を用いると特徴マップ上の画素位置ごとの出力を設けることができる。そのため、矩形回帰部6232のパラメータは、上述した学習段階において、正解領域との重複が十分あった既定の矩形領域に対応する各画素での出力が、既定の矩形領域の座標と正解領域の座標との差分になるように回帰を学習しておけばよい。これにより、予測した差分により既定の矩形領域の座標を変換することで求めたい矩形座標が得られる。
位置ずれ予測部6233は、モーダルBのモーダルAに対する位置ずれ量を位置ずれ予測部の辞書223を使って予測する処理モジュールである。位置ずれ予測部6233の実現方法は、ニューラルネットワークを用いてデータから学習して獲得しても良い。また、例えば、空間構造を比較する以下の方針も可能である。まず、位置ずれ予測部6233は、既定の矩形領域に対応する領域をパッチとしてモーダルAの特徴マップから抜き出し、そのパッチとモーダルBの特徴マップ全体との相関スコアマップを作成する。そして、位置ずれ予測部6233は、相関スコアの高い位置へのずれが起こっている可能性が高いとみなして最大値における座標に対応する位置ずれ量を選ぶとよい。また、相関スコアを確率とみなして座標の目標値を取ることもできる。ここで、相関スコアマップは例えば、元の画像間への適用が想定される非特許文献4などの指標を流用してもよい。または、ニューラルネットワークのようなモデルでマッチングを事前に学習したものを適用して求めてもよい。
選定部6234は、スコア算出部6231で算出された各既定の矩形領域に対するスコアを基準として、優先順位のより高いものを残すべき矩形領域として選定する処理モジュールである。例えば、選定部6234は、あらかじめ決めた個数の矩形領域をスコアの大きい順に選ぶ処理をすればよい。
算出部6235は、選定部6234により選定された既定の矩形領域に対する回帰結果と、位置ずれ予測部6233により予測された位置ずれ量から、検出候補領域627及び628の組を算出する処理モジュールである。具体的には、モーダルBで見たときの検出対象を囲む矩形座標は、矩形回帰部6232の出力の位置座標に、位置ずれ予測部6233により予測された位置ずれ量を加えることで求められる。そのため、算出部6235は、選定された矩形領域の回帰結果の領域の位置座標を検出候補領域627として出力する。また、算出部6235は、モーダルAに対応する検出候補領域627の位置座標に位置ずれ量を加えて、モーダルBに対応する検出候補領域628の位置座標を算出し、当該位置座標を検出候補領域628として出力する。例えば、算出部6235は、モーダルAに対応する検出候補領域627を切り出し部624へ出力し、モーダルBに対応する検出候補領域628を切り出し部625へ出力する。
切り出し部624及び625は、同一の処理であり、入力された特徴マップから、入力された検出候補領域に対応する特徴量を切り出して整形する処理モジュールである。具体的には、切り出し部624は、特徴マップ抽出部621からモーダルA画像521から抽出された特徴マップと、算出部6235からモーダルAの検出候補領域627との入力を受け付ける。そして、切り出し部624は、受け付けたモーダルAの特徴マップから検出候補領域627に対応する位置の特徴量、つまり特徴マップの部分集合を切り出して整形してモーダル融合識別部626へ出力する。同様に、切り出し部625は、特徴マップ抽出部622からモーダルB画像522から抽出された特徴マップと、算出部6235からモーダルBの検出候補領域628との入力を受け付ける。そして、切り出し部625は、受け付けたモーダルBの特徴マップから検出候補領域628に対応する位置の特徴量、つまり特徴マップの部分集合を切り出して整形してモーダル融合識別部626へ出力する。ただし、検出候補領域の座標はピクセル単位でなくても良く、その場合は内挿などの方法で座標位置の値に換算する。
モーダル融合識別部626は、上述したモーダル融合識別部331と同等の機能を有し、検出候補領域の位置に対応する特徴マップの部分集合の組を元に、モーダル融合及び識別を行う処理モジュールである。また、モーダル融合識別部626は、モーダル融合識別部331と同じライブラリを用いても良い。ここで、モーダル融合識別部626は、辞書230に保存されたパラメータを内部のモデル式等に設定する。例えば、画像認識処理ブロック620内の制御部(不図示)が記憶装置200から辞書230の各種パラメータを読み出して、モーダル融合識別部626を呼び出す際に、パラメータを引数として与えても良い。
モーダル融合識別部626は、切り出し部624及び625により切り出された特徴マップの部分集合の組を受け付け、それぞれに対してクラス(ラベル)と物体の写っている領域を算出する。このとき、モーダル融合識別部626は、上記パラメータが設定済みのモデル式を用いる。そして、モーダル融合識別部626は、非特許文献1とは異なり、モーダル融合の対象の特徴マップの組が位置ずれを補正(加味)されたものであるため、同じ対象を捉えた点同士で融合することができる。また、モーダル融合識別部626は、融合後の情報について複数の検出対象のいずれであるか又は非検出対象であるかのクラスを予測して識別結果とする。モーダル融合識別部626は、例えば、物体の写っている領域については矩形座標あるいはマスク画像などを予測する。また、例えばニューラルネットワークを用いる場合には、モーダル融合にはフィルタサイズ1の畳み込み層などを利用し、識別には全結合層や畳み込み層と大域的平均プーリングなどを利用することができる。その後、モーダル融合識別部626は、識別結果を出力部630へ出力する。
図7に戻り説明を続ける。出力部630は、モーダル融合識別部626で予測した結果を出力データ530として記憶装置500へ出力する処理モジュールである。ここでは、出力部630は、検出結果だけでなく、モーダルA画像およびモーダルB画像から、より視認性が高い画像を生成し、これを検出結果とともに出力してもよい。また、より視認性が高い画像を生成する方法としては、例えば、非特許文献2或いは3に記載の方法を用いて、所望の画像を生成すればよい。
図9は、本実施の形態3にかかる画像認識処理を含む物体検出処理の流れを説明するためのフローチャートである。また、図10は、本実施の形態3にかかる物体検出の概念を説明する図である。以下では、物体検出処理を説明する中で、適宜、図10の例を参照する。
まず、モーダル画像入力部611及び612は、検出対象の有無と位置を調べたい場面を捉えたマルチモーダル画像520を入力する(S801)。マルチモーダル画像520は、図10では、入力画像の組41である。入力画像の組41は、モーダルAにより撮影された入力画像411と、モーダルBにより撮影された入力画像412との組である。尚、入力画像の組41は、特性の異なる2枚(以上)の画像の組であればよい。図10の例では、入力画像411は、背景とみなすべき背景物体4111や検出対象である人物4112を含む。また、別モーダルの入力画像412は、背景物体4111に対応する背景物体4121と、人物4112に対応する人物4122を含む。ここで、入力画像411と入力画像412を撮影したそれぞれのカメラは、水平に並べられたような位置関係にあり、視差があるものとする。そのため、画像内で各カメラから相対的に近い位置の人物4112と4122は、横方向にずれて写っているものとする。一方、画像内でカメラから相対的に遠方に写る背景物体4111と4121は、画像内のほぼ同じ位置(視差が無視できる程度の位置)に写っているものとする。
次に、特徴マップ抽出部621及び622は、ステップS801において入力された各モーダルの入力画像から、それぞれの特徴マップを抽出する(S802)。
続いて、領域候補選択部623は、モーダルごとの特徴マップからモーダルごとに画像内位置の異なりうる検出候補領域の組を算出する領域候補選択処理を行う(S803)。図10の例では、モーダルAに対応する入力画像411とモーダルBに対応する入力画像412について、それぞれ画像421及び422内の破線で示されたような複数の検出候補領域の組42が得られていることを示す。ここで、モーダルAに対応する画像421内の検出候補領域4213は、背景物体4111と同じ背景物体4211を囲んでいる。一方、モーダルBに対応する画像422内の検出候補領域4223は、背景物体4111に対応する背景物体4121と同じ背景物体4221を囲み、検出候補領域4213とのペアの領域となる。そして、入力画像411と412の間で視差により位置ずれのあった人物4112と4122は、画像421及び422の中では人物4212と4222に対応する。そして、画像421内の人物4212は、検出候補領域4214で囲まれており、画像422内の人物4222は、検出候補領域4224で囲まれている。そして、モーダルAに対応する検出候補領域4214とモーダルBに対応する検出候補領域4224は、位置ずれが加味されている。つまり、検出候補領域4214と4224の組は、モーダルA及びBの間の位置ずれが反映されている。ステップS803では、このように位置のずれた検出候補領域の組を出力するが、以下に詳細な処理(S8031からS8035)を説明する。
まず、スコア算出部6231は、既定の矩形領域それぞれに対するスコアを算出する(S8031)。また、矩形回帰部6232は、スコア算出部6231の出力であるスコアを用いて、矩形領域間の優先順位を求め、基準とするモーダル(ここではA)で見たときに検出対象をより正確に囲む矩形座標を予測する(S8032)。また、位置ずれ予測部6233は、モーダルBのモーダルAに対する位置ずれ量を予測する(S8034)。尚、ステップS8031、S8032及びS8034は並列に処理してもよい。
ステップS8031及びS8032の後、選定部6234は、ステップS8031で算出されたスコアをもとに、残すべき既定の矩形領域を選定する(S8033)。
ステップS8033及びS8034の後、算出部6235は、ステップS8033で選定された矩形領域についての矩形回帰の結果とステップS8034における位置ずれ予測の結果から各モーダルに対する検出候補領域の組を算出する(S8035)。
その後、切り出し部624及び625は、ステップS802で抽出された各特徴マップから、ステップS8035で算出された検出候補領域の位置座標で切り出す(S804)。そして、モーダル融合識別部626は、切り出された特徴マップの部分集合の組をモーダル融合してクラス(ラベル)を識別する(S805)。
最後に、出力部630は、識別結果として検出対象のいずれか又は背景のどのクラスに属するか、またそれが写る画像上の領域を出力する(S806)。この識別結果は例えば図10の出力画像431のように表示することができる。ここでは入力画像411のモーダルAを基準、あるいは表示用とみなすものとする。そして、出力画像431は、検出候補領域4213及び4223の識別結果が上部の検出候補領域4311に、また検出候補領域4214及び4224の識別結果は下部の検出候補領域4312に集約されていることを示す。尚、検出候補領域4311には、背景を示すラベル4313が識別結果として付されており、検出候補領域4312には、人物を示すラベル4314が識別結果として付されていることを示す。
本実施の形態は、上述した実施の形態にかかる画像処理装置又はシステムに、候補領域選択部をさらに備えるものということができる。ここで、候補領域選択部は、複数の特徴マップと記憶装置に保存された学習済みの位置ずれ予測部のパラメータを用いて、入力画像間の前記検出対象における位置ずれ量を予測するものである。そして、候補領域選択部は、予測した位置ずれ量に基づいて前記複数の入力画像のそれぞれから前記検出対象を含む候補領域の組を選択するものである。このとき、複数の特徴マップは、複数のモーダルにより撮影された複数の入力画像から、記憶装置に保存された学習済みの特徴マップ抽出部のパラメータを用いて抽出されたものである。これにより、精度良く位置ずれを予測でき、かつ、精度良く候補領域の組を選択できる。
尚、複数モーダルに対する検出領域を予測して最終の出力とするようにすることもできる。その場合は結果の位置ずれ量の大きさとカメラ配置から、検出した対象までの距離を算出することが可能である。
尚、位置ずれをなくすためには、複数のモーダルに対応する複数カメラの間で光軸が一致するようにして撮影することも考えられる。但し、これを実現するためには、ビームスプリッター等を利用して複数カメラに共通の方向からの光を分配するような配置に調整された特別な撮影装置を要する。これに対して、本実施の形態にかかる技術を用いると、光軸のずれが許容され、単純に平行に並べて設置した複数カメラを用いることができる。
<その他の実施の形態>
尚、上述の実施の形態では、ハードウェアの構成として説明したが、これに限定されるものではない。本開示は、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。
上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、DVD(Digital Versatile Disc)、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。また、本開示は、それぞれの実施の形態を適宜組み合わせて実施されてもよい。
上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
特定の検出対象に対して異なる複数のモーダルにより撮影された複数の画像のそれぞれにおいて当該検出対象が含まれる複数の正解領域と、当該検出対象に付されるラベルとを対応付けた正解ラベルを用いて、前記複数の画像の間で共通する所定の位置にそれぞれ対応する複数の候補領域について、前記複数の画像ごとに対応する前記正解領域を含む度合いを判定する判定手段と、
前記複数の画像のそれぞれから抽出された複数の特徴マップと、前記判定手段による前記複数の画像ごとの判定結果の組と、前記正解ラベルとに基づいて、第1のモーダルにより撮影された第1の画像に含まれる前記検出対象の位置と、第2のモーダルにより撮影された第2の画像に含まれる前記検出対象の位置との位置ずれ量を予測する際に用いる第1のパラメータを学習し、当該学習した第1のパラメータを記憶手段に保存する第1の学習手段と、
を備える画像処理装置。
(付記2)
前記第1の学習手段は、
前記度合いが所定値以上である前記判定結果の組における前記複数の正解領域のそれぞれと、前記検出対象における所定の基準領域との差分を前記位置ずれ量として、前記第1のパラメータを学習する
付記1に記載の画像処理装置。
(付記3)
前記第1の学習手段は、前記複数の正解領域のいずれか一方、又は、前記複数の正解領域の中間の位置を前記基準領域とする
付記2に記載の画像処理装置。
(付記4)
前記判定結果の組及び前記特徴マップに基づいて、前記候補領域に対する前記検出対象の度合いを示すスコアを算出する際に用いる第2のパラメータを学習し、当該学習した第2のパラメータを前記記憶手段に保存する第2の学習手段と、
前記判定結果の組及び前記特徴マップに基づいて、前記候補領域の位置及び形状を前記判定に用いられた正解領域に近付ける回帰を行う際に用いる第3のパラメータを学習し、当該学習した第3のパラメータを前記記憶手段に保存する第3の学習手段と、
をさらに備える
付記1乃至3のいずれか1項に記載の画像処理装置。
(付記5)
前記判定結果の組に基づいて、前記複数の画像のそれぞれから前記複数の特徴マップを抽出する際に用いる第4のパラメータを学習し、当該学習した第4のパラメータを前記記憶手段に保存する第4の学習手段をさらに備え、
前記第1の学習手段は、
前記記憶手段に保存された前記第4のパラメータを用いて前記複数の画像のそれぞれから抽出された前記複数の特徴マップを用いて、前記第1のパラメータを学習する
付記1乃至4のいずれか1項に記載の画像処理装置。
(付記6)
前記複数の特徴マップを融合し、かつ、前記候補領域を識別する際に用いる第5のパラメータを学習し、当該学習した第5のパラメータを前記記憶手段に保存する第5の学習手段をさらに備える
付記5に記載の画像処理装置。
(付記7)
前記複数のモーダルにより撮影された複数の入力画像から前記記憶手段に保存された前記第4のパラメータを用いて抽出された複数の特徴マップと、前記記憶手段に保存された前記第1のパラメータとを用いて、前記入力画像間の前記検出対象における位置ずれ量を予測して、当該予測した位置ずれ量に基づいて前記複数の入力画像のそれぞれから前記検出対象を含む候補領域の組を選択する候補領域選択手段をさらに備える
付記5又は6のいずれか1項に記載の画像処理装置。
(付記8)
前記複数の画像のそれぞれは、前記複数のモーダルのそれぞれに対応する複数のカメラにより撮影されたものである
付記1乃至7のいずれか1項に記載の画像処理装置。
(付記9)
前記複数の画像のそれぞれは、移動中の1つのカメラにより所定間隔で前記複数のモーダルを切り替えて撮影されたものである
付記1乃至7のいずれか1項に記載の画像処理装置。
(付記10)
特定の検出対象に対して異なる複数のモーダルにより撮影された複数の画像と、前記複数の画像のそれぞれにおいて前記検出対象が含まれる複数の正解領域と当該検出対象に付されるラベルとを対応付けた正解ラベルと、を記憶する第1の記憶手段と、
第1のモーダルにより撮影された第1の画像に含まれる前記検出対象の位置と、第2のモーダルにより撮影された第2の画像に含まれる前記検出対象の位置との位置ずれ量を予測する際に用いる第1のパラメータを記憶する第2の記憶手段と、
前記正解ラベルを用いて、前記複数の画像の間で共通する所定の位置にそれぞれ対応する複数の候補領域について、前記複数の画像ごとに対応する前記正解領域を含む度合いを判定する判定手段と、
前記複数の画像のそれぞれから抽出された複数の特徴マップと、前記判定手段による前記複数の画像ごとの判定結果の組と、前記正解ラベルとに基づいて、前記第1のパラメータを学習し、当該学習した第1のパラメータを前記第2の記憶手段に保存する第1の学習手段と、
を備える画像処理システム。
(付記11)
前記第1の学習手段は、
前記度合いが所定値以上である前記判定結果の組における前記複数の正解領域のそれぞれと、前記検出対象における所定の基準領域との差分を前記位置ずれ量として、前記第1のパラメータを学習する
付記10に記載の画像処理システム。
(付記12)
画像処理装置が、
特定の検出対象に対して異なる複数のモーダルにより撮影された複数の画像のそれぞれにおいて当該検出対象が含まれる複数の正解領域と、当該検出対象に付されるラベルとを対応付けた正解ラベルを用いて、前記複数の画像の間で共通する所定の位置にそれぞれ対応する複数の候補領域について、前記複数の画像ごとに対応する前記正解領域を含む度合いを判定し、
前記複数の画像のそれぞれから抽出された複数の特徴マップと、前記複数の画像ごとの判定結果の組と、前記正解ラベルとに基づいて、第1のモーダルにより撮影された第1の画像に含まれる前記検出対象の位置と、第2のモーダルにより撮影された第2の画像に含まれる前記検出対象の位置との位置ずれ量を予測する際に用いる第1のパラメータを学習し、
前記学習した第1のパラメータを記憶装置に保存する
画像処理方法。
(付記13)
特定の検出対象に対して異なる複数のモーダルにより撮影された複数の画像のそれぞれにおいて当該検出対象が含まれる複数の正解領域と、当該検出対象に付されるラベルとを対応付けた正解ラベルを用いて、前記複数の画像の間で共通する所定の位置にそれぞれ対応する複数の候補領域について、前記複数の画像ごとに対応する前記正解領域を含む度合いを判定する処理と、
前記複数の画像のそれぞれから抽出された複数の特徴マップと、前記複数の画像ごとの判定結果の組と、前記正解ラベルとに基づいて、第1のモーダルにより撮影された第1の画像に含まれる前記検出対象の位置と、第2のモーダルにより撮影された第2の画像に含まれる前記検出対象の位置との位置ずれ量を予測する際に用いる第1のパラメータを学習する処理と、
前記学習した第1のパラメータを記憶装置に保存する処理と、
をコンピュータに実行させる画像処理プログラムが格納された非一時的なコンピュータ可読媒体。
1 画像処理装置
11 判定部
12 学習部
13 記憶部
14 パラメータ
101 記憶装置
1011 プログラム
1012 パラメータ
102 メモリ
103 プロセッサ
1000 画像処理システム
1000a 画像処理システム
100 記憶装置
110 学習用データ
120 マルチモーダル画像
121 モーダルA画像
122 モーダルB画像
130 正解ラベル
131 正解領域
132 正解領域
133 ラベル
200 記憶装置
210 辞書
220 辞書
221 辞書
222 辞書
223 辞書
230 辞書
310 特徴マップ抽出部学習ブロック
311 特徴マップ抽出部
312 学習部
320 領域候補選択部学習ブロック
321 スコア算出部学習ブロック
3211 判定部
3212 スコア算出部
3213 学習部
322 矩形回帰部学習ブロック
3222 矩形回帰部
3223 学習部
323 位置ずれ予測部学習ブロック
3232 位置ずれ予測部
3233 学習部
330 モーダル融合識別部学習ブロック
331 モーダル融合識別部
332 学習部
41 入力画像の組
411 入力画像
4111 背景物体
4112 人物
412 入力画像
4121 背景物体
4122 人物
42 検出候補領域の組
421 画像
4211 背景物体
4212 人物
4213 検出候補領域
4214 検出候補領域
422 画像
4221 背景物体
4222 人物
4223 検出候補領域
4224 検出候補領域
431 出力画像
4311 検出候補領域
4312 検出候補領域
4313 ラベル
4314 ラベル
500 記憶装置
510 入力データ
520 マルチモーダル画像
521 モーダルA画像
522 モーダルB画像
530 出力データ
611 モーダル画像入力部
612 モーダル画像入力部
620 画像認識処理ブロック
621 特徴マップ抽出部
622 特徴マップ抽出部
623 領域候補選択部
6231 スコア算出部
6232 矩形回帰部
6233 位置ずれ予測部
6234 選定部
6235 算出部
624 切り出し部
625 切り出し部
626 モーダル融合識別部
627 検出候補領域
628 検出候補領域
630 出力部

Claims (10)

  1. 特定の検出対象に対して異なる複数のモーダルにより撮影された複数の画像のそれぞれにおいて当該検出対象が含まれる複数の正解領域と、当該検出対象に付されるラベルとを対応付けた正解ラベルを用いて、前記複数の画像の間で共通する所定の位置にそれぞれ対応する複数の候補領域について、前記複数の画像ごとに対応する前記正解領域を含む度合いを判定する判定と、
    前記複数の画像のそれぞれから抽出された複数の特徴マップと、前記判定による前記複数の画像ごとの判定結果の組と、前記正解ラベルとに基づいて、第1のモーダルにより撮影された第1の画像に含まれる前記検出対象の位置と、第2のモーダルにより撮影された第2の画像に含まれる前記検出対象の位置との位置ずれ量を予測する際に用いる第1のパラメータを学習し、当該学習した第1のパラメータを記憶に保存する第1の学習と、
    を備える画像処理装置。
  2. 前記第1の学習は、
    前記度合いが所定値以上である前記判定結果の組における前記複数の正解領域のそれぞれと、前記検出対象における所定の基準領域との差分を前記位置ずれ量として、前記第1のパラメータを学習する
    請求項1に記載の画像処理装置。
  3. 前記第1の学習は、前記複数の正解領域のいずれか一方、又は、前記複数の正解領域の中間の位置を前記基準領域とする
    請求項2に記載の画像処理装置。
  4. 前記判定結果の組及び前記特徴マップに基づいて、前記候補領域に対する前記検出対象の度合いを示すスコアを算出する際に用いる第2のパラメータを学習し、当該学習した第2のパラメータを前記記憶に保存する第2の学習と、
    前記判定結果の組及び前記特徴マップに基づいて、前記候補領域の位置及び形状を前記判定に用いられた正解領域に近付ける回帰を行う際に用いる第3のパラメータを学習し、当該学習した第3のパラメータを前記記憶に保存する第3の学習と、
    をさらに備える
    請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記判定結果の組に基づいて、前記複数の画像のそれぞれから前記複数の特徴マップを抽出する際に用いる第4のパラメータを学習し、当該学習した第4のパラメータを前記記憶に保存する第4の学習をさらに備え、
    前記第1の学習は、
    前記記憶に保存された前記第4のパラメータを用いて前記複数の画像のそれぞれから抽出された前記複数の特徴マップを用いて、前記第1のパラメータを学習する
    請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記複数の特徴マップを融合し、かつ、前記候補領域を識別する際に用いる第5のパラメータを学習し、当該学習した第5のパラメータを前記記憶に保存する第5の学習をさらに備える
    請求項5に記載の画像処理装置。
  7. 前記複数のモーダルにより撮影された複数の入力画像から前記記憶に保存された前記第4のパラメータを用いて抽出された複数の特徴マップと、前記記憶に保存された前記第1のパラメータとを用いて、前記入力画像間の前記検出対象における位置ずれ量を予測して、当該予測した位置ずれ量に基づいて前記複数の入力画像のそれぞれから前記検出対象を含む候補領域の組を選択する候補領域選択をさらに備える
    請求項5又は6のいずれか1項に記載の画像処理装置。
  8. 特定の検出対象に対して異なる複数のモーダルにより撮影された複数の画像と、前記複数の画像のそれぞれにおいて前記検出対象が含まれる複数の正解領域と当該検出対象に付されるラベルとを対応付けた正解ラベルと、を記憶する第1の記憶と、
    第1のモーダルにより撮影された第1の画像に含まれる前記検出対象の位置と、第2のモーダルにより撮影された第2の画像に含まれる前記検出対象の位置との位置ずれ量を予測する際に用いる第1のパラメータを記憶する第2の記憶と、
    前記正解ラベルを用いて、前記複数の画像の間で共通する所定の位置にそれぞれ対応する複数の候補領域について、前記複数の画像ごとに対応する前記正解領域を含む度合いを判定する判定と、
    前記複数の画像のそれぞれから抽出された複数の特徴マップと、前記判定による前記複数の画像ごとの判定結果の組と、前記正解ラベルとに基づいて、前記第1のパラメータを学習し、当該学習した第1のパラメータを前記第2の記憶に保存する第1の学習と、
    を備える画像処理システム。
  9. 画像処理装置が、
    特定の検出対象に対して異なる複数のモーダルにより撮影された複数の画像のそれぞれにおいて当該検出対象が含まれる複数の正解領域と、当該検出対象に付されるラベルとを対応付けた正解ラベルを用いて、前記複数の画像の間で共通する所定の位置にそれぞれ対応する複数の候補領域について、前記複数の画像ごとに対応する前記正解領域を含む度合いを判定し、
    前記複数の画像のそれぞれから抽出された複数の特徴マップと、前記複数の画像ごとの判定結果の組と、前記正解ラベルとに基づいて、第1のモーダルにより撮影された第1の画像に含まれる前記検出対象の位置と、第2のモーダルにより撮影された第2の画像に含まれる前記検出対象の位置との位置ずれ量を予測する際に用いる第1のパラメータを学習し、
    前記学習した第1のパラメータを記憶装置に保存する
    画像処理方法。
  10. 特定の検出対象に対して異なる複数のモーダルにより撮影された複数の画像のそれぞれにおいて当該検出対象が含まれる複数の正解領域と、当該検出対象に付されるラベルとを対応付けた正解ラベルを用いて、前記複数の画像の間で共通する所定の位置にそれぞれ対応する複数の候補領域について、前記複数の画像ごとに対応する前記正解領域を含む度合いを判定する処理と、
    前記複数の画像のそれぞれから抽出された複数の特徴マップと、前記複数の画像ごとの判定結果の組と、前記正解ラベルとに基づいて、第1のモーダルにより撮影された第1の画像に含まれる前記検出対象の位置と、第2のモーダルにより撮影された第2の画像に含まれる前記検出対象の位置との位置ずれ量を予測する際に用いる第1のパラメータを学習する処理と、
    前記学習した第1のパラメータを記憶装置に保存する処理と、
    をコンピュータに実行させる画像処理プログラム
JP2020518924A 2018-05-18 2018-05-18 画像処理装置、システム、方法及びプログラム Active JP6943338B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/019291 WO2019220622A1 (ja) 2018-05-18 2018-05-18 画像処理装置、システム、方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Publications (2)

Publication Number Publication Date
JPWO2019220622A1 JPWO2019220622A1 (ja) 2021-05-13
JP6943338B2 true JP6943338B2 (ja) 2021-09-29

Family

ID=68539869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020518924A Active JP6943338B2 (ja) 2018-05-18 2018-05-18 画像処理装置、システム、方法及びプログラム

Country Status (3)

Country Link
US (1) US20210133474A1 (ja)
JP (1) JP6943338B2 (ja)
WO (1) WO2019220622A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110012210B (zh) * 2018-01-05 2020-09-22 Oppo广东移动通信有限公司 拍照方法、装置、存储介质及电子设备
US20220130135A1 (en) * 2019-03-13 2022-04-28 Nec Corporation Data generation method, data generation device, and program
US11586973B2 (en) * 2019-03-22 2023-02-21 International Business Machines Corporation Dynamic source reliability formulation
JP6612487B1 (ja) * 2019-05-31 2019-11-27 楽天株式会社 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム
US11341370B2 (en) * 2019-11-22 2022-05-24 International Business Machines Corporation Classifying images in overlapping groups of images using convolutional neural networks
JP7278202B2 (ja) * 2019-11-27 2023-05-19 富士フイルム株式会社 画像学習装置、画像学習方法、ニューラルネットワーク、及び画像分類装置
JP2021103347A (ja) * 2019-12-24 2021-07-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7217256B2 (ja) * 2020-01-10 2023-02-02 株式会社大気社 品質管理システム、品質管理方法、および品質管理プログラム
WO2021183256A1 (en) * 2020-03-10 2021-09-16 Sri International Physics-guided deep multimodal embeddings for task-specific data exploitation
US11847771B2 (en) * 2020-05-01 2023-12-19 Samsung Electronics Co., Ltd. Systems and methods for quantitative evaluation of optical map quality and for data augmentation automation
WO2021250934A1 (ja) * 2020-06-11 2021-12-16 日立Astemo株式会社 画像処理装置および画像処理方法
CA3126236A1 (en) * 2020-07-29 2022-01-29 Uatc, Llc Systems and methods for sensor data packet processing and spatial memoryupdating for robotic platforms
CN111881854A (zh) * 2020-07-31 2020-11-03 上海商汤临港智能科技有限公司 动作识别方法、装置、计算机设备及存储介质
CN112149561B (zh) * 2020-09-23 2024-04-16 杭州睿琪软件有限公司 图像处理方法和装置、电子设备和存储介质
CN114444650A (zh) * 2020-11-06 2022-05-06 安霸国际有限合伙企业 改进量化的多级对象检测网络的准确度的方法
WO2022144603A1 (en) * 2020-12-31 2022-07-07 Sensetime International Pte. Ltd. Methods and apparatuses for training neural network, and methods and apparatuses for detecting correlated objects
TWI790572B (zh) * 2021-03-19 2023-01-21 宏碁智醫股份有限公司 影像相關的檢測方法及檢測裝置
CN113609906A (zh) * 2021-06-30 2021-11-05 南京信息工程大学 一种面向文献的表格信息抽取方法
CN116665002B (zh) * 2023-06-28 2024-02-27 北京百度网讯科技有限公司 图像处理方法、深度学习模型的训练方法和装置
CN116758429B (zh) * 2023-08-22 2023-11-07 浙江华是科技股份有限公司 一种基于正负样本候选框动态选择船舶检测方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0707192D0 (en) * 2007-04-13 2007-05-23 Mitsubishi Electric Inf Tech Generalized statistical template matching
JP2015064778A (ja) * 2013-09-25 2015-04-09 住友電気工業株式会社 検出対象識別装置、変換装置、監視システム、及びコンピュータプログラム
US9858496B2 (en) * 2016-01-20 2018-01-02 Microsoft Technology Licensing, Llc Object detection and classification in images

Also Published As

Publication number Publication date
JPWO2019220622A1 (ja) 2021-05-13
WO2019220622A1 (ja) 2019-11-21
US20210133474A1 (en) 2021-05-06

Similar Documents

Publication Publication Date Title
JP6943338B2 (ja) 画像処理装置、システム、方法及びプログラム
US11195038B2 (en) Device and a method for extracting dynamic information on a scene using a convolutional neural network
US11809998B2 (en) Maintaining fixed sizes for target objects in frames
KR102415632B1 (ko) 정보처리장치, 정보처리방법 및 기억매체
KR102364993B1 (ko) 제스처 인식 방법, 장치 및 디바이스
CN107194323B (zh) 车辆定损图像获取方法、装置、服务器和终端设备
Portmann et al. People detection and tracking from aerial thermal views
KR101410489B1 (ko) 얼굴 식별 방법 및 그 장치
CN110268440B (zh) 图像解析装置、图像解析方法、以及存储介质
EP1542155A1 (en) Object detection
CN107851192B (zh) 用于检测人脸部分及人脸的设备和方法
KR101912569B1 (ko) 비디오 영상에서의 물체 추적시스템
EP1542153A1 (en) Object detection
JP2007074143A (ja) 撮像装置及び撮像システム
EP1542152A1 (en) Object detection
US11804026B2 (en) Device and a method for processing data sequences using a convolutional neural network
Ahmadi et al. Efficient and fast objects detection technique for intelligent video surveillance using transfer learning and fine-tuning
CN115760912A (zh) 运动目标跟踪方法、装置、设备及计算机可读存储介质
Wang et al. Object counting in video surveillance using multi-scale density map regression
KR20130091441A (ko) 물체 추적 장치 및 그 제어 방법
CN116824641B (zh) 姿态分类方法、装置、设备和计算机存储介质
CN113780145A (zh) 精子形态检测方法、装置、计算机设备和存储介质
KR20080079443A (ko) 영상으로부터의 객체 검출 방법 및 장치
KR102161166B1 (ko) 영상 융합 방법 및 기록 매체
WO2020194622A1 (ja) 情報処理装置、情報処理方法、及び非一時的なコンピュータ可読媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210823

R150 Certificate of patent or registration of utility model

Ref document number: 6943338

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150