JP2018205800A - 画像解析装置、ニューラルネットワーク装置、学習装置、画像解析方法およびプログラム - Google Patents

画像解析装置、ニューラルネットワーク装置、学習装置、画像解析方法およびプログラム Download PDF

Info

Publication number
JP2018205800A
JP2018205800A JP2017106492A JP2017106492A JP2018205800A JP 2018205800 A JP2018205800 A JP 2018205800A JP 2017106492 A JP2017106492 A JP 2017106492A JP 2017106492 A JP2017106492 A JP 2017106492A JP 2018205800 A JP2018205800 A JP 2018205800A
Authority
JP
Japan
Prior art keywords
score
context
shape
region
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017106492A
Other languages
English (en)
Other versions
JP6833620B2 (ja
Inventor
ヴェトクォク ファン
Viet Quoc Pham
ヴェトクォク ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017106492A priority Critical patent/JP6833620B2/ja
Priority to EP18161166.6A priority patent/EP3410344B1/en
Priority to US15/917,881 priority patent/US10789515B2/en
Publication of JP2018205800A publication Critical patent/JP2018205800A/ja
Application granted granted Critical
Publication of JP6833620B2 publication Critical patent/JP6833620B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対象物の形状を精度良く検出する。【解決手段】実施形態に係る画像解析装置は、特徴量算出部と、コンテキスト算出部と、形状算出部と、補正部と、出力部とを、備える。特徴量算出部は、対象画像の特徴量マップを算出する。コンテキスト算出部は、特徴量マップに基づき、対象画像における画素毎のコンテキストを表すコンテキストスコアを算出する。形状算出部は、特徴量マップに基づき、対象画像に含まれる少なくとも1つの領域における、対象物の形状を表す形状スコアを算出する。補正部は、少なくとも1つの領域における形状スコアを、対応する領域におけるコンテキストスコアにより補正する。出力部は、少なくとも1つの領域における、補正した形状スコアを出力する。【選択図】図1

Description

本発明の実施形態は、画像解析装置、ニューラルネットワーク装置、学習装置、画像解析方法およびプログラムに関する。
自動車の自動運転の分野においては、カメラにより撮像された画像を解析して車両等を制御する。このような技術分野では、カメラにより撮像した画像に対してコンテキスト解析および形状解析の2つを実行する。コンテキスト解析では、カメラにより撮像した画像における画素毎のセマンティック情報を予測する。セマンティック情報とは、対象物がどのようなカテゴリの物体(例えば、自動車または人)であるかを表す情報である。
また、このような画像解析をニューラルネットワーク装置で実現することも知られている。しかしながら、従来、コンテキスト解析および形状解析のそれぞれを別個のネットワークで実現しなければならなかった。また、コンテキスト解析用のネットワークと、形状解析用のネットワークとを単純に接続しても、性能は向上しない。
特開2013−206458号公報
Jonathan Long et al., "Fully Convolutional Networks for Semantic Segmentation", 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Boston, MA, 2015, pp.3431-3440. Y. Li, H. Qi, J. Dai, X. Ji, and Y. Wei., "Fully convolutional instance-aware semantic segmentation.", arXiv:1611.07709,2016.
本発明が解決しようとする課題は、対象物の形状を精度良く検出することである。
実施形態に係る画像解析装置は、特徴量算出部と、コンテキスト算出部と、形状算出部と、補正部と、出力部とを、備える。前記特徴量算出部は、対象画像の特徴量マップを算出する。前記コンテキスト算出部は、前記特徴量マップに基づき、前記対象画像における画素毎のコンテキストを表すコンテキストスコアを算出する。前記形状算出部は、前記特徴量マップに基づき、前記対象画像に含まれる少なくとも1つの領域における、対象物の形状を表す形状スコアを算出する。前記補正部は、前記少なくとも1つの領域における前記形状スコアを、対応する領域における前記コンテキストスコアにより補正する。前記出力部は、前記少なくとも1つの領域における、補正した前記形状スコアを出力する。
実施形態に係る画像解析装置の構成図。 対象画像におけるコンテキストスコアを示す図。 対象画像に含まれる候補領域の一例を示す図。 形状スコアの一例を示す図。 抽出部の構成の一例を示す図。 画像解析装置の処理を示すフローチャート。 ニューラルネットワーク装置および学習装置の構成を示す図。 実施形態に係る情報処理装置のハードウェアブロック図。
以下、図面を参照しながら本実施形態について説明する。実施形態に係る画像解析装置10は、対象画像を解析して、コンテキストスコアおよび形状スコアを出力する。
図1は、実施形態に係る画像解析装置10の構成を示す図である。画像解析装置10は、画像取得部12と、特徴量算出部14と、コンテキスト算出部16と、候補領域取得部18と、形状算出部20と、抽出部22と、補正部24と、出力部26とを備える。
画像取得部12は、例えばカメラから対象画像を取得する。画像取得部12は、画像を蓄積する記憶装置から対象画像を取得してもよいし、ネットワーク等を介して受信した対象画像を取得してもよい。画像取得部12は、取得した対象画像を特徴量算出部14に与える。
特徴量算出部14は、画像取得部12から対象画像を受け取る。特徴量算出部14は、対象画像に基づき、対象画像の特徴量を含む特徴量マップを算出する。特徴量算出部14は、後段のコンテキスト算出部16、候補領域取得部18および形状算出部20において用いられる特徴量を含む特徴量マップを算出する。特徴量算出部14は、例えば、CNN(Convolutional Neural Network)を用いて特徴量マップを算出してもよい。また、特徴量算出部14は、複数種類の特徴量を含む特徴量マップを算出してもよい。特徴量算出部14は、生成した特徴量マップをコンテキスト算出部16、候補領域取得部18および形状算出部20に与える。
コンテキスト算出部16は、特徴量算出部14から特徴量マップを受け取る。コンテキスト算出部16は、特徴量マップに基づき、対象画像における画素毎のコンテキストを表すコンテキストスコアを算出する。
ここで、コンテキストは、対象物の意味合いを表すセマンティック情報である。コンテキストスコアは、コンテキストを識別する識別情報であってよい。コンテキストスコアは、例えば、対象物のカテゴリを表す情報であってよい。対象物のカテゴリとは、対象物が、車であるのか、人であるのか、道路であるのか、空であるのか等を識別する情報である。コンテキストスコアは、基準位置(例えば、カメラ位置)から対象物までの距離等の幾何学的情報であってもよい。
なお、コンテキスト算出部16は、対象画像における画素毎にコンテキストスコアを算出する。ここで、画素とは、画像上における微小領域の位置を表し、必ずしもデータ上における画素位置と一致していなくてもよい。例えば、画素は、対象画像を表すデータ上における1画素単位であってもよいし、データ上の隣接する2画素をまとめた単位であってもよいし、データ上の隣接する4画素をまとめた単位であってもよい。
例えば、図2に示すように、車載カメラにより撮像された画像を解析する場合、コンテキスト算出部16は、対象画像に含まれるそれぞれの画素について、車を示すのか、人を示すのか、道路を示すのか、または、その他の対象物を示すのかを表すコンテキストスコアを算出する。コンテキスト算出部16は、非特許文献1に記載のセマンティックセグメンテーション手法によりコンテキストスコアを算出することができる。すなわち、コンテキスト算出部16は、非特許文献1に記載の手法により、対象画像の画素毎に、予め定められたカテゴリ毎の事前確率を表すコンテキストスコアを算出することができる。
コンテキスト算出部16は、算出したコンテキストスコアを抽出部22および出力部26に与える。
候補領域取得部18は、対象画像に含まれる少なくとも1つの候補領域のそれぞれを特定する領域情報を取得する。候補領域は、対象画像内における、対象物が存在する可能性のある部分領域である。候補領域は、対象画像よりも十分に小さく、画素よりも十分に大きい領域である。候補領域は、例えば、ROI(Region Of Interest)と呼ばれるような、ユーザの関心の高い領域および重要な被写体が含まれている可能性の高い領域等であってもよい。また、候補領域は、例えば、対象物の正確な位置に一致せずズレが生じる場合があってもよい。
候補領域取得部18は、特徴量マップに基づき領域情報を生成してもよい。また、候補領域取得部18は、例えば操作者により手動で入力された領域情報を外部装置から取得してもよい。
例えば、図3に示すように、車載カメラにより撮像された画像を解析する場合、候補領域取得部18は、車を含むと予測される候補領域および人を含むと予測される候補領域を取得してもよい。候補領域取得部18は、例えば、矩形状の候補領域を取得してもよい。候補領域取得部18は、矩形に限らず、他の形状の候補領域を取得してもよい。候補領域取得部18は、取得した領域情報を形状算出部20および抽出部22に与える。
形状算出部20は、特徴量算出部14から特徴量マップを受け取る。また、形状算出部20は、候補領域取得部18から領域情報を取得する。形状算出部20は、特徴量マップおよび領域情報に基づき、対象画像に含まれる少なくとも1つの候補領域のそれぞれにおける、対象物の形状を表す形状スコアを算出する。なお、対象物は、人または車等の物体の全体であってもよいし、人の腕、頭部および目等の物体の特定のパーツであってもよい。
形状スコアは、例えば、画素毎に対象物が存在するか否かを示すマスク情報であってよい。例えば、形状スコアは、対象物を表す画素を1、対象物以外を表す画素を0とするような情報であってよい。
例えば図4に示すように、車載カメラにより撮像された画像を解析する場合、形状算出部20は、候補領域における対象物(車または人)を表す画素を1、対象物以外を表す画素を0とする形状スコアを算出してもよい。形状算出部20は、非特許文献2に記載のセマンティックセグメンテーションの手法により形状スコアを算出することができる。すなわち、形状算出部20は、非特許文献2に記載のposition−sensitiveスコアマップを利用した手法により、候補領域(例えばROI)毎に、画素毎の尤度を表す尤度スコアマップを形状スコアとして算出することができる。
形状算出部20は、対象画像に含まれる少なくとも1つの候補領域のそれぞれにおける形状スコアを抽出部22に与える。
抽出部22は、コンテキスト算出部16から対象画像におけるコンテキストスコアを取得する。また、抽出部22は、候補領域取得部18から領域情報を取得する。また、抽出部22は、形状算出部20から対象画像に含まれる少なくとも1つの候補領域のそれぞれにおける形状スコアを取得する。
抽出部22は、対象画像におけるコンテキストスコアおよび領域情報に基づき、少なくとも1つの候補領域のそれぞれにおけるコンテキストスコアを抽出する。すなわち、抽出部22は、対象画像におけるコンテキストスコアから、それぞれの候補領域に対応する部分のコンテキストスコアを切り出す。そして、抽出部22は、少なくとも1つの候補領域のそれぞれ毎に、形状スコアとコンテキストスコアとを対応付けて(例えばペアにして)、補正部24に与える。なお、抽出部22のより詳細な構成については、図5を参照してさらに説明する。
補正部24は、抽出部22から、少なくとも1つの候補領域のそれぞれ毎に対応付けられた、形状スコアとコンテキストスコアと取得する。補正部24は、少なくとも1つの候補領域のそれぞれにおける形状スコアを、対応する候補領域におけるコンテキストスコアにより補正する。例えば、補正部24は、画素毎に形状スコアとコンテキストスコアとを乗じた値に基づき、補正した形状スコアを算出する。
例えば、補正部24は、下記の式(1)の演算を実行することにより、少なくとも1つの候補領域のそれぞれにおける形状スコアを補正する。
=f(I,S) …(1)
式(1)において、Jは、n番目(nは1以上の整数)の候補領域における補正後の形状スコアを表す。Iは、n番目の候補領域における補正前の形状スコアを表す。Sは、n番目の候補領域におけるコンテキストスコアを表す。
f()は、形状スコアをコンテキストスコアにより補正するための、予め定められた関数である。例えば、f()は、画素毎に形状スコアとコンテキストスコアとを乗じる関数を表す。なお、f()は、乗じた値に所定の係数をさらに乗じてもよいし、乗じた値にさらにその他の演算を追加してもよい。また、f()は、画素毎に形状スコアとコンテキストスコアとを乗じる関数に限らず、他の関数であってもよい。
同一の対象物に属する画素は、コンテキストも同一である可能性が高い。つまり、コンテキストスコアと形状スコアとは、相関が高い。従って、補正部24は、形状スコアをコンテキストスコアにより補正することにより、形状スコアの精度を向上させることができる。補正部24は、少なくとも1つの候補領域のそれぞれにおける、補正した形状スコアを出力部26に与える。
出力部26は、コンテキスト算出部16から、対象画像におけるコンテキストスコアを取得する。また、出力部26は、補正部24から、少なくとも1つの候補領域のそれぞれにおける、補正した形状スコアを取得する。そして、出力部26は、対象画像におけるコンテキストスコア、および、少なくとも1つの候補領域のそれぞれにおける補正した形状スコアを外部装置に出力する。
図5は、抽出部22の構成の一例を示す図である。抽出部22は、コンテキストスコア抽出部32と、形状スコア取得部34と、対応付け部36とを有する。
コンテキストスコア抽出部32は、コンテキスト算出部16から、対象画像におけるコンテキストスコアを取得する。また、コンテキストスコア抽出部32は、候補領域取得部18から、領域情報を取得する。コンテキストスコア抽出部32は、領域情報に基づき、対象画像におけるコンテキストスコアから、少なくとも1つの候補領域のそれぞれにおけるコンテキストスコアを抽出する。
形状スコア取得部34は、形状算出部20から、少なくとも1つの候補領域のそれぞれにおける形状スコアを取得する。
対応付け部36は、コンテキストスコア抽出部32から、少なくとも1つの候補領域のそれぞれにおけるコンテキストスコアを取得する。また、対応付け部36は、形状スコア取得部34から、少なくとも1つの候補領域のそれぞれにおける形状スコアを取得する。
そして、対応付け部36は、少なくとも1つの候補領域のそれぞれについて、コンテキストスコアと形状スコアとを対応付けて、補正部24に出力する。例えば、対応付け部36は、候補領域に割り当てられた識別番号の順に、コンテキストスコアおよび形状スコアを整列させて出力してもよい。
図6は、画像解析装置10の処理を示すフローチャートである。画像解析装置10は、図6に示すフローチャートの流れで処理を実行する。
まず、S101において、画像取得部12は、対象画像を取得する。続いて、S102において、特徴量算出部14は、対象画像に基づき、対象画像の特徴量を含む特徴量マップを算出する。
続いて、S103において、コンテキスト算出部16は、特徴量マップに基づき、対象画像における画素毎のコンテキストを表すコンテキストスコアを算出する。なお、コンテキスト算出部16は、S104またはS105の後にコンテキストスコアを算出してもよいし、S104またはS105と並行して(例えば同時に)コンテキストスコアを算出してもよい。
続いて、S104において、候補領域取得部18は、対象画像に含まれる少なくとも1つの候補領域のそれぞれを特定する領域情報を取得する。候補領域取得部18は、特徴量マップに基づき領域情報を生成してもよいし、外部装置から領域情報を取得してもよい。
続いて、S105において、形状算出部20は、特徴量マップおよび領域情報に基づき、対象画像に含まれる少なくとも1つの候補領域のそれぞれにおける、対象物の形状を表す形状スコアを算出する。
続いて、S106において、抽出部22は、対象画像におけるコンテキストスコアから、少なくとも1つの候補領域のそれぞれにおけるコンテキストスコアを抽出する。すなわち、抽出部22は、対象画像におけるコンテキストスコアから、それぞれの候補領域に対応する部分のコンテキストスコアを切り出す。そして、抽出部22は、少なくとも1つの候補領域のそれぞれ毎に、形状スコアとコンテキストスコアとを対応付ける。
続いて、S107において、補正部24は、少なくとも1つの候補領域のそれぞれにおける形状スコアを、対応する候補領域におけるコンテキストスコアにより補正する。例えば、補正部24は、画素毎に形状スコアとコンテキストスコアとを乗じた値に基づき、補正した形状スコアを算出する。
続いて、S108において、出力部26は、対象画像におけるコンテキストスコア、および、少なくとも1つの候補領域のそれぞれにおける補正した形状スコアを外部装置に出力する。画像解析装置10は、S108の処理を終了すると、対応する対象画像における処理を終了し、例えば次の対象画像に対してS101〜S108の処理を実行する。
以上のように、本実施形態に係る画像解析装置10によれば、対象画像におけるコンテキストスコア、および、少なくとも1つの候補領域のそれぞれにおける形状スコアを算出することができる。さらに、本実施形態に係る画像解析装置10によれば、形状スコアをコンテキストスコアにより補正するので、少なくとも1つの候補領域のそれぞれにおける形状スコアを精度良く算出することができる。
図7は、実施形態に係るニューラルネットワーク装置50および学習装置100の構成を示す図である。実施形態に係る画像解析装置10は、例えば、図7に示すニューラルネットワーク装置50を、学習装置100を用いて学習させることにより実現される。
ニューラルネットワーク装置50は、画像取得層62と、特徴量算出層64と、コンテキスト算出層66と、候補領域取得層68と、形状算出層70と、抽出層72と、補正層74と、出力層76とを備える。
それぞれの層は、1または複数のサブネットワークユニットを含む。サブネットワークユニットは、前段の層から複数の信号(情報)を取得し、取得した複数の信号に対して演算処理を実行し、演算処理により実行した結果得られる複数の信号を後段の層に与える。なお、一部のサブネットワークユニットは、自身へ信号を帰還させる帰還路を含んでもよい。
それぞれのサブネットワークユニットは、例えば、複数の信号に対して、加算、乗算、畳み込み演算、または、ソフトマックス関数等の所定の関数演算を実行する。
また、それぞれのサブネットワークユニットは、複数の信号に対する演算処理を実行するためのパラメータ(例えば、乗算の重みまたは信号に加算するオフセット等)が設定されている。それぞれのサブネットワークユニットは、学習時において、学習装置100によりパラメータが調整される。
画像取得層62は、外部装置から対象画像を取得する。画像取得層62は、取得した対象画像に含まれる複数の画素値を後段の特徴量算出層64に出力する。画像取得層62は、含まれるサブネットワークユニットのパラメータが学習装置100により調整されることにより、図1に示した画像取得部12として機能する。
特徴量算出層64は、画像取得層62から対象画像に含まれる複数の画素値を受け取って、対象画像の特徴量を含む特徴量マップを出力する。特徴量算出層64は、含まれるサブネットワークユニットのパラメータが学習装置100により調整されることにより、図1に示した特徴量算出部14として機能する。
コンテキスト算出層66は、特徴量算出層64から特徴量マップを受け取って、対象画像における画素毎のコンテキストを表すコンテキストスコアを出力する。コンテキスト算出層66は、含まれるサブネットワークユニットのパラメータが学習装置100により調整されることにより、図1に示したコンテキスト算出部16として機能する。
候補領域取得層68は、特徴量算出層64から特徴量マップを受け取って、対象画像に含まれる少なくとも1つの候補領域のそれぞれを特定する領域情報を出力する。候補領域取得層68は、含まれるサブネットワークユニットのパラメータが学習装置100により調整されることにより、図1に示した候補領域取得部18として機能する。なお、候補領域取得層68は、外部装置から領域情報を受け取って、他の層へ出力する入力層であってもよい。
形状算出層70は、特徴量算出層64から特徴量マップを受け取る。さらに、形状算出層70は、候補領域取得層68から領域情報を受け取る。そして、形状算出層70は、対象画像に含まれる少なくとも1つの候補領域のそれぞれにおける、対象物の形状を表す形状スコアを出力する。形状算出層70は、含まれるサブネットワークユニットのパラメータが学習装置100により調整されることにより、図1に示した形状算出部20として機能する。
抽出層72は、コンテキスト算出層66から対象画像におけるコンテキストスコアを受け取り、候補領域取得層68から領域情報を受け取り、形状算出層70から少なくとも1つの候補領域のそれぞれにおける形状スコアを受け取る。そして、抽出層72は、少なくとも1つの候補領域のそれぞれにおけるコンテキストスコアを出力する。例えば、抽出層72は、少なくとも1つの候補領域のそれぞれについて、コンテキストスコアと形状スコアとを対応付けて出力する。抽出層72は、含まれるサブネットワークユニットのパラメータが学習装置100により調整されることにより、図1に示した抽出部22として機能する。
補正層74は、抽出層72から、少なくとも1つの候補領域のそれぞれにおける形状スコア、および、少なくとも1つの候補領域のそれぞれにおけるコンテキストスコアを受け取る。そして、補正層74は、少なくとも1つの候補領域のそれぞれにおける、補正した形状スコアを出力する。補正層74は、含まれるサブネットワークユニットのパラメータが学習装置100により調整されることにより、図1に示した補正部24として機能する。
出力層76は、補正層74から、少なくとも1つの候補領域のそれぞれにおける補正した形状スコアを受け取る。また、出力層76は、コンテキスト算出層66から、対象画像におけるコンテキストスコアを受け取る。そして、出力層76は、少なくとも1つの候補領域のそれぞれにおける補正した形状スコアと、対象画像におけるコンテキストスコアとを外部装置に出力する。出力層76は、含まれるサブネットワークユニットのパラメータが学習装置100により調整されることにより、図1に示した出力部26として機能する。
学習装置100は、ニューラルネットワーク装置50を訓練する。すなわち、学習装置100は、ニューラルネットワーク装置50の運用に先だって、ニューラルネットワーク装置50に設定されている複数のパラメータを調整する。学習装置100は、訓練データ取得部112と、制御部114と、誤差算出部116と、調整部118とを備える。
訓練データ取得部112は、外部記憶装置から訓練データを取得する。訓練データは、訓練用画像データと、訓練用コンテキストスコアと、少なくとも1つの候補領域のそれぞれについての訓練用形状スコアとの組を含む。また、候補領域取得層68が領域情報を外部装置から取得する場合には、訓練データは、さらに領域情報を含む。
制御部114は、訓練データ取得部112が取得した訓練用画像データをニューラルネットワーク装置50に与えて、コンテキストスコアおよび少なくとも1つの候補領域のそれぞれについての形状スコアをニューラルネットワーク装置50に算出させる。この場合、候補領域取得層68が領域情報を外部装置から取得する場合には、制御部114は、さらに領域情報をニューラルネットワーク装置50に与える。
誤差算出部116は、訓練用画像データを与えることによりニューラルネットワーク装置50により算出されたコンテキストスコアと、訓練用コンテキストスコアとの第1誤差を算出する。また、誤差算出部116は、訓練用画像データを与えることによりニューラルネットワーク装置50により算出された少なくとも1つの候補領域のそれぞれの形状スコアと、対応する訓練用形状スコアとの第2誤差を算出する。
調整部118は、第1誤差、および、少なくとも1つの候補領域のそれぞれについての第2誤差に基づき、ニューラルネットワーク装置50に設定されている複数のパラメータを調整する。例えば、調整部118は、第1誤差および第2誤差の総和を最小化するように複数のパラメータを調整する。例えば、調整部118は、バックプロパゲーション等の手法を用いて、誤差勾配を逆方向に伝播することにより、複数のパラメータを調整する。
このような学習装置100は、コンテンツスコアを算出するための訓練と、形状スコアを算出するための訓練とを同時に実行することができる。これにより、学習装置100によれば、ニューラルネットワーク装置50を効率良く学習させて、ニューラルネットワーク装置50を精度の良い画像解析装置10として機能させることができる。
図8は、情報処理装置200のハードウェアブロック図である。情報処理装置200は、一例として、一般のコンピュータと同様のハードウェア構成により実現される。情報処理装置200は、所定プログラムを実行することにより、画像解析装置10、ニューラルネットワーク装置50または学習装置100として機能することができる。
情報処理装置200は、CPU(Central Processing Unit)202と、ROM(Read Only Memory)204と、RAM(Random Access Memory)206と、操作部208と、表示部210と、通信装置212と、記憶装置214とを備える。各部は、バスにより接続される。
CPU202は、情報処理を実行するプロセッサであって、記憶装置214に記憶されたプログラムをRAM206に展開して実行し、各部を制御して入出力を行ったり、データの加工を行ったりする。CPU202は、1または複数のプロセッサにより構成されていてもよい。また、情報処理装置200は、プログラムを実行することが可能であれば、CPU202に限らず他のプロセッサを備えてもよい。ROM204には、起動用プログラムを記憶装置214からRAM206に読み出すスタートプログラムが記憶されている。RAM206は、CPU202の作業領域としてデータを記憶する。
操作部208は、マウスまたはキーボード等の入力デバイスであって、ユーザから操作入力された情報を指示信号として受け付け、その指示信号をCPU202に出力する。表示部210は、例えばLCD(Liquid Crystal Display)等の表示装置である。表示部210は、CPU202からの表示信号に基づいて、各種情報を表示する。通信装置212は、ネットワーク等を介して、外部機器と情報をやり取りする。記憶装置214は、例えば、ハードディスクドライブまたはフラッシュメモリ等である。記憶装置214は、情報処理装置200で実行されるプログラム、および、オペレーティングシステムを記憶している。
本実施形態の情報処理装置200で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供される。また、本実施形態の情報処理装置200で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の情報処理装置200で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、本実施形態のプログラムを、ROM204等に予め組み込んで提供するように構成してもよい。
情報処理装置200を画像解析装置10として機能させるためのプログラムは、画像取得モジュールと、特徴量算出モジュールと、コンテキスト算出モジュールと、候補領域取得モジュールと、形状算出モジュールと、抽出モジュールと、補正モジュールと、出力モジュールとを有する。情報処理装置200は、プロセッサ(CPU202)が記憶媒体(記憶装置214等)からプログラムを読み出して実行することにより各モジュールが主記憶装置(RAM206)上にロードされ、プロセッサ(CPU202)が、画像取得部12、特徴量算出部14、コンテキスト算出部16、候補領域取得部18、形状算出部20、抽出部22、補正部24および出力部26として機能する。なお、これらの一部または全部がプロセッサ以外のハードウェアにより実現されてもよい。
また、情報処理装置200をニューラルネットワーク装置50として機能させるためのプログラムは、画像取得層モジュールと、特徴量算出層モジュールと、コンテキスト算出層モジュールと、候補領域取得層モジュールと、形状算出層モジュールと、抽出層モジュールと、補正層モジュールと、出力層モジュールとを有する。情報処理装置200は、プロセッサ(CPU202)が記憶媒体(記憶装置214等)からプログラムを読み出して実行することにより各モジュールが主記憶装置(RAM206)上にロードされ、プロセッサ(CPU202)が、画像取得層62、特徴量算出層64、コンテキスト算出層66、候補領域取得層68、形状算出層70、抽出層72、補正層74および出力層76として機能する。なお、これらの一部または全部がプロセッサ以外のハードウェアにより実現されてもよい。
また、情報処理装置200を学習装置100として機能させるためのプログラムは、訓練データ取得モジュールと、制御モジュールと、誤差算出モジュールと、調整モジュールとを有する。情報処理装置200は、プロセッサ(CPU202)が記憶媒体(記憶装置214等)からプログラムを読み出して実行することにより各モジュールが主記憶装置(RAM206)上にロードされ、プロセッサ(CPU202)が、訓練データ取得部112、制御部114、誤差算出部116および調整部118として機能する。なお、これらの一部または全部がプロセッサ以外のハードウェアにより実現されてもよい。
本発明の実施形態を説明したが、実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 画像解析装置
12 画像取得部
14 特徴量算出部
16 コンテキスト算出部
18 候補領域取得部
20 形状算出部
22 抽出部
24 補正部
26 出力部
32 コンテキストスコア抽出部
34 形状スコア取得部
36 対応付け部
50 ニューラルネットワーク装置
62 画像取得層
64 特徴量算出層
66 コンテキスト算出層
68 候補領域取得層
70 形状算出層
72 抽出層
74 補正層
76 出力層
100 学習装置
112 訓練データ取得部
114 制御部
116 誤差算出部
118 調整部

Claims (14)

  1. 対象画像の特徴量マップを算出する特徴量算出部と、
    前記特徴量マップに基づき、前記対象画像における画素毎のコンテキストを表すコンテキストスコアを算出するコンテキスト算出部と、
    前記特徴量マップに基づき、前記対象画像に含まれる少なくとも1つの領域における、対象物の形状を表す形状スコアを算出する形状算出部と、
    前記少なくとも1つの領域における前記形状スコアを、対応する領域における前記コンテキストスコアにより補正する補正部と、
    前記少なくとも1つの領域における、補正した前記形状スコアを出力する出力部と、
    を備える画像解析装置。
  2. 前記出力部は、前記対象画像における前記コンテキストスコアをさらに出力する
    請求項1に記載の画像解析装置。
  3. 前記特徴量マップに基づき、前記対象画像に含まれる前記少なくとも1つの領域を特定する領域情報を生成する候補領域取得部をさらに備える
    請求項1または2に記載の画像解析装置。
  4. 前記対象画像に含まれる前記少なくとも1つの領域を特定する領域情報を外部装置から取得する候補領域取得部をさらに備える
    請求項1または2に記載の画像解析装置。
  5. 前記対象画像に対する前記コンテキストスコアおよび前記領域情報に基づき、前記少なくとも1つの領域における前記コンテキストスコアを抽出する抽出部をさらに備える
    請求項3または4に記載の画像解析装置。
  6. 前記抽出部は、
    前記領域情報に基づき、前記対象画像における前記コンテキストスコアから、前記少なくとも1つの領域における前記コンテキストスコアを抽出するコンテキストスコア抽出部と、
    前記少なくとも1つの領域における前記形状スコアを取得する形状スコア取得部と、
    前記少なくとも1つの領域について、前記コンテキストスコアと前記形状スコアとを対応付けて出力する対応付け部と、
    を有する請求項5に記載の画像解析装置。
  7. 前記コンテキストスコアは、画素毎の対象物のカテゴリを表す情報である
    請求項1から6の何れか1項に記載の画像解析装置。
  8. 前記コンテキストスコアは、画素毎の基準位置から対象物までの距離を表す情報である
    請求項1から6の何れか1項に記載の画像解析装置。
  9. 前記形状スコアは、画素毎に対象物が存在するか否かを示すマスク情報である
    請求項1から8の何れか1項に記載の画像解析装置。
  10. 前記補正部は、画素毎に前記形状スコアと前記コンテキストスコアとを乗じた値に基づき、補正した前記形状スコアを算出する
    請求項1から9の何れか1項に記載の画像解析装置。
  11. 対象画像の特徴量マップを出力する特徴量算出層と、
    前記特徴量マップを受け取って、前記対象画像における画素毎のコンテキストを表すコンテキストスコアを出力するコンテキスト算出層と、
    前記特徴量マップを受け取って、少なくとも1つの領域における、対象物の形状を表す形状スコアを出力する形状算出層と、
    前記対象画像における前記コンテキストスコアを受け取って、前記少なくとも1つの領域における前記コンテキストスコアを出力する抽出層と、
    前記少なくとも1つの領域における前記形状スコア、および、前記少なくとも1つの領域における前記コンテキストスコアを受け取って、前記少なくとも1つの領域における、補正した前記形状スコアを出力する補正層と、
    前記少なくとも1つの領域における補正した前記形状スコアと、前記対象画像における前記コンテキストスコアとを出力する出力層と、
    を備えるニューラルネットワーク装置。
  12. 請求項11に記載のニューラルネットワーク装置を訓練する学習装置であって、
    訓練用画像データと、訓練用コンテキストスコアと、前記少なくとも1つの領域についての訓練用形状スコアとの組を取得する訓練データ取得部と、
    前記訓練用画像データを前記ニューラルネットワーク装置に与えて、前記コンテキストスコアおよび前記少なくとも1つの領域についての前記形状スコアを前記ニューラルネットワーク装置に算出させる制御部と、
    前記コンテキストスコアと前記訓練用コンテキストスコアとの第1誤差と、前記少なくとも1つの領域の前記形状スコアと前記訓練用形状スコアとの第2誤差とを算出する誤差算出部と、
    前記第1誤差および少なくとも1つの領域についての第2誤差に基づき、前記ニューラルネットワーク装置のパラメータを調整する調整部と、
    を備える学習装置。
  13. 対象画像の特徴量マップを算出する特徴量算出ステップと、
    前記特徴量マップに基づき、前記対象画像における画素毎のコンテキストを表すコンテキストスコアを算出するコンテキスト算出ステップと、
    前記特徴量マップに基づき、前記対象画像に含まれる少なくとも1つの領域における、対象物の形状を表す形状スコアを算出する形状算出ステップと、
    前記少なくとも1つの領域における前記形状スコアを、対応する領域における前記コンテキストスコアにより補正する補正ステップと、
    前記少なくとも1つの領域における、補正した前記形状スコアを出力する出力ステップと、
    を含む画像解析方法。
  14. 情報処理装置を画像解析装置として機能させるためのプログラムであって、
    前記情報処理装置を、
    対象画像の特徴量マップを算出する特徴量算出部と、
    前記特徴量マップに基づき、前記対象画像における画素毎のコンテキストを表すコンテキストスコアを算出するコンテキスト算出部と、
    前記特徴量マップに基づき、前記対象画像に含まれる少なくとも1つの領域における、対象物の形状を表す形状スコアを算出する形状算出部と、
    前記少なくとも1つの領域における前記形状スコアを、対応する領域における前記コンテキストスコアにより補正する補正部と、
    前記少なくとも1つの領域における、補正した前記形状スコアを出力する出力部と、
    して機能させるプログラム。
JP2017106492A 2017-05-30 2017-05-30 画像解析装置、ニューラルネットワーク装置、学習装置、画像解析方法およびプログラム Active JP6833620B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017106492A JP6833620B2 (ja) 2017-05-30 2017-05-30 画像解析装置、ニューラルネットワーク装置、学習装置、画像解析方法およびプログラム
EP18161166.6A EP3410344B1 (en) 2017-05-30 2018-03-12 Image analysis device, image analysis method, and computer-readable medium
US15/917,881 US10789515B2 (en) 2017-05-30 2018-03-12 Image analysis device, neural network device, learning device and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017106492A JP6833620B2 (ja) 2017-05-30 2017-05-30 画像解析装置、ニューラルネットワーク装置、学習装置、画像解析方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2018205800A true JP2018205800A (ja) 2018-12-27
JP6833620B2 JP6833620B2 (ja) 2021-02-24

Family

ID=61622454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017106492A Active JP6833620B2 (ja) 2017-05-30 2017-05-30 画像解析装置、ニューラルネットワーク装置、学習装置、画像解析方法およびプログラム

Country Status (3)

Country Link
US (1) US10789515B2 (ja)
EP (1) EP3410344B1 (ja)
JP (1) JP6833620B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200101521A (ko) * 2019-01-31 2020-08-28 연세대학교 산학협력단 시멘틱 매칭 장치 및 방법
JP2021045077A (ja) * 2019-09-18 2021-03-25 株式会社ニコン 処理装置、処理方法、処理プログラム、観察装置、培養装置、培養システム、及び情報処理システム
KR102289668B1 (ko) * 2020-02-21 2021-08-12 연세대학교 산학협력단 매칭 신뢰도 기반 시멘틱 매칭 장치 및 방법
US11417129B2 (en) 2018-06-21 2022-08-16 Kabushiki Kaisha Toshiba Object identification image device, method, and computer program product

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110348543B (zh) * 2019-06-10 2023-01-06 腾讯医疗健康(深圳)有限公司 眼底图像识别方法、装置、计算机设备及存储介质
CN110837811B (zh) * 2019-11-12 2021-01-05 腾讯科技(深圳)有限公司 语义分割网络结构的生成方法、装置、设备及存储介质
CN112001391A (zh) * 2020-05-11 2020-11-27 江苏鲲博智行科技有限公司 一种图像特征融合图像语义分割的方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012043151A (ja) * 2010-08-18 2012-03-01 Canon Inc 画像処理装置及びその方法、プログラム、並びに撮像装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8718362B2 (en) 2012-03-28 2014-05-06 Mitsubishi Electric Research Laboratories, Inc. Appearance and context based object classification in images
WO2016197303A1 (en) * 2015-06-08 2016-12-15 Microsoft Technology Licensing, Llc. Image semantic segmentation
US10657364B2 (en) * 2016-09-23 2020-05-19 Samsung Electronics Co., Ltd System and method for deep network fusion for fast and robust object detection
US10635927B2 (en) * 2017-03-06 2020-04-28 Honda Motor Co., Ltd. Systems for performing semantic segmentation and methods thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012043151A (ja) * 2010-08-18 2012-03-01 Canon Inc 画像処理装置及びその方法、プログラム、並びに撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KEZE WANG ET AL.: "Dictionary Pair Classifier Driven Convolutional Neural Networks for Object Detection", 2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6020036797, 2016, pages 2138 - 2146, XP033021393, ISSN: 0004356462, DOI: 10.1109/CVPR.2016.235 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11417129B2 (en) 2018-06-21 2022-08-16 Kabushiki Kaisha Toshiba Object identification image device, method, and computer program product
KR20200101521A (ko) * 2019-01-31 2020-08-28 연세대학교 산학협력단 시멘틱 매칭 장치 및 방법
KR102166117B1 (ko) * 2019-01-31 2020-10-15 연세대학교 산학협력단 시멘틱 매칭 장치 및 방법
JP2021045077A (ja) * 2019-09-18 2021-03-25 株式会社ニコン 処理装置、処理方法、処理プログラム、観察装置、培養装置、培養システム、及び情報処理システム
KR102289668B1 (ko) * 2020-02-21 2021-08-12 연세대학교 산학협력단 매칭 신뢰도 기반 시멘틱 매칭 장치 및 방법

Also Published As

Publication number Publication date
US20180349748A1 (en) 2018-12-06
US10789515B2 (en) 2020-09-29
EP3410344A1 (en) 2018-12-05
JP6833620B2 (ja) 2021-02-24
EP3410344B1 (en) 2023-03-01

Similar Documents

Publication Publication Date Title
JP6833620B2 (ja) 画像解析装置、ニューラルネットワーク装置、学習装置、画像解析方法およびプログラム
JP6581068B2 (ja) 画像処理装置、画像処理方法、プログラム、運転制御システム、および、車両
WO2018121567A1 (zh) 用于检测物体关键点的方法、装置及电子设备
US20150279021A1 (en) Video object tracking in traffic monitoring
US10614347B2 (en) Identifying parameter image adjustments using image variation and sequential processing
CN103116739A (zh) 用于散焦测距成像的系统和方法
US20220101628A1 (en) Object detection and recognition device, method, and program
US11301723B2 (en) Data generation device, data generation method, and computer program product
US11640530B2 (en) Learning device, learning method, computer program product, and recognition device
JP2018133110A (ja) 画像処理装置及び画像処理プログラム
US20220189151A1 (en) Processing system, estimation apparatus, processing method, and non-transitory storage medium
US20200396415A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP7395705B2 (ja) 推定装置、推定方法及びプログラム
JP2021051347A (ja) 距離画像生成装置及び距離画像生成方法
JP2020204880A (ja) 学習方法、プログラム及び画像処理装置
CN115798005A (zh) 基准照片的处理方法及装置、处理器和电子设备
CN113255700B (zh) 图像的特征图的处理方法及装置、存储介质、终端
EP4156087A1 (en) Authentication method, authentication program, and authentication device
US11200676B2 (en) Shift invariant loss for deep learning based image segmentation
WO2023188160A1 (ja) 入力支援装置、入力支援方法、及び非一時的なコンピュータ可読媒体
US20230351729A1 (en) Learning system, authentication system, learning method, computer program, learning model generation apparatus, and estimation apparatus
JP2019200527A (ja) 情報処理装置、情報処理方法、およびプログラム
US20240087299A1 (en) Image processing apparatus, image processing method, and image processing computer program product
CN117576109B (zh) 一种缺陷检测方法、装置、设备及存储介质
JP7391907B2 (ja) 異常検出装置、異常検出方法、および異常検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210203

R151 Written notification of patent or utility model registration

Ref document number: 6833620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151