JP6320112B2 - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP6320112B2
JP6320112B2 JP2014066802A JP2014066802A JP6320112B2 JP 6320112 B2 JP6320112 B2 JP 6320112B2 JP 2014066802 A JP2014066802 A JP 2014066802A JP 2014066802 A JP2014066802 A JP 2014066802A JP 6320112 B2 JP6320112 B2 JP 6320112B2
Authority
JP
Japan
Prior art keywords
image
likelihood
identification
information processing
context
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014066802A
Other languages
English (en)
Other versions
JP2015191334A (ja
JP2015191334A5 (ja
Inventor
内山 寛之
寛之 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2014066802A priority Critical patent/JP6320112B2/ja
Application filed by Canon Inc filed Critical Canon Inc
Priority to EP15769968.7A priority patent/EP3092619B1/en
Priority to KR1020167029372A priority patent/KR101964397B1/ko
Priority to US15/121,899 priority patent/US10255517B2/en
Priority to PCT/JP2015/059828 priority patent/WO2015147317A1/en
Priority to CN201580016428.8A priority patent/CN106164980B/zh
Publication of JP2015191334A publication Critical patent/JP2015191334A/ja
Publication of JP2015191334A5 publication Critical patent/JP2015191334A5/ja
Application granted granted Critical
Publication of JP6320112B2 publication Critical patent/JP6320112B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像から物体を検出するための技術に関するものである。
従来から、カメラで撮影した画像から人体を検出する方法が提案されている(非特許文献1)。この手法では、人体画像と背景画像とを機械学習により事前学習し、その後、カメラから入力された画像の部分画像が人体か否かを識別し、検出を行う。しかしながら、事前学習時と検出時とで撮影シーンや人体の容姿が異なる場合、検出性能が低下することが知られている。撮影シーンの違いとは、具体的には照明条件の違いやカメラの設置角度、陰影の有無、背景の違いが挙げられる。容姿の違いは、人体の向きや服装の違い等が挙げられる。
検出性能低下の要因として、事前学習時の学習サンプルが撮影シーンや検出対象物体の容姿の多様性を網羅できていないことが挙げられる。これを解決するために、検出時と同様の撮影シーンで収集した追加学習用の学習サンプルを用いて追加学習を行うことで、検出性能の向上を行う手法が提案されている。特許文献1では、まず、Real AdaBoost識別器の弱識別器を事前学習で作成し、その後、さらに追加学習によって、弱識別器を追加学習サンプルに適合させる方法を提案している。
一方、検出時のシーンで得られるそのシーン特有のコンテクストを識別に利用することで、検出性能が向上することが知られている。コンテクストとして、検出対象物体の画像上の出現位置座標が挙げられる。設置位置が固定の防犯カメラの場合、検出対象である人体の画像上の出現位置や大きさはその設置シーン特有の分布を持つ。そのため、特許文献2では、人体の出現位置座標の確率分布を作成し、識別器の前フィルタや結果修正に用いている。その他のコンテクストの例として、背景画像が挙げられる。カメラの設置場所によっては、検出対象が特定の背景テクスチャを持つ位置に出現する頻度が高くなる。そのため、特許文献3では、識別対象領域のみならず、識別対象領域周辺の部分画像も学習に利用している。
特表2010‐529529 特許第5096211号 US20120219211 A1
Navneet Dalal and Bill Triggs Histograms of Oriented Gradients for Human Detection」CVPR2005 Robert E. Schapire and Yoram Singer「Improved Boosting Algorithms Using Confidence‐rated Predictions」Machine Learning,1999 Paul Viola and Michael Jones「Robust Real‐time Object Detection」IJCV2001 Lubomir Bourdev and Jonathan Brandt「Robust Object Detection Via Soft Cascade」CVPR2005
しかしながら、特許文献1では、Real AdaBoost識別器のパラメータを追加学習サンプルに適合させるだけである。したがって、追加学習及び追加学習後の検出に使用される特徴が事前学習時に生成されたものに限られるため、性能向上には限界がある。
一方、特許文献2では、固定的に設置されたカメラが前提であり、またコンテクストとして物体の出現位置座標の確率分布を用いるのみである。このため、カメラが固定的ではない状況や、物体の出現確率が位置座標に依存しない状況では、性能向上は望めない。
特許文献3では、コンテクストとして利用できるのは、識別対象領域周辺の部分画像のみであり、背景画像が時間とともに変化する状況や、物体の出現確率が背景に依存しない状況では、性能向上は望めない。
本発明はこのような問題に鑑みてなされたものであり、画像に対する識別性能を向上させるための技術を提供する。
本発明の一様態は、入力された対象画像から特徴量を取得する手段と、
前記対象画像を含む元画像を撮影したシーン特有のコンテクストを示すコンテクスト情報を取得する手段と、
前記特徴量から、前記対象画像が規定の物体の画像である確からしさを示す第一の尤度を求める第一の識別手段と、
前記コンテクスト情報から、前記対象画像が規定の物体の画像である確からしさを示す第二の尤度を求める第二の識別手段と、
前記第一の尤度と前記第二の尤度とを用いて、前記対象画像が規定の物体の画像であるか否かを識別する手段と
を備え、
前記第二の識別手段は、前記第一の尤度と前記コンテクスト情報とを用いて学習した識別器を有することを特徴とする。
本発明の構成によれば、画像に対する識別性能を向上させることができる。
情報処理装置の機能構成例を示すブロック図。 撮像装置のハードウェア構成例を示すブロック図。 学習部111が行う処理のフローチャート。 ステップS306における処理の詳細を示すフローチャート。 ステップS403における処理の詳細を示すフローチャート。 識別部101が行う処理のフローチャート。 コンテクスト特徴ベクトルを説明する図。 (式11)について説明する図。 コンテクスト特徴ベクトルを説明する図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
先ず、本実施形態に係る情報処理装置の機能構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係る情報処理装置は、識別部101と、学習部111と、を有する。
学習部111は、識別対象画像群とそれに付随するコンテクストから識別部101が有する第二の識別部107を学習する。ここで、「識別対象画像」とは、検出対象物体の画像と背景画像とが混在した画像群である。
識別部101は、第一の識別部106aおよび学習部111によって学習した第二の識別部107のそれぞれによる入力画像に対する識別処理の結果から、該入力画像が特定物体が写っている画像であるか否かを識別する。
なお、本実施形態では、学習部111と識別部101とは1つの装置(情報処理装置)内に備わっているものとして説明する。しかし、学習部111及び識別部101のそれぞれを別個の装置内に設け、装置間の通信により、学習部111と識別部101とが通信を行って下記の処理を達成するようにしても構わない。
先ず、学習部111について説明する。学習サンプル取得部112は、複数枚の識別対象画像を取得し、それぞれの識別対象画像から、該識別対象画像の画像特徴ベクトルと、該識別対象画像に添付されているコンテクスト特徴ベクトルと、を収集する。そして学習サンプル取得部112は識別対象画像ごとに、該識別対象画像から収集した画像特徴ベクトルとコンテクスト特徴ベクトルとを連結した学習サンプルを生成する。一方で、学習サンプル取得部112には、それぞれの識別対象画像に対する分類ラベルが入力される。分類ラベルとは、学習サンプル(識別対象画像)が検出対象物体であるか否かを示す数値であり、検出対象物体である場合は+1、背景である場合は−1をとる。分類ラベルの取得方法については後述する。学習サンプル取得部112は、識別対象画像ごとに、該識別対象画像から生成した学習サンプルと、該識別対象画像に対する分類ラベルと、を第一の識別部106b及び追加識別器学習部117に対して送出する。
画像取得部103bは、複数枚の識別対象画像と、該識別対象画像に対する分類ラベルを取得する。特徴抽出部104bは、画像取得部103bが取得した識別対象画像から画像特徴ベクトルを抽出する。コンテクスト取得部105bは、画像取得部103bが取得した識別対象画像に添付されているコンテクスト特徴ベクトルを取得する。そして、特徴抽出部104bが抽出した画像特徴ベクトルと、コンテクスト取得部105bが取得したコンテクスト特徴ベクトルと、は連結した状態で、学習サンプルとして上記分類ラベルと共に、第一の識別部106bと追加識別器学習部117とに送出される。
第一の識別部106bは、学習サンプル取得部112から入力された各学習サンプル内の画像特徴ベクトルに対して、検出対象物体らしさを示す尤度(第一の尤度)を算出する。本実施形態では、第一の識別部106bは、Real AdaBoost識別器で構成されるものとして説明する。しかし、第一の識別部106bは、尤度を取得できる識別器であれば、Support Vector Machineやニューラルネットワーク、Regression、その他の識別器で構成されていてもよい。ここで、第一の識別部106bにおいて算出する「検出対象物体らしさを示す尤度」とは、第一の識別部106bを構成する識別器に入力された画像特徴ベクトルの検出対象物体らしさを表し、値が大きいほど検出対象物体らしいことを示す。第一の尤度の算出方法については後述する。ここで、第一の識別部106bがReal AdaBoost識別器により構成される場合、識別器は複数の弱識別器の集合として構成される。Support Vector Machineやニューラルネットワーク、Regressionを用いた場合には、識別器は単一の識別器として構成される。なお、第一の識別部106bを構成する識別器は予め取得した識別対象画像群を用いて事前に学習済みであるとする。そして第一の識別部106bは、算出した第一の尤度を、後段の追加識別器学習部117に対して送出する。
追加識別器学習部117は、学習サンプル取得部112から入力された学習サンプル群及び分類ラベル群、第一の識別部106から入力された第一の尤度、を用いて、識別部101が有する第二の識別部107を構成する弱識別器の集合を作成する。
学習サンプル重み設定部118は、学習サンプルに対する重みの初期設定および更新を行う。識別器候補生成部119は、学習サンプルとその重みから弱識別器候補群とこれらの評価スコアを生成し、識別器選択部120に入力する。識別器選択部120は、この評価スコアを基に好適な弱識別器を選択して、第二の識別部107を更新する。
次に、識別部101について説明する。
識別サンプル取得部102は、識別対象画像を取得し、該識別対象画像から、該識別対象画像の画像特徴ベクトルと、該識別対象画像に添付されているコンテクスト特徴ベクトルと、を収集する。そして識別サンプル取得部102は、識別対象画像から収集した画像特徴ベクトルとコンテクスト特徴ベクトルとを連結した識別サンプルを生成し、該識別サンプルを、第一の識別部106a及び第二の識別部107に対して送出する。
画像取得部103aは、識別対象画像を取得する。特徴抽出部104aは、画像取得部103aが取得した識別対象画像から、特徴抽出部104bと同様にして画像特徴ベクトルを抽出する。コンテクスト取得部105aは、画像取得部103aが取得した識別対象画像に添付されているコンテクスト特徴ベクトルを取得する。そして、特徴抽出部104aが抽出した画像特徴ベクトルと、コンテクスト取得部105aが取得したコンテクスト特徴ベクトルと、は連結した状態で、識別サンプルとして、第一の識別部106aと第二の識別部107とに送出される。
第一の識別部106aは、識別サンプル取得部102から入力された識別サンプル内の画像特徴ベクトルに対して、検出対象物体らしさを示す尤度(第一の尤度)を算出する。そして第一の識別部106aは、算出した第一の尤度を、後段の統合識別部108に対して送出する。
なお、第一の識別部106aと第一の識別部106bとは同様にして事前に学習され且つ同様の動作を行うものである。しかるに、同じ識別器を第一の識別部106aと第一の識別部106bとして共有して使用しても構わないし、同じ学習を行って生成した2つの識別部をそれぞれ、第一の識別部106a、第一の識別部106bとして使用しても構わない。
第二の識別部107は、識別サンプル取得部102から入力された識別サンプルに対して、検出対象物体らしさを示す第二の尤度を算出する。そして第二の識別部107は、算出した第二の尤度を、後段の統合識別部108に対して送出する。
統合識別部108は、第一の識別部106aから入力された第一の尤度と、第二の識別部107から入力された第二の尤度と、を用いて、識別サンプルが検出対象物体であるかどうかを判定する。
次に、図1の学習部111が行う処理について、同処理のフローチャートを示す図3を用いて説明する。ステップS301では、画像取得部103bは、複数枚の識別対象画像を取得し、ステップS302では、画像取得部103bは、それぞれの識別対象画像に対する分類ラベルを取得する。
上記の通り、識別対象画像とは、検出対象物体の画像、背景画像の何れかであり、ステップS301では、検出対象物体の画像と、背景画像とが混在した画像群を取得することになる。識別対象画像群および分類ラベル群は、例えば、予めユーザが指定しておいても良い。また、動画像から識別対象画像群を取得する場合には、検出対象物体に対して追尾処理等を適用することで、識別対象画像群およびそれぞれの分類ラベルを追尾結果から自動取得してもよい。
ステップS303では、特徴抽出部104bは、ステップS301で取得したそれぞれの識別対象画像から、画像特徴ベクトルを抽出する。本実施形態では、識別対象画像からHOG(Histograms of Oriented Gradients)を画像特徴ベクトルとして抽出する。ただし、画像特徴ベクトルはHOGに限るものではなく、LBP(Local Binary Pattern)や画像の輝度値、その他の任意の特徴量を画像特徴ベクトルとして抽出するようにしても構わない。
ステップS304では、コンテクスト取得部105bは、ステップS301で取得したそれぞれの識別対象画像から、該識別対象画像に添付されているコンテクスト特徴ベクトルを取得する。本実施形態では、検出対象物体の出現位置情報をコンテクスト特徴ベクトルとして抽出する。具体的には、図7に示すように、識別対象画像701が取得された入力画像702(識別対象画像701を切り出した元画像)における識別対象画像701の位置座標と大きさをコンテクストとする。すなわち、識別対象画像701の切り出し枠の高さhおよび切り出し枠下部のy座標を取得し、コンテクスト特徴ベクトルとして、切り出し枠の高さhと切り出し枠下部のy座標の比、および高さhの逆数を設定する。このとき、コンテクスト特徴ベクトルcはc=(y/h,1/h)となる。
そして学習サンプル取得部112は、上記の通り、識別対象画像ごとに、該識別対象画像から抽出した画像特徴ベクトルと、該識別対象画像から取得したコンテクスト特徴ベクトルと、を連結した学習サンプルを、第一の識別部106bに対して送出する。
ステップS305では、第一の識別部106bは、学習サンプル取得部112から入力された各学習サンプル内の画像特徴ベクトルvに対して第一の尤度H(v)を算出する。第一の尤度H(v)は、以下の(式1)に従って算出する。
Figure 0006320112
ここで、(式1)のh1(v)は第一の識別部106b中の弱識別器を表しており、以下の(式2)に従って算出される。
Figure 0006320112
ここで、εは定数、W およびW はjをビン番号とする1次元ヒストグラムである。uは画像特徴ベクトルv中の事前に定められた次元の要素値、J(u)はuを1次元ヒストグラムのビンの番号に変換するための変換テーブルである。
ステップS306では、追加識別器学習部117は、学習サンプル群、分類ラベル群、第一の尤度群、を用いて、第二の識別部107を更新する。ステップS306における処理の詳細について、図4のフローチャートを用いて説明する。ステップS306では、いわゆるBoostingの学習アルゴリズムを用いて学習サンプル群と分類ラベル群を学習し、第二の識別部107を更新する。Boostingは、多数の弱識別器を重ねて強い識別器を作る方法であって、本実施形態では、第二の識別部107を構成するそれぞれの弱識別器が少なくとも画像特徴ベクトルとコンテクスト特徴ベクトルのいずれかを学習する。本実施形態における学習アルゴリズムは、第一の識別部106bを構成する識別器をこのBoostingの学習済み弱識別器のひとつとして扱い、第二の識別部107に多数の弱識別器を追加することを特徴とする。
先ず、ステップS401では、追加識別器学習部117は、第二の識別部107を初期化する。この初期化では、第二の識別部107を構成する弱識別器の集合を空集合に設定する。
次に、ステップS402では、サンプル重み設定部118は、各学習サンプルに対する重みの初期化を行う。Boostingの学習アルゴリズムは、非特許文献2によれば、学習済みの識別器の識別結果で学習サンプルを重みづけし、逐次的に弱識別器を追加することによって、より識別性能の高い識別器を構築することができる。
本実施形態では、第一の識別部106bで識別が難しいサンプルほど大きな重み、識別が容易なサンプルほど小さな重みで学習を開始する。学習サンプルの重みは、第一の識別部106bを構成する識別器で学習サンプルを識別した場合に生じる損失(loss)を、全てのサンプル重みの和が1となるように正規化した値として求める。例えば、第一の識別部106bを構成する識別器がReal AdaBoost識別器であれば、学習サンプルの重みwの初期値は、以下の(式3)に従って行われる。
Figure 0006320112
ここで、iは学習サンプルの番号である。また、H(v)は、ステップS305で取得した「画像特徴ベクトルvに対する、第一の識別部106bを構成する識別器Hの尤度」(第一の尤度)を示しており、yはその分類ラベルを示している。この(式3)は、Real AdaBoostの指数損失関数を基にしており、第一の識別部106bで用いる識別器に応じて、好適な損失関数を採用する。
このような学習サンプルの重みの設定により、第一の識別部106bを構成する識別器Hが識別を不得意とするシーン特有の学習サンプルを、第二の識別部107において効率よく学習する効果が見込める。また、これによって第二の識別部107は、第一の識別部106bの特定シーンに対する識別性能を補完する効果が見込める。
次に、ステップS403では、識別器候補生成部119は、学習サンプル群、分類ラベル群、学習サンプルの重み群、を用いて、弱識別器候補群とこれらの評価スコアを生成する。弱識別器候補の評価スコアとは、弱識別器候補の識別性能を示す指標であり、値が小さいほど識別性能がよいことを示す。ステップS403における処理の詳細については、図5を用いて後述する。
ステップS404では、識別器選択部120は、ステップS403で生成された弱識別器候補群から、これらの評価スコアを基に好適な弱識別器を選択する。好適な弱識別器として、本実施形態では弱識別器候補中の最も評価スコアが小さいものを選択する。
ステップS405では、識別器選択部120は、ステップS404で選択した弱識別器を、第二の識別部107を構成する弱識別器の集合に追加する。
ステップS406では、学習サンプル重み設定部118は、ステップS404で選択した弱識別器h、学習サンプルx、分類ラベルyを用いて、以下の(式4)に従って、学習サンプルの重みwを更新する。
Figure 0006320112
そしてこの(式4)に従って各重みを更新後、全ての重みの和が1となるように、それぞれの重みを正規化する。次に、ステップS407では、追加識別器学習部117は、学習の終了条件を満たす否かを判定する。本実施形態では、例えば、Positive Rejection Ratioが事前に定められたしきい値より小さいかつNegative Rejection Ratioが同じく事前に定められたしきい値より大きい場合、終了条件を満たすと判定する。それ以外の場合、満たさないと判定する。
ここで、Positive Rejection Ratioとは、検出対象物体の学習サンプルが誤って背景に識別される割合であり、Negative Rejection Ratioは背景の学習サンプルが正しく識別される割合である。なお、学習の終了条件としては様々な条件を適用することができ、特定の条件に限るものではない。例えば、ステップS401〜S406の処理が既定回数以上実行された場合に終了条件を満たすと判定するようにしても構わない。
ステップS407において終了条件が満たされたと判定された場合には、学習処理は終了し、まだ終了条件は満たされていないと判定した場合には、処理はステップS403に戻り、以降の処理が繰り返される。
次に、上記のステップS403における処理の詳細について、図5のフローチャートを用いて説明する。図5の処理は、画像特徴ベクトルを識別する弱識別器の候補群、コンテクスト特徴ベクトルを識別する弱識別器の候補群、画像特徴ベクトルとコンテクスト特徴ベクトルとの組み合わせを識別する弱識別器の候補群、を生成するための処理である。具体的には、ステップS501のループ(ステップS502及びS503)では、画像特徴ベクトルを識別する弱識別器の候補群を生成すると共に、それぞれの候補の評価スコアを算出する。ステップS504のループ(ステップS505及びS506)では、コンテクスト特徴ベクトルを識別する弱識別器の候補群を生成すると共に、それぞれの候補の評価スコアを算出する。ステップS507のループ(ステップS508及びS509)では、画像特徴ベクトルとコンテクスト特徴ベクトルとの組み合わせを識別する弱識別器の候補群を生成すると共に、それぞれの候補の評価スコアを算出する。
先ず、画像特徴ベクトルを識別する弱識別器候補群の生成及びその評価スコアの算出を行うステップS501のループ(ステップS502及びS503)ついて説明する。ステップS501のループでは、画像特徴ベクトル中の各次元について、弱識別器候補とその評価スコアを生成する。すなわち、画像特徴ベクトルの次元数だけ弱識別器候補およびその評価スコアが生成される。
本実施形態では、弱識別器とその評価スコアは非特許文献2のReal AdaBoostに基づいて求めるとする。非特許文献2によれば、Real AdaBoostの弱識別器は以下の(式5)に示したような形式をとる。
Figure 0006320112
ここで、xは学習サンプル、yは学習サンプルの分類ラベルであり、P(y=+1|x)、P(y=−1|x)は学習サンプルの重みで重みづけされた確率密度分布である。
ステップS502では、識別器候補生成部119は、画像特徴ベクトルを識別する弱識別器の候補群を生成する。ここで、画像特徴ベクトルの任意の次元の要素における弱識別器候補の生成方法について説明する。非特許文献2によれば、(式5)の弱識別器候補はさらに(式6)のように表わされる。
Figure 0006320112
ここで、xは学習サンプル、εは定数、W およびW はjをビン番号とする1次元ヒストグラムである。uは学習サンプルx中の画像特徴ベクトルの任意の次元の要素値、J(u)はuを1次元ヒストグラムのビンの番号に変換するための変換テーブルである。
1次元ヒストグラムW およびW はそれぞれ、以下の(式7−1)及び(式7−2)のように、変換テーブルJで特徴量をビン番号に変換し、そのビンに対応する学習サンプル重みを積算することによって求める。
Figure 0006320112
ここで、jは1次元ヒストグラムのビンの番号、iは学習サンプルの番号を表す。また、yiおよびuiはそれぞれ、i番目の学習サンプルの分類ラベルおよび学習サンプル中の画像特徴の任意の要素値を表す。
次に、ステップS503では、識別器候補生成部119は、ステップS502で生成された弱識別器候補himageの評価スコアzを算出する。評価スコアは、例えば、以下の(式8)に従って算出する。
Figure 0006320112
以上説明したステップS501のループ(ステップS502及びステップS503の処理)によって、画像特徴ベクトルを識別する弱識別器候補群が生成されると共に、その評価スコアが算出される。
次に、コンテクスト特徴ベクトルを識別する弱識別器候補群の生成及びその評価スコアの算出を行うステップS504のループ(ステップS505及びS506)ついて説明する。このループにおいて複数の弱識別器候補を生成してもよいが、本実施形態では、単一の弱識別器候補を生成するため、繰り返し回数は1回のみとする。
ステップS505では、識別器候補生成部119は、コンテクスト特徴ベクトルを識別する弱識別器の候補群を生成する。ここで、コンテクスト特徴ベクトルから弱識別器候補を生成する処理について、より詳細に説明する。コンテクスト特徴ベクトルを識別する弱識別器候補は、同じくReal AdaBoostに基づき、以下の(式9)のように表わされる。
Figure 0006320112
ここで、xは学習サンプル、cは学習サンプル内のコンテクスト特徴ベクトル、yは分類ラベルを示している。また、P(c|y=+1)、P(c|y=−1)はそれぞれ、学習サンプルの重みで重みづけされた検出対象物体、背景のコンテクスト特徴ベクトルの確率密度分布である。P(y=+1)、P(y=−1)はそれぞれ検出物体、背景の分類ラベルの分布である。
次に、(式9)の確率密度分布P(c|y=+1)の計算方法について説明する。ステップS304において取得したコンテクスト特徴ベクトルは、切り出し枠の高さhと切り出し枠下部のy座標との比、および高さhの逆数、から成るベクトルであり、コンテクスト特徴ベクトルはc=(y/h,1/h)である。ここでは、これをc=(c,c)と表記する。検出対象物体の高さがほぼ一定であり、カメラの設置高さ、水平線の画像中のy座標が一定と仮定すると、以下の(式10)に示すように、cはcの一次関数f(c:a,b)として表せる。
Figure 0006320112
ここで、a,bは一次関数の係数である。ここで、コンテクスト特徴ベクトルの観測には誤差が生じると考えられる。また、検出対象物体の高さは実際には一定ではない場合も考えられる。そこで、コンテクスト特徴ベクトルには正規分布誤差が生じていると仮定すると、(式9)中の確率密度分布P(c|y=+1)は以下の(式11)で表わされる。
Figure 0006320112
(式11)中のN(c|f(c:a,b),σ)は平均f(c:a,b)、分散σの正規分布を表す。(式11)は、コンテクスト特徴ベクトルc=(c,c)が図8に示す直線f(c:a,b)に近いほど検出対象物体らしいことを意味する。
(式11)のパラメータa、b、σは学習サンプルの重みおよびコンテクスト特徴ベクトルから最尤推定により求める。また、P(c|y=+1)は一様分布とする。
(式9)の確率密度分布P(c|y=−1)について、背景の学習サンプルはシーン中で一様に出現すると仮定する。そのため、P(c|y=−1)は一様分布とする。
本実施形態によれば、カメラと検出対象物体の位置関係の幾何的なモデルを想定することで、雑音に頑健となり、確率密度分布の推定の正確性を高める効果が期待できる。また、幾何的なモデルを考慮しない場合に比べ、より少ない学習サンプル数で正確な確率密度分布を推定する効果が期待できる。
本実施形態では、(式11)のP(c|y=+1)と(式9)のP(c|y=−1)は一様分布した。しかし、学習サンプルの重みおよびコンテクスト特徴ベクトルを用いて、(式9)のP(c|y=+1)のように何らかのモデルに当てはめて最尤推定により求めてもよい。また、学習サンプルの重みおよびコンテクスト特徴ベクトルを用いて、カーネル密度推定(Kernel Density Estimation)や投票で求めてもよい。
次に、ステップS506では、識別器候補生成部119は、弱識別器候補hcontextの評価スコアzを生成する。評価スコアzは、例えば、以下の(式12)に従って算出する。
Figure 0006320112
ここで、iは学習サンプルの番号、wは学習サンプルの重み、xは学習サンプル、yは分類ラベルを示している。hは弱識別器候補であり、ここではhcontextである。
以上説明したステップS504のループ(ステップS505及びステップS506の処理)によって、コンテクスト特徴ベクトルを識別する弱識別器候補群が生成されると共に、その評価スコアが算出される。
次に、画像特徴ベクトルとコンテクスト特徴ベクトルの組み合わせを識別する弱識別器候補群の生成及びその評価スコアの算出を行うステップS507のループ(ステップS508及びS509)ついて説明する。ステップS507のループでは、ステップS501のループと同様に、画像特徴ベクトル中の各次元について弱識別器候補とその評価スコアを生成する。すなわち、画像特徴ベクトルの次元数だけ弱識別器候補およびその評価スコアが生成される。
ステップS508では、識別器候補生成部119は、画像特徴ベクトルとコンテクスト特徴ベクトルとの組み合わせを識別する弱識別器の候補群を生成する。画像特徴ベクトルとコンテクスト特徴ベクトルの組み合わせから弱識別器候補を生成する処理について、より詳細に説明する。画像特徴ベクトルとコンテクスト特徴ベクトルを識別する弱識別器候補は、同じくReal AdaBoostに基づき、以下の(式13)のように表わされる。
Figure 0006320112
ここで、xは学習サンプル、yは分類ラベルを示している。弱識別器候補として(式13)を用いてもよいが、本実施形態ではナイーブ・ベイズ法を採用して、(式13)を(式14)のように近似する。
Figure 0006320112
ここで、xは学習サンプル、vは学習サンプル中の画像特徴ベクトル、cは学習サンプル中のコンテクスト特徴ベクトルである。(式14)中の1次元ヒストグラムW およびW はそれぞれ、上記の(式7−1)、(式7−2)に従って計算する。また、(式14)中のP(c|y=+1)およびP(c|y=−1)は、上記の(式9)と同様に計算する。
次に、ステップS509では、識別器候補生成部119は、弱識別器候補hjointの評価スコアzを算出する。評価スコアzは、例えば、上記の(式12)に従って求める。
以上説明したステップS507のループ(ステップS508及びステップS509の処理)によって、画像特徴ベクトル及びコンテクスト特徴ベクトルの組み合わせを識別する弱識別器候補群が生成されると共に、その評価スコアが算出される。
そして識別器候補生成部119は、図5のフローチャートに従って生成した弱識別器候補群と、それぞれの弱識別器候補の評価スコアと、を識別器選択部120に対して送出する。
次に、上記の学習部111により学習した第二の識別部107を有する識別部101が行う処理について、同処理のフローチャートを示す図6を用いて説明する。ステップS601のループ(ステップS602〜S607)は、識別サンプル取得部102に入力された識別対象画像(検出対象画像)中のそれぞれの部分画像(ユーザが指定しても良いし、識別部101が指定しても良い)に対して行われる。
ステップS602では、画像取得部103aは、識別対象画像中の任意の部分画像を取得するので、特徴抽出部104aは、この取得した部分画像から、上記のステップS303と同様にして画像特徴ベクトルvを抽出する。
ステップS603では、コンテクスト取得部105aは、識別対象画像に添付されているコンテクスト特徴ベクトルを、上記のステップS304と同様にして取得する。
ステップS604では、第一の識別部106aは、ステップS602で抽出した画像特徴ベクトルvに対して、第一の識別部106aの第一の尤度H(v)を、上記の(式1)に従って算出する。ここで、第一の尤度H(v)は、ステップS602で取得した部分画像の識別対象物体らしさを表す数値である。
ステップS605では第二の識別部107は、ステップS602で抽出した画像特徴ベクトルvと、ステップS603で取得したコンテクスト特徴ベクトルと、を連結したベクトルxに対し、第二の識別部107の第二の尤度H)を算出する。ここで、第二の尤度は、ステップS602で取得した部分画像の識別対象物体らしさを表す数値である。第二の尤度H)は、以下の(式15)に示すように、第二の識別部107であるH を構成する弱識別器hによる尤度の和で計算される。
Figure 0006320112
なお、(式15)において、ステップS502で生成された第二の識別部107(H )を構成する弱識別器hの評価には、識別サンプルx中の画像特徴ベクトルvのみを使用する。また、ステップS505で生成された第二の識別部107(H )を構成する弱識別器hの評価には、識別サンプルx中のコンテクスト特徴ベクトルcのみを使用する。また、ステップS508で生成された第二の識別部107(H )を構成する弱識別器hの評価には、識別サンプルx中の画像特徴ベクトルvとコンテクスト特徴ベクトルcの両方を使用する。
ステップS606では、統合識別部108は、ステップS604で算出された第一の尤度H(v)と、ステップS605で算出された第二の尤度H(x)と、の統合尤度H(x)を算出する。統合尤度H(x)は、以下の(式16)に示すように、第二の尤度H(x)を係数λで重みづけし、第一の尤度H(v)に加算したものとして計算される。
Figure 0006320112
ここで、xは識別サンプルであり、画像特徴ベクトルvとコンテクスト特徴ベクトルcを連結したものである。また、係数λは第一の識別部106aと第二の識別部107との強さの比を示す値であり、0から1の値をとる。λが0のときは、第一の識別部106aを構成する識別器H1のみでの識別結果と同等であり、λが大きいほどシーンへの適応度合いが大きいことを示す。このため、係数λを調整することによって、過学習による検出性能低下を抑制する効果が期待できる。
ステップS607では、統合識別部108は、ステップS606で算出した統合尤度H(x)が事前に定められた一定値より大きかった場合には、ステップS602で取得した部分画像を検出対象物体に分類する。
ステップS601のループが、識別対象画像中のそれぞれの部分画像について行われると、統合識別部108は、ステップS607において検出対象物体に分類した部分画像の集合を出力する。出力先や出力形態については特定の形態に限るものではないし、出力するものも、部分画像そのものを出力しても良いし、部分画像に係る情報(識別対象画像中の位置やサイズ、部分画像中の認識結果など)を出力しても良い。
本実施形態において、ステップS402で識別対象画像群の夫々の画像から第一の識別部で取得した第一の尤度に基づいて学習サンプルの重みの初期値を設定するようにした。このとき、第二の識別部は第一の識別部で識別した第一の尤度に基づき学習するため、第二の識別部は第一の識別部が識別を不得意とする識別対象画像群を効率的かつ精度よく学習する効果が見込める。
さらに、第一の識別部の第一の尤度を介して、第一の識別部と第二の識別部を同一のBoostingのフレームワークによって学習したため、第一の識別部の第一の尤度と第二の識別部の第二の尤度は加減算で結合される。よって、異なる学習サンプル群で複数種類の第二の識別部を別途学習しておき、検出部ではこれらを更新・交換することができる。これにより、検出部は異なる学習サンプル群から学習した複数のコンテクストを選択的に切り替えることができる。例えば、具体的にはカメラが三脚に固定されている場合には座標をコンテクストとして学習した第二の識別部を用い、カメラが固定されていない場合にはそれ以外のコンテクストを学習した第二の識別部を用いることができる。
さらに、ある第二の識別部が学習したコンテクストと、別の第二の識別部が学習したコンテクストが互いに独立な事象、例えば画像上の座標と時刻である場合を考える。この場合、それら第二の識別部の第二の尤度には相関がないから、それら複数の第二の識別部を併用し、それらの全ての第二の尤度を積算することもできる。これにより、ある学習サンプルのあるコンテクストと、それと異なるコンテクストとに、同時に適応することができる。
また、本実施形態において、ステップS403で画像特徴ベクトルを識別する弱識別器、コンテクスト特徴ベクトルを識別する弱識別器、画像特徴ベクトルとコンテクスト特徴ベクトルを識別する弱識別器を生成した。これら3種類の弱識別器を生成することの効果について説明する。
まず、画像特徴ベクトルを識別する弱識別器の効果を説明する。従来の画像検出技術をあるシーンで適応したときに、従来の画像検出技術、すなわち第一の識別部の検出性能があるシーンでのみ低下するという現象が起こる。この理由として、シーン特有の画像特徴が存在することが挙げられる。例えば、検出対象物体の特定の部分に隠れが発生しやすいシーンでは、隠れ部分特有の画像特徴が存在する。また、検出対象物体の姿勢や画像取得環境の変化により、識別に必要とされる画像特徴が変化する。さらに、検出処理対象画像中の検出対象物体の背景部分に特徴的な物体が映りこむ傾向が見られるシーンでは、このような物体の周辺には物体特有の画像特徴が存在する。このため、第二の識別部に画像特徴ベクトルに基づく弱識別器を新たに生成することで、シーン特有の画像特徴の追加学習が可能となり、検出率の向上が期待できる。
コンテクスト特徴ベクトルを識別する弱識別器の効果を説明する。画像特徴で検出対象物体と背景の差異を表現しきれない場合等、画像特徴のみでは識別が難しい場合がある。例えば検出対象物体の隠れが大きい場合や、検出対象物体の形状の多様性が大きい場合が挙げられる。そのため画像特徴のみで識別が難しい場合、画像特徴以外の情報に基づく識別を行う必要がある。例えば、検出物体の出現位置情報を用いれば、隠れによる影響を軽減しつつ検出対象物体であるか否かを識別することが容易になることが見込まれる。そこで、第二の識別部にコンテクスト特徴ベクトルに基づく弱識別器を新たに生成する。それによって、コンテクストに基づく識別が可能となる。これにより、上記シーンにおいて、画像特徴に依らず識別が可能になり、検出率の向上が期待できる。
画像特徴ベクトルとコンテクスト特徴ベクトルを識別する弱識別器の効果を説明する。シーンによっては、画像特徴とコンテクスト特徴の間に何らかの関連性が見られることがある。例えば、コンテクストが検出対象物体の出現位置情報であれば、検出対象物体の出現位置によって識別に有用な画像特徴が異なる場合がある。具体的な例として、近くに存在する高解像度の物体と遠くに存在する低解像度の物体では、有用な画像特徴が異なることがある。その他の例として、出現位置によって隠れの有無が生じ、検出対象物体の見えに特定の変化が生じる場合や、出現位置によって照明条件が異なり、検出対象物体や背景の陰影が異なる場合がある。そこで本実施形態では、第二の識別部に画像特徴ベクトルとコンテクスト特徴ベクトルの両方に基づく弱識別器を新たに生成した。これにより、画像特徴とコンテクスト特徴の間の関連性に基づく識別が可能になり、検出率の向上が期待できる。
以上のように、本実施形態では、画像特徴のみならず、コンテクスト情報に基づいた弱識別器を生成した。すなわち、識別器候補生成部において第一の識別部で取得した第一の尤度とコンテクスト情報に基づいて弱識別器候補を生成し、識別器選択部で好適な識別器を選択して第二の識別部を構成するようにした。これにより、コンテクスト情報を追加することができた。
[第2の実施形態]
第1の実施形態では、コンテクスト特徴ベクトルをc=(y/h,1/h)としたが、ステップS304では、時刻、日付、曜日、月、季節、その他の時間を表す数値または属性ラベルを、コンテクスト特徴ベクトルとして取得してもよい。また、天候、気温、湿度、気圧、降水量、積雪量、風向、風速、太陽の方向、日射量、霧の濃度、視程、その他の気象条件を表す数値または属性ラベルをコンテクスト特徴ベクトルとして取得してもよい。例えば、時刻をtとした場合、コンテクスト特徴ベクトルをc=(t)として取得してよい。
これらのコンテクストは時間を表わすものならば時計から取得してもよく、気象条件を表わすものならばセンサから取得してもよい。また、人間が手動で与えてもネットワークを介して外部から与えてもよく、太陽の方向等の視覚的変化を生じるコンテクストならばカメラ画像から推定してもよい。
例として、コンテクスト特徴ベクトルとして時刻を用いた場合の効果を説明する。時刻に応じて撮影環境や検出対象物体の容姿が変化する場合がある。例えば、検出対象物体が人物であれば、朝と夜で照明条件の変化により陰影に違いが生じたり、人物の服装や持ち物が変化したりする。このような場合、背景や検出対象物体の画像特徴に、時刻に応じた変化が生じると考えられる。そのため、時刻に応じて画像特徴の利用方法を変化させることで、識別性能の向上が見込まれる。
コンテクスト特徴ベクトルとしてその他の時間に関する特徴や気象条件を表す特徴を用いた場合も、同様の効果が見込まれる。すなわち、背景画像や検出対象物体の画像特徴に、コンテクストに応じた変化が生じるため、コンテクストに応じて画像特徴の利用方法を変化させることで識別性能の向上が見込まれる。
また、時間や気象条件のようなコンテクストは検出対象物体の位置に依存しないため、カメラが固定されていないシーンにおいてもコンテクストを学習可能である。
画像特徴とコンテクスト特徴の関連性を捉えるために、これらの同時確率密度分布を考慮してもよい。そのため、弱識別器候補として(式13)を採用した場合、(式13)のP(y=+1|x)、P(y=−1|x)は、学習サンプルの重みで重みづけした画像特徴とコンテクスト特徴の同時確率密度分布としてもよい。具体的には、2次元ヒストグラムW jk、W jkとして表現する。2次元ヒストグラムW jk、W jkは、以下の(式17)に示すように、変換テーブルJ,Kで特徴量をビン番号に変換し、そのビンに対応する学習サンプル重みを積算することで計算する。
Figure 0006320112
ここで、j、kはそれぞれ2次元ヒストグラムのビンの行番号、列番号を示す。また、iはサンプルの番号、uは画像特徴ベクトル要素値、Jは画像特徴の値を2次元ヒストグラムのビンの行番号に変換するための変換テーブルである。また、tは時刻、Kは時刻を2次元ヒストグラムのビンの列番号に変換するための変換テーブルである。
弱識別器候補として(式13)の代わりに(式14)の近似式を採用してもよい。この場合には、画像特徴とコンテクスト特徴のそれぞれに対して、学習サンプルで重みづけされた確率密度分布W 、W 、P(c|y=+1)、P(c|y=−1)を表す1次元ヒストグラムを作成する。弱識別器の評価スコアとしては、(式17)のzを用いる。
[第3の実施形態]
第1の実施形態では、コンテクスト特徴ベクトルをc=(y/h,1/h)とした。しかし、ステップS304では、画像の切り出し枠の高さh、幅w、検出枠の特定の場所のx、y座標の好適ないずれか、またはこれらの好適な複数の組み合わせをコンテクスト特徴ベクトルとして取得してもよい。例えば、c=(x,y,y/h)としてもよい。これらによって、検出対象物体が出現しやすい領域とそうでない領域を区別する効果が見込まれる。例えば、検出対象物体が人体あり、シーン中に壁面が存在すれば、壁面内には人体は存在せず、x、y座標を利用することによって、人体が存在しうる領域とそうでない領域を区別することができる。
この場合、ステップS505でコンテクスト特徴ベクトルを識別する弱識別器候補を生成するために、(式9)のP(c|y=+1)、P(c|y=−1)として、コンテクスト特徴ベクトルの1つあるいは複数の要素の組の同時確率密度分布を計算してもよい。またステップS508で画像特徴ベクトルとコンテクスト特徴ベクトルを識別する弱識別器候補を生成する為に、(式13)のP(x|y=+1)、P(x|y=−1)として、画像特徴ベクトルとコンテクスト特徴ベクトルの同時確率密度分布を計算してもよい。この同時確率密度分布を計算するときには、(式11)のように好適なモデルに当てはめて最尤推定を行ってもよく、また投票やカーネル密度推定で求めてもよい。
[第4の実施形態]
第1の実施形態では、コンテクスト特徴ベクトルをc=(y/h,1/h)とした。しかし、ステップS304では、検出対象領域を含む検出対象領域周辺の部分画像の画像特徴ベクトルをコンテクスト特徴ベクトルcとして取得してもよい。具体的には、図9の検出対象領域902周辺の斜線で示す領域901から画像特徴ベクトルrを抽出し、これをコンテクスト特徴ベクトルcとする。すなわちc=rとする。コンテクスト特徴ベクトルを取得するための画像特徴として、HOG、LBPや画像の輝度値、第一の識別部の出力値、その他の特徴量を利用してもよい。この場合、(式9)で表わされるコンテクスト特徴ベクトルを識別する弱識別器として、(式6)で表わされる画像特徴ベクトルを識別する弱識別器と同様の形式にしてもよい。
本実施形態の効果を説明する。検出対象物体の出現頻度と背景画像間に特定の関連が見られる場合がある。例えば、足元が道路らしいテクスチャや色を持つ位置に人体が出現しやすい等である。このような場合には、検出対象領域を含む検出対象領域周辺の部分画像を学習することで、背景画像を学習することができ、検出性能の向上が期待できる。
[第5の実施形態]
第1の実施形態では、コンテクスト特徴ベクトルをc=(y/h,1/h)とした。しかし、ステップS304では、動画像の動き情報をコンテクスト特徴ベクトルとして取得してもよい。すなわち、動き情報を表す特徴ベクトルをmとすれば、コンテクスト特徴ベクトルはc=mとなる。動き情報として、検出対象領域のオプティカルフローを用いてもよいし、フレーム間差分画像や背景差分画像を用いてもよい。また、物体の軌跡を表す座標値を動き情報としてもよい。
コンテクスト特徴ベクトルとして、動き情報を用いる効果を説明する。検出対象物体が移動物体の場合、検出対象物体と背景では動き情報が異なると考えられる。例えば、動き情報がオプティカルフローの場合、検出対象物体と背景ではオプティカルフローの向きや強度が異なることが見込まれる。このため、動き情報は検出対象物体と背景を分離するための有用な特徴となるため、動き情報を識別する弱識別器を生成することで、識別性能の向上が見込まれる。
また、カメラモーションに頑健な動き情報を用いれば、カメラが固定されていないシーンにおいてもコンテクストを学習可能である。カメラモーションに頑健な動き情報として、検出対象領域のオプティカルフローから画像全体のオプティカルフローの平均を減算したもの等が挙げられる。
(式9)の動き情報を識別する弱識別器として、(式6)の画像特徴を識別する弱識別器ように、特徴選択によって好適な動き特徴を利用する弱識別器を生成してもよい。また、(式13)の画像特徴と動き情報を識別する弱識別器として、画像特徴と動き特徴の共起性を考慮した弱識別器を生成してもよい。
[第6の実施形態]
第1の実施形態では、コンテクスト特徴ベクトルをc=(y/h,1/h)とした。しかし、ステップS304では、環境に設置されたセンサによって得られた数値または属性ラベルをコンテクスト特徴ベクトルとして取得してもよい。具体的には、赤外線センサ、距離センサ、温度センサ、マイクロフォン、非可視光カメラ画像、床圧力センサ、その他のセンサを用いてもよい。さらに、測距センサ、露出計、その他のカメラに内蔵されたセンサを用いてもよい。
コンテクスト特徴ベクトルとして、環境に設置されたセンサによって得られた情報を用いた場合の効果を説明する。センサ情報の変化に応じて変動する検出対象物体の出現頻度を考慮することができることが見込まれ、識別性能の向上が期待できる。例えば、エリアセンサによる検出対象物体の検知の有無によって、シーン中に検出対象物体が存在する尤度が異なることを識別に利用することができる。また、画像特徴と組み合わせることで、センサ情報の変化に応じた撮影環境や検出対象物体の容姿の変化を考慮した識別が可能となり、識別性能の向上が期待できる。例えば、温度センサから得られる温度に応じて検出対象物体の服装などの容姿が異なる場合、温度に応じて画像特徴の利用方法を変化させることが可能となり、識別性能の向上が見込まれる。
[第7の実施形態]
ステップS304では、シーンの混雑度合いをコンテクスト特徴ベクトルとして取得してもよい。混雑度合いとして、検出対象物体が人物であれば、シーン中の人物の密度の他、人物間の距離の平均値でもよく、シーンから取得した画像の画素のうち、動体に属する画素の割合でもよい。
シーンの混雑度合いは、検出対象物体の検出結果から推定してもよいし、シーン中の動体検知結果から推定してもよく、人手で指定してもよい。さらに、シーン中に設置したセンサから取得してもよい。混雑度合いはシーンから取得した画像全体で一様なものとして取得してもよいし、位置ごとに異なるものとして取得してもよい。
コンテクスト特徴ベクトルとして、シーンの混雑度合いを用いた場合の効果を説明する。画像特徴と混雑度合いの間に関連性が見られる場合がある。例えば、検出対象物体が人物であれば、人物同士で重なりあう場合と重なりあわない場合では識別に有用な画像特徴が異なる場合がある。また、背景が遮蔽されるため、識別に有用な画像特徴が変化する場合がある。このため、混雑度合いを導入することで、混雑度合いに応じて画像特徴の利用方法を変化させることが可能となり、識別性能の向上が見込まれる。
[第8の実施形態]
ステップS304では、コンテクスト特徴ベクトルとして、複数種類のコンテクストの組み合わせを取得してもよい。例えば、検出対象物体の位置情報と時刻の組み合わせが挙げられる。
ステップS403で任意の組み合わせのコンテクスト間の共起性を利用した弱識別器候補を生成してもよいし、複数種類のコンテクストごとに弱識別器候補を生成してもよく、もしくは両方とも生成してもよい。共起性を利用した弱識別器の場合、第2の実施形態のように、同時確率密度分布を基にした弱識別器を生成する。複数の種類のコンテクストを利用することで、識別するための手法が増加する他、画像特徴や各コンテクスト間の関連性を識別に利用することができ、識別性能の向上が期待できる。
[第9の実施形態]
ステップS304では、環境に設置された装置の稼働状況あるいは操作状況を示す数値または属性ラベルをコンテクスト特徴ベクトルとして取得してもよい。具体的には、自動ドアまたは手動ドアの開閉の有無、開閉時間、開閉履歴がある。その他に、パーソナルコンピュータやコピー機等のオフィス機器、工作機器、その他の装置の操作の有無や操作時間、操作履歴がある。環境に設置された装置の稼働状況あるいは操作状況を示す数値または属性ラベルは装置に取り付けられたセンサから取得してもよいし、カメラ画像から推定してもよい。
環境に設置された装置の稼働状況あるいは操作状況を示す数値または属性ラベルをコンテクスト特徴ベクトルとして用いる効果を説明する。装置の稼働状況や操作状況と、検出対象物体の出現頻度や出現場所に関連性がある場合がある。検出対象が人物であった場合を例に挙げると、自動ドアまたは手動ドアが開閉された際には、一般的にドアを通過しようとする人物がその付近に存在していると考えられる。また装置が操作された場合には、これを操作した人物が付近に存在すると考えられる。このように、装置の稼働状況や操作状況と検出対象物体の存在の尤度には関連がある。そのため、これらの関連性を学習することにより識別性能が向上すると見込まれる。弱識別器として、例えば、装置の稼働状況を示す属性ラベルと検出対象物体の位置情報の同時確率密度分布を基にしたものを生成してもよい。
[第10の実施形態]
第1の実施形態では、第一の識別部および第二の識別部は弱識別器の集合として識別器を構成した。非特許文献3のように、ステージと呼ばれる弱識別器の集合を複数個直列に並べたcascade型の構成をとることで、検出処理時に一連の弱識別器の評価を途中で終了させることができ、検出処理量の削減効果があることが知られている。
そこで、第一の識別部を1ステージ目、第二の識別部を2ステージ目とするcascade型の構成をとってもよい。また、第一の識別部と第二の識別部の弱識別器の集合を統合した上でステージに分割し、非特許文献4に示されるようなcascade型の一種であるSoft cascade型やMulti−exit cascade型の構成をとってもよい。各ステージ末端の弱識別器において、cascade型の識別器の枠組みに従い、弱識別器の尤度の積算値に応じて途中で計算を終了し、検出処理対象画像の部分画像を強制的に背景画像として分類する機構を設けてもよい。
[第11の実施形態]
第一の識別部は非特許文献3のようなcascade型の識別器で構成されていてもよい。この場合、非特許文献3に示されるように、ステージごとに学習を行えばよい。具体的には、各ステージに対応する第二の識別部を用意し、第一の識別部内のステージごとに図3のフローチャートに従った処理を行えばよい。このようにcascade型の識別器で構成することで、弱識別器の評価回数を減少させることができ、検出処理量の低減効果が見込まれる。
[第12の実施形態]
図1に示した各部は何れも電子回路などのハードウェアで構成しても良いが、ソフトウェア(コンピュータプログラム)で構成しても良い。その場合、このソフトウェアを実行可能な装置は、図1に示した構成を有する情報処理装置に適用することができる。例えば、図2に示したような構成を有する撮像装置は、図1に示した構成の情報処理装置に適用することができる。
図2において撮像素子201は、CCDやMOS等により構成されており、外界の光をアナログ電気信号に変換して出力する。信号処理部202は、このアナログ電気信号をディジタル電気信号に変換し、これを入力画像としてRAM205に送出する。
ROM204には、本装置の設定データや起動プログラム、図1に示した各部の機能をCPU203に実行させるための(上記のフローチャートに従った処理をCPU203に実行させるための)コンピュータプログラムやデータが格納されている。また、ROM204には、既知の情報として上述した各種の情報も格納されている。
CPU203はROM204やRAM205に格納されているコンピュータプログラムやデータを用いて各種の処理を実行することで、本装置全体の動作制御を行うと共に、本装置を適用した情報処理装置が行うものとして上述した各処理を実行する。CPU203は、信号処理部202によりRAM205に格納された入力画像から、規定の領域(画像から識別対象物体を認識してその領域を検出しても良いし、ユーザが不図示の操作部を操作して指定しても良い)内の画像を、識別対象画像として抽出する。
RAM205は、信号処理部202から送出された入力画像などを一時的に記憶するためのエリアや、CPU203が各種の処理を実行する際に用いるワークエリアなどを有する。すなわちRAM205は、各種のエリアを適宜提供することができる。
ディスプレイ206は、液晶画面などにより構成されており、CPU203による処理結果を画像や文字などでもって表示することができる。例えば、ユーザによる領域指定等の様々な指示入力のための画面や、統合識別部108による処理結果は、このディスプレイ206に表示される。また、図1に示した各部のうち一部を電子回路などのハードウェアで実現するようにしても構わない。
また、識別部101と学習部111とを別個の装置として取り扱う場合、それぞれの装置に、図2に示したような撮像装置や、上記のように上記ソフトウェアを実行可能な装置を適用しても構わない。
また、図2の構成から撮像素子201や信号処理部202を省いた残りの構成を有する装置(例えば一般のパーソナルコンピュータ)を、図2の撮像装置の代わりに適用しても構わない。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
104a:特徴抽出部 105a:コンテクスト取得部 106a:第一の識別部 107:第二の識別部 108:統合識別部

Claims (9)

  1. 入力された対象画像から特徴量を取得する手段と、
    前記対象画像を含む元画像を撮影したシーン特有のコンテクストを示すコンテクスト情報を取得する手段と、
    前記特徴量から、前記対象画像が規定の物体の画像である確からしさを示す第一の尤度を求める第一の識別手段と、
    前記コンテクスト情報から、前記対象画像が規定の物体の画像である確からしさを示す第二の尤度を求める第二の識別手段と、
    前記第一の尤度と前記第二の尤度とを用いて、前記対象画像が規定の物体の画像であるか否かを識別する手段と
    を備え、
    前記第二の識別手段は、前記第一の尤度と前記コンテクスト情報とを用いて学習した識別器を有することを特徴とする情報処理装置。
  2. 前記第二の識別手段が有する識別器は、前記第一の尤度と前記コンテクスト情報とを用いて生成した識別器の候補群から選択された識別器であることを特徴とする請求項1に記載の情報処理装置。
  3. 前記第二の識別手段が有する識別器は、前記特徴量と前記コンテクスト情報とを連結したサンプルに対して前記第一の尤度に基づいて設定した重み、を更に用いて生成した識別器の候補群から選択された識別器であることを特徴とする請求項2に記載の情報処理装置。
  4. 前記コンテクスト情報は、前記対象画像を切り出した前記元画像における該対象画像の位置座標と大きさであることを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 入力された対象画像から特徴量を取得する手段と、
    前記対象画像を含む元画像を撮影したシーン特有のコンテクストを示すコンテクスト情報を取得する手段と、
    前記特徴量から、前記対象画像が規定の物体の画像である確からしさを示す第一の尤度を求める第一の識別手段と、
    前記コンテクスト情報から、前記対象画像が規定の物体の画像である確からしさを示す第二の尤度を求める第二の識別手段を、前記第一の尤度と、前記コンテクスト情報と、を用いて学習する学習手段と
    を備えることを特徴とする情報処理装置。
  6. 前記学習手段は、
    前記第一の尤度と前記コンテクスト情報とを用いて、識別器の候補群を生成する手段と、
    前記識別器の候補群から1つ以上の候補を、該識別器の候補群のそれぞれについて求めた評価スコアに基づいて選択し、該選択した候補によって前記第二の識別手段を構成する手段と
    を備えることを特徴とする請求項5に記載の情報処理装置。
  7. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の特徴量を取得する手段が、入力された対象画像から特徴量を取得する工程と、
    前記情報処理装置のコンテクスト情報を取得する手段が、前記対象画像を含む元画像を撮影したシーン特有のコンテクストを示すコンテクスト情報を取得する工程と、
    前記情報処理装置の第一の識別手段が、前記特徴量から、前記対象画像が規定の物体の画像である確からしさを示す第一の尤度を求める第一の識別工程と、
    前記情報処理装置の第二の識別手段が、前記コンテクスト情報から、前記対象画像が規定の物体の画像である確からしさを示す第二の尤度を求める第二の識別工程と、
    前記情報処理装置の識別手段が、前記第一の尤度と前記第二の尤度とを用いて、前記対象画像が規定の物体の画像であるか否かを識別する工程と
    を備え、
    前記第二の識別手段は、前記第一の尤度と前記コンテクスト情報とを用いて学習した識別器を有することを特徴とする情報処理方法。
  8. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の特徴量を取得する手段が、入力された対象画像から特徴量を取得する工程と、
    前記情報処理装置のコンテクスト情報を取得する手段が、前記対象画像を含む元画像を撮影したシーン特有のコンテクストを示すコンテクスト情報を取得する工程と、
    前記情報処理装置の第一の識別手段が、前記特徴量から、前記対象画像が規定の物体の画像である確からしさを示す第一の尤度を求める第一の識別工程と、
    前記情報処理装置の学習手段が、前記コンテクスト情報から、前記対象画像が規定の物体の画像である確からしさを示す第二の尤度を求める第二の識別手段を、前記第一の尤度と、前記コンテクスト情報と、を用いて学習する学習工程と
    を備えることを特徴とする情報処理方法。
  9. コンピュータを、請求項1乃至6の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
JP2014066802A 2014-03-27 2014-03-27 情報処理装置、情報処理方法 Active JP6320112B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2014066802A JP6320112B2 (ja) 2014-03-27 2014-03-27 情報処理装置、情報処理方法
KR1020167029372A KR101964397B1 (ko) 2014-03-27 2015-03-24 정보처리장치 및 정보처리방법
US15/121,899 US10255517B2 (en) 2014-03-27 2015-03-24 Information processing apparatus and information processing method
PCT/JP2015/059828 WO2015147317A1 (en) 2014-03-27 2015-03-24 Information processing apparatus and information processing method
EP15769968.7A EP3092619B1 (en) 2014-03-27 2015-03-24 Information processing apparatus and information processing method
CN201580016428.8A CN106164980B (zh) 2014-03-27 2015-03-24 信息处理装置以及信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014066802A JP6320112B2 (ja) 2014-03-27 2014-03-27 情報処理装置、情報処理方法

Publications (3)

Publication Number Publication Date
JP2015191334A JP2015191334A (ja) 2015-11-02
JP2015191334A5 JP2015191334A5 (ja) 2017-05-18
JP6320112B2 true JP6320112B2 (ja) 2018-05-09

Family

ID=54195819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014066802A Active JP6320112B2 (ja) 2014-03-27 2014-03-27 情報処理装置、情報処理方法

Country Status (6)

Country Link
US (1) US10255517B2 (ja)
EP (1) EP3092619B1 (ja)
JP (1) JP6320112B2 (ja)
KR (1) KR101964397B1 (ja)
CN (1) CN106164980B (ja)
WO (1) WO2015147317A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109310292B (zh) * 2016-06-24 2021-03-05 奥林巴斯株式会社 图像处理装置、学习装置、图像处理方法、识别基准的生成方法、学习方法和记录有程序的计算机可读取的记录介质
JP6828333B2 (ja) * 2016-09-13 2021-02-10 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP6418211B2 (ja) * 2016-09-15 2018-11-07 オムロン株式会社 識別情報付与システム、識別情報付与装置、識別情報付与方法及びプログラム
JP6912890B2 (ja) * 2017-01-13 2021-08-04 キヤノン株式会社 情報処理装置、情報処理方法、システム
JP7058941B2 (ja) * 2017-01-16 2022-04-25 キヤノン株式会社 辞書生成装置、辞書生成方法、及びプログラム
EP3580695A4 (en) * 2017-02-09 2020-11-18 Laing O'Rourke Australia Pty Ltd DEFINED OBJECT IDENTIFICATION SYSTEM
JP6438549B1 (ja) * 2017-08-24 2018-12-12 日本分光株式会社 機械学習を用いた未知化合物の分類方法
JP6930389B2 (ja) * 2017-11-16 2021-09-01 日本電信電話株式会社 画像収集装置、プログラム、及び方法
CN110163033B (zh) * 2018-02-13 2022-04-22 京东方科技集团股份有限公司 正样本获取方法、行人检测模型生成方法和行人检测方法
CN110197190B (zh) * 2018-02-27 2022-11-01 北京猎户星空科技有限公司 模型训练和物体的定位方法及装置
US11163862B2 (en) * 2018-05-16 2021-11-02 International Business Machines Corporation Authentication of users based on snapshots thereof taken in corresponding acquisition conditions
JP7056401B2 (ja) * 2018-06-18 2022-04-19 日本製鉄株式会社 連続鋳造用モールド内のボイル検出方法、連続鋳造鋳片の品質判定方法、連続鋳造設備の監視方法、連続鋳造用モールド内のボイル検出装置
US10706499B2 (en) * 2018-06-21 2020-07-07 Canon Kabushiki Kaisha Image processing using an artificial neural network
JP6976910B2 (ja) * 2018-07-04 2021-12-08 株式会社日立製作所 データ分類システム、データ分類方法、および、データ分類装置
JP7222519B2 (ja) * 2018-09-10 2023-02-15 公立大学法人岩手県立大学 オブジェクト識別システム、モデル学習システム、オブジェクト識別方法、モデル学習方法、プログラム
JP6695947B2 (ja) 2018-09-21 2020-05-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像システム、画像処理方法及びプログラム
US11080867B2 (en) * 2019-01-03 2021-08-03 United States Of America As Represented By The Secretary Of The Army Motion-constrained, multiple-hypothesis, target- tracking technique
WO2020149242A1 (ja) * 2019-01-17 2020-07-23 Arithmer株式会社 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
JP6756961B1 (ja) * 2019-03-29 2020-09-16 Arithmer株式会社 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
JP6508797B1 (ja) * 2019-01-17 2019-05-08 Arithmer株式会社 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
JP7234718B2 (ja) * 2019-03-18 2023-03-08 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
JP7144384B2 (ja) * 2019-09-25 2022-09-29 Kddi株式会社 オブジェクト検出装置、方法及びプログラム
WO2021060684A1 (ko) * 2019-09-29 2021-04-01 주식회사 작당모의 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치
JP7028299B2 (ja) * 2020-10-07 2022-03-02 三菱電機株式会社 目標識別装置
US11687620B2 (en) 2020-12-17 2023-06-27 International Business Machines Corporation Artificial intelligence generated synthetic image data for use with machine language models
JP2024102390A (ja) * 2021-06-03 2024-07-31 コニカミノルタ株式会社 検査装置、検査方法、および検査プログラム
WO2023082788A1 (zh) * 2021-11-11 2023-05-19 新智我来网络科技有限公司 烟气含氧量负荷预测方法、预测模型选择方法、烟气排放预测方法及装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4640155B2 (ja) * 2005-12-15 2011-03-02 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN101315670B (zh) 2007-06-01 2010-08-11 清华大学 特定被摄体检测装置及其学习装置和学习方法
JP5096211B2 (ja) * 2008-03-31 2012-12-12 富士フイルム株式会社 確率分布構築方法、確率分布構築装置、および確率分布構築プログラム、並びに被写体検出方法、被写体検出装置、および被写体検出プログラム
US8107726B2 (en) * 2008-06-18 2012-01-31 Samsung Electronics Co., Ltd. System and method for class-specific object segmentation of image data
JP5261312B2 (ja) * 2009-07-30 2013-08-14 富士フイルム株式会社 画像解析装置、画像解析方法およびプログラム
JP5209593B2 (ja) * 2009-12-09 2013-06-12 日本電信電話株式会社 映像編集装置,映像編集方法および映像編集プログラム
US8565482B2 (en) 2011-02-28 2013-10-22 Seiko Epson Corporation Local difference pattern based local background modeling for object detection
JP5769488B2 (ja) * 2011-04-27 2015-08-26 キヤノン株式会社 認識装置、認識方法及びプログラム
EP2518661A3 (en) * 2011-04-29 2015-02-11 Tata Consultancy Services Limited System and method for human detection and counting using background modeling, hog and haar features
JP5830784B2 (ja) * 2011-06-23 2015-12-09 サイバーアイ・エンタテインメント株式会社 画像認識システムを組込んだ関連性検索によるインタレスト・グラフ収集システム
US9367733B2 (en) * 2012-11-21 2016-06-14 Pelco, Inc. Method and apparatus for detecting people by a surveillance system
JP6482195B2 (ja) 2014-07-02 2019-03-13 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP6525635B2 (ja) 2015-02-25 2019-06-05 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
EP3092619A1 (en) 2016-11-16
WO2015147317A1 (en) 2015-10-01
CN106164980B (zh) 2020-06-30
EP3092619B1 (en) 2023-05-10
JP2015191334A (ja) 2015-11-02
EP3092619A4 (en) 2017-09-20
US20170017859A1 (en) 2017-01-19
KR20160136391A (ko) 2016-11-29
KR101964397B1 (ko) 2019-04-01
CN106164980A (zh) 2016-11-23
US10255517B2 (en) 2019-04-09

Similar Documents

Publication Publication Date Title
JP6320112B2 (ja) 情報処理装置、情報処理方法
JP7482181B2 (ja) 画像処理装置、画像処理方法
JP6673508B2 (ja) 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
JP6482195B2 (ja) 画像認識装置、画像認識方法及びプログラム
Camplani et al. Background foreground segmentation with RGB-D Kinect data: An efficient combination of classifiers
Benedek et al. Change detection in optical aerial images by a multilayer conditional mixed Markov model
US8737740B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
US9462160B2 (en) Color correction device, method, and program
US20240282095A1 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
EP2518661A2 (en) System and method for human detection and counting using background modeling, hog and haar features
JP6532317B2 (ja) 物体追尾装置、物体追尾方法及びプログラム
JP2008192131A (ja) 特徴レベル・セグメンテーションを実行するシステムおよび方法
JP2016099734A (ja) 画像処理装置、情報処理方法及びプログラム
Noriega et al. Real Time Illumination Invariant Background Subtraction Using Local Kernel Histograms.
CN104036284A (zh) 基于Adaboost算法的多尺度行人检测方法
JP7300027B2 (ja) 画像処理装置、画像処理方法、学習装置、学習方法、及びプログラム
CN110717424A (zh) 一种基于预处理机制的实时极小人脸检测方法
CN110046601B (zh) 针对十字路口场景的行人检测方法
JP6851246B2 (ja) 物体検出装置
JP6893812B2 (ja) 物体検出装置
Zaidan et al. A novel hybrid module of skin detector using grouping histogram technique for Bayesian method and segment adjacent-nested technique for neural network
JP5241687B2 (ja) 物体検出装置及び物体検出プログラム
JP2014203133A (ja) 画像処理装置、画像処理方法
JP7331172B2 (ja) 画像認識装置および学習装置
Tatarenkov et al. Feature extraction from a depth map for human detection

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180403

R151 Written notification of patent or utility model registration

Ref document number: 6320112

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151