JP7180590B2 - オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及びオブジェクト特徴量抽出プログラム - Google Patents
オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及びオブジェクト特徴量抽出プログラム Download PDFInfo
- Publication number
- JP7180590B2 JP7180590B2 JP2019507570A JP2019507570A JP7180590B2 JP 7180590 B2 JP7180590 B2 JP 7180590B2 JP 2019507570 A JP2019507570 A JP 2019507570A JP 2019507570 A JP2019507570 A JP 2019507570A JP 7180590 B2 JP7180590 B2 JP 7180590B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- feature amount
- information
- resolution
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims description 229
- 238000001514 detection method Methods 0.000 claims description 48
- 238000000034 method Methods 0.000 claims description 38
- 238000012545 processing Methods 0.000 claims description 23
- 239000000284 extract Substances 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 25
- 238000003384 imaging method Methods 0.000 description 17
- 238000000926 separation method Methods 0.000 description 17
- 230000000007 visual effect Effects 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7796—Active pattern-learning, e.g. online learning of image or video features based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Description
本発明の第1実施形態としてのオブジェクト特徴量抽出装置について、図1を用いて説明する。オブジェクト特徴量抽出装置100は、オブジェクト追跡のため画像からオブジェクト特徴量を抽出する装置である。
図1に示すように、オブジェクト特徴量抽出装置100は、オブジェクト検出部101と、特徴量抽出部102と、を含む。オブジェクト検出部101は、画像110からオブジェクトを検出し、オブジェクトの存在する領域を表す領域情報111と、オブジェクトの解像度に係る解像度情報112とを生成する。特徴量抽出部102は、領域情報111で定められる領域内の画像110から、解像度情報112を考慮してオブジェクトの特徴を表すオブジェクト特徴量121を抽出する。
オブジェクト検出部101では、入力される画像110に対してオブジェクト検出を行い、結果をオブジェクト検出結果として出力する。オブジェクトが人物の場合、人物の画像特徴を学習した検出器を用いて、人物領域を検出する。例えば、HOG(Histograms of Oriented Gradients)特徴に基づいて検出する検出器や、CNN(Convolutional Neural Network)を用いて画像から直接検出する検出器を用いてもよい。あるいは、人全体ではなく、人の一部の領域(例えば頭部など)を学習させた検出器を用いて人物を検出するようにしてもよい。オブジェクトが車の場合も、同様に車両の画像特徴を学習させた検出器を用いて検出することが可能である。オブジェクトがそれ以外の特定物体の場合も、その特定物体の画像特徴を学習させた検出器を構築し、用いるようにすればよい。
特徴量抽出部102では、オブジェクト検出部101から出力されるオブジェクトごとの領域情報111と解像度情報112とに基づいて、入力される画像110からパターンや模様などを記述するオブジェクト特徴量121を抽出する。オブジェクトが人物の場合には、人物の服のパターンや模様の特徴を抽出する。この際、領域の解像度によって、パターンや模様の特徴量が変化しうることを考慮し、解像度情報112も一緒に取り込んでオブジェクト特徴量121を生成し、出力する。解像度情報112を取り込む際、そのままパターンや模様の特徴量に付加して全体としてオブジェクト特徴量121として出力する場合と、解像度情報112を用いて、パターンや模様の特徴量に何らかの変換を加えてオブジェクト特徴量121を求める場合が考えられる。以降の説明において、後者の場合、変換を行う前の特徴量を一次特徴量と呼ぶことにする。
次に、本発明の第2実施形態に係るオブジェクト特徴量抽出装置とオブジェクト特徴量抽出装置を含むオブジェクト追跡システムとについて説明する。本実施形態に係るオブジェクト特徴量抽出装置は、カメラからの距離や解像度に応じた模様の特徴の変化を特徴量抽出時から考慮して、オブジェクト特徴量を算出する。また、本実施形態に係るオブジェクト特徴量抽出装置を含むオブジェクト追跡システムは、解像度がオブジェクト特徴量に反映されるため、特徴量の識別精度を最大限に生かして追跡漏れや検索漏れを少なく抑えることができる。例えば、細かい模様の特徴は、解像度が低下するとつぶれて模様がない場合と同様になるが、このような場合でも、もともと細かい模様がつぶれてしまったケースと模様がもともとないケースとにおいて、解像度が特徴量に反映されるため、追跡漏れや検索漏れを少なく抑えることができる。
図2および図3を参照して、オブジェクト追跡システムの構成および動作を説明する。
図2は、本実施形態に係るオブジェクト特徴量抽出装置(部)220を含むオブジェクト追跡システム200の構成を示すブロック図である。
図3は、本実施形態に係るオブジェクト特徴量抽出装置(部)220を含むオブジェクト追跡システム200の動作手順を示すフローチャートである。
図4は、本実施形態に係るオブジェクト特徴量抽出装置(部)220の機能構成を示すブロック図である。なお、オブジェクト特徴量抽出装置と表現する場合は独立した装置を示し、オブジェクト特徴量抽出部と表現する場合は他の機能と組み合わされる1機能を示すものとする。
特徴量生成部422は、一次特徴量抽出部421から出力される一次特徴量と、オブジェクト検出部401から出力される解像度情報とから、パターンや模様などの特徴量を生成して、オブジェクト特徴量として出力する。
一次特徴量抽出部421では、模様やパターンの基本となる特徴量を抽出する。例えば、模様の局所的な特徴を反映した局所特徴量を抽出する。抽出の方法としては、いろいろやり方があるが、キーポイントとなる点をまず抽出し、その周辺の特徴量を抽出する。あるいは、領域に規則的に配列されたグリッドを当てはめ、グリッド点のところで特徴量を抽出する。この際、グリッドの間隔をオブジェクト領域の大きさによって正規化するようにしてもよい。ここで抽出する特徴量としては、SIFT(Scale-Invariant Feature Transform)やSURF(Speed-Up Robust Features )、ORB(Oriented FAST and Rotated BRIEF)など、様々なものを用いることが可能である。また、Haar-like特徴やガボールウェーブレット、HOG(Histograms of Oriented Gradients)等の特徴量でもよい。
特徴量生成部422では、例えばオブジェクトが人物の場合、一次特徴量抽出部421から出力される服などの特徴量と、オブジェクト検出部401から出力される解像度情報とに基づいて、服など照合に用いる特徴量を生成して、オブジェクト特徴量として出力する。
例えば、一次特徴量をクラスタリングして得られる視覚キーワードを事前の学習で生成しておき、どの視覚キーワードに相当するかを判定して、ヒストグラムを作って特徴量とする。この際、ヒストグラムとともに、解像度情報も分離可能な形で付加してオブジェクト特徴量とする。一次特徴量が小領域単位で求まっている場合には、小領域ごとに視覚キーワードのヒストグラムを生成して小領域を繋げた上で、全体に対して解像度情報を分離可能な形で付加するようにしてもよい。
あるいは、視覚キーワードのヒストグラムを作る際に、解像度情報を用いて、得られた一次特徴量から各視覚キーワードが生起している確率を求め、その値によって重みづけすることによって、ヒストグラムを算出するようにしてもよい。ここで、視覚キーワードの個数をN、個々の視覚キーワードをxn(n=1,…,N)で表すことにする。また、得られた一次特徴量の個数をJ、個々の得られた一次特徴量をyj(j=1,…,J)で表すことにする。また、解像度情報により、解像度のレベルをK段階に分け、解像度インデックス(k=1,…,K)により区別することとする。解像度インデックスがkのときに、yjが得られたときの各視覚キーワードxnの生起確率をpk(xn|yj)で表すことにすると、一次特徴量yjが取得されたときに、生起確率pk(xn|yj)の値を各視覚キーワードxnに対応するビンに加算していき、ヒストグラムを生成するようにすればよい。
図5は、本実施形態に係るオブジェクト照合部240の機能構成を示すブロック図である。なお、オブジェクト照合部240は、模様などのオブジェクト特徴量に解像度情報が分離可能な状態で統合されている場合の、オブジェクト照合部の構成例である。
図5を参照するとオブジェクト照合部240は、解像度情報分離部501と、解像度情報分離部502と、信頼度算出部503と、特徴照合部504と、を備える。解像度情報分離部501は、第1特徴量230aから第1解像度情報を分離し、第1解像度情報と第1特徴量のデータとを出力する。解像度情報分離部502は、第2特徴量220bから第2解像度情報を分離し、第2解像度情報と第2特徴量のデータとを出力する。信頼度算出部503は、解像度情報分離部501から出力される第1解像度情報と、解像度情報分離部502から出力される第2解像度情報とから信頼度を算出し、信頼性を表わす指標である信頼度情報を出力する。特徴照合部504は、信頼度算出部503から算出される信頼度に基づいて、解像度情報分離部501から出力される第1特徴量のデータと、解像度情報分離部502から出力される第2特徴量のデータとを照合し、照合結果を出力する。
特徴量記憶部230から読み出された第1特徴量230aは、解像度情報分離部501へ入力される。解像度情報分離部501では、入力された第1特徴量230aから、解像度に相当する情報を抽出して第1解像度情報として出力するとともに、解像度以外の模様の特徴を表すデータを第1特徴量のデータとして出力する。オブジェクト特徴量抽出装置(部)220Bからの第2特徴量220bは解像度情報分離部502へ入力される。解像度情報分離部502でも、解像度情報分離部501と同様にして、解像度情報を分離し、第2解像度情報と第2特徴量のデータとを出力する。
信頼度算出部503では、解像度の情報から、特徴量同士の照合結果を信頼できる度合を表す信頼度を算出して出力する。
単純に特徴量間の類似度や距離を算出し、一定閾値以上の類似度を有し、類似性が高い場合に同一オブジェクトと判定するようにして、照合結果を出力する。あるいは、ニューラルネット等で生成した判定器を用い、それに第1特徴量のデータと第2特徴量のデータとを入力して同一かどうか判定するようにしてもよい。この際、信頼度算出部503で算出された信頼度に応じて照合の基準を調整し、同一判定を行ってもよい。また、照合結果は、単純に同一かどうかという2値の判定ではなく、同一性の高さを表す数値を照合結果として出力してもよい。また、信頼度算出部503から出力される信頼度を照合結果に付加してもよい。
図6は、本実施形態に係るオブジェクト特徴量抽出装置(部)220のハードウェア構成を示すブロック図である。
図7は、本実施形態に係るオブジェクト特徴量抽出装置(部)220における特徴量抽出テーブル644の構成を示す図である。特徴量抽出テーブル644は、撮像画像データと領域情報/解像度情報とに基づいてオブジェクト特徴量を抽出するために使用されるテーブルである。
図8は、本発明の第2実施形態に係るオブジェクト特徴量抽出装置(部)220の処理手順を示すフローチャートである。このフローチャートは、図6のCPU610がRAM640を使用して実行し、図4の機能構成部を実現する。以下、特徴量抽出装置220と略して説明する。
図9は、本実施形態に係るオブジェクト照合部240の照合テーブル900の構成を示す図である。照合テーブル900は、オブジェクト照合部240において、少なくとも2つのオブジェクトの特徴量を、解像度情報を考慮して照合するために使用される。
図10は、本実施形態に係るオブジェクト照合部240の処理手順を示すフローチャートである。このフローチャートは、オブジェクト照合部240を制御する不図示のCPUがRAMを使用して実行し、図4の機能構成部を実現する。
次に、本発明の第3実施形態に係るオブジェクト特徴量抽出装置とオブジェクト特徴量抽出装置を含むオブジェクト追跡システムとについて説明する。本実施形態に係るオブジェクト特徴量抽出装置とオブジェクト特徴量抽出装置を含むオブジェクト追跡システムとは、上記第2実施形態と比べると、オブジェクト特徴量抽出装置の特徴量抽出部と、オブジェクト追跡システムのためのオブジェクト照合部とが、1つの機能構成部で実現されている点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
図11は、本実施形態に係るオブジェクト特徴量抽出装置(部)1220の機能構成を示すブロック図である。なお、図11において、図4と同様の機能構成部には同じ参照番号を付して、重複する説明は省略する。
オブジェクト特徴量抽出装置(部)1120は、オブジェクト検出部401と、1つの特徴識別部1121を有する特徴量抽出部1102とを備える。特徴識別部1121は、オブジェクト検出部401で生成された領域情報および解像度情報と、画像データとを入力し、特徴量を生成してオブジェクト特徴量として出力する。
領域情報および解像度情報と画像データとは、特徴識別部1121へ入力される。特徴識別部1121は、例えば、様々な模様の特徴を様々な解像度で撮影して分類するように学習された識別器であり、模様を特徴とする場合、入力は服領域内の小領域の画素値と解像度情報とで、出力は各模様の特徴の尤度(“0”から“1”の値で、“1”に近いほどその模様の特徴である可能性が高い)である。N個の模様の特徴を分類する場合には、N個の模様の特徴の尤度が出力となり、これをパターンや模様を示す特徴量とする。
図12は、本実施形態に係るオブジェクト照合部1240の機能構成を示すブロック図である。なお、図12において、図5と同様の要素には同じ参照番号を付して、重複する説明を省略する。
次に、本発明の第4実施形態に係るオブジェクト追跡システムのオブジェクト照合部について説明する。本実施形態に係るオブジェクト照合部は、上記第2実施形態と比べると、信頼度算出部が無く、分離された第1解像度情報と第2解像度情報とが直接、特徴照合部に入力される点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
図13は、本実施形態に係るオブジェクト照合部1340の機能構成を示すブロック図である。なお、図13において、図5と同様の機能構成部には同じ参照番号を付して、説明を省略する。
図13を参照すると、オブジェクト照合部1340は、解像度情報分離部501と、解像度情報分離部502と、特徴照合部1304と、を備える。特徴照合部1304は、解像度情報分離部501から出力される第1解像度情報と解像度情報分離部502から出力される第2解像度情報とを用い、解像度情報分離部501から出力される第1特徴量のデータと、解像度情報分離部502から出力される第2特徴量のデータとを照合し、照合結果を出力する。
特徴照合部1304においては、第1特徴量のデータと第2特徴量のデータとを比較し、オブジェクトが同一かどうかを判定する。その場合に、第1解像度情報と第2解像度情報も特徴照合部1304に入力され、照合に用いられる。例えば、解像度ごとに照合の確からしさを学習した識別器を用いて、第1特徴量のデータと第2特徴量のデータが同一である度合を判定し、照合結果として出力する。この場合も、同一か否かの2値でなく、同一性の高さを表す数値を照合結果として出力してよい。
次に、本発明の第5実施形態に係るオブジェクト特徴量抽出装置について説明する。本実施形態に係るオブジェクト特徴量抽出装置は、上記第2実施形態および第3実施形態と比べると、オブジェクト追跡により特徴の変化を学習して、学習結果を反映させたオブジェクト特徴量の抽出をする点で異なる。その他の構成および動作は、第2実施形態または第3実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
図14は、本実施形態に係るオブジェクト特徴量抽出装置(部)1420の機能構成を示すブロック図である。なお、図14において、図4と同様の機能構成部には同じ参照番号を付して、重複する説明を省略する。
図14を参照すると、オブジェクト特徴量抽出装置(部)1420は、オブジェクト検出部401と、特徴量抽出部1402と、オブジェクト追跡部1403、特徴学習部1404と、を備える。なお、オブジェクト検出部401は、図4のものと同様である。
オブジェクト検出部401の動作は、図4の場合と同様であり解像度情報と領域情報とを検出されたオブジェクトごとに出力する。出力された解像度情報は、特徴量抽出部1402の一次特徴量抽出部421へ入力される。一方、出力された解像度情報は、特徴量抽出部1402の特徴量生成部1422に加え、オブジェクト追跡部1403および特徴学習部1404へも入力される。
図15は、本実施形態に係るオブジェクト特徴量抽出装置(部)1420における特徴量抽出テーブル1500の構成を示す図である。特徴量抽出テーブル1500は、撮像画像データと領域情報/解像度情報とに基づいて、オブジェクト追跡による学習結果を用いてオブジェクト特徴量を抽出するために使用されるテーブルである。
図16は、本実施形態に係るオブジェクト特徴量抽出装置(部)1420の処理手順を示すフローチャートである。このフローチャートは、CPU610がRAM640を使用して実行して図14の機能構成部を実現する。なお、図16において、図8と同様のステップには同じステップ番号を付して、重複する説明を省略する。また、特徴量抽出装置1420と略して説明する。
次に、本発明の第6実施形態に係るオブジェクト追跡システムのオブジェクト特徴量抽出部について説明する。本実施形態に係るオブジェクト特徴量抽出部は、上記第2実施形態乃至第5実施形態と比べると、オブジェクト追跡処理を行なうサーバとしてのオブジェクト追跡装置においてオブジェクト特徴量の抽出を行なう点で異なる。その他の構成および動作は、第2実施形態から第5実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
図17は、本実施形態に係るオブジェクト特徴量抽出装置(部)の機能構成を示すブロック図である。なお、図17において、図4または図14と同様の機能構成部には同じ参照番号を付して、重複する説明を省略する。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。例えば、「オブジェクト特徴量抽出装置(部)」と「オブジェクト照合部」との組合せは、上記実施形態に限定されずに、異なる実施形態の構成が組み合わされてもよい。
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
画像からオブジェクトを検出し、前記オブジェクトの存在する領域を表す領域情報と、前記オブジェクトの解像度に係る解像度情報とを生成するオブジェクト検出手段と、
前記領域情報で定められる領域内の前記画像から、前記解像度情報を考慮して前記オブジェクトの特徴を表す特徴量を抽出する特徴量抽出手段と、
を備えるオブジェクト特徴量抽出装置。
前記特徴量抽出手段は、前記領域情報で定められる領域内の前記画像から一次特徴量を抽出し、前記一次特徴量に前記解像度情報を分離可能に付加して前記オブジェクトの特徴を表す特徴量を生成する
付記1に記載のオブジェクト特徴量抽出装置。
前記特徴量抽出手段は、前記領域情報で定められる領域内の前記画像から抽出した特徴量を、前記解像度情報により変換して前記オブジェクトの特徴を表す特徴量を生成する
付記1に記載のオブジェクト特徴量抽出装置。
前記特徴量抽出手段は、前記領域情報で定められる領域内の前記画像から抽出した特徴量に対して、前記解像度情報に基づいて尤度を求め、前記求めた尤度に基づいて前記オブジェクトの特徴を表す特徴量を生成する
付記3に記載のオブジェクト特徴量抽出装置。
前記特徴量抽出手段は、前記領域情報で定められる領域内の前記画像に含まれる複数の小領域に対して、前記解像度情報が示す解像度ごとに学習した識別器が出力する尤度を特徴量とする
付記1乃至4のいずれか1項に記載のオブジェクト特徴量抽出装置。
前記領域情報で定められる領域内の画像の特徴量を時系列で比較することにより、異なる時刻の画像間における同一オブジェクトを判定し、前記同一オブジェクトを識別する追跡識別子を生成して出力するオブジェクト追跡手段と、
前記特徴量抽出手段で算出される前記一次特徴量を、前記領域情報と前記解像度情報と前記追跡識別子とに基づいてグループ化するとともに、グループ内で解像度が高い領域から求まった一次特徴量に基づいて元の特徴量を推定し、前記推定した元の特徴量が解像度によってどのように値が変化するかを学習し、学習した結果を前記特徴量抽出手段にフィードバックする特徴学習手段と、
をさらに備える付記2に記載のオブジェクト特徴量抽出装置。
それぞれ、付記1乃至6のいずれか1項に記載のオブジェクト特徴量抽出装置である、第1オブジェクト特徴量抽出装置と、第2オブジェクト特徴量抽出装置と、を含み、
前記第1オブジェクト特徴量抽出装置により第1画像から検出されたオブジェクトの領域における、第1解像度情報を含む第1特徴量を記憶する特徴量記憶手段と、
付記 前記第2オブジェクト特徴量抽出装置により前記第1画像と異なる第2画像から検出されたオブジェクトの領域における、第2解像度情報を含む第2特徴量と、前記特徴量記憶手段から読み出された前記第1解像度情報を含む第1特徴量とを照合し、前記第1解像度情報と前記第2解像度情報とを考慮して同一のオブジェクトか否かを判定するオブジェクト照合手段と、
を備えるオブジェクト追跡システム。
少なくとも撮像部とオブジェクト特徴量抽出部とを有するインテリジェント撮像装置であって、
前記オブジェクト特徴量抽出部は、
前記撮像部が撮像した画像からオブジェクトを検出し、前記オブジェクトの存在する領域を表す領域情報と、前記オブジェクトの解像度に係る解像度情報とを生成するオブジェクト検出手段と、
前記領域情報で定められる領域内の前記画像から、前記解像度情報を考慮して前記オブジェクトの特徴を表す特徴量を抽出する特徴量抽出手段と、
を備えるインテリジェント撮像装置。
画像からオブジェクトを検出し、前記オブジェクトの存在する領域を表す領域情報と、前記オブジェクトの解像度に係る解像度情報とを生成し、
前記領域情報で定められる領域内の前記画像から、前記解像度情報を考慮して前記オブジェクトの特徴を表す特徴量を抽出する、特徴量抽出を行う
オブジェクト特徴量抽出方法。
前記領域情報で定められる領域内の前記画像から一次特徴量を抽出し、前記一次特徴量に前記解像度情報を分離可能に付加して前記オブジェクトの特徴を表す特徴量を生成する
付記9に記載のオブジェクト特徴量抽出方法。
前記領域情報で定められる領域内の前記画像から抽出した特徴量を、前記解像度情報により変換して前記オブジェクトの特徴を表す特徴量を生成する
付記9に記載のオブジェクト特徴量抽出方法。
前記領域情報で定められる領域内の前記画像から抽出した特徴量に対して、前記解像度情報に基づいて尤度を求め、前記求めた尤度に基づいて前記オブジェクトの特徴を表す特徴量を生成する
付記11に記載のオブジェクト特徴量抽出方法。
前記領域情報で定められる領域内の前記画像に含まれる複数の小領域に対して、前記解像度情報が示す解像度ごとに学習した識別器が出力する尤度を特徴量とする
付記9乃至12のいずれか1項に記載のオブジェクト特徴量抽出方法。
前記領域情報で定められる領域内の画像の特徴量を時系列で比較することにより、異なる時刻の画像間における同一オブジェクトを判定し、前記同一オブジェクトを識別する追跡識別子を生成して出力し、
前記特徴量抽出によって算出される前記一次特徴量を、前記領域情報と前記解像度情報と前記追跡識別子とに基づいてグループ化するとともに、グループ内で解像度が高い領域から求まった一次特徴量に基づいて元の特徴量を推定し、前記推定した元の特徴量が解像度によってどのように値が変化するかを学習し、学習した結果を前記特徴量抽出にフィードバックする、
付記10に記載のオブジェクト特徴量抽出方法。
付記9乃至14のいずれか1項に記載のオブジェクト特徴量抽出方法により抽出された第1特徴量と第2特徴量とを照合するオブジェクト追跡方法であって、
前記第1特徴量は、第1画像から検出されたオブジェクトの領域における、第1解像度情報を含む特徴量であり、特徴量記憶手段に記憶され、
付記 前記第2特徴量は、前記第1画像と異なる第2画像から検出されたオブジェクトの領域における、第2解像度情報を含む特徴量であり、
前記第2特徴量と、前記特徴量記憶手段から読み出された前記第1解像度情報を含む第1特徴量とを照合し、前記第1解像度情報と前記第2解像度情報とを考慮して同一のオブジェクトか否かを判定する、
オブジェクト追跡方法。
撮像部が撮像した画像からオブジェクトを検出し、前記オブジェクトの存在する領域を表す領域情報と、前記オブジェクトの解像度に係る解像度情報とを生成し、
前記領域情報で定められる領域内の前記画像から、前記解像度情報を考慮して前記オブジェクトの特徴を表す特徴量を抽出する、
インテリジェント撮像方法。
画像からオブジェクトを検出し、前記オブジェクトの存在する領域を表す領域情報と、前記オブジェクトの解像度に係る解像度情報とを生成するオブジェクト検出処理と、
前記領域情報で定められる領域内の前記画像から、前記解像度情報を考慮して前記オブジェクトの特徴を表す特徴量を抽出する特徴量抽出処理と、
をコンピュータに実行させるオブジェクト特徴量抽出プログラムを記憶する記憶媒体。
前記特徴量抽出処理は、前記領域情報で定められる領域内の前記画像から一次特徴量を抽出し、前記一次特徴量に前記解像度情報を分離可能に付加して前記オブジェクトの特徴を表す特徴量を生成する
付記17に記載の記憶媒体。
前記特徴量抽出処理は、前記領域情報で定められる領域内の前記画像から抽出した特徴量を、前記解像度情報により変換して前記オブジェクトの特徴を表す特徴量を生成する
付記17に記載の記憶媒体。
前記特徴量抽出処理は、前記領域情報で定められる領域内の前記画像から抽出した特徴量に対して、前記解像度情報に基づいて尤度を求め、前記求めた尤度に基づいて前記オブジェクトの特徴を表す特徴量を生成する
付記19に記載の記憶媒体。
前記特徴量抽出処理は、前記領域情報で定められる領域内の前記画像に含まれる複数の小領域に対して、前記解像度情報が示す解像度ごとに学習した識別器が出力する尤度を特徴量とする
付記17乃至20のいずれか1項に記載の記憶媒体。
前記領域情報で定められる領域内の画像の特徴量を時系列で比較することにより、異なる時刻の画像間における同一オブジェクトを判定し、前記同一オブジェクトを識別する追跡識別子を生成して出力するオブジェクト追跡処理と、
前記特徴量抽出処理で算出される前記一次特徴量を、前記領域情報と前記解像度情報と前記追跡識別子とに基づいてグループ化するとともに、グループ内で解像度が高い領域から求まった一次特徴量に基づいて元の特徴量を推定し、前記推定した元の特徴量が解像度によってどのように値が変化するかを学習し、学習した結果を前記特徴量抽出処理にフィードバックする特徴学習処理と、
をコンピュータにさらに実行させる付記18に記載の記憶媒体。
付記17乃至22のいずれか1項に記載の記憶媒体に格納されているオブジェクト特徴量抽出プログラムを実行する、第1コンピュータに接続されている特徴量記憶手段と、第2コンピュータと、に接続されている第3コンピュータに、
第2解像度情報を含む第2特徴量と、前記特徴量記憶手段から読み出された第1解像度情報を含む第1特徴量とを照合し、前記第1解像度情報と前記第2解像度情報とを考慮して同一のオブジェクトか否かを判定するオブジェクト照合処理、
を実行させ、
前記第1特徴量は、前記第1コンピュータにより第1画像から検出されたオブジェクトの領域における、前記第1解像度情報を含む特徴量であり、前記特徴量記憶手段に格納され、
前記第2特徴量は、前記第2コンピュータにより前記第1画像と異なる第2画像から検出されたオブジェクトの領域における、前記第2解像度情報を含む特徴量である、
オブジェクト追跡プログラムを記憶する記憶媒体。
少なくとも撮像部と接続されたコンピュータに、
前記撮像部が撮像した画像からオブジェクトを検出し、前記オブジェクトの存在する領域を表す領域情報と、前記オブジェクトの解像度に係る解像度情報とを生成するオブジェクト検出処理と、
前記領域情報で定められる領域内の前記画像から、前記解像度情報を考慮して前記オブジェクトの特徴を表す特徴量を抽出する特徴量抽出処理と、
を実行させるインテリジェント撮像プログラムを記憶する記憶媒体。
101 オブジェクト検出部
102 特徴量抽出部
110 画像
111 領域情報
112 解像度情報
121 オブジェクト特徴量
200 オブジェクト追跡システム
210 カメラ
210A カメラ
210B カメラ
220 特徴量抽出装置
220 オブジェクト特徴量抽出装置(部)
220A オブジェクト特徴量抽出部
220b 第2特徴量
220B オブジェクト特徴量抽出装置(部)
230 特徴量記憶部
230a 第1特徴量
240 オブジェクト照合部
250 インテリジェントカメラ
250A インテリジェントカメラ
401 オブジェクト検出部
402 特徴量抽出部
421 一次特徴量抽出部
422 特徴量生成部
501 解像度情報分離部
502 解像度情報分離部
503 信頼度算出部
504 特徴照合部
630 ネットワークインタフェース
641 撮像画像データ
642 オブジェクト検出結果
643 解像度情報
644 特徴量抽出テーブル
645 テーブル
646 オブジェクト特徴量
650 ストレージ
651 パラメータ
652 パラメータ
653 一次特徴量抽出用
654 特徴量生成用
655 オブジェクト特徴量抽出プログラム
656 オブジェクト検出モジュール
657 一次特徴量抽出モジュール
658 特徴量生成モジュール
660 入力出力インタフェース
661 カメラ制御部
702 画像データ
703 オブジェクト検出情報
704 特徴量情報
900 照合テーブル
901 第1オブジェクト情報
902 第2オブジェクト情報
903 解像度情報
903 第1解像度情報
904 解像度情報
904 第2解像度情報
905 信頼度情報
906 照合結果
1102 特徴量抽出部
1120 オブジェクト特徴量抽出装置(部)
1121 特徴識別部
1201 特徴照合部
1220 オブジェクト特徴量抽出装置(部)
1240 オブジェクト照合部
1304 特徴照合部
1340 オブジェクト照合部
1402 特徴量抽出部
1403 オブジェクト追跡部
1404 特徴学習部
1420 特徴量抽出装置
1420 オブジェクト特徴量抽出装置(部)
1422 特徴量生成部
1500 特徴量抽出テーブル
1502 オブジェクト追跡情報
1503 学習用情報
1504 特徴学習情報
1703 オブジェクト追跡部
1704 特徴学習部
Claims (10)
- 画像からオブジェクトを検出し、前記オブジェクトの存在する領域を表す領域情報と、前記オブジェクトの解像度に係る解像度情報とを生成するオブジェクト検出手段と、
前記領域情報で定められる領域内の前記画像から、前記解像度情報を考慮して前記オブジェクトの特徴を表す特徴量を抽出する特徴量抽出手段と、
を備え、
前記特徴量抽出手段は、前記領域情報で定められる領域内の前記画像から一次特徴量を抽出し、前記一次特徴量に前記解像度情報を分離可能に付加して前記オブジェクトの特徴を表す特徴量を生成し、
前記領域情報で定められる領域内の画像の特徴量を時系列で比較することにより、異なる時刻の画像間における同一オブジェクトを判定し、前記同一オブジェクトを識別する追跡識別子を生成して出力するオブジェクト追跡手段と、
前記特徴量抽出手段で算出される前記一次特徴量を、前記領域情報と前記解像度情報と前記追跡識別子とに基づいてグループ化するとともに、グループ内で解像度が高い領域から求まった一次特徴量に基づいて元の特徴量を推定し、前記推定した元の特徴量が解像度によってどのように値が変化するかを学習し、学習した結果を、前記特徴量抽出手段にフィードバックする特徴学習手段と、
をさらに備える
オブジェクト特徴量抽出装置。 - 画像からオブジェクトを検出し、前記オブジェクトの存在する領域を表す領域情報と、前記オブジェクトの解像度に係る解像度情報とを生成するオブジェクト検出手段と、
前記領域情報で定められる領域内の前記画像から、前記解像度情報を考慮して前記オブジェクトの特徴を表す特徴量を抽出する特徴量抽出手段と、
を備え、
前記特徴量抽出手段は、前記領域情報で定められる領域内の前記画像から抽出した特徴量を、前記解像度情報により変換して前記オブジェクトの特徴を表す特徴量を生成する
オブジェクト特徴量抽出装置。 - 画像からオブジェクトを検出し、前記オブジェクトの存在する領域を表す領域情報と、前記オブジェクトの解像度に係る解像度情報とを生成するオブジェクト検出手段と、
前記領域情報で定められる領域内の前記画像から、前記解像度情報を考慮して前記オブジェクトの特徴を表す特徴量を抽出する特徴量抽出手段と、
を備え、
前記特徴量抽出手段は、前記領域情報で定められる領域内の前記画像に含まれる複数の小領域に対して、前記解像度情報が示す解像度ごとに学習した識別器が出力する尤度を特徴量とする
オブジェクト特徴量抽出装置。 - 前記特徴量抽出手段は、前記領域情報で定められる領域内の前記画像から抽出した特徴量に対して、前記解像度情報に基づいて尤度を求め、前記求めた尤度に基づいて前記オブジェクトの特徴を表す特徴量を生成する
請求項2に記載のオブジェクト特徴量抽出装置。 - 画像からオブジェクトを検出し、前記オブジェクトの存在する領域を表す領域情報と、前記オブジェクトの解像度に係る解像度情報とを生成し、
前記領域情報で定められる領域内の前記画像から、前記解像度情報を考慮して前記オブジェクトの特徴を表す特徴量を抽出する、特徴量抽出を行うオブジェクト特徴量抽出方法であって、
前記特徴量抽出を行うとき、前記領域情報で定められる領域内の前記画像から一次特徴量を抽出し、前記一次特徴量に前記解像度情報を分離可能に付加して前記オブジェクトの特徴を表す特徴量を生成し、
前記領域情報で定められる領域内の画像の特徴量を時系列で比較することにより、異なる時刻の画像間における同一オブジェクトを判定し、前記同一オブジェクトを識別する追跡識別子を生成して出力し、
前記特徴量抽出を行ったときに算出される前記一次特徴量を、前記領域情報と前記解像度情報と前記追跡識別子とに基づいてグループ化するとともに、グループ内で解像度が高い領域から求まった一次特徴量に基づいて元の特徴量を推定し、前記推定した元の特徴量が解像度によってどのように値が変化するかを学習し、学習した結果を、前記特徴量抽出を行うことにフィードバックする、
オブジェクト特徴量抽出方法。 - 画像からオブジェクトを検出し、前記オブジェクトの存在する領域を表す領域情報と、前記オブジェクトの解像度に係る解像度情報とを生成し、
前記領域情報で定められる領域内の前記画像から、前記解像度情報を考慮して前記オブジェクトの特徴を表す特徴量を抽出する、特徴量抽出を行うオブジェクト特徴量抽出方法であって、
前記特徴量抽出を行うとき、前記領域情報で定められる領域内の前記画像から抽出した特徴量を、前記解像度情報により変換して前記オブジェクトの特徴を表す特徴量を生成する
オブジェクト特徴量抽出方法。 - 画像からオブジェクトを検出し、前記オブジェクトの存在する領域を表す領域情報と、前記オブジェクトの解像度に係る解像度情報とを生成し、
前記領域情報で定められる領域内の前記画像から、前記解像度情報を考慮して前記オブジェクトの特徴を表す特徴量を抽出する、特徴量抽出を行うオブジェクト特徴量抽出方法であって、
前記特徴量抽出を行うとき、前記領域情報で定められる領域内の前記画像に含まれる複数の小領域に対して、前記解像度情報が示す解像度ごとに学習した識別器が出力する尤度を特徴量とする
オブジェクト特徴量抽出方法。 - 画像からオブジェクトを検出し、前記オブジェクトの存在する領域を表す領域情報と、前記オブジェクトの解像度に係る解像度情報とを生成するオブジェクト検出処理と、
前記領域情報で定められる領域内の前記画像から、前記解像度情報を考慮して前記オブジェクトの特徴を表す特徴量を抽出する特徴量抽出処理と、
をコンピュータに実行させ、
前記特徴量抽出処理では、前記領域情報で定められる領域内の前記画像から一次特徴量を抽出し、前記一次特徴量に前記解像度情報を分離可能に付加して前記オブジェクトの特徴を表す特徴量を生成させ、
前記領域情報で定められる領域内の画像の特徴量を時系列で比較することにより、異なる時刻の画像間における同一オブジェクトを判定し、前記同一オブジェクトを識別する追跡識別子を生成して出力するオブジェクト追跡処理と、
前記特徴量抽出処理において算出される前記一次特徴量を、前記領域情報と前記解像度情報と前記追跡識別子とに基づいてグループ化するとともに、グループ内で解像度が高い領域から求まった一次特徴量に基づいて元の特徴量を推定し、前記推定した元の特徴量が解像度によってどのように値が変化するかを学習し、学習した結果を、前記特徴量抽出処理にフィードバックする特徴学習処理と
をコンピュータに実行させるオブジェクト特徴量抽出プログラム。 - 画像からオブジェクトを検出し、前記オブジェクトの存在する領域を表す領域情報と、前記オブジェクトの解像度に係る解像度情報とを生成するオブジェクト検出処理と、
前記領域情報で定められる領域内の前記画像から、前記解像度情報を考慮して前記オブジェクトの特徴を表す特徴量を抽出する特徴量抽出処理と、
をコンピュータに実行させ、
前記特徴量抽出処理では、前記領域情報で定められる領域内の前記画像から抽出した特徴量を、前記解像度情報により変換して前記オブジェクトの特徴を表す特徴量を生成させる
オブジェクト特徴量抽出プログラム。 - 画像からオブジェクトを検出し、前記オブジェクトの存在する領域を表す領域情報と、前記オブジェクトの解像度に係る解像度情報とを生成するオブジェクト検出処理と、
前記領域情報で定められる領域内の前記画像から、前記解像度情報を考慮して前記オブジェクトの特徴を表す特徴量を抽出する特徴量抽出処理と、
をコンピュータに実行させ、
前記特徴量抽出処理では、前記領域情報で定められる領域内の前記画像に含まれる複数の小領域に対して、前記解像度情報が示す解像度ごとに学習した識別器が出力する尤度を特徴量とさせる
オブジェクト特徴量抽出プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017055913 | 2017-03-22 | ||
JP2017055913 | 2017-03-22 | ||
PCT/JP2018/009657 WO2018173848A1 (ja) | 2017-03-22 | 2018-03-13 | オブジェクト追跡システム、インテリジェント撮像装置、オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018173848A1 JPWO2018173848A1 (ja) | 2020-01-30 |
JP7180590B2 true JP7180590B2 (ja) | 2022-11-30 |
Family
ID=63586545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019507570A Active JP7180590B2 (ja) | 2017-03-22 | 2018-03-13 | オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及びオブジェクト特徴量抽出プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20200034649A1 (ja) |
JP (1) | JP7180590B2 (ja) |
WO (1) | WO2018173848A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11875518B2 (en) | 2019-04-25 | 2024-01-16 | Nec Corporation | Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium |
US11741712B2 (en) | 2020-09-28 | 2023-08-29 | Nec Corporation | Multi-hop transformer for spatio-temporal reasoning and localization |
JP7543080B2 (ja) | 2020-10-21 | 2024-09-02 | セコム株式会社 | 学習済みモデル及びデータ処理装置 |
WO2022195790A1 (ja) * | 2021-03-18 | 2022-09-22 | 三菱電機株式会社 | 画像処理装置及び画像処理方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008262425A (ja) | 2007-04-12 | 2008-10-30 | Canon Inc | 画像処理装置及びその制御方法 |
WO2015025704A1 (ja) | 2013-08-23 | 2015-02-26 | 日本電気株式会社 | 映像処理装置、映像処理方法および映像処理プログラム |
JP2017041022A (ja) | 2015-08-18 | 2017-02-23 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
-
2018
- 2018-03-13 WO PCT/JP2018/009657 patent/WO2018173848A1/ja active Application Filing
- 2018-03-13 US US16/491,643 patent/US20200034649A1/en not_active Abandoned
- 2018-03-13 JP JP2019507570A patent/JP7180590B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008262425A (ja) | 2007-04-12 | 2008-10-30 | Canon Inc | 画像処理装置及びその制御方法 |
WO2015025704A1 (ja) | 2013-08-23 | 2015-02-26 | 日本電気株式会社 | 映像処理装置、映像処理方法および映像処理プログラム |
JP2017041022A (ja) | 2015-08-18 | 2017-02-23 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20200034649A1 (en) | 2020-01-30 |
WO2018173848A1 (ja) | 2018-09-27 |
JPWO2018173848A1 (ja) | 2020-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yan et al. | Face detection by structural models | |
JP7180590B2 (ja) | オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及びオブジェクト特徴量抽出プログラム | |
Eweiwi et al. | Temporal key poses for human action recognition | |
US20100111375A1 (en) | Method for Determining Atributes of Faces in Images | |
Zhou et al. | Enhance the recognition ability to occlusions and small objects with Robust Faster R-CNN | |
Do et al. | Real-time and robust multiple-view gender classification using gait features in video surveillance | |
Jindal et al. | Sign Language Detection using Convolutional Neural Network (CNN) | |
Zhang et al. | Learning informative features for spatial histogram-based object detection | |
Curran et al. | The use of neural networks in real-time face detection | |
Lee et al. | Qualitative pose estimation by discriminative deformable part models | |
Viswanathan et al. | Recognition of hand gestures of English alphabets using HOG method | |
Sadeq et al. | Comparison Between Face and Gait Human Recognition Using Enhanced Convolutional Neural Network | |
El-Bashir et al. | Face Recognition Model Based on Covariance Intersection Fusion for Interactive devices | |
Ogino et al. | Fast eye detector using Siamese network for NIR partial face images | |
Ayre-Storie et al. | Deep learning-based human posture recognition | |
Paul et al. | Automatic adaptive facial feature extraction using CDF analysis | |
Zhi et al. | Facial representation for automatic facial action unit analysis system | |
JP7491462B2 (ja) | 因果相互作用検出装置、制御方法、及びプログラム | |
Parise | Human identification by walk recognition using relevance vector machine | |
Vivekanandam et al. | A credible way of face recognition and classification system in video scrutiny | |
Nel et al. | An integrated sign language recognition system | |
Jahagirdar et al. | A Novel Human Action Recognition and Behaviour Analysis Technique using SWFHOG | |
Alex et al. | Local alignment of gradient features for face sketch recognition | |
Fathima et al. | Pose Invariant Face Detection in Video | |
Bekhouch et al. | Exploring the use of the lower part of the legs for people identification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190823 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210215 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20211020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220610 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221031 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7180590 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |