JP2019016268A - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
JP2019016268A
JP2019016268A JP2017134709A JP2017134709A JP2019016268A JP 2019016268 A JP2019016268 A JP 2019016268A JP 2017134709 A JP2017134709 A JP 2017134709A JP 2017134709 A JP2017134709 A JP 2017134709A JP 2019016268 A JP2019016268 A JP 2019016268A
Authority
JP
Japan
Prior art keywords
target object
identification
image
unit
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017134709A
Other languages
English (en)
Other versions
JP6977345B2 (ja
Inventor
碧輝 江山
Aoki Eyama
碧輝 江山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017134709A priority Critical patent/JP6977345B2/ja
Priority to US16/027,727 priority patent/US10706313B2/en
Publication of JP2019016268A publication Critical patent/JP2019016268A/ja
Application granted granted Critical
Publication of JP6977345B2 publication Critical patent/JP6977345B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

【課題】より高精度な画像認識を可能とする画像処理装置を提供すること。
【解決手段】対象物体が撮像された画像を取得する画像取得部10と、前記画像中の前記対象物体に係る特徴を抽出し、当該特徴抽出の結果に基づいて、前記対象物体に係るカテゴリーを識別する第1の認識部20と、前記第1の認識部が分類する候補カテゴリーと関連付けて記憶された識別結果の信頼度データを参照して、前記第1の認識部の識別結果の信頼度Ycを取得する信頼度取得部40と、前記第1の認識部の識別結果に応じた処理を実行するように構成されており、前記画像中の前記対象物体に係る特徴を抽出し、当該特徴抽出の結果と前記第1の認識部の識別結果の信頼度Ycとに基づいて、前記対象物体に係るカテゴリーを識別する第2の認識部30と、を備える画像処理装置。
【選択図】図1

Description

本開示は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。
従来、画像処理装置において、まず認識対象の物体が存在する領域を検出し、領域を絞った後、さらに詳細に画像解析を行い、段階的に認識対象の物体のカテゴリー等を識別する手法が知られている。
例えば、特許文献1には、粗い認識処理のフェーズでは、認識対象を絞るため、解像度の荒い画像より大域的な特徴量を抽出し認識を行い、また粗い認識処理によって絞られた候補に対してさらに解像度を細かくして詳細な認識処理を行うことが記載されている。
ところで、近年、画像認識システムにおいて、一層の精度向上の要請がある、この点、特許文献1等の従来技術においては、段階的に認識処理を実行することが可能であるため、ある程度の精度向上が期待できる。
しかしながら、かかる従来技術に係る画像認識システムにおいては、各認識フェーズにおいて、あくまで独立して認識処理を行っており、画像認識システム全体の最適化や精度向上の点で、改善の余地がある。又、かかる従来技術に係る画像認識システムにおいては、認識結果が識別器に対して行われた学習のみに依存し、ユーザが調整する余地がないという課題がある。
本開示は、上記の問題点に鑑みてなされたもので、より高精度な画像認識を可能とする画像処理装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。
前述した課題を解決する主たる本開示は、
対象物体が撮像された画像を取得する画像取得部と、
前記画像中の前記対象物体に係る特徴を抽出し、当該特徴抽出の結果に基づいて、前記対象物体に係るカテゴリーを識別する第1の認識部と、
前記第1の認識部が分類する候補カテゴリーと関連付けて記憶された識別結果の信頼度を示すデータを参照して、前記第1の認識部の識別結果の信頼度を取得する信頼度取得部と、
前記第1の認識部の識別結果に応じた識別処理を実行するように構成されており、前記画像中の前記対象物体に係る特徴を抽出し、当該特徴抽出の結果と前記第1の認識部の識別結果の信頼度とに基づいて、前記対象物体に係るカテゴリーを識別する第2の認識部と、
を備える画像処理装置である。
又、他の局面では、
対象物体が撮像された画像を取得し、
前記画像中の前記対象物体に係る特徴を抽出し、当該特徴抽出の結果に基づいて、前記対象物体に係るカテゴリーを識別し、
前記識別処理で分類する候補カテゴリーと関連付けて記憶された識別結果の信頼度を示すデータを参照して、前記識別処理の識別結果の信頼度を取得し、
前記識別処理の識別結果に応じた処理を実行するように、前記画像中の前記対象物体に係る特徴を抽出し、当該特徴抽出の結果と前記識別処理の識別結果の信頼度とに基づいて、前記対象物体に係るカテゴリーを識別する、
画像処理方法である。
又、他の局面では、
コンピュータに、
対象物体が撮像された画像を取得する処理と、
前記画像中の前記対象物体に係る特徴を抽出し、当該特徴抽出の結果に基づいて、前記対象物体に係るカテゴリーを識別する処理と、
前記識別処理で分類する候補カテゴリーと関連付けて記憶された識別結果の信頼度を示すデータを参照して、前記識別処理の識別結果の信頼度を取得する処理と、
前記識別処理の識別結果に応じた処理を実行するように、前記画像中の前記対象物体に係る特徴を抽出し、当該特徴抽出の結果と前記識別処理の識別結果の信頼度とに基づいて、前記対象物体に係るカテゴリーを識別する処理と、
を実行させる画像処理プログラムである。
本開示に係る画像処理装置によれば、より高精度な画像認識が可能である。
一実施形態に係る画像処理装置の機能構成の一例を示す図 一実施形態に係る画像処理装置のハードウェア構成の一例を示す図 実施例に係る行動認識システムの構成の一例を示す図 実施例に係る画像処理装置が撮像装置から取得した時系列の画像の一例を示す図 実施例に係る画像処理装置の各構成が実行する具体的処理を説明する図 変形例1に係る画像処理装置の構成の一例を示す図 変形例2に係る画像処理装置の各構成が実行する具体的処理を説明する図
以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。尚、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[画像処理装置の構成の概要]
図1は、一実施形態に係る画像処理装置100の機能構成の一例を示す図である。尚、図1中の矢印は、各機能の処理のフロー、及びデータの流れを表す。
本実施形態に係る画像処理装置100は、画像に対して所定の演算処理を施して、画像に映る所定の物体に係るカテゴリー(以下、「対象物体に係るカテゴリー」と称する)を識別し、その識別結果を出力する装置である。
「対象物体に係るカテゴリー」としては、対象物体の属する物体種別のカテゴリー、対象物体の姿勢のカテゴリー、又は、対象物体が行っている動作のカテゴリー等、任意のカテゴリーに適用され得る。
本実施形態に係る画像処理装置100は、画像取得部10、粗認識部20、詳細認識部30、及び信頼度取得部40を備えている。
画像取得部10は、撮像装置が生成した画像データを取得する。
粗認識部20(本発明の「第1の認識部」に相当)は、画像取得部10から画像データを取得し、比較的粗い特徴抽出処理又は識別処理によって、概括的に、対象物体に係るカテゴリーや画像中の存在領域等を認識する。
粗認識部20は、画像中の対象物体に係る特徴を抽出し、当該特徴抽出の結果Xc(以下、「第1の特徴抽出結果Xc」とも称する)に基づいて、対象物体に係るカテゴリーZc(以下、「第1の識別結果Zc」とも称する)を識別する。
信頼度取得部40は、粗認識部20が分類する候補カテゴリーの少なくとも一について設定された信頼度データ40Mを参照して、第1の識別結果Zcの信頼度Ycを取得する。尚、第1の識別結果Zcの信頼度Ycとは、第1の識別結果Zcが示すカテゴリーが真である確率を示す指標である。
詳細認識部30(本発明の「第2の認識部」に相当)は、粗認識部20から画像データと第1の識別結果Zcのデータ等を取得する。そして、詳細認識部30は、第1の識別結果Zcに応じて、対象物体に係るカテゴリーを分類する候補カテゴリーを絞り込むように、識別処理の処理態様を決定し、当該処理態様にて対象物体に係るカテゴリーを識別する。
そして、詳細認識部30は、画像データに対して比較的詳細で精度の高い特徴抽出処理を施し、画像中の対象物体に係る特徴X(以下、「第2の特徴抽出結果X」とも称する)を抽出する。そして、詳細認識部30は、比較的詳細で精度の高い識別処理によって、第2の特徴抽出結果Xと第1の識別結果Zcの信頼度Ycとに基づいて、対象物体に係るカテゴリー(以下、「第2の識別結果Zout」とも称する)を識別し、当該識別結果Zoutを最終的な演算結果として出力する。
本実施形態に係る画像処理装置100は、このように、認識処理を二段階に分けて行うことによって、処理負荷の軽減を図りつつ、高精度な認識を実現する。
又、本実施形態に係る画像処理装置100は、詳細認識部30の識別処理を行う際に、第1の識別結果Zcの信頼度Ycを参照することによって、第2の識別結果Zの識別精度の更なる高精度化を図る。
この点について詳述すると、識別器は、通常、ある程度の誤り確率を有しており、識別対象によっては、概括的な画像処理の方が、高い識別精度を有する場合がある。換言すると、識別対象によっては、粗認識部20の識別精度の方が、詳細認識部30の識別精度よりも高くなる場合がある。
本実施形態に係る画像処理装置100は、かかる観点から、粗認識部20が分類する各候補カテゴリーについて予め信頼度Ycを求めておき、第1の識別結果Zcが高い信頼度Ycを有する場合には、詳細認識部30の識別処理の際に、第1の識別結果Zcに対応する候補カテゴリーの評価値が大きくなるように補正し、当該候補カテゴリーが選択されやすくする。
図2は、本実施形態に係る画像処理装置100のハードウェア構成の一例を示す図である。
画像処理装置100は、主たるコンポーネントとして、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、外部記憶装置(例えば、フラッシュメモリ)104、及び通信インターフェイス105等を備えたコンピュータである。
画像処理装置100の上記した各機能は、例えば、CPU101がROM102、RAM103、外部記憶装置104等に記憶された制御プログラム(例えば、画像処理プログラム)や各種データ(例えば、識別器のモデルデータ)を参照することによって実現される。
但し、各機能の一部又は全部は、CPUによる処理に代えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に代えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。
以下、本実施形態に係る画像処理装置100の各構成について、詳述する。
[画像取得部]
画像取得部10は、認識対象の対象物体が撮像された画像データを取得する。
画像取得部10は、例えば、「対象物体」として、ヒト、動物又は家具等が映る画像の画像データを取得する。
画像取得部10が取得する画像データは、一般的なカメラ、広角カメラ、ステレオカメラ、又は赤外線カメラ等、任意の撮像装置が生成した画像データである。又、画像取得部10は、静止画の画像データを取得してもよいし、撮像装置が連続的に生成した動画像の画像データを取得してもよい。
尚、画像取得部10は、撮像装置から画像データを取得してもよいし、外部記憶装置104に格納された画像データや、インターネット回線等を介して提供された画像データを取得する構成であってもよい。
[粗認識部]
粗認識部20は、第1の特徴抽出部21及び第1の識別部22を含んで構成される。
第1の特徴抽出部21は、画像取得部10から画像データを取得し、当該画像に対して比較的粗い特徴抽出処理を行い、画像中の対象物体に係る特徴を抽出する。尚、第1の特徴抽出結果Xcは、例えば、多次元の特徴ベクトルで表される。
第1の特徴抽出部21が対象物体に係る特徴を抽出する手法としては、例えば、シルエット抽出処理、学習済みのCNNによる処理、HOG(Histograms of Oriented Gradients)特徴量抽出処理等を用いる。但し、第1の特徴抽出部21は、複数種類の特徴抽出処理が組み合わされて構成されてもよいし、領域分割処理や色分割処理等の前処理部と組み合わされて構成されてもよい。
第1の識別部22は、第1の特徴抽出部21から第1の特徴抽出結果Xcのデータを取得し、例えば、対象物体に係るカテゴリーを分類する候補カテゴリー毎に評価値(例えば、事後確率)を算出し、当該評価値が最大の候補カテゴリーを対象物体に係るカテゴリーZcと識別する。
第1の識別部22が対象物体に係るカテゴリーを分類する候補カテゴリーは、第2の識別部32が対象物体に係るカテゴリーを分類する候補カテゴリーの一部又は同一のカテゴリーである。但し、より好適には、第2の識別部32の候補カテゴリーは、第1の識別部22の候補カテゴリーよりも候補数を多くし、第1の識別結果Zcに基づいて認識処理の前に選択的に絞り込まれるようにする。
尚、粗認識部20は、詳細認識部30に対して、対象物体に係るカテゴリーZcのデータの他、当該対象物体が検出された領域等、詳細認識部30における特徴抽出処理や識別処理の態様を設定するためのデータも送出するのが望ましい。
第1の識別部22が識別処理を行う手法としては、例えば、テンプレートマッチング等を利用したルールベースの識別器、学習済みのベイズ識別器、学習済みのSVM(Support Vector Machines)識別器、学習済みのニューラルネットワーク(Convolutional Neural Network)、又は、学習済みの隠れマルコフモデル(Hidden Markov Model)等を用いる。但し、第1の識別部22は、複数種類の識別器が組み合わされて構成されてもよいし、領域分割処理や色分割処理等の前処理部と組み合わされて構成されてもよい。
[信頼度取得部]
信頼度取得部40は、第1の識別部22から第1の識別結果Zcのデータを取得する。そして、信頼度取得部40は、第1の識別部22が分類する各候補カテゴリーと関連付けて記憶された識別結果の信頼度データ40Mを参照して、対応する第1の識別結果Zcの信頼度Ycを取得し、詳細認識部30の第2の識別部32に送出する。
「第1の識別結果の信頼度」とは、第1の識別結果が示すカテゴリーが真である確率を示す指標である。
第1の識別結果の信頼度は、例えば、第1の識別部22が分類する候補カテゴリーそれぞれについて、以下の式(1)のように、実験等によって予め求められる。そして、信頼度は、候補カテゴリーと関連付けて、ROM等の記憶部に信頼度データ40Mとして記憶される。
Figure 2019016268
但し、上記の演算式(1)は、信頼度Ycを設定する際の一例であって、種々に変更可能である。又、信頼度データ40Mは、より好適には、ユーザによって任意に設定変更可能に構成される。
尚、信頼度データ40Mには、第1の識別部22が分類する候補カテゴリーすべてについて求めておくことが望ましいが、カテゴリー数が2カテゴリーの場合等は、他方側は、一方側のカテゴリーの信頼度から求めてもよい。
[詳細認識部]
詳細認識部30は、第2の特徴抽出部31及び第2の識別部32を含んで構成される。
詳細認識部30は、まず、粗認識部20の識別結果Zcに基づいて対象物体に係るカテゴリーを識別する際の候補カテゴリーを選択し、当該候補カテゴリーの適否の判断に適合した識別処理を決定する。例えば、第2の識別部32は、第1の識別結果Zcに応じて、候補カテゴリーの数を予め絞り込んで、識別処理を行ってもよい。又、第2の特徴抽出部31は、第1の識別結果Zcに応じて、特定の候補カテゴリーを識別するために適合した特徴抽出手法や特徴抽出領域を決定してもよい。
第2の特徴抽出部31は、第1の識別部22から、第1の識別結果Zcのデータ及び画像データを取得する。そして、第2の特徴抽出部31は、画像に対して比較的詳細な特徴抽出処理を行い、画像中の対象物体に係る特徴X(以下、「第2の特徴抽出結果X」とも称する)を抽出する。
第2の識別部32は、第2の特徴抽出部31から第2の特徴抽出結果Xのデータを取得すると共に、信頼度取得部40から第1の識別結果Zcの信頼度Ycのデータを取得し、これらに基づいて、対象物体に係るカテゴリーZoutを識別する。
尚、第2の特徴抽出部31が行う特徴抽出の手法としては、第1の特徴抽出部21と同様に、種々の手法を用いることができる。又、第2の識別部32が行う識別処理の手法としては、第1の識別部22と同様に、種々の手法を用いることができる。但し、より好適には、第2の特徴抽出部31は、第1の特徴抽出部21よりも狭い画像領域の特徴抽出を行ったり、第1の特徴抽出部21よりも多くの特徴要素の特徴抽出を行う構成とする。又、より好適には、第2の識別部32は、第1の識別部22よりも、小さな特徴の差異を識別し得る構成としたり、より多くの特徴要素に対して識別処理を実行し得る構成とする。
ここで、第2の識別部32の識別処理の一例について説明する。
第2の識別部32が行う識別処理は、具体的には、第2の特徴抽出結果Xに基づいて、対象物体に係るカテゴリーを分類する候補カテゴリー毎に評価値(例えば、事後確率)を算出する。そして、第2の識別部32は、第1の識別結果Zcと同種(同一のカテゴリー、及び第1の識別結果Zcのカテゴリーの下位概念のカテゴリーを表す。以下同じ)の候補カテゴリーについては、第1の識別結果Zcの信頼度Ycを反映(例えば、信頼度が示す確率を積算)させるように評価値を補正し、異種の候補カテゴリーについては、第1の識別結果Zcの1−信頼度Ycを反映(例えば、1−信頼度Ycが示す確率を積算)させるように評価値を補正する。そして、第2の識別部32は、当該評価値が最大の候補カテゴリーを対象物体に係るカテゴリーZoutと決定する。
より好適には、本実施形態に係る第2の識別部32は、次式(2)に示すように、ベイズの識別規則に基づいて、対象物体に係るカテゴリーZoutを決定する。
Figure 2019016268
ベイズの識別規則は、画像特徴から、各候補カテゴリーの評価値を事後確率として表し、当該事後確率が最大の候補カテゴリーを識別結果として決定する識別モデルである。尚、かかる識別処理を行う識別器は、予め、画像特徴と候補カテゴリーとを関連付ける学習処理が施されることによって、任意の画像特徴から当該候補カテゴリーの事後確率を算出し得るように、識別機能が付与される。かかる識別器としては、例えば、ベイズ識別器や隠れマルコフモデルによる識別器が有用である。
尚、式(2−a)は、第2の識別部32の対象物体に係るカテゴリーZoutを決定する際の演算式であり、対象物体の候補カテゴリー毎に評価値(=log p(Z|Zc,X))を算出し、当該評価値が最大の候補カテゴリーを識別結果として決定することを表す。但し、第2の識別部32は、一般的な識別器と異なり、第2の特徴抽出結果Xに加えて第1の識別部22の識別結果Zcを用いて、候補カテゴリー毎の評価値(=log p(Z|Zc,X))を算出する。式(2−a)は、ベイズの定理により、式(2−b)、式(2−c)のように式変換することができる。
第2の識別部32が比較する候補カテゴリー毎の評価値は、式(2−c)に示すように、第2の特徴抽出結果Xから求まる事後確率の対数変換値(= log p(Z|X))に、修正係数の対数変換値(= logγ)を足し合わせたものと表すことができる。
式(2−c)の修正係数(=γ)は、次式(3)に示すように、信頼度Ycにより求まる。
Figure 2019016268
尚、式(3−a)は、第1の識別結果Zcが決定される際に無関係な第2の特徴抽出結果Xを除外した式変換である。又、式(3−b)は、ベイズの定理に基づく式変換である。又、式(3−c)及び式(3−d)は、ここでは、各候補カテゴリーZが生じる事前確率p(Zc)及び事前確率p(Z)が、同一とみなして式変換している。
修正係数γは、式(3−d)に示すように、第1の識別結果Zcと第2の識別結果(第2の識別部32の候補カテゴリーZ)の同時確率で表される。ここで、第1の識別結果Zcの信頼度Ycは、当該第1の識別結果Zcが真である確率を示すため、式(3−d)の同時確率に対応する。
このように、第2の識別部32が比較する候補カテゴリーZ毎の評価値は、第1の識別結果Zcと同種の候補カテゴリーZについては、第2の特徴抽出結果Xから求まる事後確率の対数変換値(= log p(Z|X))と信頼度Ycの対数変換値(= logγ)を足しあわせた値となり、第1の識別結果Zcと異種の候補カテゴリーZについては、第2の特徴抽出結果Xから求まる事後確率の対数変換値(= log p(Z|X))と1−信頼度Ycの対数変換値(= log γ)を足しあわせた値となる。
第2の識別部32は、かかる処理によって算出した候補カテゴリーZ毎の評価値のうち、当該評価値が最も高い候補カテゴリーを対象物体に係るカテゴリーZoutと決定する。
尚、上記の演算式(2)、(3)は、第2の識別部32が識別処理を行う際の一例であって、種々に変更可能である。
[実施例]
図3〜図5を参照して、本実施形態に係る画像処理装置100の具体的な実施例について説明する。
本実施例に係る画像処理装置100は、撮像装置200が生成する動画像に対して画像処理を施して、画像に映る人B1の行動カテゴリー(対象物体に係るカテゴリーに相当)を識別する。
図3は、本実施例に係る行動認識システムUの構成の一例を示す図である。行動認識システムUは、例えば、画像処理装置100、撮像装置200、及び通信ネットワーク300を備えている。撮像装置200は、人B1が画像に映るように、部屋内の適宜な位置に設置される。撮像装置200は、通信ネットワーク300を介して、画像処理装置100に対して動画像のデータを送信する。
図4の図4A〜図4Cは、画像処理装置100が撮像装置200から取得した時系列の画像の一例を示す図である。図4A〜図4Cは、人B1を上方から撮像した画像を示し、図4A及び図4Bでは人B1が歩行しているときの画像、図4Cでは人B1が転倒したときの画像を示す。
図5は、本実施形態に係る画像処理装置100の各構成が実行する具体的処理を説明する図である。図5の各構成のブロック中には、当該構成の実行する処理を示している。
画像取得部10は、撮像装置200が連続的に生成した複数の画像データを取得し、順次、第1の特徴抽出部21に対して送出する。
第1の特徴抽出部21は、画像取得部10から画像データを順次取得して、画像中の人B1のシルエット抽出を行う。第1の特徴抽出部21は、例えば、Sobelフィルタ又はlaplacianフィルタ等を用いて、画像中の人B1の領域の境界位置における輝度勾配を検出することによって、人B1のシルエット(第1の特徴抽出結果Xcに相当)の抽出を行う。
第1の識別部22は、第1の特徴抽出部21から取得する人B1のシルエットに対して、例えば、公知のテンプレートマッチングによる識別処理を行い、当該人B1が転倒したか否か等の行動カテゴリー(第1の識別結果Zcに相当)を識別する。ここでは、第1の識別部22は、例えば、候補の行動カテゴリーとして、転倒又は歩行を有している。
又、第1の識別部22は、人B1のシルエットの時間的変化に基づいて、当該人B1の状態変化を識別する。第1の識別部22は、例えば、図4Cに示すように、人B1の頭部のシルエットが急変したりした場合には、人B1が転倒したと識別する。第1の識別部22は、かかる場合に、人B1の行動カテゴリーをより正確に識別するため、詳細認識部30に対して、当該識別結果を送出し、詳細認識部30に処理を実行させる。
信頼度取得部40は、信頼度データ40Mを参照して、第1の識別結果Zcの信頼度Ycを取得する。信頼度データ40Mには、例えば、第1の識別結果Zcが転倒を行動カテゴリーとして示す場合は信頼度80%、第1の識別結果Zcが歩行を行動カテゴリーとして示す場合は信頼度20%のように設定されている。
第2の特徴抽出部31は、第1の識別部22から第1の識別結果Zcと共に人B1の画像領域を示すデータを取得し、人B1の画像領域に対して、人B1の関節位置を抽出するための処理を行う。第2の特徴抽出部31は、例えば、学習済みのCNNを用いて、人B1の関節位置(第2の特徴抽出結果Xに相当)を抽出する。
尚、畳み込みニューラルネットワークを用いて、人B1の関節位置を抽出する手法は、公知の手法と同様であるため、ここでの詳細な説明は省略する(例えば、非特許文献1を参照)。
第2の特徴抽出部31は、第1の特徴抽出部21と同様に、複数の画像データそれぞれについて、順次、特徴抽出を行い、第2の識別部32に対して送出する。
第2の識別部32は、第2の特徴抽出部31から取得する人B1の関節位置の時間的変化に係るデータに対して、例えば、学習済みの隠れマルコフモデル(Hidden Markov Model:HMM)による識別処理を行い、当該人B1の行動カテゴリー(第2の識別結果Zoutに相当)を識別する。
ここでは、第2の識別部32は、候補カテゴリーとして、例えば、転倒、歩行、椅子に座る、及び物を取る等を有している。そして、第2の識別部32は、第1の識別結果Zcに基づいて、例えば、明らかに無関係な候補カテゴリーについては除外して、転倒又は椅子に座る等、より詳細な識別処理が必要な候補カテゴリーのみについて識別処理を実行する。尚、第2の識別部32は、候補カテゴリー毎にHMMのモデルを用意し、識別処理の際には、人B1の関節位置の系列データから、当該モデルそれぞれの事後確率を算出する構成となっている。
第2の識別部32は、例えば、人B1の関節位置の時間的変化に基づいて、候補カテゴリー毎に、評価値を算出する。そして、第2の識別部32は、式(2)、式(3)等を参照して上記したように、候補となる行動カテゴリー毎に修正係数γを算出して、候補となる行動カテゴリー毎の評価値を補正する。この際、第2の識別部32は、式(2−d)のように、第1の識別部22と同種の候補カテゴリー(ここでは、転倒)の修正係数γについては信頼度(ここでは、70%)を設定して評価値を補正し、転倒以外の椅子に座る等の修正係数γについては1−信頼度(ここでは、30%)を設定して評価値を補正する。
第2の識別部32は、かかる候補となる行動カテゴリー毎の評価値のうち、評価値が最大の行動カテゴリーを第2の識別結果として出力する。
尚、HMMを用いて、カテゴリーを識別する手法は、公知の手法と同様であるため、ここでの詳細な説明は省略する(例えば、非特許文献2を参照)。
以上のように、本実施形態に係る画像処理装置100は、認識フェーズを複数段階に切り分け、段階的に特徴抽出対象又は候補カテゴリー等を絞り込みつつ、後段の認識フェーズ(ここでは、詳細認識部30)において、前段の認識フェーズ(ここでは、粗認識部20)の識別結果Zcを利用して、対象物体に係るカテゴリーZを識別する。これによって、高精度な識別性能を実現することができる。
又、本実施形態に係る画像処理装置100によれば、識別結果とユーザの感触にギャップが生じた場合等においても、信頼度データ40Mの調整により、最終的な識別結果(第2の識別結果Zout)をユーザが調整することが可能であり、認識システム全体としての最適化が可能である。
[変形例1]
図6は、変形例1に係る画像処理装置100の各構成が実行する具体的処理を説明する図である。
変形例1に係る画像処理装置100は、粗認識部20及び詳細認識部30が実行する処理の点で、上記実施形態と相違する。
変形例1に係る画像処理装置100においては、第1の特徴抽出部21をHOG(Histograms of Oriented Gradients)特徴量抽出部で構成し、第1の識別部22を学習済みのSVM(Support Vector Machines)識別器で構成する。
又、変形例1に係る画像処理装置100においては、第2の特徴抽出部31を学習済みの畳み込みニューラルネットワークで構成し、第2の識別部32を畳み込みニューラルネットワークの出力と全結合する学習済みの多層パーセプトロンで構成する。
このような構成によっても、上記実施形態と同様の効果を得ることができる。
[変形例2]
図7は、変形例2に係る画像処理装置100の構成について説明する図である。
変形例2に係る画像処理装置100は、第2の詳細認識部50と第2の信頼度取得部60とを有する点で、上記実施形態と相違する。
第2の詳細認識部50(本発明の「第3の認識部」に相当)は、詳細認識部30と同様に、特徴抽出部と識別部(図示せず)の組によって構成される。そして、第2の詳細認識部50は、詳細認識部30の識別結果に応じた識別処理を実行するように構成されている。つまり、第2の詳細認識部50は、詳細認識部30の識別結果に基づいて、更に、候補カテゴリーを絞り込んで、対象物体のカテゴリーの識別処理を実行する。
第2の信頼度取得部60は、信頼度取得部40と同様に、詳細認識部30が分類する各候補カテゴリーと関連付けて記憶された識別結果の信頼度データ60Mを参照する。そして、第2の信頼度取得部60は、信頼度データ60Mから詳細認識部30の識別結果の信頼度を取得し、第2の詳細認識部50に送出する。
尚、図7中では図示していないが、第2の詳細認識部50の後段に、更に、同様の構成の認識部を設けてもよい。
このように認識フェーズを多段階に分け、各認識フェーズで前段の認識フェーズの信頼度を参照することで、識別性能をより高精度にすることができる。
[変形例3]
図5に示した実施例では、粗認識20が分類する候補カテゴリー数が2カテゴリーの態様を示したが、当該候補カテゴリー数は、3カテゴリー以上にも適用できるのは勿論である。
その際、信頼度データ40Mには、粗認識20が分類する候補カテゴリー毎に、識別結果の信頼度を予め算出して記憶しておくのが好適である。これによって、詳細認識部30は、上記実施例と同様に、信頼度を踏まえて、粗認識20の識別結果を利用して、対象物体に係るカテゴリーZを識別することが可能である。
[その他の実施形態]
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
上記実施形態では、画像処理装置100の構成の一例として、画像取得部10、粗認識部20、詳細認識部30、及び信頼度取得部40の機能が一のコンピュータによって実現されるものとして記載したが、複数のコンピュータによって実現されてもよいのは勿論である。又、当該コンピュータに読み出されるプログラムやデータも、複数のコンピュータに分散して格納されてもよい。
尚、上記実施形態では、画像処理装置100の動作の一例として、画像取得部10、粗認識部20、詳細認識部30、及び信頼度取得部40の処理のフローについては記載していないが、これらの処理の手順は、任意であり、一部又は全部が直列的に実行されてもよいし、並列的に実行されるものとしてもよいのは勿論である。
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
本開示に係る画像処理装置によれば、より高精度な画像認識が可能である。
10 画像取得部
20 粗認識部
21 第1の特徴抽出部
22 第1の識別部
30 詳細認識部
31 第2の特徴抽出部
32 第2の識別部
40 信頼度取得部
40M 信頼度データ
50 第2の詳細認識部
60 第2の信頼度取得部
60M 信頼度データ
100 画像処理装置

Claims (9)

  1. 対象物体が撮像された画像を取得する画像取得部と、
    前記画像中の前記対象物体に係る特徴を抽出し、当該特徴抽出の結果に基づいて、前記対象物体に係るカテゴリーを識別する第1の認識部と、
    前記第1の認識部が分類する候補カテゴリーと関連付けて記憶された識別結果の信頼度を示すデータを参照して、前記第1の認識部の識別結果の信頼度を取得する信頼度取得部と、
    前記第1の認識部の識別結果に応じた識別処理を実行するように構成されており、前記画像中の前記対象物体に係る特徴を抽出し、当該特徴抽出の結果と前記第1の認識部の識別結果の信頼度とに基づいて、前記対象物体に係るカテゴリーを識別する第2の認識部と、
    を備える画像処理装置。
  2. 前記第2の認識部は、前記第1の認識部の識別結果に基づいて前記対象物体に係るカテゴリーを識別する際の候補カテゴリーを選択し、当該候補カテゴリーの適否の判断に適合した識別処理を実行する、
    請求項1に記載の画像処理装置。
  3. 前記第1の認識部は、
    前記画像中の前記対象物体に係る特徴ベクトルを抽出する第1の特徴抽出部と、
    前記第1の特徴抽出部の特徴抽出の結果に基づいて、前記対象物体に係るカテゴリーを識別する第1の識別部と、を有し、
    前記第2の認識部は、
    前記画像中の前記対象物体に係る特徴ベクトルを抽出する第2の特徴抽出部と、
    前記第2の特徴抽出部の特徴抽出の結果と前記第1の認識部の識別結果の信頼度とに基づいて、前記対象物体に係るカテゴリーを識別する第2の識別部と、を有する、
    請求項1又は2に記載の画像処理装置。
  4. 前記第2の識別部は、
    前記第2の特徴抽出部の特徴抽出の結果から求まる事後確率として、前記対象物体に係るカテゴリーを分類する各候補カテゴリーについての評価値を算出し、
    前記第1の認識部の識別結果の信頼度に基づいて、当該評価値を補正し、
    当該評価値に基づいて前記対象物体に係るカテゴリーの識別結果に決定する、
    請求項3に記載の画像処理装置。
  5. 前記画像取得部は、連続的に生成された複数の前記画像を取得し、
    前記第1の認識部は、複数の前記画像それぞれに対して行った特徴抽出の結果の時間的変化に基づいて、前記対象物体に係るカテゴリーを識別し、
    前記第2の認識部は、複数の前記画像それぞれに対して行った特徴抽出の結果の時間的変化と、前記第1の認識部の識別結果の信頼度と、に基づいて、前記対象物体に係るカテゴリーを識別する、
    請求項1乃至4のいずれか一項に記載の画像処理装置。
  6. 前記対象物体に係るカテゴリーは、前記対象物体に係る行動カテゴリーである、
    請求項5に記載の画像処理装置。
  7. 前記第2の認識部が分類する候補カテゴリーと関連付けて記憶された識別結果の信頼度を示すデータを参照して、前記第2の認識部の識別結果の信頼度を取得する第2の信頼度取得部と、
    前記第2の認識部の識別結果に基づいて処理態様を決定した後、当該処理態様にて、前記第2の認識部の識別結果に応じた前記画像の特徴抽出処理を実行し、当該特徴抽出の結果と前記第2の認識部の識別結果の信頼度と、に基づいて、前記対象物体に係るカテゴリーを識別する第3の認識部と、
    を更に備える請求項1乃至6のいずれか一項に記載の画像処理装置。
  8. 対象物体が撮像された画像を取得し、
    前記画像中の前記対象物体に係る特徴を抽出し、当該特徴抽出の結果に基づいて、前記対象物体に係るカテゴリーを識別し、
    前記識別処理で分類する候補カテゴリーと関連付けて記憶された識別結果の信頼度を示すデータを参照して、前記識別処理の識別結果の信頼度を取得し、
    前記識別処理の識別結果に応じた処理を実行するように、前記画像中の前記対象物体に係る特徴を抽出し、当該特徴抽出の結果と前記識別処理の識別結果の信頼度とに基づいて、前記対象物体に係るカテゴリーを識別する、
    画像処理方法。
  9. コンピュータに、
    対象物体が撮像された画像を取得する処理と、
    前記画像中の前記対象物体に係る特徴を抽出し、当該特徴抽出の結果に基づいて、前記対象物体に係るカテゴリーを識別する処理と、
    前記識別処理で分類する候補カテゴリーと関連付けて記憶された識別結果の信頼度を示すデータを参照して、前記識別処理の識別結果の信頼度を取得する処理と、
    前記識別処理の識別結果に応じた処理を実行するように、前記画像中の前記対象物体に係る特徴を抽出し、当該特徴抽出の結果と前記識別処理の識別結果の信頼度とに基づいて、前記対象物体に係るカテゴリーを識別する処理と、
    を実行させる画像処理プログラム。
JP2017134709A 2017-07-10 2017-07-10 画像処理装置、画像処理方法、及び画像処理プログラム Active JP6977345B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017134709A JP6977345B2 (ja) 2017-07-10 2017-07-10 画像処理装置、画像処理方法、及び画像処理プログラム
US16/027,727 US10706313B2 (en) 2017-07-10 2018-07-05 Image processing apparatus, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017134709A JP6977345B2 (ja) 2017-07-10 2017-07-10 画像処理装置、画像処理方法、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2019016268A true JP2019016268A (ja) 2019-01-31
JP6977345B2 JP6977345B2 (ja) 2021-12-08

Family

ID=64902783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017134709A Active JP6977345B2 (ja) 2017-07-10 2017-07-10 画像処理装置、画像処理方法、及び画像処理プログラム

Country Status (2)

Country Link
US (1) US10706313B2 (ja)
JP (1) JP6977345B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021103570A (ja) * 2020-04-23 2021-07-15 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 画像検索方法、装置、機器及び媒体
WO2021230485A1 (ko) * 2020-05-15 2021-11-18 삼성전자 주식회사 영상을 제공하는 방법 및 장치
JP6972434B1 (ja) * 2020-07-30 2021-11-24 三菱電機株式会社 行動特定装置、行動特定方法及び行動特定プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112036455B (zh) * 2020-08-19 2023-09-01 浙江大华技术股份有限公司 一种图像识别方法、智能终端和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213528A (ja) * 2006-02-13 2007-08-23 Sanyo Electric Co Ltd 行動認識システム
JP2008210388A (ja) * 2007-02-26 2008-09-11 Fujitsu Ltd コードを識別する方法、装置及びプログラム
JP2011165188A (ja) * 2010-02-08 2011-08-25 Ricoh Co Ltd 多角度の特定物体の判断装置及び多角度の特定物体の判断方法
JP2013003662A (ja) * 2011-06-13 2013-01-07 Sony Corp 情報処理装置及び方法、並びにプログラム
JP2013012163A (ja) * 2011-06-30 2013-01-17 Fujitsu Ltd 画像認識装置、画像認識方法及び画像認識用コンピュータプログラム
JP2013114596A (ja) * 2011-11-30 2013-06-10 Kddi Corp 画像認識装置及び方法
JP2014153815A (ja) * 2013-02-06 2014-08-25 Toshiba Corp 推定装置、その方法及びそのプログラム
JP2014153763A (ja) * 2013-02-05 2014-08-25 Toshiba Corp パターン認識装置、パターン認識方法、及びパターン認識プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7840048B2 (en) * 2004-05-26 2010-11-23 Guardian Technologies International, Inc. System and method for determining whether there is an anomaly in data
JP4620607B2 (ja) 2006-02-24 2011-01-26 株式会社モルフォ 画像処理装置
US9025872B2 (en) * 2011-08-29 2015-05-05 Panasonic Intellectual Property Corporation Of America Image processing device, image processing method, program, and integrated circuit
JP2013192154A (ja) * 2012-03-15 2013-09-26 Omron Corp 監視装置、信頼度算出プログラム、および信頼度算出方法
AU2015203771B2 (en) * 2014-07-08 2020-11-05 Iomniscient Pty Ltd A method and apparatus for surveillance
JP6497007B2 (ja) * 2014-09-09 2019-04-10 日本電気株式会社 情報処理装置、情報処理方法、及び、プログラム
US10719727B2 (en) * 2014-10-01 2020-07-21 Apple Inc. Method and system for determining at least one property related to at least part of a real environment
JP6804965B2 (ja) * 2016-12-15 2020-12-23 株式会社日立製作所 画像処理装置、画像処理システム、および画像処理方法
KR102655949B1 (ko) * 2018-05-30 2024-04-09 삼성전자주식회사 3d 영상 기반의 얼굴 인증 방법 및 장치

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213528A (ja) * 2006-02-13 2007-08-23 Sanyo Electric Co Ltd 行動認識システム
JP2008210388A (ja) * 2007-02-26 2008-09-11 Fujitsu Ltd コードを識別する方法、装置及びプログラム
JP2011165188A (ja) * 2010-02-08 2011-08-25 Ricoh Co Ltd 多角度の特定物体の判断装置及び多角度の特定物体の判断方法
JP2013003662A (ja) * 2011-06-13 2013-01-07 Sony Corp 情報処理装置及び方法、並びにプログラム
JP2013012163A (ja) * 2011-06-30 2013-01-17 Fujitsu Ltd 画像認識装置、画像認識方法及び画像認識用コンピュータプログラム
JP2013114596A (ja) * 2011-11-30 2013-06-10 Kddi Corp 画像認識装置及び方法
JP2014153763A (ja) * 2013-02-05 2014-08-25 Toshiba Corp パターン認識装置、パターン認識方法、及びパターン認識プログラム
JP2014153815A (ja) * 2013-02-06 2014-08-25 Toshiba Corp 推定装置、その方法及びそのプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
影広 達彦、外3名: ""監視カメラによる人物挙動の変化検知"", 電子情報通信学会技術研究報告, vol. 107, no. 206, JPN6021015922, 27 August 2007 (2007-08-27), JP, pages 187 - 194, ISSN: 0004612644 *
斉藤 直輝、外3名: ""画像共有サービスに投稿される画像の観光名所に関するカテゴリー分類"", 電子情報通信学会論文誌D, vol. 99, no. 9, JPN6021039531, 1 September 2016 (2016-09-01), JP, pages 848 - 860, ISSN: 0004612646 *
神岡 太郎、外2名: ""類似画像検索を用いた目的地決定支援システム"", ヒューマンインタフェース学会誌, vol. 5, no. 3, JPN6021039529, 26 August 2003 (2003-08-26), JP, pages 383 - 390, ISSN: 0004612645 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021103570A (ja) * 2020-04-23 2021-07-15 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 画像検索方法、装置、機器及び媒体
US11836186B2 (en) 2020-04-23 2023-12-05 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for retrieving image, device, and medium
WO2021230485A1 (ko) * 2020-05-15 2021-11-18 삼성전자 주식회사 영상을 제공하는 방법 및 장치
JP6972434B1 (ja) * 2020-07-30 2021-11-24 三菱電機株式会社 行動特定装置、行動特定方法及び行動特定プログラム
WO2022024294A1 (ja) * 2020-07-30 2022-02-03 三菱電機株式会社 行動特定装置、行動特定方法及び行動特定プログラム

Also Published As

Publication number Publication date
US20190012556A1 (en) 2019-01-10
US10706313B2 (en) 2020-07-07
JP6977345B2 (ja) 2021-12-08

Similar Documents

Publication Publication Date Title
KR102339607B1 (ko) 홍채 기반 생체 인식을 위한 방법 및 장치
JP6664163B2 (ja) 画像識別方法、画像識別装置及びプログラム
JP5848551B2 (ja) 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム
US9898819B2 (en) System and method for detecting region of interest
JP5010905B2 (ja) 顔認証装置
US7925093B2 (en) Image recognition apparatus
US8498454B2 (en) Optimal subspaces for face recognition
KR101381455B1 (ko) 생체 정보 처리 장치
JP6977345B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
WO2018163555A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2018206321A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2012053756A (ja) 画像処理装置及び画像処理方法
US11334759B2 (en) Information processing apparatus, information processing method, and medium
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
JP5241606B2 (ja) オブジェクト識別装置及びオブジェクト識別方法
JP2021503139A (ja) 画像処理装置、画像処理方法および画像処理プログラム
Škrjanc et al. Evolving gustafson-kessel possibilistic c-means clustering
KR101016758B1 (ko) 인물 식별 방법 및 그 시스템
WO2018173848A1 (ja) オブジェクト追跡システム、インテリジェント撮像装置、オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び記憶媒体
CN106406507B (zh) 图像处理方法以及电子设备
JP2017084006A (ja) 画像処理装置およびその方法
JP2018036870A (ja) 画像処理装置及びプログラム
KR101556696B1 (ko) 단위 동작에 따른 사람의 행동 인식 방법 및 시스템
JP2021051376A (ja) 画像処理装置、画像処理方法及びプログラム
CN105989339B (zh) 用于检测目标的方法和装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190708

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211025

R150 Certificate of patent or registration of utility model

Ref document number: 6977345

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150