JP2015158745A - 行動識別器生成装置、行動認識装置及びプログラム - Google Patents
行動識別器生成装置、行動認識装置及びプログラム Download PDFInfo
- Publication number
- JP2015158745A JP2015158745A JP2014032222A JP2014032222A JP2015158745A JP 2015158745 A JP2015158745 A JP 2015158745A JP 2014032222 A JP2014032222 A JP 2014032222A JP 2014032222 A JP2014032222 A JP 2014032222A JP 2015158745 A JP2015158745 A JP 2015158745A
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- action
- feature quantity
- video data
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】映像を用いた行動認識の精度を向上させる。【解決手段】学習データとして入力された行動ラベル付き三次元映像データに含まれる撮影対象者の行動を識別するための行動識別器を生成する行動識別器生成装置であって、行動ラベル付きの三次元映像データを読み込む三次元データ読込手段と、三次元映像データから撮影対象者の所定の部位の軌跡を検出する軌跡検出手段と、検出した部位の軌跡から動的特徴量を抽出する動的特徴量抽出手段と、動的特徴量を用いて識別単位に三次元映像を構成するフレームを分割するフレーム分割手段と、識別単位毎に静的特徴量を抽出する静的特徴量抽出手段と、動的特徴量と静的特徴量とから特徴ベクトルを生成する特徴量生成手段と、撮影対象者の行動を識別する識別器を学習して識別器パラメータを出力する識別器学習手段とを備える。【選択図】図1
Description
本発明は、三次元映像入力装置(例えば、ステレオカメラ等)を用いて撮影した映像から、撮影対象者の行動や状況を認識する技術に関する。
コンピュータビジョン分野では、映像を用いて、撮影対象者の行動や状況を理解する研究がなされており、例えば、次のような研究成果が報告されている。
撮影対象者の手の動きを固定長のフレームで追うことにより、二次元的な動きのテンプレートを取得し、それを学習することで、撮影対象者の行動を認識するという方法が提案されている(例えば、非特許文献1参照)。
Sundaram, S," High level activity recognition using low resolution wearable vision" IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops, 2009.
しかしながら、非特許文献1に記載の方法にあっては、認識処理(識別)に用いるフレームの数を固定したうえで撮影対象者の二次元的な手の動きに注目する方法であり、識別に用いるフレームを固定にしている。このため、撮影対象者が異なった場合、撮影対象者間の動作速度の違いなどを考慮できておらず、識別に必要な動作が含まれない複数のフレームに対し認識を行ってしまうため行動認識の精度が下がるという問題がある。
本発明は、このような事情に鑑みてなされたもので、撮像した映像を用いた行動認識の精度を向上させることができる行動識別器生成装置、行動認識装置及びプログラムを提供することを目的とする。
本発明は、学習データとして入力された行動ラベル付き三次元映像データに含まれる撮影対象者の行動を識別するための行動識別器を生成する行動識別器生成装置であって、行動ラベル付きの三次元映像データを読み込む三次元データ読込手段と、前記三次元映像データから前記撮影対象者の所定の部位の軌跡を検出する軌跡検出手段と、検出した前記部位の軌跡から動的特徴量を抽出する動的特徴量抽出手段と、前記動的特徴量を用いて識別単位に前記三次元映像を構成するフレームを分割するフレーム分割手段と、前記識別単位毎に静的特徴量を抽出する静的特徴量抽出手段と、前記動的特徴量と前記静的特徴量とから特徴ベクトルを生成する特徴量生成手段と、前記撮影対象者の行動を識別する識別器を学習して識別器パラメータを出力する識別器学習手段とを備えることを特徴とする。
本発明は、前記行動識別器生成装置によって出力された識別器パラメータを用いて、三次元映像データに含まれる撮影対象者の行動を認識する行動認識装置であって、前記三次元映像データを取得する三次元映像データ取得手段と、前記三次元映像データから前記撮影対象者の所定の部位の軌跡を検出する軌跡検出手段と、検出した前記部位の軌跡から動的特徴量を抽出する動的特徴量抽出手段と、前記動的特徴量を用いて三次元映像データを構成するフレームの識別単位の境界となるフレーム分割点を検出するフレーム分割点検出手段と、前記フレーム分割点で区切られる複数フレームから構成される識別単位毎に静的特徴量を抽出する静的特徴量抽出手段と、前記動的特徴量と前記静的特徴量とから特徴ベクトルを生成する特徴量生成手段と、前記特徴ベクトルと、前記識別器パラメータを用いて前記撮影対象者の行動を認識する行動認識手段とを備えることを特徴とする。
本発明は、コンピュータを、前記行動識別器生成装置として機能させるためのプログラムである。
本発明は、コンピュータを、前記行動認識装置として機能させるためのプログラムである。
本発明によれば、撮像した映像を用いた行動認識において、三次元上の動きの軌跡に基づいて認識処理に用いるフレームの数を行動に合わせて動的に決定することにより行動認識の精度を向上させることができるという効果が得られる。
以下、図面を参照して、本発明の一実施形態による行動識別器生成装置及び行動認識装置を説明する。図1は同実施形態の構成を示すブロック図である。図1において、学習部1と認識部2に分かれている。学習部1は、行動ラベル付き三次元映像データを読み込む三次元映像データ読込部11と、三次元映像データから手の軌跡を検出する軌跡検出部12と、検出した手の軌跡から動的特徴量を抽出する動的特徴量抽出部13と、動的特徴量を用いて識別単位に三次元映像を構成するフレームを分割するフレーム分割部14と、識別単位に対する静的特徴量を抽出する静的特徴量抽出部15と、動的特徴量と静的特徴量から特徴ベクトルを生成する特徴量生成部16と、撮影対象者の行動を識別する識別器を学習する識別器学習部17とで構成されている。
認識部2は、三次元映像データを取得する三次元映像データ取得部18と、手の軌跡を検出する軌跡検出部19と、検出した手の軌跡から動的な特徴量を抽出する動的特徴量抽出部20と、動的特徴量を用いて三次元映像データを構成するフレームの識別単位の境界となる分割点を検出するフレーム分割点検出部21と、フレーム分割点で区切られる複数フレームから構成される識別単位に対して静的特徴量を抽出する静的特徴量抽出部22と、動的特徴量と静的特徴量から特徴ベクトルを生成する特徴量生成部23と、識別器学習部17で生成した識別器を用いて行動を認識する行動認識部24とで構成される。
三次元映像データ読込部11は、撮影された三次元映像データと映像中対応する撮影対象者の行動を示す行動ラベルデータの組である行動ラベル付き三次元映像データを読み込む。図2は、行動ラベルデータの一例を示す図である。行動ラベルデータは、開始と終了の時刻と、複数の行動ラベル(行動ラベル1、2、・・・)とが関係付けられて記憶されたデータである。例えば、記憶装置に保存された三次元映像データと対応する撮影対象者の行動ラベルのデータをシステムに読み込む。
また、三次元映像データは、RGBで表現される映像データと、1ピクセルあたり16bitの数値で表現されるデプスマップデータの組で表現される。ただし、このような形式に限られるものではなく、映像データと、深度を表現する数値データを情報として含むものであればどのような表現形式でもよい。三次元映像・ラベルデータ(行動ラベル付き三次元映像データ)は、三次元映像・ラベルデータ記憶装置31に記憶する。
軌跡検出部12は、例えば文献1に記載の公知の方法を使って撮影対象者の手を検出し、その軌跡となる点群を取得する。
文献1「X.Liu , K.Fujimura "Hand Gesture Recognition using Depth Data" Proceedings of the Sixth IEEE International Conference on Automatic Face and Gesture Recognition.」
文献1「X.Liu , K.Fujimura "Hand Gesture Recognition using Depth Data" Proceedings of the Sixth IEEE International Conference on Automatic Face and Gesture Recognition.」
動的特徴量抽出部13は、軌跡検出部12で得た手の軌跡点群から、各時刻における速度ベクトルを計算する。動的特徴量は、動的特徴量記憶装置32に記憶する。フレーム分割部14は、動的特徴量抽出部13により計算された各時刻の速度ベクトルを比較し、速度ベクトルが大きく変化する時刻でフレームを分割し、識別単位とする。識別単位は、速度ベクトルが大きく変化する時刻までの三次元映像のフレームの集まりとなる。
静的特徴量抽出部15は、識別単位を構成するフレームごとに、例えば、文献2に記載の公知の方法でSIFT特徴量などの特徴量を抽出する。
文献2「D.G. Lowe "Object recognition from local scale-invariant features" The Proceedings of the Seventh IEEE International Conference on Computer Vision, 1999.」
文献2「D.G. Lowe "Object recognition from local scale-invariant features" The Proceedings of the Seventh IEEE International Conference on Computer Vision, 1999.」
特徴量生成部16は、前述の動的特徴量と静的特徴量とを、識別単位のフレーム数を考慮して正規化したものを特徴量ベクトルとして生成する。識別器学習部17は、前述の特徴量ベクトルと識別単位に対応する行動ラベルデータから撮影対象者の行動を認識するための識別器の学習を行う。学習された識別器のパラメータは、識別器パラメータ記憶装置33に記憶する。
三次元映像データ取得部18は、例えばステレオカメラ等の画像取得手段などで構成されており、三次元映像データを取得する。軌跡検出部19は、撮影対象者の手の動きの軌跡を検出する。軌跡検出部19は、軌跡検出部12と同様に例えば文献1に記載の公知の方法で手を検出し、その軌跡となる点群を取得する。
動的特徴量抽出部20は、動的特徴量抽出部13と同様、軌跡検出部19で得られた軌跡の点群から、各時刻における速度ベクトルを計算する。フレーム分割点検出部21は、動的特徴量抽出部20で計算された速度ベクトルから、入力されるフレームが識別単位の分割点となるか否かを判定する。分割点と判定される場合には、ひとつ前の分割点からの複数フレームを識別単位とする。
静的特徴量抽出部22は、識別単位を構成する各フレームからSIFT特徴量などを抽出する。特徴量生成部23では、特徴量生成部16と同様、動的特徴量と静的特徴量を識別単位のフレーム数を考慮し、正規化を行い、特徴ベクトルとして生成する。行動認識部24は、識別器パラメータ記憶装置33に記憶された識別器パラメータを用いて、行動認識を行う。
本実施形態の目的は、一人称映像から撮影対象者の行動を推定することである。本実施形態では、一例として、フレームごとの静的な特徴量としてSIFT特徴量を、三次元データから得られる撮影対象者の手の動きの軌跡を特徴量とし、手の軌跡を取得する手段として、文献1に記載の方法を用いて説明する。
次に、図3を参照して、図1に示す学習部1の動作を説明する。図3は、図1に示す学習部1の動作を示すフローチャートである。処理が開始されると、三次元映像データ読込部11は、外部から画像データIt(t=1,2,3,...,T)と三次元データDt(t=1,2,3,...,T)を読み込む(ステップS1)。ここで、Tはフレーム数の合計である。各画像データには、図2に示す行動に関するラベルが付与されている。ここで、撮影対象者の行動の種類をJ、撮影対象者の行動をaj、行動の集合をAとした時、撮影対象者の行動をaj(j=1,2,3,...,J;aj∈A)と表す。
次に、軌跡検出部12は、画像中の撮影対象者の手を検出し、手の軌跡の三次元点群を抽出する(ステップS2)。そして、動的特徴量抽出部13は、動的特徴量の抽出を行う(ステップS3)。手の軌跡の点群をHt=(Xt,Yt,Zt)(t=1,2,3,...,T)、とすると、時刻tにおける速度ベクトルはΔDt=(Xt,Yt,Zt)−(xt−1,Yt−1,Zt−1)(t=1,2,3,...,T)と表すことができる。これらを各時刻について計算する。
本実施形態では隣り合うフレームから速度ベクトルを算出したが、フレーム数をiとしたとき、時刻t−iから時刻tまでの平均速度、すなわちΔHt=(ΔHt−ΔHt−1)/|t−i|としても速度ベクトルを計算できる。また、本実施形態では、説明を簡単にするため、片手の軌跡についてのみ説明するが、両手の軌跡についても同様に計算することができる。
次に、フレーム分割部14は、識別単位となるようなフレームの分割点を検出する(ステップS4)。ここでは、ステップS3で計算された速度ベクトルを各時刻で比較し、ベクトルが大きく変わる時刻をフレームの分割点とする。ベクトルの類似度の指標としては、例えば、コサイン類似度を用いることができる。
sim=ΔHt・ΔHt−1/|ΔHt||ΔHt−1|
このコサイン類似度が、予め設定した閾値を超える場合、その時刻をフレームの分割点とする。
sim=ΔHt・ΔHt−1/|ΔHt||ΔHt−1|
このコサイン類似度が、予め設定した閾値を超える場合、その時刻をフレームの分割点とする。
次に、静的特徴量抽出部15は、ステップS4で分割された各フレームに対して静的特徴量を抽出する(ステップS5)。ここでは、SIFT特徴量を各フレームで計算し、それらを静的特徴量とする。これらの静的特徴量として、例えば文献3に記載の公知の方法で、STIPといった別の特徴量を用いることができる。
文献3「I.Laptev, T.Lindeberg "Local Descriptors for Spatio-temporal Recognition" Spatial Coherence for Visual Motion Analysis Lecture Notes in Computer Science Volume 3667, 2006, pp 91-103」
文献3「I.Laptev, T.Lindeberg "Local Descriptors for Spatio-temporal Recognition" Spatial Coherence for Visual Motion Analysis Lecture Notes in Computer Science Volume 3667, 2006, pp 91-103」
次に、特徴量生成部16は、ステップS3とステップS5で得た動的特徴量と、静的特徴量を正規化することにより、特徴量ベクトルを生成する(ステップS6)。静的特徴量は、例えば文献4に記載の公知の方法でヒストグラム化し、それぞれのビンの値をフレーム数で割ることにより正規化することが可能である。
文献4「D. Filliat, "A visual bag of words method for interactive qualitative localization and mapping"」
文献4「D. Filliat, "A visual bag of words method for interactive qualitative localization and mapping"」
動的特徴量では、識別単位のフレーム内に含まれるフレームi個をn個に均等に分け、n個に分けられたフレームの最初と最後のフレームにおける三次元点からn個の直線ベクトルで軌跡を近似する。図4は、n=4として、手の軌跡を4つのベクトルで近似している例を示す図である。図4に示すように、手の軌跡を複数のベクトルで近似する。
次に、識別器学習部17は、ステップS6で得られる特徴量と、三次元映像・ラベルデータ記憶装置31に記憶された行動ラベルデータから識別器の学習を行う(ステップS7)。ここでは、ナイーブベイズ分類器により、各識別単位の特徴量から行動ラベルを予測する。すなわち、特徴ベクトルをd、行動ラベルをaとしたとき、P(a|d)(a∈A)を最大化するようなaを出力する。
^a(^はaの上に付く)=argmaxP(a|d)
=argmaxP(d|a)P(a)
ここで、P(d|a)には、例えば正規分布を仮定し、対数尤度logP(D)=Σ{d,a}∈DlogP(d|a)P(a) を最大化するような、正規分布のパラメータ(平均値、分散値)とP(a)を求めればよい。
^a(^はaの上に付く)=argmaxP(a|d)
=argmaxP(d|a)P(a)
ここで、P(d|a)には、例えば正規分布を仮定し、対数尤度logP(D)=Σ{d,a}∈DlogP(d|a)P(a) を最大化するような、正規分布のパラメータ(平均値、分散値)とP(a)を求めればよい。
学習されたパラメータは、識別器パラメータ記憶装置33に記憶する。ここではナイーブベイズ分類器を用いたが、SVMや対数線形モデルといった他の分類器を用いることもできる。
次に、図5を参照して、図1に示す認識部2の動作を説明する。図5は、図1に示す認識部2の動作を示すフローチャートである。処理が開始されると、三次元映像データ取得部18は、画像データと三次元データを取得する(ステップS11)。
次に、軌跡検出部19は、軌跡検出部12と同様、画像中の撮影対象者の手を検出し、手の軌跡の三次元点群を抽出する(ステップS12)。続いて、動的特徴量抽出部20は、動的特徴量の抽出を行う(ステップS13)。手の軌跡の点群をHt=(Xt,Yt,Zt)(t=1,2,3,...,T)とすると、時刻tにおける速度ベクトルはΔDt=(Xt,Yt,Zt)−(xt−1,Yt−1,Zt−1)(t=1,2,3,...,T)と表すことができる。これらを各時刻について計算する。
本実施形態では隣り合うフレームから速度ベクトルを算出したが、フレーム数をiとしたとき、時刻t−iから時刻tまでの平均速度、すなわちΔHt=(ΔHt−ΔHt−i)/|t−i|としても速度ベクトルを計算できる。また、ここでは、説明を簡単にするため、片手の軌跡についてのみ説明するが、両手の軌跡についても同様に計算することができる。
次に、フレーム分割点検出部21は、時刻tにおけるフレームが識別単位の分割点か否かを判定する(ステップS14)。ステップS13で計算された速度ベクトルが時刻t−1の速度ベクトルから大きく変化している場合には、時刻tをフレーム分割点とし、ひとつ前の分割点からのフレームを識別単位として処理を行う。ベクトルの変化が小さいときは、ステップS11に戻り、画像と三次元データを取得する。各時刻におけるベクトルの比較には、ステップS14と同様の類似度を用いる。
次に、静的特徴量抽出部22は、ステップS13までの処理で得られた識別単位のフレームについて静的特徴量の抽出を行う(ステップS15)。静的特徴量には、学習部1で抽出した特徴量と同じものを用い、本実施形態においては、SIFT特徴量を用いる。
次に、特徴量生成部23は、ステップS13とステップS15によって得られた動的特徴量と静的特徴量から、識別単位のフレーム数を考慮した正規化を行って特徴量を生成する(ステップS16)。これは、学習部1のステップS6と同様の方法で行う。
次に、行動認識部24は、識別器パラメータ記憶装置33に記憶されたパラメータを用いて、ステップS16で生成した特徴量から識別単位の行動ラベルを予測する。すなわち、^a(^はaの上に付く)=argmaxP(a|d)を得る。
そして、三次元映像データ取得部18は、処理の終了判定を行う(ステップS18)。次の入力画像があれば、ステップS11へ戻って処理を続ける。次の入力画像がない場合、処理を終了する。
なお、前述した説明においては、手の軌跡を検出する例を説明したが、他の部位を認識してその軌跡を検出するようにしてもよい。
以上説明したように、ステレオカメラ等で撮影した映像から当該映像に映っている撮影対象者の行動・状況を認識する際に、三次元空間での手の動きを追跡し識別単位とするフレームの数を動的に決定することにより、行動・状況の認識精度を向上させることができる。
前述した実施形態における学習部1及び認識部2をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。
三次元上の動きの軌跡に基づき認識処理に用いるフレームの数を行動に合わせて動的に決定することでより頑健な行動認識を行うことが不可欠な用途に適用できる。
1・・・学習部、2・・・認識部、11・・・三次元データ読込部、12・・・軌跡検出部、13・・・動的特徴量抽出部、14・・・フレーム分割部、15・・・静的特徴量抽出部、16・・・特徴量生成部、17・・・識別器学習部、18・・・三次元データ取得部、19・・・軌跡検出部、20・・・動的特徴量抽出部、21・・・フレーム分割点検出部、22・・・静的特徴量抽出部、23・・・静的特徴量抽出部、24・・・行動認識部、31・・・三次元映像・ラベルデータ記憶装置、32・・・動的特徴量記憶装置、33・・・識別器パラメータ記憶装置
Claims (4)
- 学習データとして入力された行動ラベル付き三次元映像データに含まれる撮影対象者の行動を識別するための行動識別器を生成する行動識別器生成装置であって、
行動ラベル付きの三次元映像データを読み込む三次元データ読込手段と、
前記三次元映像データから前記撮影対象者の所定の部位の軌跡を検出する軌跡検出手段と、
検出した前記部位の軌跡から動的特徴量を抽出する動的特徴量抽出手段と、
前記動的特徴量を用いて識別単位に前記三次元映像を構成するフレームを分割するフレーム分割手段と、
前記識別単位毎に静的特徴量を抽出する静的特徴量抽出手段と、
前記動的特徴量と前記静的特徴量とから特徴ベクトルを生成する特徴量生成手段と、
前記撮影対象者の行動を識別する識別器を学習して識別器パラメータを出力する識別器学習手段と
を備えることを特徴とする行動識別器生成装置。 - 請求項1に記載の行動識別器生成装置によって出力された識別器パラメータを用いて、三次元映像データに含まれる撮影対象者の行動を認識する行動認識装置であって、
前記三次元映像データを取得する三次元映像データ取得手段と、
前記三次元映像データから前記撮影対象者の所定の部位の軌跡を検出する軌跡検出手段と、
検出した前記部位の軌跡から動的特徴量を抽出する動的特徴量抽出手段と、
前記動的特徴量を用いて三次元映像データを構成するフレームの識別単位の境界となるフレーム分割点を検出するフレーム分割点検出手段と、
前記フレーム分割点で区切られる複数フレームから構成される識別単位毎に静的特徴量を抽出する静的特徴量抽出手段と、
前記動的特徴量と前記静的特徴量とから特徴ベクトルを生成する特徴量生成手段と、
前記特徴ベクトルと、前記識別器パラメータを用いて前記撮影対象者の行動を認識する行動認識手段と
を備えることを特徴とする行動認識装置。 - コンピュータを、請求項1に記載の行動識別器生成装置として機能させるためのプログラム。
- コンピュータを、請求項2に記載の行動認識装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014032222A JP2015158745A (ja) | 2014-02-21 | 2014-02-21 | 行動識別器生成装置、行動認識装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014032222A JP2015158745A (ja) | 2014-02-21 | 2014-02-21 | 行動識別器生成装置、行動認識装置及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015158745A true JP2015158745A (ja) | 2015-09-03 |
Family
ID=54182704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014032222A Pending JP2015158745A (ja) | 2014-02-21 | 2014-02-21 | 行動識別器生成装置、行動認識装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015158745A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018507448A (ja) * | 2015-12-31 | 2018-03-15 | 禾視控股(北京)有限公司 | スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイス |
CN113271848A (zh) * | 2019-02-05 | 2021-08-17 | 株式会社日立制作所 | 身体健康状态影像分析装置、方法以及系统 |
-
2014
- 2014-02-21 JP JP2014032222A patent/JP2015158745A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018507448A (ja) * | 2015-12-31 | 2018-03-15 | 禾視控股(北京)有限公司 | スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイス |
CN113271848A (zh) * | 2019-02-05 | 2021-08-17 | 株式会社日立制作所 | 身体健康状态影像分析装置、方法以及系统 |
CN113271848B (zh) * | 2019-02-05 | 2024-01-02 | 株式会社日立制作所 | 身体健康状态影像分析装置、方法以及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7317919B2 (ja) | 外観検索のシステムおよび方法 | |
US20230117712A1 (en) | Feature density object classification, systems and methods | |
JP4642128B2 (ja) | 画像処理方法、画像処理装置及びシステム | |
JP6332937B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6351243B2 (ja) | 画像処理装置、画像処理方法 | |
JP2019057815A (ja) | 監視システム | |
US20220147735A1 (en) | Face-aware person re-identification system | |
JP6071002B2 (ja) | 信頼度取得装置、信頼度取得方法および信頼度取得プログラム | |
JP6410450B2 (ja) | オブジェクト識別装置、オブジェクト識別方法及びプログラム | |
JP2010108494A (ja) | 画像内の顔の特性を判断する方法及びシステム | |
WO2020195732A1 (ja) | 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体 | |
JP5879188B2 (ja) | 顔表情解析装置および顔表情解析プログラム | |
JP6103765B2 (ja) | 行動認識装置、方法及びプログラム並びに認識器構築装置 | |
EP2998928A1 (en) | Apparatus and method for extracting high watermark image from continuously photographed images | |
JP2015158745A (ja) | 行動識別器生成装置、行動認識装置及びプログラム | |
KR101521136B1 (ko) | 얼굴 인식 방법 및 얼굴 인식 장치 | |
Srivastava et al. | Face Verification System with Liveness Detection | |
Singh et al. | Generic action recognition from egocentric videos | |
JP2019106089A (ja) | 情報処理装置、情報処理方法、コンピュータプログラム | |
CA3057931A1 (en) | Method to identify and see a person in a public security camera feed without been able to see the rest of the people or tags | |
Noceti et al. | A spectral graph kernel and its application to collective activities classification |