JP2012053756A - 画像処理装置及び画像処理方法 - Google Patents
画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- JP2012053756A JP2012053756A JP2010196872A JP2010196872A JP2012053756A JP 2012053756 A JP2012053756 A JP 2012053756A JP 2010196872 A JP2010196872 A JP 2010196872A JP 2010196872 A JP2010196872 A JP 2010196872A JP 2012053756 A JP2012053756 A JP 2012053756A
- Authority
- JP
- Japan
- Prior art keywords
- detection target
- motion information
- detection
- image
- likelihood
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】時系列に連続する複数の静止画像を入力する入力手段と、入力手段で入力された複数の静止画像のうち、一の静止画像から検出対象物の存在確率を表わす検出対象尤度を求める識別手段と、一の静止画像と時系列に連続する他の静止画像とから検出対象物の動き情報が得られる場合には、動き情報が示す動きの検出対象物の動きとしての妥当性を表す重み係数を算出する算出手段と、算出手段で算出された重み係数に基づき、識別手段で求められた検出対象尤度を評価する評価手段と、を有することによって課題を解決する。
【選択図】図1
Description
HOG(Histograms of Oriented Gradients)+AdaBoostによる人体検出手法等、静止画ベースの人体検出技術には多くの手法が提案されている。これらの方法では、形状やテクスチャの特徴のみを用いて検出を行うことになるため、見た目に検出対象と類似している物体や、ある時間に偶然類似した特徴が発生する場合等、ノイズ・偶発的なテクスチャ・物体の配置等で誤認識が発生することは避けられない。しかし、これらの誤検出は動き情報によって回避することができる場合が多い。
動き領域の抽出方法としては、予め準備した背景情報と現フレームとの画像間差分情報から対象領域を抽出する背景差分法、連続フレームからフレーム間の変動成分を抽出するフレーム間差分法等が知られている。また、Lucas−Kanade法やBlock Matching法等を用いたオプティカルフロー法等もよく知られている。
しかし、動き情報の抽出のみでの対象物検出法では、影や照明変動等のノイズ成分や、風に揺れる木立のような背景が変動する場合、カメラ自体の移動によって背景情報が変動する場合等、精度のよい検出が困難な状況がある。
したがって、動き情報により事前に興味領域(ROI)を限定し、ROIに対してテンプレートマッチング等の処理を行うことで対象物を検出する手法が開示されている。
例えば、特許文献1では背景差分により抽出した画像領域に対して楕円を当てはめることで人物頭部を検出している。このような従来技術では、動き領域の抽出とテンプレートマッチングとを実行することで対象物の検出精度を向上させている。
また、動きの特徴量化によって人物を検出する例としては、特許文献2及び特許文献3がある。
背景差分法を用いることで静止している検出対象を抽出することも可能だが、精度のよい検出を行うためには背景情報を逐次的に更新する仕組みが必要となり、検出対象が一定時間静止した場合に検出対象が背景情報に取り込まれて検出不可能となる問題がある。
更に、特許文献2では歩行中の転倒、特許文献3ではエレベータ内での異常行動等、特定の行動のみを選出することを目的としており、特定行動以外の動きを検出することが不可能である。
また、屋外で背後に自動車が走行する状況下等検出対象以外の動きが存在する場合等、動き情報から人物を検出することは困難を極める。
以上のように、従来技術では検出対象が動いたり、静止したりする可能性がある環境下において、動き情報を有効に活用する検出手法が無かった。
例えば、一般生活環境下における人物検出では人物が動かない状況が多く、動き情報から検出する手法のみでは人物を検出できない、若しくは動き情報によって検出精度が低下する状況が頻発する。
しかし、画像中の人体を検出するシステムにおいては、静止画ベースの形状情報のみでなく、動き情報を用いることで検出精度が向上することは明らかである。
静止画ベースでの検出のみでは、誤検出若しくは未検出の問題が発生することは避けられず、動き情報を用いることで除去する検出手法の要望がある。
(構成概要)
以下、人物を検出対象物として実施形態を説明する。人物は動物体であるため、検出に動き情報を利用することは有効である。しかし、人物は常に動いているとは限らない。
以下の実施形態で示す技術は、動き情報が存在しない場合には、画像特徴を用いた検出の成果を尊重し、動き情報が存在する場合には検出対象の動きとして妥当な動き情報かを評価する。このことで誤検出・未検出を防ぎ、動き情報を検出に利用する構成を提供するものである。
撮像装置101は、時系列に沿った連続画像を取得する撮影装置で、カメラやビデオカメラ等連続で画像を取得可能な装置で構成されている。
撮像装置101は固定配置されたカメラを想定しているが、例えばオプティカルフロー等から人物の動き情報を分離可能な部であれば固定配置に限定したものは無く、移動するカメラでも使用することができる。
画像入力部102は、撮像装置101で取得した連続画像200から時刻tにおいて移動している人物が撮影されている静止画像210を取得(又は入力)する。
また、画像入力部102は、フレームバッファ103に、撮像装置101から取得した時刻t−1の静止画像220を予め取得しておく。
時刻tにおける静止画像210には、男性211及び213と女性212とが写っており、本実施形態ではこの3名を検出対象物とする。
フレームバッファ103に格納された時刻t−1における静止画像220には、時刻tにおける静止画像210に近接した一定時間前の画像が格納されている。静止画像220には、時刻tの静止画像210と比較して移動していない男性213及び移動している男性221と女性222が写っている。
ここで、図を分かりやすくするために、時刻tにおける静止画像210に時刻t−1における男性211の位置を221'として、女性212の位置を222'として示すが、実際の静止画像210には221'及び222'の映像は写っていない。
これによって男性211は、近接した一定時間の間に221から211へ、女性212は、222から221へ画像中を移動し、男性213は移動していないことがわかる。
候補領域設定部104は、時刻tにおける静止画像210から検出対象となる人物3人を検出するための特徴量を抽出する。
特徴量を抽出する方法として、候補領域設定部104は、輝度勾配ベースの特徴を算出し、予め準備したテンプレート(学習辞書)により認識処理を行う方法を採用する。
本実施形態では、HOG特徴量を用いて候補領域設定部104が時刻tにおける静止画像210中から候補領域141を算出する手法として、Latent SVM(参考文献)による検出手法を例として説明する。
<参考文献>
Felzenszwalb、 P. McAllester、 D. Ramanan、 D. "A Discriminatively Trained、 Multiscale、 Deformable Part Model"、 Computer Vision and Pattern Recognition、 2008. CVPR 2008. IEEE Conference on Publication Date: 23−28 June 2008
Latent SVMでは、学習時に人物全体領域である候補領域141に相当する領域を教師データとして、領域中から6個のパーツを抽出するよう設定して学習を行う。
本実施形態では、その結果として図4に示す6個のパーツ310〜315を抽出することができたものとする。
学習時には各パーツがルートフィルタ300に対して移動(変形)することを許可することで、変形や個体差を考慮した学習を行うことができる。
候補領域設定部104は、この尤度マップから仮定したルートフィルタ300に対して次式(1)のエネルギー関数Eから、静止画像210中で最も各パーツ尤度が大きく、変形コストの少ないパーツ位置の組み合わせを選択する。
候補領域設定部104は、結果として算出されたエネルギーEをルートフィルタ300の検出対象尤度142、ルートフィルタ300の位置及び形状を候補領域141とする。
また、候補領域設定部104は、検出対象尤度142を決定するために使用した各パーツ310〜315の位置、形状、及び部分領域尤度を部分領域情報143として設定することで、検出対象候補領域を設定する。
本実施形態では、候補領域を設定する手法として、latent SVMを用いたが、これに限定するものではなく、候補領域を設定する手法として部分領域を用いて検出するものであれば他の手法を用いてもよい。
例えば、BoW(Bag of Words)でも、HOG+AdaBoostによる検出手法でも、画像中から候補領域の部分領域を設定し、部分領域ごとに比較を行う手法であれば、どのような手法を用いてもよい。
本実施形態では、動き情報算出部105は、静止画像210及び220の差分を取ることで、画像間で変化している領域を抽出するフレーム間差分法を用いる。このことで、動き情報算出部105は、検出対象が移動している物体のエッジ領域での動きを示す動き情報を算出する。
当然、動き情報はこれに限定するものではなく、背景差分法やオプティカルフロー等時間軸方向で変化する情報を記述する方法であれば、他の手法を用いてもよい。
テンプレート作成部106は、動き情報算出部105において、フレーム間差分を用いる場合にその値がエッジの動きを示すことから、テンプレートとしてAverage Gradientを採用する。
候補領域設定部104が大量の学習用データを用いて学習する際に使用された静止画像群に対して正規化したルートフィルタ300内の画像情報に対してaverage Gradientを算出することで、検出対象のエッジ存在確率分布を取得する。
ここで、本実施形態ではテンプレートをAverage Gradientから作成した。しかし、これに限定するものではなく、動き情報を適切に表現する方法であれば、他の方法を用いてもよい。
テンプレート取得部107は、候補領域設定部104で算出された候補領域141、及び部分領域情報143を用いて、テンプレート作成部106で作成されたテンプレート630を変形する。
候補領域設定部104の出力する候補領域141は、画像中の検出対象の大きさに依存して変形する。そこでテンプレート取得部107は、候補領域141の形状変化に従い、テンプレートを変形する。
重み係数算出部111は、部分領域動き情報取得部108からの部分動き情報と、部分テンプレート取得部109からの部分テンプレートと、を基にテンプレートマッチングを行う。
重み係数算出部111は、部分領域情報143内でのフレーム間差分によるエッジ成分の動き情報と、テンプレート内のエッジの存在確率情報とから、部分領域内の部分動き情報がテンプレートに含まれる検出対象のエッジに由来するものかどうかを比較する。そして、重み係数算出部111は、部分領域尤度を更新することで、重み付き部分領域尤度を算出する。重み付き部分領域尤度は、動き情報が示す動きが検出対象物の動きとして妥当性があるか否かを表す重み係数の一例である。
こうすることで、画像中で動いている領域が検出対象の動きに由来する場合には高い重みを持ち、動いていたとしても検出対象の動きに由来する成分が少ない場合に重みが低くなる。
検出対象尤度再評価部112は、重み付き部分領域尤度から候補領域設定部104にて算出された検出対象尤度142を再評価し、動きによって再評価された候補領域を出力する。検出対象尤度再評価部112は、評価手段の一例である。
表示装置113では、この結果(再評価された候補領域)を表示することで使用者に検出結果を提示する。
以下では図5、6、7を参照し、本実施形態における動作概要と効果とについて、図3の時刻tにおける静止画像210及び時刻t−1における静止画像220から、検出対象である人物211〜213を検出する例を用いて説明する。
図5は、候補領域設定部104によって、出力された候補領域141、及び検出対象尤度142の一例を示す図である。
候補領域設定部104によって静止画像210中の人物の候補領域411〜417が検出されたものとする。
また、それぞれの人物の候補領域411〜417に対応する検出対象尤度411L〜417Lが出力されたものとする。
候補領域設定部104では、閾値450を用いて人物の候補領域411〜417から以下の4領域を設定したものとする。
検出対象尤度411L、414Lから、人物211の候補領域411、414が検出されている。
検出対象尤度412Lは、人物212の候補領域ではあるが、閾値未満のため未検出となっている。
検出対象尤度413Lから、人物213の候補領域413が検出されている。
また誤検出として、検出対象尤度415Lから候補領域415が検出され、検出対象尤度416L、417Lは、閾値450未満のため誤検出を除去できているものとする。
以上より、静止画像ベースの人物検出では人物211の結果から2名分、人物212は未検出で、人物213として一人分検出されている状態となっている。画像処理装置100は、この結果を踏まえて、動き情報を用いて再評価を行う。
候補領域設定部104は、候補領域411の部分領域510〜515の情報、候補領域414の部分領域520〜525の情報、をそれぞれ出力する。
図7は、動き情報算出部105によって作成されたフレーム間差分処理による時刻t−1、時刻t間の動き情報610と、テンプレート作成部106によって作成されたテンプレート630と、の一例を示す図である。
ここで領域611、612、613は、それぞれ人物211、212、213に対応した動き情報を示す。図7より人物213は、このフレーム間でほとんど動いていないため、動き情報はほとんど存在しないことが分かる。
動き情報算出部105において取得するフレーム間差分法による動き情報は、エッジ領域の動き情報を表現している。
そこで、テンプレート作成部106では、ルートフィルタ内における検出対象のエッジ領域の存在確率を示すために、複数の検出対象画像からAverage Gradient(以下、AGという)を算出し、テンプレートとする。
テンプレート作成部106は、テンプレートの作成においては、学習時に算出した各パーツ310〜315に対して、各パーツの重心点が基準点となるよう各画像データ群を位置合わせして加算平均することによって、部分領域ごとに異なるAGを算出する。
これは、頭部のパーツ310の重心点を原点として加算平均を行う場合、足先付近の315部分ではばらつきが大きくなり、AGの存在確率が拡散するためである。したがって、テンプレート作成部106は、パーツごとにパーツに着目したテンプレートを作成する。図7の(b)で示される640は、頭部部分領域に対応したテンプレート(頭部部分領域テンプレート)である。
本実施形態では、テンプレート630を学習に使用した画像データ群から生成したが、これに限定するものではなく、テンプレート内の動き情報の特徴を示す情報であれば、画像中のHOG特徴量の統計情報を用いてもよい。又は、動き情報に領域の動きを反映したオプティカルフローと、実画像の平均値をGraph−Cut法等のセグメンテーション手法とを用いて領域抽出したテンプレートを用いるようにしてもよい。また、背景差分法を用いたテンプレートを組み合わせて、領域ベースの動き情報テンプレート等、エッジに限らず再評価に有効なテンプレートを使用してもよい。
以上の結果から、候補領域設定部104において算出された検出対象尤度142を、候補領域411の動き情報に基づいて再評価を行う処理の一例を示す。
部分領域選出部110では、部分領域尤度を用いて候補領域検出時に貢献度の高い部分領域と、頭部部分領域等予め信頼性が高いと思われる領域と、を優先的に設定する。
これは、貢献度の高いパーツで比較することで、隠蔽等の影響を除去するためである。ここでは、高貢献度領域として頭部部分領域510が選出されたものとする。
なお、本実施形態では、部分領域選出部110にて単一の部分領域を選出したが、これに限定するものではなく、複数の部分領域を選出(又は抽出)してもよい。
また、部分領域選出部110で高尤度の部分領域を抽出したが、これに限定するものではなく、閾値付近等、誤検出を除去するに適した尤度領域を設定してもよい。また、部分領域選出部110は、部分領域の位置情報のみから部分領域を選出する等してもよい。
部分領域動き情報取得部108は、候補領域411中の頭部部分領域510の情報を基に、動き情報算出部105の出力する動き情報610から頭部部分領域の動き情報621を抽出する。
部分テンプレート取得部109は、部分領域選出部110から選出された頭部部分領域510に対して、テンプレート630から頭部部分領域テンプレート640を抽出する。
式3のAEREAheadは、テンプレート640上の各位置におけるエッジの存在確率に、頭部部分領域の動き情報621を0.0〜1.0に正規化した係数をかけることで、テンプレート640の頭部由来のエッジがどの程度実際に動いているかを表す。
重み係数算出部111は、式4を用いて動きによる重み係数:wheadを算出する。
ここで、重み係数:Wheadは、頭部部分領域510内の動き情報621が頭部部分領域テンプレート640のエッジ存在確率と一致するほど大きな値となり、ほとんど一致しない場合、若しくは動き成分が存在しない場合、ほぼ1.0となる。
図8は、検出対象尤度を再評価する処理について説明するための図である。
検出対象尤度再評価部112は、重み係数wheadを基に検出対象尤度411Lを711Lに変更する。この操作によって候補領域411の尤度は上昇し、再評価時に閾値750によって、再評価した場合にもその閾値を超える尤度を持つため、人物211の検出結果として出力する。
画像処理装置100は、候補領域411の場合と同様の処理によって、候補領域412についての再評価を行う。その結果、検出対象尤度412が712Lに上昇し、閾値750を超える尤度を得ることによって、候補領域設定部104では検出不可能であった人物212を検出することができる。
(人物213の検出)
動いていない人物213の場合、候補領域413に対応する動き領域613はほぼゼロとなり、動き情報による再評価の成果が期待できない。しかし、検出対象尤度413Lが大きく、検出対象としての尤度が高ければ、再評価後検出尤度713Lはほぼ同値となるが閾値750を超えるため、検出される可能性が高い。
図7の頭部部分領域631に示すように、部分領域選出部110から選出された頭部部分領域520は、候補領域414の大きさの影響を受けて、大きい領域が確保される。
重み係数算出部111は、頭部部分領域631と頭部部分領域テンプレート640とから、重み係数wheadを算出すると、候補領域411と比較して、小さい重み係数wheadとなる。したがって、再評価後の検出対象尤度714Lは、閾値750を超えない可能性が増え、誤検出として除去される可能性が高まる。
(候補領域415の再評価)
重み係数算出部111は、部分領域選出部110から選出された頭部部分領域520から、候補領域415の頭部部分領域622に対して重み係数wheadを算出する。すると、頭部部分領域テンプレート640と一致する領域が少ないため、ほぼ1.0となり、動きによる尤度向上はほとんど見られない。
閾値付近でぎりぎり検出された候補領域415は、設定した閾値750が閾値450より高い場合、相対的に動いていない物体の検出対象尤度が低下し、除去される可能性が高まる。
以上説明したように、画像処理装置100によれば、動体である対象物が静止する可能性がある場合や、検出対象尤度が閾値未満でも、動き情報を用いて再評価することで、検出対象尤度を向上したり、誤検出した検出対象を除去したりすることができるようになる。
実施形態1では、候補領域設定部104によって検出された静止画での候補領域の検出結果を基に、検出対象尤度再評価部112において動き情報を用いた静止画ベースの検出対象尤度142を再評価する実施形態について説明した。
実施形態2では、候補領域設定部104内(識別手段内)に検出対象尤度再評価部112を内包する構成として、HOG+AdaBoostによる人物検出手法を用いて説明する。
図9は、実施形態2の画像処理装置100の機能構成等の一例を示す図である。
HOG+AdaBoostによる検出器804では、画像入力部102で取得した静止画像中にスライディングウィンドウ等、適切な方法を用いて候補領域141を仮定する。
HOG特徴量算出部811〜813は、候補領域141をセル、ブロック単位に分割し、各ブロックにおけるHOG特徴量を算出する。
各HOG特徴量算出部811〜813からのHOG特徴量を弱識別器821〜823にかけることによって、静止画像ベースでの各HOG特徴量の検出対象尤度142を算出する。
ここで、部分領域選出部110は、上記のHOG特徴量を部分領域とし、部分領域動き情報取得部108へ部分領域情報143として、部分領域を選出する。
ここで、部分領域選出部110は、予め学習用画像を861〜869のように領域分割し、剛体と近似できる領域をそれぞれ分割しておき、その結果を基に同一剛体とみなすことのできる部分領域のセットを作成する。
重み係数算出部111は、部分領域選出部110によって選出された部分領域情報セット内の各部分領域動き情報から、動きベクトルの方向・大きさのコヒーレンシーから各部分領域が同一剛体の動きであるかを評価することで、重み係数を算出する。
以上から算出した重み係数を尤度再評価部831〜833に加えることで、カスケード識別部801でのAdaBoostによる評価を動き情報によって再評価された尤度で行い、検出部802へ出力する。
上記の操作によって、弱識別器によるカスケード識別部に動き情報による再評価を加えた物体認識装置(画像形成装置)を形成することができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (3)
- 時系列に連続する複数の静止画像を入力する入力手段と、
前記入力手段で入力された複数の静止画像のうち、一の静止画像から検出対象物の存在確率を表わす検出対象尤度を求める識別手段と、
前記一の静止画像と時系列に連続する他の静止画像とから検出対象物の動き情報が得られる場合には、前記動き情報が示す動きの前記検出対象物の動きとしての妥当性を表す重み係数を算出する算出手段と、
前記算出手段で算出された重み係数に基づき、前記識別手段で求められた前記検出対象尤度を評価する評価手段と、
を有する画像処理装置。 - 前記識別手段内に前記評価手段を内包する構成とする請求項1記載の画像処理装置。
- 画像処理装置が実行する画像処理方法であって、
時系列に連続する複数の静止画像を入力する入力ステップと、
前記入力ステップで入力された複数の静止画像のうち、一の静止画像から検出対象物の存在確率を表わす検出対象尤度を求める識別ステップと、
前記一の静止画像と時系列に連続する他の静止画像とから検出対象物の動き情報が得られる場合には、前記動き情報が示す動きの前記検出対象物の動きとしての妥当性を表す重み係数を算出する算出ステップと、
前記算出ステップで算出された重み係数に基づき、前記識別ステップで求められた前記検出対象尤度を評価する評価ステップと、
を有する画像処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010196872A JP5675229B2 (ja) | 2010-09-02 | 2010-09-02 | 画像処理装置及び画像処理方法 |
US13/218,813 US8837773B2 (en) | 2010-09-02 | 2011-08-26 | Apparatus which detects moving object from image and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010196872A JP5675229B2 (ja) | 2010-09-02 | 2010-09-02 | 画像処理装置及び画像処理方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2012053756A true JP2012053756A (ja) | 2012-03-15 |
JP2012053756A5 JP2012053756A5 (ja) | 2013-10-17 |
JP5675229B2 JP5675229B2 (ja) | 2015-02-25 |
Family
ID=45770750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010196872A Active JP5675229B2 (ja) | 2010-09-02 | 2010-09-02 | 画像処理装置及び画像処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8837773B2 (ja) |
JP (1) | JP5675229B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019036009A (ja) * | 2017-08-10 | 2019-03-07 | 富士通株式会社 | 制御プログラム、制御方法、及び情報処理装置 |
JP2019036008A (ja) * | 2017-08-10 | 2019-03-07 | 富士通株式会社 | 制御プログラム、制御方法、及び情報処理装置 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013246460A (ja) * | 2012-05-23 | 2013-12-09 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム |
JP5895720B2 (ja) * | 2012-06-06 | 2016-03-30 | 富士通株式会社 | 被写体追跡装置、被写体追跡方法及び被写体追跡用コンピュータプログラム |
US8971575B2 (en) * | 2012-11-23 | 2015-03-03 | Cyberlink Corp. | Systems and methods for tracking objects |
KR101724658B1 (ko) * | 2012-12-21 | 2017-04-10 | 한국전자통신연구원 | 사람 검출 장치 및 방법 |
KR101480348B1 (ko) * | 2013-05-31 | 2015-01-09 | 삼성에스디에스 주식회사 | 사람 검출 장치 및 방법과 사람 계수 장치 및 방법 |
WO2015049826A1 (ja) * | 2013-10-01 | 2015-04-09 | 日本電気株式会社 | 物体検出装置、物体検出方法および学習装置 |
US9836831B1 (en) * | 2014-07-30 | 2017-12-05 | Google Inc. | Simulating long-exposure images |
US10049273B2 (en) | 2015-02-24 | 2018-08-14 | Kabushiki Kaisha Toshiba | Image recognition apparatus, image recognition system, and image recognition method |
EP3416132B1 (en) * | 2016-02-08 | 2021-06-16 | Ricoh Company, Ltd. | Image processing device, object recognition device, device control system, and image processing method and program |
US11107223B2 (en) | 2016-03-31 | 2021-08-31 | Nec Corporation | Image detection device, image detection method and storage medium storing program |
US20180149743A1 (en) * | 2016-11-30 | 2018-05-31 | GM Global Technology Operations LLC | Soft detection of safety zone using automotive radar |
US11205103B2 (en) | 2016-12-09 | 2021-12-21 | The Research Foundation for the State University | Semisupervised autoencoder for sentiment analysis |
CN107609463B (zh) * | 2017-07-20 | 2021-11-23 | 百度在线网络技术(北京)有限公司 | 活体检测方法、装置、设备及存储介质 |
JP6907888B2 (ja) * | 2017-10-30 | 2021-07-21 | 富士通株式会社 | 情報処理システム、情報処理装置および情報処理プログラム |
TWI683276B (zh) * | 2017-11-10 | 2020-01-21 | 太豪生醫股份有限公司 | 病灶偵測裝置及其方法 |
JP7009252B2 (ja) * | 2018-02-20 | 2022-01-25 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP6977624B2 (ja) * | 2018-03-07 | 2021-12-08 | オムロン株式会社 | 物体検出装置、物体検出方法、およびプログラム |
JP6683280B1 (ja) | 2018-10-19 | 2020-04-15 | ソニー株式会社 | センサ装置、信号処理方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4368767B2 (ja) | 2004-09-08 | 2009-11-18 | 独立行政法人産業技術総合研究所 | 異常動作検出装置および異常動作検出方法 |
JP3962803B2 (ja) | 2005-12-16 | 2007-08-22 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 頭部検出装置、頭部検出方法および頭部検出プログラム |
JP4822280B2 (ja) | 2007-03-12 | 2011-11-24 | 三菱電機株式会社 | 移動体行動解析装置 |
-
2010
- 2010-09-02 JP JP2010196872A patent/JP5675229B2/ja active Active
-
2011
- 2011-08-26 US US13/218,813 patent/US8837773B2/en active Active
Non-Patent Citations (3)
Title |
---|
CSNG201000239045; 竹内章浩 外1名: '可変モデルとパーティクルフィルタによる車両追跡' 電子情報通信学会技術研究報告 ITS2009-37-ITS2009-84 第109巻 第414号, 20100208, 第269〜274頁, 社団法人電子情報通信学会 * |
JPN6014020593; 竹内章浩 外1名: '可変モデルとパーティクルフィルタによる車両追跡' 電子情報通信学会技術研究報告 ITS2009-37-ITS2009-84 第109巻 第414号, 20100208, 第269〜274頁, 社団法人電子情報通信学会 * |
JPN6014020595; Ying Zhu et al.: 'An integrated framework of vision-based vehicle detection with knowledge fusion' 2005 IEEE Intelligent Vehicles Symposium , 200506, pp.199-204 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019036009A (ja) * | 2017-08-10 | 2019-03-07 | 富士通株式会社 | 制御プログラム、制御方法、及び情報処理装置 |
JP2019036008A (ja) * | 2017-08-10 | 2019-03-07 | 富士通株式会社 | 制御プログラム、制御方法、及び情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
US20120057748A1 (en) | 2012-03-08 |
US8837773B2 (en) | 2014-09-16 |
JP5675229B2 (ja) | 2015-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5675229B2 (ja) | 画像処理装置及び画像処理方法 | |
EP3092619B1 (en) | Information processing apparatus and information processing method | |
JP4216668B2 (ja) | 映像視覚情報を結合してリアルタイムで複数の顔を検出して追跡する顔検出・追跡システム及びその方法 | |
US20180341803A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP6482195B2 (ja) | 画像認識装置、画像認識方法及びプログラム | |
KR101198322B1 (ko) | 얼굴 표정 인식 방법 및 시스템 | |
US9639748B2 (en) | Method for detecting persons using 1D depths and 2D texture | |
CN103942577A (zh) | 视频监控中基于自建立样本库及混合特征的身份识别方法 | |
JP2010176380A (ja) | 情報処理装置および方法、プログラム、並びに記録媒体 | |
JP2016095808A (ja) | 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム | |
JP2017016593A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
Elmezain et al. | Hand trajectory-based gesture spotting and recognition using HMM | |
CN108985204A (zh) | 行人检测跟踪方法及装置 | |
KR101449744B1 (ko) | 영역 기반 특징을 이용한 얼굴 검출 장치 및 방법 | |
KR100988326B1 (ko) | 사용자 맞춤형 표정 인식 방법 및 장치 | |
Yang et al. | Single shot multibox detector with kalman filter for online pedestrian detection in video | |
US20220366570A1 (en) | Object tracking device and object tracking method | |
CN108710879B (zh) | 一种基于网格聚类算法的行人候选区域生成方法 | |
Sehgal | Human activity recognition using BPNN classifier on HOG features | |
WO2013075295A1 (zh) | 低分辨率视频的服装识别方法及系统 | |
Zhao et al. | Human action recognition based on non-linear SVM decision tree | |
US20200034649A1 (en) | Object tracking system, intelligent imaging device, object feature extraction device, and object feature extraction method | |
CN103577804A (zh) | 基于sift流和隐条件随机场的人群异常行为识别方法 | |
KR101542206B1 (ko) | 코아스-파인 기법을 이용한 객체 추출과 추적 장치 및 방법 | |
Jindal et al. | Sign Language Detection using Convolutional Neural Network (CNN) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130902 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140520 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141224 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5675229 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |