JP2016057998A - 物体識別方法 - Google Patents

物体識別方法 Download PDF

Info

Publication number
JP2016057998A
JP2016057998A JP2014185852A JP2014185852A JP2016057998A JP 2016057998 A JP2016057998 A JP 2016057998A JP 2014185852 A JP2014185852 A JP 2014185852A JP 2014185852 A JP2014185852 A JP 2014185852A JP 2016057998 A JP2016057998 A JP 2016057998A
Authority
JP
Japan
Prior art keywords
flow line
image
attribute
moving
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014185852A
Other languages
English (en)
Other versions
JP6526953B2 (ja
Inventor
未来 樋口
Miki Higuchi
未来 樋口
都 堀田
Miyako Hotta
都 堀田
三好 雅則
Masanori Miyoshi
雅則 三好
伊藤 光恵
Mitsue Ito
光恵 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2014185852A priority Critical patent/JP6526953B2/ja
Publication of JP2016057998A publication Critical patent/JP2016057998A/ja
Application granted granted Critical
Publication of JP6526953B2 publication Critical patent/JP6526953B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】
動画像中から移動物体を検出し、さらに移動物体の種別、属性を高精度に識別可能な物体識別方法を提供すること。
【解決手段】
動画像中から移動している物体を検出し、検出した物体の動線を求め、求めた動線の形状を解析することで物体の種別または物体の属性を識別することを特徴とする物体識別装置であって、動線の形状の解析結果を用いて物体の種別または物体の属性を高精度に識別する。
【選択図】 図1

Description

物体を検出し、その種別を識別する装置、および当該装置を用いた方法に関する。
近年、犯罪防止や犯罪捜査の支援を目的とした監視カメラや、運転支援を目的とした車載カメラなどが開発され普及しつつある。従来、監視カメラでは、膨大な映像を人の目視により確認することで犯罪の瞬間や犯人が映っているシーンを見つけていた。人の目視による確認の労力を低減するために、撮像、録画した画像を警察官、警備員、ユーザに見せるだけでなく、画像処理により移動物体を自動的に検出する機能が搭載されてきている。
画像中から人を自動的に検出する技術としては、特許文献1に記載された方法が提案されている。これは、過去の画像と現在の画像の差分から移動物体の領域を検出し、移動物体を追跡することで、風で揺れている草木等を除去し、連続的に移動する人のみを検出するものである。
特開2002−157599号公報
しかしながら、特許文献1に記載された手法によれば、風で揺れている草木のように大きく移動しない物体を人として検出してしまう誤検出を防止することはできるが、人と二輪車のように連続的に移動する物体の種別を識別することはできないといった問題がある。
前記課題を解決するための一態様として、本発明に係る物体識別装置は主として、動画像中から移動している物体を検出する物体検出部と、物体検出部により検出した物体の動線を求める動線算出部と、動線算出部で求めた動線の形状を解析することで物体の種別を識別または物体の属性を識別する物体識別部とを具備することを特徴とする。
上記一態様によれば、移動物体を検出することに加え、移動物体の種別、属性を識別可能な装置、および当該装置を用いた方法を提供できるので、犯罪防止や犯罪捜査の支援を目的とした監視カメラで物体の種別を識別し、特定の物体が映っている映像のみをユーザに提示することにより、人の目視確認に必要な時間をさらに削減することができる。
本実施の形態に係る物体識別装置の基本構成の例を示す図である。 本実施の形態に係る動線算出結果の例を示す図である。 本実施の形態に係る動線算出結果の他の例を示す図である。 本実施の形態に係る動線算出結果の他を示す図である。 本実施の形態に係る動線算出結果の他の例を示す図である。 本実施の形態に係る物体識別装置を適用した画像処理装置の基本構成の例を示す図である。 本実施の形態に係る物体識別装置を適用した画像処理システムの構成の例を示す図である。 本実施の形態に係る物体識別装置を適用した画像記憶システムの構成の例を示す図である。 本実施の形態に係る物体識別装置を適用した画像検索システムの構成の例を示す図である。 本実施の形態に係る物体識別装置を適用した画像処理装置の構成の他の例を示す図である。 本実施の形態に係る物体識別装置の全体の処理フローの例を示す図である。 本実施の形態に係る動線算出部の処理フローの例を示す図である。 本実施の形態に係るステレオカメラの3次元計測の原理を説明する図である。 本実施の形態に係る物体識別部の処理フローの例を示す図である。 本実施の形態に係る物体のラベリングと外接矩形の例を示す図である。 本実施の形態に係る特徴量を利用した人物判定の例を説明する図である。
以下、図面を参照して、本実施の形態について説明する。
(第1の実施の形態)
図1は、第1の実施の形態における物体識別装置の基本構成の例を示したブロック図である。詳細は後述する。
第1の実施の形態は、撮像装置であるカメラから取り込んだ画像を処理し、画像に映っている物体を検出するとともに、物体の種別を識別する物体識別装置、および当該装置を適用した画像処理装置について説明する。
まず、図6を用いて、本実施の形態に係る画像処理装置について説明する。
本実施の形態に係る物体識別装置1は、図6に示すような画像処理装置41において、例えばCPU6またはこれに相当するユニットに適用されて、画像処理装置41が備えるカメラ4(撮像装置)により撮像された周囲の環境の画像を取り込み、取り込んだ画像を処理して物体を検出する機能を実現することができる。
この画像処理装置41は、図6に示す通り撮像素子であるカメラ4と、このカメラ4にて撮像した画像を処理するための処理手段であるCPU6、CPU6用の記録手段であるメモリ9、プログラムやデータの記録手段であるROM7と、前記カメラ4を制御するとともに画像を取り込む画像入力手段5で構成され、これらがバス11で接続されている。
本画像処理装置41のカメラ4は、例えばCCDやCMOS撮像素子を搭載する。画像入力手段5は、カメラ4で撮像した画像をメモリ9に格納し、ROM7に保存されているプログラムおよびデータをもとにCPU6が画像を処理する。処理結果はI/F14に接続されているモニタ16に表示する、物体が検出された場合にスピーカ17から警告音を発する等によりユーザに物体が検出さらた旨を通知する。入力機器15は、画像処理装置41の設定等を変更するためのもである。ただし、この構成は必須な要件ではなく、CPU6に加え、さらに画像処理LSIを搭載して処理の一部を専用のLSIで処理する構成や、1つのメモリのみでなくを画像処理LSI用のRAMなど複数のメモリを用いる構成でも良い。あるいはROM7の代わりに図示しないハードディスク等の記憶装置であっても良い。
また図7に示すようにカメラユニット42と処理ユニット43から構成されても良い。この場合は、カメラユニット42は、I/F12から画像および処理に必要なカメラのシャッタースピード、ゲイン、焦点距離等の情報を、データ伝送手段3を介し、I/F13を通して処理ユニットと通信する。さらに図8に示す通り、記録装置31をさらに具備することで長時間の画像を保存する画像記録システム45を構成することもできる。そして、図9のように記録装置31をコンピュータ等にUSB等のI/F18に接続し、録画した画像を処理して物体の種別、属性を識別し、自動的に特定の種別、属性の物体が映っている画像を検索する画像検索システム44の構成であっても良い。
次に、図1に示すの物体識別装置の構成を例に説明する。物体識別装置1は、主として、図6において上述した画像処理装置41のCPU6がプログラムを実行し、カメラ4から取得した動画像を処理して移動している物体を検出する物体検出部20と、検出した物体の移動軌跡である動線算出部21と、動線の形状を解析して物体の種別あるいは属性を識別する物体識別部22から構成される。
物体検出部20は、公知の背景差分やフレーム間差分等により移動している物体を検出する機能を有する。
動線算出部21は、物体領域の重心の系列を動線として算出する、物体領領域中の特徴点を追跡処理により撮像タイミングの異なる画像間で対応付けることで動線を求める機能を有する。
物体識別部22は、動線の周波数、振幅、動線を構成する個々の線分のばらつき、平均移動方向と動線を構成する個々の線分の成す角度、動線を構成する線分の系列等から物体の種別を識別する機能を有する。
本実施の形態に係る物体識別装置の全体の処理を図11に示すフローチャートに沿って説明する。まず、過去画像の作成、動線情報のクリア等の初期化を行う(ステップ101)。ステップ102は、連続して稼働している途中に、照明条件が大きく変化した、カメラの設置位置・角度が変化した場合等に初期化タイミングか否かを判定(ステップ102)し、初期化タイミングであれば(ステップ103)システムの起動直後以外でも初期化処理を実行する(ステップ111)。そしてステップ112では、過去画像(例えば時刻t−1)と現在(時刻t)の画像の差分により移動している物体を検出する。ステップ113では、時刻t−1の画像中から公知のHarris検出器、Susan検出器等により上下方向、左右方向ともに輝度変化のあるコーナーを特徴点として検出する。あるいは、頭部等を検出して、検出した頭部領域の中心等を特徴点としても良い。もちろん頭部以外に、動体、腕、足等でも良い。このとき時刻t−1で追跡が成功している場合は追跡により求めた点をそのまま用い、追跡に失敗した場合は今まで追跡していた特徴点を除去して、新たに検出した特徴点を追跡する点として追加する。
次に、時刻t−1の画像の特徴点から、時刻tの画像上の特徴点の座標を求める。この処理を逐次繰り返すことで、図2に示すように人が歩いてきた動線、二輪が移動してきた動線を求めることができる(ステップ114)。そして、求めた動線の長さを閾値と比較し、となり、動線の長さが十分か否かを判定し(ステップ120)、この長さが十分であると判定されればステップ115に移行する。
ステップ115では、動線の形状を解析し、動線の振幅、周波数、動線の平均方向と動線を構成する各線分のばらつき、動線の平均方向と動線を構成する各線分の成す角度の少なくともいずれか一つを特徴量として求める。
ステップ116では、ステップ115で求めた情報をもとに物体を識別する。例えば、振幅が閾値以上であれば人、閾値未満であれば二輪とする。あるいは、事前に学習させておいた学習結果23を用いて、公知のニューラルネットワーク、SVM(Support Vector Machine)、ランダムフォレスト等の機械学習、判別分析等により識別しても良い。
ステップ117は、過去の識別結果を考慮して物体識別結果が正しいか否かを検証し、識別結果を確定する。そしてステップ118では、物体種別に応じたフラグを設定する。例えば、二輪車の場合はフラグを1に、人の場合はフラグを2にセットする。最後にステップ119は、何フレーム分の動線を算出できているかに基づいて信頼度を求める。例えば、100フレーム分以上の動線が求められている場合は信頼度を100、1フレーム分の動線のみしか求められていない場合は信頼度を1とする。もちろん、指数関数、対数、多項式等を用いて信頼度を算出する構成や、ルックアップテーブルにより動線の長さから信頼度に変換する構成でも良い。
ステップ114の動線算出の処理フローについて、図12を用いて詳細に説明する。本処理フローは、図1に示した物体識別装置1のうち、動線算出部21が実行する。まず、物体がカメラ4の視野内から外れた場合等の初期化タイミングか否かを判定する(ステップ120)。初期化タイミングであれば(121)、ステップ126により過去の追跡情報をクリアしし、ステップ127で動線を求める対象の物体が存在する場合は新しい特徴点を登録する。ステップ122は、公知のSSD(Sum of Squared Difference)、SAD(Sum of Abusolute Difference)、NCC(Normalized Cross−Correlation)、勾配法(Lucas−Kanade法)等により、時刻t−1の特徴点の座標と時刻tの特徴点の座標の対応関係を求める。ここでは、勾配法を用いた特徴点の追跡(オプティカルフロー)について述べる。画像中の画素p=(x, y)の画素の時刻tにおける輝度を、I(x, y, t)とする。この画素が時刻t+Δtに座標(x+Δx, y+Δy)に移動したとする。画像の画素の値が移動後も変わらないとすると、式(1)が成り立つ。
右辺をTaylor展開し高次の項を無視すると、式(2)を得る。
両編をΔtで割り、Δt→0とすると、
が得られる。
ただし、
である。
局所領域内の各点の移動量uが等しいと仮定すると、局所領域内で式(3)の関係式が最も当てはまるuを求めればよく、式(5)に示される局所領域Rの各画素の2乗誤差Eを最小とするuを求めればよい。
ステップ123では、特徴点の対応付けに失敗すればステップ126へ、成功すればステップ124に移行し動線の情報を更新する。動線の情報とは、動線が時刻t-Nから時刻tまで求まっているとすると、時刻t-Nから時刻tの特徴点の座標の系列、動線の開始フレームはNフレーム前といった情報である。これを逐次繰り返していくことで動線を求めることができる。
ここで、図11における動線の形状を分析する処理(ステップ115)の一例を、図4と図5を用いて説明する。動線は、フレーム間の特徴点の移動量であるため、図4に示す通り時刻tと時刻t−1の移動量、時刻t−1と時刻t−2の移動量、・・・、時刻t−(N−1)と時刻t−Nの移動量の複数の線分から成る。つまりN+1点の座標の系列である。この座標の系列をフーリエ変換等により周波数成分に変換することで周波数を求めることができる。また、図5に示すように動線の平均を求め、平均の直線と動線の座標の距離を求め、その距離を振幅とすることもできる。さらに、動線の平均の移動方向と各動線の線分の成す角度θ、動線の平均の移動方向ベクトル、動線の平均の移動方向ベクトルの大きさ、動線の平均の移動方向と各動線の線分の成す角度θのヒストグラム等を求めても良い。
図11における物体の種別を識別する処理(ステップ116)の一例を、図14を用いて説明する。ランダムフォレストを例に説明するが、公知の識別器、分析手法等で代替可能である。まず、ステップ115で求めた周波数、振幅、平均の直線と動線の各線分の成す角度θ、動線の線分の系列等のうち少なくとも一つを特徴量ベクトルとし、識別器の入力とする。例えば、特徴量ベクトルx=(周波数 振幅 動線の平均の移動方向と動線の各線分の成す角度)である。特徴量ベクトルx を、L個の二分決定木に入力する。各二分決定木のノードでは各特徴量の値から物体の物体種別を分類する。これを末端のノードまで繰り返すことで物体がいずれの物体種別に属するかを各二分決定木毎に判定する。この処理がL個の二分決定木で行われるため,判定結果を集約した判定結果のヒストグラムyを作成し,最も投票値の多い物体種別を識別結果とする。図14の例では物体種別3と識別することができる。ランダムフォレストも図14に示したものは一例であり、例えば2分決定木ではなく、各ノードで3つ以上に分類する決定木でも良い。また、物体の種別とは、例えば自転車、バイク、歩行者、自転車の上半身、バイクの上半身、歩行者の上半身である。識別する物体の種別の総数に制約は無く、4足歩行の動物、自動車等のように足で歩行している物体と車輪で移動している物体を識別対象に加えても良い。また、自転車とバイクのように人が動力源の物体と原動機を搭載している物体を識別対象とすることもできる。
解析に用いる動線の長さは、歩行の周期に基づいて決定することができる。例えば、1歩進む間であれば0.5周期、2歩進む間であれば1周期である。1秒で2歩き、動画像のフレームレートが30fps(frames per second)の場合であれば、それぞれ15フレーム以上、30フレーム以上の動線を用いれば良いということになる。2秒で2歩の場合はその倍である。もちろんこれ以下であっても識別処理を実行することは可能である。この周期は、歩行だけでなく、自転車を漕ぐ足の動作等であっても良い。
以上までに述べた方法は、カメラを1台用いるカメラに関して説明したが、カメラが2第以上存在する場合でも本実施の形態を適用することができるのは明らかである。また、1つの点の動線を求める場合について説明したが、図2(b)の通り物体領域中から複数の特徴点を検出し複数の動線を求める、または頭部、腕、胴体、足等の各部位を検出し各部位の動線を求めても良い。複数の動線を求めることで、動線の算出誤差にロバストになるだけでなく、物体の一部分のみを比較すると同じ動きをしている場合であっても、複数の動線を用いることで物体の種別を識別できる。例えば、物体の重心の系列を動線とすると、二輪車と人の動線が類似する場合であっても、物体領域中に複数の動線を求めると足や手等の領域で異なった動線が得られるため、正しく物体の種別を識別することができる。
二輪車は人が跨って乗る乗り物であるため、形状が類似してしまう。特に、カメラに近づいてくる、あるいは離れていく方向に移動しているときに差異が小さい。本第1の実施の形態を用いることで、形状が類似してしまった物体も正しく識別できる利点がある。
また、図3(a)に示す通り人の上半身のみ映った場合と、二輪車全体が画像の下端に映った場合も輪郭が類似してしまい、従来のHOG(Histogram of Oriented Gradient)特徴量、Haar−like特徴量など物体の形状を用いる手法では誤識別が発生してしまう。この問題についても本第1の実施の形態で解決できる。
さらに図3(b)のように歩いている人の上半身と二輪に乗った人の上半身も、二輪車がカメラの視野外であるため形状が類似する。この場合も、足で歩行している人と、二輪で移動している人では動線の形状に差異が生じるため、正しく識別することができる。
1つの物体に対して1つの動線でなく、図2(b)のように1ついの物体に対して複数の動線を求めても良い。
識別する物体は、人と二輪車以外に、縦横比が類似してしまう車と4足歩行の動物、車と台車を押している(引いている)人等であっても良い。
ステップ112の物体検出処理は、背景差分やフレーム間差分のように、過去の画像と現在の画像の差分を取ることで物体を検出する方法を例に説明した。カメラが移動している場合、これらの手法では物体を検出することができない。その場合は、公知のHOG特徴量、Haar−like特徴量を用い、SVM等の識別器により物体を検出しても良い。または、フレーム間の画素の移動量を表すオプティカルフローから静止物と移動物体を分離することもできる。
オプティカルフローの代わりに、本発明で用いる動線を用いて静止物と移動物体を分離しても良い。その場合、物体検出部20が動線を算出し、クラスタリング処理により類似した動線を1つの物体として検出し、静止物と移動物体を分離する。動線算出部21は、物体検出部20で検出した移動物体の領域に含まれる動線のみを抽出すれば良い。
物体が1個の場合を例に説明したが、物体が複数存在する場合も適用できる。複数物体が存在する場合は、図15に示すように公知のラベリングアルゴリズムでそれぞれの物体領域に異なったラベルを付与する、または各物体の外接矩形を求める等の処理を行う。時刻tの特徴点の座標が時刻tのラベル1の領域に含まれるときは、その動線をラベル1が付与されている物体の動線と判定できる。あるいは、時刻tの特徴点の座標が外接矩形1の領域内に含まれる場合は、その動線が外接矩形1の物体の動線と判定する。
さらに物体識別部の結果に基づいて、ユーザに警報を発することができる。例えば、二輪車を検出した場合は、スピーカ17から音声を発し、モニタ16に検出した二輪車が映っている映像を表示する。もちろん二輪車でなく、人の場合に警報を発しても良い。
図9に示す画像検索システム44では、物体識別部の結果に基づいてある種別の物体が映っている画像を検索し、ステップ119で求めた信頼度をもとに信頼度の高い映像から優先的にユーザに提示することができる。物体の種別は入力機器15で指定することもできる。
(第2の実施の形態)
第2の実施の形態について、図面を参照して詳細に説明する。
第2の実施の形態は、撮像装置であるステレオカメラから取り込んだ画像を処理し、画像に映っている物体を検出するとともに、物体の種別を識別する物体識別装置、および当該装置を適用した画像処理装置について説明する。
本実施の形態に係る物体識別装置は、図10に示すような画像処理装置41における例えばCPU6またはこれに相当するユニットに適用されて、この画像処理装置41が備える複数のカメラ4aとカメラ4bにより周囲の環境を撮像し、撮像した画像を処理して物体を検出する機能を実現する。このとき、カメラは3つ以上備えていても良い。
図13は、本実施の形態に係るステレオカメラの3次元計測の原理を説明する図である。本図に示す通り、距離bだけ離れた視点の異なる2台のカメラにより、視野の重複したシーンを撮像すると距離Z離れた計測点は、2台の画像から取得した画像上で視差δだけずれた位置に投影される。つまり、この視差δを求めれば三角測量の原理に依り画像上の点の3次元座標を算出することができる。このとき、公知のカメラキャリブレーションによりカメラ間の位置関係のずれや、レンズの焦点距離のずれ、レンズ歪みのカメラ間の差異などを補正しておくことで精度良く3次元を計測できる。
3次元座標を求めることができるステレオカメラを用いることで、2次元の画像上の動線から3次元の動線を求めることができる。これにより、例えば横向きに歩いている人と、カメラの前後方向に歩いている人では、2次元の画像上の動線の形状は異なるが、3次元空間に変換すると、方向が異なるのみで形状は類似する。この3次元の動線から前述の周波数等の特徴量を求めることで、高精度に物体の種別を識別することができる。あるいは、カメラの光軸方向に移動している物体の動線、斜め方向に移動している物体の動線、横方向に移動している物体の動線を、基準の方向(例えば横方向)に回転、平行移動により変換し、2次元座標に写像してから動線の振幅等の特徴量を求めても良い。
(第3の実施の形態)
第3の実施の形態について、図面を参照して詳細に説明する。
図16は、本実施の形態に係る特徴量を利用した人物判定の例を説明する図である。
本発明に係る物体識別装置は、図10に示すような画像処理装置41における例えばCPU6またはこれに相当するユニットに適用されて、この画像処理装置41が備える撮像装置である複数のカメラ4aとカメラ4bから取り込んだ画像を処理し、画像に映っている物体を検出するとともに、物体の種別を識別する物体識別方法である。このときカメラは同じ方向を向いている必要はない。
カメラ4aの撮像エリア内を人Aおよび人Bが通過し、その後カメラ4bの撮像エリア内に人Cおよび人D入った場合に、人物Aが人物Cと人Bのいずれに対応するかを判定することで、広範囲の人の追跡が可能となる。このとき、人Aの動線の形状を解析して得られる特徴量Aと、人Cと人Dの動線の形状を解析して得られる特徴量Cおよび特徴量Dを照合することで同一人物か否かを識別する。
ステップ116の処理で、カメラ4a内の人Aから算出した動線の特徴量Aと、カメラ4b内の人Cから算出した動線の特徴量Cおよび人Dから算出した動線の特徴量Dを比較することで、人Aと人Cが同一人物か否か、あるいは人Aと人Dが同一人物か否かを判定する。例えば、人Aの動線の振幅Aや周波数Aと、人Cの動線の振幅Cや周波数Cの差分が閾値の範囲内であれば同一人物とする。このとき、動線の情報以外に、色、濃淡、輪郭、テクスチャ等のアピアランス特徴を併用しても良い。または、人Aの動線の平均の移動方向と動線の各線分の成す角度θのヒストグラムAと、人Cの動線の平均の移動方向と動線の各線分の成す角度θのヒストグラムCとの、公知のヒストグラム距離(例えば、Bhattacharyya Distance)を求め、その距離が閾値以下のときは同一の人物と判定しても良い。あるいは、人D動線の平均の移動方向と動線の各線分の成す角度θのヒストグラムDを求め、ヒストグラムAとヒストグラムCのヒストグラム距離、ヒストグラムAとヒストグラムDのヒストグラム距離を求め、距離が近い方を同一人物と判定できる。もちろん、事前に各人物の特徴量を計測可能なのであれば、SVMやランダムフォレスト等の識別器を用いて、識別しても良い。
カメラ4aとカメラ4bのカメラ2台のときについて説明したが、カメラが3台以上であっても同様に本手法を適用できる。また、カメラが1台であっても、過去に通過した人と、現在通過した人が同一人物か否かを識別することもできる。
(第4の実施の形態)
第4の実施の形態について、図面を参照して詳細に説明する。
第4の実施の形態では、撮像装置である複数のカメラ4から取り込んだ画像を処理し、画像に映っている物体を検出するとともに、物体の属性を識別する物体識別装置について説明する。
物体の属性とは、例えば傘をさしている人と、傘をさしていない人である。男性と女性、子供と大人といった年齢層、手に鞄を持った人と鞄を手に持っていない人、持っている荷物が鞄か台車かといった荷物の種別、ヒールの高い靴を履いた人とヒールの低い靴を履いた人、スカートを履いた人とパンツを履いた人等を属性として識別することもできる。人という同じ物体の種別であっても、性別、服装、持っている荷物で動線の形状が変化するため、本発明によりこれらの物体の属性を識別することができる。
物体の属性を識別する処理は、ステップ116の処理において、物体の種別の代わりに、物体の属性を識別クラスとして事前に学習させておき、入力された動画からステップ115で得られた特徴量から属性を識別する。図14の物体種別1から物体種別5が、物体属性1から物体属性5となる違いはあるが、処理は同等である。もちろん物体の属性は5つである必要はなくそれ以上であってもそれ以下でも良い。
ステップ115で動線から得られる特徴量のみを説明したが、画像の画素の濃淡値や色、物体領域中の輝度変化や色の変化、背景差分やフレーム間差分により抽出した移動物体領域の形状等を特徴量として併用しても良い。
1・・・物体識別方法、3・・・データ伝送手段、4・・・カメラ、5・・・画像入力手段、6・・・CPU、7・・・ROM、9・・・メモリ、11・・・バス、12・・・インターフェース(I/F)、13・・・インターフェース(I/F)、14・・・インターフェース(I/F)、15・・・入力機器、16・・・モニタ、17・・・スピーカ、18・・・インターフェース(I/F)、20・・・物体検出部、21・・・動線算出部、22・・・物体識別部、23・・・学習結果、31・・・記録装置、41・・・画像処理装置、42・・・カメラユニット、43・・・処理ユニット、44・・・画像検索システム、45・・・画像記録システム、

Claims (10)

  1. 動画像から移動している物体を検出する物体検出部と、物体検出部により検出した物体の動線を求める動線算出部と、動線算出部で求めた動線の形状に基づいて、物体の種別または物体の属性を識別する物体識別部とを具備することを特徴とした物体識別装置。
  2. 請求項1の物体識別装置において、車輪で移動している物体と脚で歩行している物体を識別することを特徴とする物体識別装置。
  3. 請求項1の物体識別装置において、物体の属性として同一物体の個体を識別することを特徴とする物体識別装置。
  4. 請求項1の物体識別装置において、動線算出部は物体の部位毎、または物体領域中の特徴点毎に複数の動線を算出することを特徴とする物体識別装置。
  5. 請求項1の物体識別装置において、物体識別部は動線算出部で求めた動線に加え、物体の形状を解析することで物体の種別あるいは物体の属性を識別することを特徴とする物体識別装置。
  6. 請求項1の物体識別装置において、動線算出部で求めた動線の長さを元に物体の種別または属性の識別結果の信頼度を算出することを特徴とする物体識別装置。
  7. 請求項1の物体識別装置において、複数の撮像装置から取得した複数の動画像から物体を検出し、それぞれの動画像中の物体の動線を求め、動線の形状を解析することで、カメラ間で映っている物体が同一であるか否かを識別することを特徴とする物体識別装置。
  8. 請求項1の物体識別装置において、物体の属性として性別、年齢、服装、持っているか荷物の種別の少なくとも1つを識別することを特徴とした物体識別装置。
  9. 請求項1の物体識別装置において、物体の移動動作の周期に基づいて、動線算出部で求めた動線から形状の解析に用いる動線の長さを決定することを特徴とする物体識別装置。
  10. 物体の動画像を取得する撮像装置と、当該取得された動画像から移動している物体を検出する物体検出部と、前記物体検出部により検出した物体の動線を求める動線算出部と、前記動線算出部で求めた動線の形状に基づいて、物体の種別または物体の属性を識別する物体識別部とを具備することを物体識別装置と、を有することを特徴とする画像処理装置。
JP2014185852A 2014-09-12 2014-09-12 物体識別方法 Active JP6526953B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014185852A JP6526953B2 (ja) 2014-09-12 2014-09-12 物体識別方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014185852A JP6526953B2 (ja) 2014-09-12 2014-09-12 物体識別方法

Publications (2)

Publication Number Publication Date
JP2016057998A true JP2016057998A (ja) 2016-04-21
JP6526953B2 JP6526953B2 (ja) 2019-06-05

Family

ID=55758717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014185852A Active JP6526953B2 (ja) 2014-09-12 2014-09-12 物体識別方法

Country Status (1)

Country Link
JP (1) JP6526953B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018125670A (ja) * 2017-01-31 2018-08-09 森ビル株式会社 空中監視装置、空中監視方法及びプログラム
JP2019124986A (ja) * 2018-01-12 2019-07-25 株式会社日立国際電気 障害検知システム
JP2020013206A (ja) * 2018-07-13 2020-01-23 日本ユニシス株式会社 動画・カメラからの二輪車検知装置、プログラム及びシステム
JP2020021110A (ja) * 2018-07-30 2020-02-06 株式会社トヨタシステムズ 警報システム、警報制御装置及び警報方法
JP2020021111A (ja) * 2018-07-30 2020-02-06 株式会社トヨタシステムズ 種別判定プログラム、種別判定装置及び種別判定方法
WO2020179730A1 (ja) * 2019-03-04 2020-09-10 日本電気株式会社 情報処理装置、情報処理方法、およびプログラム
WO2020240851A1 (ja) * 2019-05-31 2020-12-03 ニューラルポケット株式会社 システム、方法、又はプログラム
WO2022190494A1 (ja) * 2021-03-12 2022-09-15 荏原環境プラント株式会社 転落者検出システム、転落者検出方法、および転落者検出プログラム
JP7162761B1 (ja) * 2021-05-26 2022-10-28 三菱電機株式会社 人物追跡装置及び人物追跡方法
CN115546830A (zh) * 2022-09-30 2022-12-30 星宠王国(北京)科技有限公司 一种丢失犬只寻找方法、装置及设备
JP7494130B2 (ja) 2021-01-19 2024-06-03 株式会社東芝 情報処理システム、情報処理方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056853A (ja) * 1999-08-19 2001-02-27 Matsushita Electric Ind Co Ltd 挙動検出装置および種類識別装置、並びに挙動検出方法および挙動検出用プログラムが記録された記録媒体
WO2006013765A1 (ja) * 2004-08-03 2006-02-09 Matsushita Electric Industrial Co., Ltd. 人物判定装置及び人物検索追跡装置
WO2012127815A1 (ja) * 2011-03-22 2012-09-27 パナソニック株式会社 移動体検出装置および移動体検出方法
WO2012132437A1 (ja) * 2011-03-31 2012-10-04 パナソニック株式会社 人数計測装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056853A (ja) * 1999-08-19 2001-02-27 Matsushita Electric Ind Co Ltd 挙動検出装置および種類識別装置、並びに挙動検出方法および挙動検出用プログラムが記録された記録媒体
WO2006013765A1 (ja) * 2004-08-03 2006-02-09 Matsushita Electric Industrial Co., Ltd. 人物判定装置及び人物検索追跡装置
WO2012127815A1 (ja) * 2011-03-22 2012-09-27 パナソニック株式会社 移動体検出装置および移動体検出方法
WO2012132437A1 (ja) * 2011-03-31 2012-10-04 パナソニック株式会社 人数計測装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ROSALES, R., TRAJECTORY GUIDED TRACKING AND RECOGNITION OF ACTIONS [ONLINE], JPN6018036407, 9 March 1999 (1999-03-09), pages 1 - 29, ISSN: 0003879541 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018125670A (ja) * 2017-01-31 2018-08-09 森ビル株式会社 空中監視装置、空中監視方法及びプログラム
JP7125843B2 (ja) 2018-01-12 2022-08-25 株式会社日立国際電気 障害検知システム
JP2019124986A (ja) * 2018-01-12 2019-07-25 株式会社日立国際電気 障害検知システム
JP2020013206A (ja) * 2018-07-13 2020-01-23 日本ユニシス株式会社 動画・カメラからの二輪車検知装置、プログラム及びシステム
JP2020021110A (ja) * 2018-07-30 2020-02-06 株式会社トヨタシステムズ 警報システム、警報制御装置及び警報方法
JP2020021111A (ja) * 2018-07-30 2020-02-06 株式会社トヨタシステムズ 種別判定プログラム、種別判定装置及び種別判定方法
WO2020179730A1 (ja) * 2019-03-04 2020-09-10 日本電気株式会社 情報処理装置、情報処理方法、およびプログラム
US20220139087A1 (en) * 2019-03-04 2022-05-05 Nec Corporation Information processing apparatus, information processing method, and program
WO2020240851A1 (ja) * 2019-05-31 2020-12-03 ニューラルポケット株式会社 システム、方法、又はプログラム
JPWO2020240851A1 (ja) * 2019-05-31 2021-09-13 ニューラルポケット株式会社 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法
JP7494130B2 (ja) 2021-01-19 2024-06-03 株式会社東芝 情報処理システム、情報処理方法およびプログラム
WO2022190494A1 (ja) * 2021-03-12 2022-09-15 荏原環境プラント株式会社 転落者検出システム、転落者検出方法、および転落者検出プログラム
JP2022139916A (ja) * 2021-03-12 2022-09-26 荏原環境プラント株式会社 転落者検出システム、転落者検出方法、および転落者検出プログラム
JP7162761B1 (ja) * 2021-05-26 2022-10-28 三菱電機株式会社 人物追跡装置及び人物追跡方法
CN115546830A (zh) * 2022-09-30 2022-12-30 星宠王国(北京)科技有限公司 一种丢失犬只寻找方法、装置及设备

Also Published As

Publication number Publication date
JP6526953B2 (ja) 2019-06-05

Similar Documents

Publication Publication Date Title
JP6526953B2 (ja) 物体識別方法
US10268900B2 (en) Real-time detection, tracking and occlusion reasoning
Wojek et al. Monocular 3d scene understanding with explicit occlusion reasoning
Benedek et al. Lidar-based gait analysis and activity recognition in a 4d surveillance system
CN104751491B (zh) 一种人群跟踪及人流量统计方法及装置
Köhler et al. Early detection of the pedestrian's intention to cross the street
Zhou et al. Object tracking in an outdoor environment using fusion of features and cameras
Kondori et al. 3D head pose estimation using the Kinect
Sehairi et al. Elderly fall detection system based on multiple shape features and motion analysis
CN109934848A (zh) 一种基于深度学习的运动物体精准定位的方法
Singh et al. Action recognition in cluttered dynamic scenes using pose-specific part models
JP2015057690A (ja) 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム
Lee et al. Driving recorder based on-road pedestrian tracking using visual SLAM and constrained multiple-kernel
JP4816240B2 (ja) データ処理装置、データ処理方法、認識装置及び認識方法
Liem et al. Multi-person localization and track assignment in overlapping camera views
Wang et al. Visually fingerprinting humans without face recognition
Yang et al. Multiple marker tracking in a single-camera system for gait analysis
TW201520907A (zh) 影像式機踏車與行人偵測系統及其方法
Lee et al. independent object detection based on two-dimensional contours and three-dimensional sizes
Munaro et al. An evaluation of 3d motion flow and 3d pose estimation for human action recognition
AU2022340445A1 (en) Vision-based sports timing and identification system
Lo et al. Vanishing point-based line sampling for efficient axis-based people localization
Lingaswamy et al. An efficient moving object detection and tracking system based on fractional derivative
Victoria Priscilla et al. Pedestrian detection-a survey
Nanda et al. A robust elliptical head tracker

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170117

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190509

R150 Certificate of patent or registration of utility model

Ref document number: 6526953

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250