JP2017021557A - 画像処理装置、画像処理方法、並びにプログラム - Google Patents

画像処理装置、画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP2017021557A
JP2017021557A JP2015138430A JP2015138430A JP2017021557A JP 2017021557 A JP2017021557 A JP 2017021557A JP 2015138430 A JP2015138430 A JP 2015138430A JP 2015138430 A JP2015138430 A JP 2015138430A JP 2017021557 A JP2017021557 A JP 2017021557A
Authority
JP
Japan
Prior art keywords
tracking
tracking frame
unit
frame
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015138430A
Other languages
English (en)
Inventor
弘長 佐野
Hironaga Sano
弘長 佐野
堅一郎 多井
Kenichiro Oi
堅一郎 多井
高田 信一
Shinichi Takada
信一 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015138430A priority Critical patent/JP2017021557A/ja
Priority to PCT/JP2016/068779 priority patent/WO2017010259A1/ja
Publication of JP2017021557A publication Critical patent/JP2017021557A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

【課題】誤追尾をしないようにする画像処理装置、画像処理方法、並びにプログラムを提供する。
【解決手段】撮像部101で撮像された画像から、所定の物体を検出し、検出した物体に対してトラッキング枠を生成する生成部303と、トラッキング枠が生成された物体をトラッキングするトラッキング部302と、トラッキング枠に重なりがあるか否かを判定する重なり判定部306と、判定部で重なりがあると判定されたトラッキング枠を削除するトラッキング枠削除部307とを備える。撮像部101は、トラッキング枠が重ならないように撮像を行う環境下に設置されている。
【選択図】図3

Description

本技術は、画像処理装置、画像処理方法、並びにプログラムに関する。詳しくは、所定の場所を通過する物体の数を正確にカウントする画像処理装置、画像処理方法、並びにプログラムに関する。
近年、店舗の天井や街頭、工場などにおいて、防犯などのセキュリティ向上のために、監視カメラの設置が急速に普及している。また、監視カメラにより、通行人数の計測や人流解析などマーケティング目的で使用することも提案されている。
そのような監視カメラにおいて、所定の映像から、可動物がある領域でも誤検出を低減し、精度よく被写体を検出することが出来る画像処理装置について、特許文献1で提案されている。また、特許文献2では、追尾処理において追尾対象となる被写体を見失った場合に、追尾対象を示す枠等の表示がふらついてしまうことを抑制することについて提案がなされている。
特開2012-100082号公報 特開2010-74815号公報
監視カメラにおいて、例えば、人を検出し、その人を追跡することで、所定の場所を通過した人をカウントする場合、人の検出または追跡に誤検出があると、カウントが正確に行えなくなる可能性があった。より精度良く人などの可動物をカウントすることが望まれている。
本技術は、このような状況に鑑みてなされたものであり、誤追尾を低減し、可動物のカウント精度を向上させることができるようにするものである。
本技術の一側面の画像処理装置は、撮像部で撮像された画像から、所定の物体を検出し、検出した前記物体に対してトラッキング枠を生成する生成部と、前記トラッキング枠が生成された前記物体をトラッキングするトラッキング部と、前記トラッキング枠に重なりがあるか否かを判定する重なり判定部と、前記判定部で重なりがあると判定された前記トラッキング枠を削除するトラッキング枠削除部とを備える。
前記撮像部は、前記トラッキング枠が重ならないように撮像を行う環境下に設置されているようにすることができる。
前記判定部は、前記トラッキング枠が重なっている面積が所定の閾値以上である場合、重なっていると判定し、重なっていると判定されたトラッキング枠の一方のトラッキング枠を削除対象とするようにすることができる。
前記トラッキング部のトラッキングの結果、所定のラインを超えた物体をカウントするカウント部をさらに備えるようにすることができる。
前記トラッキング枠削除部は、前記カウント部でカウントされた前記トラッキング枠をさらに削除するようにすることができる。
撮像部で撮像された画像から、動体を検出する動体検出部と、前記トラッキング枠が、前記動体検出部で検出された動体の領域外に位置するか否かを判定する判定部とをさらに備え、前記トラッキング枠削除部は、前記判定部で、前記動体検出部で検出された動体の領域外に位置すると判定された前記トラッキング枠をさらに削除するようにすることができる。
前記トラッキング枠は、IDで管理され、前記トラッキング枠削除部は、削除対象とされた前記トラッキング枠のIDを削除するようにすることができる。
前記トラッキング枠削除部は、削除対象とされたトラッキング枠に対して、処理しないというフラグを立てるようにすることができる。
本技術の一側面の画像処理方法は、撮像部で撮像された画像から、所定の物体を検出し、検出した前記物体に対してトラッキング枠を生成し、前記トラッキング枠が生成された前記物体をトラッキングし、前記トラッキング枠に重なりがあるか否かを判定し、重なりがあると判定された前記トラッキング枠を削除するステップを含む。
本技術の一側面のプログラムは、撮像部で撮像された画像から、所定の物体を検出し、検出した前記物体に対してトラッキング枠を生成し、前記トラッキング枠が生成された前記物体をトラッキングし、前記トラッキング枠に重なりがあるか否かを判定し、重なりがあると判定された前記トラッキング枠を削除するステップを含む処理をコンピュータに実行させるためのプログラム。
本技術の一側面の画像処理装置、画像処理方法、並びにプログラムにおいては、撮像部で撮像された画像から、所定の物体が検出され、検出された物体に対してトラッキング枠が生成され、トラッキング枠が生成された物体がトラッキングされ、トラッキング枠に重なりがあるか否かが判定され、重なりがあると判定されたトラッキング枠は削除される。
本技術の一側面によれば、誤追尾を低減することが可能となる。また、誤追尾が低減することで、可動物のカウント精度を向上させることが可能となる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
画像処理システムの構成について説明するための図である。 画像処理部の構成について説明するための図である。 画像処理部の機能について説明するための図である。 条件1について説明するための図である。 条件1について説明するための図である。 条件1について説明するための図である。 条件2について説明するための図である。 条件2について説明するための図である。 条件2について説明するための図である。 条件3について説明するための図である。 条件3について説明するための図である。 条件3について説明するための図である。 画像処理部の他の構成について説明するための図である。 画像処理部の他の構成について説明するための図である。 画像処理部の他の構成について説明するための図である。 画像処理部の他の構成について説明するための図である。 画像処理部の他の構成について説明するための図である。 画像処理部の他の構成について説明するための図である。
以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は、以下の順序で行う。
1.システム構成
2.画像処理部の構成
3.条件1について
4.条件2について
5.条件3について
6.他の実施の形態
7.記録媒体について
<システム構成>
本技術は、物体を検出し、追跡し、所定のラインを通過した物体をカウントするシステムに適用できる。カウントの対象となる物体は、例えば、人、動物、車などである。またベルトコンベア上に載置された物体をカウントするシステムなどにも本技術は適用できる。ここでは、人をカウントする場合を例に挙げて説明する。
図1は、本技術の実施の形態に係る画像処理装置の設置例を示す模式図である。図1に示した画像処理システム100は、撮像部(カメラ)101と画像処理部102を含む構成とされている。撮像部101は、人物103を斜め上から撮影できるように、天井104に設置してある。図中、105は通路の床を表す。
撮像部101で撮像された人物103の映像は、ケーブル106を介して画像処理部102に供給される。ケーブル106は、LANケーブルや同軸ケーブルである。画像処理部102は、映像を解析し、計数する。
なおここでは、撮像部101と画像処理部102は、ケーブル106で接続されているとして説明を続けるが、有線で接続される形態に本技術の適用範囲が限定されるわけではなく、無線で接続されるようにしても良い。また、インターネットなどのネットワークを介して接続されるようにしても良い。
また、撮像部101と画像処理部102は、それぞれ別体で構成されている場合を例に挙げて説明するが、一体化されていても良い。すなわち、撮像部101を含む画像処理部102としても良く、画像処理部102の解析結果が、ネットワークなどを介して他の装置に送信されるような構成にしても良い。
また、ここでは、撮像部101は、人物103を斜め上から撮影できる位置に設置されているとして説明するが、このような位置に撮像部101の設置位置が限定されるわけではない。ただし、後述するように、所定の条件に合う位置に設置されるのが好ましい。
<画像処理部の構成>
図2は、画像処理部102のハードウェア構成の一例を示すブロック図である。画像処理部102は、パーソナルコンピュータで構成することができる。
画像処理部102において、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203は、バス204により相互に接続されている。バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、及びドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロフォンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
図3は、画像処理部102の機能を表す図である。画像処理部102は、動体検出部301、トラッキング部302、トラッキング枠生成部303、遅延部304、トラッキング枠判定部305、重なり判定部306、トラッキング枠削除部307、カウント部308、遅延部309、および加算部310,311を含む構成とされている。
図3に示した画像処理部102の各機能は、ハードウェアで構成されていても良いし、ソフトウェアで構成されていても良い。例えば、遅延部304,309などは、RAM203(図2)で構成されるようにしても良い。また、例えば、動体検出部301や、トラッキング部302などを、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することによる機能としても良い。
画像処理部102は、動物体、例えば人物103(図1)を検出し、その検出した人物103が、所定の位置に設けられているラインを超えたか否かを判定し、ラインを超えた人物103の数をカウントする機能を有する。そのために、人物103を追跡し、その追跡している人物103が、ラインを超えたか否かを判定することで、ラインを超えた人物103の数をカウントする。すなわち、画像処理部102は、人物をカウントするために、主に、人物の検出と、トラッキング(追尾)を行う機能を有する。
撮像部101で撮像された画像は、動体検出部301、トラッキング枠生成部303、およびトラッキング部302に供給される。動体検出部301は、供給された画像(映像)から、動体を検出する。動体検出部301での検出結果は、トラッキング枠判定部305に供給される。
トラッキング枠生成部303は、画像内の人物103の所定の領域、例えば、上半身の領域を検出し、その検出した領域をトラッキング枠として設定する。トラッキング枠生成部303で生成されたトラッキング枠は、加算部311に供給される。
トラッキング部302は、トラッキング枠が設定されている領域を追尾する処理を実行する。トラッキング部302には、遅延部304により遅延されたトラッキング枠も入力される。トラッキング部302は、撮像部101で撮像された画像内から、遅延部304から供給されたトラッキング枠402が設定された画像(人物)を検出する。
例えば、供給されたトラッキング枠402内の特徴量と一致する特徴量を有する領域を、撮像部101からの画像内から検出し、その検出した領域を新たなトラッキング枠402として設定する。このようなマッチング処理が行われることで、トラッキング枠402が設定された人物103のトラッキングが実行される。トラッキング部302でのトラッキングの結果は、トラッキング枠生成部303と加算部310に供給される。
トラッキング枠判定部305は、動体領域外のトラッキング枠を判定する。トラッキング枠判定部305は、後述する条件1を満たすか否かを判定する。トラッキング枠判定部305による判定結果は、加算部311に供給される。
重なり判定部306は、重なっているトラッキング枠があるか否かを判定する。重なり判定部306は、後述する条件3を満たすか否かを判定する。重なり判定部306による判定結果は、加算部311に供給される。
加算部311には、削除対象とされたトラッキング枠の情報(IDなど)が供給される。
トラッキング枠削除部307は、加算部311から供給される削除対象とされたトラッキング枠を削除する。トラッキング枠削除部307からの出力は、カウント部308と遅延部304に供給される。
カウント部308は、所定のライン上を超えたトラッキング枠をカウントし、後段の図示してない処理部にカウント数を供給する。また、カウント部308でカウントされたトラッキング枠の情報は、遅延部309により遅延された後、加算部311に供給される。
画像処理部102は、以下の条件1乃至3を設け、条件1乃至3に該当するか否かを判定することで、誤ったカウントを行わず、カウント性能を向上させるように処理を行う。以下に、条件1乃至3について、順に説明を加える。
<条件1について>
まず条件1について説明を加える。条件1は、動体領域外のトラッキング枠を削除する条件である。
図4は、条件1について説明するための図である。所定の時刻tにおいて、図4に示したような画像400が撮像されたとする。画像400には、人物103−1と人物103−2が撮像されている。動体検出部301は、画像400を解析することで、人物103−1と人物103−2を、それぞれ動体として検出する。動体として検出された領域には、動体検出枠401−1、動体検出枠401−2が設定される。
なお、動体の検出は、例えば、前後のフレーム(画像)を比較することで行われるが、このように、時間的に前後する複数の画像から、動体を検出する場合、動体検出部301は、時刻tより前の時刻t−1の画像を記憶する記憶部を有する構成とされている。
図4においては、人物103−1には動体検出枠401−1が設定され、人物103−2には動体検出枠401−2が設定されている。
トラッキング枠生成部303は、時刻tにおいて、画像400を解析することで、人物103−1と人物103−2のそれぞれの人物の所定の領域、例えば、顔の領域を検出し、トラッキング枠402を設定する。トラッキング枠生成部303は、例えば、顔検出を行い、その検出結果から、顔領域を含む所定の領域を、トラッキング枠402として設定する。なおここでは、顔検出を行うとして説明を行うが、検出する領域は、顔以外の領域、例えば、上半身であっても良い。
トラッキング枠生成部303は、トラッキング部302から供給される、既に設定されているトラッキング枠402以外の領域に、顔を検出した場合、その検出した領域に、トラッキング枠402を設定する。
図4においては、人物103−1にはトラッキング枠402−1が設定され、人物103−2にはトラッキング枠401−2が設定されている。このトラッキング枠402−1,402−2は、トラッキング部302でトラッキングが継続されているトラッキング枠402、またはトラッキング枠生成部303で新たに生成されたトラッキング枠402である。トラッキング枠の大きさは固定の大きさとしても良いし、可変の大きさとしても良い。
図4においては、トラッキング枠402として、トラッキング枠402−3も設定されている。画像400において、トラッキング枠402−3が設定された領域は、黒塗りの壁のように図示してある。この領域が、例えば、ガラスや鏡などであり、人物が写っていた場合に、顔検出の結果、顔が検出され、トラッキング枠402が設定される可能性がある。
また、トラッキング枠生成部303の精度が高くなく、顔を精度良く検出できるのではなく、顔らしき領域を検出できる程度であったような場合、人物が居ない領域でも、壁の模様や、植物などを顔として誤検出してしまう可能性もある。
誤検出が発生し、トラッキング枠402が誤検出された物体に対して設定されてしまうと、誤追尾が行われてしまい、画像処理部102で最終的に得られるカウント数にも誤検出が含まれ、画像処理部102の性能低下につながってしまう。
生成されたトラッキング枠402は、トラッキングするときに用いられ、トラッキングした結果、人物103が、判定ライン403を通過すると、カウント数が増加される。このようなカウントが行われるため、誤ったトラッキング枠402が生成されると、誤ったカウントが行われる可能性があるため、誤って生成されたトラッキング枠402は、削除されるようにする。
すなわち、図4に示した画像400が取得され、解析された結果、トラッキング枠402−1乃至402−3が設定されていた場合、トラッキング枠402−3は削除される。
削除されるトラッキング枠402は、動体検出枠401と重なりがない枠である。図4に示した画像400においては、トラッキング枠402−1は、動体検出枠401−1と重なりがあり、トラッキング枠402−2は、動体検出枠401−2と重なりがあるが、トラッキング枠402−3は、動体検出枠401と重なりがない。
このような動体検出枠401と重なりがないトラッキング枠402は削除される。このように条件1とは、動体検出枠401外にあるトラッキング枠402は、削除するという条件である。
さらに、トラッキング枠402の削除について説明を続ける。時刻tにおいて生成されたトラッキング枠402−1乃至402−3には、それぞれIDが設定される。ここでは、トラッキング枠402−1のIDをTR#1とし、トラッキング枠402−2のIDをTR#2とし、トラッキング枠402−3のIDをTR#3とする。
同じく、時刻tにおいて生成された動体検出枠401−1,401−2にも、それぞれIDが設定される。ここでは、動体検出枠401−1のIDをOD#1とし、動体検出枠401−2のIDをOD#2とする。
図3を再度参照するに、動体検出部301は、画像400から、動体を検出し、動体検出枠401−1と動体検出枠401−2を設定すると、それらの動体検出枠401に割り振られたID、ここでは、OD#1とOD#2を、トラッキング枠判定部305に供給する。
なお、トラッキング枠判定部305に供給されるのは、IDだけでなく、IDと関連付けられた動体検出枠の大きさ(座標など)も供給される。
トラッキング枠判定部305には、加算部310から、トラッキング枠402のIDも供給される。この場合、トラッキング枠判定部305には、トラッキング枠402−1乃至402−3に割り当てられたTR#1乃至#3というIDが供給される。
トラッキング枠402−1乃至402−3は、トラッキング枠生成部303で生成されたトラッキング枠402として加算部310に供給された枠であるか、または、トラッキング部302により既に生成され、IDが付与され、トラッキング処理に用いられている枠である。
トラッキング枠判定部305は、供給された動体検出枠401のIDと、トラッキング枠402のIDとから、例えば、図5に示すような表を作成し、削除対象のトラッキング枠402を決定する。
図5を参照するに、表の横軸は、動体検出枠401のIDを示し、図5では、OD#1とOD#2が記載されている。表の縦軸は、トラッキング枠402のIDを示し、図5では、TR#1、TR#2、およびTR#3が記載されている。
表中、丸印は重なりがある枠同士であることを示し、バツ印は重なりがない枠同士であることを示す。図5では、OD#1の動体検出枠401−1とTR#1のトラッキング枠402−1に重なりがあるため、丸印がある。同じく、OD#2の動体検出枠401−2とTR#2のトラッキング枠402−2に重なりがあるため、丸印がある。
TR#3のトラッキング枠402−3に重なりがある動体検出枠401はないため、TR#3の欄には、丸印はない。TR#3のように、丸印がないトラッキング枠402が、削除対象のトラッキング枠として設定され、そのID、この場合、TR#3が、加算部311に出力される。
加算部311には、条件1だけでなく、条件2、条件3により削除対象とされたトラッキング枠402のIDも供給され、それらのIDとともにトラッキング枠削除部307に出力される。
トラッキング枠削除部307には、加算部310を介して供給される、トラッキング部302でトラッキングが継続されているトラッキング枠402のIDと、トラッキング枠生成部303で新たに生成されたトラッキング枠402のIDとが供給される。トラッキング枠削除部307は、これらのIDから、削除対象とされたIDを削除し、カウント部308に供給する。
カウント部308に供給されるトラッキング枠402のIDは、誤検出されたトラッキング枠402は削除された状態のIDである。例えば、図4に示したような画像400が処理された場合であっても、カウント部308では、図6に示したような画像400が処理されている状態とすることができる。
図6に示した画像400’は、図4に示した画像400から、トラッキング枠402−3が削除された状態なっている。トラッキング枠402−3は、トラッキング枠判定部305により削除対象のトラッキング枠402と設定されたため、トラッキング枠削除部307により削除されたため、カウント部308では、図6に示した画像400’を処理している状態とすることができる。
よって、誤検出ではないトラッキング枠402−1とトラッキング枠402−2を処理対象として処理する(カウントする)ことが可能となり、誤カウントを低減し、カウント性能を向上させることが可能となる。
なおここでは、トラッキング枠削除部307により削除対象とされたトラッキング枠402のIDは削除され、カウント部308においては、削除後の残っているトラッキング枠402を用いてカウント処理が実行されるとしたが、削除以外の方法が適用されて処理されるようにしても良い。
例えば、トラッキング枠削除部307により削除対象とされたトラッキング枠402には、カウント部308によりカウントしないというフラグをたて、カウント部308は、フラグが立っているトラッキング枠402は、処理対象としないという処理が実行されるようにしても良い。
以下の説明においては、削除対象とされたトラッキング枠402は、削除されるとして説明を続けるが、処理をするか否かを表すフラグを用いた場合にも、本技術は適用できる。
<条件2について>
次に条件2について説明を加える。条件2は、カウント済のトラッキング枠を削除する条件である。
図7乃至9を参照し、カウント済のトラッキング枠を削除することについて説明する。図7は、時刻tよりも前の時刻t−1で撮像された画像400−1を表し、図8は、時刻tで撮像された画像400−2を表し、図9は、時刻tよりも後の時刻t+1で撮像された画像400−3を表す。
図7を参照するに、画像400−1には、時刻t−1において、判定ライン403の手前に位置しているため、まだカウントされていない人物103−5が撮像されている。この人物103−5に対して、トラッキング枠402−5が設定されている。このトラッキング枠402−5は、新たに設定された枠であるか、またはトラッキングが継続されていることにより設定されている枠である。
図8を参照するに、画像400−2には、時刻tにおいて、判定ライン403を通過したため、カウントされた人物103−5が撮像されている。この人物103−5に対しては、トラッキング枠402−5が設定されている。画像400−2には、人物103−5の近傍に、人物103−6が位置し、人物103−6も撮像されている。
図9を参照するに、画像400−3には、時刻t+1において、カウントされた人物103−5は、画像外に出てしまい、撮像されていないが、人物103−6が撮像されている。この人物103−6に対して、トラッキング枠402−5が設定されている。このトラッキング枠402−5は、既にカウント済の人物103−5に設定されていた枠である。
図8を再度参照するに、人物103−5の近傍に、人物103−6が位置しているが、このように、人物が近傍に居るような場合、一方の人物に設定されているトラッキング枠402が、他方の人物に乗り移ってしまう可能性がある。この場合、人物103−5に設定されていたトラッキング枠402−5が、人物103−6に乗り移り、人物103−6に設定されたトラッキング枠402−5として認識され、処理されてしまう。
このようなことを防ぐために、カウント済のトラッキング枠402は、削除し、他の人物103に乗り移るようなことがないようにする。この場合、図8に示した画像400−2においては、人物103−5をトラッキングしていた結果、人物103−5は、判定ライン403を追加し、カウント部308によりカウントされたので、その次の時点においては、トラッキング枠402−5は、削除対象とされる。
図3に示した画像処理部102を参照する。カウント部308において、カウントされたトラッキング枠402のIDは、遅延部309に供給され、遅延された後、加算部311に供給される。例えば、上記した例で時刻tにおいて、トラッキング枠402−5は、カウントされたため、トラッキング枠402−5に割り当てられているID(ここでは、TR#5とする)は、遅延部309に供給される。
遅延部309で遅延された結果、TR#5というIDは、時刻t+1において、加算部311に供給される。時刻t+1において、加算部311に供給されたTR#5というIDは、他の削除対象のIDとともに、トラッキング枠削除部307に供給される。トラッキング枠削除部307にて、加算部310から供給されるトラッキング枠402のIDに、TR#5というIDが含まれていた場合、削除される。よって、カウント部308には、TR#5というIDは含まれていない。
よって、時刻t+1において、図9に示したような画像400−3が取得され、人物103−6に人物103−5から乗り移ったトラッキング枠402−5が設定されている状況が発生しても、このトラッキング枠402−5は、削除され、カウント部308におけるカウントの対象とはならない。よって、カウント部308での誤カウントを低減し、カウント性能を向上させることが可能となる。
<条件3について>
次に条件3について説明を加える。条件3は、重なるトラッキング枠を削除する条件である。
図10を参照して、重なるトラッキング枠402を削除することについて説明する。図10に示した画像400は、時刻tにおいて撮像され、処理対象とされた画像である。画像400には、人物103−8が撮像されている。この人物103−8に、トラッキング枠402−8とトラッキング枠402−9が設定されている。
このように、1人物に対して、複数のトラッキング枠402が設定されている場合、いずれかのトラッキング枠402は、誤設定である可能性が高い。よって、重なりがあるトラッキング枠402は、1つのトラッキング枠402になるように、重なっている他のトラッキング枠402は削除される。換言すれば、重なっている複数のトラッキング枠402から、1つのトラッキング枠402が抽出される。
重なっている複数のトラッキング枠402について、図11を参照して説明する。図11には、トラッキング枠402−8とトラッキング枠402−9を図示し、重なっている領域を斜線を付して図示した。重なっている領域の面積が、所定の閾値以上である場合、トラッキング枠402−8とトラッキング枠402−9は重なっていると判定され、一方を削除する処理が実行される。
具体的には、以下の式(1)に基づき、トラッキング枠402−8とトラッキング枠402−9が重なっているか否かが判定される。
Figure 2017021557
式(1)において、D#1は、トラッキング枠402−8の面積を表し、D#2は、トラッキング枠402−9の面積を表し、Doverlapは、トラッキング枠402−8とトラッキング枠402−9が重畳している領域の面積を表す。また、Tthresholdは、閾値を表す。
式(1)における左辺の分母は、トラッキング枠402−8の面積とトラッキング枠402−9の面積を加算し、0.5を乗算した値となり、分子は、トラッキング枠402−8とトラッキング枠402−9が重畳している領域の面積となっている。すなわち左辺は、トラッキング枠402の重畳領域の面積の比率となる。その比率が、所定の閾値よりも大きい場合(以上である場合)、トラッキング枠402−8とトラッキング枠402−9は重なりがあり、一方の枠は削除すべきであると判定される。
なお、式(1)を用いた判定は、一例であり、限定を示すものではなく、他の式に基づいて判定されたり、他の方法で判定されたりしても良い。また、式(1)は、トラッキング枠402の大きさが可変である場合を示しているため、式(1)の左辺の分母において、トラッキング枠402の面積を加算し、0.5を乗算するという演算を行っているが、トラッキング枠402の大きさが固定である場合、式(1)の左辺の分母は、固定値となる。
分母が固定値となる場合、次式(2)に基づいて、重畳しているか否かの判定が行われるようにしても良い。
overlap≧T2threshold ・・・(2)
式(2)において、T2thresholdは、例えば、式(1)におけるTthresholdに、固定値(2つのトラッキング枠402を加算した値の半分の値=1つのトラッキング枠402の面積)を乗算した閾値とすることで、式(1)と同等の判定を行うことができる。
このような判定は、重なり判定部306(図3)により行われる。図3を再度参照するに、重なり判定部306には、加算部310から、トラッキング枠402のIDが供給される。加算部310を介して、重なり判定部306に供給されるトラッキング枠402のIDは、トラッキング枠生成部303で新たに設定されたトラッキング枠402のIDと、トラッキング部302でトラッキングが継続されているトラッキング枠402のIDである。
重なり判定部306は、供給されたトラッキング枠402同士の重畳具合を上記した式(1)または式(2)に基づき判定する。例えば、トラッキング枠402A、トラッキング枠B、トラッキング枠C(のID)が供給された場合、トラッキング枠402Aとトラッキング枠B、トラッキング枠402Aとトラッキング枠C、トラッキング枠402Bとトラッキング枠Cという組み合わせ毎に、判定が行われる。
このように、供給された複数のトラッキング枠402を組み合わせ、組み合わせ毎に重畳しているか否かを判定し、重畳している場合には、どちらのトラッキング枠402を削除対象とするかを判定する処理が繰り返し行われる。
重なり判定部306による判定結果は、加算部311に供給される。重なり判定部306による判定結果は、削除対象に設定されたトラッキング枠402のIDである。加算部311に供給された削除対象とされたトラッキング枠402のIDは、トラッキング枠削除部307に供給される。トラッキング枠削除部307には、加算部310からトラッキング枠402のIDが供給されている。
重なり判定部306とトラッキング枠削除部307は、共に、加算部310からの供給を受けているため、同じIDが供給されていることになる。トラッキング枠削除部307では、供給された複数のIDから、重なり判定部306の判定で、削除対象に設定されたIDを削除して、カウント部308に出力する。
よって、カウント部308での誤カウントを低減し、カウント性能を向上させることが可能となる。
このようにして、トラッキング枠402が重畳している否かを判定し、重畳しているときには、1つのトラッキング枠402を残し、他の重畳しているトラッキング枠402は削除される。
削除するトラッキング枠402の決定は、以下に示すような基準を設け、その基準に基づいて行われるようにすることができる。
存在時間が短いトラッキング枠402が削除対象とされる。存在時間とは、トラッキング枠402がトラッキング枠生成部303で生成されてから、上記した式(1)または式(2)に基づいた判定が行われるまでの時間である。存在時間を計測、例えば、トラッキング部302で通過した回数を計測し、存在時間が短い方のトラッキング枠402を削除対象とするようにしても良い。
トラッキング部302でのマッチングスコアが小さい方のトラッキング枠402が削除対象とされる。トラッキング部302は、時刻tにおいて、遅延部304から供給される時刻t−1のトラッキング枠402の供給を受ける。またトラッキング部302は、時刻tにおいて、撮像部101で撮像された画像の供給も受ける。トラッキング部302は、時刻tで撮像された画像内から、時刻t−1のときのトラッキング枠402が設定された画像(人物)を検出する。
例えば、時刻t−1におけるトラッキング枠402内の特徴量と一致する特徴量を有する領域を、時刻tにおける画像内から検出し、その検出した領域を新たなトラッキング枠402として設定する。このようなマッチング処理が行われることで、トラッキング枠402内の画像(人物103)は、時刻t−1から時刻tまでトラッキングされたことになる。
トラッキング部302におけるマッチング処理時に算出されるマッチングスコアが小さかったトラッキング枠402を削除対象とするようにしても良い。
このような削除基準以外の基準に基づき、削除対象のトラッキング枠402が設定されるようにしても良い。
ところで、トラッキング枠402が重畳していることが正しいケースも考えられる。図10を再度参照する。図10に示した画像400においては、人物103−8が1人居る場合を示しているが、例えば、この人物103−8のすぐ後ろに別の人物(不図示)が居た場合、その別の人物に対してもトラッキング枠402が設定される可能性がある。
すなわち、人物103−8に対して、トラッキング枠402−8が設定され、人物108−8とは別の人物(人物108−9とする)に対して、トラッキング枠402−9が設定される可能性がある。このように、人物103−8と人物103−9が近傍に位置しているために、それぞれの人物103に対してトラッキング枠402−8とトラッキング枠402−9が設定された場合、上記した処理が実行されることで、どちらかのトラッキング枠402が削除されると、その削除は誤った処理となってしまう。
このようなことを防ぐために、例えば、撮像部101(図1)が、図12を参照して説明するような位置に設置され、トラッキング枠402が正常の処理においては重畳することがないという環境下において、上記した処理が実行されるようにしても良い。
図12を参照する。図12の左側は、撮像部101で撮像された画像400を表し、右側は、画像400を撮像したときの撮像部101の設置位置を示す。図12の左側に示した画像400を参照するに、画像400には、人物103−8と人物103−9が、画像中央部分(図中、横方向の線で示した部分)で縦列して歩いている状態が撮像されている。また画像400においては、人物103−8の頭部と人物103−9の頭部が、それぞれ重なることなく撮像されている。
人物103の頭部に対してトラッキング枠402を設定するようにした場合、図12の左図に示したような画像400が撮像されるような位置に撮像部101が設置されていれば、人物103−8の頭部に設定されるトラッキング枠402と人物103−9の頭部に設定されるトラッキング枠402とが重畳することはない。
このような撮像が行われるような撮像部101の設置位置は、例えば、図12の右図に示すような位置である。図12の右図において、θは、撮像部101の俯角を表し、haは、人物103の身長を表し、hbは、人物103の頭部の長さを表し、hcは、天井から撮像部101までの設置高さを表す。またhdは、天井104までの高さを表し、daは、撮像部101の先端から、対象物(人物103)までの距離を表し、dbは、人物103同士の間隔を表す。
図12の左図に示したような画像400、換言すれば、人物の上半身(頭部)が重なることがない状態の画像が撮像される撮像部101の設置位置になるように、図12の右図に示した各値が決定される。
例えば、身長haは、170センチとし、頭部hbは、50センチとする。これらの値は、カウント対象となる人物103の平均値などから導き出される値に設定する。また撮像部101の設置高さhcは、30センチなど、撮像部101を天井104に固定するための金具などに依存して決定される値に設定することができる。また、天井の高さhdは、固定の高さであるため、固定値として設定できる。
このようにある程度設定できる値を設定し、撮像部101の設置位置から、対象までの距離daや、撮像部101の俯角θなどを調整することで、人物の上半身(頭部)が重なることがない状態の画像が撮像される位置に、撮像部101が設置されるようにする。
このように、撮像部101を設置することで、人物の上半身(頭部)が重なることがない状態の画像が撮像される状況下とすることができ、例えば、図10に示したような画像400が撮像されたとき、トラッキング枠402−8とトラッキング枠402−9は、本来重なることがない環境下であるため、どちらかのトラッキング枠402は誤追尾であると判定し、削除することができる。
このように、所定の撮像条件、ここでは、人物の所定の部分が重なることがないように撮像される位置に撮像部101が設置されている条件の基、撮像が行われるようにすることで、条件3として、重なったトラッキング枠402を削除するという処理における精度を高めることが可能となる。
このような所定の撮像条件が満たされる状態で撮像が行わることを前提として、条件3に係わる処理が実行されるようにしても良いが、このような所定の撮像条件が満たされる状態で撮像が行われることを前提としていなくても、条件3に係わる処理を実行することは可能であるし、条件3に係わる処理を実行することで、誤追尾が発生する可能性を低減させることは可能である。
<他の実施の形態>
上記した画像処理部102は、条件1、条件2、および条件3を設け、これらの条件に基づき、トラッキング枠402を削除する等の処理を実行することで、誤追尾が発生しないように制御し、カウントの性能を向上させることができる。
ここで、再度条件1乃至3を記載する。条件1は、動体領域より外にあるトラッキング枠402を削除する条件である。条件1を設けることで、追尾の対象とはならない物体に対してトラッキング枠402が設定されることを防ぎ、誤追尾が実行されないようにすることができる。
条件2は、カウント済のトラッキング枠402を削除する条件である。条件2を設けることで、例えば、追尾していた物体とは異なる物体に、トラッキング枠402が乗り移り、誤追尾が実行されてしまうようなことを防ぐことができる。
条件3は、重なるトラッキング枠402を削除する条件である。条件3を設けることで、1人物に複数のトラッキング枠402が設定された場合などに、設定された複数のトラッキング枠402のそれぞれで追尾が行われるような誤追尾が実行されないようにすることができる。また、上記したような撮像部101の設置条件が満たされる環境下であれば、より精度良く、誤追尾を防ぐことが可能となる。
図3に示した画像処理部102は、条件1乃至3に係わる処理を行う構成としたが、条件1乃至3のうちの、いずれか1条件または2条件に係わる処理を行う構成とすることも可能である。
図13は、条件1に係わる処理を実行する画像処理部501の構成を示す図である。図13に示した画像処理部501は、図3に示した画像処理部102と比較して、画像処理部102から、条件2に係わる処理を実行する遅延部309、加算部311を削除した構成とされている。また、画像処理部501は、画像処理部102から、条件3に係わる処理を実行する重なり判定部306を削除した構成とされている。
このように、条件1に係わる処理を実行する画像処理部501の場合も、誤追尾が低減され、カウント性能が向上した処理を行うことが可能である。
図14は、条件2に係わる処理を実行する画像処理部502の構成を示す図である。図14に示した画像処理部502は、図3に示した画像処理部102と比較して、画像処理部102から、条件1に係わる処理を実行する動体検出部301、トラッキング枠判定部305、および加算部311を削除した構成とされている。また、画像処理部502は、画像処理部102から、条件3に係わる処理を実行する重なり判定部306を削除した構成とされている。
このように、条件2に係わる処理を実行する画像処理部502の場合も、誤追尾が低減され、カウント性能が向上した処理を行うことが可能である。
図15は、条件3に係わる処理を実行する画像処理部503の構成を示す図である。図15に示した画像処理部503は、図3に示した画像処理部102と比較して、画像処理部102から、条件1に係わる処理を実行する動体検出部301、トラッキング枠判定部305、および加算部311を削除した構成とされている。また、画像処理部502は、画像処理部102から、条件2に係わる処理を実行する遅延部309を削除した構成とされている。
このように、条件3に係わる処理を実行する画像処理部503の場合も、誤追尾が低減され、カウント性能が向上した処理を行うことが可能である。
図16は、条件1と条件2に係わる処理を実行する画像処理部504の構成を示す図である。図16に示した画像処理部504は、図3に示した画像処理部102と比較して、画像処理部102から、条件3に係わる処理を実行する重なり判定部306を削除した構成とされている。
このように、条件1と条件2に係わる処理を実行する画像処理部504の場合も、誤追尾が低減され、カウント性能が向上した処理を行うことが可能である。
図17は、条件1と条件3に係わる処理を実行する画像処理部505の構成を示す図である。図17に示した画像処理部505は、図3に示した画像処理部102と比較して、画像処理部102から、条件2に係わる処理を実行する遅延部309を削除した構成とされている。
このように、条件1と条件3に係わる処理を実行する画像処理部505の場合も、誤追尾が低減され、カウント性能が向上した処理を行うことが可能である。
図18は、条件2と条件3に係わる処理を実行する画像処理部506の構成を示す図である。図18に示した画像処理部506は、図3に示した画像処理部102と比較して、画像処理部102から、条件1に係わる処理を実行する動体検出部301、トラッキング枠判定部305を削除した構成とされている。
このように、条件2と条件3に係わる処理を実行する画像処理部505の場合も、誤追尾が低減され、カウント性能が向上した処理を行うことが可能である。
このように、本技術を適用した画像処理部によれば、誤追尾が低減し、誤カウントが抑制され、カウント性能が向上する。
上記した実施の形態においては、所定のラインを超えた人数をカウントする場合を例に挙げて説明したが、本技術を適用した画像処理システムは、そのようなカウントシステムにのみ適用範囲が限定されるわけではない。
例えば、カウント対象は、人物ではなく、物体であっても良い。物体としては、例えば、車、動物、荷物などであり、そのような物体をカウントする場合にも本技術を適用できる。
また、カウントするのではなく、動線を出力するようなシステムにも本技術は適用できる。本技術を適用することで、上述したように、誤追尾を低減させることができ、追尾の性能を向上させることができる。このことを利用し、所定の物体を追尾し、その物体の動線を出力するような場合にも本技術を適用することはできる。
物体の動線を出力する場合、例えば、図17に示した画像処理部102を適用することができる。図17に示した画像処理部102は、条件1と条件3に係わる処理を実行する画像処理部102であった。条件2は、カウントされたトラッキング枠402を削除する条件であったが、動線を出力する場合には、カウントする必要がないため、条件2に係わる処理を実行する必要はない。
このように、何を出力するかにより、本技術を適用した画像処理部の構成を適宜変更することは可能である。
<記録媒体について>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
例えば、画像処理部102をコンピュータで構成し、その構成が、図2に示した構成とされた場合、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
なお、本技術は以下のような構成も取ることができる。
(1)
撮像部で撮像された画像から、所定の物体を検出し、検出した前記物体に対してトラッキング枠を生成する生成部と、
前記トラッキング枠が生成された前記物体をトラッキングするトラッキング部と、
前記トラッキング枠に重なりがあるか否かを判定する重なり判定部と、
前記判定部で重なりがあると判定された前記トラッキング枠を削除するトラッキング枠削除部と
を備える画像処理装置。
(2)
前記撮像部は、前記トラッキング枠が重ならないように撮像を行う環境下に設置されている
前記(1)に記載の画像処理装置。
(3)
前記判定部は、前記トラッキング枠が重なっている面積が所定の閾値以上である場合、重なっていると判定し、重なっていると判定されたトラッキング枠の一方のトラッキング枠を削除対象とする
前記(1)または(2)に記載の画像処理装置。
(4)
前記トラッキング部のトラッキングの結果、所定のラインを超えた物体をカウントするカウント部をさらに備える
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(5)
前記トラッキング枠削除部は、前記カウント部でカウントされた前記トラッキング枠をさらに削除する
前記(4)に記載の画像処理装置。
(6)
撮像部で撮像された画像から、動体を検出する動体検出部と、
前記トラッキング枠が、前記動体検出部で検出された動体の領域外に位置するか否かを判定する判定部と
をさらに備え、
前記トラッキング枠削除部は、前記判定部で、前記動体検出部で検出された動体の領域外に位置すると判定された前記トラッキング枠をさらに削除する
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7)
前記トラッキング枠は、IDで管理され、前記トラッキング枠削除部は、削除対象とされた前記トラッキング枠のIDを削除する
前記(1)乃至(6)のいずれかに記載の画像処理装置。
(8)
前記トラッキング枠削除部は、削除対象とされたトラッキング枠に対して、処理しないというフラグを立てる
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
撮像部で撮像された画像から、所定の物体を検出し、検出した前記物体に対してトラッキング枠を生成し、
前記トラッキング枠が生成された前記物体をトラッキングし、
前記トラッキング枠に重なりがあるか否かを判定し、
重なりがあると判定された前記トラッキング枠を削除する
ステップを含む画像処理方法。
(10)
撮像部で撮像された画像から、所定の物体を検出し、検出した前記物体に対してトラッキング枠を生成し、
前記トラッキング枠が生成された前記物体をトラッキングし、
前記トラッキング枠に重なりがあるか否かを判定し、
重なりがあると判定された前記トラッキング枠を削除する
ステップを含む処理をコンピュータに実行させるためのプログラム。
101 撮像部, 102 画像処理部, 103 人物, 301 動体検出部, 302 トラッキング部, 303 トラッキング枠生成部, 304 遅延部, 305 トラッキング枠判定部, 306 重なり判定部, 307 トラッキング枠削除部, 308 カウント部, 309 遅延部, 310,311 加算部, 401 動体検出枠, 402 トラッキング枠

Claims (10)

  1. 撮像部で撮像された画像から、所定の物体を検出し、検出した前記物体に対してトラッキング枠を生成する生成部と、
    前記トラッキング枠が生成された前記物体をトラッキングするトラッキング部と、
    前記トラッキング枠に重なりがあるか否かを判定する重なり判定部と、
    前記判定部で重なりがあると判定された前記トラッキング枠を削除するトラッキング枠削除部と
    を備える画像処理装置。
  2. 前記撮像部は、前記トラッキング枠が重ならないように撮像を行う環境下に設置されている
    請求項1に記載の画像処理装置。
  3. 前記判定部は、前記トラッキング枠が重なっている面積が所定の閾値以上である場合、重なっていると判定し、重なっていると判定されたトラッキング枠の一方のトラッキング枠を削除対象とする
    請求項1に記載の画像処理装置。
  4. 前記トラッキング部のトラッキングの結果、所定のラインを超えた物体をカウントするカウント部をさらに備える
    請求項1に記載の画像処理装置。
  5. 前記トラッキング枠削除部は、前記カウント部でカウントされた前記トラッキング枠をさらに削除する
    請求項4に記載の画像処理装置。
  6. 撮像部で撮像された画像から、動体を検出する動体検出部と、
    前記トラッキング枠が、前記動体検出部で検出された動体の領域外に位置するか否かを判定する判定部と
    をさらに備え、
    前記トラッキング枠削除部は、前記判定部で、前記動体検出部で検出された動体の領域外に位置すると判定された前記トラッキング枠をさらに削除する
    請求項1に記載の画像処理装置。
  7. 前記トラッキング枠は、IDで管理され、前記トラッキング枠削除部は、削除対象とされた前記トラッキング枠のIDを削除する
    請求項1に記載の画像処理装置。
  8. 前記トラッキング枠削除部は、削除対象とされたトラッキング枠に対して、処理しないというフラグを立てる
    請求項1に記載の画像処理装置。
  9. 撮像部で撮像された画像から、所定の物体を検出し、検出した前記物体に対してトラッキング枠を生成し、
    前記トラッキング枠が生成された前記物体をトラッキングし、
    前記トラッキング枠に重なりがあるか否かを判定し、
    重なりがあると判定された前記トラッキング枠を削除する
    ステップを含む画像処理方法。
  10. 撮像部で撮像された画像から、所定の物体を検出し、検出した前記物体に対してトラッキング枠を生成し、
    前記トラッキング枠が生成された前記物体をトラッキングし、
    前記トラッキング枠に重なりがあるか否かを判定し、
    重なりがあると判定された前記トラッキング枠を削除する
    ステップを含む処理をコンピュータに実行させるためのプログラム。
JP2015138430A 2015-07-10 2015-07-10 画像処理装置、画像処理方法、並びにプログラム Pending JP2017021557A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015138430A JP2017021557A (ja) 2015-07-10 2015-07-10 画像処理装置、画像処理方法、並びにプログラム
PCT/JP2016/068779 WO2017010259A1 (ja) 2015-07-10 2016-06-24 画像処理装置、画像処理方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015138430A JP2017021557A (ja) 2015-07-10 2015-07-10 画像処理装置、画像処理方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2017021557A true JP2017021557A (ja) 2017-01-26

Family

ID=57756949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015138430A Pending JP2017021557A (ja) 2015-07-10 2015-07-10 画像処理装置、画像処理方法、並びにプログラム

Country Status (2)

Country Link
JP (1) JP2017021557A (ja)
WO (1) WO2017010259A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022074946A1 (ja) * 2020-10-07 2022-04-14 株式会社Jvcケンウッド 画像認識装置、画像認識方法およびプログラム
JP2022526347A (ja) * 2020-02-18 2022-05-24 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド 画像処理方法、装置、電子機器並びにコンピュータプログラム製品

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110047095B (zh) * 2019-03-06 2023-07-21 平安科技(深圳)有限公司 基于目标检测的跟踪方法、装置及终端设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4650669B2 (ja) * 2004-11-04 2011-03-16 富士ゼロックス株式会社 動体認識装置
JP5685958B2 (ja) * 2010-02-24 2015-03-18 大日本印刷株式会社 画像表示システム
JP6000602B2 (ja) * 2012-03-30 2016-09-28 キヤノン株式会社 体検出方法及び物体検出装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022526347A (ja) * 2020-02-18 2022-05-24 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド 画像処理方法、装置、電子機器並びにコンピュータプログラム製品
JP7235892B2 (ja) 2020-02-18 2023-03-08 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド 画像処理方法、装置、電子機器並びにコンピュータプログラム製品
WO2022074946A1 (ja) * 2020-10-07 2022-04-14 株式会社Jvcケンウッド 画像認識装置、画像認識方法およびプログラム

Also Published As

Publication number Publication date
WO2017010259A1 (ja) 2017-01-19

Similar Documents

Publication Publication Date Title
JP6741130B2 (ja) 情報処理システム、情報処理方法及びプログラム
US11210527B2 (en) Target object identifying device, target object identifying method and target object identifying program
JP6233624B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP7131599B2 (ja) 情報処理システム、情報処理方法及びプログラム
US10521673B2 (en) Counting persons in queue system, apparatus, method, and storage medium
JP6669243B2 (ja) 監視装置、監視方法および監視プログラム
WO2017010259A1 (ja) 画像処理装置、画像処理方法、並びにプログラム
JP2020515974A (ja) 歩行者追跡の方法および電子デバイス
US11842523B2 (en) Auto-configuring a region of interest (ROI) associated with a camera
JPWO2018179202A1 (ja) 情報処理装置、制御方法、及びプログラム
KR102022971B1 (ko) 영상의 객체 처리 방법 및 장치
JP2018156586A (ja) 監視システム
Ghasemi et al. Auto-SDA: Automated video-based social distancing analyzer
GB2573703A (en) Object tracking device and object tracking method
JP2018081402A (ja) 画像処理装置、画像処理方法、及びプログラム
WO2017135310A1 (ja) 通過数カウント装置、通過数カウント方法、プログラムおよび記憶媒体
JP6495691B2 (ja) 動体検出装置、動体検出方法及びコンピュータプログラム
JP2009301242A (ja) 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体
JP6180906B2 (ja) 顔認識ゲートシステム
US20210012095A1 (en) Information processing apparatus, person search system, place estimation method, and non-transitory computer readable medium storing program
JP6645503B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP2011087214A (ja) 撮影システム、方法及びプログラム
JP6558178B2 (ja) 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム
JP7338174B2 (ja) 物体検出装置および物体検出方法
KR101771655B1 (ko) 행위 인식 장치 및 방법