JP6650677B2 - 映像処理装置、映像処理方法、およびプログラム - Google Patents

映像処理装置、映像処理方法、およびプログラム Download PDF

Info

Publication number
JP6650677B2
JP6650677B2 JP2015037432A JP2015037432A JP6650677B2 JP 6650677 B2 JP6650677 B2 JP 6650677B2 JP 2015037432 A JP2015037432 A JP 2015037432A JP 2015037432 A JP2015037432 A JP 2015037432A JP 6650677 B2 JP6650677 B2 JP 6650677B2
Authority
JP
Japan
Prior art keywords
image
video processing
area
detection
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015037432A
Other languages
English (en)
Other versions
JP2016163075A (ja
Inventor
康夫 馬塲
康夫 馬塲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015037432A priority Critical patent/JP6650677B2/ja
Priority to US15/047,416 priority patent/US10474918B2/en
Publication of JP2016163075A publication Critical patent/JP2016163075A/ja
Application granted granted Critical
Publication of JP6650677B2 publication Critical patent/JP6650677B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、指定された映像処理領域に対して映像処理を実行可能な映像処理装置、映像処理方法、およびプログラムに関する。
監視システムでは、カメラによって撮像された映像を対象に種々の映像処理を行い、種々の有益な情報を取得することがなされている。映像処理を施す領域を、カメラによって撮影される映像の一部分に設定し、その領域のみに対して映像処理を施すことも可能である。
特許文献1には、エスカレータの乗降口などに滞留検出領域をあらかじめ設定し、滞留検知領域において滞留検出を行うことが記載されている。
特開2000−115750号公報
しかしながら、ユーザの意図通りに映像処理領域を指定することが困難である場合があった。例えば、ユーザが、店舗のレジ前に滞留している人体を検出するための映像処理領域を指定しようとする場合であって、映像処理が人間の頭部の検出結果に基づいて実施される場合を考える。この場合、ユーザは、カメラによる撮像領域のうち、レジ前に滞留する人物の頭部が含まれる領域を指定する必要がある。
しかしながら、上記のような滞留検出のための映像処理領域を指定する際において、レジ前に人物がいるとは限らない。レジ前に誰もいない状態の撮像画像を見ながらユーザが滞留検出のための映像処理領域を指定することは困難である。仮にユーザが対象領域を指定したとしても、検出漏れが発生しうる。
本発明はこのような問題点に鑑みなされたもので、ユーザの意図により近い映像処理領域を容易に指定できるようにするための方法を提供することを目的とする。
本発明に係る映像処理装置は、上記の問題点を解決するために、例えば、以下の構成を有する。すなわち、画像フレームを入力する入力手段と、前記入力手段により入力された画像フレームからオブジェクトを検出する検出手段と、前記入力手段により入力された画像フレームに対する前記検出手段によるオブジェクトの検出結果に基づいて、重畳画像を、映像処理領域をユーザに指定させるために表示画面に表示させる参照画像として決定する画像決定手段と、前記入力手段により入力された複数の画像フレームのうち、第1画像フレームを含む1以上の画像フレームから検出されたオブジェクトに対応するオブジェクト画像を、前記1以上の画像フレームとは異なる第2画像フレームに重畳することで前記重畳画像を生成する生成手段とを有し、前記画像決定手段は、各オブジェクトの中心間の距離が第1の閾値以上且つ第2の閾値未満になるようにオブジェクトの位置を決定し、前記生成手段は、前記画像決定手段によって決定された位置に対応するオブジェクト画像が重畳された前記重畳画像を生成する。
本発明によれば、ユーザの意図により近い映像処理領域を容易に指定できるようになる。
実施形態の映像処理装置の構成一例を示す図である。 実施形態の映像処理装置のハードウェア構成例を説明するための図である。 実施形態の映像処理装置の動作を説明するためのフローチャートである。 実施形態における撮像画像と参照画像の関係を説明するための図である。 実施形態における参照画像の例を示す図である。 実施形態における映像処理領域の指定方法の例を説明するための図である。 実施形態における映像処理領域の指定方法の例を説明するための図である。 実施形態における映像処理領域の決定方法の例を説明するための図である。 実施形態における映像処理領域の決定方法と、決定された映像処理領域を視覚化するための方法の例を説明するための図である。 実施形態における参照画像の動的な変更方法の例を説明するための図である。
以下、本発明の実施形態について図面に基づいて説明する。本実施形態における映像処理装置100の構成の例を図1に示す。
映像処理装置100は、撮像部101、記録部102、物体検出部103、表示制御部104、情報取得部105、映像処理領域決定部106(以下、領域決定部106)、映像処理部107、画像決定部108を有する。本実施形態の映像処理装置100は、例えば、ネットワークカメラである。すなわち、映像処理装置100は、撮像画像に対して映像処理を実行し、映像処理の結果と撮像画像とを合わせて、ネットワークに接続されたクライアント装置に対して提供することが可能である。ただし、映像処理装置100は、ネットワークカメラに限らず、例えば録画サーバであってもよいし、パーソナルコンピュータやスマートフォン等であっても良い。映像処理装置100を例えば録画サーバによって実現する場合は、撮像部101の代わりに、映像取得部が映像処理装置100に備わることになる。
撮像部101は、CMOSセンサやCCDセンサなどの固体撮像素子を制御して撮像を行いし、画像データを取得する。撮像部101の撮像により得られた各画像フレームは記録部102に記録される。
記録部102は、撮像部101の撮像により得られた画像データを適当な符号化方式で符号化して保存する。符号化方式としてはJPEGやMPEG−2、MPEG−4、H.264等の方式がある。すなわち記録部102は、所定の符号化方式により符号化された複数の画像フレームを記録する。
物体検出部103は、撮像部101の撮像により得られた画像データ(画像フレーム)に対して、所定のオブジェクト(興味オブジェクト)の検出処理を実行する。本実施形態では所定のオブジェクトが人物であり、物体検出部103が、頭部検出器を用いて人物を検出する場合の例を中心に説明する。ただし、所定のオブジェクト(興味オブジェクト)は人物に限らず、自動車、動物、移動物体等や、それらの組み合わせであってもよい。また、頭部検出器と共に、または、頭部検出器に代えて、顔検出器や人体検出器を用いて人物が検出されるようにしてもよい。また、顔検出器や頭部検出器のようなパターン認識や機械学習に基づく手法に限定せず、背景画像と最新の画像との差分によって動体を検出する動体検出器等を任意に組み合わせて人物を検出することも可能である。物体検出部103による物体の検出結果は、画像決定部108に渡される。
画像決定部108は、記録部102に記録された1又は複数の画像フレームを用いて、参照画像を決定する。詳細は後述するが、本実施形態における参照画像は、映像処理領域を指定させるために表示される画像であり、例えば、図5(a)に示すような画像である。画像決定部108は、撮像部101の撮像により得られた複数の画像フレームから参照画像を生成することもできるし、当該複数の画像フレームのうち、検出されたオブジェクトの数が所定の条件を満たす画像を参照画像として決定することもできる。画像決定部108が決定した参照画像は、表示制御部104を介して表示部に表示される。本実施形態において、表示部は、映像処理装置100とネットワークを介して接続される。ただし、表示部と映像処理装置100とが一体であってもよい。画像決定部108による参照画像の設定方法及び決定方法の詳細は後述する。
情報取得部105は、上記の参照画像が表示された表示画面に対するユーザ操作に応じた入力情報を受け取る。情報取得部105が取得する入力情報の詳細は後述する。
領域決定部106は、情報取得部105を通じて取得された入力情報に基づいて、映像処理の対象となる映像処理領域を決定する。領域決定部106の詳細は後述する。
映像処理部107は、領域決定部106によって設定された映像処理領域を対象に、混雑検出や滞留検出などの映像処理を実施する。なお、映像処理は混雑検出や滞留検出に限らず、例えば、混雑度検出や滞留度検出、通過検出、持ち去り検出、置き去り検出、侵入検出等であってもよい。なお、本実施形態における混雑検出は、映像処理領域の面積に応じた閾値以上の数のオブジェクト(人体)が検出されたことを検出するための映像処理である。また、混雑度検出は、映像処理領域の面積に対するオブジェクト(人体)の数の割合に応じた混雑度を検出するための映像処理である。また、本実施形態における滞留検出は、映像処理領域内に同一オブジェクト(同一人物)が所定の時間閾値以上、存在し続けていることを検出するための映像処理である。また、滞留度検出は、映像処理領域内に同一オブジェクトが存在し続けている時間に応じた滞留度を検出するための映像処理である。また、通過検出は、例えばユーザ指示により指定された検知線をオブジェクトが通過したことを検出するための映像処理である。また、持ち去り検出は、オブジェクト(人物)が、所定のオブジェクトを持ち去ったことを検出するための映像処理であり、置き去り検出は、オブジェクト(人物)が、所定のオブジェクトを置き去ったことを検出するための映像処理である。
本実施形態の表示制御部104は、上記のような映像処理の対象となる映像処理領域をユーザに指定させるために、上述のような参照画像を表示させる。このようにすることで、ユーザが意図する映像処理領域が、より簡単に設定できるようになる。なお、通過検出を設定する場合、映像処理領域として、検知線がユーザにより指定される。すなわち、本実施形態の映像処理領域は、映像処理の内容に応じて、閉領域または線分の形態をとり得る。
なお、映像処理装置100内の各部の一部又はすべてが、それぞれ個別のハードウェアで実装されてもよいし、ソフトウェアによって実現されるようにしてもよく、その構成に特段の制限はない。図2は、本実施形態に係る映像処理装置100の機能をCPU等のハードウェア構成によって実現する場合における映像処理装置100のハードウェア構成例である。
映像処理装置100は、CPU801と、ROM802と、RAM803と、外部メモリ804と、通信I/F805と、撮像部806と、システムバス807とを備える。
CPU801は、映像処理装置100における動作を統括的に制御するものであり、システムバス807を介して、各構成部(802〜806)を制御する。
ROM802は、CPU801が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、当該プログラムは、外部メモリ804や着脱可能な記憶媒体に記憶されていてもよい。
RAM803は、CPU801の主メモリ、ワークエリア等として機能する。すなわち、CPU801は、処理の実行に際してROM802から必要なプログラム等をRAM803にロードし、当該プログラム等を実行することで図1を用いて説明したような映像処理装置100の各種機能動作を実現する。
外部メモリ804は、例えば、CPU801がプログラムを用いた処理を行う際に必要な各種データや各種情報等を記憶している。また、外部メモリ804には、例えば、CPU801がプログラム等を用いた処理を行うことにより得られた各種データや各種情報等が記憶される。
通信I/F805は、外部装置(本実施形態においては表示部や、ネットワークに接続された録画サーバ等)と通信するためのインターフェースである。通信I/F805は、例えばLANインターフェースである。
撮像部806は、CMOSセンサやCCDセンサなどの固体撮像素子を有し、CPU801からの制御に基づいて静止画、及び、動画の撮像を行うことが可能である。
システムバス807は、CPU801、ROM802、RAM803、外部メモリ804及び通信I/F805、及び、撮像部806を通信可能に接続する。
続いて、本実施形態の映像処理装置100の動作について図3を用いて説明する。図3は本実施形態の映像処理装置100の動作を説明するためのフローチャートである。本実施形態の映像処理装置100は、図3の処理を実行するためのプログラムをCPU801が実行することが可能である。また、映像処理装置100は、図1の各機能ブロックの一部またはすべてが、それぞれ個別のハードウェアによって実現されるようにしてもよい。
また、図3の処理は、映像処理装置100(例えばネットワークカメラ)の電源がオンになったタイミングで開始される。ただし、図3の処理の開始タイミングは、電源オンのタイミングに限定する必要はない。
S201において、情報取得部105は、映像処理領域の設定要求を取得したか否かを判定する。本実施形態において、映像処理領域の設定要求は、映像処理装置100にネットワークを介して接続されたクライアント装置(表示部)によって発行される。すなわち、情報取得部105は、クライアント装置のユーザがした操作に応じた信号を、ネットワークを介して、クライアント装置から取得する。また、情報取得部105は、Webサーバの機能によってクライアント装置に対してユーザインタフェースを提供し、ユーザインタフェースを介して入力されたユーザ操作に基づいて、設定要求を取得する。ただし、情報取得部105による映像処理領域の設定要求の取得方法は、上記の方法に限らない。
S202において、情報取得部105は、映像処理領域の設定要求を取得したか否かを判定する。設定要求を取得したと判定した場合はS203に進む。設定要求を取得していないと判定した場合はS201に戻る。
S203において、画像決定部108は、記録部102に記録された過去映像(過去の撮像により得られた画像フレーム)に基づいて、参照画像を決定する。本実施形態における参照画像は、映像処理領域を指定させるために表示画面に表示される画像であり、例えば、画像フレーム内の種々の場所に、所定のオブジェクト(例えば人物)が密に存在するような画像のことである。参照画像の例を図5(a)に示す。
参照画像は種々の方法により決定、又は、生成することができる。1つ目の方法は、記録部102に記録された1又は複数の画像フレームのうち、もっともオブジェクト(本実施形態においては人体)の数が多い画像フレームを参照画像とする方法である。ただし、同じ数のオブジェクトが検出された画像フレームが複数存在する場合は、当該複数の画像フレームのうち、撮像時刻が新しい画像フレームを参照画像とすることができる。また、最近撮像された画像フレームから順に、検出されたオブジェクトの数を参照し、当該オブジェクトの数が閾値以上の画像フレームを参照画像として決定することも可能である。すなわち画像決定部108は、複数の画像フレームのうち、検出されたオブジェクトの数が所定の条件を満たす画像フレームを、参照画像として決定する。
オブジェクトの数は、例えば物体検出部103が頭部検出器を用いることで検出することが可能である。なお、上述の通り、オブジェクトは人体に限らないし、オブジェクトの検出方法は頭部検出器を用いる方法に限らない。ユーザが検出したいと考えるオブジェクトの種別に応じて物体検出部103で用いる検出器が選択されればよい。また、人体、顔、種々の動物、自動車等のうち、どの種別のオブジェクトを興味オブジェクトとするかを、ユーザが指定することが可能である。また、オブジェクトの種別を指定する方法に代えて、興味オブジェクトの動きの速度やサイズをユーザが指定するようにしてもよい。
2つ目の方法は、過去の異なる時刻に撮像された画像フレームを合成し、参照画像を生成する方法である。例えば、図4(a)の背景画像301は、動物体が存在しない画像である。画像決定部108は、例えば、動体物が映っていない瞬間をユーザに指定させ、その瞬間の画像フレームを背景画像301として取得することが可能である。また、画像決定部108は、過去に撮像された複数の画像フレームの平均画像、または中央値画像を背景画像301として生成することも可能である。
図4(b),(c),(d),及び(e)は、ある時点において撮像された画像フレームである。図4(b)〜(e)のそれぞれの画像フレームは、オブジェクト302が左から右に歩いている様子を示している。画像決定部108は、これらの画像フレームのそれぞれについて、背景画像301との差分をとり、ある適当な閾値よりも差分が大きいピクセルの集合をとると、動体物を抽出できる。画像決定部108は、物体検出器を利用することで抽出した動体物が興味物体(人体)であると判定した場合、この動体物を、背景画像301に重畳することで参照画像(重畳画像)を生成することができる。すなわち、画像決定部108は、第1画像フレーム(図4(b)の画像)を含む1以上の画像フレーム(図4(b)〜(e)の画像)から検出されたオブジェクトに対応するオブジェクト画像を、画像フレーム(図4(a)の画像)に重畳する。このようにすることで、画像決定部108は、参照画像(重畳画像)を生成することができる。上記のようにして生成された参照画像の例を図4(f)に示す。なお、1以上の画像フレームとは異なる画像フレームは、当該1以上の画像フレームよりも後に入力(撮像)された画像フレームであってもよいし、図4(a)で示した背景画像301であってもよいし、それ以外の画像であってもよい。
図4(f)は、図4(a)に示す背景画像301に、図4(b)〜(e)に示す画像フレームから検出されたオブジェクトに対応するオブジェクト画像を重畳することによって生成された参照画像(重畳画像)の例を示している。図4(f)の画像フレームは、図4(b)〜(e)の画像フレームよりも人体が多く存在するため、映像処理領域の設定の際に表示させれば、ユーザが映像処理領域を指定しやすくなる。また、図(b)〜(e)よりも多くの画像フレームからオブジェクトを検出し、当該オブジェクトに対応するオブジェクト画像を重畳すると、図5(a)に示すような参照画像を生成することができる。図5(a)の参照画像によれば、図4(f)よりもさらに人体が多く存在している。従って、図5(a)の参照画像を表示させることで、ユーザは、より映像処理領域を容易に設定できるようになるという効果がある。
また、本実施形態の画像決定部108は、複数の画像フレームから検出されたオブジェクトを他の画像フレームに重畳させる際に、各オブジェクトの距離が重ならないように、重畳位置を決定することができる。また、画像決定部108は、複数の画像フレームから検出されたオブジェクトを他の画像フレームに重畳させる際に、各オブジェクトの中心間の距離が第1の閾値以上になるように、重畳位置を決定することができる。さらに、本実施形態の画像決定部108は、複数の画像フレームから検出されたオブジェクトを他の画像フレームに重畳させる際に、各オブジェクトの中心間の距離が第2の閾値未満になるように、重畳位置を決定できる。図5(a)は、各オブジェクトの中心間の距離が第1の閾値以上且つ第2の閾値未満になるようにオブジェクトが重畳された参照画像の例を示している。このような参照画像を表示させることで、オブジェクトが多重に存在する領域と、オブジェクトが存在しない領域が混在する参照画像を表示させる場合よりも、ユーザは、映像処理領域を指定しやすくなる。ただし、オブジェクトの重畳方法は、上記の方法に限らない。例えば、第1の閾値のみに基づいてオブジェクトを重畳させるようにしてもよいし、第2の閾値のみに基づいてオブジェクトを重畳させるようにしてもよい。
また、以上説明した2つの方法では、興味オブジェクトとしてユーザに指定されたオブジェクト(人体)が、直接、表示画面に表示されるため、プライバシーの観点から問題が生じる可能性がある。そこで参照画像を表示させるための3つ目の方法として、オブジェクト領域の画像を単純図形やアバター(人体を模した図形)に変換して参照画像を生成する方法が考えられる。すなわち、画像決定部108は、第1画像フレームを含む複数の画像フレームから検出されたオブジェクトの位置に対応する第2画像フレーム内の位置に、検出済みオブジェクトを模したオブジェクト画像(単純図形等)を重畳することで参照画像を生成できる。
また、単純図形やアバター(人体を模した図形)の代わりに、オブジェクト画像をシルエット化した参照画像が生成されるようにしてもよい。すなわち、画像決定部108は、物体検出部103により検出されたオブジェクト(人体)に対して加工処理(シルエット化処理)を実行することで、オブジェクトがシルエット化された加工済み参照画像を生成することができる。シルエット化された参照画像や、オブジェクトが単純図形やアバターに置き換えられた参照画像を表示すれば、人物のプライバシーを守りつつ、映像処理領域の設定を容易に行うことができるという効果が得られる。
図5(b)は、オブジェクトとして検出された人体の画像を単純図形に置き換えることで生成された参照画像(抽象化済み参照画像)の例である。図5(b)に示されるように、画像フレームから検出されたオブジェクトが、同サイズの単純図形に置き換えられている。本実施形態の画像決定部108は、オブジェクトの大きさや向きを判定し、判定結果に応じて、人型の単純図形の表示サイズや向きを決定する。
なお、物体検出部103は、所定の条件に合致するオブジェクトのみを画像フレームから検出することが可能である。また、画像決定部108は、物体検出部103により画像フレームから検出された所定の条件に合致するオブジェクトを他の画像フレームに重畳することで参照画像を生成することが可能である。所定の条件とは、例えば、オブジェクトのサイズ範囲、色、及び、動きの速度等である。例えばユーザが160センチメートルから180センチメートルの人物を指定した場合、物体検出部103は、記録部102に記録された1以上の画像フレームから160センチメートルから180センチメートルの人体を検出することができる。そして、画像決定部108は、物体検出部103により検出された160センチメートルから180センチメートルの人体を他の画像フレームに重畳することで参照画像を生成することが可能である。
なお、人体のサイズは、ユーザが指定することもできるが、これまでの撮像画像から検出された人体のサイズの統計値等に基づいて自動決定されるようにしてもよい。このように重畳対象を限定することで、参照画像内に含まれるオブジェクト(興味オブジェクト)の見た目のばらつきを減らすことができるので、ユーザは、映像処理領域の指定をより簡単に行うことができるようになる。また、身長を数値として指定する方法のほか、画像フレームを表示する表示画面上で指定された領域に基づいてサイズが特定されるようにしてもよい。
なお、上記の説明では参照画像を表示させる方法を3つ紹介したが、これらの方法の一部を変更してもよいし、3つの方法を適宜組み合わせてもよい。
S204において、表示制御部104は、S203で決定、又は生成された参照画像を、表示部に表示させる。本実施形態では表示部(クライアント装置)と映像処理装置100はネットワークを介して接続されている場合を想定しているが、映像処理装置と表示部とが一体の装置であってもよい。
S205において、情報取得部105は、表示部を有するクライアント装置からの入力情報を受信する。より具体的には、ユーザは、S204において表示された参照画像を見ながら、映像処理を実行させるべき映像処理領域を指定するために必要な情報を入力する。この情報を入力情報と呼ぶ。映像処理領域の指定には種々の方法を用いることができる。どの指定方法を採用するかによって入力情報の形式も異なる。以下、3つの指定方法について説明する。
1つ目の指定方法は、ユーザが、マウスなどの入力部を用いて、参照画像上の映像処理領域を明示的に指定する方法である。例えば入力部としてマウスを用いる場合、ユーザは、マウスをドラッグしながら任意の形状の閉領域を指定することで、その閉領域を映像処理領域とすることができる。または、ユーザは、マウスで3点以上の点を指定し、それらの点を指定された順に繋ぎ合わせることで形成される多角形を映像処理領域として指定することもできる。図6の閉領域601は、ユーザにより指定された6点の座標に基づいて映像処理領域が特定される場合の例である。入力部がタッチパネル等の他のユーザインタフェースであった場合においても、マウスの場合と同様にして映像処理領域の指定が可能である。1つ目の指定方法では、この閉領域を特定するための情報を入力情報とする。1つ目の指定方法を用いる場合、情報取得部105は、S205において、参照画像の座標を指定するユーザ入力を受け付ける。そして、領域決定部106は、情報取得部105により受け付けられたユーザ入力(座標)に従って、S206において映像処理領域を決定する。
なお、上述の通り、本実施形態では、映像処理領域が閉領域となるケースと、線分となるケースを想定している。映像処理領域が線分となるケースは、映像処理として、例えば、通過検出が実行されるケースである。映像処理領域が線分である場合、ユーザは、例えばマウスのドラッグ操作により参照画像上の2点を指定することにより、線分を指定することができる。この場合の入力情報は、線分を特定するための情報(例えば2点の座標情報)である。
また、これまでの画像フレーム中において、興味オブジェクトが1度も、又は、ほとんど検出されない領域(非検出領域)が存在する場合が考えられる。非検出領域は、興味オブジェクトが立ち入ることのできない領域であったり、もしくは物体検出器が興味オブジェクトの検出を苦手とする領域であったりする可能性がある。このような場合において、映像処理領域として非検出領域が設定されると、映像処理部107による映像処理の精度が保障できない恐れがある。
このような事態を防ぐため、領域決定部106は、ユーザによる非検出領域を含む映像処理領域の指定に対して、エラーを通知し、映像処理領域の指定を無効にしてもよい。この場合、ユーザは、非検出領域を含まない映像処理領域を設定しなおすことができる。また、例えば、領域決定部106は、ユーザによる非検出領域を含む映像処理領域の指定を受け付けた場合、確認画面を表示させ、確認画面に対するユーザ操作に応じて、非検出領域を含む映像処理領域の設定を行うようにしてもよい。さらに例えば、領域決定部106は、ユーザによる非検出領域を含む映像処理領域の指定を受け付けた場合、当該映像処理領域を設定すると共に、警告を出力するようにしてもよい。警告の出力には、警告メッセージの表示や、アラームの出力や、映像処理領域を通常とは異なる色で表示させる処理が含まれる。
すなわち、ユーザ操作により指定された映像処理領域内に非検出領域が含まれる場合、領域決定部106は、当該指定の無効化、及び、通知の出力のうち少なくともいずれかを実行する。なお、非検出領域とは、物体検出部103が所定数の画像フレームにおいて所定のオブジェクト(人体)を検出した回数が閾値未満である領域である。このような構成によれば、ユーザは、自分が指定した映像処理領域に非検出領域が含まれることを容易に知ることができる。
2つ目の指定方法は、参照画像内に存在する興味オブジェクト(人体)のうち、映像処理領域内のオブジェクトにしたいオブジェクトと映像処理領域外のオブジェクトにしたいオブジェクトとをそれぞれユーザに指定させる方法である。言い換えると、ユーザは、参照画像内のオブジェクトのうち、映像処理の対象とすべきオブジェクトと、映像処理の対象とすべきでないオブジェクトを指定することができる。映像処理が滞留検出である場合、滞留検出の対象とするオブジェクトと、滞留検出の対象とすべきでないオブジェクトをユーザが指定できる。
より具体的には、情報取得部105は、参照画像上に存在する各興味オブジェクトのそれぞれに対して、ユーザが左クリック、または右クリックしたことを検知する仕組みを、クリッカブルマップなどの手法を用いて提供できる。この構成により、例えばユーザが、あるオブジェクトの上にマウスカーソルをのせて左クリックした場合、当該オブジェクトは映像処理の対象とすべきオブジェクトとして指定されたことになる。一方、ユーザが別のオブジェクトの上にマウスカーソルをのせて右クリックした場合、当該オブジェクトは映像処理の対象とすべきでないオブジェクとして指定されたことになる。ただし、映像処理の対象とすべきオブジェクトであるか否かを判別する方法は、マウスの左クリックと右クリックとを判別する方法に限らない。
図7(a)の黒丸701は、映像処理の対象とすべきオブジェクトとしてユーザによって指定されたオブジェクト(処理対象オブジェクト)を示している。また、図7(a)の白丸702は、映像処理の対象とすべきでないオブジェクト(非処理対象オブジェクト)としてユーザによって指定されたオブジェクトを示している。
この2つ目の指定方法では、ユーザの入力情報は、処理対象オブジェクトと非処理対象オブジェクトに関する識別情報である。識別情報は、映像処理装置100がオブジェクトを特定可能な情報であれば何でもよいが、例えば、オブジェクトの頭部座標の情報や、オブジェクトの中心座標の情報である。オブジェクトIDであってもよい。
すなわち、情報取得部105は、表示画面に表示された参照画像内のオブジェクトのうち、映像処理の対象とすべきオブジェクトと映像処理の対象とすべきでないオブジェクトとを指定するユーザ入力(入力情報)を受け付ける。そして、領域決定部106は、情報取得部105により受け付けられた入力情報に従って、映像処理領域を決定する。領域決定部106による映像処理領域の決定方法については後述する。
また、映像処理領域として線分が指定される場合、ユーザは、2つのオブジェクトを指定することで、映像処理領域を指定することが可能である。ユーザによって2つのオブジェクトが指定されると、当該2つのオブジェクトを結ぶ線分が、映像処理領域として指定される。この場合の入力情報は、例えば、指定された2つのオブジェクトの頭部座標の情報や中心座標の情報とすることができる。
3つ目の指定方法は、参照画像内に存在する興味オブジェクト(人体)のうち、映像処理領域内のオブジェクトにしたいとユーザが考えるオブジェクトのみをユーザが指定する方法である。すなわち、ユーザは、参照画像内の複数のオブジェクトのうち、映像処理の対象とすべきオブジェクト(処理対象オブジェクト)を指定し、非処理対象オブジェクトを指定しない。この3つ目の指定方法では、ユーザの入力情報は、処理対象オブジェクトの識別情報(例えば、オブジェクトの頭部座標やオブジェクトの中心座標の情報)である。すなわち、情報取得部105は、表示画面に表示された参照画像内のオブジェクトのうち、映像処理の対象とすべきオブジェクトを指定するユーザ入力(入力情報)を受け付ける。そして、領域決定部106は、情報取得部105により受け付けられた入力情報に従って、映像処理領域を決定する。領域決定部106による映像処理領域の決定方法は後述する。
情報取得部105は、S205において、以上説明した指定方法のいずれかに対応する入力情報を取得する。S206において、領域決定部106は、入力情報に基づいて、映像処理領域を決定する。入力情報の形式ごとに映像処理領域の決定方法が異なるため、S205で説明した3つの指定方法のそれぞれについて、映像処理領域の決定方法を説明する。
1つ目の指定方法を用いる場合の映像処理領域の決定方法は、入力情報として与えられる閉領域をそのまま映像処理領域として用いる。ただし、入力情報に従って決定された映像処理領域を領域決定部106が補正することも可能である。具体的な補正方法は後述する。
2つ目の指定方法を用いる場合の映像処理領域の決定方法について説明する。領域決定部106は、処理対象オブジェクトと非処理対象オブジェクトのそれぞれの位置を特定するための座標情報を用いて、処理対象オブジェクトと非処理対象オブジェクトとを分離する境界を求めることができる。そして、領域決定部106は、当該境界によって区切られた領域のうち、処理対象オブジェクト側の領域を映像処理領域とすることができる。境界の導出方法としては、例えば、ボロノイ図を用いることが可能である。図7(b)は、図7(a)の処理対象オブジェクトと非処理対象オブジェクトの座標のみを表示した図である。領域決定部106は、処理対象オブジェクトと非処理対象オブジェクトの座標の和集合に対してボロノイ図を求めることで、和集合を構成する各要素に属するボロノイ領域を求めることができる。そして、領域決定部106は、処理対象オブジェクトの点に属するボロノイ領域を結合してできる領域を、映像処理領域として決定できる。この方法により求めた映像処理領域の例を図8の灰色領域901に示す。なお、領域決定部106は、上記のようにして求めた映像処理領域に対して、頂点の数を減らすなどの処理を行い、映像処理領域の形状を修正することもできる。
また、映像処理領域を、サポートベクターマシンなどの2クラス識別器を用いて求めることができる。領域決定部106は、処理対象オブジェクトと非処理対象オブジェクトとをよく分離する境界を学習し、処理対象オブジェクト側の領域を映像処理領域として決定できる。映像処理領域の求め方は以上に限定されるものではなく、任意の方法を用いることが可能である。
3つ目の指定方法を用いる場合の映像処理領域の決定方法について説明する。例えば、ユーザが処理対象オブジェクトとして指定していないオブジェクトをすべて非処理対象オブジェクトにみなすことで、2つ目の指定方法を用いる場合と同様にして映像処理領域を決定できる。また、他の方法として、ユーザが処理対象オブジェクトとして指定したオブジェクトの点をすべて含む閉領域を、凸包により求め、その領域を映像処理領域として決定することもできる。その際、凸包で求めた多角形の領域を膨張させることで、映像処理領域に余分な領域を持たせるようにしてもよい。図9の領域1001は凸包で求めた映像処理領域の例である。
いずれの映像処理領域の決定方法で求めた映像処理領域についても、ユーザが手動で調整できるようにしてもよい。映像処理領域の決定方法は以上に限定されるものではなく、任意の方法を用いることが可能である。領域決定部106は、以上の方法によりS206にて決定された映像処理領域を、参照画像401に重畳してユーザに提示させることが可能である。
また、S206において、領域決定部106は、参照画像内の床に相当する領域を認識している場合は、映像処理領域を床に投影し、映像処理領域を疑似的な三次元図形で特定することができる。そして、表示制御部104は、領域決定部106により特定された三次元図形の映像処理領域を表示部に表示させることが可能である。図9(b)の斜線で埋められた図形1101は、三次元図形の映像処理領域の例である。この表示により、ユーザは映像処理領域の範囲をより正確に理解することができる。
S207において、領域決定部106は、ユーザが映像処理領域の設定を完了したか否かを判定する。映像処理領域の設定を完了したと判定された場合、S208に進む。完了していないと判定された場合は、S203に戻る。本実施形態の映像処理装置100は、複数の映像処理領域を設定させることが可能である。
また、ユーザが映像処理領域の設定を完了するまでの間、映像処理装置100は、S203からS206までの処理を、インタラクティブに実行することもできる。例えば、2つ目の指定方法を用いる場合、領域決定部106は、ユーザが処理対象オブジェクトまたは非処理対象オブジェクトとして1つのオブジェクトを指定するたびに、映像処理領域を決定し直し、最新の映像処理領域を逐次ユーザに提示することができる。ユーザはこの映像処理領域をもとに、入力情報の調整を行うことができる。
また、S203において、ユーザの操作に応じてインタラクティブに参照画像を生成するようにすることで、ユーザがより効率よく映像処理領域を設定のための情報を入力できるようになる。より具体的には、S205において、ユーザの入力操作に付随する情報、例えばユーザが操作するマウスポインタの座標値などの情報を、入力情報に含める。例えば、ユーザが1つ目の指定方法(参照画像上の閉領域を指定する方法)を用いて、3点以上の点を指定しようとしている場合を考える。図10は、ユーザが既に点1203および点1204を指定し終わり、3つ目の点を指定しようとしているところを表している。1205はマウスポインタである。図10の(a)および(b)は、マウスポインタ1205の位置に応じて、映像処理領域と非映像処理領域の境界となる仮の線分1206が参照画像に重畳表示されていることを示している。また、図10は、仮の線分1206の両側のごく近くに存在する興味オブジェクトが、参照画像に動的に重畳されている状態を示している。この参照画像の動的な変更は、画像決定部108が行う。すなわち、画像決定部108は、映像処理領域の指定のためのユーザ操作に関する入力情報を取得し、取得された情報に応じた位置に存在するオブジェクトを他の画像フレームから検索し、検索されたオブジェクトを参照画像に重畳できる。言い換えると、画像決定部108は、表示画面に参照画像が表示された後、映像処理領域を指定するためのユーザ操作の入力状況に応じて、参照画像内のオブジェクトの位置を変更する。
このように、ユーザの操作に応じてインタラクティブに参照画像を生成することで、ユーザは、自分の行う操作によってどの領域に存在する興味オブジェクトが映像処理領域に入るかをよく理解できる。この際、仮の線分1206、もしくはマウスポインタ1205からの距離が遠い興味オブジェクトほど透過度を高くして背景に重畳して参照画像を生成することで、ユーザに余計な情報を提示しないようにすることもできる。
同様に、ユーザが2つ目または3つ目の指定方法を用いて映像処理領域を指定する場合においても、画像決定部108は、マウスポインタの位置に応じて、マウスポインタの位置に近い興味オブジェクトを選んで背景画像に重畳することができる。このようにして参照画像を動的に生成しても、ユーザは、どの領域の興味オブジェクトが映像処理領域に含まれるかをより正確に理解できるようになる。
S208において、映像処理部107は、S206によって決定された映像処理領域を対象に、映像処理を実施する。映像処理は、例えば、混雑検出、滞留検出、混雑度検出、滞留度検出、通過検出、持ち去り検出、置き去り検出、侵入検出等である。そして、表示制御部104は、映像処理部107による映像処理の結果を、ネットワークを介して接続される表示部に表示させることができる。上記説明した映像処理装置100の構成によれば、映像処理の対象となる映像処理領域をユーザが設定することを補助できる。
なお、上記の実施形態では、参照画像を表示させることで、ユーザによる映像処理領域の指定を補助する例を中心に説明したが、映像処理装置100は、参照画像を表示させる代わりに、または、参照画像の表示と共に、以下の制御を実行することが可能である。すなわち、映像処理装置100の表示制御部104は、映像処理領域の設定のための表示画面上に、映像処理のために検出されるオブジェクトの部位に関する情報を表示させることができる。例えば、映像処理部107が映像処理として混雑度検出を行う場合において、人体の頭部の検出結果に基づいて混雑度検出が実行されることを示す画像を表示させる。ただし、頭部ではなく、顔、人体の中心、脚部等であってもよい。表示の方法は、文字列で表示させてもよいし、表示画像内のオブジェクトのうち、検出処理に関係する部位のみ色を変更することによって表示させてもよいし、その他の方法であってもよい。このようにすれば、ユーザは、オブジェクトのどの部位の検出結果に基づいて映像処理が実行されるのかを理解したうえで映像処理領域を指定できるので、より正確に映像処理領域を指定できるようになる。
また、ユーザが明示的に映像処理領域を指定した場合において、指定された映像処理領域を映像処理装置100が補正することも可能である。すなわち、ユーザが指定したオブジェクトの部位に関する情報と、ユーザが指定した映像処理領域の情報とに基づいて、領域決定部106は、映像処理領域を補正することができる。
例えば、ユーザが人体の頭部を指定したあと、映像処理領域を指定した場合、情報取得部105は、部位(頭部)を示す入力情報と、映像処理領域を特定するための入力情報とを取得する。この場合、領域決定部106は、ユーザがオブジェクト(人物)の頭部に基づいて映像処理領域を指定したと判定することができる。また、領域決定部106は、映像処理部107がオブジェクトのどの部位を検出して映像処理を実行しているのかを示す情報を映像処理部107から取得することができる。そして、例えば、ユーザが、人体の頭部に基づいて映像処理領域を指定した場合であって、映像処理部107が、人体の脚部の検出結果に基づいて映像処理を実行する場合、領域決定部106は、ユーザが指定した映像処理領域を下にずらす。
一方、ユーザが人体の脚部を指定したあと、映像処理領域を指定した場合、情報取得部105は、部位(脚部)を示す入力情報と、映像処理領域を特定するための入力情報とを取得する。この場合、領域決定部106は、ユーザがオブジェクト(人物)の脚部に基づいて映像処理領域を指定したと判定することができる。また、領域決定部106は、映像処理部107がオブジェクトのどの部位を検出して映像処理を実行しているのかを示す情報を映像処理部107から取得することができる。そして、例えば、ユーザが、人体の脚部に基づいて映像処理領域を指定した場合であって、映像処理部107が、人体の頭部の検出結果に基づいて映像処理を実行する場合、領域決定部106は、ユーザが指定した映像処理領域を上にずらす。
なお、ユーザがオブジェクトの部位を指定する方法は、直接、オブジェクトの部位をクリック等により指定する方法のほか、ラジオボタン等の操作によって指定する方法も考えられる。上記の構成によれば、ユーザは、映像処理装置100が、オブジェクトのどの部位の検出結果に基づいて映像処理が実行されているのかを意識せずに、より正確に映像処理領域を指定できるようになる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 撮像部
102 記録部
103 物体検出部
104 表示制御部
105 情報取得部
106 映像処理領域決定部
107 映像処理部
108 画像生成部

Claims (22)

  1. 画像フレームを入力する入力手段と、
    前記入力手段により入力された画像フレームからオブジェクトを検出する検出手段と、
    前記入力手段により入力された画像フレームに対する前記検出手段によるオブジェクトの検出結果に基づいて、重畳画像を、映像処理領域をユーザに指定させるために表示画面に表示させる参照画像として決定する画像決定手段と、
    前記入力手段により入力された複数の画像フレームのうち、第1画像フレームを含む1以上の画像フレームから検出されたオブジェクトに対応するオブジェクト画像を、前記1以上の画像フレームとは異なる第2画像フレームに重畳することで前記重畳画像を生成する生成手段とを有し、
    前記画像決定手段は、各オブジェクトの中心間の距離が第1の閾値以上且つ第2の閾値未満になるようにオブジェクトの位置を決定し、
    前記生成手段は、前記画像決定手段によって決定された位置に対応するオブジェクト画像が重畳された前記重畳画像を生成することを特徴とする映像処理装置。
  2. 撮像手段をさらに有し、
    前記入力手段は、前記撮像手段の撮像により得られた画像フレームを入力することを特徴とする請求項1に記載の映像処理装置。
  3. 前記生成手段は、前記第1画像フレームを含む1以上の画像フレームから検出されたオブジェクトの位置に対応する前記第2画像フレーム内の位置に、前記検出済みオブジェクトを模したオブジェクト画像を重畳することで前記重畳画像を生成することを特徴とする請求項1または2に記載の映像処理装置。
  4. 前記検出手段により画像フレームから検出されたオブジェクトに対して加工処理を実行する加工手段を有し、
    前記加工手段による加工済みの画像フレームが、前記参照画像として前記表示画面に表示されることを特徴とする請求項1または2に記載の映像処理装置。
  5. 前記表示画面に表示された参照画像内の座標を指定するユーザ入力を受け付ける受付手段と、
    前記受付手段により受け付けられたユーザ入力に従って前記映像処理領域を決定する領域決定手段とを有することを特徴とする請求項1乃至4のうち、何れか1項に記載の映像処理装置。
  6. 前記表示画面に表示された参照画像内のオブジェクトのうち、前記映像処理の対象とすべきオブジェクトを指定するユーザ入力を受け付ける受付手段と、
    前記受付手段により受け付けられたユーザ入力に従って前記映像処理領域を決定する領域決定手段とを有することを特徴とする請求項1乃至4のうち、何れか1項に記載の映像処理装置。
  7. 前記表示画面に表示された画像フレーム内のオブジェクトのうち、前記映像処理の対象とすべきオブジェクトと、前記映像処理の対象とすべきでないオブジェクトとを指定するユーザ入力を受け付ける受付手段と、
    前記受付手段により受け付けられたユーザ入力に従って前記映像処理領域を決定する領域決定手段とを有することを特徴とする請求項1乃至4のうち、何れか1項に記載の映像処理装置。
  8. 前記生成手段は、前記1以上の画像フレームから検出されたオブジェクトのうち、所定のサイズ範囲に収まるオブジェクトに対応するオブジェクト画像を、前記第2画像フレームに重畳することで、前記重畳画像を生成することを特徴とする請求項1乃至7のうち、何れか1項に記載の映像処理装置。
  9. 前記表示画面に前記参照画像が表示された後、前記映像処理領域を指定するためのユーザ操作の入力状況に応じて、前記参照画像内のオブジェクトの位置を変更する変更手段を有することを特徴とする請求項1乃至8のうち、何れか1項に記載の映像処理装置。
  10. ユーザ操作により指定された映像処理領域内に、前記検出手段が所定数の画像フレームにおいてオブジェクトを検出した回数が閾値未満である非検出領域が含まれる場合、当該指定の無効化、及び、通知の出力のうち、少なくとも何れかを実行する制御手段を有することを特徴とする請求項1乃至9のうち、何れか1項に記載の映像処理装置。
  11. 前記映像処理は、前記映像処理領域の面積に応じた閾値以上の数のオブジェクトが存在することを検出するための混雑検出、前記映像処理領域の面積に対する人体の数の割合に応じた混雑度を検出するための混雑度検出、前記映像処理領域内に同一オブジェクトが所定の時間閾値以上、存在し続けていることを検出するための滞留検出、前記映像処理領域内に同一オブジェクトが存在し続けている時間に応じた滞留度を検出するための滞留度検出、検知線をオブジェクトが通過したことを検出するための通過検出、オブジェクトが所定のオブジェクトを持ち去ったことを検出するための持ち去り検出、及び、オブジェクトが、所定のオブジェクトを置き去ったことを検出するための置き去り検出のうち、少なくともいずれかが含まれることを特徴とする請求項1乃至10のうち、何れか1項に記載の映像処理装置。
  12. 画像フレームを入力する入力工程と、
    前記入力工程により入力された画像フレームからオブジェクトを検出する検出工程と、
    前記入力工程により入力された画像フレームに対する前記検出工程によるオブジェクトの検出結果に基づいて、重畳画像を、映像処理領域をユーザに指定させるために表示画面に表示させる参照画像として決定する画像決定工程と、
    前記入力工程により入力された複数の画像フレームのうち、第1画像フレームを含む1以上の画像フレームから検出されたオブジェクトに対応するオブジェクト画像を、前記1以上の画像フレームとは異なる第2画像フレームに重畳することで前記重畳画像を生成する生成工程とを有し、
    前記画像決定工程は、各オブジェクトの中心間の距離が第1の閾値以上且つ第2の閾値未満になるようにオブジェクトの位置を決定し、
    前記生成工程は、前記画像決定工程によって決定された位置に対応するオブジェクト画像が重畳された前記重畳画像を生成することを特徴とする映像処理方法。
  13. 前記生成工程は、前記第1画像フレームを含む1以上の画像フレームから検出されたオブジェクトの位置に対応する前記第2画像フレーム内の位置に、前記検出済みオブジェクトを模したオブジェクト画像を重畳することで前記重畳画像を生成することを特徴とする請求項12に記載の映像処理方法。
  14. 前記検出工程により画像フレームから検出されたオブジェクトに対して加工処理を実行する加工工程を有し、
    前記加工工程による加工済みの画像フレームが、前記参照画像として前記表示画面に表示されることを特徴とする請求項12に記載の映像処理方法。
  15. 前記表示画面に表示された参照画像内の座標を指定するユーザ入力を受け付ける受付工程と、
    前記受付工程により受け付けられたユーザ入力に従って前記映像処理領域を決定する領域決定工程とを有することを特徴とする請求項12乃至14のうち、何れか1項に記載の映像処理方法。
  16. 前記表示画面に表示された参照画像内のオブジェクトのうち、前記映像処理の対象とすべきオブジェクトを指定するユーザ入力を受け付ける受付工程と、
    前記受付工程により受け付けられたユーザ入力に従って前記映像処理領域を決定する領域決定工程とを有することを特徴とする請求項12乃至14のうち、何れか1項に記載の映像処理方法。
  17. 前記表示画面に表示された画像フレーム内のオブジェクトのうち、前記映像処理の対象とすべきオブジェクトと、前記映像処理の対象とすべきでないオブジェクトとを指定するユーザ入力を受け付ける受付工程と、
    前記受付工程により受け付けられたユーザ入力に従って前記映像処理領域を決定する領域決定工程とを有することを特徴とする請求項12乃至14のうち、何れか1項に記載の映像処理方法。
  18. 前記生成工程は、前記1以上の画像フレームから検出されたオブジェクトのうち、所定のサイズ範囲に収まるオブジェクトに対応するオブジェクト画像を、前記第2画像フレームに重畳することで、前記重畳画像を生成することを特徴とする請求項12乃至17のうち、何れか1項に記載の映像処理方法。
  19. 前記表示画面に前記参照画像が表示された後、前記映像処理領域を指定するためのユーザ操作の入力状況に応じて、前記参照画像内のオブジェクトの位置を変更する変更工程を有することを特徴とする請求項12乃至18のうち、何れか1項に記載の映像処理方法。
  20. ユーザ操作により指定された映像処理領域内に、前記検出工程が所定数の画像フレームにおいてオブジェクトを検出した回数が閾値未満である非検出領域が含まれる場合、当該指定の無効化、及び、通知の出力のうち、少なくとも何れかを実行する制御工程を有することを特徴とする請求項12乃至19のうち、何れか1項に記載の映像処理方法。
  21. 前記映像処理は、前記映像処理領域の面積に応じた閾値以上の数のオブジェクトが存在することを検出するための混雑検出、前記映像処理領域の面積に対する人体の数の割合に応じた混雑度を検出するための混雑度検出、前記映像処理領域内に同一オブジェクトが所定の時間閾値以上、存在し続けていることを検出するための滞留検出、前記映像処理領域内に同一オブジェクトが存在し続けている時間に応じた滞留度を検出するための滞留度検出、検知線をオブジェクトが通過したことを検出するための通過検出、オブジェクトが所定のオブジェクトを持ち去ったことを検出するための持ち去り検出、及び、オブジェクトが、所定のオブジェクトを置き去ったことを検出するための置き去り検出のうち、少なくともいずれかが含まれることを特徴とする請求項12乃至20のうち、何れか1項に記載の映像処理方法。
  22. コンピュータを請求項1乃至11のうち、何れか1項に記載の映像処理装置として動作させるためのプログラム。
JP2015037432A 2015-02-26 2015-02-26 映像処理装置、映像処理方法、およびプログラム Active JP6650677B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015037432A JP6650677B2 (ja) 2015-02-26 2015-02-26 映像処理装置、映像処理方法、およびプログラム
US15/047,416 US10474918B2 (en) 2015-02-26 2016-02-18 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015037432A JP6650677B2 (ja) 2015-02-26 2015-02-26 映像処理装置、映像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2016163075A JP2016163075A (ja) 2016-09-05
JP6650677B2 true JP6650677B2 (ja) 2020-02-19

Family

ID=56798272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015037432A Active JP6650677B2 (ja) 2015-02-26 2015-02-26 映像処理装置、映像処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US10474918B2 (ja)
JP (1) JP6650677B2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105844328B (zh) * 2015-01-15 2021-03-02 开利公司 用于自动试运行人员计数系统的方法和系统
JP6433389B2 (ja) * 2015-08-04 2018-12-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
EP3378227A4 (en) * 2015-11-18 2019-07-03 Jorg Tilkin PRIVACY PROTECTION IN VIDEO SURVEILLANCE SYSTEMS
EP3392852A4 (en) 2015-12-16 2019-08-21 Nec Corporation INTRUSION DETECTION DEVICE, SETTING ASSIST DEVICE, INTRUSION DETECTION METHOD, SETTING ASSIST METHOD, AND PROGRAM RECORDING MEDIUM
US10424064B2 (en) * 2016-10-18 2019-09-24 Adobe Inc. Instance-level semantic segmentation system
JP6699518B2 (ja) * 2016-11-14 2020-05-27 オムロン株式会社 画像認識処理方法、画像認識処理プログラム、データ提供方法、データ提供システム、データ提供プログラム、記録媒体、プロセッサ及び電子機器
GB2557597B (en) * 2016-12-09 2020-08-26 Canon Kk A surveillance apparatus and a surveillance method for indicating the detection of motion
US20200118349A1 (en) * 2017-05-26 2020-04-16 Sony Interactive Entertainment Inc. Information processing apparatus, information processing method, and program
JP6938270B2 (ja) * 2017-08-09 2021-09-22 キヤノン株式会社 情報処理装置および情報処理方法
JP6678835B2 (ja) * 2017-11-06 2020-04-08 三菱電機株式会社 群集密度算出装置、群集密度算出方法および群集密度算出プログラム
CN107820010B (zh) * 2017-11-17 2020-11-06 英业达科技有限公司 摄影计数装置
WO2019161562A1 (en) * 2018-02-26 2019-08-29 Intel Corporation Object detection with image background subtracted
JP7200493B2 (ja) * 2018-03-29 2023-01-10 京セラドキュメントソリューションズ株式会社 監視システム
JP2020021618A (ja) * 2018-07-31 2020-02-06 積水化学工業株式会社 公衆設備、サーバ装置、サーバプログラム及び学習モデル
JP6516943B1 (ja) * 2018-10-31 2019-05-22 ニューラルポケット株式会社 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法
WO2020090054A1 (ja) * 2018-10-31 2020-05-07 ニューラルポケット株式会社 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法
TWI686748B (zh) * 2018-12-07 2020-03-01 國立交通大學 人流分析系統及人流分析方法
JP7316580B2 (ja) * 2019-02-07 2023-07-28 パナソニックIpマネジメント株式会社 接客状況分析装置、接客状況分析システム、及び接客状況分析方法
JP7297463B2 (ja) 2019-02-22 2023-06-26 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09330415A (ja) * 1996-06-10 1997-12-22 Hitachi Ltd 画像監視方法および画像監視システム
JP2000115750A (ja) 1998-09-30 2000-04-21 Hitachi Ltd 移動物体監視装置
US7409076B2 (en) * 2005-05-27 2008-08-05 International Business Machines Corporation Methods and apparatus for automatically tracking moving entities entering and exiting a specified region
JP2007249722A (ja) * 2006-03-17 2007-09-27 Hitachi Ltd 物体検知装置
JP4872490B2 (ja) * 2006-06-30 2012-02-08 ソニー株式会社 監視装置、監視システム及び監視方法
US7787656B2 (en) * 2007-03-01 2010-08-31 Huper Laboratories Co., Ltd. Method for counting people passing through a gate
JP4413957B2 (ja) * 2007-08-24 2010-02-10 株式会社東芝 移動物体検出装置および自律移動物体
CN102582664A (zh) * 2007-10-26 2012-07-18 松下电器产业株式会社 拥塞推定装置
US8238603B1 (en) * 2008-03-14 2012-08-07 Verint Systems Ltd. Systems and methods for multi-pass adaptive people counting
JP4214291B1 (ja) * 2008-03-26 2009-01-28 株式会社ザイナス 接地点推定装置、接地点推定方法、動線表示システムおよびサーバ
JP5649301B2 (ja) * 2009-12-16 2015-01-07 キヤノン株式会社 映像加工処理方法及びその装置
TWI426782B (zh) * 2010-05-19 2014-02-11 Hon Hai Prec Ind Co Ltd 手持裝置及利用其動態監控特定區域的方法
US8630455B2 (en) * 2010-07-20 2014-01-14 SET Corporation Method and system for audience digital monitoring
JP5520203B2 (ja) * 2010-12-01 2014-06-11 株式会社日立製作所 混雑度推定装置
KR101222482B1 (ko) * 2011-06-23 2013-01-15 브이씨에이 테크놀러지 엘티디 설정 인터페이스를 구비한 피플 카운터 및 그 설정 방법
JP6181925B2 (ja) * 2012-12-12 2017-08-16 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム
JP6261190B2 (ja) * 2013-05-31 2018-01-17 キヤノン株式会社 設定装置および設定方法
JP6159179B2 (ja) * 2013-07-09 2017-07-05 キヤノン株式会社 画像処理装置、画像処理方法

Also Published As

Publication number Publication date
US10474918B2 (en) 2019-11-12
JP2016163075A (ja) 2016-09-05
US20160253579A1 (en) 2016-09-01

Similar Documents

Publication Publication Date Title
JP6650677B2 (ja) 映像処理装置、映像処理方法、およびプログラム
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
CN107808111B (zh) 用于行人检测和姿态估计的方法和装置
JP6732522B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6587435B2 (ja) 画像処理装置、情報処理方法及びプログラム
US9807300B2 (en) Display apparatus for generating a background image and control method thereof
JP6159179B2 (ja) 画像処理装置、画像処理方法
JP7129843B2 (ja) 画像処理装置、画像処理装置の制御方法、システム、及び、プログラム
CN110338803B (zh) 物件监控方法及其运算装置
JP2019135810A (ja) 画像処理装置、画像処理方法およびプログラム
JP2017205135A (ja) 個人識別装置、個人識別方法、及び、個人識別プログラム
JP2008250772A (ja) 移動物体追跡装置
TWI671707B (zh) 影像分析方法、電子系統以及非暫態電腦可讀取記錄媒體
JP6991045B2 (ja) 画像処理装置、画像処理装置の制御方法
JP2011053005A (ja) 監視システム
JP4875652B2 (ja) 行動認識システム及びその方法
JP6525934B2 (ja) 画像処理装置および制御方法
JP2016144049A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6464635B2 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
CN112106347A (zh) 一种图像生成方法、设备、可移动平台及存储介质
JP6939065B2 (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
US10990802B2 (en) Imaging apparatus providing out focusing and method for controlling the same
JP4645321B2 (ja) 画像を用いた移動物体検知装置
JP2018092507A (ja) 画像処理装置、画像処理方法及びプログラム
JP6124739B2 (ja) 画像センサ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200121

R151 Written notification of patent or utility model registration

Ref document number: 6650677

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151