JP5653105B2 - 映像処理システム、映像処理方法及びプログラム - Google Patents

映像処理システム、映像処理方法及びプログラム Download PDF

Info

Publication number
JP5653105B2
JP5653105B2 JP2010164300A JP2010164300A JP5653105B2 JP 5653105 B2 JP5653105 B2 JP 5653105B2 JP 2010164300 A JP2010164300 A JP 2010164300A JP 2010164300 A JP2010164300 A JP 2010164300A JP 5653105 B2 JP5653105 B2 JP 5653105B2
Authority
JP
Japan
Prior art keywords
analysis
area
priority
processing
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010164300A
Other languages
English (en)
Other versions
JP2012028948A (ja
Inventor
東條 洋
洋 東條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010164300A priority Critical patent/JP5653105B2/ja
Publication of JP2012028948A publication Critical patent/JP2012028948A/ja
Application granted granted Critical
Publication of JP5653105B2 publication Critical patent/JP5653105B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、例えば、物体を検知して領域を解析する映像処理システム、映像処理方法及びプログラムに関する。
従来、店舗や工場などに設置されたカメラが撮影した映像を解析することにより、様々な事象をイベントとしたり、その統計情報として出力したりする技術が開示されている。例えば、特許文献1に記載の技術では、カメラが撮影した映像から、映像に存在する物体の位置など、映像に関連する情報(以下、メタデータと呼ぶ)を抽出する。そして、ネットワークを介してメタデータを配信し、メタデータの解析処理を行う機器によって、物体の存在、消失、通過などを検知している。
このような画像処理システムにおいて、複数の解析処理を行う場合がある。一例として、侵入とカウントとを解析する場合について、図7を用いて説明する。700は店舗内に設定されたカメラで撮像されている画面全体である。701は通常は立ち入りの禁止されている非常用ドアであり、702と703は人物であり、704は商品棚である。705は、非常用ドア701への人物の侵入を検知するために、ユーザによって指定された解析対象の領域(以降、解析領域と記述する)であり、706は、商品棚の商品を手にした人物をカウントするための解析領域である。このように複数の解析処理を行う必要が生じたとき、解析処理の負荷が増大する。この課題に対応するために特許文献1では、複数の機器をネットワークで接続し、機器同士で解析処理を分担することにより、解析処理の分散を図っている。
特開2008−16895号公報
しかしながら、特許文献1に記載の技術では、処理量の増大に伴って、機器を増やさなければならなかった。例えば、図7に示す例の場合、侵入検知とカウントとをそれぞれで1台の機器が必要であるとすると、2台必要である。侵入検知は、店舗の営業時間中、事象が発生したら、すぐに警備員が駆けつけるなどして対応する必要があるので、優先的に、即ち、リアルタイムに解析が行われる必要がある。しかし、カウントは一日の営業時間分の集計結果が必要なデータであるので、営業時間後、夜間に処理するなどして、優先度を低くしても構わない。このような場合であっても2台の機器を用意しておかなければならず、機器を効率良く活用することができなかった。
本発明は前述の問題点に鑑み、同一の映像に対して解析処理を複数行う必要がある場合に、解析領域ごとに解析処理の優先度を適切に決定し、システム中の機器を効率良く活用できるようにすることを目的としている。
本発明の映像処理システムは、撮像された映像に対し、ユーザから受け付けた領域指定に基づいて複数の領域を設定する手段と、前記領域ごとにユーザにより選択されたイベント解析処理のイベント種別を設定する手段と、前記領域ごとに前記設定された前記イベント種別に対応するイベント解析処理の優先度を決定する手段と、前記映像から物体を検知する手段と、前記設定された領域のうち、前記物体がどの領域に属するか判定し、前記優先度に従って前記イベント種別に応じたイベント解析処理を行う手段と、前記イベント解析処理の結果を出力する手段とを備えたことを特徴とする。
本発明によれば、同一の映像に対して解析処理を複数行う必要がある場合であっても、解析領域ごとにイベント解析処理の優先度を適切に決定し、システム中の機器を効率良く活用することができる。
実施形態に係る画像処理システムの構成例を示すブロック図である。 カメラによる撮影処理手順の一例を示すフローチャートである。 PCによる解析領域の設定処理手順の一例を示すフローチャートである。 スケジューリング処理の手順の一例を示すフローチャートである。 メタデータの一例を示す図である。 PCによる解析処理手順の一例を示す図である。 カメラで撮像されている画面全体の一例を示す図である。 実施形態におけるPCのハード構成例を示すブロック図である。 解析タイミングテーブルの一例を示す図である。 領域解析情報の一例を示す図である。
以下、添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
本実施形態における映像処理システムは、図1に示すようにカメラ100とパーソナルコンピュータ(PC)110とから構成されている。
図8は、本実施形態におけるPC110のハード構成例を示すブロック図である。
図8において、801はCPUであり、本実施形態のPC110における各種制御を実行する。802はROMであり、PC110の立ち上げ時に実行されるブートプログラムや各種データを格納する。803はRAMであり、CPU801が処理するための制御プログラムを格納するとともに、CPU801が各種制御を実行する際の作業領域を提供する。804はキーボード、805はマウスであり、ユーザによる各種入力操作環境を提供する。
806は外部記憶装置であり、ハードディスクやフレキシブルディスク、光ディスク、磁気ディスク、光磁気ディスク、磁気テープ等で構成される。ただし、外部記憶装置806は、制御プログラムや各種データを全てROM802が保持するようにする場合には、必ずしも必要な構成要素ではない。807は表示器であり、ディスプレイなどで構成され、撮影結果等をユーザに対して表示する。808はネットワークインターフェースであり、ネットワーク上の撮像部とLANケーブルを介した通信を可能とする。また、810は上記の各構成を接続するバスである。
なお、本実施形態におけるカメラ100のハード構成については図示していないが、PC110と同様にCPU、RAM、ROM、ネットワークインターフェースなどで構成され、更に、撮像レンズや撮像センサなどを備えた構成である。
図1は、本実施形態に係る画像処理システムの構成例を示すブロック図である。
図1において、100はカメラであり、110はPCである。それぞれはネットワークを介して通信可能な構成となっている。
まず、カメラ100内の機能構成について説明する。
101は、撮像レンズ、および、CCD、CMOSなどの撮像センサからなる撮像部である。102は、物体検知部であり、撮像部101で撮像されたフレーム画像から物体を検知する。103は、送信部であり、物体検知部102の結果であるメタデータを、撮像部101で撮像されたフレーム画像に付与し、送信する。フレーム画像は、カメラ100よりLANケーブルなどのネットワークを介してhttpプロトコルのパケットデータとしてPC110へ送られる。なお、送信する際のプロトコルは、httpプロトコルに限定されるものではない。
次に、PC110の機能構成について説明する。
111は、受信部であり、カメラ100から送られたフレーム画像のパケットデータをPC110上のネットワークインターフェース808を介して受信する。そして、受信したパケットデータより前記フレーム画像とメタデータとへ分離する。112は、解析領域設定部であり、キーボード804及びマウス805により構成され、図7の解析領域705、706のような解析の対象となる領域と、侵入やカウントなどの解析する処理の内容とを、領域解析優先度決定部113へ設定するものである。
113は、領域解析優先度決定部であり、解析領域設定部112で設定された解析領域と解析する処理内容であるイベント種別とから、領域の処理のイベント解析処理の優先度を決定し、解析領域に関連付ける。114は、解析処理スケジューリング部であり、解析領域設定部112で各解析領域に関連付けられた解析優先度に基づいて解析処理のスケジューリングを行う。118は、解析ジョブ生成部であり、受信部111で受信したメタデータである物体情報がどの解析領域に属するかを判定し、解析処理スケジューリング部114によるスケジュールに従って、解析ジョブを生成する。そして、解析ジョブはキューへ入れられる。
115は、物体情報蓄積部であり、解析処理の開始が物体情報の受信よりも後になる物体情報を、イベント種別と共に蓄積するものである。116は、解析部であり、キューより解析ジョブを取り出し、物体情報に対してイベント種別に応じた解析処理を行う。117は、表示部であり、図8に示した表示器807で構成され、受信部111で受信したフレーム画像や、解析部116のイベント解析結果を表示し、ユーザに提示する。
次に、カメラ100における処理の流れを図2のフローチャートを用いて説明する。図2は、カメラ100による撮影処理手順の一例を示すフローチャートである。
まず、撮像部101により撮像を行い、フレーム画像を取得する(ステップS200)。次に、物体検知部102により、フレーム画像から物体の検知を行い、物体情報を生成する(ステップS201)。物体検知の処理方法は特に限定されるものではないが、例えば以下の方法がある。人物のいないときのフレーム画像を背景画像として記憶する。そして、前記背景画像と現在のフレーム画像との差分量を、画素ごとに輝度の差分より求める。これにより、前記差分量が同一の画素同士を結合し、1つの領域を1つの物体として出力する。また、或いは、フレーム間差分による方法によってもよい。
次に、送信部103は、物体検知部102の結果である物体情報をメタデータとしてフレーム画像に付与し、ネットワークへ送信する。本実施形態では、メタデータをヘッダ領域に付与し、送信する(ステップS202)。なお、フレーム画像とメタデータとの同期が取れる方法であれば、本方法に限らない。例えば、フレーム画像とメタデータとをそれぞれタイムスタンプを付与して、別々に送信してもよい。このときは、受信側でタイムスタンプを参照することで、フレーム画像に対応するメタデータを取得することができる。
ここで、物体検知部102の出力であるメタデータについて説明する。図5は、メタデータの一例を示す図である。図5に示すように、メタデータとは、フレームの現在のフレーム番号(フレームの撮影時刻であってもよい)、フレームに含まれる物体数、物体の外接矩形座標の情報である。
次に、PC110での処理について説明する。まず、解析領域の設定時の処理について、図3のフローチャートを用いて説明する。図3は、PC110による解析領域の設定処理手順の一例を示すフローチャートである。
まず、受信部111は、ネットワークを介してカメラから送信されたフレーム画像を受信する(ステップS300)。そして、受信したフレーム画像を表示部117に表示する(ステップS301)。これにより、ユーザは現在カメラで撮影されている映像を確認することができる。
次に、解析領域設定部112は、ユーザから例えば図7に示すような解析領域の設定を受け付ける(ステップS302)。なお、解析領域として、本実施形態では矩形を指定するものとしているが、頂点を3つもしくは5つ以上持つ多角形等で指定するようにしても、もちろん構わない。次に、解析領域設定部112は、ユーザから解析領域に対するイベント種別の設定を受け付ける(ステップS303)。イベント種別の設定方法としては、予め用意されているリストよりユーザが選ぶようにする。
次に、解析領域設定部112は、ユーザから解析領域に対する処理対象の時間帯の設定を受け付ける(ステップS304)。そして、受け付けて設定された値をRAM803に一時記憶する。このとき、例えば、店舗の営業時間帯を09:00から17:00などと、ユーザが入力する。もちろん、日付や曜日の指定ができるようにしてもよい。次に、解析領域設定部112は、解析処理期限の設定を行う(ステップS305)。解析処理期限は、現在時刻から翌日の解析対象時間の開始時刻までに解析できていればよいので、解析対象の時間帯を参照し、開始時刻(前記例では09:00)を設定する。なお、ユーザにより処理結果を参照する時刻を直接入力されるようにしてもよい。
次に、領域解析優先度決定部113は、解析タイミングテーブルを参照し、解析タイミングタイプを取得し、優先度として使用する(ステップS306)。図9は、解析タイミングテーブルの一例を示す図である。図9に示すように、イベント種別(侵入、置き去り、カウント)に対して、解析タイミングタイプとしてリアルタイム型、蓄積型が付与されている。本実施形態における画像処理システムでは、リアルタイム型の方が蓄積型よりも優先度が高いものとして解釈される。
次に、領域解析優先度決定部113は、現在の解析領域に対して、イベント種別と優先度、解析処理対象時間帯、解析処理期限とを関連付けて領域解析情報として、RAM803に一時記憶する(ステップS307)。
図10は、領域解析情報の一例を示す図である。ここで、解析領域数は、後述のステップS308で全ての領域解析情報をまとめたときに付与される。また、解析開始時刻は、後述のステップS311で解析処理スケジューリング部114によって解析処理がスケジューリングされた際に付与される。
図10において、領域IDは、ひとつの解析領域に対して発番されるIDである。解析領域は、左上と右下の点のx、y座標で表される。イベント種別はイベントの種別ごとに発行されるIDが使用される。解析優先度は、解析タイミングタイプがリアルタイム型であれば1を蓄積型であれば2を記述する。なお、解析優先度は高いものほど小さな値であるとする。また、1つの領域に対して領域ID、領域座標、イベント種別ID、解析優先度、解析対象時間帯、解析処理期限が存在する。
次に、解析領域設定部112は、ユーザからの解析領域の設定終了の入力を受け付け、終了を指示されたか否かを判断する(ステップS308)。この判断の結果、終了指示されていない場合は、ステップS300に戻る。一方、ステップS308の判断の結果、解析領域の設定処理の終了を指示された場合はステップS309に進む。このように、処理を繰り返すことによって、ユーザは複数の解析領域を設定することが可能になり、夫々の解析領域に対して解析優先度が付与され、領域解析情報が生成される。
次に、設定された解析領域の数をカウントし、領域数として領域解析情報に付与する(ステップS309)。次に、領域解析優先度決定部113は、優先度の再設定を行う(ステップS310)。蓄積型の領域については、解析処理期限が早いものほど、優先的に処理されるべきものである。従って、全ての蓄積型(優先度=2)の領域について、解析処理期限を比較し、早いものから順にソートし、先頭より優先度を2からはじめて、3、4、・・・というように設定し直す。
次に設定された条件で解析処理を行う処理について、図6のフローチャートを用いて説明する。図6は、PC110による解析処理手順の一例を示す図である。なお、ステップS600はステップS300と同じであり、ステップS601はステップS301と同じであるので、説明は省略する。
そして、解析処理スケジューリング部114は、受信部111が受信したフレーム画像のヘッダ部分より、メタデータを取得する(ステップS602)。次に、メタデータ中の物体情報がどの解析領域に属するかを判定し、解析処理スケジューリング部114によって解析処理をスケジューリングして解析ジョブを生成し、キューへ入れる(ステップS603)。
次に、解析部116は、キューより解析ジョブを取り出し、物体情報の解析処理を行う(ステップS604)。この解析処理の詳細については後述する。なお、ステップS600からステップS603までの処理と、ステップS604からステップS606までの処理は別のプロセスとして動作しており、(見かけ上)並列に動作可能であるものとする。次に、表示部117は、解析部116によって出力された解析結果を表示する(ステップS605)。この解析結果を表示する処理の詳細については後述する。
次に、ステップS603の解析処理におけるスケジューリング処理について、図4のフローチャートを用いて説明する。図4は、ステップS603におけるスケジューリング処理の手順の一例を示すフローチャートである。
まず、メタデータ中の物体の数をNに設定する(ステップS400)。次に、メタデータから物体情報として外接矩形座標を1つ取得する(ステップS401)。
次に、領域解析情報の解析領域座標を参照し、外接矩形がどの解析領域に属するかを判定する(ステップS402)。次に、領域解析情報中の現在処理している物体が属している解析領域に付与されている解析対象時間帯を参照して、現在時刻と比較する(ステップS403)。この比較の結果、解析対象時間内である場合は次のステップS404へ進み、解析対象時間外である場合はステップS412に進む。
次に、領域解析情報中の現在処理している物体が属している解析領域に付与されている解析優先度を参照し、1であるかどうかをチェックする(ステップS404)。このチェックの結果、解析優先度=1である場合は、解析処理をすぐに開始しなければならないので、ステップS405へ進み、処理中の物体が属している解析領域のイベント種別と物体情報の組み合わせを解析ジョブとして、キューに入れる。
一方、ステップS404のチェックの結果、解析優先度=1でない場合は、解析処理を行うのに必要な計算リソースが十分にあるか否かを確認する(ステップS406)。具体的には、CPU801の負荷の量、RAM803の空き容量である。複数の領域のそれぞれに、物体が同時に存在すると、それだけイベントの解析処理を同時に行わなければならなくなるので、この場合は、計算リソースは少なくなる。そこで、処理中の物体が属している解析領域のイベントを処理するのに十分な計算リソースがあるかどうかを判断する。なお、特定のイベント種別に必要な処理コストは、イベントを検知するために設定される条件の内容や数から見積もることができる。
ステップS406の確認の結果、現在のイベントを処理するのに十分な計算リソースがある場合は、物体情報蓄積部115に、既に蓄積された物体情報が存在するかどうかを判定する(ステップS407)。一方、ステップS406の確認の結果、現在のイベントを処理するのに十分な計算リソースが無い場合は、ステップS411に進む。
ステップS407の判定の結果、蓄積された物体情報が存在する場合は、過去の物体情報を現在の物体情報より先に処理するために、物体情報蓄積部115から物体情報を関連付けられた領域IDと共に読み出す(ステップS408)。そして、領域解析情報を参照し、読み出した物体情報に関連付けられた領域IDから、処理するイベント種別と優先度とを特定する。そして、イベント種別と物体情報との組み合わせを解析ジョブとし、これと優先度を関連付けてRAM803に一時保存する(ステップS409)。これは解析ジョブを後で優先度順にソートするために行われる処理である。そして、現在の物体情報を領域解析情報中の領域IDを関連付けて、物体情報蓄積部115へ蓄積し(ステップS411)、ステップS412に進む。
一方、ステップS407の判定の結果、蓄積された物体情報がない場合は、ステップS409と同様に現在の物体情報とイベント種別との組み合わせを解析ジョブとし、これと優先度を関連付けてRAM803に一時保存する(ステップS410)。そして、ステップS412に進む。
次に、Nをディクリメントし(ステップS412)、Nが0となったかどうかを判定する(ステップS413)。この判定の結果、Nが0でない場合はステップS401に戻る。すなわち、メタデータに含まれる全ての物体情報について、ステップS401からステップS411の処理を行う。
一方、ステップS413の判定の結果、Nが0である場合は、メタデータ中の全ての物体情報について、ステップS401からステップS411の処理を行ったことになる。そこで、次に、ステップS409、S410において一時保存された解析ジョブがあるかどうかを判定する(ステップS414)。この判定の結果、一時保存された解析ジョブがある場合は、関連付けられている解析の優先度の昇順でソートし、キューに入れ(ステップS415)、処理を終了する。優先度は高いものほど小さな値が振られているため、このように優先度の高いイベントの解析から処理されることになる。一方、ステップS414の判定の結果、一時保存された解析ジョブがない場合は、そのまま処理を終了する。
次に、図6のステップS604の解析処理の詳細について説明する。
ステップS604においては、解析部116は、前述のキューより順次ジョブを取り出し、イベント種別に応じた解析処理を物体情報に対して処理する。例えば、イベント種別が侵入である場合、図7に示すように、設定された解析領域705で外接矩形が解析領域内にあり、物体が検知されると、侵入と検知する。また、商品棚へ手を伸ばした人物のカウントである場合、図7に示すように、解析領域706の中に所定時間以上連続した物体が存在したときに、人物が商品棚へ手を伸ばしたとみなし、1回とカウントする。このように解析領域内の物体に関する情報(外接矩形、存在時間)に対して所定の条件を設け、これを満たしたときに、イベントが発生したとする。
次に、ステップS605の解析結果の表示処理の詳細について述べる。
例えば、イベント種別が侵入である場合、侵入を検知すると、「侵入を検知しました」などのメッセージを表示部117に表示する。また、イベント種別がカウントである場合、集計時間で指定された時間分のカウント数を集計した後、「合計N人、毎時平均M人」などと表示部117に表示する。
以上のように、解析領域ごとに解析優先度を決定したことにより、解析処理を適切にスケジューリングできるようになるため、システム上の解析処理を行う機器を効率良く活用することが可能となる。
本実施形態では、図1に示したような構成を例にして説明したが、これは一例であって、例えば次のような構成としてもよい。解析領域設定部112及び領域解析優先度決定部113を他のPCに構成し、PC110は、ネットワークを介して領域解析情報を受信するように構成してもよい。更に、カメラ100にも、解析処理スケジューリング部114、解析ジョブ生成部118及び解析部116を設け、領域解析情報を受信可能となるように受信部111を備えた構成とすれば、以下のような処理が可能になる。カメラ100では、物体情報蓄積部115を持たないので、解析優先度=1のリアルタイム型の解析処理のみを行い、リアルタイム型解析処理の処理結果と、解析優先度=2の蓄積型で処理される物体情報とをPC110へ送信する。そして、PC110では解析優先度=2の蓄積型の処理のみを行う。このように構成することにより、PC110だけでなく、画像処理システム全体の計算リソースを効率的に使用することが可能となる。
また、解析結果の表示部を他のPCに構成し、ネットワークを介してPC110より解析結果を取得して表示するようにしてもよい。また、物体検知部102をPC110に構成し、カメラからは映像のみを受信するように構成してもよい。
また、本実施形態では、解析処理スケジューリング部114は物体情報ごとに計算リソースの確認を逐次行った。しかしながら、やや計算リソースの利用効率は劣るものの、解析処理の設定時にスケジューリングしてしまう方法もある。設定された全ての解析領域のうち、リアルタイム型の解析を行う領域については、常に解析処理されるものとして、残りの計算リソースを計算する。そして、残りの計算リソースで可能な蓄積型の解析処理を求め、これが常に行われるものとする。それでも解析が必要な領域が存在するときは、当該の領域の物体情報を物体情報蓄積部115に蓄積する。そして、リアルタイムに解析するようにスケジューリングされた領域の全ての解析対象時間帯を参照し、空いている時間帯をみつけて、この時間に処理されるようにスケジューリングする。
また、本実施形態では、解析結果を表示部117で表示するだけであった。一方、例えば、イベントが検知された時刻とイベント種別を関連付けてイベントログとして記憶しておいたり、カウントの集計結果を記憶しておいたりして、ユーザが後で読み出して自由に閲覧できるようにしておいてもよい。また、本実施形態では、物体情報として外接矩形座標を使用したが、物体に関する属性情報であればよく、例えば物体の中心位置とそのサイズで表してもよい。
さらに、本実施形態では、ステップS303においてイベント種別の設定を、画像処理システムで予め用意されているリストの中から選択するようにしたが、次の方法であってもよい。すなわち、解析部116でイベント種別ごとに決まっている物体情報に対する条件を、ユーザが自由に設定し、イベント種別を定義するようにしてもよい。このときに、解析タイミング型、及び、集計時間も同時にユーザに設定してもらうようにしてもよい。解析領域ごとにイベント種別と共に解析優先度が関連付けて定義されていれば、解析処理スケジューリング部114で、適切に解析処理のスケジューリングを行うことが可能となる。
また、本実施形態では、物体検知部102で得られる物体情報のみを用いて解析を行ったが、更にフレーム画像を解析する処理を追加してもよい。例えば、商品棚へ手を伸ばした人物のカウントでは、フレーム画像から、商品棚付近に出現した肌色領域を求め、手領域を検出するようにしてもよい。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
102 物体検知部、112 解析領域設定部、113 領域解析優先度決定部、114 解析処理スケジューリング部、115 物体情報蓄積部、116 解析部、117 表示部、118 解析ジョブ生成部

Claims (4)

  1. 撮像された映像に対し、ユーザから受け付けた領域指定に基づいて複数の領域を設定する手段と、
    前記領域ごとにユーザにより選択されたイベント解析処理のイベント種別を設定する手段と、
    前記領域ごとに前記設定された前記イベント種別に対応するイベント解析処理の優先度を決定する手段と、
    前記映像から物体を検知する手段と、
    前記設定された領域のうち、前記物体がどの領域に属するか判定し、前記優先度に従って前記イベント種別に応じたイベント解析処理を行う手段と、
    前記イベント解析処理の結果を出力する手段とを備えたことを特徴とする映像処理システム。
  2. 前記領域ごとにイベント解析処理の解析処理期限設定する手段をさらに備え、
    前記優先度を決定する手段は、前記設定された解析処理期限の情報を用いて、前記決定された優先度を修正することを特徴とする請求項1に記載の映像処理システム。
  3. 撮像された映像に対し、ユーザから受け付けた領域指定に基づいて複数の領域を設定する工程と、
    前記領域ごとにユーザにより選択されたイベント解析処理のイベント種別を設定する工程と、
    前記領域ごとに前記設定された前記イベント種別に対応するイベント解析処理の優先度を決定する工程と、
    前記映像から物体を検知する工程と、
    前記設定された領域のうち、前記物体がどの領域に属するか判定し、前記優先度に従って前記イベント種別に応じたイベント解析処理を行う工程と、
    前記イベント解析処理の結果を出力する工程とを備えたことを特徴とする映像処理方法。
  4. 請求項3に記載の映像処理方法の各工程をコンピュータに実行させるためのプログラム。
JP2010164300A 2010-07-21 2010-07-21 映像処理システム、映像処理方法及びプログラム Active JP5653105B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010164300A JP5653105B2 (ja) 2010-07-21 2010-07-21 映像処理システム、映像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010164300A JP5653105B2 (ja) 2010-07-21 2010-07-21 映像処理システム、映像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2012028948A JP2012028948A (ja) 2012-02-09
JP5653105B2 true JP5653105B2 (ja) 2015-01-14

Family

ID=45781383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010164300A Active JP5653105B2 (ja) 2010-07-21 2010-07-21 映像処理システム、映像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5653105B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013121711A1 (ja) * 2012-02-15 2013-08-22 日本電気株式会社 解析処理装置
US10268983B2 (en) * 2013-06-26 2019-04-23 Amazon Technologies, Inc. Detecting item interaction and movement
US10176513B1 (en) 2013-06-26 2019-01-08 Amazon Technologies, Inc. Using gestures and expressions to assist users
US10176456B2 (en) 2013-06-26 2019-01-08 Amazon Technologies, Inc. Transitioning items from a materials handling facility
JP2018152688A (ja) * 2017-03-13 2018-09-27 株式会社 日立産業制御ソリューションズ 映像監視装置、映像監視方法及び映像監視プログラム
WO2020095398A1 (ja) * 2018-11-08 2020-05-14 三菱電機株式会社 情報解析装置及び情報解析方法
WO2020105091A1 (ja) * 2018-11-19 2020-05-28 日本電気株式会社 メディアデータ処理システム、方法およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2999476B2 (ja) * 1988-08-26 2000-01-17 松下電工株式会社 侵入者検知装置
JP3770180B2 (ja) * 2002-02-28 2006-04-26 コニカミノルタホールディングス株式会社 物体監視装置
JP4775931B2 (ja) * 2004-06-30 2011-09-21 キヤノンマーケティングジャパン株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2008154228A (ja) * 2006-11-24 2008-07-03 Victor Co Of Japan Ltd 監視映像記録制御装置
JP5077097B2 (ja) * 2008-06-26 2012-11-21 沖電気工業株式会社 映像処理システム
JP5185196B2 (ja) * 2009-05-27 2013-04-17 高千穂交易株式会社 防犯装置、その制御方法、プログラム、及び防犯システム

Also Published As

Publication number Publication date
JP2012028948A (ja) 2012-02-09

Similar Documents

Publication Publication Date Title
JP5653105B2 (ja) 映像処理システム、映像処理方法及びプログラム
EP3692461B1 (en) Removing personally identifiable data before transmission from a device
US8872799B2 (en) Scalable distributed/cooperative/collaborative paradigm for multi-user interaction with projection-based display walls
JP2017098879A (ja) モニタリング装置、モニタリングシステムおよびモニタリング方法
CN107273849B (zh) 显示控制装置及显示控制方法
EP3043343A1 (en) Information processing device, information processing method, and program
CN105554372B (zh) 一种拍摄方法以及装置
JP7067604B2 (ja) イベント監視システム、イベント監視方法、およびプログラム
US9904865B2 (en) Setting apparatus which sets a detection region for a detection process
US11627256B2 (en) Information processing apparatus, method, and non-transitory computer-readable storage medium
US20130179910A1 (en) Terminal device, content display method for terminal device, server device, display data transmission method for server device, and ranking information transmission method for server device
JP6098631B2 (ja) 解析処理装置
CN113469024B (zh) 人脸考勤方法及装置、电子设备及计算机可读存储介质
JP2013182450A (ja) 所在管理プログラム及び所在管理装置
JPWO2020039897A1 (ja) 駅監視システム及び駅監視方法
JP6347636B2 (ja) 画像処理システム、データ管理方法及びプログラム
CN114155151A (zh) 图像绘制方法、装置、设备及存储介质
JP7107597B2 (ja) 駅監視装置、駅監視方法及びプログラム
JP2012212235A (ja) 物体検出システム、物体検出方法、及びプログラム
JPH11286377A (ja) エレベータ制御方法及び装置
JP7102859B2 (ja) ビデオ会議システム、ビデオ会議方法、およびプログラム
CN113037996A (zh) 图像处理方法、装置和电子设备
WO2021214981A1 (ja) コンテンツ表示装置、コンテンツ表示方法およびプログラム
US20100053178A1 (en) Image processing apparatus
JP6234223B2 (ja) 情報処理装置、情報処理装置の制御方法およびコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140422

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141118

R151 Written notification of patent or utility model registration

Ref document number: 5653105

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151