JPH1097633A - 人間の動きのパターンを解析する方法及びシステム - Google Patents
人間の動きのパターンを解析する方法及びシステムInfo
- Publication number
- JPH1097633A JPH1097633A JP9204994A JP20499497A JPH1097633A JP H1097633 A JPH1097633 A JP H1097633A JP 9204994 A JP9204994 A JP 9204994A JP 20499497 A JP20499497 A JP 20499497A JP H1097633 A JPH1097633 A JP H1097633A
- Authority
- JP
- Japan
- Prior art keywords
- zone
- display
- person
- image
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C11/00—Arrangements, systems or apparatus for checking, e.g. the occurrence of a condition, not provided for elsewhere
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/188—Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C11/00—Arrangements, systems or apparatus for checking, e.g. the occurrence of a condition, not provided for elsewhere
- G07C2011/04—Arrangements, systems or apparatus for checking, e.g. the occurrence of a condition, not provided for elsewhere related to queuing systems
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
Abstract
(57)【要約】 (修正有)
【課題】 画像の技法を使って、選択されたエリアの内
部および回りにおける、人の通過、覗き込みおよび滞在
の時間などの動きのパターンを検出し、解析する。 【解決手段】 販売促進用ディスプレイ、現金自動預け
払い機(ATM)などの対象エリアに対するビデオ・カ
メラの出力がリアルタイムでメモリの中に格納される。
処理システムは、画像内の人物、通過、を検出し、格納
された画像の中に検出された人が存在している時間に応
じて覗き込み等の特定動作を判断し、所定の処理を行
う。
部および回りにおける、人の通過、覗き込みおよび滞在
の時間などの動きのパターンを検出し、解析する。 【解決手段】 販売促進用ディスプレイ、現金自動預け
払い機(ATM)などの対象エリアに対するビデオ・カ
メラの出力がリアルタイムでメモリの中に格納される。
処理システムは、画像内の人物、通過、を検出し、格納
された画像の中に検出された人が存在している時間に応
じて覗き込み等の特定動作を判断し、所定の処理を行
う。
Description
【0001】
【発明の属する技術分野】本発明は、概して、画像技術
を使って選択された領域の内部および回りの人間の動き
のパターンを検出して解析するためのシステムおよび方
法に関する。特に、本発明は製品のディスプレイ、顧客
サービス・エリア、現金自動預け払い機、対話型のキオ
スク、および顧客または他の人が存在する可能性のある
他の限られたエリアの内部および回りにおける、顧客の
通過時間および見ている時間および滞在時間などの動き
のアクティビティを検出し、解析し、そしてクオンティ
ファイするためのシステムおよび方法に関する。
を使って選択された領域の内部および回りの人間の動き
のパターンを検出して解析するためのシステムおよび方
法に関する。特に、本発明は製品のディスプレイ、顧客
サービス・エリア、現金自動預け払い機、対話型のキオ
スク、および顧客または他の人が存在する可能性のある
他の限られたエリアの内部および回りにおける、顧客の
通過時間および見ている時間および滞在時間などの動き
のアクティビティを検出し、解析し、そしてクオンティ
ファイするためのシステムおよび方法に関する。
【0002】
【従来の技術、及び、発明が解決しようとする課題】小
売り業者、製造業者、および他の機関がそれぞれの製品
の販売を促進するために、局所化された販売促進用ディ
スプレイに頼ることが普通になってきている。例えば、
スーパーマーケットではソフト・ドリンクなどの製品の
売上げを促進するために、通路の端、あるいはいくつか
の他の適切な場所に自立型または壁掛け型の販売促進用
ディスプレイを置くことができる。販売促進用ディスプ
レイは通り過ぎる顧客からの注意を惹くように一般には
設計され、運がよければ顧客が立ち止まり、そのディス
プレイを眺め、そしてそこに広告されている製品または
サービスを購入することを決定するように設計されてい
る。そのような販売促進用ディスプレイは適切に使われ
た時、その下に並んでいる製品またはサービスの販売に
おける支援となる可能性がある。
売り業者、製造業者、および他の機関がそれぞれの製品
の販売を促進するために、局所化された販売促進用ディ
スプレイに頼ることが普通になってきている。例えば、
スーパーマーケットではソフト・ドリンクなどの製品の
売上げを促進するために、通路の端、あるいはいくつか
の他の適切な場所に自立型または壁掛け型の販売促進用
ディスプレイを置くことができる。販売促進用ディスプ
レイは通り過ぎる顧客からの注意を惹くように一般には
設計され、運がよければ顧客が立ち止まり、そのディス
プレイを眺め、そしてそこに広告されている製品または
サービスを購入することを決定するように設計されてい
る。そのような販売促進用ディスプレイは適切に使われ
た時、その下に並んでいる製品またはサービスの販売に
おける支援となる可能性がある。
【0003】販売促進用ディスプレイとはやや異なる目
的に役立つが、顧客がオンラインのトランザクションを
実行できるように局所化された現金自動預け払い機(A
TM)や対話型のコンピュータ・キオスクを利用するこ
とが、銀行などの機関にとって普通になってきている。
ATMとキオスクは通り過ぎる顧客の注意を惹くように
設計されることが多い点で、販売促進用ディスプレイに
似ている。いくつかのATMは利用料金が有料なので、
その使用を促進するための機能は銀行に対する歳入の増
加につながる可能性がある。
的に役立つが、顧客がオンラインのトランザクションを
実行できるように局所化された現金自動預け払い機(A
TM)や対話型のコンピュータ・キオスクを利用するこ
とが、銀行などの機関にとって普通になってきている。
ATMとキオスクは通り過ぎる顧客の注意を惹くように
設計されることが多い点で、販売促進用ディスプレイに
似ている。いくつかのATMは利用料金が有料なので、
その使用を促進するための機能は銀行に対する歳入の増
加につながる可能性がある。
【0004】残念ながら、販売促進用ディスプレイ、A
TMなどが顧客の注意を惹くことに関してどの程度効果
的であるかを正確に決定することは普通は困難である。
販売促進用ディスプレイの場合、小売り業者はその販売
促進用ディスプレイの設置の前後での製品に関連した歳
入を比較することができるが、これはそのディスプレイ
の有効性を正確に示すものとはならない可能性がある。
例えば、多くの要因が製品の売り上げレベルに寄与する
可能性があり、その要因の1つが販売促進用ディスプレ
イであるに過ぎない。ATMの場合、銀行はそのATM
のユーザの合計数、および実行されるトランザクション
のタイプを決定することはできるが、その機械を使うた
めに立ち止まる通行人のパーセンテージを知ることは普
通は困難である。販売促進用ディスプレイであれ、AT
Mであれ、立ち止まる人と立ち止まらない人の数の比を
知ることができれば、これはかなり貴重な情報となる可
能性がある。
TMなどが顧客の注意を惹くことに関してどの程度効果
的であるかを正確に決定することは普通は困難である。
販売促進用ディスプレイの場合、小売り業者はその販売
促進用ディスプレイの設置の前後での製品に関連した歳
入を比較することができるが、これはそのディスプレイ
の有効性を正確に示すものとはならない可能性がある。
例えば、多くの要因が製品の売り上げレベルに寄与する
可能性があり、その要因の1つが販売促進用ディスプレ
イであるに過ぎない。ATMの場合、銀行はそのATM
のユーザの合計数、および実行されるトランザクション
のタイプを決定することはできるが、その機械を使うた
めに立ち止まる通行人のパーセンテージを知ることは普
通は困難である。販売促進用ディスプレイであれ、AT
Mであれ、立ち止まる人と立ち止まらない人の数の比を
知ることができれば、これはかなり貴重な情報となる可
能性がある。
【0005】人の「通過(passing)」および
「覗き込み(looking)」の習慣を検出して解析
するための能力は、単に小売り業者、製造業者および銀
行などの商用の機関に対してだけ有用であるだけでな
く、対象となる局所化されたエリアに関係する他の状況
においても有用であることが証明され得る。例えば、高
速鉄道の当局者は駅の壁に掲げられたバスの運行表を人
々が立ち止まって見るかどうかに関心がある場合があ
る。そのスケジュールが編成されて提示される方法を、
通行人の通過および覗き込みの習慣に基づいて変更する
ことができる。
「覗き込み(looking)」の習慣を検出して解析
するための能力は、単に小売り業者、製造業者および銀
行などの商用の機関に対してだけ有用であるだけでな
く、対象となる局所化されたエリアに関係する他の状況
においても有用であることが証明され得る。例えば、高
速鉄道の当局者は駅の壁に掲げられたバスの運行表を人
々が立ち止まって見るかどうかに関心がある場合があ
る。そのスケジュールが編成されて提示される方法を、
通行人の通過および覗き込みの習慣に基づいて変更する
ことができる。
【0006】本発明の目的は、選択されたエリアの内部
および回りにおける人の通過、覗き込みおよび滞在の時
間などの動きのパターンを検出し、解析するためのシス
テムおよび方法を提供することである。
および回りにおける人の通過、覗き込みおよび滞在の時
間などの動きのパターンを検出し、解析するためのシス
テムおよび方法を提供することである。
【0007】
【課題を解決するための手段】本発明によると、局所化
されたエリア内での動きのパターンを解析するためのプ
ロセスは、その局所化されたエリアを見るようにしたビ
デオ・カメラを位置決めするステップと、選択された時
間間隔でそのビデオ・カメラの画像を順次捕捉するステ
ップと、その順次画像をメモリに格納するステップと、
格納された順次画像の中に人が存在するかどうかを検出
するステップと、格納された画像の中に検出された人が
存在している時間をセンスするステップと、そのセンス
された時間が所定のしきい値に達した時に所定の動作を
生成するステップとによって特徴付けられる。
されたエリア内での動きのパターンを解析するためのプ
ロセスは、その局所化されたエリアを見るようにしたビ
デオ・カメラを位置決めするステップと、選択された時
間間隔でそのビデオ・カメラの画像を順次捕捉するステ
ップと、その順次画像をメモリに格納するステップと、
格納された順次画像の中に人が存在するかどうかを検出
するステップと、格納された画像の中に検出された人が
存在している時間をセンスするステップと、そのセンス
された時間が所定のしきい値に達した時に所定の動作を
生成するステップとによって特徴付けられる。
【0008】画像技術を使って、選択されたエリアの内
部および回りでの人の動きのパターンを検出するための
システムおよび方法が提供される。販売促進用ディスプ
レイ、現金自動預け払い機(ATM)などの、対象とな
るエリアを見るためにビデオ・カメラを設置することが
できる。ビデオ・カメラの出力はフレーム・グラバーの
中にリアルタイムで供給され、その中でビデオ画像が順
次繰り返してディジタル化され、処理システムのメモリ
の中に格納される。そのビデオ画像に対する1つまたは
それ以上の通過ゾーンおよび覗き込みゾーンが定義され
る。通過ゾーンは人がその選択されたゾーン(例えば、
販売促進用ディスプレイ、ATMなど)の側を「通り過
ぎる」場合に見つけられる、ビデオ画像のゾーンとして
定義される。覗き込みのゾーンは人がその選択されたゾ
ーンを「見ている」場合に見つけられる、ビデオ画像の
ゾーンとして定義される。人がその選択されたゾーンの
側を通り、および/またはその選択されたゾーンを覗き
込む時、処理システムは通過および/または覗き込みイ
ベントを生成する。人がその覗き込みゾーンの内部に留
まっている間、そのATMなどの製品を人がどの程度長
く眺めているかを測定するために、システム時計を監視
することもできる。各人がどの程度長く留まっているか
を測定する滞在時間は、このシステムによって作り出さ
れるもう1つの重要な結果である。通過、覗き込みおよ
び滞在の時間のイベントに対応するデータは、後での処
理および/または解析のために記憶される。
部および回りでの人の動きのパターンを検出するための
システムおよび方法が提供される。販売促進用ディスプ
レイ、現金自動預け払い機(ATM)などの、対象とな
るエリアを見るためにビデオ・カメラを設置することが
できる。ビデオ・カメラの出力はフレーム・グラバーの
中にリアルタイムで供給され、その中でビデオ画像が順
次繰り返してディジタル化され、処理システムのメモリ
の中に格納される。そのビデオ画像に対する1つまたは
それ以上の通過ゾーンおよび覗き込みゾーンが定義され
る。通過ゾーンは人がその選択されたゾーン(例えば、
販売促進用ディスプレイ、ATMなど)の側を「通り過
ぎる」場合に見つけられる、ビデオ画像のゾーンとして
定義される。覗き込みのゾーンは人がその選択されたゾ
ーンを「見ている」場合に見つけられる、ビデオ画像の
ゾーンとして定義される。人がその選択されたゾーンの
側を通り、および/またはその選択されたゾーンを覗き
込む時、処理システムは通過および/または覗き込みイ
ベントを生成する。人がその覗き込みゾーンの内部に留
まっている間、そのATMなどの製品を人がどの程度長
く眺めているかを測定するために、システム時計を監視
することもできる。各人がどの程度長く留まっているか
を測定する滞在時間は、このシステムによって作り出さ
れるもう1つの重要な結果である。通過、覗き込みおよ
び滞在の時間のイベントに対応するデータは、後での処
理および/または解析のために記憶される。
【0009】以下に本発明が付属図面を参照しながら、
例示によって説明される。
例示によって説明される。
【0010】
【発明の実施の形態】本発明のシステムはディスプレイ
との顧客の対話を解析するのに有用であるデータを収集
するために、販売促進用ディスプレイ、ATMまたは対
象とする他のエリアを監視しているカメラから受信され
る一連の入力画像を処理するように動作する。この解析
は次のタイプの情報を提供することができる。
との顧客の対話を解析するのに有用であるデータを収集
するために、販売促進用ディスプレイ、ATMまたは対
象とする他のエリアを監視しているカメラから受信され
る一連の入力画像を処理するように動作する。この解析
は次のタイプの情報を提供することができる。
【0011】・そのディスプレイなどの側を通る人(例
えば、顧客)の数 ・そのディスプレイなどの場所で立ち止まりそれを眺め
る人の数 ・そのディスプレイなどを眺める各人の時間の長さ 各カメラの画像に対して、「通過ゾーン」および「覗き
込みゾーン」がユーザによって定義される。通過ゾーン
はその販売促進用ディスプレイの前を通り過ぎる人の数
を求めるために使われ、覗き込みゾーンはそのディスプ
レイを眺める人の数を求めるために使われる。
えば、顧客)の数 ・そのディスプレイなどの場所で立ち止まりそれを眺め
る人の数 ・そのディスプレイなどを眺める各人の時間の長さ 各カメラの画像に対して、「通過ゾーン」および「覗き
込みゾーン」がユーザによって定義される。通過ゾーン
はその販売促進用ディスプレイの前を通り過ぎる人の数
を求めるために使われ、覗き込みゾーンはそのディスプ
レイを眺める人の数を求めるために使われる。
【0012】図1は1つの実施形態における本発明の総
合的な構造を示している。本発明のハードウエア・コン
ポーネントは標準の棚卸しのコンポーネントから構成す
ることができる。このシステムの中の主要コンポーネン
トは1台またはそれ以上のビデオ・カメラ110、1台
またはそれ以上のフレーム・グラバー120およびパー
ソナル・コンピュータ(PC)などの処理システム13
0である。PC 130とフレーム・グラバー120と
の組合せはまとめて「ビデオ・プロセッサ」140と呼
ばれることもある。ビデオ・プロセッサ140は1台ま
たはそれ以上のカメラ110から、RS−170、NT
SC、CCIR、PALなどの標準のフォーマットのビ
デオ信号115を受信する。それらはモノクロまたはカ
ラーが可能である。カメラはその対象とする選択された
エリア、例えば、小売り業者の店舗における販売促進用
ディスプレイ、現金自動預け払い機(ATM)、または
人(あるいは他のオブジェクトであってもよい)が通過
し、時々覗き込むために立ち止まる局所化された他のエ
リアを撮影するために設置される。
合的な構造を示している。本発明のハードウエア・コン
ポーネントは標準の棚卸しのコンポーネントから構成す
ることができる。このシステムの中の主要コンポーネン
トは1台またはそれ以上のビデオ・カメラ110、1台
またはそれ以上のフレーム・グラバー120およびパー
ソナル・コンピュータ(PC)などの処理システム13
0である。PC 130とフレーム・グラバー120と
の組合せはまとめて「ビデオ・プロセッサ」140と呼
ばれることもある。ビデオ・プロセッサ140は1台ま
たはそれ以上のカメラ110から、RS−170、NT
SC、CCIR、PALなどの標準のフォーマットのビ
デオ信号115を受信する。それらはモノクロまたはカ
ラーが可能である。カメラはその対象とする選択された
エリア、例えば、小売り業者の店舗における販売促進用
ディスプレイ、現金自動預け払い機(ATM)、または
人(あるいは他のオブジェクトであってもよい)が通過
し、時々覗き込むために立ち止まる局所化された他のエ
リアを撮影するために設置される。
【0013】ビデオ信号115はフレーム・グラバー1
20に入力される。1つの実施形態においては、フレー
ム・グラバー120はMatrox社から入手できるM
eteor Color Frame Grabber
を含むことができる。フレーム・グラバー120はアナ
ログのビデオ信号115をメモリ135の中に格納され
るディジタル画像に変換し、そのディジタル画像をビデ
オ・プロセッサ140が処理することができる。例え
ば、1つの実施形態においては、フレーム・グラバー1
20はそのビデオ信号115を640×480(NTS
C)または768×576(PAL)のグレー・レベル
画像に変換することができる。各ピクセルの解像度は8
ビットとすることができる。8ビットの解像度は通常十
分であり、カラー・データを使ってシステムの性能を向
上させることができる。もちろん、通常の技術を持った
人によって認識されるように、各種の他のディジタル画
像フォーマットおよび解像度も使うことができる。
20に入力される。1つの実施形態においては、フレー
ム・グラバー120はMatrox社から入手できるM
eteor Color Frame Grabber
を含むことができる。フレーム・グラバー120はアナ
ログのビデオ信号115をメモリ135の中に格納され
るディジタル画像に変換し、そのディジタル画像をビデ
オ・プロセッサ140が処理することができる。例え
ば、1つの実施形態においては、フレーム・グラバー1
20はそのビデオ信号115を640×480(NTS
C)または768×576(PAL)のグレー・レベル
画像に変換することができる。各ピクセルの解像度は8
ビットとすることができる。8ビットの解像度は通常十
分であり、カラー・データを使ってシステムの性能を向
上させることができる。もちろん、通常の技術を持った
人によって認識されるように、各種の他のディジタル画
像フォーマットおよび解像度も使うことができる。
【0014】この時点で、画像の解析が以下に詳細に記
述されるようにPC 130によって開始される。
述されるようにPC 130によって開始される。
【0015】処理システム130によって実行される本
発明の高レベルの制御フローが、疑似コードおよびさら
に詳細なフォーマットの両方において以下に記述され
る。[]の中の番号は図2に示されているステップに対
する疑似コードを参照する。 [201]システム・パラメータを初期化する [202]ビデオ・ストリームを構成する [203]while(真) [204]for(j=;0<ビデオ入力の合計数;j
++) [205]次のフレームをビデオ入力jから得る [206]for(i=0;i<ディスプレイの合計
数;i++) [207]ディスプレイiに対する覗き込みゾーンを処
理する [208]ディスプレイiに対する通過ゾーンを処理す
る [208a]end for [209]end for [210]end while ステップ201において、システム・パラメータが初期
化される。システム・パラメータは図3に示されている
ようにツリー構造として表示することができる。そのツ
リーのルート 310は「ビデオ入力」であり、それは
ビデオ信号115を表している最高レベルのデータ構造
である。ツリーの次のレベル320は1つまたはそれ以
上のノード321を含み、それぞれがビデオ信号115
の1つに対応していて、各ビデオ信号115に対して1
つのノード321がある。各ノード321は1つのパラ
メータとして1つのフレーム・グラバー識別子322を
含む。それは対応しているビデオ信号115に対して割
り当てられているフレーム・グラバー120を識別す
る。
発明の高レベルの制御フローが、疑似コードおよびさら
に詳細なフォーマットの両方において以下に記述され
る。[]の中の番号は図2に示されているステップに対
する疑似コードを参照する。 [201]システム・パラメータを初期化する [202]ビデオ・ストリームを構成する [203]while(真) [204]for(j=;0<ビデオ入力の合計数;j
++) [205]次のフレームをビデオ入力jから得る [206]for(i=0;i<ディスプレイの合計
数;i++) [207]ディスプレイiに対する覗き込みゾーンを処
理する [208]ディスプレイiに対する通過ゾーンを処理す
る [208a]end for [209]end for [210]end while ステップ201において、システム・パラメータが初期
化される。システム・パラメータは図3に示されている
ようにツリー構造として表示することができる。そのツ
リーのルート 310は「ビデオ入力」であり、それは
ビデオ信号115を表している最高レベルのデータ構造
である。ツリーの次のレベル320は1つまたはそれ以
上のノード321を含み、それぞれがビデオ信号115
の1つに対応していて、各ビデオ信号115に対して1
つのノード321がある。各ノード321は1つのパラ
メータとして1つのフレーム・グラバー識別子322を
含む。それは対応しているビデオ信号115に対して割
り当てられているフレーム・グラバー120を識別す
る。
【0016】各ビデオ信号115に対して、本発明はカ
メラ110の画像の内部の、対象とする1つまたはそれ
以上のエリアの解析をサポートするように実装すること
ができる。例えば、カメラ110は小売り業者の店舗の
内部にある2台の販売促進用ディスプレイに向けられ、
その2台の各ディスプレイが異なる製品を含む。従っ
て、各ビデオ信号115のビデオ画像の内部に対象とな
る2つのエリアが存在し得る。これは図3のシステム・
パラメータのツリー構造の内部で、1つまたはそれ以上
のノード331を含んでいる、さらにもう1つのレベル
330として表されている。各ノード331はレベル3
20のノード321の1つの子であり、各ノード331
は対象とするエリア(例えば、1台の販売促進用ディス
プレイ、1台のATMなど)に対応する。各ノード33
1にはその特定のディスプレイをユニークに識別するデ
ィスプレイ識別子332が関係付けられており、また、
覗き込みのイベントのために費やされなければならない
時間の最小量を識別する、ログされる「覗き込み時間」
パラメータ333も関連付けられている(下記参照)。
メラ110の画像の内部の、対象とする1つまたはそれ
以上のエリアの解析をサポートするように実装すること
ができる。例えば、カメラ110は小売り業者の店舗の
内部にある2台の販売促進用ディスプレイに向けられ、
その2台の各ディスプレイが異なる製品を含む。従っ
て、各ビデオ信号115のビデオ画像の内部に対象とな
る2つのエリアが存在し得る。これは図3のシステム・
パラメータのツリー構造の内部で、1つまたはそれ以上
のノード331を含んでいる、さらにもう1つのレベル
330として表されている。各ノード331はレベル3
20のノード321の1つの子であり、各ノード331
は対象とするエリア(例えば、1台の販売促進用ディス
プレイ、1台のATMなど)に対応する。各ノード33
1にはその特定のディスプレイをユニークに識別するデ
ィスプレイ識別子332が関係付けられており、また、
覗き込みのイベントのために費やされなければならない
時間の最小量を識別する、ログされる「覗き込み時間」
パラメータ333も関連付けられている(下記参照)。
【0017】図4Aはビデオ・カメラ110の覗き込み
ゾーン420および通過ゾーン430が定義されている
販売促進用ディスプレイ410の、メモリ135に格納
される画像を捕捉しているビデオ・ディスプレイを示し
ている図である。同様に、図4Bは、2つのディスプレ
イ410、2つの覗き込みゾーン420および2つの通
過ゾーン430がある、ビデオ・ディスプレイを示して
いる図である。各カメラの視野内で、複数の通過ゾーン
430を定義することができる。
ゾーン420および通過ゾーン430が定義されている
販売促進用ディスプレイ410の、メモリ135に格納
される画像を捕捉しているビデオ・ディスプレイを示し
ている図である。同様に、図4Bは、2つのディスプレ
イ410、2つの覗き込みゾーン420および2つの通
過ゾーン430がある、ビデオ・ディスプレイを示して
いる図である。各カメラの視野内で、複数の通過ゾーン
430を定義することができる。
【0018】四角形の通過ゾーン430が指定されてい
る。人がその通過ゾーン430を通って移動するにつれ
て、システムは人がその通過ゾーン430を通ったこと
を示すイベント「通過イベント」を生成する。
る。人がその通過ゾーン430を通って移動するにつれ
て、システムは人がその通過ゾーン430を通ったこと
を示すイベント「通過イベント」を生成する。
【0019】410などの販売促進用ディスプレイを実
際に見る人の数を求めるために、人が覗き込みゾーン4
20に入った時刻および覗き込みゾーン420の中に留
まっていた時間の量を知る必要がある。人が覗き込みゾ
ーン420の中に最小限の時間に留まっていた場合、覗
き込みイベントが生成される。
際に見る人の数を求めるために、人が覗き込みゾーン4
20に入った時刻および覗き込みゾーン420の中に留
まっていた時間の量を知る必要がある。人が覗き込みゾ
ーン420の中に最小限の時間に留まっていた場合、覗
き込みイベントが生成される。
【0020】覗き込みゾーン420は通過ゾーン430
とは異なった方法で処理される。
とは異なった方法で処理される。
【0021】本発明のシステムの出力は、人がディスプ
レイ410を通過し、ディスプレイ410を眺めること
を表すイベントの集合である。1つのイベントと通過ゾ
ーン430を通る人との間に一対一の対応関係がある。
人が所定の時間より長く覗き込みゾーン420の中に留
まるたびに、覗き込みイベントが生成される。表5(下
記参照)は通過イベントのフォーマットの一例を示して
おり、表4は覗き込みイベントのフォーマットの一例を
示している。
レイ410を通過し、ディスプレイ410を眺めること
を表すイベントの集合である。1つのイベントと通過ゾ
ーン430を通る人との間に一対一の対応関係がある。
人が所定の時間より長く覗き込みゾーン420の中に留
まるたびに、覗き込みイベントが生成される。表5(下
記参照)は通過イベントのフォーマットの一例を示して
おり、表4は覗き込みイベントのフォーマットの一例を
示している。
【0022】通過イベントは約12バイトのデータ記憶
を必要とする可能性があり、一方、覗き込みイベントは
約16バイトを必要とする可能性がある。
を必要とする可能性があり、一方、覗き込みイベントは
約16バイトを必要とする可能性がある。
【0023】表1は1台の販売促進用ディスプレイ41
0を監視している代表的な構成に対するデータ記憶の必
要数を示している。通行人のうち20%が実際にディス
プレイ410の場所に立ち止まって眺めることが仮定さ
れている。
0を監視している代表的な構成に対するデータ記憶の必
要数を示している。通行人のうち20%が実際にディス
プレイ410の場所に立ち止まって眺めることが仮定さ
れている。
【0024】
【表1】 ふたたび図3を参照すると、各ノード331(ディスプ
レイ、ATMなどに対応する)にツリー構造の別のレベ
ル340がさらに関係付けられている。レベル340は
1つまたはそれ以上の覗き込みゾーンのノード341お
よび通過ゾーンのノード342を含み、その各ペアを1
つのノード331に関連付けることができる。従って、
個々のディスプレイ331に対して定義されている各覗
き込みゾーン420および通過ゾーン430は同じディ
スプレイ識別子332を使うことができる次のパラメー
タが各覗き込みゾーンのノード341に対して存在する
可能性がある。
レイ、ATMなどに対応する)にツリー構造の別のレベ
ル340がさらに関係付けられている。レベル340は
1つまたはそれ以上の覗き込みゾーンのノード341お
よび通過ゾーンのノード342を含み、その各ペアを1
つのノード331に関連付けることができる。従って、
個々のディスプレイ331に対して定義されている各覗
き込みゾーン420および通過ゾーン430は同じディ
スプレイ識別子332を使うことができる次のパラメー
タが各覗き込みゾーンのノード341に対して存在する
可能性がある。
【0025】境界ボックス:この境界ボックスはカメラ
110の視野内の覗き込みゾーン420のロケーション
を記述する。そのロケーション情報は図4の中に示され
ているように、画像の座標系の中の、覗き込みゾーン4
20の左上隅および覗き込みゾーン420の右下隅の
X、Y座標を含む。
110の視野内の覗き込みゾーン420のロケーション
を記述する。そのロケーション情報は図4の中に示され
ているように、画像の座標系の中の、覗き込みゾーン4
20の左上隅および覗き込みゾーン420の右下隅の
X、Y座標を含む。
【0026】パーセント占有値:このパーセント占有値
のパラメータは、占有されているとみなされる覗き込み
ゾーン420に対して「オン」になっていなければなら
ないピクセルの個数を規定する。これについては図5に
関連して以下に詳細に説明される。
のパラメータは、占有されているとみなされる覗き込み
ゾーン420に対して「オン」になっていなければなら
ないピクセルの個数を規定する。これについては図5に
関連して以下に詳細に説明される。
【0027】差分しきい値:画像の差を求める動作を実
行する時に使われる差のしきい値を規定する。これにつ
いても図5および図9に関連して以下にさらに詳細に説
明される。
行する時に使われる差のしきい値を規定する。これにつ
いても図5および図9に関連して以下にさらに詳細に説
明される。
【0028】各覗き込みゾーンのノード341に対して
次のパラメータも存在し得る。これらの各パラメータに
ついても図9に関連して以下にさらに詳細に説明され
る。
次のパラメータも存在し得る。これらの各パラメータに
ついても図9に関連して以下にさらに詳細に説明され
る。
【0029】前のしきい値: カウントのしきい値: パーセント差分しきい値: 背景画像: 次のパラメータが各通過ゾーンのノード342に対して
存在する。
存在する。
【0030】境界ボックス:カメラ110の視野内の通
過ゾーン430のロケーションを記述する。そのロケー
ション情報は画像の座標系の中での通過ゾーン430の
左上隅および通過ゾーン430の右下隅のX、Y座標を
含む。図4参照。
過ゾーン430のロケーションを記述する。そのロケー
ション情報は画像の座標系の中での通過ゾーン430の
左上隅および通過ゾーン430の右下隅のX、Y座標を
含む。図4参照。
【0031】差分しきい値:画像の差を求める演算を実
行する時に実行する差分しきい値を規定する。これは図
6および図9に関連して以下にさらに詳細に説明され
る。
行する時に実行する差分しきい値を規定する。これは図
6および図9に関連して以下にさらに詳細に説明され
る。
【0032】隣接距離:領域のラベリングのための隣接
性の制約を規定する。これは図6に関してどこかで説明
される。
性の制約を規定する。これは図6に関してどこかで説明
される。
【0033】最小オブジェクト・サイズ:フィルタリン
グの演算において使われピクセル数の単位での最小オブ
ジェクト・サイズを規定する。これは図7に関してどこ
かで説明される。
グの演算において使われピクセル数の単位での最小オブ
ジェクト・サイズを規定する。これは図7に関してどこ
かで説明される。
【0034】最大距離:マッチング時に2つのオブジェ
クトが許される最大の距離をピクセル数の単位で規定す
る。これは図10に関してどこかで説明される。
クトが許される最大の距離をピクセル数の単位で規定す
る。これは図10に関してどこかで説明される。
【0035】パス・レングスのしきい値:1つのオブジ
ェクトがカウントされるために超過しなければならない
軌跡の最小長さを規定する。これは図8に関連して、ど
こかで説明される。
ェクトがカウントされるために超過しなければならない
軌跡の最小長さを規定する。これは図8に関連して、ど
こかで説明される。
【0036】次のパラメータも各通過ゾーンのノード3
42に対して存在し得る。これらの各パラメータも図9
に関連して以下にさらに詳細に説明される。
42に対して存在し得る。これらの各パラメータも図9
に関連して以下にさらに詳細に説明される。
【0037】前のしきい値: カウントのしきい値: パーセント差分しきい値: 背景画像: ステップ201における初期化の後、ビデオ・ストリー
ムがステップ202において構成設定される。システム
・リソース、CPU130およびメモリ135を最適化
するために、処理システム130によって解析されるこ
とになる画像の部分を捕捉し格納することだけが必要で
ある。この場合も、監視されている販売促進用ディスプ
レイ410などに対して1つまたはそれ以上の覗き込み
ゾーン420(ノード341において定義されたよう
な)および通過ゾーン430(ノード342において定
義されたような)が定義される。1つの実施形態におい
ては、これらのゾーン420、430は本発明によって
解析される画像の一部分に過ぎない。覗き込みゾーン4
20および通過ゾーン430をすべて囲む最大のウィン
ドウ440は対象の領域(ROI:region of
interest)と呼ばれる。この実施形態におい
ては、本発明が動作している時、ROI440だけが捕
捉されてメモリ135の中に格納される必要がある。本
発明は複数のカメラをサポートすることができるので、
各ビデオ入力ストリーム115を各カメラ110の視野
に対するROI440に基づいて独立に構成設定するこ
とができる。
ムがステップ202において構成設定される。システム
・リソース、CPU130およびメモリ135を最適化
するために、処理システム130によって解析されるこ
とになる画像の部分を捕捉し格納することだけが必要で
ある。この場合も、監視されている販売促進用ディスプ
レイ410などに対して1つまたはそれ以上の覗き込み
ゾーン420(ノード341において定義されたよう
な)および通過ゾーン430(ノード342において定
義されたような)が定義される。1つの実施形態におい
ては、これらのゾーン420、430は本発明によって
解析される画像の一部分に過ぎない。覗き込みゾーン4
20および通過ゾーン430をすべて囲む最大のウィン
ドウ440は対象の領域(ROI:region of
interest)と呼ばれる。この実施形態におい
ては、本発明が動作している時、ROI440だけが捕
捉されてメモリ135の中に格納される必要がある。本
発明は複数のカメラをサポートすることができるので、
各ビデオ入力ストリーム115を各カメラ110の視野
に対するROI440に基づいて独立に構成設定するこ
とができる。
【0038】ステップ203(図2)において、本発明
はビデオ入力ステップ115の処理を開始する。処理シ
ステム130は各ビデオ・ストリーム115を順次処理
する。すなわち、各ビデオ入力115に対して、システ
ム130は次のフレーム(ディジタル画像)を得る(ス
テップ204〜209)。システム130はカメラ11
0の視野内で構成設定されている各ディスプレイ410
を順次解析する。すなわち、各ディスプレイ410に対
して、システム130は以下にさらに詳細に説明される
ように、ディスプレイ410に関連付けられている覗き
込みゾーン420および通過ゾーン430の集合を解析
する。
はビデオ入力ステップ115の処理を開始する。処理シ
ステム130は各ビデオ・ストリーム115を順次処理
する。すなわち、各ビデオ入力115に対して、システ
ム130は次のフレーム(ディジタル画像)を得る(ス
テップ204〜209)。システム130はカメラ11
0の視野内で構成設定されている各ディスプレイ410
を順次解析する。すなわち、各ディスプレイ410に対
して、システム130は以下にさらに詳細に説明される
ように、ディスプレイ410に関連付けられている覗き
込みゾーン420および通過ゾーン430の集合を解析
する。
【0039】<覗き込みゾーンの処理>ステップ270
において、覗き込みゾーン420が処理される。以下は
メモリ135の中に格納されているビデオ画像を使っ
て、処理システム130によって実行される覗き込みゾ
ーンのプロセスに対する疑似コードである。[]の中の
番号は図5のステップに対する疑似コードの番号を示し
ている。
において、覗き込みゾーン420が処理される。以下は
メモリ135の中に格納されているビデオ画像を使っ
て、処理システム130によって実行される覗き込みゾ
ーンのプロセスに対する疑似コードである。[]の中の
番号は図5のステップに対する疑似コードの番号を示し
ている。
【0040】[501]For(i=0;i<覗き込み
ゾーンの数;i++) [502]ゾーンiに対する対象の領域を抽出する [503]背景画像の差を生成する [504]if(オンになっているピクセルの数>パー
セント占有値) [505]status[i]=OCCUPIED [506]else [507]ステータス[i]=NOT_OCCUPIE
D [508]end if [509]現在の背景を更新する [510]end for [511]if(displayStatus=NOT
_OCCUPIED&& getStatus()=O
CCUPIED) [512]startTime=現在時刻 [513]displayStatus=OCCUPI
ED [514]else if(現在時刻−startTi
me)>lookingTime) [515]if((現在時刻−startTime)>
lookingTime) [516]覗き込みイベントをセーブする [517]end if [518]displayStatus=NOT_OC
CUPEID [519]end if この場合も、監視されている各ディスプレイ410には
1つまたはそれ以上の覗き込みゾーン420が関連付け
られている。その覗き込みゾーン420のどれか1つの
中に人が検出された場合、ディスプレイ410は占有さ
れたか、あるいは使用中であると考えられる。最初に、
各覗き込みゾーン420のステータス(図3のデータ構
造の中で定義されているような)、status
[i]、およびディスプレイがNOT_OCCUPIE
D(占有されていない)に設定される。各ビデオ信号入
力115に対して、次のことが実行される。ステップ5
01〜510において、処理システム130は次の機能
を実行しながら、各覗き込みゾーン420を順次処理す
る(図3のデータ構造を利用して)。先ず最初に、ステ
ップ502において、対応している覗き込みゾーン42
0に対して対象とする領域(ROI)420が入力フレ
ーム440から抽出される。この場合も入力フレーム4
40は1つまたはそれ以上の覗き込みゾーン420また
は通過ゾーン430を囲む境界ボックスに対応する。そ
の演算の出力は解析されている覗き込みゾーン420に
対応する画像の領域だけを含む、より小さなフレームで
ある。
ゾーンの数;i++) [502]ゾーンiに対する対象の領域を抽出する [503]背景画像の差を生成する [504]if(オンになっているピクセルの数>パー
セント占有値) [505]status[i]=OCCUPIED [506]else [507]ステータス[i]=NOT_OCCUPIE
D [508]end if [509]現在の背景を更新する [510]end for [511]if(displayStatus=NOT
_OCCUPIED&& getStatus()=O
CCUPIED) [512]startTime=現在時刻 [513]displayStatus=OCCUPI
ED [514]else if(現在時刻−startTi
me)>lookingTime) [515]if((現在時刻−startTime)>
lookingTime) [516]覗き込みイベントをセーブする [517]end if [518]displayStatus=NOT_OC
CUPEID [519]end if この場合も、監視されている各ディスプレイ410には
1つまたはそれ以上の覗き込みゾーン420が関連付け
られている。その覗き込みゾーン420のどれか1つの
中に人が検出された場合、ディスプレイ410は占有さ
れたか、あるいは使用中であると考えられる。最初に、
各覗き込みゾーン420のステータス(図3のデータ構
造の中で定義されているような)、status
[i]、およびディスプレイがNOT_OCCUPIE
D(占有されていない)に設定される。各ビデオ信号入
力115に対して、次のことが実行される。ステップ5
01〜510において、処理システム130は次の機能
を実行しながら、各覗き込みゾーン420を順次処理す
る(図3のデータ構造を利用して)。先ず最初に、ステ
ップ502において、対応している覗き込みゾーン42
0に対して対象とする領域(ROI)420が入力フレ
ーム440から抽出される。この場合も入力フレーム4
40は1つまたはそれ以上の覗き込みゾーン420また
は通過ゾーン430を囲む境界ボックスに対応する。そ
の演算の出力は解析されている覗き込みゾーン420に
対応する画像の領域だけを含む、より小さなフレームで
ある。
【0041】次に、ステップ503において、覗き込み
ゾーン420に関連付けられている抽出されたフレーム
と現在の背景を使って画像の差が生成される。その画像
の差を使って背景の中にない覗き込みゾーン420の中
のオブジェクトを検出する。そのシーンの中の新しいオ
ブジェクトは一般に背景とは異なるグレー・スケールの
強度またはカラー(グレー・スケールまたはカラーのい
ずれが使われているかによって変わる)の組を示すの
で、そのシーンの中の新しいオブジェクトを検出するこ
とができる。幅nおよび高さmの覗き込みゾーン420
に対する画像の差を生成するために次の式を使うことが
できる。
ゾーン420に関連付けられている抽出されたフレーム
と現在の背景を使って画像の差が生成される。その画像
の差を使って背景の中にない覗き込みゾーン420の中
のオブジェクトを検出する。そのシーンの中の新しいオ
ブジェクトは一般に背景とは異なるグレー・スケールの
強度またはカラー(グレー・スケールまたはカラーのい
ずれが使われているかによって変わる)の組を示すの
で、そのシーンの中の新しいオブジェクトを検出するこ
とができる。幅nおよび高さmの覗き込みゾーン420
に対する画像の差を生成するために次の式を使うことが
できる。
【0042】
【数1】 但し、f(i,b)=1 (|i−b|≧Dの場合) =0 (|i−b|<Dの場合) であり、Dは差のしきい値である。
【0043】値が1である画像の差の中のピクセルはオ
ブジェクトが検出された画像の内部のロケーションを表
している。その画像の差を求める演算に対して選択され
るしきい値は、影、変化する照明状態、および他の環境
要因から生じるノイズを消去するのに十分大きくなけれ
ばならない。しかし、そのしきい値はそのシーンの中の
人の存在を検出するのに十分小さくなければならない。
ブジェクトが検出された画像の内部のロケーションを表
している。その画像の差を求める演算に対して選択され
るしきい値は、影、変化する照明状態、および他の環境
要因から生じるノイズを消去するのに十分大きくなけれ
ばならない。しかし、そのしきい値はそのシーンの中の
人の存在を検出するのに十分小さくなければならない。
【0044】覗き込みゾーン420が占有されているか
どうかを判定するために、ステップ504〜508にお
いて処理システム130は値が1である画像の差の中の
ピクセルの合計数をパーセント占有値(percent
_occupied)パラメータに対して比較する。パ
ーセント占有値のパラメータは占有されているとみなさ
れる覗き込みゾーンに対する現在のフレームと背景フレ
ームとの間の差でなければならない、ピクセルの合計数
である。覗き込みゾーン420のステータスが更新さ
れ、そして最後に、現在の覗き込みゾーンの背景がステ
ップ509において更新される。これについては以下に
さらに詳しく説明される。
どうかを判定するために、ステップ504〜508にお
いて処理システム130は値が1である画像の差の中の
ピクセルの合計数をパーセント占有値(percent
_occupied)パラメータに対して比較する。パ
ーセント占有値のパラメータは占有されているとみなさ
れる覗き込みゾーンに対する現在のフレームと背景フレ
ームとの間の差でなければならない、ピクセルの合計数
である。覗き込みゾーン420のステータスが更新さ
れ、そして最後に、現在の覗き込みゾーンの背景がステ
ップ509において更新される。これについては以下に
さらに詳しく説明される。
【0045】各覗き込みゾーンが処理された後、システ
ムはステップ511〜519においてディスプレイのス
テータスの変化をチェックする。ステップ511におい
ては、どれかの覗き込みゾーンが占有されていて、その
ディスプレイのステータスがNOT_OCCUPIED
であった場合、人がその覗き込みゾーンの1つに入って
いる。ステップ512および513において、ディスプ
レイのステータスはOCCUPIEDに設定され、そし
てそのディスプレイが占有されるようになった時刻がs
tartTime(開始時刻)の中に格納される。
ムはステップ511〜519においてディスプレイのス
テータスの変化をチェックする。ステップ511におい
ては、どれかの覗き込みゾーンが占有されていて、その
ディスプレイのステータスがNOT_OCCUPIED
であった場合、人がその覗き込みゾーンの1つに入って
いる。ステップ512および513において、ディスプ
レイのステータスはOCCUPIEDに設定され、そし
てそのディスプレイが占有されるようになった時刻がs
tartTime(開始時刻)の中に格納される。
【0046】ステップ514において、ディスプレイが
占有されていなかった場合、システムは人がそのディス
プレイから立ち去ったかどうかを判定しなければならな
い。ディスプレイのステータスがOCCUPIEDであ
って、各ゾーンのステータスがNOT_OCCUPIE
Dであった場合、人はそのディスプレイから離れる。ス
テップ515〜518において、lookingTim
e(覗き込みゾーン時間)秒より長い間そのディスプレ
イの場所に留まっていた場合、システムは覗き込みゾー
ンイベントをログする。その人がごく短時間の間だけし
かいなかった場合、そのイベントはログされない。
占有されていなかった場合、システムは人がそのディス
プレイから立ち去ったかどうかを判定しなければならな
い。ディスプレイのステータスがOCCUPIEDであ
って、各ゾーンのステータスがNOT_OCCUPIE
Dであった場合、人はそのディスプレイから離れる。ス
テップ515〜518において、lookingTim
e(覗き込みゾーン時間)秒より長い間そのディスプレ
イの場所に留まっていた場合、システムは覗き込みゾー
ンイベントをログする。その人がごく短時間の間だけし
かいなかった場合、そのイベントはログされない。
【0047】通過ゾーンの処理 ステップ208において、通過ゾーン430が処理され
る。以下にメモリ135の中に格納されているビデオ画
像を使って処理システム130によって実行される、通
過ゾーンのプロセスに対する疑似コードが示されてい
る。[]の中の番号は図6のステップに対する疑似コー
ドの番号である。
る。以下にメモリ135の中に格納されているビデオ画
像を使って処理システム130によって実行される、通
過ゾーンのプロセスに対する疑似コードが示されてい
る。[]の中の番号は図6のステップに対する疑似コー
ドの番号である。
【0048】[601]for(i=0;i>通過ゾー
ンの数;i++) [602]通過ゾーンiに対して対象となる領域を抽出
する [603]背景の画像の差を生成する [604]領域のラベリングを実行する [605]オブジェクトをフィルタする [606]オブジェクトを追跡する [607]通過回数を更新する [608]現在の背景を更新する [609]end for 監視されている各ディスプレイ410はディスプレイ4
10に関連付けられている1つまたはそれ以上の通過ゾ
ーン430を備えている。人がその通過ゾーン430の
1つの中を歩いていることが検出された場合、ディスプ
レイ410に対する通過カウントが更新される。
ンの数;i++) [602]通過ゾーンiに対して対象となる領域を抽出
する [603]背景の画像の差を生成する [604]領域のラベリングを実行する [605]オブジェクトをフィルタする [606]オブジェクトを追跡する [607]通過回数を更新する [608]現在の背景を更新する [609]end for 監視されている各ディスプレイ410はディスプレイ4
10に関連付けられている1つまたはそれ以上の通過ゾ
ーン430を備えている。人がその通過ゾーン430の
1つの中を歩いていることが検出された場合、ディスプ
レイ410に対する通過カウントが更新される。
【0049】各フレーム入力115に対して、次のこと
が実行される。ステップ601〜609において、処理
システム130は次の機能を実行しながら各通過ゾーン
430を順次処理する。先ず最初にステップ602にお
いて、対応している通過ゾーン430に対して対象の領
域430が入力フレーム440から抽出される。この場
合も、入力フレーム440は1つまたはそれ以上の通過
ゾーン430および覗き込みゾーン420を囲む境界ボ
ックスに対応する。その演算の出力は解析されている通
過ゾーン430に対応する画像の領域だけを含む、より
小さなフレームである。
が実行される。ステップ601〜609において、処理
システム130は次の機能を実行しながら各通過ゾーン
430を順次処理する。先ず最初にステップ602にお
いて、対応している通過ゾーン430に対して対象の領
域430が入力フレーム440から抽出される。この場
合も、入力フレーム440は1つまたはそれ以上の通過
ゾーン430および覗き込みゾーン420を囲む境界ボ
ックスに対応する。その演算の出力は解析されている通
過ゾーン430に対応する画像の領域だけを含む、より
小さなフレームである。
【0050】次に、ステップ603において、通過ゾー
ン430に関連付けられている現在の背景と抽出された
フレームとを使って画像の差が生成される。その画像の
差は背景の中にない通過ゾーン430の中のオブジェク
トを検出するために使われる。そのシーンの中の新しい
オブジェクトは背景とは異なる組のグレー・スケール強
度を一般に示すので、そのシーンの中の新しいオブジェ
クトを検出することができる。図5に関して前に説明さ
れた、呼出しゾーンの背景との差を求める計算の中で使
われたのと同じ方法が使われる。
ン430に関連付けられている現在の背景と抽出された
フレームとを使って画像の差が生成される。その画像の
差は背景の中にない通過ゾーン430の中のオブジェク
トを検出するために使われる。そのシーンの中の新しい
オブジェクトは背景とは異なる組のグレー・スケール強
度を一般に示すので、そのシーンの中の新しいオブジェ
クトを検出することができる。図5に関して前に説明さ
れた、呼出しゾーンの背景との差を求める計算の中で使
われたのと同じ方法が使われる。
【0051】この点において、値が0および1であるバ
イナリの画像がメモリ135の中に存在する。1の値の
ピクセルは背景とは異なるオブジェクトの存在を示す。
次に、ステップ604において、画像の差の中の「オ
ン」である隣接したピクセルをグループ化するために画
像の差について領域のラベリング演算が実行される。例
えば、次の値のピクセルを含んでいる二値画像の部分
(表2に示されている)を仮定する。
イナリの画像がメモリ135の中に存在する。1の値の
ピクセルは背景とは異なるオブジェクトの存在を示す。
次に、ステップ604において、画像の差の中の「オ
ン」である隣接したピクセルをグループ化するために画
像の差について領域のラベリング演算が実行される。例
えば、次の値のピクセルを含んでいる二値画像の部分
(表2に示されている)を仮定する。
【0052】
【表2】 ステップ604の領域のラベリングによって、隣接する
ピクセルの2つの領域、AおよびBを識別することがで
きる。これらの領域が以下に示されている(表3)。
ピクセルの2つの領域、AおよびBを識別することがで
きる。これらの領域が以下に示されている(表3)。
【0053】
【表3】 領域AおよびBは通過ゾーン430の中で識別された2
つのオブジェクトに対応する。ノイズおよび、背景と同
程度のグレー・レベル強度のオブジェクトのセグメンテ
ーションが不十分である結果、最適のセグメンテーショ
ンが得られない可能性があるので、隣接性の制約を緩め
る必要がある。隣接性はピクセルの距離で表される距離
関数、adjacencyDistance(隣接距
離)として定義することができる。距離がDであるピク
セルPi,jに隣接するピクセルの集合は以下に示され
る。
つのオブジェクトに対応する。ノイズおよび、背景と同
程度のグレー・レベル強度のオブジェクトのセグメンテ
ーションが不十分である結果、最適のセグメンテーショ
ンが得られない可能性があるので、隣接性の制約を緩め
る必要がある。隣接性はピクセルの距離で表される距離
関数、adjacencyDistance(隣接距
離)として定義することができる。距離がDであるピク
セルPi,jに隣接するピクセルの集合は以下に示され
る。
【0054】
【数2】 この好適な実施形態において、距離はシステム・パラメ
ータである。上記の例の中で、2の距離を使って、領域
AとBが単独のオブジェクトとしてグループ化されるこ
とになる。
ータである。上記の例の中で、2の距離を使って、領域
AとBが単独のオブジェクトとしてグループ化されるこ
とになる。
【0055】領域ラベリング・アルゴリズムの出力は画
像の中の識別される各オブジェクトまたは領域に対して
1つの、オブジェクト・ディスクリプタの集合である。
各オブジェクト・ディスクリプタはそのオブジェクトの
面積中心(centroid)、オブジェクトの中心の
x,y座標値、およびピクセル数単位でのオブジェクト
のサイズから構成される。また、後で説明されるオブジ
ェクト・マッチングのアルゴリズムの性能を改善するた
めに、グレー・スケール強度、カラー・フィーチャなど
の他のオブジェクト・フィーチャを抽出することもでき
る。
像の中の識別される各オブジェクトまたは領域に対して
1つの、オブジェクト・ディスクリプタの集合である。
各オブジェクト・ディスクリプタはそのオブジェクトの
面積中心(centroid)、オブジェクトの中心の
x,y座標値、およびピクセル数単位でのオブジェクト
のサイズから構成される。また、後で説明されるオブジ
ェクト・マッチングのアルゴリズムの性能を改善するた
めに、グレー・スケール強度、カラー・フィーチャなど
の他のオブジェクト・フィーチャを抽出することもでき
る。
【0056】ステップ605において、オブジェクトが
現在の画像の中で識別された後、フィルタリング演算が
実行される。小さ過ぎるオブジェクトは捨てられる。と
いうのは、それらはノイズまたは他のセグメンテーショ
ン関連の問題から生成したオブジェクトに対応する可能
性があるからである。フィルタリングによって、人に比
べて小さい(例えば、minObjectSizeより
小さい)オブジェクトは捨てられる。オブジェクトのフ
ィルタリングについては、図7を参照して以下の疑似コ
ードによって説明される。
現在の画像の中で識別された後、フィルタリング演算が
実行される。小さ過ぎるオブジェクトは捨てられる。と
いうのは、それらはノイズまたは他のセグメンテーショ
ン関連の問題から生成したオブジェクトに対応する可能
性があるからである。フィルタリングによって、人に比
べて小さい(例えば、minObjectSizeより
小さい)オブジェクトは捨てられる。オブジェクトのフ
ィルタリングについては、図7を参照して以下の疑似コ
ードによって説明される。
【0057】[701]for各オブジェクト [702]if(オブジェクト・サイズ<minObj
ectSize) [703]オブジェクトを捨てる [704]end if [705]end for この点において、処理システム130はシーンの中の人
に対応するはずである一組のオブジェクトを持ってい
る。ステップ606において、システム130は次に現
在のフレームの中のオブジェクトを前のフレームの中の
オブジェクトとマッチさせなければならない。Trac
kObjectsは現在追跡されているオブジェクトの
配列である。TrackObjects配列の中の1つ
のエントリは次のものから構成される。
ectSize) [703]オブジェクトを捨てる [704]end if [705]end for この点において、処理システム130はシーンの中の人
に対応するはずである一組のオブジェクトを持ってい
る。ステップ606において、システム130は次に現
在のフレームの中のオブジェクトを前のフレームの中の
オブジェクトとマッチさせなければならない。Trac
kObjectsは現在追跡されているオブジェクトの
配列である。TrackObjects配列の中の1つ
のエントリは次のものから構成される。
【0058】・前のフレームからの関連付けられたオブ
ジェクトのディスクリプタ ・最初に識別された時の初期オブジェクトのロケーショ
ン NewObjectsは現在のフレームに対するオブジ
ェクト・ディスクリプタの配列である。ステップ606
の中でオブジェクト・マッチングを実行するために実行
されるサブステップが、図10を参照しながら以下に疑
似コードとして記述されている。
ジェクトのディスクリプタ ・最初に識別された時の初期オブジェクトのロケーショ
ン NewObjectsは現在のフレームに対するオブジ
ェクト・ディスクリプタの配列である。ステップ606
の中でオブジェクト・マッチングを実行するために実行
されるサブステップが、図10を参照しながら以下に疑
似コードとして記述されている。
【0059】[1001]if(NewObjects
の数=0) [1002]すべてのTrackObjectsを削除
する [1003]戻る [1004]end if [1006]for(k=0;k<TrackObje
ctsの数;k++) [1007]trackStatus[k]=NOT_
MATCHED [1009]for(k=0;k<NewObject
sの数;k++) [1010]objectStatus[k]=NOT
_MATCHED [1012]for(k=0;k<TrackObje
ctsの数;k++) [1013]bestD=MAXIMUM [1014]インデックス=−1 [1015]for(j=0;j<NewObject
sの数;j++) [1016]if(objectStatus[j]=
NOT_MATCHED) [1017]d=distance(TrackObj
ects[k],NewObjects[j]) [1018]if(d<maxDistance AN
D d<bestD) [1019]bestD=d [1020]インデックス=j [1021]end if [1022]end if [1023]end for [1025]if(インデックス!=−1) [1026]objectStatus[インデック
ス]MATCHED [1027]trackStatus[k]=MATC
HED [1028]TrackObjects[k]をNew
Objects[インデックス]で更新する [1029]end if [1030]end for [1032]for(k=0;k<TrackObje
ctsの数;k++) [1033]if(trackStatus[k]=N
OT_MATCHED [1034]trackObjects[k ]を削除
する [1035]end if [1036]end for [1037]for(k=0;k<NewObject
sの数;k++) [1038]if(objectStatus[k]=
NOT_MATCHED) [1039]newObjects[k]をtrack
Objectsに加算する [1040]end if [1041]end for 上記の疑似コードを図10に関連して次に説明する。
の数=0) [1002]すべてのTrackObjectsを削除
する [1003]戻る [1004]end if [1006]for(k=0;k<TrackObje
ctsの数;k++) [1007]trackStatus[k]=NOT_
MATCHED [1009]for(k=0;k<NewObject
sの数;k++) [1010]objectStatus[k]=NOT
_MATCHED [1012]for(k=0;k<TrackObje
ctsの数;k++) [1013]bestD=MAXIMUM [1014]インデックス=−1 [1015]for(j=0;j<NewObject
sの数;j++) [1016]if(objectStatus[j]=
NOT_MATCHED) [1017]d=distance(TrackObj
ects[k],NewObjects[j]) [1018]if(d<maxDistance AN
D d<bestD) [1019]bestD=d [1020]インデックス=j [1021]end if [1022]end if [1023]end for [1025]if(インデックス!=−1) [1026]objectStatus[インデック
ス]MATCHED [1027]trackStatus[k]=MATC
HED [1028]TrackObjects[k]をNew
Objects[インデックス]で更新する [1029]end if [1030]end for [1032]for(k=0;k<TrackObje
ctsの数;k++) [1033]if(trackStatus[k]=N
OT_MATCHED [1034]trackObjects[k ]を削除
する [1035]end if [1036]end for [1037]for(k=0;k<NewObject
sの数;k++) [1038]if(objectStatus[k]=
NOT_MATCHED) [1039]newObjects[k]をtrack
Objectsに加算する [1040]end if [1041]end for 上記の疑似コードを図10に関連して次に説明する。
【0060】ステップ1001において、システムが現
在のフレームの中にオブジェクトを識別しなかった場
合、その現在のTrackObjectsのすべてがス
テップ1002において削除され、このルーチンから脱
出する。ステップ1006から開始して、新しいオブジ
ェクトが識別された場合、新しい各オブジェクトおよび
既存のトラックのステータスがステップ1007および
1010のそれぞれにおいてNOT_MATCHEDに
設定される。次にシステムは現在の入力フレームの中で
識別された最良のマッチング・オブジェクトを見つけよ
うとして、現在のobjectTracksのリストの
中をサーチする。
在のフレームの中にオブジェクトを識別しなかった場
合、その現在のTrackObjectsのすべてがス
テップ1002において削除され、このルーチンから脱
出する。ステップ1006から開始して、新しいオブジ
ェクトが識別された場合、新しい各オブジェクトおよび
既存のトラックのステータスがステップ1007および
1010のそれぞれにおいてNOT_MATCHEDに
設定される。次にシステムは現在の入力フレームの中で
識別された最良のマッチング・オブジェクトを見つけよ
うとして、現在のobjectTracksのリストの
中をサーチする。
【0061】使われるマッチングの基準は前のフレーム
と現在のフレームからのオブジェクトの面積中心のロケ
ーションである。TrackObjectsのリストが
ステップ1012において縦覧される。各TrackO
bjectsに対して、最良にマッチしているNewO
bjectsが見つけられる。ステップ1013におい
て、距離の評点、bestDがその最大値に設定され
る。最善のマッチングのオブジェクトのインデックスが
ステップ1014において−1に設定される。ステップ
1015において、NewObjectsのリストが縦
覧される。ステップ1016から開始して、Track
ObjectsのエントリにまだマッチしていないNe
wObjectsの中の各エントリに対して、システム
はステップ1017においてその距離の評点dを計算す
る。ステップ1018〜1023において、dが距離の
しきい値、maxDistanceより小さく、そして
現在のbestDより小さい場合、マッチが見つかって
いる。NewObjectsオブジェクトのインデック
スがセーブされ、bestDが更新される。dista
nce()関数はTrackObjectsエントリの
面積中心およびNewObjectsエントリからのピ
クセル距離を計算する。
と現在のフレームからのオブジェクトの面積中心のロケ
ーションである。TrackObjectsのリストが
ステップ1012において縦覧される。各TrackO
bjectsに対して、最良にマッチしているNewO
bjectsが見つけられる。ステップ1013におい
て、距離の評点、bestDがその最大値に設定され
る。最善のマッチングのオブジェクトのインデックスが
ステップ1014において−1に設定される。ステップ
1015において、NewObjectsのリストが縦
覧される。ステップ1016から開始して、Track
ObjectsのエントリにまだマッチしていないNe
wObjectsの中の各エントリに対して、システム
はステップ1017においてその距離の評点dを計算す
る。ステップ1018〜1023において、dが距離の
しきい値、maxDistanceより小さく、そして
現在のbestDより小さい場合、マッチが見つかって
いる。NewObjectsオブジェクトのインデック
スがセーブされ、bestDが更新される。dista
nce()関数はTrackObjectsエントリの
面積中心およびNewObjectsエントリからのピ
クセル距離を計算する。
【0062】ステップ1025から開始して、マッチし
ているオブジェクトが見つかった場合、対応しているT
rackObjectsがステップ1026〜1030
において現在のオブジェクト・ディスクリプタ情報によ
って更新される。ステップ1032において、マッチし
なかった各TrackObjectsに対して、そのオ
ブジェクトはステップ1033〜1036において削除
される。ステップ1037において、マッチしなかった
各NewObjectsに対して新しいTrackOb
jectsがステップ1038〜1041において生成
される。
ているオブジェクトが見つかった場合、対応しているT
rackObjectsがステップ1026〜1030
において現在のオブジェクト・ディスクリプタ情報によ
って更新される。ステップ1032において、マッチし
なかった各TrackObjectsに対して、そのオ
ブジェクトはステップ1033〜1036において削除
される。ステップ1037において、マッチしなかった
各NewObjectsに対して新しいTrackOb
jectsがステップ1038〜1041において生成
される。
【0063】図10に関して上で説明されたプロセス
は、1つの好適な実施形態である。しかし、このプロセ
スを下記のように改善することができる。
は、1つの好適な実施形態である。しかし、このプロセ
スを下記のように改善することができる。
【0064】上記の説明の中で、距離関数(ステップ1
017)は各オブジェクトの面積中心からの距離を求め
ることによって計算することができる。オブジェクトの
ロケーション以外の特徴を含めるように、距離の概念を
拡張することができる。例えば、精度を増加させるため
に利用できる他のオブジェクトの特徴としては、オブジ
ェクトのサイズ、オブジェクトのグレー・スケールの強
度、またはオブジェクトのカラーなどがある。距離関数
は以下に示されているように、重み付けられた式として
書くことができる。
017)は各オブジェクトの面積中心からの距離を求め
ることによって計算することができる。オブジェクトの
ロケーション以外の特徴を含めるように、距離の概念を
拡張することができる。例えば、精度を増加させるため
に利用できる他のオブジェクトの特徴としては、オブジ
ェクトのサイズ、オブジェクトのグレー・スケールの強
度、またはオブジェクトのカラーなどがある。距離関数
は以下に示されているように、重み付けられた式として
書くことができる。
【0065】d=w1*(ロケーションの距離)+w2
*(サイズの距離)+w3*(強度の距離)+wN*
(特徴N) 強度の距離を計算するために使われる1つの方法は、そ
のオブジェクトの面積中心の回りからN×Mの領域を抽
出することである。次にこのデータがオブジェクト・デ
ィスクリプタの中に1つのデータ要素として格納され
る。次に、TrackObjects領域とNewOb
jects領域について正規化された相互相関関数を実
行することによって、強度に対する距離の評点が計算さ
れる。この方法はオブジェクトのマッチングに役立つ可
能性のある、オブジェクト・フィーチャのタイプを含め
るように拡張することができる。
*(サイズの距離)+w3*(強度の距離)+wN*
(特徴N) 強度の距離を計算するために使われる1つの方法は、そ
のオブジェクトの面積中心の回りからN×Mの領域を抽
出することである。次にこのデータがオブジェクト・デ
ィスクリプタの中に1つのデータ要素として格納され
る。次に、TrackObjects領域とNewOb
jects領域について正規化された相互相関関数を実
行することによって、強度に対する距離の評点が計算さ
れる。この方法はオブジェクトのマッチングに役立つ可
能性のある、オブジェクト・フィーチャのタイプを含め
るように拡張することができる。
【0066】第2の方法では各TrackObject
sおよびNewObjectsオブジェクトのペアに対
して最もよくマッチするものを識別するために、図10
のプロセスが拡張される。ステップ1012〜1025
はTrackObjectsオブジェクトに対して最も
よくマッチするNewObjectsオブジェクトを順
番に見つける。この方法の欠点は、NewObject
sエントリXがTrackObjects NおよびN
+1に対して最もよくマッチする場合、そのオブジェク
トは常にTrackObjects Nとマッチされる
ことである。TrackObjects N+1に対す
る距離の評点がよかった場合、エントリXはTrack
Objects N+1にマッチされるべきである。こ
のマッチングにおける異常性の結果、システムがTra
ckObjects Nとマッチしていなければならな
いオブジェクトに対する新しいTrackObject
sエントリを捨てるか、あるいは生成する可能性があ
る。この方法はアルゴリズムの精度を増加させるが、距
離の計算における計算のコストを上昇させることにな
る。
sおよびNewObjectsオブジェクトのペアに対
して最もよくマッチするものを識別するために、図10
のプロセスが拡張される。ステップ1012〜1025
はTrackObjectsオブジェクトに対して最も
よくマッチするNewObjectsオブジェクトを順
番に見つける。この方法の欠点は、NewObject
sエントリXがTrackObjects NおよびN
+1に対して最もよくマッチする場合、そのオブジェク
トは常にTrackObjects Nとマッチされる
ことである。TrackObjects N+1に対す
る距離の評点がよかった場合、エントリXはTrack
Objects N+1にマッチされるべきである。こ
のマッチングにおける異常性の結果、システムがTra
ckObjects Nとマッチしていなければならな
いオブジェクトに対する新しいTrackObject
sエントリを捨てるか、あるいは生成する可能性があ
る。この方法はアルゴリズムの精度を増加させるが、距
離の計算における計算のコストを上昇させることにな
る。
【0067】図8を参照して、オブジェクト・トラック
が更新された後、システムは1つのオブジェクトが通過
ゾーン430を通過したかどうかを判定しなければなら
ない。これはオブジェクト・トラックの長さを解析する
ことによって行われる。各オブジェクト・トラックに対
して(ライン801)、システムはそのオブジェクトが
既にカウントされたかどうかを判定する(ライン80
2)。そのオブジェクトがカウントされていなかった場
合、システムはそのオブジェクト・トラックの長さをp
athLengthThresholdに対して比較す
る。そのパス・レングスがそのしきい値を超えていた場
合(ライン803)、通過のカウントが804において
更新される。そのオブジェクトに対するカウント・フラ
グが「真」にセットされ(ライン805)、そのオブジ
ェクトは二度カウントされないようになる。図8に対す
る疑似コードが以下に示されている。
が更新された後、システムは1つのオブジェクトが通過
ゾーン430を通過したかどうかを判定しなければなら
ない。これはオブジェクト・トラックの長さを解析する
ことによって行われる。各オブジェクト・トラックに対
して(ライン801)、システムはそのオブジェクトが
既にカウントされたかどうかを判定する(ライン80
2)。そのオブジェクトがカウントされていなかった場
合、システムはそのオブジェクト・トラックの長さをp
athLengthThresholdに対して比較す
る。そのパス・レングスがそのしきい値を超えていた場
合(ライン803)、通過のカウントが804において
更新される。そのオブジェクトに対するカウント・フラ
グが「真」にセットされ(ライン805)、そのオブジ
ェクトは二度カウントされないようになる。図8に対す
る疑似コードが以下に示されている。
【0068】[801]for(j=1;j<トラック
・オブジェクトの数;j++) [802]if(TrackObjects[j].c
ount=偽) [803]if(pathLength Thresh
old[j]>pathLengthのしきい値) [804]passingCount=passing
Count+1 [805]TrackObjects[j].coun
t=真 [806]end if [807]end if [808]end for ステップ801〜808が完了した後、図5に関して覗
き込みゾーン420に対して以前に記述されたのと同じ
方法を使って背景を更新することができまる。 出力 1つの実施形態においては、本発明の解析システムの出
力は人とディスプレイ410との対話動作を記述するイ
ベント・ストリームである。本発明は次の情報を測定す
るように実装することができる。
・オブジェクトの数;j++) [802]if(TrackObjects[j].c
ount=偽) [803]if(pathLength Thresh
old[j]>pathLengthのしきい値) [804]passingCount=passing
Count+1 [805]TrackObjects[j].coun
t=真 [806]end if [807]end if [808]end for ステップ801〜808が完了した後、図5に関して覗
き込みゾーン420に対して以前に記述されたのと同じ
方法を使って背景を更新することができまる。 出力 1つの実施形態においては、本発明の解析システムの出
力は人とディスプレイ410との対話動作を記述するイ
ベント・ストリームである。本発明は次の情報を測定す
るように実装することができる。
【0069】・ディスプレイを通過する人の数 ・ディスプレイと対話している(覗き込んでいる)人の
数 ・ディスプレイと各人が対話している(見ている)時間
の量 この情報をハード・ディスクまたは他の記憶媒体上で、
イベント・ファイルと呼ばれるバイナリ・ファイルの中
に格納することができる。イベント・ファイルはディス
プレイの解析を実行している各処理システム130上で
生成されるファイルである。このディスプレイ解析シス
テムは2種類のイベントまたはレコードをイベント・フ
ァイルの中に格納する。その2種類のイベントは覗き込
みイベント(覗き込みゾーン420に対応している)お
よび通過イベント(通過ゾーン430に対応している)
である。
数 ・ディスプレイと各人が対話している(見ている)時間
の量 この情報をハード・ディスクまたは他の記憶媒体上で、
イベント・ファイルと呼ばれるバイナリ・ファイルの中
に格納することができる。イベント・ファイルはディス
プレイの解析を実行している各処理システム130上で
生成されるファイルである。このディスプレイ解析シス
テムは2種類のイベントまたはレコードをイベント・フ
ァイルの中に格納する。その2種類のイベントは覗き込
みイベント(覗き込みゾーン420に対応している)お
よび通過イベント(通過ゾーン430に対応している)
である。
【0070】処理システム130が覗き込みゾーン42
0において人を検出すると(前に説明されたように)、
新しい覗き込みイベントが生成される。次の表(表4)
は1つの実施形態における顧客の覗き込みイベントのデ
ータ・フォーマットを示している。
0において人を検出すると(前に説明されたように)、
新しい覗き込みイベントが生成される。次の表(表4)
は1つの実施形態における顧客の覗き込みイベントのデ
ータ・フォーマットを示している。
【0071】
【表4】 人が通過ゾーン430を通り過ぎたことを処理システム
130が検出するたびに、新しい通過イベントが生成さ
れる。1つの実施形態においては、同時にディスプレイ
を2人以上の顧客が通過した場合それは同じイベントの
中に記録される。次の表(表5)は通過イベントのデー
タ・フォーマットを示している。
130が検出するたびに、新しい通過イベントが生成さ
れる。1つの実施形態においては、同時にディスプレイ
を2人以上の顧客が通過した場合それは同じイベントの
中に記録される。次の表(表5)は通過イベントのデー
タ・フォーマットを示している。
【0072】
【表5】 <背景の付加>時間の経過につれて、カメラ110によ
って撮影されているシーンが変化する可能性がある。こ
れらの変化は照明状態、すなわち、夜か昼かによる変
動、あるいはカメラ110の視野内のオブジェクトの物
理的な場所の変化の結果として現われる。カメラ110
の視野内で人を正確に検出するために、本発明はシーン
における変化を組み込むように現在の背景を適応させる
ことができなければならない。さらに、覗き込みゾーン
420および通過ゾーン430は画像の中の異なる場所
にあり得るので、各ゾーンに対する個々の背景が維持さ
れる。背景のサイズをそのゾーンのサイズに等しく設定
することができる。
って撮影されているシーンが変化する可能性がある。こ
れらの変化は照明状態、すなわち、夜か昼かによる変
動、あるいはカメラ110の視野内のオブジェクトの物
理的な場所の変化の結果として現われる。カメラ110
の視野内で人を正確に検出するために、本発明はシーン
における変化を組み込むように現在の背景を適応させる
ことができなければならない。さらに、覗き込みゾーン
420および通過ゾーン430は画像の中の異なる場所
にあり得るので、各ゾーンに対する個々の背景が維持さ
れる。背景のサイズをそのゾーンのサイズに等しく設定
することができる。
【0073】好適な1つの実施形態において、覗き込み
ゾーン420および通過ゾーン430の背景を更新する
ために使われる方法は同じである。個別のカメラ110
の視野の中で定義される各覗き込みゾーンおよび通過ゾ
ーンに対して別々の背景が維持される。初期化時に、個
々のディスプレイに対する各覗き込みゾーンおよび通過
ゾーンは背景画像ファイルをロードすることによって初
期化することができる。
ゾーン420および通過ゾーン430の背景を更新する
ために使われる方法は同じである。個別のカメラ110
の視野の中で定義される各覗き込みゾーンおよび通過ゾ
ーンに対して別々の背景が維持される。初期化時に、個
々のディスプレイに対する各覗き込みゾーンおよび通過
ゾーンは背景画像ファイルをロードすることによって初
期化することができる。
【0074】図9を参照して、次の疑似コードによって
記述されるプロセスが、背景を更新する際に処理システ
ム130によって実行される。
記述されるプロセスが、背景を更新する際に処理システ
ム130によって実行される。
【0075】[901]//初期化 [902]backgroundFrame=背景フレ
ーム [903]frameCount=0 [904]previousFrame=現在のフレー
ム [905]previousCount=0 [906]//初期化の終り [907]for(;;) [908]次のフレームを得る [909]create_image_differe
nce(現在のフレーム、previousFram
e) [910]if(パーセント差>percentdif
ferenceThreshold) [911]previousFrameCount=0 [912]previousFrame=現在のフレー
ム [913]frameCount=0 [914]else [915]previousFrameCount=p
reviousFrameCount+1 [916]if(previousFrameCoun
t>previousThreshold) [917]previousFrameCount=0 [918]previousFrame=現在のフレー
ム [919]end if [920]frameCount=frameCoun
t+1 [921]if(frameCount>countT
hreshold) [922]frameCount=0 [923]backgroundFrame=現在のフ
レーム [924]end if [925]end if [926]end for 上記のプロセスおよび図9のプロセスの背後にある基本
概念は、コンテンツ(content)の中の非常に僅
かな変化を示す入力フレーム115の連続したシーケン
スを識別することである。シーンの変化が全くないか、
あるいはほとんどない場合、その背景画像を更新するこ
とができる。説明された方法の中で、コンテンツの中の
変化は動きによって識別される。人がシーンの内部にい
た場合、人が動くことによって、システム130は新し
い背景を捕捉しなくなる。
ーム [903]frameCount=0 [904]previousFrame=現在のフレー
ム [905]previousCount=0 [906]//初期化の終り [907]for(;;) [908]次のフレームを得る [909]create_image_differe
nce(現在のフレーム、previousFram
e) [910]if(パーセント差>percentdif
ferenceThreshold) [911]previousFrameCount=0 [912]previousFrame=現在のフレー
ム [913]frameCount=0 [914]else [915]previousFrameCount=p
reviousFrameCount+1 [916]if(previousFrameCoun
t>previousThreshold) [917]previousFrameCount=0 [918]previousFrame=現在のフレー
ム [919]end if [920]frameCount=frameCoun
t+1 [921]if(frameCount>countT
hreshold) [922]frameCount=0 [923]backgroundFrame=現在のフ
レーム [924]end if [925]end if [926]end for 上記のプロセスおよび図9のプロセスの背後にある基本
概念は、コンテンツ(content)の中の非常に僅
かな変化を示す入力フレーム115の連続したシーケン
スを識別することである。シーンの変化が全くないか、
あるいはほとんどない場合、その背景画像を更新するこ
とができる。説明された方法の中で、コンテンツの中の
変化は動きによって識別される。人がシーンの内部にい
た場合、人が動くことによって、システム130は新し
い背景を捕捉しなくなる。
【0076】ステップ901から始めて、ディスクまた
他の記憶媒体上に格納されている背景フレームに、背景
が初期化される(ステップ902)。ステップ903に
おいて、動きの制約条件を満足していて処理された画像
の合計数FrameCountが0に初期化される。ス
テップ904および905において、動きおよび変化に
対するシステムの感度を増加させるためにprevio
usFrameおよびPreviousFrameCo
untが使われる。PreviousFrameは初期
入力フレームに設定され、PreviousFrame
Countは0に初期化される。
他の記憶媒体上に格納されている背景フレームに、背景
が初期化される(ステップ902)。ステップ903に
おいて、動きの制約条件を満足していて処理された画像
の合計数FrameCountが0に初期化される。ス
テップ904および905において、動きおよび変化に
対するシステムの感度を増加させるためにprevio
usFrameおよびPreviousFrameCo
untが使われる。PreviousFrameは初期
入力フレームに設定され、PreviousFrame
Countは0に初期化される。
【0077】次の2つの変数、countThresh
oldおよびpreviousThresholdはシ
ステムが新しい背景を取得する速度を制御するパラメー
タである。CountThresholdは新しい背景
が取得される前に処理されなければならない、動きの制
約を満足している連続したフレームの数である。Cou
ntThresholdの値が大きいほど新しい背景が
取得される頻度が低下する。すなわち、その動きの制約
が満足されなければならない時間の長さが増加する。
oldおよびpreviousThresholdはシ
ステムが新しい背景を取得する速度を制御するパラメー
タである。CountThresholdは新しい背景
が取得される前に処理されなければならない、動きの制
約を満足している連続したフレームの数である。Cou
ntThresholdの値が大きいほど新しい背景が
取得される頻度が低下する。すなわち、その動きの制約
が満足されなければならない時間の長さが増加する。
【0078】PreviousThresholdはシ
ステムが新しいPreviousFrameを取得する
頻度を決定する。新しいpreviousFrameは
その動きの制約が満足されないか、あるいはすべてのP
reviousThresholdフレームが処理され
た後で常に取得される。動きの制約はprevious
FrameとcurrentFrameとの間の画像の
差を計算することによって評価されるので、previ
ousThresholdを使って動きに対するシステ
ムの感度を構成設定することができる。ある状況におい
ては、連続のフレーム間では人の動きが認知されない場
合、すなわち、非常に遅い動きの場合がある。しかし、
一連のフレームにわたって考察された時、動きを容易に
識別することができる。
ステムが新しいPreviousFrameを取得する
頻度を決定する。新しいpreviousFrameは
その動きの制約が満足されないか、あるいはすべてのP
reviousThresholdフレームが処理され
た後で常に取得される。動きの制約はprevious
FrameとcurrentFrameとの間の画像の
差を計算することによって評価されるので、previ
ousThresholdを使って動きに対するシステ
ムの感度を構成設定することができる。ある状況におい
ては、連続のフレーム間では人の動きが認知されない場
合、すなわち、非常に遅い動きの場合がある。しかし、
一連のフレームにわたって考察された時、動きを容易に
識別することができる。
【0079】システムが初期化された後、ステップ90
7と908から開始して各入力フレームが処理される。
この時点でのフレームは対象の領域440の内部の通過
ゾーンまたは覗き込みゾーンの1つの対応する。ステッ
プ909において、現在のフレームと前のフレームとの
間の画像の差が生成される。その画像の差を生成する際
に生成される差のしきい値は、覗き込みゾーンまたは通
過ゾーンに対するゾーンのしきい値に対応する。ステッ
プ910において、異なっているピクセルのパーセンテ
ージがそのパーセント差のしきい値を超えていた場合、
その動きの制約が満たされず、アルゴリズムの変数はリ
セットされる(ステップ911〜913)。ステップ9
14において、異なっているピクセルのパーセンテージ
がパーセント差のしきい値より小さかった場合、動きの
制約が満足されており、処理はステップ915へ継続す
る。
7と908から開始して各入力フレームが処理される。
この時点でのフレームは対象の領域440の内部の通過
ゾーンまたは覗き込みゾーンの1つの対応する。ステッ
プ909において、現在のフレームと前のフレームとの
間の画像の差が生成される。その画像の差を生成する際
に生成される差のしきい値は、覗き込みゾーンまたは通
過ゾーンに対するゾーンのしきい値に対応する。ステッ
プ910において、異なっているピクセルのパーセンテ
ージがそのパーセント差のしきい値を超えていた場合、
その動きの制約が満たされず、アルゴリズムの変数はリ
セットされる(ステップ911〜913)。ステップ9
14において、異なっているピクセルのパーセンテージ
がパーセント差のしきい値より小さかった場合、動きの
制約が満足されており、処理はステップ915へ継続す
る。
【0080】先ず最初に、前のカウント値がステップ9
15において更新される。ステップ916において、p
reviousCountがpreviousThre
sholdより大きかった場合、previousFr
ameCountがリセットされ、PreviousF
rameはステップ917および918において現在の
フレームに等しく設定される。次に、frameCou
ntがステップ920において更新される。ステップ9
21において、frameCountがcountTh
resholdより大きかった場合、動きの制約が必要
な数のフレームに対して満足されていたことになる。ス
テップ922および923において、frameCou
ntがリセットされ、backgroundFrame
が現在のフレームに等しく設定される。
15において更新される。ステップ916において、p
reviousCountがpreviousThre
sholdより大きかった場合、previousFr
ameCountがリセットされ、PreviousF
rameはステップ917および918において現在の
フレームに等しく設定される。次に、frameCou
ntがステップ920において更新される。ステップ9
21において、frameCountがcountTh
resholdより大きかった場合、動きの制約が必要
な数のフレームに対して満足されていたことになる。ス
テップ922および923において、frameCou
ntがリセットされ、backgroundFrame
が現在のフレームに等しく設定される。
【0081】<セグメンテーションの改善>前に説明さ
れたように、画像の差を生成する際に使われる差のしき
い値は単独の整数である。しかし、この方法には欠点が
あり得る。先ず第1に、コンフィギュレーションの間に
ユーザはそのゾーンに対する最善のしきい値を構成設定
しなければならない。この結果、ユーザがその最善のし
きい値を識別するために実験的なテストを行わなければ
ならないコンフィギュレーション、試験、性能評価のシ
ナリオとなる。これは最も望ましい方法ではない。第2
に、照明および背景の特性が変わるために、覗き込みゾ
ーン430または通過ゾーン420全体にわたって最適
に使える単独のしきい値を識別することが困難となる可
能性がある。例えば、床が明るく反射するシーンにおけ
る背景を区別するためには、影の影響のために、暗いシ
ーンよりは大きな差のしきい値が一般に必要である。
れたように、画像の差を生成する際に使われる差のしき
い値は単独の整数である。しかし、この方法には欠点が
あり得る。先ず第1に、コンフィギュレーションの間に
ユーザはそのゾーンに対する最善のしきい値を構成設定
しなければならない。この結果、ユーザがその最善のし
きい値を識別するために実験的なテストを行わなければ
ならないコンフィギュレーション、試験、性能評価のシ
ナリオとなる。これは最も望ましい方法ではない。第2
に、照明および背景の特性が変わるために、覗き込みゾ
ーン430または通過ゾーン420全体にわたって最適
に使える単独のしきい値を識別することが困難となる可
能性がある。例えば、床が明るく反射するシーンにおけ
る背景を区別するためには、影の影響のために、暗いシ
ーンよりは大きな差のしきい値が一般に必要である。
【0082】実装できる1つの方法は画像の中の各ピク
セルに対して異なるしきい値を設ける方法である。この
方法では、画像の差を求める演算が実行される時、ゾー
ンの中の各ピクセルに対して最善のしきい値が使われ
る。これはサイズがn×mのゾーンに対して以下に示さ
れている画像の差分方程式の中に示されている。
セルに対して異なるしきい値を設ける方法である。この
方法では、画像の差を求める演算が実行される時、ゾー
ンの中の各ピクセルに対して最善のしきい値が使われ
る。これはサイズがn×mのゾーンに対して以下に示さ
れている画像の差分方程式の中に示されている。
【0083】
【数3】 但し、f(i,b)=0 (|i−b|<G(x,y)の場合) =1 (|i−b|≧G(x,y)の場合) G(x,y)は覗き込みゾーンまたは通過ゾーンの中の
各ピクセルに対して使われるべきしきい値を含んでいる
二次元配列である。
各ピクセルに対して使われるべきしきい値を含んでいる
二次元配列である。
【0084】G(x,y)の中に含まれているしきい値
は、対応しているゾーンに対する新しい背景が捕捉され
た時に処理システム130によって自動的に計算するこ
とができる。次の式は各x,yのロケーションに対する
しきい値を生成するために使うことができる。
は、対応しているゾーンに対する新しい背景が捕捉され
た時に処理システム130によって自動的に計算するこ
とができる。次の式は各x,yのロケーションに対する
しきい値を生成するために使うことができる。
【0085】G(x,y)= -0.00000000000600 * k6
+ 0.00000000412652 * k5 +-0.00000097234900 * k4 +
0.00008142579606 * k3 +9.99999999999988 但し、k=B(x,y)であり、これは現在の背景画像
の中のピクセルx,yの強度値である。G(x,y)は
新しい背景画像が得られるたびに更新される。上記の式
は各種のピクセルの強度において生成されるノイズの量
を解析することによって導かれたものである。一般に、
高い強度値の方がノイズ、シャドーイング、および誤差
を生成する他の環境要因の影響を強く受けることが分か
っている。上記の式はシーンの中の強度の高いピクセル
値の場所に対してより高いしきい値を生成する。
+ 0.00000000412652 * k5 +-0.00000097234900 * k4 +
0.00008142579606 * k3 +9.99999999999988 但し、k=B(x,y)であり、これは現在の背景画像
の中のピクセルx,yの強度値である。G(x,y)は
新しい背景画像が得られるたびに更新される。上記の式
は各種のピクセルの強度において生成されるノイズの量
を解析することによって導かれたものである。一般に、
高い強度値の方がノイズ、シャドーイング、および誤差
を生成する他の環境要因の影響を強く受けることが分か
っている。上記の式はシーンの中の強度の高いピクセル
値の場所に対してより高いしきい値を生成する。
【0086】使用できる第2の改善策は画像の差につい
てノイズの消去ステップを実行することである。この方
法は前記の差について一連の形態学的演算を実行する必
要がある。形態学的な浸食および膨張の演算を実行する
ことによって、画像の差の中のノイズの多い領域を減ら
すか、あるいは消去することができる。同時に、セグメ
ンテーションが不十分であるためにあいまいになってい
るオブジェクトを含んでいるエリアが埋められる。
てノイズの消去ステップを実行することである。この方
法は前記の差について一連の形態学的演算を実行する必
要がある。形態学的な浸食および膨張の演算を実行する
ことによって、画像の差の中のノイズの多い領域を減ら
すか、あるいは消去することができる。同時に、セグメ
ンテーションが不十分であるためにあいまいになってい
るオブジェクトを含んでいるエリアが埋められる。
【0087】<覗き込みゾーンおよび通過ゾーンに対す
るコンフィギュレーション・ツール>1つまたはそれ以
上の覗き込みゾーン420および1つまたはそれ以上の
通過ゾーン430を構成設定するために、以下に説明さ
れるようなコンフィギュレーション・ツールを実装する
ことができる。好適な実施形態においては、そのコンフ
ュギレーション・ツールはグラフィカル・ユーザ・イン
ターフェースをサポートする、処理システム130につ
いて操作するVisual Basicのアプリケーシ
ョンである。
るコンフィギュレーション・ツール>1つまたはそれ以
上の覗き込みゾーン420および1つまたはそれ以上の
通過ゾーン430を構成設定するために、以下に説明さ
れるようなコンフィギュレーション・ツールを実装する
ことができる。好適な実施形態においては、そのコンフ
ュギレーション・ツールはグラフィカル・ユーザ・イン
ターフェースをサポートする、処理システム130につ
いて操作するVisual Basicのアプリケーシ
ョンである。
【0088】覗き込みゾーン420および通過ゾーン4
30のコンフィギュレーションのためのプロセスは次の
通りである。コンフィギュレーション・ツールから、ユ
ーザはメモリ135の中に格納されるフレーム・グラバ
ー・カード120からの画像を捕捉する。次に、そのカ
メラの画像をPCのディスプレイ(特別に示されてはい
ないが、PC 130が当然備えているものである)上
に表示することができる。覗き込みゾーン420および
通過ゾーン430はマウス入力装置、またはPC 13
0の他の任意の適切な入力装置を使うことによって生成
することができる。例えば、解析のための1つのディス
プレイ(例えば、データ構造331など)を生成するた
めには、ユーザはメニューから「新しいディスプレイを
生成する)オプションを選択することができる。次に、
1つのディスプレイに関連付けられるすべてのパラメー
タがPC 130に付属しているキーボードまたは他の
入力装置上で入力される(これらのパラメータについて
は図3に関してどこかで説明される)。
30のコンフィギュレーションのためのプロセスは次の
通りである。コンフィギュレーション・ツールから、ユ
ーザはメモリ135の中に格納されるフレーム・グラバ
ー・カード120からの画像を捕捉する。次に、そのカ
メラの画像をPCのディスプレイ(特別に示されてはい
ないが、PC 130が当然備えているものである)上
に表示することができる。覗き込みゾーン420および
通過ゾーン430はマウス入力装置、またはPC 13
0の他の任意の適切な入力装置を使うことによって生成
することができる。例えば、解析のための1つのディス
プレイ(例えば、データ構造331など)を生成するた
めには、ユーザはメニューから「新しいディスプレイを
生成する)オプションを選択することができる。次に、
1つのディスプレイに関連付けられるすべてのパラメー
タがPC 130に付属しているキーボードまたは他の
入力装置上で入力される(これらのパラメータについて
は図3に関してどこかで説明される)。
【0089】これでユーザはそのディスプレイに関連付
けられた覗き込みゾーン420および通過ゾーン430
(例えば、データ構造341および342)を生成する
ことができる。覗き込みゾーン420はメニューから
「新しい覗き込みゾーンを生成する」オプション(また
は他の適切なオプション)を選択することによって生成
することができる。マウスによる「ドラッグ操作」およ
び「クリック操作」などによって、ユーザはPC 13
0のディスプレイ上に表示されている画像の上に覗き込
みゾーン420の位置を「描く」ことができる。ディス
プレイ上のそのゾーンのサイズおよびロケーションから
境界ボックスの座標が生成される。そのゾーンが位置決
めされて大きさが決められた後、ユーザはそのゾーンの
上で「ダブル・クリック」し、その覗き込みゾーンに関
連付けられるすべてのパラメータをキーボード経由で入
力することができる(図3に関して前に説明されている
ように)。通過ゾーン430を生成する時にも類似のプ
ロセスが行われる。
けられた覗き込みゾーン420および通過ゾーン430
(例えば、データ構造341および342)を生成する
ことができる。覗き込みゾーン420はメニューから
「新しい覗き込みゾーンを生成する」オプション(また
は他の適切なオプション)を選択することによって生成
することができる。マウスによる「ドラッグ操作」およ
び「クリック操作」などによって、ユーザはPC 13
0のディスプレイ上に表示されている画像の上に覗き込
みゾーン420の位置を「描く」ことができる。ディス
プレイ上のそのゾーンのサイズおよびロケーションから
境界ボックスの座標が生成される。そのゾーンが位置決
めされて大きさが決められた後、ユーザはそのゾーンの
上で「ダブル・クリック」し、その覗き込みゾーンに関
連付けられるすべてのパラメータをキーボード経由で入
力することができる(図3に関して前に説明されている
ように)。通過ゾーン430を生成する時にも類似のプ
ロセスが行われる。
【0090】すべてのゾーンが生成されて構成された
後、そのパラメータは初期化時に本発明によってロード
されるパラメータ・ファイルとして記憶装置150(例
えば、ハード・ディスク・ドライブなど)にセーブして
おくことができる。監視される各ディスプレイ331に
対してこのコンフィギュレーション・プロセスを行うこ
とができる。
後、そのパラメータは初期化時に本発明によってロード
されるパラメータ・ファイルとして記憶装置150(例
えば、ハード・ディスク・ドライブなど)にセーブして
おくことができる。監視される各ディスプレイ331に
対してこのコンフィギュレーション・プロセスを行うこ
とができる。
【図1】 1つの実施形態における本発明のブロック図
である。
である。
【図2】 本発明によって実行される総合のステップを
示しているフローチャートである。
示しているフローチャートである。
【図3】 本発明に従って使われる可能性のあるデータ
構造を示している階層ツリーである。
構造を示している階層ツリーである。
【図4】 本発明によって処理される可能性のあるカメ
ラの画像の簡略化されたバージョンである。
ラの画像の簡略化されたバージョンである。
【図5】 覗き込みゾーンの処理を行うために、本発明
によって実行される可能性のある、総合のステップを示
しているフローチャートである。
によって実行される可能性のある、総合のステップを示
しているフローチャートである。
【図6】 通過ゾーンの処理を実装するために、本発明
によって実行される可能性のある、総合のステップを示
しているフローチャートである。
によって実行される可能性のある、総合のステップを示
しているフローチャートである。
【図7】 オブジェクトのフィルタリングを実装するた
めに、本発明によって実行される可能性のある、総合の
ステップを示しているフローチャートである。
めに、本発明によって実行される可能性のある、総合の
ステップを示しているフローチャートである。
【図8】 1つのオブジェクトが通過ゾーンを通ったか
どうかを知るために、本発明によって実行される可能性
のある、総合のステップを示しているフローチャートで
ある。
どうかを知るために、本発明によって実行される可能性
のある、総合のステップを示しているフローチャートで
ある。
【図9】 バックグラウンドの更新を実装するために、
本発明によって実行される可能性のある、総合のステッ
プを示しているフローチャートである。
本発明によって実行される可能性のある、総合のステッ
プを示しているフローチャートである。
【図10】 オブジェクトのマッチングを実装するため
に、本発明によって実行される可能性のあるステップを
示しているフローチャートである。
に、本発明によって実行される可能性のあるステップを
示しているフローチャートである。
フロントページの続き (72)発明者 メディ コスラヴィ アメリカ合衆国 ジョージア州 30075 ロスウェル、リンドハースト ウェイ 1105 (72)発明者 ラルフ ニュートン クラブトリー アメリカ合衆国 ジョージア州 30345 アトランタ、ブラック フォックス ドラ イブ 2090
Claims (2)
- 【請求項1】 局所化されたエリアの中での人間の動き
のパターンを解析するための方法であって、 前記の局所化されたエリアを見るためにビデオ・カメラ
(110)を設置するステップと、 選択された時間間隔で前記ビデオ・カメラから順次画像
を捕捉するステップと、 メモリ(135)の中に前記順次画像を格納するステッ
プと、 前記格納された順次画像の内部に人が存在するかどうか
を検出するステップと、 前記格納された画像の中に人が検出された時間をセンス
するステップと、 前記センスされた時間が所定のしきい値に到達した時に
所定の動作を生成するステップとを含むことを特徴とす
る人間の動きのパターンを解析する方法。 - 【請求項2】 人間の動きのパターンを解析するための
システムであって、 ビデオ・カメラ(110)と、 前記ビデオ・カメラからの画像を記憶するための手段
(135)と、 前記ビデオ・カメラに結合されている処理手段(14
0)とを含み、 前記記憶手段が、 選択された時間間隔で前記記憶手段の中に前記ビデオ・
カメラからの画像を順次格納し、 前記格納手段の中に格納されている前記順次画像の中に
人が存在するかどうかを検出し、 前記記憶手段の中に記憶されている前記順次画像の中に
人が存在するとして検出された時間の量をセンスし、 前記センスされた時間が所定のしきい値に達した時に、
所定の動作を生成するように構成されていることを特徴
とする人間の動きのパターンを解析するシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US69436596A | 1996-08-08 | 1996-08-08 | |
US08/694,365 | 1996-08-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH1097633A true JPH1097633A (ja) | 1998-04-14 |
Family
ID=24788524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9204994A Pending JPH1097633A (ja) | 1996-08-08 | 1997-07-30 | 人間の動きのパターンを解析する方法及びシステム |
Country Status (3)
Country | Link |
---|---|
US (2) | US5953055A (ja) |
EP (1) | EP0823821A3 (ja) |
JP (1) | JPH1097633A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008519567A (ja) * | 2004-11-02 | 2008-06-05 | センサーマティック・エレクトロニクス・コーポレーション | 行列監視のためのシステム及び方法 |
CN102695612A (zh) * | 2009-11-25 | 2012-09-26 | 松下电器产业株式会社 | 层叠板、其用途及其制造方法 |
Families Citing this family (173)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5953055A (en) * | 1996-08-08 | 1999-09-14 | Ncr Corporation | System and method for detecting and analyzing a queue |
US6548967B1 (en) * | 1997-08-26 | 2003-04-15 | Color Kinetics, Inc. | Universal lighting network methods and systems |
US6061088A (en) * | 1998-01-20 | 2000-05-09 | Ncr Corporation | System and method for multi-resolution background adaptation |
JP2003523647A (ja) * | 1999-03-16 | 2003-08-05 | セントラル リサーチ ラボラトリーズ リミティド | 閉回路テレビジョン(cctv)カメラおよびシステム |
US7124427B1 (en) * | 1999-04-30 | 2006-10-17 | Touch Technologies, Inc. | Method and apparatus for surveillance using an image server |
DE19962201A1 (de) * | 1999-09-06 | 2001-03-15 | Holger Lausch | Verfahren und Anordnung zur Erfassung und Analyse des Rezeptionsverhaltens von Personen |
US6844895B1 (en) | 1999-11-15 | 2005-01-18 | Logitech Europe S.A. | Wireless intelligent host imaging, audio and data receiver |
US6726094B1 (en) * | 2000-01-19 | 2004-04-27 | Ncr Corporation | Method and apparatus for multiple format image capture for use in retail transactions |
US6581067B1 (en) | 2000-09-12 | 2003-06-17 | Uniprise, Inc. | Method and system for providing administrative support |
US7319479B1 (en) | 2000-09-22 | 2008-01-15 | Brickstream Corporation | System and method for multi-camera linking and analysis |
US20080033595A1 (en) * | 2000-11-16 | 2008-02-07 | Packes John M Jr | Method of outputting offers at a vending machine field |
US7200246B2 (en) * | 2000-11-17 | 2007-04-03 | Honeywell International Inc. | Object detection |
US6711279B1 (en) * | 2000-11-17 | 2004-03-23 | Honeywell International Inc. | Object detection |
NZ508429A (en) * | 2000-11-24 | 2003-05-30 | Compudigm Int Ltd | Queue management using a data visualisation system |
US7176440B2 (en) * | 2001-01-19 | 2007-02-13 | Honeywell International Inc. | Method and apparatus for detecting objects using structured light patterns |
US6841780B2 (en) * | 2001-01-19 | 2005-01-11 | Honeywell International Inc. | Method and apparatus for detecting objects |
GB0101794D0 (en) * | 2001-01-24 | 2001-03-07 | Central Research Lab Ltd | Monitoring responses to visual stimuli |
US7768549B2 (en) * | 2001-06-08 | 2010-08-03 | Honeywell International Inc. | Machine safety system with mutual exclusion zone |
EP1410621A1 (en) * | 2001-06-28 | 2004-04-21 | Omnivee Inc. | Method and apparatus for control and processing of video images |
US7167576B2 (en) * | 2001-07-02 | 2007-01-23 | Point Grey Research | Method and apparatus for measuring dwell time of objects in an environment |
US20030041330A1 (en) * | 2001-08-24 | 2003-02-27 | Tokheim Corporation | Security camera in dispenser |
AU2002336445B2 (en) | 2001-09-07 | 2007-11-01 | Intergraph Software Technologies Company | Image stabilization using color matching |
US20030105685A1 (en) * | 2001-12-03 | 2003-06-05 | Ncr Corporation | System and method for adjusting transactiion length in an automated service device |
US7688349B2 (en) * | 2001-12-07 | 2010-03-30 | International Business Machines Corporation | Method of detecting and tracking groups of people |
US7038619B2 (en) * | 2001-12-31 | 2006-05-02 | Rdp Associates, Incorporated | Satellite positioning system enabled media measurement system and method |
JP3707546B2 (ja) * | 2002-01-29 | 2005-10-19 | 日本電気株式会社 | 通信システム、通信端末、サーバ、及びデータ転送制御プログラム |
WO2004042513A2 (en) * | 2002-10-30 | 2004-05-21 | Premier Wireless, Inc. | Queuing management and vessel recognition |
US20040196369A1 (en) * | 2003-03-07 | 2004-10-07 | Canon Kabushiki Kaisha | Monitoring system |
US7203360B2 (en) * | 2003-04-09 | 2007-04-10 | Lee Shih-Jong J | Learnable object segmentation |
US7171024B2 (en) * | 2003-12-01 | 2007-01-30 | Brickstream Corporation | Systems and methods for determining if objects are in a queue |
US7664292B2 (en) * | 2003-12-03 | 2010-02-16 | Safehouse International, Inc. | Monitoring an output from a camera |
US7631808B2 (en) * | 2004-06-21 | 2009-12-15 | Stoplift, Inc. | Method and apparatus for detecting suspicious activity using video analysis |
KR20070083530A (ko) * | 2004-07-30 | 2007-08-24 | 닐슨 미디어 리서치 인코퍼레이티드 | 전자 매체 노출 측정 시스템의 정확성 및 범위를향상시키기 위한 방법 및 장치 |
DE102004040057A1 (de) | 2004-08-18 | 2006-03-09 | Rauch, Jürgen, Dr.-Ing. | Verkehrsleitsystem |
US7692684B2 (en) | 2004-09-27 | 2010-04-06 | Point Grey Research Inc. | People counting systems and methods |
EP1648181A1 (en) * | 2004-10-12 | 2006-04-19 | Dialog Semiconductor GmbH | A multiple frame grabber |
US20060095317A1 (en) * | 2004-11-03 | 2006-05-04 | Target Brands, Inc. | System and method for monitoring retail store performance |
GB2431717A (en) * | 2005-10-31 | 2007-05-02 | Sony Uk Ltd | Scene analysis |
US20070115355A1 (en) * | 2005-11-18 | 2007-05-24 | Mccormack Kenneth | Methods and apparatus for operating a pan tilt zoom camera |
US20070223680A1 (en) * | 2006-03-22 | 2007-09-27 | Jeffrey Schox | System to Regulate Aspects of an Environment with a Limited Number of Service Stations |
EP2008458A4 (en) * | 2006-04-18 | 2009-05-06 | Sorensen Associates Inc | SYSTEM AND METHOD FOR ANALYZING A QUEUE WITH FIXED IMAGES |
GB0616646D0 (en) * | 2006-08-22 | 2006-10-04 | Infrared Integrated Syst Ltd | Queuing system |
DE102006044298B3 (de) * | 2006-09-20 | 2008-01-31 | Siemens Ag | Verfahren zur Überwachung von Personenansammlungen |
DE102006000495A1 (de) * | 2006-09-28 | 2008-04-03 | Vis-à-pix GmbH | System und Verfahren zum automatisierten bildbasierten Anlagenmanagement |
JP4318724B2 (ja) | 2007-02-14 | 2009-08-26 | パナソニック株式会社 | 監視カメラ及び監視カメラ制御方法 |
FR2914461A1 (fr) * | 2007-03-29 | 2008-10-03 | Dgm Technologies Sarl | Procede de determination du nombre d'objets presents dans une zone surfacique donnee par thermographie infrarouge |
US8204955B2 (en) | 2007-04-25 | 2012-06-19 | Miovision Technologies Incorporated | Method and system for analyzing multimedia content |
US8131010B2 (en) * | 2007-07-30 | 2012-03-06 | International Business Machines Corporation | High density queue estimation and line management |
WO2009017457A1 (en) * | 2007-08-02 | 2009-02-05 | Q-Matic Ab | A queue handling system for customers |
GB2452504A (en) * | 2007-09-05 | 2009-03-11 | Qm Group Ltd | Customer service system which senses the number of queuing customers |
JP5116513B2 (ja) * | 2008-03-10 | 2013-01-09 | キヤノン株式会社 | 画像表示装置及びその制御方法 |
US20090249342A1 (en) * | 2008-03-28 | 2009-10-01 | Alexander Steven Johnson | Systems and methods for transaction queue analysis |
US20090265215A1 (en) * | 2008-04-22 | 2009-10-22 | Paul Bernhard Lindstrom | Methods and apparatus to monitor audience exposure to media using duration-based data |
US8224028B1 (en) * | 2008-05-02 | 2012-07-17 | Verint Systems Ltd. | System and method for queue analysis using video analytics |
US8306568B2 (en) * | 2008-06-24 | 2012-11-06 | Q-Matic Ab | Solution for queue handling |
EP2230629A3 (en) | 2008-07-16 | 2012-11-21 | Verint Systems Inc. | A system and method for capturing, storing, analyzing and displaying data relating to the movements of objects |
US9299229B2 (en) * | 2008-10-31 | 2016-03-29 | Toshiba Global Commerce Solutions Holdings Corporation | Detecting primitive events at checkout |
CN101930632B (zh) * | 2009-06-24 | 2011-12-07 | 吴志成 | 作业流程影像存证系统及方法 |
US20110029333A1 (en) * | 2009-08-03 | 2011-02-03 | Shlomo Zytman | System and method for controlling and calculating time of service |
DE102009028604A1 (de) | 2009-08-18 | 2011-02-24 | Robert Bosch Gmbh | Vorrichtung zur Erkennung einer Objektschlange, Verfahren sowie Computerprogramm |
CN101673423B (zh) * | 2009-08-26 | 2011-07-20 | 深圳市飞瑞斯科技有限公司 | 借助视频分析的公交车人数统计系统 |
US8549552B2 (en) | 2009-11-03 | 2013-10-01 | The Nielsen Company (Us), Llc | Methods and apparatus to monitor media exposure in vehicles |
US8817094B1 (en) | 2010-02-25 | 2014-08-26 | Target Brands, Inc. | Video storage optimization |
LV14514B (lv) | 2010-10-06 | 2012-08-20 | Latvijas Universitāte | Iekārta un metode sirdsdarbības parametru optiskai bezkontakta kontrolei |
US20130030875A1 (en) * | 2011-07-29 | 2013-01-31 | Panasonic Corporation | System and method for site abnormality recording and notification |
CN102568072A (zh) * | 2011-11-14 | 2012-07-11 | 张健 | 排队取号提示方法及提示系统 |
US20130204656A1 (en) * | 2012-02-03 | 2013-08-08 | Weeels, Inc. | Method and Application for Batch-Based Queue Management System |
EP2677460B1 (de) * | 2012-06-20 | 2015-07-08 | Xovis AG | Verfahren zur Bestimmung der Länge einer Warteschlange |
US10839227B2 (en) | 2012-08-29 | 2020-11-17 | Conduent Business Services, Llc | Queue group leader identification |
US9641763B2 (en) | 2012-08-29 | 2017-05-02 | Conduent Business Services, Llc | System and method for object tracking and timing across multiple camera views |
US9600711B2 (en) | 2012-08-29 | 2017-03-21 | Conduent Business Services, Llc | Method and system for automatically recognizing facial expressions via algorithmic periocular localization |
CN102930618B (zh) * | 2012-10-15 | 2015-07-15 | 北京理工大学 | 一种基于测距原理的实时人数统计方法与系统 |
US9380222B2 (en) | 2012-12-04 | 2016-06-28 | Symbol Technologies, Llc | Transmission of images for inventory monitoring |
JP5314200B1 (ja) * | 2013-02-01 | 2013-10-16 | パナソニック株式会社 | 接客状況分析装置、接客状況分析システムおよび接客状況分析方法 |
US20140229224A1 (en) * | 2013-02-12 | 2014-08-14 | International Business Machines Corporation | Scheduling based on customer tracking |
US9443148B2 (en) | 2013-03-15 | 2016-09-13 | International Business Machines Corporation | Visual monitoring of queues using auxiliary devices |
US20140278655A1 (en) * | 2013-03-15 | 2014-09-18 | Shopper Scientist, Llc | Modeling shoppers' time in stores in relation to their purchases |
GB201306313D0 (en) | 2013-04-08 | 2013-05-22 | Vision Semantics Ltd | Queue analysis |
US9213900B2 (en) | 2013-06-06 | 2015-12-15 | Xerox Corporation | Automated vision-based clutter detector and notifier |
EP2849151A1 (de) | 2013-09-13 | 2015-03-18 | Xovis AG | Verfahren zur Analyse von freien Warteschlangen |
JP5683663B1 (ja) * | 2013-09-27 | 2015-03-11 | パナソニックIpマネジメント株式会社 | 滞留時間測定装置、滞留時間測定システムおよび滞留時間測定方法 |
EP3129962A1 (en) * | 2014-04-07 | 2017-02-15 | Cubic Corporation | Systems and methods for queue management |
EP3129932A1 (en) | 2014-04-07 | 2017-02-15 | Cubic Corporation | Intuitive visual assessment of device operational health |
CN103916641A (zh) * | 2014-04-22 | 2014-07-09 | 浙江宇视科技有限公司 | 一种队列长度计算方法以及装置 |
US9483838B2 (en) | 2014-04-24 | 2016-11-01 | Xerox Corporation | Method and system for automated sequencing of vehicles in side-by-side drive-thru configurations via appearance-based classification |
US9779331B2 (en) | 2014-04-24 | 2017-10-03 | Conduent Business Services, Llc | Method and system for partial occlusion handling in vehicle tracking using deformable parts model |
US9576371B2 (en) | 2014-04-25 | 2017-02-21 | Xerox Corporation | Busyness defection and notification method and system |
US9940633B2 (en) | 2014-04-25 | 2018-04-10 | Conduent Business Services, Llc | System and method for video-based detection of drive-arounds in a retail setting |
US10339544B2 (en) * | 2014-07-02 | 2019-07-02 | WaitTime, LLC | Techniques for automatic real-time calculation of user wait times |
US10074130B2 (en) | 2014-07-10 | 2018-09-11 | Bank Of America Corporation | Generating customer alerts based on indoor positioning system detection of physical customer presence |
US10108952B2 (en) | 2014-07-10 | 2018-10-23 | Bank Of America Corporation | Customer identification |
US10332050B2 (en) * | 2014-07-10 | 2019-06-25 | Bank Of America Corporation | Identifying personnel-staffing adjustments based on indoor positioning system detection of physical customer presence |
US9551588B2 (en) | 2014-08-29 | 2017-01-24 | The Nielsen Company, LLC | Methods and systems to determine consumer locations based on navigational voice cues |
CN107000981B (zh) * | 2014-11-26 | 2020-05-05 | 奥的斯电梯公司 | 基于乘客移动的电梯安全和控制系统 |
US9965684B2 (en) * | 2014-12-18 | 2018-05-08 | Sensormatic Electronics, LLC | Method and system for queue length analysis |
US10110858B2 (en) * | 2015-02-06 | 2018-10-23 | Conduent Business Services, Llc | Computer-vision based process recognition of activity workflow of human performer |
US10984355B2 (en) | 2015-04-17 | 2021-04-20 | Xerox Corporation | Employee task verification to video system |
EP3098785B1 (en) | 2015-05-29 | 2019-07-10 | CRTL4 Enviro, S.L. | System and method for controlling operating conditions of a means of transport |
CA2938539A1 (en) * | 2015-08-19 | 2017-02-19 | Wal-Mart Stores, Inc. | System for reducing waiting time |
US11354683B1 (en) | 2015-12-30 | 2022-06-07 | Videomining Corporation | Method and system for creating anonymous shopper panel using multi-modal sensor fusion |
US10460453B2 (en) * | 2015-12-30 | 2019-10-29 | Texas Instruments Incorporated | Feature point identification in sparse optical flow based tracking in a computer vision system |
US10713670B1 (en) * | 2015-12-31 | 2020-07-14 | Videomining Corporation | Method and system for finding correspondence between point-of-sale data and customer behavior data |
US10352689B2 (en) | 2016-01-28 | 2019-07-16 | Symbol Technologies, Llc | Methods and systems for high precision locationing with depth values |
US10262331B1 (en) | 2016-01-29 | 2019-04-16 | Videomining Corporation | Cross-channel in-store shopper behavior analysis |
US10963893B1 (en) | 2016-02-23 | 2021-03-30 | Videomining Corporation | Personalized decision tree based on in-store behavior analysis |
US10049462B2 (en) | 2016-03-23 | 2018-08-14 | Akcelita, LLC | System and method for tracking and annotating multiple objects in a 3D model |
US10387896B1 (en) | 2016-04-27 | 2019-08-20 | Videomining Corporation | At-shelf brand strength tracking and decision analytics |
US10354262B1 (en) | 2016-06-02 | 2019-07-16 | Videomining Corporation | Brand-switching analysis using longitudinal tracking of at-shelf shopper behavior |
US10769608B2 (en) * | 2016-09-15 | 2020-09-08 | International Business Machines Corporation | Intelligent checkout management system |
US11042161B2 (en) | 2016-11-16 | 2021-06-22 | Symbol Technologies, Llc | Navigation control method and apparatus in a mobile automation system |
US20180260864A1 (en) * | 2017-03-07 | 2018-09-13 | Facebook, Inc. | Merchant-facing Queue Interface |
US20180260849A1 (en) * | 2017-03-07 | 2018-09-13 | Facebook, Inc. | Multiple-Merchant Community |
DE112018002314T5 (de) | 2017-05-01 | 2020-01-23 | Symbol Technologies, Llc | Verfahren und vorrichtung zur erkennung eines objektstatus |
US10949798B2 (en) | 2017-05-01 | 2021-03-16 | Symbol Technologies, Llc | Multimodal localization and mapping for a mobile automation apparatus |
US10591918B2 (en) | 2017-05-01 | 2020-03-17 | Symbol Technologies, Llc | Fixed segmented lattice planning for a mobile automation apparatus |
US11093896B2 (en) | 2017-05-01 | 2021-08-17 | Symbol Technologies, Llc | Product status detection system |
US10726273B2 (en) | 2017-05-01 | 2020-07-28 | Symbol Technologies, Llc | Method and apparatus for shelf feature and object placement detection from shelf images |
US11367092B2 (en) | 2017-05-01 | 2022-06-21 | Symbol Technologies, Llc | Method and apparatus for extracting and processing price text from an image set |
US10505057B2 (en) | 2017-05-01 | 2019-12-10 | Symbol Technologies, Llc | Device and method for operating cameras and light sources wherein parasitic reflections from a paired light source are not reflected into the paired camera |
US11449059B2 (en) | 2017-05-01 | 2022-09-20 | Symbol Technologies, Llc | Obstacle detection for a mobile automation apparatus |
US10663590B2 (en) | 2017-05-01 | 2020-05-26 | Symbol Technologies, Llc | Device and method for merging lidar data |
WO2018201423A1 (en) | 2017-05-05 | 2018-11-08 | Symbol Technologies, Llc | Method and apparatus for detecting and interpreting price label text |
US10572763B2 (en) | 2017-09-07 | 2020-02-25 | Symbol Technologies, Llc | Method and apparatus for support surface edge detection |
US10521914B2 (en) | 2017-09-07 | 2019-12-31 | Symbol Technologies, Llc | Multi-sensor object recognition system and method |
US10509969B2 (en) * | 2017-09-12 | 2019-12-17 | Cisco Technology, Inc. | Dynamic person queue analytics |
US10809078B2 (en) | 2018-04-05 | 2020-10-20 | Symbol Technologies, Llc | Method, system and apparatus for dynamic path generation |
US10832436B2 (en) | 2018-04-05 | 2020-11-10 | Symbol Technologies, Llc | Method, system and apparatus for recovering label positions |
US10740911B2 (en) | 2018-04-05 | 2020-08-11 | Symbol Technologies, Llc | Method, system and apparatus for correcting translucency artifacts in data representing a support structure |
US11327504B2 (en) | 2018-04-05 | 2022-05-10 | Symbol Technologies, Llc | Method, system and apparatus for mobile automation apparatus localization |
US10823572B2 (en) | 2018-04-05 | 2020-11-03 | Symbol Technologies, Llc | Method, system and apparatus for generating navigational data |
JP7237467B2 (ja) * | 2018-05-30 | 2023-03-13 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US11506483B2 (en) | 2018-10-05 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for support structure depth determination |
US11010920B2 (en) | 2018-10-05 | 2021-05-18 | Zebra Technologies Corporation | Method, system and apparatus for object detection in point clouds |
CN111104818B (zh) * | 2018-10-25 | 2021-05-14 | 珠海格力电器股份有限公司 | 一种人脸识别方法及人脸识别设备 |
US11003188B2 (en) | 2018-11-13 | 2021-05-11 | Zebra Technologies Corporation | Method, system and apparatus for obstacle handling in navigational path generation |
US11090811B2 (en) | 2018-11-13 | 2021-08-17 | Zebra Technologies Corporation | Method and apparatus for labeling of support structures |
US11079240B2 (en) | 2018-12-07 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for adaptive particle filter localization |
US11416000B2 (en) | 2018-12-07 | 2022-08-16 | Zebra Technologies Corporation | Method and apparatus for navigational ray tracing |
US11100303B2 (en) | 2018-12-10 | 2021-08-24 | Zebra Technologies Corporation | Method, system and apparatus for auxiliary label detection and association |
US11015938B2 (en) | 2018-12-12 | 2021-05-25 | Zebra Technologies Corporation | Method, system and apparatus for navigational assistance |
US10731970B2 (en) | 2018-12-13 | 2020-08-04 | Zebra Technologies Corporation | Method, system and apparatus for support structure detection |
US11126861B1 (en) | 2018-12-14 | 2021-09-21 | Digimarc Corporation | Ambient inventorying arrangements |
CA3028708A1 (en) | 2018-12-28 | 2020-06-28 | Zih Corp. | Method, system and apparatus for dynamic loop closure in mapping trajectories |
CN109840982B (zh) * | 2019-01-02 | 2020-07-14 | 京东方科技集团股份有限公司 | 排队推荐方法及装置、计算机可读存储介质 |
US10943204B2 (en) * | 2019-01-16 | 2021-03-09 | International Business Machines Corporation | Realtime video monitoring applied to reduce customer wait times |
CN109815936B (zh) * | 2019-02-21 | 2023-08-22 | 深圳市商汤科技有限公司 | 一种目标对象分析方法及装置、计算机设备和存储介质 |
US11662739B2 (en) | 2019-06-03 | 2023-05-30 | Zebra Technologies Corporation | Method, system and apparatus for adaptive ceiling-based localization |
US11402846B2 (en) | 2019-06-03 | 2022-08-02 | Zebra Technologies Corporation | Method, system and apparatus for mitigating data capture light leakage |
US11960286B2 (en) | 2019-06-03 | 2024-04-16 | Zebra Technologies Corporation | Method, system and apparatus for dynamic task sequencing |
US11151743B2 (en) | 2019-06-03 | 2021-10-19 | Zebra Technologies Corporation | Method, system and apparatus for end of aisle detection |
US11341663B2 (en) | 2019-06-03 | 2022-05-24 | Zebra Technologies Corporation | Method, system and apparatus for detecting support structure obstructions |
US11200677B2 (en) | 2019-06-03 | 2021-12-14 | Zebra Technologies Corporation | Method, system and apparatus for shelf edge detection |
US11080566B2 (en) | 2019-06-03 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for gap detection in support structures with peg regions |
CN110516874A (zh) * | 2019-08-28 | 2019-11-29 | 中国银行股份有限公司 | 信息处理方法、装置及系统 |
CN110619701A (zh) * | 2019-09-19 | 2019-12-27 | 中国银行股份有限公司 | 排队渠道推荐方法及装置、存储介质及电子设备 |
US11354909B2 (en) | 2019-09-26 | 2022-06-07 | International Business Machines Corporation | Adaptive queue management system |
CN110674778B (zh) * | 2019-09-30 | 2023-05-16 | 安徽创世科技股份有限公司 | 一种高分辨视频图像目标检测方法及装置 |
US11507103B2 (en) | 2019-12-04 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for localization-based historical obstacle handling |
CN111127847A (zh) * | 2019-12-12 | 2020-05-08 | 皖南医学院 | 一种基于人脸识别的防插队系统及方法 |
US11107238B2 (en) | 2019-12-13 | 2021-08-31 | Zebra Technologies Corporation | Method, system and apparatus for detecting item facings |
US11144899B2 (en) * | 2020-01-30 | 2021-10-12 | Ncr Corporation | Terminal access and load management |
US11822333B2 (en) | 2020-03-30 | 2023-11-21 | Zebra Technologies Corporation | Method, system and apparatus for data capture illumination control |
CN111667530B (zh) * | 2020-06-24 | 2024-06-04 | 京东方科技集团股份有限公司 | 确定货架展位状态的方法和装置、货架 |
US11450024B2 (en) | 2020-07-17 | 2022-09-20 | Zebra Technologies Corporation | Mixed depth object detection |
US11593915B2 (en) | 2020-10-21 | 2023-02-28 | Zebra Technologies Corporation | Parallax-tolerant panoramic image generation |
US11392891B2 (en) | 2020-11-03 | 2022-07-19 | Zebra Technologies Corporation | Item placement detection and optimization in material handling systems |
US11847832B2 (en) | 2020-11-11 | 2023-12-19 | Zebra Technologies Corporation | Object classification for autonomous navigation systems |
US11594059B2 (en) | 2021-03-15 | 2023-02-28 | International Business Machines Corporation | Identifying last person in queue |
WO2022235637A1 (en) * | 2021-05-04 | 2022-11-10 | Trax Technology Solutions Pte Ltd. | Methods and systems for retail environments |
CN113420612B (zh) * | 2021-06-02 | 2022-03-18 | 深圳中集智能科技有限公司 | 基于机器视觉的生产节拍计算方法 |
US11954882B2 (en) | 2021-06-17 | 2024-04-09 | Zebra Technologies Corporation | Feature-based georegistration for mobile computing devices |
CN113469157B (zh) * | 2021-09-06 | 2021-12-17 | 深圳启程智远网络科技有限公司 | 一种基于大数据的学生出勤管理系统及方法 |
CN114697620B (zh) * | 2022-06-01 | 2022-08-23 | 深圳市喂车科技有限公司 | 一种基于视频监控的加油站服务效率智能分析系统 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA1116286A (en) * | 1979-02-20 | 1982-01-12 | Control Data Canada, Ltd. | Perimeter surveillance system |
US4337482A (en) * | 1979-10-17 | 1982-06-29 | Coutta John M | Surveillance system |
US4630110A (en) * | 1984-02-15 | 1986-12-16 | Supervision Control Systems, Inc. | Surveillance system |
JPS61260391A (ja) * | 1985-05-14 | 1986-11-18 | 三菱電機株式会社 | 監視制御装置 |
GB2183878B (en) * | 1985-10-11 | 1989-09-20 | Matsushita Electric Works Ltd | Abnormality supervising system |
FI74556C (fi) * | 1986-04-11 | 1988-02-08 | Valtion Teknillinen | Foerfarande foer tredimensionell oevervakning av ett maolutrymme. |
JPH0695008B2 (ja) * | 1987-12-11 | 1994-11-24 | 株式会社東芝 | 監視装置 |
JP2633694B2 (ja) * | 1989-08-25 | 1997-07-23 | フジテック 株式会社 | 人数検出装置 |
KR100204101B1 (ko) * | 1990-03-02 | 1999-06-15 | 가나이 쓰도무 | 화상처리장치 |
US5097328A (en) * | 1990-10-16 | 1992-03-17 | Boyette Robert B | Apparatus and a method for sensing events from a remote location |
JP2688684B2 (ja) * | 1990-11-09 | 1997-12-10 | 株式会社エース電研 | 遊技場における監視装置 |
US5243418A (en) * | 1990-11-27 | 1993-09-07 | Kabushiki Kaisha Toshiba | Display monitoring system for detecting and tracking an intruder in a monitor area |
US5296852A (en) * | 1991-02-27 | 1994-03-22 | Rathi Rajendra P | Method and apparatus for monitoring traffic flow |
DE69232732T2 (de) * | 1991-03-19 | 2009-09-10 | Mitsubishi Denki K.K. | Messeinrichtung für sich bewegende Körper und Bildverarbeitungsanordnung zum Messen des Verkehrsflusses |
US5408330A (en) * | 1991-03-25 | 1995-04-18 | Crimtec Corporation | Video incident capture system |
KR920022001A (ko) * | 1991-05-27 | 1992-12-19 | 프레데릭 얀 스미트 | 교통 정보 수집 방법 및 이 방법을 수행하기 위한 시스템 |
US5509082A (en) * | 1991-05-30 | 1996-04-16 | Matsushita Electric Industrial Co., Ltd. | Vehicle movement measuring apparatus |
US5581297A (en) * | 1992-07-24 | 1996-12-03 | Intelligent Instruments Corporation | Low power video security monitoring system |
JPH06153202A (ja) * | 1992-10-29 | 1994-05-31 | F M T:Kk | 異常監視装置 |
US5402167A (en) * | 1993-05-13 | 1995-03-28 | Cornell Research Foundation, Inc. | Protective surveillance system |
JPH08510373A (ja) * | 1993-05-14 | 1996-10-29 | アールシーティー・システムズ・インコーポレーテッド | 商店等におけるビデオ通行モニタ装置 |
US5880775A (en) * | 1993-08-16 | 1999-03-09 | Videofaxx, Inc. | Method and apparatus for detecting changes in a video display |
US5581625A (en) * | 1994-01-31 | 1996-12-03 | International Business Machines Corporation | Stereo vision system for counting items in a queue |
JP3123587B2 (ja) * | 1994-03-09 | 2001-01-15 | 日本電信電話株式会社 | 背景差分による動物体領域抽出方法 |
DE4417128A1 (de) * | 1994-05-16 | 1995-12-14 | Elnic Gmbh | Bilderfassungs- und -verarbeitungsverfahren insbesondere zur Steuerung von Vorrichtungen sowie zugehöriges Bilderfassungs- und -verarbeitungssystem |
US5526041A (en) * | 1994-09-07 | 1996-06-11 | Sensormatic Electronics Corporation | Rail-based closed circuit T.V. surveillance system with automatic target acquisition |
US5666157A (en) * | 1995-01-03 | 1997-09-09 | Arc Incorporated | Abnormality detection and surveillance system |
US5953055A (en) * | 1996-08-08 | 1999-09-14 | Ncr Corporation | System and method for detecting and analyzing a queue |
-
1997
- 1997-03-04 US US08/811,326 patent/US5953055A/en not_active Expired - Fee Related
- 1997-07-10 EP EP97305096A patent/EP0823821A3/en not_active Withdrawn
- 1997-07-30 JP JP9204994A patent/JPH1097633A/ja active Pending
-
1999
- 1999-05-27 US US09/313,750 patent/US6195121B1/en not_active Expired - Lifetime
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008519567A (ja) * | 2004-11-02 | 2008-06-05 | センサーマティック・エレクトロニクス・コーポレーション | 行列監視のためのシステム及び方法 |
JP4734339B2 (ja) * | 2004-11-02 | 2011-07-27 | センサーマティック・エレクトロニクス・コーポレーション | 行列監視のためのシステム及び方法 |
CN102695612A (zh) * | 2009-11-25 | 2012-09-26 | 松下电器产业株式会社 | 层叠板、其用途及其制造方法 |
Also Published As
Publication number | Publication date |
---|---|
EP0823821A3 (en) | 1999-12-01 |
EP0823821A2 (en) | 1998-02-11 |
US6195121B1 (en) | 2001-02-27 |
US5953055A (en) | 1999-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH1097633A (ja) | 人間の動きのパターンを解析する方法及びシステム | |
US11676387B2 (en) | Method and apparatus for detecting suspicious activity using video analysis | |
JP6854881B2 (ja) | 顔画像照合システムおよび顔画像検索システム | |
JP5834254B2 (ja) | 人数計測装置、人数計測システムおよび人数計測方法 | |
US6236736B1 (en) | Method and apparatus for detecting movement patterns at a self-service checkout terminal | |
JP4702877B2 (ja) | 表示装置 | |
US9124778B1 (en) | Apparatuses and methods for disparity-based tracking and analysis of objects in a region of interest | |
US8104680B2 (en) | Method and apparatus for auditing transaction activity in retail and other environments using visual recognition | |
CA2229916C (en) | Object tracking system for monitoring a controlled space | |
US8224026B2 (en) | System and method for counting people near external windowed doors | |
KR20080021804A (ko) | 오버헤드 비디오 스트림에 의한 목표물 탐지 및 추적 | |
JP2011253344A (ja) | 購買行動分析装置、購買行動分析方法、およびプログラム | |
JP2009048430A (ja) | 顧客動作分析装置、顧客動作判定システム、及び顧客購買行動分析システム | |
WO2006105376A2 (en) | Method and apparatus for detecting suspicious activity using video analysis | |
JP2008047110A (ja) | 動き検出を使用したプロセスセグメンテーションのシステムおよび方法 | |
US20190318491A1 (en) | System and method for gathering data related to quality service in a customer service environment | |
JP4473676B2 (ja) | フェイスアップ度評価システム及び評価プログラム | |
RU2756780C1 (ru) | Система и способ формирования отчетов на основании анализа местоположения и взаимодействия сотрудников и посетителей | |
EP2131306A1 (en) | Device and method for tracking objects in a video, system and method for audience measurement | |
Tsuchikawa et al. | A moving-object extraction method robust against illumination level changes for a pedestrian counting system | |
US10891491B2 (en) | In-store monitoring device, in-store monitoring method, and recording medium | |
CN111414799A (zh) | 同行用户确定方法、装置、电子设备及计算机可读介质 | |
Gong et al. | Scene Events Recognition Without Tracking | |
US20240046699A1 (en) | Method, apparatus and system for customer group analysis, and storage medium | |
Rajeev et al. | Tracking people motion based on Lloyd’s clustering algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |