JP5054670B2 - Method and apparatus for detecting suspicious behavior using video analysis - Google Patents

Method and apparatus for detecting suspicious behavior using video analysis Download PDF

Info

Publication number
JP5054670B2
JP5054670B2 JP2008504413A JP2008504413A JP5054670B2 JP 5054670 B2 JP5054670 B2 JP 5054670B2 JP 2008504413 A JP2008504413 A JP 2008504413A JP 2008504413 A JP2008504413 A JP 2008504413A JP 5054670 B2 JP5054670 B2 JP 5054670B2
Authority
JP
Japan
Prior art keywords
transaction
item
video
area
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008504413A
Other languages
Japanese (ja)
Other versions
JP2008538030A (en
Inventor
クンドゥ、マレー
スリニバサン、ヴィクラム
ミグダル、ジョシュア
チェン、シャオウェイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stoplift Inc
Original Assignee
Stoplift Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stoplift Inc filed Critical Stoplift Inc
Publication of JP2008538030A publication Critical patent/JP2008538030A/en
Application granted granted Critical
Publication of JP5054670B2 publication Critical patent/JP5054670B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F19/00Complete banking systems; Coded card-freed arrangements adapted for dispensing or receiving monies or the like and posting such transactions to existing accounts, e.g. automatic teller machines
    • G07F19/20Automatic teller machines [ATMs]
    • G07F19/207Surveillance aspects at ATMs
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G3/00Alarm indicators, e.g. bells
    • G07G3/003Anti-theft control
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19604Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、ビデオ分析を使用して不審挙動を検出する方法及び装置に関する。   The present invention relates to a method and apparatus for detecting suspicious behavior using video analysis.

小売店は普通、販売時点情報管理端末(point of sale)またはキャッシュレジスタと呼ばれることが多い他のトランザクション端末を利用してこれらの小売店の顧客によるアイテムの購入を可能にしている。例えば、従来の百貨店、スーパーマーケット、または他の小売店では、顧客は購入アイテムを店内を歩き回って集め、そしてこれらのアイテムをショッピングカート、バスケットに収納し、または単にこれらのアイテムを販売時点情報管理端末の所まで運んで、トランザクションに含まれるこれらのアイテムを購入する。販売時点情報管理端末にはレジ係のようなオペレータを配置することができ、レジ係は、小売店が採用して顧客を支援してトランザクションを完了させるための担当者である。或る場合においては、小売店は、顧客がオペレータとなる構成のセルフ方式の販売時点情報管理端末を導入している。いずれの場合においても、オペレータは通常、購入アイテムを勘定台、コンベヤベルト、または他のアイテム搬入エリアに載置する。販売時点情報管理端末は、レーザスキャナまたは光学スキャナのようなスキャニング機器を含み、スキャナは、顧客が購入を希望する各アイテムに貼り付けられた標準製品コード(Uniform Product Code:UPC)ラベルまたはバーコードを識別するように動作する。レーザスキャナは普通、POS端末の一部分であるコンピュータに接続される周辺機器である。アイテムをスキャンするために、オペレータは各アイテムを一つずつアイテム搬入エリアから拾い上げ、そして当該アイテムを、勘定台またはチェックアウトエリアに組み込まれたガラス窓のようなスキャニングエリアの上を通過させて、レーザスキャナによるUPCコードの検出を可能にする。一旦、販売時点情報管理コンピュータがUPCコードの検出を可能にする。一旦、販売時点情報管理コンピュータがアイテム上のUPCコードを識別すると、コンピュータはデータベースをルックアップして、スキャン済みアイテムの価格及び識別情報を求めることができる。別の構成として、オペレータがアイテムをスキャンすることができるそれぞれの場合において、オペレータは同じようにして、UPCコードまたは製品識別コードを端末に手動で、またはRFIDリーダのような製品自動識別装置を通して入力することができる。「スキャン(scan)」という用語は通常、トランザクションアイテムをトランザクション端末に入力する全ての手段を含むものとして定義される。同様に、「スキャナ(scanner)」という用語は通常、トランザクション情報を記録する自動及び/又は手動の全てのトランザクション端末として定義される。   Retail stores typically use other transaction terminals, often referred to as point-of-sale terminals or cash registers, to enable the purchase of items by customers at these retail stores. For example, in traditional department stores, supermarkets, or other retail stores, customers walk around the store to collect purchased items and store these items in shopping carts, baskets, or simply point these items at the point-of-sale terminal. To the point of purchase and purchase these items included in the transaction. An operator such as a cashier can be arranged at the point-of-sale information management terminal, and the cashier is a person who is employed by the retail store to assist the customer and complete the transaction. In some cases, the retail store has introduced a self-sale point-of-sale information management terminal in which the customer is an operator. In either case, the operator typically places the purchased item on a bill of accounts, conveyor belt, or other item loading area. The point-of-sale information management terminal includes a scanning device such as a laser scanner or an optical scanner, and the scanner is a standard product code (UPC) label or bar code attached to each item that the customer desires to purchase. Works to identify. A laser scanner is typically a peripheral device connected to a computer that is part of a POS terminal. To scan the items, the operator picks each item one by one from the item carry-in area and passes the item over a scanning area such as a glass window built into a billboard or checkout area, The UPC code can be detected by the laser scanner. Once the point-of-sale information management computer enables the UPC code to be detected. Once the point-of-sale management computer identifies the UPC code on the item, the computer can look up the database to determine the price and identification information for the scanned item. Alternatively, in each case where the operator can scan the item, the operator can similarly enter the UPC code or product identification code into the terminal manually or through an automatic product identification device such as an RFID reader. can do. The term “scan” is usually defined to include all means of entering transaction items into a transaction terminal. Similarly, the term “scanner” is usually defined as all automatic and / or manual transaction terminals that record transaction information.

オペレータは各購入アイテムを一つずつスキャンする、または入力するので、販売時点情報管理端末はトランザクションに含まれるアイテムの全てに関する蓄積合計購入価格を維持する。オペレータが無事にスキャンまたは入力した各アイテムに関して、販売時点情報管理端末は通常、ビープノイズ音またはビープ音を鳴動させて、オペレータにアイテムが販売時点情報管理端末によってスキャンされたことを通知し、そしてそれに応答する形で、オペレータはアイテムを、下流のコンベヤベルト、または他のエリアのようなアイテム搬出エリアに載置して、顧客がアイテムを引き取ることができる、またはアイテムをショッピングバッグに詰め込むことができるようにする。一旦、トランザクションに含まれる全てのアイテムがこのようにしてスキャンされると、オペレータは販売時点情報管理端末に、スキャンプロセスが完了したことを通知し、そして販売時点情報管理端末は合計購入価格を顧客に対して表示するので、顧客は小売店に対して当該トランザクションで購入したアイテムに関する支払いを行なう。   Since the operator scans or inputs each purchased item one by one, the point-of-sale information management terminal maintains the accumulated total purchase price for all of the items included in the transaction. For each item that the operator has successfully scanned or entered, the point-of-sale terminal typically sounds a beep or beep to notify the operator that the item has been scanned by the point-of-sale terminal, and In response, the operator can place the item on an item unloading area, such as a downstream conveyor belt, or other area, where the customer can pick up the item or pack the item into a shopping bag. Like that. Once all items included in the transaction have been scanned in this way, the operator informs the point-of-sale terminal that the scanning process is complete, and the point-of-sale terminal manages the total purchase price. The customer pays for the item purchased in the transaction to the retail store.

アイテムの購入をスキャナを使用して、またはコードによる他のアイテム自動識別手段を使用して可能にする従来のシステムは種々の不具合を持つ。詳細には、このようなシステムの動作は、オペレータによって意図的に、またはオペレータが無意識のうちに、顧客が一つ以上のアイテムを代金を支払うことなく所持することができるような形で損なわれることがあり得る。詳細には、このようなシステムは、オペレータが意図的に、または何かの拍子に、アイテムがトランザクションエリアを移動して通過するときにアイテムをスキャンしないような「なれあい取引(sweethearting)」としても知られる「すり抜け(pass−throughs)」の不具合を起こし易い。このような場合においては、POSシステムは、スキャンされないアイテムを全く検出することができないので、アイテムは決して購入価格に合算されることがない。このような場合においては、顧客は効果的にアイテムを無償で手に入れる。小売店チェーンは、オペレータエラーまたはこの種類の不正挙動によって年に何百万ドルもの損失を計上する。   Conventional systems that allow the purchase of items using a scanner or other automatic item identification means by code have various drawbacks. In particular, the operation of such a system is compromised in such a way that a customer can possess one or more items without payment, either intentionally or unintentionally by the operator. It can happen. In particular, such a system can also be used as “sweating” where the operator does not scan the item as it moves through the transaction area, either intentionally or at any time. It is easy to cause the known “pass-throughs”. In such cases, the POS system cannot detect any items that are not scanned, so the items are never added to the purchase price. In such cases, the customer effectively obtains the item free of charge. Retail store chains can cost millions of dollars a year due to operator error or this type of fraud.

不正が起こらない例では、オペレータは無意識のうちにトランザクション中にアイテムをスキャニングエリアを通過させ、そしてアイテムを、下流のコンベヤベルトのようなアイテム搬出エリアに載置するが、アイテムのスキャンは行なわれなかった。多分、オペレータは注意を払っておらず、そしてスキャナがアイテムのスキャン中に鳴動しなかったことに気付かなかった(または、気に留めていなかった)と考えられる。   In an example where fraud does not occur, the operator unknowingly passes the item through the scanning area during the transaction and places the item in an item delivery area, such as a downstream conveyor belt, but the item is scanned. There wasn't. Perhaps the operator is not paying attention and has not noticed (or did not care) that the scanner did not ring during the scan of the item.

小売店における不正を象徴する「なれあい取引」の例として、個人的にオペレータと顔なじみの顧客(例えば、オペレータの友人または共謀者)の手助けをすることができるオペレータは意図的に、例えばUPCラベルをオペレータの手で覆うことにより、またはUPCコードをスキャナのスキャン範囲の外に移動させることにより、オペレータがアイテムをトランザクションエリアを通過するように移動させて、POSシステムにアイテムをスキャンさせないようにする。このような状況においては、アイテムは、スキャンされた、または同じようにしてスキャンされなかった他のアイテムに紛れ込み、そして顧客またはオペレータは何事も起きなかったように振る舞い続ける。多くの場合は低価格アイテムに対して行なわれて誰の目にもトランザクションが合法的に見える実際のスキャニングにより、またはスキャンされないアイテムが、スキャンされて現われるアイテムと一緒のグループになる状況に見られる「なれあい取引」により、オペレータがトランザクションに含まれる全てのアイテムを処理した後、顧客はオペレータに対して、全てのスキャン済み、かつ入力済みアイテムの総額のみを表わす購入価格の支払いをする。支払いを行なった後、顧客は、スキャン済み/入力済みの、更にスキャンされていない全てのアイテムを店から持ち出し、スキャンされた、または入力されたアイテムに対してしか支払い済ませていない。   As an example of a “relationship transaction” symbolizing fraud in a retail store, an operator who can personally help a customer familiar with the operator (eg, an operator friend or conspirator) deliberately uses, for example, a UPC label. By covering with the operator's hand or moving the UPC code out of the scanning range of the scanner, the operator moves the item past the transaction area and prevents the POS system from scanning the item. In such a situation, the item blends into other items that have been scanned or not scanned in the same way, and the customer or operator continues to behave as if nothing happened. Often found on low-priced items, due to actual scanning where transactions are legitimately visible to anyone, or in situations where unscanned items are grouped with items that appear scanned With “Nature Trading”, after the operator has processed all items included in the transaction, the customer pays the operator a purchase price that represents only the total amount of all scanned and entered items. After making a payment, the customer takes all scanned / entered and unscanned items from the store and pays only for the scanned or entered items.

「ラベル取り替え」として知られる別の不正な例では、オペレータはPOSシステムに、トランザクション中にトランザクションエリアを通過しているアイテムとは異なるアイテムをスキャンさせる。このような場合においては、顧客またはオペレータは、多くの場合は高価な元のアイテムのUPCラベルを、別の低価格のUPCラベルと取り替える。このような場合においては、スキャンは行なわれるが、間違ったアイテムがPOSシステムによって識別される。このようにして、システムはアイテムに関して、顧客が受け取るアイテムの価値よりもずっと低い価格をスキャンすることになる。   In another fraudulent example known as “label replacement”, the operator causes the POS system to scan an item that is different from the item that is passing through the transaction area during the transaction. In such cases, the customer or operator replaces the UPC label of the original item, often expensive, with another low-cost UPC label. In such cases, a scan is performed, but the wrong item is identified by the POS system. In this way, the system will scan the item for a price that is much lower than the value of the item received by the customer.

セキュリティシステム設計者は、POS端末を使用する際の不正なオペレータエラー、または突発的なオペレータエラーを検出する従来技術を開発しようと試みてきた。「すり抜け」及び「なれあい取引」を検出する分野における従来システムは、異常に長い「スキャンギャップ(scan−gaps)」の検出を可能にする。「スキャンギャップ」は、販売時点情報管理端末での連続するスキャンの間の時間の長さである。アイテムを、アイテムに対してスキャンを行なうことなく通過させると、スキャンギャップは次のスキャンが行われるまでに長くなる。スキャンギャップを、所定の従業員オペレータに関するトランザクションのスキャン済みアイテム対平均スキャンギャップの関係として比較することにより、スキャンギャップを利用する従来の方法では、アイテムがスキャンされることなくスキャナを迂回したときの事象を特定しようとする。   Security system designers have attempted to develop prior art to detect fraudulent operator errors or sudden operator errors when using POS terminals. Conventional systems in the field of detecting “slip-through” and “near trade” allow for the detection of unusually long “scan-gaps”. The “scan gap” is the length of time between successive scans at the point-of-sale information management terminal. If an item is passed through without scanning the item, the scan gap becomes longer before the next scan is performed. By comparing the scan gap as the relationship between the scanned item of the transaction for a given employee operator versus the average scan gap, the traditional method of using a scan gap is when the item bypasses the scanner without being scanned. Try to identify the event.

スキャンギャップを利用する従来の検出方法は、スキャンギャップが最高の条件の下でも「ノイズの多い」指標であることが判明しているので、大方の見方として、実用的ではないと考えられる。これは、完全な正規のスキャンギップは、製品の荷重、ラベル無し物品または未スキャン物品の手動での入力、及び最初の通過でスキャンされなかったアイテムの再スキャンによって発生するような遅延によって大きく変わり得るという事実に基づく。その結果、スキャンギャップは信頼できる指標ではなくなるので、スキャンギャップを、不正挙動を検出する方法として利用しようとする従来システムは問題を起こし易い。   The conventional detection method using the scan gap has been found to be a “noisy” indicator even under the best conditions of the scan gap, and as a general view, is considered impractical. This is largely due to delays such as those caused by full legitimate scan gips resulting from product loading, manual entry of unlabeled or unscanned articles, and rescans of items that were not scanned on the first pass. Based on the fact that you get. As a result, since the scan gap is no longer a reliable indicator, conventional systems that attempt to use the scan gap as a method of detecting fraudulent behavior are prone to problems.

本発明のシステムは、概して、ビデオデータに捕捉されるような、トランザクションに含まれるアイテムのビデオカウントまたはビデオ識別を行ない、そしてこのアイテム識別情報を、販売時点情報管理レジスタのようなトランザクション端末から得られるトランザクションデータと比較して疑わしい状態を特定することにより、不正挙動またはオペレータエラーを通知する。また、トランザクションエリアを監視する少なくとも一つのビデオカメラから送出されるビデオデータを取得することにより、システムはビデオデータを自動的に(すなわち、人手を介する必要がない)分析して、トランザクションエリアにおけるトランザクションに含まれるアイテムを追跡する。この情報を使用して、システムは、追跡アイテムのビデオ分析結果を、トランザクション端末により生成されるトランザクションデータと比較して不審挙動を特定することができる。   The system of the present invention generally performs a video count or video identification of items included in a transaction, as captured in video data, and obtains this item identification information from a transaction terminal such as a point-of-sale management register. By reporting the suspicious state compared to the transaction data being reported, it notifies of illegal behavior or operator error. In addition, by obtaining video data sent from at least one video camera that monitors the transaction area, the system automatically analyzes the video data (ie, does not require human intervention) and enables transactions in the transaction area. Keep track of items included in the. Using this information, the system can compare the video analysis result of the tracked item with transaction data generated by the transaction terminal to identify suspicious behavior.

従来システムとは異なり、本発明のシステムは、以下に説明するように、ビデオデータ分析法を使用して、「なれあい取引」または「すり抜け」のような挙動を検出する。詳細には、本システムは、顧客または店員のようなオペレータが一つ以上のアイテムをスキャンすることなくスキャナ(またはRFIDリーダ)の近くを通過させる場合の、またはオペレータがアイテムに関して不正コードをスキャンする、またはトランザクション端末に手動で入力する場合の、キャッシュレジスタ、POS、または他のトランザクション端末での棚卸の盗難または紛失の事実を検出する。本発明のシステムは、不正なバーコードが誤って貼付されてスキャナが間違って読み取る、またはオペレータが間違ったアイテムとして入力する恐れがあるアイテムを検出することもできる。或る実施形態では、ビデオ分析を、POS端末によって実際にスキャンされたアイテムに関するトランザクションスキャンデータに関連付けて利用する。   Unlike conventional systems, the system of the present invention uses video data analysis methods to detect behaviors such as “retail transactions” or “pass through”, as described below. In particular, the system scans a fraud code when an operator, such as a customer or store clerk, passes near a scanner (or RFID reader) without scanning one or more items, or the operator scans for an item. Or the fact of inventory theft or loss at a cash register, POS, or other transaction terminal when manually entered into the transaction terminal. The system of the present invention can also detect items that could be incorrectly pasted by an incorrect bar code and read incorrectly by the scanner, or entered by the operator as an incorrect item. In some embodiments, video analysis is utilized in association with transaction scan data for items actually scanned by the POS terminal.

スキャン動作を利用する販売時点情報管理端末またはキャッシュレジスタは、トランザクション端末の単なる例に過ぎず、システムは小売店環境のみでの不正の検出に制限されないことを理解し得る。更に、スキャン動作は固定スキャナによるレーザスキャニングに制限されず、携帯型スキャナ、または無線周波数識別(RFID)リーダによるスキャニングを含むことができる。システムは、オペレータが手動でコードまたは他のアイテム識別情報をキーボードを通してトランザクション端末に入力する状況においても適用することができる。本発明のシステムは、トランザクションデータを、当該トランザクションに関連するビデオデータとの比較に利用することができる全ての環境に広く適用することができる。   It can be appreciated that point-of-sale information management terminals or cash registers that utilize scan operations are merely examples of transaction terminals and that the system is not limited to fraud detection only in a retail store environment. Further, the scanning operation is not limited to laser scanning with a fixed scanner, but can include scanning with a portable scanner or a radio frequency identification (RFID) reader. The system can also be applied in situations where an operator manually enters codes or other item identification information into the transaction terminal through a keyboard. The system of the present invention can be widely applied to all environments in which transaction data can be used for comparison with video data related to the transaction.

例えば、RFIDタグを利用してアイテムを識別するシステムは、本発明のシステムの利点を発揮することができる。例えば、料金徴収ブース用システムは、料金ブースを通過する車両のビデオデータを供給し、そして当該システムによって、人間のようなオペレータは、またはRFID車載トランシーバ読み取りシステム(RFID vehicle tranceiver reading system)のような自動スキャナは、高速道路を走行する車両から通行料金を徴収することができる。不正は、例えば車両に違法のトランシーバが搭載されている(例えば、トラックにカートランシーバが搭載される)場合に、このようなシステムにおいて起こり得る。更に、端末オペレータとは店員、またはセルフチェックアウトトランザクション端末のような状況におけるような顧客のいずれかを指すことができる。   For example, a system for identifying items using an RFID tag can exhibit the advantages of the system of the present invention. For example, a toll booth system provides video data for vehicles passing through the toll booth, and by means of such a system, an operator such as a human or an RFID vehicle transceiver reading system, such as an RFID vehicle transceiver reading system. Automatic scanners can collect tolls from vehicles traveling on highways. Fraud can occur in such systems, for example, when an illegal transceiver is installed in a vehicle (eg, a car transceiver is installed in a truck). Further, a terminal operator can refer to either a store clerk or a customer as in a situation such as a self-checkout transaction terminal.

更に詳細には、本発明のシステムは、顧客によるトランザクション端末でのアイテムのトランザクション(例えば、購入、払い戻し、取り消しなど)に関連する不審挙動のようなトランザクション結果を判定する方法及び装置を含む。システムは、トランザクションエリアに関連するビデオデータを取得する。ビデオデータは、例えばスーパーマーケットまたは他の小売店におけるキャッシュレジスタ精算エリアまたは他のトランザクションエリアに焦点を定めた高所撮影カメラから取得することができる。システムは、システムの一部分として開示される、マシンを使った自動ビデオ分析アルゴリズムを実行して、ビデオデータの少なくとも一部分を分析してトランザクションエリアに関連するトランザクションの少なくとも一部分に関する少なくとも一つのビデオパラメータを取得する。例えば、システムはビデオデータを分析して、トランザクションエリアに関連するトランザクションに含まれるアイテムを追跡する(例えば、アイテムの存在を特定する)ことができる。このプロセスは、トランザクションに含まれるアイテムの存在を、ビデオデータ分析に基づいて自動的に特定することができる。この操作は、例えばトランザクションエリアにおけるアイテム挙動を自動的に検出することにより、そして/またはトランザクションエリアにおけるオペレータ挙動を自動的に検出することにより、行なうことができる。アイテムの存在の検出では、アイテムがトランザクションエリアの注目領域から移送される事象を検出する、そして/またはアイテムがトランザクションエリアの注目領域に搬入される事象を検出することができる。   More particularly, the system of the present invention includes a method and apparatus for determining transaction outcomes such as suspicious behavior associated with a transaction (eg, purchase, refund, cancellation, etc.) of an item at a transaction terminal by a customer. The system obtains video data associated with the transaction area. The video data can be obtained from an altitude camera, for example, focused on a cash register checkout area or other transaction area in a supermarket or other retail store. The system executes a machine-based automated video analysis algorithm disclosed as part of the system to analyze at least a portion of the video data to obtain at least one video parameter for at least a portion of the transaction associated with the transaction area To do. For example, the system can analyze the video data to track items included in a transaction associated with the transaction area (eg, identify the presence of an item). This process can automatically identify the presence of items included in the transaction based on video data analysis. This can be done, for example, by automatically detecting item behavior in the transaction area and / or by automatically detecting operator behavior in the transaction area. The detection of the presence of an item can detect an event where the item is transported from the attention area of the transaction area and / or an event where the item is brought into the attention area of the transaction area.

一つの構成では、ビデオトランザクションパラメータは、どの位の個数のアイテムを、ビデオ分析アルゴリズムが、オペレータがトランザクションにおいて処理したとして特定したかについてのビデオカウントに変換される。例えば、アイテムは、アイテムがスキャンされた、または入力されたかどうかに関係なく、オペレータがアイテムをトランザクションエリアを通過するように移動させるときに処理される。従って、ビデオカウントによって、処理され、かつスキャン/入力されたアイテム、及び処理されるがスキャン/入力されないアイテムを検出し、そしてカウントすることができる。   In one configuration, the video transaction parameters are converted into video counts for how many items the video analysis algorithm has identified as processed by the operator in the transaction. For example, an item is processed when an operator moves the item past the transaction area, regardless of whether the item has been scanned or entered. Thus, the video count can detect and count items that have been processed and scanned / input and items that have been processed but not scanned / input.

別の構成では、ビデオトランザクションパラメータは、ビデオデータの全て、または一部分の分析を実行する一つ以上の検出器によって生成される一連の検出イベントである。検出器は一般的に自動画像処理アルゴリズムであり、このアルゴリズムはビデオデータの注目領域に適用される。例えば、ビデオデータは、トランザクションエリアの内部、オペレータ(例えば、店員及び/又は顧客)、アイテム搬入エリア、スキャンエリア、及びアイテム搬出領域を含む大きな部分を反映することができる。検出器はこのエリアの全て、または一部分、例えば販売時点情報管理端末のビデオデータの搬入コンベヤベルト領域を分析することができる。画像切り出し兼比較プロセスを、一つ以上の注目領域に関するビデオデータフレームに適用して、この注目領域に搬入されている、または注目領域から移送されているアイテムの存在を検出することができる。アイテムがこのようにして検出されると、検出イベントが生成されて、アイテムの存在、検出時間、及びアイテムサイズのような他の特徴を通知することができる。注目領域は2以上設定することができ、そして一連のイベントは異なる検出器からの多数のイベントを含むことができる、または検出器を一つだけ設けて、単一セットのイベントを一つの注目領域に関してのみ生成することができる。ビデオデータをこのようにして分析することにより、システムはビデオ分析に基づいて、トランザクションにおける個々のアイテムの存在を検出することができる。或る構成では、システムは、どの位の個数のアイテムの目視処理がトランザクション全体の中で行なわれたかについて判断することができる。   In another configuration, the video transaction parameter is a series of detection events generated by one or more detectors that perform analysis of all or part of the video data. The detector is typically an automatic image processing algorithm, which is applied to a region of interest in the video data. For example, the video data may reflect a large portion including the interior of the transaction area, the operator (eg, store clerk and / or customer), the item loading area, the scanning area, and the item loading area. The detector can analyze all or a part of this area, for example the carry-in conveyor belt area of the video data of the point-of-sale information management terminal. An image segmentation and comparison process can be applied to a video data frame for one or more regions of interest to detect the presence of items that have been brought into or transferred from the region of interest. When an item is detected in this way, a detection event can be generated to notify other features such as the presence of the item, detection time, and item size. There can be more than one region of interest, and a series of events can include multiple events from different detectors, or there can be only one detector to make a single set of events into one region of interest Can only be generated. By analyzing the video data in this way, the system can detect the presence of individual items in the transaction based on the video analysis. In one configuration, the system can determine how many items of visual processing have been performed during the entire transaction.

システムは、トランザクションエリアに関連するトランザクション端末から送出される少なくとも一つのトランザクションパラメータを取得する。一つの構成における予測トランザクションパラメータは、トランザクション端末(例えば、販売時点情報管理端末)によって生成されるトランザクションデータに基づいて取得されるトランザクションカウントまたは他のアイテム存在通知(item presence indication)である。各アイテムがスキャンされる、または特定されると、データがスキャナからトランザクション端末のプロセッサに送信される。本発明のシステムは、このデータにスキャンごとに、またはデータベースからの集合体セットのデータとしてアクセスして(この操作はこれから説明するように種々の方法により行なうことができる)、トランザクションによって処理される多数のアイテムの存在(及び、或る場合には識別情報)を求める。   The system obtains at least one transaction parameter sent from the transaction terminal associated with the transaction area. The predicted transaction parameter in one configuration is a transaction count or other item presence indication obtained based on transaction data generated by a transaction terminal (eg, point-of-sale information management terminal). As each item is scanned or identified, data is sent from the scanner to the transaction terminal processor. The system of the present invention accesses this data on a scan-by-scan basis or as aggregate set data from a database (this operation can be performed in various ways as will be described) and is processed by transactions. Find the presence of multiple items (and identification information in some cases).

ビデオ分析結果をトランザクションデータと比較する形で組み合わせて使用して、システムは、ビデオデータの分析において特定されるアイテムの存在が、トランザクションデータにおける存在と一致するかどうかについて判断することができ、一致しない場合には、不審挙動を特定する。例えば、検出器の各々に関して、システムは当該検出器に関する1セットの検出イベントをトランザクションデータの少なくとも一部分と比較して、当該検出器によって検出される多数のアイテムの中に、トランザクションデータの一部分に示される多数のアイテムとは違う少なくとも一つの明確な不一致を特定することができる。従って、トランザクションカウント(例えば、スキャンカウント)またはトランザクションアイテム識別情報のようなトランザクションデータは、(トランザクション全体に関して)スキャンされるアイテムの存在または個数を表わし、ビデオ分析に基づく検出イベントデータまたはビデオカウントは、オペレータが移動させてトランザクションエリアを通過させるようにしたアイテムの存在(または個数)を表わす。多くの他の実施形態を以下に記載するが、これらの実施形態については、以下で更に詳しく説明する。。   Using the video analysis results in combination with the transaction data, the system can determine if the presence of the item identified in the analysis of the video data matches the presence in the transaction data, and the match If not, identify suspicious behavior. For example, for each of the detectors, the system compares a set of detection events for that detector with at least a portion of the transaction data and indicates in a number of items detected by the detector in a portion of the transaction data. It is possible to identify at least one distinct discrepancy that is different from a large number of items. Thus, transaction data such as a transaction count (eg, scan count) or transaction item identification information represents the presence or number of items scanned (with respect to the entire transaction) and detection event data or video count based on video analysis is It represents the presence (or number) of items that the operator has moved to pass through the transaction area. Many other embodiments are described below, and these embodiments are described in more detail below. .

本発明の他の実施形態はいずれのタイプのコンピュータデバイス、ワークステーション、ハンドヘルドまたはラップトップコンピュータ、POSまたはトランザクション端末などを含むこともでき、これらのデバイスはソフトウェア及び/又は回路(例えば、プロセッサ)を用いて構成されて、本発明の方法の動作のいずれか、または全てを実行する。システムはビデオを取得するビデオカメラ(群)を含むことができる、またはシステムはスタンドアローン型コンピュータとすることができ、このコンピュータは入力として、一つ以上の小売店内位置の一つ以上のPOS端末から収集されるビデオデータ及びスキャンデータを受信する。別の表現をすると、ここに説明するように、いずれかの方法で動作するようにプログラムされる、または構成されるコンピュータデバイスまたはプロセッサは本発明の一つの実施形態であると考えられる。システムは、ビデオカメラ及びPOS端末を含む必要はないが、その代わりに、ビデオデータ及びトランザクションデータを受信するセキュリティサービスプロバイダによって運営されるオフサイトコンピュータシステムとすることができる。   Other embodiments of the invention may include any type of computing device, workstation, handheld or laptop computer, POS or transaction terminal, etc., which may include software and / or circuitry (eg, a processor). Configured to perform any or all of the operations of the method of the present invention. The system can include video camera (s) that capture video, or the system can be a stand-alone computer that receives as input one or more POS terminals at one or more retail locations. Receive video data and scan data collected from In other words, a computing device or processor programmed or configured to operate in any way, as described herein, is considered an embodiment of the invention. The system need not include a video camera and POS terminal, but can instead be an off-site computer system operated by a security service provider that receives video data and transaction data.

処理は、ビデオデータ及びトランザクションデータが収集されて、丁度今発生した不正挙動または不審挙動を特定するときにリアルタイムに行なうことができる(更に、処理では、オペレータが居る場所に行って、トランザクションアイテム及びレシートを調査して不正が発生したかどうかを判断することができるセキュリティ担当者に通知を行なうことができる)、または別の構成として、処理は、ビデオデータ及びトランザクションデータが一つ以上のトランザクションに関して収集された後の或る時点で行なうことができる(すなわち、事後処理することができる)。事後処理を行なう場合、オペレータの識別情報を維持し、そして追跡することができ、更に当該オペレータに関する履歴または不審挙動を蓄積することができる。当該オペレータ(オペレータはPOS端末に固有の識別情報でログインするので、オペレータが行なう全てのトランザクションを当該オペレータに関連付けることができる)に関するトランザクションについての次の分析の間に、本発明のシステムは当該オペレータに関する履歴を考慮に入れて、トランザクション結果に割り当てられる不審レベルを調整することができる。従って、最初の不審判定結果には不正のフラグを立てる必要はないが、或る所定の時間(例えば、数時間、数日など)に渡っての2回目、3回目、4回目のトランザクション結果が当該同じオペレータに関して検出される場合、これらのトランザクションに関連するビデオを自動的に特定し、そして転送して、ヒューマンレビューのような別の手段によって精査して、不正挙動がビデオに含まれていることを確認することができる。   Processing can be done in real-time when video data and transaction data are collected to identify just the fraud or suspicious behavior that has just occurred (in addition, processing can be done where the operator is located and the transaction item and The security officer who can examine the receipt and determine whether fraud has occurred can be notified), or, alternatively, the processing can involve video data and transaction data for one or more transactions It can be done at some point after being collected (ie it can be post-processed). When performing post processing, operator identification information can be maintained and tracked, and history or suspicious behavior regarding the operator can be accumulated. During the next analysis of the transaction for the operator (the operator logs in with identification information specific to the POS terminal so that all transactions performed by the operator can be associated with the operator), the system of the present invention The suspicious level assigned to the transaction result can be adjusted to take into account the history of the transaction. Therefore, it is not necessary to set an illegal flag in the first suspicious judgment result, but the second, third, and fourth transaction results over a predetermined time (for example, several hours, several days, etc.) If detected for the same operator, the video associated with these transactions is automatically identified and forwarded and scrutinized by another means such as a human review, and fraudulent behavior is included in the video I can confirm that.

一つの構成では、一つ以上の小売店内位置の一つ以上のPOS端末からのトランザクションデータが多くのトランザクションに関して処理され、そしてここに説明するように処理されて不正挙動または不審挙動を通知することになるこれらのトランザクションにフラグを立てると、これらのトランザクションのみに関するビデオデータを、ヒューマンレビューのような他の方法を使用して精査し、ここに説明する自動(すなわち、人手によらない、またはマシンを利用した)処理によって最初に特定される不正挙動または不審挙動を確認することができる。別の変形例及び別の実施形態について、以下の詳細な説明の章に更に完全な形で説明する。   In one configuration, transaction data from one or more POS terminals at one or more retail locations is processed for a number of transactions and processed as described herein to notify fraudulent or suspicious behavior. When these transactions become flagged, video data relating only to these transactions will be scrutinized using other methods such as a human review and will be described automatically (i.e., manually or machine) It is possible to confirm the illegal behavior or suspicious behavior first identified by the process. Other variations and embodiments are described more fully in the detailed description section below.

本発明の他の実施形態は、上に概要を説明し、そして以下に詳細に開示するステップ及び動作を実行するソフトウェアプログラムを含む。一つのこのような実施形態は、コンピュータ読み取り可能な媒体を含むコンピュータプログラム製品を含み、コンピュータ読み取り可能な媒体は、当該媒体にエンコードされるコンピュータプログラムロジックを含み、コンピュータプログラムロジックが、相互接続されたメモリ及びプロセッサを有するコンピュータデバイスで実行されると、プロセッサをプログラムしてプロセッサに本発明の動作を実行させる。このような構成は通常、ソフトウェア、コード、及び/又はコンピュータ読み取り可能な媒体に格納される、またはエンコードされる他のデータ(例えば、データ構造)として提供され、コンピュータ読み取り可能な媒体としては、光学媒体(例えば、CD−ROM)、フロッピィディスクまたはハードディスク、或いは他の媒体を挙げることができ、他の媒体には、例えば一つ以上のROMチップ、またはRAMチップ、またはPROMチップに格納されるファームウェアまたはマイクロコード、または特定用途向け集積回路(ASIC)が含まれる。ソフトウェアまたはファームウェア、またはこれらに類似する他の構成をコンピュータデバイスに実装して、コンピュータデバイスに、ここに本発明の実施形態として説明する方法を実行させることができる。   Other embodiments of the present invention include a software program that performs the steps and operations outlined above and disclosed in detail below. One such embodiment includes a computer program product that includes a computer-readable medium, the computer-readable medium including computer program logic encoded on the medium, the computer program logic being interconnected. When executed on a computing device having a memory and a processor, the processor is programmed to cause the processor to perform the operations of the present invention. Such an arrangement is typically provided as software, code, and / or other data (eg, a data structure) that is stored or encoded on a computer-readable medium, such as an optical Media (eg, CD-ROM), floppy disk or hard disk, or other media can be mentioned, such as one or more ROM chips, RAM chips, or firmware stored on a PROM chip Or microcode, or application specific integrated circuit (ASIC). Software or firmware, or other configurations similar to these, may be implemented on a computing device to cause the computing device to perform the methods described herein as embodiments of the invention.

本発明のシステムは、ソフトウェアプログラムとして、ソフトウェアまたはハードウェアとして、或いはプロセッサ内またはオペレーティングシステム内のハードウェアのみとして厳密に具体化することができる。本発明の例示としての実施形態は、コンピュータシステム、プロセッサ、及びコンピュータプログラム製品、及び/又は米国マサチューセッツ州バーリントンに本拠を置くストップリフト社(Stoplift,Inc.)が提供するソフトウェアアプリケーション、それぞれの内部で実施することができる。   The system of the present invention can be strictly embodied as a software program, as software or hardware, or as hardware only within a processor or operating system. Illustrative embodiments of the present invention include computer systems, processors, and computer program products, and / or software applications provided by Stoplift, Inc., based in Burlington, Massachusetts, USA. Can be implemented.

図1は例示としての環境300を示し、この環境は、本発明の例示としての実施形態の説明における使用に適している。例示としての環境300には小売店が描かれており、この小売店では、顧客305がアイテム307を購入することができる。販売時点情報管理端末またはキャッシュレジスタのようなトランザクション端末34は店員のようなオペレータ308が制御して顧客305によるアイテム307の購入を可能にする。トランザクション端末34はスキャニング機器36を含み、スキャニング機器は、これらのアイテム307がスキャニング機器36のスキャナの所定の近傍領域の内部に持ち込まれると、各アイテム307に貼り付けられるUPCバーコード記号またはRFIDタグのようなアイテム識別情報310を検出し、そしてスキャンする、または読み取ることができる。   FIG. 1 shows an exemplary environment 300, which is suitable for use in the description of exemplary embodiments of the invention. An exemplary environment 300 depicts a retail store where a customer 305 can purchase an item 307. A transaction terminal 34, such as a point-of-sale information management terminal or cash register, is controlled by an operator 308, such as a store clerk, to allow the customer 305 to purchase an item 307. The transaction terminal 34 includes a scanning device 36 that scans the UPC barcode symbol or RFID tag that is affixed to each item 307 when these items 307 are brought into a predetermined neighborhood of the scanner of the scanning device 36. Can be detected and scanned or read.

環境300が普通に動作している状態では、顧客305は、購入対象の一連のアイテム307を所持してトランザクションエリア301に近付く。アイテム307は、例えば顧客305がトランザクションエリア301にまで引いて行くショッピングカート311または他の物品搬送装置に収納することができる。別の構成として、顧客305は個々のアイテム307をトランザクションエリア301にまで持ち運ぶことができる。アイテム307の購入を行うために、顧客305はアイテム307をショッピングカート311から(または、アイテムを持ち運んでいる場合には顧客の手から)取り上げ、アイテムをトランザクションエリア301内の領域302−1として一括表示されるアイテム搬入エリアに持ち込む。アイテム搬入エリア302−1は、トランザクション端末34のスキャナ36によって検出され、そして読み取られる前の購入対象のアイテムの持ち込み先となるコンベヤベルト、カウンタトップ、または他の表面エリアとすることができる。   With the environment 300 operating normally, the customer 305 has a series of items 307 to purchase and approaches the transaction area 301. The item 307 can be stored, for example, in a shopping cart 311 or other article transport device that the customer 305 pulls to the transaction area 301. Alternatively, customer 305 can carry individual items 307 to transaction area 301. In order to purchase the item 307, the customer 305 picks up the item 307 from the shopping cart 311 (or from the customer's hand when carrying the item) and collects the items as a region 302-1 in the transaction area 301. Bring it to the displayed item carry-in area. The item carry-in area 302-1 may be a conveyor belt, counter top, or other surface area to which items to be purchased are brought in before being detected and read by the scanner 36 of the transaction terminal 34.

店員のようなオペレータ38は、トランザクション端末34にログインする、またはトランザクション端末を起動することによりトランザクション端末34と相互作用する。このプロセスでは、オペレータ308が固有のオペレータ識別情報をトランザクション端末34に提示することができる。オペレータ308がトランザクション端末34を操作している間、オペレータ308の体は通常、トランザクションエリア301のオペレータ領域302−4の内部に留まっている。一旦、ログインすると、オペレータ308は、アイテム搬入エリア302−1内の購入アイテム307を、例えば個々のアイテム307を手で拾い上げることにより選択し始めることができる。オペレータ308はアイテム搬入エリア302−1からの各アイテム307が、普通、アイテム読み取り領域302−2内に位置するスキャナ36を通過するようにする。オペレータが正しい操作(すなわち、不正の無い、かつエラーの無い操作)を行なうと仮定すると、オペレータ308はアイテム307の位置を決めて、アイテムに貼り付けられたアイテム識別情報310をスキャナ36が検出し、そしてスキャンする、または読み取ることができるようにする。スキャナ36が、直ぐ前にスキャンしたアイテム307のアイテム識別情報310を検出すると、トランザクション端末34レジスタはアイテム307を購入対象アイテムとして登録し、そして普通、オペレータ308に対してビープノイズ音またはビープ音のような通知音を鳴動させて、アイテム307が無事に識別されたことを通知する。通知音に応答する形で、オペレータ308はアイテム307をアイテム搬出領域302−3に移すが、アイテム搬出領域は、トランザクション端末34によって無事にスキャンされた、または読み取られた、或いはトランザクション端末34に無事に入力されたアイテム307を保持する別のカウンタトップ、下流のコンベヤベルトなどとすることができる。   An operator 38, such as a store clerk, interacts with the transaction terminal 34 by logging into the transaction terminal 34 or activating the transaction terminal. In this process, the operator 308 can present unique operator identification information to the transaction terminal 34. While the operator 308 operates the transaction terminal 34, the body of the operator 308 usually stays inside the operator area 302-4 of the transaction area 301. Once logged in, the operator 308 can begin selecting purchased items 307 in the item carry-in area 302-1 by, for example, picking up individual items 307 by hand. The operator 308 causes each item 307 from the item carry-in area 302-1 to pass through the scanner 36 that is normally located in the item reading area 302-2. Assuming that the operator performs a correct operation (that is, an operation without fraud and no error), the operator 308 determines the position of the item 307 and the scanner 36 detects the item identification information 310 attached to the item. , And be able to scan or read. When the scanner 36 detects the item identification information 310 for the item 307 that was scanned immediately before, the transaction terminal 34 register registers the item 307 as an item to be purchased, and usually appears to the operator 308 as a beep or beep. A notification sound is generated to notify that the item 307 has been successfully identified. In response to the notification sound, the operator 308 moves the item 307 to the item carry-out area 302-3, but the item carry-out area has been successfully scanned or read by the transaction terminal 34, or has been safely taken by the transaction terminal 34. It can be another counter top that holds the item 307 input to the, a downstream conveyor belt, or the like.

オペレータ308はこのプロセスを個々の各アイテム307に関して繰り返して、購入対象の全てのアイテム307がアイテム搬入エリア302−1からアイテム読み取り領域302−2の上を通って、またはアイテム読み取り領域302−2を通過して移動し(この間、アイテムに対するスキャンが行なわれる)、そしてアイテム搬出領域302−3に達するようにする。或る場合においては、アイテム307は果物、野菜などのような貼付アイテム識別情報310を含む必要はない。このような場合では、アイテム307をアイテム搬入エリア302−1から外に移動させた後、オペレータ308は手動でアイテム識別情報をトランザクション端末304に、キーボードまたは他のマニュアル入力デバイスを使用して入力するので、トランザクション端末34はアイテム307を登録することができる。このようにして、全てのアイテム307がトランザクション端末34によって識別された後、オペレータ308はトランザクション端末34に対してトランザクションが完了したことを通知し、そしてトランザクション端末34は購入対象アイテム307の合計価格を計算する。次に、顧客305は対応する金額の支払いをオペレータ308に対して行ない、その後、前に進んでアイテム307をアイテム搬出領域302−3から取り上げて小売店から運び出す。   The operator 308 repeats this process for each individual item 307 so that all items 307 to be purchased pass over the item reading area 302-2 from the item carry-in area 302-1 or the item reading area 302-2. Pass through and move (during this time the item is scanned) and reach the item unloading area 302-3. In some cases, item 307 need not include affixed item identification information 310 such as fruit, vegetables, and the like. In such a case, after moving the item 307 out of the item carry-in area 302-1, the operator 308 manually inputs item identification information into the transaction terminal 304 using a keyboard or other manual input device. Therefore, the transaction terminal 34 can register the item 307. In this way, after all items 307 have been identified by transaction terminal 34, operator 308 notifies transaction terminal 34 that the transaction has been completed, and transaction terminal 34 provides the total price of item 307 to be purchased. calculate. Next, the customer 305 pays the corresponding amount to the operator 308, and then proceeds to pick up the item 307 from the item carry-out area 302-3 and carry it out of the retail store.

図1に示すように、環境300は更に、トランザクションに関連する不審挙動を検出するために本発明の実施形態に従って構成されるトランザクションモニタ32を含む。環境300は更に、トランザクションエリア301のビデオを撮影する一つ以上の上方設置ビデオカメラのようなビデオソース30を含む。通常、ビデオソース30はトランザクションエリア301よりも十分に高い高所位置に据え付けられ、種々の領域302を撮影対象とし、そして種々の領域302のビデオを撮影する。この例におけるトランザクションモニタ32は入力として、ビデオデータ320をビデオソース30から、更にはトランザクションデータ34をトランザクション端末34から受信する。例示としての環境300では、トランザクションモニタ32がトランザクションデータ330及びビデオデータ320をビデオソース30及びトランザクション端末34から直接受信するものとして示されるが、トランザクションモニタ32は、オペレータ308によるアイテムまたはトランザクション全体の処理が完了した後、これらの入力をリアルタイムで受信する、または或る時間が経過した時点で受信することができることを理解し得る。更に、トランザクションモニタ32がトランザクションデータ330及びビデオデータ320をビデオソース30及びトランザクション端末34から直接受信する必要はない。別の構成では、これらの入力はビデオテープ機器から(または、デジタル記録媒体から)、またはトランザクション端末34の傍の別のコンピュータシステムによって維持されるトランザクションデータベースから受信することができる。従って、ビデオソース30は、カメラのようなリアルタイムソースとすることができる、またはVCRまたはDVRのような記録装置のような蓄積型のソースとすることができる。トランザクション端末34は同様にして、リアルタイムトランザクションデータをPOS(例えば、現金出納端末またはスキャナ)から直接供給することができる、またはトランザクションデータは、POSデータを格納するトランザクションログデータベースからの蓄積型データとすることができる。   As shown in FIG. 1, the environment 300 further includes a transaction monitor 32 configured in accordance with an embodiment of the present invention to detect suspicious behavior associated with a transaction. The environment 300 further includes a video source 30 such as one or more upside video cameras that capture video of the transaction area 301. Typically, the video source 30 is installed at a height that is sufficiently higher than the transaction area 301 to capture various areas 302 and to shoot videos in the various areas 302. The transaction monitor 32 in this example receives as input video data 320 from the video source 30 and further transaction data 34 from the transaction terminal 34. In the exemplary environment 300, the transaction monitor 32 is shown as receiving transaction data 330 and video data 320 directly from the video source 30 and transaction terminal 34, but the transaction monitor 32 may process the item or the entire transaction by the operator 308. It can be appreciated that these inputs can be received in real time or after a certain amount of time has passed. Further, the transaction monitor 32 need not receive transaction data 330 and video data 320 directly from the video source 30 and transaction terminal 34. In another configuration, these inputs may be received from video tape equipment (or from a digital recording medium) or from a transaction database maintained by another computer system beside transaction terminal 34. Thus, the video source 30 can be a real-time source such as a camera or a storage source such as a recording device such as a VCR or DVR. Similarly, the transaction terminal 34 can supply real-time transaction data directly from a POS (eg, a cash accounting terminal or scanner), or the transaction data can be stored data from a transaction log database that stores POS data. be able to.

本発明のシステムが動作している状態では、トランザクションモニタ32は、「なれあい取引」または「すり抜け行為」のようなトランザクションエリア301に関連する不審挙動を、ビデオデータ320及び対応するトランザクションデータ330を比較して不審挙動を特定し、そしてレポートすることにより識別するように動作する。一般的に、これによって、トランザクションモニタ32はビデオデータ320を、トランザクション端末34を含むトランザクションエリア301から収集するようになり、トランザクションエリア301では、顧客305がアイテム307をトランザクション中に購入する。カメラのようなビデオソース30は、トランザクションエリア301よりも十分に高い高所位置に据え付けられて、領域302のビデオを上から撮影することができるようにするが、システムはこのような構成に制限されない。   While the system of the present invention is in operation, the transaction monitor 32 compares the video data 320 and corresponding transaction data 330 for suspicious behavior associated with the transaction area 301 such as “near deal” or “pass-through”. To identify and report suspicious behavior. Typically, this causes the transaction monitor 32 to collect video data 320 from the transaction area 301 that includes the transaction terminal 34, where the customer 305 purchases the item 307 during the transaction. A video source 30, such as a camera, is installed at a height that is sufficiently higher than the transaction area 301 to allow the video of region 302 to be filmed from above, but the system is limited to such a configuration. Not.

一般的に、トランザクションモニタ32は、自動(すなわち、人手によらない)ビデオ分析を、上方設置カメラによるビデオデータ320の少なくとも一部分または少なくとも一つのセグメントに対して行なって、トランザクションに関連する少なくとも一つのアイテム307の存在を検出する。トランザクションモニタ32は、ビデオデータに基づくトランザクション関連アイテムの存在(ここに説明する画像処理技術によって自動的に検出される)を、トランザクション端末で顧客が実際に購入するアイテム(すなわち、端末34が読み取る、またはスキャンするアイテム307)を示すトランザクションデータ330と比較して、トランザクション端末で購入されなかった(すなわち、トランザクション端末34によってスキャンされずに、またはトランザクション端末34に入力されずに、或いはトランザクション端末34によって読み取られることなく、トランザクションエリア301をすり抜けた)アイテムを顧客305の所持品の中に特定する。ビデオデータ320を自動処理することにより特定される一つ以上のアイテムの存在と、トランザクションデータ330内に特定されるアイテムとの比較による不一致は、本発明のシステムが検出することができる不審挙動を示唆する。不審挙動は、オペレータ308に起因するオペレータエラーの結果である、または「なれあい取引」または「すり抜け」を含む実際の不正挙動の結果である可能性がある。   Generally, the transaction monitor 32 performs automatic (i.e., non-human) video analysis on at least a portion or at least one segment of video data 320 from an upright camera to provide at least one associated with the transaction. The presence of the item 307 is detected. Transaction monitor 32 detects the presence of transaction-related items based on video data (automatically detected by the image processing techniques described herein) that the customer actually purchases at the transaction terminal (ie, terminal 34 reads, Or compared to transaction data 330 indicating items to be scanned 307) that were not purchased at the transaction terminal (ie, not scanned by or entered into transaction terminal 34, or by transaction terminal 34). The item that has passed through the transaction area 301 without being read is specified in the possession of the customer 305. The discrepancy due to the comparison between the presence of one or more items identified by automatically processing video data 320 and the items identified in transaction data 330 is a suspicious behavior that the system of the present invention can detect. Suggest. The suspicious behavior can be the result of an operator error due to the operator 308, or the result of an actual fraudulent behavior including “near deal” or “pass through”.

構成によって変わるが、トランザクションモニタ32は、トランザクションエリアを撮影することにより得られるビデオデータの全て、または一部分を分析して、例えばトランザクションエリアを通過するオブジェクトの挙動、トランザクションエリア内の特定の注目領域内でのオブジェクトの挙動、トランザクションエリア内の複数の特定の注目領域内でのオブジェクトの挙動、トランザクションエリア内の特定の注目領域に進入するオブジェクトの挙動、及び/又はトランザクションエリア内の特定の注目領域から出て行くオブジェクトの挙動に基づいてアイテムを自動的に検出することができる。   Depending on the configuration, the transaction monitor 32 analyzes all or part of the video data obtained by filming the transaction area, eg, the behavior of objects passing through the transaction area, within a particular area of interest within the transaction area. The behavior of an object in a transaction area, the behavior of an object within a plurality of specific areas of interest within a transaction area, the behavior of an object entering a specific area of interest within a transaction area, and / or a specific area of interest within a transaction area Items can be automatically detected based on the behavior of the outgoing object.

ビデオデータの全て、または一部分を分析することにより、一つの構成では、一つ以上のアイテムを、ビデオデータの少なくとも一部分の少なくとも一つの注目領域302の内部の少なくとも一つの検出器が検出することを示唆する一連の検出イベントが生成される。実施形態によって変わるが、トランザクションモニタ32は、アイテム検出を、一つの注目領域302のみにおける、または多くの領域302におけるビデオ分析に基づいて行なうことができる。図1では、トランザクションエリア301は幾つかの領域302−1〜302−Nに分割されるか、または領域302−1〜302−Nとして列挙される。これらのエリアまたは領域の各々は、一つの注目領域302であると考えることができ、そしてビデオデータ320には、或るアイテムがトランザクションに含まれていることを示すことができるこれらの領域のうちの幾つかの領域、全ての領域、または一つのみの領域における挙動を捕捉することができる。   By analyzing all or a portion of the video data, in one configuration, one or more items are detected by at least one detector within at least one region of interest 302 of at least a portion of the video data. A series of detection events to suggest is generated. Depending on the embodiment, the transaction monitor 32 may perform item detection based on video analysis in only one region of interest 302 or in many regions 302. In FIG. 1, the transaction area 301 is divided into several regions 302-1 to 302-N or listed as regions 302-1 to 302-N. Each of these areas or regions can be considered as one region of interest 302, and the video data 320 can indicate that an item is included in the transaction. The behavior in some, all, or only one region can be captured.

トランザクションモニタ32は検出器を利用して、注目領域における画像処理を行なう。検出器は普通、画像処理アルゴリズムであり、この画像処理アルゴリズムはアイテムの当該領域における存在を検出することができる。アイテムの存在は、例えば検出処理をアイテム搬入エリア302に適用することにより検出することができる。検出器(一つ以上の検出器)をそれぞれ設ける場合、トランザクションモニタ32は、当該検出器に関する一連の検出イベントをトランザクションデータの少なくとも一部分(すなわち、ビデオデータに一致するトランザクション情報を含む部分)と比較して、少なくとも一つの明白な不一致を、トランザクションデータの一部分に示される多数のアイテムの中から検出器が検出する多数のアイテムの中に特定する。トランザクションモニタ32はトランザクションに関する総合的な不審レベルを、検出器(群)が特定した明白な不一致に基づいて認識することができる。   The transaction monitor 32 uses the detector to perform image processing in the region of interest. The detector is usually an image processing algorithm that can detect the presence of an item in that region. The presence of an item can be detected by applying a detection process to the item carry-in area 302, for example. With each detector (one or more detectors), the transaction monitor 32 compares a series of detection events for that detector with at least a portion of the transaction data (ie, the portion containing transaction information that matches the video data). Thus, at least one obvious discrepancy is identified among the multiple items detected by the detector from among the multiple items indicated in the portion of the transaction data. The transaction monitor 32 can recognize the overall suspicious level for the transaction based on the apparent discrepancy identified by the detector (s).

或る構成においては、ビデオ処理またはビデオ分析では、トランザクションエリア301を複数の領域(例えば、302−1〜302−3)に分割し、これらの領域を通ってオブジェクトが順番に、トランザクションの少なくとも一部の期間中に移動する。トランザクションモニタ32は、アイテムが複数の領域を通って順番に移動しているときに、アイテムに対する自動ビデオ検出を行なって、一つ以上のビデオパラメータによって表わされる或るパターンを取得することができる。従って、パターンは、トランザクションの全期間中に、または一部の期間中に領域群を通って移動したアイテム群のビデオイベントを表わす。トランザクションモニタ32は、分析されるビデオデータに対応するトランザクションの一部の期間中にトランザクション端末34が検出したアイテムを特定するトランザクションデータ330を取得することができ、かつビデオパラメータをトランザクションパラメータと自動的に比較することができ、この比較は、トランザクションの全て、または一部分に関するアイテム群のビデオイベントを表わすパターンが、トランザクションの全期間中に、または同じ一部の期間中にトランザクション端末34が検出したアイテムを特定するトランザクションデータと一致しないことを示しているかどうかを判断することにより行なわれる。不一致がある場合には、トランザクションモニタ32は、トランザクション結果が不正なトランザクションであると判断する。   In some configurations, in video processing or video analysis, the transaction area 301 is divided into a plurality of regions (eg, 302-1 to 302-3) through which the objects are sequentially placed in at least one transaction. Move during the part period. The transaction monitor 32 can perform automatic video detection on an item to obtain a pattern represented by one or more video parameters as the item is moving sequentially through multiple regions. Thus, the pattern represents a video event of items that have moved through the region during the entire period of the transaction or during some period. The transaction monitor 32 can obtain transaction data 330 that identifies items detected by the transaction terminal 34 during a portion of the transaction corresponding to the video data being analyzed, and automatically converts the video parameters as transaction parameters. This comparison indicates that the item representing the video event of the group of items for all or part of the transaction is detected by the transaction terminal 34 during the entire period of the transaction or during the same part of the period. Is determined by determining whether or not the transaction data does not match the specified transaction data. If there is a mismatch, the transaction monitor 32 determines that the transaction result is an illegal transaction.

異なる領域を設けることにより、一連の異なる検出イベントを使用してアイテムがビデオデータに含まれていることを確認することができる。このような場合においては、トランザクションモニタ32は、検出器による一連の検出イベントをトランザクションデータと一斉に比較して、トランザクションエリアにおいて処理される多数のアイテムの中に不一致を特定することができる。例えば、アイテムに対して自動ビデオ検出を行なう処理では、オペレータ308がアイテム307をアイテム搬入エリア302−1から移送したことを示す「移送イベント(removal event)」をアイテム搬入エリア302−1の中に特定することができ、当該処理では更に、オペレータがアイテムをアイテム搬出エリアに載置したことを示す「搬入イベント(introduction event)」をアイテム搬出エリアの中に特定することができる。従って、移送、搬入、移送、搬入などのように順番に発生するイベントは、ビデオデータの複数領域がモニタリングされる場合のビデオ分析に基づいて生成することができる。この順番は、例えばアイテム群に対するスキャンを示すトランザクションデータと時間同期させて、正規のパターンが、移送、スキャン、搬入、移送、スキャン、搬入などのように現われるようにすることができ、これに対して、不審パターンは、移送、スキャン、搬入、移送、搬入のように現われる。ここで、2回目のスキャンイベントが発生しないので、不正挙動または不審挙動が潜んでいることが示唆される。マシンを使った自動ビデオ分析技術を適用して、トランザクションエリアに関連するアイテムのビデオイベントを検出することにより、更にこのイベントを、トランザクションエリアに関連するアイテム群のトランザクションイベントを示すトランザクションデータと比較することにより、トランザクションモニタ32は、ビデオイベントがトランザクションデータ内のトランザクションイベントとして確認されないかどうかを判断し、そしてそれに応答する形で、トランザクションイベントとして確認されないビデオイベントが発生している場所を示す特定セグメント328をビデオデータの中に特定することができる。   By providing different regions, a series of different detection events can be used to confirm that the item is included in the video data. In such a case, the transaction monitor 32 can simultaneously identify a series of detected events by the detector and transaction data to identify inconsistencies among the multiple items processed in the transaction area. For example, in the process of performing automatic video detection on an item, a “remove event” indicating that the operator 308 has transferred the item 307 from the item carry-in area 302-1 is entered in the item carry-in area 302-1. In the process, an “introduction event” indicating that the operator has placed the item in the item carry-out area can be specified in the item carry-out area. Thus, events that occur in sequence, such as transfer, carry-in, transfer, carry-in, etc., can be generated based on video analysis when multiple regions of video data are monitored. This order can be synchronized in time with, for example, transaction data indicating a scan for a group of items so that a regular pattern appears as transfer, scan, carry-in, transfer, scan, carry-in, etc. Suspicious patterns appear as transfer, scan, carry-in, transfer, and carry-in. Here, since the second scan event does not occur, it is suggested that an illegal behavior or a suspicious behavior is lurking. Applying automatic video analysis technology using a machine to detect video events of items related to the transaction area, and further compare this event with transaction data indicating transaction events of items related to the transaction area. Thus, the transaction monitor 32 determines whether the video event is not acknowledged as a transaction event in the transaction data, and in response, a specific segment indicating where a video event that is not acknowledged as a transaction event occurs. 328 can be identified in the video data.

図1に示すように、一旦、不審挙動が特定されると、トランザクションモニタ32は、トランザクションイベントとして確認されないビデオイベントが発生している場所を示すビデオデータの中の特定セグメントを特定し(すなわち、ビデオクリップ328の中に)、そして検査担当者に送信し、検査担当者がビデオデータのセグメント328を吟味して、トランザクション期間中のアイテム購入に関するオペレータの不審挙動を精査する。   As shown in FIG. 1, once suspicious behavior is identified, the transaction monitor 32 identifies a particular segment in the video data that indicates where a video event that is not identified as a transaction event is occurring (ie, (In a video clip 328) and then sent to the inspector, who inspects the segment 328 of the video data to review the operator's suspicious behavior regarding item purchases during the transaction.

一つの構成では、本発明のシステムはアイテム群を、またはアイテム検出イベント群を実際にカウントする手法を提供し、そしてアイテムがスキャンされることなくトランザクションエリアをすり抜けてしまう偶発事象を特定する更に強固かつ正確な方法である。システムはスキャン遅延に影響されることがなく、そしてシステムは、スキャンされたアイテムよりも多い数のアイテムがトランザクションの一部分であったことを判断することができるので、システムは、オペレータに起因する盗難またはエラーが発生していることを示す非常に正確な通知手段として機能することができる。   In one configuration, the system of the present invention provides a way to actually count items, or item detection events, and is more robust in identifying contingencies that pass through the transaction area without being scanned. And it is an accurate method. The system is immune to scan delays, and the system can determine that more items were part of the transaction than the items scanned, so the system can steal due to the operator. Alternatively, it can function as a very accurate notification means indicating that an error has occurred.

アイテム検出比較とは無関係に発生する別の種類のエラーはアイテムの識別間違い(misidentification of items)である。この識別間違いは、「チケットまたはラベルすり替え」のような不正行為に起因し、この場合、バーコードまたは他のアイテム識別情報310の上に、値下げアイテムのバーコードまたは「値引き」バーコードが重ねて貼り付けられ、オペレータ308は値下げアイテムに関して、意図的に手動でコードまたはアイテム識別情報をトランザクション端末34に入力する。一つの構成では、本発明のシステムはアイテム画像を比較用に、普通に行なわれるトランザクションのビデオから直接切り出す手法を提供する。このような構成では、トランザクションモニタ32は画像比較を行なって、或る検出イベント(例えば、アイテムがビデオデータに含まれていることを示すイベント)に関連するアイテムの画像が、既に保存されているアイテム画像とほぼ一致するかどうかを判断することができる。これらの画像がほぼ一致するということがない場合、トランザクションモニタ32は、トランザクションにラベル取り替えイベントが含まれている可能性があり、不審挙動が潜んでいることを示唆していると確認することができる。この手法によって、オペレータ308はアイテム307を正常にハンドリングすることができるので、トランザクションが普通に行なわれる方法を変更する必要がない。システムはまた、オペレータのトランザクション処理能力に影響することがない、またはトランザクション処理能力を低下させることがない。システムのこの特性は、熟練オペレータにとって特に重要である。その理由は、オペレータはオペレータの処理能力速度に基づいて評価されるからである。オペレータに彼または彼女の振る舞いを変えさせる必要がないので、システムを正規の位置に配備して、不正直な従業員を、これらの従業員に何か新規の構造体が正規の位置に配備されていることを認識させることなく検出することができる。   Another type of error that occurs independently of item detection comparisons is item identification of items. This misidentification is due to fraud, such as “ticket or label replacement”, where the bar code or “discount” bar code of the reduced item is superimposed on the bar code or other item identification information 310. Once pasted, the operator 308 deliberately manually enters a code or item identification information into the transaction terminal 34 regarding the price reduction item. In one configuration, the system of the present invention provides a technique for cropping item images directly from a commonly performed transaction video for comparison. In such a configuration, the transaction monitor 32 performs an image comparison and an image of the item associated with a certain detection event (eg, an event indicating that the item is included in the video data) is already stored. It can be determined whether or not the item image substantially matches. If these images do not nearly match, the transaction monitor 32 may confirm that the transaction may include a label replacement event, suggesting that suspicious behavior is lurking. it can. This approach allows the operator 308 to handle the item 307 normally, so there is no need to change the way transactions are normally performed. The system also does not affect or reduce the transaction processing capacity of the operator. This characteristic of the system is particularly important for experienced operators. The reason is that the operator is evaluated based on the processing speed of the operator. There is no need for the operator to change his or her behavior, so the system can be deployed in the correct position and dishonest employees can be deployed to these employees with some new structure in the correct position. Can be detected without recognizing that

以下に説明するのは、本発明の種々の実施形態の一連のフローチャートである。これらの実施形態は、所定の構成の所定の動作を例示するために提示される例示としての実施形態であり、かつ、システムの全ての変形を網羅するものではない。   Described below is a series of flowcharts of various embodiments of the present invention. These embodiments are exemplary embodiments presented to illustrate a given operation of a given configuration and are not exhaustive of all variations of the system.

図2は、トランザクションエリア内でのすり抜け事象を検出するトランザクションモニタ32による処理の一構成の動作のフローチャートである。この構成例では、トランザクションモニタ32は、トランザクションエリア301を監視する少なくとも一つのビデオカメラから送出されるビデオデータを取得する。一つのトランザクションの少なくとも一部分に関するビデオデータ320のビデオクリップ2、及び当該トランザクションに関する対応するトランザクションデータ8(図1のトランザクションデータ330の)を分析して、トランザクションエリア301内のトランザクションに含まれるアイテム307を追跡する。いずれかの時間範囲のビデオデータ320、及び対応するトランザクションデータ330(すなわち、1回のトランザクションの一部分、または1回よりも多くのトランザクション)をハンドリングすることができるが、説明を明瞭かつ簡単にするために、この例では、1度に1回のトランザクションをハンドリングするものとして説明する。   FIG. 2 is a flowchart of an operation of one configuration of processing by the transaction monitor 32 that detects a slip-through event in the transaction area. In this configuration example, the transaction monitor 32 acquires video data transmitted from at least one video camera that monitors the transaction area 301. Analyzing the video clip 2 of the video data 320 for at least a portion of one transaction and the corresponding transaction data 8 (of transaction data 330 in FIG. 1) for that transaction, the item 307 included in the transaction in the transaction area 301 is analyzed. Chase. Any time range of video data 320 and corresponding transaction data 330 (ie, part of a transaction or more than one transaction) can be handled, but the description is clear and simple For this reason, in this example, it is assumed that one transaction is handled at a time.

一つの構成では、アイテムの存在の特定は、面積差を利用する方法を使用して行なうことができる。面積差を利用するこの方法では、トランザクションモニタ32は、アイテム搬入エリア302−1のような注目領域をトランザクションエリア内に定義する。ビデオがこの領域に関するものである場合、トランザクションモニタ32は、検出器を動作させて、注目領域302−1内の第1セットのアイテムを示すビデオデータの第1フレーム(すなわち、最初に撮影される)を自動的に特定する。これらのアイテムは、例えば顧客305が購入するために当該エリア302−1に置いた最初のセットのアイテム307である。その後、トランザクションモニタ32は、注目領域302内の第2セットのアイテムを示すビデオデータの第2フレーム(すなわち、2番目に、または後の時点で撮影される)を自動的に特定するが、この場合、第1セットのアイテムは第2セットのアイテムとは視覚的に明らかに異なる。これは、アイテムが領域302−1からオペレータ308によって移送されるからである。トランザクションモニタ32は、第1セットのアイテムが第2セットのアイテムとは視覚的に明らかに異なっていることを、アイテムがビデオデータの注目領域302−1内に存在したことを示すイベントとして自動的に通知することができる。   In one configuration, the presence of an item can be identified using a method that utilizes area differences. In this method using the area difference, the transaction monitor 32 defines a region of interest such as the item carry-in area 302-1 in the transaction area. If the video is for this area, the transaction monitor 32 operates the detector to capture the first frame of video data (i.e., first filmed) indicating the first set of items in the area of interest 302-1. ) Automatically. These items are, for example, the first set of items 307 placed in the area 302-1 for purchase by the customer 305. Thereafter, the transaction monitor 32 automatically identifies the second frame of video data (ie, taken at the second or later time) that represents the second set of items in the region of interest 302, but this If so, the first set of items is visually distinct from the second set of items. This is because items are transported from region 302-1 by operator 308. The transaction monitor 32 automatically detects that the first set of items is visually distinct from the second set of items as an event indicating that the item was in the attention area 302-1 of the video data. Can be notified.

ステップ10では、トランザクションモニタ32は、トランザクションエリア301に接続されるトランザクション端末34に関連するトランザクションデータを取得する。トランザクションデータは、アイテム307が購入アイテムとしてトランザクション端末34に登録されたかどうかを示している。   In step 10, the transaction monitor 32 acquires transaction data related to the transaction terminal 34 connected to the transaction area 301. The transaction data indicates whether or not the item 307 is registered in the transaction terminal 34 as a purchase item.

ステップ14では、トランザクションモニタ32は、追跡アイテムのビデオ分析結果を、トランザクション端末により生成されるトランザクションデータと比較して、不審挙動を特定する。一つの構成では、トランザクションモニタ32は、トランザクションデータが、アイテムが注目領域302内に存在したことをイベントが示している場合の対象となるアイテムに関して存在しないトランザクションデータ(missing transaction data)となっている場合に不審挙動を特定する。この方法は、各ビデオ検出イベントを、トランザクションデータのトランザクションイベントに関連付けるイベントベースの比較である。   In step 14, the transaction monitor 32 compares the video analysis result of the tracked item with transaction data generated by the transaction terminal to identify suspicious behavior. In one configuration, the transaction monitor 32 is transaction data (missing transaction data) that does not exist for the target item when the event indicates that the item exists in the attention area 302. Identify suspicious behavior in case. This method is an event-based comparison that associates each video detection event with a transaction event of transaction data.

図2の別の構成では、ビデオクリップ2をステップ4で分析して、トランザクションに実際に含まれるアイテム307の存在を視覚的に検出する(イベント検出を使用することができる)。トランザクションモニタ32は、ビデオデータの少なくとも一部分を分析して、トランザクションエリア301に関連するトランザクションの少なくとも一部分に関する少なくとも一つのビデオパラメータを取得する。従って、ビデオパラメータは、アイテムの存在が検出されたアイテムのビデオカウントとすることができる。トランザクションモニタ32はまた、トランザクションエリアに接続されるトランザクション端末34から送出される少なくとも一つのトランザクションパラメータを取得する。トランザクションモニタ32はステップ10においてトランザクションデータ330を分析して、トランザクションに含まれるアイテム307のレコードを取得する。これらのレコードに基づいて、トランザクションデータに反映されているアイテムの予測カウントを求めることができる。ステップ14では、トランザクションモニタ32は、実際のカウント、またはビデオカウント6を予測カウント、スキャンカウントまたはトランザクションカウント12と比較する。これらのカウント値が一致する場合、トランザクションモニタ32は、トランザクションに「疑わしくない(non−suspicious)状態」を示すフラグをステップ16において立てることができる。これらのカウントが一致しない場合、トランザクションモニタ32は、トランザクションに「疑わしい(例えば、不正が潜んでいる)状態」を示すフラグをステップ18において立てることができる。   In another configuration of FIG. 2, video clip 2 is analyzed in step 4 to visually detect the presence of an item 307 that is actually included in the transaction (event detection can be used). Transaction monitor 32 analyzes at least a portion of the video data to obtain at least one video parameter for at least a portion of the transaction associated with transaction area 301. Thus, the video parameter can be the video count of the item for which the presence of the item is detected. The transaction monitor 32 also obtains at least one transaction parameter sent from the transaction terminal 34 connected to the transaction area. The transaction monitor 32 analyzes the transaction data 330 in step 10 to obtain a record of the item 307 included in the transaction. Based on these records, a predicted count of items reflected in the transaction data can be obtained. In step 14, the transaction monitor 32 compares the actual count, or video count 6, with the predicted count, scan count, or transaction count 12. If these counts match, the transaction monitor 32 can set a flag at step 16 indicating a “non-suspension” state for the transaction. If these counts do not match, the transaction monitor 32 may set a flag at step 18 indicating a “suspicious (eg, fraudulent) state” in the transaction.

上に説明したように、トランザクションモニタ32は、トランザクションエリア内で検出されるアイテムのビデオカウントを、ビデオ分析を使用して特定し、そしてトランザクションエリア内のアイテムのトランザクションカウントを、トランザクションの少なくとも一部分に関連するトランザクションデータを分析することにより特定する。ビデオカウントをトランザクションカウントと比較することにより、ビデオカウントがトランザクションカウントと異なる場合には、トランザクションモニタ32は、不正トランザクションまたはオペレータエラーのような不審挙動を表わすトランザクション結果を通知することができる。構成によって変わるが、トランザクションモニタ32は、不審レベルのような追加情報を、実際のカウントと予測カウントとの差のような指標に基づいて提供することができる。   As explained above, the transaction monitor 32 identifies video counts for items found in the transaction area using video analysis and sets the transaction counts for items in the transaction area to at least a portion of the transaction. Identify by analyzing relevant transaction data. By comparing the video count with the transaction count, if the video count is different from the transaction count, the transaction monitor 32 can notify a transaction result representing a suspicious behavior such as an illegal transaction or an operator error. Depending on the configuration, the transaction monitor 32 can provide additional information, such as suspicious levels, based on an indicator, such as the difference between the actual count and the predicted count.

或る構成では、他の情報を使用して不審レベルを、例えば「低い」または「高い」、或いは「範囲内」のようにランク付けすることができる。例えば、小売店環境では、トランザクション端末または現金出納機を操作する各レジ係は通常、システムに固有識別情報を彼または彼女のレジスタにより(例えば、キーボードにより)入力してログインし、顧客のためにトランザクションを処理しているということを証明する。一旦、ログインが行なわれると、本発明のシステムは、ここに説明する動作を実行することができ、そして不正トランザクションが検出される場合(例えば、トランザクションカウントがビデオカウントと一致しない場合)、システムは、どの位の頻度で「疑わしい」という表記が付されたトランザクションを行なっているかを示すデータベースに保存することができる、この特定のレジ係の過去の履歴を調査する(出納係の固有識別情報に基づいて)ことができる。このようにして、不正トランザクションが非常に稀にしか発生しない場合には、トランザクションカウントがビデオカウントと一致しない事象は、レジ係の単なる間違いとすることができるが(すなわち、当該担当者は、何らかの拍子でアイテムをスキャンしなかった)、当該レジ係の疑わしいトランザクション履歴が、疑わしいトランザクションを頻繁に起こしていることを示している場合には、トランザクションカウントがビデオカウントと一致しない事象は、不審レベルとして表示することができ、そしてこの事象を後続の処理に使用することができる(例えば、この状態にフラグを立ててヒューマンオペレータが認識することができるようにして、オペレータにビデオを更に詳細に吟味させる)。   In some configurations, other information may be used to rank suspicious levels, such as “low” or “high” or “in range”. For example, in a retail environment, each cashier operating a transaction terminal or cash machine typically logs into the system by entering unique identifying information through his or her register (eg, with a keyboard) and logging for the customer Prove that you are processing a transaction. Once logged in, the system of the present invention can perform the operations described herein, and if a fraudulent transaction is detected (eg, if the transaction count does not match the video count), the system Investigate the past history of this particular cashier, which can be stored in a database that shows how often the transaction marked “suspicious” is being performed (in the unique identification information of the teller Based on). In this way, if a fraudulent transaction occurs very rarely, an event where the transaction count does not match the video count can be a mere error of the cashier (i.e. If the suspicious transaction history of the cashier indicates that suspicious transactions are occurring frequently, events whose transaction count does not match the video count are considered suspicious levels. Can be displayed and this event can be used for further processing (eg, flagging this state so that it can be recognized by the human operator, allowing the operator to examine the video in more detail) ).

図2のステップ20では、トランザクションモニタ32は或る不審レベルをビデオのセグメント328に割り当てることができる。不審レベルは、ビデオデータをトランザクションデータと比較することによる自動ビデオ分析結果に基づいて生成される不審レベルを示している。トランザクションモニタ32は、トランザクション結果に関連する不審レベルを、多くの要素に基づいて調整することができる。例えば、下記の要素を挙げることができる。   In step 20 of FIG. 2, transaction monitor 32 may assign a suspicious level to video segment 328. The suspicious level indicates a suspicious level generated based on an automatic video analysis result obtained by comparing video data with transaction data. Transaction monitor 32 can adjust the suspicious level associated with the transaction outcome based on a number of factors. For example, the following elements can be mentioned.

・トランザクションカウントとビデオカウントとの差の絶対値。例えば、20個の検出アイテムのうち、10個がオペレータによって取引されない場合、不審レベルは、20個のうちの1個だけが取引されなかった場合よりもずっと高い。   The absolute value of the difference between transaction count and video count. For example, if 10 of 20 detected items are not traded by the operator, the suspicious level is much higher than if only 1 of 20 was not traded.

・トランザクションを処理するオペレータの履歴が、少なくとも一つの過去のトランザクションが、履歴に示される当該オペレータに関して疑わしいと確認されていることを示している。この例については上述した。   The history of the operator processing the transaction indicates that at least one past transaction has been confirmed as suspicious with respect to the operator indicated in the history. This example has been described above.

・或るアイテムがビデオデータ内に検出された注目領域の数。例えば、取引されていないアイテムが、全ての検出器によって全ての領域に関して視覚的に検出される場合、不審/信頼レベルは、取引されていないアイテムが一つのみの検出器によって一つの領域に関して検出される場合よりもずっと高い。   The number of regions of interest in which an item has been detected in the video data. For example, if an item that is not traded is visually detected for all areas by all detectors, the suspicious / confidence level is detected for one area by only one detector that is not traded Much higher than would be done.

・或るアイテムが、トランザクションエリア内の異なる注目領域内のビデオデータの中で検出される順番(例えば、アイテム移送イベントの後に、アイテム搬入イベントが続く)。   The order in which an item is detected in the video data in different areas of interest in the transaction area (eg, an item transfer event followed by an item carry-in event).

・ビデオデータ内の或るアイテムのビデオ識別情報を、トランザクションデータから得られるアイテムのトランザクション識別情報と比較する結果としての不一致。トランザクション識別情報は、例えばアイテムの価格、及び/又はアイテムの識別情報とすることができる。   A discrepancy as a result of comparing the video identification information of an item in the video data with the transaction identification information of the item obtained from the transaction data. The transaction identification information may be, for example, an item price and / or item identification information.

・トランザクションを実行するキャッシュレジスタの履歴。この履歴は障害のあるキャッシュレジスタを示すことができる、または位置または他の要素によって疑わしい動作を起こし易いキャッシュレジスタを示すことができる。   A history of cash registers that execute transactions. This history may indicate a faulty cash register or may indicate a cash register that is prone to suspicious behavior by location or other factors.

・トランザクションにおいて特定される他のアイテムの履歴であって、トランザクションデータを必要としないトランザクションのアイテムを示すことができる履歴。例えば、サラダがアイテムとして特定され、続いてフォークがスキャンされない(従って、最初に疑わしいとして認識される)場合、不審レベルを調整して下げてフォークが無料であり、従ってフォークをスキャンする必要がないことを不審レベルに反映させる。   A history of other items identified in the transaction that can indicate items of the transaction that do not require transaction data. For example, if a salad is identified as an item, and then the fork is not scanned (and therefore is initially recognized as suspicious), the fork is free by adjusting and lowering the suspicious level, so there is no need to scan the fork This is reflected in the suspicious level.

図3Aは、トランザクションモニタ32が、識別間違いアイテムが検出される構成例において実行する処理のフローチャートである。この構成では、1回のトランザクションのビデオデータ40、及び当該トランザクションの対応するトランザクションデータ46が分析される。いずれかの時間範囲のビデオ、及び対応するトランザクションデータ(すなわち、1回のトランザクションの少なくとも一部分または1回よりも多くのトランザクション)をハンドリングすることができるが、説明を明瞭かつ簡単にするために、この例では、1度に1回のトランザクションをハンドリングするものとして説明する。   FIG. 3A is a flowchart of processing executed by the transaction monitor 32 in a configuration example in which an identification error item is detected. In this configuration, the video data 40 of one transaction and the corresponding transaction data 46 of the transaction are analyzed. Any time range of video and corresponding transaction data (i.e. at least part of a transaction or more than one transaction) can be handled, but for clarity and simplicity of explanation, In this example, description will be made assuming that one transaction is handled at a time.

ステップ42では、実際のアイテム画像44がビデオデータ40から切り出される。画像切り出しの一つの方法は、移送/搬入検出法の一部分として説明される(以下に説明する)。ステップ48では、トランザクションデータに含まれるアイテムに対応する予測アイテム画像52がアイテム画像50のデータベースから抽出される。アイテム画像のデータベースはどのような方法でも体系化することができるが、小売店環境において便利な一つの方法は、SKU番号別に行なわれる。   In step 42, the actual item image 44 is cut out from the video data 40. One method of image cropping is described as part of the transfer / carry-in detection method (described below). In step 48, the predicted item image 52 corresponding to the item included in the transaction data is extracted from the item image 50 database. The item image database can be organized in any way, but one convenient method in a retail environment is by SKU number.

アイテム画像データベースという観点から、本発明のシステムは画像の事前収集データベースを利用することができるが、トランザクションモニタ32は処理を進めて更に多くの画像を各連続トランザクションから切り出しながら画像付きデータベースを収集することもできる。このようにして、小売業者は時間及び資金を浪費して予めデータベースを配備しておく必要はない。その代わり、データベースには基本的に、同じアイテムに関する十分に多くの回数のトランザクションのビデオを撮影し、そして保存することにより学習させることができる。   From the viewpoint of the item image database, the system of the present invention can use the image pre-collection database. However, the transaction monitor 32 advances the processing and collects the image-added database while cutting out more images from each continuous transaction. You can also. In this way, the retailer does not have to waste time and money and deploy a database in advance. Instead, the database can basically be trained by taking and storing a video of a sufficiently large number of transactions for the same item.

ステップ54では、実際のアイテム画像を予測アイテム画像と比較する。ここで、実際のアイテム画像を切り出して、一度に、またはグループとして、これらの画像の対応する予測アイテム画像と比較することができる。トランザクションデータがアイテムの全リストのみを含んで、これらのアイテムがスキャンされた順番または回数に関するデータを含まない場合、個々の画像の間のアプリオリな対応が得られる基礎となる資料がない。従って、全セットの実際のアイテム画像を全セットの予測アイテム画像と比較する必要がある。しかしながら、同期プロセスによるビデオデータとのスキャン済みアイテムデータの関連付けを可能にする順番トランザクションデータまたはタイミングトランザクションデータを利用できる(例えば、スキャンのタイムスタンプがビデオのタイムスタンプにほぼ同期する)場合、画像群の間の対応付けが得られる、例えば実際の第1アイテム画像を第1予測アイテム画像と比較し、同じようにして他のアイテム画像を対応する予測アイテム画像と比較する。この場合、各個々の実際のアイテム画像を、当該画像の一つの対応する予測アイテム画像と比較するという選択を行なうことができる。   In step 54, the actual item image is compared with the predicted item image. Here, the actual item images can be cut out and compared with the corresponding predicted item images of these images at once or as a group. If the transaction data contains only a full list of items and no data on the order or number of times these items were scanned, there is no underlying material from which a priori correspondence between individual images can be obtained. Therefore, it is necessary to compare all sets of actual item images with all sets of predicted item images. However, if sequential transaction data or timing transaction data is available (e.g., the scan time stamp is approximately synchronized with the video time stamp) that allows the scanned item data to be associated with the video data through a synchronization process, the images For example, the actual first item image is compared with the first predicted item image, and the other item images are compared with the corresponding predicted item image in the same manner. In this case, a selection can be made that each individual actual item image is compared with one corresponding predicted item image of the image.

ステップ56において画像群が一致しないことが判明する場合、トランザクションに、トランザクションが疑わしいとしてステップ58でフラグを立てる。上に述べたように、実際のアイテム画像が一つずつ予測アイテム画像と比較されている場合、トランザクション全体ではなく、特定のアイテムに、当該アイテムが疑わしいとしてフラグを立てるという選択を行なうことができる。   If it is determined in step 56 that the images do not match, the transaction is flagged in step 58 as suspicious of the transaction. As mentioned above, if the actual item image is compared to the predicted item image one by one, you can choose to flag a particular item as suspicious rather than the entire transaction .

ステップ60において画像群が実際に一致することが判明する場合、トランザクションは疑わしくないと考えられる。実際のアイテム画像または画像群44をアイテム画像群のデータベースに必要に応じて取り込むことができる(ステップ50)。例えば、新規画像を、専門的な観点から事前収集されたデータベースに格納することは望ましくないが、新規画像は「学習」データベースにとっては必要である。それにも拘らず、次のステップ62では、トランザクション(または、上に説明した個別アイテム)に、「疑わしくない」というフラグを立てる。   If in step 60 it is found that the images actually match, the transaction is considered suspicious. The actual item image or image group 44 can be loaded into the item image group database as required (step 50). For example, it is not desirable to store new images in a pre-collected database from a professional point of view, but new images are necessary for a “learning” database. Nevertheless, in the next step 62, the transaction (or the individual item described above) is flagged as “not suspicious”.

このようにして、トランザクションモニタ32は、トランザクションエリア内で検出されるアイテムの画像認識を自動ビデオ分析を使用して行なって、アイテムのビデオ識別情報を生成する。この操作を行なうために、トランザクションモニタ32は、トランザクションエリア内で検出されるアイテムの予測アイテム識別情報を特定することにより、少なくとも一つのトランザクションパラメータを取得する。次に、トランザクションモニタ32は、アイテムのビデオ識別情報をアイテムの予測識別情報と比較することにより、ビデオパラメータをトランザクションパラメータと自動的に比較する。ビデオ識別情報が予測識別情報と異なる場合、トランザクションモニタ32は、不審挙動を表わすトランザクション結果を通知する。   In this manner, the transaction monitor 32 performs image recognition of items detected within the transaction area using automatic video analysis to generate video identification information for the items. In order to perform this operation, the transaction monitor 32 acquires at least one transaction parameter by specifying predicted item identification information of items detected in the transaction area. The transaction monitor 32 then automatically compares the video parameter with the transaction parameter by comparing the item's video identification information with the item's predicted identification information. If the video identification information is different from the predicted identification information, the transaction monitor 32 notifies a transaction result indicating suspicious behavior.

上述したように、トランザクションに含まれるアイテムは特定の注目領域内で、または複数の注目領域302の組み合わせた領域内でカウントすることができる。注目領域は、トランザクションのアイテムが収容される全てのエリアを含むことができる。スーパーマーケットという通常の小売形態では、例えば注目領域はショッピングカート302−N、顧客領域302−5、搬入コンベヤベルト領域302−1(すなわち、オブジェクト搬入エリアまたは領域)、スキャンエリア302−2、及び搬出コンベヤベルトエリア302−3または袋詰めエリア(すなわち、オブジェクト搬出エリア)、及びオペレータエリア302−4を含むことができる。   As described above, items included in a transaction can be counted within a specific region of interest or within a combination of regions of interest 302. A region of interest may include all areas in which transaction items are accommodated. In a normal retail form of a supermarket, for example, the area of interest is a shopping cart 302-N, a customer area 302-5, a carry-in conveyor belt area 302-1 (ie, an object carry-in area or area), a scan area 302-2, and a carry-out conveyor. A belt area 302-3 or a bagging area (ie, an object carry-out area), and an operator area 302-4 can be included.

オペレータは注目領域ごとに変わり得る。例えば、スーパーマーケット形態では、アイテムが、カート311から搬入コンベヤベルトエリア302−1への移し替えのときにカウントされている場合、移し替えを行なっている顧客305がオペレータであると考えることができる。同様に、レジのオペレータ308がアイテムをトランザクション端末34でスキャンしている場合、レジ係308がオペレータであると考えることができる。   The operator can change for each region of interest. For example, in the supermarket form, if the item is counted at the time of transfer from the cart 311 to the carry-in conveyor belt area 302-1, the customer 305 performing the transfer can be considered as an operator. Similarly, if the cashier operator 308 is scanning items at the transaction terminal 34, the cashier 308 can be considered an operator.

上述したように、或る構成では、これらの注目領域302に跨って行なわれるカウントを組み合わせて考えて、更に確実なカウント方法を提供する。例えば、一つの構成における持ち込まれるアイテムの搬入エリア302−1、スキャナまたはアイテム読み取りエリア302−2、及び袋詰めまたは他のアイテム搬出エリア302−3に跨って行なわれる検出の回数を比較して、これらの回数が一致するかどうかを調査する。これらの回数が一致しない場合、検出の平均回数を使用することができる。同様にして、カウントまたは検出イベントの順番を考慮に入れることもできる。例えば、正確にカウントされる各アイテムはまず、搬入エリアでアイテム移送イベントとしてカウントされ、次にスキャナでスキャンイベントとしてカウントされ、次に再び、袋詰めエリアでアイテム搬入イベントとしてカウントされる(各イベントまたはカウントは、ビデオデータ320の対応する注目領域を分析する検出器によって検出され、そして生成される)。   As described above, in a certain configuration, a more reliable counting method is provided by combining the counts performed over these attention regions 302. For example, by comparing the number of detections performed across the carry-in area 302-1 of items brought in in one configuration, the scanner or item reading area 302-2, and the bagging or other item carry-out area 302-3, Investigate whether these times match. If these numbers do not match, the average number of detections can be used. Similarly, the order of counting or detection events can be taken into account. For example, each item that is accurately counted is first counted as an item transfer event in the carry-in area, then counted as a scan event in the scanner, and then again counted as an item carry-in event in the bagging area (each event Or the count is detected and generated by a detector that analyzes the corresponding region of interest in the video data 320).

別の構成では、アイテムのカウントは或るエリアにおいて、オペレータがオブジェクトをベルトまたはオブジェクト搬入エリア302−1から移送させるときのオブジェクト移送イベントのような或るタイプのイベント、それに続く、オペレータがオブジェクトをオブジェクト搬出エリア302−3または下流のコンベヤベルトに持ち込む搬入イベントのような別のタイプのイベントの順番またはパターンとして観察される。従って、移送イベント(オペレータがオブジェクトをスキャンのために拾い上げ、当該オブジェクトをオブジェクト搬入エリアから移送する)の後に搬入イベント(オペレータがアイテムを搬出ベルトまたはオブジェクト搬出エリアに降ろす)が続く事象は、システムが一つのビデオカウントであるとして観察する、または解釈する。   In another configuration, the item count is in one area, such as an object transfer event when the operator transfers an object from the belt or object carry-in area 302-1, followed by the operator Observed as an order or pattern of another type of event, such as a carry-in event brought into the object carry-out area 302-3 or downstream conveyor belt. Therefore, the event that the transport event (the operator picks up the object for scanning and transports the object from the object carry-in area) followed by the carry-in event (the operator drops the item to the carry-out belt or the object carry-out area) Observe or interpret as one video count.

カウントが、シーケンスの一つのステージまたはエリア302においてのみ登録されるが(例えば、エリア302−1でのアイテムイベント検出)、他の1つ、または2つのエリアでは登録されない(エリア302−3及び/又は302−2では検出されない)場合、当該一つのカウントまたはイベントはエラーと見なすことができる、そして/または「疑わしい」という表記を付すことができる。例えば、ビデオデータが分析され、そしてスキャンデータまたはトランザクションデータが分析される場合、システムは、どのスキャン検出イベント(すなわち、トランザクションイベント)またはスキャンカウントが、どのビデオカウントと一致するかについて判断することができる(例えば、2つのエリアを分析する場合には、ビデオカウントは、例えばアイテム移送イベントにアイテム搬入イベントが続く事象に対して行なわれる、またはアイテム搬入エリア302−1のような単一エリアのみを分析する場合には、ビデオカウントまたはイベントは、ビデオ分析によって検出されるように、アイテム307を当該エリア302−1から移送する単一の移送イベントとすることができる)。このような場合においては、スキャンカウントまたはイベントがイベントのビデオカウントと一対一で一致する場合、明らかな不正挙動は全くなく、かつ更に調査するためにトランザクションにフラグを立てることはしない、または表記を付すことはしない。しかしながら、ビデオデータをスキャンデータと時間同期させた(このような時間同期は、ビデオデータがトランザクションデータまたはスキャンデータと同時に収集される場合のデータ収集プロセスにおける固有の処理とすることができる、または事後処理において、スキャンのタイムスタンプを検出イベントのビデオフレームまたはパターンとアルゴリズム比較することにより行なうことができる)後に、移送イベントの後に搬入イベントが続き(第1オブジェクトに関して、アイテムがトランザクションデータに含まれていることを特定するスキャンイベントまたはトランザクションイベントが無い)、別の移送イベント(第2オブジェクトに関する)が続く事象のようなパターンが検出される場合、トランザクションに、不正である可能性がある、または疑わしい可能性があるという表記を付すことができる。一つの構成では、トランザクションモニタ32はビデオデータの分析に基づくイベントのビデオタイムスタンプを、トランザクションデータにおいて取引されているとして表わされるアイテムのトランザクションタイムスタンプに関連付けて、対応するレコードをトランザクションデータに持たないビデオデータのアイテムを示すイベントを特定するので、不審挙動を通知することができる。   The count is registered only in one stage or area 302 of the sequence (eg, item event detection in area 302-1) but not in the other one or two areas (area 302-3 and / or). Or if it is not detected in 302-2), the single count or event can be considered an error and / or can be labeled "suspicious". For example, if video data is analyzed and scan data or transaction data is analyzed, the system may determine which scan detection event (ie, transaction event) or scan count matches which video count. (E.g., when analyzing two areas, the video count may be performed for an event that an item transfer event is followed by an item load event, or only a single area, such as the item load area 302-1). In the case of analysis, the video count or event may be a single transport event that transports the item 307 from the area 302-1 as detected by video analysis). In such cases, if the scan count or event matches the event's video count on a one-to-one basis, there is no obvious fraudulent behavior and the transaction is not flagged for further investigation, or the notation Do not attach. However, the video data is time-synchronized with the scan data (such time synchronization can be an inherent process in the data collection process when the video data is collected simultaneously with the transaction data or the scan data, or In processing, the scan time stamp can be algorithmically compared with the video frame or pattern of the detection event) followed by the transport event followed by the carry event (for the first object, the item is included in the transaction data) Is invalid for a transaction if a pattern is detected, such as an event followed by another transport event (for the second object) It can be subjected notation that there is potential, or is suspected possible. In one configuration, the transaction monitor 32 associates the video timestamp of the event based on the analysis of the video data with the transaction timestamp of the item represented as being traded in the transaction data, and does not have a corresponding record in the transaction data. Since an event indicating an item of video data is specified, a suspicious behavior can be notified.

個々に使用することができる、または互いに組み合わせて使用することができる多数の方法があり、これらの方法によって、ビデオ分析を実行してアイテムカウントまたは検出イベントを一つ以上の注目領域302の内部に特定することができる。   There are a number of methods that can be used individually or in combination with each other, by which video analysis can be performed to place item counts or detection events within one or more regions of interest 302. Can be identified.

本発明に関するこのような処理方法の一つでは、現時点で注目領域に含まれているアイテムをカウントする。現時点で注目領域に含まれているアイテムをカウントする一つの方法では、注目領域の静止画像に観察することができるアイテムをカウントする。この操作では、個々のアイテムをセグメント化して個々のアイテムの存在の曖昧さを十分に無くすことができると考えているので、このアプローチは、アイテムが連なっている、または重なり合っている場合には特に実行することが難しくなる。スーパーマーケット形態または他の小売店形態では、例えば移動しているコンベヤベルトにゆっくりと一つずつ載置される少数のアイテムは実際にはベルトの上で散乱するので、これらのアイテムは互いに触れ合う、または重なり合うことはない。このような場合には、アイテムをベルトを背景としてベルトの静止画像からカウントすることによって、トランザクションにおけるアイテムの正確な個数を求めることができる。しかしながら、多数のアイテムがベルトに載っている場合、アイテムがベルトの端で互いに積み重なり始める恐れがある。これらのアイテムが積み重なると、ビデオ分析による特定アイテムのセグメント化は非常に難しくなり、静止画像の分析によってベルトに載っているアイテムのカウントに関して信憑性の低い結果が得られる。   In one such processing method according to the present invention, the items currently included in the attention area are counted. One method of counting items currently included in the attention area counts items that can be observed in the still image of the attention area. Because this operation considers that individual items can be segmented to sufficiently eliminate the ambiguity of the existence of individual items, this approach is especially useful when items are connected or overlapped. It becomes difficult to execute. In a supermarket form or other retail form, for example, a few items that are slowly placed one by one on a moving conveyor belt are actually scattered on the belt, so these items touch each other, or There is no overlap. In such a case, the exact number of items in the transaction can be determined by counting the items from the still image of the belt against the background of the belt. However, if a large number of items are on the belt, the items may begin to stack on each other at the end of the belt. When these items are stacked, segmentation of specific items by video analysis becomes very difficult, and still image analysis yields less reliable results regarding the count of items on the belt.

別の構成では、トランザクションモニタ32は周期的挙動をカウントすることができる。注目領域内での周期的挙動はアイテムの搬入、移送、またはすり抜けを示すことができる。挙動指標(activity measures)は、領域におけるモーションの単なる検出及び測定を含む。「トリップワイヤ(tripwire:仕掛け線:地雷など爆発物関連で敵が触れば自動的に爆発するように仕掛けた細い鉄線)」(すなわち、注目領域のエッジに沿ったモーションを観察する)では、注目領域への進入方向を考慮に入れることができる。スーパーマーケット形態では、例えば搬入ベルトエリアの顧客に面する側に沿った仕掛けを使用して、顧客が入って来て新規アイテムをアイテム搬入エリア302−1のベルトに持ち込むたびにカウントを行なうことができる。   In another configuration, the transaction monitor 32 can count periodic behavior. Periodic behavior within the region of interest can indicate the loading, transfer, or slipping of items. Activity measures include simple detection and measurement of motion in a region. In “tripwire: device line: a thin iron wire that automatically explodes when touched by an enemy in relation to explosives such as landmines” (ie, observe the motion along the edge of the region of interest) The direction of entry into the area can be taken into account. In the supermarket form, for example, a device along the customer facing side of the carry-in belt area can be used to count each time a customer comes in and brings a new item into the belt in the item carry-in area 302-1. .

2つ以上のトリップワイヤを設置し、そして使用して、アイテムのモーションが一方の側の注目領域から横切って他方の側の注目領域に向かって発生していると判断することができる。スーパーマーケットの精算レジのスキャナエリア302−2の近傍では、例えばスキャナ領域の両側の2つのトリップワイヤは、これらのトリップワイヤが作動する順番によって変わる特定方向のモーションを検出することができる。   Two or more trip wires may be installed and used to determine that item motion is occurring across the region of interest on one side and toward the region of interest on the other side. In the vicinity of the scanner area 302-2 of the supermarket checkout register, for example, two trip wires on either side of the scanner area can detect motion in a specific direction that varies depending on the order in which these trip wires are activated.

トリップワイヤを使用する別の方法では、大面積の注目領域全体に一連のトリップワイヤを仕掛けて(注目モーションの方向に直交する)、一方の側から他方の側へのモーションの進行を検出する。スーパーマーケット形態では、このような一連のトリップワイヤを使用して、オブジェクトが一つの手から別の手にスキャナ領域の上を越えて引き渡されるときでも、搬入エリアから袋詰めエリアへのオブジェクトの順方向進行を検出することができる。   Another way to use trip wires is to place a series of trip wires over a large area of interest (perpendicular to the direction of the motion of interest) and detect the progress of motion from one side to the other. In the supermarket form, using such a series of trip wires, the forward direction of the object from the carry-in area to the bagging area even when the object is handed over the scanner area from one hand to another. Progress can be detected.

オペレータオブジェクト(すなわち、ビデオデータ320のうち、オペレータ308を含む部分)を画像から特定することができる場合、カウントは、オペレータオブジェクト自体(例えば、彼または彼女の腕または手)が領域に入り、そして出て行くときにのみインクリメントすることができる。皮膚検出を使用することにより、そして/またはオペレータオブジェクト308の四肢を特定することにより、検出器は、オペレータの手が注目領域(例えば、302−1)に入った場合にのみアイテム検出またはカウントを開始するように更に正確に動作することができる。オペレータオブジェクト(すなわち、彼または彼女の手)の端部が、オブジェクトのカラーヒストグラムの一部分として、オブジェクト固有のカラー以外のカラーを持つ場合、手が注目領域にアイテムと一緒に入って来る、または出て行く可能性が高いと見なすことができる。   If an operator object (ie, the portion of video data 320 that includes operator 308) can be identified from the image, the count is that the operator object itself (eg, his or her arm or hand) enters the area, and Can only be incremented when going out. By using skin detection and / or identifying the limbs of the operator object 308, the detector can detect or count items only when the operator's hand enters the area of interest (eg, 302-1). It can operate more accurately to start. If the edge of an operator object (i.e. his or her hand) has a color other than the object's unique color as part of the object's color histogram, the hand enters or leaves the item in the area of interest. Can be viewed as likely.

図3Bは、注目領域における挙動を検出してアイテムの存在を通知する一つの方法を示している。ビデオソース430からの画像に基づいて、ステップ432では、オブジェクトを識別し、そしてオブジェクトマップを生成する。ステップ434では、関連付けフィルタリング(例えば、皮膚検出、皮膚+オブジェクトカラーヒストグラムなど)を行なって、注目オブジェクトまたは注目挙動のみが考察対象になっていることを確認する。例えば、小売店環境のビデオ画像では、オペレータはスキャナエリアを通り過ぎてトランザクション端末のタッチスクリーンを操作する。注目領域におけるこのような挙動はアイテムの存在を示唆しないので、オペレータオブジェクトがビデオ画像の中のタッチスクリーンのグラフィカル領域と連結される事例を取り除くことにより無視することができる。ステップ436では、現時点のオブジェクトマップを画像の中の時間変化モーションのモーションマップに取り込む。次に、ステップ442では、モーションマップを分析して、注目領域(ステップ440)に関連するモーション方向(ステップ438)のモーションを特定する。ステップ444において、モーションが注目領域を横切って完全に終了したと判断される場合、このモーションはビデオ検出イベントとしてステップ446で記録される。ステップ448においてビデオが更に残っていると判断される場合、ステップ450において次のビデオフレームに進み、そしてステップ432から処理を継続する。ステップ448において、ビデオが更に残っていると判断されない場合、ビデオ検出イベントのレコードをステップ452において返す。例えば、注目方向がアイテム搬入エリアからアイテム搬出エリアに向かって、スキャナ領域としての注目領域を横切って向いている場合、トランザクションモニタ32はスキャナ領域を、アイテムがトランザクションに含まれていることを示唆する挙動に関して観察することができる。   FIG. 3B shows one method for detecting the behavior in the region of interest and notifying the presence of the item. Based on the image from video source 430, step 432 identifies the object and generates an object map. In step 434, association filtering (eg, skin detection, skin + object color histogram, etc.) is performed to confirm that only the object of interest or behavior of interest is being considered. For example, in a video image of a retail store environment, the operator operates the touch screen of the transaction terminal past the scanner area. Since such behavior in the region of interest does not suggest the presence of an item, it can be ignored by removing the case where the operator object is connected to the graphical area of the touch screen in the video image. In step 436, the current object map is taken into the motion map of the time-varying motion in the image. Next, in step 442, the motion map is analyzed to identify the motion in the motion direction (step 438) associated with the region of interest (step 440). If it is determined in step 444 that the motion has completely completed across the area of interest, this motion is recorded in step 446 as a video detection event. If it is determined at step 448 that more video remains, the process proceeds to the next video frame at step 450 and processing continues at step 432. If it is not determined at step 448 that more video remains, a record of video detection events is returned at step 452. For example, if the attention direction is directed from the item carry-in area to the item carry-out area and across the attention area as the scanner area, the transaction monitor 32 indicates the scanner area and the item is included in the transaction. Observe the behavior.

更に別の構成では、トランザクションモニタ32は、アイテムまたはオペレータオブジェクト、または顧客オブジェクトである可能性のあるオブジェクトの侵入または退去をカウントすることができる。一つの構成において、オブジェクトが一つ以上の注目領域302に新たに侵入する、または注目領域から退去する事象は、アイテム検出またはカウント変化を示唆する。例えば、スーパーマーケット形態では、或るアイテムが搬入コンベヤベルトから移送される場合、または或るアイテムが袋詰めエリアに持ち込まれる場合(または、組み合わせが可能であるとすると、両方の場合)、当該事象は更に別のアイテムがトランザクションに含まれることを示唆する。   In yet another configuration, the transaction monitor 32 may count intrusions or exits of objects that may be items or operator objects, or customer objects. In one configuration, an event where an object newly enters or leaves one or more areas of interest 302 suggests item detection or a count change. For example, in a supermarket configuration, when an item is transferred from a carry-on conveyor belt, or when an item is brought into a bagging area (or in both cases where a combination is possible), the event is It suggests that another item is included in the transaction.

侵入または退去を検出する一つの方法では、注目領域におけるカラーヒストグラム変化を検出する。更に別のオブジェクト(例えば、アイテムまたはオペレータオブジェクト)の侵入または退去を検出する別の方法では、オブジェクトの出現または消滅を検出する。ここに説明するこのような画像検出アルゴリズムは、継続的に静止オブジェクトを、オブジェクトセグメント化に使用される背景画像に取り込む。新規オブジェクトが画像に付加される場合、当該オブジェクトは唯一のオブジェクトとして最前面に現われる。同様に、オブジェクトを取り除くと、当該オブジェクトの部分に「ゴースト」(すなわち、オブジェクトが1度占拠していた画像箇所の変更の結果)が残り、このゴーストが同じようにしてオブジェクトとして最前面に現われることになる。いずれの場合においても、オブジェクトは続いてカウントされ、その後、背景に組み込まれて次のアイテムをカウントするための準備が整う。   One method of detecting intrusion or exit detects color histogram changes in the region of interest. Yet another method of detecting the entry or exit of another object (eg, item or operator object) detects the appearance or disappearance of the object. Such an image detection algorithm described herein continuously captures still objects into the background image used for object segmentation. When a new object is added to the image, it appears as the only object in the foreground. Similarly, when an object is removed, a “ghost” (that is, the result of a change in the image location that the object once occupied) remains in the part of the object, and this ghost appears in the foreground in the same way. It will be. In either case, the object is subsequently counted and then incorporated into the background and ready for counting the next item.

この方法の一つの利点は、当該方法によってアイテム画像を切り出す操作が極めて容易になることである。アイテムのようなオブジェクトが持ち込まれる場合、当該アイテムの画像を切り出しアイテム画像として切り抜くことができる。アイテムを移送させる(すなわち、ゴーストオブジェクトが現われる)場合、当該アイテムの画像は、「移送」に先行するフレームから切り抜くことができる。上記種類の方法における非常に困難な一つの課題は、オペレータの腕自体がオブジェクトとして注目領域に現われることである。本発明に関する2つの構成例では、この課題を、オペレータの腕を無視することにより処理する、または当該領域に腕が無い画像のみを使用する。   One advantage of this method is that it is very easy to cut out item images. When an object such as an item is brought in, an image of the item can be cut out as a cut-out item image. When an item is transferred (ie, a ghost object appears), the image of the item can be clipped from the frame preceding the “transfer”. One very difficult problem with the above type of method is that the arm of the operator itself appears in the region of interest as an object. In the two configuration examples according to the present invention, this problem is dealt with by ignoring the arm of the operator, or only an image having no arm in the area is used.

腕オブジェクトを無視するために、当該オブジェクトを最初に特定する。この操作は、ビデオデータに含まれるオブジェクトの全てをチェックして、どのオブジェクトが、注目領域302−1の外側のオペレータエリア302−4に位置する大きなオペレータオブジェクト308から延び出しているかについて、または注目領域302−1の中にまで延び出しているかについて調査することにより行なうことができる。従って、このオブジェクトはオペレータ308の腕であると推定することができる。皮膚検出も行なって、オブジェクトが実際に腕及び/又は手であることを更に確認することができる。次に、腕オブジェクトを注目領域のオブジェクトマップから取り除いて、持ち込まれている、または移送されている商品アイテム307のみを残す。写真に腕が無い画像のみを使用するために、トリップワイヤを、オペレータ308に最も近い注目領域のエッジに沿って使用して、いずれかのオブジェクトがトリップワイヤを横切っているかどうかを調査することができる。オブジェクトがトリップワイヤを、特定のビデオフレームの中で横切っていない場合、これは、腕が当該フレームの注目領域302−1に含まれていないことを示唆する。この論理を利用し、腕の侵入及び退去の前後のフレームを切り出してアイテムの存在を判断することができる。次に、これらのフレームを比較して、アイテム搬入またはアイテム移送を特定することができる。   In order to ignore the arm object, the object is first identified. This operation checks all of the objects contained in the video data to determine which objects extend from the large operator object 308 located in the operator area 302-4 outside the attention area 302-1 or attention. This can be done by investigating whether it extends into region 302-1. Therefore, it can be estimated that this object is the arm of the operator 308. Skin detection can also be performed to further confirm that the object is actually an arm and / or hand. Next, the arm object is removed from the object map of the region of interest, leaving only the merchandise item 307 being brought in or transported. To use only images with no arms in the photo, a trip wire can be used along the edge of the region of interest closest to the operator 308 to investigate whether any objects are crossing the trip wire. it can. If the object does not cross the trip wire in a particular video frame, this suggests that the arm is not included in the region of interest 302-1 of that frame. Using this logic, it is possible to determine the presence of an item by cutting out the frames before and after the arm intrusion and withdrawal. These frames can then be compared to identify item delivery or item transfer.

以上の説明から、トランザクションモニタ32は、注目領域内で取引(例えば購入)されているアイテム307の存在を示唆する、トランザクションエリアの注目領域(例えば、302−1)の内部でのオペレータ308のモーションを特定することができることが分かる。トランザクションモニタ32は、アイテムのレコードが、オペレータのモーションを特定する操作に対応するトランザクションデータの中に含まれているかどうかを通知することができ、そしてトランザクションエリアの注目領域302−1の内部でのオペレータのモーションが、取引されているアイテム307の存在を示唆しているが、アイテムのレコードがトランザクションデータの中には含まれていない状況を自動的に特定することができる。これに従って、トランザクションモニタ32は不審挙動を通知することができる。   From the above description, the transaction monitor 32 indicates that the motion of the operator 308 within the attention area (eg, 302-1) of the transaction area, suggesting the presence of an item 307 traded (eg, purchased) within the attention area. It can be seen that can be specified. The transaction monitor 32 can notify whether the record of the item is included in the transaction data corresponding to the operation that identifies the operator's motion, and within the attention area 302-1 of the transaction area. Although the operator's motion suggests the presence of the item 307 being traded, it is possible to automatically identify situations where the record of the item is not included in the transaction data. Accordingly, the transaction monitor 32 can notify the suspicious behavior.

上に述べたように、レジ係308(または、図1の環境300がセルフチェックアウト端末34である場合の顧客305)のようなオペレータのモデル化を利用して、トランザクションに含まれる各アイテム307のハンドリングに関連するモーションを識別することができる。上から下を眺めたときのスーパーマーケット形態では、例えばオペレータを、2本の腕が胴体から延び出すトルソー(胴体彫像)としてモデル化することができる。オペレータのトルソーは、その位置によってトランザクション端末34に存在するとして識別することができる。従って、腕はトルソーから延び出して速く動く2本の四肢として識別することができる。次に、アイテム307のハンドリングは、一方の手を搬入ベルトエリアまたはアイテム搬入エリア302−1に延ばし、続いてアイテムを一方の手から、スキャナ領域またはエリア302−2の近傍の他方の手に渡して2つの手を合わせ、次に、他方の手を袋詰めエリアまたはアイテム搬出エリア302−3に向けて延ばす挙動としてモデル化することができる。   As noted above, each item 307 included in the transaction is utilized using operator modeling such as cashier 308 (or customer 305 when environment 300 of FIG. 1 is self-checkout terminal 34). The motion associated with the handling of can be identified. In a supermarket configuration when looking down from above, for example, the operator can be modeled as a torso (torso statue) with two arms extending from the torso. The operator's torso can be identified as present at the transaction terminal 34 by its location. Thus, the arm can be identified as two limbs that extend from the torso and move quickly. Next, handling of the item 307 extends one hand to the carry-in belt area or the item carry-in area 302-1 and then passes the item from one hand to the other hand in the vicinity of the scanner area or area 302-2. The two hands can then be combined and then modeled as a behavior in which the other hand extends towards the bagging area or item carry-out area 302-3.

上に述べたように、単一の注目領域を一つのアイテムカウント法でモニタリングすることができる、または複数のカウント法を一つの注目領域302において使用して、当該領域302におけるアイテムのカウントを行なうことができる。同様に、複数の注目領域から得られるカウント及びカウントシーケンスを組み合わせて使用して、更に正確なカウントをトランザクション全体に対して行なうことができる。   As noted above, a single region of interest can be monitored with a single item counting method, or multiple counting methods can be used in a single region of interest 302 to count items in that region 302. be able to. Similarly, a more accurate count can be performed on the entire transaction using a combination of counts and count sequences obtained from multiple regions of interest.

図4は、トランザクションモニタ32が、一つの構成において、トランザクションに含まれるアイテムのカウントを、ビデオデータ320の分析結果を使用して行なう処理を示している。アイテムの存在をカウントする一つの方法では、オペレータがアイテムを注目領域から移送させる操作、またはオペレータがアイテムを注目領域に搬入する操作をカウントする。例えば、オペレータがアイテムを手から放して、袋詰めエリアのような注目領域内に置くときには必ず、当該アイテムが袋詰めエリアに搬入されている商品アイテムであると無難に推定することができる。それとは反対に、アイテムの移送をカウントする一つの方法では、アイテムがアイテム搬入エリア302−1から移送される操作をカウントする。   FIG. 4 shows a process in which the transaction monitor 32 uses the analysis result of the video data 320 to count the items included in the transaction in one configuration. In one method of counting the presence of an item, an operation in which the operator moves the item from the attention area or an operation in which the operator carries the item into the attention area is counted. For example, whenever an operator releases an item and places it in a region of interest such as a bagging area, it can be safely estimated that the item is a merchandise item carried into the bagging area. On the other hand, one method of counting the transfer of items counts the operations in which items are transferred from the item carry-in area 302-1.

図4では、ビデオソース70が或るビデオフレームを出力すると、第1ステップ72では、オブジェクトを当該画像内に特定する。この操作を通常行なう一つの方法では、現フレームを背景モデルと比較して、画像の中の最前面要素またはアイテムを抽出する。次のステップ74では、オペレータオブジェクト(すなわち、ビデオフレーム内のオペレータ308の外形)を切り出す。この操作を行なうための一つの方法では、オペレータ308が居る可能性の高い場所に関するアプリオリな情報を使用する。例えば、オペレータ308がオペレータエリア302−4のような特定の区画域に立っていることが分かっている場合、当該エリアにおける最も大きな移動オブジェクトはオペレータ308であると推定することができる。ビデオデータの中のオペレータオブジェクトを特定し、そして切り出すための別の方法では、オペレータが、例えば袋詰めエリアの内部にまで移動して別のアイテム307を載置するときに、オペレータオブジェクトが注目領域302−3の境界のエッジを横切って移動する様子を特定する。   In FIG. 4, when the video source 70 outputs a video frame, a first step 72 identifies the object in the image. One way to normally do this is to compare the current frame with the background model and extract the foreground element or item in the image. In the next step 74, an operator object (ie, the outline of the operator 308 in the video frame) is cut out. One method for performing this operation uses a priori information regarding the location where the operator 308 is likely to be. For example, if it is known that the operator 308 is standing in a specific area such as the operator area 302-4, it can be estimated that the largest moving object in the area is the operator 308. Another method for identifying and clipping an operator object in video data is that the operator object moves into the bagging area and places another item 307, for example when the operator object is in a region of interest. A state of moving across the boundary edge of 302-3 is specified.

次のステップ76では、注目領域内のオペレータオブジェクト及びアイテム(または、以下に説明するようなオブジェクトのゴースト)が互いに図式的に分離される場合のような、図式上での搬入イベントまたは移送イベントをチェックする。移送イベントは、オペレータがアイテム搬入エリア302−1のアイテムを拾い上げたことを示唆する。ステップ78において移送が行なわれた場合、カウントをステップ80でインクリメントする。ステップ82においてビデオが更に残っている場合、処理はステップ84において次のビデオフレームに進み、そしてループが再度、ステップ72から継続する。トランザクションのビデオが終了すると、カウントをステップ86において返す。アイテムごとの処理を行なう場合、オブジェクトをアイテム搬入エリア302−1から移送する(または、アイテムをアイテム搬出エリア302−3に搬入する)たびに、対応する移送(または搬入)イベントが生成され、このイベントはトランザクションデータに関連付けることができる(または、複数の注目領域を使用する場合には、イベントペアを関連付けることができる)。   In the next step 76, a graphical import or transfer event is performed, such as when operator objects and items (or object ghosts as described below) in the region of interest are graphically separated from each other. To check. The transfer event suggests that the operator has picked up an item in the item carry-in area 302-1. If a transfer is made at step 78, the count is incremented at step 80. If more video remains in step 82, processing proceeds to the next video frame in step 84 and the loop continues again from step 72. When the transaction video ends, the count is returned in step 86. When processing for each item is performed, each time an object is transferred from the item carry-in area 302-1 (or an item is carried into the item carry-out area 302-3), a corresponding transfer (or carry-in) event is generated. Events can be associated with transaction data (or event pairs can be associated if multiple regions of interest are used).

図5は、トランザクションモニタ32が実行することができる処理の一つの方法を示し、この処理によって、オブジェクト移送イベント及びオブジェクト搬入イベントの検出が可能になる。図5では、現在の画像90及び更新済み背景画像92がステップ94によって入力として取り込まれ、ステップ94では、これらの画像を比較して(サブトラクション処理及び閾値処理により)バイナリオブジェクトマップ96を生成する。このオブジェクトマップは、更新済み背景の一部分ではない、いずれかの新規オブジェクト(すなわち、アイテム)だけでなく、これも更新済み背景の一部分ではないオペレータオブジェクトを画像の中に含むことができる。次のステップ98では、現在のオペレータオブジェクト100をオブジェクトマップから切り出す。レジのオペレータ308が金銭登録機の前の区画空間(例えば、領域302−4)に立っているスーパーマーケット形態では、オペレータオブジェクトの切り出しは、一つの構成では、当該空間内で立っている最も大きい移動オブジェクトを見付け出すことにより行なわれる(別の構成では、オペレータオブジェクトの切り出しは、オペレータが触れる可能性のある小さい「タグ」領域に重なるオブジェクトを見付け出すことにより行なうこともできる)。このオブジェクトはオペレータオブジェクトであると考えられる。   FIG. 5 illustrates one method of processing that can be performed by the transaction monitor 32, which enables detection of object transfer events and object carry-in events. In FIG. 5, the current image 90 and the updated background image 92 are captured as inputs by step 94, and these images are compared (by subtraction processing and threshold processing) to generate a binary object map 96. This object map can include operator objects in the image that are not part of the updated background, as well as any new objects (ie, items) that are not part of the updated background. In the next step 98, the current operator object 100 is cut out from the object map. In a supermarket configuration in which the cashier operator 308 stands in the compartment space (eg, area 302-4) in front of the cash register, the cutout of the operator object is the largest movement that stands in that space in one configuration. (In another configuration, the operator object can be cut out by finding an object that overlaps a small “tag” area that the operator may touch). This object is considered to be an operator object.

ステップ104では、現在のオペレータオブジェクト100及び前のオペレータオブジェクト102を使用して直接注目領域106を定義する。前のオペレータオブジェクトが重ならない領域は、直接注目領域を次の理由により構成する。或るアイテムをオペレータ308が前のビデオデータフレームの中で保持しているとすると、当該アイテムは前のオペレータオブジェクトの一部分であったことになる。従って、当該アイテムが現フレームの中では手放されているとすると、当該アイテムは前のオペレータオブジェクトのエリアのどこかに残っていたことになる。また、当該アイテムが手放されてしまっているので、当該アイテムは現在のオペレータオブジェクトの一部分とはならない。従って、或るアイテムが前のフレーム以降に手放されたとすると、当該アイテムのオブジェクトは、前のオペレータオブジェクトの或る領域に現われていることになり、当該領域は現在のオペレータオブジェクトとは重ならない。同じように、或るアイテムが前のフレームの中で拾い上げられていたとすると、このフレームの中の当該アイテムのゴースト(すなわち、アイテムが背景層から取り除かれたアイテム欠落部分)が、上に説明した同じ直接注目領域に現われる。   In step 104, the region of interest 106 is directly defined using the current operator object 100 and the previous operator object 102. In the area where the previous operator object does not overlap, the direct attention area is configured for the following reason. If an item is held by the operator 308 in the previous video data frame, the item was a part of the previous operator object. Therefore, if the item has been released in the current frame, the item remains somewhere in the area of the previous operator object. Also, since the item has been released, the item is not part of the current operator object. Therefore, if a certain item is released after the previous frame, the object of the item appears in a certain area of the previous operator object, and the area does not overlap with the current operator object. Similarly, if an item was picked up in the previous frame, the ghost of that item in this frame (ie, the missing item where the item was removed from the background layer) was explained above. Appear in the same direct attention area.

次のステップ110では、オブジェクトマップ96をチェックして、新規オブジェクト(すなわち、アイテム)が、またはオブジェクト(すなわち、アイテム)のゴーストが直接注目領域106に現われていたかどうかを調査する。現われていなかった場合、次のステップ120では、オペレータオブジェクトの外側の全ての領域を背景の更新に取り込んで、次のフレームに使用する。最後に、移送/搬入が発生しない値を返す。   In the next step 110, the object map 96 is checked to determine whether a new object (ie, item) or an object (ie, item) ghost appeared directly in the area of interest 106. If not, in the next step 120, all areas outside the operator object are taken into the background update and used for the next frame. Finally, return a value that does not cause transfer / loading.

ステップ110において実際に新規オブジェクトが直接注目領域に現われる場合、次のステップ112では、当該オブジェクト(すなわち、アイテム)画像を切り出す、すなわち当該画像を現フレームからコピーする。オブジェクトの移送(ゴーストの部分の切り出し)が検出されている場合、画像は、アイテムが拾い上げられたときの前フレームの前のフレームから取り出す。   If a new object actually appears directly in the region of interest in step 110, in the next step 112, the object (ie, item) image is cut out, that is, the image is copied from the current frame. If object transfer (cutting out a ghost portion) is detected, the image is taken from the frame before the previous frame when the item was picked up.

次のステップ114では、実際のアイテムの切り出し画像を予測オブジェクト群から成るデータベース(例えば、アイテム群にこれらのアイテムの写真を加えたデータベース)と比較する。これは、上に説明したアイテム識別間違い検出方法の一部分である。次に、オブジェクト画像を背景の更新に取り込んで次のフレームに使用する。ここでも同じように、次のステップ116では、移送オブジェクトまたは搬入オブジェクトを含むオペレータオブジェクトの外側に在る全ての領域を背景の更新に取り込んで、次のフレームに使用する。最後に、移送(または、搬入)が発生しない値を返す。   In the next step 114, the cut-out image of the actual item is compared with a database made up of predicted object groups (for example, a database obtained by adding a photograph of these items to the item group). This is part of the item identification error detection method described above. Next, the object image is taken into the background update and used for the next frame. Again, in the next step 116, all the areas outside the operator object, including the transfer object or the carry-in object, are taken into the background update and used for the next frame. Finally, a value that does not cause a transfer (or carry-in) is returned.

図11は、ビデオデータフレーム501及びビデオデータフレーム502の例を示し、これらのフレームは、トランザクションエリア301がイベント検出前に現われ(ビデオデータフレーム501)、そしてイベント検出後に現われる(フレーム502)様子を示している。この例における検出イベントはたまたま搬入イベントであり、このイベントでは、オペレータ308がアイテム307(この例ではミルクジャグ)を載置している。各フレーム501及び502は4つの象限、すなわち右上、左上、及び右下、左下に分割される。各フレームの左上象限はビデオデータの原フレームを示しており、この場合、左下象限は、上に説明したように、上述の処理によって生成される更新済み背景画像を示している。各フレーム501及び502の右上象限はオペレータオブジェクト308を示し、そして右下象限は差分バイナリ画像またはマップを示している。   FIG. 11 shows an example of a video data frame 501 and a video data frame 502, which show how the transaction area 301 appears before event detection (video data frame 501) and after event detection (frame 502). Show. The detection event in this example happens to be a carry-in event, in which the operator 308 places an item 307 (milk jug in this example). Each frame 501 and 502 is divided into four quadrants: upper right, upper left, lower right, and lower left. The upper left quadrant of each frame indicates the original frame of the video data. In this case, the lower left quadrant indicates the updated background image generated by the above-described processing, as described above. The upper right quadrant of each frame 501 and 502 shows the operator object 308, and the lower right quadrant shows the difference binary image or map.

フレーム501の左上象限では、オペレータ308がアイテムをアイテム搬出エリア302−3に載置しているが、オペレータの手をアイテム307から未だ放していないことが分かる。フレーム502の対応する象限では、オペレータ308は当該時点で、アイテム307をアイテム搬出エリア302−3へ搬出することにより手放している。ここで、オペレータオブジェクト308を含むフレーム502の右上象限とは異なり、オペレータオブジェクトがアイテムをオペレータの手の中に含んでいると考えられる様子を示しているフレーム501の右上象限のオペレータオブジェクト308と、フレーム502の時点で分離されているアイテムオブジェクト307とは相違している。前述したビデオ分析によって、この差分を画像群の中に検出することができ、かつこの挙動をアイテム検出イベント、この場合はアイテム搬入イベントとして通知することができ、当該アイテムがトランザクションに含まれていることが明らかになる。このようにして、ビデオ分析では、トランザクションに含まれるアイテムを検出することができ、そして上に説明したように、トランザクションモニタ32はこの情報を、トランザクション端末34からのトランザクションデータとの比較に使用して、ビデオデータの中に検出される各アイテムが、対応するエントリ(例えば、スキャン、読み取り、アイテム識別情報、または価格)をトランザクションデータの中に持っていることを確認することができる。この対応するトランザクションデータがこのオブジェクトに関して存在しない場合には、トランザクションモニタ32は不審挙動を通知することができる。   In the upper left quadrant of the frame 501, it can be seen that the operator 308 has placed the item in the item carry-out area 302-3, but the operator's hand has not yet been released from the item 307. In the corresponding quadrant of the frame 502, the operator 308 has released the item 307 at that time by carrying it out to the item carrying-out area 302-3. Here, unlike the upper right quadrant of the frame 502 containing the operator object 308, the operator object 308 in the upper right quadrant of the frame 501 showing how the operator object is considered to contain items in the operator's hands; This is different from the item object 307 separated at the time of the frame 502. By the video analysis described above, this difference can be detected in the image group, and this behavior can be notified as an item detection event, in this case, an item carry-in event, and the item is included in the transaction. It becomes clear. In this way, video analysis can detect the items included in the transaction, and, as explained above, the transaction monitor 32 uses this information for comparison with the transaction data from the transaction terminal 34. Thus, it can be verified that each item detected in the video data has a corresponding entry (eg, scan, read, item identification information, or price) in the transaction data. If this corresponding transaction data does not exist for this object, the transaction monitor 32 can notify the suspicious behavior.

ここで、注目領域に、スーパーマーケットのコンベヤベルトのような、動いている背景が含まれる場合、背景画像を適応させる方法については、動いている背景の適応化の説明で以下に詳述される。システムは買物バスケット底部検出または買物バスケット内部検出を取り入れて、例えば可動ショッピングカートの下に、または内部に収納されるアイテムを高所から見た図から特定することもできる。   Here, if the region of interest includes a moving background, such as a supermarket conveyor belt, a method for adapting the background image is described in detail below in the description of moving background adaptation. The system may incorporate shopping basket bottom detection or shopping basket internal detection to identify items stored, for example, under or in a movable shopping cart from a high elevation view.

上に例を示したように、トランザクションモニタ32は、一つの構成では、少なくとも一つの注目領域をビデオデータ内に定義し、そして注目領域(群)の現在画像と、注目領域(群)の更新済み背景画像との間の変化を特定するオブジェクトマップを計算することにより、ビデオデータの少なくとも一部分を分析することができる。従って、注目領域(群)の内部の少なくとも一つのオペレータオブジェクトを切り出すことにより、トランザクションモニタ32は、オブジェクトマップ及びオペレータオブジェクトを分析することによって、注目領域302からのオブジェクトの移送、または注目領域302へのオブジェクトの搬入を特定することができるかどうかを検出することができる。このようにして、ビデオデータ内のオブジェクトの存在のカウントを示す検出イベントを維持することができる。この操作は、単一領域または多くの領域302に関して行なうことができ、かつアイテム毎に、またはトランザクションの大部分に関して、或いはトランザクション全体(すなわち、全アイテム)に関して行なうことができる。   As illustrated above, the transaction monitor 32, in one configuration, defines at least one region of interest in the video data, and updates the current image of the region of interest (group) and the region of interest (group). At least a portion of the video data can be analyzed by calculating an object map that identifies changes between the finished background image. Accordingly, by cutting out at least one operator object inside the attention area (s), the transaction monitor 32 analyzes the object map and the operator object, thereby transferring the object from the attention area 302 or to the attention area 302. It is possible to detect whether it is possible to specify the import of the object. In this way, a detection event indicating a count of the presence of objects in the video data can be maintained. This operation can be performed on a single region or many regions 302, and can be performed on an item-by-item basis, for the majority of a transaction, or for an entire transaction (ie, all items).

ビデオデータの少なくとも一部分を分析するプロセスでは、システムは或るカメラまたは他のビデオソースに装備されるオートゲイン特性を調整する必要がある。オートゲインでは、カメラの3つのカラーチャネルの輝度を画像全体に渡ってバランスさせるようとする。これにより、ノイズの多いオブジェクト(すなわち、シーンに現われるが、トランザクションまたはトランザクションエリアの一部分には現われないオブジェクト)がカメラの視野に現われる場合に不所望のカラーシフトが発生する。システムは当該カラーシフトを極力抑える必要がある。解決すべき非常に困難な課題は、システムには、カメラのオートゲイン特性を調整して得られた結果と同じ結果が生じるので、画像全体に渡っての統計計算を全く行なうことができないことである。その代わり、システムはシステムの焦点をトランザクションエリアに限定して、静止したままであるがカラーシフトまたは輝度シフトを示すトランザクションエリア内のオブジェクトに相対的に大きな比重を置く必要がある。この目的を達成することができる一つの方法は次のようにして行なわれる。現在画像を現在の更新済み背景画像と比較して(例えば、サブトラクション処理及び閾値処理により)、ノイズの多い前景/背景ピクセルバイナリマップを取得する。次に、背景ピクセルのみを使用して現在画像及び背景画像のカラー統計を計算により収集する。これらの背景ピクセルは、これらのピクセルが撮影対象範囲の同じ静止オブジェクトに対応し、かつ補正する必要のあるカラーシフトを示すという理由により、使用される。一旦、背景というラベルが付されたピクセルの統計計算が行なわれると、変更を現在画像に加えて当該画像のカラーを背景画像のカラーに一致させる、従ってシステムによって処理されている画像の残りの部分と一致させる。一旦、この事前処理ステップが行なわれると、普通のビデオ処理ステップが進行する。このようにして、ビデオ分析の前にトランザクションモニタ32はビデオソースに働いているオートゲイン特性を調整することができる。   In the process of analyzing at least a portion of the video data, the system needs to adjust the auto gain characteristics that are installed in some cameras or other video sources. In auto gain, the brightness of the three color channels of the camera is balanced across the entire image. This causes an undesirable color shift when noisy objects (ie, objects that appear in the scene but do not appear in the transaction or part of the transaction area) appear in the camera's field of view. The system needs to suppress the color shift as much as possible. A very difficult problem to solve is that the system produces the same results as those obtained by adjusting the auto gain characteristics of the camera, so it cannot perform statistical calculations across the entire image. is there. Instead, the system should focus the system on the transaction area and place a relatively high specific gravity on objects in the transaction area that remain stationary but exhibit color or intensity shifts. One way in which this goal can be achieved is as follows. Compare the current image with the current updated background image (eg, by subtraction and thresholding) to obtain a noisy foreground / background pixel binary map. Next, the color statistics of the current image and the background image are collected by calculation using only the background pixels. These background pixels are used because they correspond to the same stationary object in the shooting area and indicate a color shift that needs to be corrected. Once the statistical calculation of the pixel labeled background has been made, changes are made to the current image to match the color of that image to the color of the background image, so the rest of the image being processed by the system To match. Once this pre-processing step is performed, normal video processing steps proceed. In this way, prior to video analysis, the transaction monitor 32 can adjust the auto gain characteristics working on the video source.

注目領域がアイテムの移送、及び搬入の両方に関してモニタリングされる構成では、トランザクションモニタ32はオブジェクト搬入エリア302−1を第1注目領域として定義し、そしてオブジェクト搬出エリア302−3を第2注目領域として定義することができる。この構成においては、オブジェクト移送イベント及び/又はオブジェクト搬入イベントの検出では、オペレータがオブジェクトをオブジェクト搬入エリアから移送するときのオブジェクト移送イベントを検出し、そして/またはオペレータがオブジェクトをオブジェクト搬出エリアに載置するときのオブジェクト搬入イベントを検出することができる。移送イベントに続いて搬入イベントを検出することにより、一つの構成では、トランザクションモニタ32はビデオカウントを少なくとも一つのビデオトランザクションパラメータとしてインクリメントすることができる、または別の構成では、トランザクションモニタ32は移送イベント及び搬入イベントそれぞれを生成することができ、これらのイベントを次に、トランザクションデータとの比較の間に処理してトランザクションデータに含まれないがビデオデータに現われるアイテムを特定する。   In a configuration in which the attention area is monitored for both item transfer and entry, the transaction monitor 32 defines the object carry-in area 302-1 as the first attention area, and the object carry-out area 302-3 as the second attention area. Can be defined. In this configuration, in the detection of the object transfer event and / or the object carry-in event, the operator detects an object transfer event when the object is transferred from the object carry-in area, and / or the operator places the object in the object carry-out area. An object carry-in event can be detected. By detecting a carry-in event following a transfer event, in one configuration, the transaction monitor 32 can increment the video count as at least one video transaction parameter, or in another configuration, the transaction monitor 32 can detect a transfer event. And import events can be generated, and these events are then processed during comparison with the transaction data to identify items that are not included in the transaction data but appear in the video data.

一つの構成では、複数の注目領域のうちの少なくとも一つの注目領域がコンベヤベルトを含み、コンベヤベルトによって、オブジェクト群の位置が、現在のビデオデータフレーム及び前のビデオデータフレームに捕捉されるように、コンベヤベルト上を時間的に移動する。例えば、オペレータがアイテム307を移送する動作として移送検出イベントが生成される場合のアイテム搬入エリアは、アイテム307をオペレータに向けて搬送するコンベヤベルトとすることができる。このような場合においては、トランザクションモニタ32は、アイテム群が或る位置から次の位置に連続ビデオフレームの中で移動するときのアイテム群の移動または並進移動に補正を加えることができる。詳細には、トランザクションモニタ32はビデオデータの少なくとも一部分を分析することができ、かつ注目領域内の前のビデオデータフレーム及び現在のビデオデータフレームを関連付けて、コンベヤベルト上のオブジェクト群の位置の移動量を求めることができる。トランザクションモニタ32は、オブジェクト移送イベント、及び/又はオブジェクト搬入イベントを検出するときに、コンベヤベルト上のオブジェクト群の位置の移動量を把握することができる。   In one configuration, at least one of the plurality of regions of interest includes a conveyor belt such that the position of the group of objects is captured in the current video data frame and the previous video data frame by the conveyor belt. , Move on the conveyor belt in time. For example, the item carry-in area when the transfer detection event is generated as the operation of transferring the item 307 by the operator can be a conveyor belt that conveys the item 307 toward the operator. In such cases, the transaction monitor 32 can correct for the movement or translation of the items as they move from one position to the next in a continuous video frame. Specifically, the transaction monitor 32 can analyze at least a portion of the video data and correlate the previous video data frame and the current video data frame within the region of interest to move the position of the objects on the conveyor belt. The amount can be determined. When the transaction monitor 32 detects an object transfer event and / or an object carry-in event, the transaction monitor 32 can grasp the movement amount of the position of the object group on the conveyor belt.

図8は、トランザクションモニタ32が実行することができる処理動作のフローチャートであり、処理動作を実行することにより、ビデオ分析を行なうときに検出器が使用するエリア比較方法を提供することができる。   FIG. 8 is a flowchart of processing operations that can be performed by the transaction monitor 32. By executing the processing operations, an area comparison method used by the detector when performing video analysis can be provided.

ビデオソース200がビデオフレームを生成すると、ビデオソース(200)はビデオフレームを出力する。第1ステップ202では、オブジェクト群を当該フレーム画像内に特定する。この操作を行なうための一つの方法では、現在のフレームを背景モデルと比較して、画像内の前景要素群を、またはオブジェクト群を抽出する。   When video source 200 generates a video frame, video source (200) outputs the video frame. In the first step 202, an object group is specified in the frame image. In one method for performing this operation, the current frame is compared with the background model to extract foreground elements or objects in the image.

次のステップ204では、オペレータオブジェクトを切り出す。この操作を行なうための一つの方法では、オペレータが居る可能性の高い位置に関するアプリオリな情報を使用する。例えば、オペレータが特定の区画位置に立っていることが分かっている場合、当該位置の最も大きい移動オブジェクトがオペレータであると推定することができる。この操作を行なうための別の方法では、オペレータが袋詰めエリアに移動して別のアイテムを載置するときに、注目領域の境界のエッジを横切って移動しているオブジェクトを特定する。   In the next step 204, an operator object is cut out. One method for performing this operation uses a priori information about the location where the operator is likely to be. For example, when it is known that the operator is standing at a specific section position, it can be estimated that the moving object having the largest position is the operator. In another method for performing this operation, when the operator moves to the bagging area and places another item, an object moving across the boundary edge of the region of interest is identified.

次のステップ206では、システムは、オペレータオブジェクトが注目領域内に延び出しているかどうかをチェックする。次のステップ208においてオペレータオブジェクトが注目領域内に位置する場合、システムはステップ210において、オペレータが前のフレームの注目領域にも含まれていたかどうかをチェックする。オペレータが前のフレームの注目領域に含まれていなかった場合、前のフレームをステップ212でキーフレーム1として保存する。従って、キーフレーム1は、オペレータオブジェクトが注目領域に入ってしまう前の注目領域の画像である。オペレータオブジェクトが注目領域の外に移動した後の注目領域の画像との比較を行なう場合、システムは、新規オブジェクトが注目領域に搬入された、または注目領域から移送されたかどうかを判断することができる。ステップ210での判断に関係なく、システムは次に、ステップ224に進んでビデオが更に残っているかどうかをチェックする。   In the next step 206, the system checks whether the operator object extends into the region of interest. If at the next step 208 the operator object is located within the region of interest, the system checks at step 210 whether the operator was also included in the region of interest of the previous frame. If the operator is not included in the attention area of the previous frame, the previous frame is stored as key frame 1 in step 212. Therefore, the key frame 1 is an image of the attention area before the operator object enters the attention area. When comparing with an image of a region of interest after the operator object has moved out of the region of interest, the system can determine whether a new object has been brought into or transferred from the region of interest . Regardless of the determination at step 210, the system then proceeds to step 224 to check if more video remains.

ステップ208で、オペレータオブジェクトが注目領域に含まれていないと判断される場合、ステップ214でキーフレーム1が既に保存されているかどうかをチェックする。キーフレーム1が既に保存されていることがない場合、当該事象は、オペレータオブジェクトが前のフレームの時点で、注目領域に未だ入っていないことを示唆している。そして、オペレータオブジェクトが現在のフレームの注目領域にも未だ入っていないので、オペレータによる新規のオブジェクト搬入/移送に関して注目領域を分析する必要は全くない。次に、システムはステップ224に進んでビデオが更に残っているかどうかをチェックする。   If it is determined in step 208 that the operator object is not included in the region of interest, it is checked in step 214 whether the key frame 1 has already been saved. If key frame 1 has not already been saved, the event suggests that the operator object has not yet entered the region of interest at the time of the previous frame. Since the operator object has not yet entered the attention area of the current frame, there is no need to analyze the attention area for new object loading / transfer by the operator. The system then proceeds to step 224 to check if more video remains.

ステップ214における判断がyesの場合、yesは、オペレータオブジェクトが注目領域に前に既に入ってしまっており、かつ最後のフレームの時点で未だ注目領域から出て行っていないことを示唆している。従って、オペレータオブジェクトが注目領域にはもはや含まれなくなった時点では、オペレータオブジェクトが丁度、注目領域から出て行ったはずである。従って、現在のフレームがステップ216でキーフレーム2として保存される。   If the determination in step 214 is yes, yes indicates that the operator object has already entered the attention area before and has not yet left the attention area at the time of the last frame. Therefore, when the operator object is no longer included in the attention area, the operator object has just left the attention area. Accordingly, the current frame is saved as key frame 2 at step 216.

ステップ218では、キーフレーム1及びキーフレーム2のオブジェクトエリアを比較する。このプロセスについて以下に更に詳細に説明する。
ステップ220で、実際に大きな変化(例えば、閾値量を上回る)がオブジェクトエリアにキーフレーム1とキーフレーム2との間であったと判断される場合、ステップ222でアイテムカウントをインクリメントする、または検出イベントを生成する。
In step 218, the object areas of key frame 1 and key frame 2 are compared. This process is described in further detail below.
If it is determined at step 220 that the actual large change (eg, greater than the threshold amount) was between keyframe 1 and keyframe 2 in the object area, step 222 increments the item count or detection event Is generated.

ステップ220での判断に関係なく、システムはステップ223に進み、このステップでは、システムはキーフレーム1及び2をリセット(または消去)して、オペレータオブジェクトがもはやROI(注目領域)内に含まれないと考えることができることを通知する。   Regardless of the determination at step 220, the system proceeds to step 223, where the system resets (or deletes) keyframes 1 and 2 so that the operator object is no longer within the ROI (region of interest). Notify that you can think.

次に、システムはステップ24に進んで、ビデオが更に残っているかどうかをチェックする。ビデオが残っていない場合、アイテムカウントを返す。ビデオが更に残っている場合、ステップ228においてビデオを次のフレームに進め、そしてシステムはループをステップ202から再開する。   The system then proceeds to step 24 to check if there are more videos remaining. Returns item count if there are no videos left. If more video remains, step 228 advances the video to the next frame and the system resumes the loop from step 202.

図9は、キーフレームエリア比較を可能にするためにトランザクションモニタ32が実行する処理ステップのフローチャートである。この図は、一つの例示としての方法を示し、この方法によって、2つのキーフレームを比較して、注目領域内のオブジェクトエリアの変化を検出してオブジェクト搬入またはオブジェクト移送を通知する。   FIG. 9 is a flowchart of processing steps performed by the transaction monitor 32 to enable keyframe area comparison. This figure shows one exemplary method, in which two key frames are compared to detect a change in the object area within the region of interest and to notify the object carry-in or object transfer.

この例では、キーフレーム1(ステップ250)は、オペレータオブジェクトが注目領域に入ってしまう前のビデオフレームである。キーフレーム2(ステップ254)は、オペレータオブジェクトが注目領域から出て行った後のビデオフレームである。空のベース画像(ステップ252)は、注目領域にオブジェクトを含まないシーンの画像である。注目領域(ステップ259)は、画像のどの領域に注目するかを強調したバイナリマップである。   In this example, key frame 1 (step 250) is a video frame before the operator object enters the region of interest. Key frame 2 (step 254) is a video frame after the operator object has left the region of interest. The empty base image (step 252) is an image of a scene that does not include an object in the attention area. The attention area (step 259) is a binary map that emphasizes which area of the image is to be noted.

ステップ256,258,260,及び262では、キーフレーム1に関連する処理について説明している。
ステップ256では、キーフレーム1及び空のベース画像を比較して(サブトラクション処理及び閾値処理により)バイナリオブジェクトマップ(ステップ258)を生成する。このオブジェクトマップは、オペレータオブジェクト及び他のオブジェクトを注目領域内に含む空のベース画像の一部分ではない、画像の全ての新規オブジェクトを含むことができる。
Steps 256, 258, 260, and 262 describe processing related to the key frame 1.
In step 256, the key frame 1 and the empty base image are compared (by subtraction processing and threshold processing) to generate a binary object map (step 258). This object map can include all new objects in the image that are not part of an empty base image that includes operator objects and other objects in the region of interest.

ステップ260では、注目領域内のオブジェクトを、オブジェクトマップ(ステップ258)を取り込み、そしてこのマップを注目領域(ステップ259)でマスクすることにより切り出して、注目領域内のオブジェクトのみが残るようにする。マスキングを実行する一つの方法は、バイナリオブジェクトマップとバイナリ注目領域マップとの論理積演算を実行することにより行なわれる。新規に得られるオブジェクトマップはキーフレーム1のオブジェクトマップ(ステップ262)である。   In step 260, an object map (step 258) is taken in the object in the attention area, and the map is cut out by masking the map with the attention area (step 259) so that only the object in the attention area remains. One way to perform masking is by performing a logical AND operation on the binary object map and the binary region of interest map. The newly obtained object map is the object map of key frame 1 (step 262).

ステップ264,266,268,及び270では、キーフレーム2のオブジェクトマップ(ステップ270)をキーフレーム2(ステップ254)から類似の手法により生成する。   In steps 264, 266, 268, and 270, an object map of key frame 2 (step 270) is generated from key frame 2 (step 254) by a similar method.

ステップ272では、注目領域内でのキーフレーム1とキーフレーム2との間の移動量を求める。このような操作は、相関法、差の二乗和、フロー分析などのような標準の手法を使用することにより行なって注目領域を重ね合わせ、そしてキーフレーム1とキーフレーム2との間で起こった移動量を求めることができる。ステップ272では移動量274を生成する。   In step 272, the amount of movement between the key frame 1 and the key frame 2 within the attention area is obtained. Such operations occurred by using standard techniques such as correlation, sum of squares of differences, flow analysis, etc. to overlap the region of interest and occurred between keyframe 1 and keyframe 2 The amount of movement can be determined. In step 272, a movement amount 274 is generated.

移動量274をステップ276において適用してキーフレーム2のオブジェクトマップ270をキーフレーム1のオブジェクトマップと重ね合わせる。重ね合わせたキーフレーム2のオブジェクトマップ278が生成される。   The amount of movement 274 is applied at step 276 to superimpose the object map 270 of key frame 2 with the object map of key frame 1. An object map 278 of the superimposed key frame 2 is generated.

ステップ280では、キーフレーム1のオブジェクトマップ262の面積をキーフレーム2のオブジェクトマップ278の面積と比較する。これらのオブジェクトマップの各々の面積はバイナリオブジェクトマップの合計として算出することができる。   In step 280, the area of the object map 262 of the key frame 1 is compared with the area of the object map 278 of the key frame 2. The area of each of these object maps can be calculated as the sum of the binary object maps.

ステップ282において面積に十分に大きな変化が生じた場合(すなわち、閾値を超える)、面積が変化したことを示すYesをステップ284で返す。面積に変化が生じなかった場合、面積が変化しなかったことを示すNoをステップ286で返す。   If there is a sufficiently large change in the area in step 282 (ie, exceeds the threshold), Yes is returned in step 284 indicating that the area has changed. If the area does not change, No indicating that the area has not changed is returned in step 286.

図10は、トランザクションモニタ32による処理について説明した処理ステップのフローチャートであり、トランザクションモニタ32による処理によって、すり抜けアイテム検出方法が提供される。すり抜けは、予測アイテムカウント及び実際のアイテムカウントを、全トランザクションの時間窓の期間に渡って比較することにより検出することができるので、期間がほぼアイテム毎の比較を可能とするような期間である限り、時間窓を相対的に短くすることもできる。   FIG. 10 is a flowchart of the processing steps described for the processing by the transaction monitor 32. By the processing by the transaction monitor 32, a slip-through item detection method is provided. A slip-through can be detected by comparing the predicted item count and the actual item count over the period of the time window of all transactions, so that the period is such that a comparison can be made approximately item by item. As long as the time window is relatively short.

各個々のトランザクションアイテムのエントリ(すなわち、スキャン、キー入力エントリ、RFID読み取りなど)の期間を含む時間窓の間に、アイテムは一つだけトランザクションを通過して処理されると予測される。目視カウントが1よりも大きい場合、当該事象は、不審挙動が発生したことを示唆している。同様に、各個々の実際の目視アイテム検出の期間を含む時間窓の間に、対応するPOSアイテムのエントリを行なう必要がある。POSエントリが行なわれない場合、これは、実際に処理されたアイテムがデータに従って予測されることがなかったことを意味するので、不審挙動(例えば、潜在的なすり抜け)を示唆することになる。この形態について以下に更に詳細に説明する。   During a time window that includes the duration of each individual transaction item entry (ie, scan, key entry, RFID read, etc.), it is expected that the item will be processed through only one transaction. If the visual count is greater than 1, the event suggests that suspicious behavior has occurred. Similarly, a corresponding POS item entry needs to be made during a time window that includes the duration of each individual visual item detection. If no POS entry is made, this means that the actually processed item has not been predicted according to the data, thus suggesting suspicious behavior (eg, potential slip-through). This embodiment will be described in further detail below.

アイテム検出プロセス402は、ビデオをビデオソース400から取り込み、そしてビデオをトランザクションに含まれる次のアイテムを検出するまで進める。この操作は、種々の方法のいずれかの方法によって行なうことができ、これらの方法として、これらには制限されないが、搬入/移送検出、面積差による比較、スキャナモーション検出などを挙げることができる。これによって、アイテム検出時間404が生成される。   Item detection process 402 captures video from video source 400 and proceeds until it detects the next item included in the transaction. This operation can be performed by any one of various methods, and these methods include, but are not limited to, carry-in / transfer detection, comparison by area difference, scanner motion detection, and the like. Thereby, an item detection time 404 is generated.

次に、ステップ410では、システムはトランザクションアイテム時間データ(ステップ408)をトランザクションデータソース(ステップ406)から取り出し、そして当該データをアイテム検出時間(ステップ410)と比較する。この比較は、トランザクションアイテム時間がアイテム検出時間に一致しているかどうかを示す。   Next, at step 410, the system retrieves transaction item time data (step 408) from the transaction data source (step 406) and compares the data to the item detection time (step 410). This comparison indicates whether the transaction item time matches the item detection time.

ステップ412では、比較結果をチェックする。トランザクション時間がアイテム検出時間に一致している場合、予測挙動及び実際の挙動が一致し、そして現在の目視検出アイテムに「疑わしくない」というフラグ(ステップ414)を立てる。トランザクション時間がアイテム検出時間に一致していない場合、予測挙動及び実際の挙動が一致せず、そして現在の目視検出アイテムに「疑わしい」というフラグを立て、そして不審アイテムログ(ステップ416)に入力する。   In step 412, the comparison result is checked. If the transaction time matches the item detection time, the predicted behavior and the actual behavior match, and the current visually detected item is flagged as “not suspicious” (step 414). If the transaction time does not match the item detection time, the predicted and actual behavior do not match, and the current visually detected item is flagged as “suspicious” and entered into the suspicious item log (step 416). .

一致を判断することができる一つの方法は、いまだに一致していないトランザクションアイテム時間が、アイテム検出に十分に近い時間(例えば、或る一定閾値、または動的閾値よりも短い)に含まれるかどうかを判断することによって行なわれる。トランザクションアイテム時間がアイテム検出に十分に近い時間に含まれる場合、検出をトランザクション時間に一致させることができる。トランザクションアイテム時間がアイテム検出に十分に近い時間に含まれない場合、アイテム検出は一致しないと見なされる。別の方法では、検出されるアイテムの合計数だけでなく、トランザクションアイテムの合計数の記録をつける。検出アイテムが取引アイテムよりも、或る閾値の個数だけ多い場合(例えば、アイテムが1個だけ多い場合)、最後に検出されるアイテムが一致しないと見なされ、そして記録は、次の不一致アイテムが発生するまでリセットされる。別の方法では、目視アイテム検出が同じアイテムトランザクション時間区間内(inter−transaction−item interval)に1回よりも多い回数で行なわれるかどうかを、図12の例に示すように調査する。1回よりも多い回数の目視アイテム検出が同じアイテムトランザクション時間区間内で行なわれる場合、これらの回数のアイテム検出のうちの少なくとも1回のアイテム検出は、或るトランザクションアイテム時間に一致しないはずである。このような場合には、アイテムトランザクション時間区間自体が疑わしいと考えることができる。   One way in which a match can be determined is whether the transaction item time that has not yet been matched is included in a time sufficiently close to item detection (eg, below a certain threshold or a dynamic threshold) It is done by judging. If the transaction item time is included in a time sufficiently close to item detection, the detection can be matched to the transaction time. If the transaction item time is not included in a time sufficiently close to item detection, the item detection is considered inconsistent. Another method keeps track of the total number of transaction items, not just the total number of items detected. If the detected item is greater than a trade item by a certain threshold number (eg, if there is only one item), the last detected item is considered not to match, and the record is Reset until it occurs. In another method, as shown in the example of FIG. 12, it is investigated whether visual item detection is performed more than once within the same item transaction time interval (inter-transaction-item interval). If more than one number of visual item detections are made within the same item transaction time interval, at least one of these number of item detections should not match a transaction item time. . In such a case, the item transaction time interval itself can be considered suspicious.

ステップ418においてビデオが更に残っている場合、システムはステップ402に進んでループを再開する。ビデオが残っていない場合には、システムはステップ420に進んで不審アイテムのログを返す。   If more video remains at step 418, the system proceeds to step 402 to resume the loop. If no video remains, the system proceeds to step 420 and returns a log of suspicious items.

このようにして、システムは、「すり抜け」を不審挙動として特定することができるすり抜けアイテム検出方法を提供する。
他の構成は、顧客及び/又は従業員存在(presence)及び追跡(tracking)を利用する機能を備える。このような構成は、カメラの簡易な見下ろしショットの他に、「肩乗せタイプの」カメラの遠近ショットを使用することができる。レジ係がキャッシュレジスタの位置に立っている背後にカメラを据え付けて、カメラが彼または彼女の肩越しに勘定台、キャッシュレジスタ、及び顧客を撮影している場合においては、本方法では、勘定台の邪魔になって勘定台を見えなくしているオブジェクトを特定することにより、従業員を勘定台に近い側のオブジェクトとして特定することができる。これとは異なり、顧客オブジェクトは勘定台の向こうに見えるが、勘定台の上側エッジによって途切れたオブジェクトとして特定される。一つの構成では、一旦、顧客または従業員が特定されると、彼または彼女の位置はシステムによって追跡され、そしてラベルが付される。
In this way, the system provides a slip-through item detection method that can identify “pass-through” as suspicious behavior.
Other configurations include the ability to utilize customer and / or employee presence and tracking. Such a configuration can use a perspective shot of a “shoulder type” camera in addition to a simple looking down shot of the camera. In the case where the cashier is installing the camera behind the cash register and the camera is shooting the bill, cash register, and customer over his or her shoulder, the method By identifying an object that obstructs the bill of accounts, the employee can be identified as an object on the side close to the bill of accounts. In contrast, the customer object appears beyond the bill of accounts, but is identified as a broken object by the top edge of the bill of accounts. In one configuration, once a customer or employee is identified, his or her location is tracked and labeled by the system.

図6は、トランザクションモニタ32が一つの構成において用いる処理ステップを示すフローチャートであり、処理ステップによって、顧客及び/又は従業員存在(presence)検出及び追跡(tracking)が可能になる。ステップ254では、入力画像250及び背景ベース画像252を比較して、画像の全ての非背景オブジェクト(non−background objects)を示す全てのオブジェクトバイナリマップを生成する。このような比較を行なう一つの代表的な方法では、サブトラクション処理に続いて閾値処理を行ない、更に続いて形態的演算を行なって、ノイズのバイナリマップを「リセットする」。次に、次のステップ256では、従業員及び/又は顧客オブジェクトセグメント化が、全てのオブジェクトバイナリマップに対して、従業員及び/又は顧客オブジェクトセグメント化について説明した次の節、及び図7において説明されるように行なわれる。   FIG. 6 is a flowchart illustrating the processing steps used by the transaction monitor 32 in one configuration, which allows for customer and / or employee presence detection and tracking. In step 254, the input image 250 and the background base image 252 are compared to generate all object binary maps showing all non-background objects in the image. One exemplary method of making such a comparison is to “reset” the noise binary map by performing subtraction processing followed by threshold processing, followed by morphological operations. Next, in a next step 256, employee and / or customer object segmentation is described in the next section describing employee and / or customer object segmentation for all object binary maps and in FIG. To be done.

ステップ268において従業員オブジェクトが存在する場合、従業員オブジェクトにステップ270でラベルを付ける。ステップ258において顧客オブジェクトが存在しない場合、プロセスはステップ284で次のビデオフレームに進む。そうではなく、ステップ260において同じ顧客オブジェクトが前のフレームに含まれる場合、ステップ262では、顧客オブジェクトが時間的に静止しているかどうかを判断する。顧客オブジェクトが時間的に静止している場合、顧客オブジェクトは実際には、ショッピングカートのような無生物オブジェクトである可能性がある。その場合には、プロセスは顧客フラッグをステップ280においてリセットし、次に静止オブジェクトを背景ベース画像にステップ282において組み込む。顧客オブジェクトが時間的に静止していない場合、当該オブジェクトは実際にはヒトであると推定され、そして当該オブジェクトに、ステップ266において顧客というラベルを付ける。次に、静止しているかどうかに拘らず、プロセスはステップ284において次のビデオフレームに進む。   If an employee object exists at step 268, the employee object is labeled at step 270. If the customer object does not exist at step 258, the process proceeds to the next video frame at step 284. Otherwise, if the same customer object is included in the previous frame in step 260, then in step 262, it is determined whether the customer object is stationary in time. If the customer object is stationary in time, the customer object may actually be an inanimate object such as a shopping cart. In that case, the process resets the customer flag at step 280 and then incorporates the stationary object into the background base image at step 282. If the customer object is not stationary in time, it is assumed that the object is actually a human and the object is labeled customer in step 266. The process then proceeds to the next video frame at step 284, whether or not it is stationary.

ステップ260において同じ顧客オブジェクトが前のフレームに含まれていなかった場合、顧客オブジェクトをステップ272で追跡する。追跡は、注目オブジェクト群の質量中心のシフトを追跡することにより行なわれる。顧客オブジェクトが勘定台領域(例えば、302−1,302−2,302−3)に近い場所に位置する、すなわち勘定台の位置に立っているような場合、カートのような静止オブジェクトが存在するかどうかを判断する。静止オブジェクトが存在する場合、プロセスは前に説明したようにステップ282に進む。静止オブジェクトが存在しない場合、顧客存在のフラグをステップ278で立て、そして顧客にステップ266でラベルを付ける。   If at step 260 the same customer object was not included in the previous frame, the customer object is tracked at step 272. The tracking is performed by tracking the shift of the center of mass of the target object group. If the customer object is located close to the bill base area (eg, 302-1, 302-2, 302-3), that is, standing at the bill stand position, a stationary object such as a cart exists. Determine whether or not. If a stationary object exists, the process proceeds to step 282 as previously described. If no stationary object exists, a customer presence flag is raised at step 278 and the customer is labeled at step 266.

図7は、トランザクションモニタ32が実行する処理を示す処理ステップのフローチャートであり、処理ステップによって、従業員/顧客オブジェクトのセグメント化が可能になる。   FIG. 7 is a flowchart of processing steps showing the processing performed by the transaction monitor 32, which enables segmentation of employee / customer objects.

ステップ204では、入力画像200及び背景ベース画像202を比較して、画像の全ての非背景オブジェクトを示す全てのオブジェクトバイナリマップを生成する。このような比較を行なう一つの代表的な方法では、サブトラクション処理に続いて閾値処理を行ない、更に続いて形態的演算を行なって、ノイズのバイナリマップを「リセットする」。   In step 204, the input image 200 and the background base image 202 are compared to generate all object binary maps that represent all non-background objects in the image. One exemplary method of making such a comparison is to “reset” the noise binary map by performing subtraction processing followed by threshold processing, followed by morphological operations.

ステップ206では、バイナリオブジェクトマップが、いずれかのオブジェクトを含んでいるかどうかについてチェックする。オブジェクトが含まれていない場合、ステップ208において、ビデオを次のフレームに進め、そして処理を再び、ループの始点から継続する。ステップ206においてオブジェクト群がバイナリオブジェクトマップに含まれている場合、これらのオブジェクトに対してラベル付け操作をステップ210において行なう。次に、ステップ212では、ラベル付けされた最初のオブジェクトが選択される。ステップ214においてオブジェクトが従業員注目領域302−4にのみ含まれることが判明する場合、オブジェクトを従業員だけのバイナリマップにステップ218において加える。従業員注目領域302−4は通常、従業員または他のオペレータ(顧客または勘定台上のアイテムに対向する位置の)だけが現われる勘定台の手前側である。   In step 206, the binary object map is checked to see if it contains any objects. If the object is not included, in step 208 the video is advanced to the next frame and processing is continued again from the beginning of the loop. If the object group is included in the binary object map in step 206, a labeling operation is performed on these objects in step 210. Next, in step 212, the first labeled object is selected. If in step 214 it is found that the object is only included in employee focus area 302-4, the object is added in step 218 to the employee-only binary map. The employee attention area 302-4 is usually on the front side of the bill of accounts, where only employees or other operators (in a position facing the customer or items on the bill of accounts) appear.

ステップ216においてオブジェクトが顧客注目領域302−5にのみ含まれることが判明する場合、オブジェクトを顧客だけのバイナリマップにステップ228において加える。顧客注目領域302−5は通常、画像の中の勘定台上部の上部エッジの真上に位置し、この位置に、顧客が勘定台の位置に立っているとすると現われる。   If in step 216 it is found that the object is only included in the customer attention area 302-5, the object is added in step 228 to the customer only binary map. The customer attention area 302-5 is usually located immediately above the top edge of the top of the bill in the image, and appears at this position if the customer is standing at the bill.

次に、ステップ220においてオブジェクトが勘定台注目領域(例えば、302−1,302−2,または302−3)(勘定台上部)に含まれることが判明する場合、オブジェクトは勘定台上のアイテムである可能性があり、そして当該オブジェクトを勘定台だけのバイナリマップにステップ222において加える。ステップ224においてオブジェクトが従業員注目領域302−4、及び勘定台注目領域302−1,302−2,及び302−3のうちの一つ以上の領域の両方に現われるが、顧客注目領域302−5には現れない場合、オブジェクトは従業員またはオペレータであると判断され、そして当該オブジェクトを従業員だけのバイナリマップにステップ218において加える。   Next, if it is determined in step 220 that the object is included in the bill of interest area (eg, 302-1, 302-2, or 302-3) (upper bill), the object is an item on the bill. There is a possibility, and the object is added in step 222 to the binary map of the bill only. In step 224, the object appears in both the employee attention area 302-4 and one or more of the account base attention areas 302-1, 302-2, and 302-3, but the customer attention area 302-5. If not, the object is determined to be an employee or operator and is added to the employee-only binary map at step 218.

ステップ226においてオブジェクトが顧客注目領域302−5、及び勘定台注目領域302−1,302−2,または302−3のうちの一つ以上の領域の両方に現われるが、従業員注目領域302−4には現れない場合、オブジェクトは顧客であると判断され、そして当該オブジェクトを顧客だけのバイナリマップにステップ228において加える。   At step 226, the object appears in both the customer attention area 302-5 and one or more of the bill-base attention areas 302-1, 302-2, or 302-3, but the employee attention area 302-4. If not, the object is determined to be a customer and the object is added to the customer-only binary map at step 228.

ステップ230においてオブジェクトが3つの注目領域の全て(従業員注目領域302−4、顧客注目領域302−5、及び勘定台注目領域302−1,302−2,及び302−3のうちの一つ以上の領域)に含まれる場合、当該オブジェクトは、従業員画像が部分的に顧客の画像と重なる合体オブジェクトである可能性がある。従って、当該オブジェクトを、従業員及び顧客のバイナリマップにステップ232において加える。   In step 230, the object is one of all three attention areas (one or more of employee attention area 302-4, customer attention area 302-5, and bill attention area 302-1, 302-2, and 302-3). The object may be a combined object in which the employee image partially overlaps with the customer image. Accordingly, the object is added to the employee and customer binary map at step 232.

オブジェクトが処理された後、ステップ234において、当該オブジェクトを全オブジェクトバイナリマップから取り除いて、ラベルが付された次のオブジェクトを処理することができるようにする。   After the object has been processed, in step 234 the object is removed from the full object binary map so that the next labeled object can be processed.

ステップ206においてオブジェクトが全オブジェクトバイナリマップに依然として残っている場合、処理をステップ210で、次のオブジェクトに対して継続して行なう。そうではなく、画像の中の全オブジェクトが既に処理されてしまっている場合、処理はステップ208において、次のビデオフレームに進む。   If the object remains in the all object binary map at step 206, processing continues at step 210 for the next object. Otherwise, if all objects in the image have been processed, processing proceeds to the next video frame at step 208.

このようにして、システムはオペレータオブジェクトまたは顧客オブジェクトを特定して、このオブジェクトをアイテムオブジェクトからビデオ分析において明確に区別することができる。   In this way, the system can identify the operator object or customer object and clearly distinguish this object from the item object in the video analysis.

システム及び方法について、システム及び方法の構成を参照しながら詳細に示し、そして説明してきたが、この技術分野の当業者であれば、種々の変更をシステム及び方法の形態及び詳細に関して、添付の特許請求の範囲によって規定される本発明の技術範囲から逸脱しない範囲において加え得ることが理解できる。従って、本発明は上に提示した構成例によって制限されない。   Although the system and method have been shown and described in detail with reference to system and method configurations, those skilled in the art will recognize various changes in the form and details of the system and method in the accompanying patents. It can be understood that additions can be made without departing from the technical scope of the present invention defined by the claims. Therefore, the present invention is not limited by the configuration example presented above.

ネットワーク環境の構成例を示し、ネットワーク環境は、ここの開示に従って構成されるトランザクションモニタを用いて構成されるビデオサーベイランスシステム及びコンピュータシステムを含む。1 illustrates an example configuration of a network environment, the network environment including a video surveillance system and a computer system configured with a transaction monitor configured in accordance with the present disclosure. トランザクションエリア内のすり抜け挙動を検出するトランザクションモニタによる処理に関する一つの構成の動作を示すフローチャートである。It is a flowchart which shows operation | movement of one structure regarding the process by the transaction monitor which detects the slipping-in behavior in a transaction area. トランザクションモニタが、誤識別アイテムが検出される構成例において実行する処理のフローチャートである。It is a flowchart of the process which a transaction monitor performs in the structural example in which a misidentification item is detected. 注目領域における挙動を検出してアイテムの存在を通知する一つの方法を示す。One method for detecting the behavior in the region of interest and notifying the presence of the item is shown. トランザクションモニタが一つの構成において、トランザクションに含まれるアイテムを、ビデオデータ分析結果を使用してカウントする処理を示す。In one configuration, the transaction monitor shows a process of counting items included in a transaction using a video data analysis result. トランザクションモニタが実行することができる処理の一つの方法を示し、この処理によって、オブジェクト移送イベント及び搬入イベントの検出が可能になる。One method of processing that can be performed by the transaction monitor is shown, which allows detection of object transfer events and import events. トランザクションモニタが一つの構成において使用して顧客及び/又は従業員の存在の検出及び追跡を可能にする処理ステップを示すフローチャートである。FIG. 6 is a flow chart illustrating processing steps that a transaction monitor can use in one configuration to detect and track the presence of customers and / or employees. トランザクションモニタ32が従業員及び/又は顧客オブジェクト区分けを実現するために実行する処理を示す処理ステップのフローチャートである。It is a flowchart of the processing step which shows the process which the transaction monitor 32 performs in order to implement | achieve employee and / or customer object classification. ビデオ分析を行なうときに検出器が使用するエリア比較方法を提供するためにトランザクションモニタが実行することができる処理動作のフローチャートである。FIG. 6 is a flowchart of processing operations that a transaction monitor can perform to provide an area comparison method that a detector uses when performing video analysis. キーフレームエリア比較を可能にするためにトランザクションモニタが実行する処理ステップのフローチャートである。FIG. 6 is a flowchart of processing steps performed by a transaction monitor to enable keyframe area comparison. トランザクションモニタによる処理について説明した処理ステップのフローチャートであり、トランザクションモニタによる処理によって、すり抜けアイテム検出方法が提供される。It is a flowchart of the process step explaining the process by a transaction monitor, and the passing-through item detection method is provided by the process by a transaction monitor. ビデオデータのフレーム群の例を示し、これらのフレームは、トランザクションエリアがイベントの検出前に現われ、そしてイベントの検出後に現われる様子を示している。An example of a frame group of video data is shown, and these frames show how a transaction area appears before an event is detected and after an event is detected. トランザクションマネージャがどのようにして、1回よりも多くの目視アイテム検出がトランザクション−アイテム間の同じ時間間隔内に行なわれるかどうかを判断することができるかについて示すイベント群の時間系列図である。FIG. 4 is a timeline diagram of events illustrating how a transaction manager can determine whether more than one visual item detection occurs within the same transaction-item time interval.

Claims (32)

不審挙動を検出する方法であって、
トランザクションエリアを監視する少なくとも一つのビデオカメラから送出されるビデオデータを取得すること、
前記ビデオデータを分析して前記トランザクションエリアにおけるトランザクションに含まれるアイテムを追跡することであって、前記分析することは、前記ビデオデータの少なくとも一部分における少なくとも一つの注目領域からビデオフレームを自動的に分析して、取引に関連するアイテムの存在を示す各イベントを特定することを含む、前記追跡すること
追跡アイテムのビデオ分析結果をトランザクション端末で生成されたトランザクションデータと比較して不審挙動を特定することであって、前記比較することは、前記ビデオデータの分析により生成されたイベントと前記トランザクションデータとを比較することにより、前記トランザクションにおいて取引されているとして特定される一連のアイテムを分析すること、前記ビデオデータの分析により生成された少なくとも一つのイベントによって表されるアイテムが、前記トランザクションデータの少なくとも一部分の中の取引アイテムとして示されているか否かを判断すること、及び前記ビデオデータの分析によるイベントのビデオタイムスタンプを、前記トランザクションデータの中で取引されていたものとして表わされるアイテムのトランザクションタイムスタンプに関連付けることにより、前記トランザクションデータの中に対応するレコードを持たないビデオデータ内のアイテムを示すイベントを特定することを含む、前記特定することを備える方法。
A method for detecting suspicious behavior,
Obtaining video data transmitted from at least one video camera monitoring the transaction area;
Analyzing the video data to track items included in a transaction in the transaction area , the analyzing automatically analyzing video frames from at least one region of interest in at least a portion of the video data. Tracking, including identifying each event indicative of the presence of an item associated with the transaction ,
Comparing the video analysis result of the tracked item with transaction data generated at a transaction terminal to identify suspicious behavior , the comparing comprising: generating an event generated by analyzing the video data; and the transaction data Analyzing the set of items identified as being traded in the transaction, wherein the item represented by the at least one event generated by the analysis of the video data is at least one of the transaction data Determining whether a transaction item in a portion is indicated as a transaction item, and analyzing the video data for a video timestamp of the event represented as having been traded in the transaction data By associating the transaction time stamp, it includes identifying an event indicating an item in the video data with no record corresponding to the inside of said transaction data, the method comprising to the specific.
前記ビデオデータを分析して前記トランザクションに含まれるアイテムを追跡することは、前記トランザクションに含まれるアイテムの存在を自動的に特定することを含み、
前記追跡アイテムのビデオ分析結果をトランザクションデータと比較することは、前記ビデオデータの分析において特定されたアイテムの存在が、前記トランザクションデータの中の対応する存在と一致するかどうかを判断し、一致しない場合に不審挙動を特定することを含む、請求項1記載の方法。
Analyzing the video data to track items included in the transaction includes automatically identifying the presence of an item included in the transaction;
Comparing the video analysis result of the tracked item with transaction data determines whether the presence of the item identified in the analysis of the video data matches the corresponding presence in the transaction data and does not match The method of claim 1, comprising identifying suspicious behavior in the case.
前記トランザクションに含まれるアイテムの存在を自動的に特定することは、
前記トランザクションエリアにおけるアイテムの挙動を検出すること、及び、
前記トランザクションエリアにおけるオペレータの挙動を検出すること、
のうちの少なくとも一つを含む、請求項2記載の方法。
Automatically identifying the presence of an item included in the transaction,
Detecting the behavior of items in the transaction area; and
Detecting operator behavior in the transaction area;
The method of claim 2, comprising at least one of:
前記トランザクションに含まれるアイテムの存在を自動的に特定することは、
前記トランザクションエリアの注目領域からのアイテムの移送を検出すること、及び、
前記トランザクションエリアの注目領域へのアイテムの搬入を検出すること、
のうちの少なくとも一つを含む、請求項2記載の方法。
Automatically identifying the presence of an item included in the transaction,
Detecting the transfer of items from the attention area of the transaction area; and
Detecting the delivery of an item to the attention area of the transaction area;
The method of claim 2, comprising at least one of:
トランザクション結果を判定する方法であって、
トランザクションエリアに関連するビデオデータを取得すること、
前記ビデオデータの少なくとも一部分を分析して、前記トランザクションエリアに関連するトランザクションの少なくとも一部分に関する少なくとも一つのビデオパラメータを取得することであって、前記分析することは、前記ビデオデータの少なくとも一部分における少なくとも一つの注目領域からビデオフレームを自動的に分析して、取引に関連するアイテムの存在を示す各イベントを特定することを含む、前記取得すること
前記トランザクションエリアに関連するトランザクション端末から送出された少なくとも一つのトランザクションパラメータを取得することであって、前記取得することは、前記トランザクション端末からのトランザクションデータの少なくとも一部分を分析して、前記トランザクションにおいて取引されているとして特定される一連のアイテムを特定することを含む、前記取得すること
前記少なくとも一つのビデオパラメータを前記少なくとも一つのトランザクションパラメータと自動的に比較してトランザクション結果を確認することであって、前記比較することは、前記ビデオデータの分析により生成されたイベントと前記トランザクションデータとを比較することにより、前記トランザクションにおいて取引されているとして特定される一連のアイテムを分析すること、前記ビデオデータの分析により生成された少なくとも一つのイベントによって表されるアイテムが、前記トランザクションデータの少なくとも一部分の中の取引アイテムとして示されているか否かを判断すること、及び前記ビデオデータの分析によるイベントのビデオタイムスタンプを、前記トランザクションデータの中で取引されていたものとして表わされるアイテムのトランザクションタイムスタンプに関連付けることにより、前記トランザクションデータの中に対応するレコードを持たないビデオデータ内のアイテムを示すイベントを特定することを含む、前記確認することを備える方法。
A method for determining a transaction result,
Obtaining video data related to the transaction area,
Analyzing at least a portion of the video data to obtain at least one video parameter for at least a portion of a transaction associated with the transaction area , wherein the analyzing comprises at least one of at least a portion of the video data. Automatically obtaining video frames from one region of interest to identify each event indicative of the presence of an item associated with the transaction, said obtaining
Obtaining at least one transaction parameter sent from a transaction terminal associated with the transaction area , wherein the obtaining comprises analyzing at least a portion of transaction data from the transaction terminal and transacting in the transaction. Identifying, including identifying a series of items identified as being
Automatically comparing the at least one video parameter with the at least one transaction parameter to confirm a transaction result , the comparing comprising generating an event generated by analyzing the video data and the transaction data; Analyzing the series of items identified as being traded in the transaction, and the item represented by the at least one event generated by the analysis of the video data is Determining whether at least a portion is indicated as a trade item, and analyzing the video data as a video time stamp of the event as being traded in the transaction data By associating the transaction time stamp of the item to be I, it includes identifying an event indicating an item in the video data with no record corresponding to the inside of said transaction data, the method comprising to the confirmation.
前記ビデオデータを取得することは、前記トランザクションエリアを監視する少なくとも一つの高所撮影ビデオカメラから送出されたビデオデータを取得することを含み、
前記ビデオデータの少なくとも一部分を分析することは、前記ビデオデータを分析して前記トランザクションエリアにおけるトランザクションに含まれるアイテムを追跡することを含み、
前記少なくとも一つのビデオパラメータを前記少なくとも一つのトランザクションパラメータと自動的に比較してトランザクション結果を確認することは、追跡アイテムのビデオ分析結果を前記トランザクション端末で生成されたトランザクションデータと比較して不審挙動を特定することを含む、請求項5記載の方法。
Obtaining the video data includes obtaining video data sent from at least one high-profile video camera that monitors the transaction area;
Analyzing at least a portion of the video data includes analyzing the video data to track items included in a transaction in the transaction area;
The automatic comparison of the at least one video parameter with the at least one transaction parameter to confirm a transaction result compares the video analysis result of the tracked item with the transaction data generated at the transaction terminal, 6. The method of claim 5, comprising identifying
前記ビデオデータの少なくとも一部分を分析することは、前記ビデオデータの少なくと
も一部分における少なくとも一つの注目領域内で、アイテムの検出を示す1セットの検出イベントを少なくとも一つの検出器によって生成することを含み、
前記少なくとも一つのビデオパラメータを前記少なくとも一つのトランザクションパラメータと自動的に比較することは、
各検出器が、当該検出器に関する前記1セットの検出イベントをトランザクションデータの少なくとも一部分と比較して、当該検出器によって検出された複数のアイテムの中に、前記トランザクションデータの少なくとも一部分に示された複数のアイテムとは異なる少なくとも一つの明らかな不一致を特定すること、
前記トランザクションに関する総合不審レベルを、前記少なくとも一つの検出器によって特定された明らかな不一致に基づいて特定すること、を含む、請求項5記載の方法。
Analyzing at least a portion of the video data includes generating, by at least one detector, a set of detection events indicating detection of an item within at least one region of interest in at least a portion of the video data;
Automatically comparing the at least one video parameter with the at least one transaction parameter;
Each detector compares the set of detection events for the detector with at least a portion of the transaction data and is indicated in at least a portion of the transaction data among a plurality of items detected by the detector. Identify at least one obvious discrepancy that differs from multiple items;
6. The method of claim 5, comprising identifying an overall suspicious level for the transaction based on an apparent discrepancy identified by the at least one detector.
前記各検出器は、前記トランザクションエリアにおける前記ビデオデータの注目領域に適用されるビデオ処理アルゴリズムであり、
前記1セットの検出イベントを比較することは、少なくとも一つの検出器からの少なくとも1セットの検出イベントを前記トランザクションデータの少なくとも一部分と一斉に比較して、前記トランザクションエリアにおいて処理される複数のアイテムの中の不一致を特定することを含む、請求項7記載の方法。
Each detector is a video processing algorithm applied to a region of interest of the video data in the transaction area;
Comparing the set of detection events includes comparing at least one set of detection events from at least one detector with at least a portion of the transaction data to determine a plurality of items to be processed in the transaction area. 8. The method of claim 7, comprising identifying a discrepancy in.
前記ビデオデータの少なくとも一部分を分析することは、マシンを使った自動ビデオ分析技術により、前記トランザクションエリアに関連するアイテムのビデオイベントを検出することを含み、
前記トランザクションエリアで行なわれるトランザクションに関する少なくとも一つのビデオパラメータを取得することは、前記トランザクションエリアに関連するアイテムのトランザクションイベントを示すトランザクションデータを特定することを含み、
前記少なくとも一つのビデオパラメータを前記少なくとも一つのトランザクションパラメータと自動的に比較することは、前記ビデオイベントが前記トランザクションデータのトランザクションイベントとして特定されるか否かを判断し、その判断に従って、前記トランザクションイベントとして特定されないビデオイベントが発生する場所を示すビデオデータの特定部分を識別することを含む、請求項5記載の方法。
Analyzing at least a portion of the video data includes detecting video events of items associated with the transaction area by a machine-based automated video analysis technique;
Obtaining at least one video parameter for a transaction performed in the transaction area includes identifying transaction data indicative of a transaction event of an item associated with the transaction area;
The automatic comparison of the at least one video parameter with the at least one transaction parameter determines whether the video event is identified as a transaction event of the transaction data, and according to the determination, the transaction event 6. The method of claim 5, comprising identifying a specific portion of video data indicating where a video event not specified as occurring occurs.
前記ビデオデータの特定部分を識別することは、前記トランザクションイベントとして特定されないビデオイベントが発生する場所を示す前記ビデオデータの特定部分を、前記ビデオデータの一区分を検査する検査担当者に送信して、前記トランザクション期間中のアイテムの取引に関するオペレータの不審挙動を精査することを含む、請求項9記載の方法。  Identifying the specific portion of the video data includes sending the specific portion of the video data indicating where a video event not specified as the transaction event occurs to an inspector inspecting the segment of the video data. 10. The method of claim 9, comprising scrutinizing an operator's suspicious behavior regarding trading of items during the transaction period. 前記少なくとも一つのビデオパラメータを前記少なくとも一つのトランザクションパラメータと自動的に比較することは、前記トランザクションデータに対する前記ビデオデータの自動ビデオ分析を行なうことによって生成された不審レベルを、前記ビデオデータの一区分に割り当てることを含む、請求項10記載の方法。  The automatic comparison of the at least one video parameter with the at least one transaction parameter may include determining a suspicious level generated by performing an automatic video analysis of the video data on the transaction data. The method of claim 10, comprising assigning to: 前記ビデオデータの少なくとも一部分を分析することは、
注目領域をトランザクションエリア内に定義すること、
前記注目領域内の第1セットのアイテムを示す第1ビデオデータフレームを自動的に特定すること、
前記注目領域内の第2セットのアイテムであって、前記第1セットのアイテムとは視覚的に異なる当該第2セットのアイテムを示す第2ビデオデータフレームを自動的に特定すること、
前記第2セットのアイテムに対する前記第1セットのアイテムの視覚的な相違を、前記ビデオデータの注目領域内にアイテムが存在していたことを示すイベントとして自動的に
通知すること、を含み、
前記少なくとも一つのトランザクションパラメータを取得することは、前記トランザクションエリアに関連するトランザクション端末に関連するトランザクションデータであって、前記アイテムがトランザクションアイテムとしてトランザクション端末に登録されたか否かを示す当該トランザクションデータを取得することを含み、
前記少なくとも一つのビデオパラメータを前記少なくとも一つのトランザクションパラメータと自動的に比較することは、前記注目領域内にアイテムが存在していたことを示すイベントに対応するアイテムに関して前記トランザクションデータが欠落している場合に不審挙動を特定することを含む、請求項5記載の方法。
Analyzing at least a portion of the video data comprises:
Defining the area of interest within the transaction area,
Automatically identifying a first video data frame representing a first set of items in the region of interest;
Automatically identifying a second set of items in the region of interest that are second video data frames representing the second set of items visually different from the first set of items;
Automatically notifying the visual difference of the first set of items with respect to the second set of items as an event indicating that an item was present in a region of interest of the video data;
Acquiring the at least one transaction parameter is transaction data associated with a transaction terminal associated with the transaction area, the transaction data indicating whether the item is registered in the transaction terminal as a transaction item. Including
The automatic comparison of the at least one video parameter with the at least one transaction parameter is missing the transaction data for an item corresponding to an event indicating that the item was present in the region of interest. 6. The method of claim 5, comprising identifying suspicious behavior in the case.
前記ビデオデータの少なくとも一部分を分析することは、
注目領域をトランザクションエリア内に定義すること、
前記注目領域内の第1セットのアイテムを第1回目に自動的に特定すること、
前記注目領域内の第2セットのアイテムであって、前記第1セットのアイテムとは視覚的に異なる当該第2セットのアイテムを第2回目に自動的に特定すること、
前記第2セットのアイテムに対する前記第1セットのアイテムの視覚的な相違を、前記ビデオデータの注目領域内にアイテムが存在していたことを示すイベントとして自動的に通知すること、を含み、
前記少なくとも一つのトランザクションパラメータを取得することは、前記トランザクションエリアに関連するトランザクション端末に関連するトランザクションデータであって、前記アイテムがトランザクションアイテムとしてトランザクション端末に登録されたか否かを示す当該トランザクションデータを取得することを含み、
前記少なくとも一つのビデオパラメータを前記少なくとも一つのトランザクションパラメータと自動的に比較することは、前記注目領域内にアイテムが存在していたことを示すイベントに対応するアイテムに関して前記トランザクションデータが欠落している場合に不審挙動を特定することを含む、請求項5記載の方法。
Analyzing at least a portion of the video data comprises:
Defining the area of interest within the transaction area,
Automatically identifying a first set of items in the region of interest for a first time;
Automatically identifying a second set of items in the region of interest, the second set of items being visually different from the first set of items for a second time;
Automatically notifying the visual difference of the first set of items with respect to the second set of items as an event indicating that an item was present in a region of interest of the video data;
Acquiring the at least one transaction parameter is transaction data associated with a transaction terminal associated with the transaction area, the transaction data indicating whether the item is registered in the transaction terminal as a transaction item. Including
The automatic comparison of the at least one video parameter with the at least one transaction parameter is missing the transaction data for an item corresponding to an event indicating that the item was present in the region of interest. 6. The method of claim 5, comprising identifying suspicious behavior in the case.
前記ビデオデータの少なくとも一部分を分析することは、前記トランザクションエリアを撮影したビデオのビデオ分析を行って、次の複数の項目のうちの少なくとも一つに関してビデオカウントを自動的に検出し生成することを含み、当該複数の項目は、
前記トランザクションエリアを通過するオブジェクトの挙動、
前記トランザクションエリア内の特定の注目領域内でのオブジェクトの挙動、
前記トランザクションエリア内の複数の特定の注目領域内でのオブジェクトの挙動、
前記トランザクションエリア内の特定の注目領域に侵入するオブジェクトの挙動、
前記トランザクションエリア内の特定の注目領域から出て行くオブジェクトの挙動、
を含む、請求項5記載の方法。
Analyzing at least a portion of the video data comprises performing a video analysis of the video taken of the transaction area to automatically detect and generate a video count for at least one of the next plurality of items. Including the plurality of items,
The behavior of objects passing through the transaction area,
The behavior of the object within a particular area of interest within the transaction area,
The behavior of the object within a plurality of specific areas of interest within the transaction area;
The behavior of an object that enters a particular area of interest within the transaction area,
The behavior of an object leaving a particular area of interest within the transaction area,
The method of claim 5 comprising:
前記ビデオデータを取得することは、前記トランザクションエリア内でアイテムが取引されているという示唆を含む前記ビデオデータを、前記トランザクションエリアのスキャナエリアとほぼ同じ高さのトランザクションエリアにおける少なくとも一つの注目領域から取得することを含み、
前記トランザクションエリアを撮影したビデオのビデオ分析を行って前記オブジェクトの挙動のカウントを自動的に検出し生成することは、
前記トランザクションエリア内の顧客、オペレータ、及びアイテムのうちの少なくとも一つを含むオブジェクトに関連する挙動であって、前記トランザクションエリア内で取引されるアイテムの存在を示す当該挙動を検出すること、及び、
当該挙動を検出した後、前記トランザクションエリア内で検出されたアイテムの存在のレコードを維持すること、
のうちの少なくとも一つを含む、請求項14記載の方法。
Acquiring the video data includes extracting the video data including an indication that an item is being traded within the transaction area from at least one region of interest in a transaction area that is approximately the same height as the scanner area of the transaction area. Including obtaining,
Performing a video analysis of the video taken of the transaction area to automatically detect and generate a count of the behavior of the object,
Detecting a behavior associated with an object including at least one of a customer, an operator, and an item in the transaction area, the behavior indicating the presence of an item traded in the transaction area; and
After detecting the behavior, maintaining a record of the presence of the detected item in the transaction area;
15. The method of claim 14, comprising at least one of:
前記ビデオデータの少なくとも一部分を分析することは、前記トランザクションエリア内で検出されたアイテムの画像認識を自動ビデオ分析を利用して行って、アイテムのビデオ識別情報を生成することを含み、
前記少なくとも一つのトランザクションパラメータを取得することは、前記トランザクションエリア内で検出されたアイテムの予測アイテム識別情報を特定することを含み、
前記少なくとも一つのビデオパラメータを前記少なくとも一つのトランザクションパラメータと自動的に比較することは、前記アイテムのビデオ識別情報を当該アイテムの予測識別情報と比較し、ビデオ識別情報が予測識別情報と異なる場合に不審挙動を表すトランザクション結果を通知することを含む、請求項5記載の方法。
Analyzing at least a portion of the video data includes performing image recognition of an item detected within the transaction area using automatic video analysis to generate video identification information for the item;
Obtaining the at least one transaction parameter includes identifying predicted item identification information for items detected within the transaction area;
The automatic comparison of the at least one video parameter with the at least one transaction parameter compares the video identification information of the item with the predicted identification information of the item, and the video identification information is different from the predicted identification information. 6. The method of claim 5, comprising notifying a transaction result representing suspicious behavior.
前記少なくとも一つのビデオパラメータを前記少なくとも一つのトランザクションパラメータと自動的に比較することは、
前記トランザクションエリアに関連する不正挙動を示唆するトランザクション結果を検出すること、及び、
前記トランザクションエリアに関連するオペレータエラーを示唆するトランザクション結果を検出すること、
のうちの少なくとも一つを含む、請求項5記載の方法。
Automatically comparing the at least one video parameter with the at least one transaction parameter;
Detecting a transaction result indicative of fraudulent behavior associated with the transaction area; and
Detecting a transaction result indicative of an operator error associated with the transaction area;
6. The method of claim 5, comprising at least one of:
前記ビデオデータの少なくとも一部分を分析することは、前記トランザクションエリアの注目領域内で取引されているアイテムの存在を示すオペレータのモーションを特定することを含み、
前記少なくとも一つのトランザクションパラメータを取得することは、前記オペレータのモーションを特定することに対応するトランザクションデータの中に前記アイテムのレコードが含まれているか否かを通知することを含み、
前記少なくとも一つのビデオパラメータを前記少なくとも一つのトランザクションパラメータと自動的に比較することは、前記トランザクションエリアの注目領域内でのオペレータのモーションが、取引されるアイテムの存在を示しているが、前記トランザクション
データの中にアイテムのレコードは含まれていないことを特定し、その特定に従って不審挙動を通知することを含む、請求項5記載の方法。
Analyzing at least a portion of the video data includes identifying an operator motion indicative of the presence of an item being traded within an area of interest in the transaction area;
Obtaining the at least one transaction parameter comprises notifying whether a record of the item is included in transaction data corresponding to identifying the motion of the operator;
The automatic comparison of the at least one video parameter with the at least one transaction parameter indicates that an operator motion within a region of interest in the transaction area indicates the presence of an item to be traded. 6. The method of claim 5, comprising identifying that the record of the item is not included in the data and notifying the suspicious behavior according to the identification.
前記ビデオデータの少なくとも一部分を分析することは、前記トランザクションエリア内で検出されたアイテムのビデオカウントをビデオ分析を使用して特定することを含み、
前記トランザクションエリアにおいて行なわれるトランザクションの少なくとも一部分に関する少なくとも一つのトランザクションパラメータを取得することは、前記トランザクションエリア内のアイテムのトランザクションカウントを、前記トランザクションの少なくとも一部分に関連するトランザクションデータを分析することにより特定することを含み、
前記少なくとも一つのビデオパラメータを前記少なくとも一つのトランザクションパラメータと自動的に比較することは、前記ビデオカウントを前記トランザクションカウントと比較し、ビデオカウントがトランザクションカウントと異なる場合に、不正トランザクション及びオペレータエラーのうちの少なくとも一つを表すトランザクション結果を通知することを含む、請求項5記載の方法。
Analyzing at least a portion of the video data includes identifying video counts of items detected within the transaction area using video analysis;
Obtaining at least one transaction parameter for at least a portion of a transaction performed in the transaction area identifies a transaction count of an item in the transaction area by analyzing transaction data associated with at least a portion of the transaction. Including
The automatic comparison of the at least one video parameter with the at least one transaction parameter compares the video count with the transaction count and, if the video count is different from the transaction count, out of fraudulent transactions and operator errors. 6. The method of claim 5, comprising notifying a transaction result representing at least one of the following.
前記少なくとも一つのビデオパラメータを前記少なくとも一つのトランザクションパラメータと自動的に比較することは、前記トランザクション結果に関連する不審レベルを次の複数の項目のうちの少なくとも一つに基づいて調整することを含み、当該複数の項目は、
i)前記トランザクションカウントと前記ビデオカウントとの差の数、
ii)前記トランザクションを処理するオペレータの履歴であって、少なくとも一つの前回のトランザクションが、当該履歴に示されるオペレータに関して疑わしいとして特定されていることを示す履歴、
iii)前記ビデオデータ内にアイテムが検出されている注目領域の数、
iv)前記トランザクションエリア内の異なる注目領域内でビデオデータ内のアイテムが検出される順番、
v)前記ビデオデータ内のアイテムのビデオ識別情報と、前記トランザクションデータから得られたアイテムのトランザクション識別情報とを比較したときの不一致であって、前記トランザクション識別情報がアイテムの価格及びアイテムの識別情報のうちの少なくとも一つであるときにおける不一致、
vi)前記トランザクションを実行する端末の履歴、
vii)前記トランザクションにおいて特定される他のアイテムの履歴であって、前記トランザクションデータを必要としないトランザクション内におけるアイテムを示唆する履歴、
viii)前記トランザクションデータに含まれる1セットのアイテム、
を含む、請求項19記載の方法。
Automatically comparing the at least one video parameter with the at least one transaction parameter includes adjusting a suspicious level associated with the transaction result based on at least one of the following items: The multiple items are
i) the number of differences between the transaction count and the video count;
ii) a history of an operator processing the transaction, the history indicating that at least one previous transaction has been identified as suspicious with respect to the operator indicated in the history;
iii) the number of regions of interest in which items are detected in the video data;
iv) the order in which items in the video data are detected in different attention areas in the transaction area;
v) mismatch when comparing the video identification information of the item in the video data with the transaction identification information of the item obtained from the transaction data, wherein the transaction identification information is the price of the item and the identification information of the item A discrepancy when at least one of
vi) the history of the terminal executing the transaction;
vii) a history of other items identified in the transaction that suggests items in the transaction that do not require the transaction data;
viii) a set of items included in the transaction data;
20. The method of claim 19 , comprising:
前記ビデオデータの少なくとも一部分を分析することは、
前記ビデオデータの第1注目領域からのアイテムの移送を検出すること、
前記第1注目領域からのアイテムの移送を検出した後に、前記ビデオデータの第2注目領域への当該アイテムの搬入を検出すること、を含み、
前記少なくとも一つのトランザクションパラメータを取得することは、
前記トランザクション端末によって生成されるトランザクションデータを取得することを含み、
前記少なくとも一つのビデオパラメータを前記少なくとも一つのトランザクションパラメータと自動的に比較することは、移送及び搬入が検出されたアイテムが取引アイテムとして前記トランザクションデータ内に存在するかどうかを当該トランザクションデータとの比較により特定し、アイテムが存在しない場合に、当該アイテムに関連する不審挙動の通知を行うことを含む、請求項5記載の方法。
Analyzing at least a portion of the video data comprises:
Detecting the transfer of items from a first region of interest of the video data;
Detecting the transfer of the item to the second region of interest of the video data after detecting the transfer of the item from the first region of interest;
Obtaining the at least one transaction parameter comprises:
Obtaining transaction data generated by the transaction terminal;
The automatic comparison of the at least one video parameter with the at least one transaction parameter is a comparison with the transaction data whether the item detected to be transferred and loaded is present in the transaction data as a transaction item. The method according to claim 5, further comprising: notifying of a suspicious behavior related to an item when the item is identified and the item does not exist.
前記ビデオデータの少なくとも一部分を分析することは、前記アイテムの移送検出及び前記アイテムの搬入検出に応答して、ビデオカウントをインクリメントして前記トランザクションに関連するアイテムの存在を通知することを含み、
当該方法はさらに、
前記アイテムの移送検出、前記アイテムの搬入検出、及び前記ビデオカウントのインクリメントを、前記トランザクションが終了するまで繰り返することを含み、前記トランザクション終了時のビデオカウントは、前記ビデオデータの分析に基づいて当該トランザクションにおいて特定されるアイテムの合計数を表す、請求項2記載の方法。
Analyzing at least a portion of the video data includes incrementing a video count to notify the presence of an item associated with the transaction in response to the detection of the transfer of the item and the detection of the import of the item;
The method further includes:
Repetitively detecting the transfer of the item, detecting the arrival of the item, and incrementing the video count until the transaction ends, and the video count at the end of the transaction is determined based on the analysis of the video data. It represents the total number of items identified in the transaction, according to claim 2 1 the method according.
前記ビデオデータの少なくとも一部分を分析することは、
少なくとも一つの注目領域を前記ビデオデータ内に定義すること、
前記少なくとも一つの注目領域の現在画像と更新済み背景画像との間の変化を特定するオブジェクトマップを計算すること、
前記少なくとも一つの注目領域内の少なくとも一つのオペレータオブジェクトを切り出すこと、
前記少なくとも一つの注目領域に対して前記オブジェクトの移送及び搬入の少なくとも一つが前記オブジェクトマップ及び前記オペレータオブジェクトの分析によって特定されるかどうかを検出すること、
を含む、請求項5記載の方法。
Analyzing at least a portion of the video data comprises:
Defining at least one region of interest in the video data;
Calculating an object map that identifies a change between a current image and an updated background image of the at least one region of interest;
Cutting out at least one operator object in the at least one region of interest;
Detecting whether at least one of transfer and carry-in of the object for the at least one region of interest is specified by analysis of the object map and the operator object;
The method of claim 5 comprising:
前記ビデオデータを分析することは、前記ビデオデータに画像調整処理を施して、前記ビデオデータの全領域に渡ってオートゲイン特性を補正することを含み、
前記画像調整処理は、前記ビデオデータ内に捕捉されている注目領域の一部分に限定して施される、請求項2記載の方法。
Analyzing the video data includes performing image adjustment processing on the video data to correct auto gain characteristics over the entire area of the video data,
The image adjustment processing, the applied is limited to a portion of the region of interest that are captured in the video data, according to claim 2 3 A method according.
前記画像調整処理を施すことは、
前記トランザクションエリア内のオブジェクトであって、静止状態を維持し、かつカラーシフト及び輝度シフトのうちの少なくとも一つを示す当該オブジェクトに焦点を限定することを含む、請求項2記載の方法。
Applying the image adjustment process,
Wherein a object of the transaction area, remains stationary, and including limiting the focus to the object indicating at least one of a color shift and brightness shift, claims 2 to 4 The method according.
前記少なくとも一つの注目領域を定義することは、
オブジェクト搬入エリアを第1注目領域として定義すること、
オブジェクト搬出エリアを第2注目領域として定義すること、を含み、
前記オブジェクトの移送イベント及び搬入イベントのうちの少なくとも一つを検出することは、
オペレータがオブジェクトを前記オブジェクト搬入エリアから移送するとき、オブジェクト移送イベントを検出すること、
オペレータがオブジェクトを前記オブジェクト搬出エリアに載置するとき、オブジェクト搬入イベントを検出すること、
移送イベントに続く搬入イベントの検出に応答して、少なくとも一つのビデオトランザクションパラメータとしてビデオカウントをインクリメントすること、
を含む、請求項2記載の方法。
Defining the at least one region of interest includes
Defining the object carry-in area as the first region of interest;
Defining the object carry-out area as a second region of interest,
Detecting at least one of a transfer event and a carry-in event of the object,
Detecting an object transfer event when an operator transfers an object from the object carry-in area;
Detecting an object carry-in event when an operator places an object in the object carry-out area;
In response to detecting an incoming event following the transfer event, incrementing the video count as at least one video transaction parameter;
Including, claim 2 3 A method according.
前記少なくとも一つの注目領域のうちの少なくとも一つはコンベヤベルトを含み、現在のビデオデータフレーム及び前回のビデオデータフレーム内に捕捉されるコンベヤベルト上のオブジェクト群の位置は当該コンベヤベルトによって時間経過とともに移動し、
前記ビデオデータの少なくとも一部分を分析することは、
前記注目領域内の前回のビデオデータフレームと現在のビデオデータフレームとを関連付けて、前記コンベヤベルト上のオブジェクト群の位置の移動量を求めること、
オブジェクト移送イベント及びオブジェクト搬入イベントのうちの少なくとも一つを検出するとき、前記コンベヤベルト上のオブジェクト群の位置の移動量を把握すること、
を含む、請求項2記載の方法。
At least one of the at least one region of interest includes a conveyor belt, and the position of objects on the conveyor belt captured in the current video data frame and the previous video data frame is over time by the conveyor belt. Move and
Analyzing at least a portion of the video data comprises:
Associating the previous video data frame with the current video data frame in the region of interest to determine the amount of movement of the position of the object group on the conveyor belt;
Grasping the amount of movement of the position of the object group on the conveyor belt when detecting at least one of an object transfer event and an object carry-in event;
Including, claims 2 to 4 The method according.
前記ビデオデータの少なくとも一部分を分析することは、
搬入イベント及び移送イベントのうちの少なくとも一つに関連するアイテムの画像が、既に保存されているアイテムの画像とほぼ一致するかどうかを画像比較を行って判断すること、
画像が実質的に一致しない場合に、前記トランザクションが潜在的不審挙動及び潜在的オペレータエラーのうちの一つを示唆するラベル取り替えイベントを潜在的に含んでいるものとして特定すること、
を含む、請求項2記載の方法。
Analyzing at least a portion of the video data comprises:
Determining whether an image of an item related to at least one of a carry-in event and a transfer event substantially matches an image of an already stored item by performing an image comparison;
Identifying the transaction as potentially containing a label replacement event indicating one of potential suspicious behavior and potential operator error if the images do not substantially match;
Including, claim 2 3 A method according.
前記ビデオデータの少なくとも一部分を分析することは、
前記トランザクションの少なくとも一部分の期間でオブジェクト群が順次移動する複数の領域に、前記トランザクションエリアを分割すること、
前記複数の領域をアイテムが順次移動するときに、アイテムの自動ビデオ検出を行なって、前記少なくとも一つのビデオパラメータによって表されるパターンを取得することであって、前記トランザクションの少なくとも一部分の期間で前記複数の領域を移動するアイテムのビデオイベントを表す当該パターンを取得すること、を含み、
前記少なくとも一つのトランザクションパラメータを取得することは、
前記トランザクションの少なくとも一部分の期間で前記トランザクション端末によって検出されたアイテムを特定するトランザクションデータを取得することを含み、
前記少なくとも一つのビデオパラメータを前記少なくとも一つのトランザクションパラメータと自動的に比較することは、前記トランザクションの少なくとも一部分の中でのアイテムのビデオイベントを表す前記パターンが、前記トランザクションの少なくとも一部分の期間で前記トランザクション端末によって検出されたアイテムを特定するトランザクションデータとの不一致を示しているか否かを判断し、パターンが不一致を示している場合に、前記トランザクション結果を不審トランザクションであると特定することを含む、請求項5記載の方法。
Analyzing at least a portion of the video data comprises:
Dividing the transaction area into a plurality of areas in which an object group sequentially moves during a period of at least a part of the transaction;
Performing automatic video detection of an item as the item moves sequentially through the plurality of regions to obtain a pattern represented by the at least one video parameter, wherein the pattern is at least a portion of the transaction. Obtaining the pattern representing a video event of an item moving through a plurality of areas,
Obtaining the at least one transaction parameter comprises:
Obtaining transaction data identifying items detected by the transaction terminal during a period of at least a portion of the transaction;
The automatic comparison of the at least one video parameter with the at least one transaction parameter means that the pattern representing an item's video event in at least a portion of the transaction is a period of at least a portion of the transaction. Determining whether the item detected by the transaction terminal indicates a mismatch with the transaction data that identifies the item, and identifying the transaction result as a suspicious transaction if the pattern indicates a mismatch, The method of claim 5.
前記アイテムの自動ビデオ検出を行うことは、
アイテム搬入エリアにおける移送イベントであって、オペレータがアイテムを前記アイテム搬入エリアから移送したことを示す当該移送イベントを特定すること、
アイテム搬出エリアにおける搬入イベントであって、オペレータがアイテムを前記アイテム搬出エリアに載置したことを示す当該搬入イベントを特定すること、
を含む、請求項29記載の方法。
Performing automatic video detection of the item
Identifying a transfer event in an item carry-in area that indicates that an operator has transferred an item from the item carry-in area;
Identifying a carry-in event in an item carry-out area, wherein the operator indicates that the carry-in event indicates that an item has been placed in the item carry-out area;
30. The method of claim 29 , comprising:
小売店での疑わしい取引行為を特定する方法であって、
トランザクション端末を含むトランザクションエリアであって、顧客がアイテムをトランザクション中に取引する場所である当該トランザクションエリアから高所撮影ビデオデータを収集すること、
前記高所撮影ビデオデータの少なくとも一部分に対して自動ビデオ分析を行って、前記トランザクションに関連する少なくとも一つのアイテムの存在を検出することであって、前記自動ビデオ分析を行うことは、前記ビデオデータの少なくとも一部分における少なくとも一つの注目領域からビデオフレームを自動的に分析して、取引に関連するアイテムの存在を示す各イベントを特定することを含む、前記検出すること
前記ビデオデータに基づいて得られる、前記トランザクションに関連する少なくとも一つのアイテムの存在を、前記トランザクション端末で顧客が実際に取引するアイテムを示すトランザクションデータと比較することによって、顧客が所持し且つ前記トランザクション端末で取引されなかったアイテムを特定することであって、前記比較することは、前記ビデオデータの分析により生成されたイベントと前記トランザクションデータとを比較することにより、前記トランザクションにおいて取引されているとして特定される一連のアイテムを分析すること、前記ビデオデータの分析により生成された少なくとも一つのイベントによって表されるアイテムが、前記トランザクションデータの少なくとも一部分の中の取引アイテムとして示されているか否かを判断すること、及び前記ビデオデータの分析によるイベントのビデオタイムスタンプを、前記トランザクションデータの中で取引されていたものとして表わされるアイテムのトランザクションタイムスタンプに関連付けることにより、前記トランザクションデータの中に対応するレコードを持たないビデオデータ内のアイテムを示すイベントを特定することを含む、前記特定すること
を備える方法。
A method of identifying suspicious transaction activity in a retail store,
Collecting aerial video data from a transaction area that includes a transaction terminal, where the customer trades items during a transaction,
Performing automatic video analysis on at least a portion of the aerial video data to detect the presence of at least one item associated with the transaction, wherein performing the automatic video analysis comprises: Said detecting comprising automatically analyzing video frames from at least one region of interest in at least a portion of said information to identify each event indicative of the presence of an item associated with the transaction ;
By comparing the presence of at least one item associated with the transaction, obtained based on the video data, with transaction data indicating an item that the customer actually trades at the transaction terminal, the customer possesses and the transaction Identifying items that were not traded on the terminal , wherein the comparing is based on comparing the event generated by the analysis of the video data with the transaction data, and is being traded in the transaction Analyzing a series of identified items, an item represented by at least one event generated by analyzing the video data is indicated as a trade item in at least a portion of the transaction data. Determining whether or not, and associating a video timestamp of an event from the analysis of the video data with a transaction timestamp of an item represented as being traded in the transaction data, Identifying, including identifying an event indicative of an item in the video data that does not have a corresponding record therein ,
A method comprising:
小売店での疑わしい取引行為を特定するシステムであって、
トランザクションエリアのビデオデータを撮影するように動作する少なくとも一つの高所撮影ビデオソースと、
トランザクション中にアイテムがトランザクション端末の近傍領域内に載置されたときに、前記アイテムからトランザクションデータを取得するように動作する少なくとも一つのトランザクション端末と、
前記少なくとも一つの高所撮影ビデオカメラから送出されたビデオデータを取得し、該ビデオデータを自動的に分析して前記トランザクションエリアにおけるトランザクションに含まれるアイテムを追跡し、その追跡アイテムのビデオ分析結果を、トランザクション端末によって生成されたトランザクションデータと比較して、前記アイテムに関連する不審挙動を特定するように動作するトランザクションモニタとを備え、
前記トランザクションモニタは、
前記ビデオデータの分析により生成されたイベントと前記トランザクションデータとを比較することにより、前記トランザクションにおいて取引されているとして特定される一連のアイテムを分析し、
前記ビデオデータの分析により生成された少なくとも一つのイベントによって表されるアイテムが、前記トランザクションデータの少なくとも一部分の中の取引アイテムとして示されているか否かを判断し、
前記ビデオデータの分析によるイベントのビデオタイムスタンプを、前記トランザクションデータの中で取引されていたものとして表わされるアイテムのトランザクションタイムスタンプに関連付けることにより、前記トランザクションデータの中に対応するレコードを持たないビデオデータ内のアイテムを示すイベントを特定するように動作する、システム。
A system for identifying suspicious transactions in retail stores,
At least one aerial video source that operates to shoot video data in a transaction area;
At least one transaction terminal that operates to obtain transaction data from the item when the item is placed in the vicinity of the transaction terminal during the transaction;
The video data transmitted from the at least one high-camera video camera is acquired, the video data is automatically analyzed to track items included in the transaction in the transaction area, and the video analysis result of the tracked item is obtained. A transaction monitor that operates to identify suspicious behavior associated with the item as compared to transaction data generated by a transaction terminal;
The transaction monitor
Analyzing a series of items identified as being traded in the transaction by comparing the transaction data with the events generated by the analysis of the video data;
Determining whether an item represented by at least one event generated by analysis of the video data is indicated as a trade item in at least a portion of the transaction data;
A video that does not have a corresponding record in the transaction data by associating a video timestamp of the event from the analysis of the video data with a transaction timestamp of an item represented as being traded in the transaction data A system that operates to identify events that indicate items in the data .
JP2008504413A 2005-03-29 2006-03-29 Method and apparatus for detecting suspicious behavior using video analysis Active JP5054670B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US66608105P 2005-03-29 2005-03-29
US60/666,081 2005-03-29
PCT/US2006/011853 WO2006105376A2 (en) 2005-03-29 2006-03-29 Method and apparatus for detecting suspicious activity using video analysis

Publications (2)

Publication Number Publication Date
JP2008538030A JP2008538030A (en) 2008-10-02
JP5054670B2 true JP5054670B2 (en) 2012-10-24

Family

ID=37054165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008504413A Active JP5054670B2 (en) 2005-03-29 2006-03-29 Method and apparatus for detecting suspicious behavior using video analysis

Country Status (4)

Country Link
EP (1) EP1872307A4 (en)
JP (1) JP5054670B2 (en)
CN (1) CN101268478B (en)
WO (1) WO2006105376A2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3293693A1 (en) 2016-09-07 2018-03-14 Toshiba TEC Kabushiki Kaisha Self-service checkout terminal with a security function based on detection of weight of items
US11687519B2 (en) 2021-08-11 2023-06-27 T-Mobile Usa, Inc. Ensuring availability and integrity of a database across geographical regions

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006049454A1 (en) * 2006-10-17 2008-04-24 Wolfgang Krieger Method and device for identifying objects tagged with RFID transponders
NZ563215A (en) * 2007-11-06 2009-03-31 Zenith Asset Man Ltd A method of monitoring product identification and apparatus therefor
JP5188840B2 (en) * 2008-02-29 2013-04-24 綜合警備保障株式会社 Security device and update method
US8345101B2 (en) 2008-10-31 2013-01-01 International Business Machines Corporation Automatically calibrating regions of interest for video surveillance
US8612286B2 (en) 2008-10-31 2013-12-17 International Business Machines Corporation Creating a training tool
US8429016B2 (en) 2008-10-31 2013-04-23 International Business Machines Corporation Generating an alert based on absence of a given person in a transaction
US7962365B2 (en) 2008-10-31 2011-06-14 International Business Machines Corporation Using detailed process information at a point of sale
US9299229B2 (en) 2008-10-31 2016-03-29 Toshiba Global Commerce Solutions Holdings Corporation Detecting primitive events at checkout
US8253831B2 (en) 2008-11-29 2012-08-28 International Business Machines Corporation Location-aware event detection
US8165349B2 (en) 2008-11-29 2012-04-24 International Business Machines Corporation Analyzing repetitive sequential events
US8571298B2 (en) * 2008-12-23 2013-10-29 Datalogic ADC, Inc. Method and apparatus for identifying and tallying objects
JP5540621B2 (en) * 2009-09-16 2014-07-02 セイコーエプソン株式会社 Receipt printer, receipt printer control method and program
JP5540622B2 (en) * 2009-09-16 2014-07-02 セイコーエプソン株式会社 Receipt printer, receipt printer control method and program
US20110063108A1 (en) * 2009-09-16 2011-03-17 Seiko Epson Corporation Store Surveillance System, Alarm Device, Control Method for a Store Surveillance System, and a Program
US20110087535A1 (en) * 2009-10-14 2011-04-14 Seiko Epson Corporation Information processing device, information processing system, control method for an information processing device, and a program
US8259175B2 (en) * 2010-02-01 2012-09-04 International Business Machines Corporation Optimizing video stream processing
CA2835719C (en) * 2011-05-12 2019-12-31 Solink Corporation Video analytics system
US8740085B2 (en) 2012-02-10 2014-06-03 Honeywell International Inc. System having imaging assembly for use in output of image data
CN102881100B (en) * 2012-08-24 2017-07-07 济南纳维信息技术有限公司 Entity StoreFront anti-thefting monitoring method based on video analysis
EP2936461A1 (en) * 2012-12-21 2015-10-28 Joshua Migdal Verification of fraudulent activities at a selfcheckout terminal
DE102012224394A1 (en) * 2012-12-27 2014-07-03 Siemens Aktiengesellschaft Distance-based control of display abstraction and interaction mode
US20160210829A1 (en) * 2013-09-06 2016-07-21 Nec Corporation Security system, security method, and non-transitory computer readable medium
US20160203499A1 (en) * 2013-09-06 2016-07-14 Nec Corporation Customer behavior analysis system, customer behavior analysis method, non-transitory computer readable medium, and shelf system
US9361775B2 (en) * 2013-09-25 2016-06-07 Oncam Global, Inc. Mobile terminal security systems
CN104464152B (en) * 2014-12-12 2016-09-14 成都理工大学 Based on recognition of face and the antitheft system for valuables of RFID and theft preventing method thereof
JP6447234B2 (en) * 2015-02-26 2019-01-09 沖電気工業株式会社 Terminal monitoring apparatus, terminal monitoring method and program
JP6573361B2 (en) 2015-03-16 2019-09-11 キヤノン株式会社 Image processing apparatus, image processing system, image processing method, and computer program
JP6648408B2 (en) * 2015-03-23 2020-02-14 日本電気株式会社 Product registration device, program, and control method
JP6310885B2 (en) * 2015-05-29 2018-04-11 東芝テック株式会社 Product information processing device
EP3100648B1 (en) * 2015-06-03 2022-08-31 Wincor Nixdorf International GmbH Device and method for identifying and tracking an object
JP6286394B2 (en) * 2015-07-24 2018-02-28 セコム株式会社 Image surveillance system
CN106558061A (en) * 2015-09-29 2017-04-05 上海悠络客电子科技有限公司 A kind of cash register loss prevention method and system based on cloud computing
JP6585475B2 (en) * 2015-11-16 2019-10-02 東芝テック株式会社 Checkout device and program
JP6283806B2 (en) * 2016-06-01 2018-02-28 サインポスト株式会社 Information processing system
CN105915857A (en) * 2016-06-13 2016-08-31 南京亿猫信息技术有限公司 Monitoring system and monitoring method for supermarket shopping cart
CN106503641B (en) * 2016-10-18 2019-06-07 上海众恒信息产业股份有限公司 Computer-aided decision support System and analysis method
CN106683294A (en) * 2016-12-14 2017-05-17 深圳市易捷通科技股份有限公司 Cashier equipment and cashier scheme with retail cashier antitheft and loss prevention functions
CN106845382A (en) * 2017-01-16 2017-06-13 广州广电物业管理有限公司 A kind of task management method based on video identification, apparatus and system
US10650365B2 (en) 2017-06-02 2020-05-12 Visa International Service Association Automated point of sale system
CN107644332B (en) * 2017-08-25 2020-09-08 阿里巴巴集团控股有限公司 Method, device and system for detecting whether user steals articles and intelligent equipment
CN107944384B (en) * 2017-11-21 2021-08-20 天地伟业技术有限公司 Delivered object behavior detection method based on video
CN108109293B (en) * 2018-01-03 2021-01-29 深圳正品创想科技有限公司 Commodity anti-theft settlement method and device and electronic equipment
CN110866429B (en) * 2018-08-28 2024-03-08 阿里巴巴集团控股有限公司 Missing scanning identification method, device, self-service cashing terminal and system
JP7199928B2 (en) * 2018-11-14 2023-01-06 日立チャネルソリューションズ株式会社 CASH CENTER MONITORING SYSTEM AND METHOD
CN109711334B (en) * 2018-12-26 2021-02-05 浙江捷尚视觉科技股份有限公司 ATM trailing event detection method based on space-time optical flow field
WO2021072699A1 (en) * 2019-10-17 2021-04-22 Shenzhen Malong Technologies Co., Ltd. Irregular scan detection for retail systems
US20200388116A1 (en) * 2019-06-06 2020-12-10 Hewlett Packard Enterprise Development Lp Internet of automated teller machine
AU2020343927B2 (en) 2019-09-06 2023-03-30 Everseen Limited Distributed computing system for intensive video processing
JP7444454B2 (en) 2019-10-11 2024-03-06 日本電気株式会社 Product registration system, product registration device, control method for product registration device, and program
TWI715244B (en) * 2019-10-14 2021-01-01 新煒科技有限公司 Article anti-theft method, device, computer device and storage medium
US11756389B2 (en) 2020-01-10 2023-09-12 Everseen Limited System and method for detecting scan and non-scan events in a self check out process
CN113496191A (en) * 2020-04-01 2021-10-12 杭州海康威视数字技术股份有限公司 Rule configuration method and system, server and terminal
CN111723702B (en) * 2020-06-08 2024-02-27 苏州工业职业技术学院 Data monitoring method, device and payment system
US20230005267A1 (en) * 2021-06-30 2023-01-05 Fujitsu Limited Computer-readable recording medium, fraud detection method, and fraud detection apparatus
JP7318753B2 (en) * 2021-06-30 2023-08-01 富士通株式会社 Information processing program, information processing method, and information processing apparatus

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4792018A (en) * 1984-07-09 1988-12-20 Checkrobot Inc. System for security processing of retailed articles
US5083638A (en) * 1990-09-18 1992-01-28 Howard Schneider Automated point-of-sale machine
US5497314A (en) 1994-03-07 1996-03-05 Novak; Jeffrey M. Automated apparatus and method for object recognition at checkout counters
IL113434A0 (en) * 1994-04-25 1995-07-31 Katz Barry Surveillance system and method for asynchronously recording digital data with respect to video data
US5745036A (en) * 1996-09-12 1998-04-28 Checkpoint Systems, Inc. Electronic article security system for store which uses intelligent security tags and transaction data
US5969317A (en) * 1996-11-13 1999-10-19 Ncr Corporation Price determination system and method using digitized gray-scale image recognition and price-lookup files
JP2004310172A (en) * 2003-04-02 2004-11-04 Shinano Kenshi Co Ltd Antitheft system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3293693A1 (en) 2016-09-07 2018-03-14 Toshiba TEC Kabushiki Kaisha Self-service checkout terminal with a security function based on detection of weight of items
US11687519B2 (en) 2021-08-11 2023-06-27 T-Mobile Usa, Inc. Ensuring availability and integrity of a database across geographical regions

Also Published As

Publication number Publication date
WO2006105376A3 (en) 2007-12-21
CN101268478B (en) 2012-08-15
EP1872307A2 (en) 2008-01-02
CN101268478A (en) 2008-09-17
WO2006105376A2 (en) 2006-10-05
JP2008538030A (en) 2008-10-02
EP1872307A4 (en) 2012-10-03

Similar Documents

Publication Publication Date Title
JP5054670B2 (en) Method and apparatus for detecting suspicious behavior using video analysis
US11100333B2 (en) Method and apparatus for detecting suspicious activity using video analysis
US8448858B1 (en) Method and apparatus for detecting suspicious activity using video analysis from alternative camera viewpoint
US20220198550A1 (en) System and methods for customer action verification in a shopping cart and point of sales
US8104680B2 (en) Method and apparatus for auditing transaction activity in retail and other environments using visual recognition
US10115023B2 (en) Cart inspection for suspicious items
US20210398097A1 (en) Method, a device and a system for checkout
CN111260685B (en) Video processing method and device and electronic equipment
CN115546703B (en) Risk identification method, device and equipment for self-service cash register and storage medium
CN115546900B (en) Risk identification method, device, equipment and storage medium
US20220198886A1 (en) Scan avoidance prevention system
JP7135329B2 (en) Information processing method, information processing apparatus, and information processing program
GB2451073A (en) Checkout surveillance system
Fan et al. Fast detection of retail fraud using polar touch buttons
CN118135461A (en) Abnormal shopping behavior detection method and device of intelligent shopping cart and shopping cart

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110816

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111114

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120727

R150 Certificate of patent or registration of utility model

Ref document number: 5054670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150803

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250