JP4585580B2 - 人物動線追跡システム - Google Patents

人物動線追跡システム Download PDF

Info

Publication number
JP4585580B2
JP4585580B2 JP2008114336A JP2008114336A JP4585580B2 JP 4585580 B2 JP4585580 B2 JP 4585580B2 JP 2008114336 A JP2008114336 A JP 2008114336A JP 2008114336 A JP2008114336 A JP 2008114336A JP 4585580 B2 JP4585580 B2 JP 4585580B2
Authority
JP
Japan
Prior art keywords
flow line
data
person
image
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008114336A
Other languages
English (en)
Other versions
JP2009265922A (ja
Inventor
智則 伊久美
貴史 小磯
直樹 関根
政実 高畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2008114336A priority Critical patent/JP4585580B2/ja
Priority to US12/427,216 priority patent/US20090268028A1/en
Priority to EP09158431A priority patent/EP2112637A1/en
Publication of JP2009265922A publication Critical patent/JP2009265922A/ja
Application granted granted Critical
Publication of JP4585580B2 publication Critical patent/JP4585580B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/1961Movement detection not involving frame subtraction, e.g. motion detection on the basis of luminance changes in the image
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion

Description

本発明は、コンビニエンスストア、スーパーマーケット等の店舗において、来店した客の行動を追跡する人物動線追跡システムに関する。
店舗内を移動する客の行動を追跡するシステムとしては、人物動線追跡技術を利用したシステムが知られている。
例えば特許文献1には、販売情報入力装置から入力された購入商品を含む販売情報を購入時刻と紐付けして販売情報データベースに記録するとともに、店舗内に設置されたカメラで撮影された映像から人物の抽出と抽出された人物の追跡を行い、人物の位置する座標にその人物の識別情報と時間情報とを紐付けした動線データを作成して動線データベースに記録する。そして、販売情報を指定して販売情報データベースから監視対象者を抽出し、さらに該監視対象者の購入時刻から動線データベースの動線を特定して、その人物動線から客の行動を追跡する技術が開示されている。
この特許文献1に記載された技術では、人物動線は、カメラで撮影された映像から人物の頭部を検出し、検出された2次元画像上の位置から、実際の空間上の位置を求める仕組みである。この場合、人物の位置を正確に求めるには、同一の人物の頭部を複数台のカメラで撮影する必要がある。したがって、店舗内を隈無く撮影するには多数台のカメラが必要となる。
カメラには、監視カメラなどに用いられる通常レンズを備えたカメラの他に、魚眼レンズを用いたカメラや、全方位ミラー付のカメラ等の広角レンズカメラがある。広角レンズカメラは、通常レンズカメラと比べて歪が大きいため鮮明な画像は期待できないが、画角が広がるため、撮影区域が広い。そこで一般に、人物動線追跡システムには広角レンズカメラを用いて、カメラの台数を減らしている。
特開2006−350751号公報
ところで近年、コンビニエンスストアやスーパーマーケット等の店舗では、万引きによる被害が大きな問題となっている。そこで、店内の要所に防犯カメラを設置する等して万引き対策を講じている店舗が増えている。ただし、防犯用のカメラには一般に通常レンズカメラが用いられるため、画像は鮮明であるものの画角が小さい。このため、店舗内に死角が生じることは致し方ないことである。
一方、人物動線追跡システムが構築された店舗では、入店した顧客が店外に出るまでその行動を動線として逐次追跡することができる。そこで、この人物動線を追跡することによって、万引きを行った人物が誰であるかを特定できたならば、万引き対策として効果的である。
しかしながら、従来の人物動線追跡システムにおいては、例えば動線を生成するためのカメラ画像から、客が不正な行動を行ったかどうかまでは判別できたとしても、その客が誰であるかを特定すること、すなわち人物を同定することは極めて困難であった。
本発明はこのような事情に基づいてなされたものであり、その目的とすることは、動線の人物を精度よく同定できる人物動線追跡システムを提供しようとするものである
本発明は、監視領域内を移動する人物の頭部を撮影する複数台の広角レンズカメラと、各広角レンズカメラで撮影された画像から視体積交差法により監視領域内を移動する人物の軌跡を追跡して人物毎に動線データを生成する人物動線生成手段と、この人物動線生成手段により生成された動線データを記憶する動線記憶手段と、監視領域内の人物の顔を撮影可能な位置にて広角レンズカメラよりも少数でかつ広角レンズカメラよりも歪の小さい監視用カメラで人物の顔画像を撮影する撮影手段と、この撮影手段により撮影された映像から人物の顔を含む画像データを抽出する画像抽出手段と、この画像抽出手段により抽出された画像データを記憶する画像記憶手段と、動線データをその動線データに該当する人物の顔が含まれる画像データと紐付ける紐付け手段と、動線データとその動線データに紐付けられた画像データとの対応関係を記憶する紐付け記憶手段とを備えたものである。
かかる手段を講じた本発明によれば、動線の人物を精度よく同定できる人物動線追跡システムを提供できる。
以下、本発明を実施するための最良の形態について、図面を用いて説明する。
なお、この実施の形態は、コンビニエンスストア等の店舗の店内売場領域を監視領域とし、この監視領域を移動する客の軌跡、すなわち人物動線を、カメラで撮影された映像から追跡するシステムに本発明を適用した場合である。
はじめに、本実施の形態における人物動線追跡システムの構成を、図1のブロック図で示す。人物動線追跡システムは、複数台(図では6台)の動線用カメラCA1〜CA6と、1台の監視用カメラCA7とを備えている。各動線用カメラCA1〜CA6は、魚眼レンズを用いたカメラや全方位ミラー付のカメラ等の広角レンズカメラである。監視用カメラCA7は、通常レンズを用いた通常レンズカメラである。
各動線用カメラCA1〜CA6は、図2の店内売場領域平面図に示すように、売場領域の天井部に所定の間隔を開けて設置されている。各動線用カメラCA1〜CA6は、視体積交差法により売場領域を移動する客の軌跡、すなわち人物動線を追跡するために用いられる。視体積交差法は、例えば客の頭部を複数の方向から撮影し、各画像の頭部の位置から頭部の店内空間に適宜設置された3次元座標系内の座標値を算出する方法である。各動線用カメラCA1〜CA6の配置位置は、店舗図面を参照したり、実際に店舗内に仮設置したりして、店舗内の什器やPOP等の遮蔽の影響も考慮し、店舗全域が複数のカメラで撮影されるように適宜決定する。因みに、視体積交差法による位置検出精度を高めるためには、店舗全域が少なくとも3台のカメラから撮影されることが望ましい。
このように設置された各動線用カメラCA1〜CA6により、監視領域、すなわち店内売場領域を移動する人物の軌跡である動線の追跡が可能となる。また、同時に商品棚Rの商品を手に取ったなどの客の行動もある程度撮影されるので、万引き等の不正行為の判別も可能である。ただし、動線用カメラCA1〜CA6の場合、広角レンズカメラを用いているので、特に画角の周辺部において像の歪が大きく、撮影された画像からその客が誰であるかを特定することは困難である。このため、たとえ客の不正行為が撮影されたとしても、その人物を同定できず、防犯上の意義は小さい。
そこで、本実施の形態では、各動線用カメラCA1〜CA6とは別に、撮影手段として標準レンズカメラからなる監視用カメラCA7を店内の所定の位置に設置して、客を撮影する。図2の例では、出入口IN/OUTの付近に出入口方向を向けて監視用カメラCA7を設置しており、主として入店する客の顔を撮影する。この監視用カメラCA7で撮影された客の顔を含む画像と、各動線用カメラCA1〜CA6で撮影された画像をもとに追跡された人物動線とを関連付けて記憶することにより、不正を行ったと判別された客の同定が可能となる。なお、客が不正を行ったか否かの判定は、各動線用カメラCA1〜CA6で撮影された画像を見て行ってもよいし、人物動線の特徴から推定してもよい。
なお、図2において、符号CCはチェックアウトカウンタであり、このカウンタCCの上に2台のPOS(Point Of Sales)端末POS1,POS2が設置されている。
図1に説明を戻す。各動線用カメラCA1〜CA6及び監視用カメラCA7は、いずれもカメラコントロール部1に接続されている。カメラコントロール部1は、タイマ機能を内蔵しており、例えば1秒間に10コマを撮影するというように、各動線用カメラCA1〜CA6及び監視用カメラCA7の撮影タイミングを、同期を取って制御する。カメラコントロール部1は、各動線用カメラCA1〜CA6で撮影された画像データについては、その撮影日時データとともに動線作成用映像データベース2に順次格納する。また、監視用カメラCA7で撮影された画像については、その撮影日時データとともに人物特定用映像データベース3に順次格納する。
人物動線追跡システムは、動線作成部4と人物抽出部5とを備えている。動線作成部4は、動線作成用映像データベース2に格納された各動線用カメラCA1〜CA6の画像データから、周知の視体積交差法により店舗内に入店してから店外に出るまでの客の軌跡、すなわち人物動線を追跡して、客毎に動線データを生成する。そして、客毎に作成された動線データを、それぞれ固有の動線IDを付して動線データベース6に格納する。
動線データベース6のデータ構造の一例を図3に示す。図示するように、動線データベース6には、動線作成部4で客毎に生成された動線データが、そのデータ固有の動線IDを付して記憶される。また、各動線データには、それぞれその動線に該当する客が出入口IN/OUTから入店した時点の日時である入店日時と、退出した時点の日時である出店日時のデータとが付される。入店日時は、対応する動線データの起点となる3次元座標系内の座標値が算出されたときの各動線用カメラCA1〜CA6の画像データ撮影日時である。出店日時は、対応する動線データの終点となる3次元座標系内の座標値が算出されたときの各動線用カメラCA1〜CA6の画像データ撮影日時である。
なお、現状の画像処理技術では、各動線用カメラCA1〜CA6で店内の全エリアを死角なく撮影したとしても、一人の顧客の店内全域の動きを1つの動線として追跡することはきわめて困難である。例えば、動線が途切れたり、他の顧客と入れ替わったりする場合が考えられる。動線作成部4は、例えばオペレータのマニュアル操作によって、複数に途切れた同一顧客の動線を1本の動線に連結する機能を有している。
ここに、動線作成部4は人物動線生成手段を構成する。動線データベース6は動線記憶手段、詳しくは、各動線データを、その動線データに該当する人物が監視領域内の所定の位置(出入口付近)に位置するときの時刻データとともに記憶する手段を構成する。
人物抽出部5は、人物特定用映像データベース3に格納された監視用カメラCA7の画像データから、人物辞書データベース7を参照して店舗内に入店した人物の顔を含む画像を抽出する。そして、その画像データを、それぞれ固有の人物IDを付して人物画像データベース8に格納する。
人物画像データベース8のデータ構造の一例を図4に示す。図示するように、人物画像データベース8には、人物抽出部5で抽出された客の顔を含む画像データが、そのデータ固有の人物IDを付して記憶される。また、各画像データには、それぞれその画像が監視用カメラCA7で撮影された日時データが付される。
人物抽出部5において実行される情報処理の手順を、図6の流れ図を用いて説明する。人物抽出部5は、先ず、人物特定用映像データベース3から撮影画像データとそのデータに付された撮影日時データとを取得する(ST1)。
次に、人物抽出部5は、背景差分演算等の公知の方法により画像内で動きのある移動体の部分のみを抽出する(ST2)。監視用カメラCA7は、店舗の出入口IN/OUT付近を撮影している。このため、撮影された画像内で動きのあるものは、例えば開閉されるドアや外を通過する人物や車両を除けば、店舗に入退店する客である。したがって、動きの無い部分に人物が写されていることは無いので、背景差分法を用いることでその後の人物検出のための演算量を少なくすることが可能になる。
撮影画像から移動体を抽出できなかった場合には(ST3のNO)、人物抽出部5は、後述するST11の処理に進む。
撮影画像から移動体を抽出できた場合には(ST3のYES)、人物抽出部5は、公知の人物パターンマッチング方式により撮影画像から人物画像を抽出する(ST4)。人物パターンマッチング方式は、抽出された移動体を含む画像データと、人物辞書データベース7に予め登録されている人物画像データとの比較によって実施される。人物辞書データベース7には、前向きの人物画像(顔の映った画像)のデータのみが予め登録されている。したがって、撮影画像に含まれる移動体が監視用カメラ7のレンズと対峙した人物であるときのみ、撮影画像から顔の映った人物画像を抽出することができる。因みに、退店時には後ろ向きの人物画像が撮影されると見なすことができるので、人物辞書データベース7に前向きの人物画像のみを登録することで、入店と退店を分離することが可能である。
撮影画像から顔の映った人物画像が抽出されなかった場合には(ST5のNO)、人物抽出部5は、ST11の処理に進む。
撮影画像から顔の映った人物画像が抽出された場合には(ST5のYES)、人物抽出部5は、人物画像データベース8を検索して、同一人物の画像データが既に人物画像データベース8に登録されているか否かを判断する(ST6)。この判断は、例えば、撮影された映像のコマ毎の人物(顔)の位置情報や、服装の色や形、顔が似ているかどうかなど画像そのものの類似度を用いて行う。登録されていないと判定された場合には(ST7のNO)、人物抽出部5は、人物画像データベース8で使用していない新規の人物IDを生成する(ST8)。そして、この新規の人物IDと、抽出された人物画像データと、撮影時刻のデータとを関連付けて、人物画像データベース8に登録する(ST10)。しかる後、人物抽出部5は、ST11の処理に進む。
一方、人物画像データベース8を検索した結果、同一人物の画像データが既に登録されていると判断した場合には(ST7のYES)、人物抽出部5は、その既存の人物画像データより今回の人物画像データの方が、画質が良好か否かを判断する(ST9)。既存のデータと今回のデータとについて、例えば顔の大きさや向き、コントラスト等を比較することにより、画質を判定する。今回の人物画像データの方が良質であった場合には(ST9のYES)、人物画像データベース8に保存されていた既存の人物画像データを、今回の人物画像データに置換する(ST10)。既存の人物画像データの方が良質であった場合には、ST10の処理を実行しない。しかる後、人物抽出部5は、ST11の処理に進む。このように、同一人物の画像を比較して、より良質な画像を記憶することで、最良の画像が得られる。
ST11では、人物抽出部5は、人物特定用映像データベース3に次の撮影画像データが格納されているか否かを判断する。格納されている場合には(ST11のYES)、ST1の処理に戻り、次の撮影画像データとそのデータに付された撮影日時データとを取得する。以後、ST2以降の処理を再度実行する。
こうして、人物抽出部5は、人物特定用映像データベース3に格納されている全ての撮影画像データについて、ST2以降の処理を順次実行する。そして、人物特定用映像データベース3に次の撮影画像データが格納されていないと判断したならば(ST11のNO)、人物抽出部5は、今回の情報処理を終了する。
ここに、人物抽出部5は、画像抽出手段を構成する。人物画像データベース8は、画像記憶手段、詳しくは、各画像データを、その画像が撮影された時刻データとともに記憶する手段を構成する。
人物動線追跡システムは、人物−動線紐付け部9を備えている。人物−動線紐付け部9は、動線データベース6に記憶された動線データと、人物画像データベース8に記憶された画像データとを紐付ける。詳しくは、動線データを、その動線データに該当する人物、すなわち動線データの動線で軌跡が示される人物の顔が含まれる画像データと紐付ける。そして、動線データと画像データとの対応関係を示すデータを、紐付けリストデータベース10に格納する。
紐付けリストデータベース10のデータ構造の一例を図5に示す。図示するように、紐付けリストデータベース10には、動線データを特定する動線IDと、その動線データに紐付けられた画像データを特定する人物IDとが、撮影日時データとともに記憶される。
人物−動線紐付け部9において実行される情報処理の手順を、図7の流れ図を用いて説明する。人物−動線紐付け部9は、先ず、時間差最小値メモリのデータDTminを無限大とする(ST21)。また、動線番号カウンタのデータmを“0”にリセットする(ST22)。次に、人物−動線紐付け部9は、動線番号カウンタをカウントアップする(ST23)。そして、動線データベース6から先頭よりm番目(mは動線番号カウンタのデータ)の動線データに付加された動線IDと入店日時データT1とを取得する(ST24)。
ここで、動線データベース6にm個以上のデータが保存されていた場合には、m番目動線データの動線IDと入店日時データT1とを取得できる。動線IDと入店日時データT1とを取得したならば(ST25のNO)、人物−動線紐付け部9は、画像番号カウンタのデータnを“0”にリセットする(ST26)。次に、人物−動線紐付け部9は、画像番号カウンタをカウントアップする(ST27)。そして、人物画像データベース8から先頭よりn番目(nは画像番号カウンタのデータ)の人物画像データに付加された人物IDと撮影日時データT2とを取得する(ST28)。
ここで、人物画像データベース8にn個以上のデータが保存されていた場合には、n番目人物画像データの人物IDと撮影日時データT2とを取得できる。人物IDと撮影日時データT2とを取得したならば(ST29のNO)、人物−動線紐付け部9は、紐付けリストデータベース10を検索して、当該人物IDが既に紐付けリストデータベース10に登録されているか否かを判断する(ST30)。
登録されていない場合、すなわちn番目人物画像データの人物IDが動線IDに紐付けられていない場合には(ST30のNO)、人物−動線紐付け部9は、m番目動線データの入店日時データT1とn番目人物画像データの撮影日時T2との時間差DTを算出する。すなわち、入店日時データT1と撮影日時T2との差の絶対値ABS(T2−T1)を算出する。しかる後、人物−動線紐付け部9は、この時間差DTと時間差最小値メモリのデータDTminとを比較する(ST32)。その結果、時間差DTがデータDTminより小さい場合には(ST32のYES)、人物−動線紐付け部9は、時間差最小値メモリのデータDTminを今回算出された時間差DTの値に更新する(ST33)。
その後、人物−動線紐付け部9は、前記ST27の処理に戻り、画像番号カウンタをさらにカウントアップする。そして、人物画像データベース8から先頭よりn番目の人物画像データに付加された人物IDと撮影日時データT2とを取得し、その人物IDが紐付けリストデータベース10に既に登録されているか否かを判断する。登録されていない場合には、m番目動線データの入店日時データT1とn番目人物画像データの撮影日時T2との時間差DTを算出して、時間差最小値メモリのデータDTminとを比較し、時間差DTがデータDTminより小さい場合には、時間差最小値メモリのデータDTminを今回算出された時間差DTの値に更新する。その後、人物−動線紐付け部9は、画像番号カウンタをさらにカウントアップして、上記と同様な処理を繰り返す。
なお、n番目人物画像データの人物IDが既に紐付けリストデータベース10に登録されていた場合には(ST30のYES)、人物−動線紐付け部9は、ST31以降の処理を行わずに、ST27の処理に戻る。すなわち、画像番号カウンタをさらにカウントアップして、上記と同様な処理を繰り返す。
入店日時データT1とn番目人物画像データの撮影日時T2との時間差DTがデータDTmin以上の場合には(ST32のNO)、人物−動線紐付け部9は、m番目動線データの動線IDと、n番目人物画像データの人物ID及び撮影日時データとを対応付けて、紐付けリストデータベース10に登録する(ST35)。登録後、人物−動線紐付け部9は、時間差最小値メモリのデータDTminを再び無限大として(ST35)。ST23の処理に戻る。すなわち、人物−動線紐付け部9は、動線番号カウンタをカウントアップし、動線データベース6からm番目動線データに付加された動線IDと入店日時データT1とを取得したならば、ST26以降の処理を再度実行する。
なお、このST26以降の処理において、人物画像データベース8からn番目人物画像データを取得できなかった場合には、人物−動線紐付け部9は、ST30以降の処理を実行することなく、ST23の処理に戻る。
人物−動線紐付け部9は、動線データベース6からm番目動線データを取得する毎に、ST26以降の処理を繰返し実行する。そして、m番目動線データを取得できなかったならば、人物−動線紐付け部9は、今回の処理を終了する。
かくして、紐付けリストデータベース10には、動線データベース6に格納された動線データと、人物画像データベース8に格納された人物画像データとについて、お互いの時刻データの差が最も小さい動線データと人物画像データとが紐付けられて、その動線ID及び人物IDが撮影日時データとともに登録される。なお、撮影日時データでなく、動線IDに対応した入店日時データを記憶してもよい。
ここに、人物−動線紐付け部9は、紐付け手段を構成する。紐付けリストデータベース10は、紐付け記憶手段、詳しくは、お互いの時刻データの差が最も小さい動線データと画像データとの対応関係を記憶する手段を構成する。
人物動線追跡システムは、入力部11、表示部12及びデータ解析部13を備えている。入力部11は、例えばキーボードやポインティングデバイスであり、表示部12は、液晶ディスプレイ、CRTディスプレイ等である。データ解析部13は、入力部11を介して入力されるデータに応じて、表示部12に、動線とそれに紐付けられた人物画像とを表示させる。
データ解析部13において実行される情報処理の手順を、図8の流れ図を用いて説明する。データ解析部13は、動作モードが選択されるのを待機する(ST41)。動作モードには、人物モードと動線モードと時間帯モードの3種類がある。入力部11を介していずれかの動作モードが選択されたならば(ST41のYES)、データ解析部13は、表示部12に動線解析画面20を表示させた後(ST42)、選択されたモードの種類を識別する。
動線解析画面20の一例を図9に示す。図示するように、動線解析画面20は、動線表示領域21と、カメラ画像表示領域22と、リスト表示領域23と、人物画像表示領域24とに区分されている。
動線表示領域21には、店内売場領域のマップ図が表示される。動線表示領域21には、スクロールバー25が設けられている。スクロールバー25は、動線用カメラCA1〜CA6の撮影時間に同期している。オペレータが、スクロールバー25を画面に向かって左端から右端にスライドさせると、撮影時間が経過する。そして、その時間に各動線用カメラCA1〜CA6で撮影された映像から検出された人物の動線26が、該マップに重ねて表示される。
カメラ画像表示領域22には、スクロールバー25で指定された時間に各動線用カメラCA1〜CA6で撮影された映像が表示される。図示するように、6台の動線用カメラCA1〜CA6の映像を並べて同時に表示することができる。また、その中から選択された1乃至複数の動線用カメラの映像を拡大して表示することもできる。
動作モードとして人物モードが選択された場合、データ解析部13は、人物画像データベース8の先頭レコードから順に人物画像データに付加されている人物IDと撮影日時とを読出し、読み出した順番に各人物IDと撮影日時とを対応付けてリスト表示領域23に表示する(ST51)。撮影日時は、月・日・時・分まで、あるいは月・日・時・分・秒までを表示する。月及び日を省略しても良い。この状態で、データ解析部13は、いずれかの人物IDが選択されるのを待機する(ST52)。
入力部11を介してリスト表示領域23からいずれかの人物IDが選択されたならば(ST52のYES)、データ解析部13は、人物画像データベース8から当該選択された人物IDに対応して記憶されている人物画像データを読出し、その人物画像を人物画像表示領域24に表示させる(ST53)。また、データ解析部13は、紐付けリストデータベース10を検索して、当該選択された人物IDが紐付けられた動線IDの有無を判別する(ST54)。そして、該当する動線IDが登録されていた場合には(ST54のYES)、データ解析部13は、動線データベース6から当該動線IDに対応して記憶されている動線データを読出し、その動線を動線表示領域21に表示させる。また、この動線データの入店時刻から出店時刻までの間に撮影された各動線用カメラCA1〜CA6の画像データを動線作成用映像データベース2から抽出し、動線表示領域21に表示されている動線と同期して、各動線用カメラCA1〜CA6の映像を各カメラ画像表示領域22に表示させる(ST55)。
しかる後、データ解析部13は、処理の継続が指令されるか、終了が指令されるのを待機する(ST56)。入力部11を介して継続が指令された場合には(ST56のYES)、データ解析部13は、ST52の処理に戻り、次の人物IDが選択されるのを待機する。入力部11を介して終了が指令された場合には(ST56のNO)、今回の情報処理を終了する。
動作モードとして動線モードが選択された場合には、データ解析部13は、動線データベース6の先頭レコードから順に動線データに付加されている動線IDと入店日時とを読出し、読み出した順番に各動線IDと入店日時とを対応付けてリスト表示領域23に表示する(ST61)。入店日時は、月・日・時・分まで、あるいは月・日・時・分・秒までを表示する。月及び日を省略しても良い。この状態で、データ解析部13は、いずれかの動線IDが選択されるのを待機する(ST62)。
入力部11を介してリスト表示領域23からいずれかの動線IDが選択されたならば(ST62のYES)、データ解析部13は、動線データベース6から当該選択された動線IDに対応して記憶されている動線データを読出し、その動線を動線表示領域21に表示させる。また、この動線データの入店時刻から出店時刻までの間に撮影された各動線用カメラCA1〜CA6の画像データを動線作成用映像データベース2から抽出し、動線表示領域21に表示されている動線と同期して、各動線用カメラCA1〜CA6の映像を各カメラ画像表示領域22に表示させる(ST63)。さらに、データ解析部13は、紐付けリストデータベース10を検索して、当該選択された動線IDに紐付けられた人物IDの有無を判別する(ST64)。そして、該当する人物IDが登録されていた場合には(ST64のYES)、データ解析部13は、人物画像データベース8から当該人物IDに対応して記憶されている人物画像データを読出し、その人物画像を人物画像表示領域24に表示させる(ST65)。
しかる後、データ解析部13は、処理の継続が指令されるか、終了が指令されるのを待機する(ST66)。入力部11を介して継続が指令された場合には(ST66のYES)、データ解析部13は、ST62の処理に戻り、次の動線IDが選択されるのを待機する。入力部11を介して終了が指令された場合には(ST66のNO)、今回の情報処理を終了する。
動作モードとして時間帯モードが選択された場合には、データ解析部13は、予め設定されている時間帯リストをリスト表示領域23に表示させる(ST71)。時間帯は、例えば1日の24時間を1時間単位で区切った時間帯(0:00〜1:00、1:00〜2:00、2:00〜3:00、……、23:00〜24:00)とする。時間帯の間隔は1時間に限定されるものではなく、それより短い間隔、例えば30分単位であっても、長い間隔、例えば2時間単位であってもよい。この状態で、データ解析部13は、いずれかの時間帯が選択されるのを待機する(ST72)。
入力部11を介してリスト表示領域23からいずれかの時間帯が選択されたならば(ST72のYES)、データ解析部13は、動線データベース6を検索する。そして、現時点より24時間前までの入店時刻が付加された動線データのうち、当該入店時刻が選択された時間帯に含まれる動線データの動線IDを入店時刻が古い順に読出し、読み出した順番に各動線IDと入店日時とを対応付けてリスト表示領域23に表示する(ST73)。この状態で、データ解析部13は、いずれかの動線IDが選択されるのを待機する(ST74)。
入力部11を介してリスト表示領域23からいずれかの動線IDが選択されたならば(ST74のYES)、データ解析部13は、動線データベース6から当該選択された動線IDに対応して記憶されている動線データを読出し、その動線を動線表示領域21に表示させる。また、この動線データの入店時刻から出店時刻までの間に撮影された各動線用カメラCA1〜CA6の画像データを動線作成用映像データベース2から抽出し、動線表示領域21に表示されている動線と同期して、各動線用カメラCA1〜CA6の映像を各カメラ画像表示領域22に表示させる(ST75)。また、データ解析部13は、紐付けリストデータベース10を検索して、当該選択された動線IDに紐付けられた人物IDの有無を判別する(ST76)。そして、該当する人物IDが登録されていた場合には(ST76のYES)、データ解析部13は、人物画像データベース8から当該人物IDに対応して記憶されている人物画像データを読出し、その人物画像を人物画像表示領域24に表示させる(ST77)。
しかる後、データ解析部13は、処理の継続が指令されるか、終了が指令されるのを待機する(ST78)。入力部11を介して継続が指令された場合には(ST78のYES)、データ解析部13は、ST71の処理に戻り、時間帯リストをリスト表示領域23に表示させる。そして、次の時間帯が選択されるのを待機する。入力部11を介して終了が指令された場合には(ST78のNO)、今回の情報処理を終了する。
なお、時間帯を指定する前に日付を指定しても良い。その場合は、指定された日付に生成された動線データの中から、指定された時間帯に入店した客の動線IDと入店時刻のデータをリスト表示領域23に表示する。
ここに、データ解析部13は、その処理ステップST61により、表示部12と協働して、画像記憶手段(人物画像データベース8)に記憶された画像データのリストを選択可能に表示するリスト表示手段を構成する。また、その処理ステップST62〜ST64により、入力部11と協働して、リスト表示手段により表示されたリストの中からいずれかの画像データが選択されると、紐付け記憶手段(紐付けリストデータベース10)に記憶されたデータから当該画像データに紐付けされた動線データを選択するデータ選択手段を構成する。さらに、その処理ステップST65により、表示部12と協働して、データ選択手段により選択された動線データの動線を、リストの中から選択された画像データの人物画像とともに表示する解析表示手段を構成する。
データ解析部13は、その処理ステップST71により、表示部12と協働して動線記憶手段(動線データベース4)に記憶された動線データのリストを選択可能に表示するリスト表示手段を構成する。また、その処理ステップST72〜ST74により、入力部11と協働して、リスト表示手段により表示されたリストの中からいずれかの動線データが選択されると、紐付け記憶手段(紐付けリストデータベース10)に記憶されたデータから当該動線データに紐付けされた画像データを選択するデータ選択手段を構成する。さらに、その処理ステップST75により、表示部12と協働して、データ選択手段により選択された画像データの人物画像を、リストの中から選択された動線データの動線とともに表示する解析表示手段を構成する。
データ解析部13は、その処理ステップST81,ST82により、入力部11及び表示部12と協働して、時間帯の指定入力を受け付ける時間帯指定手段を構成する。また、その処理ステップST83により、表示部12と協働して、時間帯指定手段により指定された時間帯の時刻データとともに記憶されている動線データのリストを表示するリスト表示手段を構成する。また、その処理ステップST84〜ST86により、リスト表示手段により表示されたリストの中からいずれかの動線データが選択されると、紐付け記憶手段(紐付けリストデータベース10)に記憶されたデータから当該動線データに紐付けされた画像データを選択するデータ選択手段を構成する。さらに、その処理ステップST87により、表示部12と協働して、データ選択手段により選択された画像データの人物画像を、リストの中から選択された動線データの動線とともに表示する解析表示手段を構成する。
例えば今、オペレータが動線モードを選択する。そうすると、動線解析画面20のリスト表示領域23に、動線IDのリストが表示される。ここで、オペレータが任意の動線IDを選択する。そうすると、この動線IDで特定される動線データの動線が動線解析画面20の動線表示領域21に表示される。また、この動線の動きと同期して、各動線用カメラCA1〜CA6の映像が動線解析画面20のカメラ画像表示領域22に表示される。さらに、この動線IDに対して人物IDが紐付けられていた場合には、その人物IDで特定される人物の顔画像が動線解析画面20の人物画像表示領域24に表示される。したがって、動線解析画面20に表示された動線の動き、またはこの動線を生成するためのカメラ画像から、客が万引きなどの不正な行動を行ったと推定される場合、オペレータは、動線解析画面20に表示された人物画像からその客の顔を容易に特定することができる。
このような作用効果は、人物モードを選択しても得られる。すなわち、オペレータが人物モードを選択すると、リスト表示領域23に人物IDのリストが表示される。ここで、オペレータが任意の人物IDを選択すると、この人物IDで特定される人物画像データの顔画像が人物画像表示領域24に表示される。さらに、この人物IDに対して動線IDが紐付けられていた場合には、その動線IDで特定される動線データの動線と、この動線に同期した各動線用カメラCA1〜CA6の映像とが動線表示領域21及びカメラ画像表示領域22に表示される。したがって、動線の動き、またはカメラ画像から不正な行動を行ったと推定できる場合、オペレータは、その客の顔を特定することができる。
なお、人物モードにおいては、人物IDでなく、それに対応した画像データから生成される顔画像をリストとして表示してもよい。そうすることにより、例えば過去に不正な行動をとったことのある客が来店していることをリストから知った場合、この客を選択操作することによって、オペレータは、この客の今回の店内での行動を追跡して再び不正な行動をしなかったかどうか判別することができる。
また、万引き等の不正な行動があった時間帯を特定できる場合には、オペレータは、時間帯モードを選択する。そうすると、リスト表示領域23に時間帯リストが表示されるので、オペレータは、不正な行動があった時間帯を選択する。そうすると、その時間帯に入店した客の動線IDリストが表示されるので、オペレータは、任意の動線IDを選択する。そうすると、動線モードのときと同様に作用する。すなわち、万引きなどの不正な行動を行ったと推定される客の顔を容易に特定することができる。
このように、時間帯モードは、動線モードや人物モードと比較してリストに掲載される動線IDの数を絞ることができるので、不正行為者の同定作業に要する手間と時間を軽減することができる。
なお、この発明は前記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。
例えば、データ解析部13の時間帯モードにおいて、時間帯リストからいずれかの時間帯が選択された場合、前記実施の形態では、その時間帯に入店した客の動線IDリストを表示し、いずれかの動線IDが選択されると、その動線と当該動線に紐付けられた人物画像とを同一画面に表示するようにした。しかし、本発明はこれに限定されるものではない。例えば、選択された時間帯に撮影された人物画像の人物IDリストを表示し、いずれかの人物IDが選択されると、その人物画像と当該画像に紐付けられた動線とを同一画面に表示するようにしてもよい。この変形例におけるデータ解析部13の情報処理手順を、図10の流れ図で示す。同図において、処理ステップST81〜ST88が、上記変形例の部分に相当する。
また、前記実施の形態では、人物特定用画像を人物特定用映像データベース3に一旦保存し、その画像を人物抽出部5が読み出して人物画像を抽出したが、人物特定用映像データベース3の代わりに録画用サーバを設け、このサーバで録画された映像を人物抽出部5がリアルタイムで取得して人物画像を抽出してもよい。
また、前記実施の形態では、複数の広角レンズカメラで撮影された映像から動線を生成したが、動線生成方法はこれに限定されるものではない。例えば、広角レンズカメラでなく通常レンズカメラを用いて動線を生成してもよい。また、例えば特開2006−236146号公報などに開示されているように、人物が携帯するRFIDタグを、店の各所に配置されたRFIDリーダで追跡することによって、動線を生成してもよい。
なお、本実施の形態は、カメラコントロール部1を実装したパーソナルコンピュータ上に、動線作成部4、人物抽出部5、人物−動線紐付け部9及びデータ解析部13をソフトウェアで構築することによって実現することが可能である。
この他、前記実施形態に開示されている複数の構成要素の適宜な組合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を組合わせてもよい。
本発明の一実施の形態である人物動線追跡システムの構成を示すブロック図。 同実施の形態が適用される店舗の売場領域平面図。 図1における動線データベースのデータ構造を示す模式図。 図1における人物画像データベースのデータ構造を示す模式図。 図1における紐付けリストデータベースのデータ構造を示す模式図。 図1における人物抽出部の情報処理手順を示す流れ図。 図1における人物−動線紐付け部の情報処理手順を示す流れ図。 図1におけるデータ解析部の情報処理手順を示す流れ図。 本実施の形態において、データ解析部の処理により表示される動線解析画面の一例を示す図。 図1におけるデータ解析部の他の情報処理手順を示す流れ図。
符号の説明
1…カメラコントロール部、2…動線作成用映像データベース、3…人物特定用映像データベース、4…動線作成部、5…人物抽出部、6…動線データベース、7…人物辞書データベース、8…人物画像データベース、9…人物−動線紐付け部、10…紐付けリストテーブル、11…入力部、12…表示部、13…データ解析部。

Claims (6)

  1. 監視領域内を移動する人物の頭部を撮影する複数台の広角レンズカメラと、
    前記各広角レンズカメラで撮影された画像から視体積交差法により前記監視領域内を移動する人物の軌跡を追跡して人物毎に動線データを生成する人物動線生成手段と、
    この人物動線生成手段により生成された動線データを記憶する動線記憶手段と、
    前記監視領域内の前記人物の顔を撮影可能な位置にて前記広角レンズカメラよりも少数でかつ前記広角レンズカメラよりも歪の小さい監視用カメラで前記人物の顔画像を撮影する撮影手段と、
    この撮影手段により撮影された映像から前記人物の顔を含む画像データを抽出する画像抽出手段と、
    この画像抽出手段により抽出された画像データを記憶する画像記憶手段と、
    前記動線データをその動線データに該当する人物の顔が含まれる画像データと紐付ける紐付け手段と、
    前記動線データとその動線データに紐付けられた前記画像データとの対応関係を記憶する紐付け記憶手段と、
    を具備したことを特徴とする人物動線追跡システム。
  2. 前記動線記憶手段は、各動線データを、その動線データに該当する人物が前記監視領域内の所定の位置に位置したときの時刻データとともに記憶し、
    前記画像記憶手段は、各画像データを、その画像が撮影された時刻データとともに記憶し、
    前記紐付け手段は、お互いの時刻データの差が最も小さい動線データと画像データとを紐付けることを特徴とする請求項1記載の人物動線追跡システム。
  3. 前記動線記憶手段に記憶された動線データを選択可能にリストとして表示するリスト表示手段と、
    このリスト表示手段により表示されたリストの中からいずれかの動線データが選択されると、前記紐付け記憶手段に記憶されたデータに基づいて当該動線データに紐付けされた画像データを選択するデータ選択手段と、
    このデータ選択手段により選択された画像データの人物画像を、前記リストの中から選択された動線データの動線とともに表示する解析表示手段と、
    をさらに具備したことを特徴とする請求項1記載の人物動線追跡システム。
  4. 前記画像記憶手段に記憶された画像データを選択可能にリストとして表示するリスト表示手段と、
    このリスト表示手段により表示されたリストの中からいずれかの画像データが選択されると、前記紐付け記憶手段に記憶されたデータに基づいて当該画像データに紐付けされた動線データを選択するデータ選択手段と、
    このデータ選択手段により選択された動線データの動線を、前記リストの中から選択された画像データの人物画像とともに表示する解析表示手段と、
    をさらに具備したことを特徴とする請求項1記載の人物動線追跡システム。
  5. 時間帯の指定入力を受け付ける時間帯指定手段と、
    この時間帯指定手段により指定された時間帯の時刻データとともに記憶されている動線データのリストを表示するリスト表示手段と、
    このリスト表示手段により表示されたリストの中からいずれかの動線データが選択されると、前記紐付け記憶手段に記憶されたデータに基づいて当該動線データに紐付けされた画像データを選択するデータ選択手段と、
    このデータ選択手段により選択された画像データの人物画像を、前記リストの中から選択された動線データの動線とともに表示する解析表示手段と、
    をさらに具備したことを特徴とする請求項2記載の人物動線追跡システム。
  6. 時間帯の指定入力を受け付ける時間帯指定手段と、
    この時間帯指定手段により指定された時間帯の時刻データとともに記憶されている画像データのリストを表示するリスト表示手段と、
    このリスト表示手段により表示されたリストの中からいずれかの画像データが選択されると、前記紐付け記憶手段に記憶されたデータに基づいて当該画像データに紐付けされた動線データを選択するデータ選択手段と、
    このデータ選択手段により選択された動線データの動線を、前記リストの中から選択された画像データの人物画像とともに表示する解析表示手段と、
    をさらに具備したことを特徴とする請求項2記載の人物動線追跡システム。
JP2008114336A 2008-04-24 2008-04-24 人物動線追跡システム Active JP4585580B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008114336A JP4585580B2 (ja) 2008-04-24 2008-04-24 人物動線追跡システム
US12/427,216 US20090268028A1 (en) 2008-04-24 2009-04-21 Flow line tracing system and program storage medium for supporting flow line tracing system
EP09158431A EP2112637A1 (en) 2008-04-24 2009-04-22 Flow line tracing system and program storage medium for supporting flow line tracing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008114336A JP4585580B2 (ja) 2008-04-24 2008-04-24 人物動線追跡システム

Publications (2)

Publication Number Publication Date
JP2009265922A JP2009265922A (ja) 2009-11-12
JP4585580B2 true JP4585580B2 (ja) 2010-11-24

Family

ID=40886959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008114336A Active JP4585580B2 (ja) 2008-04-24 2008-04-24 人物動線追跡システム

Country Status (3)

Country Link
US (1) US20090268028A1 (ja)
EP (1) EP2112637A1 (ja)
JP (1) JP4585580B2 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4815514B2 (ja) * 2009-07-13 2011-11-16 東芝テック株式会社 動線認識システム
JP2011170564A (ja) * 2010-02-17 2011-09-01 Toshiba Tec Corp 動線連結方法,装置及び動線連結プログラム
JP4802285B2 (ja) * 2010-02-17 2011-10-26 東芝テック株式会社 動線関連付け方法、装置及びプログラム
JP4975835B2 (ja) * 2010-02-17 2012-07-11 東芝テック株式会社 動線連結装置及び動線連結プログラム
JP5311239B2 (ja) 2011-06-17 2013-10-09 カシオ計算機株式会社 売上データ処理装置及びプログラム
US9367770B2 (en) 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
US11288472B2 (en) 2011-08-30 2022-03-29 Digimarc Corporation Cart-based shopping arrangements employing probabilistic item identification
US10474858B2 (en) 2011-08-30 2019-11-12 Digimarc Corporation Methods of identifying barcoded items by evaluating multiple identification hypotheses, based on data from sensors including inventory sensors and ceiling-mounted cameras
US9122915B2 (en) * 2011-09-16 2015-09-01 Arinc Incorporated Method and apparatus for facial recognition based queue time tracking
US9224184B2 (en) 2012-10-21 2015-12-29 Digimarc Corporation Methods and arrangements for identifying objects
JP5438859B1 (ja) * 2013-05-30 2014-03-12 パナソニック株式会社 客層分析装置、客層分析システムおよび客層分析方法
JP5834249B2 (ja) * 2013-11-20 2015-12-16 パナソニックIpマネジメント株式会社 人物移動分析装置、人物移動分析システムおよび人物移動分析方法
JP6289308B2 (ja) * 2014-08-22 2018-03-07 東芝テック株式会社 情報処理装置およびプログラム
JP5720843B1 (ja) * 2014-09-22 2015-05-20 富士ゼロックス株式会社 位置変換プログラム及び情報処理装置
JP6555906B2 (ja) 2015-03-05 2019-08-07 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP5915960B1 (ja) 2015-04-17 2016-05-11 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
JP6624877B2 (ja) 2015-10-15 2019-12-25 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6558579B2 (ja) 2015-12-24 2019-08-14 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
JP2017174343A (ja) * 2016-03-25 2017-09-28 富士ゼロックス株式会社 入店者属性抽出装置及び入店者属性抽出プログラム
WO2017170084A1 (ja) * 2016-03-31 2017-10-05 日本電気株式会社 動線表示システム、動線表示方法およびプログラム記録媒体
US10497130B2 (en) 2016-05-10 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Moving information analyzing system and moving information analyzing method
JP6742195B2 (ja) 2016-08-23 2020-08-19 キヤノン株式会社 情報処理装置及びその方法、コンピュータプログラム
GB2560177A (en) 2017-03-01 2018-09-05 Thirdeye Labs Ltd Training a computational neural network
GB2560387B (en) 2017-03-10 2022-03-09 Standard Cognition Corp Action identification using neural networks
JP6836173B2 (ja) * 2017-03-31 2021-02-24 日本電気株式会社 万引き防止システム及びそれに使用される店舗側装置並びにセンタ側装置
WO2019032306A1 (en) * 2017-08-07 2019-02-14 Standard Cognition, Corp. PREDICTION OF INVENTORY EVENTS USING SEMANTIC DIFFERENTIATION
JP6749498B2 (ja) * 2017-08-30 2020-09-02 三菱電機株式会社 撮影対象追跡装置及び撮影対象追跡方法
CN109508586B (zh) * 2017-09-15 2021-10-29 杭州海康威视数字技术股份有限公司 一种客流统计方法、装置及设备
US10186124B1 (en) * 2017-10-26 2019-01-22 Scott Charles Mullins Behavioral intrusion detection system
US11704782B2 (en) * 2018-10-03 2023-07-18 The Toronto-Dominion Bank Computerized image analysis for automatically determining wait times for a queue area
US11126861B1 (en) 2018-12-14 2021-09-21 Digimarc Corporation Ambient inventorying arrangements
EP3949374A4 (en) * 2019-04-01 2023-05-31 Citrix Systems, Inc. AUTOMATIC IMAGE CAPTURE
KR20210153089A (ko) 2019-04-10 2021-12-16 스캇 찰스 멀린스 모니터링 시스템
JP7362102B2 (ja) * 2019-05-08 2023-10-17 株式会社オレンジテクラボ 情報処理装置及び情報処理プログラム
US20220345619A1 (en) * 2019-09-27 2022-10-27 Ricoh Company, Ltd. Apparatus, image processing system, communication system, method for setting, image processing method, and recording medium
US11948110B2 (en) * 2020-01-29 2024-04-02 I3 International Inc. System for managing performance of a service establishment
JP7398706B2 (ja) 2020-02-25 2023-12-15 Awl株式会社 不正防止システム、及び不正防止プログラム
JP2022144490A (ja) * 2021-03-19 2022-10-03 東芝テック株式会社 店舗システム及びプログラム
CN114023026A (zh) * 2021-05-12 2022-02-08 北京小乔机器人科技发展有限公司 一种机器人自动报警的方法
WO2024034353A1 (ja) * 2022-08-12 2024-02-15 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、情報処理システム、基地局、及び端末

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000200357A (ja) * 1998-10-27 2000-07-18 Toshiba Tec Corp 人物動線情報の収集方法及び収集装置
JP2005216010A (ja) * 2004-01-29 2005-08-11 Nec Corp 客動線調査システム、客動線調査方法および客動線調査プログラム
JP2005250692A (ja) * 2004-03-02 2005-09-15 Softopia Japan Foundation 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体
JP2008059108A (ja) * 2006-08-30 2008-03-13 Hitachi Ltd 画像処理装置,画像処理方法、そのプログラムおよび人流監視システム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050288952A1 (en) * 2004-05-18 2005-12-29 Davis Bruce L Official documents and methods of issuance
US8289390B2 (en) * 2004-07-28 2012-10-16 Sri International Method and apparatus for total situational awareness and monitoring
US7746378B2 (en) * 2004-10-12 2010-06-29 International Business Machines Corporation Video analysis, archiving and alerting methods and apparatus for a distributed, modular and extensible video surveillance system
JP4650669B2 (ja) * 2004-11-04 2011-03-16 富士ゼロックス株式会社 動体認識装置
JP2006236146A (ja) 2005-02-25 2006-09-07 Uchida Yoko Co Ltd 店舗内動線把握システム及び方法並びにプログラム
JP2006350751A (ja) 2005-06-17 2006-12-28 Hitachi Ltd 店舗内の販売分析装置及びその方法
JP4188394B2 (ja) * 2005-09-20 2008-11-26 フジノン株式会社 監視カメラ装置及び監視カメラシステム
US20070214491A1 (en) * 2006-03-07 2007-09-13 Shield Security Systems, L.L.C. Interactive security control system and method with automated order submission and approval process
JP4836633B2 (ja) * 2006-03-31 2011-12-14 株式会社東芝 顔認証装置、顔認証方法および入退場管理装置
US7881505B2 (en) * 2006-09-29 2011-02-01 Pittsburgh Pattern Recognition, Inc. Video retrieval system for human face content
KR101364534B1 (ko) * 2006-11-16 2014-02-18 삼성전자주식회사 영상에 위치정보를 입력하는 시스템 및 그 동작 방법
JP4892609B2 (ja) * 2007-06-26 2012-03-07 東芝テック株式会社 顧客行動管理装置,方法及びプログラム
US8139818B2 (en) * 2007-06-28 2012-03-20 Toshiba Tec Kabushiki Kaisha Trajectory processing apparatus and method
JP4621716B2 (ja) * 2007-08-13 2011-01-26 東芝テック株式会社 人物行動分析装置,方法及びプログラム
US8553948B2 (en) * 2007-09-01 2013-10-08 Eyelock, Inc. System and method for iris data acquisition for biometric identification
JP4980260B2 (ja) * 2008-02-05 2012-07-18 東芝テック株式会社 動線認識システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000200357A (ja) * 1998-10-27 2000-07-18 Toshiba Tec Corp 人物動線情報の収集方法及び収集装置
JP2005216010A (ja) * 2004-01-29 2005-08-11 Nec Corp 客動線調査システム、客動線調査方法および客動線調査プログラム
JP2005250692A (ja) * 2004-03-02 2005-09-15 Softopia Japan Foundation 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体
JP2008059108A (ja) * 2006-08-30 2008-03-13 Hitachi Ltd 画像処理装置,画像処理方法、そのプログラムおよび人流監視システム

Also Published As

Publication number Publication date
JP2009265922A (ja) 2009-11-12
US20090268028A1 (en) 2009-10-29
EP2112637A1 (en) 2009-10-28

Similar Documents

Publication Publication Date Title
JP4585580B2 (ja) 人物動線追跡システム
US11288495B2 (en) Object tracking and best shot detection system
US10255793B2 (en) System and method for crime investigation
JP7038543B2 (ja) 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム
JP4510112B2 (ja) 動線解析装置
JP2009284167A (ja) 人物行動監視装置及び人物行動監視プログラム
JP2010002997A (ja) 人物行動分析装置及び人物行動分析プログラム
JP4802285B2 (ja) 動線関連付け方法、装置及びプログラム
JP5903557B2 (ja) セキュリティシステム
JP2011170564A (ja) 動線連結方法,装置及び動線連結プログラム
JP2007087208A (ja) 顧客動向収集システム、顧客動向収集方法および顧客動向収集プログラム
JP4159572B2 (ja) 異常報知装置および異常報知方法
JP2009110408A (ja) 動線編集装置及び動線編集プログラム
JP4408916B2 (ja) 動線編集装置,方法及びプログラム
JP6735574B2 (ja) 情報処理装置、情報処理システム、それらの制御方法、およびプログラム
JP2003169320A (ja) 監視方法及び監視システム
CN117376533A (zh) 基于活动轨迹的无人值守商店监控系统的控制方法
JP4408917B2 (ja) 動線編集装置,方法及びプログラム
KR20230022596A (ko) 인공지능 기반의 영상 분석 모델을 이용하여 무인 매장 고객의 행동 패턴을 분석하는 방법 및 장치
JP2009157846A (ja) 動線データ編集装置及び動線データ編集プログラム
JP6573259B2 (ja) カメラによる属性収集システム
CN115546703B (zh) 自助收银的风险识别方法、装置、设备及存储介质
JP7337399B2 (ja) 防犯管理システム、および防犯管理方法
JP4429337B2 (ja) 動線処理装置,方法及びプログラム
JP7054075B2 (ja) 情報処理システム、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100706

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100903

R150 Certificate of patent or registration of utility model

Ref document number: 4585580

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3