JP2006165729A - Photographing program, photographing method and photographing system - Google Patents

Photographing program, photographing method and photographing system Download PDF

Info

Publication number
JP2006165729A
JP2006165729A JP2004350831A JP2004350831A JP2006165729A JP 2006165729 A JP2006165729 A JP 2006165729A JP 2004350831 A JP2004350831 A JP 2004350831A JP 2004350831 A JP2004350831 A JP 2004350831A JP 2006165729 A JP2006165729 A JP 2006165729A
Authority
JP
Japan
Prior art keywords
information
photographing
person
terminal
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004350831A
Other languages
Japanese (ja)
Inventor
Yoshinobu Ochiai
慶喜 落合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004350831A priority Critical patent/JP2006165729A/en
Publication of JP2006165729A publication Critical patent/JP2006165729A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photographing program, a photographing method, and a photographing system capable of properly utilizing information with respect to a particular object with high convenience. <P>SOLUTION: The photographing method includes: a photographing step of photographing an object; a step of extracting three-dimensional information of the object from image information of the photographed object; a step of extracting at least one object specifying information among attributes and states of the object from the image information; and a step of relating the image information, the three-dimensional information and the object particularizing information with each other and storing them on the basis of the object. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ネットワークに接続された複数の撮影装置により特定の対象を撮影し、映像情報と映像を解析して得られる情報を関連付けて記憶・配信する撮影システムに関する。     The present invention relates to a photographing system that photographs a specific target by a plurality of photographing devices connected to a network, and stores and distributes video information and information obtained by analyzing the video in association with each other.

従来、複数の撮影装置により特定対象を多角的に観測(撮影)し、得られた映像情報から該対象の3次元情報を取得するシステムが提案されている。   2. Description of the Related Art Conventionally, a system has been proposed in which a specific target is observed (captured) from a plurality of image capturing apparatuses in a multifaceted manner, and three-dimensional information about the target is acquired from the obtained video information.

これらのシステム構成は、例えば図13(a)に示すように、複数の撮影装置から出力される映像情報を1台のコンピュータ(処理端末)に入力して処理したり、図13(b)のように撮影装置をネットワークに接続することで遠隔地に配置したコンピュータで処理する構成が提案されている。   For example, as shown in FIG. 13 (a), these system configurations can be processed by inputting video information output from a plurality of photographing devices to one computer (processing terminal), as shown in FIG. 13 (b). In this way, a configuration has been proposed in which a photographing apparatus is connected to a network and processed by a computer disposed at a remote location.

また、図13(c)に示すようにネットワークの負荷を低減させる目的で撮影装置ごとにコンピュータが設けられ、処理結果のみをネットワークを介して送信したり、図13(d)のような撮影装置ごとに得られた処理結果を互いに送受信し、分散型・協調型のシステムも提案されている。   Further, as shown in FIG. 13C, a computer is provided for each photographing apparatus for the purpose of reducing the load on the network, and only the processing result is transmitted via the network, or the photographing apparatus as shown in FIG. A distributed / cooperative system is also proposed in which processing results obtained for each are transmitted and received.

一方、撮影された映像に該映像に関する情報や著作権情報等を付加することで映像の蓄積管理を容易にする技術が提案されている。このように映像に付加されるそれらの情報は一般にメタ情報とよばれ、映像取得時の環境情報や映像の自動解析やユーザーにより入力されるシーン情報やカット情報等が、映像と関連付けて保存される。これにより映像の検索や編集・著作権管理等をコンピュータにより自動的に行うことが可能となり、安全で利便性の高い映像の流通の促進に寄与することが期待されている(特許文献1参照)。
特開2000−030057(段落0022〜0029、図1等)
On the other hand, there has been proposed a technique for facilitating video storage management by adding information related to the video, copyright information, and the like to the captured video. Such information added to video is generally called meta information, and environment information at the time of video acquisition, automatic analysis of video, scene information input by the user, cut information, etc. are stored in association with video. The As a result, video search, editing, copyright management, and the like can be automatically performed by a computer, which is expected to contribute to the promotion of safe and convenient video distribution (see Patent Document 1). .
JP 2000-030057 (paragraphs 0022 to 0029, FIG. 1, etc.)

しかしながら、上記のような従来の3次元情報取得システムでは映像から特定対象の3次元情報を取得するが、該対象の空間情報の蓄積と時間的な統計情報を取得しておらず、さらには、一般に映像情報と3次元情報とが別々に管理され、それぞれの情報の対応や関連付けは考慮されてはいない。   However, in the conventional three-dimensional information acquisition system as described above, the three-dimensional information of the specific target is acquired from the video, but the accumulation of the spatial information of the target and the temporal statistical information are not acquired. In general, video information and three-dimensional information are managed separately, and the correspondence and association of each information is not considered.

また、映像にメタ情報を付加するシステムは、映像自身の内容や著作権に関する情報に重点が置かれ、複数映像からの3次元情報の取得や、対象の空間情報の蓄積と時間的な統計情報を取得し付加することは3次元情報取得システムと同様に考慮されていない。   In addition, the system that adds meta information to video focuses on information about the content and copyright of the video itself, acquires 3D information from multiple videos, accumulates target spatial information and temporal statistical information As with the three-dimensional information acquisition system, the acquisition and addition are not considered.

したがって、従来の3次元情報取得システムでは、取得した映像及び3次元情報の関連性が乏しく、実際に取得した情報を用いたシステムの構築に際し、該情報を十分に活用することができず、利便性、拡張性が低い課題を有している。   Therefore, in the conventional three-dimensional information acquisition system, the relationship between the acquired video and the three-dimensional information is poor, and the information cannot be fully utilized when constructing a system using the actually acquired information. There is a problem of low expansibility and expandability.

本発明の例示的な目的の1つは、特定対象に関する情報を適切に活用でき、利便性の高い撮影プログラム、撮影方法及び撮影システムを実現することにある。   One of exemplary purposes of the present invention is to realize a highly convenient shooting program, shooting method, and shooting system that can appropriately use information on a specific target.

本発明の1つの観点としての撮影プログラムは、対象物を撮影する撮影ステップと、撮影された対象物の画像情報から対象物の3次元情報を抽出するステップと、画像情報から対象物の属性及び状態のうち少なくとも1つの対象特定情報を抽出するステップと、対象物に基づいて画像情報、3次元情報及び対象特定情報を関連付けて記憶するステップとを有することを特徴とする。   An imaging program as one aspect of the present invention includes an imaging step of imaging an object, a step of extracting three-dimensional information of the object from image information of the imaged object, an attribute of the object from the image information, and The method includes a step of extracting at least one target specifying information from the state, and a step of storing image information, three-dimensional information, and target specifying information in association with each other based on the target.

本発明によれば、特定の対象を撮影し、撮影された映像情報と該映像情報を解析して得られる情報を関連付けて記憶するとともに、特定対象の3次元情報及び対象特定情報を該映像情報と関連付けて記憶するため、従来に比べて情報の共有を適切かつ容易に行え、利便性の高い撮影システムを実現することができる。   According to the present invention, a specific target is photographed, and the captured video information and the information obtained by analyzing the video information are stored in association with each other, and the three-dimensional information and the target specific information of the specific target are stored in the video information. Since the information is stored in association with each other, it is possible to share information appropriately and easily as compared with the conventional case, and to realize a highly convenient photographing system.

以下に本発明の実施例について説明する。   Examples of the present invention will be described below.

図1は、本発明の実施例1における撮影システムの構成ブロック図である。   FIG. 1 is a configuration block diagram of a photographing system in Embodiment 1 of the present invention.

101は撮影用端末(撮影ユニット)で、対象(対象物)の映像を取得する撮影部142と通信部141を有し、ネットワーク131に接続されている。したがって、この通信部141を介して他のコンピュータや撮影用端末との通信を行うことができる。   Reference numeral 101 denotes an imaging terminal (imaging unit), which has an imaging unit 142 and a communication unit 141 that acquire an image of an object (object), and is connected to a network 131. Therefore, communication with other computers and photographing terminals can be performed via the communication unit 141.

なお、撮影用端末は撮影用端末101のように1つの撮影部(撮影装置)を設けるように構成してもよいが、撮影用端末102のように2つの撮影部144、145を設けるように複数の撮影部を備えた撮影用端末としてもよい。   Note that the photographing terminal may be configured to provide one photographing unit (imaging device) like the photographing terminal 101, but two photographing units 144 and 145 like the photographing terminal 102 are provided. It is good also as a terminal for photography provided with a plurality of photography parts.

また、本実施例の撮影システムでは、システム構成の規模や目的に応じて撮影用端末101、102、103、104というように複数の撮影用端末がネットワークを介して接続される構成としてもよいが、特定対象等の3次元情報を取得するために、システム全体における撮影部用端末は少なくとも2つ以上設けていればよい。   Further, in the photographing system of the present embodiment, a plurality of photographing terminals may be connected via a network such as photographing terminals 101, 102, 103, and 104 according to the scale and purpose of the system configuration. In order to acquire three-dimensional information such as a specific target, at least two photographing unit terminals in the entire system may be provided.

111は記憶用端末(記憶ユニット)であり、撮影用端末101〜104により取得される複数の映像から特定対象の3次元情報を取得する3次元情報抽出部151と、映像情報その他を記憶するための記憶部152と、3次元情報を時間的に統計処理する有意情報抽出部153及び、通信部154を備えている。   Reference numeral 111 denotes a storage terminal (storage unit) for storing a 3D information extraction unit 151 that acquires 3D information of a specific target from a plurality of videos acquired by the shooting terminals 101 to 104, and video information and the like. Storage section 152, significant information extraction section 153 that statistically processes the three-dimensional information in time, and a communication section 154.

ユーザ用端末(コンピュータ)121はユーザへの各種情報の表示インタフェイスとしての表示部161、通信部162を有しており、ユーザの撮影システムへのアクセスを可能にしている。   The user terminal (computer) 121 includes a display unit 161 and a communication unit 162 as display interfaces for various information to the user, and enables the user to access the photographing system.

そして、本実施例の撮影システムは、各端末に設けられたマイクロコンピュータ(CPU)により制御され、例えば、ユーザ用端末121のCPUを用いて撮影システム全体の制御を行わせ、各端末で行われる後述の処理及び通信を制御するように構成し、各端末における通信、記憶処理、更新処理、認識処理及び画像処理等の処理は各端末におけるCPUが制御を行う。   The photographing system of this embodiment is controlled by a microcomputer (CPU) provided in each terminal. For example, the whole photographing system is controlled using the CPU of the user terminal 121 and is performed at each terminal. The processing and communication described later are configured to be controlled, and the CPU in each terminal controls processing such as communication, storage processing, update processing, recognition processing, and image processing in each terminal.

次に本実施例における撮影用端末の人物認識処理と、各端末間の人物情報の共有について図6の概念図を用いて説明する。   Next, person recognition processing of the photographing terminal and sharing of person information between the terminals in the present embodiment will be described with reference to the conceptual diagram of FIG.

ネットワーク601を介して記憶用端末602と撮影用端末603、604が接続されている。今、撮影対象A605及びB606が存在し、撮影用端末603、604はそれぞれの撮影用端末に設けられた撮影部の撮影範囲内に2つの撮影対象を捉えているものとする。   A storage terminal 602 and photographing terminals 603 and 604 are connected via a network 601. Now, it is assumed that there are shooting targets A605 and B606, and the shooting terminals 603 and 604 capture two shooting targets within the shooting range of the shooting unit provided in each shooting terminal.

撮影用端末603内には撮影対象Aを追跡し情報を保持するソフトウェアオブジェクトであるエージェントとしてエージェントA607と、撮影対象Bに対応するエージェントB608とが作成される。同様にして撮影用端末604内には撮影対象Aに対応するエージェントA609および撮影対象Bに対応するエージェントB610が作成される。   In the photographing terminal 603, an agent A607 and an agent B608 corresponding to the photographing target B are created as agents that are software objects that track the photographing target A and hold information. Similarly, an agent A 609 corresponding to the shooting target A and an agent B 610 corresponding to the shooting target B are created in the shooting terminal 604.

それぞれのエージェントは対応する撮影対象の情報を記憶・更新するとともに、エージェント間でそれら情報の共有を行うことで追跡精度の向上や協調してタスクの分担などを行う。   Each agent stores and updates the information of the corresponding object to be photographed, and the information is shared among the agents, thereby improving tracking accuracy and coordinating tasks.

特に撮影用端末603のエージェントA607と撮影用端末604のエージェントA609およびエージェントB608とエージェントB610のように撮影用端末を跨いで同一の撮影対象を担当するエージェント同士はエージェンシとよばれるグループを形成し、撮影対象に関する情報を共有することで上記追跡精度の向上やタスクの分担に加えて撮影対象の3次元情報を取得することが可能となる。   In particular, agents in charge of the same shooting object across the shooting terminals such as agent A 607 of shooting terminal 603, agent A 609 of shooting terminal 604, agent B 608 and agent B 610 form a group called an agency, By sharing information related to the imaging target, it is possible to acquire the three-dimensional information of the imaging target in addition to the improvement in tracking accuracy and task sharing.

エージェントは撮影用端末(撮影部)の撮影範囲内で捉えられた全ての人物(特定対象)について発生し、撮影用端末の撮影範囲を外れるまで担当する人物を追跡し、情報を抽出し続ける。   The agent keeps extracting information by tracking all persons (specific targets) that are generated within the shooting range of the shooting terminal (shooting unit) until the person in charge is out of the shooting range of the shooting terminal.

エージェントおよびエージェンシの生成、破棄はリアルタイムで処理され、その状態は人物の移動や状態の変化に伴ってダイナミックに変化する。また、エージェント間の情報の共有は記憶用端末602が撮影用端末603、604から抽出した情報を集中的に管理し、必要に応じて各端末へ送信することで実現される。   Creation and destruction of agents and agencies are processed in real time, and their state changes dynamically as the person moves or changes state. Information sharing between agents is realized by centrally managing information extracted from the photographing terminals 603 and 604 by the storage terminal 602 and transmitting it to each terminal as necessary.

次に本実施例の撮影システムの、店舗における監視・マーケティングへの適用例を図2に示すとともに、図3に該撮影システムのシーケンスを示す。   Next, FIG. 2 shows an application example of the photographing system of this embodiment to monitoring / marketing in a store, and FIG. 3 shows a sequence of the photographing system.

図2は一般的な店舗に本実施例の撮影システムを適用したときの概要図である。店舗201は外部との出入り口204を有するエントランスフロア202と、商品の陳列と販売が行われる販売フロア203の2つのフロアから構成されている。   FIG. 2 is a schematic diagram when the photographing system of the present embodiment is applied to a general store. The store 201 includes two floors: an entrance floor 202 having an entrance / exit 204 to the outside, and a sales floor 203 on which merchandise is displayed and sold.

221、222は顧客人物を表わしており、店舗201は出入り口204およびエントランスフロア202を必ず通過しなければ販売フロア203へ入室できない構成となっている。撮影用端末211〜215、表示部217を備える記憶用端末216、ユーザ端末218および不図示のPOS(Point Of Sales)端末219が100BASE−T規格等の高速ネットワークで接続されており、互いに通信可能な状態となっている。   Reference numerals 221 and 222 denote customer characters, and the store 201 cannot enter the sales floor 203 unless it always passes through the entrance / exit 204 and the entrance floor 202. The photographing terminals 211 to 215, the storage terminal 216 including the display unit 217, the user terminal 218, and a POS (Point Of Sales) terminal 219 (not shown) are connected via a high-speed network such as 100BASE-T standard and can communicate with each other. It is in a state.

ここで撮影用端末211〜215はCCDカメラやCMOSカメラ等の撮影部と、不図示の映像処理部を備えており、映像処理部により撮影した映像をリアルタイム処理することが可能となっている。さらに、撮影用端末はカメラ動作、つまりパンニング及びチルティング等を行わずに固定された俯瞰撮影ユニット211〜213と、パンニング、チルトティング、ズーム等の物理的なカメラ動作可能な注目撮影用端末214〜215から構成されており、機能の異なる撮影用端末を組み合わせることで店舗201に入店した人物221、222の多様な撮影を可能としている。   Here, the photographing terminals 211 to 215 include a photographing unit such as a CCD camera or a CMOS camera and a video processing unit (not shown), and can perform real-time processing of the video photographed by the video processing unit. Furthermore, the photographing terminal is a camera operation, that is, the overhead photographing units 211 to 213 fixed without performing panning, tilting, and the like, and the noticeable photographing terminal 214 capable of physical camera operations such as panning, tilting, and zooming. 215, and by combining photographing terminals having different functions, it is possible to photograph various persons 221 and 222 entering the store 201.

記憶用端末216は撮影用端末211〜215により撮影(取得)された映像および処理結果である顧客人物情報を記憶、蓄積及び分析する処理端末であると同時に、ユーザ端末218やPOS端末219からの要求に応じて抽出した撮影対象の時空間的な統計情報である有意情報(対象特定情報)を、記憶している各々の人物に係る映像情報と対応付けて配信する機能を有している。   The storage terminal 216 is a processing terminal that stores, accumulates, and analyzes the customer personal information as the processing result and the video imaged (acquired) by the imaging terminals 211 to 215, and at the same time from the user terminal 218 and the POS terminal 219. It has a function of distributing significant information (target specifying information) that is spatio-temporal statistical information of a photographing target extracted according to a request in association with stored video information about each person.

また、ユーザ端末218は無線通信によりネットワークに接続されているPDA(Personal Digital Assistant)であり、ここではユーザとして店舗201の店員が所持することで各種情報の取得や処理の実行等システムへのアクセスが可能となる。   The user terminal 218 is a PDA (Personal Digital Assistant) connected to the network by wireless communication. Here, a store clerk of the store 201 as a user has access to a system such as acquisition of various information and execution of processing. Is possible.

このようなユーザによるシステムへのアクセスは記憶用端末216やPOS端末219を介して行うこともでき、店員の人数や配置に応じて柔軟に構成を変更することが可能である。さらに、POS端末219は商品に添付されたバーコード等のタグをスキャンすることで会計および購買記録を蓄積する機能を有している。   Such access to the system by the user can also be performed via the storage terminal 216 and the POS terminal 219, and the configuration can be flexibly changed according to the number and arrangement of store clerk. Further, the POS terminal 219 has a function of accumulating accounting and purchase records by scanning a tag such as a barcode attached to a product.

図3はシステムシーケンスのフローチャートである。本実施例の撮影システムが起動されると、まず撮影システムの初期化が行われる(S301)。ここでは撮影用端末211〜215が備える撮影部(カメラ)のキャリブレーションや各ユニット及びコンピュータ間の通信テスト、記憶用端末216による撮影用端末211〜215の端末情報の取得が行われる。   FIG. 3 is a flowchart of the system sequence. When the imaging system of the present embodiment is activated, the imaging system is first initialized (S301). Here, calibration of the photographing units (cameras) included in the photographing terminals 211 to 215, a communication test between each unit and the computer, and acquisition of terminal information of the photographing terminals 211 to 215 by the storage terminal 216 are performed.

これにより記憶用端末216は、撮影システム内に備える全端末の状態を把握することが可能となり、個々の端末においても記憶用端末216へ問い合わせることで、結果として撮影システム内の全ての端末状態を共有していることになる。   As a result, the storage terminal 216 can grasp the status of all terminals included in the imaging system, and the individual terminals can inquire the storage terminal 216 as a result. It will be shared.

撮影システムの初期化が行われ、配置された各端末間の状態が確認できたならば、撮影システムはスタンバイ状態となる(S302)。そして、その後はエントランスフロア202における処理(S303〜S307)と販売フロア203における処理(S309〜S314)がそれぞれ並行して実行される。   If the imaging system is initialized and the status between the terminals arranged can be confirmed, the imaging system enters a standby state (S302). After that, the process on the entrance floor 202 (S303 to S307) and the process on the sales floor 203 (S309 to S314) are respectively performed in parallel.

エントランスフロア202では、エントランスフロア202の俯瞰撮影において俯瞰撮影用端末211を用いて出入り口204を含むエントランスフロア202の俯瞰撮影が行われる(S303)。このエントランスフロア202の俯瞰撮影はユーザからのシステム終了命令が発せられるまで常時実行され続け(S304)、得られた俯瞰映像を俯瞰撮影用端末211に備える映像処理部によってリアルタイム処理することで新たに出入り口204からエントランスフロア202へ入室または退室した人物221を検出し(S305)、入室人物についてはさらに注目撮影用端末214を用いた注目撮影を行うことでより詳細な人物情報を取得する(S306)。   In the entrance floor 202, the overhead view of the entrance floor 202 including the entrance / exit 204 is performed using the overhead view photographing terminal 211 in the overhead view of the entrance floor 202 (S303). This overhead view of the entrance floor 202 is continuously executed until a system termination command is issued from the user (S304), and the obtained overhead view video is newly processed by real-time processing by the video processing unit provided in the overhead view photographing terminal 211. A person 221 entering or exiting the entrance floor 202 from the entrance / exit 204 is detected (S305), and more detailed person information is acquired for the person entering the room by further performing attention imaging using the attention imaging terminal 214 (S306). .

このようにして得られた入室人物の詳細な人物情報は、ネットワークを介して記憶用端末216へ送信して記憶する。そして顧客人物情報としてシステム内の全ての端末間で共有される。   The detailed person information of the person entering the room thus obtained is transmitted to the storage terminal 216 via the network and stored. And it is shared among all terminals in the system as customer personal information.

また、出入り口204より退出した人物に関しても同様に、その都度記憶用端末216に記憶することで店舗201に存在する最新の人物情報が常時更新される状態が保たれる。   Similarly, the person who has exited from the entrance / exit 204 is stored in the storage terminal 216 each time, so that the latest person information existing in the store 201 is constantly updated.

一方、並行して実行される販売フロア203における処理では、販売フロア203での俯瞰撮影において、販売フロア203を死角無く撮影するよう配置された俯瞰撮影用端末212、213により販売フロア203全体の俯瞰撮影が行われる(S309)。販売フロア203の俯瞰撮影はユーザからのシステム終了命令が発せられるまで常時実行され続け、得られた俯瞰映像を俯瞰撮影用端末212、213に備える映像処理部によってリアルタイム処理することで販売フロア203内を往来する人物222を検出し(S310)、人物が販売フロア203を退出するまで行動を追跡し続ける。   On the other hand, in the processing on the sales floor 203 that is executed in parallel, in the overhead view shooting on the sales floor 203, the overhead view of the entire sales floor 203 is taken by the overhead view imaging terminals 212 and 213 arranged to take an image of the sales floor 203 without blind spots. Shooting is performed (S309). The overhead view of the sales floor 203 is continuously executed until a system termination command is issued from the user, and the obtained overhead view video is processed in real time by the video processing unit provided in the overhead view terminals 212 and 213 so that the inside of the sales floor 203 is obtained. Is detected (S310), and the behavior is continuously tracked until the person leaves the sales floor 203.

さらに、俯瞰撮影された映像から予め撮影システム内で定義された特定の事象が検出されたならば(S311)、ステップ312に進み、さらに注目撮影用端末215による注目撮影を行うことで、より詳細な人物に関する情報を取得することが可能となる。そして、ステップ313では検出された特定の事象に応じた処理が実行される。   Furthermore, if a specific event defined in advance in the imaging system is detected from the video imaged in the overhead view (S311), the process proceeds to step 312 and further by performing attention imaging by the attention imaging terminal 215, the details will be described. It is possible to acquire information on a person. In step 313, processing corresponding to the detected specific event is executed.

なお、予めシステムに定義された特定の事象とは人物の転倒や接触事故、盗難等が挙げられ、そのような事象が検出されたならば撮影システムは店員へ所定の対応を行わせるべくユーザ端末218、表示部217およびPOS端末を介して事象の表示・通知を行う。   The specific events defined in advance in the system include a person's fall, contact accident, theft, etc., and if such an event is detected, the imaging system will allow the clerk to perform a predetermined response to the user terminal. Event display / notification is performed via the display unit 217 and the POS terminal.

このようにして得られた販売フロア203を往来する人物や特定の事象に関する情報は、エントランスフロア202によって取得された詳細な人物情報と統合されて記憶用端末216に記憶され、ネットワークを介して撮影システム内の全ての端末間で共有されるとともに、会計時にPOS端末219により取得される購買記録とも相互に参照可能な状態となる(S314)。   Information on the person who travels on the sales floor 203 and the specific event obtained in this way is integrated with the detailed person information acquired by the entrance floor 202 and stored in the storage terminal 216, and is photographed via the network. In addition to being shared among all terminals in the system, the purchase record acquired by the POS terminal 219 at the time of accounting can be mutually referred to (S314).

また、ステップ304、ステップ310においてシステム終了の命令がユーザより発せられたならば、撮影システムはステップ308の終了処理を実行する。終了処理としてはシステム起動時からのユーザメモリの解放や、抽出された各種情報の整理、編集等の処理である。   If a system termination command is issued from the user in step 304 and step 310, the imaging system executes the termination process in step 308. The termination processing includes processing such as release of user memory at the time of system startup, arrangement of various extracted information, and editing.

続いて図3に示したシステムシーケンスそれぞれの処理に関して詳細に説明する。   Next, the processing of each system sequence shown in FIG. 3 will be described in detail.

はじめに図3のステップ301におけるシステム初期化処理を図4を用いて説明する。なお、システムを構成する各端末は平行して処理が実行されるため、端末ごとの処理をそれぞれ分離してフローチャートを記述している。   First, the system initialization process in step 301 of FIG. 3 will be described with reference to FIG. In addition, since each terminal which comprises a system performs a process in parallel, the process for every terminal is isolate | separated, respectively, and the flowchart is described.

まず、ユーザへのインタフェイスを有する端末であるPOS端末219、ユーザ端末218または記憶用端末216を介してユーザである店舗の店員によりシステム起動命令が実行される。   First, a system activation command is executed by a store clerk at a store via a POS terminal 219, a user terminal 218, or a storage terminal 216, which is a terminal having an interface to the user.

POS端末219およびユーザ端末218はそれぞれステップ402、404において通信テストを行った後、ステップ403、405に進み、各々の端末情報を記憶用端末216へ送信する。送信する端末情報としては端末固有のID、通信テストの結果および機能の不具合情報等である。   The POS terminal 219 and the user terminal 218 perform communication tests in steps 402 and 404, respectively, and then proceed to steps 403 and 405 to transmit each terminal information to the storage terminal 216. The terminal information to be transmitted includes an ID unique to the terminal, a communication test result, function defect information, and the like.

俯瞰撮影ユニット211〜213および注目撮影ユニット214〜215において、実行されるステップ408、412のカメラキャリブレーションは、3次元座標既知の基準物体を複数の撮影用端末、例えば撮影用端末211、214で同時に撮影した画像から、それぞれの端末の有する撮影部の位置、姿勢、画角等を表わすカメラパラメータを算出する処理である。加えて、注目撮影用端末が備える撮影部はパンニング・チルトティング及びズーム機能を有するため、それらカメラ動作の範囲や速度をステップ413のカメラ運動・撮影可能領域情報取得により求める。カメラパラメータの算出は、上記画像を用いる方法の他に位置姿勢検出センサ等を用いて直接計測するようにしてもよい。   In the overhead view photographing units 211 to 213 and the noticeable photographing units 214 to 215, the camera calibration performed in steps 408 and 412 is performed by using a plurality of photographing terminals, for example, photographing terminals 211 and 214, with reference objects whose three-dimensional coordinates are known. This is a process of calculating camera parameters representing the position, orientation, angle of view, etc. of the photographing unit of each terminal from images taken at the same time. In addition, since the photographing unit included in the target photographing terminal has panning / tilting and zooming functions, the range and speed of the camera operation are obtained by acquiring camera motion / capturable area information in step 413. The camera parameter may be calculated directly using a position / orientation detection sensor or the like in addition to the method using the image.

このようにして撮影部に関するパラメータが求まったならば、ステップ409、414において、それぞれの撮影用端末毎に背景画像の作成を行う。これは撮影画像から人物や特定事象の検出を行う処理において背景差分法による動領域の検出を行う際に使用される。特に、カメラ動作の可能な注目撮影用端末は、カメラ動作可能範囲における背景画像の取得と複数画像の合成が必要になる。   If the parameters relating to the photographing unit are obtained in this way, a background image is created for each photographing terminal in steps 409 and 414. This is used when detecting a moving region by the background subtraction method in a process of detecting a person or a specific event from a captured image. In particular, a target photographing terminal capable of camera operation needs to acquire a background image and synthesize a plurality of images within a camera operable range.

なお、本実施例では撮影画像からの動領域検出法として背景差分法を用いているが、検出アルゴリズムはこれに限らず、この種の処理に広く用いられているテンプレートマッチング法やオプティカルフロー法およびそれら手法の組み合わせ手法も適用可能である。   In this embodiment, the background subtraction method is used as a method for detecting a moving region from a captured image. However, the detection algorithm is not limited to this, and a template matching method, an optical flow method, and the like widely used for this type of processing are used. Combination methods of these methods are also applicable.

ステップ410、415では、POS端末219及びユーザ端末218と同様に通信テストを行い、ステップ411、416では上記算出した撮影部に関するパラメータを含む端末情報を記憶用端末216へ送信する。   In steps 410 and 415, a communication test is performed in the same manner as the POS terminal 219 and the user terminal 218. In steps 411 and 416, terminal information including the calculated parameters relating to the imaging unit is transmitted to the storage terminal 216.

一方、記憶用端末216はステップ406において他の端末同様に通信テストを行い、ステップ407において撮影システムを構成する他の全ての端末から送信される端末情報を受信し、記憶する。   On the other hand, the storage terminal 216 performs a communication test in the same manner as other terminals in step 406, and receives and stores terminal information transmitted from all other terminals constituting the photographing system in step 407.

以上のような端末ごとの処理を経て撮影システムはステップ417のスタンバイ状態となる。撮影システムがステップ417のスタンバイ状態に移行すると、POS端末219、ユーザ端末218および記憶用端末216はユーザからの処理入力を受け付け、撮影用端末211〜215はそれぞれ撮影を開始する。   Through the processing for each terminal as described above, the photographing system enters a standby state in step 417. When the photographing system shifts to the standby state in step 417, the POS terminal 219, the user terminal 218, and the storage terminal 216 accept processing input from the user, and the photographing terminals 211 to 215 each start photographing.

次に図5のフローチャートを用いて図3に示したステップ302〜ステップ307までのエントランスフロア202における顧客人物情報取得・更新処理を説明する。   Next, customer personal information acquisition / update processing in the entrance floor 202 from step 302 to step 307 shown in FIG. 3 will be described using the flowchart of FIG.

撮影システムのスタンバイ状態から(S501)、エントランスフロア202の俯瞰撮影を開始している俯瞰撮影用端末211の撮影範囲内に人物221が侵入すると、図3におけるステップ301でのシステム初期化において撮影用端末ごとに取得した背景画像と現在の画像の差分を算出することで画像中の変化領域を検出する背景差分法を用いた人物認識が行われ(S502)、同時に認識された人物221に関する2次元情報の抽出が行われる。   When the person 221 enters the shooting range of the overhead shooting terminal 211 that has started the overhead view shooting of the entrance floor 202 from the standby state of the shooting system (S501), it is for shooting at the system initialization in step 301 in FIG. Person recognition is performed using a background difference method of detecting a change area in an image by calculating a difference between the background image acquired for each terminal and the current image (S502), and two-dimensionally related to the person 221 recognized simultaneously. Information is extracted.

認識された人物は撮影範囲内に新たに侵入した人物なのか、それとも既に存在していた人物(撮影された人物)の状態が変化したのかを判断し(S503)、新たに侵入した人物と判断された場合、俯瞰撮影用端末211の撮影範囲内において該当人物221に関する情報を記憶(保持)し、追跡を行うエージェントと呼ばれるソフトウェアオブジェクトを発生させる(S504)。   It is determined whether the recognized person is a newly invaded person within the shooting range, or whether the state of the already existing person (photographed person) has changed (S503), and is determined to be a newly invaded person If so, information about the person 221 is stored (held) within the shooting range of the overhead view shooting terminal 211, and a software object called an agent that performs tracking is generated (S504).

既に存在していた人物の状態が変化したと判断された場合は、撮影画像より得られる2次元的な人物特徴、画像上での2次元位置および担当エージェント等の人物情報の更新が行われる(S505)。   When it is determined that the state of a person that has already existed has been changed, two-dimensional person characteristics obtained from the photographed image, two-dimensional positions on the image, and person information such as the agent in charge are updated ( S505).

このようにして俯瞰撮影用端末211の撮影範囲内に侵入した人物221の認識と追跡を担当するエージェントが生成されたならば、俯瞰撮影用端末211は認識した人物に関する人物情報を記憶用端末216へ送信する(S506)。送信された人物情報は記憶用端末216で受信され、記憶用端末内においても俯瞰撮影用端末211と同様人物情報の記憶・更新が行われる(S507)。そして、記憶用端末216は俯瞰撮影用端末211だけでなくすべての撮影用端末により取得された映像中で認識された人物情報を集中管理し、常時情報を更新する。   If an agent responsible for recognizing and tracking the person 221 who has entered the shooting range of the overhead view photographing terminal 211 is generated in this way, the overhead view photographing terminal 211 stores the personal information about the recognized person in the storage terminal 216. (S506). The transmitted personal information is received by the storage terminal 216, and the personal information is stored / updated in the storage terminal as well as the overhead view photographing terminal 211 (S507). Then, the storage terminal 216 centrally manages the personal information recognized in the video acquired by all the photographing terminals as well as the overhead photographing terminal 211, and constantly updates the information.

さらに記憶用端末216は過去の顧客人物情報を記憶しており、人物情報と人物画像をリンクさせた形で保存することで人物情報から人物画像の検索、およびその逆を検索を可能としている。したがって、ステップ508では取得した人物情報に基づいて顧客人物情報全体を検索することでステップ502において認識された人物の顧客人物情報が記憶用端末216内に記憶されているか否かの判断を行う。   Further, the storage terminal 216 stores past customer person information, and by storing the person information and the person image in a linked form, it is possible to search for the person image from the person information and vice versa. Accordingly, in step 508, it is determined whether the customer personal information of the person recognized in step 502 is stored in the storage terminal 216 by searching the entire customer personal information based on the acquired personal information.

既に顧客人物情報が記憶されている人物であると判断された場合、顧客人物情報の最終更新日時等から更新が必要か否かを判断し(S509)、更新の必要なしと判断されたならばステップ501のスタンバイ状態へ戻る。また、ステップ508において記憶用端末216内に顧客人物情報が記憶されていない、若しくはステップ509において記憶している情報の更新が必要と判断された場合は、記憶用端末216はシステム初期化処理にて収集した撮影システムに存在する全端末の情報を参照し(S510)、エントランスフロア202において注目撮影可能な注目撮影用端末の探索を行う(S511)。   If it is determined that the customer person information is already stored, it is determined whether or not the update is necessary from the last update date and time of the customer person information (S509). If it is determined that the update is not necessary It returns to the standby state of step 501. If the customer personal information is not stored in the storage terminal 216 in step 508 or if it is determined that the information stored in step 509 needs to be updated, the storage terminal 216 performs system initialization processing. The information of all terminals existing in the imaging system collected in this way is referred to (S510), and the terminal for attention imaging capable of attention imaging is searched on the entrance floor 202 (S511).

なお、本実施例ではエントランスフロア202に設置された注目撮影用端末は1台の注目撮影用端末214であるが、注目撮影用端末が複数設置されている場合においても同様の動作が可能であり、ステップ511での注目撮影用端末探索の結果、現在処理中の人物を撮影可能な注目撮影用端末が複数台検出された場合、記憶用端末216は複数台の注目撮影用端末に対して注目撮影の指令信号を出力してよく、その中から1台を選択した注目撮影に対して注目撮影動作の指令信号を出力してもよい。   In this embodiment, the target imaging terminal installed on the entrance floor 202 is one target imaging terminal 214, but the same operation is possible even when a plurality of target imaging terminals are installed. As a result of searching for the target imaging terminal in step 511, when a plurality of target imaging terminals capable of capturing the currently processed person are detected, the storage terminal 216 focuses on the plurality of target imaging terminals. An imaging command signal may be output, and an attention imaging operation command signal may be output for the imaging of interest for which one camera is selected.

認識された人物を撮影可能な注目撮影用端末が検出されたならば、現在処理中の人物の情報を送信し、記憶用端末216のCPUは、注目撮影のために注目撮影用端末214に注目撮影要請(指令信号出力)を行う。   When a noticeable photographing terminal capable of photographing the recognized person is detected, information on the person currently being processed is transmitted, and the CPU of the storage terminal 216 pays attention to the noticeable photographing terminal 214 for noticeable photographing. Requests shooting (command signal output).

注目撮影要請を受けた注目撮影用端末214は、受信した人物情報に基づいて撮影部(カメラ)の制御を行い(S513)、撮影範囲内の注目人物を捉え、ステップ502と同様な処理によって人物認識し(S514)、得られた人物の2次元特徴をステップ513において受信した人物情報と比較し注目人物を確認する。その後、認識された人物がステップ513のカメラ動作によって撮影範囲内に新たに捉えられたのか、それともステップ513のカメラ動作前に既に撮影範囲内に存在していたかを判断し(S515)、新たに撮影範囲内に捉えられたと判断された場合、注目撮影用端末214の撮影範囲内において注目人物221の追跡を行うエージェントと呼ばれるソフトウェアオブジェクトを発生させる(S517)。   The attention imaging terminal 214 that has received the attention imaging request controls the imaging unit (camera) based on the received person information (S513), captures the attention person in the imaging range, and performs the same process as in step 502 to perform the person processing. It recognizes (S514), compares the obtained two-dimensional features of the person with the person information received in step 513, and confirms the person of interest. Thereafter, it is determined whether the recognized person is newly captured in the shooting range by the camera operation in step 513 or has already existed in the shooting range before the camera operation in step 513 (S515). If it is determined that the object is captured within the imaging range, a software object called an agent that tracks the target person 221 is generated within the imaging range of the target imaging terminal 214 (S517).

一方、既に存在していた人物と判断された場合、ステップ504において生成された俯瞰撮影用端末211において同様の注目人物の認識と追跡を担当するエージェントと目的を同じくするエージェントのグループであるエージェンシを形成する(S516)。   On the other hand, if it is determined that the person has already existed, an agency that is a group of agents having the same purpose as the agent in charge of recognition and tracking of the same person of interest in the overhead view photographing terminal 211 generated in step 504 is selected. Form (S516).

ステップ518では、注目人物の動作に応じて詳細撮影が可能となるようにリアルタイムで注目撮影用端末214のパンニング動作、チルティング動作及びズーム動作の各制御を行う。例えば撮影範囲の中央に注目人物の全体像が所望の割合で位置するような制御や、顔認識のアルゴリズムを用いて人物の顔領域を撮影範囲に捉えるよう制御すること等が可能である。このようにして注目人物の所望の像が捉えられたならば注目撮影用端末はステップ519に進み、撮影動作を行う。   In step 518, each control of the panning operation, tilting operation, and zoom operation of the noticeable photographing terminal 214 is performed in real time so that detailed photographing is possible according to the action of the noticeable person. For example, it is possible to perform control such that the entire image of the person of interest is positioned at a desired ratio in the center of the shooting range, or control so that the face area of the person is captured in the shooting range using a face recognition algorithm. If the desired image of the person of interest is captured in this way, the noticeable photographing terminal proceeds to step 519 and performs a photographing operation.

このときステップ519において初めて注目撮影用端末214の撮影を開始するのではなく、ステップ513で注目人物情報を受信した時点、またはシステム起動時点から撮影を続けていてもよく、このステップ519の撮影は、連続的に撮影された映像のうち、注目人物の詳細画像の存在する時間位置情報を記録することに相当する。その後、撮影された注目人物画像は画像解析が行われ(S520)、抽出した2次元人物情報とステップ513において受信した俯瞰撮影用端末211における注目人物の2次元人物情報を合わせて参照することで注目人物の3次元情報を算出することが可能となる。   At this time, instead of starting the shooting of the noticeable shooting terminal 214 for the first time in step 519, the shooting may be continued from the time when the person-of-interest information is received in step 513 or when the system is activated. This corresponds to recording time position information in which a detailed image of a person of interest exists in continuously shot images. Thereafter, the photographed person image is subjected to image analysis (S520), and the extracted two-dimensional person information and the two-dimensional person information of the person of interest in the overhead view photographing terminal 211 received in step 513 are referred to. It is possible to calculate the three-dimensional information of the person of interest.

得られた注目人物の詳細画像および3次元情報を含む人物情報は、記憶用端末216へと送信され(S521)、注目人物の詳細画像および2次元画像中の特徴、追跡を担当するエージェンシと所属するエージェント情報が関連付けられて顧客人物情報として記憶・更新される(S522)。記憶用端末216における顧客人物情報の記憶・更新処理が完了したならばステップ501に戻り、俯瞰撮影用端末211が新たな人物を認識するまでスタンバイ状態となる。   The obtained detailed image of the attention person and the person information including the three-dimensional information are transmitted to the storage terminal 216 (S521), and the detailed image of the attention person, the features in the two-dimensional image, the agency in charge of tracking, and the affiliation Agent information to be associated is stored and updated as customer personal information (S522). When the storing / updating process of the customer person information in the storage terminal 216 is completed, the process returns to step 501 to be in a standby state until the overhead view photographing terminal 211 recognizes a new person.

以上のような撮影システムのシステムシーケンスによりエントランスフロア202を通過する人物は全て記憶用端末216に人物情報を記憶され、システム内の全ての端末は記憶用端末216に人物の特徴や3次元情報を用いて問い合わせることで該当人物の画像情報を含む最新顧客人物情報を得ることが可能となる。   All persons passing through the entrance floor 202 by the system sequence of the imaging system as described above are stored with personal information in the storage terminal 216, and all terminals in the system store personal characteristics and three-dimensional information in the storage terminal 216. By using the inquiry, it is possible to obtain the latest customer person information including image information of the person concerned.

次に図7のフローチャートを用いて図3のステップ309における販売フロア203の俯瞰撮影について説明する。   Next, the overhead view shooting of the sales floor 203 in step 309 of FIG. 3 will be described using the flowchart of FIG.

まず、スタンバイ状態から販売フロア203の俯瞰撮影を行っている俯瞰撮影用端末212の撮影範囲内に人物222が侵入すると(S701)、ステップ301のシステム初期化において撮影用端末ごとに取得した背景画像と現在の画像の差分を算出することで画像中の変化領域を検出する背景差分法を用いて人物認識が行われ、同時に認識された人物に関する2次元情報の抽出が行われる(S702)。   First, when a person 222 enters the shooting range of the overhead view shooting terminal 212 that is performing the overhead view shooting of the sales floor 203 from the standby state (S701), the background image acquired for each shooting terminal in the system initialization of step 301 The person is recognized by using the background difference method for detecting the change area in the image by calculating the difference between the current image and the two-dimensional information regarding the recognized person is extracted (S702).

認識された人物は、撮影範囲内に新たに侵入した人物なのか、それとも既に撮影範囲内に存在していた人物の状態が変化したのかを判断し(S703)、新たに侵入した人物と判断された場合、俯瞰撮影用端末212の撮影範囲内において該当人物222の追跡を行うエージェントと呼ばれるソフトウェアオブジェクトを発生させる(S704)。一方、既に存在していた人物の状態が変化したと判断された場合は、撮影された画像から得られる2次元的な人物特徴、画像上での2次元位置および担当エージェント等の人物情報の更新が行われる(S705)。   It is determined whether the recognized person is a newly invaded person within the shooting range or whether the state of the person already existing in the shooting range has changed (S703). If so, a software object called an agent that tracks the person 222 within the shooting range of the overhead view shooting terminal 212 is generated (S704). On the other hand, if it is determined that the state of a person who has already existed has been changed, the two-dimensional person characteristics obtained from the captured image, the two-dimensional position on the image, and the update of person information such as the agent in charge Is performed (S705).

そして、俯瞰撮影用端末212の撮影範囲内に侵入した人物222の認識処理と追跡を担当するエージェントが生成されたならば、俯瞰撮影用端末212は認識した人物に関する人物情報を記憶用端末216および他の俯瞰撮影用端末213へ送信する(S706)。人物情報を受信した記憶用端末216は、人物情報の記憶、更新処理を行う(S707)。続いて記憶用端末216に接続された全端末情報を参照し(S708)、販売フロア203にて稼動中の撮影用端末の中からステップ707において受信した人物情報を用いて同一人物を担当しているエージェントおよびその端末の探索を行う(S709)。同一人物を追跡中のエージェントが検出された場合、俯瞰撮影用端末212に所属するエージェントと新たに発見されたエージェントをグルーピングしエージェンシを形成させる(S710)。   If an agent responsible for the recognition process and tracking of the person 222 who has entered the shooting range of the overhead view terminal 212 is generated, the overhead view terminal 212 stores personal information about the recognized person in the storage terminal 216 and This is transmitted to another overhead view photographing terminal 213 (S706). The storage terminal 216 that has received the person information stores and updates the person information (S707). Subsequently, all terminal information connected to the storage terminal 216 is referred to (S708), and the same person is in charge using the person information received in step 707 from the photographing terminals operating on the sales floor 203. The agent and the terminal are searched (S709). When an agent tracking the same person is detected, the agent belonging to the overhead view photographing terminal 212 and the newly discovered agent are grouped to form an agency (S710).

このようにして発見されたエージェントとエージェンシ情報は人物情報として俯瞰撮影用端末212、13へ送信され(S711)、該情報の共有が行われる。記憶用端末216からの人物情報を受信した俯瞰撮影用端末212では、自らの有する人物情報の更新が行われ(S717)、追跡中のエージェントとエージェンシを形成する他の端末に所属するエージェントを把握することが可能となる。また、俯瞰撮影用端末212による撮影画像は記憶用端末216に送信される(S718)。   The agent and agency information discovered in this way are transmitted to the overhead view photographing terminals 212 and 13 as person information (S711), and the information is shared. Upon receiving the personal information from the storage terminal 216, the overhead view photographing terminal 212 updates its own personal information (S717), and grasps the agents belonging to other terminals that form an agency with the agent being tracked It becomes possible to do. Also, the image captured by the overhead view terminal 212 is transmitted to the storage terminal 216 (S718).

一方、ステップ706で送信された俯瞰撮影用端末212の人物情報を受信したもう1台の俯瞰撮影用端末213では、記憶用端末216と同様に、人物情報の更新を行った後(S712)、俯瞰撮影用端末213の撮影範囲内で追跡中の人物に対応するエージェントの中から、ステップ712において受信した人物を追跡するエージェントの探索を行い(S713)、同一人物を追跡するエージェントが検出された場合は、異なる端末間で同一の人物を追跡するエージェントのグループであるエージェンシを形成する(S714)。そして、新たに形成されたエージェンシ情報を含む人物情報が更新され、記憶用端末216および俯瞰用端末212へ該情報を送信する(S715)。   On the other hand, in the other overhead view photographing terminal 213 that has received the person information of the overhead view photographing terminal 212 transmitted in step 706, the personal information is updated in the same manner as the storage terminal 216 (S712). An agent that tracks the person received in step 712 is searched from agents corresponding to the person being tracked within the shooting range of the overhead view terminal 213 (S713), and an agent that tracks the same person is detected. In this case, an agency that is a group of agents that track the same person between different terminals is formed (S714). Then, the person information including the newly formed agency information is updated, and the information is transmitted to the storage terminal 216 and the overhead view terminal 212 (S715).

また、俯瞰撮影用端末213で撮影された画像は記憶用端末216へ送信され(S716)、画像記憶処理が行われる(S719)。俯瞰撮影用端末212若しくは213において新たな人物の認識が行われるスタンバイ状態へ移行する。   Further, the image photographed by the overhead view photographing terminal 213 is transmitted to the storage terminal 216 (S716), and image storage processing is performed (S719). A transition is made to a standby state in which a new person is recognized in the overhead view photographing terminal 212 or 213.

その後俯瞰撮影用端末212、213は自らの撮影範囲にはいった人物を次々に検出し、担当エージェントを生成し、記憶用端末216および他の俯瞰撮影用端末に認識した人物に関する情報を送信する。人物情報を受信した他の俯瞰撮影用端末は受信した人物情報と自分の撮影範囲内の人物情報を比較することで同一人物か否かの判断をし、同一人物を担当するエージェント間でエージェンシの形成を行う。   Thereafter, the overhead view photographing terminals 212 and 213 successively detect the persons who have entered the photographing range, generate a responsible agent, and transmit information related to the recognized person to the storage terminal 216 and other overhead view photographing terminals. The other overhead view photographing terminals that have received the person information determine whether or not they are the same person by comparing the received person information and the person information within the shooting range of the person, and the agency of the agent who is responsible for the same person Form.

また、記憶用端末216においても、記憶用端末216が把握している俯瞰撮影用端末同士において同一人物を追跡していることが判別された時には、それぞれ担当するエージェント同士がエージェンシを形成するよう該当する人物情報を送信する。全ての俯瞰撮影用端末の位置およびカメラパラメータと撮影範囲内に入った人物データを共有し合うことで、俯瞰撮影用端末間での人物同定がなされ、記憶用端末に送信される画像の中で、複数視点からの同一人物の撮影画像の特定がなされ、検出された人物の3次元情報の取得が可能となる。   Further, in the storage terminal 216, when it is determined that the same person is being tracked between the overhead view photographing terminals grasped by the storage terminal 216, the agents in charge of each correspond to form an agency. Send personal information. By sharing the position and camera parameters of all the overhead view shooting terminals and the person data that falls within the shooting range, person identification is performed between the overhead view shooting terminals, and in the image transmitted to the storage terminal The captured image of the same person from a plurality of viewpoints is specified, and the three-dimensional information of the detected person can be acquired.

以上のような販売フロア203の俯瞰撮影によって、販売フロア203を行き来する人物は常にいずれかの俯瞰撮影用端末の撮影範囲内に捉えられ、抽出された人物情報の共有によりリアルタイムで2次元画像および3次元情報の取得及び記憶が行われる。   Through the overhead view shooting of the sales floor 203 as described above, a person who goes back and forth on the sales floor 203 is always captured within the shooting range of any one of the overhead view shooting terminals, and by sharing the extracted person information, Acquisition and storage of three-dimensional information is performed.

そして、このような状況の下、つまり、エントランスフロア202及び販売フロア203での俯瞰撮影及び注目撮影動作において、人物が事故や危険行動、盗難等予めシステムに定義された異常事象が起こると、俯瞰撮影用端末212、213によって即座に検出され、店員への通知と顧客人物情報の記録が行われる。   Under such circumstances, that is, when an abnormal event defined in advance in the system, such as an accident, dangerous behavior, or theft, occurs in a bird's-eye shooting and attention shooting operation on the entrance floor 202 and the sales floor 203, It is detected immediately by the photographing terminals 212 and 213, and a notification to the store clerk and recording of customer personal information are performed.

図8は、図3のステップ311〜S313の販売フロアにおける事象検出・注目撮影の詳細なフローチャートである。   FIG. 8 is a detailed flowchart of event detection / attention shooting on the sales floor in steps 311 to S313 in FIG.

システムスタンバイ状態から販売フロア203の俯瞰撮影を行っている俯瞰撮影用端末212、213の撮影範囲内に人物222が侵入すると(S801)、俯瞰撮影処理と同様にS301システム初期化において撮影用端末ごとに取得した背景画像と現在の画像の差分を算出することで画像中の変化領域を検出する背景差分法を用いて人物認識が行われ、同時に認識された人物に関する二次元情報の抽出が行われる(S802)。   When a person 222 enters the photographing range of the overhead view photographing terminals 212 and 213 that are performing the overhead view photographing of the sales floor 203 from the system standby state (S801), each photographing terminal is initialized in the S301 system initialization similarly to the overhead view photographing processing. The person is recognized using the background difference method that detects the change area in the image by calculating the difference between the acquired background image and the current image, and the two-dimensional information about the recognized person is extracted at the same time. (S802).

認識された人物222は、予めシステムに定義された異常人物か否かの判断がされ(S803)、異常人物で無い場合は、取得した人物情報の更新を行った後、スタンバイ状態へ戻る(S804)。   It is determined whether or not the recognized person 222 is an abnormal person defined in advance in the system (S803). If the recognized person 222 is not an abnormal person, the acquired person information is updated and then the standby state is returned (S804). ).

一方、ステップ803において認識人物が異常人物と認識された場合は、認識人物222の追跡を担当するエージェントの所属するエージェンシ内で注目撮影用端末のエージェントを探索する(S805)。言い換えれば、認識人物222が現在撮影範囲内にある注目撮影用端末の探索を行う。   On the other hand, if the recognized person is recognized as an abnormal person in step 803, the agent of the target photographing terminal is searched for in the agency to which the agent in charge of tracking the recognized person 222 belongs (S805). In other words, the recognizable person 222 searches for a terminal for attention photographing that is currently within the photographing range.

エージェンシ内に注目撮影用端末に所属するエージェントが存在しない、すなわち認識人物222が撮影範囲内にある注目撮影用端末が存在しない場合、俯瞰撮影用端末から記憶用端末216へ人物情報の送信が行われ、記憶用端末216の人物情報の更新が行われる(S806)。記憶用端末216において人物情報の更新が行われると、記憶用端末216に接続されている全端末情報を参照し(S807)、ステップS803において異常人物として認識された人物を撮影可能な注目撮影用端末の探索を行う(S808)。   When there is no agent belonging to the focused imaging terminal in the agency, that is, there is no focused imaging terminal in which the recognized person 222 is within the imaging range, personal information is transmitted from the overhead imaging terminal to the storage terminal 216. The personal information of the storage terminal 216 is updated (S806). When the personal information is updated in the storage terminal 216, reference is made to all the terminal information connected to the storage terminal 216 (S807), and the target photographing for capturing a person recognized as an abnormal person in step S803 Terminal search is performed (S808).

本実施例では、販売フロア203に設置された1台の注目撮影用端末215で行っているが、注目撮影用端末が複数設置された場合でも同様の動作が可能であり、ステップ808の注目撮影用端末探索の結果、異常人物を撮影可能な注目撮影用端末が複数台検出された場合、記憶用端末216は複数台の注目撮影用端末に対して注目撮影のための指令信号を出力する。また、複数の注目撮影用端末の中から1台を選択して注目撮影を行わせるように指令信号を出力してもよい。   In this embodiment, the operation is performed by one attention photographing terminal 215 installed on the sales floor 203, but the same operation is possible even when a plurality of attention photographing terminals are installed, and attention photographing at step 808 is performed. As a result of searching for a terminal, when a plurality of attention photographing terminals capable of photographing an abnormal person are detected, the storage terminal 216 outputs a command signal for attention photographing to the plurality of attention photographing terminals. In addition, a command signal may be output so that one of the plurality of attention imaging terminals is selected and the attention imaging is performed.

異常人物を撮影可能な注目撮影用端末が検出された場合、認識人物222の人物情報を送信し、注目撮影要請を行う(S809).一方、ステップ805において認識人物222を撮影範囲中に捉え、追跡エージェントを発生させている注目撮影用端末が検出された場合は、俯瞰撮影用端末は直接該当する注目撮影用端末215へ認識人物の人物情報の送信を行う。   When a noticeable photographing terminal capable of photographing an abnormal person is detected, the person information of the recognized person 222 is transmitted and a noticeable photograph request is made (S809). On the other hand, in step 805, when the recognizing person 222 is captured in the photographing range and the noticeable photographing terminal generating the tracking agent is detected, the overhead view photographing terminal directly contacts the relevant noticeable photographing terminal 215. Send personal information.

俯瞰撮影用端末または記憶用端末216から人物情報を受信した注目撮影用端末215は、受信した人物情報を元にカメラ制御を行い(S810)、撮影範囲内に注目人物を捉え、ステップ802と同様な処理によって人物認識し、得られた2次元的な人物の特徴を受信した人物情報と比較し注目人物を確認する(S811)。そして、認識した異常人物に対応するエージェントの探索を行い(S812)、ステップ811の処理により新たに撮影範囲に捉えられた人物である場合には、対応するエージェントを発生させた後(S813)、俯瞰撮影用端末または記憶用端末216から受信したエージェント情報を参照し、該当する異常人物を担当するエージェントのグループであるエージェンシを生成する(S[814)。   The notable shooting terminal 215 that has received the person information from the overhead view shooting terminal or the storage terminal 216 performs camera control based on the received person information (S810), captures the notable person within the shooting range, and is similar to step 802. The person is recognized by a simple process, and the feature of the obtained two-dimensional person is compared with the received person information to confirm the person of interest (S811). Then, an agent corresponding to the recognized abnormal person is searched (S812), and if it is a person newly captured in the shooting range by the process of Step 811, the corresponding agent is generated (S813), With reference to the agent information received from the overhead view photographing terminal or the storage terminal 216, an agency that is a group of agents in charge of the corresponding abnormal person is generated (S [814).

その後、注目する異常人物の動作に応じて詳細撮影が可能なようリアルタイムで注目撮影用端末215をパンニング、チルティング及びズーム制御を行う(S815)。例えば撮影範囲の中央に注目人物の全体像が所望の割合で位置するような制御や、顔認識のアルゴリズムを用いて人物の顔領域を撮影範囲に捉えるよう制御すること等が可能となる。   Thereafter, panning, tilting, and zooming control of the notable photographing terminal 215 is performed in real time so that detailed photographing can be performed according to the action of the abnormal person to be noticed (S815). For example, it is possible to perform control such that the entire image of the person of interest is positioned at a desired ratio in the center of the shooting range, or control so that the face area of the person is captured in the shooting range using a face recognition algorithm.

このようにして注目人物の所望の像が捉えられたならば、注目撮影用端末215は撮影動作を行う(S816)。このとき初めて注目撮影用端末215の撮影を開始するのではなく、ステップ810で注目人物情報を受信した時点、またはシステム起動時点から撮影を続けていてもよく、この場合、ステップ816における撮影は連続的に撮影された映像のうち、異常人物の詳細画像の存在する時間位置情報を記録することに相当する。   If the desired image of the person of interest is thus captured, the noticeable photographing terminal 215 performs a photographing operation (S816). At this time, instead of starting the imaging of the attention imaging terminal 215 for the first time, the imaging may be continued from the time when the person-of-interest information is received in step 810 or the system activation time. In this case, the imaging in step 816 is continuous. This corresponds to recording time position information in which a detailed image of an abnormal person is present among the images photographed automatically.

撮影された異常人物画像は、画像解析が行われ(S817)、抽出した2次元の人物情報とステップ810において受信した俯瞰撮影用端末または記憶用端末216における異常人物の二次元人物情報を共に参照することで異常人物の3次元情報を算出することが可能となる。得られた注目人物の詳細画像および3次元情報を含む人物情報は記憶用端末216へと送信され(S818)、異常人物の詳細画像および2次元画像中の特徴、追跡を担当するエージェンシと所属するエージェント情報が関連付けられて顧客人物情報として記憶・更新される(S819)。   The photographed abnormal person image is subjected to image analysis (S817), and both the extracted two-dimensional person information and the two-dimensional person information of the abnormal person in the overhead view photographing terminal or storage terminal 216 received in step 810 are referred to. By doing so, it becomes possible to calculate the three-dimensional information of the abnormal person. The obtained detailed information of the attention person and the person information including the three-dimensional information are transmitted to the storage terminal 216 (S818), and belong to the agency responsible for tracking the detailed image of the abnormal person, the feature in the two-dimensional image, and the feature. Agent information is associated and stored and updated as customer personal information (S819).

記憶用端末216では、顧客人物情報の記憶・更新が行われるとともに(S819)、ユーザ端末218およびPOS端末219へ異常人物情報を特別に通知、表示させユーザへの報告を行う(S820、S821、S822)。これにより販売フロア203での異常人物の検出及び詳細情報の取得とユーザへの通知とが効率的に行われ、ユーザによる異常人物に対する迅速な対応が可能となる。   At the storage terminal 216, customer personal information is stored and updated (S819), and abnormal personal information is specially notified and displayed on the user terminal 218 and the POS terminal 219 to report to the user (S820, S821, S822). As a result, the abnormal person is detected and the detailed information is acquired on the sales floor 203 and the user is notified efficiently, and the user can quickly deal with the abnormal person.

以上のように、本実施例では、エントランスフロア202における顧客人物情報の取得・更新(図5参照)、販売フロア203における俯瞰撮影(図7参照)、販売フロア203における事象検出・注目撮影(図8参照)というシステムシーケンスを常時リアルタイムで並列処理することで、撮影システムは店舗201内に立ち入った全ての人物を検出し、検出された人物の顧客人物情報として詳細画像、2次元画像中の特徴、追跡を担当するエージェンシと所属するエージェント、および人物の3次元情報の蓄積を行い、それら蓄積情報を時間及び空間的に統計処理した結果として有意情報を抽出し、それぞれ関連付けて記憶している。   As described above, in the present embodiment, acquisition / update of customer personal information at the entrance floor 202 (see FIG. 5), overhead view shooting at the sales floor 203 (see FIG. 7), event detection / attention shooting at the sales floor 203 (FIG. 5). 8), the imaging system detects all persons who have entered the store 201, and the customer personal information of the detected person is a detailed image and a feature in the two-dimensional image. The three-dimensional information of the agency in charge of tracking, the agent belonging to the person, and the person is accumulated, and significant information is extracted as a result of statistical processing of the accumulated information temporally and spatially, and stored in association with each other.

表1は、本実施例において抽出・記憶される2次元情報、3次元情報および有意情報を示している。   Table 1 shows two-dimensional information, three-dimensional information, and significant information extracted and stored in the present embodiment.

Figure 2006165729
Figure 2006165729

図3から図8にまでの店舗201内での監視動作により示したとおり、本実施例の撮影システムは店舗201内に侵入、滞在する人物に関して、俯瞰撮影用端末による俯瞰画像および注目撮影用端末による注目画像を取得する。そして、それら画像情報をまずは取得した個別の端末で単独に処理することで人物に関する2次元情報を得ることができる。   As shown by the monitoring operation in the store 201 from FIG. 3 to FIG. 8, the shooting system of the present embodiment relates to the person who invades and stays in the store 201, and the bird's-eye view image and the terminal for attention shooting with respect to the person who stays in the store 201 The attention image by is acquired. Then, two-dimensional information about a person can be obtained by processing the image information independently at the acquired individual terminal.

人物の2次元情報としては画像中での2次元位置、2次元形状、2次元計数、2次元密度、2次元移動速度、2次元移動軌跡、2次元滞在時間および色情報を得ることができる。これらの情報を得る手法としては、エッジ抽出法やパターンマッチング法、オプティカルフロー法等、該撮影システムに適した計算の精度と負荷のバランスを考慮した画像処理アルゴリズムの選択が可能である。   As the two-dimensional information of a person, a two-dimensional position in the image, a two-dimensional shape, a two-dimensional count, a two-dimensional density, a two-dimensional movement speed, a two-dimensional movement locus, a two-dimensional stay time, and color information can be obtained. As a method for obtaining such information, it is possible to select an image processing algorithm such as an edge extraction method, a pattern matching method, an optical flow method, or the like in consideration of the calculation accuracy and load balance suitable for the photographing system.

次に、得られた2次元情報を、記憶用端末を介して接続されている他の撮影用端末間で共有することで対象人物の多角的観測が可能となり、以下のような3次元情報を得ることができる。   Next, by sharing the obtained two-dimensional information among other photographing terminals connected via the storage terminal, it becomes possible to observe the target person from various perspectives. Obtainable.

人物の3次元情報としては定義された空間内での3次元位置、3次元形状、3次元計数、3次元密度、3次元移動速度、3次元移動軌跡、3次元滞在時間および3次元動作を得ることができる。これら3次元情報は2次元情報に比べて空間的(立体的)な情報が含まれているため、より高精度で信頼性の高い情報として利用価値が高い。さらには得られた人物に関する2次元および3次元情報を時間経過的に蓄積し、有意情報として本撮影システム固有の時空間的な統計情報を定義し、抽出することが可能となる。   As the three-dimensional information of a person, a three-dimensional position in a defined space, a three-dimensional shape, a three-dimensional count, a three-dimensional density, a three-dimensional movement speed, a three-dimensional movement trajectory, a three-dimensional stay time, and a three-dimensional movement are obtained. be able to. Since these three-dimensional information includes spatial (stereoscopic) information as compared with two-dimensional information, it is highly useful as highly accurate and reliable information. Furthermore, it is possible to accumulate two-dimensional and three-dimensional information about the obtained person over time, and to define and extract statistical information specific to the photographing system as spatiotemporal information as significant information.

本実施例における有意情報としては顧客人物情報履歴、購買行動履歴、店舗レイアウト用情報、店員配置用情報、防犯対策用情報、POSシステム自動入力用情報等が抽出可能となる。   As significant information in this embodiment, customer person information history, purchase behavior history, store layout information, clerk placement information, security countermeasure information, POS system automatic input information, and the like can be extracted.

図9に記憶用端末216に蓄積される顧客人物情報を階層的に示す。顧客人物に応じて人物情報901、902は蓄積されており、その内容としては詳細画像911として注目撮影用端末によって撮影された全身画像921および顔画像922の履歴、3次元移動軌跡912から使用頻度の高い移動経路や立ち寄り順序等の行動パターン923、3次元移動速度913として現在までの平均速度924および最高速度925、3次元形状914として身長926、体格927、頻繁に行われる動作や特徴的な行動928の履歴、滞在時間/日時915の統計として来店頻度929、来店パターン930、平均滞在時間931をそれぞれ上位の情報の時間的統計を取ることで求め、記憶している。   FIG. 9 shows customer personal information stored in the storage terminal 216 in a hierarchical manner. Person information 901 and 902 is accumulated in accordance with the customer person, and the content is the frequency of use from the history of the whole body image 921 and the face image 922 photographed by the attention photographing terminal as the detailed image 911 and the three-dimensional movement locus 912. Behavior pattern 923 such as high travel route and stop-by order, three-dimensional movement speed 913, average speed 924 and maximum speed 925 to date, height 926, three-dimensional shape 914, height 926, physique 927, frequently performed actions and characteristic The store visit frequency 929, the store visit pattern 930, and the average stay time 931 are obtained and stored by taking temporal statistics of higher-order information as statistics of the behavior 928 and stay time / date and time 915, respectively.

また、これら顧客人物情報901、902はPOS情報903と相互参照可能であり、例えば特定の人物特徴から購買履歴916の問い合わせや、POS情報903入力時に顧客人物情報を参照し自動入力することなどが可能となっている。   Further, the customer person information 901 and 902 can be cross-referenced with the POS information 903. For example, the customer history information 916 can be inquired from a specific person characteristic, or the customer person information can be automatically entered by referring to the customer person information when the POS information 903 is inputted. It is possible.

さらに、これら顧客人物情報901、902は図10に示すように店舗情報1001として階層的に整理することで、ユーザからのリクエストに応じて例えば全顧客人物の3次元移動軌跡1011、3次元密度1012、3次元移動速度1013および3次元形状1014等の情報から、店舗201における有意情報として混雑区画1021、人物流停滞区画1022、異常行動頻発区画1023、集客区画1024を映像情報と共に抽出することが可能となり、それら情報を店舗レイアウト1031、店員配置1032および防犯対策1033を事前に実施する為の参照情報として利用することが可能となる。   Furthermore, these customer person information 901 and 902 are arranged hierarchically as store information 1001 as shown in FIG. 10, and for example, according to a request from the user, for example, the three-dimensional movement trajectory 1011 of all the customer persons, the three-dimensional density 1012 From the information such as the three-dimensional moving speed 1013 and the three-dimensional shape 1014, the congested section 1021, the human logistics stagnation section 1022, the abnormal behavior frequent occurrence section 1023, and the customer attraction section 1024 can be extracted together with video information as significant information in the store 201. Thus, the information can be used as reference information for implementing the store layout 1031, the store clerk arrangement 1032, and the crime prevention measure 1033 in advance.

具体的には3次元移動軌跡1011の統計処理より店舗内で多くの人物通過がある集客区画1024が判別されると、注目させたい商品の陳列を行うよう店舗レイアウトの変更を行い、人物通過が少なく3次元密度も低いにもかかわらず3次元移動速度が低い位置は人物流停滞区画1022として通路設計を見直し、人物の3次元形状から異常行動頻発と判別された異常行動頻発区画1023に対しては、店舗レイアウトの変更に加え、店員の配置を密にし、それに対する防犯対策を予め実際の過去に発生した異常行動映像を参照してシミュレーションすることが可能となる。   Specifically, when the customer area 1024 with many people passing through the store is determined by the statistical processing of the three-dimensional movement trajectory 1011, the store layout is changed to display the products to be noticed. The position where the three-dimensional movement speed is low although it is small and the three-dimensional density is low, the passage design is reviewed as the human logistics stagnation section 1022, and the abnormal action frequent occurrence section 1023 which is determined to be abnormal behavior frequent occurrence from the three-dimensional shape of the person. In addition to changing the store layout, it is possible to closely arrange the store clerk and to simulate crime prevention countermeasures with reference to abnormal action images that have occurred in the past in advance.

図11は、本発明の実施例2における撮影システムの動作フローチャートである。撮影システムの概略、撮影用端末の人物認識処理と端末間の人物情報共有および一般的な店舗への撮影システムの適用については上記実施例1と同様であるため、説明を省略する。   FIG. 11 is an operation flowchart of the photographing system according to the second embodiment of the present invention. Since the outline of the photographing system, the person recognition processing of the photographing terminal, the sharing of personal information between the terminals, and the application of the photographing system to a general store are the same as those in the first embodiment, description thereof will be omitted.

図11において、システム初期化およびスタンバイ状態(S1011、S1012)、並行して実行されるエントランスフロア202におけるステップ1103〜ステップ1108および、販売フロア203におけるステップ309〜ステップ314に関しては、上記実施例1の図3と同様に行われる。   In FIG. 11, the system initialization and standby state (S1011 and S1012), steps 1103 to 1108 in the entrance floor 202 executed in parallel and steps 309 to 314 in the sales floor 203 are the same as those in the first embodiment. This is performed in the same manner as in FIG.

上記実施例1において、エントランスフロア202および販売フロア203における処理動作とともに、俯瞰撮影用端末により人物および特定事象の検出が行われたならば注目撮影用端末へ注目撮影を行うように指令信号等を出力して注目撮影を要請し、注目撮影用端末は人物の検出、撮影、画像解析および3次元情報取得を行った後、全ての情報を顧客人物情報として記憶用端末へ送信している。   In the first embodiment, in addition to the processing operations on the entrance floor 202 and the sales floor 203, if a person and a specific event are detected by the overhead view photographing terminal, a command signal or the like is given to the noticeable photographing terminal to perform noticeable photographing. After outputting the image and requesting attention imaging, the attention imaging terminal performs person detection, imaging, image analysis, and 3D information acquisition, and then transmits all information to the storage terminal as customer personal information.

これに対し本実施例では、注目撮影の指令信号を受信した注目撮影用端末は、人物の検出、撮影、画像解析を行うが、3次元情報取得および有意情報取得処理はユーザからのリクエスト、すなわちユーザの操作に応じて実行される。   On the other hand, in this embodiment, the terminal for attention photographing that has received the instruction signal for attention photographing performs detection, photographing, and image analysis of a person, but the three-dimensional information acquisition and significant information acquisition processing is a request from the user, that is, It is executed in response to a user operation.

ステップ1115〜ステップ1117では、ユーザからの3次元情報リクエスト処理であり、ステップ1115においてユーザから3次元情報の要求が行われた場合、記憶用端末は記憶した映像の解析を行い、要求された人物を同時に撮影した複数視点の画像解析結果と、共に記憶している撮影を行った端末情報を参照することで3次元情報の算出を行う(S1116)。算出された3次元情報は対応する映像とともに要求したユーザ(端末)へ送信する(S1117)。   In steps 1115 to 1117, the process is a three-dimensional information request process from the user. When a request for three-dimensional information is made from the user in step 1115, the storage terminal analyzes the stored video and requests the requested person. The three-dimensional information is calculated by referring to the image analysis results of a plurality of viewpoints taken at the same time and the terminal information that has been taken and stored together (S1116). The calculated three-dimensional information is transmitted to the requesting user (terminal) together with the corresponding video (S1117).

同様に、ステップ1118〜ステップ1121では、有意情報リクエスト処理であり、ステップ1118においてユーザから有意情報の要求が行われた場合、記憶用端末では記憶した映像の解析を行い、要求された条件に応じた人物を同時に撮影した複数視点の画像解析結果と、共に記憶している撮影を行った端末情報を参照することで3次元情報の算出を行う(S1119)。そして、算出された複数の3次元情報の時間的統計を計算することで対応する映像と共に有意情報を算出する(S1120)。これら算出された3次元情報および有意情報は、要求したユーザ(端末)へ送信される(S1121)。   Similarly, steps 1118 to 1121 are significant information request processing. When a request for significant information is made from the user in step 1118, the storage terminal analyzes the stored video and responds to the requested condition. The three-dimensional information is calculated by referring to the image analysis results of a plurality of viewpoints obtained by photographing the person at the same time and the terminal information of the photographed image stored together (S1119). Then, significant information is calculated together with the corresponding video by calculating temporal statistics of the calculated three-dimensional information (S1120). The calculated three-dimensional information and significant information are transmitted to the requested user (terminal) (S1121).

このように本実施例では、処理負荷の大きい3次元情報および有意情報の算出を映像取得と同時にリアルタイム処理するのではなく、ユーザの要求時または撮影終了後のオフライン処理で実行することで、端末に必要とされる計算負荷、記憶容量および撮影システムの通信負荷等を低減することが可能となる.   As described above, in this embodiment, the calculation of three-dimensional information and significant information with a large processing load is not performed in real time at the same time as video acquisition, but is performed by offline processing at the time of user request or after the end of shooting. It is possible to reduce the computational load, storage capacity, and communication load of the imaging system required for.

図12は、本発明の実施例3における撮影システムの概略構成図である。上記実施例1、2では、図1に示すように撮影システムシステムがネットワークに接続された複数の撮影用端末101〜104と、記憶用端末111およびユーザ端末121により構成されている。つまり、撮影用端末101〜104により取得される映像を含めた各種情報は一旦記憶用端末111に集められ、情報を記憶用端末111により一元管理するするサーバ・クライアント型システムとなっている。   FIG. 12 is a schematic configuration diagram of an imaging system in Embodiment 3 of the present invention. In the first and second embodiments, as shown in FIG. 1, the photographing system is composed of a plurality of photographing terminals 101 to 104 connected to a network, a storage terminal 111 and a user terminal 121. In other words, various types of information including video acquired by the photographing terminals 101 to 104 are once collected in the storage terminal 111, and the server / client system is configured to centrally manage the information by the storage terminal 111.

これに対して本実施例では、図12に示すようにピア・ツー・ピア型のシステム構成としている。具体的には、撮影記憶用端末1201〜1203は互いにサーバを介さずに情報交換(通信)を行うとともに、撮影記憶用端末1201には、対象の映像を取得する撮影部1225と、複数の映像より対象の3次元情報を抽出する3次元情報抽出部1224と、映像情報その他を記憶する記憶部1223と、3次元情報を時間的に統計処理する有意情報抽出部1222および通信部が設けられ、ネットワーク1201を介して他の端末との情報の送受信が可能な状態となっている。   On the other hand, in this embodiment, a peer-to-peer system configuration is adopted as shown in FIG. Specifically, the photographing storage terminals 1201 to 1203 exchange information (communication) with each other without using a server, and the photographing storage terminal 1201 includes a photographing unit 1225 for acquiring a target video, and a plurality of videos. A three-dimensional information extraction unit 1224 for extracting more target three-dimensional information, a storage unit 1223 for storing video information and the like, a significant information extraction unit 1222 for statistically processing the three-dimensional information temporally, and a communication unit. Information can be exchanged with other terminals via the network 1201.

ユーザ端末1211は、ユーザへの各種情報のインタフェイスである表示部1231および通信部1232を有しており、ユーザの該撮影システムへのアクセスを可能にしている。   The user terminal 1211 includes a display unit 1231 and a communication unit 1232 that are interfaces of various types of information to the user, and enables the user to access the photographing system.

このように本実施例では、撮影記憶用端末1201〜1204が各々が取得した映像とその解析結果を互いに通信し合うことで情報共有を行い、3次元情報および有意情報の抽出を行う。つまり、ピア・ツー・ピア型のシステム構成においてそれぞれの撮影記憶用端末が同様な機能を有するので、サーバ・クライアント型に比べてシステム構築の柔軟性と、端末に不具合が生じたときのシステム全体の安定性が向上する。   As described above, in this embodiment, the photographing storage terminals 1201 to 1204 communicate information acquired by communicating with each other, and information is shared to extract three-dimensional information and significant information. In other words, since each shooting and storage terminal has the same function in a peer-to-peer system configuration, the system construction flexibility compared to the server-client type and the entire system when a malfunction occurs in the terminal Improves stability.

本発明の実施例1における撮影システムの概略構成図。1 is a schematic configuration diagram of an imaging system in Embodiment 1 of the present invention. 本発明の実施例1における撮影システムを店舗に適用した抽象図。1 is an abstract diagram in which a photographing system according to Embodiment 1 of the present invention is applied to a store. 本発明の実施例1のおける撮影システムの動作フローチャート図。FIG. 3 is an operation flowchart of the photographing system according to the first embodiment of the present invention. 本発明の実施例1における撮影システムのシステム初期化に係るフローチャート図。1 is a flowchart relating to system initialization of an imaging system in Embodiment 1 of the present invention. 本発明の実施例1における撮影システムの顧客人物情報取得・更新処理フローチャート図(エントランスフロア)。FIG. 3 is a flowchart of customer personal information acquisition / update processing (entrance floor) of the photographing system according to the first embodiment of the present invention. 本発明の実施例1における撮影システムの情報共有概念図。1 is an information sharing conceptual diagram of an imaging system in Embodiment 1 of the present invention. 本発明の実施例1における撮影システムの俯瞰撮影に係るフローチャート図(販売フロア)。The flowchart figure (sales floor) which concerns on the overhead view imaging | photography of the imaging | photography system in Example 1 of this invention. 本発明の実施例1における事象検出・注目撮影に係るフローチャート図(販売フロア)。The flowchart figure (sales floor) which concerns on the event detection and attention imaging | photography in Example 1 of this invention. 本発明の実施例1における顧客人物情報を示す階層図。The hierarchy figure which shows the customer person information in Example 1 of this invention. 本発明の実施例1における顧客人物情報を店舗情報として示した階層図。The hierarchy figure which showed the customer person information in Example 1 of this invention as shop information. 本発明の実施例2における撮影システムの動作フローチャート図。FIG. 7 is an operation flowchart of the imaging system according to the second embodiment of the present invention. 本発明の実施例3における撮影システムの概略構成図。FIG. 6 is a schematic configuration diagram of an imaging system in Embodiment 3 of the present invention. 従来の撮影システムの概略構成図。1 is a schematic configuration diagram of a conventional photographing system.

符号の説明Explanation of symbols

101 撮影用端末(撮影ユニット)
111 記憶用端末(記憶ユニット)
121 ユーザ用端末
131 ネットワーク
142 撮影部
141 通信部
151 3次元情報抽出部
152 記憶部
153 有意情報抽出部
101 Shooting terminal (shooting unit)
111 Storage terminal (storage unit)
121 User terminal 131 Network 142 Imaging unit 141 Communication unit 151 Three-dimensional information extraction unit 152 Storage unit 153 Significant information extraction unit

Claims (11)

対象物を撮影する撮影ステップと、
撮影された前記対象物の画像情報から前記対象物の3次元情報を抽出するステップと、
前記画像情報から前記対象物の属性及び状態のうち少なくとも1つの対象特定情報を抽出するステップと、
前記対象物に基づいて前記画像情報、前記3次元情報及び前記対象特定情報を関連付けて記憶するステップとを有することを特徴とする撮影プログラム。
A shooting step for shooting the object;
Extracting three-dimensional information of the object from the image information of the imaged object;
Extracting at least one target specifying information from the image information among the attributes and states of the target;
And a step of storing the image information, the three-dimensional information, and the target specifying information in association with each other based on the target.
前記対象物の色情報、2次元情報及び前記対象特定情報と、前記画像情報とをそれぞれ関連付けて記憶するステップを有することを特徴とする請求項1に記載の撮影プログラム。   The imaging program according to claim 1, further comprising a step of storing the color information, the two-dimensional information, the target specifying information, and the image information of the target object in association with each other. 前記対象特定情報は、撮影状況における時間および空間的な統計情報であることを特徴とする請求項1又は2に記載の撮影プログラム。   The imaging program according to claim 1, wherein the target specifying information is temporal and spatial statistical information in an imaging situation. 前記3次元情報は、前記対象物の3次元位置、3次元形状、3次元計数、3次元密度、3次元速度、3次元軌跡、3次元動作を含むことを特徴とする請求項1から3のいずれか1つに記載の撮影プログラム。   The three-dimensional information includes a three-dimensional position, a three-dimensional shape, a three-dimensional count, a three-dimensional density, a three-dimensional velocity, a three-dimensional trajectory, and a three-dimensional motion of the object. The shooting program according to any one of the above. 前記対象物の撮影は、複数の撮影ユニットにより行われることを特徴とする請求項1から4のいずれか1つに記載の撮影プログラム。   The photographing program according to any one of claims 1 to 4, wherein photographing of the object is performed by a plurality of photographing units. 対象物を撮影する撮影手段と、
撮影された前記対象物の画像情報から前記対象物の3次元情報を抽出する3次元情報抽出手段と、
前記画像情報から前記対象物の属性及び状態のうち少なくとも1つの対象特定情報を抽出する対象特定情報抽出手段と、
前記画像情報、前記3次元情報及び前記対象特定情報を記憶する記憶手段と、
前記対象物に基づいて前記画像情報、前記3次元情報及び前記対象特定情報を関連付けて前記記憶部に記憶する制御手段とを有することを特徴とする撮影システム。
Photographing means for photographing the object;
3D information extraction means for extracting 3D information of the object from image information of the imaged object;
Target specifying information extracting means for extracting at least one target specifying information from the image information among the attribute and state of the target;
Storage means for storing the image information, the three-dimensional information, and the target specifying information;
An imaging system comprising: control means for associating and storing the image information, the three-dimensional information, and the target specifying information in the storage unit based on the object.
前記制御手段は、前記対象物の色情報、2次元情報及び前記対象特定情報と、前記画像情報とをそれぞれ関連付けて記憶することを特徴とする請求項6に記載の撮影システム。   The imaging system according to claim 6, wherein the control unit stores the color information, the two-dimensional information, the target specifying information, and the image information of the target object in association with each other. 前記対象特定情報は、撮影状況における時間および空間的な統計情報であることを特徴とする請求項6又は7に記載の撮影システム。   The imaging system according to claim 6 or 7, wherein the target specifying information is temporal and spatial statistical information in an imaging situation. 前記前記画像情報、前記3次元情報及び前記対象特定情報を表示する表示手段と、それぞれの前記手段との通信を行う通信手段とを備えたコンピュータを有し、
前記制御手段は、前記コンピュータからの出力信号に基づいて前記対象特定情報を抽出することを特徴とする請求項6から8のいずれか1つに記載の撮影システム。
A computer comprising: display means for displaying the image information, the three-dimensional information, and the target specifying information; and communication means for communicating with each of the means,
The imaging system according to claim 6, wherein the control unit extracts the target specifying information based on an output signal from the computer.
前記制御手段は、所定のタイミングで前記対象特定情報を抽出することを特徴とする請求項9に記載の撮影システム。   The imaging system according to claim 9, wherein the control unit extracts the target specifying information at a predetermined timing. 前記対象物の撮影は、複数の撮影ユニットにより行われることを特徴とする請求項6から10のいずれか1つに記載の撮影システム。   The imaging system according to claim 6, wherein imaging of the object is performed by a plurality of imaging units.
JP2004350831A 2004-12-03 2004-12-03 Photographing program, photographing method and photographing system Pending JP2006165729A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004350831A JP2006165729A (en) 2004-12-03 2004-12-03 Photographing program, photographing method and photographing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004350831A JP2006165729A (en) 2004-12-03 2004-12-03 Photographing program, photographing method and photographing system

Publications (1)

Publication Number Publication Date
JP2006165729A true JP2006165729A (en) 2006-06-22

Family

ID=36667277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004350831A Pending JP2006165729A (en) 2004-12-03 2004-12-03 Photographing program, photographing method and photographing system

Country Status (1)

Country Link
JP (1) JP2006165729A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008198189A (en) * 2007-01-12 2008-08-28 Internatl Business Mach Corp <Ibm> Method, system and program for warning monitored user of behavior of monitoring object user showing adverse behavior
JP2009088648A (en) * 2007-09-27 2009-04-23 Sogo Keibi Hosho Co Ltd Image extraction device, and image extraction method
US8295542B2 (en) 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US8588464B2 (en) 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
JP2020053840A (en) * 2018-09-27 2020-04-02 株式会社デンソーウェーブ Surveillance system and camera

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008198189A (en) * 2007-01-12 2008-08-28 Internatl Business Mach Corp <Ibm> Method, system and program for warning monitored user of behavior of monitoring object user showing adverse behavior
US8269834B2 (en) 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US8295542B2 (en) 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US8577087B2 (en) 2007-01-12 2013-11-05 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US8588464B2 (en) 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
US9208678B2 (en) 2007-01-12 2015-12-08 International Business Machines Corporation Predicting adverse behaviors of others within an environment based on a 3D captured image stream
US9412011B2 (en) 2007-01-12 2016-08-09 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US10354127B2 (en) 2007-01-12 2019-07-16 Sinoeast Concept Limited System, method, and computer program product for alerting a supervising user of adverse behavior of others within an environment by providing warning signals to alert the supervising user that a predicted behavior of a monitored user represents an adverse behavior
JP2009088648A (en) * 2007-09-27 2009-04-23 Sogo Keibi Hosho Co Ltd Image extraction device, and image extraction method
JP2020053840A (en) * 2018-09-27 2020-04-02 株式会社デンソーウェーブ Surveillance system and camera
JP7180243B2 (en) 2018-09-27 2022-11-30 株式会社デンソーウェーブ surveillance systems and cameras

Similar Documents

Publication Publication Date Title
JP4478510B2 (en) Camera system, camera, and camera control method
JP6742195B2 (en) Information processing apparatus, method thereof, and computer program
JP4984728B2 (en) Subject collation device and subject collation method
WO2018198373A1 (en) Video monitoring system
JP5730518B2 (en) Specific person detection system and specific person detection method
JP5424852B2 (en) Video information processing method and apparatus
JP2018160219A (en) Moving route prediction device and method for predicting moving route
JP2006146378A (en) Monitoring system using multiple camera
US10341616B2 (en) Surveillance system and method of controlling the same
JP2011060058A (en) Imaging apparatus and monitoring system
JP2019020777A (en) Information processing device, control method of information processing device, computer program, and storage medium
JP6396682B2 (en) Surveillance camera system
JP2006093955A (en) Video processing apparatus
JP2006165729A (en) Photographing program, photographing method and photographing system
JP5712401B2 (en) Behavior monitoring system, behavior monitoring program, and behavior monitoring method
JP6702402B2 (en) Image processing system, image processing method, and image processing program
JP2010068466A (en) Moving body tracking device and moving body tracking method
JP2020052822A (en) Information processing apparatus, authentication system, control method thereof, and program
JP2017017488A (en) Monitoring system, imaging control method, and program
JP2019211905A (en) Traffic line analyzer, traffic line analytical method and traffic line analysis system
JP2005173763A (en) Customer information processing device and method
JP6112346B2 (en) Information collection system, program, and information collection method
KR102081517B1 (en) Intelligent integration control system and intelligent integration control method for linkage tracing of goal target
JP7355116B2 (en) Event detection device
JP7256082B2 (en) Surveillance Systems, Programs and Listing Methods