JP2006165729A - Photographing program, photographing method and photographing system - Google Patents
Photographing program, photographing method and photographing system Download PDFInfo
- Publication number
- JP2006165729A JP2006165729A JP2004350831A JP2004350831A JP2006165729A JP 2006165729 A JP2006165729 A JP 2006165729A JP 2004350831 A JP2004350831 A JP 2004350831A JP 2004350831 A JP2004350831 A JP 2004350831A JP 2006165729 A JP2006165729 A JP 2006165729A
- Authority
- JP
- Japan
- Prior art keywords
- information
- photographing
- person
- terminal
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、ネットワークに接続された複数の撮影装置により特定の対象を撮影し、映像情報と映像を解析して得られる情報を関連付けて記憶・配信する撮影システムに関する。 The present invention relates to a photographing system that photographs a specific target by a plurality of photographing devices connected to a network, and stores and distributes video information and information obtained by analyzing the video in association with each other.
従来、複数の撮影装置により特定対象を多角的に観測(撮影)し、得られた映像情報から該対象の3次元情報を取得するシステムが提案されている。 2. Description of the Related Art Conventionally, a system has been proposed in which a specific target is observed (captured) from a plurality of image capturing apparatuses in a multifaceted manner, and three-dimensional information about the target is acquired from the obtained video information.
これらのシステム構成は、例えば図13(a)に示すように、複数の撮影装置から出力される映像情報を1台のコンピュータ(処理端末)に入力して処理したり、図13(b)のように撮影装置をネットワークに接続することで遠隔地に配置したコンピュータで処理する構成が提案されている。 For example, as shown in FIG. 13 (a), these system configurations can be processed by inputting video information output from a plurality of photographing devices to one computer (processing terminal), as shown in FIG. 13 (b). In this way, a configuration has been proposed in which a photographing apparatus is connected to a network and processed by a computer disposed at a remote location.
また、図13(c)に示すようにネットワークの負荷を低減させる目的で撮影装置ごとにコンピュータが設けられ、処理結果のみをネットワークを介して送信したり、図13(d)のような撮影装置ごとに得られた処理結果を互いに送受信し、分散型・協調型のシステムも提案されている。 Further, as shown in FIG. 13C, a computer is provided for each photographing apparatus for the purpose of reducing the load on the network, and only the processing result is transmitted via the network, or the photographing apparatus as shown in FIG. A distributed / cooperative system is also proposed in which processing results obtained for each are transmitted and received.
一方、撮影された映像に該映像に関する情報や著作権情報等を付加することで映像の蓄積管理を容易にする技術が提案されている。このように映像に付加されるそれらの情報は一般にメタ情報とよばれ、映像取得時の環境情報や映像の自動解析やユーザーにより入力されるシーン情報やカット情報等が、映像と関連付けて保存される。これにより映像の検索や編集・著作権管理等をコンピュータにより自動的に行うことが可能となり、安全で利便性の高い映像の流通の促進に寄与することが期待されている(特許文献1参照)。
しかしながら、上記のような従来の3次元情報取得システムでは映像から特定対象の3次元情報を取得するが、該対象の空間情報の蓄積と時間的な統計情報を取得しておらず、さらには、一般に映像情報と3次元情報とが別々に管理され、それぞれの情報の対応や関連付けは考慮されてはいない。 However, in the conventional three-dimensional information acquisition system as described above, the three-dimensional information of the specific target is acquired from the video, but the accumulation of the spatial information of the target and the temporal statistical information are not acquired. In general, video information and three-dimensional information are managed separately, and the correspondence and association of each information is not considered.
また、映像にメタ情報を付加するシステムは、映像自身の内容や著作権に関する情報に重点が置かれ、複数映像からの3次元情報の取得や、対象の空間情報の蓄積と時間的な統計情報を取得し付加することは3次元情報取得システムと同様に考慮されていない。 In addition, the system that adds meta information to video focuses on information about the content and copyright of the video itself, acquires 3D information from multiple videos, accumulates target spatial information and temporal statistical information As with the three-dimensional information acquisition system, the acquisition and addition are not considered.
したがって、従来の3次元情報取得システムでは、取得した映像及び3次元情報の関連性が乏しく、実際に取得した情報を用いたシステムの構築に際し、該情報を十分に活用することができず、利便性、拡張性が低い課題を有している。 Therefore, in the conventional three-dimensional information acquisition system, the relationship between the acquired video and the three-dimensional information is poor, and the information cannot be fully utilized when constructing a system using the actually acquired information. There is a problem of low expansibility and expandability.
本発明の例示的な目的の1つは、特定対象に関する情報を適切に活用でき、利便性の高い撮影プログラム、撮影方法及び撮影システムを実現することにある。 One of exemplary purposes of the present invention is to realize a highly convenient shooting program, shooting method, and shooting system that can appropriately use information on a specific target.
本発明の1つの観点としての撮影プログラムは、対象物を撮影する撮影ステップと、撮影された対象物の画像情報から対象物の3次元情報を抽出するステップと、画像情報から対象物の属性及び状態のうち少なくとも1つの対象特定情報を抽出するステップと、対象物に基づいて画像情報、3次元情報及び対象特定情報を関連付けて記憶するステップとを有することを特徴とする。 An imaging program as one aspect of the present invention includes an imaging step of imaging an object, a step of extracting three-dimensional information of the object from image information of the imaged object, an attribute of the object from the image information, and The method includes a step of extracting at least one target specifying information from the state, and a step of storing image information, three-dimensional information, and target specifying information in association with each other based on the target.
本発明によれば、特定の対象を撮影し、撮影された映像情報と該映像情報を解析して得られる情報を関連付けて記憶するとともに、特定対象の3次元情報及び対象特定情報を該映像情報と関連付けて記憶するため、従来に比べて情報の共有を適切かつ容易に行え、利便性の高い撮影システムを実現することができる。 According to the present invention, a specific target is photographed, and the captured video information and the information obtained by analyzing the video information are stored in association with each other, and the three-dimensional information and the target specific information of the specific target are stored in the video information. Since the information is stored in association with each other, it is possible to share information appropriately and easily as compared with the conventional case, and to realize a highly convenient photographing system.
以下に本発明の実施例について説明する。 Examples of the present invention will be described below.
図1は、本発明の実施例1における撮影システムの構成ブロック図である。 FIG. 1 is a configuration block diagram of a photographing system in Embodiment 1 of the present invention.
101は撮影用端末(撮影ユニット)で、対象(対象物)の映像を取得する撮影部142と通信部141を有し、ネットワーク131に接続されている。したがって、この通信部141を介して他のコンピュータや撮影用端末との通信を行うことができる。
なお、撮影用端末は撮影用端末101のように1つの撮影部(撮影装置)を設けるように構成してもよいが、撮影用端末102のように2つの撮影部144、145を設けるように複数の撮影部を備えた撮影用端末としてもよい。
Note that the photographing terminal may be configured to provide one photographing unit (imaging device) like the photographing
また、本実施例の撮影システムでは、システム構成の規模や目的に応じて撮影用端末101、102、103、104というように複数の撮影用端末がネットワークを介して接続される構成としてもよいが、特定対象等の3次元情報を取得するために、システム全体における撮影部用端末は少なくとも2つ以上設けていればよい。
Further, in the photographing system of the present embodiment, a plurality of photographing terminals may be connected via a network such as photographing
111は記憶用端末(記憶ユニット)であり、撮影用端末101〜104により取得される複数の映像から特定対象の3次元情報を取得する3次元情報抽出部151と、映像情報その他を記憶するための記憶部152と、3次元情報を時間的に統計処理する有意情報抽出部153及び、通信部154を備えている。
ユーザ用端末(コンピュータ)121はユーザへの各種情報の表示インタフェイスとしての表示部161、通信部162を有しており、ユーザの撮影システムへのアクセスを可能にしている。
The user terminal (computer) 121 includes a
そして、本実施例の撮影システムは、各端末に設けられたマイクロコンピュータ(CPU)により制御され、例えば、ユーザ用端末121のCPUを用いて撮影システム全体の制御を行わせ、各端末で行われる後述の処理及び通信を制御するように構成し、各端末における通信、記憶処理、更新処理、認識処理及び画像処理等の処理は各端末におけるCPUが制御を行う。
The photographing system of this embodiment is controlled by a microcomputer (CPU) provided in each terminal. For example, the whole photographing system is controlled using the CPU of the
次に本実施例における撮影用端末の人物認識処理と、各端末間の人物情報の共有について図6の概念図を用いて説明する。 Next, person recognition processing of the photographing terminal and sharing of person information between the terminals in the present embodiment will be described with reference to the conceptual diagram of FIG.
ネットワーク601を介して記憶用端末602と撮影用端末603、604が接続されている。今、撮影対象A605及びB606が存在し、撮影用端末603、604はそれぞれの撮影用端末に設けられた撮影部の撮影範囲内に2つの撮影対象を捉えているものとする。
A
撮影用端末603内には撮影対象Aを追跡し情報を保持するソフトウェアオブジェクトであるエージェントとしてエージェントA607と、撮影対象Bに対応するエージェントB608とが作成される。同様にして撮影用端末604内には撮影対象Aに対応するエージェントA609および撮影対象Bに対応するエージェントB610が作成される。
In the photographing
それぞれのエージェントは対応する撮影対象の情報を記憶・更新するとともに、エージェント間でそれら情報の共有を行うことで追跡精度の向上や協調してタスクの分担などを行う。 Each agent stores and updates the information of the corresponding object to be photographed, and the information is shared among the agents, thereby improving tracking accuracy and coordinating tasks.
特に撮影用端末603のエージェントA607と撮影用端末604のエージェントA609およびエージェントB608とエージェントB610のように撮影用端末を跨いで同一の撮影対象を担当するエージェント同士はエージェンシとよばれるグループを形成し、撮影対象に関する情報を共有することで上記追跡精度の向上やタスクの分担に加えて撮影対象の3次元情報を取得することが可能となる。
In particular, agents in charge of the same shooting object across the shooting terminals such as agent A 607 of
エージェントは撮影用端末(撮影部)の撮影範囲内で捉えられた全ての人物(特定対象)について発生し、撮影用端末の撮影範囲を外れるまで担当する人物を追跡し、情報を抽出し続ける。 The agent keeps extracting information by tracking all persons (specific targets) that are generated within the shooting range of the shooting terminal (shooting unit) until the person in charge is out of the shooting range of the shooting terminal.
エージェントおよびエージェンシの生成、破棄はリアルタイムで処理され、その状態は人物の移動や状態の変化に伴ってダイナミックに変化する。また、エージェント間の情報の共有は記憶用端末602が撮影用端末603、604から抽出した情報を集中的に管理し、必要に応じて各端末へ送信することで実現される。
Creation and destruction of agents and agencies are processed in real time, and their state changes dynamically as the person moves or changes state. Information sharing between agents is realized by centrally managing information extracted from the photographing
次に本実施例の撮影システムの、店舗における監視・マーケティングへの適用例を図2に示すとともに、図3に該撮影システムのシーケンスを示す。 Next, FIG. 2 shows an application example of the photographing system of this embodiment to monitoring / marketing in a store, and FIG. 3 shows a sequence of the photographing system.
図2は一般的な店舗に本実施例の撮影システムを適用したときの概要図である。店舗201は外部との出入り口204を有するエントランスフロア202と、商品の陳列と販売が行われる販売フロア203の2つのフロアから構成されている。
FIG. 2 is a schematic diagram when the photographing system of the present embodiment is applied to a general store. The
221、222は顧客人物を表わしており、店舗201は出入り口204およびエントランスフロア202を必ず通過しなければ販売フロア203へ入室できない構成となっている。撮影用端末211〜215、表示部217を備える記憶用端末216、ユーザ端末218および不図示のPOS(Point Of Sales)端末219が100BASE−T規格等の高速ネットワークで接続されており、互いに通信可能な状態となっている。
ここで撮影用端末211〜215はCCDカメラやCMOSカメラ等の撮影部と、不図示の映像処理部を備えており、映像処理部により撮影した映像をリアルタイム処理することが可能となっている。さらに、撮影用端末はカメラ動作、つまりパンニング及びチルティング等を行わずに固定された俯瞰撮影ユニット211〜213と、パンニング、チルトティング、ズーム等の物理的なカメラ動作可能な注目撮影用端末214〜215から構成されており、機能の異なる撮影用端末を組み合わせることで店舗201に入店した人物221、222の多様な撮影を可能としている。
Here, the photographing
記憶用端末216は撮影用端末211〜215により撮影(取得)された映像および処理結果である顧客人物情報を記憶、蓄積及び分析する処理端末であると同時に、ユーザ端末218やPOS端末219からの要求に応じて抽出した撮影対象の時空間的な統計情報である有意情報(対象特定情報)を、記憶している各々の人物に係る映像情報と対応付けて配信する機能を有している。
The
また、ユーザ端末218は無線通信によりネットワークに接続されているPDA(Personal Digital Assistant)であり、ここではユーザとして店舗201の店員が所持することで各種情報の取得や処理の実行等システムへのアクセスが可能となる。
The
このようなユーザによるシステムへのアクセスは記憶用端末216やPOS端末219を介して行うこともでき、店員の人数や配置に応じて柔軟に構成を変更することが可能である。さらに、POS端末219は商品に添付されたバーコード等のタグをスキャンすることで会計および購買記録を蓄積する機能を有している。
Such access to the system by the user can also be performed via the
図3はシステムシーケンスのフローチャートである。本実施例の撮影システムが起動されると、まず撮影システムの初期化が行われる(S301)。ここでは撮影用端末211〜215が備える撮影部(カメラ)のキャリブレーションや各ユニット及びコンピュータ間の通信テスト、記憶用端末216による撮影用端末211〜215の端末情報の取得が行われる。
FIG. 3 is a flowchart of the system sequence. When the imaging system of the present embodiment is activated, the imaging system is first initialized (S301). Here, calibration of the photographing units (cameras) included in the photographing
これにより記憶用端末216は、撮影システム内に備える全端末の状態を把握することが可能となり、個々の端末においても記憶用端末216へ問い合わせることで、結果として撮影システム内の全ての端末状態を共有していることになる。
As a result, the
撮影システムの初期化が行われ、配置された各端末間の状態が確認できたならば、撮影システムはスタンバイ状態となる(S302)。そして、その後はエントランスフロア202における処理(S303〜S307)と販売フロア203における処理(S309〜S314)がそれぞれ並行して実行される。 If the imaging system is initialized and the status between the terminals arranged can be confirmed, the imaging system enters a standby state (S302). After that, the process on the entrance floor 202 (S303 to S307) and the process on the sales floor 203 (S309 to S314) are respectively performed in parallel.
エントランスフロア202では、エントランスフロア202の俯瞰撮影において俯瞰撮影用端末211を用いて出入り口204を含むエントランスフロア202の俯瞰撮影が行われる(S303)。このエントランスフロア202の俯瞰撮影はユーザからのシステム終了命令が発せられるまで常時実行され続け(S304)、得られた俯瞰映像を俯瞰撮影用端末211に備える映像処理部によってリアルタイム処理することで新たに出入り口204からエントランスフロア202へ入室または退室した人物221を検出し(S305)、入室人物についてはさらに注目撮影用端末214を用いた注目撮影を行うことでより詳細な人物情報を取得する(S306)。
In the
このようにして得られた入室人物の詳細な人物情報は、ネットワークを介して記憶用端末216へ送信して記憶する。そして顧客人物情報としてシステム内の全ての端末間で共有される。
The detailed person information of the person entering the room thus obtained is transmitted to the
また、出入り口204より退出した人物に関しても同様に、その都度記憶用端末216に記憶することで店舗201に存在する最新の人物情報が常時更新される状態が保たれる。
Similarly, the person who has exited from the entrance /
一方、並行して実行される販売フロア203における処理では、販売フロア203での俯瞰撮影において、販売フロア203を死角無く撮影するよう配置された俯瞰撮影用端末212、213により販売フロア203全体の俯瞰撮影が行われる(S309)。販売フロア203の俯瞰撮影はユーザからのシステム終了命令が発せられるまで常時実行され続け、得られた俯瞰映像を俯瞰撮影用端末212、213に備える映像処理部によってリアルタイム処理することで販売フロア203内を往来する人物222を検出し(S310)、人物が販売フロア203を退出するまで行動を追跡し続ける。
On the other hand, in the processing on the
さらに、俯瞰撮影された映像から予め撮影システム内で定義された特定の事象が検出されたならば(S311)、ステップ312に進み、さらに注目撮影用端末215による注目撮影を行うことで、より詳細な人物に関する情報を取得することが可能となる。そして、ステップ313では検出された特定の事象に応じた処理が実行される。
Furthermore, if a specific event defined in advance in the imaging system is detected from the video imaged in the overhead view (S311), the process proceeds to step 312 and further by performing attention imaging by the
なお、予めシステムに定義された特定の事象とは人物の転倒や接触事故、盗難等が挙げられ、そのような事象が検出されたならば撮影システムは店員へ所定の対応を行わせるべくユーザ端末218、表示部217およびPOS端末を介して事象の表示・通知を行う。
The specific events defined in advance in the system include a person's fall, contact accident, theft, etc., and if such an event is detected, the imaging system will allow the clerk to perform a predetermined response to the user terminal. Event display / notification is performed via the
このようにして得られた販売フロア203を往来する人物や特定の事象に関する情報は、エントランスフロア202によって取得された詳細な人物情報と統合されて記憶用端末216に記憶され、ネットワークを介して撮影システム内の全ての端末間で共有されるとともに、会計時にPOS端末219により取得される購買記録とも相互に参照可能な状態となる(S314)。
Information on the person who travels on the
また、ステップ304、ステップ310においてシステム終了の命令がユーザより発せられたならば、撮影システムはステップ308の終了処理を実行する。終了処理としてはシステム起動時からのユーザメモリの解放や、抽出された各種情報の整理、編集等の処理である。
If a system termination command is issued from the user in step 304 and step 310, the imaging system executes the termination process in
続いて図3に示したシステムシーケンスそれぞれの処理に関して詳細に説明する。 Next, the processing of each system sequence shown in FIG. 3 will be described in detail.
はじめに図3のステップ301におけるシステム初期化処理を図4を用いて説明する。なお、システムを構成する各端末は平行して処理が実行されるため、端末ごとの処理をそれぞれ分離してフローチャートを記述している。 First, the system initialization process in step 301 of FIG. 3 will be described with reference to FIG. In addition, since each terminal which comprises a system performs a process in parallel, the process for every terminal is isolate | separated, respectively, and the flowchart is described.
まず、ユーザへのインタフェイスを有する端末であるPOS端末219、ユーザ端末218または記憶用端末216を介してユーザである店舗の店員によりシステム起動命令が実行される。
First, a system activation command is executed by a store clerk at a store via a POS terminal 219, a
POS端末219およびユーザ端末218はそれぞれステップ402、404において通信テストを行った後、ステップ403、405に進み、各々の端末情報を記憶用端末216へ送信する。送信する端末情報としては端末固有のID、通信テストの結果および機能の不具合情報等である。
The POS terminal 219 and the
俯瞰撮影ユニット211〜213および注目撮影ユニット214〜215において、実行されるステップ408、412のカメラキャリブレーションは、3次元座標既知の基準物体を複数の撮影用端末、例えば撮影用端末211、214で同時に撮影した画像から、それぞれの端末の有する撮影部の位置、姿勢、画角等を表わすカメラパラメータを算出する処理である。加えて、注目撮影用端末が備える撮影部はパンニング・チルトティング及びズーム機能を有するため、それらカメラ動作の範囲や速度をステップ413のカメラ運動・撮影可能領域情報取得により求める。カメラパラメータの算出は、上記画像を用いる方法の他に位置姿勢検出センサ等を用いて直接計測するようにしてもよい。
In the overhead
このようにして撮影部に関するパラメータが求まったならば、ステップ409、414において、それぞれの撮影用端末毎に背景画像の作成を行う。これは撮影画像から人物や特定事象の検出を行う処理において背景差分法による動領域の検出を行う際に使用される。特に、カメラ動作の可能な注目撮影用端末は、カメラ動作可能範囲における背景画像の取得と複数画像の合成が必要になる。
If the parameters relating to the photographing unit are obtained in this way, a background image is created for each photographing terminal in
なお、本実施例では撮影画像からの動領域検出法として背景差分法を用いているが、検出アルゴリズムはこれに限らず、この種の処理に広く用いられているテンプレートマッチング法やオプティカルフロー法およびそれら手法の組み合わせ手法も適用可能である。 In this embodiment, the background subtraction method is used as a method for detecting a moving region from a captured image. However, the detection algorithm is not limited to this, and a template matching method, an optical flow method, and the like widely used for this type of processing are used. Combination methods of these methods are also applicable.
ステップ410、415では、POS端末219及びユーザ端末218と同様に通信テストを行い、ステップ411、416では上記算出した撮影部に関するパラメータを含む端末情報を記憶用端末216へ送信する。
In
一方、記憶用端末216はステップ406において他の端末同様に通信テストを行い、ステップ407において撮影システムを構成する他の全ての端末から送信される端末情報を受信し、記憶する。
On the other hand, the
以上のような端末ごとの処理を経て撮影システムはステップ417のスタンバイ状態となる。撮影システムがステップ417のスタンバイ状態に移行すると、POS端末219、ユーザ端末218および記憶用端末216はユーザからの処理入力を受け付け、撮影用端末211〜215はそれぞれ撮影を開始する。
Through the processing for each terminal as described above, the photographing system enters a standby state in step 417. When the photographing system shifts to the standby state in step 417, the POS terminal 219, the
次に図5のフローチャートを用いて図3に示したステップ302〜ステップ307までのエントランスフロア202における顧客人物情報取得・更新処理を説明する。
Next, customer personal information acquisition / update processing in the
撮影システムのスタンバイ状態から(S501)、エントランスフロア202の俯瞰撮影を開始している俯瞰撮影用端末211の撮影範囲内に人物221が侵入すると、図3におけるステップ301でのシステム初期化において撮影用端末ごとに取得した背景画像と現在の画像の差分を算出することで画像中の変化領域を検出する背景差分法を用いた人物認識が行われ(S502)、同時に認識された人物221に関する2次元情報の抽出が行われる。
When the
認識された人物は撮影範囲内に新たに侵入した人物なのか、それとも既に存在していた人物(撮影された人物)の状態が変化したのかを判断し(S503)、新たに侵入した人物と判断された場合、俯瞰撮影用端末211の撮影範囲内において該当人物221に関する情報を記憶(保持)し、追跡を行うエージェントと呼ばれるソフトウェアオブジェクトを発生させる(S504)。
It is determined whether the recognized person is a newly invaded person within the shooting range, or whether the state of the already existing person (photographed person) has changed (S503), and is determined to be a newly invaded person If so, information about the
既に存在していた人物の状態が変化したと判断された場合は、撮影画像より得られる2次元的な人物特徴、画像上での2次元位置および担当エージェント等の人物情報の更新が行われる(S505)。 When it is determined that the state of a person that has already existed has been changed, two-dimensional person characteristics obtained from the photographed image, two-dimensional positions on the image, and person information such as the agent in charge are updated ( S505).
このようにして俯瞰撮影用端末211の撮影範囲内に侵入した人物221の認識と追跡を担当するエージェントが生成されたならば、俯瞰撮影用端末211は認識した人物に関する人物情報を記憶用端末216へ送信する(S506)。送信された人物情報は記憶用端末216で受信され、記憶用端末内においても俯瞰撮影用端末211と同様人物情報の記憶・更新が行われる(S507)。そして、記憶用端末216は俯瞰撮影用端末211だけでなくすべての撮影用端末により取得された映像中で認識された人物情報を集中管理し、常時情報を更新する。
If an agent responsible for recognizing and tracking the
さらに記憶用端末216は過去の顧客人物情報を記憶しており、人物情報と人物画像をリンクさせた形で保存することで人物情報から人物画像の検索、およびその逆を検索を可能としている。したがって、ステップ508では取得した人物情報に基づいて顧客人物情報全体を検索することでステップ502において認識された人物の顧客人物情報が記憶用端末216内に記憶されているか否かの判断を行う。
Further, the
既に顧客人物情報が記憶されている人物であると判断された場合、顧客人物情報の最終更新日時等から更新が必要か否かを判断し(S509)、更新の必要なしと判断されたならばステップ501のスタンバイ状態へ戻る。また、ステップ508において記憶用端末216内に顧客人物情報が記憶されていない、若しくはステップ509において記憶している情報の更新が必要と判断された場合は、記憶用端末216はシステム初期化処理にて収集した撮影システムに存在する全端末の情報を参照し(S510)、エントランスフロア202において注目撮影可能な注目撮影用端末の探索を行う(S511)。
If it is determined that the customer person information is already stored, it is determined whether or not the update is necessary from the last update date and time of the customer person information (S509). If it is determined that the update is not necessary It returns to the standby state of step 501. If the customer personal information is not stored in the
なお、本実施例ではエントランスフロア202に設置された注目撮影用端末は1台の注目撮影用端末214であるが、注目撮影用端末が複数設置されている場合においても同様の動作が可能であり、ステップ511での注目撮影用端末探索の結果、現在処理中の人物を撮影可能な注目撮影用端末が複数台検出された場合、記憶用端末216は複数台の注目撮影用端末に対して注目撮影の指令信号を出力してよく、その中から1台を選択した注目撮影に対して注目撮影動作の指令信号を出力してもよい。
In this embodiment, the target imaging terminal installed on the
認識された人物を撮影可能な注目撮影用端末が検出されたならば、現在処理中の人物の情報を送信し、記憶用端末216のCPUは、注目撮影のために注目撮影用端末214に注目撮影要請(指令信号出力)を行う。
When a noticeable photographing terminal capable of photographing the recognized person is detected, information on the person currently being processed is transmitted, and the CPU of the
注目撮影要請を受けた注目撮影用端末214は、受信した人物情報に基づいて撮影部(カメラ)の制御を行い(S513)、撮影範囲内の注目人物を捉え、ステップ502と同様な処理によって人物認識し(S514)、得られた人物の2次元特徴をステップ513において受信した人物情報と比較し注目人物を確認する。その後、認識された人物がステップ513のカメラ動作によって撮影範囲内に新たに捉えられたのか、それともステップ513のカメラ動作前に既に撮影範囲内に存在していたかを判断し(S515)、新たに撮影範囲内に捉えられたと判断された場合、注目撮影用端末214の撮影範囲内において注目人物221の追跡を行うエージェントと呼ばれるソフトウェアオブジェクトを発生させる(S517)。
The
一方、既に存在していた人物と判断された場合、ステップ504において生成された俯瞰撮影用端末211において同様の注目人物の認識と追跡を担当するエージェントと目的を同じくするエージェントのグループであるエージェンシを形成する(S516)。
On the other hand, if it is determined that the person has already existed, an agency that is a group of agents having the same purpose as the agent in charge of recognition and tracking of the same person of interest in the overhead
ステップ518では、注目人物の動作に応じて詳細撮影が可能となるようにリアルタイムで注目撮影用端末214のパンニング動作、チルティング動作及びズーム動作の各制御を行う。例えば撮影範囲の中央に注目人物の全体像が所望の割合で位置するような制御や、顔認識のアルゴリズムを用いて人物の顔領域を撮影範囲に捉えるよう制御すること等が可能である。このようにして注目人物の所望の像が捉えられたならば注目撮影用端末はステップ519に進み、撮影動作を行う。 In step 518, each control of the panning operation, tilting operation, and zoom operation of the noticeable photographing terminal 214 is performed in real time so that detailed photographing is possible according to the action of the noticeable person. For example, it is possible to perform control such that the entire image of the person of interest is positioned at a desired ratio in the center of the shooting range, or control so that the face area of the person is captured in the shooting range using a face recognition algorithm. If the desired image of the person of interest is captured in this way, the noticeable photographing terminal proceeds to step 519 and performs a photographing operation.
このときステップ519において初めて注目撮影用端末214の撮影を開始するのではなく、ステップ513で注目人物情報を受信した時点、またはシステム起動時点から撮影を続けていてもよく、このステップ519の撮影は、連続的に撮影された映像のうち、注目人物の詳細画像の存在する時間位置情報を記録することに相当する。その後、撮影された注目人物画像は画像解析が行われ(S520)、抽出した2次元人物情報とステップ513において受信した俯瞰撮影用端末211における注目人物の2次元人物情報を合わせて参照することで注目人物の3次元情報を算出することが可能となる。
At this time, instead of starting the shooting of the
得られた注目人物の詳細画像および3次元情報を含む人物情報は、記憶用端末216へと送信され(S521)、注目人物の詳細画像および2次元画像中の特徴、追跡を担当するエージェンシと所属するエージェント情報が関連付けられて顧客人物情報として記憶・更新される(S522)。記憶用端末216における顧客人物情報の記憶・更新処理が完了したならばステップ501に戻り、俯瞰撮影用端末211が新たな人物を認識するまでスタンバイ状態となる。
The obtained detailed image of the attention person and the person information including the three-dimensional information are transmitted to the storage terminal 216 (S521), and the detailed image of the attention person, the features in the two-dimensional image, the agency in charge of tracking, and the affiliation Agent information to be associated is stored and updated as customer personal information (S522). When the storing / updating process of the customer person information in the
以上のような撮影システムのシステムシーケンスによりエントランスフロア202を通過する人物は全て記憶用端末216に人物情報を記憶され、システム内の全ての端末は記憶用端末216に人物の特徴や3次元情報を用いて問い合わせることで該当人物の画像情報を含む最新顧客人物情報を得ることが可能となる。
All persons passing through the
次に図7のフローチャートを用いて図3のステップ309における販売フロア203の俯瞰撮影について説明する。
Next, the overhead view shooting of the
まず、スタンバイ状態から販売フロア203の俯瞰撮影を行っている俯瞰撮影用端末212の撮影範囲内に人物222が侵入すると(S701)、ステップ301のシステム初期化において撮影用端末ごとに取得した背景画像と現在の画像の差分を算出することで画像中の変化領域を検出する背景差分法を用いて人物認識が行われ、同時に認識された人物に関する2次元情報の抽出が行われる(S702)。
First, when a
認識された人物は、撮影範囲内に新たに侵入した人物なのか、それとも既に撮影範囲内に存在していた人物の状態が変化したのかを判断し(S703)、新たに侵入した人物と判断された場合、俯瞰撮影用端末212の撮影範囲内において該当人物222の追跡を行うエージェントと呼ばれるソフトウェアオブジェクトを発生させる(S704)。一方、既に存在していた人物の状態が変化したと判断された場合は、撮影された画像から得られる2次元的な人物特徴、画像上での2次元位置および担当エージェント等の人物情報の更新が行われる(S705)。
It is determined whether the recognized person is a newly invaded person within the shooting range or whether the state of the person already existing in the shooting range has changed (S703). If so, a software object called an agent that tracks the
そして、俯瞰撮影用端末212の撮影範囲内に侵入した人物222の認識処理と追跡を担当するエージェントが生成されたならば、俯瞰撮影用端末212は認識した人物に関する人物情報を記憶用端末216および他の俯瞰撮影用端末213へ送信する(S706)。人物情報を受信した記憶用端末216は、人物情報の記憶、更新処理を行う(S707)。続いて記憶用端末216に接続された全端末情報を参照し(S708)、販売フロア203にて稼動中の撮影用端末の中からステップ707において受信した人物情報を用いて同一人物を担当しているエージェントおよびその端末の探索を行う(S709)。同一人物を追跡中のエージェントが検出された場合、俯瞰撮影用端末212に所属するエージェントと新たに発見されたエージェントをグルーピングしエージェンシを形成させる(S710)。
If an agent responsible for the recognition process and tracking of the
このようにして発見されたエージェントとエージェンシ情報は人物情報として俯瞰撮影用端末212、13へ送信され(S711)、該情報の共有が行われる。記憶用端末216からの人物情報を受信した俯瞰撮影用端末212では、自らの有する人物情報の更新が行われ(S717)、追跡中のエージェントとエージェンシを形成する他の端末に所属するエージェントを把握することが可能となる。また、俯瞰撮影用端末212による撮影画像は記憶用端末216に送信される(S718)。
The agent and agency information discovered in this way are transmitted to the overhead
一方、ステップ706で送信された俯瞰撮影用端末212の人物情報を受信したもう1台の俯瞰撮影用端末213では、記憶用端末216と同様に、人物情報の更新を行った後(S712)、俯瞰撮影用端末213の撮影範囲内で追跡中の人物に対応するエージェントの中から、ステップ712において受信した人物を追跡するエージェントの探索を行い(S713)、同一人物を追跡するエージェントが検出された場合は、異なる端末間で同一の人物を追跡するエージェントのグループであるエージェンシを形成する(S714)。そして、新たに形成されたエージェンシ情報を含む人物情報が更新され、記憶用端末216および俯瞰用端末212へ該情報を送信する(S715)。
On the other hand, in the other overhead
また、俯瞰撮影用端末213で撮影された画像は記憶用端末216へ送信され(S716)、画像記憶処理が行われる(S719)。俯瞰撮影用端末212若しくは213において新たな人物の認識が行われるスタンバイ状態へ移行する。
Further, the image photographed by the overhead
その後俯瞰撮影用端末212、213は自らの撮影範囲にはいった人物を次々に検出し、担当エージェントを生成し、記憶用端末216および他の俯瞰撮影用端末に認識した人物に関する情報を送信する。人物情報を受信した他の俯瞰撮影用端末は受信した人物情報と自分の撮影範囲内の人物情報を比較することで同一人物か否かの判断をし、同一人物を担当するエージェント間でエージェンシの形成を行う。
Thereafter, the overhead
また、記憶用端末216においても、記憶用端末216が把握している俯瞰撮影用端末同士において同一人物を追跡していることが判別された時には、それぞれ担当するエージェント同士がエージェンシを形成するよう該当する人物情報を送信する。全ての俯瞰撮影用端末の位置およびカメラパラメータと撮影範囲内に入った人物データを共有し合うことで、俯瞰撮影用端末間での人物同定がなされ、記憶用端末に送信される画像の中で、複数視点からの同一人物の撮影画像の特定がなされ、検出された人物の3次元情報の取得が可能となる。
Further, in the
以上のような販売フロア203の俯瞰撮影によって、販売フロア203を行き来する人物は常にいずれかの俯瞰撮影用端末の撮影範囲内に捉えられ、抽出された人物情報の共有によりリアルタイムで2次元画像および3次元情報の取得及び記憶が行われる。
Through the overhead view shooting of the
そして、このような状況の下、つまり、エントランスフロア202及び販売フロア203での俯瞰撮影及び注目撮影動作において、人物が事故や危険行動、盗難等予めシステムに定義された異常事象が起こると、俯瞰撮影用端末212、213によって即座に検出され、店員への通知と顧客人物情報の記録が行われる。
Under such circumstances, that is, when an abnormal event defined in advance in the system, such as an accident, dangerous behavior, or theft, occurs in a bird's-eye shooting and attention shooting operation on the
図8は、図3のステップ311〜S313の販売フロアにおける事象検出・注目撮影の詳細なフローチャートである。 FIG. 8 is a detailed flowchart of event detection / attention shooting on the sales floor in steps 311 to S313 in FIG.
システムスタンバイ状態から販売フロア203の俯瞰撮影を行っている俯瞰撮影用端末212、213の撮影範囲内に人物222が侵入すると(S801)、俯瞰撮影処理と同様にS301システム初期化において撮影用端末ごとに取得した背景画像と現在の画像の差分を算出することで画像中の変化領域を検出する背景差分法を用いて人物認識が行われ、同時に認識された人物に関する二次元情報の抽出が行われる(S802)。
When a
認識された人物222は、予めシステムに定義された異常人物か否かの判断がされ(S803)、異常人物で無い場合は、取得した人物情報の更新を行った後、スタンバイ状態へ戻る(S804)。
It is determined whether or not the recognized
一方、ステップ803において認識人物が異常人物と認識された場合は、認識人物222の追跡を担当するエージェントの所属するエージェンシ内で注目撮影用端末のエージェントを探索する(S805)。言い換えれば、認識人物222が現在撮影範囲内にある注目撮影用端末の探索を行う。
On the other hand, if the recognized person is recognized as an abnormal person in step 803, the agent of the target photographing terminal is searched for in the agency to which the agent in charge of tracking the recognized
エージェンシ内に注目撮影用端末に所属するエージェントが存在しない、すなわち認識人物222が撮影範囲内にある注目撮影用端末が存在しない場合、俯瞰撮影用端末から記憶用端末216へ人物情報の送信が行われ、記憶用端末216の人物情報の更新が行われる(S806)。記憶用端末216において人物情報の更新が行われると、記憶用端末216に接続されている全端末情報を参照し(S807)、ステップS803において異常人物として認識された人物を撮影可能な注目撮影用端末の探索を行う(S808)。
When there is no agent belonging to the focused imaging terminal in the agency, that is, there is no focused imaging terminal in which the recognized
本実施例では、販売フロア203に設置された1台の注目撮影用端末215で行っているが、注目撮影用端末が複数設置された場合でも同様の動作が可能であり、ステップ808の注目撮影用端末探索の結果、異常人物を撮影可能な注目撮影用端末が複数台検出された場合、記憶用端末216は複数台の注目撮影用端末に対して注目撮影のための指令信号を出力する。また、複数の注目撮影用端末の中から1台を選択して注目撮影を行わせるように指令信号を出力してもよい。
In this embodiment, the operation is performed by one
異常人物を撮影可能な注目撮影用端末が検出された場合、認識人物222の人物情報を送信し、注目撮影要請を行う(S809).一方、ステップ805において認識人物222を撮影範囲中に捉え、追跡エージェントを発生させている注目撮影用端末が検出された場合は、俯瞰撮影用端末は直接該当する注目撮影用端末215へ認識人物の人物情報の送信を行う。
When a noticeable photographing terminal capable of photographing an abnormal person is detected, the person information of the recognized
俯瞰撮影用端末または記憶用端末216から人物情報を受信した注目撮影用端末215は、受信した人物情報を元にカメラ制御を行い(S810)、撮影範囲内に注目人物を捉え、ステップ802と同様な処理によって人物認識し、得られた2次元的な人物の特徴を受信した人物情報と比較し注目人物を確認する(S811)。そして、認識した異常人物に対応するエージェントの探索を行い(S812)、ステップ811の処理により新たに撮影範囲に捉えられた人物である場合には、対応するエージェントを発生させた後(S813)、俯瞰撮影用端末または記憶用端末216から受信したエージェント情報を参照し、該当する異常人物を担当するエージェントのグループであるエージェンシを生成する(S[814)。
The
その後、注目する異常人物の動作に応じて詳細撮影が可能なようリアルタイムで注目撮影用端末215をパンニング、チルティング及びズーム制御を行う(S815)。例えば撮影範囲の中央に注目人物の全体像が所望の割合で位置するような制御や、顔認識のアルゴリズムを用いて人物の顔領域を撮影範囲に捉えるよう制御すること等が可能となる。 Thereafter, panning, tilting, and zooming control of the notable photographing terminal 215 is performed in real time so that detailed photographing can be performed according to the action of the abnormal person to be noticed (S815). For example, it is possible to perform control such that the entire image of the person of interest is positioned at a desired ratio in the center of the shooting range, or control so that the face area of the person is captured in the shooting range using a face recognition algorithm.
このようにして注目人物の所望の像が捉えられたならば、注目撮影用端末215は撮影動作を行う(S816)。このとき初めて注目撮影用端末215の撮影を開始するのではなく、ステップ810で注目人物情報を受信した時点、またはシステム起動時点から撮影を続けていてもよく、この場合、ステップ816における撮影は連続的に撮影された映像のうち、異常人物の詳細画像の存在する時間位置情報を記録することに相当する。
If the desired image of the person of interest is thus captured, the noticeable photographing terminal 215 performs a photographing operation (S816). At this time, instead of starting the imaging of the
撮影された異常人物画像は、画像解析が行われ(S817)、抽出した2次元の人物情報とステップ810において受信した俯瞰撮影用端末または記憶用端末216における異常人物の二次元人物情報を共に参照することで異常人物の3次元情報を算出することが可能となる。得られた注目人物の詳細画像および3次元情報を含む人物情報は記憶用端末216へと送信され(S818)、異常人物の詳細画像および2次元画像中の特徴、追跡を担当するエージェンシと所属するエージェント情報が関連付けられて顧客人物情報として記憶・更新される(S819)。
The photographed abnormal person image is subjected to image analysis (S817), and both the extracted two-dimensional person information and the two-dimensional person information of the abnormal person in the overhead view photographing terminal or
記憶用端末216では、顧客人物情報の記憶・更新が行われるとともに(S819)、ユーザ端末218およびPOS端末219へ異常人物情報を特別に通知、表示させユーザへの報告を行う(S820、S821、S822)。これにより販売フロア203での異常人物の検出及び詳細情報の取得とユーザへの通知とが効率的に行われ、ユーザによる異常人物に対する迅速な対応が可能となる。
At the
以上のように、本実施例では、エントランスフロア202における顧客人物情報の取得・更新(図5参照)、販売フロア203における俯瞰撮影(図7参照)、販売フロア203における事象検出・注目撮影(図8参照)というシステムシーケンスを常時リアルタイムで並列処理することで、撮影システムは店舗201内に立ち入った全ての人物を検出し、検出された人物の顧客人物情報として詳細画像、2次元画像中の特徴、追跡を担当するエージェンシと所属するエージェント、および人物の3次元情報の蓄積を行い、それら蓄積情報を時間及び空間的に統計処理した結果として有意情報を抽出し、それぞれ関連付けて記憶している。
As described above, in the present embodiment, acquisition / update of customer personal information at the entrance floor 202 (see FIG. 5), overhead view shooting at the sales floor 203 (see FIG. 7), event detection / attention shooting at the sales floor 203 (FIG. 5). 8), the imaging system detects all persons who have entered the
表1は、本実施例において抽出・記憶される2次元情報、3次元情報および有意情報を示している。 Table 1 shows two-dimensional information, three-dimensional information, and significant information extracted and stored in the present embodiment.
図3から図8にまでの店舗201内での監視動作により示したとおり、本実施例の撮影システムは店舗201内に侵入、滞在する人物に関して、俯瞰撮影用端末による俯瞰画像および注目撮影用端末による注目画像を取得する。そして、それら画像情報をまずは取得した個別の端末で単独に処理することで人物に関する2次元情報を得ることができる。
As shown by the monitoring operation in the
人物の2次元情報としては画像中での2次元位置、2次元形状、2次元計数、2次元密度、2次元移動速度、2次元移動軌跡、2次元滞在時間および色情報を得ることができる。これらの情報を得る手法としては、エッジ抽出法やパターンマッチング法、オプティカルフロー法等、該撮影システムに適した計算の精度と負荷のバランスを考慮した画像処理アルゴリズムの選択が可能である。 As the two-dimensional information of a person, a two-dimensional position in the image, a two-dimensional shape, a two-dimensional count, a two-dimensional density, a two-dimensional movement speed, a two-dimensional movement locus, a two-dimensional stay time, and color information can be obtained. As a method for obtaining such information, it is possible to select an image processing algorithm such as an edge extraction method, a pattern matching method, an optical flow method, or the like in consideration of the calculation accuracy and load balance suitable for the photographing system.
次に、得られた2次元情報を、記憶用端末を介して接続されている他の撮影用端末間で共有することで対象人物の多角的観測が可能となり、以下のような3次元情報を得ることができる。 Next, by sharing the obtained two-dimensional information among other photographing terminals connected via the storage terminal, it becomes possible to observe the target person from various perspectives. Obtainable.
人物の3次元情報としては定義された空間内での3次元位置、3次元形状、3次元計数、3次元密度、3次元移動速度、3次元移動軌跡、3次元滞在時間および3次元動作を得ることができる。これら3次元情報は2次元情報に比べて空間的(立体的)な情報が含まれているため、より高精度で信頼性の高い情報として利用価値が高い。さらには得られた人物に関する2次元および3次元情報を時間経過的に蓄積し、有意情報として本撮影システム固有の時空間的な統計情報を定義し、抽出することが可能となる。 As the three-dimensional information of a person, a three-dimensional position in a defined space, a three-dimensional shape, a three-dimensional count, a three-dimensional density, a three-dimensional movement speed, a three-dimensional movement trajectory, a three-dimensional stay time, and a three-dimensional movement are obtained. be able to. Since these three-dimensional information includes spatial (stereoscopic) information as compared with two-dimensional information, it is highly useful as highly accurate and reliable information. Furthermore, it is possible to accumulate two-dimensional and three-dimensional information about the obtained person over time, and to define and extract statistical information specific to the photographing system as spatiotemporal information as significant information.
本実施例における有意情報としては顧客人物情報履歴、購買行動履歴、店舗レイアウト用情報、店員配置用情報、防犯対策用情報、POSシステム自動入力用情報等が抽出可能となる。 As significant information in this embodiment, customer person information history, purchase behavior history, store layout information, clerk placement information, security countermeasure information, POS system automatic input information, and the like can be extracted.
図9に記憶用端末216に蓄積される顧客人物情報を階層的に示す。顧客人物に応じて人物情報901、902は蓄積されており、その内容としては詳細画像911として注目撮影用端末によって撮影された全身画像921および顔画像922の履歴、3次元移動軌跡912から使用頻度の高い移動経路や立ち寄り順序等の行動パターン923、3次元移動速度913として現在までの平均速度924および最高速度925、3次元形状914として身長926、体格927、頻繁に行われる動作や特徴的な行動928の履歴、滞在時間/日時915の統計として来店頻度929、来店パターン930、平均滞在時間931をそれぞれ上位の情報の時間的統計を取ることで求め、記憶している。
FIG. 9 shows customer personal information stored in the
また、これら顧客人物情報901、902はPOS情報903と相互参照可能であり、例えば特定の人物特徴から購買履歴916の問い合わせや、POS情報903入力時に顧客人物情報を参照し自動入力することなどが可能となっている。
Further, the
さらに、これら顧客人物情報901、902は図10に示すように店舗情報1001として階層的に整理することで、ユーザからのリクエストに応じて例えば全顧客人物の3次元移動軌跡1011、3次元密度1012、3次元移動速度1013および3次元形状1014等の情報から、店舗201における有意情報として混雑区画1021、人物流停滞区画1022、異常行動頻発区画1023、集客区画1024を映像情報と共に抽出することが可能となり、それら情報を店舗レイアウト1031、店員配置1032および防犯対策1033を事前に実施する為の参照情報として利用することが可能となる。
Furthermore, these
具体的には3次元移動軌跡1011の統計処理より店舗内で多くの人物通過がある集客区画1024が判別されると、注目させたい商品の陳列を行うよう店舗レイアウトの変更を行い、人物通過が少なく3次元密度も低いにもかかわらず3次元移動速度が低い位置は人物流停滞区画1022として通路設計を見直し、人物の3次元形状から異常行動頻発と判別された異常行動頻発区画1023に対しては、店舗レイアウトの変更に加え、店員の配置を密にし、それに対する防犯対策を予め実際の過去に発生した異常行動映像を参照してシミュレーションすることが可能となる。
Specifically, when the
図11は、本発明の実施例2における撮影システムの動作フローチャートである。撮影システムの概略、撮影用端末の人物認識処理と端末間の人物情報共有および一般的な店舗への撮影システムの適用については上記実施例1と同様であるため、説明を省略する。 FIG. 11 is an operation flowchart of the photographing system according to the second embodiment of the present invention. Since the outline of the photographing system, the person recognition processing of the photographing terminal, the sharing of personal information between the terminals, and the application of the photographing system to a general store are the same as those in the first embodiment, description thereof will be omitted.
図11において、システム初期化およびスタンバイ状態(S1011、S1012)、並行して実行されるエントランスフロア202におけるステップ1103〜ステップ1108および、販売フロア203におけるステップ309〜ステップ314に関しては、上記実施例1の図3と同様に行われる。
In FIG. 11, the system initialization and standby state (S1011 and S1012), steps 1103 to 1108 in the
上記実施例1において、エントランスフロア202および販売フロア203における処理動作とともに、俯瞰撮影用端末により人物および特定事象の検出が行われたならば注目撮影用端末へ注目撮影を行うように指令信号等を出力して注目撮影を要請し、注目撮影用端末は人物の検出、撮影、画像解析および3次元情報取得を行った後、全ての情報を顧客人物情報として記憶用端末へ送信している。
In the first embodiment, in addition to the processing operations on the
これに対し本実施例では、注目撮影の指令信号を受信した注目撮影用端末は、人物の検出、撮影、画像解析を行うが、3次元情報取得および有意情報取得処理はユーザからのリクエスト、すなわちユーザの操作に応じて実行される。 On the other hand, in this embodiment, the terminal for attention photographing that has received the instruction signal for attention photographing performs detection, photographing, and image analysis of a person, but the three-dimensional information acquisition and significant information acquisition processing is a request from the user, that is, It is executed in response to a user operation.
ステップ1115〜ステップ1117では、ユーザからの3次元情報リクエスト処理であり、ステップ1115においてユーザから3次元情報の要求が行われた場合、記憶用端末は記憶した映像の解析を行い、要求された人物を同時に撮影した複数視点の画像解析結果と、共に記憶している撮影を行った端末情報を参照することで3次元情報の算出を行う(S1116)。算出された3次元情報は対応する映像とともに要求したユーザ(端末)へ送信する(S1117)。 In steps 1115 to 1117, the process is a three-dimensional information request process from the user. When a request for three-dimensional information is made from the user in step 1115, the storage terminal analyzes the stored video and requests the requested person. The three-dimensional information is calculated by referring to the image analysis results of a plurality of viewpoints taken at the same time and the terminal information that has been taken and stored together (S1116). The calculated three-dimensional information is transmitted to the requesting user (terminal) together with the corresponding video (S1117).
同様に、ステップ1118〜ステップ1121では、有意情報リクエスト処理であり、ステップ1118においてユーザから有意情報の要求が行われた場合、記憶用端末では記憶した映像の解析を行い、要求された条件に応じた人物を同時に撮影した複数視点の画像解析結果と、共に記憶している撮影を行った端末情報を参照することで3次元情報の算出を行う(S1119)。そして、算出された複数の3次元情報の時間的統計を計算することで対応する映像と共に有意情報を算出する(S1120)。これら算出された3次元情報および有意情報は、要求したユーザ(端末)へ送信される(S1121)。 Similarly, steps 1118 to 1121 are significant information request processing. When a request for significant information is made from the user in step 1118, the storage terminal analyzes the stored video and responds to the requested condition. The three-dimensional information is calculated by referring to the image analysis results of a plurality of viewpoints obtained by photographing the person at the same time and the terminal information of the photographed image stored together (S1119). Then, significant information is calculated together with the corresponding video by calculating temporal statistics of the calculated three-dimensional information (S1120). The calculated three-dimensional information and significant information are transmitted to the requested user (terminal) (S1121).
このように本実施例では、処理負荷の大きい3次元情報および有意情報の算出を映像取得と同時にリアルタイム処理するのではなく、ユーザの要求時または撮影終了後のオフライン処理で実行することで、端末に必要とされる計算負荷、記憶容量および撮影システムの通信負荷等を低減することが可能となる. As described above, in this embodiment, the calculation of three-dimensional information and significant information with a large processing load is not performed in real time at the same time as video acquisition, but is performed by offline processing at the time of user request or after the end of shooting. It is possible to reduce the computational load, storage capacity, and communication load of the imaging system required for.
図12は、本発明の実施例3における撮影システムの概略構成図である。上記実施例1、2では、図1に示すように撮影システムシステムがネットワークに接続された複数の撮影用端末101〜104と、記憶用端末111およびユーザ端末121により構成されている。つまり、撮影用端末101〜104により取得される映像を含めた各種情報は一旦記憶用端末111に集められ、情報を記憶用端末111により一元管理するするサーバ・クライアント型システムとなっている。
FIG. 12 is a schematic configuration diagram of an imaging system in Embodiment 3 of the present invention. In the first and second embodiments, as shown in FIG. 1, the photographing system is composed of a plurality of photographing
これに対して本実施例では、図12に示すようにピア・ツー・ピア型のシステム構成としている。具体的には、撮影記憶用端末1201〜1203は互いにサーバを介さずに情報交換(通信)を行うとともに、撮影記憶用端末1201には、対象の映像を取得する撮影部1225と、複数の映像より対象の3次元情報を抽出する3次元情報抽出部1224と、映像情報その他を記憶する記憶部1223と、3次元情報を時間的に統計処理する有意情報抽出部1222および通信部が設けられ、ネットワーク1201を介して他の端末との情報の送受信が可能な状態となっている。
On the other hand, in this embodiment, a peer-to-peer system configuration is adopted as shown in FIG. Specifically, the photographing
ユーザ端末1211は、ユーザへの各種情報のインタフェイスである表示部1231および通信部1232を有しており、ユーザの該撮影システムへのアクセスを可能にしている。
The
このように本実施例では、撮影記憶用端末1201〜1204が各々が取得した映像とその解析結果を互いに通信し合うことで情報共有を行い、3次元情報および有意情報の抽出を行う。つまり、ピア・ツー・ピア型のシステム構成においてそれぞれの撮影記憶用端末が同様な機能を有するので、サーバ・クライアント型に比べてシステム構築の柔軟性と、端末に不具合が生じたときのシステム全体の安定性が向上する。
As described above, in this embodiment, the photographing
101 撮影用端末(撮影ユニット)
111 記憶用端末(記憶ユニット)
121 ユーザ用端末
131 ネットワーク
142 撮影部
141 通信部
151 3次元情報抽出部
152 記憶部
153 有意情報抽出部
101 Shooting terminal (shooting unit)
111 Storage terminal (storage unit)
121
Claims (11)
撮影された前記対象物の画像情報から前記対象物の3次元情報を抽出するステップと、
前記画像情報から前記対象物の属性及び状態のうち少なくとも1つの対象特定情報を抽出するステップと、
前記対象物に基づいて前記画像情報、前記3次元情報及び前記対象特定情報を関連付けて記憶するステップとを有することを特徴とする撮影プログラム。 A shooting step for shooting the object;
Extracting three-dimensional information of the object from the image information of the imaged object;
Extracting at least one target specifying information from the image information among the attributes and states of the target;
And a step of storing the image information, the three-dimensional information, and the target specifying information in association with each other based on the target.
撮影された前記対象物の画像情報から前記対象物の3次元情報を抽出する3次元情報抽出手段と、
前記画像情報から前記対象物の属性及び状態のうち少なくとも1つの対象特定情報を抽出する対象特定情報抽出手段と、
前記画像情報、前記3次元情報及び前記対象特定情報を記憶する記憶手段と、
前記対象物に基づいて前記画像情報、前記3次元情報及び前記対象特定情報を関連付けて前記記憶部に記憶する制御手段とを有することを特徴とする撮影システム。 Photographing means for photographing the object;
3D information extraction means for extracting 3D information of the object from image information of the imaged object;
Target specifying information extracting means for extracting at least one target specifying information from the image information among the attribute and state of the target;
Storage means for storing the image information, the three-dimensional information, and the target specifying information;
An imaging system comprising: control means for associating and storing the image information, the three-dimensional information, and the target specifying information in the storage unit based on the object.
前記制御手段は、前記コンピュータからの出力信号に基づいて前記対象特定情報を抽出することを特徴とする請求項6から8のいずれか1つに記載の撮影システム。 A computer comprising: display means for displaying the image information, the three-dimensional information, and the target specifying information; and communication means for communicating with each of the means,
The imaging system according to claim 6, wherein the control unit extracts the target specifying information based on an output signal from the computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004350831A JP2006165729A (en) | 2004-12-03 | 2004-12-03 | Photographing program, photographing method and photographing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004350831A JP2006165729A (en) | 2004-12-03 | 2004-12-03 | Photographing program, photographing method and photographing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006165729A true JP2006165729A (en) | 2006-06-22 |
Family
ID=36667277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004350831A Pending JP2006165729A (en) | 2004-12-03 | 2004-12-03 | Photographing program, photographing method and photographing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006165729A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008198189A (en) * | 2007-01-12 | 2008-08-28 | Internatl Business Mach Corp <Ibm> | Method, system and program for warning monitored user of behavior of monitoring object user showing adverse behavior |
JP2009088648A (en) * | 2007-09-27 | 2009-04-23 | Sogo Keibi Hosho Co Ltd | Image extraction device, and image extraction method |
US8295542B2 (en) | 2007-01-12 | 2012-10-23 | International Business Machines Corporation | Adjusting a consumer experience based on a 3D captured image stream of a consumer response |
US8588464B2 (en) | 2007-01-12 | 2013-11-19 | International Business Machines Corporation | Assisting a vision-impaired user with navigation based on a 3D captured image stream |
JP2020053840A (en) * | 2018-09-27 | 2020-04-02 | 株式会社デンソーウェーブ | Surveillance system and camera |
-
2004
- 2004-12-03 JP JP2004350831A patent/JP2006165729A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008198189A (en) * | 2007-01-12 | 2008-08-28 | Internatl Business Mach Corp <Ibm> | Method, system and program for warning monitored user of behavior of monitoring object user showing adverse behavior |
US8269834B2 (en) | 2007-01-12 | 2012-09-18 | International Business Machines Corporation | Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream |
US8295542B2 (en) | 2007-01-12 | 2012-10-23 | International Business Machines Corporation | Adjusting a consumer experience based on a 3D captured image stream of a consumer response |
US8577087B2 (en) | 2007-01-12 | 2013-11-05 | International Business Machines Corporation | Adjusting a consumer experience based on a 3D captured image stream of a consumer response |
US8588464B2 (en) | 2007-01-12 | 2013-11-19 | International Business Machines Corporation | Assisting a vision-impaired user with navigation based on a 3D captured image stream |
US9208678B2 (en) | 2007-01-12 | 2015-12-08 | International Business Machines Corporation | Predicting adverse behaviors of others within an environment based on a 3D captured image stream |
US9412011B2 (en) | 2007-01-12 | 2016-08-09 | International Business Machines Corporation | Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream |
US10354127B2 (en) | 2007-01-12 | 2019-07-16 | Sinoeast Concept Limited | System, method, and computer program product for alerting a supervising user of adverse behavior of others within an environment by providing warning signals to alert the supervising user that a predicted behavior of a monitored user represents an adverse behavior |
JP2009088648A (en) * | 2007-09-27 | 2009-04-23 | Sogo Keibi Hosho Co Ltd | Image extraction device, and image extraction method |
JP2020053840A (en) * | 2018-09-27 | 2020-04-02 | 株式会社デンソーウェーブ | Surveillance system and camera |
JP7180243B2 (en) | 2018-09-27 | 2022-11-30 | 株式会社デンソーウェーブ | surveillance systems and cameras |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4478510B2 (en) | Camera system, camera, and camera control method | |
JP6742195B2 (en) | Information processing apparatus, method thereof, and computer program | |
JP4984728B2 (en) | Subject collation device and subject collation method | |
WO2018198373A1 (en) | Video monitoring system | |
JP5730518B2 (en) | Specific person detection system and specific person detection method | |
JP5424852B2 (en) | Video information processing method and apparatus | |
JP2018160219A (en) | Moving route prediction device and method for predicting moving route | |
JP2006146378A (en) | Monitoring system using multiple camera | |
US10341616B2 (en) | Surveillance system and method of controlling the same | |
JP2011060058A (en) | Imaging apparatus and monitoring system | |
JP2019020777A (en) | Information processing device, control method of information processing device, computer program, and storage medium | |
JP6396682B2 (en) | Surveillance camera system | |
JP2006093955A (en) | Video processing apparatus | |
JP2006165729A (en) | Photographing program, photographing method and photographing system | |
JP5712401B2 (en) | Behavior monitoring system, behavior monitoring program, and behavior monitoring method | |
JP6702402B2 (en) | Image processing system, image processing method, and image processing program | |
JP2010068466A (en) | Moving body tracking device and moving body tracking method | |
JP2020052822A (en) | Information processing apparatus, authentication system, control method thereof, and program | |
JP2017017488A (en) | Monitoring system, imaging control method, and program | |
JP2019211905A (en) | Traffic line analyzer, traffic line analytical method and traffic line analysis system | |
JP2005173763A (en) | Customer information processing device and method | |
JP6112346B2 (en) | Information collection system, program, and information collection method | |
KR102081517B1 (en) | Intelligent integration control system and intelligent integration control method for linkage tracing of goal target | |
JP7355116B2 (en) | Event detection device | |
JP7256082B2 (en) | Surveillance Systems, Programs and Listing Methods |