JP4802285B2 - Flow line association method, apparatus and program - Google Patents

Flow line association method, apparatus and program Download PDF

Info

Publication number
JP4802285B2
JP4802285B2 JP2010032946A JP2010032946A JP4802285B2 JP 4802285 B2 JP4802285 B2 JP 4802285B2 JP 2010032946 A JP2010032946 A JP 2010032946A JP 2010032946 A JP2010032946 A JP 2010032946A JP 4802285 B2 JP4802285 B2 JP 4802285B2
Authority
JP
Japan
Prior art keywords
flow line
image
moving body
database
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010032946A
Other languages
Japanese (ja)
Other versions
JP2011170562A (en
Inventor
政実 高畠
直樹 関根
智則 伊久美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2010032946A priority Critical patent/JP4802285B2/en
Publication of JP2011170562A publication Critical patent/JP2011170562A/en
Application granted granted Critical
Publication of JP4802285B2 publication Critical patent/JP4802285B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To associate traffic lines with respect to the same traveling body from traffic lines recognized by each of a plurality of traffic line recognition systems. <P>SOLUTION: This traffic line association method includes: selecting the traffic line data of a traveling object located in a first image monitoring area from a first traffic line database; selecting camera image data on a point of time when the traveling object of the traffic line data is located in a first image monitoring area from a first image database; extracting a traveling object image from the camera image data; selecting the traffic line data of the traveling object located in a second image monitoring area from a second traffic line database; selecting the camera image data on a point of time when the traveling object of the traffic line data is located in a second image monitoring area from a second image database; extracting the traveling object image from the camera image data; determining whether or not the traveling objects of the respective images are the same by collating the both traveling object images; and associating, when it is determined the traveling objects are the same, the both traffic line data. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、例えば店舗内を移動する買物客の軌跡を示す動線データの関連付けを行う技術に関する。   The present invention relates to a technique for associating flow line data indicating a trajectory of a shopper who moves in a store, for example.

スーパーマーケット,コンビニエンスストア等の店舗内を移動する買物客の軌跡を動線として認識する動線認識システムには、カメラを用いた画像処理方式や無線タグリーダを用いた無線タグ追跡方式等がある。画像処理方式の場合、現状の画像処理技術では、各カメラで監視領域の全エリアを死角なく撮影したとしても、一人の買物客の監視領域全域の動きを1つの動線として追跡することはきわめて困難である。例えば、他の買物客とすれ違った際に動線が途切れたり、動線が入れ替わったりする場合が考えられる。   Examples of a flow line recognition system that recognizes a trajectory of a shopper moving in a store such as a supermarket or a convenience store as a flow line include an image processing method using a camera and a wireless tag tracking method using a wireless tag reader. In the case of an image processing method, with the current image processing technology, it is extremely difficult to track the movement of a single shopper as a single flow line even if the entire area of the monitoring area is captured without blind spots by each camera. Have difficulty. For example, there may be a case where the flow line is interrupted or the flow line is switched when passing by another shopper.

特許文献1には、画像処理方式の動線認識システムにより生成された複数の動線データの中から同一客に対する動線データを選択し、それぞれを連結して1本の動線データを生成する動線編集システムが開示されている。   In Patent Document 1, flow line data for the same customer is selected from a plurality of flow line data generated by an image processing type flow line recognition system, and each is connected to generate one flow line data. A flow line editing system is disclosed.

ところで、動線認識に必要な情報処理はコンピュータを用いて行うが、その情報処理には大きな負荷を要するため、1台のコンピュータに接続可能なカメラや無線タグリーダの台数には限りがある。このため、単一の動線認識システムで動線を認識可能な領域の広さには自ずと限界がある。そこで、広大な領域全体にわたって動線を認識する場合には、領域を複数に区分し、それぞれに動線認識システムを構築することが考えられる。しかし、その場合は、システムの構築に多大な費用がかかるのみならず、その後の維持コストも莫大なものになる。   By the way, information processing necessary for flow line recognition is performed using a computer. However, since the information processing requires a large load, the number of cameras and wireless tag readers that can be connected to one computer is limited. For this reason, there is a limit to the size of a region where a flow line can be recognized by a single flow line recognition system. Thus, when recognizing a flow line over a vast area, it is conceivable to divide the area into a plurality of areas and construct a flow line recognition system for each. However, in that case, not only will it be very expensive to construct the system, but the subsequent maintenance costs will be enormous.

店舗において、客の行動を分析するのに必ずしも店舗全域にわたって客の移動経路を追跡する必要はなく、特定の複数の売場での同一客の移動経路を追跡できればよいという場合がある。そこで、隣接していない複数の動線認識エリアにそれぞれ構築された動線認識システムで認識されたシステム毎の動線の中から、同一移動体に対する動線を関連付ける技術が求められている。   In a store, in order to analyze a customer's behavior, it is not always necessary to track the travel route of the customer over the entire store, and it may be sufficient to be able to track the travel route of the same customer at a plurality of specific sales floors. Therefore, there is a need for a technique for associating a flow line for the same moving body from among the flow lines for each system recognized by a flow line recognition system constructed in each of a plurality of non-adjacent flow line recognition areas.

本発明はこのような事情に基づいてなされたもので、その目的とするところは、たとえ動線認識システムがそれぞれ構築される複数の動線認識エリアが隣接していなくても、各動線認識システムでそれぞれ認識される動線のなかから同一移動体に対する動線どうしを関連付けることができ、広域な領域の中の部分的な複数領域での動線分析を可能ならしめる動線関連付け方法及び装置並びにプログラムを提供しようとするものである。   The present invention has been made based on such circumstances, and the purpose of the present invention is to recognize each flow line even if a plurality of flow line recognition areas in which a flow line recognition system is constructed are not adjacent to each other. A flow line associating method and apparatus capable of associating flow lines for the same moving body from among the flow lines recognized by the system, and enabling a flow line analysis in a plurality of partial areas in a wide area. As well as a program.

本発明の動線関連付け方法は、第1の動線認識エリア内を移動する移動体毎にその移動体の第1の動線認識エリア内での軌跡を示す動線データを記憶するための第1の動線データベース、第1の動線認識エリアとは異なる第2の動線認識エリア内を移動する移動体毎にその移動体の第2の動線認識エリア内での軌跡を示す動線データを記憶するための第2の動線データベース、第1の動線認識エリア内の少なくとも一部である第1の画像監視エリア内を撮影したカメラ画像データを撮影時刻とともに記憶するための第1の画像データベース、及び、第2の動線認識エリア内の少なくとも一部である第2の画像監視エリア内を撮影したカメラ画像データを撮影時刻とともに記憶するための第2の画像データベースの各データベースに対してアクセスが可能なコンピュータが、第1の動線データベースに記憶された各動線データの中から第1の画像監視エリア内に位置した移動体の動線データを選択し(第1の動線選択段階)、この選択された動線データに対応する移動体が第1の画像監視エリア内に位置する時点のカメラ画像データを前記第1の画像データベースから選択し(第1の画像選択段階)、この選択されたカメラ画像データから移動体画像を抽出するとともに(第1の移動体画像抽出段階)、第2の動線データベースに記憶された各動線データの中から第2の画像監視エリア内に位置する移動体の動線データを選択し(第2の動線選択段階)、この動線データに対応する移動体が第2の画像監視エリア内に位置する時点のカメラ画像データを第2の画像データベースから選択し(第2の画像選択段階)、この選択されたカメラ画像データから移動体画像を抽出し(第2の移動体画像抽出段階)、第1の移動体画像抽出段階により抽出された移動体画像と第2の移動体画像抽出段階により抽出された移動体画像とを照合して各画像の移動体が同一か否かを判定し(移動体同定段階)、移動体が同一であると判定されると、第1の動線選択段階により選択された動線データの少なくとも識別情報に対応させて、第2の動線選択段階により選択された動線データの少なくとも識別情報を記憶することにより(動線関連付け段階)、第1の動線データベースに記憶された各移動体の動線データと第2の動線データベースに記憶された各移動体の動線データとのなかから、同一移動体の動線データどうしを関連付けるようにしたものである。   According to the flow line association method of the present invention, for each moving body that moves in the first flow line recognition area, the flow line data that indicates the trajectory of the moving body in the first flow line recognition area is stored. For each moving body that moves in a second flow line recognition area different from the first flow line recognition area, a flow line that indicates a trajectory in the second flow line recognition area of the moving body A second flow line database for storing data, a first for storing camera image data taken in the first image monitoring area, which is at least part of the first flow line recognition area, together with the shooting time And the second image database for storing camera image data taken in the second image monitoring area, which is at least a part of the second flow line recognition area, together with the shooting time. Against The computer capable of processing selects the flow line data of the moving body located in the first image monitoring area from the respective flow line data stored in the first flow line database (the first flow line selection). Step), selecting camera image data from the first image database when the moving object corresponding to the selected flow line data is located in the first image monitoring area (first image selection step); A moving body image is extracted from the selected camera image data (first moving body image extraction stage), and within the second image monitoring area from each flow line data stored in the second flow line database. Is selected (second flow line selection stage), and the camera image data at the time when the moving body corresponding to the flow line data is located in the second image monitoring area is selected as the second flow line data. Selected from the image database (Second image selection stage), a moving body image is extracted from the selected camera image data (second moving body image extraction stage), and the moving body image extracted by the first moving body image extraction stage And the moving body image extracted in the second moving body image extraction stage are compared to determine whether or not the moving bodies of each image are the same (moving body identification stage), and the moving bodies are determined to be the same. Then, by storing at least the identification information of the flow line data selected by the second flow line selection step in correspondence with at least the identification information of the flow line data selected by the first flow line selection step ( A flow line associating step), from the flow line data of each moving body stored in the first flow line database and the flow line data of each moving body stored in the second flow line database; Associate the flow line data It is a thing.

本発明の動線認識装置は、前記第1,第2の動線データベース及び第1,第2の画像データベースにアクセス可能で、第1の動線データベースに記憶された各動線データの中から第1の画像監視エリア内に位置した移動体の動線データを選択する第1の動線選択手段と、この第1の動線選択手段により選択された動線データに対応する移動体が第1の画像監視エリア内に位置する時点のカメラ画像データを第1の画像データベースから選択する第1の画像選択手段と、この第1の画像選択手段により選択されたカメラ画像データから移動体画像を抽出する第1の移動体画像抽出手段と、第2の動線データベースに記憶された各動線データの中から第2の画像監視エリア内に位置する移動体の動線データを選択する第2の動線選択手段と、この第2の動線選択手段により選択された動線データに対応する移動体が第2の画像監視エリア内に位置する時点のカメラ画像データを第2の画像データベースから選択する第2の画像選択手段と、この第2の画像選択手段により選択されたカメラ画像データから移動体画像を抽出する第2の移動体画像抽出手段と、第1の移動体画像抽出手段により抽出された移動体画像と第2の移動体画像抽出手段により抽出された移動体画像とを照合して各画像の移動体が同一か否かを判定する移動体同定手段と、この移動体同定手段により移動体が同一であると判定されると、第1の動線選択手段により選択された動線データの少なくとも識別情報に対応させて、第2の動線選択手段により選択された動線データの少なくとも識別情報を記憶する動線関連付け手段とを備えたものである。   The flow line recognition apparatus of the present invention can access the first and second flow line databases and the first and second image databases, and from among the flow line data stored in the first flow line database. The first flow line selecting means for selecting the flow line data of the moving body located in the first image monitoring area, and the moving body corresponding to the flow line data selected by the first flow line selecting means are the first First image selection means for selecting camera image data at a time point within one image monitoring area from the first image database, and a moving body image from the camera image data selected by the first image selection means. First moving body image extracting means for extracting and second moving line data for selecting a moving body located in the second image monitoring area from the respective flow line data stored in the second flow line database. The flow line selection means and this Second image selection means for selecting, from the second image database, camera image data at a time when the moving object corresponding to the flow line data selected by the second flow line selection means is located in the second image monitoring area; The second moving body image extracting means for extracting the moving body image from the camera image data selected by the second image selecting means, the moving body image extracted by the first moving body image extracting means, and the second The moving body identifying means for comparing the moving body images extracted by the moving body image extracting means to determine whether or not the moving bodies of the respective images are the same, and the moving body is identical by the moving body identifying means When the determination is made, the movement for storing at least the identification information of the flow line data selected by the second flow line selection means in correspondence with at least the identification information of the flow line data selected by the first flow line selection means. Line related Only those with a unit.

本発明の動線認識プログラムは、前記第1,第2の動線データベース及び第1,第2の画像データベースにアクセス可能なコンピュータに、第1の動線データベースに記憶された各動線データの中から第1の画像監視エリア内に位置した移動体の動線データを選択させる第1の動線選択機能と、この第1の動線選択機能により選択された動線データに対応する移動体が第1の画像監視エリア内に位置する時点のカメラ画像データを第1の画像データベースから選択させる第1の画像選択機能と、この第1の画像選択機能により選択されたカメラ画像データから移動体画像を抽出させる第1の移動体画像抽出機能と、第2の動線データベースに記憶された各動線データの中から第2の画像監視エリア内に位置する移動体の動線データを選択させる第2の動線選択機能と、この第2の動線選択機能により選択された動線データに対応する移動体が前記第2の画像監視エリア内に位置する時点のカメラ画像データを第2の画像データベースから選択させる第2の画像選択機能と、この第2の画像選択機能により選択されたカメラ画像データから移動体画像を抽出させる第2の移動体画像抽出機能と、第1の移動体画像抽出機能により抽出された移動体画像と第2の移動体画像抽出機能により抽出された移動体画像とを照合して各画像の移動体が同一か否かを判定させる移動体同定機能と、この移動体同定機能により移動体が同一であると判定されると、第1の動線選択機能により選択された動線データの少なくとも識別情報に対応させて、第2の動線選択機能により選択された動線データの少なくとも識別情報を記憶させる動線関連付け機能とを実現させるためのものである。   The flow line recognition program according to the present invention stores the flow line data stored in the first flow line database in a computer that can access the first and second flow line databases and the first and second image databases. A first flow line selection function for selecting the flow line data of the moving body located in the first image monitoring area from the inside, and the moving body corresponding to the flow line data selected by the first flow line selection function A first image selection function for selecting from the first image database camera image data at the time when is located in the first image monitoring area, and a moving object from the camera image data selected by the first image selection function First moving body image extraction function for extracting an image, and selection of flow line data of a moving body located in the second image monitoring area from each flow line data stored in the second flow line database The second flow line selection function and the camera image data at the time when the moving object corresponding to the flow line data selected by the second flow line selection function is located in the second image monitoring area A second image selecting function for selecting from the image database; a second moving object image extracting function for extracting a moving object image from the camera image data selected by the second image selecting function; and a first moving object image A mobile object identification function for collating the mobile object image extracted by the extraction function and the mobile object image extracted by the second mobile object image extraction function to determine whether or not the mobile object of each image is the same; When it is determined by the moving body identification function that the moving bodies are the same, the moving body is selected by the second flow line selection function in correspondence with at least the identification information of the flow line data selected by the first flow line selection function. Flow line data It is intended for realizing a flow line association function to store at least identification information.

かかる手段を講じた本発明によれば、たとえ動線認識システムがそれぞれ構築される複数の動線認識エリアが隣接していなくても、各動線認識システムでそれぞれ認識される動線のなかから同一移動体に対する動線どうしを関連付けることができ、広域な領域の中の部分的な複数領域での動線分析を可能ならしめる効果を奏する。   According to the present invention in which such a measure is taken, even if the plurality of flow line recognition areas in which the flow line recognition systems are constructed are not adjacent to each other, the flow lines recognized by each of the flow line recognition systems are used. The flow lines for the same moving body can be associated with each other, and there is an effect that enables the flow line analysis in a plurality of partial areas in a wide area.

本発明の一実施形態である動線関連付け装置と動線認識システムの要部構成を示すブロック図。The block diagram which shows the principal part structure of the flow line correlation apparatus and flow line recognition system which are one Embodiment of this invention. 同実施形態において、画像データベースに記憶される画像データの構造を示す模式図。4 is a schematic diagram showing a structure of image data stored in an image database in the embodiment. FIG. 同実施形態において、動線データベースに記憶される動線データの構造を示す模式図。The schematic diagram which shows the structure of the flow line data memorize | stored in the flow line database in the embodiment. 同実施形態が適用される店舗の説明図。Explanatory drawing of the store to which the same embodiment is applied. 同実施形態における動線認識システムのカメラレイアウトの一例を示す模式図。The schematic diagram which shows an example of the camera layout of the flow line recognition system in the embodiment. 同実施形態において、動線関連付け装置が有する設定テーブルの一データ例を示す模式図。The schematic diagram which shows one data example of the setting table which the flow line correlation apparatus has in the embodiment. 同実施形態において、動線関連付け装置が有する関連付け動線ファイルのデータ構造を示す模式図。The schematic diagram which shows the data structure of the related flow line file which the flow line correlation apparatus has in the embodiment. 同実施形態において、動線関連付けプログラムが起動したときの動線連結装置の制御部が実行する主要な処理手順を示す流れ図。The flowchart which shows the main process procedures which the control part of the flow line connection apparatus when the flow line correlation program starts in the embodiment. 図8に示す処理手順の中の動線P選択処理の具体的な手順を示す流れ図。The flowchart which shows the specific procedure of the flow line P selection process in the process sequence shown in FIG. 図8に示す処理手順の中の動線Q選択処理の具体的な手順を示す流れ図。The flowchart which shows the specific procedure of the flow line Q selection process in the process sequence shown in FIG. 図8に示す処理手順の中の動線関連付け処理の具体的な手順を示す流れ図。The flowchart which shows the specific procedure of the flow line correlation process in the process sequence shown in FIG. 本発明の第2の実施形態における動線関連付け処理の具体的な手順を示す流れ図。The flowchart which shows the specific procedure of the flow line correlation process in the 2nd Embodiment of this invention. 同第2の実施形態において、動線関連付け処理の表示部に表示される動線関連付け画面の一レイアウト例を示す模式図。The schematic diagram which shows one layout example of the flow line correlation screen displayed on the display part of a flow line correlation process in the said 2nd Embodiment.

以下、本発明の実施形態について、図面を用いて説明する。はじめに、第1の実施形態について、図1〜図11を用いて説明する。
なお、この実施形態は、図4に示すように、田の字型に区分されて互いに客が行き来できる4つの売場A,売場B,売場C及び売場Dを備えた店舗1に適用した場合である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, a first embodiment will be described with reference to FIGS.
In addition, this embodiment is a case where it applies to the store 1 provided with the four sales floor A, the sales floor B, the sales floor C, and the sales floor D which are divided into the shape of a rice field and a customer can come and go as shown in FIG. is there.

図4に示すように、売場Aは、売場B及び売場Dと隣接し、売場Bは、売場A及び売場Cと隣接し、売場Cは、売場B及び売場Dと隣接し、売場Dは、売場C及び売場Aと隣接している。売場Aと売場C及び売場Bと売場Dは隣接していない。隣接する各売場の境界領域には、それぞれ客が行き来できるように通路が形成されている。また、売場Aと売場Bとには、客が入退場可能な入退場口G1,G2が設けられている。   As shown in FIG. 4, the sales floor A is adjacent to the sales floor B and the sales floor D, the sales floor B is adjacent to the sales floor A and the sales floor C, the sales floor C is adjacent to the sales floor B and the sales floor D, and the sales floor D is It is adjacent to sales floor C and sales floor A. Sales floor A and sales floor C and sales floor B and sales floor D are not adjacent. Passages are formed in the border areas of adjacent sales floors so that customers can come and go. In addition, the sales floor A and the sales floor B are provided with entrances G1 and G2 through which customers can enter and exit.

各売場A〜Dのうち、売場Aと売場Cとには、それぞれその売場内を移動する移動体である人物(買物客)の軌跡を動線として認識するための動線認識システムSA,SCが構築されている。すなわち、売場Aは動線認識システムSAの動線認識エリアとなっており、売場Cは動線認識システムSCの動線認識エリアとなっている。   Among the sales floors A to D, the sales floor A and the sales floor C each have a flow line recognition system SA, SC for recognizing the trajectory of a person (shopper) that is a moving body moving in the sales floor as a flow line. Has been built. That is, the sales floor A is a flow line recognition area of the flow line recognition system SA, and the sales floor C is a flow line recognition area of the flow line recognition system SC.

各動線認識システムSA,SCは、いずれもカメラを用いた画像処理方式である。画像処理方式の動線認識システムは、図1に示すように、複数基のカメラ2と、コンピュータを主体とした動線認識装置3A,3Cとを備える。   Each of the flow line recognition systems SA and SC is an image processing system using a camera. As shown in FIG. 1, the image processing type flow line recognition system includes a plurality of cameras 2 and flow line recognition devices 3A and 3C mainly composed of computers.

各カメラ2は、魚眼レンズを用いたカメラや全方位ミラー付のカメラ等の広角レンズカメラである。これらのカメラ2は、視体積交差法により、それぞれ対応する売場A,C内を移動する買物客の軌跡、すなわち人物動線を追跡するために用いられる。視体積交差法は、例えば客の頭部を複数の方向から撮影し、各画像の頭部の位置から頭部の店内空間に適宜設置された3次元座標系内の座標値を算出する方法である。1つの監視領域に配置されるカメラの台数は特に制限されないが、視体積交差法による位置検出精度を高めるためには少なくとも3台は必要である。   Each camera 2 is a wide-angle lens camera such as a camera using a fisheye lens or a camera with an omnidirectional mirror. These cameras 2 are used to track a trajectory of a shopper who moves in the corresponding sales floors A and C, that is, a person flow line, by the visual volume intersection method. The visual volume intersection method is, for example, a method in which a customer's head is photographed from a plurality of directions and a coordinate value in a three-dimensional coordinate system appropriately installed in the store space of the head is calculated from the position of the head of each image. is there. The number of cameras arranged in one monitoring area is not particularly limited, but at least three cameras are necessary in order to improve the position detection accuracy by the visual volume intersection method.

各カメラ2は、動線認識装置3A,3Cが備えるカメラコントロール部31の一元制御により一定の周期(例えば1/15秒)で撮影動作を繰り返し、その撮影画像(フレーム画像)を動線認識装置3A,3Cに送信する。動線認識装置3Aは、カメラコントロール部31の他、カメラ画像データベース32A、動線生成部33及び動線データベース34Aを備えている。動線認識装置3Cは、カメラコントロール部31の他、カメラ画像データベース32C、動線生成部33及び動線データベース34Cを備えている。   Each camera 2 repeats a photographing operation at a constant cycle (for example, 1/15 seconds) by centralized control of the camera control unit 31 provided in the flow line recognition devices 3A and 3C, and the captured image (frame image) is a flow line recognition device. Send to 3A, 3C. In addition to the camera control unit 31, the flow line recognition device 3A includes a camera image database 32A, a flow line generation unit 33, and a flow line database 34A. In addition to the camera control unit 31, the flow line recognition device 3C includes a camera image database 32C, a flow line generation unit 33, and a flow line database 34C.

カメラ画像データベース32A,32Cは、各カメラ2で撮影されたフレーム画像データを順次蓄積する。カメラ画像データベース32A,32Cに蓄積されるフレーム画像データの構造を、図2の模式図で示す。図2に示すように、フレーム画像データは、カメラID、フレーム番号及び撮影時刻が関連付けられて、カメラ画像データベース32A,32Cに記憶される。カメラIDは、当該画像データを撮影したカメラ2の識別コードである。各カメラ2には、それぞれ固有のカメラIDが予め設定されている。フレーム番号は、各カメラ2でフレーム画像が撮影される毎にカウントアップされる“1”からの連続番号である。カメラコントロール部31の制御により、各カメラ2のフレーム番号は同期している。撮影日時は、当該画像データが撮影された時点の日時(年月日時分秒)である。   The camera image databases 32A and 32C sequentially store frame image data taken by each camera 2. The structure of the frame image data stored in the camera image databases 32A and 32C is shown in the schematic diagram of FIG. As shown in FIG. 2, the frame image data is stored in the camera image databases 32A and 32C in association with the camera ID, the frame number, and the shooting time. The camera ID is an identification code of the camera 2 that has captured the image data. Each camera 2 has a unique camera ID set in advance. The frame number is a serial number from “1” that is counted up each time a frame image is captured by each camera 2. Under the control of the camera control unit 31, the frame numbers of the cameras 2 are synchronized. The shooting date and time is the date and time (year / month / day / hour / minute / second) when the image data was shot.

動線生成部33は、カメラ画像データベース32A,32Cに蓄積されたフレーム画像データの画像処理により動線認識エリア(売場)内を移動する買物客を認識し、この買物客が動線認識エリアに進入した地点である始点から退出した地点である終点までの動線認識エリア内での軌跡を示す動線データを作成する。動線生成部33は、例えば前記特許文献1に記載された技術により、複数に途切れた同一買物客の動線を1本の動線に連結する機能を有している。   The flow line generation unit 33 recognizes a shopper moving in the flow line recognition area (sale floor) by image processing of the frame image data stored in the camera image databases 32A and 32C, and the shopper is in the flow line recognition area. The flow line data indicating the trajectory in the flow line recognition area from the start point that is the entry point to the end point that is the exit point is created. The flow line generation unit 33 has a function of connecting the flow lines of the same shopper who has been interrupted into a plurality of flow lines, for example, by the technique described in Patent Document 1.

動線データベース34A,34Cは、動線生成部33により買物客毎に生成される動線データを順次蓄積する。動線データベース34A,34Cに蓄積される動線データの構造を、図3の模式図で示す。図3に示すように、動線データは、動線IDが関連付けられて、動線データベース34A,34Cに記憶される。動線IDは、当該動線データを個々に特定するための動線特定情報である。動線生成部33は、買物客1名の動線データを生成する毎に、その動線データに固有の動線IDを付して、動線データベース34A,34Cに格納する。   The flow line databases 34 </ b> A and 34 </ b> C sequentially accumulate flow line data generated for each shopper by the flow line generation unit 33. The structure of the flow line data stored in the flow line databases 34A and 34C is shown in the schematic diagram of FIG. As shown in FIG. 3, the flow line data is stored in the flow line databases 34A and 34C in association with the flow line ID. The flow line ID is flow line specifying information for individually specifying the flow line data. Each time the flow line generation unit 33 generates the flow line data of one shopper, the flow line generation unit 33 attaches a unique flow line ID to the flow line data and stores them in the flow line databases 34A and 34C.

動線データは、始点フレーム“1”のフレーム番号、及び終点フレーム“n”(n>1の整数)のフレーム番号と、始点フレーム“1”から終点フレーム“n”までのフレーム毎のインデックスデータとから構成されている。インデックスデータは、少なくとも店内の三次元座標(X,Y,H)とフレーム撮影時刻Tとを含む。始点フレーム“1”番号は、当該動線データの買物客が最初に認識されたフレーム画像のフレーム番号であり、このフレーム画像の撮影時刻が始点フレーム“1”に対するインデックスデータのフレーム撮影時刻T1となる。終点フレーム“n”番号は、当該買物客が最後に認識されたフレーム画像のフレーム番号であり、このフレーム画像の撮影時刻が終点フレーム“n”に対するインデックスデータのフレーム撮影時刻Tnとなる。フレーム番号毎の店内座標は、対応するフレーム番号のフレーム画像から認識された当該顧客の位置を、三次元の世界座標系(X,Y,H)で特定したものである。本実施形態では、図4において、左下の角をX軸及びY軸の原点O(0,0)とし、その床面をH(Height)軸の原点としている。   The flow line data includes the frame number of the start point frame “1”, the frame number of the end point frame “n” (n> 1), and index data for each frame from the start point frame “1” to the end point frame “n”. It consists of and. The index data includes at least the three-dimensional coordinates (X, Y, H) in the store and the frame shooting time T. The start frame “1” number is the frame number of the frame image first recognized by the shopper of the flow line data, and the shooting time of this frame image is the frame shooting time T1 of the index data for the start frame “1”. Become. The end frame “n” number is the frame number of the frame image last recognized by the shopper, and the shooting time of this frame image is the frame shooting time Tn of the index data for the end frame “n”. The store coordinates for each frame number are obtained by specifying the position of the customer recognized from the frame image of the corresponding frame number in the three-dimensional world coordinate system (X, Y, H). In the present embodiment, in FIG. 4, the lower left corner is the origin O (0, 0) of the X and Y axes, and the floor is the origin of the H (Height) axis.

各動線認識システムSA,SCのカメラ2は、それぞれ対応する売場A,Cの天井部等に分散して取り付けられる。本実施形態では、説明の便宜上、図5の#1〜#6に示すレイアウトで、カメラ2が売場A,C毎に各6基ずつ取り付けられているものとする。   The cameras 2 of the respective flow line recognition systems SA and SC are attached in a distributed manner to the ceilings of the corresponding sales floors A and C, respectively. In this embodiment, for convenience of explanation, it is assumed that six cameras 2 are attached to each of the sales floors A and C in the layout shown in # 1 to # 6 of FIG.

本発明に係わる動線関連付け装置4の要部構成を、図1のブロック図にて示す。動線関連付け装置4は、入力部41、表示部42、データベースアクセス部43、プログラム記憶部44、データ記憶部45、関連付け動線ファイル46及び制御部47を備えている。入力部41は、キーボード,マウス等の入力デバイスからなる。表示部42は、液晶ディスプレイ,CRTディスプレイ等の表示デバイスからなる。タッチパネル付のディスプレイを用いることで、入力部と表示部を兼用してもよい。   The principal part structure of the flow line correlation apparatus 4 concerning this invention is shown with the block diagram of FIG. The flow line association apparatus 4 includes an input unit 41, a display unit 42, a database access unit 43, a program storage unit 44, a data storage unit 45, an association flow line file 46, and a control unit 47. The input unit 41 includes input devices such as a keyboard and a mouse. The display unit 42 includes a display device such as a liquid crystal display or a CRT display. By using a display with a touch panel, the input unit and the display unit may be combined.

データベースアクセス部43は、各動線認識システムSA,SCの動線認識装置3A,3Cがそれぞれ有する動線データベース34A,34Cとカメラ画像データベース32A,32Cにアクセスし、動線データやフレーム画像データを読取ったり書き込んだりできる。   The database access unit 43 accesses the flow line databases 34A and 34C and the camera image databases 32A and 32C respectively included in the flow line recognition devices 3A and 3C of the flow line recognition systems SA and SC, and receives the flow line data and frame image data. Can read and write.

プログラム記憶部44は、ROM(Read Only Memory)で構成されている。データ記憶部45は、RAM(Random Access Memory)で構成されている。関連付け動線ファイル46は、ハードディスクや光磁気ディスク等の記録媒体で構成されている。制御部47は、CPU(Central Processing Unit)を主体に構成されている。かかる構成の動線関連付け装置4は、パーソナルコンピュータ等のコンピュータ機器によって実現される。   The program storage unit 44 is composed of a ROM (Read Only Memory). The data storage unit 45 is composed of a RAM (Random Access Memory). The association flow line file 46 is composed of a recording medium such as a hard disk or a magneto-optical disk. The control unit 47 is configured mainly with a CPU (Central Processing Unit). The flow line association apparatus 4 having such a configuration is realized by a computer device such as a personal computer.

プログラム記憶部44には、コンピュータに、売場A(動線認識エリア)の動線認識システムSAによって認識された動線データと、売場Cの動線認識システムSCによって認識された動線データとの中から、売場A,C間を行き来した同一買物客の動線データを選出させて関連付けさせるプログラム、いわゆる動線関連付けプログラムが実装されている。制御部47は、上記動線関連付けプログラムに従い、動線データの関連付けを行う。   The program storage unit 44 stores the flow line data recognized by the flow line recognition system SA of the sales floor A (flow line recognition area) and the flow line data recognized by the flow line recognition system SC of the sales floor C. A program for selecting and associating the flow line data of the same shopper who goes back and forth between the sales floors A and C, a so-called flow line association program is installed. The control unit 47 associates flow line data according to the flow line association program.

以下、動線データの関連付け手順について、具体的に説明する。はじめに、各動線認識システムSA,SCの動線データベース34A,34Cに記憶される動線データについて説明する。   Hereinafter, a procedure for associating the flow line data will be specifically described. First, the flow line data stored in the flow line databases 34A and 34C of the flow line recognition systems SA and SC will be described.

動線認識システムSAに対応した動線認識装置3Aの動線データベース34Aには、買物客が売場Aに進入した地点である始点から退出した地点である終点までの売場A内での軌跡を示す動線データが蓄積される。買物客は、入退場口G1または売場A,B間の境界領域ABの通路若しくは売場D,A間の境界領域DAの通路から売場Aに進入及び退出できる。したがって、動線データベース34Aに蓄積される動線データは、次の9種類である。   In the flow line database 34A of the flow line recognition device 3A corresponding to the flow line recognition system SA, a trajectory in the sales floor A from the start point where the shopper enters the sales floor A to the end point where the shop exits is shown. Flow line data is accumulated. The shopper can enter and leave the sales floor A through the entrance / exit G1 or the passage in the boundary area AB between the sales floors A and B or the passage in the boundary area DA between the sales floors D and A. Therefore, the following nine types of flow line data are stored in the flow line database 34A.

1.入退場口G1から入店し、売場Aだけを回って入退場口G1から退店した買物客のデータ。 1. Data of a shopper who enters from the entrance / exit G1 and goes around the sales floor A and exits from the entrance / exit G1.

2.入退場口G1から入店し、境界領域ABの通路を通って売場Bに移動した買物客のデータ。 2. Data of a shopper who enters the store from the entrance / exit G1 and moves to the store B through the passage in the boundary area AB.

3.入退場口G1から入店し、境界領域DAの通路を通って売場Dに移動した買物客のデータ。 3. Data of a shopper who enters the store from the entrance / exit G1 and moves to the store D through the passage in the boundary area DA.

4.売場Bより境界領域ABの通路を通って売場Aに入り、再び境界領域ABの通路を通って売場Bに戻った買物客のデータ。 4). Data of a shopper who enters the sales floor A from the sales floor B through the boundary area AB and returns to the sales floor B through the boundary area AB.

5.売場Bより境界領域ABの通路を通って売場Aに入り、さらに境界領域DAの通路を通って売場Dに移動した買物客のデータ。 5. Data of a shopper who enters the sales floor A from the sales floor B through the passage in the boundary area AB and further moves to the sales floor D through the passage in the boundary area DA.

6.売場Bより境界領域ABの通路を通って売場Aに入り、入退場口G1から退店した買物客のデータ。 6). Data of a shopper who enters the sales floor A from the sales floor B through the passage in the boundary area AB and exits from the entrance / exit G1.

7.売場Dより境界領域DAの通路を通って売場Aに入り、再び境界領域DAの通路を通って売場Dに戻った買物客のデータ。 7). Data of a shopper who enters the sales floor A through the boundary area DA from the sales floor D and returns to the sales floor D through the boundary area DA again.

8.売場Dより境界領域DAの通路を通って売場Aに入り、さらに境界領域ABの通路を通って売場Bに移動した買物客のデータ。 8). Data of a shopper who enters the sales floor A from the sales floor D through the passage in the boundary area DA and further moves to the sales floor B through the passage in the boundary area AB.

9.売場Dより境界領域DAの通路を通って売場Aに入り、入退場口G1から退店した買物客のデータ。 9. Data of a shopper who enters the sales floor A from the sales floor D through the boundary area DA and exits from the entrance G1.

動線認識システム2Cに対応した動線認識装置3SCの動線データベース34Cには、買物客が売場Cに進入した地点である始点から退出した地点である終点までの売場C内での軌跡を示す動線データが蓄積される。買物客は、境界領域BCの通路または境界領域CDの通路から売場Cに進入及び退出できる。したがって、動線データベース34Cに蓄積される動線データは、次の4種類である。   The flow line database 34C of the flow line recognition device 3SC corresponding to the flow line recognition system 2C shows a trajectory in the sales floor C from the start point where the shopper enters the sales floor C to the end point where the shopper exits. Flow line data is accumulated. The shopper can enter and leave the sales floor C through the boundary area BC or the boundary area CD. Therefore, the flow line data stored in the flow line database 34C are the following four types.

1.売場Bより境界領域BCの通路を通って売場Cに入り、再び境界領域BCの通路を通って売場Bに戻った買物客のデータ。 1. Data of a shopper who enters the sales floor C from the sales floor B through the boundary area BC and returns to the sales floor B through the boundary area BC again.

2.売場Bより境界領域BCの通路を通って売場Cに入り、さらに境界領域CDの通路を通って売場Dに移動した買物客のデータ。 2. Data of a shopper who enters the sales floor C from the sales floor B through the passage in the boundary area BC and further moves to the sales floor D through the passage in the boundary area CD.

3.売場Dより境界領域CDの通路を通って売場Cに入り、再び境界領域CDの通路を通って売場Dに戻った買物客のデータ。 3. Data of a shopper who enters the sales floor C through the boundary area CD from the sales floor D and returns to the sales floor D through the boundary area CD again.

4.売場Dより境界領域CDの通路を通って売場Cに入り、さらに境界領域BCの通路を通って売場Bに移動した買物客のデータ。 4). Data of a shopper who enters the sales floor C from the sales floor D through the passage of the boundary area CD and further moves to the sales floor B through the passage of the boundary area BC.

ここで、買物客が売場Aと売場Cとの間を行き来するパターンとしては、境界領域ABの通路を通って売場Aから退場し、売場Bを経て境界領域BCの通路から売場Cに入場するパターンABC及びその逆のパターンCBAと、境界領域DAの通路を通って売場Aから退場し、売場Dを経て境界領域CDの通路から売場Cに入場するパターンADC及びその逆のパターンCDAの4パターンある。したがって、上記パターンABC,CBA,ADC,CDA毎に同一買物客の売場Aでの動線データと売場Cでの動線データとを関連付ければよい。   Here, as a pattern for the shopper to go back and forth between the sales floor A and the sales floor C, the shop exits from the sales floor A through the passage in the boundary area AB, and enters the sales floor C through the passage in the boundary area BC through the sales floor B. The pattern ABC and its reverse pattern CBA, and the pattern ADC that leaves the sales floor A through the passage of the boundary area DA, enters the sales floor C from the passage of the boundary area CD through the sales floor D, and the reverse pattern CDA. is there. Therefore, the flow line data at the sales floor A of the same shopper and the flow line data at the sales floor C may be associated with each of the patterns ABC, CBA, ADC, and CDA.

そこで、動線関連付け装置4は、第1の動線データベース34Aに記憶された各動線データの中から第1の画像監視エリア内に位置した買物客の動線データを選択する(第1の動線選択段階)。そして、この選択された動線データに対応する買物客が第1の画像監視エリア内に位置する時点のカメラ画像データを第1の画像データベース32Aから選択する(第1の画像選択段階)。そして、この選択されたカメラ画像データから買物客の画像を抽出する(第1の移動体画像抽出段階)。次に、第2の動線データベース34Cに記憶された各動線データの中から第2の画像監視エリア内に位置する買物客の動線データを選択する(第2の動線選択段階)。そして、この動線データに対応する買物客が第2の画像監視エリア内に位置する時点のカメラ画像データを第2の画像データベース32Cから選択する(第2の画像選択段階)。そして、この選択されたカメラ画像データから買物客の画像を抽出する(第2の移動体画像抽出段階)。第1の移動体画像抽出段階により抽出された買物客画像と第2の移動体画像抽出段階により抽出された買物客画像とを照合して各画像の買物客が同一人物か否かを判定する(移動体同定段階)。買物客が同一人物であると判定されると、第1の動線選択段階により選択された動線データの少なくとも識別情報に対応させて、第2の動線選択段階により選択された動線データの少なくとも識別情報を記憶する(動線関連付け段階)。かくして、第1の動線データベース34Aに記憶された各買物客の動線データと第2の動線データベース34Cに記憶された各買物客の動線データとのなかから、同一買物客の動線データどうしを関連付ける。   Therefore, the flow line association device 4 selects the flow line data of the shopper located in the first image monitoring area from the respective flow line data stored in the first flow line database 34A (the first flow line database 34A). Flow line selection stage). Then, the camera image data at the time when the shopper corresponding to the selected flow line data is located in the first image monitoring area is selected from the first image database 32A (first image selection stage). Then, a shopper's image is extracted from the selected camera image data (first moving body image extraction stage). Next, the flow line data of the shopper located in the second image monitoring area is selected from the flow line data stored in the second flow line database 34C (second flow line selection stage). Then, the camera image data at the time when the shopper corresponding to the flow line data is located in the second image monitoring area is selected from the second image database 32C (second image selection stage). Then, a shopper's image is extracted from the selected camera image data (second moving body image extraction stage). The shopper image extracted in the first moving body image extraction step and the shopper image extracted in the second moving body image extraction step are collated to determine whether the shopper of each image is the same person or not. (Moving object identification stage). When it is determined that the shopper is the same person, the flow line data selected by the second flow line selection step in correspondence with at least the identification information of the flow line data selected by the first flow line selection step. At least identification information is stored (flow line association step). Thus, the flow line of the same shopper is obtained from the flow line data of each shopper stored in the first flow line database 34A and the flow line data of each shopper stored in the second flow line database 34C. Associate data with each other.

このような動線関連付け処理を実現するために、動線関連付け装置4は、図6に示すデータ構造の設定テーブル5を備えている。設定テーブル5は、制御部47が内蔵するメモリに記憶されていてもよいし、データ記憶部45に記憶されていてもよい。図6の設定テーブル5は、図5に示すカメラレイアウトに対応している。   In order to realize such a flow line association process, the flow line association apparatus 4 includes a data structure setting table 5 shown in FIG. The setting table 5 may be stored in a memory built in the control unit 47 or may be stored in the data storage unit 45. The setting table 5 in FIG. 6 corresponds to the camera layout shown in FIG.

図5の場合、売場Aと売場Bとの間の矩形の境界領域ABを撮影可能なカメラ2は、動線認識システムSAの#3,#6の2台である。売場Bと売場Cとの間の矩形の境界領域BCを撮影可能なカメラ2は、動線認識システムSCの#4,#5,#6の3台である。売場Cと売場Dとの間の矩形の境界領域CDを撮影可能なカメラ2は、動線認識システムSCの#1,#4の2台である。売場Dと売場Aとの間の矩形の境界領域DAを撮影可能なカメラ2は、動線認識システムSAの#1,#2,#3の3台である。   In the case of FIG. 5, there are two cameras 2 # 3 and # 6 of the flow line recognition system SA that can photograph the rectangular boundary area AB between the sales floor A and the sales floor B. There are three cameras 2, # 4, # 5, and # 6 of the flow line recognition system SC that can photograph the rectangular boundary region BC between the sales floor B and the sales floor C. The cameras 2 capable of photographing the rectangular boundary area CD between the sales floor C and the sales floor D are the two cameras # 1 and # 4 of the flow line recognition system SC. The cameras 2 that can photograph the rectangular boundary area DA between the sales floor D and the sales floor A are the three cameras # 1, # 2, and # 3 of the flow line recognition system SA.

設定テーブル5には、境界領域を特定する情報(項目「境界領域」)に対応して、その領域の左上角の二次元座標(項目「左上座標」)及び右下角の二次元座標(項目「右下座標」)と、その境界領域を撮影可能なカメラを有する動線認識システムの識別情報(項目「対象システム」)及びそのカメラの特定情報(項目「判定用カメラ」)とが設定されている。   In the setting table 5, the two-dimensional coordinates of the upper left corner of the area (item “upper left coordinate”) and the two-dimensional coordinates of the lower right corner (item “item“ Lower right coordinates "), identification information (item" target system ") of a flow line recognition system having a camera capable of photographing the boundary area, and specific information of the camera (item" judgment camera ") are set. Yes.

また、動線関連付け装置4は、関連付けた動線のデータを関連付け動線ファイル46で保存する。関連付け動線ファイル46は、図7に示すように、固有の関連付け動線ID(項目「関連付け動線ID」)に対応して、動線認識システムSAの動線を特定するための動線ID(項目「SA動線ID」)と、この動線IDに関連付けられる動線認識システムSAの動線を特定するための動線ID(項目「SA動線ID」)と、売場Aと売場Cとの間の移動に要した時間情報(項目「移動所要時間」)とを記録可能となっている。   Further, the flow line association device 4 stores the associated flow line data in the association flow line file 46. As shown in FIG. 7, the association flow line file 46 corresponds to a unique association flow line ID (item “association flow line ID”), and a flow line ID for specifying a flow line of the flow line recognition system SA. (Item “SA flow line ID”), flow line ID (item “SA flow line ID”) for specifying the flow line of the flow line recognition system SA associated with this flow line ID, sales floor A and sales floor C It is possible to record time information (item “time required for movement”) required for movement between the two.

例えば入力部41の操作入力により、動線関連付け業務の開始が指令されると、動線関連付けプログラムが起動する。これにより、制御部47は、図8の流れ図に示す手順で各部を制御する。   For example, when the start of a flow line association job is instructed by an operation input of the input unit 41, the flow line association program is activated. Thereby, the control part 47 controls each part in the procedure shown in the flowchart of FIG.

先ず、ST(ステップ)1として、制御部47は、関連付け方向を判別する。例えば入力部41の操作入力により、売場Aから売場Cに移動した買物客の動線関連付け処理が指定された場合には、ST11〜ST18の処理を実行する。売場Cから売場Aに移動した買物客の動線関連付け処理が指定された場合には、ST21〜ST28の処理を実行する。   First, as ST (step) 1, the control unit 47 determines the association direction. For example, when the flow line association process of the shopper who moved from the sales floor A to the sales floor C is designated by the operation input of the input unit 41, the processes of ST11 to ST18 are executed. When the flow line association processing of the shopper who has moved from the sales floor C to the sales floor A is designated, the processing of ST21 to ST28 is executed.

売場Aから売場Cに移動する買物客のパターンには、前記パターンABCとパターンADCとがある。そこで、先ず、パターンABCの買物客の売場Aでの動線データと売場Cでの動線データとを関連付ける処理を実行する。   The patterns of the shopper who moves from the sales floor A to the sales floor C include the pattern ABC and the pattern ADC. Therefore, first, a process of associating the flow line data at the sales floor A of the shopper with the pattern ABC and the flow line data at the sales floor C is executed.

すなわち制御部47は、ST11として動線認識システムSAの動線データベース34Aから、境界領域ABの通路を通って売場Aから退場した客の動線データPを選択する(動線P選択処理)。また、ST12として動線認識システムSCの動線データベース34Cから、境界領域BCの通路を通って売場Cに入場した客の動線データQを選択する(動線Q選択処理)。そして、ST13として動線データPと動線データQとをそれぞれ少なくとも1データ以上選択できたか否かを判断する。選択できた場合(ST13のYES)、制御部47は、ST14として動線データPと動線データQの関連付けを行う(動線関連付け処理)。選択できなかった場合には(ST13のNO)、ST14の動線関連付け処理は行われない。   That is, the control unit 47 selects the flow line data P of the customer who has left the sales floor A through the passage of the boundary area AB from the flow line database 34A of the flow line recognition system SA as ST11 (flow line P selection process). Further, as ST12, the flow line database 34C of the flow line recognition system SC selects the flow line data Q of the customer who has entered the sales floor C through the passage of the boundary region BC (flow line Q selection process). In ST13, it is determined whether or not at least one of the flow line data P and the flow line data Q has been selected. If it can be selected (YES in ST13), the controller 47 associates the flow line data P with the flow line data Q in ST14 (flow line association process). If it cannot be selected (NO in ST13), the flow line association process in ST14 is not performed.

次に、パターンADCの買物客の売場Aでの動線データと売場Cでの動線データとを関連付ける処理を実行する。   Next, a process of associating the flow line data at the sales floor A of the customer with the pattern ADC and the flow line data at the sales floor C is executed.

すなわち制御部47は、ST15として動線認識システムSAの動線データベース34Aから、境界領域DAの通路を通って売場Aから退場した客の動線データPを選択する(動線P選択処理)。また、ST16として動線認識システムSCの動線データベース34Cから、境界領域CDを通って売場Cに入場した客の動線データQを選択する(動線Q選択処理)。そして、ST17として動線データPと動線データQとをそれぞれ少なくとも1データ以上選択できたか否かを判断する。選択できた場合(ST17のYES)、制御部47は、ST18として動線データPと動線データQの関連付けを行う(動線関連付け処理)。選択できなかった場合には(ST17のNO)、ST18の動線関連付け処理は行われない。以上で、動線関連付けプログラムは終了する。   That is, the control unit 47 selects the flow line data P of the customer who has left the sales floor A through the passage of the boundary area DA from the flow line database 34A of the flow line recognition system SA in ST15 (flow line P selection process). In ST16, the flow line data Q of the customer who has entered the sales floor C through the boundary area CD is selected from the flow line database 34C of the flow line recognition system SC (flow line Q selection process). In ST17, it is determined whether or not at least one of the flow line data P and the flow line data Q has been selected. If it can be selected (YES in ST17), the controller 47 associates the flow line data P with the flow line data Q in ST18 (flow line association process). If it cannot be selected (NO in ST17), the flow line association process in ST18 is not performed. This is the end of the flow line association program.

売場Cから売場Aに移動する買物客のパターンには、前記パターンCBAとパターンCDAとがある。そこで、先ず、パターンCBAの買物客の売場Cでの動線データと売場Aでの動線データとを関連付ける処理を実行する。   The patterns of the shopper who moves from the sales floor C to the sales floor A include the pattern CBA and the pattern CDA. Therefore, first, a process of associating the flow line data at the sales floor C of the shopper with the pattern CBA and the flow line data at the sales floor A is executed.

すなわち制御部47は、ST21として動線認識システムSCの動線データベース34Cから、境界領域BCの通路を通って売場Cから退場した客の動線データPを選択する(動線P選択処理)。また、ST22として動線認識システムSAの動線データベース34Aから、境界領域ABの通路を通って売場Aに入場した客の動線データQを選択する(動線Q選択処理)。そして、ST23として動線データPと動線データQとをそれぞれ少なくとも1データ以上選択できたか否かを判断する。選択できた場合(ST23のYES)、制御部47は、ST24として動線データPと動線データQの関連付けを行う(動線関連付け処理)。選択できなかった場合には(ST23のNO)、ST24の動線関連付け処理は行われない。   That is, the control unit 47 selects the flow line data P of the customer who has left the sales floor C through the passage of the boundary area BC from the flow line database 34C of the flow line recognition system SC as ST21 (flow line P selection process). In ST22, the flow line data Q of the customer who has entered the sales floor A through the passage in the boundary area AB is selected from the flow line database 34A of the flow line recognition system SA (flow line Q selection process). In ST23, it is determined whether or not at least one of the flow line data P and the flow line data Q has been selected. If it can be selected (YES in ST23), the controller 47 associates the flow line data P with the flow line data Q in ST24 (flow line association process). If it cannot be selected (NO in ST23), the flow line association process in ST24 is not performed.

次に、パターンCDAの買物客の売場Cでの動線データと売場Aでの動線データとを関連付ける処理を実行する。   Next, a process of associating the flow line data at the sales floor C of the shopper with the pattern CDA and the flow line data at the sales floor A is executed.

すなわち制御部47は、ST25として動線認識システムSCの動線データベース34Cから、境界領域CDの通路を通って売場Cから退場した客の動線データPを選択する(動線P選択処理)。また、ST26として動線認識システムSAの動線データベース34Aから、境界領域DAを通って売場Aに入場した客の動線データQを選択する(動線Q選択処理)。そして、ST27として動線データPと動線データQとをそれぞれ少なくとも1データ以上選択できたか否かを判断する。選択できた場合(ST27のYES)、制御部47は、ST28として動線データPと動線データQの関連付けを行う(動線関連付け処理)。選択できなかった場合には(ST27のNO)、ST28の動線関連付け処理は行われない。以上で、動線関連付けプログラムは終了する。   That is, the control unit 47 selects the flow line data P of the customer who has left the sales floor C through the passage of the boundary area CD from the flow line database 34C of the flow line recognition system SC as ST25 (flow line P selection process). In ST26, the flow line data Q of the customer who has entered the sales floor A through the boundary area DA is selected from the flow line database 34A of the flow line recognition system SA (flow line Q selection process). In ST27, it is determined whether or not at least one of the flow line data P and the flow line data Q has been selected. If it can be selected (YES in ST27), the controller 47 associates the flow line data P with the flow line data Q in ST28 (flow line association process). If it cannot be selected (NO in ST27), the flow line association process in ST28 is not performed. This is the end of the flow line association program.

図9は、前記ST11、ST15、ST21及びST25の動線P選択処理の手順を具体的に示す流れ図である。各ステップの処理は、対象となる動線認識システムが異なるだけで手順は同一なので、図9を用いてまとめて説明する。   FIG. 9 is a flowchart specifically showing the flow line P selection process in ST11, ST15, ST21 and ST25. Since the process of each step is the same except that the target flow line recognition system is different, it will be described collectively with reference to FIG.

動線P選択処理が開始されると、制御部47は、先ず、ST31としてデータ数カウンタm1を“0”にリセットする。また、ST32としてポインタpを“0”にリセットする。次に、ST33として上記ポインタpを“1”だけ増加する。そして、ST34としてポインタpが、対象となる動線認識システム(ST11,ST15では動線認識システムSA、ST21,ST25では動線認識システムSC)の動線データベース(ST11,ST15では動線データベース34A、ST21,ST25では動線データベース34C)に保存されている動線データの総数を超えたか否かを判断する。   When the flow line P selection process is started, the control unit 47 first resets the data number counter m1 to “0” as ST31. In ST32, the pointer p is reset to “0”. Next, in ST33, the pointer p is increased by "1". Then, as ST34, the pointer p is changed to the flow line database (the flow line database 34A in ST11 and ST15, the flow line recognition system SA in ST11 and ST15, and the flow line recognition system SC in ST21 and ST25). In ST21 and ST25, it is determined whether or not the total number of flow line data stored in the flow line database 34C) has been exceeded.

この時点では、未だ超えていないので、制御部47は、ST35として上記対象システムSAまたはSCの動線データベース34Aまたは34Cから、ポインタpが示す動線データ(以下、p番目動線データと称する)を取り込む。そして、ST36として、このp番目動線データから終点インデックス情報の二次元座標(Xn,Yn)を検出する。   At this time, since it has not exceeded yet, the control unit 47 sends the flow line data indicated by the pointer p from the flow line database 34A or 34C of the target system SA or SC as ST35 (hereinafter referred to as p-th flow line data). Capture. In ST36, the two-dimensional coordinates (Xn, Yn) of the end point index information are detected from the p-th flow line data.

次に、制御部47は、ST37として設定テーブル5から比較対象となる境界領域(ST11では境界領域AB、ST15では境界領域DA、ST21では境界領域BC、ST25では境界領域CD)に対応して設定されている左上座標及び右下座標のデータを読み出す。そして、これらの座標データと、ST36の処理で検出した終点インデックス情報の二次元座標(Xn,Yn)とを照合して、当該二次元座標(Xn,Yn)によって示される位置が、比較対象となる境界領域AB,DA,BCまたはCDの内側か否かを判断する(第1の動線選択手段)。   Next, the control unit 47 sets in ST37 corresponding to the comparison target boundary area (the boundary area AB in ST11, the boundary area DA in ST15, the boundary area BC in ST21, and the boundary area CD in ST25). The upper left coordinate and lower right coordinate data are read out. Then, these coordinate data are compared with the two-dimensional coordinates (Xn, Yn) of the end point index information detected in the process of ST36, and the position indicated by the two-dimensional coordinates (Xn, Yn) It is determined whether or not the boundary area is AB, DA, BC or CD (first flow line selection means).

例えば、比較対象となる境界領域が領域ABの場合、左上座標は(X1,Y1)であり、右下座標は(X2,Y2)である。したがって、終点二次元座標(Xn,Yn)の“Xn”がX1≦Xn≦X2の関係にあり、かつ、“Yn”がY1≧Yn≧Y2の関係にあるとき、終点二次元座標(Xn,Yn)は境界領域ABの内側であると判定される。同様に、境界領域DAの場合は、終点二次元座標(Xn,Yn)の“Xn”がX7≦Xn≦X8の関係にあり、かつ、“Yn”がY7≧Yn≧Y8の関係にあるとき、終点二次元座標(Xn,Yn)は境界領域DAの内側であると判定され、境界領域BCの場合は、終点二次元座標(Xn,Yn)の“Xn”がX3≦Xn≦X4の関係にあり、かつ、“Yn”がY3≧Yn≧Y4の関係にあるとき、終点二次元座標(Xn,Yn)は境界領域BCの内側であると判定され、境界領域CDの場合は、終点二次元座標(Xn,Yn)の“Xn”がX5≦Xn≦X6の関係にあり、かつ、“Yn”がY5≧Yn≧Y6の関係にあるとき、終点二次元座標(Xn,Yn)は境界領域DAの内側であると判定される。   For example, when the boundary area to be compared is the area AB, the upper left coordinates are (X1, Y1) and the lower right coordinates are (X2, Y2). Therefore, when “Xn” of the end point two-dimensional coordinates (Xn, Yn) has a relationship of X1 ≦ Xn ≦ X2 and “Yn” has a relationship of Y1 ≧ Yn ≧ Y2, the end point two-dimensional coordinates (Xn, Yn) is determined to be inside the boundary area AB. Similarly, in the case of the boundary area DA, when “Xn” of the end point two-dimensional coordinates (Xn, Yn) has a relationship of X7 ≦ Xn ≦ X8 and “Yn” has a relationship of Y7 ≧ Yn ≧ Y8. , The end point two-dimensional coordinates (Xn, Yn) are determined to be inside the boundary area DA. In the case of the boundary area BC, the relationship “Xn” of the end point two-dimensional coordinates (Xn, Yn) satisfies X3 ≦ Xn ≦ X4. And “Yn” is in the relationship of Y3 ≧ Yn ≧ Y4, the end point two-dimensional coordinates (Xn, Yn) are determined to be inside the boundary region BC. When “Xn” of the dimensional coordinates (Xn, Yn) has a relationship of X5 ≦ Xn ≦ X6 and “Yn” has a relationship of Y5 ≧ Yn ≧ Y6, the end point two-dimensional coordinate (Xn, Yn) is a boundary. It is determined that it is inside the area DA.

終点二次元座標(Xn,Yn)によって示される位置が、比較対象となる境界領域AB,DA,BCまたはCDの内側でないと判定された場合、制御部47は、ST33の処理に戻る。そして、ポインタpをさらに“1”だけ増加させて、ST34以降の処理を再度実行する。   If it is determined that the position indicated by the end point two-dimensional coordinates (Xn, Yn) is not inside the boundary region AB, DA, BC or CD to be compared, the control unit 47 returns to the process of ST33. Then, the pointer p is further increased by “1”, and the processes after ST34 are executed again.

一方、終点二次元座標(Xn,Yn)によって示される位置が、比較対象となる境界領域AB,DA,BCまたはCDの内側であると判定された場合には、制御部47は、ST38としてp番目動線データから終点フレームn番号を取得する。次いで、ST39として設定テーブル5から比較対象となる境界領域に対応して設定されている対象システムの情報と判定用カメラの情報とを取得する。そして、対象システムの画像データベース(ST11,ST15では画像データベース32A、ST21,ST25では画像データベース32C)から、上記判定用カメラにて撮影されたフレーム画像データの中で、ST38の処理で検出した終点フレームn番号が割り当てられて保存された画像データを取り込む(第1の画像選択手段)。   On the other hand, when it is determined that the position indicated by the end point two-dimensional coordinates (Xn, Yn) is inside the boundary region AB, DA, BC or CD to be compared, the control unit 47 sets p38 as ST38. The end frame n number is obtained from the second flow line data. Next, in ST39, the information of the target system and the information of the determination camera set corresponding to the boundary region to be compared are acquired from the setting table 5. Then, from the image database of the target system (the image database 32A in ST11 and ST15, and the image database 32C in ST21 and ST25), the end point frame detected in the process of ST38 among the frame image data photographed by the determination camera. The image data assigned with the n number and stored is taken in (first image selection means).

次に、制御部47は、ST40として画像データベース32Aまたは32Cから取り込んだ終点フレームn番号のフレーム画像データを解析して、これらの画像データから人物画像を抽出する(第1の移動体画像抽出手段)。そして、人物画像を抽出できたならば、制御部47は、ST41としてp番目動線データの動線ID、及び、終点を示すフレームnインデックス情報と、抽出された人物画像のデータとを関連付けた1レコードを生成し、データ記憶部45上の第1動線メモリに記憶させる。また、ST42として前記データ数カウンタm1を“1”だけカウントアップする。しかる後、制御部47は、ST33の処理に戻る。そして、ポインタpをさらに“1”だけ増加させて、ST34以降の処理を再度実行する。   Next, the control unit 47 analyzes the frame image data of the end frame n number fetched from the image database 32A or 32C in ST40, and extracts a person image from these image data (first moving body image extracting means) ). If the person image can be extracted, the control unit 47 associates the flow line ID of the p-th flow line data and the frame n index information indicating the end point with the extracted human image data in ST41. One record is generated and stored in the first flow line memory on the data storage unit 45. In ST42, the data number counter m1 is incremented by "1". Thereafter, the control unit 47 returns to the process of ST33. Then, the pointer p is further increased by “1”, and the processes after ST34 are executed again.

こうして、ポインタpが対象となる動線認識システムの動線データベース34Aまたは34Cに保存されている動線データの総数を超えるまで、制御部47は、ポインタpを繰り上げる毎にST35〜ST42の処理を繰返し実行する。ポインタpが動線データの総数を超えると、動線P選択処理は終了する。   Thus, the control unit 47 performs the processes of ST35 to ST42 every time the pointer p is moved up until the pointer p exceeds the total number of the flow line data stored in the flow line database 34A or 34C of the target flow line recognition system. Execute repeatedly. When the pointer p exceeds the total number of flow line data, the flow line P selection process ends.

かかる手順の動線P選択処理を実行することにより、ST11では、境界領域ABを終点とする動線データの動線ID及び終点インデックス情報と人物画像のデータとが第1動線メモリに記憶される。人物画像のデータは、この動線データの終点が境界領域ABに達した時点において、動線認識システムSAの各カメラ2のうち、#3及び#6で特定されるカメラによって撮影された画像から抽出される。ST15では、境界領域DAを終点とする動線データの動線ID及び終点インデックス情報と人物画像のデータとが第1動線メモリに記憶される。人物画像のデータは、この動線データの終点が境界領域DAに達した時点において、動線認識システムSAの各カメラ2のうち、#1,#2及び#3で特定されるカメラによって撮影された画像から抽出される。ST21では、境界領域BCを終点とする動線データの動線ID及び終点インデックス情報と人物画像のデータとが第1動線メモリに記憶される。人物画像のデータは、この動線データの終点が境界領域BCに達した時点において、動線認識システムSCの各カメラ2のうち、#4,#5及び#6で特定されるカメラによって撮影された画像から抽出される。ST25では、境界領域CDを終点とする動線データの動線ID及び終点インデックス情報と人物画像のデータとが第1動線メモリに記憶される。人物画像のデータは、この動線データの終点が境界領域CDに達した時点において、動線認識システムSCの各カメラ2のうち、#1及び#4で特定されるカメラによって撮影された画像から抽出される。   By executing the flow line P selection process of this procedure, in ST11, the flow line ID and end point index information of the flow line data having the boundary area AB as the end point and the person image data are stored in the first flow line memory. The The human image data is obtained from images taken by the cameras identified by # 3 and # 6 among the cameras 2 of the flow line recognition system SA when the end point of the flow line data reaches the boundary area AB. Extracted. In ST15, the flow line ID and end point index information of the flow line data having the boundary area DA as the end point, and the person image data are stored in the first flow line memory. The human image data is taken by the cameras identified by # 1, # 2 and # 3 among the cameras 2 of the flow line recognition system SA when the end point of the flow line data reaches the boundary area DA. Extracted from images. In ST21, the flow line ID and end point index information of the flow line data having the boundary region BC as the end point and the person image data are stored in the first flow line memory. The human image data is captured by the cameras identified by # 4, # 5, and # 6 among the cameras 2 of the flow line recognition system SC when the end point of the flow line data reaches the boundary region BC. Extracted from images. In ST25, the flow line ID and end point index information of the flow line data having the boundary region CD as the end point and the person image data are stored in the first flow line memory. The human image data is obtained from images taken by the cameras identified by # 1 and # 4 among the cameras 2 of the flow line recognition system SC when the end point of the flow line data reaches the boundary region CD. Extracted.

図10は、前記ST12、ST16、ST22及びST26の動線Q選択処理の手順を具体的に示す流れ図である。各ステップの処理は、対象となる動線認識システムが異なるだけで手順は同一なので、図10を用いてまとめて説明する。   FIG. 10 is a flowchart specifically showing the procedure of the flow line Q selection process in ST12, ST16, ST22 and ST26. Since the procedure of each step is the same except that the target flow line recognition system is different, it will be described collectively with reference to FIG.

動線Q選択処理が開始されると、制御部47は、先ず、ST51としてデータ数カウンタm2を“0”にリセットする。また、ST52としてポインタqを“0”にリセットする。次に、ST53として上記ポインタqを“1”だけ増加する。そして、ST54としてポインタqが、対象となる動線認識システム(ST12,ST16では動線認識システムSC、ST22,ST26では動線認識システムSA)の動線データベース(ST12,ST16では動線データベース34C、ST22,ST26では動線データベース34A)に保存されている動線データの総数を超えたか否かを判断する。   When the flow line Q selection process is started, the control unit 47 first resets the data number counter m2 to “0” in ST51. In ST52, the pointer q is reset to “0”. Next, in ST53, the pointer q is incremented by “1”. Then, as ST54, the pointer q becomes the flow line database (the flow line database 34C in ST12 and ST16) of the target flow line recognition system (the flow line recognition system SC in ST12 and ST16, and the flow line recognition system SA in ST22 and ST26). In ST22 and ST26, it is determined whether or not the total number of flow line data stored in the flow line database 34A) has been exceeded.

この時点では、未だ超えていないので、制御部47は、ST55として上記対象システムSCまたはSAの動線データベース34Cまたは34Aから、ポインタqが示す動線データ(以下、q番目動線データと称する)を取り込む。そして、ST56として、このq番目動線データから始点インデックス情報の二次元座標(X1,Y1)を検出する。   At this point, since it has not yet exceeded, the control unit 47 sends the flow line data indicated by the pointer q from the flow line database 34C or 34A of the target system SC or SA as ST55 (hereinafter referred to as qth flow line data). Capture. In ST56, the two-dimensional coordinates (X1, Y1) of the starting point index information are detected from the q-th flow line data.

次に、制御部47は、ST57として設定テーブル5から比較対象となる境界領域(ST12では境界領域BC、ST16では境界領域CD、ST22では境界領域AB、ST26では境界領域DA)に対応して設定されている左上座標及び右下座標のデータを読み出す。そして前記ST36の処理と同様に、これらの座標データと、ST56の処理で検出した始点インデックス情報の二次元座標(X1,Y1)とを照合して、当該二次元座標(X1,Y1)によって示される位置が、比較対象となる境界領域BC,CD,ABまたはDAの内側か否かを判断する(第2の動線選択手段)。   Next, the control unit 47 sets, in ST57, from the setting table 5 corresponding to the boundary area to be compared (the boundary area BC in ST12, the boundary area CD in ST16, the boundary area AB in ST22, and the boundary area DA in ST26). The upper left coordinate and lower right coordinate data are read out. Similar to the process of ST36, these coordinate data and the two-dimensional coordinates (X1, Y1) of the starting point index information detected by the process of ST56 are collated and indicated by the two-dimensional coordinates (X1, Y1). It is determined whether the position to be detected is inside the boundary region BC, CD, AB or DA to be compared (second flow line selecting means).

始点二次元座標(X1,Y1)によって示される位置が、比較対象となる境界領域BC,CD,ABまたはDAの内側でないと判定された場合、制御部47は、ST53の処理に戻る。そして、ポインタqをさらに“1”だけ増加させて、ST54以降の処理を再度実行する。   When it is determined that the position indicated by the start point two-dimensional coordinates (X1, Y1) is not inside the boundary region BC, CD, AB or DA to be compared, the control unit 47 returns to the process of ST53. Then, the pointer q is further increased by “1”, and the processing after ST54 is executed again.

一方、始点二次元座標(X1,Y1)によって示される位置が、比較対象となる境界領域BC,CD,ABまたはDAの内側であると判定された場合には、制御部47は、ST58としてq番目動線データから始点フレーム1番号を取得する。次いで、ST59として設定テーブル5から比較対象となる境界領域に対応して設定されている対象システムの情報と判定用カメラの情報とを取得する。そして、対象システムの画像データベース(ST12,ST16では画像データベース32C、ST22,ST26では画像データベース32A)から、上記判定用カメラにて撮影されたフレーム画像データの中で、ST58の処理で検出した始点フレーム1番号が割り当てられて保存された画像データを取り込む(第2の画像選択手段)。   On the other hand, when it is determined that the position indicated by the start point two-dimensional coordinates (X1, Y1) is inside the boundary region BC, CD, AB or DA to be compared, the control unit 47 sets q as ST58. The starting point frame 1 number is obtained from the second flow line data. Next, in ST59, information on the target system and information on the determination camera set corresponding to the boundary region to be compared are acquired from the setting table 5. Then, from the image database of the target system (the image database 32C in ST12 and ST16, the image database 32A in ST22 and ST26), the start frame detected in the process of ST58 in the frame image data photographed by the determination camera. The image data assigned with the number 1 and stored is taken in (second image selection means).

次に、制御部47は、ST60として画像データベース32Cまたは32Aから取り込んだ始点フレーム1番号のフレーム画像データを解析して、これらの画像データから人物画像を抽出する(第2の移動体画像抽出手段)。そして、人物画像を抽出できたならば、制御部47は、ST61としてq番目動線データの動線ID、及び、始点を示すフレーム1インデックス情報と、抽出された人物画像のデータとを関連付けた1レコードを生成し、データ記憶部45上の第2動線メモリに記憶させる。また、ST62として前記データ数カウンタm2を“1”だけカウントアップする。しかる後、制御部47は、ST53の処理に戻る。そして、ポインタqをさらに“1”だけ増加させて、ST54以降の処理を再度実行する。   Next, the control unit 47 analyzes the frame image data of the starting point frame 1 number fetched from the image database 32C or 32A as ST60, and extracts a person image from these image data (second moving body image extracting means). ). If the person image can be extracted, the control unit 47 associates the flow line ID of the qth flow line data and the frame 1 index information indicating the start point with the extracted human image data in ST61. One record is generated and stored in the second flow line memory on the data storage unit 45. In ST62, the data number counter m2 is incremented by "1". Thereafter, the control unit 47 returns to the process of ST53. Then, the pointer q is further increased by “1”, and the processing after ST54 is executed again.

こうして、ポインタqが対象となる動線認識システムの動線データベース34Cまたは34Aに保存されている動線データの総数を超えるまで、制御部47は、ポインタqを繰り上げる毎にST55〜ST62の処理を繰返し実行する。ポインタqが動線データの総数を超えると、動線Q選択処理は終了する。   In this way, the control unit 47 performs the processing of ST55 to ST62 every time the pointer q is raised until the pointer q exceeds the total number of flow line data stored in the flow line database 34C or 34A of the target flow line recognition system. Execute repeatedly. When the pointer q exceeds the total number of flow line data, the flow line Q selection process ends.

かかる手順の動線Q選択処理を実行することにより、ST12では、境界領域BCを始点とする動線データの動線ID及び始点インデックス情報と人物画像のデータとが第2動線メモリに記憶される。人物画像のデータは、この動線データの始点が境界領域BCにて検知された時点において、動線認識システムSCの各カメラ2のうち、#4,#5及び#6で特定されるカメラによって撮影された画像から抽出される。ST16では、境界領域CDを始点とする動線データの動線ID及び始点インデックス情報と人物画像のデータとが第2動線メモリに記憶される。人物画像のデータは、この動線データの始点が境界領域CDで検知された時点において、動線認識システムSCの各カメラ2のうち、#1及び#4で特定されるカメラによって撮影された画像から抽出される。ST22では、境界領域ABを始点とする動線データの動線ID及び始点インデックス情報と人物画像のデータとが第2動線メモリに記憶される。人物画像のデータは、この動線データの始点が境界領域ABで検知された時点において、動線認識システムSAの各カメラ2のうち、#3及び#6で特定されるカメラによって撮影された画像から抽出される。ST26では、境界領域DAを始点とする動線データの動線ID及び始点インデックス情報と人物画像のデータとが第2動線メモリに記憶される。人物画像のデータは、この動線データの始点が境界領域DAで検知された時点において、動線認識システムSAの各カメラ2のうち、#1,#2及び#3で特定されるカメラによって撮影された画像から抽出される。   By executing the flow line Q selection process of such a procedure, in ST12, the flow line ID and start point index information of the flow line data starting from the boundary area BC and the data of the person image are stored in the second flow line memory. The The human image data is obtained by the cameras identified by # 4, # 5, and # 6 among the cameras 2 of the flow line recognition system SC at the time when the start point of the flow line data is detected in the boundary region BC. Extracted from the captured image. In ST16, the flow line ID and start point index information of the flow line data starting from the boundary region CD and the data of the person image are stored in the second flow line memory. The human image data is an image taken by the camera identified by # 1 and # 4 among the cameras 2 of the flow line recognition system SC at the time when the start point of the flow line data is detected in the boundary region CD. Extracted from In ST22, the flow line ID and start point index information of the flow line data starting from the boundary area AB and the person image data are stored in the second flow line memory. The human image data is an image taken by the camera identified by # 3 and # 6 among the cameras 2 of the flow line recognition system SA when the start point of the flow line data is detected in the boundary area AB. Extracted from In ST26, the flow line ID and start point index information of the flow line data starting from the boundary area DA and the data of the person image are stored in the second flow line memory. The human image data is captured by the cameras identified by # 1, # 2, and # 3 among the cameras 2 of the flow line recognition system SA when the start point of the flow line data is detected in the boundary area DA. Extracted from the processed image.

図11は、前記ST14、ST18、ST24及びST28の動線関連付け処理の手順を具体的に示す流れ図である。各ステップの処理手順は同一なので、図11を用いてまとめて説明する。   FIG. 11 is a flowchart specifically showing the flow line association processing procedure of ST14, ST18, ST24 and ST28. Since the processing procedure of each step is the same, it will be described collectively with reference to FIG.

動線関連付け処理が開始されると、制御部47は、先ず、ST71としてポインタpを“0”にリセットする。次いで、ST72として上記ポインタpを“1”だけ増加する。そして、ST73としてポインタpがデータ数カウンタm1を超えたか否かを判断する。データ数カウンタm1は、第1動線メモリに記憶されているデータの数である。   When the flow line association process is started, the control unit 47 first resets the pointer p to “0” in ST71. Next, in ST72, the pointer p is increased by "1". Then, in ST73, it is determined whether or not the pointer p has exceeded the data number counter m1. The data number counter m1 is the number of data stored in the first flow line memory.

ポインタpがデータ数カウンタm1を超えていない場合(ST73のNO)、制御部47は、ST74として第1動線メモリからポインタpが示すデータ(以下、p番目データと称する)を読込む。   When the pointer p does not exceed the data number counter m1 (NO in ST73), the control unit 47 reads data indicated by the pointer p (hereinafter referred to as p-th data) from the first flow line memory as ST74.

次に、制御部47は、ST75としてポインタqを“0”にリセットする。次いで、ST76として上記ポインタqを“1”だけ増加する。そして、ST77としてポインタqがデータ数カウンタm2を超えたか否かを判断する。データ数カウンタm2は、第2動線メモリに記憶されているデータの数である。   Next, the control unit 47 resets the pointer q to “0” in ST75. Next, in ST76, the pointer q is increased by "1". Then, in ST77, it is determined whether or not the pointer q exceeds the data number counter m2. The data number counter m2 is the number of data stored in the second flow line memory.

ポインタqがデータ数カウンタm2を超えていない場合(ST77のNO)、制御部47は、ST78として第2動線メモリからポインタqが示すデータ(以下、q番目データと称する)を読込む。   When the pointer q does not exceed the data number counter m2 (NO in ST77), the control unit 47 reads data indicated by the pointer q (hereinafter referred to as qth data) from the second flow line memory as ST78.

しかる後、制御部47は、ST79としてp番目データに含まれる人物画像データとq番目データに含まれる人物画像データとから、両人物画像データで特定される人物が同一人物であるか否かを判定するための人物同定処理を実行する(移動体同定手段)。   Thereafter, the control unit 47 determines whether or not the person specified by both person image data is the same person from the person image data included in the pth data and the person image data included in the qth data in ST79. A person identification process for determination is executed (moving body identification means).

この人物同定処理の結果、同一人物でないと判定された場合には(ST80のNO)、制御部47は、ST76の処理に戻る。そして、ポインタqをさらに“1”だけ増加し(ST76)、ポインタqがデータ数カウンタm2に達していないことを確認したならば(ST77のNO)、ST78以降の処理を再度実行する。   As a result of the person identification process, when it is determined that they are not the same person (NO in ST80), the control unit 47 returns to the process of ST76. Then, the pointer q is further increased by “1” (ST76), and if it is confirmed that the pointer q has not reached the data number counter m2 (NO in ST77), the processing after ST78 is executed again.

これに対し、同一人物であると判定された場合には(ST80のYES)、制御部47は、ST81として新規の関連付け動線IDを生成する。また、制御部47は、ST82としてp番目データに含まれる終点インデックス情報の終点到達時刻Tnからq番目データに含まれる始点インデックス情報の始点到達時刻T1までの経過時間を算出する。この経過時間は、対象となる売場間(ST14、ST18では売場A→売場C、ST24、ST28では売場C→売場B)の移動所要時間ΔT(ΔT=T1−Tn)である(所要時間演算手段)。   On the other hand, when it is determined that they are the same person (YES in ST80), the control unit 47 generates a new association flow line ID as ST81. Moreover, the control part 47 calculates the elapsed time from the end point arrival time Tn of the end point index information included in the pth data to the start point arrival time T1 of the start point index information included in the qth data as ST82. This elapsed time is the required travel time ΔT (ΔT = T1−Tn) between the target sales floors (Sales floor A → Sales floor C in ST14 and ST18, Sales floor C → Sales floor B in ST24 and ST28). ).

そして制御部47は、ST83として上記新規関連付け動線ID、p番目データの動線ID、q番目データの動線ID及び移動所要時間ΔTの各データから1レコードを生成し、関連付け動線ファイル46に保存する(動線関連付け手段)。   Then, the control unit 47 generates one record from each data of the new association flow line ID, the p-th data flow line ID, the q-th data flow line ID, and the movement required time ΔT in ST83, and the association flow line file 46 (Flow line association means).

しかる後、制御部47は、ST84として第2動線メモリからq番目データを削除する。また、ST85としてデータ数カウンタm2を”1”だけカウントダウンする。その後、ST72の処理に戻る。
このように、関連付けられたq番目データを第2動線メモリから削除することにより、次のp+1番目データに関連付けられるq番目データの検索に要する処理手順が減少する。
Thereafter, the controller 47 deletes the qth data from the second flow line memory in ST84. In ST85, the data number counter m2 is counted down by “1”. Thereafter, the process returns to ST72.
Thus, by deleting the associated qth data from the second flow line memory, the processing procedure required for searching for the qth data associated with the next p + 1th data is reduced.

なお、ST77において、ポインタqがデータ数カウンタm2を越えたならぱ、制御部47は、ST78以降の処理を実行することなく、ST72の処理に戻る。   If the pointer q exceeds the data number counter m2 in ST77, the control unit 47 returns to the process of ST72 without executing the processes after ST78.

こうして、ポインタpを“1”ずつ増加する毎に、制御部47は、ST74以降の処理を実行する。そして、ポインタpがデータ数カウンタm1を超えたならば(ST73のYES)、制御部47は、ST86として第1動線メモリ及び第2動線メモリをクリアする。以上で、動線関連付け処理は終了する。   Thus, every time the pointer p is incremented by “1”, the control unit 47 executes the processes after ST74. If the pointer p exceeds the data number counter m1 (YES in ST73), the control unit 47 clears the first flow line memory and the second flow line memory in ST86. This is the end of the flow line association process.

かかる手順の動線関連付け処理を実行することにより、人物画像データの人物が同一人物であると判定されたp番目データの動線IDによって識別される動線データと、q番目データの動線IDによって識別される動線データとが関連付けられる。すなわち、ST14では、売場Aから売場Bを通って売場Cに移動した買物客の売場Aでの動線データと売場Cでの動線データとが関連付けられる。ST18では、売場Aから売場Dを通って売場Cに移動した買物客の売場Aでの動線データと売場Cでの動線データとが関連付けられる。ST24では、売場Cから売場Bを通って売場Aに移動した買物客の売場Cでの動線データと売場Aでの動線データとが関連付けられる。ST28では、売場Cから売場Dを通って売場Aに移動した買物客の売場Cでの動線データと売場Aでの動線データとが関連付けられる。   By executing the flow line association process of such a procedure, the flow line data identified by the flow line ID of the p-th data determined to be the same person and the flow line ID of the q-th data. Is associated with the flow line data identified by. That is, in ST14, the flow line data at the sales floor A and the flow line data at the sales floor C of the shopper who has moved from the sales floor A to the sales floor C through the sales floor B are associated with each other. In ST18, the flow line data at the sales floor A and the flow line data at the sales floor C of the shopper who has moved from the sales floor A to the sales floor C through the sales floor D are associated with each other. In ST24, the flow line data at the sales floor C of the shopper who has moved from the sales floor C to the sales floor A through the sales floor B is associated with the flow line data at the sales floor A. In ST28, the flow line data at the sales floor C of the shopper who has moved from the sales floor C to the sales floor A through the sales floor D is associated with the flow line data at the sales floor A.

なお、図9のST40及び図10のST60において、カメラ画像データからゆがみのない人物画像を抽出する技術は、例えば特許文献2や特許文献3などに開示されている周知の技術を利用する。同様に、図11のST79において、抽出した2つの人物画像を対比(パターン認識、色ヒストグラム間の類似度等)して同一人物であるか否かを判定する人物同定処理の技術は、例えば特許文献4や前記特許文献3などに開示されている周知の技術を利用する。   In ST40 of FIG. 9 and ST60 of FIG. 10, a technique for extracting a human image without distortion from the camera image data uses, for example, a well-known technique disclosed in Patent Document 2, Patent Document 3, and the like. Similarly, in ST79 of FIG. 11, the technique of person identification processing for determining whether or not the extracted two person images are the same person by comparing (pattern recognition, similarity between color histograms, etc.) is, for example, a patent. A known technique disclosed in Document 4 or Patent Document 3 is used.

このように本実施形態によれば、店舗の全ての売場A,B,C,Dにそれぞれ動線認識システムを構築しなくても、隣接していない売場Aと売場Cとを行き来した買物客の動線データを関連付けることができる。したがって、特定の売場を行き来する買物客の行動を分析したいという店側の要望を、低コストで実現させることができる。   As described above, according to the present embodiment, a shopper who goes back and forth between the sales floor A and the sales floor C that are not adjacent to each other without building a flow line recognition system in each of the sales floors A, B, C, and D of the store. Can be associated. Therefore, the store side's desire to analyze the behavior of the shopper who goes to and from a specific sales floor can be realized at low cost.

また、本実施形態によれば、特定の売場を行き来する買物客の売場間の移動に要した時間までも管理できる利点がある。   Further, according to the present embodiment, there is an advantage that it is possible to manage even the time required for the movement of the shopper who goes back and forth between specific sales floors.

次に、本発明の第2の実施形態について、図12〜図13を用いて説明する。なお、この第2の実施形態も、図4に示すレイアウトの店舗1に適用した場合であり、売場Aと売場Cとに、カメラを用いた画像処理方式の動線認識システムSA,SCを構築している。そして、第2の実施形態が第1の実施形態と異なる点は、動線関連付け処理の手順の一部のみである。したがって、図1〜図10についても兼用し、同一部分には同一符号を付して説明する。   Next, a second embodiment of the present invention will be described with reference to FIGS. This second embodiment is also applied to the store 1 having the layout shown in FIG. 4, and the image processing type flow line recognition systems SA and SC using cameras are constructed in the sales floor A and the sales floor C. is doing. The second embodiment is different from the first embodiment only in part of the procedure of the flow line association process. Accordingly, FIGS. 1 to 10 are also used, and the same portions are denoted by the same reference numerals for description.

図12は、第2の実施形態における動線関連付け処理の手順を具体的に示す流れ図である。動線関連付け処理が開始されると、制御部47は、先ず、ST91として表示部42に動線関連付け画面6を表示させる。   FIG. 12 is a flowchart specifically showing the procedure of the flow line association processing in the second embodiment. When the flow line association process is started, the control unit 47 first displays the flow line association screen 6 on the display unit 42 as ST91.

動線関連付け画面6の一例を、図13に示す。図示するように、動線関連付け画面6には、動線領域61、第1動線ID領域62、第1画像領域63、第2動線ID領域64、及び第2画像領域65と、「YES」ボタン66及び「NO」ボタン67の各ボタン画像とが表示されている。各ボタン画像は、入力部41によって入力操作が可能である。   An example of the flow line association screen 6 is shown in FIG. As illustrated, the flow line association screen 6 includes a flow line area 61, a first flow line ID area 62, a first image area 63, a second flow line ID area 64, and a second image area 65, and “YES”. "Button 66 and" NO "button 67 are displayed. Each button image can be input by the input unit 41.

次に、制御部47は、ST92〜ST99として、第1の実施形態における動線関連付け処理のST71〜ST78と同一の処理を実行する。すなわち、第1動線メモリからp番目データを読み込み、第2動線メモリからq番目動線データを読み込む。   Next, the control part 47 performs the process same as ST71-ST78 of the flow line correlation process in 1st Embodiment as ST92-ST99. That is, the p-th data is read from the first flow line memory, and the q-th flow line data is read from the second flow line memory.

しかる後、制御部47は、ST100としてp番目データに含まれる動線IDを第1動線ID領域62に表示させるとともに、人物画像データの人物画像を第1画像領域63に表示させる(第1のカメラ画像表示手段)。また、q番目データに含まれる動線IDを第2動線ID領域64に表示させるとともに、人物画像データの人物画像を第2画像領域65に表示させる(第2のカメラ画像表示手段)。さらに、両動線IDでそれぞれ識別される2本の動線を動線領域61に表示させる。そして、制御部47は、ST101として「YES」ボタン66または「NO」ボタン67のいずれか一方のボタンが操作入力されるのを待機する(関連付け宣言受付手段)。   Thereafter, the control unit 47 displays the flow line ID included in the p-th data in ST100 in the first flow line ID area 62 and displays the person image of the person image data in the first image area 63 (ST1). Camera image display means). Further, the flow line ID included in the qth data is displayed in the second flow line ID area 64, and the person image of the person image data is displayed in the second image area 65 (second camera image display means). Further, two flow lines identified by both flow line IDs are displayed in the flow line area 61. Then, the control unit 47 waits for one of the “YES” button 66 and the “NO” button 67 to be operated and input as ST101 (association declaration receiving means).

ここで、入力部41を介して「NO」ボタン67が操作入力された場合には(ST101のNO)、制御部47は、ST97の処理に戻る。そして、ポインタqをさらに“1”だけ増加し(ST98)、ポインタqがデータ数カウンタm2に達していないことを確認したならば(ST99のNO)、ST100以降の処理を再度実行する。   Here, when the “NO” button 67 is input through the input unit 41 (NO in ST101), the control unit 47 returns to the process in ST97. Then, the pointer q is further increased by “1” (ST98), and if it is confirmed that the pointer q has not reached the data number counter m2 (NO in ST99), the processing after ST100 is executed again.

一方、入力部41を介して「YES」ボタン66が操作入力された場合には(ST101のYES)、制御部47は、ST102〜ST106として、第1の実施形態における動線関連付け処理のST81〜ST85と同一の処理を実行する。すなわち、新規関連付け動線ID、p番目データの動線ID、q番目データの動線ID及び移動所要時間ΔTの各データから1レコードを生成し、関連付け動線ファイル46に保存する(動線関連付け手段)。   On the other hand, when the “YES” button 66 is input via the input unit 41 (YES in ST101), the control unit 47 performs ST102 to ST106 of the flow line association process in the first embodiment as ST102 to ST106. The same processing as ST85 is executed. That is, one record is generated from each data of the newly associated flow line ID, the p-th data flow line ID, the q-th data flow line ID, and the movement required time ΔT, and is stored in the associated flow line file 46 (flow line association). means).

こうして、ポインタpを“1”ずつ増加する毎に、制御部47は、ST95以降の処理を実行する。そして、ポインタpがデータ数カウンタm1を超えたならば(ST94のYES)、制御部47は、ST107として第1動線メモリ及び第2動線メモリをクリアする。以上で、動線関連付け処理は終了する。   Thus, every time the pointer p is incremented by “1”, the control unit 47 executes the processes after ST95. If the pointer p exceeds the data number counter m1 (YES in ST94), the control unit 47 clears the first flow line memory and the second flow line memory in ST107. This is the end of the flow line association process.

このような構成の第2の実施形態においては、動線関連付け画面6の第1画像領域63にp番目データの人物画像が表示され、第2画像領域65にq番目データの人物画像が表示される。そこでオペレータは、両画像領域63,65にそれぞれ表示された人物画像を見比べて、同一人物であるか否かを判断する。   In the second embodiment having such a configuration, a p-th person image is displayed in the first image area 63 of the flow line association screen 6 and a q-th person image is displayed in the second image area 65. The Therefore, the operator compares the person images displayed in both the image areas 63 and 65 to determine whether or not they are the same person.

同一人物でない場合、オペレータは、「NO」ボタン67を操作する。そうすると、第2画像領域63の表示が、次のq番目データの人物画像に更新される。こうして、第1画像領域63に表示されている画像の人物と同一人物の画像が第2画像領域65に表示されるまで、「NO」ボタン67を繰り返し操作し、同一人物の画像が第2画像領域63に表示されたならば、オペレータは、関連付け宣言手段として「YES」ボタン66を操作する。そうすると、p番目データの動線IDとq番目データの動線IDとが関連付けられる。   If they are not the same person, the operator operates the “NO” button 67. Then, the display of the second image area 63 is updated to the next q-th person image. In this way, the “NO” button 67 is repeatedly operated until an image of the same person as the image displayed in the first image area 63 is displayed in the second image area 65, and the image of the same person is displayed as the second image. If displayed in the area 63, the operator operates the “YES” button 66 as an association declaration means. Then, the flow line ID of the p-th data is associated with the flow line ID of the q-th data.

このような構成の第2の実施形態においても、第1の実施形態と同様に、隣接していない売場Aと売場Cとを行き来した買物客の動線データを関連付けることができる。しかも、オペレータがカメラ画像を用いて目視により同一人物であるか否かを判定しているので、より確実である。   Also in the second embodiment having such a configuration, the flow line data of the shopper who goes back and forth between the sales floor A and the sales floor C that are not adjacent to each other can be associated as in the first embodiment. Moreover, since the operator determines whether or not they are the same person by visual observation using the camera image, it is more reliable.

なお、この発明は前記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。   Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the spirit of the invention in the implementation stage.

例えば前記実施形態では、図8の処理において、先に動線P選択処理を実行し、次いで動線Q選択処理を実行したが、先に動線Q選択処理を実行し、次いで動線P選択処理を実行してもよい。   For example, in the above-described embodiment, the flow line P selection process is performed first and then the flow line Q selection process is performed in the process of FIG. 8, but the flow line Q selection process is performed first, and then the flow line P selection is performed. Processing may be executed.

また、前記実施形態では、画像監視エリアを各売場の境界領域としたが、売場内に大多数の客が通る通路がある場合は、その通路の領域を画像監視エリアとしてもよい。すなわち、画像監視エリアは、動線データに対応する人物の画像をカメラ画像データから抽出できる場所であればよい。   In the above embodiment, the image monitoring area is a boundary area of each sales floor. However, when there is a passage through which a large number of customers pass in the sales floor, the area of the passage may be used as the image monitoring area. That is, the image monitoring area may be a place where a person image corresponding to the flow line data can be extracted from the camera image data.

また、前記実施形態では、各売場の動線認識システムSA,SCを、カメラを用いた画像処理方式を採用したが、その他の方式、たとえば無線タグ追跡方式を採用してもよい。この場合、売場Aには、境界領域ABと境界領域DA内を撮影するカメラを設置し、売場Cには、境界領域BCと境界領域CD内を撮影するカメラを設置する。そして、各カメラのフレーム画像テータを時間情報と関連付けて画像データベースで記憶する。そして、各境界領域を始点又は終点とする動線データの始点検出時刻または終点到達時刻のフレーム画像データから人物画像を抽出し、人物同定処理を実行することによって、前記実施形態と同一の作用効果を奏することができる。   In the embodiment, the flow line recognition systems SA and SC of each sales floor adopt an image processing method using a camera. However, other methods such as a wireless tag tracking method may be adopted. In this case, the sales floor A is provided with a camera for photographing the boundary area AB and the boundary area DA, and the sales floor C is provided with a camera for photographing the boundary area BC and the boundary area CD. Then, the frame image data of each camera is stored in the image database in association with the time information. Then, by extracting a person image from the frame image data at the start point detection time or the end point arrival time of the flow line data having each boundary region as the start point or the end point, and executing the person identification process, the same effect as the above embodiment Can be played.

ただし、本実施形態のように、カメラを用いた画像処理方式を採用することにより、動線認識用のカメラをそのまま動線の関連付けを判定するための画像データ取得用のカメラとして兼用できるので、システムコストを低減できる効果を奏する。   However, as in this embodiment, by adopting an image processing method using a camera, a camera for motion line recognition can be used as an image data acquisition camera for determining the association of a motion line as it is, The system cost can be reduced.

また、前記実施形態では、田の字型に区分された売場の中心部で各売場が仕切られており、例えば売場Aに居る買物客は、売場Bまたは売場Dには行かれるが売場Cには行かれない店舗に本発明を適用したが、本発明を適用可能な店舗形態はこれに限定されるものではない。例えば、田の字型に区分された売場の中心部で各売場が仕切られていなくてもよい。また、例えば1階の売場を移動する客の動線データと、3階の売場を移動する客の動線データとを関連付ける場合も、前記実施形態と同様に実施することができる。さらに3つ以上の動線認識システムでそれぞれ認識された動線データを関連付けることも可能である。   Moreover, in the said embodiment, each sales floor is divided in the center of the sales floor divided into the shape of a rice field. For example, the shopper in the sales floor A goes to the sales floor B or the sales floor D but goes to the sales floor C. Although the present invention is applied to a store that does not go, the store form to which the present invention is applicable is not limited to this. For example, each sales floor does not have to be partitioned at the center of the sales floor divided into a square shape. Further, for example, the case of associating the flow line data of a customer moving on the sales floor on the first floor with the flow line data of a customer moving on the sales floor on the third floor can be implemented in the same manner as in the above embodiment. Furthermore, it is possible to associate the flow line data recognized by each of three or more flow line recognition systems.

また、本発明は、売場毎の顧客動線を関連付ける装置に限定されるものではなく、第1の動線認識エリア内を移動する移動体(人、動物、車両等)の動線データと、この第1の動線認識エリアとは異なる第2の動線認識エリア内を移動する移動体の動線データとを関連付ける装置にも同様に適用できるものである。   In addition, the present invention is not limited to an apparatus that associates customer flow lines for each sales floor, and flow line data of a moving body (a person, an animal, a vehicle, etc.) that moves in the first flow line recognition area; The present invention can be similarly applied to an apparatus that associates flow line data of a moving body that moves in a second flow line recognition area different from the first flow line recognition area.

また、前記実施形態では、動線連結プログラムをプログラム記憶部44に予め記憶しているものとして本発明を説明したが、このプログラムは、ネットワークから動線関連付け装置4にダウンロードしても良いし、記録媒体に記憶させたものを動線関連付け装置4にインストールしてもよい。記録媒体としては、CD−ROM等プログラムを記憶でき、かつコンピュータが読み取り可能な記録媒体であれば、その形態は何れの形態であってもよい。また、このように予めインストールやダウンロードにより得る機能は、コンピュータ内部のOS(オペレーティング・システム)等と協働してその機能を実現させるものであってもよい。   In the above embodiment, the present invention has been described on the assumption that the flow line connection program is stored in advance in the program storage unit 44. However, this program may be downloaded from the network to the flow line association apparatus 4. What is stored in the recording medium may be installed in the flow line association apparatus 4. The recording medium may be any form as long as it can store a program such as a CD-ROM and can be read by a computer. Further, the function obtained by installing or downloading in advance may be realized in cooperation with an OS (operating system) or the like inside the computer.

この他、前記実施形態に開示されている複数の構成要素の適宜な組合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を組合わせてもよい。   In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, the constituent elements over different embodiments may be combined.

SA,SC…動線認識システム、3A,3C…動線認識装置、4…動線関連付け装置、5…設定テーブル、6…動線関連付け画面、32SA,32SB,32SC,32SD…画像データベース、34SA,32A,32C…画像データベース、34A,34C…動線データベース、43…データベースアクセス部、44…プログラム記憶部、46…関連付け動線ファイル、47…制御部。   SA, SC ... flow line recognition system, 3A, 3C ... flow line recognition device, 4 ... flow line association device, 5 ... setting table, 6 ... flow line association screen, 32SA, 32SB, 32SC, 32SD ... image database, 34SA, 32A, 32C ... image database, 34A, 34C ... flow line database, 43 ... database access unit, 44 ... program storage unit, 46 ... association flow line file, 47 ... control unit.

特開2009−009394号公報JP 2009-009394 A 特開2001−209795号公報JP 2001-209795 A 特開2009−059042号公報JP 2009-059042 A 特開2002−305717号公報JP 2002-305717 A

Claims (12)

第1の動線認識エリア内を移動する移動体毎にその移動体の前記第1の動線認識エリア内での軌跡を示す動線データを記憶するための第1の動線データベース、前記第1の動線認識エリアとは異なる第2の動線認識エリア内を移動する移動体毎にその移動体の前記第2の動線認識エリア内での軌跡を示す動線データを記憶するための第2の動線データベース、前記第1の動線認識エリア内の少なくとも一部である第1の画像監視エリア内を撮影したカメラ画像データを撮影時刻とともに記憶するための第1の画像データベース、及び、前記第2の動線認識エリア内の少なくとも一部である第2の画像監視エリア内を撮影したカメラ画像データを撮影時刻とともに記憶するための第2の画像データベースの各データベースに対してアクセスが可能なコンピュータにより、前記第1の動線データベースに記憶された各移動体の動線データと前記第2の動線データベースに記憶された各移動体の動線データとのなかから、同一移動体の動線データどうしを関連付ける動線関連付け方法であって、
前記コンピュータは、
前記第1の動線データベースに記憶された各動線データの中から前記第1の画像監視エリア内に位置した移動体の動線データを選択する第1の動線選択段階と、
この第1の動線選択段階により選択された動線データに対応する前記移動体が前記第1の画像監視エリア内に位置する時点の前記カメラ画像データを前記第1の画像データベースから選択する第1の画像選択段階と、
この第1の画像選択段階により選択されたカメラ画像データから移動体画像を抽出する第1の移動体画像抽出段階と、
前記第2の動線データベースに記憶された各動線データの中から前記第2の画像監視エリア内に位置する移動体の動線データを選択する第2の動線選択段階と、
この第2の動線選択段階により選択された動線データに対応する前記移動体が前記第2の画像監視エリア内に位置する時点の前記カメラ画像データを前記第2の画像データベースから選択する第2の画像選択段階と、
この第2の画像選択段階により選択されたカメラ画像データから移動体画像を抽出する第2の移動体画像抽出段階と、
前記第1の移動体画像抽出段階により抽出された移動体画像と前記第2の移動体画像抽出段階により抽出された移動体画像とを照合して各画像の移動体が同一か否かを判定する移動体同定段階と、
この移動体同定段階により移動体が同一であると判定されると、前記第1の動線選択段階により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択段階により選択された動線データの少なくとも識別情報を記憶する動線関連付け段階と、
を備えることを特徴とする動線関連付け方法。
A first flow line database for storing, for each moving body moving in the first flow line recognition area, flow line data indicating a trajectory of the moving body in the first flow line recognition area; For storing, for each moving body moving in a second flow line recognition area different from one flow line recognition area, flow line data indicating a trajectory of the moving body in the second flow line recognition area. A second flow line database, a first image database for storing camera image data taken in the first image monitoring area, which is at least a part of the first flow line recognition area, together with a shooting time; and Access is made to each database of the second image database for storing camera image data taken in the second image monitoring area, which is at least a part of the second flow line recognition area, together with the photographing time. OK From the flow line data of each moving body stored in the first flow line database and the flow line data of each moving body stored in the second flow line database, the computer uses the same moving body. A flow line association method for associating flow line data,
The computer
A first flow line selection step of selecting flow line data of a moving body located in the first image monitoring area from each flow line data stored in the first flow line database;
The camera image data at the time when the moving body corresponding to the flow line data selected in the first flow line selection stage is located in the first image monitoring area is selected from the first image database. 1 image selection stage;
A first moving body image extraction step of extracting a moving body image from the camera image data selected by the first image selection step;
A second flow line selection step of selecting flow line data of a moving body located in the second image monitoring area from each flow line data stored in the second flow line database;
The camera image data is selected from the second image database when the moving body corresponding to the flow line data selected in the second flow line selection step is located in the second image monitoring area. Two image selection stages;
A second moving body image extraction step of extracting a moving body image from the camera image data selected by the second image selection step;
The mobile body image extracted in the first mobile body image extraction stage and the mobile body image extracted in the second mobile body image extraction stage are collated to determine whether the mobile bodies of the images are the same. A mobile object identification stage,
If it is determined in this moving body identification step that the moving bodies are the same, the second flow line selection step corresponds to at least identification information of the flow line data selected in the first flow line selection step. A flow line associating step for storing at least identification information of the flow line data selected by:
A flow line associating method characterized by comprising:
前記移動体同定段階により移動体が同一であると判定された移動体が前記第1の動線認識エリアから前記第2の動線認識エリアまで移動するのに要した所要時間を、前記第1の動線選択段階により選択された動線データの終点に関する情報と前記第2の動線選択段階により選択された動線データの始点に関する情報とにより算出する所要時間演算段階、をさらに備え、
前記動線関連付け段階は、前記第1の動線選択段階により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択段階により選択された動線データの少なくとも識別情報と前記所要時間演算段階により算出された所要時間とを記憶することを特徴とする請求項1記載の動線関連付け方法。
The time required for the moving body determined to be the same in the moving body identification step to move from the first flow line recognition area to the second flow line recognition area is expressed as the first time. A required time calculation step for calculating from information on the end point of the flow line data selected in the flow line selection step and information on the start point of the flow line data selected in the second flow line selection step,
In the flow line association step, at least identification information of the flow line data selected in the second flow line selection step in correspondence with at least identification information of the flow line data selected in the first flow line selection step. 2. The flow line associating method according to claim 1, further comprising: storing a required time calculated by the required time calculation step.
第1の動線認識エリア内を移動する移動体毎にその移動体の前記第1の動線認識エリア内での軌跡を示す動線データを記憶するための第1の動線データベース、前記第1の動線認識エリアとは異なる第2の動線認識エリア内を移動する移動体毎にその移動体の前記第2の動線認識エリア内での軌跡を示す動線データを記憶するための第2の動線データベース、前記第1の動線認識エリア内の少なくとも一部である第1の画像監視エリア内を撮影したカメラ画像データを撮影時刻とともに記憶するための第1の画像データベース、及び、前記第2の動線認識エリア内の少なくとも一部である第2の画像監視エリア内を撮影したカメラ画像データを撮影時刻とともに記憶するための第2の画像データベースの各データベースに対してアクセスが可能なコンピュータにより、前記第1の動線データベースに記憶された各移動体の動線データと前記第2の動線データベースに記憶された各移動体の動線データとのなかから、同一移動体の動線データどうしを関連付ける動線関連付け方法であって、
前記コンピュータは、
前記第1の動線データベースに記憶された各動線データの中から前記第1の画像監視エリア内に位置する移動体の動線データを選択する第1の動線選択段階と、
この第1の動線選択段階により選択された動線データに対応する前記移動体が前記第1の画像監視エリア内に位置している期間の前記カメラ画像データを前記第1の画像データベースから取得し、その画像を表示部に表示させる第1のカメラ画像表示段階と、
前記第2の動線データベースに記憶された各動線データの中から前記第2の画像監視エリア内に位置する移動体の動線データを選択する第2の動線選択段階と、
この第2の動線選択段階により選択された動線データに対応する前記移動体が前記第2の画像監視エリア内に位置している期間の前記カメラ画像データを前記第2の画像データベースから取得し、その画像を前記表示部に表示させる第2のカメラ画像表示段階と、
前記第1の動線選択段階により選択された動線データと前記第2の動線選択段階により選択された動線データの関連付け宣言を受け付ける関連付け宣言受付段階と、
前記関連付け宣言を受付けると、前記第1の動線選択段階により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択段階により選択された動線データの少なくとも識別情報を記憶する動線関連付け段階と、
を備えることを特徴とする動線関連付け方法。
A first flow line database for storing, for each moving body moving in the first flow line recognition area, flow line data indicating a trajectory of the moving body in the first flow line recognition area; For storing, for each moving body moving in a second flow line recognition area different from one flow line recognition area, flow line data indicating a trajectory of the moving body in the second flow line recognition area. A second flow line database, a first image database for storing camera image data taken in the first image monitoring area, which is at least a part of the first flow line recognition area, together with a shooting time; and Access is made to each database of the second image database for storing camera image data taken in the second image monitoring area, which is at least a part of the second flow line recognition area, together with the photographing time. OK From the flow line data of each moving body stored in the first flow line database and the flow line data of each moving body stored in the second flow line database, the computer uses the same moving body. A flow line association method for associating flow line data,
The computer
A first flow line selection step of selecting flow line data of a moving body located in the first image monitoring area from each flow line data stored in the first flow line database;
The camera image data of a period in which the moving body corresponding to the flow line data selected in the first flow line selection stage is located in the first image monitoring area is acquired from the first image database. A first camera image display stage for displaying the image on the display unit;
A second flow line selection step of selecting flow line data of a moving body located in the second image monitoring area from each flow line data stored in the second flow line database;
The camera image data of a period in which the moving body corresponding to the flow line data selected in the second flow line selection step is located in the second image monitoring area is acquired from the second image database. A second camera image display stage for displaying the image on the display unit;
An association declaration receiving step for receiving an association declaration between the flow line data selected by the first flow line selection step and the flow line data selected by the second flow line selection step;
When the association declaration is received, at least identification information of the flow line data selected by the second flow line selection step in correspondence with at least identification information of the flow line data selected by the first flow line selection step. A flow line association stage for storing
A flow line associating method characterized by comprising:
前記関連付け宣言受付段階により前記関連付け宣言を受付けたことに応じて、前記第1の動線選択段階により選択された動線データに対応する移動体が前記第1の動線認識エリアから前記第2の動線認識エリアまで移動するのに要する所要時間を、前記第1の動線選択段階により選択された動線データの終点に関する情報と前記第2の動線選択段階により選択された動線データの始点に関する情報とにより算出する所要時間演算段階、をさらに備え、
前記動線関連付け段階は、前記第1の動線選択段階により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択段階により選択された動線データの少なくとも識別情報と前記所要時間演算段階により算出された所要時間とを記憶することを特徴とする請求項3記載の動線関連付け方法。
In response to accepting the association declaration in the association declaration receiving step, a moving object corresponding to the flow line data selected in the first flow line selection step is moved from the first flow line recognition area to the second. The time required for moving to the flow line recognition area is information on the end point of the flow line data selected in the first flow line selection stage and the flow line data selected in the second flow line selection stage. A required time calculation stage calculated based on information on the starting point of
In the flow line association step, at least identification information of the flow line data selected in the second flow line selection step in correspondence with at least identification information of the flow line data selected in the first flow line selection step. 4. The flow line associating method according to claim 3, wherein the required time calculated by the required time calculation step is stored.
第1の動線認識エリア内を移動する移動体毎にその移動体の前記第1の動線認識エリア内での軌跡を示す動線データを記憶するための第1の動線データベース、前記第1の動線認識エリアとは異なる第2の動線認識エリア内を移動する移動体毎にその移動体の前記第2の動線認識エリア内での軌跡を示す動線データを記憶するための第2の動線データベース、前記第1の動線認識エリア内の少なくとも一部である第1の画像監視エリア内を撮影したカメラ画像データを撮影時刻とともに記憶するための第1の画像データベース、及び、前記第2の動線認識エリア内の少なくとも一部である第2の画像監視エリア内を撮影したカメラ画像データを撮影時刻とともに記憶するための第2の画像データベースの各データベースに対してアクセスが可能であり、
前記第1の動線データベースに記憶された各動線データの中から前記第1の画像監視エリア内に位置した移動体の動線データを選択する第1の動線選択手段と、
この第1の動線選択手段により選択された動線データに対応する前記移動体が前記第1の画像監視エリア内に位置する時点の前記カメラ画像データを前記第1の画像データベースから選択する第1の画像選択手段と、
この第1の画像選択手段により選択されたカメラ画像データから移動体画像を抽出する第1の移動体画像抽出手段と、
前記第2の動線データベースに記憶された各動線データの中から前記第2の画像監視エリア内に位置する移動体の動線データを選択する第2の動線選択手段と、
この第2の動線選択手段により選択された動線データに対応する前記移動体が前記第2の画像監視エリア内に位置する時点の前記カメラ画像データを前記第2の画像データベースから選択する第2の画像選択手段と、
この第2の画像選択手段により選択されたカメラ画像データから移動体画像を抽出する第2の移動体画像抽出手段と、
前記第1の移動体画像抽出手段により抽出された移動体画像と前記第2の移動体画像抽出手段により抽出された移動体画像とを照合して各画像の移動体が同一か否かを判定する移動体同定手段と、
この移動体同定手段により移動体が同一であると判定されると、前記第1の動線選択手段により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択手段により選択された動線データの少なくとも識別情報を記憶する動線関連付け手段と、
を備えることを特徴とする動線関連付け装置。
A first flow line database for storing, for each moving body moving in the first flow line recognition area, flow line data indicating a trajectory of the moving body in the first flow line recognition area; For storing, for each moving body moving in a second flow line recognition area different from one flow line recognition area, flow line data indicating a trajectory of the moving body in the second flow line recognition area. A second flow line database, a first image database for storing camera image data taken in the first image monitoring area, which is at least a part of the first flow line recognition area, together with a shooting time; and Access is made to each database of the second image database for storing camera image data taken in the second image monitoring area, which is at least a part of the second flow line recognition area, together with the photographing time. OK It is in,
First flow line selection means for selecting flow line data of a moving body located in the first image monitoring area from each flow line data stored in the first flow line database;
The camera image data at the time when the moving body corresponding to the flow line data selected by the first flow line selection means is located in the first image monitoring area is selected from the first image database. 1 image selection means;
First moving body image extracting means for extracting a moving body image from the camera image data selected by the first image selecting means;
Second flow line selection means for selecting flow line data of a moving body located in the second image monitoring area from each flow line data stored in the second flow line database;
The camera image data at the time when the moving object corresponding to the flow line data selected by the second flow line selection means is located in the second image monitoring area is selected from the second image database. Two image selection means;
Second moving body image extraction means for extracting a moving body image from the camera image data selected by the second image selection means;
The mobile body image extracted by the first mobile body image extraction means and the mobile body image extracted by the second mobile body image extraction means are collated to determine whether the mobile bodies of the images are the same. Mobile object identification means for
When it is determined by the moving body identification means that the moving bodies are the same, the second flow line selection means is associated with at least identification information of the flow line data selected by the first flow line selection means. Flow line association means for storing at least identification information of the flow line data selected by:
A flow line associating device comprising:
前記移動体同定手段により移動体が同一であると判定された移動体が前記第1の動線認識エリアから前記第2の動線認識エリアまで移動するのに要した所要時間を、前記第1の動線選択手段により選択された動線データの終点に関する情報と前記第2の動線選択手段により選択された動線データの始点に関する情報とにより算出する所要時間演算手段、をさらに備え、
前記動線関連付け手段は、前記第1の動線選択手段により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択手段により選択された動線データの少なくとも識別情報と前記所要時間演算手段により算出された所要時間とを記憶することを特徴とする請求項5記載の動線関連付け装置。
The time required for the moving body determined to be the same by the moving body identifying means to move from the first flow line recognition area to the second flow line recognition area is expressed as the first time. Required time calculating means for calculating from information related to the end point of the flow line data selected by the flow line selecting means and information related to the start point of the flow line data selected by the second flow line selecting means,
The flow line association means corresponds to at least identification information of the flow line data selected by the first flow line selection means, and at least identification information of the flow line data selected by the second flow line selection means. 6. The flow line associating device according to claim 5, wherein the required time calculated by said required time calculating means is stored.
第1の動線認識エリア内を移動する移動体毎にその移動体の前記第1の動線認識エリア内での軌跡を示す動線データを記憶するための第1の動線データベース、前記第1の動線認識エリアとは異なる第2の動線認識エリア内を移動する移動体毎にその移動体の前記第2の動線認識エリア内での軌跡を示す動線データを記憶するための第2の動線データベース、前記第1の動線認識エリア内の少なくとも一部である第1の画像監視エリア内を撮影したカメラ画像データを撮影時刻とともに記憶するための第1の画像データベース、及び、前記第2の動線認識エリア内の少なくとも一部である第2の画像監視エリア内を撮影したカメラ画像データを撮影時刻とともに記憶するための第2の画像データベースの各データベースに対してアクセスが可能であり、
前記第1の動線データベースに記憶された各動線データの中から前記第1の画像監視エリア内に位置する移動体の動線データを選択する第1の動線選択手段と、
この第1の動線選択手段により選択された動線データに対応する前記移動体が前記第1の画像監視エリア内に位置している期間の前記カメラ画像データを前記第1の画像データベースから取得し、その画像を表示部に表示させる第1のカメラ画像表示手段と、
前記第2の動線データベースに記憶された各動線データの中から前記第2の画像監視エリア内に位置する移動体の動線データを選択する第2の動線選択手段と、
この第2の動線選択手段により選択された動線データに対応する前記移動体が前記第2の画像監視エリア内に位置している期間の前記カメラ画像データを前記第2の画像データベースから取得し、その画像を前記表示部に表示させる第2のカメラ画像表示手段と、
前記第1の動線選択手段により選択された動線データと前記第2の動線選択手段により選択された動線データの関連付け宣言を受け付ける関連付け宣言受付手段と、
前記関連付け宣言を受付けると、前記第1の動線選択手段により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択手段により選択された動線データの少なくとも識別情報を記憶する動線関連付け手段と、
を備えることを特徴とする動線関連付け装置。
A first flow line database for storing, for each moving body moving in the first flow line recognition area, flow line data indicating a trajectory of the moving body in the first flow line recognition area; For storing, for each moving body moving in a second flow line recognition area different from one flow line recognition area, flow line data indicating a trajectory of the moving body in the second flow line recognition area. A second flow line database, a first image database for storing camera image data taken in the first image monitoring area, which is at least a part of the first flow line recognition area, together with a shooting time; and Access is made to each database of the second image database for storing camera image data taken in the second image monitoring area, which is at least a part of the second flow line recognition area, together with the photographing time. OK It is in,
First flow line selection means for selecting flow line data of a moving body located in the first image monitoring area from each flow line data stored in the first flow line database;
The camera image data during a period in which the moving body corresponding to the flow line data selected by the first flow line selection unit is located in the first image monitoring area is acquired from the first image database. First camera image display means for displaying the image on the display unit;
Second flow line selection means for selecting flow line data of a moving body located in the second image monitoring area from each flow line data stored in the second flow line database;
The camera image data of a period in which the moving body corresponding to the flow line data selected by the second flow line selection means is located in the second image monitoring area is acquired from the second image database. Second camera image display means for displaying the image on the display unit;
Association declaration receiving means for receiving an association declaration between the flow line data selected by the first flow line selection means and the flow line data selected by the second flow line selection means;
When the association declaration is received, at least identification information of the flow line data selected by the second flow line selection means in correspondence with at least identification information of the flow line data selected by the first flow line selection means. A flow line association means for storing
A flow line associating device comprising:
前記関連付け宣言受付手段により前記関連付け宣言を受付けたことに応じて、前記第1の動線選択手段により選択された動線データに対応する移動体が前記第1の動線認識エリアから前記第2の動線認識エリアまで移動するのに要する所要時間を、前記第1の動線選択手段により選択された動線データの終点に関する情報と前記第2の動線選択手段により選択された動線データの始点に関する情報とにより算出する所要時間演算手段、をさらに備え、
前記動線関連付け手段は、前記第1の動線選択手段により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択手段により選択された動線データの少なくとも識別情報と前記所要時間演算手段により算出された所要時間とを記憶することを特徴とする請求項7記載の動線関連付け装置。
In response to receiving the association declaration by the association declaration receiving unit, a moving body corresponding to the flow line data selected by the first flow line selecting unit is moved from the first flow line recognition area to the second line. The time required for moving to the flow line recognition area is information on the end point of the flow line data selected by the first flow line selection means and the flow line data selected by the second flow line selection means. And a required time calculation means for calculating based on information on the starting point of
The flow line association means corresponds to at least identification information of the flow line data selected by the first flow line selection means, and at least identification information of the flow line data selected by the second flow line selection means. 8. The flow line associating device according to claim 7, wherein the required time calculated by said required time calculating means is stored.
第1の動線認識エリア内を移動する移動体毎にその移動体の前記第1の動線認識エリア内での軌跡を示す動線データを記憶するための第1の動線データベース、前記第1の動線認識エリアとは異なる第2の動線認識エリア内を移動する移動体毎にその移動体の前記第2の動線認識エリア内での軌跡を示す動線データを記憶するための第2の動線データベース、前記第1の動線認識エリア内の少なくとも一部である第1の画像監視エリア内を撮影したカメラ画像データを撮影時刻とともに記憶するための第1の画像データベース、及び、前記第2の動線認識エリア内の少なくとも一部である第2の画像監視エリア内を撮影したカメラ画像データを撮影時刻とともに記憶するための第2の画像データベースの各データベースに対してアクセスが可能なコンピュータに、
前記第1の動線データベースに記憶された各動線データの中から前記第1の画像監視エリア内に位置した移動体の動線データを選択させる第1の動線選択機能と、
この第1の動線選択機能により選択された動線データに対応する前記移動体が前記第1の画像監視エリア内に位置する時点の前記カメラ画像データを前記第1の画像データベースから選択させる第1の画像選択機能と、
この第1の画像選択機能により選択されたカメラ画像データから移動体画像を抽出させる第1の移動体画像抽出機能と、
前記第2の動線データベースに記憶された各動線データの中から前記第2の画像監視エリア内に位置する移動体の動線データを選択させる第2の動線選択機能と、
この第2の動線選択機能により選択された動線データに対応する前記移動体が前記第2の画像監視エリア内に位置する時点の前記カメラ画像データを前記第2の画像データベースから選択させる第2の画像選択機能と、
この第2の画像選択機能により選択されたカメラ画像データから移動体画像を抽出させる第2の移動体画像抽出機能と、
前記第1の移動体画像抽出機能により抽出された移動体画像と前記第2の移動体画像抽出機能により抽出された移動体画像とを照合して各画像の移動体が同一か否かを判定させる移動体同定機能と、
この移動体同定機能により移動体が同一であると判定されると、前記第1の動線選択機能により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択機能により選択された動線データの少なくとも識別情報を記憶させる動線関連付け機能と、
を実現させるための動線関連付けプログラム。
A first flow line database for storing, for each moving body moving in the first flow line recognition area, flow line data indicating a trajectory of the moving body in the first flow line recognition area; For storing, for each moving body moving in a second flow line recognition area different from one flow line recognition area, flow line data indicating a trajectory of the moving body in the second flow line recognition area. A second flow line database, a first image database for storing camera image data taken in the first image monitoring area, which is at least a part of the first flow line recognition area, together with a shooting time; and Access is made to each database of the second image database for storing camera image data taken in the second image monitoring area, which is at least a part of the second flow line recognition area, together with the photographing time. OK To a computer,
A first flow line selection function for selecting flow line data of a moving body located in the first image monitoring area from each flow line data stored in the first flow line database;
The camera image data when the moving body corresponding to the flow line data selected by the first flow line selection function is located within the first image monitoring area is selected from the first image database. 1 image selection function,
A first moving body image extraction function for extracting a moving body image from the camera image data selected by the first image selection function;
A second flow line selection function for selecting flow line data of a moving body located in the second image monitoring area from each flow line data stored in the second flow line database;
The second image database selects the camera image data at the time when the moving body corresponding to the flow line data selected by the second flow line selection function is located in the second image monitoring area. 2 image selection functions;
A second moving body image extraction function for extracting a moving body image from the camera image data selected by the second image selection function;
The mobile body image extracted by the first mobile body image extraction function and the mobile body image extracted by the second mobile body image extraction function are collated to determine whether the mobile bodies of the images are the same. Mobile object identification function
When it is determined by the moving body identification function that the moving bodies are the same, the second flow line selection function is associated with at least identification information of the flow line data selected by the first flow line selection function. A flow line association function for storing at least identification information of the flow line data selected by:
A flow line association program for realizing
前記コンピュータに、
前記移動体同定機能により移動体が同一であると判定された移動体が前記第1の動線認識エリアから前記第2の動線認識エリアまで移動するのに要した所要時間を、前記第1の動線選択機能により選択された動線データの終点に関する情報と前記第2の動線選択機能により選択された動線データの始点に関する情報とにより算出させる所要時間演算機能、をさらに実現させるものであり、
前記動線関連付け機能は、前記第1の動線選択機能により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択機能により選択された動線データの少なくとも識別情報と前記所要時間演算機能により算出された所要時間とを記憶させるためのものである請求項9記載の動線関連付けプログラム。
In the computer,
The time required for the moving bodies determined to be the same by the moving body identification function to move from the first flow line recognition area to the second flow line recognition area is expressed as the first time. Further realizing a required time calculation function that is calculated based on the information on the end point of the flow line data selected by the flow line selection function and the information on the start point of the flow line data selected by the second flow line selection function. And
The flow line association function corresponds to at least identification information of the flow line data selected by the first flow line selection function, and at least identification information of the flow line data selected by the second flow line selection function. And a required time calculated by the required time calculation function.
第1の動線認識エリア内を移動する移動体毎にその移動体の前記第1の動線認識エリア内での軌跡を示す動線データを記憶するための第1の動線データベース、前記第1の動線認識エリアとは異なる第2の動線認識エリア内を移動する移動体毎にその移動体の前記第2の動線認識エリア内での軌跡を示す動線データを記憶するための第2の動線データベース、前記第1の動線認識エリア内の少なくとも一部である第1の画像監視エリア内を撮影したカメラ画像データを撮影時刻とともに記憶するための第1の画像データベース、及び、前記第2の動線認識エリア内の少なくとも一部である第2の画像監視エリア内を撮影したカメラ画像データを撮影時刻とともに記憶するための第2の画像データベースの各データベースに対してアクセスが可能なコンピュータに、
前記第1の動線データベースに記憶された各動線データの中から前記第1の画像監視エリア内に位置する移動体の動線データを選択させる第1の動線選択機能と、
この第1の動線選択機能により選択された動線データに対応する前記移動体が前記第1の画像監視エリア内に位置している期間の前記カメラ画像データを前記第1の画像データベースから取得し、その画像を表示部に表示させる第1のカメラ画像表示機能と、
前記第2の動線データベースに記憶された各動線データの中から前記第2の画像監視エリア内に位置する移動体の動線データを選択させる第2の動線選択機能と、
この第2の動線選択機能により選択された動線データに対応する前記移動体が前記第2の画像監視エリア内に位置している期間の前記カメラ画像データを前記第2の画像データベースから取得し、その画像を前記表示部に表示させる第2のカメラ画像表示機能と、
前記第1の動線選択機能により選択された動線データと前記第2の動線選択機能により選択された動線データの関連付け宣言を受け付けさせる関連付け宣言受付機能と、
前記関連付け宣言を受付けると、前記第1の動線選択機能により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択機能により選択された動線データの少なくとも識別情報を記憶させる動線関連付け機能と、
を実現させるための動線関連付けプログラム。
A first flow line database for storing, for each moving body moving in the first flow line recognition area, flow line data indicating a trajectory of the moving body in the first flow line recognition area; For storing, for each moving body moving in a second flow line recognition area different from one flow line recognition area, flow line data indicating a trajectory of the moving body in the second flow line recognition area. A second flow line database, a first image database for storing camera image data taken in the first image monitoring area, which is at least a part of the first flow line recognition area, together with a shooting time; and Access is made to each database of the second image database for storing camera image data taken in the second image monitoring area, which is at least a part of the second flow line recognition area, together with the photographing time. OK To a computer,
A first flow line selection function for selecting flow line data of a moving body located in the first image monitoring area from each flow line data stored in the first flow line database;
The camera image data of a period in which the moving body corresponding to the flow line data selected by the first flow line selection function is located in the first image monitoring area is acquired from the first image database. A first camera image display function for displaying the image on the display unit;
A second flow line selection function for selecting flow line data of a moving body located in the second image monitoring area from each flow line data stored in the second flow line database;
The camera image data of a period in which the moving body corresponding to the flow line data selected by the second flow line selection function is located in the second image monitoring area is acquired from the second image database. A second camera image display function for displaying the image on the display unit;
An association declaration acceptance function for accepting an association declaration between the flow line data selected by the first flow line selection function and the flow line data selected by the second flow line selection function;
When the association declaration is received, at least identification information of the flow line data selected by the second flow line selection function in correspondence with at least identification information of the flow line data selected by the first flow line selection function. A flow line association function for storing
A flow line association program for realizing
前記コンピュータに、
前記関連付け宣言受付機能により前記関連付け宣言を受付けたことに応じて、前記第1の動線選択機能により選択された動線データに対応する移動体が前記第1の動線認識エリアから前記第2の動線認識エリアまで移動するのに要する所要時間を、前記第1の動線選択機能により選択された動線データの終点に関する情報と前記第2の動線選択機能により選択された動線データの始点に関する情報とにより算出させる所要時間演算機能、をさらに実現させるものであり、
前記動線関連付け機能は、前記第1の動線選択機能により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択機能により選択された動線データの少なくとも識別情報と前記所要時間演算機能により算出された所要時間とを記憶させるためのものである請求項11記載の動線関連付けプログラム。
In the computer,
In response to receiving the association declaration by the association declaration receiving function, a moving body corresponding to the flow line data selected by the first flow line selection function is moved from the first flow line recognition area to the second. The time required for moving to the flow line recognition area is information on the end point of the flow line data selected by the first flow line selection function and the flow line data selected by the second flow line selection function. The required time calculation function that is calculated based on the information about the start point of the
The flow line association function corresponds to at least identification information of the flow line data selected by the first flow line selection function, and at least identification information of the flow line data selected by the second flow line selection function. And a required time calculated by the required time calculation function.
JP2010032946A 2010-02-17 2010-02-17 Flow line association method, apparatus and program Expired - Fee Related JP4802285B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010032946A JP4802285B2 (en) 2010-02-17 2010-02-17 Flow line association method, apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010032946A JP4802285B2 (en) 2010-02-17 2010-02-17 Flow line association method, apparatus and program

Publications (2)

Publication Number Publication Date
JP2011170562A JP2011170562A (en) 2011-09-01
JP4802285B2 true JP4802285B2 (en) 2011-10-26

Family

ID=44684636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010032946A Expired - Fee Related JP4802285B2 (en) 2010-02-17 2010-02-17 Flow line association method, apparatus and program

Country Status (1)

Country Link
JP (1) JP4802285B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170564A (en) * 2010-02-17 2011-09-01 Toshiba Tec Corp Traffic line connection method, device, and traffic line connection program
JP2011170563A (en) * 2010-02-17 2011-09-01 Toshiba Tec Corp Traffic line connection method, device, and traffic line connection program

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5758646B2 (en) * 2011-01-28 2015-08-05 富士変速機株式会社 Parking space human detector and three-dimensional parking device
JP6210234B2 (en) * 2012-09-19 2017-10-11 日本電気株式会社 Image processing system, image processing method, and program
JP6520218B2 (en) * 2015-03-03 2019-05-29 富士ゼロックス株式会社 INFORMATION PROCESSING APPARATUS AND INFORMATION PROCESSING PROGRAM
JP7135329B2 (en) 2018-01-31 2022-09-13 日本電気株式会社 Information processing method, information processing apparatus, and information processing program
JP7088108B2 (en) * 2019-03-28 2022-06-21 日本電気株式会社 Tracking methods, tracking devices, and programs

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3521637B2 (en) * 1996-08-02 2004-04-19 オムロン株式会社 Passenger number measurement device and entrance / exit number management system using the same
JP2005309951A (en) * 2004-04-23 2005-11-04 Oki Electric Ind Co Ltd Sales promotion support system
JP2007234058A (en) * 2007-05-21 2007-09-13 Hitachi Ltd Facilities management system based on line of flow information
JP4408917B2 (en) * 2007-06-28 2010-02-03 東芝テック株式会社 Flow line editing apparatus, method and program
JP2009110408A (en) * 2007-10-31 2009-05-21 Toshiba Tec Corp Moving route editing apparatus and moving route editing program
JP4408916B2 (en) * 2007-06-28 2010-02-03 東芝テック株式会社 Flow line editing apparatus, method and program
JP4585580B2 (en) * 2008-04-24 2010-11-24 東芝テック株式会社 Human flow tracking system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170564A (en) * 2010-02-17 2011-09-01 Toshiba Tec Corp Traffic line connection method, device, and traffic line connection program
JP2011170563A (en) * 2010-02-17 2011-09-01 Toshiba Tec Corp Traffic line connection method, device, and traffic line connection program

Also Published As

Publication number Publication date
JP2011170562A (en) 2011-09-01

Similar Documents

Publication Publication Date Title
JP4802285B2 (en) Flow line association method, apparatus and program
JP4585580B2 (en) Human flow tracking system
JP2011170565A (en) Customer behavior collection method, device, and program
JP4980260B2 (en) Flow line recognition system
JP6364743B2 (en) Information processing apparatus, control method, program, and information system
JPWO2019181499A1 (en) Store management device and store management method
JP2009284167A (en) Person&#39;s behavior monitoring device, and person&#39;s behavior monitoring program
TW201913501A (en) Shop device, store management method and program
JP2011170564A (en) Traffic line connection method, device, and traffic line connection program
WO2019181364A1 (en) Store management device and store management method
JP4209413B2 (en) Customer trend collection system and customer trend collection program
JP4815514B2 (en) Flow line recognition system
JP4021873B2 (en) Face image monitoring system
JP4408916B2 (en) Flow line editing apparatus, method and program
JP2009110408A (en) Moving route editing apparatus and moving route editing program
JP2010140515A (en) Flow line recognition system
JP2011059951A (en) Trajectory editing method, device, and trajectory editing program
JP5253101B2 (en) Object tracking method and image processing apparatus
JP4408917B2 (en) Flow line editing apparatus, method and program
JP6607310B2 (en) Output control device, information output system, output control method, and program
JP4975835B2 (en) Flow line connecting apparatus and flow line connecting program
CN112669352A (en) Object identification method, device and equipment
JP6792882B2 (en) Image processing system, image processing device, image processing method, and image processing program
JP2009157846A (en) Traffic line data editing device and traffic line data editing program
JP6573259B2 (en) Attribute collection system by camera

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110712

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110808

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees