JP4802285B2 - Flow line association method, apparatus and program - Google Patents
Flow line association method, apparatus and program Download PDFInfo
- Publication number
- JP4802285B2 JP4802285B2 JP2010032946A JP2010032946A JP4802285B2 JP 4802285 B2 JP4802285 B2 JP 4802285B2 JP 2010032946 A JP2010032946 A JP 2010032946A JP 2010032946 A JP2010032946 A JP 2010032946A JP 4802285 B2 JP4802285 B2 JP 4802285B2
- Authority
- JP
- Japan
- Prior art keywords
- flow line
- image
- moving body
- database
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 117
- 238000012544 monitoring process Methods 0.000 claims abstract description 63
- 230000006870 function Effects 0.000 claims description 65
- 238000000605 extraction Methods 0.000 claims description 22
- 238000010586 diagram Methods 0.000 description 10
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 7
- 101000710013 Homo sapiens Reversion-inducing cysteine-rich protein with Kazal motifs Proteins 0.000 description 7
- 108090000237 interleukin-24 Proteins 0.000 description 7
- 101000661816 Homo sapiens Suppression of tumorigenicity 18 protein Proteins 0.000 description 6
- 101000661807 Homo sapiens Suppressor of tumorigenicity 14 protein Proteins 0.000 description 5
- 238000013500 data storage Methods 0.000 description 5
- 238000003672 processing method Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 101000760620 Homo sapiens Cell adhesion molecule 1 Proteins 0.000 description 3
- 101000911772 Homo sapiens Hsc70-interacting protein Proteins 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 102100036848 C-C motif chemokine 20 Human genes 0.000 description 2
- 101000713099 Homo sapiens C-C motif chemokine 20 Proteins 0.000 description 2
- 241000209094 Oryza Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 235000009566 rice Nutrition 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、例えば店舗内を移動する買物客の軌跡を示す動線データの関連付けを行う技術に関する。 The present invention relates to a technique for associating flow line data indicating a trajectory of a shopper who moves in a store, for example.
スーパーマーケット,コンビニエンスストア等の店舗内を移動する買物客の軌跡を動線として認識する動線認識システムには、カメラを用いた画像処理方式や無線タグリーダを用いた無線タグ追跡方式等がある。画像処理方式の場合、現状の画像処理技術では、各カメラで監視領域の全エリアを死角なく撮影したとしても、一人の買物客の監視領域全域の動きを1つの動線として追跡することはきわめて困難である。例えば、他の買物客とすれ違った際に動線が途切れたり、動線が入れ替わったりする場合が考えられる。 Examples of a flow line recognition system that recognizes a trajectory of a shopper moving in a store such as a supermarket or a convenience store as a flow line include an image processing method using a camera and a wireless tag tracking method using a wireless tag reader. In the case of an image processing method, with the current image processing technology, it is extremely difficult to track the movement of a single shopper as a single flow line even if the entire area of the monitoring area is captured without blind spots by each camera. Have difficulty. For example, there may be a case where the flow line is interrupted or the flow line is switched when passing by another shopper.
特許文献1には、画像処理方式の動線認識システムにより生成された複数の動線データの中から同一客に対する動線データを選択し、それぞれを連結して1本の動線データを生成する動線編集システムが開示されている。
In
ところで、動線認識に必要な情報処理はコンピュータを用いて行うが、その情報処理には大きな負荷を要するため、1台のコンピュータに接続可能なカメラや無線タグリーダの台数には限りがある。このため、単一の動線認識システムで動線を認識可能な領域の広さには自ずと限界がある。そこで、広大な領域全体にわたって動線を認識する場合には、領域を複数に区分し、それぞれに動線認識システムを構築することが考えられる。しかし、その場合は、システムの構築に多大な費用がかかるのみならず、その後の維持コストも莫大なものになる。 By the way, information processing necessary for flow line recognition is performed using a computer. However, since the information processing requires a large load, the number of cameras and wireless tag readers that can be connected to one computer is limited. For this reason, there is a limit to the size of a region where a flow line can be recognized by a single flow line recognition system. Thus, when recognizing a flow line over a vast area, it is conceivable to divide the area into a plurality of areas and construct a flow line recognition system for each. However, in that case, not only will it be very expensive to construct the system, but the subsequent maintenance costs will be enormous.
店舗において、客の行動を分析するのに必ずしも店舗全域にわたって客の移動経路を追跡する必要はなく、特定の複数の売場での同一客の移動経路を追跡できればよいという場合がある。そこで、隣接していない複数の動線認識エリアにそれぞれ構築された動線認識システムで認識されたシステム毎の動線の中から、同一移動体に対する動線を関連付ける技術が求められている。 In a store, in order to analyze a customer's behavior, it is not always necessary to track the travel route of the customer over the entire store, and it may be sufficient to be able to track the travel route of the same customer at a plurality of specific sales floors. Therefore, there is a need for a technique for associating a flow line for the same moving body from among the flow lines for each system recognized by a flow line recognition system constructed in each of a plurality of non-adjacent flow line recognition areas.
本発明はこのような事情に基づいてなされたもので、その目的とするところは、たとえ動線認識システムがそれぞれ構築される複数の動線認識エリアが隣接していなくても、各動線認識システムでそれぞれ認識される動線のなかから同一移動体に対する動線どうしを関連付けることができ、広域な領域の中の部分的な複数領域での動線分析を可能ならしめる動線関連付け方法及び装置並びにプログラムを提供しようとするものである。 The present invention has been made based on such circumstances, and the purpose of the present invention is to recognize each flow line even if a plurality of flow line recognition areas in which a flow line recognition system is constructed are not adjacent to each other. A flow line associating method and apparatus capable of associating flow lines for the same moving body from among the flow lines recognized by the system, and enabling a flow line analysis in a plurality of partial areas in a wide area. As well as a program.
本発明の動線関連付け方法は、第1の動線認識エリア内を移動する移動体毎にその移動体の第1の動線認識エリア内での軌跡を示す動線データを記憶するための第1の動線データベース、第1の動線認識エリアとは異なる第2の動線認識エリア内を移動する移動体毎にその移動体の第2の動線認識エリア内での軌跡を示す動線データを記憶するための第2の動線データベース、第1の動線認識エリア内の少なくとも一部である第1の画像監視エリア内を撮影したカメラ画像データを撮影時刻とともに記憶するための第1の画像データベース、及び、第2の動線認識エリア内の少なくとも一部である第2の画像監視エリア内を撮影したカメラ画像データを撮影時刻とともに記憶するための第2の画像データベースの各データベースに対してアクセスが可能なコンピュータが、第1の動線データベースに記憶された各動線データの中から第1の画像監視エリア内に位置した移動体の動線データを選択し(第1の動線選択段階)、この選択された動線データに対応する移動体が第1の画像監視エリア内に位置する時点のカメラ画像データを前記第1の画像データベースから選択し(第1の画像選択段階)、この選択されたカメラ画像データから移動体画像を抽出するとともに(第1の移動体画像抽出段階)、第2の動線データベースに記憶された各動線データの中から第2の画像監視エリア内に位置する移動体の動線データを選択し(第2の動線選択段階)、この動線データに対応する移動体が第2の画像監視エリア内に位置する時点のカメラ画像データを第2の画像データベースから選択し(第2の画像選択段階)、この選択されたカメラ画像データから移動体画像を抽出し(第2の移動体画像抽出段階)、第1の移動体画像抽出段階により抽出された移動体画像と第2の移動体画像抽出段階により抽出された移動体画像とを照合して各画像の移動体が同一か否かを判定し(移動体同定段階)、移動体が同一であると判定されると、第1の動線選択段階により選択された動線データの少なくとも識別情報に対応させて、第2の動線選択段階により選択された動線データの少なくとも識別情報を記憶することにより(動線関連付け段階)、第1の動線データベースに記憶された各移動体の動線データと第2の動線データベースに記憶された各移動体の動線データとのなかから、同一移動体の動線データどうしを関連付けるようにしたものである。 According to the flow line association method of the present invention, for each moving body that moves in the first flow line recognition area, the flow line data that indicates the trajectory of the moving body in the first flow line recognition area is stored. For each moving body that moves in a second flow line recognition area different from the first flow line recognition area, a flow line that indicates a trajectory in the second flow line recognition area of the moving body A second flow line database for storing data, a first for storing camera image data taken in the first image monitoring area, which is at least part of the first flow line recognition area, together with the shooting time And the second image database for storing camera image data taken in the second image monitoring area, which is at least a part of the second flow line recognition area, together with the shooting time. Against The computer capable of processing selects the flow line data of the moving body located in the first image monitoring area from the respective flow line data stored in the first flow line database (the first flow line selection). Step), selecting camera image data from the first image database when the moving object corresponding to the selected flow line data is located in the first image monitoring area (first image selection step); A moving body image is extracted from the selected camera image data (first moving body image extraction stage), and within the second image monitoring area from each flow line data stored in the second flow line database. Is selected (second flow line selection stage), and the camera image data at the time when the moving body corresponding to the flow line data is located in the second image monitoring area is selected as the second flow line data. Selected from the image database (Second image selection stage), a moving body image is extracted from the selected camera image data (second moving body image extraction stage), and the moving body image extracted by the first moving body image extraction stage And the moving body image extracted in the second moving body image extraction stage are compared to determine whether or not the moving bodies of each image are the same (moving body identification stage), and the moving bodies are determined to be the same. Then, by storing at least the identification information of the flow line data selected by the second flow line selection step in correspondence with at least the identification information of the flow line data selected by the first flow line selection step ( A flow line associating step), from the flow line data of each moving body stored in the first flow line database and the flow line data of each moving body stored in the second flow line database; Associate the flow line data It is a thing.
本発明の動線認識装置は、前記第1,第2の動線データベース及び第1,第2の画像データベースにアクセス可能で、第1の動線データベースに記憶された各動線データの中から第1の画像監視エリア内に位置した移動体の動線データを選択する第1の動線選択手段と、この第1の動線選択手段により選択された動線データに対応する移動体が第1の画像監視エリア内に位置する時点のカメラ画像データを第1の画像データベースから選択する第1の画像選択手段と、この第1の画像選択手段により選択されたカメラ画像データから移動体画像を抽出する第1の移動体画像抽出手段と、第2の動線データベースに記憶された各動線データの中から第2の画像監視エリア内に位置する移動体の動線データを選択する第2の動線選択手段と、この第2の動線選択手段により選択された動線データに対応する移動体が第2の画像監視エリア内に位置する時点のカメラ画像データを第2の画像データベースから選択する第2の画像選択手段と、この第2の画像選択手段により選択されたカメラ画像データから移動体画像を抽出する第2の移動体画像抽出手段と、第1の移動体画像抽出手段により抽出された移動体画像と第2の移動体画像抽出手段により抽出された移動体画像とを照合して各画像の移動体が同一か否かを判定する移動体同定手段と、この移動体同定手段により移動体が同一であると判定されると、第1の動線選択手段により選択された動線データの少なくとも識別情報に対応させて、第2の動線選択手段により選択された動線データの少なくとも識別情報を記憶する動線関連付け手段とを備えたものである。 The flow line recognition apparatus of the present invention can access the first and second flow line databases and the first and second image databases, and from among the flow line data stored in the first flow line database. The first flow line selecting means for selecting the flow line data of the moving body located in the first image monitoring area, and the moving body corresponding to the flow line data selected by the first flow line selecting means are the first First image selection means for selecting camera image data at a time point within one image monitoring area from the first image database, and a moving body image from the camera image data selected by the first image selection means. First moving body image extracting means for extracting and second moving line data for selecting a moving body located in the second image monitoring area from the respective flow line data stored in the second flow line database. The flow line selection means and this Second image selection means for selecting, from the second image database, camera image data at a time when the moving object corresponding to the flow line data selected by the second flow line selection means is located in the second image monitoring area; The second moving body image extracting means for extracting the moving body image from the camera image data selected by the second image selecting means, the moving body image extracted by the first moving body image extracting means, and the second The moving body identifying means for comparing the moving body images extracted by the moving body image extracting means to determine whether or not the moving bodies of the respective images are the same, and the moving body is identical by the moving body identifying means When the determination is made, the movement for storing at least the identification information of the flow line data selected by the second flow line selection means in correspondence with at least the identification information of the flow line data selected by the first flow line selection means. Line related Only those with a unit.
本発明の動線認識プログラムは、前記第1,第2の動線データベース及び第1,第2の画像データベースにアクセス可能なコンピュータに、第1の動線データベースに記憶された各動線データの中から第1の画像監視エリア内に位置した移動体の動線データを選択させる第1の動線選択機能と、この第1の動線選択機能により選択された動線データに対応する移動体が第1の画像監視エリア内に位置する時点のカメラ画像データを第1の画像データベースから選択させる第1の画像選択機能と、この第1の画像選択機能により選択されたカメラ画像データから移動体画像を抽出させる第1の移動体画像抽出機能と、第2の動線データベースに記憶された各動線データの中から第2の画像監視エリア内に位置する移動体の動線データを選択させる第2の動線選択機能と、この第2の動線選択機能により選択された動線データに対応する移動体が前記第2の画像監視エリア内に位置する時点のカメラ画像データを第2の画像データベースから選択させる第2の画像選択機能と、この第2の画像選択機能により選択されたカメラ画像データから移動体画像を抽出させる第2の移動体画像抽出機能と、第1の移動体画像抽出機能により抽出された移動体画像と第2の移動体画像抽出機能により抽出された移動体画像とを照合して各画像の移動体が同一か否かを判定させる移動体同定機能と、この移動体同定機能により移動体が同一であると判定されると、第1の動線選択機能により選択された動線データの少なくとも識別情報に対応させて、第2の動線選択機能により選択された動線データの少なくとも識別情報を記憶させる動線関連付け機能とを実現させるためのものである。 The flow line recognition program according to the present invention stores the flow line data stored in the first flow line database in a computer that can access the first and second flow line databases and the first and second image databases. A first flow line selection function for selecting the flow line data of the moving body located in the first image monitoring area from the inside, and the moving body corresponding to the flow line data selected by the first flow line selection function A first image selection function for selecting from the first image database camera image data at the time when is located in the first image monitoring area, and a moving object from the camera image data selected by the first image selection function First moving body image extraction function for extracting an image, and selection of flow line data of a moving body located in the second image monitoring area from each flow line data stored in the second flow line database The second flow line selection function and the camera image data at the time when the moving object corresponding to the flow line data selected by the second flow line selection function is located in the second image monitoring area A second image selecting function for selecting from the image database; a second moving object image extracting function for extracting a moving object image from the camera image data selected by the second image selecting function; and a first moving object image A mobile object identification function for collating the mobile object image extracted by the extraction function and the mobile object image extracted by the second mobile object image extraction function to determine whether or not the mobile object of each image is the same; When it is determined by the moving body identification function that the moving bodies are the same, the moving body is selected by the second flow line selection function in correspondence with at least the identification information of the flow line data selected by the first flow line selection function. Flow line data It is intended for realizing a flow line association function to store at least identification information.
かかる手段を講じた本発明によれば、たとえ動線認識システムがそれぞれ構築される複数の動線認識エリアが隣接していなくても、各動線認識システムでそれぞれ認識される動線のなかから同一移動体に対する動線どうしを関連付けることができ、広域な領域の中の部分的な複数領域での動線分析を可能ならしめる効果を奏する。 According to the present invention in which such a measure is taken, even if the plurality of flow line recognition areas in which the flow line recognition systems are constructed are not adjacent to each other, the flow lines recognized by each of the flow line recognition systems are used. The flow lines for the same moving body can be associated with each other, and there is an effect that enables the flow line analysis in a plurality of partial areas in a wide area.
以下、本発明の実施形態について、図面を用いて説明する。はじめに、第1の実施形態について、図1〜図11を用いて説明する。
なお、この実施形態は、図4に示すように、田の字型に区分されて互いに客が行き来できる4つの売場A,売場B,売場C及び売場Dを備えた店舗1に適用した場合である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, a first embodiment will be described with reference to FIGS.
In addition, this embodiment is a case where it applies to the
図4に示すように、売場Aは、売場B及び売場Dと隣接し、売場Bは、売場A及び売場Cと隣接し、売場Cは、売場B及び売場Dと隣接し、売場Dは、売場C及び売場Aと隣接している。売場Aと売場C及び売場Bと売場Dは隣接していない。隣接する各売場の境界領域には、それぞれ客が行き来できるように通路が形成されている。また、売場Aと売場Bとには、客が入退場可能な入退場口G1,G2が設けられている。 As shown in FIG. 4, the sales floor A is adjacent to the sales floor B and the sales floor D, the sales floor B is adjacent to the sales floor A and the sales floor C, the sales floor C is adjacent to the sales floor B and the sales floor D, and the sales floor D is It is adjacent to sales floor C and sales floor A. Sales floor A and sales floor C and sales floor B and sales floor D are not adjacent. Passages are formed in the border areas of adjacent sales floors so that customers can come and go. In addition, the sales floor A and the sales floor B are provided with entrances G1 and G2 through which customers can enter and exit.
各売場A〜Dのうち、売場Aと売場Cとには、それぞれその売場内を移動する移動体である人物(買物客)の軌跡を動線として認識するための動線認識システムSA,SCが構築されている。すなわち、売場Aは動線認識システムSAの動線認識エリアとなっており、売場Cは動線認識システムSCの動線認識エリアとなっている。 Among the sales floors A to D, the sales floor A and the sales floor C each have a flow line recognition system SA, SC for recognizing the trajectory of a person (shopper) that is a moving body moving in the sales floor as a flow line. Has been built. That is, the sales floor A is a flow line recognition area of the flow line recognition system SA, and the sales floor C is a flow line recognition area of the flow line recognition system SC.
各動線認識システムSA,SCは、いずれもカメラを用いた画像処理方式である。画像処理方式の動線認識システムは、図1に示すように、複数基のカメラ2と、コンピュータを主体とした動線認識装置3A,3Cとを備える。
Each of the flow line recognition systems SA and SC is an image processing system using a camera. As shown in FIG. 1, the image processing type flow line recognition system includes a plurality of
各カメラ2は、魚眼レンズを用いたカメラや全方位ミラー付のカメラ等の広角レンズカメラである。これらのカメラ2は、視体積交差法により、それぞれ対応する売場A,C内を移動する買物客の軌跡、すなわち人物動線を追跡するために用いられる。視体積交差法は、例えば客の頭部を複数の方向から撮影し、各画像の頭部の位置から頭部の店内空間に適宜設置された3次元座標系内の座標値を算出する方法である。1つの監視領域に配置されるカメラの台数は特に制限されないが、視体積交差法による位置検出精度を高めるためには少なくとも3台は必要である。
Each
各カメラ2は、動線認識装置3A,3Cが備えるカメラコントロール部31の一元制御により一定の周期(例えば1/15秒)で撮影動作を繰り返し、その撮影画像(フレーム画像)を動線認識装置3A,3Cに送信する。動線認識装置3Aは、カメラコントロール部31の他、カメラ画像データベース32A、動線生成部33及び動線データベース34Aを備えている。動線認識装置3Cは、カメラコントロール部31の他、カメラ画像データベース32C、動線生成部33及び動線データベース34Cを備えている。
Each
カメラ画像データベース32A,32Cは、各カメラ2で撮影されたフレーム画像データを順次蓄積する。カメラ画像データベース32A,32Cに蓄積されるフレーム画像データの構造を、図2の模式図で示す。図2に示すように、フレーム画像データは、カメラID、フレーム番号及び撮影時刻が関連付けられて、カメラ画像データベース32A,32Cに記憶される。カメラIDは、当該画像データを撮影したカメラ2の識別コードである。各カメラ2には、それぞれ固有のカメラIDが予め設定されている。フレーム番号は、各カメラ2でフレーム画像が撮影される毎にカウントアップされる“1”からの連続番号である。カメラコントロール部31の制御により、各カメラ2のフレーム番号は同期している。撮影日時は、当該画像データが撮影された時点の日時(年月日時分秒)である。
The
動線生成部33は、カメラ画像データベース32A,32Cに蓄積されたフレーム画像データの画像処理により動線認識エリア(売場)内を移動する買物客を認識し、この買物客が動線認識エリアに進入した地点である始点から退出した地点である終点までの動線認識エリア内での軌跡を示す動線データを作成する。動線生成部33は、例えば前記特許文献1に記載された技術により、複数に途切れた同一買物客の動線を1本の動線に連結する機能を有している。
The flow
動線データベース34A,34Cは、動線生成部33により買物客毎に生成される動線データを順次蓄積する。動線データベース34A,34Cに蓄積される動線データの構造を、図3の模式図で示す。図3に示すように、動線データは、動線IDが関連付けられて、動線データベース34A,34Cに記憶される。動線IDは、当該動線データを個々に特定するための動線特定情報である。動線生成部33は、買物客1名の動線データを生成する毎に、その動線データに固有の動線IDを付して、動線データベース34A,34Cに格納する。
The flow line databases 34 </ b> A and 34 </ b> C sequentially accumulate flow line data generated for each shopper by the flow
動線データは、始点フレーム“1”のフレーム番号、及び終点フレーム“n”(n>1の整数)のフレーム番号と、始点フレーム“1”から終点フレーム“n”までのフレーム毎のインデックスデータとから構成されている。インデックスデータは、少なくとも店内の三次元座標(X,Y,H)とフレーム撮影時刻Tとを含む。始点フレーム“1”番号は、当該動線データの買物客が最初に認識されたフレーム画像のフレーム番号であり、このフレーム画像の撮影時刻が始点フレーム“1”に対するインデックスデータのフレーム撮影時刻T1となる。終点フレーム“n”番号は、当該買物客が最後に認識されたフレーム画像のフレーム番号であり、このフレーム画像の撮影時刻が終点フレーム“n”に対するインデックスデータのフレーム撮影時刻Tnとなる。フレーム番号毎の店内座標は、対応するフレーム番号のフレーム画像から認識された当該顧客の位置を、三次元の世界座標系(X,Y,H)で特定したものである。本実施形態では、図4において、左下の角をX軸及びY軸の原点O(0,0)とし、その床面をH(Height)軸の原点としている。 The flow line data includes the frame number of the start point frame “1”, the frame number of the end point frame “n” (n> 1), and index data for each frame from the start point frame “1” to the end point frame “n”. It consists of and. The index data includes at least the three-dimensional coordinates (X, Y, H) in the store and the frame shooting time T. The start frame “1” number is the frame number of the frame image first recognized by the shopper of the flow line data, and the shooting time of this frame image is the frame shooting time T1 of the index data for the start frame “1”. Become. The end frame “n” number is the frame number of the frame image last recognized by the shopper, and the shooting time of this frame image is the frame shooting time Tn of the index data for the end frame “n”. The store coordinates for each frame number are obtained by specifying the position of the customer recognized from the frame image of the corresponding frame number in the three-dimensional world coordinate system (X, Y, H). In the present embodiment, in FIG. 4, the lower left corner is the origin O (0, 0) of the X and Y axes, and the floor is the origin of the H (Height) axis.
各動線認識システムSA,SCのカメラ2は、それぞれ対応する売場A,Cの天井部等に分散して取り付けられる。本実施形態では、説明の便宜上、図5の#1〜#6に示すレイアウトで、カメラ2が売場A,C毎に各6基ずつ取り付けられているものとする。
The
本発明に係わる動線関連付け装置4の要部構成を、図1のブロック図にて示す。動線関連付け装置4は、入力部41、表示部42、データベースアクセス部43、プログラム記憶部44、データ記憶部45、関連付け動線ファイル46及び制御部47を備えている。入力部41は、キーボード,マウス等の入力デバイスからなる。表示部42は、液晶ディスプレイ,CRTディスプレイ等の表示デバイスからなる。タッチパネル付のディスプレイを用いることで、入力部と表示部を兼用してもよい。
The principal part structure of the flow
データベースアクセス部43は、各動線認識システムSA,SCの動線認識装置3A,3Cがそれぞれ有する動線データベース34A,34Cとカメラ画像データベース32A,32Cにアクセスし、動線データやフレーム画像データを読取ったり書き込んだりできる。
The
プログラム記憶部44は、ROM(Read Only Memory)で構成されている。データ記憶部45は、RAM(Random Access Memory)で構成されている。関連付け動線ファイル46は、ハードディスクや光磁気ディスク等の記録媒体で構成されている。制御部47は、CPU(Central Processing Unit)を主体に構成されている。かかる構成の動線関連付け装置4は、パーソナルコンピュータ等のコンピュータ機器によって実現される。
The
プログラム記憶部44には、コンピュータに、売場A(動線認識エリア)の動線認識システムSAによって認識された動線データと、売場Cの動線認識システムSCによって認識された動線データとの中から、売場A,C間を行き来した同一買物客の動線データを選出させて関連付けさせるプログラム、いわゆる動線関連付けプログラムが実装されている。制御部47は、上記動線関連付けプログラムに従い、動線データの関連付けを行う。
The
以下、動線データの関連付け手順について、具体的に説明する。はじめに、各動線認識システムSA,SCの動線データベース34A,34Cに記憶される動線データについて説明する。
Hereinafter, a procedure for associating the flow line data will be specifically described. First, the flow line data stored in the
動線認識システムSAに対応した動線認識装置3Aの動線データベース34Aには、買物客が売場Aに進入した地点である始点から退出した地点である終点までの売場A内での軌跡を示す動線データが蓄積される。買物客は、入退場口G1または売場A,B間の境界領域ABの通路若しくは売場D,A間の境界領域DAの通路から売場Aに進入及び退出できる。したがって、動線データベース34Aに蓄積される動線データは、次の9種類である。
In the
1.入退場口G1から入店し、売場Aだけを回って入退場口G1から退店した買物客のデータ。 1. Data of a shopper who enters from the entrance / exit G1 and goes around the sales floor A and exits from the entrance / exit G1.
2.入退場口G1から入店し、境界領域ABの通路を通って売場Bに移動した買物客のデータ。 2. Data of a shopper who enters the store from the entrance / exit G1 and moves to the store B through the passage in the boundary area AB.
3.入退場口G1から入店し、境界領域DAの通路を通って売場Dに移動した買物客のデータ。 3. Data of a shopper who enters the store from the entrance / exit G1 and moves to the store D through the passage in the boundary area DA.
4.売場Bより境界領域ABの通路を通って売場Aに入り、再び境界領域ABの通路を通って売場Bに戻った買物客のデータ。 4). Data of a shopper who enters the sales floor A from the sales floor B through the boundary area AB and returns to the sales floor B through the boundary area AB.
5.売場Bより境界領域ABの通路を通って売場Aに入り、さらに境界領域DAの通路を通って売場Dに移動した買物客のデータ。 5. Data of a shopper who enters the sales floor A from the sales floor B through the passage in the boundary area AB and further moves to the sales floor D through the passage in the boundary area DA.
6.売場Bより境界領域ABの通路を通って売場Aに入り、入退場口G1から退店した買物客のデータ。 6). Data of a shopper who enters the sales floor A from the sales floor B through the passage in the boundary area AB and exits from the entrance / exit G1.
7.売場Dより境界領域DAの通路を通って売場Aに入り、再び境界領域DAの通路を通って売場Dに戻った買物客のデータ。 7). Data of a shopper who enters the sales floor A through the boundary area DA from the sales floor D and returns to the sales floor D through the boundary area DA again.
8.売場Dより境界領域DAの通路を通って売場Aに入り、さらに境界領域ABの通路を通って売場Bに移動した買物客のデータ。 8). Data of a shopper who enters the sales floor A from the sales floor D through the passage in the boundary area DA and further moves to the sales floor B through the passage in the boundary area AB.
9.売場Dより境界領域DAの通路を通って売場Aに入り、入退場口G1から退店した買物客のデータ。 9. Data of a shopper who enters the sales floor A from the sales floor D through the boundary area DA and exits from the entrance G1.
動線認識システム2Cに対応した動線認識装置3SCの動線データベース34Cには、買物客が売場Cに進入した地点である始点から退出した地点である終点までの売場C内での軌跡を示す動線データが蓄積される。買物客は、境界領域BCの通路または境界領域CDの通路から売場Cに進入及び退出できる。したがって、動線データベース34Cに蓄積される動線データは、次の4種類である。
The
1.売場Bより境界領域BCの通路を通って売場Cに入り、再び境界領域BCの通路を通って売場Bに戻った買物客のデータ。 1. Data of a shopper who enters the sales floor C from the sales floor B through the boundary area BC and returns to the sales floor B through the boundary area BC again.
2.売場Bより境界領域BCの通路を通って売場Cに入り、さらに境界領域CDの通路を通って売場Dに移動した買物客のデータ。 2. Data of a shopper who enters the sales floor C from the sales floor B through the passage in the boundary area BC and further moves to the sales floor D through the passage in the boundary area CD.
3.売場Dより境界領域CDの通路を通って売場Cに入り、再び境界領域CDの通路を通って売場Dに戻った買物客のデータ。 3. Data of a shopper who enters the sales floor C through the boundary area CD from the sales floor D and returns to the sales floor D through the boundary area CD again.
4.売場Dより境界領域CDの通路を通って売場Cに入り、さらに境界領域BCの通路を通って売場Bに移動した買物客のデータ。 4). Data of a shopper who enters the sales floor C from the sales floor D through the passage of the boundary area CD and further moves to the sales floor B through the passage of the boundary area BC.
ここで、買物客が売場Aと売場Cとの間を行き来するパターンとしては、境界領域ABの通路を通って売場Aから退場し、売場Bを経て境界領域BCの通路から売場Cに入場するパターンABC及びその逆のパターンCBAと、境界領域DAの通路を通って売場Aから退場し、売場Dを経て境界領域CDの通路から売場Cに入場するパターンADC及びその逆のパターンCDAの4パターンある。したがって、上記パターンABC,CBA,ADC,CDA毎に同一買物客の売場Aでの動線データと売場Cでの動線データとを関連付ければよい。 Here, as a pattern for the shopper to go back and forth between the sales floor A and the sales floor C, the shop exits from the sales floor A through the passage in the boundary area AB, and enters the sales floor C through the passage in the boundary area BC through the sales floor B. The pattern ABC and its reverse pattern CBA, and the pattern ADC that leaves the sales floor A through the passage of the boundary area DA, enters the sales floor C from the passage of the boundary area CD through the sales floor D, and the reverse pattern CDA. is there. Therefore, the flow line data at the sales floor A of the same shopper and the flow line data at the sales floor C may be associated with each of the patterns ABC, CBA, ADC, and CDA.
そこで、動線関連付け装置4は、第1の動線データベース34Aに記憶された各動線データの中から第1の画像監視エリア内に位置した買物客の動線データを選択する(第1の動線選択段階)。そして、この選択された動線データに対応する買物客が第1の画像監視エリア内に位置する時点のカメラ画像データを第1の画像データベース32Aから選択する(第1の画像選択段階)。そして、この選択されたカメラ画像データから買物客の画像を抽出する(第1の移動体画像抽出段階)。次に、第2の動線データベース34Cに記憶された各動線データの中から第2の画像監視エリア内に位置する買物客の動線データを選択する(第2の動線選択段階)。そして、この動線データに対応する買物客が第2の画像監視エリア内に位置する時点のカメラ画像データを第2の画像データベース32Cから選択する(第2の画像選択段階)。そして、この選択されたカメラ画像データから買物客の画像を抽出する(第2の移動体画像抽出段階)。第1の移動体画像抽出段階により抽出された買物客画像と第2の移動体画像抽出段階により抽出された買物客画像とを照合して各画像の買物客が同一人物か否かを判定する(移動体同定段階)。買物客が同一人物であると判定されると、第1の動線選択段階により選択された動線データの少なくとも識別情報に対応させて、第2の動線選択段階により選択された動線データの少なくとも識別情報を記憶する(動線関連付け段階)。かくして、第1の動線データベース34Aに記憶された各買物客の動線データと第2の動線データベース34Cに記憶された各買物客の動線データとのなかから、同一買物客の動線データどうしを関連付ける。
Therefore, the flow
このような動線関連付け処理を実現するために、動線関連付け装置4は、図6に示すデータ構造の設定テーブル5を備えている。設定テーブル5は、制御部47が内蔵するメモリに記憶されていてもよいし、データ記憶部45に記憶されていてもよい。図6の設定テーブル5は、図5に示すカメラレイアウトに対応している。
In order to realize such a flow line association process, the flow
図5の場合、売場Aと売場Bとの間の矩形の境界領域ABを撮影可能なカメラ2は、動線認識システムSAの#3,#6の2台である。売場Bと売場Cとの間の矩形の境界領域BCを撮影可能なカメラ2は、動線認識システムSCの#4,#5,#6の3台である。売場Cと売場Dとの間の矩形の境界領域CDを撮影可能なカメラ2は、動線認識システムSCの#1,#4の2台である。売場Dと売場Aとの間の矩形の境界領域DAを撮影可能なカメラ2は、動線認識システムSAの#1,#2,#3の3台である。
In the case of FIG. 5, there are two
設定テーブル5には、境界領域を特定する情報(項目「境界領域」)に対応して、その領域の左上角の二次元座標(項目「左上座標」)及び右下角の二次元座標(項目「右下座標」)と、その境界領域を撮影可能なカメラを有する動線認識システムの識別情報(項目「対象システム」)及びそのカメラの特定情報(項目「判定用カメラ」)とが設定されている。 In the setting table 5, the two-dimensional coordinates of the upper left corner of the area (item “upper left coordinate”) and the two-dimensional coordinates of the lower right corner (item “item“ Lower right coordinates "), identification information (item" target system ") of a flow line recognition system having a camera capable of photographing the boundary area, and specific information of the camera (item" judgment camera ") are set. Yes.
また、動線関連付け装置4は、関連付けた動線のデータを関連付け動線ファイル46で保存する。関連付け動線ファイル46は、図7に示すように、固有の関連付け動線ID(項目「関連付け動線ID」)に対応して、動線認識システムSAの動線を特定するための動線ID(項目「SA動線ID」)と、この動線IDに関連付けられる動線認識システムSAの動線を特定するための動線ID(項目「SA動線ID」)と、売場Aと売場Cとの間の移動に要した時間情報(項目「移動所要時間」)とを記録可能となっている。
Further, the flow
例えば入力部41の操作入力により、動線関連付け業務の開始が指令されると、動線関連付けプログラムが起動する。これにより、制御部47は、図8の流れ図に示す手順で各部を制御する。
For example, when the start of a flow line association job is instructed by an operation input of the input unit 41, the flow line association program is activated. Thereby, the
先ず、ST(ステップ)1として、制御部47は、関連付け方向を判別する。例えば入力部41の操作入力により、売場Aから売場Cに移動した買物客の動線関連付け処理が指定された場合には、ST11〜ST18の処理を実行する。売場Cから売場Aに移動した買物客の動線関連付け処理が指定された場合には、ST21〜ST28の処理を実行する。
First, as ST (step) 1, the
売場Aから売場Cに移動する買物客のパターンには、前記パターンABCとパターンADCとがある。そこで、先ず、パターンABCの買物客の売場Aでの動線データと売場Cでの動線データとを関連付ける処理を実行する。 The patterns of the shopper who moves from the sales floor A to the sales floor C include the pattern ABC and the pattern ADC. Therefore, first, a process of associating the flow line data at the sales floor A of the shopper with the pattern ABC and the flow line data at the sales floor C is executed.
すなわち制御部47は、ST11として動線認識システムSAの動線データベース34Aから、境界領域ABの通路を通って売場Aから退場した客の動線データPを選択する(動線P選択処理)。また、ST12として動線認識システムSCの動線データベース34Cから、境界領域BCの通路を通って売場Cに入場した客の動線データQを選択する(動線Q選択処理)。そして、ST13として動線データPと動線データQとをそれぞれ少なくとも1データ以上選択できたか否かを判断する。選択できた場合(ST13のYES)、制御部47は、ST14として動線データPと動線データQの関連付けを行う(動線関連付け処理)。選択できなかった場合には(ST13のNO)、ST14の動線関連付け処理は行われない。
That is, the
次に、パターンADCの買物客の売場Aでの動線データと売場Cでの動線データとを関連付ける処理を実行する。 Next, a process of associating the flow line data at the sales floor A of the customer with the pattern ADC and the flow line data at the sales floor C is executed.
すなわち制御部47は、ST15として動線認識システムSAの動線データベース34Aから、境界領域DAの通路を通って売場Aから退場した客の動線データPを選択する(動線P選択処理)。また、ST16として動線認識システムSCの動線データベース34Cから、境界領域CDを通って売場Cに入場した客の動線データQを選択する(動線Q選択処理)。そして、ST17として動線データPと動線データQとをそれぞれ少なくとも1データ以上選択できたか否かを判断する。選択できた場合(ST17のYES)、制御部47は、ST18として動線データPと動線データQの関連付けを行う(動線関連付け処理)。選択できなかった場合には(ST17のNO)、ST18の動線関連付け処理は行われない。以上で、動線関連付けプログラムは終了する。
That is, the
売場Cから売場Aに移動する買物客のパターンには、前記パターンCBAとパターンCDAとがある。そこで、先ず、パターンCBAの買物客の売場Cでの動線データと売場Aでの動線データとを関連付ける処理を実行する。 The patterns of the shopper who moves from the sales floor C to the sales floor A include the pattern CBA and the pattern CDA. Therefore, first, a process of associating the flow line data at the sales floor C of the shopper with the pattern CBA and the flow line data at the sales floor A is executed.
すなわち制御部47は、ST21として動線認識システムSCの動線データベース34Cから、境界領域BCの通路を通って売場Cから退場した客の動線データPを選択する(動線P選択処理)。また、ST22として動線認識システムSAの動線データベース34Aから、境界領域ABの通路を通って売場Aに入場した客の動線データQを選択する(動線Q選択処理)。そして、ST23として動線データPと動線データQとをそれぞれ少なくとも1データ以上選択できたか否かを判断する。選択できた場合(ST23のYES)、制御部47は、ST24として動線データPと動線データQの関連付けを行う(動線関連付け処理)。選択できなかった場合には(ST23のNO)、ST24の動線関連付け処理は行われない。
That is, the
次に、パターンCDAの買物客の売場Cでの動線データと売場Aでの動線データとを関連付ける処理を実行する。 Next, a process of associating the flow line data at the sales floor C of the shopper with the pattern CDA and the flow line data at the sales floor A is executed.
すなわち制御部47は、ST25として動線認識システムSCの動線データベース34Cから、境界領域CDの通路を通って売場Cから退場した客の動線データPを選択する(動線P選択処理)。また、ST26として動線認識システムSAの動線データベース34Aから、境界領域DAを通って売場Aに入場した客の動線データQを選択する(動線Q選択処理)。そして、ST27として動線データPと動線データQとをそれぞれ少なくとも1データ以上選択できたか否かを判断する。選択できた場合(ST27のYES)、制御部47は、ST28として動線データPと動線データQの関連付けを行う(動線関連付け処理)。選択できなかった場合には(ST27のNO)、ST28の動線関連付け処理は行われない。以上で、動線関連付けプログラムは終了する。
That is, the
図9は、前記ST11、ST15、ST21及びST25の動線P選択処理の手順を具体的に示す流れ図である。各ステップの処理は、対象となる動線認識システムが異なるだけで手順は同一なので、図9を用いてまとめて説明する。 FIG. 9 is a flowchart specifically showing the flow line P selection process in ST11, ST15, ST21 and ST25. Since the process of each step is the same except that the target flow line recognition system is different, it will be described collectively with reference to FIG.
動線P選択処理が開始されると、制御部47は、先ず、ST31としてデータ数カウンタm1を“0”にリセットする。また、ST32としてポインタpを“0”にリセットする。次に、ST33として上記ポインタpを“1”だけ増加する。そして、ST34としてポインタpが、対象となる動線認識システム(ST11,ST15では動線認識システムSA、ST21,ST25では動線認識システムSC)の動線データベース(ST11,ST15では動線データベース34A、ST21,ST25では動線データベース34C)に保存されている動線データの総数を超えたか否かを判断する。
When the flow line P selection process is started, the
この時点では、未だ超えていないので、制御部47は、ST35として上記対象システムSAまたはSCの動線データベース34Aまたは34Cから、ポインタpが示す動線データ(以下、p番目動線データと称する)を取り込む。そして、ST36として、このp番目動線データから終点インデックス情報の二次元座標(Xn,Yn)を検出する。
At this time, since it has not exceeded yet, the
次に、制御部47は、ST37として設定テーブル5から比較対象となる境界領域(ST11では境界領域AB、ST15では境界領域DA、ST21では境界領域BC、ST25では境界領域CD)に対応して設定されている左上座標及び右下座標のデータを読み出す。そして、これらの座標データと、ST36の処理で検出した終点インデックス情報の二次元座標(Xn,Yn)とを照合して、当該二次元座標(Xn,Yn)によって示される位置が、比較対象となる境界領域AB,DA,BCまたはCDの内側か否かを判断する(第1の動線選択手段)。
Next, the
例えば、比較対象となる境界領域が領域ABの場合、左上座標は(X1,Y1)であり、右下座標は(X2,Y2)である。したがって、終点二次元座標(Xn,Yn)の“Xn”がX1≦Xn≦X2の関係にあり、かつ、“Yn”がY1≧Yn≧Y2の関係にあるとき、終点二次元座標(Xn,Yn)は境界領域ABの内側であると判定される。同様に、境界領域DAの場合は、終点二次元座標(Xn,Yn)の“Xn”がX7≦Xn≦X8の関係にあり、かつ、“Yn”がY7≧Yn≧Y8の関係にあるとき、終点二次元座標(Xn,Yn)は境界領域DAの内側であると判定され、境界領域BCの場合は、終点二次元座標(Xn,Yn)の“Xn”がX3≦Xn≦X4の関係にあり、かつ、“Yn”がY3≧Yn≧Y4の関係にあるとき、終点二次元座標(Xn,Yn)は境界領域BCの内側であると判定され、境界領域CDの場合は、終点二次元座標(Xn,Yn)の“Xn”がX5≦Xn≦X6の関係にあり、かつ、“Yn”がY5≧Yn≧Y6の関係にあるとき、終点二次元座標(Xn,Yn)は境界領域DAの内側であると判定される。 For example, when the boundary area to be compared is the area AB, the upper left coordinates are (X1, Y1) and the lower right coordinates are (X2, Y2). Therefore, when “Xn” of the end point two-dimensional coordinates (Xn, Yn) has a relationship of X1 ≦ Xn ≦ X2 and “Yn” has a relationship of Y1 ≧ Yn ≧ Y2, the end point two-dimensional coordinates (Xn, Yn) is determined to be inside the boundary area AB. Similarly, in the case of the boundary area DA, when “Xn” of the end point two-dimensional coordinates (Xn, Yn) has a relationship of X7 ≦ Xn ≦ X8 and “Yn” has a relationship of Y7 ≧ Yn ≧ Y8. , The end point two-dimensional coordinates (Xn, Yn) are determined to be inside the boundary area DA. In the case of the boundary area BC, the relationship “Xn” of the end point two-dimensional coordinates (Xn, Yn) satisfies X3 ≦ Xn ≦ X4. And “Yn” is in the relationship of Y3 ≧ Yn ≧ Y4, the end point two-dimensional coordinates (Xn, Yn) are determined to be inside the boundary region BC. When “Xn” of the dimensional coordinates (Xn, Yn) has a relationship of X5 ≦ Xn ≦ X6 and “Yn” has a relationship of Y5 ≧ Yn ≧ Y6, the end point two-dimensional coordinate (Xn, Yn) is a boundary. It is determined that it is inside the area DA.
終点二次元座標(Xn,Yn)によって示される位置が、比較対象となる境界領域AB,DA,BCまたはCDの内側でないと判定された場合、制御部47は、ST33の処理に戻る。そして、ポインタpをさらに“1”だけ増加させて、ST34以降の処理を再度実行する。
If it is determined that the position indicated by the end point two-dimensional coordinates (Xn, Yn) is not inside the boundary region AB, DA, BC or CD to be compared, the
一方、終点二次元座標(Xn,Yn)によって示される位置が、比較対象となる境界領域AB,DA,BCまたはCDの内側であると判定された場合には、制御部47は、ST38としてp番目動線データから終点フレームn番号を取得する。次いで、ST39として設定テーブル5から比較対象となる境界領域に対応して設定されている対象システムの情報と判定用カメラの情報とを取得する。そして、対象システムの画像データベース(ST11,ST15では画像データベース32A、ST21,ST25では画像データベース32C)から、上記判定用カメラにて撮影されたフレーム画像データの中で、ST38の処理で検出した終点フレームn番号が割り当てられて保存された画像データを取り込む(第1の画像選択手段)。
On the other hand, when it is determined that the position indicated by the end point two-dimensional coordinates (Xn, Yn) is inside the boundary region AB, DA, BC or CD to be compared, the
次に、制御部47は、ST40として画像データベース32Aまたは32Cから取り込んだ終点フレームn番号のフレーム画像データを解析して、これらの画像データから人物画像を抽出する(第1の移動体画像抽出手段)。そして、人物画像を抽出できたならば、制御部47は、ST41としてp番目動線データの動線ID、及び、終点を示すフレームnインデックス情報と、抽出された人物画像のデータとを関連付けた1レコードを生成し、データ記憶部45上の第1動線メモリに記憶させる。また、ST42として前記データ数カウンタm1を“1”だけカウントアップする。しかる後、制御部47は、ST33の処理に戻る。そして、ポインタpをさらに“1”だけ増加させて、ST34以降の処理を再度実行する。
Next, the
こうして、ポインタpが対象となる動線認識システムの動線データベース34Aまたは34Cに保存されている動線データの総数を超えるまで、制御部47は、ポインタpを繰り上げる毎にST35〜ST42の処理を繰返し実行する。ポインタpが動線データの総数を超えると、動線P選択処理は終了する。
Thus, the
かかる手順の動線P選択処理を実行することにより、ST11では、境界領域ABを終点とする動線データの動線ID及び終点インデックス情報と人物画像のデータとが第1動線メモリに記憶される。人物画像のデータは、この動線データの終点が境界領域ABに達した時点において、動線認識システムSAの各カメラ2のうち、#3及び#6で特定されるカメラによって撮影された画像から抽出される。ST15では、境界領域DAを終点とする動線データの動線ID及び終点インデックス情報と人物画像のデータとが第1動線メモリに記憶される。人物画像のデータは、この動線データの終点が境界領域DAに達した時点において、動線認識システムSAの各カメラ2のうち、#1,#2及び#3で特定されるカメラによって撮影された画像から抽出される。ST21では、境界領域BCを終点とする動線データの動線ID及び終点インデックス情報と人物画像のデータとが第1動線メモリに記憶される。人物画像のデータは、この動線データの終点が境界領域BCに達した時点において、動線認識システムSCの各カメラ2のうち、#4,#5及び#6で特定されるカメラによって撮影された画像から抽出される。ST25では、境界領域CDを終点とする動線データの動線ID及び終点インデックス情報と人物画像のデータとが第1動線メモリに記憶される。人物画像のデータは、この動線データの終点が境界領域CDに達した時点において、動線認識システムSCの各カメラ2のうち、#1及び#4で特定されるカメラによって撮影された画像から抽出される。
By executing the flow line P selection process of this procedure, in ST11, the flow line ID and end point index information of the flow line data having the boundary area AB as the end point and the person image data are stored in the first flow line memory. The The human image data is obtained from images taken by the cameras identified by # 3 and # 6 among the
図10は、前記ST12、ST16、ST22及びST26の動線Q選択処理の手順を具体的に示す流れ図である。各ステップの処理は、対象となる動線認識システムが異なるだけで手順は同一なので、図10を用いてまとめて説明する。 FIG. 10 is a flowchart specifically showing the procedure of the flow line Q selection process in ST12, ST16, ST22 and ST26. Since the procedure of each step is the same except that the target flow line recognition system is different, it will be described collectively with reference to FIG.
動線Q選択処理が開始されると、制御部47は、先ず、ST51としてデータ数カウンタm2を“0”にリセットする。また、ST52としてポインタqを“0”にリセットする。次に、ST53として上記ポインタqを“1”だけ増加する。そして、ST54としてポインタqが、対象となる動線認識システム(ST12,ST16では動線認識システムSC、ST22,ST26では動線認識システムSA)の動線データベース(ST12,ST16では動線データベース34C、ST22,ST26では動線データベース34A)に保存されている動線データの総数を超えたか否かを判断する。
When the flow line Q selection process is started, the
この時点では、未だ超えていないので、制御部47は、ST55として上記対象システムSCまたはSAの動線データベース34Cまたは34Aから、ポインタqが示す動線データ(以下、q番目動線データと称する)を取り込む。そして、ST56として、このq番目動線データから始点インデックス情報の二次元座標(X1,Y1)を検出する。
At this point, since it has not yet exceeded, the
次に、制御部47は、ST57として設定テーブル5から比較対象となる境界領域(ST12では境界領域BC、ST16では境界領域CD、ST22では境界領域AB、ST26では境界領域DA)に対応して設定されている左上座標及び右下座標のデータを読み出す。そして前記ST36の処理と同様に、これらの座標データと、ST56の処理で検出した始点インデックス情報の二次元座標(X1,Y1)とを照合して、当該二次元座標(X1,Y1)によって示される位置が、比較対象となる境界領域BC,CD,ABまたはDAの内側か否かを判断する(第2の動線選択手段)。
Next, the
始点二次元座標(X1,Y1)によって示される位置が、比較対象となる境界領域BC,CD,ABまたはDAの内側でないと判定された場合、制御部47は、ST53の処理に戻る。そして、ポインタqをさらに“1”だけ増加させて、ST54以降の処理を再度実行する。
When it is determined that the position indicated by the start point two-dimensional coordinates (X1, Y1) is not inside the boundary region BC, CD, AB or DA to be compared, the
一方、始点二次元座標(X1,Y1)によって示される位置が、比較対象となる境界領域BC,CD,ABまたはDAの内側であると判定された場合には、制御部47は、ST58としてq番目動線データから始点フレーム1番号を取得する。次いで、ST59として設定テーブル5から比較対象となる境界領域に対応して設定されている対象システムの情報と判定用カメラの情報とを取得する。そして、対象システムの画像データベース(ST12,ST16では画像データベース32C、ST22,ST26では画像データベース32A)から、上記判定用カメラにて撮影されたフレーム画像データの中で、ST58の処理で検出した始点フレーム1番号が割り当てられて保存された画像データを取り込む(第2の画像選択手段)。
On the other hand, when it is determined that the position indicated by the start point two-dimensional coordinates (X1, Y1) is inside the boundary region BC, CD, AB or DA to be compared, the
次に、制御部47は、ST60として画像データベース32Cまたは32Aから取り込んだ始点フレーム1番号のフレーム画像データを解析して、これらの画像データから人物画像を抽出する(第2の移動体画像抽出手段)。そして、人物画像を抽出できたならば、制御部47は、ST61としてq番目動線データの動線ID、及び、始点を示すフレーム1インデックス情報と、抽出された人物画像のデータとを関連付けた1レコードを生成し、データ記憶部45上の第2動線メモリに記憶させる。また、ST62として前記データ数カウンタm2を“1”だけカウントアップする。しかる後、制御部47は、ST53の処理に戻る。そして、ポインタqをさらに“1”だけ増加させて、ST54以降の処理を再度実行する。
Next, the
こうして、ポインタqが対象となる動線認識システムの動線データベース34Cまたは34Aに保存されている動線データの総数を超えるまで、制御部47は、ポインタqを繰り上げる毎にST55〜ST62の処理を繰返し実行する。ポインタqが動線データの総数を超えると、動線Q選択処理は終了する。
In this way, the
かかる手順の動線Q選択処理を実行することにより、ST12では、境界領域BCを始点とする動線データの動線ID及び始点インデックス情報と人物画像のデータとが第2動線メモリに記憶される。人物画像のデータは、この動線データの始点が境界領域BCにて検知された時点において、動線認識システムSCの各カメラ2のうち、#4,#5及び#6で特定されるカメラによって撮影された画像から抽出される。ST16では、境界領域CDを始点とする動線データの動線ID及び始点インデックス情報と人物画像のデータとが第2動線メモリに記憶される。人物画像のデータは、この動線データの始点が境界領域CDで検知された時点において、動線認識システムSCの各カメラ2のうち、#1及び#4で特定されるカメラによって撮影された画像から抽出される。ST22では、境界領域ABを始点とする動線データの動線ID及び始点インデックス情報と人物画像のデータとが第2動線メモリに記憶される。人物画像のデータは、この動線データの始点が境界領域ABで検知された時点において、動線認識システムSAの各カメラ2のうち、#3及び#6で特定されるカメラによって撮影された画像から抽出される。ST26では、境界領域DAを始点とする動線データの動線ID及び始点インデックス情報と人物画像のデータとが第2動線メモリに記憶される。人物画像のデータは、この動線データの始点が境界領域DAで検知された時点において、動線認識システムSAの各カメラ2のうち、#1,#2及び#3で特定されるカメラによって撮影された画像から抽出される。
By executing the flow line Q selection process of such a procedure, in ST12, the flow line ID and start point index information of the flow line data starting from the boundary area BC and the data of the person image are stored in the second flow line memory. The The human image data is obtained by the cameras identified by # 4, # 5, and # 6 among the
図11は、前記ST14、ST18、ST24及びST28の動線関連付け処理の手順を具体的に示す流れ図である。各ステップの処理手順は同一なので、図11を用いてまとめて説明する。 FIG. 11 is a flowchart specifically showing the flow line association processing procedure of ST14, ST18, ST24 and ST28. Since the processing procedure of each step is the same, it will be described collectively with reference to FIG.
動線関連付け処理が開始されると、制御部47は、先ず、ST71としてポインタpを“0”にリセットする。次いで、ST72として上記ポインタpを“1”だけ増加する。そして、ST73としてポインタpがデータ数カウンタm1を超えたか否かを判断する。データ数カウンタm1は、第1動線メモリに記憶されているデータの数である。
When the flow line association process is started, the
ポインタpがデータ数カウンタm1を超えていない場合(ST73のNO)、制御部47は、ST74として第1動線メモリからポインタpが示すデータ(以下、p番目データと称する)を読込む。
When the pointer p does not exceed the data number counter m1 (NO in ST73), the
次に、制御部47は、ST75としてポインタqを“0”にリセットする。次いで、ST76として上記ポインタqを“1”だけ増加する。そして、ST77としてポインタqがデータ数カウンタm2を超えたか否かを判断する。データ数カウンタm2は、第2動線メモリに記憶されているデータの数である。
Next, the
ポインタqがデータ数カウンタm2を超えていない場合(ST77のNO)、制御部47は、ST78として第2動線メモリからポインタqが示すデータ(以下、q番目データと称する)を読込む。
When the pointer q does not exceed the data number counter m2 (NO in ST77), the
しかる後、制御部47は、ST79としてp番目データに含まれる人物画像データとq番目データに含まれる人物画像データとから、両人物画像データで特定される人物が同一人物であるか否かを判定するための人物同定処理を実行する(移動体同定手段)。
Thereafter, the
この人物同定処理の結果、同一人物でないと判定された場合には(ST80のNO)、制御部47は、ST76の処理に戻る。そして、ポインタqをさらに“1”だけ増加し(ST76)、ポインタqがデータ数カウンタm2に達していないことを確認したならば(ST77のNO)、ST78以降の処理を再度実行する。
As a result of the person identification process, when it is determined that they are not the same person (NO in ST80), the
これに対し、同一人物であると判定された場合には(ST80のYES)、制御部47は、ST81として新規の関連付け動線IDを生成する。また、制御部47は、ST82としてp番目データに含まれる終点インデックス情報の終点到達時刻Tnからq番目データに含まれる始点インデックス情報の始点到達時刻T1までの経過時間を算出する。この経過時間は、対象となる売場間(ST14、ST18では売場A→売場C、ST24、ST28では売場C→売場B)の移動所要時間ΔT(ΔT=T1−Tn)である(所要時間演算手段)。
On the other hand, when it is determined that they are the same person (YES in ST80), the
そして制御部47は、ST83として上記新規関連付け動線ID、p番目データの動線ID、q番目データの動線ID及び移動所要時間ΔTの各データから1レコードを生成し、関連付け動線ファイル46に保存する(動線関連付け手段)。
Then, the
しかる後、制御部47は、ST84として第2動線メモリからq番目データを削除する。また、ST85としてデータ数カウンタm2を”1”だけカウントダウンする。その後、ST72の処理に戻る。
このように、関連付けられたq番目データを第2動線メモリから削除することにより、次のp+1番目データに関連付けられるq番目データの検索に要する処理手順が減少する。
Thereafter, the
Thus, by deleting the associated qth data from the second flow line memory, the processing procedure required for searching for the qth data associated with the next p + 1th data is reduced.
なお、ST77において、ポインタqがデータ数カウンタm2を越えたならぱ、制御部47は、ST78以降の処理を実行することなく、ST72の処理に戻る。
If the pointer q exceeds the data number counter m2 in ST77, the
こうして、ポインタpを“1”ずつ増加する毎に、制御部47は、ST74以降の処理を実行する。そして、ポインタpがデータ数カウンタm1を超えたならば(ST73のYES)、制御部47は、ST86として第1動線メモリ及び第2動線メモリをクリアする。以上で、動線関連付け処理は終了する。
Thus, every time the pointer p is incremented by “1”, the
かかる手順の動線関連付け処理を実行することにより、人物画像データの人物が同一人物であると判定されたp番目データの動線IDによって識別される動線データと、q番目データの動線IDによって識別される動線データとが関連付けられる。すなわち、ST14では、売場Aから売場Bを通って売場Cに移動した買物客の売場Aでの動線データと売場Cでの動線データとが関連付けられる。ST18では、売場Aから売場Dを通って売場Cに移動した買物客の売場Aでの動線データと売場Cでの動線データとが関連付けられる。ST24では、売場Cから売場Bを通って売場Aに移動した買物客の売場Cでの動線データと売場Aでの動線データとが関連付けられる。ST28では、売場Cから売場Dを通って売場Aに移動した買物客の売場Cでの動線データと売場Aでの動線データとが関連付けられる。 By executing the flow line association process of such a procedure, the flow line data identified by the flow line ID of the p-th data determined to be the same person and the flow line ID of the q-th data. Is associated with the flow line data identified by. That is, in ST14, the flow line data at the sales floor A and the flow line data at the sales floor C of the shopper who has moved from the sales floor A to the sales floor C through the sales floor B are associated with each other. In ST18, the flow line data at the sales floor A and the flow line data at the sales floor C of the shopper who has moved from the sales floor A to the sales floor C through the sales floor D are associated with each other. In ST24, the flow line data at the sales floor C of the shopper who has moved from the sales floor C to the sales floor A through the sales floor B is associated with the flow line data at the sales floor A. In ST28, the flow line data at the sales floor C of the shopper who has moved from the sales floor C to the sales floor A through the sales floor D is associated with the flow line data at the sales floor A.
なお、図9のST40及び図10のST60において、カメラ画像データからゆがみのない人物画像を抽出する技術は、例えば特許文献2や特許文献3などに開示されている周知の技術を利用する。同様に、図11のST79において、抽出した2つの人物画像を対比(パターン認識、色ヒストグラム間の類似度等)して同一人物であるか否かを判定する人物同定処理の技術は、例えば特許文献4や前記特許文献3などに開示されている周知の技術を利用する。
In ST40 of FIG. 9 and ST60 of FIG. 10, a technique for extracting a human image without distortion from the camera image data uses, for example, a well-known technique disclosed in
このように本実施形態によれば、店舗の全ての売場A,B,C,Dにそれぞれ動線認識システムを構築しなくても、隣接していない売場Aと売場Cとを行き来した買物客の動線データを関連付けることができる。したがって、特定の売場を行き来する買物客の行動を分析したいという店側の要望を、低コストで実現させることができる。 As described above, according to the present embodiment, a shopper who goes back and forth between the sales floor A and the sales floor C that are not adjacent to each other without building a flow line recognition system in each of the sales floors A, B, C, and D of the store. Can be associated. Therefore, the store side's desire to analyze the behavior of the shopper who goes to and from a specific sales floor can be realized at low cost.
また、本実施形態によれば、特定の売場を行き来する買物客の売場間の移動に要した時間までも管理できる利点がある。 Further, according to the present embodiment, there is an advantage that it is possible to manage even the time required for the movement of the shopper who goes back and forth between specific sales floors.
次に、本発明の第2の実施形態について、図12〜図13を用いて説明する。なお、この第2の実施形態も、図4に示すレイアウトの店舗1に適用した場合であり、売場Aと売場Cとに、カメラを用いた画像処理方式の動線認識システムSA,SCを構築している。そして、第2の実施形態が第1の実施形態と異なる点は、動線関連付け処理の手順の一部のみである。したがって、図1〜図10についても兼用し、同一部分には同一符号を付して説明する。
Next, a second embodiment of the present invention will be described with reference to FIGS. This second embodiment is also applied to the
図12は、第2の実施形態における動線関連付け処理の手順を具体的に示す流れ図である。動線関連付け処理が開始されると、制御部47は、先ず、ST91として表示部42に動線関連付け画面6を表示させる。
FIG. 12 is a flowchart specifically showing the procedure of the flow line association processing in the second embodiment. When the flow line association process is started, the
動線関連付け画面6の一例を、図13に示す。図示するように、動線関連付け画面6には、動線領域61、第1動線ID領域62、第1画像領域63、第2動線ID領域64、及び第2画像領域65と、「YES」ボタン66及び「NO」ボタン67の各ボタン画像とが表示されている。各ボタン画像は、入力部41によって入力操作が可能である。
An example of the flow
次に、制御部47は、ST92〜ST99として、第1の実施形態における動線関連付け処理のST71〜ST78と同一の処理を実行する。すなわち、第1動線メモリからp番目データを読み込み、第2動線メモリからq番目動線データを読み込む。
Next, the
しかる後、制御部47は、ST100としてp番目データに含まれる動線IDを第1動線ID領域62に表示させるとともに、人物画像データの人物画像を第1画像領域63に表示させる(第1のカメラ画像表示手段)。また、q番目データに含まれる動線IDを第2動線ID領域64に表示させるとともに、人物画像データの人物画像を第2画像領域65に表示させる(第2のカメラ画像表示手段)。さらに、両動線IDでそれぞれ識別される2本の動線を動線領域61に表示させる。そして、制御部47は、ST101として「YES」ボタン66または「NO」ボタン67のいずれか一方のボタンが操作入力されるのを待機する(関連付け宣言受付手段)。
Thereafter, the
ここで、入力部41を介して「NO」ボタン67が操作入力された場合には(ST101のNO)、制御部47は、ST97の処理に戻る。そして、ポインタqをさらに“1”だけ増加し(ST98)、ポインタqがデータ数カウンタm2に達していないことを確認したならば(ST99のNO)、ST100以降の処理を再度実行する。
Here, when the “NO”
一方、入力部41を介して「YES」ボタン66が操作入力された場合には(ST101のYES)、制御部47は、ST102〜ST106として、第1の実施形態における動線関連付け処理のST81〜ST85と同一の処理を実行する。すなわち、新規関連付け動線ID、p番目データの動線ID、q番目データの動線ID及び移動所要時間ΔTの各データから1レコードを生成し、関連付け動線ファイル46に保存する(動線関連付け手段)。
On the other hand, when the “YES”
こうして、ポインタpを“1”ずつ増加する毎に、制御部47は、ST95以降の処理を実行する。そして、ポインタpがデータ数カウンタm1を超えたならば(ST94のYES)、制御部47は、ST107として第1動線メモリ及び第2動線メモリをクリアする。以上で、動線関連付け処理は終了する。
Thus, every time the pointer p is incremented by “1”, the
このような構成の第2の実施形態においては、動線関連付け画面6の第1画像領域63にp番目データの人物画像が表示され、第2画像領域65にq番目データの人物画像が表示される。そこでオペレータは、両画像領域63,65にそれぞれ表示された人物画像を見比べて、同一人物であるか否かを判断する。
In the second embodiment having such a configuration, a p-th person image is displayed in the
同一人物でない場合、オペレータは、「NO」ボタン67を操作する。そうすると、第2画像領域63の表示が、次のq番目データの人物画像に更新される。こうして、第1画像領域63に表示されている画像の人物と同一人物の画像が第2画像領域65に表示されるまで、「NO」ボタン67を繰り返し操作し、同一人物の画像が第2画像領域63に表示されたならば、オペレータは、関連付け宣言手段として「YES」ボタン66を操作する。そうすると、p番目データの動線IDとq番目データの動線IDとが関連付けられる。
If they are not the same person, the operator operates the “NO”
このような構成の第2の実施形態においても、第1の実施形態と同様に、隣接していない売場Aと売場Cとを行き来した買物客の動線データを関連付けることができる。しかも、オペレータがカメラ画像を用いて目視により同一人物であるか否かを判定しているので、より確実である。 Also in the second embodiment having such a configuration, the flow line data of the shopper who goes back and forth between the sales floor A and the sales floor C that are not adjacent to each other can be associated as in the first embodiment. Moreover, since the operator determines whether or not they are the same person by visual observation using the camera image, it is more reliable.
なお、この発明は前記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。 Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the spirit of the invention in the implementation stage.
例えば前記実施形態では、図8の処理において、先に動線P選択処理を実行し、次いで動線Q選択処理を実行したが、先に動線Q選択処理を実行し、次いで動線P選択処理を実行してもよい。 For example, in the above-described embodiment, the flow line P selection process is performed first and then the flow line Q selection process is performed in the process of FIG. 8, but the flow line Q selection process is performed first, and then the flow line P selection is performed. Processing may be executed.
また、前記実施形態では、画像監視エリアを各売場の境界領域としたが、売場内に大多数の客が通る通路がある場合は、その通路の領域を画像監視エリアとしてもよい。すなわち、画像監視エリアは、動線データに対応する人物の画像をカメラ画像データから抽出できる場所であればよい。 In the above embodiment, the image monitoring area is a boundary area of each sales floor. However, when there is a passage through which a large number of customers pass in the sales floor, the area of the passage may be used as the image monitoring area. That is, the image monitoring area may be a place where a person image corresponding to the flow line data can be extracted from the camera image data.
また、前記実施形態では、各売場の動線認識システムSA,SCを、カメラを用いた画像処理方式を採用したが、その他の方式、たとえば無線タグ追跡方式を採用してもよい。この場合、売場Aには、境界領域ABと境界領域DA内を撮影するカメラを設置し、売場Cには、境界領域BCと境界領域CD内を撮影するカメラを設置する。そして、各カメラのフレーム画像テータを時間情報と関連付けて画像データベースで記憶する。そして、各境界領域を始点又は終点とする動線データの始点検出時刻または終点到達時刻のフレーム画像データから人物画像を抽出し、人物同定処理を実行することによって、前記実施形態と同一の作用効果を奏することができる。 In the embodiment, the flow line recognition systems SA and SC of each sales floor adopt an image processing method using a camera. However, other methods such as a wireless tag tracking method may be adopted. In this case, the sales floor A is provided with a camera for photographing the boundary area AB and the boundary area DA, and the sales floor C is provided with a camera for photographing the boundary area BC and the boundary area CD. Then, the frame image data of each camera is stored in the image database in association with the time information. Then, by extracting a person image from the frame image data at the start point detection time or the end point arrival time of the flow line data having each boundary region as the start point or the end point, and executing the person identification process, the same effect as the above embodiment Can be played.
ただし、本実施形態のように、カメラを用いた画像処理方式を採用することにより、動線認識用のカメラをそのまま動線の関連付けを判定するための画像データ取得用のカメラとして兼用できるので、システムコストを低減できる効果を奏する。 However, as in this embodiment, by adopting an image processing method using a camera, a camera for motion line recognition can be used as an image data acquisition camera for determining the association of a motion line as it is, The system cost can be reduced.
また、前記実施形態では、田の字型に区分された売場の中心部で各売場が仕切られており、例えば売場Aに居る買物客は、売場Bまたは売場Dには行かれるが売場Cには行かれない店舗に本発明を適用したが、本発明を適用可能な店舗形態はこれに限定されるものではない。例えば、田の字型に区分された売場の中心部で各売場が仕切られていなくてもよい。また、例えば1階の売場を移動する客の動線データと、3階の売場を移動する客の動線データとを関連付ける場合も、前記実施形態と同様に実施することができる。さらに3つ以上の動線認識システムでそれぞれ認識された動線データを関連付けることも可能である。 Moreover, in the said embodiment, each sales floor is divided in the center of the sales floor divided into the shape of a rice field. For example, the shopper in the sales floor A goes to the sales floor B or the sales floor D but goes to the sales floor C. Although the present invention is applied to a store that does not go, the store form to which the present invention is applicable is not limited to this. For example, each sales floor does not have to be partitioned at the center of the sales floor divided into a square shape. Further, for example, the case of associating the flow line data of a customer moving on the sales floor on the first floor with the flow line data of a customer moving on the sales floor on the third floor can be implemented in the same manner as in the above embodiment. Furthermore, it is possible to associate the flow line data recognized by each of three or more flow line recognition systems.
また、本発明は、売場毎の顧客動線を関連付ける装置に限定されるものではなく、第1の動線認識エリア内を移動する移動体(人、動物、車両等)の動線データと、この第1の動線認識エリアとは異なる第2の動線認識エリア内を移動する移動体の動線データとを関連付ける装置にも同様に適用できるものである。 In addition, the present invention is not limited to an apparatus that associates customer flow lines for each sales floor, and flow line data of a moving body (a person, an animal, a vehicle, etc.) that moves in the first flow line recognition area; The present invention can be similarly applied to an apparatus that associates flow line data of a moving body that moves in a second flow line recognition area different from the first flow line recognition area.
また、前記実施形態では、動線連結プログラムをプログラム記憶部44に予め記憶しているものとして本発明を説明したが、このプログラムは、ネットワークから動線関連付け装置4にダウンロードしても良いし、記録媒体に記憶させたものを動線関連付け装置4にインストールしてもよい。記録媒体としては、CD−ROM等プログラムを記憶でき、かつコンピュータが読み取り可能な記録媒体であれば、その形態は何れの形態であってもよい。また、このように予めインストールやダウンロードにより得る機能は、コンピュータ内部のOS(オペレーティング・システム)等と協働してその機能を実現させるものであってもよい。
In the above embodiment, the present invention has been described on the assumption that the flow line connection program is stored in advance in the
この他、前記実施形態に開示されている複数の構成要素の適宜な組合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を組合わせてもよい。 In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, the constituent elements over different embodiments may be combined.
SA,SC…動線認識システム、3A,3C…動線認識装置、4…動線関連付け装置、5…設定テーブル、6…動線関連付け画面、32SA,32SB,32SC,32SD…画像データベース、34SA,32A,32C…画像データベース、34A,34C…動線データベース、43…データベースアクセス部、44…プログラム記憶部、46…関連付け動線ファイル、47…制御部。 SA, SC ... flow line recognition system, 3A, 3C ... flow line recognition device, 4 ... flow line association device, 5 ... setting table, 6 ... flow line association screen, 32SA, 32SB, 32SC, 32SD ... image database, 34SA, 32A, 32C ... image database, 34A, 34C ... flow line database, 43 ... database access unit, 44 ... program storage unit, 46 ... association flow line file, 47 ... control unit.
Claims (12)
前記コンピュータは、
前記第1の動線データベースに記憶された各動線データの中から前記第1の画像監視エリア内に位置した移動体の動線データを選択する第1の動線選択段階と、
この第1の動線選択段階により選択された動線データに対応する前記移動体が前記第1の画像監視エリア内に位置する時点の前記カメラ画像データを前記第1の画像データベースから選択する第1の画像選択段階と、
この第1の画像選択段階により選択されたカメラ画像データから移動体画像を抽出する第1の移動体画像抽出段階と、
前記第2の動線データベースに記憶された各動線データの中から前記第2の画像監視エリア内に位置する移動体の動線データを選択する第2の動線選択段階と、
この第2の動線選択段階により選択された動線データに対応する前記移動体が前記第2の画像監視エリア内に位置する時点の前記カメラ画像データを前記第2の画像データベースから選択する第2の画像選択段階と、
この第2の画像選択段階により選択されたカメラ画像データから移動体画像を抽出する第2の移動体画像抽出段階と、
前記第1の移動体画像抽出段階により抽出された移動体画像と前記第2の移動体画像抽出段階により抽出された移動体画像とを照合して各画像の移動体が同一か否かを判定する移動体同定段階と、
この移動体同定段階により移動体が同一であると判定されると、前記第1の動線選択段階により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択段階により選択された動線データの少なくとも識別情報を記憶する動線関連付け段階と、
を備えることを特徴とする動線関連付け方法。 A first flow line database for storing, for each moving body moving in the first flow line recognition area, flow line data indicating a trajectory of the moving body in the first flow line recognition area; For storing, for each moving body moving in a second flow line recognition area different from one flow line recognition area, flow line data indicating a trajectory of the moving body in the second flow line recognition area. A second flow line database, a first image database for storing camera image data taken in the first image monitoring area, which is at least a part of the first flow line recognition area, together with a shooting time; and Access is made to each database of the second image database for storing camera image data taken in the second image monitoring area, which is at least a part of the second flow line recognition area, together with the photographing time. OK From the flow line data of each moving body stored in the first flow line database and the flow line data of each moving body stored in the second flow line database, the computer uses the same moving body. A flow line association method for associating flow line data,
The computer
A first flow line selection step of selecting flow line data of a moving body located in the first image monitoring area from each flow line data stored in the first flow line database;
The camera image data at the time when the moving body corresponding to the flow line data selected in the first flow line selection stage is located in the first image monitoring area is selected from the first image database. 1 image selection stage;
A first moving body image extraction step of extracting a moving body image from the camera image data selected by the first image selection step;
A second flow line selection step of selecting flow line data of a moving body located in the second image monitoring area from each flow line data stored in the second flow line database;
The camera image data is selected from the second image database when the moving body corresponding to the flow line data selected in the second flow line selection step is located in the second image monitoring area. Two image selection stages;
A second moving body image extraction step of extracting a moving body image from the camera image data selected by the second image selection step;
The mobile body image extracted in the first mobile body image extraction stage and the mobile body image extracted in the second mobile body image extraction stage are collated to determine whether the mobile bodies of the images are the same. A mobile object identification stage,
If it is determined in this moving body identification step that the moving bodies are the same, the second flow line selection step corresponds to at least identification information of the flow line data selected in the first flow line selection step. A flow line associating step for storing at least identification information of the flow line data selected by:
A flow line associating method characterized by comprising:
前記動線関連付け段階は、前記第1の動線選択段階により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択段階により選択された動線データの少なくとも識別情報と前記所要時間演算段階により算出された所要時間とを記憶することを特徴とする請求項1記載の動線関連付け方法。 The time required for the moving body determined to be the same in the moving body identification step to move from the first flow line recognition area to the second flow line recognition area is expressed as the first time. A required time calculation step for calculating from information on the end point of the flow line data selected in the flow line selection step and information on the start point of the flow line data selected in the second flow line selection step,
In the flow line association step, at least identification information of the flow line data selected in the second flow line selection step in correspondence with at least identification information of the flow line data selected in the first flow line selection step. 2. The flow line associating method according to claim 1, further comprising: storing a required time calculated by the required time calculation step.
前記コンピュータは、
前記第1の動線データベースに記憶された各動線データの中から前記第1の画像監視エリア内に位置する移動体の動線データを選択する第1の動線選択段階と、
この第1の動線選択段階により選択された動線データに対応する前記移動体が前記第1の画像監視エリア内に位置している期間の前記カメラ画像データを前記第1の画像データベースから取得し、その画像を表示部に表示させる第1のカメラ画像表示段階と、
前記第2の動線データベースに記憶された各動線データの中から前記第2の画像監視エリア内に位置する移動体の動線データを選択する第2の動線選択段階と、
この第2の動線選択段階により選択された動線データに対応する前記移動体が前記第2の画像監視エリア内に位置している期間の前記カメラ画像データを前記第2の画像データベースから取得し、その画像を前記表示部に表示させる第2のカメラ画像表示段階と、
前記第1の動線選択段階により選択された動線データと前記第2の動線選択段階により選択された動線データの関連付け宣言を受け付ける関連付け宣言受付段階と、
前記関連付け宣言を受付けると、前記第1の動線選択段階により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択段階により選択された動線データの少なくとも識別情報を記憶する動線関連付け段階と、
を備えることを特徴とする動線関連付け方法。 A first flow line database for storing, for each moving body moving in the first flow line recognition area, flow line data indicating a trajectory of the moving body in the first flow line recognition area; For storing, for each moving body moving in a second flow line recognition area different from one flow line recognition area, flow line data indicating a trajectory of the moving body in the second flow line recognition area. A second flow line database, a first image database for storing camera image data taken in the first image monitoring area, which is at least a part of the first flow line recognition area, together with a shooting time; and Access is made to each database of the second image database for storing camera image data taken in the second image monitoring area, which is at least a part of the second flow line recognition area, together with the photographing time. OK From the flow line data of each moving body stored in the first flow line database and the flow line data of each moving body stored in the second flow line database, the computer uses the same moving body. A flow line association method for associating flow line data,
The computer
A first flow line selection step of selecting flow line data of a moving body located in the first image monitoring area from each flow line data stored in the first flow line database;
The camera image data of a period in which the moving body corresponding to the flow line data selected in the first flow line selection stage is located in the first image monitoring area is acquired from the first image database. A first camera image display stage for displaying the image on the display unit;
A second flow line selection step of selecting flow line data of a moving body located in the second image monitoring area from each flow line data stored in the second flow line database;
The camera image data of a period in which the moving body corresponding to the flow line data selected in the second flow line selection step is located in the second image monitoring area is acquired from the second image database. A second camera image display stage for displaying the image on the display unit;
An association declaration receiving step for receiving an association declaration between the flow line data selected by the first flow line selection step and the flow line data selected by the second flow line selection step;
When the association declaration is received, at least identification information of the flow line data selected by the second flow line selection step in correspondence with at least identification information of the flow line data selected by the first flow line selection step. A flow line association stage for storing
A flow line associating method characterized by comprising:
前記動線関連付け段階は、前記第1の動線選択段階により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択段階により選択された動線データの少なくとも識別情報と前記所要時間演算段階により算出された所要時間とを記憶することを特徴とする請求項3記載の動線関連付け方法。 In response to accepting the association declaration in the association declaration receiving step, a moving object corresponding to the flow line data selected in the first flow line selection step is moved from the first flow line recognition area to the second. The time required for moving to the flow line recognition area is information on the end point of the flow line data selected in the first flow line selection stage and the flow line data selected in the second flow line selection stage. A required time calculation stage calculated based on information on the starting point of
In the flow line association step, at least identification information of the flow line data selected in the second flow line selection step in correspondence with at least identification information of the flow line data selected in the first flow line selection step. 4. The flow line associating method according to claim 3, wherein the required time calculated by the required time calculation step is stored.
前記第1の動線データベースに記憶された各動線データの中から前記第1の画像監視エリア内に位置した移動体の動線データを選択する第1の動線選択手段と、
この第1の動線選択手段により選択された動線データに対応する前記移動体が前記第1の画像監視エリア内に位置する時点の前記カメラ画像データを前記第1の画像データベースから選択する第1の画像選択手段と、
この第1の画像選択手段により選択されたカメラ画像データから移動体画像を抽出する第1の移動体画像抽出手段と、
前記第2の動線データベースに記憶された各動線データの中から前記第2の画像監視エリア内に位置する移動体の動線データを選択する第2の動線選択手段と、
この第2の動線選択手段により選択された動線データに対応する前記移動体が前記第2の画像監視エリア内に位置する時点の前記カメラ画像データを前記第2の画像データベースから選択する第2の画像選択手段と、
この第2の画像選択手段により選択されたカメラ画像データから移動体画像を抽出する第2の移動体画像抽出手段と、
前記第1の移動体画像抽出手段により抽出された移動体画像と前記第2の移動体画像抽出手段により抽出された移動体画像とを照合して各画像の移動体が同一か否かを判定する移動体同定手段と、
この移動体同定手段により移動体が同一であると判定されると、前記第1の動線選択手段により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択手段により選択された動線データの少なくとも識別情報を記憶する動線関連付け手段と、
を備えることを特徴とする動線関連付け装置。 A first flow line database for storing, for each moving body moving in the first flow line recognition area, flow line data indicating a trajectory of the moving body in the first flow line recognition area; For storing, for each moving body moving in a second flow line recognition area different from one flow line recognition area, flow line data indicating a trajectory of the moving body in the second flow line recognition area. A second flow line database, a first image database for storing camera image data taken in the first image monitoring area, which is at least a part of the first flow line recognition area, together with a shooting time; and Access is made to each database of the second image database for storing camera image data taken in the second image monitoring area, which is at least a part of the second flow line recognition area, together with the photographing time. OK It is in,
First flow line selection means for selecting flow line data of a moving body located in the first image monitoring area from each flow line data stored in the first flow line database;
The camera image data at the time when the moving body corresponding to the flow line data selected by the first flow line selection means is located in the first image monitoring area is selected from the first image database. 1 image selection means;
First moving body image extracting means for extracting a moving body image from the camera image data selected by the first image selecting means;
Second flow line selection means for selecting flow line data of a moving body located in the second image monitoring area from each flow line data stored in the second flow line database;
The camera image data at the time when the moving object corresponding to the flow line data selected by the second flow line selection means is located in the second image monitoring area is selected from the second image database. Two image selection means;
Second moving body image extraction means for extracting a moving body image from the camera image data selected by the second image selection means;
The mobile body image extracted by the first mobile body image extraction means and the mobile body image extracted by the second mobile body image extraction means are collated to determine whether the mobile bodies of the images are the same. Mobile object identification means for
When it is determined by the moving body identification means that the moving bodies are the same, the second flow line selection means is associated with at least identification information of the flow line data selected by the first flow line selection means. Flow line association means for storing at least identification information of the flow line data selected by:
A flow line associating device comprising:
前記動線関連付け手段は、前記第1の動線選択手段により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択手段により選択された動線データの少なくとも識別情報と前記所要時間演算手段により算出された所要時間とを記憶することを特徴とする請求項5記載の動線関連付け装置。 The time required for the moving body determined to be the same by the moving body identifying means to move from the first flow line recognition area to the second flow line recognition area is expressed as the first time. Required time calculating means for calculating from information related to the end point of the flow line data selected by the flow line selecting means and information related to the start point of the flow line data selected by the second flow line selecting means,
The flow line association means corresponds to at least identification information of the flow line data selected by the first flow line selection means, and at least identification information of the flow line data selected by the second flow line selection means. 6. The flow line associating device according to claim 5, wherein the required time calculated by said required time calculating means is stored.
前記第1の動線データベースに記憶された各動線データの中から前記第1の画像監視エリア内に位置する移動体の動線データを選択する第1の動線選択手段と、
この第1の動線選択手段により選択された動線データに対応する前記移動体が前記第1の画像監視エリア内に位置している期間の前記カメラ画像データを前記第1の画像データベースから取得し、その画像を表示部に表示させる第1のカメラ画像表示手段と、
前記第2の動線データベースに記憶された各動線データの中から前記第2の画像監視エリア内に位置する移動体の動線データを選択する第2の動線選択手段と、
この第2の動線選択手段により選択された動線データに対応する前記移動体が前記第2の画像監視エリア内に位置している期間の前記カメラ画像データを前記第2の画像データベースから取得し、その画像を前記表示部に表示させる第2のカメラ画像表示手段と、
前記第1の動線選択手段により選択された動線データと前記第2の動線選択手段により選択された動線データの関連付け宣言を受け付ける関連付け宣言受付手段と、
前記関連付け宣言を受付けると、前記第1の動線選択手段により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択手段により選択された動線データの少なくとも識別情報を記憶する動線関連付け手段と、
を備えることを特徴とする動線関連付け装置。 A first flow line database for storing, for each moving body moving in the first flow line recognition area, flow line data indicating a trajectory of the moving body in the first flow line recognition area; For storing, for each moving body moving in a second flow line recognition area different from one flow line recognition area, flow line data indicating a trajectory of the moving body in the second flow line recognition area. A second flow line database, a first image database for storing camera image data taken in the first image monitoring area, which is at least a part of the first flow line recognition area, together with a shooting time; and Access is made to each database of the second image database for storing camera image data taken in the second image monitoring area, which is at least a part of the second flow line recognition area, together with the photographing time. OK It is in,
First flow line selection means for selecting flow line data of a moving body located in the first image monitoring area from each flow line data stored in the first flow line database;
The camera image data during a period in which the moving body corresponding to the flow line data selected by the first flow line selection unit is located in the first image monitoring area is acquired from the first image database. First camera image display means for displaying the image on the display unit;
Second flow line selection means for selecting flow line data of a moving body located in the second image monitoring area from each flow line data stored in the second flow line database;
The camera image data of a period in which the moving body corresponding to the flow line data selected by the second flow line selection means is located in the second image monitoring area is acquired from the second image database. Second camera image display means for displaying the image on the display unit;
Association declaration receiving means for receiving an association declaration between the flow line data selected by the first flow line selection means and the flow line data selected by the second flow line selection means;
When the association declaration is received, at least identification information of the flow line data selected by the second flow line selection means in correspondence with at least identification information of the flow line data selected by the first flow line selection means. A flow line association means for storing
A flow line associating device comprising:
前記動線関連付け手段は、前記第1の動線選択手段により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択手段により選択された動線データの少なくとも識別情報と前記所要時間演算手段により算出された所要時間とを記憶することを特徴とする請求項7記載の動線関連付け装置。 In response to receiving the association declaration by the association declaration receiving unit, a moving body corresponding to the flow line data selected by the first flow line selecting unit is moved from the first flow line recognition area to the second line. The time required for moving to the flow line recognition area is information on the end point of the flow line data selected by the first flow line selection means and the flow line data selected by the second flow line selection means. And a required time calculation means for calculating based on information on the starting point of
The flow line association means corresponds to at least identification information of the flow line data selected by the first flow line selection means, and at least identification information of the flow line data selected by the second flow line selection means. 8. The flow line associating device according to claim 7, wherein the required time calculated by said required time calculating means is stored.
前記第1の動線データベースに記憶された各動線データの中から前記第1の画像監視エリア内に位置した移動体の動線データを選択させる第1の動線選択機能と、
この第1の動線選択機能により選択された動線データに対応する前記移動体が前記第1の画像監視エリア内に位置する時点の前記カメラ画像データを前記第1の画像データベースから選択させる第1の画像選択機能と、
この第1の画像選択機能により選択されたカメラ画像データから移動体画像を抽出させる第1の移動体画像抽出機能と、
前記第2の動線データベースに記憶された各動線データの中から前記第2の画像監視エリア内に位置する移動体の動線データを選択させる第2の動線選択機能と、
この第2の動線選択機能により選択された動線データに対応する前記移動体が前記第2の画像監視エリア内に位置する時点の前記カメラ画像データを前記第2の画像データベースから選択させる第2の画像選択機能と、
この第2の画像選択機能により選択されたカメラ画像データから移動体画像を抽出させる第2の移動体画像抽出機能と、
前記第1の移動体画像抽出機能により抽出された移動体画像と前記第2の移動体画像抽出機能により抽出された移動体画像とを照合して各画像の移動体が同一か否かを判定させる移動体同定機能と、
この移動体同定機能により移動体が同一であると判定されると、前記第1の動線選択機能により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択機能により選択された動線データの少なくとも識別情報を記憶させる動線関連付け機能と、
を実現させるための動線関連付けプログラム。 A first flow line database for storing, for each moving body moving in the first flow line recognition area, flow line data indicating a trajectory of the moving body in the first flow line recognition area; For storing, for each moving body moving in a second flow line recognition area different from one flow line recognition area, flow line data indicating a trajectory of the moving body in the second flow line recognition area. A second flow line database, a first image database for storing camera image data taken in the first image monitoring area, which is at least a part of the first flow line recognition area, together with a shooting time; and Access is made to each database of the second image database for storing camera image data taken in the second image monitoring area, which is at least a part of the second flow line recognition area, together with the photographing time. OK To a computer,
A first flow line selection function for selecting flow line data of a moving body located in the first image monitoring area from each flow line data stored in the first flow line database;
The camera image data when the moving body corresponding to the flow line data selected by the first flow line selection function is located within the first image monitoring area is selected from the first image database. 1 image selection function,
A first moving body image extraction function for extracting a moving body image from the camera image data selected by the first image selection function;
A second flow line selection function for selecting flow line data of a moving body located in the second image monitoring area from each flow line data stored in the second flow line database;
The second image database selects the camera image data at the time when the moving body corresponding to the flow line data selected by the second flow line selection function is located in the second image monitoring area. 2 image selection functions;
A second moving body image extraction function for extracting a moving body image from the camera image data selected by the second image selection function;
The mobile body image extracted by the first mobile body image extraction function and the mobile body image extracted by the second mobile body image extraction function are collated to determine whether the mobile bodies of the images are the same. Mobile object identification function
When it is determined by the moving body identification function that the moving bodies are the same, the second flow line selection function is associated with at least identification information of the flow line data selected by the first flow line selection function. A flow line association function for storing at least identification information of the flow line data selected by:
A flow line association program for realizing
前記移動体同定機能により移動体が同一であると判定された移動体が前記第1の動線認識エリアから前記第2の動線認識エリアまで移動するのに要した所要時間を、前記第1の動線選択機能により選択された動線データの終点に関する情報と前記第2の動線選択機能により選択された動線データの始点に関する情報とにより算出させる所要時間演算機能、をさらに実現させるものであり、
前記動線関連付け機能は、前記第1の動線選択機能により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択機能により選択された動線データの少なくとも識別情報と前記所要時間演算機能により算出された所要時間とを記憶させるためのものである請求項9記載の動線関連付けプログラム。 In the computer,
The time required for the moving bodies determined to be the same by the moving body identification function to move from the first flow line recognition area to the second flow line recognition area is expressed as the first time. Further realizing a required time calculation function that is calculated based on the information on the end point of the flow line data selected by the flow line selection function and the information on the start point of the flow line data selected by the second flow line selection function. And
The flow line association function corresponds to at least identification information of the flow line data selected by the first flow line selection function, and at least identification information of the flow line data selected by the second flow line selection function. And a required time calculated by the required time calculation function.
前記第1の動線データベースに記憶された各動線データの中から前記第1の画像監視エリア内に位置する移動体の動線データを選択させる第1の動線選択機能と、
この第1の動線選択機能により選択された動線データに対応する前記移動体が前記第1の画像監視エリア内に位置している期間の前記カメラ画像データを前記第1の画像データベースから取得し、その画像を表示部に表示させる第1のカメラ画像表示機能と、
前記第2の動線データベースに記憶された各動線データの中から前記第2の画像監視エリア内に位置する移動体の動線データを選択させる第2の動線選択機能と、
この第2の動線選択機能により選択された動線データに対応する前記移動体が前記第2の画像監視エリア内に位置している期間の前記カメラ画像データを前記第2の画像データベースから取得し、その画像を前記表示部に表示させる第2のカメラ画像表示機能と、
前記第1の動線選択機能により選択された動線データと前記第2の動線選択機能により選択された動線データの関連付け宣言を受け付けさせる関連付け宣言受付機能と、
前記関連付け宣言を受付けると、前記第1の動線選択機能により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択機能により選択された動線データの少なくとも識別情報を記憶させる動線関連付け機能と、
を実現させるための動線関連付けプログラム。 A first flow line database for storing, for each moving body moving in the first flow line recognition area, flow line data indicating a trajectory of the moving body in the first flow line recognition area; For storing, for each moving body moving in a second flow line recognition area different from one flow line recognition area, flow line data indicating a trajectory of the moving body in the second flow line recognition area. A second flow line database, a first image database for storing camera image data taken in the first image monitoring area, which is at least a part of the first flow line recognition area, together with a shooting time; and Access is made to each database of the second image database for storing camera image data taken in the second image monitoring area, which is at least a part of the second flow line recognition area, together with the photographing time. OK To a computer,
A first flow line selection function for selecting flow line data of a moving body located in the first image monitoring area from each flow line data stored in the first flow line database;
The camera image data of a period in which the moving body corresponding to the flow line data selected by the first flow line selection function is located in the first image monitoring area is acquired from the first image database. A first camera image display function for displaying the image on the display unit;
A second flow line selection function for selecting flow line data of a moving body located in the second image monitoring area from each flow line data stored in the second flow line database;
The camera image data of a period in which the moving body corresponding to the flow line data selected by the second flow line selection function is located in the second image monitoring area is acquired from the second image database. A second camera image display function for displaying the image on the display unit;
An association declaration acceptance function for accepting an association declaration between the flow line data selected by the first flow line selection function and the flow line data selected by the second flow line selection function;
When the association declaration is received, at least identification information of the flow line data selected by the second flow line selection function in correspondence with at least identification information of the flow line data selected by the first flow line selection function. A flow line association function for storing
A flow line association program for realizing
前記関連付け宣言受付機能により前記関連付け宣言を受付けたことに応じて、前記第1の動線選択機能により選択された動線データに対応する移動体が前記第1の動線認識エリアから前記第2の動線認識エリアまで移動するのに要する所要時間を、前記第1の動線選択機能により選択された動線データの終点に関する情報と前記第2の動線選択機能により選択された動線データの始点に関する情報とにより算出させる所要時間演算機能、をさらに実現させるものであり、
前記動線関連付け機能は、前記第1の動線選択機能により選択された動線データの少なくとも識別情報に対応させて、前記第2の動線選択機能により選択された動線データの少なくとも識別情報と前記所要時間演算機能により算出された所要時間とを記憶させるためのものである請求項11記載の動線関連付けプログラム。 In the computer,
In response to receiving the association declaration by the association declaration receiving function, a moving body corresponding to the flow line data selected by the first flow line selection function is moved from the first flow line recognition area to the second. The time required for moving to the flow line recognition area is information on the end point of the flow line data selected by the first flow line selection function and the flow line data selected by the second flow line selection function. The required time calculation function that is calculated based on the information about the start point of the
The flow line association function corresponds to at least identification information of the flow line data selected by the first flow line selection function, and at least identification information of the flow line data selected by the second flow line selection function. And a required time calculated by the required time calculation function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010032946A JP4802285B2 (en) | 2010-02-17 | 2010-02-17 | Flow line association method, apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010032946A JP4802285B2 (en) | 2010-02-17 | 2010-02-17 | Flow line association method, apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011170562A JP2011170562A (en) | 2011-09-01 |
JP4802285B2 true JP4802285B2 (en) | 2011-10-26 |
Family
ID=44684636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010032946A Expired - Fee Related JP4802285B2 (en) | 2010-02-17 | 2010-02-17 | Flow line association method, apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4802285B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011170564A (en) * | 2010-02-17 | 2011-09-01 | Toshiba Tec Corp | Traffic line connection method, device, and traffic line connection program |
JP2011170563A (en) * | 2010-02-17 | 2011-09-01 | Toshiba Tec Corp | Traffic line connection method, device, and traffic line connection program |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5758646B2 (en) * | 2011-01-28 | 2015-08-05 | 富士変速機株式会社 | Parking space human detector and three-dimensional parking device |
JP6210234B2 (en) * | 2012-09-19 | 2017-10-11 | 日本電気株式会社 | Image processing system, image processing method, and program |
JP6520218B2 (en) * | 2015-03-03 | 2019-05-29 | 富士ゼロックス株式会社 | INFORMATION PROCESSING APPARATUS AND INFORMATION PROCESSING PROGRAM |
JP7135329B2 (en) | 2018-01-31 | 2022-09-13 | 日本電気株式会社 | Information processing method, information processing apparatus, and information processing program |
JP7088108B2 (en) * | 2019-03-28 | 2022-06-21 | 日本電気株式会社 | Tracking methods, tracking devices, and programs |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3521637B2 (en) * | 1996-08-02 | 2004-04-19 | オムロン株式会社 | Passenger number measurement device and entrance / exit number management system using the same |
JP2005309951A (en) * | 2004-04-23 | 2005-11-04 | Oki Electric Ind Co Ltd | Sales promotion support system |
JP2007234058A (en) * | 2007-05-21 | 2007-09-13 | Hitachi Ltd | Facilities management system based on line of flow information |
JP4408917B2 (en) * | 2007-06-28 | 2010-02-03 | 東芝テック株式会社 | Flow line editing apparatus, method and program |
JP2009110408A (en) * | 2007-10-31 | 2009-05-21 | Toshiba Tec Corp | Moving route editing apparatus and moving route editing program |
JP4408916B2 (en) * | 2007-06-28 | 2010-02-03 | 東芝テック株式会社 | Flow line editing apparatus, method and program |
JP4585580B2 (en) * | 2008-04-24 | 2010-11-24 | 東芝テック株式会社 | Human flow tracking system |
-
2010
- 2010-02-17 JP JP2010032946A patent/JP4802285B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011170564A (en) * | 2010-02-17 | 2011-09-01 | Toshiba Tec Corp | Traffic line connection method, device, and traffic line connection program |
JP2011170563A (en) * | 2010-02-17 | 2011-09-01 | Toshiba Tec Corp | Traffic line connection method, device, and traffic line connection program |
Also Published As
Publication number | Publication date |
---|---|
JP2011170562A (en) | 2011-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4802285B2 (en) | Flow line association method, apparatus and program | |
JP4585580B2 (en) | Human flow tracking system | |
JP2011170565A (en) | Customer behavior collection method, device, and program | |
JP4980260B2 (en) | Flow line recognition system | |
JP6364743B2 (en) | Information processing apparatus, control method, program, and information system | |
JPWO2019181499A1 (en) | Store management device and store management method | |
JP2009284167A (en) | Person's behavior monitoring device, and person's behavior monitoring program | |
TW201913501A (en) | Shop device, store management method and program | |
JP2011170564A (en) | Traffic line connection method, device, and traffic line connection program | |
WO2019181364A1 (en) | Store management device and store management method | |
JP4209413B2 (en) | Customer trend collection system and customer trend collection program | |
JP4815514B2 (en) | Flow line recognition system | |
JP4021873B2 (en) | Face image monitoring system | |
JP4408916B2 (en) | Flow line editing apparatus, method and program | |
JP2009110408A (en) | Moving route editing apparatus and moving route editing program | |
JP2010140515A (en) | Flow line recognition system | |
JP2011059951A (en) | Trajectory editing method, device, and trajectory editing program | |
JP5253101B2 (en) | Object tracking method and image processing apparatus | |
JP4408917B2 (en) | Flow line editing apparatus, method and program | |
JP6607310B2 (en) | Output control device, information output system, output control method, and program | |
JP4975835B2 (en) | Flow line connecting apparatus and flow line connecting program | |
CN112669352A (en) | Object identification method, device and equipment | |
JP6792882B2 (en) | Image processing system, image processing device, image processing method, and image processing program | |
JP2009157846A (en) | Traffic line data editing device and traffic line data editing program | |
JP6573259B2 (en) | Attribute collection system by camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110712 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110808 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140812 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |