JP2012015813A - Traffic line display device, method, and program - Google Patents
Traffic line display device, method, and program Download PDFInfo
- Publication number
- JP2012015813A JP2012015813A JP2010150483A JP2010150483A JP2012015813A JP 2012015813 A JP2012015813 A JP 2012015813A JP 2010150483 A JP2010150483 A JP 2010150483A JP 2010150483 A JP2010150483 A JP 2010150483A JP 2012015813 A JP2012015813 A JP 2012015813A
- Authority
- JP
- Japan
- Prior art keywords
- flow line
- camera
- cameras
- display device
- tip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明の実施形態は、監視領域内を移動する移動体の始点から終点までの移動経路を示す動線を表示する技術に関する。 Embodiments described herein relate generally to a technique for displaying a flow line indicating a movement path from a start point to an end point of a moving body that moves in a monitoring area.
監視領域内を移動する人物等の移動体の移動経路を動線として表示するシステムは、既に実用化されている。このシステムは、移動体を認識して追跡する仕組みが必要となる。この仕組みの1つに、監視領域を撮影対象として配置された複数のカメラの画像データを利用する方法がある。カメラ画像を利用する方法は、移動体の動線だけでなく、カメラで撮影された画像から移動体を目視により確認できる利点がある。 A system that displays a moving path of a moving body such as a person moving in a monitoring area as a flow line has already been put into practical use. This system requires a mechanism for recognizing and tracking moving objects. As one of the mechanisms, there is a method of using image data of a plurality of cameras arranged with a monitoring area as an imaging target. The method using the camera image has an advantage that the moving body can be visually confirmed not only from the flow line of the moving body but also from the image taken by the camera.
カメラ画像を利用するシステムの場合、監視領域が拡大すればするほど、必要なカメラの台数が増加する。カメラの台数が増加すると、ユーザがカメラ画像から移動体を確認する際の画像数が増加する。画像数が増加すると、移動体が撮影されているカメラ画像を探し出すのに大きな手間と時間を要する。 In the case of a system using camera images, the number of necessary cameras increases as the monitoring area increases. When the number of cameras increases, the number of images when the user confirms the moving object from the camera images increases. As the number of images increases, it takes a lot of time and effort to find a camera image in which the moving object is photographed.
一実施形態によれば、動線表示装置は、動線データ取得手段と、動線表示手段と、カメラ選択手段と、カメラ画像表示手段とを備える。動線データ取得手段は、監視領域を撮影対象として配置された複数のカメラの各撮影画像から生成される移動体毎の動線データを記憶する動線データベースから表示対象として選択された移動体の動線データを取得する。動線表示手段は、動線データ取得手段により取得した動線データで移動体の始点から終点まで移動経路を示す動線を表示する。カメラ選択手段は、動線表示手段により表示される動線の先端の位置情報を基準に複数のカメラのなかからそのカメラ台数より少ない一定数以下のカメラを選択する。カメラ画像表示手段は、カメラ選択手段により選択されたカメラの撮影画像を動線表示手段により表示される動線と同期させて表示する。 According to one embodiment, the flow line display device includes flow line data acquisition means, flow line display means, camera selection means, and camera image display means. The flow line data acquisition unit is configured to detect a moving object selected as a display target from a flow line database that stores flow line data for each moving object generated from each captured image of a plurality of cameras arranged with the monitoring region as an imaging target. Get flow line data. The flow line display means displays the flow line indicating the movement path from the start point to the end point of the moving body with the flow line data acquired by the flow line data acquisition means. The camera selection means selects a certain number of cameras less than the number of cameras from among a plurality of cameras on the basis of the position information of the tip of the flow line displayed by the flow line display means. The camera image display means displays the captured image of the camera selected by the camera selection means in synchronization with the flow line displayed by the flow line display means.
以下、図面を用いて、複数の実施形態を説明する。なお、各実施形態は、いずれもコンビニエンスストア等の小売店の売場Sを監視領域とし、この売場S内を移動する買物客を移動体として認識して、買物客の移動経路を動線として表示する場合である。 Hereinafter, a plurality of embodiments will be described with reference to the drawings. In each of the embodiments, the sales floor S of a retail store such as a convenience store is used as a monitoring area, a shopper moving in the sales floor S is recognized as a moving body, and the movement path of the shopper is displayed as a flow line. This is the case.
(第1の実施形態)
はじめに、第1の実施形態について、図1〜図8を用いて説明する。
図1は、本実施形態のシステム構成図であり、図2は、売場Sのレイアウトを示す平面図である。本実施形態は、カメラを用いた画像処理方式の動線認識システムを採用する。このシステムは、複数台のカメラCA1,CA2,CA4,CA4,CA5,CA6と、動線認識装置1を使用する。各カメラCA1〜CA6は、いずれも売場Sを撮影対象として、売場Sの天井部等に分散して取り付けられる。本実施形態では、説明の便宜上、6台のカメラCA1〜CA6が図2に示すレイアウトで取り付けられているものとする。
(First embodiment)
First, a first embodiment will be described with reference to FIGS.
FIG. 1 is a system configuration diagram of the present embodiment, and FIG. 2 is a plan view showing a layout of a sales floor S. This embodiment employs an image processing type flow line recognition system using a camera. This system uses a plurality of cameras CA1, CA2, CA4, CA4, CA5, CA6 and a flow
各カメラCA1〜CA6は、魚眼レンズを用いたカメラや全方位ミラー付のカメラ等の広角レンズカメラである。これらのカメラCA1〜CA6は、視体積交差法により、売場S内を移動する買物客の軌跡、すなわち人物動線を追跡するために用いられる。視体積交差法は、例えば客の頭部を複数の方向から撮影し、各画像の頭部の位置から頭部の店内空間に適宜設置された3次元座標系内の座標値を算出する方法である。1つの監視領域に配置されるカメラの台数は特に制限されないが、視体積交差法による位置検出精度を高めるためには少なくとも3台のカメラで撮影した画像が必要である。 Each of the cameras CA1 to CA6 is a wide-angle lens camera such as a camera using a fisheye lens or a camera with an omnidirectional mirror. These cameras CA1 to CA6 are used to track the trajectory of the shopper who moves in the sales floor S, that is, the person flow line, by the visual volume intersection method. The visual volume intersection method is, for example, a method in which a customer's head is photographed from a plurality of directions and a coordinate value in a three-dimensional coordinate system appropriately installed in the store space of the head is calculated from the position of the head of each image. is there. The number of cameras arranged in one monitoring area is not particularly limited, but images taken by at least three cameras are necessary in order to improve position detection accuracy by the visual volume intersection method.
各カメラCA1〜CA6は、動線認識装置1が備えるカメラコントロール部11の一元制御により一定の周期(例えば1/15秒)で撮影動作を繰り返し、その撮影画像(フレーム画像)を動線認識装置1に送信する。動線認識装置1は、カメラコントロール部11の他、カメラ画像データベース12、動線生成部13及び動線データベース14を備えている。
Each of the cameras CA1 to CA6 repeats the shooting operation at a constant cycle (for example, 1/15 seconds) by the unified control of the
カメラ画像データベース12は、各カメラCA1〜CA6で撮影されたフレーム画像データを順次蓄積する。カメラ画像データベース12に蓄積されるフレーム画像データの構造を、図3の模式図で示す。図3に示すように、カメラ画像データベース12は、フレーム画像データを、カメラID、フレーム番号及び撮影時刻とともに記憶する。
The
カメラIDは、当該画像データを撮影したカメラCA1〜CA6の識別コードである。各カメラCA1〜CA6は、それぞれ固有のカメラID“CA1”,“CA2”,“CA3”,“CA4”,“CA5”,“CA6”を予め設定する。フレーム番号は、各カメラCA1〜CA6でフレーム画像が撮影される毎にカウントアップされる“1”からの連続番号である。カメラコントロール部11の制御により、各カメラCA1〜CA6のフレーム番号は同期している。撮影日時は、当該画像データが撮影された時点の日時(年月日時分秒)である。
The camera ID is an identification code of the cameras CA1 to CA6 that photographed the image data. Each camera CA1 to CA6 has a unique camera ID “CA1”, “CA2”, “CA3”, “CA4”, “CA5”, “CA6” set in advance. The frame number is a serial number from “1” that is counted up each time a frame image is captured by each of the cameras CA1 to CA6. Under the control of the
動線生成部13は、カメラ画像データベース12に蓄積されたフレーム画像データの画像処理により監視領域である売場内を移動する買物客を認識し、この買物客が売場Sに進入した地点である始点から退出した地点である終点までの売場S内での移動経路を示す動線データを作成する。
The flow
動線データベース14は、動線生成部13により買物客毎に生成される動線データを蓄積する。動線データベース14に蓄積される動線データの構造を、図4の模式図で示す。図4に示すように、動線データベース14は、動線データを、動線IDとともに記憶する。動線IDは、当該動線データを個々に特定するための動線特定情報である。動線生成部13は、買物客1名の動線データを生成する毎に、その動線データに固有の動線IDを付して、動線データベース14に格納する。
The
動線データは、始点フレーム“1”のフレーム番号、及び、終点フレーム“n”(n>1の整数)のフレーム番号と、始点フレーム“1”から終点フレーム“n”までのフレーム毎のインデックスデータとを含む。インデックスデータは、少なくとも売場S内の位置を特定する三次元座標(X,Y,H)とフレーム撮影時刻Tとを含む。 The flow line data includes the frame number of the start point frame “1”, the frame number of the end point frame “n” (n> 1), and an index for each frame from the start point frame “1” to the end point frame “n”. Data. The index data includes at least three-dimensional coordinates (X, Y, H) for specifying a position in the sales floor S and a frame shooting time T.
始点フレーム“1”番号は、当該動線データの買物客が売場Sで最初に認識されたフレーム画像のフレーム番号であり、このフレーム画像の撮影時刻が始点フレーム“1”に対するインデックスデータのフレーム撮影時刻T1となる。終点フレーム“n”番号は、当該買物客が売場Sで最後に認識されたフレーム画像のフレーム番号であり、このフレーム画像の撮影時刻が終点フレーム“n”に対するインデックスデータのフレーム撮影時刻Tnとなる。フレーム番号毎の店内座標は、対応するフレーム番号のフレーム画像から認識された当該買物客の位置を、三次元の世界座標系(X,Y,H)で特定したものである。本実施形態では、図2において、売場Sの左上の角をX軸及びY軸の原点O(0,0)とし、その床面をH(Height)軸の原点としている。 The start frame “1” number is the frame number of the frame image first recognized by the shop S of the relevant flow line data at the sales floor S, and the shooting time of this frame image is the frame shooting of the index data for the start frame “1”. Time T1 is reached. The end frame “n” number is the frame number of the frame image last recognized by the shopper at the sales floor S, and the shooting time of this frame image is the frame shooting time Tn of the index data for the end frame “n”. . The store coordinates for each frame number are obtained by specifying the position of the shopper recognized from the frame image of the corresponding frame number in the three-dimensional world coordinate system (X, Y, H). In the present embodiment, in FIG. 2, the upper left corner of the sales floor S is the origin O (0, 0) of the X axis and the Y axis, and the floor is the origin of the H (Height) axis.
かかる構成の動線認識装置1は、パーソナルコンピュータ等を主体に構成される動線表示装置2と通信ケーブルで接続する。動線表示装置2は、入力部21、表示部22、データベースアクセス部23、プログラム記憶部24、データ記憶部25、テーブル記憶部26及び制御部27を備える。
The flow
入力部21は、キーボード,マウス等の入力デバイスからなる。表示部22は、液晶ディスプレイ,CRTディスプレイ等の表示デバイスからなる。タッチパネル付のディスプレイを用いることで、入力部と表示部を兼用してもよい。
The
データベースアクセス部23は、通信ケーブルを介して動線認識装置1にアクセスして、動線データベース14及びカメラ画像データベース12から動線データ及びフレーム画像データを読取る。
The
例えばROM(Read Only Memory)で構成されるプログラム記憶部24は、当該動線表示装置2の処理動作を制御するための動線表示プログラムを記憶する。例えばRAM(Random Access Memory)で構成されるデータ記憶部25は、動線データベース14及びカメラ画像データベース12から読み取った動線データ及びフレーム画像データを一時的に記憶する。例えばHDD(Hard Disk Drive)で構成されるテーブル記憶部26は、エリア設定テーブル31とエリア別表示カメラ定義テーブル32とを記憶する。
For example, the
図5は、エリア設定テーブル31のデータ構造を示す模式図である。図5に示すように、このテーブル31は、複数のエリアIDを記述するための領域31-1と、各エリアIDに結び付けて左上座標データと右上座標データとをそれぞれ記述するための領域31-2,31-3を備える。 FIG. 5 is a schematic diagram showing the data structure of the area setting table 31. As shown in FIG. 5, this table 31 includes an area 31-1 for describing a plurality of area IDs, and an area 31- for describing upper left coordinate data and upper right coordinate data in association with each area ID. 2, 31-3.
エリアIDは、監視領域である売場SのX−Y平面を、2以上の区画に区切った際の各区画に割り当てられる固有のIDである。本実施形態では、図2に示すように、売場SのX−Y平面を区画A,B,C,D,Eの5つに区分し、各区画A,B,C,D,Eに対してそれぞれ“Ar”,“Br”,“Cr”,“Dr”,“Er”のエリアIDを設定する。 The area ID is a unique ID assigned to each section when the XY plane of the sales floor S that is the monitoring area is divided into two or more sections. In this embodiment, as shown in FIG. 2, the XY plane of the sales floor S is divided into five sections A, B, C, D, and E, and each section A, B, C, D, and E is divided. Then, the area IDs “Ar”, “Br”, “Cr”, “Dr”, and “Er” are set.
左上座標データと右上座標データは、対応するエリアIDによって特定される区画の床面の左上角と右下角の二次元座標(x,y)である。座標(x,y)は、前記原点O(0,0)を基準としたときの世界座標系である。 The upper left coordinate data and the upper right coordinate data are two-dimensional coordinates (x, y) of the upper left corner and the lower right corner of the floor surface of the section specified by the corresponding area ID. The coordinates (x, y) are the world coordinate system when the origin O (0, 0) is used as a reference.
動線表示装置2のユーザは、各エリアID“Ar”,“Br”,“Cr”,“Dr”,“Er”を領域31-1に記述する。またユーザは、対応するエリアIDに結び付けて、そのIDによって特定される区画A,B,C,D,Eの左上座標(xa1,ya1),(xb1,yb1),(xc1,yc1),(xd1,yd1),(xe1,ye1)と、右上座標(xa2,ya2),(xb2,yb2),(xc2,yc2),(xd2,yd2),(xe2,ye2)とを領域31-2,32-3に記述して、エリア設定テーブル31を事前に作成する。
The user of the flow
図6は、エリア別表示カメラ定義テーブル32のデータ構造を示す模式図である。図6に示すように、このテーブル32は、複数のエリアIDを記述する領域32-1と、各エリアIDに結び付けて3種類のカメラIDをそれぞれ記述する領域32-2,32-3,32-4とを備える。 FIG. 6 is a schematic diagram showing a data structure of the display camera definition table 32 classified by area. As shown in FIG. 6, this table 32 includes an area 32-1 in which a plurality of area IDs are described, and areas 32-2, 32-3, and 32 in which three types of camera IDs are described in association with each area ID. -4.
前記ユーザは、各エリアID“Ar”,“Br”,“Cr”,“Dr”,“Er”を領域32-1に記述する。またユーザは、対応するエリアIDに結び付けて、そのIDによって特定される区画A,B,C,D,Eを撮影可能なカメラのうち、その区画を撮影した画像の例えば鮮明度が高い順に上位3位まで選択する。そして、選択したカメラのIDを領域32-2,32-3,32-4に順に記述して、エリア別表示カメラ定義テーブル32を事前に作成する。 The user describes each area ID “Ar”, “Br”, “Cr”, “Dr”, “Er” in the area 32-1. In addition, among the cameras that can capture the sections A, B, C, D, and E specified by the ID in association with the corresponding area ID, the user is ranked higher in the order of, for example, the sharpness of the images captured in the section. Select up to 3rd place. Then, the ID of the selected camera is described in the areas 32-2, 32-3, and 32-4 in order, and the display camera definition table 32 for each area is created in advance.
因みに、図2のレイアウトを適用する本実施形態では、区画Aに対してはカメラCA1,CA6,CA3のカメラIDを定義し、区画Bに対してはカメラCA6,CA3,CA5のカメラIDを定義し、区画Cに対してはカメラCA5,CA6,CA4のカメラIDを定義し、区画Dに対してはカメラCA4,CA3,CA2のカメラIDを定義し、区画Eに対してはカメラCA1,CA2,CA3のカメラIDを定義する。 Incidentally, in the present embodiment in which the layout of FIG. 2 is applied, the camera IDs of the cameras CA1, CA6, and CA3 are defined for the section A, and the camera IDs of the cameras CA6, CA3, and CA5 are defined for the section B. For the section C, camera IDs of the cameras CA5, CA6, and CA4 are defined. For the section D, camera IDs of the cameras CA4, CA3, and CA2 are defined. For the section E, the cameras CA1, CA2 are defined. , CA3 camera ID is defined.
例えばCPU(Central Processing Unit)で構成される制御部27は、前記動線表示プログラムに従い、少なくとも以下の機能1〜4を実現する。
For example, the
1.表示対象として選択された移動体すなわち買物客の動線データを、前記動線データベース14から取得する機能(動線データ取得手段)。
1. A function (flow line data acquisition means) for acquiring the flow line data of the mobile object selected as the display object, that is, the shopper, from the
2.動線データ取得手段により取得した動線データで前記買物客の始点から終点まで移動経路を示す動線を表示する機能(動線表示手段)。 2. A function of displaying a flow line indicating a movement route from the start point to the end point of the shopper with the flow line data acquired by the flow line data acquisition means (flow line display means).
3.動線表示手段により表示される動線の先端、すなわち表示対象である買物客が居る場所の位置情報を基準に6台のカメラCA1〜CA6のなかから3台のカメラを選択する機能(カメラ選択手段)。 3. A function of selecting three cameras from the six cameras CA1 to CA6 based on the position information of the tip of the flow line displayed by the flow line display means, that is, the place where the shopper to be displayed is present (camera selection) means).
4.カメラ選択手段により選択された3台のカメラの各撮影画像を前記動線表示手段により表示される動線と同期させて表示する機能(カメラ画像表示手段)。なお、同期とは、動線として表示される移動体(買物客)の動きに合わせて、同一時刻のカメラ画像を表示させるということである。 4). A function of displaying each captured image of the three cameras selected by the camera selection means in synchronization with the flow line displayed by the flow line display means (camera image display means). The synchronization means that the camera images at the same time are displayed in accordance with the movement of the moving object (shopper) displayed as the flow line.
以下、これらの機能1〜4について、図7の流れ図を用いて説明する。動線表示装置2のユーザが、入力部21を操作して、動線表示業務の開始を指令すると、動線表示プログラムが起動する。このプログラムの起動を受けて、制御部27は、図7の流れ図に示す処理手順を開始する。
Hereinafter, these
先ず、制御部27は、表示部22に動線リスト画面を表示させる(ST1)。すなわち制御部27は、データベースアクセス部23を介して動線認識装置1にアクセスし、動線データベース14に保存されている全ての動線データの動線IDを読み込む。そして、動線IDを一覧にした動線リスト画面を編集し、表示部22に表示させる。なお、動線認識装置1が動線リスト画面の編集機能を有しており、動線認識装置1で編集された動線リスト画面を動線表示装置2が読み込んで表示部22に表示させるようにしてもよい。
First, the
前記ユーザは、入力部21を操作して、動線リスト画面のなかから所望の動線IDを1つ選択する。なお、動線リスト画面には、業務終了のボタンが表示されており、動線表示業務を終了させたいユーザは、入力部21を操作してこのボタンを入力する。
The user operates the
制御部27は、動線IDが選択されるか(ST2)、業務終了のボタンが入力されるのを待機する(ST3)。動線IDが選択されると(ST2のYES)、制御部27は、再度、動線認識装置1にアクセスして、選択された動線IDに関連付けて動線データベース14に記憶されている動線データを読み込み、データ記憶部25で記憶する(ST4:動線データ取得手段)。
The
制御部27は、記憶した動線データ(以下、表示動線データと称する)を解析して、始点フレーム1番号と終点フレーム番号nを検出する。そして再度、動線認識装置1にアクセスして、画像データベース12に保存されている各カメラCA1〜CA6のフレーム画像データのうち、始点フレーム1番号から終点フレームn番号までのフレーム画像データを全て読み込み、データ記憶部25でカメラID別に記憶する(ST5)。
The
制御部27は、表示部22の画面を動線表示画面40に切換える(ST6)。
動線表示画面40の一例を図8に示す。図8に示すように、動線表示画面40は、売場のレイアウト図が表示された動線表示エリア41と、3つのカメラ画像エリア42,43,44とを含む。また、再表示ボタン45と完了ボタン46の画像を含む。
The
An example of the flow
制御部27は、フレームカウンタfを一旦“0”にリセットする(ST7)。次いで、制御部27は、このカウンタfを“1”だけカウントアップする(ST8)。そして制御部27は、このカウンタfが、表示動線データのフレーム数nを超えたか否かを判断する(ST9)。
The
カウンタfがフレーム数nを超えていない場合(ST9のNO)、制御部27は、表示動線データから、カウンタfの値であるf番目のフレームのインデックスデータ(以下、フレームfインデックスデータと称する)を検出する。そして制御部27は、エリア設定テーブル31を参照して、このフレームfインデックスデータの二次元座標(Xf,Yf)で特定される売場S内の位置が属する区画を検索する(ST10)。
When the counter f does not exceed the number of frames n (NO in ST9), the
例えば、フレームfインデックスデータのX座標Xfが[xa1≦Xf≦xa2]の関係を満足し、かつ、Y座標Yfが[ya1≦Yf≦ya2]の関係を満足する場合には、エリアID“Ar”で特定される区画Aを検出する。X座標Xfが[xb1≦Xf≦xb2]の関係を満足し、かつ、Y座標Yfが[yb1≦Yf≦yb2]の関係を満足する場合には、エリアID“Br”で特定される区画Bを検出する。区画C,D,Eについても同様である。 For example, if the X coordinate Xf of the frame f index data satisfies the relationship [xa1 ≦ Xf ≦ xa2] and the Y coordinate Yf satisfies the relationship [ya1 ≦ Yf ≦ ya2], the area ID “Ar ”Is detected. When the X coordinate Xf satisfies the relationship [xb1 ≦ Xf ≦ xb2] and the Y coordinate Yf satisfies the relationship [yb1 ≦ Yf ≦ yb2], the section B specified by the area ID “Br” Is detected. The same applies to the sections C, D, and E.
区画が検出されたならば、制御部27は、エリア別表示カメラ定義テーブル32を参照して、検出された区画に対して定義されている3台のカメラを表示カメラとして選択する(ST11:カメラ選択手段)。
If the section is detected, the
例えば、区画Aが検出された場合には、制御部27は、この区画AのエリアID“Ar”に結び付けられた3つのカメラID“CA1”、“CA6”、“CA3”でそれぞれ特定されるカメラCA1,CA6,CA3を選択する。区画Bが検出された場合には、この区画BのエリアID“Br”に結び付けられた3つのカメラID“CA6”、“CA3”、“CA5”でそれぞれ特定されるカメラCA6,CA3,CA5を選択する。区画C,D,Eについても同様である。
For example, when the section A is detected, the
制御部27は、フレームfインデックスデータからフレーム撮影時刻Tfを取得する。そして、3つの表示カメラについて、それぞれデータ記憶部25から撮影時刻Tfのフレーム画像データを抽出する(ST12)。しかる後、制御部27は、動線表示画面40の各カメラ画像エリア42,43,44に、それぞれ抽出したフレーム画像データのカメラ画像を表示させる(ST13:カメラ画像表示手段)。例えば、制御部27は、エリア別表示カメラ定義テーブル32の領域32-2に設定されたカメラIDのカメラ画像を表示エリア42に表示させ、領域32-3に設定されたカメラIDのカメラ画像を表示エリア43に表示させ、領域32-4に設定されたカメラIDのカメラ画像を表示エリア44に表示させる。
The
また、制御部27は、表示動線データの始点フレームからf番目のフレームまでの各インデックスデータにより、動線表示画面40の動線表示エリア41に動線を表示させる(ST14:動線表示手段)。
Further, the
しかる後、制御部27は、ステップST8の処理に戻る。すなわち、制御部27は、カウンタfをさらに“1”だけカウントアップする。そして、ステップST9以降の処理を再度実行する。
Thereafter, the
こうして、カウンタfがフレーム数nを超えるまでは、カウンタfがカウントアップされる毎に、ステップST10〜ST14の処理が繰り返される。カウンタfがフレーム数nを超えたならば(ST9のYES)、制御部27は、再表示が指令されるか(ST15)、完了が指令されるのを待機する(ST16)。入力部21を介して再表示ボタン45が入力されると(ST15のYES)、制御部27は、ステップST7の処理に戻る。そして、フレームカウンタfを”0”にリセとした後、ステップST8〜ST14の処理を再度実行する。
Thus, until the counter f exceeds the frame number n, the processes of steps ST10 to ST14 are repeated each time the counter f is counted up. If the counter f exceeds the frame number n (YES in ST9), the
完了ボタン46が入力された場合には(ST16のYES)、制御部27は、ステップ1の処理に戻る。すなわち、表示部22の画面を動線リスト画面に戻す。ここで、次の動線IDが選択されたならば(ST2のYES)、制御部27は、ステップST3以降の処理を再度実行する。業務終了のボタンが入力された場合には(ST3のYES)、制御部27は、今回の処理を終了する。
When the completion button 46 is input (YES in ST16), the
本実施形態では、動線表示画面40に表示されるカメラ画像の数は、動線認識システムで用いられるカメラの台数より少ない。本実施形態では、6台のカメラCA1〜CA6に対してカメラ画像を表示するためのエリアは3つである。
In the present embodiment, the number of camera images displayed on the flow
動線表示装置2は、動線表示エリア41に表示される買物客の動線に同期して、カメラ画像エリア42,43,44に表示されるカメラ画像を切換える。具体的には、図2の売場レイアウトにおいて、買物客が区画Aに滞在している間は、カメラCA1とカメラCA6とカメラCA3で撮影される画像を表示する。買物客が区画Bに移動すると、カメラCA6とカメラCA3とカメラCA5の画像に切り換える。さらに、買物客が区画Eに移動すると、カメラCA1とカメラCA2とカメラCA3の画像に切り換える。
The flow
カメラCA1,カメラCA6及びカメラCA3で撮影される区画Aの画像は、他のカメラCA2,CA4,CA5で撮影される区画Aの画像よりも鮮明である。したがって、ユーザは、動線表示エリア41に動線が表示されている買物客の売場Sでの行動を目視により確実に確認することができる。すなわち、この買物客の動向解析を容易に行うことができる。
The image of the section A captured by the cameras CA1, CA6, and CA3 is clearer than the image of the section A captured by the other cameras CA2, CA4, and CA5. Therefore, the user can confirm visually the action in the shop S of the shopper whose flow line is displayed in the flow
仮に、動線表示画面40に6台全てのカメラCA1〜CA6の画像を表示させた場合、カメラCA2,CA4,CA5の画像はその時点における買物客の動向解析には役立たない。それにも係わらず画面上に表示されてユーザの目に留まるため、ユーザの負担が増加する。したがって、買物客の動向解析に無駄な時間を要する。本実施形態によれば、このような不具合を解消することができる。
If the images of all six cameras CA1 to CA6 are displayed on the flow
(第2の実施形態)
次に、第2の実施形態について、図9〜図11を用いて説明する。なお、本実施形態も、システム構成は第1の実施形態と同一であり、図1を用いて詳細な説明は省略する。
(Second Embodiment)
Next, a second embodiment will be described with reference to FIGS. Note that the system configuration of this embodiment is the same as that of the first embodiment, and a detailed description thereof will be omitted with reference to FIG.
第2の実施形態では、動線表示装置2は、テーブル記憶部26でカメラ位置設定テーブル51を記憶する。図9は、カメラ位置設定テーブル51のデータ構造を示す模式図である。図9に示すように、カメラIDを記述するための領域51-1と、カメラ位置座標データを記述するための領域51-2とを備える。
In the second embodiment, the flow
カメラ位置座標データは、対応するカメラIDによって特定されるカメラが取り付けられている地点から床面に垂線を下ろした地点の二次元座標(Cx,Cy)である。座標(Cx,Cy)は、前記原点O(0,0)を基準としたときの世界座標系である。 The camera position coordinate data is two-dimensional coordinates (Cx, Cy) of a point where a perpendicular line is dropped from the point where the camera specified by the corresponding camera ID is attached to the floor surface. The coordinates (Cx, Cy) are a world coordinate system when the origin O (0, 0) is used as a reference.
動線表示装置2のユーザは、各カメラCA1〜CA6のカメラIDを領域51-1に記述する。またユーザは、対応するカメラIDに結び付けて、そのIDによって特定されるカメラCA1〜CA6の取付位置に対する二次元座標(Cx1,Cy1),(Cx2,Cy2),(Cx3,Cy3),(Cx4,Cy4),(Cx5,Cy5),(Cx6,Cy6)を領域51-2に記述して、カメラ位置設定テーブル51を事前に作成する。
The user of the flow
また、第2の実施形態では、データ記憶部25に、図2に示す構成の順位ワークメモリ52を形成する。順位ワークメモリ52は、カメラCA1〜CA6の台数分の順位別に、カメラIDと距離データdrとを対にして記憶する。
In the second embodiment, the
しかして、制御部27は、第1の実施形態と同様に、前記動線表示プログラムに従い、動線データ取得手段、動線表示手段、カメラ選択手段、カメラ画像表示手段としての機能を実現する。ここで、第1の実施形態と異なるのは、カメラ選択手段である。
As in the first embodiment, the
図11は、動線表示プログラムの起動を受けて、制御部27が実行する処理手順を示す流れ図である。図7に示した第1の実施形態と共通する手順には同一のステップ符号(STx)を付している。図7と図11とを比較すれば明らかなように、第2の実施形態が第1の実施形態と異なる部分は、ステップST9の処理にて“NO”と判定された場合、すなわち、カウンタfがフレーム数nを超えていない場合である。
FIG. 11 is a flowchart showing a processing procedure executed by the
カウンタfがフレーム数nを超えていないと(ST9のNO)、制御部27は、表示動線データからフレームfインデックスデータを検出する。そして制御部27は、このインデックスデータの二次元座標(Xf,Yf)を取得する(ST21)。
If the counter f does not exceed the frame number n (NO in ST9), the
次に、制御部27は、カメラ位置設定テーブル51から各カメラCA1〜CA6の位置座標(Cx1,Cy1),(Cx2,Cy2),(Cx3,Cy3),(Cx4,Cy4),(Cx5,Cy5),(Cx6,Cy6)を読み込む。そして、これらの位置座標とフレームfインデックスデータの二次元座標(Xf,Yf)とから、次の演算式(1)〜(6)により、各カメラCA1〜CA6の取付地点から二次元座標(Xf,Yf)で特定される地点までの距離dr1〜dr6を算出する(ST22)。
Next, the
dr1=sqrt[(Xf-Cx1)*(Xf-Cx1)+(Yf-Cy1)*(Yf-Cy1)] …(1)
dr2=sqrt[(Xf-Cx2)*(Xf-Cx2)+(Yf-Cy2)*(Yf-Cy2)] …(2)
dr3=sqrt[(Xf-Cx3)*(Xf-Cx3)+(Yf-Cy3)*(Yf-Cy3)] …(3)
dr4=sqrt[(Xf-Cx4)*(Xf-Cx4)+(Yf-Cy4)*(Yf-Cy4)] …(4)
dr5=sqrt[(Xf-Cx5)*(Xf-Cx5)+(Yf-Cy5)*(Yf-Cy5)] …(5)
dr6=sqrt[(Xf-Cx6)*(Xf-Cx6)+(Yf-Cy6)*(Yf-Cy6)] …(6)
なお、式(1)〜(6)において、“sqrt[ ]”は、[ ]内のルート(平方根)を示す。
dr1 = sqrt [(Xf-Cx1) * (Xf-Cx1) + (Yf-Cy1) * (Yf-Cy1)]] (1)
dr2 = sqrt [(Xf-Cx2) * (Xf-Cx2) + (Yf-Cy2) * (Yf-Cy2)] (2)
dr3 = sqrt [(Xf-Cx3) * (Xf-Cx3) + (Yf-Cy3) * (Yf-Cy3)] (3)
dr4 = sqrt [(Xf-Cx4) * (Xf-Cx4) + (Yf-Cy4) * (Yf-Cy4)] (4)
dr5 = sqrt [(Xf-Cx5) * (Xf-Cx5) + (Yf-Cy5) * (Yf-Cy5)] (5)
dr6 = sqrt [(Xf-Cx6) * (Xf-Cx6) + (Yf-Cy6) * (Yf-Cy6)] (6)
In the expressions (1) to (6), “sqrt []” indicates a route (square root) in [].
距離dr1〜dr6が算出されると、制御部27は、この距離dr1〜dr6を、該当するカメラIDと結び付けて順位ワークメモリ52に書き込む。すなわち、カメラCA1の取付地点から二次元座標(Xf,Yf)の地点までの距離dr1は、カメラCA1のカメラID“CA1”を結び付けて記憶する。他の距離dr2〜dr6についても同様である。制御部27は、順位ワークメモリ52に記憶されたデータを、距離が短いほど順位が上位となるように並べ替える(ST23)。
When the distances dr1 to dr6 are calculated, the
制御部27は、順位ワークメモリ52から、上位3位までのカメラIDを読み出す。そして、これらのカメラIDでそれぞれ特定される3つのカメラを表示カメラとして選択する(ST24:カメラ選択手段)。
The
以後の処理手順は、第1の実施形態と同様である。すなわち、制御部27は、フレームfインデックスデータからフレーム撮影時刻Tfを取得する。そして、3つの表示カメラについて、それぞれデータ記憶部25から撮影時刻Tfのフレーム画像データを抽出する(ST12)。しかる後、制御部27は、動線表示画面40の各カメラ画像エリア42,43,44に、それぞれ抽出したフレーム画像データのカメラ画像を表示させる(ST13:カメラ画像表示手段)。また、制御部27は、表示動線データの始点フレームからf番目のフレームまでの各インデックスデータにより、動線表示画面40の動線表示エリア41に動線を表示させる(ST14:動線表示手段)。その後、制御部27は、ステップST8の処理に戻る。
The subsequent processing procedure is the same as in the first embodiment. That is, the
第2の実施形態では、動線表示装置2は、動線表示エリア41に表示される買物客の動線に同期して、その動線の先端、すなわち買物客が居る地点に対して距離の近い順に3つのカメラを自動的に選択し、その選択したカメラの画像をカメラ画像エリア42,43,44に表示させる。
In the second embodiment, the flow
動線の先端となる地点からカメラまでの距離が短ければ短いほど、動線先端付近の画像は鮮明となる。したがって、第1の実施形態と同様の作用効果を奏することができる。 The shorter the distance from the point at the tip of the flow line to the camera, the clearer the image near the tip of the flow line. Therefore, the same operational effects as those of the first embodiment can be obtained.
(第3の実施形態)
次に、第3の実施形態について、図12〜図13を用いて説明する。本実施形態は、第2の実施形態の変形例である。第2の実施形態では、テーブル記憶部26でカメラ位置設定テーブル51を記憶する。第3の実施形態では、図12に示すデータ構造のカメラ画像座標テーブル61を記憶する。図12に示すように、カメラ画像座標テーブル61は、カメラIDを記述するための領域61-1と、カメラ画像の中心座標データを記述するための領域61-2とを備える。
(Third embodiment)
Next, a third embodiment will be described with reference to FIGS. This embodiment is a modification of the second embodiment. In the second embodiment, the camera position setting table 51 is stored in the
動線表示装置2のユーザは、各カメラCA1〜CA6のカメラIDを領域61-1に記述する。またユーザは、対応するカメラIDに結び付けて、そのIDによって特定されるカメラCA1〜CA6で撮影される画像の中心に位置する床面の二次元座標(Sx1,Sy1),(Sx2,Sy2),(Sx3,Sy3),(Sx4,Sy4),(Sx5,Sy5),(Sx6,Sy6)を領域61-2に記述して、カメラ画像座標テーブル61を事前に作成する。
The user of the flow
しかして、制御部27は、第2の実施形態と同様に、前記動線表示プログラムに従い、動線データ取得手段、動線表示手段、カメラ選択手段、カメラ画像表示手段としての機能を実現する。ここで、第2の実施形態と異なるのは、カメラ選択手段の一部である。
Thus, as in the second embodiment, the
図13は、動線表示プログラムの起動を受けて、制御部27が実行する処理手順を示す流れ図である。図11に示した第2の実施形態と共通する手順には同一のステップ符号(STx)を付している。図11と図13とを比較すれば明らかなように、第3の実施形態が第2の実施形態と異なる部分は、ステップST21の処理にて表示動線データからフレームfインデックスデータを検出し、このインデックスデータの二次元座標(Xf,Yf)を取得した後に、ステップST31として、この二次元座標(Xf,Yf)を世界座標系からカメラ座標系に変換する処理を追加した点である。
FIG. 13 is a flowchart showing a processing procedure executed by the
ここで、世界座標系からカメラ座標系への変換処理の原理について説明する。この変換処理では、以下のパラメータを使用する。
・世界座標系の動線座標:x,y,h
・世界座標系のカメラの位置:Wx,Wy,Wz
・画像中心の座標:Cx,Cy
・世界座標系の座標軸周りのカメラ回転角:Rx,Ry,Rz
・全方位カメラのパラメータ:b,c,f
・魚眼カメラのパラメータ:k1,k3,k5,scale
先ず、制御部27は、変換対象の動線座標(x,y,h)を、カメラ位置を原点とした座標系(X0,Y0,Z0)に平行移動する。この処理は、次の演算式により実行される。
・ Flow line coordinates in the world coordinate system: x, y, h
・ World camera position: Wx, Wy, Wz
-Image center coordinates: Cx, Cy
-Camera rotation angle around the coordinate axis of the world coordinate system: Rx, Ry, Rz
-Omnidirectional camera parameters: b, c, f
・ Fisheye camera parameters: k1, k3, k5, scale
First, the
次に、制御部27は、平行移動した動線座標(X0,Y0,Z0)について、世界座標系の座標軸周りのカメラ回転角を使って回転処理し、世界座標系とカメラ座標系の軸を合せる。この処理は、次の演算式により実行される。
Next, the
[X軸周りの回転]
[Y軸周りの回転]
[Z軸周りの回転]
次に、制御部27は、処理対象のカメラの種類を判別する。カメラが魚眼カメラの場合、制御部27は、魚眼カメラのパラメータを使って、動線座標(Xz,Yz,Zz)を世界座標系からカメラ画像座標系に変換する。この処理は、次の演算により実行される。
Next, the
先ず、Xd=rcost:Yd=rsintとする。 First, Xd = rcost: Yd = rsint.
ただし、Yz≧0のとき、
Yz<0のとき、
である。ここで、上記rの値を、下記数式のニュートン法を用いて求める。
なお、この数式において、初期値r0を0.0、目標値をθとする。また、|rn+1−rn|<0.01で収束したとみなす。その時点でのrの値を使用する。 In this equation, the initial value r 0 is 0.0 and the target value is θ. In addition, it is considered that convergence is achieved when | r n + 1 −r n | <0.01. The value of r at that time is used.
一方、カメラが全方位カメラの場合は、制御部27は、全方位カメラのパラメータを使って、動線座標(Xz,Yz,Zz)を世界座標系からカメラ画像座標系に変換する。この処理は、次の演算式により実行される。
こうして、動線座標を世界座標系からカメラ画像座標系に変換したならば、制御部27は、変換後の座標(Xd,Yd)をカメラ画像座標系の原点に平行移動する。この処理は、次の演算式により実行される。
以上の処理を実行することにより、動線座標がカメラ画像系の座標に変換される。 By executing the above processing, the flow line coordinates are converted into the coordinates of the camera image system.
上記変換処理にしたがって、二次元座標(Xf,Yf)がカメラ画像系の座標に変換されたならば、制御部27は、カメラ画像座標テーブル61から各カメラCA1〜CA6の画像中心座標(Sx1,Sy1),(Sx2,Sy2),(Sx3,Sy3),(Sx4,Sy4),(Sx5,Sy5),(Sx6,Sy6)を読み込む。そして、これらの画像中心座標とカメラ画像系の二次元座標とから、第2の実施形態と同様の演算式で各カメラCA1〜CA6の画像中心地点から二次元座標(Xf,Yf)の地点までの距離dr1〜dr6を算出する(ST22)。
If the two-dimensional coordinates (Xf, Yf) are converted into the coordinates of the camera image system in accordance with the conversion processing, the
以後の処理手順は、第2の実施形態と同様である。すなわち制御部27は、距離dr1〜dr6を、該当するカメラIDと結び付けて順位ワークメモリ52に書き込む。そして制御部27は、順位ワークメモリ52に記憶されたデータを、距離が短いほど順位が上位となるように並べ替える(ST23)。
The subsequent processing procedure is the same as in the second embodiment. That is, the
制御部27は、順位ワークメモリ52から、上位3位までのカメラIDを読み出して、これらのカメラIDでそれぞれ特定される3つのカメラを表示カメラとして選択する(ST24:カメラ選択手段)。そして、選択された3つの表示カメラについて、それぞれデータ記憶部25から撮影時刻Tfのフレーム画像データを抽出する(ST12)。しかる後、制御部27は、動線表示画面40の各カメラ画像エリア42,43,44に、それぞれ抽出したフレーム画像データのカメラ画像を表示させる(ST13:カメラ画像表示手段)。また、制御部27は、表示動線データの始点フレームからf番目のフレームまでの各インデックスデータにより、動線表示画面40の動線表示エリア41に動線を表示させる(ST14:動線表示手段)。その後、制御部27は、ステップST8の処理に戻る。
The
第3の実施形態においても、動線表示装置2は、動線表示エリア41に表示される買物客の動線に同期して、その動線の先端、すなわち買物客が居る地点に対して距離の近い順に3つのカメラを自動的に選択し、その選択したカメラの画像をカメラ画像エリア42,43,44に表示させる。したがって、第1及び第2の実施形態と同様の作用効果を奏し得る。
Also in the third embodiment, the flow
因みに、第2の実施形態では、動線の先端地点を示す世界座標系の二次元座標とカメラの取付位置を示す世界座標系のカメラ位置座標とから、カメラ取付地点から動線先端地点までの距離を計測し、表示カメラを選択している。したがって、レンズを天井から真下に向けてカメラを取り付ける直下設置方式の場合に好適である。 Incidentally, in the second embodiment, from the two-dimensional coordinates of the world coordinate system indicating the tip of the flow line and the camera position coordinates of the world coordinate system indicating the attachment position of the camera, from the camera attachment point to the flow line tip point. The distance is measured and the display camera is selected. Therefore, it is suitable for the direct installation system in which the camera is mounted with the lens facing directly below the ceiling.
これに対して、レンズを斜め方向に向けてカメラを取り付ける斜視設置方式の場合は、世界座標系による距離計算では信憑性が落ちる。このような場合には、第3の実施形態のように、動線の先端位置を示す二次元座標を世界座標系からカメラ画像座標系に変換してから、カメラ画像座標系による距離計算を行う。そして、距離の短いカメラを表示カメラとして選択することによって、動線先端地点について鮮明度の高い画像を得ることができる。 On the other hand, in the case of the perspective installation method in which the camera is mounted with the lens directed obliquely, the credibility is reduced in the distance calculation by the world coordinate system. In such a case, as in the third embodiment, the two-dimensional coordinate indicating the tip position of the flow line is converted from the world coordinate system to the camera image coordinate system, and then distance calculation is performed using the camera image coordinate system. . Then, by selecting a camera with a short distance as the display camera, it is possible to obtain an image with high definition at the flow line tip point.
以上説明したように各実施形態によれば、移動体が撮影されているカメラ画像を探し出すのにユーザが要する手間と時間を、大幅に軽減することができる。この効果は、監視領域が拡大されてカメラの台数が増加すればするほど顕著なものとなる。 As described above, according to each embodiment, it is possible to greatly reduce the labor and time required for the user to find a camera image in which a moving object is photographed. This effect becomes more prominent as the monitoring area is expanded and the number of cameras is increased.
なお、この発明は前記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。 The present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage.
例えば、前記第1の実施形態では、エリア別表示カメラ定義テーブル32を作成する際に、該当する区画を撮影した画像の例えば鮮明度が高い順に上位3位までのカメラを選択してテーブル32に設定したが、カメラの選択条件は、鮮明度に限定されるものではない。例えば、該当する区画までの距離が短いカメラを選択してもよい。また、カメラの選択数は、動線表示画面40に確保されているカメラ画像エリアの数に一致していなくてもよい。例えば鮮明度の高いカメラが2つしか存在しない場合には、その2つのカメラのカメラIDをエリア別表示カメラ定義テーブル32設定して、該当する区画に動線先端が位置しているときにはその2つのカメラの画像をカメラ画像エリアに表示させるようにしてもよい。
For example, in the first embodiment, when the area-specific display camera definition table 32 is created, the top three cameras in the descending order of, for example, the images obtained by photographing the corresponding sections are selected and stored in the table 32. Although set, the camera selection condition is not limited to sharpness. For example, a camera having a short distance to the corresponding section may be selected. Further, the number of selected cameras may not match the number of camera image areas secured in the flow
また、第2及び第3の実施形態では、距離drが短い上位3位までのカメラを表示カメラとして選択したが、予めしきい値を設定し、距離drがしきい値より長い場合は、たとえ上位3位に入っていても選択しないようにしてもよい。 In the second and third embodiments, the top three cameras with the short distance dr are selected as display cameras. However, if a threshold is set in advance and the distance dr is longer than the threshold, Even if you are in the top three, you may not select.
また、各実施形態では、発明を実施する機能を実現させるためのプログラムが装置内部に予め記録されている場合で説明をしたが、これに限らず同様のプログラムをネットワークから装置にダウンロードしても良いし、同様のプログラムを記録媒体に記憶させたものを装置にインストールしてもよい。記録媒体としては、CD−ROM等プログラムを記憶でき、かつ装置が読み取り可能な記録媒体であれば、その形態は何れの形態であっても良い。またこのように予めインストールやダウンロードにより得る機能は装置内部のOS(オペレーティング・システム)等と協働してその機能を実現させるものであってもよい。 In each embodiment, a case has been described in which a program for realizing a function for carrying out the invention is recorded in advance in the apparatus. However, the present invention is not limited to this, and a similar program may be downloaded from the network to the apparatus. Alternatively, a similar program stored in a recording medium may be installed in the apparatus. The recording medium may be any form as long as the recording medium can store the program and can be read by the apparatus, such as a CD-ROM. In addition, the function obtained by installing or downloading in advance may be realized in cooperation with an OS (operating system) inside the apparatus.
この他、前記実施形態に開示されている複数の構成要素の適宜な組合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を組合わせてもよい。 In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, the constituent elements over different embodiments may be combined.
1…動線認識装置、2…動線表示装置、11…カメラコントロール部、12…カメラ画像データベース、13…動線生成部、14…動線データベース、21…入力部、22…表示部、23…データベースアクセス部、24…プログラム記憶部、25…データ記憶部、26…テーブル記憶部、27…制御部、31…エリア設定テーブル、32…エリア別表示カメラ定義テーブル、40…動線表示画面、51…カメラ位置設定テーブル、52…順位ワークメモリ、61…カメラ画像座標テーブル。
DESCRIPTION OF
Claims (8)
この動線データ取得手段により取得した動線データで前記移動体の始点から終点まで移動経路を示す動線を表示する動線表示手段と、
この動線表示手段により表示される動線の先端の位置情報を基準に前記複数のカメラのなかからそのカメラ台数より少ない一定数以下のカメラを選択するカメラ選択手段と、
このカメラ選択手段により選択されたカメラの撮影画像を前記動線表示手段により表示される動線と同期させて表示するカメラ画像表示手段と、
を具備したことを特徴とする動線表示装置。 The flow line data of a moving body selected as a display target is acquired from a flow line database that stores flow line data for each moving body generated from each captured image of a plurality of cameras arranged with a monitoring area as a shooting target. Flow line data acquisition means;
A flow line display means for displaying a flow line indicating a movement path from the start point to the end point of the moving body with the flow line data acquired by the flow line data acquisition means;
Camera selection means for selecting a certain number of cameras less than the number of cameras from the plurality of cameras based on positional information on the tip of the flow line displayed by the flow line display means;
Camera image display means for displaying a captured image of the camera selected by the camera selection means in synchronization with the flow line displayed by the flow line display means;
A flow line display device comprising:
前記カメラ選択手段は、前記位置情報から前記動線の先端が位置する前記区分領域を検出し、この検出された区分領域に結び付けられて前記領域別カメラ定義テーブルで記憶される前記一定数以下の識別情報で識別されるカメラを選択することを特徴とする請求項1記載の動線表示装置。 For each divided area into which the monitoring area is divided, an area-by-area display camera definition table that stores identification information of at least the predetermined number of cameras capable of photographing the divided area,
The camera selection means detects the segmented region where the tip of the flow line is located from the position information, and is linked to the detected segmented region and stored in the region-specific camera definition table. 2. The flow line display device according to claim 1, wherein a camera identified by the identification information is selected.
前記カメラ選択手段は、前記位置情報から前記動線の先端が位置する世界座標系の座標情報を取得し、この動線先端の座標情報と前記カメラ位置設定テーブルに記憶されている各カメラの座標情報とからカメラ毎にその配置位置から前記動線の先端地点までの距離を算出し、距離の短い順に前記一定数以下のカメラを選択することを特徴とする請求項1記載の動線表示装置。 A camera position setting table for storing coordinate information of the world coordinate system of each position where the camera is arranged for each of the plurality of cameras;
The camera selection means acquires coordinate information of the world coordinate system where the tip of the flow line is located from the position information, and coordinate information of the camera stored in the camera position setting table. 2. The flow line display device according to claim 1, wherein a distance from the arrangement position to the tip end point of the flow line is calculated for each camera from the information, and the predetermined number of cameras or less are selected in order of increasing distance. .
前記カメラ選択手段は、前記位置情報から前記動線の先端が位置する世界座標系の座標情報を取得し、この座標情報を前記世界座標系から前記カメラの画像座標系に変換し、画像座標系に変換された動線先端の座標情報と前記カメラ画像座標テーブルに記憶されている各カメラの画像中心座標の情報とからカメラ毎にその画像中心地点から前記動線の先端地点までの距離を算出し、距離の短い順に前記一定数以下のカメラを選択することを特徴とする請求項1記載の動線表示装置。 For each of the plurality of cameras, further comprising a camera image coordinate table that stores information of image center coordinates of the camera,
The camera selection means acquires coordinate information of the world coordinate system where the tip of the flow line is located from the position information, converts the coordinate information from the world coordinate system to the image coordinate system of the camera, and the image coordinate system The distance from the image center point to the tip end point of the flow line is calculated for each camera from the coordinate information of the flow line tip converted into the information and the image center coordinate information of each camera stored in the camera image coordinate table. The flow line display device according to claim 1, wherein the number of cameras equal to or less than the predetermined number is selected in order of increasing distance.
前記表示装置が、前記監視領域を区分した区分領域毎に、少なくともその区分領域を撮影可能な一定数以下のカメラの識別情報を予め記憶し、
前記表示装置が、表示する動線の先端の位置情報から当該先端が位置する前記区分領域を検出し、
前記表示装置が、この検出された区分領域に結び付けられて記憶される前記一定数以下の識別情報で識別されるカメラを選択し、
前記表示装置が、この選択されたカメラの撮影画像を前記動線と同期させて表示することを特徴とする動線表示方法。 A method in which a display device displays a flow line indicating a movement path from a start point to an end point of the moving body based on flow line data of the moving body generated from captured images of a plurality of cameras arranged with a monitoring area as an imaging target. There,
The display device stores in advance, for each divided area into which the monitoring area is divided, at least a predetermined number of cameras that can shoot the divided area, and identification information of the cameras,
The display device detects the segmented region where the tip is located from the position information of the tip of the flow line to be displayed,
The display device selects a camera identified by the identification information of a certain number or less stored in association with the detected segmented area,
The flow line display method, wherein the display device displays a photographed image of the selected camera in synchronization with the flow line.
前記表示装置が、前記複数のカメラ毎に、そのカメラが配置されている各位置の世界座標系の座標情報を予め記憶し、
前記表示装置が、表示する動線の先端の位置情報から前記動線の先端が位置する世界座標系の座標情報を取得し、
前記表示装置が、前記動線の先端の座標情報と予め記憶している各カメラの座標情報とから、カメラ毎にその配置位置から前記動線の先端地点までの距離を算出して、距離の短い順に前記一定数以下のカメラを選択し、
前記表示装置が、この選択されたカメラの撮影画像を前記動線と同期させて表示することを特徴とする動線表示方法。 A method in which a display device displays a flow line indicating a movement path from a start point to an end point of the moving body based on flow line data of the moving body generated from captured images of a plurality of cameras arranged with a monitoring area as an imaging target. There,
For each of the plurality of cameras, the display device stores in advance coordinate information of the world coordinate system at each position where the camera is disposed,
The display device acquires coordinate information of the world coordinate system where the tip of the flow line is located from the position information of the tip of the flow line to be displayed,
The display device calculates the distance from the arrangement position to the tip of the flow line for each camera from the coordinate information of the tip of the flow line and the coordinate information of each camera stored in advance. Select less than a certain number of cameras in the short order,
The flow line display method, wherein the display device displays a photographed image of the selected camera in synchronization with the flow line.
前記表示装置が、複数のカメラ毎に、そのカメラの画像中心座標の情報を予め記憶し、
前記表示装置が、表示する動線の先端の位置情報から前記動線の先端が位置する世界座標系の座標情報を取得し、
前記表示装置が、前記動線の先端が位置する座標情報を前記世界座標系から前記カメラの画像座標系に変換し、
前記表示装置が、前記画像座標系に変換された動線先端の座標情報と予め記憶している各カメラの画像中心座標の情報とから、カメラ毎にその画像中心地点から前記動線の先端地点までの距離を算出して、距離の短い順に前記一定数以下のカメラを選択し、
前記表示装置が、この選択されたカメラの撮影画像を前記動線と同期させて表示することを特徴とする動線表示方法。 A method in which a display device displays a flow line indicating a movement path from a start point to an end point of the moving body based on flow line data of the moving body generated from captured images of a plurality of cameras arranged with a monitoring area as an imaging target. There,
For each of the plurality of cameras, the display device stores in advance information on the image center coordinates of the cameras,
The display device acquires coordinate information of the world coordinate system where the tip of the flow line is located from the position information of the tip of the flow line to be displayed,
The display device converts the coordinate information where the tip of the flow line is located from the world coordinate system to the image coordinate system of the camera,
From the coordinate information of the flow line tip converted into the image coordinate system and the information of the image center coordinate of each camera stored in advance, the display device from the image center point to the tip point of the flow line for each camera. To select the cameras below the certain number in order from the shortest distance,
The flow line display method, wherein the display device displays a photographed image of the selected camera in synchronization with the flow line.
監視領域を撮影対象として配置された複数のカメラの各撮影画像から生成される移動体毎の動線データを記憶する動線データベースから表示対象として選択された移動体の前記動線データを取得させる機能、
取得した動線データで前記移動体の始点から終点まで移動経路を示す動線を表示部に表示させる機能、
前記表示部に表示される動線の先端の位置情報を基準に前記複数のカメラのなかからそのカメラ台数より少ない一定数以下のカメラを選択させる機能、及び
選択されたカメラの撮影画像を前記動線と同期させて表示部に表示させる機能、
を実現させるためのプログラム。 To the computer that displays the flow line showing the movement path from the start point to the end point
The flow line data of a moving body selected as a display target is acquired from a flow line database that stores flow line data for each moving body generated from each captured image of a plurality of cameras arranged with a monitoring area as a shooting target. function,
A function for displaying a flow line indicating a movement route from the start point to the end point of the moving object on the display unit in the acquired flow line data;
A function of selecting a certain number of cameras less than the number of cameras from the plurality of cameras based on positional information on the tip of the flow line displayed on the display unit, and a captured image of the selected camera Function to display on the display unit in sync with the line,
A program to realize
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010150483A JP5771367B2 (en) | 2010-06-30 | 2010-06-30 | Flow line display apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010150483A JP5771367B2 (en) | 2010-06-30 | 2010-06-30 | Flow line display apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012015813A true JP2012015813A (en) | 2012-01-19 |
JP5771367B2 JP5771367B2 (en) | 2015-08-26 |
Family
ID=45601712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010150483A Expired - Fee Related JP5771367B2 (en) | 2010-06-30 | 2010-06-30 | Flow line display apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5771367B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004104572A (en) * | 2002-09-11 | 2004-04-02 | Bank Of Tokyo-Mitsubishi Ltd | Method and system for controlling monitoring camera, program for making computer implement monitoring camera controlling method, and recording medium with the program recorded thereon |
JP2006202062A (en) * | 2005-01-20 | 2006-08-03 | Toshiba Corp | Facility monitoring system |
JP2006332754A (en) * | 2005-05-23 | 2006-12-07 | Fujitsu Ltd | Image distribution method, image distribution apparatus, event detection apparatus, and image browsing operation terminal |
JP2008099248A (en) * | 2006-10-13 | 2008-04-24 | Fuji Xerox Co Ltd | Interface apparatus for providing display video from multiple fixed-position cameras, method for providing interface and display of the video, and program |
JP2009010734A (en) * | 2007-06-28 | 2009-01-15 | Toshiba Tec Corp | Traffic line display apparatus, method, and program |
JP2009110408A (en) * | 2007-10-31 | 2009-05-21 | Toshiba Tec Corp | Moving route editing apparatus and moving route editing program |
-
2010
- 2010-06-30 JP JP2010150483A patent/JP5771367B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004104572A (en) * | 2002-09-11 | 2004-04-02 | Bank Of Tokyo-Mitsubishi Ltd | Method and system for controlling monitoring camera, program for making computer implement monitoring camera controlling method, and recording medium with the program recorded thereon |
JP2006202062A (en) * | 2005-01-20 | 2006-08-03 | Toshiba Corp | Facility monitoring system |
JP2006332754A (en) * | 2005-05-23 | 2006-12-07 | Fujitsu Ltd | Image distribution method, image distribution apparatus, event detection apparatus, and image browsing operation terminal |
JP2008099248A (en) * | 2006-10-13 | 2008-04-24 | Fuji Xerox Co Ltd | Interface apparatus for providing display video from multiple fixed-position cameras, method for providing interface and display of the video, and program |
JP2009010734A (en) * | 2007-06-28 | 2009-01-15 | Toshiba Tec Corp | Traffic line display apparatus, method, and program |
JP2009110408A (en) * | 2007-10-31 | 2009-05-21 | Toshiba Tec Corp | Moving route editing apparatus and moving route editing program |
Also Published As
Publication number | Publication date |
---|---|
JP5771367B2 (en) | 2015-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6540108B2 (en) | Image generation method, system, device, and terminal | |
US10674142B2 (en) | Optimized object scanning using sensor fusion | |
US8896535B2 (en) | Image processing apparatus and method, and program therefor | |
US20160357491A1 (en) | Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system | |
JP6587489B2 (en) | Image processing apparatus, image processing method, and image processing system | |
JP5613741B2 (en) | Image processing apparatus, method, and program | |
US20170076491A1 (en) | Operation support method, operation support program, and operation support system | |
US9007399B2 (en) | Information processing apparatus and method for generating image of virtual space | |
US20210329175A1 (en) | Image processing system, image processing method, and program | |
JP2010086336A (en) | Image control apparatus, image control program, and image control method | |
JP2012244196A (en) | Image processing apparatus and method | |
JP2016224919A (en) | Data browsing device, data browsing method, and program | |
JP5771367B2 (en) | Flow line display apparatus and method | |
JP5930808B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
WO2013183738A1 (en) | Information processing device, information processing method, program, and surveillance camera system | |
JP5876121B2 (en) | Image processing apparatus, method, and program | |
US20220309682A1 (en) | Object tracking apparatus, object tracking method, and program | |
JP6112436B1 (en) | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM | |
WO2019064755A1 (en) | Processing program, processing method, and processing device | |
JP7261261B2 (en) | Information processing device, switching system, program and method | |
JP5849762B2 (en) | Prediction information presentation system, prediction information presentation device, prediction information presentation method, and prediction information presentation program | |
CN108293107A (en) | Display processing unit, display processing method and the computer-readable medium for executing display processing method | |
JP2018107651A (en) | Imaging apparatus | |
JP2005098927A (en) | Mobile unit detecting apparatus, mobile unit detecting method, and mobile unit detecting program | |
JP6400110B2 (en) | Cursor control device and cursor control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130305 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20131205 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20131212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131217 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20131219 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20131226 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140109 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140204 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141111 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5771367 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |