JP2010134560A - People flow information processing method, device and program, and computer-readable recording medium - Google Patents

People flow information processing method, device and program, and computer-readable recording medium Download PDF

Info

Publication number
JP2010134560A
JP2010134560A JP2008307923A JP2008307923A JP2010134560A JP 2010134560 A JP2010134560 A JP 2010134560A JP 2008307923 A JP2008307923 A JP 2008307923A JP 2008307923 A JP2008307923 A JP 2008307923A JP 2010134560 A JP2010134560 A JP 2010134560A
Authority
JP
Japan
Prior art keywords
human
information processing
condition
flow information
storage means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008307923A
Other languages
Japanese (ja)
Other versions
JP4931895B2 (en
Inventor
Hiroshi Watanabe
浩志 渡邉
Tamio Kihara
民雄 木原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008307923A priority Critical patent/JP4931895B2/en
Publication of JP2010134560A publication Critical patent/JP2010134560A/en
Application granted granted Critical
Publication of JP4931895B2 publication Critical patent/JP4931895B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To briefly describe various position movement of persons in a certain spot. <P>SOLUTION: History data are added to figure objects extracted from acquired video data. A sensor area (the spot) is divided into a plurality of sections (cells). A section including a person figure object is represented by use of regular expression. The history data of the figure object and a presentation condition of the regular expression of a condition storage means are collated. A stimulating video associated with the presentation condition is displayed when the history data satisfies the presentation condition. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、人流情報処理方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体に係り、特に、ビデオカメラで取得した画像から人影を抽出し、人の位置や移動を捕捉するための人流情報処理方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体に関する。   The present invention relates to a human flow information processing method and apparatus, a program, and a computer-readable recording medium, and in particular, a human flow information processing method for extracting a human figure from an image acquired by a video camera and capturing the position and movement of a person. And an apparatus, a program, and a computer-readable recording medium.

ある場(スポット)に設置されたビデオカメラで得た画像から人影を抽出し、人の流れを計測する人流計測システムが存在する。これまでのシステムでは、スポットのセンサ領域内に仮想的な線分を設定して、その線分を横切る人の方向と人数を計測する方法で人流を計測していた。これによって、センサ領域内に仮想的な区画を設定して、その区画に侵入する人数と、その区画から退出する人数を計測することができる(例えば、非特許文献1参照)。
株式会社日立情報ソリューズ、人流計測システム http://www.hitachi-ics.co.jp/product/seihin/ganin/jin/jin.html
There is a human flow measurement system that extracts a human shadow from an image obtained by a video camera installed in a certain place (spot) and measures a human flow. In conventional systems, a virtual line segment is set in the sensor area of the spot, and the human flow is measured by measuring the direction and the number of people crossing the line segment. As a result, a virtual section can be set in the sensor area, and the number of people entering the section and the number of persons leaving the section can be measured (for example, see Non-Patent Document 1).
Hitachi Information Solutions Co., Ltd., human flow measurement system http://www.hitachi-ics.co.jp/product/seihin/ganin/jin/jin.html

しかしながら、上記従来の方法では「センサ領域の左上部から進入した人物が、センサ領域の上部中央で向きを変えてセンサ領域下部方向へ移動し、センサ領域下部中央を経由してセンサ領域右端より退出する」というような複雑な移動を捕捉するよう設定することは難しい。店舗等の商品が置かれているスポットを想定し、センサ下部付近に商品がある場合を考えると、前述の人の動きは次のような意味を持つ。   However, in the conventional method described above, “a person who has entered from the upper left of the sensor area changes direction at the upper center of the sensor area and moves toward the lower part of the sensor area, and exits from the right end of the sensor area via the lower center of the sensor area. It is difficult to set up to capture complex movements such as “Yes”. Assuming a spot where merchandise such as a store is placed and considering the case where there is a merchandise near the lower part of the sensor, the above-described movement of the person has the following meaning.

「売場の左側後方から近付いた人物に対して、商品を訴求する呼びかけを行った。人物は呼びかけに気付いて、商品を見るために移動方向を変えた。人物は商品に近付いた後、売場の右側から遠ざかった」
従来では、人物の複雑な位置移動を補足して容易に記述することができないという問題がある。
“The person who approached from the left side of the sales floor made a call to appeal the product. The person noticed the call and changed the direction of movement to see the product. After the person approached the product, I moved away from the right side. ''
Conventionally, there is a problem that it is difficult to easily describe a complicated position movement of a person.

本発明は、上記の点に鑑みなされたもので、あるスポットにおける人物の多種多様な位置移動を簡潔に記述することが可能な人流情報処理方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体を提供することを目的とする。   The present invention has been made in view of the above points, and provides a human flow information processing method and apparatus, a program, and a computer-readable recording medium capable of concisely describing a wide variety of position movements of a person at a certain spot. The purpose is to do.

図1は、本発明の原理を説明するための図である。   FIG. 1 is a diagram for explaining the principle of the present invention.

本発明(請求項1)は、ビデオカメラで取得した画像から人影を抽出し、人の位置や移動を捕捉するための人流情報処理方法であって、
履歴データ付与手段が、ビデオカメラで撮影したビデオデータを取得し(ステップ1)、背景を除去して人影を前景として抽出し、人影オブジェクトとし(ステップ2)、該人影オブジェクトの位置を取得して記憶手段に保持し(ステップ3)、該人影オブジェクトの位置が前回の位置と異なる場合には、履歴データを付与して該記憶手段に格納する(ステップ4)履歴データ付与ステップと、
条件編集・マッチ手段が、記憶手段に格納されている履歴データが、条件記憶手段に格納されている正規表現で記述された条件と適合するかを判定し(ステップ5)、適合する場合には、刺激映像記憶手段から、該条件と関連付けられている刺激映像を取得して表示手段に表示する(ステップ6)条件判定ステップと、を行う。
The present invention (Claim 1) is a human flow information processing method for extracting a human figure from an image acquired by a video camera and capturing the position and movement of a person,
The history data adding means acquires video data taken by the video camera (step 1), removes the background and extracts a human figure as a foreground, forms a human object (step 2), and acquires the position of the human object. Held in the storage means (step 3), and if the position of the human-shadow object is different from the previous position, the history data is added and stored in the storage means (step 4) a history data addition step;
The condition editing / matching means determines whether the history data stored in the storage means matches the condition described in the regular expression stored in the condition storage means (step 5). Then, a stimulus image associated with the condition is acquired from the stimulus image storage means and displayed on the display means (step 6), and a condition determination step is performed.

また、本発明(請求項2)は、請求項1の人流情報処理方法において、ビデオカメラで撮影する場(スポット)を複数のセルに分割し、人影オブジェクトの位置や移動の表記方法をセルの名称の正規表現で表す。   According to the present invention (Claim 2), in the human flow information processing method according to Claim 1, the field (spot) to be photographed by the video camera is divided into a plurality of cells, and the position and movement notation method of the human-shadow object is defined in the cell. Expressed by regular expression of name.

図2は、本発明の原理構成図である。   FIG. 2 is a principle configuration diagram of the present invention.

本発明(請求項3)は、ビデオカメラで取得した画像から人影を抽出し、人の位置や移動を捕捉するための人流情報処理装置であって、
ビデオカメラで撮影したビデオデータを取得するがデータ取得手段10と、
ビデオデータから背景を除去して人影を前景として抽出し、人影オブジェクトとし、該人影オブジェクトの位置を取得して記憶手段に保持し、該人影オブジェクトの位置が前回の位置と異なる場合には、履歴データを付与して該記憶手段に格納する履歴データ付与手段20と、
記憶手段に格納されている履歴データが、条件記憶手段40に格納されている正規表現で記述された条件と適合するかを判定し、適合する場合には、刺激映像記憶手段60から、該条件と関連付けられている刺激映像を取得して表示手段に表示する条件編集・マッチ手段30と、
を有する。
The present invention (Claim 3) is a human flow information processing apparatus for extracting a human figure from an image acquired by a video camera and capturing the position and movement of a person,
The video data taken by the video camera is acquired.
When the background is removed from the video data and the human figure is extracted as a foreground, the human figure object is obtained, the position of the human figure object is acquired and held in the storage means, and the position of the human figure object is different from the previous position, History data giving means 20 for giving data and storing it in the storage means;
It is determined whether the history data stored in the storage means matches the condition described by the regular expression stored in the condition storage means 40. If it matches, the condition is read from the stimulus video storage means 60. The condition editing / matching means 30 for acquiring the stimulus image associated with the information and displaying it on the display means;
Have

また、本発明(請求項4)は、請求項3の人流情報処理装置において、
ビデオカメラで撮影する場(スポット)を複数のセルに分割し、人影オブジェクトの位置や移動の表記方法をセルの名称の正規表現で表す。
Further, the present invention (Claim 4) is the human flow information processing apparatus according to Claim 3,
A place (spot) to be photographed by a video camera is divided into a plurality of cells, and the notation method of the position and movement of the human shadow object is represented by a regular expression of the cell name.

本発明(請求項5)は、請求項3または4記載の人流情報処理装置を構成する各手段としてコンピュータを機能させるための人流情報処理プログラムである。   The present invention (Claim 5) is a human flow information processing program for causing a computer to function as each means constituting the human flow information processing apparatus according to claim 3 or 4.

本発明(請求項6)は、請求項5記載の人流情報処理プログラムを格納したコンピュータ読み取り可能な記録媒体である。   The present invention (Claim 6) is a computer-readable recording medium storing the human flow information processing program according to Claim 5.

上記のように、本発明によれば、正規表現を用いることによりスポットにおける人物の多種多様な位置移動を簡潔に記述することができる。   As described above, according to the present invention, it is possible to simply describe various position movements of a person in a spot by using a regular expression.

また、正規表現による記述は簡潔かつ明瞭であるため、人による作成や保守が容易である。   Moreover, since the description using regular expressions is simple and clear, it is easy to create and maintain by humans.

また、もともと計算機科学に起源を持つ正規表現は、計算機による処理に適している。   Regular expressions that originally originated in computer science are suitable for processing by computers.

以下、図面と共に本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本発明における手法を用いた基本的な構成単位を「場(スポット)」と呼ぶ。当該スポットの構成を図3に示す。1つのスポットには、映像ディスプレイとこれに映像信号を出力するPC(パーソナルコンピュータ)を中心として構成したシステムを設置する。天井にはビデオカメラがあり、この映像ディスプレイの前の様子を撮影して利用する。これをカメラセンサとして利用するPCは、映像信号を出力するPCと同一で構わない。映像ディスプレイの前に、訴求したい商品があることを原則とし、人の位置移動に基づいて、映像ディスプレイに商品の訴求を図る刺激映像を提示する。   A basic structural unit using the method of the present invention is called a “field (spot)”. The structure of the spot is shown in FIG. In one spot, a system composed of a video display and a PC (personal computer) that outputs video signals to the video display is installed. There is a video camera on the ceiling. The PC that uses this as a camera sensor may be the same as the PC that outputs the video signal. In principle, there is a product to be appealed in front of the video display, and based on the movement of the position of the person, a stimulus video for promoting the product is presented on the video display.

図4は、本発明の一実施の形態における人流情報処理装置の構成を示す。   FIG. 4 shows a configuration of a human flow information processing apparatus according to an embodiment of the present invention.

同図に示す人流情報処理装置は、カメラセンサ10、履歴データ付与部20、条件編集・マッチ処理部30、条件DB40、映像表示部50、刺激映像DB60から構成される。   The human-flow information processing apparatus shown in FIG. 1 includes a camera sensor 10, a history data adding unit 20, a condition editing / match processing unit 30, a condition DB 40, a video display unit 50, and a stimulus video DB 60.

カメラセンサ10からの画像データをもとに、履歴データ付与部20において人影オブジェクトに履歴データを付与する。条件編集・マッチ処理部30の条件編集機能では、人の位置移動を正規表現によって記述し、これを提示条件とした刺激映像を指定する。指定した条件は、条件DB40において保持する。条件編集・マッチ処理部30の条件マッチ機能では、人影オブジェクトの履歴データと正規表現による提示条件を照合する。履歴と提示条件が適合すれば、映像表示部50において刺激映像を提示する。   Based on the image data from the camera sensor 10, the history data adding unit 20 adds history data to the human-shadow object. In the condition editing function of the condition editing / match processing unit 30, a person's position movement is described by a regular expression, and a stimulus image using this as a presentation condition is designated. The specified condition is held in the condition DB 40. The condition matching function of the condition editing / matching processing unit 30 collates the history data of the human-shadow object with the presentation condition by the regular expression. If the history matches the presentation condition, the video display unit 50 presents the stimulus video.

本発明では、人物の位置移動を正規表現によって扱うことにより、複雑な位置移動も容易に記述可能とする。履歴データ付与部20では、人影オブジェクトの位置や移動の履歴を付与するため、ビデオカメラで撮影したスポット画像を13の区画に分けて処理する。この区画を「セル」と呼ぶ。それぞれのセルは、特定の位置と、固有の名称を持つ。セルの位置と名称を図5に示す。ここで、「L」はLeft(左)、「R」はRight(右)、「F」はFar(遠い)、「N」はNear(近い)を表す。図5に示す1〜9のセルは「近い/中くらい/遠い」と「進入してきた/映像ディスプレイの正面/退出していく」を掛け合わせて得られる意味を有する3×3のマトリクスを構成している。1〜9のセルだけでもスポット内の人物の移動を表すことができるが、1〜9の他にL/R/F/Nのセルを設けているのは、カメラセンサの領域端での挙動が不安定になった場合の影響を軽減するためである。ここで、各セルの幅や高さや相対的な比率は固定ではなく、用途に合わせて自由に設定できるものとする。また、左右を対象にする(例:セル1とセル3の幅を揃える)必要はない。   In the present invention, the position movement of a person is handled by a regular expression, so that a complicated position movement can be described easily. The history data adding unit 20 processes the spot image captured by the video camera into 13 sections in order to give the position and movement history of the human-shadow object. This section is called a “cell”. Each cell has a specific location and a unique name. The cell positions and names are shown in FIG. Here, “L” represents Left (left), “R” represents Right (right), “F” represents Far (far), and “N” represents Near. The cells 1 to 9 shown in FIG. 5 constitute a 3 × 3 matrix having a meaning obtained by multiplying “close / middle / far” and “entered / front of video display / exited”. is doing. The movement of the person in the spot can be expressed by only the cells 1 to 9, but the L / R / F / N cell is provided in addition to 1 to 9 in the behavior at the end of the area of the camera sensor. This is in order to reduce the influence when the becomes unstable. Here, the width, height, and relative ratio of each cell are not fixed and can be freely set according to the application. Further, there is no need to target the left and right (eg, align the width of cell 1 and cell 3).

人影処理の例を図6〜図8に示し、カメラセンサ10の処理のフローを図9に示す。   Examples of the human shadow processing are shown in FIGS. 6 to 8, and the processing flow of the camera sensor 10 is shown in FIG.

カメラセンサ10は、人がいない状態を背景とし、この背景との差分を随時処理することにより人影を抽出し、人影オブジェクトとする。   The camera sensor 10 uses a state where there is no person as a background, extracts a human figure by processing the difference from this background as needed, and uses it as a human figure object.

カメラセンサ10は、ビデオカメラにより撮影した定常状態の画像を背景画像とし(ステップ101)、ビデオカメラにより画像を取得する(図6)(ステップ102)。背景画像と取得した画像との差分を抽出し(ステップ103)、ノイズを除去する(ステップ104)。得られた前景を人影として抽出し(図7)、この人影に通し番号を付けて人影オブジェクトとする。人影オブジェクトの重心の座標(図8の白い領域の点)を人影オブジェクトの位置とする(ステップ105)。図8における点線はセルの境界を示す。セルの境界はセンサ領域内において任意の位置を設けることが可能である。   The camera sensor 10 uses a steady-state image captured by the video camera as a background image (step 101), and acquires an image by the video camera (FIG. 6) (step 102). The difference between the background image and the acquired image is extracted (step 103), and noise is removed (step 104). The obtained foreground is extracted as a human figure (FIG. 7), and a serial number is assigned to this human figure as a human figure object. The coordinates of the center of gravity of the human shadow object (points in the white area in FIG. 8) are set as the position of the human shadow object (step 105). The dotted line in FIG. 8 shows the cell boundary. The cell boundary can be provided at an arbitrary position within the sensor region.

履歴データ付与部20は、メモリ(図示せず)を有し、カメラセンサ10から取得した人影オブジェクトの座標データ及びセルの位置と名称を時系列的に保持する。   The history data adding unit 20 includes a memory (not shown), and holds the coordinate data of the human shadow object acquired from the camera sensor 10 and the position and name of the cell in time series.

次に、人影オブジェクトの位置や移動の表記方法の例を以下に示す。   Next, an example of the notation method of the position and movement of the human shadow object is shown below.

(a)人物オブジェクトがあるセルに存在する:
記述例)5
・セル5に存在
(b)人物オブジェクトが特定のセルに移動:
記述例)F852N
・セルF→8→5→2→Nと移動した。すなわち遠くから近付いてきた
(c)人物オブジェクトがセルグループに存在:
記述例)[456]
・セル4か5か6のいずれかに存在。「[]」はその中のどれかに一致することを示す正規表現
(d)人物オブジェクトがセルグループの中で移動:
記述例)[123456]+
・セル1〜6の中で移動。すなわち中央付近のみ移動している。「+」は直前の表現の1回以上の繰り返しを示す正規表現。
(A) A person object exists in a cell:
Description example) 5
Exists in cell 5 (b) A person object moves to a specific cell:
Description example) F852N
-Cell F → 8 → 5 → 2 → N (C) A person object exists in a cell group:
Description example) [456]
Exists in either cell 4 or 5 or 6. "[]" Is a regular expression that matches any of them. (D) A person object moves in a cell group:
Description example) [123456] +
-Move in cells 1-6. That is, it moves only near the center. “+” Is a regular expression that indicates one or more repetitions of the previous expression.

(e)人物オブジェクトがセルグループを移動:
記述例)^L[147]+[258]+[369]+R$
・セルL→[147]→[258]→[369]→Rと移動した。すなわち左隅から入ってきて右隅に抜ける。
(E) A person object moves a cell group:
Description example) ^ L [147] + [258] + [369] + R $
-Cell L → [147] → [258] → [369] → R. That is, it enters from the left corner and exits to the right corner.

(f)人物オブジェクトが任意のセルから特定のセルに移動:
記述例)。*N
・任意のセルからセルNに移動した。すなわち任意の場所からカメラ前に近付いた。「。」は任意のセル、「*」は直前の表現の0回以上繰り返しを示す正規表現。
(F) A person object moves from an arbitrary cell to a specific cell:
Description example). * N
-Moved from any cell to cell N. In other words, I approached the camera from any place. “.” Is an arbitrary cell, and “*” is a regular expression indicating zero or more repetitions of the immediately preceding expression.

(g)人物オブジェクトが任意のセルから特定のセルグループに移動:
記述例)^R[235689]
・セルRから次にセル2,3,5,6,8,9のいずれかに移動した。すなわち右隅から中央付近のセルに移動した。
(G) A person object moves from an arbitrary cell to a specific cell group:
Description example) ^ R [235789]
Moved from cell R to any of cells 2, 3, 5, 6, 8, 9 That is, the cell moved from the right corner to the cell near the center.

(h)人物オブジェクトが特定のセルで滞留:
記述例)[FLR12456789]+2$
・セル2の周りからセル2移動して停止した。任意の場所から中央セル2に移動して滞留している。
(H) A person object stays in a specific cell:
Description example) [FLR12456789] + 2 $
-Cell 2 moved from around cell 2 and stopped. It moves from the arbitrary place to the central cell 2 and stays there.

(i)人物オブジェクトが特定のセル以外から特定のセルに移動:
記述例)^L[^47].+N$
・セルLから検出を始めて、次にセル4,7以外に移動し、セルNに移動して停止した。すなわち、左から入ってきてカメラ前で滞留している。
(I) A person object moves from a specific cell to a specific cell:
Description example) ^ L [^ 47]. + N $
-Detection started from cell L, then moved to other than cells 4 and 7, moved to cell N and stopped. That is, it enters from the left and stays in front of the camera.

このように、ビデオカメラの画像を区画に分けて名前を付けることにより、区画の組み合わせを正規表現で記述できる。この仕組みを用いれば、上述のような人の位置移動を容易に記述可能である。   In this way, by dividing the video camera image into sections and giving names, combinations of sections can be described in regular expressions. By using this mechanism, it is possible to easily describe the position movement of the person as described above.

次に、履歴データ付与部20の動作を説明する。   Next, the operation of the history data adding unit 20 will be described.

図10は、本発明の一実施の形態における履歴データ付与部の動作のフローチャートである。   FIG. 10 is a flowchart of the operation of the history data adding unit in one embodiment of the present invention.

履歴データ付与部20は、ビデオカメラでスポットを撮影し(ステップ201)、入力されたデータビデオデータから背景を除去して、人影を前景として抽出し、人影オブジェクトを座標データとして取得し、メモリ(図示せず)に格納する(ステップ202)。人影オブジェクトの座標データがどのセルに含まれるかを判定し、人影オブジェクトが存在するセルのセル名を取得し、メモリ(図示せず)に格納する(ステップ203)。ステップ203で取得したセルが、メモリ(図示せず)に格納されている前回の判定と同じ位置にあるかを判定し、同じ位置にある場合は移動していないため、ステップ201に移行し(ステップ204、はい)、異なる位置にある場合は(ステップ204、いいえ)、判定結果に基づいて人物オブジェクトの移動履歴にセル名を付加し、メモリ(図示せず)に格納し(ステップ205)、次のビデオデータを取得する(ステップ201に移行)。   The history data adding unit 20 takes a spot with a video camera (step 201), removes the background from the input data video data, extracts a human figure as a foreground, obtains a human figure object as coordinate data, and stores it in a memory ( (Step 202). It is determined in which cell the coordinate data of the human object is included, the cell name of the cell in which the human object is present is obtained, and stored in a memory (not shown) (step 203). It is determined whether the cell acquired in step 203 is in the same position as the previous determination stored in the memory (not shown). If it is in the same position, it has not moved, so the process proceeds to step 201 ( Step 204: Yes) If it is in a different position (Step 204, No), a cell name is added to the movement history of the person object based on the determination result, and stored in a memory (not shown) (Step 205). Next video data is acquired (proceeds to step 201).

次に、条件編集・マッチ処理部30の動作を説明する。   Next, the operation of the condition editing / match processing unit 30 will be described.

図11は、本発明の一実施の形態における条件適合による刺激映像提示のフローチャートである。   FIG. 11 is a flowchart of stimulating video presentation by condition matching in one embodiment of the present invention.

条件編集・マッチ処理部30は、ビデオデータを取得して定常時の映像を映像表示部50に表示する(ステップ301)。条件DB40から移動履歴が正規表現で記述された条件に適合するかを判定し、適合しない場合は(ステップ302、いいえ)、ステップ301に移行し、適合する場合は(ステップ302、はい)、条件と結びついた刺激映像を刺激映像DB60から取得して映像表示部50に表示する。   The condition editing / match processing unit 30 acquires the video data and displays the steady-state video on the video display unit 50 (step 301). It is determined from the condition DB 40 whether the movement history conforms to the condition described in the regular expression. If it does not conform (Step 302, No), the process proceeds to Step 301. If it conforms (Step 302, Yes), the condition Is obtained from the stimulus image DB 60 and displayed on the image display unit 50.

図12は、本発明の一実施の形態における映像選択の状態遷移図である。同図に示すように、定常時の映像を表示し、人物オブジェクトの移動履歴が正規表現で記述した条件に適合している場合には、当該条件名(条件ID)で刺激映像DB60を検索して、対応する刺激映像を表示し、当該映像が終了すると、再度定常時の映像を表示する。   FIG. 12 is a state transition diagram of video selection in one embodiment of the present invention. As shown in the figure, when a steady-state video is displayed and the movement history of the person object matches the condition described by the regular expression, the stimulus video DB 60 is searched with the condition name (condition ID). The corresponding stimulus image is displayed, and when the image ends, the steady-state image is displayed again.

上記の仕組みを用いた動作例と条件例を以下に示す。   An operation example and a condition example using the above mechanism are shown below.

(1)人が映像ディスプレイを視認できる範囲に進入すると「いらっしゃいませ」と呼びかける(条件例:L[741]or R[963])。   (1) When a person enters a range where the video display can be seen, a call is made to “welcome” (condition example: L [741] or R [963]).

(2)人がそのスポットから出て行こうとすると、「ありがとうございました」という(条件例:[741]L or[963]R)。   (2) When a person tries to get out of the spot, "Thank you very much" (condition example: [741] L or [963] R).

(3)順路方向と逆向きに侵入する人には呼びかけない(条件例:L[741])。   (3) No call is made to a person who enters in the direction opposite to the normal direction (condition example: L [741]).

(4)映像ディスプレイ前に来ると商品を推薦する(条件例:[13456]2]。   (4) A product is recommended when coming in front of the video display (condition example: [13456] 2).

(5)映像ディスプレイから遠いところを人が通り過ぎようとすると「ちょっと待っていただけますか」と呼び止める(条件例:[LR][79]8)。   (5) If a person tries to pass through a place far from the video display, he / she stops calling "Can you wait for a while" (condition example: [LR] [79] 8).

また、次に示すように映像ディスプレイと人との距離によって、商品(ケーキ)を訴求する情報表現を変化させることも可能である。   In addition, as shown below, it is also possible to change the information expression for appealing the product (cake) according to the distance between the video display and the person.

(1)人が映像ディスプレイから遠いと大きな音声で「ケーキはいかがですか」と呼びかける。映像はケーキのイメージ映像で文字は含まれない(条件例:[F789])。   (1) When a person is far from the video display, he calls out “How about a cake?” With a loud voice. The image is an image image of a cake and does not include characters (condition example: [F789]).

(2)人が映像ディスプレイに近付いてくると、ケーキの種類の数やそれらの名前がわかる程度の見出し文字を映像として提示する(条件例:F85).
(3)人が映像ディスプレイに最も近付くと、そのケーキの精細な動画映像や詳細なテキスト情報などを提示する(条件例:f852)。
(2) When a person approaches the video display, a heading character that shows the number of cake types and their names is presented as a video (condition example: F85).
(3) When a person comes closest to the video display, a detailed moving picture video or detailed text information of the cake is presented (condition example: f852).

(4)人が映像ディスプレイから離れて行くときは、違う種類のケーキを提示して関心を惹くようにする(条件例:25)。   (4) When a person goes away from the video display, a different type of cake is presented to attract attention (condition example: 25).

(5)人がそのスポットから出て行くときは「またお願いします」という(条件例[1478963][LFR])。   (5) When a person leaves the spot, he / she says "Please do it again" (condition example [1478963] [LFR]).

上記のように本発明によれば、正規表現を用いることにより、スポットにおける人物の多種多様な位置移動を簡潔に記述することができる。すなわち、スポットにおける人物の多種多様な位置移動を条件として扱うシステムを構築することが可能となる。   As described above, according to the present invention, it is possible to simply describe various position movements of a person in a spot by using a regular expression. That is, it is possible to construct a system that handles a variety of position movements of a person at a spot.

また、正規表現による記述手法は計算機との親和性が高く、計算機において容易に処理可能である。   In addition, the description method using regular expressions has high compatibility with a computer and can be easily processed by the computer.

なお、上記の図4に示す人流情報処理装置の構成要素をプログラムとして構築し、人流情報処理装置として利用されるコンピュータにインストールして、CPUに実行させる、または、ネットワークを介して流通させることが可能である。   The components of the human flow information processing apparatus shown in FIG. 4 described above can be constructed as a program, installed in a computer used as the human flow information processing apparatus, executed by the CPU, or distributed via a network. Is possible.

また、構築されたプログラムをハードディスクや、フレキシブルディスク・CD−ROM等の可搬記憶媒体に格納し、コンピュータにインストールする、または、配布することが可能である。   Further, the constructed program can be stored in a portable storage medium such as a hard disk, a flexible disk, or a CD-ROM, and can be installed or distributed in a computer.

なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.

本発明は、人の流動量を計測するシステムやディジタルサイネージに適用可能である。   The present invention is applicable to a system for measuring the amount of human flow and digital signage.

本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention. 本発明の原理構成図である。It is a principle block diagram of this invention. スポットの構成を示す図である。It is a figure which shows the structure of a spot. 本発明の一実施の形態における人流情報処理装置の構成図である。1 is a configuration diagram of a human flow information processing apparatus according to an embodiment of the present invention. 本発明の一実施の形態におけるスポットにおけるセルの位置と名称を示す図である。It is a figure which shows the position and name of the cell in the spot in one embodiment of this invention. カメラセンサの画像である。It is an image of a camera sensor. 人影の抽出である。Extraction of human figures. 論理空間での人影オブジェクトである。A human shadow object in logical space. 本発明の一実施の形態における人影抽出処理のフローチャートである。It is a flowchart of the human figure extraction process in one embodiment of this invention. 本発明の一実施の形態における履歴データ付与部の動作のフローチャートである。It is a flowchart of operation | movement of the historical data provision part in one embodiment of this invention. 本発明の一実施の形態における条件適合による刺激映像提示のフローチャートである。It is a flowchart of the stimulus image presentation by condition adaptation in one embodiment of the present invention. 本発明の一実施の形態における映像選択の状態遷移図である。It is a state transition diagram of video selection in an embodiment of the present invention.

符号の説明Explanation of symbols

10 画像データ取得手段、カメラセンサ
20 履歴データ付与手段、履歴データ付与部
30 条件編集・マッチ手段、条件編集・マッチ処理部
40 条件記憶手段、条件DB
50 表示手段、映像表示部
60 刺激映像記憶手段、刺激映像DB
DESCRIPTION OF SYMBOLS 10 Image data acquisition means, Camera sensor 20 History data provision means, History data provision part 30 Condition edit / match means, Condition edit / match processing part 40 Condition storage means, condition DB
50 Display means, video display section 60 Stimulus video storage means, stimulus video DB

Claims (6)

ビデオカメラで取得した画像から人影を抽出し、人の位置や移動を捕捉するための人流情報処理方法であって、
履歴データ付与手段が、前記ビデオカメラで撮影したビデオデータを取得し、背景を除去して人影を前景として抽出し、人影オブジェクトとし、該人影オブジェクトの位置を取得して記憶手段に保持し、該人影オブジェクトの位置が前回の位置と異なる場合には、履歴データを付与して該記憶手段に格納する履歴データ付与ステップと、
条件編集・マッチ手段が、前記記憶手段に格納されている前記履歴データが、条件記憶手段に格納されている正規表現で記述された条件と適合するかを判定し、適合する場合には、刺激映像記憶手段から、該条件と関連付けられている刺激映像を取得して表示手段に表示する条件判定ステップと、
を行うことを特徴とする人流情報処理方法。
A human flow information processing method for extracting a human figure from an image acquired by a video camera and capturing the position and movement of a person,
The history data providing means acquires video data taken by the video camera, removes the background and extracts a human figure as a foreground, obtains a human figure object, acquires the position of the human figure object, holds it in the storage means, If the position of the figure object is different from the previous position, a history data giving step of giving history data and storing it in the storage means;
Condition editing / matching means determines whether the history data stored in the storage means matches the condition described by the regular expression stored in the condition storage means. A condition determination step of acquiring a stimulus image associated with the condition from the image storage means and displaying the stimulus image on the display means;
Human flow information processing method characterized by performing.
前記ビデオカメラで撮影する場(スポット)を複数のセルに分割し、前記人影オブジェクトの位置や移動の表記方法を前記セルの名称の正規表現で表す
請求項1記載の人流情報処理方法。
The human flow information processing method according to claim 1, wherein a place (spot) to be photographed by the video camera is divided into a plurality of cells, and a notation method of the position and movement of the human shadow object is represented by a regular expression of the name of the cell.
ビデオカメラで取得した画像から人影を抽出し、人の位置や移動を捕捉するための人流情報処理装置であって、
前記ビデオカメラで撮影したビデオデータを取得する画像データ取得手段と、
前記ビデオデータから背景を除去して人影を前景として抽出し、人影オブジェクトとし、該人影オブジェクトの位置を取得して記憶手段に保持し、該人影オブジェクトの位置が前回の位置と異なる場合には、履歴データを付与して該記憶手段に格納する履歴データ付与手段と、
前記記憶手段に格納されている前記履歴データが、条件記憶手段に格納されている正規表現で記述された条件と適合するかを判定し、適合する場合には、刺激映像記憶手段から、該条件と関連付けられている刺激映像を取得して表示手段に表示する条件編集・マッチ手段と、
を有することを特徴とする人流情報処理装置。
A human flow information processing device for extracting a human figure from an image acquired by a video camera and capturing the position and movement of a person,
Image data acquisition means for acquiring video data captured by the video camera;
When the background is removed from the video data, a human figure is extracted as a foreground, a human object is obtained, the position of the human object is acquired and stored in the storage means, and when the position of the human object is different from the previous position, History data giving means for giving history data and storing it in the storage means;
It is determined whether or not the history data stored in the storage means matches a condition described by a regular expression stored in the condition storage means. The condition editing / matching means for acquiring the stimulus image associated with the information and displaying it on the display means,
A human flow information processing apparatus characterized by comprising:
前記ビデオカメラで撮影する場(スポット)を複数のセルに分割し、前記人影オブジェクトの位置や移動の表記方法を前記セルの名称の正規表現で表す
請求項3記載の人流情報処理装置。
The human flow information processing apparatus according to claim 3, wherein a place (spot) to be photographed by the video camera is divided into a plurality of cells, and a notation method of the position and movement of the human shadow object is expressed by a regular expression of the name of the cell.
請求項3または4記載の人流情報処理装置を構成する各手段としてコンピュータを機能させるための人流情報処理プログラム。   A human flow information processing program for causing a computer to function as each means constituting the human flow information processing device according to claim 3. 請求項5記載の人流情報処理プログラムを格納したことを特徴とするコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium storing the human flow information processing program according to claim 5.
JP2008307923A 2008-12-02 2008-12-02 Human flow information processing method and apparatus, program, and computer-readable recording medium Active JP4931895B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008307923A JP4931895B2 (en) 2008-12-02 2008-12-02 Human flow information processing method and apparatus, program, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008307923A JP4931895B2 (en) 2008-12-02 2008-12-02 Human flow information processing method and apparatus, program, and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JP2010134560A true JP2010134560A (en) 2010-06-17
JP4931895B2 JP4931895B2 (en) 2012-05-16

Family

ID=42345823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008307923A Active JP4931895B2 (en) 2008-12-02 2008-12-02 Human flow information processing method and apparatus, program, and computer-readable recording medium

Country Status (1)

Country Link
JP (1) JP4931895B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020133278A1 (en) * 2018-12-28 2020-07-02 深圳市柔宇科技有限公司 Method and apparatus for monitoring volume of flow of people, and related device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06223157A (en) * 1992-09-30 1994-08-12 Shimizu Corp Moving body detection system by image sensor
JP2002010181A (en) * 2000-06-22 2002-01-11 Toshiba Corp Method and apparatus for extracting moving route as well as storage medium
JP2003022309A (en) * 2001-07-06 2003-01-24 Hitachi Ltd Device for managing facility on basis of flow line
JP2003256843A (en) * 2002-02-26 2003-09-12 Oki Electric Ind Co Ltd Measurement system
JP2006215842A (en) * 2005-02-04 2006-08-17 Hitachi Omron Terminal Solutions Corp Human movement line tracing system and advertisement display control system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06223157A (en) * 1992-09-30 1994-08-12 Shimizu Corp Moving body detection system by image sensor
JP2002010181A (en) * 2000-06-22 2002-01-11 Toshiba Corp Method and apparatus for extracting moving route as well as storage medium
JP2003022309A (en) * 2001-07-06 2003-01-24 Hitachi Ltd Device for managing facility on basis of flow line
JP2003256843A (en) * 2002-02-26 2003-09-12 Oki Electric Ind Co Ltd Measurement system
JP2006215842A (en) * 2005-02-04 2006-08-17 Hitachi Omron Terminal Solutions Corp Human movement line tracing system and advertisement display control system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020133278A1 (en) * 2018-12-28 2020-07-02 深圳市柔宇科技有限公司 Method and apparatus for monitoring volume of flow of people, and related device

Also Published As

Publication number Publication date
JP4931895B2 (en) 2012-05-16

Similar Documents

Publication Publication Date Title
US8891855B2 (en) Information processing apparatus, information processing method, and program for generating an image including virtual information whose size has been adjusted
JP4859876B2 (en) Information processing device
JP2020503574A (en) Delivery of onlooker feedback content to virtual reality environments provided by head-mounted displays
US9697869B2 (en) Methods, systems and apparatuses for multi-directional still pictures and/or multi-directional motion pictures
TWI779343B (en) Method of a state recognition, apparatus thereof, electronic device and computer readable storage medium
US20120056898A1 (en) Image processing device, program, and image processing method
US20120057794A1 (en) Image processing device, program, and image procesing method
JP5004777B2 (en) Efficient action history recording and playback method in virtual space
US20160321833A1 (en) Method and apparatus for generating moving photograph based on moving effect
EP3070681A1 (en) Display control device, display control method and program
US10970932B2 (en) Provision of virtual reality content
WO2022252688A1 (en) Augmented reality data presentation method and apparatus, electronic device, and storage medium
JP4931895B2 (en) Human flow information processing method and apparatus, program, and computer-readable recording medium
EP3208727B1 (en) Information processing apparatus, information processing method and program
JP2019200475A (en) Activity evaluation program, apparatus, and method
JP2011081557A (en) Information processor, method of processing information, and program
JP7084962B2 (en) Estimator program, estimator, estimation method, generation program, generation device and generation method
CN110764676B (en) Information resource display method and device, electronic equipment and storage medium
EP3903177B1 (en) Asynchronous communications in mixed-reality
JP7339092B2 (en) Information processing equipment and virtual customer service system
US9864890B1 (en) Systems and methods for contextualizing data obtained from barcode images
CN111625099B (en) Animation display control method and device
US20240112427A1 (en) Location-based virtual resource locator
CN113362474A (en) Augmented reality data display method and device, electronic equipment and storage medium
CN111914104A (en) Video and audio special effect processing method and device and machine-readable storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111101

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120113

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120214

R150 Certificate of patent or registration of utility model

Ref document number: 4931895

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350