JP2019133530A - Information processing apparatus - Google Patents

Information processing apparatus Download PDF

Info

Publication number
JP2019133530A
JP2019133530A JP2018016787A JP2018016787A JP2019133530A JP 2019133530 A JP2019133530 A JP 2019133530A JP 2018016787 A JP2018016787 A JP 2018016787A JP 2018016787 A JP2018016787 A JP 2018016787A JP 2019133530 A JP2019133530 A JP 2019133530A
Authority
JP
Japan
Prior art keywords
unit
information
information processing
processing apparatus
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018016787A
Other languages
Japanese (ja)
Inventor
福井 基文
Motofumi Fukui
基文 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2018016787A priority Critical patent/JP2019133530A/en
Publication of JP2019133530A publication Critical patent/JP2019133530A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

To determine whether a person moving in a space and other persons are related to each other or not.SOLUTION: A storage unit 12 stores feature quantities of trajectories of multiple persons when the multiple persons who are related to each other co-exist in a specific space. A detection unit 111 detects the multiple persons co-existing in the specific space repeatedly. A calculation unit 112 calculates feature quantities of trajectories of the persons detected by the detection unit 11. A determination unit 113 determines whether the persons detected by the detection unit 111 are related to each other or not by use of the feature quantities calculated by the calculation unit 112 and the contents stored in the storage unit 12.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置に関する。   The present invention relates to an information processing apparatus.

購買に関する情報と店舗内での顧客の動線に関する情報を対応付ける技術を開示した文献として、特許文献1がある。特許文献1に記載された情報処理装置は、店舗内を撮影した画像から、出入口における入店した顧客に関する情報と該店舗内での顧客の動線に関する情報を対応付ける第1の対応付手段と、前記店舗内の支払領域から出入口までの顧客の動線に関する情報と該店舗における購買に関する情報を対応付ける第2の対応付手段と、前記店舗の出入口における入店した顧客に関する情報と退店した顧客に関する情報を対応付ける第3の対応付手段と、前記第1の対応付手段と第2の対応付手段と第3の対応付手段によって対応付けられた情報を用いて、前記購買に関する情報と前記店舗内での顧客の動線に関する情報を対応付ける第4の対応付手段を具備する。   As a document disclosing a technique for associating information related to purchase and information related to a flow of a customer in a store, there is Patent Document 1. The information processing apparatus described in Patent Literature 1 includes, from an image taken in a store, a first association unit that associates information about a customer who enters a store at an entrance and information about a customer's flow line in the store; A second correlating means for associating information relating to a customer's flow line from the payment area in the store to the entrance / exit and information relating to purchase in the store; information relating to the customer who entered the store / exit at the entrance / exit of the store; Using the information associated by the third association means for associating information, the first association means, the second association means, and the third association means, the information relating to the purchase and the in-store A fourth correlating means for correlating information on the flow line of the customer at

特開2016−162256号公報Japanese Patent Laid-Open No. 2006-162256

本発明は、空間内を移動する人と空間内のその他の人とが相互に関係を有するか否かを判別する技術の提供を目的とする。   An object of the present invention is to provide a technique for determining whether or not a person moving in a space and other persons in the space have a mutual relationship.

請求項1に記載の情報処理装置は、相互に関係を有する複数の人が特定の空間に共存するときの前記複数の人の軌跡の特徴量を記憶する記憶部と、前記特定の空間に共存する複数の人を繰り返し検出する検出部と、前記検出部により検出された前記複数の人の軌跡の特徴量を算出する算出部と、前記算出部により算出された前記特徴量と前記記憶部の記憶内容とを用いて、前記検出部により検出された複数の人が相互に関係を有するか否かを判別する判別部とを備える。   The information processing apparatus according to claim 1, wherein a plurality of mutually related persons coexist in a specific space, a storage unit that stores feature amounts of the trajectories of the plurality of persons, and a coexistence in the specific space A detection unit that repeatedly detects a plurality of people, a calculation unit that calculates feature amounts of the trajectories of the plurality of people detected by the detection unit, the feature amounts calculated by the calculation unit, and the storage unit A discriminating unit that discriminates whether or not a plurality of persons detected by the detecting unit have a relationship with each other using the stored content;

請求項2に記載の情報処理装置は、請求項1に記載の情報処理装置において、前記記憶部は、前記特徴量を前記関係の種別毎に記憶し、前記判別部は、前記算出部により算出された前記特徴量に該当する前記関係の種別を前記記憶部の記憶内容を用いて判別する。   The information processing device according to claim 2 is the information processing device according to claim 1, wherein the storage unit stores the feature amount for each type of the relationship, and the determination unit is calculated by the calculation unit. The type of the relationship corresponding to the feature amount is determined using the storage content of the storage unit.

請求項3に記載の情報処理装置は、請求項1又は2に記載の情報処理装置において、前記特徴量は、前記複数の人の距離の経時的変化を表す。   An information processing apparatus according to a third aspect is the information processing apparatus according to the first or second aspect, wherein the feature amount represents a change over time in the distances of the plurality of persons.

請求項4に記載の情報処理装置は、請求項1又は2に記載の情報処理装置において、前記特徴量は、前記複数の人の速度ベクトルの差の経時的変化を表す。   An information processing apparatus according to a fourth aspect of the present invention is the information processing apparatus according to the first or second aspect, wherein the feature amount represents a change over time in a difference between velocity vectors of the plurality of persons.

請求項5に記載の情報処理装置は、請求項1又は2に記載の情報処理装置において、前記特徴量は、前記空間を分割した領域毎の前記複数の人の滞留時間を表す。   An information processing apparatus according to a fifth aspect is the information processing apparatus according to the first or second aspect, wherein the feature amount represents a residence time of the plurality of persons for each region into which the space is divided.

請求項6に記載の情報処理装置は、請求項3乃至5のいずれか1項に記載の情報処理装置において、前記判別部は、前記空間を分割した領域毎に定められた重みを乗じた前記特徴量を用いて判別を行う。   The information processing device according to claim 6 is the information processing device according to any one of claims 3 to 5, wherein the determination unit is multiplied by a weight determined for each region into which the space is divided. Discrimination is performed using the feature amount.

請求項7に記載の情報処理装置は、請求項1又は2に記載の情報処理装置において、前記特徴量は、前記複数の人の重心の位置又は速度の経時的変化を表す。   An information processing apparatus according to a seventh aspect is the information processing apparatus according to the first or second aspect, wherein the feature amount represents a change in position or speed of the center of gravity of the plurality of persons over time.

請求項8に記載の情報処理装置は、請求項2に記載の情報処理装置において、前記判別部により判別された前記関係の種別に応じた情報を出力する出力部を備える。   An information processing apparatus according to an eighth aspect of the present invention is the information processing apparatus according to the second aspect, further comprising an output unit that outputs information corresponding to the type of the relationship determined by the determination unit.

請求項9に記載の情報処理装置は、請求項8に記載の情報処理装置において、前記出力部は、前記空間に配置された複数の表示装置のうち前記検出部により検出された複数の人との距離が予め定められた条件に合致する表示装置に前記情報を出力する。   The information processing device according to claim 9 is the information processing device according to claim 8, wherein the output unit includes a plurality of persons detected by the detection unit among a plurality of display devices arranged in the space. The information is output to a display device whose distance matches a predetermined condition.

請求項10に記載の情報処理装置は、請求項8又は9に記載の情報処理装置において、前記出力部は、前記検出部により検出された前記複数の人の移動速度が閾値以上である場合に前記情報を出力しない。   The information processing device according to claim 10 is the information processing device according to claim 8 or 9, wherein the output unit is configured such that the movement speeds of the plurality of persons detected by the detection unit are equal to or higher than a threshold value. The information is not output.

請求項11に記載の情報処理装置は、請求項8乃至10のいずれか1項に記載の情報処理装置において、前記出力部は、前記検出部により検出された前記複数の人の移動速度に応じて前記情報の形態を変化させる。   The information processing device according to claim 11 is the information processing device according to any one of claims 8 to 10, wherein the output unit corresponds to the moving speeds of the plurality of persons detected by the detection unit. To change the form of the information.

請求項12に記載の情報処理装置は、請求項8に記載の情報処理装置において、前記出力部は、前記検出部により検出された前記複数の人のいずれかが所持する携帯端末に前記情報を出力する。   The information processing device according to claim 12 is the information processing device according to claim 8, wherein the output unit sends the information to a mobile terminal possessed by any of the plurality of persons detected by the detection unit. Output.

請求項13に記載の情報処理装置は、請求項8に記載の情報処理装置において、操作を受け付ける受付部を備え、前記判別部は、判別された種別を前記出力部に出力させ、出力された種別を修正する操作が前記受付部により受け付けられた場合に、修正された種別と前記算出部により算出された特徴量とを関連付けて前記記憶部に記憶させる。   An information processing apparatus according to claim 13 is the information processing apparatus according to claim 8, further comprising a reception unit that receives an operation, wherein the determination unit causes the output unit to output the determined type. When an operation for correcting the type is received by the receiving unit, the corrected type and the feature amount calculated by the calculating unit are associated with each other and stored in the storage unit.

請求項14に記載の情報処理装置は、請求項1に記載の情報処理装置において、前記判別部は、前記検出部により検出された複数の人の特定の場所における距離が予め定められた条件に合致した場合に、判別された種別を修正し、修正された種別と前記算出部により算出された特徴量とを関連付けて前記記憶部に記憶させる。   The information processing device according to claim 14 is the information processing device according to claim 1, wherein the determination unit is configured such that distances at specific locations of a plurality of persons detected by the detection unit are predetermined. If they match, the determined type is corrected, and the corrected type and the feature amount calculated by the calculation unit are associated with each other and stored in the storage unit.

請求項1に記載の発明によれば、空間内を移動する人とその他の人とが相互に関係を有するか否かが判別される。
請求項2に記載の発明によれば、空間内を移動する人とその他の人との関係の種別が判別される。
請求項3に記載の発明によれば、複数の人の距離の経時的変化から関係の種別が判別される。
請求項4に記載の発明によれば、複数の人の速度ベクトルの差の経時的変化から関係の種別が判別される。
請求項5に記載の発明によれば、空間を分割した領域毎の複数の人の滞留時間から関係の種別が判別される。
請求項6に記載の発明によれば、関係の種別の判別に領域毎の重みが加味される。
請求項7に記載の発明によれば、複数の人の重心の位置又は速度の経時的変化から関係の種別が判別される。
請求項8に記載の発明によれば、関係の種別に応じた情報が提示される。
請求項9に記載の発明によれば、表示装置と複数の人との距離と無関係に情報を出力する場合と比べて、複数の人に情報が伝達されやすくなる。
請求項10に記載の発明によれば、情報処理装置の負荷が軽減される。
請求項11に記載の発明によれば、移動速度に応じて情報の形態を変化させない場合と比べて、複数の人に情報が伝達されやすくなる。
請求項12に記載の発明によれば、情報を提示するための装置を空間に配置しなくても情報が提示される。
請求項13に記載の発明によれば、判別された種別を修正する操作が行われた場合に、修正内容が以後の判別に反映される。
請求項14に記載の発明によれば、複数の人の特定の場所における距離に基づく種別の修正内容が以後の判別に反映される。
According to the first aspect of the present invention, it is determined whether or not the person moving in the space and the other person have a mutual relationship.
According to the second aspect of the present invention, the type of the relationship between the person moving in the space and the other person is determined.
According to the third aspect of the present invention, the type of relationship is determined from the change over time of the distances of a plurality of persons.
According to the fourth aspect of the present invention, the type of the relationship is determined from the change with time of the difference between the speed vectors of a plurality of persons.
According to the fifth aspect of the present invention, the type of relationship is determined from the residence time of a plurality of persons for each area into which the space is divided.
According to the sixth aspect of the present invention, the weight for each region is added to the determination of the relationship type.
According to the seventh aspect of the present invention, the type of relationship is determined from the temporal change in the position or speed of the center of gravity of a plurality of persons.
According to invention of Claim 8, the information according to the classification of relationship is shown.
According to the ninth aspect of the present invention, information is more easily transmitted to a plurality of people than when information is output regardless of the distance between the display device and the plurality of people.
According to the invention described in claim 10, the load on the information processing apparatus is reduced.
According to the eleventh aspect of the present invention, information is more easily transmitted to a plurality of people than when the information form is not changed according to the moving speed.
According to the twelfth aspect of the present invention, information is presented without arranging a device for presenting information in the space.
According to the invention described in claim 13, when an operation for correcting the determined type is performed, the correction content is reflected in the subsequent determination.
According to the fourteenth aspect of the present invention, the correction content of the type based on the distance at a specific location of a plurality of people is reflected in subsequent determination.

店舗Aの平面図。The top view of the shop A. 情報処理装置10の構成を示す図。1 is a diagram illustrating a configuration of an information processing device 10. 特徴量データベース121を示す図。The figure which shows the feature-value database 121. FIG. 提示情報データベース122を示す図。The figure which shows the presentation information database. 表示装置テーブル123を示す図。The figure which shows the display apparatus table. 制御部11が実行する処理の全体を示す流れ図。The flowchart which shows the whole process which the control part 11 performs. 検出部111が実行する検出処理の流れ図。The flowchart of the detection process which the detection part 111 performs. 人の検出結果を示す図。The figure which shows the detection result of a person. 第1算出処理の流れ図。The flowchart of a 1st calculation process. 人領域Hの移動履歴Rを示す図。The figure which shows the movement log | history R of the person area | region H. FIG. 作成された軌跡Kを示す図。The figure which shows the created locus | trajectory K. FIG. 第2算出処理の流れ図。The flowchart of a 2nd calculation process. 統合された軌跡マップMの例を示す図。The figure which shows the example of the integrated locus | trajectory map. 第1特徴量を示す図。The figure which shows the 1st feature-value. 第2特徴量を示す図。The figure which shows the 2nd feature-value. 第3特徴量を示す図。The figure which shows a 3rd feature-value. 第4特徴量を示す図。The figure which shows the 4th feature-value. 第5特徴量を示す図。The figure which shows the 5th feature-value. 特徴ベクトルの分類を示す散布図。A scatter diagram showing the classification of feature vectors.

本発明を実施するための形態の一例について説明する。本実施形態は、店舗(特定の空間の一例)に来店した複数の来店者(複数の人の一例)の店舗内での軌跡を利用して当該複数の来店者の相互の関係の種別を判別する構成を有する。   An example for carrying out the present invention will be described. In the present embodiment, the type of mutual relationship among a plurality of customers is determined using the trajectories in the store of a plurality of customers (an example of a plurality of people) who have visited the store (an example of a specific space). It has the composition to do.

図1は、店舗Aの平面図である。店舗Aは、清算台B、陳列棚C(1)乃至C(3)(以下、これらを陳列棚Cと総称する)、出入口Dを備える。清算台Bには金銭登録機が配置される。店舗A内には、撮影装置20(1)乃至20(4)(以下、これらを撮影装置20と総称する)、表示装置30(1)乃至30(6)(以下、これらを表示装置30と総称する)が配置される。なお、図1に示した陳列棚C、撮影装置20、表示装置30の数、配置等は例示であって、それらが図1と異なってもよい。   FIG. 1 is a plan view of the store A. FIG. The store A includes a checkout table B, display shelves C (1) to C (3) (hereinafter collectively referred to as display shelves C), and an entrance D. On the checkout table B, a cash register is arranged. In the store A, the imaging devices 20 (1) to 20 (4) (hereinafter collectively referred to as the imaging device 20), the display devices 30 (1) to 30 (6) (hereinafter referred to as the display device 30). Are collectively called). In addition, the number, arrangement | positioning, etc. of the display shelf C shown in FIG. 1, the imaging | photography device 20, and the display apparatus 30 are illustrations, Comprising: They may differ from FIG.

図2は、情報処理装置10の構成を示す図である。情報処理装置10は、店舗Aの中に配置されてもよく、店舗Aの外に配置されてもよい。情報処理装置10は、制御部11、記憶部12、通信部13、表示部14、受付部15を備える。制御部11は、CPU(Central Processing Unit)などの演算装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置とを備える。ROMは、ハードウェアやOS(Operating System)の起動の手順を記述したファームウェアを記憶する。RAMは、CPUが演算を実行する際のデータの記憶に用いられる。   FIG. 2 is a diagram illustrating a configuration of the information processing apparatus 10. The information processing apparatus 10 may be disposed in the store A or may be disposed outside the store A. The information processing apparatus 10 includes a control unit 11, a storage unit 12, a communication unit 13, a display unit 14, and a reception unit 15. The control unit 11 includes an arithmetic device such as a CPU (Central Processing Unit) and a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The ROM stores firmware that describes the procedure for starting up hardware and an OS (Operating System). The RAM is used for storing data when the CPU executes an operation.

記憶部12は、例えばメモリやハードディスク記憶装置などを備え、OSやアプリケーションなどのソフトウェア、特徴量データベース121、提示情報データベース122、表示装置テーブル123を記憶する。通信部13は、他の電子機器との間で通信を行うためのI/F(Interface)を備える。撮影装置20及び表示装置30が、通信部13に接続される。   The storage unit 12 includes, for example, a memory and a hard disk storage device, and stores software such as an OS and an application, a feature amount database 121, a presentation information database 122, and a display device table 123. The communication unit 13 includes an I / F (Interface) for performing communication with other electronic devices. The imaging device 20 and the display device 30 are connected to the communication unit 13.

表示部14は、例えば、液晶表示パネルなどの表示装置を備える。制御部11は、情報処理装置10を操作するためのウィジェットが配置されたGUI(graphical user interface)の画面を表示部14に表示させる。受付部15は、例えば、キーボード、ポインティングデバイスなどを備え、GUIに対する操作を受け付ける。ポインティングデバイスは、例えば、表示部14の表示面を覆うタッチパネル、マウス、タッチパッドなどである。なお、表示部14と受付部15が情報処理装置10と分離された装置として構成され、表示部14と受付部15が通信部13に接続されてもよい。   The display unit 14 includes a display device such as a liquid crystal display panel. The control unit 11 causes the display unit 14 to display a GUI (graphical user interface) screen on which widgets for operating the information processing apparatus 10 are arranged. The accepting unit 15 includes, for example, a keyboard, a pointing device, and the like, and accepts an operation on the GUI. The pointing device is, for example, a touch panel, a mouse, a touch pad, or the like that covers the display surface of the display unit 14. The display unit 14 and the reception unit 15 may be configured as devices separated from the information processing apparatus 10, and the display unit 14 and the reception unit 15 may be connected to the communication unit 13.

撮影装置20は、例えばビデオカメラであり、被写体を撮影し、被写体の画像を表す画像データを情報処理装置10へ出力する。店舗Aの天井、壁などに少なくとも1つの撮影装置20が配置される。撮影装置20は、全方位カメラが望ましい。店舗A内に死角が生じないように、複数の撮影装置20が店舗A内の天井や壁などに分散配置されることが望ましい。また、後述する処理の精度を高めるためには、各々の来店者が複数の撮影装置20で撮影されることが望ましい。そのためには、複数の撮影装置20の撮影範囲に重複が生じるように複数の撮影装置20が配置されることが望ましい。店舗Aの広さ、店舗Aの空間の形状、天井の高さによっては1台の撮影装置20でも死角が生じずに撮影可能な場合があるから、撮影装置20を店舗Aに1台だけ備える場合もあり得る。   The photographing device 20 is, for example, a video camera, photographs a subject, and outputs image data representing an image of the subject to the information processing device 10. At least one photographing device 20 is arranged on the ceiling, wall, etc. of the store A. The imaging device 20 is preferably an omnidirectional camera. It is desirable that a plurality of photographing devices 20 be distributed and arranged on the ceiling or wall in the store A so that no blind spots are generated in the store A. Further, in order to increase the accuracy of the processing described later, it is desirable that each visitor is photographed by a plurality of photographing devices 20. For this purpose, it is desirable that the plurality of photographing devices 20 be arranged so that the photographing ranges of the plurality of photographing devices 20 overlap. Depending on the size of the store A, the shape of the space in the store A, and the height of the ceiling, there may be a case where one image capturing device 20 can capture images without causing blind spots, so only one image capturing device 20 is provided in the store A. There may be cases.

表示装置30は、制御部11から出力された情報を表す画像を表示する。店舗A内に少なくとも1台の表示装置30が配置される。店舗A内にいる来店者の視野に常に少なくとも1台の表示装置30が入るように複数の表示装置30が配置されることが望ましい。表示装置30は、例えば陳列棚Cを示す矩形の長辺で示される面の各々に配置される。店舗内の壁、清算台Bなどに表示装置30が配置されてもよい。金銭登録機の背面(従業員が操作する操作部と反対側の面)に表示装置30が配置されてもよい。子供の視野にも入る高さに表示装置30が配置されることが望ましい。大人用の高さと子供用の高さにそれぞれ表示装置30が配置されてもよい。表示装置30は、例えば、有機EL(electro-luminescence)パネル、液晶パネルなどを備えた薄型のものが望ましい。   The display device 30 displays an image representing information output from the control unit 11. At least one display device 30 is arranged in the store A. It is desirable that the plurality of display devices 30 be arranged so that at least one display device 30 always enters the field of view of a visitor in the store A. The display device 30 is disposed on each of the surfaces indicated by the long sides of the rectangle indicating the display shelf C, for example. The display device 30 may be disposed on a wall in the store, the checkout table B, or the like. The display device 30 may be arranged on the back side of the cash register (the side opposite to the operation unit operated by the employee). It is desirable that the display device 30 be arranged at a height that can be accommodated by the child's field of view. The display device 30 may be arranged at a height for adults and a height for children. The display device 30 is desirably a thin type including an organic EL (electroluminescence) panel, a liquid crystal panel, and the like.

図3は、特徴量データベース121を示す図である。特徴量データベース121は、相互に関係を有する複数の人が特定の空間に共存するときの複数の人の軌跡の特徴量を関係の種別毎に記憶する。特徴量データベース121のレコードの各々は、種別ID,種別名、特徴量のフィールドを有する。種別IDは、複数の人の相互の関係の種別を識別するための識別子である。種別名は、関係の種別の名称である。この例では、関係の種別として、「親と子(幼児)」、「友人」、「恋人」が設定されている。特徴量については、後述する。   FIG. 3 is a diagram showing the feature amount database 121. The feature amount database 121 stores, for each relationship type, feature amounts of trajectories of a plurality of people when a plurality of people having a relationship with each other coexist in a specific space. Each record of the feature quantity database 121 has a field of type ID, type name, and feature quantity. The type ID is an identifier for identifying the type of mutual relationship among a plurality of people. The type name is the name of the type of relationship. In this example, “parent and child (infant)”, “friend”, and “lover” are set as the relationship type. The feature amount will be described later.

図4は、提示情報データベース122を示す図である。提示情報データベース122は、複数の人の相互の関係の種別毎に、当該複数の人に提示する情報を記憶する。提示情報データベース122のレコードの各々は、種別ID、商品分野ID、提示情報のフィールドを有する。種別IDは、特徴量データベース121における種別IDと同じものである。商品分野IDは、商品の分野を識別するための識別子である。本実施形態では、理解を容易にするために、例えば、陳列棚C(1)が生鮮食品、陳列棚C(2)が菓子、陳列棚C(3)が日用品というように、陳列棚毎に陳列される商品の分野が異なることを想定する。この例では、商品分野ID=1は生鮮食品、商品分野ID=2は菓子、商品分野ID=2は日用品を指す。   FIG. 4 is a diagram showing the presentation information database 122. The presentation information database 122 stores information to be presented to the plurality of people for each type of mutual relationship among the plurality of people. Each record of the presentation information database 122 has fields of type ID, product field ID, and presentation information. The type ID is the same as the type ID in the feature amount database 121. The product field ID is an identifier for identifying the product field. In this embodiment, in order to facilitate understanding, for example, for each display shelf, the display shelf C (1) is fresh food, the display shelf C (2) is confectionery, and the display shelf C (3) is daily necessities. Assume that the fields of products displayed are different. In this example, the product field ID = 1 indicates fresh food, the product field ID = 2 indicates confectionery, and the product field ID = 2 indicates daily necessities.

提示情報は、来店者に提示される情報である。提示情報のフィールドには、提示情報を示すファイルのバイナリデータが格納されてもよく、ファイルの格納場所のパスが格納されてもよい。提示情報の内容は、例えば、販売実績から抽出された売れ筋商品を示す情報、新製品を示す情報、販売者や製造者が販売量の増加を目論む製品を示す情報、料理のレシピを示す情報などである。   The presentation information is information presented to the store visitor. In the field of presentation information, binary data of a file indicating the presentation information may be stored, and a path of a file storage location may be stored. The content of the presentation information includes, for example, information indicating a popular product extracted from sales results, information indicating a new product, information indicating a product that the seller or manufacturer intends to increase the sales amount, information indicating a recipe for cooking, etc. It is.

図5は、表示装置テーブル123を示す図である。表示装置テーブル123のレコードの各々は、表示装置ID、商品分野ID、位置情報のフィールドを有する。表示装置IDは、表示装置30を識別するための識別子である。商品分野IDは、提示情報データベース122における商品分野IDと同じものである。位置情報は、表示装置30が配置された位置の座標である。   FIG. 5 is a diagram showing the display device table 123. Each record in the display device table 123 has fields for a display device ID, a product field ID, and position information. The display device ID is an identifier for identifying the display device 30. The product field ID is the same as the product field ID in the presentation information database 122. The position information is the coordinates of the position where the display device 30 is arranged.

図6は、制御部11が実行する処理の全体を示す流れ図である。これらの処理の手順を記述したプログラムが記憶部12に記憶されており、制御部11がこのプログラムに従って処理を実行する。制御部11は、検出部111、算出部112、判別部113、出力部114として機能する(図2参照)。ステップS01においては、検出部111が、特定の空間に共存する複数の人を繰り返し検出する(検出処理)。ステップS02においては、算出部112が、検出部111により検出された複数の人の軌跡の特徴量を算出する(算出処理)。ステップS03においては、判別部113が、算出部112により算出された特徴量に該当する関係の種別を記憶部12の記憶内容を用いて判別する(判別処理)。ステップS04においては、出力部114が、判別部113により判別された関係の種別に応じた情報を出力する(出力処理)。上記の各ステップの詳細な内容は以下のとおりである。   FIG. 6 is a flowchart showing the entire processing executed by the control unit 11. A program describing the procedure of these processes is stored in the storage unit 12, and the control unit 11 executes the process according to this program. The control unit 11 functions as a detection unit 111, a calculation unit 112, a determination unit 113, and an output unit 114 (see FIG. 2). In step S01, the detection unit 111 repeatedly detects a plurality of people coexisting in a specific space (detection process). In step S02, the calculation unit 112 calculates feature amounts of a plurality of human tracks detected by the detection unit 111 (calculation processing). In step S <b> 03, the determination unit 113 determines the type of relationship corresponding to the feature amount calculated by the calculation unit 112 using the stored content of the storage unit 12 (determination process). In step S04, the output unit 114 outputs information according to the type of relationship determined by the determination unit 113 (output processing). The detailed contents of the above steps are as follows.

図7は、検出部111が実行する検出処理(図6のステップS01)の流れ図である。検出部111は、検出処理を予め定められた時間間隔で繰り返し実行する。徒歩で移動する人を検出対象とするため、時間間隔は例えば1秒に設定されるが、1秒よりも短い間隔又は1秒よりも長い間隔に設定されてもよい。ステップS101においては、検出部111が、撮影装置20から出力された画像データに含まれるフレームからオブジェクトを検出する。ステップS102においては、検出部111が、検出されたオブジェクトから人の形状を示す領域(人領域H)を検出する。ステップS103においては、検出部111が、検出された人領域Hの座標を求め、フレームの撮影時刻又は撮影時刻の順序を示す情報と座標とを対応付けて記憶部12に記憶させる。人領域Hの座標は、表示装置30の位置情報(図5参照)と共通の座標系を用いて表される。   FIG. 7 is a flowchart of the detection process (step S01 in FIG. 6) executed by the detection unit 111. The detection unit 111 repeatedly executes detection processing at predetermined time intervals. In order to detect a person who moves on foot, the time interval is set to 1 second, for example, but may be set to an interval shorter than 1 second or an interval longer than 1 second. In step S <b> 101, the detection unit 111 detects an object from a frame included in the image data output from the imaging device 20. In step S102, the detection unit 111 detects a region (human region H) indicating the shape of a person from the detected object. In step S <b> 103, the detection unit 111 obtains the coordinates of the detected human region H, and stores the information indicating the shooting time of the frame or the order of the shooting times and the coordinates in the storage unit 12 in association with each other. The coordinates of the human area H are expressed using a common coordinate system with the position information of the display device 30 (see FIG. 5).

図8は、人の検出結果を示す図である。図示した例は、撮影装置20として全方位カメラを用いた例であり、円形の撮影範囲Eが撮影される。人を囲う矩形により人領域Hが表される。この例は、3つの人領域H(1)、H(2)、H(3)が検出された例である。   FIG. 8 is a diagram illustrating a human detection result. The illustrated example is an example in which an omnidirectional camera is used as the photographing apparatus 20 and a circular photographing range E is photographed. A human region H is represented by a rectangle surrounding the person. In this example, three human regions H (1), H (2), and H (3) are detected.

人の検出は、例えば、深層学習のオブジェクト抽出技術(例えば、S.Ren, K.He, R.Girshick, and J.Sun, “Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks.”, NIPS 2015.、例えば、W.Liu, D.Anhuelov, D.Erhan, C.Szegedy, S.Reed, and C.Fu, and A.Berg, “SSD: Single Shot MultiBox Detector.”, ECCV 2016.)を利用して実現される。深層学習のオブジェクト抽出技術によれば、人の顔が認識されなくても人が検出される。   Human detection is performed by, for example, deep learning object extraction technology (for example, S. Ren, K. He, R. Girshick, and J. Sun, “Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. ”, NIPS 2015. For example, W. Liu, D. Anhuelov, D. Erhan, C. Szegedy, S. Reed, and C. Fu, and A. Berg,“ SSD: Single Shot MultiBox Detector. ”, ECCV 2016 .). According to the deep learning object extraction technique, a person is detected even if the face of the person is not recognized.

次に、算出部112が実行する算出処理(図6のステップS02)について説明する。算出部112は、検出部111により検出された複数の人の軌跡の特徴量を算出する。
算出処理は、第1算出処理と第2算出処理とを含む。第1算出処理は、複数の撮影装置20の撮影範囲E毎に、検出部111により検出された複数の人の軌跡を算出する処理である。第2算出処理は、第1算出処理により算出された撮影範囲E毎の軌跡を統合し、統合された軌跡の特徴量を算出する処理である。
Next, the calculation process (step S02 in FIG. 6) executed by the calculation unit 112 will be described. The calculation unit 112 calculates feature amounts of the trajectories of a plurality of people detected by the detection unit 111.
The calculation process includes a first calculation process and a second calculation process. The first calculation process is a process of calculating the trajectories of a plurality of people detected by the detection unit 111 for each imaging range E of the plurality of imaging devices 20. The second calculation process is a process of integrating the trajectory for each shooting range E calculated by the first calculation process and calculating the feature amount of the integrated trajectory.

図9は、第1算出処理の流れ図である。以下の説明において、添え字iは、撮影装置20から出力されたフレームの撮影時刻の順序を表す。算出部112は、第1算出処理を、撮影時刻の順に繰り返し実行する。   FIG. 9 is a flowchart of the first calculation process. In the following description, the subscript i represents the order of the photographing times of the frames output from the photographing device 20. The calculation unit 112 repeatedly executes the first calculation process in order of shooting time.

ステップS201においては、算出部112が、連続する3フレーム(Ii-1,Ii,Ii+1)について、全ての人領域Hの座標を記憶部12から読み出す。以下、フレームIi-1,Ii,Ii+1をそれぞれ第1フレーム、第2フレーム、第3フレームと呼ぶ。 In step S201, the calculation unit 112 reads out the coordinates of all human regions H from the storage unit 12 for three consecutive frames (I i−1 , I i , I i + 1 ). Hereinafter, the frames I i−1 , I i , and I i + 1 are referred to as a first frame, a second frame, and a third frame, respectively.

ステップS202においては、算出部112が、2組の連続する2フレーム(第1フレームと第2フレームの組と、第2フレームと第3フレームの組)について、人領域Hの中心座標の速度ベクトルを作成する。以下、第1フレームと第2フレームの組を第1組、第2フレームと第3フレームの組を第2組と呼ぶ。例えば第1組の場合、第1フレームに含まれる複数の人領域Hの中心を始点とし、第2フレームに含まれる複数の人領域Hの中心を終点とする速度ベクトルの組を作成するが、本実施形態では複数の人領域Hを識別する手段を備えていないため、第1フレームに含まれる複数の人領域Hと第2フレームに含まれる複数の人領域Hとの全ての組み合わせを作成する。この例では、3つの速度ベクトルの組が6組作成される。第2フレームと第3フレームとの組についても、同様に、3つの速度ベクトルの組が6組作成される。   In step S202, the calculation unit 112 calculates the velocity vector of the central coordinates of the human area H for two sets of two consecutive frames (a set of the first frame and the second frame, and a set of the second frame and the third frame). Create Hereinafter, a set of the first frame and the second frame is referred to as a first set, and a set of the second frame and the third frame is referred to as a second set. For example, in the case of the first set, a set of velocity vectors starting from the centers of the plurality of human regions H included in the first frame and ending as the centers of the plurality of human regions H included in the second frame is created. In this embodiment, since no means for identifying a plurality of human areas H is provided, all combinations of a plurality of human areas H included in the first frame and a plurality of human areas H included in the second frame are created. . In this example, six sets of three velocity vectors are created. Similarly, six sets of three velocity vectors are created for the sets of the second frame and the third frame.

ステップS203においては、算出部112が、作成された速度ベクトルを用いて人領域Hの尤もらしい組み合わせを選択する。具体的には、算出部112は、第1組において作成された6組の速度ベクトルと、第2組において作成された6組の速度ベクトルとの全ての組み合わせから、第1組から第2組への速度ベクトルの変化量が予め定められた条件に合致する組み合わせを選択する。予め定められた条件とは、例えば、第1組から第2組への速度ベクトルの変化量が最小であることである。なお、人領域H内の画像の特徴、例えば色ヒストグラムなどを用いて人領域Hの組み合わせが選択されてもよい。   In step S <b> 203, the calculation unit 112 selects a likely combination of the human region H using the created velocity vector. Specifically, the calculation unit 112 calculates the first set to the second set from all combinations of the six sets of velocity vectors created in the first set and the six sets of velocity vectors created in the second set. A combination is selected in which the amount of change in the velocity vector matches a predetermined condition. The predetermined condition is, for example, that the change amount of the velocity vector from the first group to the second group is the minimum. Note that a combination of the human regions H may be selected using the characteristics of the image in the human region H, for example, a color histogram.

ステップS204においては、算出部112が、直前の3フレームに対する第1算出処理の結果と整合するように人領域Hの組み合わせを修正する。具体的には、算出部112は、直前の3フレーム(Ii-2,Ii-1,Ii)に含まれるフレームIi-1とフレームIiとの組において選択された人領域Hの組み合わせ(以下、第1の組み合わせ)と、3フレーム(Ii-1,Ii,Ii+1)に含まれるフレームIi-1とフレームIiとの組において選択された人領域Hの組み合わせ(以下、第2の組み合わせ)とを比較し、両者が相違する場合には、両者が整合するように第1の組み合わせと第2の組み合わせのいずれかを修正する。こうして、4フレーム(Ii-2,Ii-1,Ii,Ii+1)にわたる複数の人領域Hの移動履歴Rが作成される。上記の処理が、全ての連続する3フレームに対して実行される。 In step S204, the calculation unit 112 corrects the combination of the human regions H so as to match the result of the first calculation process for the immediately preceding three frames. Specifically, the calculation unit 112 selects the human region H selected in the set of the frame I i-1 and the frame I i included in the immediately preceding three frames (I i-2 , I i-1 , I i ). Human region H selected in the combination of frame I i-1 and frame I i included in three frames (hereinafter referred to as the first combination) and three frames (I i-1 , I i , I i + 1 ) Are compared with each other (hereinafter referred to as the second combination), and if the two are different, either the first combination or the second combination is corrected so that the two match. In this way, movement histories R of a plurality of human areas H over four frames (I i-2 , I i-1 , I i , I i + 1 ) are created. The above process is executed for all three consecutive frames.

図10は、算出部112により作成された人領域Hの移動履歴Rを示す図である。同図は、図8に示す人領域H(3)の移動履歴R(3)の例である。人領域H(1)、H(2)についても同様の手順で移動履歴R(1)、R(2)が作成される。算出部112は、このようにして作成された移動履歴Rにおける人領域Hの中心座標をフレームの撮影時刻の順に結ぶ近似曲線を作成する。作成された近似曲線により人の軌跡Kが表される。   FIG. 10 is a diagram showing the movement history R of the human area H created by the calculation unit 112. This figure is an example of the movement history R (3) of the human area H (3) shown in FIG. The movement histories R (1) and R (2) are created in the same procedure for the human areas H (1) and H (2). The calculation unit 112 creates an approximate curve that connects the center coordinates of the human region H in the movement history R created in this way in the order of the photographing times of the frames. A human trajectory K is represented by the created approximate curve.

図11は、作成された軌跡Kを示す図である。同図は、人領域H(3)の軌跡K(3)の例である。人領域H(1)、H(2)についても同様の手順で軌跡K(1)、K(2)が作成される。この軌跡Kを店舗Aの平面図に射影することにより、軌跡マップMが作成される。移動履歴R及び軌跡マップMの作成は、複数の撮影装置20の撮影範囲E毎に実行され、作成された移動履歴R及び軌跡マップMは、撮影装置20の識別子と対応付けて記憶部12に記憶される。   FIG. 11 is a diagram showing the created trajectory K. As shown in FIG. This figure is an example of the locus K (3) of the human region H (3). Trajectories K (1) and K (2) are created for human areas H (1) and H (2) in the same procedure. A locus map M is created by projecting the locus K onto a plan view of the store A. The creation of the movement history R and the trajectory map M is executed for each imaging range E of the plurality of imaging devices 20, and the created movement history R and the trajectory map M are associated with the identifier of the imaging device 20 in the storage unit 12. Remembered.

軌跡マップMの作成方法としては、以下の2つの方法が考えられる。第1の方法は、全方位カメラでの人領域Hの場所から事前に軌跡マップMへの写像関数Fを学習しておく方法であり、例えば、multilayer perceptronなどの手法が用いられる。入力が2次元(人領域Hの左上座標と右下座標)+1次元(カメラの位置)で、出力が2次元(軌跡マップMの座標)などの構成が考えられる。第2の方法は、人領域Hの重心の床からの高さhから人の軌跡マップMでの位置を射影変換により計算する方法である。hの値は、事前に定めた数値(例えば人間の平均身長の半分など)が用いられる。   As a method for creating the locus map M, the following two methods are conceivable. The first method is a method in which a mapping function F to a trajectory map M is learned in advance from the location of the human region H with an omnidirectional camera. For example, a technique such as multilayer perceptron is used. A configuration in which the input is two-dimensional (the upper left coordinates and the lower right coordinates of the human area H) +1 dimension (the camera position) and the output is two dimensions (coordinates of the trajectory map M) can be considered. The second method is a method of calculating the position in the human trajectory map M from the height h from the floor of the center of gravity of the human region H by projective transformation. For the value of h, a predetermined numerical value (for example, half the average height of a human being) is used.

図12は、第2算出処理の流れ図である。第2算出処理は、第1算出処理により算出された撮影範囲E毎の軌跡Kを統合し、統合された軌跡の特徴量を算出する処理である。ここでは、複数の撮影装置20の撮影範囲Eが重複しない場合の例を示す。以下の処理は、互いに隣接する2つの撮影範囲Eを選択して実行される。互いに隣接する2つの撮影範囲Eのうち、相対的に出入口Dに近い撮影範囲Eを第1撮影範囲と呼び、相対的に出入口Dから遠い撮影範囲Eを第2撮影範囲と呼ぶ。最初に、出入口Dに最も近い撮影範囲E(撮影装置20(1)の撮影範囲E)が第1撮影範囲として選択され、撮影装置20(2)の撮影範囲Eが第2撮影範囲として選択される。   FIG. 12 is a flowchart of the second calculation process. The second calculation process is a process of integrating the trajectory K for each shooting range E calculated by the first calculation process and calculating the feature amount of the integrated trajectory. Here, an example in which the imaging ranges E of the plurality of imaging devices 20 do not overlap is shown. The following processing is executed by selecting two shooting ranges E adjacent to each other. Of the two shooting ranges E adjacent to each other, the shooting range E that is relatively close to the entrance D is referred to as a first shooting range, and the shooting range E that is relatively far from the entrance D is referred to as a second shooting range. First, the shooting range E (the shooting range E of the shooting device 20 (1)) closest to the entrance D is selected as the first shooting range, and the shooting range E of the shooting device 20 (2) is selected as the second shooting range. The

ステップS301においては、算出部112が、第1撮影範囲における複数の移動履歴Rと複数の軌跡マップMとを記憶部12から読み出し、読み出された移動履歴Rと軌跡マップMに対して人を識別するための人IDを付与する。例えば、人領域H(1)の移動履歴Rと軌跡マップMに対して人ID=1が付与され、人領域H(2)の移動履歴Rと軌跡マップMに対して人ID=2が付与され、人領域H(3)の移動履歴Rと軌跡マップMに対して人ID=3が付与される。複数の移動履歴Rに含まれる全ての人領域Hの集合をXとする。   In step S301, the calculation unit 112 reads a plurality of movement histories R and a plurality of trajectory maps M in the first imaging range from the storage unit 12, and selects a person from the read movement history R and the trajectory map M. A person ID for identification is given. For example, a person ID = 1 is assigned to the movement history R and the trajectory map M of the person area H (1), and a person ID = 2 is assigned to the movement history R and the trajectory map M of the person area H (2). Then, the person ID = 3 is given to the movement history R and the trajectory map M of the person area H (3). Let X be the set of all human regions H included in the plurality of movement histories R.

ステップS302においては、算出部112が、第2撮影範囲における複数の移動履歴Rと複数の軌跡マップMを記憶部12から読み出す。複数の移動履歴Rに含まれる全ての人領域Hの集合をYとする。   In step S <b> 302, the calculation unit 112 reads a plurality of movement histories R and a plurality of trajectory maps M in the second imaging range from the storage unit 12. A set of all human regions H included in the plurality of movement histories R is assumed to be Y.

ステップS303においては、算出部112が、第1撮影範囲における複数の軌跡マップMと第2撮影範囲における複数の軌跡マップMとを統合する。具体的には、集合Xに含まれる複数の人領域H(1)の各々の中心座標と、集合Yに含まれる全ての人領域Hの中心座標との距離を計算し、距離が最短の人領域Hを含む移動履歴Rと軌跡マップMに対して、集合Xに含まれる人領域H(1)の移動履歴Rと同じ人IDを付与する。人IDの付与により、第1撮影範囲における軌跡マップM(1)と、第2撮影範囲における軌跡マップM(1)とが一対一に対応付けられる。この対応付けにより、第1撮影範囲における軌跡マップM(1)と第2撮影範囲における軌跡マップM(1)とが統合される。集合Xに含まれる人領域H(2)、H(3)についても同様の処理を実行する。上記と同様の処理を、互いに隣接する2つの撮影範囲Eの全ての組み合わせに対して実行することにより、全ての撮影範囲Eにおける軌跡マップMが統合される。   In step S303, the calculation unit 112 integrates a plurality of trajectory maps M in the first imaging range and a plurality of trajectory maps M in the second imaging range. Specifically, the distance between the central coordinates of each of the plurality of human areas H (1) included in the set X and the central coordinates of all the human areas H included in the set Y is calculated, and the person with the shortest distance is calculated. The same person ID as the movement history R of the human area H (1) included in the set X is assigned to the movement history R and the trajectory map M including the area H. By assigning the person ID, the trajectory map M (1) in the first shooting range and the trajectory map M (1) in the second shooting range are associated one-to-one. By this association, the trajectory map M (1) in the first shooting range and the trajectory map M (1) in the second shooting range are integrated. Similar processing is executed for the human areas H (2) and H (3) included in the set X. By executing the same process as described above for all combinations of two shooting ranges E adjacent to each other, the trajectory maps M in all the shooting ranges E are integrated.

図13は、統合された軌跡マップMの例を示す図である。この例は、人領域H(1)の軌跡マップM(1)と、人領域H(2)の軌跡マップM(2)を示している。例えば、人領域H(1)が親であり、人領域H(2)が子(幼児)である。陳列棚C(1)には、生鮮食品が陳列され、陳列棚C(2)には、菓子が陳列されている。親は子に菓子を買い与えようとしている。親は、生鮮食品にも関心を示しつつ、できるだけ短い経路で陳列棚C(2)に辿り着こうとするため、図示したように親の軌跡マップM(1)が記録される。領域a0、a1では、子は生鮮食品には関心がないため親から離れて歩き、領域a2に差し掛かると菓子を買ってもらうために親に接近し、親と連れ立って陳列棚C(2)で菓子を選ぶ。その結果、図示したように子の軌跡マップM(2)が記録される。   FIG. 13 is a diagram illustrating an example of the integrated trajectory map M. This example shows a trajectory map M (1) of the human area H (1) and a trajectory map M (2) of the human area H (2). For example, the person area H (1) is a parent and the person area H (2) is a child (infant). Fresh food is displayed on the display shelf C (1), and confectionery is displayed on the display shelf C (2). Parents are trying to buy sweets for their children. Since the parent tries to reach the display shelf C (2) through the shortest possible route while showing interest in fresh food, the parent's trajectory map M (1) is recorded as shown. In the areas a0 and a1, the child has no interest in fresh food, so he walks away from his / her parents. When the child reaches the area a2, he approaches the parent to buy the confectionery, and is accompanied by the parent to the display shelf C (2). Choose a confectionery. As a result, a child trajectory map M (2) is recorded as shown.

上記のとおり、この軌跡は、店舗Aに共存する複数の人の相互の関係が親子である場合の傾向を表している。一方、店舗Aに共存する複数の人の相互の関係が友人や恋人の場合、親子の場合と比べて店舗A内を連れ立って歩く時間が長くなる傾向があると考えられる。また、友人と恋人を比べると、恋人の方が短い距離を保って歩く傾向があると考えられる。   As described above, this trajectory represents a tendency when the mutual relationship between a plurality of people coexisting in the store A is a parent and child. On the other hand, when the mutual relationship of a plurality of people coexisting in the store A is a friend or a lover, it is considered that the time to walk with the store A tends to be longer than in the case of the parent and child. In addition, when comparing lovers with friends, lovers tend to walk at shorter distances.

ステップS304においては、算出部112が、軌跡の特徴量を算出する。以下、特徴量の5つの例(第1特徴量乃至第5特徴量)を説明する。ここでは、図13に示す軌跡マップM(1)と軌跡マップM(2)が示す軌跡の例を用いて説明する。   In step S304, the calculation unit 112 calculates the feature amount of the trajectory. Hereinafter, five examples (first to fifth feature amounts) of feature amounts will be described. Here, description will be made using an example of the trajectory shown by the trajectory map M (1) and the trajectory map M (2) shown in FIG.

(1)第1特徴量
図14は、第1特徴量を示す図である。第1特徴量は、複数の人の距離の経時的変化を表す。複数の人の距離は、撮影時刻毎の複数の人領域Hの中心座標Pを端点とする線分Lの長さで表される。第1特徴量は、例えば、撮影時刻の順に並べられた距離を成分とする特徴ベクトルで表される。あるいは、第1特徴量は、距離の範囲を横軸とし、各範囲に含まれる値の出現頻度を縦軸とするヒストグラムの度数を成分とする特徴ベクトルで表されてもよい。
(1) First Feature Amount FIG. 14 is a diagram showing a first feature amount. The first feature amount represents a change over time in the distance of a plurality of people. The distance between a plurality of people is represented by the length of a line segment L with the center coordinates P of the plurality of human regions H at each photographing time as endpoints. The first feature amount is represented by, for example, a feature vector whose components are distances arranged in order of shooting time. Alternatively, the first feature amount may be represented by a feature vector having a histogram frequency component with the distance range as the horizontal axis and the appearance frequency of the values included in each range as the vertical axis.

(2)第2特徴量
図15は、第2特徴量を示す図である。第2特徴量は、複数の人の速度ベクトルの差の経時的変化を表す。人の速度ベクトルは、例えば、1つの撮影時刻における人領域Hの中心座標Pを始点とし、その次の撮影時刻における人領域Hの中心座標Pを終点とするベクトルVで表される(図15(a)参照)。複数の人の速度ベクトルの差は、例えば、人領域H(1)の速度ベクトルV(1)と人領域H(2)の速度ベクトルV(2)との差V(1)−V(2)で表される(図15(b)参照)。第2特徴量は、例えば、撮影時刻の順に並べられた速度ベクトルの差の成分又は大きさを成分とする特徴ベクトルで表される。あるいは、第2特徴量は、速度ベクトルの差の成分又は大きさの範囲を横軸とし、各範囲に含まれる値の出現頻度を縦軸とするヒストグラムの度数を成分とする特徴ベクトルで表されてもよい。
(2) Second Feature Amount FIG. 15 is a diagram showing a second feature amount. The second feature amount represents a change over time in the difference between the speed vectors of a plurality of persons. The speed vector of the person is represented by a vector V having the center coordinate P of the person area H at one shooting time as a start point and the end point of the center coordinate P of the person area H at the next shooting time (FIG. 15). (See (a)). The difference between the velocity vectors of a plurality of people is, for example, the difference V (1) −V (2) between the velocity vector V (1) of the human region H (1) and the velocity vector V (2) of the human region H (2). ) (See FIG. 15B). The second feature amount is represented by a feature vector having, for example, a difference component or magnitude of speed vectors arranged in order of shooting time. Alternatively, the second feature amount is represented by a feature vector having a frequency vector difference component or magnitude range as a horizontal axis and the frequency of appearance of a value included in each range as a vertical axis as a component. May be.

(3)第3特徴量
図16は、第3特徴量を示す図である。第3特徴量は、空間を複数に分割した領域毎の複数の人の滞留時間を表す。例えば、店舗Aの空間を複数に分割した領域を定め(図16(a)参照)、複数の人の各々について、領域の各々における滞留時間をフレームの撮影時刻から求める(図16(b)、(c)参照)。第3特徴量は、例えば、領域を横軸とし、各領域における滞留時間を縦軸とするヒストグラムの各滞留時間を成分とする特徴ベクトルで表される。
(3) Third Feature Amount FIG. 16 is a diagram showing a third feature amount. The third feature amount represents the residence time of a plurality of people for each region obtained by dividing the space into a plurality of regions. For example, an area where the space of the store A is divided into a plurality of areas is defined (see FIG. 16A), and for each of a plurality of persons, the residence time in each of the areas is obtained from the frame shooting time (FIG. 16B). (See (c)). The third feature amount is represented, for example, by a feature vector having each residence time of a histogram with the region as the horizontal axis and the residence time in each region as the vertical axis.

(4)第4特徴量
図17は、第4特徴量を示す図である。第4特徴量は、第1特徴量乃至第3特徴量に対して領域毎に重み付けを行ったものである。図示した例は、第1特徴量(複数の人の距離の経時的変化)に重み付けを行った例である。第1特徴量が、P(2)とP(1)を端点とする線分Lで表されるのに対して、第4特徴量は、P(2)とQ(1)を端点とする線分Wで表される。この例では、領域a0と領域a2において1.5の重みが設定され、領域a1と領域a3において0.5の重みが設定された例である。
(4) Fourth Feature Amount FIG. 17 is a diagram illustrating a fourth feature amount. The fourth feature value is obtained by weighting the first feature value to the third feature value for each region. The illustrated example is an example in which weighting is performed on the first feature amount (change in the distance of a plurality of people over time). The first feature amount is represented by a line segment L having P (2) and P (1) as end points, whereas the fourth feature amount has P (2) and Q (1) as end points. It is represented by a line segment W. In this example, a weight of 1.5 is set in the areas a0 and a2, and a weight of 0.5 is set in the areas a1 and a3.

この重みの設定は、以下の想定に基づくものである。例示した軌跡マップMは、前述のとおり、店舗Aに共存する複数の人が親子である場合の傾向を表したものであるが、領域a0において親と子の距離が増加し、領域a2において親と子の距離が減少するという特徴がある。上記の重み付けにより、親子の距離の経時的変化が強調され、後述する判定処理の効率が向上することが考えられる。   The setting of this weight is based on the following assumptions. The illustrated trajectory map M represents a tendency when a plurality of people coexisting in the store A are parents and children as described above, but the distance between the parent and the child increases in the region a0, and the parent in the region a2 There is a feature that the distance between the child and the child decreases. It is conceivable that the above-described weighting emphasizes the change over time in the distance between the parent and child and improves the efficiency of the determination process described later.

(5)第5特徴量
図18は、第5特徴量を示す図である。第5特徴量は、複数の人の重心Gの位置又は速度の経時的変化を表す。複数の人の重心Gは、撮影時刻毎の複数の人領域Hの中心座標Pを端点とする線分Lの中点で表される。第5特徴量は、例えば、撮影時刻の順に並べられた重心Gの位置又は速度を成分とする特徴ベクトルで表される。
(5) Fifth Feature Amount FIG. 18 is a diagram illustrating a fifth feature amount. The fifth feature amount represents a change in the position or speed of the center of gravity G of a plurality of people over time. The center of gravity G of a plurality of people is represented by the midpoint of a line segment L whose end point is the center coordinate P of the plurality of person regions H at each photographing time. For example, the fifth feature amount is represented by a feature vector whose component is the position or speed of the center of gravity G arranged in order of shooting time.

特徴量データベース121には、第1特徴量乃至第5特徴量のいずれか1つが関係の種別毎に格納されている。格納される特徴量は、過去の来店者の軌跡から算出された特徴量でもよく、関係の種別毎に仮定した軌跡から算出された特徴量でもよい。なお、第1特徴量乃至第5特徴量のうち2つ以上が特徴量データベース121に格納されてもよい。   In the feature amount database 121, any one of the first feature amount to the fifth feature amount is stored for each type of relationship. The stored feature quantity may be a feature quantity calculated from a past visitor's trajectory, or may be a feature quantity calculated from a trajectory assumed for each type of relationship. Note that two or more of the first to fifth feature values may be stored in the feature value database 121.

1回の検出処理が実行される度に算出処理が実行されてもよいが、人の検出結果がある程度蓄積されてからでなければ有意な特徴量が得られないから、例えば、予め定められた回数(複数回)の検出処理が実行された後に算出処理が実行されてもよい。その後、予め定められた回数(1回以上)の検出処理が実行される度に算出処理が実行されることにより定期的に軌跡マップMと特徴量が更新されてもよい。   The calculation process may be executed every time the detection process is performed once. However, since a significant feature amount cannot be obtained unless human detection results are accumulated to some extent, The calculation process may be executed after the detection process is executed a number of times (a plurality of times). Thereafter, the trajectory map M and the feature amount may be periodically updated by executing a calculation process every time a predetermined number (one or more) of detection processes are executed.

次に、判別部113が実行する判別処理(図6のステップS03)について説明する。判別部113は、算出部112により算出された特徴量に該当する関係の種別を記憶部12の記憶内容を用いて判別する。具体的には、判別部113は、SVM(support vector machine)などのパターン認識モデルを用いて、算出された特徴量に該当する特徴量を特徴量データベース121から抽出し、抽出された特徴量に関連付けられた種別IDを特定する。ただし、入店から退店までの時間の長さはまちまちであるから、経時的変化を示す特徴量(第1特徴量、第2特徴量、第5特徴量)については、時間軸方向の正規化により特徴ベクトルの次元数を統一してから判別処理を行う。   Next, the determination process (step S03 in FIG. 6) executed by the determination unit 113 will be described. The determination unit 113 determines the type of relationship corresponding to the feature amount calculated by the calculation unit 112 using the storage content of the storage unit 12. Specifically, the determination unit 113 extracts a feature amount corresponding to the calculated feature amount from the feature amount database 121 using a pattern recognition model such as SVM (support vector machine), and converts the feature amount into the extracted feature amount. The associated type ID is specified. However, since the length of time from entering the store to leaving the store varies, the feature values (first feature value, second feature value, and fifth feature value) indicating changes over time are normalized in the time axis direction. The discrimination process is performed after unifying the dimensionality of the feature vector by the conversion.

図19は、軌跡マップMから算出された特徴ベクトルの分類を示す散布図である。この散布図は、多次元の特徴ベクトルの成分を便宜上2次元に集約して表示したものである。例えば主成分分析の手法を用いて特徴ベクトルの主成分軸を特定することで、図示のように特徴ベクトルが他人、友人、親子、恋人など、複数の人の相互の関係の種別を表す複数のグループに分類される。各グループが占める領域の境界面を学習により作成しておき、検出された複数の人の軌跡の特徴量に対応する領域を特定することにより、検出された複数の人の相互の関係の種別が判別される。   FIG. 19 is a scatter diagram showing the classification of feature vectors calculated from the trajectory map M. In this scatter diagram, components of multidimensional feature vectors are displayed in a two-dimensional manner for convenience. For example, by specifying the principal component axis of a feature vector using a principal component analysis method, the feature vector can be represented as a plurality of types of mutual relationships among multiple people such as others, friends, parents and children, and lovers as shown in the figure. Classified into groups. By creating the boundary surface of the area occupied by each group by learning and specifying the area corresponding to the feature amount of the detected trajectories of the plurality of persons, the type of mutual relationship between the detected persons can be determined. Determined.

なお、最初に、特徴量が他人の領域(図19参照)に該当するか否かにより、検出された複数の人が相互に関係を有するか否かを判別し、相互に関係を有する場合に限り、関係の種別を判別するように判別部113が構成されてもよい。   First, it is determined whether or not a plurality of detected persons are related to each other depending on whether or not the feature amount corresponds to another person's area (see FIG. 19). As long as the type of relationship is determined, the determination unit 113 may be configured.

次に、出力部114が実行する出力処理(図6のステップS04)について説明する。出力部114は、空間に配置された複数の表示装置30のうち検出部111により検出された複数の人との距離が予め定められた条件に合致する表示装置30に、判別部113により判別された関係の種別に応じた情報を出力する。前述のとおり、定期的に軌跡マップMが更新される。最新の軌跡マップMが示す複数の軌跡の先端の位置が、複数の人の最新の位置である。出力部114は、複数の人に最も近い位置に配置された表示装置30の表示装置IDを、表示装置テーブル123の位置情報(図5参照)を用いて特定する。出力部114は、特定された表示装置IDに対応する商品分野ID(図5参照)と、判別部113により判別された種別の種別IDとに対応する提示情報を、提示情報データベース122(図4参照)から抽出する。出力部114は、抽出された提示情報を、特定された表示装置IDに対応する表示装置30に出力する。表示装置30は、出力された提示情報を表示する。   Next, output processing (step S04 in FIG. 6) executed by the output unit 114 will be described. The output unit 114 is discriminated by the discriminating unit 113 so that the distance between the plurality of display devices 30 arranged in the space and the plurality of people detected by the detecting unit 111 matches a predetermined condition. Outputs information according to the type of relationship. As described above, the trajectory map M is periodically updated. The positions of the tips of a plurality of trajectories indicated by the latest trajectory map M are the latest positions of a plurality of people. The output unit 114 specifies the display device ID of the display device 30 arranged at a position closest to a plurality of people using the position information (see FIG. 5) of the display device table 123. The output unit 114 displays the presentation information corresponding to the product field ID (see FIG. 5) corresponding to the specified display device ID and the type ID of the type determined by the determination unit 113, as the presentation information database 122 (FIG. 4). Extract from). The output unit 114 outputs the extracted presentation information to the display device 30 corresponding to the specified display device ID. The display device 30 displays the output presentation information.

提示情報の内容は、例えば、販売実績から抽出された売れ筋商品を示す情報、新製品を示す情報、販売者や製造者が販売量の増加を目論む製品を示す情報、料理のレシピを示す情報などである。これらの情報のうちいずれか1つの情報が出力されてもよく、複数の情報が出力されてもよい。複数の情報が出力される場合、予め定められた時間が経過する毎に複数の情報のいずれか1つを示す画面が表示されてもよく、複数の情報が並べられた画面が表示されてもよい。   The content of the presentation information includes, for example, information indicating a popular product extracted from sales results, information indicating a new product, information indicating a product that the seller or manufacturer intends to increase the sales amount, information indicating a recipe for cooking, etc. It is. Any one of these pieces of information may be output, or a plurality of pieces of information may be output. When a plurality of pieces of information are output, a screen showing any one of the plurality of pieces of information may be displayed every time a predetermined time elapses, or a screen on which a plurality of pieces of information are arranged may be displayed Good.

提示情報の例を示すと、種別ID=1(親と子(幼児))、商品分野ID=1(生鮮食品)の場合、幼児が好む料理のレシピや、そのレシピに含まれる食材などを示す情報が出力される。種別ID=1(親と子(幼児))、商品分野ID=2(菓子)の場合、幼児向けの菓子を示す情報が出力される。この場合、幼児でもわかりやすいように、ひらがなの情報が出力されてもよく、商品の写真やアニメーション、テレビCM(commercial message)の動画などが出力されてもよい。種別ID=1(親と子(幼児))、商品分野ID=3(日用品)の場合、幼児向けの日用品を示す情報が出力される。   As an example of the presentation information, when type ID = 1 (parent and child (infant)) and product field ID = 1 (fresh food), the recipe of the dish preferred by the infant, the ingredients included in the recipe, and the like are shown. Information is output. In the case of type ID = 1 (parent and child (infant)) and product field ID = 2 (confectionery), information indicating a confection for infants is output. In this case, hiragana information may be output so that even an infant can easily understand, and a photograph or animation of a product, a video of a commercial message (TV CM), or the like may be output. When type ID = 1 (parent and child (infant)) and product field ID = 3 (daily necessities), information indicating daily necessities for infants is output.

種別と商品分野の異なる組み合わせに対して同じ提示情報が格納されている場合もある。例えば、種別ID=2(友人)、商品分野ID=3(生鮮食品)の場合と、種別ID=3(恋人)、商品分野ID=3(生鮮食品)の場合に、提示情報としてホームパーティー用のレシピや、そのレシピに含まれる食材などを示す情報が出力される、という具合である。なお、種別と商品分野の組み合わせによっては提示情報データベース122に提示情報が格納されていない場合がある。その場合には、提示情報は表示装置30に出力されない。   The same presentation information may be stored for different combinations of types and product fields. For example, in the case of type ID = 2 (friend), product field ID = 3 (fresh food), type ID = 3 (lover), and product field ID = 3 (fresh food), the presentation information is for home parties. Information indicating the recipe and ingredients contained in the recipe are output. Depending on the combination of the type and the product field, the presentation information may not be stored in the presentation information database 122. In that case, the presentation information is not output to the display device 30.

本実施形態によれば、空間内を移動する人とその他の人とが相互に関係を有するか否かが判別される。また、本実施形態によれば、空間内を移動する人とその他の人との関係の種別が判別される。また、本実施形態によれば、複数の人の距離の経時的変化から関係の種別が判別される。また、本実施形態によれば、複数の人の速度ベクトルの差の経時的変化から関係の種別が判別される。また、本実施形態によれば、空間を分割した領域毎の複数の人の滞留時間から関係の種別が判別される。また、本実施形態によれば、関係の種別の判別に領域毎の重みが加味される。また、本実施形態によれば、複数の人の重心の位置又は速度の経時的変化から関係の種別が判別される。また、本実施形態によれば、関係の種別に応じた情報が提示される。また、本実施形態によれば、表示装置30と複数の人との距離と無関係に情報を出力する場合と比べて、複数の人に情報が伝達されやすくなる。   According to the present embodiment, it is determined whether or not a person moving in the space and another person have a mutual relationship. Further, according to the present embodiment, the type of relationship between the person moving in the space and the other person is determined. Further, according to the present embodiment, the type of relationship is determined from the change over time of the distances of a plurality of people. Further, according to the present embodiment, the type of relationship is determined from the change over time in the difference between the velocity vectors of a plurality of people. In addition, according to the present embodiment, the type of relationship is determined from the residence time of a plurality of people for each area into which the space is divided. Further, according to the present embodiment, the weight for each region is added to the determination of the relationship type. In addition, according to the present embodiment, the type of relationship is determined from the temporal change in the position or speed of the center of gravity of a plurality of people. Further, according to the present embodiment, information according to the type of relationship is presented. In addition, according to the present embodiment, information is more easily transmitted to a plurality of people than when information is output regardless of the distance between the display device 30 and the plurality of people.

上記の実施形態が以下のように変形されてもよい。   The above embodiment may be modified as follows.

(1)検出部111により検出された複数の人の移動速度が閾値以上である場合に出力部114が情報を出力しないように構成されてもよい。複数の人の移動速度は、例えば第2特徴量(図15参照)の項で説明した手法で求められる。複数の人の移動速度が閾値以上である場合として想定されるのは、例えば、関心のない陳列棚の前を来店者が素通りする場合である。このような場合、提示情報を出力しても来店者が提示情報を視認できず、来店者に提示情報が伝達されないことが考えられる。本変形例によれば、人に伝達されない情報の出力が回避されるから、情報処理装置10の負荷が軽減される。 (1) The output unit 114 may be configured not to output information when the movement speeds of a plurality of persons detected by the detection unit 111 are equal to or higher than a threshold value. The movement speeds of a plurality of people are obtained by the method described in the second feature amount (see FIG. 15), for example. The case where the moving speeds of a plurality of people are equal to or higher than a threshold value is assumed, for example, when a visitor passes in front of a display shelf that is not of interest. In such a case, it is considered that even if the presentation information is output, the store visitor cannot visually recognize the presentation information, and the presentation information is not transmitted to the store visitor. According to this modification, output of information that is not transmitted to a person is avoided, so that the load on the information processing apparatus 10 is reduced.

(2)検出部111により検出された複数の人の移動速度に応じて出力部114が情報の形態を変化させるように構成されてもよい。位置が固定された表示装置30に情報が表示される場合、一般に、人の移動速度が速いほど人は情報を視認しづらくなると考えられる。そこで、移動速度が閾値以上である場合には、商品の写真や絵柄など直感的に理解される情報を表示させ、移動速度が閾値未満である場合には、商品を説明する文を表示させるという具合に、移動速度に応じた形態の情報が出力されてもよい。あるいは、移動速度が閾値以上である場合には、比較的大きなサイズの文字で文を表示させ、移動速度が閾値未満である場合には、比較的小さなサイズの文字で文を表示させるように構成されてもよい。本変形例によれば、移動速度に応じて情報の形態を変化させない場合と比べて、複数の人に情報が伝達されやすくなる。 (2) The output unit 114 may be configured to change the form of information according to the moving speeds of a plurality of people detected by the detection unit 111. When information is displayed on the display device 30 whose position is fixed, it is generally considered that the faster the movement speed of the person, the more difficult it is for the person to visually recognize the information. Therefore, if the moving speed is equal to or higher than the threshold, intuitively understood information such as a photograph or a picture of the product is displayed, and if the moving speed is lower than the threshold, a sentence explaining the product is displayed. Specifically, information in a form corresponding to the moving speed may be output. Alternatively, when the moving speed is equal to or higher than the threshold, the sentence is displayed with a relatively large character, and when the moving speed is less than the threshold, the sentence is displayed with a relatively small character. May be. According to this modification, information is more easily transmitted to a plurality of people than when the form of information is not changed according to the moving speed.

(3)図3の例のように特徴量データベース121に関係の種別が3つ以上設定されている場合には、種別毎に正事例と負事例により構成された識別器を用いて正事例である確率を算出し、確率が最大の種別に応じた情報が出力されてもよい。また、確率が閾値以上である種別に応じた情報が出力されてもよい。複数の種別の確率が閾値以上である場合には、複数の種別の各々に応じた情報が出力されてもよく、複数の種別に共通の情報が出力されてもよい。 (3) When three or more types of relations are set in the feature quantity database 121 as in the example of FIG. 3, the classifiers configured by positive examples and negative examples are used for each type. A certain probability may be calculated and information corresponding to the type having the maximum probability may be output. Further, information corresponding to a type whose probability is equal to or greater than a threshold value may be output. When the probability of a plurality of types is equal to or greater than a threshold value, information corresponding to each of the plurality of types may be output, or information common to the plurality of types may be output.

(4)上記実施形態では、店舗Aに配置された表示装置30に提示情報が出力される例を示したが、検出部111により検出された複数の人のいずれかが所持する携帯端末に情報が出力されてもよい。例えば、無線LAN基地局を店舗Aに配置しておき、来店者に携帯端末の無線LAN機能を有効にすることをポスターや店内放送などを用いて促し、無線LAN基地局を介して携帯端末に提示情報が出力されるように構成されてもよい。本変形例によれば、情報を提示するための装置を空間に配置しなくても情報が提示される。 (4) In the above embodiment, an example in which the presentation information is output to the display device 30 arranged in the store A is shown. However, the information is transmitted to the mobile terminal possessed by any of a plurality of people detected by the detection unit 111. May be output. For example, a wireless LAN base station is placed in the store A, and a visitor is encouraged to enable the wireless LAN function of the mobile terminal using a poster or in-store broadcast, and the mobile terminal is connected to the mobile terminal via the wireless LAN base station. The presentation information may be output. According to this modification, information is presented without arranging a device for presenting information in the space.

(5)特徴量データベース121を増強する構成が備えられてもよい。例えば、判別部113が、判別された種別を出力部114に出力させ、出力された種別を修正する操作が受付部15により受け付けられた場合に、修正された種別と算出部112により算出された特徴量とを関連付けて記憶部12に記憶させるように構成されてもよい。具体的には、判別された種別が親子の場合、親子に対応する提示情報を示す画面が表示される。この画面には、「親子向けの情報を表示しています。親子でない場合はボタンで情報を選択してください。」というメッセージと、「友人向けの情報」のボタン、「恋人向けの情報」のボタンが表示される。来店者がボタンを操作すると、操作されたボタンに対応する提示情報が表示される。判別部113は、操作されたボタンに対応する種別と、算出部112により算出された特徴量とを関連付けて特徴量データベース121に記憶させる。 (5) A configuration for enhancing the feature amount database 121 may be provided. For example, when the determination unit 113 outputs the determined type to the output unit 114 and an operation for correcting the output type is received by the reception unit 15, the correction type and the calculation unit 112 calculate the corrected type. The feature amount may be associated with and stored in the storage unit 12. Specifically, when the determined type is parent and child, a screen showing presentation information corresponding to the parent and child is displayed. On this screen, the message "Information for parent and child is displayed. If you are not a parent and child, please select information with a button.", "Information for friends" button, "Information for lovers" A button is displayed. When the visitor operates the button, the presentation information corresponding to the operated button is displayed. The determination unit 113 stores the type corresponding to the operated button and the feature amount calculated by the calculation unit 112 in the feature amount database 121 in association with each other.

(6)特徴量データベース121を増強する構成の別の例を以下に示す。判別部113が、検出部111により検出された複数の人の特定の場所における距離が予め定められた条件に合致した場合に、判別された種別を修正し、修正された種別と算出部112により算出された特徴量とを関連付けて記憶部12に記憶させるように構成されてもよい。例えば、軌跡の特徴量から2人の人が恋人であると判別された後、更新後の軌跡から清算台Bにて別々に支払を済ませたことが判明した場合、判別部113がこの2人の関係の種別を友人に修正し、修正された種別と算出部112により算出された特徴量とを特徴量データベース121に記憶させるという具合である。 (6) Another example of a configuration for enhancing the feature quantity database 121 is shown below. The determination unit 113 corrects the determined type when the distances of the plurality of persons detected by the detection unit 111 at a specific location meet a predetermined condition, and the corrected type and the calculation unit 112 The calculated feature value may be associated with and stored in the storage unit 12. For example, if it is determined from the feature amount of the trajectory that two people are lovers, and it is determined from the updated trajectory that payment has been made separately at the checkout table B, the discriminating unit 113 determines the two people. The type of the relationship is corrected to a friend, and the corrected type and the feature amount calculated by the calculation unit 112 are stored in the feature amount database 121.

(7)関係の種別を判別する対象を事前に限定する構成が採用されてもよい。具体的には、店舗Aの外側を撮影する撮影装置が店舗Aの出入口D付近に配置され、店舗Aに進入する人が撮影される。撮影された画像から同時又は予め定められた閾値以下の時間差を伴って2人以上の人が検出された場合に限り、制御部11が図5に示す処理を実行する。出入口Dにおける人の検出は、上記実施形態で例示した検出処理(図7参照)が用いられてもよく、正面顔の顔認識処理が用いられてもよい。顔認識処理によって推定される複数の人の年齢が、関係の種別の判別に補助的に利用されてもよい。画像から推定される複数の人の身長が、関係の種別の判別に補助的に利用されてもよい。人の身長の推定は、ステレオカメラを用いて行われてもよい。 (7) A configuration may be adopted in which targets for determining the type of relationship are limited in advance. Specifically, a photographing device for photographing the outside of the store A is disposed near the entrance D of the store A, and a person entering the store A is photographed. Only when two or more people are detected from the captured image at the same time or with a time difference equal to or less than a predetermined threshold, the control unit 11 executes the processing shown in FIG. For detection of the person at the entrance D, the detection process (see FIG. 7) exemplified in the above embodiment may be used, or the face recognition process of the front face may be used. The ages of a plurality of persons estimated by the face recognition process may be used supplementarily for determining the relationship type. The heights of a plurality of persons estimated from the image may be used as auxiliary information for determining the type of relationship. The human height may be estimated using a stereo camera.

(8)上記実施形態は、複数の撮影装置20の撮影範囲Eが重複しない場合の例であるが、複数の撮影装置20の撮影範囲Eが重複していても一方の撮影範囲Eの画像しか使用しない場合も同様の処理が実行される。なお、複数の撮影装置20の撮影範囲Eが重複する場合に、撮影範囲Eが重複する複数の撮影範囲Eの画像を使用することにより、複数の撮影範囲Eにおける移動履歴Rと軌跡マップMを単純につなげてもよい。 (8) The above embodiment is an example in which the imaging ranges E of the plurality of imaging devices 20 do not overlap, but even if the imaging ranges E of the plurality of imaging devices 20 overlap, only the image in one imaging range E Similar processing is executed even when not used. In addition, when the imaging ranges E of the plurality of imaging devices 20 overlap, the movement history R and the trajectory map M in the plurality of imaging ranges E are obtained by using the images of the plurality of imaging ranges E that overlap the imaging ranges E. You can simply connect them.

(9)上記実施形態の第2算出処理のステップS303においては、人領域Hの中心座標の距離を2つの人領域H間の距離だけで判定する例を示したが、集合Yに含まれる人領域Hに対して集合Xから距離の短い順に上位複数個の人領域Hが選択され、選択された複数個の人領域Hに付与されている人IDのうち最も頻度が高い人IDが選択されてもよい。距離を計算するための特徴抽出器としては、単純な色ヒストグラムや深層学習により学習した人同定モデル(例えば、E.Ahmed, M.Jones, and T.Marks, “An Improved Deep Learning Architecture for Person Re-Identification.”, CVPR, 2015.)などが用いられてもよい。また、集合Yの各画像に対して人IDを付与した後、軌跡の修正を行うことで軌跡の精度が高められてもよい。 (9) In step S303 of the second calculation process of the above embodiment, the example in which the distance between the central coordinates of the human area H is determined only by the distance between the two human areas H is shown. A plurality of upper person areas H are selected in the order of short distance from the set X with respect to the area H, and the person ID with the highest frequency is selected among the person IDs assigned to the selected plurality of person areas H. May be. Feature extractors for calculating distances include simple color histograms and human identification models learned by deep learning (eg, E. Ahmed, M. Jones, and T. Marks, “An Improved Deep Learning Architecture for Person Re -Identification. ”, CVPR, 2015.) etc. may be used. Further, after assigning a person ID to each image of the set Y, the accuracy of the trajectory may be improved by correcting the trajectory.

(10)上記実施形態では、撮影された画像から人を検出する例を示したが、他の方法で人が検出されてもよい。例えば、店舗A内の複数の箇所にビーコンの受信機を配置しておき、来店者にビーコンの発振機を配布し、受信機が受信したビーコン信号の強度により来店者の位置が特定されるように構成されてもよい。 (10) In the above embodiment, an example is shown in which a person is detected from a captured image, but a person may be detected by other methods. For example, beacon receivers are arranged at a plurality of locations in the store A, beacon oscillators are distributed to the store visitors, and the location of the store visitor is specified by the strength of the beacon signal received by the receiver. May be configured.

(11)上記実施形態では、複数の人に最も近い位置に配置された表示装置30に提示情報を出力する例を示したが、人の操作により提示情報が出力されてもよい。例えば、表示装置30に備えられたタッチパネルに人が触れた場合や、表示装置30に備えられたスイッチを人が操作した場合などに、提示情報が表示装置30に出力されるように構成されてもよい。あるいは、店内に印刷装置が配置され、表示装置30のタッチパネルの操作により提示情報が印刷されるように構成されてもよい。また、提示情報にクーポン券の画像データが含まれ、クーポン券が印刷されるように構成されてもよい。また、表示装置30に代えて音響装置が配置され、提示情報を示す音声が出力されるように構成されてもよい。また、表示装置30と音響装置の両方が配置されてもよい。 (11) In the above-described embodiment, the example in which the presentation information is output to the display device 30 arranged at a position closest to a plurality of people has been described. However, the presentation information may be output by a human operation. For example, the presentation information is configured to be output to the display device 30 when a person touches a touch panel provided in the display device 30 or when a person operates a switch provided in the display device 30. Also good. Alternatively, a printing device may be arranged in the store, and the presentation information may be printed by operating a touch panel of the display device 30. Alternatively, the presentation information may include image data of a coupon and the coupon may be printed. Moreover, it replaces with the display apparatus 30 and an audio | voice apparatus may be arrange | positioned and it may be comprised so that the audio | voice which shows presentation information may be output. Moreover, both the display device 30 and the acoustic device may be disposed.

(12)相互に関係を有する複数の人の全員との距離が閾値以下である表示装置30に提示情報が出力されてもよい。あるいは、相互に関係を有する複数の人のうちの少なくとも1人との距離が閾値以下の表示装置30に提示情報が出力されてもよい。これら2つの場合であっても、相互に関係を有する複数の人以外の人と表示装置30との距離が閾値以下である場合には提示情報が出力されないように構成されてもよい。 (12) The presentation information may be output to the display device 30 in which the distance from all of a plurality of persons who are related to each other is equal to or less than a threshold. Alternatively, the presentation information may be output to the display device 30 whose distance to at least one of a plurality of persons having a relationship with each other is equal to or less than a threshold value. Even in these two cases, the presentation information may not be output when the distance between the display device 30 and a person other than a plurality of persons who are related to each other is equal to or less than a threshold value.

(13)上記実施形態では、店舗Aに共存する複数の人に商品に関する情報を提示するシステムに本発明を適用した例であるが、店舗Aの例は一例に過ぎず、例えば、商行為が行われない展示場、展覧会場などの空間に共存する複数の人に展示物に関する情報を提示するシステムに本発明が適用されてもよい。 (13) The above embodiment is an example in which the present invention is applied to a system that presents information related to products to a plurality of people who coexist in the store A. However, the example of the store A is merely an example. The present invention may be applied to a system that presents information related to exhibits to a plurality of people coexisting in a space such as an exhibition hall or an exhibition hall.

(14)コンピュータに上記の処理を実行させるためのプログラムは、例えば、光記録媒体、半導体メモリなどのコンピュータに読取り可能な記録媒体に持続的に記憶された状態で提供されてもよいし、インターネット等の通信ネットワークを介して提供されてもよい。本発明に係るプログラムが記録媒体に持続的に記憶された状態で提供される場合、コンピュータが当該プログラムを記録媒体から読み取り用いる。また、本発明に係るプログラムが通信ネットワークを介して提供される場合、コンピュータが当該プログラムを配信元の装置から受信して用いる。 (14) A program for causing a computer to execute the above processing may be provided in a state of being continuously stored in a computer-readable recording medium such as an optical recording medium or a semiconductor memory, or the Internet Etc. may be provided via a communication network. When the program according to the present invention is provided in a state of being continuously stored in a recording medium, the computer reads the program from the recording medium and uses it. Further, when the program according to the present invention is provided via a communication network, the computer receives the program from a distribution source device and uses it.

10…情報処理装置、11…制御部、12…記憶部、13…通信部、14…表示部、15…受付部、111…検出部、112…算出部、113…判別部、114…出力部、121…特徴量データベース、122…提示情報データベース、123…表示装置テーブル、20…撮影装置、30…表示装置 DESCRIPTION OF SYMBOLS 10 ... Information processing apparatus, 11 ... Control part, 12 ... Memory | storage part, 13 ... Communication part, 14 ... Display part, 15 ... Reception part, 111 ... Detection part, 112 ... Calculation part, 113 ... Discrimination part, 114 ... Output part 121 ... feature quantity database, 122 ... presentation information database, 123 ... display device table, 20 ... photographing device, 30 ... display device

Claims (14)

相互に関係を有する複数の人が特定の空間に共存するときの前記複数の人の軌跡の特徴量を記憶する記憶部と、
前記特定の空間に共存する複数の人を繰り返し検出する検出部と、
前記検出部により検出された前記複数の人の軌跡の特徴量を算出する算出部と、
前記算出部により算出された前記特徴量と前記記憶部の記憶内容とを用いて、前記検出部により検出された複数の人が相互に関係を有するか否かを判別する判別部と
を備える情報処理装置。
A storage unit that stores feature amounts of trajectories of the plurality of people when a plurality of people having mutual relationships coexist in a specific space;
A detection unit that repeatedly detects a plurality of people coexisting in the specific space;
A calculating unit that calculates feature amounts of the trajectories of the plurality of people detected by the detecting unit;
Information comprising: a determination unit that determines whether or not a plurality of people detected by the detection unit are related to each other using the feature amount calculated by the calculation unit and the storage content of the storage unit Processing equipment.
前記記憶部は、前記特徴量を前記関係の種別毎に記憶し、
前記判別部は、前記算出部により算出された前記特徴量に該当する前記関係の種別を前記記憶部の記憶内容を用いて判別する
請求項1に記載の情報処理装置。
The storage unit stores the feature amount for each type of the relationship,
The information processing apparatus according to claim 1, wherein the determination unit determines a type of the relationship corresponding to the feature amount calculated by the calculation unit using a storage content of the storage unit.
前記特徴量は、前記複数の人の距離の経時的変化を表す
請求項1又は2に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the feature amount represents a change over time in the distances of the plurality of persons.
前記特徴量は、前記複数の人の速度ベクトルの差の経時的変化を表す
請求項1又は2に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the feature amount represents a change over time in a difference between speed vectors of the plurality of persons.
前記特徴量は、前記空間を分割した領域毎の前記複数の人の滞留時間を表す
請求項1又は2に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the feature amount represents a residence time of the plurality of persons for each region obtained by dividing the space.
前記判別部は、前記空間を分割した領域毎に定められた重みを乗じた前記特徴量を用いて判別を行う
請求項3乃至5のいずれか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 3 to 5, wherein the determination unit performs determination using the feature amount multiplied by a weight determined for each area obtained by dividing the space.
前記特徴量は、前記複数の人の重心の位置又は速度の経時的変化を表す
請求項1又は2に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the feature amount represents a temporal change in a position or speed of a center of gravity of the plurality of persons.
前記判別部により判別された前記関係の種別に応じた情報を出力する出力部を備える
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, further comprising: an output unit that outputs information according to the type of the relationship determined by the determination unit.
前記出力部は、前記空間に配置された複数の表示装置のうち前記検出部により検出された複数の人との距離が予め定められた条件に合致する表示装置に前記情報を出力する
請求項8に記載の情報処理装置。
The output unit outputs the information to a display device in which distances from a plurality of persons detected by the detection unit among a plurality of display devices arranged in the space meet a predetermined condition. The information processing apparatus described in 1.
前記出力部は、前記検出部により検出された前記複数の人の移動速度が閾値以上である場合に前記情報を出力しない
請求項8又は9に記載の情報処理装置。
The information processing apparatus according to claim 8, wherein the output unit does not output the information when the moving speeds of the plurality of persons detected by the detection unit are equal to or higher than a threshold value.
前記出力部は、前記検出部により検出された前記複数の人の移動速度に応じて前記情報の形態を変化させる
請求項8乃至10のいずれか1項に記載の情報処理装置。
The information processing apparatus according to claim 8, wherein the output unit changes a form of the information according to a moving speed of the plurality of persons detected by the detection unit.
前記出力部は、前記検出部により検出された前記複数の人のいずれかが所持する携帯端末に前記情報を出力する
請求項8に記載の情報処理装置。
The information processing apparatus according to claim 8, wherein the output unit outputs the information to a mobile terminal possessed by any of the plurality of persons detected by the detection unit.
操作を受け付ける受付部を備え、
前記判別部は、判別された種別を前記出力部に出力させ、出力された種別を修正する操作が前記受付部により受け付けられた場合に、修正された種別と前記算出部により算出された特徴量とを関連付けて前記記憶部に記憶させる
請求項8に記載の情報処理装置。
It has a reception unit that accepts operations,
The discriminating unit outputs the discriminated type to the output unit, and when an operation for correcting the output type is received by the receiving unit, the corrected type and the feature amount calculated by the calculating unit The information processing apparatus according to claim 8, wherein the information is stored in the storage unit.
前記判別部は、前記検出部により検出された複数の人の特定の場所における距離が予め定められた条件に合致した場合に、判別された種別を修正し、修正された種別と前記算出部により算出された特徴量とを関連付けて前記記憶部に記憶させる
請求項1に記載の情報処理装置。
The discriminating unit corrects the discriminated type when the distances at specific locations of the plurality of people detected by the detecting unit meet a predetermined condition, and the corrected type and the calculating unit The information processing apparatus according to claim 1, wherein the calculated feature amount is associated and stored in the storage unit.
JP2018016787A 2018-02-01 2018-02-01 Information processing apparatus Pending JP2019133530A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018016787A JP2019133530A (en) 2018-02-01 2018-02-01 Information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018016787A JP2019133530A (en) 2018-02-01 2018-02-01 Information processing apparatus

Publications (1)

Publication Number Publication Date
JP2019133530A true JP2019133530A (en) 2019-08-08

Family

ID=67546210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018016787A Pending JP2019133530A (en) 2018-02-01 2018-02-01 Information processing apparatus

Country Status (1)

Country Link
JP (1) JP2019133530A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021117768A (en) * 2020-01-27 2021-08-10 キヤノン株式会社 Information processing device, information processing method, and program
WO2022038702A1 (en) * 2020-08-19 2022-02-24 Nec Corporation Causal interaction detection apparatus, control method, and computer-readable storage medium
JP7435771B2 (en) 2020-06-18 2024-02-21 日本電気株式会社 Control device, control method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021117768A (en) * 2020-01-27 2021-08-10 キヤノン株式会社 Information processing device, information processing method, and program
JP7435771B2 (en) 2020-06-18 2024-02-21 日本電気株式会社 Control device, control method, and program
WO2022038702A1 (en) * 2020-08-19 2022-02-24 Nec Corporation Causal interaction detection apparatus, control method, and computer-readable storage medium
JP2023536875A (en) * 2020-08-19 2023-08-30 日本電気株式会社 CAUSAL INTERACTION DETECTION DEVICE, CONTROL METHOD, AND PROGRAM
JP7491462B2 (en) 2020-08-19 2024-05-28 日本電気株式会社 Causal interaction detection device, control method, and program

Similar Documents

Publication Publication Date Title
US10885336B1 (en) Object identification and device communication through image and audio signals
US11138420B2 (en) People stream analysis method, people stream analysis apparatus, and people stream analysis system
TW201907350A (en) Offline shopping guide method and device
Liciotti et al. Shopper analytics: A customer activity recognition system using a distributed RGB-D camera network
US8401225B2 (en) Moving object segmentation using depth images
TWI779343B (en) Method of a state recognition, apparatus thereof, electronic device and computer readable storage medium
TWI778030B (en) Store apparatus, store management method and program
JP6069565B1 (en) RECOMMENDATION DEVICE, RECOMMENDATION METHOD, AND PROGRAM
US20140172640A1 (en) Augmented reality shopping game
JP6618395B2 (en) Apparatus, program, and method for predicting position of survey object by action value
US20140079281A1 (en) Augmented reality creation and consumption
JP6771996B2 (en) Systems and methods for real-time interactive operation of the user interface
JP7081081B2 (en) Information processing equipment, terminal equipment, information processing method, information output method, customer service support method and program
EP2219134A2 (en) Information processing apparatus and information processing method
KR101710733B1 (en) Targeted advertising using object identification
US20140078174A1 (en) Augmented reality creation and consumption
JP2019133530A (en) Information processing apparatus
US11417173B2 (en) Image processing method, apparatus, and non-transitory computer readable storage medium
US20170186022A1 (en) Information processing apparatus
US9076062B2 (en) Feature searching along a path of increasing similarity
JP2018081630A (en) Search device, search method and program
US20130063593A1 (en) Monitoring device, method thereof
CN111428743B (en) Commodity identification method, commodity processing device and electronic equipment
CN111078751A (en) Method and system for carrying out target statistics based on UNREAL4
JP2016045742A (en) Information processing device and program