JP2019133530A - Information processing apparatus - Google Patents
Information processing apparatus Download PDFInfo
- Publication number
- JP2019133530A JP2019133530A JP2018016787A JP2018016787A JP2019133530A JP 2019133530 A JP2019133530 A JP 2019133530A JP 2018016787 A JP2018016787 A JP 2018016787A JP 2018016787 A JP2018016787 A JP 2018016787A JP 2019133530 A JP2019133530 A JP 2019133530A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- information
- information processing
- processing apparatus
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 53
- 238000004364 calculation method Methods 0.000 claims abstract description 52
- 238000001514 detection method Methods 0.000 claims abstract description 46
- 239000013598 vector Substances 0.000 claims description 33
- 230000008859 change Effects 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 13
- 230000005484 gravity Effects 0.000 claims description 8
- 230000002123 temporal effect Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 description 56
- 230000008569 process Effects 0.000 description 40
- 238000003384 imaging method Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 8
- 235000009508 confectionery Nutrition 0.000 description 8
- 235000013305 food Nutrition 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000010411 cooking Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004615 ingredient Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012847 principal component analysis method Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置に関する。 The present invention relates to an information processing apparatus.
購買に関する情報と店舗内での顧客の動線に関する情報を対応付ける技術を開示した文献として、特許文献1がある。特許文献1に記載された情報処理装置は、店舗内を撮影した画像から、出入口における入店した顧客に関する情報と該店舗内での顧客の動線に関する情報を対応付ける第1の対応付手段と、前記店舗内の支払領域から出入口までの顧客の動線に関する情報と該店舗における購買に関する情報を対応付ける第2の対応付手段と、前記店舗の出入口における入店した顧客に関する情報と退店した顧客に関する情報を対応付ける第3の対応付手段と、前記第1の対応付手段と第2の対応付手段と第3の対応付手段によって対応付けられた情報を用いて、前記購買に関する情報と前記店舗内での顧客の動線に関する情報を対応付ける第4の対応付手段を具備する。
As a document disclosing a technique for associating information related to purchase and information related to a flow of a customer in a store, there is
本発明は、空間内を移動する人と空間内のその他の人とが相互に関係を有するか否かを判別する技術の提供を目的とする。 An object of the present invention is to provide a technique for determining whether or not a person moving in a space and other persons in the space have a mutual relationship.
請求項1に記載の情報処理装置は、相互に関係を有する複数の人が特定の空間に共存するときの前記複数の人の軌跡の特徴量を記憶する記憶部と、前記特定の空間に共存する複数の人を繰り返し検出する検出部と、前記検出部により検出された前記複数の人の軌跡の特徴量を算出する算出部と、前記算出部により算出された前記特徴量と前記記憶部の記憶内容とを用いて、前記検出部により検出された複数の人が相互に関係を有するか否かを判別する判別部とを備える。
The information processing apparatus according to
請求項2に記載の情報処理装置は、請求項1に記載の情報処理装置において、前記記憶部は、前記特徴量を前記関係の種別毎に記憶し、前記判別部は、前記算出部により算出された前記特徴量に該当する前記関係の種別を前記記憶部の記憶内容を用いて判別する。
The information processing device according to
請求項3に記載の情報処理装置は、請求項1又は2に記載の情報処理装置において、前記特徴量は、前記複数の人の距離の経時的変化を表す。 An information processing apparatus according to a third aspect is the information processing apparatus according to the first or second aspect, wherein the feature amount represents a change over time in the distances of the plurality of persons.
請求項4に記載の情報処理装置は、請求項1又は2に記載の情報処理装置において、前記特徴量は、前記複数の人の速度ベクトルの差の経時的変化を表す。 An information processing apparatus according to a fourth aspect of the present invention is the information processing apparatus according to the first or second aspect, wherein the feature amount represents a change over time in a difference between velocity vectors of the plurality of persons.
請求項5に記載の情報処理装置は、請求項1又は2に記載の情報処理装置において、前記特徴量は、前記空間を分割した領域毎の前記複数の人の滞留時間を表す。 An information processing apparatus according to a fifth aspect is the information processing apparatus according to the first or second aspect, wherein the feature amount represents a residence time of the plurality of persons for each region into which the space is divided.
請求項6に記載の情報処理装置は、請求項3乃至5のいずれか1項に記載の情報処理装置において、前記判別部は、前記空間を分割した領域毎に定められた重みを乗じた前記特徴量を用いて判別を行う。
The information processing device according to
請求項7に記載の情報処理装置は、請求項1又は2に記載の情報処理装置において、前記特徴量は、前記複数の人の重心の位置又は速度の経時的変化を表す。 An information processing apparatus according to a seventh aspect is the information processing apparatus according to the first or second aspect, wherein the feature amount represents a change in position or speed of the center of gravity of the plurality of persons over time.
請求項8に記載の情報処理装置は、請求項2に記載の情報処理装置において、前記判別部により判別された前記関係の種別に応じた情報を出力する出力部を備える。 An information processing apparatus according to an eighth aspect of the present invention is the information processing apparatus according to the second aspect, further comprising an output unit that outputs information corresponding to the type of the relationship determined by the determination unit.
請求項9に記載の情報処理装置は、請求項8に記載の情報処理装置において、前記出力部は、前記空間に配置された複数の表示装置のうち前記検出部により検出された複数の人との距離が予め定められた条件に合致する表示装置に前記情報を出力する。
The information processing device according to
請求項10に記載の情報処理装置は、請求項8又は9に記載の情報処理装置において、前記出力部は、前記検出部により検出された前記複数の人の移動速度が閾値以上である場合に前記情報を出力しない。
The information processing device according to claim 10 is the information processing device according to
請求項11に記載の情報処理装置は、請求項8乃至10のいずれか1項に記載の情報処理装置において、前記出力部は、前記検出部により検出された前記複数の人の移動速度に応じて前記情報の形態を変化させる。 The information processing device according to claim 11 is the information processing device according to any one of claims 8 to 10, wherein the output unit corresponds to the moving speeds of the plurality of persons detected by the detection unit. To change the form of the information.
請求項12に記載の情報処理装置は、請求項8に記載の情報処理装置において、前記出力部は、前記検出部により検出された前記複数の人のいずれかが所持する携帯端末に前記情報を出力する。 The information processing device according to claim 12 is the information processing device according to claim 8, wherein the output unit sends the information to a mobile terminal possessed by any of the plurality of persons detected by the detection unit. Output.
請求項13に記載の情報処理装置は、請求項8に記載の情報処理装置において、操作を受け付ける受付部を備え、前記判別部は、判別された種別を前記出力部に出力させ、出力された種別を修正する操作が前記受付部により受け付けられた場合に、修正された種別と前記算出部により算出された特徴量とを関連付けて前記記憶部に記憶させる。
An information processing apparatus according to
請求項14に記載の情報処理装置は、請求項1に記載の情報処理装置において、前記判別部は、前記検出部により検出された複数の人の特定の場所における距離が予め定められた条件に合致した場合に、判別された種別を修正し、修正された種別と前記算出部により算出された特徴量とを関連付けて前記記憶部に記憶させる。
The information processing device according to
請求項1に記載の発明によれば、空間内を移動する人とその他の人とが相互に関係を有するか否かが判別される。
請求項2に記載の発明によれば、空間内を移動する人とその他の人との関係の種別が判別される。
請求項3に記載の発明によれば、複数の人の距離の経時的変化から関係の種別が判別される。
請求項4に記載の発明によれば、複数の人の速度ベクトルの差の経時的変化から関係の種別が判別される。
請求項5に記載の発明によれば、空間を分割した領域毎の複数の人の滞留時間から関係の種別が判別される。
請求項6に記載の発明によれば、関係の種別の判別に領域毎の重みが加味される。
請求項7に記載の発明によれば、複数の人の重心の位置又は速度の経時的変化から関係の種別が判別される。
請求項8に記載の発明によれば、関係の種別に応じた情報が提示される。
請求項9に記載の発明によれば、表示装置と複数の人との距離と無関係に情報を出力する場合と比べて、複数の人に情報が伝達されやすくなる。
請求項10に記載の発明によれば、情報処理装置の負荷が軽減される。
請求項11に記載の発明によれば、移動速度に応じて情報の形態を変化させない場合と比べて、複数の人に情報が伝達されやすくなる。
請求項12に記載の発明によれば、情報を提示するための装置を空間に配置しなくても情報が提示される。
請求項13に記載の発明によれば、判別された種別を修正する操作が行われた場合に、修正内容が以後の判別に反映される。
請求項14に記載の発明によれば、複数の人の特定の場所における距離に基づく種別の修正内容が以後の判別に反映される。
According to the first aspect of the present invention, it is determined whether or not the person moving in the space and the other person have a mutual relationship.
According to the second aspect of the present invention, the type of the relationship between the person moving in the space and the other person is determined.
According to the third aspect of the present invention, the type of relationship is determined from the change over time of the distances of a plurality of persons.
According to the fourth aspect of the present invention, the type of the relationship is determined from the change with time of the difference between the speed vectors of a plurality of persons.
According to the fifth aspect of the present invention, the type of relationship is determined from the residence time of a plurality of persons for each area into which the space is divided.
According to the sixth aspect of the present invention, the weight for each region is added to the determination of the relationship type.
According to the seventh aspect of the present invention, the type of relationship is determined from the temporal change in the position or speed of the center of gravity of a plurality of persons.
According to invention of Claim 8, the information according to the classification of relationship is shown.
According to the ninth aspect of the present invention, information is more easily transmitted to a plurality of people than when information is output regardless of the distance between the display device and the plurality of people.
According to the invention described in claim 10, the load on the information processing apparatus is reduced.
According to the eleventh aspect of the present invention, information is more easily transmitted to a plurality of people than when the information form is not changed according to the moving speed.
According to the twelfth aspect of the present invention, information is presented without arranging a device for presenting information in the space.
According to the invention described in
According to the fourteenth aspect of the present invention, the correction content of the type based on the distance at a specific location of a plurality of people is reflected in subsequent determination.
本発明を実施するための形態の一例について説明する。本実施形態は、店舗(特定の空間の一例)に来店した複数の来店者(複数の人の一例)の店舗内での軌跡を利用して当該複数の来店者の相互の関係の種別を判別する構成を有する。 An example for carrying out the present invention will be described. In the present embodiment, the type of mutual relationship among a plurality of customers is determined using the trajectories in the store of a plurality of customers (an example of a plurality of people) who have visited the store (an example of a specific space). It has the composition to do.
図1は、店舗Aの平面図である。店舗Aは、清算台B、陳列棚C(1)乃至C(3)(以下、これらを陳列棚Cと総称する)、出入口Dを備える。清算台Bには金銭登録機が配置される。店舗A内には、撮影装置20(1)乃至20(4)(以下、これらを撮影装置20と総称する)、表示装置30(1)乃至30(6)(以下、これらを表示装置30と総称する)が配置される。なお、図1に示した陳列棚C、撮影装置20、表示装置30の数、配置等は例示であって、それらが図1と異なってもよい。
FIG. 1 is a plan view of the store A. FIG. The store A includes a checkout table B, display shelves C (1) to C (3) (hereinafter collectively referred to as display shelves C), and an entrance D. On the checkout table B, a cash register is arranged. In the store A, the imaging devices 20 (1) to 20 (4) (hereinafter collectively referred to as the imaging device 20), the display devices 30 (1) to 30 (6) (hereinafter referred to as the display device 30). Are collectively called). In addition, the number, arrangement | positioning, etc. of the display shelf C shown in FIG. 1, the imaging |
図2は、情報処理装置10の構成を示す図である。情報処理装置10は、店舗Aの中に配置されてもよく、店舗Aの外に配置されてもよい。情報処理装置10は、制御部11、記憶部12、通信部13、表示部14、受付部15を備える。制御部11は、CPU(Central Processing Unit)などの演算装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置とを備える。ROMは、ハードウェアやOS(Operating System)の起動の手順を記述したファームウェアを記憶する。RAMは、CPUが演算を実行する際のデータの記憶に用いられる。
FIG. 2 is a diagram illustrating a configuration of the information processing apparatus 10. The information processing apparatus 10 may be disposed in the store A or may be disposed outside the store A. The information processing apparatus 10 includes a control unit 11, a storage unit 12, a
記憶部12は、例えばメモリやハードディスク記憶装置などを備え、OSやアプリケーションなどのソフトウェア、特徴量データベース121、提示情報データベース122、表示装置テーブル123を記憶する。通信部13は、他の電子機器との間で通信を行うためのI/F(Interface)を備える。撮影装置20及び表示装置30が、通信部13に接続される。
The storage unit 12 includes, for example, a memory and a hard disk storage device, and stores software such as an OS and an application, a
表示部14は、例えば、液晶表示パネルなどの表示装置を備える。制御部11は、情報処理装置10を操作するためのウィジェットが配置されたGUI(graphical user interface)の画面を表示部14に表示させる。受付部15は、例えば、キーボード、ポインティングデバイスなどを備え、GUIに対する操作を受け付ける。ポインティングデバイスは、例えば、表示部14の表示面を覆うタッチパネル、マウス、タッチパッドなどである。なお、表示部14と受付部15が情報処理装置10と分離された装置として構成され、表示部14と受付部15が通信部13に接続されてもよい。
The
撮影装置20は、例えばビデオカメラであり、被写体を撮影し、被写体の画像を表す画像データを情報処理装置10へ出力する。店舗Aの天井、壁などに少なくとも1つの撮影装置20が配置される。撮影装置20は、全方位カメラが望ましい。店舗A内に死角が生じないように、複数の撮影装置20が店舗A内の天井や壁などに分散配置されることが望ましい。また、後述する処理の精度を高めるためには、各々の来店者が複数の撮影装置20で撮影されることが望ましい。そのためには、複数の撮影装置20の撮影範囲に重複が生じるように複数の撮影装置20が配置されることが望ましい。店舗Aの広さ、店舗Aの空間の形状、天井の高さによっては1台の撮影装置20でも死角が生じずに撮影可能な場合があるから、撮影装置20を店舗Aに1台だけ備える場合もあり得る。
The photographing
表示装置30は、制御部11から出力された情報を表す画像を表示する。店舗A内に少なくとも1台の表示装置30が配置される。店舗A内にいる来店者の視野に常に少なくとも1台の表示装置30が入るように複数の表示装置30が配置されることが望ましい。表示装置30は、例えば陳列棚Cを示す矩形の長辺で示される面の各々に配置される。店舗内の壁、清算台Bなどに表示装置30が配置されてもよい。金銭登録機の背面(従業員が操作する操作部と反対側の面)に表示装置30が配置されてもよい。子供の視野にも入る高さに表示装置30が配置されることが望ましい。大人用の高さと子供用の高さにそれぞれ表示装置30が配置されてもよい。表示装置30は、例えば、有機EL(electro-luminescence)パネル、液晶パネルなどを備えた薄型のものが望ましい。
The
図3は、特徴量データベース121を示す図である。特徴量データベース121は、相互に関係を有する複数の人が特定の空間に共存するときの複数の人の軌跡の特徴量を関係の種別毎に記憶する。特徴量データベース121のレコードの各々は、種別ID,種別名、特徴量のフィールドを有する。種別IDは、複数の人の相互の関係の種別を識別するための識別子である。種別名は、関係の種別の名称である。この例では、関係の種別として、「親と子(幼児)」、「友人」、「恋人」が設定されている。特徴量については、後述する。
FIG. 3 is a diagram showing the
図4は、提示情報データベース122を示す図である。提示情報データベース122は、複数の人の相互の関係の種別毎に、当該複数の人に提示する情報を記憶する。提示情報データベース122のレコードの各々は、種別ID、商品分野ID、提示情報のフィールドを有する。種別IDは、特徴量データベース121における種別IDと同じものである。商品分野IDは、商品の分野を識別するための識別子である。本実施形態では、理解を容易にするために、例えば、陳列棚C(1)が生鮮食品、陳列棚C(2)が菓子、陳列棚C(3)が日用品というように、陳列棚毎に陳列される商品の分野が異なることを想定する。この例では、商品分野ID=1は生鮮食品、商品分野ID=2は菓子、商品分野ID=2は日用品を指す。
FIG. 4 is a diagram showing the
提示情報は、来店者に提示される情報である。提示情報のフィールドには、提示情報を示すファイルのバイナリデータが格納されてもよく、ファイルの格納場所のパスが格納されてもよい。提示情報の内容は、例えば、販売実績から抽出された売れ筋商品を示す情報、新製品を示す情報、販売者や製造者が販売量の増加を目論む製品を示す情報、料理のレシピを示す情報などである。 The presentation information is information presented to the store visitor. In the field of presentation information, binary data of a file indicating the presentation information may be stored, and a path of a file storage location may be stored. The content of the presentation information includes, for example, information indicating a popular product extracted from sales results, information indicating a new product, information indicating a product that the seller or manufacturer intends to increase the sales amount, information indicating a recipe for cooking, etc. It is.
図5は、表示装置テーブル123を示す図である。表示装置テーブル123のレコードの各々は、表示装置ID、商品分野ID、位置情報のフィールドを有する。表示装置IDは、表示装置30を識別するための識別子である。商品分野IDは、提示情報データベース122における商品分野IDと同じものである。位置情報は、表示装置30が配置された位置の座標である。
FIG. 5 is a diagram showing the display device table 123. Each record in the display device table 123 has fields for a display device ID, a product field ID, and position information. The display device ID is an identifier for identifying the
図6は、制御部11が実行する処理の全体を示す流れ図である。これらの処理の手順を記述したプログラムが記憶部12に記憶されており、制御部11がこのプログラムに従って処理を実行する。制御部11は、検出部111、算出部112、判別部113、出力部114として機能する(図2参照)。ステップS01においては、検出部111が、特定の空間に共存する複数の人を繰り返し検出する(検出処理)。ステップS02においては、算出部112が、検出部111により検出された複数の人の軌跡の特徴量を算出する(算出処理)。ステップS03においては、判別部113が、算出部112により算出された特徴量に該当する関係の種別を記憶部12の記憶内容を用いて判別する(判別処理)。ステップS04においては、出力部114が、判別部113により判別された関係の種別に応じた情報を出力する(出力処理)。上記の各ステップの詳細な内容は以下のとおりである。
FIG. 6 is a flowchart showing the entire processing executed by the control unit 11. A program describing the procedure of these processes is stored in the storage unit 12, and the control unit 11 executes the process according to this program. The control unit 11 functions as a
図7は、検出部111が実行する検出処理(図6のステップS01)の流れ図である。検出部111は、検出処理を予め定められた時間間隔で繰り返し実行する。徒歩で移動する人を検出対象とするため、時間間隔は例えば1秒に設定されるが、1秒よりも短い間隔又は1秒よりも長い間隔に設定されてもよい。ステップS101においては、検出部111が、撮影装置20から出力された画像データに含まれるフレームからオブジェクトを検出する。ステップS102においては、検出部111が、検出されたオブジェクトから人の形状を示す領域(人領域H)を検出する。ステップS103においては、検出部111が、検出された人領域Hの座標を求め、フレームの撮影時刻又は撮影時刻の順序を示す情報と座標とを対応付けて記憶部12に記憶させる。人領域Hの座標は、表示装置30の位置情報(図5参照)と共通の座標系を用いて表される。
FIG. 7 is a flowchart of the detection process (step S01 in FIG. 6) executed by the
図8は、人の検出結果を示す図である。図示した例は、撮影装置20として全方位カメラを用いた例であり、円形の撮影範囲Eが撮影される。人を囲う矩形により人領域Hが表される。この例は、3つの人領域H(1)、H(2)、H(3)が検出された例である。
FIG. 8 is a diagram illustrating a human detection result. The illustrated example is an example in which an omnidirectional camera is used as the photographing
人の検出は、例えば、深層学習のオブジェクト抽出技術(例えば、S.Ren, K.He, R.Girshick, and J.Sun, “Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks.”, NIPS 2015.、例えば、W.Liu, D.Anhuelov, D.Erhan, C.Szegedy, S.Reed, and C.Fu, and A.Berg, “SSD: Single Shot MultiBox Detector.”, ECCV 2016.)を利用して実現される。深層学習のオブジェクト抽出技術によれば、人の顔が認識されなくても人が検出される。 Human detection is performed by, for example, deep learning object extraction technology (for example, S. Ren, K. He, R. Girshick, and J. Sun, “Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. ”, NIPS 2015. For example, W. Liu, D. Anhuelov, D. Erhan, C. Szegedy, S. Reed, and C. Fu, and A. Berg,“ SSD: Single Shot MultiBox Detector. ”, ECCV 2016 .). According to the deep learning object extraction technique, a person is detected even if the face of the person is not recognized.
次に、算出部112が実行する算出処理(図6のステップS02)について説明する。算出部112は、検出部111により検出された複数の人の軌跡の特徴量を算出する。
算出処理は、第1算出処理と第2算出処理とを含む。第1算出処理は、複数の撮影装置20の撮影範囲E毎に、検出部111により検出された複数の人の軌跡を算出する処理である。第2算出処理は、第1算出処理により算出された撮影範囲E毎の軌跡を統合し、統合された軌跡の特徴量を算出する処理である。
Next, the calculation process (step S02 in FIG. 6) executed by the
The calculation process includes a first calculation process and a second calculation process. The first calculation process is a process of calculating the trajectories of a plurality of people detected by the
図9は、第1算出処理の流れ図である。以下の説明において、添え字iは、撮影装置20から出力されたフレームの撮影時刻の順序を表す。算出部112は、第1算出処理を、撮影時刻の順に繰り返し実行する。
FIG. 9 is a flowchart of the first calculation process. In the following description, the subscript i represents the order of the photographing times of the frames output from the photographing
ステップS201においては、算出部112が、連続する3フレーム(Ii-1,Ii,Ii+1)について、全ての人領域Hの座標を記憶部12から読み出す。以下、フレームIi-1,Ii,Ii+1をそれぞれ第1フレーム、第2フレーム、第3フレームと呼ぶ。
In step S201, the
ステップS202においては、算出部112が、2組の連続する2フレーム(第1フレームと第2フレームの組と、第2フレームと第3フレームの組)について、人領域Hの中心座標の速度ベクトルを作成する。以下、第1フレームと第2フレームの組を第1組、第2フレームと第3フレームの組を第2組と呼ぶ。例えば第1組の場合、第1フレームに含まれる複数の人領域Hの中心を始点とし、第2フレームに含まれる複数の人領域Hの中心を終点とする速度ベクトルの組を作成するが、本実施形態では複数の人領域Hを識別する手段を備えていないため、第1フレームに含まれる複数の人領域Hと第2フレームに含まれる複数の人領域Hとの全ての組み合わせを作成する。この例では、3つの速度ベクトルの組が6組作成される。第2フレームと第3フレームとの組についても、同様に、3つの速度ベクトルの組が6組作成される。
In step S202, the
ステップS203においては、算出部112が、作成された速度ベクトルを用いて人領域Hの尤もらしい組み合わせを選択する。具体的には、算出部112は、第1組において作成された6組の速度ベクトルと、第2組において作成された6組の速度ベクトルとの全ての組み合わせから、第1組から第2組への速度ベクトルの変化量が予め定められた条件に合致する組み合わせを選択する。予め定められた条件とは、例えば、第1組から第2組への速度ベクトルの変化量が最小であることである。なお、人領域H内の画像の特徴、例えば色ヒストグラムなどを用いて人領域Hの組み合わせが選択されてもよい。
In step S <b> 203, the
ステップS204においては、算出部112が、直前の3フレームに対する第1算出処理の結果と整合するように人領域Hの組み合わせを修正する。具体的には、算出部112は、直前の3フレーム(Ii-2,Ii-1,Ii)に含まれるフレームIi-1とフレームIiとの組において選択された人領域Hの組み合わせ(以下、第1の組み合わせ)と、3フレーム(Ii-1,Ii,Ii+1)に含まれるフレームIi-1とフレームIiとの組において選択された人領域Hの組み合わせ(以下、第2の組み合わせ)とを比較し、両者が相違する場合には、両者が整合するように第1の組み合わせと第2の組み合わせのいずれかを修正する。こうして、4フレーム(Ii-2,Ii-1,Ii,Ii+1)にわたる複数の人領域Hの移動履歴Rが作成される。上記の処理が、全ての連続する3フレームに対して実行される。
In step S204, the
図10は、算出部112により作成された人領域Hの移動履歴Rを示す図である。同図は、図8に示す人領域H(3)の移動履歴R(3)の例である。人領域H(1)、H(2)についても同様の手順で移動履歴R(1)、R(2)が作成される。算出部112は、このようにして作成された移動履歴Rにおける人領域Hの中心座標をフレームの撮影時刻の順に結ぶ近似曲線を作成する。作成された近似曲線により人の軌跡Kが表される。
FIG. 10 is a diagram showing the movement history R of the human area H created by the
図11は、作成された軌跡Kを示す図である。同図は、人領域H(3)の軌跡K(3)の例である。人領域H(1)、H(2)についても同様の手順で軌跡K(1)、K(2)が作成される。この軌跡Kを店舗Aの平面図に射影することにより、軌跡マップMが作成される。移動履歴R及び軌跡マップMの作成は、複数の撮影装置20の撮影範囲E毎に実行され、作成された移動履歴R及び軌跡マップMは、撮影装置20の識別子と対応付けて記憶部12に記憶される。
FIG. 11 is a diagram showing the created trajectory K. As shown in FIG. This figure is an example of the locus K (3) of the human region H (3). Trajectories K (1) and K (2) are created for human areas H (1) and H (2) in the same procedure. A locus map M is created by projecting the locus K onto a plan view of the store A. The creation of the movement history R and the trajectory map M is executed for each imaging range E of the plurality of
軌跡マップMの作成方法としては、以下の2つの方法が考えられる。第1の方法は、全方位カメラでの人領域Hの場所から事前に軌跡マップMへの写像関数Fを学習しておく方法であり、例えば、multilayer perceptronなどの手法が用いられる。入力が2次元(人領域Hの左上座標と右下座標)+1次元(カメラの位置)で、出力が2次元(軌跡マップMの座標)などの構成が考えられる。第2の方法は、人領域Hの重心の床からの高さhから人の軌跡マップMでの位置を射影変換により計算する方法である。hの値は、事前に定めた数値(例えば人間の平均身長の半分など)が用いられる。 As a method for creating the locus map M, the following two methods are conceivable. The first method is a method in which a mapping function F to a trajectory map M is learned in advance from the location of the human region H with an omnidirectional camera. For example, a technique such as multilayer perceptron is used. A configuration in which the input is two-dimensional (the upper left coordinates and the lower right coordinates of the human area H) +1 dimension (the camera position) and the output is two dimensions (coordinates of the trajectory map M) can be considered. The second method is a method of calculating the position in the human trajectory map M from the height h from the floor of the center of gravity of the human region H by projective transformation. For the value of h, a predetermined numerical value (for example, half the average height of a human being) is used.
図12は、第2算出処理の流れ図である。第2算出処理は、第1算出処理により算出された撮影範囲E毎の軌跡Kを統合し、統合された軌跡の特徴量を算出する処理である。ここでは、複数の撮影装置20の撮影範囲Eが重複しない場合の例を示す。以下の処理は、互いに隣接する2つの撮影範囲Eを選択して実行される。互いに隣接する2つの撮影範囲Eのうち、相対的に出入口Dに近い撮影範囲Eを第1撮影範囲と呼び、相対的に出入口Dから遠い撮影範囲Eを第2撮影範囲と呼ぶ。最初に、出入口Dに最も近い撮影範囲E(撮影装置20(1)の撮影範囲E)が第1撮影範囲として選択され、撮影装置20(2)の撮影範囲Eが第2撮影範囲として選択される。
FIG. 12 is a flowchart of the second calculation process. The second calculation process is a process of integrating the trajectory K for each shooting range E calculated by the first calculation process and calculating the feature amount of the integrated trajectory. Here, an example in which the imaging ranges E of the plurality of
ステップS301においては、算出部112が、第1撮影範囲における複数の移動履歴Rと複数の軌跡マップMとを記憶部12から読み出し、読み出された移動履歴Rと軌跡マップMに対して人を識別するための人IDを付与する。例えば、人領域H(1)の移動履歴Rと軌跡マップMに対して人ID=1が付与され、人領域H(2)の移動履歴Rと軌跡マップMに対して人ID=2が付与され、人領域H(3)の移動履歴Rと軌跡マップMに対して人ID=3が付与される。複数の移動履歴Rに含まれる全ての人領域Hの集合をXとする。
In step S301, the
ステップS302においては、算出部112が、第2撮影範囲における複数の移動履歴Rと複数の軌跡マップMを記憶部12から読み出す。複数の移動履歴Rに含まれる全ての人領域Hの集合をYとする。
In step S <b> 302, the
ステップS303においては、算出部112が、第1撮影範囲における複数の軌跡マップMと第2撮影範囲における複数の軌跡マップMとを統合する。具体的には、集合Xに含まれる複数の人領域H(1)の各々の中心座標と、集合Yに含まれる全ての人領域Hの中心座標との距離を計算し、距離が最短の人領域Hを含む移動履歴Rと軌跡マップMに対して、集合Xに含まれる人領域H(1)の移動履歴Rと同じ人IDを付与する。人IDの付与により、第1撮影範囲における軌跡マップM(1)と、第2撮影範囲における軌跡マップM(1)とが一対一に対応付けられる。この対応付けにより、第1撮影範囲における軌跡マップM(1)と第2撮影範囲における軌跡マップM(1)とが統合される。集合Xに含まれる人領域H(2)、H(3)についても同様の処理を実行する。上記と同様の処理を、互いに隣接する2つの撮影範囲Eの全ての組み合わせに対して実行することにより、全ての撮影範囲Eにおける軌跡マップMが統合される。
In step S303, the
図13は、統合された軌跡マップMの例を示す図である。この例は、人領域H(1)の軌跡マップM(1)と、人領域H(2)の軌跡マップM(2)を示している。例えば、人領域H(1)が親であり、人領域H(2)が子(幼児)である。陳列棚C(1)には、生鮮食品が陳列され、陳列棚C(2)には、菓子が陳列されている。親は子に菓子を買い与えようとしている。親は、生鮮食品にも関心を示しつつ、できるだけ短い経路で陳列棚C(2)に辿り着こうとするため、図示したように親の軌跡マップM(1)が記録される。領域a0、a1では、子は生鮮食品には関心がないため親から離れて歩き、領域a2に差し掛かると菓子を買ってもらうために親に接近し、親と連れ立って陳列棚C(2)で菓子を選ぶ。その結果、図示したように子の軌跡マップM(2)が記録される。 FIG. 13 is a diagram illustrating an example of the integrated trajectory map M. This example shows a trajectory map M (1) of the human area H (1) and a trajectory map M (2) of the human area H (2). For example, the person area H (1) is a parent and the person area H (2) is a child (infant). Fresh food is displayed on the display shelf C (1), and confectionery is displayed on the display shelf C (2). Parents are trying to buy sweets for their children. Since the parent tries to reach the display shelf C (2) through the shortest possible route while showing interest in fresh food, the parent's trajectory map M (1) is recorded as shown. In the areas a0 and a1, the child has no interest in fresh food, so he walks away from his / her parents. When the child reaches the area a2, he approaches the parent to buy the confectionery, and is accompanied by the parent to the display shelf C (2). Choose a confectionery. As a result, a child trajectory map M (2) is recorded as shown.
上記のとおり、この軌跡は、店舗Aに共存する複数の人の相互の関係が親子である場合の傾向を表している。一方、店舗Aに共存する複数の人の相互の関係が友人や恋人の場合、親子の場合と比べて店舗A内を連れ立って歩く時間が長くなる傾向があると考えられる。また、友人と恋人を比べると、恋人の方が短い距離を保って歩く傾向があると考えられる。 As described above, this trajectory represents a tendency when the mutual relationship between a plurality of people coexisting in the store A is a parent and child. On the other hand, when the mutual relationship of a plurality of people coexisting in the store A is a friend or a lover, it is considered that the time to walk with the store A tends to be longer than in the case of the parent and child. In addition, when comparing lovers with friends, lovers tend to walk at shorter distances.
ステップS304においては、算出部112が、軌跡の特徴量を算出する。以下、特徴量の5つの例(第1特徴量乃至第5特徴量)を説明する。ここでは、図13に示す軌跡マップM(1)と軌跡マップM(2)が示す軌跡の例を用いて説明する。
In step S304, the
(1)第1特徴量
図14は、第1特徴量を示す図である。第1特徴量は、複数の人の距離の経時的変化を表す。複数の人の距離は、撮影時刻毎の複数の人領域Hの中心座標Pを端点とする線分Lの長さで表される。第1特徴量は、例えば、撮影時刻の順に並べられた距離を成分とする特徴ベクトルで表される。あるいは、第1特徴量は、距離の範囲を横軸とし、各範囲に含まれる値の出現頻度を縦軸とするヒストグラムの度数を成分とする特徴ベクトルで表されてもよい。
(1) First Feature Amount FIG. 14 is a diagram showing a first feature amount. The first feature amount represents a change over time in the distance of a plurality of people. The distance between a plurality of people is represented by the length of a line segment L with the center coordinates P of the plurality of human regions H at each photographing time as endpoints. The first feature amount is represented by, for example, a feature vector whose components are distances arranged in order of shooting time. Alternatively, the first feature amount may be represented by a feature vector having a histogram frequency component with the distance range as the horizontal axis and the appearance frequency of the values included in each range as the vertical axis.
(2)第2特徴量
図15は、第2特徴量を示す図である。第2特徴量は、複数の人の速度ベクトルの差の経時的変化を表す。人の速度ベクトルは、例えば、1つの撮影時刻における人領域Hの中心座標Pを始点とし、その次の撮影時刻における人領域Hの中心座標Pを終点とするベクトルVで表される(図15(a)参照)。複数の人の速度ベクトルの差は、例えば、人領域H(1)の速度ベクトルV(1)と人領域H(2)の速度ベクトルV(2)との差V(1)−V(2)で表される(図15(b)参照)。第2特徴量は、例えば、撮影時刻の順に並べられた速度ベクトルの差の成分又は大きさを成分とする特徴ベクトルで表される。あるいは、第2特徴量は、速度ベクトルの差の成分又は大きさの範囲を横軸とし、各範囲に含まれる値の出現頻度を縦軸とするヒストグラムの度数を成分とする特徴ベクトルで表されてもよい。
(2) Second Feature Amount FIG. 15 is a diagram showing a second feature amount. The second feature amount represents a change over time in the difference between the speed vectors of a plurality of persons. The speed vector of the person is represented by a vector V having the center coordinate P of the person area H at one shooting time as a start point and the end point of the center coordinate P of the person area H at the next shooting time (FIG. 15). (See (a)). The difference between the velocity vectors of a plurality of people is, for example, the difference V (1) −V (2) between the velocity vector V (1) of the human region H (1) and the velocity vector V (2) of the human region H (2). ) (See FIG. 15B). The second feature amount is represented by a feature vector having, for example, a difference component or magnitude of speed vectors arranged in order of shooting time. Alternatively, the second feature amount is represented by a feature vector having a frequency vector difference component or magnitude range as a horizontal axis and the frequency of appearance of a value included in each range as a vertical axis as a component. May be.
(3)第3特徴量
図16は、第3特徴量を示す図である。第3特徴量は、空間を複数に分割した領域毎の複数の人の滞留時間を表す。例えば、店舗Aの空間を複数に分割した領域を定め(図16(a)参照)、複数の人の各々について、領域の各々における滞留時間をフレームの撮影時刻から求める(図16(b)、(c)参照)。第3特徴量は、例えば、領域を横軸とし、各領域における滞留時間を縦軸とするヒストグラムの各滞留時間を成分とする特徴ベクトルで表される。
(3) Third Feature Amount FIG. 16 is a diagram showing a third feature amount. The third feature amount represents the residence time of a plurality of people for each region obtained by dividing the space into a plurality of regions. For example, an area where the space of the store A is divided into a plurality of areas is defined (see FIG. 16A), and for each of a plurality of persons, the residence time in each of the areas is obtained from the frame shooting time (FIG. 16B). (See (c)). The third feature amount is represented, for example, by a feature vector having each residence time of a histogram with the region as the horizontal axis and the residence time in each region as the vertical axis.
(4)第4特徴量
図17は、第4特徴量を示す図である。第4特徴量は、第1特徴量乃至第3特徴量に対して領域毎に重み付けを行ったものである。図示した例は、第1特徴量(複数の人の距離の経時的変化)に重み付けを行った例である。第1特徴量が、P(2)とP(1)を端点とする線分Lで表されるのに対して、第4特徴量は、P(2)とQ(1)を端点とする線分Wで表される。この例では、領域a0と領域a2において1.5の重みが設定され、領域a1と領域a3において0.5の重みが設定された例である。
(4) Fourth Feature Amount FIG. 17 is a diagram illustrating a fourth feature amount. The fourth feature value is obtained by weighting the first feature value to the third feature value for each region. The illustrated example is an example in which weighting is performed on the first feature amount (change in the distance of a plurality of people over time). The first feature amount is represented by a line segment L having P (2) and P (1) as end points, whereas the fourth feature amount has P (2) and Q (1) as end points. It is represented by a line segment W. In this example, a weight of 1.5 is set in the areas a0 and a2, and a weight of 0.5 is set in the areas a1 and a3.
この重みの設定は、以下の想定に基づくものである。例示した軌跡マップMは、前述のとおり、店舗Aに共存する複数の人が親子である場合の傾向を表したものであるが、領域a0において親と子の距離が増加し、領域a2において親と子の距離が減少するという特徴がある。上記の重み付けにより、親子の距離の経時的変化が強調され、後述する判定処理の効率が向上することが考えられる。 The setting of this weight is based on the following assumptions. The illustrated trajectory map M represents a tendency when a plurality of people coexisting in the store A are parents and children as described above, but the distance between the parent and the child increases in the region a0, and the parent in the region a2 There is a feature that the distance between the child and the child decreases. It is conceivable that the above-described weighting emphasizes the change over time in the distance between the parent and child and improves the efficiency of the determination process described later.
(5)第5特徴量
図18は、第5特徴量を示す図である。第5特徴量は、複数の人の重心Gの位置又は速度の経時的変化を表す。複数の人の重心Gは、撮影時刻毎の複数の人領域Hの中心座標Pを端点とする線分Lの中点で表される。第5特徴量は、例えば、撮影時刻の順に並べられた重心Gの位置又は速度を成分とする特徴ベクトルで表される。
(5) Fifth Feature Amount FIG. 18 is a diagram illustrating a fifth feature amount. The fifth feature amount represents a change in the position or speed of the center of gravity G of a plurality of people over time. The center of gravity G of a plurality of people is represented by the midpoint of a line segment L whose end point is the center coordinate P of the plurality of person regions H at each photographing time. For example, the fifth feature amount is represented by a feature vector whose component is the position or speed of the center of gravity G arranged in order of shooting time.
特徴量データベース121には、第1特徴量乃至第5特徴量のいずれか1つが関係の種別毎に格納されている。格納される特徴量は、過去の来店者の軌跡から算出された特徴量でもよく、関係の種別毎に仮定した軌跡から算出された特徴量でもよい。なお、第1特徴量乃至第5特徴量のうち2つ以上が特徴量データベース121に格納されてもよい。
In the
1回の検出処理が実行される度に算出処理が実行されてもよいが、人の検出結果がある程度蓄積されてからでなければ有意な特徴量が得られないから、例えば、予め定められた回数(複数回)の検出処理が実行された後に算出処理が実行されてもよい。その後、予め定められた回数(1回以上)の検出処理が実行される度に算出処理が実行されることにより定期的に軌跡マップMと特徴量が更新されてもよい。 The calculation process may be executed every time the detection process is performed once. However, since a significant feature amount cannot be obtained unless human detection results are accumulated to some extent, The calculation process may be executed after the detection process is executed a number of times (a plurality of times). Thereafter, the trajectory map M and the feature amount may be periodically updated by executing a calculation process every time a predetermined number (one or more) of detection processes are executed.
次に、判別部113が実行する判別処理(図6のステップS03)について説明する。判別部113は、算出部112により算出された特徴量に該当する関係の種別を記憶部12の記憶内容を用いて判別する。具体的には、判別部113は、SVM(support vector machine)などのパターン認識モデルを用いて、算出された特徴量に該当する特徴量を特徴量データベース121から抽出し、抽出された特徴量に関連付けられた種別IDを特定する。ただし、入店から退店までの時間の長さはまちまちであるから、経時的変化を示す特徴量(第1特徴量、第2特徴量、第5特徴量)については、時間軸方向の正規化により特徴ベクトルの次元数を統一してから判別処理を行う。
Next, the determination process (step S03 in FIG. 6) executed by the
図19は、軌跡マップMから算出された特徴ベクトルの分類を示す散布図である。この散布図は、多次元の特徴ベクトルの成分を便宜上2次元に集約して表示したものである。例えば主成分分析の手法を用いて特徴ベクトルの主成分軸を特定することで、図示のように特徴ベクトルが他人、友人、親子、恋人など、複数の人の相互の関係の種別を表す複数のグループに分類される。各グループが占める領域の境界面を学習により作成しておき、検出された複数の人の軌跡の特徴量に対応する領域を特定することにより、検出された複数の人の相互の関係の種別が判別される。 FIG. 19 is a scatter diagram showing the classification of feature vectors calculated from the trajectory map M. In this scatter diagram, components of multidimensional feature vectors are displayed in a two-dimensional manner for convenience. For example, by specifying the principal component axis of a feature vector using a principal component analysis method, the feature vector can be represented as a plurality of types of mutual relationships among multiple people such as others, friends, parents and children, and lovers as shown in the figure. Classified into groups. By creating the boundary surface of the area occupied by each group by learning and specifying the area corresponding to the feature amount of the detected trajectories of the plurality of persons, the type of mutual relationship between the detected persons can be determined. Determined.
なお、最初に、特徴量が他人の領域(図19参照)に該当するか否かにより、検出された複数の人が相互に関係を有するか否かを判別し、相互に関係を有する場合に限り、関係の種別を判別するように判別部113が構成されてもよい。
First, it is determined whether or not a plurality of detected persons are related to each other depending on whether or not the feature amount corresponds to another person's area (see FIG. 19). As long as the type of relationship is determined, the
次に、出力部114が実行する出力処理(図6のステップS04)について説明する。出力部114は、空間に配置された複数の表示装置30のうち検出部111により検出された複数の人との距離が予め定められた条件に合致する表示装置30に、判別部113により判別された関係の種別に応じた情報を出力する。前述のとおり、定期的に軌跡マップMが更新される。最新の軌跡マップMが示す複数の軌跡の先端の位置が、複数の人の最新の位置である。出力部114は、複数の人に最も近い位置に配置された表示装置30の表示装置IDを、表示装置テーブル123の位置情報(図5参照)を用いて特定する。出力部114は、特定された表示装置IDに対応する商品分野ID(図5参照)と、判別部113により判別された種別の種別IDとに対応する提示情報を、提示情報データベース122(図4参照)から抽出する。出力部114は、抽出された提示情報を、特定された表示装置IDに対応する表示装置30に出力する。表示装置30は、出力された提示情報を表示する。
Next, output processing (step S04 in FIG. 6) executed by the
提示情報の内容は、例えば、販売実績から抽出された売れ筋商品を示す情報、新製品を示す情報、販売者や製造者が販売量の増加を目論む製品を示す情報、料理のレシピを示す情報などである。これらの情報のうちいずれか1つの情報が出力されてもよく、複数の情報が出力されてもよい。複数の情報が出力される場合、予め定められた時間が経過する毎に複数の情報のいずれか1つを示す画面が表示されてもよく、複数の情報が並べられた画面が表示されてもよい。 The content of the presentation information includes, for example, information indicating a popular product extracted from sales results, information indicating a new product, information indicating a product that the seller or manufacturer intends to increase the sales amount, information indicating a recipe for cooking, etc. It is. Any one of these pieces of information may be output, or a plurality of pieces of information may be output. When a plurality of pieces of information are output, a screen showing any one of the plurality of pieces of information may be displayed every time a predetermined time elapses, or a screen on which a plurality of pieces of information are arranged may be displayed Good.
提示情報の例を示すと、種別ID=1(親と子(幼児))、商品分野ID=1(生鮮食品)の場合、幼児が好む料理のレシピや、そのレシピに含まれる食材などを示す情報が出力される。種別ID=1(親と子(幼児))、商品分野ID=2(菓子)の場合、幼児向けの菓子を示す情報が出力される。この場合、幼児でもわかりやすいように、ひらがなの情報が出力されてもよく、商品の写真やアニメーション、テレビCM(commercial message)の動画などが出力されてもよい。種別ID=1(親と子(幼児))、商品分野ID=3(日用品)の場合、幼児向けの日用品を示す情報が出力される。 As an example of the presentation information, when type ID = 1 (parent and child (infant)) and product field ID = 1 (fresh food), the recipe of the dish preferred by the infant, the ingredients included in the recipe, and the like are shown. Information is output. In the case of type ID = 1 (parent and child (infant)) and product field ID = 2 (confectionery), information indicating a confection for infants is output. In this case, hiragana information may be output so that even an infant can easily understand, and a photograph or animation of a product, a video of a commercial message (TV CM), or the like may be output. When type ID = 1 (parent and child (infant)) and product field ID = 3 (daily necessities), information indicating daily necessities for infants is output.
種別と商品分野の異なる組み合わせに対して同じ提示情報が格納されている場合もある。例えば、種別ID=2(友人)、商品分野ID=3(生鮮食品)の場合と、種別ID=3(恋人)、商品分野ID=3(生鮮食品)の場合に、提示情報としてホームパーティー用のレシピや、そのレシピに含まれる食材などを示す情報が出力される、という具合である。なお、種別と商品分野の組み合わせによっては提示情報データベース122に提示情報が格納されていない場合がある。その場合には、提示情報は表示装置30に出力されない。
The same presentation information may be stored for different combinations of types and product fields. For example, in the case of type ID = 2 (friend), product field ID = 3 (fresh food), type ID = 3 (lover), and product field ID = 3 (fresh food), the presentation information is for home parties. Information indicating the recipe and ingredients contained in the recipe are output. Depending on the combination of the type and the product field, the presentation information may not be stored in the
本実施形態によれば、空間内を移動する人とその他の人とが相互に関係を有するか否かが判別される。また、本実施形態によれば、空間内を移動する人とその他の人との関係の種別が判別される。また、本実施形態によれば、複数の人の距離の経時的変化から関係の種別が判別される。また、本実施形態によれば、複数の人の速度ベクトルの差の経時的変化から関係の種別が判別される。また、本実施形態によれば、空間を分割した領域毎の複数の人の滞留時間から関係の種別が判別される。また、本実施形態によれば、関係の種別の判別に領域毎の重みが加味される。また、本実施形態によれば、複数の人の重心の位置又は速度の経時的変化から関係の種別が判別される。また、本実施形態によれば、関係の種別に応じた情報が提示される。また、本実施形態によれば、表示装置30と複数の人との距離と無関係に情報を出力する場合と比べて、複数の人に情報が伝達されやすくなる。
According to the present embodiment, it is determined whether or not a person moving in the space and another person have a mutual relationship. Further, according to the present embodiment, the type of relationship between the person moving in the space and the other person is determined. Further, according to the present embodiment, the type of relationship is determined from the change over time of the distances of a plurality of people. Further, according to the present embodiment, the type of relationship is determined from the change over time in the difference between the velocity vectors of a plurality of people. In addition, according to the present embodiment, the type of relationship is determined from the residence time of a plurality of people for each area into which the space is divided. Further, according to the present embodiment, the weight for each region is added to the determination of the relationship type. In addition, according to the present embodiment, the type of relationship is determined from the temporal change in the position or speed of the center of gravity of a plurality of people. Further, according to the present embodiment, information according to the type of relationship is presented. In addition, according to the present embodiment, information is more easily transmitted to a plurality of people than when information is output regardless of the distance between the
上記の実施形態が以下のように変形されてもよい。 The above embodiment may be modified as follows.
(1)検出部111により検出された複数の人の移動速度が閾値以上である場合に出力部114が情報を出力しないように構成されてもよい。複数の人の移動速度は、例えば第2特徴量(図15参照)の項で説明した手法で求められる。複数の人の移動速度が閾値以上である場合として想定されるのは、例えば、関心のない陳列棚の前を来店者が素通りする場合である。このような場合、提示情報を出力しても来店者が提示情報を視認できず、来店者に提示情報が伝達されないことが考えられる。本変形例によれば、人に伝達されない情報の出力が回避されるから、情報処理装置10の負荷が軽減される。
(1) The
(2)検出部111により検出された複数の人の移動速度に応じて出力部114が情報の形態を変化させるように構成されてもよい。位置が固定された表示装置30に情報が表示される場合、一般に、人の移動速度が速いほど人は情報を視認しづらくなると考えられる。そこで、移動速度が閾値以上である場合には、商品の写真や絵柄など直感的に理解される情報を表示させ、移動速度が閾値未満である場合には、商品を説明する文を表示させるという具合に、移動速度に応じた形態の情報が出力されてもよい。あるいは、移動速度が閾値以上である場合には、比較的大きなサイズの文字で文を表示させ、移動速度が閾値未満である場合には、比較的小さなサイズの文字で文を表示させるように構成されてもよい。本変形例によれば、移動速度に応じて情報の形態を変化させない場合と比べて、複数の人に情報が伝達されやすくなる。
(2) The
(3)図3の例のように特徴量データベース121に関係の種別が3つ以上設定されている場合には、種別毎に正事例と負事例により構成された識別器を用いて正事例である確率を算出し、確率が最大の種別に応じた情報が出力されてもよい。また、確率が閾値以上である種別に応じた情報が出力されてもよい。複数の種別の確率が閾値以上である場合には、複数の種別の各々に応じた情報が出力されてもよく、複数の種別に共通の情報が出力されてもよい。
(3) When three or more types of relations are set in the
(4)上記実施形態では、店舗Aに配置された表示装置30に提示情報が出力される例を示したが、検出部111により検出された複数の人のいずれかが所持する携帯端末に情報が出力されてもよい。例えば、無線LAN基地局を店舗Aに配置しておき、来店者に携帯端末の無線LAN機能を有効にすることをポスターや店内放送などを用いて促し、無線LAN基地局を介して携帯端末に提示情報が出力されるように構成されてもよい。本変形例によれば、情報を提示するための装置を空間に配置しなくても情報が提示される。
(4) In the above embodiment, an example in which the presentation information is output to the
(5)特徴量データベース121を増強する構成が備えられてもよい。例えば、判別部113が、判別された種別を出力部114に出力させ、出力された種別を修正する操作が受付部15により受け付けられた場合に、修正された種別と算出部112により算出された特徴量とを関連付けて記憶部12に記憶させるように構成されてもよい。具体的には、判別された種別が親子の場合、親子に対応する提示情報を示す画面が表示される。この画面には、「親子向けの情報を表示しています。親子でない場合はボタンで情報を選択してください。」というメッセージと、「友人向けの情報」のボタン、「恋人向けの情報」のボタンが表示される。来店者がボタンを操作すると、操作されたボタンに対応する提示情報が表示される。判別部113は、操作されたボタンに対応する種別と、算出部112により算出された特徴量とを関連付けて特徴量データベース121に記憶させる。
(5) A configuration for enhancing the
(6)特徴量データベース121を増強する構成の別の例を以下に示す。判別部113が、検出部111により検出された複数の人の特定の場所における距離が予め定められた条件に合致した場合に、判別された種別を修正し、修正された種別と算出部112により算出された特徴量とを関連付けて記憶部12に記憶させるように構成されてもよい。例えば、軌跡の特徴量から2人の人が恋人であると判別された後、更新後の軌跡から清算台Bにて別々に支払を済ませたことが判明した場合、判別部113がこの2人の関係の種別を友人に修正し、修正された種別と算出部112により算出された特徴量とを特徴量データベース121に記憶させるという具合である。
(6) Another example of a configuration for enhancing the
(7)関係の種別を判別する対象を事前に限定する構成が採用されてもよい。具体的には、店舗Aの外側を撮影する撮影装置が店舗Aの出入口D付近に配置され、店舗Aに進入する人が撮影される。撮影された画像から同時又は予め定められた閾値以下の時間差を伴って2人以上の人が検出された場合に限り、制御部11が図5に示す処理を実行する。出入口Dにおける人の検出は、上記実施形態で例示した検出処理(図7参照)が用いられてもよく、正面顔の顔認識処理が用いられてもよい。顔認識処理によって推定される複数の人の年齢が、関係の種別の判別に補助的に利用されてもよい。画像から推定される複数の人の身長が、関係の種別の判別に補助的に利用されてもよい。人の身長の推定は、ステレオカメラを用いて行われてもよい。 (7) A configuration may be adopted in which targets for determining the type of relationship are limited in advance. Specifically, a photographing device for photographing the outside of the store A is disposed near the entrance D of the store A, and a person entering the store A is photographed. Only when two or more people are detected from the captured image at the same time or with a time difference equal to or less than a predetermined threshold, the control unit 11 executes the processing shown in FIG. For detection of the person at the entrance D, the detection process (see FIG. 7) exemplified in the above embodiment may be used, or the face recognition process of the front face may be used. The ages of a plurality of persons estimated by the face recognition process may be used supplementarily for determining the relationship type. The heights of a plurality of persons estimated from the image may be used as auxiliary information for determining the type of relationship. The human height may be estimated using a stereo camera.
(8)上記実施形態は、複数の撮影装置20の撮影範囲Eが重複しない場合の例であるが、複数の撮影装置20の撮影範囲Eが重複していても一方の撮影範囲Eの画像しか使用しない場合も同様の処理が実行される。なお、複数の撮影装置20の撮影範囲Eが重複する場合に、撮影範囲Eが重複する複数の撮影範囲Eの画像を使用することにより、複数の撮影範囲Eにおける移動履歴Rと軌跡マップMを単純につなげてもよい。
(8) The above embodiment is an example in which the imaging ranges E of the plurality of
(9)上記実施形態の第2算出処理のステップS303においては、人領域Hの中心座標の距離を2つの人領域H間の距離だけで判定する例を示したが、集合Yに含まれる人領域Hに対して集合Xから距離の短い順に上位複数個の人領域Hが選択され、選択された複数個の人領域Hに付与されている人IDのうち最も頻度が高い人IDが選択されてもよい。距離を計算するための特徴抽出器としては、単純な色ヒストグラムや深層学習により学習した人同定モデル(例えば、E.Ahmed, M.Jones, and T.Marks, “An Improved Deep Learning Architecture for Person Re-Identification.”, CVPR, 2015.)などが用いられてもよい。また、集合Yの各画像に対して人IDを付与した後、軌跡の修正を行うことで軌跡の精度が高められてもよい。 (9) In step S303 of the second calculation process of the above embodiment, the example in which the distance between the central coordinates of the human area H is determined only by the distance between the two human areas H is shown. A plurality of upper person areas H are selected in the order of short distance from the set X with respect to the area H, and the person ID with the highest frequency is selected among the person IDs assigned to the selected plurality of person areas H. May be. Feature extractors for calculating distances include simple color histograms and human identification models learned by deep learning (eg, E. Ahmed, M. Jones, and T. Marks, “An Improved Deep Learning Architecture for Person Re -Identification. ”, CVPR, 2015.) etc. may be used. Further, after assigning a person ID to each image of the set Y, the accuracy of the trajectory may be improved by correcting the trajectory.
(10)上記実施形態では、撮影された画像から人を検出する例を示したが、他の方法で人が検出されてもよい。例えば、店舗A内の複数の箇所にビーコンの受信機を配置しておき、来店者にビーコンの発振機を配布し、受信機が受信したビーコン信号の強度により来店者の位置が特定されるように構成されてもよい。 (10) In the above embodiment, an example is shown in which a person is detected from a captured image, but a person may be detected by other methods. For example, beacon receivers are arranged at a plurality of locations in the store A, beacon oscillators are distributed to the store visitors, and the location of the store visitor is specified by the strength of the beacon signal received by the receiver. May be configured.
(11)上記実施形態では、複数の人に最も近い位置に配置された表示装置30に提示情報を出力する例を示したが、人の操作により提示情報が出力されてもよい。例えば、表示装置30に備えられたタッチパネルに人が触れた場合や、表示装置30に備えられたスイッチを人が操作した場合などに、提示情報が表示装置30に出力されるように構成されてもよい。あるいは、店内に印刷装置が配置され、表示装置30のタッチパネルの操作により提示情報が印刷されるように構成されてもよい。また、提示情報にクーポン券の画像データが含まれ、クーポン券が印刷されるように構成されてもよい。また、表示装置30に代えて音響装置が配置され、提示情報を示す音声が出力されるように構成されてもよい。また、表示装置30と音響装置の両方が配置されてもよい。
(11) In the above-described embodiment, the example in which the presentation information is output to the
(12)相互に関係を有する複数の人の全員との距離が閾値以下である表示装置30に提示情報が出力されてもよい。あるいは、相互に関係を有する複数の人のうちの少なくとも1人との距離が閾値以下の表示装置30に提示情報が出力されてもよい。これら2つの場合であっても、相互に関係を有する複数の人以外の人と表示装置30との距離が閾値以下である場合には提示情報が出力されないように構成されてもよい。
(12) The presentation information may be output to the
(13)上記実施形態では、店舗Aに共存する複数の人に商品に関する情報を提示するシステムに本発明を適用した例であるが、店舗Aの例は一例に過ぎず、例えば、商行為が行われない展示場、展覧会場などの空間に共存する複数の人に展示物に関する情報を提示するシステムに本発明が適用されてもよい。 (13) The above embodiment is an example in which the present invention is applied to a system that presents information related to products to a plurality of people who coexist in the store A. However, the example of the store A is merely an example. The present invention may be applied to a system that presents information related to exhibits to a plurality of people coexisting in a space such as an exhibition hall or an exhibition hall.
(14)コンピュータに上記の処理を実行させるためのプログラムは、例えば、光記録媒体、半導体メモリなどのコンピュータに読取り可能な記録媒体に持続的に記憶された状態で提供されてもよいし、インターネット等の通信ネットワークを介して提供されてもよい。本発明に係るプログラムが記録媒体に持続的に記憶された状態で提供される場合、コンピュータが当該プログラムを記録媒体から読み取り用いる。また、本発明に係るプログラムが通信ネットワークを介して提供される場合、コンピュータが当該プログラムを配信元の装置から受信して用いる。 (14) A program for causing a computer to execute the above processing may be provided in a state of being continuously stored in a computer-readable recording medium such as an optical recording medium or a semiconductor memory, or the Internet Etc. may be provided via a communication network. When the program according to the present invention is provided in a state of being continuously stored in a recording medium, the computer reads the program from the recording medium and uses it. Further, when the program according to the present invention is provided via a communication network, the computer receives the program from a distribution source device and uses it.
10…情報処理装置、11…制御部、12…記憶部、13…通信部、14…表示部、15…受付部、111…検出部、112…算出部、113…判別部、114…出力部、121…特徴量データベース、122…提示情報データベース、123…表示装置テーブル、20…撮影装置、30…表示装置
DESCRIPTION OF SYMBOLS 10 ... Information processing apparatus, 11 ... Control part, 12 ... Memory | storage part, 13 ... Communication part, 14 ... Display part, 15 ... Reception part, 111 ... Detection part, 112 ... Calculation part, 113 ... Discrimination part, 114 ...
Claims (14)
前記特定の空間に共存する複数の人を繰り返し検出する検出部と、
前記検出部により検出された前記複数の人の軌跡の特徴量を算出する算出部と、
前記算出部により算出された前記特徴量と前記記憶部の記憶内容とを用いて、前記検出部により検出された複数の人が相互に関係を有するか否かを判別する判別部と
を備える情報処理装置。 A storage unit that stores feature amounts of trajectories of the plurality of people when a plurality of people having mutual relationships coexist in a specific space;
A detection unit that repeatedly detects a plurality of people coexisting in the specific space;
A calculating unit that calculates feature amounts of the trajectories of the plurality of people detected by the detecting unit;
Information comprising: a determination unit that determines whether or not a plurality of people detected by the detection unit are related to each other using the feature amount calculated by the calculation unit and the storage content of the storage unit Processing equipment.
前記判別部は、前記算出部により算出された前記特徴量に該当する前記関係の種別を前記記憶部の記憶内容を用いて判別する
請求項1に記載の情報処理装置。 The storage unit stores the feature amount for each type of the relationship,
The information processing apparatus according to claim 1, wherein the determination unit determines a type of the relationship corresponding to the feature amount calculated by the calculation unit using a storage content of the storage unit.
請求項1又は2に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the feature amount represents a change over time in the distances of the plurality of persons.
請求項1又は2に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the feature amount represents a change over time in a difference between speed vectors of the plurality of persons.
請求項1又は2に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the feature amount represents a residence time of the plurality of persons for each region obtained by dividing the space.
請求項3乃至5のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 3 to 5, wherein the determination unit performs determination using the feature amount multiplied by a weight determined for each area obtained by dividing the space.
請求項1又は2に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the feature amount represents a temporal change in a position or speed of a center of gravity of the plurality of persons.
請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, further comprising: an output unit that outputs information according to the type of the relationship determined by the determination unit.
請求項8に記載の情報処理装置。 The output unit outputs the information to a display device in which distances from a plurality of persons detected by the detection unit among a plurality of display devices arranged in the space meet a predetermined condition. The information processing apparatus described in 1.
請求項8又は9に記載の情報処理装置。 The information processing apparatus according to claim 8, wherein the output unit does not output the information when the moving speeds of the plurality of persons detected by the detection unit are equal to or higher than a threshold value.
請求項8乃至10のいずれか1項に記載の情報処理装置。 The information processing apparatus according to claim 8, wherein the output unit changes a form of the information according to a moving speed of the plurality of persons detected by the detection unit.
請求項8に記載の情報処理装置。 The information processing apparatus according to claim 8, wherein the output unit outputs the information to a mobile terminal possessed by any of the plurality of persons detected by the detection unit.
前記判別部は、判別された種別を前記出力部に出力させ、出力された種別を修正する操作が前記受付部により受け付けられた場合に、修正された種別と前記算出部により算出された特徴量とを関連付けて前記記憶部に記憶させる
請求項8に記載の情報処理装置。 It has a reception unit that accepts operations,
The discriminating unit outputs the discriminated type to the output unit, and when an operation for correcting the output type is received by the receiving unit, the corrected type and the feature amount calculated by the calculating unit The information processing apparatus according to claim 8, wherein the information is stored in the storage unit.
請求項1に記載の情報処理装置。 The discriminating unit corrects the discriminated type when the distances at specific locations of the plurality of people detected by the detecting unit meet a predetermined condition, and the corrected type and the calculating unit The information processing apparatus according to claim 1, wherein the calculated feature amount is associated and stored in the storage unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018016787A JP2019133530A (en) | 2018-02-01 | 2018-02-01 | Information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018016787A JP2019133530A (en) | 2018-02-01 | 2018-02-01 | Information processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019133530A true JP2019133530A (en) | 2019-08-08 |
Family
ID=67546210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018016787A Pending JP2019133530A (en) | 2018-02-01 | 2018-02-01 | Information processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019133530A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021117768A (en) * | 2020-01-27 | 2021-08-10 | キヤノン株式会社 | Information processing device, information processing method, and program |
WO2022038702A1 (en) * | 2020-08-19 | 2022-02-24 | Nec Corporation | Causal interaction detection apparatus, control method, and computer-readable storage medium |
JP7435771B2 (en) | 2020-06-18 | 2024-02-21 | 日本電気株式会社 | Control device, control method, and program |
-
2018
- 2018-02-01 JP JP2018016787A patent/JP2019133530A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021117768A (en) * | 2020-01-27 | 2021-08-10 | キヤノン株式会社 | Information processing device, information processing method, and program |
JP7435771B2 (en) | 2020-06-18 | 2024-02-21 | 日本電気株式会社 | Control device, control method, and program |
WO2022038702A1 (en) * | 2020-08-19 | 2022-02-24 | Nec Corporation | Causal interaction detection apparatus, control method, and computer-readable storage medium |
JP2023536875A (en) * | 2020-08-19 | 2023-08-30 | 日本電気株式会社 | CAUSAL INTERACTION DETECTION DEVICE, CONTROL METHOD, AND PROGRAM |
JP7491462B2 (en) | 2020-08-19 | 2024-05-28 | 日本電気株式会社 | Causal interaction detection device, control method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10885336B1 (en) | Object identification and device communication through image and audio signals | |
US11138420B2 (en) | People stream analysis method, people stream analysis apparatus, and people stream analysis system | |
TW201907350A (en) | Offline shopping guide method and device | |
Liciotti et al. | Shopper analytics: A customer activity recognition system using a distributed RGB-D camera network | |
US8401225B2 (en) | Moving object segmentation using depth images | |
TWI779343B (en) | Method of a state recognition, apparatus thereof, electronic device and computer readable storage medium | |
TWI778030B (en) | Store apparatus, store management method and program | |
JP6069565B1 (en) | RECOMMENDATION DEVICE, RECOMMENDATION METHOD, AND PROGRAM | |
US20140172640A1 (en) | Augmented reality shopping game | |
JP6618395B2 (en) | Apparatus, program, and method for predicting position of survey object by action value | |
US20140079281A1 (en) | Augmented reality creation and consumption | |
JP6771996B2 (en) | Systems and methods for real-time interactive operation of the user interface | |
JP7081081B2 (en) | Information processing equipment, terminal equipment, information processing method, information output method, customer service support method and program | |
EP2219134A2 (en) | Information processing apparatus and information processing method | |
KR101710733B1 (en) | Targeted advertising using object identification | |
US20140078174A1 (en) | Augmented reality creation and consumption | |
JP2019133530A (en) | Information processing apparatus | |
US11417173B2 (en) | Image processing method, apparatus, and non-transitory computer readable storage medium | |
US20170186022A1 (en) | Information processing apparatus | |
US9076062B2 (en) | Feature searching along a path of increasing similarity | |
JP2018081630A (en) | Search device, search method and program | |
US20130063593A1 (en) | Monitoring device, method thereof | |
CN111428743B (en) | Commodity identification method, commodity processing device and electronic equipment | |
CN111078751A (en) | Method and system for carrying out target statistics based on UNREAL4 | |
JP2016045742A (en) | Information processing device and program |