JP7337354B2 - Information processing device and information processing program - Google Patents

Information processing device and information processing program Download PDF

Info

Publication number
JP7337354B2
JP7337354B2 JP2019088295A JP2019088295A JP7337354B2 JP 7337354 B2 JP7337354 B2 JP 7337354B2 JP 2019088295 A JP2019088295 A JP 2019088295A JP 2019088295 A JP2019088295 A JP 2019088295A JP 7337354 B2 JP7337354 B2 JP 7337354B2
Authority
JP
Japan
Prior art keywords
person
movement trajectory
product
data
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019088295A
Other languages
Japanese (ja)
Other versions
JP2020184197A (en
Inventor
尚史 吉田
淳 宮▲崎▼
Original Assignee
株式会社オレンジテクラボ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社オレンジテクラボ filed Critical 株式会社オレンジテクラボ
Priority to JP2019088295A priority Critical patent/JP7337354B2/en
Publication of JP2020184197A publication Critical patent/JP2020184197A/en
Application granted granted Critical
Publication of JP7337354B2 publication Critical patent/JP7337354B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置及び情報処理プログラム関する。 The present invention relates to an information processing device and an information processing program.

非特許文献1には、レジに並ばずに自動で支払いが完了する店舗が記載されている。
非特許文献2には、スーパーやコンビニ等の小売店で商品棚をスマートフォン等で撮影することでリアルタイムに商品の陳列状況を分析できる商品棚画像認識エンジンが記載されている。
非特許文献3には、顔画像等の認識技術が記載されている。
非特許文献4には、事業者が、カメラ画像の利活用に際し、生活者に対して、プライバシー保護の観点から配慮が必要な項目が記載されている。
非特許文献5には、パーソナルデータの匿名化が重要であることが記載されている。
Non-Patent Document 1 describes a store where payment is automatically completed without waiting in line at the register.
Non-Patent Document 2 describes a product shelf image recognition engine that can analyze product display status in real time by photographing product shelves in retail stores such as supermarkets and convenience stores with a smartphone or the like.
Non-Patent Document 3 describes a technology for recognizing face images and the like.
Non-Patent Document 4 describes items that businesses need to consider from the viewpoint of privacy protection for consumers when utilizing camera images.
Non-Patent Document 5 describes that anonymization of personal data is important.

What is Amazon Go, where is it, and how does it work?, https://www.pocket-lint.com/phones/news/amazon/139650-what-is-amazon-go-where-is-it-and-how-does-it-workWhat is Amazon Go, where is it, and how does it work?, https://www.pocket-lint.com/phones/news/amazon/139650-what-is-amazon-go-where-is-it- and-how-does-it-work NTTドコモ,商品棚画像認識エンジンを開発-ドコモのAI技術により、商品棚の配置状況が一目でわかる-, https://www.nttdocomo.co.jp/info/news_release/2018/03/01_01.htmlNTT DoCoMo Develops Product Shelf Image Recognition Engine - DoCoMo's AI Technology Shows Product Shelf Layout at a Glance -, https://www.nttdocomo.co.jp/info/news_release/2018/03/01_01. html MathWorks, 画像認識, https://jp.mathworks.com/discovery/image-recognition.htmlMathWorks, Image Recognition, https://jp.mathworks.com/discovery/image-recognition.html 経済産業省,カメラ画像利活用 ガイドブック,http://www.meti.go.jp/press/2016/01/20170131002/20170131002-1.pdfMinistry of Economy, Trade and Industry, Camera Image Utilization Guidebook, http://www.meti.go.jp/press/2016/01/20170131002/20170131002-1.pdf 国立情報学研究所,パーソナルデータ利活用(NII Today),https://www.nii.ac.jp/userdata/results/pr_data/NII_Today/63/p8-9.pdfNational Institute of Informatics, Personal Data Utilization (NII Today), https://www.nii.ac.jp/userdata/results/pr_data/NII_Today/63/p8-9.pdf

人の画像が撮影された画像、例えば、店舗内の顧客を撮影し、マーケティングデータを取得することが行われている。
しかし、人が撮影された画像はパーソナルデータであり、その画像を用いるためには、個人情報保護法の遵守、生活者のプライバシーに配慮する必要があることから、匿名化処理を施す必要がある。例えば、カメラ画像にモザイク処理等を施し、特定の個人が識別できないように加工することが必要である。
本発明は、人を撮影して、その人の行動を分析するにあたって、特定の個人が識別できないようにしたワイヤーフレームデータを用いるようにした情報処理装置及び情報処理プログラム提供することを目的としている。
2. Description of the Related Art An image of a person, such as a customer in a store, is captured to obtain marketing data.
However, images taken of people are personal data, and in order to use such images, it is necessary to comply with the Personal Information Protection Law and consider the privacy of consumers, so it is necessary to perform anonymization processing. . For example, it is necessary to subject camera images to mosaic processing or the like to process them so that a specific individual cannot be identified.
SUMMARY OF THE INVENTION It is an object of the present invention to provide an information processing apparatus and an information processing program for photographing a person and using wireframe data in which a specific individual cannot be identified when analyzing the behavior of the person. there is

かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。なお、以下の「請求項」とあるのは、出願当初の請求項である。
請求項1の発明は、人を撮影した画像から、該人の部位をベクトル表現したワイヤーフレームデータに変換し、該人の匿名化を行うワイヤーフレーム変換手段と、前記ワイヤーフレームデータを用いて、前記人の部位の移動を表現した人移動軌跡データを生成する生成手段と、前記人移動軌跡データと予め定められた行動のパターンデータを用いて、前記人の行動を分析する分析手段と、前記分析手段による分析結果を通知する通知手段を有することを特徴とする情報処理装置である。
The gist of the present invention for achieving this object lies in the following inventions. The "claims" below are the claims as originally filed.
The invention of claim 1 converts an image of a person photographed into wireframe data in which the parts of the person are expressed in vectors, and uses a wireframe conversion means for anonymizing the person, and the wireframe data, generation means for generating human movement trajectory data representing movements of body parts of the person; analysis means for analyzing the behavior of the person using the human movement trajectory data and predetermined behavior pattern data; The information processing apparatus is characterized by having notification means for notifying analysis results by the analysis means.

請求項2の発明は、前記画像は、店舗内の人を撮影した画像であり、商品を撮影した画像から抽出された該商品の移動軌跡を表現した商品移動軌跡データを生成する第2の生成手段をさらに有し、前記行動のパターンデータは、人が商品に対して行った行動を示すパターンデータであり、前記分析手段は、前記人移動軌跡データと前記商品移動軌跡データから、前記パターンデータに該当するか否かを判断する、請求項1に記載の情報処理装置である。 According to a second aspect of the present invention, the image is a photographed image of a person in the store, and a second generation method for generating commodity movement trajectory data representing a movement trajectory of the commodity extracted from the photographed image of the commodity. means, wherein the behavior pattern data is pattern data indicating behavior of a person with respect to a product, and the analysis means analyzes the pattern data from the human movement trajectory data and the product movement trajectory data 2. The information processing apparatus according to claim 1, which determines whether or not

請求項3の発明は、前記行動のパターンデータは、グループに属する複数人が商品に対して行った行動を示すパターンデータであり、前記分析手段は、グループに属する人を推定し、該グループ内の複数人の前記人移動軌跡データと前記商品移動軌跡データから、前記パターンデータに該当するか否かを判断する、請求項2に記載の情報処理装置である。 In the invention according to claim 3, the behavior pattern data is pattern data indicating behaviors of a plurality of persons belonging to the group with respect to the product, and the analysis means estimates the persons belonging to the group, 3. The information processing apparatus according to claim 2, which determines whether or not the pattern data corresponds to the pattern data from the person movement trajectory data and the product movement trajectory data.

請求項4の発明は、人を撮影した画像から、該人の顔を認識する認識手段をさらに有し、前記生成手段は、前記認識手段による認識結果を用いて、同一人物の人移動軌跡データを生成する、請求項1に記載の情報処理装置である。 The invention according to claim 4 further comprises recognition means for recognizing a person's face from a photographed image of the person, and the generation means uses the recognition result of the recognition means to generate human movement trajectory data for the same person. 2. The information processing apparatus according to claim 1, which generates a .

請求項5の発明は、前記認識手段による認識結果は、前記生成手段による人移動軌跡データの生成のみに用い、前記認識手段による認識結果を、前記人が店舗を退出した場合に削除する、請求項4に記載の情報処理装置である。 In the invention according to claim 5, the recognition result by the recognition means is used only for the generation of the human movement trajectory data by the generation means, and the recognition result by the recognition means is deleted when the person leaves the store. 5. The information processing apparatus according to item 4.

請求項6の発明は、画像を撮影する撮影手段と、前記撮影手段によって撮影された画像から、人の部位をベクトル表現したワイヤーフレームデータに変換する変換手段と、前記撮影手段によって撮影された画像の代わりに、前記変換手段によって変換されたワイヤーフレームデータを出力する出力手段を有することを特徴とする画像撮影装置である。 According to a sixth aspect of the present invention, there is provided a photographing means for photographing an image, a conversion means for converting the image photographed by the photographing means into wire frame data expressing a human part as a vector, and an image photographed by the photographing means. and output means for outputting the wire frame data converted by the conversion means.

請求項7の発明は、コンピュータを、人を撮影した画像から、該人の部位をベクトル表現したワイヤーフレームデータに変換し、該人の匿名化を行うワイヤーフレーム変換手段と、前記ワイヤーフレームデータを用いて、前記人の部位の移動を表現した人移動軌跡データを生成する生成手段と、前記人移動軌跡データと予め定められた行動のパターンデータを用いて、前記人の行動を分析する分析手段と、前記分析手段による分析結果を通知する通知手段として機能させることを特徴とする情報処理プログラムである。 The invention of claim 7 comprises a computer that converts a photographed image of a person into wireframe data that expresses parts of the person in vectors, and anonymizes the person. generating means for generating human movement trajectory data expressing movement of parts of said person using said human movement trajectory data; and analysis means for analyzing said person's behavior using said human movement trajectory data and predetermined behavior pattern data. and an information processing program characterized by functioning as notification means for notifying analysis results by the analysis means.

請求項8の発明は、画像を撮影する撮影手段を有するコンピュータを、前記撮影手段によって撮影された画像から、人の部位をベクトル表現したワイヤーフレームデータに変換する変換手段と、前記撮影手段によって撮影された画像の代わりに、前記変換手段によって変換されたワイヤーフレームデータを出力する出力手段として機能させることを特徴とする画像撮影プログラムである。 According to an eighth aspect of the invention, a computer having a photographing means for photographing an image is provided with conversion means for converting an image photographed by the photographing means into wire frame data in which human parts are vector-expressed, and photographing by the photographing means. The image capturing program functions as an output means for outputting the wire frame data converted by the conversion means instead of the converted image.

請求項1の情報処理装置によれば、人を撮影して、その人の行動を分析するにあたって、特定の個人が識別できないようにしたワイヤーフレームデータを用いることができる。 According to the information processing apparatus of claim 1, in photographing a person and analyzing the behavior of the person, it is possible to use wire frame data in which a specific individual cannot be identified.

請求項2の情報処理装置によれば、店舗内の人を撮影して、その人が商品に対して行った行動を分析することができる。 According to the information processing apparatus of claim 2, it is possible to photograph a person in the store and analyze the behavior of the person with respect to the product.

請求項3の情報処理装置によれば、グループに属する複数人が商品に対して行った行動を分析することができる。 According to the information processing apparatus of claim 3, it is possible to analyze actions taken by a plurality of people belonging to a group with respect to a product.

請求項4の情報処理装置によれば、顔認識を用いない場合に比べて、より正確な人移動軌跡データを生成することができる。 According to the information processing apparatus of claim 4, more accurate human movement trajectory data can be generated than when face recognition is not used.

請求項5の情報処理装置によれば、顔認識結果は、人移動軌跡データの生成以外には用いないようにすることができる。 According to the information processing apparatus of claim 5, the face recognition result can be used only for the generation of human movement trajectory data.

請求項6の画像撮影装置によれば、画像ではなく、特定の個人が識別できないようにしたワイヤーフレームデータを出力することができる。 According to the image capturing apparatus of claim 6, it is possible to output wire-frame data in which a specific individual cannot be identified, instead of an image.

請求項7の情報処理プログラムによれば、人を撮影して、その人の行動を分析するにあたって、特定の個人が識別できないようにしたワイヤーフレームデータを用いることができる。 According to the information processing program of claim 7, in photographing a person and analyzing the behavior of the person, wire frame data in which a specific individual cannot be identified can be used.

請求項8の画像撮影プログラムによれば、画像ではなく、特定の個人が識別できないようにしたワイヤーフレームデータを出力することができる。 According to the image capturing program of claim 8, it is possible to output wire frame data in which a specific individual cannot be identified, instead of an image.

第1の実施の形態の構成例(1)についての概念的なモジュール構成図である。2 is a conceptual module configuration diagram of configuration example (1) of the first embodiment; FIG. 第1の実施の形態の構成例(2)についての概念的なモジュール構成図である。FIG. 4 is a conceptual module configuration diagram of configuration example (2) of the first embodiment; 第1の実施の形態の構成例(3)についての概念的なモジュール構成図である。FIG. 11 is a conceptual module configuration diagram of configuration example (3) of the first embodiment; 本実施の形態の構成を店舗内に設置した場合の例を示す説明図である。It is explanatory drawing which shows the example at the time of installing the structure of this Embodiment in a store. 本実施の形態のモデルの構成例を示す説明図である。FIG. 3 is an explanatory diagram showing a configuration example of a model according to the embodiment; 第1の実施の形態による処理例を示すフローチャートである。4 is a flow chart showing an example of processing according to the first embodiment; 人部位移動軌跡テーブルのデータ構造例を示す説明図である。FIG. 4 is an explanatory diagram showing an example data structure of a human part movement trajectory table; 第1の実施の形態による処理例を示すフローチャートである。4 is a flow chart showing an example of processing according to the first embodiment; 商品移動軌跡テーブルのデータ構造例を示す説明図である。FIG. 9 is an explanatory diagram showing an example data structure of a product movement trajectory table; 第1の実施の形態による処理例を示すフローチャートである。4 is a flow chart showing an example of processing according to the first embodiment; グループを推定する処理例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of processing for estimating a group; 通知のユーザーインタフェース例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of a notification user interface; 第2の実施の形態の構成例についての概念的なモジュール構成図である。FIG. 7 is a conceptual module configuration diagram of a configuration example of a second embodiment; 第2の実施の形態による処理例を示すフローチャートである。9 is a flow chart showing an example of processing according to the second embodiment; 顔移動軌跡テーブルのデータ構造例を示す説明図である。FIG. 9 is an explanatory diagram showing an example data structure of a face movement trajectory table; 第2の実施の形態による処理例を示すフローチャートである。9 is a flow chart showing an example of processing according to the second embodiment; 本実施の形態を実現するコンピュータのハードウェア構成例を示すブロック図である。1 is a block diagram showing a hardware configuration example of a computer that implements the embodiment; FIG.

以下、図面に基づき本発明を実現するにあたっての好適な各種の実施の形態の例を説明する。
<第1の実施の形態>
図1は、第1の実施の形態の構成例(1)についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(コンピュータ・プログラム)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、それらのモジュールとして機能させるためのコンピュータ・プログラム(コンピュータにそれぞれの手順を実行させるためのプログラム、コンピュータをそれぞれの手段として機能させるためのプログラム、コンピュータにそれぞれの機能を実現させるためのプログラム)、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するという意味である。また、モジュールは機能に一対一に対応していてもよいが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(データの授受、指示、データ間の参照関係、ログイン等)の場合にも用いる。「予め定められた」とは、対象としている処理の前に定まっていることをいい、本実施の形態による処理が始まる前はもちろんのこと、本実施の形態による処理が始まった後であっても、対象としている処理の前であれば、そのときの状況・状態にしたがって、又はそれまでの状況・状態にしたがって定まることの意を含めて用いる。「予め定められた値」が複数ある場合は、それぞれ異なった値であってもよいし、2以上の値(もちろんのことながら、全ての値も含む)が同じであってもよい。また、「Aである場合、Bをする」という記載は、「Aであるか否かを判断し、Aであると判断した場合はBをする」の意味で用いる。ただし、Aであるか否かの判断が不要である場合を除く。また、「A、B、C」等のように事物を列挙した場合は、断りがない限り例示列挙であり、その1つのみを選んでいる場合(例えば、Aのみ)を含む。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(一対一対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。もちろんのことながら、「システム」には、人為的な取り決めである社会的な「仕組み」(社会システム)にすぎないものは含まない。
また、各モジュールによる処理毎に又はモジュール内で複数の処理を行う場合はその処理毎に、対象となる情報を記憶装置から読み込み、その処理を行った後に、処理結果を記憶装置に書き出すものである。したがって、処理前の記憶装置からの読み込み、処理後の記憶装置への書き出しについては、説明を省略する場合がある。なお、ここでの記憶装置としては、ハードディスクドライブ、RAM(Random Access Memoryの略)、外部記憶媒体、通信回線を介した記憶装置、CPU(Central Processing Unitの略)内のレジスタ等を含んでいてもよい。
Various preferred embodiments for realizing the present invention will be described below with reference to the drawings.
<First Embodiment>
FIG. 1 shows a conceptual module configuration diagram for configuration example (1) of the first embodiment.
A module generally refers to a component such as software (computer program) or hardware that can be logically separated. Therefore, modules in this embodiment refer not only to modules in a computer program, but also to modules in a hardware configuration. Therefore, the present embodiment provides a computer program for functioning as those modules (a program for causing the computer to execute each procedure, a program for causing the computer to function as each means, a program for causing the computer to function as each function). It also serves as an explanation of the program, system and method for realizing However, for the convenience of explanation, the terms "stored", "stored", and equivalent terms are used, but when the embodiment is a computer program, these terms are stored in a storage device or stored in a storage device. It means to control to store in the device. Also, modules may correspond to functions one-to-one. may consist of multiple programs. Also, multiple modules may be executed by one computer, and one module may be executed by multiple computers by computers in a distributed or parallel environment. Note that one module may include other modules. Further, hereinafter, "connection" is used not only for physical connection but also for logical connection (data transfer, instruction, reference relationship between data, login, etc.). The term "predetermined" means that it is determined before the target process, and not only before the process according to the present embodiment starts, but also after the process according to the present embodiment starts. Also, if it is before the target process, it is used including the meaning that it is determined according to the situation/state at that time or according to the situation/state up to that time. When there are a plurality of "predetermined values", they may be different values, or two or more values (including, of course, all values) may be the same. Also, the description "if A, do B" is used in the sense of "judge whether it is A, and if it is judged to be A, do B". However, this excludes the case where it is not necessary to judge whether or not it is A. In addition, when things are listed like "A, B, C", etc., unless otherwise specified, it is an exemplary list, and includes cases where only one of them is selected (for example, only A).
In addition, a system or device is configured by connecting a plurality of computers, hardware, devices, etc. by communication means such as a network (including one-to-one correspondence communication connection), or a single computer, hardware, device The case where it is realized by etc. is also included. The terms "apparatus" and "system" are used interchangeably. Of course, "system" does not include what is merely a social "mechanism" (social system) that is an artificial arrangement.
In addition, for each process performed by each module or for each process when multiple processes are performed within a module, the target information is read from the storage device, and after the processing is performed, the processing result is written to the storage device. be. Therefore, the description of reading from the storage device before processing and writing to the storage device after processing may be omitted. The storage device here includes a hard disk drive, a RAM (abbreviation for Random Access Memory), an external storage medium, a storage device via a communication line, a register in a CPU (abbreviation for Central Processing Unit), and the like. good too.

第1の実施の形態である情報処理装置100、撮影装置150は、人を撮影して、その人の行動を分析する機能を有している。
本実施の形態では、例えば、人の動作のワイヤーフレームモデルを対象とした複数カメラによる匿名化マーケティング行動検出を行う。具体例として、小売店(スーパーマーケット、コンビニエンスストア等)の店舗に複数のカメラを設置し、そのカメラから、人体の3次元ワイヤーフレームを取得することにより、匿名化の行動分析を行う。さらに、商品の移動軌跡と組み合わせることによって、棚から一度手にとった商品を棚にすぐ返す行動の軌跡、および、多数の人の候補から物理的距離の近い数人を同一グループとしてグループ化し、そのグループがレジスタで会計をするまでの軌跡を、マーケティングデータとして提供する。ここでグループとして、例えば、家族、友人、恋人等が該当する。
なお、小売店の店舗に限らず、カメラに撮影された人の匿名化を行った上で、行動の分析を行う場合に適用できる。例えば、スポーツ用施設(例えば、体育館、サッカー場、野球場等)に、同様の方法で複数カメラを設置し、観客の行動を分析することができるようにしてもよい。以下、主な例示として、小売店の店舗に適用する場合を用いて説明する。
The information processing apparatus 100 and the photographing apparatus 150 according to the first embodiment have a function of photographing a person and analyzing the behavior of the person.
In the present embodiment, for example, anonymized marketing behavior detection is performed using a plurality of cameras targeting a wireframe model of human behavior. As a specific example, a plurality of cameras are installed in retail stores (supermarkets, convenience stores, etc.), and anonymized behavior analysis is performed by acquiring 3D wire frames of the human body from the cameras. Furthermore, by combining with the movement trajectory of the product, the trajectory of the action of picking up the product from the shelf and immediately returning it to the shelf, and a few people who are physically close to a large number of candidates are grouped as the same group, The trajectory of the group up to the checkout at the register is provided as marketing data. Here, for example, family members, friends, lovers, etc. correspond to groups.
It should be noted that this method can be applied not only to retail stores, but also to the case of analyzing behavior after anonymizing the person photographed by the camera. For example, sports facilities (eg, gymnasiums, soccer fields, baseball fields, etc.) may be equipped with multiple cameras in a similar manner so that spectator behavior can be analyzed. In the following, as a main example, the case of application to a retail store will be described.

情報処理装置100と撮影装置150は、通信回線を介して接続されている。通信回線は、無線、有線、これらの組み合わせであってもよく、例えば、通信インフラとしてのインターネット、イントラネット等であってもよい。また、情報処理装置100による機能は、クラウドサービスとして実現してもよい。図2で説明するカメラ群155と情報処理装置200との通信回線、図3で説明するカメラ群355と情報処理装置100との通信回線、図13で説明する撮影装置1350と情報処理装置1300との通信回線、情報処理装置200、情報処理装置1300の解釈については同様である。
撮影装置150は、情報処理装置100に対して、ワイヤーフレームモジュール165による処理結果であるワイヤーフレームデータ又は人体の部位の移動軌跡データ(以下、人部位移動軌跡データともいう)、商品特定モジュール170による処理結果である商品の移動軌跡データ(以下、商品移動軌跡データともいう)を送信する。
The information processing device 100 and the imaging device 150 are connected via a communication line. The communication line may be wireless, wired, or a combination thereof, and may be, for example, the Internet, an intranet, etc. as a communication infrastructure. Also, the functions of the information processing apparatus 100 may be implemented as a cloud service. 2, a communication line between the camera group 355 and the information processing apparatus 100 described in FIG. 3, and a photographing apparatus 1350 and the information processing apparatus 1300 described in FIG. The communication line, the information processing device 200, and the information processing device 1300 are the same.
The photographing device 150 sends wireframe data or human body part movement trajectory data (hereinafter also referred to as human part movement trajectory data), which is the result of processing by the wireframe module 165 , to the information processing device 100 . The product movement trajectory data (hereinafter also referred to as product movement trajectory data), which is the processing result, is transmitted.

撮影装置150は、図1の例に示すように、カメラ群155、ワイヤーフレームモジュール165、商品特定モジュール170を有しており、情報処理装置100と接続されている。
カメラ群155は、カメラ160A、カメラ160B等を有している。カメラ群155は、複数のカメラ160を有している。
カメラ160(カメラ160A、カメラ160B等)は、人を撮影する。一般的には、動画であるが、予め定められた間隔で撮影した静止画(複数の静止画)であってもよい。カメラ160は施設に設置されている。例えば、小売店の店舗に設置されている場合は、店舗内の人を撮影することになる。カメラ160の具体例として、市販されている単眼カメラ、全天球カメラ(360°カメラ、VRカメラ、全方位カメラともいわれる)等があり、また、既に設置されている既存の防犯カメラ、監視カメラ等をそのまま流用してもよい。
The photographing device 150 has a camera group 155, a wire frame module 165, and a product identification module 170, and is connected to the information processing device 100, as shown in the example of FIG.
The camera group 155 has a camera 160A, a camera 160B, and the like. Camera group 155 has a plurality of cameras 160 .
Camera 160 (camera 160A, camera 160B, etc.) takes a picture of a person. Generally, it is a moving image, but it may be a still image (a plurality of still images) captured at predetermined intervals. A camera 160 is installed in the facility. For example, if it is installed in a retail store, it will photograph people in the store. Specific examples of the camera 160 include commercially available monocular cameras, omnidirectional cameras (also called 360° cameras, VR cameras, and omnidirectional cameras). etc. may be used as they are.

ワイヤーフレームモジュール165は、人を撮影した画像(カメラ群155が撮影した画像)から、その人の部位をベクトル表現したワイヤーフレームデータに変換し、その人の匿名化を行う。人の部位としては、関節間の部分が該当し、例えば、頭部、首、肩、胴体、腕(肩から肘までの部分、肘から手までの部分)、手、足(胴体から膝までの部分、膝からくるぶしまでの部分、くるぶしから先の部分)等がある。ワイヤーフレームデータの生成方法として、既に知られている技術を用いればよい。例えば、人体の関節(足、足首、膝、股関節、肘、手首、首等)を検出し、その関節間を結ぶ線をワイヤーフレームとして抽出すればよい。したがって、画像そのものを用いている場合と比べて、ワイヤーフレームデータを用いる場合は、特定の個人を識別することができない。つまり、従来のマスク処理等を一切することなく、画像でなく画像に含まれる人体の動きのみを取得することにより、匿名化の度合いを高度にしている。
具体的には、ワイヤーフレームモジュール165は、既存の方法を用いて(例えば、非特許文献2に記載された技術等)、画像内の人の各部位の店舗内における3次元の位置(座標)を取得する。
The wireframe module 165 converts an image of a person (an image taken by the camera group 155) into wireframe data representing the parts of the person in vector form, and anonymizes the person. Human parts include parts between joints, such as the head, neck, shoulders, torso, arms (the part from the shoulder to the elbow, the part from the elbow to the hand), hands, and feet (the part from the torso to the knee). part, the part from the knee to the ankle, the part from the ankle to the tip), etc. As a method for generating wireframe data, an already known technique may be used. For example, the joints of the human body (legs, ankles, knees, hip joints, elbows, wrists, necks, etc.) may be detected, and lines connecting the joints may be extracted as wire frames. Therefore, when using wire frame data, it is not possible to identify a specific individual compared to when using the image itself. In other words, the degree of anonymization is enhanced by acquiring only the motion of the human body included in the image, not the image, without performing any conventional mask processing or the like.
Specifically, the wireframe module 165 uses an existing method (for example, the technology described in Non-Patent Document 2) to determine the three-dimensional position (coordinates) of each part of the person in the image within the store. to get

さらに、ワイヤーフレームモジュール165は、人の部位である「顔の部分」は、ワイヤーフレームデータに変換せず(顔部分のワイヤーフレームデータがない)、又は、簡略化したワイヤーフレームデータに変換するようにしてもよい。目、鼻、口等の輪郭を再現できるような詳細なワイヤーフレームデータでは、特定の個人を識別できる可能性があるからである。なお、「簡略化したワイヤーフレームデータ」とは、特定の個人が識別できない程度であればよく、例えば、顔の部位(目、鼻、口等)を、単なる線若しくは点で表現したワイヤーフレームデータとすること、又は、顔の部位の一部のみをワイヤーフレームデータとすること等がある。具体的には、「顔の部位の一部のみ」として、口のみをワイヤーフレームデータに変換し、他の目等の部位はワイヤーフレームデータに変換しないようにしてもよい。この場合、会話をしているか否かを、口のワイヤーフレームデータから識別することはできるが、特定の個人を識別することはできない。
そして、ワイヤーフレームモジュール165は、ワイヤーフレームデータを用いて、人の部位の移動を表現した人移動軌跡データを生成する。例えば、後述する人部位移動軌跡テーブル700を生成する。
Furthermore, the wireframe module 165 does not convert the “face portion”, which is a human part, into wireframe data (there is no wireframe data of the face portion), or converts it into simplified wireframe data. can be This is because detailed wireframe data that can reproduce the contours of the eyes, nose, mouth, etc., may be able to identify a specific individual. It should be noted that "simplified wireframe data" may be to the extent that a specific individual cannot be identified. Alternatively, only a portion of the face may be wireframe data. Specifically, "only a part of the face" may be set so that only the mouth is converted into wire-frame data, and other parts such as the eyes are not converted into wire-frame data. In this case, it is possible to identify whether or not the person is having a conversation from the mouth wireframe data, but it is not possible to identify a specific individual.
Then, the wireframe module 165 uses the wireframe data to generate human movement trajectory data that expresses the movements of human parts. For example, a human part movement trajectory table 700, which will be described later, is generated.

商品特定モジュール170は、商品を撮影した画像から抽出されたその商品の移動軌跡を表現した商品移動軌跡データを生成する。例えば、後述する商品移動軌跡テーブル900を生成する。
なお、ワイヤーフレームモジュール165、商品特定モジュール170は、機械学習で得たアルゴリズムによって識別するようにしてもよい。
具体的には、商品特定モジュール170は、既存の方法を用いて(例えば、非特許文献3に記載された技術等)、画像内の商品のラベル等を認識して特定し、その商品の店舗内における3次元の位置(座標)を取得する。
The product identification module 170 generates product movement trajectory data expressing the movement trajectory of the product extracted from the photographed image of the product. For example, a commodity movement trajectory table 900, which will be described later, is generated.
The wireframe module 165 and product identification module 170 may be identified by an algorithm obtained by machine learning.
Specifically, the product identification module 170 uses an existing method (for example, the technology described in Non-Patent Document 3) to recognize and identify the label of the product in the image, and identify the store of the product. Get the 3D position (coordinates) in the .

情報処理装置100は、図1の例に示すように、受付モジュール105、人体部位移動軌跡DB(DataBaseの略)110、商品移動軌跡DB115、行動分析モジュール120、通知モジュール130を有しており、撮影装置150と接続されている。
受付モジュール105は、人体部位移動軌跡DB110、商品移動軌跡DB115と接続されている。受付モジュール105は、撮影装置150から人移動軌跡データ、商品移動軌跡データを受信する。そして、人移動軌跡データを人体部位移動軌跡DB110に記憶させ、商品移動軌跡データを商品移動軌跡DB115に記憶させる。
As shown in the example of FIG. 1, the information processing apparatus 100 includes a reception module 105, a human body part movement trajectory DB (abbreviation of DataBase) 110, a product movement trajectory DB 115, a behavior analysis module 120, and a notification module 130. It is connected to the imaging device 150 .
The reception module 105 is connected to the human body part movement trajectory DB 110 and the product movement trajectory DB 115 . The receiving module 105 receives human movement trajectory data and product movement trajectory data from the photographing device 150 . Then, the human movement trajectory data is stored in the human body part movement trajectory DB 110 , and the product movement trajectory data is stored in the product movement trajectory DB 115 .

人体部位移動軌跡DB110は、受付モジュール105、行動分析モジュール120と接続されている。人体部位移動軌跡DB110は、人移動軌跡データを記憶している。
商品移動軌跡DB115は、受付モジュール105、行動分析モジュール120と接続されている。商品移動軌跡DB115は、商品移動軌跡データを記憶している。
Human body part movement trajectory DB 110 is connected to reception module 105 and behavior analysis module 120 . The human body part movement trajectory DB 110 stores human movement trajectory data.
The product movement trajectory DB 115 is connected with the reception module 105 and the behavior analysis module 120 . The product movement trajectory DB 115 stores product movement trajectory data.

行動分析モジュール120は、人位置追跡モジュール122、グループ推定モジュール124、単一マーケティング行動検出モジュール126、グループマーケティング行動検出モジュール128を有しており、人体部位移動軌跡DB110、商品移動軌跡DB115、通知モジュール130と接続されている。行動分析モジュール120は、画像に写っている人(複数人であってもよい)の行動を分析する。店舗内の画像である場合は、顧客のマーケティング行動を分析することになる。 The behavior analysis module 120 includes a person location tracking module 122, a group estimation module 124, a single marketing behavior detection module 126, a group marketing behavior detection module 128, a human body part movement trajectory DB 110, a product movement trajectory DB 115, and a notification module. 130. The behavior analysis module 120 analyzes the behavior of the person(s) in the image. If it's an in-store image, you're analyzing the customer's marketing behavior.

人位置追跡モジュール122は、人体部位移動軌跡DB110内の人移動軌跡データと、商品移動軌跡DB115内の商品移動軌跡データを統合して、対象となっている人がどのような商品を手に取ったか、逆に、どのような商品を棚に戻したか等を把握する。例えば、撮影日時(年、月、日、時、分、秒、秒以下、又はこれらの組み合わせであってもよい)、その撮影日時における人の位置と商品の位置が重複している場合は、その人がその商品を手に取ったこととして把握し、商品を手に取った後に、その商品が棚の位置に戻った場合は商品を棚に戻したこととして把握すればよい。
グループ推定モジュール124は、グループに属する人を推定する。例えば、(1)人と人との間の距離を算出し、予め定められた距離内である期間が予め定められた期間以上である場合は、その人達をグループと判断してもよいし、(2)人と人との間の距離を算出し、予め定められた距離内にいる人達の口が交互に開いている場合(つまり、会話している場合)は、その人達をグループと判断してもよいし、(3)一方の人から他方の人へ、商品が渡された場合は、その人達をグループと判断してもよい。
The human position tracking module 122 integrates the human movement trajectory data in the human body part movement trajectory DB 110 and the product movement trajectory data in the product movement trajectory DB 115 to determine what kind of product the target person picks up. or conversely, what kind of merchandise was returned to the shelf. For example, if the shooting date and time (year, month, day, hour, minute, second, seconds or less, or a combination of these) overlap, the person's position and the product's position at that shooting date and time overlap, It can be grasped that the person picked up the product, and if the product returned to the position of the shelf after picking up the product, it should be grasped that the product was returned to the shelf.
Group inference module 124 infers who belongs to a group. For example, (1) the distance between people is calculated, and if the period of time within the predetermined distance is longer than or equal to the predetermined period, the people may be determined to belong to a group; (2) Calculate the distance between people, and if the mouths of people within a predetermined distance are alternately open (that is, if they are talking), determine that people as a group. and (3) when a product is handed over from one person to another person, those people may be judged to belong to the group.

単一マーケティング行動検出モジュール126は、人移動軌跡データと予め定められた行動のパターンデータを用いて、人の行動を分析する。例えば、行動のパターンデータとして、人(単一の人)が商品に対して行った行動を示すパターンデータを用いてもよい。この場合、単一マーケティング行動検出モジュール126は、人移動軌跡データと商品移動軌跡データから、そのパターンデータに該当するか否かを判断する。パターンデータは、試験者が予め定められた行動を行って、その行動の軌跡をパターンデータとしてもよいし、顧客がとった行動を管理者が確認し、予め定められた行動を行った場合に、その行動の軌跡をパターンデータとして作成してもよい。予め定められた行動として、例えば、「棚から一度手にとった商品を棚にすぐ返す」、「棚から2つの商品を交互に手に取る動作を繰り返し一つの商品をかごに入れる」、「同一の商品の中からラベルを見比べて一つの商品に決め、かごに入れる」等がある。そして、これらのパターンデータに一致した行動の回数を計数してもよい。つまり、分析結果として、例えば、「棚から一度手にとった商品を棚にすぐ返す」ことが何回発生した等となる。商品を特定(商品名を抽出)して、計数してもよい。例えば、「商品Aについて、棚から一度手にとったが棚にすぐ返す」ことが何回発生した等となる。 The single marketing behavior detection module 126 uses the human trajectory data and predetermined behavior pattern data to analyze the behavior of the person. For example, pattern data indicating the behavior of a person (single person) with respect to a product may be used as the behavior pattern data. In this case, the single marketing action detection module 126 determines whether the pattern data corresponds to the pattern data from the human movement trajectory data and the product movement trajectory data. The pattern data may be obtained by performing a predetermined action by the tester and using the trajectory of the action as the pattern data. , the trajectory of the action may be created as pattern data. Predetermined actions include, for example, ``returning an item picked up once from the shelf to the shelf immediately'', ``repeating the action of picking up two items alternately from the shelf and putting one item in the basket'', and `` Compare the labels among the same products, decide on one product, and put it in the basket. Then, the number of actions that match these pattern data may be counted. In other words, as an analysis result, for example, how many times "a product once picked up from the shelf is immediately returned to the shelf" occurs. The product may be specified (extracted product name) and counted. For example, the number of times "the product A was once picked up from the shelf and immediately returned to the shelf" has occurred.

グループマーケティング行動検出モジュール128は、グループ推定モジュール124の処理結果(グループに属する人)を用いて、グループ内の複数人の人移動軌跡データと商品移動軌跡データから、行動のパターンデータに該当するか否かを判断する。ここでの行動のパターンデータは、グループに属する複数人が商品に対して行った行動を示すパターンデータである。パターンデータは、複数の試験者がグループとして予め定められた行動を行って、その複数人の行動の軌跡をパターンデータとしてもよいし、グループである複数の顧客がとった行動を管理者が確認し、予め定められた行動を行った場合に、その行動の軌跡をパターンデータとして作成してもよい。予め定められた行動として、例えば、「3人で2つの商品を次々に手に取り一つの商品をかごに入れる」、「1人が商品を手に取ったがもう1人の方を向き棚に返す」等がある。そして、これらのパターンデータに一致した行動の回数を計数してもよい。つまり、分析結果として、例えば、「3人で2つの商品を次々に手に取り一つの商品をかごに入れる」ことが何回発生した等となる。商品を特定(商品を抽出)して、計数してもよい。例えば、「商品Aと商品Bについて、3人でその2つの商品A、商品Bを次々に手に取り一つの商品Bをかごに入れる」ことが何回発生した等となる。 The group marketing behavior detection module 128 uses the processing result (people belonging to the group) of the group estimation module 124 to determine whether behavior pattern data corresponds to behavior pattern data from the person movement trajectory data and product movement trajectory data of a plurality of people in the group. determine whether or not The action pattern data here is pattern data indicating actions taken by a plurality of people belonging to a group with respect to a product. The pattern data may be obtained by a plurality of testers performing predetermined actions as a group, and the trajectory of the actions of the plurality of testers may be used as pattern data, or the actions taken by a plurality of customers in the group may be confirmed by the administrator. However, when a predetermined action is performed, the trajectory of the action may be created as pattern data. Predetermined actions include, for example, "three people pick up two items one after another and put one item in the basket", "one person picks up the item but the other person faces the shelf". return to”, etc. Then, the number of actions that match these pattern data may be counted. In other words, as an analysis result, for example, how many times "three people pick up two products one after another and put one product in the basket" occurs. The product may be specified (extracted product) and counted. For example, how many times have three people picked up two products A and B one after another and put one product B in the basket?

通知モジュール130は、行動分析モジュール120と接続されている。通知モジュール130は、行動分析モジュール120による分析結果をユーザー(例えば、管理者等)に通知する。例えば、単一マーケティング行動検出モジュール126による処理結果、グループマーケティング行動検出モジュール128による処理結果を、管理者等の端末に出力する。 Notification module 130 is connected to behavior analysis module 120 . The notification module 130 notifies the user (for example, administrator, etc.) of the analysis result by the behavior analysis module 120 . For example, the processing result by the single marketing behavior detection module 126 and the processing result by the group marketing behavior detection module 128 are output to a terminal such as a manager.

図2は、第1の実施の形態の構成例(2)についての概念的なモジュール構成図である。
なお、図1の例に示した部位と同種の部位には同一符号を付し重複した説明を省略する(以下、同様)。
カメラ群155と情報処理装置200とは通信回線を介して接続されている。なお、個別のカメラ160と情報処理装置200がそれぞれ通信回線を介して接続されていてもよい。
カメラ群155は、従来のカメラ(カメラ160)を複数を有していればよい。
情報処理装置200は、受付モジュール105、ワイヤーフレームモジュール265、商品特定モジュール270、人体部位移動軌跡DB110、商品移動軌跡DB115、行動分析モジュール120、通知モジュール130を有しており、カメラ群155と接続されている。
つまり、情報処理装置200は、図1に例示した情報処理装置100に、ワイヤーフレームモジュール165に相当するワイヤーフレームモジュール265と商品特定モジュール170に相当する商品特定モジュール270を付加したものである。
FIG. 2 is a conceptual module configuration diagram of configuration example (2) of the first embodiment.
The parts of the same kind as those shown in the example of FIG. 1 are denoted by the same reference numerals, and redundant explanations are omitted (the same applies hereinafter).
The camera group 155 and the information processing device 200 are connected via a communication line. Note that the camera 160 and the information processing device 200 may be connected individually via a communication line.
The camera group 155 may have a plurality of conventional cameras (cameras 160).
The information processing device 200 has a reception module 105 , a wireframe module 265 , a product identification module 270 , a human body part movement trajectory DB 110 , a product movement trajectory DB 115 , a behavior analysis module 120 , and a notification module 130 , and is connected to the camera group 155 . It is
That is, the information processing apparatus 200 is obtained by adding a wire frame module 265 corresponding to the wire frame module 165 and a product identification module 270 corresponding to the product identification module 170 to the information processing apparatus 100 illustrated in FIG.

受付モジュール105は、ワイヤーフレームモジュール265、商品特定モジュール270と接続されている。受付モジュール105は、カメラ群155から、カメラ160が撮影した画像を受信する。
ワイヤーフレームモジュール265は、受付モジュール105、人体部位移動軌跡DB110と接続されている。ワイヤーフレームモジュール265は、受付モジュール105が受信した画像に対して、ワイヤーフレームモジュール165と同等の処理を行う。
商品特定モジュール270は、受付モジュール105、商品移動軌跡DB115と接続されている。商品特定モジュール270は、受付モジュール105が受信した画像に対して、商品特定モジュール170と同等の処理を行う。
人体部位移動軌跡DB110は、ワイヤーフレームモジュール265、行動分析モジュール120と接続されている。
商品移動軌跡DB115は、商品特定モジュール270、行動分析モジュール120と接続されている。
The reception module 105 is connected to the wireframe module 265 and the product identification module 270 . Receiving module 105 receives images captured by camera 160 from camera group 155 .
The wireframe module 265 is connected to the reception module 105 and the human body part movement trajectory DB 110 . The wireframe module 265 performs processing equivalent to that of the wireframe module 165 on the image received by the reception module 105 .
The product identification module 270 is connected to the reception module 105 and the product movement trajectory DB 115 . The product identification module 270 performs processing equivalent to that of the product identification module 170 on the image received by the reception module 105 .
The human body part movement trajectory DB 110 is connected to the wireframe module 265 and the behavior analysis module 120 .
The product movement trajectory DB 115 is connected with the product identification module 270 and the behavior analysis module 120 .

図3は、第1の実施の形態の構成例(3)についての概念的なモジュール構成図である。
カメラ群355と情報処理装置100とは通信回線を介して接続されている。なお、個別のカメラ360と情報処理装置100がそれぞれ通信回線を介して接続されていてもよい。
情報処理装置100は、受付モジュール105、人体部位移動軌跡DB110、商品移動軌跡DB115、行動分析モジュール120、通知モジュール130を有しており、カメラ群355と接続されている。
FIG. 3 is a conceptual module configuration diagram for configuration example (3) of the first embodiment.
The camera group 355 and the information processing apparatus 100 are connected via a communication line. Note that the camera 360 and the information processing apparatus 100 may be connected individually via a communication line.
The information processing apparatus 100 has a reception module 105 , a human body part movement trajectory DB 110 , a product movement trajectory DB 115 , a behavior analysis module 120 and a notification module 130 , and is connected to a camera group 355 .

カメラ群355は、カメラ360A、カメラ360B等を有しており、情報処理装置100と接続されている。
各カメラ360は、撮像モジュール350、ワイヤーフレームモジュール165、商品特定モジュール170を有している。
撮像モジュール350は、画像を撮影する撮影手段としての一例であるカメラである。
ワイヤーフレームモジュール165は、撮像モジュール350によって撮影された画像から、人の部位をベクトル表現したワイヤーフレームデータに変換する。そして、撮像モジュール350によって撮影された画像の代わりに、そのワイヤーフレームデータを受付モジュール105に送信する。
商品特定モジュール170は、撮像モジュール350によって撮影された画像から商品を抽出し、その商品の移動軌跡を表現した商品移動軌跡データを生成し、その商品移動軌跡データを受付モジュール105に送信する。
Camera group 355 includes camera 360A, camera 360B, etc., and is connected to information processing apparatus 100 .
Each camera 360 has an imaging module 350 , a wireframe module 165 and an item identification module 170 .
The imaging module 350 is a camera that is an example of imaging means for capturing an image.
The wireframe module 165 converts the image captured by the imaging module 350 into wireframe data that represents a human body part as a vector. Then, instead of the image captured by the imaging module 350 , the wireframe data is transmitted to the reception module 105 .
The product identification module 170 extracts the product from the image captured by the imaging module 350 , generates product movement trajectory data expressing the movement trajectory of the product, and transmits the product movement trajectory data to the reception module 105 .

なお、商品特定モジュール170は、カメラ360には内蔵せずに情報処理装置100内の機能としてもよいが、ワイヤーフレームモジュール165は内蔵させる。
つまり、各カメラ360は、撮像モジュール350が撮影した画像をワイヤーフレームに変換するワイヤーフレームモジュール165が内蔵されており、出力はワイヤーフレームデータのみ(さらに、商品移動軌跡データを含めてもよい)であり、画像(例えば、人が撮影されている画像等)は出力しないカメラとしてもよい。このようなカメラ360を用いることによって、特定の個人が識別できるパーソナルデータを、情報処理装置100が扱う必要がなくなる。そして、そのようなパーソナルデータの漏洩を防止することができる。
Note that the product identification module 170 may be a function within the information processing apparatus 100 instead of being built in the camera 360, but the wireframe module 165 is built in.
In other words, each camera 360 has a built-in wireframe module 165 that converts the image captured by the imaging module 350 into a wireframe, and outputs only wireframe data (further, product movement trajectory data may be included). However, it may be a camera that does not output images (for example, an image of a person being photographed). Using such a camera 360 eliminates the need for the information processing apparatus 100 to handle personal data that can identify a specific individual. Then, such leakage of personal data can be prevented.

図4は、本実施の形態の構成を店舗内に設置した場合の例を示す説明図である。
店舗400内には、商品棚410(商品棚410-1等)、レジスタ420(レジスタ420-1等)、撮影装置450(撮影装置450-1等)が設置されている。例えば、撮影装置450は、店舗400の天井、壁等に設置される。撮影装置450は、前述の撮影装置150、カメラ群155、カメラ群355に該当する。
顧客430(顧客430-1等)は、商品棚410(商品棚410-1等)から商品440(商品440-1等)を取り出し、手にとっている(ショッピングカー、買い物かご等に入れている、であってもよい)。これらの行動は、撮影装置450によって撮影され、情報処理装置100(又は情報処理装置200)に人移動軌跡データが送信される。情報処理装置100(又は情報処理装置200)は、受信した人移動軌跡データを分析し、その結果を管理者等が使用するユーザー端末490に出力する。そして、その管理者等は、その行動がとられた原因等の推定に役立てることができる。また、グループがレジスタ420で会計をするまでの軌跡を追跡し、購入の決定権を持つ人の分析、すぐかごに入れられる商品と時間をかけて議論された後にかごに入れられる商品の割合の分析等、購入前のマーケティング行動の分析を行い、商品開発に役立てることができる。
FIG. 4 is an explanatory diagram showing an example when the configuration of this embodiment is installed in a store.
In the store 400, a product shelf 410 (product shelf 410-1, etc.), a register 420 (register 420-1, etc.), and an imaging device 450 (imaging device 450-1, etc.) are installed. For example, the imaging device 450 is installed on the ceiling, wall, or the like of the store 400 . The imaging device 450 corresponds to the imaging device 150, the camera group 155, and the camera group 355 described above.
The customer 430 (customer 430-1, etc.) takes out the product 440 (product 440-1, etc.) from the product shelf 410 (product shelf 410-1, etc.) and picks it up (puts it in a shopping cart, shopping basket, etc.). may be). These actions are photographed by the photographing device 450, and human movement trajectory data is transmitted to the information processing device 100 (or the information processing device 200). The information processing device 100 (or the information processing device 200) analyzes the received human movement trajectory data and outputs the result to the user terminal 490 used by the administrator or the like. Then, the manager or the like can make use of it in estimating the cause of the action. It also tracks the group's trajectory to checkout at the register 420, analyzes who has the power to make purchase decisions, and the percentage of items that are added to the basket immediately and items that are added to the basket after lengthy discussion. It is possible to analyze marketing behavior before purchase, such as analysis, and use it for product development.

図5は、本実施の形態のモデルの構成例を示す説明図である。
本実施の形態を、概念的なモデルを用いて説明する。本実施の形態は、複数カメラによって撮影した画像を対象として、人の動作のワイヤーフレームモデル510によって匿名化を行い、そして、体の各部位のベクトル表現による動作モデル530によって動作を解析し、一方、その画像から商品移動軌跡520のデータ生成を行う。次に、商品移動軌跡520、体の各部位のベクトル表現による動作モデル530による処理結果を用いて、マーケティング行動分析540を行う。
具体的には、小売店の店舗に複数のカメラを設置し、そのカメラから、人体の3次元ワイヤーフレームを取得することにより、匿名化の行動分析を行う。さらに、商品の移動軌跡と組み合わせることによって、棚から一度手にとった商品を棚にすぐ返す行動の軌跡等、さらには、多数の人の候補から物理的距離の近い数人を同一グループとしてグループ化し、そのグループがレジスタで会計をするまでの軌跡を、マーケティングデータとして提供する。
FIG. 5 is an explanatory diagram showing a configuration example of a model according to this embodiment.
This embodiment will be described using a conceptual model. In this embodiment, images captured by a plurality of cameras are anonymized by a wireframe model 510 of human motion, and the motion is analyzed by a motion model 530 based on vector representation of each part of the body. , data of the product movement trajectory 520 is generated from the image. Next, a marketing behavior analysis 540 is performed using the product movement trajectory 520 and the results of processing by the behavior model 530 based on the vector representation of each part of the body.
Specifically, anonymized behavior analysis is performed by installing a plurality of cameras in a retail store and acquiring a three-dimensional wire frame of the human body from the cameras. Furthermore, by combining with the movement trajectory of the product, the trajectory of the action of picking up the product from the shelf and immediately returning it to the shelf. and provide the trajectory of the group up to the checkout at the register as marketing data.

図6は、第1の実施の形態(撮影装置150、カメラ360)による処理例を示すフローチャートである。
ステップS602では、店舗内を撮影する。人(顧客)が撮影されることになる。
ステップS604では、撮影した画像から人体のワイヤーフレームを生成する。
ステップS606では、体の各部位の移動軌跡を生成する。例えば、人部位移動軌跡テーブル700を生成する。
ステップS608では、その移動軌跡のデータを情報処理装置100に送信する。
FIG. 6 is a flow chart showing an example of processing by the first embodiment (image capturing device 150, camera 360).
In step S602, the inside of the store is photographed. A person (customer) is to be photographed.
In step S604, a wire frame of the human body is generated from the captured image.
In step S606, a movement trajectory for each part of the body is generated. For example, the human part movement trajectory table 700 is generated.
In step S<b>608 , data of the movement trajectory is transmitted to the information processing apparatus 100 .

図7は、人部位移動軌跡テーブル700のデータ構造例を示す説明図である。人部位移動軌跡テーブル700は、人ID欄705、部位ID欄710、店内座標x欄715、店内座標y欄720、店内座標z欄725、時刻欄730を有している。人ID欄705は、本実施の形態において、人を一意に識別するための情報(人ID:IDentificationの略)を記憶している。なお、ここでの「一意に識別する」とは、店舗内で同一人物であることを示す程度であればよく、人物名までを認識する必要はない(むしろ、パーソナルデータとなるものではない)。なお、同一人物であるか否かは、次の時刻(例えば、1秒後等)で予め定められた距離内(例えば、30cm以内等)にいる人を同一人物とすればよい。部位ID欄710は、本実施の形態において、その人の部位を一意に識別するための情報(部位ID)を記憶している。店内座標x欄715は、その部位の店内座標xを記憶している。店内座標y欄720は、その部位の店内座標yを記憶している。店内座標z欄725は、その部位の店内座標zを記憶している。時刻欄730は、その部位が撮影された時刻を記憶している。同一人物の同一部位の座標を時系列にたどることによって、移動軌跡(ベクトルデータ)を生成できる。人部位移動軌跡テーブル700内の各行は、予め定められた間隔で撮影された画像の処理結果である。なお、店内座標は、複数のカメラ160の撮影の向きと位置を予め記録しておき、複数のカメラ160からその店内の座標に変換した上で記録されたものである。 FIG. 7 is an explanatory diagram showing an example data structure of the human part movement trajectory table 700. As shown in FIG. The human part movement trajectory table 700 has a person ID column 705 , a part ID column 710 , an in-store coordinate x column 715 , an in-store coordinate y column 720 , an in-store coordinate z column 725 , and a time column 730 . The person ID column 705 stores information for uniquely identifying a person (person ID: abbreviation for IDentification) in this embodiment. It should be noted that "uniquely identify" here only needs to indicate that it is the same person in the store, and it is not necessary to recognize the person's name (rather, it does not become personal data). . Whether or not they are the same person can be determined by determining that a person who is within a predetermined distance (for example, within 30 cm) at the next time (for example, 1 second later) is the same person. In the present embodiment, the part ID column 710 stores information (part ID) for uniquely identifying the part of the person. The in-store coordinate x column 715 stores the in-store coordinate x of the part. The in-store coordinate y column 720 stores the in-store coordinate y of the part. The in-store coordinate z column 725 stores the in-store coordinate z of the part. The time column 730 stores the time when the part was photographed. A movement trajectory (vector data) can be generated by tracing the coordinates of the same part of the same person in chronological order. Each row in the human part movement trajectory table 700 is the result of processing images captured at predetermined intervals. Note that the in-store coordinates are obtained by previously recording the photographing directions and positions of the plurality of cameras 160, converting them into the in-store coordinates from the plurality of cameras 160, and then recording them.

図8は、第1の実施の形態(撮影装置150、カメラ360)による処理例を示すフローチャートである。
ステップS802では、店舗内(特に、商品棚)を撮影する。商品が撮影されることになる。
ステップS804では、撮影した画像から商品を特定する。例えば、商品に印刷されたバーコード、QRコード(登録商標)を識別してもよいし、商品に印刷された商品名等を認識してもよい。
ステップS806では、商品の移動軌跡を生成する。例えば、商品移動軌跡テーブル900を生成する。
ステップS808では、その商品の移動軌跡のデータを送信する。
FIG. 8 is a flow chart showing an example of processing by the first embodiment (imaging device 150, camera 360).
In step S802, the inside of the store (particularly, product shelves) is photographed. The product will be photographed.
In step S804, the product is identified from the photographed image. For example, a bar code or QR code (registered trademark) printed on a product may be identified, or a product name or the like printed on the product may be recognized.
In step S806, a movement trajectory of the product is generated. For example, the commodity movement trajectory table 900 is generated.
In step S808, data of the movement locus of the product is transmitted.

図9は、商品移動軌跡テーブル900のデータ構造例を示す説明図である。商品移動軌跡テーブル900は、商品ID欄905、店内座標x欄910、店内座標y欄915、店内座標z欄920、時刻欄925を有している。商品ID欄905は、本実施の形態において、商品を一意に識別するための情報(商品ID)を記憶している。店内座標x欄910は、その商品の店内座標xを記憶している。店内座標y欄915は、その商品の店内座標yを記憶している。店内座標z欄920は、その商品の店内座標zを記憶している。時刻欄925は、その商品が撮影された時刻を記憶している。同一商品の座標を時系列にたどることによって、移動軌跡(ベクトルデータ)を生成できる。商品移動軌跡テーブル900内の各行は、予め定められた間隔で撮影された画像の処理結果である。なお、店内座標は、複数のカメラ160の撮影の向きと位置を予め記録しておき、複数のカメラ160からその店内の座標に変換した上で記録されたものである。 FIG. 9 is an explanatory diagram showing an example data structure of the product movement trajectory table 900. As shown in FIG. The product movement trajectory table 900 has a product ID column 905 , an in-store coordinate x column 910 , an in-store coordinate y column 915 , an in-store coordinate z column 920 , and a time column 925 . The product ID column 905 stores information (product ID) for uniquely identifying a product in this embodiment. The in-store coordinate x column 910 stores the in-store coordinate x of the product. The in-store coordinate y column 915 stores the in-store coordinate y of the product. The in-store coordinate z column 920 stores the in-store coordinate z of the product. The time column 925 stores the time when the product was photographed. A movement trajectory (vector data) can be generated by tracing the coordinates of the same product in time series. Each row in the product movement trajectory table 900 is the result of processing images captured at predetermined intervals. Note that the in-store coordinates are obtained by previously recording the photographing directions and positions of the plurality of cameras 160, converting them into the in-store coordinates from the plurality of cameras 160, and then recording them.

図10は、第1の実施の形態(情報処理装置100、情報処理装置200)による処理例を示すフローチャートである。
ステップS1002では、人部位移動軌跡テーブル700と商品移動軌跡テーブル900を抽出する。
ステップS1004では、人部位移動軌跡テーブル700と商品移動軌跡テーブル900を照合し、人と商品の組み合わせを生成する。具体的には、同時刻(多少のズレを許容してもよい)に撮影された画像の人部位(特に手の部分)の位置(店内座標x、y、z)と商品の位置(店内座標x、y、z)が一致する(多少のズレを許容してもよい)場合に、その人がその商品を手に取ったと認識する。
FIG. 10 is a flow chart showing an example of processing according to the first embodiment (information processing device 100, information processing device 200).
In step S1002, the human part movement trajectory table 700 and the product movement trajectory table 900 are extracted.
In step S1004, the human part movement trajectory table 700 and the product movement trajectory table 900 are collated to generate combinations of people and products. Specifically, the position (in-store coordinates x, y, z) of the human part (especially the hand part) and the position of the product (in-store coordinates x, y, z) match (some deviation may be allowed), it is recognized that the person has picked up the product.

ステップS1006では、人の移動軌跡を、予め定められたパターンと照合する。パターンとしては、前述したように、「棚から一度手にとった商品を棚にすぐ返す」、「棚から2つの商品を交互に手に取る動作を繰り返し一つの商品をかごに入れる」、「同一の商品の中からラベルを見比べて一つの商品に決め、かごに入れる」等がある。つまり、分析したい行動をパターンとして登録している。
ステップS1008では、人の移動軌跡を用いて、グループを推定する。具体例について、図11を用いて後述する。
ステップS1010では、グループ内の複数人の移動軌跡を、予め定められたパターンと照合する。パターンとしては、前述したように、「3人で2つの商品を次々に手に取り一つの商品をかごに入れる」、「1人が商品を手に取ったがもう1人の方を向き棚に返す」等がある。つまり、分析したいグループ行動をパターンとして登録している。
ステップS1012では、担当者に分析結果を通知する。具体例について、図12を用いて後述する。
In step S1006, the movement trajectory of the person is compared with a predetermined pattern. As mentioned above, the patterns are ``return the product picked up once from the shelf to the shelf immediately'', ``repeatedly take two products from the shelf alternately and put one product in the basket'', and `` Compare the labels among the same products, decide on one product, and put it in the basket. In other words, behaviors to be analyzed are registered as patterns.
In step S1008, a group is estimated using the human movement trajectory. A specific example will be described later with reference to FIG.
In step S1010, the movement trajectories of multiple people in the group are compared with a predetermined pattern. As mentioned above, the patterns are as follows: ``Three people pick up two products one after another and put one product in the basket''; return to”, etc. In other words, the group behavior to be analyzed is registered as a pattern.
In step S1012, the person in charge is notified of the analysis result. A specific example will be described later with reference to FIG.

図11は、グループを推定する処理例を示す説明図である。
人位置追跡モジュール122による処理結果を用いて、グループ推定モジュール124が複数人からなるグループを判断する。
グループ推定モジュール124は、一人に対して他の人との距離が予め定められた距離以内(例えば、3メートル以内等)にいる時間が予め定められた時間(例えば、10分以上等)である場合は、同一グループとして推定する。
例えば、図11に示すように、x軸1110、y軸1120で位置を示す店舗内において、3人の顧客(人1101、人1102、人1103)がいるとする。
この3人の顧客は、ある時刻で図11(a)に示す位置にいる。つまり、人1101を中心とした範囲1130(予め定められた距離を示す範囲)内に人1102がおり、範囲1130外に人1103がいる。次の時刻には、3人の顧客は図11(b)の位置にいる。つまり、依然として、人1101を中心とした範囲1130内に人1102がおり、範囲1130外に人1103がいる。さらに、次の時刻には、3人の顧客は図11(c)の位置にいる。つまり、人1101を中心とした範囲1130内には誰もおらず、範囲1130外に人1102、人1103がいる。人1101と人1102は、予め定められた距離以上に離れたことになる。この場合、図11(a)と図11(b)の時間間隔が予め定められた時間以内であれば、人1101と人1102は同一グループであると推定する。
FIG. 11 is an explanatory diagram illustrating an example of processing for estimating groups.
Using results from the person location tracking module 122, a group estimation module 124 determines groups of people.
The group estimation module 124 determines that one person is within a predetermined distance (e.g., 3 meters, etc.) from another person for a predetermined time (e.g., 10 minutes or more, etc.). If so, they are assumed to be in the same group.
For example, as shown in FIG. 11, assume that there are three customers (person 1101, person 1102, and person 1103) in a store whose positions are indicated by an x-axis 1110 and a y-axis 1120. FIG.
These three customers are at the positions shown in FIG. 11(a) at a certain time. In other words, a person 1102 is present within a range 1130 (a range indicating a predetermined distance) centered on the person 1101 and a person 1103 is present outside the range 1130 . At the next time, the three customers are at the positions shown in FIG. 11(b). In other words, there is still a person 1102 within a range 1130 centering on the person 1101 and a person 1103 outside the range 1130 . Furthermore, at the next time, the three customers are at the positions shown in FIG. 11(c). In other words, there is no one within the range 1130 centered on the person 1101, and the people 1102 and 1103 are outside the range 1130. FIG. The person 1101 and the person 1102 are separated by a predetermined distance or more. In this case, if the time interval between FIGS. 11(a) and 11(b) is within a predetermined time, it is estimated that the persons 1101 and 1102 belong to the same group.

図12は、通知のユーザーインタフェース例を示す説明図である。
通知モジュール130は、画面1200に、店内地図表示領域1210、分析結果表示領域1220を表示する。
店内地図表示領域1210には、店舗内の様子を表示する。リアルタイムで表示してもよいし、分析結果表示領域1220で選択された行動を表示するようにしてもよい。なお、顧客は画像でなく点で表している。つまり、パーソナルデータではなく(そもそも情報処理装置100は顧客を撮影した画像を取得していないので)、個人を特定できない様子で表示している。
分析結果表示領域1220には、分析結果を表示する。例えば、(1)現在の状況として、お客様(顧客)の数、グループの数、(2)本日の統計(個人としての分析結果)として、総客数、行動「棚から一度手にとった商品を棚にすぐ返す」の数、行動「棚から2つの商品を交互に手に取り1つをかごに戻す」の数、行動「同一の商品の中からラベルを見比べて決定」の数、(3)本日の統計(グループとしての分析結果)として、総グループ数、行動「n人でm個の商品を手に取り1つの商品に決定」の数、行動「1人が商品を手に取ったがもう1人の方を向き棚に戻す」の数、(4)週における統計、(5)月における統計等を表示する。このように、リアルタイムの客の数、グループの数、定義したマーケティング行動の数等を、日単位、週単位、月単位等で統計値を表示してもよい。
FIG. 12 is an explanatory diagram showing an example of a notification user interface.
The notification module 130 displays an in-store map display area 1210 and an analysis result display area 1220 on the screen 1200 .
The in-store map display area 1210 displays the inside of the store. It may be displayed in real time, or an action selected in the analysis result display area 1220 may be displayed. Customers are represented by points instead of images. That is, it is not personal data (because the information processing apparatus 100 does not acquire an image of the customer in the first place), and is displayed in such a way that the individual cannot be identified.
The analysis result display area 1220 displays the analysis result. For example, (1) the number of customers (customers) and the number of groups as the current situation, (2) the total number of customers as today's statistics (analysis results as an individual), the behavior "I picked up the product from the shelf once The number of actions "return to the shelf immediately", the number of actions "take two products alternately from the shelf and put one back in the basket", the number of actions "check the label and decide from among the same products", (3 ) Today's statistics (analysis results as a group) include the total number of groups, the number of behaviors "n people pick up m products and decide on one product", the behavior "1 person picked up the product "returns to another person", (4) stats for the week, (5) stats for the month, etc. Thus, real-time customer counts, group counts, defined marketing actions, etc. may be displayed with statistics on a daily, weekly, monthly, etc. basis.

<第2の実施の形態>
図13は、第2の実施の形態の構成例についての概念的なモジュール構成図である。
第2の実施の形態は、第1の実施の形態に顔認識モジュール1380、顔軌跡DB1315を付加したものである。
なお、第1の実施の形態と同種の部位には同一符号を付し重複した説明を省略する。
第1の実施の形態では、同一人物であることの判断は、前述したように、次の時刻で予め定められた距離内にいる人を同一人物としているが、例えば、早く移動した場合、複数人が近くにいた場合等では、同一人物と判断することが困難になる。そこで、顔認識を行って、同一人物であることの判断に用いる。
<Second Embodiment>
FIG. 13 is a conceptual module configuration diagram of a configuration example of the second embodiment.
The second embodiment is obtained by adding a face recognition module 1380 and a face trajectory DB 1315 to the first embodiment.
The same parts as those in the first embodiment are denoted by the same reference numerals, and redundant explanations are omitted.
In the first embodiment, as described above, the same person is determined to be the same person if the person is within a predetermined distance at the next time. When people are nearby, it becomes difficult to determine that they are the same person. Therefore, face recognition is performed and used to determine that the person is the same person.

撮影装置1350は、カメラ群155、ワイヤーフレームモジュール165、商品特定モジュール170、顔認識モジュール1380を有しており、情報処理装置1300と接続されている。撮影装置1350は、撮影装置150と同等の処理を行った上、顔認識モジュール1380による処理を行う。
顔認識モジュール1380は、カメラ160によって撮影された画像(人を撮影した画像)から、その人の顔を認識する。ただし、ここでの顔認識は、個人を特定するための処理ではなく、店舗内で同一人物であることを認識できる程度であればよい。それ以上の認識(例えば、個人の氏名の認識等)は行わない。つまり、別時刻における人物の顔画像と比べて同一人物であるか否かを判断できる程度でよい。例えば、顔画像に対して特徴抽出(髪の色、長さ、目鼻等の相対的位置関係等)を行い、特徴空間上での距離計算(いわゆる類似判断)を行ってもよいし、機械学習で得たアルゴリズムによって判断するようにしてもよい。そして、顔認識モジュール1380による出力データは、ある時刻における人IDと他の時刻における人IDは同じであることを保証できればよい。例えば、顔認識モジュール1380は、後述する顔移動軌跡テーブル1500を生成する。そして、顔認識モジュール1380による認識結果(認識対象の顔画像、認識処理にともなう中間結果等のデータ等を含めてもよい)を、その認識結果を送信した時点、又は、その人が店舗を退出した場合に削除する。
具体的には、顔認識モジュール1380は、既存の方法を用いて(例えば、非特許文献4に記載された技術等)、画像内の顔を識別し、その顔の店舗内における3次元の位置(座標)を取得する。
なお、図2の例で示したように、ワイヤーフレームモジュール165、商品特定モジュール170、顔認識モジュール1380を撮影装置1350ではなく、情報処理装置1300に設けてもよい。ただし、顔認識モジュール1380だけは、撮影装置1350に設置するのが望ましい。パーソナルデータを情報処理装置1300で扱わないようにするためである。また、図3の例で示したように、ワイヤーフレームモジュール165、商品特定モジュール170、顔認識モジュール1380を各カメラ160に内蔵させてもよい。
The photographing device 1350 has a camera group 155 , a wire frame module 165 , a product identification module 170 and a face recognition module 1380 and is connected to the information processing device 1300 . The photographing device 1350 performs processing equivalent to that of the photographing device 150 and then performs processing by the face recognition module 1380 .
The face recognition module 1380 recognizes a person's face from an image captured by the camera 160 (image of a person). However, the face recognition here is not a process for specifying an individual, and may be performed to the extent that it is possible to recognize that the person is the same person in the store. No further recognition (eg recognition of the individual's name, etc.) is performed. That is, it is sufficient to be able to determine whether or not the person is the same person by comparing with the face image of the person at another time. For example, feature extraction (hair color, length, relative positional relationship of eyes and nose, etc.) may be performed on the face image, and distance calculation (so-called similarity judgment) on the feature space may be performed, or machine learning may be performed. You may make it judge by the algorithm obtained by . The output data from the face recognition module 1380 only needs to guarantee that the person ID at a certain time is the same as the person ID at another time. For example, the face recognition module 1380 generates a face movement trajectory table 1500, which will be described later. Then, the recognition result by the face recognition module 1380 (which may include data such as a face image to be recognized and an intermediate result accompanying the recognition process) is sent when the recognition result is transmitted, or when the person leaves the store. Delete if you do.
Specifically, the face recognition module 1380 uses an existing method (for example, the technology described in Non-Patent Document 4) to identify the face in the image, and the three-dimensional position of the face in the store. Get (coordinates).
2, the wireframe module 165, product identification module 170, and face recognition module 1380 may be provided in the information processing device 1300 instead of the imaging device 1350. FIG. However, it is desirable to install only the face recognition module 1380 in the imaging device 1350 . This is to prevent personal data from being handled by the information processing apparatus 1300 . Also, as shown in the example of FIG. 3, the wireframe module 165, product identification module 170, and face recognition module 1380 may be built into each camera 160. FIG.

情報処理装置1300は、受付モジュール105、人体部位移動軌跡DB110、商品移動軌跡DB115、顔軌跡DB1315、行動分析モジュール120、通知モジュール130を有しており、撮影装置1350と接続されている。
受付モジュール105は、人体部位移動軌跡DB110、商品移動軌跡DB115、顔軌跡DB1315と接続されている。受付モジュール105は、顔認識モジュール1380からの顔移動軌跡データを顔軌跡DB1315に記憶させる。
顔軌跡DB1315は、受付モジュール105、行動分析モジュール120と接続されている。顔軌跡DB1315は、顔移動軌跡データを記憶している。
行動分析モジュール120は、人位置追跡モジュール122、グループ推定モジュール124、単一マーケティング行動検出モジュール126、グループマーケティング行動検出モジュール128を有しており、人体部位移動軌跡DB110、商品移動軌跡DB115、顔軌跡DB1315、行動分析モジュール120と接続されている。
人位置追跡モジュール122は、人移動軌跡データと顔移動軌跡データ(顔認識モジュール1380による認識結果)を用いて、同一人物の移動軌跡データを生成する。つまり、例えば、撮影日時、その撮影日時における人の位置と顔の位置が重複している場合は、その人とその顔が対応しており、他の時刻における人物が同一人物であるか否かは、顔移動軌跡データを用いて判断する。
なお、顔移動軌跡データは、人位置追跡モジュール122による人移動軌跡データの生成のみに用い、他の処理には用いないようにする。そして、顔移動軌跡データを、人位置追跡モジュール122による処理が終了した時点、又は、その人が店舗を退出した場合に削除する。
The information processing device 1300 has a reception module 105 , a human body part movement trajectory DB 110 , a product movement trajectory DB 115 , a face trajectory DB 1315 , a behavior analysis module 120 and a notification module 130 , and is connected to an imaging device 1350 .
The reception module 105 is connected to the human body part movement trajectory DB 110 , the product movement trajectory DB 115 , and the face trajectory DB 1315 . The reception module 105 stores the face movement trajectory data from the face recognition module 1380 in the face trajectory DB 1315 .
The facial trajectory DB 1315 is connected to the reception module 105 and the behavior analysis module 120 . The face trajectory DB 1315 stores face movement trajectory data.
The behavior analysis module 120 includes a person location tracking module 122, a group estimation module 124, a single marketing behavior detection module 126, a group marketing behavior detection module 128, a human body part movement trajectory DB 110, a product movement trajectory DB 115, and a face trajectory. It is connected with DB1315 and the action analysis module 120. FIG.
The human position tracking module 122 uses the human movement trajectory data and the face movement trajectory data (recognition result by the face recognition module 1380) to generate movement trajectory data for the same person. In other words, for example, if the shooting date and time, and the position of the person and the position of the face at the shooting date and time overlap, the person and the face correspond to each other, and whether or not the person at the other time is the same person. is determined using face movement trajectory data.
Note that the face movement trajectory data is used only for generating human movement trajectory data by the human position tracking module 122, and is not used for other processes. Then, the face movement trajectory data is deleted when the processing by the person position tracking module 122 is completed or when the person leaves the store.

図14は、第2の実施の形態(撮影装置1350)による処理例を示すフローチャートである。
ステップS1402では、店舗内を撮影する。人(顧客)が撮影されることになる。
ステップS1404では、撮影した画像から顔を認識する。
ステップS1406では、顔の移動軌跡を生成する。例えば、顔移動軌跡テーブル1500を生成する。
ステップS1408では、データを送信する。
ステップS1410では、データを削除する。
FIG. 14 is a flow chart showing an example of processing by the second embodiment (imaging device 1350).
In step S1402, the inside of the store is photographed. A person (customer) is to be photographed.
In step S1404, the face is recognized from the captured image.
In step S1406, a movement trajectory of the face is generated. For example, a face movement trajectory table 1500 is generated.
In step S1408, data is transmitted.
In step S1410, the data is deleted.

図15は、顔移動軌跡テーブル1500のデータ構造例を示す説明図である。顔移動軌跡テーブル1500は、人ID欄1505、店内座標x欄1510、店内座標y欄1515、店内座標z欄1520、時刻欄1525を有している。人ID欄1505は、人IDを記憶している。店内座標x欄1510は、その顔の店内座標xを記憶している。店内座標y欄1515は、その顔の店内座標yを記憶している。店内座標z欄1520は、その顔の店内座標zを記憶している。時刻欄1525は、その顔が撮影された時刻を記憶している。同一人物の同一顔の座標を時系列にたどることによって、移動軌跡(ベクトルデータ)を生成できる。顔移動軌跡テーブル1500内の各行は、予め定められた間隔で撮影された画像の処理結果である。なお、店内座標は、複数のカメラ160の撮影の向きと位置を予め記録しておき、複数のカメラ160からその店内の座標に変換した上で記録されたものである。なお、顔は人体の部位の一例である。 FIG. 15 is an explanatory diagram showing an example data structure of the face movement trajectory table 1500. As shown in FIG. The face movement trajectory table 1500 has a person ID column 1505 , a store coordinate x column 1510 , a store coordinate y column 1515 , a store coordinate z column 1520 and a time column 1525 . The person ID column 1505 stores person IDs. The in-store coordinate x column 1510 stores the in-store coordinate x of the face. The in-store coordinate y column 1515 stores the in-store coordinate y of the face. The in-store coordinate z column 1520 stores the in-store coordinate z of the face. The time column 1525 stores the time when the face was photographed. A movement trajectory (vector data) can be generated by tracing the coordinates of the same face of the same person in chronological order. Each row in the face movement trajectory table 1500 is the result of processing images captured at predetermined intervals. Note that the in-store coordinates are obtained by previously recording the photographing directions and positions of the plurality of cameras 160, converting them into the in-store coordinates from the plurality of cameras 160, and then recording them. Note that the face is an example of a part of the human body.

図16は、第2の実施の形態(情報処理装置1300)による処理例を示すフローチャートである。
ステップS1602では、人部位移動軌跡テーブル700と顔移動軌跡テーブル1500と商品移動軌跡テーブル900を抽出する。
ステップS1604では、人部位移動軌跡テーブル700と顔移動軌跡テーブル1500を照合し、同一人物の移動軌跡を生成する。具体的には、同時刻(多少のズレを許容してもよい)に撮影された画像の人部位(特に頭部)の位置(店内座標x、y、z)と顔の位置(店内座標x、y、z)が一致する(多少のズレを許容してもよい)場合に、同一人物と認識し、他の時刻においても顔認識の結果の人IDを用いて同一人物を特定する。
FIG. 16 is a flow chart showing an example of processing by the second embodiment (information processing apparatus 1300).
In step S1602, the human part movement trajectory table 700, the face movement trajectory table 1500, and the product movement trajectory table 900 are extracted.
In step S1604, the human part movement trajectory table 700 and the face movement trajectory table 1500 are collated to generate the movement trajectory of the same person. Specifically, the position (in-store coordinates x, y, z) of the human part (particularly the head) and the position of the face (in-store coordinates x , y, z) match (some deviation may be allowed), the person is recognized as the same person, and the same person is specified using the person ID resulting from face recognition at other times as well.

ステップS1606では、不要となった顔移動軌跡テーブル1500を削除する。
ステップS1608では、ステップS1604で生成した移動軌跡と商品移動軌跡テーブル900を照合し、人と商品の組み合わせを生成する。具体的には、同時刻(多少のズレを許容してもよい)に撮影された画像の人部位(特に手の部分)の位置(店内座標x、y、z)と商品の位置(店内座標x、y、z)が一致する(多少のズレを許容してもよい)場合に、その人がその商品を手に取ったと認識する。
ステップS1610では、人の移動軌跡を、予め定められたパターンと照合する。図10の例に示したフローチャート内のステップS1006と同等の処理である。
In step S1606, the unnecessary face movement trajectory table 1500 is deleted.
In step S1608, the movement trajectory generated in step S1604 is collated with the product movement trajectory table 900 to generate combinations of people and products. Specifically, the position (in-store coordinates x, y, z) of the human part (especially the hand part) and the position of the product (in-store coordinates x, y, z) match (some deviation may be allowed), it is recognized that the person has picked up the product.
In step S1610, the movement trajectory of the person is compared with a predetermined pattern. This process is equivalent to step S1006 in the flowchart shown in the example of FIG.

ステップS1612では、人の移動軌跡を用いて、グループを推定する。図10の例に示したフローチャート内のステップS1008と同等の処理である。
ステップS1614では、グループ内の複数人の移動軌跡を、予め定められたパターンと照合する。図10の例に示したフローチャート内のステップS1010と同等の処理である。
ステップS1616では、担当者に分析結果を通知する。図10の例に示したフローチャート内のステップS1012と同等の処理である。
In step S1612, the group is estimated using the movement trajectory of the person. This process is equivalent to step S1008 in the flowchart shown in the example of FIG.
In step S1614, the movement trajectories of multiple people in the group are compared with a predetermined pattern. This process is equivalent to step S1010 in the flowchart shown in the example of FIG.
In step S1616, the person in charge is notified of the analysis result. This process is equivalent to step S1012 in the flowchart shown in the example of FIG.

非特許文献1に記載の技術では、多数のカメラを小売店舗に設置し、消費者の行動を分析しているが、第2の実施の形態は、ワイヤーフレーム分析により匿名化をしており、特に、顔軌跡DB1315(人位置追跡モジュール122を含めてもよい)を情報処理装置1300から物理的に分離しておけば、より匿名化を完全にしたマーケティング分析が可能となる。 In the technology described in Non-Patent Document 1, many cameras are installed in retail stores to analyze consumer behavior, but in the second embodiment, anonymization is performed by wire frame analysis, In particular, by physically separating the facial trajectory DB 1315 (which may include the human position tracking module 122) from the information processing device 1300, marketing analysis with more complete anonymization becomes possible.

非特許文献2には、カメラ画像を活用する際に、どの程度が個人情報であるかの基準が示されている。そして、撮影した画像・動画を、モザイク処理などの従来の画像処理をして匿名化する方法が示されている。もちろんのことながら、非特許文献2には、ワイヤーフレーム分析によって人体の動きのみで匿名化する方法は含まれていない。 Non-Patent Literature 2 shows a standard for how much personal information is used when camera images are used. Then, a method of anonymizing the captured images/videos by performing conventional image processing such as mosaic processing is disclosed. Of course, Non-Patent Document 2 does not include a method of anonymizing only human body movements by wireframe analysis.

非特許文献5では、プライバシー保護とデータの有用性を両立させる社会的動きを解説している。顔をどう匿名化するかなどが議論されている。もちろんのことながら、非特許文献5にも、ワイヤーフレーム分析によって人体の動きのみで匿名化する方法は含まれていない。 Non-Patent Literature 5 explains a social movement to achieve both privacy protection and usefulness of data. There is a debate about how to anonymize faces. Of course, Non-Patent Document 5 also does not include a method of anonymizing only human body movements by wireframe analysis.

なお、本実施の形態(情報処理装置100、撮影装置150、情報処理装置200、カメラ360、情報処理装置1300、撮影装置1350)としてのプログラムが実行されるコンピュータのハードウェア構成は、図17に例示するように、一般的なコンピュータであり、具体的にはパーソナルコンピュータ、カメラ等の組み込み型コンピュータ、サーバーとなり得るコンピュータ等である。つまり、具体例として、処理部(演算部)としてCPU1701を用い、記憶装置としてRAM1702、ROM1703、HDD1704を用いている。HDD1704として、例えば、HDD(Hard Disk Driveの略)、フラッシュ・メモリであるSSD(Solid State Driveの略)等を用いてもよい。受付モジュール105、行動分析モジュール120、人位置追跡モジュール122、グループ推定モジュール124、単一マーケティング行動検出モジュール126、グループマーケティング行動検出モジュール128、通知モジュール130、ワイヤーフレームモジュール165、商品特定モジュール170、ワイヤーフレームモジュール265、商品特定モジュール270、顔認識モジュール1380等のプログラムを実行するCPU1701と、そのプログラムやデータを記憶するRAM1702と、本コンピュータを起動するためのプログラム等が格納されているROM1703と、人体部位移動軌跡DB110、商品移動軌跡DB115、顔軌跡DB1315等としての機能を有する補助記憶装置であるHDD1704と、キーボード、マウス、タッチスクリーン、マイク、カメラ(視線検知カメラ等を含む)等に対する利用者の操作(動作、音声、視線等を含む)に基づいてデータを受け付ける受付装置1706と、CRT、液晶ディスプレイ、スピーカー等の出力装置1705と、ネットワークインタフェースカード等の通信ネットワークと接続するための通信回線インタフェース1707、そして、それらをつないでデータのやりとりをするためのバス1708により構成されている。これらのコンピュータが複数台互いにネットワークによって接続されていてもよい。 FIG. 17 shows the hardware configuration of a computer that executes a program as the present embodiment (information processing device 100, imaging device 150, information processing device 200, camera 360, information processing device 1300, imaging device 1350). As exemplified, it is a general computer, specifically a personal computer, a built-in computer such as a camera, a computer that can serve as a server, and the like. That is, as a specific example, a CPU 1701 is used as a processing unit (calculating unit), and a RAM 1702, ROM 1703, and HDD 1704 are used as storage devices. As the HDD 1704, for example, an HDD (abbreviation for Hard Disk Drive), an SSD (abbreviation for Solid State Drive) which is a flash memory, or the like may be used. reception module 105, behavior analysis module 120, person location tracking module 122, group estimation module 124, single marketing behavior detection module 126, group marketing behavior detection module 128, notification module 130, wireframe module 165, product identification module 170, wire A CPU 1701 that executes programs such as the frame module 265, the product identification module 270, and the face recognition module 1380; a RAM 1702 that stores the programs and data; HDD 1704, which is an auxiliary storage device having functions as part movement trajectory DB 110, product movement trajectory DB 115, face trajectory DB 1315, etc., and user's access to keyboard, mouse, touch screen, microphone, camera (including line-of-sight detection camera, etc.), etc. A reception device 1706 that receives data based on operations (including motion, voice, line of sight, etc.), an output device 1705 such as a CRT, liquid crystal display, speaker, etc., and a communication line interface such as a network interface card for connecting to a communication network. 1707 and a bus 1708 for connecting them to exchange data. A plurality of these computers may be connected to each other via a network.

前述の実施の形態のうち、コンピュータ・プログラムによるものについては、本ハードウェア構成のシステムにソフトウェアであるコンピュータ・プログラムを読み込ませ、ソフトウェアとハードウェア資源とが協働して、前述の実施の形態が実現される。
なお、図17に示すハードウェア構成は、1つの構成例を示すものであり、本実施の形態は、図17に示す構成に限らず、本実施の形態において説明したモジュールを実行可能な構成であればよい。例えば、一部のモジュールを専用のハードウェア(例えば特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)や再構成可能な集積回路(field-programmable gate array:FPGA)等)で構成してもよく、一部のモジュールは外部のシステム内にあり通信回線で接続している形態でもよく、さらに図17に示すシステムが複数互いに通信回線によって接続されていて互いに協調動作するようにしてもよい。また、特に、パーソナルコンピュータの他、携帯情報通信機器(携帯電話、スマートフォン、モバイル機器、ウェアラブルコンピュータ等を含む)、情報家電、ロボットなどに組み込まれていてもよい。
Of the above-described embodiments, with respect to the computer program, a computer program, which is software, is loaded into the system of this hardware configuration, and the software and hardware resources cooperate to perform the above-described embodiment. is realized.
Note that the hardware configuration shown in FIG. 17 shows one configuration example, and the present embodiment is not limited to the configuration shown in FIG. I wish I had. For example, some modules may be configured with dedicated hardware (for example, an application specific integrated circuit (ASIC), a reconfigurable integrated circuit (field-programmable gate array: FPGA), etc.). A part of the modules may be in an external system and connected by a communication line, or a plurality of systems shown in FIG. 17 may be connected by a communication line and cooperate with each other. Moreover, in addition to personal computers, it may be incorporated in portable information communication devices (including mobile phones, smartphones, mobile devices, wearable computers, etc.), home information appliances, robots, and the like.

前述の実施の形態においては、小売店の店舗に適用する場合を例示したが、他の施設における人の行動を分析するようにしてもよい。前述したように、例えば、スポーツ用施設に、同様の方法で複数カメラを設置し、単一マーケティング行動検出モジュール126、グループマーケティング行動検出モジュール128に予め特定パターン(危険な行動パターン等)を定義しておき、分析することによって、安全な観客と危険な観客(例えば、フーリガン(hooligan)等)の推定、異常検知が可能となる。 In the above-described embodiment, the case of application to a retail store was exemplified, but the behavior of people in other facilities may be analyzed. As described above, for example, multiple cameras are installed in a sports facility in a similar manner, and specific patterns (dangerous behavior patterns, etc.) are defined in advance in the single marketing behavior detection module 126 and the group marketing behavior detection module 128. Prediction of safe spectators and dangerous spectators (for example, hooligans, etc.) and anomaly detection are possible by analyzing them.

なお、説明したプログラムについては、記録媒体に格納して提供してもよく、また、そのプログラムを通信手段によって提供してもよい。その場合、例えば、前記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明として捉えてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通等のために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD-R、DVD-RW、DVD-RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD-ROM)、CDレコーダブル(CD-R)、CDリライタブル(CD-RW)等、ブルーレイ・ディスク(Blu-ray(登録商標) Disc)、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM(登録商標))、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)、SD(Secure Digitalの略)メモリーカード等が含まれる。
そして、前記のプログラムの全体又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、又は無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分若しくは全部であってもよく、又は別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して記録されていてもよい。また、圧縮や暗号化等、復元可能であればどのような態様で記録されていてもよい。
The program described above may be stored in a recording medium and provided, or the program may be provided by communication means. In that case, for example, the program described above may be regarded as an invention of "a computer-readable recording medium on which the program is recorded."
"Program-recorded computer-readable recording medium" refers to a computer-readable recording medium recording a program, which is used for program installation, execution, program distribution, and the like.
As a recording medium, for example, a digital versatile disc (DVD), which is a standard established by the DVD Forum, "DVD-R, DVD-RW, DVD-RAM, etc." Standard "DVD + R, DVD + RW, etc.", compact disc (CD), read-only memory (CD-ROM), CD recordable (CD-R), CD rewritable (CD-RW), Blu-ray disc ( Blu-ray (registered trademark) Disc), magneto-optical disk (MO), flexible disk (FD), magnetic tape, hard disk, read-only memory (ROM), electrically erasable and rewritable read-only memory (EEPROM (registered trademark) )), flash memory, random access memory (RAM), SD (abbreviation for Secure Digital) memory card, and the like.
Then, the whole or part of the program may be recorded on the recording medium and stored or distributed. Also, by communication, for example, a wired network used for a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN), the Internet, an intranet, an extranet, etc., or a wireless communication. It may be transmitted using a transmission medium such as a network or a combination thereof, or may be carried on a carrier wave.
Furthermore, the program may be part or all of another program, or may be recorded on a recording medium together with a separate program. Moreover, it may be divided and recorded on a plurality of recording media. Also, it may be recorded in any form, such as compression or encryption, as long as it can be restored.

100…情報処理装置
105…受付モジュール
110…人体部位移動軌跡DB
115…商品移動軌跡DB
120…行動分析モジュール
122…人位置追跡モジュール
124…グループ推定モジュール
126…単一マーケティング行動検出モジュール
128…グループマーケティング行動検出モジュール
130…通知モジュール
150…撮影装置
155…カメラ群
160…カメラ
165…ワイヤーフレームモジュール
170…商品特定モジュール
200…情報処理装置
265…ワイヤーフレームモジュール
270…商品特定モジュール
350…撮像モジュール
355…カメラ群
360…カメラ
350…撮像モジュール
1300…情報処理装置
1315…顔軌跡DB
1350…撮影装置
1380…顔認識モジュール
DESCRIPTION OF SYMBOLS 100... Information processing apparatus 105... Reception module 110... Human body part movement locus DB
115 Product movement trajectory DB
120 Behavior analysis module 122 Person location tracking module 124 Group estimation module 126 Single marketing behavior detection module 128 Group marketing behavior detection module 130 Notification module 150 Imager 155 Camera group 160 Camera 165 Wireframe Module 170 Product identification module 200 Information processing device 265 Wire frame module 270 Product identification module 350 Imaging module 355 Camera group 360 Camera 350 Imaging module 1300 Information processing device 1315 Face trajectory DB
1350... Imaging device 1380... Face recognition module

Claims (4)

店舗内の人を撮影した画像から、該人の部位をベクトル表現したワイヤーフレームデータに変換することによって該人の匿名化を行うワイヤーフレーム変換手段と、
前記ワイヤーフレームデータを用いて、前記人の部位の移動を表現した人移動軌跡データを生成する生成手段と、
商品を撮影した画像から抽出された該商品の移動軌跡を表現した商品移動軌跡データを生成する第2の生成手段と、
前記人移動軌跡データ予め定められた行動のパターンデータに該当するか否かを判断し、判断結果を前記人の行動の分析結果とする分析手段と、
前記分析手段による分析結果を通知する通知手段
を有し、
前記行動のパターンデータは、グループに属する複数人が商品に対して行った行動を示すパターンデータであり、
前記分析手段は、グループに属する人を推定し、該グループ内の複数人の前記人移動軌跡データと前記商品移動軌跡データとが、前記パターンデータに該当するか否かを判断し、
前記分析手段は、グループに属する人を推定するにあたって、(1)人と人との間の距離を算出し、予め定められた距離内にいる人達の口が交互に開いている場合は、その人達をグループと推定すること、又は、(2)一方の人から他方の人へ、商品が渡された場合は、その人達をグループと推定することを行う、
ことを特徴とする情報処理装置。
a wireframe conversion means for anonymizing a person by converting an image of the person in the store into wireframe data representing a vector representation of the part of the person;
a generation means for generating human movement trajectory data representing movements of parts of the person using the wire frame data;
a second generation means for generating product movement trajectory data expressing the movement trajectory of the product extracted from the photographed image of the product;
analysis means for determining whether or not the human movement trajectory data corresponds to predetermined behavior pattern data, and using the determination result as an analysis result of the behavior of the person;
a notification means for notifying the analysis result by the analysis means ;
the behavior pattern data is pattern data indicating behaviors of a plurality of people belonging to the group with respect to the product;
The analysis means estimates a person belonging to a group, determines whether the person movement trajectory data and the product movement trajectory data of a plurality of people in the group correspond to the pattern data,
When estimating a person belonging to a group, the analysis means (1) calculates the distance between people, and if the mouths of people within a predetermined distance are open alternately, (2) assume that people are a group if the goods are passed from one person to the other;
An information processing device characterized by:
人を撮影した画像から、該人の顔を認識する認識手段
をさらに有し、
前記生成手段は、前記認識手段による認識結果を用いて、同一人物の人移動軌跡データを生成する、
請求項1に記載の情報処理装置。
further comprising recognition means for recognizing a person's face from an image of the person,
The generating means generates human movement trajectory data for the same person using the recognition result by the recognizing means.
The information processing device according to claim 1 .
前記認識手段による認識結果は、前記生成手段による人移動軌跡データの生成のみに用い、
前記認識手段による認識結果を、前記人が店舗を退出した場合に削除する、
請求項に記載の情報処理装置。
the result of recognition by the recognition means is used only for the generation of human movement trajectory data by the generation means,
deleting the recognition result by the recognition means when the person leaves the store;
The information processing apparatus according to claim 2 .
コンピュータを、
店舗内の人を撮影した画像から、該人の部位をベクトル表現したワイヤーフレームデータに変換することによって該人の匿名化を行うワイヤーフレーム変換手段と、
前記ワイヤーフレームデータを用いて、前記人の部位の移動を表現した人移動軌跡データを生成する生成手段と、
商品を撮影した画像から抽出された該商品の移動軌跡を表現した商品移動軌跡データを生成する第2の生成手段と、
前記人移動軌跡データ予め定められた行動のパターンデータに該当するか否かを判断し、判断結果を前記人の行動の分析結果とする分析手段と、
前記分析手段による分析結果を通知する通知手段
として機能させ
前記行動のパターンデータは、グループに属する複数人が商品に対して行った行動を示すパターンデータであり、
前記分析手段は、グループに属する人を推定し、該グループ内の複数人の前記人移動軌跡データと前記商品移動軌跡データとが、前記パターンデータに該当するか否かを判断し、
前記分析手段は、グループに属する人を推定するにあたって、(1)人と人との間の距離を算出し、予め定められた距離内にいる人達の口が交互に開いている場合は、その人達をグループと推定すること、又は、(2)一方の人から他方の人へ、商品が渡された場合は、その人達をグループと推定することを行う、
ことを特徴とする情報処理プログラム。
the computer,
a wireframe conversion means for anonymizing a person by converting an image of the person in the store into wireframe data representing a vector representation of the part of the person;
a generation means for generating human movement trajectory data representing movements of parts of the person using the wire frame data;
a second generation means for generating product movement trajectory data expressing the movement trajectory of the product extracted from the photographed image of the product;
analysis means for determining whether or not the human movement trajectory data corresponds to predetermined behavior pattern data, and using the determination result as an analysis result of the behavior of the person;
Functioning as notification means for notifying analysis results by the analysis means ,
the behavior pattern data is pattern data indicating behaviors of a plurality of people belonging to the group with respect to the product;
The analysis means estimates a person belonging to a group, determines whether the person movement trajectory data and the product movement trajectory data of a plurality of people in the group correspond to the pattern data,
When estimating a person belonging to a group, the analysis means (1) calculates the distance between people, and if the mouths of people within a predetermined distance are open alternately, (2) assume that people are a group if the goods are passed from one person to the other;
An information processing program characterized by:
JP2019088295A 2019-05-08 2019-05-08 Information processing device and information processing program Active JP7337354B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019088295A JP7337354B2 (en) 2019-05-08 2019-05-08 Information processing device and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019088295A JP7337354B2 (en) 2019-05-08 2019-05-08 Information processing device and information processing program

Publications (2)

Publication Number Publication Date
JP2020184197A JP2020184197A (en) 2020-11-12
JP7337354B2 true JP7337354B2 (en) 2023-09-04

Family

ID=73045147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019088295A Active JP7337354B2 (en) 2019-05-08 2019-05-08 Information processing device and information processing program

Country Status (1)

Country Link
JP (1) JP7337354B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7276542B1 (en) 2022-03-22 2023-05-18 株式会社リコー Information processing device, information processing system, charge management method and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099827A (en) 1998-09-25 2000-04-07 Fujitsu Ltd System and method for customer recognition using radio identification and visual data transmission
JP2004054376A (en) 2002-07-17 2004-02-19 Japan Science & Technology Corp Method and device for estimating group attribute
JP2013206242A (en) 2012-03-29 2013-10-07 Nikon Corp Imaging device, content generation system, and content generation method
WO2015033576A1 (en) 2013-09-06 2015-03-12 日本電気株式会社 Security system, security method, and non-temporary computer-readable medium
WO2015033577A1 (en) 2013-09-06 2015-03-12 日本電気株式会社 Customer behavior analysis system, customer behavior analysis method, non-temporary computer-readable medium, and shelf system
JP2015114950A (en) 2013-12-13 2015-06-22 富士通株式会社 Movement determination method, movement determination device, and movement determination program
JP2016045654A (en) 2014-08-21 2016-04-04 日本システム開発株式会社 User identification device, user identification method, and computer program
JP2019028509A (en) 2017-07-25 2019-02-21 株式会社クオンタム Detection device, detection system, image processing device, detection method, image processing program, image display method, and image display system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099827A (en) 1998-09-25 2000-04-07 Fujitsu Ltd System and method for customer recognition using radio identification and visual data transmission
JP2004054376A (en) 2002-07-17 2004-02-19 Japan Science & Technology Corp Method and device for estimating group attribute
JP2013206242A (en) 2012-03-29 2013-10-07 Nikon Corp Imaging device, content generation system, and content generation method
WO2015033576A1 (en) 2013-09-06 2015-03-12 日本電気株式会社 Security system, security method, and non-temporary computer-readable medium
WO2015033577A1 (en) 2013-09-06 2015-03-12 日本電気株式会社 Customer behavior analysis system, customer behavior analysis method, non-temporary computer-readable medium, and shelf system
JP2015114950A (en) 2013-12-13 2015-06-22 富士通株式会社 Movement determination method, movement determination device, and movement determination program
JP2016045654A (en) 2014-08-21 2016-04-04 日本システム開発株式会社 User identification device, user identification method, and computer program
JP2019028509A (en) 2017-07-25 2019-02-21 株式会社クオンタム Detection device, detection system, image processing device, detection method, image processing program, image display method, and image display system

Also Published As

Publication number Publication date
JP2020184197A (en) 2020-11-12

Similar Documents

Publication Publication Date Title
JP7191088B2 (en) Predicting inventory events using semantic differencing
US10133933B1 (en) Item put and take detection using image recognition
US20220188760A1 (en) Identifying inventory items using multiple confidence levels
US10127438B1 (en) Predicting inventory events using semantic diffing
JP6529078B2 (en) Customer behavior analysis system, customer behavior analysis method, customer behavior analysis program and shelf system
KR102189205B1 (en) System and method for generating an activity summary of a person
CN110033293B (en) Method, device and system for acquiring user information
JP2019020986A (en) Human flow analysis method, human flow analysis device, and human flow analysis system
CN112307864A (en) Method and device for determining target object and man-machine interaction system
JP2019139321A (en) Customer behavior analysis system and customer behavior analysis method
Liciotti et al. An automatic analysis of shoppers behaviour using a distributed rgb-d cameras system
JP7337354B2 (en) Information processing device and information processing program
Zhu et al. Egoobjects: A large-scale egocentric dataset for fine-grained object understanding
US11615430B1 (en) Method and system for measuring in-store location effectiveness based on shopper response and behavior analysis
CN112132868B (en) Method, device and equipment for determining payment information
JP7362102B2 (en) Information processing device and information processing program
CN113837066A (en) Behavior recognition method and device, electronic equipment and computer storage medium
CN112164096A (en) Object identification method, device and equipment
CN115588239B (en) Interactive behavior recognition method, device, equipment and storage medium
CN117095462A (en) Behavior detection method, device and equipment
JP2021158568A (en) Information processing system, information processing device, information processing method, and program
JP2020115159A (en) Content selection device, content selection metho, content selection system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230815

R150 Certificate of patent or registration of utility model

Ref document number: 7337354

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150