JP6999237B2 - Guidance system - Google Patents

Guidance system Download PDF

Info

Publication number
JP6999237B2
JP6999237B2 JP2018072888A JP2018072888A JP6999237B2 JP 6999237 B2 JP6999237 B2 JP 6999237B2 JP 2018072888 A JP2018072888 A JP 2018072888A JP 2018072888 A JP2018072888 A JP 2018072888A JP 6999237 B2 JP6999237 B2 JP 6999237B2
Authority
JP
Japan
Prior art keywords
content
data
person
output
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018072888A
Other languages
Japanese (ja)
Other versions
JP2019185236A (en
Inventor
綾乃 河江
一仁 佐野
博 丹下
拓己 宇津木
鋭 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Energy System Corp
Original Assignee
Yazaki Energy System Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Energy System Corp filed Critical Yazaki Energy System Corp
Priority to JP2018072888A priority Critical patent/JP6999237B2/en
Priority to PCT/JP2019/002168 priority patent/WO2019193816A1/en
Priority to CN201980024428.0A priority patent/CN111971708A/en
Priority to SG11202009713SA priority patent/SG11202009713SA/en
Priority to TW108107248A priority patent/TWI684938B/en
Publication of JP2019185236A publication Critical patent/JP2019185236A/en
Application granted granted Critical
Publication of JP6999237B2 publication Critical patent/JP6999237B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F27/00Combined visual and audible advertising or displaying, e.g. for public address

Landscapes

  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Finance (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Traffic Control Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、案内システムに関する。 The present invention relates to a guidance system.

従来の案内システムとして、例えば、特許文献1には、検出手段と、推定手段と、提供手段とを備えた情報処理装置が開示されている。検出手段は、人流を検出する。推定手段は、検出手段により検出された人流に基づいて人流を構成する人員の属性を推定する。そして、提供手段は、推定手段により推定された属性に基づいて情報を提供する。 As a conventional guidance system, for example, Patent Document 1 discloses an information processing apparatus including a detecting means, an estimating means, and a providing means. The detection means detects the flow of people. The estimation means estimates the attributes of the personnel constituting the person flow based on the person flow detected by the detection means. Then, the providing means provides information based on the attributes estimated by the estimating means.

特開2017-146380号公報Japanese Unexamined Patent Publication No. 2017-146380

ところで、上述のような案内システムは、例えば、より特定の個人にあわせた案内を行う点で更なる改善の余地がある。 By the way, the guidance system as described above has room for further improvement in, for example, providing guidance tailored to a specific individual.

本発明は、上記の事情に鑑みてなされたものであって、特定の個人にあわせた案内を行うことができる案内システムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a guidance system capable of providing guidance tailored to a specific individual.

上記目的を達成するために、本発明に係る案内システムは、人物を含む画像を表す画像データ、及び、前記画像が撮像された位置を表す位置データを含む解析用データを収集する収集装置と、それぞれ複数のコンテンツを出力可能である複数のコンテンツ出力装置と、前記収集装置によって収集された前記解析用データに基づいて、前記画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析するデータ解析部と、前記データ解析部によって解析された前記人物の人流に基づいて、前記属性が特定された人物の動きを予測する動き予測部と、前記データ解析部によって解析された前記人物の属性に基づいて、前記複数のコンテンツから、前記コンテンツ出力装置に出力させるコンテンツを選択するコンテンツ選択部と、前記動き予測部によって予測された前記人物の動きに基づいて、前記複数のコンテンツ出力装置から、前記コンテンツ選択部によって選択された前記コンテンツを出力させるコンテンツ出力装置を決定する出力先決定部とを備え、前記出力先決定部によって決定された前記コンテンツ出力装置は、前記データ解析部によって前記属性が特定された人物に対して、前記コンテンツ選択部によって選択された前記コンテンツを、前記動き予測部によって予測された前記人物の動きに応じたタイミングで出力するものであり、前記コンテンツ出力装置は、前記コンテンツの提供対象である前記人物の視線を検出し、当該検出した視線に基づいて表示する前記コンテンツの情報量を調整し、当該人物の視線が当該コンテンツ出力装置側に向いている場合には出力させる前記コンテンツの情報量を相対的に多くし、当該人物の視線が当該コンテンツ出力装置側に向いていない場合には出力させる前記コンテンツの情報量を相対的に少なくし、当該コンテンツ出力装置を管理する装置に、前記コンテンツの出力結果に応じたフィードバックデータを送信し、前記コンテンツ出力装置による前記コンテンツの出力結果に応じた前記フィードバックデータは、前記コンテンツの提供対象である前記人物の前記属性に応じて選択された前記コンテンツの内容に関する情報、及び、当該コンテンツを実際に出力したか否かの情報を含んでいることを特徴とする。
また、上記案内システムでは、複数の前記収集装置、複数の前記コンテンツ出力装置を連携させ、前記属性が特定された人物の動きに応じて連続的に前記コンテンツを出力し、前記コンテンツ出力装置は、さらに、前記コンテンツの提供対象となる前記人物が所持する携帯端末と通信を行い、当該コンテンツに関するデータを送信するものとすることができる。
In order to achieve the above object, the guidance system according to the present invention includes an image data representing an image including a person and a collecting device for collecting analysis data including position data representing the position where the image is captured. Based on a plurality of content output devices capable of outputting a plurality of contents, and the analysis data collected by the collection device, the attributes of the person included in the image represented by the image data, and the attributes are specified. A data analysis unit that analyzes the flow of a person who has been identified, a motion prediction unit that predicts the movement of a person whose attributes have been specified based on the flow of the person analyzed by the data analysis unit, and a data analysis unit. Based on the attributes of the person analyzed by, the content selection unit that selects the content to be output to the content output device from the plurality of contents, and the movement prediction unit predicts the movement of the person. The content output device is provided with an output destination determining unit for determining a content output device for outputting the content selected by the content selection unit from the plurality of content output devices, and the content output device determined by the output destination determination unit is provided. The content selected by the content selection unit is output to a person whose attributes are specified by the data analysis unit at a timing corresponding to the movement of the person predicted by the motion prediction unit. The content output device detects the line of sight of the person who is the target of providing the content, adjusts the amount of information of the content to be displayed based on the detected line of sight, and the line of sight of the person is on the content output device side. The amount of information of the content to be output is relatively large when it is suitable for, and the amount of information of the content to be output is relatively small when the line of sight of the person is not directed to the content output device side. Then, the feedback data corresponding to the output result of the content is transmitted to the device that manages the content output device, and the feedback data according to the output result of the content by the content output device is the target for providing the content. It is characterized by including information on the content of the content selected according to the attribute of the person and information on whether or not the content is actually output .
Further, in the guidance system, the plurality of collection devices and the plurality of content output devices are linked, and the content is continuously output according to the movement of the person whose attribute is specified, and the content output device is used. Further , it is possible to communicate with the mobile terminal possessed by the person who is the target of providing the content and transmit the data related to the content.

また、上記案内システムでは、前記収集装置は、路上あるいは建造物に固定された固定体、又は、移動可能である移動体に複数設けられるものとすることができる。 Further, in the guidance system, the collection device may be provided in a plurality of fixed bodies fixed on the road or in a building, or in a movable body that is movable.

また、上記案内システムでは、前記複数のコンテンツ出力装置は、路上あるいは建造物に固定された固定体、又は、移動可能である移動体に設けられるものとすることができる。 Further, in the guidance system, the plurality of content output devices may be provided on a fixed body fixed on the road or in a building, or on a movable body that is movable.

また、上記案内システムでは、前記複数のコンテンツ出力装置は、路上あるいは建造物に固定された固定体、又は、路面を走行する移動体に設けられるものとすることができる。 Further, in the guidance system, the plurality of content output devices may be provided on a fixed body fixed on the road or in a building, or on a moving body traveling on the road surface.

本発明に係る案内システムは、収集装置によって収集された解析用データに基づいて、データ解析部によって画像データが表す画像に含まれる人物の属性、及び、人流が解析される。そして、案内システムは、出力先決定部によって決定されたコンテンツ出力装置が、コンテンツ選択部によって人物の属性に応じて選択されたコンテンツを、動き予測部によって予測された当該人物の動きに応じたタイミングで出力する。この結果、案内システムは、特定の個人にあわせた案内を行うことができる、という効果を奏する。 In the guidance system according to the present invention, the attributes of a person included in the image represented by the image data and the flow of people are analyzed by the data analysis unit based on the analysis data collected by the collection device. Then, in the guidance system, the content output device determined by the output destination determination unit selects the content according to the attribute of the person by the content selection unit, and the timing according to the movement of the person predicted by the movement prediction unit. Output with. As a result, the guidance system has the effect of being able to provide guidance tailored to a specific individual.

図1は、実施形態1に係る案内システムの概略構成を表すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a guidance system according to the first embodiment. 図2は、実施形態1に係る案内システムにおける処理の一例を表すフローチャート図である。FIG. 2 is a flowchart showing an example of processing in the guidance system according to the first embodiment. 図3は、実施形態1に係る案内システムの動作の一例を表す模式図である。FIG. 3 is a schematic diagram showing an example of the operation of the guidance system according to the first embodiment. 図4は、実施形態1に係る案内システムの動作の一例を表す模式図である。FIG. 4 is a schematic diagram showing an example of the operation of the guidance system according to the first embodiment. 図5は、実施形態1に係る案内システムの動作の一例を表す模式図である。FIG. 5 is a schematic diagram showing an example of the operation of the guidance system according to the first embodiment. 図6は、実施形態2に係る案内システムの概略構成を表すブロック図である。FIG. 6 is a block diagram showing a schematic configuration of the guidance system according to the second embodiment.

以下に、本発明に係る実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。 Hereinafter, embodiments according to the present invention will be described in detail with reference to the drawings. The present invention is not limited to this embodiment. In addition, the components in the following embodiments include those that can be easily replaced by those skilled in the art, or those that are substantially the same.

[実施形態1]
図1に示す本実施形態の案内システム1は、収集装置10と、解析装置20と、コンテンツサービス装置30と、複数のコンテンツ出力装置40とを備え、これらが連携して特定の個人にあわせたコンテンツを出力するリアルタイムサイネージシステムである。複数のコンテンツ出力装置40は、それぞれ複数のコンテンツを出力可能な装置である。本実施形態の案内システム1は、撮像した画像に含まれる特定の人物(個人)の属性、及び、当該属性が特定された人物の人流を解析し、解析結果に応じて当該人物の属性に応じたコンテンツを選択し、選択したコンテンツをコンテンツ出力装置40によって先回りして出力する。以下、各図を参照して案内システム1の構成について詳細に説明する。
[Embodiment 1]
The guidance system 1 of the present embodiment shown in FIG. 1 includes a collection device 10, an analysis device 20, a content service device 30, and a plurality of content output devices 40, which are coordinated with each other to suit a specific individual. It is a real-time signage system that outputs content. The plurality of content output devices 40 are devices capable of outputting a plurality of contents. The guidance system 1 of the present embodiment analyzes the attributes of a specific person (individual) included in the captured image and the flow of the person to whom the attributes are specified, and responds to the attributes of the person according to the analysis result. The selected content is selected, and the selected content is output in advance by the content output device 40. Hereinafter, the configuration of the guidance system 1 will be described in detail with reference to each figure.

収集装置10は、コンテンツの提供対象となる人物の特定、解析に用いる解析用データを収集するものである。解析用データは、人物を含む画像を表す画像データ、及び、当該画像が撮像された位置を表す位置データを含むデータである。解析用データは、解析装置20による人物の属性、及び、当該人物の人流の解析に用いられる。収集装置10は、典型的には、固定体F、又は、移動体Vに設けられる。収集装置10が搭載される固定体Fは、典型的には、路上あるいは建造物に据え付けられ固定されたものである。固定体Fは、例えば、路上に設けられたバス停留所、デジタルサイネージ、自動販販売機、標識、電柱等の構造体であってもよいし、収集装置10を設置するために設けられた専用の構造体であってもよい。また、収集装置10が搭載される固定体Fは、例えば、デパート、マンション、オフィスビル、ホテル等の建造物の出入口、内部、屋上等に設けられた構造体であってもよい。収集装置10が搭載される移動体Vは、典型的には、移動可能に構成された物体である。ここでは、移動体Vは、典型的には、路面を走行する車両であり、例えば、自家用車、レンタカー、シェアリングカー、ライドシェアカー、バス、タクシー、トラック、輸送車、作業車等のいずれであってもよい。なお、移動体Vは、これに限らず、例えば、フライングカーやドローン等、空中を飛行する飛行体であってもよい。収集装置10は、典型的には、複数の固定体F、及び、複数の移動体Vにそれぞれ搭載される。つまり、本実施形態の案内システム1は、複数の固定体F、及び、複数の移動体Vにそれぞれ搭載された複数の収集装置10を備え、当該複数の収集装置10から解析用データを収集することが可能である。複数の収集装置10の少なくとも一部は、予め定められた経路を繰り返し走行する車両、例えば、路線バスや長距離輸送用トラック等に搭載されてもよい。また、複数の収集装置10の少なくとも一部は、事業者に管理される事業用の車両、例えば、シェアリングカー、ライドシェアカー、タクシー等に搭載されてもよい。移動体Vに搭載される収集装置10は、例えば、移動体Vに搭載されるいわゆるドライブレコーダ等の車載機器を用いることができるがこれに限らない。 The collection device 10 collects analysis data used for identifying and analyzing a person to whom content is to be provided. The analysis data is data including image data representing an image including a person and position data representing the position where the image is captured. The analysis data is used for analysis of the attributes of a person by the analysis device 20 and the flow of the person. The collecting device 10 is typically provided on the fixed body F or the moving body V. The fixed body F on which the collecting device 10 is mounted is typically installed and fixed on the road or in a building. The fixed body F may be, for example, a structure such as a bus stop, a digital signage, a vending machine, a sign, a utility pole, etc. provided on the road, or may be a dedicated structure provided for installing the collecting device 10. It may be a structure. Further, the fixed body F on which the collecting device 10 is mounted may be, for example, a structure provided at the entrance / exit, inside, rooftop, or the like of a building such as a department store, a condominium, an office building, or a hotel. The moving body V on which the collecting device 10 is mounted is typically a movable object. Here, the moving body V is typically a vehicle traveling on the road surface, and is, for example, a private car, a rental car, a sharing car, a ride sharing car, a bus, a taxi, a truck, a transport vehicle, a work vehicle, or the like. It may be. The moving body V is not limited to this, and may be a flying body such as a flying car or a drone that flies in the air. The collecting device 10 is typically mounted on a plurality of fixed bodies F and a plurality of moving bodies V, respectively. That is, the guidance system 1 of the present embodiment includes a plurality of collection devices 10 mounted on each of the plurality of fixed bodies F and the plurality of mobile bodies V, and collects analysis data from the plurality of collection devices 10. It is possible. At least a part of the plurality of collecting devices 10 may be mounted on a vehicle that repeatedly travels on a predetermined route, for example, a route bus, a long-distance transport truck, or the like. Further, at least a part of the plurality of collection devices 10 may be mounted on a business vehicle managed by a business operator, for example, a sharing car, a ride sharing car, a taxi, or the like. As the collecting device 10 mounted on the mobile body V, for example, an in-vehicle device such as a so-called drive recorder mounted on the mobile body V can be used, but the collection device 10 is not limited to this.

具体的には、収集装置10は、カメラ11と、位置情報測定器12と、通信部(収集装置通信部)13と、制御部14とを備える。 Specifically, the collecting device 10 includes a camera 11, a position information measuring device 12, a communication unit (collecting device communication unit) 13, and a control unit 14.

カメラ11は、人物を含む画像を撮像する撮像装置である。カメラ11は、典型的には、案内システム1におけるコンテンツの提供対象である人物を含む動画像を撮像する。カメラ11は、人物を撮像可能な画角となるように設定される。カメラ11は、収集装置10が路上の固定体Fに設けられる場合には、典型的には、当該固定体Fの外部の画像を撮像する。この場合、カメラ11は、例えば、固定体Fの外部の路上の人物を撮像可能な画角となるように固定体Fに設置され、当該路上の人物を含む画像を撮像する。カメラ11は、収集装置10が建造物の固定体Fに設けられる場合には、典型的には、固定体Fが設けられる建造物の内部、及び、当該建造物の外部の画像を撮像する。この場合、カメラ11は、例えば、建造物の外部の人物、建造物の内部の人物を撮像可能な画角となるように固定体Fに設置され、当該建造物の外部の人物、建造物の内部の人物を含む画像を撮像する。カメラ11は、収集装置10が移動体Vに設けられる場合には、典型的には、当該移動体Vの内部、及び、当該移動体Vの外部の画像を撮像する。この場合、カメラ11は、例えば、移動体Vの内部の人物、移動体Vの外部の路上に位置する人物を撮像可能な画角となるように移動体Vに設置され、当該移動体Vの内部の人物、移動体Vの外部の人物を含む画像を撮像する。この場合、カメラ11は、移動体Vの移動に伴って当該移動体Vの外部の画像を撮像することもできる。カメラ11は、固定体F、移動体Vそれぞれにおいて、それぞれの位置の人物をより好適に撮像可能なように複数設けられてもよい。カメラ11は、単眼カメラであってもよいし、ステレオカメラであってもよい。また、カメラ11が撮像する画像は、モノクロであってもよいしカラーであってもよい。カメラ11は、上記のように画像を撮像し当該画像を表す画像データを収集する。カメラ11は、制御部14と通信可能に接続されており、収集した画像データを制御部14に出力する。 The camera 11 is an image pickup device that captures an image including a person. The camera 11 typically captures a moving image including a person to whom the content is provided in the guidance system 1. The camera 11 is set so that the angle of view is such that a person can be imaged. When the collecting device 10 is provided on the fixed body F on the road, the camera 11 typically captures an image of the outside of the fixed body F. In this case, for example, the camera 11 is installed on the fixed body F so as to have an angle of view capable of capturing an image of a person on the road outside the fixed body F, and captures an image including the person on the road. When the collecting device 10 is provided in the fixed body F of the building, the camera 11 typically captures an image of the inside of the building in which the fixed body F is provided and the outside of the building. In this case, the camera 11 is installed on the fixed body F so as to have an angle of view capable of capturing an image of a person outside the building or a person inside the building, and the person outside the building or the building is used. Take an image that includes a person inside. When the collecting device 10 is provided in the moving body V, the camera 11 typically captures images inside the moving body V and outside the moving body V. In this case, the camera 11 is installed in the moving body V so as to have an image angle that allows, for example, a person inside the moving body V and a person located on the road outside the moving body V to be imaged. An image including an internal person and an external person of the moving body V is captured. In this case, the camera 11 can also take an image of the outside of the moving body V as the moving body V moves. A plurality of cameras 11 may be provided in each of the fixed body F and the moving body V so that a person at each position can be more preferably imaged. The camera 11 may be a monocular camera or a stereo camera. Further, the image captured by the camera 11 may be monochrome or color. The camera 11 captures an image as described above and collects image data representing the image. The camera 11 is communicably connected to the control unit 14, and outputs the collected image data to the control unit 14.

位置情報測定器12は、収集装置10の現在位置を測定する測位器である。位置情報測定器12は、例えば、GPS(Global Positioning System))衛星から送信される電波を受信するGPS受信器等を用いることができる。位置情報測定器12は、GPS衛星から送信される電波を受信し収集装置10の現在位置を表す情報としてGPS情報(緯度経度座標)を取得することで、カメラ11によって画像が撮像された位置を表す位置データを収集する。位置情報測定器12は、制御部14と通信可能に接続されており、収集した位置データを制御部14に出力する。 The position information measuring device 12 is a positioning device that measures the current position of the collecting device 10. As the position information measuring device 12, for example, a GPS receiver or the like that receives radio waves transmitted from a GPS (Global Positioning System) satellite can be used. The position information measuring instrument 12 receives radio waves transmitted from GPS satellites and acquires GPS information (latitude / longitude coordinates) as information indicating the current position of the collecting device 10, thereby detecting the position where the image is captured by the camera 11. Collect the position data to be represented. The position information measuring instrument 12 is communicably connected to the control unit 14, and outputs the collected position data to the control unit 14.

通信部13は、収集装置10とは異なる機器と当該収集装置10との間で各種データの通信を行うものである。本実施形態の通信部13は、収集装置10とは異なる機器である解析装置20に対して、解析用データを送信(出力)可能である。通信部13は、有線、無線を問わずネットワークを介した通信によって、収集装置10とは異なる機器との間でデータを送受信する。 The communication unit 13 communicates various data between a device different from the collection device 10 and the collection device 10. The communication unit 13 of the present embodiment can transmit (output) analysis data to the analysis device 20 which is a device different from the collection device 10. The communication unit 13 transmits / receives data to / from a device different from the collection device 10 by communication via a network regardless of whether it is wired or wireless.

制御部14は、収集装置10の各部を統括的に制御するものである。制御部14は、解析用データを収集するための種々の演算処理を実行する。制御部14は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の中央演算処理装置、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、インターフェースを含む周知のマイクロコンピュータを主体とする電子回路を含んで構成される。制御部14は、カメラ11、位置情報測定器12、通信部13等の各部と通信可能に接続され、各部との間で相互に各種信号、データを授受可能である。 The control unit 14 comprehensively controls each unit of the collection device 10. The control unit 14 executes various arithmetic processes for collecting analysis data. The control unit 14 mainly includes a well-known microcomputer including a central processing unit such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and an interface. It is configured to include an electronic circuit. The control unit 14 is communicably connected to each unit such as the camera 11, the position information measuring instrument 12, and the communication unit 13, and can exchange various signals and data with each other.

より具体的には、制御部14は、記憶部14A、及び、処理部14Bを含んで構成される。記憶部14A、及び、処理部14Bは、各部との間で相互に各種信号、データを授受可能である。記憶部14Aは、処理部14Bでの各種処理に必要な条件や情報、制御部14で実行する各種プログラムやアプリケーション、制御データ等が格納されている。記憶部14Aは、解析用データを、収集した時刻等と共に記憶することができる。言い換えれば、解析用データは、当該データを収集した時刻を表す時刻データやその他のデータも含む。記憶部14Aは、例えば、処理部14Bによる処理の過程で生成される各種データを一時的に記憶することもできる。記憶部14Aは、処理部14B、通信部13等によってこれらのデータが必要に応じて読み出される。記憶部14Aは、例えば、ハードディスク、SSD(Solid State Drive)、光ディスクなどの比較的に大容量の記憶装置、あるいは、RAM、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)などのデータを書き換え可能な半導体メモリであってもよい。処理部14Bは、各種入力信号等に基づいて、記憶部14Aに記憶されている各種プログラムを実行し、当該プログラムが動作することにより各部に出力信号を出力し各種機能を実現するための種々の処理を実行する。処理部14Bは、カメラ11、位置情報測定器12の動作を制御し、画像データ、位置データを含む解析用データを収集する処理を実行する。また、処理部14Bは、通信部13を介したデータの送受信に関わる処理を実行する。処理部14Bは、例えば、解析用データを、通信部13を介して解析装置20に送信する処理を実行する。 More specifically, the control unit 14 includes a storage unit 14A and a processing unit 14B. The storage unit 14A and the processing unit 14B can exchange various signals and data with each other. The storage unit 14A stores conditions and information necessary for various processes in the processing unit 14B, various programs and applications executed by the control unit 14, control data, and the like. The storage unit 14A can store the analysis data together with the collected time and the like. In other words, the analysis data also includes time data and other data representing the time when the data was collected. The storage unit 14A can also temporarily store various data generated in the process of processing by the processing unit 14B, for example. In the storage unit 14A, these data are read out as needed by the processing unit 14B, the communication unit 13, and the like. The storage unit 14A can rewrite data such as a relatively large-capacity storage device such as a hard disk, SSD (Solid State Drive), and an optical disk, or data such as RAM, flash memory, and NVSRAM (Non Volatile Static Random Access Memory). It may be a semiconductor memory. The processing unit 14B executes various programs stored in the storage unit 14A based on various input signals and the like, and when the program operates, outputs an output signal to each unit and realizes various functions. Execute the process. The processing unit 14B controls the operation of the camera 11 and the position information measuring device 12, and executes a process of collecting analysis data including image data and position data. Further, the processing unit 14B executes processing related to data transmission / reception via the communication unit 13. The processing unit 14B executes, for example, a process of transmitting analysis data to the analysis device 20 via the communication unit 13.

解析装置20は、収集装置10によって収集された解析用データを解析し、解析結果を表す解析結果データをコンテンツサービス装置30に提供するものである。解析装置20、及び、コンテンツサービス装置30は、ネットワーク上に実装されるいわゆるクラウドサービス型の装置(クラウドサーバ)を構成する。解析装置20は、収集装置10によって収集された解析用データに基づいて、当該解析用データを構成する画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析する。解析装置20は、当該人物の属性を表す人物属性データ、及び、当該属性が特定された人物の人流を表す属性別人流データを生成する。さらに、解析装置20は、属性が特定された人物の人流を表す属性別人流データに基づいて、当該属性が特定された人物の動きを予測し、当該予測された人物の動きを表す動き予測データを生成する。そして、解析装置20は、人物属性データ、属性別人流データ、及び、動き予測データを含む解析結果データをコンテンツサービス装置30に提供する。 The analysis device 20 analyzes the analysis data collected by the collection device 10 and provides the analysis result data representing the analysis result to the content service device 30. The analysis device 20 and the content service device 30 constitute a so-called cloud service type device (cloud server) mounted on a network. Based on the analysis data collected by the collection device 10, the analysis device 20 determines the attributes of the person included in the image represented by the image data constituting the analysis data, and the flow of the person to which the attributes are specified. To analyze. The analysis device 20 generates the person attribute data representing the attribute of the person and the attribute-specific person flow data representing the person flow of the person to whom the attribute is specified. Further, the analysis device 20 predicts the movement of the person whose attribute is specified based on the attribute-specific person flow data representing the person flow of the person whose attribute is specified, and the motion prediction data representing the predicted movement of the person. To generate. Then, the analysis device 20 provides the content service device 30 with analysis result data including person attribute data, attribute-specific human flow data, and motion prediction data.

解析装置20は、解析用データに基づいて人物の属性、及び、人物の人流を解析するための種々の演算処理を実行する。また、解析装置20は、属性別人流データに基づいて当該属性が特定された人物の動きを予測するための種々の演算処理を実行する。解析装置20は、CPU、GPU等の中央演算処理装置、ROM、RAM、及び、インターフェースを含む周知のマイクロコンピュータを主体とする電子回路を含んで構成される。解析装置20は、既知のPCやワークステーションなどのコンピュータシステムに下記で説明する種々の処理を実現させるアプリケーションをインストールすることで構成することもできる。なお、解析装置20は、必ずしもクラウドサービス型の装置を構成するものでなくてもよく、また、複数のPCを相互通信可能に組み合わせることで構成されてもよい。 The analysis device 20 executes various arithmetic processes for analyzing the attributes of a person and the flow of the person based on the analysis data. Further, the analysis device 20 executes various arithmetic processes for predicting the movement of the person whose attribute is specified based on the attribute-specific human flow data. The analysis device 20 includes a central processing unit such as a CPU and a GPU, a ROM, a RAM, and an electronic circuit mainly composed of a well-known microcomputer including an interface. The analysis device 20 can also be configured by installing an application that realizes various processes described below in a known computer system such as a PC or a workstation. The analysis device 20 does not necessarily constitute a cloud service type device, and may be configured by combining a plurality of PCs so as to be able to communicate with each other.

具体的には、解析装置20は、通信部(解析装置通信部)21と、記憶部22と、処理部23とを備える。通信部21、記憶部22、及び、処理部23は、各部との間で相互に各種信号、データを授受可能である。 Specifically, the analysis device 20 includes a communication unit (analysis device communication unit) 21, a storage unit 22, and a processing unit 23. The communication unit 21, the storage unit 22, and the processing unit 23 can exchange various signals and data with each other.

通信部21は、解析装置20とは異なる機器と当該解析装置20との間で各種データの通信を行うものである。本実施形態の通信部21は、解析装置20とは異なる機器である収集装置10から解析用データを受信(入力)可能である。さらに、本実施形態の通信部21は、解析装置20とは異なる機器であるコンテンツサービス装置30に対して、解析結果データを送信(出力)可能である。通信部21は、通信部13と同様に、有線、無線を問わずネットワークを介した通信によって、解析装置20とは異なる機器との間でデータを送受信する。 The communication unit 21 communicates various data between a device different from the analysis device 20 and the analysis device 20. The communication unit 21 of the present embodiment can receive (input) analysis data from the collection device 10, which is a device different from the analysis device 20. Further, the communication unit 21 of the present embodiment can transmit (output) analysis result data to the content service device 30, which is a device different from the analysis device 20. Similar to the communication unit 13, the communication unit 21 transmits / receives data to / from a device different from the analysis device 20 by communication via a network regardless of whether it is wired or wireless.

記憶部22は、処理部23での各種処理に必要な条件や情報、処理部23で実行する各種プログラムやアプリケーション、制御データ等が格納されている。記憶部22は、通信部21によって受信された解析用データを記憶することができる。記憶部22は、例えば、処理部23による処理の過程で生成される各種データを一時的に記憶することもできる。記憶部22は、通信部21、処理部23等によってこれらのデータが必要に応じて読み出される。記憶部22は、例えば、ハードディスク、SSD、光ディスクなどの比較的に大容量の記憶装置、あるいは、RAM、フラッシュメモリ、NVSRAMなどのデータを書き換え可能な半導体メモリであってもよい。 The storage unit 22 stores conditions and information necessary for various processes in the processing unit 23, various programs and applications executed by the processing unit 23, control data, and the like. The storage unit 22 can store the analysis data received by the communication unit 21. The storage unit 22 can also temporarily store various data generated in the process of processing by the processing unit 23, for example. In the storage unit 22, these data are read out as needed by the communication unit 21, the processing unit 23, and the like. The storage unit 22 may be, for example, a storage device having a relatively large capacity such as a hard disk, SSD, or an optical disk, or a semiconductor memory such as a RAM, a flash memory, or an NVSRAM that can rewrite data.

より具体的には、記憶部22は、機能概念的に、解析対象データベース(以下、「解析対象DB」と略記する。)22A、解析参照データベース(以下、「解析参照DB」と略記する。)22B、及び、解析結果データベース(以下、「解析結果DB」と略記する。)22Cを含んで構成される。 More specifically, the storage unit 22 is functionally conceptually referred to as an analysis target database (hereinafter abbreviated as "analysis target DB") 22A and an analysis reference database (hereinafter abbreviated as "analysis reference DB"). It includes 22B and an analysis result database (hereinafter, abbreviated as "analysis result DB") 22C.

解析対象DB22Aは、処理部23による解析対象データである解析用データ(画像データ、位置データ、時刻データ等)を蓄積しデータベース化して記憶する部分である。収集装置10から通信部21に入力された解析用データは、この解析対象DB22Aに記憶される。 The analysis target DB 22A is a portion that accumulates analysis data (image data, position data, time data, etc.) that is analysis target data by the processing unit 23, creates a database, and stores the data. The analysis data input from the collection device 10 to the communication unit 21 is stored in the analysis target DB 22A.

解析参照DB22Bは、処理部23による解析用データの解析の際に参照する解析参照データを蓄積しデータベース化して記憶する部分である。解析参照データは、例えば、地図参照データ、属性予測参照データ等を含む。地図参照データは、位置データ等に基づいて収集装置10の位置、言い換えれば、人物を含む画像が撮像された位置を特定する際に参照する地図を表すデータである。属性予測参照データは、画像データが表す画像に含まれる人物の属性の推定等に参照するデータである。属性予測参照データについては、後で詳細に説明する。解析参照データは、処理部23によって解析用データの解析の際に参照される。 The analysis reference DB 22B is a portion that stores the analysis reference data referred to when the processing unit 23 analyzes the analysis data, creates a database, and stores the data. The analysis reference data includes, for example, map reference data, attribute prediction reference data, and the like. The map reference data is data representing a map to be referred to when specifying the position of the collecting device 10 based on the position data or the like, in other words, the position where the image including a person is captured. The attribute prediction reference data is data referred to for estimating the attributes of a person included in the image represented by the image data. The attribute prediction reference data will be described in detail later. The analysis reference data is referred to by the processing unit 23 when the analysis data is analyzed.

解析結果DB22Cは、処理部23による解析用データの解析結果を表す解析結果データを蓄積しデータベース化して記憶する部分である。解析結果データは、例えば、画像データが表す画像に含まれる人物の属性を表す人物属性データ、属性が特定された人物の人流を表す属性別人流データ、及び、属性が特定された人物について予測された当該人物の動きを表す動き予測データ等を含む。解析結果データは、通信部21からコンテンツサービス装置30に送信、提供される。 The analysis result DB 22C is a portion that accumulates analysis result data representing the analysis result of the analysis data by the processing unit 23, creates a database, and stores the analysis result data. The analysis result data is predicted, for example, for the person attribute data representing the attribute of the person included in the image represented by the image data, the attribute-specific flow data representing the flow of the person whose attribute is specified, and the person whose attribute is specified. Includes movement prediction data and the like that represent the movement of the person. The analysis result data is transmitted and provided from the communication unit 21 to the content service device 30.

なお、解析対象DB22A、解析参照DB22B、解析結果DB22Cに記憶される各種データは、いわゆるビッグデータ(big data)として活用することができる。 Various data stored in the analysis target DB 22A, the analysis reference DB 22B, and the analysis result DB 22C can be utilized as so-called big data.

処理部23は、各種入力信号等に基づいて、記憶部22に記憶されている各種プログラムを実行し、当該プログラムが動作することにより解析用データを解析するための種々の処理を実行する。また、処理部23は、属性別人流データに基づいて属性が特定された人物の動きを予測するための種々の処理を実行する。また、処理部23は、通信部21を介したデータの送受信に関わる処理を実行する。処理部23は、例えば、解析結果データを、通信部21を介してコンテンツサービス装置30に送信する処理を実行する。 The processing unit 23 executes various programs stored in the storage unit 22 based on various input signals and the like, and executes various processes for analyzing the analysis data by operating the program. In addition, the processing unit 23 executes various processes for predicting the movement of the person whose attribute is specified based on the attribute-specific human flow data. Further, the processing unit 23 executes processing related to data transmission / reception via the communication unit 21. The processing unit 23 executes, for example, a process of transmitting analysis result data to the content service device 30 via the communication unit 21.

より具体的には、処理部23は、機能概念的に、データ前処理部23A、データ解析部としてのデータ解析処理部23B、及び、動き予測部としての動き予測処理部23Cを含んで構成される。 More specifically, the processing unit 23 is functionally conceptually configured to include a data preprocessing unit 23A, a data analysis processing unit 23B as a data analysis unit, and a motion prediction processing unit 23C as a motion prediction unit. To.

データ前処理部23Aは、解析対象データである解析用データに対して種々の前処理を施す部分である。データ前処理部23Aは、前処理として、例えば、解析対象DB22Aから解析対象データとなる解析用データを読み出し、当該解析用データに含まれる画像データが表す動画像から静止画像を切り出す処理を実行する。また、データ前処理部23Aは、前処理として、例えば、切り出した当該静止画像と、解析対象データとなる解析用データに含まれる位置データが表す位置とを紐付する処理を実行する。 The data pre-processing unit 23A is a portion that performs various pre-processing on the analysis data that is the analysis target data. As preprocessing, the data preprocessing unit 23A reads, for example, analysis data to be analysis target data from analysis target DB 22A, and executes a process of cutting out a still image from a moving image represented by the image data included in the analysis target data. .. Further, as preprocessing, the data preprocessing unit 23A executes, for example, a process of associating the cut out still image with the position represented by the position data included in the analysis data to be the analysis target data.

データ解析処理部23Bは、データ前処理部23Aによって前処理が施された解析用データに基づいて、画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析する部分である。ここでは、データ解析処理部23Bは、例えば、種々の公知の人工知能(Artificial Intelligence)技術や深層学習(Deep Learning)技術を用いて画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析する処理を実行可能に構成される。 The data analysis processing unit 23B determines the attributes of the person included in the image represented by the image data and the flow of the person to whom the attributes are specified, based on the analysis data preprocessed by the data preprocessing unit 23A. This is the part to be analyzed. Here, the data analysis processing unit 23B uses, for example, various known artificial intelligence techniques and deep learning techniques to attribute the person included in the image represented by the image data, and the attributes thereof. Is configured to be able to execute the process of analyzing the flow of the identified person.

本実施形態のデータ解析処理部23Bは、種々の公知の画像処理技術を用いて、データ前処理部23Aによって切り出された静止画像から人物を検出し抽出する処理を実行する。またここでは、データ解析処理部23Bは、画像データが表す画像から当該人物の特徴点を含む画像を抽出する処理を実行する。ここで、当該人物の特徴点とは、画像に含まれる人物において当該人物の属性を特定可能な部位である。当該人物の特徴点とは、例えば、当該人物の表情が現われる顔、しぐさ・ジェスチャが現れる手足、アクセサリ等が装着されやすい傾向にある位置等の部位である。データ解析処理部23Bは、例えば、異なる角度から撮像された多数の画像から、人物の属性特定に用いることができる当該人物の特徴点が写った画像を抽出する。 The data analysis processing unit 23B of the present embodiment uses various known image processing techniques to execute a process of detecting and extracting a person from a still image cut out by the data preprocessing unit 23A. Further, here, the data analysis processing unit 23B executes a process of extracting an image including the feature points of the person from the image represented by the image data. Here, the characteristic point of the person is a part where the attribute of the person can be specified in the person included in the image. The characteristic points of the person are, for example, a face where the person's facial expression appears, limbs where gestures / gestures appear, positions where accessories and the like tend to be easily attached, and the like. The data analysis processing unit 23B extracts, for example, an image showing a characteristic point of the person that can be used for specifying the attribute of the person from a large number of images captured from different angles.

そして、データ解析処理部23Bは、画像データから抽出した人物の特徴点を含む画像に基づいて、当該画像に含まれる人物の属性を解析する処理を実行する。データ解析処理部23Bは、例えば、解析参照DB22Bに記憶されている属性予測参照データ(解析参照データ)と、データ前処理部23Aによって画像データから抽出された画像に含まれる人物の特徴点とに基づいて、当該人物の属性を解析する。ここで、属性予測参照データは、人工知能技術や深層学習技術を用いた様々な手法によって、画像に含まれる人物の特徴点等に応じて推定可能な当該人物の属性を学習した結果が反映される情報である。言い換えれば、属性予測参照データは、画像に含まれる人物の特徴点等に基づいて人物の属性を推定するために、人工知能技術や深層学習技術を用いた様々な手法を用いてデータベース化されたデータである。この属性予測参照データは、逐次更新可能である。属性予測参照データは、例えば、データ解析処理部23Bによる解析結果を表す解析結果データ(人物属性データ)自体を学習のためのデータとすることもできる。 Then, the data analysis processing unit 23B executes a process of analyzing the attributes of the person included in the image based on the image including the feature points of the person extracted from the image data. The data analysis processing unit 23B includes, for example, attribute prediction reference data (analysis reference data) stored in the analysis reference DB 22B and feature points of a person included in the image extracted from the image data by the data preprocessing unit 23A. Based on this, the attributes of the person concerned are analyzed. Here, the attribute prediction reference data reflects the result of learning the attributes of the person that can be estimated according to the characteristic points of the person included in the image by various methods using artificial intelligence technology and deep learning technology. Information. In other words, the attribute prediction reference data was created into a database using various methods using artificial intelligence technology and deep learning technology in order to estimate the attributes of the person based on the characteristic points of the person included in the image. It is data. This attribute prediction reference data can be updated sequentially. As the attribute prediction reference data, for example, the analysis result data (personal attribute data) itself representing the analysis result by the data analysis processing unit 23B can be used as the data for learning.

データ解析処理部23Bによって解析される人物の属性としては、典型的には、当該人物の外観の特徴点から解析可能な事項、例えば、当該人物の性別、年齢、体格、社会的地位、嗜好、又は、行動志向等を含む。ここで、性別とは、男性、女性の別を表す属性である。年齢とは、生まれてから現在(その時)までの年月の長さを表す属性である。体格とは、身長、体重、各種寸法等を表す属性である。社会的地位とは、職業(自営業、ビジネスマン、警官、学生、無職、アルバイト)、年収、身分、同行者等を表す属性である。嗜好とは、服装・所持品・ファッションの傾向(カジュアル志向、エレガント志向、ブランド志向、高級志向、ファストファッション志向)、趣味(スポーツ/サブカルチャー/アウトドア/美容等)等を表す属性である。行動志向とは、その時点での気分、興味関心(やりたいこと、行きたいところ)等を表す属性である。つまりここでは、データ解析処理部23Bは、人物の属性として、性別、年齢、体格、社会的地位、嗜好、行動志向等を推定する。 The attributes of a person analyzed by the data analysis processing unit 23B are typically items that can be analyzed from the characteristics of the appearance of the person, such as gender, age, physique, social status, and preferences of the person. Or, it includes behavioral orientation. Here, the gender is an attribute representing the distinction between male and female. Age is an attribute that represents the length of years from birth to the present (at that time). The physique is an attribute representing height, weight, various dimensions, and the like. Social status is an attribute that represents occupation (self-employed, businessman, police officer, student, unemployed, part-time job), annual income, status, companion, etc. Preference is an attribute representing a tendency of clothes / belongings / fashion (casual-oriented, elegant-oriented, brand-oriented, luxury-oriented, fast fashion-oriented), hobby (sports / subculture / outdoor / beauty, etc.). Behavioral orientation is an attribute that expresses the mood, interests (what you want to do, where you want to go), etc. at that time. That is, here, the data analysis processing unit 23B estimates gender, age, physique, social status, preference, behavioral orientation, etc. as the attributes of the person.

データ解析処理部23Bは、属性予測参照データを参照して、画像に含まれる人物の特徴点に対応する属性(性別、年齢、体格、社会的地位、嗜好、又は、行動志向)を抽出し、抽出した属性を当該画像に映り込んだ人物の属性であるものと推定する。データ解析処理部23Bは、例えば、画像に含まれる人物の特徴点である顔の表情、手足のしぐさ・ジェスチャ、装着されているアクセサリや洋服等に応じて、属性予測参照データを参照し、当該特徴点にあう属性をマッチングし、当該人物の性別、年齢、体格、社会的地位、嗜好、行動志向等の属性を推定する。 The data analysis processing unit 23B refers to the attribute prediction reference data and extracts the attributes (gender, age, physique, social status, preference, or behavior orientation) corresponding to the characteristic points of the person included in the image. It is presumed that the extracted attributes are the attributes of the person reflected in the image. The data analysis processing unit 23B refers to the attribute prediction reference data according to, for example, facial expressions, gestures / gestures of limbs, attached accessories, clothes, etc., which are characteristic points of the person included in the image. The attributes that match the characteristic points are matched, and the attributes such as gender, age, physique, social status, taste, and behavioral orientation of the person are estimated.

そしてさらに、データ解析処理部23Bは、人物の属性が特定された画像データに紐付された位置データに基づいて、上記のようにして属性が特定された人物の人流を解析する処理を実行する。データ解析処理部23Bは、例えば、解析対象DB22Aから、人物の属性が特定された画像データに紐付された位置データを読み出す。そして、データ解析処理部23Bは、解析参照DB22Bに記憶されている地図参照データ(解析参照データ)と、読み出した位置データとに基づいて、当該属性が特定された人物の人流を解析する。例えば、データ解析処理部23Bは、地図参照データを参照して、当該位置データに基づいて当該画像が撮像された位置を特定する。そして、データ解析処理部23Bは、当該位置データが表す位置に基づいて、属性が特定された人物の位置を特定し、これを時系列で並べることで人流を特定する。データ解析処理部23Bによって解析される人物の人流は、典型的には、当該人物の各時間帯における分布、移動方向、移動速度、動きの始点・終点等によって表される。つまりここでは、データ解析処理部23Bは、属性が特定された人物の人流として、当該人物の各時間帯における分布、移動方向、移動速度、動きの始点・終点等を推定する。 Further, the data analysis processing unit 23B executes a process of analyzing the flow of the person whose attributes are specified as described above based on the position data associated with the image data in which the attributes of the person are specified. The data analysis processing unit 23B reads, for example, the position data associated with the image data in which the attribute of the person is specified from the analysis target DB 22A. Then, the data analysis processing unit 23B analyzes the flow of the person whose attribute is specified based on the map reference data (analysis reference data) stored in the analysis reference DB 22B and the read position data. For example, the data analysis processing unit 23B refers to the map reference data and identifies the position where the image is captured based on the position data. Then, the data analysis processing unit 23B identifies the position of the person whose attribute is specified based on the position represented by the position data, and identifies the person flow by arranging the positions in chronological order. The flow of a person analyzed by the data analysis processing unit 23B is typically represented by the distribution, movement direction, movement speed, start point / end point, etc. of the person in each time zone. That is, here, the data analysis processing unit 23B estimates the distribution, movement direction, movement speed, start point / end point, etc. of the person in each time zone of the person whose attributes are specified.

データ解析処理部23Bは、解析用データを解析した解析結果データとして、上記のように解析した人物の属性を表す人物属性データ、及び、属性が特定された人物の人流を表す属性別人流データを生成する。そして、データ解析処理部23Bは、生成した人物属性データ、及び、属性別人流データを含む解析結果データを解析結果DB22Cに蓄積しデータベース化して記憶させる。 As the analysis result data obtained by analyzing the analysis data, the data analysis processing unit 23B obtains the person attribute data representing the attribute of the person analyzed as described above and the attribute-specific person flow data representing the person flow of the person whose attribute is specified. Generate. Then, the data analysis processing unit 23B stores the generated analysis result data including the person attribute data and the attribute-specific human flow data in the analysis result DB 22C, creates a database, and stores the data.

動き予測処理部23Cは、データ解析処理部23Bによって解析された属性別人流データに基づいて、属性が特定された人物の動きを予測する部分である。動き予測処理部23Cは、属性が特定された人物の人流を表す属性別人流データに基づいて、当該属性が特定された人物の動きを予測する処理を実行する。動き予測処理部23Cは、例えば、属性別人流データが表す当該人物の各時間帯における分布、移動方向、移動速度、動きの始点・終点等の人流に応じて、種々の公知の技術を用いて、属性が特定された人物の動きを予測する。動き予測処理部23Cは、例えば、人物の動きとして、時間経過に伴う当該人物の予測の軌跡を生成する。動き予測処理部23Cは、例えば、複数の属性別人流データを組み合わせて、属性が特定された人物の動きを予測してもよい。 The motion prediction processing unit 23C is a part that predicts the movement of a person whose attribute is specified based on the attribute-specific human flow data analyzed by the data analysis processing unit 23B. The motion prediction processing unit 23C executes a process of predicting the movement of the person whose attribute is specified based on the attribute-specific person flow data representing the person flow of the person whose attribute is specified. The motion prediction processing unit 23C uses various known techniques according to, for example, the distribution of the person in each time zone represented by the attribute-based human flow data, the movement direction, the movement speed, the start point / end point of the movement, and the like. , Predict the movement of the person whose attribute is specified. The motion prediction processing unit 23C generates, for example, a locus of prediction of the person with the passage of time as a movement of the person. The motion prediction processing unit 23C may predict, for example, the motion of a person whose attribute is specified by combining a plurality of attribute-specific human flow data.

動き予測処理部23Cは、解析用データを解析した解析結果データとして、上記のように予測した人物の動きを表す動き予測データを生成する。そして、動き予測処理部23Cは、生成した動き予測データを、上述の人物属性データ、属性別人流データと共に解析結果データとして解析結果DB22Cに蓄積しデータベース化して記憶させる。 The motion prediction processing unit 23C generates motion prediction data representing the motion of the person predicted as described above as the analysis result data obtained by analyzing the analysis data. Then, the motion prediction processing unit 23C accumulates the generated motion prediction data as analysis result data together with the above-mentioned person attribute data and attribute-specific human flow data in the analysis result DB 22C, and stores the generated motion prediction data in a database.

そして、処理部23は、上記のように、データ解析処理部23Bによって解析された人物属性データ、属性別人流データ、及び、動き予測処理部23Cによって予測された動き予測データを含む解析結果データを、通信部21を介してコンテンツサービス装置30に送信する処理を実行する。 Then, as described above, the processing unit 23 obtains analysis result data including the person attribute data analyzed by the data analysis processing unit 23B, the person flow data by attribute, and the motion prediction data predicted by the motion prediction processing unit 23C. , The process of transmitting to the content service device 30 via the communication unit 21 is executed.

コンテンツサービス装置30は、解析装置20によって解析、予測された解析結果データに基づいて、コンテンツの提供対象である人物に応じたコンテンツを選択し、選択したコンテンツを所定のコンテンツ出力装置40に出力させるものである。コンテンツサービス装置30は、上述したようにネットワーク上に実装されるいわゆるクラウドサービス型の装置を構成する。コンテンツサービス装置30は、解析装置20から送信、提供された解析結果データに基づいて、属性が特定された人物に対して提供するコンテンツを選択する。また、コンテンツサービス装置30は、解析装置20から送信、提供された解析結果データに基づいて、当該選択したコンテンツを出力させるコンテンツ出力装置40を決定する。コンテンツサービス装置30は、選択したコンテンツに関する種々のデータを生成し、当該データを、当該コンテンツを表示させるコンテンツ出力装置40に送信する。 The content service device 30 selects content according to the person to whom the content is provided based on the analysis result data analyzed and predicted by the analysis device 20, and causes the predetermined content output device 40 to output the selected content. It is a thing. The content service device 30 constitutes a so-called cloud service type device mounted on the network as described above. The content service device 30 selects the content to be provided to the person whose attribute is specified, based on the analysis result data transmitted and provided from the analysis device 20. Further, the content service device 30 determines a content output device 40 for outputting the selected content based on the analysis result data transmitted and provided from the analysis device 20. The content service device 30 generates various data related to the selected content, and transmits the data to the content output device 40 for displaying the content.

コンテンツサービス装置30は、解析結果データに基づいて、特定された人物の属性に応じたコンテンツを選択するための種々の演算処理を実行する。また、コンテンツサービス装置30は、解析結果データに基づいて、選択したコンテンツを出力させるコンテンツ出力装置40を決定するための種々の演算処理を実行する。コンテンツサービス装置30は、CPU、GPU等の中央演算処理装置、ROM、RAM、及び、インターフェースを含む周知のマイクロコンピュータを主体とする電子回路を含んで構成される。コンテンツサービス装置30は、既知のPCやワークステーションなどのコンピュータシステムに下記で説明する種々の処理を実現させるアプリケーションをインストールすることで構成することもできる。なお、コンテンツサービス装置30は、必ずしもクラウドサービス型の装置を構成するものでなくてもよく、また、複数のPCを相互通信可能に組み合わせることで構成されてもよい。 The content service device 30 executes various arithmetic processes for selecting content according to the attributes of the specified person based on the analysis result data. Further, the content service device 30 executes various arithmetic processes for determining the content output device 40 for outputting the selected content based on the analysis result data. The content service device 30 includes a central processing unit such as a CPU and a GPU, a ROM, a RAM, and an electronic circuit mainly composed of a well-known microcomputer including an interface. The content service device 30 can also be configured by installing an application that realizes various processes described below on a known computer system such as a PC or a workstation. The content service device 30 does not necessarily constitute a cloud service type device, and may be configured by combining a plurality of PCs so as to be able to communicate with each other.

具体的には、コンテンツサービス装置30は、通信部(コンテンツサービス装置通信部)31と、記憶部32と、処理部33とを備える。通信部31、記憶部32、及び、処理部33は、各部との間で相互に各種信号、データを授受可能である。 Specifically, the content service device 30 includes a communication unit (content service device communication unit) 31, a storage unit 32, and a processing unit 33. The communication unit 31, the storage unit 32, and the processing unit 33 can exchange various signals and data with each other.

通信部31は、コンテンツサービス装置30とは異なる機器と当該コンテンツサービス装置30との間で各種データの通信を行うものである。本実施形態の通信部31は、コンテンツサービス装置30とは異なる機器である解析装置20から解析結果データを受信(入力)可能である。さらに、本実施形態の通信部31は、コンテンツサービス装置30とは異なる機器であるコンテンツ出力装置40に対して、選択されたコンテンツに関する種々のデータを送信(出力)可能である。通信部31は、通信部13、21と同様に、有線、無線を問わずネットワークを介した通信によって、コンテンツサービス装置30とは異なる機器との間でデータを送受信する。 The communication unit 31 communicates various data between a device different from the content service device 30 and the content service device 30. The communication unit 31 of the present embodiment can receive (input) analysis result data from the analysis device 20 which is a device different from the content service device 30. Further, the communication unit 31 of the present embodiment can transmit (output) various data related to the selected content to the content output device 40, which is a device different from the content service device 30. Similar to the communication units 13 and 21, the communication unit 31 transmits / receives data to / from a device different from the content service device 30 by communication via a network regardless of whether it is wired or wireless.

記憶部32は、処理部33での各種処理に必要な条件や情報、処理部33で実行する各種プログラムやアプリケーション、制御データ等が格納されている。記憶部32は、通信部31によって受信された解析結果データを記憶することができる。記憶部32は、例えば、処理部33による処理の過程で生成される各種データを一時的に記憶することもできる。記憶部32は、通信部31、処理部33等によってこれらのデータが必要に応じて読み出される。記憶部32は、例えば、ハードディスク、SSD、光ディスクなどの比較的に大容量の記憶装置、あるいは、RAM、フラッシュメモリ、NVSRAMなどのデータを書き換え可能な半導体メモリであってもよい。 The storage unit 32 stores conditions and information necessary for various processes in the processing unit 33, various programs and applications executed by the processing unit 33, control data, and the like. The storage unit 32 can store the analysis result data received by the communication unit 31. The storage unit 32 can also temporarily store various data generated in the process of processing by the processing unit 33, for example. In the storage unit 32, these data are read out as needed by the communication unit 31, the processing unit 33, and the like. The storage unit 32 may be, for example, a storage device having a relatively large capacity such as a hard disk, SSD, or an optical disk, or a semiconductor memory such as a RAM, a flash memory, or an NVSRAM that can rewrite data.

より具体的には、記憶部32は、機能概念的に、コンテンツデータベース(以下、「コンテンツDB」と略記する。)32Aを含んで構成される。 More specifically, the storage unit 32 is functionally conceptually configured to include a content database (hereinafter, abbreviated as “content DB”) 32A.

コンテンツDB32Aは、コンテンツ出力装置40に出力させるコンテンツを表すコンテンツデータを蓄積しデータベース化して記憶する部分である。ここで、コンテンツ出力装置40に出力させるコンテンツとしては、広告やクーポン等のコンテンツの他、地域情報や所定の施設への道順情報、災害時の避難経路/安全サポート情報等、様々な案内情報を構成するコンテンツを含んでいてもよい。コンテンツ出力装置40に出力させる可能性のある候補となるコンテンツを表すコンテンツデータは、人物の属性等に応じて異なる種類のものが複数このコンテンツDB32Aに記憶される。当該コンテンツDB32Aに記憶されているコンテンツデータは、逐次更新可能である。コンテンツDB32Aに記憶されているコンテンツデータは、複数のコンテンツの中から選択されたコンテンツを特定のコンテンツ出力装置40に出力させる際に、都度、当該出力させるコンテンツに応じたコンテンツデータが通信部21から当該特定のコンテンツ出力装置40に送信、ダウンロードされてもよい。また、コンテンツDBに記憶されているコンテンツデータは、コンテンツ出力装置40に出力させる可能性のある候補となる全てのコンテンツに応じたコンテンツデータが、夜間等、ネットワークのトラフィックが相対的に少ない時間帯に一括で通信部21から各コンテンツ出力装置40に送信、ダウンロードされてもよい。 The content DB 32A is a portion that stores and stores content data representing the content to be output to the content output device 40 as a database. Here, as the content to be output to the content output device 40, in addition to the content such as advertisements and coupons, various guidance information such as regional information, route information to a predetermined facility, evacuation route / safety support information in the event of a disaster, etc. It may include constituent content. A plurality of different types of content data representing candidate contents that may be output to the content output device 40 are stored in the content DB 32A according to the attributes of a person or the like. The content data stored in the content DB 32A can be sequentially updated. As for the content data stored in the content DB 32A, when the content selected from the plurality of contents is output to the specific content output device 40, the content data corresponding to the content to be output is output from the communication unit 21 each time. It may be transmitted and downloaded to the specific content output device 40. Further, the content data stored in the content DB is a time zone in which network traffic is relatively low, such as at night, when the content data corresponding to all the candidate contents that may be output to the content output device 40 is available. It may be collectively transmitted and downloaded from the communication unit 21 to each content output device 40.

処理部33は、各種入力信号等に基づいて、記憶部32に記憶されている各種プログラムを実行し、当該プログラムが動作することによりコンテンツを選択するための種々の処理を実行する。また、処理部33は、コンテンツを出力させるコンテンツ出力装置40を決定するための種々の処理を実行する。また、処理部33は、通信部31を介したデータの送受信に関わる処理を実行する。処理部33は、例えば、選択したコンテンツに関する種々のデータを、通信部31を介して当該コンテンツを出力させるコンテンツ出力装置40に送信する処理を実行する。 The processing unit 33 executes various programs stored in the storage unit 32 based on various input signals and the like, and executes various processes for selecting contents by operating the program. Further, the processing unit 33 executes various processes for determining the content output device 40 for outputting the content. Further, the processing unit 33 executes processing related to data transmission / reception via the communication unit 31. The processing unit 33 executes, for example, a process of transmitting various data related to the selected content to the content output device 40 for outputting the content via the communication unit 31.

より具体的には、処理部33は、機能概念的に、コンテンツ選択部としてのコンテンツ選択処理部33A、及び、出力先決定部としての出力先決定処理部33Bを含んで構成される。 More specifically, the processing unit 33 is functionally conceptually configured to include a content selection processing unit 33A as a content selection unit and an output destination determination processing unit 33B as an output destination determination unit.

コンテンツ選択処理部33Aは、データ解析処理部23Bによって解析された人物の属性に基づいて、コンテンツDB32Aに記憶されている複数のコンテンツから、コンテンツ出力装置40に出力させるコンテンツを選択する部分である。コンテンツ選択処理部33Aは、解析装置20から送信され通信部31で受信した解析結果データに含まれる人物属性データに基づいて、コンテンツDB32Aに記憶されている複数のコンテンツの中から、当該人物属性データが表す人物の属性に対応するコンテンツを選択する処理を実行する。例えば、コンテンツ選択処理部33Aは、人物属性データが表す当該人物の属性が女性、若者、カジュアル志向等の属性を含む場合には、女性用、若者向けのカジュアルな服飾の広告やクーポンを表すコンテンツを選択するようにしてもよい。また例えば、コンテンツ選択処理部33Aは、人物属性データが表す当該人物の属性が男性、中年、高級志向等の属性を含む場合には、高級腕時計の広告を表すコンテンツを選択するようにしてもよい。また例えば、コンテンツ選択処理部33Aは、人物属性データが表す当該人物の属性がスポーツ趣味等を含む属性である場合には、最寄りのスタジアムでのスポーツイベントやチケット情報を表すコンテンツを選択するようにしてもよい。また例えば、コンテンツ選択処理部33Aは、人物属性データが表す当該人物の属性が芸術趣味、美術への関心等を含む属性である場合には、最寄りの美術館への道順を表すコンテンツを選択するようにしてもよい。また例えば、コンテンツ選択処理部33Aは、人物属性データが表す当該人物の属性が災害避難、救護を要する状態等を含む属性である場合には、避難所への避難経路、安全サポートを表すコンテンツを選択するようにしてもよい。また、コンテンツ選択処理部33Aは、コンテンツを選択する際には、例えば、さらに、現在時刻や暦、季節等も加味して、人物属性データが表す人物の属性に対応するコンテンツを選択するようにしてもよい。 The content selection processing unit 33A is a unit that selects content to be output to the content output device 40 from a plurality of contents stored in the content DB 32A based on the attributes of the person analyzed by the data analysis processing unit 23B. The content selection processing unit 33A has the person attribute data from a plurality of contents stored in the content DB 32A based on the person attribute data included in the analysis result data transmitted from the analysis device 20 and received by the communication unit 31. Executes the process of selecting the content corresponding to the attribute of the person represented by. For example, when the attribute of the person represented by the person attribute data includes attributes such as women, young people, and casual orientation, the content selection processing unit 33A represents content for women's and young people's casual clothing advertisements and coupons. May be selected. Further, for example, when the attribute of the person represented by the person attribute data includes attributes such as male, middle-aged, and high-class oriented, the content selection processing unit 33A may select the content representing the advertisement of the high-class wristwatch. good. Further, for example, when the attribute of the person represented by the person attribute data is an attribute including sports hobbies, the content selection processing unit 33A selects the content representing the sporting event or ticket information at the nearest stadium. You may. Further, for example, when the attribute of the person represented by the person attribute data is an attribute including an artistic taste, an interest in art, etc., the content selection processing unit 33A selects the content indicating the route to the nearest museum. You may do it. Further, for example, when the attribute of the person represented by the person attribute data is an attribute including a state requiring disaster evacuation, rescue, etc., the content selection processing unit 33A provides content indicating an evacuation route to an evacuation center and safety support. You may choose. Further, when the content selection processing unit 33A selects the content, for example, the current time, the calendar, the season, and the like are also taken into consideration, and the content corresponding to the attribute of the person represented by the person attribute data is selected. You may.

出力先決定処理部33Bは、動き予測処理部23Cによって予測された人物の動きに基づいて、複数のコンテンツ出力装置40から、コンテンツ選択処理部33Aによって選択されたコンテンツを出力させるコンテンツ出力装置40を決定する部分である。出力先決定処理部33Bは、解析装置20から送信され通信部31で受信した解析結果データに含まれる属性別人流データ、動き予測データに基づいて、複数のコンテンツ出力装置40から、属性が特定された人物に対して、選択されたコンテンツを出力させるコンテンツ出力装置40を決定する処理を実行する。例えば、コンテンツ選択処理部33Aは、属性別人流データが表す当該人物の各時間帯における分布、移動方向、移動速度、動きの始点・終点、動き予測データが表す当該人物の予測の動き、時間経過に伴う当該人物の予測の軌跡等に基づいて、複数のコンテンツ出力装置40の中から、当該人物に対して上記で選択されたコンテンツを先回りして出力し認識させることができるコンテンツ出力装置40を決定する。 The output destination determination processing unit 33B outputs a content output device 40 that outputs the content selected by the content selection processing unit 33A from the plurality of content output devices 40 based on the movement of the person predicted by the motion prediction processing unit 23C. It is the part to decide. The output destination determination processing unit 33B identifies attributes from the plurality of content output devices 40 based on the attribute-specific human flow data and motion prediction data included in the analysis result data transmitted from the analysis device 20 and received by the communication unit 31. A process of determining a content output device 40 to output the selected content to the person is executed. For example, the content selection processing unit 33A may use the distribution, movement direction, movement speed, start point / end point of movement of the person in each time zone represented by the attribute-based human flow data, the predicted movement of the person represented by the movement prediction data, and the passage of time. A content output device 40 capable of proactively outputting and recognizing the content selected above to the person from among a plurality of content output devices 40 based on the trajectory of the person's prediction accompanying the above. decide.

そして、処理部33は、上記のように、出力先決定処理部33Bによって決定されたコンテンツ出力装置40に対して、コンテンツ選択処理部33Aによって選択されたコンテンツに関する種々のデータを、通信部31を介して送信する処理を実行する。処理部33は、例えば、コンテンツDB32Aに記憶されているコンテンツデータを、都度、コンテンツ出力装置40に送信する仕様である場合には、コンテンツに関するデータとして、コンテンツ選択処理部33Aによって選択されたコンテンツを表すコンテンツデータそのものをコンテンツ出力装置40に送信する。一方、処理部33は、例えば、コンテンツDBに記憶されている複数のコンテンツデータを所定の時間帯に予め一括でコンテンツ出力装置40に送信しておく仕様である場合には、コンテンツに関するデータとして、複数のコンテンツの中から当該選択したコンテンツを特定することができる識別データをコンテンツ出力装置40に送信する。 Then, as described above, the processing unit 33 transfers various data related to the content selected by the content selection processing unit 33A to the content output device 40 determined by the output destination determination processing unit 33B, and the communication unit 31. Executes the process of sending via. For example, in the case of the specification that the content data stored in the content DB 32A is transmitted to the content output device 40 each time, the processing unit 33 uses the content selected by the content selection processing unit 33A as the data related to the content. The represented content data itself is transmitted to the content output device 40. On the other hand, in the case of the specification that the processing unit 33 collectively transmits a plurality of content data stored in the content DB to the content output device 40 in advance at a predetermined time zone, the processing unit 33 can be used as data related to the content. Identification data that can identify the selected content from a plurality of contents is transmitted to the content output device 40.

なお、案内システム1は、上記で説明したコンテンツサービス装置30を複数備えていてもよい。 The guidance system 1 may include a plurality of the content service devices 30 described above.

複数のコンテンツ出力装置40は、上述したように、それぞれ複数のコンテンツを出力可能な装置である。複数のコンテンツ出力装置40は、収集装置10と同様に、固定体F、又は、移動体Vに設けられてもよい。複数のコンテンツ出力装置40は、少なくとも一部が上述の収集装置10と一体で構成されてもよい。 As described above, the plurality of content output devices 40 are devices capable of outputting a plurality of contents. The plurality of content output devices 40 may be provided on the fixed body F or the moving body V in the same manner as the collecting device 10. At least a part of the plurality of content output devices 40 may be integrally configured with the above-mentioned collection device 10.

具体的には、コンテンツ出力装置40は、出力装置41と、通信部(コンテンツ出力装置通信部)42と、制御部43とを備える。 Specifically, the content output device 40 includes an output device 41, a communication unit (content output device communication unit) 42, and a control unit 43.

出力装置41は、コンテンツを出力する装置である。出力装置41は、コンテンツに応じた画像を表示可能であるディスプレイ41A、コンテンツに応じた音・音声を出力可能であるスピーカ41B等を含んで構成される。 The output device 41 is a device that outputs content. The output device 41 includes a display 41A capable of displaying an image corresponding to the content, a speaker 41B capable of outputting sound / sound according to the content, and the like.

通信部42は、コンテンツ出力装置40とは異なる機器と当該コンテンツ出力装置40との間で各種データの通信を行うものである。本実施形態の通信部42は、コンテンツ出力装置40とは異なる機器であるコンテンツサービス装置30から、出力装置41で出力させるコンテンツに関する種々のデータを受信(入力)可能である。さらに、本実施形態の通信部42は、コンテンツ出力装置40とは異なる機器であるコンテンツサービス装置30に対して、コンテンツの出力結果に応じたフィードバックデータを送信(出力)可能である。通信部42は、通信部13、21、31と同様に、有線、無線を問わずネットワークを介した通信によって、コンテンツサービス装置30とは異なる機器との間でデータを送受信する。 The communication unit 42 communicates various data between a device different from the content output device 40 and the content output device 40. The communication unit 42 of the present embodiment can receive (input) various data related to the content to be output by the output device 41 from the content service device 30, which is a device different from the content output device 40. Further, the communication unit 42 of the present embodiment can transmit (output) feedback data according to the output result of the content to the content service device 30, which is a device different from the content output device 40. Similar to the communication units 13, 21, and 31, the communication unit 42 transmits / receives data to / from a device different from the content service device 30 by communication via a network regardless of whether it is wired or wireless.

制御部43は、コンテンツ出力装置40の各部を統括的に制御するものである。制御部43は、コンテンツを出力するための種々の演算処理を実行する。制御部43は、CPU、GPU等の中央演算処理装置、ROM、RAM、及び、インターフェースを含む周知のマイクロコンピュータを主体とする電子回路を含んで構成される。制御部43は、出力装置41、通信部42等の各部と通信可能に接続され、各部との間で相互に各種信号、データを授受可能である。 The control unit 43 comprehensively controls each unit of the content output device 40. The control unit 43 executes various arithmetic processes for outputting the content. The control unit 43 includes a central processing unit such as a CPU and a GPU, a ROM, a RAM, and an electronic circuit mainly composed of a well-known microcomputer including an interface. The control unit 43 is communicably connected to each unit such as the output device 41 and the communication unit 42, and can exchange various signals and data with each other.

制御部43は、記憶部43A、及び、処理部43Bを含んで構成される。記憶部43A、及び、処理部43Bは、各部との間で相互に各種信号、データを授受可能である。記憶部43Aは、処理部43Bでの各種処理に必要な条件や情報、処理部43Bで実行する各種プログラムやアプリケーション、制御データ等が格納されている。記憶部43Aは、通信部42によって受信されたコンテンツに関する種々のデータを記憶することができる。記憶部43Aは、例えば、処理部43Bによる処理の過程で生成される各種データを一時的に記憶することもできる。記憶部43Aは、通信部42、処理部43B等によってこれらのデータが必要に応じて読み出される。記憶部43Aは、例えば、ハードディスク、SSD、光ディスクなどの比較的に大容量の記憶装置、あるいは、RAM、フラッシュメモリ、NVSRAMなどのデータを書き換え可能な半導体メモリであってもよい。処理部43Bは、各種入力信号等に基づいて、記憶部43Aに記憶されている各種プログラムを実行し、当該プログラムが動作することにより各部に出力信号を出力し各種機能を実現するための種々の処理を実行する。処理部43Bは、出力装置41の動作を制御し、コンテンツを出力する処理を実行する。また、処理部43Bは、通信部42を介したデータの送受信に関わる処理を実行する。処理部43Bは、例えば、コンテンツサービス装置30から、通信部42を介して出力装置41で出力させるコンテンツに関する種々のデータを受信する処理を実行する。また、処理部43Bは、例えば、コンテンツの出力結果に応じたフィードバックデータを、通信部42を介してコンテンツサービス装置30に送信する処理を実行する。 The control unit 43 includes a storage unit 43A and a processing unit 43B. The storage unit 43A and the processing unit 43B can exchange various signals and data with each other. The storage unit 43A stores conditions and information necessary for various processes in the processing unit 43B, various programs and applications executed by the processing unit 43B, control data, and the like. The storage unit 43A can store various data related to the content received by the communication unit 42. The storage unit 43A can also temporarily store various data generated in the process of processing by the processing unit 43B, for example. In the storage unit 43A, these data are read out as needed by the communication unit 42, the processing unit 43B, and the like. The storage unit 43A may be, for example, a storage device having a relatively large capacity such as a hard disk, SSD, or an optical disk, or a semiconductor memory such as a RAM, a flash memory, or an NVSRAM that can rewrite data. The processing unit 43B executes various programs stored in the storage unit 43A based on various input signals and the like, and when the program operates, outputs an output signal to each unit and realizes various functions. Execute the process. The processing unit 43B controls the operation of the output device 41 and executes a process of outputting the content. Further, the processing unit 43B executes processing related to data transmission / reception via the communication unit 42. The processing unit 43B executes, for example, a process of receiving various data related to the content to be output by the output device 41 from the content service device 30 via the communication unit 42. Further, the processing unit 43B executes, for example, a process of transmitting feedback data according to the output result of the content to the content service device 30 via the communication unit 42.

より具体的には、記憶部43Aは、機能概念的に、コンテンツデータベース(以下、「コンテンツDB」と略記する。)43Aaを含んで構成される。また、処理部43Bは、機能概念的に、出力処理部43Ba、及び、フィードバック部43Bbを含んで構成される。 More specifically, the storage unit 43A is functionally conceptually configured to include a content database (hereinafter, abbreviated as “content DB”) 43Aa. Further, the processing unit 43B is functionally conceptually configured to include an output processing unit 43Ba and a feedback unit 43Bb.

コンテンツDB43Aaは、コンテンツ出力装置40に出力させるコンテンツを表すコンテンツデータを蓄積しデータベース化して記憶する部分である。コンテンツサービス装置30から通信部42に入力されたコンテンツデータは、このコンテンツDB43Aaに記憶される。当該コンテンツDB43Aaに記憶されるコンテンツデータは、上述したように、出力装置41にコンテンツを出力させる際に、都度、コンテンツサービス装置30から受信してもよいし、所定の時間帯に予め複数を一括で受信してもよい。 The content DB 43Aa is a portion that stores and stores content data representing the content to be output to the content output device 40 as a database. The content data input from the content service device 30 to the communication unit 42 is stored in the content DB 43Aa. As described above, the content data stored in the content DB 43Aa may be received from the content service device 30 each time the content is output to the output device 41, or a plurality of the content data may be collectively received in advance in a predetermined time zone. You may receive it at.

出力処理部43Baは、出力装置41の動作を制御し、コンテンツを出力する部分である。出力処理部43Baは、コンテンツサービス装置30から送信され通信部42で受信したコンテンツに関する種々のデータに基づいて、出力装置41に、属性が特定された人物の当該属性に対応するコンテンツを出力させる処理を実行する。出力処理部43Baは、出力装置41を構成するディスプレイ41Aを制御し、当該コンテンツに応じた画像を表示させる。また、出力処理部43Baは、出力装置41を構成するスピーカ41Bを制御し、当該コンテンツに応じた音・音声を出力させる。出力処理部43Baは、コンテンツDB32Aに記憶されているコンテンツデータを、都度、コンテンツ出力装置40のコンテンツDB43Aaに送信する仕様である場合には、コンテンツサービス装置30から送信されたコンテンツデータそのものに基づいて、当該コンテンツを出力装置41に出力させる。出力処理部43Baは、コンテンツDB32Aに記憶されているコンテンツデータを、所定の時間帯に複数を予め一括でコンテンツ出力装置40のコンテンツDB43Aaに送信する仕様である場合には、コンテンツサービス装置30から送信された識別データに応じたコンテンツデータをコンテンツDB43Aaから読み出す。そして、出力処理部43Baは、読み出したコンテンツデータに応じたコンテンツを出力装置41に出力させる。そして、出力先決定処理部33Bによって決定されたコンテンツ出力装置40は、データ解析処理部23Bによって属性が特定された人物に対して、コンテンツ選択処理部33Aによって選択されたコンテンツを、動き予測処理部23Cによって予測された人物の動きに応じたタイミングで出力する。 The output processing unit 43Ba is a unit that controls the operation of the output device 41 and outputs the content. The output processing unit 43Ba processes the output device 41 to output the content corresponding to the attribute of the person whose attribute is specified, based on various data related to the content transmitted from the content service device 30 and received by the communication unit 42. To execute. The output processing unit 43Ba controls the display 41A constituting the output device 41 to display an image corresponding to the content. Further, the output processing unit 43Ba controls the speaker 41B constituting the output device 41 to output sound / voice corresponding to the content. When the output processing unit 43Ba is designed to transmit the content data stored in the content DB 32A to the content DB 43Aa of the content output device 40 each time, the output processing unit 43Ba is based on the content data itself transmitted from the content service device 30. , The content is output to the output device 41. When the output processing unit 43Ba is designed to transmit a plurality of content data stored in the content DB 32A to the content DB 43Aa of the content output device 40 in a batch in advance at a predetermined time zone, the output processing unit 43Ba transmits the content data from the content service device 30. The content data corresponding to the identified identification data is read from the content DB 43Aa. Then, the output processing unit 43Ba causes the output device 41 to output the content corresponding to the read content data. Then, the content output device 40 determined by the output destination determination processing unit 33B transfers the content selected by the content selection processing unit 33A to the person whose attributes are specified by the data analysis processing unit 23B, and the motion prediction processing unit. It is output at the timing according to the movement of the person predicted by 23C.

なお、出力処理部43Baは、カメラ等を利用し、コンテンツの提供対象である人物の視線を検出し、当該検出した視線に基づいて出力装置41によって表示するコンテンツの情報量を調整してもよい。出力処理部43Baは、例えば、コンテンツの提供対象である人物の視線が出力装置41側に向いている場合には出力装置41に出力させるコンテンツの情報量を相対的に多くする。一方、出力処理部43Baは、例えば、コンテンツの提供対象である人物の視線が出力装置41側に向いていない場合には出力装置41に出力させるコンテンツの情報量を相対的に少なくする。また、出力処理部43Baは、例えば、コンテンツの提供対象である人物の視線が出力装置41側に向いていない場合には、出力装置41に、当該視線を出力装置41側に誘導するための画像や音声等を出力させるようにしてもよい。この構成により、コンテンツ出力装置40は、コンテンツの提供対象である人物の視線の状態に応じてより適正にコンテンツを出力することができる。 The output processing unit 43Ba may use a camera or the like to detect the line of sight of the person to whom the content is provided, and adjust the amount of information of the content to be displayed by the output device 41 based on the detected line of sight. .. For example, when the line of sight of the person to whom the content is provided is directed toward the output device 41, the output processing unit 43Ba relatively increases the amount of information of the content to be output to the output device 41. On the other hand, the output processing unit 43Ba relatively reduces the amount of information of the content to be output to the output device 41, for example, when the line of sight of the person to whom the content is provided is not directed to the output device 41 side. Further, the output processing unit 43Ba is, for example, an image for guiding the line of sight to the output device 41 to the output device 41 side when the line of sight of the person to whom the content is provided is not directed to the output device 41 side. Or voice may be output. With this configuration, the content output device 40 can more appropriately output the content according to the state of the line of sight of the person to whom the content is provided.

フィードバック部43Bbは、出力装置41によるコンテンツの出力結果をコンテンツサービス装置30にフィードバックする部分である。フィードバック部43Bbは、出力装置41によるコンテンツの出力結果に応じたフィードバックデータを、通信部42を介してコンテンツ出力装置40に送信する処理を実行する。出力装置41によるコンテンツの出力結果に応じたフィードバックデータとしては、例えば、コンテンツの提供対象である人物の属性に応じて選択されたコンテンツの内容に関する情報、当該コンテンツを実際に出力したか否かの情報等を含んでいてもよい。なお、フィードバック部43Bbは、コンテンツサービス装置30の他、さらに、複数のコンテンツ出力装置40をグループに分け当該グループ内のコンテンツ出力装置40を統括的に管理する管理装置等にも、上記フィードバックデータを送信するようにしてもよい。 The feedback unit 43Bb is a part that feeds back the output result of the content by the output device 41 to the content service device 30. The feedback unit 43Bb executes a process of transmitting feedback data according to the output result of the content by the output device 41 to the content output device 40 via the communication unit 42. As the feedback data according to the output result of the content by the output device 41, for example, information about the content of the content selected according to the attribute of the person to whom the content is provided, and whether or not the content is actually output. Information and the like may be included. In addition to the content service device 30, the feedback unit 43Bb also distributes the feedback data to a management device or the like that divides a plurality of content output devices 40 into groups and collectively manages the content output devices 40 in the group. You may send it.

次に、図2のフローチャート図を参照し案内システム1における処理の一例を説明する。 Next, an example of processing in the guidance system 1 will be described with reference to the flowchart of FIG.

まず、収集装置10は、画像データ、位置データを含む解析用データを収集する(ステップS1)。 First, the collecting device 10 collects analysis data including image data and position data (step S1).

次に、収集装置10は、収集した解析用データを、通信部13を介して出力し、通信部21を介して解析装置20に入力する(ステップS2)。解析装置20に入力された解析用データは、解析対象DB22Aに記憶される。 Next, the collecting device 10 outputs the collected analysis data via the communication unit 13 and inputs the collected analysis data to the analysis device 20 via the communication unit 21 (step S2). The analysis data input to the analysis device 20 is stored in the analysis target DB 22A.

次に、解析装置20のデータ前処理部23Aは、解析対象DB22Aに記憶されている解析用データに対して、上述したような種々の前処理を施す(ステップS3)。 Next, the data pre-processing unit 23A of the analysis device 20 performs various pre-processing as described above on the analysis data stored in the analysis target DB 22A (step S3).

次に、解析装置20のデータ解析処理部23Bは、データ前処理部23Aによって前処理が施された解析用データに基づいて、画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析する(ステップS4)。 Next, the data analysis processing unit 23B of the analysis device 20 has the attributes of the person included in the image represented by the image data and the attributes of the person based on the analysis data preprocessed by the data preprocessing unit 23A. The flow of the identified person is analyzed (step S4).

そして、データ解析処理部23Bは、解析結果データとして、人物属性データ、及び、属性別人流データを生成し、解析結果DB22Cに蓄積しデータベース化して記憶させる(ステップS5)。 Then, the data analysis processing unit 23B generates personal attribute data and attribute-specific human flow data as analysis result data, stores them in the analysis result DB 22C, and stores them in a database (step S5).

次に、解析装置20の動き予測処理部23Cは、データ解析処理部23Bによって属性が特定された人物の人流を表す属性別人流データに基づいて、当該属性が特定された人物の動きを予測する。そして、動き予測処理部23Cは、解析結果データとして、動き予測データを生成し、人物属性データ、属性別人流データと共に、解析結果DB22Cに蓄積しデータベース化して記憶させる(ステップS6)。 Next, the motion prediction processing unit 23C of the analysis device 20 predicts the movement of the person whose attribute is specified based on the attribute-specific human flow data representing the flow of the person whose attribute is specified by the data analysis processing unit 23B. .. Then, the motion prediction processing unit 23C generates motion prediction data as analysis result data, accumulates it in the analysis result DB 22C together with the person attribute data and the attribute-specific human flow data, and stores it in a database (step S6).

次に、解析装置20は、解析した解析結果データ(人物属性データ、属性別人流データ、動き予測データ)を、通信部21を介して出力し、通信部31を介してコンテンツサービス装置30に入力する(ステップS7)。 Next, the analysis device 20 outputs the analyzed analysis result data (person attribute data, attribute-specific human flow data, motion prediction data) via the communication unit 21, and inputs the analyzed analysis result data to the content service device 30 via the communication unit 31. (Step S7).

次に、コンテンツサービス装置30のコンテンツ選択処理部33Aは、解析結果データに含まれる人物属性データに基づいて、コンテンツDB32Aに記憶されている複数のコンテンツの中から、当該人物属性データが表す人物の属性に対応するコンテンツを選択する(ステップS8)。 Next, the content selection processing unit 33A of the content service device 30 determines the person represented by the person attribute data from among the plurality of contents stored in the content DB 32A based on the person attribute data included in the analysis result data. Select the content corresponding to the attribute (step S8).

次に、コンテンツサービス装置30の出力先決定処理部33Bは、解析結果データに含まれる属性別人流データ、動き予測データに基づいて、複数のコンテンツ出力装置40の中から、属性が特定された人物に対して、選択されたコンテンツを出力させるコンテンツ出力装置40を決定する(ステップS9)。 Next, the output destination determination processing unit 33B of the content service device 30 is a person whose attributes are specified from among a plurality of content output devices 40 based on the attribute-specific human flow data and motion prediction data included in the analysis result data. The content output device 40 for outputting the selected content is determined (step S9).

次に、ステップS9の処理で決定されたコンテンツ出力装置40の出力処理部43Baは、出力装置41を制御し、ステップS4の処理で属性が特定された人物に対して、ステップS8の処理で選択されたコンテンツを、ステップS6の処理で予測された当該人物の動きに応じたタイミングで出力する(ステップS10)。 Next, the output processing unit 43Ba of the content output device 40 determined in the process of step S9 controls the output device 41, and selects the person whose attribute is specified in the process of step S4 in the process of step S8. The generated content is output at a timing corresponding to the movement of the person predicted in the process of step S6 (step S10).

次に、ステップS10の処理でコンテンツを出力したコンテンツ出力装置40のフィードバック部43Bbは、出力装置41によるコンテンツの出力結果に応じたフィードバックデータを、コンテンツサービス装置30にフィードバックし(ステップS11)、一連の処理を終了する。 Next, the feedback unit 43Bb of the content output device 40 that outputs the content in the process of step S10 feeds back the feedback data according to the output result of the content by the output device 41 to the content service device 30 (step S11), and a series of feedbacks. Ends the processing of.

次に、図3、図4、図5の模式図を参照し案内システム1の動作の一例を説明する。 Next, an example of the operation of the guidance system 1 will be described with reference to the schematic views of FIGS. 3, 4, and 5.

例えば、図3に示す例では、案内システム1は、バス停留所等の固定体Fに設けられた収集装置10によって、画像データ、位置データを含む解析用データが収集される。そして、案内システム1は、収集装置10によって収集された解析用データが解析装置20に送信され、当該解析装置20によって解析される。そして、案内システム1は、解析装置20によって解析された解析結果データがコンテンツサービス装置30に送信され、当該コンテンツサービス装置30によって人物の属性に応じたコンテンツが選択されると共に当該選択されたコンテンツの出力先が決定される。そして、案内システム1は、収集装置10が設けられた固定体Fとは離れた位置にあるバス停留所等の固定体Fに設けられたコンテンツ出力装置40によって、選択されたコンテンツが予測された当該人物の動きに応じたタイミングで先回りして出力される。その後、案内システム1は、コンテンツの出力結果に応じたフィードバックデータが当該コンテンツ出力装置40からコンテンツサービス装置30に送信される。 For example, in the example shown in FIG. 3, the guidance system 1 collects analysis data including image data and position data by a collection device 10 provided in a fixed body F such as a bus stop. Then, in the guidance system 1, the analysis data collected by the collection device 10 is transmitted to the analysis device 20, and the analysis device 20 analyzes the data. Then, in the guidance system 1, the analysis result data analyzed by the analysis device 20 is transmitted to the content service device 30, and the content service device 30 selects the content according to the attribute of the person and the selected content. The output destination is determined. Then, in the guidance system 1, the selected content is predicted by the content output device 40 provided in the fixed body F such as a bus stop located at a position away from the fixed body F in which the collecting device 10 is provided. It is output ahead of time according to the movement of the person. After that, the guidance system 1 transmits feedback data according to the output result of the content from the content output device 40 to the content service device 30.

また、例えば、図4に示す例では、案内システム1は、バス等の移動体Vに設けられた収集装置10によって、画像データ、位置データを含む解析用データが収集される。そして、案内システム1は、収集装置10によって収集された解析用データが解析装置20に送信され、当該解析装置20によって解析される。そして、案内システム1は、解析装置20によって解析された解析結果データがコンテンツサービス装置30に送信され、当該コンテンツサービス装置30によって人物の属性に応じたコンテンツが選択されると共に当該選択されたコンテンツの出力先が決定される。そして、案内システム1は、収集装置10が設けられた移動体Vと同じ移動体Vに設けられたコンテンツ出力装置40によって、選択されたコンテンツが予測された当該人物の動きに応じたタイミングで先回りして出力される。その後、案内システム1は、コンテンツの出力結果に応じたフィードバックデータが当該コンテンツ出力装置40からコンテンツサービス装置30に送信される。 Further, for example, in the example shown in FIG. 4, the guidance system 1 collects analysis data including image data and position data by a collection device 10 provided on a moving body V such as a bus. Then, in the guidance system 1, the analysis data collected by the collection device 10 is transmitted to the analysis device 20, and the analysis device 20 analyzes the data. Then, in the guidance system 1, the analysis result data analyzed by the analysis device 20 is transmitted to the content service device 30, and the content service device 30 selects the content according to the attribute of the person and the selected content. The output destination is determined. Then, in the guidance system 1, the selected content is advanced at the timing corresponding to the predicted movement of the person by the content output device 40 provided in the same mobile body V as the mobile body V in which the collection device 10 is provided. Is output. After that, the guidance system 1 transmits feedback data according to the output result of the content from the content output device 40 to the content service device 30.

また、例えば、図5に示す例では、案内システム1は、バス等の移動体Vに設けられた収集装置10によって、画像データ、位置データを含む解析用データが収集される。そして、案内システム1は、収集装置10によって収集された解析用データが解析装置20に送信され、当該解析装置20によって解析される。そして、案内システム1は、解析装置20によって解析された解析結果データがコンテンツサービス装置30に送信され、当該コンテンツサービス装置30によって人物の属性に応じたコンテンツが選択されると共に当該選択されたコンテンツの出力先が決定される。そして、案内システム1は、建造物の屋上等の固定体Fに設けられたコンテンツ出力装置40によって、選択されたコンテンツが予測された当該人物の動きに応じたタイミングで先回りして出力される。その後、案内システム1は、コンテンツの出力結果に応じたフィードバックデータが当該コンテンツ出力装置40からコンテンツサービス装置30に送信される。 Further, for example, in the example shown in FIG. 5, in the guidance system 1, analysis data including image data and position data is collected by a collection device 10 provided on a moving body V such as a bus. Then, in the guidance system 1, the analysis data collected by the collection device 10 is transmitted to the analysis device 20, and the analysis device 20 analyzes the data. Then, in the guidance system 1, the analysis result data analyzed by the analysis device 20 is transmitted to the content service device 30, and the content service device 30 selects the content according to the attribute of the person and the selected content. The output destination is determined. Then, the guidance system 1 is proactively output by the content output device 40 provided on the fixed body F such as the rooftop of the building at the timing corresponding to the predicted movement of the person. After that, the guidance system 1 transmits feedback data according to the output result of the content from the content output device 40 to the content service device 30.

そして、案内システム1は、複数の収集装置10、複数のコンテンツ出力装置40を連携させ、図3、図4、図5等に示す例を組み合わせることで、属性が特定された人物の動きに応じて連続的にコンテンツを出力することもできる。なお、コンテンツ出力装置40は、さらに、通信部42を介してコンテンツ出力装置40とは異なる機器として、コンテンツの提供対象となる人物が所持する携帯端末(スマートフォン)と通信を行い、出力装置41で出力させるコンテンツに関する種々のデータを送信してもよい。この場合、処理部43Bは、例えば、コンテンツに関する種々のデータを、通信部42を介して通信対象を限定した近距離無線通信等によって、コンテンツの提供対象となる人物が所持する携帯端末に送信する処理を実行するようにしてもよい。またこの場合、案内システム1は、例えば、バス停留所等の固定体Fに設けられたコンテンツ出力装置40によって出力したコンテンツに応じたクーポンを携帯端末に送信したり、ディスプレイ41Aに当該クーポンに対応するQRコード(登録商標)等を表示させ、携帯端末によって読み取らせたりするように促してもよい。また、案内システム1は、例えば、コンテンツの提供対象となる人物を含む学生グループがコンテンツ出力装置40の近傍を通った場合に、スピーカ41Bから「写真撮らない?」等の音声を出力させてコンテンツ出力装置40側に誘導し、内蔵カメラで写真を撮影、携帯端末に転送すると共に転送の際に写真に帯広告を付して当該携帯端末へ送信するようにしてもよい。 Then, the guidance system 1 responds to the movement of the person whose attribute is specified by linking a plurality of collection devices 10 and a plurality of content output devices 40 and combining the examples shown in FIGS. 3, 4, 5, and the like. It is also possible to output the contents continuously. The content output device 40 further communicates with a mobile terminal (smartphone) owned by a person to whom the content is provided as a device different from the content output device 40 via the communication unit 42, and the output device 41 communicates with the mobile terminal (smartphone). Various data related to the content to be output may be transmitted. In this case, the processing unit 43B transmits various data related to the content to the mobile terminal possessed by the person to whom the content is provided, for example, by short-range wireless communication with a limited communication target via the communication unit 42. The process may be executed. Further, in this case, for example, the guidance system 1 transmits a coupon corresponding to the content output by the content output device 40 provided in the fixed body F such as a bus stop to the mobile terminal, or corresponds to the coupon on the display 41A. A QR code (registered trademark) or the like may be displayed and urged to be read by a mobile terminal. Further, the guidance system 1 outputs, for example, a voice such as "Would you like to take a picture?" From the speaker 41B when a student group including a person to be provided with the content passes near the content output device 40 to output the content. It may be guided to the output device 40 side, a photograph may be taken by the built-in camera, transferred to the mobile terminal, and at the time of transfer, a band advertisement may be attached to the photograph and transmitted to the mobile terminal.

以上で説明した案内システム1は、収集装置10によって収集された解析用データに基づいて、データ解析処理部23Bによって画像データが表す画像に含まれる人物の属性、及び、人流が解析される。そして、案内システム1は、出力先決定処理部33Bによって決定されたコンテンツ出力装置40が、コンテンツ選択処理部33Aによって人物の属性に応じて選択されたコンテンツを、動き予測処理部23Cによって予測された当該人物の動きに応じたタイミングで出力する。この結果、案内システム1は、特定の人物に対して、当該人物の属性に応じたコンテンツを、当該人物の動きに応じたタイミングで先回りして出力することができるので、特定の個人にあわせた案内を行うことができる。つまり、案内システム1は、属性が解析された特定の人物がどこに向かうのか(滞在も含む)を予測して、当該属性に応じたコンテンツをリアルタイムで選択し、当該人物の動きにあわせて出力することができる。 In the guidance system 1 described above, the data analysis processing unit 23B analyzes the attributes of the person included in the image represented by the image data and the flow of people based on the analysis data collected by the collection device 10. Then, in the guidance system 1, the content output device 40 determined by the output destination determination processing unit 33B predicts the content selected by the content selection processing unit 33A according to the attribute of the person by the motion prediction processing unit 23C. It is output at the timing according to the movement of the person. As a result, the guidance system 1 can output the content according to the attribute of the person to the specific person in advance at the timing according to the movement of the person, and thus is tailored to the specific individual. Guidance can be provided. That is, the guidance system 1 predicts where a specific person whose attribute has been analyzed (including stay) is predicted, selects content corresponding to the attribute in real time, and outputs the content according to the movement of the person. be able to.

また、以上で説明した案内システム1は、収集装置10が固定体Fや移動体Vに複数設けられるので、複数の収集装置10によって収集された解析用データに基づいて、複数のコンテンツ出力装置40によって動的に連続した案内を行うことができる。 Further, in the guidance system 1 described above, since a plurality of collection devices 10 are provided on the fixed body F and the moving body V, a plurality of content output devices 40 are provided based on the analysis data collected by the plurality of collection devices 10. Allows dynamic continuous guidance.

また、以上で説明した案内システム1は、複数のコンテンツ出力装置40が固定体Fや移動体Vに設けられるので、属性が特定された人物の動きに応じて適正なタイミングでコンテンツを出力し案内を行うことができる。 Further, in the guidance system 1 described above, since a plurality of content output devices 40 are provided on the fixed body F and the moving body V, the content is output and guided at an appropriate timing according to the movement of the person whose attribute is specified. It can be performed.

一例として、以上で説明した案内システム1は、画像データが表す画像に含まれる人物の属性として、性別、年齢、体格、社会的地位、嗜好、行動志向等を推定する。この結果、案内システム1は、特定の個人にあわせて性別、年齢、体格、社会的地位、嗜好、行動志向等を反映させた案内を行うことができる。 As an example, the guidance system 1 described above estimates gender, age, physique, social status, preference, behavioral orientation, etc. as attributes of a person included in an image represented by image data. As a result, the guidance system 1 can provide guidance that reflects gender, age, physique, social status, taste, behavioral orientation, etc., according to a specific individual.

[実施形態2]
実施形態2に係る案内システムは、収集装置、解析装置の構成が実施形態1とは異なる。以下では、上述した実施形態と同様の構成要素には共通の符号が付されるとともに、共通する構成、作用、効果については、重複した説明はできるだけ省略する。
[Embodiment 2]
The guidance system according to the second embodiment has a different configuration of the collecting device and the analysis device from the first embodiment. In the following, the same components as those in the above-described embodiment are designated by a common reference numeral, and the common configurations, actions, and effects will be omitted as much as possible.

図6に示す本実施形態に係る案内システム201は、収集装置10にかえて収集装置210を備え、解析装置20にかえて解析装置220を備える点で上述の案内システム1と異なる。案内システム201のその他の構成は、当該案内システム1と略同様の構成である。 The guidance system 201 according to the present embodiment shown in FIG. 6 is different from the above-mentioned guidance system 1 in that the collection device 210 is provided instead of the collection device 10 and the analysis device 220 is provided instead of the analysis device 20. The other configurations of the guidance system 201 are substantially the same as those of the guidance system 1.

本実施形態の案内システム201は、上述した解析装置20の機能の一部が収集装置210側に組み込まれ、解析装置20の残りの部分が当該解析装置220を構成する。より具体的には、案内システム201は、上述した解析装置20のデータ前処理部23A、 データ解析処理部23Bを収集装置210側に組み込むことでいわゆるエッジコンピューティングシステムを採用している。 In the guidance system 201 of the present embodiment, a part of the functions of the analysis device 20 described above is incorporated in the collection device 210 side, and the remaining part of the analysis device 20 constitutes the analysis device 220. More specifically, the guidance system 201 employs a so-called edge computing system by incorporating the data preprocessing unit 23A and the data analysis processing unit 23B of the analysis device 20 described above into the collection device 210 side.

本実施形態の収集装置210は、処理部14Bにかえて処理部214Bを備える点で上述の収集装置10と異なる。収集装置210のその他の構成は、当該収集装置10と略同様の構成である。処理部214Bは、機能概念的に、データ収集処理部214Ba、データ前処理部214Bb、及び、データ解析部としてのデータ解析処理部214Bcを含んで構成される。 The collecting device 210 of the present embodiment is different from the above-mentioned collecting device 10 in that the processing unit 214B is provided in place of the processing unit 14B. The other configurations of the collecting device 210 are substantially the same as those of the collecting device 10. The processing unit 214B is functionally conceptually configured to include a data collection processing unit 214Ba, a data preprocessing unit 214Bb, and a data analysis processing unit 214Bc as a data analysis unit.

データ収集処理部214Baは、カメラ11、位置情報測定器12を制御して画像データ、位置データを含む解析用データを収集する部分である。データ収集処理部214Baは、カメラ11、位置情報測定器12の動作を制御し、画像データ、位置データを含む解析用データを収集する処理を実行する。 The data collection processing unit 214Ba is a unit that controls the camera 11 and the position information measuring device 12 to collect image data and analysis data including position data. The data collection processing unit 214Ba controls the operation of the camera 11 and the position information measuring device 12, and executes a process of collecting analysis data including image data and position data.

データ前処理部214Bbは、上述したデータ前処理部23Aと同様に、解析対象データである解析用データに対して種々の前処理を施す部分である。データ前処理部214Bbは、前処理として、例えば、データ収集処理部214Baによって収集された解析用データに含まれる画像データが表す動画像から静止画像を切り出す処理を実行する。また、データ前処理部214Bbは、前処理として、例えば、切り出した当該静止画像と、データ収集処理部214Baによって収集された解析用データに含まれる位置データが表す位置とを紐付する処理を実行する。 The data pre-processing unit 214Bb is a portion that performs various pre-processing on the analysis target data, which is the analysis target data, similarly to the data pre-processing unit 23A described above. As preprocessing, the data preprocessing unit 214Bb executes, for example, a process of cutting out a still image from a moving image represented by image data included in the analysis data collected by the data collection processing unit 214Ba. Further, the data preprocessing unit 214Bb executes, for example, as a preprocessing, a process of associating the cut out still image with the position represented by the position data included in the analysis data collected by the data collection processing unit 214Ba. ..

データ解析処理部214Bcは、上述したデータ解析処理部23Bと同様に、データ前処理部214Bbによって前処理が施された解析用データに基づいて、画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析する部分である。データ解析処理部214Bcは、データ前処理部214Bbによって切り出された静止画像から人物を検出し抽出する処理を実行する。データ解析処理部214Bcは、画像データが表す画像から当該人物の特徴点を含む画像を抽出する処理を実行する。データ解析処理部214Bcは、画像データから抽出した人物の特徴点を含む画像に基づいて、当該画像に含まれる人物の属性を解析する処理を実行する。データ解析処理部214Bcは、人物の属性が特定された画像データに紐付された位置データに基づいて、当該属性が特定された人物の人流を解析する処理を実行する。本実施形態のデータ解析処理部214Bcは、人物の属性、及び、人物の人流の解析の際には、通信部13を介して解析参照DB22Bに記憶されている解析参照データ(地図参照データ、属性予測参照データ)を適宜参照する。 Similar to the data analysis processing unit 23B described above, the data analysis processing unit 214Bc has the attributes of the person included in the image represented by the image data and the attributes of the person based on the analysis data preprocessed by the data preprocessing unit 214Bb. , This is the part that analyzes the flow of the person whose attribute is specified. The data analysis processing unit 214Bc executes a process of detecting and extracting a person from a still image cut out by the data preprocessing unit 214Bb. The data analysis processing unit 214Bc executes a process of extracting an image including the feature points of the person from the image represented by the image data. The data analysis processing unit 214Bc executes a process of analyzing the attributes of the person included in the image based on the image including the feature points of the person extracted from the image data. The data analysis processing unit 214Bc executes a process of analyzing the flow of the person whose attribute is specified based on the position data associated with the image data in which the attribute of the person is specified. The data analysis processing unit 214Bc of the present embodiment has analysis reference data (map reference data, attributes) stored in the analysis reference DB 22B via the communication unit 13 when analyzing the attributes of the person and the flow of the person. Prediction reference data) will be referred to as appropriate.

データ解析処理部214Bcは、解析用データを解析した解析結果データとして、上記のように解析した人物の属性を表す人物属性データ、及び、属性が特定された人物の人流を表す属性別人流データを生成する。そして、本実施形態の処理部214Bは、解析用データと共に、当該人物属性データ、及び、当該属性別人流データを含む解析結果データを、通信部13を介して解析装置220に送信する処理を実行する。 As the analysis result data obtained by analyzing the analysis data, the data analysis processing unit 214Bc obtains the person attribute data representing the attribute of the person analyzed as described above and the attribute-specific person flow data representing the person flow of the person whose attribute is specified. Generate. Then, the processing unit 214B of the present embodiment executes a process of transmitting the analysis result data including the person attribute data and the person flow data according to the attribute to the analysis device 220 via the communication unit 13 together with the analysis data. do.

本実施形態の解析装置220は、処理部23にかえて処理部223を備える点で上述の解析装置20と異なる。解析装置220のその他の構成は、当該解析装置20と略同様の構成である。本実施形態の処理部223は、機能概念的に、動き予測部としての動き予測処理部23Cを含んで構成される点では上述の処理部23と同様である一方、上述したデータ前処理部23A、データ解析処理部23Bを備えない点で上述の処理部23と異なる。言い換えれば、本実施形態の解析装置220は、動き予測処理部23Cを主体とした動き予測装置を構成する。 The analysis device 220 of the present embodiment is different from the above-mentioned analysis device 20 in that the processing unit 223 is provided instead of the processing unit 23. The other configurations of the analysis device 220 are substantially the same as those of the analysis device 20. The processing unit 223 of the present embodiment is similar to the above-mentioned processing unit 23 in that it is functionally conceptually configured to include the movement prediction processing unit 23C as the movement prediction unit, while the above-mentioned data pre-processing unit 23A. It is different from the above-mentioned processing unit 23 in that it does not include the data analysis processing unit 23B. In other words, the analysis device 220 of the present embodiment constitutes a motion prediction device mainly composed of the motion prediction processing unit 23C.

本実施形態の通信部21は、解析装置220とは異なる機器である収集装置210から解析用データ、及び、解析結果データ(人物属性データ、属性別人流データ)を受信(入力)可能である。収集装置210から通信部21に入力された解析用データは、解析対象DB22Aに記憶される。同様に、収集装置210から通信部21に入力された解析結果データ(人物属性データ、属性別人流データ)は、解析結果DB22Cに記憶される。 The communication unit 21 of the present embodiment can receive (input) analysis data and analysis result data (person attribute data, attribute-specific human flow data) from the collection device 210, which is a device different from the analysis device 220. The analysis data input from the collection device 210 to the communication unit 21 is stored in the analysis target DB 22A. Similarly, the analysis result data (person attribute data, attribute-specific human flow data) input from the collection device 210 to the communication unit 21 is stored in the analysis result DB 22C.

そして、動き予測処理部23Cは、予測した人物の動きを表す動き予測データを生成し、生成した動き予測データを、上述の人物属性データ、属性別人流データと共に解析結果データとして解析結果DB22Cに蓄積しデータベース化して記憶させる。そして、処理部223は、解析結果DB22Cに記憶されている人物属性データ、属性別人流データ、及び、動き予測データを含む解析結果データを、通信部21を介してコンテンツサービス装置30に送信する処理を実行する。 Then, the motion prediction processing unit 23C generates motion prediction data representing the predicted motion of the person, and stores the generated motion prediction data in the analysis result DB 22C as analysis result data together with the above-mentioned person attribute data and attribute-specific human flow data. Make a database and store it. Then, the processing unit 223 transmits the analysis result data including the person attribute data, the attribute-specific human flow data, and the motion prediction data stored in the analysis result DB 22C to the content service device 30 via the communication unit 21. To execute.

以上で説明した案内システム201は、案内システム1と同様に、特定の個人にあわせた案内を行うことができる。その上で、案内システム201は、解析装置220における演算負荷を抑制し、当該演算負荷を収集装置210側に分散させることができる。 Similar to the guidance system 1, the guidance system 201 described above can provide guidance tailored to a specific individual. In addition, the guidance system 201 can suppress the calculation load in the analysis device 220 and distribute the calculation load to the collection device 210 side.

なお、上述した本発明の実施形態に係る案内システムは、上述した実施形態に限定されず、特許請求の範囲に記載された範囲で種々の変更が可能である。本実施形態に係る案内システムは、以上で説明した各実施形態、変形例の構成要素を適宜組み合わせることで構成してもよい。 The guidance system according to the embodiment of the present invention described above is not limited to the embodiment described above, and various modifications can be made within the scope described in the claims. The guidance system according to the present embodiment may be configured by appropriately combining the components of each of the embodiments and modifications described above.

以上で説明した案内システム1、201は、解析装置20、220とコンテンツサービス装置30とが一体で1つの装置を構成してもよい。また、例えば、動き予測処理部23Cは、コンテンツサービス装置30側に設けられていてもよい。 In the guidance systems 1 and 201 described above, the analysis devices 20 and 220 and the content service device 30 may be integrated into one device. Further, for example, the motion prediction processing unit 23C may be provided on the content service device 30 side.

以上で説明した案内システム1、201は、例えば、異なる事業者が管理する複数のコンテンツサービス装置30が相互に連携してもよく、例えば、複数のコンテンツサービス装置30と複数のコンテンツ出力装置40とが相互にネットワークを構成していてもよい。 In the guidance systems 1 and 201 described above, for example, a plurality of content service devices 30 managed by different businesses may cooperate with each other, for example, a plurality of content service devices 30 and a plurality of content output devices 40. May form a network with each other.

以上で説明した制御部14、43、解析装置20、220、コンテンツサービス装置30は、各部が別体に構成され、当該各部が各種の電気信号を相互に授受可能に接続されることで構成されてもよく、一部の機能が他の制御装置によって実現されてもよい。また、以上で説明したプログラム、アプリケーション、各種データ等は、適宜、更新されてもよいし、案内システム1、201に対して任意のネットワークを介して接続されたサーバに記憶されていてもよい。以上で説明したプログラム、アプリケーション、各種データ等は、例えば、必要に応じてその全部又は一部をダウンロードすることも可能である。また、例えば、制御部14、43、解析装置20、220、コンテンツサービス装置30が備える処理機能については、その全部又は任意の一部を、例えば、CPU等及び当該CPU等にて解釈実行されるプログラムにて実現してもよく、また、ワイヤードロジック等によるハードウェアとして実現してもよい。 The control units 14, 43, the analysis devices 20, 220, and the content service device 30 described above are configured as separate units, and the respective units are configured to be connected to each other so that various electric signals can be exchanged. However, some functions may be realized by other control devices. Further, the programs, applications, various data and the like described above may be updated as appropriate, or may be stored in a server connected to the guidance systems 1 and 201 via an arbitrary network. The programs, applications, various data and the like described above can be downloaded in whole or in part as needed. Further, for example, with respect to the processing functions provided in the control units 14, 43, the analysis devices 20, 220, and the content service device 30, all or any part thereof is interpreted and executed by, for example, a CPU or the like and the CPU or the like. It may be realized by a program, or it may be realized as hardware by wired logic or the like.

1、201 案内システム
10、210 収集装置
20、220 解析装置
23B、214Bc データ解析処理部(データ解析部)
23C 動き予測処理部(動き予測部)
30 コンテンツサービス装置
33A コンテンツ選択処理部(コンテンツ選択部)
33B 出力先決定処理部(出力先決定部)
40 コンテンツ出力装置
F 固定体
V 移動体
1,201 Guidance system 10,210 Collection device 20,220 Analysis device 23B, 214Bc Data analysis processing unit (data analysis unit)
23C Motion prediction processing unit (motion prediction unit)
30 Content service device 33A Content selection processing unit (content selection unit)
33B Output destination determination processing unit (output destination determination unit)
40 Content output device F Fixed body V Mobile body

Claims (5)

人物を含む画像を表す画像データ、及び、前記画像が撮像された位置を表す位置データを含む解析用データを収集する収集装置と、
それぞれ複数のコンテンツを出力可能である複数のコンテンツ出力装置と、
前記収集装置によって収集された前記解析用データに基づいて、前記画像データが表す画像に含まれる人物の属性、及び、当該属性が特定された人物の人流を解析するデータ解析部と、
前記データ解析部によって解析された前記人物の人流に基づいて、前記属性が特定された人物の動きを予測する動き予測部と、
前記データ解析部によって解析された前記人物の属性に基づいて、前記複数のコンテンツから、前記コンテンツ出力装置に出力させるコンテンツを選択するコンテンツ選択部と、
前記動き予測部によって予測された前記人物の動きに基づいて、前記複数のコンテンツ出力装置から、前記コンテンツ選択部によって選択された前記コンテンツを出力させるコンテンツ出力装置を決定する出力先決定部とを備え、
前記出力先決定部によって決定された前記コンテンツ出力装置は、前記データ解析部によって前記属性が特定された人物に対して、前記コンテンツ選択部によって選択された前記コンテンツを、前記動き予測部によって予測された前記人物の動きに応じたタイミングで出力するものであり、
前記コンテンツ出力装置は、前記コンテンツの提供対象である前記人物の視線を検出し、当該検出した視線に基づいて表示する前記コンテンツの情報量を調整し、当該人物の視線が当該コンテンツ出力装置側に向いている場合には出力させる前記コンテンツの情報量を相対的に多くし、当該人物の視線が当該コンテンツ出力装置側に向いていない場合には出力させる前記コンテンツの情報量を相対的に少なくし、当該コンテンツ出力装置を管理する装置に、前記コンテンツの出力結果に応じたフィードバックデータを送信し、
前記コンテンツ出力装置による前記コンテンツの出力結果に応じた前記フィードバックデータは、前記コンテンツの提供対象である前記人物の前記属性に応じて選択された前記コンテンツの内容に関する情報、及び、当該コンテンツを実際に出力したか否かの情報を含んでいることを特徴とする、
案内システム。
An image data representing an image including a person, and a collecting device for collecting analysis data including position data representing the position where the image is captured, and a collecting device.
Multiple content output devices that can output multiple contents each, and
Based on the analysis data collected by the collection device, the data analysis unit that analyzes the attributes of the person included in the image represented by the image data and the flow of the person to which the attributes are specified, and the data analysis unit.
A motion prediction unit that predicts the movement of a person whose attributes are specified based on the flow of the person analyzed by the data analysis unit.
A content selection unit that selects content to be output to the content output device from the plurality of contents based on the attributes of the person analyzed by the data analysis unit.
Based on the movement of the person predicted by the motion prediction unit, the plurality of content output devices include an output destination determination unit that determines a content output device for outputting the content selected by the content selection unit. ,
The content output device determined by the output destination determination unit predicts the content selected by the content selection unit for a person whose attribute is specified by the data analysis unit by the motion prediction unit. It is output at the timing according to the movement of the person.
The content output device detects the line of sight of the person who is the target of providing the content, adjusts the amount of information of the content to be displayed based on the detected line of sight, and the line of sight of the person is directed to the content output device side. If the content is oriented, the amount of information of the content to be output is relatively large, and if the person's line of sight is not directed toward the content output device, the amount of information of the content to be output is relatively small . , Send feedback data according to the output result of the content to the device that manages the content output device.
The feedback data according to the output result of the content by the content output device is information about the content of the content selected according to the attribute of the person to whom the content is provided, and the content is actually used. It is characterized by containing information on whether or not it has been output .
Guidance system.
前記収集装置は、路上あるいは建造物に固定された固定体、又は、移動可能である移動体に複数設けられる、
請求項1に記載の案内システム。
A plurality of the collecting devices are provided on a fixed body fixed on the road or in a building, or on a movable body that is movable.
The guidance system according to claim 1.
前記複数のコンテンツ出力装置は、路上あるいは建造物に固定された固定体、又は、移動可能である移動体に設けられる、
請求項1又は請求項2に記載の案内システム。
The plurality of content output devices are provided on a fixed body fixed to a road or a building, or a movable body that is movable.
The guidance system according to claim 1 or 2.
前記データ解析部によって解析される人物の属性は、性別、年齢、体格、社会的地位、嗜好、又は、行動志向を含む、
請求項1乃至請求項3のいずれか1項に記載の案内システム。
The attributes of the person analyzed by the data analysis unit include gender, age, physique, social status, preference, or behavioral orientation.
The guidance system according to any one of claims 1 to 3.
複数の前記収集装置、複数の前記コンテンツ出力装置を連携させ、前記属性が特定された人物の動きに応じて連続的に前記コンテンツを出力し、
前記コンテンツ出力装置は、さらに、前記コンテンツの提供対象となる前記人物が所持する携帯端末と通信を行い、当該コンテンツに関するデータを送信する、
請求項1乃至請求項4のいずれか1項に記載の案内システム。
The plurality of collection devices and the plurality of content output devices are linked, and the content is continuously output according to the movement of the person whose attribute is specified.
The content output device further communicates with a mobile terminal owned by the person to whom the content is provided, and transmits data related to the content.
The guidance system according to any one of claims 1 to 4.
JP2018072888A 2018-04-05 2018-04-05 Guidance system Active JP6999237B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018072888A JP6999237B2 (en) 2018-04-05 2018-04-05 Guidance system
PCT/JP2019/002168 WO2019193816A1 (en) 2018-04-05 2019-01-24 Guidance system
CN201980024428.0A CN111971708A (en) 2018-04-05 2019-01-24 Guidance system
SG11202009713SA SG11202009713SA (en) 2018-04-05 2019-01-24 Guide system
TW108107248A TWI684938B (en) 2018-04-05 2019-03-05 Guidance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018072888A JP6999237B2 (en) 2018-04-05 2018-04-05 Guidance system

Publications (2)

Publication Number Publication Date
JP2019185236A JP2019185236A (en) 2019-10-24
JP6999237B2 true JP6999237B2 (en) 2022-01-18

Family

ID=68100788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018072888A Active JP6999237B2 (en) 2018-04-05 2018-04-05 Guidance system

Country Status (5)

Country Link
JP (1) JP6999237B2 (en)
CN (1) CN111971708A (en)
SG (1) SG11202009713SA (en)
TW (1) TWI684938B (en)
WO (1) WO2019193816A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110992397B (en) * 2019-10-21 2023-07-21 浙江大华技术股份有限公司 Personnel access track tracking method, system, computer equipment and storage medium
JP7338704B2 (en) * 2019-12-25 2023-09-05 日本電信電話株式会社 People flow prediction device, people flow prediction method, and people flow prediction program
CN111996947A (en) * 2020-08-13 2020-11-27 中铁第一勘察设计院集团有限公司 Tidal passenger flow intelligent mobile passenger flow partition system of airport integrated traffic hub
JP7547930B2 (en) 2020-10-27 2024-09-10 大日本印刷株式会社 Tourist information system, photography device, signage device, server, tourist information method, and program
JP7188427B2 (en) * 2020-12-07 2022-12-13 フジテック株式会社 Information provision system
JP7150912B2 (en) * 2021-02-22 2022-10-11 東芝エレベータ株式会社 ELEVATOR ADVERTISING METHOD, IN-CAR DISPLAY DEVICE AND ADVERTISING DISPLAY PROGRAM
CN114604800B (en) * 2022-03-31 2023-12-15 江苏西顿科技有限公司 Explosion-proof AGV car

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010041167A (en) 2008-08-01 2010-02-18 Seiko Epson Corp Voice output controller, sound output device, voice output control method, and program
JP2013238969A (en) 2012-05-14 2013-11-28 Secom Co Ltd Evacuation information delivery apparatus
JP2015002477A (en) 2013-06-17 2015-01-05 キヤノン株式会社 Information processing apparatus, information processing system, and information processing method
JP2016151847A (en) 2015-02-17 2016-08-22 恒夫 鳥居 Portable information terminal and distribution/collection system for electronic coupon using the same terminal
JP2017016345A (en) 2015-06-30 2017-01-19 東芝テック株式会社 Information processor, sales data processor and information processing system
JP2017107436A (en) 2015-12-10 2017-06-15 ヤフー株式会社 Program, device, and method for displaying information, and delivery device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006113711A (en) * 2004-10-13 2006-04-27 Matsushita Electric Ind Co Ltd Marketing information providing system
JP2011008571A (en) * 2009-06-26 2011-01-13 Shunkosha:Kk Passer-by fluidity data generating device, content distribution controlling device, passer-by fluidity data generating method, and content distribution controlling method
CN202383971U (en) * 2011-12-22 2012-08-15 无锡德思普科技有限公司 Advertisement broadcasting system with face identification function
CN103218913A (en) * 2012-12-26 2013-07-24 深圳市汇沣电子有限公司 Intelligent transportation guiding device
CN105160549A (en) * 2015-08-21 2015-12-16 浙江视科文化传播有限公司 Passenger flow statistical analysis system
CN105404850B (en) * 2015-10-21 2019-03-05 中南大学 Station flow monitoring system for passenger, station passenger flow monitoring method and station passenger flow managing and control system, station passenger flow management-control method
US10699422B2 (en) * 2016-03-18 2020-06-30 Nec Corporation Information processing apparatus, control method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010041167A (en) 2008-08-01 2010-02-18 Seiko Epson Corp Voice output controller, sound output device, voice output control method, and program
JP2013238969A (en) 2012-05-14 2013-11-28 Secom Co Ltd Evacuation information delivery apparatus
JP2015002477A (en) 2013-06-17 2015-01-05 キヤノン株式会社 Information processing apparatus, information processing system, and information processing method
JP2016151847A (en) 2015-02-17 2016-08-22 恒夫 鳥居 Portable information terminal and distribution/collection system for electronic coupon using the same terminal
JP2017016345A (en) 2015-06-30 2017-01-19 東芝テック株式会社 Information processor, sales data processor and information processing system
JP2017107436A (en) 2015-12-10 2017-06-15 ヤフー株式会社 Program, device, and method for displaying information, and delivery device

Also Published As

Publication number Publication date
TW201944324A (en) 2019-11-16
CN111971708A (en) 2020-11-20
JP2019185236A (en) 2019-10-24
TWI684938B (en) 2020-02-11
WO2019193816A1 (en) 2019-10-10
SG11202009713SA (en) 2020-10-29

Similar Documents

Publication Publication Date Title
JP6999237B2 (en) Guidance system
US20240161201A1 (en) Assigning mobile device data to a vehicle
JP7178626B2 (en) INFORMATION PRESENTATION SERVER, INFORMATION PRESENTATION SYSTEM AND INFORMATION PRESENTATION METHOD
US9733097B2 (en) Classifying routes of travel
KR20170127342A (en) System and method for providing augmented virtual reality content in autonomous vehicles
US10021254B2 (en) Autonomous vehicle cameras used for near real-time imaging
US20170336203A1 (en) Methods and systems for remote sensing with drones and mounted sensor devices
JP5940579B2 (en) Movement control device, movement control method, and movement control system
US20140176348A1 (en) Location based parking management system
US11520033B2 (en) Techniques for determining a location of a mobile object
KR20160036747A (en) Construction system for big data reflect regional characteristics tailored ads
JP2019020784A (en) Information provision device
CN109978220A (en) For providing system, equipment, method and the medium of guidance information
WO2020090310A1 (en) Analysis system
WO2019193817A1 (en) Analysis system
Sato et al. Push typed tourist information system based on beacon and augumented reality technologies
JP6956232B2 (en) Search system, search method, and search program
KR102228398B1 (en) Method and system for providing costomized information based on image analysis
Karanastasis et al. A novel AR application for in-vehicle entertainment and education
WO2022215006A1 (en) Panoptic segmentation forecasting for augmented reality
JP6914983B2 (en) Analysis system
KR20200027933A (en) Electronic device, method and system for providing contents relate to traffic
WO2018163906A1 (en) Information processing device, information processing system, and information processing program
KR102349665B1 (en) Apparatus and method for providing user-customized destination information
JP6184357B2 (en) Movement control device, movement control method, and movement control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210304

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211109

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211109

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211116

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211221

R150 Certificate of patent or registration of utility model

Ref document number: 6999237

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350