JP2017211932A - Information processing device, information processing system, program and information processing method - Google Patents

Information processing device, information processing system, program and information processing method Download PDF

Info

Publication number
JP2017211932A
JP2017211932A JP2016106473A JP2016106473A JP2017211932A JP 2017211932 A JP2017211932 A JP 2017211932A JP 2016106473 A JP2016106473 A JP 2016106473A JP 2016106473 A JP2016106473 A JP 2016106473A JP 2017211932 A JP2017211932 A JP 2017211932A
Authority
JP
Japan
Prior art keywords
information
attribute
control unit
visitor
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016106473A
Other languages
Japanese (ja)
Inventor
原 豪紀
Toshiki Hara
豪紀 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2016106473A priority Critical patent/JP2017211932A/en
Publication of JP2017211932A publication Critical patent/JP2017211932A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device or the like capable of improving the satisfaction of a visitor visiting an exhibition facility.SOLUTION: An information processing device 1 includes a storage part for storing attributes associated with a person, a place, and information on the place in association with one another in each attribute, an attribute discrimination part for discriminating an attribute from a person image, and a generation part for specifying the associated information with reference to the storage part in accordance with the discriminated attribute to generate guidance information. Since a visitor can be guided to a place corresponding to his/her individual attribute in this manner, the satisfaction of the visitor can be improved.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、情報処理システム、プログラム及び情報処理方法に関する。   The present invention relates to an information processing apparatus, an information processing system, a program, and an information processing method.

従来、美術館等の施設において、学芸員等が作成した展示ルートを来場者に提示するサービスが行われている。しかし、当該展示ルートは主として学術的見地に立って作成されるものであり、展示品に関して詳細な知識を持たない来場者にとっては満足度の高いものではなかった。   Conventionally, in a facility such as a museum, a service for presenting an exhibition route created by a curator to a visitor is performed. However, the exhibition route was created mainly from an academic point of view, and was not satisfactory for visitors who did not have detailed knowledge about the exhibits.

例えば特許文献1では、個々の見学者に対して個別に展示品を案内、誘導等する端末探索システム等が開示されている。特許文献1によれば、見学者の趣味、嗜好等を示す見学者情報に基づいて見学計画を作成し、端末装置を介して見学者に展示品を案内する。   For example, Patent Document 1 discloses a terminal search system that individually guides and guides exhibits to individual visitors. According to Patent Document 1, a tour plan is created based on visitor information indicating a visitor's hobbies, preferences, and the like, and an exhibit is guided to the visitor via a terminal device.

特開2015−119261号公報JP2015-119261A

しかし、特許文献1では来場者の趣味、嗜好等を考慮して展示品を案内するのみであり、展示品に対する来場者の興味を積極的に惹起させるに至っていない。   However, Patent Document 1 only guides exhibits in consideration of the visitor's hobbies, preferences, and the like, and does not actively raise the interest of visitors to the exhibits.

本発明は斯かる事情によりなされたものであって、その目的とするところは、展示施設等に来場する来場者の満足度向上を図ることができる情報処理装置等を提供することにある。   The present invention has been made under such circumstances, and an object of the present invention is to provide an information processing apparatus and the like that can improve the satisfaction of visitors who visit an exhibition facility.

本発明に係る情報処理装置は、人物に対応付けられた属性と、場所と、前記場所に関する情報とを属性毎に関連付けて記憶する記憶部と、人物画像から属性を判別する属性判別部と、判別した属性に応じて前記記憶部を参照して関連する前記情報を特定し案内情報を生成する生成部とを備えることを特徴とする。   An information processing apparatus according to the present invention includes an attribute associated with a person, a location, and a storage unit that stores information on the location in association with each attribute, an attribute determination unit that determines an attribute from a person image, A generating unit configured to identify the related information with reference to the storage unit according to the determined attribute and generate guidance information.

本発明に係る情報処理装置は、生成した前記案内情報を外部装置に出力する出力部を備えることを特徴とする。   The information processing apparatus according to the present invention includes an output unit that outputs the generated guidance information to an external device.

本発明に係る情報処理装置は、前記場所は、所定の施設における展示品の展示場所、又は商品若しくは役務の提供場所であり、前記案内情報は、前記展示場所又は提供場所を含むことを特徴とする。   The information processing apparatus according to the present invention is characterized in that the place is a display place of an exhibit in a predetermined facility or a place where goods or services are provided, and the guidance information includes the display place or the supply place. To do.

本発明に係る情報処理装置は、前記案内情報は、複数の前記場所を案内する案内経路を含むことを特徴とする。   The information processing apparatus according to the present invention is characterized in that the guidance information includes a guidance route for guiding the plurality of places.

本発明に係る情報処理装置は、前記人物画像に基づき、人物の外観に関する外観情報を抽出する抽出部を備え、前記属性判別部は、抽出した前記外観情報に基づき属性を判別することを特徴とする。   An information processing apparatus according to the present invention includes an extraction unit that extracts appearance information related to a person's appearance based on the person image, and the attribute determination unit determines an attribute based on the extracted appearance information. To do.

本発明に係る情報処理装置は、前記場所における人物の画像、音声、又は待機時間を取
得する取得部と、取得した前記画像、音声、又は待機時間に基づき、前記人物の感情を示す感情情報を推定する推定部と、推定した前記感情情報に応じて、前記案内情報を変更する変更部とを備えることを特徴とする。
An information processing apparatus according to the present invention includes an acquisition unit that acquires an image, sound, or waiting time of a person at the place, and emotion information that indicates the person's emotion based on the acquired image, sound, or waiting time. An estimation unit for estimation and a change unit for changing the guidance information according to the estimated emotion information are provided.

本発明に係る情報処理装置は、前記属性判別部は、前記人物画像から複数の人物の属性を判別することを特徴とする。   The information processing apparatus according to the present invention is characterized in that the attribute determining unit determines attributes of a plurality of persons from the person image.

本発明に係る情報処理システムは、人物に対応付けられた属性と、場所と、前記場所に関する情報とを属性毎に関連付けて記憶する記憶部と、人物画像から属性を判別する属性判別部と、判別した属性に応じて前記記憶部を参照して関連する前記情報を特定し案内情報を生成する生成部とを備えることを特徴とする。   An information processing system according to the present invention includes an attribute associated with a person, a location, and a storage unit that associates and stores information about the location for each attribute, an attribute determination unit that determines an attribute from a person image, A generating unit configured to identify the related information with reference to the storage unit according to the determined attribute and generate guidance information.

本発明に係るプログラムは、人物に対応付けられた属性と、場所と、前記場所に関する情報とを属性毎に関連付けて記憶部に記憶し、人物画像から属性を判別し、判別した属性に応じて前記記憶部を参照して関連する前記情報を特定し案内情報を生成する処理をコンピュータに実行させることを特徴とする。   The program according to the present invention stores an attribute associated with a person, a location, and information about the location in the storage unit in association with each attribute, determines an attribute from the person image, and according to the determined attribute The computer is caused to execute a process of identifying relevant information with reference to the storage unit and generating guidance information.

本発明に係る情報処理方法は、人物に対応付けられた属性と、場所と、前記場所に関する情報とを属性毎に関連付けて記憶部に記憶し、人物画像から属性を判別し、判別した属性に応じて前記記憶部を参照して関連する前記情報を特定し案内情報を生成する処理をコンピュータに実行させることを特徴とする。   The information processing method according to the present invention stores an attribute associated with a person, a location, and information about the location in the storage unit in association with each attribute, discriminates the attribute from the person image, and determines the discriminated attribute. Accordingly, the computer is caused to execute processing for identifying the relevant information with reference to the storage unit and generating guidance information.

本発明によれば、展示施設等に来場する来場者の満足度向上を図ることができる。   According to the present invention, it is possible to improve the satisfaction of visitors who visit an exhibition facility or the like.

情報処理システムの構成例を示す模式図である。It is a schematic diagram which shows the structural example of an information processing system. サーバの構成例を示すブロック図である。It is a block diagram which shows the structural example of a server. 端末の構成例を示すブロック図である。It is a block diagram which shows the structural example of a terminal. 属性DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of attribute DB. 展示DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of exhibition DB. 感情テーブルのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of an emotion table. 来場者の個人属性の判別処理を説明するための説明図である。It is explanatory drawing for demonstrating the discrimination | determination process of a visitor's personal attribute. 展示品の特定処理を説明するための説明図である。It is explanatory drawing for demonstrating the specific process of an exhibit. マップ画面の一例を示す説明図である。It is explanatory drawing which shows an example of a map screen. 展示品の説明処理を説明するための説明図である。It is explanatory drawing for demonstrating the description process of an exhibit. 感情情報に基づく案内変更処理を説明するための説明図である。It is explanatory drawing for demonstrating the guidance change process based on emotion information. サーバが実行する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which a server performs. 実施の形態2に係るサーバの構成例を示すブロック図である。6 is a block diagram illustrating a configuration example of a server according to Embodiment 2. FIG. 実施の形態2に係る施設DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of facility DB which concerns on Embodiment 2. FIG. 実施の形態2に係る案内処理を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining guidance processing according to the second embodiment. 実施の形態2に係るサーバが実行する処理手順の一例を示すフローチャートである。10 is a flowchart illustrating an example of a processing procedure executed by a server according to the second embodiment. 実施の形態3に係るサーバの構成例を示すブロック図である。10 is a block diagram illustrating a configuration example of a server according to Embodiment 3. FIG. 実施の形態3に係る属性DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of attribute DB which concerns on Embodiment 3. FIG. 実施の形態3に係る商品DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of goods DB which concerns on Embodiment 3. FIG. 実施の形態3に係る来場者の団体属性の判別処理を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining a group attribute discrimination process for visitors according to a third embodiment. 実施の形態3に係る商品等の案内処理を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining guidance processing for products and the like according to Embodiment 3. 実施の形態3に係る商品等の案内処理を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining guidance processing for products and the like according to Embodiment 3. 実施の形態3に係るサーバが実行する処理手順の一例を示すフローチャートである。12 is a flowchart illustrating an example of a processing procedure executed by a server according to the third embodiment. 上述した形態のサーバの動作を示す機能ブロック図である。It is a functional block diagram which shows operation | movement of the server of the form mentioned above.

以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、情報処理システムの構成例を示す模式図である。本実施の形態では、展示品を展示する展示施設(例えば美術館等)において、当該展示施設に来場した来場者に展示品を案内する情報処理システムを一例として説明を行う。情報処理システムは、ネットワークNを介して相互に通信接続された情報処理装置1、情報処理端末2、受付装置3、監視装置4、AP(Access Point)5等を含む。ネットワークNはインターネット、LAN(Local Area Network)等である。
Hereinafter, the present invention will be described in detail with reference to the drawings illustrating embodiments thereof.
(Embodiment 1)
FIG. 1 is a schematic diagram illustrating a configuration example of an information processing system. In the present embodiment, an explanation will be given by taking as an example an information processing system that guides an exhibit to a visitor who has visited the exhibition facility at an exhibition facility (eg, a museum) where the exhibit is displayed. The information processing system includes an information processing device 1, an information processing terminal 2, a reception device 3, a monitoring device 4, an AP (Access Point) 5, and the like that are connected to each other via a network N. The network N is the Internet, a LAN (Local Area Network) or the like.

情報処理装置1は、種々の情報を記憶すると共に、ネットワークNを介して情報の送受信を行う情報処理装置である。情報処理装置1は、例えばサーバコンピュータ、パーソナルコンピュータ等である。本実施の形態において情報処理装置1はサーバコンピュータであるものとし、サーバ1と読み替える。サーバ1は、受付装置3から取得した来場者個人の情報に基づき、来場者に対して展示品を案内する処理を実行する。   The information processing apparatus 1 is an information processing apparatus that stores various types of information and transmits and receives information via the network N. The information processing apparatus 1 is, for example, a server computer or a personal computer. In the present embodiment, the information processing apparatus 1 is assumed to be a server computer and is read as the server 1. The server 1 executes processing for guiding the exhibit to the visitors based on the individual visitor information acquired from the reception device 3.

情報処理端末2は、各来場者が所持している端末装置であり、例えばスマートフォン、タブレット端末、携帯電話等である。本実施の形態で情報処理端末2はスマートフォンであるものとし、以下では簡潔のため端末2と読み替える。端末2は、サーバ1で生成される来場者向けの案内情報を取得し、後述するマップ画面等を出力する。   The information processing terminal 2 is a terminal device possessed by each visitor, and is, for example, a smartphone, a tablet terminal, a mobile phone, or the like. In the present embodiment, the information processing terminal 2 is assumed to be a smartphone, and will be read as the terminal 2 below for the sake of brevity. The terminal 2 acquires the guidance information for visitors generated by the server 1 and outputs a map screen and the like to be described later.

受付装置3は、展示施設の受付に設置された端末装置であり、例えばPepper(登録商標)等の人間型ロボット、自動受付機などである。本実施の形態において、受付装置3は人間型ロボットであるものとする。受付装置3は、来場者の入場受付処理を行うと共に、CCD(Charge Coupled Device)カメラ等で来場者の人物画像を撮像し、当該人物画像を含む来場者個人の情報をサーバ1に送信する。なお、受付装置3はロボット、受付機等の情報処理装置ではなく、監視カメラ等であってもよい。   The reception device 3 is a terminal device installed at the reception of the exhibition facility, and is, for example, a humanoid robot such as Pepper (registered trademark), an automatic reception device, or the like. In the present embodiment, it is assumed that the accepting device 3 is a humanoid robot. The reception device 3 performs an entrance reception process for a visitor, captures a person image of the visitor with a CCD (Charge Coupled Device) camera or the like, and transmits the individual visitor information including the person image to the server 1. The receiving device 3 may be a monitoring camera or the like instead of an information processing device such as a robot or a receiving machine.

監視装置4は、例えばCCDカメラ、スピーカ等を含む監視装置であり、施設内の各展示品の展示場所周辺に設置されている。監視装置4は、展示品を観覧する来場者を撮像すると共に、当該来場者の声等を集音する。AP5は無線アクセスポイントであり、展示施設内の所定箇所に一又は複数設置されている。AP5は、端末2等と無線通信を行う。   The monitoring device 4 is a monitoring device including a CCD camera, a speaker, and the like, for example, and is installed around the display place of each exhibit in the facility. The monitoring device 4 images a visitor viewing the exhibit and collects the voice of the visitor. AP 5 is a wireless access point, and one or a plurality of APs 5 are installed at predetermined locations in the exhibition facility. The AP 5 performs wireless communication with the terminal 2 and the like.

図2は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、記憶部12、通信部13、大容量記憶装置14を含む。
制御部11は、CPU(Central Processing Unit)又はMPU(Micro-Processing Unit)等の演算処理装置を含む。制御部11は、記憶部12に記憶されたプログラムPを読み出して実行することにより、サーバ1に係る種々の情報処理又は制御処理等を行う。
FIG. 2 is a block diagram illustrating a configuration example of the server 1. The server 1 includes a control unit 11, a storage unit 12, a communication unit 13, and a mass storage device 14.
The control unit 11 includes an arithmetic processing device such as a CPU (Central Processing Unit) or an MPU (Micro-Processing Unit). The control unit 11 reads out and executes the program P stored in the storage unit 12 to perform various information processing or control processing related to the server 1.

記憶部12は、RAM(Random Access Memory)、ROM(Read Only Memory)等のメモリ素子を含む。記憶部12は、制御部11が本実施の形態に係る処理を実行するために必要なプログラムP又はデータ等を記憶している。また、記憶部12は、制御部11が演算処理を実行するために必要なデータ等を一時的に記憶する。   The storage unit 12 includes memory elements such as a RAM (Random Access Memory) and a ROM (Read Only Memory). The storage unit 12 stores a program P or data necessary for the control unit 11 to execute the processing according to the present embodiment. The storage unit 12 temporarily stores data and the like necessary for the control unit 11 to execute arithmetic processing.

通信部13は通信に関する処理を行うための処理回路等を含み、ネットワークNを介して端末2等と情報の送受信を行う。   The communication unit 13 includes a processing circuit for performing processing related to communication, and transmits and receives information to and from the terminal 2 and the like via the network N.

大容量記憶装置14は、例えばハードディスク等を含む大容量の記憶装置である。大容量記憶装置14は、属性DB141、展示DB142、感情テーブル143等を記憶している。属性DB141は、来場者の属性を記憶している。展示DB142は、人物に対応付けられた属性と、展示施設内の場所と、当該場所に関する情報とを属性毎に関連付けて記憶している。本実施の形態において人物に対応付けられた属性は展示品の属性であり、展示施設内の場所は展示品の展示場所であり、当該場所に関する情報は展示品の情報である。感情テーブル143は、来場者の感情を示す感情情報を推定するためのテーブルである。
なお、本実施の形態において記憶部12及び大容量記憶装置14は一体の記憶装置として構成されていてもよい。また、大容量記憶装置14は複数の記憶装置により構成されていてもよい。また、大容量記憶装置14はサーバ1に接続された外部記憶装置であってもよい。
The large-capacity storage device 14 is a large-capacity storage device including, for example, a hard disk. The large-capacity storage device 14 stores an attribute DB 141, an exhibition DB 142, an emotion table 143, and the like. The attribute DB 141 stores visitor attributes. The exhibition DB 142 stores an attribute associated with a person, a place in the exhibition facility, and information about the place in association with each attribute. In the present embodiment, the attribute associated with the person is the attribute of the exhibit, the place in the exhibition facility is the exhibit location of the exhibit, and the information related to the location is the information of the exhibit. The emotion table 143 is a table for estimating emotion information indicating a visitor's emotion.
In the present embodiment, the storage unit 12 and the mass storage device 14 may be configured as an integrated storage device. Further, the mass storage device 14 may be constituted by a plurality of storage devices. The mass storage device 14 may be an external storage device connected to the server 1.

なお、本実施の形態においてサーバ1は上記の構成に限られず、例えば操作入力を受け付ける入力部、サーバ1に係る情報を表示する表示部、可搬型記憶媒体に記憶された情報を読み取る読取部等を含んでもよい。   In the present embodiment, the server 1 is not limited to the above configuration. For example, an input unit that receives an operation input, a display unit that displays information related to the server 1, a reading unit that reads information stored in a portable storage medium, and the like May be included.

図3は、端末2の構成例を示すブロック図である。端末2は、制御部21、記憶部22、通信部23、表示部24、入力部25、音声出力部26、撮像部27を含む。
制御部21はCPU又はMPU等の演算処理装置を含み、記憶部22に記憶されたプログラムを読み出して実行することにより、端末2に係る種々の情報処理又は制御処理等を行う。
記憶部22はRAM、ROM等のメモリ素子を含み、制御部21が処理を実行するために必要なプログラム又はデータ等を記憶している。また、記憶部22は、制御部21が演算処理を実行するために必要なデータ等を一時的に記憶する。
通信部23はアンテナ及び通信処理回路等を含み、ネットワークNを介してサーバ1等と情報の送受信を行う。
FIG. 3 is a block diagram illustrating a configuration example of the terminal 2. The terminal 2 includes a control unit 21, a storage unit 22, a communication unit 23, a display unit 24, an input unit 25, an audio output unit 26, and an imaging unit 27.
The control unit 21 includes an arithmetic processing unit such as a CPU or MPU, and performs various information processing or control processing related to the terminal 2 by reading and executing a program stored in the storage unit 22.
The storage unit 22 includes memory elements such as a RAM and a ROM, and stores programs or data necessary for the control unit 21 to execute processing. The storage unit 22 temporarily stores data and the like necessary for the control unit 21 to execute arithmetic processing.
The communication unit 23 includes an antenna, a communication processing circuit, and the like, and transmits and receives information to and from the server 1 and the like via the network N.

表示部24は液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイ等の画面を有し、制御部21から与えられた画像を表示する。
入力部25は表示部24に設けられたタッチパネル又は押下式のボタン等であり、来場者による操作入力を受け付ける。入力部25は、来場者によりなされた操作内容を制御部21に通知する。
音声出力部26は音声の出力を行うスピーカ等であり、制御部21の指令に従って音声を出力する。
撮像部27はCCDカメラ等を含み、画像の撮像を行う。撮像された画像は、記憶部22に記憶される。
The display unit 24 has a screen such as a liquid crystal display or an organic EL (Electro Luminescence) display, and displays an image given from the control unit 21.
The input unit 25 is a touch panel or a push button provided on the display unit 24 and receives an operation input by a visitor. The input unit 25 notifies the control unit 21 of the operation content performed by the visitor.
The audio output unit 26 is a speaker or the like that outputs audio, and outputs audio in accordance with instructions from the control unit 21.
The imaging unit 27 includes a CCD camera or the like and captures an image. The captured image is stored in the storage unit 22.

なお、本実施の形態において端末2は上記の構成に限られず、例えば音声の入力を受け付けるマイク等を含んでもよい。   In the present embodiment, the terminal 2 is not limited to the above configuration, and may include, for example, a microphone or the like that accepts voice input.

図4は、属性DB141のレコードレイアウトの一例を示す説明図である。属性DB141は、来場者列、属性列を含む。来場者列は、展示施設に来場する来場者を識別するための来場者IDを記憶している。属性列は、来場者IDと対応付けて、来場者の個人属性を記憶している。具体的に属性列は、来場者を撮像した画像から判別される複数の属性項目に係るデータを記憶している。例えば属性列は、来場者の顔の目、鼻、口等の各パーツ
のタイプ、髪型、体型、身長、姿勢、年齢、性別、表情、衣服等の各項目のデータを記憶している。
FIG. 4 is an explanatory diagram showing an example of the record layout of the attribute DB 141. The attribute DB 141 includes a visitor column and an attribute column. The visitor column stores a visitor ID for identifying a visitor who visits the exhibition facility. The attribute column stores a visitor's personal attribute in association with the visitor ID. Specifically, the attribute column stores data relating to a plurality of attribute items determined from an image obtained by capturing an image of a visitor. For example, the attribute column stores data of each item such as the type of each part such as eyes, nose, mouth, etc., hairstyle, body shape, height, posture, age, sex, facial expression, clothes, etc. of the visitor.

図5は、展示DB142のレコードレイアウトの一例を示す説明図である。展示DB142は、展示列、種類列、属性列、説明列、詳細説明列、場所列を含む。展示列は、展示施設に展示されている展示品を識別するための展示IDを記憶している。種類列は、展示IDと対応付けて、展示品の種類を記憶している。属性列は、展示IDと対応付けて、人物に対応付けられた属性を記憶している。具体的に属性列は、展示品の属性を、当該展示品を案内する対象である人物、すなわち来場者の属性と比較可能に記憶している。例えば展示品が「人物画」である場合、属性列には、当該人物画に描かれている各人物の顔の各パーツのタイプ、髪型、衣服等、属性項目毎に展示品の属性が記憶されている。当該人物画中の人物の顔パーツのタイプ、髪型、衣服等の属性は、来場者の属性と比較可能である(図4及び図5参照)。後述するマッチング処理において、サーバ1は当該展示品の属性を来場者の属性と比較し、来場者の外観と展示品との類似性を判断することで、来場者に案内する展示品を特定する。つまりサーバ1は、各展示品と関連付けて展示品の案内対象である人物に対応付けられた属性を展示DB142に記憶しておき、後述するマッチング処理において来場者の属性が案内対象である人物に対応付けられた属性と類似性を有するか否かを判断することで、展示品を来場者に案内するか否かを判断する。そしてサーバ1は、案内対象である人物に対応付けられた属性として展示品の内容を表す属性を記憶しておくことで、来場者の外観と展示品との類似性を判断し、来場者と外観において類似する展示品を特定して来場者に案内することになる。説明列は、展示IDと対応付けて、展示品を来場者に説明するための説明情報を記憶している。説明情報は、例えば来場者に展示品を説明するための音声、画像等である。詳細説明列は、展示IDと対応付けて、説明列に記憶されている説明情報よりも詳細な説明を行うための説明情報を記憶している。場所列は、展示IDと対応付けて、展示施設内における展示品の展示場所を記憶している。   FIG. 5 is an explanatory diagram showing an example of the record layout of the exhibition DB 142. The exhibition DB 142 includes an exhibition column, a type column, an attribute column, an explanation column, a detailed explanation column, and a place column. The exhibition column stores an exhibition ID for identifying the exhibits displayed in the exhibition facility. The type column stores the type of exhibit in association with the exhibition ID. The attribute column stores the attribute associated with the person in association with the exhibition ID. Specifically, the attribute column stores the attribute of the exhibit so that it can be compared with the attribute of the person who guides the exhibit, that is, the visitor. For example, if the exhibit is a “human figure”, the attribute column stores the attributes of the exhibit for each attribute item, such as the type of each part of the face of the person drawn in the portrait, the hairstyle, and clothes. Has been. The attributes of the face part type, hairstyle, clothes, etc. of the person in the figure can be compared with the attributes of the visitors (see FIGS. 4 and 5). In the matching process described later, the server 1 compares the attribute of the exhibit with the attribute of the visitor, and determines the similarity between the appearance of the visitor and the exhibit, thereby identifying the exhibit to be guided to the visitor. . That is, the server 1 stores in the exhibition DB 142 the attributes associated with each exhibition item and associated with the person who is the guidance object of the exhibition, and the attribute of the visitor is the guidance object in the matching process described later. It is determined whether or not the exhibit is to be guided to the visitors by determining whether or not there is a similarity with the associated attribute. The server 1 stores the attribute representing the contents of the exhibit as an attribute associated with the person who is the guidance target, thereby determining the similarity between the appearance of the visitor and the exhibit, Exhibits that are similar in appearance will be identified and guided to the visitors. The explanation column stores explanation information for explaining the exhibit to the visitors in association with the exhibition ID. The explanation information is, for example, a voice, an image or the like for explaining the exhibit to the visitors. The detailed explanation column stores explanation information for performing more detailed explanation than the explanation information stored in the explanation column in association with the exhibition ID. The place column stores the exhibition place of the exhibit in the exhibition facility in association with the exhibition ID.

図6は、感情テーブル143のレコードレイアウトの一例を示す説明図である。感情テーブル143は、項目列、詳細列、ポイント列を含む。項目列は、来場者の感情情報を推定する基準となる基準項目を記憶している。詳細列は、基準項目と対応付けて、各基準項目について詳細な推定基準を記憶している。なお、詳細列には画像、音声、時間等に係るより詳細な基準値が記憶されているが、図6では便宜上概要のみを図示する。ポイント列は、推定基準と対応付けて、各推定基準を満たした場合に加算又は減算されるポイントを記憶している。後述するようにサーバ1は、各推定基準を満たしているか否かに応じてポイントを算出することで、来場者の感情情報、具体的には満足度を算出する。   FIG. 6 is an explanatory diagram showing an example of the record layout of the emotion table 143. The emotion table 143 includes an item string, a detail string, and a point string. The item string stores reference items that serve as references for estimating the emotion information of visitors. The detailed column stores detailed estimation criteria for each reference item in association with the reference item. Note that more detailed reference values relating to images, sound, time, and the like are stored in the detail column, but only an overview is shown in FIG. 6 for convenience. The point sequence stores points that are added or subtracted when the estimation criteria are satisfied in association with the estimation criteria. As will be described later, the server 1 calculates the point according to whether or not each estimation criterion is satisfied, thereby calculating the emotion information of the visitor, specifically, the satisfaction level.

図7は、来場者の個人属性の判別処理を説明するための説明図である。以下では情報処理システムが実行する処理の概要について述べる。なお、以下では説明の便宜のため、サーバ1の処理主体は制御部11とし、端末2の処理主体は制御部21とする。
図7では、受付装置3が来場者を撮像した人物画像例を示している。受付装置3は、例えば展示施設の入り口付近に設置されている。受付装置3は、展示施設に入場した来場者に対して所定の入場受付処理を行う。例えば受付装置3は、図示しない通信機を介して端末2の事前登録を行う。さらに受付装置3は、図7に示す来場者の全身像を撮像する。受付装置3は、撮像した人物画像をサーバ1に送信する。
FIG. 7 is an explanatory diagram for explaining the personal attribute determination process of a visitor. The outline of the processing executed by the information processing system will be described below. Hereinafter, for convenience of explanation, the processing entity of the server 1 is the control unit 11, and the processing entity of the terminal 2 is the control unit 21.
In FIG. 7, the example of the person image which the reception apparatus 3 imaged the visitor is shown. The reception device 3 is installed near the entrance of an exhibition facility, for example. The reception device 3 performs a predetermined entrance reception process for visitors who have entered the exhibition facility. For example, the accepting device 3 performs pre-registration of the terminal 2 via a communication device (not shown). Furthermore, the accepting device 3 captures a full body image of the visitor shown in FIG. The accepting device 3 transmits the captured person image to the server 1.

サーバ1の制御部11は、受付装置3から人物画像を取得する。制御部11は、取得した人物画像に基づき、来場者の個人属性を判別する。具体的に制御部11は、取得した人物画像に基づき、来場者の外観に関する外観情報を抽出し、当該外観情報に基づいて来場者の属性を判別する。   The control unit 11 of the server 1 acquires a person image from the reception device 3. The control unit 11 determines the personal attribute of the visitor based on the acquired person image. Specifically, the control unit 11 extracts appearance information related to the appearance of the visitor based on the acquired person image, and determines the attributes of the visitor based on the appearance information.

例えば制御部11は、来場者の顔の目、鼻、口等の各パーツについて、画像から形状、
位置、大きさ等の特徴量を抽出する。制御部11は、抽出した特徴量から、各パーツのタイプを判別する。なお、顔パーツのタイプはプログラムPにおいて予め規定されている。上記処理により、制御部11は属性項目「顔」について来場者の属性を判別する。
For example, the control unit 11 determines the shape of each part such as eyes, nose, and mouth from the image,
Extract features such as position and size. The control unit 11 determines the type of each part from the extracted feature amount. Note that the type of face part is defined in advance in the program P. With the above processing, the control unit 11 determines the visitor attribute for the attribute item “face”.

また、制御部11は顔部分の画像から抽出した特徴量に基づき、来場者の表情、年齢、性別等を判別する。例えば制御部11は「笑顔」「真顔」「緊張」等の複数の表情のパターンについてサンプル画像から特徴点、特徴ベクトル等を抽出する機械学習を行っておき、当該学習モデルに基づき来場者の顔画像から表情を判別する。同様に、制御部11は年齢、性別等についても機械学習を行っておき、来場者の顔画像から年齢、性別等を判別する。そのほかにも、制御部11は撮像画像から来場者の髪型を判別する。   In addition, the control unit 11 determines the facial expression, age, sex, and the like of the visitor based on the feature amount extracted from the face part image. For example, the control unit 11 performs machine learning for extracting feature points, feature vectors, and the like from a sample image for a plurality of facial expression patterns such as “smile”, “true face”, and “tension”, and based on the learning model, the face of the visitor Discriminate facial expressions from images. Similarly, the control unit 11 performs machine learning for age, gender, and the like, and discriminates age, gender, etc. from the face image of the visitor. In addition, the control unit 11 determines the hairstyle of the visitor from the captured image.

また、制御部11は画像から来場者の身体部分について全体の輪郭、高さ、横幅、各部(手、足、肩など)の位置等の特徴量を抽出し、来場者の体型、身長、姿勢等の属性を判別する。   In addition, the control unit 11 extracts features such as the overall contour, height, width, position of each part (hand, foot, shoulder, etc.) from the image, and the body shape, height, posture of the visitor. And so on.

また、制御部11は来場者の衣服についても色彩、輝度、形状等の特徴量を抽出し、色、タイプ(例えばTシャツ、Yシャツ等の種別)等の属性を判別する。なお、制御部11は色、タイプ以外に衣服の模様などを判別してもよい。
上述のごとく、制御部11は来場者を撮像した人物画像から顔、身体、衣服等に係る外観情報を抽出し、各属性項目に係る属性を判別する。制御部11は、判別した来場者の属性を属性DB141に記憶しておく。
The control unit 11 also extracts feature quantities such as color, brightness, and shape for the clothes of the visitors, and determines attributes such as color and type (for example, a type such as a T-shirt and a Y-shirt). Note that the control unit 11 may determine a clothing pattern in addition to the color and type.
As described above, the control unit 11 extracts appearance information related to the face, body, clothes, and the like from the person image obtained by capturing the image of the visitor, and determines the attribute related to each attribute item. The control unit 11 stores the determined visitor attributes in the attribute DB 141.

図8は、展示品の特定処理を説明するための説明図である。制御部11は、上記で判別した来場者の属性に応じて、来場者に案内する展示品を展示DB142から特定する。具体的に制御部11は、来場者の属性と展示品の属性とを比較するマッチング処理を行い、類似性を有する展示品を特定する。
例えば制御部11は、来場者の属性からランダムに属性項目を選択し、当該属性項目について類似性の有無を判断する。ここで、制御部11は属性項目「顔」を選択したものとする。この場合、制御部11は展示DB142を参照し、来場者の目、鼻、口等の各パーツのタイプと、例えば人物画、彫刻等の模写媒体である人物、写真の被写媒体である人物等の各パーツのタイプとを比較し、顔全体での類似性を判断する。制御部11は類似性を有する展示品、例えば来場者の顔と似ている人物が描かれた人物画を特定する。制御部11は各展示品について上記のマッチング処理を行い、類似性を有する展示品を特定する。
FIG. 8 is an explanatory diagram for explaining the exhibit specifying process. The control unit 11 specifies the exhibits to be guided to the visitors from the exhibition DB 142 according to the attributes of the visitors determined above. Specifically, the control unit 11 performs matching processing that compares the attributes of the visitors with the attributes of the exhibits, and identifies exhibits having similarities.
For example, the control unit 11 randomly selects an attribute item from the visitor's attributes, and determines whether there is similarity for the attribute item. Here, it is assumed that the control unit 11 has selected the attribute item “face”. In this case, the control unit 11 refers to the exhibition DB 142, the type of each part such as a visitor's eyes, nose, mouth, etc., a person who is a copying medium such as a human figure or sculpture, and a person who is a photographed medium Are compared with the type of each part, and the similarity in the whole face is judged. The control unit 11 specifies a display object having a similarity, for example, a human figure on which a person similar to the face of the visitor is drawn. The control unit 11 performs the above-described matching process for each exhibit, and identifies exhibits that have similarities.

なお、上記で制御部11は一の属性項目を基準にマッチング処理を行ったが、本実施の形態はこれに限るものではない。制御部11はその他の属性項目「表情」「衣服」「髪型」等についても類似性の有無を判断し、総合的に類似性を有するか否かを判断してもよい。   In addition, although the control part 11 performed the matching process on the basis of one attribute item above, this Embodiment is not restricted to this. The control unit 11 may determine whether or not there are similarities for other attribute items such as “expression”, “clothes”, and “hairstyle”, and may determine whether or not they have overall similarities.

制御部11は、特定した展示品を来場者に案内するための案内情報を生成する。具体的に制御部11は、展示DB142を参照し、展示施設内における展示品の展示場所、展示施設内における展示品の案内経路、各展示品を来場者に説明するための説明情報等を含む案内情報を生成する。説明情報については後述する。   The control unit 11 generates guide information for guiding the specified exhibit to the visitors. Specifically, the control unit 11 refers to the exhibition DB 142 and includes an exhibition location of the exhibit in the exhibition facility, a guide route of the exhibit in the exhibit facility, explanatory information for explaining each exhibit to the visitors, and the like. Guide information is generated. The explanation information will be described later.

制御部11は、展示DB142から各展示品の展示場所を読み出す。制御部11は読み出した展示場所に応じた案内経路を生成する。例えば制御部11は、記憶部12又は大容量記憶装置14に予め記憶してある展示施設内のマップ図を参照し、各展示場所を最短経路で結ぶ案内経路を生成する。   The control unit 11 reads the exhibition location of each exhibit from the exhibition DB 142. The control unit 11 generates a guide route according to the read exhibition place. For example, the control unit 11 refers to a map in the exhibition facility stored in advance in the storage unit 12 or the large-capacity storage device 14 and generates a guide route that connects the respective exhibition places with the shortest route.

図9は、マップ画面の一例を示す説明図である。制御部11は、黒丸で示す展示場所9
1、実線で示す案内経路92等を含むマップ画面を端末2に出力する。制御部11はマップ画面を端末2に出力することにより、来場者を展示場所91へと案内する。なお、制御部11はマップ画面だけでなく、進行指示に係る音声データ、テキストデータ等を併せて出力することにしてもよい。また、図9において丸中黒で示すように、制御部11はマップ画面上に来場者の位置93を表示することにしてもよい。この場合、例えば展示施設内に設置されたAP5が端末2と無線通信を行い、通信電波の強度、方向等から端末2の位置情報を取得する。サーバ1の制御部11はAP5から位置情報を取得し、マップ画面上に来場者の位置93を表示する。なお、端末2が自装置の位置情報を判別し、マップ画面に反映することとしてもよい。また、上記で制御部11はAP5による無線通信に基づき端末2の位置情報を判断したが、例えばBluetooth(登録商標)通信機との通信、GPS(Global Positioning System)に係る通信、携帯電話基地局との通信等に基づき位置情報を判断してもよい。
FIG. 9 is an explanatory diagram showing an example of the map screen. The control unit 11 displays an exhibition place 9 indicated by a black circle.
1. A map screen including a guide route 92 indicated by a solid line is output to the terminal 2. The control unit 11 guides visitors to the exhibition place 91 by outputting a map screen to the terminal 2. Note that the control unit 11 may output not only the map screen but also voice data, text data, and the like related to the progress instruction. In addition, as indicated by a black circle in FIG. 9, the control unit 11 may display a visitor's position 93 on the map screen. In this case, for example, the AP 5 installed in the exhibition facility performs wireless communication with the terminal 2 and acquires the position information of the terminal 2 from the strength and direction of the communication radio wave. The control unit 11 of the server 1 acquires position information from the AP 5 and displays the visitor's position 93 on the map screen. Note that the terminal 2 may determine the position information of its own device and reflect it on the map screen. In addition, the control unit 11 determines the position information of the terminal 2 based on the wireless communication by the AP 5 as described above. For example, the communication with the Bluetooth (registered trademark) communication device, the communication related to GPS (Global Positioning System), the mobile phone base station The position information may be determined based on communication with the user.

サーバ1の制御部11は、来場者が展示品の展示場所91付近に到着したか否かを判定する。例えば制御部11は上記と同じくAP5から端末2の位置情報を取得し、端末2が展示品の展示場所91から所定範囲内に位置するか否かを判定する。来場者が展示場所91付近に到着したと判定した場合、制御部11は展示DB142を参照し、以下の説明情報を端末2に出力する。   The control unit 11 of the server 1 determines whether or not the visitor has arrived in the vicinity of the exhibition place 91 for the exhibit. For example, the control unit 11 acquires the position information of the terminal 2 from the AP 5 as described above, and determines whether or not the terminal 2 is located within a predetermined range from the exhibition place 91 of the exhibit. When it is determined that the visitor has arrived near the exhibition place 91, the control unit 11 refers to the exhibition DB 142 and outputs the following explanation information to the terminal 2.

図10は、展示品の説明処理を説明するための説明図である。サーバ1から案内情報の出力を受けた端末2の制御部21は、図10に示すように、来場者に展示品を説明するための音声及び画像を出力する。当該音声は、例えば来場者の外観が展示品と類似性を有する旨、展示品の概要等を含むメッセージである。また、当該画像は、例えば来場者の外観と類似性を有する展示品の具体的な箇所等を示す画像である。図10に示すように、例えば制御部21はメッセージ冒頭で「この人があなたにそっくり」との音声を出力すると共に、続いて展示品の概要を簡単に説明する音声を出力する。また、制御部21は併せて来場者の外観と類似する展示品の箇所を強調表示する。なお、制御部21は上記以外に、例えば案内する展示品に応じた音楽等を出力してもよい。また、上記で制御部21は来場者に対して音声案内を行ったが、例えばテキスト案内を行ってもよいことは勿論である。   FIG. 10 is an explanatory diagram for explaining the display process of the exhibit. Upon receiving the guidance information output from the server 1, the control unit 21 of the terminal 2 outputs audio and images for explaining the exhibit to the visitors as shown in FIG. The voice is a message that includes, for example, the appearance of the visitor being similar to the exhibit, and an overview of the exhibit. Moreover, the said image is an image which shows the specific location etc. of the exhibit which has similarity with the external appearance of a visitor, for example. As shown in FIG. 10, for example, the control unit 21 outputs a voice saying “This person looks just like you” at the beginning of the message, and then outputs a voice that briefly explains the outline of the exhibit. In addition, the control unit 21 highlights the place of the exhibit similar to the appearance of the visitor. In addition to the above, the control unit 21 may output, for example, music according to the exhibit to be guided. Moreover, although the control part 21 performed voice guidance with respect to a visitor above, it is needless to say that text guidance may be performed, for example.

図11は、感情情報に基づく案内変更処理を説明するための説明図である。上記のように、サーバ1の制御部11は来場者の属性に応じて特定した展示品を案内する。さらに制御部11は、案内を受けた来場者の反応に応じて、適宜に案内情報の変更を行う。具体的に制御部11は、案内を受けた来場者の感情を示す感情情報を推定し、推定した感情情報に応じて案内情報を変更する処理を行う。   FIG. 11 is an explanatory diagram for explaining guidance change processing based on emotion information. As described above, the control unit 11 of the server 1 guides the exhibit that is specified according to the attributes of the visitors. Further, the control unit 11 appropriately changes the guidance information according to the reaction of the visitors who have received the guidance. Specifically, the control unit 11 estimates emotion information indicating the emotion of the visitor who has received the guidance, and performs a process of changing the guidance information according to the estimated emotion information.

例えば制御部11は、上記と同様にして端末2の位置情報、すなわち来場者の現在位置を取得し、来場者が展示場所に待機している待機時間を計測する。また、制御部11は、来場者の現在位置付近に設置されている監視装置4から、来場者を撮像した画像、来場者の発話等に係る音声を取得する。制御部11は、取得した来場者の画像、音声、待機時間に基づき、来場者の感情情報を推定する。例えば制御部11は、来場者の表情の変化、体の動作、声、待機時間等に基づき、来場者が案内にどの程度満足しているか、満足度を推定する。   For example, the control unit 11 acquires the position information of the terminal 2, that is, the current position of the visitor in the same manner as described above, and measures the waiting time that the visitor is waiting at the exhibition place. Moreover, the control part 11 acquires the audio | voice which concerns on the image which imaged the visitor, the utterance of the visitor, etc. from the monitoring apparatus 4 installed near the present position of the visitor. The control unit 11 estimates the visitor's emotion information based on the acquired image, sound, and standby time of the visitor. For example, the control unit 11 estimates the degree of satisfaction of the visitor to the guidance based on the change in the facial expression of the visitor, the movement of the body, the voice, the waiting time, and the like.

例えば制御部11は、取得した画像から顔部分の特徴量を抽出し、来場者の表情の変化を観察する。なお、制御部11は属性判別時と同様にして顔画像の特徴量から表情をパターン分けすることにより表情を判別する。例えば制御部11は、来場者の入場受付時点での表情、すなわち属性DB141に記憶してある表情と、説明情報の出力を終了した時点での表情を比較する。制御部11は感情テーブル143を参照し、例えば当該表情の変化に基づき満足度に係るポイントを算出する。例えば入場時は「真顔」であったが、出力終
了時、すなわち説明を受けた後は「笑顔」になった場合を考える。この場合、制御部11は感情テーブル143を参照し、「真顔」が0ポイント、「笑顔」が2ポイントであることから、当該表情の変化について満足度2ポイントを算出する。なお、上記で制御部11は入場時と説明終了時との表情の変化から来場者の感情を推定したが、例えば説明開始時、すなわち説明情報の出力を開始した時点と説明終了時点との表情を比較して上記の処理を行ってもよい。また、制御部11は表情の変化ではなく、現時点、すなわち説明終了時点での表情のみに基づき来場者の感情を推定してもよい。
For example, the control unit 11 extracts a feature amount of the face portion from the acquired image and observes a change in the facial expression of the visitor. The control unit 11 discriminates the facial expression by patterning the facial expression from the feature amount of the face image in the same manner as the attribute discrimination. For example, the control unit 11 compares the facial expression when the visitor receives the admission, that is, the facial expression stored in the attribute DB 141 with the facial expression when the output of the description information is finished. The control unit 11 refers to the emotion table 143 and calculates, for example, a point related to satisfaction based on the change in the facial expression. For example, let us consider a case where the face was “true face” at the time of entry, but “smile” was given at the end of output, that is, after receiving an explanation. In this case, the control unit 11 refers to the emotion table 143, and since “true face” is 0 point and “smile” is 2 points, 2 points of satisfaction are calculated for the change in the facial expression. In the above description, the control unit 11 estimates the visitor's emotion from the change in facial expression at the time of entrance and at the end of the explanation. And the above processing may be performed. Moreover, the control part 11 may estimate a visitor's emotion based not on the change of a facial expression but only on the facial expression at the present time, ie, the time of an explanation end.

また、制御部11は画像から身体部分の特徴量、例えば手、足、肩、胸部等に係る特徴点及び特徴ベクトルを抽出する。制御部11は、抽出した身体部分の特徴量に基づいて来場者の動作、例えば来場者が腕組みをしているか否か、頬杖を着いているか否か等の動作を判別する。表情の場合と同様に、制御部11は来場者の動作に応じて来場者の満足度をポイント形式で算出する。例えば制御部11は、腕組みをしている場合は1ポイント加算、貧乏ゆすりをしている場合は2ポイント減算、として各動作に係るポイントを加減し、動作に係る満足度を算出する。   Further, the control unit 11 extracts feature amounts of body parts, for example, feature points and feature vectors related to hands, feet, shoulders, chests, and the like from the image. The control unit 11 determines the operation of the visitor based on the extracted feature quantity of the body part, for example, the operation such as whether or not the visitor is wearing arms, whether or not the cheek cane is worn. As in the case of facial expressions, the control unit 11 calculates the satisfaction level of the visitors in a point format according to the movements of the visitors. For example, the control unit 11 calculates the degree of satisfaction related to the motion by adding or subtracting the points related to each motion as adding 1 point if the arm is folded and subtracting 2 points if the arm is poor.

また、制御部11は取得した音声から来場者の発話に係る大きさ、周波数、会話継続時間等の特徴量を抽出し、来場者の感情を推定する。例えば制御部11は、「笑い」「喜び」「怒り」等の複数パターンの感情に係るサンプル音声から特徴量を抽出する機械学習を行い、当該学習処理によるモデルと来場者の発話音声の特徴量とをマッチングさせて、来場者の感情を上記複数のパターンから推定する。また、制御部11は取得した音声から来場者の発話中の言葉を抽出し、感情テーブル143に規定してある言葉が出てきたか否かを判断する。例えば制御部11は、「面白い」「つまらない」等のキーフレーズが出てきたか否かを判断する。当該キーフレーズにより、制御部11は来場者の感情を推定する。制御部11は表情、動作の場合と同じく、ポイント形式で満足度を算出する。   Moreover, the control part 11 extracts the feature-values, such as a magnitude | size concerning the utterance of a visitor, a frequency, and conversation duration, from the acquired audio | voice, and estimates a visitor's emotion. For example, the control unit 11 performs machine learning that extracts feature amounts from sample sounds related to multiple patterns of emotions such as “laughter”, “joy”, and “anger”, and the feature amount of the model based on the learning process and the utterance speech of the visitor And the emotion of the visitor is estimated from the plurality of patterns. In addition, the control unit 11 extracts the words being spoken by the visitors from the acquired voice, and determines whether or not the words defined in the emotion table 143 have come out. For example, the control unit 11 determines whether a key phrase such as “interesting” or “boring” has come out. Based on the key phrase, the control unit 11 estimates the emotion of the visitor. The control unit 11 calculates the satisfaction degree in the point format as in the case of facial expressions and actions.

また、制御部11は来場者が展示品の前に待機している待機時間に基づき、来場者の感情を推定する。例えば制御部11は、来場者が短時間で展示場所から離れた場合、来場者が案内に不満を持っていると推定する。これとは逆に長時間展示場所付近に居る場合、制御部11は来場者が案内に満足していると推定する。制御部11は上記と同様に、待機時間の長短に応じて満足度のポイントを算出する。   Moreover, the control part 11 estimates a visitor's emotion based on the waiting time where the visitor waits in front of an exhibit. For example, when the visitor leaves the exhibition place in a short time, the control unit 11 estimates that the visitor is dissatisfied with the guidance. On the other hand, when it is in the vicinity of the exhibition place for a long time, the control unit 11 estimates that the visitor is satisfied with the guidance. In the same manner as described above, the control unit 11 calculates satisfaction points according to the length of the standby time.

制御部11は、推定した感情情報に応じて案内情報を変更する。例えば制御部11は、上記の満足度に係るポイントを所定の第1閾値、及び第1閾値よりも小さい第2閾値と比較することで、来場者が案内に満足しているか、不満を持っているか、又は満足でも不満でもなく平常状態であるかを判定する。算出したポイントが第1閾値以上であると判定した場合、制御部11は来場者が案内に満足し、当該展示品に対して興味を持ったものと推定する。この場合、制御部11は展示DB142の詳細説明列を参照し、出力済みの説明情報よりも詳細な説明情報を端末2に出力する。   The control unit 11 changes the guide information according to the estimated emotion information. For example, the control unit 11 compares the satisfaction degree point with a predetermined first threshold value and a second threshold value smaller than the first threshold value, so that the visitor is satisfied with the guidance or dissatisfied. Or whether it is normal, not satisfied or dissatisfied. When it is determined that the calculated point is equal to or greater than the first threshold, the control unit 11 estimates that the visitor is satisfied with the guidance and is interested in the exhibit. In this case, the control unit 11 refers to the detailed description string in the exhibition DB 142 and outputs more detailed description information to the terminal 2 than the output description information.

算出したポイントが第2閾値未満であると判定した場合、制御部11は来場者が案内に対して不満を持ち、現在の案内を受けたくないものと推定する。この場合、制御部11は案内情報を修正する。例えば制御部11は、展示品の特定処理に利用した属性項目を別の属性項目に変更し、来場者に案内する展示品を修正する。上記のように属性項目「顔」に応じて展示品を特定した場合、制御部11は別の属性項目(例えば「衣服」)を選択し、当該属性項目に応じて来場者の外観と展示品との類似性を判断し、別の展示品を特定する。制御部11は、特定した展示品の展示場所91を展示DB142から読み出し、来場者の現在位置93から各展示場所91までの最短経路に係る案内経路92を再生成する。制御部11は、当該展示品の展示場所91、案内経路92を含む案内情報を端末2に再出力する。   When it is determined that the calculated point is less than the second threshold, the control unit 11 estimates that the visitor is dissatisfied with the guidance and does not want to receive the current guidance. In this case, the control unit 11 corrects the guide information. For example, the control unit 11 changes the attribute item used for the exhibit specifying process to another attribute item, and corrects the exhibit guided to the visitors. When the exhibit is specified according to the attribute item “face” as described above, the control unit 11 selects another attribute item (for example, “clothes”), and the appearance and exhibit of the visitor according to the attribute item. Judge similarities with and identify other exhibits. The control unit 11 reads out the exhibition place 91 of the identified exhibit from the exhibition DB 142, and regenerates the guide route 92 related to the shortest route from the current position 93 of the visitor to each exhibition place 91. The control unit 11 re-outputs the guidance information including the exhibition place 91 and the guidance route 92 of the exhibit to the terminal 2.

ポイントが第1閾値未満であり、かつ、第2閾値以上であると判定した場合、制御部11は来場者が展示品に興味を示したわけではないが、案内を不満に思っているわけでもないと推定する。制御部11は案内情報を変更せず、そのまま次の展示品を来場者に案内する。制御部11は展示DB142から特定した展示品全てについて案内を行うまで上記の処理を繰り返す。全ての展示品について案内処理を行った場合、制御部11は一連の処理を終了する。   When it is determined that the point is less than the first threshold and greater than or equal to the second threshold, the control unit 11 does not indicate that the visitor is interested in the exhibit, but does not feel dissatisfied with the guidance. Estimated. The control unit 11 does not change the guide information and guides the next exhibit as it is to the visitors. The control unit 11 repeats the above processing until guidance is provided for all the exhibits specified from the exhibition DB 142. When the guidance process is performed for all exhibits, the control unit 11 ends the series of processes.

なお、上記で制御部11は来場者の表情、動作、声、待機時間等の複数要素に基づいて来場者の感情情報を推定したが、本実施の形態はこれに限るものではない。例えば制御部11は来場者の表情の変化のみに基づいて感情情報を推定してもよい。この場合、制御部11はポイント計算をすることなく、例えば来場者の表情が「真顔」から「笑顔」又は「怒り」に変化したか否か等、表情の変化を分岐条件として案内情報の変更処理を行えばよい。   In addition, although the control part 11 estimated the visitor's emotion information based on several elements, such as a visitor's facial expression, operation | movement, voice, waiting time, etc. above, this Embodiment is not restricted to this. For example, the control unit 11 may estimate emotion information based only on changes in the facial expressions of visitors. In this case, the control unit 11 does not calculate the points, and changes the guidance information using the change in the facial expression as a branching condition, for example, whether the visitor's facial expression has changed from “true face” to “smile” or “anger”. What is necessary is just to process.

図12は、サーバ1が実行する処理手順の一例を示すフローチャートである。図12に基づいて、サーバ1が実行する処理内容について説明する。
サーバ1の制御部11は、展示施設に来場した来場者を撮像した人物画像を受付装置3から取得する(ステップS11)。例えば受付装置3は、展示施設に来場した来場者が所定の受付処理を行う場合に、併せて来場者の全身像を撮像する。制御部11は、撮像された来場者の画像を受付装置3から取得する。
FIG. 12 is a flowchart illustrating an example of a processing procedure executed by the server 1. Based on FIG. 12, the processing content which the server 1 performs is demonstrated.
The control unit 11 of the server 1 acquires a person image obtained by capturing an image of a visitor who has visited the exhibition facility from the reception device 3 (step S11). For example, the reception device 3 captures a whole body image of a visitor when a visitor who has visited the exhibition facility performs a predetermined reception process. The control unit 11 acquires the captured image of the visitor from the reception device 3.

制御部11は、取得した人物画像から来場者の外観に関する外観情報を抽出する(ステップS12)。具体的に制御部11は当該人物画像から、来場者の顔、頭髪、全身のシルエット、衣服等の外観について、形状、大きさ、位置、色彩、輝度等の特徴量を抽出する。制御部11は、抽出した外観情報に基づき、来場者の属性を判別する(ステップS13)。例えば制御部11は、抽出した特徴量に基づいて顔の各パーツのタイプ、髪型、体型、身長、衣服の色、タイプ等を判別する。また、制御部11は予め学習済みのモデルデータと比較して、来場者の年齢、性別、表情等を判別する。制御部11は、判別した来場者の個人属性を属性DB141に記憶する。   The control unit 11 extracts appearance information relating to the appearance of the visitors from the acquired person image (step S12). Specifically, the control unit 11 extracts features such as shape, size, position, color, brightness, etc. of the appearance of the visitor's face, hair, silhouette of the whole body, clothes, etc. from the person image. The control unit 11 determines the attributes of the visitors based on the extracted appearance information (step S13). For example, the control unit 11 determines the type, hairstyle, body shape, height, clothing color, type, and the like of each part of the face based on the extracted feature amount. Moreover, the control part 11 discriminate | determines a visitor's age, sex, a facial expression, etc. compared with the model data learned beforehand. The control unit 11 stores the determined personal attributes of the visitors in the attribute DB 141.

制御部11は展示DB142を参照し、判別した来場者の属性に応じて、来場者に案内する場所に関する情報、すなわち展示品を特定する(ステップS14)。具体的に制御部11は、展示DB142に記憶されている人物に対応付けられた属性、詳しくは各展示品の属性と、属性DB141に記憶した来場者の属性とを比較するマッチング処理を行い、来場者の外観と展示品との類似性を判断する。例えば制御部11は、類似性を判断する判断基準である属性項目をランダムに選択し、当該属性項目について類似性を判断する。例えば属性項目「顔」を選択した場合、制御部11は来場者の目、鼻、口等の各パーツのタイプと、展示施設に展示されている人物画の各パーツのタイプとを比較し、顔全体での類似性を判断する。なお、制御部11は撮像画像から判別した複数の属性項目について、全ての項目に関し類似性を判断してもよい。制御部11は、来場者の外観と類似性を有する展示品を特定する。   The control unit 11 refers to the exhibition DB 142, and specifies information related to the location to be guided to the visitors, that is, exhibits, according to the determined attributes of the visitors (step S14). Specifically, the control unit 11 performs a matching process for comparing the attribute associated with the person stored in the exhibition DB 142, specifically, the attribute of each exhibit and the attribute of the visitor stored in the attribute DB 141, Judge the similarity between visitors' appearance and exhibits. For example, the control unit 11 randomly selects an attribute item that is a determination criterion for determining similarity, and determines similarity for the attribute item. For example, when the attribute item “face” is selected, the control unit 11 compares the type of each part such as the eyes, nose, and mouth of the visitor with the type of each part of the person image displayed in the exhibition facility, Determine similarity across faces. In addition, the control part 11 may judge similarity regarding all the items about the some attribute item discriminate | determined from the captured image. The control unit 11 identifies exhibits that are similar in appearance to the visitors.

制御部11は、特定した展示品の展示場所、案内経路を含む案内情報を生成し、端末2に出力する(ステップS15)。具体的に制御部11は展示DB142を参照し、展示施設内における当該展示品の展示場所を読み出す。例えば制御部11は、複数の展示品の展示場所を最短経路で結ぶ案内経路を生成する。制御部11は、各展示品の展示場所、生成した案内経路を含むマップ画面を端末2に出力する。なお、案内情報は展示場所、案内経路だけでなく、例えば来場者を展示場所まで案内するための音声等を含んでもよい。   The control part 11 produces | generates the guidance information containing the exhibition place and guidance route of the specified exhibit, and outputs it to the terminal 2 (step S15). Specifically, the control unit 11 refers to the exhibition DB 142 and reads the display location of the exhibit in the exhibition facility. For example, the control unit 11 generates a guide route that connects display places of a plurality of exhibits with the shortest route. The control unit 11 outputs a map screen including the exhibition place of each exhibit and the generated guide route to the terminal 2. Note that the guidance information may include not only the exhibition location and the guidance route, but also, for example, voice for guiding visitors to the exhibition location.

制御部11は、来場者が展示品の展示場所付近に到着したか否かを判定する(ステップS16)。例えば展示施設内に設置されたAP5が端末2と通信を行い、端末2の位置情報を取得する。サーバ1の制御部11はAP5から当該位置情報を取得する。制御部11は、端末2が展示品の展示場所から所定範囲内に位置するか否かに応じて判定を行う。展示場所付近に到着していないと判定した場合(S16:NO)、制御部11は処理を待機する。展示場所付近に到着したと判定した場合(S16:YES)、制御部11は、当該展示品を来場者に説明するための説明情報を端末2に出力する(ステップS17)。例えば制御部11は、来場者の外観と展示品とが類似性を有する旨の説明情報を端末2に出力する。端末2の制御部21は当該説明情報をサーバ1から取得し、来場者の外観と展示品とが類似性を有する箇所を画像表示すると共に、類似性を有する旨、展示品の概要等を説明する説明音声を出力する。   The control unit 11 determines whether or not the visitor has arrived near the display place of the exhibit (step S16). For example, the AP 5 installed in the exhibition facility communicates with the terminal 2 and acquires the position information of the terminal 2. The control unit 11 of the server 1 acquires the position information from the AP 5. The control unit 11 determines whether or not the terminal 2 is located within a predetermined range from the exhibition place of the exhibit. When it determines with not having arrived near the exhibition place (S16: NO), the control part 11 waits for a process. When it determines with having arrived near the exhibition place (S16: YES), the control part 11 outputs the explanatory information for explaining the said exhibit to a visitor to the terminal 2 (step S17). For example, the control unit 11 outputs to the terminal 2 explanatory information indicating that the appearance of the visitor and the exhibit have similarity. The control unit 21 of the terminal 2 acquires the explanation information from the server 1, displays an image of a place where the appearance of the visitor and the exhibit are similar, and explains the similarity, an outline of the exhibit, etc. The explanation voice to be output is output.

制御部11は、展示品の展示場所における来場者の画像、音声、及び待機時間を取得する(ステップS18)。具体的に制御部11は、展示品の展示場所付近に設置された監視装置4から、来場者を撮像した画像、及び来場者の発話等の音声を取得する。また、制御部11は上記と同様にAP5等から端末2の位置情報を取得し、待機時間を計測する。   The control unit 11 acquires the image, sound, and waiting time of the visitor at the exhibition place of the exhibit (step S18). Specifically, the control unit 11 acquires an image obtained by capturing an image of a visitor and a speech such as the utterance of the visitor from the monitoring device 4 installed in the vicinity of the exhibit location. In addition, the control unit 11 acquires the position information of the terminal 2 from the AP 5 or the like as described above, and measures the standby time.

制御部11は、取得した画像、音声、及び待機時間に基づき、来場者の感情を示す感情情報を推定する(ステップS19)。例えば制御部11は、取得した画像から来場者の顔部分の特徴量を抽出し、現在の表情を判別する。また、制御部11は画像から来場者の手、足等の特徴点及び特徴ベクトルを抽出し、来場者の動作を判別する。また、制御部11は取得した音声から来場者の声の大きさ、周波数等の特徴量を抽出すると共に、発した言葉等を判別する。制御部11は感情テーブル143を参照し、上記のように判別した来場者の表情、動作、声、待機時間等の情報に基づき、来場者の感情を推定する。具体的に制御部11は、来場者の満足度をポイント形式で算出する。例えば制御部11は、現在の来場者の表情と、入場受付時の来場者の表情、すなわち属性DB141に記憶した表情との変化を判断し、感情テーブル143を参照して当該変化をポイント形式で算出する。また、制御部11は手、足、姿勢等の各動作についてポイントを算出する。また、制御部11は音声の特徴量、来場者が発した言葉等に基づき、ポイントを算出する。また、制御部11は待機時間に応じてポイントを算出する。制御部11は、表情、動作等の各要素についてポイントの合算値を求め、来場者の感情を示す感情情報、例えば満足度を推定する。   The control unit 11 estimates emotion information indicating the visitor's emotion based on the acquired image, sound, and standby time (step S19). For example, the control unit 11 extracts the feature amount of the face portion of the visitor from the acquired image, and determines the current facial expression. Further, the control unit 11 extracts feature points and feature vectors such as a visitor's hands and feet from the image, and discriminates the visitor's movement. Further, the control unit 11 extracts features such as the loudness and frequency of the visitors from the acquired voice, and discriminates the spoken words and the like. The control unit 11 refers to the emotion table 143 and estimates the emotion of the visitor based on the information such as the facial expression, motion, voice, waiting time, etc. of the visitor determined as described above. Specifically, the control unit 11 calculates the satisfaction level of the visitors in a point format. For example, the control unit 11 determines a change between the present visitor's facial expression and the visitor's facial expression at the time of admission, that is, the facial expression stored in the attribute DB 141, and refers to the emotion table 143 in a point format. calculate. In addition, the control unit 11 calculates points for each motion such as a hand, a foot, and a posture. In addition, the control unit 11 calculates points based on the voice feature amount, words uttered by the visitors, and the like. Moreover, the control part 11 calculates a point according to standby time. The control part 11 calculates | requires the total value of a point about each element, such as a facial expression and an action, and estimates emotion information which shows a visitor's emotion, for example, satisfaction.

制御部11は、推定した感情情報に応じて、来場者が案内に満足しているか否かを判定する(ステップS20)。例えば制御部11は上記で算出したポイントが所定の第1閾値以上であるか否かを判定する。満足していると判定した場合(S20:YES)、制御部11は、ステップS17で出力した説明情報よりも詳細な説明情報を端末2に出力する(ステップS21)。例えば制御部11は、展示DB142を参照して、詳細列に記憶されている、より詳細な説明を端末2に出力する。制御部11は、処理をステップS24に移行する。   The control unit 11 determines whether or not the visitor is satisfied with the guidance according to the estimated emotion information (step S20). For example, the control unit 11 determines whether or not the point calculated above is equal to or greater than a predetermined first threshold value. When it determines with being satisfied (S20: YES), the control part 11 outputs more detailed description information to the terminal 2 than the description information output by step S17 (step S21). For example, the control unit 11 refers to the exhibition DB 142 and outputs a more detailed description stored in the detail column to the terminal 2. The control part 11 transfers a process to step S24.

満足していないと判定した場合(S20:NO)、制御部11は、ステップS19で推定した感情情報に応じて、来場者が案内に不満であるか否かを判定する(ステップS22)。例えば制御部11は、上記で算出したポイントが第1閾値よりも小さい第2閾値未満であるか否かを判定する。不満であると判定した場合(S22:YES)、制御部11は、案内情報を修正して端末2に出力する(ステップS23)。例えば制御部11は、ステップS14の特定処理において判断基準とした属性項目を変更し、来場者に案内する展示品を再度特定する。例えばステップS14で属性項目「顔」を選択した場合、制御部11は別の属性項目「衣服」を再選択し、衣服について類似する展示品を特定する。制御部11は、展示DB142から特定した展示品の当該展示場所を読み出し、来場者の現在位置から各展示品までの案内経路を再生成することで、案内情報を修正する。制御部11は、
修正した案内情報を端末2に出力して、処理をステップS24に移行する。
When it determines with not being satisfied (S20: NO), the control part 11 determines whether a visitor is dissatisfied with guidance according to the emotion information estimated by step S19 (step S22). For example, the control unit 11 determines whether or not the point calculated above is less than a second threshold value that is smaller than the first threshold value. When it determines with dissatisfaction (S22: YES), the control part 11 corrects guidance information and outputs it to the terminal 2 (step S23). For example, the control unit 11 changes the attribute item used as the determination criterion in the specifying process in step S14, and specifies again the exhibit to be guided to the visitors. For example, when the attribute item “face” is selected in step S <b> 14, the control unit 11 reselects another attribute item “clothes” and identifies similar exhibits for the clothes. The control unit 11 reads the display location of the specified exhibit from the display DB 142, and regenerates the guide route from the current position of the visitor to each exhibit, thereby correcting the guide information. The control unit 11
The corrected guidance information is output to the terminal 2, and the process proceeds to step S24.

不満でないと判定した場合(S22:NO)、制御部11は案内を終了するか否かを判定する(ステップS24)。例えば制御部11は、案内経路に係る最後の展示品の展示場所に端末2が位置するか否かを判定する。終了しないと判定した場合(S24:NO)、制御部11は処理をステップS16に戻す。終了すると判定した場合(S24:YES)、制御部11は一連の処理を終了する。   When it determines with not being dissatisfied (S22: NO), the control part 11 determines whether guidance is complete | finished (step S24). For example, the control unit 11 determines whether or not the terminal 2 is located at the exhibition place of the last exhibit related to the guide route. When it determines with not complete | finishing (S24: NO), the control part 11 returns a process to step S16. When it determines with complete | finishing (S24: YES), the control part 11 complete | finishes a series of processes.

なお、上記でサーバ1は来場者に展示品を案内するための案内経路を生成したが、本実施の形態はこれに限るものではない。例えばサーバ1は案内経路を生成せず、端末2が展示品の展示場所から所定範囲内に位置した場合、すなわち展示施設内を見学する来場者が展示品に近づいてきた場合に、所定のアラート音と共に説明情報等の案内を端末2に出力することとしてもよい。つまりサーバ1は、案内経路の生成処理を行わずともよい。   In addition, although the server 1 produced | generated the guidance path | route for guiding an exhibit to a visitor above, this Embodiment is not restricted to this. For example, the server 1 does not generate a guide route, and a predetermined alert is generated when the terminal 2 is located within a predetermined range from the display place of the exhibit, that is, when a visitor who visits the exhibition facility approaches the exhibit. It is good also as outputting guidance, such as explanatory information, to the terminal 2 with a sound. That is, the server 1 may not perform the guide route generation process.

また、上記ではサーバ1が来場者の属性を判別する処理を行ったが、本実施の形態はこれに限るものではない。例えば受付装置3が来場者の属性を判別し、判別結果をサーバ1に通知する構成としてもよい。この場合、受付装置3が人物画像に基づき来場者の属性を判別する属性判別部として機能する。また、サーバ1が、来場者の属性に応じて展示場所に関する情報、すなわち展示品を特定し、案内情報を生成する生成部として機能する。すなわち本実施の形態において、情報処理システム全体として一連の処理を実行することができればよい。   Moreover, although the server 1 performed the process which discriminate | determines an attendee's attribute in the above, this Embodiment is not restricted to this. For example, the reception device 3 may determine the attribute of the visitor and notify the server 1 of the determination result. In this case, the reception device 3 functions as an attribute determination unit that determines the attributes of the visitors based on the person image. Further, the server 1 functions as a generation unit that specifies information related to an exhibition place, that is, an exhibit, according to the attribute of the visitor, and generates guidance information. That is, in the present embodiment, it is only necessary that the entire information processing system can execute a series of processes.

また、上記でサーバ1は生成した案内情報を直接的に端末2に出力したが、本実施の形態はこれに限るものではない。例えばサーバ1は、案内情報に係るデータを受付装置3に出力し、人型ロボットである受付装置3の胸部に備わる表示ディスプレイにQRコード(登録商標)を表示させることにしてもよい。端末2は撮像部27によりQRコードを認識し、案内情報をダウンロードする。当該構成であっても、上記と同様の効果を奏する。   Further, although the server 1 outputs the generated guidance information directly to the terminal 2 as described above, the present embodiment is not limited to this. For example, the server 1 may output data relating to the guidance information to the reception device 3 and display a QR code (registered trademark) on the display provided on the chest of the reception device 3 that is a humanoid robot. The terminal 2 recognizes the QR code by the imaging unit 27 and downloads the guide information. Even if it is the said structure, there exists an effect similar to the above.

また、上記でサーバ1は、来場者の外観と展示品との類似性を基準に展示品を特定したが、本実施の形態はこれに限るものではない。例えばサーバ1は、年少の来場者には子供向けの、中高年の来場者には大人向けの展示品を案内するというように、年齢に応じた案内処理を行ってもよい。つまりサーバ1は、来場者の属性に応じて来場者に案内する展示品を特定することができればよい。   Moreover, although the server 1 specified the exhibit based on the similarity between the appearance of the visitor and the exhibit as described above, the present embodiment is not limited to this. For example, the server 1 may perform guidance processing according to age, such as guiding an exhibition for children to young visitors and an adult for middle-aged visitors. In other words, the server 1 only needs to be able to identify exhibits to be guided to the visitors according to the attributes of the visitors.

以上より、本実施の形態1によれば、展示施設等に来場する来場者の満足度向上を図ることができる。   As described above, according to the first embodiment, it is possible to improve the satisfaction of visitors who visit an exhibition facility.

また、本実施の形態1によれば、例えばスマートフォン等の端末2に案内情報を出力することで、来場者は展示施設を見学しながら手軽に案内を受けることができる。   Further, according to the first embodiment, for example, by outputting guidance information to a terminal 2 such as a smartphone, visitors can easily receive guidance while visiting the exhibition facility.

また、本実施の形態1によれば、例えばマップ画面に展示場所を表示することで適切な案内を行うことができる。   Further, according to the first embodiment, for example, appropriate guidance can be provided by displaying an exhibition place on a map screen.

また、本実施の形態1によれば、来場者の個人属性に応じた展示品の案内経路を自動生成することができる。   Further, according to the first embodiment, it is possible to automatically generate a guide route for exhibits according to the personal attributes of visitors.

また、本実施の形態1によれば、来場者の外観に応じて案内する展示品を特定する。来場者は自らの外観という極めて身近な情報に基づいて展示品の案内を受けるため、来場者は展示品に対して興味を持ちやすくなる。これによって、より来場者の満足度向上を図ることができる。   Further, according to the first embodiment, the exhibit to be guided is specified according to the appearance of the visitors. Visitors receive guidance on exhibits based on extremely familiar information such as their appearance, making it easier for visitors to be interested in the exhibits. As a result, the satisfaction level of the visitors can be improved.

また、本実施の形態1によれば、案内を受けた来場者の反応に応じて、詳細な説明の出力、案内経路の修正等を行い、その後の案内を柔軟に変更することができる。   Moreover, according to this Embodiment 1, according to the response of the visitor who received guidance, detailed description output, a guidance route correction, etc. can be performed, and subsequent guidance can be changed flexibly.

(実施の形態2)
本実施の形態では、来場者の属性に応じて、展示施設内の展示品だけでなく、他の展示品等に係る情報を併せて案内する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
(Embodiment 2)
In the present embodiment, a mode will be described in which not only the exhibits in the exhibition facility but also information related to other exhibits is guided according to the attributes of the visitors. In addition, about the content which overlaps with Embodiment 1, the same code | symbol is attached | subjected and description is abbreviate | omitted.

図13は、実施の形態2に係るサーバ1の構成例を示すブロック図である。本実施の形態では、来場者の個人属性に応じて展示施設付近の観光施設を案内する形態について述べる。本実施の形態に係る大容量記憶装置14は、施設DB144を記憶している。施設DB144は、展示施設付近の観光施設に係る情報を記憶している。   FIG. 13 is a block diagram illustrating a configuration example of the server 1 according to the second embodiment. In the present embodiment, a mode in which a tourist facility near the exhibition facility is guided according to the personal attributes of the visitors will be described. The mass storage device 14 according to the present embodiment stores a facility DB 144. The facility DB 144 stores information related to tourist facilities near the exhibition facility.

図14は、実施の形態2に係る施設DB144のレコードレイアウトの一例を示す説明図である。施設DB144は、施設列、名称列、展示列、種類列、属性列、紹介列、場所列を含む。施設列は、展示施設外の他の施設、例えば観光施設を識別するための施設IDを記憶している。名称列は、施設IDと対応付けて、観光施設の名称を記憶している。展示列は、施設IDと対応付けて、当該観光施設で展示されている展示品を識別するための展示IDを記憶している。種類列は、展示IDと対応付けて、展示品の種類を記憶している。属性列は、展示IDと対応付けて、案内対象である人物に対応付けられた属性、詳しくは展示品の属性を記憶している。紹介列は、展示IDと対応付けて、展示品を来場者に紹介するための紹介情報を記憶している。紹介情報は、例えば実施の形態1の説明情報と同様に音声及び画像等のデータである。場所列は、施設IDと対応付けて、観光施設の場所を示す位置情報を記憶している。   FIG. 14 is an explanatory diagram illustrating an example of a record layout of the facility DB 144 according to the second embodiment. The facility DB 144 includes a facility column, a name column, an exhibition column, a type column, an attribute column, an introduction column, and a place column. The facility column stores a facility ID for identifying another facility outside the exhibition facility, for example, a tourist facility. The name column stores the name of the tourist facility in association with the facility ID. The exhibition row stores an exhibition ID for identifying the exhibits displayed at the tourist facility in association with the facility ID. The type column stores the type of exhibit in association with the exhibition ID. The attribute column stores the attribute associated with the person who is the guidance object, specifically the attribute of the exhibit, in association with the exhibition ID. The introduction column stores introduction information for introducing exhibits to visitors in association with exhibition IDs. The introduction information is, for example, data such as sound and image as in the explanation information of the first embodiment. The location column stores location information indicating the location of the tourist facility in association with the facility ID.

図15は、実施の形態2に係る案内処理を説明するための説明図である。制御部11は実施の形態1と同様に、展示施設内に展示されている展示品の案内処理を行う。制御部11は当該案内終了後に、来場者の属性に応じて、来場者に他の観光施設を案内する処理を実行する。
例えば制御部11は、属性DB141に記憶されている来場者の属性と、施設DB144に記憶されている他の観光施設に展示されている展示品の属性とのマッチング処理を行う。当該マッチング処理は実施の形態1と同様に、来場者の外観と展示品との類似性を判断する。制御部11は、来場者の外観と類似する展示品を特定する。制御部11は、特定した展示品が展示されている観光施設の名称、場所、特定した展示品の紹介情報等を施設DB144から読み出す。
FIG. 15 is an explanatory diagram for explaining the guidance processing according to the second embodiment. Similar to the first embodiment, the control unit 11 performs a guide process for the exhibits displayed in the exhibition facility. The control part 11 performs the process which guides other tourist facilities to a visitor according to the attribute of a visitor after the said guidance end.
For example, the control unit 11 performs a matching process between the attribute of the visitor stored in the attribute DB 141 and the attribute of the exhibit exhibited in another tourist facility stored in the facility DB 144. Similar to the first embodiment, the matching process determines the similarity between the appearance of the visitors and the exhibits. The control unit 11 identifies exhibits that are similar in appearance to the visitors. The control unit 11 reads, from the facility DB 144, the name and location of the tourist facility where the identified exhibit is displayed, the introduction information of the identified exhibit, and the like.

制御部11は、来場者に当該観光施設を案内する案内情報を生成する。例えば制御部11は、図15に示すように、来場者の外観と類似すると判断した展示品の画像、当該展示品が展示されている観光施設の名称、場所等を端末2に表示すると共に、当該展示品が来場者の外観と類似している旨、当該展示品が表示中の観光施設に展示されている旨等の紹介メッセージを端末2に音声出力する。なお、例えば制御部11は観光施設の場所だけでなく、現在地、すなわち来場者が見学を行った展示施設から観光施設までの交通経路等も併せて表示してもよい。   The control part 11 produces | generates the guidance information which guides the said tourist facility to a visitor. For example, as shown in FIG. 15, the control unit 11 displays on the terminal 2 an image of an exhibit determined to be similar to the appearance of the visitor, a name of a tourist facility where the exhibit is displayed, a location, and the like. An introductory message such as the fact that the exhibit is similar to the appearance of the visitor and the fact that the exhibit is displayed at the tourist facility being displayed is output to the terminal 2 by voice. For example, the control unit 11 may display not only the location of the tourist facility, but also the current location, that is, the traffic route from the exhibition facility that the visitor has visited to the tourist facility.

また、図15では一の観光施設を案内する様子を図示したが、本実施の形態はこれに限るものではない。例えば制御部11は複数の観光施設に係る展示品を特定し、当該複数の観光施設を案内するための案内情報を生成して端末2に出力してもよい。これにより、制御部11は来場者が訪れた展示施設だけでなく、その他の複数の施設も含む包括的な観光案内を行うことができる。   Further, FIG. 15 illustrates a state where one tourist facility is guided, but the present embodiment is not limited to this. For example, the control unit 11 may identify exhibits related to a plurality of tourist facilities, generate guidance information for guiding the plurality of tourist facilities, and output the guidance information to the terminal 2. Thereby, the control part 11 can perform comprehensive sightseeing guidance including not only the exhibition facility visited by the visitor but also a plurality of other facilities.

図16は、実施の形態2に係るサーバ1が実行する処理手順の一例を示すフローチャートである。図16に基づいて、本実施の形態に係るサーバ1が実行する処理内容について説明する。
展示施設内の展示品について終了すると判定した場合(S24:YES)、制御部11は以下の処理を実行する。制御部11は、来場者の属性に応じて、来場者に案内する場所に関する情報、詳しくは来場者に案内する他の施設の展示品を特定する(ステップS201)。具体的に制御部11は、属性DB141から来場者の属性に関する情報を読み出す。制御部11は施設DB144を参照し、読み出した来場者の属性と、他の観光施設に展示されている展示品の属性とのマッチング処理を行う。具体的には、制御部11は来場者の外観と展示品との類似性を判断する。制御部11は、来場者の外観と類似する他の観光施設の展示品を特定する。
FIG. 16 is a flowchart illustrating an example of a processing procedure executed by the server 1 according to the second embodiment. Based on FIG. 16, the processing content which the server 1 which concerns on this Embodiment performs is demonstrated.
When it determines with complete | finishing about the exhibit in an exhibition facility (S24: YES), the control part 11 performs the following processes. The control unit 11 specifies information related to the location to be guided to the visitors, specifically the exhibits of other facilities to be guided to the visitors according to the attributes of the visitors (step S201). Specifically, the control unit 11 reads information related to the attributes of the visitors from the attribute DB 141. The control unit 11 refers to the facility DB 144 and performs a matching process between the read attribute of the visitor and the attribute of the exhibit exhibited at another tourist facility. Specifically, the control unit 11 determines the similarity between the appearance of the visitors and the exhibits. The control unit 11 identifies exhibits from other tourist facilities that are similar in appearance to the visitors.

制御部11は、特定した展示品が展示されている他の観光施設を案内するための案内情報を生成し、端末2に出力する(ステップS202)。例えば制御部11は、施設DB144を参照し、ステップS201で特定した展示品が展示されている観光施設の名称、場所等の情報、及び当該展示品を来場者に紹介するための画像、音声等の紹介情報を読み出す。制御部11は、読み出した各情報に基づき、当該観光施設を案内するための案内情報を生成する。例えば案内情報は、展示品、観光施設の名称、場所等を示す表示画像のほかに、来場者の外観と類似する展示品が展示されている等の旨の音声メッセージを含む。制御部11は、案内情報を端末2に出力し、一連の処理を終了する。   The control unit 11 generates guide information for guiding other tourist facilities where the specified exhibits are displayed, and outputs the guide information to the terminal 2 (step S202). For example, the control unit 11 refers to the facility DB 144, information on the name and location of the tourist facility where the exhibit specified in step S201 is exhibited, and images, audio, etc. for introducing the exhibit to the visitor Read the introduction information. The control unit 11 generates guide information for guiding the tourist facility based on the read information. For example, the guide information includes an audio message indicating that an exhibit similar to the appearance of the visitor is being displayed, in addition to a display image indicating the name of an exhibit, a tourist facility, a location, and the like. The control unit 11 outputs guidance information to the terminal 2 and ends a series of processes.

なお、上記では来場者に美術館、博物館、動物園等の他の施設を案内する処理について述べたが、本実施の形態はこれに限るものではない。例えば制御部11は、来場者の外観から判別される属性に応じて、来場者と外観が似ている人物、キャラクター等が登場する映画、テレビドラマ、テレビコマーシャル、漫画、雑誌等を紹介することとしてもよい。すなわち、制御部11が案内する対象は観光スポット等の施設に展示されている展示品に限られず、広義のメディア媒体上のコンテンツであってもよい。   In addition, although the process which guides other facilities, such as an art museum, a museum, a zoo, to a visitor was described above, this Embodiment is not restricted to this. For example, the control unit 11 introduces a movie, a TV drama, a TV commercial, a comic, a magazine, or the like in which a person, character, or the like similar in appearance to the visitor appears according to an attribute determined from the appearance of the visitor. It is good. That is, the target to be guided by the control unit 11 is not limited to exhibits displayed in facilities such as sightseeing spots, but may be contents on a broad medium.

以上より、本実施の形態2によれば、展示施設に展示されている展示品だけでなく、他の施設に展示されている展示品等も含めて来場者に案内することで、来場者の満足度向上をより一層図ることができる。   As described above, according to the second embodiment, not only the exhibits displayed in the exhibition facility, but also the exhibits displayed in other facilities are guided to the visitors. Satisfaction can be further improved.

(実施の形態3)
実施の形態1では美術館等の展示施設において、来場者に美術品等の展示品を案内する形態について述べた。本実施の形態では、ショッピングモール等の商業施設において、来場者に対して各店舗で提供される商品又は役務を案内する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
(Embodiment 3)
In the first embodiment, a form in which an exhibit such as a work of art is guided to visitors at an exhibition facility such as a museum. In the present embodiment, a form in which a commodity or service provided at each store is guided to a visitor in a commercial facility such as a shopping mall will be described. In addition, about the content which overlaps with Embodiment 1, the same code | symbol is attached | subjected and description is abbreviate | omitted.

本実施の形態に係る情報処理システムは、実施の形態1と同様にサーバ1、端末2等を含む。本実施の形態において受付装置3は、商品又は役務を提供する提供施設(商業施設)の出入口等に設置され、監視装置4は提供施設内の各店舗等に設置される。その他の構成は実施の形態1と同様であるため、ここでは情報処理システムの構成について図示を省略する。   The information processing system according to the present embodiment includes a server 1, a terminal 2, and the like as in the first embodiment. In the present embodiment, the reception device 3 is installed at the entrance and the like of a providing facility (commercial facility) that provides products or services, and the monitoring device 4 is installed at each store in the providing facility. Since other configurations are the same as those in the first embodiment, illustration of the configuration of the information processing system is omitted here.

図17は、実施の形態3に係るサーバ1の構成例を示すブロック図である。本実施の形態に係る大容量記憶装置14は、展示DB142に代えて商品DB145を記憶している。商品DB145は、人物に対応付けられた属性と、提供施設内の場所と、当該場所に関する情報とを記憶している。本実施の形態において、人物に対応付けられた属性は商品又は役務の属性であり、提供施設内の場所は各商品又は役務を提供する提供場所であり、当
該場所に関する情報は商品又は役務の情報である。各店舗で提供される商品又は役務に関する情報を記憶している。なお、以下では説明の便宜のため、商品又は役務を適宜に総称して商品等と記す。
FIG. 17 is a block diagram illustrating a configuration example of the server 1 according to the third embodiment. The large-capacity storage device 14 according to the present embodiment stores a product DB 145 instead of the exhibition DB 142. The product DB 145 stores an attribute associated with a person, a place in the providing facility, and information related to the place. In the present embodiment, an attribute associated with a person is an attribute of a product or service, a place in a providing facility is a providing place that provides each product or service, and information on the place is information on the product or service. It is. Information on products or services provided at each store is stored. Hereinafter, for convenience of explanation, goods or services are collectively referred to as goods or the like as appropriate.

図18は、実施の形態3に係る属性DB141のレコードレイアウトの一例を示す説明図である。本実施の形態に係る属性DB141は、団体列、団体属性列を含む。団体列は、来場者IDと対応付けて、来場者の団体を識別するための団体IDを記憶している。団体属性列は、団体IDと対応付けて、各団体の属性を記憶している。例えば団体属性は、「家族」「カップル」「友人」等の各来場者の関係性の概要、団体内における各来場者の構成に係る詳細な関係性等を示す情報である。   FIG. 18 is an explanatory diagram showing an example of a record layout of the attribute DB 141 according to the third embodiment. The attribute DB 141 according to the present embodiment includes a group column and a group attribute column. The group column stores a group ID for identifying the group of the visitor in association with the visitor ID. The group attribute column stores the attribute of each group in association with the group ID. For example, the group attribute is information indicating an overview of the relationship of each visitor such as “family”, “couple”, “friend”, and the like, and a detailed relationship related to the composition of each visitor within the group.

図19は、実施の形態3に係る商品DB145のレコードレイアウトの一例を示す説明図である。商品DB145は、店舗列、商品列、種類列、属性列、説明列、詳細説明列、場所列を含む。店舗列は、各店舗を識別するための店舗IDを記憶している。商品列は、店舗IDと対応付けて、各店舗で提供される商品等を識別するための商品IDを記憶している。種類列は、商品IDと対応付けて、商品の種類を記憶している。属性列は、商品IDと対応付けて、案内対象である人物に対応付けられた属性、詳しくは商品等の属性を属性項目毎に記憶している。例えば商品がシャツである場合、当該シャツの色、タイプ(Tシャツ、Yシャツ等の種別)、商品の対象性別等の属性を記憶している。説明列及び詳細説明列は展示DB142と同様に、商品IDと対応付けて、各商品を来場者に説明するための説明情報を記憶している。場所列は、店舗IDと対応付けて、各店舗の位置、すなわち商品等を提供する提供場所を記憶している。   FIG. 19 is an explanatory diagram illustrating an example of a record layout of the product DB 145 according to the third embodiment. The product DB 145 includes a store column, a product column, a type column, an attribute column, an explanation column, a detailed explanation column, and a place column. The store column stores a store ID for identifying each store. The product column stores a product ID for identifying a product and the like provided at each store in association with the store ID. The type column stores the type of product in association with the product ID. The attribute column stores, for each attribute item, an attribute associated with the person who is the guidance target, specifically, an attribute such as a product, in association with the product ID. For example, when the product is a shirt, attributes such as the color of the shirt, the type (type of T-shirt, Y-shirt, etc.) and the target sex of the product are stored. Similar to the exhibition DB 142, the explanation column and the detailed explanation column store explanation information for explaining each product to the visitors in association with the product ID. The location column stores the location of each store, that is, the location where the product is provided in association with the store ID.

図20は、実施の形態3に係る来場者の団体属性の判別処理を説明するための説明図である。サーバ1の制御部11は、実施の形態1と同様に来場者を撮像した人物画像を受付装置3から取得し、来場者の個人属性を判別する。本実施の形態ではさらに、受付装置3が撮像した人物画像に来場者が複数含まれる場合、制御部11は当該複数の来場者の属性、すなわち団体属性を判別する。   FIG. 20 is an explanatory diagram for explaining a group attribute discrimination process for visitors according to the third embodiment. The control unit 11 of the server 1 acquires a person image obtained by capturing a visitor from the reception device 3 as in the first embodiment, and determines the personal attribute of the visitor. Further, in the present embodiment, when a plurality of visitors are included in the person image captured by the accepting device 3, the control unit 11 determines the attributes of the plurality of visitors, that is, group attributes.

図20に示すように、撮像画像に来場者が複数含まれる場合を考える。この場合、制御部11は各来場者の顔、身体、衣服等の外観に係る外観情報を抽出し、個人属性を判別して属性DB141に記憶する。併せて制御部11は、抽出した外観情報に基づき、当該複数の来場者の団体属性を判別する。例えば制御部11は、画像から複数の顔を認識した場合、当該来場者が団体であるものと判断する。制御部11は、各来場者の外観情報に基づき団体属性を判別する。例えば制御部11は、各来場者の顔画像から年齢を推測し、当該団体の年齢構成を判断する。制御部11は当該年齢構成に基づき、当該団体が「家族」であるか等を判別する。「家族」であると判別した場合、例えば制御部11は、年齢構成に応じて家族構成を判別する。また、例えば制御部11は、年齢が近く、二名の来場者の性別が異なり、手を繋いでいると判断した場合、当該団体が「カップル」であるか等を判別する。上記のように、制御部11は画像から抽出される外観情報に基づき、団体属性を判別する。制御部11は、判別した団体属性を属性DB141に記憶する。   Consider a case where a plurality of visitors are included in a captured image as shown in FIG. In this case, the control unit 11 extracts appearance information relating to the appearance of each visitor's face, body, clothes, etc., discriminates personal attributes, and stores them in the attribute DB 141. In addition, the control unit 11 determines group attributes of the plurality of visitors based on the extracted appearance information. For example, when the control unit 11 recognizes a plurality of faces from the image, the control unit 11 determines that the visitor is a group. The control unit 11 determines the group attribute based on the appearance information of each visitor. For example, the control unit 11 estimates the age from each visitor's face image and determines the age structure of the group. Based on the age structure, the control unit 11 determines whether the group is a “family” or the like. When it is determined that it is “family”, for example, the control unit 11 determines the family structure according to the age structure. Further, for example, when the control unit 11 determines that the ages are close, the genders of the two visitors are different, and they are holding hands, the control unit 11 determines whether the group is a “couple” or the like. As described above, the control unit 11 determines the group attribute based on the appearance information extracted from the image. The control unit 11 stores the determined group attribute in the attribute DB 141.

図21及び図22は、実施の形態3に係る商品等の案内処理を説明するための説明図である。図21では、来場者の個人属性に応じた案内処理を概念的に示している。図22では、来場者の団体属性を含めた案内処理を概念的に示している。図21の場合、サーバ1の制御部11は、判別した来場者の属性に応じて来場者に案内する場所に関する情報、すなわち商品等を特定する。例えば制御部11は属性項目「衣服」「性別」について、来場者が着用している衣服と色、模様、形状、タイプ等が類似しており、商品の対象性別が来場者の性別と同一である商品を商品DB145から特定する。なお、上記は一例であって、例えば制御部11は来場者の年齢、体型等のその他の個人属性を含めて特定処理を行っ
てよい。
FIGS. 21 and 22 are explanatory diagrams for explaining guidance processing for products and the like according to the third embodiment. FIG. 21 conceptually shows the guidance process according to the personal attributes of the visitors. FIG. 22 conceptually shows the guidance process including the group attributes of visitors. In the case of FIG. 21, the control unit 11 of the server 1 specifies information on a place to be guided to the visitor, that is, a product or the like, according to the determined visitor attribute. For example, for the attribute items “clothes” and “gender”, the control unit 11 is similar in color, pattern, shape, type, etc. to the clothes worn by the visitors, and the target sex of the product is the same as the gender of the visitors. A certain product is specified from the product DB 145. Note that the above is an example, and for example, the control unit 11 may perform the specifying process including other personal attributes such as the age and body type of the visitors.

制御部11は、特定した商品等を案内するための案内情報を生成する。制御部11は商品DB145から商品等を提供する店舗の位置、すなわち商品等の提供場所211を読み出す。制御部11は当該提供場所211に来場者を案内するための案内経路212を生成し、端末2に出力する。制御部11は提供施設内に設置されたAP5等から来場者の位置213を取得する。来場者が提供場所211に到着した場合、制御部11は説明情報を端末2に出力する。   The control unit 11 generates guidance information for guiding the specified product or the like. The control unit 11 reads from the product DB 145 the location of the store that provides the product, that is, the provision location 211 of the product. The control unit 11 generates a guidance route 212 for guiding visitors to the provision place 211 and outputs the guidance route 212 to the terminal 2. The control unit 11 acquires the visitor's position 213 from the AP 5 or the like installed in the providing facility. When the visitor arrives at the providing place 211, the control unit 11 outputs explanatory information to the terminal 2.

制御部11は、例えば店舗内に設置されている監視装置4から画像等の情報を取得し、感情情報を推定する。具体的に制御部11は、感情テーブル143を参照し、来場者の動作、例えば来場者が衣服を手に取ったか否か、衣服を試着したか否か等に応じて、案内した衣服を来場者が気に入ったか否かを推定する。なお、本実施の形態では簡潔のため感情テーブル143の図示は省略する。来場者が衣服を気に入ったと推定した場合、制御部11は詳細な説明情報をさらに出力する。また、例えば制御部11は、来場者の視線が衣服に向いているか否か、「似合わない」等のキーフレーズを発話から抽出したか否か等に応じて、案内した衣服を来場者が気に入らなかったか否かを推定する。この場合、制御部11は案内情報を修正する。例えば制御部11は、実施の形態1と同様に、属性項目を変更して再び商品等を特定し、提供場所211を判別し、案内経路212を修正する。   The control unit 11 acquires information such as an image from the monitoring device 4 installed in the store, for example, and estimates emotion information. Specifically, the control unit 11 refers to the emotion table 143 and visits the guided clothes depending on the behavior of the visitor, for example, whether the visitor has picked up the clothes or whether the clothes have been tried on. Whether the person likes it. In the present embodiment, the illustration of the emotion table 143 is omitted for the sake of brevity. When it is estimated that the visitor likes the clothes, the control unit 11 further outputs detailed explanation information. In addition, for example, the control unit 11 likes the guided clothes depending on whether or not the visitor's line of sight is facing the clothes, whether or not a key phrase such as “not suitable” is extracted from the utterance, and the like. Estimate whether or not there was. In this case, the control unit 11 corrects the guide information. For example, as in the first embodiment, the control unit 11 changes the attribute item, identifies the product or the like again, determines the provision location 211, and corrects the guide route 212.

図22に示すように、制御部11はさらに来場者の団体属性を含めた案内処理を行う。具体的に制御部11は、属性項目「家族」「カップル」等の団体属性と、商品等の属性のマッチング処理を行う。例えば団体が「家族」である場合、制御部11は役務「映画」について、家族向けの映画作品を特定する。さらに制御部11は、例えば団体の構成員である一の来場者の外観に係る個人属性「顔」と、当該映画に登場する登場人物の属性「顔」とを比較し、類似性を判断する。制御部11は、来場者の「顔」と似た登場人物が登場する映画作品を商品DB145から特定し、案内情報を生成する。図22に示すように、制御部11は当該映画作品を上映している映画館の位置を示す提供場所211、映画館への案内経路212、映画作品の説明等に係る案内情報を端末2に出力する。なお、上記では役務「映画」を一例として説明を行ったが、その他の役務、商品等であってもよいことは勿論である。
なお、上記で制御部11は個人属性、団体属性の両方を考慮した処理を行ったが、団体属性のみに基づく処理を行ってもよい。
As shown in FIG. 22, the control unit 11 further performs guidance processing including the group attribute of the visitors. Specifically, the control unit 11 performs a matching process between group attributes such as attribute items “family” and “couple” and attributes such as products. For example, when the group is “family”, the control unit 11 specifies a family-oriented movie work for the service “movie”. Further, the control unit 11 compares the personal attribute “face” relating to the appearance of one visitor who is a member of the group with the attribute “face” of the character appearing in the movie to determine similarity, for example. . The control unit 11 specifies a movie work in which a character similar to the “face” of the visitor appears from the product DB 145, and generates guidance information. As shown in FIG. 22, the control unit 11 provides the terminal 2 with guidance information relating to a providing location 211 indicating the location of a movie theater showing the movie work, a guide route 212 to the movie theater, a description of the movie work, and the like. Output. In the above description, the service “movie” has been described as an example, but other services, products, and the like may be used.
In addition, although the control part 11 performed the process which considered both the personal attribute and the group attribute above, you may perform the process based only on a group attribute.

図23は、実施の形態3に係るサーバ1が実行する処理手順の一例を示すフローチャートである。図23に基づいて、本実施の形態に係るサーバ1が実行する処理内容について説明する。
サーバ1の制御部11は、提供施設に来場した一又は複数の来場者を撮像した人物画像を受付装置3から取得する(ステップS301)。例えば受付装置3は、提供施設に来場した来場者を撮像する。本実施の形態において受付装置3は、来場者が団体である場合に、当該団体に係る複数の来場者を撮像する。制御部11は、撮像された一又は複数の来場者の人物画像を受付装置3から取得する。
FIG. 23 is a flowchart illustrating an example of a processing procedure executed by the server 1 according to the third embodiment. Based on FIG. 23, the processing content which the server 1 which concerns on this Embodiment performs is demonstrated.
The control unit 11 of the server 1 acquires a person image obtained by capturing one or more visitors who have visited the providing facility from the reception device 3 (step S301). For example, the reception device 3 images a visitor who has visited the providing facility. In the present embodiment, when the visitor is a group, the reception device 3 images a plurality of visitors related to the group. The control unit 11 acquires one or more captured person images of the visitors from the reception device 3.

制御部11は、取得した人物画像から来場者の外観に関する外観情報を抽出する(ステップS302)。具体的に制御部11は当該画像から、来場者の顔、頭髪、全身のシルエット、衣服等の外観について形状、大きさ、色等の特徴量を抽出する。取得した画像に複数の来場者が含まれる場合、制御部11は各来場者の外観について特徴量を抽出する。   The control unit 11 extracts appearance information relating to the appearance of the visitors from the acquired person image (step S302). Specifically, the control unit 11 extracts feature amounts such as shape, size, color, etc. from the image, with respect to the appearance of the visitor's face, hair, silhouette of the whole body, clothes, and the like. When a plurality of visitors are included in the acquired image, the control unit 11 extracts a feature amount for the appearance of each visitor.

制御部11は、抽出した外観情報に基づき、一又は複数の来場者の個人属性及び団体属性を判別する(ステップS303)。例えば制御部11は、抽出した特徴量に基づいて顔
の各パーツのタイプ、髪型、体型、衣服の色等を判別する。また、制御部11は予め学習済みのモデルデータと比較して、来場者の年齢、性別、表情等を判別する。また、監視装置4から取得した画像に複数の来場者が含まれる場合、制御部11は上記の個人属性のほかに、団体属性を判別する。例えば制御部11は、団体の人数、年齢構成等に基づき、複数の来場者の関係性を推測する。制御部11は、判別した来場者の個人属性及び団体属性を属性DB141に記憶する。
The control unit 11 determines the personal attributes and group attributes of one or more visitors based on the extracted appearance information (step S303). For example, the control unit 11 determines the type of each part of the face, the hairstyle, the body shape, the color of clothes, and the like based on the extracted feature amount. Moreover, the control part 11 discriminate | determines a visitor's age, sex, a facial expression, etc. compared with the model data learned beforehand. When a plurality of visitors are included in the image acquired from the monitoring device 4, the control unit 11 determines a group attribute in addition to the personal attribute. For example, the control unit 11 estimates the relationship between a plurality of visitors based on the number of groups, the age configuration, and the like. The control unit 11 stores the individual attributes and group attributes of the determined visitors in the attribute DB 141.

制御部11は商品DB145を参照し、判別した来場者の個人属性及び団体属性に応じて、来場者に案内する場所に関する情報、すなわち商品等を特定する(ステップS304)。具体的に制御部11は、商品DB145に記憶されている商品等の属性と、属性DB141に記憶した来場者の個人属性とを比較するマッチング処理を行い、来場者の外観と商品等との類似性を判断する。また、制御部11は各来場者の個人属性だけでなく、団体属性も含めてマッチング処理を行い、商品等を特定する。具体的に制御部11は、上記のように推測した来場者の関係性、すなわち「家族」であるか、「カップル」であるか等に応じて、当該団体の来場者に案内する商品等を特定する。例えば団体が「家族」である場合、制御部11は家族向けの役務「映画」を特定する。   The control unit 11 refers to the product DB 145, and specifies information on a place to be guided to the visitor, that is, a product, etc., according to the determined individual attribute and group attribute of the visitor (step S304). Specifically, the control unit 11 performs a matching process that compares the attributes of the products and the like stored in the product DB 145 with the personal attributes of the visitors stored in the attribute DB 141, and the similarity between the appearance of the visitors and the products etc. Judging sex. In addition, the control unit 11 performs matching processing including not only the individual attributes of each visitor but also the group attributes, and identifies products and the like. Specifically, the control unit 11 determines a product or the like to be guided to the visitor of the group depending on the relationship of the visitor estimated as described above, that is, whether it is “family” or “couple”. Identify. For example, when the group is “family”, the control unit 11 specifies the service “movie” for the family.

制御部11は、特定した商品等の提供場所、案内経路を含む案内情報を生成し、端末2に出力する(ステップS305)。具体的に制御部11は商品DB145を参照し、提供施設内において当該商品等を提供する店舗の位置を読み出す。例えば制御部11は、複数の商品等の提供場所を最短経路で結ぶ案内経路を生成する。制御部11は、読み出した各商品等の提供場所、生成した案内経路を含むマップ画面を端末2に出力する。   The control part 11 produces | generates the guidance information containing the provision place of the identified goods etc., and a guidance route, and outputs it to the terminal 2 (step S305). Specifically, the control unit 11 refers to the product DB 145 and reads the position of the store that provides the product in the providing facility. For example, the control part 11 produces | generates the guidance route which connects the provision place of several goods etc. with the shortest route. The control unit 11 outputs to the terminal 2 a map screen including the provided location of each read commodity and the generated guidance route.

制御部11は、来場者が商品等の提供場所に到着したか否かを判定する(ステップS306)。例えば制御部11はAP5等から端末2の位置情報を取得し、端末2が商品等の提供場所から所定範囲内に位置するか否かに応じて判定を行う。提供場所に到着していないと判定した場合(S306:NO)、制御部11は処理を待機する。提供場所に到着したと判定した場合(S306:YES)、制御部11は、当該商品等を来場者に説明するための説明情報を端末2に出力する(ステップS307)。例えば制御部11は、来場者の外観と商品等とが類似性を有する旨の説明情報を端末2に出力する。   The control unit 11 determines whether or not the visitor has arrived at a place where goods or the like are provided (step S306). For example, the control unit 11 acquires the position information of the terminal 2 from the AP 5 or the like, and makes a determination according to whether or not the terminal 2 is located within a predetermined range from the place where the product is provided. When it determines with not having arrived at the provision place (S306: NO), the control part 11 waits for a process. When it determines with having arrived at the provision place (S306: YES), the control part 11 outputs the explanatory information for explaining the said goods etc. to a visitor to the terminal 2 (step S307). For example, the control unit 11 outputs to the terminal 2 explanatory information indicating that the appearance of the visitor and the product have similarity.

制御部11は、提供場所における来場者の画像、音声、及び待機時間を取得する(ステップS308)。具体的に制御部11は、店舗内に設置された監視装置4から、来場者を撮像した画像、及び来場者の発話等の音声を取得する。また、制御部11は上記と同様に、AP5から端末2の位置情報を取得し、待機時間を計測する。   The control unit 11 acquires the image, sound, and waiting time of the visitor at the provided place (step S308). Specifically, the control unit 11 acquires an image obtained by capturing an image of a visitor and a speech such as an utterance of the visitor from the monitoring device 4 installed in the store. Similarly to the above, the control unit 11 acquires the position information of the terminal 2 from the AP 5 and measures the standby time.

制御部11は、取得した画像、音声、及び待機時間に基づき、来場者の感情を示す感情情報を推定する(ステップS309)。例えば制御部11は、取得した画像等から来場者の表情、動作、声、待機時間等の情報を抽出し、感情テーブル143を参照して、来場者の感情を推定する。制御部11は、推定した感情情報に応じて、来場者が案内に満足しているか否かを判定する(ステップS310)。満足していると判定した場合(S310:YES)、制御部11は商品DB145を参照し、ステップS307で出力した説明情報よりも詳細な説明情報を端末2に出力し(ステップS311)、処理をステップS314に移行する。満足していないと判定した場合(S310:NO)、制御部11は、ステップS309で推定した感情情報に応じて、来場者が案内に不満であるか否かを判定する(ステップS312)。不満であると判定した場合(S312:YES)、制御部11は、案内情報を修正して端末2に出力する(ステップS313)。例えば制御部11は、ステップS304の特定処理に係る属性の類否判断の基準とした属性項目を変更し、来場者に案内する商品等を再度特定する。制御部11は、商品DB145から特定した商品等の提供場所を読み出し、来場者の現在位置から各商品等の提供場所までの案内経路を再生成す
ることで、案内情報を修正する。制御部11は、修正した案内情報を端末2に出力して、処理をステップS314に移行する。
Based on the acquired image, sound, and standby time, the control unit 11 estimates emotion information indicating the emotion of the visitor (step S309). For example, the control unit 11 extracts information such as a visitor's facial expression, motion, voice, and waiting time from the acquired image and the like, and refers to the emotion table 143 to estimate the visitor's emotion. The control unit 11 determines whether the visitor is satisfied with the guidance according to the estimated emotion information (step S310). When it determines with being satisfied (S310: YES), the control part 11 outputs more detailed description information to the terminal 2 than the description information output by step S307 with reference to goods DB145 (step S311), and performs a process. The process proceeds to step S314. When it determines with not being satisfied (S310: NO), the control part 11 determines whether a visitor is dissatisfied with guidance according to the emotion information estimated by step S309 (step S312). When it determines with dissatisfaction (S312: YES), the control part 11 corrects guidance information and outputs it to the terminal 2 (step S313). For example, the control unit 11 changes the attribute item used as a criterion for determining the similarity of the attribute related to the specifying process in step S304, and specifies again the product or the like to be guided to the visitors. The control unit 11 reads the provided location of the specified product etc. from the product DB 145 and regenerates the guide route from the current location of the visitor to the provided location of each product etc., thereby correcting the guide information. The control unit 11 outputs the corrected guide information to the terminal 2, and the process proceeds to step S314.

不満でないと判定した場合(S312:NO)、制御部11は案内を終了するか否かを判定する(ステップS314)。終了しないと判定した場合(S314:NO)、制御部11は処理をステップS306に戻す。終了すると判定した場合(S314:YES)、制御部11は一連の処理を終了する。   When it determines with not being dissatisfied (S312: NO), the control part 11 determines whether guidance is complete | finished (step S314). When it determines with not complete | finishing (S314: NO), the control part 11 returns a process to step S306. When it determines with complete | finishing (S314: YES), the control part 11 complete | finishes a series of processes.

以上より、本実施の形態3によれば、実施の形態1に係る情報処理システムを、展示品を展示する展示施設だけでなく、商品等を提供する提供施設にも応用可能となる。   As described above, according to the third embodiment, the information processing system according to the first embodiment can be applied not only to an exhibition facility that exhibits exhibits but also to a provision facility that provides products and the like.

また、本実施の形態3によれば、来場者が複数人であっても適切な案内を行うことができる。   Moreover, according to this Embodiment 3, appropriate guidance can be performed even if there are a plurality of visitors.

(実施の形態4)
図24は、上述した形態のサーバ1の動作を示す機能ブロック図である。制御部11がプログラムPを実行することにより、サーバ1は以下のように動作する。記憶部241は、人物に対応付けられた属性と、場所と、前記場所に関する情報とを属性毎に関連付けて記憶する。属性判別部242は、人物画像から属性を判別する。生成部243は、判別した属性に応じて前記記憶部241を参照して関連する前記情報を特定し案内情報を生成する。
(Embodiment 4)
FIG. 24 is a functional block diagram showing the operation of the server 1 in the above-described form. When the control unit 11 executes the program P, the server 1 operates as follows. The storage unit 241 stores an attribute associated with a person, a location, and information regarding the location in association with each attribute. The attribute determination unit 242 determines an attribute from the person image. The generation unit 243 refers to the storage unit 241 according to the determined attribute, identifies the related information, and generates guidance information.

本実施の形態4は以上の如きであり、その他は実施の形態1から3と同様であるので、対応する部分には同一の符号を付してその詳細な説明を省略する。   The fourth embodiment is as described above, and the other parts are the same as those of the first to third embodiments. Therefore, the corresponding parts are denoted by the same reference numerals, and detailed description thereof is omitted.

今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time is to be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meanings described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 サーバ
11 制御部
12 記憶部
P プログラム
13 通信部
14 大容量記憶装置
141 属性DB
142 展示DB
143 感情テーブル
144 施設DB
145 商品DB
2 端末
21 制御部
22 記憶部
23 通信部
24 表示部
25 入力部
26 音声出力部
27 撮像部
3 受付装置
4 監視装置
5 AP
1 Server 11 Control Unit 12 Storage Unit P Program 13 Communication Unit 14 Mass Storage Device 141 Attribute DB
142 Exhibition DB
143 emotion table 144 facility DB
145 Product DB
2 Terminal 21 Control unit 22 Storage unit 23 Communication unit 24 Display unit 25 Input unit 26 Audio output unit 27 Imaging unit 3 Accepting device 4 Monitoring device 5 AP

Claims (10)

人物に対応付けられた属性と、場所と、前記場所に関する情報とを属性毎に関連付けて記憶する記憶部と、
人物画像から属性を判別する属性判別部と、
判別した属性に応じて前記記憶部を参照して関連する前記情報を特定し案内情報を生成する生成部と
を備えることを特徴とする情報処理装置。
A storage unit that stores an attribute associated with a person, a location, and information on the location in association with each attribute;
An attribute discriminator for discriminating attributes from a person image;
An information processing apparatus comprising: a generation unit that refers to the storage unit according to the determined attribute to identify the related information and generates guidance information.
生成した前記案内情報を外部装置に出力する出力部を備える
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising: an output unit that outputs the generated guidance information to an external device.
前記場所は、所定の施設における展示品の展示場所、又は商品若しくは役務の提供場所であり、
前記案内情報は、前記展示場所又は提供場所を含む
ことを特徴とする請求項1又は請求項2に記載の情報処理装置。
The place is a place where exhibits are exhibited at a predetermined facility, or a place where goods or services are provided,
The information processing apparatus according to claim 1, wherein the guide information includes the exhibition place or the provision place.
前記案内情報は、複数の前記場所を案内する案内経路を含む
ことを特徴とする請求項1〜請求項3のいずれか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 3, wherein the guide information includes a guide route that guides the plurality of places.
前記人物画像に基づき、人物の外観に関する外観情報を抽出する抽出部を備え、
前記属性判別部は、抽出した前記外観情報に基づき属性を判別する
ことを特徴とする請求項1〜請求項4のいずれか1項に記載の情報処理装置。
An extraction unit that extracts appearance information related to the appearance of the person based on the person image;
The information processing apparatus according to claim 1, wherein the attribute determination unit determines an attribute based on the extracted appearance information.
前記場所における人物の画像、音声、又は待機時間を取得する取得部と、
取得した前記画像、音声、又は待機時間に基づき、前記人物の感情を示す感情情報を推定する推定部と、
推定した前記感情情報に応じて、前記案内情報を変更する変更部と
を備えることを特徴とする請求項1〜請求項5のいずれか1項に記載の情報処理装置。
An acquisition unit for acquiring an image, sound or waiting time of a person in the place;
Based on the acquired image, sound, or standby time, an estimation unit that estimates emotion information indicating the emotion of the person;
The information processing apparatus according to claim 1, further comprising: a changing unit that changes the guidance information in accordance with the estimated emotion information.
前記属性判別部は、前記人物画像から複数の人物の属性を判別する
ことを特徴とする請求項3〜請求項6のいずれか1項に記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the attribute determination unit determines attributes of a plurality of persons from the person image.
人物に対応付けられた属性と、場所と、前記場所に関する情報とを属性毎に関連付けて記憶する記憶部と、
人物画像から属性を判別する属性判別部と、
判別した属性に応じて前記記憶部を参照して関連する前記情報を特定し案内情報を生成する生成部と
を備えることを特徴とする情報処理システム。
A storage unit that stores an attribute associated with a person, a location, and information on the location in association with each attribute;
An attribute discriminator for discriminating attributes from a person image;
An information processing system comprising: a generation unit that identifies relevant information with reference to the storage unit according to the determined attribute and generates guidance information.
人物に対応付けられた属性と、場所と、前記場所に関する情報とを属性毎に関連付けて記憶部に記憶し、
人物画像から属性を判別し、
判別した属性に応じて前記記憶部を参照して関連する前記情報を特定し案内情報を生成する
処理をコンピュータに実行させることを特徴とするプログラム。
An attribute associated with a person, a location, and information on the location are associated with each attribute and stored in the storage unit.
Identify the attributes from the person image,
A program for causing a computer to execute a process of identifying relevant information by referring to the storage unit according to a determined attribute and generating guidance information.
人物に対応付けられた属性と、場所と、前記場所に関する情報とを属性毎に関連付けて記憶部に記憶し、
人物画像から属性を判別し、
判別した属性に応じて前記記憶部を参照して関連する前記情報を特定し案内情報を生成する
処理をコンピュータに実行させることを特徴とする情報処理方法。
An attribute associated with a person, a location, and information on the location are associated with each attribute and stored in the storage unit.
Identify the attributes from the person image,
An information processing method characterized by causing a computer to execute a process of identifying related information by referring to the storage unit according to a determined attribute and generating guidance information.
JP2016106473A 2016-05-27 2016-05-27 Information processing device, information processing system, program and information processing method Pending JP2017211932A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016106473A JP2017211932A (en) 2016-05-27 2016-05-27 Information processing device, information processing system, program and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016106473A JP2017211932A (en) 2016-05-27 2016-05-27 Information processing device, information processing system, program and information processing method

Publications (1)

Publication Number Publication Date
JP2017211932A true JP2017211932A (en) 2017-11-30

Family

ID=60476159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016106473A Pending JP2017211932A (en) 2016-05-27 2016-05-27 Information processing device, information processing system, program and information processing method

Country Status (1)

Country Link
JP (1) JP2017211932A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109542216A (en) * 2018-10-11 2019-03-29 平安科技(深圳)有限公司 Man-machine interaction method, system, computer equipment and storage medium
JP2019175108A (en) * 2018-03-28 2019-10-10 沖電気工業株式会社 Emotional information management server device, emotional information management method, program, terminal device, and information communication system
JP2020071874A (en) * 2018-10-31 2020-05-07 ニューラルポケット株式会社 Information processing system, information processing apparatus, server device, program, or method
JP2021039530A (en) * 2019-09-03 2021-03-11 ザ・ユージーン・スタジオ株式会社 Information providing program, information providing method and information providing system
JP2021136003A (en) * 2020-02-24 2021-09-13 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method for data analysis using smart voice device, device, program, and storage medium
CN113570424A (en) * 2020-04-28 2021-10-29 株式会社迅销 Information processing apparatus, information processing method, storage medium, and guidance system
JP2022519149A (en) * 2019-12-31 2022-03-22 北京市商▲湯▼科技▲開▼▲發▼有限公司 Exhibition area State recognition methods, devices, electronic devices, and recording media
JP2022121319A (en) * 2021-02-08 2022-08-19 ソフトバンク株式会社 Information processing device, program, and information processing method
JP7410735B2 (en) 2020-02-05 2024-01-10 キヤノン株式会社 Terminal device, function proposal method, program and server device

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005011145A (en) * 2003-06-20 2005-01-13 Hitachi Ltd Analysis transmission service method, service company server, terminal and computer software
US20050198661A1 (en) * 2004-01-23 2005-09-08 Andrew Collins Display
JP2005275935A (en) * 2004-03-25 2005-10-06 Omron Corp Terminal device
JP2008152810A (en) * 2008-03-17 2008-07-03 Nec Soft Ltd Customer information collection and management system
JP2009181538A (en) * 2008-02-01 2009-08-13 Brother Ind Ltd Guidance system for behaving body
JP2012068707A (en) * 2010-09-21 2012-04-05 Kddi Corp Information terminal device
JP2012123727A (en) * 2010-12-10 2012-06-28 Hitachi Solutions Ltd Advertising effect measurement server, advertising effect measurement device, program and advertising effect measurement system
JP2012181760A (en) * 2011-03-02 2012-09-20 Toshiba Tec Corp Information processing system, information processor, and program
JP2013077099A (en) * 2011-09-30 2013-04-25 Dainippon Printing Co Ltd Position information distribution server, position information distribution system, position information distribution method, program and recording medium
JP2013117603A (en) * 2011-12-02 2013-06-13 Toshiba Tec Corp Digital signage device, information processing device and program
JP2015119261A (en) * 2013-12-17 2015-06-25 Kddi株式会社 Terminal search system, guidance system, leading system, terminal search method, guidance method, leading method, and computer program

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005011145A (en) * 2003-06-20 2005-01-13 Hitachi Ltd Analysis transmission service method, service company server, terminal and computer software
US20050198661A1 (en) * 2004-01-23 2005-09-08 Andrew Collins Display
JP2005267611A (en) * 2004-01-23 2005-09-29 Sony United Kingdom Ltd Display device
JP2005275935A (en) * 2004-03-25 2005-10-06 Omron Corp Terminal device
JP2009181538A (en) * 2008-02-01 2009-08-13 Brother Ind Ltd Guidance system for behaving body
JP2008152810A (en) * 2008-03-17 2008-07-03 Nec Soft Ltd Customer information collection and management system
JP2012068707A (en) * 2010-09-21 2012-04-05 Kddi Corp Information terminal device
JP2012123727A (en) * 2010-12-10 2012-06-28 Hitachi Solutions Ltd Advertising effect measurement server, advertising effect measurement device, program and advertising effect measurement system
JP2012181760A (en) * 2011-03-02 2012-09-20 Toshiba Tec Corp Information processing system, information processor, and program
JP2013077099A (en) * 2011-09-30 2013-04-25 Dainippon Printing Co Ltd Position information distribution server, position information distribution system, position information distribution method, program and recording medium
JP2013117603A (en) * 2011-12-02 2013-06-13 Toshiba Tec Corp Digital signage device, information processing device and program
JP2015119261A (en) * 2013-12-17 2015-06-25 Kddi株式会社 Terminal search system, guidance system, leading system, terminal search method, guidance method, leading method, and computer program

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019175108A (en) * 2018-03-28 2019-10-10 沖電気工業株式会社 Emotional information management server device, emotional information management method, program, terminal device, and information communication system
JP7438653B2 (en) 2018-03-28 2024-02-27 沖電気工業株式会社 Emotional information management server device, emotional information management method, program and information communication system
CN109542216A (en) * 2018-10-11 2019-03-29 平安科技(深圳)有限公司 Man-machine interaction method, system, computer equipment and storage medium
CN109542216B (en) * 2018-10-11 2022-11-22 平安科技(深圳)有限公司 Man-machine interaction method, system, computer equipment and storage medium
JP7061228B2 (en) 2018-10-11 2022-04-27 平安科技(深▲せん▼)有限公司 Man-machine interaction methods, systems, computer equipment and storage media
JP2021533501A (en) * 2018-10-11 2021-12-02 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co., Ltd. Man-machine interaction methods, systems, computer equipment and storage media
JP2020071874A (en) * 2018-10-31 2020-05-07 ニューラルポケット株式会社 Information processing system, information processing apparatus, server device, program, or method
JP7313052B2 (en) 2018-10-31 2023-07-24 ニューラルポケット株式会社 Information processing system, information processing device, server device, program, or method
JP7012969B2 (en) 2019-09-03 2022-01-31 ザ・ユージーン・スタジオ株式会社 Information provision program, information provision method and information provision system
JP2021039530A (en) * 2019-09-03 2021-03-11 ザ・ユージーン・スタジオ株式会社 Information providing program, information providing method and information providing system
JP2022519149A (en) * 2019-12-31 2022-03-22 北京市商▲湯▼科技▲開▼▲發▼有限公司 Exhibition area State recognition methods, devices, electronic devices, and recording media
JP7410735B2 (en) 2020-02-05 2024-01-10 キヤノン株式会社 Terminal device, function proposal method, program and server device
JP7243004B2 (en) 2020-02-24 2023-03-22 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Data analysis method, device, program and storage medium by smart voice device
JP2021136003A (en) * 2020-02-24 2021-09-13 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method for data analysis using smart voice device, device, program, and storage medium
JP2021174342A (en) * 2020-04-28 2021-11-01 株式会社ファーストリテイリング Information processing device, information processing method, program, and guide system
CN113570424A (en) * 2020-04-28 2021-10-29 株式会社迅销 Information processing apparatus, information processing method, storage medium, and guidance system
JP7443147B2 (en) 2020-04-28 2024-03-05 株式会社ファーストリテイリング Mobile terminal and information processing method
JP2022121319A (en) * 2021-02-08 2022-08-19 ソフトバンク株式会社 Information processing device, program, and information processing method
JP7187593B2 (en) 2021-02-08 2022-12-12 ソフトバンク株式会社 Information processing device, program, and information processing method

Similar Documents

Publication Publication Date Title
JP2017211932A (en) Information processing device, information processing system, program and information processing method
US11763580B2 (en) Information processing apparatus, information processing method, and program
KR102296764B1 (en) Server related with online platform for selling and recommending products
US10747991B2 (en) People stream analysis method, people stream analysis apparatus, and people stream analysis system
CN108293171B (en) Information processing apparatus, information processing method, and storage medium
CN103760968B (en) Method and device for selecting display contents of digital signage
CN108885639A (en) Properties collection navigation and automatic forwarding
CN107251006A (en) The picture library of message with shared interest
JP2018084890A (en) Information processing unit, information processing method, and program
JP6069565B1 (en) RECOMMENDATION DEVICE, RECOMMENDATION METHOD, AND PROGRAM
JP6120467B1 (en) Server device, terminal device, information processing method, and program
JPWO2018142756A1 (en) Information processing apparatus and information processing method
CN108700979A (en) Product introduction graphic user interface
KR20120046653A (en) System and method for recommending hair based on face and style recognition
KR20210075188A (en) Exhibit object control method, apparatus, electronic device and recording medium
JPWO2018135246A1 (en) Information processing system and information processing apparatus
JP2017120617A (en) Information processing system, information processing device, information processing method, and information processing program
JP4427714B2 (en) Image recognition apparatus, image recognition processing method, and image recognition program
KR101661669B1 (en) Dialogue system and dialogue method
JP2020042433A (en) Information providing system, user portable device, information providing device, computer program, and information providing method
CN113724454A (en) Interaction method of mobile equipment, device and storage medium
JP2021039784A (en) Purchase product estimation device
CN112967214A (en) Image display method, device, equipment and storage medium
CN111626521A (en) Tour route generation method and device
Miralles et al. Assisting visually impaired people using autonomous navigation system and computer vision for grocery shopping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200923

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210413