JP2017211932A - Information processing device, information processing system, program and information processing method - Google Patents
Information processing device, information processing system, program and information processing method Download PDFInfo
- Publication number
- JP2017211932A JP2017211932A JP2016106473A JP2016106473A JP2017211932A JP 2017211932 A JP2017211932 A JP 2017211932A JP 2016106473 A JP2016106473 A JP 2016106473A JP 2016106473 A JP2016106473 A JP 2016106473A JP 2017211932 A JP2017211932 A JP 2017211932A
- Authority
- JP
- Japan
- Prior art keywords
- information
- attribute
- control unit
- visitor
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、情報処理装置、情報処理システム、プログラム及び情報処理方法に関する。 The present invention relates to an information processing apparatus, an information processing system, a program, and an information processing method.
従来、美術館等の施設において、学芸員等が作成した展示ルートを来場者に提示するサービスが行われている。しかし、当該展示ルートは主として学術的見地に立って作成されるものであり、展示品に関して詳細な知識を持たない来場者にとっては満足度の高いものではなかった。 Conventionally, in a facility such as a museum, a service for presenting an exhibition route created by a curator to a visitor is performed. However, the exhibition route was created mainly from an academic point of view, and was not satisfactory for visitors who did not have detailed knowledge about the exhibits.
例えば特許文献1では、個々の見学者に対して個別に展示品を案内、誘導等する端末探索システム等が開示されている。特許文献1によれば、見学者の趣味、嗜好等を示す見学者情報に基づいて見学計画を作成し、端末装置を介して見学者に展示品を案内する。
For example,
しかし、特許文献1では来場者の趣味、嗜好等を考慮して展示品を案内するのみであり、展示品に対する来場者の興味を積極的に惹起させるに至っていない。
However,
本発明は斯かる事情によりなされたものであって、その目的とするところは、展示施設等に来場する来場者の満足度向上を図ることができる情報処理装置等を提供することにある。 The present invention has been made under such circumstances, and an object of the present invention is to provide an information processing apparatus and the like that can improve the satisfaction of visitors who visit an exhibition facility.
本発明に係る情報処理装置は、人物に対応付けられた属性と、場所と、前記場所に関する情報とを属性毎に関連付けて記憶する記憶部と、人物画像から属性を判別する属性判別部と、判別した属性に応じて前記記憶部を参照して関連する前記情報を特定し案内情報を生成する生成部とを備えることを特徴とする。 An information processing apparatus according to the present invention includes an attribute associated with a person, a location, and a storage unit that stores information on the location in association with each attribute, an attribute determination unit that determines an attribute from a person image, A generating unit configured to identify the related information with reference to the storage unit according to the determined attribute and generate guidance information.
本発明に係る情報処理装置は、生成した前記案内情報を外部装置に出力する出力部を備えることを特徴とする。 The information processing apparatus according to the present invention includes an output unit that outputs the generated guidance information to an external device.
本発明に係る情報処理装置は、前記場所は、所定の施設における展示品の展示場所、又は商品若しくは役務の提供場所であり、前記案内情報は、前記展示場所又は提供場所を含むことを特徴とする。 The information processing apparatus according to the present invention is characterized in that the place is a display place of an exhibit in a predetermined facility or a place where goods or services are provided, and the guidance information includes the display place or the supply place. To do.
本発明に係る情報処理装置は、前記案内情報は、複数の前記場所を案内する案内経路を含むことを特徴とする。 The information processing apparatus according to the present invention is characterized in that the guidance information includes a guidance route for guiding the plurality of places.
本発明に係る情報処理装置は、前記人物画像に基づき、人物の外観に関する外観情報を抽出する抽出部を備え、前記属性判別部は、抽出した前記外観情報に基づき属性を判別することを特徴とする。 An information processing apparatus according to the present invention includes an extraction unit that extracts appearance information related to a person's appearance based on the person image, and the attribute determination unit determines an attribute based on the extracted appearance information. To do.
本発明に係る情報処理装置は、前記場所における人物の画像、音声、又は待機時間を取
得する取得部と、取得した前記画像、音声、又は待機時間に基づき、前記人物の感情を示す感情情報を推定する推定部と、推定した前記感情情報に応じて、前記案内情報を変更する変更部とを備えることを特徴とする。
An information processing apparatus according to the present invention includes an acquisition unit that acquires an image, sound, or waiting time of a person at the place, and emotion information that indicates the person's emotion based on the acquired image, sound, or waiting time. An estimation unit for estimation and a change unit for changing the guidance information according to the estimated emotion information are provided.
本発明に係る情報処理装置は、前記属性判別部は、前記人物画像から複数の人物の属性を判別することを特徴とする。 The information processing apparatus according to the present invention is characterized in that the attribute determining unit determines attributes of a plurality of persons from the person image.
本発明に係る情報処理システムは、人物に対応付けられた属性と、場所と、前記場所に関する情報とを属性毎に関連付けて記憶する記憶部と、人物画像から属性を判別する属性判別部と、判別した属性に応じて前記記憶部を参照して関連する前記情報を特定し案内情報を生成する生成部とを備えることを特徴とする。 An information processing system according to the present invention includes an attribute associated with a person, a location, and a storage unit that associates and stores information about the location for each attribute, an attribute determination unit that determines an attribute from a person image, A generating unit configured to identify the related information with reference to the storage unit according to the determined attribute and generate guidance information.
本発明に係るプログラムは、人物に対応付けられた属性と、場所と、前記場所に関する情報とを属性毎に関連付けて記憶部に記憶し、人物画像から属性を判別し、判別した属性に応じて前記記憶部を参照して関連する前記情報を特定し案内情報を生成する処理をコンピュータに実行させることを特徴とする。 The program according to the present invention stores an attribute associated with a person, a location, and information about the location in the storage unit in association with each attribute, determines an attribute from the person image, and according to the determined attribute The computer is caused to execute a process of identifying relevant information with reference to the storage unit and generating guidance information.
本発明に係る情報処理方法は、人物に対応付けられた属性と、場所と、前記場所に関する情報とを属性毎に関連付けて記憶部に記憶し、人物画像から属性を判別し、判別した属性に応じて前記記憶部を参照して関連する前記情報を特定し案内情報を生成する処理をコンピュータに実行させることを特徴とする。 The information processing method according to the present invention stores an attribute associated with a person, a location, and information about the location in the storage unit in association with each attribute, discriminates the attribute from the person image, and determines the discriminated attribute. Accordingly, the computer is caused to execute processing for identifying the relevant information with reference to the storage unit and generating guidance information.
本発明によれば、展示施設等に来場する来場者の満足度向上を図ることができる。 According to the present invention, it is possible to improve the satisfaction of visitors who visit an exhibition facility or the like.
以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、情報処理システムの構成例を示す模式図である。本実施の形態では、展示品を展示する展示施設(例えば美術館等)において、当該展示施設に来場した来場者に展示品を案内する情報処理システムを一例として説明を行う。情報処理システムは、ネットワークNを介して相互に通信接続された情報処理装置1、情報処理端末2、受付装置3、監視装置4、AP(Access Point)5等を含む。ネットワークNはインターネット、LAN(Local Area Network)等である。
Hereinafter, the present invention will be described in detail with reference to the drawings illustrating embodiments thereof.
(Embodiment 1)
FIG. 1 is a schematic diagram illustrating a configuration example of an information processing system. In the present embodiment, an explanation will be given by taking as an example an information processing system that guides an exhibit to a visitor who has visited the exhibition facility at an exhibition facility (eg, a museum) where the exhibit is displayed. The information processing system includes an
情報処理装置1は、種々の情報を記憶すると共に、ネットワークNを介して情報の送受信を行う情報処理装置である。情報処理装置1は、例えばサーバコンピュータ、パーソナルコンピュータ等である。本実施の形態において情報処理装置1はサーバコンピュータであるものとし、サーバ1と読み替える。サーバ1は、受付装置3から取得した来場者個人の情報に基づき、来場者に対して展示品を案内する処理を実行する。
The
情報処理端末2は、各来場者が所持している端末装置であり、例えばスマートフォン、タブレット端末、携帯電話等である。本実施の形態で情報処理端末2はスマートフォンであるものとし、以下では簡潔のため端末2と読み替える。端末2は、サーバ1で生成される来場者向けの案内情報を取得し、後述するマップ画面等を出力する。
The
受付装置3は、展示施設の受付に設置された端末装置であり、例えばPepper(登録商標)等の人間型ロボット、自動受付機などである。本実施の形態において、受付装置3は人間型ロボットであるものとする。受付装置3は、来場者の入場受付処理を行うと共に、CCD(Charge Coupled Device)カメラ等で来場者の人物画像を撮像し、当該人物画像を含む来場者個人の情報をサーバ1に送信する。なお、受付装置3はロボット、受付機等の情報処理装置ではなく、監視カメラ等であってもよい。
The
監視装置4は、例えばCCDカメラ、スピーカ等を含む監視装置であり、施設内の各展示品の展示場所周辺に設置されている。監視装置4は、展示品を観覧する来場者を撮像すると共に、当該来場者の声等を集音する。AP5は無線アクセスポイントであり、展示施設内の所定箇所に一又は複数設置されている。AP5は、端末2等と無線通信を行う。
The monitoring device 4 is a monitoring device including a CCD camera, a speaker, and the like, for example, and is installed around the display place of each exhibit in the facility. The monitoring device 4 images a visitor viewing the exhibit and collects the voice of the visitor. AP 5 is a wireless access point, and one or a plurality of APs 5 are installed at predetermined locations in the exhibition facility. The AP 5 performs wireless communication with the
図2は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、記憶部12、通信部13、大容量記憶装置14を含む。
制御部11は、CPU(Central Processing Unit)又はMPU(Micro-Processing Unit)等の演算処理装置を含む。制御部11は、記憶部12に記憶されたプログラムPを読み出して実行することにより、サーバ1に係る種々の情報処理又は制御処理等を行う。
FIG. 2 is a block diagram illustrating a configuration example of the
The
記憶部12は、RAM(Random Access Memory)、ROM(Read Only Memory)等のメモリ素子を含む。記憶部12は、制御部11が本実施の形態に係る処理を実行するために必要なプログラムP又はデータ等を記憶している。また、記憶部12は、制御部11が演算処理を実行するために必要なデータ等を一時的に記憶する。
The
通信部13は通信に関する処理を行うための処理回路等を含み、ネットワークNを介して端末2等と情報の送受信を行う。
The
大容量記憶装置14は、例えばハードディスク等を含む大容量の記憶装置である。大容量記憶装置14は、属性DB141、展示DB142、感情テーブル143等を記憶している。属性DB141は、来場者の属性を記憶している。展示DB142は、人物に対応付けられた属性と、展示施設内の場所と、当該場所に関する情報とを属性毎に関連付けて記憶している。本実施の形態において人物に対応付けられた属性は展示品の属性であり、展示施設内の場所は展示品の展示場所であり、当該場所に関する情報は展示品の情報である。感情テーブル143は、来場者の感情を示す感情情報を推定するためのテーブルである。
なお、本実施の形態において記憶部12及び大容量記憶装置14は一体の記憶装置として構成されていてもよい。また、大容量記憶装置14は複数の記憶装置により構成されていてもよい。また、大容量記憶装置14はサーバ1に接続された外部記憶装置であってもよい。
The large-
In the present embodiment, the
なお、本実施の形態においてサーバ1は上記の構成に限られず、例えば操作入力を受け付ける入力部、サーバ1に係る情報を表示する表示部、可搬型記憶媒体に記憶された情報を読み取る読取部等を含んでもよい。
In the present embodiment, the
図3は、端末2の構成例を示すブロック図である。端末2は、制御部21、記憶部22、通信部23、表示部24、入力部25、音声出力部26、撮像部27を含む。
制御部21はCPU又はMPU等の演算処理装置を含み、記憶部22に記憶されたプログラムを読み出して実行することにより、端末2に係る種々の情報処理又は制御処理等を行う。
記憶部22はRAM、ROM等のメモリ素子を含み、制御部21が処理を実行するために必要なプログラム又はデータ等を記憶している。また、記憶部22は、制御部21が演算処理を実行するために必要なデータ等を一時的に記憶する。
通信部23はアンテナ及び通信処理回路等を含み、ネットワークNを介してサーバ1等と情報の送受信を行う。
FIG. 3 is a block diagram illustrating a configuration example of the
The
The
The
表示部24は液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイ等の画面を有し、制御部21から与えられた画像を表示する。
入力部25は表示部24に設けられたタッチパネル又は押下式のボタン等であり、来場者による操作入力を受け付ける。入力部25は、来場者によりなされた操作内容を制御部21に通知する。
音声出力部26は音声の出力を行うスピーカ等であり、制御部21の指令に従って音声を出力する。
撮像部27はCCDカメラ等を含み、画像の撮像を行う。撮像された画像は、記憶部22に記憶される。
The display unit 24 has a screen such as a liquid crystal display or an organic EL (Electro Luminescence) display, and displays an image given from the
The
The
The
なお、本実施の形態において端末2は上記の構成に限られず、例えば音声の入力を受け付けるマイク等を含んでもよい。
In the present embodiment, the
図4は、属性DB141のレコードレイアウトの一例を示す説明図である。属性DB141は、来場者列、属性列を含む。来場者列は、展示施設に来場する来場者を識別するための来場者IDを記憶している。属性列は、来場者IDと対応付けて、来場者の個人属性を記憶している。具体的に属性列は、来場者を撮像した画像から判別される複数の属性項目に係るデータを記憶している。例えば属性列は、来場者の顔の目、鼻、口等の各パーツ
のタイプ、髪型、体型、身長、姿勢、年齢、性別、表情、衣服等の各項目のデータを記憶している。
FIG. 4 is an explanatory diagram showing an example of the record layout of the
図5は、展示DB142のレコードレイアウトの一例を示す説明図である。展示DB142は、展示列、種類列、属性列、説明列、詳細説明列、場所列を含む。展示列は、展示施設に展示されている展示品を識別するための展示IDを記憶している。種類列は、展示IDと対応付けて、展示品の種類を記憶している。属性列は、展示IDと対応付けて、人物に対応付けられた属性を記憶している。具体的に属性列は、展示品の属性を、当該展示品を案内する対象である人物、すなわち来場者の属性と比較可能に記憶している。例えば展示品が「人物画」である場合、属性列には、当該人物画に描かれている各人物の顔の各パーツのタイプ、髪型、衣服等、属性項目毎に展示品の属性が記憶されている。当該人物画中の人物の顔パーツのタイプ、髪型、衣服等の属性は、来場者の属性と比較可能である(図4及び図5参照)。後述するマッチング処理において、サーバ1は当該展示品の属性を来場者の属性と比較し、来場者の外観と展示品との類似性を判断することで、来場者に案内する展示品を特定する。つまりサーバ1は、各展示品と関連付けて展示品の案内対象である人物に対応付けられた属性を展示DB142に記憶しておき、後述するマッチング処理において来場者の属性が案内対象である人物に対応付けられた属性と類似性を有するか否かを判断することで、展示品を来場者に案内するか否かを判断する。そしてサーバ1は、案内対象である人物に対応付けられた属性として展示品の内容を表す属性を記憶しておくことで、来場者の外観と展示品との類似性を判断し、来場者と外観において類似する展示品を特定して来場者に案内することになる。説明列は、展示IDと対応付けて、展示品を来場者に説明するための説明情報を記憶している。説明情報は、例えば来場者に展示品を説明するための音声、画像等である。詳細説明列は、展示IDと対応付けて、説明列に記憶されている説明情報よりも詳細な説明を行うための説明情報を記憶している。場所列は、展示IDと対応付けて、展示施設内における展示品の展示場所を記憶している。
FIG. 5 is an explanatory diagram showing an example of the record layout of the
図6は、感情テーブル143のレコードレイアウトの一例を示す説明図である。感情テーブル143は、項目列、詳細列、ポイント列を含む。項目列は、来場者の感情情報を推定する基準となる基準項目を記憶している。詳細列は、基準項目と対応付けて、各基準項目について詳細な推定基準を記憶している。なお、詳細列には画像、音声、時間等に係るより詳細な基準値が記憶されているが、図6では便宜上概要のみを図示する。ポイント列は、推定基準と対応付けて、各推定基準を満たした場合に加算又は減算されるポイントを記憶している。後述するようにサーバ1は、各推定基準を満たしているか否かに応じてポイントを算出することで、来場者の感情情報、具体的には満足度を算出する。
FIG. 6 is an explanatory diagram showing an example of the record layout of the emotion table 143. The emotion table 143 includes an item string, a detail string, and a point string. The item string stores reference items that serve as references for estimating the emotion information of visitors. The detailed column stores detailed estimation criteria for each reference item in association with the reference item. Note that more detailed reference values relating to images, sound, time, and the like are stored in the detail column, but only an overview is shown in FIG. 6 for convenience. The point sequence stores points that are added or subtracted when the estimation criteria are satisfied in association with the estimation criteria. As will be described later, the
図7は、来場者の個人属性の判別処理を説明するための説明図である。以下では情報処理システムが実行する処理の概要について述べる。なお、以下では説明の便宜のため、サーバ1の処理主体は制御部11とし、端末2の処理主体は制御部21とする。
図7では、受付装置3が来場者を撮像した人物画像例を示している。受付装置3は、例えば展示施設の入り口付近に設置されている。受付装置3は、展示施設に入場した来場者に対して所定の入場受付処理を行う。例えば受付装置3は、図示しない通信機を介して端末2の事前登録を行う。さらに受付装置3は、図7に示す来場者の全身像を撮像する。受付装置3は、撮像した人物画像をサーバ1に送信する。
FIG. 7 is an explanatory diagram for explaining the personal attribute determination process of a visitor. The outline of the processing executed by the information processing system will be described below. Hereinafter, for convenience of explanation, the processing entity of the
In FIG. 7, the example of the person image which the
サーバ1の制御部11は、受付装置3から人物画像を取得する。制御部11は、取得した人物画像に基づき、来場者の個人属性を判別する。具体的に制御部11は、取得した人物画像に基づき、来場者の外観に関する外観情報を抽出し、当該外観情報に基づいて来場者の属性を判別する。
The
例えば制御部11は、来場者の顔の目、鼻、口等の各パーツについて、画像から形状、
位置、大きさ等の特徴量を抽出する。制御部11は、抽出した特徴量から、各パーツのタイプを判別する。なお、顔パーツのタイプはプログラムPにおいて予め規定されている。上記処理により、制御部11は属性項目「顔」について来場者の属性を判別する。
For example, the
Extract features such as position and size. The
また、制御部11は顔部分の画像から抽出した特徴量に基づき、来場者の表情、年齢、性別等を判別する。例えば制御部11は「笑顔」「真顔」「緊張」等の複数の表情のパターンについてサンプル画像から特徴点、特徴ベクトル等を抽出する機械学習を行っておき、当該学習モデルに基づき来場者の顔画像から表情を判別する。同様に、制御部11は年齢、性別等についても機械学習を行っておき、来場者の顔画像から年齢、性別等を判別する。そのほかにも、制御部11は撮像画像から来場者の髪型を判別する。
In addition, the
また、制御部11は画像から来場者の身体部分について全体の輪郭、高さ、横幅、各部(手、足、肩など)の位置等の特徴量を抽出し、来場者の体型、身長、姿勢等の属性を判別する。
In addition, the
また、制御部11は来場者の衣服についても色彩、輝度、形状等の特徴量を抽出し、色、タイプ(例えばTシャツ、Yシャツ等の種別)等の属性を判別する。なお、制御部11は色、タイプ以外に衣服の模様などを判別してもよい。
上述のごとく、制御部11は来場者を撮像した人物画像から顔、身体、衣服等に係る外観情報を抽出し、各属性項目に係る属性を判別する。制御部11は、判別した来場者の属性を属性DB141に記憶しておく。
The
As described above, the
図8は、展示品の特定処理を説明するための説明図である。制御部11は、上記で判別した来場者の属性に応じて、来場者に案内する展示品を展示DB142から特定する。具体的に制御部11は、来場者の属性と展示品の属性とを比較するマッチング処理を行い、類似性を有する展示品を特定する。
例えば制御部11は、来場者の属性からランダムに属性項目を選択し、当該属性項目について類似性の有無を判断する。ここで、制御部11は属性項目「顔」を選択したものとする。この場合、制御部11は展示DB142を参照し、来場者の目、鼻、口等の各パーツのタイプと、例えば人物画、彫刻等の模写媒体である人物、写真の被写媒体である人物等の各パーツのタイプとを比較し、顔全体での類似性を判断する。制御部11は類似性を有する展示品、例えば来場者の顔と似ている人物が描かれた人物画を特定する。制御部11は各展示品について上記のマッチング処理を行い、類似性を有する展示品を特定する。
FIG. 8 is an explanatory diagram for explaining the exhibit specifying process. The
For example, the
なお、上記で制御部11は一の属性項目を基準にマッチング処理を行ったが、本実施の形態はこれに限るものではない。制御部11はその他の属性項目「表情」「衣服」「髪型」等についても類似性の有無を判断し、総合的に類似性を有するか否かを判断してもよい。
In addition, although the
制御部11は、特定した展示品を来場者に案内するための案内情報を生成する。具体的に制御部11は、展示DB142を参照し、展示施設内における展示品の展示場所、展示施設内における展示品の案内経路、各展示品を来場者に説明するための説明情報等を含む案内情報を生成する。説明情報については後述する。
The
制御部11は、展示DB142から各展示品の展示場所を読み出す。制御部11は読み出した展示場所に応じた案内経路を生成する。例えば制御部11は、記憶部12又は大容量記憶装置14に予め記憶してある展示施設内のマップ図を参照し、各展示場所を最短経路で結ぶ案内経路を生成する。
The
図9は、マップ画面の一例を示す説明図である。制御部11は、黒丸で示す展示場所9
1、実線で示す案内経路92等を含むマップ画面を端末2に出力する。制御部11はマップ画面を端末2に出力することにより、来場者を展示場所91へと案内する。なお、制御部11はマップ画面だけでなく、進行指示に係る音声データ、テキストデータ等を併せて出力することにしてもよい。また、図9において丸中黒で示すように、制御部11はマップ画面上に来場者の位置93を表示することにしてもよい。この場合、例えば展示施設内に設置されたAP5が端末2と無線通信を行い、通信電波の強度、方向等から端末2の位置情報を取得する。サーバ1の制御部11はAP5から位置情報を取得し、マップ画面上に来場者の位置93を表示する。なお、端末2が自装置の位置情報を判別し、マップ画面に反映することとしてもよい。また、上記で制御部11はAP5による無線通信に基づき端末2の位置情報を判断したが、例えばBluetooth(登録商標)通信機との通信、GPS(Global Positioning System)に係る通信、携帯電話基地局との通信等に基づき位置情報を判断してもよい。
FIG. 9 is an explanatory diagram showing an example of the map screen. The
1. A map screen including a
サーバ1の制御部11は、来場者が展示品の展示場所91付近に到着したか否かを判定する。例えば制御部11は上記と同じくAP5から端末2の位置情報を取得し、端末2が展示品の展示場所91から所定範囲内に位置するか否かを判定する。来場者が展示場所91付近に到着したと判定した場合、制御部11は展示DB142を参照し、以下の説明情報を端末2に出力する。
The
図10は、展示品の説明処理を説明するための説明図である。サーバ1から案内情報の出力を受けた端末2の制御部21は、図10に示すように、来場者に展示品を説明するための音声及び画像を出力する。当該音声は、例えば来場者の外観が展示品と類似性を有する旨、展示品の概要等を含むメッセージである。また、当該画像は、例えば来場者の外観と類似性を有する展示品の具体的な箇所等を示す画像である。図10に示すように、例えば制御部21はメッセージ冒頭で「この人があなたにそっくり」との音声を出力すると共に、続いて展示品の概要を簡単に説明する音声を出力する。また、制御部21は併せて来場者の外観と類似する展示品の箇所を強調表示する。なお、制御部21は上記以外に、例えば案内する展示品に応じた音楽等を出力してもよい。また、上記で制御部21は来場者に対して音声案内を行ったが、例えばテキスト案内を行ってもよいことは勿論である。
FIG. 10 is an explanatory diagram for explaining the display process of the exhibit. Upon receiving the guidance information output from the
図11は、感情情報に基づく案内変更処理を説明するための説明図である。上記のように、サーバ1の制御部11は来場者の属性に応じて特定した展示品を案内する。さらに制御部11は、案内を受けた来場者の反応に応じて、適宜に案内情報の変更を行う。具体的に制御部11は、案内を受けた来場者の感情を示す感情情報を推定し、推定した感情情報に応じて案内情報を変更する処理を行う。
FIG. 11 is an explanatory diagram for explaining guidance change processing based on emotion information. As described above, the
例えば制御部11は、上記と同様にして端末2の位置情報、すなわち来場者の現在位置を取得し、来場者が展示場所に待機している待機時間を計測する。また、制御部11は、来場者の現在位置付近に設置されている監視装置4から、来場者を撮像した画像、来場者の発話等に係る音声を取得する。制御部11は、取得した来場者の画像、音声、待機時間に基づき、来場者の感情情報を推定する。例えば制御部11は、来場者の表情の変化、体の動作、声、待機時間等に基づき、来場者が案内にどの程度満足しているか、満足度を推定する。
For example, the
例えば制御部11は、取得した画像から顔部分の特徴量を抽出し、来場者の表情の変化を観察する。なお、制御部11は属性判別時と同様にして顔画像の特徴量から表情をパターン分けすることにより表情を判別する。例えば制御部11は、来場者の入場受付時点での表情、すなわち属性DB141に記憶してある表情と、説明情報の出力を終了した時点での表情を比較する。制御部11は感情テーブル143を参照し、例えば当該表情の変化に基づき満足度に係るポイントを算出する。例えば入場時は「真顔」であったが、出力終
了時、すなわち説明を受けた後は「笑顔」になった場合を考える。この場合、制御部11は感情テーブル143を参照し、「真顔」が0ポイント、「笑顔」が2ポイントであることから、当該表情の変化について満足度2ポイントを算出する。なお、上記で制御部11は入場時と説明終了時との表情の変化から来場者の感情を推定したが、例えば説明開始時、すなわち説明情報の出力を開始した時点と説明終了時点との表情を比較して上記の処理を行ってもよい。また、制御部11は表情の変化ではなく、現時点、すなわち説明終了時点での表情のみに基づき来場者の感情を推定してもよい。
For example, the
また、制御部11は画像から身体部分の特徴量、例えば手、足、肩、胸部等に係る特徴点及び特徴ベクトルを抽出する。制御部11は、抽出した身体部分の特徴量に基づいて来場者の動作、例えば来場者が腕組みをしているか否か、頬杖を着いているか否か等の動作を判別する。表情の場合と同様に、制御部11は来場者の動作に応じて来場者の満足度をポイント形式で算出する。例えば制御部11は、腕組みをしている場合は1ポイント加算、貧乏ゆすりをしている場合は2ポイント減算、として各動作に係るポイントを加減し、動作に係る満足度を算出する。
Further, the
また、制御部11は取得した音声から来場者の発話に係る大きさ、周波数、会話継続時間等の特徴量を抽出し、来場者の感情を推定する。例えば制御部11は、「笑い」「喜び」「怒り」等の複数パターンの感情に係るサンプル音声から特徴量を抽出する機械学習を行い、当該学習処理によるモデルと来場者の発話音声の特徴量とをマッチングさせて、来場者の感情を上記複数のパターンから推定する。また、制御部11は取得した音声から来場者の発話中の言葉を抽出し、感情テーブル143に規定してある言葉が出てきたか否かを判断する。例えば制御部11は、「面白い」「つまらない」等のキーフレーズが出てきたか否かを判断する。当該キーフレーズにより、制御部11は来場者の感情を推定する。制御部11は表情、動作の場合と同じく、ポイント形式で満足度を算出する。
Moreover, the
また、制御部11は来場者が展示品の前に待機している待機時間に基づき、来場者の感情を推定する。例えば制御部11は、来場者が短時間で展示場所から離れた場合、来場者が案内に不満を持っていると推定する。これとは逆に長時間展示場所付近に居る場合、制御部11は来場者が案内に満足していると推定する。制御部11は上記と同様に、待機時間の長短に応じて満足度のポイントを算出する。
Moreover, the
制御部11は、推定した感情情報に応じて案内情報を変更する。例えば制御部11は、上記の満足度に係るポイントを所定の第1閾値、及び第1閾値よりも小さい第2閾値と比較することで、来場者が案内に満足しているか、不満を持っているか、又は満足でも不満でもなく平常状態であるかを判定する。算出したポイントが第1閾値以上であると判定した場合、制御部11は来場者が案内に満足し、当該展示品に対して興味を持ったものと推定する。この場合、制御部11は展示DB142の詳細説明列を参照し、出力済みの説明情報よりも詳細な説明情報を端末2に出力する。
The
算出したポイントが第2閾値未満であると判定した場合、制御部11は来場者が案内に対して不満を持ち、現在の案内を受けたくないものと推定する。この場合、制御部11は案内情報を修正する。例えば制御部11は、展示品の特定処理に利用した属性項目を別の属性項目に変更し、来場者に案内する展示品を修正する。上記のように属性項目「顔」に応じて展示品を特定した場合、制御部11は別の属性項目(例えば「衣服」)を選択し、当該属性項目に応じて来場者の外観と展示品との類似性を判断し、別の展示品を特定する。制御部11は、特定した展示品の展示場所91を展示DB142から読み出し、来場者の現在位置93から各展示場所91までの最短経路に係る案内経路92を再生成する。制御部11は、当該展示品の展示場所91、案内経路92を含む案内情報を端末2に再出力する。
When it is determined that the calculated point is less than the second threshold, the
ポイントが第1閾値未満であり、かつ、第2閾値以上であると判定した場合、制御部11は来場者が展示品に興味を示したわけではないが、案内を不満に思っているわけでもないと推定する。制御部11は案内情報を変更せず、そのまま次の展示品を来場者に案内する。制御部11は展示DB142から特定した展示品全てについて案内を行うまで上記の処理を繰り返す。全ての展示品について案内処理を行った場合、制御部11は一連の処理を終了する。
When it is determined that the point is less than the first threshold and greater than or equal to the second threshold, the
なお、上記で制御部11は来場者の表情、動作、声、待機時間等の複数要素に基づいて来場者の感情情報を推定したが、本実施の形態はこれに限るものではない。例えば制御部11は来場者の表情の変化のみに基づいて感情情報を推定してもよい。この場合、制御部11はポイント計算をすることなく、例えば来場者の表情が「真顔」から「笑顔」又は「怒り」に変化したか否か等、表情の変化を分岐条件として案内情報の変更処理を行えばよい。
In addition, although the
図12は、サーバ1が実行する処理手順の一例を示すフローチャートである。図12に基づいて、サーバ1が実行する処理内容について説明する。
サーバ1の制御部11は、展示施設に来場した来場者を撮像した人物画像を受付装置3から取得する(ステップS11)。例えば受付装置3は、展示施設に来場した来場者が所定の受付処理を行う場合に、併せて来場者の全身像を撮像する。制御部11は、撮像された来場者の画像を受付装置3から取得する。
FIG. 12 is a flowchart illustrating an example of a processing procedure executed by the
The
制御部11は、取得した人物画像から来場者の外観に関する外観情報を抽出する(ステップS12)。具体的に制御部11は当該人物画像から、来場者の顔、頭髪、全身のシルエット、衣服等の外観について、形状、大きさ、位置、色彩、輝度等の特徴量を抽出する。制御部11は、抽出した外観情報に基づき、来場者の属性を判別する(ステップS13)。例えば制御部11は、抽出した特徴量に基づいて顔の各パーツのタイプ、髪型、体型、身長、衣服の色、タイプ等を判別する。また、制御部11は予め学習済みのモデルデータと比較して、来場者の年齢、性別、表情等を判別する。制御部11は、判別した来場者の個人属性を属性DB141に記憶する。
The
制御部11は展示DB142を参照し、判別した来場者の属性に応じて、来場者に案内する場所に関する情報、すなわち展示品を特定する(ステップS14)。具体的に制御部11は、展示DB142に記憶されている人物に対応付けられた属性、詳しくは各展示品の属性と、属性DB141に記憶した来場者の属性とを比較するマッチング処理を行い、来場者の外観と展示品との類似性を判断する。例えば制御部11は、類似性を判断する判断基準である属性項目をランダムに選択し、当該属性項目について類似性を判断する。例えば属性項目「顔」を選択した場合、制御部11は来場者の目、鼻、口等の各パーツのタイプと、展示施設に展示されている人物画の各パーツのタイプとを比較し、顔全体での類似性を判断する。なお、制御部11は撮像画像から判別した複数の属性項目について、全ての項目に関し類似性を判断してもよい。制御部11は、来場者の外観と類似性を有する展示品を特定する。
The
制御部11は、特定した展示品の展示場所、案内経路を含む案内情報を生成し、端末2に出力する(ステップS15)。具体的に制御部11は展示DB142を参照し、展示施設内における当該展示品の展示場所を読み出す。例えば制御部11は、複数の展示品の展示場所を最短経路で結ぶ案内経路を生成する。制御部11は、各展示品の展示場所、生成した案内経路を含むマップ画面を端末2に出力する。なお、案内情報は展示場所、案内経路だけでなく、例えば来場者を展示場所まで案内するための音声等を含んでもよい。
The
制御部11は、来場者が展示品の展示場所付近に到着したか否かを判定する(ステップS16)。例えば展示施設内に設置されたAP5が端末2と通信を行い、端末2の位置情報を取得する。サーバ1の制御部11はAP5から当該位置情報を取得する。制御部11は、端末2が展示品の展示場所から所定範囲内に位置するか否かに応じて判定を行う。展示場所付近に到着していないと判定した場合(S16:NO)、制御部11は処理を待機する。展示場所付近に到着したと判定した場合(S16:YES)、制御部11は、当該展示品を来場者に説明するための説明情報を端末2に出力する(ステップS17)。例えば制御部11は、来場者の外観と展示品とが類似性を有する旨の説明情報を端末2に出力する。端末2の制御部21は当該説明情報をサーバ1から取得し、来場者の外観と展示品とが類似性を有する箇所を画像表示すると共に、類似性を有する旨、展示品の概要等を説明する説明音声を出力する。
The
制御部11は、展示品の展示場所における来場者の画像、音声、及び待機時間を取得する(ステップS18)。具体的に制御部11は、展示品の展示場所付近に設置された監視装置4から、来場者を撮像した画像、及び来場者の発話等の音声を取得する。また、制御部11は上記と同様にAP5等から端末2の位置情報を取得し、待機時間を計測する。
The
制御部11は、取得した画像、音声、及び待機時間に基づき、来場者の感情を示す感情情報を推定する(ステップS19)。例えば制御部11は、取得した画像から来場者の顔部分の特徴量を抽出し、現在の表情を判別する。また、制御部11は画像から来場者の手、足等の特徴点及び特徴ベクトルを抽出し、来場者の動作を判別する。また、制御部11は取得した音声から来場者の声の大きさ、周波数等の特徴量を抽出すると共に、発した言葉等を判別する。制御部11は感情テーブル143を参照し、上記のように判別した来場者の表情、動作、声、待機時間等の情報に基づき、来場者の感情を推定する。具体的に制御部11は、来場者の満足度をポイント形式で算出する。例えば制御部11は、現在の来場者の表情と、入場受付時の来場者の表情、すなわち属性DB141に記憶した表情との変化を判断し、感情テーブル143を参照して当該変化をポイント形式で算出する。また、制御部11は手、足、姿勢等の各動作についてポイントを算出する。また、制御部11は音声の特徴量、来場者が発した言葉等に基づき、ポイントを算出する。また、制御部11は待機時間に応じてポイントを算出する。制御部11は、表情、動作等の各要素についてポイントの合算値を求め、来場者の感情を示す感情情報、例えば満足度を推定する。
The
制御部11は、推定した感情情報に応じて、来場者が案内に満足しているか否かを判定する(ステップS20)。例えば制御部11は上記で算出したポイントが所定の第1閾値以上であるか否かを判定する。満足していると判定した場合(S20:YES)、制御部11は、ステップS17で出力した説明情報よりも詳細な説明情報を端末2に出力する(ステップS21)。例えば制御部11は、展示DB142を参照して、詳細列に記憶されている、より詳細な説明を端末2に出力する。制御部11は、処理をステップS24に移行する。
The
満足していないと判定した場合(S20:NO)、制御部11は、ステップS19で推定した感情情報に応じて、来場者が案内に不満であるか否かを判定する(ステップS22)。例えば制御部11は、上記で算出したポイントが第1閾値よりも小さい第2閾値未満であるか否かを判定する。不満であると判定した場合(S22:YES)、制御部11は、案内情報を修正して端末2に出力する(ステップS23)。例えば制御部11は、ステップS14の特定処理において判断基準とした属性項目を変更し、来場者に案内する展示品を再度特定する。例えばステップS14で属性項目「顔」を選択した場合、制御部11は別の属性項目「衣服」を再選択し、衣服について類似する展示品を特定する。制御部11は、展示DB142から特定した展示品の当該展示場所を読み出し、来場者の現在位置から各展示品までの案内経路を再生成することで、案内情報を修正する。制御部11は、
修正した案内情報を端末2に出力して、処理をステップS24に移行する。
When it determines with not being satisfied (S20: NO), the
The corrected guidance information is output to the
不満でないと判定した場合(S22:NO)、制御部11は案内を終了するか否かを判定する(ステップS24)。例えば制御部11は、案内経路に係る最後の展示品の展示場所に端末2が位置するか否かを判定する。終了しないと判定した場合(S24:NO)、制御部11は処理をステップS16に戻す。終了すると判定した場合(S24:YES)、制御部11は一連の処理を終了する。
When it determines with not being dissatisfied (S22: NO), the
なお、上記でサーバ1は来場者に展示品を案内するための案内経路を生成したが、本実施の形態はこれに限るものではない。例えばサーバ1は案内経路を生成せず、端末2が展示品の展示場所から所定範囲内に位置した場合、すなわち展示施設内を見学する来場者が展示品に近づいてきた場合に、所定のアラート音と共に説明情報等の案内を端末2に出力することとしてもよい。つまりサーバ1は、案内経路の生成処理を行わずともよい。
In addition, although the
また、上記ではサーバ1が来場者の属性を判別する処理を行ったが、本実施の形態はこれに限るものではない。例えば受付装置3が来場者の属性を判別し、判別結果をサーバ1に通知する構成としてもよい。この場合、受付装置3が人物画像に基づき来場者の属性を判別する属性判別部として機能する。また、サーバ1が、来場者の属性に応じて展示場所に関する情報、すなわち展示品を特定し、案内情報を生成する生成部として機能する。すなわち本実施の形態において、情報処理システム全体として一連の処理を実行することができればよい。
Moreover, although the
また、上記でサーバ1は生成した案内情報を直接的に端末2に出力したが、本実施の形態はこれに限るものではない。例えばサーバ1は、案内情報に係るデータを受付装置3に出力し、人型ロボットである受付装置3の胸部に備わる表示ディスプレイにQRコード(登録商標)を表示させることにしてもよい。端末2は撮像部27によりQRコードを認識し、案内情報をダウンロードする。当該構成であっても、上記と同様の効果を奏する。
Further, although the
また、上記でサーバ1は、来場者の外観と展示品との類似性を基準に展示品を特定したが、本実施の形態はこれに限るものではない。例えばサーバ1は、年少の来場者には子供向けの、中高年の来場者には大人向けの展示品を案内するというように、年齢に応じた案内処理を行ってもよい。つまりサーバ1は、来場者の属性に応じて来場者に案内する展示品を特定することができればよい。
Moreover, although the
以上より、本実施の形態1によれば、展示施設等に来場する来場者の満足度向上を図ることができる。 As described above, according to the first embodiment, it is possible to improve the satisfaction of visitors who visit an exhibition facility.
また、本実施の形態1によれば、例えばスマートフォン等の端末2に案内情報を出力することで、来場者は展示施設を見学しながら手軽に案内を受けることができる。
Further, according to the first embodiment, for example, by outputting guidance information to a
また、本実施の形態1によれば、例えばマップ画面に展示場所を表示することで適切な案内を行うことができる。 Further, according to the first embodiment, for example, appropriate guidance can be provided by displaying an exhibition place on a map screen.
また、本実施の形態1によれば、来場者の個人属性に応じた展示品の案内経路を自動生成することができる。 Further, according to the first embodiment, it is possible to automatically generate a guide route for exhibits according to the personal attributes of visitors.
また、本実施の形態1によれば、来場者の外観に応じて案内する展示品を特定する。来場者は自らの外観という極めて身近な情報に基づいて展示品の案内を受けるため、来場者は展示品に対して興味を持ちやすくなる。これによって、より来場者の満足度向上を図ることができる。 Further, according to the first embodiment, the exhibit to be guided is specified according to the appearance of the visitors. Visitors receive guidance on exhibits based on extremely familiar information such as their appearance, making it easier for visitors to be interested in the exhibits. As a result, the satisfaction level of the visitors can be improved.
また、本実施の形態1によれば、案内を受けた来場者の反応に応じて、詳細な説明の出力、案内経路の修正等を行い、その後の案内を柔軟に変更することができる。
Moreover, according to this
(実施の形態2)
本実施の形態では、来場者の属性に応じて、展示施設内の展示品だけでなく、他の展示品等に係る情報を併せて案内する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
(Embodiment 2)
In the present embodiment, a mode will be described in which not only the exhibits in the exhibition facility but also information related to other exhibits is guided according to the attributes of the visitors. In addition, about the content which overlaps with
図13は、実施の形態2に係るサーバ1の構成例を示すブロック図である。本実施の形態では、来場者の個人属性に応じて展示施設付近の観光施設を案内する形態について述べる。本実施の形態に係る大容量記憶装置14は、施設DB144を記憶している。施設DB144は、展示施設付近の観光施設に係る情報を記憶している。
FIG. 13 is a block diagram illustrating a configuration example of the
図14は、実施の形態2に係る施設DB144のレコードレイアウトの一例を示す説明図である。施設DB144は、施設列、名称列、展示列、種類列、属性列、紹介列、場所列を含む。施設列は、展示施設外の他の施設、例えば観光施設を識別するための施設IDを記憶している。名称列は、施設IDと対応付けて、観光施設の名称を記憶している。展示列は、施設IDと対応付けて、当該観光施設で展示されている展示品を識別するための展示IDを記憶している。種類列は、展示IDと対応付けて、展示品の種類を記憶している。属性列は、展示IDと対応付けて、案内対象である人物に対応付けられた属性、詳しくは展示品の属性を記憶している。紹介列は、展示IDと対応付けて、展示品を来場者に紹介するための紹介情報を記憶している。紹介情報は、例えば実施の形態1の説明情報と同様に音声及び画像等のデータである。場所列は、施設IDと対応付けて、観光施設の場所を示す位置情報を記憶している。
FIG. 14 is an explanatory diagram illustrating an example of a record layout of the
図15は、実施の形態2に係る案内処理を説明するための説明図である。制御部11は実施の形態1と同様に、展示施設内に展示されている展示品の案内処理を行う。制御部11は当該案内終了後に、来場者の属性に応じて、来場者に他の観光施設を案内する処理を実行する。
例えば制御部11は、属性DB141に記憶されている来場者の属性と、施設DB144に記憶されている他の観光施設に展示されている展示品の属性とのマッチング処理を行う。当該マッチング処理は実施の形態1と同様に、来場者の外観と展示品との類似性を判断する。制御部11は、来場者の外観と類似する展示品を特定する。制御部11は、特定した展示品が展示されている観光施設の名称、場所、特定した展示品の紹介情報等を施設DB144から読み出す。
FIG. 15 is an explanatory diagram for explaining the guidance processing according to the second embodiment. Similar to the first embodiment, the
For example, the
制御部11は、来場者に当該観光施設を案内する案内情報を生成する。例えば制御部11は、図15に示すように、来場者の外観と類似すると判断した展示品の画像、当該展示品が展示されている観光施設の名称、場所等を端末2に表示すると共に、当該展示品が来場者の外観と類似している旨、当該展示品が表示中の観光施設に展示されている旨等の紹介メッセージを端末2に音声出力する。なお、例えば制御部11は観光施設の場所だけでなく、現在地、すなわち来場者が見学を行った展示施設から観光施設までの交通経路等も併せて表示してもよい。
The
また、図15では一の観光施設を案内する様子を図示したが、本実施の形態はこれに限るものではない。例えば制御部11は複数の観光施設に係る展示品を特定し、当該複数の観光施設を案内するための案内情報を生成して端末2に出力してもよい。これにより、制御部11は来場者が訪れた展示施設だけでなく、その他の複数の施設も含む包括的な観光案内を行うことができる。
Further, FIG. 15 illustrates a state where one tourist facility is guided, but the present embodiment is not limited to this. For example, the
図16は、実施の形態2に係るサーバ1が実行する処理手順の一例を示すフローチャートである。図16に基づいて、本実施の形態に係るサーバ1が実行する処理内容について説明する。
展示施設内の展示品について終了すると判定した場合(S24:YES)、制御部11は以下の処理を実行する。制御部11は、来場者の属性に応じて、来場者に案内する場所に関する情報、詳しくは来場者に案内する他の施設の展示品を特定する(ステップS201)。具体的に制御部11は、属性DB141から来場者の属性に関する情報を読み出す。制御部11は施設DB144を参照し、読み出した来場者の属性と、他の観光施設に展示されている展示品の属性とのマッチング処理を行う。具体的には、制御部11は来場者の外観と展示品との類似性を判断する。制御部11は、来場者の外観と類似する他の観光施設の展示品を特定する。
FIG. 16 is a flowchart illustrating an example of a processing procedure executed by the
When it determines with complete | finishing about the exhibit in an exhibition facility (S24: YES), the
制御部11は、特定した展示品が展示されている他の観光施設を案内するための案内情報を生成し、端末2に出力する(ステップS202)。例えば制御部11は、施設DB144を参照し、ステップS201で特定した展示品が展示されている観光施設の名称、場所等の情報、及び当該展示品を来場者に紹介するための画像、音声等の紹介情報を読み出す。制御部11は、読み出した各情報に基づき、当該観光施設を案内するための案内情報を生成する。例えば案内情報は、展示品、観光施設の名称、場所等を示す表示画像のほかに、来場者の外観と類似する展示品が展示されている等の旨の音声メッセージを含む。制御部11は、案内情報を端末2に出力し、一連の処理を終了する。
The
なお、上記では来場者に美術館、博物館、動物園等の他の施設を案内する処理について述べたが、本実施の形態はこれに限るものではない。例えば制御部11は、来場者の外観から判別される属性に応じて、来場者と外観が似ている人物、キャラクター等が登場する映画、テレビドラマ、テレビコマーシャル、漫画、雑誌等を紹介することとしてもよい。すなわち、制御部11が案内する対象は観光スポット等の施設に展示されている展示品に限られず、広義のメディア媒体上のコンテンツであってもよい。
In addition, although the process which guides other facilities, such as an art museum, a museum, a zoo, to a visitor was described above, this Embodiment is not restricted to this. For example, the
以上より、本実施の形態2によれば、展示施設に展示されている展示品だけでなく、他の施設に展示されている展示品等も含めて来場者に案内することで、来場者の満足度向上をより一層図ることができる。 As described above, according to the second embodiment, not only the exhibits displayed in the exhibition facility, but also the exhibits displayed in other facilities are guided to the visitors. Satisfaction can be further improved.
(実施の形態3)
実施の形態1では美術館等の展示施設において、来場者に美術品等の展示品を案内する形態について述べた。本実施の形態では、ショッピングモール等の商業施設において、来場者に対して各店舗で提供される商品又は役務を案内する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
(Embodiment 3)
In the first embodiment, a form in which an exhibit such as a work of art is guided to visitors at an exhibition facility such as a museum. In the present embodiment, a form in which a commodity or service provided at each store is guided to a visitor in a commercial facility such as a shopping mall will be described. In addition, about the content which overlaps with
本実施の形態に係る情報処理システムは、実施の形態1と同様にサーバ1、端末2等を含む。本実施の形態において受付装置3は、商品又は役務を提供する提供施設(商業施設)の出入口等に設置され、監視装置4は提供施設内の各店舗等に設置される。その他の構成は実施の形態1と同様であるため、ここでは情報処理システムの構成について図示を省略する。
The information processing system according to the present embodiment includes a
図17は、実施の形態3に係るサーバ1の構成例を示すブロック図である。本実施の形態に係る大容量記憶装置14は、展示DB142に代えて商品DB145を記憶している。商品DB145は、人物に対応付けられた属性と、提供施設内の場所と、当該場所に関する情報とを記憶している。本実施の形態において、人物に対応付けられた属性は商品又は役務の属性であり、提供施設内の場所は各商品又は役務を提供する提供場所であり、当
該場所に関する情報は商品又は役務の情報である。各店舗で提供される商品又は役務に関する情報を記憶している。なお、以下では説明の便宜のため、商品又は役務を適宜に総称して商品等と記す。
FIG. 17 is a block diagram illustrating a configuration example of the
図18は、実施の形態3に係る属性DB141のレコードレイアウトの一例を示す説明図である。本実施の形態に係る属性DB141は、団体列、団体属性列を含む。団体列は、来場者IDと対応付けて、来場者の団体を識別するための団体IDを記憶している。団体属性列は、団体IDと対応付けて、各団体の属性を記憶している。例えば団体属性は、「家族」「カップル」「友人」等の各来場者の関係性の概要、団体内における各来場者の構成に係る詳細な関係性等を示す情報である。
FIG. 18 is an explanatory diagram showing an example of a record layout of the
図19は、実施の形態3に係る商品DB145のレコードレイアウトの一例を示す説明図である。商品DB145は、店舗列、商品列、種類列、属性列、説明列、詳細説明列、場所列を含む。店舗列は、各店舗を識別するための店舗IDを記憶している。商品列は、店舗IDと対応付けて、各店舗で提供される商品等を識別するための商品IDを記憶している。種類列は、商品IDと対応付けて、商品の種類を記憶している。属性列は、商品IDと対応付けて、案内対象である人物に対応付けられた属性、詳しくは商品等の属性を属性項目毎に記憶している。例えば商品がシャツである場合、当該シャツの色、タイプ(Tシャツ、Yシャツ等の種別)、商品の対象性別等の属性を記憶している。説明列及び詳細説明列は展示DB142と同様に、商品IDと対応付けて、各商品を来場者に説明するための説明情報を記憶している。場所列は、店舗IDと対応付けて、各店舗の位置、すなわち商品等を提供する提供場所を記憶している。
FIG. 19 is an explanatory diagram illustrating an example of a record layout of the
図20は、実施の形態3に係る来場者の団体属性の判別処理を説明するための説明図である。サーバ1の制御部11は、実施の形態1と同様に来場者を撮像した人物画像を受付装置3から取得し、来場者の個人属性を判別する。本実施の形態ではさらに、受付装置3が撮像した人物画像に来場者が複数含まれる場合、制御部11は当該複数の来場者の属性、すなわち団体属性を判別する。
FIG. 20 is an explanatory diagram for explaining a group attribute discrimination process for visitors according to the third embodiment. The
図20に示すように、撮像画像に来場者が複数含まれる場合を考える。この場合、制御部11は各来場者の顔、身体、衣服等の外観に係る外観情報を抽出し、個人属性を判別して属性DB141に記憶する。併せて制御部11は、抽出した外観情報に基づき、当該複数の来場者の団体属性を判別する。例えば制御部11は、画像から複数の顔を認識した場合、当該来場者が団体であるものと判断する。制御部11は、各来場者の外観情報に基づき団体属性を判別する。例えば制御部11は、各来場者の顔画像から年齢を推測し、当該団体の年齢構成を判断する。制御部11は当該年齢構成に基づき、当該団体が「家族」であるか等を判別する。「家族」であると判別した場合、例えば制御部11は、年齢構成に応じて家族構成を判別する。また、例えば制御部11は、年齢が近く、二名の来場者の性別が異なり、手を繋いでいると判断した場合、当該団体が「カップル」であるか等を判別する。上記のように、制御部11は画像から抽出される外観情報に基づき、団体属性を判別する。制御部11は、判別した団体属性を属性DB141に記憶する。
Consider a case where a plurality of visitors are included in a captured image as shown in FIG. In this case, the
図21及び図22は、実施の形態3に係る商品等の案内処理を説明するための説明図である。図21では、来場者の個人属性に応じた案内処理を概念的に示している。図22では、来場者の団体属性を含めた案内処理を概念的に示している。図21の場合、サーバ1の制御部11は、判別した来場者の属性に応じて来場者に案内する場所に関する情報、すなわち商品等を特定する。例えば制御部11は属性項目「衣服」「性別」について、来場者が着用している衣服と色、模様、形状、タイプ等が類似しており、商品の対象性別が来場者の性別と同一である商品を商品DB145から特定する。なお、上記は一例であって、例えば制御部11は来場者の年齢、体型等のその他の個人属性を含めて特定処理を行っ
てよい。
FIGS. 21 and 22 are explanatory diagrams for explaining guidance processing for products and the like according to the third embodiment. FIG. 21 conceptually shows the guidance process according to the personal attributes of the visitors. FIG. 22 conceptually shows the guidance process including the group attributes of visitors. In the case of FIG. 21, the
制御部11は、特定した商品等を案内するための案内情報を生成する。制御部11は商品DB145から商品等を提供する店舗の位置、すなわち商品等の提供場所211を読み出す。制御部11は当該提供場所211に来場者を案内するための案内経路212を生成し、端末2に出力する。制御部11は提供施設内に設置されたAP5等から来場者の位置213を取得する。来場者が提供場所211に到着した場合、制御部11は説明情報を端末2に出力する。
The
制御部11は、例えば店舗内に設置されている監視装置4から画像等の情報を取得し、感情情報を推定する。具体的に制御部11は、感情テーブル143を参照し、来場者の動作、例えば来場者が衣服を手に取ったか否か、衣服を試着したか否か等に応じて、案内した衣服を来場者が気に入ったか否かを推定する。なお、本実施の形態では簡潔のため感情テーブル143の図示は省略する。来場者が衣服を気に入ったと推定した場合、制御部11は詳細な説明情報をさらに出力する。また、例えば制御部11は、来場者の視線が衣服に向いているか否か、「似合わない」等のキーフレーズを発話から抽出したか否か等に応じて、案内した衣服を来場者が気に入らなかったか否かを推定する。この場合、制御部11は案内情報を修正する。例えば制御部11は、実施の形態1と同様に、属性項目を変更して再び商品等を特定し、提供場所211を判別し、案内経路212を修正する。
The
図22に示すように、制御部11はさらに来場者の団体属性を含めた案内処理を行う。具体的に制御部11は、属性項目「家族」「カップル」等の団体属性と、商品等の属性のマッチング処理を行う。例えば団体が「家族」である場合、制御部11は役務「映画」について、家族向けの映画作品を特定する。さらに制御部11は、例えば団体の構成員である一の来場者の外観に係る個人属性「顔」と、当該映画に登場する登場人物の属性「顔」とを比較し、類似性を判断する。制御部11は、来場者の「顔」と似た登場人物が登場する映画作品を商品DB145から特定し、案内情報を生成する。図22に示すように、制御部11は当該映画作品を上映している映画館の位置を示す提供場所211、映画館への案内経路212、映画作品の説明等に係る案内情報を端末2に出力する。なお、上記では役務「映画」を一例として説明を行ったが、その他の役務、商品等であってもよいことは勿論である。
なお、上記で制御部11は個人属性、団体属性の両方を考慮した処理を行ったが、団体属性のみに基づく処理を行ってもよい。
As shown in FIG. 22, the
In addition, although the
図23は、実施の形態3に係るサーバ1が実行する処理手順の一例を示すフローチャートである。図23に基づいて、本実施の形態に係るサーバ1が実行する処理内容について説明する。
サーバ1の制御部11は、提供施設に来場した一又は複数の来場者を撮像した人物画像を受付装置3から取得する(ステップS301)。例えば受付装置3は、提供施設に来場した来場者を撮像する。本実施の形態において受付装置3は、来場者が団体である場合に、当該団体に係る複数の来場者を撮像する。制御部11は、撮像された一又は複数の来場者の人物画像を受付装置3から取得する。
FIG. 23 is a flowchart illustrating an example of a processing procedure executed by the
The
制御部11は、取得した人物画像から来場者の外観に関する外観情報を抽出する(ステップS302)。具体的に制御部11は当該画像から、来場者の顔、頭髪、全身のシルエット、衣服等の外観について形状、大きさ、色等の特徴量を抽出する。取得した画像に複数の来場者が含まれる場合、制御部11は各来場者の外観について特徴量を抽出する。
The
制御部11は、抽出した外観情報に基づき、一又は複数の来場者の個人属性及び団体属性を判別する(ステップS303)。例えば制御部11は、抽出した特徴量に基づいて顔
の各パーツのタイプ、髪型、体型、衣服の色等を判別する。また、制御部11は予め学習済みのモデルデータと比較して、来場者の年齢、性別、表情等を判別する。また、監視装置4から取得した画像に複数の来場者が含まれる場合、制御部11は上記の個人属性のほかに、団体属性を判別する。例えば制御部11は、団体の人数、年齢構成等に基づき、複数の来場者の関係性を推測する。制御部11は、判別した来場者の個人属性及び団体属性を属性DB141に記憶する。
The
制御部11は商品DB145を参照し、判別した来場者の個人属性及び団体属性に応じて、来場者に案内する場所に関する情報、すなわち商品等を特定する(ステップS304)。具体的に制御部11は、商品DB145に記憶されている商品等の属性と、属性DB141に記憶した来場者の個人属性とを比較するマッチング処理を行い、来場者の外観と商品等との類似性を判断する。また、制御部11は各来場者の個人属性だけでなく、団体属性も含めてマッチング処理を行い、商品等を特定する。具体的に制御部11は、上記のように推測した来場者の関係性、すなわち「家族」であるか、「カップル」であるか等に応じて、当該団体の来場者に案内する商品等を特定する。例えば団体が「家族」である場合、制御部11は家族向けの役務「映画」を特定する。
The
制御部11は、特定した商品等の提供場所、案内経路を含む案内情報を生成し、端末2に出力する(ステップS305)。具体的に制御部11は商品DB145を参照し、提供施設内において当該商品等を提供する店舗の位置を読み出す。例えば制御部11は、複数の商品等の提供場所を最短経路で結ぶ案内経路を生成する。制御部11は、読み出した各商品等の提供場所、生成した案内経路を含むマップ画面を端末2に出力する。
The
制御部11は、来場者が商品等の提供場所に到着したか否かを判定する(ステップS306)。例えば制御部11はAP5等から端末2の位置情報を取得し、端末2が商品等の提供場所から所定範囲内に位置するか否かに応じて判定を行う。提供場所に到着していないと判定した場合(S306:NO)、制御部11は処理を待機する。提供場所に到着したと判定した場合(S306:YES)、制御部11は、当該商品等を来場者に説明するための説明情報を端末2に出力する(ステップS307)。例えば制御部11は、来場者の外観と商品等とが類似性を有する旨の説明情報を端末2に出力する。
The
制御部11は、提供場所における来場者の画像、音声、及び待機時間を取得する(ステップS308)。具体的に制御部11は、店舗内に設置された監視装置4から、来場者を撮像した画像、及び来場者の発話等の音声を取得する。また、制御部11は上記と同様に、AP5から端末2の位置情報を取得し、待機時間を計測する。
The
制御部11は、取得した画像、音声、及び待機時間に基づき、来場者の感情を示す感情情報を推定する(ステップS309)。例えば制御部11は、取得した画像等から来場者の表情、動作、声、待機時間等の情報を抽出し、感情テーブル143を参照して、来場者の感情を推定する。制御部11は、推定した感情情報に応じて、来場者が案内に満足しているか否かを判定する(ステップS310)。満足していると判定した場合(S310:YES)、制御部11は商品DB145を参照し、ステップS307で出力した説明情報よりも詳細な説明情報を端末2に出力し(ステップS311)、処理をステップS314に移行する。満足していないと判定した場合(S310:NO)、制御部11は、ステップS309で推定した感情情報に応じて、来場者が案内に不満であるか否かを判定する(ステップS312)。不満であると判定した場合(S312:YES)、制御部11は、案内情報を修正して端末2に出力する(ステップS313)。例えば制御部11は、ステップS304の特定処理に係る属性の類否判断の基準とした属性項目を変更し、来場者に案内する商品等を再度特定する。制御部11は、商品DB145から特定した商品等の提供場所を読み出し、来場者の現在位置から各商品等の提供場所までの案内経路を再生成す
ることで、案内情報を修正する。制御部11は、修正した案内情報を端末2に出力して、処理をステップS314に移行する。
Based on the acquired image, sound, and standby time, the
不満でないと判定した場合(S312:NO)、制御部11は案内を終了するか否かを判定する(ステップS314)。終了しないと判定した場合(S314:NO)、制御部11は処理をステップS306に戻す。終了すると判定した場合(S314:YES)、制御部11は一連の処理を終了する。
When it determines with not being dissatisfied (S312: NO), the
以上より、本実施の形態3によれば、実施の形態1に係る情報処理システムを、展示品を展示する展示施設だけでなく、商品等を提供する提供施設にも応用可能となる。 As described above, according to the third embodiment, the information processing system according to the first embodiment can be applied not only to an exhibition facility that exhibits exhibits but also to a provision facility that provides products and the like.
また、本実施の形態3によれば、来場者が複数人であっても適切な案内を行うことができる。
Moreover, according to this
(実施の形態4)
図24は、上述した形態のサーバ1の動作を示す機能ブロック図である。制御部11がプログラムPを実行することにより、サーバ1は以下のように動作する。記憶部241は、人物に対応付けられた属性と、場所と、前記場所に関する情報とを属性毎に関連付けて記憶する。属性判別部242は、人物画像から属性を判別する。生成部243は、判別した属性に応じて前記記憶部241を参照して関連する前記情報を特定し案内情報を生成する。
(Embodiment 4)
FIG. 24 is a functional block diagram showing the operation of the
本実施の形態4は以上の如きであり、その他は実施の形態1から3と同様であるので、対応する部分には同一の符号を付してその詳細な説明を省略する。 The fourth embodiment is as described above, and the other parts are the same as those of the first to third embodiments. Therefore, the corresponding parts are denoted by the same reference numerals, and detailed description thereof is omitted.
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time is to be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meanings described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1 サーバ
11 制御部
12 記憶部
P プログラム
13 通信部
14 大容量記憶装置
141 属性DB
142 展示DB
143 感情テーブル
144 施設DB
145 商品DB
2 端末
21 制御部
22 記憶部
23 通信部
24 表示部
25 入力部
26 音声出力部
27 撮像部
3 受付装置
4 監視装置
5 AP
1
142 Exhibition DB
143 emotion table 144 facility DB
145 Product DB
2
Claims (10)
人物画像から属性を判別する属性判別部と、
判別した属性に応じて前記記憶部を参照して関連する前記情報を特定し案内情報を生成する生成部と
を備えることを特徴とする情報処理装置。 A storage unit that stores an attribute associated with a person, a location, and information on the location in association with each attribute;
An attribute discriminator for discriminating attributes from a person image;
An information processing apparatus comprising: a generation unit that refers to the storage unit according to the determined attribute to identify the related information and generates guidance information.
ことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising: an output unit that outputs the generated guidance information to an external device.
前記案内情報は、前記展示場所又は提供場所を含む
ことを特徴とする請求項1又は請求項2に記載の情報処理装置。 The place is a place where exhibits are exhibited at a predetermined facility, or a place where goods or services are provided,
The information processing apparatus according to claim 1, wherein the guide information includes the exhibition place or the provision place.
ことを特徴とする請求項1〜請求項3のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3, wherein the guide information includes a guide route that guides the plurality of places.
前記属性判別部は、抽出した前記外観情報に基づき属性を判別する
ことを特徴とする請求項1〜請求項4のいずれか1項に記載の情報処理装置。 An extraction unit that extracts appearance information related to the appearance of the person based on the person image;
The information processing apparatus according to claim 1, wherein the attribute determination unit determines an attribute based on the extracted appearance information.
取得した前記画像、音声、又は待機時間に基づき、前記人物の感情を示す感情情報を推定する推定部と、
推定した前記感情情報に応じて、前記案内情報を変更する変更部と
を備えることを特徴とする請求項1〜請求項5のいずれか1項に記載の情報処理装置。 An acquisition unit for acquiring an image, sound or waiting time of a person in the place;
Based on the acquired image, sound, or standby time, an estimation unit that estimates emotion information indicating the emotion of the person;
The information processing apparatus according to claim 1, further comprising: a changing unit that changes the guidance information in accordance with the estimated emotion information.
ことを特徴とする請求項3〜請求項6のいずれか1項に記載の情報処理装置。 The information processing apparatus according to claim 3, wherein the attribute determination unit determines attributes of a plurality of persons from the person image.
人物画像から属性を判別する属性判別部と、
判別した属性に応じて前記記憶部を参照して関連する前記情報を特定し案内情報を生成する生成部と
を備えることを特徴とする情報処理システム。 A storage unit that stores an attribute associated with a person, a location, and information on the location in association with each attribute;
An attribute discriminator for discriminating attributes from a person image;
An information processing system comprising: a generation unit that identifies relevant information with reference to the storage unit according to the determined attribute and generates guidance information.
人物画像から属性を判別し、
判別した属性に応じて前記記憶部を参照して関連する前記情報を特定し案内情報を生成する
処理をコンピュータに実行させることを特徴とするプログラム。 An attribute associated with a person, a location, and information on the location are associated with each attribute and stored in the storage unit.
Identify the attributes from the person image,
A program for causing a computer to execute a process of identifying relevant information by referring to the storage unit according to a determined attribute and generating guidance information.
人物画像から属性を判別し、
判別した属性に応じて前記記憶部を参照して関連する前記情報を特定し案内情報を生成する
処理をコンピュータに実行させることを特徴とする情報処理方法。 An attribute associated with a person, a location, and information on the location are associated with each attribute and stored in the storage unit.
Identify the attributes from the person image,
An information processing method characterized by causing a computer to execute a process of identifying related information by referring to the storage unit according to a determined attribute and generating guidance information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016106473A JP2017211932A (en) | 2016-05-27 | 2016-05-27 | Information processing device, information processing system, program and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016106473A JP2017211932A (en) | 2016-05-27 | 2016-05-27 | Information processing device, information processing system, program and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017211932A true JP2017211932A (en) | 2017-11-30 |
Family
ID=60476159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016106473A Pending JP2017211932A (en) | 2016-05-27 | 2016-05-27 | Information processing device, information processing system, program and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017211932A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109542216A (en) * | 2018-10-11 | 2019-03-29 | 平安科技(深圳)有限公司 | Man-machine interaction method, system, computer equipment and storage medium |
JP2019175108A (en) * | 2018-03-28 | 2019-10-10 | 沖電気工業株式会社 | Emotional information management server device, emotional information management method, program, terminal device, and information communication system |
JP2020071874A (en) * | 2018-10-31 | 2020-05-07 | ニューラルポケット株式会社 | Information processing system, information processing apparatus, server device, program, or method |
JP2021039530A (en) * | 2019-09-03 | 2021-03-11 | ザ・ユージーン・スタジオ株式会社 | Information providing program, information providing method and information providing system |
JP2021136003A (en) * | 2020-02-24 | 2021-09-13 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Method for data analysis using smart voice device, device, program, and storage medium |
CN113570424A (en) * | 2020-04-28 | 2021-10-29 | 株式会社迅销 | Information processing apparatus, information processing method, storage medium, and guidance system |
JP2022519149A (en) * | 2019-12-31 | 2022-03-22 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | Exhibition area State recognition methods, devices, electronic devices, and recording media |
JP2022121319A (en) * | 2021-02-08 | 2022-08-19 | ソフトバンク株式会社 | Information processing device, program, and information processing method |
JP7410735B2 (en) | 2020-02-05 | 2024-01-10 | キヤノン株式会社 | Terminal device, function proposal method, program and server device |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005011145A (en) * | 2003-06-20 | 2005-01-13 | Hitachi Ltd | Analysis transmission service method, service company server, terminal and computer software |
US20050198661A1 (en) * | 2004-01-23 | 2005-09-08 | Andrew Collins | Display |
JP2005275935A (en) * | 2004-03-25 | 2005-10-06 | Omron Corp | Terminal device |
JP2008152810A (en) * | 2008-03-17 | 2008-07-03 | Nec Soft Ltd | Customer information collection and management system |
JP2009181538A (en) * | 2008-02-01 | 2009-08-13 | Brother Ind Ltd | Guidance system for behaving body |
JP2012068707A (en) * | 2010-09-21 | 2012-04-05 | Kddi Corp | Information terminal device |
JP2012123727A (en) * | 2010-12-10 | 2012-06-28 | Hitachi Solutions Ltd | Advertising effect measurement server, advertising effect measurement device, program and advertising effect measurement system |
JP2012181760A (en) * | 2011-03-02 | 2012-09-20 | Toshiba Tec Corp | Information processing system, information processor, and program |
JP2013077099A (en) * | 2011-09-30 | 2013-04-25 | Dainippon Printing Co Ltd | Position information distribution server, position information distribution system, position information distribution method, program and recording medium |
JP2013117603A (en) * | 2011-12-02 | 2013-06-13 | Toshiba Tec Corp | Digital signage device, information processing device and program |
JP2015119261A (en) * | 2013-12-17 | 2015-06-25 | Kddi株式会社 | Terminal search system, guidance system, leading system, terminal search method, guidance method, leading method, and computer program |
-
2016
- 2016-05-27 JP JP2016106473A patent/JP2017211932A/en active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005011145A (en) * | 2003-06-20 | 2005-01-13 | Hitachi Ltd | Analysis transmission service method, service company server, terminal and computer software |
US20050198661A1 (en) * | 2004-01-23 | 2005-09-08 | Andrew Collins | Display |
JP2005267611A (en) * | 2004-01-23 | 2005-09-29 | Sony United Kingdom Ltd | Display device |
JP2005275935A (en) * | 2004-03-25 | 2005-10-06 | Omron Corp | Terminal device |
JP2009181538A (en) * | 2008-02-01 | 2009-08-13 | Brother Ind Ltd | Guidance system for behaving body |
JP2008152810A (en) * | 2008-03-17 | 2008-07-03 | Nec Soft Ltd | Customer information collection and management system |
JP2012068707A (en) * | 2010-09-21 | 2012-04-05 | Kddi Corp | Information terminal device |
JP2012123727A (en) * | 2010-12-10 | 2012-06-28 | Hitachi Solutions Ltd | Advertising effect measurement server, advertising effect measurement device, program and advertising effect measurement system |
JP2012181760A (en) * | 2011-03-02 | 2012-09-20 | Toshiba Tec Corp | Information processing system, information processor, and program |
JP2013077099A (en) * | 2011-09-30 | 2013-04-25 | Dainippon Printing Co Ltd | Position information distribution server, position information distribution system, position information distribution method, program and recording medium |
JP2013117603A (en) * | 2011-12-02 | 2013-06-13 | Toshiba Tec Corp | Digital signage device, information processing device and program |
JP2015119261A (en) * | 2013-12-17 | 2015-06-25 | Kddi株式会社 | Terminal search system, guidance system, leading system, terminal search method, guidance method, leading method, and computer program |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019175108A (en) * | 2018-03-28 | 2019-10-10 | 沖電気工業株式会社 | Emotional information management server device, emotional information management method, program, terminal device, and information communication system |
JP7438653B2 (en) | 2018-03-28 | 2024-02-27 | 沖電気工業株式会社 | Emotional information management server device, emotional information management method, program and information communication system |
CN109542216A (en) * | 2018-10-11 | 2019-03-29 | 平安科技(深圳)有限公司 | Man-machine interaction method, system, computer equipment and storage medium |
CN109542216B (en) * | 2018-10-11 | 2022-11-22 | 平安科技(深圳)有限公司 | Man-machine interaction method, system, computer equipment and storage medium |
JP7061228B2 (en) | 2018-10-11 | 2022-04-27 | 平安科技(深▲せん▼)有限公司 | Man-machine interaction methods, systems, computer equipment and storage media |
JP2021533501A (en) * | 2018-10-11 | 2021-12-02 | 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co., Ltd. | Man-machine interaction methods, systems, computer equipment and storage media |
JP2020071874A (en) * | 2018-10-31 | 2020-05-07 | ニューラルポケット株式会社 | Information processing system, information processing apparatus, server device, program, or method |
JP7313052B2 (en) | 2018-10-31 | 2023-07-24 | ニューラルポケット株式会社 | Information processing system, information processing device, server device, program, or method |
JP7012969B2 (en) | 2019-09-03 | 2022-01-31 | ザ・ユージーン・スタジオ株式会社 | Information provision program, information provision method and information provision system |
JP2021039530A (en) * | 2019-09-03 | 2021-03-11 | ザ・ユージーン・スタジオ株式会社 | Information providing program, information providing method and information providing system |
JP2022519149A (en) * | 2019-12-31 | 2022-03-22 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | Exhibition area State recognition methods, devices, electronic devices, and recording media |
JP7410735B2 (en) | 2020-02-05 | 2024-01-10 | キヤノン株式会社 | Terminal device, function proposal method, program and server device |
JP7243004B2 (en) | 2020-02-24 | 2023-03-22 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | Data analysis method, device, program and storage medium by smart voice device |
JP2021136003A (en) * | 2020-02-24 | 2021-09-13 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Method for data analysis using smart voice device, device, program, and storage medium |
JP2021174342A (en) * | 2020-04-28 | 2021-11-01 | 株式会社ファーストリテイリング | Information processing device, information processing method, program, and guide system |
CN113570424A (en) * | 2020-04-28 | 2021-10-29 | 株式会社迅销 | Information processing apparatus, information processing method, storage medium, and guidance system |
JP7443147B2 (en) | 2020-04-28 | 2024-03-05 | 株式会社ファーストリテイリング | Mobile terminal and information processing method |
JP2022121319A (en) * | 2021-02-08 | 2022-08-19 | ソフトバンク株式会社 | Information processing device, program, and information processing method |
JP7187593B2 (en) | 2021-02-08 | 2022-12-12 | ソフトバンク株式会社 | Information processing device, program, and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017211932A (en) | Information processing device, information processing system, program and information processing method | |
US11763580B2 (en) | Information processing apparatus, information processing method, and program | |
KR102296764B1 (en) | Server related with online platform for selling and recommending products | |
US10747991B2 (en) | People stream analysis method, people stream analysis apparatus, and people stream analysis system | |
CN108293171B (en) | Information processing apparatus, information processing method, and storage medium | |
CN103760968B (en) | Method and device for selecting display contents of digital signage | |
CN108885639A (en) | Properties collection navigation and automatic forwarding | |
CN107251006A (en) | The picture library of message with shared interest | |
JP2018084890A (en) | Information processing unit, information processing method, and program | |
JP6069565B1 (en) | RECOMMENDATION DEVICE, RECOMMENDATION METHOD, AND PROGRAM | |
JP6120467B1 (en) | Server device, terminal device, information processing method, and program | |
JPWO2018142756A1 (en) | Information processing apparatus and information processing method | |
CN108700979A (en) | Product introduction graphic user interface | |
KR20120046653A (en) | System and method for recommending hair based on face and style recognition | |
KR20210075188A (en) | Exhibit object control method, apparatus, electronic device and recording medium | |
JPWO2018135246A1 (en) | Information processing system and information processing apparatus | |
JP2017120617A (en) | Information processing system, information processing device, information processing method, and information processing program | |
JP4427714B2 (en) | Image recognition apparatus, image recognition processing method, and image recognition program | |
KR101661669B1 (en) | Dialogue system and dialogue method | |
JP2020042433A (en) | Information providing system, user portable device, information providing device, computer program, and information providing method | |
CN113724454A (en) | Interaction method of mobile equipment, device and storage medium | |
JP2021039784A (en) | Purchase product estimation device | |
CN112967214A (en) | Image display method, device, equipment and storage medium | |
CN111626521A (en) | Tour route generation method and device | |
Miralles et al. | Assisting visually impaired people using autonomous navigation system and computer vision for grocery shopping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190327 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200310 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200923 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201113 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210413 |