JPWO2019146405A1 - Information processing equipment, information processing systems, and programs for evaluating the reaction of monitors to products using facial expression analysis technology. - Google Patents

Information processing equipment, information processing systems, and programs for evaluating the reaction of monitors to products using facial expression analysis technology. Download PDF

Info

Publication number
JPWO2019146405A1
JPWO2019146405A1 JP2019567964A JP2019567964A JPWO2019146405A1 JP WO2019146405 A1 JPWO2019146405 A1 JP WO2019146405A1 JP 2019567964 A JP2019567964 A JP 2019567964A JP 2019567964 A JP2019567964 A JP 2019567964A JP WO2019146405 A1 JPWO2019146405 A1 JP WO2019146405A1
Authority
JP
Japan
Prior art keywords
user
product
information
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019567964A
Other languages
Japanese (ja)
Other versions
JP7278972B2 (en
Inventor
寛子 川添
寛子 川添
平尾 直靖
直靖 平尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Publication of JPWO2019146405A1 publication Critical patent/JPWO2019146405A1/en
Application granted granted Critical
Publication of JP7278972B2 publication Critical patent/JP7278972B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Abstract

情報処理装置は、ユーザの表情に関する表情情報を取得する手段を備え、商品に関する商品情報を特定する手段を備え、商品情報が特定された場合、表情情報に基づいて表情の変化を解析する手段を備え、解析の結果に基づいて、商品に対するユーザの反応に関する指標である反応スコアを計算する手段を備える。The information processing device includes means for acquiring facial expression information related to the user's facial expression, includes means for specifying product information related to the product, and when the product information is specified, provides means for analyzing changes in facial expressions based on the facial expression information. A means for calculating a reaction score, which is an index of a user's reaction to a product, is provided based on the result of analysis.

Description

本発明は、情報処理装置、情報処理システム、及び、プログラムに関する。 The present invention relates to an information processing device, an information processing system, and a program.

一般に、商品に関する市場調査では、消費者に対するアンケートを用いて商品に対する評価を集計している。多数の消費者からの回答を得ることにより、商品に対する評価の精度の向上が期待できる。 In general, market research on products uses a questionnaire to consumers to aggregate the evaluation of products. By obtaining responses from a large number of consumers, it can be expected that the accuracy of product evaluation will improve.

特開2003−308415号公報は、ユーザ端末及びサーバを備えるシステムを用いて、多くのアンケート結果を容易に取得する技術を開示している。 Japanese Unexamined Patent Publication No. 2003-308415 discloses a technique for easily acquiring many questionnaire results by using a system including a user terminal and a server.

一般に、商品に対する評価は、客観性を有することが好ましい。
しかし、特開2003−308415号公報のアンケート結果には、消費者の主観が反映される。そのため、アンケート結果から得られる評価は、商品に対する客観性を有していない。
In general, it is preferable that the evaluation of a product has objectivity.
However, the questionnaire results of JP-A-2003-308415 reflect the subjectivity of consumers. Therefore, the evaluation obtained from the questionnaire results does not have objectivity for the product.

本発明の目的は、商品に対する客観的な評価の指標を得ることである。 An object of the present invention is to obtain an index for objective evaluation of a product.

本発明の一態様は、
ユーザの表情に関する表情情報を取得する手段を備え、
商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記表情情報に基づいて前記表情の変化を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する前記ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理装置である。
One aspect of the present invention is
Equipped with a means to acquire facial expression information related to the user's facial expression
With means to identify product information about the product
When the product information is specified, a means for analyzing the change in the facial expression based on the facial expression information is provided.
A means for calculating a reaction score, which is an index of the user's reaction to the product, based on the result of the analysis.
It is an information processing device.

本発明によれば、商品に対するユーザの客観的な評価の指標を得ることができる。 According to the present invention, it is possible to obtain an index of an objective evaluation of a product by a user.

第1実施形態の情報処理システムの概略図である。It is the schematic of the information processing system of 1st Embodiment. 第1実施形態の情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system of 1st Embodiment. 第1実施形態の概要の説明図である。It is explanatory drawing of the outline of 1st Embodiment. 第1実施形態のユーザ情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the user information database of 1st Embodiment. 第1実施形態の商品情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the product information database of 1st Embodiment. 第1実施形態の情報処理のシーケンス図である。It is a sequence diagram of information processing of 1st Embodiment. 図6の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 図6の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 第2実施形態の概要の説明図である。It is explanatory drawing of the outline of 2nd Embodiment. 第2実施形態の情報処理のシーケンス図である。It is a sequence diagram of information processing of the second embodiment. 図10の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 図10の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 第2実施形態の変形例1の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of the modification 1 of the 2nd Embodiment. 第3実施形態の概要の説明図である。It is explanatory drawing of the outline of 3rd Embodiment. 第3実施形態の情報処理のシーケンス図である。It is a sequence diagram of information processing of the third embodiment. 図15の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG.

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, one embodiment of the present invention will be described in detail with reference to the drawings. In addition, in the drawing for demonstrating the embodiment, the same components are in principle the same reference numerals, and the repeated description thereof will be omitted.

(1)第1実施形態
第1実施形態について説明する。
(1) First Embodiment The first embodiment will be described.

(1−1)情報処理システムの構成
第1実施形態の情報処理システムの構成について説明する。図1は、第1実施形態の情報処理システムの概略図である。図2は、第1実施形態の情報処理システムの構成を示すブロック図である。
(1-1) Configuration of Information Processing System The configuration of the information processing system of the first embodiment will be described. FIG. 1 is a schematic view of the information processing system of the first embodiment. FIG. 2 is a block diagram showing a configuration of the information processing system of the first embodiment.

図1及び図2に示すように、情報処理システム1は、クライアント装置10と、サーバ30とを備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
As shown in FIGS. 1 and 2, the information processing system 1 includes a client device 10 and a server 30.
The client device 10 and the server 30 are connected via a network (for example, the Internet or an intranet) NW.

クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。 The client device 10 is an example of an information processing device that transmits a request to the server 30. The client device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.

サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。 The server 30 is an example of an information processing device that provides the client device 10 with a response in response to a request transmitted from the client device 10. The server 30 is, for example, a web server.

(1−1−1)クライアント装置の構成
クライアント装置10の構成について説明する。
(1-1-1) Configuration of Client Device The configuration of the client device 10 will be described.

図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、ディスプレイ15と、カメラ16と、音声入出力装置17と、を備える。 As shown in FIG. 2, the client device 10 includes a storage device 11, a processor 12, an input / output interface 13, a communication interface 14, a display 15, a camera 16, and an audio input / output device 17.

記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
The program includes, for example, the following program.
・ OS (Operating System) program ・ Application (for example, web browser) program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
-Database referenced in information processing-Data obtained by executing information processing (that is, the execution result of information processing)

プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。 The processor 12 is configured to realize the function of the client device 10 by activating the program stored in the storage device 11. The processor 12 is an example of a computer.

入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
The input / output interface 13 is configured to acquire a user's instruction from an input device connected to the client device 10 and output information to an output device connected to the client device 10.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.

通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。 The communication interface 14 is configured to control communication between the client device 10 and the server 30.

ディスプレイ15は、画像を表示するように構成される。ディスプレイ15は、例えば、以下の何れかである。
・液晶ディスプレイ
・有機EL(Electro Luminescence)ディスプレイ
The display 15 is configured to display an image. The display 15 is, for example, any of the following.
・ Liquid crystal display ・ Organic EL (Electro Luminescence) display

カメラ16は、画像を撮像し、且つ、撮像した画像の画像データを生成するように構成される。カメラ16は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを有する。 The camera 16 is configured to capture an image and generate image data of the captured image. The camera 16 has, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

音声入出力装置17は、音声の入出力を行うように構成される。音声入出力装置17は、音声を入力するマイク、及び、音声を出力するスピーカの組合せである。 The audio input / output device 17 is configured to input / output audio. The voice input / output device 17 is a combination of a microphone for inputting voice and a speaker for outputting voice.

(1−1−2)サーバの構成
サーバ30の構成について説明する。
(1-1-2) Server Configuration The configuration of the server 30 will be described.

図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。 As shown in FIG. 2, the server 30 includes a storage device 31, a processor 32, an input / output interface 33, and a communication interface 34.

記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 31 is configured to store programs and data. The storage device 31 is, for example, a combination of a ROM, a RAM, and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
The program includes, for example, the following program.
・ OS program ・ Application program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・ Database referred to in information processing ・ Execution result of information processing

プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。 The processor 32 is configured to realize the function of the server 30 by activating the program stored in the storage device 31. The processor 32 is an example of a computer.

入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input / output interface 33 is configured to acquire a user's instruction from an input device connected to the server 30 and output information to an output device connected to the server 30.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.

通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。 The communication interface 34 is configured to control communication between the server 30 and the client device 10.

(1−2)第1実施形態の概要
第1実施形態の概要について説明する。図3は、第1実施形態の概要の説明図である。
(1-2) Outline of First Embodiment The outline of the first embodiment will be described. FIG. 3 is an explanatory diagram of an outline of the first embodiment.

図3に示すように、クライアント装置10は、ユーザの表情に関する表情情報(例えば、動画像又は表情筋筋電図)を取得する。 As shown in FIG. 3, the client device 10 acquires facial expression information (for example, a moving image or a facial expression EMG) related to the user's facial expression.

クライアント装置10は、評価の対象となる商品に関する商品情報を特定する。
クライアント装置10は、商品情報の特定に成功した場合、表情情報を解析することにより、ユーザの表情の変化に関する指標である表情変化指標を計算する。
クライアント装置10は、解析によって得られた表情変化指標に基づいて、商品に対するユーザの反応に関する指標である反応スコアを計算する。
The client device 10 specifies product information about the product to be evaluated.
When the client device 10 succeeds in specifying the product information, the client device 10 calculates the facial expression change index, which is an index related to the change in the user's facial expression, by analyzing the facial expression information.
The client device 10 calculates a reaction score, which is an index related to the user's reaction to the product, based on the facial expression change index obtained by the analysis.

このように、クライアント装置10は、商品情報を特定することができた場合、ユーザの表情の変化に基づいて、商品に対するユーザの反応スコアを計算する。
これにより、商品に対する客観的な評価の指標を得ることができる。
In this way, when the product information can be specified, the client device 10 calculates the user's reaction score to the product based on the change in the user's facial expression.
As a result, it is possible to obtain an index for objective evaluation of the product.

(1−3)データベース
第1実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(1-3) Database The database of the first embodiment will be described. The following database is stored in the storage device 31.

(1−3−1)ユーザ情報データベース
第1実施形態のユーザ情報データベースについて説明する。図4は、第1実施形態のユーザ情報データベースのデータ構造を示す図である。
(1-3-1) User Information Database The user information database of the first embodiment will be described. FIG. 4 is a diagram showing a data structure of the user information database of the first embodiment.

図4のユーザ情報データベースには、ユーザに関するユーザ情報が格納される。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、を含む。各フィールドは、互いに関連付けられている。
The user information database of FIG. 4 stores user information about the user.
The user information database includes a "user ID" field, a "user name" field, and a "user attribute" field. Each field is associated with each other.

「ユーザID」フィールドには、ユーザを識別するユーザIDが格納される。 A user ID that identifies a user is stored in the "User ID" field.

「ユーザ名」フィールドには、ユーザの名称に関する情報(例えば、テキスト)が格納される。 Information about the user's name (eg, text) is stored in the Username field.

「ユーザ属性」フィールドには、ユーザの属性に関するユーザ属性情報が格納される。
「ユーザ属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、を含む。
The "user attribute" field stores user attribute information related to the user's attribute.
The "User Attributes" field includes a "Gender" field and an "Age" field.

「性別」フィールドには、ユーザの性別に関する情報が格納される。 The Gender field stores information about the user's gender.

「年齢」フィールドには、ユーザの年齢に関する情報が格納される。 The Age field stores information about the user's age.

(1−3−2)商品情報データベース
第1実施形態の商品情報データベースについて説明する。図5は、第1実施形態の商品情報データベースのデータ構造を示す図である。
(1-3-2) Product Information Database The product information database of the first embodiment will be described. FIG. 5 is a diagram showing a data structure of the product information database of the first embodiment.

図5の商品情報データベースには、商品に関する商品情報が格納される。
商品情報データベースは、「商品ID」フィールドと、「商品名」フィールドと、「商品画像」フィールドと、「特徴パターン」フィールドと、「商品属性」フィールドと、「反応スコア」フィールドと、を含む。各フィールドは、互いに関連付けられている。
The product information database of FIG. 5 stores product information related to the product.
The product information database includes a "product ID" field, a "product name" field, a "product image" field, a "feature pattern" field, a "product attribute" field, and a "reaction score" field. Each field is associated with each other.

「商品ID」フィールドには、商品を識別する商品IDが格納される。 A product ID that identifies a product is stored in the "product ID" field.

「商品名」フィールドには、商品の名称に関する情報(例えば、テキスト)が格納される。 The "Product Name" field stores information about the product name (eg, text).

「商品画像」フィールドには、商品(例えば、商品本体、商品のパッケージ、及び、商品の使用状態の少なくとも1つ)の画像情報が格納される。 The "product image" field stores image information of the product (for example, at least one of the product body, the product package, and the usage state of the product).

「特徴パターン」フィールドには、商品の画像上の特徴のパターンに関する情報が格納される。 The "feature pattern" field stores information about the feature pattern on the image of the product.

「商品属性」フィールドには、商品の属性に関する商品属性情報が格納される。
「商品属性」フィールドは、「種類」フィールドと、「メーカ」フィールドと、を含む。
Product attribute information related to the product attribute is stored in the "product attribute" field.
The "Product Attributes" field includes a "Type" field and a "Manufacturer" field.

「種類」フィールドには、商品の種類(例えば、口紅、又は、化粧水)に関する情報が格納される。 The "type" field stores information about the type of product (eg, lipstick or lotion).

「メーカ」フィールドには、商品の製造者に関する情報(例えば、製造者名を示すテキスト)が格納される。 The "Manufacturer" field stores information about the manufacturer of the product (eg, text indicating the manufacturer's name).

「反応スコア」フィールドには、商品に対するユーザの反応のレベルを示す数値(以下「反応スコア」という)が格納される。
「反応スコア」フィールドは、「全体平均」フィールドと、「属性平均」フィールドと、を含む。
In the "reaction score" field, a numerical value (hereinafter referred to as "reaction score") indicating the level of the user's reaction to the product is stored.
The Response Score field includes an Overall Average field and an Attribute Average field.

「全体平均」フィールドには、全ユーザの反応スコアの平均値が格納される。 The "overall average" field stores the average value of the reaction scores of all users.

「属性平均」フィールドには、ユーザ属性毎の反応スコアの平均値が格納される。
「属性平均」フィールドは、「性別」フィールドと、「年齢」フィールドと、を含む。
In the "attribute average" field, the average value of the reaction score for each user attribute is stored.
The Attribute Mean field includes a Gender field and an Age field.

「性別」フィールドには、性別毎の反応スコアの平均値が格納される。 The "Gender" field stores the average response score for each gender.

「年齢」フィールドには、年齢毎の反応スコアの平均値が格納される。 The "age" field stores the average response score for each age.

(1−4)情報処理
第1実施形態の情報処理について説明する。図6は、第1実施形態の情報処理のシーケンス図である。図7〜図8は、図6の情報処理において表示される画面例を示す図である。
(1-4) Information Processing The information processing of the first embodiment will be described. FIG. 6 is a sequence diagram of information processing of the first embodiment. 7 to 8 are diagrams showing an example of a screen displayed in the information processing of FIG.

図6に示すように、クライアント装置10は、ログインリクエスト(S100)を実行する。
具体的には、プロセッサ12は、画面P100(図7)をディスプレイ15に表示する。
As shown in FIG. 6, the client device 10 executes a login request (S100).
Specifically, the processor 12 displays the screen P100 (FIG. 7) on the display 15.

画面P100は、ボタンオブジェクトB100と、フィールドオブジェクトF100と、を含む。
フィールドオブジェクトF100は、ユーザIDの入力を受け付けるオブジェクトである。
ボタンオブジェクトB100は、ログインのためのユーザ指示を受け付けるオブジェクトである。
The screen P100 includes a button object B100 and a field object F100.
The field object F100 is an object that accepts input of a user ID.
The button object B100 is an object that receives a user instruction for login.

ユーザが、フィールドオブジェクトF100にユーザIDを入力し、且つ、ボタンオブジェクトB100を操作すると、プロセッサ12は、ログインリクエストデータをサーバ30に送信する。
ログインリクエストデータは、フィールドオブジェクトF100に入力されたユーザIDを含む。
When the user inputs the user ID into the field object F100 and operates the button object B100, the processor 12 transmits the login request data to the server 30.
The login request data includes the user ID entered in the field object F100.

ステップS100の後、サーバ30は、ログイン認証(S300)を実行する。
具体的には、プロセッサ32は、ログインリクエストデータに含まれるユーザIDがユーザ情報データベース(図4)に含まれる場合、ログインを認証するためのログインレスポンスデータをクライアント装置10に送信する。
After step S100, the server 30 executes login authentication (S300).
Specifically, when the user ID included in the login request data is included in the user information database (FIG. 4), the processor 32 transmits the login response data for authenticating the login to the client device 10.

ステップS300の後、クライアント装置10は、表情情報の取得(S101)を実行する。 After step S300, the client device 10 executes the acquisition of facial expression information (S101).

ステップS101の第1例として、プロセッサ12は、ログインレスポンスデータを受信すると、画面P101(図7)をディスプレイ15に表示する。 As a first example of step S101, when the processor 12 receives the login response data, the processor 12 displays the screen P101 (FIG. 7) on the display 15.

画面P101は、表示オブジェクトA101と、ボタンオブジェクトB101と、を含む。
表示オブジェクトA101には、カメラ16が撮像した画像が表示される。カメラ16が撮像した画像は、ユーザの顔の画像IMG101aと、商品の画像IMG101bと、を含む。
ボタンオブジェクトB101は、ビデオデータの取得のためのユーザ指示を受け付けるオブジェクトである。
The screen P101 includes a display object A101 and a button object B101.
The image captured by the camera 16 is displayed on the display object A101. The image captured by the camera 16 includes an image IMG101a of the user's face and an image IMG101b of the product.
The button object B101 is an object that receives a user instruction for acquiring video data.

ユーザがボタンオブジェクトB101を操作すると、プロセッサ12は、ビデオデータ(「表情情報」の一例)を生成し、且つ、当該ビデオデータを記憶装置11に記憶する。ビデオデータは、カメラ16によって撮像された動画像と、音声入出力装置17によって入力された音声と、を含む。 When the user operates the button object B101, the processor 12 generates video data (an example of "facial expression information") and stores the video data in the storage device 11. The video data includes a moving image captured by the camera 16 and audio input by the audio input / output device 17.

ステップS101の第2例として、クライアント装置10は、計測装置に接続されている。計測装置は、例えば、ユーザの顔に装着される電極から表情筋の動きに関する表情筋信号を取得するように構成される。プロセッサ12は、計測装置から表情筋信号を取得する。 As a second example of step S101, the client device 10 is connected to the measuring device. The measuring device is configured to, for example, acquire a facial muscle signal relating to the movement of the facial muscle from an electrode attached to the user's face. The processor 12 acquires the facial muscle signal from the measuring device.

ステップS101の後、クライアント装置10は、商品の特定(S102)を実行する。 After step S101, the client device 10 executes the product identification (S102).

ステップS102の第1例として、プロセッサ12は、ユーザ指示(例えば、ディスプレイ15に表示された画面に含まれるフィールドオブジェクトに対する商品情報)に基づいて、商品の商品IDを特定する。 As a first example of step S102, the processor 12 identifies a product ID of a product based on a user instruction (for example, product information for a field object included in a screen displayed on the display 15).

ステップS102の第2例として、プロセッサ12は、ステップS101で取得したビデオデータに含まれる商品の画像IMG101bに対して特徴量解析を適用することにより、画像IMG101bの特徴量を抽出する。
プロセッサ12は、抽出した特徴量と、商品情報データベース(図5)の「特徴パターン」フィールドの情報と、を比較することにより、画像IMG101bが表す商品の商品IDを特定する。
As a second example of step S102, the processor 12 extracts the feature amount of the image IMG101b by applying the feature amount analysis to the image IMG101b of the product included in the video data acquired in step S101.
The processor 12 identifies the product ID of the product represented by the image IMG101b by comparing the extracted feature amount with the information in the "feature pattern" field of the product information database (FIG. 5).

ステップS102の第3例として、ユーザが商品情報(例えば、商品名)の音声を発すると、音声入出力装置17は、ユーザが発した音声を入力する。
プロセッサ12は、音声入出力装置17によって入力された音声を解析することにより、商品名を特定する。
プロセッサ12は、商品情報データベース(図5)を参照して、特定した商品名に関連付けられた商品IDを特定する。
As a third example of step S102, when the user emits a voice of product information (for example, a product name), the voice input / output device 17 inputs the voice emitted by the user.
The processor 12 identifies the product name by analyzing the voice input by the voice input / output device 17.
The processor 12 refers to the product information database (FIG. 5) and identifies the product ID associated with the specified product name.

ステップS102の後、クライアント装置10は、ステップS101で得られた表情情報に対して、表情解析(S103)を実行する。 After step S102, the client device 10 executes facial expression analysis (S103) on the facial expression information obtained in step S101.

ステップS103の第1例として、プロセッサ12は、ステップS101で取得したビデオデータに含まれる顔の画像IMG101aに対して、顔面動作符号化システム(以下「FACS」(Facial Action Coding System)という)理論に基づく画像解析を実行することにより、顔の部位毎に、動きの変化のレベルに関するアクションユニット情報を生成する。このアクションユニット情報は、商品に対するユーザの表情の変化を示す表情変化指標の一例である。 As a first example of step S103, the processor 12 applies the facial action coding system (hereinafter referred to as “FACS” (Facial Action Coding System)) theory to the facial image IMG101a included in the video data acquired in step S101. By performing the based image analysis, action unit information regarding the level of change in movement is generated for each part of the face. This action unit information is an example of a facial expression change index indicating a change in the user's facial expression with respect to the product.

ステップS103の第2例として、プロセッサ12は、ステップS101で取得した表情筋信号から、表情筋筋電図(「表情変化指標」の一例)を生成する。 As a second example of step S103, the processor 12 generates a facial expression EMG (an example of a "facial expression change index") from the facial expression muscle signal acquired in step S101.

ステップS103の後、クライアント装置10は、ステップS103で得られた表情変化指標に基づいて、感情の推定(S104)を実行する。 After step S103, the client device 10 executes emotion estimation (S104) based on the facial expression change index obtained in step S103.

ステップS104の第1例としては、プロセッサ12は、各部位のアクションユニット情報を、感情を推定するための感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
感情情報は、例えば、以下の情報を含む。
・感情の種類(一例として、喜び、悲しみ、怒り、驚き、恐怖、又は、苛立ち)に関する情報
・感情の強度に関する情報
As a first example of step S104, the processor 12 applies the action unit information of each part to the emotion estimation formula for estimating emotions, so that the user's emotions are related to each image frame constituting the video data. Estimate emotional information.
The emotional information includes, for example, the following information.
・ Information on the type of emotion (for example, joy, sadness, anger, surprise, fear, or irritation) ・ Information on the intensity of emotion

ステップS104の第2例としては、記憶装置11には、表情筋筋電図とユーザの感情との関係を示す基準情報が記憶されている。プロセッサ12は、表情筋筋電図と、記憶装置11に記憶された基準情報と、を対比することにより、ユーザの感情に関する感情情報を推定する。 As a second example of step S104, the storage device 11 stores reference information indicating the relationship between the facial EMG and the user's emotion. The processor 12 estimates emotional information about the user's emotions by comparing the facial EMG with the reference information stored in the storage device 11.

ステップS104の第3例としては、プロセッサ12は、アクションユニット情報から推定した感情情報と、表情筋筋電図から推定した感情情報と、に所定のアルゴリズムを適用することにより、アクションユニット情報及び表情筋筋電図の両方に基づく感情情報を推定する。 As a third example of step S104, the processor 12 applies the action unit information and the facial expression to the emotion information estimated from the action unit information and the emotion information estimated from the facial EMG. Estimate emotional information based on both EMGs.

ステップS104の後、クライアント装置10は、ステップS104で得られた表情変化指標に基づいて、反応スコアの計算(S105)を実行する。
具体的には、プロセッサ12は、商品情報データベース(図5)を参照して、ステップS102で特定した商品IDに関連付けられた商品名に関する情報を特定する。
プロセッサ12は、ステップS104で推定した感情情報(つまり、ユーザの表情の変化から得られる感情情報)を、反応スコアの計算式に適用することにより、反応スコアを計算する。
プロセッサ12は、ステップS104で推定した感情情報、及び、ステップS105で計算した反応スコアに基づく画面P102(図8)をディスプレイ15に表示する。
After step S104, the client device 10 executes the calculation of the reaction score (S105) based on the facial expression change index obtained in step S104.
Specifically, the processor 12 refers to the product information database (FIG. 5) to specify information regarding the product name associated with the product ID specified in step S102.
The processor 12 calculates the reaction score by applying the emotion information estimated in step S104 (that is, the emotion information obtained from the change in the user's facial expression) to the reaction score calculation formula.
The processor 12 displays the emotion information estimated in step S104 and the screen P102 (FIG. 8) based on the reaction score calculated in step S105 on the display 15.

画面P102は、表示オブジェクトA101、A102a、及びA102bと、ボタンオブジェクトB102と、を含む。
表示オブジェクトA101は、画面P101(図7)と同様である。
表示オブジェクトA102aには、グラフ画像IMG102が表示される。グラフ画像IMG102は、感情の種類(例えば、喜び(HAPPY)及び悲しみ(SAD))毎に、ビデオデータを構成する画像フレーム(F)毎の感情情報(EMOTION LEVEL)の推移(つまり、商品に対するユーザの感情の時系列変化)を示している。
表示オブジェクトA102bには、ステップS102で特定した商品情報と、ステップS105で計算した反応スコアと、が表示される。
ボタンオブジェクトB102は、更新リクエスト(S106)を実行させるためのユーザ指示を受け付けるオブジェクトである。
The screen P102 includes display objects A101, A102a, and A102b, and a button object B102.
The display object A101 is the same as the screen P101 (FIG. 7).
The graph image IMG102 is displayed on the display object A102a. The graph image IMG102 is a transition (that is, a user for a product) of emotion information (EMOTION LEVEL) for each image frame (F) constituting video data for each type of emotion (for example, joy (HAPPY) and sadness (SAD)). (Time-series changes in emotions) are shown.
The product information specified in step S102 and the reaction score calculated in step S105 are displayed on the display object A102b.
The button object B102 is an object that receives a user instruction for executing the update request (S106).

ステップS105の後、クライアント装置10は、更新リクエスト(S106)を実行する。
具体的には、ユーザがボタンオブジェクトB102を操作すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。
更新リクエストデータは、以下の情報を含む。
・ステップS102で特定された商品ID
・ステップS105で計算された反応スコア
After step S105, the client device 10 executes the update request (S106).
Specifically, when the user operates the button object B102, the processor 12 transmits update request data to the server 30.
The update request data includes the following information.
-Product ID specified in step S102
-Reaction score calculated in step S105

ステップS106の後、サーバ30は、データベースの更新(S301)を実行する。
具体的には、プロセッサ32は、ユーザ情報データベース(図4)を参照して、ログインリクエストデータに含まれるユーザIDに関連付けられたユーザ属性情報を特定する。
プロセッサ32は、商品情報データベース(図5)を参照して、更新リクエストデータに含まれる商品IDに関連付けられたレコード(以下「更新対象レコード」という)を特定する。
プロセッサ32は、更新対象レコードの「反応スコア」フィールドの値を以下のとおり更新する。
・「全体平均」フィールドでは、更新リクエストデータに含まれる反応スコアに基づいて、平均値が更新される。
・「属性平均」フィールドでは、更新リクエストデータに含まれる反応スコアと、特定したユーザ属性情報と、に基づいて平均値が更新される。
After step S106, the server 30 executes the database update (S301).
Specifically, the processor 32 refers to the user information database (FIG. 4) and identifies the user attribute information associated with the user ID included in the login request data.
The processor 32 refers to the product information database (FIG. 5) and identifies a record (hereinafter referred to as “update target record”) associated with the product ID included in the update request data.
The processor 32 updates the value in the "reaction score" field of the update target record as follows.
-In the "Overall average" field, the average value is updated based on the reaction score included in the update request data.
-In the "attribute average" field, the average value is updated based on the reaction score included in the update request data and the specified user attribute information.

本実施形態によれば、ユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標を得ることができる。 According to the present embodiment, the reaction score is calculated based on the change in the facial expression of the user. As a result, it is possible to obtain an index of the user's objective evaluation of the product.

(2)第2実施形態
第2実施形態について説明する。第2実施形態は、会話中のユーザの表情の変化に基づいて、商品に対するユーザの反応スコアを取得する例である。
(2) Second Embodiment The second embodiment will be described. The second embodiment is an example of acquiring the user's reaction score to the product based on the change in the user's facial expression during the conversation.

(2−1)第2実施形態の概要
第2実施形態の概要について説明する。図9は、第2実施形態の概要の説明図である。
(2-1) Outline of the Second Embodiment The outline of the second embodiment will be described. FIG. 9 is an explanatory diagram of an outline of the second embodiment.

図9に示すように、クライアント装置10−1は、ユーザAの顔を含む動画像をサーバ30に送信する。クライアント装置10−2は、ユーザBの顔を含む動画像をサーバ30に送信する。これにより、クライアント装置10−1のユーザA、及び、クライアント装置10−2のユーザBは、サーバ30を介して、ビデオ通話を行う。 As shown in FIG. 9, the client device 10-1 transmits a moving image including the face of the user A to the server 30. The client device 10-2 transmits a moving image including the face of the user B to the server 30. As a result, the user A of the client device 10-1 and the user B of the client device 10-2 make a video call via the server 30.

商品を所有するユーザAが、クライアント装置10−1を用いて、自身の顔を含む動画像を撮影すると、サーバ30は、評価の対象となる商品に関する商品情報を特定する。
サーバ30は、商品情報の特定に成功した場合、動画像に含まれるユーザAの顔の画像を解析する。
サーバ30は、解析の結果に基づいて、商品に対するユーザAの反応に関する指標である反応スコアを計算する。
When the user A who owns the product takes a moving image including his / her face using the client device 10-1, the server 30 identifies the product information regarding the product to be evaluated.
When the server 30 succeeds in specifying the product information, the server 30 analyzes the image of the face of the user A included in the moving image.
Based on the result of the analysis, the server 30 calculates the reaction score, which is an index regarding the reaction of the user A to the product.

このように、サーバ30は、商品を所有するユーザAと、ユーザBとの会話中に、ユーザAの顔の画像の解析の結果に基づいて、当該商品に対するユーザAの反応スコアを計算する。 In this way, the server 30 calculates the reaction score of the user A to the product based on the result of the analysis of the face image of the user A during the conversation between the user A who owns the product and the user B.

これにより、商品についてユーザBと会話しているユーザAの商品に対する客観的な評価の指標を得ることができる。 As a result, it is possible to obtain an index of objective evaluation of the product of the user A who is talking with the user B about the product.

(2−2)情報処理
第2実施形態の情報処理について説明する。図10は、第2実施形態の情報処理のシーケンス図である。図11〜図12は、図10の情報処理において表示される画面例を示す図である。
(2-2) Information Processing The information processing of the second embodiment will be described. FIG. 10 is a sequence diagram of information processing of the second embodiment. 11 to 12 are diagrams showing an example of a screen displayed in the information processing of FIG. 10.

図10に示すように、クライアント装置10−1及び10−2は、第1実施形態(図6)と同様に、ログインリクエスト(S100)を実行する。
ステップS100の後、サーバ30は、第1実施形態と同様に、ログイン認証(S300)を実行する。
As shown in FIG. 10, the client devices 10-1 and 10-2 execute the login request (S100) as in the first embodiment (FIG. 6).
After step S100, the server 30 executes login authentication (S300) as in the first embodiment.

ステップS300の後、クライアント装置10−1及び10−2は、サーバ30を介して、ビデオ通話シーケンス(S310)を開始する。
具体的には、クライアント装置10−1のプロセッサ12は、ユーザAの顔を含む動画像をサーバ30に送信する。プロセッサ32は、この動画像をクライアント装置10−2に送信する。
クライアント装置10−2のプロセッサ12は、ユーザBの顔を含む動画像をサーバ30に送信する。プロセッサ32は、この動画像をクライアント装置10−1に送信する。
After step S300, client devices 10-1 and 10-2 initiate a video call sequence (S310) via the server 30.
Specifically, the processor 12 of the client device 10-1 transmits a moving image including the face of the user A to the server 30. The processor 32 transmits this moving image to the client device 10-2.
The processor 12 of the client device 10-2 transmits a moving image including the face of the user B to the server 30. The processor 32 transmits this moving image to the client device 10-1.

クライアント装置10−1のプロセッサ12は、ディスプレイ15に画面P110−1(図11A)を表示する。
画面P110−1は、表示オブジェクトA110−1a〜A110−1bを含む。
表示オブジェクトA110−1aには、クライアント装置10−1のカメラ16が撮像した画像が表示される。このカメラ16が撮像した画像は、ユーザAの顔の画像IMG110−1aと、商品の画像IMG110−1bと、を含む。
表示オブジェクトA110−1bには、クライアント装置10−2から送信された動画像が表示される。この動画像は、クライアント装置10−2のユーザBの顔の画像IMG110−1cを含む。
The processor 12 of the client device 10-1 displays the screen P110-1 (FIG. 11A) on the display 15.
The screen P110-1 includes display objects A110-1a to A110-1b.
The image captured by the camera 16 of the client device 10-1 is displayed on the display object A110-1a. The image captured by the camera 16 includes an image IMG110-1a of the face of the user A and an image IMG110-1b of the product.
The moving image transmitted from the client device 10-2 is displayed on the display object A110-1b. This moving image includes an image IMG110-1c of the face of user B of the client device 10-2.

クライアント装置10−2のプロセッサ12は、ディスプレイ15に画面P110−2(図11B)を表示する。
画面P110−2は、表示オブジェクトA110−2a〜A110−2bを含む。
表示オブジェクトA110−2aには、クライアント装置10−2のカメラ16が撮像した画像が表示される。このカメラ16が撮像した画像は、ユーザBの顔の画像IMG110−2aを含む。
表示オブジェクトA110−2bには、クライアント装置10−1から送信された動画像が表示される。この動画像は、クライアント装置10−1のユーザAの顔の画像IMG110−2bと、商品の画像IMG110−2cと、を含む。
The processor 12 of the client device 10-2 displays the screen P110-2 (FIG. 11B) on the display 15.
The screen P110-2 includes display objects A110-2a to A110-2b.
The image captured by the camera 16 of the client device 10-2 is displayed on the display object A110-2a. The image captured by the camera 16 includes the image IMG110-2a of the face of the user B.
The moving image transmitted from the client device 10-1 is displayed on the display object A110-2b. This moving image includes an image IMG110-2b of the face of the user A of the client device 10-1 and an image IMG110-2c of the product.

ステップS310の後、サーバ30は、商品の特定(S311)を実行する。 After step S310, the server 30 executes the product identification (S311).

ステップS311の第1例として、プロセッサ12は、ユーザ指示(例えば、ディスプレイ15に表示された画面に含まれるフィールドオブジェクトに対する商品情報)をサーバ30に送信する。
プロセッサ32は、プロセッサ12によって送信されたユーザ指示に基づいて、商品の商品IDを特定する。
As a first example of step S311 the processor 12 transmits a user instruction (for example, product information for a field object included in the screen displayed on the display 15) to the server 30.
The processor 32 identifies the product ID of the product based on the user instruction transmitted by the processor 12.

ステップS311の第2例として、プロセッサ32は、ステップS310で取得したビデオデータに含まれる商品の画像IMG110−1bに対して、特徴量解析を適用することにより、画像IMG110−1bの特徴量を抽出する。
プロセッサ32は、抽出した特徴量と、商品情報データベース(図5)の「特徴パターン」フィールドの情報とを比較することにより、画像IMG110−1bが表す商品の商品IDを特定する。
As a second example of step S311, the processor 32 extracts the feature amount of the image IMG110-1b by applying the feature amount analysis to the image IMG110-1b of the product included in the video data acquired in step S310. To do.
The processor 32 identifies the product ID of the product represented by the image IMG110-1b by comparing the extracted feature amount with the information in the "feature pattern" field of the product information database (FIG. 5).

ステップS311の第3例として、ユーザが商品情報(例えば、商品名)の音声を発すると、音声入出力装置17は、ユーザが発した音声を入力する。
プロセッサ12は、音声入出力装置17によって入力された音声をサーバ30に送信する。
プロセッサ32は、プロセッサ12によって送信された音声を解析することにより、商品名を特定する。
プロセッサ32は、商品情報データベース(図5)を参照して、特定した商品名に関連付けられた商品IDを特定する。
As a third example of step S311, when the user emits a voice of product information (for example, a product name), the voice input / output device 17 inputs the voice emitted by the user.
The processor 12 transmits the voice input by the voice input / output device 17 to the server 30.
The processor 32 identifies the product name by analyzing the voice transmitted by the processor 12.
The processor 32 identifies the product ID associated with the specified product name with reference to the product information database (FIG. 5).

ステップS311の後、サーバ30は、顔画像解析(S312)を実行する。
具体的には、プロセッサ32は、ステップS310で取得したビデオデータに含まれる顔の画像IMG110−1aに対して、FACS理論に基づく画像解析を実行することにより、ユーザAの顔の部位毎に、動きの変化のレベルに関するアクションユニット情報を生成する。
After step S311 the server 30 executes face image analysis (S312).
Specifically, the processor 32 performs image analysis based on the FACS theory on the face image IMG110-1a included in the video data acquired in step S310, so that the user A can perform image analysis for each facial part. Generates action unit information about the level of change in motion.

ステップS312の後、サーバ30は、感情の推定(S313)を実行する。
具体的には、プロセッサ32は、ユーザAの各部位のアクションユニット情報を、感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザAの感情に関する感情情報を推定する。
After step S312, the server 30 performs emotion estimation (S313).
Specifically, the processor 32 estimates the emotion information related to the emotion of the user A for each image frame constituting the video data by applying the action unit information of each part of the user A to the emotion estimation formula.

ステップS313の後、サーバ30は、反応スコアの計算(S314)を実行する。
具体的には、プロセッサ32は、商品情報データベース(図5)を参照して、ステップS311で特定した商品IDに関連付けられた商品名に関する情報を特定する。
プロセッサ32は、ステップS313で推定したユーザAの感情情報(つまり、ビデオデータを構成する全ての画像フレームに対応する感情情報)を、反応スコアの計算式に適用することにより、ユーザAの反応スコアを計算する。
プロセッサ32は、計算した反応スコアに関する情報を、クライアント装置10−1及び10−2に送信する。
After step S313, the server 30 performs a reaction score calculation (S314).
Specifically, the processor 32 refers to the product information database (FIG. 5) to specify information about the product name associated with the product ID identified in step S311.
The processor 32 applies the emotion information of the user A estimated in step S313 (that is, the emotion information corresponding to all the image frames constituting the video data) to the calculation formula of the reaction score, so that the reaction score of the user A To calculate.
The processor 32 transmits the calculated response score information to the client devices 10-1 and 10-2.

ステップS314の後、クライアント装置10−1及び10−2は、反応スコアの提示(S110)を実行する。
具体的には、プロセッサ12は、ステップS314においてサーバ30から送信された反応スコアに基づく画面P112(図12)をディスプレイ15に表示する。
After step S314, client devices 10-1 and 10-2 perform response score presentation (S110).
Specifically, the processor 12 displays the screen P112 (FIG. 12) based on the reaction score transmitted from the server 30 in step S314 on the display 15.

画面P112は、画面P110−1(図11)と同様のオブジェクト(表示オブジェクトA110−1a及びA110−1b)に加えて、表示オブジェクトA112a〜112bと、ボタンオブジェクトB112と、を含む。
表示オブジェクトA112aには、グラフ画像IMG112aが表示される。グラフ画像IMG112aは、ユーザAの感情の種類(例えば、喜び(HAPPY)及び悲しみ(SAD))毎に、ビデオデータを構成する画像フレーム(F)毎の感情情報(EMOTION LEVEL)の推移(つまり、商品に対するユーザAの感情の時系列変化)を示している。
表示オブジェクトA112bには、ユーザAの反応スコアが表示される。
ボタンオブジェクトB112は、動画の撮影を終了するためのユーザ指示を受け付けるオブジェクトである。
The screen P112 includes display objects A112a to 112b and button objects B112 in addition to the same objects (display objects A110-1a and A110-1b) as the screen P110-1 (FIG. 11).
The graph image IMG112a is displayed on the display object A112a. The graph image IMG112a is a transition (that is, EMOTION LEVEL) of emotion information (EMOTION LEVEL) for each image frame (F) constituting video data for each type of emotion (for example, joy (HAPPY) and sadness (SAD)) of user A. The time-series change of user A's feelings toward the product) is shown.
The reaction score of the user A is displayed on the display object A112b.
The button object B112 is an object that receives a user instruction for ending the shooting of a moving image.

ステップS110の後、クライアント装置10−1は、更新リクエスト(S112)を実行する。
具体的には、ユーザAがボタンオブジェクトB112を操作すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。
After step S110, the client device 10-1 executes the update request (S112).
Specifically, when the user A operates the button object B112, the processor 12 transmits the update request data to the server 30.

ステップS112の後、サーバ30は、データベースの更新(S315)を実行する。
具体的には、プロセッサ32は、ユーザ情報データベース(図4)を参照して、ログインリクエストデータに含まれるユーザIDに関連付けられたユーザ属性情報を特定する。
プロセッサ32は、商品情報データベース(図5)を参照して、ステップS311で特定した商品IDに関連付けられたレコード(以下「更新対象レコード」という)を特定する。
プロセッサ32は、更新対象レコードの「反応スコア」フィールドの値を以下のとおり更新する。
・「全体平均」フィールドでは、ステップS314で計算した反応スコアに基づいて、平均値が更新される。
・「属性平均」フィールドでは、ステップS314で計算した反応スコアと、特定したユーザ属性情報と、に基づいて平均値が更新される。
After step S112, the server 30 executes the database update (S315).
Specifically, the processor 32 refers to the user information database (FIG. 4) and identifies the user attribute information associated with the user ID included in the login request data.
The processor 32 refers to the product information database (FIG. 5) and identifies a record (hereinafter referred to as “update target record”) associated with the product ID specified in step S311.
The processor 32 updates the value in the "reaction score" field of the update target record as follows.
-In the "overall average" field, the average value is updated based on the reaction score calculated in step S314.
-In the "attribute average" field, the average value is updated based on the reaction score calculated in step S314 and the specified user attribute information.

人の感情は、他人との会話中により強く現れる。第2実施形態によれば、ユーザBと商品について会話するユーザAの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザAの客観的な評価の指標の精度を向上させることができる。 A person's emotions are more pronounced during a conversation with another person. According to the second embodiment, the reaction score is calculated based on the change in the facial expression of the user A who talks with the user B about the product. As a result, the accuracy of the index of the objective evaluation of the user A for the product can be improved.

(2−3)第2実施形態の変形例
第2実施形態の変形例について説明する。
(2-3) Modified Example of Second Embodiment A modified example of the second embodiment will be described.

(2−3−1)第2実施形態の変形例1
第2実施形態の変形例1について説明する。第2実施形態の変形例1では、会話中のユーザの両方の反応スコアを計算する。図13は、第2実施形態の変形例1の情報処理において表示される画面例を示す図である。
(2-3-1) Modification 1 of the second embodiment
A modification 1 of the second embodiment will be described. In the first modification of the second embodiment, the reaction scores of both users in conversation are calculated. FIG. 13 is a diagram showing an example of a screen displayed in the information processing of the first modification of the second embodiment.

第2実施形態の変形例1のプロセッサ32は、ステップS312において、ユーザAの反応スコアと、ユーザBの反応スコアと、を計算する。 The processor 32 of the first modification of the second embodiment calculates the reaction score of the user A and the reaction score of the user B in step S312.

第2実施形態の変形例1のプロセッサ12は、ステップS110において、画面P114(図13)をディスプレイ15に表示する。 In step S110, the processor 12 of the first modification of the second embodiment displays the screen P114 (FIG. 13) on the display 15.

画面P114は、画面P112(図12)と同様のオブジェクトに加えて、表示オブジェクトA114a〜A114bを含む。
表示オブジェクトA114aには、グラフ画像IMG114aが表示される。グラフ画像IMG114aは、ユーザBの感情の種類(例えば、喜び(HAPPY)及び悲しみ(SAD))毎に、ビデオデータを構成する画像フレーム(F)毎の感情情報(EMOTION LEVEL)の推移(つまり、商品に対するユーザAの感情の時系列変化)を示している。
表示オブジェクトA114bには、ユーザBの反応スコアが表示される。
The screen P114 includes display objects A114a to A114b in addition to the same objects as the screen P112 (FIG. 12).
The graph image IMG114a is displayed on the display object A114a. The graph image IMG114a is a transition (that is, EMOTION LEVEL) of emotion information (EMOTION LEVEL) for each image frame (F) constituting video data for each type of emotion (for example, joy (HAPPY) and sadness (SAD)) of user B. The time-series change of user A's feelings toward the product) is shown.
The reaction score of the user B is displayed on the display object A114b.

(2−3−2)第2実施形態の変形例2
第2実施形態の変形例2について説明する。第2実施形態の変形例2では、会話中のユーザのうち、商品を所有するユーザの表情を優先して、反応スコアを計算する。
(2-3-2) Modification 2 of the second embodiment
A modification 2 of the second embodiment will be described. In the second modification of the second embodiment, the reaction score is calculated by giving priority to the facial expression of the user who owns the product among the users in conversation.

第2実施形態の変形例2のプロセッサ32は、ステップS312において、以下の何れかに該当するユーザ(つまり、商品への関心が相対的に高いユーザ)を第1ユーザとして特定し、第1ユーザ以外のユーザを第2ユーザとして特定する。
・商品情報を指定したユーザ
・ビデオデータに商品の画像が含まれるクライアント装置10のユーザ
・商品情報の音声を最初に発したユーザ
In step S312, the processor 32 of the second embodiment of the second embodiment identifies a user corresponding to any of the following (that is, a user who has a relatively high interest in the product) as the first user, and the first user. Users other than are specified as the second user.
-User who specified the product information-User of the client device 10 whose video data includes the image of the product-User who first emitted the sound of the product information

記憶装置31に記憶された感情推定式は、第1ユーザのための第1重み付け係数と、第2ユーザのための第2重み付け係数と、を含む。第1重み付け係数は、第2重み付け係数より大きい。つまり、この感情推定式では、第1ユーザの表情を第2ユーザより重視して、反応スコアが計算される。 The emotion estimation formula stored in the storage device 31 includes a first weighting coefficient for the first user and a second weighting coefficient for the second user. The first weighting coefficient is larger than the second weighting coefficient. That is, in this emotion estimation formula, the reaction score is calculated by giving more importance to the facial expression of the first user than the second user.

プロセッサ32は、ステップS312において、第1ユーザの第1アクションユニット情報と、第2ユーザの第2アクションユニット情報と、を生成する。 In step S312, the processor 32 generates the first action unit information of the first user and the second action unit information of the second user.

プロセッサ32は、ステップS313において、第1アクションユニット情報及び第2アクションユニット情報を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、感情情報を推定する。この場合、第1アクションユニット情報は第1重み付け係数に適用される。第2アクションユニット情報は第2重み付け係数に適用される。 In step S313, the processor 32 estimates the emotion information for each image frame constituting the video data by applying the first action unit information and the second action unit information to the emotion estimation formula. In this case, the first action unit information is applied to the first weighting coefficient. The second action unit information is applied to the second weighting factor.

第2実施形態の変形例2によれば、複数のユーザの顔の表情の変化に基づいて反応スコアを計算する場合において、商品を所有するユーザAの表情を重視する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the second modification of the second embodiment, when the reaction score is calculated based on the changes in the facial expressions of a plurality of users, the facial expressions of the user A who owns the product are emphasized. As a result, the accuracy of the index of the user's objective evaluation of the product can be improved.

(3)第3実施形態
第3実施形態について説明する。第3実施形態は、仮想的な人物(以下「アバタ」という)との会話中のユーザの表情の変化に基づいて、商品に対するユーザの反応スコアを取得する例である。
(3) Third Embodiment The third embodiment will be described. The third embodiment is an example of acquiring a user's reaction score to a product based on a change in the user's facial expression during a conversation with a virtual person (hereinafter referred to as "avatar").

(3−1)第3実施形態の概要
第3実施形態の概要について説明する。図14は、第3実施形態の概要の説明図である。
(3-1) Outline of the Third Embodiment The outline of the third embodiment will be described. FIG. 14 is an explanatory diagram of an outline of the third embodiment.

図14に示すように、クライアント装置10のユーザは、クライアント装置10を用いて商品の動画像を撮影し、且つ、アバタとの会話を行う。 As shown in FIG. 14, the user of the client device 10 takes a moving image of the product using the client device 10 and has a conversation with the avatar.

クライアント装置10は、評価の対象となる商品に関する商品情報を特定する。
クライアント装置10は、商品情報の特定に成功した場合、動画像に含まれるユーザの顔の画像を解析する。
クライアント装置10は、解析の結果に基づいて、商品に対するユーザの反応に関する指標である反応スコアを計算する。
The client device 10 specifies product information about the product to be evaluated.
When the client device 10 succeeds in specifying the product information, the client device 10 analyzes the image of the user's face included in the moving image.
The client device 10 calculates a reaction score, which is an index of the user's reaction to the product, based on the result of the analysis.

このように、クライアント装置10は、商品情報を特定することができた場合、アバタと会話するユーザの顔の画像の解析の結果に基づいて、当該商品情報に対応する商品に対するユーザの反応スコアを計算する。
これにより、商品に対する客観的な評価の指標を得ることができる。
In this way, when the product information can be specified, the client device 10 calculates the user's reaction score to the product corresponding to the product information based on the result of the analysis of the image of the face of the user who talks with the avatar. calculate.
As a result, it is possible to obtain an index for objective evaluation of the product.

(3−2)情報処理
第3実施形態の情報処理について説明する。図15は、第3実施形態の情報処理のシーケンス図である。図16は、図15の情報処理において表示される画面例を示す図である。
(3-2) Information Processing The information processing of the third embodiment will be described. FIG. 15 is a sequence diagram of information processing according to the third embodiment. FIG. 16 is a diagram showing an example of a screen displayed in the information processing of FIG.

図15に示すように、クライアント装置10は、第1実施形態(図6)と同様に、ログインリクエスト(S100)を実行する。
ステップS100の後、サーバ30は、第1実施形態と同様に、ログイン認証(S300)を実行する。
As shown in FIG. 15, the client device 10 executes the login request (S100) as in the first embodiment (FIG. 6).
After step S100, the server 30 executes login authentication (S300) as in the first embodiment.

ステップS300の後、クライアント装置10は、アバタの提示(S120)を実行する。
具体的には、プロセッサ12は、画面P120をディスプレイ15(図16)に表示する。
After step S300, the client device 10 executes the presentation of the avatar (S120).
Specifically, the processor 12 displays the screen P120 on the display 15 (FIG. 16).

画面P120は、画面P101(図7)と同様のオブジェクトに加えて、表示オブジェクトA120を含む。
表示オブジェクトA120には、アバタの画像IMG120が表示される。アバタは、ユーザに対する問いかけ(例えば「どんな商品?」という質問のテキスト及び音声の少なくとも1つ)を提示する。
The screen P120 includes a display object A120 in addition to the same objects as the screen P101 (FIG. 7).
The image IMG120 of the avatar is displayed on the display object A120. The avatar presents a question to the user (eg, at least one of the text and voice of the question "What product?").

ステップS120の後、クライアント装置10は、ビデオデータの取得(S121)を実行する。
具体的には、ユーザがボタンオブジェクトB101を操作し、且つ、アバタの問いかけに対して回答(例えば、回答に関するテキスト及び音声の少なくとも1つ)の入力を行うと、プロセッサ12は、ビデオデータを生成し、且つ、当該ビデオデータ及び回答に関する情報を記憶装置11に記憶する。ビデオデータは、カメラ16によって撮像された動画像と、音声入出力装置17によって入力された音声と、を含む。
After step S120, the client device 10 executes the acquisition of video data (S121).
Specifically, when the user operates the button object B101 and inputs an answer (for example, at least one of text and voice regarding the answer) to the question of the avatar, the processor 12 generates video data. In addition, the video data and the information regarding the answer are stored in the storage device 11. The video data includes a moving image captured by the camera 16 and audio input by the audio input / output device 17.

ステップS121の後、クライアント装置10は、第1実施形態(図6)と同様に、ステップS102〜S106を実行する。
ステップS106の後、サーバ30は、第1実施形態と同様に、ステップS301を実行する。
After step S121, the client device 10 executes steps S102 to S106 in the same manner as in the first embodiment (FIG. 6).
After step S106, the server 30 executes step S301 as in the first embodiment.

人の感情は、他人との会話中により強く現れる。第3実施形態によれば、他のユーザが存在しなくても、アバタと商品について会話するユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 A person's emotions are more pronounced during a conversation with another person. According to the third embodiment, the reaction score is calculated based on the change in the facial expression of the user who talks about the product with the avatar even in the absence of another user. As a result, the accuracy of the index of the user's objective evaluation of the product can be improved.

(4)変形例
本実施形態の変形例について説明する。
(4) Modification Example A modification of the present embodiment will be described.

(4−1)変形例1
変形例1について説明する。変形例1は、表情の変化及び音声を考慮して反応スコアを計算する例である。
(4-1) Modification 1
A modification 1 will be described. Modification 1 is an example of calculating a reaction score in consideration of changes in facial expressions and voice.

変形例1を第1実施形態に適用する場合、プロセッサ12は、ステップS104において、ビデオデータに含まれる音声の特徴量を抽出する。
プロセッサ12は、アクションユニット情報と、音声の特徴量と、を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
When the first embodiment is applied to the first embodiment, the processor 12 extracts the audio features included in the video data in step S104.
The processor 12 estimates the emotion information about the user's emotion for each image frame constituting the video data by applying the action unit information and the voice feature amount to the emotion estimation formula.

変形例1によれば、表情の変化及び音声を考慮して反応スコアを計算するので、顔画像解析のみを用いる場合よりも反応スコアの精度を向上させることができる。 According to the first modification, since the reaction score is calculated in consideration of the change in facial expression and the voice, the accuracy of the reaction score can be improved as compared with the case where only the face image analysis is used.

変形例1は、第2実施形態及び第3実施形態にも適用可能である。 The first modification is also applicable to the second embodiment and the third embodiment.

(4−2)変形例2
変形例2ついて説明する。変形例2は、表情の変化及び生体情報を考慮して反応スコアを計算する例である。
(4-2) Modification 2
A modification 2 will be described. Modification 2 is an example of calculating a reaction score in consideration of changes in facial expressions and biological information.

変形例2では、ユーザは、生体情報を計測可能な計測装置を装着している。生体情報は、例えば、以下の少なくとも1つを含む。
・心拍数
・脳波
・体温
・ストレスホルモンの値
In the second modification, the user is equipped with a measuring device capable of measuring biological information. The biological information includes, for example, at least one of the following.
・ Heart rate ・ Brain wave ・ Body temperature ・ Stress hormone level

変形例2を第1実施形態に適用する場合、プロセッサ12は、ステップS104において、計測装置から生体情報を取得する。
プロセッサ12は、アクションユニット情報と、生体情報と、を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
When the second modification is applied to the first embodiment, the processor 12 acquires biometric information from the measuring device in step S104.
By applying the action unit information and the biological information to the emotion estimation formula, the processor 12 estimates the emotion information related to the user's emotion for each image frame constituting the video data.

変形例2によれば、表情の変化及び生体情報を考慮して反応スコアを計算するので、顔画像解析のみを用いる場合よりも反応スコアの精度を向上させることができる。 According to the second modification, since the reaction score is calculated in consideration of the change in facial expression and the biological information, the accuracy of the reaction score can be improved as compared with the case where only the face image analysis is used.

変形例2は、第2実施形態及び第3実施形態にも適用可能である。 The second modification is also applicable to the second embodiment and the third embodiment.

(4−3)変形例3
変形例3について説明する。変形例3は、表情の変化及び顔の傾きを考慮して、反応スコアを計算する例である。
(4-3) Modification 3
Modification 3 will be described. Modification 3 is an example of calculating the reaction score in consideration of the change in facial expression and the inclination of the face.

変形例3を第1実施形態に適用する場合、プロセッサ12は、ステップS103において、アクションユニット情報に加えて、顔の傾きの変化量に関する傾き情報を生成する。
プロセッサ12は、ステップS104において、アクションユニット情報と、傾き情報と、を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
When the modification 3 is applied to the first embodiment, the processor 12 generates tilt information regarding the amount of change in the tilt of the face in addition to the action unit information in step S103.
In step S104, the processor 12 applies the action unit information and the tilt information to the emotion estimation formula to estimate the emotion information related to the user's emotion for each image frame constituting the video data.

変形例3によれば、表情の変化及び顔の傾きを考慮して反応スコアを計算するので、顔画像解析のみを用いる場合よりも反応スコアの精度を向上させることができる。 According to the third modification, since the reaction score is calculated in consideration of the change in facial expression and the inclination of the face, the accuracy of the reaction score can be improved as compared with the case where only the face image analysis is used.

変形例3は、第2実施形態及び第3実施形態にも適用可能である。 The third modification is also applicable to the second embodiment and the third embodiment.

(4−4)変形例4
変形例4について説明する。変形例4は、ユーザの顔の画像を含む静止画像に基づいて、反応スコアを計算する例である。
(4-4) Modification 4
A modification 4 will be described. Modification 4 is an example of calculating the reaction score based on a still image including an image of the user's face.

変形例4のプロセッサ12は、ステップS101においてビデオデータを生成した場合、ステップS103において、ビデオデータを構成する画像フレームから、所定条件を満たす画像フレームを抽出する。 When the processor 12 of the modification 4 generates the video data in step S101, the processor 12 extracts an image frame satisfying a predetermined condition from the image frames constituting the video data in step S103.

所定条件を満たす画像フレームは、例えば、以下の何れかである。
・ボタンオブジェクトB102が操作された時点の画像フレーム
・ビデオデータを構成する画像フレームのうち、表情の変化量が最も大きい画像フレーム
・ビデオデータを構成する画像フレームのうち、ユーザが指定した画像フレーム(例えば、ユーザが「自身の感情がもっとも表れている」と感じた画像の画像フレーム)
The image frame satisfying the predetermined condition is, for example, any of the following.
-Image frame at the time when the button object B102 is operated-Image frame having the largest change in facial expression among the image frames constituting the video data-Image frame specified by the user among the image frames constituting the video data ( For example, an image frame of an image that the user feels "the most expressive of his feelings")

プロセッサ12は、所定条件を満たす画像フレームに対して、特徴量解析を適用することにより、ユーザの感情に関する感情情報を推定する。 The processor 12 estimates emotional information regarding the user's emotions by applying the feature amount analysis to the image frame satisfying a predetermined condition.

なお、変形例4では、ステップS101は省略可能である。この場合、クライアント装置10は、ステップS101に変えて、ユーザの顔の画像を含む静止画像を取得する。 In the modified example 4, step S101 can be omitted. In this case, the client device 10 changes to step S101 and acquires a still image including an image of the user's face.

変形例4によれば、静止画像の解析結果に基づいて反応スコアを計算する。これにより、静止画像(つまり、ある時点の表情)からでも、商品に対するユーザの客観的な評価の指標を得ることができる。 According to the fourth modification, the reaction score is calculated based on the analysis result of the still image. As a result, it is possible to obtain an index of the user's objective evaluation of the product even from the still image (that is, the facial expression at a certain point in time).

(5)本実施形態の小括
本実施形態について小括する。
(5) Summary of the present embodiment A summary of the present embodiment will be given.

本実施形態の第1態様は、
ユーザの表情に関する表情情報を取得する手段(例えば、ステップS101を実行するプロセッサ12)を備え、
商品に関する商品情報を特定する手段(例えば、ステップS102を実行するプロセッサ12)を備え、
商品情報が特定された場合、表情情報に基づいて表情の変化を解析する手段(例えば、ステップS103を実行するプロセッサ12)を備え、
解析の結果に基づいて、商品に対するユーザの反応に関する指標である反応スコアを計算する手段(例えば、ステップS104を実行するプロセッサ12)を備える、
情報処理装置(例えば、クライアント装置10)である。
The first aspect of this embodiment is
A means for acquiring facial expression information regarding the user's facial expression (for example, a processor 12 that executes step S101) is provided.
A means for identifying product information about a product (for example, a processor 12 that executes step S102) is provided.
When the product information is specified, a means for analyzing the change in facial expression based on the facial expression information (for example, the processor 12 that executes step S103) is provided.
A means (for example, a processor 12 that executes step S104) for calculating a reaction score, which is an index of a user's reaction to a product, is provided based on the result of analysis.
An information processing device (for example, a client device 10).

第1態様によれば、ユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標を得ることができる。 According to the first aspect, the reaction score is calculated based on the change in the facial expression of the user. As a result, it is possible to obtain an index of the user's objective evaluation of the product.

本実施形態の第2態様は、
取得する手段は、ユーザの顔の画像を含む動画像、及び、ユーザの表情筋筋電図の少なくとも1つを取得する、
情報処理装置である。
The second aspect of this embodiment is
The means for acquiring is to acquire at least one of a moving image including an image of the user's face and a user's facial EMG.
It is an information processing device.

本実施形態の第3態様は、
取得する手段は、商品の画像を含む動画像を更に取得し、
特定する手段は、取得された動画像に含まれる商品の画像に基づいて、商品情報を特定する、
情報処理装置である。
The third aspect of this embodiment is
The means to acquire is to further acquire a moving image including an image of the product,
The means for identifying is to identify the product information based on the image of the product included in the acquired moving image.
It is an information processing device.

本実施形態の第4態様は、
少なくとも1人のユーザが発した商品情報を含む音声を取得する手段(例えば、音声入出力装置17)を備え、
特定する手段は、取得された音声に基づいて商品情報を特定する、
情報処理装置である。
The fourth aspect of this embodiment is
A means for acquiring voice including product information emitted by at least one user (for example, a voice input / output device 17) is provided.
The means of identification is to identify the product information based on the acquired voice.
It is an information processing device.

本実施形態の第5態様は、
解析する手段は、音声を更に解析する、
情報処理装置である。
A fifth aspect of this embodiment is
The means of analysis is to further analyze the voice,
It is an information processing device.

第5態様によれば、ユーザの顔の画像に加えて、ユーザの音声の解析結果を考慮して反応スコアが計算される。これにより、反応スコアの精度を向上させることができる。 According to the fifth aspect, the reaction score is calculated in consideration of the analysis result of the user's voice in addition to the image of the user's face. Thereby, the accuracy of the reaction score can be improved.

本実施形態の第6態様は、
ユーザの生体に関する生体情報 を取得する手段を備え、
計算する手段は、解析の結果と、取得された生体情報と、に基づいて、反応スコアを計算する、
情報処理装置である。
The sixth aspect of this embodiment is
Equipped with a means to acquire biological information about the user's living body
The means of calculation is to calculate the reaction score based on the result of analysis and the acquired biological information.
It is an information processing device.

第6態様によれば、ユーザの顔の画像に加えて、ユーザの生体情報を考慮して反応スコアが計算される。これにより、反応スコアの精度を向上させることができる。 According to the sixth aspect, the reaction score is calculated in consideration of the user's biological information in addition to the image of the user's face. Thereby, the accuracy of the reaction score can be improved.

本実施形態の第7態様は、
解析の結果に基づいて、商品を見ているユーザの顔の傾きを判定する手段を備え、
計算する手段は、傾きを参照して、反応スコアを計算する、
情報処理装置である。
The seventh aspect of this embodiment is
A means for determining the inclination of the face of the user who is viewing the product based on the result of the analysis is provided.
The means of calculation is to calculate the reaction score by referring to the slope.
It is an information processing device.

第7態様によれば、ユーザの顔の画像に加えて、ユーザの顔の傾きを考慮して反応スコアが計算される。これにより、反応スコアの精度を向上させることができる。 According to the seventh aspect, the reaction score is calculated in consideration of the inclination of the user's face in addition to the image of the user's face. Thereby, the accuracy of the reaction score can be improved.

本実施形態の第8態様は、
仮想ユーザのアバタ画像、ユーザに対する質問を含むテキストメッセージ、及び、ユーザに対する質問を含む音声メッセージの少なくとも1つをユーザに提示する手段(例えば、ステップS120を実行するプロセッサ12)を備え、
解析する手段は、提示のときの動画像に含まれる顔を解析する、
情報処理装置である。
The eighth aspect of this embodiment is
A means for presenting to the user at least one of a virtual user's avatar image, a text message containing a question to the user, and a voice message containing a question to the user (eg, a processor 12 performing step S120).
The means of analysis is to analyze the face included in the moving image at the time of presentation.
It is an information processing device.

第8態様によれば、他のユーザが存在しなくても、アバタと商品について会話するユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the eighth aspect, the reaction score is calculated based on the change in the facial expression of the user who talks about the product with the avatar even in the absence of another user. As a result, the accuracy of the index of the user's objective evaluation of the product can be improved.

本実施形態の第9態様は、
商品を使用する第1ユーザの顔の第1画像を含む第1動画像と、第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段(例えば、ステップS310を実行するプロセッサ32)を備え、
商品に関する商品情報を特定する手段(例えば、ステップS311を実行するプロセッサ32)を備え、
商品情報が特定された場合、第1画像を解析する手段(例えば、ステップS312を実行するプロセッサ32)を備え、
解析の結果に基づいて、商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段(例えば、ステップS314を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。
The ninth aspect of this embodiment is
Means for acquiring a first moving image including a first image of the face of a first user using a product and a second moving image including a second image of the face of a second user interacting with the first user (for example). A processor 32) that executes step S310.
A means for identifying product information about the product (for example, a processor 32 that executes step S311) is provided.
When the product information is specified, a means for analyzing the first image (for example, a processor 32 for executing step S312) is provided.
A means (for example, a processor 32 that executes step S314) for calculating a reaction score, which is an index regarding the reaction of the first user to the product, based on the result of the analysis is provided.
An information processing device (for example, a server 30).

第9態様によれば、ユーザBと商品について会話するユーザAの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザAの客観的な評価の指標の精度を向上させることができる。 According to the ninth aspect, the reaction score is calculated based on the change in the facial expression of the user A who talks with the user B about the product. As a result, the accuracy of the index of the objective evaluation of the user A for the product can be improved.

本実施形態の第10態様は、
解析する手段は、第1画像と、第2ユーザの顔の第2画像と、を解析する、
情報処理装置である。
The tenth aspect of this embodiment is
The means for analysis is to analyze the first image and the second image of the face of the second user.
It is an information processing device.

第10態様によれば、複数のユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the tenth aspect, the reaction score is calculated based on the change in facial expressions of a plurality of users. As a result, the accuracy of the index of the user's objective evaluation of the product can be improved.

本実施形態の第11態様は、
第1動画像は、商品の画像を含み、
特定する手段は、取得された第1動画像に含まれる商品の画像に基づいて、商品情報を特定する、
情報処理装置である。
The eleventh aspect of this embodiment is
The first moving image includes the image of the product and
The identification means specifies the product information based on the image of the product included in the acquired first moving image.
It is an information processing device.

本実施形態の第12態様は、
取得する手段は、第1ユーザが発した商品情報を含む第1音声と、第2ユーザの第2音声と、を取得し、
特定する手段は、取得された第1音声に基づいて商品情報を特定する、
情報処理装置である。
The twelfth aspect of this embodiment is
The means for acquiring is to acquire the first voice including the product information emitted by the first user and the second voice of the second user.
The identification means identifies the product information based on the acquired first voice.
It is an information processing device.

本実施形態の第13態様は、
解析する手段は、第1音声及び第2音声を更に解析する、
情報処理装置である。
The thirteenth aspect of this embodiment is
The means for analysis further analyzes the first voice and the second voice.
It is an information processing device.

第13態様によれば、複数のユーザの表情及び音声に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the thirteenth aspect, the reaction score is calculated based on the facial expressions and voices of a plurality of users. As a result, the accuracy of the index of the user's objective evaluation of the product can be improved.

本実施形態の第14態様は、
第1ユーザの生体に関する第1生体情報と、第2ユーザの第2生体情報と、を取得する手段を備え、
計算する手段は、解析の結果と、取得された第1生体情報及び第2生体情報と、に基づいて、反応スコアを計算する、
情報処理装置である。
The fourteenth aspect of this embodiment is
A means for acquiring the first biological information regarding the living body of the first user and the second biological information of the second user is provided.
The means for calculation is to calculate the reaction score based on the result of the analysis and the acquired first biological information and second biological information.
It is an information processing device.

第14態様によれば、複数のユーザの表情及び生体情報に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the fourteenth aspect, the reaction score is calculated based on the facial expressions and biological information of a plurality of users. As a result, the accuracy of the index of the user's objective evaluation of the product can be improved.

本実施形態の第15態様は、
解析の結果に基づいて、商品を見ている第1ユーザの顔の傾きと、第2ユーザの顔の傾きと、を判定する手段を備え、
計算する手段は、傾きを参照して、反応スコアを計算する、
情報処理装置である。
The fifteenth aspect of this embodiment is
A means for determining the inclination of the face of the first user who is viewing the product and the inclination of the face of the second user based on the result of the analysis is provided.
The means of calculation is to calculate the reaction score by referring to the slope.
It is an information processing device.

第15態様によれば、複数のユーザの表情及び顔の傾きに基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the fifteenth aspect, the reaction score is calculated based on the facial expressions and facial inclinations of the plurality of users. As a result, the accuracy of the index of the user's objective evaluation of the product can be improved.

本実施形態の第16態様は、
計算する手段は、第1ユーザの顔の画像の解析結果に第1重み付け係数を適用し、第2ユーザの顔の画像の解析結果に第2重み付け係数を適用することにより、反応スコアを計算し、
第1重み付け係数は、第2重み付け係数より大きい、
情報処理装置である。
The sixteenth aspect of this embodiment is
The calculation means calculates the reaction score by applying the first weighting coefficient to the analysis result of the face image of the first user and applying the second weighting coefficient to the analysis result of the face image of the second user. ,
The first weighting factor is larger than the second weighting factor,
It is an information processing device.

第16態様によれば、複数のユーザの顔の表情の変化に基づいて反応スコアを計算する場合において、商品を所有するユーザの表情を重視する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the 16th aspect, when calculating the reaction score based on the changes in the facial expressions of a plurality of users, the facial expressions of the users who own the products are emphasized. As a result, the accuracy of the index of the user's objective evaluation of the product can be improved.

本実施形態の第17態様は、
商品を所有する第1ユーザが使用する第1クライアント装置10−1と、第1ユーザと対話する第2ユーザが使用する第2クライアント装置10−2と、第1クライアント装置10−1と第2クライアント装置10−2との間のビデオ通話シーケンス(S310)を実行するサーバ30と、を備える情報処理システム1であって、
第1クライアント装置10−1は、第1ユーザの顔の第1画像を含む第1動画像を取得する手段(例えば、ステップS310を実行するプロセッサ12)を備え、
第2クライアント装置10−2は、第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段(例えば、ステップS310を実行するプロセッサ12)を備え、
サーバ30は、
第1動画像及び第2動画像を取得する手段(例えば、ステップS310を実行するプロセッサ12)を備え、
商品に関する商品情報を特定する手段(例えば、ステップS311を実行するプロセッサ12)を備え、
商品情報が特定された場合、第1動画像に含まれる顔の画像を解析する手段(例えば、ステップS312を実行するプロセッサ12)を備え、
解析の結果に基づいて、商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段(例えば、ステップS314を実行するプロセッサ12)を備える、情報処理システム1である。
The seventeenth aspect of this embodiment is
The first client device 10-1 used by the first user who owns the product, the second client device 10-2 used by the second user interacting with the first user, the first client device 10-1 and the second. An information processing system 1 including a server 30 that executes a video call sequence (S310) with and from a client device 10-2.
The first client device 10-1 includes means for acquiring a first moving image including a first image of the face of the first user (for example, a processor 12 that executes step S310).
The second client device 10-2 includes means for acquiring a second moving image including a second image of the face of the second user (for example, a processor 12 that executes step S310).
The server 30
A means for acquiring a first moving image and a second moving image (for example, a processor 12 for executing step S310) is provided.
A means for identifying product information about a product (for example, a processor 12 that executes step S311) is provided.
When the product information is specified, a means for analyzing the face image included in the first moving image (for example, the processor 12 for executing step S312) is provided.
The information processing system 1 includes means for calculating a reaction score (for example, a processor 12 that executes step S314), which is an index related to a reaction of a first user to a product based on the result of analysis.

本実施形態の第18態様は、
ユーザの顔の画像を含む静止画像を取得する手段を備え、
商品に関する商品情報を特定する手段を備え、
商品情報が特定された場合、前記静止画像を解析する手段を備え、
解析の結果に基づいて、前記商品に対する前記ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理装置である。
The eighteenth aspect of this embodiment is
Equipped with a means to acquire a still image including an image of the user's face,
With means to identify product information about the product
When the product information is specified, a means for analyzing the still image is provided.
A means for calculating a reaction score, which is an index of the user's reaction to the product, based on the result of the analysis.
It is an information processing device.

第18態様によれば、ある時点のユーザの表情に基づいて、反応スコアを計算する。これにより、静止画像からでも、商品に対するユーザの客観的な評価の指標を得ることができる。 According to the eighteenth aspect, the reaction score is calculated based on the facial expression of the user at a certain time point. As a result, it is possible to obtain an index of the user's objective evaluation of the product even from the still image.

本実施形態の第19態様は、
コンピュータ(例えば、プロセッサ12)を、上記各手段として機能させるためのプログラムである。
The nineteenth aspect of this embodiment is
It is a program for making a computer (for example, a processor 12) function as each of the above means.

(6)その他の変形例 (6) Other modifications

記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。 The storage device 11 may be connected to the client device 10 via the network NW. The storage device 31 may be connected to the server 30 via the network NW.

上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。 Each step of the above information processing can be executed by either the client device 10 or the server 30.

画面P102(図8)の表示オブジェクトA102a及びA102b、並びに、画面P112(図12)の表示オブジェクトA112a及びA112bは、省略可能である。
表示オブジェクトA102a及びA102bを省略する場合、ステップS106(図6)も省略される。この場合、クライアント装置10は、ステップS105の後、ユーザ指示を受け付けることなく、更新リクエストデータをサーバ30に送信する。
表示オブジェクトA112a及びA112bを省略する場合、ステップS110及びS112(図10)も省略される。この場合、サーバ30は、ステップS314の後、クライアント装置10との通信を行わずに、ステップS315を実行する。
これにより、測定中に感情情報及び反応スコアを示すことによる測定への影響(例えば、感情情報及び反応スコアの客観性の毀損)を防ぐことができる。
The display objects A102a and A102b on the screen P102 (FIG. 8) and the display objects A112a and A112b on the screen P112 (FIG. 12) can be omitted.
When the display objects A102a and A102b are omitted, step S106 (FIG. 6) is also omitted. In this case, after step S105, the client device 10 transmits the update request data to the server 30 without accepting the user instruction.
When the display objects A112a and A112b are omitted, steps S110 and S112 (FIG. 10) are also omitted. In this case, after step S314, the server 30 executes step S315 without communicating with the client device 10.
This makes it possible to prevent the influence on the measurement (for example, damage to the objectivity of the emotional information and the reaction score) by showing the emotional information and the reaction score during the measurement.

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Further, the above-described embodiment can be improved or modified in various ways without departing from the spirit of the present invention. Moreover, the above-described embodiment and modification can be combined.

1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :ディスプレイ
16 :カメラ
17 :音声入出力装置
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース

1: Information processing system 10: Client device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 15: Display 16: Camera 17: Voice input / output device 30: Server 31: Storage device 32: Processor 33: On Output interface 34: Communication interface

Claims (19)

ユーザの表情に関する表情情報を取得する手段を備え、
商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記表情情報に基づいて前記表情の変化を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する前記ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理装置。
Equipped with a means to acquire facial expression information related to the user's facial expression
With means to identify product information about the product
When the product information is specified, a means for analyzing the change in the facial expression based on the facial expression information is provided.
A means for calculating a reaction score, which is an index of the user's reaction to the product, based on the result of the analysis.
Information processing device.
前記取得する手段は、前記ユーザの顔の画像を含む動画像、及び、前記ユーザの表情筋筋電図の少なくとも1つを取得する、
請求項1に記載の情報処理装置。
The acquisition means acquires at least one of a moving image including an image of the user's face and a facial expression EMG of the user.
The information processing device according to claim 1.
前記取得する手段は、前記商品の画像を含む動画像を更に取得し、
前記特定する手段は、前記取得された動画像に含まれる商品の画像に基づいて、前記商品情報を特定する、
請求項1又は2に記載の情報処理装置。
The acquisition means further acquires a moving image including an image of the product, and obtains the moving image.
The identifying means identifies the product information based on the image of the product included in the acquired moving image.
The information processing device according to claim 1 or 2.
少なくとも1人のユーザが発した商品情報を含む音声を取得する手段を備え、
前記特定する手段は、前記取得された音声に基づいて前記商品情報を特定する、
請求項1〜3の何れかに記載の情報処理装置。
A means for acquiring a voice including product information issued by at least one user,
The identifying means identifies the product information based on the acquired voice.
The information processing device according to any one of claims 1 to 3.
前記解析する手段は、前記音声を更に解析する、
請求項4に記載の情報処理装置。
The means for analysis further analyzes the voice.
The information processing device according to claim 4.
前記ユーザの生体に関する生体情報を取得する手段を備え、
前記計算する手段は、前記解析の結果と、前記取得された生体情報と、に基づいて、前記反応スコアを計算する、
請求項1〜5の何れかに記載の情報処理装置。
A means for acquiring biological information about the user's living body is provided.
The calculation means calculates the reaction score based on the result of the analysis and the acquired biological information.
The information processing device according to any one of claims 1 to 5.
前記解析の結果に基づいて、前記商品を見ているユーザの顔の傾きを判定する手段を備え、
前記計算する手段は、前記傾きを参照して、前記反応スコアを計算する、
請求項1〜6の何れかに記載の情報処理装置。
A means for determining the inclination of the face of the user who is viewing the product based on the result of the analysis is provided.
The calculating means calculates the reaction score with reference to the slope.
The information processing device according to any one of claims 1 to 6.
仮想ユーザのアバタ画像、前記ユーザに対する質問を含むテキストメッセージ、及び、前記ユーザに対する質問を含む音声メッセージの少なくとも1つを前記ユーザに提示する手段を備え、
前記解析する手段は、前記提示のときの前記動画像に含まれる顔を解析する、
請求項2〜7の何れかに記載の情報処理装置。
A means for presenting at least one of a virtual user's avatar image, a text message containing a question to the user, and a voice message containing a question to the user to the user.
The analysis means analyzes the face included in the moving image at the time of the presentation.
The information processing device according to any one of claims 2 to 7.
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段を備え、
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理装置。
A means for acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user interacting with the first user. Prepare,
Provided with means for identifying product information related to the product
When the product information is specified, a means for analyzing the first image is provided.
A means for calculating a reaction score, which is an index of a first user's reaction to the product, based on the result of the analysis.
Information processing device.
前記解析する手段は、前記第1画像と、前記第2ユーザの顔の第2画像と、を解析する、
請求項9に記載の情報処理装置。
The means for analysis analyzes the first image and the second image of the face of the second user.
The information processing device according to claim 9.
前記第1動画像は、前記商品の画像を含み、
前記特定する手段は、前記取得された第1動画像に含まれる商品の画像に基づいて、前記商品情報を特定する、
請求項9又は10に記載の情報処理装置。
The first moving image includes an image of the product.
The identifying means identifies the product information based on the image of the product included in the acquired first moving image.
The information processing device according to claim 9 or 10.
前記取得する手段は、前記第1ユーザが発した商品情報を含む第1音声と、前記第2ユーザの第2音声と、を取得し、
前記特定する手段は、前記取得された第1音声に基づいて前記商品情報を特定する、請求項9〜11の何れかに記載の情報処理装置。
The acquisition means acquires a first voice including product information emitted by the first user and a second voice of the second user.
The information processing device according to any one of claims 9 to 11, wherein the identifying means specifies the product information based on the acquired first voice.
前記解析する手段は、前記第1音声及び前記第2音声を更に解析する、
請求項12に記載の情報処理装置。
The means for analysis further analyzes the first voice and the second voice.
The information processing device according to claim 12.
前記第1ユーザの生体に関する第1生体情報と、前記第2ユーザの第2生体情報と、を取得する手段を備え、
前記計算する手段は、前記解析の結果と、前記取得された第1生体情報及び第2生体情報と、に基づいて、前記反応スコアを計算する、
請求項9〜13の何れかに記載の情報処理装置。
A means for acquiring the first biological information regarding the living body of the first user and the second biological information of the second user is provided.
The calculation means calculates the reaction score based on the result of the analysis and the acquired first biological information and second biological information.
The information processing device according to any one of claims 9 to 13.
前記解析の結果に基づいて、前記商品を見ている第1ユーザの顔の傾きと、前記第2ユーザの顔の傾きと、を判定する手段を備え、
前記計算する手段は、前記傾きを参照して、前記反応スコアを計算する、
請求項9〜14の何れかに記載の情報処理装置。
A means for determining the inclination of the face of the first user who is viewing the product and the inclination of the face of the second user based on the result of the analysis are provided.
The calculating means calculates the reaction score with reference to the slope.
The information processing device according to any one of claims 9 to 14.
前記計算する手段は、前記第1ユーザの顔の画像の解析結果に第1重み付け係数を適用し、前記第2ユーザの顔の画像の解析結果に第2重み付け係数を適用することにより、前記反応スコアを計算し、
前記第1重み付け係数は、前記第2重み付け係数より大きい、
請求項9〜15の何れかに記載の情報処理装置。
The calculation means applies the first weighting coefficient to the analysis result of the face image of the first user, and applies the second weighting coefficient to the analysis result of the face image of the second user. Calculate the score and
The first weighting coefficient is larger than the second weighting coefficient.
The information processing device according to any one of claims 9 to 15.
商品を所有する第1ユーザが使用する第1クライアント装置と、前記第1ユーザと対話する第2ユーザが使用する第2クライアント装置と、前記第1クライアント装置と前記第2クライアント装置との間のビデオ通話シーケンスを実行するサーバと、を備える情報処理システムであって、
前記第1クライアント装置は、前記第1ユーザの顔の第1画像を含む第1動画像を取得する手段を備え、
前記第2クライアント装置は、前記第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段を備え、
前記サーバは、
前記第1動画像及び前記第2動画像を取得する手段を備え、
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1動画像に含まれる顔の画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する前記第1ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理システム。
Between the first client device used by the first user who owns the product, the second client device used by the second user interacting with the first user, and the first client device and the second client device. An information processing system that includes a server that executes a video call sequence.
The first client device includes means for acquiring a first moving image including a first image of the face of the first user.
The second client device includes means for acquiring a second moving image including a second image of the face of the second user.
The server
A means for acquiring the first moving image and the second moving image is provided.
Provided with means for identifying product information related to the product
When the product information is specified, a means for analyzing the face image included in the first moving image is provided.
A means for calculating a reaction score, which is an index related to the reaction of the first user to the product, based on the result of the analysis.
Information processing system.
ユーザの顔の画像を含む静止画像を取得する手段を備え、
商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記静止画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する前記ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理装置。
Equipped with a means to acquire a still image including an image of the user's face,
With means to identify product information about the product
When the product information is specified, a means for analyzing the still image is provided.
A means for calculating a reaction score, which is an index of the user's reaction to the product, based on the result of the analysis.
Information processing device.
コンピュータを、請求項1〜18の何れかに記載の各手段として機能させるためのプログラム。

A program for operating a computer as each means according to any one of claims 1 to 18.

JP2019567964A 2018-01-25 2019-01-09 Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology Active JP7278972B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018010593 2018-01-25
JP2018010593 2018-01-25
PCT/JP2019/000335 WO2019146405A1 (en) 2018-01-25 2019-01-09 Information processing device, information processing system, and program for evaluating tester reaction to product using expression analysis technique

Publications (2)

Publication Number Publication Date
JPWO2019146405A1 true JPWO2019146405A1 (en) 2021-02-25
JP7278972B2 JP7278972B2 (en) 2023-05-22

Family

ID=67396103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019567964A Active JP7278972B2 (en) 2018-01-25 2019-01-09 Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology

Country Status (3)

Country Link
JP (1) JP7278972B2 (en)
TW (1) TW201933234A (en)
WO (1) WO2019146405A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021070681A1 (en) * 2019-10-10 2021-04-15 株式会社村田製作所 Degree-of-interest evaluation system and degree-of-interest evaluation method
WO2021165425A1 (en) * 2020-02-21 2021-08-26 Philip Morris Products Sa Method and apparatus for interactive and privacy-preserving communication between a server and a user device
WO2022024392A1 (en) * 2020-07-31 2022-02-03 富士通株式会社 Computation program, computation method, and information processing device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030469A (en) * 2001-07-16 2003-01-31 Ricoh Co Ltd Commodity sales system by virtual department store using virtual reality space, virtual sales system, program and recording medium
JP2006012171A (en) * 2004-06-24 2006-01-12 Hitachi Ltd System and method for using biometrics to manage review
US8219438B1 (en) * 2008-06-30 2012-07-10 Videomining Corporation Method and system for measuring shopper response to products based on behavior and facial expression
US8235725B1 (en) * 2005-02-20 2012-08-07 Sensory Logic, Inc. Computerized method of assessing consumer reaction to a business stimulus employing facial coding
US20140365272A1 (en) * 2013-06-07 2014-12-11 Bby Solutions, Inc. Product display with emotion prediction analytics
JP2016024599A (en) * 2014-07-18 2016-02-08 ヤフー株式会社 Information management server, information management method, and information management program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030469A (en) * 2001-07-16 2003-01-31 Ricoh Co Ltd Commodity sales system by virtual department store using virtual reality space, virtual sales system, program and recording medium
JP2006012171A (en) * 2004-06-24 2006-01-12 Hitachi Ltd System and method for using biometrics to manage review
US8235725B1 (en) * 2005-02-20 2012-08-07 Sensory Logic, Inc. Computerized method of assessing consumer reaction to a business stimulus employing facial coding
US8219438B1 (en) * 2008-06-30 2012-07-10 Videomining Corporation Method and system for measuring shopper response to products based on behavior and facial expression
US20140365272A1 (en) * 2013-06-07 2014-12-11 Bby Solutions, Inc. Product display with emotion prediction analytics
JP2016024599A (en) * 2014-07-18 2016-02-08 ヤフー株式会社 Information management server, information management method, and information management program

Also Published As

Publication number Publication date
JP7278972B2 (en) 2023-05-22
TW201933234A (en) 2019-08-16
WO2019146405A1 (en) 2019-08-01

Similar Documents

Publication Publication Date Title
US11627877B2 (en) Apparatus and method for user evaluation
JP6524049B2 (en) Emotion estimation device, emotion estimation method, emotion estimation program, and emotion counting system
Carneiro et al. Multimodal behavioral analysis for non-invasive stress detection
US10503964B1 (en) Method and system for measuring and visualizing user behavior in virtual reality and augmented reality
US9646046B2 (en) Mental state data tagging for data collected from multiple sources
Poppe et al. AMAB: Automated measurement and analysis of body motion
JP7278972B2 (en) Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology
JP2022506651A (en) Facial expression detection for screening and treatment of emotional disorders
US20210223869A1 (en) Detecting emotions from micro-expressive free-form movements
JP6040745B2 (en) Information processing apparatus, information processing method, information processing program, and content providing system
Medjden et al. Adaptive user interface design and analysis using emotion recognition through facial expressions and body posture from an RGB-D sensor
FI20195293A1 (en) A client device, a host computer, a system and a method for a virtual object on augmented reality
JP7209200B2 (en) SPATIAL PROPOSAL SYSTEM AND SPATIAL PROPOSAL METHOD
Sridhar et al. E-Bot: A facial recognition based human-robot emotion detection system
Zhang et al. A survey on mobile affective computing
US10755088B2 (en) Augmented reality predictions using machine learning
JP2021033359A (en) Emotion estimation device, emotion estimation method, program, information presentation device, information presentation method and emotion estimation system
JP2020052505A (en) Health condition determination system, health condition determination device, server, health condition determination method and program
JP7406502B2 (en) Information processing device, program and information processing method
JP7253325B2 (en) Information processing device, program, and information processing method
Suchalova et al. The Research on Controlling Virtual Reality by EEG Sensor
US20190167158A1 (en) Information processing apparatus
WO2023145350A1 (en) Information processing method, information processing system, and program
JP7138456B2 (en) Impression derivation system, impression derivation method and impression derivation program
JP2018116500A (en) Information processing system, information processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220901

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230124

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230124

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230130

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230510

R150 Certificate of patent or registration of utility model

Ref document number: 7278972

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150