JP7278972B2 - Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology - Google Patents

Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology Download PDF

Info

Publication number
JP7278972B2
JP7278972B2 JP2019567964A JP2019567964A JP7278972B2 JP 7278972 B2 JP7278972 B2 JP 7278972B2 JP 2019567964 A JP2019567964 A JP 2019567964A JP 2019567964 A JP2019567964 A JP 2019567964A JP 7278972 B2 JP7278972 B2 JP 7278972B2
Authority
JP
Japan
Prior art keywords
user
product
image
information
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019567964A
Other languages
Japanese (ja)
Other versions
JPWO2019146405A1 (en
Inventor
寛子 川添
直靖 平尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Publication of JPWO2019146405A1 publication Critical patent/JPWO2019146405A1/en
Application granted granted Critical
Publication of JP7278972B2 publication Critical patent/JP7278972B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、情報処理装置、情報処理システム、及び、プログラムに関する。 The present invention relates to an information processing device, an information processing system, and a program.

一般に、商品に関する市場調査では、消費者に対するアンケートを用いて商品に対する評価を集計している。多数の消費者からの回答を得ることにより、商品に対する評価の精度の向上が期待できる。 Generally, in market research on products, consumer questionnaires are used to collect evaluations of products. By obtaining responses from a large number of consumers, it is expected that the accuracy of product evaluation will be improved.

特開2003-308415号公報は、ユーザ端末及びサーバを備えるシステムを用いて、多くのアンケート結果を容易に取得する技術を開示している。 Japanese Patent Laying-Open No. 2003-308415 discloses a technique for easily obtaining many questionnaire results by using a system including a user terminal and a server.

一般に、商品に対する評価は、客観性を有することが好ましい。
しかし、特開2003-308415号公報のアンケート結果には、消費者の主観が反映される。そのため、アンケート結果から得られる評価は、商品に対する客観性を有していない。
In general, it is preferable that the evaluation of products be objective.
However, consumer subjectivity is reflected in the results of the questionnaire in Japanese Patent Application Laid-Open No. 2003-308415. Therefore, the evaluation obtained from the questionnaire results does not have objectivity for the product.

本発明の目的は、商品に対する客観的な評価の指標を得ることである。 An object of the present invention is to obtain an objective evaluation index for a product.

本発明の一態様は、
ユーザの表情に関する表情情報を取得する手段を備え、
商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記表情情報に基づいて前記表情の変化を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する前記ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理装置である。
One aspect of the present invention is
A means for acquiring facial expression information related to a user's facial expression,
Equipped with means for specifying product information about the product,
comprising means for analyzing changes in the facial expression based on the facial expression information when the product information is specified;
means for calculating a reaction score, which is an indicator of the user's reaction to the product, based on the results of the analysis;
It is an information processing device.

本発明によれば、商品に対するユーザの客観的な評価の指標を得ることができる。 According to the present invention, it is possible to obtain an index of a user's objective evaluation of a product.

第1実施形態の情報処理システムの概略図である。1 is a schematic diagram of an information processing system according to a first embodiment; FIG. 第1実施形態の情報処理システムの構成を示すブロック図である。1 is a block diagram showing the configuration of an information processing system according to a first embodiment; FIG. 第1実施形態の概要の説明図である。1 is an explanatory diagram of an outline of a first embodiment; FIG. 第1実施形態のユーザ情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the user information database of 1st Embodiment. 第1実施形態の商品情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the merchandise information database of 1st Embodiment. 第1実施形態の情報処理のシーケンス図である。4 is a sequence diagram of information processing according to the first embodiment; FIG. 図6の情報処理において表示される画面例を示す図である。7 is a diagram showing an example of a screen displayed in the information processing of FIG. 6; FIG. 図6の情報処理において表示される画面例を示す図である。7 is a diagram showing an example of a screen displayed in the information processing of FIG. 6; FIG. 第2実施形態の概要の説明図である。FIG. 11 is an explanatory diagram of the overview of the second embodiment; 第2実施形態の情報処理のシーケンス図である。FIG. 11 is a sequence diagram of information processing according to the second embodiment; 図10の情報処理において表示される画面例を示す図である。11 is a diagram showing an example of a screen displayed in the information processing of FIG. 10; FIG. 図10の情報処理において表示される画面例を示す図である。11 is a diagram showing an example of a screen displayed in the information processing of FIG. 10; FIG. 第2実施形態の変形例1の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of the modification 1 of 2nd Embodiment. 第3実施形態の概要の説明図である。FIG. 11 is an explanatory diagram of the outline of the third embodiment; 第3実施形態の情報処理のシーケンス図である。FIG. 12 is a sequence diagram of information processing according to the third embodiment; 図15の情報処理において表示される画面例を示す図である。16 is a diagram showing an example of a screen displayed in the information processing of FIG. 15; FIG.

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 An embodiment of the present invention will be described in detail below with reference to the drawings. In the drawings for describing the embodiments, in principle, the same constituent elements are denoted by the same reference numerals, and repeated description thereof will be omitted.

(1)第1実施形態
第1実施形態について説明する。
(1) First Embodiment A first embodiment will be described.

(1-1)情報処理システムの構成
第1実施形態の情報処理システムの構成について説明する。図1は、第1実施形態の情報処理システムの概略図である。図2は、第1実施形態の情報処理システムの構成を示すブロック図である。
(1-1) Configuration of Information Processing System The configuration of the information processing system of the first embodiment will be described. FIG. 1 is a schematic diagram of an information processing system according to the first embodiment. FIG. 2 is a block diagram showing the configuration of the information processing system of the first embodiment.

図1及び図2に示すように、情報処理システム1は、クライアント装置10と、サーバ30とを備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
As shown in FIGS. 1 and 2, the information processing system 1 includes a client device 10 and a server 30. FIG.
The client device 10 and server 30 are connected via a network (for example, the Internet or an intranet) NW.

クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。 The client device 10 is an example of an information processing device that transmits requests to the server 30 . The client device 10 is, for example, a smart phone, a tablet terminal, or a personal computer.

サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。 The server 30 is an example of an information processing device that provides the client device 10 with a response in response to a request transmitted from the client device 10 . Server 30 is, for example, a web server.

(1-1-1)クライアント装置の構成
クライアント装置10の構成について説明する。
(1-1-1) Configuration of Client Device The configuration of the client device 10 will be described.

図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、ディスプレイ15と、カメラ16と、音声入出力装置17と、を備える。 As shown in FIG. 2, the client device 10 includes a storage device 11, a processor 12, an input/output interface 13, a communication interface 14, a display 15, a camera 16, and an audio input/output device 17.

記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 Storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of ROM (Read Only Memory), RAM (Random Access Memory), and storage (eg, flash memory or hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
Programs include, for example, the following programs.
・OS (Operating System) program ・Application (for example, web browser) program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
・Databases referenced in information processing ・Data obtained by executing information processing (that is, execution results of information processing)

プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。 The processor 12 is configured to implement the functions of the client device 10 by activating programs stored in the storage device 11 . Processor 12 is an example of a computer.

入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
The input/output interface 13 is configured to acquire a user's instruction from an input device connected to the client device 10 and output information to an output device connected to the client device 10 .
Input devices are, for example, keyboards, pointing devices, touch panels, or combinations thereof.

通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。 Communication interface 14 is configured to control communications between client device 10 and server 30 .

ディスプレイ15は、画像を表示するように構成される。ディスプレイ15は、例えば、以下の何れかである。
・液晶ディスプレイ
・有機EL(Electro Luminescence)ディスプレイ
Display 15 is configured to display an image. The display 15 is, for example, any of the following.
・Liquid crystal display ・Organic EL (Electro Luminescence) display

カメラ16は、画像を撮像し、且つ、撮像した画像の画像データを生成するように構成される。カメラ16は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを有する。 Camera 16 is configured to capture images and generate image data for the captured images. The camera 16 has, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

音声入出力装置17は、音声の入出力を行うように構成される。音声入出力装置17は、音声を入力するマイク、及び、音声を出力するスピーカの組合せである。 The audio input/output device 17 is configured to input/output audio. The voice input/output device 17 is a combination of a microphone for inputting voice and a speaker for outputting voice.

(1-1-2)サーバの構成
サーバ30の構成について説明する。
(1-1-2) Server Configuration The configuration of the server 30 will be described.

図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。 As shown in FIG. 2, the server 30 includes a storage device 31, a processor 32, an input/output interface 33, and a communication interface .

記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 Storage device 31 is configured to store programs and data. Storage device 31 is, for example, a combination of ROM, RAM, and storage (eg, flash memory or hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
Programs include, for example, the following programs.
- OS program - Application program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・Databases referenced in information processing ・Execution results of information processing

プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。 The processor 32 is configured to implement the functions of the server 30 by activating programs stored in the storage device 31 . Processor 32 is an example of a computer.

入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input/output interface 33 is configured to acquire user instructions from input devices connected to the server 30 and to output information to output devices connected to the server 30 .
Input devices are, for example, keyboards, pointing devices, touch panels, or combinations thereof.
An output device is, for example, a display.

通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。 Communication interface 34 is configured to control communications between server 30 and client device 10 .

(1-2)第1実施形態の概要
第1実施形態の概要について説明する。図3は、第1実施形態の概要の説明図である。
(1-2) Overview of First Embodiment An overview of the first embodiment will be described. FIG. 3 is an explanatory diagram of the outline of the first embodiment.

図3に示すように、クライアント装置10は、ユーザの表情に関する表情情報(例えば、動画像又は表情筋筋電図)を取得する。 As shown in FIG. 3, the client device 10 acquires facial expression information (for example, moving images or facial electromyography) relating to facial expressions of the user.

クライアント装置10は、評価の対象となる商品に関する商品情報を特定する。
クライアント装置10は、商品情報の特定に成功した場合、表情情報を解析することにより、ユーザの表情の変化に関する指標である表情変化指標を計算する。
クライアント装置10は、解析によって得られた表情変化指標に基づいて、商品に対するユーザの反応に関する指標である反応スコアを計算する。
The client device 10 identifies product information related to products to be evaluated.
When the client device 10 succeeds in identifying the product information, the client device 10 analyzes the facial expression information to calculate a facial expression change index, which is an index relating to changes in the user's facial expression.
The client device 10 calculates a reaction score, which is an index related to the user's reaction to the product, based on the facial expression change index obtained by the analysis.

このように、クライアント装置10は、商品情報を特定することができた場合、ユーザの表情の変化に基づいて、商品に対するユーザの反応スコアを計算する。
これにより、商品に対する客観的な評価の指標を得ることができる。
In this way, when the client device 10 can specify product information, the client device 10 calculates the reaction score of the user to the product based on the change in the user's facial expression.
This makes it possible to obtain an objective evaluation index for the product.

(1-3)データベース
第1実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(1-3) Database The database of the first embodiment will be described. The following databases are stored in the storage device 31.

(1-3-1)ユーザ情報データベース
第1実施形態のユーザ情報データベースについて説明する。図4は、第1実施形態のユーザ情報データベースのデータ構造を示す図である。
(1-3-1) User Information Database The user information database of the first embodiment will be described. FIG. 4 is a diagram showing the data structure of the user information database of the first embodiment.

図4のユーザ情報データベースには、ユーザに関するユーザ情報が格納される。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、を含む。各フィールドは、互いに関連付けられている。
The user information database of FIG. 4 stores user information about users.
The user information database includes a "user ID" field, a "user name" field, and a "user attribute" field. Each field is associated with each other.

「ユーザID」フィールドには、ユーザを識別するユーザIDが格納される。 A user ID for identifying a user is stored in the "user ID" field.

「ユーザ名」フィールドには、ユーザの名称に関する情報(例えば、テキスト)が格納される。 The “user name” field stores information (for example, text) regarding the name of the user.

「ユーザ属性」フィールドには、ユーザの属性に関するユーザ属性情報が格納される。
「ユーザ属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、を含む。
The "user attribute" field stores user attribute information about user attributes.
The "user attribute" field includes a "gender" field and an "age" field.

「性別」フィールドには、ユーザの性別に関する情報が格納される。 The "gender" field stores information about the gender of the user.

「年齢」フィールドには、ユーザの年齢に関する情報が格納される。 The "age" field stores information about the user's age.

(1-3-2)商品情報データベース
第1実施形態の商品情報データベースについて説明する。図5は、第1実施形態の商品情報データベースのデータ構造を示す図である。
(1-3-2) Product Information Database The product information database of the first embodiment will be described. FIG. 5 is a diagram showing the data structure of the product information database of the first embodiment.

図5の商品情報データベースには、商品に関する商品情報が格納される。
商品情報データベースは、「商品ID」フィールドと、「商品名」フィールドと、「商品画像」フィールドと、「特徴パターン」フィールドと、「商品属性」フィールドと、「反応スコア」フィールドと、を含む。各フィールドは、互いに関連付けられている。
The product information database in FIG. 5 stores product information on products.
The product information database includes a "product ID" field, a "product name" field, a "product image" field, a "feature pattern" field, a "product attribute" field, and a "reaction score" field. Each field is associated with each other.

「商品ID」フィールドには、商品を識別する商品IDが格納される。 A product ID for identifying a product is stored in the “product ID” field.

「商品名」フィールドには、商品の名称に関する情報(例えば、テキスト)が格納される。 The “product name” field stores information (for example, text) regarding the name of the product.

「商品画像」フィールドには、商品(例えば、商品本体、商品のパッケージ、及び、商品の使用状態の少なくとも1つ)の画像情報が格納される。 The “product image” field stores image information of the product (for example, at least one of product body, product package, and product usage state).

「特徴パターン」フィールドには、商品の画像上の特徴のパターンに関する情報が格納される。 The "feature pattern" field stores information about the pattern of features on the product image.

「商品属性」フィールドには、商品の属性に関する商品属性情報が格納される。
「商品属性」フィールドは、「種類」フィールドと、「メーカ」フィールドと、を含む。
The "product attribute" field stores product attribute information relating to product attributes.
The "product attribute" field includes a "type" field and a "manufacturer" field.

「種類」フィールドには、商品の種類(例えば、口紅、又は、化粧水)に関する情報が格納される。 The "type" field stores information about the type of product (for example, lipstick or lotion).

「メーカ」フィールドには、商品の製造者に関する情報(例えば、製造者名を示すテキスト)が格納される。 The "manufacturer" field stores information about the manufacturer of the product (for example, text indicating the manufacturer's name).

「反応スコア」フィールドには、商品に対するユーザの反応のレベルを示す数値(以下「反応スコア」という)が格納される。
「反応スコア」フィールドは、「全体平均」フィールドと、「属性平均」フィールドと、を含む。
The "reaction score" field stores a numerical value (hereinafter referred to as "reaction score") indicating the level of user reaction to the product.
The "response score" field includes an "overall average" field and an "attribute average" field.

「全体平均」フィールドには、全ユーザの反応スコアの平均値が格納される。 The "total average" field stores the average reaction score of all users.

「属性平均」フィールドには、ユーザ属性毎の反応スコアの平均値が格納される。
「属性平均」フィールドは、「性別」フィールドと、「年齢」フィールドと、を含む。
The "attribute average" field stores the average reaction score for each user attribute.
The 'attribute average' field includes a 'sex' field and an 'age' field.

「性別」フィールドには、性別毎の反応スコアの平均値が格納される。 The "gender" field stores the average reaction score for each gender.

「年齢」フィールドには、年齢毎の反応スコアの平均値が格納される。 The "age" field stores the average reaction score for each age.

(1-4)情報処理
第1実施形態の情報処理について説明する。図6は、第1実施形態の情報処理のシーケンス図である。図7~図8は、図6の情報処理において表示される画面例を示す図である。
(1-4) Information Processing Information processing according to the first embodiment will be described. FIG. 6 is a sequence diagram of information processing according to the first embodiment. 7 and 8 are diagrams showing screen examples displayed in the information processing of FIG.

図6に示すように、クライアント装置10は、ログインリクエスト(S100)を実行する。
具体的には、プロセッサ12は、画面P100(図7)をディスプレイ15に表示する。
As shown in FIG. 6, the client device 10 executes a login request (S100).
Specifically, processor 12 displays screen P100 ( FIG. 7 ) on display 15 .

画面P100は、ボタンオブジェクトB100と、フィールドオブジェクトF100と、を含む。
フィールドオブジェクトF100は、ユーザIDの入力を受け付けるオブジェクトである。
ボタンオブジェクトB100は、ログインのためのユーザ指示を受け付けるオブジェクトである。
A screen P100 includes a button object B100 and a field object F100.
A field object F100 is an object that receives an input of a user ID.
A button object B100 is an object that receives a user instruction for login.

ユーザが、フィールドオブジェクトF100にユーザIDを入力し、且つ、ボタンオブジェクトB100を操作すると、プロセッサ12は、ログインリクエストデータをサーバ30に送信する。
ログインリクエストデータは、フィールドオブジェクトF100に入力されたユーザIDを含む。
When the user inputs the user ID into the field object F100 and operates the button object B100, the processor 12 transmits login request data to the server 30. FIG.
The login request data includes the user ID entered in field object F100.

ステップS100の後、サーバ30は、ログイン認証(S300)を実行する。
具体的には、プロセッサ32は、ログインリクエストデータに含まれるユーザIDがユーザ情報データベース(図4)に含まれる場合、ログインを認証するためのログインレスポンスデータをクライアント装置10に送信する。
After step S100, the server 30 performs login authentication (S300).
Specifically, when the user ID included in the login request data is included in the user information database (FIG. 4), the processor 32 transmits login response data for authenticating login to the client device 10 .

ステップS300の後、クライアント装置10は、表情情報の取得(S101)を実行する。 After step S300, the client device 10 acquires facial expression information (S101).

ステップS101の第1例として、プロセッサ12は、ログインレスポンスデータを受信すると、画面P101(図7)をディスプレイ15に表示する。 As a first example of step S101, the processor 12 displays a screen P101 (FIG. 7) on the display 15 upon receiving the login response data.

画面P101は、表示オブジェクトA101と、ボタンオブジェクトB101と、を含む。
表示オブジェクトA101には、カメラ16が撮像した画像が表示される。カメラ16が撮像した画像は、ユーザの顔の画像IMG101aと、商品の画像IMG101bと、を含む。
ボタンオブジェクトB101は、ビデオデータの取得のためのユーザ指示を受け付けるオブジェクトである。
The screen P101 includes a display object A101 and a button object B101.
An image captured by the camera 16 is displayed on the display object A101. The images captured by the camera 16 include an image IMG101a of the user's face and an image IMG101b of the product.
The button object B101 is an object that receives a user instruction for acquiring video data.

ユーザがボタンオブジェクトB101を操作すると、プロセッサ12は、ビデオデータ(「表情情報」の一例)を生成し、且つ、当該ビデオデータを記憶装置11に記憶する。ビデオデータは、カメラ16によって撮像された動画像と、音声入出力装置17によって入力された音声と、を含む。 When the user operates the button object B<b>101 , the processor 12 generates video data (an example of “facial expression information”) and stores the video data in the storage device 11 . The video data includes moving images captured by the camera 16 and audio input by the audio input/output device 17 .

ステップS101の第2例として、クライアント装置10は、計測装置に接続されている。計測装置は、例えば、ユーザの顔に装着される電極から表情筋の動きに関する表情筋信号を取得するように構成される。プロセッサ12は、計測装置から表情筋信号を取得する。 As a second example of step S101, the client device 10 is connected to a measuring device. The measuring device is configured, for example, to acquire facial muscle signals related to facial muscle movements from electrodes worn on the user's face. The processor 12 acquires facial muscle signals from the measuring device.

ステップS101の後、クライアント装置10は、商品の特定(S102)を実行する。 After step S101, the client device 10 executes product identification (S102).

ステップS102の第1例として、プロセッサ12は、ユーザ指示(例えば、ディスプレイ15に表示された画面に含まれるフィールドオブジェクトに対する商品情報)に基づいて、商品の商品IDを特定する。 As a first example of step S102, the processor 12 identifies the product ID of the product based on a user instruction (for example, product information for a field object included in the screen displayed on the display 15).

ステップS102の第2例として、プロセッサ12は、ステップS101で取得したビデオデータに含まれる商品の画像IMG101bに対して特徴量解析を適用することにより、画像IMG101bの特徴量を抽出する。
プロセッサ12は、抽出した特徴量と、商品情報データベース(図5)の「特徴パターン」フィールドの情報と、を比較することにより、画像IMG101bが表す商品の商品IDを特定する。
As a second example of step S102, the processor 12 extracts the feature amount of the image IMG101b by applying the feature amount analysis to the product image IMG101b included in the video data acquired in step S101.
Processor 12 identifies the product ID of the product represented by image IMG101b by comparing the extracted feature amount with the information in the "characteristic pattern" field of the product information database (FIG. 5).

ステップS102の第3例として、ユーザが商品情報(例えば、商品名)の音声を発すると、音声入出力装置17は、ユーザが発した音声を入力する。
プロセッサ12は、音声入出力装置17によって入力された音声を解析することにより、商品名を特定する。
プロセッサ12は、商品情報データベース(図5)を参照して、特定した商品名に関連付けられた商品IDを特定する。
As a third example of step S102, when the user utters the product information (for example, product name), the voice input/output device 17 inputs the voice uttered by the user.
Processor 12 identifies the product name by analyzing the voice input by voice input/output device 17 .
The processor 12 refers to the product information database (FIG. 5) to identify the product ID associated with the identified product name.

ステップS102の後、クライアント装置10は、ステップS101で得られた表情情報に対して、表情解析(S103)を実行する。 After step S102, the client device 10 performs facial expression analysis (S103) on the facial expression information obtained in step S101.

ステップS103の第1例として、プロセッサ12は、ステップS101で取得したビデオデータに含まれる顔の画像IMG101aに対して、顔面動作符号化システム(以下「FACS」(Facial Action Coding System)という)理論に基づく画像解析を実行することにより、顔の部位毎に、動きの変化のレベルに関するアクションユニット情報を生成する。このアクションユニット情報は、商品に対するユーザの表情の変化を示す表情変化指標の一例である。 As a first example of step S103, the processor 12 applies facial action coding system (hereinafter referred to as "FACS") theory to the facial image IMG101a included in the video data acquired in step S101. By performing image analysis based on the facial features, action unit information is generated regarding the level of change in motion for each part of the face. This action unit information is an example of an expression change index indicating a change in the user's expression with respect to the product.

ステップS103の第2例として、プロセッサ12は、ステップS101で取得した表情筋信号から、表情筋筋電図(「表情変化指標」の一例)を生成する。 As a second example of step S103, the processor 12 generates a facial muscle electromyogram (an example of a "facial expression change index") from the facial muscle signal acquired in step S101.

ステップS103の後、クライアント装置10は、ステップS103で得られた表情変化指標に基づいて、感情の推定(S104)を実行する。 After step S103, the client device 10 performs emotion estimation (S104) based on the facial expression change index obtained in step S103.

ステップS104の第1例としては、プロセッサ12は、各部位のアクションユニット情報を、感情を推定するための感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
感情情報は、例えば、以下の情報を含む。
・感情の種類(一例として、喜び、悲しみ、怒り、驚き、恐怖、又は、苛立ち)に関する情報
・感情の強度に関する情報
As a first example of step S104, the processor 12 applies the action unit information of each part to an emotion estimation formula for estimating an emotion, so that each image frame constituting the video data has an emotion related to the user's emotion. Infer emotional information.
Emotion information includes, for example, the following information.
・Information about the type of emotion (for example, joy, sadness, anger, surprise, fear, or irritation) ・Information about the intensity of the emotion

ステップS104の第2例としては、記憶装置11には、表情筋筋電図とユーザの感情との関係を示す基準情報が記憶されている。プロセッサ12は、表情筋筋電図と、記憶装置11に記憶された基準情報と、を対比することにより、ユーザの感情に関する感情情報を推定する。 As a second example of step S104, the storage device 11 stores reference information indicating the relationship between the facial electromyogram and the user's emotion. The processor 12 compares the electromyogram of facial muscles with the reference information stored in the storage device 11 to estimate emotion information related to the user's emotion.

ステップS104の第3例としては、プロセッサ12は、アクションユニット情報から推定した感情情報と、表情筋筋電図から推定した感情情報と、に所定のアルゴリズムを適用することにより、アクションユニット情報及び表情筋筋電図の両方に基づく感情情報を推定する。 As a third example of step S104, the processor 12 applies a predetermined algorithm to the emotion information estimated from the action unit information and the emotion information estimated from the facial electromyogram to obtain the action unit information and facial expression Estimate emotional information based on both electromyography.

ステップS104の後、クライアント装置10は、ステップS104で得られた表情変化指標に基づいて、反応スコアの計算(S105)を実行する。
具体的には、プロセッサ12は、商品情報データベース(図5)を参照して、ステップS102で特定した商品IDに関連付けられた商品名に関する情報を特定する。
プロセッサ12は、ステップS104で推定した感情情報(つまり、ユーザの表情の変化から得られる感情情報)を、反応スコアの計算式に適用することにより、反応スコアを計算する。
プロセッサ12は、ステップS104で推定した感情情報、及び、ステップS105で計算した反応スコアに基づく画面P102(図8)をディスプレイ15に表示する。
After step S104, the client device 10 calculates a reaction score (S105) based on the facial expression change index obtained in step S104.
Specifically, the processor 12 refers to the product information database (FIG. 5) to identify information regarding the product name associated with the product ID identified in step S102.
The processor 12 calculates the reaction score by applying the emotion information estimated in step S104 (that is, the emotion information obtained from the change in the user's facial expression) to the reaction score calculation formula.
The processor 12 displays on the display 15 a screen P102 (FIG. 8) based on the emotion information estimated in step S104 and the reaction score calculated in step S105.

画面P102は、表示オブジェクトA101、A102a、及びA102bと、ボタンオブジェクトB102と、を含む。
表示オブジェクトA101は、画面P101(図7)と同様である。
表示オブジェクトA102aには、グラフ画像IMG102が表示される。グラフ画像IMG102は、感情の種類(例えば、喜び(HAPPY)及び悲しみ(SAD))毎に、ビデオデータを構成する画像フレーム(F)毎の感情情報(EMOTION LEVEL)の推移(つまり、商品に対するユーザの感情の時系列変化)を示している。
表示オブジェクトA102bには、ステップS102で特定した商品情報と、ステップS105で計算した反応スコアと、が表示される。
ボタンオブジェクトB102は、更新リクエスト(S106)を実行させるためのユーザ指示を受け付けるオブジェクトである。
The screen P102 includes display objects A101, A102a, and A102b, and a button object B102.
The display object A101 is the same as the screen P101 (FIG. 7).
A graph image IMG102 is displayed in the display object A102a. The graph image IMG 102 shows transitions of emotional information (EMOTION LEVEL) for each image frame (F) constituting video data (that is, user time-series changes in emotions).
The product information specified in step S102 and the reaction score calculated in step S105 are displayed on the display object A102b.
The button object B102 is an object that receives a user instruction for executing the update request (S106).

ステップS105の後、クライアント装置10は、更新リクエスト(S106)を実行する。
具体的には、ユーザがボタンオブジェクトB102を操作すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。
更新リクエストデータは、以下の情報を含む。
・ステップS102で特定された商品ID
・ステップS105で計算された反応スコア
After step S105, the client device 10 executes the update request (S106).
Specifically, when the user operates the button object B102, the processor 12 transmits update request data to the server 30. FIG.
The update request data contains the following information.
・Product ID specified in step S102
- The reaction score calculated in step S105

ステップS106の後、サーバ30は、データベースの更新(S301)を実行する。
具体的には、プロセッサ32は、ユーザ情報データベース(図4)を参照して、ログインリクエストデータに含まれるユーザIDに関連付けられたユーザ属性情報を特定する。
プロセッサ32は、商品情報データベース(図5)を参照して、更新リクエストデータに含まれる商品IDに関連付けられたレコード(以下「更新対象レコード」という)を特定する。
プロセッサ32は、更新対象レコードの「反応スコア」フィールドの値を以下のとおり更新する。
・「全体平均」フィールドでは、更新リクエストデータに含まれる反応スコアに基づいて、平均値が更新される。
・「属性平均」フィールドでは、更新リクエストデータに含まれる反応スコアと、特定したユーザ属性情報と、に基づいて平均値が更新される。
After step S106, the server 30 updates the database (S301).
Specifically, processor 32 refers to the user information database (FIG. 4) to identify user attribute information associated with the user ID included in the login request data.
The processor 32 refers to the product information database (FIG. 5) to identify a record associated with the product ID included in the update request data (hereinafter referred to as "update target record").
The processor 32 updates the value of the "reaction score" field of the record to be updated as follows.
- In the "overall average" field, the average value is updated based on the response score included in the update request data.
- In the "attribute average" field, the average value is updated based on the response score included in the update request data and the specified user attribute information.

本実施形態によれば、ユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標を得ることができる。 According to this embodiment, the reaction score is calculated based on changes in the user's facial expression. As a result, it is possible to obtain an index of the user's objective evaluation of the product.

(2)第2実施形態
第2実施形態について説明する。第2実施形態は、会話中のユーザの表情の変化に基づいて、商品に対するユーザの反応スコアを取得する例である。
(2) Second Embodiment A second embodiment will be described. The second embodiment is an example of acquiring a user's reaction score to a product based on changes in the user's facial expression during conversation.

(2-1)第2実施形態の概要
第2実施形態の概要について説明する。図9は、第2実施形態の概要の説明図である。
(2-1) Outline of Second Embodiment An outline of the second embodiment will be described. FIG. 9 is an explanatory diagram of the outline of the second embodiment.

図9に示すように、クライアント装置10-1は、ユーザAの顔を含む動画像をサーバ30に送信する。クライアント装置10-2は、ユーザBの顔を含む動画像をサーバ30に送信する。これにより、クライアント装置10-1のユーザA、及び、クライアント装置10-2のユーザBは、サーバ30を介して、ビデオ通話を行う。 As shown in FIG. 9, the client device 10-1 transmits a moving image including the user A's face to the server 30. As shown in FIG. The client device 10 - 2 transmits the moving image including the user B's face to the server 30 . As a result, user A of the client device 10-1 and user B of the client device 10-2 make video calls via the server 30. FIG.

商品を所有するユーザAが、クライアント装置10-1を用いて、自身の顔を含む動画像を撮影すると、サーバ30は、評価の対象となる商品に関する商品情報を特定する。
サーバ30は、商品情報の特定に成功した場合、動画像に含まれるユーザAの顔の画像を解析する。
サーバ30は、解析の結果に基づいて、商品に対するユーザAの反応に関する指標である反応スコアを計算する。
When user A, who owns a product, uses client device 10-1 to capture a moving image including his/her own face, server 30 identifies product information related to the product to be evaluated.
When the server 30 succeeds in identifying the product information, the server 30 analyzes the image of the user A's face included in the moving image.
The server 30 calculates a reaction score, which is an index of user A's reaction to the product, based on the analysis result.

このように、サーバ30は、商品を所有するユーザAと、ユーザBとの会話中に、ユーザAの顔の画像の解析の結果に基づいて、当該商品に対するユーザAの反応スコアを計算する。 In this way, the server 30 calculates the reaction score of the user A to the product based on the analysis result of the face image of the user A during the conversation between the user A who owns the product and the user B.

これにより、商品についてユーザBと会話しているユーザAの商品に対する客観的な評価の指標を得ることができる。 As a result, it is possible to obtain an objective evaluation index of the product of the user A who is having a conversation with the user B about the product.

(2-2)情報処理
第2実施形態の情報処理について説明する。図10は、第2実施形態の情報処理のシーケンス図である。図11~図12は、図10の情報処理において表示される画面例を示す図である。
(2-2) Information processing Information processing according to the second embodiment will be described. FIG. 10 is a sequence diagram of information processing according to the second embodiment. 11 and 12 are diagrams showing screen examples displayed in the information processing of FIG.

図10に示すように、クライアント装置10-1及び10-2は、第1実施形態(図6)と同様に、ログインリクエスト(S100)を実行する。
ステップS100の後、サーバ30は、第1実施形態と同様に、ログイン認証(S300)を実行する。
As shown in FIG. 10, the client devices 10-1 and 10-2 execute login requests (S100) as in the first embodiment (FIG. 6).
After step S100, the server 30 performs login authentication (S300) as in the first embodiment.

ステップS300の後、クライアント装置10-1及び10-2は、サーバ30を介して、ビデオ通話シーケンス(S310)を開始する。
具体的には、クライアント装置10-1のプロセッサ12は、ユーザAの顔を含む動画像をサーバ30に送信する。プロセッサ32は、この動画像をクライアント装置10-2に送信する。
クライアント装置10-2のプロセッサ12は、ユーザBの顔を含む動画像をサーバ30に送信する。プロセッサ32は、この動画像をクライアント装置10-1に送信する。
After step S300, the client devices 10-1 and 10-2 initiate a video call sequence (S310) via the server 30. FIG.
Specifically, processor 12 of client device 10 - 1 transmits a moving image including user A's face to server 30 . Processor 32 transmits this moving image to client device 10-2.
Processor 12 of client device 10 - 2 transmits the moving image including user B's face to server 30 . The processor 32 transmits this moving image to the client device 10-1.

クライアント装置10-1のプロセッサ12は、ディスプレイ15に画面P110-1(図11A)を表示する。
画面P110-1は、表示オブジェクトA110-1a~A110-1bを含む。
表示オブジェクトA110-1aには、クライアント装置10-1のカメラ16が撮像した画像が表示される。このカメラ16が撮像した画像は、ユーザAの顔の画像IMG110-1aと、商品の画像IMG110-1bと、を含む。
表示オブジェクトA110-1bには、クライアント装置10-2から送信された動画像が表示される。この動画像は、クライアント装置10-2のユーザBの顔の画像IMG110-1cを含む。
Processor 12 of client device 10-1 displays screen P110-1 (FIG. 11A) on display 15. FIG.
The screen P110-1 includes display objects A110-1a to A110-1b.
An image captured by the camera 16 of the client device 10-1 is displayed in the display object A110-1a. The images captured by the camera 16 include an image IMG110-1a of the user A's face and an image IMG110-1b of the product.
The moving image transmitted from the client device 10-2 is displayed on the display object A110-1b. This moving image includes an image IMG110-1c of the face of user B of client device 10-2.

クライアント装置10-2のプロセッサ12は、ディスプレイ15に画面P110-2(図11B)を表示する。
画面P110-2は、表示オブジェクトA110-2a~A110-2bを含む。
表示オブジェクトA110-2aには、クライアント装置10-2のカメラ16が撮像した画像が表示される。このカメラ16が撮像した画像は、ユーザBの顔の画像IMG110-2aを含む。
表示オブジェクトA110-2bには、クライアント装置10-1から送信された動画像が表示される。この動画像は、クライアント装置10-1のユーザAの顔の画像IMG110-2bと、商品の画像IMG110-2cと、を含む。
Processor 12 of client device 10-2 displays screen P110-2 (FIG. 11B) on display 15. FIG.
Screen P110-2 includes display objects A110-2a to A110-2b.
An image captured by the camera 16 of the client device 10-2 is displayed in the display object A110-2a. The image captured by this camera 16 includes an image IMG110-2a of user B's face.
A moving image transmitted from the client device 10-1 is displayed on the display object A110-2b. This moving image includes an image IMG110-2b of the face of user A of client device 10-1 and an image IMG110-2c of a product.

ステップS310の後、サーバ30は、商品の特定(S311)を実行する。 After step S310, the server 30 executes product identification (S311).

ステップS311の第1例として、プロセッサ12は、ユーザ指示(例えば、ディスプレイ15に表示された画面に含まれるフィールドオブジェクトに対する商品情報)をサーバ30に送信する。
プロセッサ32は、プロセッサ12によって送信されたユーザ指示に基づいて、商品の商品IDを特定する。
As a first example of step S<b>311 , the processor 12 transmits to the server 30 user instructions (for example, product information for field objects included in the screen displayed on the display 15 ).
Processor 32 identifies the product ID of the product based on the user instruction sent by processor 12 .

ステップS311の第2例として、プロセッサ32は、ステップS310で取得したビデオデータに含まれる商品の画像IMG110-1bに対して、特徴量解析を適用することにより、画像IMG110-1bの特徴量を抽出する。
プロセッサ32は、抽出した特徴量と、商品情報データベース(図5)の「特徴パターン」フィールドの情報とを比較することにより、画像IMG110-1bが表す商品の商品IDを特定する。
As a second example of step S311, processor 32 extracts the feature amount of image IMG110-1b by applying feature amount analysis to product image IMG110-1b included in the video data acquired in step S310. do.
Processor 32 identifies the product ID of the product represented by image IMG110-1b by comparing the extracted feature quantity with the information in the “feature pattern” field of the product information database (FIG. 5).

ステップS311の第3例として、ユーザが商品情報(例えば、商品名)の音声を発すると、音声入出力装置17は、ユーザが発した音声を入力する。
プロセッサ12は、音声入出力装置17によって入力された音声をサーバ30に送信する。
プロセッサ32は、プロセッサ12によって送信された音声を解析することにより、商品名を特定する。
プロセッサ32は、商品情報データベース(図5)を参照して、特定した商品名に関連付けられた商品IDを特定する。
As a third example of step S311, when the user utters the product information (for example, product name), the voice input/output device 17 inputs the voice uttered by the user.
The processor 12 transmits the voice input by the voice input/output device 17 to the server 30 .
Processor 32 identifies the product name by analyzing the voice transmitted by processor 12 .
Processor 32 identifies the product ID associated with the identified product name by referring to the product information database (FIG. 5).

ステップS311の後、サーバ30は、顔画像解析(S312)を実行する。
具体的には、プロセッサ32は、ステップS310で取得したビデオデータに含まれる顔の画像IMG110-1aに対して、FACS理論に基づく画像解析を実行することにより、ユーザAの顔の部位毎に、動きの変化のレベルに関するアクションユニット情報を生成する。
After step S311, the server 30 performs face image analysis (S312).
Specifically, the processor 32 performs image analysis based on the FACS theory on the face image IMG110-1a included in the video data acquired in step S310, so that for each part of the user A's face, Generate action unit information about the level of movement change.

ステップS312の後、サーバ30は、感情の推定(S313)を実行する。
具体的には、プロセッサ32は、ユーザAの各部位のアクションユニット情報を、感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザAの感情に関する感情情報を推定する。
After step S312, the server 30 performs emotion estimation (S313).
Specifically, the processor 32 applies the action unit information of each part of the user A to the emotion estimation formula, thereby estimating emotion information related to the emotion of the user A for each image frame forming the video data.

ステップS313の後、サーバ30は、反応スコアの計算(S314)を実行する。
具体的には、プロセッサ32は、商品情報データベース(図5)を参照して、ステップS311で特定した商品IDに関連付けられた商品名に関する情報を特定する。
プロセッサ32は、ステップS313で推定したユーザAの感情情報(つまり、ビデオデータを構成する全ての画像フレームに対応する感情情報)を、反応スコアの計算式に適用することにより、ユーザAの反応スコアを計算する。
プロセッサ32は、計算した反応スコアに関する情報を、クライアント装置10-1及び10-2に送信する。
After step S313, the server 30 performs reaction score calculation (S314).
Specifically, the processor 32 refers to the product information database (FIG. 5) to identify information regarding the product name associated with the product ID identified in step S311.
The processor 32 applies the user A's emotion information estimated in step S313 (that is, the emotion information corresponding to all the image frames forming the video data) to the reaction score calculation formula to calculate the user A's reaction score. to calculate
Processor 32 transmits information regarding the calculated reaction scores to client devices 10-1 and 10-2.

ステップS314の後、クライアント装置10-1及び10-2は、反応スコアの提示(S110)を実行する。
具体的には、プロセッサ12は、ステップS314においてサーバ30から送信された反応スコアに基づく画面P112(図12)をディスプレイ15に表示する。
After step S314, the client devices 10-1 and 10-2 present reaction scores (S110).
Specifically, the processor 12 displays on the display 15 a screen P112 (FIG. 12) based on the reaction score transmitted from the server 30 in step S314.

画面P112は、画面P110-1(図11)と同様のオブジェクト(表示オブジェクトA110-1a及びA110-1b)に加えて、表示オブジェクトA112a~112bと、ボタンオブジェクトB112と、を含む。
表示オブジェクトA112aには、グラフ画像IMG112aが表示される。グラフ画像IMG112aは、ユーザAの感情の種類(例えば、喜び(HAPPY)及び悲しみ(SAD))毎に、ビデオデータを構成する画像フレーム(F)毎の感情情報(EMOTION LEVEL)の推移(つまり、商品に対するユーザAの感情の時系列変化)を示している。
表示オブジェクトA112bには、ユーザAの反応スコアが表示される。
ボタンオブジェクトB112は、動画の撮影を終了するためのユーザ指示を受け付けるオブジェクトである。
The screen P112 includes display objects A112a-112b and a button object B112 in addition to the same objects (display objects A110-1a and A110-1b) as the screen P110-1 (FIG. 11).
A graph image IMG112a is displayed on the display object A112a. The graph image IMG112a shows transitions (i.e., 4 shows a time-series change in user A's feelings toward the product).
User A's reaction score is displayed on the display object A 112b.
The button object B112 is an object that receives a user's instruction to end shooting a moving image.

ステップS110の後、クライアント装置10-1は、更新リクエスト(S112)を実行する。
具体的には、ユーザAがボタンオブジェクトB112を操作すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。
After step S110, the client device 10-1 executes the update request (S112).
Specifically, when user A operates button object B 112 , processor 12 transmits update request data to server 30 .

ステップS112の後、サーバ30は、データベースの更新(S315)を実行する。
具体的には、プロセッサ32は、ユーザ情報データベース(図4)を参照して、ログインリクエストデータに含まれるユーザIDに関連付けられたユーザ属性情報を特定する。
プロセッサ32は、商品情報データベース(図5)を参照して、ステップS311で特定した商品IDに関連付けられたレコード(以下「更新対象レコード」という)を特定する。
プロセッサ32は、更新対象レコードの「反応スコア」フィールドの値を以下のとおり更新する。
・「全体平均」フィールドでは、ステップS314で計算した反応スコアに基づいて、平均値が更新される。
・「属性平均」フィールドでは、ステップS314で計算した反応スコアと、特定したユーザ属性情報と、に基づいて平均値が更新される。
After step S112, the server 30 updates the database (S315).
Specifically, processor 32 refers to the user information database (FIG. 4) to identify user attribute information associated with the user ID included in the login request data.
The processor 32 refers to the product information database (FIG. 5) to identify a record associated with the product ID identified in step S311 (hereinafter referred to as "update target record").
The processor 32 updates the value of the "reaction score" field of the record to be updated as follows.
- In the "overall average" field, the average value is updated based on the reaction score calculated in step S314.
- In the "attribute average" field, the average value is updated based on the reaction score calculated in step S314 and the specified user attribute information.

人の感情は、他人との会話中により強く現れる。第2実施形態によれば、ユーザBと商品について会話するユーザAの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザAの客観的な評価の指標の精度を向上させることができる。 A person's emotions appear more strongly during a conversation with another person. According to the second embodiment, the reaction score is calculated based on the change in facial expression of user A who is having a conversation with user B about products. As a result, it is possible to improve the accuracy of the user A's objective evaluation index for the product.

(2-3)第2実施形態の変形例
第2実施形態の変形例について説明する。
(2-3) Modification of Second Embodiment A modification of the second embodiment will be described.

(2-3-1)第2実施形態の変形例1
第2実施形態の変形例1について説明する。第2実施形態の変形例1では、会話中のユーザの両方の反応スコアを計算する。図13は、第2実施形態の変形例1の情報処理において表示される画面例を示す図である。
(2-3-1) Modification 1 of Second Embodiment
Modification 1 of the second embodiment will be described. In Modification 1 of the second embodiment, reaction scores of both users in conversation are calculated. FIG. 13 is a diagram showing an example of a screen displayed in information processing according to modification 1 of the second embodiment.

第2実施形態の変形例1のプロセッサ32は、ステップS312において、ユーザAの反応スコアと、ユーザBの反応スコアと、を計算する。 The processor 32 of Modification 1 of the second embodiment calculates the reaction score of User A and the reaction score of User B in step S312.

第2実施形態の変形例1のプロセッサ12は、ステップS110において、画面P114(図13)をディスプレイ15に表示する。 The processor 12 of Modification 1 of the second embodiment displays a screen P114 (FIG. 13) on the display 15 in step S110.

画面P114は、画面P112(図12)と同様のオブジェクトに加えて、表示オブジェクトA114a~A114bを含む。
表示オブジェクトA114aには、グラフ画像IMG114aが表示される。グラフ画像IMG114aは、ユーザBの感情の種類(例えば、喜び(HAPPY)及び悲しみ(SAD))毎に、ビデオデータを構成する画像フレーム(F)毎の感情情報(EMOTION LEVEL)の推移(つまり、商品に対するユーザAの感情の時系列変化)を示している。
表示オブジェクトA114bには、ユーザBの反応スコアが表示される。
Screen P114 includes display objects A114a-A114b in addition to the same objects as screen P112 (FIG. 12).
A graph image IMG114a is displayed on the display object A114a. The graph image IMG 114a shows changes in emotional information (EMOTION LEVEL) for each image frame (F) that constitutes the video data for each type of user B's emotion (for example, happiness (HAPPY) and sadness (SAD)) (that is, 4 shows a time-series change in user A's feelings toward the product).
User B's reaction score is displayed on the display object A 114b.

(2-3-2)第2実施形態の変形例2
第2実施形態の変形例2について説明する。第2実施形態の変形例2では、会話中のユーザのうち、商品を所有するユーザの表情を優先して、反応スコアを計算する。
(2-3-2) Modification 2 of Second Embodiment
Modification 2 of the second embodiment will be described. In Modified Example 2 of the second embodiment, the reaction score is calculated by prioritizing the facial expression of the user who owns the product among the users who are in conversation.

第2実施形態の変形例2のプロセッサ32は、ステップS312において、以下の何れかに該当するユーザ(つまり、商品への関心が相対的に高いユーザ)を第1ユーザとして特定し、第1ユーザ以外のユーザを第2ユーザとして特定する。
・商品情報を指定したユーザ
・ビデオデータに商品の画像が含まれるクライアント装置10のユーザ
・商品情報の音声を最初に発したユーザ
In step S312, the processor 32 of Modification 2 of the second embodiment identifies a user who corresponds to any of the following (that is, a user who has a relatively high interest in the product) as the first user, and the first user A user other than the user is specified as a second user.
- The user who specified the product information - The user of the client device 10 whose video data contains the image of the product - The user who first uttered the sound of the product information

記憶装置31に記憶された感情推定式は、第1ユーザのための第1重み付け係数と、第2ユーザのための第2重み付け係数と、を含む。第1重み付け係数は、第2重み付け係数より大きい。つまり、この感情推定式では、第1ユーザの表情を第2ユーザより重視して、反応スコアが計算される。 The emotion estimation formula stored in the storage device 31 includes a first weighting factor for the first user and a second weighting factor for the second user. The first weighting factor is greater than the second weighting factor. That is, in this emotion estimation formula, the reaction score is calculated with more emphasis placed on the facial expression of the first user than that of the second user.

プロセッサ32は、ステップS312において、第1ユーザの第1アクションユニット情報と、第2ユーザの第2アクションユニット情報と、を生成する。 The processor 32 generates first action unit information for the first user and second action unit information for the second user in step S312.

プロセッサ32は、ステップS313において、第1アクションユニット情報及び第2アクションユニット情報を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、感情情報を推定する。この場合、第1アクションユニット情報は第1重み付け係数に適用される。第2アクションユニット情報は第2重み付け係数に適用される。 In step S313, the processor 32 estimates emotion information for each image frame forming the video data by applying the first action unit information and the second action unit information to the emotion estimation formula. In this case, the first action unit information is applied to the first weighting factor. The second action unit information is applied to the second weighting factor.

第2実施形態の変形例2によれば、複数のユーザの顔の表情の変化に基づいて反応スコアを計算する場合において、商品を所有するユーザAの表情を重視する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to Modified Example 2 of the second embodiment, when calculating reaction scores based on changes in the facial expressions of a plurality of users, emphasis is placed on the facial expressions of user A who owns the product. As a result, it is possible to improve the accuracy of the user's objective evaluation index for the product.

(3)第3実施形態
第3実施形態について説明する。第3実施形態は、仮想的な人物(以下「アバタ」という)との会話中のユーザの表情の変化に基づいて、商品に対するユーザの反応スコアを取得する例である。
(3) Third Embodiment A third embodiment will be described. The third embodiment is an example of acquiring a user's reaction score to a product based on changes in the user's facial expression during conversation with a virtual person (hereinafter referred to as "avatar").

(3-1)第3実施形態の概要
第3実施形態の概要について説明する。図14は、第3実施形態の概要の説明図である。
(3-1) Outline of Third Embodiment An outline of the third embodiment will be described. FIG. 14 is an explanatory diagram of the outline of the third embodiment.

図14に示すように、クライアント装置10のユーザは、クライアント装置10を用いて商品の動画像を撮影し、且つ、アバタとの会話を行う。 As shown in FIG. 14, the user of the client device 10 uses the client device 10 to take a moving image of the product and to have a conversation with the avatar.

クライアント装置10は、評価の対象となる商品に関する商品情報を特定する。
クライアント装置10は、商品情報の特定に成功した場合、動画像に含まれるユーザの顔の画像を解析する。
クライアント装置10は、解析の結果に基づいて、商品に対するユーザの反応に関する指標である反応スコアを計算する。
The client device 10 identifies product information related to products to be evaluated.
The client device 10 analyzes the image of the user's face included in the moving image when the identification of the product information is successful.
The client device 10 calculates a reaction score, which is an index of the user's reaction to the product, based on the analysis result.

このように、クライアント装置10は、商品情報を特定することができた場合、アバタと会話するユーザの顔の画像の解析の結果に基づいて、当該商品情報に対応する商品に対するユーザの反応スコアを計算する。
これにより、商品に対する客観的な評価の指標を得ることができる。
In this way, when the product information can be specified, the client device 10 calculates the reaction score of the user for the product corresponding to the product information based on the analysis result of the face image of the user who is talking with the avatar. calculate.
This makes it possible to obtain an objective evaluation index for the product.

(3-2)情報処理
第3実施形態の情報処理について説明する。図15は、第3実施形態の情報処理のシーケンス図である。図16は、図15の情報処理において表示される画面例を示す図である。
(3-2) Information processing Information processing according to the third embodiment will be described. FIG. 15 is a sequence diagram of information processing according to the third embodiment. 16 is a diagram showing an example of a screen displayed in the information processing of FIG. 15. FIG.

図15に示すように、クライアント装置10は、第1実施形態(図6)と同様に、ログインリクエスト(S100)を実行する。
ステップS100の後、サーバ30は、第1実施形態と同様に、ログイン認証(S300)を実行する。
As shown in FIG. 15, the client device 10 executes a login request (S100) as in the first embodiment (FIG. 6).
After step S100, the server 30 performs login authentication (S300) as in the first embodiment.

ステップS300の後、クライアント装置10は、アバタの提示(S120)を実行する。
具体的には、プロセッサ12は、画面P120をディスプレイ15(図16)に表示する。
After step S300, the client device 10 presents the avatar (S120).
Specifically, processor 12 displays screen P120 on display 15 (FIG. 16).

画面P120は、画面P101(図7)と同様のオブジェクトに加えて、表示オブジェクトA120を含む。
表示オブジェクトA120には、アバタの画像IMG120が表示される。アバタは、ユーザに対する問いかけ(例えば「どんな商品?」という質問のテキスト及び音声の少なくとも1つ)を提示する。
Screen P120 includes a display object A120 in addition to the same objects as screen P101 (FIG. 7).
An avatar image IMG120 is displayed on the display object A120. The avatar presents a question to the user (for example, at least one of text and voice of the question "What kind of product?").

ステップS120の後、クライアント装置10は、ビデオデータの取得(S121)を実行する。
具体的には、ユーザがボタンオブジェクトB101を操作し、且つ、アバタの問いかけに対して回答(例えば、回答に関するテキスト及び音声の少なくとも1つ)の入力を行うと、プロセッサ12は、ビデオデータを生成し、且つ、当該ビデオデータ及び回答に関する情報を記憶装置11に記憶する。ビデオデータは、カメラ16によって撮像された動画像と、音声入出力装置17によって入力された音声と、を含む。
After step S120, the client device 10 acquires video data (S121).
Specifically, when the user operates the button object B101 and inputs an answer (for example, at least one of text and voice regarding the answer) to the avatar's question, the processor 12 generates video data. and store the video data and information about the answer in the storage device 11 . The video data includes moving images captured by the camera 16 and audio input by the audio input/output device 17 .

ステップS121の後、クライアント装置10は、第1実施形態(図6)と同様に、ステップS102~S106を実行する。
ステップS106の後、サーバ30は、第1実施形態と同様に、ステップS301を実行する。
After step S121, the client device 10 executes steps S102 to S106 as in the first embodiment (FIG. 6).
After step S106, the server 30 executes step S301 as in the first embodiment.

人の感情は、他人との会話中により強く現れる。第3実施形態によれば、他のユーザが存在しなくても、アバタと商品について会話するユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 A person's emotions appear more strongly during a conversation with another person. According to the third embodiment, the reaction score is calculated based on the change in facial expression of the user who is having a conversation with the avatar about the product, even if no other user is present. As a result, it is possible to improve the accuracy of the user's objective evaluation index for the product.

(4)変形例
本実施形態の変形例について説明する。
(4) Modification A modification of the present embodiment will be described.

(4-1)変形例1
変形例1について説明する。変形例1は、表情の変化及び音声を考慮して反応スコアを計算する例である。
(4-1) Modification 1
Modification 1 will be described. Modification 1 is an example of calculating a reaction score in consideration of changes in facial expression and voice.

変形例1を第1実施形態に適用する場合、プロセッサ12は、ステップS104において、ビデオデータに含まれる音声の特徴量を抽出する。
プロセッサ12は、アクションユニット情報と、音声の特徴量と、を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
When applying modification 1 to the first embodiment, the processor 12 extracts the audio feature amount included in the video data in step S104.
The processor 12 applies the action unit information and the voice feature amount to the emotion estimation formula to estimate emotion information related to the user's emotion for each image frame forming the video data.

変形例1によれば、表情の変化及び音声を考慮して反応スコアを計算するので、顔画像解析のみを用いる場合よりも反応スコアの精度を向上させることができる。 According to Modification 1, since the reaction score is calculated in consideration of changes in facial expression and voice, it is possible to improve the accuracy of the reaction score compared to the case where only face image analysis is used.

変形例1は、第2実施形態及び第3実施形態にも適用可能である。 Modification 1 is also applicable to the second and third embodiments.

(4-2)変形例2
変形例2ついて説明する。変形例2は、表情の変化及び生体情報を考慮して反応スコアを計算する例である。
(4-2) Modification 2
Modification 2 will be described. Modification 2 is an example of calculating a reaction score in consideration of changes in facial expressions and biometric information.

変形例2では、ユーザは、生体情報を計測可能な計測装置を装着している。生体情報は、例えば、以下の少なくとも1つを含む。
・心拍数
・脳波
・体温
・ストレスホルモンの値
In Modified Example 2, the user is wearing a measurement device capable of measuring biological information. The biometric information includes, for example, at least one of the following.
・Heart rate ・EEG ・Body temperature ・Stress hormone levels

変形例2を第1実施形態に適用する場合、プロセッサ12は、ステップS104において、計測装置から生体情報を取得する。
プロセッサ12は、アクションユニット情報と、生体情報と、を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
When applying modification 2 to the first embodiment, the processor 12 acquires biological information from the measuring device in step S104.
The processor 12 applies the action unit information and the biometric information to the emotion estimation formula to estimate emotion information related to the user's emotion for each image frame forming the video data.

変形例2によれば、表情の変化及び生体情報を考慮して反応スコアを計算するので、顔画像解析のみを用いる場合よりも反応スコアの精度を向上させることができる。 According to Modification 2, since the reaction score is calculated in consideration of changes in facial expression and biometric information, it is possible to improve the accuracy of the reaction score compared to the case where only face image analysis is used.

変形例2は、第2実施形態及び第3実施形態にも適用可能である。 Modification 2 is also applicable to the second and third embodiments.

(4-3)変形例3
変形例3について説明する。変形例3は、表情の変化及び顔の傾きを考慮して、反応スコアを計算する例である。
(4-3) Modification 3
Modification 3 will be described. Modification 3 is an example of calculating a reaction score in consideration of changes in facial expression and inclination of the face.

変形例3を第1実施形態に適用する場合、プロセッサ12は、ステップS103において、アクションユニット情報に加えて、顔の傾きの変化量に関する傾き情報を生成する。
プロセッサ12は、ステップS104において、アクションユニット情報と、傾き情報と、を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
When applying modification 3 to the first embodiment, the processor 12 generates tilt information about the amount of change in tilt of the face in step S103 in addition to the action unit information.
In step S104, the processor 12 applies the action unit information and the tilt information to the emotion estimation formula to estimate emotion information related to the user's emotion for each image frame forming the video data.

変形例3によれば、表情の変化及び顔の傾きを考慮して反応スコアを計算するので、顔画像解析のみを用いる場合よりも反応スコアの精度を向上させることができる。 According to Modified Example 3, since the reaction score is calculated in consideration of changes in facial expression and inclination of the face, it is possible to improve the accuracy of the reaction score compared to the case where only face image analysis is used.

変形例3は、第2実施形態及び第3実施形態にも適用可能である。 Modification 3 is also applicable to the second and third embodiments.

(4-4)変形例4
変形例4について説明する。変形例4は、ユーザの顔の画像を含む静止画像に基づいて、反応スコアを計算する例である。
(4-4) Modification 4
Modification 4 will be described. Modification 4 is an example of calculating a reaction score based on a still image including a user's face image.

変形例4のプロセッサ12は、ステップS101においてビデオデータを生成した場合、ステップS103において、ビデオデータを構成する画像フレームから、所定条件を満たす画像フレームを抽出する。 When the processor 12 of Modification 4 generates video data in step S101, in step S103, the processor 12 extracts an image frame that satisfies a predetermined condition from the image frames forming the video data.

所定条件を満たす画像フレームは、例えば、以下の何れかである。
・ボタンオブジェクトB102が操作された時点の画像フレーム
・ビデオデータを構成する画像フレームのうち、表情の変化量が最も大きい画像フレーム
・ビデオデータを構成する画像フレームのうち、ユーザが指定した画像フレーム(例えば、ユーザが「自身の感情がもっとも表れている」と感じた画像の画像フレーム)
An image frame that satisfies a predetermined condition is, for example, any of the following.
- An image frame at the time when the button object B102 is operated - An image frame with the largest facial expression change amount among the image frames constituting the video data - An image frame designated by the user (among the image frames constituting the video data) For example, the image frame of the image that the user felt "most expresses his feelings")

プロセッサ12は、所定条件を満たす画像フレームに対して、特徴量解析を適用することにより、ユーザの感情に関する感情情報を推定する。 The processor 12 estimates emotion information related to the user's emotion by applying feature amount analysis to image frames that satisfy a predetermined condition.

なお、変形例4では、ステップS101は省略可能である。この場合、クライアント装置10は、ステップS101に変えて、ユーザの顔の画像を含む静止画像を取得する。 Note that in Modification 4, step S101 can be omitted. In this case, the client device 10 obtains a still image including the image of the user's face instead of step S101.

変形例4によれば、静止画像の解析結果に基づいて反応スコアを計算する。これにより、静止画像(つまり、ある時点の表情)からでも、商品に対するユーザの客観的な評価の指標を得ることができる。 According to Modification 4, the reaction score is calculated based on the still image analysis result. As a result, even from a still image (that is, an expression at a certain point in time), it is possible to obtain an index of the user's objective evaluation of the product.

(5)本実施形態の小括
本実施形態について小括する。
(5) Summary of this embodiment This embodiment will be summarized.

本実施形態の第1態様は、
ユーザの表情に関する表情情報を取得する手段(例えば、ステップS101を実行するプロセッサ12)を備え、
商品に関する商品情報を特定する手段(例えば、ステップS102を実行するプロセッサ12)を備え、
商品情報が特定された場合、表情情報に基づいて表情の変化を解析する手段(例えば、ステップS103を実行するプロセッサ12)を備え、
解析の結果に基づいて、商品に対するユーザの反応に関する指標である反応スコアを計算する手段(例えば、ステップS104を実行するプロセッサ12)を備える、
情報処理装置(例えば、クライアント装置10)である。
The first aspect of this embodiment is
A means for acquiring facial expression information related to a user's facial expression (for example, a processor 12 that executes step S101);
A means for specifying product information about the product (for example, a processor 12 that executes step S102);
If product information is specified, means for analyzing changes in facial expression based on facial expression information (for example, processor 12 that executes step S103);
Means (e.g., processor 12 executing step S104) for calculating a reaction score, which is an indicator of the user's reaction to the product, based on the results of the analysis;
An information processing device (for example, the client device 10).

第1態様によれば、ユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標を得ることができる。 According to the first aspect, the reaction score is calculated based on changes in the user's facial expression. As a result, it is possible to obtain an index of the user's objective evaluation of the product.

本実施形態の第2態様は、
取得する手段は、ユーザの顔の画像を含む動画像、及び、ユーザの表情筋筋電図の少なくとも1つを取得する、
情報処理装置である。
A second aspect of the present embodiment is
the acquisition means acquires at least one of a moving image including a user's face image and a user's facial myocardium;
It is an information processing device.

本実施形態の第3態様は、
取得する手段は、商品の画像を含む動画像を更に取得し、
特定する手段は、取得された動画像に含まれる商品の画像に基づいて、商品情報を特定する、
情報処理装置である。
The third aspect of this embodiment is
The acquisition means further acquires a moving image including an image of the product,
The specifying means specifies the product information based on the image of the product included in the acquired moving image.
It is an information processing device.

本実施形態の第4態様は、
少なくとも1人のユーザが発した商品情報を含む音声を取得する手段(例えば、音声入出力装置17)を備え、
特定する手段は、取得された音声に基づいて商品情報を特定する、
情報処理装置である。
The fourth aspect of this embodiment is
A means (for example, a voice input/output device 17) for acquiring voice including product information uttered by at least one user,
The identifying means identifies the product information based on the acquired voice,
It is an information processing device.

本実施形態の第5態様は、
解析する手段は、音声を更に解析する、
情報処理装置である。
The fifth aspect of this embodiment is
The analyzing means further analyzes the voice,
It is an information processing device.

第5態様によれば、ユーザの顔の画像に加えて、ユーザの音声の解析結果を考慮して反応スコアが計算される。これにより、反応スコアの精度を向上させることができる。 According to the fifth aspect, the reaction score is calculated in consideration of the analysis result of the user's voice in addition to the image of the user's face. Thereby, the accuracy of the reaction score can be improved.

本実施形態の第6態様は、
ユーザの生体に関する生体情報 を取得する手段を備え、
計算する手段は、解析の結果と、取得された生体情報と、に基づいて、反応スコアを計算する、
情報処理装置である。
A sixth aspect of the present embodiment is
a means for acquiring biometric information about a user's biometric body;
The calculating means calculates a reaction score based on the analysis result and the acquired biometric information;
It is an information processing device.

第6態様によれば、ユーザの顔の画像に加えて、ユーザの生体情報を考慮して反応スコアが計算される。これにより、反応スコアの精度を向上させることができる。 According to the sixth aspect, the reaction score is calculated in consideration of the biometric information of the user in addition to the image of the user's face. Thereby, the accuracy of the reaction score can be improved.

本実施形態の第7態様は、
解析の結果に基づいて、商品を見ているユーザの顔の傾きを判定する手段を備え、
計算する手段は、傾きを参照して、反応スコアを計算する、
情報処理装置である。
The seventh aspect of this embodiment is
comprising means for determining the tilt of the face of the user looking at the product based on the results of the analysis;
the computing means refers to the slope and computes a response score;
It is an information processing device.

第7態様によれば、ユーザの顔の画像に加えて、ユーザの顔の傾きを考慮して反応スコアが計算される。これにより、反応スコアの精度を向上させることができる。 According to the seventh aspect, the reaction score is calculated in consideration of the inclination of the user's face in addition to the image of the user's face. Thereby, the accuracy of the reaction score can be improved.

本実施形態の第8態様は、
仮想ユーザのアバタ画像、ユーザに対する質問を含むテキストメッセージ、及び、ユーザに対する質問を含む音声メッセージの少なくとも1つをユーザに提示する手段(例えば、ステップS120を実行するプロセッサ12)を備え、
解析する手段は、提示のときの動画像に含まれる顔を解析する、
情報処理装置である。
The eighth aspect of the present embodiment is
means for presenting to the user at least one of an avatar image of the virtual user, a text message containing a question for the user, and a voice message containing a question for the user (e.g., the processor 12 executing step S120);
The analyzing means analyzes the face included in the moving image at the time of presentation,
It is an information processing device.

第8態様によれば、他のユーザが存在しなくても、アバタと商品について会話するユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the eighth aspect, the reaction score is calculated based on the change in facial expression of the user who is having a conversation with the avatar about the product even if no other user is present. As a result, it is possible to improve the accuracy of the user's objective evaluation index for the product.

本実施形態の第9態様は、
商品を使用する第1ユーザの顔の第1画像を含む第1動画像と、第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段(例えば、ステップS310を実行するプロセッサ32)を備え、
商品に関する商品情報を特定する手段(例えば、ステップS311を実行するプロセッサ32)を備え、
商品情報が特定された場合、第1画像を解析する手段(例えば、ステップS312を実行するプロセッサ32)を備え、
解析の結果に基づいて、商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段(例えば、ステップS314を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。
A ninth aspect of the present embodiment is
Means for acquiring a first moving image including a first image of the face of the first user who uses the product and a second moving image including a second image of the face of the second user who interacts with the first user (for example , a processor 32) for executing step S310;
A means for specifying product information about the product (for example, a processor 32 that executes step S311),
means for analyzing the first image when product information is identified (e.g., processor 32 executing step S312);
Means (e.g., processor 32 executing step S314) for calculating a reaction score, which is an indicator of the first user's reaction to the product, based on the results of the analysis;
An information processing device (for example, server 30).

第9態様によれば、ユーザBと商品について会話するユーザAの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザAの客観的な評価の指標の精度を向上させることができる。 According to the ninth aspect, the reaction score is calculated based on the change in the facial expression of user A who is having a conversation with user B about products. As a result, it is possible to improve the accuracy of the user A's objective evaluation index for the product.

本実施形態の第10態様は、
解析する手段は、第1画像と、第2ユーザの顔の第2画像と、を解析する、
情報処理装置である。
A tenth aspect of the present embodiment is
the means for analyzing analyzes the first image and the second image of the face of the second user;
It is an information processing device.

第10態様によれば、複数のユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the tenth aspect, reaction scores are calculated based on changes in facial expressions of a plurality of users. As a result, it is possible to improve the accuracy of the user's objective evaluation index for the product.

本実施形態の第11態様は、
第1動画像は、商品の画像を含み、
特定する手段は、取得された第1動画像に含まれる商品の画像に基づいて、商品情報を特定する、
情報処理装置である。
The eleventh aspect of this embodiment is
The first moving image includes an image of the product,
The identifying means identifies the product information based on the image of the product included in the acquired first moving image.
It is an information processing device.

本実施形態の第12態様は、
取得する手段は、第1ユーザが発した商品情報を含む第1音声と、第2ユーザの第2音声と、を取得し、
特定する手段は、取得された第1音声に基づいて商品情報を特定する、
情報処理装置である。
The twelfth aspect of this embodiment is
the acquiring means acquires a first voice including product information uttered by the first user and a second voice of the second user;
The identifying means identifies the product information based on the acquired first voice,
It is an information processing device.

本実施形態の第13態様は、
解析する手段は、第1音声及び第2音声を更に解析する、
情報処理装置である。
The thirteenth aspect of this embodiment is
the means for analyzing further analyzes the first sound and the second sound;
It is an information processing device.

第13態様によれば、複数のユーザの表情及び音声に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the thirteenth aspect, a reaction score is calculated based on facial expressions and voices of a plurality of users. As a result, it is possible to improve the accuracy of the user's objective evaluation index for the product.

本実施形態の第14態様は、
第1ユーザの生体に関する第1生体情報と、第2ユーザの第2生体情報と、を取得する手段を備え、
計算する手段は、解析の結果と、取得された第1生体情報及び第2生体情報と、に基づいて、反応スコアを計算する、
情報処理装置である。
The fourteenth aspect of this embodiment is
comprising means for acquiring first biometric information relating to the biometrics of the first user and second biometric information of the second user;
the calculating means calculates a reaction score based on the analysis result and the obtained first and second biological information;
It is an information processing device.

第14態様によれば、複数のユーザの表情及び生体情報に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the fourteenth aspect, a reaction score is calculated based on facial expressions and biometric information of a plurality of users. As a result, it is possible to improve the accuracy of the user's objective evaluation index for the product.

本実施形態の第15態様は、
解析の結果に基づいて、商品を見ている第1ユーザの顔の傾きと、第2ユーザの顔の傾きと、を判定する手段を備え、
計算する手段は、傾きを参照して、反応スコアを計算する、
情報処理装置である。
The fifteenth aspect of this embodiment is
a means for determining the inclination of the face of the first user looking at the product and the inclination of the face of the second user based on the result of the analysis;
the calculating means refers to the slope and calculates a response score;
It is an information processing device.

第15態様によれば、複数のユーザの表情及び顔の傾きに基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the fifteenth aspect, the reaction score is calculated based on the facial expressions and facial tilts of a plurality of users. As a result, it is possible to improve the accuracy of the user's objective evaluation index for the product.

本実施形態の第16態様は、
計算する手段は、第1ユーザの顔の画像の解析結果に第1重み付け係数を適用し、第2ユーザの顔の画像の解析結果に第2重み付け係数を適用することにより、反応スコアを計算し、
第1重み付け係数は、第2重み付け係数より大きい、
情報処理装置である。
The sixteenth aspect of this embodiment is
The means for calculating calculates a response score by applying a first weighting factor to the analysis result of the face image of the first user and applying a second weighting factor to the analysis result of the face image of the second user. ,
the first weighting factor is greater than the second weighting factor;
It is an information processing device.

第16態様によれば、複数のユーザの顔の表情の変化に基づいて反応スコアを計算する場合において、商品を所有するユーザの表情を重視する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the sixteenth aspect, when calculating reaction scores based on changes in facial expressions of a plurality of users, emphasis is placed on the facial expression of the user who owns the product. As a result, it is possible to improve the accuracy of the user's objective evaluation index for the product.

本実施形態の第17態様は、
商品を所有する第1ユーザが使用する第1クライアント装置10-1と、第1ユーザと対話する第2ユーザが使用する第2クライアント装置10-2と、第1クライアント装置10-1と第2クライアント装置10-2との間のビデオ通話シーケンス(S310)を実行するサーバ30と、を備える情報処理システム1であって、
第1クライアント装置10-1は、第1ユーザの顔の第1画像を含む第1動画像を取得する手段(例えば、ステップS310を実行するプロセッサ12)を備え、
第2クライアント装置10-2は、第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段(例えば、ステップS310を実行するプロセッサ12)を備え、
サーバ30は、
第1動画像及び第2動画像を取得する手段(例えば、ステップS310を実行するプロセッサ12)を備え、
商品に関する商品情報を特定する手段(例えば、ステップS311を実行するプロセッサ12)を備え、
商品情報が特定された場合、第1動画像に含まれる顔の画像を解析する手段(例えば、ステップS312を実行するプロセッサ12)を備え、
解析の結果に基づいて、商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段(例えば、ステップS314を実行するプロセッサ12)を備える、情報処理システム1である。
The seventeenth aspect of this embodiment is
A first client device 10-1 used by a first user who owns a product, a second client device 10-2 used by a second user who interacts with the first user, and a first client device 10-1 and a second client device 10-1. an information processing system 1 comprising a server 30 that executes a video call sequence (S310) with a client device 10-2,
The first client device 10-1 comprises means (for example, the processor 12 that executes step S310) for acquiring a first moving image including a first image of the face of the first user,
The second client device 10-2 comprises means for acquiring a second moving image including a second image of the face of the second user (eg, the processor 12 executing step S310),
The server 30
A means for acquiring the first moving image and the second moving image (for example, the processor 12 that performs step S310),
A means for specifying product information about the product (for example, a processor 12 that executes step S311),
If the product information is specified, means for analyzing the face image included in the first moving image (for example, a processor 12 that executes step S312);
The information processing system 1 includes means (for example, the processor 12 executing step S314) for calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result.

本実施形態の第18態様は、
ユーザの顔の画像を含む静止画像を取得する手段を備え、
商品に関する商品情報を特定する手段を備え、
商品情報が特定された場合、前記静止画像を解析する手段を備え、
解析の結果に基づいて、前記商品に対する前記ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理装置である。
The eighteenth aspect of the present embodiment is
comprising means for acquiring a still image including an image of the user's face;
Equipped with means for identifying product information about the product,
provided with means for analyzing the still image when product information is specified;
means for calculating a reaction score, which is an indicator of the user's reaction to the product, based on the analysis results;
It is an information processing device.

第18態様によれば、ある時点のユーザの表情に基づいて、反応スコアを計算する。これにより、静止画像からでも、商品に対するユーザの客観的な評価の指標を得ることができる。 According to the eighteenth aspect, the reaction score is calculated based on the user's facial expression at a certain time. As a result, even from a still image, it is possible to obtain an index of the user's objective evaluation of the product.

本実施形態の第19態様は、
コンピュータ(例えば、プロセッサ12)を、上記各手段として機能させるためのプログラムである。
The nineteenth aspect of the present embodiment is
It is a program for causing a computer (for example, processor 12) to function as each means described above.

(6)その他の変形例 (6) Other modified examples

記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。 The storage device 11 may be connected to the client device 10 via the network NW. Storage device 31 may be connected to server 30 via network NW.

上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。 Each step of the information processing described above can be executed by either the client device 10 or the server 30 .

画面P102(図8)の表示オブジェクトA102a及びA102b、並びに、画面P112(図12)の表示オブジェクトA112a及びA112bは、省略可能である。
表示オブジェクトA102a及びA102bを省略する場合、ステップS106(図6)も省略される。この場合、クライアント装置10は、ステップS105の後、ユーザ指示を受け付けることなく、更新リクエストデータをサーバ30に送信する。
表示オブジェクトA112a及びA112bを省略する場合、ステップS110及びS112(図10)も省略される。この場合、サーバ30は、ステップS314の後、クライアント装置10との通信を行わずに、ステップS315を実行する。
これにより、測定中に感情情報及び反応スコアを示すことによる測定への影響(例えば、感情情報及び反応スコアの客観性の毀損)を防ぐことができる。
The display objects A102a and A102b of the screen P102 (FIG. 8) and the display objects A112a and A112b of the screen P112 (FIG. 12) can be omitted.
When omitting the display objects A102a and A102b, step S106 (FIG. 6) is also omitted. In this case, the client device 10 transmits update request data to the server 30 after step S105 without accepting a user instruction.
If display objects A112a and A112b are omitted, steps S110 and S112 (FIG. 10) are also omitted. In this case, the server 30 executes step S315 without communicating with the client device 10 after step S314.
This can prevent affecting the measurement (eg, impairing the objectivity of the emotional information and the reaction score) by presenting the emotional information and the reaction score during the measurement.

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Also, the above embodiments can be modified and modified in various ways without departing from the gist of the present invention. Also, the above embodiments and modifications can be combined.

1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :ディスプレイ
16 :カメラ
17 :音声入出力装置
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース

1 : Information processing system 10 : Client device 11 : Storage device 12 : Processor 13 : Input/output interface 14 : Communication interface 15 : Display 16 : Camera 17 : Audio input/output device 30 : Server 31 : Storage device 32 : Processor 33 : Input Output interface 34: communication interface

Claims (12)

商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段を備え、
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備え、
前記解析する手段は、前記第1画像と、前記第2ユーザの顔の第2画像と、を解析する、情報処理装置。
means for acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; prepared,
comprising means for specifying product information related to the product;
comprising means for analyzing the first image when the product information is specified;
means for calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
The information processing apparatus, wherein the analyzing means analyzes the first image and the second image of the face of the second user.
前記第1動画像は、前記商品の画像を含み、
前記特定する手段は、前記取得された第1動画像に含まれる商品の画像に基づいて、前記商品情報を特定する、請求項1に記載の情報処理装置。
The first moving image includes an image of the product,
2. The information processing apparatus according to claim 1, wherein said specifying means specifies said product information based on an image of a product included in said acquired first moving image.
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段を備え、
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備え、
前記取得する手段は、前記第1ユーザが発した商品情報を含む第1音声と、前記第2ユーザの第2音声と、を取得し、
前記特定する手段は、前記取得された第1音声に基づいて前記商品情報を特定し、
前記解析する手段は、前記第1音声及び前記第2音声を更に解析する、
情報処理装置。
a means for acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; prepared,
comprising means for specifying product information related to the product;
comprising means for analyzing the first image when the product information is specified;
means for calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
The acquiring means acquires a first voice containing product information uttered by the first user and a second voice of the second user,
The specifying means specifies the product information based on the acquired first voice,
the means for analyzing further analyzes the first sound and the second sound;
Information processing equipment.
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段を備え、
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備え、
前記第1ユーザの生体に関する第1生体情報と、前記第2ユーザの第2生体情報と、を取得する手段を備え、
前記計算する手段は、前記解析の結果と、前記取得された第1生体情報及び第2生体情報と、に基づいて、前記反応スコアを計算する、
情報処理装置。
a means for acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; prepared,
comprising means for specifying product information related to the product;
comprising means for analyzing the first image when the product information is specified;
means for calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
comprising means for acquiring first biometric information related to the biometrics of the first user and second biometric information of the second user;
the calculating means calculates the reaction score based on the analysis result and the obtained first and second biological information;
Information processing equipment.
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段を備え、
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備え、
前記解析の結果に基づいて、前記商品を見ている第1ユーザの顔の傾きと、前記第2ユーザの顔の傾きと、を判定する手段を備え、
前記計算する手段は、前記傾きを参照して、前記反応スコアを計算する、情報処理装置。
means for acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; prepared,
comprising means for specifying product information related to the product;
comprising means for analyzing the first image when the product information is specified;
means for calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
means for determining the inclination of the face of the first user looking at the product and the inclination of the face of the second user based on the analysis result;
The information processing apparatus, wherein the calculating means calculates the reaction score by referring to the inclination.
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段を備え、
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備え、
前記計算する手段は、前記第1ユーザの顔の画像の解析結果に第1重み付け係数を適用し、前記第2ユーザの顔の画像の解析結果に第2重み付け係数を適用することにより、前記反応スコアを計算し、
前記第1重み付け係数は、前記第2重み付け係数より大きい、
情報処理装置。
means for acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; prepared,
comprising means for specifying product information related to the product;
comprising means for analyzing the first image when the product information is specified;
means for calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
The calculating means applies a first weighting factor to an analysis result of the face image of the first user and a second weighting factor to an analysis result of the face image of the second user to obtain the reaction calculate the score,
the first weighting factor is greater than the second weighting factor;
Information processing equipment.
コンピュータ
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得するステップを実行し
前記商品に関する商品情報を特定するステップを実行し
前記商品情報が特定された場合、前記第1画像を解析するステップを実行し
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算するステップを実行し
前記解析するステップは、前記第1画像と、前記第2ユーザの顔の第2画像と、を解析する、情報処理方法。
the computer
Acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; run ,
performing the step of identifying merchandise information about the merchandise;
if the product information is identified, analyzing the first image;
performing a step of calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
The information processing method, wherein the analyzing step analyzes the first image and a second image of the face of the second user.
コンピュータ
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得するステップを実行し
前記商品に関する商品情報を特定するステップを実行し
前記商品情報が特定された場合、前記第1画像を解析するステップを実行し
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算するステップを実行し
前記取得するステップは、前記第1ユーザが発した商品情報を含む第1音声と、前記第2ユーザの第2音声と、を取得し、
前記特定するステップは、前記取得された第1音声に基づいて前記商品情報を特定し、
前記解析するステップは、前記第1音声及び前記第2音声を更に解析する、
情報処理方法。
the computer
Acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; run ,
performing the step of identifying merchandise information about the merchandise;
if the product information is identified, analyzing the first image;
performing a step of calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
The acquiring step acquires a first voice containing product information uttered by the first user and a second voice of the second user,
The identifying step identifies the product information based on the acquired first voice,
the analyzing step further analyzes the first audio and the second audio;
Information processing methods.
コンピュータ
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得するステップを実行し
前記商品に関する商品情報を特定するステップを実行し
前記商品情報が特定された場合、前記第1画像を解析するステップを実行し
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算するステップを実行し
前記第1ユーザの生体に関する第1生体情報と、前記第2ユーザの第2生体情報と、を取得するステップを実行し
前記計算するステップは、前記解析の結果と、前記取得された第1生体情報及び第2生体情報と、に基づいて、前記反応スコアを計算する、
情報処理方法。
the computer
Acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; run ,
performing the step of identifying merchandise information about the merchandise;
if the product information is identified, analyzing the first image;
performing a step of calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
performing a step of acquiring first biometric information related to the biometrics of the first user and second biometric information of the second user;
The calculating step calculates the reaction score based on the result of the analysis and the obtained first and second biological information.
Information processing methods.
コンピュータ
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得するステップを実行し
前記商品に関する商品情報を特定するステップを実行し
前記商品情報が特定された場合、前記第1画像を解析するステップを実行し
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算するステップを実行し
前記解析の結果に基づいて、前記商品を見ている第1ユーザの顔の傾きと、前記第2ユーザの顔の傾きと、を判定するステップを実行し
前記計算するステップは、前記傾きを参照して、前記反応スコアを計算する、情報処理方法。
the computer
Acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; run ,
performing the step of identifying merchandise information about the merchandise;
if the product information is identified, analyzing the first image;
performing a step of calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
performing a step of determining the tilt of the face of the first user looking at the product and the tilt of the face of the second user, based on the result of the analysis;
The information processing method, wherein the calculating step refers to the slope and calculates the reaction score.
コンピュータ
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得するステップを実行し
前記商品に関する商品情報を特定するステップを実行し
前記商品情報が特定された場合、前記第1画像を解析するステップを実行し
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算するステップを実行し
前記計算するステップは、前記第1ユーザの顔の画像の解析結果に第1重み付け係数を適用し、前記第2ユーザの顔の画像の解析結果に第2重み付け係数を適用することにより、前記反応スコアを計算し、
前記第1重み付け係数は、前記第2重み付け係数より大きい、
情報処理方法。
the computer
Acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; run ,
performing the step of identifying merchandise information about the merchandise;
if the product information is identified, analyzing the first image;
performing a step of calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
The calculating step applies a first weighting factor to an analysis result of the facial image of the first user and a second weighting factor to an analysis result of the second user's facial image, thereby calculate the score,
the first weighting factor is greater than the second weighting factor;
Information processing methods.
コンピュータを、請求項1~請求項6の何れかに記載の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means according to any one of claims 1 to 6.
JP2019567964A 2018-01-25 2019-01-09 Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology Active JP7278972B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018010593 2018-01-25
JP2018010593 2018-01-25
PCT/JP2019/000335 WO2019146405A1 (en) 2018-01-25 2019-01-09 Information processing device, information processing system, and program for evaluating tester reaction to product using expression analysis technique

Publications (2)

Publication Number Publication Date
JPWO2019146405A1 JPWO2019146405A1 (en) 2021-02-25
JP7278972B2 true JP7278972B2 (en) 2023-05-22

Family

ID=67396103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019567964A Active JP7278972B2 (en) 2018-01-25 2019-01-09 Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology

Country Status (3)

Country Link
JP (1) JP7278972B2 (en)
TW (1) TW201933234A (en)
WO (1) WO2019146405A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6915765B1 (en) * 2019-10-10 2021-08-04 株式会社村田製作所 Interest rate evaluation system and interest rate evaluation method
US20230096240A1 (en) * 2020-02-21 2023-03-30 Philip Morris Products S.A. Method and apparatus for interactive and privacy-preserving communication between a server and a user device
JPWO2022024392A1 (en) * 2020-07-31 2022-02-03

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030469A (en) 2001-07-16 2003-01-31 Ricoh Co Ltd Commodity sales system by virtual department store using virtual reality space, virtual sales system, program and recording medium
JP2006012171A (en) 2004-06-24 2006-01-12 Hitachi Ltd System and method for using biometrics to manage review
US20140365272A1 (en) 2013-06-07 2014-12-11 Bby Solutions, Inc. Product display with emotion prediction analytics
JP2016024599A (en) 2014-07-18 2016-02-08 ヤフー株式会社 Information management server, information management method, and information management program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8235725B1 (en) * 2005-02-20 2012-08-07 Sensory Logic, Inc. Computerized method of assessing consumer reaction to a business stimulus employing facial coding
US8219438B1 (en) * 2008-06-30 2012-07-10 Videomining Corporation Method and system for measuring shopper response to products based on behavior and facial expression

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030469A (en) 2001-07-16 2003-01-31 Ricoh Co Ltd Commodity sales system by virtual department store using virtual reality space, virtual sales system, program and recording medium
JP2006012171A (en) 2004-06-24 2006-01-12 Hitachi Ltd System and method for using biometrics to manage review
US20140365272A1 (en) 2013-06-07 2014-12-11 Bby Solutions, Inc. Product display with emotion prediction analytics
JP2016024599A (en) 2014-07-18 2016-02-08 ヤフー株式会社 Information management server, information management method, and information management program

Also Published As

Publication number Publication date
JPWO2019146405A1 (en) 2021-02-25
WO2019146405A1 (en) 2019-08-01
TW201933234A (en) 2019-08-16

Similar Documents

Publication Publication Date Title
US11627877B2 (en) Apparatus and method for user evaluation
JP6467965B2 (en) Emotion estimation device and emotion estimation method
Carneiro et al. Multimodal behavioral analysis for non-invasive stress detection
JP7278972B2 (en) Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology
EP3779740A1 (en) Head mounted display system configured to exchange biometric information
US20120083675A1 (en) Measuring affective data for web-enabled applications
WO2011045422A1 (en) Method and system for measuring emotional probabilities of a facial image
US10503964B1 (en) Method and system for measuring and visualizing user behavior in virtual reality and augmented reality
JPWO2018168369A1 (en) Machine learning device and machine learning program
WO2019086856A1 (en) Systems and methods for combining and analysing human states
JP6322927B2 (en) INTERACTION DEVICE, INTERACTION PROGRAM, AND INTERACTION METHOD
EP3953799A1 (en) A smartphone, a host computer, a system and a method for a virtual object on augmented reality
Gavrilescu Study on determining the Big-Five personality traits of an individual based on facial expressions
Pan et al. Video-based engagement estimation of game streamers: An interpretable multimodal neural network approach
US20200226012A1 (en) File system manipulation using machine learning
KR20190117100A (en) Method and apparatus for measuring biometric information in electronic device
US10755088B2 (en) Augmented reality predictions using machine learning
JP7406502B2 (en) Information processing device, program and information processing method
JP2018190176A (en) Image display device, skin-condition support system, image display program, and image display method
EP3956748B1 (en) Headset signals to determine emotional states
Mavridou et al. Emerging Affect Detection Methodologies in VR and future directions.
JP7253325B2 (en) Information processing device, program, and information processing method
Gupta et al. Vrdography: An empathic vr photography experience
US11822719B1 (en) System and method for controlling digital cinematic content based on emotional state of characters
WO2023145350A1 (en) Information processing method, information processing system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220901

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230124

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230124

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230130

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230510

R150 Certificate of patent or registration of utility model

Ref document number: 7278972

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150