JP7278972B2 - Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology - Google Patents
Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology Download PDFInfo
- Publication number
- JP7278972B2 JP7278972B2 JP2019567964A JP2019567964A JP7278972B2 JP 7278972 B2 JP7278972 B2 JP 7278972B2 JP 2019567964 A JP2019567964 A JP 2019567964A JP 2019567964 A JP2019567964 A JP 2019567964A JP 7278972 B2 JP7278972 B2 JP 7278972B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- product
- image
- information
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 76
- 238000003672 processing method Methods 0.000 title claims 6
- 230000008921 facial expression Effects 0.000 title description 51
- 238000010195 expression analysis Methods 0.000 title description 2
- 238000004458 analytical method Methods 0.000 claims description 38
- 230000001815 facial effect Effects 0.000 claims description 10
- 230000008451 emotion Effects 0.000 description 43
- 238000012986 modification Methods 0.000 description 38
- 230000004048 modification Effects 0.000 description 38
- 238000010586 diagram Methods 0.000 description 27
- 238000011156 evaluation Methods 0.000 description 23
- 230000008859 change Effects 0.000 description 19
- 230000009471 action Effects 0.000 description 17
- 230000004044 response Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 238000010191 image analysis Methods 0.000 description 7
- 230000002996 emotional effect Effects 0.000 description 6
- 210000001097 facial muscle Anatomy 0.000 description 6
- 239000000284 extract Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000002567 electromyography Methods 0.000 description 2
- 238000001943 fluorescence-activated cell sorting Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000007794 irritation Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000006210 lotion Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 210000004165 myocardium Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000002438 stress hormone Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Entrepreneurship & Innovation (AREA)
- Health & Medical Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、情報処理装置、情報処理システム、及び、プログラムに関する。 The present invention relates to an information processing device, an information processing system, and a program.
一般に、商品に関する市場調査では、消費者に対するアンケートを用いて商品に対する評価を集計している。多数の消費者からの回答を得ることにより、商品に対する評価の精度の向上が期待できる。 Generally, in market research on products, consumer questionnaires are used to collect evaluations of products. By obtaining responses from a large number of consumers, it is expected that the accuracy of product evaluation will be improved.
特開2003-308415号公報は、ユーザ端末及びサーバを備えるシステムを用いて、多くのアンケート結果を容易に取得する技術を開示している。 Japanese Patent Laying-Open No. 2003-308415 discloses a technique for easily obtaining many questionnaire results by using a system including a user terminal and a server.
一般に、商品に対する評価は、客観性を有することが好ましい。
しかし、特開2003-308415号公報のアンケート結果には、消費者の主観が反映される。そのため、アンケート結果から得られる評価は、商品に対する客観性を有していない。In general, it is preferable that the evaluation of products be objective.
However, consumer subjectivity is reflected in the results of the questionnaire in Japanese Patent Application Laid-Open No. 2003-308415. Therefore, the evaluation obtained from the questionnaire results does not have objectivity for the product.
本発明の目的は、商品に対する客観的な評価の指標を得ることである。 An object of the present invention is to obtain an objective evaluation index for a product.
本発明の一態様は、
ユーザの表情に関する表情情報を取得する手段を備え、
商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記表情情報に基づいて前記表情の変化を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する前記ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理装置である。One aspect of the present invention is
A means for acquiring facial expression information related to a user's facial expression,
Equipped with means for specifying product information about the product,
comprising means for analyzing changes in the facial expression based on the facial expression information when the product information is specified;
means for calculating a reaction score, which is an indicator of the user's reaction to the product, based on the results of the analysis;
It is an information processing device.
本発明によれば、商品に対するユーザの客観的な評価の指標を得ることができる。 According to the present invention, it is possible to obtain an index of a user's objective evaluation of a product.
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 An embodiment of the present invention will be described in detail below with reference to the drawings. In the drawings for describing the embodiments, in principle, the same constituent elements are denoted by the same reference numerals, and repeated description thereof will be omitted.
(1)第1実施形態
第1実施形態について説明する。(1) First Embodiment A first embodiment will be described.
(1-1)情報処理システムの構成
第1実施形態の情報処理システムの構成について説明する。図1は、第1実施形態の情報処理システムの概略図である。図2は、第1実施形態の情報処理システムの構成を示すブロック図である。(1-1) Configuration of Information Processing System The configuration of the information processing system of the first embodiment will be described. FIG. 1 is a schematic diagram of an information processing system according to the first embodiment. FIG. 2 is a block diagram showing the configuration of the information processing system of the first embodiment.
図1及び図2に示すように、情報処理システム1は、クライアント装置10と、サーバ30とを備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。As shown in FIGS. 1 and 2, the
The
クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
The
サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。
The
(1-1-1)クライアント装置の構成
クライアント装置10の構成について説明する。(1-1-1) Configuration of Client Device The configuration of the
図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、ディスプレイ15と、カメラ16と、音声入出力装置17と、を備える。
As shown in FIG. 2, the
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラムPrograms include, for example, the following programs.
・OS (Operating System) program ・Application (for example, web browser) program that executes information processing
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)The data includes, for example, the following data.
・Databases referenced in information processing ・Data obtained by executing information processing (that is, execution results of information processing)
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。
The
入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。The input/
Input devices are, for example, keyboards, pointing devices, touch panels, or combinations thereof.
通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。
ディスプレイ15は、画像を表示するように構成される。ディスプレイ15は、例えば、以下の何れかである。
・液晶ディスプレイ
・有機EL(Electro Luminescence)ディスプレイ
・Liquid crystal display ・Organic EL (Electro Luminescence) display
カメラ16は、画像を撮像し、且つ、撮像した画像の画像データを生成するように構成される。カメラ16は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを有する。
Camera 16 is configured to capture images and generate image data for the captured images. The
音声入出力装置17は、音声の入出力を行うように構成される。音声入出力装置17は、音声を入力するマイク、及び、音声を出力するスピーカの組合せである。
The audio input/
(1-1-2)サーバの構成
サーバ30の構成について説明する。(1-1-2) Server Configuration The configuration of the
図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
As shown in FIG. 2, the
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラムPrograms include, for example, the following programs.
- OS program - Application program that executes information processing
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果The data includes, for example, the following data.
・Databases referenced in information processing ・Execution results of information processing
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。
The
入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。The input/
Input devices are, for example, keyboards, pointing devices, touch panels, or combinations thereof.
An output device is, for example, a display.
通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。
(1-2)第1実施形態の概要
第1実施形態の概要について説明する。図3は、第1実施形態の概要の説明図である。(1-2) Overview of First Embodiment An overview of the first embodiment will be described. FIG. 3 is an explanatory diagram of the outline of the first embodiment.
図3に示すように、クライアント装置10は、ユーザの表情に関する表情情報(例えば、動画像又は表情筋筋電図)を取得する。
As shown in FIG. 3, the
クライアント装置10は、評価の対象となる商品に関する商品情報を特定する。
クライアント装置10は、商品情報の特定に成功した場合、表情情報を解析することにより、ユーザの表情の変化に関する指標である表情変化指標を計算する。
クライアント装置10は、解析によって得られた表情変化指標に基づいて、商品に対するユーザの反応に関する指標である反応スコアを計算する。The
When the
The
このように、クライアント装置10は、商品情報を特定することができた場合、ユーザの表情の変化に基づいて、商品に対するユーザの反応スコアを計算する。
これにより、商品に対する客観的な評価の指標を得ることができる。In this way, when the
This makes it possible to obtain an objective evaluation index for the product.
(1-3)データベース
第1実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。(1-3) Database The database of the first embodiment will be described. The following databases are stored in the
(1-3-1)ユーザ情報データベース
第1実施形態のユーザ情報データベースについて説明する。図4は、第1実施形態のユーザ情報データベースのデータ構造を示す図である。(1-3-1) User Information Database The user information database of the first embodiment will be described. FIG. 4 is a diagram showing the data structure of the user information database of the first embodiment.
図4のユーザ情報データベースには、ユーザに関するユーザ情報が格納される。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、を含む。各フィールドは、互いに関連付けられている。The user information database of FIG. 4 stores user information about users.
The user information database includes a "user ID" field, a "user name" field, and a "user attribute" field. Each field is associated with each other.
「ユーザID」フィールドには、ユーザを識別するユーザIDが格納される。 A user ID for identifying a user is stored in the "user ID" field.
「ユーザ名」フィールドには、ユーザの名称に関する情報(例えば、テキスト)が格納される。 The “user name” field stores information (for example, text) regarding the name of the user.
「ユーザ属性」フィールドには、ユーザの属性に関するユーザ属性情報が格納される。
「ユーザ属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、を含む。The "user attribute" field stores user attribute information about user attributes.
The "user attribute" field includes a "gender" field and an "age" field.
「性別」フィールドには、ユーザの性別に関する情報が格納される。 The "gender" field stores information about the gender of the user.
「年齢」フィールドには、ユーザの年齢に関する情報が格納される。 The "age" field stores information about the user's age.
(1-3-2)商品情報データベース
第1実施形態の商品情報データベースについて説明する。図5は、第1実施形態の商品情報データベースのデータ構造を示す図である。(1-3-2) Product Information Database The product information database of the first embodiment will be described. FIG. 5 is a diagram showing the data structure of the product information database of the first embodiment.
図5の商品情報データベースには、商品に関する商品情報が格納される。
商品情報データベースは、「商品ID」フィールドと、「商品名」フィールドと、「商品画像」フィールドと、「特徴パターン」フィールドと、「商品属性」フィールドと、「反応スコア」フィールドと、を含む。各フィールドは、互いに関連付けられている。The product information database in FIG. 5 stores product information on products.
The product information database includes a "product ID" field, a "product name" field, a "product image" field, a "feature pattern" field, a "product attribute" field, and a "reaction score" field. Each field is associated with each other.
「商品ID」フィールドには、商品を識別する商品IDが格納される。 A product ID for identifying a product is stored in the “product ID” field.
「商品名」フィールドには、商品の名称に関する情報(例えば、テキスト)が格納される。 The “product name” field stores information (for example, text) regarding the name of the product.
「商品画像」フィールドには、商品(例えば、商品本体、商品のパッケージ、及び、商品の使用状態の少なくとも1つ)の画像情報が格納される。 The “product image” field stores image information of the product (for example, at least one of product body, product package, and product usage state).
「特徴パターン」フィールドには、商品の画像上の特徴のパターンに関する情報が格納される。 The "feature pattern" field stores information about the pattern of features on the product image.
「商品属性」フィールドには、商品の属性に関する商品属性情報が格納される。
「商品属性」フィールドは、「種類」フィールドと、「メーカ」フィールドと、を含む。The "product attribute" field stores product attribute information relating to product attributes.
The "product attribute" field includes a "type" field and a "manufacturer" field.
「種類」フィールドには、商品の種類(例えば、口紅、又は、化粧水)に関する情報が格納される。 The "type" field stores information about the type of product (for example, lipstick or lotion).
「メーカ」フィールドには、商品の製造者に関する情報(例えば、製造者名を示すテキスト)が格納される。 The "manufacturer" field stores information about the manufacturer of the product (for example, text indicating the manufacturer's name).
「反応スコア」フィールドには、商品に対するユーザの反応のレベルを示す数値(以下「反応スコア」という)が格納される。
「反応スコア」フィールドは、「全体平均」フィールドと、「属性平均」フィールドと、を含む。The "reaction score" field stores a numerical value (hereinafter referred to as "reaction score") indicating the level of user reaction to the product.
The "response score" field includes an "overall average" field and an "attribute average" field.
「全体平均」フィールドには、全ユーザの反応スコアの平均値が格納される。 The "total average" field stores the average reaction score of all users.
「属性平均」フィールドには、ユーザ属性毎の反応スコアの平均値が格納される。
「属性平均」フィールドは、「性別」フィールドと、「年齢」フィールドと、を含む。The "attribute average" field stores the average reaction score for each user attribute.
The 'attribute average' field includes a 'sex' field and an 'age' field.
「性別」フィールドには、性別毎の反応スコアの平均値が格納される。 The "gender" field stores the average reaction score for each gender.
「年齢」フィールドには、年齢毎の反応スコアの平均値が格納される。 The "age" field stores the average reaction score for each age.
(1-4)情報処理
第1実施形態の情報処理について説明する。図6は、第1実施形態の情報処理のシーケンス図である。図7~図8は、図6の情報処理において表示される画面例を示す図である。(1-4) Information Processing Information processing according to the first embodiment will be described. FIG. 6 is a sequence diagram of information processing according to the first embodiment. 7 and 8 are diagrams showing screen examples displayed in the information processing of FIG.
図6に示すように、クライアント装置10は、ログインリクエスト(S100)を実行する。
具体的には、プロセッサ12は、画面P100(図7)をディスプレイ15に表示する。As shown in FIG. 6, the
Specifically,
画面P100は、ボタンオブジェクトB100と、フィールドオブジェクトF100と、を含む。
フィールドオブジェクトF100は、ユーザIDの入力を受け付けるオブジェクトである。
ボタンオブジェクトB100は、ログインのためのユーザ指示を受け付けるオブジェクトである。A screen P100 includes a button object B100 and a field object F100.
A field object F100 is an object that receives an input of a user ID.
A button object B100 is an object that receives a user instruction for login.
ユーザが、フィールドオブジェクトF100にユーザIDを入力し、且つ、ボタンオブジェクトB100を操作すると、プロセッサ12は、ログインリクエストデータをサーバ30に送信する。
ログインリクエストデータは、フィールドオブジェクトF100に入力されたユーザIDを含む。When the user inputs the user ID into the field object F100 and operates the button object B100, the
The login request data includes the user ID entered in field object F100.
ステップS100の後、サーバ30は、ログイン認証(S300)を実行する。
具体的には、プロセッサ32は、ログインリクエストデータに含まれるユーザIDがユーザ情報データベース(図4)に含まれる場合、ログインを認証するためのログインレスポンスデータをクライアント装置10に送信する。After step S100, the
Specifically, when the user ID included in the login request data is included in the user information database (FIG. 4), the
ステップS300の後、クライアント装置10は、表情情報の取得(S101)を実行する。
After step S300, the
ステップS101の第1例として、プロセッサ12は、ログインレスポンスデータを受信すると、画面P101(図7)をディスプレイ15に表示する。
As a first example of step S101, the
画面P101は、表示オブジェクトA101と、ボタンオブジェクトB101と、を含む。
表示オブジェクトA101には、カメラ16が撮像した画像が表示される。カメラ16が撮像した画像は、ユーザの顔の画像IMG101aと、商品の画像IMG101bと、を含む。
ボタンオブジェクトB101は、ビデオデータの取得のためのユーザ指示を受け付けるオブジェクトである。The screen P101 includes a display object A101 and a button object B101.
An image captured by the
The button object B101 is an object that receives a user instruction for acquiring video data.
ユーザがボタンオブジェクトB101を操作すると、プロセッサ12は、ビデオデータ(「表情情報」の一例)を生成し、且つ、当該ビデオデータを記憶装置11に記憶する。ビデオデータは、カメラ16によって撮像された動画像と、音声入出力装置17によって入力された音声と、を含む。
When the user operates the button object B<b>101 , the
ステップS101の第2例として、クライアント装置10は、計測装置に接続されている。計測装置は、例えば、ユーザの顔に装着される電極から表情筋の動きに関する表情筋信号を取得するように構成される。プロセッサ12は、計測装置から表情筋信号を取得する。
As a second example of step S101, the
ステップS101の後、クライアント装置10は、商品の特定(S102)を実行する。
After step S101, the
ステップS102の第1例として、プロセッサ12は、ユーザ指示(例えば、ディスプレイ15に表示された画面に含まれるフィールドオブジェクトに対する商品情報)に基づいて、商品の商品IDを特定する。
As a first example of step S102, the
ステップS102の第2例として、プロセッサ12は、ステップS101で取得したビデオデータに含まれる商品の画像IMG101bに対して特徴量解析を適用することにより、画像IMG101bの特徴量を抽出する。
プロセッサ12は、抽出した特徴量と、商品情報データベース(図5)の「特徴パターン」フィールドの情報と、を比較することにより、画像IMG101bが表す商品の商品IDを特定する。As a second example of step S102, the
ステップS102の第3例として、ユーザが商品情報(例えば、商品名)の音声を発すると、音声入出力装置17は、ユーザが発した音声を入力する。
プロセッサ12は、音声入出力装置17によって入力された音声を解析することにより、商品名を特定する。
プロセッサ12は、商品情報データベース(図5)を参照して、特定した商品名に関連付けられた商品IDを特定する。As a third example of step S102, when the user utters the product information (for example, product name), the voice input/
The
ステップS102の後、クライアント装置10は、ステップS101で得られた表情情報に対して、表情解析(S103)を実行する。
After step S102, the
ステップS103の第1例として、プロセッサ12は、ステップS101で取得したビデオデータに含まれる顔の画像IMG101aに対して、顔面動作符号化システム(以下「FACS」(Facial Action Coding System)という)理論に基づく画像解析を実行することにより、顔の部位毎に、動きの変化のレベルに関するアクションユニット情報を生成する。このアクションユニット情報は、商品に対するユーザの表情の変化を示す表情変化指標の一例である。
As a first example of step S103, the
ステップS103の第2例として、プロセッサ12は、ステップS101で取得した表情筋信号から、表情筋筋電図(「表情変化指標」の一例)を生成する。
As a second example of step S103, the
ステップS103の後、クライアント装置10は、ステップS103で得られた表情変化指標に基づいて、感情の推定(S104)を実行する。
After step S103, the
ステップS104の第1例としては、プロセッサ12は、各部位のアクションユニット情報を、感情を推定するための感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
感情情報は、例えば、以下の情報を含む。
・感情の種類(一例として、喜び、悲しみ、怒り、驚き、恐怖、又は、苛立ち)に関する情報
・感情の強度に関する情報As a first example of step S104, the
Emotion information includes, for example, the following information.
・Information about the type of emotion (for example, joy, sadness, anger, surprise, fear, or irritation) ・Information about the intensity of the emotion
ステップS104の第2例としては、記憶装置11には、表情筋筋電図とユーザの感情との関係を示す基準情報が記憶されている。プロセッサ12は、表情筋筋電図と、記憶装置11に記憶された基準情報と、を対比することにより、ユーザの感情に関する感情情報を推定する。
As a second example of step S104, the
ステップS104の第3例としては、プロセッサ12は、アクションユニット情報から推定した感情情報と、表情筋筋電図から推定した感情情報と、に所定のアルゴリズムを適用することにより、アクションユニット情報及び表情筋筋電図の両方に基づく感情情報を推定する。
As a third example of step S104, the
ステップS104の後、クライアント装置10は、ステップS104で得られた表情変化指標に基づいて、反応スコアの計算(S105)を実行する。
具体的には、プロセッサ12は、商品情報データベース(図5)を参照して、ステップS102で特定した商品IDに関連付けられた商品名に関する情報を特定する。
プロセッサ12は、ステップS104で推定した感情情報(つまり、ユーザの表情の変化から得られる感情情報)を、反応スコアの計算式に適用することにより、反応スコアを計算する。
プロセッサ12は、ステップS104で推定した感情情報、及び、ステップS105で計算した反応スコアに基づく画面P102(図8)をディスプレイ15に表示する。After step S104, the
Specifically, the
The
The
画面P102は、表示オブジェクトA101、A102a、及びA102bと、ボタンオブジェクトB102と、を含む。
表示オブジェクトA101は、画面P101(図7)と同様である。
表示オブジェクトA102aには、グラフ画像IMG102が表示される。グラフ画像IMG102は、感情の種類(例えば、喜び(HAPPY)及び悲しみ(SAD))毎に、ビデオデータを構成する画像フレーム(F)毎の感情情報(EMOTION LEVEL)の推移(つまり、商品に対するユーザの感情の時系列変化)を示している。
表示オブジェクトA102bには、ステップS102で特定した商品情報と、ステップS105で計算した反応スコアと、が表示される。
ボタンオブジェクトB102は、更新リクエスト(S106)を実行させるためのユーザ指示を受け付けるオブジェクトである。The screen P102 includes display objects A101, A102a, and A102b, and a button object B102.
The display object A101 is the same as the screen P101 (FIG. 7).
A graph image IMG102 is displayed in the display object A102a. The graph image IMG 102 shows transitions of emotional information (EMOTION LEVEL) for each image frame (F) constituting video data (that is, user time-series changes in emotions).
The product information specified in step S102 and the reaction score calculated in step S105 are displayed on the display object A102b.
The button object B102 is an object that receives a user instruction for executing the update request (S106).
ステップS105の後、クライアント装置10は、更新リクエスト(S106)を実行する。
具体的には、ユーザがボタンオブジェクトB102を操作すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。
更新リクエストデータは、以下の情報を含む。
・ステップS102で特定された商品ID
・ステップS105で計算された反応スコアAfter step S105, the
Specifically, when the user operates the button object B102, the
The update request data contains the following information.
・Product ID specified in step S102
- The reaction score calculated in step S105
ステップS106の後、サーバ30は、データベースの更新(S301)を実行する。
具体的には、プロセッサ32は、ユーザ情報データベース(図4)を参照して、ログインリクエストデータに含まれるユーザIDに関連付けられたユーザ属性情報を特定する。
プロセッサ32は、商品情報データベース(図5)を参照して、更新リクエストデータに含まれる商品IDに関連付けられたレコード(以下「更新対象レコード」という)を特定する。
プロセッサ32は、更新対象レコードの「反応スコア」フィールドの値を以下のとおり更新する。
・「全体平均」フィールドでは、更新リクエストデータに含まれる反応スコアに基づいて、平均値が更新される。
・「属性平均」フィールドでは、更新リクエストデータに含まれる反応スコアと、特定したユーザ属性情報と、に基づいて平均値が更新される。After step S106, the
Specifically,
The
The
- In the "overall average" field, the average value is updated based on the response score included in the update request data.
- In the "attribute average" field, the average value is updated based on the response score included in the update request data and the specified user attribute information.
本実施形態によれば、ユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標を得ることができる。 According to this embodiment, the reaction score is calculated based on changes in the user's facial expression. As a result, it is possible to obtain an index of the user's objective evaluation of the product.
(2)第2実施形態
第2実施形態について説明する。第2実施形態は、会話中のユーザの表情の変化に基づいて、商品に対するユーザの反応スコアを取得する例である。(2) Second Embodiment A second embodiment will be described. The second embodiment is an example of acquiring a user's reaction score to a product based on changes in the user's facial expression during conversation.
(2-1)第2実施形態の概要
第2実施形態の概要について説明する。図9は、第2実施形態の概要の説明図である。(2-1) Outline of Second Embodiment An outline of the second embodiment will be described. FIG. 9 is an explanatory diagram of the outline of the second embodiment.
図9に示すように、クライアント装置10-1は、ユーザAの顔を含む動画像をサーバ30に送信する。クライアント装置10-2は、ユーザBの顔を含む動画像をサーバ30に送信する。これにより、クライアント装置10-1のユーザA、及び、クライアント装置10-2のユーザBは、サーバ30を介して、ビデオ通話を行う。
As shown in FIG. 9, the client device 10-1 transmits a moving image including the user A's face to the
商品を所有するユーザAが、クライアント装置10-1を用いて、自身の顔を含む動画像を撮影すると、サーバ30は、評価の対象となる商品に関する商品情報を特定する。
サーバ30は、商品情報の特定に成功した場合、動画像に含まれるユーザAの顔の画像を解析する。
サーバ30は、解析の結果に基づいて、商品に対するユーザAの反応に関する指標である反応スコアを計算する。When user A, who owns a product, uses client device 10-1 to capture a moving image including his/her own face,
When the
The
このように、サーバ30は、商品を所有するユーザAと、ユーザBとの会話中に、ユーザAの顔の画像の解析の結果に基づいて、当該商品に対するユーザAの反応スコアを計算する。
In this way, the
これにより、商品についてユーザBと会話しているユーザAの商品に対する客観的な評価の指標を得ることができる。 As a result, it is possible to obtain an objective evaluation index of the product of the user A who is having a conversation with the user B about the product.
(2-2)情報処理
第2実施形態の情報処理について説明する。図10は、第2実施形態の情報処理のシーケンス図である。図11~図12は、図10の情報処理において表示される画面例を示す図である。(2-2) Information processing Information processing according to the second embodiment will be described. FIG. 10 is a sequence diagram of information processing according to the second embodiment. 11 and 12 are diagrams showing screen examples displayed in the information processing of FIG.
図10に示すように、クライアント装置10-1及び10-2は、第1実施形態(図6)と同様に、ログインリクエスト(S100)を実行する。
ステップS100の後、サーバ30は、第1実施形態と同様に、ログイン認証(S300)を実行する。As shown in FIG. 10, the client devices 10-1 and 10-2 execute login requests (S100) as in the first embodiment (FIG. 6).
After step S100, the
ステップS300の後、クライアント装置10-1及び10-2は、サーバ30を介して、ビデオ通話シーケンス(S310)を開始する。
具体的には、クライアント装置10-1のプロセッサ12は、ユーザAの顔を含む動画像をサーバ30に送信する。プロセッサ32は、この動画像をクライアント装置10-2に送信する。
クライアント装置10-2のプロセッサ12は、ユーザBの顔を含む動画像をサーバ30に送信する。プロセッサ32は、この動画像をクライアント装置10-1に送信する。After step S300, the client devices 10-1 and 10-2 initiate a video call sequence (S310) via the
Specifically,
クライアント装置10-1のプロセッサ12は、ディスプレイ15に画面P110-1(図11A)を表示する。
画面P110-1は、表示オブジェクトA110-1a~A110-1bを含む。
表示オブジェクトA110-1aには、クライアント装置10-1のカメラ16が撮像した画像が表示される。このカメラ16が撮像した画像は、ユーザAの顔の画像IMG110-1aと、商品の画像IMG110-1bと、を含む。
表示オブジェクトA110-1bには、クライアント装置10-2から送信された動画像が表示される。この動画像は、クライアント装置10-2のユーザBの顔の画像IMG110-1cを含む。
The screen P110-1 includes display objects A110-1a to A110-1b.
An image captured by the
The moving image transmitted from the client device 10-2 is displayed on the display object A110-1b. This moving image includes an image IMG110-1c of the face of user B of client device 10-2.
クライアント装置10-2のプロセッサ12は、ディスプレイ15に画面P110-2(図11B)を表示する。
画面P110-2は、表示オブジェクトA110-2a~A110-2bを含む。
表示オブジェクトA110-2aには、クライアント装置10-2のカメラ16が撮像した画像が表示される。このカメラ16が撮像した画像は、ユーザBの顔の画像IMG110-2aを含む。
表示オブジェクトA110-2bには、クライアント装置10-1から送信された動画像が表示される。この動画像は、クライアント装置10-1のユーザAの顔の画像IMG110-2bと、商品の画像IMG110-2cと、を含む。
Screen P110-2 includes display objects A110-2a to A110-2b.
An image captured by the
A moving image transmitted from the client device 10-1 is displayed on the display object A110-2b. This moving image includes an image IMG110-2b of the face of user A of client device 10-1 and an image IMG110-2c of a product.
ステップS310の後、サーバ30は、商品の特定(S311)を実行する。
After step S310, the
ステップS311の第1例として、プロセッサ12は、ユーザ指示(例えば、ディスプレイ15に表示された画面に含まれるフィールドオブジェクトに対する商品情報)をサーバ30に送信する。
プロセッサ32は、プロセッサ12によって送信されたユーザ指示に基づいて、商品の商品IDを特定する。As a first example of step S<b>311 , the
ステップS311の第2例として、プロセッサ32は、ステップS310で取得したビデオデータに含まれる商品の画像IMG110-1bに対して、特徴量解析を適用することにより、画像IMG110-1bの特徴量を抽出する。
プロセッサ32は、抽出した特徴量と、商品情報データベース(図5)の「特徴パターン」フィールドの情報とを比較することにより、画像IMG110-1bが表す商品の商品IDを特定する。As a second example of step S311,
ステップS311の第3例として、ユーザが商品情報(例えば、商品名)の音声を発すると、音声入出力装置17は、ユーザが発した音声を入力する。
プロセッサ12は、音声入出力装置17によって入力された音声をサーバ30に送信する。
プロセッサ32は、プロセッサ12によって送信された音声を解析することにより、商品名を特定する。
プロセッサ32は、商品情報データベース(図5)を参照して、特定した商品名に関連付けられた商品IDを特定する。As a third example of step S311, when the user utters the product information (for example, product name), the voice input/
The
ステップS311の後、サーバ30は、顔画像解析(S312)を実行する。
具体的には、プロセッサ32は、ステップS310で取得したビデオデータに含まれる顔の画像IMG110-1aに対して、FACS理論に基づく画像解析を実行することにより、ユーザAの顔の部位毎に、動きの変化のレベルに関するアクションユニット情報を生成する。After step S311, the
Specifically, the
ステップS312の後、サーバ30は、感情の推定(S313)を実行する。
具体的には、プロセッサ32は、ユーザAの各部位のアクションユニット情報を、感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザAの感情に関する感情情報を推定する。After step S312, the
Specifically, the
ステップS313の後、サーバ30は、反応スコアの計算(S314)を実行する。
具体的には、プロセッサ32は、商品情報データベース(図5)を参照して、ステップS311で特定した商品IDに関連付けられた商品名に関する情報を特定する。
プロセッサ32は、ステップS313で推定したユーザAの感情情報(つまり、ビデオデータを構成する全ての画像フレームに対応する感情情報)を、反応スコアの計算式に適用することにより、ユーザAの反応スコアを計算する。
プロセッサ32は、計算した反応スコアに関する情報を、クライアント装置10-1及び10-2に送信する。After step S313, the
Specifically, the
The
ステップS314の後、クライアント装置10-1及び10-2は、反応スコアの提示(S110)を実行する。
具体的には、プロセッサ12は、ステップS314においてサーバ30から送信された反応スコアに基づく画面P112(図12)をディスプレイ15に表示する。After step S314, the client devices 10-1 and 10-2 present reaction scores (S110).
Specifically, the
画面P112は、画面P110-1(図11)と同様のオブジェクト(表示オブジェクトA110-1a及びA110-1b)に加えて、表示オブジェクトA112a~112bと、ボタンオブジェクトB112と、を含む。
表示オブジェクトA112aには、グラフ画像IMG112aが表示される。グラフ画像IMG112aは、ユーザAの感情の種類(例えば、喜び(HAPPY)及び悲しみ(SAD))毎に、ビデオデータを構成する画像フレーム(F)毎の感情情報(EMOTION LEVEL)の推移(つまり、商品に対するユーザAの感情の時系列変化)を示している。
表示オブジェクトA112bには、ユーザAの反応スコアが表示される。
ボタンオブジェクトB112は、動画の撮影を終了するためのユーザ指示を受け付けるオブジェクトである。The screen P112 includes display objects A112a-112b and a button object B112 in addition to the same objects (display objects A110-1a and A110-1b) as the screen P110-1 (FIG. 11).
A graph image IMG112a is displayed on the display object A112a. The graph image IMG112a shows transitions (i.e., 4 shows a time-series change in user A's feelings toward the product).
User A's reaction score is displayed on the display object A 112b.
The button object B112 is an object that receives a user's instruction to end shooting a moving image.
ステップS110の後、クライアント装置10-1は、更新リクエスト(S112)を実行する。
具体的には、ユーザAがボタンオブジェクトB112を操作すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。After step S110, the client device 10-1 executes the update request (S112).
Specifically, when user A operates button object B 112 ,
ステップS112の後、サーバ30は、データベースの更新(S315)を実行する。
具体的には、プロセッサ32は、ユーザ情報データベース(図4)を参照して、ログインリクエストデータに含まれるユーザIDに関連付けられたユーザ属性情報を特定する。
プロセッサ32は、商品情報データベース(図5)を参照して、ステップS311で特定した商品IDに関連付けられたレコード(以下「更新対象レコード」という)を特定する。
プロセッサ32は、更新対象レコードの「反応スコア」フィールドの値を以下のとおり更新する。
・「全体平均」フィールドでは、ステップS314で計算した反応スコアに基づいて、平均値が更新される。
・「属性平均」フィールドでは、ステップS314で計算した反応スコアと、特定したユーザ属性情報と、に基づいて平均値が更新される。After step S112, the
Specifically,
The
The
- In the "overall average" field, the average value is updated based on the reaction score calculated in step S314.
- In the "attribute average" field, the average value is updated based on the reaction score calculated in step S314 and the specified user attribute information.
人の感情は、他人との会話中により強く現れる。第2実施形態によれば、ユーザBと商品について会話するユーザAの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザAの客観的な評価の指標の精度を向上させることができる。 A person's emotions appear more strongly during a conversation with another person. According to the second embodiment, the reaction score is calculated based on the change in facial expression of user A who is having a conversation with user B about products. As a result, it is possible to improve the accuracy of the user A's objective evaluation index for the product.
(2-3)第2実施形態の変形例
第2実施形態の変形例について説明する。(2-3) Modification of Second Embodiment A modification of the second embodiment will be described.
(2-3-1)第2実施形態の変形例1
第2実施形態の変形例1について説明する。第2実施形態の変形例1では、会話中のユーザの両方の反応スコアを計算する。図13は、第2実施形態の変形例1の情報処理において表示される画面例を示す図である。(2-3-1)
第2実施形態の変形例1のプロセッサ32は、ステップS312において、ユーザAの反応スコアと、ユーザBの反応スコアと、を計算する。
The
第2実施形態の変形例1のプロセッサ12は、ステップS110において、画面P114(図13)をディスプレイ15に表示する。
The
画面P114は、画面P112(図12)と同様のオブジェクトに加えて、表示オブジェクトA114a~A114bを含む。
表示オブジェクトA114aには、グラフ画像IMG114aが表示される。グラフ画像IMG114aは、ユーザBの感情の種類(例えば、喜び(HAPPY)及び悲しみ(SAD))毎に、ビデオデータを構成する画像フレーム(F)毎の感情情報(EMOTION LEVEL)の推移(つまり、商品に対するユーザAの感情の時系列変化)を示している。
表示オブジェクトA114bには、ユーザBの反応スコアが表示される。Screen P114 includes display objects A114a-A114b in addition to the same objects as screen P112 (FIG. 12).
A graph image IMG114a is displayed on the display object A114a. The graph image IMG 114a shows changes in emotional information (EMOTION LEVEL) for each image frame (F) that constitutes the video data for each type of user B's emotion (for example, happiness (HAPPY) and sadness (SAD)) (that is, 4 shows a time-series change in user A's feelings toward the product).
User B's reaction score is displayed on the display object A 114b.
(2-3-2)第2実施形態の変形例2
第2実施形態の変形例2について説明する。第2実施形態の変形例2では、会話中のユーザのうち、商品を所有するユーザの表情を優先して、反応スコアを計算する。(2-3-2)
第2実施形態の変形例2のプロセッサ32は、ステップS312において、以下の何れかに該当するユーザ(つまり、商品への関心が相対的に高いユーザ)を第1ユーザとして特定し、第1ユーザ以外のユーザを第2ユーザとして特定する。
・商品情報を指定したユーザ
・ビデオデータに商品の画像が含まれるクライアント装置10のユーザ
・商品情報の音声を最初に発したユーザIn step S312, the
- The user who specified the product information - The user of the
記憶装置31に記憶された感情推定式は、第1ユーザのための第1重み付け係数と、第2ユーザのための第2重み付け係数と、を含む。第1重み付け係数は、第2重み付け係数より大きい。つまり、この感情推定式では、第1ユーザの表情を第2ユーザより重視して、反応スコアが計算される。
The emotion estimation formula stored in the
プロセッサ32は、ステップS312において、第1ユーザの第1アクションユニット情報と、第2ユーザの第2アクションユニット情報と、を生成する。
The
プロセッサ32は、ステップS313において、第1アクションユニット情報及び第2アクションユニット情報を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、感情情報を推定する。この場合、第1アクションユニット情報は第1重み付け係数に適用される。第2アクションユニット情報は第2重み付け係数に適用される。
In step S313, the
第2実施形態の変形例2によれば、複数のユーザの顔の表情の変化に基づいて反応スコアを計算する場合において、商品を所有するユーザAの表情を重視する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to Modified Example 2 of the second embodiment, when calculating reaction scores based on changes in the facial expressions of a plurality of users, emphasis is placed on the facial expressions of user A who owns the product. As a result, it is possible to improve the accuracy of the user's objective evaluation index for the product.
(3)第3実施形態
第3実施形態について説明する。第3実施形態は、仮想的な人物(以下「アバタ」という)との会話中のユーザの表情の変化に基づいて、商品に対するユーザの反応スコアを取得する例である。(3) Third Embodiment A third embodiment will be described. The third embodiment is an example of acquiring a user's reaction score to a product based on changes in the user's facial expression during conversation with a virtual person (hereinafter referred to as "avatar").
(3-1)第3実施形態の概要
第3実施形態の概要について説明する。図14は、第3実施形態の概要の説明図である。(3-1) Outline of Third Embodiment An outline of the third embodiment will be described. FIG. 14 is an explanatory diagram of the outline of the third embodiment.
図14に示すように、クライアント装置10のユーザは、クライアント装置10を用いて商品の動画像を撮影し、且つ、アバタとの会話を行う。
As shown in FIG. 14, the user of the
クライアント装置10は、評価の対象となる商品に関する商品情報を特定する。
クライアント装置10は、商品情報の特定に成功した場合、動画像に含まれるユーザの顔の画像を解析する。
クライアント装置10は、解析の結果に基づいて、商品に対するユーザの反応に関する指標である反応スコアを計算する。The
The
The
このように、クライアント装置10は、商品情報を特定することができた場合、アバタと会話するユーザの顔の画像の解析の結果に基づいて、当該商品情報に対応する商品に対するユーザの反応スコアを計算する。
これにより、商品に対する客観的な評価の指標を得ることができる。In this way, when the product information can be specified, the
This makes it possible to obtain an objective evaluation index for the product.
(3-2)情報処理
第3実施形態の情報処理について説明する。図15は、第3実施形態の情報処理のシーケンス図である。図16は、図15の情報処理において表示される画面例を示す図である。(3-2) Information processing Information processing according to the third embodiment will be described. FIG. 15 is a sequence diagram of information processing according to the third embodiment. 16 is a diagram showing an example of a screen displayed in the information processing of FIG. 15. FIG.
図15に示すように、クライアント装置10は、第1実施形態(図6)と同様に、ログインリクエスト(S100)を実行する。
ステップS100の後、サーバ30は、第1実施形態と同様に、ログイン認証(S300)を実行する。As shown in FIG. 15, the
After step S100, the
ステップS300の後、クライアント装置10は、アバタの提示(S120)を実行する。
具体的には、プロセッサ12は、画面P120をディスプレイ15(図16)に表示する。After step S300, the
Specifically,
画面P120は、画面P101(図7)と同様のオブジェクトに加えて、表示オブジェクトA120を含む。
表示オブジェクトA120には、アバタの画像IMG120が表示される。アバタは、ユーザに対する問いかけ(例えば「どんな商品?」という質問のテキスト及び音声の少なくとも1つ)を提示する。Screen P120 includes a display object A120 in addition to the same objects as screen P101 (FIG. 7).
An avatar image IMG120 is displayed on the display object A120. The avatar presents a question to the user (for example, at least one of text and voice of the question "What kind of product?").
ステップS120の後、クライアント装置10は、ビデオデータの取得(S121)を実行する。
具体的には、ユーザがボタンオブジェクトB101を操作し、且つ、アバタの問いかけに対して回答(例えば、回答に関するテキスト及び音声の少なくとも1つ)の入力を行うと、プロセッサ12は、ビデオデータを生成し、且つ、当該ビデオデータ及び回答に関する情報を記憶装置11に記憶する。ビデオデータは、カメラ16によって撮像された動画像と、音声入出力装置17によって入力された音声と、を含む。After step S120, the
Specifically, when the user operates the button object B101 and inputs an answer (for example, at least one of text and voice regarding the answer) to the avatar's question, the
ステップS121の後、クライアント装置10は、第1実施形態(図6)と同様に、ステップS102~S106を実行する。
ステップS106の後、サーバ30は、第1実施形態と同様に、ステップS301を実行する。After step S121, the
After step S106, the
人の感情は、他人との会話中により強く現れる。第3実施形態によれば、他のユーザが存在しなくても、アバタと商品について会話するユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 A person's emotions appear more strongly during a conversation with another person. According to the third embodiment, the reaction score is calculated based on the change in facial expression of the user who is having a conversation with the avatar about the product, even if no other user is present. As a result, it is possible to improve the accuracy of the user's objective evaluation index for the product.
(4)変形例
本実施形態の変形例について説明する。(4) Modification A modification of the present embodiment will be described.
(4-1)変形例1
変形例1について説明する。変形例1は、表情の変化及び音声を考慮して反応スコアを計算する例である。(4-1)
変形例1を第1実施形態に適用する場合、プロセッサ12は、ステップS104において、ビデオデータに含まれる音声の特徴量を抽出する。
プロセッサ12は、アクションユニット情報と、音声の特徴量と、を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。When applying
The
変形例1によれば、表情の変化及び音声を考慮して反応スコアを計算するので、顔画像解析のみを用いる場合よりも反応スコアの精度を向上させることができる。
According to
変形例1は、第2実施形態及び第3実施形態にも適用可能である。
(4-2)変形例2
変形例2ついて説明する。変形例2は、表情の変化及び生体情報を考慮して反応スコアを計算する例である。(4-2)
変形例2では、ユーザは、生体情報を計測可能な計測装置を装着している。生体情報は、例えば、以下の少なくとも1つを含む。
・心拍数
・脳波
・体温
・ストレスホルモンの値In Modified Example 2, the user is wearing a measurement device capable of measuring biological information. The biometric information includes, for example, at least one of the following.
・Heart rate ・EEG ・Body temperature ・Stress hormone levels
変形例2を第1実施形態に適用する場合、プロセッサ12は、ステップS104において、計測装置から生体情報を取得する。
プロセッサ12は、アクションユニット情報と、生体情報と、を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。When applying
The
変形例2によれば、表情の変化及び生体情報を考慮して反応スコアを計算するので、顔画像解析のみを用いる場合よりも反応スコアの精度を向上させることができる。
According to
変形例2は、第2実施形態及び第3実施形態にも適用可能である。
(4-3)変形例3
変形例3について説明する。変形例3は、表情の変化及び顔の傾きを考慮して、反応スコアを計算する例である。(4-3) Modification 3
Modification 3 will be described. Modification 3 is an example of calculating a reaction score in consideration of changes in facial expression and inclination of the face.
変形例3を第1実施形態に適用する場合、プロセッサ12は、ステップS103において、アクションユニット情報に加えて、顔の傾きの変化量に関する傾き情報を生成する。
プロセッサ12は、ステップS104において、アクションユニット情報と、傾き情報と、を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。When applying modification 3 to the first embodiment, the
In step S104, the
変形例3によれば、表情の変化及び顔の傾きを考慮して反応スコアを計算するので、顔画像解析のみを用いる場合よりも反応スコアの精度を向上させることができる。 According to Modified Example 3, since the reaction score is calculated in consideration of changes in facial expression and inclination of the face, it is possible to improve the accuracy of the reaction score compared to the case where only face image analysis is used.
変形例3は、第2実施形態及び第3実施形態にも適用可能である。 Modification 3 is also applicable to the second and third embodiments.
(4-4)変形例4
変形例4について説明する。変形例4は、ユーザの顔の画像を含む静止画像に基づいて、反応スコアを計算する例である。(4-4) Modification 4
Modification 4 will be described. Modification 4 is an example of calculating a reaction score based on a still image including a user's face image.
変形例4のプロセッサ12は、ステップS101においてビデオデータを生成した場合、ステップS103において、ビデオデータを構成する画像フレームから、所定条件を満たす画像フレームを抽出する。
When the
所定条件を満たす画像フレームは、例えば、以下の何れかである。
・ボタンオブジェクトB102が操作された時点の画像フレーム
・ビデオデータを構成する画像フレームのうち、表情の変化量が最も大きい画像フレーム
・ビデオデータを構成する画像フレームのうち、ユーザが指定した画像フレーム(例えば、ユーザが「自身の感情がもっとも表れている」と感じた画像の画像フレーム)An image frame that satisfies a predetermined condition is, for example, any of the following.
- An image frame at the time when the button object B102 is operated - An image frame with the largest facial expression change amount among the image frames constituting the video data - An image frame designated by the user (among the image frames constituting the video data) For example, the image frame of the image that the user felt "most expresses his feelings")
プロセッサ12は、所定条件を満たす画像フレームに対して、特徴量解析を適用することにより、ユーザの感情に関する感情情報を推定する。
The
なお、変形例4では、ステップS101は省略可能である。この場合、クライアント装置10は、ステップS101に変えて、ユーザの顔の画像を含む静止画像を取得する。
Note that in Modification 4, step S101 can be omitted. In this case, the
変形例4によれば、静止画像の解析結果に基づいて反応スコアを計算する。これにより、静止画像(つまり、ある時点の表情)からでも、商品に対するユーザの客観的な評価の指標を得ることができる。 According to Modification 4, the reaction score is calculated based on the still image analysis result. As a result, even from a still image (that is, an expression at a certain point in time), it is possible to obtain an index of the user's objective evaluation of the product.
(5)本実施形態の小括
本実施形態について小括する。(5) Summary of this embodiment This embodiment will be summarized.
本実施形態の第1態様は、
ユーザの表情に関する表情情報を取得する手段(例えば、ステップS101を実行するプロセッサ12)を備え、
商品に関する商品情報を特定する手段(例えば、ステップS102を実行するプロセッサ12)を備え、
商品情報が特定された場合、表情情報に基づいて表情の変化を解析する手段(例えば、ステップS103を実行するプロセッサ12)を備え、
解析の結果に基づいて、商品に対するユーザの反応に関する指標である反応スコアを計算する手段(例えば、ステップS104を実行するプロセッサ12)を備える、
情報処理装置(例えば、クライアント装置10)である。The first aspect of this embodiment is
A means for acquiring facial expression information related to a user's facial expression (for example, a
A means for specifying product information about the product (for example, a
If product information is specified, means for analyzing changes in facial expression based on facial expression information (for example,
Means (e.g.,
An information processing device (for example, the client device 10).
第1態様によれば、ユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標を得ることができる。 According to the first aspect, the reaction score is calculated based on changes in the user's facial expression. As a result, it is possible to obtain an index of the user's objective evaluation of the product.
本実施形態の第2態様は、
取得する手段は、ユーザの顔の画像を含む動画像、及び、ユーザの表情筋筋電図の少なくとも1つを取得する、
情報処理装置である。A second aspect of the present embodiment is
the acquisition means acquires at least one of a moving image including a user's face image and a user's facial myocardium;
It is an information processing device.
本実施形態の第3態様は、
取得する手段は、商品の画像を含む動画像を更に取得し、
特定する手段は、取得された動画像に含まれる商品の画像に基づいて、商品情報を特定する、
情報処理装置である。The third aspect of this embodiment is
The acquisition means further acquires a moving image including an image of the product,
The specifying means specifies the product information based on the image of the product included in the acquired moving image.
It is an information processing device.
本実施形態の第4態様は、
少なくとも1人のユーザが発した商品情報を含む音声を取得する手段(例えば、音声入出力装置17)を備え、
特定する手段は、取得された音声に基づいて商品情報を特定する、
情報処理装置である。The fourth aspect of this embodiment is
A means (for example, a voice input/output device 17) for acquiring voice including product information uttered by at least one user,
The identifying means identifies the product information based on the acquired voice,
It is an information processing device.
本実施形態の第5態様は、
解析する手段は、音声を更に解析する、
情報処理装置である。The fifth aspect of this embodiment is
The analyzing means further analyzes the voice,
It is an information processing device.
第5態様によれば、ユーザの顔の画像に加えて、ユーザの音声の解析結果を考慮して反応スコアが計算される。これにより、反応スコアの精度を向上させることができる。 According to the fifth aspect, the reaction score is calculated in consideration of the analysis result of the user's voice in addition to the image of the user's face. Thereby, the accuracy of the reaction score can be improved.
本実施形態の第6態様は、
ユーザの生体に関する生体情報 を取得する手段を備え、
計算する手段は、解析の結果と、取得された生体情報と、に基づいて、反応スコアを計算する、
情報処理装置である。A sixth aspect of the present embodiment is
a means for acquiring biometric information about a user's biometric body;
The calculating means calculates a reaction score based on the analysis result and the acquired biometric information;
It is an information processing device.
第6態様によれば、ユーザの顔の画像に加えて、ユーザの生体情報を考慮して反応スコアが計算される。これにより、反応スコアの精度を向上させることができる。 According to the sixth aspect, the reaction score is calculated in consideration of the biometric information of the user in addition to the image of the user's face. Thereby, the accuracy of the reaction score can be improved.
本実施形態の第7態様は、
解析の結果に基づいて、商品を見ているユーザの顔の傾きを判定する手段を備え、
計算する手段は、傾きを参照して、反応スコアを計算する、
情報処理装置である。The seventh aspect of this embodiment is
comprising means for determining the tilt of the face of the user looking at the product based on the results of the analysis;
the computing means refers to the slope and computes a response score;
It is an information processing device.
第7態様によれば、ユーザの顔の画像に加えて、ユーザの顔の傾きを考慮して反応スコアが計算される。これにより、反応スコアの精度を向上させることができる。 According to the seventh aspect, the reaction score is calculated in consideration of the inclination of the user's face in addition to the image of the user's face. Thereby, the accuracy of the reaction score can be improved.
本実施形態の第8態様は、
仮想ユーザのアバタ画像、ユーザに対する質問を含むテキストメッセージ、及び、ユーザに対する質問を含む音声メッセージの少なくとも1つをユーザに提示する手段(例えば、ステップS120を実行するプロセッサ12)を備え、
解析する手段は、提示のときの動画像に含まれる顔を解析する、
情報処理装置である。The eighth aspect of the present embodiment is
means for presenting to the user at least one of an avatar image of the virtual user, a text message containing a question for the user, and a voice message containing a question for the user (e.g., the
The analyzing means analyzes the face included in the moving image at the time of presentation,
It is an information processing device.
第8態様によれば、他のユーザが存在しなくても、アバタと商品について会話するユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the eighth aspect, the reaction score is calculated based on the change in facial expression of the user who is having a conversation with the avatar about the product even if no other user is present. As a result, it is possible to improve the accuracy of the user's objective evaluation index for the product.
本実施形態の第9態様は、
商品を使用する第1ユーザの顔の第1画像を含む第1動画像と、第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段(例えば、ステップS310を実行するプロセッサ32)を備え、
商品に関する商品情報を特定する手段(例えば、ステップS311を実行するプロセッサ32)を備え、
商品情報が特定された場合、第1画像を解析する手段(例えば、ステップS312を実行するプロセッサ32)を備え、
解析の結果に基づいて、商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段(例えば、ステップS314を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。A ninth aspect of the present embodiment is
Means for acquiring a first moving image including a first image of the face of the first user who uses the product and a second moving image including a second image of the face of the second user who interacts with the first user (for example , a processor 32) for executing step S310;
A means for specifying product information about the product (for example, a
means for analyzing the first image when product information is identified (e.g.,
Means (e.g.,
An information processing device (for example, server 30).
第9態様によれば、ユーザBと商品について会話するユーザAの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザAの客観的な評価の指標の精度を向上させることができる。 According to the ninth aspect, the reaction score is calculated based on the change in the facial expression of user A who is having a conversation with user B about products. As a result, it is possible to improve the accuracy of the user A's objective evaluation index for the product.
本実施形態の第10態様は、
解析する手段は、第1画像と、第2ユーザの顔の第2画像と、を解析する、
情報処理装置である。A tenth aspect of the present embodiment is
the means for analyzing analyzes the first image and the second image of the face of the second user;
It is an information processing device.
第10態様によれば、複数のユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the tenth aspect, reaction scores are calculated based on changes in facial expressions of a plurality of users. As a result, it is possible to improve the accuracy of the user's objective evaluation index for the product.
本実施形態の第11態様は、
第1動画像は、商品の画像を含み、
特定する手段は、取得された第1動画像に含まれる商品の画像に基づいて、商品情報を特定する、
情報処理装置である。The eleventh aspect of this embodiment is
The first moving image includes an image of the product,
The identifying means identifies the product information based on the image of the product included in the acquired first moving image.
It is an information processing device.
本実施形態の第12態様は、
取得する手段は、第1ユーザが発した商品情報を含む第1音声と、第2ユーザの第2音声と、を取得し、
特定する手段は、取得された第1音声に基づいて商品情報を特定する、
情報処理装置である。The twelfth aspect of this embodiment is
the acquiring means acquires a first voice including product information uttered by the first user and a second voice of the second user;
The identifying means identifies the product information based on the acquired first voice,
It is an information processing device.
本実施形態の第13態様は、
解析する手段は、第1音声及び第2音声を更に解析する、
情報処理装置である。The thirteenth aspect of this embodiment is
the means for analyzing further analyzes the first sound and the second sound;
It is an information processing device.
第13態様によれば、複数のユーザの表情及び音声に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the thirteenth aspect, a reaction score is calculated based on facial expressions and voices of a plurality of users. As a result, it is possible to improve the accuracy of the user's objective evaluation index for the product.
本実施形態の第14態様は、
第1ユーザの生体に関する第1生体情報と、第2ユーザの第2生体情報と、を取得する手段を備え、
計算する手段は、解析の結果と、取得された第1生体情報及び第2生体情報と、に基づいて、反応スコアを計算する、
情報処理装置である。The fourteenth aspect of this embodiment is
comprising means for acquiring first biometric information relating to the biometrics of the first user and second biometric information of the second user;
the calculating means calculates a reaction score based on the analysis result and the obtained first and second biological information;
It is an information processing device.
第14態様によれば、複数のユーザの表情及び生体情報に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the fourteenth aspect, a reaction score is calculated based on facial expressions and biometric information of a plurality of users. As a result, it is possible to improve the accuracy of the user's objective evaluation index for the product.
本実施形態の第15態様は、
解析の結果に基づいて、商品を見ている第1ユーザの顔の傾きと、第2ユーザの顔の傾きと、を判定する手段を備え、
計算する手段は、傾きを参照して、反応スコアを計算する、
情報処理装置である。The fifteenth aspect of this embodiment is
a means for determining the inclination of the face of the first user looking at the product and the inclination of the face of the second user based on the result of the analysis;
the calculating means refers to the slope and calculates a response score;
It is an information processing device.
第15態様によれば、複数のユーザの表情及び顔の傾きに基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the fifteenth aspect, the reaction score is calculated based on the facial expressions and facial tilts of a plurality of users. As a result, it is possible to improve the accuracy of the user's objective evaluation index for the product.
本実施形態の第16態様は、
計算する手段は、第1ユーザの顔の画像の解析結果に第1重み付け係数を適用し、第2ユーザの顔の画像の解析結果に第2重み付け係数を適用することにより、反応スコアを計算し、
第1重み付け係数は、第2重み付け係数より大きい、
情報処理装置である。The sixteenth aspect of this embodiment is
The means for calculating calculates a response score by applying a first weighting factor to the analysis result of the face image of the first user and applying a second weighting factor to the analysis result of the face image of the second user. ,
the first weighting factor is greater than the second weighting factor;
It is an information processing device.
第16態様によれば、複数のユーザの顔の表情の変化に基づいて反応スコアを計算する場合において、商品を所有するユーザの表情を重視する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。 According to the sixteenth aspect, when calculating reaction scores based on changes in facial expressions of a plurality of users, emphasis is placed on the facial expression of the user who owns the product. As a result, it is possible to improve the accuracy of the user's objective evaluation index for the product.
本実施形態の第17態様は、
商品を所有する第1ユーザが使用する第1クライアント装置10-1と、第1ユーザと対話する第2ユーザが使用する第2クライアント装置10-2と、第1クライアント装置10-1と第2クライアント装置10-2との間のビデオ通話シーケンス(S310)を実行するサーバ30と、を備える情報処理システム1であって、
第1クライアント装置10-1は、第1ユーザの顔の第1画像を含む第1動画像を取得する手段(例えば、ステップS310を実行するプロセッサ12)を備え、
第2クライアント装置10-2は、第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段(例えば、ステップS310を実行するプロセッサ12)を備え、
サーバ30は、
第1動画像及び第2動画像を取得する手段(例えば、ステップS310を実行するプロセッサ12)を備え、
商品に関する商品情報を特定する手段(例えば、ステップS311を実行するプロセッサ12)を備え、
商品情報が特定された場合、第1動画像に含まれる顔の画像を解析する手段(例えば、ステップS312を実行するプロセッサ12)を備え、
解析の結果に基づいて、商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段(例えば、ステップS314を実行するプロセッサ12)を備える、情報処理システム1である。The seventeenth aspect of this embodiment is
A first client device 10-1 used by a first user who owns a product, a second client device 10-2 used by a second user who interacts with the first user, and a first client device 10-1 and a second client device 10-1. an
The first client device 10-1 comprises means (for example, the
The second client device 10-2 comprises means for acquiring a second moving image including a second image of the face of the second user (eg, the
The
A means for acquiring the first moving image and the second moving image (for example, the
A means for specifying product information about the product (for example, a
If the product information is specified, means for analyzing the face image included in the first moving image (for example, a
The
本実施形態の第18態様は、
ユーザの顔の画像を含む静止画像を取得する手段を備え、
商品に関する商品情報を特定する手段を備え、
商品情報が特定された場合、前記静止画像を解析する手段を備え、
解析の結果に基づいて、前記商品に対する前記ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理装置である。The eighteenth aspect of the present embodiment is
comprising means for acquiring a still image including an image of the user's face;
Equipped with means for identifying product information about the product,
provided with means for analyzing the still image when product information is specified;
means for calculating a reaction score, which is an indicator of the user's reaction to the product, based on the analysis results;
It is an information processing device.
第18態様によれば、ある時点のユーザの表情に基づいて、反応スコアを計算する。これにより、静止画像からでも、商品に対するユーザの客観的な評価の指標を得ることができる。 According to the eighteenth aspect, the reaction score is calculated based on the user's facial expression at a certain time. As a result, even from a still image, it is possible to obtain an index of the user's objective evaluation of the product.
本実施形態の第19態様は、
コンピュータ(例えば、プロセッサ12)を、上記各手段として機能させるためのプログラムである。The nineteenth aspect of the present embodiment is
It is a program for causing a computer (for example, processor 12) to function as each means described above.
(6)その他の変形例 (6) Other modified examples
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
The
上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。
Each step of the information processing described above can be executed by either the
画面P102(図8)の表示オブジェクトA102a及びA102b、並びに、画面P112(図12)の表示オブジェクトA112a及びA112bは、省略可能である。
表示オブジェクトA102a及びA102bを省略する場合、ステップS106(図6)も省略される。この場合、クライアント装置10は、ステップS105の後、ユーザ指示を受け付けることなく、更新リクエストデータをサーバ30に送信する。
表示オブジェクトA112a及びA112bを省略する場合、ステップS110及びS112(図10)も省略される。この場合、サーバ30は、ステップS314の後、クライアント装置10との通信を行わずに、ステップS315を実行する。
これにより、測定中に感情情報及び反応スコアを示すことによる測定への影響(例えば、感情情報及び反応スコアの客観性の毀損)を防ぐことができる。The display objects A102a and A102b of the screen P102 (FIG. 8) and the display objects A112a and A112b of the screen P112 (FIG. 12) can be omitted.
When omitting the display objects A102a and A102b, step S106 (FIG. 6) is also omitted. In this case, the
If display objects A112a and A112b are omitted, steps S110 and S112 (FIG. 10) are also omitted. In this case, the
This can prevent affecting the measurement (eg, impairing the objectivity of the emotional information and the reaction score) by presenting the emotional information and the reaction score during the measurement.
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Also, the above embodiments can be modified and modified in various ways without departing from the gist of the present invention. Also, the above embodiments and modifications can be combined.
1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :ディスプレイ
16 :カメラ
17 :音声入出力装置
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
1 : Information processing system 10 : Client device 11 : Storage device 12 : Processor 13 : Input/output interface 14 : Communication interface 15 : Display 16 : Camera 17 : Audio input/output device 30 : Server 31 : Storage device 32 : Processor 33 : Input Output interface 34: communication interface
Claims (12)
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備え、
前記解析する手段は、前記第1画像と、前記第2ユーザの顔の第2画像と、を解析する、情報処理装置。 means for acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; prepared,
comprising means for specifying product information related to the product;
comprising means for analyzing the first image when the product information is specified;
means for calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
The information processing apparatus, wherein the analyzing means analyzes the first image and the second image of the face of the second user.
前記特定する手段は、前記取得された第1動画像に含まれる商品の画像に基づいて、前記商品情報を特定する、請求項1に記載の情報処理装置。 The first moving image includes an image of the product,
2. The information processing apparatus according to claim 1, wherein said specifying means specifies said product information based on an image of a product included in said acquired first moving image.
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備え、
前記取得する手段は、前記第1ユーザが発した商品情報を含む第1音声と、前記第2ユーザの第2音声と、を取得し、
前記特定する手段は、前記取得された第1音声に基づいて前記商品情報を特定し、
前記解析する手段は、前記第1音声及び前記第2音声を更に解析する、
情報処理装置。 a means for acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; prepared,
comprising means for specifying product information related to the product;
comprising means for analyzing the first image when the product information is specified;
means for calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
The acquiring means acquires a first voice containing product information uttered by the first user and a second voice of the second user,
The specifying means specifies the product information based on the acquired first voice,
the means for analyzing further analyzes the first sound and the second sound;
Information processing equipment.
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備え、
前記第1ユーザの生体に関する第1生体情報と、前記第2ユーザの第2生体情報と、を取得する手段を備え、
前記計算する手段は、前記解析の結果と、前記取得された第1生体情報及び第2生体情報と、に基づいて、前記反応スコアを計算する、
情報処理装置。 a means for acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; prepared,
comprising means for specifying product information related to the product;
comprising means for analyzing the first image when the product information is specified;
means for calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
comprising means for acquiring first biometric information related to the biometrics of the first user and second biometric information of the second user;
the calculating means calculates the reaction score based on the analysis result and the obtained first and second biological information;
Information processing equipment.
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備え、
前記解析の結果に基づいて、前記商品を見ている第1ユーザの顔の傾きと、前記第2ユーザの顔の傾きと、を判定する手段を備え、
前記計算する手段は、前記傾きを参照して、前記反応スコアを計算する、情報処理装置。 means for acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; prepared,
comprising means for specifying product information related to the product;
comprising means for analyzing the first image when the product information is specified;
means for calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
means for determining the inclination of the face of the first user looking at the product and the inclination of the face of the second user based on the analysis result;
The information processing apparatus, wherein the calculating means calculates the reaction score by referring to the inclination.
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備え、
前記計算する手段は、前記第1ユーザの顔の画像の解析結果に第1重み付け係数を適用し、前記第2ユーザの顔の画像の解析結果に第2重み付け係数を適用することにより、前記反応スコアを計算し、
前記第1重み付け係数は、前記第2重み付け係数より大きい、
情報処理装置。 means for acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; prepared,
comprising means for specifying product information related to the product;
comprising means for analyzing the first image when the product information is specified;
means for calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
The calculating means applies a first weighting factor to an analysis result of the face image of the first user and a second weighting factor to an analysis result of the face image of the second user to obtain the reaction calculate the score,
the first weighting factor is greater than the second weighting factor;
Information processing equipment.
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得するステップを実行し、
前記商品に関する商品情報を特定するステップを実行し、
前記商品情報が特定された場合、前記第1画像を解析するステップを実行し、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算するステップを実行し、
前記解析するステップは、前記第1画像と、前記第2ユーザの顔の第2画像と、を解析する、情報処理方法。 the computer
Acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; run ,
performing the step of identifying merchandise information about the merchandise;
if the product information is identified, analyzing the first image;
performing a step of calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
The information processing method, wherein the analyzing step analyzes the first image and a second image of the face of the second user.
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得するステップを実行し、
前記商品に関する商品情報を特定するステップを実行し、
前記商品情報が特定された場合、前記第1画像を解析するステップを実行し、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算するステップを実行し、
前記取得するステップは、前記第1ユーザが発した商品情報を含む第1音声と、前記第2ユーザの第2音声と、を取得し、
前記特定するステップは、前記取得された第1音声に基づいて前記商品情報を特定し、
前記解析するステップは、前記第1音声及び前記第2音声を更に解析する、
情報処理方法。 the computer
Acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; run ,
performing the step of identifying merchandise information about the merchandise;
if the product information is identified, analyzing the first image;
performing a step of calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
The acquiring step acquires a first voice containing product information uttered by the first user and a second voice of the second user,
The identifying step identifies the product information based on the acquired first voice,
the analyzing step further analyzes the first audio and the second audio;
Information processing methods.
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得するステップを実行し、
前記商品に関する商品情報を特定するステップを実行し、
前記商品情報が特定された場合、前記第1画像を解析するステップを実行し、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算するステップを実行し、
前記第1ユーザの生体に関する第1生体情報と、前記第2ユーザの第2生体情報と、を取得するステップを実行し、
前記計算するステップは、前記解析の結果と、前記取得された第1生体情報及び第2生体情報と、に基づいて、前記反応スコアを計算する、
情報処理方法。 the computer
Acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; run ,
performing the step of identifying merchandise information about the merchandise;
if the product information is identified, analyzing the first image;
performing a step of calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
performing a step of acquiring first biometric information related to the biometrics of the first user and second biometric information of the second user;
The calculating step calculates the reaction score based on the result of the analysis and the obtained first and second biological information.
Information processing methods.
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得するステップを実行し、
前記商品に関する商品情報を特定するステップを実行し、
前記商品情報が特定された場合、前記第1画像を解析するステップを実行し、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算するステップを実行し、
前記解析の結果に基づいて、前記商品を見ている第1ユーザの顔の傾きと、前記第2ユーザの顔の傾きと、を判定するステップを実行し、
前記計算するステップは、前記傾きを参照して、前記反応スコアを計算する、情報処理方法。 the computer
Acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; run ,
performing the step of identifying merchandise information about the merchandise;
if the product information is identified, analyzing the first image;
performing a step of calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
performing a step of determining the tilt of the face of the first user looking at the product and the tilt of the face of the second user, based on the result of the analysis;
The information processing method, wherein the calculating step refers to the slope and calculates the reaction score.
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得するステップを実行し、
前記商品に関する商品情報を特定するステップを実行し、
前記商品情報が特定された場合、前記第1画像を解析するステップを実行し、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算するステップを実行し、
前記計算するステップは、前記第1ユーザの顔の画像の解析結果に第1重み付け係数を適用し、前記第2ユーザの顔の画像の解析結果に第2重み付け係数を適用することにより、前記反応スコアを計算し、
前記第1重み付け係数は、前記第2重み付け係数より大きい、
情報処理方法。 the computer
Acquiring a first moving image including a first image of the face of a first user who owns a product and a second moving image including a second image of the face of a second user who interacts with the first user; run ,
performing the step of identifying merchandise information about the merchandise;
if the product information is identified, analyzing the first image;
performing a step of calculating a reaction score, which is an index of the first user's reaction to the product, based on the analysis result;
The calculating step applies a first weighting factor to an analysis result of the facial image of the first user and a second weighting factor to an analysis result of the second user's facial image, thereby calculate the score,
the first weighting factor is greater than the second weighting factor;
Information processing methods.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018010593 | 2018-01-25 | ||
JP2018010593 | 2018-01-25 | ||
PCT/JP2019/000335 WO2019146405A1 (en) | 2018-01-25 | 2019-01-09 | Information processing device, information processing system, and program for evaluating tester reaction to product using expression analysis technique |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019146405A1 JPWO2019146405A1 (en) | 2021-02-25 |
JP7278972B2 true JP7278972B2 (en) | 2023-05-22 |
Family
ID=67396103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019567964A Active JP7278972B2 (en) | 2018-01-25 | 2019-01-09 | Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7278972B2 (en) |
TW (1) | TW201933234A (en) |
WO (1) | WO2019146405A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6915765B1 (en) * | 2019-10-10 | 2021-08-04 | 株式会社村田製作所 | Interest rate evaluation system and interest rate evaluation method |
US20230096240A1 (en) * | 2020-02-21 | 2023-03-30 | Philip Morris Products S.A. | Method and apparatus for interactive and privacy-preserving communication between a server and a user device |
JPWO2022024392A1 (en) * | 2020-07-31 | 2022-02-03 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003030469A (en) | 2001-07-16 | 2003-01-31 | Ricoh Co Ltd | Commodity sales system by virtual department store using virtual reality space, virtual sales system, program and recording medium |
JP2006012171A (en) | 2004-06-24 | 2006-01-12 | Hitachi Ltd | System and method for using biometrics to manage review |
US20140365272A1 (en) | 2013-06-07 | 2014-12-11 | Bby Solutions, Inc. | Product display with emotion prediction analytics |
JP2016024599A (en) | 2014-07-18 | 2016-02-08 | ヤフー株式会社 | Information management server, information management method, and information management program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8235725B1 (en) * | 2005-02-20 | 2012-08-07 | Sensory Logic, Inc. | Computerized method of assessing consumer reaction to a business stimulus employing facial coding |
US8219438B1 (en) * | 2008-06-30 | 2012-07-10 | Videomining Corporation | Method and system for measuring shopper response to products based on behavior and facial expression |
-
2019
- 2019-01-09 WO PCT/JP2019/000335 patent/WO2019146405A1/en active Application Filing
- 2019-01-09 JP JP2019567964A patent/JP7278972B2/en active Active
- 2019-01-24 TW TW108102698A patent/TW201933234A/en unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003030469A (en) | 2001-07-16 | 2003-01-31 | Ricoh Co Ltd | Commodity sales system by virtual department store using virtual reality space, virtual sales system, program and recording medium |
JP2006012171A (en) | 2004-06-24 | 2006-01-12 | Hitachi Ltd | System and method for using biometrics to manage review |
US20140365272A1 (en) | 2013-06-07 | 2014-12-11 | Bby Solutions, Inc. | Product display with emotion prediction analytics |
JP2016024599A (en) | 2014-07-18 | 2016-02-08 | ヤフー株式会社 | Information management server, information management method, and information management program |
Also Published As
Publication number | Publication date |
---|---|
JPWO2019146405A1 (en) | 2021-02-25 |
WO2019146405A1 (en) | 2019-08-01 |
TW201933234A (en) | 2019-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11627877B2 (en) | Apparatus and method for user evaluation | |
JP6467965B2 (en) | Emotion estimation device and emotion estimation method | |
Carneiro et al. | Multimodal behavioral analysis for non-invasive stress detection | |
JP7278972B2 (en) | Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology | |
EP3779740A1 (en) | Head mounted display system configured to exchange biometric information | |
US20120083675A1 (en) | Measuring affective data for web-enabled applications | |
WO2011045422A1 (en) | Method and system for measuring emotional probabilities of a facial image | |
US10503964B1 (en) | Method and system for measuring and visualizing user behavior in virtual reality and augmented reality | |
JPWO2018168369A1 (en) | Machine learning device and machine learning program | |
WO2019086856A1 (en) | Systems and methods for combining and analysing human states | |
JP6322927B2 (en) | INTERACTION DEVICE, INTERACTION PROGRAM, AND INTERACTION METHOD | |
EP3953799A1 (en) | A smartphone, a host computer, a system and a method for a virtual object on augmented reality | |
Gavrilescu | Study on determining the Big-Five personality traits of an individual based on facial expressions | |
Pan et al. | Video-based engagement estimation of game streamers: An interpretable multimodal neural network approach | |
US20200226012A1 (en) | File system manipulation using machine learning | |
KR20190117100A (en) | Method and apparatus for measuring biometric information in electronic device | |
US10755088B2 (en) | Augmented reality predictions using machine learning | |
JP7406502B2 (en) | Information processing device, program and information processing method | |
JP2018190176A (en) | Image display device, skin-condition support system, image display program, and image display method | |
EP3956748B1 (en) | Headset signals to determine emotional states | |
Mavridou et al. | Emerging Affect Detection Methodologies in VR and future directions. | |
JP7253325B2 (en) | Information processing device, program, and information processing method | |
Gupta et al. | Vrdography: An empathic vr photography experience | |
US11822719B1 (en) | System and method for controlling digital cinematic content based on emotional state of characters | |
WO2023145350A1 (en) | Information processing method, information processing system, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220901 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230124 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230124 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230130 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230502 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230510 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7278972 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |