JP2020038336A - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP2020038336A
JP2020038336A JP2019027568A JP2019027568A JP2020038336A JP 2020038336 A JP2020038336 A JP 2020038336A JP 2019027568 A JP2019027568 A JP 2019027568A JP 2019027568 A JP2019027568 A JP 2019027568A JP 2020038336 A JP2020038336 A JP 2020038336A
Authority
JP
Japan
Prior art keywords
user
information
information processing
processing apparatus
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019027568A
Other languages
Japanese (ja)
Other versions
JP7263825B2 (en
Inventor
一希 笠井
Kazuki KASAI
一希 笠井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2019027568A priority Critical patent/JP7263825B2/en
Publication of JP2020038336A publication Critical patent/JP2020038336A/en
Application granted granted Critical
Publication of JP7263825B2 publication Critical patent/JP7263825B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide information optimized for each user and provide benefit to each user.SOLUTION: An information processing device comprises: a user information acquisition unit (1); a face information acquisition unit (2); a state detection unit (4) to detect a state of a user; a viewed object determination unit (5); a preference information generation unit (6) to generate preference information of the user; and a program execution unit (30) to execute a program on the basis of the preference information.SELECTED DRAWING: Figure 1

Description

本発明は情報処理装置、情報処理方法、および情報処理プログラムに関する。   The present invention relates to an information processing device, an information processing method, and an information processing program.

近年、顧客の購買行動と、該顧客の動向とを照合することにより、顧客の趣向等を推定する方法が、マーケティングに利用されている。   2. Description of the Related Art In recent years, a method of estimating a customer's taste or the like by comparing a customer's purchasing behavior with a trend of the customer has been used for marketing.

特許公報4991440号(2012年5月11日登録)Patent Publication No. 4991440 (registered May 11, 2012)

しかしながら、上述のような従来技術は不特定多数の顧客(ユーザ)の購買履歴および趣向に関するデータを蓄積し、マーケティングで利用することのみを考えられたものであり、各ユーザに最適化した情報を提供するような、ユーザにとっての利益を考えたものではなかった。また、該情報が提供された後の各ユーザの動向についてはフォローされず、提供した該情報の評価はできなかった。   However, the prior art as described above accumulates data relating to the purchase history and interests of an unspecified number of customers (users), and is conceived only for use in marketing. It did not consider the benefits to users, such as providing. Further, the trend of each user after the information was provided was not followed, and the provided information could not be evaluated.

本発明の一態様は、各ユーザに最適化した情報を提供し、各ユーザへの利益の提供を実現することを目的とする。   It is an object of one embodiment of the present invention to provide optimized information to each user and to provide benefits to each user.

また、本発明の一態様は、情報が提供された後の各ユーザの動向をフォローし、提供した情報の評価を行うことを目的とする。   Another object of one embodiment of the present invention is to follow a trend of each user after information is provided and evaluate the provided information.

上記の課題を解決するために、本発明の一態様に係る情報処理装置は、登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、上記ユーザの顔情報を取得する顔情報取得部と、上記顔情報取得部が取得した顔情報から上記ユーザの状態を検出する状態検出部と、上記状態検出部が検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部と、上記状態検出部によるユーザの状態および上記視認オブジェクト判定部による判定結果を参照して、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成部と、上記趣向情報に基づきプログラムを実行するプログラム実行部と、を備えている。   In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a user information acquisition unit that acquires user information of a registered specific user, and a face information acquisition unit that acquires face information of the user. A state detection unit that detects the state of the user from the face information acquired by the face information acquisition unit; and a visual recognition that determines an object visually recognized by the user with reference to a result detected by the state detection unit. An object determination unit, a taste information generation unit that generates taste information about the user's taste with reference to the state of the user by the state detection unit and a determination result by the visible object determination unit, and a program based on the taste information. And a program execution unit for executing.

これにより、情報処理装置は、ユーザの趣向情報を好適に生成することができる。   Thus, the information processing apparatus can appropriately generate the user's preference information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、視認オブジェクト判定部を備え、上記視認オブジェクト判定部は、上記ユーザが閲覧しているページの配置情報を更に参照して、上記ユーザが視認しているオブジェクトを判定する。   In order to solve the above problem, an information processing device according to an aspect of the present invention includes a visible object determination unit, and the visual object determination unit further includes arrangement information of a page being viewed by the user. By referring to the object, the object visually recognized by the user is determined.

これにより、情報処理装置100は、ユーザが視認しているオブジェクトを正確に判定することができる。   Thereby, the information processing apparatus 100 can accurately determine the object visually recognized by the user.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、視認オブジェクト判定部を備え、上記視認オブジェクト判定部は、上記状態検出部が検出した結果を参照し、上記ユーザの集中度および上記ユーザの感情のうち少なくとも1つを更に判定する。   In order to solve the above problem, an information processing device according to an aspect of the present invention includes a visible object determination unit, and the visible object determination unit refers to a result detected by the state detection unit, At least one of the degree of concentration of the user and the emotion of the user is further determined.

これにより、ユーザがどの程度オブジェクトに興味を持ち、どのような感情を持って該オブジェクトを視認しているかを判定することができる。   Thus, it is possible to determine how much the user is interested in the object and what kind of emotion the user is viewing the object.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部を更に備え、上記視認オブジェクト判定部は、上記画像取得部が取得した撮像画像と、上記状態検出部が検出した結果と、を参照して、上記ユーザが視認しているオブジェクトを判定する。   In order to solve the above problem, the information processing apparatus according to an aspect of the present invention further includes an image acquisition unit that acquires a captured image including a user's field of view from an imaging device worn by the user, The visible object determination unit determines an object visually recognized by the user with reference to the captured image acquired by the image acquisition unit and a result detected by the state detection unit.

これにより、ユーザが視認しているオブジェクトを好適に判定することができる。   This makes it possible to appropriately determine the object visually recognized by the user.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記趣向情報のうち少なくとも1つに応じたアバター画像を生成する。   According to another embodiment of the present invention, there is provided an information processing apparatus including a program execution unit, wherein the program execution unit is an avatar image corresponding to the user, And generating an avatar image corresponding to at least one of the object visually recognized by the user, the emotion of the user, and the preference information.

これにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。   Thereby, the object visually recognized by the user, the emotion of the user, and the interest information can be visualized.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報に基づいた提案情報を上記ユーザに提案する。   In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit proposes proposal information based on the preference information to the user.

これにより、ユーザは、自身の趣向に基づいた情報を享受することができる。   This allows the user to enjoy information based on his / her own preferences.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報と、上記提案情報とに基づいた評価を行う。   Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit performs an evaluation based on the preference information and the proposal information. .

これにより、提案情報が適当なものであったかの評価を行うことができる。   Thereby, it is possible to evaluate whether the proposal information is appropriate.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報を、表示データとして外部の表示装置へ出力する。   In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit outputs the preference information to an external display device as display data. .

これにより、学習者の推定理解度を可視化することができる。   This makes it possible to visualize the estimated understanding level of the learner.

上記の課題を解決するために、上記趣向情報は、ある問題に解答したユーザの推定理解度である。     In order to solve the above-described problem, the preference information is an estimated understanding level of a user who has answered a certain problem.

これにより、ユーザの推定理解度を好適に生成することができる。   As a result, it is possible to appropriately generate the estimated understanding level of the user.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記推定理解度を可視化したオブジェクトを含む表示データを外部の表示装置へ出力する。   In order to solve the above problem, an information processing apparatus according to one embodiment of the present invention includes a program execution unit, and the program execution unit transmits display data including an object in which the estimated understanding level is visualized to an external device. Output to the display device.

これにより、学習者の推定理解度を可視化することができる。   This makes it possible to visualize the estimated understanding level of the learner.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更する。   Further, in order to solve the above problem, an information processing device according to an aspect of the present invention includes a program execution unit, and the program execution unit is configured to display an external display device based on the preference information. Change the display information for.

これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。   As a result, a layout or the like based on the taste information of each user can be provided to each user.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザ情報を取得するユーザ情報取得部を備え、上記ユーザ情報には、上記ユーザの属性情報が含まれる。   Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a user information acquisition unit that acquires user information, and the user information includes the attribute information of the user.

これにより、ユーザの属性を取得することができる。   Thereby, the attribute of the user can be obtained.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザ情報を取得するユーザ情報取得部を備え、上記ユーザ情報には、上記ユーザを他のユーザと識別するためのユーザ識別情報が含まれる。   Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a user information acquisition unit configured to acquire user information, and the user information includes the user in the user information. User identification information is included.

これにより、他のユーザと対象ユーザとを識別することができ、ユーザの趣向情報と、ユーザ情報とを紐づけることができる。   As a result, another user and the target user can be identified, and the user's taste information can be associated with the user information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、上記顔情報取得部が取得した顔情報から上記ユーザの状態を検出する状態検出部を備え、上記状態検出部が検出する上記ユーザの状態は、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つである。   Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a state detection unit that detects a state of the user from face information acquired by the face information acquisition unit, The state of the user detected by the section is at least one of the user's line of sight, pupil state, number of blinks, eyebrow movement, eyelid movement, cheek movement, nose movement, lip movement and chin movement. One.

これにより、情報処理装置は、ユーザの状態を好適に検出することできる。   Thus, the information processing device can appropriately detect the state of the user.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成部を備え、上記趣向情報生成部が生成する上記趣向情報は、上記ユーザの興味が強いオブジェクトおよび興味が弱いオブジェクトに関する情報である。   According to another embodiment of the present invention, there is provided an information processing apparatus including: a preference information generation unit configured to generate preference information on a preference of the user; and the preference generated by the preference information generation unit. The information is information on the object that the user is interested in and the object that the user is not interested in.

これにより、各ユーザの興味が強いオブジェクトおよび興味の弱いオブジェクトの情報を知ることができ、趣向情報生成部は、重みづけを行った趣向情報を生成することができる。   Thereby, the information of the object with a strong interest and the object with a low interest of each user can be known, and the preference information generation unit can generate the weighted preference information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、上記顔情報に仮IDを付与する仮ID付与部と、上記仮ID上記とユーザが決済を行ったか否かの決済情報とを照合する照合部と、を更に備える。   Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a temporary ID assigning unit that assigns a temporary ID to the face information, and determines whether the user has settled the temporary ID. And a collating unit for collating with the settlement information.

これにより、情報処理装置は、顔情報を一時的に他の顔情報と区別することができる。   Thus, the information processing apparatus can temporarily distinguish the face information from other face information.

上記の課題を解決するために、本発明の一態様に係る情報処理プログラムは、上記情報処理装置としてコンピュータを機能させるための情報処理プログラムであって、上記趣向情報生成部としてコンピュータを機能させる。   In order to solve the above problem, an information processing program according to one embodiment of the present invention is an information processing program for causing a computer to function as the information processing device, and causes the computer to function as the preference information generation unit.

これにより、情報処理プログラムは、趣向情報生成部としてコンピュータを機能させることができる。   This allows the information processing program to cause the computer to function as the interest information generation unit.

上記の課題を解決するために、本発明の一態様に係る情報処理方法は、情報処理装置によって実行される情報処理方法であって、登録された特定のユーザのユーザ情報を取得するユーザ情報取得ステップと、上記ユーザの顔情報を取得する顔情報取得ステップと、上記顔情報取得ステップにおいて取得した顔情報から上記ユーザの状態を検出する状態検出ステップと、上記状態検出ステップにおいて検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定ステップと、上記ユーザのユーザ情報と、上記視認オブジェクト判定ステップにおける判定結果とを参照して、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成ステップと、上記趣向情報に基づきプログラムを実行するプログラム実行ステップとを含んでいる。   In order to solve the above-described problem, an information processing method according to an aspect of the present invention is an information processing method executed by an information processing apparatus, and includes a user information acquisition method that acquires user information of a registered specific user. Step, a face information obtaining step of obtaining the user's face information, a state detecting step of detecting the state of the user from the face information obtained in the face information obtaining step, and referring to a result detected in the state detecting step. The preference information relating to the preference of the user is generated with reference to the visible object determination step of determining the object visually recognized by the user, the user information of the user, and the determination result in the visible object determination step. A taste information generating step, and a program execution for executing a program based on the taste information And a step.

これにより、趣向情報を好適に生成することができる。   Thereby, it is possible to preferably generate the interest information.

上記の課題を解決するために、本発明の一態様に係る情報処理装置は、登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、上記ユーザの顔情報を取得する顔情報取得部と、上記ユーザのユーザ情報と、上記ユーザの顔情報とを参照して得られる趣向情報を取得する趣向情報取得部と、を備えている。   In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a user information acquisition unit that acquires user information of a registered specific user, and a face information acquisition unit that acquires face information of the user. And a preference information acquisition unit that acquires preference information obtained by referring to the user information of the user and the face information of the user.

これにより、情報処理装置は、ユーザの趣向情報を取得することができる。   Thereby, the information processing apparatus can acquire the user's preference information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、上記趣向情報に基づきプログラムを実行するプログラム実行部を更に備えている。   Further, in order to solve the above problem, an information processing device according to an aspect of the present invention further includes a program execution unit that executes a program based on the preference information.

これにより、ユーザの趣向情報に基づいたプログラムを実行することができる。   Thereby, a program based on the user's preference information can be executed.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記趣向情報のうち少なくとも1つに応じたアバター画像を生成する。   According to another embodiment of the present invention, there is provided an information processing apparatus including a program execution unit, wherein the program execution unit is an avatar image corresponding to the user, And generating an avatar image corresponding to at least one of the object visually recognized by the user, the emotion of the user, and the preference information.

これにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。   Thereby, the object visually recognized by the user, the emotion of the user, and the interest information can be visualized.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報に基づいた提案情報を上記ユーザに提案する。   In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit proposes proposal information based on the preference information to the user.

これにより、ユーザは、自身の趣向に基づいた情報を享受することができる。   This allows the user to enjoy information based on his / her own preferences.


また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報と、上記提案情報とに基づいた評価を行う。

Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit performs an evaluation based on the preference information and the proposal information. .

これにより、提案情報が適当なものであったかの評価を行うことができる。   Thereby, it is possible to evaluate whether the proposal information is appropriate.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更する。   Further, in order to solve the above problem, an information processing device according to an aspect of the present invention includes a program execution unit, and the program execution unit is configured to display an external display device based on the preference information. Change the display information for.

これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。   As a result, a layout or the like based on the taste information of each user can be provided to each user.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、上記顔情報取得部が取得した顔情報から上記ユーザの状態を検出する状態検出部と、上記状態検出部が検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部と、を更に備えている。   According to another aspect of the present invention, there is provided an information processing apparatus comprising: a state detection unit configured to detect a state of the user from face information acquired by the face information acquisition unit; And a visually recognizable object determining unit that determines an object visually recognized by the user with reference to the detected result.

これにより、情報処理装置400は、ユーザの状態を検出できると共に、ユーザが視認しているオブジェクトを好適に判定することができる。   Thereby, the information processing apparatus 400 can detect the state of the user and can appropriately determine the object visually recognized by the user.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部を備え、上記視認オブジェクト判定部は、上記ユーザが閲覧しているページの配置情報を更に参照して、上記ユーザが視認しているオブジェクトを判定する。   In order to solve the above problem, an information processing device according to an aspect of the present invention includes a visible object determination unit that determines an object visually recognized by a user, wherein the visible object determination unit The object visually recognized by the user is determined by further referring to the arrangement information of the page being viewed.

これにより、ユーザがページ上のどのオブジェクトを視認しているか、正確に判定することができる。   This makes it possible to accurately determine which object on the page the user is viewing.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部を備え、上記視認オブジェクト判定部は、上記状態検出部が検出した結果を参照し、上記ユーザの集中度および上記ユーザの感情のうち少なくとも1つを更に判定する。   In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a visible object determination unit that determines an object visually recognized by a user, wherein the visible object determination unit performs the state detection. Referring to the result detected by the unit, at least one of the concentration of the user and the emotion of the user is further determined.

これにより、ユーザがどの程度オブジェクトに興味を持ち、どのような感情を持って該オブジェクトを視認しているかを判定することができる。   Thus, it is possible to determine how much the user is interested in the object and what kind of emotion the user is viewing the object.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部を更に備え、上記視認オブジェクト判定部は、上記画像取得部が取得した撮像画像と、上記状態検出部が検出した結果と、を参照して、上記ユーザが視認しているオブジェクトを判定する。   In order to solve the above problem, the information processing apparatus according to an aspect of the present invention further includes an image acquisition unit that acquires a captured image including a user's field of view from an imaging device worn by the user, The visible object determination unit determines an object visually recognized by the user with reference to the captured image acquired by the image acquisition unit and a result detected by the state detection unit.

これにより、ユーザが視認しているオブジェクトを好適に判定することができる。   This makes it possible to appropriately determine the object visually recognized by the user.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザの状態を検出する状態検出部を備え、上記状態検出部が検出する上記ユーザの状態は、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つである。   Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a state detection unit that detects a state of a user, and the state of the user detected by the state detection unit is the state of the user. Gaze, pupil state, number of blinks, eyebrow movement, eyelid movement, cheek movement, nose movement, lip movement, and chin movement.

これにより、ユーザの集中度を好適に判定することができる。   Thereby, the degree of concentration of the user can be suitably determined.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザ情報を取得するユーザ情報取得部を備え、上記ユーザ情報には、上記ユーザの属性情報が含まれる。   Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a user information acquisition unit that acquires user information, and the user information includes the attribute information of the user.

これにより、ユーザの属性を取得することができる。   Thereby, the attribute of the user can be obtained.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザ情報を取得するユーザ情報取得部を備え、上記ユーザ情報には、上記ユーザを他のユーザと識別するためのユーザ識別情報が含まれる。   Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a user information acquisition unit configured to acquire user information, and the user information includes the user in the user information. User identification information is included.

これにより、他のユーザと対象ユーザとを識別することができ、ユーザの趣向情報と、ユーザ情報とを紐づけることができる。   As a result, another user and the target user can be identified, and the user's taste information can be associated with the user information.

上記の課題を解決するために、本発明の一態様に係る情報処理装置は、登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、上記ユーザの顔情報を取得する顔情報取得部と、上記ユーザのユーザ情報と、上記ユーザの顔情報とを参照して、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成部と、上記趣向情報に基づきプログラムを実行するプログラム実行部と、を備えている。   In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a user information acquisition unit that acquires user information of a registered specific user, and a face information acquisition unit that acquires face information of the user. Unit, a user information of the user, and a taste information generation unit that generates taste information regarding the taste of the user with reference to the face information of the user; and a program execution unit that executes a program based on the taste information. , Is provided.

これにより、情報処理装置は、ユーザの趣向情報を好適に生成することができる。   Thus, the information processing apparatus can appropriately generate the user's preference information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記趣向情報のうち少なくとも1つに応じたアバター画像を生成する。   According to another embodiment of the present invention, there is provided an information processing apparatus including a program execution unit, wherein the program execution unit is an avatar image corresponding to the user, And generating an avatar image corresponding to at least one of the object visually recognized by the user, the emotion of the user, and the preference information.

これにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。   Thereby, the object visually recognized by the user, the emotion of the user, and the interest information can be visualized.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報に基づいた提案情報を上記ユーザに提案する。   In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit proposes proposal information based on the preference information to the user.

これにより、ユーザは、自身の趣向に基づいた情報を享受することができる。   This allows the user to enjoy information based on his / her own preferences.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報と、上記提案情報とに基づいた評価を行う。   Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit performs an evaluation based on the preference information and the proposal information. .

これにより、提案情報が適当なものであったかの評価を行うことができる。   Thereby, it is possible to evaluate whether the proposal information is appropriate.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更する。   In order to solve the above problem, an information processing device according to one embodiment of the present invention includes a program execution unit, and the program execution unit is configured to display an external display device based on taste information. Change the display information.

これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。   As a result, a layout or the like based on the taste information of each user can be provided to each user.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、趣向情報を生成する趣向情報生成部、または、趣向情報を取得する趣向情報取得部を備え、上記趣向情報は、上記ユーザの興味が強いオブジェクトおよび興味が弱いオブジェクトに関する情報である。   In order to solve the above problem, an information processing apparatus according to one embodiment of the present invention includes a preference information generation unit that generates preference information, or a preference information acquisition unit that acquires preference information. Is information on the object of strong interest and the object of weak interest of the user.

これにより、各ユーザの興味が強いオブジェクトおよび興味の弱いオブジェクトの情報を知ることができ、趣向情報生成部は、重みづけを行った趣向情報を生成することができる。また、趣向情報取得部が該趣向情報を取得することで、ユーザは、自身の趣向に基づいた趣向情報を取得することができる。   Thereby, the information of the object with a strong interest and the object with a low interest of each user can be known, and the preference information generation unit can generate the weighted preference information. In addition, the preference information acquisition unit acquires the preference information, so that the user can acquire the preference information based on his / her own preference.

本発明の一態様によれば、各ユーザの趣向に合わせた各ユーザへの利益を提供することができる。   According to one embodiment of the present invention, it is possible to provide benefits to each user according to the preferences of each user.

本発明の実施形態1および2に係る情報処理装置の構成要素を示すブロック図である。FIG. 2 is a block diagram illustrating components of an information processing apparatus according to Embodiments 1 and 2 of the present invention. 本発明の実施形態1および3に係る情報処理装置を備えたスマートフォンの表示部を示す図である。It is a figure showing the display of the smart phone provided with the information processor concerning Embodiments 1 and 3 of the present invention. 本発明の実施形態1および3に係る情報処理装置を備えたパソコンの表示部を示す図である。FIG. 9 is a diagram illustrating a display unit of a personal computer including the information processing device according to the first and third embodiments of the present invention. 本発明の実施形態1、3および4に係る情報処理装置の視認オブジェクト判定部が出力するデータの一例を示す表である。9 is a table illustrating an example of data output by a visible object determination unit of the information processing device according to Embodiments 1, 3, and 4 of the present invention. 本発明の実施形態1、3および4に係る情報処理装置の趣向情報生成部が生成する趣向情報の一例を示す表である。9 is a table illustrating an example of preference information generated by a preference information generation unit of the information processing apparatus according to Embodiments 1, 3, and 4 of the present invention. 本発明の実施形態1に係る情報処理装置のプログラム実行部が生成するアバター画像の一例を示す表である。5 is a table illustrating an example of an avatar image generated by a program execution unit of the information processing device according to the first embodiment of the present invention. 本発明の実施形態1、3および4に係る情報処理装置のプログラム実行部が出力するデータの一例を示す表である。9 is a table illustrating an example of data output by a program execution unit of the information processing device according to Embodiments 1, 3, and 4 of the present invention. 本発明の実施形態1、3および4に係る情報処理装置のプログラム実行部が出力するデータの一例を示す表である。9 is a table illustrating an example of data output by a program execution unit of the information processing device according to Embodiments 1, 3, and 4 of the present invention. 本発明の実施形態1、3および4に係る情報処理装置を備えたパソコンの表示部を示し、(a)表示が変更される前、(b)表示が変更された後の表示部を示す図である。FIG. 4 is a diagram illustrating a display unit of a personal computer including the information processing apparatus according to the first, third, and fourth embodiments of the present invention, wherein FIG. It is. 本発明の実施形態1に係る情報処理装置の処理の流れの一例を示すフローチャートである。6 is a flowchart illustrating an example of a processing flow of the information processing apparatus according to the first embodiment of the present invention. 本発明の実施形態1に係る情報処理装置のプログラム実行部が出力するデータの一例を示す表である。6 is a table illustrating an example of data output by a program execution unit of the information processing device according to the first embodiment of the present invention. 本発明の実施形態1に係る情報処理装置のプログラム実行部が出力するデータの一例を示す表である。6 is a table illustrating an example of data output by a program execution unit of the information processing device according to the first embodiment of the present invention. 本発明の実施形態2に係る情報処理装置を備えた端末装置が表示するブラウザ画面の一例を示す図である。It is a figure showing an example of the browser screen which the terminal provided with the information processor concerning Embodiment 2 of the present invention displays. 本発明の実施形態2に係る情報処理装置の趣向生成部が生成する趣向情報の一例を示す図である。FIG. 14 is a diagram illustrating an example of preference information generated by a preference generation unit of the information processing device according to the second embodiment of the present invention. 本発明の実施形態2に係る情報処理装置の趣向生成部が生成する趣向情報の一例を示す図である。FIG. 14 is a diagram illustrating an example of preference information generated by a preference generation unit of the information processing device according to the second embodiment of the present invention. 本発明の実施形態2に係る情報処理装置の趣向生成部が生成する趣向情報の一例を示す図である。FIG. 14 is a diagram illustrating an example of preference information generated by a preference generation unit of the information processing device according to the second embodiment of the present invention. 本発明の実施形態3に係る情報処理装置の構成要素を示すブロック図である。FIG. 13 is a block diagram illustrating components of an information processing device according to a third embodiment of the present invention. 本発明の実施形態3および4に係る情報処理装置同士の趣向情報の送受信の概要を示す図である。FIG. 14 is a diagram illustrating an outline of transmission and reception of preference information between information processing apparatuses according to Embodiments 3 and 4 of the present invention. 本発明の実施形態3に係る情報処理装置を備えた端末装置が表示するブラウザ画面の一例を示す図である。It is a figure showing an example of the browser screen which the terminal provided with the information processor concerning Embodiment 3 of the present invention displays. 本発明の実施形態4に係る情報処理装置の構成要素を示すブロック図である。FIG. 14 is a block diagram illustrating components of an information processing device according to a fourth embodiment of the present invention.

<実施形態1>
以下、本発明の一実施形態について、詳細に説明する。以下の特定の項目(実施形態)における構成について、それが他の項目で説明されている構成と同じである場合は、説明を省略する場合がある。また、説明の便宜上、各項目に示した部材と同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。
<First embodiment>
Hereinafter, an embodiment of the present invention will be described in detail. When the configuration of the following specific item (embodiment) is the same as the configuration described in the other items, the description may be omitted. Further, for convenience of explanation, members having the same functions as the members shown in each item are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

〔情報処理装置100の要部構成〕
図1は、情報処理装置100の構成要素を示すブロック図である。図1に示すように、本実施形態に係る情報処理装置100は、ユーザ情報取得部1、顔情報取得部2、状態検出部4、視認オブジェクト判定部5、趣向情報生成部6、およびプログラム実行部30を備えている。
[Main Configuration of Information Processing Apparatus 100]
FIG. 1 is a block diagram illustrating components of the information processing apparatus 100. As shown in FIG. 1, the information processing apparatus 100 according to the present embodiment includes a user information acquisition unit 1, a face information acquisition unit 2, a state detection unit 4, a visually recognizable object determination unit 5, an interest information generation unit 6, and a program execution. A section 30 is provided.

これにより、情報処理装置100は、ユーザの趣向情報を好適に生成することができる。   Thereby, the information processing apparatus 100 can suitably generate the user's preference information.

ここで、状態検出部4、視認オブジェクト判定部5、趣向情報生成部6およびプログラム実行部30は、情報処理装置100の備える制御部9の一構成として実現される。   Here, the state detection unit 4, the visible object determination unit 5, the preference information generation unit 6, and the program execution unit 30 are realized as one configuration of the control unit 9 included in the information processing device 100.

情報処理装置100は、一例として、ローカルネットワーク又はグローバルネットワークに接続可能な端末装置(例えば、スマートフォン、タブレット、パソコン、テレビジョン受像機等)に実装される。図2は、情報処理装置100をスマートフォンに実装した場合の、当該スマートフォンの表示画面と、当該表示画面における視線位置とを模式的に示している。図3は、情報処理装置100を、パソコンに実装した場合の、当該パソコンの表示画面と、当該表示画面における視線位置とを模式的に示している。図2および図3に含まれる他の構成については後述する。   As an example, the information processing apparatus 100 is mounted on a terminal device (for example, a smartphone, a tablet, a personal computer, a television receiver, or the like) connectable to a local network or a global network. FIG. 2 schematically illustrates a display screen of the smartphone and a line-of-sight position on the display screen when the information processing apparatus 100 is mounted on the smartphone. FIG. 3 schematically shows a display screen of the personal computer when the information processing apparatus 100 is mounted on the personal computer, and a line-of-sight position on the display screen. Other configurations included in FIGS. 2 and 3 will be described later.

また、本実施形態においては、ユーザが電子商取引(EC(Electronic Commerce))サービスを利用して、商品を購入する形態について説明する。   In the present embodiment, a mode in which a user purchases a product using an electronic commerce (EC) service will be described.

(ユーザ情報取得部)
ユーザ情報取得部1は、例えば、ショッピングサイト等のデータベース等に予め登録されている特定のユーザのユーザ情報を取得し、取得したユーザ情報を趣向情報生成部6に送信する。一例として、ユーザ情報には、ユーザの属性を示す属性情報と、他のユーザと対象ユーザとを識別するためのユーザ識別情報が含まれる。ユーザの属性情報とは、例えば、ユーザの年齢、性別、会員の種別(有料会員であるか否か)等である。また、ユーザ識別情報とは、例えば、ユーザのID、ユーザのメールアドレス等である。
(User information acquisition unit)
The user information acquisition unit 1 acquires, for example, user information of a specific user registered in advance in a database of a shopping site or the like, and transmits the acquired user information to the preference information generation unit 6. As an example, the user information includes attribute information indicating the attribute of the user and user identification information for identifying another user and the target user. The attribute information of the user is, for example, the age, gender, type of member (whether or not a paying member) of the user. The user identification information is, for example, a user ID, a user mail address, and the like.

これにより、ユーザの属性を取得することができる。また、ユーザ情報に、ユーザ識別情報が含まれることで、他のユーザと対象ユーザとを識別することができ、ユーザの趣向情報と、ユーザ情報とを紐づけることができる。   Thereby, the attribute of the user can be obtained. In addition, since the user information includes the user identification information, another user and the target user can be identified, and the taste information of the user and the user information can be linked.

(顔情報取得部)
顔情報取得部2は、例えば、カメラ等の撮像部から取得した画像から、ユーザの顔情報を取得する。ユーザの顔情報とは、顔の特徴量を示す情報である。顔の特徴量とは、例えば、顔の各部位(例えば、目、鼻、口、頬および眉等)の位置を示す位置情報、形状を示す形状情報および大きさを示す大きさ情報等を指す。特に、目の情報からは、ユーザが注視する対象に対するユーザの興味および関心の度合い等を評価することができるため、特に有用である。目の情報としては、例えば目頭および目尻の端点、虹彩および瞳孔等のエッジ等が挙げられる。また、顔情報取得部2は、撮像部から取得した画像に、ノイズ低減、エッジ強調等の補正処理を適宜行ってもよい。顔情報取得部2は、抽出した顔情報を状態検出部4に送信する。
(Face information acquisition unit)
The face information acquisition unit 2 acquires user face information from an image acquired from an imaging unit such as a camera, for example. The user's face information is information indicating a feature amount of the face. The feature amount of the face refers to, for example, position information indicating the position of each part of the face (eg, eyes, nose, mouth, cheeks, eyebrows, etc.), shape information indicating the shape, size information indicating the size, and the like. . In particular, the eye information is particularly useful because it is possible to evaluate the user's interest and the degree of interest in an object that the user gazes at. The eye information includes, for example, end points of the inner and outer corners of an eye, edges of an iris, a pupil, and the like. Further, the face information acquisition unit 2 may appropriately perform correction processing such as noise reduction and edge enhancement on the image acquired from the imaging unit. The face information acquisition unit 2 transmits the extracted face information to the state detection unit 4.

(状態検出部)
状態検出部4は、顔情報取得部2が取得した顔情報に基づき、ユーザの状態を検出する。状態検出部4は、ユーザの状態を検出した後、該検出結果を視認オブジェクト判定部5へ送信する。上記状態検出部4が検出する上記ユーザの状態は、例えば、ユーザの顔の各部位の状態であり、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、頬の動き、瞼の動き、唇の動きおよび顎の動きのうち少なくとも1つである。
(State detector)
The state detection unit 4 detects the state of the user based on the face information acquired by the face information acquisition unit 2. After detecting the state of the user, the state detection unit 4 transmits the detection result to the visible object determination unit 5. The state of the user detected by the state detection unit 4 is, for example, the state of each part of the user's face. The user's line of sight, pupil state, number of blinks, movement of eyebrows, movement of cheeks, movement of eyelids At least one of movement, lip movement, and chin movement.

状態検出部4は、一例として、顔情報取得部2が取得した顔の特徴量である顔の各部位(例えば、目、鼻、口、頬および眉等)の位置を示す位置情報、形状を示す形状情報および大きさを示す大きさ情報等を参照し、ユーザの状態として、例えば、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、頬の動き、瞼の動き、唇の動きおよび顎の動きのうち少なくとも1つを検出してもよい。   As an example, the state detection unit 4 outputs position information and a shape indicating the position of each part of the face (for example, eyes, nose, mouth, cheeks, eyebrows, and the like) which are the feature amounts of the face acquired by the face information acquisition unit 2. Referring to the shape information indicating the size and the size information indicating the size, for example, the user's gaze, pupil state, number of blinks, eyebrow movement, cheek movement, eyelid movement, lip movement At least one of movement and jaw movement may be detected.

これにより、情報処理装置は、ユーザの状態を好適に検出することできる。   Thus, the information processing device can appropriately detect the state of the user.

例えば、視線の検出方法としては、特に限定されないが、情報処理装置100に、点光源(不図示)を設け、点光源からの光の角膜反射像を撮像部で所定時間撮影することにより、ユーザの視線の移動先を検出する方法が挙げられる。点光源の種類は特に限定されず、可視光、赤外光が挙げられるが、例えば赤外線LEDを用いることで、ユーザに不快感を与えることなく、視線の検出をすることができる。視線の検出において、視線が所定時間以上移動しない場合は、同じ場所を注視しているといえる。   For example, the method of detecting the line of sight is not particularly limited, but a point light source (not shown) is provided in the information processing apparatus 100, and a corneal reflection image of light from the point light source is photographed by the imaging unit for a predetermined time, so that the user A method of detecting the moving destination of the line of sight of the camera is described. The type of the point light source is not particularly limited, and includes visible light and infrared light. For example, by using an infrared LED, it is possible to detect the line of sight without giving the user any discomfort. In the detection of the line of sight, if the line of sight does not move for a predetermined time or more, it can be said that the same place is being watched.

また、瞳孔の状態を検出する方法としては、特に限定されないが、例えば、ハフ変換を利用して、目の画像から円形の瞳孔を検出する方法等が挙げられる。一般的に、人間は、集中している場合に開瞳する傾向にあるため、瞳孔のサイズを検出することで、ユーザの集中の度合いを評価することができる。例えば、瞳孔のサイズを所定時間検出し、所定時間内で瞳孔が大きくなっている時間は、ユーザがある対象を注視している可能性が高いといえる。瞳孔のサイズに関して、閾値を設定し、瞳孔のサイズが閾値以上である場合は「開」、瞳孔のサイズが閾値未満である場合は「閉」として評価してもよい。   The method of detecting the state of the pupil is not particularly limited, and includes, for example, a method of detecting a circular pupil from an eye image using Hough transform. In general, humans tend to open their pupils when they are concentrated. Therefore, by detecting the size of the pupil, the degree of concentration of the user can be evaluated. For example, when the size of the pupil is detected for a predetermined time and the pupil is large within the predetermined time, it can be said that there is a high possibility that the user is watching the target. A threshold value may be set for the pupil size, and evaluation may be made as “open” when the pupil size is equal to or larger than the threshold value, and as “closed” when the pupil size is less than the threshold value.

また、瞬きの回数を検出する方法としては、特に限定されないが、例えば、赤外光をユーザの目に対して照射し、開眼時と、閉眼時との赤外光量反射量の差を検出する方法等が挙げられる。一般的に、人間は、集中している場合、低い頻度で安定した間隔で瞬きをする傾向にあるため、瞬きの回数を検出することで、ユーザの集中度を評価することができる。例えば、瞬きの回数を所定時間検出し、所定時間内で瞬きが安定した間隔で行われている場合、ユーザがある対象を注視している可能性が高いといえる。   Further, the method of detecting the number of blinks is not particularly limited. For example, infrared light is applied to the user's eyes, and the difference between the amount of reflected infrared light between the time when the eye is opened and the time when the eye is closed is detected. Method and the like. In general, when a person is concentrated, the person tends to blink at a stable interval at a low frequency. Therefore, the degree of concentration of the user can be evaluated by detecting the number of blinks. For example, if the number of blinks is detected for a predetermined time and the blinks are performed at a stable interval within the predetermined time, it can be said that there is a high possibility that the user is watching the target.

状態検出部4は、ユーザの視線、瞳孔の状態および瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つを検出すればよいが、これらを組み合わせることが好ましい。このように検出方法を組み合わせることで、状態検出部4は、ある対象物を視認しているときのユーザの集中度を好適に評価することができる。   If the state detection unit 4 detects at least one of the user's line of sight, the state of the pupil and the number of blinks, eyebrow movement, eyelid movement, cheek movement, nose movement, lip movement and jaw movement Good, but it is preferable to combine them. By combining the detection methods in this manner, the state detection unit 4 can appropriately evaluate the degree of concentration of the user when viewing a certain target object.

目の状態以外では、例えば、眉の内側を持ち上げるか、外側を上げるか等の眉の動き、上瞼を上げる、瞼を緊張させる等の瞼の動き、鼻に皺を寄せる等の鼻の動き、上唇を持ち上げる、唇をすぼめる等の唇の動き、頬を持ち上げる等の頬の動き、顎を下げる等の顎の動き等の顔の各部位の状態が挙げられる。ユーザの状態として、顔の複数の部位の状態を組み合わせてもよい。   Other than the eye condition, for example, the movement of the eyebrows such as whether to lift the inside or the outside of the eyebrows, the movement of the eyelids such as raising the upper eyelid or tightening the eyelids, the movement of the nose such as wrinkling the nose The state of each part of the face such as lip movement such as raising the upper lip and pursing the lips, cheek movement such as raising the cheek, and jaw movement such as lowering the chin. As the state of the user, the states of a plurality of parts of the face may be combined.

また、ユーザの表情を検出させる場合、状態検出部4は、ユーザの表情に関する情報を機械学習により算出することもできる。表情に関する情報を取得するための学習処理の具体的な構成は本実施形態を限定するものではないが、例えば、以下のような機械学習的手法の何れかまたはそれらの組み合わせを用いることができる。   When detecting the user's facial expression, the state detecting unit 4 can also calculate information on the user's facial expression by machine learning. Although the specific configuration of the learning process for acquiring information on facial expressions is not limited to the present embodiment, for example, any of the following machine learning methods or a combination thereof can be used.

・サポートベクターマシン(SVM: Support Vector Machine)
・クラスタリング(Clustering)
・帰納論理プログラミング(ILP: Inductive Logic Programming)
・遺伝的アルゴリズム(GP: Genetic Programming)
・ベイジアンネットワーク(BN: Baysian Network)
・ニューラルネットワーク(NN: Neural Network)
ニューラルネットワークを用いる場合、データをニューラルネットワークへのインプット用に予め加工して用いるとよい。このような加工には、データの1次元的配列化、または多次元的配列化に加え、例えば、データアーギュメンテーション(Deta Argumentation)等の手法を用いることができる。
・ Support Vector Machine (SVM)
・ Clustering
・ Inductive Logic Programming (ILP)
・ Genetic Algorithm (GP)
・ Bayesian Network (BN)
・ Neural Network (NN)
When a neural network is used, it is preferable to process data beforehand for input to the neural network. For such processing, in addition to one-dimensional data arrangement or multi-dimensional data arrangement, for example, a technique such as data argumentation (Deta Argumentation) can be used.

また、ニューラルネットワークを用いる場合、畳み込み処理を含む畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)を用いてもよい。より具体的には、ニューラルネットワークに含まれる1又は複数の層(レイヤ)として、畳み込み演算を行う畳み込み層を設け、当該層に入力される入力データに対してフィルタ演算(積和演算)を行う構成としてもよい。またフィルタ演算を行う際には、パディング等の処理を併用したり、適宜設定されたストライド幅を採用したりしてもよい。   When a neural network is used, a convolutional neural network (CNN: Convolutional Neural Network) including a convolution process may be used. More specifically, a convolution layer for performing a convolution operation is provided as one or a plurality of layers (layers) included in the neural network, and a filter operation (product-sum operation) is performed on input data input to the layer. It may be configured. When performing the filter operation, processing such as padding may be used in combination, or an appropriately set stride width may be employed.

また、ニューラルネットワークとして、数十〜数千層に至る多層型又は超多層型のニューラルネットワークを用いてもよい。   Further, as the neural network, a multi-layer or super-multilayer neural network having several tens to thousands of layers may be used.

(視認オブジェクト判定部)
視認オブジェクト判定部5は、ユーザが閲覧しているページの配置情報を更に参照して、ユーザが視認しているオブジェクトを判定する。
(Visual object determination unit)
The visible object determination unit 5 determines the object visually recognized by the user by further referring to the layout information of the page being viewed by the user.

これにより、情報処理装置100は、ユーザが視認しているオブジェクトを正確に判定することができる。   Thereby, the information processing apparatus 100 can accurately determine the object visually recognized by the user.

視認オブジェクト判定部5の具体的な処理について、情報処理装置100を備える端末装置10を例に挙げ、図2および図3を用いて説明する。図2は、情報処理装置100を備えるスマートフォン、図3は、情報処理装置100を備えるパソコンを示す。   The specific processing of the visually recognizable object determination unit 5 will be described with reference to FIGS. FIG. 2 illustrates a smartphone including the information processing apparatus 100, and FIG. 3 illustrates a personal computer including the information processing apparatus 100.

図2において、本実施形態に係る情報処理装置100を備える端末装置(スマートフォン)10は、撮像部14と、表示部12とを更に備えている。例えば、図2のように、ブラウザの表示領域が、スマートフォンの表示部のサイズと同じであり、商品の画像が並んで配置されている場合を想定する。例えば、商品の表示順、各商品の製造会社および商品名は、表示部12が表示しているウェブページのソースコードから抽出することができる。各商品画像領域はブラウザによって制御されているため、視認オブジェクト判定部5は、ソースコードおよびブラウザを参照して、各商品の画像領域の座標を取得することができる。視認オブジェクト判定部5は、取得した各商品の画像領域の座標と、状態検出部4から取得した視線情報とを照合して、ユーザの視線の位置座標が、どの商品の画像領域の座標内にあるかを判定する。例えば、図2に示されるように、ユーザの視線の位置座標が、商品aの画像領域18の座標内にあると判定された場合、視認オブジェクト判定部5は、ユーザの視線の位置座標が、商品aの画像領域の座標内に留まっている時間のカウントを開始する。このように、ユーザの視線の位置座標と、商品の画像領域の座標とを照合することで、ユーザがどの商品を視認しているかを好適に判定することができる。また、視線の情報に加えて、(状態検出部)で記載したように、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きの検出結果を参照することで、ユーザがどの商品を集中して視認しているかを更に好適に判定することができる。   2, the terminal device (smartphone) 10 including the information processing device 100 according to the present embodiment further includes an imaging unit 14 and a display unit 12. For example, as shown in FIG. 2, it is assumed that the display area of the browser is the same as the size of the display unit of the smartphone, and the images of the products are arranged side by side. For example, the display order of the products, the manufacturer of each product, and the product name can be extracted from the source code of the web page displayed on the display unit 12. Since each product image area is controlled by the browser, the visible object determination unit 5 can acquire the coordinates of the image area of each product by referring to the source code and the browser. The visible object determination unit 5 collates the acquired coordinates of the image area of each product with the line-of-sight information obtained from the state detection unit 4 so that the position coordinates of the user's line of sight are within the coordinates of the image area of any product. It is determined whether there is. For example, as illustrated in FIG. 2, when it is determined that the position coordinates of the user's line of sight are within the coordinates of the image area 18 of the product a, the visual recognition object determination unit 5 sets the position coordinates of the user's line of sight to: The counting of the time of staying within the coordinates of the image area of the product a is started. In this way, by comparing the position coordinates of the user's line of sight with the coordinates of the product image area, it is possible to suitably determine which product the user is viewing. In addition to the line of sight information, as described in (State Detection Unit), the state of the pupil, the number of blinks, the movement of the eyebrows, the movement of the eyelids, the movement of the cheeks, the movement of the nose, the movement of the lips, and the movement of the chin By referring to the motion detection result, it is possible to more appropriately determine which product the user is focusing on and viewing.

図3において、本実施形態に係る情報処理装置100を備える端末装置(パソコン)10も、図2と同様に、撮像部14と、表示部12とを更に備えている。図3の場合、ブラウザ画面16の大きさは、表示部12よりも小さいため、視認オブジェクト判定部5は、表示部12におけるブラウザ画面16の位置の情報も取得する必要がある。ブラウザの位置および領域は情報処理装置100のOS(Operating System)によって制御されているため、視認オブジェクト判定部5は、ソースコードおよびブラウザに加え、OSを参照して、各商品の画像領域の座標を取得することができる。例えば、図3に示されるように、ユーザの視線の位置座標が、商品bの画像領域18の座標内にあると判定された場合、視認オブジェクト判定部5は、ユーザの視線の位置座標が、商品bの画像領域の座標内に留まっている時間のカウントを開始する。   3, the terminal device (personal computer) 10 including the information processing device 100 according to the present embodiment further includes an imaging unit 14 and a display unit 12, as in FIG. In the case of FIG. 3, since the size of the browser screen 16 is smaller than that of the display unit 12, the visually recognizable object determination unit 5 also needs to acquire information on the position of the browser screen 16 on the display unit 12. Since the position and area of the browser are controlled by the OS (Operating System) of the information processing apparatus 100, the visual recognition object determination unit 5 refers to the OS in addition to the source code and the browser, and refers to the coordinates of the image area of each product. Can be obtained. For example, as illustrated in FIG. 3, when it is determined that the position coordinates of the user's line of sight are within the coordinates of the image area 18 of the product b, the visual recognition object determination unit 5 determines that the position coordinates of the user's line of sight are: The counting of the time of staying within the coordinates of the image area of the product b is started.

また、視認オブジェクト判定部5は、状態検出部4から取得した結果を参照し、ユーザの集中度およびユーザの感情のうち少なくとも1つを更に判定してもよい。   Further, the visible object determination unit 5 may further determine at least one of the degree of concentration of the user and the emotion of the user with reference to the result acquired from the state detection unit 4.

これにより、ユーザがどの程度オブジェクトに興味を持ち、どのような感情を持って該オブジェクトを視認しているかを判定することができる。   Thus, it is possible to determine how much the user is interested in the object and what kind of emotion the user is viewing the object.

視認オブジェクト判定部5は、状態検出部4から取得したユーザの顔の各部位の状態から、ユーザの感情を判定する。ユーザの感情を判定するために、例えば、Paul Ekman感情分類モデルを用いてもよい。該感情分類モデルには、例えば、「幸福」、「驚き」、「怒り」、「嫌悪」、「恐れ」、「悲しみ」が含まれる。なお、該感情分類モデルは、「平常」を含んでいてもよい。更に該感情分類モデルは、「面白さ」、「軽蔑」、「満足」、「困惑」、「興奮」、「罪悪感」、「功績に基づく自負心」、「安心」、「納得感」、「恥」のような感情およびこれら感情を複合したもの(例えば、怒り+嫌悪、幸福+満足など)を含むものであってもよい。   The visible object determination unit 5 determines the user's emotion from the state of each part of the user's face acquired from the state detection unit 4. To determine the user's emotion, for example, a Paul Ekman emotion classification model may be used. The emotion classification model includes, for example, “happiness”, “surprise”, “anger”, “disgust”, “fear”, and “sadness”. The emotion classification model may include “normal”. Further, the emotion classification model includes “fun”, “contempt”, “satisfaction”, “confused”, “excited”, “guilt”, “pride based on achievement”, “security”, “satisfaction”, It may include emotions such as “shame” and a combination of these emotions (eg, anger + disgust, happiness + satisfaction, etc.).

また、視認オブジェクト判定部5は、ユーザがどの商品を集中して視認しているかの判定およびユーザの感情の判定を、(状態検出部)に記載の機械学習的手法を用いて判定してもよい。   In addition, the visual recognition object determination unit 5 may determine whether the user concentrates on which product and visually recognizes the user and the determination of the user's emotion using the machine learning method described in (state detection unit). Good.

視認オブジェクト判定部5は、判定した結果を趣向情報生成部6へ送信する。   The visible object determination unit 5 transmits the result of the determination to the preference information generation unit 6.

(画像取得部)
情報処理装置100は、ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部15を更に備えてもよい。ここで、ユーザが身に着ける撮像装置は、ユーザの状態を検出できれば特に限定されないが、例えば、メガネ型のウェアラブルデバイスに搭載されたカメラ、ヘッドマウントデバイスに搭載されたカメラ等が挙げられる。これらのデバイスの種類としては、透過型でもよいし、非透過型でもよい。非透過型の場合、一例として、カメラ(撮像装置)と、ユーザが視認している先のディスプレイ(表示部)とが同じ装置に備えられる構成であってもよい。
(Image acquisition unit)
The information processing device 100 may further include an image acquisition unit 15 that acquires a captured image including the user's field of view from an imaging device worn by the user. Here, the imaging device worn by the user is not particularly limited as long as the user's state can be detected. Examples of the imaging device include a camera mounted on a glasses-type wearable device, a camera mounted on a head-mounted device, and the like. These devices may be of a transmission type or a non-transmission type. In the case of the non-transmissive type, as an example, a configuration in which a camera (imaging device) and a display (display unit) ahead of which the user is viewing may be provided in the same device.

ユーザの視野を含む撮像画像とは、例えば、ユーザが見ている先の景色およびディスプレイ(表示部)等を撮影した画像である。   The captured image including the user's field of view is, for example, an image obtained by capturing the view of the destination viewed by the user, the display (display unit), and the like.

視認オブジェクト判定部5は、画像取得部15が取得した撮像画像と、上記状態検出部4が検出した結果と、を参照して、上記ユーザが視認しているオブジェクトを判定してもよい。具体的には、視認オブジェクト判定部5は、撮像画像領域の座標と、状態検出部4が検出したユーザの視線情報とを照合し、ユーザの視線の位置座標が、撮像画像中のどの座標に対応するかを判定する。視認オブジェクト判定部5は、画像取得部15が取得した撮像画像に含まれるオブジェクトを、例えば、機械学習を用いて認識させる構成としてもよい。   The visible object determination unit 5 may determine the object visually recognized by the user with reference to the captured image acquired by the image acquisition unit 15 and the result detected by the state detection unit 4. Specifically, the visual recognition object determination unit 5 collates the coordinates of the captured image area with the user's line of sight information detected by the state detection unit 4, and determines the position coordinates of the user's line of sight to which coordinates in the captured image. Determine whether they correspond. The visible object determination unit 5 may be configured to recognize an object included in the captured image acquired by the image acquisition unit 15 using, for example, machine learning.

これにより、ユーザが視認しているオブジェクトを好適に判定することができる。   This makes it possible to appropriately determine the object visually recognized by the user.

(趣向情報生成部)
趣向情報生成部6は、ユーザ情報取得部1から取得したユーザ情報および視認オブジェクト判定部5から取得した判定結果を参照して、ユーザの趣向に関する趣向情報を生成する。ここで、趣向情報とは、ユーザの興味がどのオブジェクトに対して強く、どのオブジェクトに対して弱いかを示す情報である。
(Preference information generation unit)
The preference information generation unit 6 refers to the user information acquired from the user information acquisition unit 1 and the determination result acquired from the visible object determination unit 5 to generate preference information on the user's preference. Here, the preference information is information indicating which objects are more interested in the user and which objects are weaker.

これにより、各ユーザの興味が強いオブジェクトおよび興味の弱いオブジェクトの情報を知ることができ、趣向情報生成部6は、重みづけを行った趣向情報を生成することができる。   As a result, it is possible to know the information of the object that each user has a strong interest and the object that the user is weakly interested, and the taste information generating unit 6 can generate the weighted taste information.

例えば、趣向情報生成部6は、視認オブジェクト判定部5で判定された、ユーザが視認した商品の情報、該商品を視認していたときのユーザの集中度の結果、およびユーザの感情の結果を参照する。   For example, the preference information generation unit 6 may determine the information of the product visually recognized by the user, the result of the user's concentration when viewing the product, and the result of the user's emotion, which are determined by the visually recognized object determination unit 5. refer.

図4は、趣向情報生成部6に入力される、状態検出部4で検出された結果を示すデータである。図4は、IDがAであるユーザ(以下、ユーザAと称する)についてのデータの一例である。図4の表は、商品ごとに、ユーザAがその商品を視認した時間(「視線」)、1分あたりの瞬きの回数(「瞬き」)、瞳孔の開閉(「瞳孔の状態」)を表している。図4の表から、ユーザAは、商品aを長時間視認しており、その間の瞬きの回数および瞳孔の状態から高い集中状態であることが判定される。また、図4の表から、ユーザAは商品cに関して、商品cの視認時間は短く、それほど高い集中状態ではないことが判定される。   FIG. 4 is data input to the interest information generation unit 6 and showing the result detected by the state detection unit 4. FIG. 4 is an example of data on a user whose ID is A (hereinafter, referred to as user A). The table in FIG. 4 shows, for each product, the time when the user A visually recognized the product (“line of sight”), the number of blinks per minute (“blink”), and the opening and closing of the pupil (“pupil state”). ing. From the table in FIG. 4, it is determined that the user A has visually recognized the product a for a long time and is in a highly concentrated state based on the number of blinks and the state of the pupil during that time. In addition, from the table of FIG. 4, it is determined that the user A has a short viewing time of the product c with respect to the product c and is not in a very high concentration state.

図5の表は、各ユーザの属性、興味が強い商品および興味が弱い商品について生成される趣向情報の一例である。ここで、各ユーザの属性は、一例として性別である。趣向情報生成部6は、図4の表のデータを参照して、図5に示すような趣向情報を生成する。図5の表は、ユーザAが男性であり、実際にユーザAが商品aに強い興味を持っていること、商品bにはあまり興味を持っていないことを示している。このような趣向情報は、各ユーザ毎の趣向を示す情報であってもよいし、図5に示すように、複数のユーザの趣向を示す情報であってもよい。   The table of FIG. 5 is an example of the preference information generated for each user's attribute, a product with strong interest, and a product with low interest. Here, the attribute of each user is, for example, gender. The preference information generation unit 6 generates preference information as shown in FIG. 5 with reference to the data in the table of FIG. The table in FIG. 5 indicates that the user A is a male, and that the user A is actually strongly interested in the product a and is not so interested in the product b. Such preference information may be information indicating the preference of each user, or may be information indicating the preference of a plurality of users as shown in FIG.

また、趣向情報生成部6は、(状態検出部)に記載の機械学習的手法を用いて趣向情報を生成してもよい。   Further, the preference information generation unit 6 may generate the preference information by using a machine learning method described in (State Detection Unit).

また、趣向情報生成部6は、上述の各種情報と共に、又は、上述の各種情報に代えて、クリック情報等の他の情報を参照してユーザの趣向情報を生成する構成としてもよい。ここで、クリック情報とは、ユーザがクリック又はタッチした位置、クリック又はタッチの回数、ダブルクリックの時間間隔等の情報を含み得る。また、クリック又はタッチの強さを検出する強度検出部を備え、趣向情報生成部6が当該クリック又はタッチの強さを参照してユーザの趣向情報を生成する構成としてもよい。   Further, the preference information generation unit 6 may be configured to generate the user's preference information by referring to other information such as click information together with or instead of the various information described above. Here, the click information may include information such as the position clicked or touched by the user, the number of clicks or touches, and the time interval between double clicks. Further, a configuration may be adopted in which an intensity detection unit that detects the strength of the click or touch is provided, and the taste information generation unit 6 generates the taste information of the user with reference to the strength of the click or touch.

なお、表示部をタッチパネルとして構成する場合、いわゆる抵抗膜方式を採用すればユーザのタッチの強さを検出することができる。   When the display unit is configured as a touch panel, the strength of a user's touch can be detected by employing a so-called resistive film system.

趣向情報生成部6は、生成した趣向情報をプログラム実行部30へ送信する。   The preference information generation unit 6 transmits the generated preference information to the program execution unit 30.

(プログラム実行部1−1)
プログラム実行部30は、ユーザに対応したアバター画像を生成し、状態検出部4が検出するユーザの状態、視認オブジェクト判定部5が判定するユーザが視認しているオブジェクト、ユーザの感情、および趣向情報生成部6から取得する趣向情報のうち少なくとも1つに応じたアバター画像を生成する。
(Program execution unit 1-1)
The program execution unit 30 generates an avatar image corresponding to the user, and detects the state of the user detected by the state detection unit 4, the object visually recognized by the user determined by the visually recognized object determination unit 5, the emotion of the user, and the taste information. An avatar image corresponding to at least one of the preference information acquired from the generation unit 6 is generated.

アバター画像は、ユーザを象徴的に表す情報であり、主には、ユーザを想起させる画像である。ユーザがショッピングサイトで商品を選んでいる場合、一例として、アバター画像は、実店舗を模倣して形成される画像上に生成される。   The avatar image is information that symbolically represents the user, and is mainly an image that reminds the user. When the user has selected a product at the shopping site, for example, the avatar image is generated on an image formed by imitating a real store.

これにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。   Thereby, the object visually recognized by the user, the emotion of the user, and the interest information can be visualized.

ユーザの状態は、(状態検出部)で記載したユーザの顔の各部位の状態である。ユーザが視認しているオブジェクトおよびユーザの感情は、(視認オブジェクト判定部)で記載した方法で判定される。また、趣向情報は、(趣向情報生成部)で記載したように、ユーザの興味がどのオブジェクトに対して強く、どのオブジェクトに対して弱いかを示す情報である。   The user's state is the state of each part of the user's face described in (state detection unit). The object visually recognized by the user and the emotion of the user are determined by the method described in (Visually Recognized Object Determination Unit). Further, the preference information is information indicating which object the user's interest is strong and which object is weak, as described in (Preference Information Generation Unit).

図6は、プログラム実行部30が、生成するアバター画像の一例である。図6(a)は従来のアバター画像の一例、図6(b)はユーザの表情に応じたアバター画像の一例、図6(c)はユーザの表情および視線に応じたアバター画像の一例である。従来のアバター画像は、図6(a)で示すように、ユーザの表情は反映されていなかった。本実施形態のプログラム実行部30は、図6(b)で示すように、ユーザの表情に応じたアバター画像を生成する。例えば、ユーザがある商品を視認している際、口角を上げた表情をしている場合、口角を上げた表情のアバター画像を生成する。また、プログラム実行部30は、趣向情報を参照することにより、ユーザのある商品に対する好意の度合い(好み)を可視化したゲージを表示してもよい。図6(c)で示すように、ユーザの視線の情報に応じたアバター画像を生成してもよい。視線の情報とは、例えば、視線の方向、瞳孔の状態および瞬きの回数等である。例えば、ユーザがショッピングサイトの商品aの画像を視認している場合、実店舗のように商品が陳列されている画像上において、陳列されている商品aの方向をアバターが見ているように、アバター画像の視線を設定してもよい。また、プログラム実行部30は、ユーザが視認しているオブジェクトを、例えば、アバターの手に持たせて、アバターが手に持った商品を視認しているような画像を生成してもよい。   FIG. 6 is an example of an avatar image generated by the program execution unit 30. FIG. 6A is an example of a conventional avatar image, FIG. 6B is an example of an avatar image according to the user's facial expression, and FIG. 6C is an example of an avatar image according to the user's facial expression and eyes. . As shown in FIG. 6A, the conventional avatar image does not reflect the expression of the user. As shown in FIG. 6B, the program execution unit 30 according to the present embodiment generates an avatar image according to the expression of the user. For example, when the user is viewing a product and has a facial expression with a raised corner, an avatar image of the facial expression with a raised corner is generated. In addition, the program execution unit 30 may display a gauge that visualizes the degree of preference (preference) of the user for a certain product by referring to the preference information. As shown in FIG. 6C, an avatar image may be generated according to the information of the user's line of sight. The line of sight information is, for example, the direction of the line of sight, the state of the pupil, the number of blinks, and the like. For example, when the user is visually recognizing the image of the product a on the shopping site, on an image in which the product is displayed as in an actual store, the avatar looks at the direction of the displayed product a, The sight line of the avatar image may be set. Further, the program execution unit 30 may generate an image in which the object which the user is visually recognizing is held in the avatar's hand, for example, and the product which the avatar has in the hand is visually recognizable.

なお、アバター画像は、ユーザ自身が見ることが出来るように、該ユーザの端末装置の表示部12に表示されてもよいし、他のユーザが該ユーザのアバター画像を見ることが出来るように、他の端末装置およびショッピングサイトのサーバ等に送信されてもよい。   The avatar image may be displayed on the display unit 12 of the terminal device of the user so that the user can view the avatar image, or the avatar image of the user may be viewed by another user. The information may be transmitted to another terminal device, a server of a shopping site, or the like.

これにより、ユーザは、ショッピングサイトで自身がショッピングをしている様子を、あたかも実店舗でショッピングしている自身の姿として客観視ができる。また、他のユーザ(店舗のスタッフ等)は、ショッピングサイトでショッピングしているユーザを、アバター画像を介して、実店舗でショッピングしている客の一人として捉えることができ、ユーザにより良いサービスを提供するための意識の向上を図ることが出来る。   Thereby, the user can objectively view the situation of shopping at the shopping site as if he / she is shopping at an actual store. Further, other users (such as store staff) can regard the user shopping at the shopping site as one of the customers shopping at the actual store via the avatar image, and provide a better service to the user. Awareness for providing can be improved.

(プログラム実行部1−2)
プログラム実行部30は、趣向情報生成部6が生成した趣向情報を、表示データとして外部の表示装置へ出力してもよい。表示データの種類は特に限定されないが、例えば、数値、文字、表、グラフ、アニメーション等が挙げられる。表の例としては、例えば図5のような表が挙げられる。また、出力の対象となる趣向情報は、ある特定の一人のユーザの趣向情報であってもよいし、複数のユーザの趣向情報であってもよい。
(Program execution unit 1-2)
The program execution unit 30 may output the preference information generated by the preference information generation unit 6 to an external display device as display data. Although the type of the display data is not particularly limited, for example, a numerical value, a character, a table, a graph, an animation, and the like can be given. An example of the table is, for example, a table as shown in FIG. The preference information to be output may be the preference information of one specific user or the preference information of a plurality of users.

これにより、ユーザの趣向情報を可視化することができる。   This makes it possible to visualize user preference information.

(プログラム実行部1−3)
プログラム実行部30は、趣向情報生成部6から取得した趣向情報に基づいた提案情報をユーザに提案する。提案情報とは、例えば、ユーザの趣向情報における興味が強い商品の電子公告、値下がりの情報、および電子クーポン等である。プログラム実行部30は、例えば、メール、ソーシャルネットワークサービス(SNS)およびインスタントメッセージ(IM)等の通信手段を用いて、生成した提案情報をユーザに送信してもよい。また、バナー広告としてユーザに通知してもよい。
(Program execution unit 1-3)
The program execution unit 30 proposes proposal information to the user based on the preference information acquired from the preference information generation unit 6. The proposal information is, for example, an electronic announcement of a product having a strong interest in the user's preference information, information on a price drop, an electronic coupon, and the like. The program execution unit 30 may transmit the generated proposal information to the user using communication means such as an email, a social network service (SNS), and an instant message (IM). The user may be notified as a banner advertisement.

図7は、趣向情報生成部6から取得した趣向情報に基づいて、プログラム実行部30が生成した提案情報の一例を示す表である。趣向情報生成部6は、一例として、ユーザA、CおよびDは商品aに強い興味を持っていると推定し、ユーザEおよびFは商品bに強い興味を持っていると推定した趣向情報を生成する。その場合、プログラム実行部30は、趣向情報に基づきユーザA、CおよびDに商品aの広告(提案情報)を送信し、ユーザEおよびFに商品bの広告を送信する。   FIG. 7 is a table illustrating an example of the proposal information generated by the program execution unit 30 based on the preference information acquired from the preference information generation unit 6. As an example, the taste information generation unit 6 estimates that the users A, C, and D have a strong interest in the product a, and the taste information that the users E and F have a strong interest in the product b. Generate. In this case, the program execution unit 30 transmits the advertisement of the product a (proposal information) to the users A, C, and D based on the preference information, and transmits the advertisement of the product b to the users E and F.

このように、プログラム実行部30が提案情報をユーザに提案することで、ユーザは、自身の趣向に基づいた情報を享受することができる。   In this way, the program execution unit 30 proposes the proposal information to the user, so that the user can enjoy the information based on his / her own taste.

プログラム実行部30は、ユーザが提案情報を視認したか否かを判定してもよい。視認したか否かの判定は、例えば、広告に記載されたショッピングサイトのアドレスにユーザがアクセスしたか否かの情報をプログラム実行部30が参照することにより判定してもよい。また、例えば、広告を配信した後の所定期間内に、ユーザがショッピングサイトにログインした否かの情報をプログラム実行部30が参照して判定してもよい。ユーザがショッピングサイトにログインしたか否かの情報は、例えば、ユーザ情報取得部1から取得することができる。ショッピングサイトにログインした際、プログラム実行部30は、ユーザがどの商品画像を視認していたかの情報を参照することにより、ユーザが広告に記載された商品と同じ商品画像を視認しているか否かを判定してもよい。ユーザがどの商品画像を視認していたかの情報は、例えば、視認オブジェクト判定部5によって、(視認オブジェクト判定部)で記載の方法を用いて、判定されればよい。   The program execution unit 30 may determine whether or not the user has visually recognized the proposal information. For example, the program execution unit 30 may determine whether or not the user has visually recognized whether or not the user has accessed the address of the shopping site described in the advertisement. Further, for example, the program execution unit 30 may determine by referring to information on whether or not the user has logged in to the shopping site within a predetermined period after the advertisement is distributed. Information as to whether or not the user has logged in to the shopping site can be acquired from the user information acquisition unit 1, for example. When logging in to the shopping site, the program execution unit 30 refers to the information on which product image the user has viewed to determine whether the user is viewing the same product image as the product described in the advertisement. It may be determined. Information on which product image the user has visually recognized may be determined by, for example, the visible object determination unit 5 using the method described in (visual object determination unit).

また、プログラム実行部30は、趣向情報生成部6が生成した趣向情報と、プログラム実行部30が提案した提案情報とに基づいて評価を行ってもよい。評価の方法について以下に説明する。ここで、評価とは、例えば、ユーザへ提案した提案情報が適当であったかの評価である。   Further, the program execution unit 30 may perform the evaluation based on the preference information generated by the preference information generation unit 6 and the proposal information proposed by the program execution unit 30. The evaluation method will be described below. Here, the evaluation is, for example, an evaluation of whether the proposal information proposed to the user is appropriate.

図8は、プログラム実行部30が行う評価の一例を示す表である。図8の表は、プログラム実行部30が、ユーザA、CおよびDに商品aの広告を送信し、ユーザEおよびFに商品bの広告を送信した場合に、各ユーザが広告の商品画像を視認したか否かの判定の結果に基づいて、評価を行った結果である。本実施形態において、プログラム実行部30が行う評価とは、一例として、広告を送信した全ユーザの人数における、広告を視認したユーザの人数の割合を評価値としてもよい。ここで、評価値とは、一例として、「注目率」として表される。例えば、商品aの広告を送信したユーザA、CおよびDのうち、プログラム実行部30が、該広告を視認したと判定したのはユーザAおよびCであったため、プログラム実行部30は、注目率が66%であると評価する。また、商品bの広告を送信したユーザEおよびFのうち、プログラム実行部30が、該広告を視認したと判定したのはユーザFのみであったため、プログラム実行部30は、注目率は50%であると評価する。   FIG. 8 is a table showing an example of the evaluation performed by the program execution unit 30. The table of FIG. 8 shows that, when the program execution unit 30 transmits an advertisement of the product a to the users A, C, and D and transmits an advertisement of the product b to the users E and F, each user displays the product image of the advertisement. This is the result of evaluation based on the result of the determination as to whether or not visual recognition has been performed. In the present embodiment, the evaluation performed by the program execution unit 30 may be, for example, a ratio of the number of users who have viewed the advertisement to the number of all users who have transmitted the advertisement as the evaluation value. Here, the evaluation value is represented, for example, as “attention rate”. For example, among the users A, C, and D who transmitted the advertisement of the product a, since it was the users A and C that the program execution unit 30 determined that the advertisement was visually recognized, the program execution unit 30 Is 66%. In addition, among the users E and F who transmitted the advertisement of the product b, only the user F determined that the program execution unit 30 has visually recognized the advertisement, and thus the program execution unit 30 sets the attention rate to 50% Is evaluated.

このように、プログラム実行部30が評価を行うことで、提案情報が適当なものであったかの評価を行うができる。   As described above, the evaluation by the program execution unit 30 enables the evaluation as to whether the proposal information is appropriate.

(プログラム実行部1−4)
プログラム実行部30は、趣向情報生成部6から取得した趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更する。ここで、外部の表示装置とは、一例として、端末装置の表示部12である。表示情報は、例えば、表示部12に表示されている画像を示す画像情報、および該画像の座標等を示すレイアウト情報等が含まれる。表示情報は、ソースコード、ブラウザ、およびOSから取得することができる。また、情報の変更とは、特に限定されないが、一例として、表示部12に表示させる商品画像のレイアウトの変更である。プログラム実行部30は、変更した表示情報を表示部12に送信する。
(Program execution unit 1-4)
The program execution unit 30 changes display information to be displayed on an external display device based on the preference information acquired from the preference information generation unit 6. Here, the external display device is, for example, the display unit 12 of the terminal device. The display information includes, for example, image information indicating an image displayed on the display unit 12, layout information indicating coordinates of the image, and the like. The display information can be obtained from a source code, a browser, and an OS. The change of the information is not particularly limited, but is, for example, a change of the layout of the product image displayed on the display unit 12. The program execution unit 30 transmits the changed display information to the display unit 12.

これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。   As a result, a layout or the like based on the taste information of each user can be provided to each user.

プログラム実行部30が行う処理の具体例を説明する。図9は、パソコンの表示部12を示す。図9(a)は表示が変更される前の表示部12を示し、表示部12は、商品a〜fの画像を表示している。図9(b)は表示が変更された後の表示部12を示している。   A specific example of the process performed by the program execution unit 30 will be described. FIG. 9 shows the display unit 12 of the personal computer. FIG. 9A shows the display unit 12 before the display is changed, and the display unit 12 displays images of products a to f. FIG. 9B shows the display unit 12 after the display has been changed.

ここで、例えば、商品a〜fの中で、ユーザの興味の強い商品がd、e、fであるという趣向情報を、趣向情報生成部6が生成したとする。プログラム実行部30は、現在表示されている図9(a)の表示情報と、趣向情報生成部6が生成した趣向情報に基づき、商品a〜cの画像の位置と、商品d〜fの画像の位置とを入れ替えることによってレイアウトが変更された表示情報を生成する。表示部12は、プログラム実行部30から取得した変更された表示情報に基づき、図9(b)のような表示をさせる。すなわち、プログラム実行部30は、表示される画面の中で、最も目立つ場所に商品d、e、fの画像を配置し、表示させる。なお、レイアウトの変更は、この形態に限定されず、商品画像の上下の入れ替え、左右の入れ替え等が挙げられる。また、趣向情報生成部6の趣向情報に基づき、ユーザの興味が強い順に1つずつ画像を並べ替えてもよい。   Here, for example, it is assumed that the preference information generation unit 6 generates the preference information indicating that the commodities a to f that are of great interest to the user are d, e, and f. The program execution unit 30 determines the positions of the images of the products a to c and the images of the products df based on the currently displayed display information in FIG. 9A and the preference information generated by the preference information generation unit 6. The display information in which the layout is changed by replacing the position with the position is generated. The display unit 12 makes a display as shown in FIG. 9B based on the changed display information acquired from the program execution unit 30. That is, the program execution unit 30 arranges and displays the images of the products d, e, and f in the most prominent places on the displayed screen. Note that the change of the layout is not limited to this mode, and may include, for example, switching of product images up and down, and switching of left and right. Further, based on the preference information of the preference information generation unit 6, the images may be rearranged one by one in descending order of the interest of the user.

表示部12の表示情報が変更されるタイミングは、特に限定されないが、ウェブページが更新されるタイミングでもよいし、所定の時間毎に変更されてもよい。また、ユーザがショッピングサイト等から一度ログアウトをし、次に同じサイトにログインした場合に変更されてもよい。   The timing at which the display information on the display unit 12 is changed is not particularly limited, but may be the timing at which the web page is updated, or may be changed at predetermined time intervals. Further, the change may be made when the user logs out once from the shopping site or the like and then logs in to the same site.

上記の説明では、プログラム実行部30による表示情報の変更処理として、表示情報に含まれるレイアウト情報の変更を例に挙げたが、本実施形態はこれに限定されるものではない。表示情報の変更の他の例として、ユーザの興味の強い商品の画像を強調表示する構成が挙げられる。具体的は強調表示の例として、
・当該商品の画像を枠囲みする
・当該商品の画像の周辺の背景色を変更する
・当該商品の画像を、他の商品よりも大きく表示する
・当該商品の画像をポップアップウィンドウとして表示する
等が挙げられる。
In the above description, the change of the layout information included in the display information has been described as an example of the process of changing the display information by the program execution unit 30. However, the present embodiment is not limited to this. As another example of the change of the display information, there is a configuration in which an image of a product that the user is interested in is highlighted. Specifically, as an example of highlighting,
-Frame the image of the product-Change the background color around the image of the product-Display the image of the product larger than other products-Display the image of the product as a pop-up window No.

(制御部)
制御部9は、情報処理装置100の各部を統括的に制御するものである。制御部9は、状態検出部4、視認オブジェクト判定部5、趣向情報生成部6、およびプログラム実行部30を含むものである。制御部9の各機能、および情報処理装置100に含まれる全ての機能は、例えば、記憶部(不図示)等に記憶されたプログラムを、CPUが実行することによって実現されてもよい。
(Control unit)
The control unit 9 controls each unit of the information processing apparatus 100 in an integrated manner. The control unit 9 includes a state detection unit 4, a visible object determination unit 5, an interest information generation unit 6, and a program execution unit 30. Each function of the control unit 9 and all the functions included in the information processing apparatus 100 may be realized by, for example, the CPU executing a program stored in a storage unit (not shown) or the like.

〔情報処理装置の処理例1〕
次に、図10のフローチャートに基づき、情報処理装置100の処理について説明する。
[Processing example 1 of information processing apparatus]
Next, processing of the information processing apparatus 100 will be described based on the flowchart of FIG.

まず情報処理装置の使用を開始(ステップS100)し、処理を開始する。ステップS(以下、「ステップ」は省略する)102に進む。   First, use of the information processing apparatus is started (step S100), and processing is started. The process proceeds to step S (hereinafter, “step” is omitted) 102.

S102では、ユーザ情報取得部1が、ユーザ情報を取得する(ユーザ情報取得ステップ)。処理の詳細は、(ユーザ情報取得部)に記載の通りである。ユーザ情報取得部1は、ユーザ情報を趣向情報生成部6に送信し、S104に進む。   In S102, the user information acquisition unit 1 acquires user information (user information acquisition step). The details of the processing are as described in (User Information Acquisition Unit). The user information acquisition unit 1 transmits the user information to the preference information generation unit 6, and proceeds to S104.

S104では、顔情報取得部2が、ユーザの顔画像を撮像部から取得し、顔画像から顔の各部位を抽出する(顔情報取得ステップ)。処理の詳細は、(顔情報取得部)に記載の通りである。顔情報取得部2は、抽出した結果を状態検出部4に送信し、S106に進む。   In S104, the face information acquisition unit 2 acquires the user's face image from the imaging unit, and extracts each part of the face from the face image (face information acquisition step). The details of the processing are as described in (Face Information Acquisition Unit). The face information acquisition unit 2 transmits the extracted result to the state detection unit 4, and proceeds to S106.

S106では、状態検出部4が、ユーザの視線、瞬き、瞳孔の状態、および顔の各部位の状態を検出する(状態検出ステップ)。処理の詳細は(状態検出部)に記載の通りである。検出結果を視認オブジェクト判定部5に送信し、S108に進む。   In S106, the state detection unit 4 detects the user's line of sight, blinks, the state of the pupil, and the state of each part of the face (state detection step). The details of the processing are as described in (Status Detector). The detection result is transmitted to the visible object determination unit 5, and the process proceeds to S108.

S108では、視認オブジェクト判定部5が、ユーザの視認する商品画像(視認オブジェクト)、視認しているときの集中度、および視認しているときの感情を判定する(視認オブジェクト判定ステップ)。処理の詳細は、(視認オブジェクト判定部)に記載の通りである。視認オブジェクト判定部5は、判定した結果を、趣向情報生成部6に送信し、S110に進む。   In S108, the visible object determination unit 5 determines the product image (visual object) visually recognized by the user, the degree of concentration when the user is visually recognizing, and the emotion when the user is visually recognizing (visual object determination step). The details of the processing are as described in (Visual recognition object determination unit). The visible object determination unit 5 transmits the result of the determination to the preference information generation unit 6, and proceeds to S110.

S110では、趣向情報生成部6が、ユーザ情報取得部1から取得されたユーザ情報と、視認オブジェクト判定部5から取得された判定結果とを参照し、趣向情報を生成し(趣向情報生成ステップ)、S112へ進む。処理の詳細は、(趣向情報生成部)に記載の通りである。   In S110, the preference information generation unit 6 generates preference information with reference to the user information acquired from the user information acquisition unit 1 and the determination result acquired from the visual recognition object determination unit 5 (a preference information generation step). , S112. The details of the processing are as described in (Preference Information Generation Unit).

S112では、制御部9は、趣向情報生成部6が生成した趣向情報をデータベース等に記録し、S114に進む。   In S112, the control unit 9 records the preference information generated by the preference information generation unit 6 in a database or the like, and proceeds to S114.

S114では、プログラム実行部30が、アバター画像の生成、提案情報の提案、評価、および表示情報の変更のうち少なくとも1つを行う(プログラム実行ステップ)。プログラム実行部30が行う処理の詳細は、(プログラム実行部1−1)〜(プログラム実行部1−3)に記載の通りである。S116に進み、趣向推定処理を終了する。   In S114, the program execution unit 30 performs at least one of generation of an avatar image, proposal of proposal information, evaluation, and change of display information (program execution step). The details of the processing performed by the program execution unit 30 are as described in (Program execution unit 1-1) to (Program execution unit 1-3). Proceeding to S116, the preference estimation process ends.

これにより、趣向情報を好適に生成することができる。   Thereby, it is possible to preferably generate the interest information.

(変形例1−1)
情報処理装置100は、決済情報取得部(不図示)を更に備えてもよい。決済情報取得部は、例えば、ユーザが商品を購入したか否かの決済情報を取得する。決済情報は、例えば、ショッピングサイト等に予め登録されているクレジットカード情報、ショッピングサイトの決済用サーバ、および決済代行事業者の決済用サーバ等から取得することができる。決済情報取得部は、ユーザが該ショッピングサイト内で、どの商品を購入したかの情報を取得することができる。決済情報は、クレジットカード情報に限定されず、ユーザの個人情報と紐づけられている媒体から取得することができる。例えば、デビットカード情報、プリペイドカード情報等が挙げられる。決済情報取得部は、取得した決済情報を、趣向情報生成部6へ送信する。
(Modification 1-1)
The information processing device 100 may further include a payment information acquisition unit (not shown). The payment information obtaining unit obtains, for example, payment information indicating whether or not the user has purchased a product. The settlement information can be acquired from, for example, credit card information registered in advance at a shopping site, a settlement server of a shopping site, a settlement server of a settlement agency, and the like. The payment information acquisition unit can acquire information on which product the user has purchased in the shopping site. The payment information is not limited to the credit card information, but can be obtained from a medium associated with the user's personal information. For example, there are debit card information, prepaid card information, and the like. The payment information acquisition unit transmits the acquired payment information to the preference information generation unit 6.

決済情報とは、ショッピング等においては、商品を購入したか否かの情報であるが、これに限定されず、より一般的に言えば、ユーザの意思を反映する意思決定情報である。   The settlement information is information on whether or not a product has been purchased in shopping or the like, but is not limited to this, and is more generally, decision-making information that reflects the intention of the user.

このような構成により、情報処理装置100は、より正確な趣向情報を生成することができる。   With such a configuration, the information processing apparatus 100 can generate more accurate preference information.

また、情報処理装置100が、決済情報取得部を備えることにより、プログラム実行部30は、ユーザが提案情報に基づく商品を購入したか否かを判定し、該判定の結果に基づいて評価を行うことができる。   In addition, since the information processing apparatus 100 includes the payment information acquisition unit, the program execution unit 30 determines whether the user has purchased a product based on the proposal information, and performs an evaluation based on the determination result. be able to.

図11は、プログラム実行部30が、ユーザA、CおよびDに商品aの広告(提案情報)を送信し、ユーザEおよびFに商品bの広告を送信した場合に、各ユーザが広告の商品の購入に至ったか否かを評価した結果である。図11の表中の成約率とは、プログラム実行部30が広告を送信したユーザの人数における、実際に広告の商品を購入したユーザの人数の割合である。商品aの広告を送信したユーザA、CおよびDは、全員が商品aを購入しているため、プログラム実行部30は、成約率は100%であると評価する。また、商品bの広告を送信したユーザEおよびFについては、ユーザEのみが商品bの購入に至っているため、プログラム実行部30は、成約率は50%であると評価する。このとき、広告を送信されたユーザが実際に広告を見たか否かについては必ずしも判定しなくてもよい。特に、メール等、オフライン状態でも確認できる広告においては、判定しなくてもよい。   FIG. 11 shows a case where the program execution unit 30 transmits an advertisement (proposal information) of the product a to the users A, C, and D and transmits an advertisement of the product b to the users E and F. It is a result of evaluating whether or not a purchase has been made. The contract rate in the table of FIG. 11 is a ratio of the number of users who actually purchased the advertisement product to the number of users to whom the program execution unit 30 transmitted the advertisement. Since all the users A, C and D who have transmitted the advertisement of the product a have purchased the product a, the program execution unit 30 evaluates that the closing rate is 100%. For users E and F that have transmitted the advertisement of the product b, only the user E has purchased the product b, so the program execution unit 30 evaluates that the closing rate is 50%. At this time, it is not always necessary to determine whether the user who has transmitted the advertisement has actually viewed the advertisement. In particular, in an advertisement such as an e-mail that can be confirmed even in an offline state, the determination need not be performed.

また、プログラム実行部30は、広告を送信されたユーザが実際に広告を見たか否かという、広告の視認情報を参照して評価を行ってもよい。   In addition, the program execution unit 30 may perform the evaluation with reference to the advertisement viewing information indicating whether the user who has received the advertisement has actually viewed the advertisement.

図12は、プログラム実行部30が、ユーザA、CおよびDに商品aの広告を送信し、ユーザEおよびFに商品bの広告を送信した場合に、各ユーザが広告の商品の購入に至ったか否かを評価した結果を示す図である。図12の表中の成約率とは、プログラム実行部30が広告を送信したユーザの人数における、広告を視認して商品の購入に至ったユーザの人数の割合である。図12の表に示されるように、商品aの広告を送信したユーザA、CおよびDは、全員が商品aを購入したが、広告を見て購入に至ったのは、ユーザAおよびCのみであったため、プログラム実行部30は、成約率は66%であると評価する。また、商品bの広告を送信したユーザEおよびFについては、広告を見たうえで商品の購入に至ったユーザはいなかったため、プログラム実行部30は、成約率は0%であると評価する。   FIG. 12 shows that when the program execution unit 30 transmits the advertisement of the product a to the users A, C, and D, and transmits the advertisement of the product b to the users E and F, each user reaches the purchase of the advertisement. It is a figure showing the result of having evaluated whether or not. The contract rate in the table of FIG. 12 is a ratio of the number of users who have visually recognized the advertisement and have purchased the product to the number of users who have transmitted the advertisement by the program execution unit 30. As shown in the table of FIG. 12, all of the users A, C and D who transmitted the advertisement of the product a purchased the product a, but only the users A and C saw the advertisement and made a purchase. Therefore, the program execution unit 30 evaluates that the closing rate is 66%. Further, as for the users E and F who transmitted the advertisement of the product b, since there was no user who has purchased the product after seeing the advertisement, the program execution unit 30 evaluates that the closing rate is 0%.

広告の視認情報は、(視認オブジェクト判定部)に記載の方法を用いて広告を見たか否かを判定してもよい。   The viewing information of the advertisement may determine whether or not the advertisement has been viewed by using the method described in the (viewing object determination unit).

(変形例1−2)
本変形例に係る情報処理装置100は、実施形態1に係る情報処理装置100と同じ部を備え、各部が行う処理についても視認オブジェクト判定部5以外は同じである。視認オブジェクト判定部5については後述する。また、本実施形態に係る情報処理装置100は、ユーザの決済情報を取得する決済情報取得部(不図示)と、仮IDを付与する仮ID付与部(不図示)と、仮IDと上記ユーザの決済情報とを照合する照合部(不図示)とを更に備える点で実施形態1に係る情報処理装置100と異なる。
(Modification 1-2)
The information processing apparatus 100 according to this modification includes the same units as the information processing apparatus 100 according to the first embodiment, and the processing performed by each unit is the same except for the visible object determination unit 5. The visible object determination unit 5 will be described later. Further, the information processing apparatus 100 according to the present embodiment includes a payment information acquisition unit (not shown) that acquires user's payment information, a temporary ID assignment unit (not shown) that assigns a temporary ID, a temporary ID, The information processing apparatus 100 according to the first embodiment is different from the information processing apparatus 100 according to the first embodiment in further including a matching unit (not shown) for matching the payment information.

決済情報取得部を備えることで、情報処理装置100は、より正確な趣向情報を生成することができる。仮ID付与部を備えることで、情報処理装置100は、顔情報を一時的に他の顔情報と区別することができる。また、照合部を更に備えることで、仮IDとユーザの決済情報とを照合することができる。   By including the payment information acquisition unit, the information processing apparatus 100 can generate more accurate preference information. With the provision of the temporary ID assignment unit, the information processing apparatus 100 can temporarily distinguish face information from other face information. In addition, the provision of the collation unit enables collation between the temporary ID and the payment information of the user.

実施形態1においては、ユーザがECサービスを利用して商品を購入する形態について説明したが、本変形例では、ユーザが実店舗で商品を購入する形態について説明する。   In the first embodiment, the mode in which the user purchases a product using the EC service has been described. In the present modification, the mode in which the user purchases a product at an actual store will be described.

実施形態1において、情報処理装置100は、ユーザの個人情報をまず取得する。これは、例えば、ショッピングサイトにおいて、ユーザがIDおよびパスワードを入力して、ショッピングサイトにログインすることに相当するが、実店舗では、ユーザが予めログインする場面は稀である。   In the first embodiment, the information processing apparatus 100 first acquires personal information of a user. This corresponds to, for example, a user inputting an ID and a password at a shopping site to log in to the shopping site. However, in a real shop, the user rarely logs in beforehand.

本変形例においては、例えば、情報処理装置は、決済情報取得部から決済情報を取得した後に、または決済情報と同時にユーザ情報を取得する。一例として、店舗内の商品の陳列棚等に撮像部を設置し、ユーザが商品を選んでいる際のユーザの視線、瞬きおよび瞳孔の状態等を検出できるようにする。ユーザ情報が取得されるまでは、例えば、ユーザには仮ID付与部が仮のIDを付与しておき、ユーザが視認している商品の情報等を仮ID情報として、キャッシュメモリ等に格納してもよい。ユーザがレジでクレジットカード等、ユーザ情報が紐付けられている媒体を使用して決済を行った際に、初めて決済情報およびユーザ情報が取得されることになる。例えば、レジにも撮像部を設置しておき、陳列棚の撮像部から取得した画像と、レジの撮像部から取得した画像とを同期させた上で、どの仮IDのユーザが決済を行ったか判定し、照合部が、仮ID情報とユーザの決済情報とを、または仮ID情報とユーザ情報とを照合してもよい。   In the present modification, for example, the information processing apparatus acquires the user information after acquiring the settlement information from the settlement information acquiring unit or simultaneously with the settlement information. As an example, an imaging unit is installed on a display shelf or the like of a product in a store so that the user's line of sight, blinking, pupil state, and the like when the user selects a product can be detected. Until the user information is obtained, for example, a temporary ID assigning unit assigns a temporary ID to the user, and stores information on a product visually recognized by the user as temporary ID information in a cache memory or the like. You may. When a user makes a payment at a cash register using a medium to which user information is linked, such as a credit card, payment information and user information are obtained for the first time. For example, an imaging unit is also installed at a cash register, and an image obtained from the imaging unit on the display shelf is synchronized with an image obtained from the imaging unit on the cash register, and which temporary ID user has settled the payment. The determination may be made, and the collating unit may collate the temporary ID information with the payment information of the user or the temporary ID information with the user information.

なお、仮IDのユーザが、現金で決済を行った場合等、ユーザ情報と照合できない方法で決済を行った場合は、仮ID情報を破棄してもよい。   In addition, when the user of the temporary ID has settled in a method that cannot be compared with the user information, such as when the user has settled with cash, the temporary ID information may be discarded.

<実施形態2>
本実施形態に係る情報処理装置は、学習支援装置である。学習支援装置の形態としては、例えばEラーニングを実施する装置が挙げられる。本実施形態において、情報処理装置は、複数の選択問題に解答する学習者の推定理解度を生成する。
<Embodiment 2>
The information processing device according to the present embodiment is a learning support device. As a form of the learning support device, for example, a device for performing E-learning can be cited. In the present embodiment, the information processing device generates an estimated understanding level of a learner who answers a plurality of choice questions.

図13は、本実施形態に係る情報処理装置が表示する問題文および解答選択肢の一例である。学習者は、図13のように、表示された問題文を読み、解答の選択肢を読んだ上で、正解だと思う選択肢を選択する。このような選択式の問題では、学習者が、最終的に正解である選択肢を選択した場合であっても、学習者が本当にその問題を理解した上で正解したとは限らない。複数の選択肢で迷った結果、偶然正解する場合もあれば、問題文を読まずにある選択肢を選択した結果、偶然正解する場合もある。本実施形態に係る情報処理装置は、学習者が該解答に至るまでの過程を考慮して、学習者の推定理解度を出力する。このように、推定理解度を出力することで、学習者本人、又は、学習者を指導する第三者が、該学習者の理解度を正確に知ることができる。   FIG. 13 is an example of a question sentence and an answer option displayed by the information processing apparatus according to the present embodiment. As shown in FIG. 13, the learner reads the displayed question sentence, reads the answer options, and then selects the option that is considered to be the correct answer. In such a multiple-choice question, even if the learner finally selects the correct answer, the learner does not always have to correctly understand the problem and correct the answer. In some cases, the correct answer is accidentally obtained as a result of being lost in a plurality of options, and in other cases, the correct answer is accidentally obtained as a result of selecting an option without reading the question sentence. The information processing apparatus according to the present embodiment outputs the estimated understanding level of the learner in consideration of the process until the learner reaches the answer. As described above, by outputting the estimated understanding level, the learner himself or a third party who instructs the learner can know the understanding level of the learner accurately.

本実施形態に係る情報処理装置は、実施形態1と同じく、ユーザ情報取得部1と、顔情報取得部2と、状態検出部4と、視認オブジェクト判定部5と、趣向情報生成部6と、プログラム実行部30とを備えている。   As in the first embodiment, the information processing apparatus according to the present embodiment includes a user information acquisition unit 1, a face information acquisition unit 2, a state detection unit 4, a visible object determination unit 5, an interest information generation unit 6, And a program execution unit 30.

ユーザ情報取得部1は、予め登録された学習者をユーザとして、該ユーザの情報を取得する。   The user information acquisition unit 1 acquires information of the user, with a previously registered learner as a user.

顔情報取得部2は、ユーザの顔情報を取得する。顔情報取得部2が行うユーザの顔情報の取得は、実施形態1の顔情報取得部2と同じ処理を用いればよい。   The face information acquisition unit 2 acquires user face information. The acquisition of the user's face information performed by the face information acquisition unit 2 may use the same processing as the face information acquisition unit 2 of the first embodiment.

状態検出部4は、顔情報取得部2が取得したユーザの顔情報から上記ユーザの状態を検出する。検出方法は、実施形態1の状態検出部4と同じ判定方法を用いればよい。   The state detection unit 4 detects the state of the user from the user's face information acquired by the face information acquisition unit 2. As the detection method, the same determination method as that of the state detection unit 4 of the first embodiment may be used.

視認オブジェクト判定部5は、状態検出部4が検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する。視認オブジェクト判定部5は、ユーザが閲覧しているページの配置情報を更に参照して、ユーザが視認しているオブジェクトを判定してもよい。   The visible object determination unit 5 refers to the result detected by the state detection unit 4 and determines the object visually recognized by the user. The visible object determination unit 5 may determine the object visually recognized by the user by further referring to the layout information of the page being viewed by the user.

また、視認オブジェクト判定部5は、状態検出部4が検出した結果を参照し、ユーザの集中度およびユーザの感情のうち少なくとも1つを更に判定してもよい。視認オブジェクト判定部5が行う判定方法は、実施形態1の視認オブジェクト判定部5の判定方法と同じ方法を用いればよい。本実施形態において、ユーザが視認しているオブジェクトとは、ユーザが視認している問題文および解答の選択肢である。本実施形態において、ユーザの感情は、例えば、自信に満ちている、困っている等、問題を解いているときの学習者の感情である。   In addition, the visible object determination unit 5 may further determine at least one of the degree of concentration of the user and the emotion of the user with reference to the result detected by the state detection unit 4. The determination method performed by the visible object determination unit 5 may use the same method as the determination method of the visible object determination unit 5 of the first embodiment. In the present embodiment, the object visually recognized by the user is a question sentence and an option of an answer visually recognized by the user. In the present embodiment, the emotion of the user is, for example, the emotion of the learner when solving a problem such as being confident or in trouble.

本実施形態において、趣向情報生成部6が生成する趣向情報は、ある問題に解答したユーザの推定理解度である。ここで、推定理解度とは、学習者(ユーザ)が該解答に至るまでの過程のみを考慮した上で、学習者の理解度を推定するための度合いである。趣向情報生成部6は、ユーザ情報取得部1から取得したユーザ情報および視認オブジェクト判定部5から取得した判定結果を参照して、学習者の推定理解度を生成する。一例として、視認オブジェクト判定部5が、学習者が何度も視線を向けていると判定したオブジェクト、すなわち、何度も読み返している解答の選択肢について、趣向情報生成部6は、学習者が正解の候補として迷った選択肢であると判定し、推定理解度を生成する。本実施形態において、趣向情報生成部6は、ユーザがどの選択肢を実際に選択したかの結果は考慮せず、ユーザ情報および判定結果から学習者の推定理解度を生成する。   In the present embodiment, the preference information generated by the preference information generation unit 6 is an estimated understanding level of a user who has answered a certain question. Here, the estimated degree of understanding is a degree for estimating the degree of understanding of the learner (user) in consideration of only the process up to the answer. The interest information generating unit 6 refers to the user information obtained from the user information obtaining unit 1 and the determination result obtained from the visual recognition object determining unit 5 to generate an estimated understanding degree of the learner. As an example, for the object that the visual recognition object determination unit 5 has determined that the learner has turned his or her eyes many times, that is, for the answer option that has been read back many times, the taste information generation unit 6 determines that the learner has a correct answer. Is determined to be a lost option as a candidate, and an estimated understanding level is generated. In the present embodiment, the preference information generation unit 6 generates an estimated understanding level of the learner from the user information and the determination result without considering the result of which option the user has actually selected.

これにより、学習者の推定理解度を好適に生成することができる。   As a result, it is possible to appropriately generate the estimated understanding level of the learner.

図14は、趣向情報生成部6が生成する情報の一例である。図14は、趣向情報生成部6が生成する情報の一例である。図14において、「ID」は、学習者を識別するための情報、「迷った選択肢」は、視認オブジェクト判定部5において、学習者が視認していたと判定された選択肢であり、「迷わなかった選択肢」は、学習者がそれほど視認していなかったと判定された選択肢である。「推定理解度」は、「迷った選択肢」および「迷わなかった選択肢」を総合的に判定し、学習者の理解度を5段階で示した結果である。本例において、解答の選択肢はa〜dの4つであり、正解の選択肢はaである。   FIG. 14 is an example of information generated by the preference information generation unit 6. FIG. 14 is an example of information generated by the preference information generation unit 6. In FIG. 14, “ID” is information for identifying a learner, “Wandering option” is an option determined by the visual recognition object determination unit 5 to be visually recognized by the learner, and is “not lost”. The “option” is an option that has been determined that the learner has not viewed so much. The “estimated understanding level” is a result of comprehensively determining “a lost option” and “an unambiguous option” and indicating the learner's level of understanding in five levels. In this example, there are four answer choices a to d, and the correct answer is a.

学習者A〜Dの推定理解度について、それぞれ以下に説明する。   The estimated understanding levels of the learners A to D will be described below.

学習者Aは、正解である選択肢a以外に、選択肢bおよびcも視認していたため、学習者Aは、選択肢a、bおよびcで迷ったといえる。逆に、学習者Aは、選択肢dについては、それほど視認していなかったため、選択肢dを一読した上で正解の候補から除外していた可能性が高いといえる。このことより、学習者Aは、選択肢dを正解の候補から除外するだけの理解度はあったと趣向情報生成部6が判定し、中程度の理解度として推定理解度「3」を生成する。   Since the learner A also visually recognized the options b and c in addition to the correct option a, it can be said that the learner A was lost in the options a, b and c. Conversely, since the learner A did not visually recognize the option d so much, it can be said that there is a high possibility that the learner A has read the option d and removed it from the candidates for the correct answer. Accordingly, the preference information generation unit 6 determines that the learner A has the understanding level enough to exclude the option d from the candidates for the correct answer, and generates the estimated understanding level "3" as the medium understanding level.

学習者Bは、正解である選択肢aと、選択肢bとを視認しており、選択肢cおよびdをそれほど視認していなかったことより、選択肢aとbとで迷ったといえる。選択肢aおよびbのどちらかが正解であると絞り込んでいる点で、趣向情報生成部6は、学習者Bの推定理解度を学習者Aよりも高い「4」とする。   The learner B visually recognizes the alternatives a and b, which are correct answers, and has not seen the alternatives c and d so much. In that one of the options a and b is narrowed down to the correct answer, the preference information generation unit 6 sets the estimated understanding degree of the learner B to “4” which is higher than that of the learner A.

学習者Cは、問題文および選択肢を一読した上で、迷わず即答した。このことより、趣向情報生成部6は、学習者Cの理解度が高いと判定し、推定理解度「5」を生成する。   Learner C read the question sentence and options, and immediately answered without hesitation. From this, the preference information generation unit 6 determines that the understanding degree of the learner C is high, and generates the estimated understanding degree “5”.

学習者Dは、選択肢a以外の選択肢b、c、およびdを視認していることから、正解である選択肢aを最初から正解の候補として含まず、選択肢b、c、およびdで迷ったといえる。このことより、趣向情報生成部6は、学習者Dの理解度はそれほど高くないと判定し、推定理解度「2」を生成する。   Since the learner D is visually recognizing the options b, c, and d other than the option a, the learner D does not include the option a that is the correct answer as a candidate for the correct answer from the beginning, and can be said to be lost in the options b, c, and d. . From this, the preference information generation unit 6 determines that the understanding degree of the learner D is not so high, and generates the estimated understanding degree “2”.

学習者Eは、全ての選択肢を同じように視認し、全ての選択肢で迷ったといえる。このことより、趣向情報生成部6は、学習者Eの理解度はそれほど高くないと判定し、推定理解度「1」を生成する。   It can be said that the learner E visually recognizes all the options in the same manner and is lost in all the options. From this, the preference information generating unit 6 determines that the understanding degree of the learner E is not so high, and generates the estimated understanding degree “1”.

(プログラム実行部2−1)
プログラム実行部30は、趣向情報生成部6が生成した推定理解度を可視化したオブジェクトを含む表示データを外部の表示装置へ出力してもよい。表示データの一例として、グラフが挙げられる。
(Program execution unit 2-1)
The program execution unit 30 may output display data including an object that visualizes the estimated understanding level generated by the preference information generation unit 6 to an external display device. A graph is an example of the display data.

図15は、問題文5つに解答した、ある学習者の推定理解度を棒グラフに示したものである。可視化の方法は、限定されず、レーダチャート等を用いてもよい。また、図15は、1人の学習者の推定理解度を示しているが、同じ問題を解いた複数の学習者の平均の推定理解度等を併せて表示してもよい。   FIG. 15 is a bar graph showing the estimated understanding level of a certain learner who answered five question sentences. The visualization method is not limited, and a radar chart or the like may be used. Although FIG. 15 shows the estimated understanding level of one learner, the average estimated understanding level of a plurality of learners who solved the same problem may also be displayed.

これにより、学習者の推定理解度を可視化することができる。   This makes it possible to visualize the estimated understanding level of the learner.

本実施形態において、趣向情報生成部6が生成する趣向情報の形態は、特に限定されない。図14で示すように、各問題における複数の学習者の推定理解度を示す情報であってもよいし、図15のように、各学習者における解答済みの複数の問題の推定理解度を示す情報であってもよい。   In the present embodiment, the form of the preference information generated by the preference information generation unit 6 is not particularly limited. As shown in FIG. 14, the information may indicate the estimated understanding of a plurality of learners in each question, or may indicate the estimated understanding of a plurality of answered questions in each learner as shown in FIG. It may be information.

本実施形態に係る情報処理装置は、例えば、以下の事項を更に判定して、推定理解度を生成してもよい。   For example, the information processing apparatus according to the present embodiment may further determine the following items and generate the estimated understanding level.

問題文および解答の選択肢の文全体を一読するのに最低限必要であるとされる閾値の時間より短い時間で解答した場合は、そもそも学習者が問題文および選択肢の文を読まずに解答した可能性が高く、理解した上での解答ではないといえる。この場合、趣向情報生成部6は、推定理解度を下げる等の処理を行ってもよい。   In the case where the answer was shorter than the minimum threshold time required to read the entire question sentence and the answer option, the learner answered the question and option sentence without reading it in the first place. It is highly likely that it is not an answer after understanding. In this case, the preference information generation unit 6 may perform processing such as lowering the estimated understanding level.

また、解答の選択肢に重みづけをした上で、学習者が複数の選択肢を解答の候補として迷った場合に、その選択肢の重みを推定理解度に反映させてもよい。例えば、事前に学習をしたはずの学習者なら通常選び得ない解答の選択肢が解答の候補とされた場合、趣向情報生成部6は、推定理解度を下げる等の処理を行ってもよい。   In addition, after weighting the answer options, when the learner is lost in a plurality of options as answer candidates, the weight of the options may be reflected in the estimated understanding level. For example, when an answer option that cannot be normally selected by a learner who should have learned in advance is set as an answer candidate, the preference information generation unit 6 may perform processing such as lowering the estimated understanding level.

(プログラム実行部2−2)
プログラム実行部30は、趣向情報生成部6から取得した趣向情報に基づいた提案情報をユーザに提案する。本実施形態において、提案情報とは、例えば、趣向情報生成部6が生成する趣向情報に含まれる、各学習者における解答済みの複数の問題のうち推定理解度が低い問題について学習者に復習させるための情報である。復習させるための情報とは、具体的には、推定理解度が低い問題を学習者に理解させるための解説等である。復習させるための情報とは、更に具体的には、「英文法の過去完了形についての理解が低いようです。」、「教科書10ページから13ページを再度復習してください。」等のメッセージであってもよい。
(Program execution unit 2-2)
The program execution unit 30 proposes proposal information to the user based on the preference information acquired from the preference information generation unit 6. In the present embodiment, for example, the suggestion information causes the learner to review a question having a low estimated understanding level among a plurality of questions answered by each learner, which are included in the preference information generated by the preference information generation unit 6. Information. The information for reviewing is, specifically, an explanation or the like for making the learner understand the problem with a low estimated understanding level. More specifically, the information for reviewing is a message such as "It seems that the understanding of the past completed form of English grammar is low." And "Review the textbook pages 10 to 13 again." There may be.

提案情報の提案の方法として、例えば、学習者が所定の複数の問題を解き終わった後、解答の正誤を確認する画面において、プログラム実行部30が提案情報を表示部に表示してもよい。また、プログラム実行部30は、メール、ソーシャルネットワークサービス(SNS)およびインスタントメッセージ(IM)等の通信手段を用いて、生成した提案情報を学習者に送信してもよい。   As a method of suggesting proposal information, for example, after the learner has completed a plurality of predetermined questions, the program execution unit 30 may display the proposal information on the display unit on a screen for confirming correctness of the answer. In addition, the program execution unit 30 may transmit the generated proposal information to the learner using communication means such as an email, a social network service (SNS), and an instant message (IM).

このように、プログラム実行部30が提案情報を学習者に提案することで、学習者は、自身の推定理解度に基づいた情報を享受することができる。   In this way, the program execution unit 30 proposes the proposal information to the learner, so that the learner can enjoy the information based on his / her estimated understanding level.

プログラム実行部30は、ユーザが提案情報を視認したか否かを判定してもよい。ユーザが提案情報を視認したか否かの判定は、例えば、学習者に提案した、問題を復習させるための情報を表示した画面を、学習者が視認したか否かの情報をプログラム実行部30が参照することにより判定してもよい。学習者が視認したか否かの情報は、例えば、視認オブジェクト判定部5より取得する。視認オブジェクト判定部5は、例えば、実施形態1の(視認オブジェクト判定部)で記載の処理を行えばよい。   The program execution unit 30 may determine whether or not the user has visually recognized the proposal information. The determination as to whether or not the user has visually recognized the suggestion information may be made by, for example, determining whether or not the learner has visually recognized a screen displaying information for reviewing the problem, which has been suggested to the learner, by using the program execution unit 30. May be determined by reference. Information on whether or not the learner has visually recognized the information is acquired from, for example, the visually recognized object determination unit 5. The visual recognition object determination unit 5 may perform the processing described in (Visual recognition object determination unit) of the first embodiment, for example.

また、プログラム実行部30は、上述の判定の結果に基づいて評価を行ってもよい。ここで、評価とは、例えば、学習者へ提案した、問題を復習させるための情報(提案情報)が適当であったかの評価である。一例として、プログラム実行部30は、問題を復習させるための情報を視認した学習者が、再度問題を解くためのサイトにログインしたか、実際に問題を解いたか等の情報を参照することにより評価を行う。一例として、問題を復習させるための情報を提案した全学習者の人数における、再度問題を解いた学習者の人数の割合を評価値としてもよい。   In addition, the program execution unit 30 may perform the evaluation based on the result of the above-described determination. Here, the evaluation is, for example, an evaluation of whether information (suggestion information) for reviewing a problem, which is proposed to a learner, is appropriate. As an example, the program execution unit 30 evaluates by referring to information such as whether the learner who has visually recognized the information for reviewing the problem has logged in to the site for solving the problem again or has actually solved the problem. I do. As an example, the evaluation value may be a ratio of the number of learners who solved the problem again to the total number of learners who proposed information for reviewing the problem.

(変形例2−1)
情報処理装置100は、選択情報取得部(不図示)を更に備えてもよい。選択情報取得部は、ユーザの選択情報を取得する。本実施形態において、選択情報とは、学習者が選択した選択肢の番号である。
(Modification 2-1)
The information processing device 100 may further include a selection information acquisition unit (not shown). The selection information acquisition unit acquires the user's selection information. In the present embodiment, the selection information is the number of the option selected by the learner.

本変形例に係る情報処理装置は、ユーザ情報取得部1と、顔情報取得部2と、状態検出部4と、視認オブジェクト判定部5と、選択情報取得部と、趣向情報生成部6とを備えている。   The information processing apparatus according to the present modification includes a user information acquisition unit 1, a face information acquisition unit 2, a state detection unit 4, a visually recognizable object determination unit 5, a selection information acquisition unit, and an interest information generation unit 6. Have.

ユーザ情報取得部1、顔情報取得部2、状態検出部4、および視認オブジェクト判定部5の機能は、実施形態2で説明した部材の機能と同じであるため、その説明を省略する。   The functions of the user information acquisition unit 1, the face information acquisition unit 2, the state detection unit 4, and the visible object determination unit 5 are the same as the functions of the members described in the second embodiment, and a description thereof will not be repeated.

趣向情報生成部6は、ユーザ情報取得部1から取得したユーザ情報、視認オブジェクト判定部5から取得した判定結果、および選択情報取得部から取得した選択情報を参照して、学習者の推定理解度を生成する。一例として、視認オブジェクト判定部5が、学習者が何度も視線を向けていると判定したオブジェクト、すなわち、何度も読み返している解答の選択肢について、趣向情報生成部6は、学習者が正解の候補として迷った選択肢であると判定し、推定理解度を生成する。   The taste information generation unit 6 refers to the user information acquired from the user information acquisition unit 1, the determination result acquired from the visual recognition object determination unit 5, and the selection information acquired from the selection information acquisition unit, and estimates the learner's estimated understanding level. Generate As an example, for the object that the visual recognition object determination unit 5 has determined that the learner has turned his or her eyes many times, that is, for the answer option that has been read back many times, the taste information generation unit 6 determines that the learner has a correct answer. Is determined to be a lost option as a candidate, and an estimated understanding level is generated.

図16は、趣向情報生成部6が生成する情報の一例である。図16において、「ID」は、学習者を識別するための情報、「選択番号」は、各IDの学習者が実際に選択した選択肢の番号、「正否」は、解答の正否である。「迷った選択肢」とは、視認オブジェクト判定部5において、学習者が視認していたと判定された選択肢であり、「迷わなかった選択肢」とは、学習者がそれほど視認していなかったと判定された選択肢である。「推定理解度」は、「正否」、「迷った選択肢」および「迷わなかった選択肢」を総合的に判定し、学習者の理解度を5段階で示した結果である。本例において、解答の選択肢はa〜dの4つであり、正解の選択肢はaである。   FIG. 16 is an example of information generated by the preference information generation unit 6. In FIG. 16, “ID” is information for identifying the learner, “selection number” is the number of the option actually selected by the learner of each ID, and “correct” is the correctness of the answer. “A lost option” is an option determined by the visual recognition object determination unit 5 that the learner was visually recognizable, and “an option that was not lost” was determined that the learner was not visually recognizable. Is an option. The “estimated understanding level” is a result of comprehensively determining “right or wrong”, “decided option” and “undecided option”, and indicating the level of understanding of the learner in five levels. In this example, there are four answer choices a to d, and the correct answer is a.

図16において、問題に正解した、学習者A、CおよびDの推定理解度について説明する。学習者A、CおよびDは、何れも正解である選択肢aを選択したが、選択肢aを選択するに至った過程が異なる。   In FIG. 16, the estimated comprehension level of learners A, C, and D who answered the question correctly will be described. The learners A, C, and D have all selected the correct option a, but the process of selecting the option a is different.

学習者Aは、選択肢a以外に、選択肢bおよびcを視認していたため、学習者Aは、選択肢a、b、およびcで迷ったといえる。逆に、学習者Aは、選択肢dについては、それほど視認していなかったため、選択肢dを一読した上で正解の候補から除外していた可能性が高いといえる。このことより、学習者Aは、選択肢dを正解の候補から除外するだけの理解度はあったと趣向情報生成部6が判定し、中程度の理解度として推定理解度「3」を生成する。   Since the learner A saw the options b and c in addition to the option a, it can be said that the learner A was lost in the options a, b and c. Conversely, since the learner A did not visually recognize the option d so much, it can be said that there is a high possibility that the learner A has read the option d and removed it from the candidates for the correct answer. Accordingly, the preference information generation unit 6 determines that the learner A has the understanding level enough to exclude the option d from the candidates for the correct answer, and generates the estimated understanding level "3" as the medium understanding level.

学習者Cは、問題文および選択肢を一読した上で、選択肢aのみを視認し、選択肢aを正解として選択した。このことより、学習者Cは、理解度が高いと趣向情報生成部6が判定し、推定理解度「5」を生成する。   After reading the question sentence and the options, the learner C visually recognizes only the option a and selects the option a as the correct answer. Accordingly, the preference information generating unit 6 determines that the learner C has a high degree of understanding, and generates the estimated degree of understanding “5”.

学習者Dは、選択肢a以外に、選択肢b、c、およびdも視認していたため、学習者Aは、選択肢全てで迷ったといえる。このことより、学習者Dは、最終的に正解の選択肢を選択したが、全ての選択肢で迷ったことから、偶然正解した可能性が高く、理解度はそれほど高くないと趣向情報生成部6が判定し、推定理解度「2」を生成する。   Since the learner D also visually recognized the options b, c, and d in addition to the option a, it can be said that the learner A was at a loss for all the options. From this, the learner D finally selected the correct option, but since all options were lost, the possibility that the correct answer was accidentally high is high, and the understanding information is not so high. Judgment is made and an estimated understanding level “2” is generated.

また、問題に不正解であった、学習者BおよびEの推定理解度についても同様に判定される。例えば、学習者Bは、不正解であったが、選択肢aおよびbで迷い、その他の選択肢では迷わなかったことから、選択肢aおよびbまで絞り込むまでの理解度は備えていたと趣向情報生成部6は判定し、推定理解度「4」を生成する。また、学習者Eは、全ての選択肢で迷った挙句、結局不正解であったため、理解度が低いと趣向情報生成部6が判定し、推定理解度「1」を生成する。   In addition, the estimated comprehension levels of the learners B and E, who have incorrect answers to the question, are also determined in the same manner. For example, although the learner B was incorrect, he was confused by the choices a and b and was not confused by the other choices. Is determined, and an estimated understanding level “4” is generated. In addition, since the learner E is at a loss for all the options and is eventually incorrect, the preference information generating unit 6 determines that the understanding level is low, and generates the estimated understanding level “1”.

本変形例においても、<実施形態2>で記載のように、プログラム実行部30が、推定理解度に基づき提案情報を提案し、推定理解度と、提案情報とに基づき、評価を行ってもよい。   Also in the present modified example, as described in <Embodiment 2>, the program execution unit 30 may propose proposal information based on the estimated understanding level and perform evaluation based on the estimated understanding level and the proposed information. Good.

ここでの評価は、<実施形態2>と同じく、学習者へ提案した、問題を復習させるための情報(提案情報)が適当であったかの評価である。本変形例では、問題を復習させるための情報を視認した学習者が、再度問題を解いた際に、該学習者の成績が向上したか否かの情報等を、更に考慮して評価を行ってもよい。   The evaluation here is an evaluation of whether the information (suggestion information) suggested to the learner for reviewing the problem was appropriate, as in <Embodiment 2>. In this modification, when the learner who has visually recognized the information for reviewing the problem solves the problem again, the evaluation is performed by further considering information such as whether or not the student's performance has improved. You may.

<実施形態3>
本実施形態の情報処理装置100は、他の端末装置と趣向情報の共有を行う。図17は、情報処理装置100の構成要素を示すブロック図である。図17に示すように、本実施形態に係る情報処理装置100は、ユーザ情報取得部1、顔情報取得部2、状態検出部4、視認オブジェクト判定部5、趣向情報生成部6、プログラム実行部30、趣向共有依頼送信部20、趣向共有依頼受信部21、趣向共有依頼承認部22、および趣向共有部23を備える。趣向共有依頼送信部20、趣向共有依頼受信部21、趣向共有依頼承認部22、および趣向共有部23以外の部材の機能は、実施形態1で説明した部材の機能と同じであるため、その説明を省略する。
<Embodiment 3>
The information processing apparatus 100 according to the present embodiment shares interest information with another terminal device. FIG. 17 is a block diagram illustrating components of the information processing apparatus 100. As shown in FIG. 17, the information processing apparatus 100 according to the present embodiment includes a user information acquisition unit 1, a face information acquisition unit 2, a state detection unit 4, a visible object determination unit 5, an interest information generation unit 6, a program execution unit. 30, an interest sharing request transmission unit 20, an interest sharing request reception unit 21, an interest sharing request approval unit 22, and an interest sharing unit 23. The functions of members other than the taste sharing request transmitting unit 20, the taste sharing request receiving unit 21, the taste sharing request approving unit 22, and the taste sharing unit 23 are the same as the functions of the members described in the first embodiment. Is omitted.

図18は、本実施形態に係る情報処理システムの概要を示す図である。図18に示すように本実施形態に係る情報処理システムは、サーバ300と、複数の情報処理装置100の一例としての複数の端末装置(10、10a)とを備えている。   FIG. 18 is a diagram illustrating an outline of the information processing system according to the present embodiment. As illustrated in FIG. 18, the information processing system according to the present embodiment includes a server 300 and a plurality of terminal devices (10, 10a) as an example of a plurality of information processing devices 100.

趣向共有依頼送信部20は、サーバ300を介して他の端末に、趣向情報の共有を依頼するための情報を送信する。   The preference sharing request transmission unit 20 transmits information for requesting sharing of preference information to another terminal via the server 300.

趣向共有依頼受信部21は、サーバ300を介して他の端末の趣向共有依頼送信部から、趣向情報の共有を依頼されたことの情報を受信する。趣向共有依頼受信部21は、受信した情報を趣向共有依頼承認部へ通知する。   The preference sharing request receiving unit 21 receives, from the preference sharing request transmitting unit of another terminal via the server 300, information indicating that the sharing of the preference information has been requested. The preference sharing request receiving unit 21 notifies the preference sharing request approval unit of the received information.

趣向共有依頼承認部22は、趣向共有依頼受信部21から受信した情報に基づき、趣向情報を他の端末に送信してもよいか、ユーザに認可を求める通知を表示部に表示させる。この表示に基づき、ユーザは、認可をするか否かを示す操作入力を行い、趣向共有依頼承認部22は、該入力の情報を趣向共有部23に送信する。   Based on the information received from the preference sharing request receiving unit 21, the preference sharing request approval unit 22 displays on the display unit a notification requesting permission from the user as to whether the preference information may be transmitted to another terminal. Based on this display, the user performs an operation input indicating whether or not to permit, and the preference sharing request approval unit 22 transmits the input information to the preference sharing unit 23.

趣向共有部23は、趣向共有依頼承認部22から受信した情報が、認可を示す情報である場合、趣向情報生成部6から趣向情報を取得し、該趣向情報を、サーバ300を介して他の端末装置へ送信する。また、趣向共有部23は、サーバ300を介して他の端末から趣向情報を受信し、自身の端末装置の趣向情報および他の端末の趣向情報を合わせて両者の趣向情報を生成し、生成した両者の趣向情報の少なくとも一部を表示部12に表示させる。具体的には、両者の趣向情報を端末装置に表示させてもよいし、他の端末からの趣向情報のみを自身の端末装置に表示させてもよい。また、両者の趣向情報と、他の端末からの趣向情報のみとを、ユーザの操作等によって適宜切り換えて表示させてもよい。このような構成により、ユーザは、他の端末のユーザである相手の趣向情報を知ることができる。また、自分の趣向情報と、相手の趣向情報とを考慮した両者の趣向情報を知ることができる。   If the information received from the preference sharing request approval section 22 is information indicating authorization, the preference sharing section 23 acquires the preference information from the preference information generation section 6 and transmits the preference information to another preference via the server 300. Send to terminal device. In addition, the preference sharing unit 23 receives preference information from another terminal via the server 300, generates preference information of both terminals by combining the preference information of its own terminal device and the preference information of the other terminal, and generates the preference information. At least a part of the taste information of both is displayed on the display unit 12. Specifically, the preference information of both terminals may be displayed on the terminal device, or only the preference information from another terminal may be displayed on its own terminal device. Further, the preference information of both terminals and only the preference information from another terminal may be appropriately switched and displayed by a user operation or the like. With such a configuration, the user can know the taste information of the other party who is the user of the other terminal. In addition, it is possible to know both taste information in consideration of one's own taste information and the other party's taste information.

サーバ300は、上述した趣向情報の共有を依頼するための情報を、送信元の端末装置の端末ID又はユーザID、および、送信先の端末装置の端末ID又はユーザIDと関連付けて管理している。また、サーバ300は、「趣向情報」を、当該趣向情報の取得元の端末装置の端末ID又はユーザID、および当該趣向情報を共有可能な端末装置の端末ID又はユーザIDと関連付けて管理している。   The server 300 manages the information for requesting the sharing of the taste information described above in association with the terminal ID or the user ID of the source terminal device and the terminal ID or the user ID of the destination terminal device. . Further, the server 300 manages the “hobby information” in association with the terminal ID or the user ID of the terminal device from which the hobby information is obtained and the terminal ID or the user ID of the terminal device that can share the hobby information. I have.

一例として、飲食店の趣向情報を共有する場合を説明する。ユーザAおよびユーザBが、二人で利用する飲食店を選択する際、ユーザAと、ユーザBとが、お互いの飲食店に関する趣向情報を共有することで、お互いの趣向が最も近い、又は同じ飲食店を選択することができる。   As an example, a case where the taste information of a restaurant is shared will be described. When the user A and the user B select a restaurant to be used by two people, the user A and the user B share the taste information regarding each other's restaurants, so that the tastes are the closest to each other or the same. A restaurant can be selected.

例えば、ユーザAの端末装置の趣向共有依頼送信部は、ユーザBの端末装置にユーザBの飲食店の趣向情報の共有を依頼するための情報を送信する。ユーザBの端末装置の趣向共有依頼受信部21は、ユーザAの趣向共有依頼送信部から受信した情報を趣向共有依頼承認部22へ通知し、ユーザBの端末装置の表示部に、趣向情報を他の端末に送信してもよいか、ユーザBに認可を求める通知をさせる。ユーザBが、認可をするための入力を行うことで、趣向共有依頼承認部22は、趣向共有部23に認可されたことの情報を送信する。趣向共有部23は、趣向情報生成部6から趣向情報を取得し、ユーザAの端末装置へ趣向情報を送信する。また、趣向情報生成部6は、ユーザAの端末装置から趣向情報を取得し、ユーザAおよびユーザBの趣向情報に基づき、二人の趣向情報を生成し、生成した結果を表示部12に表示させる。   For example, the taste sharing request transmission unit of the terminal device of the user A transmits information for requesting the terminal device of the user B to share the taste information of the restaurant of the user B. The taste sharing request receiving unit 21 of the terminal device of the user B notifies the information received from the taste sharing request transmitting unit of the user A to the taste sharing request approval unit 22, and displays the taste information on the display unit of the terminal device of the user B. The user B may be notified of the permission for transmission to another terminal. When the user B performs an input for approval, the preference sharing request approval unit 22 transmits information of the approval to the preference sharing unit 23. The preference sharing unit 23 acquires the preference information from the preference information generation unit 6 and transmits the preference information to the terminal device of the user A. The preference information generation unit 6 acquires preference information from the terminal device of the user A, generates preference information of the two persons based on the preference information of the user A and the user B, and displays the generated result on the display unit 12. Let it.

(プログラム実行部3)
プログラム実行部30は、実施形態1の(プログラム実行部1−1)で記載したように、ユーザに対応したアバター画像を生成し、状態検出部4が検出するユーザの状態、視認オブジェクト判定部5が判定するユーザが視認しているオブジェクト、ユーザの感情、および趣向情報生成部6から取得する趣向情報のうち少なくとも1つに応じたアバター画像を生成する。
(Program execution unit 3)
The program execution unit 30 generates an avatar image corresponding to the user, as described in the (program execution unit 1-1) of the first embodiment, and detects the user state detected by the state detection unit 4 and the visual object determination unit 5 The avatar image according to at least one of the object visually recognized by the user, the emotion of the user, and the preference information acquired from the preference information generation unit 6 is generated.

本実施形態において、プログラム実行部30は、生成したアバター画像を、例えば、ユーザ自身が見ることが出来るように、該ユーザの端末装置の表示部12に表示してもよいし、趣向共有部23を介して、他の端末装置へ送信してもよい。すなわち、複数ユーザの間で、趣向情報と共にアバター画像を共有してもよい。   In the present embodiment, the program execution unit 30 may display the generated avatar image on the display unit 12 of the terminal device of the user so that the user can view the avatar image, for example. , And may be transmitted to another terminal device. That is, the avatar image may be shared with the interest information among a plurality of users.

このように、プログラム実行部30がアバター画像を生成することにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。また、複数のユーザの間でアバター画像を共有することで、端末装置の表示部を見ながらもユーザ同士の親近感を増すことが可能となる。   As described above, the program executing unit 30 generates the avatar image, so that the object visually recognized by the user, the emotion of the user, and the interest information can be visualized. Also, by sharing the avatar image among a plurality of users, it is possible to increase the affinity between the users while watching the display unit of the terminal device.

図19は、ユーザAおよびユーザBの趣向情報を表示した一例である。例えば、ユーザAの趣向情報およびユーザBの趣向情報のうち、両方に含まれていた店舗は、両者の共通する趣向情報として上位に表示する。図19では、例えば、ブラウザ画面16において、上段に表示されている店舗Y、P、X、およびCは、ユーザAおよびユーザBの共通の好みである店舗である。また、ブラウザ画面16がユーザAの端末装置の表示部12に表示されている場合、ユーザAの端末装置の表示部12には、ユーザBの好みの店舗のみが表示されていてもよい。   FIG. 19 is an example in which the taste information of the user A and the user B is displayed. For example, a store that is included in both of the preference information of the user A and the preference information of the user B is displayed at a higher rank as the preference information common to both. In FIG. 19, for example, stores Y, P, X, and C displayed in the upper row on the browser screen 16 are stores that are common preferences of the user A and the user B. Further, when the browser screen 16 is displayed on the display unit 12 of the terminal device of the user A, the display unit 12 of the terminal device of the user A may display only the store desired by the user B.

本実施形態のプログラム実行部30は、表示部12のレイアウトを適宜変更してもよい。プログラム実行部30の処理は、実施形態1に記載のプログラム実行部30の処理と同じである。   The program execution unit 30 of the present embodiment may appropriately change the layout of the display unit 12. The processing of the program execution unit 30 is the same as the processing of the program execution unit 30 described in the first embodiment.

趣向情報を共有する端末の数は、特に限定されず、3つ以上の端末装置の間で共有されてもよい。   The number of terminals sharing interest information is not particularly limited, and may be shared among three or more terminal devices.

本実施形態では、端末装置が、趣向情報生成部6および趣向共有部23を備えており、複数の端末装置同士で趣向情報を共有する形態であったが、この形態に限定されない。図18に示す例において、サーバ300が、趣向情報生成部6および趣向共有部23を備え、サーバを経由して、複数のユーザがお互いの趣向情報を共有し、複数人の趣向情報を生成する形態であってもよい。   In the present embodiment, the terminal device includes the preference information generation unit 6 and the preference sharing unit 23, and the preference information is shared by a plurality of terminal devices. However, the present invention is not limited to this mode. In the example illustrated in FIG. 18, the server 300 includes the preference information generation unit 6 and the preference sharing unit 23, and a plurality of users share each other's preference information and generate preference information of a plurality of people via the server. It may be in a form.

サーバが趣向情報生成部6を備える構成については、実施形態4で説明する。   A configuration in which the server includes the preference information generation unit 6 will be described in a fourth embodiment.

<実施形態4>
〔情報処理装置400およびサーバ200の要部構成〕
本実施形態に係る情報処理装置について、図20を用いて説明する。図20は、本実施形態に係る情報処理装置400を備える端末装置10および本実施形態に係る情報処理装置であるサーバ200の構成要素を示すブロック図である。
<Embodiment 4>
[Main Configurations of Information Processing Device 400 and Server 200]
An information processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 20 is a block diagram illustrating components of the terminal device 10 including the information processing device 400 according to the present embodiment and a server 200 that is the information processing device according to the present embodiment.

端末装置10は、ユーザのユーザ情報および顔情報を取得し、取得した情報をサーバ200に送信し、サーバ200は受信した情報を参照して趣向情報を生成する。サーバ200は、生成した趣向情報を端末装置10に送信し、端末装置10は、趣向情報を取得する。   The terminal device 10 acquires the user information and the face information of the user, transmits the acquired information to the server 200, and the server 200 generates the interest information by referring to the received information. The server 200 transmits the generated preference information to the terminal device 10, and the terminal device 10 acquires the preference information.

本実施形態に係る情報処理装置400は、登録された特定のユーザのユーザ情報を取得するユーザ情報取得部1、ユーザの顔情報を取得する顔情報取得部2、ユーザのユーザ情報と、ユーザの顔情報とを参照して得られる趣向情報を取得する趣向情報取得部24、およびプログラム実行部30を備えている。また、情報処理装置を備える端末装置10は、表示部を更に備える。   The information processing apparatus 400 according to the present embodiment includes: a user information acquisition unit 1 that acquires user information of a registered specific user; a face information acquisition unit 2 that acquires user face information; The information processing apparatus includes a preference information acquisition unit 24 that acquires preference information obtained by referring to face information, and a program execution unit 30. In addition, the terminal device 10 including the information processing device further includes a display unit.

これにより、本実施形態に係る情報処理装置400は、ユーザの趣向情報を取得することができる。   Thereby, the information processing apparatus 400 according to the present embodiment can acquire the user's preference information.

ユーザ情報取得部1および顔情報取得部2は、実施形態1と同じく、それぞれ、ユーザ情報およびユーザの顔情報を取得する。   The user information acquisition unit 1 and the face information acquisition unit 2 acquire user information and user face information, respectively, as in the first embodiment.

ユーザ情報には、ユーザの属性情報が含まれ、具体的なユーザの属性情報は、実施形態1で記載の属性情報と同じである。   The user information includes user attribute information, and specific user attribute information is the same as the attribute information described in the first embodiment.

また、上記ユーザ情報には、上記ユーザを他のユーザと識別するためのユーザ識別情報が含まれ、具体的なユーザの識別情報は、実施形態1で記載の識別情報と同じである。   Further, the user information includes user identification information for identifying the user from other users, and specific identification information of the user is the same as the identification information described in the first embodiment.

これにより、ユーザの属性を取得することができる。また、ユーザ情報に、ユーザ識別情報が含まれることで、他のユーザと対象ユーザとを識別することができ、ユーザの趣向情報と、ユーザ情報とを紐づけることができる。   Thereby, the attribute of the user can be obtained. In addition, since the user information includes the user identification information, another user and the target user can be identified, and the taste information of the user and the user information can be linked.

本実施形態では、図20に示すように、ユーザ情報取得部1、および顔情報取得部2が取得した情報を、サーバ200に送信する点で、実施形態1とは異なる。   The present embodiment is different from the first embodiment in that information acquired by the user information acquisition unit 1 and the face information acquisition unit 2 is transmitted to the server 200, as shown in FIG.

また、趣向情報取得部24は、サーバ200から趣向情報を取得し、取得した結果を表示部12に表示させる。   Further, the preference information acquisition unit 24 acquires the preference information from the server 200 and causes the display unit 12 to display the acquired result.

情報処理装置400は、趣向情報に基づきプログラムを実行するプログラム実行部(不図示)を更に備えてもよい。   The information processing device 400 may further include a program execution unit (not shown) that executes a program based on the preference information.

これにより、情報処理装置400は、ユーザの趣向情報に基づいたプログラムを実行することができる。   Thereby, the information processing device 400 can execute a program based on the user's preference information.

(プログラム実行部4−1)
プログラム実行部30は、ユーザに対応したアバター画像であって、ユーザの状態、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報のうち少なくとも1つに応じたアバター画像を生成する。プログラム実行部が行うアバター画像の生成についての詳細は、実施形態1で説明した通りである。
(Program execution unit 4-1)
The program execution unit 30 generates an avatar image corresponding to the user, the avatar image corresponding to at least one of a state of the user, an object visually recognized by the user, emotion of the user, and interest information. The details of the generation of the avatar image performed by the program execution unit are as described in the first embodiment.

このように、プログラム実行部30がアバター画像を生成することにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。   As described above, the program executing unit 30 generates the avatar image, so that the object visually recognized by the user, the emotion of the user, and the interest information can be visualized.

プログラム実行部30は、趣向情報に基づいた提案情報をユーザに提案し、趣向情報と、上記提案情報とに基づいた評価を行ってもよい。プログラム実行部が行う提案情報の提案および評価についての詳細は、実施形態1で説明した通りである。   The program execution unit 30 may propose the proposal information based on the preference information to the user, and may perform the evaluation based on the preference information and the proposal information. The details of the proposal and evaluation of the proposal information performed by the program execution unit are as described in the first embodiment.

このように、プログラム実行部30が提案情報をユーザに提案することで、ユーザは、自身の趣向に基づいた情報を享受することができる。また、プログラム実行部30が評価を行うことで、提案情報が適当なものであったかの評価を行うことができる。   In this way, the program execution unit 30 proposes the proposal information to the user, so that the user can enjoy the information based on his / her own taste. In addition, the evaluation performed by the program execution unit 30 makes it possible to evaluate whether the proposal information is appropriate.

プログラム実行部は、趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更してもよい。プログラム実行部が行う表示情報の変更についての詳細は、実施形態1で説明した通りである。   The program executing unit may change display information to be displayed on an external display device based on the preference information. The details of the change of the display information performed by the program execution unit are as described in the first embodiment.

これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。   As a result, a layout or the like based on the taste information of each user can be provided to each user.

〔サーバ200の要部構成〕
図20に基づき、サーバ200について説明する。本実施形態に係るサーバ200は、登録された特定のユーザのユーザ情報を取得するユーザ情報取得部1aと、上記ユーザの顔情報を取得する顔情報取得部2aと、上記ユーザのユーザ情報と、上記ユーザの顔情報とを参照して、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成部6aと、上記趣向情報に基づきプログラムを実行するプログラム実行部30aを備えている。
[Main Configuration of Server 200]
The server 200 will be described with reference to FIG. The server 200 according to the present embodiment includes a user information acquisition unit 1a that acquires user information of a registered specific user, a face information acquisition unit 2a that acquires face information of the user, user information of the user, The system includes a taste information generation unit 6a that generates taste information about the user's taste with reference to the user's face information, and a program execution unit 30a that executes a program based on the taste information.

これにより、サーバ200は、ユーザの趣向情報を好適に生成することができる。   Thereby, the server 200 can suitably generate the user's preference information.

図20に示すように、また、本実施形態に係るサーバ200は、趣向情報を送信する送信部19を更に備えている。   As shown in FIG. 20, the server 200 according to the present embodiment further includes a transmission unit 19 that transmits the preference information.

サーバ200が備えるユーザ情報取得部1aおよび顔情報取得部2aは、端末装置10内のユーザ情報取得部1および顔情報取得部2から、それぞれユーザ情報および顔情報を受信し、受信した情報を趣向情報生成部6aに送信する。   The user information acquisition unit 1a and the face information acquisition unit 2a included in the server 200 receive the user information and the face information from the user information acquisition unit 1 and the face information acquisition unit 2 in the terminal device 10, respectively. The information is transmitted to the information generator 6a.

趣向情報生成部6aは、受信したユーザ情報および顔情報を参照することにより、ユーザの趣向情報を生成する。趣向情報生成部6aの具体的な動作は、実施形態1において説明した趣向情報生成部6と同様であるが、図20に示すように、本実施形態に係るサーバ200の趣向情報生成部6aは、状態検出部4a、および視認オブジェクト判定部5aを備え得る。ここで、状態検出部4aおよび視認オブジェクト判定部5aの機能は、実施形態1において説明した状態検出部4および視認オブジェクト判定部5の機能と同じである。   The preference information generation unit 6a generates the user preference information by referring to the received user information and face information. The specific operation of the preference information generation unit 6a is the same as that of the preference information generation unit 6 described in the first embodiment, but the preference information generation unit 6a of the server 200 according to the present embodiment includes , A state detection unit 4a, and a visible object determination unit 5a. Here, the functions of the state detection unit 4a and the visible object determination unit 5a are the same as the functions of the state detection unit 4 and the visible object determination unit 5 described in the first embodiment.

このように、状態検出部4aと、視認オブジェクト判定部5aとを備えることで、サーバ200は、ユーザの状態を検出できると共に、ユーザが視認しているオブジェクトを好適に判定することができる。   As described above, by including the state detection unit 4a and the visible object determination unit 5a, the server 200 can detect the state of the user and can appropriately determine the object visually recognized by the user.

なお、サーバ200と送受信を行う情報処理装置400が、顔情報取得部2が取得した顔情報からユーザの状態を検出する状態検出部と、状態検出部が検出した結果を参照し、上記ユーザが視認しているオブジェクト判定する視認オブジェクト判定部とを備えてもよい。   In addition, the information processing apparatus 400 that performs transmission and reception with the server 200 refers to the state detection unit that detects the state of the user from the face information acquired by the face information acquisition unit 2 and the result detected by the state detection unit. A visually recognized object determination unit for determining the visually recognized object may be provided.

このように、状態検出部と、視認オブジェクト判定部とを備えることで、情報処理装置400は、ユーザの状態を検出できると共に、ユーザが視認しているオブジェクトを好適に判定することができる。   As described above, by including the state detection unit and the visible object determination unit, the information processing apparatus 400 can detect the state of the user and can appropriately determine the object visually recognized by the user.

視認オブジェクト判定部は、実施形態1に係る視認オブジェクト判定部と同様に、上記ユーザが閲覧しているページの配置情報を更に参照して、ユーザが視認しているオブジェクトを判定する。   The visual recognition object determination unit determines the object visually recognized by the user by further referring to the layout information of the page being viewed by the user, similarly to the visual recognition object determination unit according to the first embodiment.

このように視認オブジェクト判定部が、ページの配置情報を更に参照することで、ユーザがページ上のどのオブジェクトを視認しているか、正確に判定することができる。   In this way, the visual object determination unit can accurately determine which object on the page the user is visually recognizing by further referring to the page layout information.

また、視認オブジェクト判定部は、状態検出部が検出した結果を参照し、ユーザの集中度およびユーザの感情のうち少なくとも1つを更に判定してもよい。視認オブジェクト判定部の機能は、実施形態1に係る視認オブジェクト判定部5と同じである。   In addition, the visible object determination unit may further determine at least one of the degree of concentration of the user and the emotion of the user with reference to a result detected by the state detection unit. The function of the visible object determination unit is the same as that of the visible object determination unit 5 according to the first embodiment.

これにより、ユーザがどの程度オブジェクトに興味を持ち、どのような感情を持って該オブジェクトを視認しているかを判定することができる。   Thus, it is possible to determine how much the user is interested in the object and what kind of emotion the user is viewing the object.

情報処理装置100は、ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部(不図示)を更に備えてもよい。また、視認オブジェクト判定部は、画像取得部が取得した撮像画像と、上記状態検出部が検出した結果と、を参照して、上記ユーザが視認しているオブジェクトを判定してもよい。   The information processing device 100 may further include an image acquisition unit (not shown) that acquires a captured image including the user's field of view from an imaging device worn by the user. Further, the visible object determination unit may determine the object visually recognized by the user with reference to the captured image acquired by the image acquisition unit and the result detected by the state detection unit.

画像取得部および視認オブジェクト判定部の機能は、実施形態1で記載の画像取得部15および視認オブジェクト判定部5の機能と同じである。   The functions of the image acquisition unit and the visible object determination unit are the same as the functions of the image acquisition unit 15 and the visible object determination unit 5 described in the first embodiment.

これにより、ユーザが視認しているオブジェクトを好適に判定することができる。   This makes it possible to appropriately determine the object visually recognized by the user.

状態検出部が検出するユーザの状態は、実施形態1に係る状態検出部4と同じであり、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つである。   The state of the user detected by the state detection unit is the same as that of the state detection unit 4 according to the first embodiment, and the user's line of sight, pupil state, number of blinks, eyebrow movement, eyelid movement, cheek movement, At least one of nose movement, lip movement and chin movement.

これにより、ユーザの集中度を好適に判定することができる。   Thereby, the degree of concentration of the user can be suitably determined.

ここで、趣向情報は、実施形態1と同様に、ユーザの興味が強いオブジェクトおよび興味が弱いオブジェクトに関する情報である。   Here, similar to the first embodiment, the interest information is information on an object having a strong interest of the user and an object having a weak interest.

これにより、サーバ200が備える趣向情報生成部6aは、各ユーザの興味が強いオブジェクトおよび興味の弱いオブジェクトの情報を知ることができ、趣向情報生成部は、重みづけを行った趣向情報を生成することができる。また、情報処理装置400が備える趣向情報取得部24が該趣向情報を取得することで、ユーザは、自身の趣向に基づいた趣向情報を取得することができる。   Thereby, the preference information generation unit 6a included in the server 200 can know information of the object that each user has a strong interest and the object that the user is not interested in, and the preference information generation unit generates the weighted preference information. be able to. In addition, the preference information acquisition unit 24 included in the information processing apparatus 400 acquires the preference information, so that the user can acquire the preference information based on his / her own preference.

情報処理装置が、サーバであり、サーバが備える趣向情報生成部において趣向情報が生成される形態は、本実施形態に限定されず、上述した、実施形態1〜3にも適用され得る。   The information processing apparatus is a server, and the form in which the preference information is generated by the preference information generation unit provided in the server is not limited to the present embodiment, and may be applied to the above-described first to third embodiments.

このように、サーバが趣向情報生成部を備えることで、例えば、ユーザが使用する端末装置が常に同じでなくても、該ユーザの趣向情報をサーバ上で生成することができるという効果を奏する。ユーザのユーザ情報および顔情報さえ取得出来れば、ユーザが、パソコン、タブレット、スマートフォンなどいずれの端末装置を使用した場合においても、該ユーザの趣向情報を安定して生成することができる。   As described above, by providing the taste information generation unit in the server, for example, even if the terminal device used by the user is not always the same, it is possible to generate the taste information of the user on the server. As long as the user information and face information of the user can be obtained, even if the user uses any terminal device such as a personal computer, a tablet, and a smartphone, it is possible to stably generate the interest information of the user.

また、サーバが趣向情報生成部を備えることは、実施形態3に記載の複数ユーザの趣向情報を共有する形態においては、特に有用である。複数ユーザの趣向情報を共有する場合、例えば、サーバが趣向共有部を更に備えてもよい。このような構成により、複数ユーザの趣向情報をサーバ上で好適に生成することができる。   Providing the server with the preference information generation unit is particularly useful in the form of sharing the preference information of a plurality of users described in the third embodiment. When the preference information of a plurality of users is shared, for example, the server may further include a preference sharing unit. With such a configuration, it is possible to preferably generate taste information of a plurality of users on the server.

(プログラム実行部4−2)
プログラム実行部30aは、ユーザに対応したアバター画像であって、ユーザの状態、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報のうち少なくとも1つに応じたアバター画像を生成する。プログラム実行部30aが行う処理は、実施形態1の(プログラム実行部1−1)に記載の処理と同じである。
(Program execution unit 4-2)
The program execution unit 30a generates an avatar image corresponding to the user, the avatar image corresponding to at least one of the state of the user, the object visually recognized by the user, the emotion of the user, and interest information. The processing performed by the program execution unit 30a is the same as the processing described in (Program execution unit 1-1) of the first embodiment.

これにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。   Thereby, the object visually recognized by the user, the emotion of the user, and the interest information can be visualized.

なお、本実施形態のプログラム実行部30aが生成するアバター画像は、送信部19を介して端末装置10の趣向情報取得部24に送信される。図20では、端末装置10にのみ送信される形態であるが、送信先の装置の種類および数は特に限定されず、複数の装置に送信されてもよい。   The avatar image generated by the program execution unit 30a according to the present embodiment is transmitted to the preference information acquisition unit 24 of the terminal device 10 via the transmission unit 19. In FIG. 20, the mode is transmitted only to the terminal apparatus 10, but the type and number of destination apparatuses are not particularly limited, and may be transmitted to a plurality of apparatuses.

このように、サーバが複数の装置にプログラム実行部30aが生成するアバター画像を送信することにより、複数のユーザが、アバター画像を見ることができる。   As described above, the server transmits the avatar image generated by the program execution unit 30a to a plurality of devices, so that a plurality of users can view the avatar image.

また、図20では、端末装置10のみから、顔情報およびユーザ情報を受信している形態であるが、顔情報およびユーザ情報を送信する装置の種類および数は特に限定されず、サーバ200は、複数の装置から顔情報およびユーザ情報を受信してもよい。この場合、サーバ200の趣向情報生成部6aは、複数のユーザの顔情報およびユーザ情報を参照することにより、各ユーザの趣向情報を生成してもよい。また、趣向情報生成部6aは、複数のユーザの顔情報およびユーザ情報を参照することにより、複数のユーザの趣向情報を統合した趣向情報を生成してもよい。プログラム実行部30aは、趣向情報生成部6aが生成した各ユーザの趣向情報を参照して、各ユーザに対応するアバター画像を生成してもよい。また、プログラム実行部30aは、あるユーザに対応するアバター画像を、他のユーザに関連付けられた端末装置に送信可能な構成としてもよい。一例として、プログラム実行部30aは、複数のユーザに対応するアバター画像を1つの仮想空間に表示させるような画像を生成し、当該画像を、当該複数のユーザに関連付けられた各々の端末装置に送信可能な構成としてもよい。より具体的には、プログラム実行部30aは、各ユーザに対応するアバター画像を、実店舗を模した仮想空間に配置し、各ユーザが実店舗でショッピングをしているように見せるための画像を生成してもよい。   FIG. 20 shows a mode in which the face information and the user information are received only from the terminal device 10. However, the type and number of the devices that transmit the face information and the user information are not particularly limited. Face information and user information may be received from a plurality of devices. In this case, the preference information generation unit 6a of the server 200 may generate the preference information of each user by referring to the face information and the user information of a plurality of users. Further, the preference information generation unit 6a may generate preference information in which preference information of a plurality of users is integrated by referring to face information and user information of a plurality of users. The program execution unit 30a may generate an avatar image corresponding to each user with reference to the preference information of each user generated by the preference information generation unit 6a. Further, the program execution unit 30a may be configured to be able to transmit an avatar image corresponding to a certain user to a terminal device associated with another user. As an example, the program execution unit 30a generates an image for displaying avatar images corresponding to a plurality of users in one virtual space, and transmits the image to each terminal device associated with the plurality of users. A possible configuration may be adopted. More specifically, the program execution unit 30a arranges an avatar image corresponding to each user in a virtual space that simulates a real store, and displays an image for making it appear that each user is shopping at the real store. May be generated.

このように、サーバが複数の装置から複数のユーザの顔情報およびユーザ情報を受信することにより、趣向情報生成部6aは複数のユーザの趣向情報を生成することができる。また、プログラム実行部30aは、複数のユーザの趣向情報を参照して、アバター画像を生成することができる。   As described above, the server receives the face information and the user information of the plurality of users from the plurality of devices, so that the preference information generation unit 6a can generate the preference information of the plurality of users. Further, the program execution unit 30a can generate an avatar image with reference to the preference information of a plurality of users.

プログラム実行部30aは、趣向情報生成部6aが生成した趣向情報と、プログラム実行部30aが提案した提案情報とに基づいて評価を行ってもよい。プログラム実行部30aが行う提案情報の提案および評価についての詳細は、実施形態1で説明した通りである。   The program execution unit 30a may perform evaluation based on the preference information generated by the preference information generation unit 6a and the proposal information proposed by the program execution unit 30a. The details of the proposal and evaluation of the proposal information performed by the program execution unit 30a are as described in the first embodiment.

このように、プログラム実行部30aが提案情報をユーザに提案することで、ユーザは、自身の趣向に基づいた情報を享受することができる。また、プログラム実行部30aが評価を行うことで、提案情報が適当なものであったかの評価を行うことができる。   As described above, the program execution unit 30a proposes the proposal information to the user, so that the user can enjoy information based on his / her own taste. In addition, the evaluation performed by the program execution unit 30a makes it possible to evaluate whether the proposal information is appropriate.

プログラム実行部30aは、趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更してもよい。プログラム実行部30が行う表示情報の変更についての詳細は、実施形態1で説明した通りである。   The program execution unit 30a may change display information to be displayed on an external display device based on the preference information. The details of the change of the display information performed by the program execution unit 30 are as described in the first embodiment.

これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。   As a result, a layout or the like based on the taste information of each user can be provided to each user.

〔ソフトウェアによる実現例〕
情報処理装置100の制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of software implementation]
The control block of the information processing device 100 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software.

後者の場合、情報処理装置100は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などを更に備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the information processing apparatus 100 includes a computer that executes instructions of a program that is software for realizing each function. This computer includes, for example, at least one processor (control device) and at least one computer-readable recording medium storing the program. Then, in the computer, the object of the present invention is achieved when the processor reads the program from the recording medium and executes the program. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "temporary tangible medium" such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, and a programmable logic circuit can be used. Further, a RAM (Random Access Memory) for expanding the program may be further provided. Further, the program may be supplied to the computer via an arbitrary transmission medium (a communication network, a broadcast wave, or the like) capable of transmitting the program. Note that one embodiment of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

本発明の各態様に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより上記情報処理装置をコンピュータにて実現させる情報処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The information processing device according to each aspect of the present invention may be realized by a computer. In this case, the computer is operated as each unit (software element) included in the information processing device, so that the information processing device is connected to the computer. The present invention also includes a control program for an information processing apparatus to be realized by a computer and a computer-readable recording medium on which the control program is recorded.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。更に、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the embodiments described above, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Further, new technical features can be formed by combining the technical means disclosed in each embodiment.

1、1a ユーザ情報取得部
2、2a 顔情報取得部
4、4a 状態検出部
5、5a 視認オブジェクト判定部
6、6a 趣向情報生成部
15 画像取得部
30、30a プログラム実行部
24 趣向情報取得部
100、400 情報処理装置
1, 1a User information acquisition section 2, 2a Face information acquisition section 4, 4a State detection section 5, 5a Visual object determination section 6, 6a Preference information generation section 15 Image acquisition section 30, 30a Program execution section 24 Preference information acquisition section 100 , 400 Information processing device

Claims (44)

登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、
上記ユーザの顔情報を取得する顔情報取得部と、
上記顔情報取得部が取得した顔情報から上記ユーザの状態を検出する状態検出部と、
上記状態検出部が検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部と、
上記状態検出部によるユーザの状態および上記視認オブジェクト判定部による判定結果を参照して、学習に関する上記ユーザの推定理解度を生成する理解度情報生成部と、
上記推定理解度に基づきプログラムを実行するプログラム実行部と
を備えていることを特徴とする情報処理装置。
A user information acquisition unit that acquires user information of a registered specific user,
A face information acquisition unit that acquires the user's face information;
A state detection unit that detects the state of the user from the face information acquired by the face information acquisition unit;
A visible object determination unit that determines an object visually recognized by the user with reference to a result detected by the state detection unit;
An understanding level information generating unit configured to generate an estimated understanding level of the user regarding learning with reference to a state of the user by the state detecting unit and a determination result by the visible object determining unit;
An information processing apparatus, comprising: a program execution unit that executes a program based on the estimated understanding level.
上記推定理解度は、選択問題に対する上記ユーザの推定理解度である、請求項1に記載の情報処理装置。   The information processing device according to claim 1, wherein the estimated understanding level is an estimated understanding level of the user regarding the selection problem. 上記推定理解度は、上記ユーザが選択した解答の番号を含む、請求項2に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the estimated understanding level includes a number of an answer selected by the user. 上記理解度情報生成部は、上記ユーザが最終的に選択した上記解答の番号の正否を参照して、上記推定理解度を生成する、請求項3に記載の情報処理装置。   The information processing device according to claim 3, wherein the understanding level information generation unit generates the estimated understanding level by referring to the correctness of the number of the answer finally selected by the user. 上記視認オブジェクト判定部は、上記オブジェクトに対する上記ユーザによる視認の度合いに応じて、当該オブジェクトを、迷った選択肢及び迷わなかった選択肢の何れかに分類し、
上記理解度情報生成部は、ユーザの解答の正否、迷った選択肢、及び迷わなかった選択肢からなる群より選択される少なくとも1つを更に参照して、上記推定理解度を生成する請求項1〜4の何れか1項に記載の情報処理装置。
The visual object determination unit classifies the object into one of a lost option and a non-lost option according to a degree of the user's visibility of the object,
The said understanding level information production | generation part produces | generates the said estimated understanding level further with reference to at least one selected from the group which consists of right or wrong of the answer of the user, the option which was lost, and the option which was not lost. 5. The information processing apparatus according to claim 4.
上記視認オブジェクト判定部は、
上記ユーザが閲覧しているページの配置情報を更に参照して、上記ユーザが視認しているオブジェクトを判定することを特徴とする、請求項1〜5の何れか1項に記載の情報処理装置。
The visual recognition object determination unit includes:
The information processing apparatus according to any one of claims 1 to 5, wherein an object visually recognized by the user is determined by further referring to layout information of a page viewed by the user. .
上記視認オブジェクト判定部は、
上記状態検出部が検出した結果を参照し、上記ユーザの集中度および上記ユーザの感情のうち少なくとも1つを更に判定することを特徴とする、請求項1〜6の何れか1項に記載の情報処理装置。
The visual recognition object determination unit includes:
The at least one of the degree of concentration of the user and the emotion of the user is further determined by referring to a result detected by the state detection unit, The method according to any one of claims 1 to 6, wherein Information processing device.
ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部を更に備え、
上記視認オブジェクト判定部は、
上記画像取得部が取得した撮像画像と、
上記状態検出部が検出した結果と、
を参照して、上記ユーザが視認しているオブジェクトを判定することを特徴とする請求項1〜7の何れか1項に記載の情報処理装置。
From the imaging device worn by the user, further comprising an image acquisition unit that acquires a captured image including the user's field of view,
The visual recognition object determination unit includes:
A captured image obtained by the image obtaining unit;
A result detected by the state detection unit,
The information processing apparatus according to claim 1, wherein the information processing apparatus determines an object visually recognized by the user with reference to the reference.
上記プログラム実行部は、
上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記推定理解度のうち少なくとも1つに応じたアバター画像を生成することを特徴とする請求項1〜4の何れか1項に記載の情報処理装置。
The program execution unit includes:
Generating an avatar image corresponding to the user, the avatar image corresponding to at least one of the state of the user, the object visually recognized by the user, the emotion of the user, and the estimated understanding level. The information processing apparatus according to claim 1, wherein:
上記プログラム実行部は、
上記推定理解度に基づいた提案情報を上記ユーザに提案することを特徴とする請求項1〜9の何れか1項に記載の情報処理装置。
The program execution unit includes:
The information processing apparatus according to claim 1, wherein proposal information based on the estimated understanding level is proposed to the user.
上記プログラム実行部は、
上記推定理解度と、上記提案情報とに基づいた評価を行うことを特徴とする請求項10に記載の情報処理装置。
The program execution unit includes:
The information processing apparatus according to claim 10, wherein an evaluation is performed based on the estimated understanding level and the proposal information.
上記プログラム実行部は、
上記推定理解度を、表示データとして外部の表示装置へ出力することを特徴とする請求項1〜11の何れか1項に記載の情報処理装置。
The program execution unit includes:
The information processing apparatus according to claim 1, wherein the estimated understanding level is output as display data to an external display device.
上記プログラム実行部は、
上記推定理解度を可視化したオブジェクトを含む表示データを外部の表示装置へ出力することを特徴とする請求項1〜12の何れか1項に記載の情報処理装置。
The program execution unit includes:
13. The information processing apparatus according to claim 1, wherein display data including an object in which the estimated understanding level is visualized is output to an external display device.
上記プログラム実行部は、
上記推定理解度に基づいて、外部の表示装置に表示させるための表示情報を変更することを特徴とする請求項1〜13の何れか1項に記載の情報処理装置。
The program execution unit includes:
14. The information processing apparatus according to claim 1, wherein display information to be displayed on an external display device is changed based on the estimated understanding level.
上記ユーザ情報には、上記ユーザの属性情報が含まれる、請求項1〜14の何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the user information includes attribute information of the user. 上記ユーザ情報には、上記ユーザを他のユーザと識別するためのユーザ識別情報が含まれる、請求項1〜15の何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the user information includes user identification information for identifying the user from another user. 上記状態検出部が検出する上記ユーザの状態は、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つである、請求項1〜16の何れか1項に記載の情報処理装置。   The user's state detected by the state detection unit includes the user's line of sight, pupil state, number of blinks, eyebrow movement, eyelid movement, cheek movement, nose movement, lip movement and chin movement. The information processing apparatus according to claim 1, wherein the information processing apparatus is at least one of them. 請求項1に記載の情報処理装置としてコンピュータを機能させるための情報処理プログラムであって、
上記ユーザ情報取得部、上記顔情報取得部、上記状態検出部、上記視認オブジェクト判定部、上記理解度情報生成部、及び上記プログラム実行部としてコンピュータを機能させるための情報処理プログラム。
An information processing program for causing a computer to function as the information processing apparatus according to claim 1,
An information processing program for causing a computer to function as the user information acquisition unit, the face information acquisition unit, the state detection unit, the visible object determination unit, the understanding level information generation unit, and the program execution unit.
登録された特定のユーザのユーザ情報を取得するユーザ情報取得ステップと、
上記ユーザの顔情報を取得する顔情報取得ステップと、
上記顔情報取得ステップにおいて取得した顔情報から上記ユーザの状態を検出する状態検出ステップと、
上記状態検出ステップにおいて検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定ステップと、
上記ユーザのユーザ情報と、上記視認オブジェクト判定ステップにおける判定結果とを参照して、学習に関する上記ユーザの推定理解度を生成する理解度情報生成ステップと、
上記推定理解度に基づきプログラムを実行するプログラム実行ステップと
を含んでいることを特徴とする情報処理方法。
A user information acquisition step of acquiring user information of a registered specific user,
A face information acquisition step of acquiring face information of the user;
A state detection step of detecting the state of the user from the face information acquired in the face information acquisition step,
A visible object determining step of determining an object visually recognized by the user with reference to a result detected in the state detecting step;
An understanding level information generating step of generating an estimated understanding level of the user regarding learning with reference to the user information of the user and a determination result in the visual object determining step;
A program execution step of executing a program based on the estimated understanding level.
登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、
上記ユーザの顔情報を取得する顔情報取得部と、
上記ユーザのユーザ情報と、上記ユーザの顔情報とを参照して得られる、学習に関する上記ユーザの推定理解度を取得する理解度情報取得部と、
を備えていることを特徴とする情報処理装置。
A user information acquisition unit that acquires user information of a registered specific user,
A face information acquisition unit that acquires the user's face information;
An understanding level information acquisition unit configured to acquire the user's estimated understanding level regarding learning, which is obtained by referring to the user information of the user and the face information of the user,
An information processing apparatus comprising:
上記推定理解度は、選択問題に対する上記ユーザの推定理解度である、請求項20に記載の情報処理装置。   21. The information processing apparatus according to claim 20, wherein the estimated understanding level is an estimated understanding level of the user for the selection problem. 上記推定理解度は、上記ユーザが選択した解答の番号を含む、請求項21に記載の情報処理装置。   22. The information processing apparatus according to claim 21, wherein the estimated understanding level includes a number of an answer selected by the user. 上記理解度情報取得部は、上記ユーザが最終的に選択した上記解答の番号の正否を参照して、上記推定理解度を取得する、請求項22に記載の情報処理装置。   23. The information processing apparatus according to claim 22, wherein the understanding level information obtaining unit obtains the estimated understanding level by referring to the correctness of the answer number finally selected by the user. 上記推定理解度に基づきプログラムを実行するプログラム実行部を更に備えていることを特徴とする請求項20〜23の何れか1項に記載の情報処理装置。   24. The information processing apparatus according to claim 20, further comprising a program execution unit that executes a program based on the estimated understanding level. 上記プログラム実行部は、
上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記推定理解度のうち少なくとも1つに応じたアバター画像を生成することを特徴とする請求項24に記載の情報処理装置。
The program execution unit includes:
Generating an avatar image corresponding to the user, the avatar image corresponding to at least one of the state of the user, the object visually recognized by the user, the emotion of the user, and the estimated understanding level. The information processing apparatus according to claim 24, wherein
上記プログラム実行部は、
上記推定理解度に基づいた提案情報を上記ユーザに提案することを特徴とする請求項24または25の何れか1項に記載の情報処理装置。
The program execution unit includes:
26. The information processing apparatus according to claim 24, wherein proposal information based on the estimated understanding level is proposed to the user.
上記プログラム実行部は、
上記推定理解度と、上記提案情報とに基づいた評価を行うことを特徴とする請求項26に記載の情報処理装置。
The program execution unit includes:
The information processing apparatus according to claim 26, wherein an evaluation is performed based on the estimated understanding level and the proposal information.
上記プログラム実行部は、
上記推定理解度に基づいて、外部の表示装置に表示させるための表示情報を変更することを特徴とする請求項24〜27の何れか1項に記載の情報処理装置。
The program execution unit includes:
28. The information processing apparatus according to claim 24, wherein display information to be displayed on an external display device is changed based on the estimated understanding level.
上記顔情報取得部が取得した顔情報から上記ユーザの状態を検出する状態検出部と、
上記状態検出部が検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部と、
を更に備えていることを特徴とする請求項20〜28の何れか1項に記載の情報処理装置。
A state detection unit that detects the state of the user from the face information acquired by the face information acquisition unit;
A visible object determination unit that determines an object visually recognized by the user with reference to a result detected by the state detection unit;
The information processing apparatus according to any one of claims 20 to 28, further comprising:
上記視認オブジェクト判定部は、上記オブジェクトに対する上記ユーザによる視認の度合いに応じて、当該オブジェクトを、迷った選択肢及び迷わなかった選択肢の何れかに分類し、
上記理解度情報取得部は、ユーザの解答の正否、迷った選択肢、及び迷わなかった選択肢からなる群より選択される少なくとも1つを更に参照して、上記推定理解度を取得する請求項29に記載の情報処理装置。
The visual recognition object determination unit classifies the object into one of a lost option and a non-lost option according to the degree of visibility of the object by the user,
The method according to claim 29, wherein the understanding level information obtaining unit obtains the estimated level of understanding by further referring to at least one selected from the group consisting of correct or incorrect answer of the user, a lost option, and a clear option. An information processing apparatus according to claim 1.
上記視認オブジェクト判定部は、
上記ユーザが閲覧しているページの配置情報を更に参照して、上記ユーザが視認しているオブジェクトを判定することを特徴とする、請求項29または30に記載の情報処理装置。
The visual recognition object determination unit includes:
31. The information processing apparatus according to claim 29, wherein an object visually recognized by the user is determined by further referring to layout information of a page viewed by the user.
上記視認オブジェクト判定部は、
上記状態検出部が検出した結果を参照し、上記ユーザの集中度および上記ユーザの感情のうち少なくとも1つを更に判定することを特徴とする、請求項29〜31の何れか1項に記載の情報処理装置。
The visual recognition object determination unit includes:
The method according to any one of claims 29 to 31, wherein at least one of the degree of concentration of the user and the emotion of the user is further determined with reference to a result detected by the state detection unit. Information processing device.
ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部を更に備え、
上記視認オブジェクト判定部は、
上記画像取得部が取得した撮像画像と、
上記状態検出部が検出した結果と、
を参照して、上記ユーザが視認しているオブジェクトを判定することを特徴とする請求項29〜32の何れか1項に記載の情報処理装置。
From the imaging device worn by the user, further comprising an image acquisition unit that acquires a captured image including the user's field of view,
The visual recognition object determination unit includes:
A captured image obtained by the image obtaining unit;
A result detected by the state detection unit,
The information processing apparatus according to any one of claims 29 to 32, wherein the information processing apparatus determines the object visually recognized by the user with reference to.
上記状態検出部が検出する上記ユーザの状態は、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つである、請求項29〜33の何れか1項に記載の情報処理装置。   The user's state detected by the state detection unit includes the user's line of sight, pupil state, number of blinks, eyebrow movement, eyelid movement, cheek movement, nose movement, lip movement and chin movement. The information processing apparatus according to any one of claims 29 to 33, wherein the information processing apparatus is at least one of them. 上記ユーザ情報には、上記ユーザの属性情報が含まれる、請求項29〜34の何れか1項に記載の情報処理装置。   The information processing apparatus according to any one of claims 29 to 34, wherein the user information includes attribute information of the user. 上記ユーザ情報には、上記ユーザを他のユーザと識別するためのユーザ識別情報が含まれる、請求項29〜35の何れか1項に記載の情報処理装置。   The information processing apparatus according to any one of claims 29 to 35, wherein the user information includes user identification information for identifying the user from other users. 登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、
上記ユーザの顔情報を取得する顔情報取得部と、
上記ユーザのユーザ情報と、上記ユーザの顔情報とを参照して、学習に関する上記ユーザの推定理解度を生成する理解度情報生成部と、
上記推定理解度に基づきプログラムを実行するプログラム実行部と
を備えていることを特徴とする情報処理装置。
A user information acquisition unit that acquires user information of a registered specific user,
A face information acquisition unit that acquires the user's face information;
An understanding level information generating unit configured to generate the estimated understanding level of the user regarding learning with reference to the user information of the user and the face information of the user;
An information processing apparatus comprising: a program execution unit that executes a program based on the estimated understanding level.
上記推定理解度は、選択問題に対する上記ユーザの推定理解度である、請求項37に記載の情報処理装置。   The information processing device according to claim 37, wherein the estimated understanding level is an estimated understanding level of the user for the selection problem. 上記推定理解度は、上記ユーザが選択した解答の番号を含む、請求項38に記載の情報処理装置。   The information processing apparatus according to claim 38, wherein the estimated understanding level includes a number of an answer selected by the user. 上記理解度情報生成部は、上記ユーザが最終的に選択した上記解答の番号の正否を参照して、上記推定理解度を生成する、請求項39に記載の情報処理装置。   40. The information processing apparatus according to claim 39, wherein the understanding level information generation unit generates the estimated understanding level by referring to the correctness of the answer number finally selected by the user. 上記プログラム実行部は、
上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記推定理解度のうち少なくとも1つに応じたアバター画像を生成することを特徴とする請求項37〜40の何れか1項に記載の情報処理装置。
The program execution unit includes:
Generating an avatar image corresponding to the user, the avatar image corresponding to at least one of the state of the user, the object visually recognized by the user, the emotion of the user, and the estimated understanding level. The information processing apparatus according to any one of claims 37 to 40, wherein the information processing apparatus is characterized in that:
上記プログラム実行部は、
上記推定理解度に基づいた提案情報を上記ユーザに提案することを特徴とする請求項37〜41の何れか1項に記載の情報処理装置。
The program execution unit includes:
The information processing apparatus according to any one of claims 37 to 41, wherein proposal information based on the estimated understanding level is proposed to the user.
上記プログラム実行部は、
上記推定理解度と、上記提案情報とに基づいた評価を行うことを特徴とする請求項42に記載の情報処理装置。
The program execution unit includes:
43. The information processing apparatus according to claim 42, wherein an evaluation is performed based on the estimated understanding level and the proposal information.
上記プログラム実行部は、
上記推定理解度に基づいて、外部の表示装置に表示させるための表示情報を変更することを特徴とする請求項37〜43の何れか1項に記載の情報処理装置。
The program execution unit includes:
The information processing apparatus according to any one of claims 37 to 43, wherein display information to be displayed on an external display device is changed based on the estimated understanding level.
JP2019027568A 2019-02-19 2019-02-19 Information processing device, information processing method, and information processing program Active JP7263825B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019027568A JP7263825B2 (en) 2019-02-19 2019-02-19 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019027568A JP7263825B2 (en) 2019-02-19 2019-02-19 Information processing device, information processing method, and information processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018166228A Division JP6724090B2 (en) 2018-09-05 2018-09-05 Information processing apparatus, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2020038336A true JP2020038336A (en) 2020-03-12
JP7263825B2 JP7263825B2 (en) 2023-04-25

Family

ID=69737940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019027568A Active JP7263825B2 (en) 2019-02-19 2019-02-19 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7263825B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021145986A (en) * 2020-03-19 2021-09-27 株式会社日立製作所 Information processing device and method
US11635811B2 (en) 2020-12-28 2023-04-25 Yokogawa Electric Corporation Apparatus, method and storage medium to provide maintenance management with altered display based on a user's visual line
JP2023067301A (en) * 2021-10-30 2023-05-16 モノグサ株式会社 Information processing method, information processing program, and information processing system

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337528A (en) * 2002-05-17 2003-11-28 Nec Corp Learning system, learning method, and learning program capable of reflecting learner's learning state
JP2005055846A (en) * 2003-08-01 2005-03-03 Tottori Prefecture Remote educational communication system
WO2011074198A1 (en) * 2009-12-14 2011-06-23 パナソニック株式会社 User interface apparatus and input method
JP2012185727A (en) * 2011-03-07 2012-09-27 Nippon Telegr & Teleph Corp <Ntt> Dialogue state estimating device, method, and program
JP2013205797A (en) * 2012-03-29 2013-10-07 Fujitsu Ltd Answer terminal, learning support method, learning support program, and learning supporting system
JP2014178358A (en) * 2013-03-13 2014-09-25 Casio Comput Co Ltd Learning support device, learning support method, learning support program, learning support system and server device, and terminal device
JP2016126500A (en) * 2014-12-26 2016-07-11 Kddi株式会社 Wearable terminal device and program
WO2016139850A1 (en) * 2015-03-05 2016-09-09 ソニー株式会社 Information processing device, control method, and program
WO2017056604A1 (en) * 2015-09-29 2017-04-06 ソニー株式会社 Information processing device, information processing method, and program
JP2017182247A (en) * 2016-03-29 2017-10-05 ソニー株式会社 Information processing device, information processing method, and program
WO2018066191A1 (en) * 2016-10-07 2018-04-12 ソニー株式会社 Server, client terminal, control method, and storage medium
WO2018088187A1 (en) * 2016-11-08 2018-05-17 ソニー株式会社 Information processing device, information processing method, and program
JP2018205447A (en) * 2017-05-31 2018-12-27 富士通株式会社 Information processing program, information processing device, and information processing method for estimating self-confidence level for user's answer

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337528A (en) * 2002-05-17 2003-11-28 Nec Corp Learning system, learning method, and learning program capable of reflecting learner's learning state
JP2005055846A (en) * 2003-08-01 2005-03-03 Tottori Prefecture Remote educational communication system
WO2011074198A1 (en) * 2009-12-14 2011-06-23 パナソニック株式会社 User interface apparatus and input method
JP2012185727A (en) * 2011-03-07 2012-09-27 Nippon Telegr & Teleph Corp <Ntt> Dialogue state estimating device, method, and program
JP2013205797A (en) * 2012-03-29 2013-10-07 Fujitsu Ltd Answer terminal, learning support method, learning support program, and learning supporting system
JP2014178358A (en) * 2013-03-13 2014-09-25 Casio Comput Co Ltd Learning support device, learning support method, learning support program, learning support system and server device, and terminal device
JP2016126500A (en) * 2014-12-26 2016-07-11 Kddi株式会社 Wearable terminal device and program
WO2016139850A1 (en) * 2015-03-05 2016-09-09 ソニー株式会社 Information processing device, control method, and program
WO2017056604A1 (en) * 2015-09-29 2017-04-06 ソニー株式会社 Information processing device, information processing method, and program
JP2017182247A (en) * 2016-03-29 2017-10-05 ソニー株式会社 Information processing device, information processing method, and program
WO2018066191A1 (en) * 2016-10-07 2018-04-12 ソニー株式会社 Server, client terminal, control method, and storage medium
WO2018088187A1 (en) * 2016-11-08 2018-05-17 ソニー株式会社 Information processing device, information processing method, and program
JP2018205447A (en) * 2017-05-31 2018-12-27 富士通株式会社 Information processing program, information processing device, and information processing method for estimating self-confidence level for user's answer

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小島 一晃: "多肢選択問題の解答における視線の選択肢走査の実践的記述", 教育システム情報学会誌, vol. 31, no. 2, JPN6022048570, 1 April 2014 (2014-04-01), pages 197 - 202, ISSN: 0004920108 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021145986A (en) * 2020-03-19 2021-09-27 株式会社日立製作所 Information processing device and method
JP7382261B2 (en) 2020-03-19 2023-11-16 株式会社日立製作所 Information processing device and method
US11635811B2 (en) 2020-12-28 2023-04-25 Yokogawa Electric Corporation Apparatus, method and storage medium to provide maintenance management with altered display based on a user's visual line
JP2023067301A (en) * 2021-10-30 2023-05-16 モノグサ株式会社 Information processing method, information processing program, and information processing system

Also Published As

Publication number Publication date
JP7263825B2 (en) 2023-04-25

Similar Documents

Publication Publication Date Title
Meißner et al. The promise of eye-tracking methodology in organizational research: A taxonomy, review, and future avenues
EP3479588B1 (en) Augmented reality device and operation thereof
US20190095775A1 (en) Artificial intelligence (ai) character system capable of natural verbal and visual interactions with a human
US20190005359A1 (en) Method and system for predicting personality traits, capabilities and suggested interactions from images of a person
US20170115742A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
US11288748B2 (en) Systems and methods for providing customized financial advice
US20120164613A1 (en) Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content
US20090119154A1 (en) Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content
US20090118593A1 (en) Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content
US20090132275A1 (en) Determining a demographic characteristic of a user based on computational user-health testing
US20130266925A1 (en) Embedded Conversational Agent-Based Kiosk for Automated Interviewing
JP7263825B2 (en) Information processing device, information processing method, and information processing program
CN107210830B (en) Object presenting and recommending method and device based on biological characteristics
WO2018127782A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
CN108846724A (en) Data analysing method and system
US11819338B1 (en) Risk tolerance simulation and baseline
JP6724090B2 (en) Information processing apparatus, information processing method, and information processing program
JP7259370B2 (en) Information processing device, information processing method, and information processing program
KR20120057668A (en) System supporting communication between customers in off-line shopping mall and method thereof
WO2019220751A1 (en) Information processing device, information processing method, and information processing program
Drousiotou Investigating website usability and behavioural intention for online hotel reservations: a cognitive perspective
Productivity Commission Behavioural economics and public policy
JP7378743B2 (en) Information processing system, information processing method and program
Companyó Rivera A survey on tourism revenue model of night market using affective computing
Vo et al. Exploring Value Co-Destruction Process in Customer Interactions with AI-Powered Mobile Applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R150 Certificate of patent or registration of utility model

Ref document number: 7263825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150