JP7263825B2 - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP7263825B2
JP7263825B2 JP2019027568A JP2019027568A JP7263825B2 JP 7263825 B2 JP7263825 B2 JP 7263825B2 JP 2019027568 A JP2019027568 A JP 2019027568A JP 2019027568 A JP2019027568 A JP 2019027568A JP 7263825 B2 JP7263825 B2 JP 7263825B2
Authority
JP
Japan
Prior art keywords
user
information
unit
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019027568A
Other languages
Japanese (ja)
Other versions
JP2020038336A (en
Inventor
一希 笠井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2019027568A priority Critical patent/JP7263825B2/en
Publication of JP2020038336A publication Critical patent/JP2020038336A/en
Application granted granted Critical
Publication of JP7263825B2 publication Critical patent/JP7263825B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は情報処理装置、情報処理方法、および情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

近年、顧客の購買行動と、該顧客の動向とを照合することにより、顧客の趣向等を推定する方法が、マーケティングに利用されている。 2. Description of the Related Art In recent years, a method of estimating a customer's preferences and the like by collating the customer's purchasing behavior with the customer's trend has been used in marketing.

特許公報4991440号(2012年5月11日登録)Patent Publication No. 4991440 (Registered May 11, 2012)

しかしながら、上述のような従来技術は不特定多数の顧客(ユーザ)の購買履歴および趣向に関するデータを蓄積し、マーケティングで利用することのみを考えられたものであり、各ユーザに最適化した情報を提供するような、ユーザにとっての利益を考えたものではなかった。また、該情報が提供された後の各ユーザの動向についてはフォローされず、提供した該情報の評価はできなかった。 However, the conventional technology as described above is intended only for accumulating data on purchase histories and preferences of an unspecified number of customers (users) and using it for marketing, and provides information optimized for each user. It was not something that considered the benefit for the user, such as the one provided. In addition, since the trend of each user was not followed after the information was provided, the provided information could not be evaluated.

本発明の一態様は、各ユーザに最適化した情報を提供し、各ユーザへの利益の提供を実現することを目的とする。 It is an object of one aspect of the present invention to provide each user with optimized information and to provide each user with benefits.

また、本発明の一態様は、情報が提供された後の各ユーザの動向をフォローし、提供した情報の評価を行うことを目的とする。 Another object of one aspect of the present invention is to follow trends of each user after information is provided and to evaluate the provided information.

上記の課題を解決するために、本発明の一態様に係る情報処理装置は、登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、上記ユーザの顔情報を取得する顔情報取得部と、上記顔情報取得部が取得した顔情報から上記ユーザの状態を検出する状態検出部と、上記状態検出部が検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部と、上記状態検出部によるユーザの状態および上記視認オブジェクト判定部による判定結果を参照して、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成部と、上記趣向情報に基づきプログラムを実行するプログラム実行部と、を備えている。 To solve the above problems, an information processing apparatus according to an aspect of the present invention includes a user information acquisition unit that acquires user information of a specific registered user, and a face information acquisition unit that acquires face information of the user. a state detection unit that detects the state of the user from the face information acquired by the face information acquisition unit; and a visual recognition that determines an object that the user is viewing by referring to the result detected by the state detection unit. an object determination unit; a preference information generation unit that generates preference information about the user's preference by referring to the state of the user by the state detection unit and the judgment result of the visible object determination unit; and a program execution unit for executing.

これにより、情報処理装置は、ユーザの趣向情報を好適に生成することができる。 Thereby, the information processing apparatus can suitably generate the user's preference information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、視認オブジェクト判定部を備え、上記視認オブジェクト判定部は、上記ユーザが閲覧しているページの配置情報を更に参照して、上記ユーザが視認しているオブジェクトを判定する。 Further, in order to solve the above problems, an information processing apparatus according to an aspect of the present invention includes a visible object determination unit, and the visible object determination unit further obtains layout information of a page viewed by the user. By referring to it, the object visually recognized by the user is determined.

これにより、情報処理装置100は、ユーザが視認しているオブジェクトを正確に判定することができる。 Accordingly, the information processing apparatus 100 can accurately determine the object visually recognized by the user.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、視認オブジェクト判定部を備え、上記視認オブジェクト判定部は、上記状態検出部が検出した結果を参照し、上記ユーザの集中度および上記ユーザの感情のうち少なくとも1つを更に判定する。 In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a visible object determination unit, the visible object determination unit refers to the result detected by the state detection unit, At least one of a user's degree of concentration and said user's emotion is further determined.

これにより、ユーザがどの程度オブジェクトに興味を持ち、どのような感情を持って該オブジェクトを視認しているかを判定することができる。 This makes it possible to determine to what extent the user is interested in the object and with what kind of emotion the user is visually recognizing the object.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部を更に備え、上記視認オブジェクト判定部は、上記画像取得部が取得した撮像画像と、上記状態検出部が検出した結果と、を参照して、上記ユーザが視認しているオブジェクトを判定する。 In order to solve the above problem, an information processing apparatus according to an aspect of the present invention further includes an image acquisition unit that acquires a captured image including the user's field of view from an imaging device worn by the user. A visible object determination unit determines an object visually recognized by the user by referring to the captured image acquired by the image acquisition unit and the result detected by the state detection unit.

これにより、ユーザが視認しているオブジェクトを好適に判定することができる。 Thereby, the object visually recognized by the user can be suitably determined.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記趣向情報のうち少なくとも1つに応じたアバター画像を生成する。 Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, the program execution unit is an avatar image corresponding to the user, and the state of the user is displayed. , an avatar image corresponding to at least one of the object viewed by the user, the user's emotion, and the taste information.

これにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。 This makes it possible to visualize the object visually recognized by the user, the user's emotion, and preference information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報に基づいた提案情報を上記ユーザに提案する。 In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit proposes proposal information to the user based on the preference information.

これにより、ユーザは、自身の趣向に基づいた情報を享受することができる。 Thereby, the user can enjoy information based on his or her taste.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報と、上記提案情報とに基づいた評価を行う。 In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit performs evaluation based on the preference information and the proposal information. .

これにより、提案情報が適当なものであったかの評価を行うことができる。 This makes it possible to evaluate whether the proposed information is appropriate.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報を、表示データとして外部の表示装置へ出力する。 In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit outputs the preference information as display data to an external display device. .

これにより、学習者の推定理解度を可視化することができる。 This makes it possible to visualize the estimated comprehension level of the learner.

上記の課題を解決するために、上記趣向情報は、ある問題に解答したユーザの推定理解度である。 In order to solve the above problem, the preference information is the estimated degree of understanding of the user who answered a certain question.

これにより、ユーザの推定理解度を好適に生成することができる。 As a result, the user's estimated degree of comprehension can be preferably generated.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記推定理解度を可視化したオブジェクトを含む表示データを外部の表示装置へ出力する。 In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit transmits display data including an object that visualizes the estimated comprehension level to an external device. Output to the display device.

これにより、学習者の推定理解度を可視化することができる。 This makes it possible to visualize the estimated comprehension level of the learner.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更する。 In order to solve the above problems, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit causes an external display device to display based on the preference information. change the display information of

これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。 Thereby, it is possible to provide each user with a layout or the like based on each user's preference information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザ情報を取得するユーザ情報取得部を備え、上記ユーザ情報には、上記ユーザの属性情報が含まれる。 Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a user information acquisition unit that acquires user information, and the user information includes attribute information of the user.

これにより、ユーザの属性を取得することができる。 This makes it possible to acquire user attributes.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザ情報を取得するユーザ情報取得部を備え、上記ユーザ情報には、上記ユーザを他のユーザと識別するためのユーザ識別情報が含まれる。 Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a user information acquisition unit that acquires user information, and the user information includes information identifying the user from other users. contains user identification information for

これにより、他のユーザと対象ユーザとを識別することができ、ユーザの趣向情報と、ユーザ情報とを紐づけることができる。 This makes it possible to identify the target user from other users, and associate the user's preference information with the user information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、上記顔情報取得部が取得した顔情報から上記ユーザの状態を検出する状態検出部を備え、上記状態検出部が検出する上記ユーザの状態は、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つである。 In order to solve the above problems, an information processing apparatus according to an aspect of the present invention includes a state detection unit that detects the state of the user from the face information acquired by the face information acquisition unit, The state of the user detected by the unit includes at least one of the user's line of sight, state of the pupil, number of blinks, eyebrow movement, eyelid movement, cheek movement, nose movement, lip movement, and jaw movement. is one.

これにより、情報処理装置は、ユーザの状態を好適に検出することできる。 Thereby, the information processing apparatus can suitably detect the state of the user.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成部を備え、上記趣向情報生成部が生成する上記趣向情報は、上記ユーザの興味が強いオブジェクトおよび興味が弱いオブジェクトに関する情報である。 Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a preference information generation unit that generates preference information about the user's preference, and the preference information generated by the preference information generation unit The information is information about objects in which the user has a strong interest and objects in which the user has a weak interest.

これにより、各ユーザの興味が強いオブジェクトおよび興味の弱いオブジェクトの情報を知ることができ、趣向情報生成部は、重みづけを行った趣向情報を生成することができる。 As a result, it is possible to know information about objects in which each user has a strong interest and information about objects in which the user has a weak interest, and the preference information generating section can generate weighted preference information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、上記顔情報に仮IDを付与する仮ID付与部と、上記仮ID上記とユーザが決済を行ったか否かの決済情報とを照合する照合部と、を更に備える。 In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a temporary ID assigning unit that assigns a temporary ID to the face information; and a matching unit that matches the payment information.

これにより、情報処理装置は、顔情報を一時的に他の顔情報と区別することができる。 This allows the information processing device to temporarily distinguish face information from other face information.

上記の課題を解決するために、本発明の一態様に係る情報処理プログラムは、上記情報処理装置としてコンピュータを機能させるための情報処理プログラムであって、上記趣向情報生成部としてコンピュータを機能させる。 In order to solve the above problem, an information processing program according to one aspect of the present invention is an information processing program for causing a computer to function as the information processing apparatus, and causes the computer to function as the preference information generating section.

これにより、情報処理プログラムは、趣向情報生成部としてコンピュータを機能させることができる。 Thereby, the information processing program can cause the computer to function as a preference information generation unit.

上記の課題を解決するために、本発明の一態様に係る情報処理方法は、情報処理装置によって実行される情報処理方法であって、登録された特定のユーザのユーザ情報を取得するユーザ情報取得ステップと、上記ユーザの顔情報を取得する顔情報取得ステップと、上記顔情報取得ステップにおいて取得した顔情報から上記ユーザの状態を検出する状態検出ステップと、上記状態検出ステップにおいて検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定ステップと、上記ユーザのユーザ情報と、上記視認オブジェクト判定ステップにおける判定結果とを参照して、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成ステップと、上記趣向情報に基づきプログラムを実行するプログラム実行ステップとを含んでいる。 In order to solve the above problems, an information processing method according to an aspect of the present invention is an information processing method executed by an information processing apparatus, which includes user information acquisition for acquiring user information of a specific registered user. a face information acquisition step of acquiring face information of the user; a state detection step of detecting the state of the user from the face information acquired in the face information acquisition step; and a result detected in the state detection step. Then, by referring to a visible object determination step of determining an object viewed by the user, user information of the user, and a determination result of the visible object determination step, preference information relating to the user's preference is generated. It includes a preference information generation step and a program execution step of executing a program based on the preference information.

これにより、趣向情報を好適に生成することができる。 Thereby, the preference information can be preferably generated.

上記の課題を解決するために、本発明の一態様に係る情報処理装置は、登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、上記ユーザの顔情報を取得する顔情報取得部と、上記ユーザのユーザ情報と、上記ユーザの顔情報とを参照して得られる趣向情報を取得する趣向情報取得部と、を備えている。 To solve the above problems, an information processing apparatus according to an aspect of the present invention includes a user information acquisition unit that acquires user information of a specific registered user, and a face information acquisition unit that acquires face information of the user. and a preference information acquisition unit that acquires preference information obtained by referring to the user information of the user and the face information of the user.

これにより、情報処理装置は、ユーザの趣向情報を取得することができる。 Thereby, the information processing apparatus can acquire the user's preference information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、上記趣向情報に基づきプログラムを実行するプログラム実行部を更に備えている。 In order to solve the above problem, the information processing apparatus according to one aspect of the present invention further includes a program execution unit that executes a program based on the preference information.

これにより、ユーザの趣向情報に基づいたプログラムを実行することができる。 Thereby, it is possible to execute a program based on the user's preference information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記趣向情報のうち少なくとも1つに応じたアバター画像を生成する。 Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, the program execution unit is an avatar image corresponding to the user, and the state of the user is displayed. , an avatar image corresponding to at least one of the object viewed by the user, the user's emotion, and the taste information.

これにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。 This makes it possible to visualize the object visually recognized by the user, the user's emotion, and preference information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報に基づいた提案情報を上記ユーザに提案する。 In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit proposes proposal information to the user based on the preference information.

これにより、ユーザは、自身の趣向に基づいた情報を享受することができる。 Thereby, the user can enjoy information based on his or her taste.


また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報と、上記提案情報とに基づいた評価を行う。

In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit performs evaluation based on the preference information and the proposal information. .

これにより、提案情報が適当なものであったかの評価を行うことができる。 This makes it possible to evaluate whether the proposed information is appropriate.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更する。 In order to solve the above problems, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit causes an external display device to display based on the preference information. change the display information of

これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。 Thereby, it is possible to provide each user with a layout or the like based on each user's preference information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、上記顔情報取得部が取得した顔情報から上記ユーザの状態を検出する状態検出部と、上記状態検出部が検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部と、を更に備えている。 In order to solve the above problems, an information processing apparatus according to an aspect of the present invention includes a state detection unit that detects the state of the user from the face information acquired by the face information acquisition unit; and a visible object determination unit that refers to the result of detection by and determines the object visually recognized by the user.

これにより、情報処理装置400は、ユーザの状態を検出できると共に、ユーザが視認しているオブジェクトを好適に判定することができる。 Accordingly, the information processing apparatus 400 can detect the state of the user and preferably determine the object visually recognized by the user.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部を備え、上記視認オブジェクト判定部は、上記ユーザが閲覧しているページの配置情報を更に参照して、上記ユーザが視認しているオブジェクトを判定する。 In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a visible object determination unit that determines an object visually recognized by a user. The object visually recognized by the user is determined by further referring to the layout information of the page being browsed.

これにより、ユーザがページ上のどのオブジェクトを視認しているか、正確に判定することができる。 This makes it possible to accurately determine which object on the page the user is viewing.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部を備え、上記視認オブジェクト判定部は、上記状態検出部が検出した結果を参照し、上記ユーザの集中度および上記ユーザの感情のうち少なくとも1つを更に判定する。 In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a visible object determination unit that determines an object visually recognized by a user, and the visible object determination unit includes the state detection unit. At least one of the user's degree of concentration and the user's emotion is further determined with reference to the results detected by the unit.

これにより、ユーザがどの程度オブジェクトに興味を持ち、どのような感情を持って該オブジェクトを視認しているかを判定することができる。 This makes it possible to determine to what extent the user is interested in the object and with what kind of emotion the user is visually recognizing the object.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部を更に備え、上記視認オブジェクト判定部は、上記画像取得部が取得した撮像画像と、上記状態検出部が検出した結果と、を参照して、上記ユーザが視認しているオブジェクトを判定する。 In order to solve the above problem, an information processing apparatus according to an aspect of the present invention further includes an image acquisition unit that acquires a captured image including the user's field of view from an imaging device worn by the user. A visible object determination unit determines an object visually recognized by the user by referring to the captured image acquired by the image acquisition unit and the result detected by the state detection unit.

これにより、ユーザが視認しているオブジェクトを好適に判定することができる。 Thereby, the object visually recognized by the user can be suitably determined.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザの状態を検出する状態検出部を備え、上記状態検出部が検出する上記ユーザの状態は、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つである。 In order to solve the above problems, an information processing apparatus according to an aspect of the present invention includes a state detection unit that detects a state of a user, and the state of the user detected by the state detection unit is the state of the user. eye gaze, pupil state, number of blinks, eyebrow movement, eyelid movement, cheek movement, nose movement, lip movement, and jaw movement.

これにより、ユーザの集中度を好適に判定することができる。 As a result, the degree of concentration of the user can be suitably determined.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザ情報を取得するユーザ情報取得部を備え、上記ユーザ情報には、上記ユーザの属性情報が含まれる。 Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a user information acquisition unit that acquires user information, and the user information includes attribute information of the user.

これにより、ユーザの属性を取得することができる。 This makes it possible to acquire user attributes.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザ情報を取得するユーザ情報取得部を備え、上記ユーザ情報には、上記ユーザを他のユーザと識別するためのユーザ識別情報が含まれる。 Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a user information acquisition unit that acquires user information, and the user information includes information identifying the user from other users. contains user identification information for

これにより、他のユーザと対象ユーザとを識別することができ、ユーザの趣向情報と、ユーザ情報とを紐づけることができる。 This makes it possible to identify the target user from other users, and associate the user's preference information with the user information.

上記の課題を解決するために、本発明の一態様に係る情報処理装置は、登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、上記ユーザの顔情報を取得する顔情報取得部と、上記ユーザのユーザ情報と、上記ユーザの顔情報とを参照して、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成部と、上記趣向情報に基づきプログラムを実行するプログラム実行部と、を備えている。 To solve the above problems, an information processing apparatus according to an aspect of the present invention includes a user information acquisition unit that acquires user information of a specific registered user, and a face information acquisition unit that acquires face information of the user. a preference information generation unit that generates preference information about the user's preference by referring to the user information of the user and the face information of the user; and a program execution unit that executes a program based on the preference information. , is equipped with

これにより、情報処理装置は、ユーザの趣向情報を好適に生成することができる。 Thereby, the information processing apparatus can suitably generate the user's preference information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記趣向情報のうち少なくとも1つに応じたアバター画像を生成する。 Further, in order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, the program execution unit is an avatar image corresponding to the user, and the state of the user is displayed. , an avatar image corresponding to at least one of the object viewed by the user, the user's emotion, and the taste information.

これにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。 This makes it possible to visualize the object visually recognized by the user, the user's emotion, and preference information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報に基づいた提案情報を上記ユーザに提案する。 In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit proposes proposal information to the user based on the preference information.

これにより、ユーザは、自身の趣向に基づいた情報を享受することができる。 Thereby, the user can enjoy information based on his or her taste.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報と、上記提案情報とに基づいた評価を行う。 In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit performs evaluation based on the preference information and the proposal information. .

これにより、提案情報が適当なものであったかの評価を行うことができる。 This makes it possible to evaluate whether the proposed information is appropriate.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更する。 Further, in order to solve the above problems, an information processing apparatus according to an aspect of the present invention includes a program execution unit, and the program execution unit displays information on an external display device based on preference information. Change the displayed information.

これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。 Thereby, it is possible to provide each user with a layout or the like based on each user's preference information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、趣向情報を生成する趣向情報生成部、または、趣向情報を取得する趣向情報取得部を備え、上記趣向情報は、上記ユーザの興味が強いオブジェクトおよび興味が弱いオブジェクトに関する情報である。 In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes a preference information generation unit that generates preference information, or a preference information acquisition unit that acquires the preference information. is information about objects in which the user has a strong interest and objects in which the user has a weak interest.

これにより、各ユーザの興味が強いオブジェクトおよび興味の弱いオブジェクトの情報を知ることができ、趣向情報生成部は、重みづけを行った趣向情報を生成することができる。また、趣向情報取得部が該趣向情報を取得することで、ユーザは、自身の趣向に基づいた趣向情報を取得することができる。 As a result, it is possible to know information about objects in which each user has a strong interest and information about objects in which the user has a weak interest, and the preference information generating section can generate weighted preference information. In addition, the user can acquire preference information based on his or her own preferences by the preference information acquisition unit acquiring the preference information.

本発明の一態様によれば、各ユーザの趣向に合わせた各ユーザへの利益を提供することができる。 According to one aspect of the present invention, it is possible to provide benefits to each user in accordance with each user's taste.

本発明の実施形態1および2に係る情報処理装置の構成要素を示すブロック図である。1 is a block diagram showing components of an information processing apparatus according to Embodiments 1 and 2 of the present invention; FIG. 本発明の実施形態1および3に係る情報処理装置を備えたスマートフォンの表示部を示す図である。FIG. 3 is a diagram showing a display unit of a smart phone provided with the information processing device according to Embodiments 1 and 3 of the present invention; 本発明の実施形態1および3に係る情報処理装置を備えたパソコンの表示部を示す図である。1 is a diagram showing a display unit of a personal computer provided with an information processing device according to Embodiments 1 and 3 of the present invention; FIG. 本発明の実施形態1、3および4に係る情報処理装置の視認オブジェクト判定部が出力するデータの一例を示す表である。4 is a table showing an example of data output by a visible object determination unit of the information processing apparatus according to Embodiments 1, 3 and 4 of the present invention; 本発明の実施形態1、3および4に係る情報処理装置の趣向情報生成部が生成する趣向情報の一例を示す表である。7 is a table showing an example of preference information generated by the preference information generation unit of the information processing apparatus according to the first, third and fourth embodiments of the present invention; 本発明の実施形態1に係る情報処理装置のプログラム実行部が生成するアバター画像の一例を示す表である。4 is a table showing an example of an avatar image generated by a program execution unit of the information processing device according to Embodiment 1 of the present invention; 本発明の実施形態1、3および4に係る情報処理装置のプログラム実行部が出力するデータの一例を示す表である。4 is a table showing an example of data output by a program execution unit of the information processing apparatus according to Embodiments 1, 3 and 4 of the present invention; 本発明の実施形態1、3および4に係る情報処理装置のプログラム実行部が出力するデータの一例を示す表である。4 is a table showing an example of data output by a program execution unit of the information processing apparatus according to Embodiments 1, 3 and 4 of the present invention; 本発明の実施形態1、3および4に係る情報処理装置を備えたパソコンの表示部を示し、(a)表示が変更される前、(b)表示が変更された後の表示部を示す図である。FIGS. 1A and 1B are diagrams showing a display unit of a personal computer provided with an information processing apparatus according to Embodiments 1, 3, and 4 of the present invention, showing (a) before the display is changed and (b) the display after the display is changed; FIG. is. 本発明の実施形態1に係る情報処理装置の処理の流れの一例を示すフローチャートである。4 is a flow chart showing an example of the flow of processing of the information processing apparatus according to the first embodiment of the present invention; 本発明の実施形態1に係る情報処理装置のプログラム実行部が出力するデータの一例を示す表である。4 is a table showing an example of data output by a program execution unit of the information processing apparatus according to Embodiment 1 of the present invention; 本発明の実施形態1に係る情報処理装置のプログラム実行部が出力するデータの一例を示す表である。4 is a table showing an example of data output by a program execution unit of the information processing apparatus according to Embodiment 1 of the present invention; 本発明の実施形態2に係る情報処理装置を備えた端末装置が表示するブラウザ画面の一例を示す図である。FIG. 9 is a diagram showing an example of a browser screen displayed by a terminal device provided with an information processing device according to Embodiment 2 of the present invention; 本発明の実施形態2に係る情報処理装置の趣向生成部が生成する趣向情報の一例を示す図である。FIG. 10 is a diagram showing an example of preference information generated by the preference generation unit of the information processing apparatus according to the second embodiment of the present invention; 本発明の実施形態2に係る情報処理装置の趣向生成部が生成する趣向情報の一例を示す図である。FIG. 10 is a diagram showing an example of preference information generated by the preference generation unit of the information processing apparatus according to the second embodiment of the present invention; 本発明の実施形態2に係る情報処理装置の趣向生成部が生成する趣向情報の一例を示す図である。FIG. 10 is a diagram showing an example of preference information generated by the preference generation unit of the information processing apparatus according to the second embodiment of the present invention; 本発明の実施形態3に係る情報処理装置の構成要素を示すブロック図である。FIG. 7 is a block diagram showing components of an information processing apparatus according to Embodiment 3 of the present invention; 本発明の実施形態3および4に係る情報処理装置同士の趣向情報の送受信の概要を示す図である。FIG. 11 is a diagram showing an overview of transmission and reception of preference information between information processing apparatuses according to Embodiments 3 and 4 of the present invention; 本発明の実施形態3に係る情報処理装置を備えた端末装置が表示するブラウザ画面の一例を示す図である。FIG. 10 is a diagram showing an example of a browser screen displayed by a terminal device provided with an information processing device according to Embodiment 3 of the present invention; 本発明の実施形態4に係る情報処理装置の構成要素を示すブロック図である。FIG. 11 is a block diagram showing constituent elements of an information processing apparatus according to Embodiment 4 of the present invention;

<実施形態1>
以下、本発明の一実施形態について、詳細に説明する。以下の特定の項目(実施形態)における構成について、それが他の項目で説明されている構成と同じである場合は、説明を省略する場合がある。また、説明の便宜上、各項目に示した部材と同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。
<Embodiment 1>
An embodiment of the present invention will be described in detail below. If the configuration in a specific item (embodiment) below is the same as the configuration described in other items, the description may be omitted. For convenience of explanation, members having the same functions as members shown in each item are denoted by the same reference numerals, and explanations thereof are omitted as appropriate.

〔情報処理装置100の要部構成〕
図1は、情報処理装置100の構成要素を示すブロック図である。図1に示すように、本実施形態に係る情報処理装置100は、ユーザ情報取得部1、顔情報取得部2、状態検出部4、視認オブジェクト判定部5、趣向情報生成部6、およびプログラム実行部30を備えている。
[Main Configuration of Information Processing Apparatus 100]
FIG. 1 is a block diagram showing components of an information processing apparatus 100. As shown in FIG. As shown in FIG. 1, an information processing apparatus 100 according to the present embodiment includes a user information acquisition unit 1, a face information acquisition unit 2, a state detection unit 4, a visible object determination unit 5, a preference information generation unit 6, and a program execution unit. A section 30 is provided.

これにより、情報処理装置100は、ユーザの趣向情報を好適に生成することができる。 Thereby, the information processing apparatus 100 can suitably generate the user's preference information.

ここで、状態検出部4、視認オブジェクト判定部5、趣向情報生成部6およびプログラム実行部30は、情報処理装置100の備える制御部9の一構成として実現される。 Here, the state detection unit 4 , the visible object determination unit 5 , the preference information generation unit 6 and the program execution unit 30 are implemented as one configuration of the control unit 9 provided in the information processing apparatus 100 .

情報処理装置100は、一例として、ローカルネットワーク又はグローバルネットワークに接続可能な端末装置(例えば、スマートフォン、タブレット、パソコン、テレビジョン受像機等)に実装される。図2は、情報処理装置100をスマートフォンに実装した場合の、当該スマートフォンの表示画面と、当該表示画面における視線位置とを模式的に示している。図3は、情報処理装置100を、パソコンに実装した場合の、当該パソコンの表示画面と、当該表示画面における視線位置とを模式的に示している。図2および図3に含まれる他の構成については後述する。 The information processing device 100 is implemented in, for example, a terminal device (eg, smart phone, tablet, personal computer, television receiver, etc.) connectable to a local network or a global network. FIG. 2 schematically shows a display screen of a smartphone and line-of-sight positions on the display screen when the information processing apparatus 100 is implemented in the smartphone. FIG. 3 schematically shows a display screen of a personal computer and a line-of-sight position on the display screen when the information processing apparatus 100 is installed in the personal computer. Other configurations included in FIGS. 2 and 3 are described below.

また、本実施形態においては、ユーザが電子商取引(EC(Electronic Commerce))サービスを利用して、商品を購入する形態について説明する。 Also, in this embodiment, a mode in which a user purchases a product using an electronic commerce (EC) service will be described.

(ユーザ情報取得部)
ユーザ情報取得部1は、例えば、ショッピングサイト等のデータベース等に予め登録されている特定のユーザのユーザ情報を取得し、取得したユーザ情報を趣向情報生成部6に送信する。一例として、ユーザ情報には、ユーザの属性を示す属性情報と、他のユーザと対象ユーザとを識別するためのユーザ識別情報が含まれる。ユーザの属性情報とは、例えば、ユーザの年齢、性別、会員の種別(有料会員であるか否か)等である。また、ユーザ識別情報とは、例えば、ユーザのID、ユーザのメールアドレス等である。
(User information acquisition unit)
The user information acquisition unit 1 acquires, for example, user information of a specific user registered in advance in a database of a shopping site or the like, and transmits the acquired user information to the preference information generation unit 6 . As an example, the user information includes attribute information indicating user attributes and user identification information for identifying the target user from other users. User attribute information includes, for example, the user's age, gender, member type (whether the user is a paying member), and the like. User identification information is, for example, a user's ID, a user's e-mail address, and the like.

これにより、ユーザの属性を取得することができる。また、ユーザ情報に、ユーザ識別情報が含まれることで、他のユーザと対象ユーザとを識別することができ、ユーザの趣向情報と、ユーザ情報とを紐づけることができる。 This makes it possible to acquire user attributes. In addition, since the user identification information is included in the user information, the target user can be identified from other users, and the user's preference information and the user information can be linked.

(顔情報取得部)
顔情報取得部2は、例えば、カメラ等の撮像部から取得した画像から、ユーザの顔情報を取得する。ユーザの顔情報とは、顔の特徴量を示す情報である。顔の特徴量とは、例えば、顔の各部位(例えば、目、鼻、口、頬および眉等)の位置を示す位置情報、形状を示す形状情報および大きさを示す大きさ情報等を指す。特に、目の情報からは、ユーザが注視する対象に対するユーザの興味および関心の度合い等を評価することができるため、特に有用である。目の情報としては、例えば目頭および目尻の端点、虹彩および瞳孔等のエッジ等が挙げられる。また、顔情報取得部2は、撮像部から取得した画像に、ノイズ低減、エッジ強調等の補正処理を適宜行ってもよい。顔情報取得部2は、抽出した顔情報を状態検出部4に送信する。
(Face information acquisition unit)
The face information acquisition unit 2 acquires the user's face information from, for example, an image acquired by an imaging unit such as a camera. The user's face information is information indicating the feature amount of the face. The facial feature amount refers to, for example, position information indicating the position of each part of the face (e.g., eyes, nose, mouth, cheeks, eyebrows, etc.), shape information indicating the shape, size information indicating the size, and the like. . In particular, the eye information is particularly useful because it is possible to evaluate the user's interest in, and the degree of interest in, the object the user is gazing at. Eye information includes, for example, end points of the inner and outer corners of the eye, edges of the iris and pupil, and the like. Further, the face information acquisition unit 2 may appropriately perform correction processing such as noise reduction and edge enhancement on the image acquired from the imaging unit. The face information acquisition section 2 transmits the extracted face information to the state detection section 4 .

(状態検出部)
状態検出部4は、顔情報取得部2が取得した顔情報に基づき、ユーザの状態を検出する。状態検出部4は、ユーザの状態を検出した後、該検出結果を視認オブジェクト判定部5へ送信する。上記状態検出部4が検出する上記ユーザの状態は、例えば、ユーザの顔の各部位の状態であり、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、頬の動き、瞼の動き、唇の動きおよび顎の動きのうち少なくとも1つである。
(Status detector)
The state detection unit 4 detects the user's state based on the face information acquired by the face information acquisition unit 2 . After detecting the user's state, the state detection unit 4 transmits the detection result to the visible object determination unit 5 . The state of the user detected by the state detection unit 4 is, for example, the state of each part of the user's face. At least one of motion, lip motion and jaw motion.

状態検出部4は、一例として、顔情報取得部2が取得した顔の特徴量である顔の各部位(例えば、目、鼻、口、頬および眉等)の位置を示す位置情報、形状を示す形状情報および大きさを示す大きさ情報等を参照し、ユーザの状態として、例えば、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、頬の動き、瞼の動き、唇の動きおよび顎の動きのうち少なくとも1つを検出してもよい。 For example, the state detection unit 4 obtains position information indicating the position of each part of the face (for example, eyes, nose, mouth, cheeks, eyebrows, etc.), which is the feature amount of the face acquired by the face information acquisition unit 2, and the shape. With reference to the shape information and the size information indicating the size, the user's state includes, for example, the user's line of sight, pupil state, number of blinks, eyebrow movement, cheek movement, eyelid movement, lip movement. At least one of movement and jaw movement may be detected.

これにより、情報処理装置は、ユーザの状態を好適に検出することできる。 Thereby, the information processing apparatus can suitably detect the state of the user.

例えば、視線の検出方法としては、特に限定されないが、情報処理装置100に、点光源(不図示)を設け、点光源からの光の角膜反射像を撮像部で所定時間撮影することにより、ユーザの視線の移動先を検出する方法が挙げられる。点光源の種類は特に限定されず、可視光、赤外光が挙げられるが、例えば赤外線LEDを用いることで、ユーザに不快感を与えることなく、視線の検出をすることができる。視線の検出において、視線が所定時間以上移動しない場合は、同じ場所を注視しているといえる。 For example, the sight line detection method is not particularly limited. A method of detecting the movement destination of the line of sight of the The type of the point light source is not particularly limited, and includes visible light and infrared light. For example, by using an infrared LED, it is possible to detect the line of sight without giving discomfort to the user. In line-of-sight detection, if the line-of-sight does not move for a predetermined time or longer, it can be said that the user is gazing at the same place.

また、瞳孔の状態を検出する方法としては、特に限定されないが、例えば、ハフ変換を利用して、目の画像から円形の瞳孔を検出する方法等が挙げられる。一般的に、人間は、集中している場合に開瞳する傾向にあるため、瞳孔のサイズを検出することで、ユーザの集中の度合いを評価することができる。例えば、瞳孔のサイズを所定時間検出し、所定時間内で瞳孔が大きくなっている時間は、ユーザがある対象を注視している可能性が高いといえる。瞳孔のサイズに関して、閾値を設定し、瞳孔のサイズが閾値以上である場合は「開」、瞳孔のサイズが閾値未満である場合は「閉」として評価してもよい。 A method for detecting the state of the pupil is not particularly limited, but for example, a method of detecting a circular pupil from an eye image using Hough transform can be used. In general, people tend to open their eyes when they are concentrating, so the degree of concentration of the user can be evaluated by detecting the size of the pupil. For example, the size of the pupil is detected for a predetermined period of time, and it can be said that there is a high possibility that the user is gazing at a certain target during the period in which the pupil is enlarged within the predetermined period of time. A threshold may be set for pupil size, and a pupil size greater than or equal to the threshold may be evaluated as "open", and a pupil size less than the threshold may be evaluated as "closed".

また、瞬きの回数を検出する方法としては、特に限定されないが、例えば、赤外光をユーザの目に対して照射し、開眼時と、閉眼時との赤外光量反射量の差を検出する方法等が挙げられる。一般的に、人間は、集中している場合、低い頻度で安定した間隔で瞬きをする傾向にあるため、瞬きの回数を検出することで、ユーザの集中度を評価することができる。例えば、瞬きの回数を所定時間検出し、所定時間内で瞬きが安定した間隔で行われている場合、ユーザがある対象を注視している可能性が高いといえる。 The method for detecting the number of blinks is not particularly limited, but for example, the user's eyes are irradiated with infrared light, and the difference in the reflected amount of infrared light between when the eyes are open and when the eyes are closed is detected. methods and the like. In general, when a person is concentrating, he or she tends to blink at low frequency and at stable intervals. Therefore, by detecting the number of blinks, the degree of concentration of the user can be evaluated. For example, if the number of blinks is detected for a predetermined period of time and the blinking is performed at stable intervals within the predetermined period of time, it can be said that there is a high possibility that the user is gazing at a certain target.

状態検出部4は、ユーザの視線、瞳孔の状態および瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つを検出すればよいが、これらを組み合わせることが好ましい。このように検出方法を組み合わせることで、状態検出部4は、ある対象物を視認しているときのユーザの集中度を好適に評価することができる。 The state detection unit 4 detects at least one of the user's line of sight, pupil state, number of blinks, eyebrow movement, eyelid movement, cheek movement, nose movement, lip movement, and jaw movement. Good, but preferably a combination of these. By combining the detection methods in this way, the state detection unit 4 can suitably evaluate the degree of concentration of the user when visually recognizing a certain object.

目の状態以外では、例えば、眉の内側を持ち上げるか、外側を上げるか等の眉の動き、上瞼を上げる、瞼を緊張させる等の瞼の動き、鼻に皺を寄せる等の鼻の動き、上唇を持ち上げる、唇をすぼめる等の唇の動き、頬を持ち上げる等の頬の動き、顎を下げる等の顎の動き等の顔の各部位の状態が挙げられる。ユーザの状態として、顔の複数の部位の状態を組み合わせてもよい。 In addition to the state of the eyes, for example, eyebrow movements such as lifting the inside of the eyebrows or raising the outside, eyelid movements such as raising the upper eyelids and tightening the eyelids, and nose movements such as wrinkling the nose. , lip movements such as lifting the upper lip and pursing the lips, cheek movements such as lifting the cheeks, and jaw movements such as lowering the chin. As the state of the user, states of a plurality of parts of the face may be combined.

また、ユーザの表情を検出させる場合、状態検出部4は、ユーザの表情に関する情報を機械学習により算出することもできる。表情に関する情報を取得するための学習処理の具体的な構成は本実施形態を限定するものではないが、例えば、以下のような機械学習的手法の何れかまたはそれらの組み合わせを用いることができる。 In addition, when the user's facial expression is detected, the state detection unit 4 can also calculate information on the user's facial expression by machine learning. Although the specific configuration of the learning process for acquiring information about facial expressions does not limit the present embodiment, for example, any one of the following machine learning techniques or a combination thereof can be used.

・サポートベクターマシン(SVM: Support Vector Machine)
・クラスタリング(Clustering)
・帰納論理プログラミング(ILP: Inductive Logic Programming)
・遺伝的アルゴリズム(GP: Genetic Programming)
・ベイジアンネットワーク(BN: Baysian Network)
・ニューラルネットワーク(NN: Neural Network)
ニューラルネットワークを用いる場合、データをニューラルネットワークへのインプット用に予め加工して用いるとよい。このような加工には、データの1次元的配列化、または多次元的配列化に加え、例えば、データアーギュメンテーション(Deta Argumentation)等の手法を用いることができる。
・Support Vector Machine (SVM)
・Clustering
・Inductive Logic Programming (ILP)
・Genetic Algorithms (GP)
・Bayesian Network (BN)
・Neural Network (NN)
When using a neural network, the data may be preprocessed and used as input to the neural network. For such processing, techniques such as data argumentation can be used in addition to one-dimensional or multi-dimensional arraying of data.

また、ニューラルネットワークを用いる場合、畳み込み処理を含む畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)を用いてもよい。より具体的には、ニューラルネットワークに含まれる1又は複数の層(レイヤ)として、畳み込み演算を行う畳み込み層を設け、当該層に入力される入力データに対してフィルタ演算(積和演算)を行う構成としてもよい。またフィルタ演算を行う際には、パディング等の処理を併用したり、適宜設定されたストライド幅を採用したりしてもよい。 Moreover, when using a neural network, a convolutional neural network (CNN: Convolutional Neural Network) including convolution processing may be used. More specifically, one or more layers included in the neural network include a convolution layer that performs a convolution operation, and a filter operation (product-sum operation) is performed on input data input to the layer. may be configured. Further, when performing filter calculation, processing such as padding may be used in combination, or an appropriately set stride width may be employed.

また、ニューラルネットワークとして、数十~数千層に至る多層型又は超多層型のニューラルネットワークを用いてもよい。 As the neural network, a multi-layered or super multi-layered neural network with tens to thousands of layers may be used.

(視認オブジェクト判定部)
視認オブジェクト判定部5は、ユーザが閲覧しているページの配置情報を更に参照して、ユーザが視認しているオブジェクトを判定する。
(Visible Object Determination Unit)
The visible object determination unit 5 further refers to the layout information of the page that the user is viewing, and determines the object that the user is viewing.

これにより、情報処理装置100は、ユーザが視認しているオブジェクトを正確に判定することができる。 Accordingly, the information processing apparatus 100 can accurately determine the object visually recognized by the user.

視認オブジェクト判定部5の具体的な処理について、情報処理装置100を備える端末装置10を例に挙げ、図2および図3を用いて説明する。図2は、情報処理装置100を備えるスマートフォン、図3は、情報処理装置100を備えるパソコンを示す。 Specific processing of the visible object determination unit 5 will be described with reference to FIGS. 2 and 3, taking the terminal device 10 including the information processing device 100 as an example. FIG. 2 shows a smart phone provided with the information processing device 100, and FIG. 3 shows a personal computer provided with the information processing device 100. As shown in FIG.

図2において、本実施形態に係る情報処理装置100を備える端末装置(スマートフォン)10は、撮像部14と、表示部12とを更に備えている。例えば、図2のように、ブラウザの表示領域が、スマートフォンの表示部のサイズと同じであり、商品の画像が並んで配置されている場合を想定する。例えば、商品の表示順、各商品の製造会社および商品名は、表示部12が表示しているウェブページのソースコードから抽出することができる。各商品画像領域はブラウザによって制御されているため、視認オブジェクト判定部5は、ソースコードおよびブラウザを参照して、各商品の画像領域の座標を取得することができる。視認オブジェクト判定部5は、取得した各商品の画像領域の座標と、状態検出部4から取得した視線情報とを照合して、ユーザの視線の位置座標が、どの商品の画像領域の座標内にあるかを判定する。例えば、図2に示されるように、ユーザの視線の位置座標が、商品aの画像領域18の座標内にあると判定された場合、視認オブジェクト判定部5は、ユーザの視線の位置座標が、商品aの画像領域の座標内に留まっている時間のカウントを開始する。このように、ユーザの視線の位置座標と、商品の画像領域の座標とを照合することで、ユーザがどの商品を視認しているかを好適に判定することができる。また、視線の情報に加えて、(状態検出部)で記載したように、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きの検出結果を参照することで、ユーザがどの商品を集中して視認しているかを更に好適に判定することができる。 In FIG. 2 , a terminal device (smartphone) 10 including an information processing device 100 according to this embodiment further includes an imaging unit 14 and a display unit 12 . For example, as shown in FIG. 2, it is assumed that the display area of the browser is the same size as the display unit of the smartphone, and the product images are arranged side by side. For example, the display order of products, the manufacturer of each product, and the product name can be extracted from the source code of the web page displayed by the display unit 12 . Since each product image area is controlled by the browser, the visible object determination unit 5 can refer to the source code and the browser to acquire the coordinates of the image area of each product. The visible object determination unit 5 compares the obtained coordinates of the image area of each product with the line-of-sight information obtained from the state detection unit 4, and determines whether the position coordinates of the user's line of sight are within the coordinates of the image area of which product. Determine if there is For example, as shown in FIG. 2, when it is determined that the position coordinates of the user's line of sight are within the coordinates of the image area 18 of product a, the visible object determination unit 5 determines that the position coordinates of the user's line of sight are: Start counting the time that product a stays within the coordinates of the image area. In this way, by collating the position coordinates of the user's line of sight with the coordinates of the product image area, it is possible to suitably determine which product the user is visually recognizing. In addition to the line-of-sight information, the state of the pupil, the number of blinks, the movement of the eyebrows, the movement of the eyelids, the movement of the cheeks, the movement of the nose, the movement of the lips, and the movement of the jaw, as described in (state detection section). By referring to the motion detection result, it is possible to more preferably determine which product the user is concentrating on.

図3において、本実施形態に係る情報処理装置100を備える端末装置(パソコン)10も、図2と同様に、撮像部14と、表示部12とを更に備えている。図3の場合、ブラウザ画面16の大きさは、表示部12よりも小さいため、視認オブジェクト判定部5は、表示部12におけるブラウザ画面16の位置の情報も取得する必要がある。ブラウザの位置および領域は情報処理装置100のOS(Operating System)によって制御されているため、視認オブジェクト判定部5は、ソースコードおよびブラウザに加え、OSを参照して、各商品の画像領域の座標を取得することができる。例えば、図3に示されるように、ユーザの視線の位置座標が、商品bの画像領域18の座標内にあると判定された場合、視認オブジェクト判定部5は、ユーザの視線の位置座標が、商品bの画像領域の座標内に留まっている時間のカウントを開始する。 In FIG. 3, a terminal device (personal computer) 10 including an information processing device 100 according to the present embodiment also further includes an imaging unit 14 and a display unit 12, as in FIG. In the case of FIG. 3 , the size of the browser screen 16 is smaller than that of the display unit 12 , so the visible object determination unit 5 also needs to acquire information on the position of the browser screen 16 on the display unit 12 . Since the position and area of the browser are controlled by the OS (Operating System) of the information processing apparatus 100, the visible object determination unit 5 refers to the OS in addition to the source code and browser to determine the coordinates of the image area of each product. can be obtained. For example, as shown in FIG. 3, when it is determined that the position coordinates of the user's line of sight are within the coordinates of the image area 18 of product b, the visible object determination unit 5 determines that the position coordinates of the user's line of sight are: Start counting the time spent within the coordinates of the image area of product b.

また、視認オブジェクト判定部5は、状態検出部4から取得した結果を参照し、ユーザの集中度およびユーザの感情のうち少なくとも1つを更に判定してもよい。 Further, the visible object determination unit 5 may refer to the result obtained from the state detection unit 4 and further determine at least one of the user's degree of concentration and the user's emotion.

これにより、ユーザがどの程度オブジェクトに興味を持ち、どのような感情を持って該オブジェクトを視認しているかを判定することができる。 This makes it possible to determine to what extent the user is interested in the object and with what kind of emotion the user is visually recognizing the object.

視認オブジェクト判定部5は、状態検出部4から取得したユーザの顔の各部位の状態から、ユーザの感情を判定する。ユーザの感情を判定するために、例えば、Paul Ekman感情分類モデルを用いてもよい。該感情分類モデルには、例えば、「幸福」、「驚き」、「怒り」、「嫌悪」、「恐れ」、「悲しみ」が含まれる。なお、該感情分類モデルは、「平常」を含んでいてもよい。更に該感情分類モデルは、「面白さ」、「軽蔑」、「満足」、「困惑」、「興奮」、「罪悪感」、「功績に基づく自負心」、「安心」、「納得感」、「恥」のような感情およびこれら感情を複合したもの(例えば、怒り+嫌悪、幸福+満足など)を含むものであってもよい。 The visible object determination unit 5 determines the user's emotion from the state of each part of the user's face obtained from the state detection unit 4 . For example, the Paul Ekman emotion classification model may be used to determine the user's emotion. The emotion classification model includes, for example, "happiness", "surprise", "anger", "disgust", "fear", and "sadness". The emotion classification model may include "normal". Furthermore, the emotion classification model includes "fun", "contempt", "satisfaction", "confusion", "excitement", "guilt", "self-esteem based on achievement", "peace of mind", "satisfaction", It may also include emotions such as "shame" and composites of these emotions (eg, anger + disgust, happiness + satisfaction, etc.).

また、視認オブジェクト判定部5は、ユーザがどの商品を集中して視認しているかの判定およびユーザの感情の判定を、(状態検出部)に記載の機械学習的手法を用いて判定してもよい。 In addition, the visible object determination unit 5 determines which product the user is concentrating on viewing and determines the user's emotion using the machine learning method described in (state detection unit). good.

視認オブジェクト判定部5は、判定した結果を趣向情報生成部6へ送信する。 The visible object determination unit 5 transmits the determination result to the preference information generation unit 6 .

(画像取得部)
情報処理装置100は、ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部15を更に備えてもよい。ここで、ユーザが身に着ける撮像装置は、ユーザの状態を検出できれば特に限定されないが、例えば、メガネ型のウェアラブルデバイスに搭載されたカメラ、ヘッドマウントデバイスに搭載されたカメラ等が挙げられる。これらのデバイスの種類としては、透過型でもよいし、非透過型でもよい。非透過型の場合、一例として、カメラ(撮像装置)と、ユーザが視認している先のディスプレイ(表示部)とが同じ装置に備えられる構成であってもよい。
(Image acquisition unit)
The information processing apparatus 100 may further include an image acquisition unit 15 that acquires a captured image including the user's field of view from an imaging device worn by the user. Here, the imaging device worn by the user is not particularly limited as long as it can detect the state of the user, but examples include a camera mounted on a glasses-type wearable device and a camera mounted on a head-mounted device. These devices may be transmissive or non-transmissive. In the case of the non-transmissive type, for example, a configuration in which a camera (imaging device) and a display (display section) viewed by a user are provided in the same device may be employed.

ユーザの視野を含む撮像画像とは、例えば、ユーザが見ている先の景色およびディスプレイ(表示部)等を撮影した画像である。 A captured image including the user's field of view is, for example, an image obtained by capturing a scene, a display (display unit), and the like that the user is looking at.

視認オブジェクト判定部5は、画像取得部15が取得した撮像画像と、上記状態検出部4が検出した結果と、を参照して、上記ユーザが視認しているオブジェクトを判定してもよい。具体的には、視認オブジェクト判定部5は、撮像画像領域の座標と、状態検出部4が検出したユーザの視線情報とを照合し、ユーザの視線の位置座標が、撮像画像中のどの座標に対応するかを判定する。視認オブジェクト判定部5は、画像取得部15が取得した撮像画像に含まれるオブジェクトを、例えば、機械学習を用いて認識させる構成としてもよい。 The visible object determination unit 5 may determine the object visually recognized by the user by referring to the captured image acquired by the image acquisition unit 15 and the result detected by the state detection unit 4 . Specifically, the visible object determination unit 5 compares the coordinates of the captured image area with the line-of-sight information of the user detected by the state detection unit 4, and determines which coordinate in the captured image the position coordinates of the user's line of sight correspond to. Determine if compatible. The visible object determination unit 5 may be configured to recognize the object included in the captured image acquired by the image acquisition unit 15 using, for example, machine learning.

これにより、ユーザが視認しているオブジェクトを好適に判定することができる。 Thereby, the object visually recognized by the user can be suitably determined.

(趣向情報生成部)
趣向情報生成部6は、ユーザ情報取得部1から取得したユーザ情報および視認オブジェクト判定部5から取得した判定結果を参照して、ユーザの趣向に関する趣向情報を生成する。ここで、趣向情報とは、ユーザの興味がどのオブジェクトに対して強く、どのオブジェクトに対して弱いかを示す情報である。
(Preference information generator)
The preference information generation unit 6 refers to the user information obtained from the user information acquisition unit 1 and the determination result obtained from the visible object determination unit 5 to generate preference information related to the user's preferences. Here, the preference information is information indicating to which object the user's interest is strong and to which object the interest is weak.

これにより、各ユーザの興味が強いオブジェクトおよび興味の弱いオブジェクトの情報を知ることができ、趣向情報生成部6は、重みづけを行った趣向情報を生成することができる。 As a result, it is possible to know information about objects in which each user has a strong interest and information about objects in which the user has a weak interest, and the preference information generating section 6 can generate weighted preference information.

例えば、趣向情報生成部6は、視認オブジェクト判定部5で判定された、ユーザが視認した商品の情報、該商品を視認していたときのユーザの集中度の結果、およびユーザの感情の結果を参照する。 For example, the preference information generation unit 6 generates the information of the product visually recognized by the user, the result of the user's degree of concentration while viewing the product, and the result of the user's emotion, which are determined by the visible object determination unit 5. refer.

図4は、趣向情報生成部6に入力される、状態検出部4で検出された結果を示すデータである。図4は、IDがAであるユーザ(以下、ユーザAと称する)についてのデータの一例である。図4の表は、商品ごとに、ユーザAがその商品を視認した時間(「視線」)、1分あたりの瞬きの回数(「瞬き」)、瞳孔の開閉(「瞳孔の状態」)を表している。図4の表から、ユーザAは、商品aを長時間視認しており、その間の瞬きの回数および瞳孔の状態から高い集中状態であることが判定される。また、図4の表から、ユーザAは商品cに関して、商品cの視認時間は短く、それほど高い集中状態ではないことが判定される。 FIG. 4 shows data indicating the result of detection by the state detection unit 4, which is input to the preference information generation unit 6. As shown in FIG. FIG. 4 is an example of data about a user whose ID is A (hereinafter referred to as user A). The table in FIG. 4 shows, for each product, the time that user A visually recognized the product (“line of sight”), the number of blinks per minute (“blink”), and the opening and closing of the pupil (“state of pupil”). ing. From the table in FIG. 4 , it is determined that user A is in a highly focused state, based on the number of times he blinks and the state of his pupils, while he is visually recognizing product a for a long period of time. Further, from the table of FIG. 4, it is determined that user A has a short visual recognition time for product c and is not in a highly concentrated state.

図5の表は、各ユーザの属性、興味が強い商品および興味が弱い商品について生成される趣向情報の一例である。ここで、各ユーザの属性は、一例として性別である。趣向情報生成部6は、図4の表のデータを参照して、図5に示すような趣向情報を生成する。図5の表は、ユーザAが男性であり、実際にユーザAが商品aに強い興味を持っていること、商品bにはあまり興味を持っていないことを示している。このような趣向情報は、各ユーザ毎の趣向を示す情報であってもよいし、図5に示すように、複数のユーザの趣向を示す情報であってもよい。 The table in FIG. 5 is an example of preference information generated for each user's attributes, products with strong interest, and products with weak interest. Here, the attribute of each user is gender as an example. The preference information generator 6 generates preference information as shown in FIG. 5 by referring to the data in the table of FIG. The table in FIG. 5 indicates that user A is male, and that user A actually has a strong interest in product a and little interest in product b. Such preference information may be information indicating the preference of each user, or may be information indicating the preferences of a plurality of users as shown in FIG.

また、趣向情報生成部6は、(状態検出部)に記載の機械学習的手法を用いて趣向情報を生成してもよい。 Further, the preference information generation unit 6 may generate the preference information using the machine learning technique described in (state detection unit).

また、趣向情報生成部6は、上述の各種情報と共に、又は、上述の各種情報に代えて、クリック情報等の他の情報を参照してユーザの趣向情報を生成する構成としてもよい。ここで、クリック情報とは、ユーザがクリック又はタッチした位置、クリック又はタッチの回数、ダブルクリックの時間間隔等の情報を含み得る。また、クリック又はタッチの強さを検出する強度検出部を備え、趣向情報生成部6が当該クリック又はタッチの強さを参照してユーザの趣向情報を生成する構成としてもよい。 In addition, the preference information generation unit 6 may be configured to generate user preference information by referring to other information such as click information together with or instead of the various information described above. Here, the click information may include information such as the position clicked or touched by the user, the number of clicks or touches, and the time interval between double clicks. Further, a configuration may be adopted in which an intensity detection unit that detects the intensity of a click or touch is provided, and the preference information generation unit 6 refers to the intensity of the click or touch to generate user preference information.

なお、表示部をタッチパネルとして構成する場合、いわゆる抵抗膜方式を採用すればユーザのタッチの強さを検出することができる。 Note that when the display unit is configured as a touch panel, the strength of the user's touch can be detected by adopting a so-called resistive film method.

趣向情報生成部6は、生成した趣向情報をプログラム実行部30へ送信する。 The preference information generator 6 transmits the generated preference information to the program execution unit 30 .

(プログラム実行部1-1)
プログラム実行部30は、ユーザに対応したアバター画像を生成し、状態検出部4が検出するユーザの状態、視認オブジェクト判定部5が判定するユーザが視認しているオブジェクト、ユーザの感情、および趣向情報生成部6から取得する趣向情報のうち少なくとも1つに応じたアバター画像を生成する。
(Program execution unit 1-1)
The program execution unit 30 generates an avatar image corresponding to the user, the user's state detected by the state detection unit 4, the object visually recognized by the user determined by the visible object determination unit 5, the user's emotion, and preference information. An avatar image is generated according to at least one piece of preference information acquired from the generation unit 6 .

アバター画像は、ユーザを象徴的に表す情報であり、主には、ユーザを想起させる画像である。ユーザがショッピングサイトで商品を選んでいる場合、一例として、アバター画像は、実店舗を模倣して形成される画像上に生成される。 An avatar image is information that symbolically represents a user, and is mainly an image that reminds the user. As an example, when a user is selecting products at a shopping site, an avatar image is generated on an image that imitates a physical store.

これにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。 This makes it possible to visualize the object visually recognized by the user, the user's emotion, and preference information.

ユーザの状態は、(状態検出部)で記載したユーザの顔の各部位の状態である。ユーザが視認しているオブジェクトおよびユーザの感情は、(視認オブジェクト判定部)で記載した方法で判定される。また、趣向情報は、(趣向情報生成部)で記載したように、ユーザの興味がどのオブジェクトに対して強く、どのオブジェクトに対して弱いかを示す情報である。 The state of the user is the state of each part of the user's face described in (state detector). The object visually recognized by the user and the user's emotion are determined by the method described in (Visualized Object Determination Unit). The preference information, as described in (preference information generating unit), is information indicating which object the user is strongly interested in and which object it is weakly interested in.

図6は、プログラム実行部30が、生成するアバター画像の一例である。図6(a)は従来のアバター画像の一例、図6(b)はユーザの表情に応じたアバター画像の一例、図6(c)はユーザの表情および視線に応じたアバター画像の一例である。従来のアバター画像は、図6(a)で示すように、ユーザの表情は反映されていなかった。本実施形態のプログラム実行部30は、図6(b)で示すように、ユーザの表情に応じたアバター画像を生成する。例えば、ユーザがある商品を視認している際、口角を上げた表情をしている場合、口角を上げた表情のアバター画像を生成する。また、プログラム実行部30は、趣向情報を参照することにより、ユーザのある商品に対する好意の度合い(好み)を可視化したゲージを表示してもよい。図6(c)で示すように、ユーザの視線の情報に応じたアバター画像を生成してもよい。視線の情報とは、例えば、視線の方向、瞳孔の状態および瞬きの回数等である。例えば、ユーザがショッピングサイトの商品aの画像を視認している場合、実店舗のように商品が陳列されている画像上において、陳列されている商品aの方向をアバターが見ているように、アバター画像の視線を設定してもよい。また、プログラム実行部30は、ユーザが視認しているオブジェクトを、例えば、アバターの手に持たせて、アバターが手に持った商品を視認しているような画像を生成してもよい。 FIG. 6 is an example of an avatar image generated by the program execution unit 30. As shown in FIG. FIG. 6(a) is an example of a conventional avatar image, FIG. 6(b) is an example of an avatar image corresponding to the user's expression, and FIG. 6(c) is an example of an avatar image corresponding to the user's expression and line of sight. . As shown in FIG. 6A, the conventional avatar image does not reflect the user's facial expression. The program execution unit 30 of this embodiment generates an avatar image according to the user's expression, as shown in FIG. 6(b). For example, when the user is looking at a certain product and has an expression of raising the corners of the mouth, an avatar image of the expression of raising the corners of the mouth is generated. Further, the program execution unit 30 may display a gauge that visualizes the user's degree of favor (preference) for a certain product by referring to the preference information. As shown in FIG. 6(c), an avatar image may be generated according to information on the user's line of sight. The line-of-sight information is, for example, the direction of the line of sight, the state of the pupil, the number of blinks, and the like. For example, when the user is visually recognizing an image of product a on a shopping site, the avatar looks in the direction of product a displayed on the image where products are displayed like in a real store. You may set the line of sight of the avatar image. Alternatively, the program execution unit 30 may generate an image in which the object visually recognized by the user is held by the avatar, for example, and the product held by the avatar is visually recognized.

なお、アバター画像は、ユーザ自身が見ることが出来るように、該ユーザの端末装置の表示部12に表示されてもよいし、他のユーザが該ユーザのアバター画像を見ることが出来るように、他の端末装置およびショッピングサイトのサーバ等に送信されてもよい。 Note that the avatar image may be displayed on the display unit 12 of the terminal device of the user so that the user can see the avatar image, or the avatar image of the user can be displayed so that other users can see the avatar image of the user. It may be transmitted to another terminal device, a server of a shopping site, or the like.

これにより、ユーザは、ショッピングサイトで自身がショッピングをしている様子を、あたかも実店舗でショッピングしている自身の姿として客観視ができる。また、他のユーザ(店舗のスタッフ等)は、ショッピングサイトでショッピングしているユーザを、アバター画像を介して、実店舗でショッピングしている客の一人として捉えることができ、ユーザにより良いサービスを提供するための意識の向上を図ることが出来る。 As a result, the user can objectively view the appearance of himself/herself shopping at the shopping site as if he or she were shopping at the actual store. Also, other users (store staff, etc.) can perceive the user who is shopping at the shopping site as one of the customers who are shopping at the actual store through the avatar image, so that better service can be provided to the user. It is possible to improve awareness for providing.

(プログラム実行部1-2)
プログラム実行部30は、趣向情報生成部6が生成した趣向情報を、表示データとして外部の表示装置へ出力してもよい。表示データの種類は特に限定されないが、例えば、数値、文字、表、グラフ、アニメーション等が挙げられる。表の例としては、例えば図5のような表が挙げられる。また、出力の対象となる趣向情報は、ある特定の一人のユーザの趣向情報であってもよいし、複数のユーザの趣向情報であってもよい。
(Program execution unit 1-2)
The program execution unit 30 may output the preference information generated by the preference information generation unit 6 to an external display device as display data. The type of display data is not particularly limited, but includes, for example, numerical values, characters, tables, graphs, animations, and the like. An example of the table is a table such as that shown in FIG. Further, the preference information to be output may be the preference information of one specific user or may be the preference information of a plurality of users.

これにより、ユーザの趣向情報を可視化することができる。 This makes it possible to visualize the user's preference information.

(プログラム実行部1-3)
プログラム実行部30は、趣向情報生成部6から取得した趣向情報に基づいた提案情報をユーザに提案する。提案情報とは、例えば、ユーザの趣向情報における興味が強い商品の電子公告、値下がりの情報、および電子クーポン等である。プログラム実行部30は、例えば、メール、ソーシャルネットワークサービス(SNS)およびインスタントメッセージ(IM)等の通信手段を用いて、生成した提案情報をユーザに送信してもよい。また、バナー広告としてユーザに通知してもよい。
(Program execution unit 1-3)
The program execution unit 30 proposes to the user proposal information based on the preference information acquired from the preference information generation unit 6 . The proposal information is, for example, an electronic announcement of a product in which the user has a strong interest in the user's preference information, price drop information, an electronic coupon, or the like. The program execution unit 30 may transmit the generated proposal information to the user, for example, using communication means such as email, social network service (SNS), and instant message (IM). Moreover, you may notify a user as a banner advertisement.

図7は、趣向情報生成部6から取得した趣向情報に基づいて、プログラム実行部30が生成した提案情報の一例を示す表である。趣向情報生成部6は、一例として、ユーザA、CおよびDは商品aに強い興味を持っていると推定し、ユーザEおよびFは商品bに強い興味を持っていると推定した趣向情報を生成する。その場合、プログラム実行部30は、趣向情報に基づきユーザA、CおよびDに商品aの広告(提案情報)を送信し、ユーザEおよびFに商品bの広告を送信する。 FIG. 7 is a table showing an example of proposal information generated by the program execution unit 30 based on the preference information acquired from the preference information generation unit 6. As shown in FIG. As an example, the preference information generation unit 6 presumes that users A, C, and D have a strong interest in product a, and users E and F presumes that they have a strong interest in product b. Generate. In this case, the program execution unit 30 transmits an advertisement (suggestion information) for product a to users A, C, and D, and an advertisement for product b to users E and F, based on the preference information.

このように、プログラム実行部30が提案情報をユーザに提案することで、ユーザは、自身の趣向に基づいた情報を享受することができる。 In this way, the program execution unit 30 proposes the proposal information to the user, so that the user can enjoy information based on his or her taste.

プログラム実行部30は、ユーザが提案情報を視認したか否かを判定してもよい。視認したか否かの判定は、例えば、広告に記載されたショッピングサイトのアドレスにユーザがアクセスしたか否かの情報をプログラム実行部30が参照することにより判定してもよい。また、例えば、広告を配信した後の所定期間内に、ユーザがショッピングサイトにログインした否かの情報をプログラム実行部30が参照して判定してもよい。ユーザがショッピングサイトにログインしたか否かの情報は、例えば、ユーザ情報取得部1から取得することができる。ショッピングサイトにログインした際、プログラム実行部30は、ユーザがどの商品画像を視認していたかの情報を参照することにより、ユーザが広告に記載された商品と同じ商品画像を視認しているか否かを判定してもよい。ユーザがどの商品画像を視認していたかの情報は、例えば、視認オブジェクト判定部5によって、(視認オブジェクト判定部)で記載の方法を用いて、判定されればよい。 The program execution unit 30 may determine whether or not the user has viewed the suggested information. The determination of whether or not the advertisement has been viewed may be made, for example, by the program execution unit 30 referring to information on whether or not the user has accessed the address of the shopping site described in the advertisement. Further, for example, the program execution unit 30 may refer to information as to whether or not the user has logged into the shopping site within a predetermined period of time after the advertisement is distributed. Information as to whether or not the user has logged in to the shopping site can be obtained from the user information obtaining unit 1, for example. When the user logs in to the shopping site, the program execution unit 30 refers to information about which product image the user has viewed, thereby determining whether the user views the same product image as the product described in the advertisement. You can judge. Information about which product image the user has visually recognized may be determined by, for example, the visible object determination unit 5 using the method described in (Visualized object determination unit).

また、プログラム実行部30は、趣向情報生成部6が生成した趣向情報と、プログラム実行部30が提案した提案情報とに基づいて評価を行ってもよい。評価の方法について以下に説明する。ここで、評価とは、例えば、ユーザへ提案した提案情報が適当であったかの評価である。 Also, the program execution unit 30 may perform evaluation based on the preference information generated by the preference information generation unit 6 and the proposal information proposed by the program execution unit 30 . The evaluation method will be explained below. Here, the evaluation is, for example, an evaluation as to whether or not the proposal information proposed to the user was appropriate.

図8は、プログラム実行部30が行う評価の一例を示す表である。図8の表は、プログラム実行部30が、ユーザA、CおよびDに商品aの広告を送信し、ユーザEおよびFに商品bの広告を送信した場合に、各ユーザが広告の商品画像を視認したか否かの判定の結果に基づいて、評価を行った結果である。本実施形態において、プログラム実行部30が行う評価とは、一例として、広告を送信した全ユーザの人数における、広告を視認したユーザの人数の割合を評価値としてもよい。ここで、評価値とは、一例として、「注目率」として表される。例えば、商品aの広告を送信したユーザA、CおよびDのうち、プログラム実行部30が、該広告を視認したと判定したのはユーザAおよびCであったため、プログラム実行部30は、注目率が66%であると評価する。また、商品bの広告を送信したユーザEおよびFのうち、プログラム実行部30が、該広告を視認したと判定したのはユーザFのみであったため、プログラム実行部30は、注目率は50%であると評価する。 FIG. 8 is a table showing an example of evaluation performed by the program execution unit 30. As shown in FIG. The table in FIG. 8 shows that when the program execution unit 30 sends an advertisement for product a to users A, C, and D, and an advertisement for product b to users E and F, each user sends an advertisement product image. This is the result of evaluation based on the result of determination as to whether or not the object was visually recognized. In the present embodiment, the evaluation performed by the program execution unit 30 may be, for example, the ratio of the number of users who viewed the advertisement to the total number of users who transmitted the advertisement as the evaluation value. Here, the evaluation value is expressed as an "attention rate" as an example. For example, among users A, C, and D who sent an advertisement for product a, the program execution unit 30 determined that users A and C had viewed the advertisement. is 66%. In addition, among the users E and F who sent the advertisement for the product b, the program execution unit 30 determined that only the user F had viewed the advertisement. It is evaluated as

このように、プログラム実行部30が評価を行うことで、提案情報が適当なものであったかの評価を行うができる。 In this way, evaluation by the program execution unit 30 makes it possible to evaluate whether the proposal information is appropriate.

(プログラム実行部1-4)
プログラム実行部30は、趣向情報生成部6から取得した趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更する。ここで、外部の表示装置とは、一例として、端末装置の表示部12である。表示情報は、例えば、表示部12に表示されている画像を示す画像情報、および該画像の座標等を示すレイアウト情報等が含まれる。表示情報は、ソースコード、ブラウザ、およびOSから取得することができる。また、情報の変更とは、特に限定されないが、一例として、表示部12に表示させる商品画像のレイアウトの変更である。プログラム実行部30は、変更した表示情報を表示部12に送信する。
(Program execution unit 1-4)
Based on the preference information acquired from the preference information generation unit 6, the program execution unit 30 changes display information to be displayed on an external display device. Here, the external display device is, for example, the display unit 12 of the terminal device. The display information includes, for example, image information indicating an image displayed on the display unit 12, layout information indicating coordinates of the image, and the like. Display information can be obtained from the source code, browser, and OS. Further, the change of information is not particularly limited, but as an example, it is a change of the layout of the product image to be displayed on the display unit 12 . The program execution unit 30 transmits the changed display information to the display unit 12 .

これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。 Thereby, it is possible to provide each user with a layout or the like based on each user's preference information.

プログラム実行部30が行う処理の具体例を説明する。図9は、パソコンの表示部12を示す。図9(a)は表示が変更される前の表示部12を示し、表示部12は、商品a~fの画像を表示している。図9(b)は表示が変更された後の表示部12を示している。 A specific example of processing performed by the program execution unit 30 will be described. FIG. 9 shows the display section 12 of the personal computer. FIG. 9(a) shows the display section 12 before the display is changed, and the display section 12 displays images of products a to f. FIG. 9(b) shows the display section 12 after the display has been changed.

ここで、例えば、商品a~fの中で、ユーザの興味の強い商品がd、e、fであるという趣向情報を、趣向情報生成部6が生成したとする。プログラム実行部30は、現在表示されている図9(a)の表示情報と、趣向情報生成部6が生成した趣向情報に基づき、商品a~cの画像の位置と、商品d~fの画像の位置とを入れ替えることによってレイアウトが変更された表示情報を生成する。表示部12は、プログラム実行部30から取得した変更された表示情報に基づき、図9(b)のような表示をさせる。すなわち、プログラム実行部30は、表示される画面の中で、最も目立つ場所に商品d、e、fの画像を配置し、表示させる。なお、レイアウトの変更は、この形態に限定されず、商品画像の上下の入れ替え、左右の入れ替え等が挙げられる。また、趣向情報生成部6の趣向情報に基づき、ユーザの興味が強い順に1つずつ画像を並べ替えてもよい。 Here, for example, it is assumed that the preference information generation unit 6 has generated preference information indicating that among the products a to f, products d, e, and f are of strong interest to the user. Based on the display information currently displayed in FIG. The display information whose layout has been changed is generated by exchanging the positions of . Based on the changed display information acquired from the program execution unit 30, the display unit 12 displays as shown in FIG. 9B. That is, the program execution unit 30 arranges and displays the images of the products d, e, and f at the most conspicuous places in the displayed screen. Note that the layout change is not limited to this form, and may include up and down replacement of the product image, left and right replacement, and the like. Further, based on the preference information of the preference information generation unit 6, the images may be rearranged one by one in descending order of interest of the user.

表示部12の表示情報が変更されるタイミングは、特に限定されないが、ウェブページが更新されるタイミングでもよいし、所定の時間毎に変更されてもよい。また、ユーザがショッピングサイト等から一度ログアウトをし、次に同じサイトにログインした場合に変更されてもよい。 The timing at which the display information on the display unit 12 is changed is not particularly limited, but may be the timing at which the web page is updated, or may be changed at predetermined time intervals. Alternatively, the information may be changed when the user logs out of a shopping site or the like once and then logs in to the same site.

上記の説明では、プログラム実行部30による表示情報の変更処理として、表示情報に含まれるレイアウト情報の変更を例に挙げたが、本実施形態はこれに限定されるものではない。表示情報の変更の他の例として、ユーザの興味の強い商品の画像を強調表示する構成が挙げられる。具体的は強調表示の例として、
・当該商品の画像を枠囲みする
・当該商品の画像の周辺の背景色を変更する
・当該商品の画像を、他の商品よりも大きく表示する
・当該商品の画像をポップアップウィンドウとして表示する
等が挙げられる。
In the above description, as the display information change processing by the program execution unit 30, the change of the layout information included in the display information was taken as an example, but the present embodiment is not limited to this. Another example of changing display information is a configuration in which an image of a product in which the user has a strong interest is highlighted. Specifically, as an example of highlighting,
- Enclose the image of the product in a frame - Change the background color around the image of the product - Display the image of the product in a larger size than other products - Display the image of the product in a pop-up window, etc. mentioned.

(制御部)
制御部9は、情報処理装置100の各部を統括的に制御するものである。制御部9は、状態検出部4、視認オブジェクト判定部5、趣向情報生成部6、およびプログラム実行部30を含むものである。制御部9の各機能、および情報処理装置100に含まれる全ての機能は、例えば、記憶部(不図示)等に記憶されたプログラムを、CPUが実行することによって実現されてもよい。
(control part)
The control unit 9 comprehensively controls each unit of the information processing apparatus 100 . The control unit 9 includes a state detection unit 4 , a visible object determination unit 5 , a preference information generation unit 6 and a program execution unit 30 . Each function of the control unit 9 and all functions included in the information processing apparatus 100 may be realized by the CPU executing a program stored in a storage unit (not shown) or the like, for example.

〔情報処理装置の処理例1〕
次に、図10のフローチャートに基づき、情報処理装置100の処理について説明する。
[Processing example 1 of information processing device]
Next, processing of the information processing apparatus 100 will be described based on the flowchart of FIG.

まず情報処理装置の使用を開始(ステップS100)し、処理を開始する。ステップS(以下、「ステップ」は省略する)102に進む。 First, use of the information processing apparatus is started (step S100) to start processing. The process proceeds to step S (hereinafter, “step” is omitted) 102 .

S102では、ユーザ情報取得部1が、ユーザ情報を取得する(ユーザ情報取得ステップ)。処理の詳細は、(ユーザ情報取得部)に記載の通りである。ユーザ情報取得部1は、ユーザ情報を趣向情報生成部6に送信し、S104に進む。 In S102, the user information acquisition unit 1 acquires user information (user information acquisition step). The details of the processing are as described in (User Information Acquisition Unit). The user information acquisition unit 1 transmits the user information to the preference information generation unit 6, and proceeds to S104.

S104では、顔情報取得部2が、ユーザの顔画像を撮像部から取得し、顔画像から顔の各部位を抽出する(顔情報取得ステップ)。処理の詳細は、(顔情報取得部)に記載の通りである。顔情報取得部2は、抽出した結果を状態検出部4に送信し、S106に進む。 In S104, the face information acquisition unit 2 acquires the user's face image from the imaging unit, and extracts each part of the face from the face image (face information acquisition step). The details of the processing are as described in (Face Information Acquisition Unit). The face information acquisition unit 2 transmits the extracted result to the state detection unit 4, and proceeds to S106.

S106では、状態検出部4が、ユーザの視線、瞬き、瞳孔の状態、および顔の各部位の状態を検出する(状態検出ステップ)。処理の詳細は(状態検出部)に記載の通りである。検出結果を視認オブジェクト判定部5に送信し、S108に進む。 In S106, the state detection unit 4 detects the state of the user's line of sight, blinks, pupils, and the state of each part of the face (state detection step). The details of the processing are as described in (state detector). The detection result is transmitted to the visible object determination unit 5, and the process proceeds to S108.

S108では、視認オブジェクト判定部5が、ユーザの視認する商品画像(視認オブジェクト)、視認しているときの集中度、および視認しているときの感情を判定する(視認オブジェクト判定ステップ)。処理の詳細は、(視認オブジェクト判定部)に記載の通りである。視認オブジェクト判定部5は、判定した結果を、趣向情報生成部6に送信し、S110に進む。 In S108, the visible object determination unit 5 determines the product image (visualized object) visually recognized by the user, the degree of concentration during the viewing, and the emotion during the viewing (visualized object determination step). The details of the process are as described in (Viewable Object Determination Unit). The visible object determination unit 5 transmits the determination result to the preference information generation unit 6, and proceeds to S110.

S110では、趣向情報生成部6が、ユーザ情報取得部1から取得されたユーザ情報と、視認オブジェクト判定部5から取得された判定結果とを参照し、趣向情報を生成し(趣向情報生成ステップ)、S112へ進む。処理の詳細は、(趣向情報生成部)に記載の通りである。 In S110, the preference information generation unit 6 refers to the user information obtained from the user information acquisition unit 1 and the determination result obtained from the visible object determination unit 5, and generates preference information (a preference information generation step). , to S112. The details of the processing are as described in (Preference Information Generation Unit).

S112では、制御部9は、趣向情報生成部6が生成した趣向情報をデータベース等に記録し、S114に進む。 In S112, the control unit 9 records the preference information generated by the preference information generation unit 6 in a database or the like, and proceeds to S114.

S114では、プログラム実行部30が、アバター画像の生成、提案情報の提案、評価、および表示情報の変更のうち少なくとも1つを行う(プログラム実行ステップ)。プログラム実行部30が行う処理の詳細は、(プログラム実行部1-1)~(プログラム実行部1-3)に記載の通りである。S116に進み、趣向推定処理を終了する。 In S114, the program execution unit 30 performs at least one of generation of an avatar image, proposal of proposal information, evaluation, and change of display information (program execution step). The details of the processing performed by the program execution unit 30 are as described in (program execution unit 1-1) to (program execution unit 1-3). Proceeding to S116, the preference estimation process ends.

これにより、趣向情報を好適に生成することができる。 Thereby, the preference information can be preferably generated.

(変形例1-1)
情報処理装置100は、決済情報取得部(不図示)を更に備えてもよい。決済情報取得部は、例えば、ユーザが商品を購入したか否かの決済情報を取得する。決済情報は、例えば、ショッピングサイト等に予め登録されているクレジットカード情報、ショッピングサイトの決済用サーバ、および決済代行事業者の決済用サーバ等から取得することができる。決済情報取得部は、ユーザが該ショッピングサイト内で、どの商品を購入したかの情報を取得することができる。決済情報は、クレジットカード情報に限定されず、ユーザの個人情報と紐づけられている媒体から取得することができる。例えば、デビットカード情報、プリペイドカード情報等が挙げられる。決済情報取得部は、取得した決済情報を、趣向情報生成部6へ送信する。
(Modification 1-1)
The information processing device 100 may further include a payment information acquisition unit (not shown). The payment information acquisition unit, for example, acquires payment information as to whether or not the user has purchased the product. The payment information can be acquired from, for example, credit card information registered in advance in a shopping site or the like, a payment server of the shopping site, or a payment server of a payment service provider. The payment information acquisition unit can acquire information about which product the user has purchased within the shopping site. Payment information is not limited to credit card information, and can be obtained from a medium linked to the user's personal information. Examples include debit card information, prepaid card information, and the like. The payment information acquisition unit transmits the acquired payment information to the preference information generation unit 6 .

決済情報とは、ショッピング等においては、商品を購入したか否かの情報であるが、これに限定されず、より一般的に言えば、ユーザの意思を反映する意思決定情報である。 Payment information is information as to whether or not a product has been purchased in shopping or the like, but it is not limited to this, and more generally speaking, it is decision-making information that reflects the intention of the user.

このような構成により、情報処理装置100は、より正確な趣向情報を生成することができる。 With such a configuration, the information processing apparatus 100 can generate more accurate preference information.

また、情報処理装置100が、決済情報取得部を備えることにより、プログラム実行部30は、ユーザが提案情報に基づく商品を購入したか否かを判定し、該判定の結果に基づいて評価を行うことができる。 In addition, since the information processing apparatus 100 includes the payment information acquisition unit, the program execution unit 30 determines whether or not the user has purchased the product based on the proposal information, and performs evaluation based on the result of the determination. be able to.

図11は、プログラム実行部30が、ユーザA、CおよびDに商品aの広告(提案情報)を送信し、ユーザEおよびFに商品bの広告を送信した場合に、各ユーザが広告の商品の購入に至ったか否かを評価した結果である。図11の表中の成約率とは、プログラム実行部30が広告を送信したユーザの人数における、実際に広告の商品を購入したユーザの人数の割合である。商品aの広告を送信したユーザA、CおよびDは、全員が商品aを購入しているため、プログラム実行部30は、成約率は100%であると評価する。また、商品bの広告を送信したユーザEおよびFについては、ユーザEのみが商品bの購入に至っているため、プログラム実行部30は、成約率は50%であると評価する。このとき、広告を送信されたユーザが実際に広告を見たか否かについては必ずしも判定しなくてもよい。特に、メール等、オフライン状態でも確認できる広告においては、判定しなくてもよい。 FIG. 11 shows that when the program execution unit 30 transmits an advertisement (suggestion information) for product a to users A, C, and D, and an advertisement for product b to users E and F, each user receives an advertisement for the product. This is the result of evaluating whether or not the customer purchased the product. The closing rate in the table of FIG. 11 is the ratio of the number of users who actually purchased the advertised product to the number of users to whom the program execution unit 30 sent the advertisement. Since all users A, C, and D who sent the advertisement for product a have purchased product a, program execution unit 30 evaluates that the contract rate is 100%. As for users E and F who have sent advertisements for product b, only user E has purchased product b, so program execution unit 30 evaluates that the contract rate is 50%. At this time, it is not necessarily determined whether the user to whom the advertisement was sent actually saw the advertisement. In particular, advertisements that can be checked even in an offline state, such as e-mails, do not need to be judged.

また、プログラム実行部30は、広告を送信されたユーザが実際に広告を見たか否かという、広告の視認情報を参照して評価を行ってもよい。 Further, the program execution unit 30 may perform evaluation by referring to viewing information of the advertisement, ie, whether or not the user to whom the advertisement was sent actually saw the advertisement.

図12は、プログラム実行部30が、ユーザA、CおよびDに商品aの広告を送信し、ユーザEおよびFに商品bの広告を送信した場合に、各ユーザが広告の商品の購入に至ったか否かを評価した結果を示す図である。図12の表中の成約率とは、プログラム実行部30が広告を送信したユーザの人数における、広告を視認して商品の購入に至ったユーザの人数の割合である。図12の表に示されるように、商品aの広告を送信したユーザA、CおよびDは、全員が商品aを購入したが、広告を見て購入に至ったのは、ユーザAおよびCのみであったため、プログラム実行部30は、成約率は66%であると評価する。また、商品bの広告を送信したユーザEおよびFについては、広告を見たうえで商品の購入に至ったユーザはいなかったため、プログラム実行部30は、成約率は0%であると評価する。 FIG. 12 shows that when program execution unit 30 sends an advertisement for product a to users A, C, and D, and an advertisement for product b to users E and F, each user purchases the advertised product. FIG. 10 is a diagram showing the result of evaluating whether or not The closing rate in the table of FIG. 12 is the ratio of the number of users who saw the advertisement and purchased the product to the number of users to whom the program execution unit 30 sent the advertisement. As shown in the table of FIG. 12, users A, C, and D who sent an advertisement for product a all purchased product a, but only users A and C saw the advertisement and purchased product a. Therefore, the program execution unit 30 evaluates that the contract rate is 66%. For users E and F who sent an advertisement for product b, none of the users saw the advertisement and ended up purchasing the product.

広告の視認情報は、(視認オブジェクト判定部)に記載の方法を用いて広告を見たか否かを判定してもよい。 Regarding the viewing information of the advertisement, it may be determined whether or not the advertisement is viewed using the method described in (Viewing Object Determining Unit).

(変形例1-2)
本変形例に係る情報処理装置100は、実施形態1に係る情報処理装置100と同じ部を備え、各部が行う処理についても視認オブジェクト判定部5以外は同じである。視認オブジェクト判定部5については後述する。また、本実施形態に係る情報処理装置100は、ユーザの決済情報を取得する決済情報取得部(不図示)と、仮IDを付与する仮ID付与部(不図示)と、仮IDと上記ユーザの決済情報とを照合する照合部(不図示)とを更に備える点で実施形態1に係る情報処理装置100と異なる。
(Modification 1-2)
The information processing apparatus 100 according to this modified example includes the same units as the information processing apparatus 100 according to the first embodiment, and processes performed by the respective units are the same except for the visible object determination unit 5 . The visible object determination unit 5 will be described later. In addition, the information processing apparatus 100 according to the present embodiment includes a payment information acquisition unit (not shown) that acquires user payment information, a temporary ID assignment unit (not shown) that assigns a temporary ID, a temporary ID and the user The information processing apparatus 100 differs from the information processing apparatus 100 according to the first embodiment in that it further includes a matching unit (not shown) for matching the payment information.

決済情報取得部を備えることで、情報処理装置100は、より正確な趣向情報を生成することができる。仮ID付与部を備えることで、情報処理装置100は、顔情報を一時的に他の顔情報と区別することができる。また、照合部を更に備えることで、仮IDとユーザの決済情報とを照合することができる。 By including the payment information acquisition unit, the information processing apparatus 100 can generate more accurate preference information. By including the temporary ID assigning unit, the information processing apparatus 100 can temporarily distinguish face information from other face information. Further, by further including a collation unit, it is possible to collate the temporary ID and the user's payment information.

実施形態1においては、ユーザがECサービスを利用して商品を購入する形態について説明したが、本変形例では、ユーザが実店舗で商品を購入する形態について説明する。 In Embodiment 1, a mode in which a user purchases a product using an EC service has been described, but in this modified example, a mode in which a user purchases a product at a physical store will be described.

実施形態1において、情報処理装置100は、ユーザの個人情報をまず取得する。これは、例えば、ショッピングサイトにおいて、ユーザがIDおよびパスワードを入力して、ショッピングサイトにログインすることに相当するが、実店舗では、ユーザが予めログインする場面は稀である。 In the first embodiment, the information processing apparatus 100 first acquires user's personal information. For example, in a shopping site, this corresponds to a user entering an ID and a password to log in to the shopping site.

本変形例においては、例えば、情報処理装置は、決済情報取得部から決済情報を取得した後に、または決済情報と同時にユーザ情報を取得する。一例として、店舗内の商品の陳列棚等に撮像部を設置し、ユーザが商品を選んでいる際のユーザの視線、瞬きおよび瞳孔の状態等を検出できるようにする。ユーザ情報が取得されるまでは、例えば、ユーザには仮ID付与部が仮のIDを付与しておき、ユーザが視認している商品の情報等を仮ID情報として、キャッシュメモリ等に格納してもよい。ユーザがレジでクレジットカード等、ユーザ情報が紐付けられている媒体を使用して決済を行った際に、初めて決済情報およびユーザ情報が取得されることになる。例えば、レジにも撮像部を設置しておき、陳列棚の撮像部から取得した画像と、レジの撮像部から取得した画像とを同期させた上で、どの仮IDのユーザが決済を行ったか判定し、照合部が、仮ID情報とユーザの決済情報とを、または仮ID情報とユーザ情報とを照合してもよい。 In this modification, for example, the information processing device acquires the user information after acquiring the payment information from the payment information acquiring unit or at the same time as the payment information. As an example, an imaging unit is installed on a product display shelf or the like in a store so that the user's line of sight, blink, pupil state, and the like when the user is selecting products can be detected. Until the user information is acquired, for example, the temporary ID assigning unit assigns a temporary ID to the user, and stores information such as product information visually recognized by the user in a cache memory or the like as temporary ID information. may Payment information and user information are acquired for the first time when a user makes a payment at a cash register using a medium with which user information is linked, such as a credit card. For example, an imaging unit is also installed at the cash register, and after synchronizing the image acquired from the imaging unit of the display shelf with the image acquired from the imaging unit of the cash register, it is possible to determine which temporary ID user made the payment. The matching unit may match the temporary ID information and the user's payment information, or the temporary ID information and the user information.

なお、仮IDのユーザが、現金で決済を行った場合等、ユーザ情報と照合できない方法で決済を行った場合は、仮ID情報を破棄してもよい。 It should be noted that if the user of the temporary ID makes a payment by a method that cannot be compared with the user information, such as when the payment is made in cash, the temporary ID information may be discarded.

<実施形態2>
本実施形態に係る情報処理装置は、学習支援装置である。学習支援装置の形態としては、例えばEラーニングを実施する装置が挙げられる。本実施形態において、情報処理装置は、複数の選択問題に解答する学習者の推定理解度を生成する。
<Embodiment 2>
The information processing device according to this embodiment is a learning support device. As a form of the learning support device, for example, there is a device that implements E-learning. In this embodiment, the information processing device generates an estimated degree of comprehension of the learner who answers the multiple choice questions.

図13は、本実施形態に係る情報処理装置が表示する問題文および解答選択肢の一例である。学習者は、図13のように、表示された問題文を読み、解答の選択肢を読んだ上で、正解だと思う選択肢を選択する。このような選択式の問題では、学習者が、最終的に正解である選択肢を選択した場合であっても、学習者が本当にその問題を理解した上で正解したとは限らない。複数の選択肢で迷った結果、偶然正解する場合もあれば、問題文を読まずにある選択肢を選択した結果、偶然正解する場合もある。本実施形態に係る情報処理装置は、学習者が該解答に至るまでの過程を考慮して、学習者の推定理解度を出力する。このように、推定理解度を出力することで、学習者本人、又は、学習者を指導する第三者が、該学習者の理解度を正確に知ることができる。 FIG. 13 is an example of question sentences and answer options displayed by the information processing apparatus according to the present embodiment. As shown in FIG. 13, the learner reads the displayed question sentence, reads the answer options, and selects the option that he/she thinks is the correct answer. In such multiple-choice questions, even if the learner finally selects the correct option, the learner does not necessarily understand the question and answer correctly. As a result of getting lost between multiple options, you may accidentally get the correct answer, or as a result of choosing an option without reading the question text, you may accidentally get the correct answer. The information processing apparatus according to the present embodiment outputs the estimated comprehension level of the learner in consideration of the process of the learner reaching the answer. By outputting the estimated degree of comprehension in this way, the learner himself/herself or a third party who instructs the learner can accurately know the degree of understanding of the learner.

本実施形態に係る情報処理装置は、実施形態1と同じく、ユーザ情報取得部1と、顔情報取得部2と、状態検出部4と、視認オブジェクト判定部5と、趣向情報生成部6と、プログラム実行部30とを備えている。 As in the first embodiment, the information processing apparatus according to the present embodiment includes a user information acquisition unit 1, a face information acquisition unit 2, a state detection unit 4, a visible object determination unit 5, a preference information generation unit 6, and a program execution unit 30 .

ユーザ情報取得部1は、予め登録された学習者をユーザとして、該ユーザの情報を取得する。 The user information acquisition unit 1 acquires information on a pre-registered learner as a user.

顔情報取得部2は、ユーザの顔情報を取得する。顔情報取得部2が行うユーザの顔情報の取得は、実施形態1の顔情報取得部2と同じ処理を用いればよい。 The face information acquisition unit 2 acquires face information of the user. Acquisition of the user's face information performed by the face information acquisition unit 2 may use the same processing as that of the face information acquisition unit 2 of the first embodiment.

状態検出部4は、顔情報取得部2が取得したユーザの顔情報から上記ユーザの状態を検出する。検出方法は、実施形態1の状態検出部4と同じ判定方法を用いればよい。 The state detection unit 4 detects the state of the user from the user's face information acquired by the face information acquisition unit 2 . As for the detection method, the same determination method as that of the state detection unit 4 of the first embodiment may be used.

視認オブジェクト判定部5は、状態検出部4が検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する。視認オブジェクト判定部5は、ユーザが閲覧しているページの配置情報を更に参照して、ユーザが視認しているオブジェクトを判定してもよい。 The visible object determination unit 5 refers to the result detected by the state detection unit 4 and determines the object visually recognized by the user. The visible object determination unit 5 may further refer to the layout information of the page that the user is viewing to determine the object that the user is viewing.

また、視認オブジェクト判定部5は、状態検出部4が検出した結果を参照し、ユーザの集中度およびユーザの感情のうち少なくとも1つを更に判定してもよい。視認オブジェクト判定部5が行う判定方法は、実施形態1の視認オブジェクト判定部5の判定方法と同じ方法を用いればよい。本実施形態において、ユーザが視認しているオブジェクトとは、ユーザが視認している問題文および解答の選択肢である。本実施形態において、ユーザの感情は、例えば、自信に満ちている、困っている等、問題を解いているときの学習者の感情である。 Also, the visible object determination unit 5 may refer to the result detected by the state detection unit 4 and further determine at least one of the user's degree of concentration and the user's emotion. The determination method performed by the visible object determination unit 5 may be the same method as the determination method of the visible object determination unit 5 of the first embodiment. In this embodiment, the object visually recognized by the user is the question text and answer options visually recognized by the user. In this embodiment, the user's emotion is the learner's emotion when solving the problem, such as being confident or embarrassed.

本実施形態において、趣向情報生成部6が生成する趣向情報は、ある問題に解答したユーザの推定理解度である。ここで、推定理解度とは、学習者(ユーザ)が該解答に至るまでの過程のみを考慮した上で、学習者の理解度を推定するための度合いである。趣向情報生成部6は、ユーザ情報取得部1から取得したユーザ情報および視認オブジェクト判定部5から取得した判定結果を参照して、学習者の推定理解度を生成する。一例として、視認オブジェクト判定部5が、学習者が何度も視線を向けていると判定したオブジェクト、すなわち、何度も読み返している解答の選択肢について、趣向情報生成部6は、学習者が正解の候補として迷った選択肢であると判定し、推定理解度を生成する。本実施形態において、趣向情報生成部6は、ユーザがどの選択肢を実際に選択したかの結果は考慮せず、ユーザ情報および判定結果から学習者の推定理解度を生成する。 In this embodiment, the preference information generated by the preference information generation unit 6 is the estimated degree of comprehension of the user who answered a certain question. Here, the estimated degree of comprehension is a degree for estimating the degree of comprehension of the learner (user) after considering only the process by which the learner (user) reached the answer. The preference information generation unit 6 refers to the user information acquired from the user information acquisition unit 1 and the determination result acquired from the visible object determination unit 5 to generate an estimated understanding level of the learner. As an example, the visual recognition object determination unit 5 determines that the learner is looking at an object many times, that is, the answer option that the learner has read many times. It is determined that the candidate is a questionable choice, and an estimated degree of comprehension is generated. In the present embodiment, the preference information generator 6 generates the learner's estimated degree of comprehension from the user information and the determination result without considering which option the user actually selected.

これにより、学習者の推定理解度を好適に生成することができる。 Thereby, a learner's estimated comprehension degree can be suitably generated.

図14は、趣向情報生成部6が生成する情報の一例である。図14は、趣向情報生成部6が生成する情報の一例である。図14において、「ID」は、学習者を識別するための情報、「迷った選択肢」は、視認オブジェクト判定部5において、学習者が視認していたと判定された選択肢であり、「迷わなかった選択肢」は、学習者がそれほど視認していなかったと判定された選択肢である。「推定理解度」は、「迷った選択肢」および「迷わなかった選択肢」を総合的に判定し、学習者の理解度を5段階で示した結果である。本例において、解答の選択肢はa~dの4つであり、正解の選択肢はaである。 FIG. 14 shows an example of information generated by the preference information generation unit 6. As shown in FIG. FIG. 14 shows an example of information generated by the preference information generation unit 6. As shown in FIG. In FIG. 14, "ID" is information for identifying the learner; "Option" is an option determined that the learner did not visually recognize so much. The "estimated degree of comprehension" is the result of comprehensively judging the "choices that were confused" and the "choices that were not hesitated" and showing the comprehension of the learner in 5 stages. In this example, there are four answer options a to d, and the correct answer option is a.

学習者A~Dの推定理解度について、それぞれ以下に説明する。 The estimated comprehension levels of the learners A to D will be explained below.

学習者Aは、正解である選択肢a以外に、選択肢bおよびcも視認していたため、学習者Aは、選択肢a、bおよびcで迷ったといえる。逆に、学習者Aは、選択肢dについては、それほど視認していなかったため、選択肢dを一読した上で正解の候補から除外していた可能性が高いといえる。このことより、学習者Aは、選択肢dを正解の候補から除外するだけの理解度はあったと趣向情報生成部6が判定し、中程度の理解度として推定理解度「3」を生成する。 Since the learner A visually recognized the options b and c in addition to the correct option a, it can be said that the learner A hesitated among the options a, b, and c. Conversely, since learner A did not visually recognize option d that much, it can be said that there is a high possibility that learner A read option d and excluded it from the correct candidates. From this, the preference information generation unit 6 determines that learner A has enough understanding to exclude option d from the correct candidates, and generates an estimated understanding of "3" as an intermediate level of understanding.

学習者Bは、正解である選択肢aと、選択肢bとを視認しており、選択肢cおよびdをそれほど視認していなかったことより、選択肢aとbとで迷ったといえる。選択肢aおよびbのどちらかが正解であると絞り込んでいる点で、趣向情報生成部6は、学習者Bの推定理解度を学習者Aよりも高い「4」とする。 It can be said that learner B was at a loss between options a and b because he visually recognized option a and option b, which are the correct answers, and did not visually recognize options c and d so much. Since either option a or b is narrowed down to be the correct answer, the preference information generation unit 6 sets the estimated understanding level of learner B to "4", which is higher than that of learner A. FIG.

学習者Cは、問題文および選択肢を一読した上で、迷わず即答した。このことより、趣向情報生成部6は、学習者Cの理解度が高いと判定し、推定理解度「5」を生成する。 Learner C read the question sentences and options, and immediately answered without hesitation. From this, the preference information generation unit 6 determines that the degree of understanding of the learner C is high, and generates an estimated degree of understanding of "5".

学習者Dは、選択肢a以外の選択肢b、c、およびdを視認していることから、正解である選択肢aを最初から正解の候補として含まず、選択肢b、c、およびdで迷ったといえる。このことより、趣向情報生成部6は、学習者Dの理解度はそれほど高くないと判定し、推定理解度「2」を生成する。 Since learner D visually recognizes options b, c, and d other than option a, it can be said that option a, which is the correct answer, was not included as a candidate for the correct answer from the beginning, and was at a loss between options b, c, and d. . From this, the preference information generation unit 6 determines that the degree of understanding of the learner D is not so high, and generates an estimated degree of understanding of "2".

学習者Eは、全ての選択肢を同じように視認し、全ての選択肢で迷ったといえる。このことより、趣向情報生成部6は、学習者Eの理解度はそれほど高くないと判定し、推定理解度「1」を生成する。 It can be said that the learner E visually recognized all the options in the same way and hesitated over all the options. Based on this, the preference information generation unit 6 determines that the degree of understanding of the learner E is not so high, and generates an estimated degree of understanding "1".

(プログラム実行部2-1)
プログラム実行部30は、趣向情報生成部6が生成した推定理解度を可視化したオブジェクトを含む表示データを外部の表示装置へ出力してもよい。表示データの一例として、グラフが挙げられる。
(Program execution unit 2-1)
The program execution unit 30 may output display data including an object that visualizes the estimated comprehension level generated by the preference information generation unit 6 to an external display device. An example of display data is a graph.

図15は、問題文5つに解答した、ある学習者の推定理解度を棒グラフに示したものである。可視化の方法は、限定されず、レーダチャート等を用いてもよい。また、図15は、1人の学習者の推定理解度を示しているが、同じ問題を解いた複数の学習者の平均の推定理解度等を併せて表示してもよい。 FIG. 15 is a bar graph showing the estimated degree of comprehension of a learner who answered five question sentences. The visualization method is not limited, and a radar chart or the like may be used. Moreover, although FIG. 15 shows the estimated comprehension level of one learner, the average estimated comprehension level of a plurality of learners who have solved the same problem may be displayed together.

これにより、学習者の推定理解度を可視化することができる。 This makes it possible to visualize the estimated comprehension level of the learner.

本実施形態において、趣向情報生成部6が生成する趣向情報の形態は、特に限定されない。図14で示すように、各問題における複数の学習者の推定理解度を示す情報であってもよいし、図15のように、各学習者における解答済みの複数の問題の推定理解度を示す情報であってもよい。 In this embodiment, the form of the preference information generated by the preference information generation unit 6 is not particularly limited. As shown in FIG. 14, it may be information indicating the estimated understanding of multiple learners for each question, or as shown in FIG. 15, showing the estimated understanding of multiple questions answered by each learner It may be information.

本実施形態に係る情報処理装置は、例えば、以下の事項を更に判定して、推定理解度を生成してもよい。 For example, the information processing apparatus according to the present embodiment may further determine the following items to generate an estimated comprehension level.

問題文および解答の選択肢の文全体を一読するのに最低限必要であるとされる閾値の時間より短い時間で解答した場合は、そもそも学習者が問題文および選択肢の文を読まずに解答した可能性が高く、理解した上での解答ではないといえる。この場合、趣向情報生成部6は、推定理解度を下げる等の処理を行ってもよい。 If the learner answered in less than the minimum threshold time required to read the entire question and answer option sentences, the learner answered without reading the question and answer option sentences in the first place. It can be said that the possibility is high and it is not an answer based on understanding. In this case, the preference information generation unit 6 may perform processing such as lowering the estimated comprehension level.

また、解答の選択肢に重みづけをした上で、学習者が複数の選択肢を解答の候補として迷った場合に、その選択肢の重みを推定理解度に反映させてもよい。例えば、事前に学習をしたはずの学習者なら通常選び得ない解答の選択肢が解答の候補とされた場合、趣向情報生成部6は、推定理解度を下げる等の処理を行ってもよい。 Further, after weighting the answer options, if the learner is unsure of which answer options to choose, the weight of the option may be reflected in the estimated comprehension level. For example, when an answer option that a learner who should have studied in advance cannot normally choose is selected as an answer candidate, the preference information generation unit 6 may perform processing such as lowering the estimated degree of comprehension.

(プログラム実行部2-2)
プログラム実行部30は、趣向情報生成部6から取得した趣向情報に基づいた提案情報をユーザに提案する。本実施形態において、提案情報とは、例えば、趣向情報生成部6が生成する趣向情報に含まれる、各学習者における解答済みの複数の問題のうち推定理解度が低い問題について学習者に復習させるための情報である。復習させるための情報とは、具体的には、推定理解度が低い問題を学習者に理解させるための解説等である。復習させるための情報とは、更に具体的には、「英文法の過去完了形についての理解が低いようです。」、「教科書10ページから13ページを再度復習してください。」等のメッセージであってもよい。
(Program execution unit 2-2)
The program execution unit 30 proposes to the user proposal information based on the preference information acquired from the preference information generation unit 6 . In the present embodiment, the suggestion information is, for example, made the learner review a question with a low estimated degree of understanding among the plurality of questions answered by each learner, which is included in the preference information generated by the preference information generation unit 6. It is information for Specifically, the information for reviewing is a commentary or the like for making the learner understand a question with a low estimated degree of comprehension. More specifically, the information for reviewing is a message such as "It seems that your understanding of the past perfect tense of English grammar is low.", "Please review pages 10 to 13 of the textbook again." There may be.

提案情報の提案の方法として、例えば、学習者が所定の複数の問題を解き終わった後、解答の正誤を確認する画面において、プログラム実行部30が提案情報を表示部に表示してもよい。また、プログラム実行部30は、メール、ソーシャルネットワークサービス(SNS)およびインスタントメッセージ(IM)等の通信手段を用いて、生成した提案情報を学習者に送信してもよい。 As a method of proposing the suggestion information, for example, after the learner finishes solving a plurality of predetermined questions, the program execution unit 30 may display the suggestion information on the display unit on the screen for confirming whether the answers are correct or not. Further, the program execution unit 30 may transmit the generated proposal information to the learner using communication means such as e-mail, social network service (SNS), and instant message (IM).

このように、プログラム実行部30が提案情報を学習者に提案することで、学習者は、自身の推定理解度に基づいた情報を享受することができる。 In this way, the program execution unit 30 proposes the suggested information to the learner, so that the learner can receive information based on his/her estimated degree of comprehension.

プログラム実行部30は、ユーザが提案情報を視認したか否かを判定してもよい。ユーザが提案情報を視認したか否かの判定は、例えば、学習者に提案した、問題を復習させるための情報を表示した画面を、学習者が視認したか否かの情報をプログラム実行部30が参照することにより判定してもよい。学習者が視認したか否かの情報は、例えば、視認オブジェクト判定部5より取得する。視認オブジェクト判定部5は、例えば、実施形態1の(視認オブジェクト判定部)で記載の処理を行えばよい。 The program execution unit 30 may determine whether or not the user has viewed the suggested information. The determination as to whether or not the user has viewed the suggested information is made by, for example, the program execution unit 30 sending information as to whether or not the learner has viewed a screen displaying information for reviewing questions proposed to the learner. may be determined by referring to Information as to whether or not the learner visually recognizes the object is acquired from the visually recognized object determination unit 5, for example. The visible object determination unit 5 may perform, for example, the processing described in the (visible object determination unit) of the first embodiment.

また、プログラム実行部30は、上述の判定の結果に基づいて評価を行ってもよい。ここで、評価とは、例えば、学習者へ提案した、問題を復習させるための情報(提案情報)が適当であったかの評価である。一例として、プログラム実行部30は、問題を復習させるための情報を視認した学習者が、再度問題を解くためのサイトにログインしたか、実際に問題を解いたか等の情報を参照することにより評価を行う。一例として、問題を復習させるための情報を提案した全学習者の人数における、再度問題を解いた学習者の人数の割合を評価値としてもよい。 Also, the program execution unit 30 may perform evaluation based on the result of the determination described above. Here, the evaluation is, for example, an evaluation as to whether or not the information (suggestion information) proposed to the learner for reviewing the question was appropriate. As an example, the program execution unit 30 evaluates by referring to information such as whether the learner who visually recognized the information for reviewing the problem logged in to the site for solving the problem again or actually solved the problem. I do. As an example, the evaluation value may be the ratio of the number of learners who solved the problem again to the total number of learners who proposed information for reviewing the problem.

(変形例2-1)
情報処理装置100は、選択情報取得部(不図示)を更に備えてもよい。選択情報取得部は、ユーザの選択情報を取得する。本実施形態において、選択情報とは、学習者が選択した選択肢の番号である。
(Modification 2-1)
The information processing apparatus 100 may further include a selection information acquisition section (not shown). The selection information acquisition unit acquires user selection information. In this embodiment, the selection information is the number of the option selected by the learner.

本変形例に係る情報処理装置は、ユーザ情報取得部1と、顔情報取得部2と、状態検出部4と、視認オブジェクト判定部5と、選択情報取得部と、趣向情報生成部6とを備えている。 The information processing apparatus according to this modification includes a user information acquisition unit 1, a face information acquisition unit 2, a state detection unit 4, a visible object determination unit 5, a selection information acquisition unit, and a preference information generation unit 6. I have.

ユーザ情報取得部1、顔情報取得部2、状態検出部4、および視認オブジェクト判定部5の機能は、実施形態2で説明した部材の機能と同じであるため、その説明を省略する。 The functions of the user information acquisition unit 1, the face information acquisition unit 2, the state detection unit 4, and the visible object determination unit 5 are the same as the functions of the members described in the second embodiment, so description thereof will be omitted.

趣向情報生成部6は、ユーザ情報取得部1から取得したユーザ情報、視認オブジェクト判定部5から取得した判定結果、および選択情報取得部から取得した選択情報を参照して、学習者の推定理解度を生成する。一例として、視認オブジェクト判定部5が、学習者が何度も視線を向けていると判定したオブジェクト、すなわち、何度も読み返している解答の選択肢について、趣向情報生成部6は、学習者が正解の候補として迷った選択肢であると判定し、推定理解度を生成する。 The preference information generation unit 6 refers to the user information acquired from the user information acquisition unit 1, the determination result acquired from the visible object determination unit 5, and the selection information acquired from the selection information acquisition unit, and estimates the learner's degree of understanding. to generate As an example, the visual recognition object determination unit 5 determines that the learner is looking at an object many times, that is, the answer option that the learner has read many times. It is determined that the candidate is a questionable choice, and an estimated degree of comprehension is generated.

図16は、趣向情報生成部6が生成する情報の一例である。図16において、「ID」は、学習者を識別するための情報、「選択番号」は、各IDの学習者が実際に選択した選択肢の番号、「正否」は、解答の正否である。「迷った選択肢」とは、視認オブジェクト判定部5において、学習者が視認していたと判定された選択肢であり、「迷わなかった選択肢」とは、学習者がそれほど視認していなかったと判定された選択肢である。「推定理解度」は、「正否」、「迷った選択肢」および「迷わなかった選択肢」を総合的に判定し、学習者の理解度を5段階で示した結果である。本例において、解答の選択肢はa~dの4つであり、正解の選択肢はaである。 FIG. 16 shows an example of information generated by the preference information generation unit 6. As shown in FIG. In FIG. 16, "ID" is information for identifying the learner, "Selection number" is the number of the option actually selected by the learner of each ID, and "Correctness" is the correctness of the answer. “Choices that were lost” are choices that the learner has visually recognized in the visible object determination unit 5. It is an option. The "estimated degree of comprehension" is the result of comprehensively judging "right or wrong," "questionable options," and "not-questionable options," and indicating the learner's level of understanding on a five-level scale. In this example, there are four answer options a to d, and the correct answer option is a.

図16において、問題に正解した、学習者A、CおよびDの推定理解度について説明する。学習者A、CおよびDは、何れも正解である選択肢aを選択したが、選択肢aを選択するに至った過程が異なる。 In FIG. 16, the estimated comprehension levels of learners A, C, and D who answered the question correctly will be described. Learners A, C, and D all selected option a, which is the correct answer, but the processes leading to the selection of option a are different.

学習者Aは、選択肢a以外に、選択肢bおよびcを視認していたため、学習者Aは、選択肢a、b、およびcで迷ったといえる。逆に、学習者Aは、選択肢dについては、それほど視認していなかったため、選択肢dを一読した上で正解の候補から除外していた可能性が高いといえる。このことより、学習者Aは、選択肢dを正解の候補から除外するだけの理解度はあったと趣向情報生成部6が判定し、中程度の理解度として推定理解度「3」を生成する。 Since learner A visually recognized options b and c in addition to option a, it can be said that learner A hesitated among options a, b, and c. Conversely, since learner A did not visually recognize option d that much, it can be said that there is a high possibility that learner A read option d and excluded it from the correct candidates. From this, the preference information generation unit 6 determines that learner A has enough understanding to exclude option d from the correct candidates, and generates an estimated understanding of "3" as an intermediate level of understanding.

学習者Cは、問題文および選択肢を一読した上で、選択肢aのみを視認し、選択肢aを正解として選択した。このことより、学習者Cは、理解度が高いと趣向情報生成部6が判定し、推定理解度「5」を生成する。 Learner C read the question and the options, visually recognized only option a, and selected option a as the correct answer. From this, the preference information generation unit 6 determines that the degree of understanding of the learner C is high, and generates an estimated degree of understanding of "5".

学習者Dは、選択肢a以外に、選択肢b、c、およびdも視認していたため、学習者Aは、選択肢全てで迷ったといえる。このことより、学習者Dは、最終的に正解の選択肢を選択したが、全ての選択肢で迷ったことから、偶然正解した可能性が高く、理解度はそれほど高くないと趣向情報生成部6が判定し、推定理解度「2」を生成する。 Since the learner D visually recognized the options b, c, and d in addition to the option a, it can be said that the learner A hesitated over all the options. From this, learner D finally selected the correct option, but was at a loss with all the options. and generate an estimated comprehension level of "2".

また、問題に不正解であった、学習者BおよびEの推定理解度についても同様に判定される。例えば、学習者Bは、不正解であったが、選択肢aおよびbで迷い、その他の選択肢では迷わなかったことから、選択肢aおよびbまで絞り込むまでの理解度は備えていたと趣向情報生成部6は判定し、推定理解度「4」を生成する。また、学習者Eは、全ての選択肢で迷った挙句、結局不正解であったため、理解度が低いと趣向情報生成部6が判定し、推定理解度「1」を生成する。 Also, the estimated comprehension levels of learners B and E who answered the question incorrectly are determined in the same manner. For example, although learner B gave an incorrect answer, he hesitated between options a and b, and did not hesitate about other options. determines and produces an estimated comprehension of "4". In addition, since learner E was at a loss with all the options and ended up with an incorrect answer, the preference information generation unit 6 determines that the degree of understanding is low, and generates an estimated degree of understanding of "1".

本変形例においても、<実施形態2>で記載のように、プログラム実行部30が、推定理解度に基づき提案情報を提案し、推定理解度と、提案情報とに基づき、評価を行ってもよい。 Also in this modification, as described in <Embodiment 2>, the program execution unit 30 proposes proposal information based on the estimated understanding level, and performs evaluation based on the estimated understanding level and the proposal information. good.

ここでの評価は、<実施形態2>と同じく、学習者へ提案した、問題を復習させるための情報(提案情報)が適当であったかの評価である。本変形例では、問題を復習させるための情報を視認した学習者が、再度問題を解いた際に、該学習者の成績が向上したか否かの情報等を、更に考慮して評価を行ってもよい。 The evaluation here is, as in <Embodiment 2>, whether or not the information (proposed information) proposed to the learner for reviewing the question was appropriate. In this modified example, when the learner who has visually confirmed the information for reviewing the problem solves the problem again, information such as whether the learner's performance has improved or not is further considered for evaluation. may

<実施形態3>
本実施形態の情報処理装置100は、他の端末装置と趣向情報の共有を行う。図17は、情報処理装置100の構成要素を示すブロック図である。図17に示すように、本実施形態に係る情報処理装置100は、ユーザ情報取得部1、顔情報取得部2、状態検出部4、視認オブジェクト判定部5、趣向情報生成部6、プログラム実行部30、趣向共有依頼送信部20、趣向共有依頼受信部21、趣向共有依頼承認部22、および趣向共有部23を備える。趣向共有依頼送信部20、趣向共有依頼受信部21、趣向共有依頼承認部22、および趣向共有部23以外の部材の機能は、実施形態1で説明した部材の機能と同じであるため、その説明を省略する。
<Embodiment 3>
The information processing device 100 of this embodiment shares preference information with other terminal devices. FIG. 17 is a block diagram showing components of the information processing apparatus 100. As shown in FIG. As shown in FIG. 17, the information processing apparatus 100 according to the present embodiment includes a user information acquisition unit 1, a face information acquisition unit 2, a state detection unit 4, a visible object determination unit 5, a preference information generation unit 6, a program execution unit 30 , an interest sharing request transmitting section 20 , an interest sharing request receiving section 21 , an interest sharing request approval section 22 , and an interest sharing section 23 . The functions of members other than the preference sharing request transmission unit 20, the preference sharing request reception unit 21, the preference sharing request approval unit 22, and the preference sharing unit 23 are the same as the functions of the members described in the first embodiment. omitted.

図18は、本実施形態に係る情報処理システムの概要を示す図である。図18に示すように本実施形態に係る情報処理システムは、サーバ300と、複数の情報処理装置100の一例としての複数の端末装置(10、10a)とを備えている。 FIG. 18 is a diagram showing an outline of an information processing system according to this embodiment. As shown in FIG. 18, the information processing system according to the present embodiment includes a server 300 and a plurality of terminal devices (10, 10a) as an example of a plurality of information processing apparatuses 100. As shown in FIG.

趣向共有依頼送信部20は、サーバ300を介して他の端末に、趣向情報の共有を依頼するための情報を送信する。 The preference sharing request transmission unit 20 transmits information for requesting sharing of preference information to other terminals via the server 300 .

趣向共有依頼受信部21は、サーバ300を介して他の端末の趣向共有依頼送信部から、趣向情報の共有を依頼されたことの情報を受信する。趣向共有依頼受信部21は、受信した情報を趣向共有依頼承認部へ通知する。 The preference sharing request reception unit 21 receives information indicating that the preference information is requested to be shared from the preference sharing request transmission unit of another terminal via the server 300 . The taste sharing request receiving unit 21 notifies the received information to the taste sharing request approval unit.

趣向共有依頼承認部22は、趣向共有依頼受信部21から受信した情報に基づき、趣向情報を他の端末に送信してもよいか、ユーザに認可を求める通知を表示部に表示させる。この表示に基づき、ユーザは、認可をするか否かを示す操作入力を行い、趣向共有依頼承認部22は、該入力の情報を趣向共有部23に送信する。 Based on the information received from the preference sharing request receiving section 21, the preference sharing request approval section 22 causes the display section to display a notice asking the user for permission to transmit the preference information to another terminal. Based on this display, the user performs an operation input indicating whether or not to approve, and the preference sharing request approval section 22 transmits the input information to the preference sharing section 23 .

趣向共有部23は、趣向共有依頼承認部22から受信した情報が、認可を示す情報である場合、趣向情報生成部6から趣向情報を取得し、該趣向情報を、サーバ300を介して他の端末装置へ送信する。また、趣向共有部23は、サーバ300を介して他の端末から趣向情報を受信し、自身の端末装置の趣向情報および他の端末の趣向情報を合わせて両者の趣向情報を生成し、生成した両者の趣向情報の少なくとも一部を表示部12に表示させる。具体的には、両者の趣向情報を端末装置に表示させてもよいし、他の端末からの趣向情報のみを自身の端末装置に表示させてもよい。また、両者の趣向情報と、他の端末からの趣向情報のみとを、ユーザの操作等によって適宜切り換えて表示させてもよい。このような構成により、ユーザは、他の端末のユーザである相手の趣向情報を知ることができる。また、自分の趣向情報と、相手の趣向情報とを考慮した両者の趣向情報を知ることができる。 If the information received from the preference sharing request approval unit 22 is information indicating authorization, the preference sharing unit 23 acquires the preference information from the preference information generation unit 6, and transmits the preference information to other users via the server 300. Send to the terminal device. Further, the preference sharing unit 23 receives preference information from another terminal via the server 300, combines the preference information of its own terminal device and the preference information of the other terminal, and generates the preference information of both. At least part of the preference information of both parties is displayed on the display unit 12 . Specifically, the preference information of both terminals may be displayed on the terminal device, or only the preference information from the other terminal may be displayed on the own terminal device. Also, the preference information of both terminals and only the preference information from the other terminal may be switched and displayed as appropriate by the user's operation or the like. With such a configuration, the user can know the preference information of the other party who is the user of the other terminal. In addition, it is possible to know the taste information of both parties considering the taste information of the user and the taste information of the other party.

サーバ300は、上述した趣向情報の共有を依頼するための情報を、送信元の端末装置の端末ID又はユーザID、および、送信先の端末装置の端末ID又はユーザIDと関連付けて管理している。また、サーバ300は、「趣向情報」を、当該趣向情報の取得元の端末装置の端末ID又はユーザID、および当該趣向情報を共有可能な端末装置の端末ID又はユーザIDと関連付けて管理している。 The server 300 manages the information for requesting sharing of the preference information in association with the terminal ID or user ID of the terminal device of the transmission source and the terminal ID or user ID of the terminal device of the transmission destination. . In addition, the server 300 manages the “taste information” in association with the terminal ID or user ID of the terminal device from which the taste information is acquired and the terminal ID or user ID of the terminal device with which the taste information can be shared. there is

一例として、飲食店の趣向情報を共有する場合を説明する。ユーザAおよびユーザBが、二人で利用する飲食店を選択する際、ユーザAと、ユーザBとが、お互いの飲食店に関する趣向情報を共有することで、お互いの趣向が最も近い、又は同じ飲食店を選択することができる。 As an example, a case of sharing taste information of restaurants will be described. When user A and user B select a restaurant to use together, user A and user B share preference information about each other's restaurant so that their preferences are the closest or the same. You can choose a restaurant.

例えば、ユーザAの端末装置の趣向共有依頼送信部は、ユーザBの端末装置にユーザBの飲食店の趣向情報の共有を依頼するための情報を送信する。ユーザBの端末装置の趣向共有依頼受信部21は、ユーザAの趣向共有依頼送信部から受信した情報を趣向共有依頼承認部22へ通知し、ユーザBの端末装置の表示部に、趣向情報を他の端末に送信してもよいか、ユーザBに認可を求める通知をさせる。ユーザBが、認可をするための入力を行うことで、趣向共有依頼承認部22は、趣向共有部23に認可されたことの情報を送信する。趣向共有部23は、趣向情報生成部6から趣向情報を取得し、ユーザAの端末装置へ趣向情報を送信する。また、趣向情報生成部6は、ユーザAの端末装置から趣向情報を取得し、ユーザAおよびユーザBの趣向情報に基づき、二人の趣向情報を生成し、生成した結果を表示部12に表示させる。 For example, the taste sharing request transmission unit of the user A's terminal device transmits information for requesting user B's terminal device to share the taste information of restaurants of user B. FIG. The taste sharing request receiving unit 21 of the user B's terminal device notifies the taste sharing request approval unit 22 of the information received from the user A's taste sharing request transmitting unit, and displays the taste information on the display unit of the user B's terminal device. Let user B be notified asking for permission to transmit to other terminals. When the user B makes an input for approval, the preference sharing request approval unit 22 transmits information indicating the approval to the preference sharing unit 23 . The preference sharing unit 23 acquires the preference information from the preference information generation unit 6 and transmits the preference information to the user A's terminal device. Further, the preference information generation unit 6 acquires the preference information from the terminal device of the user A, generates the preference information of the two users based on the preference information of the user A and the user B, and displays the generated result on the display unit 12. Let

(プログラム実行部3)
プログラム実行部30は、実施形態1の(プログラム実行部1-1)で記載したように、ユーザに対応したアバター画像を生成し、状態検出部4が検出するユーザの状態、視認オブジェクト判定部5が判定するユーザが視認しているオブジェクト、ユーザの感情、および趣向情報生成部6から取得する趣向情報のうち少なくとも1つに応じたアバター画像を生成する。
(Program execution unit 3)
As described in (program execution unit 1-1) of the first embodiment, the program execution unit 30 generates an avatar image corresponding to the user, the user state detected by the state detection unit 4, and the visible object determination unit 5 generates an avatar image corresponding to at least one of the object visually recognized by the user determined by , the user's emotion, and the preference information acquired from the preference information generation unit 6 .

本実施形態において、プログラム実行部30は、生成したアバター画像を、例えば、ユーザ自身が見ることが出来るように、該ユーザの端末装置の表示部12に表示してもよいし、趣向共有部23を介して、他の端末装置へ送信してもよい。すなわち、複数ユーザの間で、趣向情報と共にアバター画像を共有してもよい。 In this embodiment, the program execution unit 30 may display the generated avatar image on the display unit 12 of the terminal device of the user so that the user can see the image, or the preference sharing unit 23 You may transmit to another terminal device via. That is, a plurality of users may share the avatar image together with the preference information.

このように、プログラム実行部30がアバター画像を生成することにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。また、複数のユーザの間でアバター画像を共有することで、端末装置の表示部を見ながらもユーザ同士の親近感を増すことが可能となる。 In this way, the program execution unit 30 generates an avatar image, making it possible to visualize the object that the user is visually recognizing, the user's emotion, and preference information. In addition, by sharing avatar images among a plurality of users, it is possible to increase a sense of familiarity between users while looking at the display section of the terminal device.

図19は、ユーザAおよびユーザBの趣向情報を表示した一例である。例えば、ユーザAの趣向情報およびユーザBの趣向情報のうち、両方に含まれていた店舗は、両者の共通する趣向情報として上位に表示する。図19では、例えば、ブラウザ画面16において、上段に表示されている店舗Y、P、X、およびCは、ユーザAおよびユーザBの共通の好みである店舗である。また、ブラウザ画面16がユーザAの端末装置の表示部12に表示されている場合、ユーザAの端末装置の表示部12には、ユーザBの好みの店舗のみが表示されていてもよい。 FIG. 19 is an example of displaying user A's and user B's preference information. For example, a store included in both user A's preference information and user B's preference information is displayed at a higher rank as preference information common to both. In FIG. 19, for example, stores Y, P, X, and C displayed at the top of the browser screen 16 are stores that are common favorites of user A and user B. In FIG. Further, when the browser screen 16 is displayed on the display unit 12 of the user A's terminal device, only the user B's favorite stores may be displayed on the display unit 12 of the user A's terminal device.

本実施形態のプログラム実行部30は、表示部12のレイアウトを適宜変更してもよい。プログラム実行部30の処理は、実施形態1に記載のプログラム実行部30の処理と同じである。 The program execution unit 30 of this embodiment may change the layout of the display unit 12 as appropriate. The processing of the program execution unit 30 is the same as the processing of the program execution unit 30 described in the first embodiment.

趣向情報を共有する端末の数は、特に限定されず、3つ以上の端末装置の間で共有されてもよい。 The number of terminals that share the preference information is not particularly limited, and the information may be shared among three or more terminal devices.

本実施形態では、端末装置が、趣向情報生成部6および趣向共有部23を備えており、複数の端末装置同士で趣向情報を共有する形態であったが、この形態に限定されない。図18に示す例において、サーバ300が、趣向情報生成部6および趣向共有部23を備え、サーバを経由して、複数のユーザがお互いの趣向情報を共有し、複数人の趣向情報を生成する形態であってもよい。 In this embodiment, the terminal device includes the preference information generation unit 6 and the preference sharing unit 23, and the preference information is shared among a plurality of terminal devices. However, the present invention is not limited to this form. In the example shown in FIG. 18, a server 300 includes a preference information generation unit 6 and a preference sharing unit 23, and multiple users share their preference information via the server to generate preference information for a plurality of users. may be in the form

サーバが趣向情報生成部6を備える構成については、実施形態4で説明する。 A configuration in which the server includes the preference information generation unit 6 will be described in a fourth embodiment.

<実施形態4>
〔情報処理装置400およびサーバ200の要部構成〕
本実施形態に係る情報処理装置について、図20を用いて説明する。図20は、本実施形態に係る情報処理装置400を備える端末装置10および本実施形態に係る情報処理装置であるサーバ200の構成要素を示すブロック図である。
<Embodiment 4>
[Main Configurations of Information Processing Device 400 and Server 200]
An information processing apparatus according to this embodiment will be described with reference to FIG. FIG. 20 is a block diagram showing components of a terminal device 10 including an information processing device 400 according to this embodiment and a server 200 which is an information processing device according to this embodiment.

端末装置10は、ユーザのユーザ情報および顔情報を取得し、取得した情報をサーバ200に送信し、サーバ200は受信した情報を参照して趣向情報を生成する。サーバ200は、生成した趣向情報を端末装置10に送信し、端末装置10は、趣向情報を取得する。 The terminal device 10 acquires the user information and face information of the user, transmits the acquired information to the server 200, and the server 200 refers to the received information to generate preference information. The server 200 transmits the generated preference information to the terminal device 10, and the terminal device 10 acquires the preference information.

本実施形態に係る情報処理装置400は、登録された特定のユーザのユーザ情報を取得するユーザ情報取得部1、ユーザの顔情報を取得する顔情報取得部2、ユーザのユーザ情報と、ユーザの顔情報とを参照して得られる趣向情報を取得する趣向情報取得部24、およびプログラム実行部30を備えている。また、情報処理装置を備える端末装置10は、表示部を更に備える。 The information processing apparatus 400 according to the present embodiment includes a user information acquisition unit 1 that acquires user information of a specific registered user, a face information acquisition unit 2 that acquires face information of the user, user information of the user, and A preference information acquisition unit 24 for acquiring preference information obtained by referring to face information, and a program execution unit 30 are provided. Moreover, the terminal device 10 including the information processing device further includes a display unit.

これにより、本実施形態に係る情報処理装置400は、ユーザの趣向情報を取得することができる。 Thereby, the information processing apparatus 400 according to the present embodiment can acquire the user's preference information.

ユーザ情報取得部1および顔情報取得部2は、実施形態1と同じく、それぞれ、ユーザ情報およびユーザの顔情報を取得する。 The user information acquisition unit 1 and the face information acquisition unit 2 acquire the user information and the user's face information, respectively, as in the first embodiment.

ユーザ情報には、ユーザの属性情報が含まれ、具体的なユーザの属性情報は、実施形態1で記載の属性情報と同じである。 User information includes user attribute information, and specific user attribute information is the same as the attribute information described in the first embodiment.

また、上記ユーザ情報には、上記ユーザを他のユーザと識別するためのユーザ識別情報が含まれ、具体的なユーザの識別情報は、実施形態1で記載の識別情報と同じである。 Further, the user information includes user identification information for identifying the user from other users, and specific user identification information is the same as the identification information described in the first embodiment.

これにより、ユーザの属性を取得することができる。また、ユーザ情報に、ユーザ識別情報が含まれることで、他のユーザと対象ユーザとを識別することができ、ユーザの趣向情報と、ユーザ情報とを紐づけることができる。 This makes it possible to acquire user attributes. In addition, since the user identification information is included in the user information, the target user can be identified from other users, and the user's preference information and the user information can be linked.

本実施形態では、図20に示すように、ユーザ情報取得部1、および顔情報取得部2が取得した情報を、サーバ200に送信する点で、実施形態1とは異なる。 This embodiment differs from the first embodiment in that the information acquired by the user information acquisition unit 1 and the face information acquisition unit 2 is transmitted to the server 200 as shown in FIG.

また、趣向情報取得部24は、サーバ200から趣向情報を取得し、取得した結果を表示部12に表示させる。 Further, the preference information acquisition unit 24 acquires the preference information from the server 200 and causes the display unit 12 to display the acquired result.

情報処理装置400は、趣向情報に基づきプログラムを実行するプログラム実行部(不図示)を更に備えてもよい。 The information processing apparatus 400 may further include a program execution unit (not shown) that executes a program based on preference information.

これにより、情報処理装置400は、ユーザの趣向情報に基づいたプログラムを実行することができる。 Thereby, the information processing apparatus 400 can execute a program based on the user's preference information.

(プログラム実行部4-1)
プログラム実行部30は、ユーザに対応したアバター画像であって、ユーザの状態、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報のうち少なくとも1つに応じたアバター画像を生成する。プログラム実行部が行うアバター画像の生成についての詳細は、実施形態1で説明した通りである。
(Program execution unit 4-1)
The program execution unit 30 generates an avatar image corresponding to the user and corresponding to at least one of the user's state, the object the user is viewing, the user's emotion, and preference information. The details of the avatar image generation performed by the program execution unit are as described in the first embodiment.

このように、プログラム実行部30がアバター画像を生成することにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。 In this way, the program execution unit 30 generates an avatar image, making it possible to visualize the object that the user is visually recognizing, the user's emotion, and preference information.

プログラム実行部30は、趣向情報に基づいた提案情報をユーザに提案し、趣向情報と、上記提案情報とに基づいた評価を行ってもよい。プログラム実行部が行う提案情報の提案および評価についての詳細は、実施形態1で説明した通りである。 The program execution unit 30 may propose proposal information based on the preference information to the user, and perform evaluation based on the preference information and the proposal information. The details of the proposal and evaluation of the proposal information performed by the program execution unit are as described in the first embodiment.

このように、プログラム実行部30が提案情報をユーザに提案することで、ユーザは、自身の趣向に基づいた情報を享受することができる。また、プログラム実行部30が評価を行うことで、提案情報が適当なものであったかの評価を行うことができる。 In this way, the program execution unit 30 proposes the proposal information to the user, so that the user can enjoy information based on his or her taste. In addition, evaluation by the program execution unit 30 makes it possible to evaluate whether or not the proposal information is appropriate.

プログラム実行部は、趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更してもよい。プログラム実行部が行う表示情報の変更についての詳細は、実施形態1で説明した通りである。 The program execution unit may change the display information to be displayed on the external display device based on the preference information. The details of the change of display information performed by the program execution unit are as described in the first embodiment.

これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。 Thereby, it is possible to provide each user with a layout or the like based on each user's preference information.

〔サーバ200の要部構成〕
図20に基づき、サーバ200について説明する。本実施形態に係るサーバ200は、登録された特定のユーザのユーザ情報を取得するユーザ情報取得部1aと、上記ユーザの顔情報を取得する顔情報取得部2aと、上記ユーザのユーザ情報と、上記ユーザの顔情報とを参照して、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成部6aと、上記趣向情報に基づきプログラムを実行するプログラム実行部30aを備えている。
[Main Configuration of Server 200]
The server 200 will be described based on FIG. The server 200 according to the present embodiment includes a user information acquisition unit 1a that acquires user information of a specific registered user, a face information acquisition unit 2a that acquires face information of the user, user information of the user, A preference information generation unit 6a for generating preference information about the user's preference by referring to the user's face information and a program execution unit 30a for executing a program based on the preference information.

これにより、サーバ200は、ユーザの趣向情報を好適に生成することができる。 Thereby, the server 200 can suitably generate the user's preference information.

図20に示すように、また、本実施形態に係るサーバ200は、趣向情報を送信する送信部19を更に備えている。 As shown in FIG. 20, the server 200 according to this embodiment further includes a transmission unit 19 that transmits preference information.

サーバ200が備えるユーザ情報取得部1aおよび顔情報取得部2aは、端末装置10内のユーザ情報取得部1および顔情報取得部2から、それぞれユーザ情報および顔情報を受信し、受信した情報を趣向情報生成部6aに送信する。 A user information acquisition unit 1a and a face information acquisition unit 2a provided in the server 200 receive user information and face information from the user information acquisition unit 1 and the face information acquisition unit 2 in the terminal device 10, respectively, and use the received information as a preference. It is transmitted to the information generator 6a.

趣向情報生成部6aは、受信したユーザ情報および顔情報を参照することにより、ユーザの趣向情報を生成する。趣向情報生成部6aの具体的な動作は、実施形態1において説明した趣向情報生成部6と同様であるが、図20に示すように、本実施形態に係るサーバ200の趣向情報生成部6aは、状態検出部4a、および視認オブジェクト判定部5aを備え得る。ここで、状態検出部4aおよび視認オブジェクト判定部5aの機能は、実施形態1において説明した状態検出部4および視認オブジェクト判定部5の機能と同じである。 The preference information generation unit 6a generates user preference information by referring to the received user information and face information. The specific operation of the preference information generation unit 6a is the same as that of the preference information generation unit 6 described in the first embodiment, but as shown in FIG. , a state detection unit 4a, and a visible object determination unit 5a. Here, the functions of the state detection unit 4a and the visible object determination unit 5a are the same as the functions of the state detection unit 4 and the visible object determination unit 5 described in the first embodiment.

このように、状態検出部4aと、視認オブジェクト判定部5aとを備えることで、サーバ200は、ユーザの状態を検出できると共に、ユーザが視認しているオブジェクトを好適に判定することができる。 By including the state detection unit 4a and the visible object determination unit 5a in this way, the server 200 can detect the state of the user and suitably determine the object visually recognized by the user.

なお、サーバ200と送受信を行う情報処理装置400が、顔情報取得部2が取得した顔情報からユーザの状態を検出する状態検出部と、状態検出部が検出した結果を参照し、上記ユーザが視認しているオブジェクト判定する視認オブジェクト判定部とを備えてもよい。 The information processing apparatus 400 that performs transmission/reception with the server 200 refers to a state detection unit that detects the state of the user from the face information acquired by the face information acquisition unit 2 and the result detected by the state detection unit. A visible object determination unit for determining a visually recognized object may be provided.

このように、状態検出部と、視認オブジェクト判定部とを備えることで、情報処理装置400は、ユーザの状態を検出できると共に、ユーザが視認しているオブジェクトを好適に判定することができる。 In this way, by including the state detection unit and the visible object determination unit, the information processing apparatus 400 can detect the user's state and suitably determine the object visually recognized by the user.

視認オブジェクト判定部は、実施形態1に係る視認オブジェクト判定部と同様に、上記ユーザが閲覧しているページの配置情報を更に参照して、ユーザが視認しているオブジェクトを判定する。 Similar to the visible object determination unit according to the first embodiment, the visible object determination unit further refers to the layout information of the page viewed by the user to determine the object viewed by the user.

このように視認オブジェクト判定部が、ページの配置情報を更に参照することで、ユーザがページ上のどのオブジェクトを視認しているか、正確に判定することができる。 In this way, the visible object determining unit further refers to the page layout information, so that it is possible to accurately determine which object on the page the user is visually recognizing.

また、視認オブジェクト判定部は、状態検出部が検出した結果を参照し、ユーザの集中度およびユーザの感情のうち少なくとも1つを更に判定してもよい。視認オブジェクト判定部の機能は、実施形態1に係る視認オブジェクト判定部5と同じである。 Also, the visible object determination unit may refer to the result detected by the state detection unit, and further determine at least one of the user's degree of concentration and the user's emotion. The function of the visible object determination unit is the same as that of the visible object determination unit 5 according to the first embodiment.

これにより、ユーザがどの程度オブジェクトに興味を持ち、どのような感情を持って該オブジェクトを視認しているかを判定することができる。 This makes it possible to determine to what extent the user is interested in the object and with what kind of emotion the user is visually recognizing the object.

情報処理装置100は、ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部(不図示)を更に備えてもよい。また、視認オブジェクト判定部は、画像取得部が取得した撮像画像と、上記状態検出部が検出した結果と、を参照して、上記ユーザが視認しているオブジェクトを判定してもよい。 The information processing apparatus 100 may further include an image acquisition unit (not shown) that acquires a captured image including the user's field of view from an imaging device worn by the user. Further, the visible object determination unit may determine the object visually recognized by the user by referring to the captured image acquired by the image acquisition unit and the result detected by the state detection unit.

画像取得部および視認オブジェクト判定部の機能は、実施形態1で記載の画像取得部15および視認オブジェクト判定部5の機能と同じである。 The functions of the image acquisition unit and the visible object determination unit are the same as the functions of the image acquisition unit 15 and the visible object determination unit 5 described in the first embodiment.

これにより、ユーザが視認しているオブジェクトを好適に判定することができる。 Thereby, the object visually recognized by the user can be suitably determined.

状態検出部が検出するユーザの状態は、実施形態1に係る状態検出部4と同じであり、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つである。 The state of the user detected by the state detection unit is the same as the state detection unit 4 according to the first embodiment, and includes the user's line of sight, pupil state, number of blinks, eyebrow movement, eyelid movement, cheek movement, At least one of nose movement, lip movement and jaw movement.

これにより、ユーザの集中度を好適に判定することができる。 As a result, the degree of concentration of the user can be suitably determined.

ここで、趣向情報は、実施形態1と同様に、ユーザの興味が強いオブジェクトおよび興味が弱いオブジェクトに関する情報である。 As in the first embodiment, the preference information is information about objects in which the user has a strong interest and objects in which the user has a weak interest.

これにより、サーバ200が備える趣向情報生成部6aは、各ユーザの興味が強いオブジェクトおよび興味の弱いオブジェクトの情報を知ることができ、趣向情報生成部は、重みづけを行った趣向情報を生成することができる。また、情報処理装置400が備える趣向情報取得部24が該趣向情報を取得することで、ユーザは、自身の趣向に基づいた趣向情報を取得することができる。 As a result, the preference information generation unit 6a provided in the server 200 can know the information of the object in which each user is strongly interested and the object in which the user is weakly interested, and the preference information generation unit generates weighted preference information. be able to. In addition, the user can acquire the preference information based on his/her own preference by the preference information acquisition unit 24 provided in the information processing apparatus 400 acquiring the preference information.

情報処理装置が、サーバであり、サーバが備える趣向情報生成部において趣向情報が生成される形態は、本実施形態に限定されず、上述した、実施形態1~3にも適用され得る。 The form in which the information processing apparatus is a server and the preference information generation unit provided in the server generates the preference information is not limited to this embodiment, and can be applied to the first to third embodiments described above.

このように、サーバが趣向情報生成部を備えることで、例えば、ユーザが使用する端末装置が常に同じでなくても、該ユーザの趣向情報をサーバ上で生成することができるという効果を奏する。ユーザのユーザ情報および顔情報さえ取得出来れば、ユーザが、パソコン、タブレット、スマートフォンなどいずれの端末装置を使用した場合においても、該ユーザの趣向情報を安定して生成することができる。 By providing the server with the preference information generation unit in this way, it is possible to generate the user's preference information on the server even if the terminal device used by the user is not always the same. As long as the user information and face information of the user can be obtained, the preference information of the user can be stably generated regardless of whether the user uses a terminal device such as a personal computer, a tablet, or a smart phone.

また、サーバが趣向情報生成部を備えることは、実施形態3に記載の複数ユーザの趣向情報を共有する形態においては、特に有用である。複数ユーザの趣向情報を共有する場合、例えば、サーバが趣向共有部を更に備えてもよい。このような構成により、複数ユーザの趣向情報をサーバ上で好適に生成することができる。 In addition, it is particularly useful for the server to include the preference information generation unit in the form of sharing the preference information of a plurality of users described in the third embodiment. When sharing preference information of a plurality of users, for example, the server may further include a preference sharing unit. With such a configuration, it is possible to suitably generate the preference information of a plurality of users on the server.

(プログラム実行部4-2)
プログラム実行部30aは、ユーザに対応したアバター画像であって、ユーザの状態、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報のうち少なくとも1つに応じたアバター画像を生成する。プログラム実行部30aが行う処理は、実施形態1の(プログラム実行部1-1)に記載の処理と同じである。
(Program execution unit 4-2)
The program execution unit 30a generates an avatar image corresponding to the user, which corresponds to at least one of the user's state, the object the user is viewing, the user's emotion, and preference information. The processing performed by the program execution unit 30a is the same as the processing described in (program execution unit 1-1) of the first embodiment.

これにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。 This makes it possible to visualize the object visually recognized by the user, the user's emotion, and preference information.

なお、本実施形態のプログラム実行部30aが生成するアバター画像は、送信部19を介して端末装置10の趣向情報取得部24に送信される。図20では、端末装置10にのみ送信される形態であるが、送信先の装置の種類および数は特に限定されず、複数の装置に送信されてもよい。 Note that the avatar image generated by the program execution unit 30 a of this embodiment is transmitted to the preference information acquisition unit 24 of the terminal device 10 via the transmission unit 19 . Although FIG. 20 shows a form in which transmission is performed only to the terminal device 10, the type and number of transmission destination devices are not particularly limited, and transmission may be performed to a plurality of devices.

このように、サーバが複数の装置にプログラム実行部30aが生成するアバター画像を送信することにより、複数のユーザが、アバター画像を見ることができる。 In this way, by the server transmitting the avatar image generated by the program execution unit 30a to a plurality of devices, a plurality of users can view the avatar image.

また、図20では、端末装置10のみから、顔情報およびユーザ情報を受信している形態であるが、顔情報およびユーザ情報を送信する装置の種類および数は特に限定されず、サーバ200は、複数の装置から顔情報およびユーザ情報を受信してもよい。この場合、サーバ200の趣向情報生成部6aは、複数のユーザの顔情報およびユーザ情報を参照することにより、各ユーザの趣向情報を生成してもよい。また、趣向情報生成部6aは、複数のユーザの顔情報およびユーザ情報を参照することにより、複数のユーザの趣向情報を統合した趣向情報を生成してもよい。プログラム実行部30aは、趣向情報生成部6aが生成した各ユーザの趣向情報を参照して、各ユーザに対応するアバター画像を生成してもよい。また、プログラム実行部30aは、あるユーザに対応するアバター画像を、他のユーザに関連付けられた端末装置に送信可能な構成としてもよい。一例として、プログラム実行部30aは、複数のユーザに対応するアバター画像を1つの仮想空間に表示させるような画像を生成し、当該画像を、当該複数のユーザに関連付けられた各々の端末装置に送信可能な構成としてもよい。より具体的には、プログラム実行部30aは、各ユーザに対応するアバター画像を、実店舗を模した仮想空間に配置し、各ユーザが実店舗でショッピングをしているように見せるための画像を生成してもよい。 Also, in FIG. 20, the face information and user information are received only from the terminal device 10, but the type and number of devices that transmit the face information and user information are not particularly limited. Facial information and user information may be received from multiple devices. In this case, the preference information generation unit 6a of the server 200 may generate the preference information of each user by referring to the face information and user information of a plurality of users. Further, the preference information generation unit 6a may generate preference information by integrating the preference information of a plurality of users by referring to the face information and user information of a plurality of users. The program execution unit 30a may refer to the preference information of each user generated by the preference information generation unit 6a to generate an avatar image corresponding to each user. Also, the program execution unit 30a may be configured to be able to transmit an avatar image corresponding to a certain user to a terminal device associated with another user. As an example, the program execution unit 30a generates an image that displays avatar images corresponding to a plurality of users in one virtual space, and transmits the image to each terminal device associated with the plurality of users. It is good also as possible composition. More specifically, the program execution unit 30a arranges an avatar image corresponding to each user in a virtual space modeled after an actual store, and creates an image that makes it look like each user is shopping at the actual store. may be generated.

このように、サーバが複数の装置から複数のユーザの顔情報およびユーザ情報を受信することにより、趣向情報生成部6aは複数のユーザの趣向情報を生成することができる。また、プログラム実行部30aは、複数のユーザの趣向情報を参照して、アバター画像を生成することができる。 In this way, the server receives face information and user information of a plurality of users from a plurality of devices, so that the preference information generating section 6a can generate preference information of a plurality of users. Also, the program execution unit 30a can generate an avatar image by referring to preference information of a plurality of users.

プログラム実行部30aは、趣向情報生成部6aが生成した趣向情報と、プログラム実行部30aが提案した提案情報とに基づいて評価を行ってもよい。プログラム実行部30aが行う提案情報の提案および評価についての詳細は、実施形態1で説明した通りである。 The program execution unit 30a may perform evaluation based on the preference information generated by the preference information generation unit 6a and the proposal information proposed by the program execution unit 30a. The details of the proposal and evaluation of the proposal information performed by the program execution unit 30a are as described in the first embodiment.

このように、プログラム実行部30aが提案情報をユーザに提案することで、ユーザは、自身の趣向に基づいた情報を享受することができる。また、プログラム実行部30aが評価を行うことで、提案情報が適当なものであったかの評価を行うことができる。 In this way, the program execution unit 30a proposes the proposal information to the user, so that the user can enjoy information based on his or her taste. In addition, evaluation by the program execution unit 30a makes it possible to evaluate whether the proposal information is appropriate.

プログラム実行部30aは、趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更してもよい。プログラム実行部30が行う表示情報の変更についての詳細は、実施形態1で説明した通りである。 The program execution unit 30a may change the display information to be displayed on the external display device based on the preference information. The details of the change of display information performed by the program execution unit 30 are as described in the first embodiment.

これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。 Thereby, it is possible to provide each user with a layout or the like based on each user's preference information.

〔ソフトウェアによる実現例〕
情報処理装置100の制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The control block of the information processing apparatus 100 may be implemented by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be implemented by software.

後者の場合、情報処理装置100は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などを更に備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the information processing apparatus 100 is provided with a computer that executes instructions of a program, which is software that implements each function. This computer includes, for example, at least one processor (control device) and at least one computer-readable recording medium storing the program. In the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present invention. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "non-temporary tangible medium" such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. In addition, a RAM (Random Access Memory) for developing the above program may be further provided. Also, the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. Note that one aspect of the present invention can also be implemented in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

本発明の各態様に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより上記情報処理装置をコンピュータにて実現させる情報処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The information processing device according to each aspect of the present invention may be realized by a computer. A control program for an information processing apparatus realized by a computer and a computer-readable recording medium recording it are also included in the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。更に、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.

1、1a ユーザ情報取得部
2、2a 顔情報取得部
4、4a 状態検出部
5、5a 視認オブジェクト判定部
6、6a 趣向情報生成部
15 画像取得部
30、30a プログラム実行部
24 趣向情報取得部
100、400 情報処理装置
1, 1a user information acquisition unit 2, 2a face information acquisition unit 4, 4a state detection unit 5, 5a visible object determination unit 6, 6a preference information generation unit 15 image acquisition unit 30, 30a program execution unit 24 preference information acquisition unit 100 , 400 information processing device

Claims (37)

登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、
上記ユーザの顔情報を取得する顔情報取得部と、
上記顔情報取得部が取得した顔情報から上記ユーザの状態を検出する状態検出部と、
上記状態検出部が検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部と、
上記状態検出部によるユーザの状態および上記視認オブジェクト判定部による判定結果を参照して、学習に関する上記ユーザの推定理解度を生成する理解度情報生成部と、
上記推定理解度に基づきプログラムを実行するプログラム実行部と、
を備えており、
上記プログラム実行部は、
上記推定理解度に基づいた提案情報を上記ユーザに提案し、
上記推定理解度と、上記提案情報とに基づいた評価を行うことを特徴とする情報処理装置。
a user information acquisition unit that acquires user information of a specific registered user;
a face information acquisition unit that acquires face information of the user;
a state detection unit that detects the state of the user from the face information acquired by the face information acquisition unit;
A visible object determination unit that refers to the result detected by the state detection unit and determines an object that the user is viewing;
a comprehension level information generation unit that generates an estimated comprehension level of the user regarding learning by referring to the user's state by the state detection unit and the determination result by the visible object determination unit;
a program execution unit that executes a program based on the estimated degree of comprehension;
and
The above program execution part
Proposing suggested information based on the estimated degree of understanding to the user,
An information processing apparatus , wherein an evaluation is performed based on the estimated degree of understanding and the proposal information .
上記推定理解度は、選択問題に対する上記ユーザの推定理解度である、請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein said estimated degree of comprehension is said user's estimated degree of comprehension of a selection question. 上記推定理解度は、上記ユーザが選択した解答の番号を含む、請求項2に記載の情報処理装置。 3. The information processing apparatus according to claim 2, wherein said estimated degree of comprehension includes an answer number selected by said user. 上記理解度情報生成部は、上記ユーザが最終的に選択した上記解答の番号の正否を参照して、上記推定理解度を生成する、請求項3に記載の情報処理装置。 4. The information processing apparatus according to claim 3, wherein said comprehension level information generation unit generates said estimated comprehension level by referring to whether the number of said answer finally selected by said user is correct or not. 上記視認オブジェクト判定部は、上記オブジェクトに対する上記ユーザによる視認の度合いに応じて、当該オブジェクトを、迷った選択肢及び迷わなかった選択肢の何れかに分類し、
上記理解度情報生成部は、ユーザの解答の正否、迷った選択肢、及び迷わなかった選択肢からなる群より選択される少なくとも1つを更に参照して、上記推定理解度を生成する請求項1~4の何れか1項に記載の情報処理装置。
The visible object determination unit classifies the object into either an undecided option or an unambiguous option according to the degree of recognition by the user of the object,
Claims 1-, wherein the comprehension level information generating unit generates the estimated comprehension level by further referring to at least one selected from the group consisting of the user's answer being correct or not, the choice that the user hesitated about, and the option that he did not hesitate about. 5. The information processing apparatus according to any one of 4.
上記視認オブジェクト判定部は、
上記ユーザが閲覧しているページの配置情報を更に参照して、上記ユーザが視認しているオブジェクトを判定することを特徴とする、請求項1~5の何れか1項に記載の情報処理装置。
The visible object determination unit
6. The information processing apparatus according to any one of claims 1 to 5, wherein the object viewed by the user is determined by further referring to layout information of the page viewed by the user. .
上記視認オブジェクト判定部は、
上記状態検出部が検出した結果を参照し、上記ユーザの集中度および上記ユーザの感情のうち少なくとも1つを更に判定することを特徴とする、請求項1~6の何れか1項に記載の情報処理装置。
The visible object determination unit
7. The method according to any one of claims 1 to 6, wherein at least one of the degree of concentration of the user and the emotion of the user is further determined with reference to the result detected by the state detection unit. Information processing equipment.
ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部を更に備え、
上記視認オブジェクト判定部は、
上記画像取得部が取得した撮像画像と、
上記状態検出部が検出した結果と、
を参照して、上記ユーザが視認しているオブジェクトを判定することを特徴とする請求項1~7の何れか1項に記載の情報処理装置。
Further comprising an image acquisition unit that acquires a captured image including the user's field of view from the imaging device worn by the user,
The visible object determination unit
a captured image acquired by the image acquiring unit;
a result detected by the state detection unit;
8. The information processing apparatus according to any one of claims 1 to 7, wherein the object viewed by the user is determined by referring to.
上記プログラム実行部は、
上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記推定理解度のうち少なくとも1つに応じたアバター画像を生成することを特徴とする請求項1~4の何れか1項に記載の情報処理装置。
The above program execution part
Generating an avatar image corresponding to the user, the avatar image corresponding to at least one of the user's state, an object viewed by the user, the user's emotion, and the estimated degree of understanding. 5. The information processing apparatus according to any one of claims 1 to 4.
上記プログラム実行部は、
上記推定理解度を、表示データとして外部の表示装置へ出力することを特徴とする請求項1~の何れか1項に記載の情報処理装置。
The above program execution part
10. The information processing apparatus according to any one of claims 1 to 9 , wherein the estimated comprehension level is output as display data to an external display device.
上記プログラム実行部は、
上記推定理解度を可視化したオブジェクトを含む表示データを外部の表示装置へ出力することを特徴とする請求項1~10の何れか1項に記載の情報処理装置。
The above program execution part
11. The information processing apparatus according to any one of claims 1 to 10 , wherein display data including an object that visualizes the estimated degree of comprehension is output to an external display device.
上記プログラム実行部は、
上記推定理解度に基づいて、外部の表示装置に表示させるための表示情報を変更することを特徴とする請求項1~11の何れか1項に記載の情報処理装置。
The above program execution part
12. The information processing apparatus according to any one of claims 1 to 11 , wherein display information to be displayed on an external display device is changed based on said estimated degree of comprehension.
上記ユーザ情報には、上記ユーザの属性情報が含まれる、請求項1~12の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 12 , wherein said user information includes attribute information of said user. 上記ユーザ情報には、上記ユーザを他のユーザと識別するためのユーザ識別情報が含まれる、請求項1~13の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 13 , wherein the user information includes user identification information for identifying the user from other users. 上記状態検出部が検出する上記ユーザの状態は、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つである、請求項1~14の何れか1項に記載の情報処理装置。 The state of the user detected by the state detection unit includes the user's line of sight, pupil state, number of blinks, eyebrow movement, eyelid movement, cheek movement, nose movement, lip movement, and jaw movement. 15. The information processing apparatus according to any one of claims 1 to 14 , wherein at least one of 請求項1に記載の情報処理装置としてコンピュータを機能させるための情報処理プログラムであって、
上記ユーザ情報取得部、上記顔情報取得部、上記状態検出部、上記視認オブジェクト判定部、上記理解度情報生成部、及び上記プログラム実行部としてコンピュータを機能させるための情報処理プログラム。
An information processing program for causing a computer to function as the information processing apparatus according to claim 1,
An information processing program for causing a computer to function as the user information acquisition unit, the face information acquisition unit, the state detection unit, the visible object determination unit, the comprehension level information generation unit, and the program execution unit.
登録された特定のユーザのユーザ情報を取得するユーザ情報取得ステップと、
上記ユーザの顔情報を取得する顔情報取得ステップと、
上記顔情報取得ステップにおいて取得した顔情報から上記ユーザの状態を検出する状態検出ステップと、
上記状態検出ステップにおいて検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定ステップと、
上記ユーザのユーザ情報と、上記視認オブジェクト判定ステップにおける判定結果とを参照して、学習に関する上記ユーザの推定理解度を生成する理解度情報生成ステップと、
上記推定理解度に基づきプログラムを実行するプログラム実行ステップと、
を含んでおり、
上記プログラム実行ステップは、
上記推定理解度に基づいた提案情報を上記ユーザに提案し、
上記推定理解度と、上記提案情報とに基づいた評価を行うことを特徴とする情報処理方法。
a user information acquisition step of acquiring user information of a specific registered user;
a face information obtaining step of obtaining face information of the user;
a state detection step of detecting the state of the user from the face information acquired in the face information acquisition step;
A visible object determination step for determining an object viewed by the user by referring to the result detected in the state detection step;
a comprehension level information generating step for generating an estimated comprehension level of the user regarding learning by referring to the user information of the user and the determination result in the visible object determining step;
a program execution step of executing a program based on the estimated degree of comprehension;
contains
The above program execution step is
Proposing suggested information based on the estimated degree of understanding to the user,
An information processing method , wherein an evaluation is performed based on the estimated degree of understanding and the proposed information .
登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、
上記ユーザの顔情報を取得する顔情報取得部と、
上記ユーザのユーザ情報と、上記ユーザの顔情報とを参照して得られる、学習に関する上記ユーザの推定理解度を取得する理解度情報取得部と、
上記推定理解度に基づきプログラムを実行するプログラム実行部と、
を備えており、
上記プログラム実行部は、
上記推定理解度に基づいた提案情報を上記ユーザに提案し、
上記推定理解度と、上記提案情報とに基づいた評価を行うことを特徴とする情報処理装置。
a user information acquisition unit that acquires user information of a specific registered user;
a face information acquisition unit that acquires face information of the user;
an understanding level information acquisition unit that acquires an estimated understanding level of the user regarding learning, which is obtained by referring to the user information of the user and the face information of the user;
a program execution unit that executes a program based on the estimated degree of comprehension;
and
The above program execution part
Proposing suggested information based on the estimated degree of understanding to the user,
An information processing apparatus , wherein an evaluation is performed based on the estimated degree of understanding and the proposal information .
上記推定理解度は、選択問題に対する上記ユーザの推定理解度である、請求項18に記載の情報処理装置。 19. The information processing apparatus according to claim 18 , wherein said estimated degree of understanding is said user's estimated degree of understanding of a selection question. 上記推定理解度は、上記ユーザが選択した解答の番号を含む、請求項19に記載の情報処理装置。 20. The information processing apparatus according to claim 19 , wherein said estimated degree of comprehension includes an answer number selected by said user. 上記理解度情報取得部は、上記ユーザが最終的に選択した上記解答の番号の正否を参照して、上記推定理解度を取得する、請求項20に記載の情報処理装置。 21. The information processing apparatus according to claim 20 , wherein said comprehension level information acquisition unit acquires said estimated comprehension level by referring to whether the number of said answer finally selected by said user is correct or not. 上記プログラム実行部は、
上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記推定理解度のうち少なくとも1つに応じたアバター画像を生成することを特徴とする請求項1821の何れか1項に記載の情報処理装置。
The above program execution part
Generating an avatar image corresponding to the user, the avatar image corresponding to at least one of the user's state, an object viewed by the user, the user's emotion, and the estimated degree of understanding. The information processing apparatus according to any one of claims 18-21 .
上記プログラム実行部は、
上記推定理解度に基づいて、外部の表示装置に表示させるための表示情報を変更することを特徴とする請求項1822の何れか1項に記載の情報処理装置。
The above program execution part
23. The information processing apparatus according to any one of claims 18 to 22 , wherein display information to be displayed on an external display device is changed based on said estimated degree of comprehension.
上記顔情報取得部が取得した顔情報から上記ユーザの状態を検出する状態検出部と、
上記状態検出部が検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部と、
を更に備えていることを特徴とする請求項1823の何れか1項に記載の情報処理装置。
a state detection unit that detects the state of the user from the face information acquired by the face information acquisition unit;
A visible object determination unit that refers to the result detected by the state detection unit and determines an object that the user is viewing;
24. The information processing apparatus according to any one of claims 18 to 23 , further comprising:
上記視認オブジェクト判定部は、上記オブジェクトに対する上記ユーザによる視認の度合いに応じて、当該オブジェクトを、迷った選択肢及び迷わなかった選択肢の何れかに分類し、
上記理解度情報取得部は、ユーザの解答の正否、迷った選択肢、及び迷わなかった選択肢からなる群より選択される少なくとも1つを更に参照して、上記推定理解度を取得する請求項24に記載の情報処理装置。
The visible object determination unit classifies the object into either an undecided option or an unambiguous option according to the degree of recognition by the user of the object,
25. The comprehension level information acquiring unit acquires the estimated comprehension level by further referring to at least one selected from the group consisting of whether the user's answer is right or wrong, the option that the user hesitates about, and the option that the user does not hesitate about. The information processing device described.
上記視認オブジェクト判定部は、
上記ユーザが閲覧しているページの配置情報を更に参照して、上記ユーザが視認しているオブジェクトを判定することを特徴とする、請求項24または25に記載の情報処理装置。
The visible object determination unit
26. The information processing apparatus according to claim 24 , wherein the object viewed by the user is determined by further referring to layout information of a page viewed by the user.
上記視認オブジェクト判定部は、
上記状態検出部が検出した結果を参照し、上記ユーザの集中度および上記ユーザの感情のうち少なくとも1つを更に判定することを特徴とする、請求項2426の何れか1項に記載の情報処理装置。
The visible object determination unit
27. The method according to any one of claims 24 to 26 , wherein at least one of the degree of concentration of the user and the emotion of the user is further determined with reference to the result detected by the state detection unit. Information processing equipment.
ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部を更に備え、
上記視認オブジェクト判定部は、
上記画像取得部が取得した撮像画像と、
上記状態検出部が検出した結果と、
を参照して、上記ユーザが視認しているオブジェクトを判定することを特徴とする請求項2427の何れか1項に記載の情報処理装置。
Further comprising an image acquisition unit that acquires a captured image including the user's field of view from the imaging device worn by the user,
The visible object determination unit
a captured image acquired by the image acquiring unit;
a result detected by the state detection unit;
28. The information processing apparatus according to any one of claims 24 to 27 , wherein the object viewed by the user is determined by referring to.
上記状態検出部が検出する上記ユーザの状態は、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つである、請求項2428の何れか1項に記載の情報処理装置。 The state of the user detected by the state detection unit includes the user's line of sight, pupil state, number of blinks, eyebrow movement, eyelid movement, cheek movement, nose movement, lip movement, and jaw movement. 29. The information processing apparatus according to any one of claims 24 to 28 , wherein at least one of 上記ユーザ情報には、上記ユーザの属性情報が含まれる、請求項2429の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 24 to 29 , wherein said user information includes attribute information of said user. 上記ユーザ情報には、上記ユーザを他のユーザと識別するためのユーザ識別情報が含まれる、請求項2430の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 24 to 30 , wherein said user information includes user identification information for identifying said user from other users. 登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、
上記ユーザの顔情報を取得する顔情報取得部と、
上記ユーザのユーザ情報と、上記ユーザの顔情報とを参照して、学習に関する上記ユーザの推定理解度を生成する理解度情報生成部と、
上記推定理解度に基づきプログラムを実行するプログラム実行部と、
を備えており、
上記プログラム実行部は、
上記推定理解度に基づいた提案情報を上記ユーザに提案し、
上記推定理解度と、上記提案情報とに基づいた評価を行うことを特徴とする情報処理装置。
a user information acquisition unit that acquires user information of a specific registered user;
a face information acquisition unit that acquires face information of the user;
a comprehension level information generation unit that generates an estimated comprehension level of the user regarding learning by referring to the user information of the user and the face information of the user;
a program execution unit that executes a program based on the estimated degree of comprehension;
and
The above program execution part
Proposing suggested information based on the estimated degree of understanding to the user,
An information processing apparatus , wherein an evaluation is performed based on the estimated degree of understanding and the proposal information .
上記推定理解度は、選択問題に対する上記ユーザの推定理解度である、請求項32に記載の情報処理装置。 33. The information processing apparatus according to claim 32 , wherein said estimated degree of understanding is said user's estimated degree of understanding of a selection question. 上記推定理解度は、上記ユーザが選択した解答の番号を含む、請求項33に記載の情報処理装置。 34. The information processing apparatus according to claim 33 , wherein said estimated degree of comprehension includes an answer number selected by said user. 上記理解度情報生成部は、上記ユーザが最終的に選択した上記解答の番号の正否を参照して、上記推定理解度を生成する、請求項34に記載の情報処理装置。 35. The information processing apparatus according to claim 34 , wherein said comprehension level information generation unit generates said estimated comprehension level by referring to the correctness of said answer number finally selected by said user. 上記プログラム実行部は、
上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記推定理解度のうち少なくとも1つに応じたアバター画像を生成することを特徴とする請求項3235の何れか1項に記載の情報処理装置。
The above program execution part
Generating an avatar image corresponding to the user, the avatar image corresponding to at least one of the user's state, an object viewed by the user, the user's emotion, and the estimated degree of understanding. 36. The information processing apparatus according to any one of claims 32-35 .
上記プログラム実行部は、
上記推定理解度に基づいて、外部の表示装置に表示させるための表示情報を変更することを特徴とする請求項3236の何れか1項に記載の情報処理装置。
The above program execution part
37. The information processing apparatus according to any one of claims 32 to 36 , wherein display information to be displayed on an external display device is changed based on said estimated degree of comprehension.
JP2019027568A 2019-02-19 2019-02-19 Information processing device, information processing method, and information processing program Active JP7263825B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019027568A JP7263825B2 (en) 2019-02-19 2019-02-19 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019027568A JP7263825B2 (en) 2019-02-19 2019-02-19 Information processing device, information processing method, and information processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018166228A Division JP6724090B2 (en) 2018-09-05 2018-09-05 Information processing apparatus, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2020038336A JP2020038336A (en) 2020-03-12
JP7263825B2 true JP7263825B2 (en) 2023-04-25

Family

ID=69737940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019027568A Active JP7263825B2 (en) 2019-02-19 2019-02-19 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7263825B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7382261B2 (en) * 2020-03-19 2023-11-16 株式会社日立製作所 Information processing device and method
JP2022104018A (en) 2020-12-28 2022-07-08 横河電機株式会社 Apparatus, method and program
JP2023067301A (en) * 2021-10-30 2023-05-16 モノグサ株式会社 Information processing method, information processing program, and information processing system

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337528A (en) 2002-05-17 2003-11-28 Nec Corp Learning system, learning method, and learning program capable of reflecting learner's learning state
JP2005055846A (en) 2003-08-01 2005-03-03 Tottori Prefecture Remote educational communication system
WO2011074198A1 (en) 2009-12-14 2011-06-23 パナソニック株式会社 User interface apparatus and input method
JP2012185727A (en) 2011-03-07 2012-09-27 Nippon Telegr & Teleph Corp <Ntt> Dialogue state estimating device, method, and program
JP2013205797A (en) 2012-03-29 2013-10-07 Fujitsu Ltd Answer terminal, learning support method, learning support program, and learning supporting system
JP2014178358A (en) 2013-03-13 2014-09-25 Casio Comput Co Ltd Learning support device, learning support method, learning support program, learning support system and server device, and terminal device
JP2016126500A (en) 2014-12-26 2016-07-11 Kddi株式会社 Wearable terminal device and program
WO2016139850A1 (en) 2015-03-05 2016-09-09 ソニー株式会社 Information processing device, control method, and program
WO2017056604A1 (en) 2015-09-29 2017-04-06 ソニー株式会社 Information processing device, information processing method, and program
JP2017182247A (en) 2016-03-29 2017-10-05 ソニー株式会社 Information processing device, information processing method, and program
WO2018066191A1 (en) 2016-10-07 2018-04-12 ソニー株式会社 Server, client terminal, control method, and storage medium
WO2018088187A1 (en) 2016-11-08 2018-05-17 ソニー株式会社 Information processing device, information processing method, and program
JP2018205447A (en) 2017-05-31 2018-12-27 富士通株式会社 Information processing program, information processing device, and information processing method for estimating self-confidence level for user's answer

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337528A (en) 2002-05-17 2003-11-28 Nec Corp Learning system, learning method, and learning program capable of reflecting learner's learning state
JP2005055846A (en) 2003-08-01 2005-03-03 Tottori Prefecture Remote educational communication system
WO2011074198A1 (en) 2009-12-14 2011-06-23 パナソニック株式会社 User interface apparatus and input method
JP2012185727A (en) 2011-03-07 2012-09-27 Nippon Telegr & Teleph Corp <Ntt> Dialogue state estimating device, method, and program
JP2013205797A (en) 2012-03-29 2013-10-07 Fujitsu Ltd Answer terminal, learning support method, learning support program, and learning supporting system
JP2014178358A (en) 2013-03-13 2014-09-25 Casio Comput Co Ltd Learning support device, learning support method, learning support program, learning support system and server device, and terminal device
JP2016126500A (en) 2014-12-26 2016-07-11 Kddi株式会社 Wearable terminal device and program
WO2016139850A1 (en) 2015-03-05 2016-09-09 ソニー株式会社 Information processing device, control method, and program
WO2017056604A1 (en) 2015-09-29 2017-04-06 ソニー株式会社 Information processing device, information processing method, and program
JP2017182247A (en) 2016-03-29 2017-10-05 ソニー株式会社 Information processing device, information processing method, and program
WO2018066191A1 (en) 2016-10-07 2018-04-12 ソニー株式会社 Server, client terminal, control method, and storage medium
WO2018088187A1 (en) 2016-11-08 2018-05-17 ソニー株式会社 Information processing device, information processing method, and program
JP2018205447A (en) 2017-05-31 2018-12-27 富士通株式会社 Information processing program, information processing device, and information processing method for estimating self-confidence level for user's answer

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小島 一晃,多肢選択問題の解答における視線の選択肢走査の実践的記述,教育システム情報学会誌,Vol.31, No.2,教育システム情報学会,2014年04月01日,pp.197-202

Also Published As

Publication number Publication date
JP2020038336A (en) 2020-03-12

Similar Documents

Publication Publication Date Title
Meißner et al. The promise of eye-tracking methodology in organizational research: A taxonomy, review, and future avenues
JP7416552B2 (en) a head-mounted display system configured to exchange biometric information;
US20190095775A1 (en) Artificial intelligence (ai) character system capable of natural verbal and visual interactions with a human
US20120164613A1 (en) Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content
US20160350801A1 (en) Method for analysing comprehensive state of a subject
US20090119154A1 (en) Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content
US20090118593A1 (en) Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content
US20170115742A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
US20090132275A1 (en) Determining a demographic characteristic of a user based on computational user-health testing
US20130266925A1 (en) Embedded Conversational Agent-Based Kiosk for Automated Interviewing
JP7263825B2 (en) Information processing device, information processing method, and information processing program
US20090112621A1 (en) Computational user-health testing responsive to a user interaction with advertiser-configured content
US11113890B2 (en) Artificial intelligence enabled mixed reality system and method
CN107210830B (en) Object presenting and recommending method and device based on biological characteristics
WO2009058164A1 (en) Computational user-health testing responsive to a user interaction with advertiser-configured content
US20150186912A1 (en) Analysis in response to mental state expression requests
WO2018127782A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
JP6724090B2 (en) Information processing apparatus, information processing method, and information processing program
Pfeiffer et al. Classification of goal-directed search and exploratory search using mobile eye-tracking
US10687756B1 (en) Risk tolerance simulation and baseline
JP7259370B2 (en) Information processing device, information processing method, and information processing program
Gan et al. Sex, race, and femininity: young Chinese females’ responses to lingerie advertising
WO2019220751A1 (en) Information processing device, information processing method, and information processing program
JP7378743B2 (en) Information processing system, information processing method and program
Payne et al. Defining biometrics with privacy and benefits: A research agenda

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R150 Certificate of patent or registration of utility model

Ref document number: 7263825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150