JP2024016454A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2024016454A
JP2024016454A JP2022118590A JP2022118590A JP2024016454A JP 2024016454 A JP2024016454 A JP 2024016454A JP 2022118590 A JP2022118590 A JP 2022118590A JP 2022118590 A JP2022118590 A JP 2022118590A JP 2024016454 A JP2024016454 A JP 2024016454A
Authority
JP
Japan
Prior art keywords
information
user
user terminal
sight
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022118590A
Other languages
Japanese (ja)
Inventor
智晶 富田
Tomoaki Tomita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2022118590A priority Critical patent/JP2024016454A/en
Publication of JP2024016454A publication Critical patent/JP2024016454A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable presenting information according to emotions of users by taking an account of privacy protection.
SOLUTION: An information processing device comprises a control unit for performing the processing of: based on gaze information acquired by a user terminal, which is information regarding a user's line of sight toward an information provision area, and an information content provided in the information provision area, estimating a user's emotion toward the information; acquiring presentation information corresponding to the estimated emotion; and transmitting the presentation information to the user terminal.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

従来、ユーザの感情を推定し、感情に基づいてそのユーザに適した情報を提示するシステムがある。例えば下記特許文献1では、ユーザの感情と、ユーザがその感情を抱いた対象とに基づいて情報を提示する技術について開示されている。具体的には、下記特許文献1では、推定した感情がネガティブな感情であるときには、対象を取り除くための情報を提示し、推定した感情がポジティブな感情であるときには、感情を維持するため情報を提示している。 Conventionally, there are systems that estimate a user's emotions and present information suitable for the user based on the emotions. For example, Patent Document 1 listed below discloses a technique for presenting information based on a user's emotion and an object to which the user feels the emotion. Specifically, in Patent Document 1 listed below, when the estimated emotion is a negative emotion, information for removing the target is presented, and when the estimated emotion is a positive emotion, information is presented to maintain the emotion. is presenting.

特開2020-109709号公報Japanese Patent Application Publication No. 2020-109709

ここで、例えば公共の場に設置される電子案内板や電子広告板等の表示装置のように、不特定多数のユーザに情報を提供している際に、各ユーザの感情を推定して提示情報を最適化しても、最適化された情報が他のユーザに視認可能な状態で提示されると、プライバシー保護の観点から好ましくない。上記特許文献1でも、不特定多数のユーザに情報を提供している場合については考慮されていない。 For example, when providing information to an unspecified number of users, such as on display devices such as electronic guide boards and electronic billboards installed in public places, the emotions of each user are estimated and displayed. Even if information is optimized, it is not desirable from the viewpoint of privacy protection if the optimized information is presented in a visible state to other users. Patent Document 1 also does not consider the case where information is provided to an unspecified number of users.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、プライバシー保護を考慮してユーザの感情に応じた情報提示を行うことが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提供することにある。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a new and improved method that can present information in accordance with the user's emotions while taking privacy protection into consideration. An object of the present invention is to provide an information processing device, an information processing method, and a program.

上記課題を解決するために、本発明のある観点によれば、ユーザ端末で取得される、情報提供領域に対するユーザの視線に関する情報である視線情報と、前記情報提供領域で提供されている情報内容とに基づき、前記ユーザの情報に対する感情を推定する処理と、推定した感情に対応する提示情報を取得する処理と、前記提示情報を前記ユーザ端末に送信する処理と、を行う制御部を備える、情報処理装置が提供される。 In order to solve the above-mentioned problems, according to one aspect of the present invention, line-of-sight information, which is information regarding the user's line of sight with respect to an information providing area, acquired by a user terminal, and information content provided in the information providing area. a control unit that performs a process of estimating the user's emotion regarding the information based on the above, a process of acquiring presentation information corresponding to the estimated emotion, and a process of transmitting the presentation information to the user terminal, An information processing device is provided.

前記情報提供領域は、公共の場で不特定多数のユーザに情報を提供する物体である表示装置の表示画面であってもよい。 The information providing area may be a display screen of a display device that is an object that provides information to an unspecified number of users in a public place.

前記制御部は、前記ユーザの視線情報に基づいて感情の分類を判定し、さらに前記表示画面の内容に基づいて、前記ユーザの情報に対する感情を推定してもよい。 The control unit may determine the emotion classification based on the user's line of sight information, and further estimate the user's emotion regarding the information based on the content of the display screen.

前記制御部は、前記視線情報と、前記ユーザ端末で取得された前記表示画面の撮像画像とに基づいて、前記表示画面における前記ユーザの注視点を算出してもよい。 The control unit may calculate a gaze point of the user on the display screen based on the line-of-sight information and a captured image of the display screen acquired by the user terminal.

前記制御部は、前記ユーザの注視点に表示されている内容に基づいて、前記ユーザの情報に対する感情を推定してもよい。 The control unit may estimate the user's emotion regarding the information based on the content displayed at the user's gaze point.

前記感情に対応する提示情報は、前記ユーザを支援するために前記表示画面に表示されている内容を補足する情報であってもよい。 The presentation information corresponding to the emotion may be information that supplements the content displayed on the display screen to support the user.

前記制御部は、前記表示装置の識別情報に対応付けられるデータベースから、前記表示画面に表示されている内容に関する情報および前記提示情報を取得してもよい。 The control unit may acquire information regarding content displayed on the display screen and the presentation information from a database associated with identification information of the display device.

前記制御部は、前記表示画面における視線移動パターンを用いた認証により、複数ユーザをグループに設定する処理を行ってもよい。 The control unit may perform a process of setting a plurality of users into a group through authentication using a line-of-sight movement pattern on the display screen.

前記制御部は、ユーザ端末から受信した視線情報から認識した視線移動パターンと、予め生成した視線移動パターンとが一致する場合に、認証成功としてもよい。 The control unit may determine that the authentication is successful when a line-of-sight movement pattern recognized from line-of-sight information received from the user terminal matches a line-of-sight movement pattern generated in advance.

前記制御部は、認証が成功した複数のユーザのユーザ端末のアカウントを連携させることで、当該複数のユーザを同一グループに設定してもよい。 The control unit may set the plurality of users to the same group by linking the accounts of the user terminals of the plurality of users who have been successfully authenticated.

前記制御部は、さらに前記複数のユーザ端末に対応付けられる前記表示装置の識別情報が一致する場合に、同一グループに設定してもよい。 The control unit may further set the plurality of user terminals in the same group when identification information of the display devices associated with the plurality of user terminals match.

前記視線移動パターンは、前記表示画面を複数のエリアに分割した各分割エリアにおける視線滞留の順番であってもよい。 The line-of-sight movement pattern may be the order in which the line-of-sight stays in each divided area where the display screen is divided into a plurality of areas.

前記制御部は、前記視線移動パターンを用いた認証により一のユーザ端末をホスト端末に設定し、前記視線移動パターンを用いた認証により他のユーザ端末をクライアント端末に設定して前記ホスト端末のアカウントに連携させることで、複数のユーザをグループに設定してもよい。 The control unit sets one user terminal as a host terminal through authentication using the eye movement pattern, sets another user terminal as a client terminal through authentication using the eye movement pattern, and creates an account of the host terminal. You can set multiple users in a group by linking them.

前記制御部は、グループに設定された複数のユーザの感情を統合してグループ全体の感情を推定し、推定したグループ全体の感情に対応する提示情報を取得し、当該提示情報を、アカウント連携した複数のユーザ端末に送信する制御を行ってもよい。 The control unit integrates the emotions of a plurality of users set in the group to estimate the emotions of the entire group, obtains presentation information corresponding to the estimated emotions of the entire group, and uses the presentation information to create an account linked account. Control of transmission to multiple user terminals may also be performed.

また、上記課題を解決するために本発明の別の観点によれば、プロセッサが、ユーザ端末で取得される、情報提供領域に対するユーザの視線に関する情報である視線情報と、前記情報提供領域で提供されている情報内容とに基づき、前記ユーザの情報に対する感情を推定することと、推定した感情に対応する提示情報を取得することと、前記提示情報を前記ユーザ端末に送信することと、を含む、情報処理方法が提供される。 According to another aspect of the present invention, in order to solve the above problems, a processor includes line-of-sight information, which is information regarding a user's line of sight with respect to an information providing area, acquired by a user terminal, and information provided in the information providing area. estimating the user's emotion with respect to the information based on the information content, obtaining presentation information corresponding to the estimated emotion, and transmitting the presentation information to the user terminal. , an information processing method is provided.

また、上記課題を解決するために本発明の別の観点によれば、コンピュータを、ユーザ端末で取得される、情報提供領域に対するユーザの視線に関する情報である視線情報と、前記情報提供領域で提供されている情報内容とに基づき、前記ユーザの情報に対する感情を推定する処理と、推定した感情に対応する提示情報を取得する処理と、前記提示情報を前記ユーザ端末に送信する処理と、を行う制御部として機能させる、プログラムが提供される。 According to another aspect of the present invention, in order to solve the above-mentioned problems, a computer is provided with line-of-sight information, which is information about a user's line of sight with respect to an information providing area, which is acquired by a user terminal, and information provided in the information providing area. A process of estimating the user's emotion toward the information based on the information content, a process of acquiring presentation information corresponding to the estimated emotion, and a process of transmitting the presentation information to the user terminal. A program is provided that functions as a control unit.

以上説明したように本発明によれば、プライバシー保護を考慮してユーザの感情に応じた情報提示を行うことを可能とする。 As described above, according to the present invention, it is possible to present information in accordance with the user's emotions while taking privacy protection into consideration.

本実施形態に係る情報提示システムの概要について説明する図である。FIG. 1 is a diagram illustrating an overview of an information presentation system according to the present embodiment. 本実施形態に係る情報提示システムの構成の一例を示す図である。1 is a diagram showing an example of the configuration of an information presentation system according to the present embodiment. 本実施形態によるサーバ20の構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of a server 20 according to the present embodiment. 本実施形態による視線情報と撮像画像の取得について説明する図である。FIG. 3 is a diagram illustrating acquisition of line-of-sight information and captured images according to the present embodiment. 本実施形態による注視点の出力について説明する図である。FIG. 3 is a diagram illustrating output of a gaze point according to the present embodiment. 本実施形態によるユーザ端末10の構成の一例を示す図である。FIG. 1 is a diagram showing an example of the configuration of a user terminal 10 according to the present embodiment. 本実施形態による情報提示システムの全体の流れの一例を示すシーケンス図である。FIG. 2 is a sequence diagram showing an example of the overall flow of the information presentation system according to the present embodiment. 本応用例の概要について説明する図である。FIG. 2 is a diagram illustrating an overview of this application example. 本応用例によるサーバ20Aの構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of a server 20A according to this application example. 本応用例による視線移動パターンのユーザ通知画面の一例を示す図である。FIG. 7 is a diagram illustrating an example of a user notification screen of a gaze movement pattern according to this application example. 本応用例による視線移動パターンの認識について説明する図である。FIG. 7 is a diagram illustrating recognition of a line-of-sight movement pattern according to this application example. 本応用例による情報提示システムの全体の流れの一例を示すシーケンス図である。FIG. 2 is a sequence diagram showing an example of the overall flow of the information presentation system according to this application example. 本実施形態による情報処理装置900のハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of the hardware configuration of an information processing device 900 according to the present embodiment.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. Note that, in this specification and the drawings, components having substantially the same functional configurations are designated by the same reference numerals and redundant explanation will be omitted.

<1.概要>
本実施形態は、公共の場に設置される電子案内板または電子広告板等の表示装置のように、不特定多数のユーザに情報を提供している場合に、ユーザの感情を推定し、推定した感情に応じた情報を当該ユーザに個別に提示する仕組みに関する。
<1. Overview>
This embodiment estimates the user's emotions when providing information to an unspecified number of users, such as a display device such as an electronic information board or an electronic billboard installed in a public place. The present invention relates to a mechanism for individually presenting information corresponding to the user's emotions.

図1は、本実施形態に係る情報提示システムの概要について説明する図である。本実施形態では、不特定多数のユーザに情報を提供する物体の一例として、公共の場に設置される電子案内板または電子広告板等の大型の表示装置が挙げられる。図1では、大型の表示装置の一例としてデジタルサイネージ30を図示する。デジタルサイネージ30は、自立型であってもよいし、壁面または柱に設置されていてもよい。例えばデジタルサイネージ30が展示会の案内板の場合、デジタルサイネージ30の表示部31には、各展示ブースの説明情報または経路案内の情報が提示される。デジタルサイネージ30の表示部31は画面サイズが大きいため、ユーザは自分のスマートフォンの小さな画面で情報を調べるよりも、デジタルサイネージ30を利用した方が、情報の全容把握または情報探索が行い易い。 FIG. 1 is a diagram illustrating an overview of an information presentation system according to this embodiment. In this embodiment, an example of an object that provides information to an unspecified number of users is a large display device such as an electronic information board or an electronic billboard installed in a public place. In FIG. 1, a digital signage 30 is illustrated as an example of a large-sized display device. The digital signage 30 may be free-standing, or may be installed on a wall or a pillar. For example, if the digital signage 30 is a guide board for an exhibition, the display section 31 of the digital signage 30 displays explanatory information or route guidance information for each exhibition booth. Since the display unit 31 of the digital signage 30 has a large screen size, it is easier for the user to understand the entire information or search for information by using the digital signage 30 than by looking up information on the small screen of his or her smartphone.

しかしながら、不特定多数のユーザが表示装置を利用する場面で、ユーザの感情に応じて最適化した情報を他のユーザに視認可能な状態で提示することは、プライバシー保護の観点から好ましくない。従来は、公共の場に設置される電子案内板または電子広告板等の表示装置において、不特定多数のユーザに対して最適な情報提示を行うことが困難であった。 However, in a situation where an unspecified number of users use a display device, it is not preferable from the viewpoint of privacy protection to present information optimized according to the user's emotions in a state that is visible to other users. Conventionally, it has been difficult to optimally present information to an unspecified number of users in display devices such as electronic information boards or electronic billboards installed in public places.

そこで、本発明の一本実施形態では、不特定多数のユーザに情報を提供する物体で情報探索中のユーザの感情を推定し、推定した感情に応じた情報の提示を当該ユーザのユーザ端末から個別に行うことで、プライバシー保護を考慮した情報提示を実現する。これにより、情報提示の利便性を高めることができる。 Therefore, in this embodiment of the present invention, the emotion of a user searching for information is estimated using an object that provides information to an unspecified number of users, and the information corresponding to the estimated emotion is presented from the user terminal of the user. By doing this individually, information can be presented with privacy protection in mind. Thereby, the convenience of information presentation can be improved.

図1に示す例では、デジタルサイネージ30の表示部31で情報探索中のユーザの感情が推定され、ユーザの感情に応じた情報がユーザ端末10から提示される。これにより、情報の全容把握または探索は画面サイズの大きいデジタルサイネージ30を利用しつつ、ユーザ個人に最適化された情報はユーザ端末10に表示されることで、ユーザのプライバシーが保護される。なお、本実施形態による情報提示システムでは、ユーザの感情推定を、ユーザ端末10に設けられる視線センサ140により得られる視線情報に基づいて行い得る。デジタルサイネージ30に設けられるセンサ等、不特定多数のユーザを対象とする固定センサの場合、視線の計測範囲に限りがあり、背丈、性別、または視力矯正の有無などのユーザ特性が異なる不特定多数のユーザの視線を計測することは困難である。したがって本実施形態では、各ユーザが所持するユーザ端末10に設けられるセンサまたはユーザの頭部に装着されるセンサといった、ユーザ特性に応じて自由に調整可能なセンサを用いてユーザの視線計測をそれぞれ行うことで、全てのユーザに対して感情推定を行い得る。 In the example shown in FIG. 1, the emotion of the user searching for information is estimated on the display unit 31 of the digital signage 30, and information corresponding to the user's emotion is presented from the user terminal 10. As a result, the user's privacy is protected by displaying information optimized for the user on the user terminal 10 while using the digital signage 30 with a large screen size to grasp or search for the entire information. Note that in the information presentation system according to the present embodiment, the user's emotion estimation can be performed based on gaze information obtained by the gaze sensor 140 provided in the user terminal 10. In the case of a fixed sensor that targets an unspecified number of users, such as a sensor installed in the digital signage 30, the measurement range of the line of sight is limited, and the unspecified number of users differ in user characteristics such as height, gender, or the presence or absence of vision correction. It is difficult to measure the user's line of sight. Therefore, in this embodiment, each user's line of sight is measured using a sensor that can be freely adjusted according to user characteristics, such as a sensor provided in the user terminal 10 owned by each user or a sensor attached to the user's head. By doing so, emotion estimation can be performed for all users.

図2は、本実施形態に係る情報提示システムの構成の一例を示す図である。図2に示すように、本実施形態に係る情報提示システムは、ユーザが利用するユーザ端末10と、サーバ20(情報処理装置)と、を含む。ユーザ端末10と、サーバ20は、ネットワーク50を介して通信接続され、データの送受信を行い得る。 FIG. 2 is a diagram showing an example of the configuration of the information presentation system according to this embodiment. As shown in FIG. 2, the information presentation system according to this embodiment includes a user terminal 10 used by a user and a server 20 (information processing device). The user terminal 10 and the server 20 are communicatively connected via a network 50 and can transmit and receive data.

ユーザ端末10は、例えばスマートフォン、携帯電話端末、タブレット端末、およびメガネ型ウェアラブルデバイス等の任意のモバイル端末により実現される。ユーザ端末10は、情報提供領域(例えばデジタルサイネージ30の表示画面)に対するユーザの視線情報、デジタルサイネージ30の表示部31(表示画面)を撮像した撮像画像、およびデジタルサイネージ30の識別情報をサーバ20に送信する。ユーザ端末10は、例えば図1に示すようにデジタルサイネージ30の表示部31に表示されたQRコード(登録商標)311から、デジタルサイネージ30の識別情報を読み取ることが可能である。QRコード311は、サイネージ30の表示部31以外の場所に貼付されていてもよい。また、QRコード311は、デジタルサイネージ30の識別情報を含む符号化情報の一例であって、これに限定されない。デジタルサイネージ30の識別情報は、一次元コードまたは二次元コードから取得されてもよい。また、デジタルサイネージ30の識別情報がデジタルサイネージ30に表示、印字、または貼付され、これをユーザ端末10がOCR(Optical Character Reader)技術により文字認識して取得してもよいし、ユーザがユーザ端末10に手入力してもよい。 The user terminal 10 is realized by any mobile terminal such as a smartphone, a mobile phone terminal, a tablet terminal, and a glasses-type wearable device. The user terminal 10 sends the user's line of sight information to the information providing area (for example, the display screen of the digital signage 30), the captured image of the display section 31 (display screen) of the digital signage 30, and the identification information of the digital signage 30 to the server 20. Send to. The user terminal 10 can read the identification information of the digital signage 30 from the QR code (registered trademark) 311 displayed on the display section 31 of the digital signage 30, for example, as shown in FIG. The QR code 311 may be attached to a location other than the display section 31 of the signage 30. Further, the QR code 311 is an example of encoded information including identification information of the digital signage 30, but is not limited thereto. The identification information of the digital signage 30 may be obtained from a one-dimensional code or a two-dimensional code. Further, the identification information of the digital signage 30 may be displayed, printed, or affixed on the digital signage 30, and the user terminal 10 may obtain this by character recognition using OCR (Optical Character Reader) technology, or the user may obtain the identification information using the user terminal. 10 may be entered manually.

サーバ20は、ユーザ端末10から受信した視線情報、およびデジタルサイネージ30の表示画面の撮像画像に基づいて、デジタルサイネージ30の表示画面(情報提供領域の一例)で情報探索中のユーザの感情を推定する。そして、サーバ20は、推定した感情に対応する情報を取得し、取得した情報をユーザ端末10に送信する。推定した感情に対応する情報は、情報探索中のユーザを支援するための情報であって、具体的には、デジタルサイネージ30の表示画面に表示されている内容を補足する情報である。デジタルサイネージ30の表示画面におけるユーザの注視点は、ユーザ端末10から受信した視線情報に含まれるユーザの視線方向と、デジタルサイネージ30の表示画面の撮像画像から得られる。また、サーバ20は、ユーザ端末10から受信したデジタルサイネージ30の識別情報に基づいて、デジタルサイネージ30の表示画面に表示されている内容および補足情報を、サイネージ別のDB(データベース)から取得し得る。 The server 20 estimates the emotion of the user searching for information on the display screen of the digital signage 30 (an example of an information provision area) based on the line-of-sight information received from the user terminal 10 and the captured image of the display screen of the digital signage 30. do. Then, the server 20 acquires information corresponding to the estimated emotion and transmits the acquired information to the user terminal 10. The information corresponding to the estimated emotion is information for supporting the user searching for information, and specifically, is information that supplements the content displayed on the display screen of the digital signage 30. The user's gaze point on the display screen of the digital signage 30 is obtained from the user's line-of-sight direction included in the line-of-sight information received from the user terminal 10 and the captured image of the display screen of the digital signage 30 . Further, the server 20 can acquire the content and supplementary information displayed on the display screen of the digital signage 30 from a DB (database) for each signage, based on the identification information of the digital signage 30 received from the user terminal 10. .

このように、本実施形態による情報提示システムは、不特定多数のユーザが利用するデジタルサイネージ30で情報探索中のユーザの感情を推定し、推定した感情に応じた情報の提示を当該ユーザのユーザ端末10で行うことで、プライバシー保護を考慮した情報提示を実現する。 In this way, the information presentation system according to the present embodiment estimates the emotion of a user who is searching for information on the digital signage 30 used by an unspecified number of users, and presents information according to the estimated emotion to the user. By performing this on the terminal 10, information presentation that takes privacy protection into consideration is realized.

なお、デジタルサイネージ30は表示装置の一例であり、本実施形態に係る表示装置はデジタルサイネージに限定されない。例えば、本実施形態に係る表示装置は、スクリーン、壁面、床面、または天井に画像を投影するプロジェクタであってもよい。また、不特定多数のユーザに情報を提供する物体は表示装置に限られず、例えば、会場案内図または商業施設のフロアマップ等が印字された案内板、または説明文が印字された説明板等の、大判印刷物であってもよい。 Note that the digital signage 30 is an example of a display device, and the display device according to this embodiment is not limited to a digital signage. For example, the display device according to this embodiment may be a projector that projects an image onto a screen, wall, floor, or ceiling. In addition, objects that provide information to an unspecified number of users are not limited to display devices, but include, for example, information boards with venue guide maps or floor maps of commercial facilities printed on them, or explanation boards with explanatory text printed on them. , or large-sized printed matter.

<2.サーバ20の構成例>
図3は、本実施形態によるサーバ20の構成の一例を示すブロック図である。図3に示すように、サーバ20は、通信部210、制御部220、および記憶部230を有する。
<2. Configuration example of server 20>
FIG. 3 is a block diagram showing an example of the configuration of the server 20 according to this embodiment. As shown in FIG. 3, the server 20 includes a communication section 210, a control section 220, and a storage section 230.

(通信部210)
通信部210は、他の装置との間で情報の送受信を行う送信部および受信部としての機能を有する。通信部210は、例えばネットワーク50を介して、ユーザ端末10とデータの送受信を行い得る。ネットワーク50は、インターネット、電話回線網、衛星通信網などの公衆回線網、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)等で実現されてもよい。さらに、各ネットワークは、Wi-Fi(登録商標)、Bluetooth(登録商標)等の無線通信網で実現されてもよい。
(Communication Department 210)
The communication unit 210 functions as a transmitter and a receiver that transmits and receives information to and from other devices. The communication unit 210 can transmit and receive data to and from the user terminal 10 via the network 50, for example. The network 50 may be realized by the Internet, a telephone line network, a public line network such as a satellite communication network, various LANs (Local Area Networks) including Ethernet (registered trademark), WANs (Wide Area Networks), and the like. Further, each network may be realized by a wireless communication network such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).

(制御部220)
制御部220は、CPU(Central Processing Unit)およびRAM(Random Access Memory)等を中心に構成されており、サーバ20の動作を全般的に制御する。
(Control unit 220)
The control unit 220 is configured mainly of a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like, and controls the operation of the server 20 in general.

また、本実施形態による制御部220は、注視点算出部221、感情推定部222、提示情報取得部223、および提示制御部224としても機能する。 The control unit 220 according to the present embodiment also functions as a gaze point calculation unit 221, an emotion estimation unit 222, a presentation information acquisition unit 223, and a presentation control unit 224.

注視点算出部221は、ユーザ端末10から受信した情報に基づいて、不特定多数のユーザに対して情報を提供する領域である情報提供領域における当該ユーザの注視点を算出する。情報提供領域とは、例えば表示画面である。本実施形態では、注視点算出部221は、デジタルサイネージ30の表示部31(表示画面)におけるユーザの注視点を算出する。具体的には、注視点算出部221は、ユーザ端末10から受信した視線情報に含まれるユーザの視線方向の情報と、デジタルサイネージ30の表示部31(表示画面)を撮像した撮像画像とに基づいて、ユーザの注視点を算出する。本実施形態では、ユーザ端末10の内向きカメラが視線センサ140に相当し、当該ユーザ端末10の外向きカメラ(カメラ150)により撮像画像が得られる。図4は、本実施形態による視線情報と撮像画像の取得について説明する図である。図4に示すように、ユーザ端末10の内側に設けられた視線センサ140によりユーザの視線方向が計測され、視線センサ140が設けられた面に対向する面である外側に設けられたカメラ150によりデジタルサイネージ30の表示部31の撮像画像が得られる。ユーザは、例えば図1に示すようにユーザ端末10(具体的には、カメラ150)をデジタルサイネージ30に向けた状態でデジタルサイネージ30の表示部31を見て情報探索を行う。この間に、視線センサ140によりユーザの視線方向が計測される。視線方向の計測は継続的に行われる。 Based on the information received from the user terminal 10, the gaze point calculation unit 221 calculates the gaze point of the user in the information providing area, which is an area where information is provided to an unspecified number of users. The information providing area is, for example, a display screen. In this embodiment, the gaze point calculation unit 221 calculates the user's gaze point on the display unit 31 (display screen) of the digital signage 30. Specifically, the gaze point calculation unit 221 calculates the gaze point based on the information on the user's gaze direction included in the gaze information received from the user terminal 10 and the captured image of the display unit 31 (display screen) of the digital signage 30. Then, the user's gaze point is calculated. In this embodiment, the inward camera of the user terminal 10 corresponds to the line of sight sensor 140, and the outward camera (camera 150) of the user terminal 10 obtains a captured image. FIG. 4 is a diagram illustrating acquisition of line-of-sight information and captured images according to this embodiment. As shown in FIG. 4, the direction of the user's line of sight is measured by the line of sight sensor 140 provided inside the user terminal 10, and the direction of the user's line of sight is measured by the camera 150 provided on the outside, which is a surface opposite to the surface on which the line of sight sensor 140 is provided. A captured image of the display section 31 of the digital signage 30 is obtained. A user searches for information by viewing the display section 31 of the digital signage 30 while pointing the user terminal 10 (specifically, the camera 150) toward the digital signage 30, as shown in FIG. 1, for example. During this time, the user's line of sight direction is measured by the line of sight sensor 140. Measurement of line-of-sight direction is performed continuously.

視線センサ140により検出されるユーザの視線方向は、視線センサ140に対する相対的な方向であってもよいし、三次元空間における視線の絶対方向であってもよい。また、カメラ150により得られる撮像画像は、ユーザの視界を含む視界画像である。注視点算出部221は、視線方向と撮像画像に基づいて、撮像画像に映る表示部31(表示画面)における注視点を算出する。本実施形態では、注視点算出方法のアルゴリズムは特に限定しない。 The user's line-of-sight direction detected by the line-of-sight sensor 140 may be a relative direction to the line-of-sight sensor 140, or may be an absolute direction of the line of sight in a three-dimensional space. Furthermore, the captured image obtained by the camera 150 is a visual field image that includes the user's visual field. The gaze point calculation unit 221 calculates the gaze point on the display unit 31 (display screen) shown in the captured image based on the line of sight direction and the captured image. In this embodiment, the algorithm of the gaze point calculation method is not particularly limited.

図5は、本実施形態による注視点の出力について説明する図である。注視点算出部221は、ユーザの注視点として、図5に示すように、デジタルサイネージ30の表示部31(表示画面上)に固定された二次元座標位置P(x、y)を出力する。注視点算出部221は、ユーザの視線情報を処理するのに十分な単位時間ごとに、視線の二次元座標位置Pを算出、更新する。本実施形態では、更新時間単位をΔtとし、各時間で取得される二次元位置を、Δt×n時間が経過した後の座標位置としてPn(xn、yn)と記載する。つまりΔt×t時間まで視線が計測された場合、注視点算出部221は、ユーザの注視点として、P1(x1、y1)、P2(x2、y2)・・・Pt(xt、yt)のような座標位置の配列を出力する。 FIG. 5 is a diagram illustrating output of a gaze point according to this embodiment. The gaze point calculation unit 221 outputs a two-dimensional coordinate position P (x, y) fixed on the display unit 31 (on the display screen) of the digital signage 30, as shown in FIG. 5, as the user's gaze point. The gaze point calculation unit 221 calculates and updates the two-dimensional coordinate position P of the line of sight every unit time that is sufficient to process the user's line of sight information. In this embodiment, the update time unit is Δt, and the two-dimensional position acquired at each time is written as Pn (xn, yn) as the coordinate position after Δt×n hours have passed. In other words, when the line of sight is measured for Δt×t time, the gaze point calculation unit 221 calculates the gaze points of the user as P1 (x1, y1), P2 (x2, y2), . . . Pt (xt, yt), etc. Outputs an array of coordinate positions.

感情推定部222は、情報探索中のユーザの感情を推定する。具体的には、感情推定部222は、ユーザの注視点または瞳孔径等と、デジタルサイネージ30での表示内容(情報内容)に基づいて、情報に対するユーザ感情を推定する。以下、詳細を説明する。 The emotion estimation unit 222 estimates the emotion of the user while searching for information. Specifically, the emotion estimating unit 222 estimates the user's emotion regarding the information based on the user's gaze point, pupil diameter, etc., and the display content (information content) on the digital signage 30. Details will be explained below.

まず、感情推定部222は、事前に教師あり学習による機械学習で生成された学習済みの感情推定モデルを用いて、ユーザの視線情報から、「興味関心」または「困り」といった感情の分類を判定する。なお、機械学習は教師あり学習に限定せず、教師なし学習や半教師学習などが用いられてもよい。次いで、感情推定部222は、デジタルサイネージ30の表示内容(注視対象)との組み合わせから、ユーザが何に興味関心があるのか、何に困っているのか等の、より具体的な、情報に対するユーザ感情を推定する。表示内容の情報は、ユーザ端末10から送信されたデジタルサイネージ30の識別情報(サイネージIDとも称する)に基づいて、サイネージ別DB231から得られる。また、ユーザが利用するデジタルサイネージ30のサイネージIDは、ユーザ端末10で読み取る場合に限定されず、制御部220が、ユーザ端末10から送信されたユーザ端末10の位置情報と、会場内に配置された各デジタルサイネージの配置情報とに基づいて、ユーザがどのデジタルサイネージを利用しているかを推定してサイネージIDを特定してもよい。 First, the emotion estimation unit 222 uses a learned emotion estimation model generated in advance by machine learning using supervised learning to determine the emotion classification such as "interested" or "distressed" from the user's gaze information. do. Note that machine learning is not limited to supervised learning, and unsupervised learning, semi-supervised learning, etc. may also be used. Next, the emotion estimation unit 222 determines the user's more specific information, such as what the user is interested in or what is bothering him, based on the combination with the display content (attention target) of the digital signage 30. Estimate emotions. Information on the display content is obtained from the signage-specific DB 231 based on the identification information (also referred to as signage ID) of the digital signage 30 transmitted from the user terminal 10. Further, the signage ID of the digital signage 30 used by the user is not limited to being read by the user terminal 10, and the control unit 220 can read the signage ID of the digital signage 30 used by the user using the position information of the user terminal 10 transmitted from the user terminal 10 and the position information of the user terminal 10 placed in the venue. The signage ID may be specified by estimating which digital signage the user is using based on the arrangement information of each digital signage.

例えばデジタルサイネージ30に表示されているフロアマップを注視した状態で「困り」の感情分類が推定された場合、感情推定部222は、「道に迷っている」といったユーザ感情が推定できる。この際、感情推定部222は、注視点に表示されている表示内容を参照することで、ユーザがどこに行きたいか(目的地)等を推定することもできる。また、デジタルサイネージ30に表示されている展示の説明文を注視した状態で「困り」の感情分類が推定された場合、感情推定部222は、「この説明文の内容が分からない(説明が難しい、漢字が読めない等)」といったユーザ感情が推定できる。また、デジタルサイネージ30に表示されている展示の説明文を注視した状態で「興味関心」の感情分類が推定された場合、感情推定部222は、「この展示についてもっと詳しい情報を知りたい」といったユーザ感情が推定できる。表示内容との組み合わせによる具体的なユーザ感情は、予め用意されたテーブルデータを用いて推定されてもよいし、機械学習により生成された学習済みモデルを用いて推定されてもよい。 For example, if the emotion classification of "troubled" is estimated while observing the floor map displayed on the digital signage 30, the emotion estimation unit 222 can estimate the user's emotion such as "I'm lost." At this time, the emotion estimation unit 222 can also estimate where the user wants to go (destination), etc. by referring to the display content displayed at the gaze point. In addition, when the emotion classification of "troubled" is estimated while paying close attention to the explanatory text of the exhibit displayed on the digital signage 30, the emotion estimation unit 222 outputs the message "I don't understand the content of this explanatory text (it's difficult to explain)". , cannot read kanji, etc.)” can be estimated. Further, when the emotion classification of "interest" is estimated while observing the explanatory text of the exhibition displayed on the digital signage 30, the emotion estimation unit 222 may respond by saying, "I would like to know more detailed information about this exhibition." User emotions can be estimated. The specific user emotion in combination with the display content may be estimated using table data prepared in advance, or may be estimated using a learned model generated by machine learning.

提示情報取得部223は、推定されたユーザ感情に対応する提示情報を取得する。提示情報取得部223は、サイネージIDに基づいて、記憶部230に記憶されているサイネージ別DB231から、情報を取得し得る。なお、サイネージ別DB231は、サーバ20の記憶部230に格納される例に限定されず、外部のデータサーバに格納されていてもよい。例えば、会場に多数設置されるサイネージごとに、当該サイネージに関する情報を格納するデータサーバが用意されていてもよい。サイネージ別DB231には、例えばデジタルサイネージ30が展示会の案内板である場合、各展示ブースの詳細情報、または案内板の位置から各展示ブースへの経路案内情報などが格納される。 The presentation information acquisition unit 223 acquires presentation information corresponding to the estimated user emotion. The presentation information acquisition unit 223 can acquire information from the signage-specific DB 231 stored in the storage unit 230 based on the signage ID. Note that the signage-specific DB 231 is not limited to the example stored in the storage unit 230 of the server 20, but may be stored in an external data server. For example, a data server may be prepared for each signage installed in a large number at a venue to store information regarding the signage. For example, when the digital signage 30 is a guide board for an exhibition, the signage-specific DB 231 stores detailed information about each exhibition booth or route guidance information from the position of the guide board to each exhibition booth.

提示情報取得部223は、感情推定部222により、「この説明文の内容が分からない(説明が難しい、漢字が読めない等)」といったユーザ感情が推定された場合、子供向けに用意された平易な説明文をサイネージ別DB231から提示情報として取得する。また、提示情報取得部223は、感情推定部222により、「道に迷っている」といったユーザ感情が推定された場合、現在地から各方面への経路案内情報をサイネージ別DB231から提示情報として取得する。また、目的地も推定されている場合、提示情報取得部223は、現在地から目的地への詳しい経路案内情報をサイネージ別DB231から提示情報として取得する。 When the emotion estimating unit 222 estimates the user's emotion such as "I don't understand the content of this explanatory text (it's difficult to explain, I can't read kanji, etc.)", the presentation information acquisition unit 223 displays a plain text prepared for children. The explanatory text is acquired from the signage-specific DB 231 as presentation information. Further, when the emotion estimating unit 222 estimates a user emotion such as "I'm lost," the presentation information acquisition unit 223 acquires route guidance information from the current location to each direction from the signage-specific DB 231 as presentation information. . Further, when the destination is also estimated, the presentation information acquisition unit 223 acquires detailed route guidance information from the current location to the destination from the signage-specific DB 231 as presentation information.

提示制御部224は、提示情報取得部223により取得された提示情報をユーザ端末10に送信する制御を行う。送信する情報では、ユーザ端末10の表示部で当該提示情報を表示するようユーザ端末10に指示する制御信号を含めてもよい。 The presentation control unit 224 controls transmitting the presentation information acquired by the presentation information acquisition unit 223 to the user terminal 10. The information to be transmitted may include a control signal that instructs the user terminal 10 to display the presentation information on the display unit of the user terminal 10.

(記憶部230)
記憶部230は、制御部220の処理に関するデータ、制御部220の動作プログラムファイルなどの各種データを一時的あるいは永続的に記憶する機能を有する。また、記憶部230は、サイネージ別DB231を格納する。サイネージ別DB231は、例えば会場に設置される多数のデジタルサイネージごとに用意される。サイネージ別DB231には、サイネージID、および表示内容に関する情報が格納される。また、サイネージ別DB231には、さらに設置場所の情報が格納されていてもよい。
(Storage unit 230)
The storage unit 230 has a function of temporarily or permanently storing various data such as data related to processing of the control unit 220 and operation program files of the control unit 220. The storage unit 230 also stores a signage-specific DB 231. The signage-specific DB 231 is prepared for each of a large number of digital signages installed at a venue, for example. The signage-specific DB 231 stores information regarding signage IDs and display contents. Further, the signage-specific DB 231 may further store information on installation locations.

以上、本実施形態によるサーバ20の構成の一例について説明した。なお、本実施形態によるサーバ20の構成は、図3に示す例に限定されない。例えば、サーバ20は、複数の装置により構成されていてもよい。また、本実施形態では、サーバ20(情報処理装置)の機能が、ネットワーク上に存在するクラウドサーバで実現される場合について説明したが、本発明はこれに限定されず、サーバ20の機能を、各デジタルサイネージに設けられるハードウェア上でそれぞれ実現させてもよい。すなわち、各デジタルサイネージが、図3に示す構成(通信部210、制御部220、および対応するサイネージ別DB231)をそれぞれ有してもよい。 An example of the configuration of the server 20 according to this embodiment has been described above. Note that the configuration of the server 20 according to this embodiment is not limited to the example shown in FIG. 3. For example, the server 20 may be composed of a plurality of devices. Furthermore, in the present embodiment, a case has been described in which the functions of the server 20 (information processing device) are realized by a cloud server existing on a network, but the present invention is not limited to this, and the functions of the server 20 are realized by a cloud server existing on a network. It may be realized on hardware provided in each digital signage. That is, each digital signage may have the configuration shown in FIG. 3 (communication unit 210, control unit 220, and corresponding signage-specific DB 231).

<3.ユーザ端末10の構成例>
図6は、本実施形態によるユーザ端末10の構成の一例を示す図である。ユーザ端末10は、図6に示すように、通信部110、制御部120、操作入力部130、視線センサ140、カメラ150、表示部160、および記憶部170を有する。
<3. Configuration example of user terminal 10>
FIG. 6 is a diagram showing an example of the configuration of the user terminal 10 according to this embodiment. As shown in FIG. 6, the user terminal 10 includes a communication section 110, a control section 120, an operation input section 130, a line of sight sensor 140, a camera 150, a display section 160, and a storage section 170.

(通信部110)
通信部110は、他の装置との間で情報の送受信を行う送信部および受信部としての機能を有する。通信部110は、例えばネットワーク50を介してサーバ20とデータの送受信を行い得る。
(Communication Department 110)
The communication unit 110 functions as a transmitter and a receiver that transmits and receives information to and from other devices. The communication unit 110 can transmit and receive data to and from the server 20 via the network 50, for example.

(制御部120)
制御部120は、例えば、CPU(Central Processing Unit)およびRAM(Random Access Memory)等を中心に構成されており、ユーザ端末10の動作を全般的に制御する。
(Control unit 120)
The control unit 120 is configured mainly of, for example, a CPU (Central Processing Unit) and a RAM (Random Access Memory), and controls the operation of the user terminal 10 in general.

また、本実施形態による制御部120は、ユーザの感情に応じた情報提示の制御を行い得る。かかる制御は、ユーザ端末10にインストールされたアプリケーションプログラムに従って行われてもよい。具体的には、制御部120は、ユーザが利用するデジタルサイネージ30のサイネージIDをカメラ150により取得し、通信部110からサーバ20に送信する制御を行う。また、制御部120は、視線センサ140により検出されるユーザの視線情報と、カメラ150により撮像されるデジタルサイネージ30の表示部31(表示画面)の撮像画像を、通信部110からサーバ20に送信する制御を行う。また、制御部120は、サーバ20から受信した、ユーザの感情に対応する提示情報を、表示部160に表示する制御を行う。 Further, the control unit 120 according to the present embodiment can control information presentation according to the user's emotions. Such control may be performed according to an application program installed on the user terminal 10. Specifically, the control unit 120 controls the camera 150 to acquire the signage ID of the digital signage 30 used by the user, and transmits it from the communication unit 110 to the server 20. Further, the control unit 120 transmits the user's line-of-sight information detected by the line-of-sight sensor 140 and the captured image of the display unit 31 (display screen) of the digital signage 30 captured by the camera 150 from the communication unit 110 to the server 20. control. Further, the control unit 120 controls displaying the presentation information corresponding to the user's emotion received from the server 20 on the display unit 160.

(操作入力部130)
操作入力部130は、ユーザによる操作入力を受け付け、操作情報を制御部120に出力する。操作入力部130は、表示部160に積層されるタッチパネルにより実現されてもよいし、物理的なスイッチであってもよい。
(Operation input unit 130)
The operation input unit 130 receives operation input from the user and outputs operation information to the control unit 120. The operation input unit 130 may be realized by a touch panel stacked on the display unit 160, or may be a physical switch.

(視線センサ140)
視線センサ140は、ユーザの視線を計測する機能を有する。例えば視線センサ140は、赤外線ステレオカメラにより実現される。また、視線センサ140は、ユーザ端末10の表面、すなわち表示部160が設けられる面に搭載され、ユーザ端末10を所持するユーザの視線を計測する。視線計測のためのキャリブレーションは、事前に行われ得る。視線センサ140は、赤外線カメラに限定されず、可視光カメラであってもよい。視線センサ140は、視線方向および瞳孔径等を計測し得る。視線方向は、例えば目の中の所定の基準点(例えば目頭または角膜反射)と動点(例えば虹彩または瞳孔)の位置関係から計測され得る。
(Gaze sensor 140)
The line of sight sensor 140 has a function of measuring the user's line of sight. For example, the line of sight sensor 140 is realized by an infrared stereo camera. Furthermore, the line-of-sight sensor 140 is mounted on the surface of the user terminal 10, that is, the surface on which the display unit 160 is provided, and measures the line-of-sight of the user holding the user terminal 10. Calibration for line of sight measurement may be performed in advance. The line of sight sensor 140 is not limited to an infrared camera, but may be a visible light camera. The line-of-sight sensor 140 can measure the line-of-sight direction, pupil diameter, and the like. The line of sight direction can be measured, for example, from the positional relationship between a predetermined reference point in the eye (for example, the inner corner of the eye or a corneal reflex) and a moving point (for example, the iris or pupil).

(カメラ150)
カメラ150は、ユーザ端末10の裏面、すなわち表示部160が設けられる面と対向する反対側の面に搭載される、いわゆる外向きカメラである。カメラ150は、例えば可視光カメラにより実現される。カメラ150は、ユーザの注視対象である、デジタルサイネージ30の表示部31(表示画面)を撮像する。また、カメラ150は、サイネージIDの取得に用いられる。具体的には、サイネージIDを含むQRコードを撮像し、QRコードの撮像画像を制御部120に出力する。制御部120では、撮像画像に映るQRコードの画像解析が行われ、サイネージIDが抽出される。
(Camera 150)
The camera 150 is a so-called outward-facing camera mounted on the back surface of the user terminal 10, that is, the surface opposite to the surface on which the display section 160 is provided. Camera 150 is realized by, for example, a visible light camera. The camera 150 captures an image of the display section 31 (display screen) of the digital signage 30, which is the target of the user's gaze. Furthermore, the camera 150 is used to obtain a signage ID. Specifically, a QR code including the signage ID is imaged, and the captured image of the QR code is output to the control unit 120. The control unit 120 performs image analysis of the QR code appearing in the captured image and extracts the signage ID.

(表示部160)
表示部160は、各種操作画面、およびユーザの感情に対応する提示情報を表示する機能を有する。表示部160は、操作入力部130が積層されるタッチパネルディスプレイにより実現されてもよい。
(Display section 160)
The display unit 160 has a function of displaying various operation screens and presentation information corresponding to the user's emotions. The display unit 160 may be realized by a touch panel display on which the operation input unit 130 is stacked.

(記憶部170)
記憶部170は、制御部120の処理に関するデータ、制御部120の動作プログラムファイルなどの各種データを一時的あるいは永続的に記憶する機能を有する。
(Storage unit 170)
The storage unit 170 has a function of temporarily or permanently storing various data such as data related to processing of the control unit 120 and operation program files of the control unit 120.

以上、本実施形態によるユーザ端末10の構成の一例について説明した。なお、本実施形態によるユーザ端末10の構成は、図6に示す例に限定されない。例えば、視線センサ140およびカメラ150がユーザの頭部に装着されたメガネに設けられ、視線情報および撮像画像(視界画像)がユーザ端末10に送信されてもよい。 An example of the configuration of the user terminal 10 according to the present embodiment has been described above. Note that the configuration of the user terminal 10 according to this embodiment is not limited to the example shown in FIG. 6. For example, the line-of-sight sensor 140 and the camera 150 may be provided in glasses worn on the user's head, and the line-of-sight information and the captured image (field-of-view image) may be transmitted to the user terminal 10.

<4.動作処理>
次に、本実施形態による情報提示システムの動作処理について具体的に説明する。図7は、本実施形態による情報提示システムの全体の流れの一例を示すシーケンス図である。
<4. Operation processing>
Next, the operational processing of the information presentation system according to this embodiment will be specifically explained. FIG. 7 is a sequence diagram showing an example of the overall flow of the information presentation system according to this embodiment.

まず、図7に示すように、ユーザ端末10は、デジタルサイネージ30に表示されたQRコードの撮像画像からサイネージIDを取得する(ステップS103)。なお、感情推定に応じた情報提示を受けるために当該QRコードを読み取るよう促す表示がデジタルサイネージ30に表示されていてもよい。 First, as shown in FIG. 7, the user terminal 10 acquires a signage ID from the captured image of the QR code displayed on the digital signage 30 (step S103). Note that a display prompting the user to read the QR code may be displayed on the digital signage 30 in order to receive information presentation according to the emotion estimation.

次に、ユーザ端末10は、サイネージIDを含む接続要求をサーバ20に送信する(ステップS106)。なお、接続要求の送信先(サーバ20のアドレス)の情報も、デジタルサイネージ30に表示されたQRコードから取得され得る。 Next, the user terminal 10 transmits a connection request including the signage ID to the server 20 (step S106). Note that information on the destination of the connection request (the address of the server 20) can also be obtained from the QR code displayed on the digital signage 30.

次いで、サーバ20は、ユーザ端末10からの接続要求に応じて、受信したサイネージIDを、当該ユーザ端末10のユーザに対応付ける(ステップS109)。具体的には、サーバ20は、ユーザ端末10の識別情報にサイネージIDを対応付けてもよい。 Next, in response to the connection request from the user terminal 10, the server 20 associates the received signage ID with the user of the user terminal 10 (step S109). Specifically, the server 20 may associate the identification information of the user terminal 10 with the signage ID.

次に、ユーザ端末10では、視線センサ140によりユーザの視線検出が行われ(ステップS112)、また、カメラ150によりデジタルサイネージ30の撮像が行われる(ステップS115)。ユーザは、ユーザ端末10を構えた状態で、デジタルサイネージ30の表示部31に視線を向け、表示部31の表示内容を閲覧する。なお、感情推定のためのユーザ端末10の操作方法および構え方等の説明が、デジタルサイネージ30に表示されてもよいし、接続要求に応じてサーバ20からユーザ端末10に送信され、ユーザに通知されてもよい。 Next, in the user terminal 10, the line of sight sensor 140 detects the user's line of sight (step S112), and the camera 150 captures an image of the digital signage 30 (step S115). While holding the user terminal 10, the user directs his/her line of sight to the display section 31 of the digital signage 30 and views the display contents of the display section 31. Note that an explanation of how to operate and hold the user terminal 10 for emotion estimation may be displayed on the digital signage 30, or may be sent from the server 20 to the user terminal 10 in response to a connection request and notified to the user. may be done.

続いて、ユーザ端末10は、視線情報およびサイネージ撮像画像をサーバ20に送信する(ステップS118)。 Subsequently, the user terminal 10 transmits the line-of-sight information and the signage captured image to the server 20 (step S118).

次いで、サーバ20は、注視点算出部221により、視線情報とサイネージ撮像画像に基づいて、注視点を算出する(ステップS121)。 Next, the server 20 uses the gaze point calculation unit 221 to calculate a gaze point based on the line-of-sight information and the signage captured image (step S121).

次に、サーバ20は、感情推定部222により、視線情報とデジタルサイネージ30の表示内容に基づいて、情報に対するユーザ感情を推定する(ステップS124)。 Next, the server 20 uses the emotion estimation unit 222 to estimate the user's emotion regarding the information based on the line of sight information and the display content of the digital signage 30 (step S124).

次いで、サーバ20は、提示情報取得部223により、ユーザに対応付けられたサイネージIDに基づいてサイネージ別DB231を参照し、ユーザの感情に対応する提示情報を取得する(ステップS127)。 Next, the server 20 uses the presentation information acquisition unit 223 to refer to the signage-specific DB 231 based on the signage ID associated with the user, and acquires presentation information corresponding to the user's emotion (step S127).

次に、サーバ20は、提示制御部224により、提示情報をユーザ端末10に送信する(ステップS130)。 Next, the server 20 transmits the presentation information to the user terminal 10 using the presentation control unit 224 (step S130).

そして、ユーザ端末10は、サーバ20から受信した提示情報を表示部160に表示する(ステップS133)。これにより、不特定多数のユーザに利用されるデジタルサイネージ30で情報探索中のユーザの感情に対応する情報を、当該ユーザのユーザ端末10で個別に提示することができる。 The user terminal 10 then displays the presentation information received from the server 20 on the display unit 160 (step S133). Thereby, information corresponding to the emotions of a user who is searching for information on the digital signage 30 used by an unspecified number of users can be individually presented on the user terminal 10 of the user.

以上、本実施形態による情報提示システムの動作処理の一例について説明した。なお、図7に示す動作処理の流れは一例であって、本発明はこれに限定されない。例えば、図7に示す各処理のうち、一部が図7に示す順と異なる順で行われてもよいし、同時に行われてもよいし、また、いずれかの処理がスキップされてもよい。例えば、ステップS112に示す視線検出と、ステップS115に示す撮像処理は、同時に一定時間行われてもよい。また、ステップS118に示す送信処理は、ステップS112に示す視線検出およびステップS115に示す撮像処理と並行して行われてもよい。また、ユーザ端末10は、ステップS103の代わりに位置情報を取得してサーバ20に送信し、サーバ20において、ユーザ端末10の位置情報から、ユーザが利用するデジタルサイネージ30のサイネージIDを特定してもよい。 An example of the operation processing of the information presentation system according to the present embodiment has been described above. Note that the flow of the operation process shown in FIG. 7 is an example, and the present invention is not limited thereto. For example, some of the processes shown in FIG. 7 may be performed in a different order from the order shown in FIG. 7, or may be performed simultaneously, or some of the processes may be skipped. . For example, the line of sight detection shown in step S112 and the imaging process shown in step S115 may be performed simultaneously for a certain period of time. Further, the transmission process shown in step S118 may be performed in parallel with the line of sight detection shown in step S112 and the imaging process shown in step S115. Further, the user terminal 10 acquires location information and transmits it to the server 20 instead of step S103, and the server 20 identifies the signage ID of the digital signage 30 used by the user from the location information of the user terminal 10. Good too.

<5.応用例>
上述した実施形態では、不特定多数のユーザが同時にデジタルサイネージ30を利用することが可能であり、各ユーザに対して、感情推定結果に応じた情報をユーザ端末10から個別に提示している。ここで、不特定多数のユーザの中には、友人または家族等のグループが存在する場合がある。この場合、グループ全体の感情を推定し、その推定結果に応じた情報をグループに提示することが望ましい。そこで、上述した実施形態の応用例として、複数のユーザをグループとして処理する場合について説明する。
<5. Application example>
In the embodiment described above, an unspecified number of users can use the digital signage 30 at the same time, and information according to the emotion estimation result is individually presented to each user from the user terminal 10. Here, there may be a group of friends, family, etc. among the unspecified number of users. In this case, it is desirable to estimate the emotions of the entire group and present information to the group according to the estimation results. Therefore, as an application example of the above-described embodiment, a case where a plurality of users are processed as a group will be described.

図8は、本応用例の概要について説明する図である。本応用例では、図8に示すように、デジタルサイネージ30を利用する複数のユーザであるユーザXとユーザYが友人または家族等のグループである場合を想定する。ユーザXとユーザYのグループ設定は、より具体的には、ユーザXのユーザ端末10Xと、ユーザYのユーザ端末10Yとのアカウント連携により実現される。本応用例では、各ユーザの表示部31上での視線移動パターンに基づく認証により、アカウント連携を行う。各ユーザの視線情報は、上述した実施形態と同様に、各自のユーザ端末10において検出される。 FIG. 8 is a diagram illustrating an overview of this application example. In this application example, as shown in FIG. 8, it is assumed that user X and user Y, who are a plurality of users who use the digital signage 30, are a group of friends, family, or the like. More specifically, the group setting of user X and user Y is realized by account linkage between user X's user terminal 10X and user Y's user terminal 10Y. In this application example, account linkage is performed through authentication based on each user's line-of-sight movement pattern on the display unit 31. The line-of-sight information of each user is detected in the user terminal 10 of each user, similarly to the embodiment described above.

(5-1.構成)
図9は、本応用例によるサーバ20Aの構成の一例を示すブロック図である。図9に示すように、サーバ20Aは、通信部210、制御部220A、および記憶部230Aを有する。図3を参照して説明した同符号の構成については、ここでの詳細な説明は省略する。
(5-1. Configuration)
FIG. 9 is a block diagram showing an example of the configuration of the server 20A according to this application example. As shown in FIG. 9, the server 20A includes a communication section 210, a control section 220A, and a storage section 230A. Detailed description of the configurations having the same reference numerals as described with reference to FIG. 3 will be omitted here.

制御部220Aは、注視点算出部221、感情推定部222、提示情報取得部223、提示制御部224、パターン管理部225、パターン認識部226、および認証部227として機能する。 The control unit 220A functions as a gaze point calculation unit 221, an emotion estimation unit 222, a presentation information acquisition unit 223, a presentation control unit 224, a pattern management unit 225, a pattern recognition unit 226, and an authentication unit 227.

パターン管理部225は、グループ設定の認証に用いる視線移動パターンを管理する機能を有する。具体的には、パターン管理部225は、グループ設定の認証に用いる視線移動パターンを生成し、パターンDB232に格納する。グループ設定の認証はサイネージ毎に行われるため、パターン管理部225は、生成した視線移動パターンをパターンDB232にサイネージ別に格納する。視線移動パターンとは、例えば表示部31の表示エリアを等しい大きさに分割した所定数の分割エリアにおいて注視点が滞留した順番である。まず、パターン管理部225は、デジタルサイネージ30に設けられる表示部31の表示エリアを、所定数の等しい大きさに分割し、分割エリアの範囲を、サイネージ別DB231に保持させる。次いで、パターン管理部225は、視線移動パターンとして、どの分割エリアにどの順番で注視点を滞留させるかをランダムに生成する。なお、パターン管理部225は、同じサイネージにおいて既に他のグループ向けの視線移動パターンを生成している場合、当該視線移動パターンと重複しない視線移動パターンを生成する。また、分割エリアの数は特に限定しない。 The pattern management unit 225 has a function of managing eye movement patterns used for group setting authentication. Specifically, the pattern management unit 225 generates a line-of-sight movement pattern used for group setting authentication, and stores it in the pattern DB 232. Since group setting authentication is performed for each signage, the pattern management unit 225 stores the generated line-of-sight movement pattern in the pattern DB 232 for each signage. The gaze movement pattern is, for example, the order in which the gaze point stays in a predetermined number of divided areas obtained by dividing the display area of the display unit 31 into equal sizes. First, the pattern management unit 225 divides the display area of the display unit 31 provided in the digital signage 30 into a predetermined number of equal sizes, and stores the range of the divided areas in the signage-specific DB 231. Next, the pattern management unit 225 randomly generates a line-of-sight movement pattern in which divided areas and in what order the gaze point should stay. Note that if the pattern management unit 225 has already generated a line-of-sight movement pattern for another group in the same signage, it generates a line-of-sight movement pattern that does not overlap with the line-of-sight movement pattern. Further, the number of divided areas is not particularly limited.

パターン管理部225により生成された視線移動パターンは、ユーザ端末10に提示され得る。図10は、本応用例による視線移動パターンのユーザ通知画面の一例を示す図である。図10に示すように、ユーザ端末10の表示部160において、分割エリアにおける注視点の移動順が示される。 The eye movement pattern generated by the pattern management unit 225 may be presented to the user terminal 10. FIG. 10 is a diagram illustrating an example of a user notification screen of a gaze movement pattern according to this application example. As shown in FIG. 10, the display unit 160 of the user terminal 10 shows the movement order of the gaze points in the divided areas.

パターン認識部226は、注視点算出部221により算出されたユーザの注視点から、ユーザの視線移動パターンを認識する機能を有する。以下、図11を参照して具体的に説明する。 The pattern recognition unit 226 has a function of recognizing the user's gaze movement pattern from the user's gaze point calculated by the gaze point calculation unit 221. A detailed explanation will be given below with reference to FIG. 11.

図11は、本応用例による視線移動パターンの認識について説明する図である。図11に示すように、表示部31が等しい大きさに分割された分割エリアE1~E9において、パターン認識部226は、注視点がどの分割エリアにどの順番で滞留したかを判定し、視線移動パターンを認識する。ここで、滞留とは、注視点が特定範囲にある状態を言う。特定範囲とは、各分割エリアの範囲である。例えば、パターン認識部226は、Δt×n時間が経過した際に計測されたユーザの注視点である座標位置Pn(xn,yn)が分割エリアE1の範囲内にある場合、注視点が分割エリア1に滞留していると判定する。 FIG. 11 is a diagram illustrating recognition of a gaze movement pattern according to this application example. As shown in FIG. 11, in the divided areas E1 to E9 in which the display section 31 is divided into equal sizes, the pattern recognition unit 226 determines in which divided area the gaze point has stayed and in what order, and moves the line of sight. Recognize patterns. Here, staying refers to a state in which the gaze point is within a specific range. The specific range is the range of each divided area. For example, if the coordinate position Pn (xn, yn), which is the user's gaze point measured after Δt×n time has elapsed, is within the range of the divided area E1, the pattern recognition unit 226 determines that the gaze point is within the divided area E1. It is determined that the value remains at 1.

ただし、パターン認識部226は、Pn(xn,yn)からPn+1(xn+1,yn+1)のような短い時間で、ある分割エリアの特定範囲内を注視点が通り過ぎた場合は、その分割エリアに滞留しているとは判定しない。図11に示す例では、分割エリアE7から分割エリアE5に視線移動する際に、注視点が分割エリアE8を通過するが、短い時間で通り過ぎているだけのため、パターン認識部226は、分割エリアE8への滞留はしていないと判定する。 However, if the gaze point passes within a specific range of a certain divided area in a short period of time such as from Pn (xn, yn) to Pn+1 (xn+1, yn+1), the pattern recognition unit 226 recognizes that if the point of interest passes within a specific range of a certain divided area, It is not determined that the In the example shown in FIG. 11, when the gaze point moves from the divided area E7 to the divided area E5, the gaze point passes through the divided area E8, but because it only passes through the divided area E8 in a short time, the pattern recognition unit 226 It is determined that there is no retention in E8.

図11に示す例では、パターン認識部226は、注視点が、分割エリアE1、分割エリアE4、分割エリアE7、分割エリアE5、分割エリアE3、分割エリアE6、および分割エリアE9の順で滞留したと判定し、当該順番を視線移動パターンとして認識する。 In the example shown in FIG. 11, the pattern recognition unit 226 detects that the gaze point stays in the order of divided area E1, divided area E4, divided area E7, divided area E5, divided area E3, divided area E6, and divided area E9. , and recognizes this order as a line-of-sight movement pattern.

認証部227は、パターン認識部226で認識されたユーザの視線移動パターンが、パターン管理部225で生成された認証用の視線移動パターンと一致しているか否かを判断する。一致している場合、そのユーザの認証は成功となる。アカウント連携の開始要求に応じた認証時の場合、認証部227は、認証が成功したユーザのユーザ端末10をホスト端末に設定する。一方、クライアント認証要求に応じた認証時の場合、認証部227は、認証が成功したユーザのユーザ端末10を、既にホスト端末に設定したユーザ端末10のアカウントと連携するクライアント端末に設定することで、グループの設定を実現する。アカウントの連携は、ホスト端末の識別情報にクライアント端末の識別情報を対応付けることで行われてもよいし、ホスト端末とクライアント端末に同じグループ番号が付与されることで行われてもよい。認証部227は、認証の成否、またはアカウントが連携できたこと(グループを設定したこと)を、ユーザ端末10に通知してもよい。なお、認証部227は、クライアント端末の認証において、さらにサイネージIDがホスト端末と一致することを、認証成功の条件としてもよい。 The authentication unit 227 determines whether the user's line-of-sight movement pattern recognized by the pattern recognition unit 226 matches the line-of-sight movement pattern for authentication generated by the pattern management unit 225. If they match, the user's authentication is successful. In the case of authentication in response to a request to start account linkage, the authentication unit 227 sets the user terminal 10 of the user who has been successfully authenticated as the host terminal. On the other hand, in the case of authentication in response to a client authentication request, the authentication unit 227 sets the user terminal 10 of the user who has been successfully authenticated as a client terminal linked with the account of the user terminal 10 that has already been set as the host terminal. , to realize group settings. Account linkage may be performed by associating identification information of the client terminal with identification information of the host terminal, or may be performed by assigning the same group number to the host terminal and the client terminal. The authentication unit 227 may notify the user terminal 10 of the success or failure of authentication or that the accounts have been linked (that a group has been set). In the authentication of the client terminal, the authentication unit 227 may further set the signage ID to match that of the host terminal as a condition for successful authentication.

以上により、グループ設定が行われる。グループ設定が行われた場合、感情推定部222は、グループの各ユーザの感情を統合してグループ全体の感情を推定してもよい。例えば、感情推定部222は、グループの各ユーザの感情のうち過半数を占める感情を、グループ全体の感情と推定してもよい。また、感情推定部222は、ホストユーザ(ホスト端末に設定されたユーザ端末のユーザ)の感情を、グループ全体の感情と推定してもよい。そして、提示制御部224は、グループ全体の感情に対応する提示情報を、グループの全ユーザ、すなわちアカウント連携された複数のユーザ端末10に送信する制御を行う。これにより、グループ設定された各ユーザ端末10で、同じ提示情報を見ることができる。 Through the above steps, group setting is performed. When group setting is performed, the emotion estimating unit 222 may integrate the emotions of each user in the group to estimate the emotion of the entire group. For example, the emotion estimation unit 222 may estimate the emotion that accounts for the majority of the emotions of each user in the group as the emotion of the entire group. Furthermore, the emotion estimation unit 222 may estimate the emotion of the host user (the user of the user terminal set as the host terminal) as the emotion of the entire group. Then, the presentation control unit 224 performs control to transmit presentation information corresponding to the emotions of the entire group to all users of the group, that is, to a plurality of user terminals 10 whose accounts are linked. This allows each user terminal 10 set in a group to view the same presentation information.

記憶部230Aには、サイネージ別DB231と、パターンDB232が格納されている。サイネージ別DB231には、サイネージIDおよび表示内容に関する情報の他、分割エリアの範囲を示す情報が格納される。パターンDB232には、サイネージ別に生成された1以上の視線移動パターンが格納される。なお、制御部220Aは、設定したユーザのグループが、デジタルサイネージ30の利用を終了した場合、当該グループの認証に用いていた視線移動パターンを、パターンDB232から破棄する。 The storage unit 230A stores a signage-specific DB 231 and a pattern DB 232. The signage-specific DB 231 stores information indicating the range of divided areas in addition to information regarding the signage ID and display content. The pattern DB 232 stores one or more eye movement patterns generated for each signage. In addition, when the set group of users finishes using the digital signage 30, the control unit 220A discards the line-of-sight movement pattern used for authentication of the group from the pattern DB 232.

以上、本応用例によるサーバ20Aの構成の一例について説明した。 An example of the configuration of the server 20A according to this application example has been described above.

(5-2.動作処理)
次に、本応用例による情報提示システムの動作処理について具体的に説明する。図12は、本応用例による情報提示システムの全体の流れの一例を示すシーケンス図である。
(5-2. Operation processing)
Next, the operational processing of the information presentation system according to this application example will be specifically explained. FIG. 12 is a sequence diagram showing an example of the overall flow of the information presentation system according to this application example.

まず、図12に示すように、ユーザ端末10Xおよびユーザ端末10Yは、それぞれ、デジタルサイネージ30に表示されたQRコードの撮像画像からサイネージIDを取得し(ステップS203、S209)、サイネージIDを含む接続要求をサーバ20に送信する(ステップS206、S212)。本応用例では、ユーザ端末10Xおよびユーザ端末10Yにおいて、それぞれ同じデジタルサイネージ30から同じサイネージIDが取得され、サーバ20Aに送信される。 First, as shown in FIG. 12, the user terminal 10X and the user terminal 10Y each obtain a signage ID from the captured image of the QR code displayed on the digital signage 30 (steps S203, S209), and connect the signage ID including the signage ID. The request is sent to the server 20 (steps S206, S212). In this application example, the same signage ID is acquired from the same digital signage 30 in the user terminal 10X and the user terminal 10Y, and is transmitted to the server 20A.

次いで、サーバ20Aは、ユーザ端末10X、ユーザ端末10Yからの接続要求に応じて、受信したサイネージIDを、各ユーザに対応付ける(ステップS215)。ここでは、ユーザ端末10Xの識別情報と、ユーザ端末10Yの識別情報に、同じサイネージIDが対応付けられる。 Next, the server 20A associates the received signage ID with each user in response to the connection requests from the user terminals 10X and 10Y (step S215). Here, the same signage ID is associated with the identification information of the user terminal 10X and the identification information of the user terminal 10Y.

次に、ユーザ端末10Xは、ホスト側としてのアカウント連携処理を開始する(ステップS218)。例えばユーザ端末10Xのメニュー画面に表示される、「ホスト側アカウント連携処理開始」等のボタンがユーザXに選択された際に開始される。 Next, the user terminal 10X starts account linkage processing on the host side (step S218). For example, it is started when the user X selects a button such as "Start host-side account linkage processing" displayed on the menu screen of the user terminal 10X.

次いで、ユーザ端末10Xは、アカウント連携の開始要求をサーバ20Aに送信する(ステップS221)。 Next, the user terminal 10X transmits a request to start account linkage to the server 20A (step S221).

次に、サーバ20Aは、アカウント連携開始要求に応じて、パターン管理部225により、視線移動パターンを生成する(ステップS224)。 Next, the server 20A uses the pattern management unit 225 to generate a gaze movement pattern in response to the account linkage start request (step S224).

次いで、サーバ20Aは、生成された視線移動パターンをユーザ端末10Xに送信する(ステップS227)。 Next, the server 20A transmits the generated line-of-sight movement pattern to the user terminal 10X (step S227).

次に、ユーザ端末10Xは、受信した視線移動パターンを表示部160に表示する(ステップS233)。表示例は、図10に示す通りである。ユーザXは、視線移動パターンを確認すると、デジタルサイネージ30の表示部31に対して視線入力を開始する。 Next, the user terminal 10X displays the received gaze movement pattern on the display unit 160 (step S233). A display example is as shown in FIG. After confirming the line-of-sight movement pattern, user

次いで、ユーザ端末10Xでは、視線センサ140によりユーザXの視線検出が行われ(ステップS233)、また、カメラ150によりデジタルサイネージ30の撮像が行われる(ステップS236)。 Next, in the user terminal 10X, the line of sight sensor 140 detects the line of sight of the user X (step S233), and the camera 150 captures an image of the digital signage 30 (step S236).

続いて、ユーザ端末10Xは、ユーザXの視線情報およびサイネージ撮像画像をサーバ20Aに送信する(ステップS239)。 Subsequently, the user terminal 10X transmits the line-of-sight information and the signage captured image of the user X to the server 20A (step S239).

次いで、サーバ20Aは、注視点算出部221により、ユーザXの視線情報とサイネージ撮像画像に基づいて、ユーザXの注視点を算出する(ステップS242)。 Next, the server 20A uses the gaze point calculation unit 221 to calculate the gaze point of the user X based on the user X's line of sight information and the signage captured image (step S242).

次に、サーバ20Aは、算出された注視点に基づいてパターン認識部226によりユーザXの視線移動パターンを認識し、認証部227により、認証用に生成された上記視線移動パターンと一致しているか否かの判断を行い、一致している場合はユーザXをホストとして認証する(ステップS245)。具体的には、認証部227は、視線移動パターンが一致している場合、ユーザ端末10Xをホスト端末に設定する。 Next, the server 20A uses the pattern recognition unit 226 to recognize the eye movement pattern of the user X based on the calculated gaze point, and determines whether the eye movement pattern matches the eye movement pattern generated for authentication using the authentication unit 227. If they match, user X is authenticated as a host (step S245). Specifically, if the eye movement patterns match, the authentication unit 227 sets the user terminal 10X as the host terminal.

次いで、サーバ20Aは、ホスト認証が成功したことをユーザ端末10Xに通知する(ステップS248)。 Next, the server 20A notifies the user terminal 10X that the host authentication has been successful (step S248).

ユーザ端末10Xは、ホスト認証が成功した旨を表示部160に表示してユーザXに通知する(ステップS251)。この際、ユーザ端末10Xは、表示部160に、グループに参加させたいユーザに認証用の視線移動パターンを共有するよう案内する情報を表示してもよい。ユーザXは、例えば図10に示すような認証用の視線移動パターンの表示を、一緒に居るユーザYに見せて共有する。 The user terminal 10X displays on the display unit 160 to notify the user X that the host authentication has been successful (step S251). At this time, the user terminal 10X may display information on the display unit 160 that guides the user who wants to participate in the group to share the eye movement pattern for authentication. User X shows and shares a display of a gaze movement pattern for authentication, such as the one shown in FIG. 10, with user Y who is present with him, for example.

ユーザ端末10Yでは、クライアント側としてのアカウント連携処理が開始される(ステップS254)。例えばユーザ端末10Yのメニュー画面に表示される、「クライアント側アカウント連携処理開始」等のボタンがユーザYに選択された際、ユーザ端末10Yはアカウント連携処理を開始する。ユーザYは、ユーザX(ホスト)から共有された視線移動パターンを確認すると、アカウント連携処理の開始操作を行った上で、デジタルサイネージ30の表示部31に対して視線入力を開始する。ユーザ端末10Yは、アカウント連携処理として以下の処理を行う。 In the user terminal 10Y, account linkage processing on the client side is started (step S254). For example, when the user Y selects a button such as "Start client-side account linkage processing" displayed on the menu screen of the user terminal 10Y, the user terminal 10Y starts the account linkage process. When user Y confirms the gaze movement pattern shared by user X (host), he performs an operation to start account linkage processing, and then starts gaze input on the display unit 31 of the digital signage 30. The user terminal 10Y performs the following processing as account linkage processing.

まず、ユーザ端末10Yは、視線センサ140によりユーザYの視線検出を行い(ステップS257)、さらに、カメラ150によりデジタルサイネージ30の撮像を行う(ステップS260)。 First, the user terminal 10Y detects the line of sight of the user Y using the line of sight sensor 140 (step S257), and further images the digital signage 30 using the camera 150 (step S260).

次に、ユーザ端末10Yは、ユーザYの視線情報およびサイネージ撮像画像を含むクライアント認証要求をサーバ20Aに送信する(ステップS263)。 Next, the user terminal 10Y transmits a client authentication request including the line-of-sight information of the user Y and the signage captured image to the server 20A (step S263).

次いで、サーバ20Aは、注視点算出部221により、ユーザYの視線情報とサイネージ撮像画像に基づいて、ユーザYの注視点を算出する(ステップS266)。 Next, the server 20A uses the gaze point calculation unit 221 to calculate the gaze point of the user Y based on the user Y's line of sight information and the signage captured image (step S266).

次に、サーバ20Aは、算出された注視点に基づいてパターン認識部226によりユーザYの視線移動パターンを認識し、認証部227により、クライアント認証を行う(ステップS269)。具体的には、認証部227は、ユーザYの視線移動パターンが、認証用に生成された上記視線移動パターンと一致しているか否かの判断を行う。次に、認証部227は、視線移動パターンが一致し、さらに、ホストのユーザXに対応付けられたサイネージIDと、ユーザYに対応付けられたサイネージIDが一致している場合は、ユーザYをクライアントとして認証(ユーザ端末10Yをクライアント端末に設定)する。クライアント端末の設定とは、ホスト端末とのアカウントの連携であり、これにより、複数ユーザのグループ設定が実現される。サーバ20Aは、クライアント認証が成功したこと(グループ設定できたこと)をユーザ端末10Xおよびユーザ端末10Yに通知してもよい。 Next, the server 20A uses the pattern recognition unit 226 to recognize the line-of-sight movement pattern of the user Y based on the calculated gaze point, and the authentication unit 227 performs client authentication (step S269). Specifically, the authentication unit 227 determines whether the eye movement pattern of user Y matches the eye movement pattern generated for authentication. Next, if the line-of-sight movement patterns match and the signage ID associated with user Authenticate as a client (set user terminal 10Y as a client terminal). Setting a client terminal means linking an account with a host terminal, thereby realizing a group setting for multiple users. The server 20A may notify the user terminals 10X and 10Y that the client authentication has been successful (that the group has been set).

以上、本応用例によるグループ設定の動作処理について具体的に説明した。本応用例では、グループ設定(アカウント連携)に視線移動パターンを用いた認証を行うことで、パスコードの文字列の入力といった操作の手間が省かれ、決められた順番に視線を移動させるといった、より簡便な方法で認証が可能となる。なお、図12に示す動作処理の流れは一例であって、本発明はこれに限定されない。また、グループ設定が行われた後は、上述した通り、サーバ20Aが、グループの各ユーザの感情推定結果を統合してグループ全体の感情を推定する。そして、サーバ20Aは、推定したグループ全体の感情に対応する情報を取得し、グループの各ユーザに個別に提示する制御を行う。これにより、グループ設定された各ユーザは、各ユーザ端末10で同じ提示情報を見ることができる。 The group setting operation processing according to this application example has been specifically explained above. In this application example, by performing authentication using gaze movement patterns for group settings (account linkage), the hassle of operations such as inputting passcode strings is eliminated, and the user can move his gaze in a predetermined order. Authentication becomes possible using a simpler method. Note that the flow of the operation process shown in FIG. 12 is an example, and the present invention is not limited thereto. Further, after the group setting is performed, as described above, the server 20A integrates the emotion estimation results of each user in the group to estimate the emotion of the entire group. Then, the server 20A performs control to obtain information corresponding to the estimated emotions of the entire group and to individually present the information to each user of the group. Thereby, each group-set user can view the same presentation information on each user terminal 10.

<6.ハードウェア構成例>
続いて、本実施形態に係るユーザ端末10、サーバ20、およびサーバ20Aのハードウェア構成について説明する。上記の動作は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
<6. Hardware configuration example>
Next, the hardware configurations of the user terminal 10, server 20, and server 20A according to this embodiment will be described. The above operations are realized through cooperation between software and hardware described below.

図13は、本実施形態による情報処理装置900のハードウェア構成の一例を示すブロック図である。情報処理装置900は、本実施形態によるユーザ端末10、サーバ20、およびサーバ20Aに適用されるハードウェア構成の一例である。 FIG. 13 is a block diagram showing an example of the hardware configuration of the information processing device 900 according to this embodiment. The information processing device 900 is an example of a hardware configuration applied to the user terminal 10, server 20, and server 20A according to this embodiment.

情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力機器908と、出力機器909と、ストレージ機器910と、ドライブ911と、通信機器913と、を備える。 The information processing device 900 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, a host bus 904, a bridge 905, an external bus 906, and an interface 9. 07 and , an input device 908, an output device 909, a storage device 910, a drive 911, and a communication device 913.

CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムおよび演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラム、およびその実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。CPU901、ROM902およびRAM903の協働により、ユーザ端末10の制御部120、サーバ20の制御部220、またはサーバ20Aの制御部220Aが実現される。 The CPU 901 functions as an arithmetic processing device and a control device, and controls overall operations within the information processing device 900 according to various programs. Further, the CPU 901 may be a microprocessor. The ROM 902 stores programs used by the CPU 901, calculation parameters, and the like. The RAM 903 temporarily stores programs used in the execution of the CPU 901 and parameters that change as appropriate during the execution. These are interconnected by a host bus 904 composed of a CPU bus and the like. The CPU 901, ROM 902, and RAM 903 work together to realize the control unit 120 of the user terminal 10, the control unit 220 of the server 20, or the control unit 220A of the server 20A.

ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。 The host bus 904 is connected via a bridge 905 to an external bus 906 such as a PCI (Peripheral Component Interconnect/Interface) bus. Note that the host bus 904, bridge 905, and external bus 906 do not necessarily need to be configured separately, and these functions may be implemented in one bus.

入力機器908は、マウス、キーボード、タッチパネル、ボタン、スイッチまたはマイクロフォン等、操作者が情報を入力するための入力手段と、操作者による入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。情報処理装置900を操作する操作者は、この入力機器908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。入力機器908により、ユーザ端末10の操作入力部130が実現される。 The input device 908 includes input means for the operator to input information, such as a mouse, keyboard, touch panel, button, switch, or microphone, and an input control device that generates an input signal based on the input by the operator and outputs it to the CPU 901. It consists of circuits, etc. By operating the input device 908, the operator of the information processing device 900 can input various data to the information processing device 900 and instruct processing operations. The input device 908 implements the operation input unit 130 of the user terminal 10.

出力機器909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。出力機器909により、ユーザ端末10の表示部160が実現される。 The output device 909 includes, for example, a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, a display device such as a lamp, and an audio output device such as a speaker. The output device 909 realizes the display unit 160 of the user terminal 10.

ストレージ機器910は、データ格納用の機器である。ストレージ機器910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ機器910により、ユーザ端末10の記憶部170、サーバ20の記憶部230、またはサーバ20Aの記憶部230Aが実現される。 The storage device 910 is a device for storing data. The storage device 910 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like. The storage device 910 realizes the storage unit 170 of the user terminal 10, the storage unit 230 of the server 20, or the storage unit 230A of the server 20A.

ドライブ911は、記憶媒体用リーダライタであり、情報処理装置900に外付けされる。ドライブ911は、装着される磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体912に記録されている情報を読み出して、RAM903に出力する。また、ドライブ911は、リムーバブル記憶媒体912に情報を書き込むこともできる。 The drive 911 is a reader/writer for storage media, and is externally attached to the information processing apparatus 900. The drive 911 reads information recorded on a removable storage medium 912 such as an attached magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs it to the RAM 903 . The drive 911 can also write information to a removable storage medium 912.

通信機器913は、通信を行うための通信デバイス等で構成された通信インタフェースである。当該通信機器913により、ユーザ端末10の通信部110、または、サーバ20若しくはサーバ20Aの通信部210が実現される。 The communication device 913 is a communication interface configured with a communication device and the like for performing communication. The communication device 913 realizes the communication unit 110 of the user terminal 10 or the communication unit 210 of the server 20 or server 20A.

なお、情報処理装置900のハードウェア構成は、図13に示す構成に限られない。例えば、情報処理装置900は、接続されている外部の通信デバイスを介して通信を行う場合には、通信機器913を備えていなくてもよい。また、情報処理装置900は、例えば、入力機器908または出力機器909等を備えなくてもよい。また、例えば、図13に示す構成の一部または全部は、1または2以上のIC(Integrated Circuit)で実現されてもよい。 Note that the hardware configuration of the information processing device 900 is not limited to the configuration shown in FIG. 13. For example, the information processing apparatus 900 does not need to include the communication device 913 when communicating via a connected external communication device. Further, the information processing apparatus 900 does not need to include the input device 908 or the output device 909, for example. Further, for example, part or all of the configuration shown in FIG. 13 may be realized by one or more ICs (Integrated Circuits).

<7.補足>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<7. Supplement>
Although preferred embodiments of the present invention have been described above in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is clear that a person with ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea stated in the claims. It is understood that these also naturally fall within the technical scope of the present invention.

例えば、サーバ20の注視点算出部221で行われる注視点の算出を、ユーザ端末10の制御部120で行ってもよい。ユーザ端末10は、ユーザの視線情報およびデジタルサイネージ30の撮像画像に基づいて、デジタルサイネージ30の表示画面上の注視点を算出し、算出結果(注視点に対応する座標位置の情報)を、サーバ20に送信してもよい。 For example, the calculation of the gaze point performed by the gaze point calculation unit 221 of the server 20 may be performed by the control unit 120 of the user terminal 10. The user terminal 10 calculates the gaze point on the display screen of the digital signage 30 based on the user's line of sight information and the captured image of the digital signage 30, and sends the calculation result (information on the coordinate position corresponding to the gaze point) to the server. It may be sent to 20.

また、応用例によるアカウント連携は、ユーザ感情に対応する情報の提示の際に限らず、複数のユーザアカウントを連携させたい場合に活用することも可能である。例えば、応用例によるアカウント連携は、対人ゲームのユーザ同士の通信にも適用可能である。 Further, the account linkage according to the application example is not limited to the presentation of information corresponding to user emotions, but can also be utilized when it is desired to link multiple user accounts. For example, the account linkage according to the application example can also be applied to communication between users of an interpersonal game.

また、ユーザ端末10、サーバ20、またはサーバ20Aに内蔵されるCPU、ROM、およびRAM等のハードウェアに、ユーザ端末10、サーバ20、またはサーバ20Aの機能を発揮させるための1以上のコンピュータプログラムも作成可能である。また、当該1以上のコンピュータプログラムが記憶されたコンピュータ読み取り可能な記憶媒体も提供される。 Also, one or more computer programs for causing hardware such as a CPU, ROM, and RAM built in the user terminal 10, server 20, or server 20A to perform the functions of the user terminal 10, server 20, or server 20A. can also be created. Also provided is a computer readable storage medium having the one or more computer programs stored thereon.

10 ユーザ端末
110 通信部
120 制御部
130 操作入力部
140 視線センサ
150 カメラ
160 表示部
170 記憶部
20、20A サーバ
210 通信部
220、220A 制御部
221 注視点算出部
222 感情推定部
223 提示情報取得部
224 提示制御部
225 パターン管理部
226 パターン認識部
227 認証部
230、230A 記憶部
231 サイネージ別DB
232 パターンDB
30 デジタルサイネージ
31 表示部
311 QRコード

10 user terminal 110 communication unit 120 control unit 130 operation input unit 140 line of sight sensor 150 camera 160 display unit 170 storage unit 20, 20A server 210 communication unit 220, 220A control unit 221 gaze point calculation unit 222 emotion estimation unit 223 presentation information acquisition unit 224 Presentation control unit 225 Pattern management unit 226 Pattern recognition unit 227 Authentication unit 230, 230A Storage unit 231 DB by signage
232 Pattern DB
30 Digital signage 31 Display section 311 QR code

Claims (16)

ユーザ端末で取得される、情報提供領域に対するユーザの視線に関する情報である視線情報と、前記情報提供領域で提供されている情報内容とに基づき、前記ユーザの情報に対する感情を推定する処理と、
推定した感情に対応する提示情報を取得する処理と、
前記提示情報を前記ユーザ端末に送信する処理と、
を行う制御部を備える、情報処理装置。
A process of estimating the user's emotion toward the information based on line-of-sight information, which is information regarding the user's line of sight toward the information-providing area, acquired by a user terminal, and information content provided in the information-providing area;
a process of acquiring presentation information corresponding to the estimated emotion;
a process of transmitting the presentation information to the user terminal;
An information processing device comprising a control unit that performs.
前記情報提供領域は、公共の場で不特定多数のユーザに情報を提供する物体である表示装置の表示画面である、請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the information providing area is a display screen of a display device that is an object that provides information to an unspecified number of users in a public place. 前記制御部は、前記ユーザの視線情報に基づいて感情の分類を判定し、さらに前記表示画面の内容に基づいて、前記ユーザの情報に対する感情を推定する、請求項2に記載の情報処理装置。 The information processing device according to claim 2, wherein the control unit determines the emotion classification based on the user's line of sight information, and further estimates the user's emotion regarding the information based on the content of the display screen. 前記制御部は、前記視線情報と、前記ユーザ端末で取得された前記表示画面の撮像画像とに基づいて、前記表示画面における前記ユーザの注視点を算出する、請求項2または3に記載の情報処理装置。 The information according to claim 2 or 3, wherein the control unit calculates the user's gaze point on the display screen based on the line-of-sight information and a captured image of the display screen acquired by the user terminal. Processing equipment. 前記制御部は、前記ユーザの注視点に表示されている内容に基づいて、前記ユーザの情報に対する感情を推定する、請求項2または3に記載の情報処理装置。 The information processing device according to claim 2 or 3, wherein the control unit estimates the user's emotion regarding the information based on the content displayed at the user's gaze point. 前記感情に対応する提示情報は、前記ユーザを支援するために前記表示画面に表示されている内容を補足する情報である、請求項2または3に記載の情報処理装置。 4. The information processing apparatus according to claim 2, wherein the presentation information corresponding to the emotion is information that supplements content displayed on the display screen to support the user. 前記制御部は、前記表示装置の識別情報に対応付けられるデータベースから、前記表示画面に表示されている内容に関する情報および前記提示情報を取得する、請求項2または3に記載の情報処理装置。 The information processing device according to claim 2 or 3, wherein the control unit acquires information regarding the content displayed on the display screen and the presentation information from a database associated with identification information of the display device. 前記制御部は、前記表示画面における視線移動パターンを用いた認証により、複数ユーザをグループに設定する処理を行う、請求項2または3に記載の情報処理装置。 The information processing apparatus according to claim 2 or 3, wherein the control unit performs a process of setting a plurality of users into a group through authentication using a line-of-sight movement pattern on the display screen. 前記制御部は、ユーザ端末から受信した視線情報から認識した視線移動パターンと、予め生成した視線移動パターンとが一致する場合に、認証成功とする、請求項8に記載の情報処理装置。 The information processing device according to claim 8, wherein the control unit determines that the authentication is successful when a gaze movement pattern recognized from gaze information received from a user terminal matches a gaze movement pattern generated in advance. 前記制御部は、認証が成功した複数のユーザのユーザ端末のアカウントを連携させることで、当該複数のユーザを同一グループに設定する、請求項9に記載の情報処理装置。 The information processing apparatus according to claim 9, wherein the control unit sets the plurality of users to the same group by linking the accounts of the user terminals of the plurality of users who have been successfully authenticated. 前記制御部は、さらに前記複数のユーザ端末に対応付けられる前記表示装置の識別情報が一致する場合に、同一グループに設定する、請求項10に記載の情報処理装置。 The information processing apparatus according to claim 10, wherein the control unit further sets the plurality of user terminals in the same group when identification information of the display devices associated with the plurality of user terminals match. 前記視線移動パターンは、前記表示画面を複数のエリアに分割した各分割エリアにおける視線滞留の順番である、請求項8に記載の情報処理装置。 The information processing device according to claim 8, wherein the line-of-sight movement pattern is an order of line-of-sight retention in each divided area where the display screen is divided into a plurality of areas. 前記制御部は、
前記視線移動パターンを用いた認証により一のユーザ端末をホスト端末に設定し、
前記視線移動パターンを用いた認証により他のユーザ端末をクライアント端末に設定して前記ホスト端末のアカウントに連携させることで、複数のユーザをグループに設定する、
請求項8に記載の情報処理装置。
The control unit includes:
Setting one user terminal as a host terminal by authentication using the eye movement pattern,
Setting a plurality of users into a group by setting another user terminal as a client terminal through authentication using the eye movement pattern and linking it to the account of the host terminal;
The information processing device according to claim 8.
前記制御部は、
グループに設定された複数のユーザの感情を統合してグループ全体の感情を推定し、
推定したグループ全体の感情に対応する提示情報を取得し、
当該提示情報を、アカウント連携した複数のユーザ端末に送信する制御を行う、
請求項8に記載の情報処理装置。
The control unit includes:
Integrate the emotions of multiple users set in a group to estimate the emotions of the entire group,
Obtain presentation information that corresponds to the estimated emotions of the entire group,
Controls sending of the presented information to multiple user terminals linked to accounts,
The information processing device according to claim 8.
プロセッサが、
ユーザ端末で取得される、情報提供領域に対するユーザの視線に関する情報である視線情報と、前記情報提供領域で提供されている情報内容とに基づき、前記ユーザの情報に対する感情を推定することと、
推定した感情に対応する提示情報を取得することと、
前記提示情報を前記ユーザ端末に送信することと、
を含む、情報処理方法。
The processor
Estimating the user's emotion regarding the information based on gaze information, which is information regarding the user's line of sight toward the information providing area, acquired by a user terminal, and information content provided in the information providing area;
obtaining presentation information corresponding to the estimated emotion;
transmitting the presentation information to the user terminal;
information processing methods, including
コンピュータを、
ユーザ端末で取得される、情報提供領域に対するユーザの視線に関する情報である視線情報と、前記情報提供領域で提供されている情報内容とに基づき、前記ユーザの情報に対する感情を推定する処理と、
推定した感情に対応する提示情報を取得する処理と、
前記提示情報を前記ユーザ端末に送信する処理と、
を行う制御部として機能させる、プログラム。
computer,
A process of estimating the user's emotion toward the information based on line-of-sight information, which is information regarding the user's line of sight toward the information-providing area, acquired by a user terminal, and information content provided in the information-providing area;
a process of acquiring presentation information corresponding to the estimated emotion;
a process of transmitting the presentation information to the user terminal;
A program that functions as a control unit that performs.
JP2022118590A 2022-07-26 2022-07-26 Information processing device, information processing method, and program Pending JP2024016454A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022118590A JP2024016454A (en) 2022-07-26 2022-07-26 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022118590A JP2024016454A (en) 2022-07-26 2022-07-26 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2024016454A true JP2024016454A (en) 2024-02-07

Family

ID=89806551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022118590A Pending JP2024016454A (en) 2022-07-26 2022-07-26 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2024016454A (en)

Similar Documents

Publication Publication Date Title
US10264207B2 (en) Method and system for creating virtual message onto a moving object and searching the same
CN103733196A (en) Method and apparatus for enabling a searchable history of real-world user experiences
KR20120086795A (en) Augmented reality system and method that share augmented reality service to remote
JP2013200793A (en) Information processing apparatus, information processing method, and program
WO2018159736A1 (en) Information processing device, terminal device, information processing method, information output method, customer service assistance method, and recording medium
JP6728863B2 (en) Information processing system
CN106612417B (en) Network camera, monitoring server, and method of controlling monitoring system
JP2017162103A (en) Inspection work support system, inspection work support method, and inspection work support program
JP2020194493A (en) Monitoring system for nursing-care apparatus or hospital and monitoring method
JP2017174339A (en) Information presentation device and information processing system
JP2024016454A (en) Information processing device, information processing method, and program
JP2010011017A (en) Video-image processing system and processing method
JP2014164572A (en) Information processing device and program
WO2022176450A1 (en) Information processing device, information processing method, and program
US10313827B2 (en) Server and method for providing content, and computer-readable storage medium for computer program
JP6354848B2 (en) Sensor management system, sensor management device, sensor device, sensor management method and program
JP2019061556A (en) Communication system and wearable terminal
JP6652446B2 (en) Work support device
JP6382772B2 (en) Gaze guidance device, gaze guidance method, and gaze guidance program
JP2018137683A (en) Report support system, mobile terminal, report support method and program
US10997410B2 (en) Information processing device and information processing system
JP2016038682A (en) Information processing apparatus and control method of the same, server device and control method of the same, and computer program
KR20200088199A (en) Electronic business card exchanging system using mobile terminal and method thereof
JP2014228950A (en) Information management device, information management system, communication terminal, and information management method
JP2018181339A (en) System, and information processing method and program