JP2024016454A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2024016454A JP2024016454A JP2022118590A JP2022118590A JP2024016454A JP 2024016454 A JP2024016454 A JP 2024016454A JP 2022118590 A JP2022118590 A JP 2022118590A JP 2022118590 A JP2022118590 A JP 2022118590A JP 2024016454 A JP2024016454 A JP 2024016454A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- user terminal
- sight
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 36
- 238000003672 processing method Methods 0.000 title claims description 5
- 230000008451 emotion Effects 0.000 claims abstract description 108
- 238000012545 processing Methods 0.000 claims abstract description 22
- 238000000034 method Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 17
- 230000004424 eye movement Effects 0.000 claims description 14
- 239000013589 supplement Substances 0.000 claims description 4
- 230000014759 maintenance of location Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 26
- 238000004364 calculation method Methods 0.000 description 19
- 238000003909 pattern recognition Methods 0.000 description 11
- 230000004044 response Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.
従来、ユーザの感情を推定し、感情に基づいてそのユーザに適した情報を提示するシステムがある。例えば下記特許文献1では、ユーザの感情と、ユーザがその感情を抱いた対象とに基づいて情報を提示する技術について開示されている。具体的には、下記特許文献1では、推定した感情がネガティブな感情であるときには、対象を取り除くための情報を提示し、推定した感情がポジティブな感情であるときには、感情を維持するため情報を提示している。
Conventionally, there are systems that estimate a user's emotions and present information suitable for the user based on the emotions. For example,
ここで、例えば公共の場に設置される電子案内板や電子広告板等の表示装置のように、不特定多数のユーザに情報を提供している際に、各ユーザの感情を推定して提示情報を最適化しても、最適化された情報が他のユーザに視認可能な状態で提示されると、プライバシー保護の観点から好ましくない。上記特許文献1でも、不特定多数のユーザに情報を提供している場合については考慮されていない。
For example, when providing information to an unspecified number of users, such as on display devices such as electronic guide boards and electronic billboards installed in public places, the emotions of each user are estimated and displayed. Even if information is optimized, it is not desirable from the viewpoint of privacy protection if the optimized information is presented in a visible state to other users.
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、プライバシー保護を考慮してユーザの感情に応じた情報提示を行うことが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提供することにある。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a new and improved method that can present information in accordance with the user's emotions while taking privacy protection into consideration. An object of the present invention is to provide an information processing device, an information processing method, and a program.
上記課題を解決するために、本発明のある観点によれば、ユーザ端末で取得される、情報提供領域に対するユーザの視線に関する情報である視線情報と、前記情報提供領域で提供されている情報内容とに基づき、前記ユーザの情報に対する感情を推定する処理と、推定した感情に対応する提示情報を取得する処理と、前記提示情報を前記ユーザ端末に送信する処理と、を行う制御部を備える、情報処理装置が提供される。 In order to solve the above-mentioned problems, according to one aspect of the present invention, line-of-sight information, which is information regarding the user's line of sight with respect to an information providing area, acquired by a user terminal, and information content provided in the information providing area. a control unit that performs a process of estimating the user's emotion regarding the information based on the above, a process of acquiring presentation information corresponding to the estimated emotion, and a process of transmitting the presentation information to the user terminal, An information processing device is provided.
前記情報提供領域は、公共の場で不特定多数のユーザに情報を提供する物体である表示装置の表示画面であってもよい。 The information providing area may be a display screen of a display device that is an object that provides information to an unspecified number of users in a public place.
前記制御部は、前記ユーザの視線情報に基づいて感情の分類を判定し、さらに前記表示画面の内容に基づいて、前記ユーザの情報に対する感情を推定してもよい。 The control unit may determine the emotion classification based on the user's line of sight information, and further estimate the user's emotion regarding the information based on the content of the display screen.
前記制御部は、前記視線情報と、前記ユーザ端末で取得された前記表示画面の撮像画像とに基づいて、前記表示画面における前記ユーザの注視点を算出してもよい。 The control unit may calculate a gaze point of the user on the display screen based on the line-of-sight information and a captured image of the display screen acquired by the user terminal.
前記制御部は、前記ユーザの注視点に表示されている内容に基づいて、前記ユーザの情報に対する感情を推定してもよい。 The control unit may estimate the user's emotion regarding the information based on the content displayed at the user's gaze point.
前記感情に対応する提示情報は、前記ユーザを支援するために前記表示画面に表示されている内容を補足する情報であってもよい。 The presentation information corresponding to the emotion may be information that supplements the content displayed on the display screen to support the user.
前記制御部は、前記表示装置の識別情報に対応付けられるデータベースから、前記表示画面に表示されている内容に関する情報および前記提示情報を取得してもよい。 The control unit may acquire information regarding content displayed on the display screen and the presentation information from a database associated with identification information of the display device.
前記制御部は、前記表示画面における視線移動パターンを用いた認証により、複数ユーザをグループに設定する処理を行ってもよい。 The control unit may perform a process of setting a plurality of users into a group through authentication using a line-of-sight movement pattern on the display screen.
前記制御部は、ユーザ端末から受信した視線情報から認識した視線移動パターンと、予め生成した視線移動パターンとが一致する場合に、認証成功としてもよい。 The control unit may determine that the authentication is successful when a line-of-sight movement pattern recognized from line-of-sight information received from the user terminal matches a line-of-sight movement pattern generated in advance.
前記制御部は、認証が成功した複数のユーザのユーザ端末のアカウントを連携させることで、当該複数のユーザを同一グループに設定してもよい。 The control unit may set the plurality of users to the same group by linking the accounts of the user terminals of the plurality of users who have been successfully authenticated.
前記制御部は、さらに前記複数のユーザ端末に対応付けられる前記表示装置の識別情報が一致する場合に、同一グループに設定してもよい。 The control unit may further set the plurality of user terminals in the same group when identification information of the display devices associated with the plurality of user terminals match.
前記視線移動パターンは、前記表示画面を複数のエリアに分割した各分割エリアにおける視線滞留の順番であってもよい。 The line-of-sight movement pattern may be the order in which the line-of-sight stays in each divided area where the display screen is divided into a plurality of areas.
前記制御部は、前記視線移動パターンを用いた認証により一のユーザ端末をホスト端末に設定し、前記視線移動パターンを用いた認証により他のユーザ端末をクライアント端末に設定して前記ホスト端末のアカウントに連携させることで、複数のユーザをグループに設定してもよい。 The control unit sets one user terminal as a host terminal through authentication using the eye movement pattern, sets another user terminal as a client terminal through authentication using the eye movement pattern, and creates an account of the host terminal. You can set multiple users in a group by linking them.
前記制御部は、グループに設定された複数のユーザの感情を統合してグループ全体の感情を推定し、推定したグループ全体の感情に対応する提示情報を取得し、当該提示情報を、アカウント連携した複数のユーザ端末に送信する制御を行ってもよい。 The control unit integrates the emotions of a plurality of users set in the group to estimate the emotions of the entire group, obtains presentation information corresponding to the estimated emotions of the entire group, and uses the presentation information to create an account linked account. Control of transmission to multiple user terminals may also be performed.
また、上記課題を解決するために本発明の別の観点によれば、プロセッサが、ユーザ端末で取得される、情報提供領域に対するユーザの視線に関する情報である視線情報と、前記情報提供領域で提供されている情報内容とに基づき、前記ユーザの情報に対する感情を推定することと、推定した感情に対応する提示情報を取得することと、前記提示情報を前記ユーザ端末に送信することと、を含む、情報処理方法が提供される。 According to another aspect of the present invention, in order to solve the above problems, a processor includes line-of-sight information, which is information regarding a user's line of sight with respect to an information providing area, acquired by a user terminal, and information provided in the information providing area. estimating the user's emotion with respect to the information based on the information content, obtaining presentation information corresponding to the estimated emotion, and transmitting the presentation information to the user terminal. , an information processing method is provided.
また、上記課題を解決するために本発明の別の観点によれば、コンピュータを、ユーザ端末で取得される、情報提供領域に対するユーザの視線に関する情報である視線情報と、前記情報提供領域で提供されている情報内容とに基づき、前記ユーザの情報に対する感情を推定する処理と、推定した感情に対応する提示情報を取得する処理と、前記提示情報を前記ユーザ端末に送信する処理と、を行う制御部として機能させる、プログラムが提供される。 According to another aspect of the present invention, in order to solve the above-mentioned problems, a computer is provided with line-of-sight information, which is information about a user's line of sight with respect to an information providing area, which is acquired by a user terminal, and information provided in the information providing area. A process of estimating the user's emotion toward the information based on the information content, a process of acquiring presentation information corresponding to the estimated emotion, and a process of transmitting the presentation information to the user terminal. A program is provided that functions as a control unit.
以上説明したように本発明によれば、プライバシー保護を考慮してユーザの感情に応じた情報提示を行うことを可能とする。 As described above, according to the present invention, it is possible to present information in accordance with the user's emotions while taking privacy protection into consideration.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. Note that, in this specification and the drawings, components having substantially the same functional configurations are designated by the same reference numerals and redundant explanation will be omitted.
<1.概要>
本実施形態は、公共の場に設置される電子案内板または電子広告板等の表示装置のように、不特定多数のユーザに情報を提供している場合に、ユーザの感情を推定し、推定した感情に応じた情報を当該ユーザに個別に提示する仕組みに関する。
<1. Overview>
This embodiment estimates the user's emotions when providing information to an unspecified number of users, such as a display device such as an electronic information board or an electronic billboard installed in a public place. The present invention relates to a mechanism for individually presenting information corresponding to the user's emotions.
図1は、本実施形態に係る情報提示システムの概要について説明する図である。本実施形態では、不特定多数のユーザに情報を提供する物体の一例として、公共の場に設置される電子案内板または電子広告板等の大型の表示装置が挙げられる。図1では、大型の表示装置の一例としてデジタルサイネージ30を図示する。デジタルサイネージ30は、自立型であってもよいし、壁面または柱に設置されていてもよい。例えばデジタルサイネージ30が展示会の案内板の場合、デジタルサイネージ30の表示部31には、各展示ブースの説明情報または経路案内の情報が提示される。デジタルサイネージ30の表示部31は画面サイズが大きいため、ユーザは自分のスマートフォンの小さな画面で情報を調べるよりも、デジタルサイネージ30を利用した方が、情報の全容把握または情報探索が行い易い。
FIG. 1 is a diagram illustrating an overview of an information presentation system according to this embodiment. In this embodiment, an example of an object that provides information to an unspecified number of users is a large display device such as an electronic information board or an electronic billboard installed in a public place. In FIG. 1, a
しかしながら、不特定多数のユーザが表示装置を利用する場面で、ユーザの感情に応じて最適化した情報を他のユーザに視認可能な状態で提示することは、プライバシー保護の観点から好ましくない。従来は、公共の場に設置される電子案内板または電子広告板等の表示装置において、不特定多数のユーザに対して最適な情報提示を行うことが困難であった。 However, in a situation where an unspecified number of users use a display device, it is not preferable from the viewpoint of privacy protection to present information optimized according to the user's emotions in a state that is visible to other users. Conventionally, it has been difficult to optimally present information to an unspecified number of users in display devices such as electronic information boards or electronic billboards installed in public places.
そこで、本発明の一本実施形態では、不特定多数のユーザに情報を提供する物体で情報探索中のユーザの感情を推定し、推定した感情に応じた情報の提示を当該ユーザのユーザ端末から個別に行うことで、プライバシー保護を考慮した情報提示を実現する。これにより、情報提示の利便性を高めることができる。 Therefore, in this embodiment of the present invention, the emotion of a user searching for information is estimated using an object that provides information to an unspecified number of users, and the information corresponding to the estimated emotion is presented from the user terminal of the user. By doing this individually, information can be presented with privacy protection in mind. Thereby, the convenience of information presentation can be improved.
図1に示す例では、デジタルサイネージ30の表示部31で情報探索中のユーザの感情が推定され、ユーザの感情に応じた情報がユーザ端末10から提示される。これにより、情報の全容把握または探索は画面サイズの大きいデジタルサイネージ30を利用しつつ、ユーザ個人に最適化された情報はユーザ端末10に表示されることで、ユーザのプライバシーが保護される。なお、本実施形態による情報提示システムでは、ユーザの感情推定を、ユーザ端末10に設けられる視線センサ140により得られる視線情報に基づいて行い得る。デジタルサイネージ30に設けられるセンサ等、不特定多数のユーザを対象とする固定センサの場合、視線の計測範囲に限りがあり、背丈、性別、または視力矯正の有無などのユーザ特性が異なる不特定多数のユーザの視線を計測することは困難である。したがって本実施形態では、各ユーザが所持するユーザ端末10に設けられるセンサまたはユーザの頭部に装着されるセンサといった、ユーザ特性に応じて自由に調整可能なセンサを用いてユーザの視線計測をそれぞれ行うことで、全てのユーザに対して感情推定を行い得る。
In the example shown in FIG. 1, the emotion of the user searching for information is estimated on the
図2は、本実施形態に係る情報提示システムの構成の一例を示す図である。図2に示すように、本実施形態に係る情報提示システムは、ユーザが利用するユーザ端末10と、サーバ20(情報処理装置)と、を含む。ユーザ端末10と、サーバ20は、ネットワーク50を介して通信接続され、データの送受信を行い得る。
FIG. 2 is a diagram showing an example of the configuration of the information presentation system according to this embodiment. As shown in FIG. 2, the information presentation system according to this embodiment includes a
ユーザ端末10は、例えばスマートフォン、携帯電話端末、タブレット端末、およびメガネ型ウェアラブルデバイス等の任意のモバイル端末により実現される。ユーザ端末10は、情報提供領域(例えばデジタルサイネージ30の表示画面)に対するユーザの視線情報、デジタルサイネージ30の表示部31(表示画面)を撮像した撮像画像、およびデジタルサイネージ30の識別情報をサーバ20に送信する。ユーザ端末10は、例えば図1に示すようにデジタルサイネージ30の表示部31に表示されたQRコード(登録商標)311から、デジタルサイネージ30の識別情報を読み取ることが可能である。QRコード311は、サイネージ30の表示部31以外の場所に貼付されていてもよい。また、QRコード311は、デジタルサイネージ30の識別情報を含む符号化情報の一例であって、これに限定されない。デジタルサイネージ30の識別情報は、一次元コードまたは二次元コードから取得されてもよい。また、デジタルサイネージ30の識別情報がデジタルサイネージ30に表示、印字、または貼付され、これをユーザ端末10がOCR(Optical Character Reader)技術により文字認識して取得してもよいし、ユーザがユーザ端末10に手入力してもよい。
The
サーバ20は、ユーザ端末10から受信した視線情報、およびデジタルサイネージ30の表示画面の撮像画像に基づいて、デジタルサイネージ30の表示画面(情報提供領域の一例)で情報探索中のユーザの感情を推定する。そして、サーバ20は、推定した感情に対応する情報を取得し、取得した情報をユーザ端末10に送信する。推定した感情に対応する情報は、情報探索中のユーザを支援するための情報であって、具体的には、デジタルサイネージ30の表示画面に表示されている内容を補足する情報である。デジタルサイネージ30の表示画面におけるユーザの注視点は、ユーザ端末10から受信した視線情報に含まれるユーザの視線方向と、デジタルサイネージ30の表示画面の撮像画像から得られる。また、サーバ20は、ユーザ端末10から受信したデジタルサイネージ30の識別情報に基づいて、デジタルサイネージ30の表示画面に表示されている内容および補足情報を、サイネージ別のDB(データベース)から取得し得る。
The
このように、本実施形態による情報提示システムは、不特定多数のユーザが利用するデジタルサイネージ30で情報探索中のユーザの感情を推定し、推定した感情に応じた情報の提示を当該ユーザのユーザ端末10で行うことで、プライバシー保護を考慮した情報提示を実現する。
In this way, the information presentation system according to the present embodiment estimates the emotion of a user who is searching for information on the
なお、デジタルサイネージ30は表示装置の一例であり、本実施形態に係る表示装置はデジタルサイネージに限定されない。例えば、本実施形態に係る表示装置は、スクリーン、壁面、床面、または天井に画像を投影するプロジェクタであってもよい。また、不特定多数のユーザに情報を提供する物体は表示装置に限られず、例えば、会場案内図または商業施設のフロアマップ等が印字された案内板、または説明文が印字された説明板等の、大判印刷物であってもよい。
Note that the
<2.サーバ20の構成例>
図3は、本実施形態によるサーバ20の構成の一例を示すブロック図である。図3に示すように、サーバ20は、通信部210、制御部220、および記憶部230を有する。
<2. Configuration example of
FIG. 3 is a block diagram showing an example of the configuration of the
(通信部210)
通信部210は、他の装置との間で情報の送受信を行う送信部および受信部としての機能を有する。通信部210は、例えばネットワーク50を介して、ユーザ端末10とデータの送受信を行い得る。ネットワーク50は、インターネット、電話回線網、衛星通信網などの公衆回線網、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)等で実現されてもよい。さらに、各ネットワークは、Wi-Fi(登録商標)、Bluetooth(登録商標)等の無線通信網で実現されてもよい。
(Communication Department 210)
The
(制御部220)
制御部220は、CPU(Central Processing Unit)およびRAM(Random Access Memory)等を中心に構成されており、サーバ20の動作を全般的に制御する。
(Control unit 220)
The
また、本実施形態による制御部220は、注視点算出部221、感情推定部222、提示情報取得部223、および提示制御部224としても機能する。
The
注視点算出部221は、ユーザ端末10から受信した情報に基づいて、不特定多数のユーザに対して情報を提供する領域である情報提供領域における当該ユーザの注視点を算出する。情報提供領域とは、例えば表示画面である。本実施形態では、注視点算出部221は、デジタルサイネージ30の表示部31(表示画面)におけるユーザの注視点を算出する。具体的には、注視点算出部221は、ユーザ端末10から受信した視線情報に含まれるユーザの視線方向の情報と、デジタルサイネージ30の表示部31(表示画面)を撮像した撮像画像とに基づいて、ユーザの注視点を算出する。本実施形態では、ユーザ端末10の内向きカメラが視線センサ140に相当し、当該ユーザ端末10の外向きカメラ(カメラ150)により撮像画像が得られる。図4は、本実施形態による視線情報と撮像画像の取得について説明する図である。図4に示すように、ユーザ端末10の内側に設けられた視線センサ140によりユーザの視線方向が計測され、視線センサ140が設けられた面に対向する面である外側に設けられたカメラ150によりデジタルサイネージ30の表示部31の撮像画像が得られる。ユーザは、例えば図1に示すようにユーザ端末10(具体的には、カメラ150)をデジタルサイネージ30に向けた状態でデジタルサイネージ30の表示部31を見て情報探索を行う。この間に、視線センサ140によりユーザの視線方向が計測される。視線方向の計測は継続的に行われる。
Based on the information received from the
視線センサ140により検出されるユーザの視線方向は、視線センサ140に対する相対的な方向であってもよいし、三次元空間における視線の絶対方向であってもよい。また、カメラ150により得られる撮像画像は、ユーザの視界を含む視界画像である。注視点算出部221は、視線方向と撮像画像に基づいて、撮像画像に映る表示部31(表示画面)における注視点を算出する。本実施形態では、注視点算出方法のアルゴリズムは特に限定しない。
The user's line-of-sight direction detected by the line-of-
図5は、本実施形態による注視点の出力について説明する図である。注視点算出部221は、ユーザの注視点として、図5に示すように、デジタルサイネージ30の表示部31(表示画面上)に固定された二次元座標位置P(x、y)を出力する。注視点算出部221は、ユーザの視線情報を処理するのに十分な単位時間ごとに、視線の二次元座標位置Pを算出、更新する。本実施形態では、更新時間単位をΔtとし、各時間で取得される二次元位置を、Δt×n時間が経過した後の座標位置としてPn(xn、yn)と記載する。つまりΔt×t時間まで視線が計測された場合、注視点算出部221は、ユーザの注視点として、P1(x1、y1)、P2(x2、y2)・・・Pt(xt、yt)のような座標位置の配列を出力する。
FIG. 5 is a diagram illustrating output of a gaze point according to this embodiment. The gaze
感情推定部222は、情報探索中のユーザの感情を推定する。具体的には、感情推定部222は、ユーザの注視点または瞳孔径等と、デジタルサイネージ30での表示内容(情報内容)に基づいて、情報に対するユーザ感情を推定する。以下、詳細を説明する。
The
まず、感情推定部222は、事前に教師あり学習による機械学習で生成された学習済みの感情推定モデルを用いて、ユーザの視線情報から、「興味関心」または「困り」といった感情の分類を判定する。なお、機械学習は教師あり学習に限定せず、教師なし学習や半教師学習などが用いられてもよい。次いで、感情推定部222は、デジタルサイネージ30の表示内容(注視対象)との組み合わせから、ユーザが何に興味関心があるのか、何に困っているのか等の、より具体的な、情報に対するユーザ感情を推定する。表示内容の情報は、ユーザ端末10から送信されたデジタルサイネージ30の識別情報(サイネージIDとも称する)に基づいて、サイネージ別DB231から得られる。また、ユーザが利用するデジタルサイネージ30のサイネージIDは、ユーザ端末10で読み取る場合に限定されず、制御部220が、ユーザ端末10から送信されたユーザ端末10の位置情報と、会場内に配置された各デジタルサイネージの配置情報とに基づいて、ユーザがどのデジタルサイネージを利用しているかを推定してサイネージIDを特定してもよい。
First, the
例えばデジタルサイネージ30に表示されているフロアマップを注視した状態で「困り」の感情分類が推定された場合、感情推定部222は、「道に迷っている」といったユーザ感情が推定できる。この際、感情推定部222は、注視点に表示されている表示内容を参照することで、ユーザがどこに行きたいか(目的地)等を推定することもできる。また、デジタルサイネージ30に表示されている展示の説明文を注視した状態で「困り」の感情分類が推定された場合、感情推定部222は、「この説明文の内容が分からない(説明が難しい、漢字が読めない等)」といったユーザ感情が推定できる。また、デジタルサイネージ30に表示されている展示の説明文を注視した状態で「興味関心」の感情分類が推定された場合、感情推定部222は、「この展示についてもっと詳しい情報を知りたい」といったユーザ感情が推定できる。表示内容との組み合わせによる具体的なユーザ感情は、予め用意されたテーブルデータを用いて推定されてもよいし、機械学習により生成された学習済みモデルを用いて推定されてもよい。
For example, if the emotion classification of "troubled" is estimated while observing the floor map displayed on the
提示情報取得部223は、推定されたユーザ感情に対応する提示情報を取得する。提示情報取得部223は、サイネージIDに基づいて、記憶部230に記憶されているサイネージ別DB231から、情報を取得し得る。なお、サイネージ別DB231は、サーバ20の記憶部230に格納される例に限定されず、外部のデータサーバに格納されていてもよい。例えば、会場に多数設置されるサイネージごとに、当該サイネージに関する情報を格納するデータサーバが用意されていてもよい。サイネージ別DB231には、例えばデジタルサイネージ30が展示会の案内板である場合、各展示ブースの詳細情報、または案内板の位置から各展示ブースへの経路案内情報などが格納される。
The presentation
提示情報取得部223は、感情推定部222により、「この説明文の内容が分からない(説明が難しい、漢字が読めない等)」といったユーザ感情が推定された場合、子供向けに用意された平易な説明文をサイネージ別DB231から提示情報として取得する。また、提示情報取得部223は、感情推定部222により、「道に迷っている」といったユーザ感情が推定された場合、現在地から各方面への経路案内情報をサイネージ別DB231から提示情報として取得する。また、目的地も推定されている場合、提示情報取得部223は、現在地から目的地への詳しい経路案内情報をサイネージ別DB231から提示情報として取得する。
When the
提示制御部224は、提示情報取得部223により取得された提示情報をユーザ端末10に送信する制御を行う。送信する情報では、ユーザ端末10の表示部で当該提示情報を表示するようユーザ端末10に指示する制御信号を含めてもよい。
The
(記憶部230)
記憶部230は、制御部220の処理に関するデータ、制御部220の動作プログラムファイルなどの各種データを一時的あるいは永続的に記憶する機能を有する。また、記憶部230は、サイネージ別DB231を格納する。サイネージ別DB231は、例えば会場に設置される多数のデジタルサイネージごとに用意される。サイネージ別DB231には、サイネージID、および表示内容に関する情報が格納される。また、サイネージ別DB231には、さらに設置場所の情報が格納されていてもよい。
(Storage unit 230)
The
以上、本実施形態によるサーバ20の構成の一例について説明した。なお、本実施形態によるサーバ20の構成は、図3に示す例に限定されない。例えば、サーバ20は、複数の装置により構成されていてもよい。また、本実施形態では、サーバ20(情報処理装置)の機能が、ネットワーク上に存在するクラウドサーバで実現される場合について説明したが、本発明はこれに限定されず、サーバ20の機能を、各デジタルサイネージに設けられるハードウェア上でそれぞれ実現させてもよい。すなわち、各デジタルサイネージが、図3に示す構成(通信部210、制御部220、および対応するサイネージ別DB231)をそれぞれ有してもよい。
An example of the configuration of the
<3.ユーザ端末10の構成例>
図6は、本実施形態によるユーザ端末10の構成の一例を示す図である。ユーザ端末10は、図6に示すように、通信部110、制御部120、操作入力部130、視線センサ140、カメラ150、表示部160、および記憶部170を有する。
<3. Configuration example of
FIG. 6 is a diagram showing an example of the configuration of the
(通信部110)
通信部110は、他の装置との間で情報の送受信を行う送信部および受信部としての機能を有する。通信部110は、例えばネットワーク50を介してサーバ20とデータの送受信を行い得る。
(Communication Department 110)
The
(制御部120)
制御部120は、例えば、CPU(Central Processing Unit)およびRAM(Random Access Memory)等を中心に構成されており、ユーザ端末10の動作を全般的に制御する。
(Control unit 120)
The
また、本実施形態による制御部120は、ユーザの感情に応じた情報提示の制御を行い得る。かかる制御は、ユーザ端末10にインストールされたアプリケーションプログラムに従って行われてもよい。具体的には、制御部120は、ユーザが利用するデジタルサイネージ30のサイネージIDをカメラ150により取得し、通信部110からサーバ20に送信する制御を行う。また、制御部120は、視線センサ140により検出されるユーザの視線情報と、カメラ150により撮像されるデジタルサイネージ30の表示部31(表示画面)の撮像画像を、通信部110からサーバ20に送信する制御を行う。また、制御部120は、サーバ20から受信した、ユーザの感情に対応する提示情報を、表示部160に表示する制御を行う。
Further, the
(操作入力部130)
操作入力部130は、ユーザによる操作入力を受け付け、操作情報を制御部120に出力する。操作入力部130は、表示部160に積層されるタッチパネルにより実現されてもよいし、物理的なスイッチであってもよい。
(Operation input unit 130)
The
(視線センサ140)
視線センサ140は、ユーザの視線を計測する機能を有する。例えば視線センサ140は、赤外線ステレオカメラにより実現される。また、視線センサ140は、ユーザ端末10の表面、すなわち表示部160が設けられる面に搭載され、ユーザ端末10を所持するユーザの視線を計測する。視線計測のためのキャリブレーションは、事前に行われ得る。視線センサ140は、赤外線カメラに限定されず、可視光カメラであってもよい。視線センサ140は、視線方向および瞳孔径等を計測し得る。視線方向は、例えば目の中の所定の基準点(例えば目頭または角膜反射)と動点(例えば虹彩または瞳孔)の位置関係から計測され得る。
(Gaze sensor 140)
The line of
(カメラ150)
カメラ150は、ユーザ端末10の裏面、すなわち表示部160が設けられる面と対向する反対側の面に搭載される、いわゆる外向きカメラである。カメラ150は、例えば可視光カメラにより実現される。カメラ150は、ユーザの注視対象である、デジタルサイネージ30の表示部31(表示画面)を撮像する。また、カメラ150は、サイネージIDの取得に用いられる。具体的には、サイネージIDを含むQRコードを撮像し、QRコードの撮像画像を制御部120に出力する。制御部120では、撮像画像に映るQRコードの画像解析が行われ、サイネージIDが抽出される。
(Camera 150)
The
(表示部160)
表示部160は、各種操作画面、およびユーザの感情に対応する提示情報を表示する機能を有する。表示部160は、操作入力部130が積層されるタッチパネルディスプレイにより実現されてもよい。
(Display section 160)
The
(記憶部170)
記憶部170は、制御部120の処理に関するデータ、制御部120の動作プログラムファイルなどの各種データを一時的あるいは永続的に記憶する機能を有する。
(Storage unit 170)
The
以上、本実施形態によるユーザ端末10の構成の一例について説明した。なお、本実施形態によるユーザ端末10の構成は、図6に示す例に限定されない。例えば、視線センサ140およびカメラ150がユーザの頭部に装着されたメガネに設けられ、視線情報および撮像画像(視界画像)がユーザ端末10に送信されてもよい。
An example of the configuration of the
<4.動作処理>
次に、本実施形態による情報提示システムの動作処理について具体的に説明する。図7は、本実施形態による情報提示システムの全体の流れの一例を示すシーケンス図である。
<4. Operation processing>
Next, the operational processing of the information presentation system according to this embodiment will be specifically explained. FIG. 7 is a sequence diagram showing an example of the overall flow of the information presentation system according to this embodiment.
まず、図7に示すように、ユーザ端末10は、デジタルサイネージ30に表示されたQRコードの撮像画像からサイネージIDを取得する(ステップS103)。なお、感情推定に応じた情報提示を受けるために当該QRコードを読み取るよう促す表示がデジタルサイネージ30に表示されていてもよい。
First, as shown in FIG. 7, the
次に、ユーザ端末10は、サイネージIDを含む接続要求をサーバ20に送信する(ステップS106)。なお、接続要求の送信先(サーバ20のアドレス)の情報も、デジタルサイネージ30に表示されたQRコードから取得され得る。
Next, the
次いで、サーバ20は、ユーザ端末10からの接続要求に応じて、受信したサイネージIDを、当該ユーザ端末10のユーザに対応付ける(ステップS109)。具体的には、サーバ20は、ユーザ端末10の識別情報にサイネージIDを対応付けてもよい。
Next, in response to the connection request from the
次に、ユーザ端末10では、視線センサ140によりユーザの視線検出が行われ(ステップS112)、また、カメラ150によりデジタルサイネージ30の撮像が行われる(ステップS115)。ユーザは、ユーザ端末10を構えた状態で、デジタルサイネージ30の表示部31に視線を向け、表示部31の表示内容を閲覧する。なお、感情推定のためのユーザ端末10の操作方法および構え方等の説明が、デジタルサイネージ30に表示されてもよいし、接続要求に応じてサーバ20からユーザ端末10に送信され、ユーザに通知されてもよい。
Next, in the
続いて、ユーザ端末10は、視線情報およびサイネージ撮像画像をサーバ20に送信する(ステップS118)。
Subsequently, the
次いで、サーバ20は、注視点算出部221により、視線情報とサイネージ撮像画像に基づいて、注視点を算出する(ステップS121)。
Next, the
次に、サーバ20は、感情推定部222により、視線情報とデジタルサイネージ30の表示内容に基づいて、情報に対するユーザ感情を推定する(ステップS124)。
Next, the
次いで、サーバ20は、提示情報取得部223により、ユーザに対応付けられたサイネージIDに基づいてサイネージ別DB231を参照し、ユーザの感情に対応する提示情報を取得する(ステップS127)。
Next, the
次に、サーバ20は、提示制御部224により、提示情報をユーザ端末10に送信する(ステップS130)。
Next, the
そして、ユーザ端末10は、サーバ20から受信した提示情報を表示部160に表示する(ステップS133)。これにより、不特定多数のユーザに利用されるデジタルサイネージ30で情報探索中のユーザの感情に対応する情報を、当該ユーザのユーザ端末10で個別に提示することができる。
The
以上、本実施形態による情報提示システムの動作処理の一例について説明した。なお、図7に示す動作処理の流れは一例であって、本発明はこれに限定されない。例えば、図7に示す各処理のうち、一部が図7に示す順と異なる順で行われてもよいし、同時に行われてもよいし、また、いずれかの処理がスキップされてもよい。例えば、ステップS112に示す視線検出と、ステップS115に示す撮像処理は、同時に一定時間行われてもよい。また、ステップS118に示す送信処理は、ステップS112に示す視線検出およびステップS115に示す撮像処理と並行して行われてもよい。また、ユーザ端末10は、ステップS103の代わりに位置情報を取得してサーバ20に送信し、サーバ20において、ユーザ端末10の位置情報から、ユーザが利用するデジタルサイネージ30のサイネージIDを特定してもよい。
An example of the operation processing of the information presentation system according to the present embodiment has been described above. Note that the flow of the operation process shown in FIG. 7 is an example, and the present invention is not limited thereto. For example, some of the processes shown in FIG. 7 may be performed in a different order from the order shown in FIG. 7, or may be performed simultaneously, or some of the processes may be skipped. . For example, the line of sight detection shown in step S112 and the imaging process shown in step S115 may be performed simultaneously for a certain period of time. Further, the transmission process shown in step S118 may be performed in parallel with the line of sight detection shown in step S112 and the imaging process shown in step S115. Further, the
<5.応用例>
上述した実施形態では、不特定多数のユーザが同時にデジタルサイネージ30を利用することが可能であり、各ユーザに対して、感情推定結果に応じた情報をユーザ端末10から個別に提示している。ここで、不特定多数のユーザの中には、友人または家族等のグループが存在する場合がある。この場合、グループ全体の感情を推定し、その推定結果に応じた情報をグループに提示することが望ましい。そこで、上述した実施形態の応用例として、複数のユーザをグループとして処理する場合について説明する。
<5. Application example>
In the embodiment described above, an unspecified number of users can use the
図8は、本応用例の概要について説明する図である。本応用例では、図8に示すように、デジタルサイネージ30を利用する複数のユーザであるユーザXとユーザYが友人または家族等のグループである場合を想定する。ユーザXとユーザYのグループ設定は、より具体的には、ユーザXのユーザ端末10Xと、ユーザYのユーザ端末10Yとのアカウント連携により実現される。本応用例では、各ユーザの表示部31上での視線移動パターンに基づく認証により、アカウント連携を行う。各ユーザの視線情報は、上述した実施形態と同様に、各自のユーザ端末10において検出される。
FIG. 8 is a diagram illustrating an overview of this application example. In this application example, as shown in FIG. 8, it is assumed that user X and user Y, who are a plurality of users who use the
(5-1.構成)
図9は、本応用例によるサーバ20Aの構成の一例を示すブロック図である。図9に示すように、サーバ20Aは、通信部210、制御部220A、および記憶部230Aを有する。図3を参照して説明した同符号の構成については、ここでの詳細な説明は省略する。
(5-1. Configuration)
FIG. 9 is a block diagram showing an example of the configuration of the server 20A according to this application example. As shown in FIG. 9, the server 20A includes a
制御部220Aは、注視点算出部221、感情推定部222、提示情報取得部223、提示制御部224、パターン管理部225、パターン認識部226、および認証部227として機能する。
The
パターン管理部225は、グループ設定の認証に用いる視線移動パターンを管理する機能を有する。具体的には、パターン管理部225は、グループ設定の認証に用いる視線移動パターンを生成し、パターンDB232に格納する。グループ設定の認証はサイネージ毎に行われるため、パターン管理部225は、生成した視線移動パターンをパターンDB232にサイネージ別に格納する。視線移動パターンとは、例えば表示部31の表示エリアを等しい大きさに分割した所定数の分割エリアにおいて注視点が滞留した順番である。まず、パターン管理部225は、デジタルサイネージ30に設けられる表示部31の表示エリアを、所定数の等しい大きさに分割し、分割エリアの範囲を、サイネージ別DB231に保持させる。次いで、パターン管理部225は、視線移動パターンとして、どの分割エリアにどの順番で注視点を滞留させるかをランダムに生成する。なお、パターン管理部225は、同じサイネージにおいて既に他のグループ向けの視線移動パターンを生成している場合、当該視線移動パターンと重複しない視線移動パターンを生成する。また、分割エリアの数は特に限定しない。
The
パターン管理部225により生成された視線移動パターンは、ユーザ端末10に提示され得る。図10は、本応用例による視線移動パターンのユーザ通知画面の一例を示す図である。図10に示すように、ユーザ端末10の表示部160において、分割エリアにおける注視点の移動順が示される。
The eye movement pattern generated by the
パターン認識部226は、注視点算出部221により算出されたユーザの注視点から、ユーザの視線移動パターンを認識する機能を有する。以下、図11を参照して具体的に説明する。
The
図11は、本応用例による視線移動パターンの認識について説明する図である。図11に示すように、表示部31が等しい大きさに分割された分割エリアE1~E9において、パターン認識部226は、注視点がどの分割エリアにどの順番で滞留したかを判定し、視線移動パターンを認識する。ここで、滞留とは、注視点が特定範囲にある状態を言う。特定範囲とは、各分割エリアの範囲である。例えば、パターン認識部226は、Δt×n時間が経過した際に計測されたユーザの注視点である座標位置Pn(xn,yn)が分割エリアE1の範囲内にある場合、注視点が分割エリア1に滞留していると判定する。
FIG. 11 is a diagram illustrating recognition of a gaze movement pattern according to this application example. As shown in FIG. 11, in the divided areas E1 to E9 in which the
ただし、パターン認識部226は、Pn(xn,yn)からPn+1(xn+1,yn+1)のような短い時間で、ある分割エリアの特定範囲内を注視点が通り過ぎた場合は、その分割エリアに滞留しているとは判定しない。図11に示す例では、分割エリアE7から分割エリアE5に視線移動する際に、注視点が分割エリアE8を通過するが、短い時間で通り過ぎているだけのため、パターン認識部226は、分割エリアE8への滞留はしていないと判定する。
However, if the gaze point passes within a specific range of a certain divided area in a short period of time such as from Pn (xn, yn) to Pn+1 (xn+1, yn+1), the
図11に示す例では、パターン認識部226は、注視点が、分割エリアE1、分割エリアE4、分割エリアE7、分割エリアE5、分割エリアE3、分割エリアE6、および分割エリアE9の順で滞留したと判定し、当該順番を視線移動パターンとして認識する。
In the example shown in FIG. 11, the
認証部227は、パターン認識部226で認識されたユーザの視線移動パターンが、パターン管理部225で生成された認証用の視線移動パターンと一致しているか否かを判断する。一致している場合、そのユーザの認証は成功となる。アカウント連携の開始要求に応じた認証時の場合、認証部227は、認証が成功したユーザのユーザ端末10をホスト端末に設定する。一方、クライアント認証要求に応じた認証時の場合、認証部227は、認証が成功したユーザのユーザ端末10を、既にホスト端末に設定したユーザ端末10のアカウントと連携するクライアント端末に設定することで、グループの設定を実現する。アカウントの連携は、ホスト端末の識別情報にクライアント端末の識別情報を対応付けることで行われてもよいし、ホスト端末とクライアント端末に同じグループ番号が付与されることで行われてもよい。認証部227は、認証の成否、またはアカウントが連携できたこと(グループを設定したこと)を、ユーザ端末10に通知してもよい。なお、認証部227は、クライアント端末の認証において、さらにサイネージIDがホスト端末と一致することを、認証成功の条件としてもよい。
The
以上により、グループ設定が行われる。グループ設定が行われた場合、感情推定部222は、グループの各ユーザの感情を統合してグループ全体の感情を推定してもよい。例えば、感情推定部222は、グループの各ユーザの感情のうち過半数を占める感情を、グループ全体の感情と推定してもよい。また、感情推定部222は、ホストユーザ(ホスト端末に設定されたユーザ端末のユーザ)の感情を、グループ全体の感情と推定してもよい。そして、提示制御部224は、グループ全体の感情に対応する提示情報を、グループの全ユーザ、すなわちアカウント連携された複数のユーザ端末10に送信する制御を行う。これにより、グループ設定された各ユーザ端末10で、同じ提示情報を見ることができる。
Through the above steps, group setting is performed. When group setting is performed, the
記憶部230Aには、サイネージ別DB231と、パターンDB232が格納されている。サイネージ別DB231には、サイネージIDおよび表示内容に関する情報の他、分割エリアの範囲を示す情報が格納される。パターンDB232には、サイネージ別に生成された1以上の視線移動パターンが格納される。なお、制御部220Aは、設定したユーザのグループが、デジタルサイネージ30の利用を終了した場合、当該グループの認証に用いていた視線移動パターンを、パターンDB232から破棄する。
The
以上、本応用例によるサーバ20Aの構成の一例について説明した。 An example of the configuration of the server 20A according to this application example has been described above.
(5-2.動作処理)
次に、本応用例による情報提示システムの動作処理について具体的に説明する。図12は、本応用例による情報提示システムの全体の流れの一例を示すシーケンス図である。
(5-2. Operation processing)
Next, the operational processing of the information presentation system according to this application example will be specifically explained. FIG. 12 is a sequence diagram showing an example of the overall flow of the information presentation system according to this application example.
まず、図12に示すように、ユーザ端末10Xおよびユーザ端末10Yは、それぞれ、デジタルサイネージ30に表示されたQRコードの撮像画像からサイネージIDを取得し(ステップS203、S209)、サイネージIDを含む接続要求をサーバ20に送信する(ステップS206、S212)。本応用例では、ユーザ端末10Xおよびユーザ端末10Yにおいて、それぞれ同じデジタルサイネージ30から同じサイネージIDが取得され、サーバ20Aに送信される。
First, as shown in FIG. 12, the
次いで、サーバ20Aは、ユーザ端末10X、ユーザ端末10Yからの接続要求に応じて、受信したサイネージIDを、各ユーザに対応付ける(ステップS215)。ここでは、ユーザ端末10Xの識別情報と、ユーザ端末10Yの識別情報に、同じサイネージIDが対応付けられる。
Next, the server 20A associates the received signage ID with each user in response to the connection requests from the
次に、ユーザ端末10Xは、ホスト側としてのアカウント連携処理を開始する(ステップS218)。例えばユーザ端末10Xのメニュー画面に表示される、「ホスト側アカウント連携処理開始」等のボタンがユーザXに選択された際に開始される。
Next, the
次いで、ユーザ端末10Xは、アカウント連携の開始要求をサーバ20Aに送信する(ステップS221)。
Next, the
次に、サーバ20Aは、アカウント連携開始要求に応じて、パターン管理部225により、視線移動パターンを生成する(ステップS224)。
Next, the server 20A uses the
次いで、サーバ20Aは、生成された視線移動パターンをユーザ端末10Xに送信する(ステップS227)。
Next, the server 20A transmits the generated line-of-sight movement pattern to the
次に、ユーザ端末10Xは、受信した視線移動パターンを表示部160に表示する(ステップS233)。表示例は、図10に示す通りである。ユーザXは、視線移動パターンを確認すると、デジタルサイネージ30の表示部31に対して視線入力を開始する。
Next, the
次いで、ユーザ端末10Xでは、視線センサ140によりユーザXの視線検出が行われ(ステップS233)、また、カメラ150によりデジタルサイネージ30の撮像が行われる(ステップS236)。
Next, in the
続いて、ユーザ端末10Xは、ユーザXの視線情報およびサイネージ撮像画像をサーバ20Aに送信する(ステップS239)。
Subsequently, the
次いで、サーバ20Aは、注視点算出部221により、ユーザXの視線情報とサイネージ撮像画像に基づいて、ユーザXの注視点を算出する(ステップS242)。
Next, the server 20A uses the gaze
次に、サーバ20Aは、算出された注視点に基づいてパターン認識部226によりユーザXの視線移動パターンを認識し、認証部227により、認証用に生成された上記視線移動パターンと一致しているか否かの判断を行い、一致している場合はユーザXをホストとして認証する(ステップS245)。具体的には、認証部227は、視線移動パターンが一致している場合、ユーザ端末10Xをホスト端末に設定する。
Next, the server 20A uses the
次いで、サーバ20Aは、ホスト認証が成功したことをユーザ端末10Xに通知する(ステップS248)。
Next, the server 20A notifies the
ユーザ端末10Xは、ホスト認証が成功した旨を表示部160に表示してユーザXに通知する(ステップS251)。この際、ユーザ端末10Xは、表示部160に、グループに参加させたいユーザに認証用の視線移動パターンを共有するよう案内する情報を表示してもよい。ユーザXは、例えば図10に示すような認証用の視線移動パターンの表示を、一緒に居るユーザYに見せて共有する。
The
ユーザ端末10Yでは、クライアント側としてのアカウント連携処理が開始される(ステップS254)。例えばユーザ端末10Yのメニュー画面に表示される、「クライアント側アカウント連携処理開始」等のボタンがユーザYに選択された際、ユーザ端末10Yはアカウント連携処理を開始する。ユーザYは、ユーザX(ホスト)から共有された視線移動パターンを確認すると、アカウント連携処理の開始操作を行った上で、デジタルサイネージ30の表示部31に対して視線入力を開始する。ユーザ端末10Yは、アカウント連携処理として以下の処理を行う。
In the
まず、ユーザ端末10Yは、視線センサ140によりユーザYの視線検出を行い(ステップS257)、さらに、カメラ150によりデジタルサイネージ30の撮像を行う(ステップS260)。
First, the
次に、ユーザ端末10Yは、ユーザYの視線情報およびサイネージ撮像画像を含むクライアント認証要求をサーバ20Aに送信する(ステップS263)。
Next, the
次いで、サーバ20Aは、注視点算出部221により、ユーザYの視線情報とサイネージ撮像画像に基づいて、ユーザYの注視点を算出する(ステップS266)。
Next, the server 20A uses the gaze
次に、サーバ20Aは、算出された注視点に基づいてパターン認識部226によりユーザYの視線移動パターンを認識し、認証部227により、クライアント認証を行う(ステップS269)。具体的には、認証部227は、ユーザYの視線移動パターンが、認証用に生成された上記視線移動パターンと一致しているか否かの判断を行う。次に、認証部227は、視線移動パターンが一致し、さらに、ホストのユーザXに対応付けられたサイネージIDと、ユーザYに対応付けられたサイネージIDが一致している場合は、ユーザYをクライアントとして認証(ユーザ端末10Yをクライアント端末に設定)する。クライアント端末の設定とは、ホスト端末とのアカウントの連携であり、これにより、複数ユーザのグループ設定が実現される。サーバ20Aは、クライアント認証が成功したこと(グループ設定できたこと)をユーザ端末10Xおよびユーザ端末10Yに通知してもよい。
Next, the server 20A uses the
以上、本応用例によるグループ設定の動作処理について具体的に説明した。本応用例では、グループ設定(アカウント連携)に視線移動パターンを用いた認証を行うことで、パスコードの文字列の入力といった操作の手間が省かれ、決められた順番に視線を移動させるといった、より簡便な方法で認証が可能となる。なお、図12に示す動作処理の流れは一例であって、本発明はこれに限定されない。また、グループ設定が行われた後は、上述した通り、サーバ20Aが、グループの各ユーザの感情推定結果を統合してグループ全体の感情を推定する。そして、サーバ20Aは、推定したグループ全体の感情に対応する情報を取得し、グループの各ユーザに個別に提示する制御を行う。これにより、グループ設定された各ユーザは、各ユーザ端末10で同じ提示情報を見ることができる。
The group setting operation processing according to this application example has been specifically explained above. In this application example, by performing authentication using gaze movement patterns for group settings (account linkage), the hassle of operations such as inputting passcode strings is eliminated, and the user can move his gaze in a predetermined order. Authentication becomes possible using a simpler method. Note that the flow of the operation process shown in FIG. 12 is an example, and the present invention is not limited thereto. Further, after the group setting is performed, as described above, the server 20A integrates the emotion estimation results of each user in the group to estimate the emotion of the entire group. Then, the server 20A performs control to obtain information corresponding to the estimated emotions of the entire group and to individually present the information to each user of the group. Thereby, each group-set user can view the same presentation information on each
<6.ハードウェア構成例>
続いて、本実施形態に係るユーザ端末10、サーバ20、およびサーバ20Aのハードウェア構成について説明する。上記の動作は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
<6. Hardware configuration example>
Next, the hardware configurations of the
図13は、本実施形態による情報処理装置900のハードウェア構成の一例を示すブロック図である。情報処理装置900は、本実施形態によるユーザ端末10、サーバ20、およびサーバ20Aに適用されるハードウェア構成の一例である。
FIG. 13 is a block diagram showing an example of the hardware configuration of the
情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力機器908と、出力機器909と、ストレージ機器910と、ドライブ911と、通信機器913と、を備える。
The
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムおよび演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラム、およびその実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。CPU901、ROM902およびRAM903の協働により、ユーザ端末10の制御部120、サーバ20の制御部220、またはサーバ20Aの制御部220Aが実現される。
The
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
The
入力機器908は、マウス、キーボード、タッチパネル、ボタン、スイッチまたはマイクロフォン等、操作者が情報を入力するための入力手段と、操作者による入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。情報処理装置900を操作する操作者は、この入力機器908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。入力機器908により、ユーザ端末10の操作入力部130が実現される。
The
出力機器909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。出力機器909により、ユーザ端末10の表示部160が実現される。
The
ストレージ機器910は、データ格納用の機器である。ストレージ機器910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ機器910により、ユーザ端末10の記憶部170、サーバ20の記憶部230、またはサーバ20Aの記憶部230Aが実現される。
The
ドライブ911は、記憶媒体用リーダライタであり、情報処理装置900に外付けされる。ドライブ911は、装着される磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体912に記録されている情報を読み出して、RAM903に出力する。また、ドライブ911は、リムーバブル記憶媒体912に情報を書き込むこともできる。
The
通信機器913は、通信を行うための通信デバイス等で構成された通信インタフェースである。当該通信機器913により、ユーザ端末10の通信部110、または、サーバ20若しくはサーバ20Aの通信部210が実現される。
The
なお、情報処理装置900のハードウェア構成は、図13に示す構成に限られない。例えば、情報処理装置900は、接続されている外部の通信デバイスを介して通信を行う場合には、通信機器913を備えていなくてもよい。また、情報処理装置900は、例えば、入力機器908または出力機器909等を備えなくてもよい。また、例えば、図13に示す構成の一部または全部は、1または2以上のIC(Integrated Circuit)で実現されてもよい。
Note that the hardware configuration of the
<7.補足>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<7. Supplement>
Although preferred embodiments of the present invention have been described above in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is clear that a person with ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea stated in the claims. It is understood that these also naturally fall within the technical scope of the present invention.
例えば、サーバ20の注視点算出部221で行われる注視点の算出を、ユーザ端末10の制御部120で行ってもよい。ユーザ端末10は、ユーザの視線情報およびデジタルサイネージ30の撮像画像に基づいて、デジタルサイネージ30の表示画面上の注視点を算出し、算出結果(注視点に対応する座標位置の情報)を、サーバ20に送信してもよい。
For example, the calculation of the gaze point performed by the gaze
また、応用例によるアカウント連携は、ユーザ感情に対応する情報の提示の際に限らず、複数のユーザアカウントを連携させたい場合に活用することも可能である。例えば、応用例によるアカウント連携は、対人ゲームのユーザ同士の通信にも適用可能である。 Further, the account linkage according to the application example is not limited to the presentation of information corresponding to user emotions, but can also be utilized when it is desired to link multiple user accounts. For example, the account linkage according to the application example can also be applied to communication between users of an interpersonal game.
また、ユーザ端末10、サーバ20、またはサーバ20Aに内蔵されるCPU、ROM、およびRAM等のハードウェアに、ユーザ端末10、サーバ20、またはサーバ20Aの機能を発揮させるための1以上のコンピュータプログラムも作成可能である。また、当該1以上のコンピュータプログラムが記憶されたコンピュータ読み取り可能な記憶媒体も提供される。
Also, one or more computer programs for causing hardware such as a CPU, ROM, and RAM built in the
10 ユーザ端末
110 通信部
120 制御部
130 操作入力部
140 視線センサ
150 カメラ
160 表示部
170 記憶部
20、20A サーバ
210 通信部
220、220A 制御部
221 注視点算出部
222 感情推定部
223 提示情報取得部
224 提示制御部
225 パターン管理部
226 パターン認識部
227 認証部
230、230A 記憶部
231 サイネージ別DB
232 パターンDB
30 デジタルサイネージ
31 表示部
311 QRコード
10
232 Pattern DB
30
Claims (16)
推定した感情に対応する提示情報を取得する処理と、
前記提示情報を前記ユーザ端末に送信する処理と、
を行う制御部を備える、情報処理装置。 A process of estimating the user's emotion toward the information based on line-of-sight information, which is information regarding the user's line of sight toward the information-providing area, acquired by a user terminal, and information content provided in the information-providing area;
a process of acquiring presentation information corresponding to the estimated emotion;
a process of transmitting the presentation information to the user terminal;
An information processing device comprising a control unit that performs.
前記視線移動パターンを用いた認証により一のユーザ端末をホスト端末に設定し、
前記視線移動パターンを用いた認証により他のユーザ端末をクライアント端末に設定して前記ホスト端末のアカウントに連携させることで、複数のユーザをグループに設定する、
請求項8に記載の情報処理装置。 The control unit includes:
Setting one user terminal as a host terminal by authentication using the eye movement pattern,
Setting a plurality of users into a group by setting another user terminal as a client terminal through authentication using the eye movement pattern and linking it to the account of the host terminal;
The information processing device according to claim 8.
グループに設定された複数のユーザの感情を統合してグループ全体の感情を推定し、
推定したグループ全体の感情に対応する提示情報を取得し、
当該提示情報を、アカウント連携した複数のユーザ端末に送信する制御を行う、
請求項8に記載の情報処理装置。 The control unit includes:
Integrate the emotions of multiple users set in a group to estimate the emotions of the entire group,
Obtain presentation information that corresponds to the estimated emotions of the entire group,
Controls sending of the presented information to multiple user terminals linked to accounts,
The information processing device according to claim 8.
ユーザ端末で取得される、情報提供領域に対するユーザの視線に関する情報である視線情報と、前記情報提供領域で提供されている情報内容とに基づき、前記ユーザの情報に対する感情を推定することと、
推定した感情に対応する提示情報を取得することと、
前記提示情報を前記ユーザ端末に送信することと、
を含む、情報処理方法。 The processor
Estimating the user's emotion regarding the information based on gaze information, which is information regarding the user's line of sight toward the information providing area, acquired by a user terminal, and information content provided in the information providing area;
obtaining presentation information corresponding to the estimated emotion;
transmitting the presentation information to the user terminal;
information processing methods, including
ユーザ端末で取得される、情報提供領域に対するユーザの視線に関する情報である視線情報と、前記情報提供領域で提供されている情報内容とに基づき、前記ユーザの情報に対する感情を推定する処理と、
推定した感情に対応する提示情報を取得する処理と、
前記提示情報を前記ユーザ端末に送信する処理と、
を行う制御部として機能させる、プログラム。
computer,
A process of estimating the user's emotion toward the information based on line-of-sight information, which is information regarding the user's line of sight toward the information-providing area, acquired by a user terminal, and information content provided in the information-providing area;
a process of acquiring presentation information corresponding to the estimated emotion;
a process of transmitting the presentation information to the user terminal;
A program that functions as a control unit that performs.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022118590A JP2024016454A (en) | 2022-07-26 | 2022-07-26 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022118590A JP2024016454A (en) | 2022-07-26 | 2022-07-26 | Information processing device, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024016454A true JP2024016454A (en) | 2024-02-07 |
Family
ID=89806551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022118590A Pending JP2024016454A (en) | 2022-07-26 | 2022-07-26 | Information processing device, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024016454A (en) |
-
2022
- 2022-07-26 JP JP2022118590A patent/JP2024016454A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10264207B2 (en) | Method and system for creating virtual message onto a moving object and searching the same | |
CN103733196A (en) | Method and apparatus for enabling a searchable history of real-world user experiences | |
KR20120086795A (en) | Augmented reality system and method that share augmented reality service to remote | |
JP2013200793A (en) | Information processing apparatus, information processing method, and program | |
WO2018159736A1 (en) | Information processing device, terminal device, information processing method, information output method, customer service assistance method, and recording medium | |
JP6728863B2 (en) | Information processing system | |
CN106612417B (en) | Network camera, monitoring server, and method of controlling monitoring system | |
JP2017162103A (en) | Inspection work support system, inspection work support method, and inspection work support program | |
JP2020194493A (en) | Monitoring system for nursing-care apparatus or hospital and monitoring method | |
JP2017174339A (en) | Information presentation device and information processing system | |
JP2024016454A (en) | Information processing device, information processing method, and program | |
JP2010011017A (en) | Video-image processing system and processing method | |
JP2014164572A (en) | Information processing device and program | |
WO2022176450A1 (en) | Information processing device, information processing method, and program | |
US10313827B2 (en) | Server and method for providing content, and computer-readable storage medium for computer program | |
JP6354848B2 (en) | Sensor management system, sensor management device, sensor device, sensor management method and program | |
JP2019061556A (en) | Communication system and wearable terminal | |
JP6652446B2 (en) | Work support device | |
JP6382772B2 (en) | Gaze guidance device, gaze guidance method, and gaze guidance program | |
JP2018137683A (en) | Report support system, mobile terminal, report support method and program | |
US10997410B2 (en) | Information processing device and information processing system | |
JP2016038682A (en) | Information processing apparatus and control method of the same, server device and control method of the same, and computer program | |
KR20200088199A (en) | Electronic business card exchanging system using mobile terminal and method thereof | |
JP2014228950A (en) | Information management device, information management system, communication terminal, and information management method | |
JP2018181339A (en) | System, and information processing method and program |