JP2022083921A - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP2022083921A
JP2022083921A JP2020195559A JP2020195559A JP2022083921A JP 2022083921 A JP2022083921 A JP 2022083921A JP 2020195559 A JP2020195559 A JP 2020195559A JP 2020195559 A JP2020195559 A JP 2020195559A JP 2022083921 A JP2022083921 A JP 2022083921A
Authority
JP
Japan
Prior art keywords
line
sight
content
unit
type device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020195559A
Other languages
Japanese (ja)
Other versions
JP7194158B2 (en
Inventor
健太 石垣
Kenta Ishigaki
優也 佐藤
Yuya Sato
裕貴 可児
Hirotaka Kani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2020195559A priority Critical patent/JP7194158B2/en
Publication of JP2022083921A publication Critical patent/JP2022083921A/en
Application granted granted Critical
Publication of JP7194158B2 publication Critical patent/JP7194158B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an information processing device and a program for putting content such as an advertisement in a part that is likely to draw users' attention.SOLUTION: In a system where a plurality of glasses-type devices communicate with a management server via a network, a control device 200 which is an information processing device disposed in each glasses-type device includes a visual-line information acquisition unit that acquires visual-line information about a visual line directed to a wearer wearing the glasses-type device, a part identification unit that identifies a part of the body of the wearer to which more visual lines are directed on the basis of the plurality of visual-line information, and a content management unit that associates content to be displayed in a position corresponding to the part identified by the part identification unit when the wearer is included in the imaging range of the glasses-type device, with the part.SELECTED DRAWING: Figure 6

Description

本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.

特許文献1及び特許文献2には、移動オブジェクト(個人及び車等)に対して仮想情報(広告等)を対応付けて登録し、移動オブジェクトを撮像した検索者に対して、仮想情報を提供する技術が記載されている。
[先行技術文献]
[特許文献]
[特許文献1]特開2018-106692号公報
[特許文献2]特開2018-106696号公報
In Patent Document 1 and Patent Document 2, virtual information (advertisement, etc.) is registered in association with a moving object (individual, car, etc.), and the virtual information is provided to a searcher who has imaged the moving object. The technique is described.
[Prior Art Document]
[Patent Document]
[Patent Document 1] JP-A-2018-106692 [Patent Document 2] JP-A-2018-106696

本発明の一実施態様によれば、情報処理装置が提供される。情報処理装置は、眼鏡型デバイスを装着している装着者に向けられる視線の視線情報を取得する視線情報取得部を備えてよい。情報処理装置は、複数の視線情報に基づいて、装着者の身体のうち、より多く視線が向けられた部位を特定する部位特定部を備えてよい。情報処理装置は、眼鏡型デバイスの撮像範囲に装着者が含まれたときに部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けるコンテンツ管理部を備えてよい。 According to one embodiment of the present invention, an information processing apparatus is provided. The information processing device may include a line-of-sight information acquisition unit that acquires line-of-sight information of the line of sight directed at the wearer wearing the spectacle-type device. The information processing apparatus may include a site specifying portion that identifies a portion of the wearer's body to which a larger number of eyes are directed based on a plurality of line-of-sight information. The information processing device may include a content management unit that associates the content displayed at the position corresponding to the part specified by the part specifying part when the wearer is included in the imaging range of the spectacle-type device with the part. ..

上記情報処理装置は、上記装着者の身体のうち上記部位特定部によって特定された部位を識別可能に表示させる部位表示制御部を備えてよく、上記コンテンツ管理部は、上記部位表示制御部によって表示された部位に対して、上記装着者によって指定されたコンテンツを対応付けてよい。上記コンテンツ管理部は、上記部位特定部によって特定された部位にコンテンツを自動的に対応付けてよい。上記部位特定部は、上記装着者の身体のうち、より多く視線が向けられた複数の部位を特定してよく、上記コンテンツ管理部は、上記複数の部位のそれぞれに複数のコンテンツのそれぞれを対応付けてよい。上記コンテンツ管理部は、上記部位特定部によって特定された上記複数の部位のうち、より多く視線が向けられた部位に、上記複数のコンテンツのうち、より優先度が高いコンテンツを対応付けてよい。上記コンテンツ管理部は、上記複数の部位のそれぞれに、上記複数の部位のそれぞれに関連するコンテンツを対応付けてよい。上記コンテンツは広告画像であってよく、上記コンテンツ管理部は、上記複数の部位のそれぞれに、広告対象が上記複数の部位のそれぞれに関連するコンテンツを対応付けてよい。上記情報処理装置は上記眼鏡型デバイスに搭載されてよく、上記視線情報取得部は、上記眼鏡型デバイスのカメラによって撮像された撮像画像を用いて、上記装着者に向けられる視線の視線情報を取得してよい。 The information processing apparatus may include a part display control unit for identifiablely displaying a part of the wearer's body specified by the part identification part, and the content management unit displays the part display control unit. The content specified by the wearer may be associated with the designated portion. The content management unit may automatically associate the content with the portion specified by the portion specifying unit. The site specifying part may specify a plurality of parts of the wearer's body to which more eyes are directed, and the content management unit corresponds to each of the plurality of contents to each of the plurality of parts. You may attach it. The content management unit may associate the content having a higher priority among the plurality of contents with the portion to which the line of sight is directed more than the plurality of parts specified by the site specifying unit. The content management unit may associate each of the plurality of parts with content related to each of the plurality of parts. The content may be an advertisement image, and the content management unit may associate each of the plurality of parts with content related to each of the plurality of parts to be advertised. The information processing device may be mounted on the spectacle-type device, and the line-of-sight information acquisition unit acquires line-of-sight information of the line of sight directed at the wearer by using an image captured by the camera of the spectacle-type device. You can do it.

上記情報処理装置は、ネットワーク上に配置されてよく、上記視線情報取得部は、上記眼鏡型デバイスから上記ネットワークを介して上記視線情報を受信してよい。上記情報処理装置は、第1の眼鏡型デバイスのカメラの撮像範囲に含まれる第2の眼鏡型デバイスの装着者の部位に対応するコンテンツを特定するコンテンツ特定部を備えてよく、上記コンテンツ管理部は、上記コンテンツ特定部が特定したコンテンツを上記第1の眼鏡型デバイスに表示させてよい。上記視線情報取得部は、眼鏡型デバイスを装着している装着者によって物体に向けられる視線の視線情報を取得してよく、上記部位特定部は、複数の上記視線情報に基づいて、上記物体のうちの、より多く視線が向けられた部位を特定してよく、上記コンテンツ管理部は、眼鏡型デバイスの撮像範囲に上記物体が含まれたときに上記部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けてよい。 The information processing apparatus may be arranged on a network, and the line-of-sight information acquisition unit may receive the line-of-sight information from the eyeglass-type device via the network. The information processing apparatus may include a content specifying unit for specifying content corresponding to a part of the wearer of the second spectacle-type device included in the imaging range of the camera of the first spectacle-type device, and the content management unit may be provided. May display the content specified by the content specifying unit on the first eyeglass-type device. The line-of-sight information acquisition unit may acquire line-of-sight information of the line-of-sight directed at the object by the wearer wearing the spectacle-type device, and the site identification unit may acquire the line-of-sight information of the object based on the plurality of line-of-sight information. The part of which the line of sight is directed may be specified, and the content management unit corresponds to the part specified by the part identification part when the object is included in the imaging range of the spectacle-type device. The content displayed at the position may be associated with the relevant part.

本発明の一実施態様によれば、情報処理装置が提供される。情報処理装置は、眼鏡型デバイスを装着している装着者によって物体に向けられる視線の視線情報を取得する視線情報取得部を備えてよい。情報処理装置は、複数の視線情報に基づいて、物体のうちの、より多く視線が向けられた部位を特定する部位特定部を備えてよい。眼鏡型デバイスの撮像範囲に物体が含まれたときに部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けるコンテンツ管理部を備えてよい。 According to one embodiment of the present invention, an information processing apparatus is provided. The information processing device may include a line-of-sight information acquisition unit that acquires line-of-sight information of the line of sight directed at an object by a wearer wearing a spectacle-type device. The information processing apparatus may include a site specifying portion that identifies a portion of the object to which the line of sight is directed more based on a plurality of line-of-sight information. When an object is included in the imaging range of the spectacle-type device, the content management unit may be provided to associate the content displayed at the position corresponding to the part specified by the part specifying part with the part.

本発明の一実施態様によれば、コンピュータを、上記情報処理装置として機能させるためのプログラムが提供される。 According to one embodiment of the present invention, a program for making a computer function as the information processing apparatus is provided.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The outline of the above invention does not list all the necessary features of the present invention. A subcombination of these feature groups can also be an invention.

システム10の一例を概略的に示す。An example of the system 10 is shown schematically. 眼鏡型デバイス100の構成の一例を概略的に示す。An example of the configuration of the spectacle-type device 100 is schematically shown. 視線情報の取得の流れについて説明するための説明図である。It is explanatory drawing for demonstrating the flow of acquisition of the line-of-sight information. 視線情報の取得の流れについて説明するための説明図である。It is explanatory drawing for demonstrating the flow of acquisition of the line-of-sight information. 視線情報の取得の流れについて説明するための説明図である。It is explanatory drawing for demonstrating the flow of acquisition of the line-of-sight information. 制御装置200の機能構成の一例を概略的に示す。An example of the functional configuration of the control device 200 is schematically shown. 管理サーバ300の機能構成の一例を概略的に示す。An example of the functional configuration of the management server 300 is shown schematically. 眼鏡型デバイス100によるコンテンツ400の表示例を概略的に示す。A display example of the content 400 by the spectacle-type device 100 is schematically shown. 眼鏡型デバイス100によるコンテンツ400の表示例を概略的に示す。A display example of the content 400 by the spectacle-type device 100 is schematically shown. 情報処理装置として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。An example of the hardware configuration of the computer 1200 that functions as an information processing apparatus is schematically shown.

AR(Augmented Reality)グラス等の眼鏡型デバイスと、視線検知の技術により、人が何を見ているかが分かるようになる。これにより、大勢の人が見ている場所の可視化が可能になると想定される。本実施形態に係るシステム10は、視線がより多く向けられた対象の部位に、広告等のコンテンツを表示可能にする技術を提供する。 With eyeglass-type devices such as AR (Augmented Reality) glasses and eye-gaze detection technology, it becomes possible to understand what a person is looking at. It is expected that this will enable visualization of the place that many people are looking at. The system 10 according to the present embodiment provides a technique for displaying contents such as advertisements on a target portion to which more eyes are directed.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention within the scope of the claims. Also, not all combinations of features described in the embodiments are essential to the means of solving the invention.

図1は、システム10の一例を概略的に示す。システム10は、複数の眼鏡型デバイス100及び管理サーバ300を備える。 FIG. 1 schematically shows an example of the system 10. The system 10 includes a plurality of eyeglass-type devices 100 and a management server 300.

眼鏡型デバイス100は、無線通信機能と、コンテンツを表示部に表示する表示機能と、視線検知機能とを有している眼鏡型のデバイスであれば、どのようなものであってもよい。眼鏡型デバイス100は、例えば、ARグラスであってよい。 The spectacle-type device 100 may be any spectacle-type device having a wireless communication function, a display function for displaying contents on a display unit, and a line-of-sight detection function. The spectacle-type device 100 may be, for example, an AR glass.

コンテンツは、任意のデータ形式であってよい。例えば、コンテンツは、3DのCG(Computer Graphics)データである。例えば、コンテンツは、静止画である。また、例えば、コンテンツは、動画である。例えば、コンテンツは、テキストである。コンテンツは、これらを複合的に含んでもよい。 The content may be in any data format. For example, the content is 3D CG (Computer Graphics) data. For example, the content is a still image. Also, for example, the content is a moving image. For example, the content is text. The content may include these in combination.

眼鏡型デバイス100は、コンテンツを透明又は半透明のグラス上に表示することによって、実空間にコンテンツが配置されている感覚をユーザ102に与えることが可能なデバイスであってよい。すなわち、眼鏡型デバイス100は、いわゆる透過型(シースルー型)のデバイスであってよい。なお、眼鏡型デバイス100は、ビデオパススルー型のデバイスであってもよい。この場合、眼鏡型デバイス100は、ユーザ102の視界に対応する範囲を撮影している撮影画像を非透過型のディスプレイに表示し、コンテンツを重畳表示してよい。 The spectacle-type device 100 may be a device capable of giving the user 102 the feeling that the content is arranged in the real space by displaying the content on a transparent or translucent glass. That is, the spectacle-type device 100 may be a so-called transmissive type (see-through type) device. The glasses-type device 100 may be a video pass-through type device. In this case, the spectacle-type device 100 may display a captured image capturing a range corresponding to the field of view of the user 102 on a non-transparent display, and superimpose and display the content.

管理サーバ300は、眼鏡型デバイス100に配信するコンテンツを管理する。管理サーバ300は、例えば、実世界の位置及びエリア等に対応付けてコンテンツを登録する。また、管理サーバ300は、例えば、移動体に対応付けてコンテンツを登録する。移動体の例として、人物、動物、及び車両等が挙げられるが、これらに限られない。コンテンツの登録は、管理サーバ300の管理者等によって許可された任意の者によって行われてよい。管理サーバ300は、スマートフォン、タブレット端末、PC(Personal Computer)、及びARグラス等によるコンテンツの登録を受け付けてよい。 The management server 300 manages the content to be delivered to the eyeglass-type device 100. The management server 300 registers the content in association with, for example, a position and an area in the real world. Further, the management server 300 registers the content in association with the moving body, for example. Examples of moving objects include, but are not limited to, people, animals, vehicles, and the like. The content may be registered by any person authorized by the administrator of the management server 300 or the like. The management server 300 may accept registration of contents by a smartphone, a tablet terminal, a PC (Personal Computer), an AR glass, or the like.

管理サーバ300は、眼鏡型デバイス100から、眼鏡型デバイス100の撮像範囲を示す撮像範囲情報を受信して、撮像範囲に含まれる対象に対応するコンテンツを眼鏡型デバイス100に送信してよい。眼鏡型デバイス100の撮像範囲は、眼鏡型デバイス100のカメラの撮像範囲であってよい。眼鏡型デバイス100のカメラによる撮像範囲は、ユーザ102の視界に対応する範囲であってよい。カメラ120の撮像範囲は、ユーザ102の視界よりも広い範囲であってよく、ユーザ102の視界と実質的に同じ範囲であってもよい。 The management server 300 may receive the imaging range information indicating the imaging range of the spectacle-type device 100 from the spectacle-type device 100, and transmit the content corresponding to the object included in the imaging range to the spectacle-type device 100. The imaging range of the spectacle-type device 100 may be the imaging range of the camera of the spectacle-type device 100. The imaging range of the spectacle-type device 100 by the camera may be a range corresponding to the field of view of the user 102. The imaging range of the camera 120 may be wider than the field of view of the user 102, and may be substantially the same as the field of view of the user 102.

管理サーバ300は、例えば、眼鏡型デバイス100の撮像範囲に含まれるエリアに対応するコンテンツを眼鏡型デバイス100に送信する。また、管理サーバ300は、例えば、眼鏡型デバイス100の撮像範囲に含まれる移動体に対応するコンテンツを眼鏡型デバイス100に送信する。 The management server 300 transmits, for example, the content corresponding to the area included in the imaging range of the spectacle-type device 100 to the spectacle-type device 100. Further, the management server 300 transmits, for example, the content corresponding to the moving object included in the imaging range of the spectacle-type device 100 to the spectacle-type device 100.

管理サーバ300は、眼鏡型デバイス100と、ネットワーク20を介して通信してよい。ネットワーク20は、クラウドを含む。ネットワーク20は、移動体通信ネットワークを含んでよい。移動体通信ネットワークは、LTE(Long Term Evolution)通信方式、3G(3rd Generation)通信方式、5G(5th Generation)通信方式、6G(6th Generation)通信方式以降の通信方式のいずれに準拠していてもよい。ネットワーク20は、Wi-Fi(登録商標)通信方式に対応していてよい。ネットワーク20には、Wi-Fiアクセスポイントを介してアクセス可能であってよい。ネットワーク20には、その他無線通信全般を利用してアクセス可能であってよい。眼鏡型デバイス100は、移動体通信、Wi-Fi通信、その他無線通信全般によって、ネットワーク20に接続されてよい。管理サーバ300は、ネットワーク20に有線接続されてよく、無線接続されてもよい。 The management server 300 may communicate with the eyeglass-type device 100 via the network 20. The network 20 includes a cloud. The network 20 may include a mobile communication network. The mobile communication network may comply with any of the LTE (Long Term Evolution) communication method, the 3G (3rd Generation) communication method, the 5G (5th Generation) communication method, and the 6G (6th Generation) communication method or later. good. The network 20 may be compatible with the Wi-Fi (registered trademark) communication method. The network 20 may be accessible via a Wi-Fi access point. The network 20 may be accessible by using other wireless communication in general. The spectacle-type device 100 may be connected to the network 20 by mobile communication, Wi-Fi communication, and other wireless communication in general. The management server 300 may be connected to the network 20 by wire or wirelessly.

本実施形態に係るシステム10は、例えば、眼鏡型デバイス100による視線検知機能を活用することによって、ユーザ102の身体のうちの他者からよく見られている部位を特定する。そして、システム10は、他のユーザ102が眼鏡型デバイス100越しに当該ユーザ102を見たときに、当該ユーザ102のよく見られている部位に対して、広告等のコンテンツが表示されるように制御する。これにより、ユーザ102の身体のうちの注目されやすい部位に広告等のコンテンツを配置することができる。 The system 10 according to the present embodiment identifies, for example, a portion of the body of the user 102 that is often seen by others by utilizing the line-of-sight detection function of the eyeglass-type device 100. Then, when the other user 102 sees the user 102 through the spectacle-type device 100, the system 10 displays the content such as an advertisement for the frequently seen portion of the user 102. Control. As a result, the content such as an advertisement can be arranged in a portion of the body of the user 102 that is easily noticed.

また、本実施形態に係るシステム10は、例えば、眼鏡型デバイス100による視線検知機能を活用することによって、ユーザ102が所有する家や車等の物体のうちの、他者からよく見られている部位を特定する。そして、システム10は、他のユーザ102が眼鏡型デバイス100越しに当該物体を見たときに、当該物体のよく見られている部位に対して、広告等のコンテンツが表示されるように制御する。これにより、家や車等の物体のうちの注目されやすい部位に広告等のコンテンツを配置することができる。 Further, the system 10 according to the present embodiment is often seen by others among objects such as a house and a car owned by the user 102 by utilizing the line-of-sight detection function of the eyeglass-type device 100, for example. Identify the site. Then, the system 10 controls so that when another user 102 sees the object through the spectacle-type device 100, content such as an advertisement is displayed on a frequently seen portion of the object. .. As a result, it is possible to place content such as an advertisement in a part of an object such as a house or a car that is easily noticed.

図2は、眼鏡型デバイス100の構成の一例を概略的に示す。眼鏡型デバイス100は、リム112及びテンプル118を有するフレーム110を備える。眼鏡型デバイス100は、眼鏡型デバイス100における各種制御を実行する制御装置200を備える。制御装置200は、情報処理装置の一例であってよい。 FIG. 2 schematically shows an example of the configuration of the spectacle-type device 100. The spectacle-type device 100 includes a frame 110 having a rim 112 and a temple 118. The spectacle-type device 100 includes a control device 200 that executes various controls in the spectacle-type device 100. The control device 200 may be an example of an information processing device.

図2における制御装置200の配置は一例であり、制御装置200は、フレーム110の他の位置に配置されてもよい。例えば、制御装置200は、フレーム110の外部に配置されてもよい。また、例えば、制御装置200は、テンプル118内に配置されてもよい。具体例として、制御装置200は、テンプル118の先端部、すなわち、モダンに配置されてもよい。制御装置200は、バッテリを備えてよい。制御装置200とバッテリは、別体として、フレーム110の別の位置に配置されてもよい。 The arrangement of the control device 200 in FIG. 2 is an example, and the control device 200 may be arranged at another position of the frame 110. For example, the control device 200 may be arranged outside the frame 110. Further, for example, the control device 200 may be arranged in the temple 118. As a specific example, the control device 200 may be arranged at the tip of the temple 118, that is, in a modern manner. The control device 200 may include a battery. The control device 200 and the battery may be separately arranged at different positions on the frame 110.

眼鏡型デバイス100は、カメラ120を備えてよい。カメラ120の撮像範囲は、眼鏡型デバイス100を装着しているユーザ102の視界に対応する範囲であってよい。図2におけるカメラ120の配置は一例であり、カメラ120は、他の位置に配置されてもよい。 The spectacle-type device 100 may include a camera 120. The imaging range of the camera 120 may be a range corresponding to the field of view of the user 102 wearing the spectacle-type device 100. The arrangement of the camera 120 in FIG. 2 is an example, and the camera 120 may be arranged at another position.

眼鏡型デバイス100は、センサ122を備えてよい。センサ122は、眼鏡型デバイス100の周囲の環境を特定するためのセンサであってよい。センサ122は、LiDARを含んでよい。センサ122は、測距センサを含んでもよい。図2では、センサ122がブリッジ114に配置されている場合を例示しているが、図2におけるセンサ122の配置は一例であり、センサ122は、他の位置に配置されてもよい。 The spectacle-type device 100 may include a sensor 122. The sensor 122 may be a sensor for identifying the environment around the spectacle-type device 100. Sensor 122 may include LiDAR. The sensor 122 may include a ranging sensor. Although FIG. 2 illustrates the case where the sensor 122 is arranged on the bridge 114, the arrangement of the sensor 122 in FIG. 2 is an example, and the sensor 122 may be arranged at another position.

眼鏡型デバイス100は、視線検出部124を備えてよい。視線検出部124は、眼鏡型デバイス100の装着者であるユーザ102の視線を検出する。視線検出部124は、例えば、ユーザ102の目を撮像して監視することによって、ユーザ102の視線を検出する。図2における視線検出部124の配置は一例であり、視線検出部124は、他の位置に配置されてもよい。 The spectacle-type device 100 may include a line-of-sight detection unit 124. The line-of-sight detection unit 124 detects the line of sight of the user 102 who is the wearer of the spectacle-type device 100. The line-of-sight detection unit 124 detects the line of sight of the user 102, for example, by capturing and monitoring the eyes of the user 102. The arrangement of the line-of-sight detection unit 124 in FIG. 2 is an example, and the line-of-sight detection unit 124 may be arranged at another position.

制御装置200は、各種入力を受け付けてよい。制御装置200は、眼鏡型デバイス100の任意の位置に配置された操作部を介して、ユーザ102からの各種入力を受け付けてよい。制御装置200は、例えば、フレーム110の任意の位置に配置されたボタン等の入力部を介して、ユーザ102からの各種入力を受け付ける。制御装置200は、例えば、スマートフォン、タブレット端末、及びPC等を介して、ユーザ102からの各種入力を受け付けてもよい。眼鏡型デバイス100は、例えば、Wi-Fi、Bluetooth(登録商標)及びZigbee(登録商標)等の短距離無線通信方式を用いて、携帯端末と無線接続を確立してよい。 The control device 200 may accept various inputs. The control device 200 may accept various inputs from the user 102 via an operation unit arranged at an arbitrary position of the spectacle-type device 100. The control device 200 receives various inputs from the user 102, for example, via an input unit such as a button arranged at an arbitrary position of the frame 110. The control device 200 may accept various inputs from the user 102 via, for example, a smartphone, a tablet terminal, a PC, or the like. The spectacle-type device 100 may establish a wireless connection with a mobile terminal by using a short-range wireless communication method such as Wi-Fi, Bluetooth (registered trademark) and Zigbee (registered trademark).

制御装置200は、測位センサを備えてよい。制御装置200は、例えば、GPS(Global Positioning System)センサ等のGNSS(Global Naviagtion Satellite System)センサを備える。制御装置200は、加速度センサを備えてよい。制御装置200は、ジャイロセンサを備えてよい。制御装置200は、その他のセンサを備えてもよい。 The control device 200 may include a positioning sensor. The control device 200 includes, for example, a GNSS (Global Navigation Satellite System) sensor such as a GPS (Global Positioning System) sensor. The control device 200 may include an acceleration sensor. The control device 200 may include a gyro sensor. The control device 200 may include other sensors.

制御装置200は、カメラ120の撮像範囲を示す撮像範囲情報を生成してよい。制御装置200は、眼鏡型デバイス100の位置、向き、及び姿勢に基づいて、撮像範囲情報を生成してよい。制御装置200は、各種センサの出力によって、眼鏡型デバイス100の位置、向き、及び姿勢を特定してよい。 The control device 200 may generate image pickup range information indicating the image pickup range of the camera 120. The control device 200 may generate image pickup range information based on the position, orientation, and orientation of the spectacle-type device 100. The control device 200 may specify the position, orientation, and posture of the spectacle-type device 100 by the outputs of various sensors.

制御装置200は、カメラ120による撮像画像を解析することによって、各種情報を取得してよい。制御装置200は、例えば、カメラ120の撮像範囲内の人物の視線を検出する。また、制御装置200は、例えば、カメラ120の撮像範囲に含まれる、予め登録された人物を認識する。また、制御装置200は、例えば、カメラ120の撮像範囲に含まれる、家や車等の物体を認識する。 The control device 200 may acquire various information by analyzing the image captured by the camera 120. The control device 200 detects, for example, the line of sight of a person within the imaging range of the camera 120. Further, the control device 200 recognizes, for example, a pre-registered person included in the imaging range of the camera 120. Further, the control device 200 recognizes an object such as a house or a car included in the image pickup range of the camera 120, for example.

制御装置200は、レンズ116への表示機能を備えてよい。レンズ116は、眼鏡型デバイス100の表示部の一例であってよい。レンズ116は、透明又は半透明のディスプレイであってよく、制御装置200は、レンズ116に各種表示を実行させてよい。すなわち、眼鏡型デバイス100は、透明又は半透明のディスプレイ型のデバイスであってよい。また、制御装置200が、レンズ116に対して表示を投影する機能を有してもよい。すなわち、眼鏡型デバイス100は、投影型のデバイスであってよい。 The control device 200 may have a display function on the lens 116. The lens 116 may be an example of a display unit of the spectacle-type device 100. The lens 116 may be a transparent or translucent display, and the control device 200 may cause the lens 116 to perform various displays. That is, the spectacle-type device 100 may be a transparent or translucent display-type device. Further, the control device 200 may have a function of projecting a display onto the lens 116. That is, the spectacle-type device 100 may be a projection-type device.

制御装置200は、ネットワーク20を介した通信を実行する機能を有してよい。制御装置200は、移動体通信、Wi-Fi通信、及びその他の無線通信全般の少なくともいずれかによって、ネットワーク20にアクセスしてよい。制御装置200は、ネットワーク20を介して、管理サーバ300と通信してよい。制御装置200は、ネットワーク20を介して、他の眼鏡型デバイス100と通信してもよい。 The control device 200 may have a function of executing communication via the network 20. The control device 200 may access the network 20 by at least one of mobile communication, Wi-Fi communication, and other wireless communication in general. The control device 200 may communicate with the management server 300 via the network 20. The control device 200 may communicate with another spectacle-type device 100 via the network 20.

図3は、視線情報の取得の流れの一例について説明するための説明図である。眼鏡型デバイス100は、眼鏡型デバイス100を装着しているユーザ102に向けられる視線の視線情報を取得する。図3に示す例においては、人物150が、ユーザ102の腹部辺りを見ている。眼鏡型デバイス100は、ユーザ102の腹部辺りが見られていることを示す視線情報を取得する。眼鏡型デバイス100は、例えば、日常において、ユーザ102に対して複数の人物150のそれぞれから向けられる視線の視線情報を収集する。 FIG. 3 is an explanatory diagram for explaining an example of the flow of acquiring line-of-sight information. The spectacle-type device 100 acquires the line-of-sight information of the line of sight directed at the user 102 wearing the spectacle-type device 100. In the example shown in FIG. 3, the person 150 is looking around the abdomen of the user 102. The spectacle-type device 100 acquires line-of-sight information indicating that the abdomen of the user 102 is being viewed. The spectacle-type device 100 collects, for example, the line-of-sight information of the line of sight directed from each of the plurality of persons 150 with respect to the user 102 in daily life.

眼鏡型デバイス100は、視線情報を、ネットワーク20を介して管理サーバ300に送信してよい。管理サーバ300は、眼鏡型デバイス100から、複数の視線情報を受信してよい。管理サーバ300は、複数の眼鏡型デバイス100から、複数の視線情報を受信してよい。 The eyeglass-type device 100 may transmit the line-of-sight information to the management server 300 via the network 20. The management server 300 may receive a plurality of line-of-sight information from the eyeglass-type device 100. The management server 300 may receive a plurality of line-of-sight information from the plurality of eyeglass-type devices 100.

管理サーバ300は、ユーザ102の眼鏡型デバイス100から受信した視線情報を、ユーザ102のユーザ識別情報に対応付けて格納してよい。ユーザ識別情報は、管理サーバ300が複数のユーザ102を識別可能な情報であれば、どのような情報であってもよい。ユーザ識別情報は、例えば、管理サーバ300によって、複数のユーザ102のそれぞれに割り当てられた情報であってよい。 The management server 300 may store the line-of-sight information received from the eyeglass-type device 100 of the user 102 in association with the user identification information of the user 102. The user identification information may be any information as long as the management server 300 can identify a plurality of users 102. The user identification information may be, for example, information assigned to each of the plurality of users 102 by the management server 300.

図4は、視線情報の取得の流れの一例について説明するための説明図である。図3では、眼鏡型デバイス100の装着者であるユーザ102に向けられる視線の視線情報を、当該眼鏡型デバイス100が管理サーバ300に送信する場合について説明したが、ユーザ102を見ている人物150が眼鏡型デバイス100を装着している場合、人物150の眼鏡型デバイス100が視線情報を管理サーバ300に送信してもよい。 FIG. 4 is an explanatory diagram for explaining an example of the flow of acquiring line-of-sight information. In FIG. 3, a case where the eyeglass-type device 100 transmits the line-of-sight information of the line of sight directed to the user 102 who is the wearer of the eyeglass-type device 100 to the management server 300 has been described, but the person 150 who is looking at the user 102 has been described. When the person wears the spectacle-type device 100, the spectacle-type device 100 of the person 150 may transmit the line-of-sight information to the management server 300.

図4に示す例においては、眼鏡型デバイス100を装着している人物150が、ユーザ102の腹部辺りを見ている。人物150の眼鏡型デバイス100は、人物150がユーザ102の腹部辺りを見ていることを示す視線情報を、管理サーバ300に送信する。 In the example shown in FIG. 4, the person 150 wearing the spectacle-type device 100 is looking around the abdomen of the user 102. The eyeglass-type device 100 of the person 150 transmits the line-of-sight information indicating that the person 150 is looking around the abdomen of the user 102 to the management server 300.

眼鏡型デバイス100は、視線情報とともに、ユーザ102の撮像画像を管理サーバ300に送信してよい。管理サーバ300は、複数のユーザ102の顔画像を予め格納しておき、ユーザ102の撮像画像によってユーザ102を認識して、ユーザ102のユーザ識別情報に対応付けて視線情報を格納してよい。 The spectacle-type device 100 may transmit the captured image of the user 102 to the management server 300 together with the line-of-sight information. The management server 300 may store the facial images of the plurality of users 102 in advance, recognize the user 102 by the captured image of the user 102, and store the line-of-sight information in association with the user identification information of the user 102.

ユーザ102の認識は、人物150の眼鏡型デバイス100によって行われてもよい。眼鏡型デバイス100は、例えば、複数のユーザ102の顔画像を予め管理サーバ300から受信しておく。そして、眼鏡型デバイス100は、複数のユーザ102の顔画像と、撮像したユーザ102の撮像画像とによって、ユーザ102を認識する。眼鏡型デバイス100は、ユーザ102のユーザ識別情報と視線情報とを管理サーバ300に送信してよい。 The recognition of the user 102 may be performed by the spectacle-type device 100 of the person 150. The eyeglass-type device 100 receives, for example, facial images of a plurality of users 102 from the management server 300 in advance. Then, the spectacle-type device 100 recognizes the user 102 by the facial images of the plurality of users 102 and the captured images of the captured users 102. The eyeglass-type device 100 may transmit the user identification information and the line-of-sight information of the user 102 to the management server 300.

管理サーバ300は、複数のユーザ102のそれぞれについて、ユーザ102に向けられる視線の複数の視線情報に基づいて、ユーザ102の身体のうち、より多く視線が向けられた部位を特定し得る。 For each of the plurality of users 102, the management server 300 can identify a portion of the body of the user 102 to which the line of sight is directed more, based on the plurality of line-of-sight information of the line of sight directed to the user 102.

図5は、視線情報の取得の流れの一例について説明するための説明図である。眼鏡型デバイス100は、眼鏡型デバイス100を装着しているユーザ102によって家30及び車40等の物体に向けられる視線の視線情報を取得する。 FIG. 5 is an explanatory diagram for explaining an example of the flow of acquiring line-of-sight information. The spectacle-type device 100 acquires line-of-sight information of a line of sight directed at an object such as a house 30 and a car 40 by a user 102 wearing the spectacle-type device 100.

当該視線情報は、眼鏡型デバイス100の撮像範囲情報を含んでよい。当該視線情報は、対象が家30であること、及び家30のうちユーザ102が視線を向けた部位を示す情報を含んでよい。当該視線情報は、対象が車40であること、車40の車両ナンバー、及び車40のうちユーザ102が視線を向けた部位を示す情報を含んでよい。眼鏡型デバイス100は、視線情報を管理サーバ300に送信する。 The line-of-sight information may include imaging range information of the spectacle-type device 100. The line-of-sight information may include information indicating that the target is the house 30 and the portion of the house 30 to which the user 102 has turned the line of sight. The line-of-sight information may include information indicating that the target is the car 40, the vehicle number of the car 40, and the portion of the car 40 to which the user 102 has turned the line of sight. The eyeglass-type device 100 transmits the line-of-sight information to the management server 300.

管理サーバ300は、視線情報によって家30の住所を特定すること等によって、家30の所有者であるユーザ102を特定し、ユーザ102のユーザ識別情報に対応付けて、家30のうちのユーザ102が視線を向けた部位を示す情報を登録してよい。管理サーバ300は、例えば、視線情報に含まれる、眼鏡型デバイス100の位置、向き及び姿勢に基づいて生成された撮像範囲情報を用いて、家30の住所を特定し得る。また、管理サーバ300は、視線情報によって車40の所有者であるユーザ102を特定し、ユーザ102のユーザ識別情報に対応付けて、車40のうちのユーザ102が視線を向けた部位を示す情報を登録してよい。 The management server 300 identifies the user 102 who is the owner of the house 30 by specifying the address of the house 30 by the line-of-sight information, and associates the user identification information of the user 102 with the user 102 of the house 30. You may register the information indicating the part to which the line of sight is directed. The management server 300 can identify the address of the house 30 by using, for example, the image pickup range information generated based on the position, orientation, and posture of the spectacle-type device 100 included in the line-of-sight information. Further, the management server 300 identifies the user 102 who is the owner of the car 40 by the line-of-sight information, associates it with the user identification information of the user 102, and indicates the portion of the car 40 to which the user 102 has turned the line of sight. May be registered.

管理サーバ300は、複数の眼鏡型デバイス100から複数の視線情報を受信することによって、複数のユーザ102の複数の所有物のそれぞれについて、どの部位により多く視線が向けられているかを特定し得る。 By receiving a plurality of line-of-sight information from the plurality of spectacle-type devices 100, the management server 300 can identify which part of the plurality of possessions of the plurality of users 102 is directed more.

図6は、制御装置200の機能構成の一例を概略的に示す。制御装置200は、格納部202、撮像画像取得部204、センサ情報取得部206、視線情報取得部208、撮像範囲情報生成部210、情報送信部212、コンテンツ受信部214、表示制御部216、部位特定部218、及びコンテンツ管理部220を備える。なお、制御装置200がこれらの全てを備えることは必須とは限らない。 FIG. 6 schematically shows an example of the functional configuration of the control device 200. The control device 200 includes a storage unit 202, an image capture image acquisition unit 204, a sensor information acquisition unit 206, a line-of-sight information acquisition unit 208, an image pickup range information generation unit 210, an information transmission unit 212, a content reception unit 214, a display control unit 216, and a portion. It includes a specific unit 218 and a content management unit 220. It is not always essential that the control device 200 includes all of these.

撮像画像取得部204は、カメラ120によって撮像された撮像画像をカメラ120から取得する。撮像画像取得部204は、取得した撮像画像を格納部202に格納する。 The captured image acquisition unit 204 acquires the captured image captured by the camera 120 from the camera 120. The captured image acquisition unit 204 stores the acquired captured image in the storage unit 202.

センサ情報取得部206は、センサ情報を取得する。センサ情報取得部206は、センサ122によって出力された情報を取得してよい。センサ情報取得部206は、測位センサによって出力された位置情報を取得してよい。センサ情報取得部206は、加速度センサによって出力された情報を取得してよい。センサ情報取得部206は、ジャイロセンサによって出力された情報を取得してよい。センサ情報取得部206は、他のセンサによって出力された情報を取得してよい。センサ情報取得部206は、取得したセンサ情報を格納部202に格納する。 The sensor information acquisition unit 206 acquires sensor information. The sensor information acquisition unit 206 may acquire the information output by the sensor 122. The sensor information acquisition unit 206 may acquire the position information output by the positioning sensor. The sensor information acquisition unit 206 may acquire the information output by the acceleration sensor. The sensor information acquisition unit 206 may acquire the information output by the gyro sensor. The sensor information acquisition unit 206 may acquire information output by another sensor. The sensor information acquisition unit 206 stores the acquired sensor information in the storage unit 202.

視線情報取得部208は、視線情報を取得する。視線情報取得部208は、視線検出部124によって検出された、眼鏡型デバイス100を装着しているユーザ102の視線を示す視線情報を取得してよい。視線情報取得部208は、例えば、ユーザ102によって、他の眼鏡型デバイス100の他のユーザ102に向けられる視線の視線情報を取得する。また、視線情報取得部208は、例えば、ユーザ102によって、物体に向けられる視線の視線情報を取得する。 The line-of-sight information acquisition unit 208 acquires line-of-sight information. The line-of-sight information acquisition unit 208 may acquire the line-of-sight information indicating the line-of-sight of the user 102 wearing the spectacle-type device 100, which is detected by the line-of-sight detection unit 124. The line-of-sight information acquisition unit 208 acquires, for example, the line-of-sight information of the line of sight directed to the other user 102 of the other eyeglass-type device 100 by the user 102. Further, the line-of-sight information acquisition unit 208 acquires, for example, the line-of-sight information of the line of sight directed at the object by the user 102.

また、視線情報取得部208は、カメラ120の撮像範囲内の人物の視線を示す視線情報を取得してよい。視線情報取得部208は、撮像画像取得部204によって取得された撮像画像及びセンサ情報取得部206によって取得されたセンサ情報を用いて、カメラ120の撮像範囲内の人物の視線を示す視線情報を取得してよい。視線情報取得部208は、例えば、眼鏡型デバイス100のユーザ102に向けられる視線の視線情報を取得する。 Further, the line-of-sight information acquisition unit 208 may acquire line-of-sight information indicating the line of sight of a person within the imaging range of the camera 120. The line-of-sight information acquisition unit 208 acquires line-of-sight information indicating the line of sight of a person within the image pickup range of the camera 120 by using the image captured image acquired by the image capture image acquisition unit 204 and the sensor information acquired by the sensor information acquisition unit 206. You can do it. The line-of-sight information acquisition unit 208 acquires, for example, the line-of-sight information of the line of sight directed at the user 102 of the eyeglass-type device 100.

撮像範囲情報生成部210は、撮像範囲情報を生成する。撮像範囲情報生成部210は、センサ情報取得部206によって取得されたセンサ情報を用いて撮像範囲情報を生成してよい。撮像範囲情報生成部210は、撮像画像取得部204によって取得された撮像画像をさらに用いて撮像範囲情報を生成してもよい。 The imaging range information generation unit 210 generates imaging range information. The imaging range information generation unit 210 may generate imaging range information using the sensor information acquired by the sensor information acquisition unit 206. The image pickup range information generation unit 210 may generate image pickup range information by further using the image captured image acquired by the image pickup image acquisition unit 204.

情報送信部212は、各種情報を管理サーバ300に送信する。情報送信部212は、例えば、撮像画像取得部204が取得した撮像画像を管理サーバ300に送信する。また、情報送信部212は、例えば、センサ情報取得部206が取得したセンサ情報を管理サーバ300に送信する。また、情報送信部212は、例えば、視線情報取得部208によって取得された視線情報を管理サーバ300に送信する。また、情報送信部212は、例えば、撮像範囲情報生成部210によって生成された撮像範囲情報を管理サーバ300に送信する。 The information transmission unit 212 transmits various information to the management server 300. The information transmission unit 212 transmits, for example, the captured image acquired by the captured image acquisition unit 204 to the management server 300. Further, the information transmission unit 212 transmits, for example, the sensor information acquired by the sensor information acquisition unit 206 to the management server 300. Further, the information transmission unit 212 transmits, for example, the line-of-sight information acquired by the line-of-sight information acquisition unit 208 to the management server 300. Further, the information transmission unit 212 transmits, for example, the image pickup range information generated by the image pickup range information generation unit 210 to the management server 300.

コンテンツ受信部214は、管理サーバ300からコンテンツを受信する。例えば、コンテンツ受信部214は、情報送信部212が送信した撮像範囲情報によって示される撮像範囲内の対象に対応するコンテンツを管理サーバ300から受信する。 The content receiving unit 214 receives the content from the management server 300. For example, the content receiving unit 214 receives from the management server 300 the content corresponding to the target within the imaging range indicated by the imaging range information transmitted by the information transmitting unit 212.

表示制御部216は、表示部による表示を制御する。表示制御部216は、例えば、コンテンツ受信部214が受信したコンテンツを、レンズ116に表示させる。 The display control unit 216 controls the display by the display unit. The display control unit 216 causes the lens 116 to display, for example, the content received by the content receiving unit 214.

部位特定部218は、視線情報取得部208が取得した、ユーザ102に向けられた視線の複数の視線情報に基づいて、ユーザ102の身体のうち、より多く視線が向けられた部位を特定する。 The site specifying unit 218 identifies a portion of the body of the user 102 to which the line of sight is directed more, based on a plurality of line-of-sight information of the line of sight directed to the user 102 acquired by the line-of-sight information acquisition unit 208.

部位特定部218は、例えば、ユーザ102の身体の複数の部位を、視線が向けられた回数が多い順に順位付けする。また、部位特定部218は、例えば、ユーザ102の身体の複数の部位を、視線が向けられた合計時間が長い順に順位付けする。部位特定部218は、例えば、順位が高い順に予め定められた数の部位を特定する。情報送信部212は、部位特定部218によって特定された部位を通知する通知情報を管理サーバ300に送信してよい。情報送信部212は、通知情報に、複数の部位の順位を含めてよい。 The site identification unit 218 ranks, for example, a plurality of parts of the body of the user 102 in descending order of the number of times the line of sight is directed. Further, the site identification unit 218 ranks, for example, a plurality of parts of the body of the user 102 in descending order of the total time when the line of sight is directed. The site specifying unit 218 identifies, for example, a predetermined number of sites in descending order of rank. The information transmission unit 212 may transmit notification information for notifying the portion specified by the portion identification unit 218 to the management server 300. The information transmission unit 212 may include the order of a plurality of parts in the notification information.

コンテンツ管理部220は、眼鏡型デバイス100の撮像範囲にユーザ102が含まれたときに、部位特定部218によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付ける。コンテンツ管理部220は、各部位に対応付けたコンテンツを、管理サーバ300に通知してよい。管理サーバ300は、ユーザ102のユーザ識別情報に対応付けて、各部位に対応するコンテンツを登録してよい。 When the user 102 is included in the imaging range of the spectacle-type device 100, the content management unit 220 associates the content displayed at the position corresponding to the site specified by the site identification unit 218 with the site. The content management unit 220 may notify the management server 300 of the content associated with each part. The management server 300 may register the content corresponding to each part in association with the user identification information of the user 102.

コンテンツ管理部220は、例えば、表示制御部216に、ユーザ102の身体のうち部位特定部218によって特定された部位を識別可能に表示させる。表示制御部216は、例えば、部位特定部218によって特定された部位を強調して、ユーザ102の身体の全体を表示する。 For example, the content management unit 220 causes the display control unit 216 to identifiablely display a portion of the body of the user 102 specified by the region identification unit 218. The display control unit 216 displays, for example, the entire body of the user 102 by emphasizing the part specified by the part identification unit 218.

コンテンツ管理部220は、表示制御部216によって表示された部位に対して、ユーザ102によって指定されたコンテンツを対応付けてよい。ユーザ102は、例えば、表示されたユーザ102の身体の全体のうち、部位特定部218によって特定された部位を選択して、当該部位に対応する位置に表示されることを希望するコンテンツを選択する。 The content management unit 220 may associate the content specified by the user 102 with the portion displayed by the display control unit 216. For example, the user 102 selects a part specified by the part specifying unit 218 from the entire body of the displayed user 102, and selects content that is desired to be displayed at a position corresponding to the part. ..

表示制御部216は、部位特定部218によって特定された複数の部位を、複数の部位の順位とともに表示してもよい。表示制御部216は、例えば、部位特定部218によって特定された部位を、順位が高いほど強調度を高くして、ユーザ102の身体の全体を表示する。ユーザ102は、例えば、より優先度の高いコンテンツを、より順位が高い部位に対応付ける。 The display control unit 216 may display a plurality of parts specified by the part identification unit 218 together with the order of the plurality of parts. The display control unit 216 displays, for example, the entire body of the user 102 by increasing the emphasis of the portion specified by the portion specifying unit 218 as the rank is higher. The user 102 associates, for example, a higher priority content with a higher order portion.

コンテンツ管理部220は、ユーザ102の携帯端末に、ユーザ102の身体のうち部位特定部218によって特定された部位を識別可能に表示させてもよい。当該携帯端末は、例えば、部位特定部218によって特定された部位を強調して、ユーザ102の身体の全体を表示する。 The content management unit 220 may display the mobile terminal of the user 102 so that the portion of the body of the user 102 identified by the portion specifying unit 218 can be identified. The mobile terminal displays, for example, the entire body of the user 102 by emphasizing the portion specified by the portion specifying portion 218.

コンテンツ管理部220は、携帯端末によって表示された部位に対して、ユーザ102によって指定されたコンテンツを対応付けてよい。携帯端末は、部位特定部218によって特定された複数の部位を、複数の部位の順位とともに表示してもよい。携帯端末は、例えば、部位特定部218によって特定された部位を、順位が高いほど強調度を高くして、ユーザ102の身体の全体を表示する。 The content management unit 220 may associate the content specified by the user 102 with the portion displayed by the mobile terminal. The mobile terminal may display a plurality of parts specified by the part identification unit 218 together with the order of the plurality of parts. For example, the mobile terminal displays the entire body of the user 102 by increasing the emphasis of the portion specified by the portion specifying unit 218 as the rank is higher.

コンテンツ管理部220は、上述したように、ユーザ102の指示に従って、部位特定部218によって特定された部位にコンテンツを対応付けてよい。コンテンツ管理部220は、部位特定部218によって特定された部位にコンテンツを自動的に対応付けてもよい。 As described above, the content management unit 220 may associate the content with the portion specified by the portion specifying unit 218 according to the instruction of the user 102. The content management unit 220 may automatically associate the content with the portion specified by the portion specifying unit 218.

コンテンツ管理部220は、例えば、部位特定部218によって特定された1つの部位に対して、複数のコンテンツのうちの1つのコンテンツを自動的に対応付ける。コンテンツ管理部220は、複数のコンテンツから、ランダムに1つのコンテンツを選択してよい。また、コンテンツ管理部220は、複数のコンテンツのうち、最も優先度の高いコンテンツを選択してもよい。 The content management unit 220 automatically associates one of the plurality of contents with one part specified by the part identification unit 218, for example. The content management unit 220 may randomly select one content from a plurality of contents. Further, the content management unit 220 may select the content having the highest priority from the plurality of contents.

コンテンツ管理部220は、例えば、部位特定部218によって特定された複数の部位のそれぞれに、コンテンツを自動的に対応付ける。コンテンツ管理部220は、部位特定部218によって特定された複数の部位のうち、順位がより高い部位に、複数のコンテンツのうち、より優先度が高いコンテンツを対応付けてよい。コンテンツ管理部220は、部位特定部218によって特定された複数の部位のうち、より多く視線が向けられた部位に、複数のコンテンツのうち、より優先度が高いコンテンツを対応付けてよい。 The content management unit 220 automatically associates the content with each of the plurality of parts specified by the part identification unit 218, for example. The content management unit 220 may associate a portion having a higher rank among the plurality of portions specified by the portion specifying unit 218 with a content having a higher priority among the plurality of contents. The content management unit 220 may associate the content having a higher priority among the plurality of contents with the portion to which the line of sight is more directed among the plurality of portions specified by the portion specifying unit 218.

コンテンツ管理部220は、部位特定部218によって特定された複数の部位のそれぞれに、複数の部位のそれぞれに関連するコンテンツを対応付けてもよい。例えば、部位特定部218によって、ユーザ102の胴体と腕が特定された場合に、コンテンツ管理部220は、ユーザ102の胴体に対して、衣服に関連するコンテンツを対応付け、ユーザ102の腕に対して、腕時計に関連するコンテンツを対応付ける。 The content management unit 220 may associate the content related to each of the plurality of parts with each of the plurality of parts specified by the part specifying unit 218. For example, when the body and arm of the user 102 are specified by the site specifying unit 218, the content management unit 220 associates the body of the user 102 with the content related to the clothes, and attaches the content related to the clothes to the arm of the user 102. And associate the content related to the wristwatch.

コンテンツが広告画像である場合、コンテンツ管理部220は、部位特定部218によって特定された複数の部位のそれぞれに、広告対象が複数の部位のそれぞれに関連するコンテンツを対応付けてよい。例えば、部位特定部218によって、ユーザ102の胴体と腕が特定された場合に、コンテンツ管理部220は、ユーザ102の胴体に対して、衣服の広告画像を対応付け、ユーザ102の腕に対して、腕時計の広告画像を対応付ける。ユーザ102は、例えば、広告画像が閲覧された回数に応じて、広告主からインセンティブを受領する。本実施形態に係るシステム10によれば、ユーザ102の身体のうち、より見られる可能性が高い部位に広告画像を配置することができるので、ユーザ102が受領するインセンティブを高めることに貢献し得る。 When the content is an advertisement image, the content management unit 220 may associate the content related to each of the plurality of parts whose advertisement target is related to each of the plurality of parts specified by the part identification unit 218. For example, when the body and arm of the user 102 are specified by the site specifying unit 218, the content management unit 220 associates the advertisement image of the clothes with the body of the user 102 and attaches the advertisement image of the clothes to the arm of the user 102. , Associate the advertising image of the watch. The user 102 receives an incentive from the advertiser according to the number of times the advertisement image is viewed, for example. According to the system 10 according to the present embodiment, the advertisement image can be placed on the part of the body of the user 102 that is more likely to be seen, which can contribute to increasing the incentive received by the user 102. ..

図7は管理サーバ300の機能構成の一例を概略的に示す。管理サーバ300は、情報処理装置の一例であってよい。管理サーバ300は、格納部302、情報受信部304、部位特定部306、及びコンテンツ管理部308を備える。 FIG. 7 schematically shows an example of the functional configuration of the management server 300. The management server 300 may be an example of an information processing device. The management server 300 includes a storage unit 302, an information receiving unit 304, a site specifying unit 306, and a content management unit 308.

格納部302は、各種情報を格納する。格納部302は、複数のユーザ102のユーザ識別情報を格納してよい。格納部302は、複数のユーザ102の顔画像を格納してよい。 The storage unit 302 stores various information. The storage unit 302 may store user identification information of a plurality of users 102. The storage unit 302 may store facial images of a plurality of users 102.

情報受信部304は、眼鏡型デバイス100から各種情報を受信する。情報受信部304は、情報送信部212によって送信された情報を受信してよい。情報受信部304は、受信した情報を格納部302に格納する。 The information receiving unit 304 receives various information from the eyeglass-type device 100. The information receiving unit 304 may receive the information transmitted by the information transmitting unit 212. The information receiving unit 304 stores the received information in the storage unit 302.

格納部302は、例えば、複数のユーザ102毎に、ユーザ102に向けられた視線の視線情報を、当該ユーザ102のユーザ識別情報に対応付けて格納する。また、格納部302は、例えば、複数のユーザ102毎に、身体の部位のそれぞれに対応するコンテンツを格納する。また、格納部302は、例えば、複数のユーザ102毎に、ユーザ102の所有物である物体に対応するコンテンツを格納する。格納部302は、物体の部位のそれぞれに対応するコンテンツを格納してよい。 The storage unit 302 stores, for example, the line-of-sight information of the line of sight directed at the user 102 for each of the plurality of users 102 in association with the user identification information of the user 102. Further, the storage unit 302 stores the content corresponding to each of the body parts for each of the plurality of users 102, for example. Further, the storage unit 302 stores, for example, the content corresponding to the object owned by the user 102 for each of the plurality of users 102. The storage unit 302 may store the content corresponding to each part of the object.

部位特定部306は、複数のユーザ102のそれぞれについて、ユーザ102に向けられた視線の複数の視線情報に基づいて、ユーザ102の身体のうち、より多く視線が向けられた部位を特定してよい。部位特定部306は、部位特定部218と同様、ユーザ102の身体の複数の部位を、視線が向けられた回数が多い順に順位付けしてよい。また、部位特定部306は、部位特定部218と同様、ユーザ102の身体の複数の部位を、視線が向けられた合計時間が長い順に順位付けしてよい。部位特定部306は、例えば、順位が高い順に予め定められた数の部位を特定してよい。部位特定部306は、情報受信部304が眼鏡型デバイス100から受信した通知情報を参照することによって、ユーザ102の身体のうち、より多く視線が向けられた部位を特定してもよい。 The site specifying unit 306 may specify, for each of the plurality of users 102, a portion of the body of the user 102 to which the line of sight is directed more, based on a plurality of line-of-sight information of the line of sight directed to the user 102. .. Similar to the site identification unit 218, the site identification unit 306 may rank a plurality of parts of the body of the user 102 in descending order of the number of times the line of sight is directed. Further, the site specifying unit 306 may rank a plurality of parts of the body of the user 102 in descending order of the total time when the line of sight is directed, as in the site specifying unit 218. The site specifying unit 306 may specify, for example, a predetermined number of sites in descending order of rank. The site specifying unit 306 may specify a region of the body of the user 102 to which the line of sight is directed more by referring to the notification information received from the eyeglass-type device 100 by the information receiving unit 304.

部位特定部306は、複数のユーザ102のそれぞれについて、ユーザ102の所有物である物体に向けられた視線の複数の視線情報に基づいて、物体のうちの、より多く視線が向けられた部位を特定してよい。部位特定部306は、物体の部位を、視線が向けられた回数が多い順に順位付けしてよい。また、部位特定部306は、物体の部位を、視線が向けられた合計時間が長い順に順位付けしてよい。 The site identification unit 306 determines, for each of the plurality of users 102, a portion of the object to which the line of sight is directed more, based on a plurality of line-of-sight information of the line of sight directed to the object owned by the user 102. May be specified. The site specifying unit 306 may rank the site of the object in descending order of the number of times the line of sight is directed. Further, the site specifying unit 306 may rank the site of the object in descending order of the total time in which the line of sight is directed.

コンテンツ管理部308は、眼鏡型デバイス100の撮像範囲にユーザ102が含まれたときに部位特定部306によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付ける。コンテンツ管理部308は、眼鏡型デバイス100から受信した、ユーザ102の身体の各部位に対応付けたコンテンツの通知によって、ユーザ102の身体の各部位にコンテンツを対応付けてよい。また、コンテンツ管理部308は、コンテンツ管理部220と同様に、部位特定部306によって特定された部位にコンテンツを自動的に対応付けてもよい。 The content management unit 308 associates the content displayed at the position corresponding to the part specified by the part identification unit 306 when the user 102 is included in the imaging range of the spectacle-type device 100 with the part. The content management unit 308 may associate the content with each part of the body of the user 102 by the notification of the content associated with each part of the body of the user 102 received from the eyeglass-type device 100. Further, the content management unit 308 may automatically associate the content with the portion specified by the portion specifying unit 306, similarly to the content management unit 220.

コンテンツ管理部308は、眼鏡型デバイス100の撮像範囲に物体が含まれたときに部位特定部306によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けてよい。コンテンツ管理部308は、例えば、物体の所有者であるユーザ102によって指定されたコンテンツを、物体の各部位に対して対応付ける。 The content management unit 308 may associate the content displayed at the position corresponding to the portion specified by the portion specifying unit 306 when the object is included in the imaging range of the spectacle-type device 100 with the portion. The content management unit 308 associates, for example, the content specified by the user 102, who is the owner of the object, with each part of the object.

コンテンツ管理部308は、例えば、ユーザ102の眼鏡型デバイス100や携帯端末に、部位特定部306によって特定された部位を強調して、物体の全体を表示させる。そして、コンテンツ管理部308は、表示させた部位に対して、ユーザ102によって指定されたコンテンツを対応付ける。ユーザ102は、例えば、表示された物体の全体のうち、部位特定部218によって特定された部位を選択して、当該部位に対応する位置に表示されることを希望するコンテンツを選択する。 The content management unit 308 causes, for example, the eyeglass-type device 100 or the mobile terminal of the user 102 to emphasize the portion specified by the portion specifying unit 306 and display the entire object. Then, the content management unit 308 associates the content specified by the user 102 with the displayed portion. For example, the user 102 selects a part specified by the part specifying unit 218 from the entire displayed object, and selects content that is desired to be displayed at a position corresponding to the part.

コンテンツ管理部308は、部位特定部306によって特定された複数の部位を、複数の部位の順位とともに表示させてもよい。コンテンツ管理部308は、例えば、部位特定部306によって特定された部位を、順位が高いほど強調度を強くして、物体の全体を表示させる。ユーザ102は、例えば、より優先度の高いコンテンツを、より順位が高い部位に対応付ける。 The content management unit 308 may display a plurality of parts specified by the part specifying unit 306 together with the order of the plurality of parts. For example, the content management unit 308 emphasizes the part specified by the part specifying unit 306 as the rank is higher, and displays the entire object. The user 102 associates, for example, a higher priority content with a higher order portion.

コンテンツ管理部308は、物体のうち、部位特定部306によって特定された部位にコンテンツを自動的に対応付けてもよい。 The content management unit 308 may automatically associate the content with the portion of the object specified by the portion specifying unit 306.

コンテンツ管理部308は、例えば、部位特定部306によって特定された物体の1つの部位に対して、複数のコンテンツのうちの1つのコンテンツを自動的に対応付ける。コンテンツ管理部308は、複数のコンテンツから、ランダムに1つのコンテンツを選択してよい。また、コンテンツ管理部308は、複数のコンテンツのうち、最も優先度の高いコンテンツを選択してもよい。 The content management unit 308 automatically associates one of the plurality of contents with one part of the object specified by the part identification unit 306, for example. The content management unit 308 may randomly select one content from a plurality of contents. Further, the content management unit 308 may select the content having the highest priority from the plurality of contents.

コンテンツ管理部308は、例えば、部位特定部306によって特定された物体の複数の部位のそれぞれに、コンテンツを自動的に対応付ける。コンテンツ管理部308は、部位特定部306によって特定された複数の部位のうち、順位がより高い部位に、複数のコンテンツのうち、より優先度が高いコンテンツを対応付けてよい。コンテンツ管理部308は、部位特定部306によって特定された複数の部位のうち、より多く視線が向けられた部位に、複数のコンテンツのうち、より優先度が高いコンテンツを対応付けてよい。 The content management unit 308 automatically associates content with each of a plurality of parts of an object specified by the part identification unit 306, for example. The content management unit 308 may associate a portion having a higher rank among the plurality of portions specified by the portion specifying unit 306 with a content having a higher priority among the plurality of contents. The content management unit 308 may associate the content having a higher priority among the plurality of contents with the portion to which the line of sight is more directed among the plurality of portions specified by the portion specifying unit 306.

コンテンツ管理部308は、部位特定部306によって特定された複数の部位のそれぞれに、複数の部位のそれぞれに関連するコンテンツを対応付けてもよい。また、コンテンツ管理部308は、複数の物体のそれぞれの部位に、複数の物体のそれぞれに関連するコンテンツを対応付けてもよい。例えば、コンテンツ管理部308は、家30の部位に対して、家具等の家に関連するコンテンツを対応付け、車40の部位に対して、車に関連するコンテンツを対応付ける。 The content management unit 308 may associate the content related to each of the plurality of parts with each of the plurality of parts specified by the part specifying unit 306. Further, the content management unit 308 may associate the content related to each of the plurality of objects with each part of the plurality of objects. For example, the content management unit 308 associates the parts of the house 30 with the contents related to the house such as furniture, and associates the parts of the car 40 with the contents related to the car.

コンテンツが広告画像である場合、コンテンツ管理部308は、部位特定部306によって特定された複数の物体の部位のそれぞれに、広告対象が複数の物体のそれぞれに関連するコンテンツを対応付けてよい。例えば、コンテンツ管理部308は、家30の部位に対して、家具の広告画像を対応付け、車40の部位に対して、車の広告画像を対応付ける。 When the content is an advertisement image, the content management unit 308 may associate the content related to each of the plurality of objects whose advertisement target is related to each of the parts of the plurality of objects specified by the part identification unit 306. For example, the content management unit 308 associates the advertisement image of furniture with the part of the house 30, and associates the advertisement image of the car with the part of the car 40.

コンテンツ管理部308は、眼鏡型デバイス100から受信した撮像範囲情報によって示される撮像範囲に含まれる対象に対応するコンテンツを眼鏡型デバイス100に送信する。コンテンツ管理部308は、撮像範囲に含まれる位置及びエリア等に対応するコンテンツを眼鏡型デバイス100に送信してよい。コンテンツ管理部308は、撮像範囲に含まれる移動体に対応するコンテンツを眼鏡型デバイス100に送信してよい。 The content management unit 308 transmits to the spectacle-type device 100 the content corresponding to the target included in the image pickup range indicated by the image pickup range information received from the spectacle-type device 100. The content management unit 308 may transmit the content corresponding to the position, area, etc. included in the imaging range to the spectacle-type device 100. The content management unit 308 may transmit the content corresponding to the moving object included in the imaging range to the spectacle-type device 100.

コンテンツ管理部308は、撮像範囲にユーザ102が含まれる場合であって、当該ユーザ102の身体の部位にコンテンツが対応付けられている場合、当該コンテンツを眼鏡型デバイス100に送信して、当該部位に対応する位置に表示させる。 When the user 102 is included in the imaging range and the content is associated with the body part of the user 102, the content management unit 308 transmits the content to the spectacle-type device 100 and the part. Display at the position corresponding to.

コンテンツ管理部308は、撮像範囲にユーザ102の物体が含まれる場合であって、当該物体の部位にコンテンツが対応付けられている場合、当該コンテンツを眼鏡型デバイス100に送信して、当該部位に対応する位置に表示させる。 When the object of the user 102 is included in the imaging range and the content is associated with the portion of the object, the content management unit 308 transmits the content to the spectacle-type device 100 to the portion. Display at the corresponding position.

図8は、眼鏡型デバイス100によるコンテンツ400の表示例を概略的に示す。眼鏡型デバイス100は、ユーザ102が撮像範囲に含まれる場合であって、ユーザ102の身体の部位にコンテンツ400が対応付けられている場合に、当該部位に対応する位置に、当該コンテンツ400を表示する。 FIG. 8 schematically shows an example of displaying the content 400 by the spectacle-type device 100. The spectacle-type device 100 displays the content 400 at a position corresponding to the part of the body of the user 102 when the user 102 is included in the imaging range and the content 400 is associated with the part of the body of the user 102. do.

図8では、ユーザ102の腹部に対応する位置に、衣服の広告を含むコンテンツ400が表示され、ユーザ102の腕部に対応する位置に、腕時計の広告を含むコンテンツ400が表示されている場合を例示している。 In FIG. 8, the case where the content 400 including the advertisement of clothes is displayed at the position corresponding to the abdomen of the user 102 and the content 400 including the advertisement of the wristwatch is displayed at the position corresponding to the arm of the user 102. Illustrate.

なお、図8では、ユーザ102の身体の部位から延ばした引き出し線の先にコンテンツ400を表示する例を示しているが、これに限らない。眼鏡型デバイス100は、ユーザ102の身体の部位に重畳させて、コンテンツ400を表示してもよい。 Note that FIG. 8 shows an example in which the content 400 is displayed at the tip of the leader line extending from the body part of the user 102, but the present invention is not limited to this. The spectacle-type device 100 may superimpose the content 400 on the body portion of the user 102.

図9は、眼鏡型デバイス100によるコンテンツ400の表示例を概略的に示す。眼鏡型デバイス100は、ユーザ102の所有する物体が撮像範囲に含まれる場合であって、物体の部位にコンテンツ400が対応付けられている場合に、当該部位に対応する位置に、当該コンテンツ400を表示する。 FIG. 9 schematically shows an example of displaying the content 400 by the spectacle-type device 100. When the object owned by the user 102 is included in the imaging range and the content 400 is associated with the portion of the object, the spectacle-type device 100 places the content 400 at a position corresponding to the portion. indicate.

図9では、家30の部位に対応する位置に、家具の広告を含むコンテンツ400が表示され、車40の部位に対応する位置に、車の広告を含むコンテンツ400が表示されている場合を例示している。 FIG. 9 illustrates a case where the content 400 including the furniture advertisement is displayed at the position corresponding to the part of the house 30, and the content 400 including the car advertisement is displayed at the position corresponding to the part of the car 40. is doing.

なお、図9では、物体の部位から延ばした引き出し線の先にコンテンツ400を表示する例を示しているが、これに限らない。眼鏡型デバイス100は、物体の部位に重畳させて、コンテンツ400を表示してもよい。 Note that FIG. 9 shows an example in which the content 400 is displayed at the tip of the leader line extending from the portion of the object, but the present invention is not limited to this. The spectacle-type device 100 may superimpose the content 400 on the portion of the object.

図10は、制御装置200又は管理サーバ300として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。 FIG. 10 schematically shows an example of a hardware configuration of a computer 1200 that functions as a control device 200 or a management server 300. A program installed on the computer 1200 causes the computer 1200 to function as one or more "parts" of the apparatus according to the present embodiment, or causes the computer 1200 to perform an operation associated with the apparatus according to the present embodiment or the one or the like. A plurality of "parts" can be executed and / or a computer 1200 can be made to execute a process according to the present embodiment or a stage of the process. Such a program may be run by the CPU 1212 to cause the computer 1200 to perform certain operations associated with some or all of the blocks of the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボード又はタッチパネルのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。 The computer 1200 according to this embodiment includes a CPU 1212, a RAM 1214, and a graphic controller 1216, which are interconnected by a host controller 1210. The computer 1200 also includes an input / output unit such as a communication interface 1222, a storage device 1224, and an IC card drive, which are connected to the host controller 1210 via the input / output controller 1220. The storage device 1224 may be a hard disk drive, a solid state drive, or the like. The computer 1200 also includes an input / output unit such as a ROM 1230 and a keyboard or touch panel, which are connected to the input / output controller 1220 via an input / output chip 1240.

CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。 The CPU 1212 operates according to a program stored in the ROM 1230 and the RAM 1214, thereby controlling each unit. The graphic controller 1216 acquires the image data generated by the CPU 1212 in a frame buffer or the like provided in the RAM 1214 or itself so that the image data is displayed on the display device 1218.

通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。 The communication interface 1222 communicates with other electronic devices via the network. The storage device 1224 stores programs and data used by the CPU 1212 in the computer 1200. The IC card drive reads the program and data from the IC card and / or writes the program and data to the IC card.

ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。 The ROM 1230 stores in it a boot program or the like executed by the computer 1200 at the time of activation, and / or a program depending on the hardware of the computer 1200. The input / output chip 1240 may also connect various input / output units to the input / output controller 1220 via a USB port, a parallel port, a serial port, a keyboard port, a mouse port, and the like.

プログラムは、ICカードのようなコンピュータ可読記憶媒体によって提供されてよい。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。 The program may be provided by a computer-readable storage medium such as an IC card. The program is read from a computer-readable storage medium, installed in a storage device 1224, RAM 1214, or ROM 1230, which is also an example of a computer-readable storage medium, and executed by the CPU 1212. The information processing described in these programs is read by the computer 1200 and provides a link between the program and the various types of hardware resources described above. The device or method may be configured to implement the operation or processing of information in accordance with the use of the computer 1200.

例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is executed between the computer 1200 and an external device, the CPU 1212 executes a communication program loaded in the RAM 1214, and performs communication processing with respect to the communication interface 1222 based on the processing described in the communication program. You may order. Under the control of the CPU 1212, the communication interface 1222 reads the transmission data stored in the transmission buffer area provided in the recording medium such as the RAM 1214, the storage device 1224, or the IC card, and transfers the read transmission data to the network. The received data transmitted or received from the network is written in the reception buffer area or the like provided on the recording medium.

また、CPU1212は、記憶装置1224、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。 Further, the CPU 1212 makes the RAM 1214 read all or necessary parts of the file or the database stored in the external recording medium such as the storage device 1224 and the IC card, and various types of processing for the data on the RAM 1214. May be executed. The CPU 1212 may then write back the processed data to an external recording medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information such as various types of programs, data, tables, and databases may be stored in recording media and processed. The CPU 1212 describes various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, and information retrieval described in various parts of the present disclosure with respect to the data read from the RAM 1214. Various types of processing may be performed, including / replacement, etc., and the results are written back to the RAM 1214. Further, the CPU 1212 may search for information in a file, a database, or the like in the recording medium. For example, when a plurality of entries each having an attribute value of the first attribute associated with the attribute value of the second attribute are stored in the recording medium, the CPU 1212 is the first of the plurality of entries. The attribute value of the attribute of is searched for the entry that matches the specified condition, the attribute value of the second attribute stored in the entry is read, and the attribute value of the second attribute is changed to the first attribute that satisfies the predetermined condition. You may get the attribute value of the associated second attribute.

上で説明したプログラム又はソフトウェアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。 The program or software module described above may be stored on a computer 1200 or in a computer readable storage medium near the computer 1200. Further, a recording medium such as a hard disk or RAM provided in a dedicated communication network or a server system connected to the Internet can be used as a computer-readable storage medium, whereby the program can be transferred to the computer 1200 via the network. offer.

本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowcharts and block diagrams of this embodiment may represent the stage of the process in which the operation is performed or the "part" of the device responsible for performing the operation. Specific steps and "parts" are supplied with a dedicated circuit, a programmable circuit supplied with computer-readable instructions stored on a computer-readable storage medium, and / or with computer-readable instructions stored on a computer-readable storage medium. It may be implemented by the processor. Dedicated circuits may include digital and / or analog hardware circuits, and may include integrated circuits (ICs) and / or discrete circuits. Programmable circuits include logical products, logical sums, exclusive logical sums, negative logical products, negative logical sums, and other logical operations, such as, for example, field programmable gate arrays (FPGAs), programmable logic arrays (PLAs), and the like. , Flip-flops, registers, and reconfigurable hardware circuits, including memory elements.

コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 The computer readable storage medium may include any tangible device capable of storing instructions executed by the appropriate device, so that the computer readable storage medium having the instructions stored therein may be in a flow chart or block diagram. It will be equipped with a product that contains instructions that can be executed to create means for performing the specified operation. Examples of the computer-readable storage medium may include an electronic storage medium, a magnetic storage medium, an optical storage medium, an electromagnetic storage medium, a semiconductor storage medium, and the like. More specific examples of computer-readable storage media include floppy (registered trademark) disks, diskettes, hard disks, random access memory (RAM), read-only memory (ROM), and erasable programmable read-only memory (EPROM or flash memory). , Electrically Erasable Programmable Read Only Memory (EEPROM), Static Random Access Memory (SRAM), Compact Disc Read Only Memory (CD-ROM), Digital Versatile Disc (DVD), Blu-ray® Disc, Memory Stick , Integrated circuit cards and the like may be included.

コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 Computer-readable instructions include assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcodes, firmware instructions, state-setting data, or Smalltalk®, JAVA®, C ++, etc. Object-oriented programming languages, and either source code or object code written in any combination of one or more programming languages, including traditional procedural programming languages such as the "C" programming language or similar programming languages. May include.

コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer-readable instructions are used to generate means for a general purpose computer, a special purpose computer, or the processor of another programmable data processing device, or a programmable circuit, to perform an operation specified in a flowchart or block diagram. General purpose computers, special purpose computers, or other programmable data processing locally or via a local area network (LAN), a wide area network (WAN) such as the Internet, etc. to execute such computer-readable instructions. It may be provided to the processor of the device or a programmable circuit. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. It is clear from the description of the claims that the form with such changes or improvements may be included in the technical scope of the present invention.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operation, procedure, step, and step in the apparatus, system, program, and method shown in the claims, specification, and drawings is particularly "before" and "prior to". It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Even if the scope of claims, the specification, and the operation flow in the drawings are explained using "first", "next", etc. for convenience, it means that it is essential to carry out in this order. It's not a thing.

10 システム、20 ネットワーク、30 家、40 車、100 眼鏡型デバイス、102 ユーザ、110 フレーム、112 リム、114 ブリッジ、116 レンズ、118 テンプル、120 カメラ、122 センサ、124 視線検出部、200 制御装置、202 格納部、204 撮像画像取得部、206 センサ情報取得部、208 視線情報取得部、210 撮像範囲情報生成部、212 情報送信部、214 コンテンツ受信部、216 表示制御部、218 部位特定部、220 コンテンツ管理部、300 管理サーバ、302 格納部、304 情報受信部、306 部位特定部、308 コンテンツ管理部、400 コンテンツ、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1230 ROM、1240 入出力チップ 10 systems, 20 networks, 30 homes, 40 cars, 100 eyeglass devices, 102 users, 110 frames, 112 rims, 114 bridges, 116 lenses, 118 temples, 120 cameras, 122 sensors, 124 line-of-sight detectors, 200 controls, 202 storage unit, 204 image capture image acquisition unit, 206 sensor information acquisition unit, 208 line-of-sight information acquisition unit, 210 imaging range information generation unit, 212 information transmission unit, 214 content reception unit, 216 display control unit, 218 site identification unit, 220 Content management unit, 300 management server, 302 storage unit, 304 information receiving unit, 306 site identification unit, 308 content management unit, 400 content, 1200 computer, 1210 host controller, 1212 CPU, 1214 RAM, 1216 graphic controller, 1218 display device 1220 I / O controller, 1222 communication interface, 1224 storage device, 1230 ROM, 1240 I / O chip

Claims (13)

眼鏡型デバイスを装着している装着者に向けられる視線の視線情報を取得する視線情報取得部と、
複数の前記視線情報に基づいて、前記装着者の身体のうち、より多く視線が向けられた部位を特定する部位特定部と、
眼鏡型デバイスの撮像範囲に前記装着者が含まれたときに前記部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けるコンテンツ管理部と
を備える情報処理装置。
A line-of-sight information acquisition unit that acquires line-of-sight information of the line of sight directed at the wearer wearing a spectacle-type device, and a line-of-sight information acquisition unit.
A site specifying portion that identifies a portion of the wearer's body to which the line of sight is directed more based on the plurality of line-of-sight information.
An information processing device including a content management unit that associates content displayed at a position corresponding to a site specified by the site identification unit when the wearer is included in the imaging range of the spectacle-type device with the site.
前記装着者の身体のうち前記部位特定部によって特定された部位を識別可能に表示させる表示制御部
を備え、
前記コンテンツ管理部は、前記表示制御部によって表示された部位に対して、前記装着者によって指定されたコンテンツを対応付ける、請求項1に記載の情報処理装置。
It is provided with a display control unit that displays the part of the wearer's body specified by the part specifying part in an identifiable manner.
The information processing device according to claim 1, wherein the content management unit associates the content specified by the wearer with the portion displayed by the display control unit.
前記コンテンツ管理部は、前記部位特定部によって特定された部位にコンテンツを自動的に対応付ける、請求項1又は2に記載の情報処理装置。 The information processing device according to claim 1 or 2, wherein the content management unit automatically associates content with a portion specified by the portion specifying unit. 前記部位特定部は、前記装着者の身体のうち、より多く視線が向けられた複数の部位を特定し、
前記コンテンツ管理部は、前記複数の部位のそれぞれに複数のコンテンツのそれぞれを対応付ける、請求項3に記載の情報処理装置。
The site specifying portion identifies a plurality of sites of the wearer's body to which more eyes are directed.
The information processing device according to claim 3, wherein the content management unit associates each of the plurality of contents with each of the plurality of parts.
前記コンテンツ管理部は、前記部位特定部によって特定された前記複数の部位のうち、より多く視線が向けられた部位に、前記複数のコンテンツのうち、より優先度が高いコンテンツを対応付ける、請求項4に記載の情報処理装置。 4. The content management unit associates a content having a higher priority among the plurality of contents with a portion to which a larger number of eyes are directed among the plurality of portions specified by the portion specifying unit. The information processing device described in. 前記コンテンツ管理部は、前記複数の部位のそれぞれに、前記複数の部位のそれぞれに関連するコンテンツを対応付ける、請求項4に記載の情報処理装置。 The information processing device according to claim 4, wherein the content management unit associates each of the plurality of parts with content related to each of the plurality of parts. 前記コンテンツは広告画像であり、
前記コンテンツ管理部は、前記複数の部位のそれぞれに、広告対象が前記複数の部位のそれぞれに関連するコンテンツを対応付ける、請求項6に記載の情報処理装置。
The content is an advertising image and
The information processing device according to claim 6, wherein the content management unit associates a content related to each of the plurality of parts with an advertisement target to each of the plurality of parts.
前記情報処理装置は前記眼鏡型デバイスに搭載され、
前記視線情報取得部は、前記眼鏡型デバイスのカメラによって撮像された撮像画像を用いて、前記装着者に向けられる視線の視線情報を取得する、請求項1から7のいずれか一項に記載の情報処理装置。
The information processing device is mounted on the eyeglass-type device and is mounted on the eyeglass-type device.
The line-of-sight information acquisition unit according to any one of claims 1 to 7, wherein the line-of-sight information acquisition unit acquires line-of-sight information of the line of sight directed to the wearer by using an image captured by the camera of the spectacle-type device. Information processing device.
前記情報処理装置は、ネットワーク上に配置され、
前記視線情報取得部は、前記眼鏡型デバイスから前記ネットワークを介して前記視線情報を受信する、請求項1から7のいずれか一項に記載の情報処理装置。
The information processing device is arranged on the network and
The information processing device according to any one of claims 1 to 7, wherein the line-of-sight information acquisition unit receives the line-of-sight information from the eyeglass-type device via the network.
前記コンテンツ管理部は、第1の眼鏡型デバイスのカメラの撮像範囲に含まれる第2の眼鏡型デバイスの装着者の部位に対応するコンテンツを特定し、特定したコンテンツを前記第1の眼鏡型デバイスに表示させる、請求項9に記載の情報処理装置。 The content management unit identifies the content corresponding to the part of the wearer of the second spectacle-type device included in the image pickup range of the camera of the first spectacle-type device, and the specified content is the first spectacle-type device. 9. The information processing apparatus according to claim 9. 前記視線情報取得部は、眼鏡型デバイスを装着している装着者によって物体に向けられる視線の視線情報を取得し、
前記部位特定部は、複数の前記視線情報に基づいて、前記物体のうちの、より多く視線が向けられた部位を特定し、
前記コンテンツ管理部は、眼鏡型デバイスの撮像範囲に前記物体が含まれたときに前記部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付ける、請求項9又は10に記載の情報処理装置。
The line-of-sight information acquisition unit acquires line-of-sight information of a line of sight directed at an object by a wearer wearing a spectacle-type device.
The site specifying portion identifies a portion of the object to which the line of sight is directed more based on the plurality of line-of-sight information.
9. 10. The information processing apparatus according to 10.
眼鏡型デバイスを装着している装着者によって物体に向けられる視線の視線情報を取得する視線情報取得部と、
複数の前記視線情報に基づいて、前記物体のうちの、より多く視線が向けられた部位を特定する部位特定部と、
眼鏡型デバイスの撮像範囲に前記物体が含まれたときに前記部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けるコンテンツ管理部と
を備える情報処理装置。
A line-of-sight information acquisition unit that acquires line-of-sight information of the line of sight directed at an object by a wearer wearing a spectacle-type device, and a line-of-sight information acquisition unit.
A site specifying portion that identifies a portion of the object to which the line of sight is directed more based on the plurality of line-of-sight information.
An information processing device including a content management unit that associates content displayed at a position corresponding to a part specified by the part specifying part when the object is included in the imaging range of the spectacle-type device with the part.
コンピュータを、請求項1から12のいずれか一項に記載の情報処理装置として機能させるためのプログラム。 A program for operating a computer as an information processing device according to any one of claims 1 to 12.
JP2020195559A 2020-11-25 2020-11-25 Information processing device and program Active JP7194158B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020195559A JP7194158B2 (en) 2020-11-25 2020-11-25 Information processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020195559A JP7194158B2 (en) 2020-11-25 2020-11-25 Information processing device and program

Publications (2)

Publication Number Publication Date
JP2022083921A true JP2022083921A (en) 2022-06-06
JP7194158B2 JP7194158B2 (en) 2022-12-21

Family

ID=81855564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020195559A Active JP7194158B2 (en) 2020-11-25 2020-11-25 Information processing device and program

Country Status (1)

Country Link
JP (1) JP7194158B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018079166A1 (en) * 2016-10-26 2018-05-03 ソニー株式会社 Information processing device, information processing system, information processing method, and program
US20190130184A1 (en) * 2017-10-31 2019-05-02 Samsung Electronics Co., Ltd. Apparatus and method for performing viewer gaze analysis

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018079166A1 (en) * 2016-10-26 2018-05-03 ソニー株式会社 Information processing device, information processing system, information processing method, and program
US20190130184A1 (en) * 2017-10-31 2019-05-02 Samsung Electronics Co., Ltd. Apparatus and method for performing viewer gaze analysis

Also Published As

Publication number Publication date
JP7194158B2 (en) 2022-12-21

Similar Documents

Publication Publication Date Title
US10132633B2 (en) User controlled real object disappearance in a mixed reality display
Mulfari et al. Using Google Cloud Vision in assistive technology scenarios
WO2018012924A1 (en) Augmented reality device and operation thereof
US20160035135A1 (en) Wearable device and method of controlling therefor
KR20170088655A (en) Method for Outputting Augmented Reality and Electronic Device supporting the same
CN103635849A (en) Total field of view classification for head-mounted display
US11682045B2 (en) Augmented reality advertisements on objects
JP7194158B2 (en) Information processing device and program
JP7274451B2 (en) System, management device, program, and management method
JP7096295B2 (en) Display control system, program, and display control method
JP7133005B2 (en) Glasses-type device, program, and control method
JP7139395B2 (en) Controllers, programs and systems
JP7171689B2 (en) Management device, program, system, and management method
JP7506135B2 (en) Information processing device, program, and display method
JP7174785B2 (en) Control device, program, and control method
JP7135052B2 (en) Control device, program, and control method
JP7187523B2 (en) Matching system, glasses type device, matching server and program
JP7039672B1 (en) Controls, programs, and control methods
JP7187520B2 (en) Glasses-type device, management server and program
JP2022102681A (en) Spectacle-type device, program, and control method
JP2024073312A (en) Control device, program, control method, and eyeglasses-type device
KR102390103B1 (en) Advertising viewing time calculation system and operation method thereof
CN114303120B (en) virtual keyboard
JP2022113031A (en) Control device, program, system, and control method
JP2022041765A (en) Spectacle-type device, program, and display control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221209

R150 Certificate of patent or registration of utility model

Ref document number: 7194158

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150