JP2022083921A - Information processing device and program - Google Patents
Information processing device and program Download PDFInfo
- Publication number
- JP2022083921A JP2022083921A JP2020195559A JP2020195559A JP2022083921A JP 2022083921 A JP2022083921 A JP 2022083921A JP 2020195559 A JP2020195559 A JP 2020195559A JP 2020195559 A JP2020195559 A JP 2020195559A JP 2022083921 A JP2022083921 A JP 2022083921A
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- content
- unit
- type device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 36
- 238000003384 imaging method Methods 0.000 claims abstract description 37
- 230000000007 visual effect Effects 0.000 abstract 2
- 238000004891 communication Methods 0.000 description 21
- 238000000034 method Methods 0.000 description 17
- 230000005540 biological transmission Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 238000001514 detection method Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 210000001015 abdomen Anatomy 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.
特許文献1及び特許文献2には、移動オブジェクト(個人及び車等)に対して仮想情報(広告等)を対応付けて登録し、移動オブジェクトを撮像した検索者に対して、仮想情報を提供する技術が記載されている。
[先行技術文献]
[特許文献]
[特許文献1]特開2018-106692号公報
[特許文献2]特開2018-106696号公報
In Patent Document 1 and Patent Document 2, virtual information (advertisement, etc.) is registered in association with a moving object (individual, car, etc.), and the virtual information is provided to a searcher who has imaged the moving object. The technique is described.
[Prior Art Document]
[Patent Document]
[Patent Document 1] JP-A-2018-106692 [Patent Document 2] JP-A-2018-106696
本発明の一実施態様によれば、情報処理装置が提供される。情報処理装置は、眼鏡型デバイスを装着している装着者に向けられる視線の視線情報を取得する視線情報取得部を備えてよい。情報処理装置は、複数の視線情報に基づいて、装着者の身体のうち、より多く視線が向けられた部位を特定する部位特定部を備えてよい。情報処理装置は、眼鏡型デバイスの撮像範囲に装着者が含まれたときに部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けるコンテンツ管理部を備えてよい。 According to one embodiment of the present invention, an information processing apparatus is provided. The information processing device may include a line-of-sight information acquisition unit that acquires line-of-sight information of the line of sight directed at the wearer wearing the spectacle-type device. The information processing apparatus may include a site specifying portion that identifies a portion of the wearer's body to which a larger number of eyes are directed based on a plurality of line-of-sight information. The information processing device may include a content management unit that associates the content displayed at the position corresponding to the part specified by the part specifying part when the wearer is included in the imaging range of the spectacle-type device with the part. ..
上記情報処理装置は、上記装着者の身体のうち上記部位特定部によって特定された部位を識別可能に表示させる部位表示制御部を備えてよく、上記コンテンツ管理部は、上記部位表示制御部によって表示された部位に対して、上記装着者によって指定されたコンテンツを対応付けてよい。上記コンテンツ管理部は、上記部位特定部によって特定された部位にコンテンツを自動的に対応付けてよい。上記部位特定部は、上記装着者の身体のうち、より多く視線が向けられた複数の部位を特定してよく、上記コンテンツ管理部は、上記複数の部位のそれぞれに複数のコンテンツのそれぞれを対応付けてよい。上記コンテンツ管理部は、上記部位特定部によって特定された上記複数の部位のうち、より多く視線が向けられた部位に、上記複数のコンテンツのうち、より優先度が高いコンテンツを対応付けてよい。上記コンテンツ管理部は、上記複数の部位のそれぞれに、上記複数の部位のそれぞれに関連するコンテンツを対応付けてよい。上記コンテンツは広告画像であってよく、上記コンテンツ管理部は、上記複数の部位のそれぞれに、広告対象が上記複数の部位のそれぞれに関連するコンテンツを対応付けてよい。上記情報処理装置は上記眼鏡型デバイスに搭載されてよく、上記視線情報取得部は、上記眼鏡型デバイスのカメラによって撮像された撮像画像を用いて、上記装着者に向けられる視線の視線情報を取得してよい。 The information processing apparatus may include a part display control unit for identifiablely displaying a part of the wearer's body specified by the part identification part, and the content management unit displays the part display control unit. The content specified by the wearer may be associated with the designated portion. The content management unit may automatically associate the content with the portion specified by the portion specifying unit. The site specifying part may specify a plurality of parts of the wearer's body to which more eyes are directed, and the content management unit corresponds to each of the plurality of contents to each of the plurality of parts. You may attach it. The content management unit may associate the content having a higher priority among the plurality of contents with the portion to which the line of sight is directed more than the plurality of parts specified by the site specifying unit. The content management unit may associate each of the plurality of parts with content related to each of the plurality of parts. The content may be an advertisement image, and the content management unit may associate each of the plurality of parts with content related to each of the plurality of parts to be advertised. The information processing device may be mounted on the spectacle-type device, and the line-of-sight information acquisition unit acquires line-of-sight information of the line of sight directed at the wearer by using an image captured by the camera of the spectacle-type device. You can do it.
上記情報処理装置は、ネットワーク上に配置されてよく、上記視線情報取得部は、上記眼鏡型デバイスから上記ネットワークを介して上記視線情報を受信してよい。上記情報処理装置は、第1の眼鏡型デバイスのカメラの撮像範囲に含まれる第2の眼鏡型デバイスの装着者の部位に対応するコンテンツを特定するコンテンツ特定部を備えてよく、上記コンテンツ管理部は、上記コンテンツ特定部が特定したコンテンツを上記第1の眼鏡型デバイスに表示させてよい。上記視線情報取得部は、眼鏡型デバイスを装着している装着者によって物体に向けられる視線の視線情報を取得してよく、上記部位特定部は、複数の上記視線情報に基づいて、上記物体のうちの、より多く視線が向けられた部位を特定してよく、上記コンテンツ管理部は、眼鏡型デバイスの撮像範囲に上記物体が含まれたときに上記部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けてよい。 The information processing apparatus may be arranged on a network, and the line-of-sight information acquisition unit may receive the line-of-sight information from the eyeglass-type device via the network. The information processing apparatus may include a content specifying unit for specifying content corresponding to a part of the wearer of the second spectacle-type device included in the imaging range of the camera of the first spectacle-type device, and the content management unit may be provided. May display the content specified by the content specifying unit on the first eyeglass-type device. The line-of-sight information acquisition unit may acquire line-of-sight information of the line-of-sight directed at the object by the wearer wearing the spectacle-type device, and the site identification unit may acquire the line-of-sight information of the object based on the plurality of line-of-sight information. The part of which the line of sight is directed may be specified, and the content management unit corresponds to the part specified by the part identification part when the object is included in the imaging range of the spectacle-type device. The content displayed at the position may be associated with the relevant part.
本発明の一実施態様によれば、情報処理装置が提供される。情報処理装置は、眼鏡型デバイスを装着している装着者によって物体に向けられる視線の視線情報を取得する視線情報取得部を備えてよい。情報処理装置は、複数の視線情報に基づいて、物体のうちの、より多く視線が向けられた部位を特定する部位特定部を備えてよい。眼鏡型デバイスの撮像範囲に物体が含まれたときに部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けるコンテンツ管理部を備えてよい。 According to one embodiment of the present invention, an information processing apparatus is provided. The information processing device may include a line-of-sight information acquisition unit that acquires line-of-sight information of the line of sight directed at an object by a wearer wearing a spectacle-type device. The information processing apparatus may include a site specifying portion that identifies a portion of the object to which the line of sight is directed more based on a plurality of line-of-sight information. When an object is included in the imaging range of the spectacle-type device, the content management unit may be provided to associate the content displayed at the position corresponding to the part specified by the part specifying part with the part.
本発明の一実施態様によれば、コンピュータを、上記情報処理装置として機能させるためのプログラムが提供される。 According to one embodiment of the present invention, a program for making a computer function as the information processing apparatus is provided.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The outline of the above invention does not list all the necessary features of the present invention. A subcombination of these feature groups can also be an invention.
AR(Augmented Reality)グラス等の眼鏡型デバイスと、視線検知の技術により、人が何を見ているかが分かるようになる。これにより、大勢の人が見ている場所の可視化が可能になると想定される。本実施形態に係るシステム10は、視線がより多く向けられた対象の部位に、広告等のコンテンツを表示可能にする技術を提供する。
With eyeglass-type devices such as AR (Augmented Reality) glasses and eye-gaze detection technology, it becomes possible to understand what a person is looking at. It is expected that this will enable visualization of the place that many people are looking at. The
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention within the scope of the claims. Also, not all combinations of features described in the embodiments are essential to the means of solving the invention.
図1は、システム10の一例を概略的に示す。システム10は、複数の眼鏡型デバイス100及び管理サーバ300を備える。
FIG. 1 schematically shows an example of the
眼鏡型デバイス100は、無線通信機能と、コンテンツを表示部に表示する表示機能と、視線検知機能とを有している眼鏡型のデバイスであれば、どのようなものであってもよい。眼鏡型デバイス100は、例えば、ARグラスであってよい。
The spectacle-
コンテンツは、任意のデータ形式であってよい。例えば、コンテンツは、3DのCG(Computer Graphics)データである。例えば、コンテンツは、静止画である。また、例えば、コンテンツは、動画である。例えば、コンテンツは、テキストである。コンテンツは、これらを複合的に含んでもよい。 The content may be in any data format. For example, the content is 3D CG (Computer Graphics) data. For example, the content is a still image. Also, for example, the content is a moving image. For example, the content is text. The content may include these in combination.
眼鏡型デバイス100は、コンテンツを透明又は半透明のグラス上に表示することによって、実空間にコンテンツが配置されている感覚をユーザ102に与えることが可能なデバイスであってよい。すなわち、眼鏡型デバイス100は、いわゆる透過型(シースルー型)のデバイスであってよい。なお、眼鏡型デバイス100は、ビデオパススルー型のデバイスであってもよい。この場合、眼鏡型デバイス100は、ユーザ102の視界に対応する範囲を撮影している撮影画像を非透過型のディスプレイに表示し、コンテンツを重畳表示してよい。
The spectacle-
管理サーバ300は、眼鏡型デバイス100に配信するコンテンツを管理する。管理サーバ300は、例えば、実世界の位置及びエリア等に対応付けてコンテンツを登録する。また、管理サーバ300は、例えば、移動体に対応付けてコンテンツを登録する。移動体の例として、人物、動物、及び車両等が挙げられるが、これらに限られない。コンテンツの登録は、管理サーバ300の管理者等によって許可された任意の者によって行われてよい。管理サーバ300は、スマートフォン、タブレット端末、PC(Personal Computer)、及びARグラス等によるコンテンツの登録を受け付けてよい。
The
管理サーバ300は、眼鏡型デバイス100から、眼鏡型デバイス100の撮像範囲を示す撮像範囲情報を受信して、撮像範囲に含まれる対象に対応するコンテンツを眼鏡型デバイス100に送信してよい。眼鏡型デバイス100の撮像範囲は、眼鏡型デバイス100のカメラの撮像範囲であってよい。眼鏡型デバイス100のカメラによる撮像範囲は、ユーザ102の視界に対応する範囲であってよい。カメラ120の撮像範囲は、ユーザ102の視界よりも広い範囲であってよく、ユーザ102の視界と実質的に同じ範囲であってもよい。
The
管理サーバ300は、例えば、眼鏡型デバイス100の撮像範囲に含まれるエリアに対応するコンテンツを眼鏡型デバイス100に送信する。また、管理サーバ300は、例えば、眼鏡型デバイス100の撮像範囲に含まれる移動体に対応するコンテンツを眼鏡型デバイス100に送信する。
The
管理サーバ300は、眼鏡型デバイス100と、ネットワーク20を介して通信してよい。ネットワーク20は、クラウドを含む。ネットワーク20は、移動体通信ネットワークを含んでよい。移動体通信ネットワークは、LTE(Long Term Evolution)通信方式、3G(3rd Generation)通信方式、5G(5th Generation)通信方式、6G(6th Generation)通信方式以降の通信方式のいずれに準拠していてもよい。ネットワーク20は、Wi-Fi(登録商標)通信方式に対応していてよい。ネットワーク20には、Wi-Fiアクセスポイントを介してアクセス可能であってよい。ネットワーク20には、その他無線通信全般を利用してアクセス可能であってよい。眼鏡型デバイス100は、移動体通信、Wi-Fi通信、その他無線通信全般によって、ネットワーク20に接続されてよい。管理サーバ300は、ネットワーク20に有線接続されてよく、無線接続されてもよい。
The
本実施形態に係るシステム10は、例えば、眼鏡型デバイス100による視線検知機能を活用することによって、ユーザ102の身体のうちの他者からよく見られている部位を特定する。そして、システム10は、他のユーザ102が眼鏡型デバイス100越しに当該ユーザ102を見たときに、当該ユーザ102のよく見られている部位に対して、広告等のコンテンツが表示されるように制御する。これにより、ユーザ102の身体のうちの注目されやすい部位に広告等のコンテンツを配置することができる。
The
また、本実施形態に係るシステム10は、例えば、眼鏡型デバイス100による視線検知機能を活用することによって、ユーザ102が所有する家や車等の物体のうちの、他者からよく見られている部位を特定する。そして、システム10は、他のユーザ102が眼鏡型デバイス100越しに当該物体を見たときに、当該物体のよく見られている部位に対して、広告等のコンテンツが表示されるように制御する。これにより、家や車等の物体のうちの注目されやすい部位に広告等のコンテンツを配置することができる。
Further, the
図2は、眼鏡型デバイス100の構成の一例を概略的に示す。眼鏡型デバイス100は、リム112及びテンプル118を有するフレーム110を備える。眼鏡型デバイス100は、眼鏡型デバイス100における各種制御を実行する制御装置200を備える。制御装置200は、情報処理装置の一例であってよい。
FIG. 2 schematically shows an example of the configuration of the spectacle-
図2における制御装置200の配置は一例であり、制御装置200は、フレーム110の他の位置に配置されてもよい。例えば、制御装置200は、フレーム110の外部に配置されてもよい。また、例えば、制御装置200は、テンプル118内に配置されてもよい。具体例として、制御装置200は、テンプル118の先端部、すなわち、モダンに配置されてもよい。制御装置200は、バッテリを備えてよい。制御装置200とバッテリは、別体として、フレーム110の別の位置に配置されてもよい。
The arrangement of the
眼鏡型デバイス100は、カメラ120を備えてよい。カメラ120の撮像範囲は、眼鏡型デバイス100を装着しているユーザ102の視界に対応する範囲であってよい。図2におけるカメラ120の配置は一例であり、カメラ120は、他の位置に配置されてもよい。
The spectacle-
眼鏡型デバイス100は、センサ122を備えてよい。センサ122は、眼鏡型デバイス100の周囲の環境を特定するためのセンサであってよい。センサ122は、LiDARを含んでよい。センサ122は、測距センサを含んでもよい。図2では、センサ122がブリッジ114に配置されている場合を例示しているが、図2におけるセンサ122の配置は一例であり、センサ122は、他の位置に配置されてもよい。
The spectacle-
眼鏡型デバイス100は、視線検出部124を備えてよい。視線検出部124は、眼鏡型デバイス100の装着者であるユーザ102の視線を検出する。視線検出部124は、例えば、ユーザ102の目を撮像して監視することによって、ユーザ102の視線を検出する。図2における視線検出部124の配置は一例であり、視線検出部124は、他の位置に配置されてもよい。
The spectacle-
制御装置200は、各種入力を受け付けてよい。制御装置200は、眼鏡型デバイス100の任意の位置に配置された操作部を介して、ユーザ102からの各種入力を受け付けてよい。制御装置200は、例えば、フレーム110の任意の位置に配置されたボタン等の入力部を介して、ユーザ102からの各種入力を受け付ける。制御装置200は、例えば、スマートフォン、タブレット端末、及びPC等を介して、ユーザ102からの各種入力を受け付けてもよい。眼鏡型デバイス100は、例えば、Wi-Fi、Bluetooth(登録商標)及びZigbee(登録商標)等の短距離無線通信方式を用いて、携帯端末と無線接続を確立してよい。
The
制御装置200は、測位センサを備えてよい。制御装置200は、例えば、GPS(Global Positioning System)センサ等のGNSS(Global Naviagtion Satellite System)センサを備える。制御装置200は、加速度センサを備えてよい。制御装置200は、ジャイロセンサを備えてよい。制御装置200は、その他のセンサを備えてもよい。
The
制御装置200は、カメラ120の撮像範囲を示す撮像範囲情報を生成してよい。制御装置200は、眼鏡型デバイス100の位置、向き、及び姿勢に基づいて、撮像範囲情報を生成してよい。制御装置200は、各種センサの出力によって、眼鏡型デバイス100の位置、向き、及び姿勢を特定してよい。
The
制御装置200は、カメラ120による撮像画像を解析することによって、各種情報を取得してよい。制御装置200は、例えば、カメラ120の撮像範囲内の人物の視線を検出する。また、制御装置200は、例えば、カメラ120の撮像範囲に含まれる、予め登録された人物を認識する。また、制御装置200は、例えば、カメラ120の撮像範囲に含まれる、家や車等の物体を認識する。
The
制御装置200は、レンズ116への表示機能を備えてよい。レンズ116は、眼鏡型デバイス100の表示部の一例であってよい。レンズ116は、透明又は半透明のディスプレイであってよく、制御装置200は、レンズ116に各種表示を実行させてよい。すなわち、眼鏡型デバイス100は、透明又は半透明のディスプレイ型のデバイスであってよい。また、制御装置200が、レンズ116に対して表示を投影する機能を有してもよい。すなわち、眼鏡型デバイス100は、投影型のデバイスであってよい。
The
制御装置200は、ネットワーク20を介した通信を実行する機能を有してよい。制御装置200は、移動体通信、Wi-Fi通信、及びその他の無線通信全般の少なくともいずれかによって、ネットワーク20にアクセスしてよい。制御装置200は、ネットワーク20を介して、管理サーバ300と通信してよい。制御装置200は、ネットワーク20を介して、他の眼鏡型デバイス100と通信してもよい。
The
図3は、視線情報の取得の流れの一例について説明するための説明図である。眼鏡型デバイス100は、眼鏡型デバイス100を装着しているユーザ102に向けられる視線の視線情報を取得する。図3に示す例においては、人物150が、ユーザ102の腹部辺りを見ている。眼鏡型デバイス100は、ユーザ102の腹部辺りが見られていることを示す視線情報を取得する。眼鏡型デバイス100は、例えば、日常において、ユーザ102に対して複数の人物150のそれぞれから向けられる視線の視線情報を収集する。
FIG. 3 is an explanatory diagram for explaining an example of the flow of acquiring line-of-sight information. The spectacle-
眼鏡型デバイス100は、視線情報を、ネットワーク20を介して管理サーバ300に送信してよい。管理サーバ300は、眼鏡型デバイス100から、複数の視線情報を受信してよい。管理サーバ300は、複数の眼鏡型デバイス100から、複数の視線情報を受信してよい。
The eyeglass-
管理サーバ300は、ユーザ102の眼鏡型デバイス100から受信した視線情報を、ユーザ102のユーザ識別情報に対応付けて格納してよい。ユーザ識別情報は、管理サーバ300が複数のユーザ102を識別可能な情報であれば、どのような情報であってもよい。ユーザ識別情報は、例えば、管理サーバ300によって、複数のユーザ102のそれぞれに割り当てられた情報であってよい。
The
図4は、視線情報の取得の流れの一例について説明するための説明図である。図3では、眼鏡型デバイス100の装着者であるユーザ102に向けられる視線の視線情報を、当該眼鏡型デバイス100が管理サーバ300に送信する場合について説明したが、ユーザ102を見ている人物150が眼鏡型デバイス100を装着している場合、人物150の眼鏡型デバイス100が視線情報を管理サーバ300に送信してもよい。
FIG. 4 is an explanatory diagram for explaining an example of the flow of acquiring line-of-sight information. In FIG. 3, a case where the eyeglass-
図4に示す例においては、眼鏡型デバイス100を装着している人物150が、ユーザ102の腹部辺りを見ている。人物150の眼鏡型デバイス100は、人物150がユーザ102の腹部辺りを見ていることを示す視線情報を、管理サーバ300に送信する。
In the example shown in FIG. 4, the
眼鏡型デバイス100は、視線情報とともに、ユーザ102の撮像画像を管理サーバ300に送信してよい。管理サーバ300は、複数のユーザ102の顔画像を予め格納しておき、ユーザ102の撮像画像によってユーザ102を認識して、ユーザ102のユーザ識別情報に対応付けて視線情報を格納してよい。
The spectacle-
ユーザ102の認識は、人物150の眼鏡型デバイス100によって行われてもよい。眼鏡型デバイス100は、例えば、複数のユーザ102の顔画像を予め管理サーバ300から受信しておく。そして、眼鏡型デバイス100は、複数のユーザ102の顔画像と、撮像したユーザ102の撮像画像とによって、ユーザ102を認識する。眼鏡型デバイス100は、ユーザ102のユーザ識別情報と視線情報とを管理サーバ300に送信してよい。
The recognition of the
管理サーバ300は、複数のユーザ102のそれぞれについて、ユーザ102に向けられる視線の複数の視線情報に基づいて、ユーザ102の身体のうち、より多く視線が向けられた部位を特定し得る。
For each of the plurality of
図5は、視線情報の取得の流れの一例について説明するための説明図である。眼鏡型デバイス100は、眼鏡型デバイス100を装着しているユーザ102によって家30及び車40等の物体に向けられる視線の視線情報を取得する。
FIG. 5 is an explanatory diagram for explaining an example of the flow of acquiring line-of-sight information. The spectacle-
当該視線情報は、眼鏡型デバイス100の撮像範囲情報を含んでよい。当該視線情報は、対象が家30であること、及び家30のうちユーザ102が視線を向けた部位を示す情報を含んでよい。当該視線情報は、対象が車40であること、車40の車両ナンバー、及び車40のうちユーザ102が視線を向けた部位を示す情報を含んでよい。眼鏡型デバイス100は、視線情報を管理サーバ300に送信する。
The line-of-sight information may include imaging range information of the spectacle-
管理サーバ300は、視線情報によって家30の住所を特定すること等によって、家30の所有者であるユーザ102を特定し、ユーザ102のユーザ識別情報に対応付けて、家30のうちのユーザ102が視線を向けた部位を示す情報を登録してよい。管理サーバ300は、例えば、視線情報に含まれる、眼鏡型デバイス100の位置、向き及び姿勢に基づいて生成された撮像範囲情報を用いて、家30の住所を特定し得る。また、管理サーバ300は、視線情報によって車40の所有者であるユーザ102を特定し、ユーザ102のユーザ識別情報に対応付けて、車40のうちのユーザ102が視線を向けた部位を示す情報を登録してよい。
The
管理サーバ300は、複数の眼鏡型デバイス100から複数の視線情報を受信することによって、複数のユーザ102の複数の所有物のそれぞれについて、どの部位により多く視線が向けられているかを特定し得る。
By receiving a plurality of line-of-sight information from the plurality of spectacle-
図6は、制御装置200の機能構成の一例を概略的に示す。制御装置200は、格納部202、撮像画像取得部204、センサ情報取得部206、視線情報取得部208、撮像範囲情報生成部210、情報送信部212、コンテンツ受信部214、表示制御部216、部位特定部218、及びコンテンツ管理部220を備える。なお、制御装置200がこれらの全てを備えることは必須とは限らない。
FIG. 6 schematically shows an example of the functional configuration of the
撮像画像取得部204は、カメラ120によって撮像された撮像画像をカメラ120から取得する。撮像画像取得部204は、取得した撮像画像を格納部202に格納する。
The captured
センサ情報取得部206は、センサ情報を取得する。センサ情報取得部206は、センサ122によって出力された情報を取得してよい。センサ情報取得部206は、測位センサによって出力された位置情報を取得してよい。センサ情報取得部206は、加速度センサによって出力された情報を取得してよい。センサ情報取得部206は、ジャイロセンサによって出力された情報を取得してよい。センサ情報取得部206は、他のセンサによって出力された情報を取得してよい。センサ情報取得部206は、取得したセンサ情報を格納部202に格納する。
The sensor
視線情報取得部208は、視線情報を取得する。視線情報取得部208は、視線検出部124によって検出された、眼鏡型デバイス100を装着しているユーザ102の視線を示す視線情報を取得してよい。視線情報取得部208は、例えば、ユーザ102によって、他の眼鏡型デバイス100の他のユーザ102に向けられる視線の視線情報を取得する。また、視線情報取得部208は、例えば、ユーザ102によって、物体に向けられる視線の視線情報を取得する。
The line-of-sight
また、視線情報取得部208は、カメラ120の撮像範囲内の人物の視線を示す視線情報を取得してよい。視線情報取得部208は、撮像画像取得部204によって取得された撮像画像及びセンサ情報取得部206によって取得されたセンサ情報を用いて、カメラ120の撮像範囲内の人物の視線を示す視線情報を取得してよい。視線情報取得部208は、例えば、眼鏡型デバイス100のユーザ102に向けられる視線の視線情報を取得する。
Further, the line-of-sight
撮像範囲情報生成部210は、撮像範囲情報を生成する。撮像範囲情報生成部210は、センサ情報取得部206によって取得されたセンサ情報を用いて撮像範囲情報を生成してよい。撮像範囲情報生成部210は、撮像画像取得部204によって取得された撮像画像をさらに用いて撮像範囲情報を生成してもよい。
The imaging range
情報送信部212は、各種情報を管理サーバ300に送信する。情報送信部212は、例えば、撮像画像取得部204が取得した撮像画像を管理サーバ300に送信する。また、情報送信部212は、例えば、センサ情報取得部206が取得したセンサ情報を管理サーバ300に送信する。また、情報送信部212は、例えば、視線情報取得部208によって取得された視線情報を管理サーバ300に送信する。また、情報送信部212は、例えば、撮像範囲情報生成部210によって生成された撮像範囲情報を管理サーバ300に送信する。
The
コンテンツ受信部214は、管理サーバ300からコンテンツを受信する。例えば、コンテンツ受信部214は、情報送信部212が送信した撮像範囲情報によって示される撮像範囲内の対象に対応するコンテンツを管理サーバ300から受信する。
The
表示制御部216は、表示部による表示を制御する。表示制御部216は、例えば、コンテンツ受信部214が受信したコンテンツを、レンズ116に表示させる。
The
部位特定部218は、視線情報取得部208が取得した、ユーザ102に向けられた視線の複数の視線情報に基づいて、ユーザ102の身体のうち、より多く視線が向けられた部位を特定する。
The
部位特定部218は、例えば、ユーザ102の身体の複数の部位を、視線が向けられた回数が多い順に順位付けする。また、部位特定部218は、例えば、ユーザ102の身体の複数の部位を、視線が向けられた合計時間が長い順に順位付けする。部位特定部218は、例えば、順位が高い順に予め定められた数の部位を特定する。情報送信部212は、部位特定部218によって特定された部位を通知する通知情報を管理サーバ300に送信してよい。情報送信部212は、通知情報に、複数の部位の順位を含めてよい。
The
コンテンツ管理部220は、眼鏡型デバイス100の撮像範囲にユーザ102が含まれたときに、部位特定部218によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付ける。コンテンツ管理部220は、各部位に対応付けたコンテンツを、管理サーバ300に通知してよい。管理サーバ300は、ユーザ102のユーザ識別情報に対応付けて、各部位に対応するコンテンツを登録してよい。
When the
コンテンツ管理部220は、例えば、表示制御部216に、ユーザ102の身体のうち部位特定部218によって特定された部位を識別可能に表示させる。表示制御部216は、例えば、部位特定部218によって特定された部位を強調して、ユーザ102の身体の全体を表示する。
For example, the
コンテンツ管理部220は、表示制御部216によって表示された部位に対して、ユーザ102によって指定されたコンテンツを対応付けてよい。ユーザ102は、例えば、表示されたユーザ102の身体の全体のうち、部位特定部218によって特定された部位を選択して、当該部位に対応する位置に表示されることを希望するコンテンツを選択する。
The
表示制御部216は、部位特定部218によって特定された複数の部位を、複数の部位の順位とともに表示してもよい。表示制御部216は、例えば、部位特定部218によって特定された部位を、順位が高いほど強調度を高くして、ユーザ102の身体の全体を表示する。ユーザ102は、例えば、より優先度の高いコンテンツを、より順位が高い部位に対応付ける。
The
コンテンツ管理部220は、ユーザ102の携帯端末に、ユーザ102の身体のうち部位特定部218によって特定された部位を識別可能に表示させてもよい。当該携帯端末は、例えば、部位特定部218によって特定された部位を強調して、ユーザ102の身体の全体を表示する。
The
コンテンツ管理部220は、携帯端末によって表示された部位に対して、ユーザ102によって指定されたコンテンツを対応付けてよい。携帯端末は、部位特定部218によって特定された複数の部位を、複数の部位の順位とともに表示してもよい。携帯端末は、例えば、部位特定部218によって特定された部位を、順位が高いほど強調度を高くして、ユーザ102の身体の全体を表示する。
The
コンテンツ管理部220は、上述したように、ユーザ102の指示に従って、部位特定部218によって特定された部位にコンテンツを対応付けてよい。コンテンツ管理部220は、部位特定部218によって特定された部位にコンテンツを自動的に対応付けてもよい。
As described above, the
コンテンツ管理部220は、例えば、部位特定部218によって特定された1つの部位に対して、複数のコンテンツのうちの1つのコンテンツを自動的に対応付ける。コンテンツ管理部220は、複数のコンテンツから、ランダムに1つのコンテンツを選択してよい。また、コンテンツ管理部220は、複数のコンテンツのうち、最も優先度の高いコンテンツを選択してもよい。
The
コンテンツ管理部220は、例えば、部位特定部218によって特定された複数の部位のそれぞれに、コンテンツを自動的に対応付ける。コンテンツ管理部220は、部位特定部218によって特定された複数の部位のうち、順位がより高い部位に、複数のコンテンツのうち、より優先度が高いコンテンツを対応付けてよい。コンテンツ管理部220は、部位特定部218によって特定された複数の部位のうち、より多く視線が向けられた部位に、複数のコンテンツのうち、より優先度が高いコンテンツを対応付けてよい。
The
コンテンツ管理部220は、部位特定部218によって特定された複数の部位のそれぞれに、複数の部位のそれぞれに関連するコンテンツを対応付けてもよい。例えば、部位特定部218によって、ユーザ102の胴体と腕が特定された場合に、コンテンツ管理部220は、ユーザ102の胴体に対して、衣服に関連するコンテンツを対応付け、ユーザ102の腕に対して、腕時計に関連するコンテンツを対応付ける。
The
コンテンツが広告画像である場合、コンテンツ管理部220は、部位特定部218によって特定された複数の部位のそれぞれに、広告対象が複数の部位のそれぞれに関連するコンテンツを対応付けてよい。例えば、部位特定部218によって、ユーザ102の胴体と腕が特定された場合に、コンテンツ管理部220は、ユーザ102の胴体に対して、衣服の広告画像を対応付け、ユーザ102の腕に対して、腕時計の広告画像を対応付ける。ユーザ102は、例えば、広告画像が閲覧された回数に応じて、広告主からインセンティブを受領する。本実施形態に係るシステム10によれば、ユーザ102の身体のうち、より見られる可能性が高い部位に広告画像を配置することができるので、ユーザ102が受領するインセンティブを高めることに貢献し得る。
When the content is an advertisement image, the
図7は管理サーバ300の機能構成の一例を概略的に示す。管理サーバ300は、情報処理装置の一例であってよい。管理サーバ300は、格納部302、情報受信部304、部位特定部306、及びコンテンツ管理部308を備える。
FIG. 7 schematically shows an example of the functional configuration of the
格納部302は、各種情報を格納する。格納部302は、複数のユーザ102のユーザ識別情報を格納してよい。格納部302は、複数のユーザ102の顔画像を格納してよい。
The
情報受信部304は、眼鏡型デバイス100から各種情報を受信する。情報受信部304は、情報送信部212によって送信された情報を受信してよい。情報受信部304は、受信した情報を格納部302に格納する。
The
格納部302は、例えば、複数のユーザ102毎に、ユーザ102に向けられた視線の視線情報を、当該ユーザ102のユーザ識別情報に対応付けて格納する。また、格納部302は、例えば、複数のユーザ102毎に、身体の部位のそれぞれに対応するコンテンツを格納する。また、格納部302は、例えば、複数のユーザ102毎に、ユーザ102の所有物である物体に対応するコンテンツを格納する。格納部302は、物体の部位のそれぞれに対応するコンテンツを格納してよい。
The
部位特定部306は、複数のユーザ102のそれぞれについて、ユーザ102に向けられた視線の複数の視線情報に基づいて、ユーザ102の身体のうち、より多く視線が向けられた部位を特定してよい。部位特定部306は、部位特定部218と同様、ユーザ102の身体の複数の部位を、視線が向けられた回数が多い順に順位付けしてよい。また、部位特定部306は、部位特定部218と同様、ユーザ102の身体の複数の部位を、視線が向けられた合計時間が長い順に順位付けしてよい。部位特定部306は、例えば、順位が高い順に予め定められた数の部位を特定してよい。部位特定部306は、情報受信部304が眼鏡型デバイス100から受信した通知情報を参照することによって、ユーザ102の身体のうち、より多く視線が向けられた部位を特定してもよい。
The
部位特定部306は、複数のユーザ102のそれぞれについて、ユーザ102の所有物である物体に向けられた視線の複数の視線情報に基づいて、物体のうちの、より多く視線が向けられた部位を特定してよい。部位特定部306は、物体の部位を、視線が向けられた回数が多い順に順位付けしてよい。また、部位特定部306は、物体の部位を、視線が向けられた合計時間が長い順に順位付けしてよい。
The
コンテンツ管理部308は、眼鏡型デバイス100の撮像範囲にユーザ102が含まれたときに部位特定部306によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付ける。コンテンツ管理部308は、眼鏡型デバイス100から受信した、ユーザ102の身体の各部位に対応付けたコンテンツの通知によって、ユーザ102の身体の各部位にコンテンツを対応付けてよい。また、コンテンツ管理部308は、コンテンツ管理部220と同様に、部位特定部306によって特定された部位にコンテンツを自動的に対応付けてもよい。
The
コンテンツ管理部308は、眼鏡型デバイス100の撮像範囲に物体が含まれたときに部位特定部306によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けてよい。コンテンツ管理部308は、例えば、物体の所有者であるユーザ102によって指定されたコンテンツを、物体の各部位に対して対応付ける。
The
コンテンツ管理部308は、例えば、ユーザ102の眼鏡型デバイス100や携帯端末に、部位特定部306によって特定された部位を強調して、物体の全体を表示させる。そして、コンテンツ管理部308は、表示させた部位に対して、ユーザ102によって指定されたコンテンツを対応付ける。ユーザ102は、例えば、表示された物体の全体のうち、部位特定部218によって特定された部位を選択して、当該部位に対応する位置に表示されることを希望するコンテンツを選択する。
The
コンテンツ管理部308は、部位特定部306によって特定された複数の部位を、複数の部位の順位とともに表示させてもよい。コンテンツ管理部308は、例えば、部位特定部306によって特定された部位を、順位が高いほど強調度を強くして、物体の全体を表示させる。ユーザ102は、例えば、より優先度の高いコンテンツを、より順位が高い部位に対応付ける。
The
コンテンツ管理部308は、物体のうち、部位特定部306によって特定された部位にコンテンツを自動的に対応付けてもよい。
The
コンテンツ管理部308は、例えば、部位特定部306によって特定された物体の1つの部位に対して、複数のコンテンツのうちの1つのコンテンツを自動的に対応付ける。コンテンツ管理部308は、複数のコンテンツから、ランダムに1つのコンテンツを選択してよい。また、コンテンツ管理部308は、複数のコンテンツのうち、最も優先度の高いコンテンツを選択してもよい。
The
コンテンツ管理部308は、例えば、部位特定部306によって特定された物体の複数の部位のそれぞれに、コンテンツを自動的に対応付ける。コンテンツ管理部308は、部位特定部306によって特定された複数の部位のうち、順位がより高い部位に、複数のコンテンツのうち、より優先度が高いコンテンツを対応付けてよい。コンテンツ管理部308は、部位特定部306によって特定された複数の部位のうち、より多く視線が向けられた部位に、複数のコンテンツのうち、より優先度が高いコンテンツを対応付けてよい。
The
コンテンツ管理部308は、部位特定部306によって特定された複数の部位のそれぞれに、複数の部位のそれぞれに関連するコンテンツを対応付けてもよい。また、コンテンツ管理部308は、複数の物体のそれぞれの部位に、複数の物体のそれぞれに関連するコンテンツを対応付けてもよい。例えば、コンテンツ管理部308は、家30の部位に対して、家具等の家に関連するコンテンツを対応付け、車40の部位に対して、車に関連するコンテンツを対応付ける。
The
コンテンツが広告画像である場合、コンテンツ管理部308は、部位特定部306によって特定された複数の物体の部位のそれぞれに、広告対象が複数の物体のそれぞれに関連するコンテンツを対応付けてよい。例えば、コンテンツ管理部308は、家30の部位に対して、家具の広告画像を対応付け、車40の部位に対して、車の広告画像を対応付ける。
When the content is an advertisement image, the
コンテンツ管理部308は、眼鏡型デバイス100から受信した撮像範囲情報によって示される撮像範囲に含まれる対象に対応するコンテンツを眼鏡型デバイス100に送信する。コンテンツ管理部308は、撮像範囲に含まれる位置及びエリア等に対応するコンテンツを眼鏡型デバイス100に送信してよい。コンテンツ管理部308は、撮像範囲に含まれる移動体に対応するコンテンツを眼鏡型デバイス100に送信してよい。
The
コンテンツ管理部308は、撮像範囲にユーザ102が含まれる場合であって、当該ユーザ102の身体の部位にコンテンツが対応付けられている場合、当該コンテンツを眼鏡型デバイス100に送信して、当該部位に対応する位置に表示させる。
When the
コンテンツ管理部308は、撮像範囲にユーザ102の物体が含まれる場合であって、当該物体の部位にコンテンツが対応付けられている場合、当該コンテンツを眼鏡型デバイス100に送信して、当該部位に対応する位置に表示させる。
When the object of the
図8は、眼鏡型デバイス100によるコンテンツ400の表示例を概略的に示す。眼鏡型デバイス100は、ユーザ102が撮像範囲に含まれる場合であって、ユーザ102の身体の部位にコンテンツ400が対応付けられている場合に、当該部位に対応する位置に、当該コンテンツ400を表示する。
FIG. 8 schematically shows an example of displaying the
図8では、ユーザ102の腹部に対応する位置に、衣服の広告を含むコンテンツ400が表示され、ユーザ102の腕部に対応する位置に、腕時計の広告を含むコンテンツ400が表示されている場合を例示している。
In FIG. 8, the case where the
なお、図8では、ユーザ102の身体の部位から延ばした引き出し線の先にコンテンツ400を表示する例を示しているが、これに限らない。眼鏡型デバイス100は、ユーザ102の身体の部位に重畳させて、コンテンツ400を表示してもよい。
Note that FIG. 8 shows an example in which the
図9は、眼鏡型デバイス100によるコンテンツ400の表示例を概略的に示す。眼鏡型デバイス100は、ユーザ102の所有する物体が撮像範囲に含まれる場合であって、物体の部位にコンテンツ400が対応付けられている場合に、当該部位に対応する位置に、当該コンテンツ400を表示する。
FIG. 9 schematically shows an example of displaying the
図9では、家30の部位に対応する位置に、家具の広告を含むコンテンツ400が表示され、車40の部位に対応する位置に、車の広告を含むコンテンツ400が表示されている場合を例示している。
FIG. 9 illustrates a case where the
なお、図9では、物体の部位から延ばした引き出し線の先にコンテンツ400を表示する例を示しているが、これに限らない。眼鏡型デバイス100は、物体の部位に重畳させて、コンテンツ400を表示してもよい。
Note that FIG. 9 shows an example in which the
図10は、制御装置200又は管理サーバ300として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
FIG. 10 schematically shows an example of a hardware configuration of a
本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボード又はタッチパネルのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
The
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
The
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
The
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
The
プログラムは、ICカードのようなコンピュータ可読記憶媒体によって提供されてよい。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
The program may be provided by a computer-readable storage medium such as an IC card. The program is read from a computer-readable storage medium, installed in a
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
For example, when communication is executed between the
また、CPU1212は、記憶装置1224、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
Further, the
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
Various types of information such as various types of programs, data, tables, and databases may be stored in recording media and processed. The
上で説明したプログラム又はソフトウェアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
The program or software module described above may be stored on a
本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowcharts and block diagrams of this embodiment may represent the stage of the process in which the operation is performed or the "part" of the device responsible for performing the operation. Specific steps and "parts" are supplied with a dedicated circuit, a programmable circuit supplied with computer-readable instructions stored on a computer-readable storage medium, and / or with computer-readable instructions stored on a computer-readable storage medium. It may be implemented by the processor. Dedicated circuits may include digital and / or analog hardware circuits, and may include integrated circuits (ICs) and / or discrete circuits. Programmable circuits include logical products, logical sums, exclusive logical sums, negative logical products, negative logical sums, and other logical operations, such as, for example, field programmable gate arrays (FPGAs), programmable logic arrays (PLAs), and the like. , Flip-flops, registers, and reconfigurable hardware circuits, including memory elements.
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 The computer readable storage medium may include any tangible device capable of storing instructions executed by the appropriate device, so that the computer readable storage medium having the instructions stored therein may be in a flow chart or block diagram. It will be equipped with a product that contains instructions that can be executed to create means for performing the specified operation. Examples of the computer-readable storage medium may include an electronic storage medium, a magnetic storage medium, an optical storage medium, an electromagnetic storage medium, a semiconductor storage medium, and the like. More specific examples of computer-readable storage media include floppy (registered trademark) disks, diskettes, hard disks, random access memory (RAM), read-only memory (ROM), and erasable programmable read-only memory (EPROM or flash memory). , Electrically Erasable Programmable Read Only Memory (EEPROM), Static Random Access Memory (SRAM), Compact Disc Read Only Memory (CD-ROM), Digital Versatile Disc (DVD), Blu-ray® Disc, Memory Stick , Integrated circuit cards and the like may be included.
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 Computer-readable instructions include assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcodes, firmware instructions, state-setting data, or Smalltalk®, JAVA®, C ++, etc. Object-oriented programming languages, and either source code or object code written in any combination of one or more programming languages, including traditional procedural programming languages such as the "C" programming language or similar programming languages. May include.
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer-readable instructions are used to generate means for a general purpose computer, a special purpose computer, or the processor of another programmable data processing device, or a programmable circuit, to perform an operation specified in a flowchart or block diagram. General purpose computers, special purpose computers, or other programmable data processing locally or via a local area network (LAN), a wide area network (WAN) such as the Internet, etc. to execute such computer-readable instructions. It may be provided to the processor of the device or a programmable circuit. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. It is clear from the description of the claims that the form with such changes or improvements may be included in the technical scope of the present invention.
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operation, procedure, step, and step in the apparatus, system, program, and method shown in the claims, specification, and drawings is particularly "before" and "prior to". It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Even if the scope of claims, the specification, and the operation flow in the drawings are explained using "first", "next", etc. for convenience, it means that it is essential to carry out in this order. It's not a thing.
10 システム、20 ネットワーク、30 家、40 車、100 眼鏡型デバイス、102 ユーザ、110 フレーム、112 リム、114 ブリッジ、116 レンズ、118 テンプル、120 カメラ、122 センサ、124 視線検出部、200 制御装置、202 格納部、204 撮像画像取得部、206 センサ情報取得部、208 視線情報取得部、210 撮像範囲情報生成部、212 情報送信部、214 コンテンツ受信部、216 表示制御部、218 部位特定部、220 コンテンツ管理部、300 管理サーバ、302 格納部、304 情報受信部、306 部位特定部、308 コンテンツ管理部、400 コンテンツ、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1230 ROM、1240 入出力チップ 10 systems, 20 networks, 30 homes, 40 cars, 100 eyeglass devices, 102 users, 110 frames, 112 rims, 114 bridges, 116 lenses, 118 temples, 120 cameras, 122 sensors, 124 line-of-sight detectors, 200 controls, 202 storage unit, 204 image capture image acquisition unit, 206 sensor information acquisition unit, 208 line-of-sight information acquisition unit, 210 imaging range information generation unit, 212 information transmission unit, 214 content reception unit, 216 display control unit, 218 site identification unit, 220 Content management unit, 300 management server, 302 storage unit, 304 information receiving unit, 306 site identification unit, 308 content management unit, 400 content, 1200 computer, 1210 host controller, 1212 CPU, 1214 RAM, 1216 graphic controller, 1218 display device 1220 I / O controller, 1222 communication interface, 1224 storage device, 1230 ROM, 1240 I / O chip
Claims (13)
複数の前記視線情報に基づいて、前記装着者の身体のうち、より多く視線が向けられた部位を特定する部位特定部と、
眼鏡型デバイスの撮像範囲に前記装着者が含まれたときに前記部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けるコンテンツ管理部と
を備える情報処理装置。 A line-of-sight information acquisition unit that acquires line-of-sight information of the line of sight directed at the wearer wearing a spectacle-type device, and a line-of-sight information acquisition unit.
A site specifying portion that identifies a portion of the wearer's body to which the line of sight is directed more based on the plurality of line-of-sight information.
An information processing device including a content management unit that associates content displayed at a position corresponding to a site specified by the site identification unit when the wearer is included in the imaging range of the spectacle-type device with the site.
を備え、
前記コンテンツ管理部は、前記表示制御部によって表示された部位に対して、前記装着者によって指定されたコンテンツを対応付ける、請求項1に記載の情報処理装置。 It is provided with a display control unit that displays the part of the wearer's body specified by the part specifying part in an identifiable manner.
The information processing device according to claim 1, wherein the content management unit associates the content specified by the wearer with the portion displayed by the display control unit.
前記コンテンツ管理部は、前記複数の部位のそれぞれに複数のコンテンツのそれぞれを対応付ける、請求項3に記載の情報処理装置。 The site specifying portion identifies a plurality of sites of the wearer's body to which more eyes are directed.
The information processing device according to claim 3, wherein the content management unit associates each of the plurality of contents with each of the plurality of parts.
前記コンテンツ管理部は、前記複数の部位のそれぞれに、広告対象が前記複数の部位のそれぞれに関連するコンテンツを対応付ける、請求項6に記載の情報処理装置。 The content is an advertising image and
The information processing device according to claim 6, wherein the content management unit associates a content related to each of the plurality of parts with an advertisement target to each of the plurality of parts.
前記視線情報取得部は、前記眼鏡型デバイスのカメラによって撮像された撮像画像を用いて、前記装着者に向けられる視線の視線情報を取得する、請求項1から7のいずれか一項に記載の情報処理装置。 The information processing device is mounted on the eyeglass-type device and is mounted on the eyeglass-type device.
The line-of-sight information acquisition unit according to any one of claims 1 to 7, wherein the line-of-sight information acquisition unit acquires line-of-sight information of the line of sight directed to the wearer by using an image captured by the camera of the spectacle-type device. Information processing device.
前記視線情報取得部は、前記眼鏡型デバイスから前記ネットワークを介して前記視線情報を受信する、請求項1から7のいずれか一項に記載の情報処理装置。 The information processing device is arranged on the network and
The information processing device according to any one of claims 1 to 7, wherein the line-of-sight information acquisition unit receives the line-of-sight information from the eyeglass-type device via the network.
前記部位特定部は、複数の前記視線情報に基づいて、前記物体のうちの、より多く視線が向けられた部位を特定し、
前記コンテンツ管理部は、眼鏡型デバイスの撮像範囲に前記物体が含まれたときに前記部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付ける、請求項9又は10に記載の情報処理装置。 The line-of-sight information acquisition unit acquires line-of-sight information of a line of sight directed at an object by a wearer wearing a spectacle-type device.
The site specifying portion identifies a portion of the object to which the line of sight is directed more based on the plurality of line-of-sight information.
9. 10. The information processing apparatus according to 10.
複数の前記視線情報に基づいて、前記物体のうちの、より多く視線が向けられた部位を特定する部位特定部と、
眼鏡型デバイスの撮像範囲に前記物体が含まれたときに前記部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けるコンテンツ管理部と
を備える情報処理装置。 A line-of-sight information acquisition unit that acquires line-of-sight information of the line of sight directed at an object by a wearer wearing a spectacle-type device, and a line-of-sight information acquisition unit.
A site specifying portion that identifies a portion of the object to which the line of sight is directed more based on the plurality of line-of-sight information.
An information processing device including a content management unit that associates content displayed at a position corresponding to a part specified by the part specifying part when the object is included in the imaging range of the spectacle-type device with the part.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020195559A JP7194158B2 (en) | 2020-11-25 | 2020-11-25 | Information processing device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020195559A JP7194158B2 (en) | 2020-11-25 | 2020-11-25 | Information processing device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022083921A true JP2022083921A (en) | 2022-06-06 |
JP7194158B2 JP7194158B2 (en) | 2022-12-21 |
Family
ID=81855564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020195559A Active JP7194158B2 (en) | 2020-11-25 | 2020-11-25 | Information processing device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7194158B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018079166A1 (en) * | 2016-10-26 | 2018-05-03 | ソニー株式会社 | Information processing device, information processing system, information processing method, and program |
US20190130184A1 (en) * | 2017-10-31 | 2019-05-02 | Samsung Electronics Co., Ltd. | Apparatus and method for performing viewer gaze analysis |
-
2020
- 2020-11-25 JP JP2020195559A patent/JP7194158B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018079166A1 (en) * | 2016-10-26 | 2018-05-03 | ソニー株式会社 | Information processing device, information processing system, information processing method, and program |
US20190130184A1 (en) * | 2017-10-31 | 2019-05-02 | Samsung Electronics Co., Ltd. | Apparatus and method for performing viewer gaze analysis |
Also Published As
Publication number | Publication date |
---|---|
JP7194158B2 (en) | 2022-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10132633B2 (en) | User controlled real object disappearance in a mixed reality display | |
Mulfari et al. | Using Google Cloud Vision in assistive technology scenarios | |
WO2018012924A1 (en) | Augmented reality device and operation thereof | |
US20160035135A1 (en) | Wearable device and method of controlling therefor | |
KR20170088655A (en) | Method for Outputting Augmented Reality and Electronic Device supporting the same | |
CN103635849A (en) | Total field of view classification for head-mounted display | |
US11682045B2 (en) | Augmented reality advertisements on objects | |
JP7194158B2 (en) | Information processing device and program | |
JP7274451B2 (en) | System, management device, program, and management method | |
JP7096295B2 (en) | Display control system, program, and display control method | |
JP7133005B2 (en) | Glasses-type device, program, and control method | |
JP7139395B2 (en) | Controllers, programs and systems | |
JP7171689B2 (en) | Management device, program, system, and management method | |
JP7506135B2 (en) | Information processing device, program, and display method | |
JP7174785B2 (en) | Control device, program, and control method | |
JP7135052B2 (en) | Control device, program, and control method | |
JP7187523B2 (en) | Matching system, glasses type device, matching server and program | |
JP7039672B1 (en) | Controls, programs, and control methods | |
JP7187520B2 (en) | Glasses-type device, management server and program | |
JP2022102681A (en) | Spectacle-type device, program, and control method | |
JP2024073312A (en) | Control device, program, control method, and eyeglasses-type device | |
KR102390103B1 (en) | Advertising viewing time calculation system and operation method thereof | |
CN114303120B (en) | virtual keyboard | |
JP2022113031A (en) | Control device, program, system, and control method | |
JP2022041765A (en) | Spectacle-type device, program, and display control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220706 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7194158 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |