JP7194158B2 - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP7194158B2
JP7194158B2 JP2020195559A JP2020195559A JP7194158B2 JP 7194158 B2 JP7194158 B2 JP 7194158B2 JP 2020195559 A JP2020195559 A JP 2020195559A JP 2020195559 A JP2020195559 A JP 2020195559A JP 7194158 B2 JP7194158 B2 JP 7194158B2
Authority
JP
Japan
Prior art keywords
line
sight
content
unit
type device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020195559A
Other languages
English (en)
Other versions
JP2022083921A (ja
Inventor
健太 石垣
優也 佐藤
裕貴 可児
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2020195559A priority Critical patent/JP7194158B2/ja
Publication of JP2022083921A publication Critical patent/JP2022083921A/ja
Application granted granted Critical
Publication of JP7194158B2 publication Critical patent/JP7194158B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置及びプログラムに関する。
特許文献1及び特許文献2には、移動オブジェクト(個人及び車等)に対して仮想情報(広告等)を対応付けて登録し、移動オブジェクトを撮像した検索者に対して、仮想情報を提供する技術が記載されている。
[先行技術文献]
[特許文献]
[特許文献1]特開2018-106692号公報
[特許文献2]特開2018-106696号公報
本発明の一実施態様によれば、情報処理装置が提供される。情報処理装置は、眼鏡型デバイスを装着している装着者に向けられる視線の視線情報を取得する視線情報取得部を備えてよい。情報処理装置は、複数の視線情報に基づいて、装着者の身体のうち、より多く視線が向けられた部位を特定する部位特定部を備えてよい。情報処理装置は、眼鏡型デバイスの撮像範囲に装着者が含まれたときに部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けるコンテンツ管理部を備えてよい。
上記情報処理装置は、上記装着者の身体のうち上記部位特定部によって特定された部位を識別可能に表示させる部位表示制御部を備えてよく、上記コンテンツ管理部は、上記部位表示制御部によって表示された部位に対して、上記装着者によって指定されたコンテンツを対応付けてよい。上記コンテンツ管理部は、上記部位特定部によって特定された部位にコンテンツを自動的に対応付けてよい。上記部位特定部は、上記装着者の身体のうち、より多く視線が向けられた複数の部位を特定してよく、上記コンテンツ管理部は、上記複数の部位のそれぞれに複数のコンテンツのそれぞれを対応付けてよい。上記コンテンツ管理部は、上記部位特定部によって特定された上記複数の部位のうち、より多く視線が向けられた部位に、上記複数のコンテンツのうち、より優先度が高いコンテンツを対応付けてよい。上記コンテンツ管理部は、上記複数の部位のそれぞれに、上記複数の部位のそれぞれに関連するコンテンツを対応付けてよい。上記コンテンツは広告画像であってよく、上記コンテンツ管理部は、上記複数の部位のそれぞれに、広告対象が上記複数の部位のそれぞれに関連するコンテンツを対応付けてよい。上記情報処理装置は上記眼鏡型デバイスに搭載されてよく、上記視線情報取得部は、上記眼鏡型デバイスのカメラによって撮像された撮像画像を用いて、上記装着者に向けられる視線の視線情報を取得してよい。
上記情報処理装置は、ネットワーク上に配置されてよく、上記視線情報取得部は、上記眼鏡型デバイスから上記ネットワークを介して上記視線情報を受信してよい。上記情報処理装置は、第1の眼鏡型デバイスのカメラの撮像範囲に含まれる第2の眼鏡型デバイスの装着者の部位に対応するコンテンツを特定するコンテンツ特定部を備えてよく、上記コンテンツ管理部は、上記コンテンツ特定部が特定したコンテンツを上記第1の眼鏡型デバイスに表示させてよい。上記視線情報取得部は、眼鏡型デバイスを装着している装着者によって物体に向けられる視線の視線情報を取得してよく、上記部位特定部は、複数の上記視線情報に基づいて、上記物体のうちの、より多く視線が向けられた部位を特定してよく、上記コンテンツ管理部は、眼鏡型デバイスの撮像範囲に上記物体が含まれたときに上記部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けてよい。
本発明の一実施態様によれば、情報処理装置が提供される。情報処理装置は、眼鏡型デバイスを装着している装着者によって物体に向けられる視線の視線情報を取得する視線情報取得部を備えてよい。情報処理装置は、複数の視線情報に基づいて、物体のうちの、より多く視線が向けられた部位を特定する部位特定部を備えてよい。眼鏡型デバイスの撮像範囲に物体が含まれたときに部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けるコンテンツ管理部を備えてよい。
本発明の一実施態様によれば、コンピュータを、上記情報処理装置として機能させるためのプログラムが提供される。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
システム10の一例を概略的に示す。 眼鏡型デバイス100の構成の一例を概略的に示す。 視線情報の取得の流れについて説明するための説明図である。 視線情報の取得の流れについて説明するための説明図である。 視線情報の取得の流れについて説明するための説明図である。 制御装置200の機能構成の一例を概略的に示す。 管理サーバ300の機能構成の一例を概略的に示す。 眼鏡型デバイス100によるコンテンツ400の表示例を概略的に示す。 眼鏡型デバイス100によるコンテンツ400の表示例を概略的に示す。 情報処理装置として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。
AR(Augmented Reality)グラス等の眼鏡型デバイスと、視線検知の技術により、人が何を見ているかが分かるようになる。これにより、大勢の人が見ている場所の可視化が可能になると想定される。本実施形態に係るシステム10は、視線がより多く向けられた対象の部位に、広告等のコンテンツを表示可能にする技術を提供する。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、システム10の一例を概略的に示す。システム10は、複数の眼鏡型デバイス100及び管理サーバ300を備える。
眼鏡型デバイス100は、無線通信機能と、コンテンツを表示部に表示する表示機能と、視線検知機能とを有している眼鏡型のデバイスであれば、どのようなものであってもよい。眼鏡型デバイス100は、例えば、ARグラスであってよい。
コンテンツは、任意のデータ形式であってよい。例えば、コンテンツは、3DのCG(Computer Graphics)データである。例えば、コンテンツは、静止画である。また、例えば、コンテンツは、動画である。例えば、コンテンツは、テキストである。コンテンツは、これらを複合的に含んでもよい。
眼鏡型デバイス100は、コンテンツを透明又は半透明のグラス上に表示することによって、実空間にコンテンツが配置されている感覚をユーザ102に与えることが可能なデバイスであってよい。すなわち、眼鏡型デバイス100は、いわゆる透過型(シースルー型)のデバイスであってよい。なお、眼鏡型デバイス100は、ビデオパススルー型のデバイスであってもよい。この場合、眼鏡型デバイス100は、ユーザ102の視界に対応する範囲を撮影している撮影画像を非透過型のディスプレイに表示し、コンテンツを重畳表示してよい。
管理サーバ300は、眼鏡型デバイス100に配信するコンテンツを管理する。管理サーバ300は、例えば、実世界の位置及びエリア等に対応付けてコンテンツを登録する。また、管理サーバ300は、例えば、移動体に対応付けてコンテンツを登録する。移動体の例として、人物、動物、及び車両等が挙げられるが、これらに限られない。コンテンツの登録は、管理サーバ300の管理者等によって許可された任意の者によって行われてよい。管理サーバ300は、スマートフォン、タブレット端末、PC(Personal Computer)、及びARグラス等によるコンテンツの登録を受け付けてよい。
管理サーバ300は、眼鏡型デバイス100から、眼鏡型デバイス100の撮像範囲を示す撮像範囲情報を受信して、撮像範囲に含まれる対象に対応するコンテンツを眼鏡型デバイス100に送信してよい。眼鏡型デバイス100の撮像範囲は、眼鏡型デバイス100のカメラの撮像範囲であってよい。眼鏡型デバイス100のカメラによる撮像範囲は、ユーザ102の視界に対応する範囲であってよい。カメラ120の撮像範囲は、ユーザ102の視界よりも広い範囲であってよく、ユーザ102の視界と実質的に同じ範囲であってもよい。
管理サーバ300は、例えば、眼鏡型デバイス100の撮像範囲に含まれるエリアに対応するコンテンツを眼鏡型デバイス100に送信する。また、管理サーバ300は、例えば、眼鏡型デバイス100の撮像範囲に含まれる移動体に対応するコンテンツを眼鏡型デバイス100に送信する。
管理サーバ300は、眼鏡型デバイス100と、ネットワーク20を介して通信してよい。ネットワーク20は、クラウドを含む。ネットワーク20は、移動体通信ネットワークを含んでよい。移動体通信ネットワークは、LTE(Long Term Evolution)通信方式、3G(3rd Generation)通信方式、5G(5th Generation)通信方式、6G(6th Generation)通信方式以降の通信方式のいずれに準拠していてもよい。ネットワーク20は、Wi-Fi(登録商標)通信方式に対応していてよい。ネットワーク20には、Wi-Fiアクセスポイントを介してアクセス可能であってよい。ネットワーク20には、その他無線通信全般を利用してアクセス可能であってよい。眼鏡型デバイス100は、移動体通信、Wi-Fi通信、その他無線通信全般によって、ネットワーク20に接続されてよい。管理サーバ300は、ネットワーク20に有線接続されてよく、無線接続されてもよい。
本実施形態に係るシステム10は、例えば、眼鏡型デバイス100による視線検知機能を活用することによって、ユーザ102の身体のうちの他者からよく見られている部位を特定する。そして、システム10は、他のユーザ102が眼鏡型デバイス100越しに当該ユーザ102を見たときに、当該ユーザ102のよく見られている部位に対して、広告等のコンテンツが表示されるように制御する。これにより、ユーザ102の身体のうちの注目されやすい部位に広告等のコンテンツを配置することができる。
また、本実施形態に係るシステム10は、例えば、眼鏡型デバイス100による視線検知機能を活用することによって、ユーザ102が所有する家や車等の物体のうちの、他者からよく見られている部位を特定する。そして、システム10は、他のユーザ102が眼鏡型デバイス100越しに当該物体を見たときに、当該物体のよく見られている部位に対して、広告等のコンテンツが表示されるように制御する。これにより、家や車等の物体のうちの注目されやすい部位に広告等のコンテンツを配置することができる。
図2は、眼鏡型デバイス100の構成の一例を概略的に示す。眼鏡型デバイス100は、リム112及びテンプル118を有するフレーム110を備える。眼鏡型デバイス100は、眼鏡型デバイス100における各種制御を実行する制御装置200を備える。制御装置200は、情報処理装置の一例であってよい。
図2における制御装置200の配置は一例であり、制御装置200は、フレーム110の他の位置に配置されてもよい。例えば、制御装置200は、フレーム110の外部に配置されてもよい。また、例えば、制御装置200は、テンプル118内に配置されてもよい。具体例として、制御装置200は、テンプル118の先端部、すなわち、モダンに配置されてもよい。制御装置200は、バッテリを備えてよい。制御装置200とバッテリは、別体として、フレーム110の別の位置に配置されてもよい。
眼鏡型デバイス100は、カメラ120を備えてよい。カメラ120の撮像範囲は、眼鏡型デバイス100を装着しているユーザ102の視界に対応する範囲であってよい。図2におけるカメラ120の配置は一例であり、カメラ120は、他の位置に配置されてもよい。
眼鏡型デバイス100は、センサ122を備えてよい。センサ122は、眼鏡型デバイス100の周囲の環境を特定するためのセンサであってよい。センサ122は、LiDARを含んでよい。センサ122は、測距センサを含んでもよい。図2では、センサ122がブリッジ114に配置されている場合を例示しているが、図2におけるセンサ122の配置は一例であり、センサ122は、他の位置に配置されてもよい。
眼鏡型デバイス100は、視線検出部124を備えてよい。視線検出部124は、眼鏡型デバイス100の装着者であるユーザ102の視線を検出する。視線検出部124は、例えば、ユーザ102の目を撮像して監視することによって、ユーザ102の視線を検出する。図2における視線検出部124の配置は一例であり、視線検出部124は、他の位置に配置されてもよい。
制御装置200は、各種入力を受け付けてよい。制御装置200は、眼鏡型デバイス100の任意の位置に配置された操作部を介して、ユーザ102からの各種入力を受け付けてよい。制御装置200は、例えば、フレーム110の任意の位置に配置されたボタン等の入力部を介して、ユーザ102からの各種入力を受け付ける。制御装置200は、例えば、スマートフォン、タブレット端末、及びPC等を介して、ユーザ102からの各種入力を受け付けてもよい。眼鏡型デバイス100は、例えば、Wi-Fi、Bluetooth(登録商標)及びZigbee(登録商標)等の短距離無線通信方式を用いて、携帯端末と無線接続を確立してよい。
制御装置200は、測位センサを備えてよい。制御装置200は、例えば、GPS(Global Positioning System)センサ等のGNSS(Global Naviagtion Satellite System)センサを備える。制御装置200は、加速度センサを備えてよい。制御装置200は、ジャイロセンサを備えてよい。制御装置200は、その他のセンサを備えてもよい。
制御装置200は、カメラ120の撮像範囲を示す撮像範囲情報を生成してよい。制御装置200は、眼鏡型デバイス100の位置、向き、及び姿勢に基づいて、撮像範囲情報を生成してよい。制御装置200は、各種センサの出力によって、眼鏡型デバイス100の位置、向き、及び姿勢を特定してよい。
制御装置200は、カメラ120による撮像画像を解析することによって、各種情報を取得してよい。制御装置200は、例えば、カメラ120の撮像範囲内の人物の視線を検出する。また、制御装置200は、例えば、カメラ120の撮像範囲に含まれる、予め登録された人物を認識する。また、制御装置200は、例えば、カメラ120の撮像範囲に含まれる、家や車等の物体を認識する。
制御装置200は、レンズ116への表示機能を備えてよい。レンズ116は、眼鏡型デバイス100の表示部の一例であってよい。レンズ116は、透明又は半透明のディスプレイであってよく、制御装置200は、レンズ116に各種表示を実行させてよい。すなわち、眼鏡型デバイス100は、透明又は半透明のディスプレイ型のデバイスであってよい。また、制御装置200が、レンズ116に対して表示を投影する機能を有してもよい。すなわち、眼鏡型デバイス100は、投影型のデバイスであってよい。
制御装置200は、ネットワーク20を介した通信を実行する機能を有してよい。制御装置200は、移動体通信、Wi-Fi通信、及びその他の無線通信全般の少なくともいずれかによって、ネットワーク20にアクセスしてよい。制御装置200は、ネットワーク20を介して、管理サーバ300と通信してよい。制御装置200は、ネットワーク20を介して、他の眼鏡型デバイス100と通信してもよい。
図3は、視線情報の取得の流れの一例について説明するための説明図である。眼鏡型デバイス100は、眼鏡型デバイス100を装着しているユーザ102に向けられる視線の視線情報を取得する。図3に示す例においては、人物150が、ユーザ102の腹部辺りを見ている。眼鏡型デバイス100は、ユーザ102の腹部辺りが見られていることを示す視線情報を取得する。眼鏡型デバイス100は、例えば、日常において、ユーザ102に対して複数の人物150のそれぞれから向けられる視線の視線情報を収集する。
眼鏡型デバイス100は、視線情報を、ネットワーク20を介して管理サーバ300に送信してよい。管理サーバ300は、眼鏡型デバイス100から、複数の視線情報を受信してよい。管理サーバ300は、複数の眼鏡型デバイス100から、複数の視線情報を受信してよい。
管理サーバ300は、ユーザ102の眼鏡型デバイス100から受信した視線情報を、ユーザ102のユーザ識別情報に対応付けて格納してよい。ユーザ識別情報は、管理サーバ300が複数のユーザ102を識別可能な情報であれば、どのような情報であってもよい。ユーザ識別情報は、例えば、管理サーバ300によって、複数のユーザ102のそれぞれに割り当てられた情報であってよい。
図4は、視線情報の取得の流れの一例について説明するための説明図である。図3では、眼鏡型デバイス100の装着者であるユーザ102に向けられる視線の視線情報を、当該眼鏡型デバイス100が管理サーバ300に送信する場合について説明したが、ユーザ102を見ている人物150が眼鏡型デバイス100を装着している場合、人物150の眼鏡型デバイス100が視線情報を管理サーバ300に送信してもよい。
図4に示す例においては、眼鏡型デバイス100を装着している人物150が、ユーザ102の腹部辺りを見ている。人物150の眼鏡型デバイス100は、人物150がユーザ102の腹部辺りを見ていることを示す視線情報を、管理サーバ300に送信する。
眼鏡型デバイス100は、視線情報とともに、ユーザ102の撮像画像を管理サーバ300に送信してよい。管理サーバ300は、複数のユーザ102の顔画像を予め格納しておき、ユーザ102の撮像画像によってユーザ102を認識して、ユーザ102のユーザ識別情報に対応付けて視線情報を格納してよい。
ユーザ102の認識は、人物150の眼鏡型デバイス100によって行われてもよい。眼鏡型デバイス100は、例えば、複数のユーザ102の顔画像を予め管理サーバ300から受信しておく。そして、眼鏡型デバイス100は、複数のユーザ102の顔画像と、撮像したユーザ102の撮像画像とによって、ユーザ102を認識する。眼鏡型デバイス100は、ユーザ102のユーザ識別情報と視線情報とを管理サーバ300に送信してよい。
管理サーバ300は、複数のユーザ102のそれぞれについて、ユーザ102に向けられる視線の複数の視線情報に基づいて、ユーザ102の身体のうち、より多く視線が向けられた部位を特定し得る。
図5は、視線情報の取得の流れの一例について説明するための説明図である。眼鏡型デバイス100は、眼鏡型デバイス100を装着しているユーザ102によって家30及び車40等の物体に向けられる視線の視線情報を取得する。
当該視線情報は、眼鏡型デバイス100の撮像範囲情報を含んでよい。当該視線情報は、対象が家30であること、及び家30のうちユーザ102が視線を向けた部位を示す情報を含んでよい。当該視線情報は、対象が車40であること、車40の車両ナンバー、及び車40のうちユーザ102が視線を向けた部位を示す情報を含んでよい。眼鏡型デバイス100は、視線情報を管理サーバ300に送信する。
管理サーバ300は、視線情報によって家30の住所を特定すること等によって、家30の所有者であるユーザ102を特定し、ユーザ102のユーザ識別情報に対応付けて、家30のうちのユーザ102が視線を向けた部位を示す情報を登録してよい。管理サーバ300は、例えば、視線情報に含まれる、眼鏡型デバイス100の位置、向き及び姿勢に基づいて生成された撮像範囲情報を用いて、家30の住所を特定し得る。また、管理サーバ300は、視線情報によって車40の所有者であるユーザ102を特定し、ユーザ102のユーザ識別情報に対応付けて、車40のうちのユーザ102が視線を向けた部位を示す情報を登録してよい。
管理サーバ300は、複数の眼鏡型デバイス100から複数の視線情報を受信することによって、複数のユーザ102の複数の所有物のそれぞれについて、どの部位により多く視線が向けられているかを特定し得る。
図6は、制御装置200の機能構成の一例を概略的に示す。制御装置200は、格納部202、撮像画像取得部204、センサ情報取得部206、視線情報取得部208、撮像範囲情報生成部210、情報送信部212、コンテンツ受信部214、表示制御部216、部位特定部218、及びコンテンツ管理部220を備える。なお、制御装置200がこれらの全てを備えることは必須とは限らない。
撮像画像取得部204は、カメラ120によって撮像された撮像画像をカメラ120から取得する。撮像画像取得部204は、取得した撮像画像を格納部202に格納する。
センサ情報取得部206は、センサ情報を取得する。センサ情報取得部206は、センサ122によって出力された情報を取得してよい。センサ情報取得部206は、測位センサによって出力された位置情報を取得してよい。センサ情報取得部206は、加速度センサによって出力された情報を取得してよい。センサ情報取得部206は、ジャイロセンサによって出力された情報を取得してよい。センサ情報取得部206は、他のセンサによって出力された情報を取得してよい。センサ情報取得部206は、取得したセンサ情報を格納部202に格納する。
視線情報取得部208は、視線情報を取得する。視線情報取得部208は、視線検出部124によって検出された、眼鏡型デバイス100を装着しているユーザ102の視線を示す視線情報を取得してよい。視線情報取得部208は、例えば、ユーザ102によって、他の眼鏡型デバイス100の他のユーザ102に向けられる視線の視線情報を取得する。また、視線情報取得部208は、例えば、ユーザ102によって、物体に向けられる視線の視線情報を取得する。
また、視線情報取得部208は、カメラ120の撮像範囲内の人物の視線を示す視線情報を取得してよい。視線情報取得部208は、撮像画像取得部204によって取得された撮像画像及びセンサ情報取得部206によって取得されたセンサ情報を用いて、カメラ120の撮像範囲内の人物の視線を示す視線情報を取得してよい。視線情報取得部208は、例えば、眼鏡型デバイス100のユーザ102に向けられる視線の視線情報を取得する。
撮像範囲情報生成部210は、撮像範囲情報を生成する。撮像範囲情報生成部210は、センサ情報取得部206によって取得されたセンサ情報を用いて撮像範囲情報を生成してよい。撮像範囲情報生成部210は、撮像画像取得部204によって取得された撮像画像をさらに用いて撮像範囲情報を生成してもよい。
情報送信部212は、各種情報を管理サーバ300に送信する。情報送信部212は、例えば、撮像画像取得部204が取得した撮像画像を管理サーバ300に送信する。また、情報送信部212は、例えば、センサ情報取得部206が取得したセンサ情報を管理サーバ300に送信する。また、情報送信部212は、例えば、視線情報取得部208によって取得された視線情報を管理サーバ300に送信する。また、情報送信部212は、例えば、撮像範囲情報生成部210によって生成された撮像範囲情報を管理サーバ300に送信する。
コンテンツ受信部214は、管理サーバ300からコンテンツを受信する。例えば、コンテンツ受信部214は、情報送信部212が送信した撮像範囲情報によって示される撮像範囲内の対象に対応するコンテンツを管理サーバ300から受信する。
表示制御部216は、表示部による表示を制御する。表示制御部216は、例えば、コンテンツ受信部214が受信したコンテンツを、レンズ116に表示させる。
部位特定部218は、視線情報取得部208が取得した、ユーザ102に向けられた視線の複数の視線情報に基づいて、ユーザ102の身体のうち、より多く視線が向けられた部位を特定する。
部位特定部218は、例えば、ユーザ102の身体の複数の部位を、視線が向けられた回数が多い順に順位付けする。また、部位特定部218は、例えば、ユーザ102の身体の複数の部位を、視線が向けられた合計時間が長い順に順位付けする。部位特定部218は、例えば、順位が高い順に予め定められた数の部位を特定する。情報送信部212は、部位特定部218によって特定された部位を通知する通知情報を管理サーバ300に送信してよい。情報送信部212は、通知情報に、複数の部位の順位を含めてよい。
コンテンツ管理部220は、眼鏡型デバイス100の撮像範囲にユーザ102が含まれたときに、部位特定部218によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付ける。コンテンツ管理部220は、各部位に対応付けたコンテンツを、管理サーバ300に通知してよい。管理サーバ300は、ユーザ102のユーザ識別情報に対応付けて、各部位に対応するコンテンツを登録してよい。
コンテンツ管理部220は、例えば、表示制御部216に、ユーザ102の身体のうち部位特定部218によって特定された部位を識別可能に表示させる。表示制御部216は、例えば、部位特定部218によって特定された部位を強調して、ユーザ102の身体の全体を表示する。
コンテンツ管理部220は、表示制御部216によって表示された部位に対して、ユーザ102によって指定されたコンテンツを対応付けてよい。ユーザ102は、例えば、表示されたユーザ102の身体の全体のうち、部位特定部218によって特定された部位を選択して、当該部位に対応する位置に表示されることを希望するコンテンツを選択する。
表示制御部216は、部位特定部218によって特定された複数の部位を、複数の部位の順位とともに表示してもよい。表示制御部216は、例えば、部位特定部218によって特定された部位を、順位が高いほど強調度を高くして、ユーザ102の身体の全体を表示する。ユーザ102は、例えば、より優先度の高いコンテンツを、より順位が高い部位に対応付ける。
コンテンツ管理部220は、ユーザ102の携帯端末に、ユーザ102の身体のうち部位特定部218によって特定された部位を識別可能に表示させてもよい。当該携帯端末は、例えば、部位特定部218によって特定された部位を強調して、ユーザ102の身体の全体を表示する。
コンテンツ管理部220は、携帯端末によって表示された部位に対して、ユーザ102によって指定されたコンテンツを対応付けてよい。携帯端末は、部位特定部218によって特定された複数の部位を、複数の部位の順位とともに表示してもよい。携帯端末は、例えば、部位特定部218によって特定された部位を、順位が高いほど強調度を高くして、ユーザ102の身体の全体を表示する。
コンテンツ管理部220は、上述したように、ユーザ102の指示に従って、部位特定部218によって特定された部位にコンテンツを対応付けてよい。コンテンツ管理部220は、部位特定部218によって特定された部位にコンテンツを自動的に対応付けてもよい。
コンテンツ管理部220は、例えば、部位特定部218によって特定された1つの部位に対して、複数のコンテンツのうちの1つのコンテンツを自動的に対応付ける。コンテンツ管理部220は、複数のコンテンツから、ランダムに1つのコンテンツを選択してよい。また、コンテンツ管理部220は、複数のコンテンツのうち、最も優先度の高いコンテンツを選択してもよい。
コンテンツ管理部220は、例えば、部位特定部218によって特定された複数の部位のそれぞれに、コンテンツを自動的に対応付ける。コンテンツ管理部220は、部位特定部218によって特定された複数の部位のうち、順位がより高い部位に、複数のコンテンツのうち、より優先度が高いコンテンツを対応付けてよい。コンテンツ管理部220は、部位特定部218によって特定された複数の部位のうち、より多く視線が向けられた部位に、複数のコンテンツのうち、より優先度が高いコンテンツを対応付けてよい。
コンテンツ管理部220は、部位特定部218によって特定された複数の部位のそれぞれに、複数の部位のそれぞれに関連するコンテンツを対応付けてもよい。例えば、部位特定部218によって、ユーザ102の胴体と腕が特定された場合に、コンテンツ管理部220は、ユーザ102の胴体に対して、衣服に関連するコンテンツを対応付け、ユーザ102の腕に対して、腕時計に関連するコンテンツを対応付ける。
コンテンツが広告画像である場合、コンテンツ管理部220は、部位特定部218によって特定された複数の部位のそれぞれに、広告対象が複数の部位のそれぞれに関連するコンテンツを対応付けてよい。例えば、部位特定部218によって、ユーザ102の胴体と腕が特定された場合に、コンテンツ管理部220は、ユーザ102の胴体に対して、衣服の広告画像を対応付け、ユーザ102の腕に対して、腕時計の広告画像を対応付ける。ユーザ102は、例えば、広告画像が閲覧された回数に応じて、広告主からインセンティブを受領する。本実施形態に係るシステム10によれば、ユーザ102の身体のうち、より見られる可能性が高い部位に広告画像を配置することができるので、ユーザ102が受領するインセンティブを高めることに貢献し得る。
図7は管理サーバ300の機能構成の一例を概略的に示す。管理サーバ300は、情報処理装置の一例であってよい。管理サーバ300は、格納部302、情報受信部304、部位特定部306、及びコンテンツ管理部308を備える。
格納部302は、各種情報を格納する。格納部302は、複数のユーザ102のユーザ識別情報を格納してよい。格納部302は、複数のユーザ102の顔画像を格納してよい。
情報受信部304は、眼鏡型デバイス100から各種情報を受信する。情報受信部304は、情報送信部212によって送信された情報を受信してよい。情報受信部304は、受信した情報を格納部302に格納する。
格納部302は、例えば、複数のユーザ102毎に、ユーザ102に向けられた視線の視線情報を、当該ユーザ102のユーザ識別情報に対応付けて格納する。また、格納部302は、例えば、複数のユーザ102毎に、身体の部位のそれぞれに対応するコンテンツを格納する。また、格納部302は、例えば、複数のユーザ102毎に、ユーザ102の所有物である物体に対応するコンテンツを格納する。格納部302は、物体の部位のそれぞれに対応するコンテンツを格納してよい。
部位特定部306は、複数のユーザ102のそれぞれについて、ユーザ102に向けられた視線の複数の視線情報に基づいて、ユーザ102の身体のうち、より多く視線が向けられた部位を特定してよい。部位特定部306は、部位特定部218と同様、ユーザ102の身体の複数の部位を、視線が向けられた回数が多い順に順位付けしてよい。また、部位特定部306は、部位特定部218と同様、ユーザ102の身体の複数の部位を、視線が向けられた合計時間が長い順に順位付けしてよい。部位特定部306は、例えば、順位が高い順に予め定められた数の部位を特定してよい。部位特定部306は、情報受信部304が眼鏡型デバイス100から受信した通知情報を参照することによって、ユーザ102の身体のうち、より多く視線が向けられた部位を特定してもよい。
部位特定部306は、複数のユーザ102のそれぞれについて、ユーザ102の所有物である物体に向けられた視線の複数の視線情報に基づいて、物体のうちの、より多く視線が向けられた部位を特定してよい。部位特定部306は、物体の部位を、視線が向けられた回数が多い順に順位付けしてよい。また、部位特定部306は、物体の部位を、視線が向けられた合計時間が長い順に順位付けしてよい。
コンテンツ管理部308は、眼鏡型デバイス100の撮像範囲にユーザ102が含まれたときに部位特定部306によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付ける。コンテンツ管理部308は、眼鏡型デバイス100から受信した、ユーザ102の身体の各部位に対応付けたコンテンツの通知によって、ユーザ102の身体の各部位にコンテンツを対応付けてよい。また、コンテンツ管理部308は、コンテンツ管理部220と同様に、部位特定部306によって特定された部位にコンテンツを自動的に対応付けてもよい。
コンテンツ管理部308は、眼鏡型デバイス100の撮像範囲に物体が含まれたときに部位特定部306によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けてよい。コンテンツ管理部308は、例えば、物体の所有者であるユーザ102によって指定されたコンテンツを、物体の各部位に対して対応付ける。
コンテンツ管理部308は、例えば、ユーザ102の眼鏡型デバイス100や携帯端末に、部位特定部306によって特定された部位を強調して、物体の全体を表示させる。そして、コンテンツ管理部308は、表示させた部位に対して、ユーザ102によって指定されたコンテンツを対応付ける。ユーザ102は、例えば、表示された物体の全体のうち、部位特定部218によって特定された部位を選択して、当該部位に対応する位置に表示されることを希望するコンテンツを選択する。
コンテンツ管理部308は、部位特定部306によって特定された複数の部位を、複数の部位の順位とともに表示させてもよい。コンテンツ管理部308は、例えば、部位特定部306によって特定された部位を、順位が高いほど強調度を強くして、物体の全体を表示させる。ユーザ102は、例えば、より優先度の高いコンテンツを、より順位が高い部位に対応付ける。
コンテンツ管理部308は、物体のうち、部位特定部306によって特定された部位にコンテンツを自動的に対応付けてもよい。
コンテンツ管理部308は、例えば、部位特定部306によって特定された物体の1つの部位に対して、複数のコンテンツのうちの1つのコンテンツを自動的に対応付ける。コンテンツ管理部308は、複数のコンテンツから、ランダムに1つのコンテンツを選択してよい。また、コンテンツ管理部308は、複数のコンテンツのうち、最も優先度の高いコンテンツを選択してもよい。
コンテンツ管理部308は、例えば、部位特定部306によって特定された物体の複数の部位のそれぞれに、コンテンツを自動的に対応付ける。コンテンツ管理部308は、部位特定部306によって特定された複数の部位のうち、順位がより高い部位に、複数のコンテンツのうち、より優先度が高いコンテンツを対応付けてよい。コンテンツ管理部308は、部位特定部306によって特定された複数の部位のうち、より多く視線が向けられた部位に、複数のコンテンツのうち、より優先度が高いコンテンツを対応付けてよい。
コンテンツ管理部308は、部位特定部306によって特定された複数の部位のそれぞれに、複数の部位のそれぞれに関連するコンテンツを対応付けてもよい。また、コンテンツ管理部308は、複数の物体のそれぞれの部位に、複数の物体のそれぞれに関連するコンテンツを対応付けてもよい。例えば、コンテンツ管理部308は、家30の部位に対して、家具等の家に関連するコンテンツを対応付け、車40の部位に対して、車に関連するコンテンツを対応付ける。
コンテンツが広告画像である場合、コンテンツ管理部308は、部位特定部306によって特定された複数の物体の部位のそれぞれに、広告対象が複数の物体のそれぞれに関連するコンテンツを対応付けてよい。例えば、コンテンツ管理部308は、家30の部位に対して、家具の広告画像を対応付け、車40の部位に対して、車の広告画像を対応付ける。
コンテンツ管理部308は、眼鏡型デバイス100から受信した撮像範囲情報によって示される撮像範囲に含まれる対象に対応するコンテンツを眼鏡型デバイス100に送信する。コンテンツ管理部308は、撮像範囲に含まれる位置及びエリア等に対応するコンテンツを眼鏡型デバイス100に送信してよい。コンテンツ管理部308は、撮像範囲に含まれる移動体に対応するコンテンツを眼鏡型デバイス100に送信してよい。
コンテンツ管理部308は、撮像範囲にユーザ102が含まれる場合であって、当該ユーザ102の身体の部位にコンテンツが対応付けられている場合、当該コンテンツを眼鏡型デバイス100に送信して、当該部位に対応する位置に表示させる。
コンテンツ管理部308は、撮像範囲にユーザ102の物体が含まれる場合であって、当該物体の部位にコンテンツが対応付けられている場合、当該コンテンツを眼鏡型デバイス100に送信して、当該部位に対応する位置に表示させる。
図8は、眼鏡型デバイス100によるコンテンツ400の表示例を概略的に示す。眼鏡型デバイス100は、ユーザ102が撮像範囲に含まれる場合であって、ユーザ102の身体の部位にコンテンツ400が対応付けられている場合に、当該部位に対応する位置に、当該コンテンツ400を表示する。
図8では、ユーザ102の腹部に対応する位置に、衣服の広告を含むコンテンツ400が表示され、ユーザ102の腕部に対応する位置に、腕時計の広告を含むコンテンツ400が表示されている場合を例示している。
なお、図8では、ユーザ102の身体の部位から延ばした引き出し線の先にコンテンツ400を表示する例を示しているが、これに限らない。眼鏡型デバイス100は、ユーザ102の身体の部位に重畳させて、コンテンツ400を表示してもよい。
図9は、眼鏡型デバイス100によるコンテンツ400の表示例を概略的に示す。眼鏡型デバイス100は、ユーザ102の所有する物体が撮像範囲に含まれる場合であって、物体の部位にコンテンツ400が対応付けられている場合に、当該部位に対応する位置に、当該コンテンツ400を表示する。
図9では、家30の部位に対応する位置に、家具の広告を含むコンテンツ400が表示され、車40の部位に対応する位置に、車の広告を含むコンテンツ400が表示されている場合を例示している。
なお、図9では、物体の部位から延ばした引き出し線の先にコンテンツ400を表示する例を示しているが、これに限らない。眼鏡型デバイス100は、物体の部位に重畳させて、コンテンツ400を表示してもよい。
図10は、制御装置200又は管理サーバ300として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボード又はタッチパネルのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
プログラムは、ICカードのようなコンピュータ可読記憶媒体によって提供されてよい。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
また、CPU1212は、記憶装置1224、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
上で説明したプログラム又はソフトウェアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 システム、20 ネットワーク、30 家、40 車、100 眼鏡型デバイス、102 ユーザ、110 フレーム、112 リム、114 ブリッジ、116 レンズ、118 テンプル、120 カメラ、122 センサ、124 視線検出部、200 制御装置、202 格納部、204 撮像画像取得部、206 センサ情報取得部、208 視線情報取得部、210 撮像範囲情報生成部、212 情報送信部、214 コンテンツ受信部、216 表示制御部、218 部位特定部、220 コンテンツ管理部、300 管理サーバ、302 格納部、304 情報受信部、306 部位特定部、308 コンテンツ管理部、400 コンテンツ、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1230 ROM、1240 入出力チップ

Claims (17)

  1. 眼鏡型デバイスを装着している装着者に向けられる視線の視線情報を取得する視線情報取得部と、
    複数の前記視線情報に基づいて、前記装着者の身体のうち、より多く視線が向けられた部位を特定する部位特定部と、
    眼鏡型デバイスの撮像範囲に前記装着者が含まれたときに前記部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けるコンテンツ管理部と
    を備える情報処理装置。
  2. 前記装着者の身体のうち前記部位特定部によって特定された部位を識別可能に表示させる表示制御部
    を備え、
    前記コンテンツ管理部は、前記表示制御部によって表示された部位に対して、前記装着者によって指定されたコンテンツを対応付ける、請求項1に記載の情報処理装置。
  3. 前記コンテンツ管理部は、前記部位特定部によって特定された部位にコンテンツを自動的に対応付ける、請求項1又は2に記載の情報処理装置。
  4. 前記部位特定部は、前記装着者の身体のうち、より多く視線が向けられた複数の部位を特定し、
    前記コンテンツ管理部は、前記複数の部位のそれぞれに複数のコンテンツのそれぞれを対応付ける、請求項3に記載の情報処理装置。
  5. 前記コンテンツ管理部は、前記部位特定部によって特定された前記複数の部位のうち、より多く視線が向けられた部位に、前記複数のコンテンツのうち、より優先度が高いコンテンツを対応付ける、請求項4に記載の情報処理装置。
  6. 前記コンテンツ管理部は、前記複数の部位のそれぞれに、前記複数の部位のそれぞれに関連するコンテンツを対応付ける、請求項4に記載の情報処理装置。
  7. 前記コンテンツは広告画像であり、
    前記コンテンツ管理部は、前記複数の部位のそれぞれに、広告対象が前記複数の部位のそれぞれに関連するコンテンツを対応付ける、請求項6に記載の情報処理装置。
  8. 前記部位特定部は、前記装着者の身体の複数の部位を視線が向けられた回数が多い順に又は視線が向けられた合計時間が長い順に順位付けすることによって、前記装着者の身体のうち、順位が高い順に予め定められた数の複数の部位を特定し、
    前記コンテンツ管理部は、前記部位特定部によって特定された前記複数の部位のそれぞれに複数のコンテンツのそれぞれを対応付ける、
    請求項3に記載の情報処理装置。
  9. 前記情報処理装置は前記眼鏡型デバイスに搭載され、
    前記視線情報取得部は、前記眼鏡型デバイスのカメラによって撮像された撮像画像を用いて、前記装着者に向けられる視線の視線情報を取得する、請求項1から8のいずれか一項に記載の情報処理装置。
  10. 前記情報処理装置は、ネットワーク上に配置され、
    前記視線情報取得部は、前記眼鏡型デバイスから前記ネットワークを介して前記視線情報を受信する、請求項1から8のいずれか一項に記載の情報処理装置。
  11. 前記コンテンツ管理部は、第1の眼鏡型デバイスのカメラの撮像範囲に含まれる第2の眼鏡型デバイスの装着者の部位に対応するコンテンツを特定し、特定したコンテンツを前記第1の眼鏡型デバイスに表示させる、請求項10に記載の情報処理装置。
  12. 前記視線情報取得部は、眼鏡型デバイスを装着している装着者によって物体に向けられる視線の視線情報を取得し、
    前記部位特定部は、複数の前記視線情報に基づいて、前記物体のうちの、より多く視線が向けられた部位を特定し、
    前記コンテンツ管理部は、眼鏡型デバイスの撮像範囲に前記物体が含まれたときに前記部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付ける、請求項10又は11に記載の情報処理装置。
  13. 前記眼鏡型デバイスは、AR(Augmented Reality)グラスである、請求項1から12のいずれか一項に記載の情報処理装置。
  14. 眼鏡型デバイスを装着している装着者によって物体に向けられる視線の視線情報を取得する視線情報取得部と、
    複数の前記視線情報に基づいて、前記物体のうちの、より多く視線が向けられた部位を特定する部位特定部と、
    眼鏡型デバイスの撮像範囲に前記物体が含まれたときに前記部位特定部によって特定された部位に対応する位置に表示されるコンテンツを、当該部位に対応付けるコンテンツ管理部と
    を備える情報処理装置。
  15. 前記部位特定部は、前記物体の複数の部位を視線が向けられた回数が多い順に又は視線が向けられた合計時間が長い順に順位付けすることによって、前記物体のうち、順位が高い順に予め定められた数の複数の部位を特定し、
    前記コンテンツ管理部は、前記部位特定部によって特定された前記複数の部位のそれぞれに複数のコンテンツのそれぞれを対応付ける、
    請求項14に記載の情報処理装置。
  16. 前記眼鏡型デバイスは、ARグラスである、請求項14又は15に記載の情報処理装置。
  17. コンピュータを、請求項1から16のいずれか一項に記載の情報処理装置として機能させるためのプログラム。
JP2020195559A 2020-11-25 2020-11-25 情報処理装置及びプログラム Active JP7194158B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020195559A JP7194158B2 (ja) 2020-11-25 2020-11-25 情報処理装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020195559A JP7194158B2 (ja) 2020-11-25 2020-11-25 情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2022083921A JP2022083921A (ja) 2022-06-06
JP7194158B2 true JP7194158B2 (ja) 2022-12-21

Family

ID=81855564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020195559A Active JP7194158B2 (ja) 2020-11-25 2020-11-25 情報処理装置及びプログラム

Country Status (1)

Country Link
JP (1) JP7194158B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018079166A1 (ja) 2016-10-26 2018-05-03 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US20190130184A1 (en) 2017-10-31 2019-05-02 Samsung Electronics Co., Ltd. Apparatus and method for performing viewer gaze analysis

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018079166A1 (ja) 2016-10-26 2018-05-03 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US20190130184A1 (en) 2017-10-31 2019-05-02 Samsung Electronics Co., Ltd. Apparatus and method for performing viewer gaze analysis

Also Published As

Publication number Publication date
JP2022083921A (ja) 2022-06-06

Similar Documents

Publication Publication Date Title
CN111652678B (zh) 物品信息显示方法、装置、终端、服务器及可读存储介质
US20220130125A1 (en) Virtual content generation
US10841476B2 (en) Wearable unit for selectively withholding actions based on recognized gestures
Mulfari et al. Using Google Cloud Vision in assistive technology scenarios
US9255813B2 (en) User controlled real object disappearance in a mixed reality display
WO2018012924A1 (en) Augmented reality device and operation thereof
US9633477B2 (en) Wearable device and method of controlling therefor using location information
US20150106386A1 (en) Eye tracking
US20180357670A1 (en) Dynamically capturing, transmitting and displaying images based on real-time visual identification of object
US11126848B2 (en) Information processing device, information processing method, and information processing program
CN111742281A (zh) 用于针对显示在显示器上的第一内容提供根据外部对象的移动的第二内容的电子装置及其操作方法
KR20220154816A (ko) 대규모 증강 현실을 위한 위치 매핑
US20190005546A1 (en) Augmented reality advertisements on objects
JP7194158B2 (ja) 情報処理装置及びプログラム
KR20230000931A (ko) 이미지에서 객체를 추출하는 시스템
JP7139395B2 (ja) 制御装置、プログラム、及びシステム
JP7171689B2 (ja) 管理装置、プログラム、システム、及び管理方法
JP7133005B2 (ja) 眼鏡型デバイス、プログラム、及び制御方法
JP7174785B2 (ja) 制御装置、プログラム、及び制御方法
JP7187523B2 (ja) マッチングシステム、眼鏡型デバイス、マッチングサーバ及びプログラム
JP7274451B2 (ja) システム、管理装置、プログラム、及び管理方法
JP7135052B2 (ja) 制御装置、プログラム、及び制御方法
KR102390103B1 (ko) 광고 시청시간 산출시스템 및 이의 운용방법
WO2023037845A1 (ja) 情報処理システム及び情報処理方法
US20240153237A1 (en) Information processing system, information processing apparatus, information processing method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221209

R150 Certificate of patent or registration of utility model

Ref document number: 7194158

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150