JP6606312B2 - 情報処理装置、情報処理方法、および情報処理プログラム - Google Patents
情報処理装置、情報処理方法、および情報処理プログラム Download PDFInfo
- Publication number
- JP6606312B2 JP6606312B2 JP2019522596A JP2019522596A JP6606312B2 JP 6606312 B2 JP6606312 B2 JP 6606312B2 JP 2019522596 A JP2019522596 A JP 2019522596A JP 2019522596 A JP2019522596 A JP 2019522596A JP 6606312 B2 JP6606312 B2 JP 6606312B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- overlaps
- computer
- time zone
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 87
- 238000003672 processing method Methods 0.000 title claims description 16
- 230000002093 peripheral effect Effects 0.000 claims description 97
- 230000004044 response Effects 0.000 claims description 45
- 230000004438 eyesight Effects 0.000 claims description 43
- 238000001514 detection method Methods 0.000 claims description 42
- 230000005540 biological transmission Effects 0.000 claims description 17
- 230000000007 visual effect Effects 0.000 description 95
- 238000004891 communication Methods 0.000 description 37
- 238000000034 method Methods 0.000 description 36
- 235000013405 beer Nutrition 0.000 description 21
- 230000003190 augmentative effect Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 230000005043 peripheral vision Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
Description
本実施形態では、本発明に係る情報処理装置をヘッドマウントディスプレイ(HMD)10に適用する。HMD10は、ユーザの頭部に装着する表示装置であり、ウェアラブル端末の一種である。HMD10はユーザの両眼を覆うように装着され、ユーザはそのHMD10上に表示される情報を見ることができる。本実施形態では、HMD10はユーザに拡張現実を提供するために用いられる。拡張現実とは、コンピュータにより処理された情報が現実世界に付加された世界である。したがって、HMD10の表示方式は、光学透過やビデオ透過などの透過型である。ユーザとは、HMD10を装着して拡張現実を体験する人である。
要求部14は、オブジェクトに関連するオブジェクト情報をサーバ20に要求する機能要素である。要求部14はオブジェクト情報を要求するための信号である要求信号を生成し、この要求信号をサーバ20に送信する。本実施形態では、オブジェクト情報には、第1オブジェクトに関連する第1オブジェクト情報と、第2オブジェクトに関連する第2オブジェクト情報との2種類がある。第1オブジェクト情報も第2オブジェクト情報もHMD10上に表示される(すなわち可視化される)。オブジェクト情報のデータ項目および内容は限定されない。
図6〜図14を参照しながら、ARシステム1の動作を説明するとともに本実施形態に係る情報処理方法について説明する。図6はHMD10での全体的な処理の例を示すフローチャートである。図7はHMD10での注目領域および周辺領域の検出の例を示すフローチャートである。図8はオブジェクト情報の取得に関するHMD10とサーバ20との連携の例を示すシーケンス図である。図9は一つのオブジェクトについてのオブジェクト情報の取得の例を示すフローチャートである。図10はサーバ20でのオブジェクト検索の例を示すフローチャートである。図11はオブジェクト情報の表示の例を示す図である。図12は一つのオブジェクトについてのオブジェクト情報の取得の別の例を示すフローチャートである。図13はオブジェクト情報の表示の別の例を示す図である。図14は一つのオブジェクトについてのオブジェクト情報の取得のさらに別の例を示すフローチャートである。
図15を参照しながら、コンピュータシステムをARシステム1として機能させるための拡張現実(AR)プログラムPを説明する。図14はARプログラムPの構成を示す図である。ARプログラムPは、コンピュータをHMD10として機能させるクライアントプログラムP1と、コンピュータをサーバ20として機能させるサーバプログラムP2とを含む。本実施形態では、本発明に係る情報処理プログラムをクライアントプログラムP1に適用する。
以上説明したように、本発明の一側面に係る情報処理装置は、ユーザの視覚に対応する注目領域を検出する検出部と、ユーザが存在する空間内にある1以上のオブジェクトの中から、注目領域と重なる第1オブジェクトを特定する特定部と、第1オブジェクトが注目領域と重なる第1時間帯において、第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求する要求部と、第1時間帯において、要求に応じて他のコンピュータから送信されてきた第1オブジェクト情報を受信する受信部とを備える。
Claims (21)
- ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出部と、
前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定部と、
前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求部と、
前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信部と
を備え、
前記特定部が、前記周辺領域と重なる1以上の前記オブジェクトのうち前記ユーザとの距離が閾値未満である前記オブジェクトを前記第2オブジェクトとして特定する、
情報処理装置。 - ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出部と、
前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定部と、
前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求部と、
前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信部と
を備え、
前記特定部が、前記周辺領域と重なる1以上の前記オブジェクトのうち背景領域とのコントラストが閾値以上である前記オブジェクトを前記第2オブジェクトとして特定する、
情報処理装置。 - ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出部と、
前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定部と、
前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求部と、
前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信部と
を備え、
前記特定部が、前記周辺領域と重なる1以上の前記オブジェクトのうち動いている前記オブジェクトを前記第2オブジェクトとして特定する、
情報処理装置。 - ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出部と、
前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定部と、
前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求部と、
前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信部と
を備え、
前記特定部が、前記周辺領域と重なる1以上の前記オブジェクトのうち前記第1オブジェクトと同じ属性を有する前記オブジェクトを前記第2オブジェクトとして特定する、
情報処理装置。 - 前記要求部が、前記第1時間帯において前記第1オブジェクト情報を前記他のコンピュータに繰り返し要求する、
請求項1〜4のいずれか一項に記載の情報処理装置。 - 前記受信部が、前記第1時間帯において前記第1オブジェクト情報を継続して受信する、
請求項1〜5のいずれか一項に記載の情報処理装置。 - 前記特定部が、前記第1オブジェクトと前記ユーザとの距離を推定し、
前記要求部が、前記距離に応じたデータ項目を含む前記第1オブジェクト情報を要求し、
前記受信部が、前記距離に応じた前記データ項目を含む前記第1オブジェクト情報を受信する、
請求項1〜6のいずれか一項に記載の情報処理装置。 - 前記要求部が、前記第3時間帯において前記第2オブジェクト情報を前記他のコンピュータに繰り返し要求する、
請求項1〜7のいずれか一項に記載の情報処理装置。 - 前記第2オブジェクト情報のデータ項目数が前記第1オブジェクト情報のデータ項目数よりも少ない、
請求項1〜8のいずれか一項に記載の情報処理装置。 - 前記ユーザの属性に基づいて前記注目領域を設定する設定部
をさらに備える請求項1〜9のいずれか一項に記載の情報処理装置。 - 前記設定部が前記ユーザの移動速度に基づいて前記注目領域を設定する、
請求項10に記載の情報処理装置。 - 前記第1時間帯において前記第1オブジェクト情報をディスプレイ上に表示する表示制御部をさらに備える、
請求項1〜11のいずれか一項に記載の情報処理装置。 - 前記ディスプレイがヘッドマウントディスプレイである、
請求項12に記載の情報処理装置。 - プロセッサを備える情報処理装置により実行される情報処理方法であって、
ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出ステップと、
前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定ステップと、
前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求ステップと、
前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信ステップと
を含み、
前記特定ステップでは、前記周辺領域と重なる1以上の前記オブジェクトのうち前記ユーザとの距離が閾値未満である前記オブジェクトを前記第2オブジェクトとして特定する、
情報処理方法。 - プロセッサを備える情報処理装置により実行される情報処理方法であって、
ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出ステップと、
前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定ステップと、
前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求ステップと、
前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信ステップと
を含み、
前記特定ステップでは、前記周辺領域と重なる1以上の前記オブジェクトのうち背景領域とのコントラストが閾値以上である前記オブジェクトを前記第2オブジェクトとして特定する、
情報処理方法。 - プロセッサを備える情報処理装置により実行される情報処理方法であって、
ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出ステップと、
前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定ステップと、
前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求ステップと、
前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信ステップと
を含み、
前記特定ステップでは、前記周辺領域と重なる1以上の前記オブジェクトのうち動いている前記オブジェクトを前記第2オブジェクトとして特定する、
情報処理方法。 - プロセッサを備える情報処理装置により実行される情報処理方法であって、
ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出ステップと、
前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定ステップと、
前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求ステップと、
前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信ステップと
を含み、
前記特定ステップでは、前記周辺領域と重なる1以上の前記オブジェクトのうち前記第1オブジェクトと同じ属性を有する前記オブジェクトを前記第2オブジェクトとして特定する、
情報処理方法。 - ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出ステップと、
前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定ステップと、
前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求ステップと、
前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信ステップと
をコンピュータに実行させ、
前記特定ステップでは、前記周辺領域と重なる1以上の前記オブジェクトのうち前記ユーザとの距離が閾値未満である前記オブジェクトを前記第2オブジェクトとして特定する、
情報処理プログラム。 - ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出ステップと、
前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定ステップと、
前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求ステップと、
前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信ステップと
をコンピュータに実行させ、
前記特定ステップでは、前記周辺領域と重なる1以上の前記オブジェクトのうち背景領域とのコントラストが閾値以上である前記オブジェクトを前記第2オブジェクトとして特定する、
情報処理プログラム。 - ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出ステップと、
前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定ステップと、
前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求ステップと、
前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信ステップと
をコンピュータに実行させ、
前記特定ステップでは、前記周辺領域と重なる1以上の前記オブジェクトのうち動いている前記オブジェクトを前記第2オブジェクトとして特定する、
情報処理プログラム。 - ユーザの視覚に対応する注目領域と、前記注目領域の外側の周辺領域とを検出する検出ステップと、
前記ユーザが存在する空間内にある1以上のオブジェクトの中から、前記注目領域と重なる第1オブジェクトと、前記周辺領域と重なる第2オブジェクトとを特定する特定ステップと、
前記第1オブジェクトが前記注目領域と重なる第1時間帯において、前記第1オブジェクトに関連する第1オブジェクト情報を他のコンピュータに要求し、前記第2オブジェクトが前記周辺領域と重なる第3時間帯において、前記第2オブジェクトに関連する第2オブジェクト情報を前記他のコンピュータに要求する要求ステップと、
前記第1時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第1オブジェクト情報を受信し、前記第3時間帯において、前記要求に応じて前記他のコンピュータから送信されてきた前記第2オブジェクト情報を受信する受信ステップと
をコンピュータに実行させ、
前記特定ステップでは、前記周辺領域と重なる1以上の前記オブジェクトのうち前記第1オブジェクトと同じ属性を有する前記オブジェクトを前記第2オブジェクトとして特定する、
情報処理プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/041676 WO2019097726A1 (ja) | 2017-11-20 | 2017-11-20 | 情報処理装置、情報処理方法、および情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6606312B2 true JP6606312B2 (ja) | 2019-11-13 |
JPWO2019097726A1 JPWO2019097726A1 (ja) | 2019-11-21 |
Family
ID=66540140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019522596A Active JP6606312B2 (ja) | 2017-11-20 | 2017-11-20 | 情報処理装置、情報処理方法、および情報処理プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11126848B2 (ja) |
EP (1) | EP3716220B1 (ja) |
JP (1) | JP6606312B2 (ja) |
WO (1) | WO2019097726A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102450899B1 (ko) * | 2015-04-09 | 2022-10-04 | 오므론 가부시키가이샤 | 내장된 서버를 위한 웹 사용 가능 인터페이스 |
JP7056500B2 (ja) * | 2018-10-04 | 2022-04-19 | トヨタ自動車株式会社 | 画像生成装置、画像生成方法、およびプログラム |
US10984534B2 (en) * | 2019-03-28 | 2021-04-20 | GM Global Technology Operations LLC | Identification of attention region for enhancement of sensor-based detection in a vehicle |
US11756259B2 (en) * | 2019-04-17 | 2023-09-12 | Rakuten Group, Inc. | Display controlling device, display controlling method, program, and non-transitory computer-readable information recording medium |
JP2022505999A (ja) * | 2019-10-15 | 2022-01-17 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | 拡張現実データの提示方法、装置、機器および記憶媒体 |
US11380094B2 (en) * | 2019-12-12 | 2022-07-05 | At&T Intellectual Property I, L.P. | Systems and methods for applied machine cognition |
WO2021166747A1 (ja) * | 2020-02-18 | 2021-08-26 | 株式会社Nttドコモ | 情報処理システム |
KR20240048409A (ko) * | 2022-10-06 | 2024-04-15 | 재단법인 아산사회복지재단 | 햅틱 피드백 장치 및 방법 |
WO2024078686A1 (en) * | 2022-10-10 | 2024-04-18 | Telefonaktiebolaget Lm Ericsson (Publ) | A computer software module arrangement, a circuitry arrangement, an arrangement and a method for improved human perception in xr systems |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6738804B1 (en) * | 2000-09-15 | 2004-05-18 | Yodlee.Com, Inc. | Method and apparatus for enabling sectored data refreshing of Web-site data during session |
JP2005038008A (ja) * | 2003-07-15 | 2005-02-10 | Canon Inc | 画像処理方法、画像処理装置 |
JP2006267887A (ja) * | 2005-03-25 | 2006-10-05 | Konica Minolta Photo Imaging Inc | 映像認識手段を備えたヘッドマウントディスプレイ |
TW201017474A (en) | 2008-09-03 | 2010-05-01 | Koninkl Philips Electronics Nv | Method of performing a gaze-based interaction between a user and an interactive display system |
WO2010073616A1 (ja) | 2008-12-25 | 2010-07-01 | パナソニック株式会社 | 情報表示装置および情報表示方法 |
US9280849B2 (en) * | 2010-11-08 | 2016-03-08 | Sony Corporation | Augmented reality interface for video tagging and sharing |
US9342610B2 (en) | 2011-08-25 | 2016-05-17 | Microsoft Technology Licensing, Llc | Portals: registered objects as virtualized, personalized displays |
US20130191250A1 (en) * | 2012-01-23 | 2013-07-25 | Augme Technologies, Inc. | System and method for augmented reality using multi-modal sensory recognition from artifacts of interest |
US10564714B2 (en) * | 2014-05-09 | 2020-02-18 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
US20150331240A1 (en) * | 2014-05-15 | 2015-11-19 | Adam G. Poulos | Assisted Viewing Of Web-Based Resources |
WO2016153628A2 (en) * | 2015-02-25 | 2016-09-29 | Brian Mullins | Augmented reality content creation |
JP6488786B2 (ja) * | 2015-03-17 | 2019-03-27 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
CN112130329B (zh) * | 2015-03-17 | 2022-08-23 | 精工爱普生株式会社 | 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法 |
JP6275087B2 (ja) | 2015-08-03 | 2018-02-07 | 株式会社オプティム | ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。 |
CN116366906A (zh) * | 2015-08-07 | 2023-06-30 | 苹果公司 | 用于显示图像流的系统和方法 |
EP3335096B1 (en) * | 2015-08-15 | 2022-10-05 | Google LLC | System and method for biomechanically-based eye signals for interacting with real and virtual objects |
-
2017
- 2017-11-20 EP EP17932463.7A patent/EP3716220B1/en active Active
- 2017-11-20 WO PCT/JP2017/041676 patent/WO2019097726A1/ja unknown
- 2017-11-20 JP JP2019522596A patent/JP6606312B2/ja active Active
- 2017-11-20 US US16/615,901 patent/US11126848B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3716220B1 (en) | 2024-02-21 |
US11126848B2 (en) | 2021-09-21 |
EP3716220A1 (en) | 2020-09-30 |
JPWO2019097726A1 (ja) | 2019-11-21 |
EP3716220A4 (en) | 2021-09-08 |
US20200184218A1 (en) | 2020-06-11 |
WO2019097726A1 (ja) | 2019-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6606312B2 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
US11734336B2 (en) | Method and apparatus for image processing and associated user interaction | |
US9262780B2 (en) | Method and apparatus for enabling real-time product and vendor identification | |
EP2410490A2 (en) | Displaying augmented reality information | |
CN103561635B (zh) | 视线追踪系统 | |
US9014754B2 (en) | Information processing system and information processing method | |
JP5280590B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
US20160070439A1 (en) | Electronic commerce using augmented reality glasses and a smart watch | |
US8724853B2 (en) | Identifying a target object using optical occlusion | |
US20180053055A1 (en) | Integrating augmented reality content and thermal imagery | |
US20110140994A1 (en) | Information Presenting Apparatus, Method, and Computer Program Product | |
US20180268453A1 (en) | Composite image generation | |
CN109815409B (zh) | 一种信息的推送方法、装置、穿戴设备及存储介质 | |
KR20150129546A (ko) | 안경형 단말기와 그 안경형 단말기의 제어 방법 | |
WO2019187487A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US12039859B2 (en) | Discovery of and connection to remote devices | |
US8199974B1 (en) | Identifying a target object using optical occlusion | |
CN106164838B (zh) | 信息显示方法和信息显示终端 | |
JP2020129356A (ja) | プログラム、情報処理方法、及び情報処理端末 | |
US9626804B2 (en) | Article information providing apparatus that provides information of article, article information providing system,and article information provision method | |
US20200279110A1 (en) | Information processing apparatus, information processing method, and program | |
US20180158242A1 (en) | Information processing method and program for executing the information processing method on computer | |
KR101777328B1 (ko) | 스마트 글래스와 모바일 장치를 이용하여 상품에 관련된 데이터를 제공하는 방법 | |
KR20170049219A (ko) | 웨어러블 디바이스를 이용한 결제 정보 제공 시스템 및 이를 이용한 결제 정보 제공 방법 | |
KR101737936B1 (ko) | 스마트 글래스와 모바일 장치를 이용한 쿠폰 제공 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190425 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190425 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190425 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190730 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190917 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190924 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6606312 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |