JP2016503217A - 拡張現実デバイスを制御するための装置および方法 - Google Patents
拡張現実デバイスを制御するための装置および方法 Download PDFInfo
- Publication number
- JP2016503217A JP2016503217A JP2015552830A JP2015552830A JP2016503217A JP 2016503217 A JP2016503217 A JP 2016503217A JP 2015552830 A JP2015552830 A JP 2015552830A JP 2015552830 A JP2015552830 A JP 2015552830A JP 2016503217 A JP2016503217 A JP 2016503217A
- Authority
- JP
- Japan
- Prior art keywords
- boundary
- region
- count
- real scene
- recognized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 168
- 230000003190 augmentative effect Effects 0.000 title description 11
- 238000004590 computer program Methods 0.000 claims abstract description 24
- 230000003287 optical effect Effects 0.000 claims description 260
- 230000004044 response Effects 0.000 claims description 41
- 238000012545 processing Methods 0.000 claims description 34
- 230000009471 action Effects 0.000 claims description 12
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 241000238370 Sepia Species 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0127—Head-up displays characterised by optical features comprising devices increasing the depth of field
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
以下に、出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
コンテンツを表示するように構成された光学デバイスを制御する方法であって、前記方法は下記を備える、
現実のシーンにおける第1の領域上の視線を検知することと、
前記第1の領域を囲む境界を設定すること、前記境界は、前記現実のシーンにおける少なくとも第2の領域を除外する、と、
前記境界内の前記第1の領域上の物体認識手順を実行することと、
前記少なくとも第2の領域上の物体認識手順を実行することを控えること。
[C2]
前記現実のシーンにおける第3の領域上の視線を検知することと、
前記現実のシーンにおける少なくとも第4の領域を除外しながら、前記第3の領域を囲む境界を設定することと、
をさらに備えるC1に記載の方法。
[C3]
前記物体認識手順を実行することは、前記現実のシーンの複数の画像フレームのうちの1つまたは複数に関する前記境界内の第1の領域上の物体認識手順を実行することを備え、前記方法はさらに、
前記境界内で物体が認識された連続回数である第1のカウントと、前記境界内で物体が認識された回数である第2のカウントとを、メモリに記憶することを備える、C1に記載の方法。
[C4]
前記第1のカウントまたは前記第2のカウントがしきい値を超えたか否かを判定することと、
前記第1のカウントまたは前記第2のカウントがしきい値を超えた場合に、前記物体を強調することと、
前記第1のカウントまたは前記第2のカウントがしきい値を超えた場合に、前記物体に近接したアイコンを表示することと、
をさらに備えるC3に記載の方法。
[C5]
前記境界内の第1の領域において物体が認識されない場合、前記方法はさらに、前記境界内の第1の領域の中心へとズームする動作、前記境界を拡大する動作、または、省電力状態に入る動作、のうちの少なくとも1つを実行することを備える、C1に記載の方法。
[C6]
前記物体認識手順を実行することは、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行することを備え、前記方法はさらに、
前記境界内で物体が認識された回数のカウントをメモリに記憶することを備える、C1に記載の方法。
[C7]
物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定することと、
前記カウントが、前記しきい値を超えたか否かを判定することと、
前記カウントが前記しきい値を超えた場合、前記物体を強調することと、
前記カウントが前記しきい値を超えた場合、前記物体に近接したアイコンを表示することと、
をさらに備える、C6に記載の方法。
[C8]
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つを受け取ることと、
前記音声コマンドおよび前記ジェスチャ・コマンドのうちの少なくとも1つに応じて、前記境界の第1の領域の拡大を調節することと、
をさらに備えるC1に記載の方法。
[C9]
少なくとも1つの写真編集ツールを表示することと、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに基づいて、前記少なくとも1つの写真編集ツールを用いて、前記境界内の第1の領域を編集することと、
前記編集された第1の領域の画像を記憶することと、
をさらに備えるC1に記載の方法。
[C10]
第1の音声コマンドおよび第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶することと、
第2の音声コマンドおよび第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶することと、
少なくとも前記第1の認識された物体と、前記第2の認識された物体とを比較することと、
をさらに備えるC1に記載の方法。
[C11]
コンテンツを表示するように構成された光学デバイスを制御するための装置であって、前記装置は下記を備える、
現実のシーンにおける第1の領域上の視線を検知するための手段と、
前記第1の領域を囲む境界を設定するための手段、前記境界は、前記現実のシーンにおける少なくとも第2の領域を除外する、と、
前記境界内の前記第1の領域上の物体認識手順を実行するための手段と、
前記少なくとも第2の領域上の物体認識手順を実行することを控えるための手段。
[C12]
前記現実のシーンにおける第3の領域上の視線を検知するための手段と、
前記現実のシーンにおける少なくとも第4の領域を除外しながら、前記第3の領域を囲む境界を設定するための手段と、
をさらに備えるC11に記載の装置。
[C13]
前記物体認識手順を実行するための手段は、前記現実のシーンにおける複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行するように構成され、前記装置はさらに、
前記境界内で物体が認識された連続回数である第1のカウント、または、前記境界内で物体が認識された回数である第2のカウントを記憶するための手段を備える、C11に記載の装置。
[C14]
前記第1のカウントまたは前記第2のカウントがしきい値を超えたか否かを判定するための手段と、
前記第1のカウントまたは前記第2のカウントが前記しきい値を超えた場合に、前記物体を強調するための手段と、
前記第1のカウントまたは前記第2のカウントが前記しきい値を超えた場合に、前記物体に近接したアイコンを表示するための手段と、
をさらに備えるC11に記載の装置。
[C15]
少なくとも1つの動作を実行するための手段をさらに備え、前記少なくとも1つの動作は、前記境界内の第1の領域において物体が認識されていない場合省電力状態に入る動作、前記境界を拡大する動作、または前記境界内の第1の領域の中心へとズームする動作、のうちの少なくとも1つを備える、C11に記載の装置。
[C16]
前記物体認識手順を実行するための手段は、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行するように構成され、前記装置はさらに、
前記境界内において物体が認識された回数のカウントを記憶するための手段を備える、C11に記載の装置。
[C17]
物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定するための手段と、
前記カウントが、前記しきい値を超えたか否かを判定するための手段と、
前記カウントが前記しきい値を超えた場合、前記物体を強調するための手段と、
前記カウントが前記しきい値を超えた場合、前記物体に近接したアイコンを表示するための手段と、
をさらに備えるC16に記載の装置。
[C18]
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つを受け取るための手段と、
前記音声コマンドおよび前記ジェスチャ・コマンドのうちの少なくとも1つに応じて、前記境界内の第1の領域の拡大を調節するための手段と、
をさらに備えるC11に記載の装置。
[C19]
少なくとも1つの写真編集ツールを表示するための手段と、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに基づいて、前記少なくとも1つの写真編集ツールを使用して、前記境界内の第1の領域を編集するための手段と、
前記編集された第1の領域の画像を記憶するための手段と、
をさらに備えるC11に記載の装置。
[C20]
第1の音声コマンドおよび第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶するための手段と、第2の音声コマンドおよび第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶するための手段と、少なくとも前記第1の認識された物体と、前記第2の認識された物体とを比較するための手段と、をさらに備えるC11に記載の装置。
[C21]
コンテンツを表示するように構成された光学デバイスを制御するための装置であって、前記装置は下記を備える、
現実のシーンにおける第1の領域上の視線を検知し、
前記第1の領域を囲む境界を設定し、前記境界は、前記現実のシーンにおける少なくとも第2の領域を除外する、
前記境界内の前記第1の領域上の物体認識手順を実行し、
前記少なくとも第2の領域上の物体認識手順を実行することを控える、
ように構成された処理システム。
[C22]
前記処理システムはさらに、
前記現実のシーンにおける第3の領域上の視線を検知し、
前記現実のシーンにおける少なくとも第4の領域を除外しながら、前記第3の領域を囲む境界を設定するように構成された、C21に記載の装置。
[C23]
前記物体認識手順は、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行することによって実行され、前記処理システムはさらに、
前記境界内で物体が認識された連続回数である第1のカウントまたは、前記境界内で物体が認識された回数である第2のカウントをメモリに記憶するように構成された、C21に記載の装置。
[C24]
前記処理システムはさらに、
前記第1のカウントまたは前記第2のカウントがしきい値を超えているか否かを判定し、
前記第1のカウントまたは前記第2のカウントがしきい値を超えている場合、前記物体を強調し、
前記第1のカウントまたは前記第2のカウントがしきい値を超えている場合、前記物体に近接したアイコンを表示する、
ように構成された、C23に記載の装置。
[C25]
前記処理システムはさらに、前記境界内の第1の領域において物体が認識されていない場合省電力状態に入る動作、前記境界を拡大する動作、または、前記境界内の第1の領域の中心へとズームする動作、のうちの少なくとも1つを実行するように構成された、C21に記載の装置。
[C26]
前記物体認識手順は、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の体認識手順を実行することによって実行され、前記処理システムはさらに、
前記境界内で物体が認識された回数のカウントをメモリに記憶するように構成された、C21に記載の装置。
[C27]
前記処理システムはさらに、
物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定し、
前記カウントが、前記しきい値を超えたか否かを判定し、前記カウントが前記しきい値を超えた場合、前記物体を強調し、
前記カウントが前記しきい値を超えた場合、前記物体に近接したアイコンを表示する、
ように構成された、C26に記載の装置。
[C28]
前記処理システムはさらに、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つを受け取り、
前記音声コマンドおよび前記ジェスチャ・コマンドのうちの少なくとも1つに応じて、前記境界内の第1の領域の拡大を調節する、
ように構成された、C21に記載の装置。
[C29]
前記処理システムはさらに、
少なくとも1つの写真編集ツールを表示し、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに基づいて、前記少なくとも1つの写真編集ツールを使用して、前記境界内の第1の領域を編集し、
前記編集された第1の領域の画像を記憶する、
ように構成された、C21に記載の装置。
[C30]
前記処理システムはさらに、
第1の音声コマンドおよび第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶し、
第2の音声コマンドおよび第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶し、
少なくとも前記第1の認識された物体と、前記第2の認識された物体とを比較する、
ように構成された、C21に記載の装置。
[C31]
コンピュータ・プログラム製品であって、前記コンピュータ・プログラム製品は下記を備える、
現実のシーンにおける第1の領域上の視線を検知することと、
前記第1の領域を囲む境界を設定すること、前記境界は、前記現実のシーンにおける少なくとも第2の領域を除外する、と、
前記境界内の前記第1の領域上の物体認識手順を実行することと、
前記少なくとも第2の領域上の物体認識手順を実行することを控えることと、
のためのコードを備えるコンピュータ読取可能な媒体。
[C32]
前記コンピュータ読取可能な媒体はさらに、
前記現実のシーンにおける第3の領域上の視線を検知することと、
前記現実のシーンにおける少なくとも第4の領域を除外しながら、前記第3の領域を囲む境界を設定することと、
のためのコードを備える、C31に記載のコンピュータ・プログラム製品。
[C33]
前記物体認識手順を実行することは、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行することを備え、前記コンピュータ読取可能な媒体はさらに、
前記境界内で物体が認識された連続回数である第1のカウントと、前記境界内で物体が認識された回数である第2のカウントとを、メモリに記憶するためのコードを備える、C31に記載のコンピュータ・プログラム製品。
[C34]
前記コンピュータ読取可能な媒体はさらに、
前記第1のカウントまたは前記第2のカウントがしきい値を超えているか否かを判定することと、
前記第1のカウントまたは前記第2のカウントがしきい値を超えている場合、前記物体を強調することと、
前記第1のカウントまたは前記第2のカウントがしきい値を超えている場合、前記物体に近接したアイコンを表示することと、
のためのコードを備える、C33に記載のコンピュータ・プログラム製品。
[C35]
前記コンピュータ読取可能な媒体はさらに、前記境界内の第1の領域において物体が認識されていない場合省電力状態に入る動作、前記境界を拡大する動作、または、前記境界内の第1の領域の中心へとズームする動作、のうちの少なくとも1つを実行するためのコードを備える、C31に記載のコンピュータ・プログラム製品。
[C36]
前記物体認識手順を実行することは、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行することを備え、前記コンピュータ読取可能な媒体はさらに、
前記境界内で物体が認識された回数のカウントをメモリに記憶するためのコードを備える、C31に記載のコンピュータ・プログラム製品。
[C37]
前記コンピュータ読取可能な媒体はさらに、
物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定することと、
前記カウントが、前記しきい値を超えたか否かを判定することと、
前記カウントが前記しきい値を超えた場合、前記物体を強調することと、
前記カウントが前記しきい値を超えた場合、前記物体に近接したアイコンを表示することと、
のためのコードを備える、C36に記載のコンピュータ・プログラム製品。
[C38]
前記コンピュータ読取可能な媒体はさらに、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つを受け取ることと、
前記音声コマンドおよび前記ジェスチャ・コマンドのうちの少なくとも1つに応じて、前記境界内の第1の領域の拡大を調節することと、
のためのコードを備える、C31に記載のコンピュータ・プログラム製品。
[C39]
前記コンピュータ読取可能な媒体はさらに、
少なくとも1つの写真編集ツールを表示することと、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに基づいて、前記少なくとも1つの写真編集ツールを使用して、前記境界内の第1の領域を編集することと、
前記編集された第1の領域の画像を記憶することと、
のためのコードを備える、C31に記載のコンピュータ・プログラム製品。
[C40]
前記コンピュータ読取可能な媒体はさらに、
第1の音声コマンドおよび第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶することと、
第2の音声コマンドおよび第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶することと、
少なくとも前記第1の認識された物体と、前記第2の認識された物体とを比較することと、
のためのコードを備える、C31に記載のコンピュータ・プログラム製品。
Claims (40)
- コンテンツを表示するように構成された光学デバイスを制御する方法であって、前記方法は下記を備える、
現実のシーンにおける第1の領域上の視線を検知することと、
前記第1の領域を囲む境界を設定すること、前記境界は、前記現実のシーンにおける少なくとも第2の領域を除外する、と、
前記境界内の前記第1の領域上の物体認識手順を実行することと、
前記少なくとも第2の領域上の物体認識手順を実行することを控えること。 - 前記現実のシーンにおける第3の領域上の視線を検知することと、
前記現実のシーンにおける少なくとも第4の領域を除外しながら、前記第3の領域を囲む境界を設定することと、
をさらに備える請求項1に記載の方法。 - 前記物体認識手順を実行することは、前記現実のシーンの複数の画像フレームのうちの1つまたは複数に関する前記境界内の第1の領域上の物体認識手順を実行することを備え、前記方法はさらに、
前記境界内で物体が認識された連続回数である第1のカウント、または前記境界内で物体が認識された回数である第2のカウントを、メモリに記憶することを備える、請求項1に記載の方法。 - 前記第1のカウントまたは前記第2のカウントがしきい値を超えたか否かを判定することと、
前記第1のカウントまたは前記第2のカウントがしきい値を超えた場合に、前記物体を強調することと、
前記第1のカウントまたは前記第2のカウントがしきい値を超えた場合に、前記物体に近接したアイコンを表示することと、
をさらに備える請求項3に記載の方法。 - 前記境界内の第1の領域において物体が認識されない場合、前記方法はさらに、前記境界内の第1の領域の中心へとズームする動作、前記境界を拡大する動作、または、省電力状態に入る動作、のうちの少なくとも1つを実行することを備える、請求項1に記載の方法。
- 前記物体認識手順を実行することは、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行することを備え、前記方法はさらに、
前記境界内で物体が認識された回数のカウントをメモリに記憶することを備える、請求項1に記載の方法。 - 物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定することと、
前記カウントが、前記しきい値を超えたか否かを判定することと、
前記カウントが前記しきい値を超えた場合、前記物体を強調することと、
前記カウントが前記しきい値を超えた場合、前記物体に近接したアイコンを表示することと、
をさらに備える、請求項6に記載の方法。 - 音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つを受け取ることと、
前記音声コマンドおよび前記ジェスチャ・コマンドのうちの少なくとも1つに応じて、前記境界内の第1の領域の拡大を調節することと、
をさらに備える請求項1に記載の方法。 - 少なくとも1つの写真編集ツールを表示することと、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに基づいて、前記少なくとも1つの写真編集ツールを用いて、前記境界内の第1の領域を編集することと、
前記編集された第1の領域の画像を記憶することと、
をさらに備える請求項1に記載の方法。 - 第1の音声コマンドおよび第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶することと、
第2の音声コマンドおよび第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶することと、
少なくとも前記第1の認識された物体と、前記第2の認識された物体とを比較することと、
をさらに備える請求項1に記載の方法。 - コンテンツを表示するように構成された光学デバイスを制御するための装置であって、前記装置は下記を備える、
現実のシーンにおける第1の領域上の視線を検知するための手段と、
前記第1の領域を囲む境界を設定するための手段、前記境界は、前記現実のシーンにおける少なくとも第2の領域を除外する、と、
前記境界内の前記第1の領域上の物体認識手順を実行するための手段と、
前記少なくとも第2の領域上の物体認識手順を実行することを控えるための手段。 - 前記現実のシーンにおける第3の領域上の視線を検知するための手段と、
前記現実のシーンにおける少なくとも第4の領域を除外しながら、前記第3の領域を囲む境界を設定するための手段と、
をさらに備える請求項11に記載の装置。 - 前記物体認識手順を実行するための手段は、前記現実のシーンにおける複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行するように構成され、前記装置はさらに、
前記境界内で物体が認識された連続回数である第1のカウント、または前記境界内で物体が認識された回数である第2のカウントを記憶するための手段を備える、請求項11に記載の装置。 - 前記第1のカウントまたは前記第2のカウントがしきい値を超えたか否かを判定するための手段と、
前記第1のカウントまたは前記第2のカウントが前記しきい値を超えた場合に、前記物体を強調するための手段と、
前記第1のカウントまたは前記第2のカウントが前記しきい値を超えた場合に、前記物体に近接したアイコンを表示するための手段と、
をさらに備える請求項11に記載の装置。 - 少なくとも1つの動作を実行するための手段をさらに備え、前記少なくとも1つの動作は、前記境界内の第1の領域において物体が認識されていない場合省電力状態に入る動作、前記境界を拡大する動作、または前記境界内の第1の領域の中心へとズームする動作、のうちの少なくとも1つを備える、請求項11に記載の装置。
- 前記物体認識手順を実行するための手段は、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行するように構成され、前記装置はさらに、
前記境界内において物体が認識された回数のカウントを記憶するための手段を備える、請求項11に記載の装置。 - 物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定するための手段と、
前記カウントが、前記しきい値を超えたか否かを判定するための手段と、
前記カウントが前記しきい値を超えた場合、前記物体を強調するための手段と、
前記カウントが前記しきい値を超えた場合、前記物体に近接したアイコンを表示するための手段と、
をさらに備える請求項16に記載の装置。 - 音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つを受け取るための手段と、
前記音声コマンドおよび前記ジェスチャ・コマンドのうちの少なくとも1つに応じて、前記境界内の第1の領域の拡大を調節するための手段と、
をさらに備える請求項11に記載の装置。 - 少なくとも1つの写真編集ツールを表示するための手段と、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに基づいて、前記少なくとも1つの写真編集ツールを使用して、前記境界内の第1の領域を編集するための手段と、
前記編集された第1の領域の画像を記憶するための手段と、
をさらに備える請求項11に記載の装置。 - 第1の音声コマンドおよび第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶するための手段と、第2の音声コマンドおよび第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶するための手段と、少なくとも前記第1の認識された物体と、前記第2の認識された物体とを比較するための手段と、をさらに備える請求項11に記載の装置。
- コンテンツを表示するように構成された光学デバイスを制御するための装置であって、前記装置は下記を備える、
現実のシーンにおける第1の領域上の視線を検知し、
前記第1の領域を囲む境界を設定し、前記境界は、前記現実のシーンにおける少なくとも第2の領域を除外する、
前記境界内の前記第1の領域上の物体認識手順を実行し、
前記少なくとも第2の領域上の物体認識手順を実行することを控える、
ように構成された処理システム。 - 前記処理システムはさらに、
前記現実のシーンにおける第3の領域上の視線を検知し、
前記現実のシーンにおける少なくとも第4の領域を除外しながら、前記第3の領域を囲む境界を設定するように構成された、請求項21に記載の装置。 - 前記物体認識手順は、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行することによって実行され、前記処理システムはさらに、
前記境界内で物体が認識された連続回数である第1のカウント、または前記境界内で物体が認識された回数である第2のカウントをメモリに記憶するように構成された、請求項21に記載の装置。 - 前記処理システムはさらに、
前記第1のカウントまたは前記第2のカウントがしきい値を超えているか否かを判定し、
前記第1のカウントまたは前記第2のカウントがしきい値を超えている場合、前記物体を強調し、
前記第1のカウントまたは前記第2のカウントがしきい値を超えている場合、前記物体に近接したアイコンを表示する、
ように構成された、請求項23に記載の装置。 - 前記処理システムはさらに、前記境界内の第1の領域において物体が認識されていない場合省電力状態に入る動作、前記境界を拡大する動作、または、前記境界内の第1の領域の中心へとズームする動作、のうちの少なくとも1つを実行するように構成された、請求項21に記載の装置。
- 前記物体認識手順は、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行することによって実行され、前記処理システムはさらに、
前記境界内で物体が認識された回数のカウントをメモリに記憶するように構成された、請求項21に記載の装置。 - 前記処理システムはさらに、
物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定し、
前記カウントが、前記しきい値を超えたか否かを判定し、前記カウントが前記しきい値を超えた場合、前記物体を強調し、
前記カウントが前記しきい値を超えた場合、前記物体に近接したアイコンを表示する、
ように構成された、請求項26に記載の装置。 - 前記処理システムはさらに、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つを受け取り、
前記音声コマンドおよび前記ジェスチャ・コマンドのうちの少なくとも1つに応じて、前記境界内の第1の領域の拡大を調節する、
ように構成された、請求項21に記載の装置。 - 前記処理システムはさらに、
少なくとも1つの写真編集ツールを表示し、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに基づいて、前記少なくとも1つの写真編集ツールを使用して、前記境界内の第1の領域を編集し、
前記編集された第1の領域の画像を記憶する、
ように構成された、請求項21に記載の装置。 - 前記処理システムはさらに、
第1の音声コマンドおよび第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶し、
第2の音声コマンドおよび第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶し、
少なくとも前記第1の認識された物体と、前記第2の認識された物体とを比較する、
ように構成された、請求項21に記載の装置。 - コンピュータ・プログラム製品であって、前記コンピュータ・プログラム製品は下記を備える、
現実のシーンにおける第1の領域上の視線を検知することと、
前記第1の領域を囲む境界を設定すること、前記境界は、前記現実のシーンにおける少なくとも第2の領域を除外する、と、
前記境界内の前記第1の領域上の物体認識手順を実行することと、
前記少なくとも第2の領域上の物体認識手順を実行することを控えることと、
のためのコードを備えるコンピュータ読取可能な媒体。 - 前記コンピュータ読取可能な媒体はさらに、
前記現実のシーンにおける第3の領域上の視線を検知することと、
前記現実のシーンにおける少なくとも第4の領域を除外しながら、前記第3の領域を囲む境界を設定することと、
のためのコードを備える、請求項31に記載のコンピュータ・プログラム製品。 - 前記物体認識手順を実行することは、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行することを備え、前記コンピュータ読取可能な媒体はさらに、
前記境界内で物体が認識された連続回数である第1のカウント、または前記境界内で物体が認識された回数である第2のカウントとを、メモリに記憶するためのコードを備える、請求項31に記載のコンピュータ・プログラム製品。 - 前記コンピュータ読取可能な媒体はさらに、
前記第1のカウントまたは前記第2のカウントがしきい値を超えているか否かを判定することと、
前記第1のカウントまたは前記第2のカウントがしきい値を超えている場合、前記物体を強調することと、
前記第1のカウントまたは前記第2のカウントがしきい値を超えている場合、前記物体に近接したアイコンを表示することと、
のためのコードを備える、請求項33に記載のコンピュータ・プログラム製品。 - 前記コンピュータ読取可能な媒体はさらに、前記境界内の第1の領域において物体が認識されていない場合省電力状態に入る動作、前記境界を拡大する動作、または、前記境界内の第1の領域の中心へとズームする動作、のうちの少なくとも1つを実行するためのコードを備える、請求項31に記載のコンピュータ・プログラム製品。
- 前記物体認識手順を実行することは、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行することを備え、前記コンピュータ読取可能な媒体はさらに、
前記境界内で物体が認識された回数のカウントをメモリに記憶するためのコードを備える、請求項31に記載のコンピュータ・プログラム製品。 - 前記コンピュータ読取可能な媒体はさらに、
物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定することと、
前記カウントが、前記しきい値を超えたか否かを判定することと、
前記カウントが前記しきい値を超えた場合、前記物体を強調することと、
前記カウントが前記しきい値を超えた場合、前記物体に近接したアイコンを表示することと、
のためのコードを備える、請求項36に記載のコンピュータ・プログラム製品。 - 前記コンピュータ読取可能な媒体はさらに、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つを受け取ることと、
前記音声コマンドおよび前記ジェスチャ・コマンドのうちの少なくとも1つに応じて、前記境界内の第1の領域の拡大を調節することと、
のためのコードを備える、請求項31に記載のコンピュータ・プログラム製品。 - 前記コンピュータ読取可能な媒体はさらに、
少なくとも1つの写真編集ツールを表示することと、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに基づいて、前記少なくとも1つの写真編集ツールを使用して、前記境界内の第1の領域を編集することと、
前記編集された第1の領域の画像を記憶することと、
のためのコードを備える、請求項31に記載のコンピュータ・プログラム製品。 - 前記コンピュータ読取可能な媒体はさらに、
第1の音声コマンドおよび第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶することと、
第2の音声コマンドおよび第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶することと、
少なくとも前記第1の認識された物体と、前記第2の認識された物体とを比較することと、
のためのコードを備える、請求項31に記載のコンピュータ・プログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/740,256 | 2013-01-13 | ||
US13/740,256 US10359841B2 (en) | 2013-01-13 | 2013-01-13 | Apparatus and method for controlling an augmented reality device |
PCT/US2014/011134 WO2014110437A1 (en) | 2013-01-13 | 2014-01-10 | Apparatus and method for controlling an augmented reality device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016503217A true JP2016503217A (ja) | 2016-02-01 |
JP2016503217A5 JP2016503217A5 (ja) | 2017-02-02 |
JP6254193B2 JP6254193B2 (ja) | 2017-12-27 |
Family
ID=50033807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015552830A Expired - Fee Related JP6254193B2 (ja) | 2013-01-13 | 2014-01-10 | 拡張現実デバイスを制御するための装置および方法 |
Country Status (7)
Country | Link |
---|---|
US (2) | US10359841B2 (ja) |
EP (1) | EP2943853B1 (ja) |
JP (1) | JP6254193B2 (ja) |
KR (1) | KR102159313B1 (ja) |
CN (2) | CN109901722B (ja) |
ES (1) | ES2899753T3 (ja) |
WO (1) | WO2014110437A1 (ja) |
Families Citing this family (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10359841B2 (en) * | 2013-01-13 | 2019-07-23 | Qualcomm Incorporated | Apparatus and method for controlling an augmented reality device |
JP6205189B2 (ja) * | 2013-06-28 | 2017-09-27 | オリンパス株式会社 | 情報提示システム及び情報提示システムの制御方法 |
JP6221535B2 (ja) * | 2013-09-11 | 2017-11-01 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2015054562A1 (en) * | 2013-10-11 | 2015-04-16 | Interdigital Patent Holdings, Inc. | Gaze-driven augmented reality |
KR102173123B1 (ko) * | 2013-11-22 | 2020-11-02 | 삼성전자주식회사 | 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치 |
US20150145887A1 (en) * | 2013-11-25 | 2015-05-28 | Qualcomm Incorporated | Persistent head-mounted content display |
US10802582B1 (en) * | 2014-04-22 | 2020-10-13 | sigmund lindsay clements | Eye tracker in an augmented reality glasses for eye gaze to input displayed input icons |
US10282057B1 (en) * | 2014-07-29 | 2019-05-07 | Google Llc | Image editing on a wearable device |
JP2016033763A (ja) * | 2014-07-31 | 2016-03-10 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、および、プログラム |
US9959591B2 (en) | 2014-07-31 | 2018-05-01 | Seiko Epson Corporation | Display apparatus, method for controlling display apparatus, and program |
JP6421543B2 (ja) * | 2014-10-17 | 2018-11-14 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
US10140768B2 (en) | 2014-10-17 | 2018-11-27 | Seiko Epson Corporation | Head mounted display, method of controlling head mounted display, and computer program |
JP6358038B2 (ja) * | 2014-10-17 | 2018-07-18 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
US9898868B2 (en) * | 2014-11-06 | 2018-02-20 | Seiko Epson Corporation | Display device, method of controlling the same, and program |
CN104598138B (zh) * | 2014-12-24 | 2017-10-17 | 三星电子(中国)研发中心 | 电子地图控制方法及装置 |
KR20160080851A (ko) * | 2014-12-29 | 2016-07-08 | 엘지전자 주식회사 | 디스플레이 장치 및 제어 방법 |
GB2536650A (en) | 2015-03-24 | 2016-09-28 | Augmedics Ltd | Method and system for combining video-based and optic-based augmented reality in a near eye display |
WO2016190773A1 (en) | 2015-05-28 | 2016-12-01 | Motorola Solutions, Inc. | Virtual push-to-talk button |
EP3109733B1 (en) * | 2015-06-22 | 2020-07-22 | Nokia Technologies Oy | Content delivery |
US9829976B2 (en) * | 2015-08-07 | 2017-11-28 | Tobii Ab | Gaze direction mapping |
KR102354458B1 (ko) * | 2015-08-19 | 2022-01-21 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어방법 |
IL241446B (en) * | 2015-09-10 | 2018-05-31 | Elbit Systems Ltd | Display adjustments on user screens and guiding users' attention |
CN106372095B (zh) * | 2015-10-16 | 2020-02-07 | 北京智谷睿拓技术服务有限公司 | 电子地图显示方法、装置及车载设备 |
IL243422B (en) | 2015-12-30 | 2018-04-30 | Elbit Systems Ltd | Information management is displayed according to the directions of the user's gaze |
US9939635B2 (en) * | 2016-02-29 | 2018-04-10 | Brillio LLC | Method for providing notification in virtual reality device |
US20170286785A1 (en) * | 2016-04-05 | 2017-10-05 | Ford Global Technologies, Llc | Interactive display based on interpreting driver actions |
WO2017193297A1 (en) * | 2016-05-11 | 2017-11-16 | Intel Corporation | Movement mapping based control of telerobot |
US10089071B2 (en) | 2016-06-02 | 2018-10-02 | Microsoft Technology Licensing, Llc | Automatic audio attenuation on immersive display devices |
CN109478339A (zh) * | 2016-07-29 | 2019-03-15 | 三菱电机株式会社 | 显示装置、显示控制装置和显示控制方法 |
CN107728776A (zh) * | 2016-08-11 | 2018-02-23 | 成都五维译鼎科技有限公司 | 信息采集的方法、装置、终端及系统及用户终端 |
US10339708B2 (en) * | 2016-11-01 | 2019-07-02 | Google Inc. | Map summarization and localization |
WO2018097632A1 (en) * | 2016-11-25 | 2018-05-31 | Samsung Electronics Co., Ltd. | Method and device for providing an image |
CN108347520A (zh) * | 2017-01-23 | 2018-07-31 | 阿里巴巴集团控股有限公司 | 情景模式的发送方法及装置、应用的启动方法及装置 |
US10732826B2 (en) * | 2017-11-22 | 2020-08-04 | Microsoft Technology Licensing, Llc | Dynamic device interaction adaptation based on user engagement |
CN108089701A (zh) * | 2017-12-07 | 2018-05-29 | 北京奇虎科技有限公司 | 一种虚拟现实vr场景的展示方法和装置 |
CN108280434A (zh) * | 2018-01-25 | 2018-07-13 | 北京小米移动软件有限公司 | 显示信息的方法和装置 |
WO2019211741A1 (en) | 2018-05-02 | 2019-11-07 | Augmedics Ltd. | Registration of a fiducial marker for an augmented reality system |
JP6711379B2 (ja) * | 2018-08-22 | 2020-06-17 | セイコーエプソン株式会社 | 頭部装着型表示装置、コンピュータープログラム |
US20200082576A1 (en) * | 2018-09-11 | 2020-03-12 | Apple Inc. | Method, Device, and System for Delivering Recommendations |
US11766296B2 (en) | 2018-11-26 | 2023-09-26 | Augmedics Ltd. | Tracking system for image-guided surgery |
US10939977B2 (en) | 2018-11-26 | 2021-03-09 | Augmedics Ltd. | Positioning marker |
CN111751987B (zh) | 2019-03-29 | 2023-04-14 | 托比股份公司 | 全息眼睛成像设备 |
US11275889B2 (en) * | 2019-04-04 | 2022-03-15 | International Business Machines Corporation | Artificial intelligence for interactive preparation of electronic documents |
SE1950758A1 (en) * | 2019-06-19 | 2020-10-27 | Tobii Ab | Method and system for determining a refined gaze point of a user |
US11980506B2 (en) | 2019-07-29 | 2024-05-14 | Augmedics Ltd. | Fiducial marker |
US11382712B2 (en) | 2019-12-22 | 2022-07-12 | Augmedics Ltd. | Mirroring in image guided surgery |
JP2021140085A (ja) * | 2020-03-06 | 2021-09-16 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
US11389252B2 (en) | 2020-06-15 | 2022-07-19 | Augmedics Ltd. | Rotating marker for image guided surgery |
CN113836973A (zh) * | 2020-06-23 | 2021-12-24 | 中兴通讯股份有限公司 | 终端控制方法、装置、终端及存储介质 |
US12095865B2 (en) | 2020-12-11 | 2024-09-17 | International Business Machines Corporation | Identifying a voice command boundary |
US11896445B2 (en) | 2021-07-07 | 2024-02-13 | Augmedics Ltd. | Iliac pin and adapter |
CN113359996A (zh) * | 2021-08-09 | 2021-09-07 | 季华实验室 | 生活辅助机器人控制系统、方法、装置及电子设备 |
CN114971764A (zh) * | 2022-04-08 | 2022-08-30 | 浙江赟燊商业信息系统科技有限公司 | 一种基于HoloLens的存储和匹配系统及方法 |
WO2024057210A1 (en) | 2022-09-13 | 2024-03-21 | Augmedics Ltd. | Augmented reality eyewear for image-guided medical intervention |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07200632A (ja) * | 1993-12-28 | 1995-08-04 | Toshiba Corp | 情報処理装置 |
JPH11242733A (ja) * | 1998-02-24 | 1999-09-07 | Sanyo Electric Co Ltd | 省電力制御装置 |
JP2003533768A (ja) * | 2000-05-12 | 2003-11-11 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 記憶支援装置 |
JP2006048171A (ja) * | 2004-07-30 | 2006-02-16 | Toyota Motor Corp | 状態推定装置、状態推定方法、及びそれを用いた情報提供装置、情報提供方法 |
JP2007184683A (ja) * | 2006-01-04 | 2007-07-19 | Eastman Kodak Co | 画像データ処理装置及び方法 |
JP2007310572A (ja) * | 2006-05-17 | 2007-11-29 | Toyota Motor Corp | 認識装置および認識方法 |
JP2008172368A (ja) * | 2007-01-09 | 2008-07-24 | Canon Inc | 撮像装置及びその制御方法及びプログラム及び記憶媒体 |
JP2010056692A (ja) * | 2008-08-26 | 2010-03-11 | Canon Inc | 撮像装置およびその制御方法 |
JP2012221062A (ja) * | 2011-04-05 | 2012-11-12 | Canon Inc | 情報処理装置、情報処理方法及びプログラム |
US20120290401A1 (en) * | 2011-05-11 | 2012-11-15 | Google Inc. | Gaze tracking system |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10103922A1 (de) | 2001-01-30 | 2002-08-01 | Physoptics Opto Electronic Gmb | Interaktives Datensicht- und Bediensystem |
US6707418B2 (en) * | 2002-07-12 | 2004-03-16 | Itt Manufacturing Enterprises, Inc. | Correlating single continuous wave radar space object observation for initial orbit determination |
EP1775712A1 (en) * | 2005-10-13 | 2007-04-18 | Sony Ericsson Mobile Communications AB | Automatic theme creator |
US7860382B2 (en) * | 2006-10-02 | 2010-12-28 | Sony Ericsson Mobile Communications Ab | Selecting autofocus area in an image |
US7954067B2 (en) * | 2007-03-16 | 2011-05-31 | Apple Inc. | Parameter setting superimposed upon an image |
US20080229232A1 (en) * | 2007-03-16 | 2008-09-18 | Apple Inc. | Full screen editing of visual media |
KR20100028344A (ko) * | 2008-09-04 | 2010-03-12 | 삼성전자주식회사 | 휴대단말의 영상 편집 방법 및 장치 |
WO2010118292A1 (en) | 2009-04-09 | 2010-10-14 | Dynavox Systems, Llc | Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods |
CN101943982B (zh) | 2009-07-10 | 2012-12-12 | 北京大学 | 基于被跟踪的眼睛运动的图像操作 |
US8897603B2 (en) * | 2009-08-20 | 2014-11-25 | Nikon Corporation | Image processing apparatus that selects a plurality of video frames and creates an image based on a plurality of images extracted and selected from the frames |
KR101598632B1 (ko) * | 2009-10-01 | 2016-02-29 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 이동 단말기 및 그의 태그 편집 방법 |
US20120242698A1 (en) | 2010-02-28 | 2012-09-27 | Osterhout Group, Inc. | See-through near-eye display glasses with a multi-segment processor-controlled optical layer |
US20120212499A1 (en) | 2010-02-28 | 2012-08-23 | Osterhout Group, Inc. | System and method for display content control during glasses movement |
US8964298B2 (en) * | 2010-02-28 | 2015-02-24 | Microsoft Corporation | Video display modification based on sensor input for a see-through near-to-eye display |
US9366862B2 (en) | 2010-02-28 | 2016-06-14 | Microsoft Technology Licensing, Llc | System and method for delivering content to a group of see-through near eye display eyepieces |
US20110273466A1 (en) | 2010-05-10 | 2011-11-10 | Canon Kabushiki Kaisha | View-dependent rendering system with intuitive mixed reality |
US20120019557A1 (en) * | 2010-07-22 | 2012-01-26 | Sony Ericsson Mobile Communications Ab | Displaying augmented reality information |
US9117483B2 (en) * | 2011-06-03 | 2015-08-25 | Michael Edward Zaletel | Method and apparatus for dynamically recording, editing and combining multiple live video clips and still photographs into a finished composition |
JP5868618B2 (ja) | 2011-06-14 | 2016-02-24 | オリンパス株式会社 | 情報処理装置、画像処理システム及びプログラム |
CA2750287C (en) * | 2011-08-29 | 2012-07-03 | Microsoft Corporation | Gaze detection in a see-through, near-eye, mixed reality display |
US9131192B2 (en) * | 2012-03-06 | 2015-09-08 | Apple Inc. | Unified slider control for modifying multiple image properties |
US20130241805A1 (en) * | 2012-03-15 | 2013-09-19 | Google Inc. | Using Convergence Angle to Select Among Different UI Elements |
US9116666B2 (en) * | 2012-06-01 | 2015-08-25 | Microsoft Technology Licensing, Llc | Gesture based region identification for holograms |
US8736692B1 (en) * | 2012-07-09 | 2014-05-27 | Google Inc. | Using involuntary orbital movements to stabilize a video |
US8482527B1 (en) * | 2012-09-14 | 2013-07-09 | Lg Electronics Inc. | Apparatus and method of providing user interface on head mounted display and head mounted display thereof |
US20140101608A1 (en) * | 2012-10-05 | 2014-04-10 | Google Inc. | User Interfaces for Head-Mountable Devices |
US9279983B1 (en) * | 2012-10-30 | 2016-03-08 | Google Inc. | Image cropping |
US10359841B2 (en) * | 2013-01-13 | 2019-07-23 | Qualcomm Incorporated | Apparatus and method for controlling an augmented reality device |
-
2013
- 2013-01-13 US US13/740,256 patent/US10359841B2/en active Active
-
2014
- 2014-01-10 KR KR1020157021222A patent/KR102159313B1/ko active IP Right Grant
- 2014-01-10 WO PCT/US2014/011134 patent/WO2014110437A1/en active Application Filing
- 2014-01-10 JP JP2015552830A patent/JP6254193B2/ja not_active Expired - Fee Related
- 2014-01-10 CN CN201910302542.7A patent/CN109901722B/zh active Active
- 2014-01-10 EP EP14702688.4A patent/EP2943853B1/en active Active
- 2014-01-10 CN CN201480004545.8A patent/CN104937519B/zh active Active
- 2014-01-10 ES ES14702688T patent/ES2899753T3/es active Active
-
2019
- 2019-05-23 US US16/421,103 patent/US11366515B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07200632A (ja) * | 1993-12-28 | 1995-08-04 | Toshiba Corp | 情報処理装置 |
JPH11242733A (ja) * | 1998-02-24 | 1999-09-07 | Sanyo Electric Co Ltd | 省電力制御装置 |
JP2003533768A (ja) * | 2000-05-12 | 2003-11-11 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 記憶支援装置 |
JP2006048171A (ja) * | 2004-07-30 | 2006-02-16 | Toyota Motor Corp | 状態推定装置、状態推定方法、及びそれを用いた情報提供装置、情報提供方法 |
JP2007184683A (ja) * | 2006-01-04 | 2007-07-19 | Eastman Kodak Co | 画像データ処理装置及び方法 |
JP2007310572A (ja) * | 2006-05-17 | 2007-11-29 | Toyota Motor Corp | 認識装置および認識方法 |
JP2008172368A (ja) * | 2007-01-09 | 2008-07-24 | Canon Inc | 撮像装置及びその制御方法及びプログラム及び記憶媒体 |
JP2010056692A (ja) * | 2008-08-26 | 2010-03-11 | Canon Inc | 撮像装置およびその制御方法 |
JP2012221062A (ja) * | 2011-04-05 | 2012-11-12 | Canon Inc | 情報処理装置、情報処理方法及びプログラム |
US20120290401A1 (en) * | 2011-05-11 | 2012-11-15 | Google Inc. | Gaze tracking system |
Also Published As
Publication number | Publication date |
---|---|
KR20150107781A (ko) | 2015-09-23 |
WO2014110437A1 (en) | 2014-07-17 |
EP2943853B1 (en) | 2021-11-17 |
JP6254193B2 (ja) | 2017-12-27 |
ES2899753T3 (es) | 2022-03-14 |
CN109901722A (zh) | 2019-06-18 |
CN104937519A (zh) | 2015-09-23 |
US11366515B2 (en) | 2022-06-21 |
US20190278367A1 (en) | 2019-09-12 |
EP2943853A1 (en) | 2015-11-18 |
KR102159313B1 (ko) | 2020-09-23 |
CN109901722B (zh) | 2022-07-29 |
US20140198129A1 (en) | 2014-07-17 |
CN104937519B (zh) | 2019-05-10 |
US10359841B2 (en) | 2019-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6254193B2 (ja) | 拡張現実デバイスを制御するための装置および方法 | |
JP6030149B2 (ja) | オブジェクトの追跡及び処理 | |
CN112585566B (zh) | 用于与具有内置摄像头的设备进行交互的手遮脸输入感测 | |
JP6271573B2 (ja) | 赤外非接触ジェスチャーシステムのための装置および方法 | |
US20150331486A1 (en) | Image processing device, image processing method and program | |
US10810444B2 (en) | Automated capture of image data for points of interest | |
JP2016085487A (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
US20170287192A1 (en) | User terminal device for displaying an object image in which a feature part changes based on image metadata and the control method thereof | |
KR20170056860A (ko) | 이미지 생성 방법 및 장치 | |
AU2015275252A1 (en) | Systems and method to modify display of augmented reality content | |
CN104182721A (zh) | 提升人脸识别率的图像处理系统及图像处理方法 | |
KR20110055244A (ko) | 디지털 촬영 장치 및 그 제어 방법 및 이를 실행하기 위한 프로그램을 저장한 기록매체 | |
JP5776471B2 (ja) | 画像表示システム | |
WO2022250683A1 (en) | Machine learning based forecasting of human gaze | |
CN112541418B (zh) | 用于图像处理的方法、装置、设备、介质和程序产品 | |
CN111219940B (zh) | 冰箱内灯光控制的方法及装置、冰箱 | |
Zhao et al. | Improved AdaBoost Algorithm for Robust Real-Time Multi-face Detection. | |
CN112319372A (zh) | 一种基于流媒体后视镜的图像显示方法及装置 | |
CN112950670A (zh) | 眼睛跟踪方法和眼睛跟踪设备 | |
TWI463416B (zh) | 一種前景分離方法 | |
TW202326611A (zh) | 單目深度估計分割 | |
CN118043859A (zh) | 高效视觉感知 | |
WO2023059962A1 (en) | Efficient vision perception |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150914 Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150915 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6254193 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |