JP2020053055A - スマートグラスのための追跡方法および追跡装置、スマートグラス、ならびに記憶媒体 - Google Patents
スマートグラスのための追跡方法および追跡装置、スマートグラス、ならびに記憶媒体 Download PDFInfo
- Publication number
- JP2020053055A JP2020053055A JP2019175346A JP2019175346A JP2020053055A JP 2020053055 A JP2020053055 A JP 2020053055A JP 2019175346 A JP2019175346 A JP 2019175346A JP 2019175346 A JP2019175346 A JP 2019175346A JP 2020053055 A JP2020053055 A JP 2020053055A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- smart glass
- predefined
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000004984 smart glass Substances 0.000 title claims abstract description 176
- 238000000034 method Methods 0.000 title claims abstract description 86
- 230000015654 memory Effects 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 8
- 230000001771 impaired effect Effects 0.000 description 19
- 238000012545 processing Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 12
- 230000003936 working memory Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 239000011521 glass Substances 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
画像をキャプチャするステップと、
画像における1つまたは複数の物体を識別するステップと、
画像における事前定義された位置または領域に位置付けられた物体についてユーザに知らせるステップと
を備えるスマートグラス追跡方法が提供される。
画像をキャプチャするためのキャプチャリングユニットと、
画像における1つまたは複数の物体を識別するための識別ユニットと、
画像における事前定義された位置または領域に位置付けられた物体についてユーザに知らせるための通知ユニットと
を備えるスマートグラス追跡装置が提供される。
カメラは、画像をキャプチャするように構成され、
プロセッサは、カメラによってキャプチャされた画像を獲得するように、かつ画像における1つまたは複数の物体を識別するように構成され、
音声再生装置は、画像における事前定義された位置または領域に位置付けられた物体についてユーザに知らせるように構成される。
ステップS101:画像をキャプチャした後、画像における1つまたは複数の物体を識別すること、および
ステップS102:画像における事前定義された焦点位置または焦点領域に位置付けられた物体についてユーザに知らせること
を備える。
さらに、視覚障害のあるユーザが、スマートグラスの焦点が目標物体によく合うようにすることが困難である可能性があり、画像における事前定義された焦点位置または焦点領域に物体が存在しない場合において、本方法は、頭の向きを変えるようユーザに指示してよく、または画像における事前定義された焦点位置もしくは焦点領域に物体が存在しないことをユーザに指示してよい。
さらに、ユーザが物体を探すのを容易にすべく、画像における事前定義された焦点位置または焦点領域に物体が存在しないとき、画像における物体の位置が特定されてよく、かつ物体の位置に向けて頭の向きを変えるようユーザは指示される。例えば、画像における焦点の左側に文字または2次元コードが存在する場合、本方法は、ユーザが頭を左に向けることを可能にすべく、焦点の左側に文字または2次元コードが存在することをユーザに指示してよい。
ステップS301:カメラによってキャプチャされた画像を獲得すること、
ステップS302:画像における1つまたは複数の物体を識別すること、
ステップS303:画像における中心位置に物体が存在するかどうかを判定し、存在する場合、ステップS304を実行し、存在しない場合、ステップS305を実行すること、
ステップS304:画像における中心位置における物体についてユーザに音声の形態で知らせること、
ステップS305:画像全体に物体が存在するかどうかを判定し、存在する場合、ステップS306を実行し、存在しない場合、ステップS307を実行すること、
ステップS306:画像における物体の位置を特定し、かつ物体の位置に向けて頭の向きを変えるようユーザに指示すること、および
ステップS307:画像に物体が存在しないことをユーザに指示すること、または頭の向きを変えるようユーザに指示すること
を備える。
また、ユーザは、ステップS306およびステップS307において指示機能をイネーブルにするか、またはディセーブルにするかを決定してもよい。ユーザが指示をイネーブルにしていない場合、ユーザは、物体について知らされない限り、画像に物体が存在しないと判定してよく、次に、ユーザは、物体を探すようにランダムに頭の向きを変えてよい。
画像をキャプチャした後、画像における1つまたは複数の物体を識別するための識別ユニット401と、
画像における事前定義された焦点位置または焦点領域に位置付けられた物体についてユーザに知らせるための通知ユニット402と
を備えるスマートグラス焦点追跡装置をさらに対応するように提供する。
画像における事前定義された焦点位置または焦点領域に物体が存在しないとき、頭の向きを変えるようユーザに指示すること、または画像における事前定義された焦点位置もしくは焦点領域に物体が存在しないことをユーザに指示することのためにさらに使用される。
画像における事前定義された焦点位置または焦点領域に物体が存在しないとき、画像における物体の位置を特定すること、および物体の位置に向けて頭の向きを変えるようユーザに指示することを特に備える。
ユーザが頭の向きを変えるとき、画像における事前定義された焦点位置または焦点領域に対する物体の近接性により指示の音を変化させることのためにさらに使用される。
画像における事前定義された焦点領域は、特に、画像面積全体の1/3から1/2の面積を有する画像の中心における円形領域または長方形領域である。
プロセッサ501は、カメラ502および音声再生装置503に接続される。画像は、カメラ502によってキャプチャされる。画像における1つまたは複数の物体がプロセッサ501によって識別された後、画像における事前定義された焦点位置または焦点領域に位置付けられた物体について、音声再生装置503によってユーザに知らされる。
さらに、図6に示されるとおり、スマートグラスは、
スマートグラスの動き状態を判定するための慣性センサアセンブリ504をさらに備えてよく、慣性センサアセンブリ504は、プロセッサ501に接続される。
スマートグラスの動き速度を測定するための速度センサ、
スマートグラスの動き速度を測定するための加速度センサ、および
スマートグラスの垂直軸と垂直線(地球の中心部に向かう線)の間の開先角度の情報を測定するためのジャイロスコープ
のうちの1つまたは組合せを備える。
ステップS701:画像をキャプチャし、かつ画像におけるレーザ光の衝突点を検出すること、
ステップS702:画像におけるレーザ光の衝突点における物体を識別すること、および
ステップS703:レーザ光の衝突点における物体についてユーザに知らせること
を備える。
比較的小さい物体または比較的遠く離れた物体の場合、レーザ光の衝突点は、物体に正確に当たらない可能性があり、この場合において、レーザ光の衝突点の周囲に領域がさらに設定されて、その領域における物体がすべて、直接に識別され、かつそれらの物体についてユーザに知らされて、その結果、ユーザの使用体験をさらに向上させるようにしてよい。
画像におけるレーザ光の衝突点の周囲の事前定義された領域における物体を識別すること、および
レーザ光の衝突点の周囲の事前定義された領域における物体についてユーザに知らせること
をさらに備える。
ステップS901:第1のカメラによって画像をキャプチャし、かつ第2のカメラによってレーザ光の衝突点の位置を検出すること、
ステップS902:第1のカメラと第2のカメラの間の事前設定された相互関係により、キャプチャされた画像におけるレーザ光の衝突点の位置を特定すること、
ステップS903:レーザ光の衝突点に物体が存在するかどうかを判定し、存在する場合、ステップS904を実行し、存在しない場合、ステップS906を実行すること、
ステップS904:画像におけるレーザ光の衝突点における物体を識別すること、
ステップS905:レーザ光の衝突点における物体についてユーザに知らせること、
ステップS906:画像全体に物体が存在するかどうかを判定し、存在する場合、ステップS907を実行し、存在しない場合、ステップS908を実行すること、
ステップS907:画像における物体とレーザ光の衝突点の間の位置関係を特定し、かつ物体の位置に向けて頭の向きを変えるようユーザに指示すること、および
ステップS908:画像に物体が存在しないことをユーザに指示する、または頭の向きを変えるようユーザに指示すること
を備える。
また、ユーザは、ステップS907およびステップS908において指示機能をイネーブルにするか、またはディセーブルにするかを決定してもよい。ユーザが指示をイネーブルにしていない場合、ユーザは、物体について知らされない限り、画像に物体が存在しないと判定してよく、次に、ユーザは、物体を探すようにランダムに頭の向きを変えてよい。
画像をキャプチャするため、および画像におけるレーザ光の衝突点を検出するためのキャプチャリングユニット1001と、
画像におけるレーザ光の衝突点における物体を識別するための識別ユニット1002と、
レーザ光の衝突点における物体についてユーザに知らせるための通知ユニット1003と
を備えるスマートグラス焦点追跡装置をさらに対応するように提供する。
画像におけるレーザ光の衝突点の周囲の事前定義された領域における物体を識別するためにさらに使用される。
レーザ光の衝突点の周囲の事前定義された領域における物体についてユーザに知らせるためにさらに使用される。
画像におけるレーザ光の衝突点に、またはレーザ光の衝突点の周囲の事前定義された領域に物体が存在しないとき、画像における物体の位置を特定し、かつ物体の位置に向けて頭の向きを変えるようユーザに指示することを備える。
ユーザが、物体の指示される位置に基づいて頭の向きを変えるとき、レーザ光の衝突点、またはレーザ光の衝突点の周囲の事前定義された領域に対する物体の近接性により指示の音を変化させるためにさらに使用される。
さらに、キャプチャリングユニット1001は、特に、
カメラによって画像をキャプチャし、かつ画像における赤外線レーザスポットを検出すること、または
第1のカメラによって画像をキャプチャし、第2のカメラによってレーザ光の衝突点の位置を検出し、かつ第1のカメラと第2のカメラの間の事前設定された相互関係により、キャプチャされた画像におけるレーザ光の衝突点の位置を特定すること
のために使用される。
画像をキャプチャし、かつ画像におけるレーザ光の衝突点を検出する前に、スマートグラスの動き速度が事前設定された値より小さいと判定するためにさらに使用される。
レーザ光を発するためのレーザエミッタ1101と、
画像をキャプチャするため、および画像におけるレーザ光の衝突点を検出するための撮影装置1102と、
画像におけるレーザ光に衝突点における物体を識別するためのプロセッサ1103と、
レーザ光の衝突点における物体についてユーザに知らせるための音声再生装置1104と
を備えるスマートグラスをさらに対応するように提供する。
撮影装置1102によって検出されるレーザ光の衝突点は、レーザエミッタ1101によって発せられるレーザ光の衝突点である。
画像をキャプチャするための第1のカメラ11021と、
レーザ光の衝突点を検出するための第2のカメラ11022と
を備える。
さらに、レーザエミッタ1101は、赤外線エミッタであってよい。
さらに、図13に示されるとおり、スマートグラスは、
スマートグラスの動き状態を判定するための慣性センサアセンブリ1105をさらに備え、慣性センサアセンブリ1105は、プロセッサ1103に接続される。
スマートグラスの動き速度を測定するための速度センサ、
スマートグラスの動き速度を測定するための加速度センサ、および
スマートグラスの垂直軸と垂直線(地球の中心部に向かう線)の間の開先角度の情報を測定するためのジャイロスコープ
のうちの1つまたは組合せを備えてよい。
ステップS1401において、スマートグラスの動き状態が判定される。
スマートグラスを装着し、かつモバイルデバイス(モバイル電話およびスマートバンドなどの)も携帯するユーザの場合、モバイルデバイスの動き状態が、スマートグラスの動き状態を近似する。したがって、スマートグラスは、モバイルデバイスからの動き状態情報を受信すべく、ユーザが携帯するモバイルデバイスに無線で接続されてよい。このため、スマートグラスの動き状態は、モバイルデバイスから受信された動き状態情報により判定されてよい。
スマートグラスの動作モードは、スマートグラスが第1の動作モードまたは第2の動作モードに入っている場合のユーザ(またはスマートグラス)の動き速度により調整されてよい。
ステップS1404において、カメラによってキャプチャされた画像における1つまたは複数の物体が識別される。
ステップS1406において、画像における事前定義された位置または領域における物体について音声の形態でユーザに知らされてよい。
ステップS1408において、画像における物体の位置が特定され、かつ物体の位置に向けて頭の向きを変えるようユーザは指示される。
また、画像における事前定義された位置または領域は、他の方法を使用することによって特定されてもよい。例えば、レーザが、レーザ光を発するために使用されてよい。レーザ光の衝突点が、事前定義された位置に対応する。レーザ光の衝突点の周囲の領域が、事前定義された領域に対応する。カメラまたは光電子検出器が、画像における事前定義された位置または領域における物体(例えば、目標物体)とスマートグラスの間の距離を測定すべく、反射されたレーザ光を検出するのに使用されてよい。
前述した実施形態の説明を通じて、当業者は、これらの実施形態は、ソフトウェア、および必要な一般的なハードウェアプラットフォームによって実施されることが可能であることを、明確に理解し得る。無論、これらの実施形態は、ハードウェアにおいて実施されることも可能である。そのような理解に基づいて、前述の技術的ソリューションは、実質的に、または従来技術に寄与する前述の技術的ソリューションの部分が、ソフトウェア製品の形態で実施されることが可能であり、コンピュータデバイス(パーソナルコンピュータ、サーバ、またはネットワークデバイスその他であることが可能な)が実施形態における方法、または実施形態の部分を実行することを可能にする命令を含むコンピュータソフトウェア製品が、ROM/RAM、磁気ディスク、または光ディスクなどのコンピュータ可読記憶媒体に記憶されることが可能である。
EEE1 画像をキャプチャした後、画像における1つまたは複数の物体を識別するステップ、および
画像における事前定義された焦点位置または焦点領域に位置付けられた物体についてユーザに知らせるステップ
を備えるスマートグラス焦点追跡方法。
画像における事前定義された焦点位置または焦点領域に物体が存在しないとき、画像における物体の位置を特定するステップ、および物体の位置に向けて頭の向きを変えるようユーザに指示するステップを備える、EEE2による方法。
画像における事前定義された焦点領域が、画像全体の面積の1/3から1/2の面積を有する画像の中心における円形領域または長方形領域である、EEE1による方法。
画像における事前定義された焦点位置または焦点領域に位置付けられた物体についてユーザに知らせるための通知ユニットと
を備えるスマートグラス焦点追跡装置。
画像における事前定義された焦点位置または焦点領域に物体が存在しないとき、画像における物体の位置を特定すること、および物体の位置に向けて頭の向きを変えるようユーザに指示することを備える、EEE7による装置。
ユーザが頭の向きを変えるとき、画像における事前定義された焦点位置または焦点領域に対する物体の近接性により指示の音を変化させることのためにさらに使用される、EEE7による装置。
画像における事前定義された焦点領域が、画像全体の面積の1/3から1/2の面積を有する画像の中心における円形領域または長方形領域である、EEE6による装置。
プロセッサが、カメラを使用することによって画像をキャプチャすべく、かつ画像における1つまたは複数の物体を識別した後、画像における事前定義された焦点位置または焦点領域に位置付けられた物体について、音声再生装置を使用することによってユーザに知らせるべく、カメラおよび音声再生装置に接続される、スマートグラス。
EEE13 スマートグラスの動き状態を判定するための慣性センサアセンブリをさらに備え、慣性センサアセンブリが、プロセッサに接続される、EEE11によるスマートグラス。
スマートグラスの動き速度を測定するための速度センサ、
スマートグラスの動き速度を測定するための加速度センサ、および
スマートグラスの垂直軸と地球の中心部に向かう垂直線の間の開先角度の情報を測定するためのジャイロスコープのうちの1つまたは組合せを備える、EEE13によるスマートグラス。
画像におけるレーザ光の衝突点における物体を識別するステップ、および
レーザ光の衝突点における物体についてユーザに知らせるステップ
を備えるスマートグラス焦点追跡方法。
レーザ光の衝突点の周囲の事前定義された領域における物体についてユーザに知らせるステップ
をさらに備えるEEE16による方法。
画像におけるレーザ光の衝突点に、またはレーザ光の衝突点の周囲の事前定義された領域に物体が存在しないとき、画像における物体の位置を特定し、かつ物体の位置に向けて頭の向きを変えるようユーザに指示するステップを備える、EEE18による方法。
EEE22 画像をキャプチャし、かつ画像におけるレーザ光の衝突点を検出するステップが、
カメラによって画像をキャプチャし、かつ画像における赤外線レーザスポットを検出するステップ、または
第1のカメラによって画像をキャプチャし、第2のカメラによってレーザ光の衝突点の位置を検出し、かつ第1のカメラと第2のカメラの間の事前設定された相互関係により、キャプチャされた画像におけるレーザ光の衝突点の位置を特定するステップを備える、EEE16による方法。
画像におけるレーザ光の衝突点における物体を識別するための識別ユニットと、
レーザ光の衝突点における物体についてユーザに知らせるための通知ユニットと
を備えるスマートグラス焦点追跡装置。
画像をキャプチャするため、および画像におけるレーザ光の衝突点を検出するための撮影装置と、
画像におけるレーザ光に衝突点における物体を識別するためのプロセッサと、
レーザ光の衝突点における物体についてユーザに知らせるための音声再生装置とを備えるスマートグラスであって、
プロセッサが、撮影装置および音声再生装置に接続される、スマートグラス。
画像をキャプチャするための第1のカメラと、
レーザ光の衝突点を検出するための第2のカメラと
を備える、スマートグラスであって、
プロセッサが、第1のカメラと第2のカメラの間の事前設定された相互関係により、第1のカメラによってキャプチャされた画像において第2のカメラによって検出されたレーザ光の衝突点の位置を特定する、EEE25によるスマートグラス。
EEE28 レーザエミッタが、赤外線エミッタである、EEE25によるスマートグラス。
EEE30 スマートグラスの動き状態を判定するための慣性センサアセンブリをさらに備えるスマートグラスであって、慣性センサアセンブリが、プロセッサに接続される、EEE25によるスマートグラス。
スマートグラスの動き速度を測定するための速度センサ、
スマートグラスの動き速度を測定するための加速度センサ、および
スマートグラスの垂直軸と地球の中心部に向かう垂直線の間の開先角度の情報を測定するためのジャイロスコープ
のうちの1つまたは組合せを備える、EEE30によるスマートグラス。
402 通知ユニット
501 プロセッサ
502 カメラ
503 音声再生装置
504 慣性センサアセンブリ
1001 キャプチャリングユニット
1002 識別ユニット
1003 通知ユニット
1101 レーザエミッタ
1102 撮影装置
11021 第1のカメラ
11022 第2のカメラ
1103 プロセッサ
1104 音声再生装置
1105 慣性センサアセンブリ
2000 電子デバイス
2001 プロセッサ
2002 作業メモリ
2002a オペレーティングシステム
2002b アプリケーションプログラム
2003 ストレージデバイス
2004 カメラ
2005 文字認識回路
2006 音声変換回路
2007 音声出力回路
2008 画像処理回路
2009 文字処理回路
2010 通信回路
2011 入力デバイス
2012 出力デバイス
2013 バス
2100 追跡回路
Claims (14)
- 画像をキャプチャするステップと、
前記画像における1つまたは複数の物体を識別するステップと、
前記画像における事前定義された位置または領域に位置付けられた物体についてユーザに知らせるステップと
を備えるスマートグラス追跡方法。 - 前記画像における前記事前定義された位置または領域に物体が存在しないとき、頭の向きを変えるよう前記ユーザに指示するステップ、または前記画像における前記事前定義された位置もしくは領域に物体が存在しないことを前記ユーザに指示するステップをさらに備える請求項1に記載の方法。
- 前記画像における前記事前定義された位置または領域に物体が存在しないとき、前記頭の向きを変えるよう前記ユーザに指示するステップは、
前記画像における前記事前定義された位置または領域に物体が存在しないとき、前記画像における物体の位置を特定し、かつ前記物体の前記位置に向けて前記頭の向きを変えるよう前記ユーザに指示するステップを備える、請求項2に記載の方法。 - 前記ユーザが前記頭の向きを変えるとき、前記画像における前記事前定義された位置または領域に対する前記物体の近接性により前記指示するステップのための音を変化させるステップをさらに備える請求項2または3に記載の方法。
- 前記画像における前記事前定義された位置は、前記画像における中心位置であり、かつ
前記画像における前記事前定義された領域は、前記画像の面積の1/3から1/2の面積を有する前記画像の中心における円形領域または長方形領域である、請求項1〜4のいずれか一項に記載の方法。 - レーザ光を発するステップをさらに備える方法であって、
前記レーザ光は、可視光であり、かつ前記画像における前記事前定義された位置は、前記レーザ光が位置付けられる前記画像における位置である、請求項1〜5のいずれか一項に記載の方法。 - レーザによってレーザ光を発するステップと、
第1のカメラによって前記画像をキャプチャするステップと、
第2のカメラによって前記レーザ光の衝突点の位置を検出するステップと、
前記第1のカメラと前記第2のカメラの間の事前設定された相互関係により、前記画像における前記事前定義された位置として、前記キャプチャされた画像における前記レーザ光の前記衝突点の対応する位置を特定するステップとをさらに備える請求項1〜6のいずれか一項に記載の方法。 - 前記画像をキャプチャするステップは、前記スマートグラスの動き速度が第1の事前設定された値より小さいことに応答して前記画像をキャプチャするステップを備える、請求項1〜7のいずれか一項に記載の方法。
- 前記画像における前記事前定義された位置または領域に位置付けられた前記物体について前記ユーザに知らせるステップは、
前記識別するステップの結果により、かつ前記識別された物体から、前記ユーザに知らせられるべき前記画像における前記事前定義された位置または領域に位置付けられた前記物体を選択するステップを備える、請求項1〜8のいずれか一項に記載の方法。 - 前記識別するステップの前記結果により、前記画像における前記事前定義された位置または領域に目標物体が存在するかどうかを判定するステップと、
前記画像における前記事前定義された位置または領域に目標物体が存在しないことに応答して、前記画像における別の位置または領域に前記目標物体が存在するかどうかを判定するステップと、
前記画像における前記別の位置または領域に前記目標物体が存在すると判定したことに応答して、前記スマートグラスを動かすための方向を決定するステップと、
前記スマートグラスを動かすための前記方向により、前記方向で動くよう前記ユーザに指示する指示音を生成するステップとをさらに備える請求項1〜9のいずれか一項に記載の方法。 - 前記スマートグラスを動かしている間、所定の時間間隔で複数のさらなる画像をキャプチャするステップと、
前記複数のさらなる画像のそれぞれに関して、
前記目標物体と前記事前定義された位置または領域の間の距離を計算するステップと、
前記計算された距離により前記生成された指示音の周波数および/または音量を変化させるステップとをさらに備える請求項10に記載の方法。 - 前記スマートグラスが第2の事前設定された値より大きい動き速度を有することに応答して、前記スマートグラスを第1の動作モードに入るように調整するステップと、
前記スマートグラスの前記動き速度が前記第2の事前設定された値より小さいことに応答して、前記スマートグラスを第2の動作モードに入るように調整するステップと、
前記スマートグラスが前記第1の動作モードに入っていることに応答して、前記識別するステップの前記結果により、かつ前記識別された物体から、前記ユーザに知らせられるべき前記画像における前記事前定義された位置または領域に位置付けられた前記物体を選択するステップと、
前記スマートグラスが前記第2の動作モードに入っていることに応答して、前記識別するステップの前記結果により、前記画像における前記事前定義された位置または領域に前記目標物体が存在するかどうかを判定するステップとをさらに備える請求項1〜11のいずれか一項に記載の方法。 - プロセッサと、
メモリと
を備えるスマートグラスであって、
前記メモリは、前記プロセッサによって実行されたとき、スマートグラスに請求項1〜12のいずれか一項に記載の方法を実行させるプログラム命令を記憶している、スマートグラス。 - スマートグラスのプロセッサによって実行されたとき、スマートグラスに請求項1〜12のいずれか一項に記載の方法を実行させるプログラム命令を記憶して備えるコンピュータ可読記憶媒体。
Applications Claiming Priority (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811124758.0A CN110955043A (zh) | 2018-09-26 | 2018-09-26 | 一种智能眼镜焦点跟踪方法、装置及智能眼镜、存储介质 |
CN201811124758.0 | 2018-09-26 | ||
CN201821572786.4U CN208722145U (zh) | 2018-09-26 | 2018-09-26 | 一种智能眼镜焦点跟踪装置及智能眼镜 |
CN201821572786.4 | 2018-09-26 | ||
CN201821571798.5U CN208689267U (zh) | 2018-09-26 | 2018-09-26 | 一种智能眼镜焦点跟踪装置及智能眼镜 |
CN201821571798.5 | 2018-09-26 | ||
CN201811124723.7A CN110955325A (zh) | 2018-09-26 | 2018-09-26 | 一种智能眼镜焦点跟踪方法、装置及智能眼镜、存储介质 |
CN201811124723.7 | 2018-09-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020053055A true JP2020053055A (ja) | 2020-04-02 |
JP6734602B2 JP6734602B2 (ja) | 2020-08-05 |
Family
ID=68583054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019175346A Active JP6734602B2 (ja) | 2018-09-26 | 2019-09-26 | スマートグラスのための追跡方法および追跡装置、スマートグラス、ならびに記憶媒体 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3640840B1 (ja) |
JP (1) | JP6734602B2 (ja) |
KR (1) | KR102242719B1 (ja) |
WO (1) | WO2020063614A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023026451A1 (ja) * | 2021-08-27 | 2023-03-02 | 株式会社日立国際電気 | 物体捜索システム、物体捜索装置、物体捜索方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11356244B2 (en) * | 2020-06-05 | 2022-06-07 | Bank Of America Corporation | Graphical user interface using continuous authentication and encryption for selective display of data |
CN113672193B (zh) * | 2021-08-23 | 2024-05-14 | 维沃移动通信有限公司 | 音频数据播放方法与装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012169824A (ja) * | 2011-02-14 | 2012-09-06 | Nec Casio Mobile Communications Ltd | 携帯端末及びその制御方法 |
JP2015097081A (ja) * | 2013-10-08 | 2015-05-21 | キヤノンマーケティングジャパン株式会社 | 検索システム、検索装置、及びそれらの制御方法、プログラム |
JP2016033764A (ja) * | 2014-07-31 | 2016-03-10 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、および、プログラム |
WO2017098822A1 (ja) * | 2015-12-10 | 2017-06-15 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2017138995A (ja) * | 2017-03-02 | 2017-08-10 | パイオニア株式会社 | 表示装置及びヘッドマウントディスプレイ |
JP2018106611A (ja) * | 2016-12-28 | 2018-07-05 | Kddi株式会社 | Ar情報表示装置及びプログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102175251A (zh) * | 2011-03-25 | 2011-09-07 | 江南大学 | 双目智能导航系统 |
KR101544957B1 (ko) * | 2013-11-28 | 2015-08-19 | 한국과학기술연구원 | 레이저 인도 방식을 이용한 증강현실용 헤드 마운트 디스플레이 장치 및 헤드 마운트 디스플레이 방법 |
KR102212030B1 (ko) * | 2014-05-26 | 2021-02-04 | 엘지전자 주식회사 | 글래스 타입 단말기 및 이의 제어방법 |
WO2015198284A1 (en) * | 2014-06-26 | 2015-12-30 | D Amico Alessio Maria | Reality description system and method |
CN104850229B (zh) * | 2015-05-18 | 2019-03-22 | 小米科技有限责任公司 | 识别物体的方法及装置 |
WO2016199248A1 (ja) * | 2015-06-10 | 2016-12-15 | 日立マクセル株式会社 | 情報提示システム及び情報提示方法 |
CN105578058A (zh) * | 2016-02-03 | 2016-05-11 | 北京光年无限科技有限公司 | 一种面向智能机器人的拍摄控制方法、装置及机器人 |
US10265218B2 (en) * | 2016-08-08 | 2019-04-23 | The Johns Hopkins University | Object recognition and presentation for the visually impaired |
CN106470277A (zh) * | 2016-09-06 | 2017-03-01 | 乐视控股(北京)有限公司 | 一种安全提示方法及装置 |
WO2018120033A1 (zh) * | 2016-12-30 | 2018-07-05 | 深圳前海达闼云端智能科技有限公司 | 一种辅助用户寻物的方法及装置 |
CN107007437A (zh) * | 2017-03-31 | 2017-08-04 | 北京邮电大学 | 交互式盲人辅助方法及设备 |
CN208689267U (zh) * | 2018-09-26 | 2019-04-02 | 上海肇观电子科技有限公司 | 一种智能眼镜焦点跟踪装置及智能眼镜 |
CN208722145U (zh) * | 2018-09-26 | 2019-04-09 | 上海肇观电子科技有限公司 | 一种智能眼镜焦点跟踪装置及智能眼镜 |
-
2019
- 2019-09-25 KR KR1020207034439A patent/KR102242719B1/ko active IP Right Grant
- 2019-09-25 WO PCT/CN2019/107669 patent/WO2020063614A1/zh active Application Filing
- 2019-09-26 EP EP19199836.8A patent/EP3640840B1/en active Active
- 2019-09-26 JP JP2019175346A patent/JP6734602B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012169824A (ja) * | 2011-02-14 | 2012-09-06 | Nec Casio Mobile Communications Ltd | 携帯端末及びその制御方法 |
JP2015097081A (ja) * | 2013-10-08 | 2015-05-21 | キヤノンマーケティングジャパン株式会社 | 検索システム、検索装置、及びそれらの制御方法、プログラム |
JP2016033764A (ja) * | 2014-07-31 | 2016-03-10 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、および、プログラム |
WO2017098822A1 (ja) * | 2015-12-10 | 2017-06-15 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2018106611A (ja) * | 2016-12-28 | 2018-07-05 | Kddi株式会社 | Ar情報表示装置及びプログラム |
JP2017138995A (ja) * | 2017-03-02 | 2017-08-10 | パイオニア株式会社 | 表示装置及びヘッドマウントディスプレイ |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023026451A1 (ja) * | 2021-08-27 | 2023-03-02 | 株式会社日立国際電気 | 物体捜索システム、物体捜索装置、物体捜索方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020063614A1 (zh) | 2020-04-02 |
EP3640840B1 (en) | 2023-11-08 |
EP3640840A2 (en) | 2020-04-22 |
EP3640840A3 (en) | 2020-07-08 |
JP6734602B2 (ja) | 2020-08-05 |
KR20200141517A (ko) | 2020-12-18 |
KR102242719B1 (ko) | 2021-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11366516B2 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
US10169923B2 (en) | Wearable display system that displays a workout guide | |
US11017257B2 (en) | Information processing device, information processing method, and program | |
CN107015638B (zh) | 用于向头戴式显示器用户报警的方法和装置 | |
JP6734602B2 (ja) | スマートグラスのための追跡方法および追跡装置、スマートグラス、ならびに記憶媒体 | |
KR20200011405A (ko) | 운전자 모니터링을 위한 시스템 및 방법 | |
US11397320B2 (en) | Information processing apparatus, information processing system, and non-transitory computer readable medium | |
WO2022164586A1 (en) | Context-aware extended reality systems | |
KR102263695B1 (ko) | 복수개의 카메라를 이용한 휴대 장치 및 제어방법 | |
US20190114502A1 (en) | Information processing device, information processing method, and program | |
US10860165B2 (en) | Tracking method and apparatus for smart glasses, smart glasses and storage medium | |
US10409464B2 (en) | Providing a context related view with a wearable apparatus | |
KR20180095324A (ko) | 글래스 타입의 이동 단말기 | |
CN107958478B (zh) | 虚拟现实场景中物体的渲染方法和虚拟现实头戴设备 | |
US20210232219A1 (en) | Information processing apparatus, information processing method, and program | |
KR102339044B1 (ko) | 비상 상황 통제 방법 및 장치 | |
KR102337907B1 (ko) | 증강 현실 스마트 글래스 장치 | |
KR102337908B1 (ko) | 작업 보조 방법 및 장치 | |
US20230059119A1 (en) | Information processing device, control method, and non-transitory computer-readable medium | |
WO2021241110A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN110955325A (zh) | 一种智能眼镜焦点跟踪方法、装置及智能眼镜、存储介质 | |
US20230224571A1 (en) | Imaging assistance control apparatus, imaging assistance control method, and imaging assistance system | |
KR20240031830A (ko) | HMD(head mounted display) 장치를 착용 중, 디스플레이 방법 및 그 장치 | |
WO2021130986A1 (ja) | 映像表示装置及び映像表示方法 | |
US20210044856A1 (en) | Information processing device, information processing method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191206 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20191206 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200701 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200707 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6734602 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |