JP2020053055A - スマートグラスのための追跡方法および追跡装置、スマートグラス、ならびに記憶媒体 - Google Patents

スマートグラスのための追跡方法および追跡装置、スマートグラス、ならびに記憶媒体 Download PDF

Info

Publication number
JP2020053055A
JP2020053055A JP2019175346A JP2019175346A JP2020053055A JP 2020053055 A JP2020053055 A JP 2020053055A JP 2019175346 A JP2019175346 A JP 2019175346A JP 2019175346 A JP2019175346 A JP 2019175346A JP 2020053055 A JP2020053055 A JP 2020053055A
Authority
JP
Japan
Prior art keywords
image
user
smart glass
predefined
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019175346A
Other languages
English (en)
Other versions
JP6734602B2 (ja
Inventor
ハイジャオ・ツァイ
Haijiao Cai
シンピン・フェン
Xinpeng Feng
ジィ・チョウ
Zhou Zhi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NextVPU Shanghai Co Ltd
Original Assignee
NextVPU Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201811124758.0A external-priority patent/CN110955043A/zh
Priority claimed from CN201821572786.4U external-priority patent/CN208722145U/zh
Priority claimed from CN201821571798.5U external-priority patent/CN208689267U/zh
Priority claimed from CN201811124723.7A external-priority patent/CN110955325A/zh
Application filed by NextVPU Shanghai Co Ltd filed Critical NextVPU Shanghai Co Ltd
Publication of JP2020053055A publication Critical patent/JP2020053055A/ja
Application granted granted Critical
Publication of JP6734602B2 publication Critical patent/JP6734602B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】スマートグラス追跡方法およびスマートグラス追跡装置、スマートグラス、ならびに記憶媒体を提供すること。【解決手段】本開示は、スマートグラスのための追跡方法および追跡装置、スマートグラス、ならびに記憶媒体を提供し、かつスマートデバイスを対象とする。スマートグラスは、画像をキャプチャしてよく、次に、画像における1つまたは複数の物体を識別してよい。画像における事前定義された位置または領域に位置付けられた物体についてユーザに知らされる。本方法を用いて、画像における物体のすべてではなく、事前定義された位置または領域における物体についてユーザに知らされて、スマートグラスの通知効率、およびユーザ体験が向上させられる。【選択図】図1

Description

本開示は、スマートデバイスの分野に関し、詳細には、スマートグラス追跡方法およびスマートグラス追跡装置、スマートグラス、ならびに記憶媒体に関する。
現在、視覚障害のあるユーザの生活を容易にするように、そのようなユーザのために設計されたスマートグラスが存在する。スマートグラスは、画像情報を収集することができ、かつスマートグラスを装着するユーザに、現在の画像の内容について知らせて、その結果、視覚障害のあるユーザの生活に便宜をもたらすことができる。
しかし、本発明の発明者らは、スマートグラスの使用中、ユーザが、グラスの相互作用上の中心を能動的に選択することができず、この場合において、スマートグラスは、通常、画像における情報のすべてを同時にユーザに知らせ、認識される必要がある文字および物体の範囲に即時に正確に焦点を合わせることができないことに気付いた。認識される点は、外部物理デバイスに外部命令が与えられる場合と同様に、外部物理デバイス(例えば、指)の助けを借りて初めて、向かうようにされることが可能であり、その際、デバイスは、命令に応じてのみデバイスの機能を完了することができる。
その結果、現在のスマートグラスは、比較的低い通知効率を有し、ユーザが、視野における物体の位置を知覚することを不可能にして、劣悪なユーザ体験をもたらす。
従来技術における前述した欠点または短所に鑑みて、本開示は、スマートグラスの通知効率、およびユーザ体験を向上させる、スマートグラス追跡方法およびスマートグラス追跡装置、スマートグラス、ならびに記憶媒体を提供する。
本開示の第1の態様によれば、
画像をキャプチャするステップと、
画像における1つまたは複数の物体を識別するステップと、
画像における事前定義された位置または領域に位置付けられた物体についてユーザに知らせるステップと
を備えるスマートグラス追跡方法が提供される。
本開示の第2の態様によれば、
画像をキャプチャするためのキャプチャリングユニットと、
画像における1つまたは複数の物体を識別するための識別ユニットと、
画像における事前定義された位置または領域に位置付けられた物体についてユーザに知らせるための通知ユニットと
を備えるスマートグラス追跡装置が提供される。
本開示の第3の態様によれば、プロセッサと、カメラと、音声再生装置とを備えるスマートグラスが提供され、ここで、
カメラは、画像をキャプチャするように構成され、
プロセッサは、カメラによってキャプチャされた画像を獲得するように、かつ画像における1つまたは複数の物体を識別するように構成され、
音声再生装置は、画像における事前定義された位置または領域に位置付けられた物体についてユーザに知らせるように構成される。
本開示の第4の態様によれば、プロセッサと、メモリとを備えるスマートグラスが提供され、メモリは、プロセッサによって実行されたとき、スマートグラスに本開示の任意の態様の方法を実行させるプログラム命令を記憶している。
本開示の第5の態様によれば、スマートグラスのプロセッサによって実行されたとき、スマートグラスに本開示の任意の態様の方法を実行させるプログラム命令を記憶しているコンピュータ可読記憶媒体が提供される。
本開示の第6の態様によれば、スマートグラスのプロセッサによって実行されたとき、スマートグラスに本開示の任意の態様の方法を実行させるプログラム命令を備えるコンピュータプログラム製品が提供される。
本開示の実施形態は、画像がキャプチャされた後、画像における1つまたは複数の物体が識別され、かつ画像における事前定義された位置または領域に位置付けられた物体についてユーザが知らされる、スマートグラス追跡方法およびスマートグラス追跡装置、スマートグラス、ならびに記憶媒体を提供する。本方法を用いて、画像における物体のすべてではなく、事前定義された位置または領域における物体についてユーザが知らされて、スマートグラスの通知効率、およびユーザ体験が向上させられる。
本開示の実施形態は、スマートグラス追跡方法およびスマートグラス追跡装置、スマートグラス、ならびに記憶媒体を提供する。本方法は、画像をキャプチャし、かつ画像におけるレーザ光の衝突点を検出するステップと、画像におけるレーザ光の衝突点における物体を識別するステップと、その後、レーザ光の衝突点における物体についてユーザに知らせるステップとを含み、このことは、画像における物体のすべてではなく、レーザ光の衝突点の検出された位置における物体についてユーザが知らされるので、スマートグラスの通知効率、およびユーザ体験を向上させる。
前述した説明は、本開示の技術的手段が、より明確に理解され得るようにし、したがって、説明の内容により実施され得るようにする、本開示の技術的ソリューションの簡単な概要に過ぎないことを理解されたい。本開示の以上、およびその他の目的、特徴、および利点をより明確にし、かつ理解するのをより容易にすべく、本開示の特定の実施形態が、特定の実施例として後段で説明される。
例示的な実施形態の後段の詳細な説明を読んだ後、当業者には、本明細書において説明される利点および利益、ならびにその他の利点および利益が理解されよう。添付の図面は、例示的な実施形態を例示することを目的とするに過ぎず、本開示に対する限定として解釈されるべきではない。さらに、添付の図面の全体にわたって、同一の参照符号は、同一の構成要素を表す。
本開示の例示的な実施形態において提供されるスマートグラス追跡方法を示すフローチャートである。 本開示の例示的な実施形態において提供される画像において定義される位置、および画像において定義される領域を示す概略図である。 本開示の別の例示的な実施形態において提供されるスマートグラス追跡方法を示すフローチャートである。 本開示の例示的な実施形態において提供されるスマートグラス追跡装置を示す概略構造図である。 本開示の例示的な実施形態において提供されるスマートグラスを示す概略構造図である。 本開示の別の例示的な実施形態において提供されるスマートグラスを示す概略構造図である。 本開示のさらに別の例示的な実施形態において提供されるスマートグラス追跡方法を示すフローチャートである。 本開示の別の例示的な実施形態において提供される、画像におけるレーザ光の衝突点の位置、およびレーザ光の衝突点の位置の周囲に定義される領域を示す概略図である。 本開示のさらに別の例示的な実施形態において提供されるスマートグラス追跡方法を示すフローチャートである。 本開示の別の例示的な実施形態において提供されるスマートグラス追跡装置を示す概略構造図である。 本開示のさらに別の例示的な実施形態において提供されるスマートグラスを示す概略構造図である。 本開示のさらに別の例示的な実施形態において提供されるスマートグラスを示す概略構造図である。 本開示のさらにまた別の例示的な実施形態において提供されるスマートグラスを示す概略構造図である。 本開示のさらにまた別の実施形態において提供されるスマートグラス追跡方法を示すフローチャートである。 本開示の例示的な実施形態による電子デバイスの実施例を示すブロック図である。
本開示の例示的な実施形態が、添付の図面を参照して後段でより詳細に説明される。本開示の例示的な実施形態が添付の図面に示されるものの、本開示は、様々な形態において実施されることが可能であり、本明細書において例示される実施形態に限定されるべきでないことを理解されたい。むしろ、これらの実施形態は、本開示がより徹底的に理解され得るように、かつ本開示の範囲が当業者により完全に伝えられ得るように提供される。
本開示において、「備える」または「有する」などの用語は、この説明において開示される特徴、数、ステップ、動作、構成要素、および部分、あるいはその組合せの存在を示すことを意図しており、他の1つまたは複数の特徴、数、ステップ、動作、構成要素、および部分、あるいはその組合せが存在する可能性を排除することは意図していないことを理解されたい。
本開示において、画像における事前定義された位置または領域は、画像における事前定義された焦点位置または焦点領域と呼ばれてもよく、これに相応して、スマートグラス追跡方法は、スマートグラス焦点追跡方法と呼ばれてもよい。
本開示は、一部の実施形態における実施例としてスマートグラスを使用することによって後段で説明されるものの、当業者は、これらの実施形態におけるスマートグラスは、他のウェアラブルデバイスまたは他の電子デバイスによって置き換えられてもよいものと理解することが可能である。
本開示における実施形態、および実施形態における特徴は、矛盾なしに互いに組み合わされることが可能であることにさらに留意されたい。本開示は、添付の図面を参照して、かつ実施形態と一緒に後段で詳細に説明される。
図1において、本開示の実施形態において提供されるスマートグラス焦点追跡方法が示される。本方法は、
ステップS101:画像をキャプチャした後、画像における1つまたは複数の物体を識別すること、および
ステップS102:画像における事前定義された焦点位置または焦点領域に位置付けられた物体についてユーザに知らせること
を備える。
スマートグラス焦点追跡方法を用いて、画像における物体のすべてではなく、事前定義された焦点位置または焦点領域における物体についてユーザが知らされて、スマートグラスの通知効率、およびユーザ体験が向上させられるようにする。
ステップS101における物体は、任意の物体であってよく、または事前定義された指定された物体であってよい。
さらに、視覚障害のあるユーザが、スマートグラスの焦点が目標物体によく合うようにすることが困難である可能性があり、画像における事前定義された焦点位置または焦点領域に物体が存在しない場合において、本方法は、頭の向きを変えるようユーザに指示してよく、または画像における事前定義された焦点位置もしくは焦点領域に物体が存在しないことをユーザに指示してよい。
頭の向きを変えるよう、または物体が存在しないという指示を聞いた後、ユーザは、物体を探すべくランダムに頭の向きを変えてよい。
さらに、ユーザが物体を探すのを容易にすべく、画像における事前定義された焦点位置または焦点領域に物体が存在しないとき、画像における物体の位置が特定されてよく、かつ物体の位置に向けて頭の向きを変えるようユーザは指示される。例えば、画像における焦点の左側に文字または2次元コードが存在する場合、本方法は、ユーザが頭を左に向けることを可能にすべく、焦点の左側に文字または2次元コードが存在することをユーザに指示してよい。
ユーザが頭の向きを変える間、指示の音は、視覚障害のあるユーザが、頭の向きを変える度合を決定して、焦点をより正確に位置付けるのを容易にするように、画像における事前定義された焦点位置または焦点領域に対する物体の近接性により変化させられてよい。この場合において、ユーザは、物体の指示される位置により頭の向きを変えてよく、またはユーザは、物体を探すべくランダムに頭の向きを変えてよい。
例えば、指示音は、物体が、画像における事前定義された焦点位置または焦点領域とますます近接しているとき、より速くなって、ユーザが、頭の向きを変える方向が正しいかどうか、および頭の向きを変える度合が適正であるかどうかを判定するようにしてよい。代替として、ユーザは、特異性を有する別の音声指示によって、物体がキャプチャ範囲の中心に達したかどうかについて気付かされてよい。
図2に示されるとおり、画像における事前定義された焦点位置は、特に、画像における中心位置であってよい。画像における事前定義された焦点領域は、特に、画像面積全体の1/3から1/2の面積を有する画像の中心における円形領域または長方形領域であってよい。当業者は、実際の条件により画像における事前定義された焦点位置、および画像における事前定義された焦点領域の範囲の初期設定を調整してよく、また、ユーザが、ユーザの使用習慣により画像における事前定義された焦点位置、および画像における事前定義された焦点領域の範囲を調整してもよい。
図3に示される、本開示の別の実施形態において提供されるスマートグラス焦点追跡方法は、
ステップS301:カメラによってキャプチャされた画像を獲得すること、
ステップS302:画像における1つまたは複数の物体を識別すること、
ステップS303:画像における中心位置に物体が存在するかどうかを判定し、存在する場合、ステップS304を実行し、存在しない場合、ステップS305を実行すること、
ステップS304:画像における中心位置における物体についてユーザに音声の形態で知らせること、
ステップS305:画像全体に物体が存在するかどうかを判定し、存在する場合、ステップS306を実行し、存在しない場合、ステップS307を実行すること、
ステップS306:画像における物体の位置を特定し、かつ物体の位置に向けて頭の向きを変えるようユーザに指示すること、および
ステップS307:画像に物体が存在しないことをユーザに指示すること、または頭の向きを変えるようユーザに指示すること
を備える。
ステップS301において、カメラは、通常、スマートグラスが比較的安定した状態にあるとき、画像をキャプチャする。スマートグラスが比較的速い速度で動いている場合、カメラは、通常、画像を全くキャプチャしない。ユーザが頭の向きを変える条件は、スマートグラスの動き速度および加速度を通じて決定されてよい。
ステップS303において、本方法は、画像の中心位置に物体が存在するかどうかだけを判定してよく、また、本方法は、画像の中心位置、および中心位置の周囲の事前定義された領域に物体が存在するかどうかを判定してもよい。
ステップS307において、画像に物体が存在しないことをユーザに指示した後、ユーザは、物体を探すように、指示によりランダムに頭の向きを変えてよい。
また、ユーザは、ステップS306およびステップS307において指示機能をイネーブルにするか、またはディセーブルにするかを決定してもよい。ユーザが指示をイネーブルにしていない場合、ユーザは、物体について知らされない限り、画像に物体が存在しないと判定してよく、次に、ユーザは、物体を探すようにランダムに頭の向きを変えてよい。
スマートグラスを用いて、環境情報について知ることを所望する場合、ユーザは、特定の位置における物体の情報について知るべく頭の向きを変えてよい。例えば、広間に到着した後、広間のレイアウトについて、および広間における物について知ることを所望する場合、視覚障害のあるユーザが、特定の位置における物体の情報について知るべく頭の向きを変えてよい。文字および2次元コードは、特別な情報である。例えば、画像の中心に文字が存在する場合、その文字についてユーザに直接に知らされる。文字が中心領域の左側にある場合、文字が左側にあるという指示が与えられ、ユーザは、左に頭の向きを変えてよく、文字が画像の中心に達したとき、その文字についてユーザに知らされる。
画像における事前定義された焦点位置は、ユーザの設定により印が付けられることも、付けられないことも可能である。通常の視覚を有するユーザによって使用されるウェアラブルデバイス(VRなどの)の場合、画像における事前定義された焦点位置は、ユーザが判定および調整を行うように視覚画像の中心点として点を例示する十字の印が、図2に示されるとおり、付けられてよい。視覚障害のあるユーザの場合、そのような位置は、印が付けられてなくてよい。
同様に、画像における事前定義された焦点領域もまた、ユーザの設定により印が付けられることも、付けられないことも可能である。通常の視覚を有するユーザによって使用されるウェアラブルデバイス(VRなどの)の場合、画像における事前定義された焦点領域は、ユーザが判定および調整を行うように視覚画像の中心領域として領域を例示する、赤い枠などの特別な枠で枠付けされてよい。視覚障害のあるユーザの場合、画像における事前定義された焦点領域は、印が付けられてなくてよい。
画像における事前定義された焦点位置(または画像面積全体の1/3から1/2の面積(比は、調整可能である)を有する、その位置の周囲の領域)に特徴情報(例えば、文字および2次元コードなどの特徴情報)が存在する場合、その情報についてユーザに直接に知らされる。
本開示の或る実施形態が、図4に示されるとおり、
画像をキャプチャした後、画像における1つまたは複数の物体を識別するための識別ユニット401と、
画像における事前定義された焦点位置または焦点領域に位置付けられた物体についてユーザに知らせるための通知ユニット402と
を備えるスマートグラス焦点追跡装置をさらに対応するように提供する。
さらに、通知ユニット402は、
画像における事前定義された焦点位置または焦点領域に物体が存在しないとき、頭の向きを変えるようユーザに指示すること、または画像における事前定義された焦点位置もしくは焦点領域に物体が存在しないことをユーザに指示することのためにさらに使用される。
さらに、画像における事前定義された焦点位置または焦点領域に物体が存在しないとき、通知ユニット402が、頭の向きを変えるようユーザに指示することは、
画像における事前定義された焦点位置または焦点領域に物体が存在しないとき、画像における物体の位置を特定すること、および物体の位置に向けて頭の向きを変えるようユーザに指示することを特に備える。
さらに、通知ユニット402は、
ユーザが頭の向きを変えるとき、画像における事前定義された焦点位置または焦点領域に対する物体の近接性により指示の音を変化させることのためにさらに使用される。
さらに、画像における事前定義された焦点位置は、特に、画像における中心位置である。
画像における事前定義された焦点領域は、特に、画像面積全体の1/3から1/2の面積を有する画像の中心における円形領域または長方形領域である。
本開示の或る実施形態が、図5に示されるとおり、プロセッサ501と、カメラ502と、音声再生装置503とを備えるスマートグラスをさらに提供する。
プロセッサ501は、カメラ502および音声再生装置503に接続される。画像は、カメラ502によってキャプチャされる。画像における1つまたは複数の物体がプロセッサ501によって識別された後、画像における事前定義された焦点位置または焦点領域に位置付けられた物体について、音声再生装置503によってユーザに知らされる。
音声再生装置503は、スピーカであってよい。
さらに、図6に示されるとおり、スマートグラスは、
スマートグラスの動き状態を判定するための慣性センサアセンブリ504をさらに備えてよく、慣性センサアセンブリ504は、プロセッサ501に接続される。
さらに、慣性センサアセンブリ504は、
スマートグラスの動き速度を測定するための速度センサ、
スマートグラスの動き速度を測定するための加速度センサ、および
スマートグラスの垂直軸と垂直線(地球の中心部に向かう線)の間の開先角度の情報を測定するためのジャイロスコープ
のうちの1つまたは組合せを備える。
本開示の実施形態において提供されるスマートグラス焦点追跡方法およびスマートグラス焦点追跡装置、スマートグラス、ならびに記憶媒体を用いて、視野における事前定義された焦点位置または焦点領域における物体についてユーザに知らされて、視野における物体のすべてについてユーザに知らせることを防止するようにすることが可能であり、それが、物体の位置をユーザに指示して、その結果、ユーザが物体を追跡するのを容易にし、かつユーザの使用体験を向上させることが可能である。
図7において、本開示のさらに別の実施形態において提供されるスマートグラス焦点追跡方法が示される。本方法は、
ステップS701:画像をキャプチャし、かつ画像におけるレーザ光の衝突点を検出すること、
ステップS702:画像におけるレーザ光の衝突点における物体を識別すること、および
ステップS703:レーザ光の衝突点における物体についてユーザに知らせること
を備える。
スマートグラス焦点追跡方法を用いて、画像における物体のすべてではなく、レーザ光の衝突点の検出された位置に位置付けられた物体についてユーザに知らされて、スマートグラスの通知効率、およびユーザ体験が向上させられるようにする。
ステップS702における物体は、任意の物体であってよく、または事前定義された指定された物体であってよい。
比較的小さい物体または比較的遠く離れた物体の場合、レーザ光の衝突点は、物体に正確に当たらない可能性があり、この場合において、レーザ光の衝突点の周囲に領域がさらに設定されて、その領域における物体がすべて、直接に識別され、かつそれらの物体についてユーザに知らされて、その結果、ユーザの使用体験をさらに向上させるようにしてよい。
この場合において、本方法は、
画像におけるレーザ光の衝突点の周囲の事前定義された領域における物体を識別すること、および
レーザ光の衝突点の周囲の事前定義された領域における物体についてユーザに知らせること
をさらに備える。
さらに、視覚障害のあるユーザが、スマートグラスの焦点が目標物体によく合うようにすることが困難である可能性があり、画像におけるレーザ光の衝突点に、またはレーザ光の衝突点の周囲の事前定義された領域に物体が存在しない場合において、本方法は、頭の向きを変えるようユーザに指示してよく、または画像におけるレーザ光の衝突点に、またはレーザ光の衝突点の周囲の事前定義された領域に物体が存在しないことをユーザに指示してよい。
通常、画像におけるレーザ光の衝突点に、またはレーザ光の衝突点の周囲の事前定義された領域に物体が存在しないとき、ユーザは、頭の向きを変えるよう指示されてよく、またはレーザ光の衝突点に、もしくはレーザ光の衝突点の周囲の事前定義された領域に物体が存在しないという関連する音声指示がユーザに送られてよい。この場合において、ユーザは、物体を探すように音声指示によりランダムに頭の向きを変えてよい。同様に、画像全体において物体が全く識別されないとき、ユーザは、頭の向きを変えるよう指示されてよく、または画像の領域に物体が存在しないという関連する音声指示がユーザに送られてよい。この場合において、ユーザは、やはり、物体を探すように音声指示によりランダムに頭の向きを変えてもよい。
さらに、画像におけるレーザ光の衝突点に、またはレーザ光の衝突点の周囲の事前定義された領域に物体が存在しないとき、画像における物体の位置が特定され、かつ物体の位置に向けて頭の向きを変えるようユーザは指示される。例えば、画像におけるレーザ光の衝突点の左側に文字または2次元コードが存在する場合、本方法は、ユーザが頭を左に向けることを可能にすべく、レーザ光の衝突点の左側に文字または2次元コードが存在することをユーザに指示してよい。
ユーザが頭の向きを変えるとき、指示の音は、視覚障害のあるユーザが、頭の向きを変える度合を決定して、焦点をより正確に位置付けるのを容易にするように、レーザ光の衝突点、またはレーザ光の衝突点の周囲の事前定義された領域に対する物体の近接性により変化させられてよい。この場合において、ユーザは、物体の指示される位置により頭の向きを変えてよく、またはユーザは、物体を探すべくランダムに頭の向きを変えてよい。
例えば、指示音は、物体が、画像におけるレーザ光の衝突点、またはレーザ光の衝突点の周囲の事前定義された領域とますます近接しているとき、より速くなって、ユーザが、頭の向きを変える方向が正しいかどうか、および頭の向きを変える度合が適正であるかどうかを判定するようにしてよい。代替として、ユーザは、特異性を有する別の音声指示によって、物体がレーザ光の衝突点、またはレーザ光の衝突点の周囲の事前定義された領域に達したかどうかについて気付かされてよい。
ほとんどのユーザの使用習慣により、レーザ光の衝突点が画像の中心領域に位置付けられることが好ましい。しかし、カメラおよびレーザエミッタの角度が比較的固定されているとき、比較的近くの物体と比較的遠く離れた物体に関して、画像におけるレーザ光の衝突点の座標は、厳密に同一でない可能性がある。したがって、レーザ光の衝突点が可能な限り画像の中心領域に位置付けられるという条件付きで、ユーザは、より良好な使用体験を得ることが可能である。
図8に示されるとおり、レーザ光の衝突点は、画像の中心位置にあってよく、レーザ光の衝突点の周囲の事前定義された領域は、特に、画像面積全体の1/3から1/2の面積を有するレーザ光の衝突点の周囲の円形領域または長方形領域であってよい。当業者は、実際の条件によりレーザ光の衝突点、およびレーザ光の衝突点の周囲の事前定義された領域の範囲の初期設定を調整してよく、また、ユーザが、ユーザの使用習慣によりレーザ光の衝突点、およびレーザ光の衝突点の周囲の事前定義された領域の範囲を調整してもよい。
レーザ光が可視赤外線である場合、肉眼に見える赤いスポットが、レーザ光の衝突点に提示される。この場合において、赤いスポットの位置は、キャプチャされた画像において直接に識別されることが可能であり、すなわち、画像におけるレーザ光の衝突点の位置が特定されることが可能である。この場合において、画像をキャプチャし、かつ画像における赤外線レーザスポットを検出するステップS701は、カメラを通じて実行されることが可能である。しかし、可視赤外線が使用されるとき、環境における他の人々に差障りが生じる可能性がある。代わりに、肉眼に見えない光線が使用されてよく、この場合において、画像は、第1のカメラによってキャプチャされてよく、レーザ光の衝突点の位置は、第2のカメラによって検出されてよく、キャプチャされた画像におけるレーザ光の衝突点の位置は、第1のカメラと第2のカメラの間の事前設定された相互関係により特定されてよい。
好ましくは、ステップS701に先立って、スマートグラスの動き速度が事前設定された値より小さいことが判定されてよく、その結果、ユーザの頭の向きを変える間に画像をキャプチャすることに起因してユーザの差障りとなることが回避される。
好ましい実施形態において、図9に示されるとおり、本開示のさらに別の実施形態において提供されるスマートグラス焦点追跡方法は、
ステップS901:第1のカメラによって画像をキャプチャし、かつ第2のカメラによってレーザ光の衝突点の位置を検出すること、
ステップS902:第1のカメラと第2のカメラの間の事前設定された相互関係により、キャプチャされた画像におけるレーザ光の衝突点の位置を特定すること、
ステップS903:レーザ光の衝突点に物体が存在するかどうかを判定し、存在する場合、ステップS904を実行し、存在しない場合、ステップS906を実行すること、
ステップS904:画像におけるレーザ光の衝突点における物体を識別すること、
ステップS905:レーザ光の衝突点における物体についてユーザに知らせること、
ステップS906:画像全体に物体が存在するかどうかを判定し、存在する場合、ステップS907を実行し、存在しない場合、ステップS908を実行すること、
ステップS907:画像における物体とレーザ光の衝突点の間の位置関係を特定し、かつ物体の位置に向けて頭の向きを変えるようユーザに指示すること、および
ステップS908:画像に物体が存在しないことをユーザに指示する、または頭の向きを変えるようユーザに指示すること
を備える。
ステップS901において、カメラは、通常、スマートグラスが比較的安定した状態にあるとき、画像をキャプチャする。スマートグラスが比較的速い速度で動いている場合、カメラは、通常、画像を全くキャプチャしない。ユーザが頭の向きを変える条件は、スマートグラスの動き速度および加速度を通じて決定されてよい。
ステップS903において、本方法は、レーザ光の衝突点に物体が存在するかどうかだけを判定してよく、また、本方法は、レーザ光の衝突点に、およびレーザ光の衝突点の周囲の事前定義された領域に物体が存在するかどうかを判定してもよい。
ステップS908において、画像に物体が存在しないことをユーザに指示した後、ユーザは、物体を探すように、指示によりランダムに頭の向きを変えてよい。
また、ユーザは、ステップS907およびステップS908において指示機能をイネーブルにするか、またはディセーブルにするかを決定してもよい。ユーザが指示をイネーブルにしていない場合、ユーザは、物体について知らされない限り、画像に物体が存在しないと判定してよく、次に、ユーザは、物体を探すようにランダムに頭の向きを変えてよい。
スマートグラスを用いて、環境情報について知ることを所望する場合、ユーザは、特定の位置における物体の情報について知るべく頭の向きを変えてよい。例えば、広間に到着した後、広間のレイアウトについて、および広間における物について知ることを所望する場合、視覚障害のあるユーザが、特定の位置における物体の情報について知るべく頭の向きを変えてよい。文字および2次元コードは、特別な情報である。例えば、レーザ光の衝突点に文字が存在する場合、その文字についてユーザに直接に知らされる。文字がレーザ光の衝突点の左側にある場合、文字が左側にあるという指示が与えられ、ユーザは、左に頭の向きを変えてよく、文字がレーザ光の衝突点に達したとき、その文字についてユーザに知らされる。
画像におけるレーザ光の衝突点の位置は、ユーザの設定により印が付けられることも、付けられないことも可能である。通常の視覚を有するユーザによって使用されるウェアラブルデバイス(VRなどの)の場合、画像における事前定義された焦点位置は、ユーザが判定および調整を行うようにレーザ光の衝突点、すなわち、現在の画像焦点として点を例示する十字の印が、図8に示されるとおり、付けられてよい。視覚障害のあるユーザの場合、そのような位置は、印が付けられてなくてよい。
同様に、画像におけるレーザ光の衝突点の位置の周囲の事前定義された領域もまた、ユーザの設定により印が付けられることも、付けられないことも可能である。通常の視覚を有するユーザによって使用されるウェアラブルデバイス(VRなどの)の場合、レーザ光の衝突点の位置の周囲の事前定義された領域は、ユーザが判定および調整を行うように視覚画像の焦点領域として領域を例示する、赤い枠などの特別な枠で枠付けされてよい。視覚障害のあるユーザの場合、レーザ光の衝突点の位置の周囲の事前定義された領域は、印が付けられてなくてよい。
画像におけるレーザ光の衝突点の位置(または画像面積全体の1/3から1/2の面積(比は、調整可能である)を有する、その位置の周囲の領域)に特徴情報(例えば、文字および2次元コードなどの特徴情報)が存在する場合、その情報についてユーザに直接に知らされてよい。
本開示の或る実施形態は、図10に示されるとおり、
画像をキャプチャするため、および画像におけるレーザ光の衝突点を検出するためのキャプチャリングユニット1001と、
画像におけるレーザ光の衝突点における物体を識別するための識別ユニット1002と、
レーザ光の衝突点における物体についてユーザに知らせるための通知ユニット1003と
を備えるスマートグラス焦点追跡装置をさらに対応するように提供する。
さらに、識別ユニット1002は、
画像におけるレーザ光の衝突点の周囲の事前定義された領域における物体を識別するためにさらに使用される。
通知ユニット1003は、
レーザ光の衝突点の周囲の事前定義された領域における物体についてユーザに知らせるためにさらに使用される。
さらに、通知ユニット1003は、画像におけるレーザ光の衝突点に、またはレーザ光の衝突点の周囲の事前定義された領域に物体が存在しないとき、頭の向きを変えるようユーザに指示するためにさらに使用される。
さらに、通知ユニット1003が、画像におけるレーザ光の衝突点に、またはレーザ光の衝突点の周囲の事前定義された領域に物体が存在しないとき、頭の向きを変えるようユーザに指示することは、特に、
画像におけるレーザ光の衝突点に、またはレーザ光の衝突点の周囲の事前定義された領域に物体が存在しないとき、画像における物体の位置を特定し、かつ物体の位置に向けて頭の向きを変えるようユーザに指示することを備える。
さらに、通知ユニット1003は、
ユーザが、物体の指示される位置に基づいて頭の向きを変えるとき、レーザ光の衝突点、またはレーザ光の衝突点の周囲の事前定義された領域に対する物体の近接性により指示の音を変化させるためにさらに使用される。
好ましくは、レーザ光の衝突点は、画像の中心領域に位置付けられる。
さらに、キャプチャリングユニット1001は、特に、
カメラによって画像をキャプチャし、かつ画像における赤外線レーザスポットを検出すること、または
第1のカメラによって画像をキャプチャし、第2のカメラによってレーザ光の衝突点の位置を検出し、かつ第1のカメラと第2のカメラの間の事前設定された相互関係により、キャプチャされた画像におけるレーザ光の衝突点の位置を特定すること
のために使用される。
好ましくは、キャプチャリングユニット1001は、
画像をキャプチャし、かつ画像におけるレーザ光の衝突点を検出する前に、スマートグラスの動き速度が事前設定された値より小さいと判定するためにさらに使用される。
本開示の或る実施形態は、図11に示されるとおり、
レーザ光を発するためのレーザエミッタ1101と、
画像をキャプチャするため、および画像におけるレーザ光の衝突点を検出するための撮影装置1102と、
画像におけるレーザ光に衝突点における物体を識別するためのプロセッサ1103と、
レーザ光の衝突点における物体についてユーザに知らせるための音声再生装置1104と
を備えるスマートグラスをさらに対応するように提供する。
プロセッサ1103は、撮影装置1102および音声再生装置1104に接続される。
撮影装置1102によって検出されるレーザ光の衝突点は、レーザエミッタ1101によって発せられるレーザ光の衝突点である。
さらに、図12に示されるとおり、撮影装置1102は、特に、
画像をキャプチャするための第1のカメラ11021と、
レーザ光の衝突点を検出するための第2のカメラ11022と
を備える。
プロセッサ1103は、第1のカメラ11021と第2のカメラ11022の間の事前設定された相互関係により、第1のカメラ11021によってキャプチャされた画像において第2のカメラ11022によって検出されたレーザ光の衝突点の位置を特定する。
さらに、レーザエミッタ1101は、撮影装置1102によってキャプチャされた画像の中心領域を指し示す方向でレーザ光を発する。
さらに、レーザエミッタ1101は、赤外線エミッタであってよい。
音声再生装置1104は、ヘッドホンまたはスピーカであってよい。
さらに、図13に示されるとおり、スマートグラスは、
スマートグラスの動き状態を判定するための慣性センサアセンブリ1105をさらに備え、慣性センサアセンブリ1105は、プロセッサ1103に接続される。
さらに、慣性センサアセンブリ1105は、
スマートグラスの動き速度を測定するための速度センサ、
スマートグラスの動き速度を測定するための加速度センサ、および
スマートグラスの垂直軸と垂直線(地球の中心部に向かう線)の間の開先角度の情報を測定するためのジャイロスコープ
のうちの1つまたは組合せを備えてよい。
本開示の実施形態において提供されるスマートグラス焦点追跡方法およびスマートグラス焦点追跡装置、スマートグラス、ならびに記憶媒体を用いて、視野におけるレーザ光の衝突点おける物体についてユーザに知らされて、視野における物体のすべてについてユーザに知らせることを防止するようにすることが可能であり、それが、物体の位置をユーザに指示して、その結果、ユーザが物体を追跡するのを容易にし、かつユーザの使用体験を向上させることが可能である。
本開示の別の実施形態が、スマートグラス追跡方法を提供する。本方法のステップが、図14を参照して以下に詳細に説明される。
ステップS1401において、スマートグラスの動き状態が判定される。
スマートグラスは、スマートグラスの動き状態を判定する、慣性センサなどのセンサを含んでよい。
スマートグラスを装着し、かつモバイルデバイス(モバイル電話およびスマートバンドなどの)も携帯するユーザの場合、モバイルデバイスの動き状態が、スマートグラスの動き状態を近似する。したがって、スマートグラスは、モバイルデバイスからの動き状態情報を受信すべく、ユーザが携帯するモバイルデバイスに無線で接続されてよい。このため、スマートグラスの動き状態は、モバイルデバイスから受信された動き状態情報により判定されてよい。
ステップS1402において、スマートグラスが、スマートグラスの動き状態により、第1の動作モードまたは第2の動作モードに入るように調整される。
スマートグラスの動作モードは、スマートグラスが第1の動作モードまたは第2の動作モードに入っている場合のユーザ(またはスマートグラス)の動き速度により調整されてよい。
例えば、ユーザ(またはスマートグラス)の動き速度が第1の速度範囲内にあるとき、スマートグラスは、第1の動作モードに入るように調整される。ユーザ(またはスマートグラス)の動き速度が第2の速度範囲内にあるとき、スマートグラスは、第2の動作モードに入るように調整される。第1の速度範囲内の速度は、第2の速度範囲内の速度より大きい。代替として、ユーザ(またはスマートグラス)の動き速度が第1の事前設定された値より小さく、かつ第2の事前設定された値より大きいとき、スマートグラスは、第1の動作モードに入るように調整される。ユーザ(またはスマートグラス)の動き速度が第2の事前設定された値より小さいとき、スマートグラスは、第2の動作モードに入るように調整される。
例えば、歩行しているユーザ(特に、視覚障害のあるユーザ)が、スマートグラスが危険を回避するように前方の障害物の情報を提供することを所望することが可能である。この場合において、スマートグラスが、画像における1つまたは複数の物体を識別することができ、画像における事前定義された位置または領域における物体についてユーザに知らせるように、スマートグラスは、第1の動作モードに入るように調整されてよい。画像の中心点、または画像の中央の領域は、ユーザの前方の位置に対応し、したがって、事前定義された位置または領域は、画像の中心点、または画像の中央の領域であってよい。
ユーザが動かずに立っている、またはゆっくり動いているとき、スマートグラスは、画像における事前定義された位置または領域に目標物体が存在するかどうかを判定すべく、第2の動作モードに入るように調整されてよい。目標物体の一例が、2次元コードまたはバーコードであり、目標物体の別の例が、文字、または文字を有する物体である。2次元コードまたは文字が、画像における事前定義された位置または領域にあるとき、スマートグラスは、ユーザに対してその2次元コードを識別してよく、または文字を読み上げてよい。
別の例として、視覚障害のあるユーザが、広間に到着し、広間のレイアウトについて、および広間における物について知ることを所望する。視覚障害のあるユーザは、広間における物体の情報について知るべく頭の向きを変えてよい。この場合において、スマートグラスの動作モードは、ユーザの頭の動き速度により調整されてよい。スマートグラスの動き速度が比較的速いとき、スマートグラスは、スマートグラスが、画像における1つまたは複数の物体を識別するように、かつ画像における事前定義された位置または領域における物体についてユーザに知らせるように、第1の動作モードに入れられてよい。グラスの動き速度が、ユーザの頭がゆっくりと動いていることを示す、比較的遅いものであるとき、グラスは、画像における事前定義された位置または領域に目標物体、例えば、文字または2次元コードなどの特別な情報が存在するかどうかを判定すべく、第2の動作モードに入るように調整される。
画像における事前定義された領域は、例えば、画像の中央の円形領域または長方形領域であり、かつ画像全体の面積に対する事前定義された領域の面積の比は、1/3から1/2、または他の任意の値であってよい。
ステップS1403において、カメラによってキャプチャされた画像が獲得される。
ステップS1404において、カメラによってキャプチャされた画像における1つまたは複数の物体が識別される。
スマートグラスは、従来技術における任意の方法を使用することによって画像における1つまたは複数の物体を識別してよい。代替として、スマートグラスは、ユーザが携帯するモバイルデバイスに画像を送って、モバイルデバイスが、画像における1つまたは複数の物体を識別するようにしてよい。次に、スマートグラスが、モバイルデバイスから識別結果を受信する。
ステップS1405において、画像における事前定義された位置または領域に物体が存在するかどうかが判定され、存在する場合、ステップS1406が実行され、存在しない場合、ステップS1407が実行される。
例として、画像における事前定義された位置または領域に物体が存在するかどうかを判定することは、スマートグラスが第1の動作モードに入っているとき、画像識別結果により、識別された物体から、ユーザに知らせられるべき画像における事前定義された位置または領域における物体を選択すること、およびグラスが第2の動作モードに入っているとき、画像における事前定義された位置または領域に目標物体が存在するかどうかを判定することを含んでよい。目標物体は、例えば、2次元コードまたは文字であり、ユーザによって事前設定されてよい。
事前定義された位置または領域は、画像の中心点、または画像の中央の領域であってよい。
ステップS1406において、画像における事前定義された位置または領域における物体について音声の形態でユーザに知らされてよい。
画像における事前定義された位置または領域における物体について音声の形態でユーザに知らせることは、グラスが第1の動作モードに入っているとき、画像における事前定義された位置または領域における物体について音声の形態でユーザに知らせること、およびスマートグラスが第2の動作モードに入っているとき、目標物体について音声の形態でユーザに知らせることを含んでよい。
ステップS1407において、画像全体に物体が存在するかどうかが判定され、存在する場合、ステップS1408が実行され、存在しない場合、ステップS1409が実行される。
スマートグラスが第2の動作モードに入っているとき、画像における事前定義された位置または領域に目標物体が存在しない場合、特定の指示音が、ユーザのために生成されてよく、かつその間、画像の他の位置に目標物体が存在するかどうかが判定されてよい。
スマートグラスが第1の動作モードに入っているとき、ステップS1407および後続のステップは、実行されなくてよい。
ステップS1408において、画像における物体の位置が特定され、かつ物体の位置に向けて頭の向きを変えるようユーザは指示される。
画像における別の位置に目標物体が存在するとき、スマートグラスの動き方向が、目標物体と画像における事前定義された位置または領域の間の相対位置関係により決定され、その方向に動くようユーザは指示される。
指示が行われた後、ユーザがゆっくり動く場合、このことは、ユーザが目標物体をさらに位置付けることを所望することを示し、そうではなく、ユーザが迅速に動く場合、このことは、ユーザが目標物体をさらに位置付けることを所望しないことを示す。
したがって、スマートグラスが動いている間、スマートグラスの動き速度が測定されてよい。スマートグラスの動き速度が第3の事前設定された値より小さいとき、カメラは、所定の時間間隔でさらなる1つまたは複数の画像をキャプチャしてよい。スマートグラスは、キャプチャされた画像における目標物体と事前定義された位置または領域の間の距離を計算し、かつ計算された距離により、生成される指示音の周波数および/または音量を変化させてよい。このプロセスは、キャプチャされた画像が、その画像における事前定義された位置または領域に目標物体を含むまで続く。
ステップS1409において、画像に物体が存在しないことをユーザは指示される。
また、画像における事前定義された位置または領域は、他の方法を使用することによって特定されてもよい。例えば、レーザが、レーザ光を発するために使用されてよい。レーザ光の衝突点が、事前定義された位置に対応する。レーザ光の衝突点の周囲の領域が、事前定義された領域に対応する。カメラまたは光電子検出器が、画像における事前定義された位置または領域における物体(例えば、目標物体)とスマートグラスの間の距離を測定すべく、反射されたレーザ光を検出するのに使用されてよい。
レーザによって発せられる光が可視光であるとき、画像におけるレーザ光の位置が、事前定義された位置と解釈されてよい。レーザによって発せられる光が不可視光であるとき、キャプチャされた画像におけるレーザ光の衝突点の対応する位置が、キャプチャされた画像のためのカメラと反射されたレーザ光を検出するためのカメラの間の事前設定された相互関係により特定されてよく、その位置が、画像における事前定義された位置と解釈される。
添付の図面におけるフローチャートおよびブロック図は、本開示の様々な実施形態による方法、装置、およびコンピュータ可読記憶媒体の可能な実装形態のシステムアーキテクチャ、機能、および動作を例示する。フローチャートにおけるブロックによって表されるステップは、必ずしも、数字によって示される順序で実行されず、ときとして、基本的に並行して実行されてよく、またはときとして、逆の順序で実行されてよく、このことは、関連する機能に依存することに留意されたい。また、ブロック図および/またはフローチャートにおける各ブロック、ならびにブロック図および/またはフローチャートにおけるブロックの組合せは、指定された機能もしくは動作を実行するハードウェアによって実装されても、ハードウェアとコンピュータ命令の組合せによって実装されてもよいことにも留意されたい。
本開示の実施形態において説明される関連するユニットまたはモジュールは、ソフトウェアを用いて実装されても、ハードウェアを用いて実装されてもよい。
前述した実施形態の説明を通じて、当業者は、これらの実施形態は、ソフトウェア、および必要な一般的なハードウェアプラットフォームによって実施されることが可能であることを、明確に理解し得る。無論、これらの実施形態は、ハードウェアにおいて実施されることも可能である。そのような理解に基づいて、前述の技術的ソリューションは、実質的に、または従来技術に寄与する前述の技術的ソリューションの部分が、ソフトウェア製品の形態で実施されることが可能であり、コンピュータデバイス(パーソナルコンピュータ、サーバ、またはネットワークデバイスその他であることが可能な)が実施形態における方法、または実施形態の部分を実行することを可能にする命令を含むコンピュータソフトウェア製品が、ROM/RAM、磁気ディスク、または光ディスクなどのコンピュータ可読記憶媒体に記憶されることが可能である。
図15は、本開示の例示的な実施形態による電子デバイスの実施例を示すブロック図である。電子デバイスは、視覚障害者支援デバイスであってよい。視覚障害者支援デバイスは、スマートグラス、またはスマートグラスの構成要素であってよい。図15に示される構造は、実施例に過ぎず、特定の実装形態により、本開示における電子デバイスは、図15に示される構成部分のうちの1つまたは複数だけを含んでよいことに留意されたい。
電子デバイス2000は、画像を撮影し、撮影された画像を処理し、かつ処理することを通じて獲得されたデータに応答してオーディオ指示をもたらすように構成されてよい。例えば、電子デバイス2000は、画像を撮影し、文字データを獲得すべく画像に対して文字検出および/または文字認識を実行し、文字データを音声データに変換し、ユーザが聴くように音声データを出力するように構成されてよい。
一部の実装形態によれば、電子デバイス2000は、ユーザの視野をほとんど含む画像が撮影されることが可能であるように眼鏡フレームを含むように構成されてよく、または眼鏡フレーム(例えば、眼鏡フレームの縁、2つの縁を接続する接続部品、眼鏡のつる、もしくは他の任意の部分)上に着脱可能に取り付けられるように構成されてよい。
一部の実装形態によれば、電子デバイス2000は、別のウェアラブルデバイスに取り付けられてもよく、または別のウェアラブルデバイスに組み込まれてもよい。ウェアラブルデバイスは、例えば、頭部装着型デバイス(例えば、ヘルメットまたは帽子)、耳に装着されることが可能なデバイス、その他であってよい。一部の実施形態によれば、電子デバイスは、ウェアラブルデバイスに付加されたアクセサリ、例えば、ヘルメットもしくは帽子に付加されたアクセサリ、その他として実装されてよい。
電子デバイス2000は、画像をキャプチャするためのカメラ2004を備えてよい。電子デバイス2000は、文字認識回路2005をさらに備えてよく、文字認識回路2005は、文字データを獲得するように画像に包含される文字に対して文字検出および/または文字認識(例えば、OCR処理)を実行するように構成される。文字認識回路2005は、例えば、専用のチップによって実装されてよい。電子デバイス2000は、音声変換回路2006をさらに備えてよく、音声変換回路2006は、文字データを音声データに変換するように構成される。音声変換回路2006は、例えば、専用のチップによって実装されてよい。電子デバイス2000は、音声出力回路2007をさらに備えてよく、音声出力回路2007は、音声データを出力するように構成される。音声出力回路2007は、ヘッドホン、スピーカ、または振動器、その他、およびそれに対応する駆動回路を含んでよいが、以上には限定されない。電子デバイス2000は、追跡回路(電子回路)2100をさらに備えてよく、追跡回路(電子回路)2100は、前述したスマートグラス追跡方法のステップ(例えば、図1、図3、図7、図9、および図14のフローチャートに示される方法ステップ)を実行するように構成された回路を含む。
一部の実装形態によれば、電子デバイス2000は、画像処理回路2008をさらに備えてよく、画像処理回路2008は、画像に対して様々な画像処理を実行するように構成された回路を備えてよい。画像処理回路2008は、例えば、画像に対してノイズ低減を実行するように構成された回路、画像に対して非ファジー化を実行するように構成された回路、画像に対して幾何補正を実行するように構成された回路、画像に対して特徴抽出を実行するように構成された回路、画像における物体に対して物体検出および/または物体識別を実行するように構成された回路、画像に包含される文字に対して文字検出を実行するように構成された回路、画像からテキスト行を抽出するように構成された回路、画像から文字座標を抽出するように構成された回路、画像から物体ボックスを抽出するように構成された回路、画像からテキストボックスを抽出するように構成された回路、画像に基づいてレイアウト解析(例えば、段落分割)を実行するように構成された回路、その他のうちの1つまたは複数を含んでよいが、以上には限定されない。
一部の実装形態によれば、電子デバイス2000は、文字処理回路2009をさらに備えてよく、文字処理回路2009は、段落並べ替え結果、文字意味解析結果、およびレイアウト解析結果などの処理結果を獲得するように、抽出された文字関連の情報(例えば、文字データ、テキストボックス、段落座標、テキスト行座標、および文字座標)に基づいて様々な処理を実行するように構成されてよい。
前述の様々な回路(例えば、文字認識回路2005、音声変換回路2006、音声出力回路2007、画像処理回路2008、文字処理回路2009、および追跡回路2100)のうちの1つまたは複数が、カスタムハードウェア、および/もしくはハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、または以上の任意の組合せを使用することによって実装されてよい。例えば、前述した回路のうちの1つまたは複数が、本開示と整合性のあるロジックおよびアルゴリズムを使用することによって、アセンブリ言語またはハードウェアプログラミング言語(VERILOG、VHDL、およびC++などの)でハードウェア(例えば、フィールドプログラマブルゲートアレイ(FPGA)および/またはプログラマブルロジックアレイ(PLA)を含むプログラマブルロジック回路)をプログラミングすることによって実装されてよい。
一部の実装形態によれば、電子デバイス2000は、通信回路2010をさらに備えてよい。通信回路2010は、外部デバイスおよび/またはネットワークを相手にした通信を可能にする任意のタイプのデバイスまたはシステムであってよく、Bluetooth(登録商標)デバイス、1302.11デバイス、WiFiデバイス、WiMaxデバイス、セルラ通信デバイス、および/またはこれに類似したものなどのモデム、ネットワークカード、赤外線通信デバイス、無線通信デバイス、および/またはチップセットを含んでよいが、以上には限定されない。
一部の実装形態によれば、電子デバイス2000は、入力デバイス2011をさらに備えてよい。入力デバイス2011は、電子デバイス2000に情報を入力することができる任意のタイプのデバイスであってよく、かつ様々なセンサ、マウス、キーボード、タッチスクリーン、ボタン、ジョイスティック、マイクロホン、および/またはリモートコントローラ、その他を含んでよいが、以上には限定されない。
一部の実装形態によれば、電子デバイス2000は、出力デバイス2012をさらに備えてよい。出力デバイス2012は、情報を提示することができる任意のタイプのデバイスであってよく、ディスプレイ、ビジュアル出力端末、振動器、および/またはプリンタ、その他を含んでよいが、以上には限定されない。電子デバイス2000は、一部の実施形態による視覚障害者支援デバイスのために使用されるものの、視覚ベースの出力デバイスは、ユーザの家族、メンテナンス係員、その他が電子デバイス2000から出力情報を獲得するのを容易にすることが可能である。
一部の実装形態によれば、電子デバイス2000は、プロセッサ2001をさらに備えてよい。プロセッサ2001は、任意のタイプのプロセッサであってよく、かつ1つまたは複数の汎用プロセッサおよび/または1つまたは複数の専用プロセッサ(例えば、特別処理チップ)を含んでよいが、以上には限定されない。プロセッサ2001は、例えば、中央処理装置(CPU)またはマイクロプロセッサユニット(MPU)であってよいが、これらには限定されない。電子デバイス2000は、作業メモリ2002をさらに備えてよい。作業メモリ2002は、プロセッサ2001の作業に役立つプログラム(命令を含む)および/またはデータ(例えば、画像、文字、音声、およびその他の中間データ)を記憶する作業メモリであってよく、かつランダムアクセスメモリデバイスおよび/または読取り専用メモリデバイスを含んでよいが、これらには限定されない。電子デバイス2000は、ストレージデバイス2003をさらに備えてよい。ストレージデバイス2003は、任意の非遷移的ストレージデバイスを備えてよい。非遷移的ストレージデバイスは、非遷移的であってよく、データ記憶を実施することができる任意のストレージデバイスであってよく、かつディスクドライブ、光ストレージデバイス、ソリッドステートメモリ、フロッピディスク、フレキシブルディスク、ハードディスク、磁気テープもしくは他の任意の磁気媒体、光ディスクもしくは他の任意の光媒体、読取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、キャッシュメモリ、および/または他の任意のメモリチップもしくはメモリカートリッジ、ならびに/あるいはコンピュータがデータ、命令、および/またはコードを読み取ることができる他の任意の媒体を含んでよいが、以上には限定されない。作業メモリ2002およびストレージデバイス2003は、ひとまとめにして「メモリ」と呼ばれてよく、かつ一部の事例において互換的に使用されてよい。
一部の実装形態によれば、プロセッサ2001は、カメラ2004、文字認識回路2005、音声変換回路2006、音声出力回路2007、画像処理回路2008、文字処理回路2009、通信回路2010、追跡回路(電子回路)2100、ならびに電子デバイス2000における他の様々な装置および回路のうちの少なくとも1つを制御し、かつスケジュール設定してよい。一部の実装形態によれば、図15において説明される構成部分の少なくともいくつかは、バス2013を通じて互いに接続されてよく、かつ/または互いに通信してよい。
ソフトウェア要素(プログラム)は、作業メモリ2002内に配置されてよく、かつオペレーティングシステム2002a、1つもしくは複数のアプリケーションプログラム2002b、ドライバ、ならびに/または他のデータおよびコードを含んでよいが、以上には限定されない。
一部の実装形態によれば、前述した制御およびスケジュール設定のための命令は、オペレーティングシステム2002a、または1つもしくは複数のアプリケーションプログラム2002bに備えられてよい。
一部の実装形態によれば、本開示において説明される方法ステップ(例えば、図1、図3、図7、図9、および図14のフローチャートに示される方法ステップ)を実行するための命令は、1つまたは複数のアプリケーションプログラム2002bに含められてよく、電子デバイス2000の前述したモジュールは、1つまたは複数のアプリケーションプログラム2002bの命令を読み取り、かつ実行するプロセッサ2001によって実装されてよい。言い換えると、電子デバイス2000は、プロセッサ2001と、プログラムを記憶するメモリ(例えば、作業メモリ2002および/またはストレージデバイス2003)とを備えてよく、プログラムは、プロセッサ2001によって実行されたとき、プロセッサ2001に、本開示の様々な実施形態の方法を実行させる命令を備える。
一部の実装形態によれば、文字認識回路2005、音声変換回路2006、画像処理回路2008、文字処理回路2009、および追跡回路(電子回路)2100のうちの少なくとも1つによって実行される動作のいくつか、またはすべては、1つまたは複数のアプリケーションプログラム2002の命令を読み取り、かつ実行するプロセッサ2001によって実装されてよい。
ソフトウェア要素(プログラム)の命令の実行可能コードまたはソースコードが、非遷移的コンピュータ可読記憶媒体(例えば、ストレージデバイス2003)に記憶されてよく、かつ実行されたとき、作業メモリ2001に記憶されてよい(コンパイルされてよく、かつ/またはインストールされてよい)。したがって、本開示は、プログラムを記憶するコンピュータ可読記憶媒体を提供し、プログラムは、電子デバイス(例えば、視覚障害者支援デバイス)のプロセッサによって実行されたとき、電子デバイスに、本開示の様々な実施形態の方法を実行させる命令を含む。別の実装形態によれば、ソフトウェア要素(プログラム)の命令の実行可能コードまたはソースコードは、遠隔位置からダウンロードされてもよい。
また、特定の要件により、様々な変形形態が作成されてよいことも認識されたい。例えば、カスタムハードウェアが使用されてもよく、かつ/または様々な回路、ユニット、モジュール、または要素が、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、または以上の任意の組合せにおいて実装されてよい。例えば、開示される方法およびデバイスに備えられる回路、ユニット、モジュール、または要素のいくつか、またはすべてが、本開示と整合性のあるロジックおよびアルゴリズムを使用することによってアセンブリ言語またはハードウェアプログラミング言語(VERILOG、VHDL、およびC++などの)でハードウェア(例えば、フィールドプログラマブルゲートアレイ(FPGA)および/またはプログラマブルロジックアレイ(PLA)を含むプログラマブルロジック回路)をプログラミングすることによって実装されてよい。
一部の実装形態によれば、電子デバイス2000におけるプロセッサ2001は、ネットワーク上で分散されてよい。例えば、いくらかの処理が、1つのプロセッサによって実行されてよい一方で、他の処理が、その1つのプロセッサから離れた別のプロセッサによって実行されてよい。また、電子デバイス2001の他のモジュールが、同様に分散されてもよい。このため、電子デバイス2001は、複数の位置において処理を実行する分散コンピューティングシステムとして実装されることが可能である。
本開示の態様は、以下の列挙される例示的な実施形態(EEE)から理解されることが可能である。
EEE1 画像をキャプチャした後、画像における1つまたは複数の物体を識別するステップ、および
画像における事前定義された焦点位置または焦点領域に位置付けられた物体についてユーザに知らせるステップ
を備えるスマートグラス焦点追跡方法。
EEE2 画像における事前定義された焦点位置または焦点領域に物体が存在しないとき、頭の向きを変えるようユーザに指示するステップ、または画像における事前定義された焦点位置もしくは焦点領域に物体が存在しないことをユーザに指示するステップをさらに備えるEEE1による方法。
EEE3 画像における事前定義された焦点位置または焦点領域に物体が存在しないとき、頭の向きを変えるようユーザに指示するステップが、
画像における事前定義された焦点位置または焦点領域に物体が存在しないとき、画像における物体の位置を特定するステップ、および物体の位置に向けて頭の向きを変えるようユーザに指示するステップを備える、EEE2による方法。
EEE4 ユーザが頭の向きを変えるとき、画像における事前定義された焦点位置または焦点領域に対する物体の近接性により指示の音を変化させるステップをさらに備えるEEE2による方法。
EEE5 画像における事前定義された焦点位置が、画像における中心位置であり、かつ
画像における事前定義された焦点領域が、画像全体の面積の1/3から1/2の面積を有する画像の中心における円形領域または長方形領域である、EEE1による方法。
EEE6 画像をキャプチャした後、画像における1つまたは複数の物体を識別するための識別ユニットと、
画像における事前定義された焦点位置または焦点領域に位置付けられた物体についてユーザに知らせるための通知ユニットと
を備えるスマートグラス焦点追跡装置。
EEE7 通知ユニットが、画像における事前定義された焦点位置または焦点領域に物体が存在しないとき、頭の向きを変えるようユーザに指示すること、または画像における事前定義された焦点位置もしくは焦点領域に物体が存在しないことをユーザに指示することのためにさらに使用される、EEE6による装置。
EEE8 画像における事前定義された焦点位置または焦点領域に物体が存在しないとき、頭の向きを変えるようユーザに指示することが、
画像における事前定義された焦点位置または焦点領域に物体が存在しないとき、画像における物体の位置を特定すること、および物体の位置に向けて頭の向きを変えるようユーザに指示することを備える、EEE7による装置。
EEE9 通知ユニットが、
ユーザが頭の向きを変えるとき、画像における事前定義された焦点位置または焦点領域に対する物体の近接性により指示の音を変化させることのためにさらに使用される、EEE7による装置。
EEE10 画像における事前定義された焦点位置が、画像における中心位置であり、かつ
画像における事前定義された焦点領域が、画像全体の面積の1/3から1/2の面積を有する画像の中心における円形領域または長方形領域である、EEE6による装置。
EEE11 プロセッサと、カメラと、音声再生装置とを備えるスマートグラスであって、
プロセッサが、カメラを使用することによって画像をキャプチャすべく、かつ画像における1つまたは複数の物体を識別した後、画像における事前定義された焦点位置または焦点領域に位置付けられた物体について、音声再生装置を使用することによってユーザに知らせるべく、カメラおよび音声再生装置に接続される、スマートグラス。
EEE12 音声再生装置が、スピーカである、EEE11によるスマートグラス。
EEE13 スマートグラスの動き状態を判定するための慣性センサアセンブリをさらに備え、慣性センサアセンブリが、プロセッサに接続される、EEE11によるスマートグラス。
EEE14 慣性センサアセンブリが、
スマートグラスの動き速度を測定するための速度センサ、
スマートグラスの動き速度を測定するための加速度センサ、および
スマートグラスの垂直軸と地球の中心部に向かう垂直線の間の開先角度の情報を測定するためのジャイロスコープのうちの1つまたは組合せを備える、EEE13によるスマートグラス。
EEE15 コンピュータプログラムを記憶しているコンピュータ可読記憶媒体であって、コンピュータプログラムが、EEE1からEEE5の方法を実施するために使用される、コンピュータ可読記憶媒体。
EEE16 画像をキャプチャし、かつ画像におけるレーザ光の衝突点を検出するステップ、
画像におけるレーザ光の衝突点における物体を識別するステップ、および
レーザ光の衝突点における物体についてユーザに知らせるステップ
を備えるスマートグラス焦点追跡方法。
EEE17 画像におけるレーザ光の衝突点の周囲の事前定義された領域における物体を識別するステップ、および
レーザ光の衝突点の周囲の事前定義された領域における物体についてユーザに知らせるステップ
をさらに備えるEEE16による方法。
EEE18 画像におけるレーザ光の衝突点に、またはレーザ光の衝突点の周囲の事前定義された領域に物体が存在しないとき、頭の向きを変えるようユーザに指示するステップ、または画像におけるレーザ光の衝突点に、もしくはレーザ光の衝突点の周囲の事前定義された領域に物体が存在しないことをユーザに指示するステップをさらに備えるEEE17による方法。
EEE19 画像におけるレーザ光の衝突点に、またはレーザ光の衝突点の周囲の事前定義された領域に物体が存在しないとき、頭の向きを変えるようユーザに指示するステップが、
画像におけるレーザ光の衝突点に、またはレーザ光の衝突点の周囲の事前定義された領域に物体が存在しないとき、画像における物体の位置を特定し、かつ物体の位置に向けて頭の向きを変えるようユーザに指示するステップを備える、EEE18による方法。
EEE20 ユーザが頭の向きを変えるとき、レーザ光の衝突点、またはレーザ光の衝突点の周囲の事前定義された領域に対する物体の近接性により指示の音を変化させるステップをさらに備えるEEE18による方法。
EEE21 レーザ光の衝突点が、画像の中心領域に位置付けられる、EEE16による方法。
EEE22 画像をキャプチャし、かつ画像におけるレーザ光の衝突点を検出するステップが、
カメラによって画像をキャプチャし、かつ画像における赤外線レーザスポットを検出するステップ、または
第1のカメラによって画像をキャプチャし、第2のカメラによってレーザ光の衝突点の位置を検出し、かつ第1のカメラと第2のカメラの間の事前設定された相互関係により、キャプチャされた画像におけるレーザ光の衝突点の位置を特定するステップを備える、EEE16による方法。
EEE23 画像をキャプチャし、かつ画像におけるレーザ光の衝突点を検出する前に、スマートグラスの動き速度が事前設定された値より小さいと判定するステップをさらに備えるEEE16による方法。
EEE24 画像をキャプチャするため、および画像におけるレーザ光の衝突点を検出するためのキャプチャリングユニットと、
画像におけるレーザ光の衝突点における物体を識別するための識別ユニットと、
レーザ光の衝突点における物体についてユーザに知らせるための通知ユニットと
を備えるスマートグラス焦点追跡装置。
EEE25 レーザ光を発するためのレーザエミッタと、
画像をキャプチャするため、および画像におけるレーザ光の衝突点を検出するための撮影装置と、
画像におけるレーザ光に衝突点における物体を識別するためのプロセッサと、
レーザ光の衝突点における物体についてユーザに知らせるための音声再生装置とを備えるスマートグラスであって、
プロセッサが、撮影装置および音声再生装置に接続される、スマートグラス。
EEE26 撮影装置が、
画像をキャプチャするための第1のカメラと、
レーザ光の衝突点を検出するための第2のカメラと
を備える、スマートグラスであって、
プロセッサが、第1のカメラと第2のカメラの間の事前設定された相互関係により、第1のカメラによってキャプチャされた画像において第2のカメラによって検出されたレーザ光の衝突点の位置を特定する、EEE25によるスマートグラス。
EEE27 レーザエミッタが、撮影装置によってキャプチャされた画像の中心領域を指し示す方向でレーザ光を発する、EEE25によるスマートグラス。
EEE28 レーザエミッタが、赤外線エミッタである、EEE25によるスマートグラス。
EEE29 音声再生装置が、ヘッドホンまたはスピーカである、EEE25によるスマートグラス。
EEE30 スマートグラスの動き状態を判定するための慣性センサアセンブリをさらに備えるスマートグラスであって、慣性センサアセンブリが、プロセッサに接続される、EEE25によるスマートグラス。
EEE31 慣性センサアセンブリが、
スマートグラスの動き速度を測定するための速度センサ、
スマートグラスの動き速度を測定するための加速度センサ、および
スマートグラスの垂直軸と地球の中心部に向かう垂直線の間の開先角度の情報を測定するためのジャイロスコープ
のうちの1つまたは組合せを備える、EEE30によるスマートグラス。
EEE32 コンピュータプログラムを記憶しているコンピュータ可読記憶媒体であって、コンピュータプログラムが、EEE16からEEE23の方法を実施するために使用される、コンピュータ可読記憶媒体。
本開示の実施形態または実施例は、添付の図面を参照して説明されてきたものの、前段で説明される方法、システム、およびデバイスは、例示的な実施形態または実施例に過ぎず、本開示の範囲は、それらの実施形態または実施例によって限定されるのではなく、添付の許可された特許請求の範囲、およびその均等の範囲によってのみ規定されることを認識されたい。それらの実施形態または実施例における様々な要素は、省かれてよく、またはそれらと均等の要素によって置き換えられてよい。さらに、ステップは、本開示において説明されるのとは異なる順序で実行されてよい。さらに、それらの実施形態または実施例における様々な要素は、様々な様態で組み合わされてよい。技術が進化するにつれ、本明細書において説明される多くの要素が、本開示より後に出現する均等の要素で置き換えられてよいことが重要である。
401 識別ユニット
402 通知ユニット
501 プロセッサ
502 カメラ
503 音声再生装置
504 慣性センサアセンブリ
1001 キャプチャリングユニット
1002 識別ユニット
1003 通知ユニット
1101 レーザエミッタ
1102 撮影装置
11021 第1のカメラ
11022 第2のカメラ
1103 プロセッサ
1104 音声再生装置
1105 慣性センサアセンブリ
2000 電子デバイス
2001 プロセッサ
2002 作業メモリ
2002a オペレーティングシステム
2002b アプリケーションプログラム
2003 ストレージデバイス
2004 カメラ
2005 文字認識回路
2006 音声変換回路
2007 音声出力回路
2008 画像処理回路
2009 文字処理回路
2010 通信回路
2011 入力デバイス
2012 出力デバイス
2013 バス
2100 追跡回路

Claims (14)

  1. 画像をキャプチャするステップと、
    前記画像における1つまたは複数の物体を識別するステップと、
    前記画像における事前定義された位置または領域に位置付けられた物体についてユーザに知らせるステップと
    を備えるスマートグラス追跡方法。
  2. 前記画像における前記事前定義された位置または領域に物体が存在しないとき、頭の向きを変えるよう前記ユーザに指示するステップ、または前記画像における前記事前定義された位置もしくは領域に物体が存在しないことを前記ユーザに指示するステップをさらに備える請求項1に記載の方法。
  3. 前記画像における前記事前定義された位置または領域に物体が存在しないとき、前記頭の向きを変えるよう前記ユーザに指示するステップは、
    前記画像における前記事前定義された位置または領域に物体が存在しないとき、前記画像における物体の位置を特定し、かつ前記物体の前記位置に向けて前記頭の向きを変えるよう前記ユーザに指示するステップを備える、請求項2に記載の方法。
  4. 前記ユーザが前記頭の向きを変えるとき、前記画像における前記事前定義された位置または領域に対する前記物体の近接性により前記指示するステップのための音を変化させるステップをさらに備える請求項2または3に記載の方法。
  5. 前記画像における前記事前定義された位置は、前記画像における中心位置であり、かつ
    前記画像における前記事前定義された領域は、前記画像の面積の1/3から1/2の面積を有する前記画像の中心における円形領域または長方形領域である、請求項1〜4のいずれか一項に記載の方法。
  6. レーザ光を発するステップをさらに備える方法であって、
    前記レーザ光は、可視光であり、かつ前記画像における前記事前定義された位置は、前記レーザ光が位置付けられる前記画像における位置である、請求項1〜5のいずれか一項に記載の方法。
  7. レーザによってレーザ光を発するステップと、
    第1のカメラによって前記画像をキャプチャするステップと、
    第2のカメラによって前記レーザ光の衝突点の位置を検出するステップと、
    前記第1のカメラと前記第2のカメラの間の事前設定された相互関係により、前記画像における前記事前定義された位置として、前記キャプチャされた画像における前記レーザ光の前記衝突点の対応する位置を特定するステップとをさらに備える請求項1〜6のいずれか一項に記載の方法。
  8. 前記画像をキャプチャするステップは、前記スマートグラスの動き速度が第1の事前設定された値より小さいことに応答して前記画像をキャプチャするステップを備える、請求項1〜7のいずれか一項に記載の方法。
  9. 前記画像における前記事前定義された位置または領域に位置付けられた前記物体について前記ユーザに知らせるステップは、
    前記識別するステップの結果により、かつ前記識別された物体から、前記ユーザに知らせられるべき前記画像における前記事前定義された位置または領域に位置付けられた前記物体を選択するステップを備える、請求項1〜8のいずれか一項に記載の方法。
  10. 前記識別するステップの前記結果により、前記画像における前記事前定義された位置または領域に目標物体が存在するかどうかを判定するステップと、
    前記画像における前記事前定義された位置または領域に目標物体が存在しないことに応答して、前記画像における別の位置または領域に前記目標物体が存在するかどうかを判定するステップと、
    前記画像における前記別の位置または領域に前記目標物体が存在すると判定したことに応答して、前記スマートグラスを動かすための方向を決定するステップと、
    前記スマートグラスを動かすための前記方向により、前記方向で動くよう前記ユーザに指示する指示音を生成するステップとをさらに備える請求項1〜9のいずれか一項に記載の方法。
  11. 前記スマートグラスを動かしている間、所定の時間間隔で複数のさらなる画像をキャプチャするステップと、
    前記複数のさらなる画像のそれぞれに関して、
    前記目標物体と前記事前定義された位置または領域の間の距離を計算するステップと、
    前記計算された距離により前記生成された指示音の周波数および/または音量を変化させるステップとをさらに備える請求項10に記載の方法。
  12. 前記スマートグラスが第2の事前設定された値より大きい動き速度を有することに応答して、前記スマートグラスを第1の動作モードに入るように調整するステップと、
    前記スマートグラスの前記動き速度が前記第2の事前設定された値より小さいことに応答して、前記スマートグラスを第2の動作モードに入るように調整するステップと、
    前記スマートグラスが前記第1の動作モードに入っていることに応答して、前記識別するステップの前記結果により、かつ前記識別された物体から、前記ユーザに知らせられるべき前記画像における前記事前定義された位置または領域に位置付けられた前記物体を選択するステップと、
    前記スマートグラスが前記第2の動作モードに入っていることに応答して、前記識別するステップの前記結果により、前記画像における前記事前定義された位置または領域に前記目標物体が存在するかどうかを判定するステップとをさらに備える請求項1〜11のいずれか一項に記載の方法。
  13. プロセッサと、
    メモリと
    を備えるスマートグラスであって、
    前記メモリは、前記プロセッサによって実行されたとき、スマートグラスに請求項1〜12のいずれか一項に記載の方法を実行させるプログラム命令を記憶している、スマートグラス。
  14. スマートグラスのプロセッサによって実行されたとき、スマートグラスに請求項1〜12のいずれか一項に記載の方法を実行させるプログラム命令を記憶して備えるコンピュータ可読記憶媒体。
JP2019175346A 2018-09-26 2019-09-26 スマートグラスのための追跡方法および追跡装置、スマートグラス、ならびに記憶媒体 Active JP6734602B2 (ja)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
CN201811124758.0A CN110955043A (zh) 2018-09-26 2018-09-26 一种智能眼镜焦点跟踪方法、装置及智能眼镜、存储介质
CN201811124758.0 2018-09-26
CN201821572786.4U CN208722145U (zh) 2018-09-26 2018-09-26 一种智能眼镜焦点跟踪装置及智能眼镜
CN201821572786.4 2018-09-26
CN201821571798.5U CN208689267U (zh) 2018-09-26 2018-09-26 一种智能眼镜焦点跟踪装置及智能眼镜
CN201821571798.5 2018-09-26
CN201811124723.7A CN110955325A (zh) 2018-09-26 2018-09-26 一种智能眼镜焦点跟踪方法、装置及智能眼镜、存储介质
CN201811124723.7 2018-09-26

Publications (2)

Publication Number Publication Date
JP2020053055A true JP2020053055A (ja) 2020-04-02
JP6734602B2 JP6734602B2 (ja) 2020-08-05

Family

ID=68583054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019175346A Active JP6734602B2 (ja) 2018-09-26 2019-09-26 スマートグラスのための追跡方法および追跡装置、スマートグラス、ならびに記憶媒体

Country Status (4)

Country Link
EP (1) EP3640840B1 (ja)
JP (1) JP6734602B2 (ja)
KR (1) KR102242719B1 (ja)
WO (1) WO2020063614A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023026451A1 (ja) * 2021-08-27 2023-03-02 株式会社日立国際電気 物体捜索システム、物体捜索装置、物体捜索方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11356244B2 (en) * 2020-06-05 2022-06-07 Bank Of America Corporation Graphical user interface using continuous authentication and encryption for selective display of data
CN113672193B (zh) * 2021-08-23 2024-05-14 维沃移动通信有限公司 音频数据播放方法与装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012169824A (ja) * 2011-02-14 2012-09-06 Nec Casio Mobile Communications Ltd 携帯端末及びその制御方法
JP2015097081A (ja) * 2013-10-08 2015-05-21 キヤノンマーケティングジャパン株式会社 検索システム、検索装置、及びそれらの制御方法、プログラム
JP2016033764A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
WO2017098822A1 (ja) * 2015-12-10 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017138995A (ja) * 2017-03-02 2017-08-10 パイオニア株式会社 表示装置及びヘッドマウントディスプレイ
JP2018106611A (ja) * 2016-12-28 2018-07-05 Kddi株式会社 Ar情報表示装置及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102175251A (zh) * 2011-03-25 2011-09-07 江南大学 双目智能导航系统
KR101544957B1 (ko) * 2013-11-28 2015-08-19 한국과학기술연구원 레이저 인도 방식을 이용한 증강현실용 헤드 마운트 디스플레이 장치 및 헤드 마운트 디스플레이 방법
KR102212030B1 (ko) * 2014-05-26 2021-02-04 엘지전자 주식회사 글래스 타입 단말기 및 이의 제어방법
WO2015198284A1 (en) * 2014-06-26 2015-12-30 D Amico Alessio Maria Reality description system and method
CN104850229B (zh) * 2015-05-18 2019-03-22 小米科技有限责任公司 识别物体的方法及装置
WO2016199248A1 (ja) * 2015-06-10 2016-12-15 日立マクセル株式会社 情報提示システム及び情報提示方法
CN105578058A (zh) * 2016-02-03 2016-05-11 北京光年无限科技有限公司 一种面向智能机器人的拍摄控制方法、装置及机器人
US10265218B2 (en) * 2016-08-08 2019-04-23 The Johns Hopkins University Object recognition and presentation for the visually impaired
CN106470277A (zh) * 2016-09-06 2017-03-01 乐视控股(北京)有限公司 一种安全提示方法及装置
WO2018120033A1 (zh) * 2016-12-30 2018-07-05 深圳前海达闼云端智能科技有限公司 一种辅助用户寻物的方法及装置
CN107007437A (zh) * 2017-03-31 2017-08-04 北京邮电大学 交互式盲人辅助方法及设备
CN208689267U (zh) * 2018-09-26 2019-04-02 上海肇观电子科技有限公司 一种智能眼镜焦点跟踪装置及智能眼镜
CN208722145U (zh) * 2018-09-26 2019-04-09 上海肇观电子科技有限公司 一种智能眼镜焦点跟踪装置及智能眼镜

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012169824A (ja) * 2011-02-14 2012-09-06 Nec Casio Mobile Communications Ltd 携帯端末及びその制御方法
JP2015097081A (ja) * 2013-10-08 2015-05-21 キヤノンマーケティングジャパン株式会社 検索システム、検索装置、及びそれらの制御方法、プログラム
JP2016033764A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
WO2017098822A1 (ja) * 2015-12-10 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018106611A (ja) * 2016-12-28 2018-07-05 Kddi株式会社 Ar情報表示装置及びプログラム
JP2017138995A (ja) * 2017-03-02 2017-08-10 パイオニア株式会社 表示装置及びヘッドマウントディスプレイ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023026451A1 (ja) * 2021-08-27 2023-03-02 株式会社日立国際電気 物体捜索システム、物体捜索装置、物体捜索方法

Also Published As

Publication number Publication date
WO2020063614A1 (zh) 2020-04-02
EP3640840B1 (en) 2023-11-08
EP3640840A2 (en) 2020-04-22
EP3640840A3 (en) 2020-07-08
JP6734602B2 (ja) 2020-08-05
KR20200141517A (ko) 2020-12-18
KR102242719B1 (ko) 2021-04-23

Similar Documents

Publication Publication Date Title
US11366516B2 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US10169923B2 (en) Wearable display system that displays a workout guide
US11017257B2 (en) Information processing device, information processing method, and program
CN107015638B (zh) 用于向头戴式显示器用户报警的方法和装置
JP6734602B2 (ja) スマートグラスのための追跡方法および追跡装置、スマートグラス、ならびに記憶媒体
KR20200011405A (ko) 운전자 모니터링을 위한 시스템 및 방법
US11397320B2 (en) Information processing apparatus, information processing system, and non-transitory computer readable medium
WO2022164586A1 (en) Context-aware extended reality systems
KR102263695B1 (ko) 복수개의 카메라를 이용한 휴대 장치 및 제어방법
US20190114502A1 (en) Information processing device, information processing method, and program
US10860165B2 (en) Tracking method and apparatus for smart glasses, smart glasses and storage medium
US10409464B2 (en) Providing a context related view with a wearable apparatus
KR20180095324A (ko) 글래스 타입의 이동 단말기
CN107958478B (zh) 虚拟现实场景中物体的渲染方法和虚拟现实头戴设备
US20210232219A1 (en) Information processing apparatus, information processing method, and program
KR102339044B1 (ko) 비상 상황 통제 방법 및 장치
KR102337907B1 (ko) 증강 현실 스마트 글래스 장치
KR102337908B1 (ko) 작업 보조 방법 및 장치
US20230059119A1 (en) Information processing device, control method, and non-transitory computer-readable medium
WO2021241110A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN110955325A (zh) 一种智能眼镜焦点跟踪方法、装置及智能眼镜、存储介质
US20230224571A1 (en) Imaging assistance control apparatus, imaging assistance control method, and imaging assistance system
KR20240031830A (ko) HMD(head mounted display) 장치를 착용 중, 디스플레이 방법 및 그 장치
WO2021130986A1 (ja) 映像表示装置及び映像表示方法
US20210044856A1 (en) Information processing device, information processing method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191206

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191206

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200707

R150 Certificate of patent or registration of utility model

Ref document number: 6734602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250