JP2004312733A - 網膜トラッキングを組み込んだ装置及び方法 - Google Patents
網膜トラッキングを組み込んだ装置及び方法 Download PDFInfo
- Publication number
- JP2004312733A JP2004312733A JP2004103695A JP2004103695A JP2004312733A JP 2004312733 A JP2004312733 A JP 2004312733A JP 2004103695 A JP2004103695 A JP 2004103695A JP 2004103695 A JP2004103695 A JP 2004103695A JP 2004312733 A JP2004312733 A JP 2004312733A
- Authority
- JP
- Japan
- Prior art keywords
- user
- retina
- retinal
- microdisplay
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
Abstract
【課題】 網膜トラッキングシステムを組み込んだ電気装置(例えば、デジタルカメラなど)及び方法を提供する。
【解決手段】 レンズ系300と、レンズ系300を介して送られた光信号を感知するイメージセンサ302と、マイクロディスプレイ404、及び、ユーザの網膜406の像を取り込むように構成された網膜センサ412を収納する電子ビューファインダ314と、網膜センサ412により取り込まれた像を、デバイスメモリ(カメラメモリ)320に格納された網膜マップ330と比較し、それにより、電子ビューファインダ内のマイクロディスプレイ404に対するユーザの視線の方向を判定する画像比較器332とを備える。
【選択図】 図3
【解決手段】 レンズ系300と、レンズ系300を介して送られた光信号を感知するイメージセンサ302と、マイクロディスプレイ404、及び、ユーザの網膜406の像を取り込むように構成された網膜センサ412を収納する電子ビューファインダ314と、網膜センサ412により取り込まれた像を、デバイスメモリ(カメラメモリ)320に格納された網膜マップ330と比較し、それにより、電子ビューファインダ内のマイクロディスプレイ404に対するユーザの視線の方向を判定する画像比較器332とを備える。
【選択図】 図3
Description
本発明は、網膜トラッキングを組み込んだ装置及び方法に関する。
現在、電子装置の中には、装置とインタフェースするために用いることができる情報をユーザに伝達するマイクロディスプレイビューファインダを備えるものがある。例えば、画像だけでなく様々な選択可能な機能をユーザに提示することができるマイクロディスプレイを含むビューファインダを有するデジタルカメラが、現在入手可能である。デジタルカメラの場合、マイクロディスプレイビューファインダを設けることにより、バックパネルディスプレイ(例えば、液晶ディスプレイ(LCD))に通常において伴う問題、例えば、太陽によるウォッシュアウト,ディスプレイの汚れ,及び/又は引掻き傷などが回避される。
マイクロディスプレイビューファインダは、多くの用途において有用であるが、ユーザインタフェースの観点から見ると、既知のマイクロディスプレイビューファインダは、魅力的ではない。特に、ビューファインダのマイクロディスプレイがユーザに選択可能な機能を提示するグラフィカルユーザインタフェース(GUI)として用いられる場合には、ユーザが自身の望む選択を登録(入力)する(resister)ことが困難である場合がある。これは、これらの選択を行うために用いられるツールがマイクロディスプレイとは別個のものであるためである。例えば、ディスプレイに提示される機能は、通常、「矢印」ボタンを用いて画面上のカーソルを操作することにより選択される。このようなボタンによって画面上の機能を選択することは、バックパネルディスプレイとインタフェースする際には容易であるが、装置のビューファインダを覗きながら、特にビューファインダに隣接した位置にあるボタンを作動させるには、これらのボタンは扱いにくい。このようなボタンが難なく操作できる場合であっても、例えばボタンが別個の構成要素(例えば、キーボードなどの別個の入力デバイス)にある場合、このようなボタンで選択を行うのには、通常では時間がかかる。例えば、画面上のカーソルを用いて選択するボタンを特定する場合、矢印ボタンを用いてカーソルをボタンの位置に合わせる過程は時間がかかる。GUIに提示される機能を選択するために通常用いられる他の既知のデバイス、例えばマウス,トラックボール,又はスタイラスは、殆どのポータブル装置では、特にマイクロディスプレイビューファインダを備える装置では全く実用的ではない。
そこで、本発明は、上述の如き実状を勘案して、網膜トラッキングシステムを組み込んだ電気装置(例えば、デジタルカメラなど)及び方法を提供する。
一実施形態では、本発明に係る装置は、マイクロディスプレイを収納するビューファインダと、マイクロディスプレイに対するユーザの視線(gaze:凝視)の方向を判定するように構成された網膜トラッキングシステムとを備える。
上記で明らかにしたように、装置のマイクロディスプレイに提示された機能を装置に設けられた別個の制御部を用いて選択及び/又は制御することは、困難であり得る。特に、ボタンなどのそのような制御部を、同時に装置のビューファインダを覗いてマイクロディスプレイを見ながら操作することは厄介である。更に、このような別個の制御部の応答性は悪い。以下で説明するように、表示された機能のユーザによる選択及び制御は、ユーザが自身の視線方向を変えることにより簡単に機能の選択又は移動を行うことができる場合に大きく改善される。例えば、ユーザがマイクロディスプレイのどの領域を見ているのかに応じて、マイクロディスプレイで画面上のカーソルを移動させることができる。同様に、ユーザが選択を望んでいるアイテムを単に見ることにより、ユーザによってメニューアイテムがハイライト及び/又は選択され得る。
以下で説明するように、ユーザの視線の方向は、ユーザがマイクロディスプレイを走り読みする際にユーザの網膜をトラッキング(追跡)することにより判定され得る。特に、本装置は、ユーザの網膜の血管のパターンを検出し、その向きを、デバイスメモリに格納された網膜マップの向きと相互に関連付ける。このような動作により、画面上のアイテムは、高精度で迅速に選択及び/又は制御されることができる。
次に、図面を参照するが、いくつかの図面を通して同様の参照符号は対応する部分を示している。図1は、網膜トラッキングシステムを組み込んだ装置100の実施形態を示しており、網膜トラッキングシステムは、装置のマイクロディスプレイに提示された機能のユーザによる選択及び/又は制御を推測するために用いられ得る。図1に示すように、装置100は、カメラ、特にデジタルスチルカメラを含み得る。カメラの実施態様は、図面に示し、本明細書で説明するが、カメラは、網膜トラッキングを用いることができる多くの異なる装置のうちの1つを表しているだけであることを理解するべきである。従って、以下で説明する網膜トラッキングシステムは、代替的に、ビデオカメラ,仮想現実感眼鏡(virtual reality glasses),ポータブルコンピューティングデバイスなどの他のデバイスで用いることができる。実際に、網膜トラッキングシステムは、グラフィカルユーザインタフェース(GUI)を提示するために用いられるマイクロディスプレイを含む、実質的に如何なるデバイスでも用いることができる。
図1に示すように、デジタルカメラ(これ以降において「カメラ100」と呼ぶ)である装置100は、外部ハウジング104に覆われたカメラ本体102を有している。カメラ100は、更に、例えばズームレンズ系を収納する鏡筒106を有している。カメラ本体102の前部には、カメラを把持するのに用いられるグリップ108と、例えば、カメラのフォーカス,露出,及びホワイトバランスの自動設定に用いられる視覚情報を収集するために用いられ得るウィンドウ110とが組み込まれている。
カメラ100の上部には、カメラ100のシャッタ(図1では見えない)を開くために用いられるシャッタリリースボタン112が設けられている。シャッタリリースボタン112の周りにはリング制御部114があり、これは、当該制御部が付勢される方向に応じてレンズ系をズームイン及びズームアウトさせるのに用いられる。シャッタリリースボタン112に隣接して、マイクロホン116があり、これは、カメラ100が「動画モード」で用いられる場合に音声を取り込むために用いられ得る。マイクロホン116の隣にはスイッチ118があり、これは、光の少ない状態で物体を照明するために用いられ得るポップアップフラッシュ120(格納された位置で示す)の動作を制御するために用いられる。
次に、図2を参照すると、カメラ100の後部が示され、カメラ本体102には更に、マイクロディスプレイ(図2では見えない)を組み込んだ電子ビューファインダ(EVF)122が設けられ、取り込んだ画像及びGUIがマイクロディスプレイにおいてユーザに提示されようになっている。マイクロディスプレイは、以下においてより詳細に説明するように、拡大レンズ又はレンズ系を備え得るビューファインダ122のビューウィンドウ124を覗くことにより見ることができる。任意に、カメラ100のバックパネルは、フラットパネルディスプレイ126も含むことができ、フラットパネルディスプレイ126は、ショットを構成して取り込んだ画像を見直すのに用いられ得る。ディスプレイ126が設けられる場合には、ディスプレイ126は、液晶ディスプレイ(LCD)から成り得る。カメラ本体102のバックパネルには、種々の制御ボタン128も設けられる。これらのボタン128は、例えば、ディスプレイ126に示される取り込まれた画像をスクロールするために用いられ得る。カメラ本体102のバックパネルは、更に、ユーザに可聴情報(例えば、ブザーや録音した音)を与えるのに用いられるスピーカ130と、バッテリー及び/又はメモリカードを収納するのに用いられるコンパートメント132とを備えている。
図3は、カメラ100の構造の例を示す。この図に示すように、カメラ100は、見たシーンの像を1つ又は複数のイメージセンサ302に伝えるレンズ系300を有している。例として、イメージセンサ302は、1つ又は複数のセンサドライバ304により駆動される電荷結合素子(CCD)を備えている。次に、センサ302により取り込まれたアナログ画像信号は、アナログ・デジタル(A/D)変換器306に供給されて2進コードに変換され、これがプロセッサ308により処理され得る。
センサドライバ304の動作は、プロセッサ308と双方向通信するカメラコントローラ310により制御される。コントローラ310によって、レンズ系300を駆動するために(例えば、フォーカス及びズームを調整するために)用いられる1つ又は複数のモータ312,図1に示すマイクロホン116,及び電子ビューファインダ314も制御され、これらの様々な実施形態は、これ以降の図で説明する。イメージセンサ302からのような電子ビューファインダ314からの出力は、A/D変換器306に供給されて、処理の前にデジタル形式に変換される。カメラコントローラ310の動作は、ユーザインタフェース316の操作により調整され得る。ユーザインタフェース316は、カメラ100に選択及びコマンドを入力するのに用いられる種々の構成要素を備えるため、少なくともシャッタリリースボタン112,リング制御部114,及び図2に示す制御ボタン128を備えている。
デジタル画像信号は、カメラコントローラ310と、永久(不揮発性)デバイスメモリ(カメラメモリ)320に格納された1つ又は複数の画像処理システム318とからの命令に従って処理される。次に、処理された画像は、取り外し可能な固体メモリカード(例えば、フラッシュメモリカード)内に含まれているようなストレージメモリ(記憶装置)322に格納され得る。1つ又は複数の画像処理システム318に加えて、デバイスメモリ320は、更に、1つ又は複数の血管検出アルゴリズム324(ソフトウェア又はファームウェア)を備え、この血管検出アルゴリズム324は、電子ビューファインダ314と共に用いられて、ユーザの網膜血管を特定し、それらの動きを追跡して、ユーザの視線の方向を判定する。
カメラ100は、更に、ユニバーサルシリアルバス(USB)コネクタなどのデバイスインタフェース326を備えており、デバイスインタフェース326は、カメラ100からパーソナルコンピュータ(PC)又はプリンタなどの別のデバイスに画像をダウンロードするために用いられ、同様に、画像又は他の情報をアップロードするためにも用いることができる。
上述の構成要素に加えて、カメラ100は、更に、画像モンタージュユニット328と、1つ又は複数の網膜マップ330と、画像比較器332と、スイッチ334とを有している。これらの構成要素、並びに、血管検出アルゴリズム324は、画面上のGUI機能のユーザによる選択及び/制御を推測するのに用いられる網膜トラッキングシステムの一部を形成する。これらの構成要素の動作は、以下において詳細に説明する。
図4は、カメラ100に組み込まれ得る電子ビューファインダ314Aの第1の実施形態を示す。図4に示すように、電子ビューファインダ314Aは拡大レンズ400を備えており、ユーザは、この拡大レンズ400を自身の目402の近くに位置付ける。拡大レンズ400は、ビューファインダのハウジングに収納されたマイクロディスプレイ404で生成された画像を拡大及びフォーカスするために用いられる。要素400は、図4では1つのレンズとして示されているが、所望であれば適当な複数レンズのシステムを用いてもよい。拡大レンズ400を設けることにより、マイクロディスプレイ404により生成された画像Iがユーザの目402に伝達され、それにより、対応する画像I’が目の網膜406で焦点合わせされる。
マイクロディスプレイ404は、透過型,反射型,又は発光型ディスプレイから成っていてよい。本開示のため、「マイクロディスプレイ」という用語は、1インチ以下の対角寸法を有する任意のフラットパネルディスプレイを指す。サイズは、比較的小さいが、拡大又は投影光学系を通して見た場合には、マイクロディスプレイには大きな高解像度の虚像が現れる。例えば、約0.19インチの対角寸法を有し、320×240画素の解像度を有するマイクロディスプレイは、2メートルの距離から見た場合には、約22.4インチ(対角寸法で)のサイズの虚像を生成することができる。
例として、マイクロディスプレイ404は、シリコンダイに形成された反射型強誘電性液晶(FLC)マイクロディスプレイから成る。このようなマイクロディスプレイの1つは、Displaytech, Inc.(Longmont, Colorado)から現在入手可能である。このようなマイクロディスプレイは、発光するのではなく反射するため、反射型マイクロディスプレイで画像を生成するために別個の光源が必要である。従って、電子ビューファインダ314Aは、発光ダイオード(LED)408の形態の赤色,緑色,及び青色の光源を備える。これらのLED408は、フィールド順次式で高周波数(例えば90〜180Hz)で順次にパルス発光し、それにより、経路「a」に沿って進む光は、ビームスプリッタ410(例えば、ガラス板又はプリズム)で反射して、マイクロディスプレイ404に当たる。マイクロディスプレイ404の種々の画素は、LED408から発せられる光がユーザの目402に向けて反射されるように操作される。画素のこの操作は、LED408のパルス発光と同期し、それにより、画像の赤色部分、次に緑色部分、というように立て続けに反射される。反射型マイクロディスプレイが図面に示され、本明細書で説明されるが、マイクロディスプレイは、代替的に、所望であれば小さいLCD(液晶ディスプレイ)又は有機発光ダイオード(OLED)などの透過型又は発光型のディスプレイから成ってもよい。このような場合、種々のLEDは不要となろう。
マイクロディスプレイ404から反射された(又は、場合によっては透過又は発せられた)光は、経路「b」に沿ってユーザの目402に向かって進む。種々の色の信号が高周波数で送られるため、目402は信号を解釈して合成し、それにより、その信号は、見たシーンを構成する色及び形状を形成するように見える。目402の特性により、この光の一部は、経路「c」に沿ってビューファインダ314Aに反射し戻される。その際、この光の一部は、光を再帰反射するユーザの網膜406で反射する。この光信号は、ユーザの網膜の像、従ってユーザの網膜の血管のパターンを有する(bear)。このようなパターンは個人ごとに特有のものであるため、反射されたパターンは、血管の「署名(signature)」とみなすことができる。
ユーザの目402によって反射された光は、拡大レンズ400を通って電子ビューファインダ314Aに入り、次に、ビームスプリッタ410で反射する。次に、この反射された像は、電子ビューファインダのハウジングに収納された網膜センサ(網膜イメージセンサ)412に到達する。このセンサ412は、CCDなどの固体センサから成る。センサ412がマイクロディスプレイ404と同じ光学距離だけユーザの目402から離れるように配置される場合には、センサに入射した光により与えられる網膜像は、血管が容易に特定可能な、拡大されかつ焦点の合った像である。センサ412により取り込まれた光信号は、デジタル信号への変換後にプロセッサ308(図3参照)に供給され、次に、ユーザの視線の方向を判定するために解析され得る。
図5は、図4に示すマイクロディスプレイ404に提示されるGUIのユーザ制御を可能にするために用いられる網膜トラッキングシステムの実施形態のフローチャートである。このフローチャートで説明される如何なるプロセスのステップ又はブロックも、モジュール,セグメント,又はプロセスの具体的な論理機能又はステップを実施するための1つ又は複数の実行可能な命令を含むプログラムコードの部分を表し得る。特定のプロセスステップの例を説明するが、代替的な実施態様も実施可能である。更に、ステップは、関連する機能に応じて、図示又は説明したものとは異なる順序で、例えば、ほぼ同時に又は逆の順序で、実行することができる。
図5のブロック500から開始して、網膜トラッキングシステムが起動される。この起動は、種々の異なる刺激(stimuli)に応じて行われ得る。例えば、あるシナリオでは、ユーザが装置のビューファインダを覗いていることを検出すると、起動が行われ得る。この状態は、例えば、従来技術において既知のアイ-スタート機構を用いて検出され得る。別のシナリオでは、網膜トラッキングシステムは、GUIがマイクロディスプレイを用いて最初に提示される際に、起動され得る。他のシナリオでは、網膜トラッキングシステムは、ユーザによるコマンドに応じて(例えば、図2の適当なボタン128を押すことにより)、起動される。
網膜トラッキングシステムが起動される方法に関係なく、次に、ブロック502に示すように、システムは、網膜センサ412で網膜像を取り込む。上述のように、網膜406から反射された光は、ユーザの血管署名の画像を有している。この光信号は、デジタル形式への変換後に、プロセッサ308(図3参照)に供給されて処理される。特に、ブロック504に示すように、ユーザの視線の方向は、光信号の解析により判定される。
ユーザの視線の方向は、様々な方法を用いて判定され得る。1つの好ましい方法では、取り込まれた網膜像を用いて、ユーザが見ているマイクロディスプレイ404の領域を判定する。取り込まれた網膜像からユーザの視線の方向を判定するのに適した1つの方法は、米国特許第6,394,602号に記載されており、この特許は、参照によりその全文が本開示に援用される。米国特許第6,394,602号に記載されるように、装置のプロセッサ308は、センサ412により取り込まれた網膜像を処理して、網膜像の固有の特徴をハイライトするようにする。特にハイライトされるのは網膜の血管であるが、これは、血管が非常に目立つために、標準的な画像処理エッジ検出技法を用いて特定及びハイライトするのが比較的容易だからである。これらの血管は、血管検出アルゴリズム324(図3参照)を用いて検出され得る。適切な検出アルゴリズムの詳細は、1997年にMulligenによりBehaviour Research Methods, Instrumentation and Computersに発表された、「Image Processing for Improved Eye Tracking Accuracy」というタイトルの論文に見出すことができ、これもまた、参照によりその全文が本明細書に援用される。次に、特定された血管パターンは、プロセッサ308により処理されて、対応する血管線画(line drawing)、例えば図6に示す線画600が生成される。この図6に示すように、画像処理後は、血管602の細部のみが明らかになる。
ユーザの視線がマイクロディスプレイ404に示される画像上を移動すると、センサ412により取り込まれた網膜像は変化する。従って、網膜トラッキングシステムがユーザの網膜の追跡に用いられ得る前に、システムは、特定のユーザの血管署名を認識するために較正されねばならない。較正は、視野にわたって散乱した複数の点、又は視野内を移動する1つの点を自ら凝視することをユーザに要求し、網膜のセンサ画像を取り込むことにより、行うことができる。この手順が用いられる場合には、ユーザの網膜406の「マップ」を得ることができる。較正が行われると、ユーザの視線の方向が、較正段階中に網膜マップが生成されたセンサ412により取り込まれた現在の網膜像と比較することにより判定され得る。
図3に示すコントローラ310は、網膜トラッキングシステムの上述の動作モードを制御する。ユーザインタフェース316を介して新たなユーザにより入力された較正要求に応じて、コントローラ310は、イッチ334の位置を制御し、それにより、プロセッサ308は、画像モンタージュユニット328に接続される。較正段階中に、マイクロディスプレイ404で見る対象として、テストカード(図示せず)が与えられる場合がある。このようなカードが用いられる場合には、このカードは、視野にわたって配列された幾つかの可視ドットを有する。次に、新たなユーザは、所与の配列のドットそれぞれを見るように指示される。ユーザがドットを見ると、画像モンタージュユニット328は、センサ412により取り込まれた網膜像を受け取り、それらを「結合(join)」して、新たなユーザの網膜406の網膜マップ330を形成する。次に、この網膜マップ330は、カメラが通常の動作モードである場合に用いるために、メモリ320に格納される。
カメラ100の使用中、コントローラ310は、スイッチ334を介してプロセッサ308を画像比較器332に接続する。次に、網膜センサ412は、センサ412により「見られ」得るユーザの網膜406の部分の像を取り込む。次に、この網膜像は、A/D変換器306によりデジタル変換され、プロセッサ308により処理されて、図6の線画600のようなユーザの可視血管パターンの線画が生成される。次に、この生成された線画600は、画像比較器332に供給され、画像比較器332は、その線画600を現在のユーザの網膜マップ330と比較する。この比較は、例えば、現在の網膜像と網膜マップ330との2次元相関を実施することにより行うことができる。この比較の結果は、ユーザの視線の方向を示し、コントローラ310に供給される。
図5に戻ると、ユーザの視線の方向が判定されると、ブロック506に示すように、マイクロディスプレイに提示されるGUIは、判定された視線方向に応じて制御される。この制御の性質は、所望のアクションによって決まる。図7及び図8は、2つの例を示す。まず、図7を参照すると、幾つかのメニュー機能702(この例では、ボタン)がユーザに表示されているGUI700が示される。これらのメニュー機能702は、ユーザが自身の視線を機能の1つに向けて、ユーザの視線の方向に画面上のカーソル704を移動させるようにすることで選択され得る。この動作は、図7に示されており、ここでは、カーソル704が「次候補(More)」ボタン706付近の元の位置から「コンプレッション」ボタン708へ移動する様子が示されている。カーソル704が所望のメニュー機能の上に位置付けられると、その機能は、ユーザ側の何らかの更なるアクションにより選択され得る。例えば、ユーザは、シャッタリリースボタン(図1のボタン112)を途中まで押してもよく、又は「選択」というコマンドを発声し、その発声音をマイクロホン(図1のマイクロホン116)により検出するようにしてもよい。
図8を参照すると、図7に示すGUI700が再び示されている。しかしながら、この例では、ユーザの視線は、カーソルを移動させるためには用いられず、その代わりに、GUIに示されるメニュー機能702をハイライトするために用いられる。図8の例では、ユーザは、「コンプレッション」ボタン708を凝視している。ユーザの視線の方向の検出により、このボタン708がハイライトされる。所望の表示機能がこのようにハイライトされると、その機能は、ユーザ側の何らかの更なるアクションにより選択され得る。この場合も、この更なるアクションは、シャッタリリースボタン(図1のボタン112)を途中まで押すこと、又は「選択」というコマンドを発声することを含むことができる。
図5を更に参照すると、ブロック508に示すように、網膜トラッキングシステムは、ユーザの網膜406のトラッキング(追跡)を続けるか否かを決定する。例として、この決定は、上記のブロック500を参照して示されたのと同じ刺激に関して行われる。トラッキングを続けるべきである場合には、流れはブロック502に戻り、上述のように進む。しかしながら、トラッキングを続けない場合には、網膜トラッキングセッションは終了する。
図9は、カメラ100に組み込まれ得る電子ビューファインダ314Bの第2の実施形態を示す。ビューファインダ314Bは、図4のビューファインダ314Aと多くの点で同様である。特に、ビューファインダ314Bは、拡大レンズ400と、マイクロディスプレイ404と、一群のLED408と、ビームスプリッタ410と、網膜センサ412とを含む。しかしながら、更に、ビューファインダ314Bは、ユーザの網膜406を照射するのに用いられるIR波長光を生成するのに用いられる赤外線(IR)LED900と、可視光が網膜センサ412に到達する前にそれをフィルタリングするのに用いられるIRパスフィルタ902とを備えている。これらの付加的な構成要素により、ユーザの網膜406は、IR光で照らされ、反射されたIR信号は、網膜センサ412により検出され得る。具体的には、IR光は、経路「a」に沿ってIR ED900から進み、ビームスプリッタ410で反射し、マイクロディスプレイ404で反射し、経路「b」に沿ってビームスプリッタ410及び拡大レンズ400を通って進み、ユーザの網膜406で反射して経路「c」に沿って進み、再びビームスプリッタ410で反射し、IRパスフィルタ902を通過し、最後に網膜センサ412により集光される。
この実施形態では、IR LED900は、例えば、マイクロディスプレイ404からの反射の1/4がIR反射であるように、フィールド順次式で他のLED408と同じようにパルス発光し得る。しかしながら、とりわけ、ユーザの目402はIR信号の存在を検出しないため、IR LED900は、他のLEDが消灯している場合にのみパルス発光する必要がない。実際には、所望である場合、IR LED900は、網膜検出中に連続照明することができる。しかしながら、バッテリー寿命を延ばすために、IR LED900は、通常、適当な周波数(例えば、2Hz)で断続的にパルス発光される。IR波長は人間の目には見えず、そのため瞳孔サイズを縮小させないため、IR光が照明として用いられる場合には、はっきりした網膜像を得ることができる。
図9の実施形態は、マイクロディスプレイ404がユーザの血管の画像を得るために網膜を照明することに依存する場合に生じ得る問題を回避することができる。特に、マイクロディスプレイ404により供給される光は、マイクロディスプレイにぼやけた画像が示される場合には、不適当である。更に、IR光の使用により、マイクロディスプレイ404の光により反射された血管パターンを特定する際に生じ得るどのような複雑な問題も回避される。このような複雑な問題は、マイクロディスプレイ404で見られる画像(表示画像)が非常に詳細であるために、ユーザの網膜で反射する光により与えられる表示画像を表す望ましくない光信号をフィルタリング除去することがますます困難になる場合に生じ得る。IR光の使用は、このような潜在的な問題を回避するため、図9の実施形態は、少なくとも幾つかの点で好ましいと考えることができる。
以上を要約すると、次の通りである。すなわち、本発明は、網膜トラッキングシステムを組み込んだ電子デバイス100を提供する。本発明の一実施形態では、電子デバイス100は、マイクロディスプレイ404を収納するビューファインダ314を備えており、網膜トラッキングしステムは、マイクロディスプレイ404におけるユーザの視線の方向を判定するように構成されている。
本発明の特定の実施形態を、例として前述の説明及び図面において詳細に開示したが、添付の特許請求項の範囲に記載される本発明の範囲から逸脱しない限り、本発明の変形及び変更を行うことができることは、当業者には理解されるであろう。
種々のプログラム(ソフトウェア及び/又はファームウェア)を上記に示した。これらのプログラムは、任意のコンピュータ関連システム又は方法により、或いはそれらと共に用いるために、任意のコンピュータ可読媒体に格納することができる。本明細書のコンテキストでは、コンピュータ可読媒体は、コンピュータ関連システム又は方法により、或いはそれらと共に用いるためのプログラムを含み得る、すなわち格納し得る、電子,磁気,光学,又は他の物理的なデバイス又は手段である。プログラムは、命令実行システム,装置,又はデバイス、例えば、コンピュータベースシステム,プロセッサ内蔵システム,或いは、命令実行システム,装置,又はデバイスから命令を取り出してそれを実行することができる他のシステムにより、或いはそれらと共に用いるための任意のコンピュータ可読媒体に具現され得る。「コンピュータ可読媒体」という用語は、命令実行システム,装置,又はデバイスにより、又はそれらとともに用いるためのコードを格納,通信,伝播,又は移送することができる任意の手段を包含する。
コンピュータ可読媒体は、例えば、限定はされないが、電子,磁気,光学,電磁気,赤外線,又は半導体のシステム,装置,デバイス,或いは伝播媒体であり得る。コンピュータ可読媒体のより具体的な例(非網羅的な列挙)としては、1つ又は複数の電線を有する電気接続部,ポータブルコンピュータディスケット,ランダムアクセスメモリ(RAM),リードオンリメモリ(ROM),消去可能プログラム可能リードオンリメモリ(EPROM,EEPROM,又はフラッシュメモリ),光ファイバ,及びポータブルコンパクトディスクリードオンリメモリ(CDROM)が挙げられる。なお、コンピュータ可読媒体は、プログラムが印刷された紙又は別の適当な媒体であってもよく、これは、例えばプログラムを紙又は他の媒体の光学走査により電子的に取り込み、次にコンパイルし、必要であれば解釈又は他の適当な方法で処理して、コンピュータメモリに格納することができるからである。
100 デジタルカメラ(装置,デバイス)
300 レンズ系
302 イメージセンサ
314,314A,314B 電子ビューファインダ
320 デバイスメモリ(カメラメモリ)
324 血管検出アルゴリズム
328 画像モンタージュユニット
330 網膜マップ
332 画像比較器
404 マイクロディスプレイ
406 網膜
408 発光ダイオード(LED)
412 網膜センサ
900 赤外線LED
300 レンズ系
302 イメージセンサ
314,314A,314B 電子ビューファインダ
320 デバイスメモリ(カメラメモリ)
324 血管検出アルゴリズム
328 画像モンタージュユニット
330 網膜マップ
332 画像比較器
404 マイクロディスプレイ
406 網膜
408 発光ダイオード(LED)
412 網膜センサ
900 赤外線LED
Claims (10)
- (a) レンズ系と、
(b) 前記レンズ系を介して送られた光信号を感知するイメージセンサと、
(c) マイクロディスプレイ、及び、ユーザの網膜の像を取り込むように構成された網膜センサを収納する電子ビューファインダと、
(d) 前記網膜センサにより取り込まれた像を、デバイスメモリに格納された網膜マップと比較し、それにより、前記電子ビューファインダ内の前記マイクロディスプレイに対するユーザの視線の方向を判定する画像比較器と、
を備えることを特徴とするデジタルカメラ。 - 前記マイクロディスプレイは、反射型マイクロディスプレイであり、前記ビューファインダは、前記マイクロディスプレイを照明する色付きの光源を更に収納していることを特徴とする請求項1に記載のデジタルカメラ。
- 前記ビューファインダに収納された、前記ユーザの網膜を赤外光で照明する赤外光源を更に備えることを特徴とする請求項1に記載のデジタルカメラ。
- 前記ビューファインダに収納された、可視光が前記網膜センサに到達するのを防ぐ赤外線パスフィルタを更に備えることを特徴とする請求項3に記載のデジタルカメラ。
- 前記網膜センサにより取り込まれた網膜像を受け取り、前記網膜像を結合して、前記ユーザの網膜の網膜マップを形成する画像モンタージュユニットを更に備えることを特徴とする請求項1に記載のデジタルカメラ。
- カメラメモリに格納された血管検出アルゴリズムであって、前記ユーザの網膜の表面の血管を特定するように構成された血管検出アルゴリズムを更に含むことを特徴とする請求項1に記載のデジタルカメラ。
- 電子装置において用いられる電子ビューファインダであって、
(a) グラフィカルユーザインタフェースを表示するマイクロディスプレイと、
(b) ユーザの網膜を照明する赤外光源と、
(c) 前記ユーザの網膜の像を取り込む網膜センサと、
(d) 前記網膜センサにより取り込まれた像からユーザの視線の方向を判定し、それにより、前記グラフィカルユーザインタフェースに対するユーザ入力を推測する網膜トラッキングシステムと、
を備えることを特徴とする電子ビューファインダ。 - マイクロディスプレイを制御する方法であって、
(a) ユーザの網膜を光で照明するステップと、
(b) 前記ユーザが装置のマイクロディスプレイを見ている間にユーザの網膜の像を取り込むステップと、
(c) 取り込まれた像を解析することにより、前記マイクロディスプレイに対する前記ユーザの視線の方向を判定するステップと、
(d) 判定されたユーザの視線に応じて、前記マイクロディスプレイに示される機能を制御するステップと、
を含むことを特徴とする方法。 - 前記ユーザの網膜を光で照明するステップは、前記ユーザの網膜を赤外光で照明するステップを含むことを特徴とする請求項8に記載の方法。
- 前記ユーザの視線の方向を判定するステップは、前記取り込まれた像をデバイスメモリに格納された網膜マップと比較するステップを含むことを特徴とする請求項8に記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/405,650 US20040196399A1 (en) | 2003-04-01 | 2003-04-01 | Device incorporating retina tracking |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004312733A true JP2004312733A (ja) | 2004-11-04 |
Family
ID=33097143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004103695A Withdrawn JP2004312733A (ja) | 2003-04-01 | 2004-03-31 | 網膜トラッキングを組み込んだ装置及び方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20040196399A1 (ja) |
JP (1) | JP2004312733A (ja) |
IL (1) | IL158673A0 (ja) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4448039B2 (ja) * | 2005-01-26 | 2010-04-07 | キヤノン株式会社 | 撮像装置及びその制御方法 |
US9910341B2 (en) | 2005-01-31 | 2018-03-06 | The Invention Science Fund I, Llc | Shared image device designation |
US9489717B2 (en) | 2005-01-31 | 2016-11-08 | Invention Science Fund I, Llc | Shared image device |
US20060170956A1 (en) * | 2005-01-31 | 2006-08-03 | Jung Edward K | Shared image devices |
US9082456B2 (en) | 2005-01-31 | 2015-07-14 | The Invention Science Fund I Llc | Shared image device designation |
US9124729B2 (en) | 2005-01-31 | 2015-09-01 | The Invention Science Fund I, Llc | Shared image device synchronization or designation |
US8902320B2 (en) | 2005-01-31 | 2014-12-02 | The Invention Science Fund I, Llc | Shared image device synchronization or designation |
US9621749B2 (en) | 2005-06-02 | 2017-04-11 | Invention Science Fund I, Llc | Capturing selected image objects |
US9819490B2 (en) | 2005-05-04 | 2017-11-14 | Invention Science Fund I, Llc | Regional proximity for shared image device(s) |
US8681225B2 (en) | 2005-06-02 | 2014-03-25 | Royce A. Levien | Storage access technique for captured data |
US9191611B2 (en) | 2005-06-02 | 2015-11-17 | Invention Science Fund I, Llc | Conditional alteration of a saved image |
US9076208B2 (en) | 2006-02-28 | 2015-07-07 | The Invention Science Fund I, Llc | Imagery processing |
US8964054B2 (en) | 2006-08-18 | 2015-02-24 | The Invention Science Fund I, Llc | Capturing selected image objects |
US10003762B2 (en) | 2005-04-26 | 2018-06-19 | Invention Science Fund I, Llc | Shared image devices |
US9967424B2 (en) | 2005-06-02 | 2018-05-08 | Invention Science Fund I, Llc | Data storage usage protocol |
US9451200B2 (en) | 2005-06-02 | 2016-09-20 | Invention Science Fund I, Llc | Storage access technique for captured data |
US20070222865A1 (en) | 2006-03-15 | 2007-09-27 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Enhanced video/still image correlation |
US9001215B2 (en) | 2005-06-02 | 2015-04-07 | The Invention Science Fund I, Llc | Estimating shared image device operational capabilities or resources |
US9942511B2 (en) | 2005-10-31 | 2018-04-10 | Invention Science Fund I, Llc | Preservation/degradation of video/audio aspects of a data stream |
US8467672B2 (en) * | 2005-10-17 | 2013-06-18 | Jeffrey C. Konicek | Voice recognition and gaze-tracking for a camera |
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
JP2008067219A (ja) | 2006-09-08 | 2008-03-21 | Sony Corp | 撮像装置、撮像方法 |
US7855743B2 (en) | 2006-09-08 | 2010-12-21 | Sony Corporation | Image capturing and displaying apparatus and image capturing and displaying method |
US8988519B2 (en) * | 2012-03-20 | 2015-03-24 | Cisco Technology, Inc. | Automatic magnification of data on display screen based on eye characteristics of user |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
US9949637B1 (en) | 2013-11-25 | 2018-04-24 | Verily Life Sciences Llc | Fluorescent imaging on a head-mountable device |
WO2015130849A1 (en) * | 2014-02-25 | 2015-09-03 | Eyeverify | Eye gaze tracking |
CN114077726A (zh) * | 2015-04-16 | 2022-02-22 | 托比股份公司 | 用于对用户进行认证的系统、方法和机器可读介质 |
US20180255614A1 (en) * | 2015-09-28 | 2018-09-06 | Kelsey-Hayes Company | Programmable led driver |
WO2018194962A1 (en) * | 2017-04-17 | 2018-10-25 | Akonia Holographics Llc | Skew mirror auxiliary imaging |
DE102017109254A1 (de) * | 2017-04-28 | 2018-10-31 | Carl Zeiss Ag | Digitalkamera |
WO2020121243A1 (en) | 2018-12-12 | 2020-06-18 | Ecole Polytechnique Federale De Lausanne (Epfl) | Ophthalmic system and method for clinical device using transcleral illumination with multiple points source |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4513317A (en) * | 1982-09-28 | 1985-04-23 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Retinally stabilized differential resolution television display |
US6099522A (en) * | 1989-02-06 | 2000-08-08 | Visx Inc. | Automated laser workstation for high precision surgical and industrial interventions |
US5245381A (en) * | 1990-08-20 | 1993-09-14 | Nikon Corporation | Apparatus for ordering to phototake with eye-detection |
DK0725939T3 (da) * | 1992-03-13 | 1999-11-15 | Kopin Corp | Skærmsystem til anbringelse på hovedet |
US5627586A (en) * | 1992-04-09 | 1997-05-06 | Olympus Optical Co., Ltd. | Moving body detection device of camera |
US6008781A (en) * | 1992-10-22 | 1999-12-28 | Board Of Regents Of The University Of Washington | Virtual retinal display |
JPH06342146A (ja) * | 1992-12-11 | 1994-12-13 | Canon Inc | 画像表示装置、半導体装置及び光学機器 |
JPH07135623A (ja) * | 1993-10-27 | 1995-05-23 | Kinseki Ltd | 網膜直接表示装置 |
US6388707B1 (en) * | 1994-04-12 | 2002-05-14 | Canon Kabushiki Kaisha | Image pickup apparatus having means for appointing an arbitrary position on the display frame and performing a predetermined signal process thereon |
US5977976A (en) * | 1995-04-19 | 1999-11-02 | Canon Kabushiki Kaisha | Function setting apparatus |
US6538697B1 (en) * | 1995-04-26 | 2003-03-25 | Canon Kabushiki Kaisha | Man-machine interface apparatus and method |
GB9613766D0 (en) * | 1996-07-01 | 1996-09-04 | Life Science Resources Ltd | Medical laser guidance apparatus |
US5771124A (en) * | 1996-07-02 | 1998-06-23 | Siliscape | Compact display system with two stage magnification and immersed beam splitter |
US6847336B1 (en) * | 1996-10-02 | 2005-01-25 | Jerome H. Lemelson | Selectively controllable heads-up display system |
US6677936B2 (en) * | 1996-10-31 | 2004-01-13 | Kopin Corporation | Color display system for a camera |
US5912720A (en) * | 1997-02-13 | 1999-06-15 | The Trustees Of The University Of Pennsylvania | Technique for creating an ophthalmic augmented reality environment |
US6614408B1 (en) * | 1998-03-25 | 2003-09-02 | W. Stephen G. Mann | Eye-tap for electronic newsgathering, documentary video, photojournalism, and personal safety |
GB9813041D0 (en) * | 1998-06-16 | 1998-08-12 | Scient Generics Ltd | Eye tracking technique |
US6396461B1 (en) * | 1998-08-05 | 2002-05-28 | Microvision, Inc. | Personal display with vision tracking |
GB2348520B (en) * | 1999-03-31 | 2003-11-12 | Ibm | Assisting user selection of graphical user interface elements |
US6491391B1 (en) * | 1999-07-02 | 2002-12-10 | E-Vision Llc | System, apparatus, and method for reducing birefringence |
US6758563B2 (en) * | 1999-12-30 | 2004-07-06 | Nokia Corporation | Eye-gaze tracking |
US6585374B2 (en) * | 2000-03-22 | 2003-07-01 | Canon Kabushiki Kaisha | Ophthalmologic apparatus |
US6456262B1 (en) * | 2000-05-09 | 2002-09-24 | Intel Corporation | Microdisplay with eye gaze detection |
JP2002101322A (ja) * | 2000-07-10 | 2002-04-05 | Matsushita Electric Ind Co Ltd | 虹彩カメラモジュール |
JP4529263B2 (ja) * | 2000-09-18 | 2010-08-25 | 沖電気工業株式会社 | アイリス認識装置 |
US7271839B2 (en) * | 2001-03-15 | 2007-09-18 | Lg Electronics Inc. | Display device of focal angle and focal distance in iris recognition system |
US7197165B2 (en) * | 2002-02-04 | 2007-03-27 | Canon Kabushiki Kaisha | Eye tracking using image data |
US6925122B2 (en) * | 2002-07-25 | 2005-08-02 | National Research Council | Method for video-based nose location tracking and hands-free computer input devices based thereon |
GB2396001B (en) * | 2002-10-09 | 2005-10-26 | Canon Kk | Gaze tracking system |
US6637883B1 (en) * | 2003-01-23 | 2003-10-28 | Vishwas V. Tengshe | Gaze tracking system and method |
US7167201B2 (en) * | 2003-04-28 | 2007-01-23 | Hewlett-Packard Development Company, L.P. | Device incorporating eye-start capability |
-
2003
- 2003-04-01 US US10/405,650 patent/US20040196399A1/en not_active Abandoned
- 2003-10-30 IL IL15867303A patent/IL158673A0/xx unknown
-
2004
- 2004-03-31 JP JP2004103695A patent/JP2004312733A/ja not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
IL158673A0 (en) | 2004-05-12 |
US20040196399A1 (en) | 2004-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004312733A (ja) | 網膜トラッキングを組み込んだ装置及び方法 | |
JP4707034B2 (ja) | 画像処理方法、入力インタフェース装置 | |
US9852339B2 (en) | Method for recognizing iris and electronic device thereof | |
US9456141B2 (en) | Light-field based autofocus | |
EP0650292B1 (en) | Image pickup apparatus | |
US20060044399A1 (en) | Control system for an image capture device | |
US20040212711A1 (en) | Device incorporating eye-start capability | |
US20130100319A1 (en) | Image pickup apparatus and control method thereof | |
US20040169639A1 (en) | Visible pointer tracking with separately detectable pointer tracking signal | |
JP2010164814A (ja) | ヘッドマウントディスプレイ | |
JP4627052B2 (ja) | 画像に連携した音声出力方法および装置 | |
JP2001236178A (ja) | 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体 | |
WO2018017625A1 (en) | User interface for smart digital camera | |
JP2008287142A (ja) | 画像投影装置 | |
JP2011095985A (ja) | 画像表示装置 | |
US8149317B2 (en) | Display device, photographing apparatus, and display method | |
KR20100091844A (ko) | 촬상 장치 및 촬상 방법 | |
JP2000276297A (ja) | ポインティング位置検出装置、ポインティング位置検出方法、プレーゼンテーションシステムおよび情報記憶媒体 | |
JPH07191796A (ja) | 視線入力システム | |
JP6167511B2 (ja) | 書画カメラ、書画カメラの制御方法 | |
US10560635B2 (en) | Control device, control method, and program | |
TW201128455A (en) | Signaling device position determination | |
KR20090059514A (ko) | 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기위한 프로그램을 저장한 기록매체 | |
JP2013242408A (ja) | 撮像装置およびその制御方法 | |
JP2004215062A (ja) | 撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051226 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20060607 |