JP2004312733A - 網膜トラッキングを組み込んだ装置及び方法 - Google Patents

網膜トラッキングを組み込んだ装置及び方法 Download PDF

Info

Publication number
JP2004312733A
JP2004312733A JP2004103695A JP2004103695A JP2004312733A JP 2004312733 A JP2004312733 A JP 2004312733A JP 2004103695 A JP2004103695 A JP 2004103695A JP 2004103695 A JP2004103695 A JP 2004103695A JP 2004312733 A JP2004312733 A JP 2004312733A
Authority
JP
Japan
Prior art keywords
user
retina
retinal
microdisplay
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004103695A
Other languages
English (en)
Inventor
J Stavely Donald
ドナルド・ジェイ・ステイヴリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of JP2004312733A publication Critical patent/JP2004312733A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

【課題】 網膜トラッキングシステムを組み込んだ電気装置(例えば、デジタルカメラなど)及び方法を提供する。
【解決手段】 レンズ系300と、レンズ系300を介して送られた光信号を感知するイメージセンサ302と、マイクロディスプレイ404、及び、ユーザの網膜406の像を取り込むように構成された網膜センサ412を収納する電子ビューファインダ314と、網膜センサ412により取り込まれた像を、デバイスメモリ(カメラメモリ)320に格納された網膜マップ330と比較し、それにより、電子ビューファインダ内のマイクロディスプレイ404に対するユーザの視線の方向を判定する画像比較器332とを備える。
【選択図】 図3

Description

本発明は、網膜トラッキングを組み込んだ装置及び方法に関する。
現在、電子装置の中には、装置とインタフェースするために用いることができる情報をユーザに伝達するマイクロディスプレイビューファインダを備えるものがある。例えば、画像だけでなく様々な選択可能な機能をユーザに提示することができるマイクロディスプレイを含むビューファインダを有するデジタルカメラが、現在入手可能である。デジタルカメラの場合、マイクロディスプレイビューファインダを設けることにより、バックパネルディスプレイ(例えば、液晶ディスプレイ(LCD))に通常において伴う問題、例えば、太陽によるウォッシュアウト,ディスプレイの汚れ,及び/又は引掻き傷などが回避される。
マイクロディスプレイビューファインダは、多くの用途において有用であるが、ユーザインタフェースの観点から見ると、既知のマイクロディスプレイビューファインダは、魅力的ではない。特に、ビューファインダのマイクロディスプレイがユーザに選択可能な機能を提示するグラフィカルユーザインタフェース(GUI)として用いられる場合には、ユーザが自身の望む選択を登録(入力)する(resister)ことが困難である場合がある。これは、これらの選択を行うために用いられるツールがマイクロディスプレイとは別個のものであるためである。例えば、ディスプレイに提示される機能は、通常、「矢印」ボタンを用いて画面上のカーソルを操作することにより選択される。このようなボタンによって画面上の機能を選択することは、バックパネルディスプレイとインタフェースする際には容易であるが、装置のビューファインダを覗きながら、特にビューファインダに隣接した位置にあるボタンを作動させるには、これらのボタンは扱いにくい。このようなボタンが難なく操作できる場合であっても、例えばボタンが別個の構成要素(例えば、キーボードなどの別個の入力デバイス)にある場合、このようなボタンで選択を行うのには、通常では時間がかかる。例えば、画面上のカーソルを用いて選択するボタンを特定する場合、矢印ボタンを用いてカーソルをボタンの位置に合わせる過程は時間がかかる。GUIに提示される機能を選択するために通常用いられる他の既知のデバイス、例えばマウス,トラックボール,又はスタイラスは、殆どのポータブル装置では、特にマイクロディスプレイビューファインダを備える装置では全く実用的ではない。
そこで、本発明は、上述の如き実状を勘案して、網膜トラッキングシステムを組み込んだ電気装置(例えば、デジタルカメラなど)及び方法を提供する。
一実施形態では、本発明に係る装置は、マイクロディスプレイを収納するビューファインダと、マイクロディスプレイに対するユーザの視線(gaze:凝視)の方向を判定するように構成された網膜トラッキングシステムとを備える。
上記で明らかにしたように、装置のマイクロディスプレイに提示された機能を装置に設けられた別個の制御部を用いて選択及び/又は制御することは、困難であり得る。特に、ボタンなどのそのような制御部を、同時に装置のビューファインダを覗いてマイクロディスプレイを見ながら操作することは厄介である。更に、このような別個の制御部の応答性は悪い。以下で説明するように、表示された機能のユーザによる選択及び制御は、ユーザが自身の視線方向を変えることにより簡単に機能の選択又は移動を行うことができる場合に大きく改善される。例えば、ユーザがマイクロディスプレイのどの領域を見ているのかに応じて、マイクロディスプレイで画面上のカーソルを移動させることができる。同様に、ユーザが選択を望んでいるアイテムを単に見ることにより、ユーザによってメニューアイテムがハイライト及び/又は選択され得る。
以下で説明するように、ユーザの視線の方向は、ユーザがマイクロディスプレイを走り読みする際にユーザの網膜をトラッキング(追跡)することにより判定され得る。特に、本装置は、ユーザの網膜の血管のパターンを検出し、その向きを、デバイスメモリに格納された網膜マップの向きと相互に関連付ける。このような動作により、画面上のアイテムは、高精度で迅速に選択及び/又は制御されることができる。
次に、図面を参照するが、いくつかの図面を通して同様の参照符号は対応する部分を示している。図1は、網膜トラッキングシステムを組み込んだ装置100の実施形態を示しており、網膜トラッキングシステムは、装置のマイクロディスプレイに提示された機能のユーザによる選択及び/又は制御を推測するために用いられ得る。図1に示すように、装置100は、カメラ、特にデジタルスチルカメラを含み得る。カメラの実施態様は、図面に示し、本明細書で説明するが、カメラは、網膜トラッキングを用いることができる多くの異なる装置のうちの1つを表しているだけであることを理解するべきである。従って、以下で説明する網膜トラッキングシステムは、代替的に、ビデオカメラ,仮想現実感眼鏡(virtual reality glasses),ポータブルコンピューティングデバイスなどの他のデバイスで用いることができる。実際に、網膜トラッキングシステムは、グラフィカルユーザインタフェース(GUI)を提示するために用いられるマイクロディスプレイを含む、実質的に如何なるデバイスでも用いることができる。
図1に示すように、デジタルカメラ(これ以降において「カメラ100」と呼ぶ)である装置100は、外部ハウジング104に覆われたカメラ本体102を有している。カメラ100は、更に、例えばズームレンズ系を収納する鏡筒106を有している。カメラ本体102の前部には、カメラを把持するのに用いられるグリップ108と、例えば、カメラのフォーカス,露出,及びホワイトバランスの自動設定に用いられる視覚情報を収集するために用いられ得るウィンドウ110とが組み込まれている。
カメラ100の上部には、カメラ100のシャッタ(図1では見えない)を開くために用いられるシャッタリリースボタン112が設けられている。シャッタリリースボタン112の周りにはリング制御部114があり、これは、当該制御部が付勢される方向に応じてレンズ系をズームイン及びズームアウトさせるのに用いられる。シャッタリリースボタン112に隣接して、マイクロホン116があり、これは、カメラ100が「動画モード」で用いられる場合に音声を取り込むために用いられ得る。マイクロホン116の隣にはスイッチ118があり、これは、光の少ない状態で物体を照明するために用いられ得るポップアップフラッシュ120(格納された位置で示す)の動作を制御するために用いられる。
次に、図2を参照すると、カメラ100の後部が示され、カメラ本体102には更に、マイクロディスプレイ(図2では見えない)を組み込んだ電子ビューファインダ(EVF)122が設けられ、取り込んだ画像及びGUIがマイクロディスプレイにおいてユーザに提示されようになっている。マイクロディスプレイは、以下においてより詳細に説明するように、拡大レンズ又はレンズ系を備え得るビューファインダ122のビューウィンドウ124を覗くことにより見ることができる。任意に、カメラ100のバックパネルは、フラットパネルディスプレイ126も含むことができ、フラットパネルディスプレイ126は、ショットを構成して取り込んだ画像を見直すのに用いられ得る。ディスプレイ126が設けられる場合には、ディスプレイ126は、液晶ディスプレイ(LCD)から成り得る。カメラ本体102のバックパネルには、種々の制御ボタン128も設けられる。これらのボタン128は、例えば、ディスプレイ126に示される取り込まれた画像をスクロールするために用いられ得る。カメラ本体102のバックパネルは、更に、ユーザに可聴情報(例えば、ブザーや録音した音)を与えるのに用いられるスピーカ130と、バッテリー及び/又はメモリカードを収納するのに用いられるコンパートメント132とを備えている。
図3は、カメラ100の構造の例を示す。この図に示すように、カメラ100は、見たシーンの像を1つ又は複数のイメージセンサ302に伝えるレンズ系300を有している。例として、イメージセンサ302は、1つ又は複数のセンサドライバ304により駆動される電荷結合素子(CCD)を備えている。次に、センサ302により取り込まれたアナログ画像信号は、アナログ・デジタル(A/D)変換器306に供給されて2進コードに変換され、これがプロセッサ308により処理され得る。
センサドライバ304の動作は、プロセッサ308と双方向通信するカメラコントローラ310により制御される。コントローラ310によって、レンズ系300を駆動するために(例えば、フォーカス及びズームを調整するために)用いられる1つ又は複数のモータ312,図1に示すマイクロホン116,及び電子ビューファインダ314も制御され、これらの様々な実施形態は、これ以降の図で説明する。イメージセンサ302からのような電子ビューファインダ314からの出力は、A/D変換器306に供給されて、処理の前にデジタル形式に変換される。カメラコントローラ310の動作は、ユーザインタフェース316の操作により調整され得る。ユーザインタフェース316は、カメラ100に選択及びコマンドを入力するのに用いられる種々の構成要素を備えるため、少なくともシャッタリリースボタン112,リング制御部114,及び図2に示す制御ボタン128を備えている。
デジタル画像信号は、カメラコントローラ310と、永久(不揮発性)デバイスメモリ(カメラメモリ)320に格納された1つ又は複数の画像処理システム318とからの命令に従って処理される。次に、処理された画像は、取り外し可能な固体メモリカード(例えば、フラッシュメモリカード)内に含まれているようなストレージメモリ(記憶装置)322に格納され得る。1つ又は複数の画像処理システム318に加えて、デバイスメモリ320は、更に、1つ又は複数の血管検出アルゴリズム324(ソフトウェア又はファームウェア)を備え、この血管検出アルゴリズム324は、電子ビューファインダ314と共に用いられて、ユーザの網膜血管を特定し、それらの動きを追跡して、ユーザの視線の方向を判定する。
カメラ100は、更に、ユニバーサルシリアルバス(USB)コネクタなどのデバイスインタフェース326を備えており、デバイスインタフェース326は、カメラ100からパーソナルコンピュータ(PC)又はプリンタなどの別のデバイスに画像をダウンロードするために用いられ、同様に、画像又は他の情報をアップロードするためにも用いることができる。
上述の構成要素に加えて、カメラ100は、更に、画像モンタージュユニット328と、1つ又は複数の網膜マップ330と、画像比較器332と、スイッチ334とを有している。これらの構成要素、並びに、血管検出アルゴリズム324は、画面上のGUI機能のユーザによる選択及び/制御を推測するのに用いられる網膜トラッキングシステムの一部を形成する。これらの構成要素の動作は、以下において詳細に説明する。
図4は、カメラ100に組み込まれ得る電子ビューファインダ314Aの第1の実施形態を示す。図4に示すように、電子ビューファインダ314Aは拡大レンズ400を備えており、ユーザは、この拡大レンズ400を自身の目402の近くに位置付ける。拡大レンズ400は、ビューファインダのハウジングに収納されたマイクロディスプレイ404で生成された画像を拡大及びフォーカスするために用いられる。要素400は、図4では1つのレンズとして示されているが、所望であれば適当な複数レンズのシステムを用いてもよい。拡大レンズ400を設けることにより、マイクロディスプレイ404により生成された画像Iがユーザの目402に伝達され、それにより、対応する画像I’が目の網膜406で焦点合わせされる。
マイクロディスプレイ404は、透過型,反射型,又は発光型ディスプレイから成っていてよい。本開示のため、「マイクロディスプレイ」という用語は、1インチ以下の対角寸法を有する任意のフラットパネルディスプレイを指す。サイズは、比較的小さいが、拡大又は投影光学系を通して見た場合には、マイクロディスプレイには大きな高解像度の虚像が現れる。例えば、約0.19インチの対角寸法を有し、320×240画素の解像度を有するマイクロディスプレイは、2メートルの距離から見た場合には、約22.4インチ(対角寸法で)のサイズの虚像を生成することができる。
例として、マイクロディスプレイ404は、シリコンダイに形成された反射型強誘電性液晶(FLC)マイクロディスプレイから成る。このようなマイクロディスプレイの1つは、Displaytech, Inc.(Longmont, Colorado)から現在入手可能である。このようなマイクロディスプレイは、発光するのではなく反射するため、反射型マイクロディスプレイで画像を生成するために別個の光源が必要である。従って、電子ビューファインダ314Aは、発光ダイオード(LED)408の形態の赤色,緑色,及び青色の光源を備える。これらのLED408は、フィールド順次式で高周波数(例えば90〜180Hz)で順次にパルス発光し、それにより、経路「a」に沿って進む光は、ビームスプリッタ410(例えば、ガラス板又はプリズム)で反射して、マイクロディスプレイ404に当たる。マイクロディスプレイ404の種々の画素は、LED408から発せられる光がユーザの目402に向けて反射されるように操作される。画素のこの操作は、LED408のパルス発光と同期し、それにより、画像の赤色部分、次に緑色部分、というように立て続けに反射される。反射型マイクロディスプレイが図面に示され、本明細書で説明されるが、マイクロディスプレイは、代替的に、所望であれば小さいLCD(液晶ディスプレイ)又は有機発光ダイオード(OLED)などの透過型又は発光型のディスプレイから成ってもよい。このような場合、種々のLEDは不要となろう。
マイクロディスプレイ404から反射された(又は、場合によっては透過又は発せられた)光は、経路「b」に沿ってユーザの目402に向かって進む。種々の色の信号が高周波数で送られるため、目402は信号を解釈して合成し、それにより、その信号は、見たシーンを構成する色及び形状を形成するように見える。目402の特性により、この光の一部は、経路「c」に沿ってビューファインダ314Aに反射し戻される。その際、この光の一部は、光を再帰反射するユーザの網膜406で反射する。この光信号は、ユーザの網膜の像、従ってユーザの網膜の血管のパターンを有する(bear)。このようなパターンは個人ごとに特有のものであるため、反射されたパターンは、血管の「署名(signature)」とみなすことができる。
ユーザの目402によって反射された光は、拡大レンズ400を通って電子ビューファインダ314Aに入り、次に、ビームスプリッタ410で反射する。次に、この反射された像は、電子ビューファインダのハウジングに収納された網膜センサ(網膜イメージセンサ)412に到達する。このセンサ412は、CCDなどの固体センサから成る。センサ412がマイクロディスプレイ404と同じ光学距離だけユーザの目402から離れるように配置される場合には、センサに入射した光により与えられる網膜像は、血管が容易に特定可能な、拡大されかつ焦点の合った像である。センサ412により取り込まれた光信号は、デジタル信号への変換後にプロセッサ308(図3参照)に供給され、次に、ユーザの視線の方向を判定するために解析され得る。
図5は、図4に示すマイクロディスプレイ404に提示されるGUIのユーザ制御を可能にするために用いられる網膜トラッキングシステムの実施形態のフローチャートである。このフローチャートで説明される如何なるプロセスのステップ又はブロックも、モジュール,セグメント,又はプロセスの具体的な論理機能又はステップを実施するための1つ又は複数の実行可能な命令を含むプログラムコードの部分を表し得る。特定のプロセスステップの例を説明するが、代替的な実施態様も実施可能である。更に、ステップは、関連する機能に応じて、図示又は説明したものとは異なる順序で、例えば、ほぼ同時に又は逆の順序で、実行することができる。
図5のブロック500から開始して、網膜トラッキングシステムが起動される。この起動は、種々の異なる刺激(stimuli)に応じて行われ得る。例えば、あるシナリオでは、ユーザが装置のビューファインダを覗いていることを検出すると、起動が行われ得る。この状態は、例えば、従来技術において既知のアイ-スタート機構を用いて検出され得る。別のシナリオでは、網膜トラッキングシステムは、GUIがマイクロディスプレイを用いて最初に提示される際に、起動され得る。他のシナリオでは、網膜トラッキングシステムは、ユーザによるコマンドに応じて(例えば、図2の適当なボタン128を押すことにより)、起動される。
網膜トラッキングシステムが起動される方法に関係なく、次に、ブロック502に示すように、システムは、網膜センサ412で網膜像を取り込む。上述のように、網膜406から反射された光は、ユーザの血管署名の画像を有している。この光信号は、デジタル形式への変換後に、プロセッサ308(図3参照)に供給されて処理される。特に、ブロック504に示すように、ユーザの視線の方向は、光信号の解析により判定される。
ユーザの視線の方向は、様々な方法を用いて判定され得る。1つの好ましい方法では、取り込まれた網膜像を用いて、ユーザが見ているマイクロディスプレイ404の領域を判定する。取り込まれた網膜像からユーザの視線の方向を判定するのに適した1つの方法は、米国特許第6,394,602号に記載されており、この特許は、参照によりその全文が本開示に援用される。米国特許第6,394,602号に記載されるように、装置のプロセッサ308は、センサ412により取り込まれた網膜像を処理して、網膜像の固有の特徴をハイライトするようにする。特にハイライトされるのは網膜の血管であるが、これは、血管が非常に目立つために、標準的な画像処理エッジ検出技法を用いて特定及びハイライトするのが比較的容易だからである。これらの血管は、血管検出アルゴリズム324(図3参照)を用いて検出され得る。適切な検出アルゴリズムの詳細は、1997年にMulligenによりBehaviour Research Methods, Instrumentation and Computersに発表された、「Image Processing for Improved Eye Tracking Accuracy」というタイトルの論文に見出すことができ、これもまた、参照によりその全文が本明細書に援用される。次に、特定された血管パターンは、プロセッサ308により処理されて、対応する血管線画(line drawing)、例えば図6に示す線画600が生成される。この図6に示すように、画像処理後は、血管602の細部のみが明らかになる。
ユーザの視線がマイクロディスプレイ404に示される画像上を移動すると、センサ412により取り込まれた網膜像は変化する。従って、網膜トラッキングシステムがユーザの網膜の追跡に用いられ得る前に、システムは、特定のユーザの血管署名を認識するために較正されねばならない。較正は、視野にわたって散乱した複数の点、又は視野内を移動する1つの点を自ら凝視することをユーザに要求し、網膜のセンサ画像を取り込むことにより、行うことができる。この手順が用いられる場合には、ユーザの網膜406の「マップ」を得ることができる。較正が行われると、ユーザの視線の方向が、較正段階中に網膜マップが生成されたセンサ412により取り込まれた現在の網膜像と比較することにより判定され得る。
図3に示すコントローラ310は、網膜トラッキングシステムの上述の動作モードを制御する。ユーザインタフェース316を介して新たなユーザにより入力された較正要求に応じて、コントローラ310は、イッチ334の位置を制御し、それにより、プロセッサ308は、画像モンタージュユニット328に接続される。較正段階中に、マイクロディスプレイ404で見る対象として、テストカード(図示せず)が与えられる場合がある。このようなカードが用いられる場合には、このカードは、視野にわたって配列された幾つかの可視ドットを有する。次に、新たなユーザは、所与の配列のドットそれぞれを見るように指示される。ユーザがドットを見ると、画像モンタージュユニット328は、センサ412により取り込まれた網膜像を受け取り、それらを「結合(join)」して、新たなユーザの網膜406の網膜マップ330を形成する。次に、この網膜マップ330は、カメラが通常の動作モードである場合に用いるために、メモリ320に格納される。
カメラ100の使用中、コントローラ310は、スイッチ334を介してプロセッサ308を画像比較器332に接続する。次に、網膜センサ412は、センサ412により「見られ」得るユーザの網膜406の部分の像を取り込む。次に、この網膜像は、A/D変換器306によりデジタル変換され、プロセッサ308により処理されて、図6の線画600のようなユーザの可視血管パターンの線画が生成される。次に、この生成された線画600は、画像比較器332に供給され、画像比較器332は、その線画600を現在のユーザの網膜マップ330と比較する。この比較は、例えば、現在の網膜像と網膜マップ330との2次元相関を実施することにより行うことができる。この比較の結果は、ユーザの視線の方向を示し、コントローラ310に供給される。
図5に戻ると、ユーザの視線の方向が判定されると、ブロック506に示すように、マイクロディスプレイに提示されるGUIは、判定された視線方向に応じて制御される。この制御の性質は、所望のアクションによって決まる。図7及び図8は、2つの例を示す。まず、図7を参照すると、幾つかのメニュー機能702(この例では、ボタン)がユーザに表示されているGUI700が示される。これらのメニュー機能702は、ユーザが自身の視線を機能の1つに向けて、ユーザの視線の方向に画面上のカーソル704を移動させるようにすることで選択され得る。この動作は、図7に示されており、ここでは、カーソル704が「次候補(More)」ボタン706付近の元の位置から「コンプレッション」ボタン708へ移動する様子が示されている。カーソル704が所望のメニュー機能の上に位置付けられると、その機能は、ユーザ側の何らかの更なるアクションにより選択され得る。例えば、ユーザは、シャッタリリースボタン(図1のボタン112)を途中まで押してもよく、又は「選択」というコマンドを発声し、その発声音をマイクロホン(図1のマイクロホン116)により検出するようにしてもよい。
図8を参照すると、図7に示すGUI700が再び示されている。しかしながら、この例では、ユーザの視線は、カーソルを移動させるためには用いられず、その代わりに、GUIに示されるメニュー機能702をハイライトするために用いられる。図8の例では、ユーザは、「コンプレッション」ボタン708を凝視している。ユーザの視線の方向の検出により、このボタン708がハイライトされる。所望の表示機能がこのようにハイライトされると、その機能は、ユーザ側の何らかの更なるアクションにより選択され得る。この場合も、この更なるアクションは、シャッタリリースボタン(図1のボタン112)を途中まで押すこと、又は「選択」というコマンドを発声することを含むことができる。
図5を更に参照すると、ブロック508に示すように、網膜トラッキングシステムは、ユーザの網膜406のトラッキング(追跡)を続けるか否かを決定する。例として、この決定は、上記のブロック500を参照して示されたのと同じ刺激に関して行われる。トラッキングを続けるべきである場合には、流れはブロック502に戻り、上述のように進む。しかしながら、トラッキングを続けない場合には、網膜トラッキングセッションは終了する。
図9は、カメラ100に組み込まれ得る電子ビューファインダ314Bの第2の実施形態を示す。ビューファインダ314Bは、図4のビューファインダ314Aと多くの点で同様である。特に、ビューファインダ314Bは、拡大レンズ400と、マイクロディスプレイ404と、一群のLED408と、ビームスプリッタ410と、網膜センサ412とを含む。しかしながら、更に、ビューファインダ314Bは、ユーザの網膜406を照射するのに用いられるIR波長光を生成するのに用いられる赤外線(IR)LED900と、可視光が網膜センサ412に到達する前にそれをフィルタリングするのに用いられるIRパスフィルタ902とを備えている。これらの付加的な構成要素により、ユーザの網膜406は、IR光で照らされ、反射されたIR信号は、網膜センサ412により検出され得る。具体的には、IR光は、経路「a」に沿ってIR ED900から進み、ビームスプリッタ410で反射し、マイクロディスプレイ404で反射し、経路「b」に沿ってビームスプリッタ410及び拡大レンズ400を通って進み、ユーザの網膜406で反射して経路「c」に沿って進み、再びビームスプリッタ410で反射し、IRパスフィルタ902を通過し、最後に網膜センサ412により集光される。
この実施形態では、IR LED900は、例えば、マイクロディスプレイ404からの反射の1/4がIR反射であるように、フィールド順次式で他のLED408と同じようにパルス発光し得る。しかしながら、とりわけ、ユーザの目402はIR信号の存在を検出しないため、IR LED900は、他のLEDが消灯している場合にのみパルス発光する必要がない。実際には、所望である場合、IR LED900は、網膜検出中に連続照明することができる。しかしながら、バッテリー寿命を延ばすために、IR LED900は、通常、適当な周波数(例えば、2Hz)で断続的にパルス発光される。IR波長は人間の目には見えず、そのため瞳孔サイズを縮小させないため、IR光が照明として用いられる場合には、はっきりした網膜像を得ることができる。
図9の実施形態は、マイクロディスプレイ404がユーザの血管の画像を得るために網膜を照明することに依存する場合に生じ得る問題を回避することができる。特に、マイクロディスプレイ404により供給される光は、マイクロディスプレイにぼやけた画像が示される場合には、不適当である。更に、IR光の使用により、マイクロディスプレイ404の光により反射された血管パターンを特定する際に生じ得るどのような複雑な問題も回避される。このような複雑な問題は、マイクロディスプレイ404で見られる画像(表示画像)が非常に詳細であるために、ユーザの網膜で反射する光により与えられる表示画像を表す望ましくない光信号をフィルタリング除去することがますます困難になる場合に生じ得る。IR光の使用は、このような潜在的な問題を回避するため、図9の実施形態は、少なくとも幾つかの点で好ましいと考えることができる。
以上を要約すると、次の通りである。すなわち、本発明は、網膜トラッキングシステムを組み込んだ電子デバイス100を提供する。本発明の一実施形態では、電子デバイス100は、マイクロディスプレイ404を収納するビューファインダ314を備えており、網膜トラッキングしステムは、マイクロディスプレイ404におけるユーザの視線の方向を判定するように構成されている。
本発明の特定の実施形態を、例として前述の説明及び図面において詳細に開示したが、添付の特許請求項の範囲に記載される本発明の範囲から逸脱しない限り、本発明の変形及び変更を行うことができることは、当業者には理解されるであろう。
種々のプログラム(ソフトウェア及び/又はファームウェア)を上記に示した。これらのプログラムは、任意のコンピュータ関連システム又は方法により、或いはそれらと共に用いるために、任意のコンピュータ可読媒体に格納することができる。本明細書のコンテキストでは、コンピュータ可読媒体は、コンピュータ関連システム又は方法により、或いはそれらと共に用いるためのプログラムを含み得る、すなわち格納し得る、電子,磁気,光学,又は他の物理的なデバイス又は手段である。プログラムは、命令実行システム,装置,又はデバイス、例えば、コンピュータベースシステム,プロセッサ内蔵システム,或いは、命令実行システム,装置,又はデバイスから命令を取り出してそれを実行することができる他のシステムにより、或いはそれらと共に用いるための任意のコンピュータ可読媒体に具現され得る。「コンピュータ可読媒体」という用語は、命令実行システム,装置,又はデバイスにより、又はそれらとともに用いるためのコードを格納,通信,伝播,又は移送することができる任意の手段を包含する。
コンピュータ可読媒体は、例えば、限定はされないが、電子,磁気,光学,電磁気,赤外線,又は半導体のシステム,装置,デバイス,或いは伝播媒体であり得る。コンピュータ可読媒体のより具体的な例(非網羅的な列挙)としては、1つ又は複数の電線を有する電気接続部,ポータブルコンピュータディスケット,ランダムアクセスメモリ(RAM),リードオンリメモリ(ROM),消去可能プログラム可能リードオンリメモリ(EPROM,EEPROM,又はフラッシュメモリ),光ファイバ,及びポータブルコンパクトディスクリードオンリメモリ(CDROM)が挙げられる。なお、コンピュータ可読媒体は、プログラムが印刷された紙又は別の適当な媒体であってもよく、これは、例えばプログラムを紙又は他の媒体の光学走査により電子的に取り込み、次にコンパイルし、必要であれば解釈又は他の適当な方法で処理して、コンピュータメモリに格納することができるからである。
網膜トラッキングシステムを組み込んだ装置の一例を示す斜視図である。 図1の装置の背面図である。 図1及び図2に示す装置の構造の一実施形態を示す図である。 図1及び図2に示すビューファインダの第1の実施形態と相互作用するユーザの目の概略図である。 図4に示す網膜トラッキングシステムの動作の一実施形態を示すフローチャートである。 図3に示すプロセッサにより生成される血管の線画を示すである。 図1〜図3の装置のマイクロディスプレイに示される、網膜トラッキングシステムによる画面上のカーソルの操作を示すグラフィカルユーザインタフェースの概略図である。 図1〜図3の装置のマイクロディスプレイに示される、網膜トラッキングシステムによる画面上の機能のハイライトを示すグラフィカルユーザインタフェースの概略図である。 図1及び図2に示すビューファインダの第2の実施形態と相互作用するユーザの目の概略図である。
符号の説明
100 デジタルカメラ(装置,デバイス)
300 レンズ系
302 イメージセンサ
314,314A,314B 電子ビューファインダ
320 デバイスメモリ(カメラメモリ)
324 血管検出アルゴリズム
328 画像モンタージュユニット
330 網膜マップ
332 画像比較器
404 マイクロディスプレイ
406 網膜
408 発光ダイオード(LED)
412 網膜センサ
900 赤外線LED

Claims (10)

  1. (a) レンズ系と、
    (b) 前記レンズ系を介して送られた光信号を感知するイメージセンサと、
    (c) マイクロディスプレイ、及び、ユーザの網膜の像を取り込むように構成された網膜センサを収納する電子ビューファインダと、
    (d) 前記網膜センサにより取り込まれた像を、デバイスメモリに格納された網膜マップと比較し、それにより、前記電子ビューファインダ内の前記マイクロディスプレイに対するユーザの視線の方向を判定する画像比較器と、
    を備えることを特徴とするデジタルカメラ。
  2. 前記マイクロディスプレイは、反射型マイクロディスプレイであり、前記ビューファインダは、前記マイクロディスプレイを照明する色付きの光源を更に収納していることを特徴とする請求項1に記載のデジタルカメラ。
  3. 前記ビューファインダに収納された、前記ユーザの網膜を赤外光で照明する赤外光源を更に備えることを特徴とする請求項1に記載のデジタルカメラ。
  4. 前記ビューファインダに収納された、可視光が前記網膜センサに到達するのを防ぐ赤外線パスフィルタを更に備えることを特徴とする請求項3に記載のデジタルカメラ。
  5. 前記網膜センサにより取り込まれた網膜像を受け取り、前記網膜像を結合して、前記ユーザの網膜の網膜マップを形成する画像モンタージュユニットを更に備えることを特徴とする請求項1に記載のデジタルカメラ。
  6. カメラメモリに格納された血管検出アルゴリズムであって、前記ユーザの網膜の表面の血管を特定するように構成された血管検出アルゴリズムを更に含むことを特徴とする請求項1に記載のデジタルカメラ。
  7. 電子装置において用いられる電子ビューファインダであって、
    (a) グラフィカルユーザインタフェースを表示するマイクロディスプレイと、
    (b) ユーザの網膜を照明する赤外光源と、
    (c) 前記ユーザの網膜の像を取り込む網膜センサと、
    (d) 前記網膜センサにより取り込まれた像からユーザの視線の方向を判定し、それにより、前記グラフィカルユーザインタフェースに対するユーザ入力を推測する網膜トラッキングシステムと、
    を備えることを特徴とする電子ビューファインダ。
  8. マイクロディスプレイを制御する方法であって、
    (a) ユーザの網膜を光で照明するステップと、
    (b) 前記ユーザが装置のマイクロディスプレイを見ている間にユーザの網膜の像を取り込むステップと、
    (c) 取り込まれた像を解析することにより、前記マイクロディスプレイに対する前記ユーザの視線の方向を判定するステップと、
    (d) 判定されたユーザの視線に応じて、前記マイクロディスプレイに示される機能を制御するステップと、
    を含むことを特徴とする方法。
  9. 前記ユーザの網膜を光で照明するステップは、前記ユーザの網膜を赤外光で照明するステップを含むことを特徴とする請求項8に記載の方法。
  10. 前記ユーザの視線の方向を判定するステップは、前記取り込まれた像をデバイスメモリに格納された網膜マップと比較するステップを含むことを特徴とする請求項8に記載の方法。
JP2004103695A 2003-04-01 2004-03-31 網膜トラッキングを組み込んだ装置及び方法 Withdrawn JP2004312733A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/405,650 US20040196399A1 (en) 2003-04-01 2003-04-01 Device incorporating retina tracking

Publications (1)

Publication Number Publication Date
JP2004312733A true JP2004312733A (ja) 2004-11-04

Family

ID=33097143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004103695A Withdrawn JP2004312733A (ja) 2003-04-01 2004-03-31 網膜トラッキングを組み込んだ装置及び方法

Country Status (3)

Country Link
US (1) US20040196399A1 (ja)
JP (1) JP2004312733A (ja)
IL (1) IL158673A0 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4448039B2 (ja) * 2005-01-26 2010-04-07 キヤノン株式会社 撮像装置及びその制御方法
US9910341B2 (en) 2005-01-31 2018-03-06 The Invention Science Fund I, Llc Shared image device designation
US9489717B2 (en) 2005-01-31 2016-11-08 Invention Science Fund I, Llc Shared image device
US20060170956A1 (en) * 2005-01-31 2006-08-03 Jung Edward K Shared image devices
US9082456B2 (en) 2005-01-31 2015-07-14 The Invention Science Fund I Llc Shared image device designation
US9124729B2 (en) 2005-01-31 2015-09-01 The Invention Science Fund I, Llc Shared image device synchronization or designation
US8902320B2 (en) 2005-01-31 2014-12-02 The Invention Science Fund I, Llc Shared image device synchronization or designation
US9621749B2 (en) 2005-06-02 2017-04-11 Invention Science Fund I, Llc Capturing selected image objects
US9819490B2 (en) 2005-05-04 2017-11-14 Invention Science Fund I, Llc Regional proximity for shared image device(s)
US8681225B2 (en) 2005-06-02 2014-03-25 Royce A. Levien Storage access technique for captured data
US9191611B2 (en) 2005-06-02 2015-11-17 Invention Science Fund I, Llc Conditional alteration of a saved image
US9076208B2 (en) 2006-02-28 2015-07-07 The Invention Science Fund I, Llc Imagery processing
US8964054B2 (en) 2006-08-18 2015-02-24 The Invention Science Fund I, Llc Capturing selected image objects
US10003762B2 (en) 2005-04-26 2018-06-19 Invention Science Fund I, Llc Shared image devices
US9967424B2 (en) 2005-06-02 2018-05-08 Invention Science Fund I, Llc Data storage usage protocol
US9451200B2 (en) 2005-06-02 2016-09-20 Invention Science Fund I, Llc Storage access technique for captured data
US20070222865A1 (en) 2006-03-15 2007-09-27 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Enhanced video/still image correlation
US9001215B2 (en) 2005-06-02 2015-04-07 The Invention Science Fund I, Llc Estimating shared image device operational capabilities or resources
US9942511B2 (en) 2005-10-31 2018-04-10 Invention Science Fund I, Llc Preservation/degradation of video/audio aspects of a data stream
US8467672B2 (en) * 2005-10-17 2013-06-18 Jeffrey C. Konicek Voice recognition and gaze-tracking for a camera
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
JP2008067219A (ja) 2006-09-08 2008-03-21 Sony Corp 撮像装置、撮像方法
US7855743B2 (en) 2006-09-08 2010-12-21 Sony Corporation Image capturing and displaying apparatus and image capturing and displaying method
US8988519B2 (en) * 2012-03-20 2015-03-24 Cisco Technology, Inc. Automatic magnification of data on display screen based on eye characteristics of user
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9949637B1 (en) 2013-11-25 2018-04-24 Verily Life Sciences Llc Fluorescent imaging on a head-mountable device
WO2015130849A1 (en) * 2014-02-25 2015-09-03 Eyeverify Eye gaze tracking
CN114077726A (zh) * 2015-04-16 2022-02-22 托比股份公司 用于对用户进行认证的系统、方法和机器可读介质
US20180255614A1 (en) * 2015-09-28 2018-09-06 Kelsey-Hayes Company Programmable led driver
WO2018194962A1 (en) * 2017-04-17 2018-10-25 Akonia Holographics Llc Skew mirror auxiliary imaging
DE102017109254A1 (de) * 2017-04-28 2018-10-31 Carl Zeiss Ag Digitalkamera
WO2020121243A1 (en) 2018-12-12 2020-06-18 Ecole Polytechnique Federale De Lausanne (Epfl) Ophthalmic system and method for clinical device using transcleral illumination with multiple points source

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4513317A (en) * 1982-09-28 1985-04-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Retinally stabilized differential resolution television display
US6099522A (en) * 1989-02-06 2000-08-08 Visx Inc. Automated laser workstation for high precision surgical and industrial interventions
US5245381A (en) * 1990-08-20 1993-09-14 Nikon Corporation Apparatus for ordering to phototake with eye-detection
DK0725939T3 (da) * 1992-03-13 1999-11-15 Kopin Corp Skærmsystem til anbringelse på hovedet
US5627586A (en) * 1992-04-09 1997-05-06 Olympus Optical Co., Ltd. Moving body detection device of camera
US6008781A (en) * 1992-10-22 1999-12-28 Board Of Regents Of The University Of Washington Virtual retinal display
JPH06342146A (ja) * 1992-12-11 1994-12-13 Canon Inc 画像表示装置、半導体装置及び光学機器
JPH07135623A (ja) * 1993-10-27 1995-05-23 Kinseki Ltd 網膜直接表示装置
US6388707B1 (en) * 1994-04-12 2002-05-14 Canon Kabushiki Kaisha Image pickup apparatus having means for appointing an arbitrary position on the display frame and performing a predetermined signal process thereon
US5977976A (en) * 1995-04-19 1999-11-02 Canon Kabushiki Kaisha Function setting apparatus
US6538697B1 (en) * 1995-04-26 2003-03-25 Canon Kabushiki Kaisha Man-machine interface apparatus and method
GB9613766D0 (en) * 1996-07-01 1996-09-04 Life Science Resources Ltd Medical laser guidance apparatus
US5771124A (en) * 1996-07-02 1998-06-23 Siliscape Compact display system with two stage magnification and immersed beam splitter
US6847336B1 (en) * 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6677936B2 (en) * 1996-10-31 2004-01-13 Kopin Corporation Color display system for a camera
US5912720A (en) * 1997-02-13 1999-06-15 The Trustees Of The University Of Pennsylvania Technique for creating an ophthalmic augmented reality environment
US6614408B1 (en) * 1998-03-25 2003-09-02 W. Stephen G. Mann Eye-tap for electronic newsgathering, documentary video, photojournalism, and personal safety
GB9813041D0 (en) * 1998-06-16 1998-08-12 Scient Generics Ltd Eye tracking technique
US6396461B1 (en) * 1998-08-05 2002-05-28 Microvision, Inc. Personal display with vision tracking
GB2348520B (en) * 1999-03-31 2003-11-12 Ibm Assisting user selection of graphical user interface elements
US6491391B1 (en) * 1999-07-02 2002-12-10 E-Vision Llc System, apparatus, and method for reducing birefringence
US6758563B2 (en) * 1999-12-30 2004-07-06 Nokia Corporation Eye-gaze tracking
US6585374B2 (en) * 2000-03-22 2003-07-01 Canon Kabushiki Kaisha Ophthalmologic apparatus
US6456262B1 (en) * 2000-05-09 2002-09-24 Intel Corporation Microdisplay with eye gaze detection
JP2002101322A (ja) * 2000-07-10 2002-04-05 Matsushita Electric Ind Co Ltd 虹彩カメラモジュール
JP4529263B2 (ja) * 2000-09-18 2010-08-25 沖電気工業株式会社 アイリス認識装置
US7271839B2 (en) * 2001-03-15 2007-09-18 Lg Electronics Inc. Display device of focal angle and focal distance in iris recognition system
US7197165B2 (en) * 2002-02-04 2007-03-27 Canon Kabushiki Kaisha Eye tracking using image data
US6925122B2 (en) * 2002-07-25 2005-08-02 National Research Council Method for video-based nose location tracking and hands-free computer input devices based thereon
GB2396001B (en) * 2002-10-09 2005-10-26 Canon Kk Gaze tracking system
US6637883B1 (en) * 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
US7167201B2 (en) * 2003-04-28 2007-01-23 Hewlett-Packard Development Company, L.P. Device incorporating eye-start capability

Also Published As

Publication number Publication date
IL158673A0 (en) 2004-05-12
US20040196399A1 (en) 2004-10-07

Similar Documents

Publication Publication Date Title
JP2004312733A (ja) 網膜トラッキングを組み込んだ装置及び方法
JP4707034B2 (ja) 画像処理方法、入力インタフェース装置
US9852339B2 (en) Method for recognizing iris and electronic device thereof
US9456141B2 (en) Light-field based autofocus
EP0650292B1 (en) Image pickup apparatus
US20060044399A1 (en) Control system for an image capture device
US20040212711A1 (en) Device incorporating eye-start capability
US20130100319A1 (en) Image pickup apparatus and control method thereof
US20040169639A1 (en) Visible pointer tracking with separately detectable pointer tracking signal
JP2010164814A (ja) ヘッドマウントディスプレイ
JP4627052B2 (ja) 画像に連携した音声出力方法および装置
JP2001236178A (ja) 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
WO2018017625A1 (en) User interface for smart digital camera
JP2008287142A (ja) 画像投影装置
JP2011095985A (ja) 画像表示装置
US8149317B2 (en) Display device, photographing apparatus, and display method
KR20100091844A (ko) 촬상 장치 및 촬상 방법
JP2000276297A (ja) ポインティング位置検出装置、ポインティング位置検出方法、プレーゼンテーションシステムおよび情報記憶媒体
JPH07191796A (ja) 視線入力システム
JP6167511B2 (ja) 書画カメラ、書画カメラの制御方法
US10560635B2 (en) Control device, control method, and program
TW201128455A (en) Signaling device position determination
KR20090059514A (ko) 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기위한 프로그램을 저장한 기록매체
JP2013242408A (ja) 撮像装置およびその制御方法
JP2004215062A (ja) 撮像装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051226

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20060607