JP6968356B2 - アイコンタクト検出装置 - Google Patents

アイコンタクト検出装置 Download PDF

Info

Publication number
JP6968356B2
JP6968356B2 JP2021517728A JP2021517728A JP6968356B2 JP 6968356 B2 JP6968356 B2 JP 6968356B2 JP 2021517728 A JP2021517728 A JP 2021517728A JP 2021517728 A JP2021517728 A JP 2021517728A JP 6968356 B2 JP6968356 B2 JP 6968356B2
Authority
JP
Japan
Prior art keywords
light
eye contact
user
eye
light emitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021517728A
Other languages
English (en)
Other versions
JPWO2021084653A1 (ja
Inventor
美津夫 小島
響 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IMATRIX HOLDINGS CORP.
Original Assignee
IMATRIX HOLDINGS CORP.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IMATRIX HOLDINGS CORP. filed Critical IMATRIX HOLDINGS CORP.
Application granted granted Critical
Publication of JP6968356B2 publication Critical patent/JP6968356B2/ja
Publication of JPWO2021084653A1 publication Critical patent/JPWO2021084653A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Description

本発明は、人間と人間の間で行われる言語や行動等の相互通信、もしくはそれらを開始するための合図、として用いられる相互の視線の一致による意思の交換モデル、一般に言われるアイコンタクトを、同様に人間と機械とのマン・マシンインターフェースに用いる技術に関する。
マン・マシンインターフェースとして、ユーザーの発話音声を認識したり、タッチパネルへのユーザーの操作を検出したりするものが実用化されている。例えば、特許文献1のユーザーインターフェース装置は、使用者の眼球運動を測定して視線方向を判定し、この判定結果に基づき所定の回数の瞬き、もしくは所定時間の直視を検出して使用者の意思を伝達する技術を開示している。また、特許文献2の空間入力装置は、表示された立体虚像へのユーザーの接触を検出することで入力を解析する技術を開示している。さらに特許文献3の情報処理装置は、ユーザーのアイコンタクト、視線の移動、視線の方向赤外線がユーザーの目を反射した際の反射光等の検出結果に応じて、表示されたオブジェクトを奥行き方向にアニメーション表示させる技術を開示している。
特開2004−252849号公報 特開2005−196530号公報 特開2012−133543号公報
マン・マシンインターフェースとしては、歴史的には機械操作のレバーやブレーキ、電気的なスイッチ、ダイアル等から近年においてはコンピュータを用いた画像表示装置とのライトペン、表示ポインター、マウス、画面タッチ動作が普及している。現在は画像処理技術を用いた人間の所作や、ユーザーからの発話音声に対して、適切な音声回答や動作等を出力することができる対話型装置を用いた機械の実用化が進められている。例えば、スマートフォン、スマートスピーカーやロボット等におけるマン・マシンインターフェースとしての対話型装置は、ユーザーからの問いかけに対する適切な解を、内蔵されたデータ、もしくはネットワーク等を介してクラウドサーバーに接続され、クラウドサーバーに蓄積されたデータから検索し、それを出力する。
こうした対話型装置では、起動するとき、あるいは処理を実行するとき等に、ユーザーからの予め決められた音声フレーズや動作もしくは機械的な操作によってユーザーと装置との接続や関連性を確立する。つまり、ユーザーは、機械(スマートスピーカーやロボット等)が備える対話型装置をインターフェースとして、機械との関係を、特定し、対話の開始、対話の継続、割込み、保留、終了を認識し、いわゆるハンドシェークを行う。人間と機械の間で、対話型装置を通じて何らかの音声や動作等による合図を交換し、対話(通信)開始や継続、割込み、保留、終了の合意を、排他的か否かにかかわらず、確認しなければならない。
例えば、不特定多数の人間集団の中にいるユーザーが対話型装置であるスマートスピーカーを起動するとき、「○○○」という特定の音声フレーズの呼びかけを行うことにより、スマートスピーカーとユーザーの間での個別の対話関係の確立の意思を伝える、つまりユーザーよりスマートスピーカーに起動信号を入力することにより、ユーザーとスマートスピーカーとの対話を起動し、場合によってはスマートスピーカーよりユーザーに対して「△△△さん、こんにちは!」等の返答により対話の相互関係の起動と確立を確認し、続いてスマートスピーカーに質問・返答等の対話を開始する。また、スマートスピーカーから、相手となるユーザーへ対話関係の確立の意思を伝える場合もある。このように、ユーザーと対話型装置が相互作用をする場合には、その都度、特定の音声フレーズの発話や物理的な動作によってユーザーと装置との接続の確認(ハンドシェーク)を行い、相互関係を確立する必要がある。この確立の方法や手順が、ユーザーあるいは対話型装置に煩雑な処理や手続きの遅鈍さ、使用の環境になじまない(騒音、雑音、静粛、日照、照明、暗闇、液体や気体雰囲気中等)不便や負荷を与えるものであり、対話型装置やその背後にあるクラウドシステムにとってはシステム手続きや処理のコストとなりシステム資源の浪費となる。また、上記の例のような対話型装置のみならず、航空機や自動車等の移動体の操縦士が、操縦装置の計器や操作機器の状態、管制信号や相手の操縦士もしくは相手の移動体の目視確認を機械システムで確実化する方法実用化されておらず、複数の操縦士の反復確認や、自身の指差確認に拠らざるを得ない状況から、不注意や怠慢による重大事故の発生の原因となっている。
本発明は、このような従来の課題を解決するものであり、機械が人間の赤目現象を利用することにより、従来と比較して高速、簡単かつ確実にマン・マシンインターフェースを実現可能なアイコンタクト検出装置を提供し、これを用いた対話型装置や警報装置や認証装置、およびこれらを装備する機械やネットワークシステムの簡便化や効率化を図ることを目的とする。
本発明に係るアイコンタクト検出装置は、特定領域から光を発光する発光手段と、前記発光手段により発光された光の反射光を受光し、受光に応じた電気信号を出力する受光手段と、前記発光手段からの光に対応する前記電気信号に基づきユーザーのアイコンタクトの有無を判定する判定手段とを含む。
ある実施態様では、前記判定手段は、ユーザーの視線方向が前記特定領域に向けられたとき、前記特定領域から発光された光線がユーザーの眼底で反射された赤目現象による反射光(眼球の角膜、虹彩、水晶体を通過し眼球の網膜に到達し、網膜で反射され水晶体、虹彩、角膜を通過し、眼球外に放射された光)に基づきコンタクトの有無を判定する。ある実施態様では、前記発光手段は、変調した光を発光し、前記判定手段は、前記変調した光に対応する電子信号に基づきアイコンタクトの有無を判定する。ある実施態様では、前記受光手段は、光軸上に位置するユーザーの赤目現象による反射光を受光する。ある実施態様では、前記受光手段は、光学系あるいは電子撮像装置を介して光軸とは異なる方向に位置するユーザーの赤目現象による反射光を受光する。ある実施態様では、アイコンタクト検出装置はさらに、ユーザーの物理的位置関係を検出する検出手段を含み、前記発光手段は、前記検出手段によりユーザーの接近が検出されたことに応答して発光する。ある実施態様では、前記発光手段は、複数の発光素子を含み、複数の発光素子は、異なる変調で光を発光し、前記判定手段は、複数の発光素子の異なる変調に対応する電気信号に基づきアイコンタクトの有無を判定する。ある実施態様では、前記判定手段は、複数の発光に対応する電気信号に対応する複数の赤目現象の方向を算出し、算出された複数の赤目現象の方向の変動または変化率に基づきアイコンタクトの有無を判定する。ある実施態様では、前記受光手段は、複数の受光素子を含み、前記判定手段は、複数の受光素子から出力される電気信号に基づき複数のユーザーのアイコンタクトの有無を判定する。ある実施態様では、前記受光手段は、発光を受けたユーザーの赤目現象による反射光の特定の波長帯の光を受光し、前記判定手段は、前記受光手段で受光された特定の波長帯の光に基づきアイコンタクトの有無を判定する。ある実施態様では、前記受光手段光学フィルターを介して前記特定の波長帯の光を受光する。ある実施態様では、アイコンタクト検出装置はさらに、撮像手段を含み、前記判定手段は、前記撮像手段によって撮像された画像データに基づきアイコンタクトの有無を判定する。
また本発明に係る対話型装置は、上記記載のアイコンタクト検出装置と、ユーザーからの音声入力を認識する音声認識手段と、前記音声認識手段の認識結果に基づき処理を実行する実行手段と、前記実行手段により処理された結果を音声出力する音声出力手段とを含み、前記実行手段は、前記アイコンタクト検出装置の検出結果に応じて処理を実行する。
ある実施態様では、前記実行手段は、前記アイコンタクト検出装置によりアイコンタクトの確立が検出されたとき、前記音声認識手段による対話の開始または終了を判別する。ある実施態様では、前記対話型装置はさらに、ユーザーの接近または存在を検知する検知手段を含み、前記発光手段は、前記検知手段によりユーザーの接近または存在が検知されたことに応答して光を発光する。ある実施態様では、前記判定手段は、前記画像データに含まれるユーザーの眼底の毛細血管のパターンを利用した個人認証に基づきアイコンタクトの有無を判定する。
本発明によれば、対話型装置等より発光された光と、その発光した光によってユーザーの眼底で反射された赤目現象による反射光を用いてアイコンタクトの有無を判定し、ユーザーと対話型装置のハンドシェークの確認が行えるようにしたので、従来の手段と比較して容易、迅速に、そして経済的にマン・マシンインターフェースを実現することが可能になる。
本発明の実施例に係る対話型装置の構成例を示すブロック図である。 本発明の実施例に係る対話型装置のネットワークへの接続例を示す図である。 本発明の実施例に係るアイコンタクト検出部の内部構成を示す図である。 図4(A)は、発光素子から発光される光線の様子を示す図、図4(B)は、受光素子で受光される光線の様子を示す図である。 光軸に対する視線方向との角度差と受光量との関係の一例を示すグラフである。 本発明の第2の実施例に係るアイコンタクト検出の動作例を説明するタイミングチャートである。 本発明の第3の実施例に係る光学フィルターを利用した例を示す図である。 本発明の第5の実施例に係るアイコンタクト検出部の構成を示す図である。 本発明の第6の実施例に係るアイコンタクト検出部の構成を示す図である。 本発明の第7の実施例に係るアイコンタクト検出部をスマートスピーカーに応用した例を示す図である。 本発明の第8の実施例に係るアイコンタクト検出部を航空機の計器盤(ディスプレイ)に応用した例を示す図である。
次に、本発明に係るアイコンタクト検出装置の実施の形態について説明する。本発明に係るアイコンタクト検出装置は、人間と機械との間のマン・マシンインターフェースを実現するものであり、対話型装置、コンピュータ装置、情報端末装置、携帯端末装置、ゲーム機器等のあらゆる電子装置または電子システムに適用することができる。ある実施態様では、アイコンタクト検出装置は、ユーザーが電子装置を起動させたり、動作を開始させたり、あるいは動作を終了させるための合図を入力する入力装置として利用される。
本発明は、「赤目現象」という写真や画像処理応用分野においてネガティブファクターをいかに避けるべきかの問題を、逆に積極的に利用するものである。「赤目現象」とは、眼球の角膜、虹彩、水晶体を通過し眼球の網膜に到達し、網膜で反射された光がさらに水晶体、虹彩、角膜を通過し、眼球外に放射される現象である。
本発明は、人と人のように、ユーザーの「視線方向」と、機械の「視線方向」が直線上で一致することをアイコンタクトの前提条件とする。機械がユーザーの「視野」に入る、もしくはユーザーが機械の「視野」に入るのみ、つまり視線方向のみは、本発明がいうところのアイコンタクトではない。本発明は、「赤目現象」によって、ユーザーと機械の「相対関係」の確立を検出するものである。
好ましい実施態様では、アイコンタクトは、ユーザーが対象の機械に何らかの動作を行う場合、つまり、マン・マシンインターフェースの「起動」を行いたい場合に実施される。本発明におけるアイコンタクトの成立または検出は、次のステップ(1)ないし(5)のシーケンスを介して実施される。
(1)ユーザーに機械が見える、つまり機械がユーザーの「視野」に入る。
(2)ユーザーは、視野の中から、特定の対象である機械に視野を狭めて、「視線」を合わせる行為を一定時間継続する。これは、機械の特定の対象を「見つめる」行為であり、ユーザーのアイコンタクトを求める意思表示である。つまり、まずユーザーが機械とのインターフェース確立を要求する意思があるが故に、機械を「見つめる」ことになる。例えば、スマートスピーカーの場合を例にすると、ユーザーが「ぼんやり」と機械を視野に入れた、あるいは偶然視野に入った場合は、ユーザーは機械に対しアイコンタクトを要求していない。このような状態において「赤目現象」が機械により(判定のスレシホールドを超えて)検出された場合は、スマートスピーカーは、最初はあまりユーザーの邪魔にならない小さな光の点滅等によりユーザーの「意思」の確認を行うような方法を用いることができる。ユーザーは「意思」があれば続いてスマートスピーカーに話しかけ、「意思」がない場合は小さな光の点滅等を無視する。スマートスピーカーは、光の点滅の一定時間後にユーザーから応答がなければ、「アイコンタクト」のハンドシェークは不成立と判定する。
(3)機械は、ユーザーから選択的に視線が送られてきたこと、つまり「見つめられていること」を検出する。つまり、ユーザーの眼による「赤目現象」の検出信号が、前もって決めた判定基準を満たしていることを検出する。
(4)機械は、ユーザーに対して、音声、発光、振動、動作等により、アイコンタクトの成立をユーザーに知らせる。
(5)ユーザーは、(2)の行為を停止する。こうして、アイコンタクトによるマン・マシンインターフェースの「起動」、ハンドシェークが完成される。
好ましい実施態様では、本発明のアイコンタクトの検出において特徴的な事項を以下に記載する。
(A)本発明において、(1)の状態、つまり、ユーザーの「視野」に機械が入った状態では、アイコンタクトは不成立である。
(B)本発明では、機械にも、ユーザーによって見られるための、眼に相当(象徴)する物、場所(機械全体を含め特定の領域)がある、もしくは設定することが必要である。
(C)本発明では、(2)の状態を機械が検出するために、例えば、機械が発光する光線の色(周波数)、強弱(変調)、場所(複数の発光手段等を含む)等を制御し、「赤目現象」がそれらの制御に呼応同期することを検出し、ユーザーが機械を見ていることを検出する。これにより、ユーザーの「視野」に単に入っただけの状態と分別する。
(D)「ユーザーが機械を見つめる」ということは、ユーザーの眼と機械の間には、障害物もなく直線上にある物理的な位置関係が必要である。
(E)また、光学的な鏡あるいは電子的な転送方法を用いて視線を屈折あるいは転送して「見つめる」ことを検出ことも可能である。
(F)ユーザーが「見つめる」機械の場所が発光手段の場所で、かつ反射光を受光する場所が物理的、光学的、電子的に発光手段の場所と同一、同軸、あるいは赤目現象を検出できる許容範囲において直列・並列である。
(G)発光手段や受光手段、ユーザーの位置関係を、電子的、光学的に調整・補正して赤目現象を検出できる。
(H)発光手段、受光手段等を複数設置したり、回転、移動、発光の変調等をすることにより、ユーザーと機械の物理的位置等の制限を回避したり、相対関係を確立したりできる。
以下の実施例では、本発明に係るアイコンタクト検出装置を対話型装置に適用した例を示す。図1は、本発明の実施例に係る対話型装置の一構成例を示す図である。対話型装置とは、ユーザーと対話する機能を備えた電子装置またはコンピュータ装置であり、ユーザーが発話した音声を認識し、その認識結果に基づき処理を実行し、実行した結果を音声出力する機能を備えている。例えば、ユーザーは、対話型装置に対して質問を行い、対話型装置は、その質問を認識し、質問に対する最適な解答を得るための処理を実行し、質問に対する解答を音声出力する。
対話型装置100は、同図に示すように、ユーザーの視線による合図を検出するアイコンタクト検出部110と、ユーザーの接近または存在を検知する人感センサ120と、ユーザーの発話音声等を入力する入力部130と、ネットワーク等を介して外部のサーバー等とデータ通信を可能にする通信部140と、音声出力等を行う出力部150と、対話型装置100にとって必要なデータ、ソフトウエア、プログラム、アプリケーション等を記憶する記憶部160と、各部を制御する制御部170とを含んで構成される。制御部170は、例えば、ROM/RAM等を含むマイクロコンピュータ、マイクロプロセッサ、音声・画像認識モジュール等を含み、ソフトウエア、ハードウエア、あるいはソフトウエアおよびハードウエアにより各部を制御する。
対話型装置100の主な機能は、ユーザーとの間で音声による対話を行うことである。例えば、ユーザーが発話すると、それに対する応答をする。入力部130は、例えばマイクロフォンを含み、ユーザーからの音声入力信号を電気信号に変換し、これを制御部170へ提供する。制御部170は、電気信号に基づきユーザーの音声を認識し、その音声認識結果に応じた処理を実行する。1つの態様では、対話型装置100は、図2に示すように、インターネットを介して情報提供サーバー180と連携し、例えば、ユーザーからの質問に対する最適な解を情報提供サーバー180から受け取り、これを音声出力する。
アイコンタクト検出部110は、ユーザーと対話型装置との間のアイコンタクトの有無を検出し、この検出結果を制御部170へ提供する。制御部170は、アイコンタクトの有無に応じて、音声認識した処理を制御することができる。例えば、制御部170は、アイコンコンタクトが確立されたことの検出に応答して処理の開始や終了を実行することができる。
アイコンタクト検出部110の内部構成を図3に示す。アイコンタクト検出部110は、同図に示すように、少なくとも1つの発光素子200と、発光素子200を駆動する駆動回路210と、発光素子200から発光された光の反射光を受光し、受光した光に対応する電気信号を出力する受光素子220と、受光素子220から出力される電気信号を受け取り、電気信号の増幅や復調等の処理を行う検出回路230と、検出回路230から出力される検出信号に基づきアイコンタクトが確立されたか否かを判定するアイコンタクト判定部240とを含む。
発光素子200は、例えば、図2に示すような対話型装置100のハウジングに取り付けられた円形状の開口部260から特定の方向に光を発する。開口部260は、発光素子200から発せられる光の波長を透過可能な透明な部材によって覆われている。開口部260は、対話型装置100の眼に相当する。1つの例として、開口部260は、その存在が目立つような形状であったり、色彩等が施されるようにしてもよい。例えば、開口部260は、人間の眼を模倣するような形状等であってもよい。一例として、ユーザーは、アイコンタクトしようとするとき、開口部260を特定の対象として「見つめる」行為を行う。
発光素子200の光源は任意であるが、1つの好ましい例では、広がり角が比較的小さい、指向性を有する発光ダイオード(LED)であることができる。発光ダイオードは、1つまたは複数であることができ、つまり点光源または面光源であることができる。さらに発光素子200により発光される光の波長は任意であり、例えば、白色光または赤色光のような可視光、赤外光(IrLED)であることができる。白色光の場合は、例えば、青色ダイオードを光源に用い、これを蛍光物質により波長変換することでRGBを生成するようにしてもよい。さらに、発光素子200は、ストロボまたはフラッシュのような光源や、例えば、室内灯においての壁面よりの各種光源の反射光等であってもよい。
駆動回路210は、制御部170からの指示に応答して、予め決められた期間、発光素子200を決められた変調方式に基づき発光させる。あるいは、駆動回路210は、対話型装置100への電源投入と同時に起動され、発光素子200を常時発光させたり、タイマーにより決められた時間期間、発光素子200を発光させることができる。変調方式は、特に限定されないが、例えば、発光する強度を変化させたり、波長を変化させたり、発光時間または点滅する時間を変化させたり、発光素子を駆動する駆動信号の周波数を変化させることができる。1つの態様では、制御部170は、人感センサ120が人体を検知されたとき、駆動回路210を介して発光素子200を一定期間点灯させる。この一定期間内に、ユーザーが視線を狭めてその視線を特定の対象(例えば、開口部260)に合わせる行為、つまり見つめる行為を行ったとき、アイコンタクトが成立する。
図4(A)に、発光素子200から発せられる光線の模式的な様子を示す。同図に示すように、発光素子200は、例えば、光軸Oが開口部260のほぼ中心に位置するように、回路基板250上に実装される。なお、回路基板250上には、駆動回路210や検出回路230等の回路部品も実装可能である。
発光素子200は、駆動回路210からの変調された駆動信号に応答して、光軸方向に広がり角θで光Iaを照射する。こうして、話型型装置100は、開口部260から光Iaを合図として照射する。
受光素子220は、発光素子200に近傍して回路基板250上に実装される。受光素子220は、発光素子200の近傍に位置するため、受光素子220の光軸は、発光素子200の光軸とほぼ同じとみなすことができる。受光素子200は、例えば、フォトダイオードまたはフォトトランジスタを含む。受光素子200は、図4(B)に示すように、照射光Iaがユーザーの眼球Eの網膜すなわち眼底に到達し、網膜で反射された赤目現象による反射光Ibを開口部260を介して受光し、これを電気信号に変換する。
本実施例では、対話型装置100の合図として照射された光Iaに応答してユーザーUがアイコンタクトを返したか否かを検出する。ユーザーUにアイコンタクトの意思があれば、ユーザーUは、発光素子220の光に呼応して開口部260に視線を向けこれを見つめる行為を行う。開口部260から照射された光Iaの照射領域内にユーザーUの眼球Eが存在し、かつ照射光Iaの視線方向とユーザーUの視線方向とが一致するとき、照射された光Iaは、眼球Eの眼底の網膜の後方にある輝板によって反射され、その反射光Ibは、ユーザーUからの合図として開口部260を介して受光素子220に受光される。照射された光Iaが目の虹彩によって瞳孔が閉じる前に眼球Eに入射されると、その光が、眼底ないし網膜に届き、その反射光がまっすぐ戻ってくる。網膜には毛細血管が多いため、眼底または網膜で反射された光は、いわゆる赤目現象として赤色になる。あるいは、照射する光に赤外光を照射した場合には、眼底で反射された目が異常に輝いて写るがこれも赤目現象である。本実施例は、このような赤目現象をアイコンタクトの検出に利用する。それ故、駆動回路210は、ユーザーUの赤目現象を検出するのに適した駆動方式で発光素子200を駆動し、検出回路230は、駆動回路210の駆動方式に適した方式で反射光を受光する。
受光素子220による受光量は、ユーザーUの眼球Eの光軸方向または視線方向と、発光素子200の光軸Oとが一致するとき、最大になり得る。仮に、ユーザーUの眼球Eが光軸O上にあったとしても、ユーザーUが発光窓260を見ていなければ、つまり視線方向が開口部260に向けられていなければ、ユーザーUの眼球Eの眼底(網膜)からの反射光は光軸Oからずれるため、眼球Eの眼底ないし網膜からの反射光Ibが光軸Oからずれ、その結果、受光素子220による受光量が低下する。また、ユーザーUの眼球Eが光軸Oから離れている場合には(但し、照射される光Iaの照射範囲内に眼球Eがある)、ユーザーUの眼球Eには発光素子200からの光Iaが十分に入射されなくなるため、それに応じて眼底からの反射光Ibの光量も少なくなる。眼底からの反射光Ibの受光量の大きさは、後述するように閾値と比較され、アイコンタクトの成立の有無の判定に利用される。
ここで、開口部260の外径Dは、受光素子220へ受光される光量を調整するために使用することも可能である。つまり、開口部260の外径Dをより小さくすれば、光軸Oから大きく外れた反射光Ibが開口部260によって遮光され、反射光Ibが受光素子220に受光され難くなる。他方、外径Dをより大きくすれば、光軸Oから大きく外れた反射光Ibであっても開口部260に遮光されずに受光され易くなる。従って、開口部260の外径Dによりアイコンタクトの精度を調整することができる。
受光素子220で生成されたアナログ電気信号は検出回路230へ出力される。検出回路230は、受光素子220から受け取ったアナログ電気信号を、必要に応じて増幅し、また駆動信号の変調方式に応じて復調等をする。検出回路230で処理された信号は、検出信号としてアイコンタクト判定部240へ提供される。
アイコンタクト判定部240は、対話型装置100の発光の合図に対して、つまり駆動回路210による一定期間内の変調された光の照射に対して、ユーザーが合図を返したとき、つまりユーザーが特定の対象である開口部260を一定期間見つめたとき、変調された光の照射に呼応するユーザーの赤目現象を利用した反射光が受光素子220に受光され、アイコンタクトが確立されたと判定する。アイコンタクト判定部240の判定結果は、制御部170へ提供され、制御部170は、アイコンタクトの有無に応じた制御を実行する。
次に、本発明の第1の実施例に係るアイコンタクト検出部110の動作例について説明する。第1の実施例では、制御部170は、人感センサ120が対話型装置100の近傍にユーザーUの存在を検知すると、これに応答して、駆動回路210に発光素子200を一定期間だけ発光させる。発光素子200から照射された光Iaの反射光Ibが開口部260を介して受光素子220で受光され、それに対応するアナログ電気信号が検出回路230へ出力される。
検出回路230は、アナログ電気信号を増幅し、増幅したアナログ電気信号をコンパレータ等の回路を用いて2値化すなわちデジタル信号に変換する。2値化するときの閾値は、実際の実験で抽出したサンプリングデータを用いて設定することができる。図5のグラフは、光軸OとユーザーUの眼球の向きとの角度差(縦軸)と、反射光の受光量(横軸)との関係の一例を示している。例えば、実験では、発光素子200の光Iaの照射範囲内において、ユーザーUの視線方向を光軸Oからずらしたとき受光量に対応する電気信号を計測し、これにより、角度差と受光量との関係(必ずしも図5のような関係になるとは限らない)またはこれを近似する数式を抽出する。この関係を利用して、アイコンタクトが確立している範囲を定義する。仮に、角度差がS以下となる範囲をアイコンタクトが確立する範囲と定義するならば、角度差Sのときの受光量Rに相当する電気信号が閾値に設定される。検出回路230は、受光素子220から受け取った電気信号と閾値とを比較し、アイコンタクトが確立されている場合には、例えば、Hレベルの検出信号を、確立していない場合には、Lレベルの検出信号を出力する。
アイコンタクト判定部240は、検出回路230から出力された検出信号のHまたはLレベルに基づきアイコンタクトの確立の有無を判定し、この判定結果を制御部170へ提供する。
次に、本発明の第2の実施例の動作例について説明する。第2の実施例では、発光素子200を一定期間、一定の周波数で点灯させ、その結果からアイコンタクトの有無を判定する。図6は、第2の実施例による信号のタイミングチャートを示している。制御部170は、人感センサ120が対話型装置100の近傍にユーザーUの存在を検知すると、それに応答して、時刻T1から時刻T2までの一定期間内に、駆動回路210にn個の駆動パルス信号を生成させ、発光素子200がn回発光するように変調させる。
n回の発光(変調)に応答して、その反射光が受光素子220で受光され、各受光に対応するアナログ電気信号が検出回路230へ出力される。検出回路230は、第1の実施例のときと同様に、アナログ電気信号を2値化または復調し、HまたはLレベルの検出信号をアイコンタクト判定部240に出力する。アイコンタクト判定部240は、Hレベルの検出信号の数をカウントし、その検出されたHレベルのパルスの個数Pと発光回数nとの関係からアイコンタクトの確立の有無を判定する。例えば、n/Pが一定値以上であるとき、あるいはn−Pが一定値以上であるとき、アイコンタクトが確立したと判定する。
本実施例によれば、複数回の発光(変調)に応じた複数の受光(復調)によりアイコンタクトの有無を判定するようにしたので、アイコンタクトの有無の判定精度を高めることができる。特に、ユーザーUがアイコンタクトする意思がないにもかかわれず、一瞬だけ開口部260を見てしまった場合に、このような判定方法は有効である。
なお上記の例では、発光部の発光回数を変調する例を示したが、これ以外にも、例えば、駆動回路210は、駆動信号の振幅の変化により発光強度を変調させたり、駆動信号のパルス周波数の変化により発光周波数を変調させることが可能である。この場合、検出回路230は、受光した光を復調し、アイコンタクト判定部240は、変調された光と復調された光とを比較し、その比較結果によりアイコンタクトの有無を判定する。例えば、両者の一致が閾値以上であれば、アイコンタクト有りと判定する。さらに、発光素子200が異なる波長の光を発光する複数の発光素子を搭載している場合には、駆動回路210は、発光素子を順次駆動することで光の波長を変調させることも可能である。
次に、本発明の第3の実施例によるアイコンタクト検出部110の構成を示す図である。人間の目の網膜には多くの毛細血管がある。目に光が照射されたとき、瞳孔から眼底に入り込んだ光が反射され再び瞳孔から出ていく。この反射光には赤色の波長が多く含まれ、赤目効果と呼ばれる。反射光に赤色の波長が多く含まれていれば、ユーザーUの眼底の方向が光軸Oに一致しまたは近似している可能性が高いと言える。そこで、第3の実施例では、ユーザーUの眼球Eで反射された光から赤色波長帯のみを抽出した光の受光量に基づきアイコンタクトの確立の有無を判定する。
図7は、第3の実施例の構成を示す図である。同図に示すように、開口部260の表面に、赤色波長帯を透過し、それ以外の波長帯の光を遮光する光学フィルター300を取り付ける。これにより、ユーザーUの眼球Eで反射された反射光のうち赤色波長帯のみが受光素子220に受光される。その結果、受光素子220は、ユーザーUの眼球Eの赤目効果を考慮した反射光を受光することができ、アイコンタクトの確立の判定精度を高めることができる。
なお、光学フィルター300は、必ずしも開口部260に取り付けるのではなく、例えば、開口部260と受光素子220との間に配置するようにしてもよい。また、受光素子220の前面に集光レンズを配置する場合には、集光レンズに光学フィルターを取り付けるようにしてもよい。さらに、発光素子200の光源として、白色光源を利用した場合には光学フィルターは有効であるが、赤色波長帯を発光する赤色ダイオード、あるいは赤外線を発光する赤外線ダイオードを用いた場合には、光学フィルターを省略することができる。
次に、本発明の第4の実施例について説明する。第1の実施例では、受光素子220から受け取ったアナログ電気信号を2値化したが、第4の実施例では、受光素子220から受け取ったアナログ電気信号に基づきユーザーUの眼底の赤目現象による反射光の方向αを算出し、眼底の方向αに基づきアイコンタクトの確立の有無を判定する。
制御部170は、第2の実施例のときと同様に、時刻T1からT2までの一定期間内に発光素子200をn回発光させ、受光素子220にn回の発光に応答した反射光を受光させる。検出回路230は、n回の受光に対応するアナログ電気信号の積分値またはピーク値からn回の眼底の方向α1、α2、…、αnを検出する。赤目現象による反射光の方向は、例えば、図5に示す角度差と受光量と関係から求めることができる。こうして、検出回路230により検出されたn個の眼底の方向がアイコンタクト判定部240へ提供される。
アイコンタクト判定部240は、n個の眼底の方向α1、α2、・・・、αnの変動または変化率に基づきアイコンタクトの確立の有無を判定する。1つの例として、眼底の方向α1〜αnが一定以下であり、かつ眼底の方向α1〜αnの変動または変化率が一定以下であるとき、アイコンタクトが確立されたと判定する。
本実施例によれば、ユーザーが対話型装置100に対して静止していない場合や、ユーザーがアイコンタクトする意思がないにもかかわらず開口部260を見てしまった場合等に、アイコンタクトの有無を精度よく判定することができる。
なお、上記実施例では、ユーザーが単独の場合のアイコンタクトの有無を判定する例を説明したが、対話型装置100が複数の受光素子を備え、複数の受光素子から出力されるそれぞれの電気信号に基づき複数のユーザーのアイコンタクトの有無を判定することも可能である。例えば、図8に示すように2つの受光素子200A、200Bを設けたとき、受光素子200Aから出力される電気信号に基づきユーザーU1のアイコンタクトの有無を判定し、受光素子200Bから出力される電気信号に基づきユーザーU2のアイコンタクトの有無を判定する。この場合、複数の発光素子のそれぞれの光軸上に、ユーザーU1、U2の赤目現象による反射光の光軸が一致したとき、アイコンタクトが成立する。また、干渉を抑制するため各発光素子の光を異なる変調方式で変調するようにしてもよい。
次に、本発明の第5の実施例について説明する。第5の実施例では、物理的に離間された複数の受光素子を用い、それぞれの受光素子の受光量に基づきユーザーUの位置を特定し、特定された位置を用いてアイコンタクトの確立の有無を判定する。ここでは、説明を容易にするため、2つの受光素子を例示する。図8は、発光素子200、受光素子220A、220B、ユーザーUの眼球Eの平面図を示しており、2つの受光素子220A、220Bは、発光素子200の光軸Oに関して線対称に配置されている。
発光素子200から光Iaが照射され、その照射領域内に眼球Eが存在するとき、光Iaの反射光Ib1、Ib2が受光素子220A、220Bによって受光される。検出回路230は、受光素子220A、220Bからアナログ電気信号を受け取り、これらの電気信号から受光素子220Aで検出される視線方向α1と、受光素子220Bで検出される眼底の方向α2をアイコンタクト判定部240へ提供する。
アイコンタクト判定部240は、2つの眼底の方向α1、α2の差分が一定範囲内であることを条件に、アイコンタクトの有無を判定する。つまり、理想的には、2つの眼底の方向α1とα2とは等しくなるが、両者の差が大きい場合には、検出精度が良好でないと推測される。従って、光軸Oに対する眼底の方向α1、α2が一定以下であって、かつ|α1−α2|が一定以下である場合に、アイコンタクトが確立したと判定する。なお、第5の実施例の変形例として、発光素子200をn回発光(変調)させ、それによって得られたn個の眼底の方向に基づきアイコンタクトの有無を判定するようにしてもよい。
次に、本発明の第6の実施例について説明する。第6の実施例は、図9に示すように、アイコンタクト検出部110がさらに、撮像カメラ300を備え、アイコンタクト判定部240は、撮像カメラ300で撮像された画像データをアイコンタクトの判定に用いる。
撮像カメラ300は、定点カメラとして対話型装置100内に設置され、開口部260を介して対話型装置100の周辺を撮像する。撮像カメラ300によって撮像された画像データはアイコンタクト判定部240に提供される。アイコンタクト判定部240は、画像データに映されるユーザーの顔または眼球を画像認識し、認識された顔または眼球の座標位置を算出する。1つの例では、アイコンタクト判定部240は、顔または眼球の座標位置が予め決められたエリア内にあるか否かの判定要件を、アイコンタクトの有無の判定の加重要件に加える。つまり、アイコンタクト判定回路240は、検出回路230で検出された信号と、画像データから抽出された顔または眼球の座標位置とに基づきユーザーのアイコンタクトの有無を判定する。これにより、アイコンタクトの有無の判定精度をさらに高めることができる。
さらに他の例として、アイコンタクト判定部240は、画像データに映されるユーザーの顔認証を行うようにしてもよい。この場合、アイコンタクト判定部240は、予め認証すべき顔の参照データとして格納しておき、参照データに基づき顔認証ができたか否かの判定を、アイコンタクトの有無の判定の加重要件に加えることができる。つまり、顔認証することができたユーザーに対してのみアイコンタクトの有無を判定する。さらに、顔認証された眼球の位置も加重要件に加えることも可能である。これにより、特定のユーザーのアイコンタクトの有無の判定精度をさらに高めることができる。
さらに他の例として、アイコンタクト判定部240は、画像データに映されるユーザーの眼底の毛細血管のパターンまた虹彩の特徴を利用してユーザーの個人認証を行うようにしてもよい。この場合、アイコンタクト判定部240は、予め認証すべき毛細血管のパターンや虹彩の特徴を参照データとして格納しておき、参照データに基づき個人証ができたか否かの判定を、アイコンタクトの有無の判定の加重要件に加えることができる。つまり、個人証することができたユーザーに対してのみアイコンタクトの有無を判定する。
さらに他の例として、撮像カメラ300を人感センサとして利用するようにしてもよい。撮像カメラ300により人物の顔が撮像されたとき、駆動回路210は、アイコンタクトの合図として変調された光を一定期間照射するようにしてもよい。さらに撮像カメラ300は、1つに限らず複数であっても良く、例えば、複数の撮像カメラによるステレオ効果を利用してユーザーまでの距離を計測し、ユーザーが一定の距離内に接近したとき、アイコンタクトの合図として一定期間光を照射させるようにしてもよい。
次に、本発明の第6の実施例について説明する。図10は、本実施例のアイコンタクトの判定をスマートスピーカーに応用した例を示している。同図に示すように、スマートスピーカー400は、アイコンタクト部410とこれに電気的に接続された本体部500とを含んで構成される。
アイコンタクト部410は、ハウジング内に、光源(発光素子)420、光学フィルター430、ハーフミラー440、光学フィルター450、受光素子460を含む。ハウジング上には、全天球光学系470が取付けられる。本体部500は、制御部510および音声出力部520を含み、制御部510は、アイコンタクト部410を制御し、かつ受光素子460から出力された電気信号に基づきアイコンタクトの有無を判定する。
光源420から発せられた光は、光学フィルター430に入射され、そこで特定の波長または波長帯の光がハーフミラー440に入射される。ハーフミラー440は、入射した光の一部を光軸Cの方向に反射し、その反射光は、全天球光学系470を介して外部に放射される。全天球光学系470は、全方位に光を放射するものであってもよいし、分割した特定の方位に光を放射するものであってもよい。全天球光学系470から放射された光は、ユーザーの眼球Eの眼底(網膜)に入射し、眼底で反射された反射光は、再び同じ光路を戻り、全天球光学系470を介して光軸C上を進む。この光の一部は、ハーフミラー440を透過し、光学フィルター450によってフィルタリングされた後、受光素子460によって受光される。
制御部510は、上記実施例と同様に、受光素子460から出力された電気信号に基づきアイコンタクトの有無を判定し、アイコンコンタクトが成立したとき、音声出力部520を介して音声を出力させる。
このように本実施例では、アイコンタクト部410とユーザーの眼球Eとの間に光学系を配置させることで、アイコンタクト部410の光軸Cとユーザーの眼球Eの光軸(視線方向)とを必ずしも直線上に一致させる必要はなくなり、アイコンタクト部410の光学設計に自由度を与えることができる。なお、図10に示す構成は一例であり、これ以外にも入射光と反射光との双方向性の光学系を電子的、機械的または光学的に実現することが可能である。
次に、本発明の第7の実施例について説明する。図11は、本実施例のアイコンタクトの判定を航空機や車両、船舶の計器盤(ディスプレイ)の視認確認に適用した例を示している。計器盤(ディスプレイ)600の水平方向の特定の位置X、Yには、発光部(発光素子と駆動回路を含む)と受光部(受光素子と検出回路を含む)との対がそれぞれ設けられ、垂直方向の特定の位置A、Bにも発光部と受光部との対がそれぞれ設けられる。
ユーザーの視線方向が水平方向に走査され、特定の位置X、Yで一定時間内に眼球Ex、Eyの眼球による赤目現象が検出された場合、あるいはユーザーの視線方向が垂直方向に走査され、特定の位置A、Bで一定時間内に眼球Ea、Ebの眼球による赤目現象が検出された場合、アイコンタクト判定部は、アイコンタクトが成立したと判定する。このアイコンタクトの判定結果に基づき制御部(図示省略)は、ユーザーが計器盤を視認したと判定する。
このように本実施例では、同軸上で視線の走査が行われ、その走査が一定時間内に赤目現象として検出された場合には、アイコンタクトが成立しているとみなすことで、ユーザーが視線方向を走査または移動させる行為を行ったときでも、アイコンタクトの有無を判定することができる。
上記実施例では、発光素子と受光素子とを同じ位置、つまり光軸上にある例を示したが、これは一例であり、本発明は、これに限定されるものではない。また、本発明の発光素子は、いわゆるポイントライトやスポットライトのような照射の光軸の対象を確定した光源のみに限定されず、太陽光のように広範囲な並行光線や、天井の室内照明のような光源が壁に反射してユーザーの眼球の眼底に反射(発光素子として変調)され、ユーザーの視線に並行して(入射角のブレの判定基準内あるいは誤差許容値で)受光部で受光されるものであってもよい。つまり、ユーザーの眼球に、受光素子の光軸(アイコンタクト検出装置の視線)と平行(ブレを許容した)した光が受光されればよい。
以上、本発明の好ましい実施の形態について詳述したが、本発明は、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された発明の要旨の範囲において、種々の変形、変更が可能である。
100:対話型装置 110:アイコンタクト検出部
120:人感センサ 130:入力部
140:通信部 150:出力部
160:記憶部 170:制御部
200:発光素子 210:駆動回路
220:受光素子 230:検出回路
240:アイコンタクト判定部 250:回路基板
開口部:発光窓 300:光学フィルター
400:スマートスピーカー 600:航空機の計器盤

Claims (14)

  1. アイコンタクト検出装置であって、
    特定領域から光を発光する発光手段と、
    前記発光手段により発光された光の反射光を受光し、受光に応じた電気信号を出力する受光手段と、
    前記発光手段からの光に対応する前記電気信号に基づきユーザーのアイコンタクトの有無を判定する判定手段と、
    前記判定手段によりアイコンタクトがあると判定されたとき、マン・マシンインターフェースを起動し、かつユーザーにアイコンタクトの成立を知らせる制御手段とを含み、
    前記判定手段は、ユーザーの視線方向が前記特定領域に向けられたとき、前記特定領域から発光された光線がユーザーの眼底で反射された赤目現象による反射光(眼球の角膜、虹彩、水晶体を通過し眼球の網膜に到達し、網膜で反射され水晶体、虹彩、角膜を通過し、眼球外に放射された光)に基づきアイコンタクトの有無を判定し、
    前記受光手段は、前記発光手段の光軸に関して対称に配置された2つの受光素子を含み、前記判定手段は、ユーザーの視線方向と前記発光手段の光軸との角度差と、前記受光手段による受光量との関係を予め用意しておき、前記判定手段は、前記関係を参照して前記2つの受光素子で受光された電気信号に基づき前記2つの受光素子に対応する2つの視線方向を算出し、2つの視線方向の差分が一定以下であるときアイコンタクトが成立したと判定する、アイコンタクト検出装置。
  2. 前記判定手段は、ユーザーの視線方向と前記発光手段の光軸との角度差と、前記受光手段による受光量との関係を予め用意しておき、前記判定手段は、前記関係から前記角度差が一定以下となるときの受光量に基づき閾値を設定し、前記閾値と前記電気信号とを比較してアイコンタクトの有無を判定する、請求項1に記載のアイコンタクト検出装置。
  3. 前記特定領域は、ユーザーがアイコンタクトをしようとするときの開口部であり、当該開口部は、前記発光手段から発せられる光を透過可能であり、前記開口部から照射された光の照射領域内にユーザーの眼球が存在し、かつ照射光の方向とユーザーの視線方向とが一致したとき、前記判定手段によりアイコンタクトが成立されたと判定する、請求項1に記載のアイコンタクト検出装置。
  4. アイコンタクト検出装置であって、
    特定領域から光を発光する発光手段と、
    前記発光手段により発光された光の反射光を受光し、受光に応じた電気信号を出力する受光手段と、
    前記発光手段からの光に対応する前記電気信号に基づきユーザーのアイコンタクトの有無を判定する判定手段と、
    ユーザーの近接を検出する検出手段と
    前記判定手段によりアイコンタクトがあると判定されたとき、マン・マシンインターフェースを起動し、かつユーザーにアイコンタクトの成立を知らせる制御手段とを含み、
    前記判定手段は、ユーザーの視線方向が前記特定領域に向けられたとき、前記特定領域から発光された光線がユーザーの眼底で反射された赤目現象による反射光に基づきアイコンタクトの有無を判定し、
    前記発光手段は、前記検出手段によりユーザーの近接が検出されたことに応答して一定期間、変調した光を発光し、前記判定手段は、前記変調した光に対応する電子信号に基づきアイコンタクトの有無を判定し、前記判定手段はさらに、前記一定期間内に発光されたパルス数と、前記受光手段で受光された電気信号のパルス数との比が一定以上であるとき、アイコンタクトが成立したと判定する、アイコンタクト検出装置。
  5. 前記判定手段は、ユーザーの視線方向と前記発光手段の光軸との角度差と、前記受光手段による受光量との関係を予め用意しておき、前記判定手段は、前記関係を参照して前記一定期間内に発光されたn個のパルス数に対応するアナログ電気信号の積分値またはピーク値からn回の視線方向を検出し、n回の視線方向の変動または変化率に基づきアイコンタクトの有無を判定する、請求項に記載のアイコンタクト検出装置。
  6. 前記受光手段は、前記発光手段の光軸に関して対称に配置された2つの受光素子を含み、前記判定手段は、ユーザーの視線方向と前記発光手段の光軸との角度差と、前記受光手段による受光量との関係を予め用意しておき、前記判定手段は、前記関係を参照して前記2つの受光素子で受光された電気信号に基づき前記2つの受光素子に対応する2つの視線方向を算出し、2つの視線方向の差分が一定以下であるときアイコンタクトが成立したと判定する、請求項に記載のアイコンタクト検出装置。
  7. 前記受光手段は、光軸上に位置するユーザーの赤目現象による反射光、または光学系あるいは電子的撮像系を介して光軸とは異なる方向に位置するユーザーの赤目現象による反射光を受光する、請求項1または4に記載のアイコンタクト検出装置。
  8. 前記受光手段は、発光を受けたユーザーの赤目現象による反射光の特定の波長帯の光を光学フィルターを介して受光し、
    前記判定手段は、前記受光手段で受光された特定の波長帯の光に基づきアイコンタクトの有無を判定する、請求項1ないし7いずれか1つに記載のアイコンタクト検出装置。
  9. アイコンタクト検出装置はさらに、ユーザーを撮像する撮像手段を含み、
    前記判定手段は、前記撮像手段によって撮像されたユーザーの顔または眼球を画像認識し、認識された顔または眼球の座標位置が予め決められたエリア内にあるか否かの判定を、アイコンタクトの有無の判定の要件に加える、請求項1ないし8いずれか1つに記載のアイコンタクト検出装置。
  10. 前記判定手段は、予め認証すべきユーザーの顔の画像データを用意しておき、前記判定手段はさらに、前記撮像手段により撮像されたユーザーの顔認証ができたか否かの判定を、アイコンタクトの有無の判定の要件に加える、請求項に記載のアイコンタクト検出装置。
  11. 前記判定手段は、前記画像データに含まれるユーザーの眼底の毛細血管のパターンまたは虹彩を利用した個人認証の判定を、アイコンタクトの有無の判定の要件に加える、請求項10に記載のアイコンタクト検出装置。
  12. 前記撮像手段は、ステレオカメラを含み、前記判定手段は、前記ステレオカメラによりユーザーの接近を検出したことに応答して前記発光手段を一定期間発光させる、請求項に記載のアイコンタクト検出装置。
  13. 請求項1ないし12いずれか1つに記載のアイコンタクト検出装置と、
    前記アイコンタクト検出装置の検出結果に応答してユーザーと対話する機能を備えた電子装置とを含む対話型装置。
  14. アイコンタクト検出装置と、ディスプレイとを含む表示装置であって、
    前記アイコンタクト検出装置は、特定領域から光を発光する発光手段と、前記発光手段により発光された光の反射光を受光し、受光に応じた電気信号を出力する受光手段と、前記発光手段からの光に対応する前記電気信号に基づきユーザーのアイコンタクトの有無を判定する判定手段と、前記判定手段によりアイコンタクトがあると判定されたとき、マン・マシンインターフェースを起動し、かつユーザーにアイコンタクトの成立を知らせる制御手段とを含み、前記判定手段は、ユーザーの視線方向が前記特定領域に向けられたとき、前記特定領域から発光された光線がユーザーの眼底で反射された赤目現象による反射光(眼球の角膜、虹彩、水晶体を通過し眼球の網膜に到達し、網膜で反射され水晶体、虹彩、角膜を通過し、眼球外に放射された光)に基づきアイコンタクトの有無を判定し、
    前記ディスプレイの水平方向の左右の特定の位置に前記発光手段と前記受光手段の対が設けられ、前記ディスプレイの垂直方向の上下の特定の位置に前記発光手段と前記受光手段の対が設けられ、
    前記判定手段が水平方向または垂直方向のいずれかでアイコンタクトの成立を判定した場合、ユーザーがディスプレイを視認したと判定する、表示装置。
JP2021517728A 2019-10-30 2019-10-30 アイコンタクト検出装置 Active JP6968356B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/042595 WO2021084653A1 (ja) 2019-10-30 2019-10-30 アイコンタクト検出装置

Publications (2)

Publication Number Publication Date
JP6968356B2 true JP6968356B2 (ja) 2021-11-17
JPWO2021084653A1 JPWO2021084653A1 (ja) 2021-11-18

Family

ID=75714935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021517728A Active JP6968356B2 (ja) 2019-10-30 2019-10-30 アイコンタクト検出装置

Country Status (5)

Country Link
US (1) US11657134B2 (ja)
EP (1) EP4053677A4 (ja)
JP (1) JP6968356B2 (ja)
CN (1) CN114616533A (ja)
WO (1) WO2021084653A1 (ja)

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4591247A (en) * 1981-06-03 1986-05-27 Tokyo Kogaku Kikai Kabushiki Kaisha Eye refractometer
US5016282A (en) 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
JPH0782539B2 (ja) 1988-07-14 1995-09-06 株式会社エイ・ティ・アール通信システム研究所 瞳孔画像撮影装置
JP2522859B2 (ja) * 1990-12-14 1996-08-07 日産自動車株式会社 眼位置検出装置
JP2003177984A (ja) * 2001-10-04 2003-06-27 Sony Corp 通信システム、送信装置、並びに受信装置
JP2004252849A (ja) * 2003-02-21 2004-09-09 Seiko Epson Corp ユーザインタフェース装置および意思伝達方法
US7280678B2 (en) 2003-02-28 2007-10-09 Avago Technologies General Ip Pte Ltd Apparatus and method for detecting pupils
EP1615171B1 (en) * 2003-04-02 2016-06-01 Panasonic Intellectual Property Management Co., Ltd. Image processing method, image processor, photographing apparatus, image output unit and iris verify unit
JP2005196530A (ja) 2004-01-08 2005-07-21 Alpine Electronics Inc 空間入力装置及び空間入力方法
JP4528980B2 (ja) * 2005-08-23 2010-08-25 国立大学法人静岡大学 瞳孔検出装置及び瞳孔検出方法
JP4822331B2 (ja) * 2006-06-22 2011-11-24 株式会社トプコン 眼科装置
JP2008094221A (ja) * 2006-10-11 2008-04-24 Denso Corp 目状態検出装置および目状態検出装置の取り付け方法
IL183385A0 (en) * 2007-05-24 2007-09-20 Yosef Cohen Security systems and methods
WO2011156531A2 (en) * 2010-06-08 2011-12-15 Reald Inc. Stereoscopic liquid crystal display systems
JP5678643B2 (ja) 2010-12-21 2015-03-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
AU2013205535B2 (en) * 2012-05-02 2018-03-15 Samsung Electronics Co., Ltd. Apparatus and method of controlling mobile terminal based on analysis of user's face
WO2015070182A2 (en) * 2013-11-09 2015-05-14 Firima Inc. Optical eye tracking
WO2015131009A1 (en) * 2014-02-28 2015-09-03 The Johns Hopkins University Eye alignment monitor and method
JP6571203B2 (ja) * 2015-03-31 2019-09-04 華為技術有限公司Huawei Technologies Co.,Ltd. モバイル端末のプライバシー保護方法および保護装置、並びにモバイル端末
CN205644570U (zh) * 2015-09-01 2016-10-12 北京上古视觉科技有限公司 一种具有活体检测功能的虹膜识别系统
JP6324939B2 (ja) 2015-11-05 2018-05-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびログイン制御方法
CN108369480B (zh) * 2015-12-25 2020-09-11 华为技术有限公司 一种人机交互方法及电子设备
JP6763434B2 (ja) 2016-10-27 2020-09-30 日本電気株式会社 情報入力装置および情報入力方法
JP7274724B2 (ja) * 2016-12-31 2023-05-17 ルムス エルティーディー. 導光光学素子を介したレチナールイメージングに基づく目の追跡具
JP2019079083A (ja) * 2017-10-19 2019-05-23 アイシン精機株式会社 運転支援装置
JP7073116B2 (ja) * 2018-01-22 2022-05-23 システムインテリジェント株式会社 オフィス用バーチャルリアリティシステム、及びオフィス用バーチャルリアリティプログラム
JP7443005B2 (ja) * 2019-09-18 2024-03-05 キヤノン株式会社 画像処理装置、撮像装置および制御方法
US11216065B2 (en) * 2019-09-26 2022-01-04 Lenovo (Singapore) Pte. Ltd. Input control display based on eye gaze

Also Published As

Publication number Publication date
US20220342970A1 (en) 2022-10-27
EP4053677A1 (en) 2022-09-07
EP4053677A4 (en) 2023-11-01
US11657134B2 (en) 2023-05-23
WO2021084653A1 (ja) 2021-05-06
JPWO2021084653A1 (ja) 2021-11-18
CN114616533A (zh) 2022-06-10

Similar Documents

Publication Publication Date Title
EP3660575B1 (en) Eye tracking system and eye tracking method
EP3117417B1 (en) Remote device control via gaze detection
CN106056036B (zh) 使用可见光成像的虹膜获取
US9696801B2 (en) Eye-controlled user interface to control an electronic device
KR101285359B1 (ko) 동작 추적 장치 및 방법
KR102056221B1 (ko) 시선인식을 이용한 장치 연결 방법 및 장치
KR20180109109A (ko) 홍채 기반 인증 방법 및 이를 지원하는 전자 장치
WO2015140106A1 (en) Computer-implemented gaze interaction method and apparatus
US10061384B2 (en) Information processing apparatus, information processing method, and program
JP2000083930A (ja) アイリスを用いた個人識別装置
KR20230121847A (ko) 동공 검출 및 시선 추적을 위한 이벤트 카메라 시스템
CN103839054A (zh) 一种支持虹膜识别的多功能移动智能终端传感器
US11163994B2 (en) Method and device for determining iris recognition image, terminal apparatus, and storage medium
KR101724108B1 (ko) 손 모양 및 제스처에 의한 기기 제어 방법 및 그에 의한 제어 장치
US20200366372A1 (en) Optical wireless communication device
CN213844155U (zh) 生物特征采集识别系统和终端设备
JP6968356B2 (ja) アイコンタクト検出装置
KR101548624B1 (ko) 홍채의 포커싱이 자동 조절되는 홍채 인식 시스템 및 그 방법
US20140111421A1 (en) Electrical device, in particular a telecommunication device having a projection unit and method for operating an electrical device
JP2006136450A (ja) 虹彩認証装置
CN113641237A (zh) 用于电子设备中的特征操作模式控制的方法和系统
CN213844156U (zh) 生物特征采集识别系统和终端设备
CN213844157U (zh) 生物特征采集识别系统和终端设备
CN113641238A (zh) 一种控制方法、装置、终端设备、受控设备及存储介质
KR20160116106A (ko) 홍채 촬영 전용 카메라를 구비한 이동통신 단말기

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210401

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210401

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210512

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211015

R150 Certificate of patent or registration of utility model

Ref document number: 6968356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150