JP2021170045A - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP2021170045A
JP2021170045A JP2020072109A JP2020072109A JP2021170045A JP 2021170045 A JP2021170045 A JP 2021170045A JP 2020072109 A JP2020072109 A JP 2020072109A JP 2020072109 A JP2020072109 A JP 2020072109A JP 2021170045 A JP2021170045 A JP 2021170045A
Authority
JP
Japan
Prior art keywords
line
light
sight
eyepiece
wavelength
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020072109A
Other languages
English (en)
Other versions
JP7446898B2 (ja
JP2021170045A5 (ja
Inventor
英明 山本
Hideaki Yamamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020072109A priority Critical patent/JP7446898B2/ja
Priority to PCT/JP2021/000487 priority patent/WO2021210225A1/ja
Publication of JP2021170045A publication Critical patent/JP2021170045A/ja
Priority to US17/963,272 priority patent/US20230030103A1/en
Publication of JP2021170045A5 publication Critical patent/JP2021170045A5/ja
Application granted granted Critical
Publication of JP7446898B2 publication Critical patent/JP7446898B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/06Viewfinders with lenses with or without reflectors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Viewfinders (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Eye Examination Apparatus (AREA)
  • Automatic Focus Adjustment (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

【課題】接眼検知と視線検出を高精度に行うことのできる電子機器を提供する。【解決手段】本発明の電子機器は、接眼部に対する接眼を検知する接眼検知と、ユーザーの視線を検出する視線検出とを実行可能な電子機器であって、前記接眼検知のために発光する第1光源と、前記視線検出のために受光する第2光源と、前記接眼検知のために受光する接眼検知センサーと、前記視線検出のために受光する視線検出センサーとを有し、前記第1光源が発する光のピーク波長である第1波長は、前記第2光源が発する光のピーク波長である第2波長と異なることを特徴とする。【選択図】図10

Description

本発明は、視線検出機能を有する電子機器に関する。
視線検出機能でユーザーの視線(視線方向)を検出し、視線の検出結果に基づいて測距点選択などを行うことが可能なカメラ(ビデオカメラを含む)が実用化されている。さらに、ユーザーがファインダー(接眼部)に接眼したときのみ視線検出機能が有効となるように、接眼検知機能を有するカメラも実用化されている。
特許文献1には、視線検出のための発光ダイオード、視線検出センサーとは別に、接眼検知のための発光ダイオード、接眼検知センサーを設けることで、視線検出機能と接眼検知機能を実現する技術が開示されている。特許文献2には、複数の発光ダイオードを時分割で順次発光させることで、ユーザーの眼における複数の輝点をそれぞれ一意に特定する技術が開示されている。さらに、複数の輝点を異なる形状とすることで、複数の輝点を一意に特定する技術も開示されている。
特開平7−199047号公報 特開2016―127587号公報
しかしながら、特許文献1に開示された従来技術では、接眼検知のための発光ダイオードによる輝点と、視線検出のための発光ダイオードによる輝点とを判別できず、視線検出を高精度に行えないことがある。特許文献2に開示された従来技術では、複数の発光ダイオードを時分割で発光させると、視線検出の時間分解能が低くなってしまう。複数の輝点を異なる形状とすると、輝点の判別のための画像処理が複雑となってしまう。さらに、不要光などの影響で輝点の形状が崩れ、視線検出を高精度に行えないことがある。
本発明は、接眼検知と視線検出を高精度に行うことのできる電子機器を提供することを目的とする。
本発明の電子機器は、接眼部に対する接眼を検知する接眼検知と、ユーザーの視線を検出する視線検出とを実行可能な電子機器であって、前記接眼検知のために発光する第1光源と、前記視線検出のために受光する第2光源と、前記接眼検知のために受光する接眼検知センサーと、前記視線検出のために受光する視線検出センサーとを有し、前記第1光源が発する光のピーク波長である第1波長は、前記第2光源が発する光のピーク波長である第2波長と異なることを特徴とする。
本発明によれば、接眼検知と視線検出を高精度に行うことができる。
本実施形態に係るカメラの外観図である。 本実施形態に係るカメラのブロック図である。 本実施形態に係るカメラの断面図である。 本実施形態に係るカメラのEVF部分を示す図である。 本実施形態に係る赤外LEDから発せられた光の光路を示す図である。 本実施形態に係る視線検出方法の原理を説明するための図である。 本実施形態に係る眼画像を示す図である。 本実施形態に係る視線検出動作のフローチャートである。 本実施形態に係る接眼検知を含む動作のフローチャートである。 本実施形態に係る赤外LEDの分光特性などを示す図である。
以下、添付の図面を参照して本発明の好適な実施形態を説明する。
<構成の説明>
図1(a),1(b)は、本実施形態に係るカメラ1(デジタルスチルカメラ;レンズ交換式カメラ)の外観を示す。なお、本発明は、画像、文字等の情報を表示するデバイスや、接眼光学系を通して光学像を視認するユーザーの視線を検出することが可能な任意の電子機器にも適用可能である。これらの電子機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末、ヘッドマウントディスプレイ、双眼鏡などが含まれてよい。
図1(a)は正面斜視図であり、図1(b)は背面斜視図である。図1(a)に示すように、カメラ1は、撮影レンズユニット1A及びカメラ筐体1Bを有する。カメラ筐体1Bには、ユーザー(撮影者)からの撮像操作を受け付ける操作部材であるレリーズボタン34が配置されている。図1(b)に示すように、カメラ筐体1Bの背面には、カメラ筐体1B内に含まれている後述の表示パネル6をユーザーが覗き込むための接眼窓枠121が配置されている。接眼窓枠121は覗き口12を形成し、カメラ筐体1Bに対しては外側(背面側)に突出している。カメラ筐体1Bの背面には、ユーザーからの各種操作を受け付ける操作部材41〜43も配置されている。例えば、操作部材41はタッチ操作を受け付けるタッチパネルであり、操作部材42は各方向に押し倒し可能な操作レバーであり、操作部材43は4方向のそれぞれに押し込み可能な4方向キーである。操作部材41(タッチパネル)は、液晶パネル等の表示パネルを備えており、表示パネルで画像を表示する機能を有する。
図2は、カメラ1内の構成を示すブロック図である。
撮像素子2は例えばCCDやCMOSセンサー等の撮像素子であり、撮影レンズユニット1Aの光学系により撮像素子2の撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部(不図示)に出力する。A/D変換部は、撮像素子2により得られたアナログ画像信号をA/D変換し、画像データとして出力する。
撮影レンズユニット1Aは、ズームレンズ、フォーカスレンズ、絞り等を含む光学系で構成され、カメラ筐体1Bに装着された状態で、被写体からの光を撮像素子2に導き、被写体像を撮像素子2の撮像面上に結像する。絞り制御部118、焦点調節部119、ズーム制御部120は、それぞれマウント接点117を介してCPU3からの指示信号を受信し、該指示信号に従い、絞り、フォーカスレンズ、ズームレンズを駆動制御する。
カメラ筐体1Bが備えるCPU3は、カメラ筐体1Bが備える各ブロックに対する制御プログラムをメモリ部4の有するROMより読み出し、メモリ部4の有するRAMに展開して実行する。これによりCPU3は、カメラ筐体1Bが備える各ブロックの動作を制御する。CPU3には、視線検出部201、測光部202、自動焦点検出部203、信号入
力部204、接眼検知部208、表示デバイス駆動部210、光源駆動部205等が接続されている。また、CPU3は、撮影レンズユニット1A内に配置された絞り制御部118、焦点調節部119、ズーム制御部120に、マウント接点117を介して信号を伝達する。本実施形態では、メモリ部4は、撮像素子2および視線検出センサー30からの撮像信号の記憶機能を備える。
視線検出部201は、視線検出センサー30上に眼球像が結像した状態での視線検出センサー30の出力(眼を撮像した眼画像)をA/D変換し、その結果をCPU3に送信する。CPU3は、後述する所定のアルゴリズムに従って眼画像から視線検出に必要な特徴点を抽出し、特徴点の位置からユーザーの視線(視認用画像における視点)を算出する。
接眼検知部208は、接眼検知センサー50の出力をCPU3に送信する。CPU3は、後述する所定のアルゴリズムに従ってユーザーが接眼部(ファインダー;覗き口12の部分)に対して接眼したか否かを算出する。
測光部202は、測光センサーの役割を兼ねた撮像素子2から得られる信号、具体的には被写界の明るさに対応した輝度信号の増幅、対数圧縮、A/D変換等を行い、その結果を被写界輝度情報としてCPU3に送る。
自動焦点検出部203は、撮像素子2(例えばCCD)の中に含まれる、位相差検出のために使用される複数の検出素子(複数の画素)からの信号電圧をA/D変換し、CPU3に送る。CPU3は、複数の検出素子の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。本実施形態では、一例として、ファインダー内の視野像(視認用画像)を分割し、撮像面上の分割された180か所のそれぞれに、焦点検出ポイントがあるとする。
光源駆動部205は、CPU3からの信号(指示)に基づいて、後述する赤外LED18,19,22〜27,53を駆動する。赤外LED18,19,22〜27は視線検出用の光源であり、赤外LED53は接眼検知用の光源である。なお、赤外LED以外の光源が使用されてもよい。
画像処理部206は、RAMに格納されている画像データに対して、各種画像処理を行う。例えば、光学系や撮像素子に起因する画素欠陥の補正処理、デモザイキング処理、ホワイトバランス補正処理、色補間処理、ガンマ処理など、デジタル画像データを現像し表示・記録するための様々な画像処理が行われる。
信号入力部204には、スイッチSW1とスイッチSW2が接続されている。スイッチSW1は、カメラ1の測光、測距、視線検出動作等を開始するためのスイッチであり、レリーズボタン34の第1ストロークでONする。スイッチSW2は、撮影動作を開始するためのスイッチであり、レリーズボタン34の第2ストロークでONする。スイッチSW1,SW2からのON信号は信号入力部204に入力され、CPU3に送信される。また信号入力部204は、図1(b)の操作部材41(タッチパネル)、操作部材42(操作レバー)、操作部材43(4方向キー)からの操作入力も受け付ける。
記録/出力部207は、着脱可能なメモリカード等の記録媒体に画像データを含むデータを記録、またはこれらのデータを外部インターフェースを介して外部装置に出力する。
表示デバイス駆動部210は、CPU3からの信号に基づいて、表示デバイス209を駆動する。表示デバイス209は、後述する表示パネル5,6である。
図3は、図1(a)に示したY軸とZ軸が成すYZ平面でカメラ1を切断した断面図であり、カメラ1の構成を概念的に示した図である。
シャッター32と撮像素子2は撮影レンズユニット1Aの光軸方向に順に並ぶ。
カメラ筐体1Bの背面には表示パネル5が設けられ、表示パネル5は、カメラ1の操作やカメラ1で得られた画像の鑑賞・編集のために、メニュー表示や画像表示を行う。表示パネル5は、バックライト付きの液晶パネルや、有機ELパネル等で構成される。
カメラ筐体1Bに設けられたEVFは、通常のEVFとして表示パネル5のようにメニューや画像の表示が行えることに加えて、EVFを覗くユーザーの視線を検出し、検出結果をカメラ1の制御に反映することが可能な構成となっている。
表示パネル6は、ユーザーがファインダーを覗いているときに、表示パネル5と同様の表示(カメラ1の操作やカメラ1で得られた画像の鑑賞・編集のためのメニュー表示や画像表示)を行う。表示パネル6は、バックライト付きの液晶パネルや、有機ELパネル等で構成される。表示パネル6は一般的なカメラにおける撮影画像と同様に、3:2や4:3、16:9といったX軸方向(水平方向)のサイズがY軸方向(垂直方向)のサイズよりも長い長方形で構成される。
パネルホルダー7は表示パネル6を保持するパネルホルダーで、表示パネル6とパネルホルダー7は接着固定され、表示パネルユニット8を構成している。
第一光路分割プリズム9、第二光路分割プリズム10は貼り付け接着されて光路分割プリズムユニット11(光路分割部材)を構成している。光路分割プリズムユニット11は、表示パネル6からの光を覗き口12に設けられたアイピース窓17に導き、逆にアイピース窓17から導かれる目(瞳)からの反射光などを視線検出センサー30に導く。光路分割プリズムユニット11には誘電体多層膜が形成されており、光路分割プリズムユニット11は、接眼検知用の赤外LED53から発せられる光のピーク波長と同じ波長の光が視線検出センサー30側に透過するのを、誘電体多層膜により抑制する。
表示パネルユニット8と光路分割プリズムユニット11は、マスク33を挟んで固定され、一体形成されている。
接眼光学系16は、G1レンズ13、G2レンズ14、G3レンズ15により構成される。
アイピース窓17は、可視光を透過する透明な部材である。表示パネルユニット8に表示された画像は、光路分割プリズムユニット11と接眼光学系16とアイピース窓17を通して観察される。
照明窓20,21は、赤外LED18,19,22〜27が外から視認できないように隠すための窓で、可視光を吸収し赤外光を透過する樹脂で構成されている。
図4(a)は、カメラ1のEVF部分の構成を示す斜視図、図4(b)はEVF部分の光軸の横断面図である。
赤外LED18,19,23,25は近距離照明用の赤外LEDである。赤外LED22,24,26,27は遠距離照明用の赤外LEDである。絞り28、視線結像レンズ29を含む視線検出光学系は、光路分割プリズムユニット11によってアイピース窓17か
ら導かれた赤外反射光を、視線検出センサー30に導く。視線検出センサー30は、CCDやCMOSなどの固体撮像素子で構成される。
接眼検知センサー50は、視線検出センサー30よりも低電力で駆動可能なフォトダイオードなどで構成される。接眼検知用の赤外LED53はユーザーに光を照射し、接眼検知センサー50は、ユーザーからの拡散反射光(赤外LED53から発せられユーザーで拡散反射した拡散反射光)を受光する。赤外線吸収フィルター52は接眼検知センサー50の前に配置され、視線検出用の赤外LED18,19,22〜27から発せられる光のピーク波長と同じ波長の光が接眼検知センサー50側に透過するのを抑制する。
図10(a)は、赤外LEDの分光特性を示す図である。発光特性70は接眼検知用の赤外LED53の分光特性である。発光特性71は、視線検出用の赤外LED18,19,22〜27の分光特性である。図10(a)に示す通り、視線検出用の赤外LED18,19,22〜27と、接眼検知用の赤外LED53とで、発光のピーク波長が異なる。また、接眼検知用の赤外LED53のピーク波長は、視線検出用の赤外LED18,19,22〜27のピーク波長より短波長側となっている。本実施形態では、接眼検知用の赤外LED53のピーク波長は850nmであり、視線検出用の赤外LED18,19,22〜27のピーク波長は1000nmであるとする。さらに、接眼検知用の赤外LED53のピーク波長における分光全放射束は、視線検出用の赤外LED18,19,22〜27のピーク波長における分光全放射束より強くなっている。
図10(b)は光学部材の分光透過率を示す図である。透過特性72は、赤外線吸収フィルター52の分光透過率を示している。図10(b)に示す通り、赤外線吸収フィルター52は、視線検出用の赤外LED18,19,22〜27のピーク波長を有する光の透過を抑制している。透過特性73は、光路分割プリズムユニット11にユーザー側から入射した光が視線検出センサー30側へ透過する際の光の分光透過率(光路分割プリズムユニット11に形成された誘電体多層膜の分光透過率)を示している。図11(b)に示す通り、光路分割プリズムユニット11(誘電体多層膜)は、接眼検知用の赤外LED53のピーク波長を有する光の透過を抑制する。
ここで、赤外LED18,19,22〜27の少なくともいずれかから、ファインダーを覗いているユーザーの眼球に光が照射された場合を考える。この場合は、図4(b)の光路31aで示すように、光が照射された眼球の光学像(眼球像)が、アイピース窓17、G3レンズ15、G2レンズ14、G1レンズ13を通り、第二光路分割プリズム10の第2面10aから第二光路分割プリズム10内に入る。第二光路分割プリズムの第1面10bには、赤外光を反射する誘電体多層膜が形成されており、反射光路31bで示すように、第二光路分割プリズム10内に入った眼球像は、第1面10bで、第2面10aの側に反射される。そして、結像光路31cで示すように、反射された眼球像は、第2面10aで全反射され、第二光路分割プリズム10の第3面10cから第二光路分割プリズム10外へ出て、絞り28を通り、視線結像レンズ29により視線検出センサー30に結像される。視線検出には、このような眼球像と共に、赤外LEDから発せられた光が角膜で正反射して形成された角膜反射像が用いられる。
図5は、近距離照明用の赤外LED18,19,23,25から発せられた光が眼球の角膜37で正反射し、視線検出センサー30で受光されるまでの光路の例を示す。
<視線検出動作の説明>
図6,7(a),7(b),8を用いて、視線検出方法について説明する。ここでは、赤外LED18,19,22〜27のうちの2つ(図6の赤外LED51a,51b)を用いた例について説明する。図6は、視線検出方法の原理を説明するための図であり、視
線検出を行うための光学系の概略図である。図6に示すように、赤外LED51a,51bはユーザーの眼球140に赤外光を照射する。赤外LED51a,51bから発せられて眼球140で反射した赤外光の一部は、視線結像レンズ29によって、視線検出センサー30近傍に結像される。図6では、視線検出方法の原理が理解しやすいよう、赤外LED51a,51b、視線結像レンズ29、視線検出センサー30の位置が調整されている。
図7(a)は、視線検出センサー30で撮像された眼画像(視線検出センサー30に投影された眼球像)の概略図であり、図7(b)は視線検出センサー30(例えばCCD)の出力強度を示す図である。図8は、視線検出動作の概略フローチャートを表す。
視線検出動作が開始すると、図8のステップS801で、赤外LED51a,51bは、光源駆動部205からの指示に従って、ユーザーの眼球140に向けて赤外光を発する。赤外光によって照明されたユーザーの眼球像は、視線結像レンズ29(受光レンズ)を通して視線検出センサー30上に結像され、視線検出センサー30により光電変換される。これにより、処理可能な眼画像の電気信号が得られる。
ステップS802では、視線検出部201(視線検出回路)は、視線検出センサー30から得られた眼画像(眼画像信号;眼画像の電気信号)をCPU3に送る。
ステップS803では、CPU3は、ステップS802で得られた眼画像から、赤外LED51a,51bの角膜反射像Pd,Peと瞳孔中心cに対応する点の座標を求める。
赤外LED51a,51bより発せられた赤外光は、ユーザーの眼球140の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは、視線結像レンズ29により集光され、視線検出センサー30上に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔141の端部a,bからの光も視線検出センサー30上に結像して、眼画像における瞳孔端像a’,b’となる。
図7(b)は、図7(a)の眼画像における領域α’の輝度情報(輝度分布)を示す。図7(b)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。本実施形態では、角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。図7(b)に示すように、角膜反射像Pd’,Pe’の座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光が視線検出センサー30上に結像して得られる瞳孔像の領域)に相当する、座標Xaから座標Xbまでの領域では、座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側の虹彩143の領域(虹彩143からの光が結像して得られる、瞳孔像の外側の虹彩像の領域)では、上記2種の輝度の中間の輝度が得られる。具体的には、X座標(X軸方向の座標)が座標Xaより小さい領域と、X座標が座標Xbより大きい領域とで、上記2種の輝度の中間の輝度が得られる。
図7(b)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbを得ることができる。具体的には、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、視線結像レンズ29の光軸に対する眼球140の光軸の回転角θxが小さい場合には、瞳孔中心cからの光が視線検出センサー30上に結像して得られる瞳孔中心像c’(瞳孔像の中心)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座
標Xa,Xbから、瞳孔中心像c’の座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と、瞳孔中心像c’の座標とを見積もることができる。
ステップS804では、CPU3は、眼球像の結像倍率βを算出する。結像倍率βは、視線結像レンズ29に対する眼球140の位置により決まる倍率で、角膜反射像Pd’,Pe’の間隔(Xd−Xe)の関数を用いて求めることができる。
ステップS805では、CPU3は、視線結像レンズ29の光軸に対する眼球140の光軸の回転角を算出する。角膜反射像Pdと角膜反射像Peの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜142の曲率中心Oから瞳孔141の中心cまでの標準的な距離をOcとすると、Z−X平面(Y軸に垂直な平面)内での眼球140の回転角θxは、以下の式1で算出できる。Z−Y平面(X軸に垂直な平面)内での眼球140の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。
β×Oc×SINθx≒{(Xd+Xe)/2}−Xc ・・・(式1)
ステップS806では、CPU3は、ステップS805で算出した回転角θx,θyを用いて、表示パネル6に表示された視認用画像におけるユーザーの視点(視線が注がれた位置;ユーザーが見ている位置)を求める(推定する)。視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、視点の座標(Hx,Hy)は以下の式2,3で算出できる。
Hx=m×(Ax×θx+Bx)・・・(式2)
Hy=m×(Ay×θy+By)・・・(式3)
式2,3のパラメータmは、カメラ1のファインダー光学系(視線結像レンズ29等)の構成で定まる定数であり、回転角θx,θyを視認用画像において瞳孔中心cに対応する座標に変換する変換係数であり、予め決定されてメモリ部4に格納されるとする。パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータであり、公知のキャリブレーション作業を行うことで取得され、視線検出動作が開始する前にメモリ部4に格納されるとする。
ステップS807では、CPU3は、視点の座標(Hx,Hy)をメモリ部4に格納し、視線検出動作を終える。
<接眼検知を含んだカメラ1の動作の説明>
図9は、接眼検知を含んだカメラ1の動作の概略フローチャートを表す。
図9のステップS901で、接眼検知用の赤外LED53は、光源駆動部205からの指示に従って点灯する。赤外LED53からの赤外光はユーザーに照射され、ユーザーからの拡散反射光は接眼検知センサー50で受光される。
ステップS902では、CPU3は、接眼検知センサー50が受光する反射光量、つまり接眼検知センサー50の受光量(受光強度;受光輝度)が接眼判定閾値Thを超えているか否かを判定する。接眼判定閾値Thはメモリ部4に予め格納されている。受光量が接眼判定閾値Thを超えている場合は、ユーザーが接眼部(ファインダー;覗き口12の部分)に対して接眼したと判断し、ステップS903に進む。一方、受光量が接眼判定閾値Thを超えていない場合は、ユーザーが接眼部に対して接眼していないと判断し、ステップS902に戻り、受光量が接眼判定閾値Thを超えるまでステップS902の処理を繰り返す。
ステップS903では、図8で説明したような視線検出動作が行われる。
ステップS904では、CPU3は、接眼検知センサー50の受光量(受光強度;受光輝度)が接眼判定閾値Thを超えているか否かを判定する。受光量が接眼判定閾値Thを超えている場合は、ユーザーが接眼部に対して接眼したと判断し、ステップS903に進む。一方、受光量が接眼判定閾値Thを超えていない場合は、ユーザーが接眼部から眼を離した(離眼した)と判断し、図9の動作を終了する。若しくは、ステップS901に戻る。
以上説明したように、本実施形態によれば、視線検出用の赤外LED18,19,22〜27と、接眼検知用の赤外LED53とで、発光のピーク波長が異なる。これにより、視線検出用の赤外LED18,19,22〜27からの光と、接眼検知用の赤外LED53と赤外LED53からの光とが容易に区別でき、接眼検知と視線検出が高精度に実行可能となる。例えば、視線検出用の複数の赤外LEDを時分割で発光させると、視線検出の時間分解能が低くなるが、本実施形態では、複数の赤外LEDを時分割で発光させる必要が無いため、視線検出の時間分解能は低下しない。複数の赤外LEDによる複数の輝点を異なる形状とすると、輝点の判別のための画像処理が煩雑となるが、本実施形態では、複数の輝点を異なる形状にする必要が無いため、画像処理は煩雑にならない(簡易である)。さらに、輝点の形状は不要光などの影響で崩れることがあるが、上記ピーク波長は不要光などの影響を受けにくい。
本実施形態では、光路分割プリズムユニット11を、接眼検知用の赤外LED53のピーク波長を有する光の透過を抑制するように構成した。これにより、接眼検知用の赤外LED53からの光を視線検出センサー30が受光することを抑制でき、より高精度に視線検出を行うことが可能となる。なお、赤外LED53のピーク波長を有する光の透過を抑制するように光路分割プリズムユニット11を構成する例を説明したが、これに限られない。例えば、視線検出センサー30とユーザーの間にある他の光学部材を、赤外LED53のピーク波長を有する光の透過を抑制するように構成してもよい。赤外LED53の発光波長域の受光感度が低いセンサーを、視線検出センサー30として用いてもよい。この場合は、視線検出センサー30の工夫(赤外LED53の発光波長域の受光感度を低減するための工夫)が必要となるが、光学部材の工夫(赤外LED53のピーク波長を有する光の透過を抑制する工夫)を省略できるというメリットがある。
本実施形態では、接眼検知用の赤外LED53のピーク波長を有する光の透過を抑制するために、光路分割プリズムユニット11に誘電体多層膜を形成した。誘電体多層膜では、熱吸収フィルターなどの光学部材と比較して、波長の変化に対する透過率の変化が大きい。このため、視線検出のための赤外線が表示パネル6側に透過することを抑制でき、視線検出の光量低下を抑制できる。
本実施形態では、赤外線吸収フィルター52を、視線検出用の赤外LED18,19,22〜27のピーク波長を有する光の透過を抑制するように構成した。これにより、視線検出用の赤外LED18,19,22〜27からの光を接眼検知センサー50が受光することを抑制でき、より高精度に接眼検知を行うことが可能となる。なお、赤外線吸収フィルター52を用いることで、誘電体多層膜などを用いるよりも低コストで上記効果を得ることができる。なお、赤外LED18,19,22〜27のピーク波長を有する光の透過を抑制するように赤外線吸収フィルター52を構成する例を説明したが、これに限られない。例えば、接眼検知センサー50とユーザーの間にある他の光学部材を、赤外LED18,19,22〜27のピーク波長を有する光の透過を抑制するように構成してもよい。赤外LED18,19,22〜27の発光波長域の受光感度が低いセンサーを、接眼検知センサー50として用いてもよい。この場合は、接眼検知センサー50の工夫(赤外LED18,19,22〜27の発光波長域の受光感度を低減するための工夫)が必要となる
。その代わり、光学部材の工夫(赤外LED18,19,22〜27のピーク波長を有する光の透過を抑制する工夫)を省略できるというメリットがある。
上述したピーク波長は特に限定されないが、本実施形態では、接眼検知用の赤外LED53のピーク波長を、視線検出用の赤外LED18,19,22〜27のピーク波長より短波長側とした。これにより、視線検出に用いる波長域を、可視域からより離れた波長域とすることができる。光路分割プリズムユニット11は、ユーザー側から入射した光のうち可視光を表示パネルユニット8側へ透過し、赤外光を視線検出センサー30側へ透過する。一般的に、特定の波長を境に透過率が0%から100%に切り替わるように光学部材を構成することは困難で、図10(b)に示すように、透過率は波長の変化に対して徐々に変化する。視線検出に用いる波長域を、ユーザーが表示パネル6を視認するために必要な可視域から離すことで、表示パネル6を視認するために必要な可視域の光が視線検出センサー30側に透過することをより抑制した構成が可能となる。その結果、ユーザーが表示パネル6を見る際の光量低下を抑制できる。さらに、視線検出のための赤外線が表示パネル6側に透過することを抑制でき、視線検出の光量低下を抑制できる。
分光全放射束は特に限定されないが、本実施形態では、接眼検知用の赤外LED53のピーク波長における分光全放射束を、視線検出用の赤外LED18,19,22〜27のピーク波長における分光全放射束よりも強いものとした。これにより、ユーザーが接眼部から離れた状態でも、高精度に接眼を検知することが可能となる。
なお、上述した実施形態(変形例を含む)はあくまで一例であり、本発明の要旨の範囲内で上述した構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。上述した構成を適宜組み合わせて得られる構成も、本発明に含まれる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1:カメラ 30:視線検出センサー 50:接眼検知センサー
18,19,22〜27,53:赤外LED

Claims (7)

  1. 接眼部に対する接眼を検知する接眼検知と、ユーザーの視線を検出する視線検出とを実行可能な電子機器であって、
    前記接眼検知のために発光する第1光源と、
    前記視線検出のために受光する第2光源と、
    前記接眼検知のために受光する接眼検知センサーと、
    前記視線検出のために受光する視線検出センサーと
    を有し、
    前記第1光源が発する光のピーク波長である第1波長は、前記第2光源が発する光のピーク波長である第2波長と異なる
    ことを特徴とする電子機器。
  2. 前記第1波長は、前記第2波長よりも短波長側の波長である
    ことを特徴とする請求項1に記載の電子機器。
  3. 前記第1光源が発する光の前記第1波長における分光全放射束は、前記第2光源が発する光の前記第2波長における分光全放射束よりも強い
    ことを特徴とする請求項1または2に記載の電子機器。
  4. 前記第1波長の光の透過を抑制する第1光学部材をさらに有し、
    前記接眼検知センサーは、前記第1光学部材を透過した光を受光する
    ことを特徴とする請求項1〜3のいずれか1項に記載の電子機器。
  5. 前記第1光学部材は、赤外線吸収フィルターを含む
    ことを特徴とする請求項4に記載の電子機器。
  6. 前記第2波長の光の透過を抑制する第2光学部材をさらに有し、
    前記視線検出センサーは、前記第2光学部材を透過した光を受光する
    ことを特徴とする請求項1〜5のいずれか1項に記載の電子機器。
  7. 前記第2光学部材は、誘電体多層膜を含む
    ことを特徴とする請求項6に記載の電子機器。
JP2020072109A 2020-04-14 2020-04-14 電子機器 Active JP7446898B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020072109A JP7446898B2 (ja) 2020-04-14 2020-04-14 電子機器
PCT/JP2021/000487 WO2021210225A1 (ja) 2020-04-14 2021-01-08 電子機器
US17/963,272 US20230030103A1 (en) 2020-04-14 2022-10-11 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020072109A JP7446898B2 (ja) 2020-04-14 2020-04-14 電子機器

Publications (3)

Publication Number Publication Date
JP2021170045A true JP2021170045A (ja) 2021-10-28
JP2021170045A5 JP2021170045A5 (ja) 2023-05-01
JP7446898B2 JP7446898B2 (ja) 2024-03-11

Family

ID=78083585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020072109A Active JP7446898B2 (ja) 2020-04-14 2020-04-14 電子機器

Country Status (3)

Country Link
US (1) US20230030103A1 (ja)
JP (1) JP7446898B2 (ja)
WO (1) WO2021210225A1 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3542410B2 (ja) * 1995-06-27 2004-07-14 キヤノン株式会社 視線検出手段を有する機器
JPH09262209A (ja) * 1996-03-28 1997-10-07 Canon Inc 視線検出手段,接眼検出手段を備えた撮像装置
JP2004012503A (ja) * 2002-06-03 2004-01-15 Canon Inc カメラ
US10303246B2 (en) * 2016-01-20 2019-05-28 North Inc. Systems, devices, and methods for proximity-based eye tracking
WO2019050781A1 (en) * 2017-09-07 2019-03-14 Apple Inc. VISIOCASQUE COMPRISING A SETTING MECHANISM
US10564429B2 (en) * 2018-02-01 2020-02-18 Varjo Technologies Oy Gaze-tracking system using illuminators emitting different wavelengths
US10585477B1 (en) * 2018-04-05 2020-03-10 Facebook Technologies, Llc Patterned optical filter for eye tracking

Also Published As

Publication number Publication date
WO2021210225A1 (ja) 2021-10-21
JP7446898B2 (ja) 2024-03-11
US20230030103A1 (en) 2023-02-02

Similar Documents

Publication Publication Date Title
US20230013134A1 (en) Electronic device
US20210034151A1 (en) Electronic device, control method, and non-transitory computer readable medium
JP2004326118A (ja) アイスタート能力を組み込んだ機器
US11822714B2 (en) Electronic device and control method for capturing an image of an eye
WO2021210225A1 (ja) 電子機器
WO2021044763A1 (ja) 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
JP2022096819A (ja) 視線検出装置
US11971552B2 (en) Electronic device, method of controlling the same, and storage medium
JP2021125867A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、およびプログラム
JP2022124778A (ja) 電子機器
US20230092593A1 (en) Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor
JP2021182736A (ja) 電子機器
US11831975B2 (en) Imaging apparatus, electronic device, finder unit
US20230224561A1 (en) Display apparatus, finder apparatus, and imaging apparatus
US20230125838A1 (en) Electronic apparatus and control method for electronic apparatus
JP3210089B2 (ja) 視線検出装置及びカメラ
JP2021076832A (ja) 撮像装置、電子機器、ファインダーユニット
JP2024003432A (ja) 電子機器
JP2023083695A (ja) 電子機器
JP2022171084A (ja) 撮像装置及びその制御方法、並びにプログラム
JP2019204022A (ja) 撮像装置
JP2020005028A (ja) 撮像装置
JP2019113718A (ja) 撮像装置、撮像装置の制御方法、および、プログラム
JP2000227543A (ja) 光学機器
JP2002301031A (ja) 視線検出装置、視線検出機能付き機器及びカメラ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230406

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240228

R151 Written notification of patent or utility model registration

Ref document number: 7446898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151