JP2023102822A - 表示装置、ファインダ装置、および撮像装置 - Google Patents

表示装置、ファインダ装置、および撮像装置 Download PDF

Info

Publication number
JP2023102822A
JP2023102822A JP2022003484A JP2022003484A JP2023102822A JP 2023102822 A JP2023102822 A JP 2023102822A JP 2022003484 A JP2022003484 A JP 2022003484A JP 2022003484 A JP2022003484 A JP 2022003484A JP 2023102822 A JP2023102822 A JP 2023102822A
Authority
JP
Japan
Prior art keywords
display
optical system
line
imaging
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022003484A
Other languages
English (en)
Inventor
公一 伊藤
Koichi Ito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022003484A priority Critical patent/JP2023102822A/ja
Priority to US18/069,525 priority patent/US20230224561A1/en
Priority to EP22215762.0A priority patent/EP4215979A1/en
Priority to CN202310020603.7A priority patent/CN116437180A/zh
Publication of JP2023102822A publication Critical patent/JP2023102822A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/06Viewfinders with lenses with or without reflectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Theoretical Computer Science (AREA)
  • Viewfinders (AREA)
  • Lens Barrels (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Studio Devices (AREA)

Abstract

【課題】装置の大型化やコストアップを抑制しつつ、ユーザの眼を捕えやすくする技術を提供する。【解決手段】本発明の表示装置は、表示パネルと、前記表示パネルを視認するための表示光学系と、前記表示パネルを視認するユーザの眼を撮像するための、長方形の撮像面を有する撮像センサと、前記眼の光学像を前記撮像面に結像するための撮像光学系とを有し、前記撮像光学系の光軸は、前記表示光学系の光軸と非平行であり、前記表示光学系の光軸を前記撮像面に投影した直線は、前記撮像面の長辺と略平行であることを特徴とする。【選択図】図8

Description

本発明は、表示装置、ファインダ装置、および撮像装置に関する。
視線入力機能のための構成(ユーザの眼を撮像するための眼球撮像センサなど)をファインダ部分に備えるカメラが提案されている。カメラのファインダをユーザが覗き込む場合に、通常は、ファインダ光学系(ユーザがファインダを覗き込んで被写体などを視認するための光学系)を構成する接眼レンズと、ユーザの眼球との距離は一定しない。それを考慮し、視線入力機能のために、ファインダ光学系の一部として光路分割プリズムが設けられ、眼球撮像光学系(眼の光学像を眼球撮像センサの撮像面に結像するための光学系)の光軸の一部と、ファインダ光学系の光軸の一部とが同軸とされる。特許文献1には、視線位置(ユーザが見ている位置)を検出するビデオカメラが開示されている。
特開平5-091394号公報
ここで、特許文献1に示すビデオカメラにおいて、視線入力機能を保持したままファインダ光学系の拡大倍率を上げたり、ファインダ光学系の光学性能を向上させようとしたとする。その場合には、光路分割プリズムの存在により、ファインダ部分の大型化や大幅なコストアップなどが必要となる。光路分割プリズムを取り除き、眼球撮像光学系の光軸とファインダ光学系の光軸とを互いに独立にすれば、ファインダ部分の大型化や大幅なコストアップなどを抑制することができる。
しかしながら、光路分割プリズムを取り除き、眼球撮像光学系の光軸とファインダ光学系の光軸とを互いに独立にすると、眼球撮像センサでユーザの眼が捕えにくくなってしまう。例えば、ユーザの眼が接眼レンズから遠ざかるにつれ、眼球撮像センサにより撮像された眼の画像における瞳孔中心位置が変化し、眼球撮像センサの撮像範囲からユーザの眼が外れてしまう。
本発明は、装置の大型化やコストアップを抑制しつつ、ユーザの眼を捕えやすくする技術を提供することを目的とする。
本発明の表示装置は、表示パネルと、前記表示パネルを視認するための表示光学系と、前記表示パネルを視認するユーザの眼を撮像するための、長方形の撮像面を有する撮像センサと、前記眼の光学像を前記撮像面に結像するための撮像光学系とを有し、前記撮像光学系の光軸は、前記表示光学系の光軸と非平行であり、前記表示光学系の光軸を前記撮像面に投影した直線は、前記撮像面の長辺と略平行であることを特徴とする。
本発明のファインダ装置は、前記表示装置と、前記眼が接眼する接眼部とを有し、前記表示装置は、前記撮像センサにより撮像された前記眼の画像に基づいて、前記ユーザの視線を検出する検出手段をさらに有することを特徴とする。本発明の撮像値は、被写体を撮像するための第2の撮像センサと、前記第2の撮像センサにより撮像された前記被写体の画像を表示可能な前記表示装置とを有することを特徴とする。
本発明によれば、装置の大型化やコストアップを抑制しつつ、ユーザの眼が捕えやすくなる。
カメラの外観図である。 カメラのブロック図である。 カメラ筐体の断面図である。 EVFユニットの断面図である。 図4の一部を示す断面図である。 EVFパネルと視線検出系の配置を示す図である。 G3レンズと視線検出系の配置を示す図である。 視線センサ画像を示す図である。 視線センサ画像を示す図である。 視線検出動作のフローチャートである。
以下、本発明の実施形態について説明する。
図1(a),1(b)を用いて、本実施形態に係る撮像装置であるカメラ1(デジタルスチルカメラ;レンズ交換式カメラ)の外観について説明する。図1(a),1(b)は、カメラ1の外観を示す。なお、本発明は、ユーザの視線を検出する視線検出を実行可能な任意の電子機器に適用可能である。ユーザは、例えば、表示デバイスに表示された画像や文字などの情報を視認したり、接眼光学系(表示光学系)を通して光学像を視認したりする。これらの電子機器には、例えば携帯電話機やゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末、ヘッドマウントディスプレイ、双眼鏡などが含まれてよい。なお、ユーザの視線は、換言すると、表示デバイスに表示された画像などにおけるユーザの注視位置である。
図1(a)は正面斜視図であり、図1(b)は背面斜視図である。図1(a)に示すように、カメラ1は、撮影レンズユニット1Aとカメラ筐体1Bを有する。カメラ筐体1Bには、ユーザ(撮影者)からの撮像操作を受け付ける操作部材であるレリーズボタン5が配置されている。
ここで、図1(a)に示すカメラ筐体1Bの姿勢は最も基本的な姿勢(標準の姿勢)、いわゆる正位置である。このときに、撮影レンズユニット1Aの光学系の光軸をZ軸とし、Z軸と直交し鉛直上方向の軸をY軸とする。そして、Y軸とZ軸にそれぞれ直交する右手系の軸をX軸とする。
図1(b)に示すように、カメラ筐体1Bの背面には、カメラ筐体1B内に含まれている後述のEVFパネル6をユーザが覗き込むための接眼窓枠121(接眼部)が配置されている。接眼窓枠121はアイピース窓13を保持しており、カメラ筐体1Bに対して外側(背面側)に突出している。カメラ筐体1Bの背面には、ユーザからの各種操作を受け付ける操作部材41~43も配置されている。例えば、操作部材41はタッチ操作を受け付けるタッチパネルであり、操作部材42は各方向に押し倒し可能な操作レバーであり、操作部材43は4方向のそれぞれに押し込み可能な4方向キーである。操作部材41(タッチパネル)は、液晶パネルなどの表示パネル411を備えており、表示パネル411で画像を表示する機能を有する。
図2を用いて、カメラ1内の構成について説明する。図2は、カメラ1内の構成を示すブロック図である。
撮像素子2は例えばCCDやCMOSセンサなどの撮像素子(撮像センサ)であり、被写体を撮像するために使用される。撮像素子2は、撮影レンズユニット1Aの光学系により撮像素子2の撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部(不図示)に出力する。A/D変換部は、撮像素子2により得られたアナログ画像信号をA/D変換し、画像データとして出力する。
撮影レンズユニット1Aは、ズームレンズやフォーカスレンズ、絞りなどを含む光学系で構成され、カメラ筐体1Bに装着された状態で、被写体からの光を撮像素子2に導き、被写体像を撮像素子2の撮像面上に結像する。絞り制御部518、焦点調節部519、ズーム制御部520は、それぞれマウント接点117を介してCPU3からの指示信号を受信し、当該指示信号に従い、絞り、フォーカスレンズ、ズームレンズを駆動制御する。
カメラ筐体1Bが備えるCPU3は、カメラ筐体1Bが備える各ブロックに対する制御プログラムをメモリ部4の有するROMより読み出し、メモリ部4の有するRAMに展開して実行する。これによりCPU3は、カメラ筐体1Bが備える各ブロックの動作を制御する。CPU3には、視線検出部201や測光部202、自動焦点検出部203、信号入力部204、光源駆動部205、接眼検知部208、距離算出部209、表示デバイス駆動部521などが接続されている。また、CPU3は、撮影レンズユニット1A内に配置された絞り制御部518と焦点調節部519とズーム制御部520とに、マウント接点117を介して信号を伝達する。本実施形態では、メモリ部4は、撮像素子2および視線撮像センサ19からの撮像信号の記憶機能を備える。
視線撮像センサ19は例えばCCDやCMOSセンサなどの撮像素子であり、EVFパネル6を視認するユーザの眼を撮像するための眼球撮像センサである。
視線検出部201は、視線撮像センサ19の出力(視線センサ画像)、例えば視線撮像センサ19近傍に眼球像(眼球の光学像)が結像した状態での視線撮像センサ19の出力をA/D変換し、その結果をCPU3に送信する。CPU3は、後述する所定のアルゴリズムに従って視線センサ画像から視線検出に必要な特徴点を抽出し、特徴点の位置からユーザの視線(EVFパネル6の表示面における視線位置)を算出する。
測光部202は、測光センサの役割を兼ねた撮像素子2から得られる信号、具体的には被写界の明るさに対応した輝度信号の増幅や、対数圧縮、A/D変換などを行い、その結果を被写界輝度情報としてCPU3に送る。
自動焦点検出部203は、撮像素子2の中に含まれる、位相差検出のために使用される複数の検出素子(複数の画素)からの信号電圧をA/D変換し、CPU3に送る。CPU3は、複数の検出素子の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。本実施形態では、一例として、ファインダ内の視野像(EVFパネル6の表示面)上の180か所に対応する、撮像面上の180か所のそれぞれに、焦点検出ポイントがあるとする。
信号入力部204には、スイッチSW1とスイッチSW2が接続されている。スイッチSW1は、カメラ1の測光や測距、視線検出動作などを開始するためのスイッチであり、レリーズボタン5の第1のストローク(例えば半押し)でONする。スイッチSW2は、撮影動作を開始するためのスイッチであり、レリーズボタン5の第2のストローク(例えば全押し)でONする。スイッチSW1,SW2からのON信号は信号入力部204に入
力され、CPU3に送信される。また信号入力部204は、図1(b)の操作部材41(タッチパネル)、操作部材42(操作レバー)、操作部材43(4方向キー)からの操作入力も受け付ける。
赤外LED14は、ユーザの眼球に赤外光を照射する光源である。光源駆動部205は、CPU3からの信号(指示)に基づいて赤外LED14を駆動する。例えば、光源駆動部205は、CPU3からの指示に従い、赤外LED14が所定の発光強度で発光するように赤外LED14を駆動する。
画像処理部206は、メモリ部4のRAMに格納されている画像データに対して、各種画像処理を行う。例えば、光学系や撮像素子に起因する画素欠陥の補正処理や、デモザイキング処理、ホワイトバランス補正処理、色補間処理、ガンマ処理などが行われる。
記録/出力部207は、着脱可能なメモリカードなどの記録媒体に画像データを含むデータを記録、またはこれらのデータを外部インターフェースを介して外部装置に出力する。
接眼検知センサ50は、赤外線近接センサや、静電容量方式のセンサなどである。接眼検知部208は、接眼検知用センサ50の出力をCPU3に送信する。CPU3は、所定のアルゴリズムに従って、接眼検知センサ50(接眼検知部208)の出力から、ユーザの眼が接眼窓枠121(接眼部)に接眼したか否かを判断する。
距離算出部209は、視線撮像センサ19により撮像された画像(視線センサ画像)における角膜反射像(赤外LED14から発せられた赤外光が角膜で正反射して形成された像)の座標に基づいて、ファインダからユーザの眼までの距離を算出する。例えば、距離算出部209は、ユーザがEVFパネル6を視認するための表示光学系12(後述)の最終面から眼までの距離を算出する。そして、距離算出部209は、算出した距離をCPU3に送信する。
表示デバイス駆動部521は、CPU3からの信号に基づいて、表示デバイス510を駆動する。例えば、表示デバイス駆動部521は、撮像素子2により撮像された被写体の画像や、各種情報などを、表示デバイス510に表示する。表示デバイス510は、表示パネル411やEVFパネル6である。
図3を用いて、カメラ筐体1Bの構成について説明する。図3は、図1(a)に示したY軸とZ軸が成すYZ平面でカメラ筐体1Bを切断した断面図であり、カメラ筐体1Bの構成を模式的に示した図である。これは正位置状態にあるカメラ筐体1Bをユーザの左手側からみた断面図である。
カメラ筐体1Bにおいて、シャッター7と撮像素子2は撮影レンズユニット1Aの光軸方向に順に並ぶ。カメラ筐体1Bの背面には表示パネル411が設けられ、表示パネル411は、カメラ1の操作やカメラ1で得られた画像の鑑賞・編集のために、メニュー表示や画像表示を行う。表示パネル411は、バックライト付きの液晶パネルや、有機ELパネルなどで構成される。カメラ筐体1Bの上部には、EVFパネル6や表示光学系12、視線検出系20などを含んだEVFユニット1C(ファインダ装置;ファインダモジュール)が設けられている。EVFパネル6は、表示パネル411と同様の画面を表示可能であり、バックライト付きの液晶パネルや、有機ELパネルなどで構成される。表示光学系12と視線検出系20の詳細は後述する。EVFユニット1Cはカメラ筐体1Bに対して着脱可能であってもよいし、そうでなくてもよい(カメラ筐体1Bの一部として固定されていてもよい)。
図4を用いて、EVFユニット1Cの構成について説明する。図4は、YZ平面でEVFユニット1Cを切断した断面図であり、EVFユニット1Cの構成を模式的に示した図である。
表示光学系12の光軸である表示光学系光軸23に沿って、EVFパネル6、表示光学系12、およびアイピース窓13が並んでいる。
表示光学系12は、EVFパネル6の表示面前方に配置されおり、EVFパネル6を拡大するために、通常は複数枚のレンズにより構成される。本実施形態では、表示光学系12は、G1レンズ9とG2レンズ10とG3レンズ11の3枚のレンズで構成されているとする。なお、表示光学系12を構成するレンズの枚数は特に限定されず、4枚や5枚などであってもよい。G1レンズ9とG2レンズ10とG3レンズ11は、可視光を透過する光学レンズであり、切削および研削、またはモールド成型により製造される光学ガラスや透明な光学プラスチックなどである。
表示光学系12のさらに前方(表示光学系12に対してEVFパネル6とは反対の側)に配置されたアイピース窓13は、可視光を透過する部分を有した透明な部材である。EVFパネル6に表示された画像は、表示光学系12により拡大され、アイピース窓13の透明部を通ってユーザに観察される。
表示光学系12を構成するレンズおよびアイピース窓13は、必ずしも光学的に有効な形状および面のみを有するもの(例えば透明な面のみを有するもの)に限られない。例えば、表示光学系12を構成するレンズおよびアイピース窓13は、位置決め形状や補強形状、組立時に作業者が把持するための形状、接着固定時に接着面となる形状、肉抜き形状など有していてもよく、それらの箇所は透明でなくてもよい。さらに、光学的に透明であることを求めない部位(例えば、光を透過させたくない部位)については、表面が塗装や印刷により遮光されていてもよい。
アイピース窓13の後方(EVFパネル6側)には、赤外LED14と赤外透過窓16が設けられている。赤外透過窓16は赤外LED14を外から視認できないように隠すための窓で、可視光を吸収し赤外光を透過する樹脂で構成されている。
アイピース窓13の後方には、視線検出系20も配置されている。視線検出系20は、絞り17、視線光学系18、および視線撮像センサ19を含み、それらは視線光学系18の光軸である視線光学系光軸22に沿って並んでいる。
絞り17は、ユーザの眼(眼球21)の像を視線撮像センサ19に結像させるために必要な光束を絞る絞りである。本実施形態では、赤外LED14から発せられて眼球21で反射した反射光を検知するために、絞り17には、可視光を吸収し赤外光を透過するフィルタが設けられている。
視線光学系18は、眼球21の光学像を視線撮像センサ19の撮像面に結像するための光学系(眼球撮像光学系)であり、光学レンズなどにより構成される。図4には視線光学系18として1枚のレンズが示されているが、視線光学系18は複数のレンズで構成されてもよい。
視線撮像センサ19は、眼球21を撮像するための眼球撮像センサであり、赤外線成分を含む画像(視線センサ画像;例えば、ユーザの眼を撮像した画像)を出力する。視線撮像センサ19の撮像面は長方形であり、視線センサ画像も長方形である。視線センサ画像
の詳細については、図8(a),8(b)を用いて後述する。
本実施形態では、視線検出系20の絞り17と視線光学系18と視線撮像センサ19を別体の部材とするが、視線検出系20は、これらの部材を一体にパッケージ化したモジュール型の小型カメラであってもよい。
本実施形態では、視線光学系光軸22と表示光学系光軸23は非平行であり、視線光学系光軸22と表示光学系光軸23は角度24で交差している。具体的には、カメラ筐体1Bの姿勢が正位置状態(所定の姿勢)であるときに、視線検出系20はEVFユニット1CのうちY軸下側に位置している。また視線光学系光軸22は、Y軸上側に位置する表示光学系光軸23の方(YZ平面内で斜め上)を向いた構成となっている。
従来の構成として、表示光学系12の一部として光路分割ミラーまたは光路分割プリズムを配置して、視線光学系光軸22と表示光学系光軸23を部分的に一致させた構成がある。しかし、そのような構成では、光路分割ミラーや光路分割プリズムを用いない構成と比較して、EVFユニット1Cのサイズを保ったままEVFユニット1Cの光学性能を向上させることが著しく困難となる。また、光路分割プリズムなどは一般的に高価であるため、コストアップの原因にもなる。本実施形態では、視線光学系光軸22と表示光学系光軸23を非平行にし、光路分割ミラーや光路分割プリズムを用いない構成としたことで、大型化やコストアップを抑制しつつ、EVFユニット1Cの光学性能を向上させることができる。
なお、本実施形態では視線光学系光軸22と表示光学系光軸23は同一のYZ平面上にあるとする。しかし、これら2つの光軸は同一のYZ平面上になくてもよく、例えば一方の光軸がX軸方向にオフセットしていてもよい。つまり、2つの光軸がねじれの関係にあってもよい。
図5を用いて、視線光学系光軸22と表示光学系光軸23の好適な配置について説明する。図5は、図4の一部を示す断面図である。
図5では、カメラ筐体1Bの姿勢は正位置状態であり、EVFユニット1Cを覗き込むユーザの眼球21が表示光学系光軸23上にある。眼球21には、ユーザの上瞼27と下瞼28からなる瞼30が被さっている。赤外LED14と赤外透過窓16は、表示光学系光軸23の上側と下側それぞれから眼球21に赤外光を照射するように配置されている。
視線光学系光軸22(視線撮像センサ19)は、表示光学系光軸23(表示光学系12;EVFパネル6)の下側から、すなわちユーザの下瞼28が存在する方向から眼球21を見上げるような向きで配置される。大抵は上瞼27のほうが下瞼28よりも大きく厚い。そのため、下瞼28側から眼球21を見上げるように視線光学系光軸22を配置することで、上瞼27側から眼球21を見下ろすように視線光学系光軸22を配置するよりも眼球21が捕えやすくなる。具体的には、視線撮像センサ19が眼球21を撮像する際に、眼球21が瞼30に遮られること(ケラレの発生)を抑制できる。同様に、赤外LED14の照射する赤外光の正反射成分の主光線の像(角膜反射像;プルキンエ像;プルキニエ像)が瞼30に遮られることも抑制できる。角度24が小さいほど、つまり視線光学系光軸22と表示光学系光軸23とが平行または一致に近いほど、視線検出系20は眼球21の像を捕えやすいため、角度24は小さいことが好ましい。
カメラ1は様々な持ち方で使用され得るため、カメラ筐体1Bの姿勢に対するユーザ(眼球21)の姿勢(相対的な姿勢)も様々である。そのため、最も頻度が高いと想定される姿勢(カメラ筐体1Bと眼球21と瞼30の姿勢や位置関係)で、下瞼28側から眼球
21を見上げるように視線光学系光軸22を設定するのが好ましい。
図6,7を用いて、視線検出系20の配置について、より詳細に説明する。図6,7では、複数の部材から構成されている視線検出系20を、モジュール型の1つのユニットとして示している。図6は、眼球21から見たEVFパネル6と視線検出系20の配置を模式的に示す。
図6に示すように、表示光学系光軸23上の眼球21からEVFパネル6を見ると、EVFパネル6の表示面の形状は、横辺6a(横方向(左右方向)に略平行な辺)が縦辺6b(縦方向(上下方向)に略平行な辺)よりも長い、横長の長方形である。そして、横辺6aの長さと縦辺6bの長さは、以下の式1を満たす。つまり、横辺6a(EVFパネル6の表示面の長辺)の長さの3倍は縦辺6b(EVFパネル6の表示面の短辺)の長さの4倍以上である。例えば、EVFパネル6の表示面のアスペクト比(横辺6aの長さ:縦辺6bの長さ)はおおよそ4:3の比率である。
3×{横辺6aの長さ}≧4×{縦辺6bの長さ} ・・・(式1)
視線検出系20は、表示面を有するEVFパネル6の下側から上側を見上げるよう配置されている。これにより、上述したようにケラレの発生を抑制することができる。さらに、EVFパネル6の表示面が横長である(縦辺6bが短い)ことによって、視線光学系光軸22と表示光学系光軸23とのなす角度24を小さくなるため、ケラレの発生をより抑制することができる。EVFパネル6の表示面の面積を一定とするならば、表示面のアスペクト比(横辺6aの長さ/縦辺6bの長さ)が大きいほど、ケラレの発生を大きく抑制することができる。しかし、EVFパネル6の表示面の形状は、式1を満たす形状に限られない。
図7は、眼球21(表示光学系光軸23に平行な方向)から見た表示光学系12のG3レンズ11と視線検出系20の配置を模式的に示す。
G3レンズ11は表示光学系12を構成する光学レンズであり、表示光学系光軸23を中心とした円形状の外周部分であるレンズ外周部111の内部に、EVFパネル6を拡大表示するために必要な光学面を有している。EVFパネル6の拡大表示に必要な光束はG3レンズ11の光学面すべてを通るとは限らず、必要に応じてレンズ外周部111の一部または全部を直線や曲線によって取り除く(切り欠く)ことができる。図7においては、レンズ外周部111の下部を直線である切り欠き線112で切り欠いている。そして、レンズ外周部111の下部と切り欠き線112で囲まれた切り欠き領域11bに視線検出系20(視線撮像センサ19)の一部が含まれるように、視線検出系20(視線撮像センサ19)が配置されている。また、切り欠き線112はEVFパネル6の横辺6a(図6)と略平行である。こうすることで、視線検出系20をより表示光学系光軸23に近い位置に配置することが可能となり、視線光学系光軸22と表示光学系光軸23をより平行(一致)に近づけることができる。なお、切り欠き領域11bには視線検出系20(視線撮像センサ19)の全体が含まれてもよいし、切り欠き線は、EVFパネル6の横辺6aと略平行な直線部分と、そうでない部分とを含んでもよい。
G3レンズ11を含む表示光学系12のレンズは、切削および研削、またはモールド成型により製造される光学ガラスや透明な光学プラスチックなどであり、加工コストや光学性能確保の観点からは、切り欠き線112は簡易な直線であることが好ましい。しかし、切り欠き線112は直線に限られない。例えば、切り欠き線112は一部に直線を含む曲線でもよいし、切り欠き線112の全体が曲線でもよい。レンズ外周部111に穴あけ加工(切り抜き加工)を施し、穴あけ加工によりレンズ外周部111に形成された円筒状の穴を視線光学系光軸22が通るように視線検出系20を配置してもよい。この場合は、切
り欠き線112は円形状または楕円形状となる。切り欠き線112が円弧状になるような切断加工、もしくは成型を行ってもよい。
さらに、表示光学系12の1枚のレンズにのみ切り欠き領域を設けてもよいし、複数のレンズに切り欠き領域を設けてもよい。図4では、表示光学系12を構成する3枚のレンズのうち2枚(G2レンズ10とG3レンズ11)にそれぞれ切り欠き領域10bと切り欠き領域11bが設けられている。そして、表示光学系光軸23に平行な方向から見た場合に、切り欠き領域10b,11bに視線検出系20の一部が含まれるように、視線検出系20が配置されている。
図9(a),9(b),10を用いて、視線検出系20を用いた視線検出方法について説明する。図9(a)は、視線撮像センサ19により撮像された画像(視線センサ画像)を示す概略図である。図9(a)は、眼球像が視線撮像センサ19に投影されている状態で得られた視線センサ画像を示す。図9(b)は視線撮像センサ19の出力強度(視線センサ画像の輝度)を示す図である。図9(b)は、図9(a)の領域αの輝度情報(輝度分布)を示す。図9(b)では、視線センサ画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。図10は、視線検出動作の概略フローチャートを表す。
X軸方向に並んだ2つの赤外LED14から発せられた赤外光は、ユーザの眼球21の角膜を照明する。このとき、図9(a)に示すように、角膜表面で反射した赤外光の一部により形成される2つの角膜反射像(2つの赤外LED14に対応する2つの角膜反射像)は、視線撮像センサ19近傍に結像して、視線センサ画像における角膜反射像Pd,Peとなる。同様に、眼球21の瞳孔の光学像も視線撮像センサ19近傍に結像して、視線センサ画像における瞳孔像212となる。眼球21の虹彩の光学像も視線撮像センサ19近傍に結像して、視線センサ画像における虹彩像213となる。以後、瞳孔像212のX軸方向の2つの端部を瞳孔端像212a,212bと記載する。角膜反射像Pd,Peは瞳孔像212または虹彩像213の内部に写る。本実施形態では、視線光学系光軸22が表示光学系光軸23をY軸下側から見上げている(視線光学系光軸22が下瞼28側から眼球21を見上げている)ため、瞳孔像212と虹彩像213は上すぼまりのようなゆがんだ形状で写る。
視線検出動作が開始すると、図10のステップS801で、赤外LED14は、赤外光を発する。例えば、赤外LED14は、ユーザの眼球21に向けて赤外光を発する。赤外光によって照明されたユーザの眼球像は、視線光学系18を通って視線撮像センサ19上に結像され、光電変換される。これにより、処理可能な視線センサ画像の電気信号が得られる。
ステップS802では、視線検出部201は、視線撮像センサ19から得られた画像(視線センサ画像)をCPU3に送る。
ステップS803では、CPU3は、ステップS802で得られた視線センサ画像から、角膜反射像と瞳孔中心に対応する点の座標を求める。
図9(b)に示すように、角膜反射像Pd,Peの座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔像212の領域(瞳孔端像212aに対応する座標Xaから瞳孔端像212bに対応する座標Xbまでの領域)では、座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔像212の外側の虹彩像213の領域では、前述した2種の輝度の中間の輝度が得られる。図9(b)に示すような輝度分布から、角膜反射像Pd,PeのX座標Xd,Xeと、瞳孔端像212a,212bのX座標Xa
,Xbを得ることができる。また、X座標Xa,Xbの中間位置を、瞳孔中心cのX座標Xcとして算出することができる。
ステップS804では、CPU3は、眼球像の結像倍率βを算出する。結像倍率βは、視線光学系18に対する眼球21の位置(相対位置)により決まる倍率で、角膜反射像Pd,Peの間隔(Xd-Xe)の関数を用いて算出することができる。
ステップS805では、CPU3は、視線光学系光軸22に対する眼球21の光軸の回転角を算出する。角膜反射像Pdと角膜反射像Peの中点のX座標と、角膜の曲率中心のX座標とはほぼ一致する。このため、角膜の曲率中心から瞳孔中心までの標準的な距離を距離Ocとすると、XZ平面内での眼球21の回転角θxは、以下の式2で近似的に算出することができる。YZ平面内での眼球21の回転角θyも同様にして算出することができる。
β×Oc×SINθx≒{(Xd+Xe)/2}-Xc ・・・(式2)
ステップS806では、CPU3は、ステップS805で算出した回転角θx,θyを用いて、EVFパネル6の表示面におけるユーザの視線位置(視点;ユーザの視線が注がれた位置;ユーザが見ている位置)の座標(Hx,Hy)を推定する。
ステップS807では、CPU3は、推定した視線位置の座標(Hx,Hy)をメモリ部4に格納し、視線検出動作を終える。
図8(a),8(b)を用いて、視線センサ画像について説明する。EVFユニット1Cに対する眼球21の位置は、一か所に定めることができない。例えば、ユーザが眼鏡をかけているか否かや、ユーザの体調、ユーザの髪型、ユーザが帽子をかぶっているか否かなどにより、EVFパネル6を覗き込むユーザの眼球21の位置は変わる。図4には、表示光学系光軸23上に位置した眼球21として、EVFパネル6に近い眼球21aと、EVFパネル6から離れた眼球21bとが示されている。図8(a),8(b)では、眼球21aの場合の視線センサ画像と眼球21bの場合の視線センサ画像とを重ね合わせたものを、視線センサ画像211として示している。
図8(a)は、本実施形態に係る視線センサ画像211を示し、図8(b)は、比較のための一般的な視線センサ画像211を示す。図8(a)と図8(b)とで、視線光学系光軸22や視線光学系18などは共通するが、視線撮像センサ19の向き(撮像面の縦横)が異なる。
眼球像221aは、眼球21aが視線撮像センサ19近傍に結像した像であり、眼球像221bは、眼球21bが視線撮像センサ19近傍に結像した像である。当然、実際の視線センサ画像には、眼球像221aと眼球像221bの両方が写ることはなく、眼球像221aと眼球像221bの一方しか写りえない。投影光軸223は、表示光学系光軸23を視線センサ画像211(視線撮像センサ19の撮像面)に投影した直線である。
視線撮像センサ19の撮像面は長方形であり、視線センサ画像も長方形である。図8(a),8(b)では、視線センサ画像211は、長辺211aと短辺211bを有する長方形の画像である。長辺211aの長さは、短辺211bの長さよりも長い。図8(a)(本実施形態)では、投影光軸223は視線センサ画像211の長辺211a(視線撮像センサ19の長辺)と略平行となっている。一方、図8(b)(比較例)では、投影光軸223は視線センサ画像211の短辺211bと略平行(長辺211aに対して略垂直)となっている。
図8(a)と図8(b)を比較すると、図8(b)(比較例)では眼球像221bが視線センサ画像211に含まれていないが、図8(a)(本実施形態)では眼球像221bが完全に視線センサ画像211に含まれている。つまり、比較例では眼球21bを捕えることができていないが、本実施形態では眼球21bを捕えることができている。
ユーザは、EVFユニット1Cを覗き込む際に、表示光学系光軸23に眼球中心が近づくように眼球21の位置を調整する。しかしながら、上述したように、表示光学系光軸23上での眼球21の位置は様々である。本実施形態によれば、投影光軸223が視線センサ画像211の長辺211a(視線撮像センサ19の長辺)と略平行であることにより、表示光学系光軸23上における、視線検出系20が検出できる範囲を広げることができる。そして、眼球21がアイピース窓13から遠い位置にあっても眼球21を捕えることができる。
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されない。上記実施形態では、撮像装置に本発明を適用したと捉えることもできるし、ファインダ装置に本発明を適用したと捉えることもできる。表示パネルを有する装置であって、表示パネルと、当該表示パネルを視認する眼との距離が変化し得る装置であれば、本発明を適用可能である。例えば、HMD(ヘッドマウントディスプレイ)などの表示装置に本発明を適用することもできる。HMDに本発明を適用する場合には、例えば、視線検出系20として、右眼の視線検出系と左眼の視線検出系との少なくとも一方がHMDに設けられ、HMDは、HMDを装着したユーザの視線(右眼と左眼の少なくとも一方の視線)を検出する。HMDの表示パネルも長方形の表示面を有することがあり、HMDの姿勢が正位置状態であるときに、表示面の長辺が上下方向と略平行になるような向きで表示パネルが設けられることがある。そのような場合であっても、投影光軸が視線センサ画像の長辺(視線撮像センサの長辺)と略平行になるように視線検出系を配置すればよい。例えば、HMDの姿勢が正位置状態であるときに、縦長のEVFパネル6に対して左または右側に、視線撮像センサ19が横長となるように配置される。本発明の要旨の範囲内で上記実施形態の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。
1:カメラ 1B:カメラ筐体 1C:EVFユニット
2:撮像素子 6:EVFパネル
12:表示光学系 18:視線光学系 19:視線撮像センサ

Claims (11)

  1. 表示パネルと、
    前記表示パネルを視認するための表示光学系と、
    前記表示パネルを視認するユーザの眼を撮像するための、長方形の撮像面を有する撮像センサと、
    前記眼の光学像を前記撮像面に結像するための撮像光学系と
    を有し、
    前記撮像光学系の光軸は、前記表示光学系の光軸と非平行であり、
    前記表示光学系の光軸を前記撮像面に投影した直線は、前記撮像面の長辺と略平行である
    ことを特徴とする表示装置。
  2. 前記表示装置の姿勢が所定の姿勢であるときに前記撮像センサが前記表示光学系の光軸の下側から見上げるような向きで、前記撮像センサは配置されている
    ことを特徴とする請求項1に記載の表示装置。
  3. 前記表示装置の姿勢が前記所定の姿勢であるときに前記撮像センサが前記表示パネルの下側から見上げるような向きで、前記撮像センサは配置されている
    ことを特徴とする請求項2に記載の表示装置。
  4. 前記表示パネルの表示面の形状は、前記表示装置の姿勢が前記所定の姿勢であるときに長辺が左右方向と略平行になる長方形である
    ことを特徴とする請求項3に記載の表示装置。
  5. 前記表示面の長辺の長さの3倍は、前記表示面の短辺の長さの4倍以上である
    ことを特徴とする請求項4に記載の表示装置。
  6. 前記表示光学系は、前記表示光学系の光軸に平行な方向から見た場合に円形状から当該円形状の外周部分の一部を除いたような形状を有するレンズを含み、
    前記撮像センサは、前記表示光学系の光軸に平行な方向から見た場合に、前記外周部分の一部が除かれたような領域に前記撮像センサの少なくとも一部が含まれるように配置される
    ことを特徴とする請求項1~5のいずれか1項に記載の表示装置。
  7. 前記レンズは、前記表示光学系の光軸に平行な方向から見た場合に、前記外周部分の一部を切り欠いたような形状を有する
    ことを特徴とする請求項6に記載の表示装置。
  8. 前記レンズは、前記表示光学系の光軸に平行な方向から見た場合に、前記表示パネルの表示面の辺と略平行な直線部分を含む切り欠き線で前記外周部分の一部を切り欠いたような形状を有する
    ことを特徴とする請求項7に記載の表示装置。
  9. 前記撮像センサにより撮像された前記眼の画像に基づいて、前記ユーザの視線を検出する検出手段
    をさらに有する
    ことを特徴とする請求項1~8のいずれか1項に記載の表示装置。
  10. 請求項9に記載の表示装置と、
    前記眼が接眼する接眼部と
    を有することを特徴とするファインダ装置。
  11. 被写体を撮像するための第2の撮像センサと、
    前記第2の撮像センサにより撮像された前記被写体の画像を表示可能な、請求項1~9のいずれか1項に記載の表示装置と
    を有することを特徴とする撮像装置。
JP2022003484A 2022-01-13 2022-01-13 表示装置、ファインダ装置、および撮像装置 Pending JP2023102822A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022003484A JP2023102822A (ja) 2022-01-13 2022-01-13 表示装置、ファインダ装置、および撮像装置
US18/069,525 US20230224561A1 (en) 2022-01-13 2022-12-21 Display apparatus, finder apparatus, and imaging apparatus
EP22215762.0A EP4215979A1 (en) 2022-01-13 2022-12-22 Display apparatus, finder apparatus, and imaging apparatus
CN202310020603.7A CN116437180A (zh) 2022-01-13 2023-01-06 显示设备、取景器设备和摄像设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022003484A JP2023102822A (ja) 2022-01-13 2022-01-13 表示装置、ファインダ装置、および撮像装置

Publications (1)

Publication Number Publication Date
JP2023102822A true JP2023102822A (ja) 2023-07-26

Family

ID=84569114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022003484A Pending JP2023102822A (ja) 2022-01-13 2022-01-13 表示装置、ファインダ装置、および撮像装置

Country Status (4)

Country Link
US (1) US20230224561A1 (ja)
EP (1) EP4215979A1 (ja)
JP (1) JP2023102822A (ja)
CN (1) CN116437180A (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0591394A (ja) 1991-09-26 1993-04-09 Canon Inc ビデオカメラ
US8911087B2 (en) * 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
US11822714B2 (en) * 2020-05-15 2023-11-21 Canon Kabushiki Kaisha Electronic device and control method for capturing an image of an eye

Also Published As

Publication number Publication date
CN116437180A (zh) 2023-07-14
EP4215979A1 (en) 2023-07-26
US20230224561A1 (en) 2023-07-13

Similar Documents

Publication Publication Date Title
JP5151207B2 (ja) 表示装置
JP6094305B2 (ja) 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
US20210034151A1 (en) Electronic device, control method, and non-transitory computer readable medium
US20230013134A1 (en) Electronic device
US11822714B2 (en) Electronic device and control method for capturing an image of an eye
US20220329740A1 (en) Electronic apparatus, method for controlling electronic apparatus, and non-transitory computer readable storage medium
JP2023102822A (ja) 表示装置、ファインダ装置、および撮像装置
JP2005286927A (ja) 透過式頭部搭載表示装置
JP6304415B2 (ja) 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
JP7446898B2 (ja) 電子機器
US11971552B2 (en) Electronic device, method of controlling the same, and storage medium
JP2021182736A (ja) 電子機器
WO2021085541A1 (ja) 撮像装置、電子機器、ファインダーユニット
JP2021064928A (ja) 電子機器
US20230092593A1 (en) Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor
US20240114228A1 (en) Line-of-sight detecting apparatus, image pickup apparatus, line-of-sight detecting method, and storage medium
US20240211036A1 (en) Line-of-sight detection device and head mounted display device
JP2022124778A (ja) 電子機器
JP2018033055A (ja) 撮像装置
JP2021076832A (ja) 撮像装置、電子機器、ファインダーユニット
JP2022171084A (ja) 撮像装置及びその制御方法、並びにプログラム
JP2023040771A (ja) 視線検出装置
JP2023087377A (ja) 視線検出装置
JP2023006630A (ja) 検出装置およびその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240709