JP2023157200A - 電子機器、制御方法およびプログラム - Google Patents

電子機器、制御方法およびプログラム Download PDF

Info

Publication number
JP2023157200A
JP2023157200A JP2022066950A JP2022066950A JP2023157200A JP 2023157200 A JP2023157200 A JP 2023157200A JP 2022066950 A JP2022066950 A JP 2022066950A JP 2022066950 A JP2022066950 A JP 2022066950A JP 2023157200 A JP2023157200 A JP 2023157200A
Authority
JP
Japan
Prior art keywords
user
subject
viewpoint
attention
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022066950A
Other languages
English (en)
Inventor
友貴 植草
Tomotaka Uekusa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022066950A priority Critical patent/JP2023157200A/ja
Priority to US18/297,665 priority patent/US20230336862A1/en
Publication of JP2023157200A publication Critical patent/JP2023157200A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

【課題】ユーザの視点検出を利用した主被写体の選択・切り替え操作の応答性向上を可能とする電子機器を提供する。【解決手段】本開示の電子機器は、撮像手段により撮像されて表示手段に表示された画像におけるユーザの視点を検出する検出手段と、前記画像における複数の被写体を追尾する追尾手段と、前記ユーザの視点を基に、前記複数の被写体それぞれに対する前記ユーザの注目度を判定する判定手段と、前記複数の被写体のいずれかを主被写体として選択する選択手段とを有し、前記選択手段は、前記複数の被写体それぞれの注目度に基づいて前記主被写体を選択する。【選択図】図2

Description

本発明は電子機器、制御方法およびプログラムに関し、特に電子機器における被写体の切り替え制御に関するものである。
近年デジタルカメラのミラーレス化が進み、手動で十字キーやマルチコントローラ等を操作せずとも、ファインダを覗くユーザの視点を検出し、その位置情報に基づいて視点ポインタを表示し、ユーザが任意の位置指定を可能とする技術が用いられている。
特許文献1には、ユーザである撮影者の視線による位置指定を利用して自動焦点(オートフォーカス:AF)制御を行う対象である主被写体の選択・切り替えに関する技術が開示されている。
また、特許文献2には、人間の眼球にある固視微動と呼ばれる、ある一点を注視している際にも眼球が細かい運動を起こす特性に対して、その影響を緩和するために視点ポインタを、時間で平均化した位置により表示する技術が開示されている。
特開2021-67853号公報 特開2021-108447号公報
しかしながら、上述の特許文献に開示された従来技術では、固視微動による影響緩和のために視点ポインタの位置を時間平均して表示しているため、視点による位置指定の応答性が損なわれる可能性がある。その結果、視点による位置指定を利用したオートフォーカス(以下、AF)制御を行う対象である主被写体の選択・切り替え操作では、タイミングの遅れによる撮影機会の損失につながる可能性がある。
そこで、本発明の目的は、ユーザの視点検出を利用した主被写体の選択・切り替え操作の応答性向上を可能とする電子機器を提供することである。
上記目的を達成するために、本開示に係る電子機器は、
撮像手段により撮像されて表示手段に表示された画像におけるユーザの視点を検出する検出手段と、前記画像における複数の被写体を追尾する追尾手段と、前記ユーザの視点を基に、前記複数の被写体それぞれに対する前記ユーザの注目度を判定する判定手段と、前記複数の被写体のいずれかを主被写体として選択する選択手段とを有し、前記選択手段は、前記複数の被写体それぞれの注目度に基づいて前記主被写体を選択する、
ことを特徴とする電子機器を含む。
また、本開示に係る電子機器は、
表示手段に表示された画像におけるユーザの視点を検出する検出手段と、
前記ユーザの視点を基に、前記画像における複数のオブジェクトそれぞれに対する前記ユーザの注目度を判定する判定手段と、
前記複数のオブジェクトそれぞれの注目度に基づいてオブジェクトを選択する選択手段と、
を有することを特徴とする電子機器を含む。
また、本開示に係る電子機器は、
撮像手段により撮像されて表示手段に表示された画像における複数の被写体を選択可能に表示する表示制御手段と、
選択可能に表示された前記複数の被写体のいずれかを選択する選択手段と
を有し、
前記複数の被写体のうち、ユーザが第1の時間見た被写体よりも、前記ユーザが前記第1の時間よりも長い第2の時間見た被写体の方が前記選択手段によって選択されやすい
ことを特徴とする電子機器を含む。
また、本開示に係る電子機器は、
撮像手段により撮像された画像を表示手段に表示する表示制御手段と、
前記表示手段に表示された画像におけるユーザの視点を検出する検出手段と、
前記複数の被写体のいずれかを主被写体として選択する選択手段と、
前記ユーザによる操作を受け付けるための操作手段と、
を有し、
前記操作手段が受け付けた操作によって前記選択手段により選択される主被写体の切り替えが可能であり、
前記表示制御手段は、前記複数の被写体のうち、第1の被写体ではなく、該第1の被写体よりユーザが長い時間見た第2の被写体を、前記主被写体の切り替え候補として区別可能に表示する
ことを特徴とする電子機器を含む。
また、本開示に係る電子機器の制御方法は、
撮像手段により撮像されて表示手段に表示された画像におけるユーザの視点を検出する検出ステップと、
前記画像における複数の被写体を追尾する追尾ステップと、
前記ユーザの視点を基に、前記複数の被写体それぞれに対する前記ユーザの注目度を判定する判定ステップと、
前記複数の被写体のいずれかを主被写体として選択する選択ステップと
を含み、
前記選択ステップは、前記複数の被写体それぞれの注目度に基づいて前記主被写体を選択する
ことを特徴とする制御方法を含む。
本開示によれば、ユーザの視点と画像処理によって認識される被写体の領域から算出される被写体ごとの注目度に基づいて、AF制御を行う主被写体の選択・切り替え操作を制御することで、応答性を向上することができる。また、本開示によれば、撮影機会の損失を低減できる。
一実施形態に係るデジタルカメラの外観図 一実施形態に係るデジタルカメラの構成を示すブロック図 一実施形態に係るデジタルカメラの筐体の断面図 視線検出方法の原理を説明する要約図 撮像素子に投影される眼球像の概略図および撮像素子における出力強度図 一実施形態における視線検出処理を示すフローチャート 第1の実施形態の主被写体の切り替え制御処理を示すフローチャート 第1の実施形態の主被写体の切り替え制御処理を示す模式図 一実施形態における注目度の表示例を示す模式図 第2の実施形態の主被写体の切り替え制御処理を示すフローチャート 第2の実施形態の主被写体の切り替え制御処理を示す模式図 第3の実施形態の主被写体の切り替え制御処理を示すフローチャート 第3の実施形態の主被写体の切り替え制御処理を示す模式図 第4の実施形態の主被写体の切り替え制御処理を示すフローチャート 第4の実施形態の主被写体の切り替え制御処理を示す模式図
以下、本開示の実施形態について図面を用いて説明する。なお、本開示は以下の実施形態に限定されるものではなく、その要旨を逸脱しない範囲において適宜変更可能である。また、以下で説明する図面において、同じ機能を有するものは同一の符号を付し、その説明を省略又は簡潔にすることもある。
(第1の実施形態)
図1Aおよび図1Bは、第1の実施形態に係る電子機器であるデジタルカメラ100の外観を示す。デジタルカメラ100は、被写体を撮像する撮像装置の一例である。図1Aは正面斜視図であり、図1Bは背面斜視図である。図1Aに示すように、カメラ1は、撮影レンズ100Aおよび筐体部100Bを有する。筐体部100Bには、ユーザ(撮影者)からの撮像操作を受け付ける操作部材であるレリーズボタン5が配置されている。図1Bに示すように、カメラ筐体100Bの背面には、カメラ筐体100B内に含まれる表示部113をユーザが覗き込むための接眼窓枠6と接眼レンズ203(接眼光学系)が配置されている。接眼窓枠6は接眼レンズ203を囲んでおり、接眼レンズ203に対して、カメラ筐体100Bの外側(背面側)に突出している。なお、接眼光学系には複数枚のレンズが含まれていてもよい。カメラ筐体100Bの背面には、ユーザからの各種操作を受け付ける操作部材115a、115b、115cからなる操作部115も配置されている。例えば、操作部材115aはタッチ操作を受け付けるタッチパネルであり、操作部材115bは各方向に押し倒し可能な操作レバーであり、操作部材115cは4方向のそれぞれに押し込み可能な4方向キーである。操作部材115a(タッチパネル)は、液晶パネル等の表示パネルを備えており、表示パネルで画像を表示する機能を有する。
図2は、本発明に第1の実施形態に係る電子機器であるデジタルカメラ100のブロック図である。図2において、結像光学部101は焦点レンズや防振レンズを含む複数のレンズ群および絞りを備えている。撮影の際、結像光学部101は、焦点制御部118で焦点調節、絞り制御部119で露出調節、ブレ補正等を行い、撮像素子102に光学像を結像する。撮像素子102は、光学像を電気信号(アナログ画像信号)に変換する光電変換機能を有する。撮像素子102は、例えばCCD(Charged Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)センサ等で構成される。また、撮像素子
102は、像面位相差AF用に、専用画素や各画素内に複数の独立したフォトダイオードを備えている。A/D変換部103は、撮像素子部102からのアナログ画像信号をデジタル画像信号に変換する。変換後の画像データは後段の画像処理部104に入力される。
バス116は主にCPU114などから各ブロックの制御信号を伝送するためのシステムバスであり、バス117は主に画像データを転送るためのデータバスである。CPU114は、デジタルカメラ100全体の制御を司るマイクロコンピュータ等で構成され、各機能ブロックに対して動作指示を行い、各種の制御処理を実行する。また、CPU114は、各種制御処理の際に必要となる演算も行う。CPU114は、システムバス116を介して画像処理部104、データ転送部105、メモリ制御部106、不揮発性メモリ制御部108、記録メディア制御部110、表示制御部112、操作部115、撮像素子102等を制御する。CPU114は、ROM109に記録されたプログラムを実行することにより、以下に説明するデジタルカメラの制御方法の各処理を実現する。さらに、CP
U114は、結像光学部101のレンズ、絞りの制御や、焦点距離等の情報取得を行う。
データ転送部105は、データ転送を行う複数のDMAC(Direct Memory Access Controller)で構成されている。DRAM(メモリ)107は、データを記憶するメモリで
あり、所定枚数の静止画像や所定時間の動画像、音声等のデータやCPU114の動作用の定数、プログラム等を格納するのに十分な記憶容量を備える。メモリ制御部106は、CPU114あるいはデータ転送部105からの指示に応じて、DRAM107へのデータ書き込みおよびデータ読み出しを行う。
不揮発性メモリ制御部108は、CPU114からの指示に応じて、ROM(不揮発性メモリ)109にデータの書き込みおよび読み出しを行う。ROM109は、電気的に消去・記録可能なメモリであり、EEPROM等が用いられる。ROM109には、CPU114の動作用の定数、プログラム等が記憶される。
画像処理部104は、各種画像処理部およびバッファメモリ等から構成されており、画像データに対して、倍率色収差補正、現像処理、ノイズリダクション処理、幾何変形、拡縮といったリサイズなどの処理を行う。また、画像処理部104は、現像および加工された画像から被写体を検出、認識、追尾する処理を行い、A/D変換器103により変換された画像データに対して画素補正、黒レベル補正、シェーディング補正、傷補正などを適正に行う撮像補正部等も備える。
記録メディア111は、SDカード等の記録媒体であり、記録メディア制御部110により制御され、画像データの記録や、記録データの読み出しを行う。
表示部113は、液晶ディスプレイや電子ビューファインダからなり、表示制御部112により制御され、画像処理部104から転送された各種の画像データやメニュー画面などを表示する。また、静止画撮影の撮影前や、動画撮影時には、A/D変換部103から入力された画像データをリアルタイムで処理して表示する。
操作手段である操作部115は、ユーザにより操作されるスイッチやボタン、タッチパネル等を含み、電源のON/OFF、シャッターのON/OFF等の操作に使用される。眼球用撮像素子121は、ビューファインダを覗くユーザの眼球の光学像を結像し、視線検出部120に画像データを出力する。視線検出部120は、眼球用撮像素子121から入力された画像を基にユーザの視線方向を検出する。視線検出動作の詳細については後述する。
照明光源123および照明光源駆動部124は、視線検出のための赤外光源とそれを制御する駆動部である。赤外光はユーザの眼球に向けて照射され、その反射像を眼球用撮像素子120で結像する。
注目度検出部125は、視線検出部120が検出したユーザの視線データと画像処理部104が認識した被写体領域情報に基づいて、被写体ごとのユーザの関心度合いを算出し、注目度として出力する。
自動焦点検出部122は、視線検出部120や画像処理部104により出力される焦点を合わせる領域に対するレンズ駆動量を算出し、焦点制御部118に対して焦点レンズの駆動制御を指示する。レンズ駆動量の算出は例えば、撮像素子102で取得される焦点検出用画像に基づく像面位相差方式等で行われる。
図3は、第1の実施形態に係るデジタルカメラ100の筐体の断面図であり、その構成
を概略的に示す説明図である。図1および図2において、対応する部位は同じ番号で表記されている。
図3において、撮影レンズ100Aはレンズ交換式カメラ用のレンズである。本実施形態では便宜上、撮影レンズ100Aの内部を205、206の2枚のレンズで表すが、実際はさらに多数のレンズで構成されてよい。筐体部100Bはカメラ本体であり、撮像素子102は、デジタルカメラ100の撮影レンズ100Aの予定結像面に配置されている。接眼レンズ203は、表示部113に表示された被写体像を観察するためのレンズである。
筐体部100Bには、光源の角膜反射による反射像と瞳孔の関係から視線方向を検出するためのユーザの眼球204を照明するための赤外発光ダイオードからなる光源123a、123bが、接眼レンズ203の周りに配置されている。照明された眼球像と光源123a~123bの角膜反射による像は接眼レンズ203を透過し、光分割器202で反射され、受光レンズ201によってCCD等の光電素子列を2次元的に配した眼球用撮像素子121上に結像される。受光レンズ201はユーザの眼球204の瞳孔と眼球用撮像素子121を共役な結像関係に配置されている。眼球用撮像素子121上に結像された眼球と光源123a、123bの角膜反射による像の位置関係から後述する所定のアルゴリズムで視線方向を検出する。
撮影レンズ100A内には絞り207、絞り制御部119、駆動ギヤ等からなるレンズ駆動部材210、レンズ駆動用モータ211が設けられている。また、撮影レンズ100A内には、レンズ駆動部材210に連動するパルス板208の回転を検知して、焦点制御部118に伝えるフォトカプラ209が設けられている。焦点制御部118は、フォトカプラ209からの情報とカメラ側からのレンズ駆動量の情報に基づいて、レンズ駆動用モータ211を所定量駆動させ、焦点レンズ205を合焦点位置に移動させる。また、撮影レンズ100Aは、カメラとレンズとのインターフェイスとなるマウント接点212を有する。
図4は視線検出方法の原理を示す説明図であり、視線検出をおこなうための光学系の要約図である。図3において、光源123a、123bはユーザに対して不感の赤外光を放射する発光ダイオード等であり、各光源123a、123bは受光レンズ201の光軸に対して略対称に配置され観察者の眼球204を照らしている。眼球204により反射された照明光の一部は受光レンズ201によって、眼球用撮像素子121に集光する。
図5は、眼球用撮像素子121に投影される眼球像の概略図と眼球用撮像素子121におけるCCDの出力強度図とを示す。図中、上側の図が眼球像の概略図であり、下側の図がCCDの出力強度図である。図6は、本実施形態においてデジタルカメラ100のCPU114が実行する視線検出処理のフローチャートを示す。以下、図4~6を用いて、本実施形態における視線検出処理について説明する。
<視線検出動作の説明>
視線検出ルーチンが開始すると、ステップS601において、CPU114は、光源123a、123bによりユーザの眼球204に向けて赤外光を放射する。赤外光によって照明されたユーザの眼球像は、眼球用撮像素子121上に受光レンズ201を通して結像し、眼球用撮像素子121により光電変換がなされ、眼球像は電気信号として処理が可能となる。
ステップS602において、CPU114は、眼球用撮像素子121から得られた眼球画像信号を視線検出部120に送る。
ステップS603では、CPU114は、ステップS602において得られた眼球画像信号の情報から、図4に示す光源123a、123bの角膜反射像Pd、Peおよび瞳孔中心cに対応する点の座標を求める。光源123a、123bより放射された赤外光はユーザの眼球204の角膜301を照明する。このとき、角膜301の表面で反射した赤外光の一部により形成される角膜反射像Pd、Peは受光レンズ201により集光され、眼球用撮像素子121上に結像する(図の点Pd’、Pe’)。同様に瞳孔302の端部a、bからの光束も眼球用撮像素子121上に結像する。
図5には、眼球用撮像素子121から得られる反射像の画像例(図中上側の図)と当該画像例の領域αにおける、眼球用撮像素子121から得られる輝度情報例(図中下側の図)とを示す。図示のように、水平方向をX軸、垂直方向をY軸とする。このとき、光源123a、123bの角膜反射像が結像した像Pd’、Pe’のX軸方向(水平方向)の座標をそれぞれXd、Xeとする。また、瞳孔302の端部a、bからの光束が結像した像a’、b’のX軸方向の座標をそれぞれXa、Xbとする。図5の輝度情報例において、光源123a、123bの角膜反射像が結像した像Pd’、Pe’に相当する位置Xd、Xeでは、極端に強いレベルの輝度が得られている。瞳孔302の領域に相当する、座標XaからXbの間の領域は、上記Xd、Xeの位置を除き、極端に低いレベルの輝度が得られる。これに対し、瞳孔302の外側の光彩401の領域に相当する、Xaより低いX座標の値を持つ領域およびXbより高いX座標の値を持つ領域では、上記2種の輝度レベルの中間の値が得られる。そして、上記X座標位置に対する輝度レベルの変動情報から、光源123a、123bの角膜反射像が結像した像Pd’、Pe’のX座標Xd、Xeと、瞳孔端の像a’、b’のX座標Xa、Xbを得ることができる。また、受光レンズ201の光軸に対する眼球204の光軸の回転角θxが小さい場合、眼球用撮像素子121上に結像する瞳孔中心cに相当する箇所(c’とする)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。上記より、眼球用撮像素子121上に結像する瞳孔中心に相当するc’のX座標、光源123a、123bの角膜反射像Pd’、Pe’の座標を見積もることができる。
次に、ステップS604では、CPU114は眼球像の結像倍率βを算出する。結像倍率βは受光レンズ201に対する眼球204の位置により決まる倍率で、実質的には角膜反射像Pd’、Pe’の間隔(Xd-Xe)の関数として求めることができる。
また、ステップS605では、角膜反射像PdおよびPeの中点のX座標と角膜301の曲率中心OのX座標とはほぼ一致する。このため、角膜301の曲率中心Oと瞳孔302の中心cまでの標準的な距離をOcとすると、眼球204の光軸のZ-X平面内の回転角θxは、以下の式(1)で求めることができる。
β×Oc×sinθx≒{(Xd+Xe)/2}-Xc・・・(1)
また、図4、図5においては、ユーザの眼球がY軸に垂直な平面内で回転する場合の回転角θxを算出する例を示しているが、ユーザの眼球がX軸に垂直な平面内で回転する場合の回転角θyの算出方法も同様である。
ユーザの眼球204の光軸の回転角θx、θyが算出されると、ステップS506では、CPU114は、θx、θyを用いて、表示部113上でユーザの視線の位置(注視している点の位置。以下、注視点と称する。)を求める。注視点位置を表示部113上での瞳孔302の中心cに対応する座標(Hx,Hy)として、以下の式(2)、(3)で求めることができる。
Hx=m×(Ax×θx+Bx)・・・(2)
Hy=m×(Ay×θy+By)・・・(3)
ここで、係数mはカメラのファインダ光学系の構成で定まる定数で、回転角θx、θyを表示部113上での瞳孔302の中心cに対応する位置座標に変換する変換係数であり、あらかじめ決定されてメモリ107に記憶されている。また、Ax、Bx、Ay、Byはユーザの視線の個人差を補正する視線補正係数であり、キャリブレーション作業を行うことで取得され、図6の視線検出ルーチンが開始する前にメモリ107に記憶されている。
上記のように表示部113上での瞳孔302の中心cの座標(Hx,Hy)を算出した後、ステップS607で固視微動による座標ブレの影響を緩和するため、CPU114は、所定期間分平均化する時系列フィルタを算出した座標に適用する。そして、ステップS608においてメモリ107に上記座標を記憶して、視線検出ルーチンを終了する。また、CPU114は、視線の位置がある領域にどのくらい留まっていたかを計測し、領域ごとの視線の位置の滞在時間を注視時間としてメモリ107に記憶する。
なお、上記の処理は、光源123a、123bの角膜反射像を利用した表示素子上での注視点座標を取得する手法の一例であるが、撮像された眼球画像から眼球回転角度を取得できれば任意の手法が本実施形態に適用可能である。
図7は、本実施形態に係るデジタルカメラ100が実行する主被写体の選択・切り替え制御処理のフローチャートを示し、図8は、本実施形態の主被写体の選択・切り替え制御処理を模式的に説明する図である。また、図9は、ユーザの注目度の表示例を示す図である。以下、図7~9を参照しながら、図7において実行される処理について説明する。
ユーザによる撮影が開始されると、CPU114は主被写体の選択・切り替え制御処理を開始し、ステップS701とステップS704の2つの処理が平行して実行される。
ステップS701では、撮像素子102は、主被写体を含む撮影領域の画像を取得し、取得した画像をA/D変換部103を介して画像処理部104に出力する。ステップS701で撮影領域の画像が取得および出力が完了すると、処理はステップS702に進む。
ステップS702では、画像処理部104は、ファインダ内の表示部113に表示するために生成したライブビュー画像における被写体の認識を行う。被写体認識処理は、例えば深層学習(ディープラーニング)、すなわち学習済みの畳み込み層を含む多層ニューラルネットワークを用いて特定の被写体領域を推定するものである。また、深層学習を用いずにテクスチャや色、ヒストグラム等から画像内の顕著な領域を算出し、被写体領域として推定するものであってもよい。画像内に複数の被写体が存在する場合は、被写体領域の推定結果も複数出力される。被写体領域の推定結果は、初期フレームにおいてはすべての被写体、その後のフレームにおいては追尾対象となっていない新たにフレームインした被写体に対応する結果が出力される。例えば、図8Aに示すようにライブビュー画像内に被写体801、803、805が存在した場合、それぞれの被写体領域802、804、806が推定結果として出力される。ステップS702で被写体認識処理により被写体領域が推定されると、処理はステップS703に進む。
ステップS703では、画像処理部104は、追尾手段として機能し、ステップS702で出力される複数の被写体の追尾を行い、被写体追尾結果をCPU114に出力する。被写体追尾処理は、例えば深層学習を用いて過去フレームにおける追尾対象の被写体領域に対応する、現フレーム内の領域を推定する。より具体的には、被写体領域についての特徴点と、特徴点が含む特徴量とを抽出する機能と、抽出した特徴点をフレーム間で対応付ける機能とを有する。すなわち、過去フレームの追尾対象の被写体領域についての特徴点に対応付けられる現フレームの特徴点から、現フレームにおける追尾対象の被写体領域の位置と大きさを推定する。また、深層学習を用いずにテクスチャや色、ヒストグラム等か
ら過去フレームにおける追尾対象の被写体領域に対応する、現フレーム内の被写体領域を推定するものであってもよい。被写体追尾結果は、被写体のフレームアウト等により過去フレームにおける追尾対象の被写体領域が、現フレーム内で見つけられなかった場合にロスト判定となる。また、現フレームにおいてステップS702で新たに認識された被写体においては、被写体認識処理の推定結果をそのまま被写体追尾結果として出力する。
例えば、図8Aに示すようにライブビュー画像内に被写体801、803、805が存在した場合、1つ前のフレーム内の対応する各被写体領域802、804、806を推定し、複数フレームにわたって同一の被写体として認識し続けることが可能となる。ステップS703で被写体追尾処理により現フレームにおける各被写体領域が推定されると、結果は注目度算出部125にも出力され、処理はステップS705の完了と待ち合わせを行い、ステップS706に進む。
一方、ステップS704では、眼球用撮像素子121は、照明光源123が照射されたユーザの眼球の画像を取得し、画像データを視線検出部120に出力する。ステップS704でユーザの眼球画像を取得すると、処理はステップS705に進む。
ステップS705では、視線検出部120は、検出手段として機能し、上記の視線検出ルーチンによりユーザの視線を検出する。そして、視線検出部120は、ファインダ内の表示部113に表示されるライブビュー画像における視点座標を算出して、視点ポインタ(例えば、図8Aの808)を表示する。また、視線検出部120は、視点座標をCPU114および注目度算出部125に出力する。ステップS705でユーザの視点座標が算出されると、処理はステップS703の完了と待ち合わせを行い、ステップS706に進む。
ステップS706では、注目度算出部125は、判定手段として機能し、ユーザの視点を基に、複数の被写体それぞれに対するユーザの注目度を判定する。具体的には、注目度算出部125は、ステップS703で画像処理部104により出力された現フレームにおける各被写体領域情報と、ステップS705で視線検出部120により出力された視点座標から、被写体ごとのユーザの注目度を算出する。被写体ごとの注目度は、追尾される被写体の領域内に検出されたユーザの視点が含まれる度合いである。この度合いとしては、被写体領域内に視点座標が滞在していた期間(例えば、視点座標算出のサンプリング数や該当する表示フレーム数、もしくは所定時間留まった回数のカウント値そのもの、すべての被写体の合計値に対する割合等)が挙げられる。ステップS703でロスト判定された被写体については、注目度を破棄する。算出された被写体ごとの注目度はCPU114に出力される。また注目度情報は、設定に応じてファインダ内の表示部113に表示するライブビュー画像に重畳表示(例えば、図8Aの809)される。
注目度情報の表示は図9Aに示すように、予め設定された閾値により数段階(例えば、5段階)に区分し、数値として表示したり、図9Bに示すように注目度情報をそのまま数値として表示したり、図9Cに示すように段階値をメーター表示したりしてもよい。また、被写体領域を示す枠表示の色や太さ、多重線で段階値を表現するように表示するなどしてもよい。このように、表示部113には、判定された複数の被写体の注目度を、数値、図形、色の少なくとも1つを用いて表示することができる。ステップS706で被写体ごとの注目度が算出されると、処理はステップS707に進む。
ステップS707では、CPU114は、ユーザが操作手段である操作部115の操作によりAF制御対象とする主被写体の切り替え決定操作を行ったか否かを判定する。ここで、主被写体の切り替え決定操作の一例として、タッチパネル115a、操作レバー115b、4方向キー115cの少なくとも1つを用いて切り替え後の主被写体を決定する操
作が挙げられる。主被写体の切り替え決定操作が行われた場合(S707:YES)、処理はステップS708に進み、主被写体の切り替え決定操作が行われなかった場合(S707:NO)、処理はステップS709に進む。
ステップS709では、CPU114は、視点座標と被写体の座標(例えば、被写体領域の中心座標)との距離が特定の閾値距離以下であるか否かを判定する。図8Aのようにユーザの視点を示す視点ポインタが807の位置から808の位置に移動すると、図8Bの被写体803から特定の閾値距離の範囲内であることを示す領域810内に視点座標が含まれる。これにより、視点座標と被写体座標とが特定の閾値距離以下と判定される。被写体803からの特定の閾値距離を示す領域810は、例えば被写体803の注目度がゼロの時に被写体領域804と同じ大きさになり、注目度が高いほど大きくなるように算出される。また、説明の便宜上、図では領域810が表示部113に表示されているように示しているが、ファインダ内の表示部113には領域810は表示されず、領域810に関する情報はデジタルカメラ100が内部的に保持しているものとする。
また、基本的に主被写体の切り替えにおいては、主被写体から主被写体以外の被写体への切り替えが想定されるため、ステップS709において、主被写体801の注目度はゼロとして扱うこととする。ステップS709で視点座標と被写体座標とが特定の距離以下と判定されると(S709:YES)、処理はステップS710に進む。また、視点座標と被写体座標とが特定の距離より大きいと判定されると(S709:NO)、処理はステップS711に進む。
ステップS710では、CPU114は、選択手段として機能し、視点座標との距離が特定の距離以下である被写体を、主被写体切り替えの対象として有効化状態(主被写体として決定可能な選択状態)にする。そして、CPU114は、ユーザにその状態を通知するための表示を行う命令を表示制御部112に出力する。表示制御部112は、CPU114からの命令に従って、表示制御手段として機能し、画像における複数の被写体を選択可能に表示する。具体的には、例えば図8Bに示すような被写体を囲む二重枠811の表示であり、現在のAF制御対象である主被写体801の太枠802や主被写体以外の被写体領域を示す破線枠806とは異なる表示である。ステップS710で主被写体の切り替え対象としての有効化表示がされると、処理はステップS711に進む。
一方、ステップS708では、CPU114は、ユーザにより主被写体の切り替え決定操作が行われる際に選択されている被写体を主被写体として設定し、すべての被写体の注目度を初期値にリセットする。また、注目度情報の表示も初期値のゼロにリセットされる。ステップS708で主被写体の切り替え処理がなされると、処理はステップS711に進む。
ステップS711では、CPU114は、自動焦点検出部122に主被写体領域(802もしくは812)に対する焦点制御を行うように指示を行い、自動焦点検出部122はレンズ駆動量を算出し、焦点制御部118に焦点レンズの駆動制御を指示する。焦点制御部118の焦点レンズの駆動制御により主被写体領域に対する焦点制御が完了すると、処理はステップS712に進む。
図8A~図8Cの例では、被写体801が主被写体として設定されている状態で、ユーザの視点位置を示す視点ポインタ808が領域810内に移動すると、被写体803が主被写体として決定可能である通知(枠811の表示)が行われる。また、ユーザが被写体803を主被写体に切り替えるための決定操作を行うまでは、被写体801に対してAF制御が行われる。そして、ユーザが主被写体を被写体803に切り替える決定操作を行うと、図8Cのように主被写体が被写体801から被写体803に切り替わり、被写体80
3に対してAF制御が行われる。また、表示部113では、被写体領域の枠については、それぞれ主被写体以外の被写体を示す破線枠813と主被写体を示す太枠812とが表示される。
そして、ステップS712では、CPU114は、ユーザによる撮影が終了したか否かを判断する。ユーザによりデジタルカメラ100の電源がOFFに操作されたり、AF操作が解除されたりした場合は(S712:YES)、CPU114は、主被写体の選択・切り替え制御処理を終了する。また、撮影が継続される場合は(S712:NO)、CPU114は、処理をステップS701、S704に戻し、上記のステップS701~S712の処理を繰り返す。
以上説明したように、被写体ごとの注目度に基づいて主被写体の被写体候補として選択される範囲が拡大される。そして、複数の被写体のうち画像において注目度がより高い被写体、すなわちユーザの視点をより集めた被写体に対して、他の被写体よりも優先度の高い表示が行われる。表示制御部120は、複数の被写体のうち、第1の被写体ではなく、第1の被写体よりユーザが長い時間見た第2の被写体を、主被写体の切り替え候補として区別可能に表示する。したがって、複数の被写体のうち、ユーザが第1の時間見た被写体よりも、ユーザが第1の時間よりも長い第2の時間見た被写体の方が選択されやすくなる。また、視点ポインタが完全に被写体領域上にない状態でも主被写体の切り替え対象として選択可能となる。これにより、主被写体の切り替え操作がユーザの視線による位置指定とボタン操作による決定操作でなされる場合において、主被写体の選択・切り替え操作の応答性向上が可能となり、撮影機会の損失の低減をもたらすことができる。
(第2の実施形態)
次に、図10と図11を参照して第2の実施形態に係る電子機器であるデジタルカメラについて説明する。第2の実施形態では、視点座標との距離が特定の距離以下である被写体を主被写体切り替えの対象として有効化する代わりに、視点ポインタの位置を移動させる。これにより、視点ポインタが完全に被写体領域上にない状態でも切り替え対象として選択可能となる。
本実施形態に係るデジタルカメラの構成は第1の実施形態と同一であり、主被写体の選択・切り替え制御処理の一部は第1の実施形態と同一である。以下の説明では、主に第1の実施形態と異なる部分について説明し、同一の構成要素や処理については同一の符号を付し、詳細な説明は省略する。
図10は、本実施形態に係るデジタルカメラ100の主被写体の選択・切り替え制御処理のフローチャートを示す図であり、図11は、本実施形態の主被写体の選択・切り替え制御処理を模式的に説明する図である。以下、図10、11を参照しながら、図10において実行される処理について説明する。
ユーザによる撮影が開始されると、CPU114は主被写体の選択・切り替え制御処理を開始し、ステップS701とステップS704の2つの処理が平行して実行される。なお、ステップS701~S709は、第1の実施形態と同様の処理である。
次に、ステップS1001では、CPU114は、視点座標との距離が特定の距離以下である被写体と重なる座標に視点ポインタを移動する。そして、CPU114は、視点ポインタと重なる被写体を主被写体の切り替えの対象として決定可能な状態とし、ユーザにその状態であることを通知するための表示を行う命令を表示制御部112に出力する。ここで、ユーザに対する通知の表示は、例えば図11Bに示すように視点ポインタ808の位置を被写体1101と重なる位置に変更する表示である。なお、図11Aの視点ポイン
タ808の位置から図11Bの視点ポインタ808の位置までの視点ポインタ808の移動の表示形態は、任意の表示形態が採用できる。例えば図11Aの視点ポインタ808を瞬時に図11Bの表示に切り替えてもよいし、図11Aの視点ポインタ808が図11Bの視点ポインタ808の位置に吸い寄せられるような移動表示としてもよい。ステップS1001で視点座標および視点ポインタの表示位置が変更されると、処理はステップS711に進む。ステップS711、S712の処理は、第1の実施形態と同様である。
以上説明したように、被写体ごとの注目度に基づいて決定される視点座標の移動範囲の適用により、視点ポインタが被写体上にない状態でも視点ポインタが移動され、主被写体の切り替え対象として選択可能となる。これにより、主被写体の切り替え操作がユーザの視線による位置指定とボタン操作による決定操作でなされる場合において、主被写体の選択・切り替え操作の応答性向上が可能となり、撮影機会の損失の低減をもたらすことができる。
(第3の実施形態)
次に、図12、図13を参照して第3の実施形態に係るデジタルカメラについて説明する。第3の実施形態では、被写体を選択する際の決定が、ボタン操作ではなく、注視判定によって行われる場合の主被写体の選択・切り替え処理の例について説明する。
本実施形態に係るデジタルカメラの構成は第1の実施形態と同一であり、主被写体の選択・切り替え制御処理の一部は第1の実施形態と同一である。以下の説明では、主に第1の実施形態と異なる部分について説明し、同一の構成要素や処理については同一の符号を付し、詳細な説明は省略する。
図12は、本実施形態に係るデジタルカメラ100の主被写体の選択・切り替え制御処理のフローチャートを示す図であり、図13は、本実施形態の主被写体の選択・切り替え制御処理を模式的に説明する図である。以下、図12、13を参照しながら、図12において実行される処理について説明する。
ユーザによる撮影が開始されると、CPU114は主被写体の選択・切り替え制御処理を開始し、ステップS701とステップS704の2つの処理が平行して実行される。ステップS701~S706は、第1の実施形態と同様の処理である。
次に、ステップS1201では、CPU114は、視点座標が主被写体以外の被写体領域内に存在しているか否かを判定する。具体例として、図13Aのようにユーザの視点を示す視点ポインタの位置が、視点ポインタ807の位置から被写体領域804内の視点ポインタ1301の位置に移動する。このとき、CPU114は、ユーザの視点座標が被写体703の被写体領域704内に存在していると判定する。視点座標が主被写体以外の被写体領域内に存在していると判定された場合(S1201:YES)、処理はステップS1202に進む。また、視点座標が主被写体以外の被写体領域内に存在していないと判定された場合(S1201:NO)、処理はステップS711に進む。
ステップS1202では、CPU114は、ステップS705でメモリ107に記憶されたユーザの注視時間を読み出し、注視時間が特定の時間以上であるか否かを判定する。例えば、図13Bのように視点ポインタ1301が被写体領域804内に移動した後、特定の時間以上、視点ポインタ1301が被写体703の被写体領域704内に留まり続ける。このとき、CPU114は、注視時間が特定の時間以上であると判定して、主被写体を切り替える決定操作が行われたと判定する。ここで、注視判定を行うための閾値である特定の時間は、例えば被写体703の注目度がゼロの時にあらかじめ設定されている閾値の時間である。この時間は、注目度が高いほど短くなるように設定され、注目度が高い被
写体ほど注視判定の所要時間が短くなる。注視時間が特定の時間以上であると判定された場合(S1202:YES)、処理はステップS708に進む。また、注視時間が特定の時間より短いと判定された場合(S1202:NO)、処理はステップS711に進む。ステップS708およびステップS711、S712の処理は、第1の実施形態と同様の処理である。
以上説明したように、注視判定の閾値の時間が被写体ごとの注目度に基づいて設定されることで、注目度が高い被写体ほど主被写体の切り替え対象として決定されるまでの時間が短くなる。これにより、主被写体の切り替え操作がユーザの視線による位置指定と注視判定による決定操作でなされる場合において、主被写体の選択・切り替え操作の応答性向上が可能となり、撮影機会の損失の低減をもたらすことができる。
(第4の実施形態)
次に、図14、図15を参照して第4の実施形態に係るデジタルカメラについて説明する。第4の実施形態では、被写体を選択する際の決定が、ユーザの視点位置を用いた処理を基に行うのではなく、ボタン操作によって行う場合の主被写体の選択・切り替え処理の例について説明する。
本実施形態に係るデジタルカメラの構成は第1の実施形態と同一であり、主被写体の選択・切り替え制御処理の一部は第1の実施形態と同一である。以下の説明では、主に第1の実施形態と異なる部分について説明し、同一の構成要素や処理については同一の符号を付し、詳細な説明は省略する。
図14は、本実施形態に係るデジタルカメラ100の主被写体の選択・切り替え制御処理のフローチャートを示す図であり、図15は、本実施形態の主被写体の選択・切り替え制御処理を模式的に説明する図である。以下、図14、15を参照しながら、図14において実行される処理について説明する。
ユーザによる撮影が開始されると、CPU114は、主被写体の選択・切り替え制御処理を開始し、ステップS701とステップS704の2つの処理が平行して実行される。ステップS701~S708は、第1の実施形態と同様の処理である。
次に、ステップS1401では、CPU114は、ユーザが操作部115の十字キーなどの特定の操作により、AF制御対象とする主被写体の切り替えのための被写体を選択する操作を行ったか否かを判定する。ここで、被写体の選択操作とは、表示部113に表示された主被写体の被写体候補となる被写体を対象に、選択を切り替える操作である。本ステップでは、選択されている被写体を主被写体として決定する操作を行ったか否かは判定されず、この判定はステップS707で行われる。ユーザにより被写体の選択操作が行われたと判定された場合(S1401:YES)、処理はステップS1402に進む。また、ユーザにより被写体の選択操作が行われなかったと判定された場合(S1401:NO)、処理はステップS711に進む。
ステップS1402では、CPU114は、ユーザによる選択操作に応じて、注目度の高い被写体から順に、主被写体の切り替えの対象の被写体候補として選択し、ユーザに被写体の選択状態を通知するための表示を行う命令を表示制御部112に出力する。ユーザに対する通知の表示は、例えば図15Bの二重枠1401による表示であり、AF制御対象となっている主被写体801を示す太枠802や主被写体以外の被写体領域を示す破線枠806とは異なる表示である。また、図15Bは、ユーザにより被写体選択操作が1回行われたときの表示部113の表示状態を示し、主被写体801以外で最も注目度の高い被写体803が主被写体切り替えの対象として選択されていることを示している。ステッ
プS1402で主被写体の被写体候補としての被写体の選択状態が表示された後、処理はステップS711に進む。ステップS711、S712は、第1の実施形態と同様の処理である。
図15Dは、図15Bの状態からユーザにより被写体の選択操作がさらにもう1回行われた状態である。より具体的には、ステップS1402の処理が実行されて表示部113の表示状態が図15Bに示す状態となった後、処理がステップS711に進んで主被写体801に対してAF制御が実行される。そして、処理がステップS712からステップS701およびS704に戻った後、ステップS701~S706の処理が実行されてステップS707からステップS1401に進む。そして、ユーザにより被写体の選択操作がさらにもう1回行われたことで、処理はステップS1401からステップS1402に進む。ステップS1402では、表示部113の表示状態が、図15Dに示すように、主被写体801以外で被写体803の次に注目度が高い被写体805が主被写体切り替えの対象として選択された状態になる。なお、主被写体以外で現在選択表示されている被写体の次に注目度が高い被写体が存在しない場合は、主被写体以外の被写体のうち注目度が最も高い被写体が再度選択された状態となるように表示制御されてよい。図15A~図15Dの例では、図15Dに示すように被写体805が主被写体切り替えの対象として選択されている状態からユーザが被写体の選択操作をさらにもう1回行うと、表示部113の表示状態は図15Bに示す状態に戻ることとなる。
以上説明したように、主被写体の切り替え対象の被写体候補となる被写体が、被写体ごとの注目度に基づく表示順序で選択表示されることで、注目度が高い被写体ほど主被写体の切り替え対象として優先して選択される。すなわち、表示制御部120は、複数の被写体のうち切り替え対象となる被写体候補を、被写体候補ごとの注目度を区別可能に表示する。これにより、主被写体の切り替え操作がユーザのボタン操作による被写体選択と決定操作でなされる場合において、主被写体の選択・切り替え操作の応答性向上が可能となり、撮影機会の損失の低減をもたらすことができる。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
上述の実施形態では本発明をデジタルカメラに適用する例を説明したが、本発明を適用可能な電子機器は、デジタルカメラに限られない。例えば、本発明は、パーソナルコンピュータやスマートフォン、タブレット端末、ヘッドマウントディスプレイ、スマートグラスなどにも適用可能である。また、表示する画像は、撮像装置により撮像されたものに限られない。例えば、複数のアイテム(オブジェクト)を含む画面(画像、例えばメニュー画面やデスクトップ画面)からアイテムを選択する場合にも、本発明は適用可能である。
また、例えば、第1の実施形態において、視線検出方法としてユーザがファインダを覗くことを前提とした検出方法例を説明したが、ユーザが背面パネルの表示を見ている場合の視線を検出方法としてもよい。また、主被写体切り替えの対象として主被写体以外の被写体を想定し、主被写体の注目度をゼロとして扱う形で説明したが、この限りではない。主被写体も主被写体以外の被写体と同様に扱ってもよい。
また、第3の実施形態において、主被写体の選択・切り替え操作の対象を主被写体以外の被写体とする例について説明したが、主被写体も他の被写体と同様の処理対象とすることで、主被写体を再選択するように処理が実行されてもよい。これにより、いわゆる被写体のつかみ直しの制御が可能となる。
なお、上記の各実施形態(各変形例)の各機能部は、個別のハードウェアであってもよいし、そうでなくてもよい。2つ以上の機能部の機能が、共通のハードウェアによって実現されてもよい。1つの機能部の複数の機能のそれぞれが、個別のハードウェアによって実現されてもよい。1つの機能部の2つ以上の機能が、共通のハードウェアによって実現されてもよい。また、各機能部は、ASIC、FPGA、DSPなどのハードウェアによって実現されてもよいし、そうでなくてもよい。例えば、装置が、プロセッサと、制御プログラムが格納されたメモリ(記憶媒体)とを有していてもよい。そして、装置が有する少なくとも一部の機能部の機能が、プロセッサがメモリから制御プログラムを読み出して実行することにより実現されてもよい。
(その他の実施形態)
本発明は、上記の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本実施形態の開示は、以下の構成および方法を含む。
(構成1)撮像手段により撮像されて表示手段に表示された画像におけるユーザの視点を検出する検出手段と、
前記画像における複数の被写体を追尾する追尾手段と、
前記ユーザの視点を基に、前記複数の被写体それぞれに対する前記ユーザの注目度を判定する判定手段と、
前記複数の被写体のいずれかを主被写体として選択する選択手段と
を有し、
前記選択手段は、前記複数の被写体それぞれの注目度に基づいて前記主被写体を選択する
ことを特徴とする電子機器。
(構成2)前記判定手段は、前記追尾手段により追尾される前記被写体の領域内に前記検出手段により検出された前記ユーザの視点が含まれる度合いを注目度として判定することを特徴とする構成1に記載の電子機器。
(構成3)前記度合いは、前記検出手段により検出された前記ユーザの視点が前記被写体の領域内に存在する画像のサンプリング数もしくは表示フレーム数、または前記検出手段により検出された前記ユーザの視点が前記被写体の領域内に所定時間留まった回数であることを特徴とする構成2に記載の電子機器。
(構成4)前記選択手段は、前記複数の被写体のうち前記注目度がより高い被写体を優先して選択することを特徴とする構成1から3のいずれか一項に記載の電子機器。
(構成5)前記選択手段は、前記複数の被写体のうち前記主被写体として選択されている被写体を除く被写体それぞれの注目度に基づいて前記主被写体を選択することを特徴とする構成1から4のいずれか一項に記載の電子機器。
(構成6)前記判定手段は、前記追尾手段により追尾される被写体が前記画像内に存在しなくなった場合に前記追尾される被写体の注目度を初期値に戻すことを特徴とする構成1から5のいずれか一項に記載の電子機器。
(構成7)前記判定手段により判定された前記複数の被写体の注目度を、数値、図形、色の少なくとも1つを用いて前記表示手段に表示する表示制御手段をさらに有することを特徴とする構成1から6のいずれか一項に記載の電子機器。
(構成8)前記ユーザによる操作を受け付けるための操作手段をさらに有し、
主被写体の切り替えが、前記画像における前記ユーザの視点による位置指定と前記操作手段が受け付けた操作とで行われる場合に、前記選択手段は、前記被写体と前記ユーザの視点との距離と、前記注目度とに基づいて、主被写体となる被写体候補を決定することを特徴とする構成1から7のいずれか一項に記載の電子機器。
(構成9)前記選択手段は、前記被写体と前記ユーザの視点との距離が前記注目度に応じて決まる閾値距離以下となる被写体を、前記被写体候補として決定することを特徴とする構成8に記載の電子機器。
(構成10)前記操作手段によって主被写体が切り替え可能であることをユーザに通知する通知手段をさらに有することを特徴とする構成8または9に記載の電子機器。
(構成11)前記ユーザによる操作を受け付けるための操作手段をさらに有し、
主被写体の切り替えが、前記画像における前記ユーザの視点による位置指定と前記操作手段が受け付けた操作とで行われる場合に、前記選択手段は、前記被写体と前記ユーザの視点との距離と、前記注目度とに基づいて、前記画像における前記ユーザの視点の表示位置を決定することを特徴とする構成1から7のいずれか一項に記載の電子機器。
(構成12)前記選択手段は、前記被写体と前記ユーザの視点との距離が前記注目度に応じて決まる閾値距離以下となる被写体と重なる位置を、前記ユーザの視点の表示位置として決定することを特徴とする構成11に記載の電子機器。
(構成13)主被写体の切り替えが、前記ユーザの視点による位置指定と前記ユーザの視点の注視判定とで行われる場合に、前記選択手段は、前記被写体の前記注目度に基づいて、前記注視判定に用いられる注視時間を決定することを特徴とする構成1から7のいずれか一項に記載の電子機器。
(構成14)前記ユーザによる操作を受け付けるための操作手段と、
前記複数の被写体のうち切り替え対象となる被写体候補を区別可能に表示する表示制御手段をさらに有し、
主被写体の切り替えが、前記操作手段が受け付けた操作によって行われる場合に、前記表示制御手段は、切り替え対象となる被写体候補を、前記被写体候補ごとの前記注目度を区別可能に表示することを特徴とする構成1から7のいずれか一項に記載の電子機器。
(構成15)撮像手段により撮像されて表示手段に表示された画像における複数の被写体を選択可能に表示する表示制御手段と、
選択可能に表示された前記複数の被写体のいずれかを選択する選択手段と
を有し、
前記複数の被写体のうち、ユーザが第1の時間見た被写体よりも、前記ユーザが前記第1の時間よりも長い第2の時間見た被写体の方が前記選択手段によって選択されやすい
ことを特徴とする電子機器。
(構成16)
撮像手段により撮像された画像を表示手段に表示する表示制御手段と、
前記表示手段に表示された画像におけるユーザの視点を検出する検出手段と、
前記複数の被写体のいずれかを主被写体として選択する選択手段と、
前記ユーザによる操作を受け付けるための操作手段と、
を有し、
前記操作手段が受け付けた操作によって前記選択手段により選択される主被写体の切り替えが可能であり、
前記表示制御手段は、前記複数の被写体のうち、第1の被写体ではなく、該第1の被写体よりユーザが長い時間見た第2の被写体を、前記主被写体の切り替え候補として区別可能に表示することを特徴とする電子機器。
(構成17)表示手段に表示された画像におけるユーザの視点を検出する検出手段と、
前記ユーザの視点を基に、前記画像における複数のオブジェクトそれぞれに対する前記ユーザの注目度を判定する判定手段と、
前記複数のオブジェクトそれぞれの注目度に基づいてオブジェクトを選択する選択手段と、
を有することを特徴とする電子機器。
(方法1)撮像手段により撮像されて表示手段に表示された画像におけるユーザの視点を検出する検出ステップと、
前記画像における複数の被写体を追尾する追尾ステップと、
前記ユーザの視点を基に、前記複数の被写体それぞれに対する前記ユーザの注目度を判定する判定ステップと、
前記複数の被写体のいずれかを主被写体として選択する選択ステップと
を含み、
前記選択ステップは、前記複数の被写体それぞれの注目度に基づいて前記主被写体を選択する
ことを特徴とする電子機器の制御方法。
(プログラム1)コンピュータに方法1に記載の制御方法を実行させるためのプログラム。
100 デジタルカメラ、104 画像処理部、114 CPU、120 視線検出部、125 注目度算出部

Claims (19)

  1. 撮像手段により撮像されて表示手段に表示された画像におけるユーザの視点を検出する検出手段と、
    前記画像における複数の被写体を追尾する追尾手段と、
    前記ユーザの視点を基に、前記複数の被写体それぞれに対する前記ユーザの注目度を判定する判定手段と、
    前記複数の被写体のいずれかを主被写体として選択する選択手段と
    を有し、
    前記選択手段は、前記複数の被写体それぞれの注目度に基づいて前記主被写体を選択する
    ことを特徴とする電子機器。
  2. 前記判定手段は、前記追尾手段により追尾される前記被写体の領域内に前記検出手段により検出された前記ユーザの視点が含まれる度合いを注目度として判定することを特徴とする請求項1に記載の電子機器。
  3. 前記度合いは、前記検出手段により検出された前記ユーザの視点が前記被写体の領域内に存在する画像のサンプリング数もしくは表示フレーム数、または前記検出手段により検出された前記ユーザの視点が前記被写体の領域内に所定時間留まった回数であることを特徴とする請求項2に記載の電子機器。
  4. 前記選択手段は、前記複数の被写体のうち前記注目度がより高い被写体を優先して選択することを特徴とする請求項1または2に記載の電子機器。
  5. 前記選択手段は、前記複数の被写体のうち前記主被写体として選択されている被写体を除く被写体それぞれの注目度に基づいて前記主被写体を選択することを特徴とする請求項1または2に記載の電子機器。
  6. 前記判定手段は、前記追尾手段により追尾される被写体が前記画像内に存在しなくなった場合に前記追尾される被写体の注目度を初期値に戻すことを特徴とする請求項1または2に記載の電子機器。
  7. 前記判定手段により判定された前記複数の被写体の注目度を、数値、図形、色の少なくとも1つを用いて前記表示手段に表示する表示制御手段をさらに有することを特徴とする請求項1または2に記載の電子機器。
  8. 前記ユーザによる操作を受け付けるための操作手段をさらに有し、
    主被写体の切り替えが、前記画像における前記ユーザの視点による位置指定と前記操作手段が受け付けた操作とで行われる場合に、前記選択手段は、前記被写体と前記ユーザの視点との距離と、前記注目度とに基づいて、主被写体となる被写体候補を決定することを特徴とする請求項1または2に記載の電子機器。
  9. 前記選択手段は、前記被写体と前記ユーザの視点との距離が前記注目度に応じて決まる閾値距離以下となる被写体を、前記被写体候補として決定することを特徴とする請求項8に記載の電子機器。
  10. 前記操作手段によって主被写体が切り替え可能であることをユーザに通知する通知手段をさらに有することを特徴とする請求項8に記載の電子機器。
  11. 前記ユーザによる操作を受け付けるための操作手段をさらに有し、
    主被写体の切り替えが、前記画像における前記ユーザの視点による位置指定と前記操作手段が受け付けた操作とで行われる場合に、前記選択手段は、前記被写体と前記ユーザの視点との距離と、前記注目度とに基づいて、前記画像における前記ユーザの視点の表示位置を決定することを特徴とする請求項1または2に記載の電子機器。
  12. 前記選択手段は、前記被写体と前記ユーザの視点との距離が前記注目度に応じて決まる閾値距離以下となる被写体と重なる位置を、前記ユーザの視点の表示位置として決定することを特徴とする請求項11に記載の電子機器。
  13. 主被写体の切り替えが、前記ユーザの視点による位置指定と前記ユーザの視点の注視判定とで行われる場合に、前記選択手段は、前記被写体の前記注目度に基づいて、前記注視判定に用いられる注視時間を決定することを特徴とする請求項1または2に記載の電子機器。
  14. 前記ユーザによる操作を受け付けるための操作手段と、
    前記複数の被写体のうち切り替え対象となる被写体候補を区別可能に表示する表示制御手段をさらに有し、
    主被写体の切り替えが、前記操作手段が受け付けた操作によって行われる場合に、前記表示制御手段は、切り替え対象となる被写体候補を、前記被写体候補ごとの前記注目度を区別可能に表示することを特徴とする請求項1または2に記載の電子機器。
  15. 撮像手段により撮像されて表示手段に表示された画像における複数の被写体を選択可能に表示する表示制御手段と、
    選択可能に表示された前記複数の被写体のいずれかを選択する選択手段と
    を有し、
    前記複数の被写体のうち、ユーザが第1の時間見た被写体よりも、前記ユーザが前記第1の時間よりも長い第2の時間見た被写体の方が前記選択手段によって選択されやすい
    ことを特徴とする電子機器。
  16. 撮像手段により撮像された画像を表示手段に表示する表示制御手段と、
    前記表示手段に表示された画像におけるユーザの視点を検出する検出手段と、
    前記複数の被写体のいずれかを主被写体として選択する選択手段と、
    前記ユーザによる操作を受け付けるための操作手段と、
    を有し、
    前記操作手段が受け付けた操作によって前記選択手段により選択される主被写体の切り替えが可能であり、
    前記表示制御手段は、前記複数の被写体のうち、第1の被写体ではなく、該第1の被写体よりユーザが長い時間見た第2の被写体を、前記主被写体の切り替え候補として区別可能に表示する
    ことを特徴とする電子機器。
  17. 表示手段に表示された画像におけるユーザの視点を検出する検出手段と、
    前記ユーザの視点を基に、前記画像における複数のオブジェクトそれぞれに対する前記ユーザの注目度を判定する判定手段と、
    前記複数のオブジェクトそれぞれの注目度に基づいてオブジェクトを選択する選択手段と、
    を有することを特徴とする電子機器。
  18. 撮像手段により撮像されて表示手段に表示された画像におけるユーザの視点を検出する
    検出ステップと、
    前記画像における複数の被写体を追尾する追尾ステップと、
    前記ユーザの視点を基に、前記複数の被写体それぞれに対する前記ユーザの注目度を判定する判定ステップと、
    前記複数の被写体のいずれかを主被写体として選択する選択ステップと
    を含み、
    前記選択ステップは、前記複数の被写体それぞれの注目度に基づいて前記主被写体を選択する
    ことを特徴とする電子機器の制御方法。
  19. コンピュータに請求項18に記載の制御方法を実行させるためのプログラム。
JP2022066950A 2022-04-14 2022-04-14 電子機器、制御方法およびプログラム Pending JP2023157200A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022066950A JP2023157200A (ja) 2022-04-14 2022-04-14 電子機器、制御方法およびプログラム
US18/297,665 US20230336862A1 (en) 2022-04-14 2023-04-10 Electronic device, control method, and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022066950A JP2023157200A (ja) 2022-04-14 2022-04-14 電子機器、制御方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2023157200A true JP2023157200A (ja) 2023-10-26

Family

ID=88307416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022066950A Pending JP2023157200A (ja) 2022-04-14 2022-04-14 電子機器、制御方法およびプログラム

Country Status (2)

Country Link
US (1) US20230336862A1 (ja)
JP (1) JP2023157200A (ja)

Also Published As

Publication number Publication date
US20230336862A1 (en) 2023-10-19

Similar Documents

Publication Publication Date Title
JP5171468B2 (ja) 撮像装置及び撮像装置の制御方法
JP6302215B2 (ja) 撮像装置
US11509816B2 (en) Image processing apparatus, image pickup apparatus, and control method of image processing apparatus
US11662809B2 (en) Image pickup apparatus configured to use line of sight for imaging control and control method thereof
JP2024003037A (ja) 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
JP7433788B2 (ja) 制御装置、撮像装置、制御方法、プログラム
JP5328528B2 (ja) 撮像装置、撮像装置の制御方法、及びコンピュータプログラム
JP2021032927A (ja) 撮像装置およびその制御方法
JP2023157200A (ja) 電子機器、制御方法およびプログラム
JP2022129747A (ja) 電子装置およびその制御方法
JP2021125867A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、およびプログラム
JP7122916B2 (ja) 撮像装置およびその制御方法、プログラムならびに記憶媒体
US11553128B2 (en) Image pickup control device, image pickup device, control method for image pickup device, non-transitory computer-readable storage medium
JP7098419B2 (ja) 撮像装置及びその制御方法、プログラム
JP5094561B2 (ja) カメラ
JP7358130B2 (ja) 電子機器およびその制御方法
JP3180458B2 (ja) 視線検出手段を有するカメラ
US20230092593A1 (en) Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor
US20230281859A1 (en) Image processing apparatus, control method thereof, image capturing apparatus, and storage medium
WO2021210225A1 (ja) 電子機器
JP2024003432A (ja) 電子機器
JP2022171177A (ja) 画像処理装置、撮像装置及びその制御方法とプログラム
JP2023178092A (ja) 情報処理装置、撮像装置、情報処理方法および撮像装置の制御方法
JP2023063023A (ja) 電子機器及び電子機器の制御方法
JP2022165239A (ja) 撮像装置及びその制御方法、並びにプログラム