JP2023083695A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2023083695A
JP2023083695A JP2021197533A JP2021197533A JP2023083695A JP 2023083695 A JP2023083695 A JP 2023083695A JP 2021197533 A JP2021197533 A JP 2021197533A JP 2021197533 A JP2021197533 A JP 2021197533A JP 2023083695 A JP2023083695 A JP 2023083695A
Authority
JP
Japan
Prior art keywords
subject
information
electronic device
user
specific operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021197533A
Other languages
Japanese (ja)
Inventor
巧 竹原
Takumi Takehara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021197533A priority Critical patent/JP2023083695A/en
Publication of JP2023083695A publication Critical patent/JP2023083695A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

To provide a technique to prevent an object not intended by a user from being selected as a target to allow selection of a target according to the intention of the user.SOLUTION: An electronic apparatus of the present invention has: first detection means that detects a line-of-sight position that is a position a user sees; second detection means that detects an object and acquires object information that is information related to the object; receiving means that can receive a specific operation from the user; selection means that, in response to the specific operation, selects the object the user sees as a target based on the line-of-sight position detected by the first detection means; and recording means that, in response to the specific operation, records object information on the target selected by the selection means in a storage unit. When the specific operation is not performed, the selection means selects the target based on the object information stored by the storage unit.SELECTED DRAWING: Figure 8

Description

本発明は、撮像装置などの電子機器に関し、特に1つ以上の物体から対象物を選択する技術に関する。 The present invention relates to an electronic device such as an imaging device, and more particularly to technology for selecting an object from one or more objects.

被写体を検出し、当該被写体の種別(例えば、人物、動物、乗り物など)を識別することのできる撮像装置(カメラ)が提案されている。また、そのようなカメラとして、検出した被写体の中から、焦点調節や露出調節などの対象である主被写体を選択するカメラが提案されている。 Imaging devices (cameras) have been proposed that can detect a subject and identify the type of the subject (eg, person, animal, vehicle, etc.). Also, as such a camera, a camera has been proposed that selects a main subject, which is the target of focus adjustment or exposure adjustment, from among the detected subjects.

撮像画像(撮像された画像)に複数の被写体が写っている場合には、一般的に、撮像画像の中央に近い被写体や、撮像サイズ(撮像画像上でのサイズ)の大きい被写体が、主被写体として選択される。 When multiple subjects are captured in a captured image (captured image), the subject near the center of the captured image or a subject with a large captured size (size on the captured image) is generally the main subject. is selected as

しかしながら、ユーザー(撮影者)が撮像画像の中央に近い被写体や、撮像サイズの大きい被写体を主被写体として選択したいとは限らない。例えば、ユーザーが人物などの主被写体を撮像画像の端に配置して撮影を行いたい場合がある。そのような場合に、撮像画像の中央に電車などの大きな被写体が写っていると、ユーザーの意図に反して、当該大きな被写体が主被写体として選択されてしまう。ユーザーが主被写体を手動で選択することも可能であるが、手間がかかってしまう。 However, the user (photographer) does not necessarily want to select a subject near the center of the captured image or a subject with a large captured size as the main subject. For example, there are cases where the user wants to place a main subject such as a person at the edge of the captured image and take a picture. In such a case, if a large subject such as a train appears in the center of the captured image, the large subject will be selected as the main subject against the user's intention. Although it is possible for the user to manually select the main subject, it takes time and effort.

撮像画像におけるユーザーの視点(ユーザーが見ている位置)を推定し、さらにユーザーによる視点確定操作に応答して、視点近傍の被写体を主被写体として選択することのできるカメラも提案されている。このようなカメラにおいても、撮像画像の端に配置された被写体や小さい被写体などを主被写体として選択するためには、撮影シーンが変わるたびに注視点確定操作を行う手間がかかってしまう。 A camera has also been proposed that can estimate a user's viewpoint (the position the user is looking at) in a captured image, and can select an object near the viewpoint as the main object in response to the user's viewpoint confirmation operation. Even with such a camera, in order to select a subject arranged at the edge of the captured image or a small subject as the main subject, it takes time and effort to perform a point-of-regard fixing operation every time the shooting scene changes.

特許文献1には、ユーザーが過去に撮影した被写体の情報を記憶し、当該情報に基づいて主被写体を選択する技術が開示されている。 Japanese Patent Application Laid-Open No. 2002-200002 discloses a technique for storing information about subjects photographed in the past by a user and selecting a main subject based on the information.

特開2021-32927号公報JP 2021-32927 A

しかしながら、特許文献1に開示された技術では、撮像画像に複数の被写体が写っている場合に、主被写体の情報だけでなく、主被写体でない被写体の情報も記憶されてしまう。主被写体の情報のみが記憶されるとしても、主被写体が誤って決定されると、ユーザーの意図せぬ被写体の情報が記憶されてしまう。その結果、過去に撮影された被写体の情報に基づいて、ユーザーの意図せぬ被写体が主被写体として選択されてしまう虞がある。1つ以上の被写体から主被写体を選択する場合に限られず、1つ以上の物体から対象物を選択する様々な場合において、このような課題が発生する。 However, with the technique disclosed in Patent Document 1, when a plurality of subjects appear in a captured image, not only information about the main subject but also information about subjects other than the main subject are stored. Even if only the information of the main subject is stored, if the main subject is erroneously determined, the information of the subject unintended by the user will be stored. As a result, there is a risk that a subject not intended by the user will be selected as the main subject based on information about previously photographed subjects. Such a problem arises not only in the case of selecting a main subject from one or more subjects, but also in various cases of selecting a target object from one or more objects.

本発明は、ユーザーの意図せぬ物体が対象物として選択されるのを抑制して、ユーザーの意図に合った対象物を選択することを可能にする技術を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a technology that prevents an object not intended by the user from being selected as an object and allows the user to select an object that matches his/her intention.

本発明の電子機器は、ユーザーが見ている位置である視線位置を検出する第1検出手段と、物体を検出して、当該物体に関連した情報である物体情報を取得する第2検出手段と、前記ユーザーから特定の操作を受け付け可能な受付手段と、前記特定の操作に応答して、前記第1検出手段により検出された前記視線位置に基づいて、前記ユーザーが見ている物体を、対象物として選択する選択手段と、前記特定の操作に応答して、前記選択手段により選択された前記対象物の物体情報を記憶部に記録する記録手段とを有し、前記選択手段は、前記特定の操作が行われていない場合に、前記記憶部が記憶している前記物体情報に基づいて、前記対象物を選択することを特徴とする。 The electronic device of the present invention comprises first detection means for detecting a line-of-sight position, which is the position at which the user is looking, and second detection means for detecting an object and acquiring object information, which is information related to the object. a receiving means capable of receiving a specific operation from the user; and an object viewed by the user based on the line-of-sight position detected by the first detecting means in response to the specific operation. selecting means for selecting an object as an object; and recording means for recording object information of the object selected by the selecting means in a storage unit in response to the specific operation, wherein the selecting means is not performed, the object is selected based on the object information stored in the storage unit.

本発明によれば、ユーザーの意図せぬ物体が対象物に選択されるのを抑制して、ユーザーの意図に合った対象物を選択することが可能となる。 Advantageous Effects of Invention According to the present invention, it is possible to suppress selection of an object unintended by the user as an object and select an object that meets the user's intention.

カメラの外観の一例を示す図である。It is a figure which shows an example of the external appearance of a camera. カメラの内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of a camera. カメラ内の電気的構成の一例を示すブロック図である。3 is a block diagram showing an example of an electrical configuration within the camera; FIG. ファインダー内視野の一例を示す図である。It is a figure which shows an example of the visual field in a finder. 視線検出を行うための光学系の一例を示す図である。It is a figure which shows an example of the optical system for performing line-of-sight detection. 眼画像とその輝度情報との一例を示す図である。FIG. 4 is a diagram showing an example of an eye image and its luminance information; 視線検出動作の一例を示すフローチャートである。5 is a flowchart showing an example of line-of-sight detection operation; 主被写体選択動作の一例を示すフローチャートである。6 is a flowchart showing an example of main subject selection operation; 種別情報に基づく優先度決定動作の一例を示すフローチャートである。7 is a flowchart showing an example of priority determination operation based on type information; 識別情報に基づく優先度決定動作の一例を示すフローチャートである。7 is a flowchart showing an example of priority determination operation based on identification information; メモリ部が記憶している被写体情報の一例を示す図である。4 is a diagram showing an example of subject information stored in a memory unit; FIG. カメラの動作の具体例を説明するための図である。FIG. 5 is a diagram for explaining a specific example of camera operation; 他の電子機器の外観図である。FIG. 10 is an external view of another electronic device;

以下、添付の図面を参照して本発明の実施形態について説明する。 Embodiments of the present invention will be described below with reference to the accompanying drawings.

<構成の例>
図1(A),1(B)は、本実施形態に係るカメラ1(デジタルスチルカメラ;レンズ交換式カメラ)の外観の一例を示す。図1(A)は正面斜視図であり、図1(B)は背面斜視図である。図1(A)に示すように、カメラ1は、撮影レンズユニット1A及びカメラ筐体1Bを有する。カメラ筐体1Bには、ユーザー(撮影者)からの撮影操作を受け付け可能な操作部材(操作受付部)であるレリーズボタン5が配置されている。図1(B)に示すように、カメラ筐体1Bの背面には、カメラ筐体1B内に含まれている後述の表示デバイス10(表示パネル)を見るためにユーザーが覗き込む接眼レンズ12(接眼光学系)が配置されている。なお、接眼光学系には複数枚のレンズが含まれていてもよい。カメラ筐体1Bの背面には、ユーザーからの各種操作を受け付け可能な操作部材41~43も配置されている。例えば、操作部材41はタッチ操作を受け付け可能なタッチパネルであり、操作部材42は各方向に押し倒し可能な操作レバーであり、操作部材43は4方向のそれぞれに押し込み可能な4方向キーである。操作部材41(タッチパネル)は、液晶パネルなどの表示パネルを備えており、表示パネルで画像を表示する機能を有する。
<Configuration example>
1A and 1B show an example of the appearance of a camera 1 (digital still camera; interchangeable lens camera) according to this embodiment. FIG. 1(A) is a front perspective view, and FIG. 1(B) is a back perspective view. As shown in FIG. 1A, the camera 1 has a photographing lens unit 1A and a camera housing 1B. The camera housing 1B is provided with a release button 5, which is an operation member (operation receiving section) capable of receiving a photographing operation from a user (photographer). As shown in FIG. 1B, an eyepiece lens 12 ( eyepiece optical system) is arranged. Note that the eyepiece optical system may include a plurality of lenses. Operation members 41 to 43 capable of receiving various operations from the user are also arranged on the rear surface of the camera housing 1B. For example, the operation member 41 is a touch panel capable of receiving touch operations, the operation member 42 is an operation lever that can be pushed down in each direction, and the operation member 43 is a four-way key that can be pushed in each of four directions. The operation member 41 (touch panel) includes a display panel such as a liquid crystal panel, and has a function of displaying an image on the display panel.

図2は、図1(A)に示したY軸とZ軸が成すYZ平面でカメラ1を切断した断面図であり、カメラ1の内部構成の一例を示す。 FIG. 2 is a cross-sectional view of the camera 1 cut along the YZ plane formed by the Y-axis and Z-axis shown in FIG.

撮影レンズユニット1A内には、2枚のレンズ101,102、絞り111、絞り駆動部112、レンズ駆動モーター113、レンズ駆動部材114、フォトカプラー115、パルス板116、マウント接点117、焦点調節回路118などが含まれている。レンズ駆動部材114は駆動ギヤなどからなり、フォトカプラー115は、レンズ駆動部材114に連動するパルス板116の回転を検知して、焦点調節回路118に伝える。焦点調節回路118は、フォトカプラー115からの情報と、カメラ筐体1Bからの情報(レンズ駆動量の情報)とに基づいてレンズ駆動モーター113を駆動し、レンズ101を移動させて合焦位置を変更する。マウント接点117は、撮影レンズユニット1Aとカメラ筐体1Bとのインターフェイスである。なお、簡単のために2枚のレンズ101,102を示したが、実際は2枚より多くのレンズが撮影レンズユニット1A内に含まれている。 Two lenses 101 and 102, a diaphragm 111, a diaphragm driving section 112, a lens driving motor 113, a lens driving member 114, a photocoupler 115, a pulse plate 116, a mount contact 117, and a focus adjustment circuit 118 are provided in the photographing lens unit 1A. etc. are included. The lens driving member 114 is composed of a driving gear or the like, and the photocoupler 115 detects the rotation of the pulse plate 116 interlocked with the lens driving member 114 and transmits it to the focus adjustment circuit 118 . The focus adjustment circuit 118 drives the lens drive motor 113 based on the information from the photocoupler 115 and the information (lens drive amount information) from the camera housing 1B, and moves the lens 101 to adjust the focus position. change. A mount contact 117 is an interface between the photographing lens unit 1A and the camera housing 1B. Although two lenses 101 and 102 are shown for simplicity, more than two lenses are actually included in the photographing lens unit 1A.

カメラ筐体1B内には、撮像素子2、CPU3、メモリ部4、表示デバイス10、表示デバイス駆動回路11などが含まれている。撮像素子2は、撮影レンズユニット1Aの予定結像面に配置されている。CPU3は、マイクロコンピュータの中央処理部であり、カメラ1全体を制御する。メモリ部4は、撮像素子2により撮像された画像などを記憶する。表示デバイス10は、液晶などで構成されており、撮像された画像(被写体像)などを表示デバイス10の表示面に表示する。表示デバイス駆動回路11は、表示デバイス10を駆動する。ユーザーは、接眼レンズ12を通して、表示デバイス10の表示面に表示された画像(撮像素子2により撮像された画像など)を見ることができる。 The camera housing 1B includes an imaging element 2, a CPU 3, a memory section 4, a display device 10, a display device driving circuit 11, and the like. The imaging element 2 is arranged on the intended imaging plane of the photographing lens unit 1A. A CPU 3 is a central processing unit of a microcomputer and controls the camera 1 as a whole. The memory unit 4 stores images captured by the imaging element 2 and the like. The display device 10 is composed of liquid crystal or the like, and displays a captured image (object image) or the like on the display surface of the display device 10 . A display device drive circuit 11 drives the display device 10 . A user can view an image (such as an image captured by the imaging device 2 ) displayed on the display surface of the display device 10 through the eyepiece 12 .

カメラ筐体1B内には、光源13a,13b、光分割器15、受光レンズ16、眼用撮像素子17なども含まれている。光源13a,13bは、ユーザーの眼球14を照明するための光源である。光源13a,13bは、光の角膜反射による反射像(角膜反射像;プルキニエ像)と瞳孔の関係から視線方向(視線の方向;ユーザーが見ている方向)を検出するために従来から一眼レフカメラなどで用いられている。具体的には、光源13a,13bは、ユーザーに対して不感の赤外光を発する赤外発光ダイオードなどであり、接眼レンズ12の周りに配置されている。照明された眼球14の光学像(眼球像;光源13a,13bから発せられて眼球14で反射した反射光による像)は、接眼レンズ12を透過し、光分割器15で反射される。そして、眼球像は、受光レンズ16によって、CCDやCMOSなどの光電素子列を2次元的に配した眼用撮像素子17上に結像される。受光レンズ16は、眼球14の瞳孔と眼用撮像素子17を共役な結像関係に位置付けている。後述する所定のアルゴリズムにより、眼用撮像素子17上に結像された眼球像における瞳孔と角膜反射像の位置関係から、眼球14の視線方向が検出される。 The camera housing 1B also includes light sources 13a and 13b, a light splitter 15, a light receiving lens 16, an eye imaging element 17, and the like. The light sources 13a and 13b are light sources for illuminating the eyeball 14 of the user. The light sources 13a and 13b have conventionally been used in single-lens reflex cameras in order to detect the line-of-sight direction (line-of-sight direction; the direction in which the user is looking) from the relationship between the reflected image (corneal reflection image; Purkinje image) due to the corneal reflection of light and the pupil. etc. Specifically, the light sources 13 a and 13 b are infrared light emitting diodes or the like that emit infrared light that is insensitive to the user, and are arranged around the eyepiece lens 12 . An optical image of the illuminated eyeball 14 (eyeball image; an image formed by reflected light emitted from the light sources 13 a and 13 b and reflected by the eyeball 14 ) passes through the eyepiece 12 and is reflected by the light splitter 15 . Then, the eyeball image is formed by the light receiving lens 16 on the eye imaging device 17 which is a two-dimensional array of photoelectric elements such as CCD and CMOS. The light-receiving lens 16 positions the pupil of the eyeball 14 and the eye imaging device 17 in a conjugate imaging relationship. The line-of-sight direction of the eyeball 14 is detected from the positional relationship between the pupil and the corneal reflection image in the eyeball image formed on the eye imaging device 17 by a predetermined algorithm, which will be described later.

図3は、カメラ1内の電気的構成の一例を示すブロック図である。CPU3には、視線検出回路201、画像処理回路202、自動焦点検出回路203、信号入力回路204、表示デバイス駆動回路11、光源駆動回路205などが接続されている。また、CPU3は、撮影レンズユニット1A内に配置された焦点調節回路118と、撮影レンズユニット1A内の絞り駆動部112に含まれた絞り制御回路206とに、マウント接点117を介して信号を伝達する。CPU3に付随したメモリ部4は、撮像素子2および眼用撮像素子17からの撮像信号の記憶機能と、後述する視線の個人差を補正する視線補正パラメータの記憶機能とを有する。 FIG. 3 is a block diagram showing an example of an electrical configuration within the camera 1. As shown in FIG. A line-of-sight detection circuit 201, an image processing circuit 202, an automatic focus detection circuit 203, a signal input circuit 204, a display device drive circuit 11, a light source drive circuit 205, and the like are connected to the CPU 3. FIG. The CPU 3 also transmits a signal to the focus adjustment circuit 118 arranged in the photographing lens unit 1A and the diaphragm control circuit 206 included in the diaphragm driving section 112 in the photographing lens unit 1A through the mount contact 117. do. A memory unit 4 attached to the CPU 3 has a function of storing image signals from the image sensor 2 and the image sensor 17 for eyes, and a function of storing sight line correction parameters for correcting individual differences in sight lines, which will be described later.

視線検出回路201は、眼用撮像素子17上に眼球像が結像した状態での眼用撮像素子17の出力(眼を撮像した眼画像)をA/D変換し、その結果をCPU3に送信する。CPU3は、後述する所定のアルゴリズムに従って眼画像から視線検出に必要な特徴点を抽出し、特徴点の位置から、表示デバイス10の表示面におけるユーザーの視点(視線位置;視線が注がれている位置;ユーザーが見ている位置)を算出する。 The line-of-sight detection circuit 201 A/D-converts the output of the eye image sensor 17 in the state where the eyeball image is formed on the eye image sensor 17 (the eye image obtained by capturing the eye), and transmits the result to the CPU 3 . do. The CPU 3 extracts feature points necessary for line-of-sight detection from the eye image according to a predetermined algorithm, which will be described later. position; where the user is looking) is calculated.

画像処理回路202は、撮像素子2により撮像された画像に基づく各種処理を行う。例
えば、画像処理回路202は、測光センサの役割を兼ねた撮像素子2から得られる信号、具体的には被写界の明るさに対応した輝度信号の増幅、対数圧縮、A/D変換などを行い、その結果である被写界輝度情報をCPU3に送る。被写界輝度情報は、撮像された画像の各画素の輝度を示す情報である。また、画像処理回路202は、撮像素子2により撮像された画像から特定の被写体(特定の物体)を検出し、その結果である被写体情報と被写体領域情報をCPU3に送る。被写体情報(物体情報)は、検出された被写体に関連した情報であり、被写体領域情報(物体領域情報)は、検出された被写体の領域を示す情報である。被写体情報や被写体領域情報は、被写界輝度情報を解析して得ることもできる。
The image processing circuit 202 performs various processing based on the image captured by the image sensor 2 . For example, the image processing circuit 202 performs amplification, logarithmic compression, A/D conversion, etc. of a signal obtained from the image sensor 2 that also serves as a photometric sensor, specifically, a luminance signal corresponding to the brightness of the object scene. Then, the resulting object field luminance information is sent to the CPU 3. The field brightness information is information indicating the brightness of each pixel of the captured image. Also, the image processing circuit 202 detects a specific subject (specific object) from the image captured by the image sensor 2 and sends the resulting subject information and subject area information to the CPU 3 . Subject information (object information) is information related to the detected subject, and subject area information (object area information) is information indicating the area of the detected subject. Subject information and subject area information can also be obtained by analyzing subject field luminance information.

自動焦点検出回路203は、撮像素子2の中に含まれる、位相差検出のために使用される複数の検出素子(複数の画素)からの信号電圧をA/D変換し、CPU3に送る。CPU3は、複数の検出素子の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。本実施形態では、一例として、図4のファインダー内視野(ファインダーを覗いたときの視野)、具体的には表示デバイス10の表示面に示した180か所に対応する撮像面上の180か所のそれぞれに、焦点検出ポイントがあるとする。 The autofocus detection circuit 203 A/D-converts signal voltages from a plurality of detection elements (plurality of pixels) included in the image sensor 2 and used for phase difference detection, and sends them to the CPU 3 . The CPU 3 calculates the distance to the object corresponding to each focus detection point from the signals of the plurality of detection elements. This is a well-known technique known as imaging plane phase difference AF. In this embodiment, as an example, the field of view in the finder in FIG. , each has a focus detection point.

信号入力回路204には、スイッチSW1とスイッチSW2とが接続されている。スイッチSW1は、レリーズボタン5の第1ストローク(半押し)でONし、カメラ1の測光や焦点検出(測距)などを開始するためのスイッチである。スイッチSW2は、レリーズボタン5の第2ストローク(全押し)でONし、撮影動作を開始するためのスイッチである。スイッチSW1,SW2からのON信号が信号入力回路204に入力され、CPU3に送信される。測光や焦点検出は、設定された測光領域や焦点検出領域内、または選択(決定)された主被写体の領域内で行われる。例えば、測光では、画像処理回路202により、対象の領域の輝度が被写界輝度情報から判断され、焦点検出では、自動焦点検出回路203により、対象の領域に存在する被写体までの距離が判断される。 A switch SW1 and a switch SW2 are connected to the signal input circuit 204 . The switch SW1 is turned on by the first stroke (half-press) of the release button 5 to start photometry and focus detection (distance measurement) of the camera 1 and the like. The switch SW2 is turned on by the second stroke (full depression) of the release button 5 to start the photographing operation. ON signals from the switches SW1 and SW2 are input to the signal input circuit 204 and transmitted to the CPU3. Photometry and focus detection are performed within a set photometry area or focus detection area, or within a selected (determined) main subject area. For example, in photometry, the image processing circuit 202 determines the brightness of the target area from field brightness information, and in focus detection, the automatic focus detection circuit 203 determines the distance to the subject existing in the target area. be.

光源駆動回路205は、光源13a,13bを駆動する。 A light source drive circuit 205 drives the light sources 13a and 13b.

図4は、ファインダー内視野の一例を示す図であり、表示デバイス10が動作した状態(画像を表示した状態)を示す。図4に示すように、ファインダー内視野には、焦点検出領域400、180個の測距点指標401、視野マスク402などがある。180個の測距点指標401のそれぞれは、撮像面上における焦点検出ポイントに対応する位置に表示されるように、表示デバイス10に表示されたスルー画像(ライブビュー画像)に重ねて表示される。また、180個の測距点指標401のうち、現在の視点A(推定位置)に対応する測距点指標401は、枠などで強調されて表示される。 FIG. 4 is a diagram showing an example of a viewfinder viewfinder, showing a state in which the display device 10 operates (a state in which an image is displayed). As shown in FIG. 4, the finder field includes a focus detection area 400, 180 distance measuring point indices 401, a field mask 402, and the like. Each of the 180 ranging point indices 401 is superimposed on the through image (live view image) displayed on the display device 10 so as to be displayed at a position corresponding to the focus detection point on the imaging plane. . Further, among the 180 ranging point indicators 401, the ranging point indicator 401 corresponding to the current viewpoint A (estimated position) is highlighted with a frame or the like and displayed.

<視線検出動作の例>
図5,6(A),6(B),7を用いて、視線検出方法について説明する。図5は、視線検出方法の原理を説明するための図であり、視線検出を行うための光学系の一例を示す図である。図5に示すように、光源13a,13bは受光レンズ16の光軸に対して略対称に配置され、ユーザーの眼球14を照らす。光源13a,13bから発せられて眼球14で反射した光の一部は、受光レンズ16によって、眼用撮像素子17に集光する。図6(A)は、眼用撮像素子17で撮像された眼画像(眼用撮像素子17に投影された眼球像)の一例を示す図であり、図6(B)は眼用撮像素子17の出力強度の一例を示す図である。図7は、視線検出動作の一例を示すフローチャートである。
<Example of gaze detection operation>
A line-of-sight detection method will be described with reference to FIGS. FIG. 5 is a diagram for explaining the principle of the line-of-sight detection method, and is a diagram showing an example of an optical system for performing line-of-sight detection. As shown in FIG. 5, the light sources 13a and 13b are arranged substantially symmetrically with respect to the optical axis of the light receiving lens 16, and illuminate the eyeball 14 of the user. Part of the light emitted from the light sources 13 a and 13 b and reflected by the eyeball 14 is collected by the light receiving lens 16 onto the eye imaging device 17 . FIG. 6A is a diagram showing an example of an eye image captured by the eye imaging device 17 (an eyeball image projected on the eye imaging device 17), and FIG. is a diagram showing an example of the output intensity of . FIG. 7 is a flow chart showing an example of the line-of-sight detection operation.

視線検出動作は、例えば、カメラ1の起動とともに開始し、繰り返される。視線検出動作が開始すると、図7のステップS701で、光源13a,13bは、ユーザーの眼球14に向けて赤外光を発する。赤外光によって照明されたユーザーの眼球像は、受光レンズ
16を通して眼用撮像素子17上に結像され、眼用撮像素子17により光電変換される。これにより、処理可能な眼画像の電気信号が得られる。
The line-of-sight detection operation is started, for example, when the camera 1 is activated, and is repeated. When the line-of-sight detection operation starts, the light sources 13a and 13b emit infrared light toward the user's eyeball 14 in step S701 of FIG. The user's eyeball image illuminated by the infrared light is imaged on the eye imaging device 17 through the light receiving lens 16 and photoelectrically converted by the eye imaging device 17 . This provides an electrical signal of the eye image that can be processed.

ステップS702では、視線検出回路201は、眼用撮像素子17から得られた眼画像(眼画像信号;眼画像の電気信号)をCPU3に送る。 In step S<b>702 , the line-of-sight detection circuit 201 sends the eye image (eye image signal; electric signal of the eye image) obtained from the eye imaging device 17 to the CPU 3 .

ステップS703では、CPU3は、ステップS702で得られた眼画像から、光源13a,13bの角膜反射像Pd,Peと瞳孔中心cに対応する点の座標を検出する。 In step S703, the CPU 3 detects coordinates of points corresponding to the corneal reflection images Pd and Pe of the light sources 13a and 13b and the pupil center c from the eye image obtained in step S702.

光源13a,13bより発せられた赤外光は、ユーザーの眼球14の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは、受光レンズ16により集光され、眼用撮像素子17上に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔141の端部a,bからの光束も眼用撮像素子17上に結像して、眼画像における瞳孔端像a’,b’となる。 Infrared light emitted from the light sources 13a and 13b illuminates the cornea 142 of the eyeball 14 of the user. At this time, the corneal reflection images Pd and Pe formed by a part of the infrared light reflected on the surface of the cornea 142 are condensed by the light receiving lens 16 and formed on the eye imaging element 17 to form an eye image. are corneal reflection images Pd' and Pe' at . Similarly, the light beams from the ends a and b of the pupil 141 are also imaged on the eye imaging device 17 to form pupil end images a' and b' in the eye image.

図6(B)は、図6(A)の眼画像における領域αの輝度情報(輝度分布)を示す。図6(B)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。本実施形態では、角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。図6(B)に示すように、角膜反射像Pd’,Pe’のX座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光束が眼用撮像素子17上に結像して得られる瞳孔像の領域)に相当する、X座標XaからX座標Xbまでの領域では、X座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側の虹彩143の領域(虹彩143からの光束が結像して得られる、瞳孔像の外側の虹彩像の領域)では、上記2種の輝度の中間の輝度が得られる。具体的には、X座標(X軸方向の座標)がX座標Xaより小さい領域と、X座標がX座標Xbより大きい領域とで、上記2種の輝度の中間の輝度が得られる。 FIG. 6(B) shows luminance information (luminance distribution) of the area α in the eye image of FIG. 6(A). FIG. 6B shows the luminance distribution in the X-axis direction, with the horizontal direction of the eye image being the X-axis direction and the vertical direction being the Y-axis direction. In this embodiment, the X-axis (horizontal) coordinates of the corneal reflection images Pd' and Pe' are Xd and Xe, and the X-axis coordinates of the pupil edge images a' and b' are Xa and Xb. As shown in FIG. 6B, extremely high levels of brightness are obtained at the X coordinates Xd and Xe of the corneal reflection images Pd' and Pe'. In the region from the X coordinate Xa to the X coordinate Xb, which corresponds to the region of the pupil 141 (the region of the pupil image obtained by forming an image of the light flux from the pupil 141 on the eye imaging device 17), the X coordinates Xd, Xe Extremely low levels of luminance are obtained except for In the area of the iris 143 outside the pupil 141 (the area of the iris image outside the pupil image obtained by forming an image of the light flux from the iris 143), a brightness intermediate between the above two types of brightness is obtained. Specifically, in the region where the X coordinate (coordinate in the X-axis direction) is smaller than the X coordinate Xa and in the region where the X coordinate is larger than the X coordinate Xb, a brightness intermediate between the above two types of brightness is obtained.

図6(B)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbとを得ることができる。具体的には、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合には、瞳孔中心cからの光束が眼用撮像素子17上に結像して得られる瞳孔中心像c’(瞳孔像の中心)のX座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’のX座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と、瞳孔中心像c’の座標とを見積もることができる。 The X coordinates Xd and Xe of the corneal reflection images Pd' and Pe' and the X coordinates Xa and Xb of the pupil edge images a' and b' can be obtained from the luminance distribution shown in FIG. 6B. Specifically, the coordinates with extremely high brightness can be obtained as the coordinates of the corneal reflection images Pd' and Pe', and the coordinates with extremely low brightness can be obtained as the coordinates of the pupil edge images a' and b'. . Further, when the rotation angle θx of the optical axis of the eyeball 14 with respect to the optical axis of the light receiving lens 16 is small, the pupil center image c′ ( The X coordinate Xc of the pupil image center) can be expressed as Xc≈(Xa+Xb)/2. That is, the X coordinate Xc of the pupil center image c' can be calculated from the X coordinates Xa and Xb of the pupil edge images a' and b'. In this way, the coordinates of the corneal reflection images Pd' and Pe' and the coordinates of the pupil center image c' can be estimated.

ステップS704では、CPU3は、眼球像の結像倍率βを算出する。結像倍率βは、受光レンズ16に対する眼球14の位置により決まる倍率で、角膜反射像Pd’,Pe’の間隔(Xd-Xe)の関数を用いて算出することができる。 In step S704, the CPU 3 calculates the imaging magnification β of the eyeball image. The imaging magnification β is determined by the position of the eyeball 14 with respect to the light receiving lens 16, and can be calculated using the function of the interval (Xd-Xe) between the corneal reflection images Pd' and Pe'.

ステップS705では、CPU3は、眼球14の視線方向の情報として、受光レンズ16の光軸に対する眼球14の光軸の回転角を算出する。角膜反射像Pdと角膜反射像Peの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜142の曲率中心Oから瞳孔141の中心cまでの標準的な距離をOcとすると、Z-X平面(Y軸に垂直な平面)内での眼球14の回転角θxは、以下の式1で算出できる。Z-Y平面(X軸に垂直な平面)内での眼球14の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。

β×Oc×SINθx≒{(Xd+Xe)/2}-Xc ・・・(式1)
In step S<b>705 , the CPU 3 calculates the rotation angle of the optical axis of the eyeball 14 with respect to the optical axis of the light receiving lens 16 as information on the line-of-sight direction of the eyeball 14 . The X coordinate of the midpoint between the corneal reflection image Pd and the corneal reflection image Pe and the X coordinate of the center of curvature O of the cornea 142 substantially match. Therefore, if the standard distance from the center of curvature O of the cornea 142 to the center c of the pupil 141 is Oc, then the rotation angle θx of the eyeball 14 in the ZX plane (the plane perpendicular to the Y axis) is given below. It can be calculated by the formula 1 below. The rotation angle θy of the eyeball 14 within the ZY plane (the plane perpendicular to the X axis) can also be calculated by a method similar to the method for calculating the rotation angle θx.

β×Oc×SINθx≈{(Xd+Xe)/2}−Xc (Formula 1)

ステップS706では、CPU3は、ステップS705で算出した回転角θx,θyを用いて、表示デバイス10の表示面におけるユーザーの視点を推定する。視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、視点の座標(Hx,Hy)は以下の式2,3で算出できる。

Hx=m×(Ax×θx+Bx) ・・・(式2)
Hy=m×(Ay×θy+By) ・・・(式3)
In step S706, the CPU 3 estimates the user's viewpoint on the display surface of the display device 10 using the rotation angles θx and θy calculated in step S705. Assuming that the coordinates (Hx, Hy) of the viewpoint correspond to the pupil center c, the coordinates (Hx, Hy) of the viewpoint can be calculated by the following equations 2 and 3.

Hx=m×(Ax×θx+Bx) (Formula 2)
Hy=m×(Ay×θy+By) (Formula 3)

式2,3のパラメータmは、カメラ1のファインダー光学系(受光レンズ16など)の構成で定まる定数であり、回転角θx,θyを表示デバイス10の表示面における瞳孔中心cに対応する座標に変換する変換係数である。パラメータmは、予め決定されてメモリ部4に格納されるとする。パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータであり、キャリブレーション作業を行うことで取得される。パラメータAx,Bx,Ay,Byは、視線検出動作が開始する前にメモリ部4に格納されるとする。 The parameter m in Equations 2 and 3 is a constant determined by the configuration of the viewfinder optical system (light receiving lens 16, etc.) of the camera 1, and the rotation angles θx and θy are set to the coordinates corresponding to the pupil center c on the display surface of the display device 10. Transform coefficients to transform. It is assumed that parameter m is determined in advance and stored in memory unit 4 . The parameters Ax, Bx, Ay, and By are line-of-sight correction parameters for correcting individual differences in line-of-sight, and are obtained by performing calibration work. It is assumed that the parameters Ax, Bx, Ay, and By are stored in the memory unit 4 before the line-of-sight detection operation starts.

ステップS707では、CPU3は、視点の座標(Hx,Hy)を、眼画像を取得した時刻と関連付けてメモリ部4に格納し、視線検出動作を終える。 In step S707, the CPU 3 associates the viewpoint coordinates (Hx, Hy) with the time when the eye image was obtained, stores them in the memory unit 4, and finishes the line-of-sight detection operation.

なお、角膜反射像を利用する例を説明したが、視線検出の方法はこれに限られず、眼画像に基づいて視線を検出する如何なる方法であってもよい。また、視線検出の結果(最終結果)として視点の座標(Hx,Hy)を得る例を説明したが、回転角θx,θyなど、視線に関連した情報(視線情報)であれば、どのような情報が視線検出の結果として得られてもよい。 Although an example of using a corneal reflection image has been described, the method of line-of-sight detection is not limited to this, and any method of detecting a line of sight based on an eye image may be used. Also, an example of obtaining the coordinates (Hx, Hy) of the viewpoint as the result (final result) of the line-of-sight detection has been described, but what kind of information (line-of-sight information) such as the rotation angles θx, θy may be Information may be obtained as a result of gaze detection.

<主被写体選択動作の例>
図8を用いて、主被写体選択動作について説明する。図8は、主被写体選択動作の一例を示すフローチャートである。主被写体選択動作は、例えば、カメラ1の起動とともに開始し、繰り返される。主被写体選択動作は、視線検出動作を含む。カメラ1では、主被写体選択動作により主被写体(対象物)が選択されると、主被写体を対象として、焦点調節(焦点検出を含む)や露出調節(測光を含む)が実行される。
<Example of main subject selection operation>
The main subject selection operation will be described with reference to FIG. FIG. 8 is a flow chart showing an example of main subject selection operation. The main subject selection operation is started, for example, when the camera 1 is activated, and is repeated. The main subject selection operation includes line-of-sight detection operation. In the camera 1, when a main subject (object) is selected by the main subject selection operation, focus adjustment (including focus detection) and exposure adjustment (including photometry) are performed on the main subject.

主被写体選択動作が開始すると、ステップS801で、CPU3は、上述した視線検出動作により、表示デバイス10の表示面におけるユーザーの視点を検出する。撮像素子2により撮像された画像が表示デバイス10の表示面に表示されている場合には、表示デバイス10の表示面におけるユーザーの視点は、撮像素子2により撮像された画像におけるユーザーの視点と捉えることもできる。 When the main subject selection operation starts, in step S801, the CPU 3 detects the user's viewpoint on the display surface of the display device 10 by the line-of-sight detection operation described above. When an image captured by the imaging device 2 is displayed on the display surface of the display device 10, the user's viewpoint on the display surface of the display device 10 is regarded as the user's viewpoint on the image captured by the imaging device 2. can also

ステップS802では、CPU3は、画像処理回路202を制御して、撮像素子2により撮像された画像から特定の被写体を検出した結果である被写体情報と被写体領域情報を取得する。特定の被写体は、例えば人物や動物、乗り物などの特定種別の被写体である。特定種別の個々の被写体を区別せずに特定の被写体として扱ってもよいし、特定種別の個々の被写体を区別して特定の被写体として扱ってもよい。被写体情報は、検出された被写体に関連した情報であり、例えば、検出された被写体の種別を示す種別情報や、検出された被写体を識別するための識別情報(例えば識別子)などである。被写体の検出方法は特に限定されず、例えば特定の被写体の画像を用いた学習により得られた学習済みモデルを
用いて、特定の被写体の色や形状などに基づいて当該特定の被写体を検出してもよい。
In step S<b>802 , the CPU 3 controls the image processing circuit 202 to acquire subject information and subject area information, which are results of detecting a specific subject from the image captured by the image sensor 2 . A specific subject is, for example, a specific type of subject such as a person, an animal, or a vehicle. Individual subjects of a specific type may be treated as specific subjects without distinction, or individual subjects of a specific type may be distinguished and treated as specific subjects. The subject information is information related to the detected subject, and includes, for example, type information indicating the type of the detected subject and identification information (for example, an identifier) for identifying the detected subject. The detection method of the subject is not particularly limited. For example, a trained model obtained by learning using an image of a specific subject is used to detect the specific subject based on the color, shape, etc. of the specific subject. good too.

ステップS803では、CPU3は、ユーザーによって視点確定操作(特定の操作)が行われたか否かを判定する。CPU3は、視点確定操作が行われたと判定した場合にステップS806へ処理を進め、視点確定操作が行われていないと判定した場合にステップS804へ処理を進める。視点確定操作は、視点を確定するための操作であり、ユーザーの意図した視点をカメラ1に伝えるための操作である。視点確定操作は、例えば、操作部材41~43などを用いて行われる。視点確定操作は、レリーズボタン5の第1ストローク(半押し)であってもよい。その場合には、ステップS806の処理の後、カメラ1の測光や焦点検出(測距)などが開始する。 In step S803, the CPU 3 determines whether or not the user has performed a viewpoint confirmation operation (specific operation). When the CPU 3 determines that the viewpoint confirmation operation has been performed, the process proceeds to step S806, and when it determines that the viewpoint confirmation operation has not been performed, the process proceeds to step S804. The viewpoint fixing operation is an operation for fixing a viewpoint, and is an operation for conveying the viewpoint intended by the user to the camera 1 . The viewpoint fixing operation is performed using the operation members 41 to 43, for example. The viewpoint fixing operation may be the first stroke (half-press) of the release button 5 . In that case, after the process of step S806, photometry and focus detection (distance measurement) of the camera 1 are started.

ステップS804では、CPU3は、優先度決定動作を実行する。優先度決定動作は、ステップS802で検出された被写体の優先度を決定する動作である。優先度決定動作については、図9を参照して後述する。 In step S804, CPU 3 executes a priority determination operation. The priority determination operation is an operation for determining the priority of the subject detected in step S802. The priority determination operation will be described later with reference to FIG.

ステップS805では、CPU3は、ステップS802で検出された被写体のうち、ステップS804で決定された優先度が最も高い被写体を、主被写体として選択する。 In step S805, the CPU 3 selects the subject with the highest priority determined in step S804 among the subjects detected in step S802 as the main subject.

ステップS806では、CPU3は、ステップS801で検出された視点に基づいて、ユーザーが見ている被写体を、主被写体として選択する。具体的には、CPU3は、ステップS802で検出された被写体のうち、視点近傍(視点から所定範囲内)に存在する被写体を、主被写体として選択する。なお、視点近傍に複数の被写体が存在する場合には、視点に最も近い被写体を主被写体として選択することが好ましい。ステップS802で検出された被写体が視点近傍に存在しない場合には、CPU3は、画像処理回路202を制御して、視点に存在するもの(ステップS802では検出されていない被写体)を、主被写体として検出する。例えば、CPU3は、視点の画素と、視点の画素の色に似た色を有する画素とからなる領域を、主被写体の領域として検出する。なお、視点の近傍を定義する上記所定範囲は、固定の範囲であってもよいし、操作部材41~43などを用いてユーザーが設定可能(変更可能)な範囲であってもよい。所定範囲は、画角すなわち撮影レンズユニット1Aの焦点距離の変化に応じて自動的に切り替られてもよい。 In step S806, CPU 3 selects the subject viewed by the user as the main subject based on the viewpoint detected in step S801. Specifically, the CPU 3 selects a subject existing in the vicinity of the viewpoint (within a predetermined range from the viewpoint) among the subjects detected in step S802 as the main subject. Note that if there are multiple subjects near the viewpoint, it is preferable to select the subject closest to the viewpoint as the main subject. If the subject detected in step S802 does not exist near the viewpoint, the CPU 3 controls the image processing circuit 202 to detect an object existing in the viewpoint (subject not detected in step S802) as the main subject. do. For example, the CPU 3 detects an area made up of pixels at the viewpoint and pixels having a color similar to the color of the pixels at the viewpoint as the area of the main subject. The predetermined range that defines the vicinity of the viewpoint may be a fixed range or a range that can be set (changed) by the user using the operation members 41 to 43 or the like. The predetermined range may be automatically switched according to changes in the angle of view, that is, the focal length of the photographing lens unit 1A.

ステップS807では、CPU3は、ステップS806で選択された主被写体の被写体情報を、現在の時刻と関連付けてメモリ部4(記憶部)に記録する。ここで、被写体情報は、主被写体の種別を示す種別情報であってもよい。種別情報における種別は、例えば「人物」や「動物」などである。「動物」は、「犬」、「猫」、「鳥」などに細分化されていてもよい。被写体情報は、「人物A」や「人物B」、「犬C」などのように、主被写体を識別するための識別情報であってもよい。また、ステップS802で検出された被写体が視点近傍に存在しない状態で主被写体が選択された場合には、「その他」などの情報を被写体情報として記録してもよいし、何も記憶しないようにしてもよい。 In step S807, the CPU 3 records the subject information of the main subject selected in step S806 in the memory section 4 (storage section) in association with the current time. Here, the subject information may be type information indicating the type of the main subject. The type in the type information is, for example, "person" or "animal". "Animals" may be subdivided into "dogs," "cats," "birds," and the like. The subject information may be identification information for identifying the main subject, such as "Person A", "Person B", and "Dog C". Further, when the main subject is selected when the subject detected in step S802 does not exist near the viewpoint, information such as "other" may be recorded as subject information, or nothing may be stored. may

<優先度決定動作の例>
図9を用いて、被写体情報が種別情報である場合の優先度決定動作(図8のステップS804)について説明する。図9は、被写体情報が種別情報である場合の優先度決定動作の一例を示すフローチャートである。
<Example of priority determination operation>
The priority determination operation (step S804 in FIG. 8) when subject information is type information will be described with reference to FIG. FIG. 9 is a flow chart showing an example of the priority determination operation when subject information is type information.

優先度決定動作が開始すると、ステップS901で、CPU3は、図8のステップS802で検出された全ての被写体の優先度を、デフォルト値に初期化する。 When the priority determination operation starts, in step S901, the CPU 3 initializes the priorities of all subjects detected in step S802 of FIG. 8 to default values.

ステップS902では、CPU3は、メモリ部4が記憶している過去の被写体情報のうち、記録されてから所定時間以上が経過した被写体情報を削除する。こうすることで、メ
モリ部4は、現在から所定時間前までに記録された被写体情報のみを記憶することになる。ここで、所定時間は長すぎないことが好ましく、例えば数分から1日程度であることが好ましい。ユーザーが同じ種別の被写体を撮影し続けるとは限らないため、あまりにも古い被写体情報が残っていると、ユーザーが別の種別の被写体を撮影する際に、主被写体がユーザーの意図に合わなくなってしまう虞がある。所定時間が適切に設定されていれば、ユーザーが別の種別の被写体を撮影する際にも、主被写体がユーザーの意図に合うようにできる。所定時間は、固定の時間であってもよいし、操作部材41~43などを用いてユーザーが設定可能(変更可能)な時間であってもよい。
In step S<b>902 , the CPU 3 deletes subject information stored in the memory unit 4 for which a predetermined time or longer has passed since it was recorded. By doing so, the memory unit 4 stores only subject information recorded before the predetermined time from the present. Here, it is preferable that the predetermined period of time is not too long, for example, it is preferable that it is about several minutes to one day. Since the user does not always shoot the same type of subject, if too old subject information remains, when the user shoots another type of subject, the main subject will not match the user's intention. There is a risk that it will be lost. If the predetermined time is appropriately set, the main subject can match the user's intention even when the user shoots another type of subject. The predetermined time may be a fixed time or a time that can be set (changed) by the user using the operation members 41 to 43 or the like.

なお、CPU3は、メモリ部4が所定数以下の被写体情報を記憶するように、被写体情報を削除してもよい。上述した所定時間と同様に、所定数は多すぎないことが好ましい。また、所定数は、固定の数であってもよいし、操作部材41~43などを用いてユーザーが設定可能(変更可能)な数であってもよい。また、CPU3は、電源オフ操作に応答して、メモリ部4が記憶している全ての被写体情報を削除してもよい。CPU3は、操作部材41~43などを用いてユーザーが行う操作に応答して、メモリ部4が記憶している被写体情報を選択的にまたは一括で削除してもよい。 Note that the CPU 3 may delete subject information so that the memory section 4 stores a predetermined number or less of subject information. As with the predetermined time period described above, the predetermined number is preferably not too large. Also, the predetermined number may be a fixed number, or may be a number that can be set (changed) by the user using the operation members 41 to 43 or the like. Also, the CPU 3 may delete all subject information stored in the memory section 4 in response to the power-off operation. The CPU 3 may selectively or collectively delete the subject information stored in the memory section 4 in response to the user's operation using the operation members 41 to 43 or the like.

ステップS903では、CPU3は、メモリ部4が記憶している被写体情報によって示された被写体種別ごとにステップS904~S909の処理を行うための設定を行う。つまり、CPU3は、メモリ部4が記憶している被写体情報によって示された被写体種別の数だけステップS904~S909の処理を繰り返し実行するための設定を行う。 In step S903, the CPU 3 makes settings for performing the processing of steps S904 to S909 for each subject type indicated by the subject information stored in the memory unit 4. FIG. In other words, the CPU 3 makes settings for repeatedly executing the processing of steps S904 to S909 by the number of object types indicated by the object information stored in the memory unit 4. FIG.

ステップS904では、CPU3は、メモリ部4が記憶している被写体種別i(処理対象)の被写体情報の数が所定数以上である否かを判定する。メモリ部4が記憶している被写体種別iの被写体情報の数が所定数以上であると判定した場合に、CPU3は、ステップS905へ処理を進める。メモリ部4が記憶している被写体種別iの被写体情報の数が所定数未満であると判定した場合には、CPU3は、ステップS910へ処理を進める。 In step S904, the CPU 3 determines whether or not the number of pieces of subject information of the subject type i (processing target) stored in the memory unit 4 is equal to or greater than a predetermined number. When determining that the number of pieces of subject information of the subject type i stored in the memory unit 4 is equal to or greater than the predetermined number, the CPU 3 advances the processing to step S905. When determining that the number of pieces of subject information of the subject type i stored in the memory unit 4 is less than the predetermined number, the CPU 3 advances the process to step S910.

ステップS905では、CPU3は、被写体種別iの優先度を高くする。このとき、CPU3は、メモリ部4が記憶している被写体種別iの被写体情報の数に依存しない所定の変化量で、優先度を高くしてもよい。CPU3は、メモリ部4が記憶している被写体種別iの被写体情報の数が多いほど大きな変化量で、優先度を高くしてもよい。 In step S905, the CPU 3 increases the priority of subject type i. At this time, the CPU 3 may increase the priority by a predetermined amount of change that does not depend on the number of subject information of the subject type i stored in the memory section 4 . The CPU 3 may increase the priority with a larger amount of change as the number of pieces of subject information of the subject type i stored in the memory unit 4 increases.

ステップS906では、CPU3は、メモリ部4が最も多く被写体情報を記憶している被写体種別が被写体種別iである否かを判定する。メモリ部4が最も多く被写体情報を記憶している被写体種別が被写体種別iであると判定した場合に、CPU3は、ステップS907へ処理を進める。メモリ部4が最も多く被写体情報を記憶している被写体種別が被写体種別iではないと判定した場合には、CPU3は、ステップS908へ処理を進める。 In step S906, the CPU 3 determines whether or not the subject type for which the memory unit 4 stores the most subject information is the subject type i. When determining that the subject type for which the memory unit 4 stores the most subject information is the subject type i, the CPU 3 advances the process to step S907. When determining that the subject type for which the memory unit 4 stores the most subject information is not the subject type i, the CPU 3 advances the process to step S908.

ステップS907では、CPU3は、被写体種別iの優先度を高くする。 In step S907, the CPU 3 increases the priority of subject type i.

ステップS908では、CPU3は、現在から所定時間前までに被写体種別iの被写体情報がメモリ部4に記録されたか否かを判定する。現在から所定時間前までに被写体種別iの被写体情報がメモリ部4に記録されたと判定した場合に、CPU3は、ステップS909へ処理を進める。現在から所定時間前までに被写体種別iの被写体情報がメモリ部4に記録されなかったと判定した場合には、CPU3は、ステップS910へ処理を進める。 In step S908, the CPU 3 determines whether or not the subject information of the subject type i has been recorded in the memory unit 4 before a predetermined time from now. If the CPU 3 determines that the subject information of the subject type i has been recorded in the memory unit 4 before the predetermined time from now, the CPU 3 advances the process to step S909. If the CPU 3 determines that the object information of the object type i has not been recorded in the memory unit 4 before the predetermined time from now, the CPU 3 advances the process to step S910.

ステップS909では、CPU3は、被写体種別iの優先度を高くする。このとき、C
PU3は、被写体種別iの被写体情報がメモリ部4に最後に記録された時刻に依存しない所定の変化量で、優先度を高くしてもよい。CPU3は、被写体種別iの被写体情報がメモリ部4に最後に記録された時刻が現在に近いほど大きな変化量で、優先度を高くしてもよい。
In step S909, the CPU 3 increases the priority of subject type i. At this time, C
The PU 3 may increase the priority by a predetermined amount of change that does not depend on the time when the subject information of the subject type i was last recorded in the memory section 4 . The CPU 3 may increase the priority with a larger amount of change as the time at which the subject information of the subject type i was last recorded in the memory unit 4 is closer to the present.

なお、CPU3は、被写体種別iの被写体情報として、メモリ部4に記録された時刻が現在に近い側から数えて所定順位以内の被写体情報が存在する場合に、被写体種別iの優先度を高くしてもよい。換言すれば、CPU3は、メモリ部4に記録された時刻が現在に近い側から数えて所定数の被写体情報の中に被写体種別iの被写体情報が存在する場合に、被写体種別iの優先度を高くしてもよい。 Note that the CPU 3 increases the priority of the subject type i when there is subject information within a predetermined order counted from the side closest to the current time recorded in the memory section 4 as the subject information of the subject type i. may In other words, the CPU 3 determines the priority of the subject type i when the subject information of the subject type i exists in the predetermined number of subject information counted from the side closest to the current time recorded in the memory section 4. You can make it higher.

ステップS910では、CPU3は、メモリ部4が記憶している被写体情報によって示された全ての被写体種別についてステップS904~S909の処理が行われたか否かを判定する。全ての被写体種別についてステップS904~S909の処理が行われたと判定した場合に、CPU3は、ステップS911へ処理を進める。ステップS904~S909の処理を行っていない被写体種別が存在すると判定した場合には、CPU3は、被写体種別iを更新し、ステップS904へ処理を進める。 In step S910, the CPU 3 determines whether or not the processes of steps S904 to S909 have been performed for all subject types indicated by subject information stored in the memory section 4. FIG. When determining that the processes of steps S904 to S909 have been performed for all subject types, the CPU 3 advances the process to step S911. When determining that there is a subject type for which steps S904 to S909 have not been processed, the CPU 3 updates the subject type i and advances the process to step S904.

CPU3は、ステップS911に処理を進める際に、ステップS904~S909で決定された被写体種別の優先度を当該被写体種別の被写体に適用する処理を、図8のステップS802で検出された全ての被写体に対して行う。例えば、CPU3は、ステップS802で検出された動物に対して、ステップS904~S909で決定された被写体種別「動物」の優先度を適用する。 When proceeding to step S911, the CPU 3 performs the process of applying the priority of the subject type determined in steps S904 to S909 to all subjects detected in step S802 of FIG. do it against For example, the CPU 3 applies the priority of the subject type "animal" determined in steps S904 to S909 to the animal detected in step S802.

ステップS911では、CPU3は、ステップS802で検出された被写体のうち、ステップS801で検出された視点から所定範囲外に存在する被写体の優先度を、デフォルト値に初期化する。これにより、被写体の優先度にユーザーの意図をより反映させることができる。具体的には、メモリ部4が記憶している被写体情報に基づく優先度の変更(ステップS904~S909で決定された優先度の適用)が、ステップS801で検出された視点から所定範囲内に存在する被写体に対してのみ有効となる。その結果、過去の視点確定操作に応答して選択された主被写体(過去の視点確定操作時に視点の近傍に存在していた被写体)と同じ種別の、現在の視点の近傍に存在する被写体の優先度が、デフォルト値よりも高くなる。ここで、所定範囲は、固定の範囲であってもよいし、操作部材41~43などを用いてユーザーが設定可能(変更可能)な範囲であってもよい。所定範囲は、画角すなわち撮影レンズユニット1Aの焦点距離の変化に応じて自動的に切り替られてもよい。 In step S911, among the subjects detected in step S802, the CPU 3 initializes the priority of subjects existing outside a predetermined range from the viewpoint detected in step S801 to a default value. Thereby, the user's intention can be more reflected in the priority of the subject. Specifically, the change in priority based on the subject information stored in the memory unit 4 (application of the priority determined in steps S904 to S909) exists within a predetermined range from the viewpoint detected in step S801. This is effective only for subjects that As a result, a subject existing near the current viewpoint of the same type as the main subject selected in response to the past viewpoint confirmation operation (a subject existing near the viewpoint at the time of the past viewpoint confirmation operation) is prioritized. higher than the default value. Here, the predetermined range may be a fixed range or a range that can be set (changed) by the user using the operation members 41 to 43 or the like. The predetermined range may be automatically switched according to changes in the angle of view, that is, the focal length of the photographing lens unit 1A.

ステップS912では、CPU3は、ステップS802で検出された被写体のうち、ステップS801で検出された視点から所定範囲内(視点近傍)に存在する被写体の優先度を高くする。このとき、CPU3は、被写体と視点の距離に依存しない所定の変化量で、当該被写体の優先度を高くしてもよい。CPU3は、被写体が視点に近いほど大きな変化量で、当該被写体の優先度を高くしてもよい。所定範囲は、固定の範囲であってもよいし、操作部材41~43などを用いてユーザーが設定可能(変更可能)な範囲であってもよい。所定範囲は、画角すなわち撮影レンズユニット1Aの焦点距離の変化に応じて自動的に切り替られてもよい。 In step S912, the CPU 3 gives higher priority to subjects existing within a predetermined range (near the viewpoint) from the viewpoint detected in step S801 among the subjects detected in step S802. At this time, the CPU 3 may increase the priority of the subject by a predetermined amount of change that does not depend on the distance between the subject and the viewpoint. The CPU 3 may increase the priority of the subject with a larger amount of change as the subject is closer to the viewpoint. The predetermined range may be a fixed range or a range that can be set (changed) by the user using the operation members 41 to 43 or the like. The predetermined range may be automatically switched according to changes in the angle of view, that is, the focal length of the photographing lens unit 1A.

ステップS913では、CPU3は、ステップS802で検出された被写体のうち、撮像素子2により撮像された画像の中央から所定範囲内に存在する被写体の優先度を高くする。このとき、CPU3は、被写体と画像の中央との距離に依存しない所定の変化量で、当該被写体の優先度を高くしてもよい。CPU3は、被写体が画像の中央に近いほど大き
な変化量で、当該被写体の優先度を高くしてもよい。所定範囲は、固定の範囲であってもよいし、操作部材41~43などを用いてユーザーが設定可能(変更可能)な範囲であってもよい。所定範囲は、画角すなわち撮影レンズユニット1Aの焦点距離の変化に応じて自動的に切り替られてもよい。
In step S<b>913 , the CPU 3 gives higher priority to subjects existing within a predetermined range from the center of the image captured by the image sensor 2 among the subjects detected in step S<b>802 . At this time, the CPU 3 may increase the priority of the subject by a predetermined amount of change that does not depend on the distance between the subject and the center of the image. The CPU 3 may increase the priority of the subject by increasing the amount of change as the subject approaches the center of the image. The predetermined range may be a fixed range or a range that can be set (changed) by the user using the operation members 41 to 43 or the like. The predetermined range may be automatically switched according to changes in the angle of view, that is, the focal length of the photographing lens unit 1A.

ステップS914では、CPU3は、ステップS802で検出された被写体のうち、撮像サイズ(撮像素子2により撮像された画像上でのサイズ)が所定サイズ以上の被写体の優先度を高くする。このとき、CPU3は、撮像サイズに依存しない所定の変化量で、当該被写体の優先度を高くしてもよい。CPU3は、撮像サイズが大きいほど大きな変化量で、当該被写体の優先度を高くしてもよい。所定サイズは、固定のサイズであってもよいし、操作部材41~43などを用いてユーザーが設定可能(変更可能)なサイズであってもよい。所定サイズは、画角すなわち撮影レンズユニット1Aの焦点距離の変化に応じて自動的に切り替られてもよい。 In step S914, among the subjects detected in step S802, the CPU 3 gives higher priority to subjects whose imaging size (size on the image captured by the imaging device 2) is equal to or greater than a predetermined size. At this time, the CPU 3 may increase the priority of the subject by a predetermined amount of change that does not depend on the imaging size. The CPU 3 may increase the priority of the subject by increasing the amount of change as the imaging size increases. The predetermined size may be a fixed size, or may be a size that can be set (changed) by the user using the operation members 41 to 43 or the like. The predetermined size may be automatically switched according to changes in the angle of view, that is, the focal length of the photographing lens unit 1A.

ステップS904~S909ではメモリ部4が記憶している過去の被写体情報に基づいて優先度が高められるが、ステップS911~S914では現在の視点、被写体の位置、被写体のサイズなどに基づいて優先度が高められる。 In steps S904 to S909, the priority is raised based on the past subject information stored in the memory unit 4. In steps S911 to S914, the priority is raised based on the current viewpoint, subject position, subject size, and the like. Increased.

図10を用いて、被写体情報が識別情報である場合の優先度決定動作(図8のステップS804)について説明する。図10は、被写体情報が識別情報である場合の優先度決定動作の一例を示すフローチャートである。 The priority determination operation (step S804 in FIG. 8) when subject information is identification information will be described with reference to FIG. FIG. 10 is a flowchart showing an example of the priority determination operation when subject information is identification information.

ステップS1001,S1002は、図9のステップS901,S902と同様である。 Steps S1001 and S1002 are the same as steps S901 and S902 in FIG.

ステップS1003では、CPU3は、メモリ部4が記憶している被写体情報によって識別される被写体ごとにステップS1004~S1009の処理を行うための設定を行う。つまり、CPU3は、メモリ部4が記憶している被写体情報によって識別される被写体の数だけステップS1004~S1009の処理を繰り返し実行するための設定を行う。 In step S1003, the CPU 3 makes settings for performing the processing of steps S1004 to S1009 for each object identified by the object information stored in the memory unit 4. FIG. In other words, the CPU 3 makes settings for repeatedly executing the processing of steps S1004 to S1009 for the number of subjects identified by the subject information stored in the memory section 4. FIG.

ステップS1004では、CPU3は、メモリ部4が記憶している被写体i(処理対象)の被写体情報の数が所定数以上である否かを判定する。メモリ部4が記憶している被写体iの被写体情報の数が所定数以上であると判定した場合に、CPU3は、ステップS1005へ処理を進める。メモリ部4が記憶している被写体iの被写体情報の数が所定数未満であると判定した場合には、CPU3は、ステップS1010へ処理を進める。 In step S1004, the CPU 3 determines whether or not the number of pieces of subject information of the subject i (processing target) stored in the memory unit 4 is equal to or greater than a predetermined number. When determining that the number of pieces of object information about the object i stored in the memory unit 4 is equal to or greater than the predetermined number, the CPU 3 advances the processing to step S1005. When determining that the number of pieces of object information about object i stored in memory unit 4 is less than the predetermined number, CPU 3 advances the process to step S1010.

ステップS1005では、CPU3は、被写体iの優先度を高くする。このとき、CPU3は、メモリ部4が記憶している被写体iの被写体情報の数に依存しない所定の変化量で、優先度を高くしてもよい。CPU3は、メモリ部4が記憶している被写体iの被写体情報の数が多いほど大きな変化量で、優先度を高くしてもよい。 In step S1005, the CPU 3 increases the priority of subject i. At this time, the CPU 3 may increase the priority by a predetermined amount of change that does not depend on the number of subject information of the subject i stored in the memory section 4 . The CPU 3 may increase the priority with a larger amount of change as the number of pieces of subject information of the subject i stored in the memory section 4 increases.

ステップS1006では、CPU3は、メモリ部4が最も多く被写体情報を記憶している被写体が被写体iである否かを判定する。メモリ部4が最も多く被写体情報を記憶している被写体が被写体iであると判定した場合に、CPU3は、ステップS1007へ処理を進める。メモリ部4が最も多く被写体情報を記憶している被写体が被写体iではないと判定した場合には、CPU3は、ステップS1008へ処理を進める。 In step S1006, the CPU 3 determines whether or not the subject for which the memory unit 4 stores the most subject information is the subject i. If the memory unit 4 determines that the subject for which the most subject information is stored is the subject i, the CPU 3 advances the process to step S1007. When the memory unit 4 determines that the subject for which the most subject information is stored is not the subject i, the CPU 3 advances the processing to step S1008.

ステップS1007では、CPU3は、被写体iの優先度を高くする。 In step S1007, the CPU 3 increases the priority of subject i.

ステップS1008では、CPU3は、現在から所定時間前までに被写体iの被写体情
報がメモリ部4に記録されたか否かを判定する。現在から所定時間前までに被写体iの被写体情報がメモリ部4に記録されたと判定した場合に、CPU3は、ステップS1009へ処理を進める。現在から所定時間前までに被写体iの被写体情報がメモリ部4に記録されなかったと判定した場合には、CPU3は、ステップS1010へ処理を進める。
In step S1008, the CPU 3 determines whether or not the subject information of the subject i has been recorded in the memory section 4 before a predetermined time from now. If the CPU 3 determines that the subject information of the subject i has been recorded in the memory unit 4 before the predetermined time from now, the CPU 3 advances the process to step S1009. If the CPU 3 determines that the subject information of the subject i has not been recorded in the memory unit 4 before the predetermined time from now, the CPU 3 advances the process to step S1010.

ステップS1009では、CPU3は、被写体iの優先度を高くする。このとき、CPU3は、被写体iの被写体情報がメモリ部4に最後に記録された時刻に依存しない所定の変化量で、優先度を高くしてもよい。CPU3は、被写体iの被写体情報がメモリ部4に最後に記録された時刻が現在に近いほど大きな変化量で、優先度を高くしてもよい。 In step S1009, the CPU 3 increases the priority of subject i. At this time, the CPU 3 may increase the priority by a predetermined amount of change that does not depend on the time when the subject information of the subject i was last recorded in the memory unit 4 . The closer the time at which the subject information of the subject i was last recorded in the memory section 4 is to the present, the CPU 3 may increase the amount of change and increase the priority.

なお、CPU3は、被写体iの被写体情報として、メモリ部4に記録された時刻が現在に近い側から数えて所定順位以内の被写体情報が存在する場合に、被写体iの優先度を高くしてもよい。換言すれば、CPU3は、メモリ部4に記録された時刻が現在に近い側から数えて所定数の被写体情報の中に被写体iの被写体情報が存在する場合に、被写体iの優先度を高くしてもよい。 Note that if there is subject information within a predetermined order counted from the side closest to the current time recorded in the memory section 4 as the subject information of subject i, the CPU 3 may increase the priority of subject i. good. In other words, the CPU 3 increases the priority of the subject i when the subject information of the subject i exists in the predetermined number of subject information counted from the side closest to the current time recorded in the memory unit 4 . may

ステップS1010では、CPU3は、メモリ部4が記憶している被写体情報によって示された全ての被写体についてステップS1004~S1009の処理が行われたか否かを判定する。全ての被写体についてステップS1004~S1009の処理が行われたと判定した場合に、CPU3は、ステップS1011へ処理を進める。ステップS1004~S1009の処理を行っていない被写体が存在すると判定した場合には、CPU3は、被写体iを更新し、ステップS1004へ処理を進める。 In step S1010, the CPU 3 determines whether or not the processes of steps S1004 to S1009 have been performed for all subjects indicated by the subject information stored in the memory section 4. FIG. When determining that the processes of steps S1004 to S1009 have been performed for all subjects, the CPU 3 advances the process to step S1011. If it is determined that there is a subject for which steps S1004 to S1009 have not been processed, CPU 3 updates subject i and advances the process to step S1004.

なお、図9のステップS904~S909では被写体種別の優先度を決定していたため、ステップS911に処理を進める際に、被写体種別の優先度を当該被写体種別の被写体に適用する処理が必要であった。ステップS1004~S1009では、人物Aや人物B、犬Cなどの個々の被写体の優先度が決定されるため、そのような処理は不要である。 Note that since the priority of the subject type is determined in steps S904 to S909 of FIG. 9, processing to apply the priority of the subject type to the subject of the subject type is necessary when proceeding to step S911. . In steps S1004 to S1009, since the priority of individual subjects such as person A, person B, and dog C is determined, such processing is unnecessary.

ステップS1011~S1014は、図9のステップS1011からステップS1014と同様である。 Steps S1011 to S1014 are the same as steps S1011 to S1014 in FIG.

なお、取り得る優先度の数(優先度の段階数)は特に限定されない。優先度として、スコアが算出されてもよい。優先度には上限値があってもよく、優先度が上限値よりも高い値にならないようにしてもよい。さらに、判定条件ごとに優先度の変化量を異ならせてもよい。 The number of possible priorities (the number of priority levels) is not particularly limited. A score may be calculated as the priority. The priority may have an upper limit, and the priority may not be higher than the upper limit. Furthermore, the amount of change in priority may be varied for each determination condition.

また、図9,10のフローチャートは適宜変形してもよい。例えば、図9のステップS904の判定条件が満たされなかった場合にステップS910へ処理が進められるとしたが、ステップS906へ処理が進められてもよい。図10のステップS1004の判定条件が満たされなかった場合についても同様である。図9,10に示した判定条件の少なくともいずれかを省略してもよいし、メモリ部4が記憶している過去の被写体情報に基づく別の判定条件を追加してもよい。 Also, the flowcharts of FIGS. 9 and 10 may be modified as appropriate. For example, although the processing proceeds to step S910 when the determination condition in step S904 of FIG. 9 is not satisfied, the processing may proceed to step S906. The same applies when the determination condition in step S1004 of FIG. 10 is not satisfied. At least one of the determination conditions shown in FIGS. 9 and 10 may be omitted, or another determination condition based on past subject information stored in the memory unit 4 may be added.

<メモリ部が記憶している被写体情報の例>
図11(A)~11(D)は、メモリ部4が記憶している被写体情報の一例を示す図である。図11(A),11(B)は、被写体情報が種別情報である場合の例を示し、図11(C),11(D)は、被写体情報が識別情報である場合の例を示す。ここでは説明を簡単にするため、メモリ部4が記憶する被写体情報の最大数(上限数)は7であるとする。図9のステップS904および図10のステップS1004における所定数を3とし、メモリ部4が3つ以上の被写体情報を記憶している被写体種別または被写体の優先度を高
くするものとする。図11(A)~11(D)において、メモリ部4が3つ以上の被写体情報を記憶している被写体種別または被写体はグレーで示されている。また、時刻a1~a7,b1~b7,c1~c7,d1~d7は、数字が小さいほど現在に近い時刻であるする。時刻a1,a2,b1,b2,c1,c2,d1,d2は、現在からステップS908およびステップS1008の所定時間前までの時刻であるとし、時刻a3~a7,b3~b7,c3~c7,d3~d7は、現在から所定時間以上前の時刻であるとする。優先度は1ずつ高められるとする。そして、メモリ部4が記憶している被写体情報についてのみ考慮するとし、現在の視点、被写体の位置、被写体のサイズなどについては考慮しないとする。つまり、ステップS903~S910およびステップS1003~S1010のみ考慮し、ステップS911~S914およびステップS1011~S1014については考慮しないとする。
<Example of subject information stored in the memory unit>
11A to 11D are diagrams showing examples of subject information stored in the memory unit 4. FIG. 11A and 11B show examples in which the subject information is type information, and FIGS. 11C and 11D show examples in which the subject information is identification information. For simplicity of explanation, it is assumed that the maximum number (upper limit number) of subject information stored in the memory unit 4 is seven. It is assumed that the predetermined number in step S904 of FIG. 9 and step S1004 of FIG. 10 is 3, and the subject types or subjects for which the memory unit 4 stores three or more pieces of subject information are given higher priority. In FIGS. 11(A) to 11(D), subject types or subjects for which the memory unit 4 stores three or more pieces of subject information are indicated in gray. Also, the times a1 to a7, b1 to b7, c1 to c7, and d1 to d7 are assumed to be closer to the present as the numbers are smaller. Times a1, a2, b1, b2, c1, c2, d1, d2 are times from the present to a predetermined time before steps S908 and S1008, and times a3 to a7, b3 to b7, c3 to c7, d3 ∼d7 is the time more than a predetermined time before the present time. It is assumed that the priority is increased by one. Only the subject information stored in the memory unit 4 is considered, and the current viewpoint, subject position, subject size, etc. are not considered. That is, only steps S903 to S910 and steps S1003 to S1010 are considered, and steps S911 to S914 and steps S1011 to S1014 are not considered.

図11(A)では、メモリ部4が3つ以上の被写体情報を記憶している被写体種別が人物のみであるため、人物の優先度に1が加算される(ステップS905)。また、メモリ部4が人物の被写体情報を最も多く記憶しているため、人物の優先度にさらに1が加算される(ステップS907)。さらに、人物の被写体情報がメモリ部4に最後に記録された時刻a1は現在から所定時間前までの時刻であるため、人物の優先度にさらに1が加算される(ステップS909)。その結果、人物の優先度は3となり、それ以外の優先度は0となる。 In FIG. 11A, the subject type for which the memory unit 4 stores three or more pieces of subject information is only a person, so 1 is added to the priority of the person (step S905). In addition, since the memory unit 4 stores the most object information of a person, 1 is added to the priority of the person (step S907). Further, since the time a1 at which the subject information of the person was last recorded in the memory unit 4 is the time before the predetermined time from the present time, 1 is added to the priority of the person (step S909). As a result, the priority of the person is 3, and the priority of the others is 0.

図11(B)では、メモリ部4が3つ以上の被写体情報を記憶している被写体種別が人物と動物であるため、人物の優先度と動物の優先度のそれぞれに1が加算される(ステップS905)。また、メモリ部4が最も多く被写体情報を記憶している被写体種別が人物であるため、人物の優先度にさらに1が加算される(ステップS907)。さらに、人物の被写体情報がメモリ部4に最後に記録された時刻b1は現在から所定時間前までの時刻であるため、人物の優先度にさらに1が加算される(ステップS909)。一方で、動物の被写体情報がメモリ部4に最後に記録された時刻b3は現在から所定時間以上前の時刻であるため、ステップS909では動物の優先度は高められない。その結果、人物の優先度は3となり、動物の優先度は1となり、それ以外の優先度は0となる。 In FIG. 11B, since the object types for which the memory unit 4 stores three or more pieces of object information are a person and an animal, 1 is added to each of the priority of the person and the priority of the animal ( step S905). In addition, since the subject type for which the memory unit 4 stores the most subject information is the person, 1 is added to the priority of the person (step S907). Furthermore, since the time b1 at which the subject information of the person was last recorded in the memory unit 4 is the time before the predetermined time from the present time, 1 is added to the priority of the person (step S909). On the other hand, the time b3 when the subject information of the animal was last recorded in the memory unit 4 is the time more than the predetermined time before the present time, so the priority of the animal cannot be increased in step S909. As a result, the priority of the person is 3, the priority of the animal is 1, and the priority of the others is 0.

図11(C)では、メモリ部4が3つ以上の被写体情報を記憶している被写体が人物Aのみであるため、人物Aの優先度に1が加算される(ステップS1005)。また、メモリ部4が人物Aの被写体情報を最も多く記憶しているため、人物Aの優先度にさらに1が加算される(ステップS1007)。さらに、人物Aの被写体情報がメモリ部4に最後に記録された時刻c1は現在から所定時間前までの時刻であるため、人物Aの優先度にさらに1が加算される(ステップS1009)。その結果、人物Aの優先度は3となり、それ以外の優先度は0となる。 In FIG. 11C, the person A is the only subject for which three or more pieces of subject information are stored in the memory unit 4, so 1 is added to the priority of the person A (step S1005). Also, since the memory unit 4 stores the most object information of the person A, 1 is added to the priority of the person A (step S1007). Furthermore, since the time c1 at which the subject information of person A was last recorded in the memory unit 4 is the time from the present to the predetermined time ago, 1 is added to the priority of person A (step S1009). As a result, the priority of the person A becomes 3, and the priority of the others becomes 0.

図11(D)では、メモリ部4が3つ以上の被写体情報を記憶している被写体が存在しない。その結果、いずれの被写体の優先度も0となる。すなわち、メモリ部4が記憶している被写体情報からは、被写体間で優先度に差はつかない。 In FIG. 11D, there is no subject for which the memory section 4 stores three or more pieces of subject information. As a result, the priority of any subject becomes zero. That is, according to the subject information stored in the memory unit 4, there is no difference in priority between subjects.

<動作の具体例>
図12を用いて、カメラ1の動作の具体例を説明する。
<Specific example of operation>
A specific example of the operation of the camera 1 will be described with reference to FIG.

図12の状態(a)では、撮像素子2により撮像された画像に被写体12A(人物)と被写体12B(犬)が写っており、被写体12Aと被写体12Bが検出される。ここで、ユーザーは被写体12Bを主被写体として選択したいと考えているとする。しかしながら、一般的な中央優先やサイズ優先では、画像の中央に近く、画像上でのサイズが大きい被写体12Aが主被写体として選択され、被写体12Aに主被写体枠(選択枠)が表示され
てしまう。
In the state (a) of FIG. 12, the subject 12A (person) and subject 12B (dog) are shown in the image captured by the imaging device 2, and the subject 12A and subject 12B are detected. Here, it is assumed that the user wants to select subject 12B as the main subject. However, in general center priority or size priority, the subject 12A, which is close to the center of the image and has a large size on the image, is selected as the main subject, and a main subject frame (selection frame) is displayed for the subject 12A.

状態(b)は、ユーザーが被写体12Bを見ながら視点確定操作を行った後の状態であり、視点の近傍に位置する被写体12Bが主被写体として選択され、被写体12Bに主被写体枠が表示されている。 State (b) is a state after the user performs a viewpoint confirmation operation while looking at subject 12B, subject 12B located near the viewpoint is selected as the main subject, and a main subject frame is displayed for subject 12B. there is

状態(c)は、ユーザーがカメラ1の向きを変えるなどした後の状態である。画像には被写体12A,12Bが写っておらず、被写体12C(花)のみが写っている。ここでは、カメラ1が植物を検出できないとする(もちろん、被写体12Aも被写体12Bも検出されない)。そのため、主被写体は選択されず(被写体12Bが主被写体として選択された状態が解除され)、主被写体枠は表示されない。 State (c) is a state after the user has changed the orientation of the camera 1, for example. The image does not include the subjects 12A and 12B, but only the subject 12C (flower). Here, it is assumed that the camera 1 cannot detect plants (neither subject 12A nor subject 12B is detected, of course). Therefore, the main subject is not selected (the state in which the subject 12B was selected as the main subject is canceled), and the main subject frame is not displayed.

状態(d)は、ユーザーが再びカメラ1の向きを変えるなどして、画像の構図を状態(a)の構図と同様の構図に変更した後の状態である。状態(a)と同様に、被写体12Aが主被写体として選択され、被写体12Aに主被写体枠が表示されている。 State (d) is a state after the user changes the composition of the image to the same composition as the composition of state (a), for example, by changing the orientation of the camera 1 again. As in state (a), the subject 12A is selected as the main subject, and the main subject frame is displayed for the subject 12A.

従来のカメラでは、状態(b)~(d)の動作をいくら繰り返しても、状態(a),(d)の構図では、視点確定操作が行われる前に、被写体12Aが主被写体として選択されてしまう。 In a conventional camera, no matter how many times the operations of states (b) to (d) are repeated, the subject 12A is selected as the main subject in the composition of states (a) and (d) before the viewpoint confirmation operation is performed. end up

一方で、本実施形態に係るカメラ1では、状態(b)でユーザーが視点確定操作を行うたびに被写体12Bに関連した被写体情報がメモリ部4に記録され、被写体12Bの優先度が高くなる。そして、状態(b)~(d)の動作を所定回数以上行った後では、状態(c)の構図から状態(a)の構図と同様の構図への変更後、状態(d)には遷移せず、状態(e)のように、視点確定操作が行われる前から、被写体12Bが主被写体として選択される。 On the other hand, in the camera 1 according to the present embodiment, subject information related to the subject 12B is recorded in the memory unit 4 each time the user performs the viewpoint fixing operation in state (b), and the priority of the subject 12B is increased. Then, after the state (b) to (d) has been performed for a predetermined number of times or more, the state (c) composition is changed to the same composition as the state (a) composition, and then the state (d) is entered. Instead, the subject 12B is selected as the main subject before the viewpoint confirmation operation is performed, as in state (e).

<まとめ>
以上述べたように、本実施形態によれば、視点確定操作に応答して、ユーザーが見ている被写体が主被写体として選択されるとともに、当該主被写体の被写体情報がメモリ部に記録される。そして、視点確定操作が行われていない場合には、メモリ部が記憶している被写体情報に基づいて、主被写体が選択される。例えば、視点確定操作が行われていない場合に、メモリ部が被写体情報を記憶している被写体が、主被写体として選択される。これにより、ユーザーの意図せぬ被写体が主被写体に選択されるのを抑制して、ユーザーの意図に合った主被写体を選択することが可能となる。
<Summary>
As described above, according to the present embodiment, the subject that the user is looking at is selected as the main subject and the subject information of the main subject is recorded in the memory unit in response to the viewpoint confirmation operation. Then, when the viewpoint confirmation operation is not performed, the main subject is selected based on the subject information stored in the memory unit. For example, when the viewpoint confirmation operation is not performed, the subject whose subject information is stored in the memory unit is selected as the main subject. This makes it possible to suppress selection of a subject unintended by the user as the main subject, and to select a main subject that matches the user's intention.

なお、上記実施形態はあくまで一例であり、本発明の要旨の範囲内で上記実施形態の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。上記実施形態の構成を適宜組み合わせて得られる構成も、本発明に含まれる。 The above-described embodiment is merely an example, and configurations obtained by appropriately modifying or changing the configuration of the above-described embodiment within the scope of the present invention are also included in the present invention. A configuration obtained by appropriately combining the configurations of the above embodiments is also included in the present invention.

例えば、EVF(電子ビューファインダー)で被写体を見る場合の例を説明したが、OVF(光学ビューファインダー)で被写体を見る場合にも本発明は適用可能である。本発明は撮像装置(カメラ)以外にも適用可能であり、3次元のコンピュータグラフィックなどを見る場合にも適用可能である。本発明は、視点を検出することのできる様々な電子機器に適用可能である。 For example, an example of viewing a subject with an EVF (electronic viewfinder) has been described, but the present invention can also be applied when viewing a subject with an OVF (optical viewfinder). The present invention can be applied to devices other than imaging devices (cameras), and can also be applied to viewing three-dimensional computer graphics. INDUSTRIAL APPLICABILITY The present invention is applicable to various electronic devices capable of detecting viewpoints.

<他の電子機器への適用例>
図13(A)は、ノート型パーソナルコンピュータ1310(ノートPC)の外観図である。図13(A)では、ノートPC1310の表示部1311を見るユーザーを撮像する撮像ユニット1315がノートPC1310に接続されており、ノートPC1310は
撮像ユニット1315から撮像結果を取得する。そして、ノートPC1310は、撮像結果に基づいてユーザーの視点を検出する。本発明は、ノートPC1310にも適用可能である。
<Examples of application to other electronic devices>
FIG. 13A is an external view of a notebook personal computer 1310 (notebook PC). In FIG. 13A , an imaging unit 1315 that captures an image of a user viewing a display unit 1311 of the notebook PC 1310 is connected to the notebook PC 1310 , and the notebook PC 1310 acquires imaging results from the imaging unit 1315 . Then, the notebook PC 1310 detects the user's viewpoint based on the imaging result. The present invention can also be applied to the notebook PC 1310 .

図13(B)は、スマートフォン1320の外観図である。図13(B)では、スマートフォン1320は、インカメラ1321(フロントカメラ)の撮像結果に基づいて、スマートフォン1320の表示部1322を見るユーザーの視点を検出する。本発明は、スマートフォン1320にも適用可能である。同様に、本発明は、種々のタブレット端末にも適用可能である。 FIG. 13B is an external view of the smartphone 1320. FIG. In FIG. 13B, the smartphone 1320 detects the viewpoint of the user viewing the display unit 1322 of the smartphone 1320 based on the imaging result of the in-camera 1321 (front camera). The present invention can also be applied to smart phones 1320 . Similarly, the present invention can be applied to various tablet terminals.

図13(C)は、ゲーム機1330の外観図である。図13(C)では、ゲームのVR(Virtual Reality)画像を表示部1336に表示するヘッドマウントディスプレイ1335(HMD)が、ゲーム機1330に接続されている。HMD1335は、HMD1335を装着したユーザーの眼を撮像するカメラ1337を有しており、ゲーム機1330は、HMD1335から撮像結果を取得する。そして、ゲーム機1330は、撮像結果に基づいてユーザーの視点を検出する。本発明は、ゲーム機1330にも適用可能である。ゲーム機1330の構成要素はHMD1335に内蔵されていてもよい。従って、本発明は、HMD1335にも適用可能である。HMDに表示したVR画像を見る場合に本発明が適用可能であるのと同様に、眼鏡型のウェアラブル端末のレンズ部分などに表示したAR(Augmented Reality)画像や、レンズ部分の先にある実物を見る場合にも本発明は適用可能である。VR技術やAR技術に本発明が適用可能であるのと同様に、MR(Mixed Reality)技術やSR(Substitutional Reality)技術などの別のxR技術にも本発明は適用可能である。 FIG. 13C is an external view of the game machine 1330. FIG. In FIG. 13C, a head-mounted display 1335 (HMD) that displays a VR (Virtual Reality) image of a game on a display unit 1336 is connected to the game machine 1330 . The HMD 1335 has a camera 1337 that captures the eyes of the user wearing the HMD 1335 , and the game machine 1330 acquires the captured result from the HMD 1335 . Then, the game machine 1330 detects the user's viewpoint based on the imaging result. The present invention is also applicable to the game machine 1330. FIG. Components of the game machine 1330 may be built into the HMD 1335 . Therefore, the present invention is also applicable to the HMD1335. In the same way that the present invention can be applied when viewing a VR image displayed on an HMD, an AR (Augmented Reality) image displayed on the lens portion of a glasses-type wearable terminal or the like, or a real object beyond the lens portion can be viewed. The present invention is also applicable to viewing. The present invention is applicable to other xR technologies such as MR (Mixed Reality) technology and SR (Substitutional Reality) technology in the same way that the present invention is applicable to VR technology and AR technology.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

1:カメラ 3:CPU 5:レリーズボタン
201:視線検出回路 202:画像処理回路
1: Camera 3: CPU 5: Release button 201: Line-of-sight detection circuit 202: Image processing circuit

Claims (20)

ユーザーが見ている位置である視線位置を検出する第1検出手段と、
物体を検出して、当該物体に関連した情報である物体情報を取得する第2検出手段と、
前記ユーザーから特定の操作を受け付け可能な受付手段と、
前記特定の操作に応答して、前記第1検出手段により検出された前記視線位置に基づいて、前記ユーザーが見ている物体を、対象物として選択する選択手段と、
前記特定の操作に応答して、前記選択手段により選択された前記対象物の物体情報を記憶部に記録する記録手段と
を有し、
前記選択手段は、前記特定の操作が行われていない場合に、前記記憶部が記憶している前記物体情報に基づいて、前記対象物を選択する
ことを特徴とする電子機器。
a first detection means for detecting a line-of-sight position, which is the position at which the user is looking;
a second detection means for detecting an object and acquiring object information, which is information related to the object;
a receiving means capable of receiving a specific operation from the user;
selection means for selecting an object viewed by the user as a target object based on the line-of-sight position detected by the first detection means in response to the specific operation;
recording means for recording the object information of the object selected by the selection means in a storage unit in response to the specific operation;
The electronic device, wherein the selection means selects the object based on the object information stored in the storage unit when the specific operation is not performed.
前記物体情報は、当該物体情報に関連した物体の種別を示す情報である
ことを特徴とする請求項1に記載の電子機器。
2. The electronic device according to claim 1, wherein the object information is information indicating a type of object related to the object information.
前記物体情報は、当該物体情報に関連した物体を識別するための情報である
ことを特徴とする請求項1に記載の電子機器。
2. The electronic device according to claim 1, wherein the object information is information for identifying an object related to the object information.
前記選択手段は、前記特定の操作が行われていない場合に、
前記記憶部が記憶している前記物体情報に基づいて、前記第2検出手段により検出された物体の優先度を、デフォルト値から変更し、
変更後の優先度が最も高い物体を、前記対象物として選択する
ことを特徴とする請求項1~3のいずれか1項に記載の電子機器。
The selection means, when the specific operation is not performed,
changing the priority of the object detected by the second detection means from a default value based on the object information stored in the storage unit;
4. The electronic device according to any one of claims 1 to 3, wherein an object having the highest priority after change is selected as the target object.
前記選択手段は、前記記憶部が記憶している物体情報の数が第1の数以上の物体の優先度を高くする
ことを特徴とする請求項4に記載の電子機器。
5. The electronic device according to claim 4, wherein the selection unit gives higher priority to objects whose number of pieces of object information stored in the storage unit is equal to or greater than a first number.
前記選択手段は、前記記憶部が記憶している物体情報の数が最も多い物体の優先度を高くする
ことを特徴とする請求項4または5に記載の電子機器。
6. The electronic device according to claim 4, wherein the selection means gives a higher priority to an object having the largest number of pieces of object information stored in the storage unit.
前記選択手段は、現在から第1の時間前までに前記記憶部に物体情報が記録された物体の優先度を高くする
ことを特徴とする請求項4~6のいずれか1項に記載の電子機器。
7. The electronic device according to any one of claims 4 to 6, wherein said selection means gives higher priority to an object whose object information has been recorded in said storage unit from the present to a first time ago. device.
前記選択手段は、前記記憶部に記録された時刻が現在に近い側から数えて所定順位以内の物体情報に関連した物体の優先度を高くする
ことを特徴とする請求項4~6のいずれか1項に記載の電子機器。
7. The selection means increases the priority of objects related to object information within a predetermined order counted from the side whose time recorded in the storage unit is closest to the present. 1. The electronic device according to item 1.
前記記憶部は、現在から第2の時間前までに記録された物体情報を記憶する
ことを特徴とする請求項4~8のいずれか1項に記載の電子機器。
9. The electronic device according to any one of claims 4 to 8, wherein the storage unit stores object information recorded from the present to a second time ago.
前記記憶部は、第2の数以下の物体情報を記憶する
ことを特徴とする請求項4~9のいずれか1項に記載の電子機器。
10. The electronic device according to any one of claims 4 to 9, wherein the storage unit stores a second number or less of object information.
撮像手段をさらに有し、
前記第2検出手段は、前記撮像手段により撮像された画像から物体を検出する
ことを特徴とする請求項4~10のいずれか1項に記載の電子機器。
further comprising imaging means;
The electronic device according to any one of claims 4 to 10, wherein said second detection means detects an object from the image captured by said imaging means.
前記選択手段は、前記画像の中央から第1の範囲内に存在する物体の優先度を高くすることを特徴とする請求項11に記載の電子機器。 12. The electronic device according to claim 11, wherein said selection means gives high priority to objects existing within a first range from the center of said image. 前記選択手段は、前記画像上でのサイズが所定サイズ以上の物体の優先度を高くする
ことを特徴とする請求項11または12に記載の電子機器。
13. The electronic device according to claim 11, wherein the selection means gives a higher priority to an object whose size on the image is equal to or larger than a predetermined size.
前記選択手段は、前記第1検出手段により検出された前記視線位置から第2の範囲内に存在する物体の優先度を高くする
ことを特徴とする請求項4~13のいずれか1項に記載の電子機器。
14. The method according to any one of claims 4 to 13, wherein said selection means gives high priority to objects existing within a second range from said line-of-sight position detected by said first detection means. electronics.
前記選択手段は、前記記憶部が記憶している前記物体情報に基づく前記優先度の変更を、前記第1検出手段により検出された前記視線位置から第2の範囲内に存在する物体に対して行う
ことを特徴とする請求項4~14のいずれか1項に記載の電子機器。
The selection means changes the priority based on the object information stored in the storage unit for an object existing within a second range from the line-of-sight position detected by the first detection means. 15. The electronic device according to any one of claims 4 to 14, characterized in that:
前記選択手段は、前記特定の操作が行われていない場合に、前記記憶部が物体情報を記憶している物体を、前記対象物として選択する
ことを特徴とする請求項1~15のいずれか1項に記載の電子機器。
16. The method according to any one of claims 1 to 15, wherein said selection means selects an object whose object information is stored in said storage unit as said target object when said specific operation is not performed. 1. The electronic device according to item 1.
ユーザーが見ている位置である視線位置を検出する第1検出手段と、
物体を検出する第2検出手段と、
前記ユーザーから特定の操作を受け付け可能な受付手段と、
前記特定の操作に応答して、前記第1検出手段により検出された前記視線位置に基づいて、前記ユーザーが見ている物体を、対象物として選択する選択手段と、
を有し、
前記選択手段は、
前記第2検出手段により第1の物体と第2の物体が検出される第1の状態で、前記特定の操作が行われる前に、前記第1の物体を前記対象物として選択し、
前記特定の操作に応答して、前記対象物を前記第2の物体に変更し、
前記第2検出手段により前記第1の物体も前記第2の物体も検出されない第2の状態への変更に応答して、前記第2の物体が前記対象物として選択された状態を解除する
という動作を所定回数以上行った後では、
前記第1の状態で、前記特定の操作が行われる前に、前記第2の物体を前記対象物として選択する
ことを特徴とする電子機器。
a first detection means for detecting a line-of-sight position, which is the position at which the user is looking;
a second detection means for detecting an object;
a receiving means capable of receiving a specific operation from the user;
selection means for selecting an object viewed by the user as a target object based on the line-of-sight position detected by the first detection means in response to the specific operation;
has
The selection means is
selecting the first object as the target object before the specific operation is performed in a first state in which the first object and the second object are detected by the second detection means;
changing the object to the second object in response to the specific operation;
canceling the state in which the second object is selected as the object in response to a change to a second state in which neither the first object nor the second object is detected by the second detection means; After performing the operation more than a predetermined number of times,
An electronic device, wherein in the first state, the second object is selected as the target object before the specific operation is performed.
ユーザーが見ている位置である視線位置を検出する第1検出ステップと、
物体を検出して、当該物体に関連した情報である物体情報を取得する第2検出ステップと、
前記ユーザーから特定の操作を受け付ける受付ステップと、
前記特定の操作に応答して、前記第1検出ステップにおいて検出された前記視線位置に基づいて、前記ユーザーが見ている物体を、対象物として選択する選択ステップと、
前記特定の操作に応答して、前記選択ステップにおいて選択された前記対象物の物体情報を記憶部に記録する記録ステップと
を有し、
前記選択ステップでは、前記特定の操作が行われていない場合に、前記記憶部が記憶している前記物体情報に基づいて、前記対象物を選択する
ことを特徴とする電子機器の制御方法。
a first detection step of detecting the line-of-sight position, which is the position where the user is looking;
a second detection step of detecting an object and acquiring object information that is information related to the object;
a receiving step of receiving a specific operation from the user;
a selection step of selecting an object viewed by the user as a target object based on the line-of-sight position detected in the first detection step in response to the specific operation;
a recording step of recording the object information of the target selected in the selection step in a storage unit in response to the specific operation;
A control method for an electronic device, wherein, in the selecting step, the target object is selected based on the object information stored in the storage unit when the specific operation is not performed.
コンピュータを、請求項1~17のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 17. コンピュータを、請求項1~17のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 17.
JP2021197533A 2021-12-06 2021-12-06 Electronic apparatus Pending JP2023083695A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021197533A JP2023083695A (en) 2021-12-06 2021-12-06 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021197533A JP2023083695A (en) 2021-12-06 2021-12-06 Electronic apparatus

Publications (1)

Publication Number Publication Date
JP2023083695A true JP2023083695A (en) 2023-06-16

Family

ID=86731854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021197533A Pending JP2023083695A (en) 2021-12-06 2021-12-06 Electronic apparatus

Country Status (1)

Country Link
JP (1) JP2023083695A (en)

Similar Documents

Publication Publication Date Title
JP7358530B2 (en) Object recognition device and method of controlling the object recognition device
US20210034151A1 (en) Electronic device, control method, and non-transitory computer readable medium
US20210243361A1 (en) Image processing apparatus, image pickup apparatus, and control method of image processing apparatus
JP2024003037A (en) Electronic apparatus, method for controlling electronic apparatus, program, and storage medium
US20230013134A1 (en) Electronic device
JP2023083695A (en) Electronic apparatus
JP2021125867A (en) Image processing device, imaging device, control method of image processing device, and program
CN113676623A (en) Electronic device and control method thereof
JP2024003432A (en) Electronic device
JP7446898B2 (en) Electronics
WO2022230783A1 (en) Recording device, imaging device, control method, and recording system
JP2023063023A (en) Electronic device and control method for the same
JP7358130B2 (en) Electronic equipment and its control method
US20230186520A1 (en) Gaze detection apparatus
US20230148300A1 (en) Electronic device, method of controlling the same, and storage medium
JP2022183552A (en) Visual line information acquisition device, imaging device, visual line information acquisition method, program, and storage medium
US20230142934A1 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
JP2023045131A (en) Detection device, control method and program
JP2022096819A (en) Sight line detection device
JP2023178092A (en) Information processing apparatus, imaging apparatus, information processing method, and method for controlling imaging apparatus
JP2023003735A (en) Line-of-sight detection apparatus, imaging apparatus, line-of-sight detection method, program, and storage medium
JP2022165239A (en) Imaging apparatus and control method for the same, and program
JP2023063760A (en) identification device
JP2022171084A (en) Imaging device, control method of the same and program
JP2021182736A (en) Electronic apparatus