JP7424521B2 - 電子機器、及びプログラム - Google Patents
電子機器、及びプログラム Download PDFInfo
- Publication number
- JP7424521B2 JP7424521B2 JP2023003097A JP2023003097A JP7424521B2 JP 7424521 B2 JP7424521 B2 JP 7424521B2 JP 2023003097 A JP2023003097 A JP 2023003097A JP 2023003097 A JP2023003097 A JP 2023003097A JP 7424521 B2 JP7424521 B2 JP 7424521B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- eye
- display
- image
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000001508 eye Anatomy 0.000 claims description 422
- 238000001514 detection method Methods 0.000 claims description 50
- 238000003384 imaging method Methods 0.000 claims description 26
- 238000012545 processing Methods 0.000 description 67
- 238000010586 diagram Methods 0.000 description 32
- 238000000034 method Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 19
- 210000000887 face Anatomy 0.000 description 17
- 230000008569 process Effects 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 12
- 210000003128 head Anatomy 0.000 description 11
- 238000012986 modification Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 7
- 230000007423 decrease Effects 0.000 description 6
- 238000009825 accumulation Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 230000002542 deteriorative effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 241000542420 Sphyrna tudes Species 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/18—Signals indicating condition of a camera member or suitability of light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Description
本発明は、電子機器、及びプログラムに関する。
被写体の顔を検出し、さらに顔の目を検出して、目にピントを合わせるように制御するカメラが知られている(特許文献1参照)。従来から合焦精度の向上が求められている。
本発明の第1の態様によると、電子機器は、画像を表示する表示部と、前記画像から眼及び顔を検出する検出部と、前記表示部への表示を制御する制御部とを備え、前記制御部は、前記画像に含まれる第1の眼に第1表示を重畳して表示し、前記第1の眼とは異なる第2の眼と、前記第1の眼を有する第1の顔と異なる第2の顔との少なくとも一方が前記画像に含まれている場合、前記第1表示と異なる形状の第2表示を前記画像に重畳して表示する。
また、本発明の第2の態様によると、プログラムは、コンピュータに、画像を表示させることと、前記画像から眼及び顔を検出させることと、前記画像に含まれる第1の眼に第1表示を重畳して表示し、前記第1の眼とは異なる第2の眼と、前記第1の眼を有する第1の顔と異なる第2の顔との少なくとも一方が前記画像に含まれている場合、前記第1表示とは異なる形状の第2表示を前記画像に重畳して表示させることと、を実行させるためのプログラムである。
また、本発明の第2の態様によると、プログラムは、コンピュータに、画像を表示させることと、前記画像から眼及び顔を検出させることと、前記画像に含まれる第1の眼に第1表示を重畳して表示し、前記第1の眼とは異なる第2の眼と、前記第1の眼を有する第1の顔と異なる第2の顔との少なくとも一方が前記画像に含まれている場合、前記第1表示とは異なる形状の第2表示を前記画像に重畳して表示させることと、を実行させるためのプログラムである。
以下、図面を参照して発明を実施するための形態について説明する。
(第1の実施の形態)
図1は、発明の第1の実施形態によるカメラシステム1の要部構成を説明する模式図である。カメラシステム1は、カメラボディ2に着脱可能な撮影レンズ(交換レンズ3と称する)を装着した例を説明するが、カメラボディ2と撮影レンズを一体に構成したカメラとしても構わない。
なお、図1において交換レンズ3の光軸Oと交差する面内の水平方向をX軸とし、鉛直方向をY軸とする。
(第1の実施の形態)
図1は、発明の第1の実施形態によるカメラシステム1の要部構成を説明する模式図である。カメラシステム1は、カメラボディ2に着脱可能な撮影レンズ(交換レンズ3と称する)を装着した例を説明するが、カメラボディ2と撮影レンズを一体に構成したカメラとしても構わない。
なお、図1において交換レンズ3の光軸Oと交差する面内の水平方向をX軸とし、鉛直方向をY軸とする。
<カメラボディ>
カメラボディ2は、ボディ側制御部230、ボディ側通信部240、姿勢センサ250、撮像素子260、信号処理部270、操作部材280、および表示部290を有する。ボディ側制御部230は、ボディ側通信部240、姿勢センサ250、撮像素子260、信号処理部270、操作部材280および表示部290と接続される。
カメラボディ2は、ボディ側制御部230、ボディ側通信部240、姿勢センサ250、撮像素子260、信号処理部270、操作部材280、および表示部290を有する。ボディ側制御部230は、ボディ側通信部240、姿勢センサ250、撮像素子260、信号処理部270、操作部材280および表示部290と接続される。
ボディ側制御部230は、マイクロコンピュータおよびその周辺回路等から構成される。ボディ側制御部230は、ボディ側制御部230が実行する制御プログラム等を記憶する記憶部235、焦点検出を行う焦点検出部230a、眼・顔を検出する眼・顔検出部230b、表示制御部230c、表示範囲を選択する表示範囲選択部230d、焦点検出範囲を選択する焦点検出範囲選択部230e、表示範囲選択部230dと焦点検出範囲選択部230eを有する選択部230fを含む。ボディ側制御部230は、記憶部235に記憶されている制御プログラムを実行してカメラボディ2内の各部を制御する。記憶部235は、ボディ側制御部230によってデータの記録と読み出しが制御される。
ボディ側通信部240は、交換レンズ3のレンズ側通信部340との間で所定の通信を行う。ボディ側通信部240は、ボディ側制御部230と接続される。姿勢センサ250は、カメラシステム1が横位置に構えられているか、あるいは縦位置に構えられているかを示す角度情報を検出し、検出信号をボディ側制御部230へ送出する。カメラシステム1は、図1のX軸方向に長い横長画面を撮影する場合に横位置(撮像素子260の撮像面260Sの長辺が水平方向になるカメラの位置)に構えられ、Y軸方向に長い縦長画面を撮影する場合に縦位置(撮像素子260の撮像面260Sの長辺が垂直方向になるカメラの位置)に構えられる。
交換レンズ3を透過した被写体からの光は、撮像素子260の撮像面260Sに導かれる。撮像素子260は、例えばCMOSイメージセンサやCCDイメージセンサ等の固体撮像素子である。撮像素子260は、ボディ側制御部230からの制御信号により、撮像面260Sに形成される被写体像を撮像して信号を出力する。撮像素子260は、動画撮影と静止画撮影とが可能である。動画撮影には、動画を記録する他、表示部290で連続的にモニタ用の画像を表示させるための、いわゆるスルー画(ライブビュー画像とも称される)の撮影も含むものとする。
撮像素子260は、画像生成用の光電変換部と焦点検出用の光電変換部を有する。画像生成用の光電変換部で生成された電荷に基づく撮像用画素信号は、信号処理部270の画像信号処理部270aによって画像データの生成に用いられる。また、焦点検出用の光電変換部で生成された電荷に基づく焦点検出用画素信号は、信号処理部270のAF信号処理部270bによって交換レンズ3によって形成される被写体像の合焦状態、換言すると交換レンズ3によって形成される被写体像の位置と撮像面260Sの位置とのずれを検出する焦点検出処理に用いられる。
撮像素子260は、信号処理部270、ボディ側制御部230と接続される。
撮像素子260は、信号処理部270、ボディ側制御部230と接続される。
信号処理部270は、画像信号処理部270aおよびAF信号処理部270bを含む。画像信号処理部270aは、撮像素子260から出力された撮像用画素信号に対して所定の画像処理を行って画像データを生成する。生成された画像データは、不図示の記憶媒体(メモリーカード等)に所定のファイル形式で記録されたり、撮影前のライブビュー画像の表示や撮影後の確認画像の表示に用いられたりする。
また、AF信号処理部270bは、撮像素子260から出力された焦点検出用画素信号を用いて、位相差検出方式の焦点検出処理を行ってデフォーカス量(交換レンズ3の結像位置と撮像面260Sとのずれ量)を算出する。焦点検出処理は、コントラスト方式を採用しても構わない。
信号処理部270は、ボディ側制御部230、撮像素子260、および表示部290と接続される。
信号処理部270は、ボディ側制御部230、撮像素子260、および表示部290と接続される。
レリーズボタンや操作スイッチ等を含む操作部材280は、カメラボディ2の外装面に設けられる。操作部材280は、ユーザの操作に応じた操作信号をボディ側制御部230へ送出する。ユーザは、操作部材280を操作することにより、撮影指示や撮影条件の設定指示等を行う。また、ユーザは、操作部材280によって、後述する「AFエリアモード」の切替えを指示することができる。
表示部290は、有機EL表示パネルや液晶表示パネルによって構成される。表示部290は、ボディ側制御部230からの制御信号により、画像信号処理部270aによって処理された画像データに基づく画像や、操作メニュー画面等を表示する。また、表示部290にタッチパネルを備え、操作部材280の一部としてのタッチ操作部材290Aを構成しても良い。表示部290は、ボディ側制御部230と接続される。
<交換レンズ>
交換レンズ3は、レンズ側制御部330、レンズ側通信部340、撮影光学系360、レンズ駆動部370、および絞り駆動部380を有する。レンズ側制御部330は、レンズ側通信部340、レンズ駆動部370、絞り駆動部380と接続される。
交換レンズ3は、レンズ側制御部330、レンズ側通信部340、撮影光学系360、レンズ駆動部370、および絞り駆動部380を有する。レンズ側制御部330は、レンズ側通信部340、レンズ駆動部370、絞り駆動部380と接続される。
レンズ側制御部330は、マイクロコンピュータおよびその周辺回路等から構成される。レンズ側制御部330は、内部に記憶されている制御プログラムを実行し、自動焦点調節制御など、交換レンズ3の各部を制御する。
レンズ側通信部340は、ボディ側通信部240との間で所定の通信を行う。レンズ側通信部340とボディ側通信部240との間で行われる通信により、後述する撮影光学系360などを移動させる指示等が、カメラボディ2から交換レンズ3へ送信される。また、レンズ側通信部340とボディ側通信部240との間で行われる通信により、撮影光学系360の駆動状態などの情報が交換レンズ3からカメラボディ2へ送信される。
撮影光学系360は、複数のレンズと絞り部材362とを含み、カメラボディ2の撮像素子260の撮像面260Sに被写体光を導く。上記複数のレンズには、フォーカスレンズ361が含まれる。
例えばフォーカスレンズ361は、レンズ駆動部370により、光軸O方向に移動が可能に構成されている。フォーカスレンズ361が移動することにより、撮影光学系360により形成される被写体像の位置が変更される。これによりAF動作(合焦)が行われる。
例えばフォーカスレンズ361は、レンズ駆動部370により、光軸O方向に移動が可能に構成されている。フォーカスレンズ361が移動することにより、撮影光学系360により形成される被写体像の位置が変更される。これによりAF動作(合焦)が行われる。
絞り362は、撮像素子260に入射する光量を調節する。絞り362は、絞り駆動部380や手動操作により、絞り羽根が駆動され開口径(絞り値)を変化させることが可能に構成されている。
フォーカスレンズ361の移動方向や移動量、移動速度などの駆動指示は、ボディ側制御部230から指示する。または、ボディ側制御部230からの情報に基づいてレンズ側制御部330から指示することとしてもよい。
カメラボディ2は、交換レンズ3との通信により、例えば、フォーカスレンズの駆動指示であるフォーカスレンズ駆動信号、絞り駆動信号、カメラボディ2の情報(撮像モード情報、ISO感度情報等)などを、交換レンズ3へ送る。交換レンズ3は、カメラボディ2からの駆動信号に応じて、レンズ駆動部370により、フォーカスレンズ361を駆動する。
一方、交換レンズ3は、カメラボディ2との通信により、例えば、撮影光学系360の光学特性の情報、フォーカスレンズ361の位置情報、絞り362の開口径の情報などを、カメラボディ2へ送信する。
<カメラ動作の一例>
まず、上記カメラシステム1によるカメラ動作の一例を説明する。
図2は、ボディ側制御部230が実行する処理の流れを例示するフローチャートである。ボディ側制御部230は、例えば、メインスイッチのオン操作に伴う起動時、または、操作部材280を構成するスイッチ等の操作によりスリープ動作の解除時に、図2のフローチャートによる処理を開始させる。スリープ動作は、無操作状態が所定の時間続いた場合に省電力状態へ移行する動作をいう。スリープ動作の解除(通常状態への復帰)は、例えばレリーズボタンに対する半押し操作によって行うことができる。
まず、上記カメラシステム1によるカメラ動作の一例を説明する。
図2は、ボディ側制御部230が実行する処理の流れを例示するフローチャートである。ボディ側制御部230は、例えば、メインスイッチのオン操作に伴う起動時、または、操作部材280を構成するスイッチ等の操作によりスリープ動作の解除時に、図2のフローチャートによる処理を開始させる。スリープ動作は、無操作状態が所定の時間続いた場合に省電力状態へ移行する動作をいう。スリープ動作の解除(通常状態への復帰)は、例えばレリーズボタンに対する半押し操作によって行うことができる。
ステップS10において、ボディ側制御部230は、ライブビュー画像のための露出設定を行い、撮像素子260に対する蓄積制御(露光制御)を行う。起動後1枚目の撮像の露出設定は予め定めた初期値に制御し、撮像素子260に対する蓄積制御を行う。
ステップS20において、ボディ側制御部230は、撮像素子260から信号処理部270へ信号を読み出させてステップS30へ進む。ボディ側制御部230は、ステップS30において露出演算を行うことにより、各制御値を算出する。すなわち、ボディ側制御部230は、信号処理部270に入力された撮像用画素信号に基づいて被写体の明るさ情報(Bv値)を検出し、Bv値と、記憶部235に格納されているプログラム線図の情報とに基づいて、絞り値(Av値)、シャッタ速度(Tv値)、および感度(Sv値)を決定する。算出した各制御値は、記憶部235に記憶させておく。
ステップS40において、ボディ側制御部230は、絞り362を決定した絞り値に設定してライブビュー表示を行う。ボディ側制御部230は、画像信号処理部270aに対し、撮像素子260から出力された撮像用画素信号を用いてライブビュー画像を生成させ、生成されたライブビュー画像を表示部290に表示させる。
ステップS45において、ボディ側制御部230は、AF信号処理部270bにAF演算を行わせる。これにより、AF信号処理部270bが撮像素子260から出力された焦点検出用画素信号を用いてデフォーカス量を算出する。
ステップS50において、ボディ側制御部230はレリーズボタンが半押し操作されたか否かを判定する。ボディ側制御部230は、レリーズボタンが半押し操作された場合にステップS50を肯定判定してステップS60へ進み、半押し操作されない場合にはステップS10へ戻る。
ステップS60において、ボディ側制御部230はAF駆動指示を行う。ボディ側制御部230は、ステップS45において算出されたデフォーカス量に基づき、交換レンズ3のフォーカスレンズ361を光軸Oの方向に沿って移動させる。すなわち、レンズ側制御部330からレンズ駆動部370へフォーカスレンズ361の駆動指示を行わせ、合焦駆動動作を行わせる。その後、ボディ側制御部230はステップS70へ進む。
ステップS70において、ボディ側制御部230はレリーズボタンが全押し操作されたか否かを判定する。ボディ側制御部230は、レリーズボタンが全押し操作された場合にステップS70を肯定判定してステップS80へ進み、全押し操作されない場合にはステップS70を否定判定してステップS10へ戻る。
ステップS10へ戻ったボディ側制御部230は、再びステップS10以降の処理を行う。ライブビュー画像の2コマ目以降の露出設定は、記憶部235に記憶されている絞り値と、記憶部235に記憶されているシャッタ速度(Tv値)および感度(Sv値)とを用いる。
レリーズボタンが全押し操作された場合に進む(ステップS70を肯定判定)ステップS80において、ボディ側制御部230は、記録用の画像を撮像するための蓄積動作を行わせる。その際に、絞り362を記憶部235に記憶されている絞り値(Av値)に設定し、記憶部235に記憶されているシャッタ速度(Tv値)で撮像素子260の蓄積制御を行い、記憶部235に記憶されている感度(Sv値)を用いて処理を行う。
ステップS90において、ボディ側制御部230は、撮像素子260から信号処理部270へ信号を読み出してステップS100へ進む。ステップS100において、ボディ側制御部230は、画像信号処理部270aに対し、撮像素子260から出力された撮像用画素信号に所定の画像処理を行わせ、記録用の画像を生成させる。これにより、画像信号処理部270aが所定の画像処理を行って記録用の画像を生成する。
ステップS110において、ボディ側制御部230は画像表示を行う。すなわち、ボディ側制御部230は、ステップS100において画像信号処理部270aで処理された画像を確認画像として表示部290に表示させる。
ステップS120において、ボディ側制御部230は、画像信号処理部270aで処理された画像のファイルを記憶部235に記録させる。
ステップS120において、ボディ側制御部230は、画像信号処理部270aで処理された画像のファイルを記憶部235に記録させる。
ステップS130において、ボディ側制御部230は終了するか否かを判定する。ボディ側制御部230は、例えばメインスイッチがオフ操作された場合やスリープ動作に移行する場合に、ステップS130を肯定判定して図2による処理を終了する。ボディ側制御部230は、図2による処理を終了しないでカメラ動作を継続する場合にはステップS130を否定判定してステップS10へ戻る。
なお、表示処理(S110)と記録処理(S120)は、処理の順番を入れ替えてもよいし、並行して行ってもよい。
また、図2の例では、ライブビュー表示(S40)がなされた後のAF演算(S45)でデフォーカス量の算出を行っているが、露出演算(S30)と並行してデフォーカス量を算出しておき、ステップS50で半押し操作がなされた後にステップS60でフォーカスレンズ361の駆動指示を行ってもよい。
さらにまた、ライブビュー画像の各コマが取得されるごとに、露出演算(S30)と並行してデフォーカス量の算出とフォーカスレンズ361の駆動指示とを行う構成にしても良い。
また、図2の例では、ライブビュー表示(S40)がなされた後のAF演算(S45)でデフォーカス量の算出を行っているが、露出演算(S30)と並行してデフォーカス量を算出しておき、ステップS50で半押し操作がなされた後にステップS60でフォーカスレンズ361の駆動指示を行ってもよい。
さらにまた、ライブビュー画像の各コマが取得されるごとに、露出演算(S30)と並行してデフォーカス量の算出とフォーカスレンズ361の駆動指示とを行う構成にしても良い。
<フォーカスポイント>
AF動作(S60)において焦点検出処理に用いるフォーカスポイントについて説明する。
図3は、カメラボディ2の撮像素子260によって撮像される撮影範囲50を例示する図である。撮影範囲50には、予め複数(例えば135点)のフォーカスポイントPが設けられており、図3においてフォーカスポイントPが撮像画像とともに示されている。
フォーカスポイントPは、撮影範囲50においてピント合わせが可能な位置を示し、焦点検出エリア、焦点検出位置、測距点とも称される。
なお、図示したフォーカスポイントPの数と撮影範囲50における位置は一例に過ぎず、図3の態様に限定されるものではない。
AF動作(S60)において焦点検出処理に用いるフォーカスポイントについて説明する。
図3は、カメラボディ2の撮像素子260によって撮像される撮影範囲50を例示する図である。撮影範囲50には、予め複数(例えば135点)のフォーカスポイントPが設けられており、図3においてフォーカスポイントPが撮像画像とともに示されている。
フォーカスポイントPは、撮影範囲50においてピント合わせが可能な位置を示し、焦点検出エリア、焦点検出位置、測距点とも称される。
なお、図示したフォーカスポイントPの数と撮影範囲50における位置は一例に過ぎず、図3の態様に限定されるものではない。
焦点検出部230aはAF信号処理部270bからの信号を用いて、交換レンズ3を通過した光束により形成された被写体の像の位置と、カメラボディ2の撮像素子260の撮像面260Sの位置とのずれ量であるデフォーカス量(ピントずれ量)を算出する。交換レンズ3の異なる領域を通過する一対の光束による被写体像の像ずれ量(位相差)をフォーカスポイントPごとに検出し、フォーカスポイントPごとにデフォーカス量を算出することができる。そして、ボディ側制御部230は、複数のフォーカスポイントPの中から選んだフォーカスポイントPで算出されたデフォーカス量を基にフォオーカスレンズ361の駆動量を算出し、交換レンズ3にフォーカスレンズ361のレンズ駆動信号を送信する。交換レンズ3は、駆動信号に従ってフォーカスレンズ361を移動させることで、複数のフォーカスポイントPの中から選んだフォーカスポイントPに対応する領域に存在する被写体の像の位置を、撮像素子260の撮像面260Sの位置に合わせることができる。
ボディ側制御部230は、全てのフォーカスポイントPの中からデフォーカス量の算出に用いる(換言すると、ピント合わせに用いる)フォーカスポイントPを自動で選ぶことも、ユーザの操作によって指示されたフォーカスポイントPを選ぶことも可能である。全てのフォーカスポイントPの中からデフォーカス量の算出に用いるフォーカスポイントPを選ぶ選び方の総称を「AFエリアモード」と称する。
「AFエリアモード」には、例えば、ユーザの操作によって選ばれた一つのフォーカスポイントPだけを用いてデフォーカス量を算出する「シングルポイントAF」、シングルポイントAFよりも広い範囲の複数のフォーカスポイントPを用いてデフォーカス量を算出する「ワイドエリアAF」、全てのフォーカスポイントPが配置されている範囲から被写体をカメラが検出して、その被写体の範囲に位置するフォーカスポイントPを用いてデフォーカス量を算出する「オートエリアAF」などが含まれる。「AFエリアモード」の切替えは、例えば、操作メニュー画面の中からユーザ操作によって選ぶことができる。
図3の例は、「AFエリアモード」のうちの「オートエリアAF」に切替えられたボディ側制御部230が、全てのフォーカスポイントPが配置されている範囲からカメラシステム1に近い被写体(人物)を検出して、人物の頭部の範囲に位置する9つのフォーカスポイントPaを選んだ状態を示す。この場合のAF信号処理部270bは、9つのフォーカスポイントPaごとにそれぞれのデフォーカス量を算出することができる。
AF信号処理部270bが複数のフォーカスポイントPaごとにそれぞれのデフォーカス量を算出する場合、ボディ側制御部230は、複数のフォーカスポイントPaのうち、例えばカメラシステム1に一番近い(至近)、または、焦点検出用画素信号のコントラストが一番高いフォーカスポイントを一つ選択することができる。そして、ボディ側制御部230は、人物のうちの選択したフォーカスポイントに対応する部分にピントを合わせるように交換レンズ3にフォーカスレンズ361の駆動信号を送信する。
フォーカスポイントを一つ選択する場合、ボディ側制御部230は、フォーカスレンズ361が駆動され、ピントが合った一つのフォーカスポイントPaを示す表示(AF枠)を、表示部290に表示されているライブビュー画像に重ねて表示させる。
なお、ボディ側制御部230は、頭部に位置する9つのフォーカスポイントPaのそれぞれのデフォーカス量を考慮して、頭部全体にピントを合わせる(被写界深度に含める)ようにAF動作を行うこともできる。例えば9つのデフォーカス量の平均値を算出して、算出した平均値のデフォーカス量でフォーカスレンズ361を駆動(AF動作)させても良いし、9つのデフォーカス量ができるだけ被写界深度に入るように加重平均を算出してAF動作を行っても良い。
9つのフォーカスポイントPaを用いる場合、ボディ側制御部230は、AF動作(S60)において、ピントが合った9つのフォーカスポイントPaをそれぞれ示す表示(AF枠)を、表示部290に表示されているライブビュー画像に重ねて表示させる。
<顔検出と眼検出>
本実施の形態では、画像データから被写体の顔を検出する機能と、検出した顔の眼を検出する機能とを備える。そして、顔と眼の双方の検出機能を有効にする第1設定と、顔の検出機能を有効にして眼の検出機能を無効にする第2設定と、顔と眼の双方の検出機能を無効にする第3設定とのうちいずれか一つを、「オートエリアAF」に切替えられている場合において選ぶことができる。第1設定、第2設定、第3設定の選択は、例えば、操作メニュー画面の中からユーザ操作によって選ばれる。顔の検出機能を無効にして眼の検出機能を有効にする設定を備えても良い。
なお本実施の形態では眼を検出する例を説明するが、同様に虹彩、瞳孔(瞳)を検出することにしても構わない。また、検出する眼は人の眼に限らずペットなどの動物の眼でも構わない。さらに、目に限らず顔やものの特徴部分でも構わない。
本実施の形態では、画像データから被写体の顔を検出する機能と、検出した顔の眼を検出する機能とを備える。そして、顔と眼の双方の検出機能を有効にする第1設定と、顔の検出機能を有効にして眼の検出機能を無効にする第2設定と、顔と眼の双方の検出機能を無効にする第3設定とのうちいずれか一つを、「オートエリアAF」に切替えられている場合において選ぶことができる。第1設定、第2設定、第3設定の選択は、例えば、操作メニュー画面の中からユーザ操作によって選ばれる。顔の検出機能を無効にして眼の検出機能を有効にする設定を備えても良い。
なお本実施の形態では眼を検出する例を説明するが、同様に虹彩、瞳孔(瞳)を検出することにしても構わない。また、検出する眼は人の眼に限らずペットなどの動物の眼でも構わない。さらに、目に限らず顔やものの特徴部分でも構わない。
「オートエリアAF」のAF動作として例示した上記の説明は、第3設定が選択されている場合のAF動作である。そのため、第1設定が選択されている場合のAF動作と、第2設定が選択されている場合のAF動作とを以下に説明する。
<第1設定>
顔と眼の双方の検出機能を有効にする第1設定の場合、ボディ側制御部230は、図4(a)に例示するように、検出した眼を示す表示枠41(AF枠)を表示部290に表示されているライブビュー画像に重ねて表示させる。本実施の形態では、検出した眼を示す表示枠41として、白目部分を含む眼の輪郭を囲む枠を例示するが、白目を含まない虹彩や瞳孔(瞳)を囲む枠としてもよい。
ボディ側制御部230は、表示部290のライブビュー画像を拡大表示する場合、眼が検出されていたら検出した眼の位置を中心に拡大を行う。
顔と眼の双方の検出機能を有効にする第1設定の場合、ボディ側制御部230は、図4(a)に例示するように、検出した眼を示す表示枠41(AF枠)を表示部290に表示されているライブビュー画像に重ねて表示させる。本実施の形態では、検出した眼を示す表示枠41として、白目部分を含む眼の輪郭を囲む枠を例示するが、白目を含まない虹彩や瞳孔(瞳)を囲む枠としてもよい。
ボディ側制御部230は、表示部290のライブビュー画像を拡大表示する場合、眼が検出されていたら検出した眼の位置を中心に拡大を行う。
ボディ側制御部230は、左右の眼を検出した場合に、左右の眼の大きさに基づき、例えば大きい方の眼を一つ選択することができる。図4(a)は、大きいと判断された右側の眼に表示枠41が表示された例である。AF信号処理部270bは、表示枠41に対応するフォーカスポイントPごとにそれぞれのデフォーカス量を算出することができる。ボディ側制御部230は、複数のフォーカスポイントPのうち、例えばカメラシステム1に一番近い(至近)、または、コントラストが一番高いフォーカスポイントを一つ選択することができる。そして、ボディ側制御部230は、表示枠41のうちの選択したフォーカスポイントPに対応する部分にピントを合わせるようにAF動作を行う。
なお、ボディ側制御部230は、表示枠41に対応する複数のフォーカスポイントPのそれぞれのデフォーカス量を考慮して、表示枠41で示す眼全体にピントを合わせる(被写界深度に含める)ようにAF動作を行うこともできる。
また、ボディ側制御部230は、左右の眼を検出した場合に、例えば予め定めた一方の眼を一つ選択することもできる。
また、ボディ側制御部230は、左右の眼を検出した場合に、例えば予め定めた一方の眼を一つ選択することもできる。
<第2設定>
顔の検出機能を有効にして眼の検出機能を無効にする第2設定の場合、ボディ側制御部230は、図4(b)に例示するように、検出した顔を示す表示枠42(AF枠)を表示部290に表示されているライブビュー画像に重ねて表示させる。本実施の形態では、検出した顔を示す表示枠42として、眉を含む額の少なくとも一部、両頬をそれぞれ少なくとも一部、および唇の下の少なくとも一部を囲む枠を例示するが、枠内に顔以外の背景を含まないのであれば、枠のサイズを適宜変更して構わない。例えば、検出した顔の輪郭のX軸方向(水平方向)の長さの0.8倍と、検出した顔の輪郭のY軸方向(鉛直方向)の長さの0.8倍とで枠のサイズを定めると、枠内に顔以外の背景が含まれにくくなって好適である。
顔の検出機能を有効にして眼の検出機能を無効にする第2設定の場合、ボディ側制御部230は、図4(b)に例示するように、検出した顔を示す表示枠42(AF枠)を表示部290に表示されているライブビュー画像に重ねて表示させる。本実施の形態では、検出した顔を示す表示枠42として、眉を含む額の少なくとも一部、両頬をそれぞれ少なくとも一部、および唇の下の少なくとも一部を囲む枠を例示するが、枠内に顔以外の背景を含まないのであれば、枠のサイズを適宜変更して構わない。例えば、検出した顔の輪郭のX軸方向(水平方向)の長さの0.8倍と、検出した顔の輪郭のY軸方向(鉛直方向)の長さの0.8倍とで枠のサイズを定めると、枠内に顔以外の背景が含まれにくくなって好適である。
AF信号処理部270bは、表示枠42に対応するフォーカスポイントPごとにそれぞれのデフォーカス量を算出することができる。ボディ側制御部230は、複数のフォーカスポイントPのうち、例えばカメラシステム1に一番近い(至近)、または、前記焦点検用画素信号のコントラストが一番高いフォーカスポイントPを一つ選択することができる。そして、ボディ側制御部230は、表示枠42のうちの選択したフォーカスポイントPに対応する部分にピントを合わせるようにAF動作を行う。
なお、ボディ側制御部230は、表示枠42に対応する複数のフォーカスポイントPのそれぞれのデフォーカス量を考慮して、表示枠42で示す顔全体にピントを合わせる(被写界深度に含める)ようにAF動作を行うこともできる。
また、第1設定において顔を検出したものの、その顔において眼が検出されなかった場合、ボディ側制御部230は、第2設定の場合と同様に、検出した顔を示す表示枠42を表示部290に表示されているライブビュー画像に重ねて表示させる(図4(b))。AF信号処理部270bは、第2設定の場合と同様に、表示枠42に対応するフォーカスポイントPに基づいてデフォーカス量を算出するものとする。
上記第1設定では、まず顔を検出し、続いて検出した顔の眼を検出する。もし、顔を検出した時点で表示枠42を表示すると、眼を検出した時点で表示中の表示枠42に代えて表示枠41を表示させることになり、ユーザの使用感を損ねることも想定される。そのため、本実施の形態では、初めての顔を検出する場合において、検出した顔に眼を検出できたか否かにより、表示枠41を表示するか、表示枠42を表示するかを決定する。このように構成することにより、検出した顔に眼が検出されれば表示枠41を表示し(図4(a))、検出した顔に眼が検出されなければ表示枠42を表示させる(図4(b))ことができる。
<複数の眼または顔が検出された場合>
図5は、複数の眼または顔が検出される場合を説明する図である。第1設定および第2設定において、ボディ側制御部230によって選ばれた眼や顔でない他の眼や顔にユーザがピント合わせを所望する場合が想定される。そのため、ボディ側制御部230は、ライブビュー画像に表示した表示枠51(AF枠)に対応する眼や顔以外の眼や顔を検出したことをユーザに知らせる表示52、53(三角印)を、表示部290に表示されているライブビュー画像に重ねて表示させる。
図5は、複数の眼または顔が検出される場合を説明する図である。第1設定および第2設定において、ボディ側制御部230によって選ばれた眼や顔でない他の眼や顔にユーザがピント合わせを所望する場合が想定される。そのため、ボディ側制御部230は、ライブビュー画像に表示した表示枠51(AF枠)に対応する眼や顔以外の眼や顔を検出したことをユーザに知らせる表示52、53(三角印)を、表示部290に表示されているライブビュー画像に重ねて表示させる。
例えば第1設定の場合において、ボディ側制御部230は、図5に例示したライブビュー画像に含まれた3つの顔55、顔56、顔57を検出し、画面の中央に最も近い位置の顔55を選び、顔55の左右の眼を検出し、大きいと判断した、向かって左側の眼(以下、左側の眼と言う)を選んで左側の眼を示す表示枠51を表示部290に表示させたものとする。
ボディ側制御部230は、左側の眼を選んだ場合、ボディ側制御部230が左側の眼を選択したことを示す情報を記憶部235に記録しておく。この理由は、例えば、以降のライブビュー画像において一旦顔を検出できなくなり、その後のライブビュー画像において検出した顔の眼を選ぶとき、記憶部235に記録されている情報(本例では、左側の眼を選択したことを示す情報)に基づいて左側の眼を選ぶためである。記憶部235に記録されている情報を用いて左右の眼のうちの一方の眼を選ぶことにより、顔を検出し直すたびに選択する眼が入れ替わるという事態を避けることができる。
記憶部235に記録された、ボディ側制御部230が選択した側の眼を示す情報は、メインスイッチがオフ操作される、または、「AFエリアモード」の切替えが行われるまで保持される。
記憶部235に記録された、ボディ側制御部230が選択した側の眼を示す情報は、メインスイッチがオフ操作される、または、「AFエリアモード」の切替えが行われるまで保持される。
ボディ側制御部230はさらに、表示枠51の右側に、向かって右側の眼(以下、右側の眼と言う)54を検出したことを示す表示53(方向を示す表示などで例えば<で、以下三角印という)を表示させる。ユーザは、表示枠51の右側に三角印53が表示されるので、右側の眼54を選択可能であることがわかる。
ボディ側制御部230はさらに、表示枠51の左側に、顔55の左側の顔56を検出したことを示す表示52(三角印)を表示させる。ユーザは、表示枠51の左側に三角印52が表示されるので、左側の顔56を選択可能であることがわかる。
なお、図5において一点鎖線で示した右側の眼54を囲む枠、顔55を囲む枠、顔56を囲む枠、顔57を囲む枠は、説明のために付したものであって表示部290には表示しなくてよい。
図5に例示したライブビュー画像に含まれた3つの顔55、顔56、顔57から検出した眼のすべてに表示枠を表示し、ボディ側制御部230によって選ばれた眼の表示枠の形態を他の表示枠の形態と変えてもよい。例えば、選ばれた眼の表示枠の大きさを変えたり、表示枠の色を変えたり、表示枠の形を変えても良い。
尚、表示52は<に限られず三角形、矢印などでもよい。
なお、図5において一点鎖線で示した右側の眼54を囲む枠、顔55を囲む枠、顔56を囲む枠、顔57を囲む枠は、説明のために付したものであって表示部290には表示しなくてよい。
図5に例示したライブビュー画像に含まれた3つの顔55、顔56、顔57から検出した眼のすべてに表示枠を表示し、ボディ側制御部230によって選ばれた眼の表示枠の形態を他の表示枠の形態と変えてもよい。例えば、選ばれた眼の表示枠の大きさを変えたり、表示枠の色を変えたり、表示枠の形を変えても良い。
尚、表示52は<に限られず三角形、矢印などでもよい。
<ユーザによる眼の選択>
図6は、カメラシステム1が横位置に構えられている場合のカメラボディ2の背面側の外装面を例示する図である。操作部材280を構成するスイッチのうち二つの操作スイッチ281および282が、X軸方向(水平方向)を示す直線Hと平行に配置されている。ユーザは、例えば操作スイッチ281および282を操作することにより、水平方向にフォーカスを合わせる眼や顔を変更することができる。
図6は、カメラシステム1が横位置に構えられている場合のカメラボディ2の背面側の外装面を例示する図である。操作部材280を構成するスイッチのうち二つの操作スイッチ281および282が、X軸方向(水平方向)を示す直線Hと平行に配置されている。ユーザは、例えば操作スイッチ281および282を操作することにより、水平方向にフォーカスを合わせる眼や顔を変更することができる。
図7は、図5の顔55の表示枠51の右側に位置する眼54が選択される場合を説明する図である。ボディ側制御部230は、ユーザによって操作スイッチ282が操作されると、顔55の右側の眼を選んで右側の眼を示す表示枠71(AF枠)を表示部290に表示させる。AF信号処理部270bは、表示枠71に対応するフォーカスポイントPに基づいてデフォーカス量を算出する。
ボディ側制御部230はさらに、表示枠71の右側に、顔55の右側の顔57を検出したことを示す表示73(三角印)を表示させる。ユーザは、表示枠71の右側に三角印73が表示されるので、右側の顔57を選択可能であることがわかる。
ボディ側制御部230はさらに、表示枠71の左側に、顔55の左側の眼74を検出したことを示す表示72(三角印)を表示させる。ユーザは、表示枠71の左側に三角印72が表示されるので、左側の眼74を選択可能であることがわかる。
なお、図7において一点鎖線で示した左側の眼74を囲む枠、顔55を囲む枠、顔56を囲む枠、顔57を囲む枠は、説明のために付したものであって表示部290には表示しなくてよい。
なお、図7において一点鎖線で示した左側の眼74を囲む枠、顔55を囲む枠、顔56を囲む枠、顔57を囲む枠は、説明のために付したものであって表示部290には表示しなくてよい。
操作スイッチ282の操作に基づいて、操作前に表示枠51(図5)が表示されていた左側の眼と異なる右側の眼を選択する場合、ボディ側制御部230は、ユーザの操作に基づいて右側の眼を選択したことを示す情報を記憶部235に記録しておく。例えば、以降のライブビュー画像において一旦顔を検出できなくなり、その後のライブビュー画像において検出した顔の眼を選ぶとき、記憶部235に記録されている情報(本例では、右側の眼を選択したことを示す情報)に基づいて右側の眼を選ぶためである。記憶部235に記録されている情報を用いて左右の眼のうちの一方の眼を選ぶことにより、顔を検出し直すたびに選択する眼が入れ替わるという事態を避けることができる。
記憶部235に記録された、ユーザの操作に基づいて選択された側の眼を示す情報は、メインスイッチがオフ操作される、または、「AFエリアモード」の切替えが行われるまで保持される。
記憶部235に記録された、ユーザの操作に基づいて選択された側の眼を示す情報は、メインスイッチがオフ操作される、または、「AFエリアモード」の切替えが行われるまで保持される。
図8は、図7の顔55の表示枠71の右側に位置する顔57の眼が選択される場合を説明する図である。ボディ側制御部230は、ユーザによって操作スイッチ282が操作されると、顔55の右側の顔57を選び、顔57の左右の眼を検出し、顔57の向かって左側の眼(以下、左側の眼と言う)を選んで左側の眼を示す表示枠81(AF枠)を表示部290に表示させる。AF信号処理部270bは、表示枠81に対応するフォーカスポイントPに基づいてデフォーカス量を算出する。
ボディ側制御部230はさらに、表示枠81の右側に、顔57の向かって右側の眼(以下、右側の眼と言う)84を検出したことを示す表示83(三角印)を表示させる。ユーザは、表示枠81の左側に三角印83が表示されるので、右側の眼84を選択可能であることがわかる。
ボディ側制御部230はさらに、表示枠81の左側に、顔57の左側の顔55を検出したことを示す表示82(三角印)を表示させる。ユーザは、表示枠81の左側に三角印82が表示されるので、左側の顔55を選択可能であることがわかる。
なお、図8において一点鎖線で示した右側の眼84を囲む枠、顔55を囲む枠、顔56を囲む枠、顔57を囲む枠は、説明のために付したものであって表示部290には表示しなくてよい。
以上説明したように、操作スイッチ282の操作に基づいて、操作前に表示枠71が表示されていた顔55と異なる顔57の眼が選択される場合、顔55に近い左側の眼を選び、この左側の眼を示す表示枠81を表示させる。
なお、図8において一点鎖線で示した右側の眼84を囲む枠、顔55を囲む枠、顔56を囲む枠、顔57を囲む枠は、説明のために付したものであって表示部290には表示しなくてよい。
以上説明したように、操作スイッチ282の操作に基づいて、操作前に表示枠71が表示されていた顔55と異なる顔57の眼が選択される場合、顔55に近い左側の眼を選び、この左側の眼を示す表示枠81を表示させる。
図9は、図7の顔55の表示枠71の右側に位置する顔57の眼が選択される場合の別の例を説明する図である。ボディ側制御部230は、ユーザによってタッチ操作部材290Aを介して表示部290の顔57の表示位置がタッチ操作されると、顔55の右側の顔57を選び、顔57の左右の眼を検出し、顔57の向かって右側の眼(以下、右側の眼と言う)を選んで右側の眼を示す表示枠84Aを表示部290に表示させる。
タッチ操作に基づいて、操作前に表示枠71が表示されていた顔55と異なる顔57の眼を選択する場合、ボディ側制御部230は、記憶部235に記録されている情報(本例では、右側の眼を選択したことを示す情報)に基づいて右側の眼を選び、選んだ右側の眼を示す表示枠84Aを表示させる。
AF信号処理部270bは、表示枠84Aに対応するフォーカスポイントPに基づいてデフォーカス量を算出する。
AF信号処理部270bは、表示枠84Aに対応するフォーカスポイントPに基づいてデフォーカス量を算出する。
なお、タッチ操作位置が、顔57の左側の眼の位置であった場合、ボディ側制御部230は、記憶部235に記録されている情報にかかわらず左側の眼を選び、選んだ左側の眼を示す表示枠を表示させる。AF信号処理部270bは、左側の眼を示す表示枠に対応するフォーカスポイントPに基づいてデフォーカス量を算出する。
このように、ボディ側制御部230は、タッチ操作位置が眼の位置であればその眼を選び、タッチ操作位置が眼の位置でなければ記憶部235に記録されている情報に基づいて、左右いずれかの眼を選ぶ。
このように、ボディ側制御部230は、タッチ操作位置が眼の位置であればその眼を選び、タッチ操作位置が眼の位置でなければ記憶部235に記録されている情報に基づいて、左右いずれかの眼を選ぶ。
ボディ側制御部230はさらに、表示枠84Aの左側に、顔57の左側の眼81Aを検出したことを示す表示85(三角印)を表示させる。ユーザは、表示枠84Aの左側に三角印85が表示されるので、左側の眼81Aを選択可能であることがわかる。
なお、図9において一点鎖線で示した左側の眼81Aを囲む枠、顔55を囲む枠、顔56を囲む枠、顔57を囲む枠は、説明のために付したものであって表示部290には表示しなくてよい。
なお、図9において一点鎖線で示した左側の眼81Aを囲む枠、顔55を囲む枠、顔56を囲む枠、顔57を囲む枠は、説明のために付したものであって表示部290には表示しなくてよい。
図5から図9を参照して説明した三角印の表示は、三角印が示す方向の眼を選択可能である場合と、三角印が示す方向に顔が検出できていて眼が検出できておらず顔のみを選択可能である場合とで、例えば色、形、文字、アイコン付加などの表示態様を異ならせてもよい。
また、図5から図9を参照して説明した表示枠(AF枠)の表示は、ボディ側制御部230が選択した眼に表示する場合と、ユーザの操作によって選択した眼に表示する場合とで、例えば色、形、文字、アイコン付加などの表示態様を異ならせてもよい。
また、図5から図9を参照して説明した表示枠(AF枠)の表示は、ボディ側制御部230が選択した眼に表示する場合と、ユーザの操作によって選択した眼に表示する場合とで、例えば色、形、文字、アイコン付加などの表示態様を異ならせてもよい。
<眼または顔のサイズと表示枠との関係>
図10(a)から図10(c)は、画像における眼または顔のサイズと表示枠との関係を説明する図である。第1設定において、ライブビュー画像における眼のサイズが小さすぎると、表示枠に対応するフォーカスポイントPに含まれる眼の情報が少なくなるためにデフォーカス量の算出の精度が低下する。そのため、眼だけでなく顔の情報を用いてデフォーカス量を算出することは、デフォーカス量の算出の精度の低下を防止する点において有効となる。
図10(a)から図10(c)は、画像における眼または顔のサイズと表示枠との関係を説明する図である。第1設定において、ライブビュー画像における眼のサイズが小さすぎると、表示枠に対応するフォーカスポイントPに含まれる眼の情報が少なくなるためにデフォーカス量の算出の精度が低下する。そのため、眼だけでなく顔の情報を用いてデフォーカス量を算出することは、デフォーカス量の算出の精度の低下を防止する点において有効となる。
図10(a)は、ライブビュー画像において眼のサイズが十分大きい場合を説明する図である。眼のサイズが十分大きい場合は、眼の情報だけを用いてもデフォーカス量の算出の精度が確保される。そのため、第1設定が選択されているボディ側制御部230は、顔55の左右の眼を検出し、例えば左側の眼を示す眼のサイズの表示枠51を表示部290に表示させる。AF信号処理部270bは、表示枠51に対応するフォーカスポイントPに基づいてデフォーカス量を算出する。
図10(b)は、ライブビュー画像において眼のサイズが小さい場合を説明する図である。第1設定が選択されているボディ側制御部230は、例えば、眼のX軸方向(水平方向)のピクセル数Aがライブビュー画像の水平方向のピクセル数ThのQ1パーセントより小さく、Q2パーセント(Q2<Q1)より大きいと、顔55の左側の眼を示す表示枠51を表示部290に表示させる。このとき、図10(a)の眼に比べてサイズが小さい図10(b)の眼に合わせて、小さなサイズの表示枠51を表示させる。
AF信号処理部270bは、顔55の左側の眼を示す表示枠51のサイズにかかわらず、顔55を示す枠(顔のサイズの表示枠と同サイズ)に対応するフォーカスポイントPに基づいてデフォーカス量を算出するものとする。このように構成することにより、顔55の左側の眼だけでなく、一点鎖線で示した顔55の情報も用いることにより、デフォーカス量の算出の精度の低下を防止する。
顔55の情報を用いてデフォーカス量を算出する理由をさらに説明する。ライブビュー画像において眼のサイズが小さいと、フォーカスポイントP(図3)に含まれる眼の情報が少なくなる。また、検出された眼に対応する位置にフォーカスポントPが配置されておらず、眼の情報がフォーカスポイントPに含まれていない場合も想定される。そのため、眼を示す表示枠51に対応するフォーカスポイントPに基づいてデフォーカス量を算出することが困難になる。
一方で、検出される眼のサイズが小さくなるのは、カメラシステム1から眼(顔)までの距離が長い場合と考えられる。このような遠方の被写体は、カメラシステム1に近い被写体とは異なり、顔でのピント位置と眼のピント位置に実質的な差がないと考えてよい。すなわち、鼻や唇のピント位置と、眼のピント位置とは同等とみなしてもよい。そのため、本実施の形態では、表示枠51よりサイズが大きい顔55を示す枠に対応する複数のフォーカスポイントPから焦点検出用画素信号のコントラストが高いフォーカスポイントPを選択してデフォーカス量を算出する。このように算出すると、顔55を示す枠に対応する数多くのフォーカスポイントPに基づき、適切にデフォーカス量を算出することができる。
なお、顔55を囲む枠は、説明のために図示したものであって表示部290には表示しなくてよい。
一方で、検出される眼のサイズが小さくなるのは、カメラシステム1から眼(顔)までの距離が長い場合と考えられる。このような遠方の被写体は、カメラシステム1に近い被写体とは異なり、顔でのピント位置と眼のピント位置に実質的な差がないと考えてよい。すなわち、鼻や唇のピント位置と、眼のピント位置とは同等とみなしてもよい。そのため、本実施の形態では、表示枠51よりサイズが大きい顔55を示す枠に対応する複数のフォーカスポイントPから焦点検出用画素信号のコントラストが高いフォーカスポイントPを選択してデフォーカス量を算出する。このように算出すると、顔55を示す枠に対応する数多くのフォーカスポイントPに基づき、適切にデフォーカス量を算出することができる。
なお、顔55を囲む枠は、説明のために図示したものであって表示部290には表示しなくてよい。
図10(c)は、ライブビュー画像において眼のサイズがさらに小さい場合を説明する図である。第1設定が選択されているボディ側制御部230は、ライブビュー画像において眼のサイズが図10(b)よりもさらに小さく、例えば、眼のX軸方向(水平方向)のピクセル数Aがライブビュー画像の水平方向のピクセル数ThのQ2パーセント(Q2<Q1)より小さいと、顔55の左側の眼を示す表示枠51に代えて、顔55を示す顔のサイズの表示枠59を表示部290に表示させる。
AF信号処理部270bは、顔55を示す表示枠59に対応するフォーカスポイントPに基づいてデフォーカス量を算出するものとする。このように構成することにより、顔55の情報を用いてデフォーカス量の算出の精度の低下を防止する。また、眼を示す表示枠51より大きなサイズの表示枠59を表示部290に表示させることにより、ユーザにピント合わせの対象をわかりやすく示すことができる。
また、図10(a)から図10(c)で、眼のX軸方向(水平方向)のピクセル数Aが、ライブビュー画像のピクセル数に依らない、所定の値よりも大きいと眼を示す表示枠51を表示し、眼のX軸方向(水平方向)のピクセル数Aが閾値よりも小さいと顔55を示す表示枠59を表示部290に表示させてもよい。
同様に、図10(a)から図10(c)で、眼のX軸方向(水平方向)のピクセル数Aが、ライブビュー画像のピクセル数に依らない、所定の値よりも大きいと顔55を示す枠(顔のサイズの表示枠と同サイズ)に対応するフォーカスポイントPに基づいてデフォーカス量を算出し、眼のX軸方向(水平方向)のピクセル数Aが所定の値よりも小さいと眼を示す枠(眼のサイズの表示枠と同じサイズ)に対応するフォーカスポイントPに基づいてデフォーカス量を算出してもよい。
つまり、ライブビュー画像の水平方向のピクセル数Thに依存しない閾値により判断されるとしてもよい。
また、図10(a)から図10(c)で、眼のX軸方向(水平方向)のピクセル数Aが、ライブビュー画像のピクセル数に依らない、所定の値よりも大きいと眼を示す表示枠51を表示し、眼のX軸方向(水平方向)のピクセル数Aが閾値よりも小さいと顔55を示す表示枠59を表示部290に表示させてもよい。
同様に、図10(a)から図10(c)で、眼のX軸方向(水平方向)のピクセル数Aが、ライブビュー画像のピクセル数に依らない、所定の値よりも大きいと顔55を示す枠(顔のサイズの表示枠と同サイズ)に対応するフォーカスポイントPに基づいてデフォーカス量を算出し、眼のX軸方向(水平方向)のピクセル数Aが所定の値よりも小さいと眼を示す枠(眼のサイズの表示枠と同じサイズ)に対応するフォーカスポイントPに基づいてデフォーカス量を算出してもよい。
つまり、ライブビュー画像の水平方向のピクセル数Thに依存しない閾値により判断されるとしてもよい。
<枠表示動作の一例>
図11は、第1設定が選択されている場合にボディ側制御部230が実行する、表示枠(AF枠)を決める処理の流れを例示するフローチャートである。ボディ側制御部230は、図11のフローチャートによる処理を実行することにより、上述したデフォーカス量の算出に用いるフォーカスポイントPを決定する。
図11は、第1設定が選択されている場合にボディ側制御部230が実行する、表示枠(AF枠)を決める処理の流れを例示するフローチャートである。ボディ側制御部230は、図11のフローチャートによる処理を実行することにより、上述したデフォーカス量の算出に用いるフォーカスポイントPを決定する。
ステップS310において、ボディ側制御部230は、ライブビュー画像に基づいて顔を検出したか否かを判定する。ボディ側制御部230は、顔を検出した場合にステップS310を肯定判定してステップS320へ進み、顔を検出しない場合にはステップS310を否定判定してステップS360へ進む。
ステップS320において、ボディ側制御部230は、ライブビュー画像に基づいてS310で検出した顔に眼を検出したか否かを判定する。ボディ側制御部230は、眼を検出した場合にステップS320を肯定判定してステップS330へ進み、眼を検出しない場合にはステップS320を否定判定してステップS350へ進む。
ステップS330において、ボディ側制御部230は、眼のサイズが予め定められた第1閾値より大きいか否かを判定する。ボディ側制御部230は、例えば眼のX軸方向(水平方向)のピクセル数Aが、ライブビュー画像の水平方向のピクセル数ThのQ2パーセントより大きい場合にステップS330を肯定判定してステップS340へ進む。ボディ側制御部230は、上記ピクセル数Aがピクセル数ThのQ2パーセント以下の場合にステップS330を否定判定してステップS350へ進む。
ステップS340において、ボディ側制御部230は、検出した眼の情報に基づいて眼のサイズの表示枠51を表示部290に表示させる。具体的には、図10(a)、(b)に例示するように、検出した眼の位置に眼を示す表示枠51を表示させてステップS370へ進む。
ステップS370において、ボディ側制御部230は、眼のサイズが予め定められた第2閾値より大きいか否かを判定する。ボディ側制御部230は、例えば眼のX軸方向(水平方向)のピクセル数Aが、ライブビュー画像の水平方向のピクセル数ThのQ1(Q2<Q1)パーセントより大きい場合にステップS370を肯定判定してステップS380へ進む。ボディ側制御部230は、上記ピクセル数Aがピクセル数ThのQ1パーセント以下の場合にステップS370を否定判定してステップS390へ進む。
眼のサイズが小さい場合は、眼が誤って検出されている可能性が高い。本実施の形態では、眼のサイズを第2閾値と比較することによって、検出した眼の信頼性を評価している。
眼のサイズが小さい場合は、眼が誤って検出されている可能性が高い。本実施の形態では、眼のサイズを第2閾値と比較することによって、検出した眼の信頼性を評価している。
ステップS380において、ボディ側制御部230は、AF信号処理部270bに対して眼のサイズの表示枠51に基づいてAF演算を行わせ、図11による処理を終了する。AF信号処理部270bは、表示枠51(図10(a))に対応するフォーカスポイントPに基づいてデフォーカス量を算出する。
ステップS320またはステップS330を否定判定して進むステップS350において、ボディ側制御部230は、検出した顔の情報に基づいて顔のサイズの表示枠59を表示部290に表示させる。具体的には、図10(c)に例示するように、検出した顔の位置に顔55を示す表示枠59を表示させてステップS390へ進む。
ステップS390において、ボディ側制御部230は、AF信号処理部270bに対して顔のサイズの表示枠59に基づいてAF演算を行わせ、図11による処理を終了する。S350の次にS390へ進む場合、AF信号処理部270bは、表示枠59(図10(c))に対応するフォーカスポイントPに基づいてデフォーカス量を算出する。また、S370を否定判定してS390へ進む場合、AF信号処理部270bは、図10(b)に表示されている表示枠51のサイズにかかわらず、顔55を示す枠(顔のサイズの表示枠)に対応するフォーカスポイントPに基づいてデフォーカス量を算出する。
ステップS310を否定判定する場合は、顔検出および眼検出は行われない。ボディ側制御部230は、ステップS360において、顔位置や眼位置に表示枠を表示させずに、上記第3設定が選択されている場合と同様の表示枠を表示させる。すなわち、全てのフォーカスポイントPが配置されている範囲からカメラシステム1に近い被写体を検出して、その被写体の範囲に位置する複数のフォーカスポイントPを示す表示(AF枠)を表示部290に表示させる。
そして、ステップS400において、ボディ側制御部230は、AF信号処理部270bに対して所定のAF演算を行わせ、図11による処理を終了する。AF信号処理部270bは、上記第3設定が選択されている場合と同様に、被写体の範囲に位置する複数のフォーカスポイントPごとにそれぞれのデフォーカス量を算出する。
そして、ステップS400において、ボディ側制御部230は、AF信号処理部270bに対して所定のAF演算を行わせ、図11による処理を終了する。AF信号処理部270bは、上記第3設定が選択されている場合と同様に、被写体の範囲に位置する複数のフォーカスポイントPごとにそれぞれのデフォーカス量を算出する。
上記ステップS330の判定に用いる第1閾値を、眼のサイズが大きい方向に変化している場合と、眼のサイズが小さい方向に変化している場合とで差を設けてもよい。差を設けることにより、第1閾値の近傍で表示枠(AF枠)の表示サイズの切替えが頻繁に行われることによるユーザの使用感の低下を防止することができる。
また、図11のフローチャートにおいて、ステップS330を省略してもよい。すなわち、ステップS320で眼を検出した場合には、眼の大きさにかかわらず、検出した眼の情報に基づいて眼のサイズの表示枠51を表示部290に表示させるようにしてもよい。
また、図11のフローチャートにおいて、ステップS330を省略してもよい。すなわち、ステップS320で眼を検出した場合には、眼の大きさにかかわらず、検出した眼の情報に基づいて眼のサイズの表示枠51を表示部290に表示させるようにしてもよい。
<縦位置時における、ユーザによる眼の選択>
図12は、カメラシステム1が縦位置に構えられている場合のカメラボディ2の背面側の外装面を例示する図である。操作部材280を構成するスイッチのうち二つの操作スイッチ283および284が、X軸方向(水平方向)を示す直線Hとほぼ平行に配置されている。ユーザは、例えば操作スイッチ283および284を操作することにより、水平方向にフォーカスを合わせる眼や顔を変更することができる。
図12は、カメラシステム1が縦位置に構えられている場合のカメラボディ2の背面側の外装面を例示する図である。操作部材280を構成するスイッチのうち二つの操作スイッチ283および284が、X軸方向(水平方向)を示す直線Hとほぼ平行に配置されている。ユーザは、例えば操作スイッチ283および284を操作することにより、水平方向にフォーカスを合わせる眼や顔を変更することができる。
カメラシステム1が縦位置に構えられると、カメラシステム1が横位置に構えられていた状態(図6)で直線Hと平行に配置されていた二つの操作スイッチ281および282は、水平方向にピント合わせの対象を変更する操作に用いることが不向きとなる。ボディ側制御部230は、操作スイッチ281および282に代えて、二つの操作スイッチ283および284を、水平方向にピント合わせの対象を変更する、換言すると、左右の眼を選択する操作に用いる。
図12において、直線H´は、カメラボディ2の外装面の長手方向を示す。ボディ側制御部230は、姿勢センサ250の検出信号に基づき、左右の眼を選択する操作に用いる二つのスイッチを切り替える。横位置に構えられていたカメラシステム1が縦位置に変更されるとき、X軸方向(水平方向)を示す直線Hと上記直線H´との角度θが、例えば75度を超えると、ボディ側制御部230は、二つの操作スイッチ283および284を左右の眼を選択する操作に用いる。
反対に、縦位置に構えられていたカメラシステム1が横位置に変更されるとき、上記角度θが65度より小さくなると、ボディ側制御部230は、二つの操作スイッチ281および282を左右の眼を選択する操作に用いる。
このように、横位置に構えられていたカメラシステム1が縦位置に変更される場合と、縦位置に構えられていたカメラシステム1が横位置に変更される場合とで、左右の眼を選択する操作に用いる二つのスイッチの切替えを判断する角度θの閾値に差を設けたので、閾値の近傍で二つのスイッチの切替えが頻繁に行われることによるユーザの使用感の低下を防止することができる。
また、図12や図6の操作スイッチ281-284に相当する操作部材(アイコン等)の表示を表示部290に表示させておき、ユーザが操作アイコンをタッチ操作することによって左右の眼を選択する構成にしてもよい。例えばカメラシステム1がスマートフォンのような筐体で構成される場合において、ユーザが所定範囲で指を動かすだけで左右の眼を選択できるので、使い勝手をよくすることができる。
さらにまた、図12や図6において、カメラボディ2が電子ビューファインダー(EVF)を有する場合には、表示部290に表示している内容(ライブビュー画像、表示枠等)をEVFに表示させてもよい。このとき、ユーザはEVFを観察したままで、操作スイッチ281-284を操作することによって左右の眼を選択する。EVFから眼を離さずに操作スイッチ281-284を操作して左右の眼を選択できるので、ユーザの使い勝手をよくすることができる。
また、図12や図6の操作スイッチ281-284に相当する操作部材(アイコン等)の表示を表示部290に表示させておき、ユーザが操作アイコンをタッチ操作することによって左右の眼を選択する構成にしてもよい。例えばカメラシステム1がスマートフォンのような筐体で構成される場合において、ユーザが所定範囲で指を動かすだけで左右の眼を選択できるので、使い勝手をよくすることができる。
さらにまた、図12や図6において、カメラボディ2が電子ビューファインダー(EVF)を有する場合には、表示部290に表示している内容(ライブビュー画像、表示枠等)をEVFに表示させてもよい。このとき、ユーザはEVFを観察したままで、操作スイッチ281-284を操作することによって左右の眼を選択する。EVFから眼を離さずに操作スイッチ281-284を操作して左右の眼を選択できるので、ユーザの使い勝手をよくすることができる。
<顔の位置を基準に左右の眼を選択する>
ユーザによる操作スイッチ282の操作に基づき左右の眼を選択する上記説明において参照した図7~図9は、複数の顔がX軸方向(水平方向)に並ぶ例であったため、図7において顔55の右側の眼に表示枠71が表示された状態で操作スイッチ282が操作されると、図8において顔55の右側の顔57の左側の眼に表示枠81が表示させることに問題は生じなかった。すなわち、どの顔の眼かを判断することなしに右側の眼を順番に選ぶことにより、顔55において左側の眼の次に右側の眼が選択され、顔55の次の右側の顔57において左側の眼の次に右側の眼が選択された。
ユーザによる操作スイッチ282の操作に基づき左右の眼を選択する上記説明において参照した図7~図9は、複数の顔がX軸方向(水平方向)に並ぶ例であったため、図7において顔55の右側の眼に表示枠71が表示された状態で操作スイッチ282が操作されると、図8において顔55の右側の顔57の左側の眼に表示枠81が表示させることに問題は生じなかった。すなわち、どの顔の眼かを判断することなしに右側の眼を順番に選ぶことにより、顔55において左側の眼の次に右側の眼が選択され、顔55の次の右側の顔57において左側の眼の次に右側の眼が選択された。
しかしながら、図13に示すように、複数の顔がY軸方向(鉛直方向)に並ぶと、以下のような問題が生じる。図13は、複数の顔がY軸方向に並ぶ状態を説明する図である。図13の例では、顔131の向かって左側の眼(以下、左側の眼と言う)の次に顔132の向かって左側の眼(以下、左側の眼と言う)が選択され、顔132の左側の眼の次に顔131の向かって右側の眼(以下、右側の眼と言う)が選択されてしまう。そのため、本実施の形態では、同じ顔の中の左右の眼を順番に選択した後に別の顔の左右の眼を順番に選択するように、顔の中心の位置を基準に、眼の位置をX軸方向に並べ替えるようにする。具体的には、顔131のX軸方向(水平方向)の中心位置をC1、顔132のX軸方向(水平方向)の中心位置をC2とすると、C2はC1の右側に位置する。
ボディ側制御部230は、顔131の左側の眼に表示枠133が表示された状態(図13)で操作スイッチ282が操作されるごとに、顔131の右側の眼を選択し、顔131の右側の眼の次に顔132の左側の眼を選択し、顔132の左側の眼の次に顔132の右側の眼を選択する。このように構成したので、同じ顔の中の左右の眼を続けて選ぶことができるようになり、ユーザの使い勝手を良くすることができる。
<縦位置時>
図12のように、カメラシステム1が縦位置に構えられている場合も同様である。縦位置の場合では、同じ顔の中の左右の眼を順番に選択した後に別の顔の左右の眼を順番に選択するように、顔の中心の位置を基準に、眼の位置をY軸方向に並べ替えるようにする。図示を省略するが、ある顔のY軸方向の中心位置をC3、他の顔のY軸方向の中心位置をC4とする。C4はC3の右側に位置するものとする。
図12のように、カメラシステム1が縦位置に構えられている場合も同様である。縦位置の場合では、同じ顔の中の左右の眼を順番に選択した後に別の顔の左右の眼を順番に選択するように、顔の中心の位置を基準に、眼の位置をY軸方向に並べ替えるようにする。図示を省略するが、ある顔のY軸方向の中心位置をC3、他の顔のY軸方向の中心位置をC4とする。C4はC3の右側に位置するものとする。
ボディ側制御部230は、ある顔の左側の眼に表示枠(AF枠)が表示された状態で操作スイッチ284が操作されるごとに、ある顔の右側の眼を選択し、ある顔の右側の眼の次に他の顔の左側の眼を選択し、他の顔の左側の眼の次に他の顔の右側の眼を選択する。このように構成したので、同じ顔の中の左右の眼を続けて選ぶことができるようになり、ユーザの使い勝手を良くすることができる。
以上説明した第1の実施形態によれば、以下の作用効果が得られる。
(1)電子機器の一例としてのカメラ(カメラシステム1)は、画像から顔及び眼を検出するボディ側制御部230と、ボディ側制御部230で検出された眼から1つの眼を選択するボディ側制御部230と、ボディ側制御部230で選択された眼の位置を示す表示枠(AF枠)の表示と、選択された眼とは異なる、顔及び眼の少なくともいずれかがボディ側制御部230により検出されていることを示す三角印の表示とを、ライブビュー画像に重ねて表示する表示部290とを備える。このように構成したので、ライブビュー画像から検出された顔や眼のうちのどの眼が選ばれているのかを、視覚的にユーザに知らせることができる。
(1)電子機器の一例としてのカメラ(カメラシステム1)は、画像から顔及び眼を検出するボディ側制御部230と、ボディ側制御部230で検出された眼から1つの眼を選択するボディ側制御部230と、ボディ側制御部230で選択された眼の位置を示す表示枠(AF枠)の表示と、選択された眼とは異なる、顔及び眼の少なくともいずれかがボディ側制御部230により検出されていることを示す三角印の表示とを、ライブビュー画像に重ねて表示する表示部290とを備える。このように構成したので、ライブビュー画像から検出された顔や眼のうちのどの眼が選ばれているのかを、視覚的にユーザに知らせることができる。
(2)上記三角印の表示は、選択された眼とは異なる、顔または眼が検出されている位置の表示枠(AF枠)の表示からの方向を示すので、選択された眼以外の顔や眼が、表示枠(AF枠)からどの方向に位置するのかを、視覚的にユーザに知らせることができる。
(3)表示部290は、選択された眼とは異なる顔の位置に関する三角印の表示であるか、選択された眼とは異なる眼の位置に関する三角印の表示であるかにより三角印の表示の態様を異ならせるので、選択された眼以外に眼が検出されているのか、選択された眼以外に顔が検出されているのかを、視覚的にユーザに知らせることができる。
(4)ボディ側制御部230は、顔に複数の眼が検出されると、検出された眼の大きさに基づいて1つの眼を選択するので、例えば、選択した眼をピント合わせの対象にすることにより、小さい眼を選択する場合に比べてピント合わせがしやすいという作用効果が得られる。
(5)ボディ側制御部230は、ユーザによる操作に基づいて眼を選択するようにしたので、ボディ側制御部230が選択した眼以外の眼を選びたいというユーザの要望に応えることもできる。
(6)上記画像は、撮影光学系360が形成する被写体像を撮像して生成される。上記カメラは、ユーザによる操作で選択された眼が、眼を有する顔に対して右眼であるか左眼であるかに関する情報を記憶部235に記憶する。そして、ボディ側制御部230は、情報を記憶した画像とは異なるコマの撮像で得られた画像において、記憶部235に記憶された情報に基づいて眼を選択する。このように構成したので、例えば、ライブビュー画像において一旦顔を検出できなくなって、その後のライブビュー画像において再び検出した顔から眼を選ぶ場合において、顔を検出し直すたびに選択する眼が入れ替わるという事態を避けることができる。
(7)上記カメラは、三角印の表示が示す方向に関する情報をユーザが選択する操作をする操作スイッチ281-284を備える。ボディ側制御部230は、操作スイッチ281-284のいずれかにより選択された方向に関する情報に基づき決定された第1方向に、選択されている眼と同じ顔の眼があると、選択されている眼と同じ顔の眼を新たに選択し、選択されている眼と同じ顔の眼がないと、第1方向に最も距離の近い顔を新たに選択する。このように構成したので、ユーザが望む第1方向に位置する眼または顔を適切に選ぶことができる。
(8)上記カメラは、表示部290の表示面に設けられ、ユーザが表示面をタッチ操作することで、表示面上の操作した位置に表示されている画像の一部分を選択する操作を受けるタッチ操作部材290Aを備える。ボディ側制御部230は、タッチ操作部材290Aを介して選択された、表示画像の一部分である顔に対して2つの眼が検出されていると、記憶部235に記憶されている情報に基づいて、いずれかの眼を選択する。このように構成したので、タッチ操作により選択した顔からユーザが望む眼を適切に選ぶことができる。
(9)記憶部235は、電源オフ操作、および、例えば「AFエリアモード」の切替えによってボディ側制御部230による顔や眼の検出を行わない設定にする操作の少なくとも一つが行われるまで、記憶部235の情報を保持するので、記憶部235に記録されている情報(例えば、左側の眼を選択したことを示す情報)を適切に利用することができる。
(10)ボディ側制御部230は、表示した表示枠に対応するフォーカスポイントPにおいて、AF信号処理部270bにデフォーカス量を算出させる。このように構成したので、画像のどこをピント合わせの対象にするのかを視覚的にユーザに知らせることができる。
(11)ボディ側制御部230は、検出した眼のサイズに応じて、検出した眼の位置に眼のサイズの表示枠(AF枠)を表示するか、検出した顔の位置に顔のサイズの表示枠(AF枠)を表示するかを決定する。このように構成したので、画像において適切なサイズの表示枠(AF枠)を表示することができる。
(12)ボディ側制御部230は、検出した眼のサイズに応じて、眼のサイズの表示枠に基づくAF演算をする(S380)か、顔のサイズの表示枠に基づくAF演算をする(S390)かを決定する。このように構成したので、眼が小さい場合には、眼だけでなく顔の情報も用いてAF演算することにより、デフォーカス量の算出の精度の低下を防止することができる。
(第2の実施の形態)
第1設定が選択されている場合の表示枠(AF枠)の表示を、第1の実施形態と異なる方法で行ってもよい。図14は、第1設定が選択されている場合にボディ側制御部230が実行する、表示枠を決める処理の流れを例示するフローチャートである。ボディ側制御部230は、図11のフローチャートによる処理に代えて、図14のフローチャートによる処理を実行することにより、上述したデフォーカス量の算出に用いるフォーカスポイントPを決定する。
第1設定が選択されている場合の表示枠(AF枠)の表示を、第1の実施形態と異なる方法で行ってもよい。図14は、第1設定が選択されている場合にボディ側制御部230が実行する、表示枠を決める処理の流れを例示するフローチャートである。ボディ側制御部230は、図11のフローチャートによる処理に代えて、図14のフローチャートによる処理を実行することにより、上述したデフォーカス量の算出に用いるフォーカスポイントPを決定する。
図14は、図11と比べると図11のステップS330およびS370が省略され、代わりに図14のステップS345およびS370Aが追加されている点が異なる。そのため、これらの相違点を中心に説明する。
ステップS340を肯定判定して進むステップS345において、ボディ側制御部230は、検出した顔の位置から、その顔において検出した眼の位置までの距離Rを算出する。図15は、距離Rの算出を説明する模式図である。図15において、検出した顔161の位置は、例えば、検出した顔161の範囲の中心位置CAとし、検出した眼162の位置は、例えば、検出した眼の162の範囲の中心位置CBとする。距離Rは、図15の点CAおよび点CB間の距離である。
ステップS345の次に進むステップS370Aにおいて、ボディ側制御部230は、距離Rが予め定められた閾値より大きいか否かを判定する。ボディ側制御部230は、例えば、距離Rが、眼のX軸方向(水平方向)の長さR´に係数k1を乗じたR´×k1より大きい場合にステップS370Aを肯定判定してステップS380へ進む。ボディ側制御部230は、上記距離Rが閾値であるR´×k1以下の場合にステップS370Aを否定判定してステップS390へ進む。
距離Rが短い場合は、眼が誤って検出されている可能性が高い。本実施の形態では、距離Rを算出することによって、検出した眼の信頼性を評価している。
距離Rが短い場合は、眼が誤って検出されている可能性が高い。本実施の形態では、距離Rを算出することによって、検出した眼の信頼性を評価している。
上記説明において、距離Rは、検出した顔161の中心位置CAから、その顔161において検出した眼162の中心位置CBまでの距離としたが、検出した顔161において検出した左右の眼の中心位置間の距離R´(図15)としてもよい。
また、上記説明の距離R(または距離R´)について、眼のX軸方向(水平方向)の長さR´と係数k1の積と比較する代わりに、距離R(または距離R´)のライブビュー画像の水平方向に対する割合を、予め定めた閾値X1と比較してもよい。
また、検出された眼のX軸方向のピクセル数Aを予め定めた閾値と比較して、絶対値による判断を行うようにしてもよい。
また、検出された眼のX軸方向のピクセル数Aを予め定めた閾値と比較して、絶対値による判断を行うようにしてもよい。
以上説明した第2の実施形態によれば、以下の作用効果が得られる。
ボディ側制御部230は、画像において検出した顔161の中心位置CAから、その顔161において検出した眼162の中心位置CBまでの距離Rを算出する。そして距離Rに応じて、眼のサイズの表示枠(AF枠)に基づくAF演算をする(S380)か、顔のサイズの表示枠に基づくAF演算をする(S390)か、を決定する。このように構成したので、第1の実施の形態の場合と同様に、眼だけでなく顔の情報も用いてAF演算することにより、デフォーカス量の算出の精度の低下を防止することができる。
ボディ側制御部230は、画像において検出した顔161の中心位置CAから、その顔161において検出した眼162の中心位置CBまでの距離Rを算出する。そして距離Rに応じて、眼のサイズの表示枠(AF枠)に基づくAF演算をする(S380)か、顔のサイズの表示枠に基づくAF演算をする(S390)か、を決定する。このように構成したので、第1の実施の形態の場合と同様に、眼だけでなく顔の情報も用いてAF演算することにより、デフォーカス量の算出の精度の低下を防止することができる。
次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
以上の説明では、左右の眼を検出したボディ側制御部230が、眼の大きさに基づいて大きい方の眼を一つ選択する例を説明した。顔がカメラシステム1に対して右を向いているか、あるいは左を向いているかを示す向き情報が得られる場合には、ボディ側制御部230は、顔の向き情報に基づいてカメラシステム1に近い方の眼を一つ選択してよい。
以上の説明では、左右の眼を検出したボディ側制御部230が、眼の大きさに基づいて大きい方の眼を一つ選択する例を説明した。顔がカメラシステム1に対して右を向いているか、あるいは左を向いているかを示す向き情報が得られる場合には、ボディ側制御部230は、顔の向き情報に基づいてカメラシステム1に近い方の眼を一つ選択してよい。
図16(a)および図16(b)は、顔がカメラシステム1に対して右を向いている例を示す図である。ボディ側制御部230は、向かって左側の眼(以下、左側の眼と言う)が向かって右側の眼(以下、右側の眼と言う)より大きい場合(図16(a))も、左側の眼が右側の眼より小さい場合(図16(b))も、顔の向き情報に基づいてカメラシステム1に近い方の左側の眼を一つ選択し、選択した左側の眼に表示枠51を表示させる。
一般に、検出される左右の眼のサイズの差は小さいことが多いため、大きい方の眼を一つ選択しようとすると、選択される眼が左右で頻繁に入れ替わることがある。顔の向き情報を参照することで、選択される眼が頻繁に入れ替わることによるユーザの使用感の低下を防止することができる。
図16(c)は、顔がカメラシステムに対して左を向いている例を示す図である。ボディ側制御部230は、顔の向き情報が変わると、新たな向き情報に基づいてカメラシステム1に近い方の右側の眼を一つ選択し直し、選択した左側の眼に表示枠71を表示させる(図16(c))。
(変形例2)
上述したようにライブビュー画像から顔や眼を検出する場合において、単写時と連写時とで顔(眼)の探索範囲を変化させてもよい。単写は、レリーズボタンが全押し操作されると1コマの撮像を行う撮影モードである。連写は、レリーズボタンを全押し操作している間、1コマの撮像を連続して複数コマ分行う撮影モードである。
上述したようにライブビュー画像から顔や眼を検出する場合において、単写時と連写時とで顔(眼)の探索範囲を変化させてもよい。単写は、レリーズボタンが全押し操作されると1コマの撮像を行う撮影モードである。連写は、レリーズボタンを全押し操作している間、1コマの撮像を連続して複数コマ分行う撮影モードである。
一般に、連写時には次コマの撮像をより早く開始することが望まれる。一方で、ライブビュー画像から顔(眼)を探す場合、広い範囲で顔(眼)を探すよりも狭い範囲で顔(眼)を探すが、処理時間が短くなる。そこで、ボディ側制御部230は、連写時に顔(眼)の検出を行う範囲を、例えば、ライブビュー画像の範囲の70パーセントの範囲とする。範囲を狭めて顔(眼)を探す処理時間を短くすることにより、次コマの撮像をより早く開始させ、連写速度を向上させることができる。
ボディ側制御部230は、例えば、前コマにおいて検出した顔(眼)の位置を中心にライブビュー画像の範囲の70パーセントの範囲を設定することで、顔(眼)を探す処理時間を短くしつつ、前コマにおいて検出していた顔(眼)を適切に追従することができる。
また、前コマにおいて検出した眼の位置を中心に眼を探す探索範囲を設定する場合、ライブビュー画像の範囲の50パーセントの範囲としてもよい。
また、前コマにおいて検出した眼の位置を中心に眼を探す探索範囲を設定する場合、ライブビュー画像の範囲の50パーセントの範囲としてもよい。
なお、ボディ側制御部230は、単写時に顔(眼)の検出を行う範囲はライブビュー画像の100パーセントの範囲とする。ライブビュー画像の広い範囲を使って適切に顔(眼)を検出するためである。
(変形例3)
ボディ側制御部230は、記録処理(S110)において記録するファイルの中に、AF動作(S60)において取得した情報を含めることができる。例えば、検出した顔のサイズや位置を示す情報、検出した左右の眼のサイズや位置を示す情報、検出時の信頼性を示す情報、表示枠を設定した眼がボディ側制御部230の判断で選択されたか、ユーザの操作に基づいて選択されたかを示す情報、表示枠を設定した顔がボディ側制御部230の判断で選択されたか、ユーザの操作に基づいて選択されたかを示す情報などが、記録用の画像のデータとともにファイルに記録される。
ボディ側制御部230は、記録処理(S110)において記録するファイルの中に、AF動作(S60)において取得した情報を含めることができる。例えば、検出した顔のサイズや位置を示す情報、検出した左右の眼のサイズや位置を示す情報、検出時の信頼性を示す情報、表示枠を設定した眼がボディ側制御部230の判断で選択されたか、ユーザの操作に基づいて選択されたかを示す情報、表示枠を設定した顔がボディ側制御部230の判断で選択されたか、ユーザの操作に基づいて選択されたかを示す情報などが、記録用の画像のデータとともにファイルに記録される。
(変形例4)
上述した実施形態では、焦点検出の方式として位相差検出方式を用いた手法を例示したが、コントラスト方式を採用してもよい。コントラスト方式を採用する場合は、撮像面260Sにおいて、表示枠に対応する位置に配置されている画素から出力された撮像用画素信号、または、表示枠内及び表示枠周辺に対応する位置に配置されている画素から出力された撮像用画素信号を基に、画像の高周波成分のコントラストを評価する評価値を算出することによって焦点検出を行う。
また、検出された眼のサイズが所定値よりも小さい場合にコントラスト方式による焦点検出を行い、検出された眼のサイズが所定値よりも大きい場合に位相差検出方式による焦点検出を行うこととしてもよい。このようにすることで、検出された眼のサイズが小さい場合や、検出された眼に対応する位置にフォーカスポイントPが配置されていない場合には、コントラスト方式による焦点検出を行うことによって適切に焦点検出を行うことができる。
上述した実施形態では、焦点検出の方式として位相差検出方式を用いた手法を例示したが、コントラスト方式を採用してもよい。コントラスト方式を採用する場合は、撮像面260Sにおいて、表示枠に対応する位置に配置されている画素から出力された撮像用画素信号、または、表示枠内及び表示枠周辺に対応する位置に配置されている画素から出力された撮像用画素信号を基に、画像の高周波成分のコントラストを評価する評価値を算出することによって焦点検出を行う。
また、検出された眼のサイズが所定値よりも小さい場合にコントラスト方式による焦点検出を行い、検出された眼のサイズが所定値よりも大きい場合に位相差検出方式による焦点検出を行うこととしてもよい。このようにすることで、検出された眼のサイズが小さい場合や、検出された眼に対応する位置にフォーカスポイントPが配置されていない場合には、コントラスト方式による焦点検出を行うことによって適切に焦点検出を行うことができる。
(変形例5)
上述した実施形態では、まず顔を検出し、続いて検出した顔の眼を検出したが、顔が検出できない場合には頭部の形を検出し、続いて眼を検出てもよい。具体的には、連続して生成される複数の画像において、顔、眼、及び頭部の形を検出し、それぞれの位置と大きさを画像ごとに記憶する。さらに、顔、眼、及び頭部の形のそれぞれの相対位置及び相対的な大きさである相対情報を記憶する。そして、顔を検出できない場合はまず頭部の形を検出し、検出した頭部の形の位置及び大きさと、記憶している相対情報とを用いて眼の位置及び大きさを検出する。1つの画像で頭部の形を検出できない場合は、過去の画像の頭部の形の位置と大きさを利用した追尾検出をしてもよい。また顔及び頭部の形が検出できない場合は、顔を検出したときの色を含む画像のパターンを特徴量として記憶し、特徴量を画像中の類似した領域を探索し、記憶している相対情報とを用いて眼の位置及び大きさを検出してもよい。過去の画像の特徴量の画像中の類似した領域の位置と大きさを利用する追尾検出をしてもよい。
これにより、顔が検出ができない場合でも、眼があると推測される位置に表示枠を表示することで、眼が検出ができた画像と眼が検出できなかった画像とで眼の表示枠が表示されたりされなかったりすることを防ぐことができる。つまり、連続して表示されるスルー画のフレームごとに眼枠表示されたりされなかったりすることを防ぐことができる。
上述した実施形態では、まず顔を検出し、続いて検出した顔の眼を検出したが、顔が検出できない場合には頭部の形を検出し、続いて眼を検出てもよい。具体的には、連続して生成される複数の画像において、顔、眼、及び頭部の形を検出し、それぞれの位置と大きさを画像ごとに記憶する。さらに、顔、眼、及び頭部の形のそれぞれの相対位置及び相対的な大きさである相対情報を記憶する。そして、顔を検出できない場合はまず頭部の形を検出し、検出した頭部の形の位置及び大きさと、記憶している相対情報とを用いて眼の位置及び大きさを検出する。1つの画像で頭部の形を検出できない場合は、過去の画像の頭部の形の位置と大きさを利用した追尾検出をしてもよい。また顔及び頭部の形が検出できない場合は、顔を検出したときの色を含む画像のパターンを特徴量として記憶し、特徴量を画像中の類似した領域を探索し、記憶している相対情報とを用いて眼の位置及び大きさを検出してもよい。過去の画像の特徴量の画像中の類似した領域の位置と大きさを利用する追尾検出をしてもよい。
これにより、顔が検出ができない場合でも、眼があると推測される位置に表示枠を表示することで、眼が検出ができた画像と眼が検出できなかった画像とで眼の表示枠が表示されたりされなかったりすることを防ぐことができる。つまり、連続して表示されるスルー画のフレームごとに眼枠表示されたりされなかったりすることを防ぐことができる。
(変形例6)
最新のフレーム(所定の時間間隔で撮像して生成される画像をフレームと呼ぶ。)で検出された顔の位置、大きさ、顔の向きの角度を、それ以前のフレームで検出された顔の位置、大きさ、顔の向きの角度と平均化した値を算出(加重平均、古いフレームほど重みを低くするなど)し、平均化された顔の位置、大きさ、角度に基づいて眼の検出を行っても良い。
撮像装置の揺れで顔の検出の位置、大きさ、角度がフレーム間でばらつく事により、選択される顔の位置や向きが変わることで選択される眼(左右)が変ってしまうことを防ぐことができる。
なお、最新のフレームで検出している顔や眼の人物と異なる人物の顔や眼が選択された場合や、前回のフレームで顔や眼を検出してから所定の時間が経過した後に顔や眼を検出した場合や、検出した顔の位置が大きく変化した場合には、最新のフレームで検出した顔の位置、大きさ、角度と、それ以前に検出された顔の位置、大きさ、角度を平均化せず、新たなフレームから以降に撮影されたフレームで平均化を行っても良い。
上記の説明で、前回の顔や眼を検出してから所定の時間が経過した後に顔や眼を検出した場合とは、顔や眼を検出して以降、所定のフレーム数にわたり顔や眼を検出できず、所定のフレーム数の後に再び顔や眼を検出できた場合のことである。
最新のフレーム(所定の時間間隔で撮像して生成される画像をフレームと呼ぶ。)で検出された顔の位置、大きさ、顔の向きの角度を、それ以前のフレームで検出された顔の位置、大きさ、顔の向きの角度と平均化した値を算出(加重平均、古いフレームほど重みを低くするなど)し、平均化された顔の位置、大きさ、角度に基づいて眼の検出を行っても良い。
撮像装置の揺れで顔の検出の位置、大きさ、角度がフレーム間でばらつく事により、選択される顔の位置や向きが変わることで選択される眼(左右)が変ってしまうことを防ぐことができる。
なお、最新のフレームで検出している顔や眼の人物と異なる人物の顔や眼が選択された場合や、前回のフレームで顔や眼を検出してから所定の時間が経過した後に顔や眼を検出した場合や、検出した顔の位置が大きく変化した場合には、最新のフレームで検出した顔の位置、大きさ、角度と、それ以前に検出された顔の位置、大きさ、角度を平均化せず、新たなフレームから以降に撮影されたフレームで平均化を行っても良い。
上記の説明で、前回の顔や眼を検出してから所定の時間が経過した後に顔や眼を検出した場合とは、顔や眼を検出して以降、所定のフレーム数にわたり顔や眼を検出できず、所定のフレーム数の後に再び顔や眼を検出できた場合のことである。
(変形例7)
現在のフレームで検出された眼の大きさ、眼の位置をそれ以前のフレームで検出した眼の大きさ、眼の位置と平均化した値を算出(加重平均、古いフレームほど重みを低くするなど)し、表示枠を表示しても構わない。
これによりフレーム間で、表示枠の大きさが変ったり、位置がずれるのを防ぐことができる。
なお、現在検出している顔や眼の人物と異なる人物の顔や眼が選択された場合や、現在検出している眼と異なる眼が選択された場合や、前回眼を検出してから所定の時間が経過した後に眼を検出した場合や、眼の検出の位置がかなりずれた場合には、現在のフレームで検出した眼の位置、大きさと、それ以前に検出された眼の位置、大きさを平均化せず、新たなフレームから以降に撮影されたフレームで平均化を行っても良い。
現在のフレームで検出された眼の大きさ、眼の位置をそれ以前のフレームで検出した眼の大きさ、眼の位置と平均化した値を算出(加重平均、古いフレームほど重みを低くするなど)し、表示枠を表示しても構わない。
これによりフレーム間で、表示枠の大きさが変ったり、位置がずれるのを防ぐことができる。
なお、現在検出している顔や眼の人物と異なる人物の顔や眼が選択された場合や、現在検出している眼と異なる眼が選択された場合や、前回眼を検出してから所定の時間が経過した後に眼を検出した場合や、眼の検出の位置がかなりずれた場合には、現在のフレームで検出した眼の位置、大きさと、それ以前に検出された眼の位置、大きさを平均化せず、新たなフレームから以降に撮影されたフレームで平均化を行っても良い。
(変形例8)
顔に表示枠を表示するか、眼に表示枠を表示するかを、検出した顔の大きさが基準の値より大きいか小さいかにより変更してもよい。また、基準値を顔の表示枠の表示から眼の表示枠の表示へ変更する場合と、その逆の場合とで変更しても構わない。例えば、顔の大きさが撮影画像データ中の大きさで50ピクセル(画素)以上あった場合には眼に表示枠を表示し、顔の大きさが撮影画像データ中の大きさで50ピクセル(画素)より小さい場合には顔に表示枠を表示する。
前のフレームで顔に表示枠を表示している場合は、顔の大きさが撮影画像データ中の大きさで55ピクセル(画素)以上になったら、顔の表示枠から眼の表示枠を表示するように変更する。逆に前のフレームで眼に表示枠を表示している場合には、顔の大きさが撮影画像データ中の大きさで45ピクセル以下なったら眼の表示枠から顔の表示枠を表示するように変更する。つまり、顔の表示枠から眼の表示枠の表示へと変更する場合の顔の大きさの基準と、眼の表示枠から顔の表示枠の表示へと変更する場合の顔の大きさの基準を異なるようにしても良い。
これにより、眼の大きさが多少変わった場合に、時間の経過とともに連続して表示される画像間で、顔の表示枠の表示と眼の表示枠の表示とが頻繁に変更されることを防ぐことができる。
顔に表示枠を表示するか、眼に表示枠を表示するかを、検出した顔の大きさが基準の値より大きいか小さいかにより変更してもよい。また、基準値を顔の表示枠の表示から眼の表示枠の表示へ変更する場合と、その逆の場合とで変更しても構わない。例えば、顔の大きさが撮影画像データ中の大きさで50ピクセル(画素)以上あった場合には眼に表示枠を表示し、顔の大きさが撮影画像データ中の大きさで50ピクセル(画素)より小さい場合には顔に表示枠を表示する。
前のフレームで顔に表示枠を表示している場合は、顔の大きさが撮影画像データ中の大きさで55ピクセル(画素)以上になったら、顔の表示枠から眼の表示枠を表示するように変更する。逆に前のフレームで眼に表示枠を表示している場合には、顔の大きさが撮影画像データ中の大きさで45ピクセル以下なったら眼の表示枠から顔の表示枠を表示するように変更する。つまり、顔の表示枠から眼の表示枠の表示へと変更する場合の顔の大きさの基準と、眼の表示枠から顔の表示枠の表示へと変更する場合の顔の大きさの基準を異なるようにしても良い。
これにより、眼の大きさが多少変わった場合に、時間の経過とともに連続して表示される画像間で、顔の表示枠の表示と眼の表示枠の表示とが頻繁に変更されることを防ぐことができる。
(変形例9)
上述した実施形態では、顔や眼を検出し、検出した顔や眼の合焦状態を検出する例を示したがこれに限定されない。例えば、撮影して取得した画像からユーザが選択した画像の一部を特徴物として登録し、登録された特徴物を画像データから検出し、合焦状態を検出する構成にしてもよい。もしくは、眼以外にも、唇、サッカーボール、食べ物や指輪など検出できる物体をカメラで設定できるようにしてもよい。また、カメラが複数のシーンに応じた撮影モードを有する場合に、撮影モードに応じて合焦状態を検出する対象を変更してもよい。具体的には、カメラの撮影モードがポートレートモードである場合は眼を検出し、検出した眼の合焦状態を検出し、スポーツモードである場合はボールを検出し、検出したボールの合焦状態を検出するなどとしてもよい。なお、食べ物の場合にはケーキのバースデープレートやロウソクやメインディッシュを検出しても構わない。
上述した実施形態では、顔や眼を検出し、検出した顔や眼の合焦状態を検出する例を示したがこれに限定されない。例えば、撮影して取得した画像からユーザが選択した画像の一部を特徴物として登録し、登録された特徴物を画像データから検出し、合焦状態を検出する構成にしてもよい。もしくは、眼以外にも、唇、サッカーボール、食べ物や指輪など検出できる物体をカメラで設定できるようにしてもよい。また、カメラが複数のシーンに応じた撮影モードを有する場合に、撮影モードに応じて合焦状態を検出する対象を変更してもよい。具体的には、カメラの撮影モードがポートレートモードである場合は眼を検出し、検出した眼の合焦状態を検出し、スポーツモードである場合はボールを検出し、検出したボールの合焦状態を検出するなどとしてもよい。なお、食べ物の場合にはケーキのバースデープレートやロウソクやメインディッシュを検出しても構わない。
本発明は上述した内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
日本国特願2018-248622号(2018年12月28日出願)
日本国特願2018-248622号(2018年12月28日出願)
1…カメラシステム、2…カメラボディ、3…交換レンズ、230…ボディ側制御部、235…記憶部、40,41,51,59,71,81,84A、133…表示枠、52,53,72,73,82,83,85…三角印、270…信号処理部、280、281-284…操作部材、290…表示部、290A…タッチ操作部材、360…撮影光学系、370…レンズ駆動部
Claims (13)
- 画像を表示する表示部と、
前記画像から眼及び顔を検出する検出部と、
前記表示部への表示を制御する制御部とを備え、
前記制御部は、前記画像に含まれる第1の眼に第1表示を重畳して表示し、前記第1の眼とは異なる第2の眼と、前記第1の眼を有する第1の顔と異なる第2の顔との少なくとも一方が前記画像に含まれている場合、前記第1表示と異なる形状の第2表示を前記画像に重畳して表示する電子機器。 - 請求項1に記載の電子機器であって、
少なくとも2方向の方向指示操作を受け付ける操作部を備え、
前記第2表示は、前記操作部の操作により、前記画像に含まれる前記第2の眼または前記第2の顔を選択可能であることを示す電子機器。 - 請求項2に記載の電子機器であって、
前記制御部は、前記操作部の操作により選択された前記第2の眼または前記第2の顔に前記第1表示を重畳して表示する電子機器。 - 請求項3に記載の電子機器であって、
前記検出部により検出された眼のなかから、いずれかの眼を選択して前記第1の眼とする選択部を備え、
前記制御部は、前記選択部で選択された前記第1の眼に重畳して表示する場合と、前記操作部の操作により選択された前記第2の眼または前記第2の顔に重畳して表示する場合とで、前記第1表示の表示態様を異ならせる電子機器。 - 請求項3または請求項4に記載の電子機器であって、
前記制御部は、前記第1表示および前記第2表示を表示しているときに、前記操作部の操作により第1方向が指示された場合、且つ、前記第1表示に対する前記画像上の前記第1方向において、前記第1の眼を有する顔に前記第2の眼がある場合、前記第2の眼に前記第1表示を表示し、前記操作部の操作により前記第1方向が指示された場合、且つ、前記第1方向において、前記第1の眼を有する顔に他の眼がない場合、前記第1方向に最も距離の近い前記第2の顔または前記第1方向に最も距離の近い顔に含まれる前記第2の眼に前記第1表示を表示する電子機器。 - 請求項2から請求項5のいずれか一項に記載の電子機器であって、
前記第2表示は、前記操作部の操作により選択可能な前記第2の眼または前記第2の顔の前記画像上の位置に関する情報を示す電子機器。 - 請求項2から請求項6のいずれか一項に記載の電子機器であって、
前記制御部は、前記操作部の操作により前記第2の眼が選択可能な場合と、前記第2の顔が選択可能な場合とで、前記第2表示の態様を異ならせる電子機器。 - 請求項1から請求項7のいずれか一項に記載の電子機器であって、
前記表示部は、ライブビュー画像を表示し、
前記制御部は、前記第1表示および前記第2表示を前記ライブビュー画像に重畳して表示する電子機器。 - 請求項1から請求項8のいずれか一項に記載の電子機器であって、
前記第2表示は三角印である電子機器。 - 請求項1から請求項8のいずれか一項に記載の電子機器であって、
前記第2表示は矢印である電子機器。 - 請求項1から請求項10のいずれか一項に記載の電子機器であって、
前記第1表示は、フォーカス調整を行う位置を示す枠である電子機器。 - 請求項1から請求項11のいずれか一項に記載の電子機器であって、
前記画像を撮像する撮像手段を備える電子機器。 - コンピュータに、
画像を表示させることと、
前記画像から眼及び顔を検出させることと、
前記画像に含まれる第1の眼に第1表示を重畳して表示し、前記第1の眼とは異なる第2の眼と、前記第1の眼を有する第1の顔と異なる第2の顔との少なくとも一方が前記画像に含まれている場合、前記第1表示とは異なる形状の第2表示を前記画像に重畳して表示させることと、
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024001773A JP2024041880A (ja) | 2018-12-28 | 2024-01-10 | 電子機器 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018248622 | 2018-12-28 | ||
JP2018248622 | 2018-12-28 | ||
PCT/JP2019/051616 WO2020138497A1 (ja) | 2018-12-28 | 2019-12-27 | 電子機器、カメラおよびプログラム |
JP2020562552A JP7211432B2 (ja) | 2018-12-28 | 2019-12-27 | 電子機器およびプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020562552A Division JP7211432B2 (ja) | 2018-12-28 | 2019-12-27 | 電子機器およびプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024001773A Division JP2024041880A (ja) | 2018-12-28 | 2024-01-10 | 電子機器 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023052357A JP2023052357A (ja) | 2023-04-11 |
JP7424521B2 true JP7424521B2 (ja) | 2024-01-30 |
Family
ID=71127049
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020562552A Active JP7211432B2 (ja) | 2018-12-28 | 2019-12-27 | 電子機器およびプログラム |
JP2023003097A Active JP7424521B2 (ja) | 2018-12-28 | 2023-01-12 | 電子機器、及びプログラム |
JP2024001773A Pending JP2024041880A (ja) | 2018-12-28 | 2024-01-10 | 電子機器 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020562552A Active JP7211432B2 (ja) | 2018-12-28 | 2019-12-27 | 電子機器およびプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024001773A Pending JP2024041880A (ja) | 2018-12-28 | 2024-01-10 | 電子機器 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220086361A1 (ja) |
JP (3) | JP7211432B2 (ja) |
CN (4) | CN117061870A (ja) |
WO (1) | WO2020138497A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022131706A (ja) * | 2021-02-26 | 2022-09-07 | キヤノン株式会社 | 画像処理装置およびその制御方法、撮像装置、プログラム |
WO2023189366A1 (ja) * | 2022-03-30 | 2023-10-05 | ソニーグループ株式会社 | 撮像装置、撮像制御方法、プログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009038750A (ja) | 2007-08-03 | 2009-02-19 | Canon Inc | 画像処理装置、画像処理方法および画像処理プログラム |
JP2009094725A (ja) | 2007-10-05 | 2009-04-30 | Fujifilm Corp | 撮像方法及び装置 |
JP2011013683A (ja) | 2010-08-13 | 2011-01-20 | Ricoh Co Ltd | 撮像装置、自動合焦方法、およびその方法をコンピュータが実行するためのプログラム |
JP2015096961A (ja) | 2014-12-16 | 2015-05-21 | オリンパスイメージング株式会社 | 撮像装置 |
JP2016197179A (ja) | 2015-04-03 | 2016-11-24 | キヤノン株式会社 | 焦点検出装置およびその制御方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4536218B2 (ja) * | 2000-06-19 | 2010-09-01 | オリンパス株式会社 | 合焦装置及び撮像装置 |
JP4553346B2 (ja) * | 2003-10-22 | 2010-09-29 | キヤノン株式会社 | 焦点調節装置及び焦点調節方法 |
JP4782725B2 (ja) * | 2007-05-10 | 2011-09-28 | 富士フイルム株式会社 | 合焦装置および方法並びにプログラム |
JP2010103615A (ja) | 2008-10-21 | 2010-05-06 | Sony Corp | 撮像装置およびその制御方法 |
JP2010217915A (ja) * | 2010-05-17 | 2010-09-30 | Canon Inc | 撮像装置及びその制御方法 |
JP5669549B2 (ja) * | 2010-12-10 | 2015-02-12 | オリンパスイメージング株式会社 | 撮像装置 |
JP5883564B2 (ja) * | 2011-02-03 | 2016-03-15 | オリンパス株式会社 | 撮像装置 |
CN102914932A (zh) * | 2011-08-03 | 2013-02-06 | 浪潮乐金数字移动通信有限公司 | 一种利用摄像设备用户的眼睛来对焦的方法及摄像设备 |
JP2016039573A (ja) | 2014-08-08 | 2016-03-22 | キヤノン株式会社 | 撮像システム |
CN106060373B (zh) * | 2015-04-03 | 2019-12-20 | 佳能株式会社 | 焦点检测装置及其控制方法 |
JP6701145B2 (ja) * | 2017-10-16 | 2020-05-27 | キヤノン株式会社 | 電子機器及びその制御方法 |
JP6602361B2 (ja) * | 2017-10-16 | 2019-11-06 | キヤノン株式会社 | 電子機器及びその制御方法 |
JP7418104B2 (ja) * | 2019-08-30 | 2024-01-19 | キヤノン株式会社 | 画像処理装置及び画像処理装置の制御方法 |
JP7433860B2 (ja) * | 2019-11-26 | 2024-02-20 | キヤノン株式会社 | 電子機器及び電子機器の制御方法 |
-
2019
- 2019-12-27 CN CN202311260050.9A patent/CN117061870A/zh active Pending
- 2019-12-27 US US17/418,096 patent/US20220086361A1/en active Pending
- 2019-12-27 CN CN202311259988.9A patent/CN117119301A/zh active Pending
- 2019-12-27 JP JP2020562552A patent/JP7211432B2/ja active Active
- 2019-12-27 WO PCT/JP2019/051616 patent/WO2020138497A1/ja active Application Filing
- 2019-12-27 CN CN201980091466.8A patent/CN113475055B/zh active Active
- 2019-12-27 CN CN202311259923.4A patent/CN117061869A/zh active Pending
-
2023
- 2023-01-12 JP JP2023003097A patent/JP7424521B2/ja active Active
-
2024
- 2024-01-10 JP JP2024001773A patent/JP2024041880A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009038750A (ja) | 2007-08-03 | 2009-02-19 | Canon Inc | 画像処理装置、画像処理方法および画像処理プログラム |
JP2009094725A (ja) | 2007-10-05 | 2009-04-30 | Fujifilm Corp | 撮像方法及び装置 |
JP2011013683A (ja) | 2010-08-13 | 2011-01-20 | Ricoh Co Ltd | 撮像装置、自動合焦方法、およびその方法をコンピュータが実行するためのプログラム |
JP2015096961A (ja) | 2014-12-16 | 2015-05-21 | オリンパスイメージング株式会社 | 撮像装置 |
JP2016197179A (ja) | 2015-04-03 | 2016-11-24 | キヤノン株式会社 | 焦点検出装置およびその制御方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020138497A1 (ja) | 2020-07-02 |
JPWO2020138497A1 (ja) | 2021-11-11 |
JP7211432B2 (ja) | 2023-01-24 |
US20220086361A1 (en) | 2022-03-17 |
CN113475055A (zh) | 2021-10-01 |
CN117119301A (zh) | 2023-11-24 |
JP2023052357A (ja) | 2023-04-11 |
CN117061870A (zh) | 2023-11-14 |
CN117061869A (zh) | 2023-11-14 |
JP2024041880A (ja) | 2024-03-27 |
CN113475055B (zh) | 2023-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7424521B2 (ja) | 電子機器、及びプログラム | |
US9781351B2 (en) | Zooming control device and method for controlling zooming control device | |
US8711274B2 (en) | Image processing apparatus and method configured to calculate defocus amount of designated area | |
US20160191810A1 (en) | Zoom control device, imaging apparatus, control method of zoom control device, and recording medium | |
US11128805B2 (en) | Zoom control device, zoom control method, control program, and imaging apparatus equipped with zoom control device | |
US10136067B2 (en) | Observation apparatus providing an enlarged display for facilitating changing an image-pickup condition | |
US10477101B2 (en) | Focus detection apparatus, control method and storage medium | |
JP6525809B2 (ja) | 焦点検出装置及びその制御方法 | |
US11662809B2 (en) | Image pickup apparatus configured to use line of sight for imaging control and control method thereof | |
JP2007133301A (ja) | オートフォーカスカメラ | |
JP2021021857A (ja) | 撮像装置およびその制御方法 | |
JP5409483B2 (ja) | 撮像装置 | |
JP4941141B2 (ja) | 撮像装置 | |
JP6501536B2 (ja) | 撮像装置及びその制御方法、プログラム、記憶媒体 | |
JP2005338614A (ja) | 撮影装置及びそのプログラム | |
JP2013076823A (ja) | 画像処理装置、内視鏡システム、画像処理方法及びプログラム | |
JP5581838B2 (ja) | 自動合焦制御装置、電子カメラ及び自動合焦制御方法 | |
JP6335520B2 (ja) | 撮像装置、撮像装置の制御方法、および撮像装置の制御プログラム | |
JP5344770B2 (ja) | 撮影装置 | |
JP6437066B2 (ja) | 撮像装置、撮像装置の制御方法および撮像装置の制御プログラム | |
JP6858059B2 (ja) | 撮像装置及びその制御方法、プログラム、記憶媒体 | |
JP2007057933A (ja) | 電子ビューファインダを有するカメラ | |
JP6801359B2 (ja) | 撮像装置 | |
JP6260153B2 (ja) | 撮像装置 | |
JP2009290519A (ja) | カメラ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7424521 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |