JP2008085737A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2008085737A
JP2008085737A JP2006264142A JP2006264142A JP2008085737A JP 2008085737 A JP2008085737 A JP 2008085737A JP 2006264142 A JP2006264142 A JP 2006264142A JP 2006264142 A JP2006264142 A JP 2006264142A JP 2008085737 A JP2008085737 A JP 2008085737A
Authority
JP
Japan
Prior art keywords
display
face
electronic camera
image
panel member
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006264142A
Other languages
Japanese (ja)
Inventor
Minoru Kato
稔 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006264142A priority Critical patent/JP2008085737A/en
Publication of JP2008085737A publication Critical patent/JP2008085737A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic camera capable of easily selecting a specified face from a plurality of faces in an image. <P>SOLUTION: The electronic camera includes: a face detection means 18 for detecting the face of a person from an image; a display device 21 for giving a display indicating the position of the face detected by the face detection means 18 together with the image; a touch panel member 22 provided on the display surface of the display device 21; and control means 18 and 20 for selecting the display indicating the face position corresponding to a touch operation signal output from the touch panel member 22 and displaying the selected display at the display device 21 in a form different from that for the display indicating non-selected face position. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、電子カメラに関する。   The present invention relates to an electronic camera.

画像から人物の顔を検出し、検出した顔部分を測距エリアとするカメラが知られている(たとえば、特許文献1参照)。   A camera that detects a human face from an image and uses the detected face portion as a distance measuring area is known (for example, see Patent Document 1).

特開2003−107335号公報JP 2003-107335 A

従来技術の電子カメラでは、画像から複数の顔が検出された場合に、複数の顔からピント合わせなどの対象とする顔を選択しづらい。   In a conventional electronic camera, when a plurality of faces are detected from an image, it is difficult to select a face to be focused on from a plurality of faces.

(1)本発明による電子カメラは、画像から人物の顔を検出する顔検出手段と、顔検出手段が検出した顔位置を示す表示を画像とともに表示する表示装置と、表示装置の表示面に設けられたタッチパネル部材と、タッチパネル部材から出力されるタッチ操作信号に対応する顔位置を示す表示を選択し、該選択した表示を非選択の顔位置を示す表示と異なる態様で表示装置に表示させる制御手段とを備えることを特徴とする。
(2)請求項1に記載の電子カメラにおいて、制御手段はさらに、タッチパネル部材から出力されるタッチ操作信号に対応する位置で顔が検出されていない場合、該位置を含む所定範囲の画像から検出ゲインを変えて人物の顔を再検出するように顔検出手段を制御することもできる。
(3)請求項2に記載の電子カメラにおいて、制御手段は、顔検出手段による再検出で顔が検出された場合、該顔位置を示す表示を選択し、該選択した表示を非選択の顔位置を示す表示と異なる態様で表示装置に表示させることもできる。
(4)請求項1に記載の電子カメラにおいて、制御手段は、顔位置を示す表示に対するタッチ操作信号がタッチパネル部材から出力された場合、該表示を選択するとともに該選択表示を非選択の顔位置を示す表示と異なる態様で表示装置に表示させ、該選択中の表示に対するタッチ操作信号がタッチパネル部材から出力された場合、該表示の選択を解除するとともに該選択解除した表示を非選択の顔位置を示す表示と同態様で表示装置に表示させることもできる。
(5)請求項1に記載の電子カメラにおいて、制御手段は、顔位置を示す表示に対するタッチ操作信号が2つ以上続けてタッチパネル部材から出力された場合、該表示を選択するとともに該選択表示を非選択の顔位置を示す表示と異なる態様で表示装置に表示させ、該選択中の表示に対するタッチ操作信号が2つ以上続けてタッチパネル部材から出力された場合、該表示の選択を解除するとともに該選択解除した表示を非選択の顔位置を示す表示と同態様で表示装置に表示させることもできる。
(6)請求項1に記載の電子カメラはさらに、画像を記憶する記憶回路を備えてもよい。この場合の制御手段は、顔位置を示す表示に対するタッチ操作信号がタッチパネル部材から出力された場合、該表示を選択するとともに該選択表示を非選択の顔位置を示す表示と異なる態様で表示装置に表示させ、さらに該選択表示に対応する顔の画像情報を記憶回路に記憶させることもできる。
(7)請求項6に記載の電子カメラにおいて、制御手段は、顔検出手段が検出した顔が記憶回路に記憶されている顔の画像情報と合致する場合、該顔の位置を示す表示を選択するとともに該選択表示を非選択の顔位置を示す表示と異なる態様で表示装置に表示させることもできる。
(8)請求項1〜7のいずれか一項に記載の電子カメラにおいて、制御手段はさらに、選択した表示に対応する顔の画像を焦点検出対象または測光対象とすることが好ましい。
(9)請求項8に記載の電子カメラにおいて、制御手段はさらに、顔位置を示す表示を複数選択している場合、該複数の選択表示に対応する複数の顔の画像をそれぞれ焦点検出対象とし、該複数の顔の画像のコントラストがそれぞれ所定値以上となるように絞り制御指示を出力することが好ましい。
(10)請求項1に記載の電子カメラにおいて、制御手段は、顔位置を示す表示に対する1つ目のタッチ操作信号がタッチパネル部材から出力された場合、該表示を選択するとともに該選択表示を非選択の顔位置を示す表示と異なる態様で表示装置に表示させ、さらに該選択表示に対応する顔の画像を対象にした1回の焦点調節を焦点調節手段へ指示し、該選択中の表示に対する2つ目のタッチ操作信号がタッチパネル部材から出力された場合、該選択表示に対応する顔の画像を対象にした測光および撮影開始の指示を出力することもできる。
(11)請求項1に記載の電子カメラにおいて、制御手段は、顔位置を示す表示に対する1つ目のタッチ操作信号がタッチパネル部材から出力された場合、該表示を選択するとともに該選択表示を非選択の顔位置を示す表示と異なる態様で表示装置に表示させ、さらに該選択表示に対応する顔の画像を対象にした焦点調節を繰り返すように焦点調節手段へ指示し、該選択中の表示に対する2つ目のタッチ操作信号がタッチパネル部材から出力された場合、該選択表示に対応する顔の画像を対象にした測光および撮影開始の指示を出力することもできる。
(1) An electronic camera according to the present invention is provided on a display surface of a face detection unit that detects a face of a person from an image, a display that displays a face position detected by the face detection unit together with the image, and a display surface of the display device Control for selecting the displayed touch panel member and a display indicating the face position corresponding to the touch operation signal output from the touch panel member, and causing the display device to display the selected display differently from the display indicating the non-selected face position. Means.
(2) In the electronic camera according to (1), when the face is not detected at a position corresponding to the touch operation signal output from the touch panel member, the control unit further detects the face from an image in a predetermined range including the position. It is also possible to control the face detecting means so that the face of the person is redetected by changing the gain.
(3) In the electronic camera according to claim 2, when the face is detected by re-detection by the face detecting means, the control means selects a display indicating the face position, and selects the selected display as a non-selected face. It can also be displayed on the display device in a manner different from the display showing the position.
(4) In the electronic camera according to claim 1, when the touch operation signal for the display indicating the face position is output from the touch panel member, the control unit selects the display and the selected display is not selected. When the touch operation signal for the currently selected display is output from the touch panel member, the display is deselected and the deselected display is deselected. Can also be displayed on the display device in the same manner as the display showing.
(5) In the electronic camera according to claim 1, the control means selects the display and displays the selection display when two or more touch operation signals for the display indicating the face position are continuously output from the touch panel member. When the display device is displayed in a manner different from the display indicating the non-selected face position and two or more touch operation signals for the selected display are output from the touch panel member in succession, the selection of the display is canceled and the display The deselected display can be displayed on the display device in the same manner as the display indicating the non-selected face position.
(6) The electronic camera according to claim 1 may further include a storage circuit for storing an image. In this case, when a touch operation signal for the display indicating the face position is output from the touch panel member, the control means selects the display and displays the selected display in a manner different from the display indicating the non-selected face position. Further, the image information of the face corresponding to the selection display can be stored in the storage circuit.
(7) In the electronic camera according to claim 6, when the face detected by the face detection means matches the face image information stored in the storage circuit, the control means selects a display indicating the position of the face In addition, the selected display can be displayed on the display device in a manner different from the display indicating the non-selected face position.
(8) In the electronic camera according to any one of claims 1 to 7, it is preferable that the control unit further sets a face image corresponding to the selected display as a focus detection target or a photometry target.
(9) In the electronic camera according to claim 8, when the control unit further selects a plurality of displays indicating the face position, a plurality of face images corresponding to the plurality of selection displays are set as focus detection targets. Preferably, the aperture control instruction is output so that the contrast of the images of the plurality of faces is equal to or greater than a predetermined value.
(10) In the electronic camera according to claim 1, when the first touch operation signal for the display indicating the face position is output from the touch panel member, the control unit selects the display and disables the selection display. Display on the display device in a manner different from the display showing the selected face position, and further instruct the focus adjusting means to perform one focus adjustment on the face image corresponding to the selected display, and to the display being selected When the second touch operation signal is output from the touch panel member, it is also possible to output a photometry and shooting start instruction for the face image corresponding to the selection display.
(11) In the electronic camera according to (1), when the first touch operation signal for the display indicating the face position is output from the touch panel member, the control unit selects the display and disables the selection display. The display is displayed on the display device in a mode different from the display indicating the selected face position, and the focus adjustment unit is instructed to repeat the focus adjustment on the face image corresponding to the selected display, and the display during the selection is performed. When the second touch operation signal is output from the touch panel member, it is also possible to output a photometry and shooting start instruction for the face image corresponding to the selection display.

本発明による電子カメラでは、画像中の複数の顔から特定の顔を簡単に選ぶことができる。   In the electronic camera according to the present invention, a specific face can be easily selected from a plurality of faces in the image.

以下、図面を参照して本発明を実施するための最良の形態について説明する。
(第一の実施形態)
図1は、本発明の第一の実施形態による電子カメラ10の要部構成を説明するブロック図である。図1において、タイミングジェネレータ(TG)15は、メインCPU18から送出される指示に応じて、タイミング信号をドライバ14、AFE(Analog Front End)回路12、A/D変換回路13および画像処理回路16へ供給する。ドライバ14は、撮像素子11で必要な駆動信号を供給する。
The best mode for carrying out the present invention will be described below with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram for explaining a main configuration of an electronic camera 10 according to the first embodiment of the present invention. In FIG. 1, a timing generator (TG) 15 sends timing signals to a driver 14, an AFE (Analog Front End) circuit 12, an A / D conversion circuit 13, and an image processing circuit 16 in accordance with an instruction sent from the main CPU 18. Supply. The driver 14 supplies drive signals necessary for the image sensor 11.

撮影レンズLは、撮像素子11の撮像面に被写体像を結像させる。撮像素子11は、撮像素子11は、画素に対応する複数の光電変換素子を備えたCCDイメージセンサなどによって構成され、撮像面上に結像されている被写体像を撮像し、被写体像の明るさに応じた光電変換信号を出力する。撮像素子11の撮像面には、それぞれR(赤)、G(緑)およびB(青)のカラーフィルタが画素位置に対応するように設けられている。撮像素子11がカラーフィルタを通して被写体像を撮像するため、撮像素子11から出力される撮像信号は、それぞれRGB表色系の色情報を有する。   The photographing lens L forms a subject image on the imaging surface of the image sensor 11. The image sensor 11 is configured by a CCD image sensor or the like including a plurality of photoelectric conversion elements corresponding to pixels, and captures a subject image formed on the imaging surface, and brightness of the subject image. A photoelectric conversion signal corresponding to the output is output. R (red), G (green), and B (blue) color filters are provided on the imaging surface of the imaging element 11 so as to correspond to the pixel positions, respectively. Since the image pickup device 11 picks up a subject image through the color filter, each image pickup signal output from the image pickup device 11 has RGB color system color information.

AFE回路12は、撮像素子11から出力される光電変換信号に対するアナログ処理(ゲインコントロールなど)を行う。A/D変換回路13は、アナログ処理後の撮像信号をディジタル信号に変換する。   The AFE circuit 12 performs analog processing (such as gain control) on the photoelectric conversion signal output from the image sensor 11. The A / D conversion circuit 13 converts the image pickup signal after analog processing into a digital signal.

メインCPU18は、各ブロックから出力される信号を入力して所定の演算を行い、演算結果に基づく制御信号を各ブロックへ出力する。画像処理回路16は、たとえばASICとして構成され、A/D変換回路13から入力されるディジタル画像信号に対する画像処理を行う。画像処理には、たとえば、輪郭強調や色温度調整(ホワイトバランス調整)処理、画像信号に対するフォーマット変換処理が含まれる。   The main CPU 18 inputs a signal output from each block, performs a predetermined calculation, and outputs a control signal based on the calculation result to each block. The image processing circuit 16 is configured as an ASIC, for example, and performs image processing on the digital image signal input from the A / D conversion circuit 13. The image processing includes, for example, contour enhancement, color temperature adjustment (white balance adjustment) processing, and format conversion processing for an image signal.

画像圧縮回路17は、画像処理回路16による処理後の画像信号に対して、JPEG方式で所定の圧縮比率の画像圧縮処理を行う。表示画像作成回路20は、撮像画像を液晶モニタ21に表示させるための表示データを作成する。   The image compression circuit 17 performs image compression processing at a predetermined compression ratio on the image signal processed by the image processing circuit 16 by the JPEG method. The display image creation circuit 20 creates display data for displaying the captured image on the liquid crystal monitor 21.

液晶モニタ21は、表示画像作成回路20から入力される表示データによる再生画像を表示する。液晶モニタ21の表示画面上にはタッチ操作部材22が積層されている。タッチ操作部材22は、ユーザーによってタッチ操作された場合に操作部材22上(すなわち液晶モニタ21の表示画面上)のタッチ位置を示す信号を発生し、メインCPU18へ送出する。   The liquid crystal monitor 21 displays a reproduced image based on the display data input from the display image creation circuit 20. A touch operation member 22 is stacked on the display screen of the liquid crystal monitor 21. The touch operation member 22 generates a signal indicating a touch position on the operation member 22 (that is, on the display screen of the liquid crystal monitor 21) when the user performs a touch operation, and sends the signal to the main CPU 18.

記録媒体30は、電子カメラ10に対して着脱可能なメモリカードなどで構成される。記録媒体30には、メインCPU18からの指示によって撮影画像のデータおよびその情報を含む画像ファイルが記録される。記録媒体30に記録された画像ファイルは、メインCPU18からの指示によって読み出しが可能である。   The recording medium 30 includes a memory card that can be attached to and detached from the electronic camera 10. The recording medium 30 records captured image data and an image file including the information in accordance with an instruction from the main CPU 18. The image file recorded on the recording medium 30 can be read by an instruction from the main CPU 18.

バッファメモリ19は、画像処理前後および画像処理途中のデータを一時的に格納する他、記録媒体30へ記録する前の画像ファイルを格納したり、記録媒体30から読み出した画像ファイルを格納したりするために使用される。   The buffer memory 19 temporarily stores data before and after image processing and during image processing, stores an image file before recording on the recording medium 30, and stores an image file read from the recording medium 30. Used for.

操作部材23は、電子カメラ10の操作ボタン類に対応し、各ボタンの押下操作に対応する操作信号をメインCPU18へ出力する。レンズ駆動装置24は、メインCPU18から送出される指示に応じて撮影レンズLを構成するフォーカスレンズを光軸方向に進退駆動させることにより、撮影レンズLによるフォーカス調節を行う。   The operation member 23 corresponds to the operation buttons of the electronic camera 10 and outputs an operation signal corresponding to the pressing operation of each button to the main CPU 18. The lens driving device 24 performs focus adjustment by the photographic lens L by driving the focus lens constituting the photographic lens L forward and backward in the optical axis direction in accordance with an instruction sent from the main CPU 18.

本実施形態の電子カメラは、人物の顔を主要被写体とする撮影(本説明では顔認識モードと呼ぶ)に特徴を有するので、顔認識モード処理を中心に説明する。   The electronic camera according to the present embodiment is characterized by shooting with a human face as a main subject (referred to as a face recognition mode in the present description), and therefore the description will focus on face recognition mode processing.

図2は、メインCPU18によって行われる顔認識モード処理の流れを説明するフローチャートである。図2による処理は、たとえば、電子カメラの撮影アシスト機能の中から「顔認識モード」が選択されると起動する。撮影アシスト機能の選択は、メニュー操作モードの中で行われる。   FIG. 2 is a flowchart for explaining the flow of the face recognition mode process performed by the main CPU 18. The process shown in FIG. 2 is started when “face recognition mode” is selected from the photographing assist function of the electronic camera, for example. The shooting assist function is selected in the menu operation mode.

図2のステップS11において、メインCPU18は、スルー画像を用いて顔検出処理を行い、人物の顔を検出したか否かを判定する。スルー画像は、撮影指示前に撮像素子11で逐次撮像され、液晶モニタ21に再生表示される画像である。   In step S11 of FIG. 2, the main CPU 18 performs face detection processing using the through image and determines whether or not a human face has been detected. The through image is an image that is sequentially picked up by the image pickup device 11 and is reproduced and displayed on the liquid crystal monitor 21 before the shooting instruction.

メインCPU18は、スルー画像の中から以下のように人物の顔の抽出を行う。抽出方法としては、たとえば、特開平9−138470号公報に開示される、特定色を抽出する方法、特定形状パターンを抽出する方法、背景に相当すると推定される領域を除去する方法等、複数の異なる抽出方法をあらかじめ評価して重みを定め、各抽出方法で主要な被写体像(主要部)を抽出して、抽出された主要部を定めた重みで重み付けし、その結果に応じて主要部を判定、抽出する。   The main CPU 18 extracts a human face from the through image as follows. As an extraction method, there are a plurality of methods such as a method for extracting a specific color, a method for extracting a specific shape pattern, a method for removing a region estimated to correspond to the background, and the like disclosed in JP-A-9-138470. Evaluate different extraction methods in advance to determine the weight, extract the main subject image (main part) with each extraction method, weight the extracted main part with the determined weight, and select the main part according to the result Judge and extract.

また、別の主要部抽出方法としては、特開平9−138471号公報に開示される、画像中の複数点の濃度または輝度を測定してその変化量を求め、変化量が所定値以上の点を基準点として設定した後に、基準点から所定範囲内で濃度等の変化量等を用いて検索範囲および検索方向パターンを設定し、検索範囲内で検索方向パターンが示す方向における濃度等の変化量が所定値以上の箇所を検索して、次いでこの箇所を基準として検索を行うことを繰り返し、検索・設定した基準点を結んで主要部を抽出する。   Another main part extraction method is disclosed in Japanese Patent Application Laid-Open No. 9-138471, which measures the density or luminance at a plurality of points in an image to determine the amount of change, and the amount of change is a predetermined value or more. Is set as a reference point, and then the search range and search direction pattern are set using the change amount of density, etc. within a predetermined range from the reference point, and the change amount of density, etc. in the direction indicated by the search direction pattern within the search range Is searched for a portion having a predetermined value or more, and then the search is repeated using this portion as a reference, and the main part is extracted by connecting the searched and set reference points.

メインCPU18は、スルー画像から上記抽出ができた場合にステップS11を肯定判定してステップS12へ進み、上記抽出ができなかった場合にはステップS11を否定判定し、ステップS24へ進む。   The main CPU 18 makes an affirmative decision in step S11 when the above extraction has been made from the through image and proceeds to step S12. If the extraction has not been made, the main CPU 18 makes a negative decision in step S11 and proceeds to step S24.

ステップS12において、メインCPU18は表示画像作成回路20へ指示を送り、検出した顔を示す表示を行わせてステップS13へ進む。図3は、この時点における液晶モニタ21の表示画面を例示する図である。図3において、3つの顔が検出され、検出した各々の顔(上記抽出した顔)を囲む枠P1〜P3がそれぞれスルー画像に重ねてオーバーレイ表示される。   In step S12, the main CPU 18 sends an instruction to the display image creation circuit 20, causes the detected face to be displayed, and proceeds to step S13. FIG. 3 is a diagram illustrating a display screen of the liquid crystal monitor 21 at this time. In FIG. 3, three faces are detected, and frames P1 to P3 surrounding each detected face (extracted face) are overlaid on the through image.

図2のステップS13において、メインCPU18は、タッチ操作部材22がタッチ操作されたか否かを判定する。メインCPU18は、タッチ操作部材22から操作信号が入力された場合、そのタッチ位置が顔を示す表示枠P1〜P3のいずれかの枠内に対応する場合にステップS13を肯定判定(顔を示す枠)し、ステップS14へ進む。   In step S13 in FIG. 2, the main CPU 18 determines whether or not the touch operation member 22 has been touched. When the operation signal is input from the touch operation member 22, the main CPU 18 makes an affirmative determination in step S <b> 13 (the frame indicating the face) when the touch position corresponds to any of the display frames P <b> 1 to P <b> 3 indicating the face. Then, the process proceeds to step S14.

また、メインCPU18は、タッチ操作部材22によるタッチ位置が顔を示す表示枠P1〜P3と異なる領域に対応する場合は、ステップS13を肯定判定(枠以外)し、ステップS20へ進む。さらに、メインCPU18は、タッチ操作部材22からの操作信号が所定時間(たとえば、10秒間)経過しても入力されない場合にはステップS13を否定判定し、ステップS15へ進む。   Further, when the touch position by the touch operation member 22 corresponds to an area different from the display frames P1 to P3 indicating the face, the main CPU 18 makes an affirmative determination (other than the frame) in step S13 and proceeds to step S20. Further, if the operation signal from the touch operation member 22 is not input even after a predetermined time (for example, 10 seconds) has elapsed, the main CPU 18 makes a negative determination in step S13 and proceeds to step S15.

ステップS14において、メインCPU18はタッチされた顔(当該表示枠(本例ではP2)で示される顔)を主要被写体とするとともに、表示画像作成回路20へ指示を送り、当該表示枠(P2)を二重枠で表示させてステップS16へ進む。図4は、表示枠P2内がタッチ操作された場合の液晶モニタ21の表示画面を例示する図である。図4において、表示枠P2が他の2つの表示枠と異なる態様で表示される。   In step S14, the main CPU 18 sets the touched face (the face indicated by the display frame (P2 in this example)) as a main subject and sends an instruction to the display image creation circuit 20 to display the display frame (P2). The process is displayed with a double frame, and the process proceeds to step S16. FIG. 4 is a diagram illustrating a display screen of the liquid crystal monitor 21 when the inside of the display frame P2 is touched. In FIG. 4, the display frame P2 is displayed in a different manner from the other two display frames.

ステップS15において、メインCPU18は最至近の対象物を主要被写体としてステップS16へ進む。たとえば、スルー画像の中で複数の顔を検出している場合であって、タッチ操作部材22がタッチ操作されていない場合は電子カメラに最も近いと判定される顔を主要被写体とする。スルー画像の中で1つの顔のみを検出している場合であって、タッチ操作部材22がタッチ操作されていない場合は、検出しているその顔を主要被写体とする。なお、既に検出した顔を主要被写体としている場合は当該主要被写体を維持し、後述する表示枠O1をフォーカス検出エリアとしている場合には、該フォーカス検出エリアを維持してステップS16へ進む。   In step S15, the main CPU 18 sets the closest object as the main subject and proceeds to step S16. For example, when a plurality of faces are detected in the through image and the touch operation member 22 is not touch-operated, the face determined to be closest to the electronic camera is set as the main subject. When only one face is detected in the through image and the touch operation member 22 is not touched, the detected face is set as a main subject. If the detected face is the main subject, the main subject is maintained. If the display frame O1 described later is the focus detection area, the focus detection area is maintained and the process proceeds to step S16.

ステップS16において、メインCPU18はレリーズ半押し操作されたか否かを判定する。メインCPU18は、操作部材23を構成する半押しスイッチ(不図示)から半押し操作信号が入力された場合にステップS16を肯定判定してステップS17へ進み、半押し操作信号が入力されない場合にはステップS16を否定判定してステップS13へ戻る。半押しスイッチは、レリーズボタンの押下操作に連動してオン/オフするスイッチである。   In step S16, the main CPU 18 determines whether or not a release half-press operation has been performed. The main CPU 18 makes an affirmative decision in step S16 when a half-press operation signal is input from a half-press switch (not shown) constituting the operation member 23, and proceeds to step S17. If the half-press operation signal is not input, A negative determination is made in step S16 and the process returns to step S13. The half-press switch is a switch that is turned on / off in conjunction with the pressing operation of the release button.

ステップS17において、メインCPU18は、AFロックしてステップS18へ進む。すなわち、レンズ駆動装置24によってフォーカスレンズを光軸方向に進退駆動させながら、撮像素子11から出力される撮像信号の高周波数成分によるデータ、すなわち、焦点評価値が極大値をとるように合焦位置を検出し、検出位置へフォーカスレンズを移動させた状態でオートフォーカス(AF)処理を停止し、ピントを固定する。焦点評価値は、上記主要被写体(二重枠で示された顔)に対応する信号(二重枠表示が存在しない場合はフォーカス検出エリアに対応する信号)を用いて算出される。合焦位置は、被写体像のエッジのボケをなくし、画像のコントラストを最大にする位置である。   In step S17, the main CPU 18 performs AF locking and proceeds to step S18. That is, the focus position is adjusted so that the focus evaluation value takes the maximum value while the lens driving device 24 drives the focus lens to advance and retreat in the optical axis direction, while the data based on the high frequency component of the image pickup signal output from the image pickup device 11 is obtained. Is detected, the auto focus (AF) process is stopped with the focus lens moved to the detection position, and the focus is fixed. The focus evaluation value is calculated using a signal corresponding to the main subject (a face indicated by a double frame) (a signal corresponding to a focus detection area when there is no double frame display). The in-focus position is a position that eliminates blurring of the edge of the subject image and maximizes the contrast of the image.

ステップS18において、メインCPU18はレリーズ全押し操作されたか否かを判定する。メインCPU18は、操作部材23を構成する全押しスイッチ(不図示)から全押し操作信号が入力された場合にステップS18を肯定判定してステップS19へ進み、全押し操作信号が入力されない場合にはステップS18を否定判定し、当該判定処理を繰り返す。全押しスイッチは、レリーズボタンの半押しより深い押下操作に連動してオン/オフするスイッチである。全押し操作信号は、撮影開始指示に対応する。   In step S18, the main CPU 18 determines whether or not the release full-press operation has been performed. The main CPU 18 makes an affirmative decision in step S18 when a full-press operation signal is input from a full-press switch (not shown) constituting the operation member 23, proceeds to step S19, and if the full-press operation signal is not input. A negative determination is made in step S18, and the determination process is repeated. The full-press switch is a switch that is turned on / off in conjunction with a pressing operation deeper than half-pressing the release button. The full-press operation signal corresponds to a shooting start instruction.

ステップS19において、メインCPU18は撮影処理を行って図2による処理を終了する。具体的には、撮像素子11による撮影用の撮像(電荷蓄積)を開始させ、主要被写体について測光して得られる輝度に応じて露出を制御し、制御シャッター秒時が経過すると撮像を終了させる。撮像信号は所定の画像処理後に記録媒体30へ記録されるとともに、液晶モニタ21に再生表示される。   In step S19, the main CPU 18 performs a shooting process and ends the process shown in FIG. Specifically, imaging for imaging (charge accumulation) by the imaging element 11 is started, exposure is controlled according to the luminance obtained by metering the main subject, and imaging is terminated when the control shutter time elapses. The image pickup signal is recorded on the recording medium 30 after predetermined image processing and reproduced and displayed on the liquid crystal monitor 21.

上述したステップS13を肯定判定(枠以外)して進むステップS20において、メインCPU18は、スルー画像のうちタッチ操作された位置から所定範囲内の領域について、検出ゲインを高めて再度顔検出処理を行ってステップS21へ進む。検出ゲインの変更は、たとえば、検出対象とするスルー画像のコントラストを高めたり、検出の際の判定閾値を変化させることによって行う。   In step S20 which proceeds with the affirmative determination (other than the frame) in step S13 described above, the main CPU 18 increases the detection gain and performs the face detection process again for an area within a predetermined range from the touch-operated position in the through image. Then, the process proceeds to step S21. The detection gain is changed by, for example, increasing the contrast of the through image to be detected or changing the determination threshold at the time of detection.

図5は、顔検出されていない領域がタッチ操作された場合の液晶モニタ21の表示画面を例示する図である。ユーザーは、一番右の人物を主要被写体としたかったところ、この人物の顔が検出されなかったため、一番右の人物の顔付近をタッチ入力する。メインCPU18は、表示枠O1を他の2つの表示枠P1およびP2と異なる態様で表示させる。表示枠O1の大きさは、たとえば、タッチ位置を中心とする所定範囲とし、メインCPU18は、この範囲を囲む表示枠O1の表示を表示画像作成回路20に指示する。   FIG. 5 is a diagram exemplifying a display screen of the liquid crystal monitor 21 when a region where no face is detected is touched. The user wants to use the rightmost person as the main subject. Since the face of this person is not detected, the user touches the vicinity of the rightmost person's face. The main CPU 18 displays the display frame O1 in a mode different from the other two display frames P1 and P2. The size of the display frame O1 is, for example, a predetermined range centered on the touch position, and the main CPU 18 instructs the display image creation circuit 20 to display the display frame O1 surrounding this range.

ステップS21において、メインCPU18は人物の顔を検出したか否かを判定する。メインCPU18は、再検出処理によって顔を検出できた場合にステップS21を肯定判定してステップS22へ進み、顔を検出できなかった場合にはステップS21を否定判定し、ステップS23へ進む。   In step S21, the main CPU 18 determines whether or not a human face has been detected. If the face can be detected by the re-detection process, the main CPU 18 makes a positive determination in step S21 and proceeds to step S22. If the face cannot be detected, the main CPU 18 makes a negative determination in step S21 and proceeds to step S23.

ステップS22において、メインCPU18は表示画像作成回路20へ指示を送り、検出した顔を示す表示を行わせるとともに、当該顔を主要被写体としてステップS16へ進む。図6は、表示枠O1内で顔が検出された場合の液晶モニタ21の表示画面を例示する図である。図6において、表示枠O1が二重枠で表示される。   In step S22, the main CPU 18 sends an instruction to the display image creating circuit 20, displays the detected face, and proceeds to step S16 with the face as a main subject. FIG. 6 is a diagram illustrating a display screen of the liquid crystal monitor 21 when a face is detected in the display frame O1. In FIG. 6, the display frame O1 is displayed as a double frame.

ステップS23において、メインCPU18は、表示枠O1で囲まれる範囲をフォーカス検出エリアとしてステップS16へ進む。この場合は、該フォーカス検出エリア内に存在する被写体(人物の顔に限らない)を主要被写体とする。   In step S23, the main CPU 18 sets the range surrounded by the display frame O1 as the focus detection area, and proceeds to step S16. In this case, a subject (not limited to a person's face) existing in the focus detection area is set as a main subject.

上述したステップS11を否定判定して進むステップS24において、メインCPU18は、タッチ操作部材22がタッチ操作されたか否かを判定する。メインCPU18は、タッチ操作部材22から操作信号が入力された場合にステップS24を肯定判定してステップS20へ進み、タッチ操作部材22から操作信号が入力されない場合にはステップS24を否定判定し、ステップS25へ進む。   In step S24, which proceeds after making a negative determination in step S11 described above, the main CPU 18 determines whether or not the touch operation member 22 has been touched. When the operation signal is input from the touch operation member 22, the main CPU 18 makes a positive determination in step S24 and proceeds to step S20. When the operation signal is not input from the touch operation member 22, the main CPU 18 makes a negative determination in step S24. Proceed to S25.

ステップS24を肯定判定してステップS20へ進む場合のメインCPU18は、ステップS13を肯定判定して進む場合と同様に、検出ゲインを高めて再度顔検出処理を行う。ただし、ステップS24からステップS20へ進む場合はステップS11の顔検出処理によって顔が検出されていない(ステッップS11を否定判定)ため、図5と異なり、液晶モニタ21の表示画面にはタッチ位置を中心とする所定範囲を囲む表示枠O1のみが表示される。   The main CPU 18 in the case of making an affirmative decision in step S24 and proceeding to step S20 increases the detection gain and performs the face detection process again in the same manner as in the case of proceeding with an affirmative decision in step S13. However, when the process proceeds from step S24 to step S20, the face is not detected by the face detection process in step S11 (determination is negative in step S11), and unlike FIG. 5, the display position of the liquid crystal monitor 21 is centered on the touch position. Only the display frame O1 surrounding the predetermined range is displayed.

ステップS25において、メインCPU18は、画面中央を囲む所定範囲をフォーカス検出エリアとしてステップS16へ進む。この場合は、顔検出処理によって顔が検出されておらず(ステップS11を否定判定)、ユーザーによるタッチ操作も行われない(ステップS24を否定判定)ため、該フォーカス検出エリア内に位置する被写体(人物の顔に限らない)を主要被写体とする。   In step S25, the main CPU 18 proceeds to step S16 with a predetermined range surrounding the center of the screen as a focus detection area. In this case, the face is not detected by the face detection process (No at Step S11), and no touch operation is performed by the user (No at Step S24), so the subject (in the focus detection area) The main subject is not limited to a human face.

以上説明した第一の実施形態によれば、次の作用効果が得られる。
(1)電子カメラに顔検出機能を備え、スルー画像から検出した人物の顔を示す枠表示を当該画像に重ねて液晶モニタ21に表示したので、ユーザーは、人物の顔が検出されたか否かを一目で確認できる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) Since the electronic camera has a face detection function and a frame display indicating a person's face detected from the through image is superimposed on the image and displayed on the liquid crystal monitor 21, the user can check whether the person's face has been detected. Can be confirmed at a glance.

(2)液晶モニタ21の表示画面上にタッチ操作部材22を配設し、主要被写体にすべき顔をタッチ操作によって選択可能に構成したので、人物の顔が多数検出されている場合や、顔が画面上のいずれの位置に表示されている場合でも、ユーザーがワンタッチで選択操作できる。 (2) Since the touch operation member 22 is arranged on the display screen of the liquid crystal monitor 21 so that the face to be the main subject can be selected by the touch operation, when a large number of human faces are detected, Even if is displayed at any position on the screen, the user can select and operate with one touch.

(3)電子カメラは選択操作された顔(主要被写体)の枠表示を二重表示するので、ユーザーは、主要被写体でない顔を示す他の枠表示と区別しやすい。これにより、どの顔が主要被写体に選択されているかを一目で確認できる。 (3) Since the electronic camera double-displays the frame display of the face (main subject) that has been selected and operated, the user can easily distinguish it from other frame displays that indicate faces that are not the main subject. This makes it possible to confirm at a glance which face is selected as the main subject.

(4)電子カメラは、タッチ位置を含む所定範囲で、検出ゲインを変えて顔検出を再度行うようにしたので、人物の顔検出が困難な場合でも、ユーザーが検出を望む人物の顔を検出するように導くことができる。 (4) The electronic camera detects the face of the person that the user wants to detect even if it is difficult to detect the face of the person because the face detection is performed again by changing the detection gain within a predetermined range including the touch position. Can be guided to do.

(5)検出ゲインを変えても電子カメラが顔検出をしなかった場合、上記(4)のタッチ位置を含む所定範囲をフォーカス検出エリアとするので、ユーザーは、顔検出ができない状態でも電子カメラに主要被写体を指示できる。 (5) If the face is not detected by the electronic camera even when the detection gain is changed, the predetermined range including the touch position in (4) above is used as the focus detection area. The main subject can be indicated.

(変形例1)
ステップS14において、タッチされた顔(表示枠で示される顔)を主要被写体とする場合、主要被写体として選択した顔を取り消し可能に構成してもよい。この場合のメインCPU18は、タッチ操作部材22から操作信号が入力された場合、そのタッチ位置が二重枠表示中の枠内に対応すれば、表示画像作成回路20へ指示を送って当該二重枠の表示を停止させ、元の枠表示に戻す。これにより、簡単に主要被写体の取り消し、変更を行うことができる。同様に、ステップ20において顔検出を再度行う場合にも、セットした領域(表示枠O1)を取り消し可能に構成してよい。この場合のメインCPU18は、タッチ操作部材22から操作信号が入力された場合、そのタッチ位置が表示枠O1内に対応すれば、表示画像作成回路20へ指示を送って当該表示枠O1の表示を停止させる。
(Modification 1)
In step S14, when the touched face (face indicated by the display frame) is the main subject, the face selected as the main subject may be configured to be cancelable. In this case, when an operation signal is input from the touch operation member 22, the main CPU 18 sends an instruction to the display image creation circuit 20 if the touch position corresponds to the frame in the double frame display, and outputs the double image. Stop displaying the frame and return to the original frame display. As a result, the main subject can be easily canceled or changed. Similarly, when the face detection is performed again in step 20, the set area (display frame O1) may be configured to be cancelable. In this case, when an operation signal is input from the touch operation member 22, if the touch position corresponds to the display frame O1, the main CPU 18 sends an instruction to the display image creation circuit 20 to display the display frame O1. Stop.

(変形例2)
ステップS13およびステップS24におけるタッチ検出を、タッチ操作部材22からの1回の操作信号だけでなく、所定時間内(たとえば0.5秒)に2回以上の操作信号が入力された場合に検出する構成にしてもよい。この場合のメインCPU18は、タッチ操作部材22から操作信号が入力された場合、その操作信号のオン/オフが0.5秒間に2回あれば操作信号として扱い、1回のみの場合やオン信号のみ継続する(タッチ操作継続)場合には操作信号とは扱わない。これにより、タッチ操作部材22に誤って触れる場合の誤入力を排除できる。
(Modification 2)
The touch detection in step S13 and step S24 is detected when not only one operation signal from the touch operation member 22 but also two or more operation signals are input within a predetermined time (for example, 0.5 seconds). It may be configured. In this case, when an operation signal is input from the touch operation member 22, the main CPU 18 treats the operation signal as ON / OFF when the operation signal is turned ON / OFF twice in 0.5 seconds. Only when it continues (touch operation continues), it is not treated as an operation signal. Thereby, the erroneous input in the case of touching the touch operation member 22 accidentally can be excluded.

(変形例3)
ステップS14においてタッチ操作された顔(表示枠で示される顔)を主要被写体とする場合、当該表示枠(たとえば、P2)に対応する顔の情報をメインCPU18内の不揮発性メモリに記憶してもよい。顔の情報は、上記顔検出処理において主要部(顔)を判定、抽出する際に用いた情報とする。
(Modification 3)
If the face touched in step S14 (the face indicated by the display frame) is the main subject, the face information corresponding to the display frame (for example, P2) may be stored in the nonvolatile memory in the main CPU 18. Good. The face information is information used when determining and extracting the main part (face) in the face detection process.

変形例3のメインCPU18は、次に顔認識モード処理を行う場合、ステップS12で検出した顔を示す表示をした後、検出した顔を不揮発性メモリ内に記憶している情報と照合する。そして、照合によって合致を判定した場合に当該顔を自動的に主要被写体とするとともに、表示画像作成回路20へ指示を送り、合致判定した顔の表示枠を二重枠で表示させてステップS13へ進む。図7は、この時点における液晶モニタ21の表示画面を例示する図である。図7において、2つの顔が検出され、検出した各々の顔を囲む枠PaおよびPbがそれぞれスルー画像に重ねてオーバーレイ表示される。そして、合致を判定した顔の表示枠Pbが二重枠で表示される。なお、合致を判定しない場合のメインCPU18は、検出した顔を二重枠で表示することなくステップS13へ進む。   When performing the face recognition mode process next time, the main CPU 18 of the modified example 3 displays the face detected in step S12, and then collates the detected face with information stored in the nonvolatile memory. When a match is determined by collation, the face is automatically set as the main subject, and an instruction is sent to the display image creation circuit 20 to display the match-determined face display frame as a double frame, and the process goes to step S13. move on. FIG. 7 is a diagram illustrating a display screen of the liquid crystal monitor 21 at this time. In FIG. 7, two faces are detected, and frames Pa and Pb surrounding each detected face are overlaid on the through image. The face display frame Pb for which the match is determined is displayed as a double frame. If the match is not determined, the main CPU 18 proceeds to step S13 without displaying the detected face with a double frame.

変形例3によれば、構図や撮影対象の人物が異なっても、電子カメラ内に記憶している顔の情報と合致する顔が自動的に主要被写体とされるので、常に同じ人物を主要被写体としたい場合に好適である。   According to the third modification, even if the composition and the person to be photographed are different, the face that matches the face information stored in the electronic camera is automatically set as the main subject. It is suitable when it is desired to.

(変形例4)
ステップS14においてタッチ操作された顔(表示枠で示される顔)が複数存在する場合、メインCPU18は、複数の顔を主要被写体とする。図8は、表示枠P1およびP2内がそれぞれタッチ操作された場合の液晶モニタ21の表示画面を例示する図である。図8において、表示枠P1およびP2がそれぞれ二重枠で表示される。
(Modification 4)
When there are a plurality of touch-operated faces (faces indicated by display frames) in step S14, the main CPU 18 sets the plurality of faces as the main subject. FIG. 8 is a diagram illustrating a display screen of the liquid crystal monitor 21 when the inside of the display frames P1 and P2 is touched. In FIG. 8, display frames P1 and P2 are each displayed as a double frame.

変形例4のメインCPU18は、ステップS17のAFロックの際、たとえば、カメラに近い方の主要被写体に合焦するようにフォーカスレンズを移動させる。また、ステップS19の撮影処理の際、複数の顔が被写界深度に入るように絞りを制御し、この絞り値、および複数の顔領域について測光して得られる輝度に応じて露出を制御する。これにより、選択された複数の顔にそれぞれピントがあい、複数の顔のそれぞれに適正な露出が得られる。複数の顔にそれぞれピントがあうと、双方の顔画像のコントラストが高くなる。   The main CPU 18 of Modification 4 moves the focus lens so that, for example, the main subject closer to the camera is in focus when the AF is locked in step S17. Further, during the photographing process in step S19, the aperture is controlled so that a plurality of faces fall within the depth of field, and the exposure is controlled according to the aperture value and the luminance obtained by photometry of the plurality of face regions. . As a result, each of the selected faces is focused and appropriate exposure is obtained for each of the faces. When a plurality of faces are in focus, the contrast between both face images increases.

(変形例5)
以上の説明では、図2の顔認識モード処理を開始後は常にオートフォーカス(AF)処理を行い、ステップS17においてAF処理を停止させてピントを固定する例を説明した。この代わりに、全押し操作が判定される(ステップS18を肯定判定)までAF処理を継続させてもよい。
(Modification 5)
In the above description, the example in which the autofocus (AF) process is always performed after the face recognition mode process of FIG. 2 is started, and the AF process is stopped and the focus is fixed in step S17 has been described. Instead, the AF process may be continued until the full-press operation is determined (Yes in step S18).

(第二の実施形態)
図9は、第二の実施形態による顔認識モード処理の流れを説明するフローチャートである。図9による処理は、たとえば、電子カメラの撮影アシスト機能の中から「顔認識モード」が選択されると起動する。
(Second embodiment)
FIG. 9 is a flowchart illustrating the flow of face recognition mode processing according to the second embodiment. The process shown in FIG. 9 is activated when “face recognition mode” is selected from the photographing assist function of the electronic camera, for example.

図9の処理は、図2の処理と比べて、ステップS15およびステップS25の処理を行わずに図9の処理が終了される点、ステップS16の処理がスキップされる点、およびステップS18に代えてステップS18Bが行われる点において相違するので、これら相違点を中心に説明する。   The process of FIG. 9 is different from the process of FIG. 2 in that the process of FIG. 9 is terminated without performing the processes of steps S15 and S25, the process of step S16 is skipped, and step S18. Thus, step S18B is different in that it is performed, and the difference will be mainly described.

図9のステップS13およびステップS24において、メインCPU18は、タッチ操作部材22から操作信号が入力されなかった場合、それぞれ図9による処理を終了する。ステップS17において、メインCPU18はAFロックしてステップS18Bへ進む。すなわち、検出した合焦位置へフォーカスレンズを移動させた状態でオートフォーカス(AF)処理を停止し、ピントを固定する。AF処理は、上記主要被写体(二重枠で示された顔)に対応する信号(二重枠表示が存在しない場合は表示枠O1に対応する信号)を対象に行う点で第一の実施形態と同様である。   In step S13 and step S24 of FIG. 9, when the operation signal is not input from the touch operation member 22, the main CPU 18 ends the process of FIG. In step S17, the main CPU 18 AF locks and proceeds to step S18B. That is, the autofocus (AF) process is stopped with the focus lens moved to the detected focus position, and the focus is fixed. The first embodiment is that AF processing is performed on a signal corresponding to the main subject (a face indicated by a double frame) (a signal corresponding to the display frame O1 when there is no double frame display). It is the same.

ステップS18Bにおいて、メインCPU18はタッチ操作部材22がタッチ操作されたか否かを判定する。メインCPU18は、タッチ操作部材22から操作信号が入力された場合、そのタッチ位置が二重枠内(二重枠表示が存在しない場合は表示枠O1)に対応すれば、ステップS18Bを肯定判定してステップS19へ進み、そのタッチ位置が二重枠にも表示枠O1にも対応しなければ、ステップS18Bを否定判定して当該判定処理を繰り返す。二重枠(表示枠O1)に対するタッチ操作は当該二重枠(表示枠O1)に対する2回目のタッチ操作であり、その操作信号は撮影開始指示に対応する。   In step S18B, the main CPU 18 determines whether or not the touch operation member 22 has been touched. When an operation signal is input from the touch operation member 22, the main CPU 18 makes an affirmative determination in step S <b> 18 </ b> B if the touch position corresponds to within the double frame (display frame O <b> 1 when there is no double frame display). In step S19, if the touch position does not correspond to the double frame or the display frame O1, a negative determination is made in step S18B, and the determination process is repeated. The touch operation on the double frame (display frame O1) is the second touch operation on the double frame (display frame O1), and the operation signal corresponds to a shooting start instruction.

以上説明した第二の実施形態によれば、第一の実施形態による作用効果(1)〜(5)に加えて、タッチ操作部材22からの操作信号によって主要被写体の選択および撮影開始を指示できるので、ユーザーは、被写体選択から撮影までの指示を指1本で行うことができる。   According to the second embodiment described above, in addition to the operational effects (1) to (5) according to the first embodiment, selection of a main subject and start of photographing can be instructed by an operation signal from the touch operation member 22. Therefore, the user can give instructions from subject selection to shooting with one finger.

(変形例6)
図9のステップS17をスキップすることにより、ピントを固定しないでステップS18Bへ進む構成としてもよい。この場合には、ステップS18Bにおいて2回目のタッチ操作が判定される(ステップS18Bを肯定判定)まで、AF処理が継続される。
(Modification 6)
By skipping step S17 in FIG. 9, the process may proceed to step S18B without fixing the focus. In this case, the AF process is continued until the second touch operation is determined in Step S18B (Yes in Step S18B).

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

本発明の第一の実施形態による電子カメラの要部構成を説明するブロック図である。It is a block diagram explaining the principal part structure of the electronic camera by 1st embodiment of this invention. メインCPUによって行われる顔認識モード処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the face recognition mode process performed by main CPU. 液晶モニタの表示画面を例示する図である。It is a figure which illustrates the display screen of a liquid crystal monitor. 液晶モニタの表示画面を例示する図である。It is a figure which illustrates the display screen of a liquid crystal monitor. 液晶モニタの表示画面を例示する図である。It is a figure which illustrates the display screen of a liquid crystal monitor. 液晶モニタの表示画面を例示する図である。It is a figure which illustrates the display screen of a liquid crystal monitor. 液晶モニタの表示画面を例示する図である。It is a figure which illustrates the display screen of a liquid crystal monitor. 液晶モニタの表示画面を例示する図である。It is a figure which illustrates the display screen of a liquid crystal monitor. 第二の実施形態のメインCPUによって行われる顔認識モード処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the face recognition mode process performed by main CPU of 2nd embodiment.

符号の説明Explanation of symbols

18…メインCPU
20…表示画像作成回路
21…液晶モニタ
22…タッチ操作部材
23…操作部材
P1〜P3、O1…表示枠
18 ... Main CPU
20 ... Display image creation circuit 21 ... Liquid crystal monitor 22 ... Touch operation member 23 ... Operation members P1 to P3, O1 ... Display frame

Claims (11)

画像から人物の顔を検出する顔検出手段と、
前記顔検出手段が検出した顔位置を示す表示を前記画像とともに表示する表示装置と、
前記表示装置の表示面に設けられたタッチパネル部材と、
前記タッチパネル部材から出力されるタッチ操作信号に対応する前記顔位置を示す表示を選択し、該選択した表示を非選択の顔位置を示す表示と異なる態様で前記表示装置に表示させる制御手段とを備えることを特徴とする電子カメラ。
Face detection means for detecting a human face from an image;
A display device that displays a display showing the face position detected by the face detection means together with the image;
A touch panel member provided on a display surface of the display device;
Control means for selecting a display indicating the face position corresponding to the touch operation signal output from the touch panel member, and causing the display device to display the selected display in a manner different from the display indicating the non-selected face position. An electronic camera comprising:
請求項1に記載の電子カメラにおいて、
前記制御手段はさらに、前記タッチパネル部材から出力されるタッチ操作信号に対応する位置で顔が検出されていない場合、該位置を含む所定範囲の画像から検出ゲインを変えて人物の顔を再検出するように前記顔検出手段を制御することを特徴とする電子カメラ。
The electronic camera according to claim 1,
When the face is not detected at a position corresponding to the touch operation signal output from the touch panel member, the control unit re-detects the face of the person by changing the detection gain from an image in a predetermined range including the position. An electronic camera characterized by controlling the face detecting means as described above.
請求項2に記載の電子カメラにおいて、
前記制御手段は、前記顔検出手段による再検出で顔が検出された場合、該顔位置を示す表示を選択し、該選択した表示を非選択の顔位置を示す表示と異なる態様で前記表示装置に表示させることを特徴とする電子カメラ。
The electronic camera according to claim 2,
When the face is detected by re-detection by the face detection unit, the control unit selects a display indicating the face position, and the display device is different from the display indicating the non-selected face position. An electronic camera characterized by being displayed on the screen.
請求項1に記載の電子カメラにおいて、
前記制御手段は、前記顔位置を示す表示に対するタッチ操作信号が前記タッチパネル部材から出力された場合、該表示を選択するとともに該選択表示を非選択の顔位置を示す表示と異なる態様で前記表示装置に表示させ、該選択中の表示に対するタッチ操作信号が前記タッチパネル部材から出力された場合、該表示の選択を解除するとともに該選択解除した表示を非選択の顔位置を示す表示と同態様で前記表示装置に表示させることを特徴とする電子カメラ。
The electronic camera according to claim 1,
When the touch operation signal for the display indicating the face position is output from the touch panel member, the control unit selects the display and displays the selected display in a mode different from the display indicating the non-selected face position. When the touch operation signal for the display being selected is output from the touch panel member, the display is deselected and the deselected display is displayed in the same manner as the display indicating the non-selected face position. An electronic camera characterized by being displayed on a display device.
請求項1に記載の電子カメラにおいて、
前記制御手段は、前記顔位置を示す表示に対するタッチ操作信号が2つ以上続けて前記タッチパネル部材から出力された場合、該表示を選択するとともに該選択表示を非選択の顔位置を示す表示と異なる態様で前記表示装置に表示させ、該選択中の表示に対するタッチ操作信号が2つ以上続けて前記タッチパネル部材から出力された場合、該表示の選択を解除するとともに該選択解除した表示を非選択の顔位置を示す表示と同態様で前記表示装置に表示させることを特徴とする電子カメラ。
The electronic camera according to claim 1,
When two or more touch operation signals for a display indicating the face position are continuously output from the touch panel member, the control unit selects the display and the selected display differs from a display indicating a non-selected face position. When two or more touch operation signals for the selected display are output from the touch panel member in succession, the display selection is canceled and the selected display is not selected. An electronic camera that is displayed on the display device in the same manner as a display showing a face position.
請求項1に記載の電子カメラにおいて、
画像を記憶する記憶回路をさらに備え、
前記制御手段は、前記顔位置を示す表示に対するタッチ操作信号が前記タッチパネル部材から出力された場合、該表示を選択するとともに該選択表示を非選択の顔位置を示す表示と異なる態様で前記表示装置に表示させ、さらに該選択表示に対応する顔の画像情報を前記記憶回路に記憶させることを特徴とする電子カメラ。
The electronic camera according to claim 1,
A storage circuit for storing images;
When the touch operation signal for the display indicating the face position is output from the touch panel member, the control unit selects the display and displays the selected display in a mode different from the display indicating the non-selected face position. An electronic camera characterized in that the image information of the face corresponding to the selection display is stored in the storage circuit.
請求項6に記載の電子カメラにおいて、
前記制御手段は、前記顔検出手段が検出した顔が前記記憶回路に記憶されている顔の画像情報と合致する場合、該顔の位置を示す表示を選択するとともに該選択表示を非選択の顔位置を示す表示と異なる態様で前記表示装置に表示させることを特徴とする電子カメラ。
The electronic camera according to claim 6.
When the face detected by the face detection means matches the face image information stored in the storage circuit, the control means selects a display indicating the position of the face and selects the selection display as a non-selected face. An electronic camera that displays on the display device in a mode different from a display showing a position.
請求項1〜7のいずれか一項に記載の電子カメラにおいて、
前記制御手段はさらに、前記選択した表示に対応する顔の画像を焦点検出対象または測光対象とすることを特徴とする電子カメラ。
In the electronic camera according to any one of claims 1 to 7,
The control means further includes a face image corresponding to the selected display as a focus detection target or a photometry target.
請求項8に記載の電子カメラにおいて、
前記制御手段はさらに、前記顔位置を示す表示を複数選択している場合、該複数の選択表示に対応する複数の顔の画像をそれぞれ焦点検出対象とし、該複数の顔の画像のコントラストがそれぞれ所定値以上となるように絞り制御指示を出力することを特徴とする電子カメラ。
The electronic camera according to claim 8,
Further, when a plurality of displays indicating the face positions are selected, the control means sets a plurality of face images corresponding to the plurality of selected displays as focus detection targets, and the contrast of the plurality of face images is respectively An electronic camera that outputs an aperture control instruction so as to be equal to or greater than a predetermined value.
請求項1に記載の電子カメラにおいて、
前記制御手段は、前記顔位置を示す表示に対する1つ目のタッチ操作信号が前記タッチパネル部材から出力された場合、該表示を選択するとともに該選択表示を非選択の顔位置を示す表示と異なる態様で前記表示装置に表示させ、さらに該選択表示に対応する顔の画像を対象にした1回の焦点調節を焦点調節手段へ指示し、該選択中の表示に対する2つ目のタッチ操作信号が前記タッチパネル部材から出力された場合、該選択表示に対応する顔の画像を対象にした測光および撮影開始の指示を出力することを特徴とする電子カメラ。
The electronic camera according to claim 1,
When the first touch operation signal for the display indicating the face position is output from the touch panel member, the control unit selects the display and the selection display is different from the display indicating the non-selected face position. The display device, and instructing the focus adjustment means to perform focus adjustment once for the face image corresponding to the selection display, and a second touch operation signal for the display being selected is An electronic camera characterized in that, when output from a touch panel member, outputs a photometric and shooting start instruction for a face image corresponding to the selection display.
請求項1に記載の電子カメラにおいて、
前記制御手段は、前記顔位置を示す表示に対する1つ目のタッチ操作信号が前記タッチパネル部材から出力された場合、該表示を選択するとともに該選択表示を非選択の顔位置を示す表示と異なる態様で前記表示装置に表示させ、さらに該選択表示に対応する顔の画像を対象にした焦点調節を繰り返すように焦点調節手段へ指示し、該選択中の表示に対する2つ目のタッチ操作信号が前記タッチパネル部材から出力された場合、該選択表示に対応する顔の画像を対象にした測光および撮影開始の指示を出力することを特徴とする電子カメラ。
The electronic camera according to claim 1,
When the first touch operation signal for the display indicating the face position is output from the touch panel member, the control unit selects the display and the selection display is different from the display indicating the non-selected face position. Instruct the focus adjustment means to repeat the focus adjustment on the face image corresponding to the selection display, and the second touch operation signal for the display being selected is An electronic camera characterized in that, when output from a touch panel member, outputs a photometric and shooting start instruction for a face image corresponding to the selection display.
JP2006264142A 2006-09-28 2006-09-28 Electronic camera Pending JP2008085737A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006264142A JP2008085737A (en) 2006-09-28 2006-09-28 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006264142A JP2008085737A (en) 2006-09-28 2006-09-28 Electronic camera

Publications (1)

Publication Number Publication Date
JP2008085737A true JP2008085737A (en) 2008-04-10

Family

ID=39356119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006264142A Pending JP2008085737A (en) 2006-09-28 2006-09-28 Electronic camera

Country Status (1)

Country Link
JP (1) JP2008085737A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009278568A (en) * 2008-05-16 2009-11-26 Sony Corp Image processing device and image processing method
JP2009290713A (en) * 2008-05-30 2009-12-10 Sony Corp Image processing apparatus and image processing method, and program
JP2009290818A (en) * 2008-06-02 2009-12-10 Casio Comput Co Ltd Camera, camera control program, and photographing method
JP2010041365A (en) * 2008-08-05 2010-02-18 Nikon Corp Imaging apparatus
JP2010127995A (en) * 2008-11-25 2010-06-10 Samsung Digital Imaging Co Ltd Imaging apparatus and imaging method
WO2010073608A1 (en) * 2008-12-26 2010-07-01 パナソニック株式会社 Image pickup equipment
JP2010258525A (en) * 2009-04-21 2010-11-11 Canon Inc Control apparatus
JP2011217275A (en) * 2010-04-01 2011-10-27 Sanyo Electric Co Ltd Electronic device
JP2012129887A (en) * 2010-12-16 2012-07-05 Canon Marketing Japan Inc Imaging apparatus, control method, and program
US9454230B2 (en) 2011-09-26 2016-09-27 Kddi Corporation Imaging apparatus for taking image in response to screen pressing operation, imaging method, and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009278568A (en) * 2008-05-16 2009-11-26 Sony Corp Image processing device and image processing method
JP4513039B2 (en) * 2008-05-30 2010-07-28 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2009290713A (en) * 2008-05-30 2009-12-10 Sony Corp Image processing apparatus and image processing method, and program
JP2009290818A (en) * 2008-06-02 2009-12-10 Casio Comput Co Ltd Camera, camera control program, and photographing method
US8149313B2 (en) 2008-06-02 2012-04-03 Casio Computer Co., Ltd. Photographic apparatus, setting method of photography conditions, and recording medium
JP4645685B2 (en) * 2008-06-02 2011-03-09 カシオ計算機株式会社 Camera, camera control program, and photographing method
JP2010041365A (en) * 2008-08-05 2010-02-18 Nikon Corp Imaging apparatus
JP2010127995A (en) * 2008-11-25 2010-06-10 Samsung Digital Imaging Co Ltd Imaging apparatus and imaging method
WO2010073608A1 (en) * 2008-12-26 2010-07-01 パナソニック株式会社 Image pickup equipment
JP5623915B2 (en) * 2008-12-26 2014-11-12 パナソニックインテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Imaging device
JP2010258525A (en) * 2009-04-21 2010-11-11 Canon Inc Control apparatus
US8964090B2 (en) 2009-04-21 2015-02-24 Canon Kabushiki Kaisha Control apparatus, control method, and computer-readable recording medium
JP2011217275A (en) * 2010-04-01 2011-10-27 Sanyo Electric Co Ltd Electronic device
JP2012129887A (en) * 2010-12-16 2012-07-05 Canon Marketing Japan Inc Imaging apparatus, control method, and program
US9454230B2 (en) 2011-09-26 2016-09-27 Kddi Corporation Imaging apparatus for taking image in response to screen pressing operation, imaging method, and program

Similar Documents

Publication Publication Date Title
JP4904243B2 (en) Imaging apparatus and imaging control method
JP4582212B2 (en) Imaging apparatus and program
JP4900014B2 (en) Imaging apparatus and program thereof
JP2008085737A (en) Electronic camera
US9761010B2 (en) Tracking apparatus
JP5029137B2 (en) Imaging apparatus and program
JP4019200B2 (en) Camera with image display
JP4552997B2 (en) Imaging apparatus and program
JP2007310813A (en) Image retrieving device and camera
JP5051812B2 (en) Imaging apparatus, focusing method thereof, and recording medium
JP5030022B2 (en) Imaging apparatus and program thereof
JP4801960B2 (en) Autofocus control device, image forming apparatus using the autofocus control device, and autofocus control method
JP2007129310A (en) Imaging apparatus
JP4215230B2 (en) Electronic camera
JP5092673B2 (en) Imaging apparatus and program thereof
JP5409483B2 (en) Imaging device
JP5429588B2 (en) Imaging apparatus and imaging method
JP2010113129A (en) Image tracking device, focusing device, and image capturing apparatus
JP2005266784A (en) Imaging apparatus, its control method, its control program, and storage medium
JP2006163496A (en) Apparatus, method and program for image recording
KR101613617B1 (en) Apparatus and method for digital picturing image
JP5043787B2 (en) Imaging apparatus and control method thereof
JP2008263478A (en) Imaging apparatus
JP2008054031A (en) Digital camera and display control method
JP4717840B2 (en) Imaging apparatus and control method thereof