JP2012231237A - Image recording apparatus and imaging apparatus - Google Patents

Image recording apparatus and imaging apparatus Download PDF

Info

Publication number
JP2012231237A
JP2012231237A JP2011097255A JP2011097255A JP2012231237A JP 2012231237 A JP2012231237 A JP 2012231237A JP 2011097255 A JP2011097255 A JP 2011097255A JP 2011097255 A JP2011097255 A JP 2011097255A JP 2012231237 A JP2012231237 A JP 2012231237A
Authority
JP
Japan
Prior art keywords
image
pupil
face
unit
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011097255A
Other languages
Japanese (ja)
Other versions
JP5719223B2 (en
JP2012231237A5 (en
Inventor
Masako Morizaki
匡子 森崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2011097255A priority Critical patent/JP5719223B2/en
Priority to CN201210122826.6A priority patent/CN102761705B/en
Publication of JP2012231237A publication Critical patent/JP2012231237A/en
Publication of JP2012231237A5 publication Critical patent/JP2012231237A5/en
Application granted granted Critical
Publication of JP5719223B2 publication Critical patent/JP5719223B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image recording apparatus and an imaging apparatus capable of acquiring an image in which a subject turns the eyes in a direction desired by a user.SOLUTION: The image recording apparatus is provided with: a display which displays an image corresponding to the electronic image data of the subject; a face detector 230a which detects a face from the image; an eye region detector 230b which detects the regions of eyes and the regions of pupils from the range of the face detected by the face detector 230a; a pupil editor 230g performing editing including changing of the positions of the regions of the pupils in the regions of the eyes; and a recording part which records image data edited by the pupil editor 230g.

Description

本発明は、被写体を撮像した電子的な画像データを記録する画像記録装置及び撮像装置に関する。   The present invention relates to an image recording apparatus and an imaging apparatus that record electronic image data obtained by imaging a subject.

近年、デジタルカメラやデジタルビデオ等の撮像装置が広範囲に普及している。最近の撮像装置は、被写体の目線検出や目つぶり防止といった撮影タイミングを逃さないための種々の機能を搭載しており、幅広い層のユーザが手軽に利用している。このような機能に関連する技術として、例えば、特許文献1には被写体の目線の推移に基づいて撮像タイミングを決定する撮像装置が開示されている。また、特許文献2には、被写体のカメラ目線を判定して撮像操作を制御する撮像装置が開示されている。特許文献3には、撮像された画像データに基づいて被写体の顔検出を行い、目つぶり顔領域が存在する場合に当該領域の属性を変更して表示する撮像装置が開示されている。   In recent years, imaging devices such as digital cameras and digital videos have been widely used. Recent imaging apparatuses are equipped with various functions not to miss the shooting timing such as eye-gaze detection of subjects and prevention of blinking, and are easily used by a wide range of users. As a technique related to such a function, for example, Patent Document 1 discloses an imaging apparatus that determines an imaging timing based on a change in the line of sight of a subject. Patent Document 2 discloses an imaging apparatus that controls an imaging operation by determining a camera line of a subject. Patent Document 3 discloses an imaging device that detects a face of a subject based on captured image data, and changes and displays the attribute of the area when there is a blinking face area.

また、目線(視線)の検知に関連する技術として、特許文献4には、ステレオカメラによって撮像した画像から眼球中心及び黒目中心を推定して、運転者の視線方向を測定する視線方向検出装置が開示されている。また、特許文献5には、ファインダを覗く撮影者の視線を検出する機能が設けられたカメラが開示されている。   Further, as a technique related to the detection of the line of sight (line of sight), Patent Document 4 discloses a line-of-sight direction detection device that estimates the center of the eyeball and the center of the black eye from an image captured by a stereo camera and measures the line-of-sight direction of the driver. It is disclosed. Patent Document 5 discloses a camera provided with a function of detecting the line of sight of a photographer looking through a viewfinder.

特開2010−206523号公報JP 2010-206523 A 特開2010−199728号公報JP 2010-199728 A 特開2008−131094号公報JP 2008-131094 A 特開2004−254960号公報JP 2004-254960 A 特開2004−12503号公報JP 2004-12503 A

しかしながら、被写体の目線を検出して撮像タイミングを決定する場合、被写体が撮像装置に目線を向けるのを待たなくてはならない。また、複数の被写体の集合写真を撮像する場合、特に、被写体が幼い子どもである場合には、全ての被写体の目線が撮像装置を向くタイミングを計るのは非常に困難である。そのため、そのような撮像タイミングを計っている間に、好適なショットを逃してしまうおそれがある。   However, when determining the imaging timing by detecting the line of sight of the subject, it is necessary to wait for the subject to look at the imaging apparatus. In addition, when taking a group photo of a plurality of subjects, particularly when the subject is a young child, it is very difficult to measure the timing when the lines of sight of all subjects face the imaging device. Therefore, a suitable shot may be missed while such an imaging timing is being measured.

さらに、上記特許文献4及び5に開示された技術はいずれも、操作者(撮影者)が向けている視線の方向を検知する技術であり、特定の方向(例えば撮像装置の方向)に目線を向けた被写体の画像を取得することについては開示されていない。   Furthermore, both of the techniques disclosed in Patent Documents 4 and 5 are techniques for detecting the direction of the line of sight directed by the operator (photographer), and look at a specific direction (for example, the direction of the imaging apparatus). There is no disclosure about obtaining an image of a directed subject.

本発明は、上記に鑑みてなされたものであって、ユーザ所望の方向に被写体が目線を向けた画像を取得することができる画像記録装置を提供することを目的とする。また、本発明は、ユーザ所望の方向に被写体が目線を向けたタイミングで撮像を行うことができる撮像装置を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an image recording apparatus that can acquire an image in which a subject has a line of sight in a direction desired by a user. It is another object of the present invention to provide an imaging apparatus that can perform imaging at a timing when a subject turns his / her eyes in a direction desired by a user.

上述した課題を解決し、目的を達成するために、本発明に係る画像記録装置は、被写体の電子的な画像データに対応する画像を表示する表示手段と、前記画像から顔を検出する顔検出手段と、前記顔検出手段によって検出された顔の範囲から、目の領域及び瞳の領域を検出する目領域検出手段と、前記目の領域において前記瞳の領域の位置を変更することを含む編集を行う瞳編集手段と、前記瞳編集手段によって編集された画像データを記録する記録手段とを備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an image recording apparatus according to the present invention includes display means for displaying an image corresponding to electronic image data of a subject, and face detection for detecting a face from the image. And an eye area detecting means for detecting an eye area and a pupil area from the face range detected by the face detecting means, and an editing process including changing a position of the pupil area in the eye area And a recording means for recording image data edited by the pupil editing means.

上記画像記録装置は、前記目の領域における前記瞳の領域の位置に基づいて、前記顔の目線が所定の方向を向いているか否かを判定する目線判定手段を更に備えることを特徴とする。   The image recording apparatus may further include eye line determination means for determining whether or not the eye line of the face is directed in a predetermined direction based on the position of the pupil area in the eye area.

上記画像記録装置において、前記所定の方向は正面方向であり、前記目線判定手段は、前記瞳の領域が前記目の領域の略中央にある場合に、前記目線が正面を向いていると判定することを特徴とする。   In the above-described image recording apparatus, the predetermined direction is a front direction, and the line-of-sight determination unit determines that the line of sight is facing the front when the pupil region is approximately in the center of the eye region. It is characterized by that.

上記画像記録装置は、前記目線判定手段の判定結果を通知する通知手段をさらに備えることを特徴とする。   The image recording apparatus further includes notification means for notifying the determination result of the eye line determination means.

上記画像記録装置において、前記通知手段は、前記目線判定手段による判定結果に応じて定まる表示属性を有し、前記顔を囲む顔検出枠を、前記画像に合成する顔検出枠合成手段であることを特徴とする。   In the image recording apparatus, the notification unit is a face detection frame synthesizing unit that has a display attribute determined according to a determination result by the eye line determination unit and combines a face detection frame surrounding the face with the image. It is characterized by.

上記画像記録装置において、前記顔検出枠合成手段は、2種類以上の表示属性を有する前記顔検出枠を前記画像に合成することを特徴とする。   In the image recording apparatus, the face detection frame synthesizing unit synthesizes the face detection frame having two or more types of display attributes with the image.

上記画像記録装置は、前記目線判定手段によって前記目線が所定の方向を向いていないと判定された顔を選択する顔選択手段をさらに備え、前記瞳編集手段は、前記顔選択手段によって選択された顔における前記瞳の領域を編集することを特徴とする。   The image recording apparatus further includes a face selection unit that selects a face determined by the line-of-sight determination unit that the line of sight does not face a predetermined direction, and the pupil editing unit is selected by the face selection unit The pupil region in the face is edited.

上記画像記録装置は、外部からの操作に応じた信号を当該画像記録装置に入力する操作入力手段と、前記操作入力手段により、前記顔検出手段によって検出された顔の内のいずれかを選択する選択信号が入力された場合に、当該選択された顔を選択する顔選択手段とをさらに備え、前記瞳編集手段は、前記顔選択手段によって選択された顔における前記瞳の領域を編集することを特徴とする。   The image recording apparatus selects any of the operation input means for inputting a signal corresponding to an operation from the outside to the image recording apparatus and the face detected by the face detection means by the operation input means. Face selection means for selecting the selected face when a selection signal is input, and the pupil editing means edits the pupil region in the face selected by the face selection means. Features.

上記画像記録装置は、外部からの操作に応じた信号を当該画像記録装置に入力する操作入力手段をさらに備え、前記瞳編集手段は、前記操作入力手段によって入力された信号に基づいて、前記目の領域において前記瞳の領域を移動させることを特徴とする。   The image recording apparatus further includes operation input means for inputting a signal corresponding to an operation from the outside to the image recording apparatus, and the pupil editing means is configured to input the eye based on the signal input by the operation input means. In this region, the pupil region is moved.

上記画像記録装置において、前記操作入力手段は、前記表示手段上に重ねて設けられたタッチパネルであり、前記瞳編集手段は、前記タッチパネルに対する前記瞳の領域へのタッチの軌跡に基づいて、前記瞳の領域を移動させることを特徴とする。   In the image recording apparatus, the operation input unit is a touch panel provided on the display unit, and the pupil editing unit is configured to detect the pupil based on a trajectory of touching the pupil region with respect to the touch panel. The region is moved.

上記画像記録装置において、前記操作入力手段は、前記表示手段上に重ねて設けられたタッチパネルであり、前記瞳編集手段は、前記タッチパネル上における前記瞳の領域以外の領域へのタッチの軌跡に基づいて、前記瞳の領域を移動させることを特徴とする。   In the image recording apparatus, the operation input unit is a touch panel provided on the display unit, and the pupil editing unit is based on a trajectory of a touch on a region other than the pupil region on the touch panel. The pupil region is moved.

上記画像記録装置において、前記瞳編集手段は、前記操作入力手段により一方の瞳の領域を移動させる信号が入力された場合に、他方の瞳の領域を連動させて移動させることを特徴とする。   In the image recording apparatus, the pupil editing unit moves the other pupil region in conjunction with each other when a signal for moving the one pupil region is input by the operation input unit.

上記画像記録装置において、前記瞳編集手段は、前記一方の瞳の領域に連動して前記他方の瞳の領域を移動させた後、前記操作入力手段により前記他方の瞳の領域を移動させる信号が入力された場合に、前記一方の瞳の領域を連動させないで、前記他方の瞳の領域のみを移動させることを特徴とする。   In the image recording apparatus, the pupil editing unit moves the other pupil region in conjunction with the one pupil region, and then receives a signal for moving the other pupil region by the operation input unit. In the case of input, only the other pupil region is moved without interlocking the one pupil region.

上記画像記録装置は、前記目の領域において目線を所定の方向に向けた場合の瞳の領域の位置を算出する瞳位置算出手段を更に備え、前記瞳編集手段は、前記目領域検出手段によって検出された前記瞳の領域を、前記瞳位置算出手段によって算出された位置に移動させることを特徴とする。   The image recording apparatus further includes a pupil position calculating unit that calculates a position of a pupil region when the eye line is directed in a predetermined direction in the eye region, and the pupil editing unit is detected by the eye region detecting unit. The pupil area is moved to a position calculated by the pupil position calculating means.

上記画像記録装置において、前記瞳編集手段は、前記瞳の領域を移動させた後、前記瞳の領域の上下に前記目の領域との隙間が生じた場合に、前記瞳の領域を拡大又は拡張することにより前記隙間を補間することを特徴とする。   In the image recording apparatus, the pupil editing unit expands or expands the pupil region when a gap with the eye region is formed above and below the pupil region after the pupil region is moved. Thus, the gap is interpolated.

上記画像記録装置は、撮影レンズを介して被写体を撮像して電子的な画像データを取得する撮像手段と、撮影指示を行うレリーズ手段とをさらに備え、前記記録手段は、前記レリーズ手段による撮影指示に従って撮影を行うことにより取得された画像に対応する画像データを記録すると共に、前記瞳編集手段によって編集された画像に対応する画像データを、元の画像データとは異なるファイル名で記録することを特徴とする。   The image recording apparatus further includes an imaging unit that captures an image of a subject through a photographic lens to acquire electronic image data, and a release unit that issues a shooting instruction. The recording unit includes a shooting instruction by the release unit. Recording the image data corresponding to the image obtained by shooting according to the image data, and recording the image data corresponding to the image edited by the pupil editing unit with a file name different from the original image data. Features.

本発明に係る撮像装置は、撮影レンズを介して被写体を撮像して電子的な画像データを取得する撮像手段と、撮影指示を行うレリーズ手段と、前記画像データに対応する画像を表示する表示手段と、一定の微小な時間間隔で連続的に再生されるライブビュー画像を生成する画像処理手段と、前記レリーズ手段による撮影指示に従って撮影を行うことにより取得された画像を記録する記録手段と、前記画像から顔を検出する顔検出手段と、前記顔検出手段によって検出された顔の範囲から、目の領域及び瞳の領域を検出する目領域検出手段と、前記目の領域における前記瞳の領域の位置に基づいて、前記顔の目線が所定の方向を向いているか否かを判定する目線判定手段と、前記目線判定手段による判定結果に応じた警告表示を前記画像に合成する警告表示合成手段とを備えることを特徴とする。   An image pickup apparatus according to the present invention includes an image pickup unit that picks up an image of a subject through a shooting lens to acquire electronic image data, a release unit that issues a shooting instruction, and a display unit that displays an image corresponding to the image data And image processing means for generating a live view image that is continuously played back at a fixed minute time interval, recording means for recording an image obtained by shooting according to a shooting instruction by the release means, and A face detecting means for detecting a face from the image; an eye area detecting means for detecting an eye area and a pupil area from the range of the face detected by the face detecting means; and an area of the pupil area in the eye area. Based on the position, the eye determination unit that determines whether or not the eye of the face is facing a predetermined direction, and a warning display according to the determination result by the eye determination unit are combined with the image Characterized in that it comprises a warning display combining unit that.

上記撮像装置において、前記所定の方向は正面方向であり、前記目線判定手段は、前記瞳の領域が前記目の領域の略中央にある場合に、前記目線が正面を向いていると判定することを特徴とする。   In the imaging apparatus, the predetermined direction is a front direction, and the line-of-sight determination unit determines that the line of sight is facing the front when the pupil area is approximately in the center of the eye area. It is characterized by.

上記撮像装置は、前記目線判定手段による判定結果に応じて定まる表示属性を有し、前記顔を囲む顔検出枠を、前記画像に合成する顔検出枠合成手段をさらに備えることを特徴とする。   The imaging apparatus further includes a face detection frame synthesizing unit that has a display attribute determined according to a determination result by the eye determination unit, and synthesizes a face detection frame surrounding the face with the image.

上記撮像装置において、前記顔検出枠合成手段は、2種類以上の表示属性を有する前記顔検出枠を前記画像に合成することを特徴とすることを特徴とする。   In the imaging apparatus, the face detection frame synthesizing unit synthesizes the face detection frame having two or more types of display attributes with the image.

上記撮像装置において、前記警告表示合成手段は、所定の属性を有する前記顔検出枠の数を表示することを特徴とする。   In the imaging apparatus, the warning display combining unit displays the number of the face detection frames having a predetermined attribute.

上記撮像装置は、前記目線判定手段による判定結果に応じた警告情報を前記画像に対応する画像データに付加する警告情報付加手段をさらに備えることを特徴とする。   The imaging apparatus further includes warning information adding means for adding warning information corresponding to a determination result by the eye line determination means to image data corresponding to the image.

上記撮像装置は、前記警告情報に基づいて、前記表示手段に表示される画像を選択する画像選択手段をさらに備えることを特徴とする。   The imaging apparatus further includes image selection means for selecting an image displayed on the display means based on the warning information.

上記撮像装置において、前記画像選択手段は、前記警告情報が付加された画像を選択することを特徴とする。   In the imaging apparatus, the image selection unit selects an image to which the warning information is added.

上記撮像装置において、前記画像選択手段は、前記警告情報が付加されていない画像を選択することを特徴とする。   In the imaging apparatus, the image selection unit selects an image to which the warning information is not added.

上記撮像装置は、前記画像選択手段によって選択された画像に対し、前記目の領域における前記瞳の領域の位置を変更することを含む編集を行う瞳編集手段を更に備えることを特徴とする。   The imaging apparatus further includes pupil editing means for performing editing including changing the position of the pupil area in the eye area with respect to the image selected by the image selection means.

本発明によれば、画像から目の領域及び瞳の領域を検出し、目の領域において瞳の領域の位置を変化させる編集を行うので、ユーザは、所望の方向に被写体が目線を向けた画像を容易に取得することができる。また、本発明によれば、一定の微小な時間間隔で連続的に再生されるライブビュー画像に対し、目の領域における瞳の領域の位置に基づいて目線の判定を行い、判定結果に応じた警告表示を行うので、ユーザは、所望の方向に被写体が目線を向けたタイミングで容易に撮像を行うことができる。   According to the present invention, the eye region and the pupil region are detected from the image, and the editing is performed by changing the position of the pupil region in the eye region, so that the user can view the image of the subject in the desired direction. Can be easily obtained. In addition, according to the present invention, the line of sight is determined based on the position of the pupil region in the eye region for a live view image that is continuously played back at a fixed minute time interval, and the determination is made according to the determination result. Since the warning display is performed, the user can easily take an image at a timing when the subject turns his eyes in a desired direction.

図1は、本発明の実施の形態1に係る撮像装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an imaging apparatus according to Embodiment 1 of the present invention. 図2は、図1に示す撮像装置の外観を示す斜視図である。FIG. 2 is a perspective view illustrating an appearance of the imaging apparatus illustrated in FIG. 図3は、図1に示す目線編集処理部の構成を示すブロック図である。FIG. 3 is a block diagram showing a configuration of the eye line editing processing unit shown in FIG. 図4は、図1に示す撮像装置の動作を示すフローチャートである。FIG. 4 is a flowchart showing the operation of the imaging apparatus shown in FIG. 図5は、図1に示す撮像装置の再生動作を示すフローチャートである。FIG. 5 is a flowchart showing the reproduction operation of the imaging apparatus shown in FIG. 図6は、表示部に表示された画像の一例を示す模式図である。FIG. 6 is a schematic diagram illustrating an example of an image displayed on the display unit. 図7は、目線の判定方法を説明する図である。FIG. 7 is a diagram for explaining a method of determining a line of sight. 図8は、顔検出枠の表示属性を示す表である。FIG. 8 is a table showing display attributes of the face detection frame. 図9は、顔検出枠が合成された画像の表示例を示す模式図である。FIG. 9 is a schematic diagram illustrating a display example of an image in which face detection frames are combined. 図10は、目線のマニュアル編集動作を示すフローチャートである。FIG. 10 is a flowchart showing a manual editing operation for the line of sight. 図11は、目線のマニュアル編集方法を説明する図である。FIG. 11 is a diagram for explaining a manual line eye editing method. 図12は、瞳領域の編集方法を説明する図である。FIG. 12 is a diagram illustrating a pupil region editing method. 図13は、瞳領域の編集後の編集画像の表示例を示す模式図である。FIG. 13 is a schematic diagram illustrating a display example of an edited image after editing the pupil region. 図14は、目線編集メニューの表示例を示す模式図である。FIG. 14 is a schematic diagram illustrating a display example of a line-of-sight editing menu. 図15は、目線の自動又は一括編集動作を示すフローチャートである。FIG. 15 is a flowchart showing an automatic or batch editing operation of the eyes. 図16は、瞳領域が一括自動編集された画像の表示例を示す模式図である。FIG. 16 is a schematic diagram illustrating a display example of an image in which pupil areas are collectively edited automatically. 図17は、瞳領域が一括マニュアル編集された画像の表示例を示す模式図である。FIG. 17 is a schematic diagram illustrating a display example of an image in which the pupil region is collectively edited manually. 図18は、変形例1−1における瞳領域の編集方法を説明する図である。FIG. 18 is a diagram for describing a pupil region editing method in Modification 1-1. 図19は、実施の形態2に係る撮像装置が備える目線編集処理部の構成を示すブロック図である。FIG. 19 is a block diagram illustrating a configuration of a line-of-sight editing processing unit included in the imaging apparatus according to Embodiment 2. 図20は、実施の形態2に係る撮像装置のライブビュー動作を示すフローチャートである。FIG. 20 is a flowchart illustrating a live view operation of the imaging apparatus according to the second embodiment. 図21は、変形例2に係る撮像装置が備える画像処理回路の構成を示すブロック図である。FIG. 21 is a block diagram illustrating a configuration of an image processing circuit included in an imaging apparatus according to Modification 2. 図22は、警告情報が付加された画像を一覧表示した例を示す模式図である。FIG. 22 is a schematic diagram illustrating an example in which a list of images to which warning information is added is displayed. 図23は、警告情報が付加されていない画像を一覧表示した例を示す模式図である。FIG. 23 is a schematic diagram showing an example of displaying a list of images to which no warning information is added.

以下、図面を参照しながら、本発明を実施するための形態(以下、「実施の形態」という)について説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。また、図面の記載において、同一の部分には同一の符号を付している。
なお、本願において、水平方向とは、画像内の顔の2つの目が並んでいる方向のことをいう。
Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the drawings. The present invention is not limited to the embodiments described below. In the description of the drawings, the same parts are denoted by the same reference numerals.
In the present application, the horizontal direction means a direction in which two eyes of a face in an image are arranged.

(実施の形態1)
図1は、本発明の実施の形態1に係る画像記録装置であるデジタルカメラ(以下、単にカメラという)の構成を示すブロック図である。また、図2は、図1に示すカメラの外観を背面側から示す斜視図である。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of a digital camera (hereinafter simply referred to as a camera) that is an image recording apparatus according to Embodiment 1 of the present invention. FIG. 2 is a perspective view showing the appearance of the camera shown in FIG. 1 from the back side.

図2に示すように、カメラ1は、別体で構成された交換レンズ100及びカメラ本体200を備え、交換レンズ100を介して被写体を撮像した画像をカメラ本体100において記録する。交換レンズ100はカメラ本体200の前面のマウント開口部(不図示)に着脱自在となっている。   As shown in FIG. 2, the camera 1 includes an interchangeable lens 100 and a camera body 200 that are configured separately, and records an image obtained by capturing an object through the interchangeable lens 100 in the camera body 100. The interchangeable lens 100 is detachable from a mount opening (not shown) on the front surface of the camera body 200.

カメラ本体200の上面には、撮影を指示するためのレリーズ釦10と、パワースイッチ20と、撮影モードを設定するモードダイヤル11とが配置されている。
レリーズ釦10は、半押しすることより第1レリーズスイッチがオンすると共に、さらに押し込んで全押しすることにより第2レリーズスイッチがオンする2段階スイッチとなっている。カメラ1は、第1レリーズスイッチのオンにより、焦点検出、撮影レンズのピント合わせ、被写体輝度の測光等の撮影準備動作を行い、第2レリーズスイッチのオンにより、後述する撮像素子221の出力に基づいて、被写体像の画像データの取り込みを行う撮影動作を実行する。
On the upper surface of the camera body 200, a release button 10 for instructing shooting, a power switch 20, and a mode dial 11 for setting a shooting mode are arranged.
The release button 10 is a two-stage switch in which the first release switch is turned on by half-pressing, and the second release switch is turned on by further pressing and pressing. When the first release switch is turned on, the camera 1 performs shooting preparation operations such as focus detection, focusing of the taking lens, and photometry of subject brightness. When the second release switch is turned on, the camera 1 is based on an output of an image sensor 221 described later. Then, a shooting operation for capturing the image data of the subject image is executed.

パワースイッチ20は、カメラ本体200や交換レンズ100のパワー供給を制御するためのパワースイッチレバーに連動している。パワースイッチ20がオン状態となると、カメラ1全体に電源が供給され、カメラ1が動作を開始する。一方、パワースイッチ20がオフ状態となると、カメラ1は低消費電流モード(スリープモードともいう)での動作状態に入る。この低消費電流モードでは、後述するシーケンスコントローラ227は低消費電流で駆動され、気圧センサユニット215、スイッチ検知回路253等の回路以外には電源が供給されない。   The power switch 20 is linked to a power switch lever for controlling the power supply of the camera body 200 and the interchangeable lens 100. When the power switch 20 is turned on, power is supplied to the entire camera 1 and the camera 1 starts operating. On the other hand, when the power switch 20 is turned off, the camera 1 enters an operation state in a low current consumption mode (also referred to as a sleep mode). In this low current consumption mode, a sequence controller 227, which will be described later, is driven with a low current consumption, and power is not supplied except for circuits such as the atmospheric pressure sensor unit 215 and the switch detection circuit 253.

カメラ本体200の背面には、表示部26及び該表示部上26に重ねて設けられたタッチパネル12と、拡大釦13a、縮小釦13b、再生釦14、メニュー釦15、目線釦16、編集釦17、十字釦18、決定釦19を含む操作釦群とが配置されている。タッチパネル12及び操作釦群13a〜19は、外部からの操作に応じて、所定の指示や情報に対応する信号を入力する操作入力手段に相当する。また、カメラ本体200の背面には、種々のアクセサリーの接続部となるアクセサリーポート29が設けられている。   On the back of the camera body 200, the display unit 26 and the touch panel 12 provided to overlap the display unit 26, the enlargement button 13 a, the reduction button 13 b, the playback button 14, the menu button 15, the eye button 16, and the edit button 17 are displayed. Further, an operation button group including a cross button 18 and a determination button 19 is arranged. The touch panel 12 and the operation button groups 13a to 19 correspond to operation input means for inputting a signal corresponding to a predetermined instruction or information in accordance with an external operation. In addition, an accessory port 29 serving as a connection portion for various accessories is provided on the back surface of the camera body 200.

表示部26は、TFT(薄膜トランジスタ)等のアクティブ素子を用いた液晶パネルや有機EL(Electro Luminescence)といった表示パネルによって実現され、被写体像のライブビュー表示、記録済みの撮影画像の再生表示、メニュー画面の表示等、種々の画像や情報を表示する。なお、実施の形態1において、表示部26はカメラ本体200の背面に配置されるが、撮影者が観察できる位置であれば、背面に限らず配置することができる。また、ライブビュー表示とは、撮像素子221から出力された画像信号に基づいて表示される被写体像の観察用の動画(ライブビュー画像)表示のことである。   The display unit 26 is realized by a display panel such as a liquid crystal panel using an active element such as a TFT (Thin Film Transistor) or an organic EL (Electro Luminescence), and displays a live view of a subject image, a playback display of a recorded captured image, a menu screen. A variety of images and information such as display are displayed. In the first embodiment, the display unit 26 is disposed on the back surface of the camera body 200. However, the display unit 26 can be disposed on the back surface of the camera body 200 as long as it can be observed by the photographer. The live view display is a moving image (live view image) for observing a subject image displayed based on an image signal output from the image sensor 221.

タッチパネル12は、表示部26に表示される情報に基づいてユーザの指やタッチペン(スタイラス)等の物体が自身に接触(タッチ)した位置を検出し、このタッチ位置及びタッチの軌跡に応じた操作信号を入力する。一般に、タッチパネルとしては、抵抗膜方式、静電容量方式、光学式等がある。実施の形態1においては、いずれの方式のタッチパネルを適用しても良い。   The touch panel 12 detects a position where an object such as a user's finger or a touch pen (stylus) contacts (touches) based on information displayed on the display unit 26, and performs an operation according to the touch position and the touch trajectory. Input the signal. In general, the touch panel includes a resistance film method, a capacitance method, an optical method, and the like. In the first embodiment, any type of touch panel may be applied.

拡大釦13aは、表示部26に表示される画像を拡大させる指示信号を入力するための操作釦であり、縮小釦13bは、表示部26に表示される画像を縮小させる指示信号を入力するための操作釦である。   The enlargement button 13a is an operation button for inputting an instruction signal for enlarging the image displayed on the display unit 26, and the reduction button 13b is for inputting an instruction signal for reducing the image displayed on the display unit 26. This is an operation button.

再生釦14は、再生モードへの移行、及び再生モードからの抜出を指示する指示信号を入力するための操作釦である。
メニュー釦15は、表示部26にメニューを表示する指示信号を入力するための操作釦である。
The playback button 14 is an operation button for inputting an instruction signal for instructing transition to the playback mode and extraction from the playback mode.
The menu button 15 is an operation button for inputting an instruction signal for displaying a menu on the display unit 26.

目線釦16は、表示部26に表示された画像内の被写体像の目線を自動又は一括して編集する自動又は一括編集モードへの移行、及び該自動又は一括編集モードからの抜出を指示する指示信号を入力するための操作釦である。   The line-of-sight button 16 instructs the shift to the automatic or batch edit mode for automatically or collectively editing the lines of the subject image in the image displayed on the display unit 26 and the extraction from the automatic or batch edit mode. An operation button for inputting an instruction signal.

編集釦17は、表示部26に表示された画像内の被写体像の目線をユーザがマニュアルで編集するマニュアル編集モードへの移行、及び該マニュアル編集モードからの抜出を操作するための操作釦である。   The edit button 17 is an operation button for operating the shift to the manual edit mode in which the user manually edits the line of sight of the subject image in the image displayed on the display unit 26 and the extraction from the manual edit mode. is there.

十字釦18は、上釦18a、下釦18b、左釦18c、右釦18dを含み、表示部26に表示されたカーソルやポインタ等を上下左右に移動させる指示信号を入力するための操作釦である。
決定釦19は、十字釦18等によって選択された項目を決定する指示信号を入力するための操作釦である。
The cross button 18 includes an upper button 18a, a lower button 18b, a left button 18c, and a right button 18d, and is an operation button for inputting an instruction signal for moving a cursor, a pointer, and the like displayed on the display unit 26 up, down, left and right. is there.
The determination button 19 is an operation button for inputting an instruction signal for determining an item selected by the cross button 18 or the like.

なお、表示部26に表示されたカーソルやポインタを操作する操作部材としては、タッチパネル12及び十字釦18以外にも、トラックボール、タッチパッド、ポインティングスティック等の種々のポインティングデバイスを用いることができる。これらのポインティングデバイスは、カメラ1に設けても良いし、カメラ1に対して外付けにしても良い。   In addition to the touch panel 12 and the cross button 18, various pointing devices such as a track ball, a touch pad, and a pointing stick can be used as an operation member for operating the cursor and pointer displayed on the display unit 26. These pointing devices may be provided in the camera 1 or may be externally attached to the camera 1.

アクセサリーポート29には、例えばファインダ接眼部、及びファインダ接眼部を介して撮影者が観察可能な位置に配置されたファインダ内表示モニタが設けられたビューファインダ等、種々の付属部品が接続される。なおファインダ内表示モニタとしては、液晶や有機EL等の表示パネルが用いられる。   The accessory port 29 is connected to various accessory parts such as a viewfinder provided with a viewfinder eyepiece and a viewfinder display monitor disposed at a position where the photographer can observe through the viewfinder eyepiece. The A display panel such as a liquid crystal or an organic EL is used as the in-finder display monitor.

図1に示すように、交換レンズ100をカメラ本体200に装着した状態のとき、通信接点300において両者は電気的に接続される。カメラ本体200内のマウント開口部の近傍には、着脱検知スイッチ259が設けられており、交換レンズ100とカメラ本体200の装着状態を検知する。   As shown in FIG. 1, when the interchangeable lens 100 is mounted on the camera body 200, both are electrically connected at the communication contact 300. An attachment / detachment detection switch 259 is provided in the vicinity of the mount opening in the camera body 200 to detect the mounting state of the interchangeable lens 100 and the camera body 200.

交換レンズ100内には、焦点調節及び焦点距離調節用の撮影レンズ101a、101bを含む撮影光学系101と、開口量を調節するための絞り103が配置されている。この内、撮影光学系101は光学系駆動機構107に駆動されて、その位置調節がなされる。また、絞り103は絞り駆動機構109に駆動されて、その位置調節がなされる。光学位置検出機構105は、撮影光学系101の位置を検出して、撮影光学系101の焦点調節レンズ位置(ピント位置)及び焦点距離(ズーム位置)を取得する。また、交換レンズ100の周囲には、回動自在な距離環112が設けられている。この距離環112の回動方向(操作方向)及び回動量(操作量)は、エンコーダ110によって検出される。   In the interchangeable lens 100, a photographing optical system 101 including photographing lenses 101a and 101b for focus adjustment and focal length adjustment, and a diaphragm 103 for adjusting the aperture amount are arranged. Among these, the photographing optical system 101 is driven by the optical system driving mechanism 107 and its position is adjusted. The diaphragm 103 is driven by the diaphragm driving mechanism 109 to adjust its position. The optical position detection mechanism 105 detects the position of the photographing optical system 101 and acquires the focus adjustment lens position (focus position) and the focal length (zoom position) of the photographing optical system 101. A rotatable distance ring 112 is provided around the interchangeable lens 100. The rotation direction (operation direction) and the rotation amount (operation amount) of the distance ring 112 are detected by the encoder 110.

光学位置検出機構105、光学系駆動機構107、絞り駆動機構109、及びエンコーダ110の各々は、通信接点300を介してカメラ本体200に接続されたレンズコントローラ111に接続されている。レンズコントローラ111は、例えばCPUによって実現され、光学系駆動機構107に対する駆動制御を介してピント合わせ及びズーム駆動を制御すると共に、絞り駆動機構109に対する駆動制御を介して絞り値を制御する。   Each of the optical position detection mechanism 105, the optical system drive mechanism 107, the aperture drive mechanism 109, and the encoder 110 is connected to a lens controller 111 connected to the camera body 200 via a communication contact 300. The lens controller 111 is realized by a CPU, for example, and controls focusing and zooming via drive control for the optical system drive mechanism 107, and controls the aperture value via drive control for the aperture drive mechanism 109.

また、レンズコントローラ111は、光学位置検出機構105によって取得された焦点調節レンズ位置及び焦点距離に関するレンズ情報をカメラ本体200に送信する。具体的には、交換レンズ100内(又はレンズコントローラ111内)に内蔵された電気的書き換え可能な不揮発性メモリ(図示せず)に、交換レンズ100の焦点距離情報(ズームレンズの場合には、最短焦点距離及び最長焦点距離)、開放絞り値、最小絞り値、撮影可能距離範囲(最至近距離を含む)、レンズの色バランス情報、収差情報、オートフォーカス(AF)に関する情報、装着されたレンズの種類(マクロレンズ、テレコンバータ等)といったレンズ情報が記憶される。なお、レンズ情報は、これらの情報の他、絞り103の絞り状態(開放絞り状態又は絞り込み状態)、距離環112の操作状態(操作方向及び操作量)といった交換レンズ100の状態に関する情報や、絞り駆動機構109による絞り103の絞り込み完了や絞り開放完了、光学系駆動機構107によるレンズ駆動完了の情報といった交換レンズ100の操作状況に関する情報も含む。レンズコントローラ111は、不揮発性メモリに記憶されたこれらのレンズ情報を、通信接点300を介してカメラ本体200に送信する。   In addition, the lens controller 111 transmits lens information regarding the focus adjustment lens position and focal length acquired by the optical position detection mechanism 105 to the camera body 200. Specifically, the focal length information (in the case of a zoom lens) of the interchangeable lens 100 is stored in an electrically rewritable nonvolatile memory (not shown) built in the interchangeable lens 100 (or the lens controller 111). (Shortest focal length and longest focal length), open aperture value, minimum aperture value, shootable distance range (including the closest distance), lens color balance information, aberration information, information on autofocus (AF), mounted lens The lens information such as the type (macro lens, teleconverter, etc.) is stored. The lens information includes information related to the state of the interchangeable lens 100 such as the aperture state (open aperture state or aperture state) of the aperture 103 and the operation state (operation direction and operation amount) of the distance ring 112 in addition to the above information. Information regarding the operation status of the interchangeable lens 100 is also included, such as information about completion of aperture stop 103, completion of aperture opening by the drive mechanism 109, and completion of lens drive by the optical system drive mechanism 107. The lens controller 111 transmits the lens information stored in the nonvolatile memory to the camera body 200 via the communication contact 300.

カメラ本体200内における撮影光学系101の光軸上(即ち、撮影光路上)には、露光時間制御及び撮像素子221の遮光用のフォーカルプレーンタイプのシャッタ203が配置されている。シャッタ203の動作は、シャッタ駆動機構213によって駆動制御される。被写体の方向から入射し、撮影光学系101によって形成された被写体像に対応する光束は、交換レンズ100とカメラ本体200とが結合するマウント開口部を介してカメラ本体200の方向に導かれ、シャッタ203が開いたタイミングでカメラ本体200内に入射する。   On the optical axis of the photographing optical system 101 in the camera body 200 (that is, on the photographing optical path), a focal plane type shutter 203 for controlling exposure time and shielding the image sensor 221 is disposed. The operation of the shutter 203 is controlled by the shutter drive mechanism 213. A light beam incident from the direction of the subject and corresponding to the subject image formed by the photographing optical system 101 is guided to the direction of the camera body 200 through the mount opening where the interchangeable lens 100 and the camera body 200 are coupled, and the shutter. The light enters the camera body 200 at the timing when 203 is opened.

シャッタ203の後方(撮影光学系101とは反対側の方向)には、撮像素子ユニット290が配置されている。撮像素子ユニット290は、防塵フィルタ205、赤外カットフィルタ209、光学的ローパスフィルタ210、及び撮像素子221を、撮影光学系101側からこの順で配置して一体的に構成したユニットであり、塵埃が侵入しないように密封されたパッケージに収納されている。このような撮像素子ユニット290は、ブレ補正駆動機構292により、撮影光学系101の光軸と直交するXY平面内において2次元的に変位される。   An image sensor unit 290 is disposed behind the shutter 203 (in the direction opposite to the photographing optical system 101). The image sensor unit 290 is a unit in which the dust filter 205, the infrared cut filter 209, the optical low-pass filter 210, and the image sensor 221 are arranged in this order from the photographing optical system 101 side, and are integrally configured. Is housed in a sealed package so as not to enter. Such an image sensor unit 290 is displaced two-dimensionally in the XY plane orthogonal to the optical axis of the photographing optical system 101 by the blur correction drive mechanism 292.

防塵フィルタ205は、カメラ本体200のマウント開口部や本体内部において発生した塵埃が撮像素子221や光学素子に付着することにより、塵埃の影が被写体像に写し込まれて見苦しい画像となることを防止する。   The dustproof filter 205 prevents the dust generated in the mount opening of the camera body 200 and the inside of the camera body from adhering to the image sensor 221 and the optical element, so that the shadow of the dust is imprinted on the subject image and becomes an unsightly image. To do.

防塵フィルタ205の周縁部の全周又は一部には、防塵フィルタ駆動回路211に接続された圧電素子207が固着されている。圧電素子207は、防塵フィルタ駆動回路211の駆動信号に基づいて、防塵フィルタ205を所定周波数の超音波で振動させる。防塵フィルタ205が超音波で振動することにより、防塵フィルタ205の前面に付着した塵埃が除去される。   A piezoelectric element 207 connected to the dustproof filter driving circuit 211 is fixed to the entire circumference or a part of the peripheral edge of the dustproof filter 205. The piezoelectric element 207 vibrates the dust filter 205 with ultrasonic waves of a predetermined frequency based on the drive signal of the dust filter drive circuit 211. As the dust filter 205 vibrates with ultrasonic waves, dust adhering to the front surface of the dust filter 205 is removed.

赤外カットフィルタ209は、被写体像に対応する光束から赤外光成分をカットする。また、光学的ローパスフィルタ210は、被写体光束から高周波成分を取り除く。   The infrared cut filter 209 cuts an infrared light component from the light beam corresponding to the subject image. The optical low-pass filter 210 removes high frequency components from the subject light flux.

撮像素子221は、撮影光学系101によって結像された光束を光電変換して、アナログ画像信号を生成する。本実施形態1においては、撮像素子221として、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の2次元固体撮像素子が使用される。   The image sensor 221 photoelectrically converts the light beam formed by the photographing optical system 101 to generate an analog image signal. In the first embodiment, a two-dimensional solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) is used as the imaging device 221.

また、カメラ本体200は、撮像素子221において生成されたアナログ画像信号を処理する撮像素子駆動回路223、前処理回路225、コントラストAF回路226、ASIC(Application Specific Integrated Circuit 特定用途向け集積回路)262、ブレ補正駆動機構292、アクチュエータ駆動回路294、及びブレ検出部297を備える。   The camera body 200 includes an image sensor driving circuit 223 that processes an analog image signal generated by the image sensor 221, a preprocessing circuit 225, a contrast AF circuit 226, an ASIC (Application Specific Integrated Circuit) 262, A shake correction drive mechanism 292, an actuator drive circuit 294, and a shake detection unit 297 are provided.

撮像素子駆動回路223は、入出力回路239から出力された制御信号に従って、撮像素子221において生成されたアナログ画像信号を読み出し、このアナログ画像信号を増幅すると共に、アナログデジタル変換(AD変換)等の信号処理を行う。   The image sensor driving circuit 223 reads out an analog image signal generated in the image sensor 221 in accordance with a control signal output from the input / output circuit 239, amplifies the analog image signal, and performs analog-digital conversion (AD conversion) or the like. Perform signal processing.

前処理回路225は、撮像素子駆動回路223において信号処理が施された画像信号に対しライブビュー表示のための画素間間引処理等、種々の前処理を行う。
コントラストAF回路226は、前処理回路225から出力された画像信号の高周波成分(コントラスト信号)を抽出する。コントラスト信号を抽出する画像の範囲は、シーケンスコントローラ227によって制御され、例えば、AFターゲット、撮影画面全体、又は拡大表示領域等の領域に対して抽出が行われる。抽出されたコントラスト信号はシーケンスコントローラ227に出力される。
The preprocessing circuit 225 performs various types of preprocessing such as pixel thinning processing for live view display on the image signal subjected to signal processing in the image sensor driving circuit 223.
The contrast AF circuit 226 extracts a high frequency component (contrast signal) of the image signal output from the preprocessing circuit 225. The range of the image from which the contrast signal is extracted is controlled by the sequence controller 227, and for example, extraction is performed on an area such as an AF target, the entire imaging screen, or an enlarged display area. The extracted contrast signal is output to the sequence controller 227.

ASIC262は、データバス261と、このデータバス261に接続されたシーケンスコントローラ(本体側コントローラ)227、画像処理回路229、圧縮伸張回路231、ビデオ信号出力回路233、SDRAM制御回路237、入出力回路239、通信回路241、記録媒体制御回路243、フラッシュメモリ制御回路247、スイッチ検知回路253とを含む。なお、図2においてはコントラストAF回路226をASIC262の外側に設けているが、ASIC262内に設けても良い。   The ASIC 262 includes a data bus 261, a sequence controller (main body controller) 227 connected to the data bus 261, an image processing circuit 229, a compression / decompression circuit 231, a video signal output circuit 233, an SDRAM control circuit 237, and an input / output circuit 239. , A communication circuit 241, a recording medium control circuit 243, a flash memory control circuit 247, and a switch detection circuit 253. In FIG. 2, the contrast AF circuit 226 is provided outside the ASIC 262, but it may be provided in the ASIC 262.

シーケンスコントローラ227は、例えばCPUによって実現され、カメラ本体200の各部の動作を制御する。具体的には、シーケンスコントローラ227は、フラッシュメモリ249に記憶されているプログラムに従って、カメラ1全体の動作を制御する。また、シーケンスコントローラ227は、上述したように、コントラストAF回路226からコントラスト信号を入力し、レンズコントローラ111を介して撮影光学系101の自動焦点調節の制御を行う。   The sequence controller 227 is realized by a CPU, for example, and controls the operation of each unit of the camera body 200. Specifically, the sequence controller 227 controls the overall operation of the camera 1 according to a program stored in the flash memory 249. Further, as described above, the sequence controller 227 receives the contrast signal from the contrast AF circuit 226 and controls the automatic focus adjustment of the photographing optical system 101 via the lens controller 111.

画像処理回路229は、前処理回路225から出力され、データバス261を介して入力されたデジタル画像信号(画像データ)に対し、デジタル的増幅(デジタルゲイン調整処理)、色補正、ガンマ(γ)補正、コントラスト補正、白黒・カラーモード処理、ライブビュー表示用処理といった各種画像処理を施し、画像データの輝度分布や彩度の判定を行う。また、画像処理回路229は、画像データに対応する画像に人物や動物等の被写体像の顔が含まれている場合に、その顔における目線を編集する目線編集処理部230を有する。なお、このような顔検出及び目線の編集は、専用のハードウエアを用いて実行しても良い。   The image processing circuit 229 digitally amplifies (digital gain adjustment processing), color correction, and gamma (γ) for the digital image signal (image data) output from the preprocessing circuit 225 and input via the data bus 261. Various image processing such as correction, contrast correction, black and white / color mode processing, and live view display processing are performed to determine the luminance distribution and saturation of the image data. Further, the image processing circuit 229 includes a line-of-sight editing processing unit 230 that edits the line of sight of a face of a subject image such as a person or animal in an image corresponding to the image data. Note that such face detection and eye line editing may be performed using dedicated hardware.

図3は、目線編集処理部230の構成を示すブロック図である。目線編集処理部230は、顔検出部230aと、目領域検出部230b、瞳位置算出部230cと、目線判定部230dと、顔検出枠合成部230eと、顔選択部230f、瞳編集部230gとを備える。   FIG. 3 is a block diagram showing a configuration of the eye line editing processing unit 230. The eye edit processing unit 230 includes a face detection unit 230a, an eye region detection unit 230b, a pupil position calculation unit 230c, a line of sight determination unit 230d, a face detection frame synthesis unit 230e, a face selection unit 230f, and a pupil editing unit 230g. Is provided.

顔検出部230aは、表示部26に表示される画像に顔が含まれるか否かを、パターンマッチング処理等の周知技術を用いて判定する。そして、顔が含まれる場合には、顔の範囲の表示部26における位置座標を取得し、この位置座標を表す顔範囲情報を生成する。このとき、画像中に複数の顔が含まれる場合には、各顔に対応する顔範囲情報が生成される。なお、顔検出部230aは、基本的には人物の顔を検出するが、犬や猫等の動物の顔を検出することとしても良い。   The face detection unit 230a determines whether a face is included in the image displayed on the display unit 26 using a known technique such as pattern matching processing. If a face is included, the position coordinates of the face range on the display unit 26 are acquired, and face range information representing the position coordinates is generated. At this time, when a plurality of faces are included in the image, face range information corresponding to each face is generated. The face detection unit 230a basically detects the face of a person, but may also detect the face of an animal such as a dog or cat.

目領域検出部230bは、顔範囲情報に基づいて、顔の範囲から目の領域(以下、目領域という)、及び該目領域における瞳の領域(以下、瞳領域という)を検出する。そして、目領域及び瞳領域の輪郭の表示部26における位置座標を取得し、これらの位置座標を表す目領域情報を生成する。   The eye region detection unit 230b detects an eye region (hereinafter referred to as an eye region) and a pupil region (hereinafter referred to as a pupil region) in the eye region based on the face range information. And the position coordinate in the display part 26 of the outline of an eye area | region and a pupil area | region is acquired, and eye area | region information showing these position coordinates is produced | generated.

瞳位置算出部230cは、目領域情報に基づいて、目線を所定の方向に向けた場合の目領域における瞳領域の位置を算出する。具体的には、目領域の水平方向における中央の位置が算出される。   The pupil position calculation unit 230c calculates the position of the pupil region in the eye region when the eye line is directed in a predetermined direction based on the eye region information. Specifically, the center position of the eye area in the horizontal direction is calculated.

目線判定部230dは、目領域検出部230bにおいて検出された目領域及び瞳領域の位置座標と、瞳位置算出部230cにおいて算出された位置に基づいて、検出された顔の目線が所定の方向を向いているか否かを判定する。実施の形態1においては、目線が正面(カメラ1の方向)を向いているか否かを判定するものとし、検出された瞳領域が水平方向における目領域の略中央にある場合に、目線が正面に向いていると判定される。   Based on the position coordinates of the eye region and the pupil region detected by the eye region detection unit 230b and the position calculated by the pupil position calculation unit 230c, the eye line determination unit 230d moves the detected eye line of the face in a predetermined direction. It is determined whether or not it is suitable. In the first embodiment, it is determined whether or not the line of sight is facing the front (the direction of the camera 1). When the detected pupil area is substantially at the center of the eye area in the horizontal direction, the line of sight is the front. It is determined that it is suitable for.

顔検出枠合成部230eは、顔範囲情報に基づいて、検出された顔をそれぞれ囲む顔検出枠を画像に合成する。その際、顔検出枠合成部230eは、目線判定部230dにより判定が行われた場合に、その判定結果に応じて定まる属性(線の太さ、色、種類、点滅周期等、以下、表示属性という)で表示される顔検出枠を合成する。具体的には、顔検出枠合成部230eは、目線が正面を向いていると判定された顔、及び目線が正面を向いていないと判定された顔に対し、互いに異なる色や線種で表示される顔検出枠を合成する。この場合、顔検出枠合成部230eは、目線判定部230dの判定結果を通知する通知手段に相当する。   The face detection frame synthesis unit 230e synthesizes a face detection frame that surrounds each detected face with an image based on the face range information. At that time, the face detection frame compositing unit 230e has attributes (line thickness, color, type, blinking period, etc.) determined according to the determination result when the eye determination unit 230d performs the determination. The face detection frame displayed in the above is synthesized. Specifically, the face detection frame compositing unit 230e displays different colors and line types for the face determined to have the eye line facing the front and the face determined to have the eye line not facing the front. The detected face detection frames are synthesized. In this case, the face detection frame synthesis unit 230e corresponds to a notification unit that notifies the determination result of the eye line determination unit 230d.

顔選択部230fは、目線判定部230dの判定結果、及び/又はタッチパネル12や操作釦群13a〜19によって入力された選択信号に基づいて、画像内の1つ又は複数の顔を選択する。
瞳編集部230gは、顔選択部230fによって選択された顔に対し、瞳領域を編集する処理を行う。この編集は、目領域における瞳領域の位置を変更することを含む。
The face selection unit 230f selects one or more faces in the image based on the determination result of the eye line determination unit 230d and / or the selection signal input by the touch panel 12 or the operation button groups 13a-19.
The pupil editing unit 230g performs a process of editing the pupil region for the face selected by the face selection unit 230f. This editing includes changing the position of the pupil region in the eye region.

なお、このような目線編集処理部230は、専用のハードウエアによって実現しても良いし、目線編集処理プログラムをCPUに読み込むことにより実現しても良い。   Note that such a line-of-sight editing processing unit 230 may be realized by dedicated hardware or by reading a line-of-sight editing processing program into the CPU.

圧縮伸張回路231は、SDRAM238に記憶された画像データをJPEG、TIFF等の形式で圧縮する。なお、画像圧縮はJPEGやTIFFに限らず、他の圧縮方法を適用しても良い。   The compression / decompression circuit 231 compresses the image data stored in the SDRAM 238 in a format such as JPEG or TIFF. Note that image compression is not limited to JPEG or TIFF, and other compression methods may be applied.

ビデオ信号出力回路233は、表示部駆動回路235を介して表示部26(及び、アクセサリーポート29にビューファインダを取り付ける場合には、ファインダ内表示パネル)に接続される。ビデオ信号出力回路233は、SDRAM238又は記録媒体245に記憶された画像データを、表示部26(及び/又はファインダ内液晶モニタ)に表示するためのビデオ信号に変換する。   The video signal output circuit 233 is connected to the display unit 26 (and an in-finder display panel when the viewfinder is attached to the accessory port 29) via the display unit driving circuit 235. The video signal output circuit 233 converts the image data stored in the SDRAM 238 or the recording medium 245 into a video signal for display on the display unit 26 (and / or the liquid crystal monitor in the finder).

SDRAM238は、SDRAM制御回路237を介してデータバス261に接続されている。SDRAM238は、画像処理回路229によって画像処理された画像データ又は圧縮伸張回路231によって圧縮された画像データを一時的に記憶するバッファメモリである。   The SDRAM 238 is connected to the data bus 261 via the SDRAM control circuit 237. The SDRAM 238 is a buffer memory that temporarily stores image data processed by the image processing circuit 229 or image data compressed by the compression / decompression circuit 231.

入出力回路239は、防塵フィルタ駆動回路211、シャッタ駆動機構213、及び撮像素子駆動回路223に接続され、データバス261を介してシーケンスコントローラ227等の各回路とデータの入出力を制御する。   The input / output circuit 239 is connected to the dust filter driving circuit 211, the shutter driving mechanism 213, and the image sensor driving circuit 223, and controls data input / output with each circuit such as the sequence controller 227 via the data bus 261.

通信回路241は、データバス261と接続されると共に、通信接点300を介してレンズコントローラ111と接続されている。通信回路241は、レンズコントローラ111とシーケンスコントローラ227その他の各回路との間のデータの送受信や制御命令の送信等の通信を行う。   The communication circuit 241 is connected to the data bus 261 and is connected to the lens controller 111 via the communication contact 300. The communication circuit 241 performs communication such as data transmission / reception and control command transmission between the lens controller 111 and the sequence controller 227 and other circuits.

記録媒体制御回路243は、記録媒体245に接続され、記録媒体245への画像データ等の記録と再生の制御を行う。記録媒体245は、コンパクトフラッシュ(登録商標)、SDメモリカード(登録商標)、又はメモリスティック(登録商標)等の書き換え可能な記録媒体が装填可能となるように構成され、カメラ本体200に対して着脱自在となっている。その他、マイクロドライブ(登録商標)などのハードディスクユニットや無線通信ユニットを接続可能に構成してもよい。   The recording medium control circuit 243 is connected to the recording medium 245 and controls recording and reproduction of image data and the like on the recording medium 245. The recording medium 245 is configured so that a rewritable recording medium such as a compact flash (registered trademark), an SD memory card (registered trademark), or a memory stick (registered trademark) can be loaded. It is removable. In addition, a hard disk unit such as a microdrive (registered trademark) or a wireless communication unit may be connectable.

フラッシュメモリ制御回路247は、フラッシュメモリ(Flash Memory)249に接続される。フラッシュメモリ249は、電気的に書き換え可能な不揮発性メモリであり、カメラの動作を制御するためのプログラムや、制御用の調整値等を記憶する。シーケンスコントローラ227は、フラッシュメモリ249に記憶されたプログラムや調整値等に従ってデジタルカメラの制御を行う。   The flash memory control circuit 247 is connected to a flash memory 249. The flash memory 249 is an electrically rewritable nonvolatile memory, and stores a program for controlling the operation of the camera, control adjustment values, and the like. The sequence controller 227 controls the digital camera in accordance with programs, adjustment values, etc. stored in the flash memory 249.

スイッチ検知回路253は、モードダイヤル11、タッチパネル12、操作釦群13a〜19、パワースイッチ20、及び着脱検知スイッチ259に接続され、これらの各部のスイッチ状態を検知し、或いはこれらの各部から入力された入力信号を受け付けて、データバス261を介して各部に送信する。なお、パワースイッチ20がオフ状態になると、パワースイッチ20以外の操作部材の動作はいずれも検出されない。   The switch detection circuit 253 is connected to the mode dial 11, the touch panel 12, the operation button groups 13 a to 19, the power switch 20, and the attachment / detachment detection switch 259, and detects the switch state of each part, or is input from these parts. The input signal is received and transmitted to each unit via the data bus 261. Note that when the power switch 20 is turned off, any operation of the operation members other than the power switch 20 is not detected.

ブレ補正駆動機構292は、駆動源として圧電素子駆動モータ等からなるアクチュエータを備え、撮像素子ユニット290を撮影光学系101の光軸と直交するXY平面内において2次元的に変位することにより、画像におけるブレを防止する。
アクチュエータ駆動回路294は、ブレ補正駆動機構292内のアクチュエータを駆動する。
The blur correction drive mechanism 292 includes an actuator composed of a piezoelectric element drive motor or the like as a drive source, and displaces the image sensor unit 290 in a two-dimensional manner within an XY plane orthogonal to the optical axis of the imaging optical system 101, thereby generating an image. To prevent blurring.
The actuator drive circuit 294 drives the actuator in the shake correction drive mechanism 292.

ブレ検出部297は、ジャイロを利用した角速度センサ297a、及び角速度検出回路297bを含むブレ検出部297を有する。角速度センサ297aは、カメラ本体200に生じたブレに応じたブレ信号を出力する。角速度検出回路297bは、角速度センサ297aから出力されたブレ信号を増幅すると共にAD変換し、シーケンスコントローラ227に出力する。   The blur detection unit 297 includes an angular velocity sensor 297a using a gyro and a blur detection unit 297 including an angular velocity detection circuit 297b. The angular velocity sensor 297a outputs a shake signal corresponding to the shake generated in the camera body 200. The angular velocity detection circuit 297b amplifies the blur signal output from the angular velocity sensor 297a, performs AD conversion, and outputs it to the sequence controller 227.

シーケンスコントローラ227は、ブレ検出部297によって検出されたブレ信号に基づき、カメラ本体200のブレを打ち消すブレ制御信号をアクチュエータ駆動回路294に出力し、ブレ補正駆動機構292内のアクチュエータに対する駆動信号を出力させる。これによりアクチュエータが駆動し、撮像素子221が撮影光学系101の光軸と直交する方向に移動する。その結果、カメラ本体200に加えられたブレが打ち消され、画像の劣化が防止される。なお、このような手ブレ補正の方式は、撮像素子シフト方式と呼ばれる。   The sequence controller 227 outputs a shake control signal for canceling the shake of the camera body 200 to the actuator drive circuit 294 based on the shake signal detected by the shake detection unit 297, and outputs a drive signal for the actuator in the shake correction drive mechanism 292. Let As a result, the actuator is driven, and the image sensor 221 moves in a direction orthogonal to the optical axis of the photographing optical system 101. As a result, the blur applied to the camera body 200 is canceled, and the deterioration of the image is prevented. Such a camera shake correction method is called an image sensor shift method.

実施の形態1に係るカメラの動作を、図4を参照しながら説明する。図4は、シーケンスコントローラ227によるパワーオンリセット後のカメラ1の動作を示すフローチャートである。カメラ本体200にバッテリが装填され、又は外部電源が接続されると、図4に示す動作がスタートする。   The operation of the camera according to Embodiment 1 will be described with reference to FIG. FIG. 4 is a flowchart showing the operation of the camera 1 after the power-on reset by the sequence controller 227. When a battery is loaded in the camera body 200 or an external power source is connected, the operation shown in FIG. 4 starts.

まず、ステップS01において、カメラ1は、パワースイッチ20がオンであるか否かを判定する。パワースイッチ20がオンである場合(ステップS01:Yes)、カメラ本体200及び交換レンズ100内の各機構や各回路等への電源供給が開始される(S02)。一方、パワースイッチ20がオフである場合(ステップS01:No)、カメラ1は、低消費電力の状態であるスリープ状態となる(ステップS12)。なお、このスリープ状態は、パワースイッチ20のオフからオンによって解除される。   First, in step S01, the camera 1 determines whether or not the power switch 20 is on. When the power switch 20 is on (step S01: Yes), power supply to each mechanism and each circuit in the camera body 200 and the interchangeable lens 100 is started (S02). On the other hand, when the power switch 20 is off (step S01: No), the camera 1 enters a sleep state that is a low power consumption state (step S12). This sleep state is canceled when the power switch 20 is turned off.

ステップS03において、カメラ1は、レンズ情報を取得する。具体的には、シーケンスコントローラ227が、レンズコントローラ111から通信回路241を介して、光学位置検出機構105によって検出された撮影光学系101の焦点位置情報及び焦点距離情報、並びに、至近側焦点距離・長焦点側焦点距離、開放絞り値、焦点距離毎の露出補正値、周辺光量の補正値(シェーディング)、周辺の色補正値、歪曲収差補正値等の交換レンズ100の固有情報を含むレンズ情報を取得する。この際、中間リング、テレコンバータなどのレンズに関わるアクセサリーに関する情報を、これらのアクセサリーの装着の有無を含めて取得しても良い。   In step S03, the camera 1 acquires lens information. Specifically, the sequence controller 227 receives the focal position information and focal length information of the photographing optical system 101 detected by the optical position detection mechanism 105 from the lens controller 111 via the communication circuit 241, and the closest focal length / Lens information including unique information of the interchangeable lens 100 such as a long focal length focal length, an open aperture value, an exposure correction value for each focal length, a peripheral light amount correction value (shading), a peripheral color correction value, and a distortion aberration correction value. get. At this time, information on accessories related to the lenses such as the intermediate ring and the teleconverter may be acquired including whether or not these accessories are attached.

ステップS04において、カメラ1は、動作モード及びパラメータの設定を行う。具体的には、カメラ本体200が、モードダイヤル11によって設定された撮影モード、ISO感度、操作釦群13a〜19を用いてマニュアル設定されたシャッタ速度、絞り値等の情報に基づいて、撮影条件の読み込みを行う。   In step S04, the camera 1 sets an operation mode and parameters. Specifically, the camera body 200 determines the shooting condition based on information such as the shooting mode set by the mode dial 11, ISO sensitivity, shutter speed manually set using the operation button groups 13a to 19 and aperture value. Is read.

続くステップS05において、カメラ1は、測光及び露光量の演算を行う。詳細には、カメラ1は、撮像素子221の出力に基づいて被写体輝度を求め、この被写体輝度を用いて撮影モード及び撮影条件に従って適正露光となるシャッタ速度や絞り値等の露光制御値を算出する。   In subsequent step S05, the camera 1 performs photometry and exposure amount calculation. More specifically, the camera 1 obtains subject brightness based on the output of the image sensor 221 and uses the subject brightness to calculate an exposure control value such as a shutter speed and an aperture value at which proper exposure is performed according to the shooting mode and shooting conditions. .

ステップS06において、カメラ1は、ライブビュー表示を行う。具体的には、画像処理回路229が、撮像素子221から出力された画像信号を取り込んで所定の画像処理を施すことにより、一定の微小な時間間隔で連続的に再生される表示用の画像データを生成する。表示部26は、この表示用の画像データに対応する画像(ライブビュー画像)を表示する。   In step S06, the camera 1 performs live view display. Specifically, the image processing circuit 229 takes in the image signal output from the image sensor 221 and performs predetermined image processing, whereby display image data that is continuously reproduced at a fixed minute time interval. Is generated. The display unit 26 displays an image (live view image) corresponding to the image data for display.

ステップS07において、カメラ1は、再生スイッチがオンされたか否かを判定する。即ち、再生釦14に連動する再生スイッチ信号が検出されたか否かが判定される。再生スイッチがオンされた場合(ステップS07:Yes)、カメラ1は、記録媒体245に記録されている画像データに対応する画像を表示部26に再生して表示する(ステップS20)。   In step S07, the camera 1 determines whether or not the playback switch is turned on. That is, it is determined whether or not a playback switch signal that is linked to the playback button 14 is detected. When the reproduction switch is turned on (step S07: Yes), the camera 1 reproduces and displays an image corresponding to the image data recorded on the recording medium 245 on the display unit 26 (step S20).

一方、再生スイッチがオンされない場合(ステップS07:No)、又はステップS20の再生動作が終了した場合、カメラ1は、メニュースイッチがオンされたか否かを判定する(ステップS08)。即ち、メニュー釦15に連動するメニュースイッチ信号が検出されたか否かが判定される。   On the other hand, when the playback switch is not turned on (step S07: No), or when the playback operation of step S20 ends, the camera 1 determines whether or not the menu switch is turned on (step S08). That is, it is determined whether or not a menu switch signal linked to the menu button 15 is detected.

メニュースイッチがオンされた場合(ステップS08:Yes)、カメラ1はメニュー設定を行う(ステップS30)。詳細には、カメラ1は、メニュースイッチのオンに応じて、ISO感度、ホワイトバランス、マニュアルフォーカス(MF)モード、オートフォーカス(AF)モード、防振モード等の種々の設定用の画面を表示部26に表示する。カメラ1は、このような画面(タッチパネル12)に対するタッチや、十字釦18及び決定釦19に対する操作により入力された指示信号に応じて、種々のモードやパラメータの設定を行い、設定されたモードを各部に実行させる。例えば、防振モードが設定された場合、ライブビュー動作中及び撮影動作時に防振動作が実行される。   When the menu switch is turned on (step S08: Yes), the camera 1 performs menu setting (step S30). Specifically, the camera 1 displays various setting screens such as ISO sensitivity, white balance, manual focus (MF) mode, autofocus (AF) mode, and image stabilization mode in accordance with the menu switch being turned on. 26. The camera 1 sets various modes and parameters in accordance with an instruction signal input by touching such a screen (touch panel 12) or by operating the cross button 18 and the enter button 19, and the set mode is set. Let each part execute. For example, when the image stabilization mode is set, the image stabilization operation is executed during the live view operation and the shooting operation.

一方、メニュースイッチがオンされない場合(ステップS08:No)、又はステップS30のメニュー設定が終了した場合、カメラ1は、第1レリーズスイッチ(1Rスイッチ)がオンされたか否かを判定する(ステップS09)。具体的には、レリーズ釦10の半押しによる第1レリーズスイッチ信号が検出されたか否かが判定される。   On the other hand, when the menu switch is not turned on (step S08: No), or when the menu setting at step S30 is completed, the camera 1 determines whether or not the first release switch (1R switch) is turned on (step S09). ). Specifically, it is determined whether or not a first release switch signal due to half-pressing of the release button 10 is detected.

第1レリーズスイッチがオンされた場合(ステップS09:Yes)、カメラ1は撮影を実行する(ステップS40)。具体的には、カメラ1は、例えばAFモードに設定されている場合、コントラストAFによって撮影光学系101のピント合わせを行い、測光及び露出演算により適正露光となる露出制御値の演算を行う。そして、レリーズ釦10の全押しにより第2レリーズスイッチがオンされた際に露出動作を行い、撮像によって取得された静止画の画像データを記録媒体245に記録する。   When the first release switch is turned on (step S09: Yes), the camera 1 performs photographing (step S40). Specifically, for example, when the AF mode is set, the camera 1 focuses the photographing optical system 101 by contrast AF, and calculates an exposure control value that achieves proper exposure by photometry and exposure calculation. Then, when the second release switch is turned on by fully pressing the release button 10, an exposure operation is performed, and image data of a still image acquired by imaging is recorded on the recording medium 245.

一方、第1レリーズスイッチがオンされない場合(ステップS09:No)、又は、ステップS40の撮影が終了した場合、カメラ1は、パワースイッチ20がオンであるか否かを判定する(ステップS10)。パワースイッチ20がオンである場合(ステップS10:Yes)、動作はステップS05に戻る。一方、パワースイッチ20がオフされた場合(ステップS10:No)、カメラ1はパワーオフモードとなり、電源供給が停止する(ステップS11)。その後、動作はステップS12に移行する。   On the other hand, when the first release switch is not turned on (step S09: No), or when the photographing at step S40 is completed, the camera 1 determines whether or not the power switch 20 is turned on (step S10). If the power switch 20 is on (step S10: Yes), the operation returns to step S05. On the other hand, when the power switch 20 is turned off (step S10: No), the camera 1 enters the power off mode, and the power supply is stopped (step S11). Thereafter, the operation proceeds to step S12.

次に、カメラ1の再生動作(ステップS20)について、図5を参照しながら説明する。図5は、カメラ1の再生動作を示すフローチャートである。
まず、ステップS201において、カメラ1は、記録媒体245に記録された画像データを読み出す。このとき、カメラ1は、最新の撮影画像に対応する画像データを読み出す。
Next, the reproduction operation (step S20) of the camera 1 will be described with reference to FIG. FIG. 5 is a flowchart showing the playback operation of the camera 1.
First, in step S <b> 201, the camera 1 reads image data recorded on the recording medium 245. At this time, the camera 1 reads image data corresponding to the latest photographed image.

続くステップS202において、カメラ1は、読み出した画像データに対応する画像を表示部26に表示する。図6は、表示部26に表示された画像の例である。以下においては、一例として、図6に示す画像G1に対する処理を説明する。画像G1は、顔F01〜F05を有する被写体像を含む。
ステップS203において、顔検出部230aは、表示部26に表示された画像から顔F01〜F05を検出する。
In subsequent step S <b> 202, the camera 1 displays an image corresponding to the read image data on the display unit 26. FIG. 6 is an example of an image displayed on the display unit 26. In the following, as an example, processing for the image G1 shown in FIG. 6 will be described. The image G1 includes a subject image having faces F 01 to F 05 .
In step S203, the face detector 230a detects the faces F 01 to F 05 from the image displayed on the display unit 26.

ステップS204において、目領域検出部230bは、検出された各顔F01〜F05から目領域及び瞳領域を検出する。詳細には、目領域検出部230bは、各顔F01〜F05の顔範囲情報に基づいて顔の範囲内の色情報を取得し、白色(白目の色)と周囲の肌色との境界を検出して、この境界を目領域の輪郭とする。続いて、目領域検出部230bは、目領域内から黒色(又は茶色や灰色)の領域を検出し、この黒色の領域の輪郭を瞳領域の輪郭とする。目領域検出部230bは、目領域及び瞳領域の輪郭の位置座標を目領域情報として生成する。 In step S204, the eye region detection unit 230b detects an eye region and a pupil region from the detected faces F 01 to F 05 . In particular, the eye region detection unit 230b obtains the color information in the range of the face based on the face area information of each face F 01 to F 05, and white (color of white eye) the boundary with the surrounding skin color This boundary is detected as the outline of the eye region. Subsequently, the eye region detection unit 230b detects a black (or brown or gray) region from the eye region, and uses the contour of the black region as the contour of the pupil region. The eye region detection unit 230b generates position coordinates of the contours of the eye region and the pupil region as eye region information.

ステップS205において、目線判定部230dは、目領域情報に基づいて、各顔F01〜F05の目線が正面を向いているか否かを判定する。
この目線の判定方法を、図7を参照しながら説明する。図7は、図6に示す顔F05を含む被写体像の一部を拡大して示す図である。通常、左右両眼において、瞳領域PR、PLが目領域ER、ELの略中央にある場合、目線が正面を向いているように見える。そこで、瞳位置算出部230cは、被写体像から見て右(紙面に向かって左)の瞳領域PRの中心から目領域ERの外側(目尻側)の端部までの距離LR(OUT)と、右の瞳領域PRの中心から目領域ERの内側(目頭側)の端部までの距離LR(IN)と、被写体像から見て左(紙面に向かって右)の瞳領域PLの中心から目領域ELの内側の端部までの距離LL(IN)と、左の瞳領域PLの中心から目領域ELの外側の端部までの距離LL(OUT)とを取得し、次式(1)を用いて評価値Wを算出する。

Figure 2012231237
In step S205, the eye line determination unit 230d determines whether or not the eye lines of the faces F 01 to F 05 are facing the front based on the eye area information.
This eye-gaze determination method will be described with reference to FIG. FIG. 7 is an enlarged view showing a part of the subject image including the face F 05 shown in FIG. Usually, in both the left and right eyes, when the pupil regions P R and P L are approximately in the center of the eye regions E R and E L , the eyes appear to face the front. Therefore, the pupil position calculating unit 230c, the distance L R (OUT to the end of the outer center from the eye region E R of the pupil region P R of right as viewed from the subject image (left in the drawing sheet) (eye area side) a) pupils and inner center from the eye region E R of the right pupil region P R (distance to the end of the inner corner side) L R (iN), the left as viewed from the subject image (right in the drawing sheet) a region P L the distance from the center to the inside edge of the eye region E L of the L L (iN), the distance from the center of the left pupil region P L to the outer edge of the eye region E L L L (OUT ) And the evaluation value W is calculated using the following equation (1).
Figure 2012231237

目線判定部230dは、この評価値Wの値及び次式(2)に基づいて目線を判定する。即ち、評価値Wが次式(2)を満たす場合、目線が正面を向いていると判定される。
0.8≦W≦1.2 …(2)
評価値Wが1.0と等しい場合、瞳領域PR、PLはそれぞれの目領域ER、ELの中心にあり、目線は真正面を向いていることになる。また、評価値Wが上式(2)の範囲内である場合、瞳領域PR、PLはそれぞれの目領域ER、ELの略中央にあり、目線はほぼ正面を向いていることになる。
The eye line determination unit 230d determines the eye line based on the value of the evaluation value W and the following equation (2). That is, when the evaluation value W satisfies the following equation (2), it is determined that the line of sight faces the front.
0.8 ≦ W ≦ 1.2 (2)
When the evaluation value W is equal to 1.0, the pupil regions P R and P L are at the centers of the respective eye regions E R and E L , and the eye line is facing directly in front. Further, when the evaluation value W is within the range of the above formula (2), the pupil regions P R and P L are substantially in the center of the respective eye regions E R and E L , and the eye line is substantially facing the front. become.

ステップS206において、顔検出枠合成部230eは、顔範囲情報に基づいて、各顔の範囲を囲む顔検出枠を生成し、ステップS205における判定結果に応じた表示属性を付与して画像に合成する。   In step S206, the face detection frame synthesizing unit 230e generates a face detection frame surrounding each face range based on the face range information, and adds a display attribute according to the determination result in step S205 to synthesize the image. .

図8は、目線の判定結果と顔検出枠の表示属性との対応を示す表である。図8に示すように、顔検出枠の表示属性には、線の太さ、線の色、線の種類、枠の形状、点滅周期等がある。線の太さとしては、例えば細線、太線、中線を用いることができ、目線が正面から外れている(よそ見している)と判定された顔のようにユーザの注意を引きたい顔に対しては線の太い枠を合成すると良い。線の色としては、緑色、赤色、黄色等を用いることができ、ユーザの注意を引きたい顔には赤色の枠を合成すると良い。線の種類(1)としては、連続線、破線、一点鎖線等を用いることができる。別の線の種類(2)としては、一重線、二重線、三重線等を用いることができ、ユーザの注意を引きたい顔には重ねる線の数を増やした枠(例えば三重線の枠)を合成すると良い。枠の形状としては、円形、四角形、5角形以上の多角形(例えば6角形)等を用いることができ、ユーザの注意を引きたい顔には角数が少ない枠(例えば3角形や4角形の枠)を合成すると良い。点滅周期としては、点灯(点滅しない)、4Hzで点滅、1Hzで点滅等を適用することができる。   FIG. 8 is a table showing correspondence between eye-gaze determination results and face detection frame display attributes. As shown in FIG. 8, the display attributes of the face detection frame include line thickness, line color, line type, frame shape, blinking cycle, and the like. As the thickness of the line, for example, a thin line, a thick line, or a middle line can be used. For a face that is determined to have the eye line deviated from the front (looking away), the face that the user wants to draw attention to. For example, a thick frame should be combined. As the color of the line, green, red, yellow, or the like can be used, and it is preferable to synthesize a red frame on the face that the user wants to attract attention. As the line type (1), a continuous line, a broken line, a one-dot chain line, or the like can be used. As another line type (2), a single line, a double line, a triple line, or the like can be used, and a frame (for example, a triple line frame) in which the number of lines to be overlapped is increased on the face that the user wants to attract attention. ). As the shape of the frame, a circle, a quadrilateral, a pentagon or more polygon (for example, a hexagon) or the like can be used. Frame). As the blinking cycle, lighting (not blinking), blinking at 4 Hz, blinking at 1 Hz, or the like can be applied.

顔検出枠合成部230eは、目線が正面を向いていると判定された顔に対し、例えば、細線、緑色、連続線、一重線、円形状、若しくは点灯、又はこれらを組み合わせた表示属性を有する顔検出枠を合成する。また、顔検出枠合成部230eは、よそ見していると判定された顔に対し、例えば、太線、赤色、破線、三重線、四角形状、若しくは4Hzの点滅、又はこれらを組み合わせた表示属性を有する顔検出枠を合成する。さらに、後述するように、目線を編集した後の顔に対しては、例えば、中線、黄色、一点鎖線、二重線、6角形状、若しくは1Hzの点滅、又はこれらを組み合わせた表示属性を有する顔検出枠を合成する。なお、様々なユーザ(例えば、色弱)に対応するため、複数種類の表示属性を組み合わせることが好ましい。   The face detection frame composition unit 230e has, for example, a fine line, green, continuous line, single line, circular shape, or lighting, or a display attribute that combines these for a face that is determined to have a line of sight. Combining face detection frames. Further, the face detection frame composition unit 230e has, for example, a bold line, a red line, a broken line, a triple line, a quadrangular shape, or blinking of 4 Hz, or a display attribute that combines these for a face determined to look away. Combining face detection frames. Furthermore, as will be described later, for the face after editing the line of sight, for example, a midline, yellow, alternate long and short dash line, double line, hexagonal shape, or blinking of 1 Hz, or a combination of these display attributes is provided. A face detection frame having the same is synthesized. In order to cope with various users (for example, color weakness), it is preferable to combine a plurality of types of display attributes.

図9は、顔検出枠が合成された画像G1を示す模式図である。図9において、目線が正面を向いていると判定された被写体象F02、F03に対しては、例えば実線(又は実線且つ緑色等)の顔検出枠a02、a03が合成される。一方、目線が正面から外れている(よそ見をしている)と判定された被写体像F01、F04、F05に対しては、例えば破線(又は破線且つ赤色等)の顔検出枠b01、b04、b05が合成される。なお、カメラ1は、画像G1内に警告表示エリアMを設け、よそ見していると判定された顔が存在する場合に、その旨をユーザに警告するメッセージを警告表示エリアMに表示しても良い。 FIG. 9 is a schematic diagram illustrating an image G1 in which face detection frames are combined. In FIG. 9, for example, solid lines (or solid lines and green, etc.) face detection frames a 02 and a 03 are combined with the subject images F 02 and F 03 for which it is determined that the eyes are facing the front. On the other hand, for the subject images F 01 , F 04 , F 05 determined that the line of sight is deviated from the front (looking away), for example, a broken line (or broken line and red, etc.) face detection frame b 01 , B 04 , b 05 are synthesized. Note that the camera 1 provides a warning display area M in the image G1, and when there is a face determined to be looking away, the warning display area M displays a message warning the user to that effect. good.

ステップS207において、カメラ1は、十字釦18が操作されたか(十字釦18から操作信号か入力されたか)否かを判定する。十字釦18が操作された場合(ステップS207:Yes)、カメラ1は、表示部26に表示する画像を変更する(ステップS220)。具体的には、カメラ1は、十字釦18の内の上釦18aから信号が入力された場合、10コマ前の画像に対応する画像データを記録媒体245から読み出す。また、下釦18bから信号が入力された場合、10コマ後の画像に対応する画像データを記録媒体245から読み出す。また、左釦18cから信号が入力された場合、1コマ前の画像に対応する画像データを記録媒体245から読み出す。さらに、右釦18dから信号が入力された場合、1コマ後の画像に対応する画像データを記録媒体245から読み出す。   In step S207, the camera 1 determines whether or not the cross button 18 has been operated (the operation signal has been input from the cross button 18). When the cross button 18 is operated (step S207: Yes), the camera 1 changes the image displayed on the display unit 26 (step S220). Specifically, when a signal is input from the upper button 18 a of the cross button 18, the camera 1 reads image data corresponding to the image 10 frames before from the recording medium 245. When a signal is input from the lower button 18b, image data corresponding to the image after 10 frames is read from the recording medium 245. When a signal is input from the left button 18c, image data corresponding to the previous frame image is read from the recording medium 245. Further, when a signal is input from the right button 18d, image data corresponding to the image after one frame is read from the recording medium 245.

一方、十字釦18が操作されない場合(ステップS207:No)、カメラ1は、拡大釦13a又は縮小釦13bが操作されたか否かを判定する(ステップS208)。拡大釦13a又は縮小釦13bが操作された場合(ステップS208:Yes)、カメラ1は、表示部26に表示する画像の表示範囲を変更する(ステップS230)。具体的には、カメラ1は、拡大釦13aから信号が入力された場合、表示部26に表示されている画像の表示範囲を中央部の所定範囲に縮小し、該所定範囲を表示部26に拡大表示する。一方、カメラ1は、縮小釦13bから信号が入力された場合、表示部26に表示される画像の範囲を外周側の所定範囲に拡大し、該所定範囲を表示部26に縮小表示する。このとき、既に表示部26に画像が等倍表示されている場合には、カメラ1は、サムネイル画像を複数枚並べて(例えば、2行2列、3行3列、4行4列等に配置)表示するインデックス画像表示(後述する図22参照)を行う。さらに、カメラ1は、十字釦18からの信号を検出した場合、検出した釦(上釦18a、下釦18b、左釦18c、右釦18d)の向きに応じて、表示部26に表示される画像の表示範囲を移動させる。   On the other hand, when the cross button 18 is not operated (step S207: No), the camera 1 determines whether the enlargement button 13a or the reduction button 13b is operated (step S208). When the enlarge button 13a or the reduce button 13b is operated (step S208: Yes), the camera 1 changes the display range of the image displayed on the display unit 26 (step S230). Specifically, when a signal is input from the enlarge button 13a, the camera 1 reduces the display range of the image displayed on the display unit 26 to a predetermined range in the center, and the predetermined range is displayed on the display unit 26. Zoom in. On the other hand, when a signal is input from the reduction button 13b, the camera 1 enlarges the range of the image displayed on the display unit 26 to a predetermined range on the outer peripheral side, and reduces the predetermined range on the display unit 26. At this time, if the image is already displayed on the display unit 26 at the same magnification, the camera 1 arranges a plurality of thumbnail images (for example, arranged in 2 rows, 2 columns, 3 rows, 3 columns, 4 rows, 4 columns, etc.). ) Display the index image to be displayed (see FIG. 22 described later). Furthermore, when the camera 1 detects a signal from the cross button 18, it is displayed on the display unit 26 according to the direction of the detected buttons (up button 18a, down button 18b, left button 18c, right button 18d). Move the image display range.

拡大釦13a又は縮小釦13bが操作されない場合(ステップS208:No)、カメラ1は、編集釦17が操作されたか否かを判定する(ステップS209)。編集釦17が操作された場合(ステップS209:Yes)、カメラ1は、表示中の画像から検出された顔の目線をマニュアル編集する(ステップS250)。   When the enlarge button 13a or the reduce button 13b is not operated (step S208: No), the camera 1 determines whether the edit button 17 is operated (step S209). When the edit button 17 has been operated (step S209: Yes), the camera 1 manually edits the face line of the face detected from the displayed image (step S250).

一方、編集釦17が操作されることなく(ステップS209:No)、目線釦16が操作された場合(ステップS210:Yes)、カメラ1は、表示中の画像において検出された顔の目線を自動又は一括編集する(ステップS270)。   On the other hand, when the edit button 17 is not operated (step S209: No) and the eye button 16 is operated (step S210: Yes), the camera 1 automatically detects the face eye detected in the displayed image. Alternatively, batch editing is performed (step S270).

その後、再生釦14が操作された場合(ステップS211:Yes)、カメラ1の動作はメインルーチンに戻る。一方、再生釦14が操作されない場合(ステップS211:No)、カメラ1の動作はステップS202に戻る。   Thereafter, when the playback button 14 is operated (step S211: Yes), the operation of the camera 1 returns to the main routine. On the other hand, when the playback button 14 is not operated (step S211: No), the operation of the camera 1 returns to step S202.

次に、目線のマニュアル編集(ステップS250)について、図10を参照しながら詳細に説明する。図10は、カメラ1の目線のマニュアル編集動作を示すフローチャートである。なお、以下においては、例として、図9に示す画像G1に対する処理を説明する。   Next, manual editing of the line of sight (step S250) will be described in detail with reference to FIG. FIG. 10 is a flowchart showing the manual editing operation of the eye line of the camera 1. In the following, processing for the image G1 shown in FIG. 9 will be described as an example.

まず、ステップS251において、カメラ1は、ユーザの指やタッチペン等の物体によりタッチパネル12がタッチされたか否かを判定する。タッチパネル12がタッチされた場合(ステップS251:Yes)、続いてカメラ1は、画像G1に表示された顔のいずれかがタッチされたか否かを判定する(ステップS252)。詳細には、目線編集処理部230が、タッチされた位置座標が顔検出枠a01〜a05のいずれの範囲に含まれるかを判定する。 First, in step S251, the camera 1 determines whether or not the touch panel 12 is touched by an object such as a user's finger or a touch pen. When the touch panel 12 is touched (step S251: Yes), the camera 1 determines whether any of the faces displayed in the image G1 is touched (step S252). Specifically, the eye line editing processing unit 230 determines in which range of the face detection frames a 01 to a 05 the touched position coordinates are included.

いずれかの顔がタッチされた場合(ステップS252:Yes)、瞳編集部230gは、タッチされた顔の目領域情報を取得する(ステップS253)。詳細には、顔選択部230fが、タッチされた位置座標が含まれる顔検出枠を選択し、瞳編集部230gが、選択された顔検出枠に対応する目領域情報を取得する。なお、この際、顔検出枠合成部230eは、選択された顔検出枠の表示属性を変化させ、選択中の顔検出枠をユーザが認識できるようにしても良い。例えば、選択された顔検出枠の線幅を太くしたり、点滅表示したりすると良い。   When any face is touched (step S252: Yes), the pupil editing unit 230g acquires the eye area information of the touched face (step S253). Specifically, the face selection unit 230f selects a face detection frame including the touched position coordinates, and the pupil editing unit 230g acquires eye area information corresponding to the selected face detection frame. At this time, the face detection frame composition unit 230e may change the display attribute of the selected face detection frame so that the user can recognize the currently selected face detection frame. For example, the line width of the selected face detection frame may be increased or blinked.

ステップS254において、カメラ1は、タッチパネル12に対して物体によるタッチの移動があったか否かを判定する。タッチの移動があった場合(ステップS254:Yes)、瞳編集部230gは、タッチの軌跡に応じて、瞳領域を編集する(ステップS255)。   In step S <b> 254, the camera 1 determines whether or not there is a touch movement by an object on the touch panel 12. When there is a touch movement (step S254: Yes), the pupil editing unit 230g edits the pupil region according to the touch trajectory (step S255).

具体例として、図6に示す画像G1において顔検出枠a05に対応する被写体像F05が選択された場合を説明する。図11は、顔検出枠a05の領域の拡大図である。なお、瞳領域を編集する際には、ステップS208において拡大釦13aを操作し、予め画像を拡大表示しておくと良い(ステップS230)。 As a specific example, a case where the object image F 05 corresponding to the face detection frame a 05 in the image G1 shown in FIG. 6 is selected. FIG. 11 is an enlarged view of the area of the face detection frame a 05 . When editing the pupil region, it is preferable to enlarge the image in advance by operating the enlargement button 13a in step S208 (step S230).

図11に示すように、右の瞳領域PR及び左の瞳領域PLは、それぞれ、右の目領域ER及び左の目領域ELの端部にあるため、顔F05は、目線が正面を向いていないように見える。 As shown in FIG. 11, the pupil regions P R and the left pupil region P L of the right, respectively, since the end portion of the right eye area E R and the left eye area E L, the face F 05 is Looking Seems to be not facing the front.

このような画像に対し、ユーザが物体(図11においては自身の指)2によって一方の瞳領域(図11においては右側の瞳領域PR)にタッチし、タッチの位置を水平方向に移動させる操作を行う。これに応じて、瞳編集部230gは、タッチされた瞳領域をタッチの軌跡に応じた位置に移動させる。具体的な画像処理は、以下のとおりである。まず、瞳編集部230gは、図12(a)に示すように、当初の瞳領域PRを周囲の白色と同じ色で塗りつぶす。続いて、図12の(b)に示すように、タッチの移動が停止した座標を中心とし、当初の瞳領域PRの半径rを半径とする円を描画し、当初の瞳領域PRと同じ色で塗りつぶす。これが移動後の瞳領域PRとなる。なお、瞳領域PRの移動可能な範囲は目領域ER内に限定される。そのため、瞳編集部230gは、タッチの軌跡が目領域ERを超過した場合、瞳領域PRを移動させる処理を実行しない。或いは、このような場合、超過した側の目領域ERの端部に瞳領域PRを配置しても良い。 For such images, the user touches the object (right side of the pupil region P R in FIG. 11) one of the pupil region by (own finger 11) 2, to move the position of a touch in the horizontal direction Perform the operation. In response to this, the pupil editing unit 230g moves the touched pupil region to a position corresponding to the touch trajectory. Specific image processing is as follows. First, the pupil editing unit 230g, as shown in FIG. 12 (a), fill initial pupil region P R in the same color as the surrounding white. Subsequently, as shown in (b) of FIG. 12, the center coordinates movement of the touch is stopped, to draw a circle whose radius is the radius r of the original pupil region P R, and the initial pupil region P R Fill with the same color. This is the pupil area P R after the movement. The movement range of the pupil region P R is limited to the eye area E R. Therefore, the pupil editing unit 230g, when the trajectory of the touch exceeds the eye area E R, does not execute the process of moving the pupil region P R. Alternatively, such a case may be disposed pupil region P R to the end of the eye region E R of the excess side.

ここで、一般的に、目領域ERの中央付近における幅hcは、端部付近における幅hよりも大きい。そのため、目領域ERの端部にあった瞳領域PRを、幅d1のまま中央付近に移動させると、瞳領域PRの上下に目領域ERとの隙間gap1、gap2が生じてしまう。そこで、瞳編集部230gは、瞳領域PRを幅hcに合わせて拡大し、又は、瞳領域PRの周囲を瞳領域PRの端部領域と同じ色で描画して拡張することにより、目領域ERとの隙間gap1、gap2が補間された瞳領域PR’を生成する(図12(c)参照)。 Here, in general, the width h c in the vicinity of the center of the eye region E R, larger than the width h e in the vicinity of the end portion. Therefore, the pupil region P R that were in the end of the eye region E R, is moved to the vicinity of the center left width d 1, gap gap 1, gap 2 between the eye area E R and below the pupil area P R It will occur. Therefore, the pupil editing unit 230g is expanded to fit the pupil region P R in the width h c, or, by extending to draw around the pupil area P R in the same color as the end region of the pupil area P R , clearance gap 1 between the eye area E R, gap 2 generates a pupil region P R 'interpolated (see FIG. 12 (c)).

さらに、瞳編集部230gは、タッチされた側とは反対側(図11においては左側)の瞳領域PLを、瞳領域PRと連動させ水平方向に移動させる。このとき、瞳領域PLの位置は、瞳領域PLの中心から目領域ELの両端までの距離の比率が、瞳領域PR’の中心Cから目領域ERの両端までの距離L1、L2の比率と等しくなるように決定される。それにより、右目と左目における目線の方向が揃えられる。また、移動後の瞳領域PLの上下に目領域ELとの隙間が生じる場合には、瞳領域PLを拡大又は拡張して、目領域ELとの間の隙間が補間された瞳領域PL’を生成する。それにより、顔F05の目線を正面に向けることができる。 Furthermore, the pupil editing unit 230g includes the touched side pupil region P L on the opposite side (left side in FIG. 11), is moved in the horizontal direction in conjunction with the pupil region P R. At this time, the position of the pupil region P L, the ratio of the distance from the center of the pupil region P L to the opposite ends of the eye region E L is the distance from the center C of the pupil region P R 'to both ends of the eye region E R L 1, is determined to be equal to the ratio of L 2. Thereby, the direction of the line of sight in the right eye and the left eye is aligned. In addition, when a gap with the eye area E L is generated above and below the moved pupil area P L , the pupil area P L is enlarged or expanded to interpolate the gap with the eye area E L. A region P L ′ is generated. Thereby, the eyes of the face F 05 can be directed to the front.

ステップS256において、カメラ1は、目線編集処理部230によって編集された編集画像を表示部26に表示する。また、この際に、顔検出枠合成部230eは、編集後の顔に合成される顔検出枠の表示属性を変更する(図8参照)。図13は、顔F05の瞳領域が編集された画像を示している。図13に示す画像G2においては、顔F05に対し、編集後であることを示す例えば一点鎖線(又は一点鎖線且つ黄色等)の顔検出枠c05が合成されている。 In step S <b> 256, the camera 1 displays the edited image edited by the line-of-sight editing processing unit 230 on the display unit 26. At this time, the face detection frame synthesis unit 230e changes the display attribute of the face detection frame synthesized with the edited face (see FIG. 8). FIG. 13 shows an image in which the pupil region of the face F 05 is edited. In the image G2 shown in FIG. 13, a face detection frame c 05 of, for example, a one-dot chain line (or one-dot chain line and yellow, etc.) indicating that it is after editing is combined with the face F 05 .

ステップS257において、カメラ1は、決定釦19が操作されたか否かを判定する。決定釦19が操作された場合(ステップS257:Yes)、カメラ1は、編集画像に対応する画像データを、元の画像に対応する画像データとは異なるファイル名で記録媒体245に記録する(ステップS258)。   In step S257, the camera 1 determines whether or not the enter button 19 has been operated. When the enter button 19 is operated (step S257: Yes), the camera 1 records the image data corresponding to the edited image on the recording medium 245 with a file name different from that of the image data corresponding to the original image (step S257). S258).

一方、タッチパネル12がタッチされない場合(ステップS251:No)、又はタッチパネル12上の顔以外の領域がタッチされた場合(ステップS252:No)、編集釦17が操作された際に(ステップS261:Yes)、カメラ1の動作はメインルーチンに戻る。一方、編集釦17が操作されない場合(ステップS261:No)、カメラ1は、タッチパネル12がタッチされるのを待機する。   On the other hand, when the touch panel 12 is not touched (step S251: No), or when an area other than the face on the touch panel 12 is touched (step S252: No), the edit button 17 is operated (step S261: Yes). ), The operation of the camera 1 returns to the main routine. On the other hand, when the edit button 17 is not operated (step S261: No), the camera 1 waits for the touch panel 12 to be touched.

また、タッチの移動が検出されない場合(ステップS254:No)、又は、決定釦19が操作されない場合(ステップS257:No)、編集釦17が操作された際に(ステップS262:Yes)、カメラ1の動作はメインルーチンに戻る。この場合、瞳位置の編集は破棄される。   Further, when the movement of the touch is not detected (step S254: No), or when the determination button 19 is not operated (step S257: No), when the edit button 17 is operated (step S262: Yes), the camera 1 The operation returns to the main routine. In this case, the pupil position editing is discarded.

一方、編集釦17が操作されない場合(ステップS262:No)、カメラ1の動作はステップS254に戻る。この場合、ユーザは、タッチパネル12に対するタッチ操作により、瞳位置を再度編集することができる。瞳編集部230gは、2回目以降に瞳編集処理を行う際、1回目にタッチされた側と同じ側の瞳領域(上記説明においては、右側の瞳領域PR)に対するタッチの移動操作があった場合、タッチの軌跡に応じてタッチされた側の瞳領域を移動させると共に、他方の瞳領域も連動して移動させる。一方、瞳編集部230gは、1回目にタッチされた側とは反対側の瞳領域(上記説明においては、左側の瞳領域PL)に対するタッチの移動操作があった場合、タッチの軌跡に応じてタッチされた側の瞳領域のみを移動させ、もう一方は連動させない。これにより、ユーザは、他方の瞳領域(瞳領域PR)へのタッチ操作に連動して移動した瞳領域(瞳領域PL)の位置を微調整することができる。 On the other hand, when the edit button 17 is not operated (step S262: No), the operation of the camera 1 returns to step S254. In this case, the user can edit the pupil position again by a touch operation on the touch panel 12. Pupil editing unit 230g is when performing pupil editing process after the first time, (in the above description, the right side of the pupil region P R) 1 time touched side as pupil areas on the same side in a movement operation of a touch relative to In this case, the touched pupil area is moved according to the touch trajectory, and the other pupil area is also moved in conjunction with the touched locus. On the other hand, the pupil editing unit 230g responds to the touch trajectory when a touch movement operation is performed on the pupil region opposite to the first touched side (in the above description, the left pupil region P L ). Only the pupil area touched is moved, and the other is not linked. Thereby, the user can finely adjust the position of the pupil region (pupil region P L ) moved in conjunction with the touch operation on the other pupil region (pupil region P R ).

次に、目線の自動又は一括編集(ステップS270)について、図14及び図15を参照しながら詳細に説明する。図14は、目線の自動又は一括編集を選択するためのメニュー画面の表示例である。また、図15は、カメラ1の目線の自動又は一括編集動作を示すフローチャートである。なお、以下においては、例として、図9に示す画像G1に対する処理を説明する。   Next, the automatic or batch editing of the line of sight (step S270) will be described in detail with reference to FIGS. FIG. 14 is a display example of a menu screen for selecting automatic or batch editing of eyes. FIG. 15 is a flowchart showing an automatic or batch editing operation of the line of sight of the camera 1. In the following, processing for the image G1 shown in FIG. 9 will be described as an example.

ステップS271において、カメラ1は、表示中の画像に対する目線編集メニューを表示部26に表示する。図14に示す目線編集メニューM1には、各顔の目線を個別に自動編集するモード(個別自動編集モード)を選択するためのアイコンI1と、全ての顔の目線を自動編集するモード(全自動編集モード)を選択するためのアイコンI2と、全ての顔の目線を一括してマニュアル編集するモード(マニュアル一括編集モード)を選択するためのアイコンI3と、キャンセルアイコンI4とが表示されている。ユーザは、このような目線編集メニューM1に対し、上釦18a、下釦18b、及び決定釦19に対する操作や、タッチパネル12に対するタッチ操作により、所望のアイコンI1〜I4を選択することができる。それにより、ユーザ所望の目線編集モードを選択する選択信号が入力される。 In step S <b> 271, the camera 1 displays a line-of-sight editing menu for the displayed image on the display unit 26. The line-of-sight editing menu M 1 shown in FIG. 14 includes an icon I 1 for selecting a mode (individual automatic editing mode) for automatically editing the eyes of each face individually, and a mode for automatically editing the eyes of all faces ( An icon I 2 for selecting (automatic edit mode), an icon I 3 for selecting a mode (manual batch edit mode) for manually editing all face eyes at once, and a cancel icon I 4 It is displayed. The user can select desired icons I 1 to I 4 by operating the upper button 18 a, the lower button 18 b, and the determination button 19 or touching the touch panel 12 with respect to the eye line editing menu M 1. it can. As a result, a selection signal for selecting a user-desired eye edit mode is input.

カメラ1は、個別自動編集モードの選択信号を検出した場合(ステップS272:Yes)、続いて、タッチパネル12がタッチされたか否かを判定する(ステップS273)。タッチパネル12がタッチされた場合(ステップS273:Yes)、さらにカメラ1は、よそ見していると判定された顔がタッチされたか否かを判定する(ステップS274)。具体的には、目線編集処理部230は、タッチされた位置座標が、顔検出枠b01、b04、b05のいずれの範囲に含まれるかを判定する。 When the camera 1 detects a selection signal for the individual automatic editing mode (step S272: Yes), the camera 1 subsequently determines whether or not the touch panel 12 has been touched (step S273). When the touch panel 12 is touched (step S273: Yes), the camera 1 further determines whether or not the face determined to be looking away is touched (step S274). Specifically, the eye line editing processing unit 230 determines in which range of the face detection frames b 01 , b 04 , and b 05 the touched position coordinates are included.

よそ見していると判定された顔がタッチされた場合(ステップS274:Yes)、目線編集処理部230は、タッチされた顔の瞳領域を自動編集する(ステップS275)。詳細には、まず、顔選択部230fが、タッチされた顔を選択し、瞳位置算出部230cが、選択された顔の目領域の中心座標を算出する。続いて瞳編集部230gが、瞳領域の中心座標が、目領域の中心座標と一致するように、瞳領域を水平方向に移動させる。なお、具体的な画像処理については、ステップS254において説明したものと同様である。さらに、瞳編集部230gは、瞳領域と目領域との間に隙間が生じる場合に、瞳領域を拡大又は拡張して隙間を補間する(図12(c)参照)。   When the face determined to be looking away is touched (step S274: Yes), the eye line editing processing unit 230 automatically edits the pupil region of the touched face (step S275). Specifically, first, the face selection unit 230f selects the touched face, and the pupil position calculation unit 230c calculates the center coordinates of the eye area of the selected face. Subsequently, the pupil editing unit 230g moves the pupil region in the horizontal direction so that the center coordinate of the pupil region matches the center coordinate of the eye region. The specific image processing is the same as that described in step S254. Furthermore, when a gap is generated between the pupil region and the eye region, the pupil editing unit 230g interpolates the gap by expanding or expanding the pupil region (see FIG. 12C).

ステップS276において、カメラ1は、瞳編集部230gによって編集された編集画像を表示部26に表示する。また、この際に、顔検出枠合成部230eは、瞳領域の編集後の顔に合成される顔検出枠の表示属性を変更する。それにより、顔F05の瞳領域が自動編集された画像が生成される。このとき、顔F05に対しては、図13と同様に、編集後であることを示す例えば一点鎖線(又は一点鎖線且つ黄色等)の顔検出枠c05が合成される。 In step S276, the camera 1 displays the edited image edited by the pupil editing unit 230g on the display unit 26. At this time, the face detection frame synthesis unit 230e changes the display attribute of the face detection frame synthesized with the face after editing of the pupil region. Thereby, an image in which the pupil region of the face F 05 is automatically edited is generated. At this time, for the face F 05 , a face detection frame c 05 of, for example, a one-dot chain line (or one-dot chain line and yellow, etc.) indicating that it is after editing is synthesized as in FIG.

ステップS277において、カメラ1は、決定釦19が操作されたか否かを判定する。決定釦19が操作された場合(ステップS277:Yes)、カメラ1は、編集画像に対応する画像データを、元の画像に対応する画像データとは異なるファイル名で記録媒体245に記録する(ステップS278)。   In step S277, the camera 1 determines whether or not the enter button 19 has been operated. When the enter button 19 is operated (step S277: Yes), the camera 1 records the image data corresponding to the edited image on the recording medium 245 with a file name different from that of the image data corresponding to the original image (step S277). S278).

一方、タッチパネル12がタッチされない場合(ステップS273:No)、目線が外れた顔がタッチされない場合(ステップS274:No)、又は、決定釦19が操作されない場合(ステップS277:No)、カメラ1は、編集釦17が操作されたか否かを判定する(ステップS279)。編集釦17が操作された場合(ステップS279:Yes)、カメラ1の動作はメインルーチンに戻る。一方、編集釦17が操作されない場合(ステップS279:No)、カメラ1の動作はステップS273に戻る。   On the other hand, when the touch panel 12 is not touched (step S273: No), when a face with a line of sight is not touched (step S274: No), or when the enter button 19 is not operated (step S277: No), the camera 1 Then, it is determined whether or not the edit button 17 has been operated (step S279). When the edit button 17 is operated (step S279: Yes), the operation of the camera 1 returns to the main routine. On the other hand, when the edit button 17 is not operated (step S279: No), the operation of the camera 1 returns to step S273.

ステップS272において個別自動編集モードの選択信号が検出されない場合(ステップS272:No)、カメラ1は、全自動編集モードの選択信号が検出されたか否かを判定する(ステップS280)。   When the selection signal for the individual automatic editing mode is not detected in step S272 (step S272: No), the camera 1 determines whether or not the selection signal for the fully automatic editing mode is detected (step S280).

全自動編集モードの選択信号が検出された場合(ステップS280:Yes)、目線編集処理部230は、よそ見している全ての顔に対し、瞳領域の位置の自動編集を行う(ステップS281)。詳細には、まず顔選択部230fが、よそ見している全ての顔(図9においては、顔F01、F04、F05)を選択し、瞳位置算出部230cが、選択された各顔の目領域の中心座標を算出する。続いて瞳編集部230gが、各顔に対して、瞳領域の中心座標が、目領域の中心座標と一致するように、瞳領域を水平方向に移動させる。なお、具体的な画像処理については、ステップS254において説明したものと同様である。さらに、瞳編集部230gは、瞳領域と目領域との間に隙間が生じる場合に、瞳領域を拡大又は拡張して隙間を補間する(図12(c)参照)。 When the selection signal for the fully automatic editing mode is detected (step S280: Yes), the eye line editing processing unit 230 automatically edits the position of the pupil region for all the faces that are looking away (step S281). Specifically, first, the face selection unit 230f selects all the faces that are looking away (faces F 01 , F 04 , F 05 in FIG. 9), and the pupil position calculation unit 230c selects each of the selected faces. The center coordinate of the eye area is calculated. Subsequently, the pupil editing unit 230g moves the pupil region in the horizontal direction so that the center coordinate of the pupil region matches the center coordinate of the eye region for each face. The specific image processing is the same as that described in step S254. Furthermore, when a gap is generated between the pupil region and the eye region, the pupil editing unit 230g interpolates the gap by expanding or expanding the pupil region (see FIG. 12C).

ステップS282において、カメラ1は、瞳編集部230gによって編集された編集画像を表示部26に表示する。また、この際に、顔検出枠合成部230eは、瞳領域の編集後の顔に合成される顔検出枠の表示属性を変更する。図16は、顔F01、F04、F05の瞳領域が自動編集された画像を示す。図16に示す画像G3においては、顔F01、F04、F05に対し、編集後であることを示す例えば一点鎖線(又は一点鎖線且つ黄色等)の顔検出枠c01、c04、c05が合成されている。 In step S282, the camera 1 displays the edited image edited by the pupil editing unit 230g on the display unit 26. At this time, the face detection frame synthesis unit 230e changes the display attribute of the face detection frame synthesized with the face after editing of the pupil region. FIG. 16 shows an image in which the pupil regions of the faces F 01 , F 04 and F 05 are automatically edited. In the image G3 shown in FIG. 16, for the faces F 01 , F 04 , F 05 , the face detection frames c 01 , c 04 , c of, for example, one-dot chain lines (or one-dot chain lines and yellow etc.) indicating that they are after editing. 05 is synthesized.

ステップS283において、カメラ1は、決定釦19が操作された否かを判定する。決定釦19が操作された場合(ステップS283:Yes)、カメラ1の動作はステップS278に移行する。一方、決定釦19が操作されない場合(ステップS283:No)、続いてカメラ1は、編集釦17が操作されたか否かを判定する(ステップS284)。編集釦17が操作された場合(ステップS284:Yes)、カメラ1の動作はメインルーチンに戻る。この場合、瞳領域の編集は破棄される。一方、編集釦17が操作されない場合(ステップS284:No)、カメラ1の動作はステップS283に戻る。   In step S283, the camera 1 determines whether or not the enter button 19 has been operated. When the determination button 19 is operated (step S283: Yes), the operation of the camera 1 proceeds to step S278. On the other hand, when the enter button 19 is not operated (step S283: No), the camera 1 subsequently determines whether or not the edit button 17 is operated (step S284). When the edit button 17 is operated (step S284: Yes), the operation of the camera 1 returns to the main routine. In this case, the editing of the pupil area is discarded. On the other hand, when the edit button 17 is not operated (step S284: No), the operation of the camera 1 returns to step S283.

ステップS280において全自動編集モードの選択信号が検出されない場合(ステップS280:No)、カメラ1は、マニュアル一括編集モードに入る(ステップS285)。ここで、マニュアル一括編集モードとは、画像内において検出された顔のいずれかに対し、ユーザがマニュアルで瞳領域を編集した場合に、他の全ての顔に対して同様の編集がなされる編集モードのことである。   When the selection signal for the fully automatic editing mode is not detected in step S280 (step S280: No), the camera 1 enters the manual batch editing mode (step S285). Here, the manual batch edit mode is an edit in which the same editing is performed for all other faces when the user manually edits the pupil region for any of the faces detected in the image. It is a mode.

この場合、ステップS286において、カメラ1は、タッチパネル12がタッチされたか否かを判定する。タッチパネル12がタッチされた場合(ステップS286:Yes)、続いてカメラ1は、画像に表示された顔の内のいずれかがタッチされたか否かを判定する(ステップS230)。詳細には、目線編集処理部230が、タッチされた位置座標が顔検出枠b01、a02、a03、b04、b05のいずれの範囲に含まれるのかを判定する。 In this case, in step S286, the camera 1 determines whether or not the touch panel 12 has been touched. When the touch panel 12 is touched (step S286: Yes), the camera 1 determines whether any of the faces displayed in the image is touched (step S230). Specifically, the eye-line editing processing unit 230 determines whether the touched position coordinates are included in the range of the face detection frames b 01 , a 02 , a 03 , b 04 , and b 05 .

いずれかの顔がタッチされた場合(ステップS287:Yes)、瞳編集部230gは、タッチされた顔の目領域情報を取得する(ステップS288)。詳細には、顔選択部230fが、タッチされた位置座標が含まれる顔検出枠を選択し、瞳編集部230gが、選択された顔検出枠に対応する目領域情報を取得する。   When any face is touched (step S287: Yes), the pupil editing unit 230g acquires the eye area information of the touched face (step S288). Specifically, the face selection unit 230f selects a face detection frame including the touched position coordinates, and the pupil editing unit 230g acquires eye area information corresponding to the selected face detection frame.

続くステップS289において、カメラ1は、タッチパネル12に対してタッチの移動があったか否かを判定する。タッチの移動があった場合(ステップS289:Yes)、瞳編集部230gは、タッチの軌跡に応じて瞳領域を編集する(ステップS290)。なお、ステップS290における詳細な処理は、ステップS255と同様である。   In subsequent step S 289, the camera 1 determines whether or not there has been a touch movement on the touch panel 12. When there is a touch movement (step S289: Yes), the pupil editing unit 230g edits the pupil region according to the touch trajectory (step S290). Detailed processing in step S290 is the same as that in step S255.

ステップS291において、瞳編集部230gは、さらに、選択された顔に対する瞳領域の編集と同様にして、他の全ての顔の瞳領域の編集を行う。詳細には、瞳編集部230gは、編集済みの瞳領域の中心と目領域の両端との距離L1、L2を取得し(図12(c)参照)、両者の比率L1/L2を算出する。そして、他の顔においても、瞳領域の中心と目領域の両端の比率が同じ比率L1/L2となるように瞳領域を移動させる。さらに、瞳編集部230gは、瞳領域と目領域との間に隙間が生じる場合には、瞳領域を拡大又は拡張して隙間を補間する(図12(c)参照)。 In step S291, the pupil editing unit 230g further edits the pupil regions of all other faces in the same manner as the pupil region editing for the selected face. Specifically, the pupil editing unit 230g acquires distances L 1 and L 2 between the center of the edited pupil region and both ends of the eye region (see FIG. 12C), and the ratio L 1 / L 2 between the two. Is calculated. Then, also in other faces, the pupil region is moved so that the ratio between the center of the pupil region and both ends of the eye region becomes the same ratio L 1 / L 2 . Furthermore, when a gap is generated between the pupil region and the eye region, the pupil editing unit 230g enlarges or expands the pupil region and interpolates the gap (see FIG. 12C).

ステップS292において、カメラ1は、瞳編集部230gにおいて編集された編集画像を表示部26に表示する。また、この際に、顔検出枠合成部230eは、瞳領域の編集後の顔に合成される顔検出枠の表示属性を変更する。図17は、全ての顔F01〜F05の目線が右方向(紙面に向かって左方向)を向くように編集された画像を示す。図17に示す画像G4においては、顔F01〜F05に対し、編集後であることを示す例えば一点鎖線(又は一点鎖線且つ黄色等)の顔検出枠c01〜c05が合成されている。 In step S292, the camera 1 displays the edited image edited by the pupil editing unit 230g on the display unit 26. At this time, the face detection frame synthesis unit 230e changes the display attribute of the face detection frame synthesized with the face after editing of the pupil region. FIG. 17 shows an image edited so that the eyes of all the faces F 01 to F 05 are directed rightward (leftward toward the paper surface). In the image G4 shown in FIG. 17, with respect to the face F 01 to F 05, and the face detection frame c 01 to c 05, for example, a chain line indicates a post-edit (or one-dot chain line and yellow, etc.) have been synthesized .

ステップS293において、カメラ1は、決定釦19が操作されたか否かを判定する。決定釦19が操作された場合(ステップS293:Yes)、カメラ1の動作はステップS278に移行する。   In step S293, the camera 1 determines whether or not the enter button 19 has been operated. When the determination button 19 is operated (step S293: Yes), the operation of the camera 1 proceeds to step S278.

一方、タッチパネル12がタッチされない場合(ステップS286:No)、又は、顔に対するタッチがない場合(ステップS287:No)、カメラ1は、編集釦17が操作されたか否かを判定する(ステップS294)。編集釦17が操作された場合(ステップS294:Yes)、カメラ1の動作はメインルーチンに戻る。一方、編集釦17が操作されない場合(ステップS294:No)、カメラ1は、タッチパネル12がタッチされるのを待機する。   On the other hand, when the touch panel 12 is not touched (step S286: No), or when there is no touch on the face (step S287: No), the camera 1 determines whether the edit button 17 has been operated (step S294). . When the edit button 17 is operated (step S294: Yes), the operation of the camera 1 returns to the main routine. On the other hand, when the edit button 17 is not operated (step S294: No), the camera 1 waits for the touch panel 12 to be touched.

また、タッチの移動がない場合(ステップS289:No)、又は、決定釦19が操作されない場合(ステップS293:No)、カメラ1は、編集釦17が操作されたか否かを判定する(ステップS295)。編集釦17が操作された場合(ステップS295:Yes)、カメラ1の動作はメインルーチンに戻る。一方、編集釦17が操作されない場合(ステップS295:No)、カメラ1の動作はステップS286に戻る。   When there is no touch movement (step S289: No), or when the enter button 19 is not operated (step S293: No), the camera 1 determines whether the edit button 17 is operated (step S295). ). When the edit button 17 is operated (step S295: Yes), the operation of the camera 1 returns to the main routine. On the other hand, when the edit button 17 is not operated (step S295: No), the operation of the camera 1 returns to step S286.

以上説明したように、実施の形態1によれば、画像から検出された顔の目領域に対して瞳領域を移動させるので、被写体像の目線が所望の方向を向いた画像を生成することが可能となる。   As described above, according to the first embodiment, since the pupil region is moved with respect to the eye region of the face detected from the image, it is possible to generate an image in which the line of sight of the subject image is in a desired direction. It becomes possible.

また、実施の形態1によれば、目線を個別にマニュアル編集するモードにおいて、タッチパネル12へのタッチ操作により、瞳領域を所望の位置に移動させるので、瞳領域の位置の微調整が可能となる。また、最初にタッチした側の瞳領域と連動して、タッチしなかった側の瞳領域を移動させるので、左右の目線を簡単に揃えることができる。さらに、タッチしなかった側の瞳領域を移動させる際には、他方の瞳領域を固定しておくので、目線の微妙な調節が可能となる。   Further, according to the first embodiment, in the mode in which the eye line is individually manually edited, the pupil area is moved to a desired position by a touch operation on the touch panel 12, so that the position of the pupil area can be finely adjusted. . In addition, since the pupil area on the side not touched is moved in conjunction with the pupil area on the side touched first, the left and right eyes can be easily aligned. Further, when moving the non-touched pupil area, the other pupil area is fixed, so that fine adjustment of the line of sight is possible.

また、実施の形態1によれば、目線を自動編集するするモードにおいて、瞳領域を目領域の中央に配置するので、簡単な操作により目線を正面に向けることができる。   Further, according to the first embodiment, in the mode for automatically editing the eye line, the pupil area is arranged at the center of the eye area, so that the eye line can be directed to the front by a simple operation.

なお、上記実施の形態1においては、タッチパネル12に対するタッチにより、編集対象の顔を選択したが、十字釦18及び決定釦19の操作によって顔検出枠を選択することにより、編集対象の顔を選択しても良い。   In the first embodiment, the face to be edited is selected by touching the touch panel 12, but the face to be edited is selected by selecting the face detection frame by operating the cross button 18 and the decision button 19. You may do it.

(変形例1−1)
実施の形態1においては、目線をマニュアル編集する際に、直接指やタッチペン等により瞳領域を直接タッチして移動させたが、移動させたい瞳領域とタッチの位置とは必ずしも一致していなくても良い。例えば、図18に示すように、編集対象の顔F05以外の領域(顔F05の近傍又はタッチパネル12上の所定領域)に、瞳領域の編集用のタッチ領域Aを設けても良い。この場合、ユーザが、予め編集対象の顔(例えば顔F05)をタッチして編集位置を指定した後、編集用のタッチ領域ATに対するタッチ操作を行うと、瞳編集部230gは、タッチ領域Aへのタッチの軌跡に応じて、編集対象の顔(顔F05)における瞳領域(例えば瞳領域P05)を移動させる。この変形例1によれば、ユーザは、自身の指等に妨げられることなく、瞳領域P05を観察しながらタッチ位置を移動させることができるので、瞳領域P05の微調整を容易に行うことができる。
(Modification 1-1)
In the first embodiment, when manually editing the line of sight, the pupil area is directly touched and moved with a finger, a touch pen, or the like, but the pupil area to be moved and the touch position do not necessarily match. Also good. For example, as shown in FIG. 18, a touch area AT for editing a pupil area may be provided in an area other than the face F 05 to be edited (near the face F 05 or a predetermined area on the touch panel 12). In this case, when the user touches the face to be edited (for example, the face F 05 ) in advance and designates the editing position, and then performs a touch operation on the editing touch area AT , the pupil editing unit 230g depending on the locus of the touch on the a T, to move the pupil region in the face of the edited (face F 05) (e.g., pupil area P 05). According to the first modification, the user can move the touch position while observing the pupil region P 05 without being obstructed by his / her finger or the like, so that fine adjustment of the pupil region P 05 is easily performed. be able to.

(変形例1−2)
目線をマニュアル編集する際には、タッチパネル12以外の操作部材を用いて瞳領域を移動させても良い。例えば、十字釦18に対する釦操作により、移動させる瞳領域の選択並びに移動方向及び移動量の入力を行っても良いし、マウスやタッチパッド等のポインティングデバイスを別途設け、それらのポインティングデバイスによって瞳領域の選択及び移動を行っても良い。
(Modification 1-2)
When manually editing the line of sight, the pupil region may be moved using an operation member other than the touch panel 12. For example, selection of a pupil region to be moved and input of a movement direction and a movement amount may be performed by a button operation on the cross button 18, or a pointing device such as a mouse or a touch pad is separately provided, and the pupil region is provided by the pointing device. May be selected and moved.

(変形例1−3)
目線編集処理部230は、目線のマニュアル編集モード(ステップS250)において、ユーザがマニュアルで編集した瞳領域に対し、編集後の画像が自然に見えるか否かを判定し、不自然に見える場合にはその旨をユーザに通知しても良い。
(Modification 1-3)
The line-of-sight editing processing unit 230 determines whether or not the edited image looks natural with respect to the pupil region manually edited by the user in the manual editing mode of the line of sight (step S250). May notify the user to that effect.

例えば、図7において、瞳領域PR、PLの中心CR、CLが共に、それぞれの目領域ER、ELの中心よりも外側にあるとすれば、左右それぞれの目線が離れ、互いに外側を見ているようで不自然に見える。このような画像が生成されるのを防ぐため、目線判定部230dは、瞳領域PR、PLの中心CR、CLから目領域ER、ELの両端までの距離LR(OUT)、LR(IN)、LL(IN)、LL(OUT)を取得し、次式(3)及び(4)を用いて判定を行う。
R(OUT)/(LR(OUT)+LR(IN))<0.5 …(3)
L(OUT)/(LL(OUT)+LL(IN))<0.5 …(4)
For example, in FIG. 7, if the centers C R and C L of the pupil regions P R and P L are both outside the centers of the respective eye regions E R and E L , the left and right eyes are separated from each other. It looks unnatural as if they were looking at each other. To prevent such an image is generated, Looking determining unit 230d, the pupil region P R, the center of the P L C R, the distance L R (OUT from C L eye area E R, until both ends of the E L ) , L R (IN) , L L (IN) , and L L (OUT) are acquired, and determination is performed using the following equations (3) and (4).
L R (OUT) / (L R (OUT) + L R (IN) ) <0.5 (3)
L L (OUT) / (L L (OUT) + L L (IN) ) <0.5 (4)

編集後の瞳領域の位置が式(3)及び(4)を共に満たす場合、不自然な画像となる。そこで、上式(3)及び(4)を満たすような編集がなされた場合、目線編集処理部230は、編集された顔に合成される顔検出枠の表示属性を変更したり、警告メッセージを表示部26に表示したりする。   When the position of the pupil region after editing satisfies both equations (3) and (4), an unnatural image is obtained. Therefore, when editing is performed so as to satisfy the above expressions (3) and (4), the eye line editing processing unit 230 changes the display attribute of the face detection frame combined with the edited face, or displays a warning message. Or displayed on the display unit 26.

(変形例1−4)
上記実施の形態1においては、画像内の顔の目線を正面に向けることとしたが、目線を正面以外の方向に向けても良い。
この場合、目線のマニュアル編集モードにおいては、編集対象の顔において、タッチ操作により瞳領域PR(又はPL)を所望の位置に移動させれば良い。
(Modification 1-4)
In Embodiment 1 described above, the eyes of the face in the image are directed to the front, but the eyes may be directed to a direction other than the front.
In this case, in the eye-gaze manual editing mode, the pupil region P R (or P L ) may be moved to a desired position by a touch operation on the face to be edited.

また、目線の自動又は一括編集モードにおいては、例えば、図9に示す画像G1において、目線がユーザ所望の方向を向いた顔(例えば、目線を右方向に向けた顔F01)をタッチにより選択すると、他の全ての顔(例えば、顔F02〜F05)が選択された顔と同じ方向に目線が向くように瞳領域を編集しても良い。この場合、選択されなかった顔における瞳領域の中心と目領域の両端との距離の比率が、選択された顔における瞳領域の中心と目領域の両端との距離の比率と等しくなるように、瞳領域を編集すれば良い。 Further, in the automatic line-of-sight or batch edit mode, for example, in the image G1 shown in FIG. 9, a face with the line of sight facing the user's desired direction (for example, face F 01 with the line of sight directed to the right) is selected by touch Then, the pupil region may be edited so that all other faces (for example, faces F 02 to F 05 ) are directed in the same direction as the selected face. In this case, the ratio of the distance between the center of the pupil area and both ends of the eye area in the unselected face is equal to the ratio of the distance between the center of the pupil area and both ends of the eye area in the selected face. Edit the pupil area.

(変形例1−5)
実施の形態1においては、画像に合成される顔検出枠の表示属性を異ならせることにより、目線の判定結果をユーザに通知したが、これ以外にも、様々な手段により目線の判定結果をユーザに通知することとしても良い。例えば、目線が正面を向いていないと判定された顔に対して警告マークを合成して表示したり、白目の部分を着色して印象付ける警告表示をしても良い。
(Modification 1-5)
In the first embodiment, the display attribute of the face detection frame combined with the image is changed to notify the user of the eye gaze determination result. In addition to this, the eye gaze determination result is transmitted to the user by various means. It is good also as notifying. For example, a warning mark may be combined and displayed on a face that has been determined that the line of sight is not facing the front, or a warning display may be displayed that colors and impresses white eyes.

(変形例1−6)
実施の形態1においては、目領域における瞳領域の水平方向における位置に基づいて、被写体像の目線が正面を向いているか否かを判定したが、水平方向と共に、水平方向と直交する方向(以下、上下方向という)における瞳領域の位置に基づいて、目線の向きを判定するようにしても良い。この場合、水平方向のよそ見だけでなく、上下方向のよそ見を判別することができる。また、上下方向によそ見している目線を編集する際には、瞳領域を目領域の上下方向における略中央の位置に移動させれば良い。
(Modification 1-6)
In the first embodiment, it is determined whether or not the line of sight of the subject image is facing the front based on the position of the pupil area in the eye area in the horizontal direction. The direction of the line of sight may be determined based on the position of the pupil region in the vertical direction. In this case, it is possible to determine not only looking away in the horizontal direction but also looking away in the vertical direction. Further, when editing the eye line looking away in the vertical direction, the pupil region may be moved to a substantially central position in the vertical direction of the eye region.

(実施の形態2)
次に、本発明の実施の形態2について説明する。
図19は、実施の形態2に係る撮像装置が備える目線編集処理部の構成を示すブロック図である。図19に示すように、目線編集処理部230−2は、図3に示す目線編集処理部230に対して、警告表示合成部230hをさらに備える。
(Embodiment 2)
Next, a second embodiment of the present invention will be described.
FIG. 19 is a block diagram illustrating a configuration of a line-of-sight editing processing unit included in the imaging apparatus according to Embodiment 2. As illustrated in FIG. 19, the eye line editing processing unit 230-2 further includes a warning display combining unit 230h with respect to the eye line editing processing unit 230 illustrated in FIG.

なお、実施の形態2に係る撮像装置全体の構成については、図1及び図2に示すカメラ1と同様である。また、実施の形態2に係る撮像装置の全体の動作及び再生動作については、図4及び図5に示すものと同様である。   Note that the overall configuration of the imaging apparatus according to Embodiment 2 is the same as that of the camera 1 shown in FIGS. In addition, the overall operation and reproduction operation of the imaging apparatus according to Embodiment 2 are the same as those shown in FIGS.

図20は、実施の形態2に係る撮像装置のライブビュー表示動作(図4のステップS06)を示すフローチャートである。
まず、ステップS301において、画像処理回路229は、撮像素子221から出力された画像信号を取り込む。
FIG. 20 is a flowchart showing a live view display operation (step S06 in FIG. 4) of the imaging apparatus according to the second embodiment.
First, in step S301, the image processing circuit 229 takes in the image signal output from the image sensor 221.

続くステップS302において、画像処理回路229は、取り込んだ画像信号に対して所定の画像処理を施し、一定の微小な時間間隔で連続的に再生される表示用の画像データを生成する。
ステップS303において、顔検出部230aは、画像処理が施された各画像から顔を検出し、検出した顔に対応する顔範囲情報を生成する。
In subsequent step S302, the image processing circuit 229 performs predetermined image processing on the captured image signal, and generates display image data that is continuously reproduced at a fixed minute time interval.
In step S303, the face detection unit 230a detects a face from each image subjected to image processing, and generates face range information corresponding to the detected face.

顔検出の結果、画像から1つ以上の顔が検出された場合(ステップS304:Yes)、目領域検出部230bは、顔範囲情報に基づいて、各顔から目領域及び瞳領域を検出し、目領域情報を生成する(ステップS305)。   When one or more faces are detected from the image as a result of the face detection (step S304: Yes), the eye area detection unit 230b detects an eye area and a pupil area from each face based on the face range information, Eye area information is generated (step S305).

ステップS306において、目線判定部230dは、目領域情報に基づいて、各顔の目線が正面を向いているか否かの判定を行う。なお、目線の判定方法の詳細は、ステップS205と同様である。   In step S306, the line-of-sight determination unit 230d determines whether the line of sight of each face is facing the front based on the eye area information. The details of the eye-gaze determination method are the same as in step S205.

ステップS307において、顔検出枠合成部230eは、目線の判定結果に応じた表示属性を有する顔検出枠(図8参照)を生成し、画像に合成する。なお、顔検出枠合成部230eは、目線判定部230dの判定結果に応じた警告表示を画像に合成する警告表示合成手段としても作用する。   In step S307, the face detection frame synthesizing unit 230e generates a face detection frame (see FIG. 8) having a display attribute corresponding to the eye determination result, and synthesizes it with the image. The face detection frame synthesis unit 230e also functions as a warning display synthesis unit that synthesizes a warning display according to the determination result of the eye determination unit 230d with an image.

目線の判定の結果、目線が正面から外れている(よそ見している)顔があった場合(ステップS308:Yes)、警告表示合成部230hは、よそ見している人がいる旨を警告する警告表示を生成し、画像に合成する(ステップS309)。その際に、警告表示合成部230hは、よそ見している人数を警告表示に含めても良い。具体的には、警告表示合成部230hは、例えば図9に示す警告表示エリアM内に表示するための「よそ見をしている人がn人います。」といった警告文を作成する。   As a result of the determination of the line of sight, if there is a face whose line of sight is deviated from the front (looking away) (step S308: Yes), the warning display combining unit 230h warns that there is a person looking away. A display is generated and combined with the image (step S309). At that time, the warning display composition unit 230h may include the number of people looking away in the warning display. Specifically, the warning display composition unit 230h creates a warning sentence such as “There are n people looking away” for display in the warning display area M shown in FIG.

ステップS310において、表示部26は、顔表示枠及び警告表示が合成された画像をライブビュー画像として表示する。例えば図9に示す画像G1の場合、顔F01、F04、F05の目線が正面から外れているため、これらの顔F01、F04、F05に対応する顔検出枠b01、b04、b05は、よそ見を表す例えば破線(又は破線且つ赤色等)で表示される。また、画像G1右上の警告表示エリアMには、よそ見している人が存在する旨の警告が表示される。この警告には、よそ見している人数n(即ち、よそ見に対応する属性を有する顔検出枠の数。画像G1においてはn=3)も含まれる。 In step S310, the display unit 26 displays an image in which the face display frame and the warning display are combined as a live view image. For example, in the case of the image G1 shown in FIG. 9, the face F 01, F 04, since the eyes of F 05 is out from the front, the face detection frame b 01 corresponding to these face F 01, F 04, F 05 , b 04 and b 05 are displayed by, for example, a broken line (or a broken line and a red color, etc.) indicating looking away. In the warning display area M at the upper right of the image G1, a warning that there is a person who is looking away is displayed. This warning includes the number n of people who are looking away (that is, the number of face detection frames having attributes corresponding to looking away; n = 3 in the image G1).

一方、画像から顔が検出されなかった場合(ステップS304:No)、又は、よそ見している顔が検出されなかった場合(ステップS308:No)、動作はステップS310に移行する。   On the other hand, when no face is detected from the image (step S304: No), or when a face looking away is not detected (step S308: No), the operation proceeds to step S310.

このようなライブビュー画像においては、被写体の目線の状態に応じて、警告表示の有無又は内容(例えば、メッセージエリアM内の警告文に記載された人数n)が刻々と変化する。そのため、ユーザは、警告表示を参照し、警告表示が表示されなくなった(即ち、目線の外れた人がいなくなった)タイミング、又は、警告表示中のよそ見をしている人数nが少なくなったタイミングで、レリーズ釦10を操作して撮像を行うことができる。また、警告表示においては、目線の外れた人数に応じて警告文の表示色を赤色や緑色等に変更しても良い。例えば、目線の外れた人数が2人以上のときは赤色、1人のときは緑色というように表示色を変化させると、ユーザは警告の内容(人数n)を即座に把握することができ、レリーズ釦10を適切なタイミングで操作することが可能となる。   In such a live view image, the presence / absence or content of warning display (for example, the number of people n described in the warning text in the message area M) changes every moment according to the state of the subject's eyes. Therefore, the user refers to the warning display, and the timing when the warning display is not displayed (that is, when there is no person who is out of sight) or when the number n of people who are looking away during the warning display decreases. Thus, the release button 10 can be operated to take an image. In the warning display, the display color of the warning text may be changed to red, green, or the like according to the number of people who are out of sight. For example, if the number of people out of line of sight is two or more, the display color is changed to red when the number is one, and green when the number is one, and the user can immediately grasp the content of the warning (number of people n) The release button 10 can be operated at an appropriate timing.

(変形例2)
次に、変形例2について説明する。図21は、変形例2に係る撮像装置が備える画像処理回路の構成を示すブロック図である。
図21に示すように、変形例2に係る画像処理回路229−2は、目線編集処理部230−2に加えて、警告情報付加部230−3及び画像選択部230−4を更に備える。
(Modification 2)
Next, Modification 2 will be described. FIG. 21 is a block diagram illustrating a configuration of an image processing circuit included in an imaging apparatus according to Modification 2.
As illustrated in FIG. 21, the image processing circuit 229-2 according to Modification 2 further includes a warning information addition unit 230-3 and an image selection unit 230-4 in addition to the eye line editing processing unit 230-2.

警告情報付加部230−3は、ライブビュー画像に警告表示がなされているタイミングで第2レリーズスイッチがオンされた場合に、よそ見している人がいる旨の警告情報を、当該画像データに付加する。
画像選択部230−4は、操作釦群13a〜19による操作入力に従って、記録媒体245に記録されている画像データから、上記警告情報に基づいて画像データを選択する。
The warning information adding unit 230-3 adds warning information to the image data indicating that there is a person looking away when the second release switch is turned on at the timing when the warning is displayed on the live view image. To do.
The image selection unit 230-4 selects image data based on the warning information from the image data recorded on the recording medium 245 in accordance with operation inputs from the operation button groups 13a to 19-19.

具体的には、画像選択部230−4は、撮像された画像を再生表示する際に、例えば、警告情報が付加された画像データのみを選択する。これに応じて、ビデオ信号出力回路233は、選択された画像データに対応する画像を、表示部26に順次表示又は一覧表示する。図22は、警告情報が付加された画像G11〜G14を一覧表示(インデックス表示)した例を示す模式図である。なお、このとき、画像G11〜G14において、よそ見していると判定された顔に対して合成された顔検出枠を表示しても良い。   Specifically, the image selection unit 230-4 selects, for example, only image data to which warning information is added when reproducing and displaying a captured image. In response to this, the video signal output circuit 233 sequentially displays or lists images corresponding to the selected image data on the display unit 26. FIG. 22 is a schematic diagram illustrating an example in which images G11 to G14 to which warning information is added are displayed as a list (index display). At this time, in the images G11 to G14, a face detection frame synthesized with a face determined to be looking away may be displayed.

この場合、ユーザは、目線の編集が必要な画像のみを観察することができるので、効率的に目線の編集作業を行うことができる。或いは、ユーザは、目線が外れている画像のみを容易に選択して削除等することができる。
また、この場合、全ての顔について目領域及び瞳領域の検出が既になされているので、目線編集処理を高速に行うことができる。
In this case, since the user can observe only the image that needs to be edited, the user can efficiently edit the eye. Alternatively, the user can easily select and delete only images that are out of line of sight.
In this case, since the eye area and the pupil area have already been detected for all the faces, the eye line editing process can be performed at high speed.

一方、画像選択部230−4に、警告表示が付加されていない画像データのみを選択させるようにしても良い。この場合、表示部26には、警告情報が付加されていない(即ち、よそ見している人が検出されなかった)画像のみが、順次表示又は一覧表示される。図23は、警告情報が付加されていない画像G21〜G24を一覧表示した例を示す模式図である。
この場合、ユーザは、目線の編集が不要な画像のみを効率的に観察することができる。
On the other hand, you may make it the image selection part 230-4 select only the image data to which the warning display is not added. In this case, only the images to which no warning information is added (that is, the person who is looking away is not detected) are sequentially displayed or displayed as a list on the display unit 26. FIG. 23 is a schematic diagram illustrating an example in which images G21 to G24 to which warning information is not added are displayed as a list.
In this case, the user can efficiently observe only an image that does not require line-of-sight editing.

なお、上記実施の形態2及び変形例2においては、被写体の目線が正面を向いているか否かを判定したが、評価値Wの算出式や判定に用いられる閾値を変更することにより、被写体の目線が所望の方向を向いているか否かの判定を行うこともできる。   In the second embodiment and the second modification, it is determined whether or not the subject's line of sight is facing the front. However, by changing the calculation formula of the evaluation value W and the threshold value used for the determination, It can also be determined whether or not the line of sight is in a desired direction.

以上説明した実施の形態1及び2においては、撮像装置1をデジタルカメラとして説明したが、例えば一眼デジタルスチールカメラ、デジタルビデオカメラ、カメラ付き携帯電話等の撮影機能を備えた各種電子機器に適用することができる。   In Embodiments 1 and 2 described above, the imaging apparatus 1 has been described as a digital camera. However, the imaging apparatus 1 is applied to various electronic devices having a photographing function such as a single-lens digital still camera, a digital video camera, and a camera-equipped mobile phone. be able to.

1 撮像装置(カメラ)
10 レリーズ釦
11 モードダイヤル
12 タッチパネル
13a 拡大釦
13b 縮小釦
14 再生釦
15 メニュー釦
16 目線釦
17 編集釦
18 十字釦
18a 上釦
18b 下釦
18c 左釦
18d 右釦
19 決定釦
20 パワースイッチ
26 表示部
29 アクセサリーポート
100 交換レンズ
101 撮影光学系
101a、101b 撮影レンズ
105 光学位置検出機構
107 光学系駆動機構
109 絞り駆動機構
110 エンコーダ
111 レンズコントローラ
112 距離環
200 カメラ本体
203 シャッタ
205 防塵フィルタ
207 圧電素子
209 赤外カットフィルタ
210 光学的ローパスフィルタ
211 防塵フィルタ駆動回路
213 シャッタ駆動機構
215 気圧センサユニット
221 撮像素子
223 撮像素子駆動回路
225 前処理回路
226 コントラストAF回路
227 シーケンスコントローラ
229 画像処理回路
230、230−2 目線編集処理部
230a 顔検出部
230b 目領域検出部
230c 瞳位置算出部
230d 目線判定部
230e 顔検出枠合成部
230f 顔選択部
230h 警告表示合成部
230g 瞳編集部
230−3 警告情報付加部
230−4 画像選択部
231 圧縮伸張回路
233 ビデオ信号出力回路
235 表示部駆動回路
237 SDRAM制御回路
239 入出力回路
241 通信回路
243 記録媒体制御回路
245 記録媒体
247 フラッシュメモリ制御回路
249 フラッシュメモリ
253 スイッチ検知回路
259 着脱検知スイッチ
261 データバス
290 撮像素子ユニット
292 ブレ補正駆動機構
294 アクチュエータ駆動回路
297 ブレ検出部
297a 角速度センサ
297b 角速度検出回路
300 通信接点
1 Imaging device (camera)
DESCRIPTION OF SYMBOLS 10 Release button 11 Mode dial 12 Touch panel 13a Enlarge button 13b Reduce button 14 Play button 15 Menu button 16 Eye button 17 Edit button 18 Cross button 18a Up button 18b Down button 18c Left button 18d Right button 19 Enter button 20 Power switch 26 Display part DESCRIPTION OF SYMBOLS 29 Accessory port 100 Interchangeable lens 101 Shooting optical system 101a, 101b Shooting lens 105 Optical position detection mechanism 107 Optical system drive mechanism 109 Aperture drive mechanism 110 Encoder 111 Lens controller 112 Distance ring 200 Camera body 203 Shutter 205 Dustproof filter 207 Piezoelectric element 209 Red Outer cut filter 210 Optical low-pass filter 211 Dust-proof filter drive circuit 213 Shutter drive mechanism 215 Barometric pressure sensor unit 221 Image sensor 223 Image sensor drive Path 225 Preprocessing circuit 226 Contrast AF circuit 227 Sequence controller 229 Image processing circuit 230, 230-2 Eye edit processing unit 230a Face detection unit 230b Eye region detection unit 230c Eye position calculation unit 230d Eye determination unit 230e Face detection frame synthesis unit 230f Face selection unit 230h Warning display synthesis unit 230g Pupil editing unit 230-3 Warning information addition unit 230-4 Image selection unit 231 Compression / decompression circuit 233 Video signal output circuit 235 Display unit drive circuit 237 SDRAM control circuit 239 Input / output circuit 241 Communication circuit 243 Recording medium control circuit 245 Recording medium 247 Flash memory control circuit 249 Flash memory 253 Switch detection circuit 259 Detachment detection switch 261 Data bus 290 Image sensor unit 292 Shake correction drive mechanism 94 actuator drive circuit 297 shake detection section 297a angular velocity sensor 297b angular velocity detecting circuit 300 communication contacts

Claims (26)

被写体の電子的な画像データに対応する画像を表示する表示手段と、
前記画像から顔を検出する顔検出手段と、
前記顔検出手段によって検出された顔の範囲から、目の領域及び瞳の領域を検出する目領域検出手段と、
前記目の領域において前記瞳の領域の位置を変更することを含む編集を行う瞳編集手段と、
前記瞳編集手段によって編集された画像データを記録する記録手段と、
を備えることを特徴とする画像記録装置。
Display means for displaying an image corresponding to electronic image data of a subject;
Face detection means for detecting a face from the image;
Eye area detecting means for detecting an eye area and a pupil area from the range of the face detected by the face detecting means;
Pupil editing means for performing editing including changing the position of the pupil region in the eye region;
Recording means for recording image data edited by the pupil editing means;
An image recording apparatus comprising:
前記目の領域における前記瞳の領域の位置に基づいて、前記顔の目線が所定の方向を向いているか否かを判定する目線判定手段を更に備えることを特徴とする請求項1に記載の画像記録装置。   2. The image according to claim 1, further comprising eye line determination means for determining whether or not the eye line of the face faces a predetermined direction based on a position of the pupil area in the eye area. Recording device. 前記所定の方向は正面方向であり、
前記目線判定手段は、前記瞳の領域が前記目の領域の略中央にある場合に、前記目線が正面を向いていると判定することを特徴とする請求項2に記載の画像記録装置。
The predetermined direction is a front direction;
The image recording apparatus according to claim 2, wherein the line of sight determination unit determines that the line of sight is facing the front when the pupil region is substantially in the center of the eye region.
前記目線判定手段の判定結果を通知する通知手段をさらに備えることを特徴とする請求項2又は3に記載の画像記録装置。   The image recording apparatus according to claim 2, further comprising a notification unit that notifies the determination result of the eye line determination unit. 前記通知手段は、前記目線判定手段による判定結果に応じて定まる表示属性を有し、前記顔を囲む顔検出枠を、前記画像に合成する顔検出枠合成手段であることを特徴とする請求項4に記載の画像記録装置。   The said notification means is a face detection frame synthesizing means which has a display attribute determined according to a determination result by the eye line determination means, and combines a face detection frame surrounding the face with the image. 5. The image recording apparatus according to 4. 前記顔検出枠合成手段は、2種類以上の表示属性を有する前記顔検出枠を前記画像に合成することを特徴とする請求項5に記載の画像記録装置。   6. The image recording apparatus according to claim 5, wherein the face detection frame synthesizing unit synthesizes the face detection frame having two or more types of display attributes with the image. 前記目線判定手段によって前記目線が所定の方向を向いていないと判定された顔を選択する顔選択手段をさらに備え、
前記瞳編集手段は、前記顔選択手段によって選択された顔における前記瞳の領域を編集することを特徴とする請求項2〜6のいずれか1項に記載の画像記録装置。
A face selection unit that selects a face determined by the line-of-sight determination unit that the line of sight is not facing a predetermined direction;
The image recording apparatus according to claim 2, wherein the pupil editing unit edits the pupil region of the face selected by the face selection unit.
外部からの操作に応じた信号を当該画像記録装置に入力する操作入力手段と、
前記操作入力手段により、前記顔検出手段によって検出された顔の内のいずれかを選択する選択信号が入力された場合に、当該選択された顔を選択する顔選択手段と、
をさらに備え、
前記瞳編集手段は、前記顔選択手段によって選択された顔における前記瞳の領域を編集することを特徴とする請求項1〜6のいずれか1項に記載の画像記録装置。
Operation input means for inputting a signal corresponding to an operation from the outside to the image recording apparatus;
Face selection means for selecting the selected face when a selection signal for selecting any of the faces detected by the face detection means is input by the operation input means;
Further comprising
The image recording apparatus according to claim 1, wherein the pupil editing unit edits an area of the pupil in the face selected by the face selection unit.
外部からの操作に応じた信号を当該画像記録装置に入力する操作入力手段をさらに備え、
前記瞳編集手段は、前記操作入力手段によって入力された信号に基づいて、前記目の領域において前記瞳の領域を移動させることを特徴とする請求項1に記載の画像記録装置。
It further comprises operation input means for inputting a signal corresponding to an operation from the outside to the image recording apparatus,
The image recording apparatus according to claim 1, wherein the pupil editing unit moves the pupil region in the eye region based on a signal input by the operation input unit.
前記操作入力手段は、前記表示手段上に重ねて設けられたタッチパネルであり、
前記瞳編集手段は、前記タッチパネルに対する前記瞳の領域へのタッチの軌跡に基づいて、前記瞳の領域を移動させることを特徴とする請求項9に記載の画像記録装置。
The operation input means is a touch panel provided on the display means,
The image recording apparatus according to claim 9, wherein the pupil editing unit moves the pupil region based on a trajectory of touching the pupil region with respect to the touch panel.
前記操作入力手段は、前記表示手段上に重ねて設けられたタッチパネルであり、
前記瞳編集手段は、前記タッチパネル上における前記瞳の領域以外の領域へのタッチの軌跡に基づいて、前記瞳の領域を移動させることを特徴とする請求項9に記載の画像記録装置。
The operation input means is a touch panel provided on the display means,
The image recording apparatus according to claim 9, wherein the pupil editing unit moves the pupil region based on a touch trajectory to a region other than the pupil region on the touch panel.
前記瞳編集手段は、前記操作入力手段により一方の瞳の領域を移動させる信号が入力された場合に、他方の瞳の領域を連動させて移動させることを特徴とする請求項9〜11のいずれか1項に記載の画像記録装置。   12. The pupil editing unit according to claim 9, wherein when the operation input unit receives a signal for moving one pupil region, the pupil editing unit moves the other pupil region in conjunction with each other. The image recording apparatus according to claim 1. 前記瞳編集手段は、前記一方の瞳の領域に連動して前記他方の瞳の領域を移動させた後、前記操作入力手段により前記他方の瞳の領域を移動させる信号が入力された場合に、前記一方の瞳の領域を連動させないで、前記他方の瞳の領域のみを移動させることを特徴とする請求項12に記載の画像記録装置。   The pupil editing unit moves the other pupil region in conjunction with the one pupil region, and then receives a signal for moving the other pupil region by the operation input unit. 13. The image recording apparatus according to claim 12, wherein only the other pupil region is moved without interlocking the one pupil region. 前記目の領域において目線を所定の方向に向けた場合の瞳の領域の位置を算出する瞳位置算出手段を更に備え、
前記瞳編集手段は、前記目領域検出手段によって検出された前記瞳の領域を、前記瞳位置算出手段によって算出された位置に移動させることを特徴とする請求項1に記載の画像記録装置。
Pupil position calculating means for calculating the position of the pupil region when the eye line is directed in a predetermined direction in the eye region;
The image recording apparatus according to claim 1, wherein the pupil editing unit moves the pupil region detected by the eye region detection unit to a position calculated by the pupil position calculation unit.
前記瞳編集手段は、前記瞳の領域を移動させた後、前記瞳の領域の上下に前記目の領域との隙間が生じた場合に、前記瞳の領域を拡大又は拡張することにより前記隙間を補間することを特徴とする請求項12〜14のいずれか1項に記載の画像記録装置。   When the pupil editing unit moves the pupil region and then creates a gap with the eye region above and below the pupil region, the pupil editing unit expands or expands the pupil region to reduce the gap. The image recording apparatus according to claim 12, wherein interpolation is performed. 撮影レンズを介して被写体を撮像して電子的な画像データを取得する撮像手段と、
撮影指示を行うレリーズ手段と、
をさらに備え、
前記記録手段は、前記レリーズ手段による撮影指示に従って撮影を行うことにより取得された画像に対応する画像データを記録すると共に、前記瞳編集手段によって編集された画像に対応する画像データを、元の画像データとは異なるファイル名で記録することを特徴とする請求項1〜15のいずれか1項に記載の画像記録装置。
Imaging means for capturing an image of a subject via a photographing lens to obtain electronic image data;
Release means for instructing shooting,
Further comprising
The recording unit records image data corresponding to an image acquired by performing shooting in accordance with a shooting instruction by the release unit, and stores image data corresponding to the image edited by the pupil editing unit as an original image. The image recording apparatus according to claim 1, wherein the image recording apparatus records the file with a file name different from that of the data.
撮影レンズを介して被写体を撮像して電子的な画像データを取得する撮像手段と、
撮影指示を行うレリーズ手段と、
前記画像データに対応する画像を表示する表示手段と、
一定の微小な時間間隔で連続的に再生されるライブビュー画像を生成する画像処理手段と、
前記レリーズ手段による撮影指示に従って撮影を行うことにより取得された画像を記録する記録手段と、
前記画像から顔を検出する顔検出手段と、
前記顔検出手段によって検出された顔の範囲から、目の領域及び瞳の領域を検出する目領域検出手段と、
前記目の領域における前記瞳の領域の位置に基づいて、前記顔の目線が所定の方向を向いているか否かを判定する目線判定手段と、
前記目線判定手段による判定結果に応じた警告表示を前記画像に合成する警告表示合成手段と、
を備えることを特徴とする撮像装置。
Imaging means for capturing an image of a subject via a photographing lens to obtain electronic image data;
Release means for instructing shooting,
Display means for displaying an image corresponding to the image data;
Image processing means for generating a live view image that is continuously reproduced at a fixed minute time interval;
A recording means for recording an image obtained by photographing according to a photographing instruction by the release means;
Face detection means for detecting a face from the image;
Eye area detecting means for detecting an eye area and a pupil area from the range of the face detected by the face detecting means;
Line-of-sight determination means for determining whether the line of sight of the face is in a predetermined direction based on the position of the area of the pupil in the area of the eye;
Warning display combining means for combining the image with a warning display according to the determination result by the eye line determination means;
An imaging apparatus comprising:
前記所定の方向は正面方向であり、
前記目線判定手段は、前記瞳の領域が前記目の領域の略中央にある場合に、前記目線が正面を向いていると判定することを特徴とする請求項17に記載の撮像装置。
The predetermined direction is a front direction;
18. The imaging apparatus according to claim 17, wherein the eye line determination unit determines that the eye line is facing the front when the pupil region is substantially in the center of the eye region.
前記警告表示合成手段は、前記目線判定手段による判定結果に応じて定まる表示属性を有し、前記顔を囲む顔検出枠を、前記画像に合成する顔検出枠合成手段であることを特徴とする請求項17又は18に記載の撮像装置。   The warning display combining unit is a face detection frame combining unit that has a display attribute determined according to a determination result by the eye line determination unit, and combines a face detection frame surrounding the face with the image. The imaging device according to claim 17 or 18. 前記顔検出枠合成手段は、2種類以上の表示属性を有する前記顔検出枠を前記画像に合成することを特徴とすることを特徴とする請求項19に記載の撮像装置。   20. The imaging apparatus according to claim 19, wherein the face detection frame synthesizing unit synthesizes the face detection frame having two or more types of display attributes with the image. 前記警告表示合成手段は、所定の属性を有する前記顔検出枠の数を表示することを特徴とする請求項19又は20に記載の撮像装置。   21. The imaging apparatus according to claim 19, wherein the warning display combining unit displays the number of the face detection frames having a predetermined attribute. 前記目線判定手段による判定結果に応じた警告情報を前記画像に対応する画像データに付加する警告情報付加手段をさらに備えることを特徴とする請求項17〜21のいずれか1項に記載の撮像装置。   The imaging apparatus according to any one of claims 17 to 21, further comprising warning information adding means for adding warning information according to a determination result by the eye line determination means to image data corresponding to the image. . 前記警告情報に基づいて、前記表示手段に表示される画像を選択する画像選択手段をさらに備えることを特徴とする請求項22に記載の撮像装置。   The imaging apparatus according to claim 22, further comprising image selection means for selecting an image to be displayed on the display means based on the warning information. 前記画像選択手段は、前記警告情報が付加された画像を選択することを特徴とする請求項23に記載の撮像装置。   24. The imaging apparatus according to claim 23, wherein the image selection unit selects an image to which the warning information is added. 前記画像選択手段は、前記警告情報が付加されていない画像を選択することを特徴とする請求項23に記載の撮像装置。   The imaging apparatus according to claim 23, wherein the image selection unit selects an image to which the warning information is not added. 前記画像選択手段によって選択された画像に対し、前記目の領域における前記瞳の領域の位置を変更することを含む編集を行う瞳編集手段を更に備えることを特徴とする請求項23〜25のいずれか1項に記載の撮像装置。   26. The pupil editing means for performing editing including changing the position of the pupil area in the eye area on the image selected by the image selection means. The imaging apparatus of Claim 1.
JP2011097255A 2011-04-25 2011-04-25 Image recording apparatus, recording method, and program Active JP5719223B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011097255A JP5719223B2 (en) 2011-04-25 2011-04-25 Image recording apparatus, recording method, and program
CN201210122826.6A CN102761705B (en) 2011-04-25 2012-04-24 An image recording device, an image editing device and an image capturing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011097255A JP5719223B2 (en) 2011-04-25 2011-04-25 Image recording apparatus, recording method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015056884A Division JP2015159550A (en) 2015-03-19 2015-03-19 Imaging apparatus, imaging method, and program

Publications (3)

Publication Number Publication Date
JP2012231237A true JP2012231237A (en) 2012-11-22
JP2012231237A5 JP2012231237A5 (en) 2014-05-08
JP5719223B2 JP5719223B2 (en) 2015-05-13

Family

ID=47056016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011097255A Active JP5719223B2 (en) 2011-04-25 2011-04-25 Image recording apparatus, recording method, and program

Country Status (2)

Country Link
JP (1) JP5719223B2 (en)
CN (1) CN102761705B (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186505A (en) * 2013-03-22 2014-10-02 Canon Inc Visual line detection device and imaging device
JP2019523929A (en) * 2016-06-03 2019-08-29 マジック リープ, インコーポレイテッドMagic Leap,Inc. Augmented reality identification verification
CN110969060A (en) * 2018-09-29 2020-04-07 北京市商汤科技开发有限公司 Neural network training method, neural network training device, neural network tracking method, neural network training device, visual line tracking device and electronic equipment
JP2020136861A (en) * 2019-02-18 2020-08-31 富士フイルム株式会社 Image processing apparatus, method and program, as well as imaging apparatus
JP2020188291A (en) * 2019-05-09 2020-11-19 アイシン精機株式会社 Image display device and image display program
CN114584704A (en) * 2022-02-08 2022-06-03 维沃移动通信有限公司 Shooting method and device and electronic equipment
CN114902104A (en) * 2019-12-27 2022-08-12 佳能株式会社 Electronic device, electronic device control method, program, and storage medium

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015049544A (en) * 2013-08-29 2015-03-16 オリンパス株式会社 Parameter change device and method
JP5695809B1 (en) 2013-10-16 2015-04-08 オリンパスイメージング株式会社 Display device, display method, and program
JP2015121623A (en) * 2013-12-20 2015-07-02 カシオ計算機株式会社 Electronic equipment, display control method, and program
CN104580886B (en) * 2014-12-15 2018-10-12 小米科技有限责任公司 Filming control method and device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04165880A (en) * 1990-10-30 1992-06-11 Toshiba Corp Picture processing system
JP2000231639A (en) * 1999-02-12 2000-08-22 Noritsu Koki Co Ltd Photographic processor
JP2008242636A (en) * 2007-03-26 2008-10-09 Sony Corp Image processing apparatus, image processing method and program
JP2009246408A (en) * 2008-03-28 2009-10-22 Toshiba Corp Interaction device, image processing module, image processing method, and program
JP2010282339A (en) * 2009-06-03 2010-12-16 Seiko Epson Corp Image processor for correcting position of pupil in eye, image processing method, image processing program and printer

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000198369A (en) * 1998-12-28 2000-07-18 Niles Parts Co Ltd Eye state detecting device and doze-driving alarm device
WO2005001764A1 (en) * 2003-06-30 2005-01-06 Nec Corporation Image input device, robot, and program
JP4496465B2 (en) * 2004-04-23 2010-07-07 ノーリツ鋼機株式会社 Red-eye correction method, program, and apparatus for implementing the method
JP4537143B2 (en) * 2004-07-30 2010-09-01 キヤノン株式会社 Image processing apparatus and method, imaging apparatus, and program
US20070230794A1 (en) * 2006-04-04 2007-10-04 Logitech Europe S.A. Real-time automatic facial feature replacement
JP4823970B2 (en) * 2007-05-24 2011-11-24 オリンパスイメージング株式会社 Image editing device
JP5042896B2 (en) * 2008-03-25 2012-10-03 オリンパス株式会社 Image processing apparatus and image processing program
CN103345619A (en) * 2013-06-26 2013-10-09 上海永畅信息科技有限公司 Self-adaption correcting method of human eye natural contact in video chat

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04165880A (en) * 1990-10-30 1992-06-11 Toshiba Corp Picture processing system
JP2000231639A (en) * 1999-02-12 2000-08-22 Noritsu Koki Co Ltd Photographic processor
JP2008242636A (en) * 2007-03-26 2008-10-09 Sony Corp Image processing apparatus, image processing method and program
JP2009246408A (en) * 2008-03-28 2009-10-22 Toshiba Corp Interaction device, image processing module, image processing method, and program
JP2010282339A (en) * 2009-06-03 2010-12-16 Seiko Epson Corp Image processor for correcting position of pupil in eye, image processing method, image processing program and printer

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186505A (en) * 2013-03-22 2014-10-02 Canon Inc Visual line detection device and imaging device
JP2019523929A (en) * 2016-06-03 2019-08-29 マジック リープ, インコーポレイテッドMagic Leap,Inc. Augmented reality identification verification
US11263438B2 (en) 2016-06-03 2022-03-01 Magic Leap, Inc. Augmented reality identity verification
CN110969060A (en) * 2018-09-29 2020-04-07 北京市商汤科技开发有限公司 Neural network training method, neural network training device, neural network tracking method, neural network training device, visual line tracking device and electronic equipment
JP2020136861A (en) * 2019-02-18 2020-08-31 富士フイルム株式会社 Image processing apparatus, method and program, as well as imaging apparatus
JP7045342B2 (en) 2019-02-18 2022-03-31 富士フイルム株式会社 Image processing equipment, methods and programs, and imaging equipment
JP2020188291A (en) * 2019-05-09 2020-11-19 アイシン精機株式会社 Image display device and image display program
CN114902104A (en) * 2019-12-27 2022-08-12 佳能株式会社 Electronic device, electronic device control method, program, and storage medium
US12052491B2 (en) 2019-12-27 2024-07-30 Canon Kabushiki Kaisha Electronic device, control method for electronic device, and non-transitory computer readable storage medium
CN114584704A (en) * 2022-02-08 2022-06-03 维沃移动通信有限公司 Shooting method and device and electronic equipment

Also Published As

Publication number Publication date
JP5719223B2 (en) 2015-05-13
CN102761705A (en) 2012-10-31
CN102761705B (en) 2015-07-22

Similar Documents

Publication Publication Date Title
JP5719223B2 (en) Image recording apparatus, recording method, and program
JP4510713B2 (en) Digital camera
JP5907738B2 (en) Imaging apparatus, display method, and program
JP6071436B2 (en) Imaging apparatus, imaging method, and program
JP2014078855A (en) Electronic apparatus, driving method, and program
US8502883B2 (en) Photographing apparatus and photographing control method
JP4509081B2 (en) Digital camera and digital camera program
JP2014531829A (en) Remotely controllable digital video camera system
JP5959217B2 (en) Imaging apparatus, image quality adjustment method, and image quality adjustment program
WO2017221664A1 (en) Mobile terminal
JP2015159550A (en) Imaging apparatus, imaging method, and program
JP2008294704A (en) Display device and imaging apparatus
JP5851133B2 (en) Image reproducing apparatus, image reproducing method and program
JP5539820B2 (en) Imaging apparatus, imaging method, and imaging program
JP6925827B2 (en) Image processing device and image processing method
JP5951988B2 (en) Image composition apparatus and image composition method
JP4760497B2 (en) Image data generation apparatus and image data generation method
JP2012239078A (en) Photographing device
JP5945388B2 (en) Imaging apparatus and imaging method
JP7418083B2 (en) Display control device, its control method, and its program
JP2011023890A (en) Imaging apparatus
JP2019047436A (en) Image processing device, image processing method, image processing program, and imaging device
JP6211139B2 (en) Image synthesizer
JP5820903B2 (en) Imaging apparatus, imaging method, and imaging program
JP5797301B2 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140320

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150320

R150 Certificate of patent or registration of utility model

Ref document number: 5719223

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250