JP2012231237A - Image recording apparatus and imaging apparatus - Google Patents
Image recording apparatus and imaging apparatus Download PDFInfo
- Publication number
- JP2012231237A JP2012231237A JP2011097255A JP2011097255A JP2012231237A JP 2012231237 A JP2012231237 A JP 2012231237A JP 2011097255 A JP2011097255 A JP 2011097255A JP 2011097255 A JP2011097255 A JP 2011097255A JP 2012231237 A JP2012231237 A JP 2012231237A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pupil
- face
- unit
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 60
- 210000001747 pupil Anatomy 0.000 claims abstract description 247
- 238000001514 detection method Methods 0.000 claims description 120
- 238000012545 processing Methods 0.000 claims description 50
- 210000000887 face Anatomy 0.000 claims description 25
- 230000002194 synthesizing effect Effects 0.000 claims description 9
- 210000001508 eye Anatomy 0.000 abstract description 172
- 230000003287 optical effect Effects 0.000 description 36
- 230000007246 mechanism Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 23
- 238000000034 method Methods 0.000 description 23
- 238000012937 correction Methods 0.000 description 14
- 230000004048 modification Effects 0.000 description 14
- 238000012986 modification Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 230000015572 biosynthetic process Effects 0.000 description 11
- 238000003786 synthesis reaction Methods 0.000 description 11
- 230000004397 blinking Effects 0.000 description 10
- 239000000428 dust Substances 0.000 description 9
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 238000003825 pressing Methods 0.000 description 5
- 230000006837 decompression Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000005375 photometry Methods 0.000 description 3
- 230000006641 stabilisation Effects 0.000 description 3
- 238000011105 stabilization Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 235000002673 Dioscorea communis Nutrition 0.000 description 1
- 241000544230 Dioscorea communis Species 0.000 description 1
- 241001469893 Oxyzygonectes dovii Species 0.000 description 1
- 208000035753 Periorbital contusion Diseases 0.000 description 1
- 241001504424 Zosteropidae Species 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、被写体を撮像した電子的な画像データを記録する画像記録装置及び撮像装置に関する。 The present invention relates to an image recording apparatus and an imaging apparatus that record electronic image data obtained by imaging a subject.
近年、デジタルカメラやデジタルビデオ等の撮像装置が広範囲に普及している。最近の撮像装置は、被写体の目線検出や目つぶり防止といった撮影タイミングを逃さないための種々の機能を搭載しており、幅広い層のユーザが手軽に利用している。このような機能に関連する技術として、例えば、特許文献1には被写体の目線の推移に基づいて撮像タイミングを決定する撮像装置が開示されている。また、特許文献2には、被写体のカメラ目線を判定して撮像操作を制御する撮像装置が開示されている。特許文献3には、撮像された画像データに基づいて被写体の顔検出を行い、目つぶり顔領域が存在する場合に当該領域の属性を変更して表示する撮像装置が開示されている。
In recent years, imaging devices such as digital cameras and digital videos have been widely used. Recent imaging apparatuses are equipped with various functions not to miss the shooting timing such as eye-gaze detection of subjects and prevention of blinking, and are easily used by a wide range of users. As a technique related to such a function, for example,
また、目線(視線)の検知に関連する技術として、特許文献4には、ステレオカメラによって撮像した画像から眼球中心及び黒目中心を推定して、運転者の視線方向を測定する視線方向検出装置が開示されている。また、特許文献5には、ファインダを覗く撮影者の視線を検出する機能が設けられたカメラが開示されている。
Further, as a technique related to the detection of the line of sight (line of sight),
しかしながら、被写体の目線を検出して撮像タイミングを決定する場合、被写体が撮像装置に目線を向けるのを待たなくてはならない。また、複数の被写体の集合写真を撮像する場合、特に、被写体が幼い子どもである場合には、全ての被写体の目線が撮像装置を向くタイミングを計るのは非常に困難である。そのため、そのような撮像タイミングを計っている間に、好適なショットを逃してしまうおそれがある。 However, when determining the imaging timing by detecting the line of sight of the subject, it is necessary to wait for the subject to look at the imaging apparatus. In addition, when taking a group photo of a plurality of subjects, particularly when the subject is a young child, it is very difficult to measure the timing when the lines of sight of all subjects face the imaging device. Therefore, a suitable shot may be missed while such an imaging timing is being measured.
さらに、上記特許文献4及び5に開示された技術はいずれも、操作者(撮影者)が向けている視線の方向を検知する技術であり、特定の方向(例えば撮像装置の方向)に目線を向けた被写体の画像を取得することについては開示されていない。
Furthermore, both of the techniques disclosed in
本発明は、上記に鑑みてなされたものであって、ユーザ所望の方向に被写体が目線を向けた画像を取得することができる画像記録装置を提供することを目的とする。また、本発明は、ユーザ所望の方向に被写体が目線を向けたタイミングで撮像を行うことができる撮像装置を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an image recording apparatus that can acquire an image in which a subject has a line of sight in a direction desired by a user. It is another object of the present invention to provide an imaging apparatus that can perform imaging at a timing when a subject turns his / her eyes in a direction desired by a user.
上述した課題を解決し、目的を達成するために、本発明に係る画像記録装置は、被写体の電子的な画像データに対応する画像を表示する表示手段と、前記画像から顔を検出する顔検出手段と、前記顔検出手段によって検出された顔の範囲から、目の領域及び瞳の領域を検出する目領域検出手段と、前記目の領域において前記瞳の領域の位置を変更することを含む編集を行う瞳編集手段と、前記瞳編集手段によって編集された画像データを記録する記録手段とを備えることを特徴とする。 In order to solve the above-described problems and achieve the object, an image recording apparatus according to the present invention includes display means for displaying an image corresponding to electronic image data of a subject, and face detection for detecting a face from the image. And an eye area detecting means for detecting an eye area and a pupil area from the face range detected by the face detecting means, and an editing process including changing a position of the pupil area in the eye area And a recording means for recording image data edited by the pupil editing means.
上記画像記録装置は、前記目の領域における前記瞳の領域の位置に基づいて、前記顔の目線が所定の方向を向いているか否かを判定する目線判定手段を更に備えることを特徴とする。 The image recording apparatus may further include eye line determination means for determining whether or not the eye line of the face is directed in a predetermined direction based on the position of the pupil area in the eye area.
上記画像記録装置において、前記所定の方向は正面方向であり、前記目線判定手段は、前記瞳の領域が前記目の領域の略中央にある場合に、前記目線が正面を向いていると判定することを特徴とする。 In the above-described image recording apparatus, the predetermined direction is a front direction, and the line-of-sight determination unit determines that the line of sight is facing the front when the pupil region is approximately in the center of the eye region. It is characterized by that.
上記画像記録装置は、前記目線判定手段の判定結果を通知する通知手段をさらに備えることを特徴とする。 The image recording apparatus further includes notification means for notifying the determination result of the eye line determination means.
上記画像記録装置において、前記通知手段は、前記目線判定手段による判定結果に応じて定まる表示属性を有し、前記顔を囲む顔検出枠を、前記画像に合成する顔検出枠合成手段であることを特徴とする。 In the image recording apparatus, the notification unit is a face detection frame synthesizing unit that has a display attribute determined according to a determination result by the eye line determination unit and combines a face detection frame surrounding the face with the image. It is characterized by.
上記画像記録装置において、前記顔検出枠合成手段は、2種類以上の表示属性を有する前記顔検出枠を前記画像に合成することを特徴とする。 In the image recording apparatus, the face detection frame synthesizing unit synthesizes the face detection frame having two or more types of display attributes with the image.
上記画像記録装置は、前記目線判定手段によって前記目線が所定の方向を向いていないと判定された顔を選択する顔選択手段をさらに備え、前記瞳編集手段は、前記顔選択手段によって選択された顔における前記瞳の領域を編集することを特徴とする。 The image recording apparatus further includes a face selection unit that selects a face determined by the line-of-sight determination unit that the line of sight does not face a predetermined direction, and the pupil editing unit is selected by the face selection unit The pupil region in the face is edited.
上記画像記録装置は、外部からの操作に応じた信号を当該画像記録装置に入力する操作入力手段と、前記操作入力手段により、前記顔検出手段によって検出された顔の内のいずれかを選択する選択信号が入力された場合に、当該選択された顔を選択する顔選択手段とをさらに備え、前記瞳編集手段は、前記顔選択手段によって選択された顔における前記瞳の領域を編集することを特徴とする。 The image recording apparatus selects any of the operation input means for inputting a signal corresponding to an operation from the outside to the image recording apparatus and the face detected by the face detection means by the operation input means. Face selection means for selecting the selected face when a selection signal is input, and the pupil editing means edits the pupil region in the face selected by the face selection means. Features.
上記画像記録装置は、外部からの操作に応じた信号を当該画像記録装置に入力する操作入力手段をさらに備え、前記瞳編集手段は、前記操作入力手段によって入力された信号に基づいて、前記目の領域において前記瞳の領域を移動させることを特徴とする。 The image recording apparatus further includes operation input means for inputting a signal corresponding to an operation from the outside to the image recording apparatus, and the pupil editing means is configured to input the eye based on the signal input by the operation input means. In this region, the pupil region is moved.
上記画像記録装置において、前記操作入力手段は、前記表示手段上に重ねて設けられたタッチパネルであり、前記瞳編集手段は、前記タッチパネルに対する前記瞳の領域へのタッチの軌跡に基づいて、前記瞳の領域を移動させることを特徴とする。 In the image recording apparatus, the operation input unit is a touch panel provided on the display unit, and the pupil editing unit is configured to detect the pupil based on a trajectory of touching the pupil region with respect to the touch panel. The region is moved.
上記画像記録装置において、前記操作入力手段は、前記表示手段上に重ねて設けられたタッチパネルであり、前記瞳編集手段は、前記タッチパネル上における前記瞳の領域以外の領域へのタッチの軌跡に基づいて、前記瞳の領域を移動させることを特徴とする。 In the image recording apparatus, the operation input unit is a touch panel provided on the display unit, and the pupil editing unit is based on a trajectory of a touch on a region other than the pupil region on the touch panel. The pupil region is moved.
上記画像記録装置において、前記瞳編集手段は、前記操作入力手段により一方の瞳の領域を移動させる信号が入力された場合に、他方の瞳の領域を連動させて移動させることを特徴とする。 In the image recording apparatus, the pupil editing unit moves the other pupil region in conjunction with each other when a signal for moving the one pupil region is input by the operation input unit.
上記画像記録装置において、前記瞳編集手段は、前記一方の瞳の領域に連動して前記他方の瞳の領域を移動させた後、前記操作入力手段により前記他方の瞳の領域を移動させる信号が入力された場合に、前記一方の瞳の領域を連動させないで、前記他方の瞳の領域のみを移動させることを特徴とする。 In the image recording apparatus, the pupil editing unit moves the other pupil region in conjunction with the one pupil region, and then receives a signal for moving the other pupil region by the operation input unit. In the case of input, only the other pupil region is moved without interlocking the one pupil region.
上記画像記録装置は、前記目の領域において目線を所定の方向に向けた場合の瞳の領域の位置を算出する瞳位置算出手段を更に備え、前記瞳編集手段は、前記目領域検出手段によって検出された前記瞳の領域を、前記瞳位置算出手段によって算出された位置に移動させることを特徴とする。 The image recording apparatus further includes a pupil position calculating unit that calculates a position of a pupil region when the eye line is directed in a predetermined direction in the eye region, and the pupil editing unit is detected by the eye region detecting unit. The pupil area is moved to a position calculated by the pupil position calculating means.
上記画像記録装置において、前記瞳編集手段は、前記瞳の領域を移動させた後、前記瞳の領域の上下に前記目の領域との隙間が生じた場合に、前記瞳の領域を拡大又は拡張することにより前記隙間を補間することを特徴とする。 In the image recording apparatus, the pupil editing unit expands or expands the pupil region when a gap with the eye region is formed above and below the pupil region after the pupil region is moved. Thus, the gap is interpolated.
上記画像記録装置は、撮影レンズを介して被写体を撮像して電子的な画像データを取得する撮像手段と、撮影指示を行うレリーズ手段とをさらに備え、前記記録手段は、前記レリーズ手段による撮影指示に従って撮影を行うことにより取得された画像に対応する画像データを記録すると共に、前記瞳編集手段によって編集された画像に対応する画像データを、元の画像データとは異なるファイル名で記録することを特徴とする。 The image recording apparatus further includes an imaging unit that captures an image of a subject through a photographic lens to acquire electronic image data, and a release unit that issues a shooting instruction. The recording unit includes a shooting instruction by the release unit. Recording the image data corresponding to the image obtained by shooting according to the image data, and recording the image data corresponding to the image edited by the pupil editing unit with a file name different from the original image data. Features.
本発明に係る撮像装置は、撮影レンズを介して被写体を撮像して電子的な画像データを取得する撮像手段と、撮影指示を行うレリーズ手段と、前記画像データに対応する画像を表示する表示手段と、一定の微小な時間間隔で連続的に再生されるライブビュー画像を生成する画像処理手段と、前記レリーズ手段による撮影指示に従って撮影を行うことにより取得された画像を記録する記録手段と、前記画像から顔を検出する顔検出手段と、前記顔検出手段によって検出された顔の範囲から、目の領域及び瞳の領域を検出する目領域検出手段と、前記目の領域における前記瞳の領域の位置に基づいて、前記顔の目線が所定の方向を向いているか否かを判定する目線判定手段と、前記目線判定手段による判定結果に応じた警告表示を前記画像に合成する警告表示合成手段とを備えることを特徴とする。 An image pickup apparatus according to the present invention includes an image pickup unit that picks up an image of a subject through a shooting lens to acquire electronic image data, a release unit that issues a shooting instruction, and a display unit that displays an image corresponding to the image data And image processing means for generating a live view image that is continuously played back at a fixed minute time interval, recording means for recording an image obtained by shooting according to a shooting instruction by the release means, and A face detecting means for detecting a face from the image; an eye area detecting means for detecting an eye area and a pupil area from the range of the face detected by the face detecting means; and an area of the pupil area in the eye area. Based on the position, the eye determination unit that determines whether or not the eye of the face is facing a predetermined direction, and a warning display according to the determination result by the eye determination unit are combined with the image Characterized in that it comprises a warning display combining unit that.
上記撮像装置において、前記所定の方向は正面方向であり、前記目線判定手段は、前記瞳の領域が前記目の領域の略中央にある場合に、前記目線が正面を向いていると判定することを特徴とする。 In the imaging apparatus, the predetermined direction is a front direction, and the line-of-sight determination unit determines that the line of sight is facing the front when the pupil area is approximately in the center of the eye area. It is characterized by.
上記撮像装置は、前記目線判定手段による判定結果に応じて定まる表示属性を有し、前記顔を囲む顔検出枠を、前記画像に合成する顔検出枠合成手段をさらに備えることを特徴とする。 The imaging apparatus further includes a face detection frame synthesizing unit that has a display attribute determined according to a determination result by the eye determination unit, and synthesizes a face detection frame surrounding the face with the image.
上記撮像装置において、前記顔検出枠合成手段は、2種類以上の表示属性を有する前記顔検出枠を前記画像に合成することを特徴とすることを特徴とする。 In the imaging apparatus, the face detection frame synthesizing unit synthesizes the face detection frame having two or more types of display attributes with the image.
上記撮像装置において、前記警告表示合成手段は、所定の属性を有する前記顔検出枠の数を表示することを特徴とする。 In the imaging apparatus, the warning display combining unit displays the number of the face detection frames having a predetermined attribute.
上記撮像装置は、前記目線判定手段による判定結果に応じた警告情報を前記画像に対応する画像データに付加する警告情報付加手段をさらに備えることを特徴とする。 The imaging apparatus further includes warning information adding means for adding warning information corresponding to a determination result by the eye line determination means to image data corresponding to the image.
上記撮像装置は、前記警告情報に基づいて、前記表示手段に表示される画像を選択する画像選択手段をさらに備えることを特徴とする。 The imaging apparatus further includes image selection means for selecting an image displayed on the display means based on the warning information.
上記撮像装置において、前記画像選択手段は、前記警告情報が付加された画像を選択することを特徴とする。 In the imaging apparatus, the image selection unit selects an image to which the warning information is added.
上記撮像装置において、前記画像選択手段は、前記警告情報が付加されていない画像を選択することを特徴とする。 In the imaging apparatus, the image selection unit selects an image to which the warning information is not added.
上記撮像装置は、前記画像選択手段によって選択された画像に対し、前記目の領域における前記瞳の領域の位置を変更することを含む編集を行う瞳編集手段を更に備えることを特徴とする。 The imaging apparatus further includes pupil editing means for performing editing including changing the position of the pupil area in the eye area with respect to the image selected by the image selection means.
本発明によれば、画像から目の領域及び瞳の領域を検出し、目の領域において瞳の領域の位置を変化させる編集を行うので、ユーザは、所望の方向に被写体が目線を向けた画像を容易に取得することができる。また、本発明によれば、一定の微小な時間間隔で連続的に再生されるライブビュー画像に対し、目の領域における瞳の領域の位置に基づいて目線の判定を行い、判定結果に応じた警告表示を行うので、ユーザは、所望の方向に被写体が目線を向けたタイミングで容易に撮像を行うことができる。 According to the present invention, the eye region and the pupil region are detected from the image, and the editing is performed by changing the position of the pupil region in the eye region, so that the user can view the image of the subject in the desired direction. Can be easily obtained. In addition, according to the present invention, the line of sight is determined based on the position of the pupil region in the eye region for a live view image that is continuously played back at a fixed minute time interval, and the determination is made according to the determination result. Since the warning display is performed, the user can easily take an image at a timing when the subject turns his eyes in a desired direction.
以下、図面を参照しながら、本発明を実施するための形態(以下、「実施の形態」という)について説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。また、図面の記載において、同一の部分には同一の符号を付している。
なお、本願において、水平方向とは、画像内の顔の2つの目が並んでいる方向のことをいう。
Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the drawings. The present invention is not limited to the embodiments described below. In the description of the drawings, the same parts are denoted by the same reference numerals.
In the present application, the horizontal direction means a direction in which two eyes of a face in an image are arranged.
(実施の形態1)
図1は、本発明の実施の形態1に係る画像記録装置であるデジタルカメラ(以下、単にカメラという)の構成を示すブロック図である。また、図2は、図1に示すカメラの外観を背面側から示す斜視図である。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of a digital camera (hereinafter simply referred to as a camera) that is an image recording apparatus according to
図2に示すように、カメラ1は、別体で構成された交換レンズ100及びカメラ本体200を備え、交換レンズ100を介して被写体を撮像した画像をカメラ本体100において記録する。交換レンズ100はカメラ本体200の前面のマウント開口部(不図示)に着脱自在となっている。
As shown in FIG. 2, the
カメラ本体200の上面には、撮影を指示するためのレリーズ釦10と、パワースイッチ20と、撮影モードを設定するモードダイヤル11とが配置されている。
レリーズ釦10は、半押しすることより第1レリーズスイッチがオンすると共に、さらに押し込んで全押しすることにより第2レリーズスイッチがオンする2段階スイッチとなっている。カメラ1は、第1レリーズスイッチのオンにより、焦点検出、撮影レンズのピント合わせ、被写体輝度の測光等の撮影準備動作を行い、第2レリーズスイッチのオンにより、後述する撮像素子221の出力に基づいて、被写体像の画像データの取り込みを行う撮影動作を実行する。
On the upper surface of the
The
パワースイッチ20は、カメラ本体200や交換レンズ100のパワー供給を制御するためのパワースイッチレバーに連動している。パワースイッチ20がオン状態となると、カメラ1全体に電源が供給され、カメラ1が動作を開始する。一方、パワースイッチ20がオフ状態となると、カメラ1は低消費電流モード(スリープモードともいう)での動作状態に入る。この低消費電流モードでは、後述するシーケンスコントローラ227は低消費電流で駆動され、気圧センサユニット215、スイッチ検知回路253等の回路以外には電源が供給されない。
The
カメラ本体200の背面には、表示部26及び該表示部上26に重ねて設けられたタッチパネル12と、拡大釦13a、縮小釦13b、再生釦14、メニュー釦15、目線釦16、編集釦17、十字釦18、決定釦19を含む操作釦群とが配置されている。タッチパネル12及び操作釦群13a〜19は、外部からの操作に応じて、所定の指示や情報に対応する信号を入力する操作入力手段に相当する。また、カメラ本体200の背面には、種々のアクセサリーの接続部となるアクセサリーポート29が設けられている。
On the back of the
表示部26は、TFT(薄膜トランジスタ)等のアクティブ素子を用いた液晶パネルや有機EL(Electro Luminescence)といった表示パネルによって実現され、被写体像のライブビュー表示、記録済みの撮影画像の再生表示、メニュー画面の表示等、種々の画像や情報を表示する。なお、実施の形態1において、表示部26はカメラ本体200の背面に配置されるが、撮影者が観察できる位置であれば、背面に限らず配置することができる。また、ライブビュー表示とは、撮像素子221から出力された画像信号に基づいて表示される被写体像の観察用の動画(ライブビュー画像)表示のことである。
The
タッチパネル12は、表示部26に表示される情報に基づいてユーザの指やタッチペン(スタイラス)等の物体が自身に接触(タッチ)した位置を検出し、このタッチ位置及びタッチの軌跡に応じた操作信号を入力する。一般に、タッチパネルとしては、抵抗膜方式、静電容量方式、光学式等がある。実施の形態1においては、いずれの方式のタッチパネルを適用しても良い。
The
拡大釦13aは、表示部26に表示される画像を拡大させる指示信号を入力するための操作釦であり、縮小釦13bは、表示部26に表示される画像を縮小させる指示信号を入力するための操作釦である。
The
再生釦14は、再生モードへの移行、及び再生モードからの抜出を指示する指示信号を入力するための操作釦である。
メニュー釦15は、表示部26にメニューを表示する指示信号を入力するための操作釦である。
The
The
目線釦16は、表示部26に表示された画像内の被写体像の目線を自動又は一括して編集する自動又は一括編集モードへの移行、及び該自動又は一括編集モードからの抜出を指示する指示信号を入力するための操作釦である。
The line-of-
編集釦17は、表示部26に表示された画像内の被写体像の目線をユーザがマニュアルで編集するマニュアル編集モードへの移行、及び該マニュアル編集モードからの抜出を操作するための操作釦である。
The
十字釦18は、上釦18a、下釦18b、左釦18c、右釦18dを含み、表示部26に表示されたカーソルやポインタ等を上下左右に移動させる指示信号を入力するための操作釦である。
決定釦19は、十字釦18等によって選択された項目を決定する指示信号を入力するための操作釦である。
The
The
なお、表示部26に表示されたカーソルやポインタを操作する操作部材としては、タッチパネル12及び十字釦18以外にも、トラックボール、タッチパッド、ポインティングスティック等の種々のポインティングデバイスを用いることができる。これらのポインティングデバイスは、カメラ1に設けても良いし、カメラ1に対して外付けにしても良い。
In addition to the
アクセサリーポート29には、例えばファインダ接眼部、及びファインダ接眼部を介して撮影者が観察可能な位置に配置されたファインダ内表示モニタが設けられたビューファインダ等、種々の付属部品が接続される。なおファインダ内表示モニタとしては、液晶や有機EL等の表示パネルが用いられる。
The
図1に示すように、交換レンズ100をカメラ本体200に装着した状態のとき、通信接点300において両者は電気的に接続される。カメラ本体200内のマウント開口部の近傍には、着脱検知スイッチ259が設けられており、交換レンズ100とカメラ本体200の装着状態を検知する。
As shown in FIG. 1, when the
交換レンズ100内には、焦点調節及び焦点距離調節用の撮影レンズ101a、101bを含む撮影光学系101と、開口量を調節するための絞り103が配置されている。この内、撮影光学系101は光学系駆動機構107に駆動されて、その位置調節がなされる。また、絞り103は絞り駆動機構109に駆動されて、その位置調節がなされる。光学位置検出機構105は、撮影光学系101の位置を検出して、撮影光学系101の焦点調節レンズ位置(ピント位置)及び焦点距離(ズーム位置)を取得する。また、交換レンズ100の周囲には、回動自在な距離環112が設けられている。この距離環112の回動方向(操作方向)及び回動量(操作量)は、エンコーダ110によって検出される。
In the
光学位置検出機構105、光学系駆動機構107、絞り駆動機構109、及びエンコーダ110の各々は、通信接点300を介してカメラ本体200に接続されたレンズコントローラ111に接続されている。レンズコントローラ111は、例えばCPUによって実現され、光学系駆動機構107に対する駆動制御を介してピント合わせ及びズーム駆動を制御すると共に、絞り駆動機構109に対する駆動制御を介して絞り値を制御する。
Each of the optical
また、レンズコントローラ111は、光学位置検出機構105によって取得された焦点調節レンズ位置及び焦点距離に関するレンズ情報をカメラ本体200に送信する。具体的には、交換レンズ100内(又はレンズコントローラ111内)に内蔵された電気的書き換え可能な不揮発性メモリ(図示せず)に、交換レンズ100の焦点距離情報(ズームレンズの場合には、最短焦点距離及び最長焦点距離)、開放絞り値、最小絞り値、撮影可能距離範囲(最至近距離を含む)、レンズの色バランス情報、収差情報、オートフォーカス(AF)に関する情報、装着されたレンズの種類(マクロレンズ、テレコンバータ等)といったレンズ情報が記憶される。なお、レンズ情報は、これらの情報の他、絞り103の絞り状態(開放絞り状態又は絞り込み状態)、距離環112の操作状態(操作方向及び操作量)といった交換レンズ100の状態に関する情報や、絞り駆動機構109による絞り103の絞り込み完了や絞り開放完了、光学系駆動機構107によるレンズ駆動完了の情報といった交換レンズ100の操作状況に関する情報も含む。レンズコントローラ111は、不揮発性メモリに記憶されたこれらのレンズ情報を、通信接点300を介してカメラ本体200に送信する。
In addition, the
カメラ本体200内における撮影光学系101の光軸上(即ち、撮影光路上)には、露光時間制御及び撮像素子221の遮光用のフォーカルプレーンタイプのシャッタ203が配置されている。シャッタ203の動作は、シャッタ駆動機構213によって駆動制御される。被写体の方向から入射し、撮影光学系101によって形成された被写体像に対応する光束は、交換レンズ100とカメラ本体200とが結合するマウント開口部を介してカメラ本体200の方向に導かれ、シャッタ203が開いたタイミングでカメラ本体200内に入射する。
On the optical axis of the photographing
シャッタ203の後方(撮影光学系101とは反対側の方向)には、撮像素子ユニット290が配置されている。撮像素子ユニット290は、防塵フィルタ205、赤外カットフィルタ209、光学的ローパスフィルタ210、及び撮像素子221を、撮影光学系101側からこの順で配置して一体的に構成したユニットであり、塵埃が侵入しないように密封されたパッケージに収納されている。このような撮像素子ユニット290は、ブレ補正駆動機構292により、撮影光学系101の光軸と直交するXY平面内において2次元的に変位される。
An
防塵フィルタ205は、カメラ本体200のマウント開口部や本体内部において発生した塵埃が撮像素子221や光学素子に付着することにより、塵埃の影が被写体像に写し込まれて見苦しい画像となることを防止する。
The
防塵フィルタ205の周縁部の全周又は一部には、防塵フィルタ駆動回路211に接続された圧電素子207が固着されている。圧電素子207は、防塵フィルタ駆動回路211の駆動信号に基づいて、防塵フィルタ205を所定周波数の超音波で振動させる。防塵フィルタ205が超音波で振動することにより、防塵フィルタ205の前面に付着した塵埃が除去される。
A
赤外カットフィルタ209は、被写体像に対応する光束から赤外光成分をカットする。また、光学的ローパスフィルタ210は、被写体光束から高周波成分を取り除く。
The
撮像素子221は、撮影光学系101によって結像された光束を光電変換して、アナログ画像信号を生成する。本実施形態1においては、撮像素子221として、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の2次元固体撮像素子が使用される。
The
また、カメラ本体200は、撮像素子221において生成されたアナログ画像信号を処理する撮像素子駆動回路223、前処理回路225、コントラストAF回路226、ASIC(Application Specific Integrated Circuit 特定用途向け集積回路)262、ブレ補正駆動機構292、アクチュエータ駆動回路294、及びブレ検出部297を備える。
The
撮像素子駆動回路223は、入出力回路239から出力された制御信号に従って、撮像素子221において生成されたアナログ画像信号を読み出し、このアナログ画像信号を増幅すると共に、アナログデジタル変換(AD変換)等の信号処理を行う。
The image
前処理回路225は、撮像素子駆動回路223において信号処理が施された画像信号に対しライブビュー表示のための画素間間引処理等、種々の前処理を行う。
コントラストAF回路226は、前処理回路225から出力された画像信号の高周波成分(コントラスト信号)を抽出する。コントラスト信号を抽出する画像の範囲は、シーケンスコントローラ227によって制御され、例えば、AFターゲット、撮影画面全体、又は拡大表示領域等の領域に対して抽出が行われる。抽出されたコントラスト信号はシーケンスコントローラ227に出力される。
The
The
ASIC262は、データバス261と、このデータバス261に接続されたシーケンスコントローラ(本体側コントローラ)227、画像処理回路229、圧縮伸張回路231、ビデオ信号出力回路233、SDRAM制御回路237、入出力回路239、通信回路241、記録媒体制御回路243、フラッシュメモリ制御回路247、スイッチ検知回路253とを含む。なお、図2においてはコントラストAF回路226をASIC262の外側に設けているが、ASIC262内に設けても良い。
The
シーケンスコントローラ227は、例えばCPUによって実現され、カメラ本体200の各部の動作を制御する。具体的には、シーケンスコントローラ227は、フラッシュメモリ249に記憶されているプログラムに従って、カメラ1全体の動作を制御する。また、シーケンスコントローラ227は、上述したように、コントラストAF回路226からコントラスト信号を入力し、レンズコントローラ111を介して撮影光学系101の自動焦点調節の制御を行う。
The sequence controller 227 is realized by a CPU, for example, and controls the operation of each unit of the
画像処理回路229は、前処理回路225から出力され、データバス261を介して入力されたデジタル画像信号(画像データ)に対し、デジタル的増幅(デジタルゲイン調整処理)、色補正、ガンマ(γ)補正、コントラスト補正、白黒・カラーモード処理、ライブビュー表示用処理といった各種画像処理を施し、画像データの輝度分布や彩度の判定を行う。また、画像処理回路229は、画像データに対応する画像に人物や動物等の被写体像の顔が含まれている場合に、その顔における目線を編集する目線編集処理部230を有する。なお、このような顔検出及び目線の編集は、専用のハードウエアを用いて実行しても良い。
The
図3は、目線編集処理部230の構成を示すブロック図である。目線編集処理部230は、顔検出部230aと、目領域検出部230b、瞳位置算出部230cと、目線判定部230dと、顔検出枠合成部230eと、顔選択部230f、瞳編集部230gとを備える。
FIG. 3 is a block diagram showing a configuration of the eye line
顔検出部230aは、表示部26に表示される画像に顔が含まれるか否かを、パターンマッチング処理等の周知技術を用いて判定する。そして、顔が含まれる場合には、顔の範囲の表示部26における位置座標を取得し、この位置座標を表す顔範囲情報を生成する。このとき、画像中に複数の顔が含まれる場合には、各顔に対応する顔範囲情報が生成される。なお、顔検出部230aは、基本的には人物の顔を検出するが、犬や猫等の動物の顔を検出することとしても良い。
The
目領域検出部230bは、顔範囲情報に基づいて、顔の範囲から目の領域(以下、目領域という)、及び該目領域における瞳の領域(以下、瞳領域という)を検出する。そして、目領域及び瞳領域の輪郭の表示部26における位置座標を取得し、これらの位置座標を表す目領域情報を生成する。
The eye
瞳位置算出部230cは、目領域情報に基づいて、目線を所定の方向に向けた場合の目領域における瞳領域の位置を算出する。具体的には、目領域の水平方向における中央の位置が算出される。 The pupil position calculation unit 230c calculates the position of the pupil region in the eye region when the eye line is directed in a predetermined direction based on the eye region information. Specifically, the center position of the eye area in the horizontal direction is calculated.
目線判定部230dは、目領域検出部230bにおいて検出された目領域及び瞳領域の位置座標と、瞳位置算出部230cにおいて算出された位置に基づいて、検出された顔の目線が所定の方向を向いているか否かを判定する。実施の形態1においては、目線が正面(カメラ1の方向)を向いているか否かを判定するものとし、検出された瞳領域が水平方向における目領域の略中央にある場合に、目線が正面に向いていると判定される。
Based on the position coordinates of the eye region and the pupil region detected by the eye
顔検出枠合成部230eは、顔範囲情報に基づいて、検出された顔をそれぞれ囲む顔検出枠を画像に合成する。その際、顔検出枠合成部230eは、目線判定部230dにより判定が行われた場合に、その判定結果に応じて定まる属性(線の太さ、色、種類、点滅周期等、以下、表示属性という)で表示される顔検出枠を合成する。具体的には、顔検出枠合成部230eは、目線が正面を向いていると判定された顔、及び目線が正面を向いていないと判定された顔に対し、互いに異なる色や線種で表示される顔検出枠を合成する。この場合、顔検出枠合成部230eは、目線判定部230dの判定結果を通知する通知手段に相当する。
The face detection
顔選択部230fは、目線判定部230dの判定結果、及び/又はタッチパネル12や操作釦群13a〜19によって入力された選択信号に基づいて、画像内の1つ又は複数の顔を選択する。
瞳編集部230gは、顔選択部230fによって選択された顔に対し、瞳領域を編集する処理を行う。この編集は、目領域における瞳領域の位置を変更することを含む。
The
The
なお、このような目線編集処理部230は、専用のハードウエアによって実現しても良いし、目線編集処理プログラムをCPUに読み込むことにより実現しても良い。
Note that such a line-of-sight
圧縮伸張回路231は、SDRAM238に記憶された画像データをJPEG、TIFF等の形式で圧縮する。なお、画像圧縮はJPEGやTIFFに限らず、他の圧縮方法を適用しても良い。
The compression / decompression circuit 231 compresses the image data stored in the
ビデオ信号出力回路233は、表示部駆動回路235を介して表示部26(及び、アクセサリーポート29にビューファインダを取り付ける場合には、ファインダ内表示パネル)に接続される。ビデオ信号出力回路233は、SDRAM238又は記録媒体245に記憶された画像データを、表示部26(及び/又はファインダ内液晶モニタ)に表示するためのビデオ信号に変換する。
The video
SDRAM238は、SDRAM制御回路237を介してデータバス261に接続されている。SDRAM238は、画像処理回路229によって画像処理された画像データ又は圧縮伸張回路231によって圧縮された画像データを一時的に記憶するバッファメモリである。
The
入出力回路239は、防塵フィルタ駆動回路211、シャッタ駆動機構213、及び撮像素子駆動回路223に接続され、データバス261を介してシーケンスコントローラ227等の各回路とデータの入出力を制御する。
The input /
通信回路241は、データバス261と接続されると共に、通信接点300を介してレンズコントローラ111と接続されている。通信回路241は、レンズコントローラ111とシーケンスコントローラ227その他の各回路との間のデータの送受信や制御命令の送信等の通信を行う。
The
記録媒体制御回路243は、記録媒体245に接続され、記録媒体245への画像データ等の記録と再生の制御を行う。記録媒体245は、コンパクトフラッシュ(登録商標)、SDメモリカード(登録商標)、又はメモリスティック(登録商標)等の書き換え可能な記録媒体が装填可能となるように構成され、カメラ本体200に対して着脱自在となっている。その他、マイクロドライブ(登録商標)などのハードディスクユニットや無線通信ユニットを接続可能に構成してもよい。
The recording
フラッシュメモリ制御回路247は、フラッシュメモリ(Flash Memory)249に接続される。フラッシュメモリ249は、電気的に書き換え可能な不揮発性メモリであり、カメラの動作を制御するためのプログラムや、制御用の調整値等を記憶する。シーケンスコントローラ227は、フラッシュメモリ249に記憶されたプログラムや調整値等に従ってデジタルカメラの制御を行う。
The flash memory control circuit 247 is connected to a
スイッチ検知回路253は、モードダイヤル11、タッチパネル12、操作釦群13a〜19、パワースイッチ20、及び着脱検知スイッチ259に接続され、これらの各部のスイッチ状態を検知し、或いはこれらの各部から入力された入力信号を受け付けて、データバス261を介して各部に送信する。なお、パワースイッチ20がオフ状態になると、パワースイッチ20以外の操作部材の動作はいずれも検出されない。
The
ブレ補正駆動機構292は、駆動源として圧電素子駆動モータ等からなるアクチュエータを備え、撮像素子ユニット290を撮影光学系101の光軸と直交するXY平面内において2次元的に変位することにより、画像におけるブレを防止する。
アクチュエータ駆動回路294は、ブレ補正駆動機構292内のアクチュエータを駆動する。
The blur
The actuator drive circuit 294 drives the actuator in the shake
ブレ検出部297は、ジャイロを利用した角速度センサ297a、及び角速度検出回路297bを含むブレ検出部297を有する。角速度センサ297aは、カメラ本体200に生じたブレに応じたブレ信号を出力する。角速度検出回路297bは、角速度センサ297aから出力されたブレ信号を増幅すると共にAD変換し、シーケンスコントローラ227に出力する。
The
シーケンスコントローラ227は、ブレ検出部297によって検出されたブレ信号に基づき、カメラ本体200のブレを打ち消すブレ制御信号をアクチュエータ駆動回路294に出力し、ブレ補正駆動機構292内のアクチュエータに対する駆動信号を出力させる。これによりアクチュエータが駆動し、撮像素子221が撮影光学系101の光軸と直交する方向に移動する。その結果、カメラ本体200に加えられたブレが打ち消され、画像の劣化が防止される。なお、このような手ブレ補正の方式は、撮像素子シフト方式と呼ばれる。
The sequence controller 227 outputs a shake control signal for canceling the shake of the
実施の形態1に係るカメラの動作を、図4を参照しながら説明する。図4は、シーケンスコントローラ227によるパワーオンリセット後のカメラ1の動作を示すフローチャートである。カメラ本体200にバッテリが装填され、又は外部電源が接続されると、図4に示す動作がスタートする。
The operation of the camera according to
まず、ステップS01において、カメラ1は、パワースイッチ20がオンであるか否かを判定する。パワースイッチ20がオンである場合(ステップS01:Yes)、カメラ本体200及び交換レンズ100内の各機構や各回路等への電源供給が開始される(S02)。一方、パワースイッチ20がオフである場合(ステップS01:No)、カメラ1は、低消費電力の状態であるスリープ状態となる(ステップS12)。なお、このスリープ状態は、パワースイッチ20のオフからオンによって解除される。
First, in step S01, the
ステップS03において、カメラ1は、レンズ情報を取得する。具体的には、シーケンスコントローラ227が、レンズコントローラ111から通信回路241を介して、光学位置検出機構105によって検出された撮影光学系101の焦点位置情報及び焦点距離情報、並びに、至近側焦点距離・長焦点側焦点距離、開放絞り値、焦点距離毎の露出補正値、周辺光量の補正値(シェーディング)、周辺の色補正値、歪曲収差補正値等の交換レンズ100の固有情報を含むレンズ情報を取得する。この際、中間リング、テレコンバータなどのレンズに関わるアクセサリーに関する情報を、これらのアクセサリーの装着の有無を含めて取得しても良い。
In step S03, the
ステップS04において、カメラ1は、動作モード及びパラメータの設定を行う。具体的には、カメラ本体200が、モードダイヤル11によって設定された撮影モード、ISO感度、操作釦群13a〜19を用いてマニュアル設定されたシャッタ速度、絞り値等の情報に基づいて、撮影条件の読み込みを行う。
In step S04, the
続くステップS05において、カメラ1は、測光及び露光量の演算を行う。詳細には、カメラ1は、撮像素子221の出力に基づいて被写体輝度を求め、この被写体輝度を用いて撮影モード及び撮影条件に従って適正露光となるシャッタ速度や絞り値等の露光制御値を算出する。
In subsequent step S05, the
ステップS06において、カメラ1は、ライブビュー表示を行う。具体的には、画像処理回路229が、撮像素子221から出力された画像信号を取り込んで所定の画像処理を施すことにより、一定の微小な時間間隔で連続的に再生される表示用の画像データを生成する。表示部26は、この表示用の画像データに対応する画像(ライブビュー画像)を表示する。
In step S06, the
ステップS07において、カメラ1は、再生スイッチがオンされたか否かを判定する。即ち、再生釦14に連動する再生スイッチ信号が検出されたか否かが判定される。再生スイッチがオンされた場合(ステップS07:Yes)、カメラ1は、記録媒体245に記録されている画像データに対応する画像を表示部26に再生して表示する(ステップS20)。
In step S07, the
一方、再生スイッチがオンされない場合(ステップS07:No)、又はステップS20の再生動作が終了した場合、カメラ1は、メニュースイッチがオンされたか否かを判定する(ステップS08)。即ち、メニュー釦15に連動するメニュースイッチ信号が検出されたか否かが判定される。
On the other hand, when the playback switch is not turned on (step S07: No), or when the playback operation of step S20 ends, the
メニュースイッチがオンされた場合(ステップS08:Yes)、カメラ1はメニュー設定を行う(ステップS30)。詳細には、カメラ1は、メニュースイッチのオンに応じて、ISO感度、ホワイトバランス、マニュアルフォーカス(MF)モード、オートフォーカス(AF)モード、防振モード等の種々の設定用の画面を表示部26に表示する。カメラ1は、このような画面(タッチパネル12)に対するタッチや、十字釦18及び決定釦19に対する操作により入力された指示信号に応じて、種々のモードやパラメータの設定を行い、設定されたモードを各部に実行させる。例えば、防振モードが設定された場合、ライブビュー動作中及び撮影動作時に防振動作が実行される。
When the menu switch is turned on (step S08: Yes), the
一方、メニュースイッチがオンされない場合(ステップS08:No)、又はステップS30のメニュー設定が終了した場合、カメラ1は、第1レリーズスイッチ(1Rスイッチ)がオンされたか否かを判定する(ステップS09)。具体的には、レリーズ釦10の半押しによる第1レリーズスイッチ信号が検出されたか否かが判定される。
On the other hand, when the menu switch is not turned on (step S08: No), or when the menu setting at step S30 is completed, the
第1レリーズスイッチがオンされた場合(ステップS09:Yes)、カメラ1は撮影を実行する(ステップS40)。具体的には、カメラ1は、例えばAFモードに設定されている場合、コントラストAFによって撮影光学系101のピント合わせを行い、測光及び露出演算により適正露光となる露出制御値の演算を行う。そして、レリーズ釦10の全押しにより第2レリーズスイッチがオンされた際に露出動作を行い、撮像によって取得された静止画の画像データを記録媒体245に記録する。
When the first release switch is turned on (step S09: Yes), the
一方、第1レリーズスイッチがオンされない場合(ステップS09:No)、又は、ステップS40の撮影が終了した場合、カメラ1は、パワースイッチ20がオンであるか否かを判定する(ステップS10)。パワースイッチ20がオンである場合(ステップS10:Yes)、動作はステップS05に戻る。一方、パワースイッチ20がオフされた場合(ステップS10:No)、カメラ1はパワーオフモードとなり、電源供給が停止する(ステップS11)。その後、動作はステップS12に移行する。
On the other hand, when the first release switch is not turned on (step S09: No), or when the photographing at step S40 is completed, the
次に、カメラ1の再生動作(ステップS20)について、図5を参照しながら説明する。図5は、カメラ1の再生動作を示すフローチャートである。
まず、ステップS201において、カメラ1は、記録媒体245に記録された画像データを読み出す。このとき、カメラ1は、最新の撮影画像に対応する画像データを読み出す。
Next, the reproduction operation (step S20) of the
First, in step S <b> 201, the
続くステップS202において、カメラ1は、読み出した画像データに対応する画像を表示部26に表示する。図6は、表示部26に表示された画像の例である。以下においては、一例として、図6に示す画像G1に対する処理を説明する。画像G1は、顔F01〜F05を有する被写体像を含む。
ステップS203において、顔検出部230aは、表示部26に表示された画像から顔F01〜F05を検出する。
In subsequent step S <b> 202, the
In step S203, the
ステップS204において、目領域検出部230bは、検出された各顔F01〜F05から目領域及び瞳領域を検出する。詳細には、目領域検出部230bは、各顔F01〜F05の顔範囲情報に基づいて顔の範囲内の色情報を取得し、白色(白目の色)と周囲の肌色との境界を検出して、この境界を目領域の輪郭とする。続いて、目領域検出部230bは、目領域内から黒色(又は茶色や灰色)の領域を検出し、この黒色の領域の輪郭を瞳領域の輪郭とする。目領域検出部230bは、目領域及び瞳領域の輪郭の位置座標を目領域情報として生成する。
In step S204, the eye
ステップS205において、目線判定部230dは、目領域情報に基づいて、各顔F01〜F05の目線が正面を向いているか否かを判定する。
この目線の判定方法を、図7を参照しながら説明する。図7は、図6に示す顔F05を含む被写体像の一部を拡大して示す図である。通常、左右両眼において、瞳領域PR、PLが目領域ER、ELの略中央にある場合、目線が正面を向いているように見える。そこで、瞳位置算出部230cは、被写体像から見て右(紙面に向かって左)の瞳領域PRの中心から目領域ERの外側(目尻側)の端部までの距離LR(OUT)と、右の瞳領域PRの中心から目領域ERの内側(目頭側)の端部までの距離LR(IN)と、被写体像から見て左(紙面に向かって右)の瞳領域PLの中心から目領域ELの内側の端部までの距離LL(IN)と、左の瞳領域PLの中心から目領域ELの外側の端部までの距離LL(OUT)とを取得し、次式(1)を用いて評価値Wを算出する。
This eye-gaze determination method will be described with reference to FIG. FIG. 7 is an enlarged view showing a part of the subject image including the face F 05 shown in FIG. Usually, in both the left and right eyes, when the pupil regions P R and P L are approximately in the center of the eye regions E R and E L , the eyes appear to face the front. Therefore, the pupil position calculating unit 230c, the distance L R (OUT to the end of the outer center from the eye region E R of the pupil region P R of right as viewed from the subject image (left in the drawing sheet) (eye area side) a) pupils and inner center from the eye region E R of the right pupil region P R (distance to the end of the inner corner side) L R (iN), the left as viewed from the subject image (right in the drawing sheet) a region P L the distance from the center to the inside edge of the eye region E L of the L L (iN), the distance from the center of the left pupil region P L to the outer edge of the eye region E L L L (OUT ) And the evaluation value W is calculated using the following equation (1).
目線判定部230dは、この評価値Wの値及び次式(2)に基づいて目線を判定する。即ち、評価値Wが次式(2)を満たす場合、目線が正面を向いていると判定される。
0.8≦W≦1.2 …(2)
評価値Wが1.0と等しい場合、瞳領域PR、PLはそれぞれの目領域ER、ELの中心にあり、目線は真正面を向いていることになる。また、評価値Wが上式(2)の範囲内である場合、瞳領域PR、PLはそれぞれの目領域ER、ELの略中央にあり、目線はほぼ正面を向いていることになる。
The eye
0.8 ≦ W ≦ 1.2 (2)
When the evaluation value W is equal to 1.0, the pupil regions P R and P L are at the centers of the respective eye regions E R and E L , and the eye line is facing directly in front. Further, when the evaluation value W is within the range of the above formula (2), the pupil regions P R and P L are substantially in the center of the respective eye regions E R and E L , and the eye line is substantially facing the front. become.
ステップS206において、顔検出枠合成部230eは、顔範囲情報に基づいて、各顔の範囲を囲む顔検出枠を生成し、ステップS205における判定結果に応じた表示属性を付与して画像に合成する。
In step S206, the face detection
図8は、目線の判定結果と顔検出枠の表示属性との対応を示す表である。図8に示すように、顔検出枠の表示属性には、線の太さ、線の色、線の種類、枠の形状、点滅周期等がある。線の太さとしては、例えば細線、太線、中線を用いることができ、目線が正面から外れている(よそ見している)と判定された顔のようにユーザの注意を引きたい顔に対しては線の太い枠を合成すると良い。線の色としては、緑色、赤色、黄色等を用いることができ、ユーザの注意を引きたい顔には赤色の枠を合成すると良い。線の種類(1)としては、連続線、破線、一点鎖線等を用いることができる。別の線の種類(2)としては、一重線、二重線、三重線等を用いることができ、ユーザの注意を引きたい顔には重ねる線の数を増やした枠(例えば三重線の枠)を合成すると良い。枠の形状としては、円形、四角形、5角形以上の多角形(例えば6角形)等を用いることができ、ユーザの注意を引きたい顔には角数が少ない枠(例えば3角形や4角形の枠)を合成すると良い。点滅周期としては、点灯(点滅しない)、4Hzで点滅、1Hzで点滅等を適用することができる。 FIG. 8 is a table showing correspondence between eye-gaze determination results and face detection frame display attributes. As shown in FIG. 8, the display attributes of the face detection frame include line thickness, line color, line type, frame shape, blinking cycle, and the like. As the thickness of the line, for example, a thin line, a thick line, or a middle line can be used. For a face that is determined to have the eye line deviated from the front (looking away), the face that the user wants to draw attention to. For example, a thick frame should be combined. As the color of the line, green, red, yellow, or the like can be used, and it is preferable to synthesize a red frame on the face that the user wants to attract attention. As the line type (1), a continuous line, a broken line, a one-dot chain line, or the like can be used. As another line type (2), a single line, a double line, a triple line, or the like can be used, and a frame (for example, a triple line frame) in which the number of lines to be overlapped is increased on the face that the user wants to attract attention. ). As the shape of the frame, a circle, a quadrilateral, a pentagon or more polygon (for example, a hexagon) or the like can be used. Frame). As the blinking cycle, lighting (not blinking), blinking at 4 Hz, blinking at 1 Hz, or the like can be applied.
顔検出枠合成部230eは、目線が正面を向いていると判定された顔に対し、例えば、細線、緑色、連続線、一重線、円形状、若しくは点灯、又はこれらを組み合わせた表示属性を有する顔検出枠を合成する。また、顔検出枠合成部230eは、よそ見していると判定された顔に対し、例えば、太線、赤色、破線、三重線、四角形状、若しくは4Hzの点滅、又はこれらを組み合わせた表示属性を有する顔検出枠を合成する。さらに、後述するように、目線を編集した後の顔に対しては、例えば、中線、黄色、一点鎖線、二重線、6角形状、若しくは1Hzの点滅、又はこれらを組み合わせた表示属性を有する顔検出枠を合成する。なお、様々なユーザ(例えば、色弱)に対応するため、複数種類の表示属性を組み合わせることが好ましい。
The face detection
図9は、顔検出枠が合成された画像G1を示す模式図である。図9において、目線が正面を向いていると判定された被写体象F02、F03に対しては、例えば実線(又は実線且つ緑色等)の顔検出枠a02、a03が合成される。一方、目線が正面から外れている(よそ見をしている)と判定された被写体像F01、F04、F05に対しては、例えば破線(又は破線且つ赤色等)の顔検出枠b01、b04、b05が合成される。なお、カメラ1は、画像G1内に警告表示エリアMを設け、よそ見していると判定された顔が存在する場合に、その旨をユーザに警告するメッセージを警告表示エリアMに表示しても良い。
FIG. 9 is a schematic diagram illustrating an image G1 in which face detection frames are combined. In FIG. 9, for example, solid lines (or solid lines and green, etc.) face detection frames a 02 and a 03 are combined with the subject images F 02 and F 03 for which it is determined that the eyes are facing the front. On the other hand, for the subject images F 01 , F 04 , F 05 determined that the line of sight is deviated from the front (looking away), for example, a broken line (or broken line and red, etc.) face detection frame b 01 , B 04 , b 05 are synthesized. Note that the
ステップS207において、カメラ1は、十字釦18が操作されたか(十字釦18から操作信号か入力されたか)否かを判定する。十字釦18が操作された場合(ステップS207:Yes)、カメラ1は、表示部26に表示する画像を変更する(ステップS220)。具体的には、カメラ1は、十字釦18の内の上釦18aから信号が入力された場合、10コマ前の画像に対応する画像データを記録媒体245から読み出す。また、下釦18bから信号が入力された場合、10コマ後の画像に対応する画像データを記録媒体245から読み出す。また、左釦18cから信号が入力された場合、1コマ前の画像に対応する画像データを記録媒体245から読み出す。さらに、右釦18dから信号が入力された場合、1コマ後の画像に対応する画像データを記録媒体245から読み出す。
In step S207, the
一方、十字釦18が操作されない場合(ステップS207:No)、カメラ1は、拡大釦13a又は縮小釦13bが操作されたか否かを判定する(ステップS208)。拡大釦13a又は縮小釦13bが操作された場合(ステップS208:Yes)、カメラ1は、表示部26に表示する画像の表示範囲を変更する(ステップS230)。具体的には、カメラ1は、拡大釦13aから信号が入力された場合、表示部26に表示されている画像の表示範囲を中央部の所定範囲に縮小し、該所定範囲を表示部26に拡大表示する。一方、カメラ1は、縮小釦13bから信号が入力された場合、表示部26に表示される画像の範囲を外周側の所定範囲に拡大し、該所定範囲を表示部26に縮小表示する。このとき、既に表示部26に画像が等倍表示されている場合には、カメラ1は、サムネイル画像を複数枚並べて(例えば、2行2列、3行3列、4行4列等に配置)表示するインデックス画像表示(後述する図22参照)を行う。さらに、カメラ1は、十字釦18からの信号を検出した場合、検出した釦(上釦18a、下釦18b、左釦18c、右釦18d)の向きに応じて、表示部26に表示される画像の表示範囲を移動させる。
On the other hand, when the
拡大釦13a又は縮小釦13bが操作されない場合(ステップS208:No)、カメラ1は、編集釦17が操作されたか否かを判定する(ステップS209)。編集釦17が操作された場合(ステップS209:Yes)、カメラ1は、表示中の画像から検出された顔の目線をマニュアル編集する(ステップS250)。
When the enlarge
一方、編集釦17が操作されることなく(ステップS209:No)、目線釦16が操作された場合(ステップS210:Yes)、カメラ1は、表示中の画像において検出された顔の目線を自動又は一括編集する(ステップS270)。
On the other hand, when the
その後、再生釦14が操作された場合(ステップS211:Yes)、カメラ1の動作はメインルーチンに戻る。一方、再生釦14が操作されない場合(ステップS211:No)、カメラ1の動作はステップS202に戻る。
Thereafter, when the
次に、目線のマニュアル編集(ステップS250)について、図10を参照しながら詳細に説明する。図10は、カメラ1の目線のマニュアル編集動作を示すフローチャートである。なお、以下においては、例として、図9に示す画像G1に対する処理を説明する。
Next, manual editing of the line of sight (step S250) will be described in detail with reference to FIG. FIG. 10 is a flowchart showing the manual editing operation of the eye line of the
まず、ステップS251において、カメラ1は、ユーザの指やタッチペン等の物体によりタッチパネル12がタッチされたか否かを判定する。タッチパネル12がタッチされた場合(ステップS251:Yes)、続いてカメラ1は、画像G1に表示された顔のいずれかがタッチされたか否かを判定する(ステップS252)。詳細には、目線編集処理部230が、タッチされた位置座標が顔検出枠a01〜a05のいずれの範囲に含まれるかを判定する。
First, in step S251, the
いずれかの顔がタッチされた場合(ステップS252:Yes)、瞳編集部230gは、タッチされた顔の目領域情報を取得する(ステップS253)。詳細には、顔選択部230fが、タッチされた位置座標が含まれる顔検出枠を選択し、瞳編集部230gが、選択された顔検出枠に対応する目領域情報を取得する。なお、この際、顔検出枠合成部230eは、選択された顔検出枠の表示属性を変化させ、選択中の顔検出枠をユーザが認識できるようにしても良い。例えば、選択された顔検出枠の線幅を太くしたり、点滅表示したりすると良い。
When any face is touched (step S252: Yes), the
ステップS254において、カメラ1は、タッチパネル12に対して物体によるタッチの移動があったか否かを判定する。タッチの移動があった場合(ステップS254:Yes)、瞳編集部230gは、タッチの軌跡に応じて、瞳領域を編集する(ステップS255)。
In step S <b> 254, the
具体例として、図6に示す画像G1において顔検出枠a05に対応する被写体像F05が選択された場合を説明する。図11は、顔検出枠a05の領域の拡大図である。なお、瞳領域を編集する際には、ステップS208において拡大釦13aを操作し、予め画像を拡大表示しておくと良い(ステップS230)。
As a specific example, a case where the object image F 05 corresponding to the face detection frame a 05 in the image G1 shown in FIG. 6 is selected. FIG. 11 is an enlarged view of the area of the face detection frame a 05 . When editing the pupil region, it is preferable to enlarge the image in advance by operating the
図11に示すように、右の瞳領域PR及び左の瞳領域PLは、それぞれ、右の目領域ER及び左の目領域ELの端部にあるため、顔F05は、目線が正面を向いていないように見える。 As shown in FIG. 11, the pupil regions P R and the left pupil region P L of the right, respectively, since the end portion of the right eye area E R and the left eye area E L, the face F 05 is Looking Seems to be not facing the front.
このような画像に対し、ユーザが物体(図11においては自身の指)2によって一方の瞳領域(図11においては右側の瞳領域PR)にタッチし、タッチの位置を水平方向に移動させる操作を行う。これに応じて、瞳編集部230gは、タッチされた瞳領域をタッチの軌跡に応じた位置に移動させる。具体的な画像処理は、以下のとおりである。まず、瞳編集部230gは、図12(a)に示すように、当初の瞳領域PRを周囲の白色と同じ色で塗りつぶす。続いて、図12の(b)に示すように、タッチの移動が停止した座標を中心とし、当初の瞳領域PRの半径rを半径とする円を描画し、当初の瞳領域PRと同じ色で塗りつぶす。これが移動後の瞳領域PRとなる。なお、瞳領域PRの移動可能な範囲は目領域ER内に限定される。そのため、瞳編集部230gは、タッチの軌跡が目領域ERを超過した場合、瞳領域PRを移動させる処理を実行しない。或いは、このような場合、超過した側の目領域ERの端部に瞳領域PRを配置しても良い。
For such images, the user touches the object (right side of the pupil region P R in FIG. 11) one of the pupil region by (own finger 11) 2, to move the position of a touch in the horizontal direction Perform the operation. In response to this, the
ここで、一般的に、目領域ERの中央付近における幅hcは、端部付近における幅heよりも大きい。そのため、目領域ERの端部にあった瞳領域PRを、幅d1のまま中央付近に移動させると、瞳領域PRの上下に目領域ERとの隙間gap1、gap2が生じてしまう。そこで、瞳編集部230gは、瞳領域PRを幅hcに合わせて拡大し、又は、瞳領域PRの周囲を瞳領域PRの端部領域と同じ色で描画して拡張することにより、目領域ERとの隙間gap1、gap2が補間された瞳領域PR’を生成する(図12(c)参照)。
Here, in general, the width h c in the vicinity of the center of the eye region E R, larger than the width h e in the vicinity of the end portion. Therefore, the pupil region P R that were in the end of the eye region E R, is moved to the vicinity of the center left width d 1, gap gap 1, gap 2 between the eye area E R and below the pupil area P R It will occur. Therefore, the
さらに、瞳編集部230gは、タッチされた側とは反対側(図11においては左側)の瞳領域PLを、瞳領域PRと連動させ水平方向に移動させる。このとき、瞳領域PLの位置は、瞳領域PLの中心から目領域ELの両端までの距離の比率が、瞳領域PR’の中心Cから目領域ERの両端までの距離L1、L2の比率と等しくなるように決定される。それにより、右目と左目における目線の方向が揃えられる。また、移動後の瞳領域PLの上下に目領域ELとの隙間が生じる場合には、瞳領域PLを拡大又は拡張して、目領域ELとの間の隙間が補間された瞳領域PL’を生成する。それにより、顔F05の目線を正面に向けることができる。
Furthermore, the
ステップS256において、カメラ1は、目線編集処理部230によって編集された編集画像を表示部26に表示する。また、この際に、顔検出枠合成部230eは、編集後の顔に合成される顔検出枠の表示属性を変更する(図8参照)。図13は、顔F05の瞳領域が編集された画像を示している。図13に示す画像G2においては、顔F05に対し、編集後であることを示す例えば一点鎖線(又は一点鎖線且つ黄色等)の顔検出枠c05が合成されている。
In step S <b> 256, the
ステップS257において、カメラ1は、決定釦19が操作されたか否かを判定する。決定釦19が操作された場合(ステップS257:Yes)、カメラ1は、編集画像に対応する画像データを、元の画像に対応する画像データとは異なるファイル名で記録媒体245に記録する(ステップS258)。
In step S257, the
一方、タッチパネル12がタッチされない場合(ステップS251:No)、又はタッチパネル12上の顔以外の領域がタッチされた場合(ステップS252:No)、編集釦17が操作された際に(ステップS261:Yes)、カメラ1の動作はメインルーチンに戻る。一方、編集釦17が操作されない場合(ステップS261:No)、カメラ1は、タッチパネル12がタッチされるのを待機する。
On the other hand, when the
また、タッチの移動が検出されない場合(ステップS254:No)、又は、決定釦19が操作されない場合(ステップS257:No)、編集釦17が操作された際に(ステップS262:Yes)、カメラ1の動作はメインルーチンに戻る。この場合、瞳位置の編集は破棄される。
Further, when the movement of the touch is not detected (step S254: No), or when the
一方、編集釦17が操作されない場合(ステップS262:No)、カメラ1の動作はステップS254に戻る。この場合、ユーザは、タッチパネル12に対するタッチ操作により、瞳位置を再度編集することができる。瞳編集部230gは、2回目以降に瞳編集処理を行う際、1回目にタッチされた側と同じ側の瞳領域(上記説明においては、右側の瞳領域PR)に対するタッチの移動操作があった場合、タッチの軌跡に応じてタッチされた側の瞳領域を移動させると共に、他方の瞳領域も連動して移動させる。一方、瞳編集部230gは、1回目にタッチされた側とは反対側の瞳領域(上記説明においては、左側の瞳領域PL)に対するタッチの移動操作があった場合、タッチの軌跡に応じてタッチされた側の瞳領域のみを移動させ、もう一方は連動させない。これにより、ユーザは、他方の瞳領域(瞳領域PR)へのタッチ操作に連動して移動した瞳領域(瞳領域PL)の位置を微調整することができる。
On the other hand, when the
次に、目線の自動又は一括編集(ステップS270)について、図14及び図15を参照しながら詳細に説明する。図14は、目線の自動又は一括編集を選択するためのメニュー画面の表示例である。また、図15は、カメラ1の目線の自動又は一括編集動作を示すフローチャートである。なお、以下においては、例として、図9に示す画像G1に対する処理を説明する。
Next, the automatic or batch editing of the line of sight (step S270) will be described in detail with reference to FIGS. FIG. 14 is a display example of a menu screen for selecting automatic or batch editing of eyes. FIG. 15 is a flowchart showing an automatic or batch editing operation of the line of sight of the
ステップS271において、カメラ1は、表示中の画像に対する目線編集メニューを表示部26に表示する。図14に示す目線編集メニューM1には、各顔の目線を個別に自動編集するモード(個別自動編集モード)を選択するためのアイコンI1と、全ての顔の目線を自動編集するモード(全自動編集モード)を選択するためのアイコンI2と、全ての顔の目線を一括してマニュアル編集するモード(マニュアル一括編集モード)を選択するためのアイコンI3と、キャンセルアイコンI4とが表示されている。ユーザは、このような目線編集メニューM1に対し、上釦18a、下釦18b、及び決定釦19に対する操作や、タッチパネル12に対するタッチ操作により、所望のアイコンI1〜I4を選択することができる。それにより、ユーザ所望の目線編集モードを選択する選択信号が入力される。
In step S <b> 271, the
カメラ1は、個別自動編集モードの選択信号を検出した場合(ステップS272:Yes)、続いて、タッチパネル12がタッチされたか否かを判定する(ステップS273)。タッチパネル12がタッチされた場合(ステップS273:Yes)、さらにカメラ1は、よそ見していると判定された顔がタッチされたか否かを判定する(ステップS274)。具体的には、目線編集処理部230は、タッチされた位置座標が、顔検出枠b01、b04、b05のいずれの範囲に含まれるかを判定する。
When the
よそ見していると判定された顔がタッチされた場合(ステップS274:Yes)、目線編集処理部230は、タッチされた顔の瞳領域を自動編集する(ステップS275)。詳細には、まず、顔選択部230fが、タッチされた顔を選択し、瞳位置算出部230cが、選択された顔の目領域の中心座標を算出する。続いて瞳編集部230gが、瞳領域の中心座標が、目領域の中心座標と一致するように、瞳領域を水平方向に移動させる。なお、具体的な画像処理については、ステップS254において説明したものと同様である。さらに、瞳編集部230gは、瞳領域と目領域との間に隙間が生じる場合に、瞳領域を拡大又は拡張して隙間を補間する(図12(c)参照)。
When the face determined to be looking away is touched (step S274: Yes), the eye line
ステップS276において、カメラ1は、瞳編集部230gによって編集された編集画像を表示部26に表示する。また、この際に、顔検出枠合成部230eは、瞳領域の編集後の顔に合成される顔検出枠の表示属性を変更する。それにより、顔F05の瞳領域が自動編集された画像が生成される。このとき、顔F05に対しては、図13と同様に、編集後であることを示す例えば一点鎖線(又は一点鎖線且つ黄色等)の顔検出枠c05が合成される。
In step S276, the
ステップS277において、カメラ1は、決定釦19が操作されたか否かを判定する。決定釦19が操作された場合(ステップS277:Yes)、カメラ1は、編集画像に対応する画像データを、元の画像に対応する画像データとは異なるファイル名で記録媒体245に記録する(ステップS278)。
In step S277, the
一方、タッチパネル12がタッチされない場合(ステップS273:No)、目線が外れた顔がタッチされない場合(ステップS274:No)、又は、決定釦19が操作されない場合(ステップS277:No)、カメラ1は、編集釦17が操作されたか否かを判定する(ステップS279)。編集釦17が操作された場合(ステップS279:Yes)、カメラ1の動作はメインルーチンに戻る。一方、編集釦17が操作されない場合(ステップS279:No)、カメラ1の動作はステップS273に戻る。
On the other hand, when the
ステップS272において個別自動編集モードの選択信号が検出されない場合(ステップS272:No)、カメラ1は、全自動編集モードの選択信号が検出されたか否かを判定する(ステップS280)。
When the selection signal for the individual automatic editing mode is not detected in step S272 (step S272: No), the
全自動編集モードの選択信号が検出された場合(ステップS280:Yes)、目線編集処理部230は、よそ見している全ての顔に対し、瞳領域の位置の自動編集を行う(ステップS281)。詳細には、まず顔選択部230fが、よそ見している全ての顔(図9においては、顔F01、F04、F05)を選択し、瞳位置算出部230cが、選択された各顔の目領域の中心座標を算出する。続いて瞳編集部230gが、各顔に対して、瞳領域の中心座標が、目領域の中心座標と一致するように、瞳領域を水平方向に移動させる。なお、具体的な画像処理については、ステップS254において説明したものと同様である。さらに、瞳編集部230gは、瞳領域と目領域との間に隙間が生じる場合に、瞳領域を拡大又は拡張して隙間を補間する(図12(c)参照)。
When the selection signal for the fully automatic editing mode is detected (step S280: Yes), the eye line
ステップS282において、カメラ1は、瞳編集部230gによって編集された編集画像を表示部26に表示する。また、この際に、顔検出枠合成部230eは、瞳領域の編集後の顔に合成される顔検出枠の表示属性を変更する。図16は、顔F01、F04、F05の瞳領域が自動編集された画像を示す。図16に示す画像G3においては、顔F01、F04、F05に対し、編集後であることを示す例えば一点鎖線(又は一点鎖線且つ黄色等)の顔検出枠c01、c04、c05が合成されている。
In step S282, the
ステップS283において、カメラ1は、決定釦19が操作された否かを判定する。決定釦19が操作された場合(ステップS283:Yes)、カメラ1の動作はステップS278に移行する。一方、決定釦19が操作されない場合(ステップS283:No)、続いてカメラ1は、編集釦17が操作されたか否かを判定する(ステップS284)。編集釦17が操作された場合(ステップS284:Yes)、カメラ1の動作はメインルーチンに戻る。この場合、瞳領域の編集は破棄される。一方、編集釦17が操作されない場合(ステップS284:No)、カメラ1の動作はステップS283に戻る。
In step S283, the
ステップS280において全自動編集モードの選択信号が検出されない場合(ステップS280:No)、カメラ1は、マニュアル一括編集モードに入る(ステップS285)。ここで、マニュアル一括編集モードとは、画像内において検出された顔のいずれかに対し、ユーザがマニュアルで瞳領域を編集した場合に、他の全ての顔に対して同様の編集がなされる編集モードのことである。
When the selection signal for the fully automatic editing mode is not detected in step S280 (step S280: No), the
この場合、ステップS286において、カメラ1は、タッチパネル12がタッチされたか否かを判定する。タッチパネル12がタッチされた場合(ステップS286:Yes)、続いてカメラ1は、画像に表示された顔の内のいずれかがタッチされたか否かを判定する(ステップS230)。詳細には、目線編集処理部230が、タッチされた位置座標が顔検出枠b01、a02、a03、b04、b05のいずれの範囲に含まれるのかを判定する。
In this case, in step S286, the
いずれかの顔がタッチされた場合(ステップS287:Yes)、瞳編集部230gは、タッチされた顔の目領域情報を取得する(ステップS288)。詳細には、顔選択部230fが、タッチされた位置座標が含まれる顔検出枠を選択し、瞳編集部230gが、選択された顔検出枠に対応する目領域情報を取得する。
When any face is touched (step S287: Yes), the
続くステップS289において、カメラ1は、タッチパネル12に対してタッチの移動があったか否かを判定する。タッチの移動があった場合(ステップS289:Yes)、瞳編集部230gは、タッチの軌跡に応じて瞳領域を編集する(ステップS290)。なお、ステップS290における詳細な処理は、ステップS255と同様である。
In
ステップS291において、瞳編集部230gは、さらに、選択された顔に対する瞳領域の編集と同様にして、他の全ての顔の瞳領域の編集を行う。詳細には、瞳編集部230gは、編集済みの瞳領域の中心と目領域の両端との距離L1、L2を取得し(図12(c)参照)、両者の比率L1/L2を算出する。そして、他の顔においても、瞳領域の中心と目領域の両端の比率が同じ比率L1/L2となるように瞳領域を移動させる。さらに、瞳編集部230gは、瞳領域と目領域との間に隙間が生じる場合には、瞳領域を拡大又は拡張して隙間を補間する(図12(c)参照)。
In step S291, the
ステップS292において、カメラ1は、瞳編集部230gにおいて編集された編集画像を表示部26に表示する。また、この際に、顔検出枠合成部230eは、瞳領域の編集後の顔に合成される顔検出枠の表示属性を変更する。図17は、全ての顔F01〜F05の目線が右方向(紙面に向かって左方向)を向くように編集された画像を示す。図17に示す画像G4においては、顔F01〜F05に対し、編集後であることを示す例えば一点鎖線(又は一点鎖線且つ黄色等)の顔検出枠c01〜c05が合成されている。
In step S292, the
ステップS293において、カメラ1は、決定釦19が操作されたか否かを判定する。決定釦19が操作された場合(ステップS293:Yes)、カメラ1の動作はステップS278に移行する。
In step S293, the
一方、タッチパネル12がタッチされない場合(ステップS286:No)、又は、顔に対するタッチがない場合(ステップS287:No)、カメラ1は、編集釦17が操作されたか否かを判定する(ステップS294)。編集釦17が操作された場合(ステップS294:Yes)、カメラ1の動作はメインルーチンに戻る。一方、編集釦17が操作されない場合(ステップS294:No)、カメラ1は、タッチパネル12がタッチされるのを待機する。
On the other hand, when the
また、タッチの移動がない場合(ステップS289:No)、又は、決定釦19が操作されない場合(ステップS293:No)、カメラ1は、編集釦17が操作されたか否かを判定する(ステップS295)。編集釦17が操作された場合(ステップS295:Yes)、カメラ1の動作はメインルーチンに戻る。一方、編集釦17が操作されない場合(ステップS295:No)、カメラ1の動作はステップS286に戻る。
When there is no touch movement (step S289: No), or when the
以上説明したように、実施の形態1によれば、画像から検出された顔の目領域に対して瞳領域を移動させるので、被写体像の目線が所望の方向を向いた画像を生成することが可能となる。 As described above, according to the first embodiment, since the pupil region is moved with respect to the eye region of the face detected from the image, it is possible to generate an image in which the line of sight of the subject image is in a desired direction. It becomes possible.
また、実施の形態1によれば、目線を個別にマニュアル編集するモードにおいて、タッチパネル12へのタッチ操作により、瞳領域を所望の位置に移動させるので、瞳領域の位置の微調整が可能となる。また、最初にタッチした側の瞳領域と連動して、タッチしなかった側の瞳領域を移動させるので、左右の目線を簡単に揃えることができる。さらに、タッチしなかった側の瞳領域を移動させる際には、他方の瞳領域を固定しておくので、目線の微妙な調節が可能となる。
Further, according to the first embodiment, in the mode in which the eye line is individually manually edited, the pupil area is moved to a desired position by a touch operation on the
また、実施の形態1によれば、目線を自動編集するするモードにおいて、瞳領域を目領域の中央に配置するので、簡単な操作により目線を正面に向けることができる。 Further, according to the first embodiment, in the mode for automatically editing the eye line, the pupil area is arranged at the center of the eye area, so that the eye line can be directed to the front by a simple operation.
なお、上記実施の形態1においては、タッチパネル12に対するタッチにより、編集対象の顔を選択したが、十字釦18及び決定釦19の操作によって顔検出枠を選択することにより、編集対象の顔を選択しても良い。
In the first embodiment, the face to be edited is selected by touching the
(変形例1−1)
実施の形態1においては、目線をマニュアル編集する際に、直接指やタッチペン等により瞳領域を直接タッチして移動させたが、移動させたい瞳領域とタッチの位置とは必ずしも一致していなくても良い。例えば、図18に示すように、編集対象の顔F05以外の領域(顔F05の近傍又はタッチパネル12上の所定領域)に、瞳領域の編集用のタッチ領域ATを設けても良い。この場合、ユーザが、予め編集対象の顔(例えば顔F05)をタッチして編集位置を指定した後、編集用のタッチ領域ATに対するタッチ操作を行うと、瞳編集部230gは、タッチ領域ATへのタッチの軌跡に応じて、編集対象の顔(顔F05)における瞳領域(例えば瞳領域P05)を移動させる。この変形例1によれば、ユーザは、自身の指等に妨げられることなく、瞳領域P05を観察しながらタッチ位置を移動させることができるので、瞳領域P05の微調整を容易に行うことができる。
(Modification 1-1)
In the first embodiment, when manually editing the line of sight, the pupil area is directly touched and moved with a finger, a touch pen, or the like, but the pupil area to be moved and the touch position do not necessarily match. Also good. For example, as shown in FIG. 18, a touch area AT for editing a pupil area may be provided in an area other than the face F 05 to be edited (near the face F 05 or a predetermined area on the touch panel 12). In this case, when the user touches the face to be edited (for example, the face F 05 ) in advance and designates the editing position, and then performs a touch operation on the editing touch area AT , the
(変形例1−2)
目線をマニュアル編集する際には、タッチパネル12以外の操作部材を用いて瞳領域を移動させても良い。例えば、十字釦18に対する釦操作により、移動させる瞳領域の選択並びに移動方向及び移動量の入力を行っても良いし、マウスやタッチパッド等のポインティングデバイスを別途設け、それらのポインティングデバイスによって瞳領域の選択及び移動を行っても良い。
(Modification 1-2)
When manually editing the line of sight, the pupil region may be moved using an operation member other than the
(変形例1−3)
目線編集処理部230は、目線のマニュアル編集モード(ステップS250)において、ユーザがマニュアルで編集した瞳領域に対し、編集後の画像が自然に見えるか否かを判定し、不自然に見える場合にはその旨をユーザに通知しても良い。
(Modification 1-3)
The line-of-sight
例えば、図7において、瞳領域PR、PLの中心CR、CLが共に、それぞれの目領域ER、ELの中心よりも外側にあるとすれば、左右それぞれの目線が離れ、互いに外側を見ているようで不自然に見える。このような画像が生成されるのを防ぐため、目線判定部230dは、瞳領域PR、PLの中心CR、CLから目領域ER、ELの両端までの距離LR(OUT)、LR(IN)、LL(IN)、LL(OUT)を取得し、次式(3)及び(4)を用いて判定を行う。
LR(OUT)/(LR(OUT)+LR(IN))<0.5 …(3)
LL(OUT)/(LL(OUT)+LL(IN))<0.5 …(4)
For example, in FIG. 7, if the centers C R and C L of the pupil regions P R and P L are both outside the centers of the respective eye regions E R and E L , the left and right eyes are separated from each other. It looks unnatural as if they were looking at each other. To prevent such an image is generated, Looking determining
L R (OUT) / (L R (OUT) + L R (IN) ) <0.5 (3)
L L (OUT) / (L L (OUT) + L L (IN) ) <0.5 (4)
編集後の瞳領域の位置が式(3)及び(4)を共に満たす場合、不自然な画像となる。そこで、上式(3)及び(4)を満たすような編集がなされた場合、目線編集処理部230は、編集された顔に合成される顔検出枠の表示属性を変更したり、警告メッセージを表示部26に表示したりする。
When the position of the pupil region after editing satisfies both equations (3) and (4), an unnatural image is obtained. Therefore, when editing is performed so as to satisfy the above expressions (3) and (4), the eye line
(変形例1−4)
上記実施の形態1においては、画像内の顔の目線を正面に向けることとしたが、目線を正面以外の方向に向けても良い。
この場合、目線のマニュアル編集モードにおいては、編集対象の顔において、タッチ操作により瞳領域PR(又はPL)を所望の位置に移動させれば良い。
(Modification 1-4)
In
In this case, in the eye-gaze manual editing mode, the pupil region P R (or P L ) may be moved to a desired position by a touch operation on the face to be edited.
また、目線の自動又は一括編集モードにおいては、例えば、図9に示す画像G1において、目線がユーザ所望の方向を向いた顔(例えば、目線を右方向に向けた顔F01)をタッチにより選択すると、他の全ての顔(例えば、顔F02〜F05)が選択された顔と同じ方向に目線が向くように瞳領域を編集しても良い。この場合、選択されなかった顔における瞳領域の中心と目領域の両端との距離の比率が、選択された顔における瞳領域の中心と目領域の両端との距離の比率と等しくなるように、瞳領域を編集すれば良い。 Further, in the automatic line-of-sight or batch edit mode, for example, in the image G1 shown in FIG. 9, a face with the line of sight facing the user's desired direction (for example, face F 01 with the line of sight directed to the right) is selected by touch Then, the pupil region may be edited so that all other faces (for example, faces F 02 to F 05 ) are directed in the same direction as the selected face. In this case, the ratio of the distance between the center of the pupil area and both ends of the eye area in the unselected face is equal to the ratio of the distance between the center of the pupil area and both ends of the eye area in the selected face. Edit the pupil area.
(変形例1−5)
実施の形態1においては、画像に合成される顔検出枠の表示属性を異ならせることにより、目線の判定結果をユーザに通知したが、これ以外にも、様々な手段により目線の判定結果をユーザに通知することとしても良い。例えば、目線が正面を向いていないと判定された顔に対して警告マークを合成して表示したり、白目の部分を着色して印象付ける警告表示をしても良い。
(Modification 1-5)
In the first embodiment, the display attribute of the face detection frame combined with the image is changed to notify the user of the eye gaze determination result. In addition to this, the eye gaze determination result is transmitted to the user by various means. It is good also as notifying. For example, a warning mark may be combined and displayed on a face that has been determined that the line of sight is not facing the front, or a warning display may be displayed that colors and impresses white eyes.
(変形例1−6)
実施の形態1においては、目領域における瞳領域の水平方向における位置に基づいて、被写体像の目線が正面を向いているか否かを判定したが、水平方向と共に、水平方向と直交する方向(以下、上下方向という)における瞳領域の位置に基づいて、目線の向きを判定するようにしても良い。この場合、水平方向のよそ見だけでなく、上下方向のよそ見を判別することができる。また、上下方向によそ見している目線を編集する際には、瞳領域を目領域の上下方向における略中央の位置に移動させれば良い。
(Modification 1-6)
In the first embodiment, it is determined whether or not the line of sight of the subject image is facing the front based on the position of the pupil area in the eye area in the horizontal direction. The direction of the line of sight may be determined based on the position of the pupil region in the vertical direction. In this case, it is possible to determine not only looking away in the horizontal direction but also looking away in the vertical direction. Further, when editing the eye line looking away in the vertical direction, the pupil region may be moved to a substantially central position in the vertical direction of the eye region.
(実施の形態2)
次に、本発明の実施の形態2について説明する。
図19は、実施の形態2に係る撮像装置が備える目線編集処理部の構成を示すブロック図である。図19に示すように、目線編集処理部230−2は、図3に示す目線編集処理部230に対して、警告表示合成部230hをさらに備える。
(Embodiment 2)
Next, a second embodiment of the present invention will be described.
FIG. 19 is a block diagram illustrating a configuration of a line-of-sight editing processing unit included in the imaging apparatus according to
なお、実施の形態2に係る撮像装置全体の構成については、図1及び図2に示すカメラ1と同様である。また、実施の形態2に係る撮像装置の全体の動作及び再生動作については、図4及び図5に示すものと同様である。
Note that the overall configuration of the imaging apparatus according to
図20は、実施の形態2に係る撮像装置のライブビュー表示動作(図4のステップS06)を示すフローチャートである。
まず、ステップS301において、画像処理回路229は、撮像素子221から出力された画像信号を取り込む。
FIG. 20 is a flowchart showing a live view display operation (step S06 in FIG. 4) of the imaging apparatus according to the second embodiment.
First, in step S301, the
続くステップS302において、画像処理回路229は、取り込んだ画像信号に対して所定の画像処理を施し、一定の微小な時間間隔で連続的に再生される表示用の画像データを生成する。
ステップS303において、顔検出部230aは、画像処理が施された各画像から顔を検出し、検出した顔に対応する顔範囲情報を生成する。
In subsequent step S302, the
In step S303, the
顔検出の結果、画像から1つ以上の顔が検出された場合(ステップS304:Yes)、目領域検出部230bは、顔範囲情報に基づいて、各顔から目領域及び瞳領域を検出し、目領域情報を生成する(ステップS305)。
When one or more faces are detected from the image as a result of the face detection (step S304: Yes), the eye
ステップS306において、目線判定部230dは、目領域情報に基づいて、各顔の目線が正面を向いているか否かの判定を行う。なお、目線の判定方法の詳細は、ステップS205と同様である。
In step S306, the line-of-
ステップS307において、顔検出枠合成部230eは、目線の判定結果に応じた表示属性を有する顔検出枠(図8参照)を生成し、画像に合成する。なお、顔検出枠合成部230eは、目線判定部230dの判定結果に応じた警告表示を画像に合成する警告表示合成手段としても作用する。
In step S307, the face detection
目線の判定の結果、目線が正面から外れている(よそ見している)顔があった場合(ステップS308:Yes)、警告表示合成部230hは、よそ見している人がいる旨を警告する警告表示を生成し、画像に合成する(ステップS309)。その際に、警告表示合成部230hは、よそ見している人数を警告表示に含めても良い。具体的には、警告表示合成部230hは、例えば図9に示す警告表示エリアM内に表示するための「よそ見をしている人がn人います。」といった警告文を作成する。
As a result of the determination of the line of sight, if there is a face whose line of sight is deviated from the front (looking away) (step S308: Yes), the warning
ステップS310において、表示部26は、顔表示枠及び警告表示が合成された画像をライブビュー画像として表示する。例えば図9に示す画像G1の場合、顔F01、F04、F05の目線が正面から外れているため、これらの顔F01、F04、F05に対応する顔検出枠b01、b04、b05は、よそ見を表す例えば破線(又は破線且つ赤色等)で表示される。また、画像G1右上の警告表示エリアMには、よそ見している人が存在する旨の警告が表示される。この警告には、よそ見している人数n(即ち、よそ見に対応する属性を有する顔検出枠の数。画像G1においてはn=3)も含まれる。
In step S310, the
一方、画像から顔が検出されなかった場合(ステップS304:No)、又は、よそ見している顔が検出されなかった場合(ステップS308:No)、動作はステップS310に移行する。 On the other hand, when no face is detected from the image (step S304: No), or when a face looking away is not detected (step S308: No), the operation proceeds to step S310.
このようなライブビュー画像においては、被写体の目線の状態に応じて、警告表示の有無又は内容(例えば、メッセージエリアM内の警告文に記載された人数n)が刻々と変化する。そのため、ユーザは、警告表示を参照し、警告表示が表示されなくなった(即ち、目線の外れた人がいなくなった)タイミング、又は、警告表示中のよそ見をしている人数nが少なくなったタイミングで、レリーズ釦10を操作して撮像を行うことができる。また、警告表示においては、目線の外れた人数に応じて警告文の表示色を赤色や緑色等に変更しても良い。例えば、目線の外れた人数が2人以上のときは赤色、1人のときは緑色というように表示色を変化させると、ユーザは警告の内容(人数n)を即座に把握することができ、レリーズ釦10を適切なタイミングで操作することが可能となる。
In such a live view image, the presence / absence or content of warning display (for example, the number of people n described in the warning text in the message area M) changes every moment according to the state of the subject's eyes. Therefore, the user refers to the warning display, and the timing when the warning display is not displayed (that is, when there is no person who is out of sight) or when the number n of people who are looking away during the warning display decreases. Thus, the
(変形例2)
次に、変形例2について説明する。図21は、変形例2に係る撮像装置が備える画像処理回路の構成を示すブロック図である。
図21に示すように、変形例2に係る画像処理回路229−2は、目線編集処理部230−2に加えて、警告情報付加部230−3及び画像選択部230−4を更に備える。
(Modification 2)
Next,
As illustrated in FIG. 21, the image processing circuit 229-2 according to
警告情報付加部230−3は、ライブビュー画像に警告表示がなされているタイミングで第2レリーズスイッチがオンされた場合に、よそ見している人がいる旨の警告情報を、当該画像データに付加する。
画像選択部230−4は、操作釦群13a〜19による操作入力に従って、記録媒体245に記録されている画像データから、上記警告情報に基づいて画像データを選択する。
The warning information adding unit 230-3 adds warning information to the image data indicating that there is a person looking away when the second release switch is turned on at the timing when the warning is displayed on the live view image. To do.
The image selection unit 230-4 selects image data based on the warning information from the image data recorded on the
具体的には、画像選択部230−4は、撮像された画像を再生表示する際に、例えば、警告情報が付加された画像データのみを選択する。これに応じて、ビデオ信号出力回路233は、選択された画像データに対応する画像を、表示部26に順次表示又は一覧表示する。図22は、警告情報が付加された画像G11〜G14を一覧表示(インデックス表示)した例を示す模式図である。なお、このとき、画像G11〜G14において、よそ見していると判定された顔に対して合成された顔検出枠を表示しても良い。
Specifically, the image selection unit 230-4 selects, for example, only image data to which warning information is added when reproducing and displaying a captured image. In response to this, the video
この場合、ユーザは、目線の編集が必要な画像のみを観察することができるので、効率的に目線の編集作業を行うことができる。或いは、ユーザは、目線が外れている画像のみを容易に選択して削除等することができる。
また、この場合、全ての顔について目領域及び瞳領域の検出が既になされているので、目線編集処理を高速に行うことができる。
In this case, since the user can observe only the image that needs to be edited, the user can efficiently edit the eye. Alternatively, the user can easily select and delete only images that are out of line of sight.
In this case, since the eye area and the pupil area have already been detected for all the faces, the eye line editing process can be performed at high speed.
一方、画像選択部230−4に、警告表示が付加されていない画像データのみを選択させるようにしても良い。この場合、表示部26には、警告情報が付加されていない(即ち、よそ見している人が検出されなかった)画像のみが、順次表示又は一覧表示される。図23は、警告情報が付加されていない画像G21〜G24を一覧表示した例を示す模式図である。
この場合、ユーザは、目線の編集が不要な画像のみを効率的に観察することができる。
On the other hand, you may make it the image selection part 230-4 select only the image data to which the warning display is not added. In this case, only the images to which no warning information is added (that is, the person who is looking away is not detected) are sequentially displayed or displayed as a list on the
In this case, the user can efficiently observe only an image that does not require line-of-sight editing.
なお、上記実施の形態2及び変形例2においては、被写体の目線が正面を向いているか否かを判定したが、評価値Wの算出式や判定に用いられる閾値を変更することにより、被写体の目線が所望の方向を向いているか否かの判定を行うこともできる。 In the second embodiment and the second modification, it is determined whether or not the subject's line of sight is facing the front. However, by changing the calculation formula of the evaluation value W and the threshold value used for the determination, It can also be determined whether or not the line of sight is in a desired direction.
以上説明した実施の形態1及び2においては、撮像装置1をデジタルカメラとして説明したが、例えば一眼デジタルスチールカメラ、デジタルビデオカメラ、カメラ付き携帯電話等の撮影機能を備えた各種電子機器に適用することができる。
In
1 撮像装置(カメラ)
10 レリーズ釦
11 モードダイヤル
12 タッチパネル
13a 拡大釦
13b 縮小釦
14 再生釦
15 メニュー釦
16 目線釦
17 編集釦
18 十字釦
18a 上釦
18b 下釦
18c 左釦
18d 右釦
19 決定釦
20 パワースイッチ
26 表示部
29 アクセサリーポート
100 交換レンズ
101 撮影光学系
101a、101b 撮影レンズ
105 光学位置検出機構
107 光学系駆動機構
109 絞り駆動機構
110 エンコーダ
111 レンズコントローラ
112 距離環
200 カメラ本体
203 シャッタ
205 防塵フィルタ
207 圧電素子
209 赤外カットフィルタ
210 光学的ローパスフィルタ
211 防塵フィルタ駆動回路
213 シャッタ駆動機構
215 気圧センサユニット
221 撮像素子
223 撮像素子駆動回路
225 前処理回路
226 コントラストAF回路
227 シーケンスコントローラ
229 画像処理回路
230、230−2 目線編集処理部
230a 顔検出部
230b 目領域検出部
230c 瞳位置算出部
230d 目線判定部
230e 顔検出枠合成部
230f 顔選択部
230h 警告表示合成部
230g 瞳編集部
230−3 警告情報付加部
230−4 画像選択部
231 圧縮伸張回路
233 ビデオ信号出力回路
235 表示部駆動回路
237 SDRAM制御回路
239 入出力回路
241 通信回路
243 記録媒体制御回路
245 記録媒体
247 フラッシュメモリ制御回路
249 フラッシュメモリ
253 スイッチ検知回路
259 着脱検知スイッチ
261 データバス
290 撮像素子ユニット
292 ブレ補正駆動機構
294 アクチュエータ駆動回路
297 ブレ検出部
297a 角速度センサ
297b 角速度検出回路
300 通信接点
1 Imaging device (camera)
DESCRIPTION OF SYMBOLS 10 Release button 11 Mode dial 12 Touch panel 13a Enlarge button 13b Reduce button 14 Play button 15 Menu button 16 Eye button 17 Edit button 18 Cross button 18a Up button 18b Down button 18c Left button 18d Right button 19 Enter button 20 Power switch 26 Display part DESCRIPTION OF SYMBOLS 29 Accessory port 100 Interchangeable lens 101 Shooting optical system 101a, 101b Shooting lens 105 Optical position detection mechanism 107 Optical system drive mechanism 109 Aperture drive mechanism 110 Encoder 111 Lens controller 112 Distance ring 200 Camera body 203 Shutter 205 Dustproof filter 207 Piezoelectric element 209 Red Outer cut filter 210 Optical low-pass filter 211 Dust-proof filter drive circuit 213 Shutter drive mechanism 215 Barometric pressure sensor unit 221 Image sensor 223 Image sensor drive Path 225 Preprocessing circuit 226 Contrast AF circuit 227 Sequence controller 229 Image processing circuit 230, 230-2 Eye edit processing unit 230a Face detection unit 230b Eye region detection unit 230c Eye position calculation unit 230d Eye determination unit 230e Face detection frame synthesis unit 230f Face selection unit 230h Warning display synthesis unit 230g Pupil editing unit 230-3 Warning information addition unit 230-4 Image selection unit 231 Compression / decompression circuit 233 Video signal output circuit 235 Display unit drive circuit 237 SDRAM control circuit 239 Input / output circuit 241 Communication circuit 243 Recording medium control circuit 245 Recording medium 247 Flash memory control circuit 249 Flash memory 253 Switch detection circuit 259 Detachment detection switch 261 Data bus 290 Image sensor unit 292 Shake correction drive mechanism 94 actuator drive circuit 297 shake detection section 297a angular velocity sensor 297b angular velocity detecting circuit 300 communication contacts
Claims (26)
前記画像から顔を検出する顔検出手段と、
前記顔検出手段によって検出された顔の範囲から、目の領域及び瞳の領域を検出する目領域検出手段と、
前記目の領域において前記瞳の領域の位置を変更することを含む編集を行う瞳編集手段と、
前記瞳編集手段によって編集された画像データを記録する記録手段と、
を備えることを特徴とする画像記録装置。 Display means for displaying an image corresponding to electronic image data of a subject;
Face detection means for detecting a face from the image;
Eye area detecting means for detecting an eye area and a pupil area from the range of the face detected by the face detecting means;
Pupil editing means for performing editing including changing the position of the pupil region in the eye region;
Recording means for recording image data edited by the pupil editing means;
An image recording apparatus comprising:
前記目線判定手段は、前記瞳の領域が前記目の領域の略中央にある場合に、前記目線が正面を向いていると判定することを特徴とする請求項2に記載の画像記録装置。 The predetermined direction is a front direction;
The image recording apparatus according to claim 2, wherein the line of sight determination unit determines that the line of sight is facing the front when the pupil region is substantially in the center of the eye region.
前記瞳編集手段は、前記顔選択手段によって選択された顔における前記瞳の領域を編集することを特徴とする請求項2〜6のいずれか1項に記載の画像記録装置。 A face selection unit that selects a face determined by the line-of-sight determination unit that the line of sight is not facing a predetermined direction;
The image recording apparatus according to claim 2, wherein the pupil editing unit edits the pupil region of the face selected by the face selection unit.
前記操作入力手段により、前記顔検出手段によって検出された顔の内のいずれかを選択する選択信号が入力された場合に、当該選択された顔を選択する顔選択手段と、
をさらに備え、
前記瞳編集手段は、前記顔選択手段によって選択された顔における前記瞳の領域を編集することを特徴とする請求項1〜6のいずれか1項に記載の画像記録装置。 Operation input means for inputting a signal corresponding to an operation from the outside to the image recording apparatus;
Face selection means for selecting the selected face when a selection signal for selecting any of the faces detected by the face detection means is input by the operation input means;
Further comprising
The image recording apparatus according to claim 1, wherein the pupil editing unit edits an area of the pupil in the face selected by the face selection unit.
前記瞳編集手段は、前記操作入力手段によって入力された信号に基づいて、前記目の領域において前記瞳の領域を移動させることを特徴とする請求項1に記載の画像記録装置。 It further comprises operation input means for inputting a signal corresponding to an operation from the outside to the image recording apparatus,
The image recording apparatus according to claim 1, wherein the pupil editing unit moves the pupil region in the eye region based on a signal input by the operation input unit.
前記瞳編集手段は、前記タッチパネルに対する前記瞳の領域へのタッチの軌跡に基づいて、前記瞳の領域を移動させることを特徴とする請求項9に記載の画像記録装置。 The operation input means is a touch panel provided on the display means,
The image recording apparatus according to claim 9, wherein the pupil editing unit moves the pupil region based on a trajectory of touching the pupil region with respect to the touch panel.
前記瞳編集手段は、前記タッチパネル上における前記瞳の領域以外の領域へのタッチの軌跡に基づいて、前記瞳の領域を移動させることを特徴とする請求項9に記載の画像記録装置。 The operation input means is a touch panel provided on the display means,
The image recording apparatus according to claim 9, wherein the pupil editing unit moves the pupil region based on a touch trajectory to a region other than the pupil region on the touch panel.
前記瞳編集手段は、前記目領域検出手段によって検出された前記瞳の領域を、前記瞳位置算出手段によって算出された位置に移動させることを特徴とする請求項1に記載の画像記録装置。 Pupil position calculating means for calculating the position of the pupil region when the eye line is directed in a predetermined direction in the eye region;
The image recording apparatus according to claim 1, wherein the pupil editing unit moves the pupil region detected by the eye region detection unit to a position calculated by the pupil position calculation unit.
撮影指示を行うレリーズ手段と、
をさらに備え、
前記記録手段は、前記レリーズ手段による撮影指示に従って撮影を行うことにより取得された画像に対応する画像データを記録すると共に、前記瞳編集手段によって編集された画像に対応する画像データを、元の画像データとは異なるファイル名で記録することを特徴とする請求項1〜15のいずれか1項に記載の画像記録装置。 Imaging means for capturing an image of a subject via a photographing lens to obtain electronic image data;
Release means for instructing shooting,
Further comprising
The recording unit records image data corresponding to an image acquired by performing shooting in accordance with a shooting instruction by the release unit, and stores image data corresponding to the image edited by the pupil editing unit as an original image. The image recording apparatus according to claim 1, wherein the image recording apparatus records the file with a file name different from that of the data.
撮影指示を行うレリーズ手段と、
前記画像データに対応する画像を表示する表示手段と、
一定の微小な時間間隔で連続的に再生されるライブビュー画像を生成する画像処理手段と、
前記レリーズ手段による撮影指示に従って撮影を行うことにより取得された画像を記録する記録手段と、
前記画像から顔を検出する顔検出手段と、
前記顔検出手段によって検出された顔の範囲から、目の領域及び瞳の領域を検出する目領域検出手段と、
前記目の領域における前記瞳の領域の位置に基づいて、前記顔の目線が所定の方向を向いているか否かを判定する目線判定手段と、
前記目線判定手段による判定結果に応じた警告表示を前記画像に合成する警告表示合成手段と、
を備えることを特徴とする撮像装置。 Imaging means for capturing an image of a subject via a photographing lens to obtain electronic image data;
Release means for instructing shooting,
Display means for displaying an image corresponding to the image data;
Image processing means for generating a live view image that is continuously reproduced at a fixed minute time interval;
A recording means for recording an image obtained by photographing according to a photographing instruction by the release means;
Face detection means for detecting a face from the image;
Eye area detecting means for detecting an eye area and a pupil area from the range of the face detected by the face detecting means;
Line-of-sight determination means for determining whether the line of sight of the face is in a predetermined direction based on the position of the area of the pupil in the area of the eye;
Warning display combining means for combining the image with a warning display according to the determination result by the eye line determination means;
An imaging apparatus comprising:
前記目線判定手段は、前記瞳の領域が前記目の領域の略中央にある場合に、前記目線が正面を向いていると判定することを特徴とする請求項17に記載の撮像装置。 The predetermined direction is a front direction;
18. The imaging apparatus according to claim 17, wherein the eye line determination unit determines that the eye line is facing the front when the pupil region is substantially in the center of the eye region.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011097255A JP5719223B2 (en) | 2011-04-25 | 2011-04-25 | Image recording apparatus, recording method, and program |
CN201210122826.6A CN102761705B (en) | 2011-04-25 | 2012-04-24 | An image recording device, an image editing device and an image capturing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011097255A JP5719223B2 (en) | 2011-04-25 | 2011-04-25 | Image recording apparatus, recording method, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015056884A Division JP2015159550A (en) | 2015-03-19 | 2015-03-19 | Imaging apparatus, imaging method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2012231237A true JP2012231237A (en) | 2012-11-22 |
JP2012231237A5 JP2012231237A5 (en) | 2014-05-08 |
JP5719223B2 JP5719223B2 (en) | 2015-05-13 |
Family
ID=47056016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011097255A Active JP5719223B2 (en) | 2011-04-25 | 2011-04-25 | Image recording apparatus, recording method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5719223B2 (en) |
CN (1) | CN102761705B (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014186505A (en) * | 2013-03-22 | 2014-10-02 | Canon Inc | Visual line detection device and imaging device |
JP2019523929A (en) * | 2016-06-03 | 2019-08-29 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Augmented reality identification verification |
CN110969060A (en) * | 2018-09-29 | 2020-04-07 | 北京市商汤科技开发有限公司 | Neural network training method, neural network training device, neural network tracking method, neural network training device, visual line tracking device and electronic equipment |
JP2020136861A (en) * | 2019-02-18 | 2020-08-31 | 富士フイルム株式会社 | Image processing apparatus, method and program, as well as imaging apparatus |
JP2020188291A (en) * | 2019-05-09 | 2020-11-19 | アイシン精機株式会社 | Image display device and image display program |
CN114584704A (en) * | 2022-02-08 | 2022-06-03 | 维沃移动通信有限公司 | Shooting method and device and electronic equipment |
CN114902104A (en) * | 2019-12-27 | 2022-08-12 | 佳能株式会社 | Electronic device, electronic device control method, program, and storage medium |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015049544A (en) * | 2013-08-29 | 2015-03-16 | オリンパス株式会社 | Parameter change device and method |
JP5695809B1 (en) | 2013-10-16 | 2015-04-08 | オリンパスイメージング株式会社 | Display device, display method, and program |
JP2015121623A (en) * | 2013-12-20 | 2015-07-02 | カシオ計算機株式会社 | Electronic equipment, display control method, and program |
CN104580886B (en) * | 2014-12-15 | 2018-10-12 | 小米科技有限责任公司 | Filming control method and device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04165880A (en) * | 1990-10-30 | 1992-06-11 | Toshiba Corp | Picture processing system |
JP2000231639A (en) * | 1999-02-12 | 2000-08-22 | Noritsu Koki Co Ltd | Photographic processor |
JP2008242636A (en) * | 2007-03-26 | 2008-10-09 | Sony Corp | Image processing apparatus, image processing method and program |
JP2009246408A (en) * | 2008-03-28 | 2009-10-22 | Toshiba Corp | Interaction device, image processing module, image processing method, and program |
JP2010282339A (en) * | 2009-06-03 | 2010-12-16 | Seiko Epson Corp | Image processor for correcting position of pupil in eye, image processing method, image processing program and printer |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000198369A (en) * | 1998-12-28 | 2000-07-18 | Niles Parts Co Ltd | Eye state detecting device and doze-driving alarm device |
WO2005001764A1 (en) * | 2003-06-30 | 2005-01-06 | Nec Corporation | Image input device, robot, and program |
JP4496465B2 (en) * | 2004-04-23 | 2010-07-07 | ノーリツ鋼機株式会社 | Red-eye correction method, program, and apparatus for implementing the method |
JP4537143B2 (en) * | 2004-07-30 | 2010-09-01 | キヤノン株式会社 | Image processing apparatus and method, imaging apparatus, and program |
US20070230794A1 (en) * | 2006-04-04 | 2007-10-04 | Logitech Europe S.A. | Real-time automatic facial feature replacement |
JP4823970B2 (en) * | 2007-05-24 | 2011-11-24 | オリンパスイメージング株式会社 | Image editing device |
JP5042896B2 (en) * | 2008-03-25 | 2012-10-03 | オリンパス株式会社 | Image processing apparatus and image processing program |
CN103345619A (en) * | 2013-06-26 | 2013-10-09 | 上海永畅信息科技有限公司 | Self-adaption correcting method of human eye natural contact in video chat |
-
2011
- 2011-04-25 JP JP2011097255A patent/JP5719223B2/en active Active
-
2012
- 2012-04-24 CN CN201210122826.6A patent/CN102761705B/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04165880A (en) * | 1990-10-30 | 1992-06-11 | Toshiba Corp | Picture processing system |
JP2000231639A (en) * | 1999-02-12 | 2000-08-22 | Noritsu Koki Co Ltd | Photographic processor |
JP2008242636A (en) * | 2007-03-26 | 2008-10-09 | Sony Corp | Image processing apparatus, image processing method and program |
JP2009246408A (en) * | 2008-03-28 | 2009-10-22 | Toshiba Corp | Interaction device, image processing module, image processing method, and program |
JP2010282339A (en) * | 2009-06-03 | 2010-12-16 | Seiko Epson Corp | Image processor for correcting position of pupil in eye, image processing method, image processing program and printer |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014186505A (en) * | 2013-03-22 | 2014-10-02 | Canon Inc | Visual line detection device and imaging device |
JP2019523929A (en) * | 2016-06-03 | 2019-08-29 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Augmented reality identification verification |
US11263438B2 (en) | 2016-06-03 | 2022-03-01 | Magic Leap, Inc. | Augmented reality identity verification |
CN110969060A (en) * | 2018-09-29 | 2020-04-07 | 北京市商汤科技开发有限公司 | Neural network training method, neural network training device, neural network tracking method, neural network training device, visual line tracking device and electronic equipment |
JP2020136861A (en) * | 2019-02-18 | 2020-08-31 | 富士フイルム株式会社 | Image processing apparatus, method and program, as well as imaging apparatus |
JP7045342B2 (en) | 2019-02-18 | 2022-03-31 | 富士フイルム株式会社 | Image processing equipment, methods and programs, and imaging equipment |
JP2020188291A (en) * | 2019-05-09 | 2020-11-19 | アイシン精機株式会社 | Image display device and image display program |
CN114902104A (en) * | 2019-12-27 | 2022-08-12 | 佳能株式会社 | Electronic device, electronic device control method, program, and storage medium |
US12052491B2 (en) | 2019-12-27 | 2024-07-30 | Canon Kabushiki Kaisha | Electronic device, control method for electronic device, and non-transitory computer readable storage medium |
CN114584704A (en) * | 2022-02-08 | 2022-06-03 | 维沃移动通信有限公司 | Shooting method and device and electronic equipment |
Also Published As
Publication number | Publication date |
---|---|
JP5719223B2 (en) | 2015-05-13 |
CN102761705A (en) | 2012-10-31 |
CN102761705B (en) | 2015-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5719223B2 (en) | Image recording apparatus, recording method, and program | |
JP4510713B2 (en) | Digital camera | |
JP5907738B2 (en) | Imaging apparatus, display method, and program | |
JP6071436B2 (en) | Imaging apparatus, imaging method, and program | |
JP2014078855A (en) | Electronic apparatus, driving method, and program | |
US8502883B2 (en) | Photographing apparatus and photographing control method | |
JP4509081B2 (en) | Digital camera and digital camera program | |
JP2014531829A (en) | Remotely controllable digital video camera system | |
JP5959217B2 (en) | Imaging apparatus, image quality adjustment method, and image quality adjustment program | |
WO2017221664A1 (en) | Mobile terminal | |
JP2015159550A (en) | Imaging apparatus, imaging method, and program | |
JP2008294704A (en) | Display device and imaging apparatus | |
JP5851133B2 (en) | Image reproducing apparatus, image reproducing method and program | |
JP5539820B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP6925827B2 (en) | Image processing device and image processing method | |
JP5951988B2 (en) | Image composition apparatus and image composition method | |
JP4760497B2 (en) | Image data generation apparatus and image data generation method | |
JP2012239078A (en) | Photographing device | |
JP5945388B2 (en) | Imaging apparatus and imaging method | |
JP7418083B2 (en) | Display control device, its control method, and its program | |
JP2011023890A (en) | Imaging apparatus | |
JP2019047436A (en) | Image processing device, image processing method, image processing program, and imaging device | |
JP6211139B2 (en) | Image synthesizer | |
JP5820903B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP5797301B2 (en) | Imaging apparatus and imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140320 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140320 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150320 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5719223 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |