JP2017120942A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2017120942A
JP2017120942A JP2015255568A JP2015255568A JP2017120942A JP 2017120942 A JP2017120942 A JP 2017120942A JP 2015255568 A JP2015255568 A JP 2015255568A JP 2015255568 A JP2015255568 A JP 2015255568A JP 2017120942 A JP2017120942 A JP 2017120942A
Authority
JP
Japan
Prior art keywords
image
display
unit
eye
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015255568A
Other languages
Japanese (ja)
Inventor
秀章 永野
Hideaki Nagano
秀章 永野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015255568A priority Critical patent/JP2017120942A/en
Publication of JP2017120942A publication Critical patent/JP2017120942A/en
Pending legal-status Critical Current

Links

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of optimally performing catch light photographing by superimposing and displaying magnified images of eye regions on a through image and thereby making it easy for a user to visually recognize how a catch light is included his or her own irises.SOLUTION: The imaging apparatus comprising an imaging part and a display part to display a through image obtained by the imaging part comprises a control device, an operation part, and an eye detection part which detects the eye regions of a main subject. When detecting a first operation performed on the operation part, the control device displays on the display part an image obtained by superimposing, on the through image, first images obtained by magnifying the images of the eye regions detected by the eye detection part to a predetermined size.SELECTED DRAWING: Figure 8

Description

本発明は、撮像装置に関し、特に自分撮りを行う際の表示に関する。   The present invention relates to an imaging apparatus, and more particularly to a display when taking a selfie.

近年、デジタルカメラなどの撮像装置で撮影者が自分自身を撮影する所謂自分撮りを行うユーザが増えている。また、被写体の瞳にキャッチライトと呼ばれる光を入れることで、人物の表情を生き生きとさせる撮影手法が知られている。   In recent years, an increasing number of users take so-called self-photographing where a photographer photographs themselves with an imaging device such as a digital camera. In addition, there is known a photography technique that brings a person's facial expression to life by putting light called catch light into the subject's eyes.

しかしながら、キャッチライト撮影には一般的にレフ板を用いて行われ、大がかりな機材が必要となるため、自分撮りの際に手軽に実施できるものではなかった。   However, catchlight photography is generally performed using a reflex board, and requires large-scale equipment, so it could not be performed easily when taking a selfie.

そこで、特許文献1に開示されたように、撮像部と発光部とを備え撮像部の撮像方向と発光部の発光による光の投射方向とが異なる方向とすることで、キャッチライト撮影を簡単に行うことができる撮像装置が提案されている。   Therefore, as disclosed in Patent Document 1, it is possible to easily perform catchlight photographing by including an imaging unit and a light emitting unit, and setting the imaging direction of the imaging unit and the light projection direction by the light emission of the light emitting unit to be different. An imaging device that can be used has been proposed.

一方で、自分撮りの際にユーザは自分自身の瞳にキャッチライトが入っているか否かを撮像装置の表示部に表示されたスルー画像を視認しながら最適なキャッチライト撮影が可能な画角や撮影方向となるように撮像装置を操作し撮影を行う。   On the other hand, when taking a self-portrait, the user can view the through-image displayed on the display unit of the imaging device to see whether the catchlight is in his / her eyes, The imaging device is operated so as to be in the shooting direction and shooting is performed.

特開2014−153669号公報JP 2014-153669 A

しかしながら、特許文献1に開示されているような小型の撮像装置の場合には表示部が小さく自分自身の瞳にキャッチライトがどのように入っているのか視認しにくいという課題があった。   However, in the case of a small-sized imaging device as disclosed in Patent Document 1, there is a problem that the display unit is small and it is difficult to visually recognize how the catchlight is placed in its own pupil.

上記の課題を解決するために、本発明に係る撮像装置は、
撮像部と撮像部により得られたスルー画像を表示する表示部とを有する撮像装置であって、制御装置と、操作部と、主被写体の目領域を検出する目検出部とを有し、制御装置は、操作部に第1の操作がなされたことを検出した場合には、スルー画像に目検出部で検出された目領域の画像を所定の大きさに拡大した第1の画像を重畳した画像を表示部に表示することを特徴とする。
In order to solve the above problems, an imaging apparatus according to the present invention provides:
An imaging apparatus having an imaging unit and a display unit that displays a through image obtained by the imaging unit, and includes a control device, an operation unit, and an eye detection unit that detects an eye area of a main subject, and is controlled When the apparatus detects that the first operation has been performed on the operation unit, the first image obtained by enlarging the eye region image detected by the eye detection unit to a predetermined size is superimposed on the through image. An image is displayed on a display unit.

本発明によれば、目領域を拡大した画像をスルー画像に重畳表示することで自分自身の瞳にキャッチライトがどのようにはいっているのか容易に視認することが可能となり最適なキャッチライト撮影が可能となる撮像装置を提供することが可能となる。   According to the present invention, an image in which the eye area is enlarged is superimposed and displayed on the through image, so that it is possible to easily see how the catchlight is placed in its own pupil, and optimal catchlight photography can be performed. It becomes possible to provide an imaging device that can be used.

実施形態のデジタルカメラの前面斜視図と背面斜視図Front perspective view and rear perspective view of digital camera of embodiment 実施形態のデジタルカメラの構成例を示すブロック図1 is a block diagram illustrating a configuration example of a digital camera according to an embodiment 実施形態のデジタルカメラの目領域表示モードの表示例を示す図The figure which shows the example of a display of the eye area | region display mode of the digital camera of embodiment 実施形態のデジタルカメラの目領域表示モードの表示例を示す図The figure which shows the example of a display of the eye area | region display mode of the digital camera of embodiment 実施形態のデジタルカメラの目領域表示モードの表示例を示す図The figure which shows the example of a display of the eye area | region display mode of the digital camera of embodiment 実施形態のデジタルカメラのキャッチライト有無表示モードの表示例を示す図The figure which shows the example of a display of the catchlight presence / absence display mode of the digital camera of the embodiment 実施形態のデジタルカメラの目領域分割表示モードの表示例を示す図The figure which shows the example of a display of the eye area division | segmentation display mode of the digital camera of embodiment 実施形態のデジタルカメラの表示モード移行処理を示すフローチャート6 is a flowchart showing display mode transition processing of the digital camera of the embodiment.

以下、図面を参照して本発明の好適な実施形態を説明する。本発明の撮像装置の一例としてデジタルカメラを用いて説明する。   Preferred embodiments of the present invention will be described below with reference to the drawings. A digital camera will be described as an example of the imaging apparatus of the present invention.

図1は本実施形態のデジタルカメラの斜視図である。   FIG. 1 is a perspective view of the digital camera of this embodiment.

図1において、100はデジタルカメラである。撮像レンズ103はズームレンズ、フォーカスレンズを含むレンズ群である。表示部28は画像や各種情報を表示する表示部である。表示部28の表示領域上にはタッチパネル70が設けられタッチパネルディスプレイとして機能する。   In FIG. 1, reference numeral 100 denotes a digital camera. The imaging lens 103 is a lens group including a zoom lens and a focus lens. The display unit 28 is a display unit that displays images and various types of information. A touch panel 70 is provided on the display area of the display unit 28 and functions as a touch panel display.

モニタ128はヒンジ部129の回転軸を中心に回転可能に構成されている。例えば、ユーザが自分撮りを行う場合には、図1に示すように撮像レンズ103の撮像方向と表示部28の表示方向が略同一となる位置にモニタ128を配置した状態で表示部28の表示を確認しながら撮影を行う。   The monitor 128 is configured to be rotatable about the rotation axis of the hinge portion 129. For example, when the user takes a self-portrait, the display on the display unit 28 is displayed with the monitor 128 placed at a position where the imaging direction of the imaging lens 103 and the display direction of the display unit 28 are substantially the same as shown in FIG. Take a picture while checking.

なお、撮像レンズ103の撮像方向と表示部28の表示方向が略同一である構成であれば、モニタ128は回転可能な構成でなくともよい。   Note that the monitor 128 does not have to be rotatable as long as the imaging direction of the imaging lens 103 and the display direction of the display unit 28 are substantially the same.

シャッターボタン61は撮影指示を行うための操作部である。電源スイッチ72は、電源オン、電源オフを切り替えるための押しボタンである。   The shutter button 61 is an operation unit for issuing a shooting instruction. The power switch 72 is a push button for switching between power on and power off.

図2は本実施形態のデジタルカメラ100の構成例を示すブロック図である。   FIG. 2 is a block diagram illustrating a configuration example of the digital camera 100 according to the present embodiment.

図2において、シャッター101は絞り機能を備えるシャッターである。撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。バリア102はデジタルカメラ100の、撮影レンズ103を含む撮像系を覆うことにより、撮影レンズ103、シャッター101、撮像部22を含む撮像系の汚れや破損を防止する。   In FIG. 2, a shutter 101 is a shutter having an aperture function. The imaging unit 22 is an imaging device configured with a CCD, a CMOS device, or the like that converts an optical image into an electrical signal. The A / D converter 23 is used to convert an analog signal output from the imaging unit 22 into a digital signal. The barrier 102 covers the imaging system including the imaging lens 103 of the digital camera 100, thereby preventing the imaging system including the imaging lens 103, the shutter 101, and the imaging unit 22 from becoming dirty or damaged.

画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。   The image processing unit 24 performs resizing processing such as predetermined pixel interpolation and reduction and color conversion processing on the data from the A / D converter 23 or the data from the memory control unit 15. The image processing unit 24 performs predetermined calculation processing using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation result. Thereby, AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-emission) processing of the TTL (through-the-lens) method are performed. The image processing unit 24 further performs predetermined calculation processing using the captured image data, and also performs TTL AWB (auto white balance) processing based on the obtained calculation result.

A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。   Output data from the A / D converter 23 is directly written into the memory 32 via the image processing unit 24 and the memory control unit 15 or via the memory control unit 15.

メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。   The memory 32 stores image data obtained by the imaging unit 22 and converted into digital data by the A / D converter 23 and image data to be displayed on the display unit 28. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, a moving image and sound for a predetermined time. The memory 32 also serves as an image display memory (video memory).

D/A変換器13は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器13を介して表示部28により表示される。   The D / A converter 13 converts the image display data stored in the memory 32 into an analog signal and supplies the analog signal to the display unit 28. Thus, the display image data written in the memory 32 is displayed on the display unit 28 via the D / A converter 13.

表示部28は、LCD等の表示器上に、D/A変換器13からのアナログ信号に応じた表示を行う。   The display unit 28 performs display according to the analog signal from the D / A converter 13 on a display such as an LCD.

A/D変換器23によって一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器13においてアナログ変換し、表示部28に逐次転送して表示することで、電子ビューファインダとして機能し、スルー画像表示(ライブビュー表示)を行える。   A digital signal once A / D converted by the A / D converter 23 and stored in the memory 32 is converted into an analog signal by the D / A converter 13 and sequentially transferred to the display unit 28 for display as an electronic viewfinder. It functions and can perform live view display (live view display).

不揮発性メモリ56は、電気的に消去・記録可能な記録媒体としてのメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここで言う、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのコンピュータプログラムのことである。また、本実施形態では、後述する目領域表示処理で、表示部28に表示させる目領域表示の複数の表示位置の候補が、目領域表示位置管理テーブルとして不揮発性メモリ56に記憶されている。   The nonvolatile memory 56 is a memory as an electrically erasable / recordable recording medium, and for example, an EEPROM or the like is used. The nonvolatile memory 56 stores constants, programs, and the like for operating the system control unit 50. The program referred to here is a computer program for executing various flowcharts described later in the present embodiment. In this embodiment, a plurality of display position candidates for the eye area display to be displayed on the display unit 28 in the eye area display process described later is stored in the nonvolatile memory 56 as an eye area display position management table.

システム制御部50は、デジタルカメラ100全体を制御する。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。   The system control unit 50 controls the entire digital camera 100. By executing the program recorded in the non-volatile memory 56 described above, each process of the present embodiment to be described later is realized.

システムメモリ52には、RAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開する。また、システム制御部50はメモリ32、D/A変換器13、表示部28等を制御することにより表示制御も行う。   A RAM is used as the system memory 52. In the system memory 52, constants and variables for operation of the system control unit 50, programs read from the nonvolatile memory 56, and the like are expanded. The system control unit 50 also performs display control by controlling the memory 32, the D / A converter 13, the display unit 28, and the like.

システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。   The system timer 53 is a time measuring unit that measures the time used for various controls and the time of a built-in clock.

第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。   The first shutter switch 62 is turned on when the shutter button 61 provided in the digital camera 100 is being operated, so-called half-press (shooting preparation instruction), and generates a first shutter switch signal SW1. In response to the first shutter switch signal SW1, operations such as AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and EF (flash pre-emission) processing are started.

第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。   The second shutter switch 64 is turned ON when the operation of the shutter button 61 is completed, that is, when it is fully pressed (shooting instruction), and generates a second shutter switch signal SW2. In response to the second shutter switch signal SW2, the system control unit 50 starts a series of shooting processing operations from reading a signal from the imaging unit 22 to writing image data on the recording medium 200.

電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。   The power control unit 80 includes a battery detection circuit, a DC-DC converter, a switch circuit that switches a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining battery level. Further, the power control unit 80 controls the DC-DC converter based on the detection result and an instruction from the system control unit 50, and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period.

電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。   The power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like.

記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや光ディスク、磁気ディスク等から構成される。   The recording medium I / F 18 is an interface with the recording medium 200 such as a memory card or a hard disk. The recording medium 200 is a recording medium such as a memory card for recording a captured image, and includes a semiconductor memory, an optical disk, a magnetic disk, or the like.

本実施形態のデジタルカメラ100は、表示部28に対する接触を検知可能なタッチパネル70を有する。タッチパネルと表示部28とは一体的に構成することができる。例えば、タッチパネルを光の透過率が表示部28の表示を妨げないように構成し、表示部28の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、表示部28上の表示座標とを対応付ける。これにより、あたかもユーザが表示部28上に表示された画面を直接的に操作可能であるかのようなGUIを構成することができる。システム制御部50はタッチパネルへの以下の操作、あるいは状態を検出できる。
・タッチパネルを指やペンで触れたこと(以下、タッチダウンと称する)。
・タッチパネルを指やペンで触れている状態であること(以下、タッチオンと称する)。
・タッチパネルを指やペンで触れたまま移動していること(以下、ムーブと称する)。
・タッチパネルへ触れていた指やペンを離したこと(以下、タッチアップと称する)。
・タッチパネルに何も触れていない状態(以下、タッチオフと称する)。
The digital camera 100 of this embodiment includes a touch panel 70 that can detect contact with the display unit 28. The touch panel and the display unit 28 can be configured integrally. For example, the touch panel is configured such that the light transmittance does not hinder the display of the display unit 28, and is attached to the upper layer of the display surface of the display unit 28. Then, the input coordinates on the touch panel are associated with the display coordinates on the display unit 28. Thereby, it is possible to configure a GUI as if the user can directly operate the screen displayed on the display unit 28. The system control unit 50 can detect the following operations or states on the touch panel.
-Touching the touch panel with a finger or a pen (hereinafter referred to as touchdown).
-The touch panel is touched with a finger or a pen (hereinafter referred to as touch-on).
-The touch panel is moved while being touched with a finger or a pen (hereinafter referred to as a move).
-The finger or pen that was touching the touch panel is released (hereinafter referred to as touch-up).
A state where nothing touches the touch panel (hereinafter referred to as touch-off).

これらの操作・状態や、タッチパネル上に指やペンが触れている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチパネル上にどのような操作が行なわれたかを判定する。   These operations / states and the position coordinates of the finger or pen touching the touch panel are notified to the system control unit 50 through the internal bus, and the system control unit 50 performs any operation on the touch panel based on the notified information. It is determined whether or not.

タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。   The touch panel may be any of various types of touch panels such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method. .

圧力センサ170はタッチパネル70の接触圧力を検出可能なセンサである。システム制御部50はタッチパネル70に接触入力があり圧力センサで所定値以上の接触圧力を検出した場合にはプッシュ操作がなされた判定する。   The pressure sensor 170 is a sensor that can detect the contact pressure of the touch panel 70. The system control unit 50 determines that a push operation has been performed when there is a contact input on the touch panel 70 and a pressure sensor detects a contact pressure of a predetermined value or more.

上述したデジタルカメラ100の顔検出機能について説明する。   The face detection function of the digital camera 100 described above will be described.

システム制御部50は顔検出対象の画像データを画像処理部24に送る。システム制御部50の制御下で画像処理部24は、当該画像データに水平方向バンドパスフィルタを作用させる。また、システム制御部50の制御下で画像処理部24は処理された画像データに垂直方向バンドパスフィルタを作用させる。これら水平及び垂直方向のバンドパスフィルタにより、画像データよりエッジ成分が検出される。   The system control unit 50 sends the face detection target image data to the image processing unit 24. Under the control of the system control unit 50, the image processing unit 24 applies a horizontal bandpass filter to the image data. In addition, under the control of the system control unit 50, the image processing unit 24 applies a vertical bandpass filter to the processed image data. By these horizontal and vertical band pass filters, edge components are detected from the image data.

その後、システム制御部50は、検出されたエッジ成分に関してパターンマッチングを行い、目及び鼻、口、耳の候補群を抽出する。そして、システム制御部50は、抽出された目の候補群の中から、予め設定された条件(例えば2つの目の距離、傾き等)を満たすものを、目の対と判断し、目の対があるもののみ目の候補群として絞り込む。そして、システム制御部50は、絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳)を対応付け、また、予め設定した非顔条件フィルタを通すことで、顔を検出する。このとき、システム制御部50は瞳を検出し、瞳領域のキャッチライトの有無を判定する。システム制御部50は、顔の検出結果に応じて上記顔情報を出力し、処理を終了する。   Thereafter, the system control unit 50 performs pattern matching on the detected edge components, and extracts a candidate group of eyes, nose, mouth, and ears. Then, the system control unit 50 determines an eye pair that satisfies a preset condition (for example, distance between two eyes, inclination, etc.) from the extracted eye candidate group. Narrow down the candidate group of only those with. Then, the system control unit 50 associates the narrowed-down eye candidate group with other parts (nose, mouth, ears) that form the corresponding face, and passes a preset non-face condition filter. , Detect the face. At this time, the system control unit 50 detects the pupil and determines whether or not there is a catch light in the pupil region. The system control unit 50 outputs the face information according to the face detection result, and ends the process.

次に、デジタルカメラ100の目領域表示モードの表示について説明する。   Next, display in the eye area display mode of the digital camera 100 will be described.

図3および図4は本実施形態のデジタルカメラにおける表示部28への表示例を示す図である。   3 and 4 are diagrams showing examples of display on the display unit 28 in the digital camera of the present embodiment.

本実施形態において、デジタルカメラ100で自分撮りを行うと図3(a)に示すように、撮像レンズ103で撮影された撮影者301の映像が表示部28に表示される。この時、システム制御部50は、画像データに対し顔検出処理を行い目、瞳、顔を判定し、さらに瞳領域のキャッチライトの有無を判定する。この状態で、ユーザが瞳にキャッチライトが入っているか否かを確認するために、目領域310a、310bの少なくとも1つにタッチすると、図3(b)に示すように、目領域310a、310bを幅W1、高さH1に拡大した目領域表示311a、311bおよびキャッチライト有無表示312a、312bが重畳表示される。この時、目領域表示311a、311bおよびキャッチライト有無表示312a、312bは顔領域330の範囲外となる位置に表示される。例えば、図4に示すように撮影者301の顔が表示部28の左上に表示される位置で撮影を行う場合には、顔領域330の範囲外となる表示部28の下部領域に表示される。   In the present embodiment, when a self-portrait is performed with the digital camera 100, an image of the photographer 301 captured by the imaging lens 103 is displayed on the display unit 28 as shown in FIG. At this time, the system control unit 50 performs face detection processing on the image data to determine eyes, pupils, and faces, and further determines the presence or absence of catchlight in the pupil region. In this state, when the user touches at least one of the eye areas 310a and 310b to check whether or not the catchlight is in the pupil, as shown in FIG. 3B, the eye areas 310a and 310b are touched. The eye area displays 311a and 311b and the catchlight presence / absence displays 312a and 312b, which are enlarged to a width W1 and a height H1, are superimposed and displayed. At this time, the eye area displays 311 a and 311 b and the catchlight presence / absence displays 312 a and 312 b are displayed at positions outside the range of the face area 330. For example, as shown in FIG. 4, when shooting is performed at a position where the face of the photographer 301 is displayed at the upper left of the display unit 28, it is displayed in the lower area of the display unit 28 that is outside the range of the face area 330. .

目領域表示およびキャッチライト有無表示を顔領域の範囲外に表示することができない場合の表示について図5および図6を用いて説明する。   The display when the eye area display and the catchlight presence / absence display cannot be displayed outside the face area will be described with reference to FIGS. 5 and 6. FIG.

図5および図6に示すように顔を大きく撮影したい場合には、図3および図4を用いて説明したように目領域表示およびキャッチライト有無表示を顔領域の範囲外に表示することができない。その場合、システム制御部50は目領域310a、310bの幅W2が所定値W3以上か否かおよび目領域310a、310bの高さH2が所定値H3以上か否かを判定する。所定値W3は目領域表示の幅W1以下であり、所定値H3は目表示領域の高さH1以下である。   As shown in FIGS. 5 and 6, when it is desired to shoot a large face, the eye area display and the catchlight presence / absence display cannot be displayed outside the face area as described with reference to FIGS. . In this case, the system control unit 50 determines whether or not the width W2 of the eye areas 310a and 310b is equal to or greater than a predetermined value W3 and whether or not the height H2 of the eye areas 310a and 310b is equal to or greater than the predetermined value H3. The predetermined value W3 is equal to or smaller than the width W1 of the eye area display, and the predetermined value H3 is equal to or smaller than the height H1 of the eye display area.

目領域310a、310bの幅W2が所定値W3未満、かつ目領域310a、310bの高さH2が所定値H3未満であると判定された場合には、図5に示すように目領域表示311a、311bおよびキャッチライト有無表示312a、312bが目領域310a、310bの範囲外となる位置に表示される。   When it is determined that the width W2 of the eye areas 310a and 310b is less than the predetermined value W3 and the height H2 of the eye areas 310a and 310b is less than the predetermined value H3, as shown in FIG. 311b and catchlight presence / absence displays 312a and 312b are displayed at positions outside the range of the eye areas 310a and 310b.

目領域310a、310bの幅W2が所定値W3以上、または目領域310a、310bの高さH2が所定値H3以上であると判定された場合にはキャッチライト有無表示モードとなり、図6に示すようにキャッチライト有無表示のみを表示する。   When it is determined that the width W2 of the eye areas 310a and 310b is equal to or greater than the predetermined value W3, or the height H2 of the eye areas 310a and 310b is equal to or greater than the predetermined value H3, a catchlight presence / absence display mode is set, as shown in FIG. Only the catchlight presence / absence display is displayed.

次に、撮像レンズ103で撮影された映像と目領域表示の分割表示を行う目領域分割表示モードについて図7を用いて説明する。   Next, an eye area division display mode in which the image captured by the imaging lens 103 and the eye area display are divided will be described with reference to FIG.

図3〜図6を用いて説明した目領域表示モードおよびキャッチライト有無表示モードでは、目領域表示およびキャッチライト有無表示を重畳表示することでスルー画像の一部分が見えなくなってしまう。そのため、ユーザが目領域310a、310bの少なくとも1つをプッシュすると目領域分割表示モードとなり、図7に示すように縮小したスルー画像328と目領域310a、310bを拡大した目領域表示311a、311bおよびキャッチライト有無表示312a、312bが表示部28に分割表示される。このとき、目領域表示の幅W4はW1よりも大きく、高さH4はH1よりも大きいサイズで表示される。   In the eye area display mode and the catchlight presence / absence display mode described with reference to FIGS. 3 to 6, when the eye area display and the catchlight presence / absence display are superimposed and displayed, a part of the through image becomes invisible. Therefore, when the user pushes at least one of the eye areas 310a and 310b, the eye area division display mode is set, and as shown in FIG. The catchlight presence / absence displays 312a and 312b are displayed in a divided manner on the display unit 28. At this time, the width W4 of the eye area display is larger than W1, and the height H4 is displayed in a size larger than H1.

このような構成を持つ本実施形態のデジタルカメラ100の表示モード移行処理について、図8のフローチャートを用いて説明する。   The display mode transition processing of the digital camera 100 of the present embodiment having such a configuration will be described using the flowchart of FIG.

ステップS801で、システム制御部50は自分撮りであるか否かを判定する。自分撮りの判定方法としては、あらかじめポートレートモードや自分撮りモード等、複数の撮影モードをデジタルカメラに持たせておき、タッチパネル70で設定した撮影モードが自分撮りモードであるか否かに応じて判定する方法がある。また、本実施形態のデジタルカメラにおいてはモニタ128の回転操作角度が所定の値以上となった場合に自分撮りとみなし、そうでない場合に通常撮影とみなすように判定してもよい。ステップS801で自分撮りと判定した場合には、ステップS802へ処理を移す。   In step S801, the system control unit 50 determines whether the self-portrait is performed. As a method for determining the self-portrait, the digital camera has a plurality of shooting modes such as a portrait mode and a self-portrait mode in advance, and depending on whether the shooting mode set on the touch panel 70 is the self-portrait mode or not. There is a method of judging. Further, in the digital camera of the present embodiment, it may be determined that self-portrait is considered when the rotation operation angle of the monitor 128 is equal to or greater than a predetermined value, and normal shooting is taken otherwise. If it is determined in step S801 that self-portrait has been taken, the process proceeds to step S802.

ステップS802で、システム制御部50は画像データに対し顔検出処理を行い目領域、瞳領域、顔領域を判定し、さらに瞳領域のキャッチライトの有無を判定する。   In step S802, the system control unit 50 performs face detection processing on the image data to determine an eye area, a pupil area, and a face area, and further determines whether there is a catch light in the pupil area.

ステップS803で、システム制御部50は目領域への接触入力を判定する。システム制御部50は目領域にタッチされたと判定した場合にはステップS804へ処理を移す。   In step S803, the system control unit 50 determines contact input to the eye area. If the system control unit 50 determines that the eye area has been touched, it moves the process to step S804.

ステップS804で、システム制御部50はタッチパネル70がプッシュ操作されたか否かを判定する。具体的にはタッチパネル70へのタッチダウンを検出してからタッチパネル70からのタッチオフを検出するまでの間にプッシュ操作されたか否かを判定する。プッシュ操作されたと判定した場合には、ステップS810へ処理を映し、プッシュ操作されなかったと判定した場合には、ステップS805へ処理を移す。   In step S804, the system control unit 50 determines whether the touch panel 70 has been pushed. Specifically, it is determined whether or not a push operation has been performed between detection of touchdown on the touch panel 70 and detection of touch-off from the touch panel 70. If it is determined that the push operation has been performed, the process proceeds to step S810. If it is determined that the push operation has not been performed, the process proceeds to step S805.

ステップS805で、システム制御部50は目領域のサイズを判定する。具体的には、システム制御部50は目領域の幅W2が所定値W3以上か否かおよび目領域の高さH2が所定値H3以上か否かを判定する。目領域の幅W2が所定値W3未満、かつ目領域の高さH2が所定値H3未満である場合には所定サイズ未満と判定し、目領域の幅W2が所定値W3以上、または目領域高さH2が所定値H3以上である場合には所定サイズ以上と判定する。   In step S805, the system control unit 50 determines the size of the eye area. Specifically, the system control unit 50 determines whether the eye area width W2 is equal to or greater than a predetermined value W3 and whether the eye area height H2 is equal to or greater than the predetermined value H3. When the eye area width W2 is less than the predetermined value W3 and the eye area height H2 is less than the predetermined value H3, it is determined that the eye area is less than the predetermined size, and the eye area width W2 is greater than or equal to the predetermined value W3, or the eye area height. When the height H2 is equal to or greater than the predetermined value H3, it is determined that the size is equal to or greater than the predetermined size.

ステップS806で、システム制御部50は目領域表示を実行するか否かを判定する。ステップS805で、目領域のサイズが所定サイズ未満である場合には目領域表示を実行すると判定しステップS807へ処理を移す。目領域のサイズが所定サイズ以上である場合には目領域表示を実行しないと判定しステップS809へ処理を移す。   In step S806, the system control unit 50 determines whether to perform eye area display. If the size of the eye area is less than the predetermined size in step S805, it is determined that the eye area display is to be executed, and the process proceeds to step S807. If the size of the eye area is equal to or larger than the predetermined size, it is determined not to execute the eye area display, and the process proceeds to step S809.

ステップS807で、システム制御部50は目領域表示位置を判定する。システム制御部50は、不揮発性メモリ56に記憶されている目領域表示位置管理テーブルを参照し、目領域表示位置の複数の候補のうち顔領域の座標が含まれていない目領域表示位置があるか否かを判定する。顔領域の座標が含まれていない目領域表示位置があると判定した場合には、1つを目領域表示位置として決定する。顔領域の座標が含まれていない目領域表示位置がないと判定した場合には、目領域表示位置の複数の候補のうち目領域の座標が含まれていない目領域表示位置の1つを目領域表示位置として決定する。   In step S807, the system control unit 50 determines the eye area display position. The system control unit 50 refers to the eye area display position management table stored in the nonvolatile memory 56, and has an eye area display position that does not include the coordinates of the face area among the plurality of candidates for the eye area display position. It is determined whether or not. When it is determined that there is an eye area display position that does not include the coordinates of the face area, one is determined as the eye area display position. When it is determined that there is no eye area display position that does not include the face area coordinates, one of the eye area display positions that do not include the eye area coordinates is selected from the plurality of eye area display positions. The area display position is determined.

ステップS808で、システム制御部50はデジタルカメラを目領域表示モードに設定する。システム制御部50は、表示する目領域表示データとキャッチライト有無表示データをメモリ32に伝送し画像データに重畳させ、画像データをD/A変換部13に出力してD/A変換処理を適用後、表示部28に出力させる。   In step S808, the system control unit 50 sets the digital camera to the eye area display mode. The system control unit 50 transmits the eye area display data to be displayed and the catchlight presence / absence display data to the memory 32, superimposes them on the image data, outputs the image data to the D / A conversion unit 13, and applies the D / A conversion processing. Thereafter, the data is output to the display unit 28.

ステップS809で、システム制御部50はデジタルカメラをキャッチライト有無表示モードに設定する。システム制御部50は、キャッチライト有無表示データをメモリ32に伝送し画像データに重畳させ、画像データをD/A変換部13に出力してD/A変換処理を適用後、表示部28に出力させる。   In step S809, the system control unit 50 sets the digital camera to the catchlight presence / absence display mode. The system control unit 50 transmits the catchlight presence / absence display data to the memory 32 and superimposes it on the image data, outputs the image data to the D / A conversion unit 13, applies the D / A conversion process, and then outputs it to the display unit 28. Let

ステップS810で、システム制御部50はデジタルカメラを目領域分割表示モードに設定する。システム制御部50は、目領域表示データとキャッチライト有無表示データをメモリ32に伝送し、表示する画像データを合成し、画像データをD/A変換部13に出力してD/A変換処理を適用後、表示部28に出力させる。   In step S810, the system control unit 50 sets the digital camera to the eye area division display mode. The system control unit 50 transmits the eye area display data and the catchlight presence / absence display data to the memory 32, combines the image data to be displayed, and outputs the image data to the D / A conversion unit 13 to perform the D / A conversion processing. After the application, the data is output to the display unit 28.

尚、本実施形態において目領域をプッシュすることで目領域分割表示モードへ移行すると説明したが、所定時間以上タッチオン操作された場合に目領域分割表示モードへ移行するように構成してもよい。   In the present embodiment, it has been described that the eye region is shifted to the eye region split display mode by pushing the eye region. However, the eye region split display mode may be shifted when the touch-on operation is performed for a predetermined time or more.

28 表示部、50 システム制御部、70 タッチパネル、100 デジタルカメラ、
310a,310b 目領域、311a,311b 目領域表示、
312a,312b キャッチライト有無表示、328 スルー画像表示、
330 顔領域
28 display unit, 50 system control unit, 70 touch panel, 100 digital camera,
310a, 310b eye area, 311a, 311b eye area display,
312a, 312b presence / absence of catchlight display, 328 through image display,
330 face area

Claims (7)

撮像部と前記撮像部により得られたスルー画像を表示する表示部とを有する撮像装置であって、
制御装置と、
操作部と、
前記制御装置は、
主被写体の目領域を検出し、
前記操作部に第1の操作がなされたことを検出した場合には、
スルー画像に前記目検出部で検出された目領域の画像を所定の大きさに拡大した第1の画像を重畳した画像を前記表示部に表示することを特徴とする撮像装置。
An imaging apparatus having an imaging unit and a display unit that displays a through image obtained by the imaging unit,
A control device;
An operation unit;
The controller is
Detect the eye area of the main subject,
When it is detected that the first operation is performed on the operation unit,
An image pickup apparatus, wherein an image obtained by superimposing a first image obtained by enlarging an image of an eye region detected by the eye detection unit to a predetermined size on a through image is displayed on the display unit.
前記制御装置は、主被写体の瞳領域を検出するとともに前記瞳領域にキャッチライトがあるか否かを検出し、前記操作部に第1の操作がなされたことを検出した場合には、スルー画像に前記キャッチライト検出部で検出されたキャッチライト有無情報を重畳した画像を表示部に表示することを特徴とする請求項1に記載の撮像装置。 The control device detects the pupil region of the main subject, detects whether or not there is a catch light in the pupil region, and if it detects that the first operation has been performed on the operation unit, The image pickup apparatus according to claim 1, wherein an image in which the catchlight presence / absence information detected by the catchlight detection unit is superimposed on the display unit is displayed on the display unit. 前記制御装置は、主被写体の顔領域を検出し、前記顔領域の範囲外に、前記第1の画像を重畳することを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the control device detects a face area of a main subject and superimposes the first image outside the range of the face area. 前記制御装置は、前記目領域の範囲外に、前記第1の画像を重畳することを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the control device superimposes the first image outside a range of the eye region. 前記制御装置は、前記目領域の大きさが所定の大きさ未満であった場合に、前記第1の画像を重畳することを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the control device superimposes the first image when the size of the eye region is less than a predetermined size. 前記制御装置は、前記操作部に第2の操作がなされたことを検出した場合には、目領域の画像を所定の大きさに拡大した第2の画像と縮小したスルー画像とを前記表示部に表示することを特徴とする請求項1に記載の撮像装置。 When the control device detects that the second operation is performed on the operation unit, the control unit displays the second image obtained by enlarging the eye region image to a predetermined size and the reduced through image. The imaging apparatus according to claim 1, wherein the imaging apparatus is displayed. 前記第2の画像の大きさは、前記第1の画像の大きさよりも大きいことを特徴とする請求項6に記載の撮像装置。 The image pickup apparatus according to claim 6, wherein a size of the second image is larger than a size of the first image.
JP2015255568A 2015-12-28 2015-12-28 Imaging apparatus Pending JP2017120942A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015255568A JP2017120942A (en) 2015-12-28 2015-12-28 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015255568A JP2017120942A (en) 2015-12-28 2015-12-28 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2017120942A true JP2017120942A (en) 2017-07-06

Family

ID=59272338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015255568A Pending JP2017120942A (en) 2015-12-28 2015-12-28 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2017120942A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021097287A (en) * 2019-12-16 2021-06-24 シャープ株式会社 Portable terminal, moving image acquisition method, and moving image acquisition program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021097287A (en) * 2019-12-16 2021-06-24 シャープ株式会社 Portable terminal, moving image acquisition method, and moving image acquisition program

Similar Documents

Publication Publication Date Title
JP5921121B2 (en) Imaging apparatus, control method and program thereof, and recording medium
US10911663B2 (en) Electronic apparatus and method for controlling the same
US10057480B2 (en) Electronic apparatus and control method thereof
US10523862B2 (en) Electronic device, method, and medium for touch movement control
US11496670B2 (en) Electronic device with display screen capable of reliable detection of a user selected displayed eye region in a scene to be captured, and region selection method
US10750081B2 (en) Electronic apparatus and method for selecting an organ from an image
JP2014228629A (en) Imaging apparatus, control method and program thereof, and storage medium
JP6512961B2 (en) Imaging control apparatus, control method therefor, program, and storage medium
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP2014110596A (en) Image pickup device, control method, and program therefor, and recording medium
JP5575290B2 (en) Imaging apparatus and control method thereof
US11966146B2 (en) Electronic apparatus and method for performing control based on detection of user's sight line
JP2015034895A (en) Imaging device and control method for the same
JP2017120942A (en) Imaging apparatus
JP7225004B2 (en) Electronic device and its control method
US11438512B2 (en) Electronic apparatus and control method thereof
US9088762B2 (en) Image capturing apparatus and control method thereof
US20240231189A1 (en) Electronic apparatus and method for performing control based on detection of user's sight line
JP5863418B2 (en) Imaging apparatus and control method thereof
JP6971709B2 (en) Imaging device and its control method
JP2018023068A (en) Electronic device, control method thereof, and program
JP2018036426A (en) Imaging apparatus, method for controlling the same, imaging control device, program, and storage medium
JP6472248B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2018077424A (en) Focus control device, control method and program of focus control device
JP2017103686A (en) Imaging apparatus, control method, program, and storage medium