JP2016012845A - Imaging apparatus, method for controlling the same, and control program - Google Patents

Imaging apparatus, method for controlling the same, and control program Download PDF

Info

Publication number
JP2016012845A
JP2016012845A JP2014133998A JP2014133998A JP2016012845A JP 2016012845 A JP2016012845 A JP 2016012845A JP 2014133998 A JP2014133998 A JP 2014133998A JP 2014133998 A JP2014133998 A JP 2014133998A JP 2016012845 A JP2016012845 A JP 2016012845A
Authority
JP
Japan
Prior art keywords
image
unit
superimposed
size
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014133998A
Other languages
Japanese (ja)
Inventor
芝 秀規
Hideki Shiba
秀規 芝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014133998A priority Critical patent/JP2016012845A/en
Publication of JP2016012845A publication Critical patent/JP2016012845A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To display a sub-window for displaying an in-image, without influencing on a face existing in a main image, even when a plurality of faces exist in the main image.SOLUTION: A main camera part 101 images an object, to obtain the main image and an in-camera part 107 images a photographer, to obtain the in-image. When displaying a window for displaying the in-image on the main image displayed in a display part 115, a system control part 118 detects a face area in each of the main image and the in-image by image processing parts 106 and 112. The system control part obtains the position and size of the face area in the main image and the size of the face area in the in-image and controls the position and size of the window, according to the position and size of the face area in the main image and the size of the face in the in-image.

Description

本発明は、撮像装置、その制御方法、および制御プログラムに関し、特に、撮影の結果得られた画像を表示する際の表示制御に関する。   The present invention relates to an imaging apparatus, a control method thereof, and a control program, and more particularly to display control when displaying an image obtained as a result of imaging.

近年、デジタルカメラなどの撮像装置において、主被写体を撮影するための第1の撮像部(以下メインカメラと呼ぶ)と撮影者を撮影するための第2の撮像部(以下インカメラと呼ぶ)を備えるものがある。このような撮像装置において、メインカメラおよびインカメラの各々で得られた画像を1つの表示装置に表示する際、インカメラで得られた画像(インカメラ画像と呼ぶ)をメインカメラで得られた画像(以下メインカメラ画像と呼ぶ)上にサブウィンドウを表示することが行われている。   In recent years, in an imaging apparatus such as a digital camera, a first imaging unit (hereinafter referred to as a main camera) for capturing a main subject and a second imaging unit (hereinafter referred to as an in-camera) for capturing a photographer. There is something to prepare. In such an image pickup apparatus, when an image obtained by each of the main camera and the in-camera is displayed on one display device, an image obtained by the in-camera (referred to as an in-camera image) is obtained by the main camera. A sub window is displayed on an image (hereinafter referred to as a main camera image).

ところが、メインカメラ画像に拘わらず、サブウィンドウはメインカメラ画像上(つまり、表示画面上)の所定の領域に表示される。このため、サブウィンドウとメインカメラ画像における主被写体(例えば、顔)が重なってしまい、主被写体の顔が見えなくなってしまうことがある。   However, the sub window is displayed in a predetermined area on the main camera image (that is, on the display screen) regardless of the main camera image. For this reason, the main subject (for example, face) in the sub window and the main camera image may overlap, and the face of the main subject may not be visible.

このような事態に対処するため、主被写体の顔と重ならない領域を探索して、サブウィンドウを表示するようにしたものがある(特許文献1参照)。   In order to deal with such a situation, there is a technique in which a sub window is displayed by searching for an area that does not overlap the face of the main subject (see Patent Document 1).

特開2001−188525号公報JP 2001-188525 A

しかしながら、上述の特許文献1に記載の表示手法では、メインカメラ画像に多数の顔が存在すると、表示画面上においてサブウィンドウを表示する領域がなくなってしまうことがある。   However, in the display method described in Patent Document 1 described above, if a large number of faces exist in the main camera image, there may be no area for displaying the subwindow on the display screen.

そこで、本発明の目的は、メインカメラ画像に複数の顔が存在する場合においても、メインカメラ画像に存在する顔に影響を与えることなくインカメラ画像を表示するためのサブウィンドウを表示することのできる撮像装置、その制御方法、および制御プログラムを提供することにある。   Therefore, an object of the present invention is to display a sub-window for displaying an in-camera image without affecting the faces existing in the main camera image even when there are a plurality of faces in the main camera image. An imaging apparatus, a control method thereof, and a control program are provided.

上記の目的を達成するため、本発明による撮像装置は、被写体を撮像して第1の画像を得る第1の撮像手段と、被写体以外の撮影者を撮像して第2の画像を得る第2の撮像手段とを有し、表示部に表示された前記第1の画像に前記第2の画像を重ねて表示する撮像装置であって、前記第1の画像において予め定められた部位を第1の部位として検出する検出手段と、前記第1の部位の位置に応じて、前記第2の画像を前記第1の画像に重ねる位置を制御する制御手段と、を有し、前記検出手段により前記第1の画像において複数の前記第1の部位が検出される場合、前記制御手段は、複数の前記第1の部位の優先度に応じて、前記第2の画像を前記第1の画像に重ねる位置を制御することを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention includes a first imaging unit that captures a subject and obtains a first image, and a second that captures a photographer other than the subject and obtains a second image. And an imaging device that displays the second image superimposed on the first image displayed on the display unit, wherein a predetermined part of the first image is defined as the first part. Detecting means for detecting as a part of the first part, and control means for controlling a position at which the second image is superimposed on the first image according to the position of the first part. When a plurality of the first parts are detected in the first image, the control unit superimposes the second image on the first image according to the priority of the plurality of the first parts. The position is controlled.

本発明による制御方法は、被写体を撮像して第1の画像を得る第1の撮像手段と、被写体以外の撮影者を撮像して第2の画像を得る第2の撮像手段とを有し、表示部に表示された前記第1の画像に前記第2の画像を重ねて表示する撮像装置の制御方法であって、前記第1の画像において予め定められた部位を第1の部位として検出する検出ステップと、前記第1の部位の位置に応じて、前記第2の画像を前記第1の画像に重ねる位置を制御する制御ステップと、を有し、前記制御ステップでは、前記検出ステップにより前記第1の画像において複数の前記第1の部位が検出される場合、複数の前記第1の部位の優先度に応じて、前記第2の画像を前記第1の画像に重ねる位置を制御することを特徴とする。   The control method according to the present invention includes a first imaging unit that captures a subject and obtains a first image, and a second imaging unit that captures a photographer other than the subject and obtains a second image, A method for controlling an imaging apparatus that displays a second image superimposed on the first image displayed on a display unit, wherein a predetermined part of the first image is detected as a first part. A detection step; and a control step for controlling a position at which the second image is superimposed on the first image according to the position of the first part. In the control step, the detection step When a plurality of the first parts are detected in the first image, controlling a position at which the second image is superimposed on the first image according to the priority of the plurality of first parts. It is characterized by.

本発明による制御プログラムは、被写体を撮像して第1の画像を得る第1の撮像手段と、被写体以外の撮影者を撮像して第2の画像を得る第2の撮像手段とを有し、表示部に表示された前記第1の画像に前記第2の画像を重ねて表示する撮像装置で用いられる制御プログラムであって、前記撮像装置が備えるコンピュータに、前記第1の画像において予め定められた部位を第1の部位として検出する検出ステップと、前記第1の部位の位置に応じて、前記第2の画像を前記第1の画像に重ねる位置を制御する制御ステップと、を実行させ、前記制御ステップでは、前記検出ステップにより前記第1の画像において複数の前記第1の部位が検出される場合、複数の前記第1の部位の優先度に応じて、前記第2の画像を前記第1の画像に重ねる位置を制御することを特徴とする。   The control program according to the present invention includes a first imaging unit that captures a subject and obtains a first image, and a second imaging unit that captures a photographer other than the subject and obtains a second image, A control program for use in an imaging apparatus that displays the second image superimposed on the first image displayed on the display unit, the computer program included in the imaging apparatus, wherein the first image is predetermined. Detecting a detected part as a first part, and a control step for controlling a position at which the second image is superimposed on the first image according to the position of the first part, In the control step, when a plurality of the first parts are detected in the first image by the detection step, the second image is converted into the first image according to the priority of the plurality of first parts. Overlaid on one image And controlling the.

本発明によれば、第1の画像における第1の部位(例えば、顔)の位置に応じて、第2の画像を第1の画像に重ねる位置を制御する際、第1の画像において複数の第1の部位が検出される場合には、複数の第1の部位の優先度に応じて、第2の画像を第1の画像に重ねる位置を制御する。これによって、第1の画像に複数の顔が存在する場合においても、第1の画像に存在する顔に影響を与えることなくサブウィンドウを表示することができる。   According to the present invention, when controlling the position at which the second image is superimposed on the first image in accordance with the position of the first part (for example, the face) in the first image, When the first part is detected, the position at which the second image is superimposed on the first image is controlled according to the priority of the plurality of first parts. As a result, even when there are a plurality of faces in the first image, the sub-window can be displayed without affecting the faces existing in the first image.

本発明の第1の実施形態による撮像装置の一例についてその外観を示す図であり、(a)は背面からみた図、(b)は正面からみた図である。It is a figure which shows the external appearance about an example of the imaging device by the 1st Embodiment of this invention, (a) is the figure seen from the back surface, (b) is the figure seen from the front surface. 図1に示すカメラの構成についてその一例を示すブロック図である。It is a block diagram which shows the example about the structure of the camera shown in FIG. 図2に示すカメラの動作の一例を説明するためのフローチャートである。3 is a flowchart for explaining an example of the operation of the camera shown in FIG. 2. 図1に示すメインカメラ部の撮影によって得られた画像とインカメラ部の撮影によって得られた画像とを表示部に表示した状態を説明するための図であり、(a)は表示状態の一例を示す図、(b)は表示状態の他の例を示す図である。It is a figure for demonstrating the state which displayed on the display part the image obtained by imaging | photography with the main camera part shown in FIG. 1, and the image acquired by the in-camera part, (a) is an example of a display state (B) is a figure which shows the other example of a display state. 図3に示す撮影モード処理を説明するためのフローチャートである。FIG. 4 is a flowchart for explaining photographing mode processing shown in FIG. 3. FIG. 図5に示すサブウィンドウサイズ算出処理を説明するためのフローチャートである。6 is a flowchart for explaining a sub-window size calculation process shown in FIG. 5. 図5に示す領域重み付け処理を説明するためのフローチャートである。It is a flowchart for demonstrating the area | region weighting process shown in FIG. 図5に示すサブウィンドウ表示位置決定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the subwindow display position determination process shown in FIG. 図3に示す再生モード処理を説明するためのフローチャートである。It is a flowchart for demonstrating the reproduction | regeneration mode process shown in FIG. 本発明の第2の実施形態で行われる領域重み付け処理を説明するためのフローチャートである。It is a flowchart for demonstrating the area | region weighting process performed in the 2nd Embodiment of this invention.

以下に、本発明の実施の形態による撮像装置の一例について、図面を参照して説明する。   Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態による撮像装置の一例についてその外観を示す図である。そして、図1(a)は背面からみた図であり、図1(b)は正面から見た図である。
[First Embodiment]
FIG. 1 is a diagram showing an appearance of an example of an imaging apparatus according to the first embodiment of the present invention. FIG. 1A is a view from the back, and FIG. 1B is a view from the front.

図示の撮像装置は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)201であり、その背面側には表示部202が配置されている(図1(a)参照)。この表示部202は、例えば、液晶ディスプレイであり、表示部202には画像および各種情報が表示される。   The illustrated imaging apparatus is, for example, a digital camera (hereinafter simply referred to as a camera) 201, and a display unit 202 is disposed on the back side thereof (see FIG. 1A). The display unit 202 is, for example, a liquid crystal display, and an image and various types of information are displayed on the display unit 202.

カメラ201の上面にはシャッターボタン203および電源スイッチ206が配置されている。電源スイッチ206はカメラ201の電源をオン又はオフする際に用いられる。そして、シャッターボタン203の操作によって撮影指示が行われる。   A shutter button 203 and a power switch 206 are disposed on the upper surface of the camera 201. A power switch 206 is used when turning on or off the power of the camera 201. Then, a shooting instruction is performed by operating the shutter button 203.

表示部202の斜め右上にはモード切替スイッチ204が配置されている。モード切替スイッチ204はカメラ201において各種モードを切り替える際に用いられる。表示部202の右側には操作部205が配置されている。この操作部205は、ユーザの各種操作を受け付ける各種スイッチおよびボタンなどを有している。そして、表示部202の上側には、第2の撮像部であるインカメラ部207が配置され、このインカメラ部207によって、被写体以外のユーザである撮影者が撮影される。   A mode changeover switch 204 is arranged on the upper right side of the display unit 202. A mode change switch 204 is used when changing various modes in the camera 201. An operation unit 205 is arranged on the right side of the display unit 202. The operation unit 205 includes various switches and buttons for receiving various user operations. An in-camera unit 207, which is a second imaging unit, is arranged on the upper side of the display unit 202, and a photographer who is a user other than the subject is photographed by the in-camera unit 207.

図1(b)に示す正面側において、カメラ201は第1の撮像部であるメインカメラ部208を有している。このメインカメラ部208によって主被写体が撮影される。なお、メインカメラ部208は、主被写体をズームイン又はズームアウトするためのズーム機構を備えている。   On the front side shown in FIG. 1B, the camera 201 has a main camera unit 208 which is a first imaging unit. The main subject is photographed by the main camera unit 208. The main camera unit 208 includes a zoom mechanism for zooming in or zooming out the main subject.

図2は、図1に示すカメラ201の構成についてその一例を示すブロック図である。   FIG. 2 is a block diagram showing an example of the configuration of the camera 201 shown in FIG.

前述のように、カメラ201はメインカメラ部およびインカメラ部を有している。図2においては、メインカメラ部およびインカメラ部はそれぞれ参照番号101および107が付されている。メインカメラ部101は、撮影レンズユニット(以下単に撮影レンズと呼ぶ)102を有しており、この撮影レンズ102はズームレンズおよびフォーカスレンズを含む。   As described above, the camera 201 has a main camera unit and an in-camera unit. In FIG. 2, reference numbers 101 and 107 are assigned to the main camera unit and the in-camera unit, respectively. The main camera unit 101 includes a photographing lens unit (hereinafter simply referred to as a photographing lens) 102, and the photographing lens 102 includes a zoom lens and a focus lens.

撮影レンズ102の後段には、メカ機構部103が配置されている。メカ機構部103は、撮影レンズ102を介して入射する被写体像を拡大又は縮小して撮像素子104に結像させる。メカ機構部103は撮影レンズ102を駆動するズーム機構、光量を制御するための絞り機構、そして、撮影の際に光を遮るシャッター機構などを有している。   A mechanical mechanism unit 103 is disposed following the photographing lens 102. The mechanical mechanism unit 103 enlarges or reduces the subject image incident through the photographing lens 102 and forms it on the image sensor 104. The mechanical mechanism unit 103 includes a zoom mechanism for driving the photographing lens 102, a diaphragm mechanism for controlling the amount of light, and a shutter mechanism for blocking light during photographing.

メカ機構部103の後段には、CMOSイメージセンサなどの撮像素子104が配置されている。撮像素子104は、結像した被写体像に応じた電気信号(アナログ信号)を出力する。撮像素子104の出力であるアナログ信号はA/D変換器105に送られる。A/D変換器105はアナログ信号デジタル信号に変換して、画像処理部106に送る。   An imaging element 104 such as a CMOS image sensor is disposed at the subsequent stage of the mechanical mechanism unit 103. The image sensor 104 outputs an electrical signal (analog signal) corresponding to the formed subject image. An analog signal that is an output of the image sensor 104 is sent to the A / D converter 105. The A / D converter 105 converts the analog signal into a digital signal and sends it to the image processing unit 106.

画像処理部106は、A/D変換器105から送られたデジタル信号、又はメモリ制御部113から送られる画像データについて所定の画素補間、縮小などのリサイズ処理、および色変換処理を行う。さらに、画像処理部106は、撮像の結果得られた画像データにおいて、人物の顔領域を検出する顔検出処理を行う。   The image processing unit 106 performs predetermined resizing processing such as pixel interpolation and reduction, and color conversion processing on the digital signal sent from the A / D converter 105 or the image data sent from the memory control unit 113. Further, the image processing unit 106 performs face detection processing for detecting a human face area in the image data obtained as a result of imaging.

同様に、インカメラ部107は、撮影レンズ108、メカ機構部109、および撮像素子110を有している。そして、撮像素子110の出力であるアナログ信号はA/D変換器111によってデジタル信号に変換される。画像処理部112はA/D変換器111から送られるデジタル信号、又はメモリ制御部113から送られる画像データについて所定の画素補間、縮小などのリサイズ処理、および色変換処理を行う。なお、画像処理部112は、撮像の結果得られた画像データにおいて、人物の顔領域を検出する顔検出処理を行う。   Similarly, the in-camera unit 107 includes a photographing lens 108, a mechanical mechanism unit 109, and an image sensor 110. The analog signal that is the output of the image sensor 110 is converted into a digital signal by the A / D converter 111. The image processing unit 112 performs predetermined pixel interpolation, resizing processing such as reduction and color conversion processing on the digital signal sent from the A / D converter 111 or the image data sent from the memory control unit 113. Note that the image processing unit 112 performs face detection processing for detecting a human face area in the image data obtained as a result of imaging.

A/D変換器105の出力であるデジタル信号は、画像処理部106およびメモリ制御部113を介して、或いはメモリ制御部113を介して画像データとしてメモリ114に直接書き込まれる。同様に、A/D変換器111の出力であるデジタル信号は、画像処理部112およびメモリ制御部113を介して、或いはメモリ制御部113を介して画像データとしてメモリ114に直接書き込まれる。   The digital signal that is the output of the A / D converter 105 is directly written into the memory 114 as image data via the image processing unit 106 and the memory control unit 113 or via the memory control unit 113. Similarly, the digital signal that is the output of the A / D converter 111 is directly written into the memory 114 as image data via the image processing unit 112 and the memory control unit 113 or via the memory control unit 113.

以下の説明では、メインカメラ101で得られた画像データをメイン画像データ又はメイン画像と呼び、インカメラ107で得られた画像データをイン画像データ又はイン画像と呼ぶ。   In the following description, image data obtained by the main camera 101 is called main image data or main image, and image data obtained by the in camera 107 is called in-image data or in-image.

メモリ114には、上述のメイン画像データおよびイン画像データが格納されるとともに、表示部115に表示するための表示用画像データが格納される。なお、メモリ114は、所定枚数の静止画像又は所定時間の動画像、および音声を格納するための十分な記憶容量を備えている。メモリ114は画像表示用のメモリ(ビデオメモリ)を兼ねている。   The memory 114 stores the above-described main image data and in-image data, and also stores display image data to be displayed on the display unit 115. The memory 114 has a sufficient storage capacity for storing a predetermined number of still images or a moving image for a predetermined time, and audio. The memory 114 also serves as an image display memory (video memory).

メモリ制御部113はシステム制御部118の制御下で、D/A変換器116によってメモリ114に格納された表示用画像データをアナログ信号に変換して表示部115に送る。これによって、メモリ114に格納された表示用画像データはD/A変換器116を介して表示部115に画像として表示される。   Under the control of the system control unit 118, the memory control unit 113 converts the display image data stored in the memory 114 by the D / A converter 116 into an analog signal and sends it to the display unit 115. As a result, the display image data stored in the memory 114 is displayed as an image on the display unit 115 via the D / A converter 116.

表示部115(図1においては表示部202で示されている)は、例えば、LCDであって、D/A変換器116の出力であるアナログ信号に応じた画像を表示する。なお、メモリ114に蓄積されたメイン画像データ又はイン画像データをD/A変換器116によってアナログ信号に変換して、当該アナログ信号を表示部115に逐次転送して表示することによってスルー画像表示(以下ライブビュー表示ともいう)が行われる。つまり、撮影の際に所謂電子ビューファインダとして機能することになる。   The display unit 115 (shown by the display unit 202 in FIG. 1) is, for example, an LCD, and displays an image corresponding to an analog signal that is an output of the D / A converter 116. The main image data or in-image data stored in the memory 114 is converted into an analog signal by the D / A converter 116, and the analog signal is sequentially transferred to the display unit 115 for display, thereby displaying a through image ( (Hereinafter also referred to as live view display). That is, it functions as a so-called electronic viewfinder at the time of shooting.

不揮発性メモリ117は、電気的に消去および記録が可能なメモリであって、例えばEEPROMが用いられる。そして、不揮発性メモリ117には、システム制御部118の動作用の定数およびプログラムなどが記憶される。このプログラムには、後述する各種フローチャートを実行するためのプログラムが含まれる。   The nonvolatile memory 117 is an electrically erasable and recordable memory. For example, an EEPROM is used. The nonvolatile memory 117 stores constants and programs for operating the system control unit 118. This program includes a program for executing various flowcharts to be described later.

システム制御部118は、カメラ201全体を制御する。システム制御部118は、不揮発性メモリ117に記録されたプログラムを実行することによって、例えば、後述する処理を行う。   The system control unit 118 controls the entire camera 201. For example, the system control unit 118 performs a process described later by executing a program recorded in the nonvolatile memory 117.

前述のメモリ114は、例えば、RAMであり、メモリ114には、システム制御部118の動作用の定数、変数、そして、不揮発性メモリ117から読み出したプログラムなどが展開される。なお、システム制御部118は、メモリ114、D/A変換器116、および表示部115などを制御して表示制御を行う。   The memory 114 is, for example, a RAM, and constants and variables for operation of the system control unit 118, a program read from the nonvolatile memory 117, and the like are expanded in the memory 114. The system control unit 118 controls the memory 114, the D / A converter 116, the display unit 115, and the like to perform display control.

図2に示す操作部119は、図1に示すシャッターボタン203、電源スイッチ206、モード切替スイッチ204、および操作部205が含まれている。モード切替スイッチは、システム制御部118の動作モードを、例えば、撮影モードおよび再生モードのいずれかに切り替える際に用いられる。撮影モードには、例えば、静止画撮影モードおよび動画撮影モードがあり、撮影モードの際には、表示部115によるライブビュー表示が行われる。再生モードにおいては、撮影済みの画像(メイン画像および/又はイン画像)が閲覧のため表示部115に表示される。   The operation unit 119 illustrated in FIG. 2 includes the shutter button 203, the power switch 206, the mode change switch 204, and the operation unit 205 illustrated in FIG. The mode switch is used when the operation mode of the system control unit 118 is switched to, for example, one of the shooting mode and the playback mode. The shooting modes include, for example, a still image shooting mode and a moving image shooting mode. In the shooting mode, live view display is performed by the display unit 115. In the reproduction mode, a captured image (main image and / or in-image) is displayed on the display unit 115 for viewing.

静止画撮影モードには、オート撮影モード、オートシーン判別モード、マニュアルモード、撮影シーン別の撮影設定となる各種シーンモード、およびプログラムAEモード、およびカスタムモードなどが含まれている。   The still image shooting mode includes an auto shooting mode, an auto scene discrimination mode, a manual mode, various scene modes for shooting settings for each shooting scene, a program AE mode, a custom mode, and the like.

静止画撮影モードに含まれるこれらのモードの切り替えは、例えば、モード切替スイッチによって行われる。なお、モード切替スイッチを用いて静止画撮影モードに一旦切り替えた後、静止画撮影モードに含まれるこれらのモードのいずれかに操作部119に備えられた他の操作部材を用いて切り替えるようにしてもよい。また、動画撮影モードにおいても複数のモードを含むようにしてもよい。   These modes included in the still image shooting mode are switched by, for example, a mode switch. It should be noted that after switching to the still image shooting mode once using the mode switch, the mode is switched to one of these modes included in the still image shooting mode using another operation member provided in the operation unit 119. Also good. Also, the moving image shooting mode may include a plurality of modes.

操作部119に備えられたシャッターボタンは、第1のシャッタースイッチおよび第2のシャッタースイッチを有している。シャッターボタンが操作途中、所謂半押し状態となると(撮影準備指示)、第1のシャッタースイッチがオンとなって、第1のシャッタースイッチ信号SW1がシステム制御部118に送られる。   The shutter button provided in the operation unit 119 has a first shutter switch and a second shutter switch. When the shutter button is in a half-pressed state during the operation (shooting preparation instruction), the first shutter switch is turned on, and the first shutter switch signal SW1 is sent to the system control unit 118.

システム制御部118は、第1シャッタースイッチ信号SW1に応答して、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、およびEF(フラッシュプリ発光)処理などを開始する。   In response to the first shutter switch signal SW1, the system control unit 118 starts AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, EF (flash preflash) processing, and the like. To do.

シャッターボタンが操作完了、所謂全押し状態となると(撮影指示)、第2のシャッタースイッチがオンとなって、第2のシャッタースイッチ信号SW2がシステム制御部118に送られる。   When the operation of the shutter button is completed, that is, in the so-called fully depressed state (shooting instruction), the second shutter switch is turned on, and the second shutter switch signal SW2 is sent to the system control unit 118.

システム制御部118は、第2のシャッタースイッチ信号SW2に応答して、撮像素子104および110における信号読み出しから記録媒体120に画像データを書き込むまでの一連の撮影処理(本撮影)を開始する。   In response to the second shutter switch signal SW2, the system control unit 118 starts a series of shooting processes (main shooting) from reading signals in the image sensors 104 and 110 to writing image data in the recording medium 120.

ところで、表示部115に表示される種々の機能アイコンを選択操作することによって、場面(撮影シーン)毎に、操作部119には適宜機能が割り当てられて、各種機能ボタンとして作用する。機能ボタンとして、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、および属性変更ボタンがある。例えば、メニューボタンが操作されると、各種設定が可能なメニュー画面が表示部115に表示される。ユーザは、表示部115に表示されたメニュー画面と、操作部119に備えられた上下左右の4方向ボタンおよびSETボタンを用いて直感的に各種設定を行うことができる。   By the way, by selecting and operating various function icons displayed on the display unit 115, functions are appropriately assigned to the operation unit 119 for each scene (shooting scene), and the buttons function as various function buttons. Examples of the function buttons include an end button, a return button, an image advance button, a jump button, a narrowing button, and an attribute change button. For example, when a menu button is operated, a menu screen on which various settings can be made is displayed on the display unit 115. The user can make various settings intuitively by using the menu screen displayed on the display unit 115 and the up / down / left / right four-way buttons and the SET button provided on the operation unit 119.

電源部121は、アルカリ電池又はリチウム電池などの一次電池、NiCd電池、NiMH電池、又はLi電池などの二次電池を有するとともに、ACアダプターなどを備えている。記録媒体I/F122は、メモリカード又はハードディスクなどの記録媒体120とのインターフェースである。記録媒体120には、撮影の結果得られた画像が記録され、例えば、半導体メモリ又は磁気ディスクから構成される。   The power supply unit 121 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, and an AC adapter. The recording medium I / F 122 is an interface with the recording medium 120 such as a memory card or a hard disk. An image obtained as a result of shooting is recorded on the recording medium 120, and is composed of, for example, a semiconductor memory or a magnetic disk.

上述のカメラ201においては、所謂中央1点AF又は顔AFを用いた撮影を行うことができる。中央1点AFでは撮影画面の中央位置1点に対してAFが行われる。顔AFでは顔検出によって検出された撮影画面における顔領域に対してAFが行われる。   The above-described camera 201 can perform photographing using so-called center single point AF or face AF. In the central one-point AF, AF is performed on one central position on the shooting screen. In face AF, AF is performed on the face area on the shooting screen detected by face detection.

ここで、カメラ201における顔検出について説明する。なお、顔検出において、メイン画像データについて第1の部位である顔領域を検出する際には、システム制御部118から画像処理部106に顔検出対象の画像データが送られる。同様に、イン画像データについて第2の部位である顔領域を検出する際には、システム制御部118から画像処理部112に顔検出対象の画像データが送られる。画像処理部106および112における顔検出処理は同様であるので、ここでは、画像処理部106に注目して顔検出処理を説明する。   Here, face detection in the camera 201 will be described. In the face detection, when detecting the face area that is the first part of the main image data, the image data to be detected by the face is sent from the system control unit 118 to the image processing unit 106. Similarly, when detecting the face area which is the second part of the in-image data, the image data to be detected by the face is sent from the system control unit 118 to the image processing unit 112. Since the face detection processing in the image processing units 106 and 112 is the same, here, the face detection processing will be described by paying attention to the image processing unit 106.

前述のように、顔検出の際には、システム制御部118は顔検出対象の画像データを画像処理部106に送る。システム制御部118の制御下で、画像処理部106は、当該画像データに対して水平方向バンドパスフィルタ処理を行う。そして、画像処理部106は水平方向バンドパスフィルタ処理された画像データに対して垂直方向バンドパスフィルタ処理を行う。これら水平および垂直方向バンドパスフィルタ処理によって、画像データのエッジ成分が検出される。   As described above, at the time of face detection, the system control unit 118 sends the image data to be detected to the image processing unit 106. Under the control of the system control unit 118, the image processing unit 106 performs horizontal bandpass filter processing on the image data. Then, the image processing unit 106 performs vertical bandpass filter processing on the image data that has been subjected to horizontal bandpass filter processing. The edge component of the image data is detected by these horizontal and vertical band pass filter processes.

その後、システム制御部118は、検出されたエッジ成分についてパターンマッチング処理を行って、目および鼻、口、耳の候補群を抽出する。そして、システム制御部118は、抽出された目の候補群から、予め設定された条件(例えば、2つの目の距離および傾きなど)を満たすものを、目の対と判定して、目の対があるもののみ目の候補群として絞り込む。   Thereafter, the system control unit 118 performs a pattern matching process on the detected edge component to extract a candidate group of eyes, nose, mouth, and ears. Then, the system control unit 118 determines an eye pair that satisfies a preset condition (for example, the distance and inclination of two eyes) from the extracted eye candidate group, and sets the eye pair. Narrow down the candidate group of only those with.

システム制御部118は、絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳)を対応付けるとともに、予め設定した非顔条件フィルタ処理を行って、顔領域を検出する。   The system control unit 118 associates the narrowed-down eye candidate group with the other parts (nose, mouth, ears) that form the corresponding face, and performs a preset non-face condition filtering process to determine the face region. To detect.

なお、システム制御部118で行われる顔検出は、1つの顔領域のみではなく複数の顔領域について行われる。システム制御部118は、顔の検出結果に応じて顔領域を示す顔情報を生成する。   The face detection performed by the system control unit 118 is performed not only for one face area but also for a plurality of face areas. The system control unit 118 generates face information indicating the face area according to the face detection result.

このようにして、ライブビュー表示又は再生表示される画像データを画像解析して、画像データの特徴量を示す被写体情報の一つである顔情報を得て、この顔情報に応じて被写体(主被写体又は撮影者)を検出することができる。なお、被写体情報として顔情報を例に挙げて説明したが、被写体情報には、顔情報の他にも赤目判定、目の検出、目つむり検出、又は笑顔検出などで得られた様々な情報がある。   In this way, image data that is displayed in live view or reproduced and displayed is subjected to image analysis to obtain face information that is one piece of subject information indicating the feature amount of the image data. Subject or photographer). Although face information has been described as an example of subject information, the subject information includes various information obtained by red-eye determination, eye detection, eye-brow detection, or smile detection in addition to face information. is there.

図3は、図2に示すカメラ201の動作の一例を説明するためのフローチャートである。なお、図示のフローチャートに係る処理はシステム制御部118の制御下で行われる。   FIG. 3 is a flowchart for explaining an example of the operation of the camera 201 shown in FIG. Note that the processing according to the illustrated flowchart is performed under the control of the system control unit 118.

ここでは、カメラ201は撮影モードおよび再生モード」のいずれかのモードで動作するものとする。前述のように、撮影モードにおいては、表示部115にライブビュー表示が行なわれ、シャッターボタンの操作により撮影が行われる。一方、再生モードにおいては、記録媒体120に格納された撮影済みの画像データが閲覧のため画像として表示部115に再生表示される。   Here, it is assumed that the camera 201 operates in any one of the “shooting mode and playback mode”. As described above, in the shooting mode, live view display is performed on the display unit 115, and shooting is performed by operating the shutter button. On the other hand, in the playback mode, captured image data stored in the recording medium 120 is played back and displayed on the display unit 115 as an image for viewing.

カメラ動作が開始されると、システム制御部118は、モード切替スイッチの位置に応じて、カメラ201が撮影モードであるか否かを判定する(ステップS301)。カメラ201が撮影モードであると(ステップS301において、YES)、システム制御部118は、後述する撮影モード処理を行う(ステップS302)。   When the camera operation is started, the system control unit 118 determines whether or not the camera 201 is in the shooting mode according to the position of the mode switch (step S301). When the camera 201 is in the shooting mode (YES in step S301), the system control unit 118 performs shooting mode processing described later (step S302).

一方、カメラ201が撮影モードではないと(ステップS301において、NO)、システム制御部118は、カメラ201が再生モードであると判定する。そして、システム制御部118は後述する再生モード処理を行う(ステップS303)。   On the other hand, if the camera 201 is not in the shooting mode (NO in step S301), the system control unit 118 determines that the camera 201 is in the playback mode. Then, the system control unit 118 performs a playback mode process described later (step S303).

ステップS302又はS303の処理の後、システム制御部118はカメラ動作をシャットダウンさせるか否かを判定する(ステップS304)。カメラ動作をシャットダウンさせると判定すると(ステップS304において、YES)、システム制御部118はカメラ動作を終了する。カメラ動作をシャットダウンしないと判定すると(ステップS304において、NO)、システム制御部118はステップS301の処理に戻る。なお、例えば、電源スイッチ206が操作されると、システム制御部118はカメラ動作をシャットダウンさせると判定する。   After the process of step S302 or S303, the system control unit 118 determines whether to shut down the camera operation (step S304). If it is determined that the camera operation is to be shut down (YES in step S304), system control unit 118 ends the camera operation. If it is determined not to shut down the camera operation (NO in step S304), system control unit 118 returns to the process in step S301. For example, when the power switch 206 is operated, the system control unit 118 determines to shut down the camera operation.

図4は、図1に示すメインカメラ部208の撮影によって得られた画像とインカメラ部207の撮影によって得られた画像とを表示部202に表示した状態を説明するための図である。そして、図4(a)は表示状態の一例を示す図であり、図4(b)は表示状態の他の例を示す図である。   FIG. 4 is a diagram for explaining a state in which an image obtained by photographing with the main camera unit 208 shown in FIG. 1 and an image obtained by photographing with the in-camera unit 207 are displayed on the display unit 202. FIG. 4A is a diagram illustrating an example of a display state, and FIG. 4B is a diagram illustrating another example of the display state.

図4において、いま、表示部202(図2においては、表示部115)には、画面(メインウィンドウともいう)401が表示されているものとする。この画面401には、メイン画像が表示されるとともにイン画像が表示されている。メイン画像には主被写体である人物の顔402および403が存在する。画面401にはサブウィンドウ404が表示され、イン画像は当該サブウィンドウ404に表示される。そして、イン画像には撮影者405が存在する。   4, it is assumed that a screen (also referred to as a main window) 401 is currently displayed on the display unit 202 (the display unit 115 in FIG. 2). The screen 401 displays a main image and an in-image. In the main image, there are human faces 402 and 403 that are main subjects. A sub window 404 is displayed on the screen 401, and the in-image is displayed in the sub window 404. The photographer 405 is present in the in-image.

このように、表示部202にはメイン画像とイン画像とが合成された合成画像が表示されることになる。   As described above, the display unit 202 displays a composite image in which the main image and the in-image are combined.

後述するように、システム制御部118はメイン画像に人物の顔が存在すると、例えば、顔402および403の位置および大きさに応じて、画面401におけるサブウィンドウ404の位置を変更する。   As will be described later, when a human face is present in the main image, the system control unit 118 changes the position of the sub window 404 on the screen 401 according to the positions and sizes of the faces 402 and 403, for example.

図4(a)に示す例では、顔402および403を避ける位置である画面401の左隅にサブウィンドウ404が表示される。一方、図4(b)に示す例では、顔402および403を避ける位置である画面401の右隅にサブウィンドウ404が表示される。このように、システム制御部118はメイン画像における顔402および403の位置およびサイズに応じて、サブウィンドウ404を顔402および403に影響しない位置に表示する。   In the example shown in FIG. 4A, a sub window 404 is displayed at the left corner of the screen 401 that is a position where the faces 402 and 403 are avoided. On the other hand, in the example shown in FIG. 4B, a sub window 404 is displayed at the right corner of the screen 401 where the faces 402 and 403 are avoided. As described above, the system control unit 118 displays the sub window 404 at a position that does not affect the faces 402 and 403 in accordance with the positions and sizes of the faces 402 and 403 in the main image.

図5は、図3に示す撮影モード処理を説明するためのフローチャートである。   FIG. 5 is a flowchart for explaining the shooting mode processing shown in FIG.

撮影モード処理を開始すると、システム制御部118の制御下で、画像処理部112はイン画像について顔検出処理を行う(ステップS501)。そして、システム制御部118は、顔検出処理の結果得られた顔検出結果に応じてイン画像において顔が検出されたか否かを判定する(ステップS502)。   When the shooting mode processing is started, the image processing unit 112 performs face detection processing on the in-image under the control of the system control unit 118 (step S501). Then, the system control unit 118 determines whether or not a face has been detected in the in-image according to the face detection result obtained as a result of the face detection process (step S502).

イン画像において顔が検出されると(ステップS502において、YES)、システム制御部118はメインカメラ部101についてズーム動作を行うか否かを判定する(ステップS503)。メインカメラ部101についてズーム動作を行わないと(ステップS503において、NO)、システム制御部118は、後述するようにして、サブウィンドウのサイズを算出するためのサイズ算出処理を行う(ステップS504)。   When a face is detected in the in-image (YES in step S502), the system control unit 118 determines whether or not to perform a zoom operation on the main camera unit 101 (step S503). If the zoom operation is not performed for the main camera unit 101 (NO in step S503), the system control unit 118 performs a size calculation process for calculating the size of the subwindow as described later (step S504).

続いて、システム制御部118は、画像処理部106を制御してメイン画像について顔検出処理を行う(ステップS505)。そして、システム制御部118は顔検出処理の結果得られた顔検出結果に応じて、メイン画像において顔が検出されたか否かを判定する。その後、システム制御部118は、後述するようにして、メイン画像の領域について領域の重み付け処理を行う(ステップS506)。   Subsequently, the system control unit 118 controls the image processing unit 106 to perform face detection processing on the main image (step S505). Then, the system control unit 118 determines whether a face is detected in the main image according to the face detection result obtained as a result of the face detection process. Thereafter, the system control unit 118 performs area weighting processing on the area of the main image as described later (step S506).

続いて、システム制御部118は、後述するようにして、表示部115に表示するサブウィンドウの表示位置を画面上(つまり、メイン画像上)のいずれの領域に表示するかを決定するためのサブウィンドウの表示位置決定処理を行う(ステップS507)。そして、システム制御部118は、表示位置決定処理で得られたサブウィンドウの表示位置を、メイン画像とイン画像とに関連付けてメモリ114に記憶する(ステップS508)。   Subsequently, as will be described later, the system control unit 118 determines a sub-window for determining in which region on the screen (that is, on the main image) the display position of the sub-window displayed on the display unit 115 is to be displayed. Display position determination processing is performed (step S507). Then, the system control unit 118 stores the display position of the sub window obtained by the display position determination process in the memory 114 in association with the main image and the in-image (step S508).

なお、メイン画像とイン画像とを記憶媒体120に記憶する際には、サブウィンドウの表示位置を示す情報(状態情報という)を記憶媒体120に記憶することになる。   Note that when the main image and the in-image are stored in the storage medium 120, information indicating the display position of the sub window (referred to as state information) is stored in the storage medium 120.

続いて、システム制御部118はサブウィンドウの表示位置に応じて、メイン画像にサブウィンドウを合成して表示部115に表示する(ステップS509)。そして、システム制御部118は撮影モード処理を終了するか否かを判定する(ステップS510)。   Subsequently, the system control unit 118 synthesizes the sub window with the main image according to the display position of the sub window and displays it on the display unit 115 (step S509). Then, the system control unit 118 determines whether or not to end the shooting mode process (step S510).

撮影モード処理を終了すると判定すると(ステップS510において、YES)、システム制御部118は撮影モード処理を終了する。一方、撮影モード処理を続行すると判定すると(ステップS510において、NO)、システム制御部118は現在のサブウィンドウの表示位置を所定の時間維持して(ステップS511)、S501の処理に戻る。   If it is determined that the shooting mode process is to be ended (YES in step S510), system control unit 118 ends the shooting mode process. On the other hand, if it is determined to continue the shooting mode process (NO in step S510), system control unit 118 maintains the current display position of the subwindow for a predetermined time (step S511), and returns to the process of S501.

イン画像において顔が検出されないと(ステップS502において、NO)、システム制御部118はサブウィンドウを非表示とする(ステップS512)。そして、システム制御部118は、サブウィンドウの非表示を示す非表示情報をメイン画像とイン画像とに関連付けてメモリ114に記憶する(ステップS513)。その後、システム制御部118はステップS10の処理に進む。   If no face is detected in the in-image (NO in step S502), system control unit 118 hides the sub-window (step S512). Then, the system control unit 118 stores non-display information indicating non-display of the subwindow in the memory 114 in association with the main image and the in-image (step S513). Thereafter, the system control unit 118 proceeds to the process of step S10.

なお、メイン画像とイン画像とを記憶媒体120に記憶する際には、サブウィンドウの非表示を示す非表示情報が記憶媒体120に記憶される。   Note that when the main image and the in-image are stored in the storage medium 120, non-display information indicating non-display of the subwindow is stored in the storage medium 120.

メインカメラ部101についてズーム動作を行う場合には(ステップS503において、YES)、システム制御部118はサブウィンドウのサイズおよび表示位置を予め設定されたサイズおよび位置に決定する(ステップS514)。そして、システム制御部118はステップS508の処理に進む。   When performing a zoom operation on main camera unit 101 (YES in step S503), system control unit 118 determines the size and display position of the subwindow to be a preset size and position (step S514). Then, the system control unit 118 proceeds to the process of step S508.

図6は、図5に示すサブウィンドウのサイズ算出処理を説明するためのフローチャートである。   FIG. 6 is a flowchart for explaining the sub-window size calculation processing shown in FIG.

サブウィンドウサイズ算出処理を開始すると、システム制御部118は、イン画像において顔領域の数が2つ以上であるか否かを判定する(ステップS601)。イン画像において顔領域の数が2つ以上であると(ステップS601において、YES)、システム制御部118は顔領域のうちそのサイズが最も大きい顔領域を抽出顔領域として抽出する(ステップS602)。   When the sub window size calculation process is started, the system control unit 118 determines whether or not the number of face areas in the in-image is two or more (step S601). If the number of face areas in the in-image is two or more (YES in step S601), system control unit 118 extracts the face area having the largest size among the face areas as an extracted face area (step S602).

続いて、システム制御部118はイン画像において抽出顔領域が占める割合を占有割合として算出する(ステップS603)。そして、システム制御部118は占有割合に応じて予め設定されたサイズにサブウィンドウのサイズを決定する(ステップS604)。その後、システム制御部118はサブウィンドウサイズ算出処理を終了する。   Subsequently, the system control unit 118 calculates a ratio of the extracted face area in the in-image as an occupation ratio (step S603). Then, the system control unit 118 determines the size of the subwindow to a preset size according to the occupation ratio (step S604). Thereafter, the system control unit 118 ends the sub window size calculation process.

一方、イン画像において顔領域の数が1つであると(ステップS601において、NO)、システム制御部118はステップS603の処理に進んで、イン画像に存在する一つの顔領域のイン画像に対する占有割合を算出する。   On the other hand, if the number of face areas in the in-image is one (NO in step S601), the system control unit 118 proceeds to the process in step S603 and occupies one face area in the in-image for the in-image. Calculate the percentage.

図7は、図5に示す領域重み付け処理を説明するためのフローチャートである。   FIG. 7 is a flowchart for explaining the area weighting process shown in FIG.

領域重み付け処理を開始すると、システム制御部118は、メイン画像において検出された顔領域の各々についてそのサイズを算出する(ステップS701)。そして、システム制御部118は顔領域についてそのサイズが大きい順に重み付け係数を決定する(ステップS702)。つまり、システム制御部118は顔領域毎にそのサイズに応じて予め設定された重み付け係数を選択することになる。   When the area weighting process is started, the system control unit 118 calculates the size of each face area detected in the main image (step S701). Then, the system control unit 118 determines weighting factors in descending order of the size of the face area (step S702). That is, the system control unit 118 selects a weighting coefficient that is set in advance according to the size of each face area.

続いて、システム制御部118は、メイン画像において顔領域が互いに少なくとも一部が重なり合う重複領域が存在するか否かを判定する(ステップS703)。重複領域が存在すると(ステップS703において、YES)、システム制御部118は、重なり合う顔領域においてそのサイズが最も大きい顔領域に重複領域が属すると決定する(ステップS704)。   Subsequently, the system control unit 118 determines whether or not there is an overlapping region in which the facial regions at least partially overlap each other in the main image (step S703). If there is an overlapping area (YES in step S703), system control unit 118 determines that the overlapping area belongs to the face area having the largest size in the overlapping face area (step S704).

次に、システム制御部118は、顔領域の各々について、ステップS702で決定した重み付け係数を乗算して重み付け処理を行う(ステップS705)。そして、システム制御部118は領域重み付け処理を終了する。なお、重複領域が存在しないと(ステップS703において、NO)、システム制御部118はステップS705の処理に進む。   Next, the system control unit 118 performs weighting processing by multiplying each of the face regions by the weighting coefficient determined in step S702 (step S705). Then, the system control unit 118 ends the area weighting process. If there is no overlapping area (NO in step S703), system control unit 118 proceeds to the process in step S705.

図8は、図5に示すサブウィンドウ表示位置決定処理を説明するためのフローチャートである。   FIG. 8 is a flowchart for explaining the sub-window display position determination process shown in FIG.

サブウィンドウ表示位置決定処理を開始すると、システム制御部118は、領域重み付け処理が行われたメイン画像において、重み付けされていない領域についてサブウィンドウが表示可能な領域があるか否かを判定する(ステップS801)。重み付けされていない領域においてサブウィンドウが表示可能な領域がないと(ステップS801において、NO)、システム制御部118はサブウィンドウのサイズに応じて予め設定された重み付け係数を決定する(ステップS802)。そして、システム制御部118は当該重み付け係数によってサブウィンドウのサイズを重み付け処理する。   When the sub-window display position determination process is started, the system control unit 118 determines whether or not there is an area in which the sub-window can be displayed for an unweighted area in the main image subjected to the area weighting process (step S801). . If there is no area in which the sub-window can be displayed in the unweighted area (NO in step S801), the system control unit 118 determines a preset weighting coefficient according to the size of the sub-window (step S802). Then, the system control unit 118 weights the size of the subwindow with the weighting coefficient.

続いて、システム制御部118は、ステップS802において重み付け処理したサブウィンドウよりも重み付けが低く、かつサブウィンドウが表示可能な領域があるか否かを判定する(ステップS803)。重み付け処理したサブウィンドウよりも重み付けが低いか又はサブウィンドウが表示可能な領域がないと(ステップS803において、NO)、システム制御部118は重み付け係数を所定の率で増加させる。つまり、システム制御部118は重み付け係数を大きくして、当該重み付け係数によってサブウィンドウのサイズを重み付け処理する。そして、システム制御部118はステップS803の処理に戻る。   Subsequently, the system control unit 118 determines whether or not there is an area whose weight is lower than that of the sub window weighted in step S802 and the sub window can be displayed (step S803). If the weighting is lower than the weighted subwindow or if there is no area in which the subwindow can be displayed (NO in step S803), system control unit 118 increases the weighting coefficient at a predetermined rate. That is, the system control unit 118 increases the weighting coefficient, and weights the size of the subwindow with the weighting coefficient. Then, the system control unit 118 returns to the process of step S803.

重み付け処理したサブウィンドウよりも重み付けが低く、かつサブウィンドウが表示可能な領域があると(ステップS803において、YES)、システム制御部118は、当該領域をサブウィンドウの表示位置として決定する(ステップS805)。そして、システム制御部118はサブウィンドウ表示位置決定処理を終了する。   If there is an area where the weight is lower than the weighted subwindow and the subwindow can be displayed (YES in step S803), system control unit 118 determines the area as the display position of the subwindow (step S805). Then, the system control unit 118 ends the sub window display position determination process.

なお、重み付けされていない領域においてサブウィンドウが表示可能な領域があると(ステップS801において、YES)、システム制御部118はステップS805の処理に進んで、当該領域をサブウィンドウの表示位置として決定する。この際、複数の領域が存在する場合には、システム制御部118は最も面積の大きい領域をサブウィンドウの表示位置として決定することになる。   If there is an area in which the sub window can be displayed in the unweighted area (YES in step S801), the system control unit 118 proceeds to the process in step S805 and determines the area as the display position of the sub window. At this time, when there are a plurality of regions, the system control unit 118 determines the region having the largest area as the display position of the sub window.

図9は、図3に示す再生モード処理を説明するためのフローチャートである。   FIG. 9 is a flowchart for explaining the playback mode processing shown in FIG.

再生モード処理を開始すると、システム制御部118は記憶媒体120に記録された画像に関連付けてサブウィンドウの状態情報が記録されているか否かを判定する(ステップS901)。サブウィンドウの状態情報が記録されていると(ステップS901において、有)、システム制御部118はメモリ制御部113によって記憶媒体120からメイン画像およびイン画像を読み出す。そして、システム制御部118はメイン画像を表示部115に表示するとともに、サブウィンドウの状態情報に応じてメイン画像上にサブウィンドウを表示しイン画像をサブウィンドウに表示する(ステップS902)。その後、システム制御部118は再生モード処理を終了する。   When the reproduction mode process is started, the system control unit 118 determines whether or not the sub window status information is recorded in association with the image recorded in the storage medium 120 (step S901). When the sub window status information is recorded (Yes in step S901), the system control unit 118 reads the main image and the in-image from the storage medium 120 by the memory control unit 113. Then, the system control unit 118 displays the main image on the display unit 115, displays the sub window on the main image according to the state information of the sub window, and displays the in-image on the sub window (step S902). Thereafter, the system control unit 118 ends the playback mode process.

サブウィンドウの状態情報が記録されていないと(ステップS901において、無)、システム制御部118は記憶媒体120からメイン画像およびイン画像を読み出す。そして、システム制御部118は、図5で説明した撮影モード処理と同様の処理を行って、メイン画像にサブウィンドウを表示する(ステップS903)。その後、システム制御部118は再生モード処理を終了する。   If the sub window status information is not recorded (NO in step S901), the system control unit 118 reads the main image and the in-image from the storage medium 120. Then, the system control unit 118 performs processing similar to the shooting mode processing described with reference to FIG. 5, and displays a sub window on the main image (step S903). Thereafter, the system control unit 118 ends the playback mode process.

このように、本発明の第1の実施形態では、メイン画像に複数の顔が存在した際においては、第1の画像における顔とサブウィンドウとに重み付けを行う。つまり、第1の画像における顔とサブウィンドウとに優先度をつけて、メイン画像の領域にサブウィンドウを表示する。これによって、メイン画像において最も影響の少ない領域にサブウィンドウを表示することができる。   As described above, in the first embodiment of the present invention, when a plurality of faces exist in the main image, the face and the sub window in the first image are weighted. That is, priority is given to the face and the subwindow in the first image, and the subwindow is displayed in the area of the main image. As a result, the sub-window can be displayed in an area having the least influence in the main image.

[第2の実施形態]
続いて、本発明の第2の実施形態によるカメラの一例について説明する。なお、第2の実施形態によるカメラの構成は図1および図2に示すカメラと同様である。また、第2の実施形態によるカメラは、第1の実施形態において図3で説明したようにしてカメラ動作を行うが、第2の実施形態では領域重み付け処理のみが第1の実施形態と異なる。
[Second Embodiment]
Next, an example of a camera according to the second embodiment of the present invention will be described. The configuration of the camera according to the second embodiment is the same as that of the camera shown in FIGS. The camera according to the second embodiment performs the camera operation as described in FIG. 3 in the first embodiment. However, only the area weighting process is different from the first embodiment in the second embodiment.

図10は、本発明の第2の実施形態で行われる領域重み付け処理を説明するためのフローチャートである。なお、図示のフローチャートにおいて、図7に示すフローチャートと同一のステップについては同一の参照符号を付して説明を省略する。   FIG. 10 is a flowchart for explaining region weighting processing performed in the second embodiment of the present invention. In the illustrated flowchart, the same steps as those in the flowchart shown in FIG.

領域重み付け処理を開始すると、システム制御部118は、図7で説明したステップS701〜S705の処理を行う。ステップS705の処理の後、システム制御部118の制御下で、画像処理部106はメイン画像において笑顔検出を行って、笑顔検出結果を得る。システム制御部118は笑顔検出結果に応じて笑顔が検出されたか否かを判定する(ステップS1001)。   When the area weighting process is started, the system control unit 118 performs the processes of steps S701 to S705 described with reference to FIG. After the process of step S705, under the control of the system control unit 118, the image processing unit 106 performs smile detection on the main image and obtains a smile detection result. The system control unit 118 determines whether a smile is detected according to the smile detection result (step S1001).

笑顔が検出されないと(ステップS1001において、NO)、システム制御部118は領域重み付け処理を終了する。一方、笑顔が検出されると(ステップS1001において、YES)、システム制御部118は笑顔を検出した顔領域を含む領域について、さらに予め定められた重み付け処理を行う(ステップS1002)。そして、システム制御部118は領域重み付け処理を終了する。   If a smile is not detected (NO in step S1001), system control unit 118 ends the area weighting process. On the other hand, when a smile is detected (YES in step S1001), system control unit 118 further performs a predetermined weighting process on the area including the face area where the smile is detected (step S1002). Then, the system control unit 118 ends the area weighting process.

このように、本発明の第2の実施形態では、笑顔が検出されると。当該笑顔の優先度を高くする。これによって、たとえ笑顔のサイズが小さくても、当該笑顔がサブウィンドウの表示に影響されることを回避することができる。   Thus, when a smile is detected in the second embodiment of the present invention. Increase the priority of smiles. As a result, even if the size of the smile is small, it is possible to avoid that the smile is affected by the display of the subwindow.

上述の説明から明らかなように、図2に示す例では、画像処理部106および112が検出手段として機能し、システム制御部118が制御手段として機能する。また、画像処理部106およびシステム制御部118が判定手段として機能し、システム制御部118はズーム手段として機能する。   As is clear from the above description, in the example shown in FIG. 2, the image processing units 106 and 112 function as detection means, and the system control unit 118 functions as control means. The image processing unit 106 and the system control unit 118 function as a determination unit, and the system control unit 118 functions as a zoom unit.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を撮像装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the imaging apparatus. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the imaging apparatus. The control program is recorded on a computer-readable recording medium, for example.

上記の制御方法および制御プログラムの各々は、少なくとも検出ステップおよび制御ステップを有している。   Each of the above control method and control program has at least a detection step and a control step.

また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.

101 メインカメラ部
104,110 撮像素子
105,111 A/D変換器
106,112 画像処理部
107 インカメラ部
113 メモリ制御部
114 メモリ
115 表示部
118 システム制御部
120 記憶媒体
DESCRIPTION OF SYMBOLS 101 Main camera part 104,110 Image pick-up element 105,111 A / D converter 106,112 Image processing part 107 In-camera part 113 Memory control part 114 Memory 115 Display part 118 System control part 120 Storage medium

Claims (13)

被写体を撮像して第1の画像を得る第1の撮像手段と、被写体以外の撮影者を撮像して第2の画像を得る第2の撮像手段とを有し、表示部に表示された前記第1の画像に前記第2の画像を重ねて表示する撮像装置であって、
前記第1の画像において予め定められた部位を第1の部位として検出する検出手段と、
前記第1の部位の位置に応じて、前記第2の画像を前記第1の画像に重ねる位置を制御する制御手段と、を有し、
前記検出手段により前記第1の画像において複数の前記第1の部位が検出される場合、前記制御手段は、複数の前記第1の部位の優先度に応じて、前記第2の画像を前記第1の画像に重ねる位置を制御することを特徴とする撮像装置。
A first imaging unit that captures a subject and obtains a first image; and a second imaging unit that captures a photographer other than the subject and obtains a second image, and is displayed on a display unit. An imaging device that displays the second image superimposed on a first image,
Detecting means for detecting a predetermined part in the first image as the first part;
Control means for controlling a position at which the second image is superimposed on the first image according to the position of the first part,
When the plurality of first parts are detected in the first image by the detection means, the control means displays the second image in the first image according to the priority of the plurality of first parts. An image pickup apparatus that controls a position to be superimposed on one image.
前記制御手段は、前記第1の部位の位置およびサイズに応じて、前記第2の画像を前記第1の画像に重ねる位置を制御することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the control unit controls a position at which the second image is superimposed on the first image according to a position and a size of the first part. 前記検出手段は、前記第1の画像において予め定められた部位を第1の部位として検出するとともに前記第2の画像において予め定められた部位を第2の部位として検出し、
前記制御手段は、前記検出手段により検出した前記第1の部位の位置およびサイズと、前記検出手段により検出した前記第2の部位のサイズとに応じて、前記第2の画像を前記第1の画像に重ねる位置を制御することを特徴とする請求項1に記載の撮像装置。
The detecting means detects a predetermined part in the first image as a first part and detects a predetermined part in the second image as a second part;
The control means displays the second image according to the position and size of the first part detected by the detection means and the size of the second part detected by the detection means. The imaging apparatus according to claim 1, wherein a position to be superimposed on an image is controlled.
前記検出手段によって前記第1の画像において複数の前記第1の部位が検出されると、前記制御手段は、前記複数の第1の部位のうちそのサイズが大きい第1の部位を優先して、その優先度に応じて前記第2の画像を前記第1の画像に重ねる位置を制御することを特徴とする請求項3に記載の撮像装置。   When a plurality of the first parts are detected in the first image by the detection means, the control means gives priority to the first part having a larger size among the plurality of first parts, The imaging apparatus according to claim 3, wherein a position at which the second image is superimposed on the first image is controlled according to the priority. 前記制御手段は、前記検出手段によって検出された前記第2の部位のサイズに応じて、前記第2の画像を前記第1の画像に重ねる際に表示されるウィンドウのサイズを制御することを特徴とする請求項3又は4に記載の撮像装置。   The control unit controls the size of a window displayed when the second image is superimposed on the first image, according to the size of the second part detected by the detection unit. The imaging apparatus according to claim 3 or 4. 前記制御手段は、前記検出手段によって検出された前記第2の部位のサイズに応じて、前記第2の画像を前記第1の画像に重ねる際に表示されるウィンドウのサイズを決定しており、
前記制御手段は、前記検出手段によって前記第1の画像において複数の前記第1の部位が検出されると、前記第1の部位の各々のサイズと前記ウィンドウのサイズとのうち大きいサイズを優先して、その優先度に基づいて前記ウィンドウの位置を制御することを特徴とする請求項3又は4に記載の撮像装置。
The control means determines the size of a window displayed when the second image is superimposed on the first image, according to the size of the second part detected by the detection means,
When the detection unit detects a plurality of the first portions in the first image, the control unit gives priority to a larger size of the size of each of the first portions and the size of the window. The imaging apparatus according to claim 3, wherein the position of the window is controlled based on the priority.
前記制御手段は、前記検出手段によって前記第1の画像において複数の前記第1の部位が検出されると、前記複数の第1の部位のうちそのサイズが最も大きい第1の部位に応じて、前記ウィンドウのサイズを制御することを特徴とする請求項6に記載の撮像装置。   When the plurality of first parts are detected in the first image by the detection means, the control means is configured to select a first part having the largest size among the plurality of first parts. The imaging apparatus according to claim 6, wherein a size of the window is controlled. 前記第1の部位および前記第2の部位の各々は顔領域であることを特徴とする請求項3〜7のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 3, wherein each of the first part and the second part is a face region. 前記第1の部位は顔領域であり、
前記第1の部位が笑顔であるか否かを判定する判定手段を備え、
前記制御手段は、前記判定手段によって笑顔であると判定された第1の部位についてその優先度を高くすることを特徴とする請求項1〜7のいずれか1項に記載の撮像装置。
The first part is a face region;
Determining means for determining whether or not the first part is a smile;
The imaging device according to claim 1, wherein the control unit increases the priority of the first part determined to be a smile by the determination unit.
前記第1の撮像手段をズーム動作するズーム手段を備え、
前記ズーム動作が行われていると、前記制御手段は、前記第2の画像を前記第1の画像に重ねる際に表示されるウィンドウのサイズおよび表示位置を予め定められたサイズおよび位置とすることを特徴とする請求項1〜9のいずれか1項に記載の撮像装置。
Zoom means for zooming the first imaging means;
When the zoom operation is being performed, the control means sets the size and position of the window displayed when the second image is superimposed on the first image to a predetermined size and position. The imaging apparatus according to any one of claims 1 to 9, wherein
前記制御手段は、前記検出手段によって前記第2の部位が検出されないと、前記第2の画像を前記第1の画像に重ねる際に表示されるウィンドウを非表示とすることを特徴とする請求項3〜8のいずれか1項に記載の撮像装置。   The control means hides a window displayed when the second image is superimposed on the first image when the second part is not detected by the detection means. The imaging device according to any one of 3 to 8. 被写体を撮像して第1の画像を得る第1の撮像手段と、被写体以外の撮影者を撮像して第2の画像を得る第2の撮像手段とを有し、表示部に表示された前記第1の画像に前記第2の画像を重ねて表示する撮像装置の制御方法であって、
前記第1の画像において予め定められた部位を第1の部位として検出する検出ステップと、
前記第1の部位の位置に応じて、前記第2の画像を前記第1の画像に重ねる位置を制御する制御ステップと、を有し、
前記制御ステップでは、前記検出ステップにより前記第1の画像において複数の前記第1の部位が検出される場合、複数の前記第1の部位の優先度に応じて、前記第2の画像を前記第1の画像に重ねる位置を制御することを特徴とする制御方法。
A first imaging unit that captures a subject and obtains a first image; and a second imaging unit that captures a photographer other than the subject and obtains a second image, and is displayed on a display unit. A method for controlling an imaging apparatus that displays a second image superimposed on a first image, the method comprising:
A detecting step of detecting a predetermined part in the first image as the first part;
And a control step for controlling a position at which the second image is superimposed on the first image according to the position of the first part,
In the control step, when a plurality of the first parts are detected in the first image by the detection step, the second image is converted into the first image according to the priority of the plurality of first parts. A control method characterized by controlling a position to be superimposed on one image.
被写体を撮像して第1の画像を得る第1の撮像手段と、被写体以外の撮影者を撮像して第2の画像を得る第2の撮像手段とを有し、表示部に表示された前記第1の画像に前記第2の画像を重ねて表示する撮像装置で用いられる制御プログラムであって、
前記撮像装置が備えるコンピュータに、
前記第1の画像において予め定められた部位を第1の部位として検出する検出ステップと、
前記第1の部位の位置に応じて、前記第2の画像を前記第1の画像に重ねる位置を制御する制御ステップと、を実行させ、
前記制御ステップでは、前記検出ステップにより前記第1の画像において複数の前記第1の部位が検出される場合、複数の前記第1の部位の優先度に応じて、前記第2の画像を前記第1の画像に重ねる位置を制御することを特徴とする制御プログラム。
A first imaging unit that captures a subject and obtains a first image; and a second imaging unit that captures a photographer other than the subject and obtains a second image, and is displayed on a display unit. A control program used in an imaging apparatus that displays the second image superimposed on a first image,
In the computer provided in the imaging device,
A detecting step of detecting a predetermined part in the first image as the first part;
And a control step for controlling a position at which the second image is superimposed on the first image according to the position of the first part,
In the control step, when a plurality of the first parts are detected in the first image by the detection step, the second image is converted into the first image according to the priority of the plurality of first parts. A control program for controlling a position to be superimposed on one image.
JP2014133998A 2014-06-30 2014-06-30 Imaging apparatus, method for controlling the same, and control program Pending JP2016012845A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014133998A JP2016012845A (en) 2014-06-30 2014-06-30 Imaging apparatus, method for controlling the same, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014133998A JP2016012845A (en) 2014-06-30 2014-06-30 Imaging apparatus, method for controlling the same, and control program

Publications (1)

Publication Number Publication Date
JP2016012845A true JP2016012845A (en) 2016-01-21

Family

ID=55229296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014133998A Pending JP2016012845A (en) 2014-06-30 2014-06-30 Imaging apparatus, method for controlling the same, and control program

Country Status (1)

Country Link
JP (1) JP2016012845A (en)

Similar Documents

Publication Publication Date Title
US9667888B2 (en) Image capturing apparatus and control method thereof
US9838609B2 (en) Image capturing apparatus, control apparatus and control method for controlling zooming function
JP2010010729A (en) Image pickup apparatus, and program
JP2012156644A (en) Electronic camera, program, and recording media
KR20100055938A (en) Method and apparatus for displaying scene information, and digital photographing apparatus thereof
JP2014077994A (en) Image display device, control method and control program for the same, and imaging device
US9992405B2 (en) Image capture control apparatus and control method of the same
JP6253007B2 (en) Display device
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP2007081732A (en) Imaging apparatus
JP2014228629A (en) Imaging apparatus, control method and program thereof, and storage medium
JP2019121860A (en) Image processing apparatus and control method therefor
JP2021021857A (en) Imaging apparatus and control method thereof
US8866934B2 (en) Image pickup apparatus capable of deleting video effect superimposed on moving image, method of controlling the apparatus, and moving image-recording apparatus, as well as storage medium
JP2016012846A (en) Imaging apparatus, and control method and control program of the same
JP6768449B2 (en) Imaging control device, control method and program of imaging device
US10362206B2 (en) Image capturing apparatus having a function which assists a panning shot with specific framing
US9232133B2 (en) Image capturing apparatus for prioritizing shooting parameter settings and control method thereof
JP6381416B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP2015034895A (en) Imaging device and control method for the same
JP2014225763A (en) Imaging apparatus, control method of the same, program, and storage medium
JP5854861B2 (en) Imaging device, control method thereof, and control program
JP2010041629A (en) Imaging device and controlling method and program
JP2016012845A (en) Imaging apparatus, method for controlling the same, and control program
JP6289068B2 (en) Imaging apparatus and control method thereof