JP2011066828A - Imaging device, imaging method and program - Google Patents

Imaging device, imaging method and program Download PDF

Info

Publication number
JP2011066828A
JP2011066828A JP2009217611A JP2009217611A JP2011066828A JP 2011066828 A JP2011066828 A JP 2011066828A JP 2009217611 A JP2009217611 A JP 2009217611A JP 2009217611 A JP2009217611 A JP 2009217611A JP 2011066828 A JP2011066828 A JP 2011066828A
Authority
JP
Japan
Prior art keywords
image data
subject
imaging
information
subject area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2009217611A
Other languages
Japanese (ja)
Other versions
JP2011066828A5 (en
Inventor
Takeshi Shinomiya
岳史 四宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009217611A priority Critical patent/JP2011066828A/en
Publication of JP2011066828A publication Critical patent/JP2011066828A/en
Publication of JP2011066828A5 publication Critical patent/JP2011066828A5/ja
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To allow a user to recognize a field angle or composition of a still or moving image that is previously imaged when imaging the still or moving image. <P>SOLUTION: A display unit 111 is so configured that face region information detected from a first image data by a face detection unit 106 together with the image based on the imaged first image data is superimposed with the face region information of the image data which is stored in NVRAM 109 and which has been imaged prior to the first image so that the superimposed image data are displayed on a display 113. This results in easily imaging video images whose composition is similar to each other by adjusting the composition thereof. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は撮像装置、撮像方法、及びプログラムに関し、特に、間欠的に映像を撮影するために用いて好適な技術に関する。   The present invention relates to an imaging apparatus, an imaging method, and a program, and more particularly, to a technique suitable for use in intermittent video shooting.

従来、デジタルカメラやデジタルビデオカメラ等の撮像装置において、間欠的に映像の撮影を行うと映像間の画角や構図が異なってしまうことがある。例えば、インタビュー等を行うために複数の人を一人ずつ同じような構図で動画や静止画を順次撮影したいという要望がある。このような場合において、被写体と撮像装置との位置関係が固定されていない場合には、映像間において画角や構図は異なってしまう。   Conventionally, in an imaging device such as a digital camera or a digital video camera, when an image is shot intermittently, an angle of view and a composition between the images may be different. For example, there is a desire to sequentially shoot moving images and still images with the same composition for a plurality of people one by one in order to conduct an interview or the like. In such a case, if the positional relationship between the subject and the imaging device is not fixed, the angle of view and composition differ between videos.

また、動画撮影機能と静止画撮影機能とを備え、動画撮影モードと静止画撮影モードとを切り替えることが可能なデジタルビデオカメラも存在する。このようなデジタルビデオカメラを用いて動画の撮影中に静止画の撮影を行うと、動画の撮影中における画角や構図と、静止画の撮影中における画角や構図とが異なることがある。このような場合には、静止画の撮影を行う前後で動画の画角や構図にずれが生じ、動画を連続再生した時に静止画の撮影を行う前の動画と静止画の撮影を行った直後の動画との間でそのずれにより違和感が生じる。   There is also a digital video camera that has a moving image shooting function and a still image shooting function and can switch between a moving image shooting mode and a still image shooting mode. When a still image is shot while shooting a moving image using such a digital video camera, the angle of view and composition during shooting of the moving image may differ from the angle of view and composition during shooting of the still image. In such a case, the angle of view and composition of the movie will be different before and after taking a still image, and immediately after shooting the movie and still image before shooting the still image when the movie is played back continuously. Discomfort occurs due to the difference between the video and the video.

そこで、例えば特許文献1には、このような課題を解決した、動画撮影機能と静止画撮影機能とを備えた撮像装置が開示されている。この撮像装置によれば、動画の撮影中に静止画を撮影する場合に、動画撮影モードから静止画撮影モードに変更された時点の画像データを保持する。そして、動画の撮影を再開する場合に保持している画像データを半透過画像として撮像装置のディスプレイに表示している。これにより、動画の撮影を再開した時に透過された画像を参考にして画角及び構図を調整し、静止画の撮影を行う前後で動画の画角や構図のずれを少なくしようとしている。   Thus, for example, Patent Document 1 discloses an imaging apparatus having a moving image shooting function and a still image shooting function that solves such a problem. According to this imaging apparatus, when a still image is shot during moving image shooting, the image data at the time when the moving image shooting mode is changed to the still image shooting mode is held. Then, the image data held when the moving image shooting is resumed is displayed on the display of the imaging apparatus as a semi-transparent image. Thus, the angle of view and the composition are adjusted with reference to the image transmitted when the shooting of the moving image is resumed, and the shift of the angle of view and the composition of the moving image is reduced before and after the shooting of the still image.

特開2006−129424号公報JP 2006-129424 A 特開平10−232934号公報JP-A-10-232934 特開2000−48184号公報JP 2000-48184 A

しかしながら、特許文献1に開示された技術には次のような課題があった。すなわち、最後に撮影した映像を半透明化あるいは輪郭抽出し、撮影しようとする映像に重畳して表示するため、連続再生した場合に本来の撮影したい映像が全画面にわたりぼやける等の影響を受けてしまう。したがって、半透明化あるいは輪郭抽出を行う映像と、とりたい映像とが類似している場合は影響が小さいが、前述したようにインタビュー等を行う場合においては、以下のような問題点がある。すなわち、複数の人を一人ずつ同じような構図で撮影すると、他人の顔同士を重畳してしまい、本来の映像が得られないという問題点がある。   However, the technique disclosed in Patent Document 1 has the following problems. In other words, since the last shot video is translucent or contour extracted and superimposed on the video to be shot and displayed, it is affected by the fact that the original video to be shot is blurred over the entire screen when continuously played back. End up. Therefore, although the influence is small when the video to be translucent or contour extracted is similar to the video to be taken, there are the following problems when interviewing or the like as described above. That is, if a plurality of people are photographed one by one with the same composition, there is a problem that the faces of other people are superimposed and the original video cannot be obtained.

本発明は前述の問題点に鑑み、静止画あるいは動画を撮影する際に、以前に撮影された静止画あるいは動画の画角や構図をユーザが認識できるようにすることを目的としている。   The present invention has been made in view of the above-described problems, and it is an object of the present invention to enable a user to recognize the angle of view and composition of a previously captured still image or moving image when capturing a still image or moving image.

本発明の撮像装置は、被写体を撮像して画像データを生成する撮像手段と、前記撮像手段により生成された画像データに基づく画像を表示部に表示する表示手段と、前記撮像手段により生成された画像データから被写体領域を検出する被写体検出手段と、前記被写体検出手段により検出された被写体領域の情報を保持する保持手段とを備え、前記表示手段は、前記撮像手段により生成された第1の画像データに基づく画像とともに、前記被写体検出手段により前記第1の画像データから検出された被写体領域の情報と、前記保持手段に保持されている、前記第1の画像データよりも前に前記撮像手段により生成された第2の画像データの被写体領域の情報とを前記表示部に表示することを特徴とする。   An imaging device according to the present invention includes an imaging unit that captures an image of a subject and generates image data, a display unit that displays an image based on the image data generated by the imaging unit on a display unit, and the imaging unit A subject detection unit for detecting a subject region from the image data; and a holding unit for holding information on the subject region detected by the subject detection unit. The display unit includes a first image generated by the imaging unit. Along with the image based on the data, information on the subject area detected from the first image data by the subject detection means and the imaging means held in the holding means before the first image data. Information on the subject area of the generated second image data is displayed on the display unit.

本発明によれば、ユーザは以前に撮影された静止画あるいは動画の画角や構図とのズレを認識することができる。これにより、静止画あるいは動画の画角や構図を調整することによって画角や構図を一致させて撮影することができる。   According to the present invention, the user can recognize a deviation from the angle of view or composition of a still image or a moving image that was previously captured. Thus, it is possible to shoot with matching the angle of view and composition by adjusting the angle of view and composition of the still image or moving image.

実施形態における撮像装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the imaging device in embodiment. 顔検出ユニットから出力される顔情報の一例を示す図である。It is a figure which shows an example of the face information output from a face detection unit. 映像を撮影する場合の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence in the case of image | photographing an image | video. 顔領域の検出の概要を示す図である。It is a figure which shows the outline | summary of a detection of a face area | region. 矩形図形が重畳されてディスプレイに表示された映像を示す図である。It is a figure which shows the image | video displayed on the display on which the rectangular figure was superimposed. 撮影アシスト機能の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of an imaging | photography assistance function. 顔領域の検出の概要を示す図である。It is a figure which shows the outline | summary of a detection of a face area | region. 撮影アシスト機能を用いて表示する矩形図形の一例を示す図である。It is a figure which shows an example of the rectangular figure displayed using a imaging | photography assistance function. 撮影アシスト機能を用いて表示する矩形図形の一例を示す図である。It is a figure which shows an example of the rectangular figure displayed using a imaging | photography assistance function. 映像を撮影する場合の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence in the case of image | photographing an image | video. 顔領域の検出の概要を示す図である。It is a figure which shows the outline | summary of a detection of a face area | region. 矩形図形が重畳されてディスプレイに表示された映像を示す図である。It is a figure which shows the image | video displayed on the display on which the rectangular figure was superimposed.

以下、図面を参照しながら本発明の好適な実施形態を説明する。
(第1の実施形態)
図1は、本実施形態における撮像装置10の構成例を示すブロック図である。
図1において、本実施形態の撮像装置10は、コンパクト型のデジタルカメラであり、電子シャッター方式のデジタルスチルカメラである。システム制御コントローラ100は、本実施形態の撮像装置10全体の制御を司り、後述する各ユニットを制御して、ユーザの設定と操作とに応じて画像データを記録する。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus 10 according to the present embodiment.
In FIG. 1, an imaging apparatus 10 according to the present embodiment is a compact digital camera, and is an electronic shutter type digital still camera. The system controller 100 controls the entire imaging apparatus 10 of the present embodiment, controls each unit to be described later, and records image data according to user settings and operations.

光学レンズユニット101は、絞り、ズーム、及びフォーカス機能を備えたユニットである。光学制御ユニット102は、システム制御コントローラ100からの指示に従い、光学レンズユニット101を制御するためのものである。具体的には、光学レンズユニット101の絞り、ズーム、及びフォーカスを変更する制御を行う。   The optical lens unit 101 is a unit having an aperture, zoom, and focus function. The optical control unit 102 is for controlling the optical lens unit 101 in accordance with an instruction from the system control controller 100. Specifically, control for changing the aperture, zoom, and focus of the optical lens unit 101 is performed.

撮像素子103は、光学レンズユニット101を経て導入された光(映像)を電気信号に変換するためのものである。具体的には、CCDを利用したCCD撮像素子(CCDイメージセンサー)か、CMOSを利用したCMOS撮像素子(CMOSイメージセンサー)が利用される。本実施形態の撮像装置10では、横3072画素、縦2304画素の撮像素子を用いるものとする。撮像制御ユニット104は、システム制御コントローラ100からの指示に従い、撮像素子103を制御するためのものである。具体的には、撮像素子103の感度調整(ゲインコントロール)や、シャッター時間に従って撮像素子103からデータを読み取る動作などを行う。   The image sensor 103 is for converting light (video) introduced through the optical lens unit 101 into an electrical signal. Specifically, a CCD image sensor (CCD image sensor) using a CCD or a CMOS image sensor (CMOS image sensor) using a CMOS is used. In the imaging apparatus 10 according to the present embodiment, an imaging element having 3072 horizontal pixels and 2304 vertical pixels is used. The imaging control unit 104 is for controlling the imaging device 103 in accordance with an instruction from the system control controller 100. Specifically, sensitivity adjustment (gain control) of the image sensor 103, an operation of reading data from the image sensor 103 according to the shutter time, and the like are performed.

記録媒体制御ユニット105は記録手段として機能し、システム制御コントローラ100からの指示に従い、記録媒体112にデータを記録するためのものである。記録媒体112の具体的な例としては、SDメモリカードコンパクトフラッシュ(登録商標)カード、メモリスティックなどのカード型の取り外し可能なメモリを用いるが、記録可能なものであれば特に何でもよい。また、記録媒体112には、撮像制御ユニット104から出力される画像データ(RAWデータ)や、その画像データからシステム制御コントローラ100により符号化された画像データ(JPEGデータ又はEXIFデータ)が記録される。   The recording medium control unit 105 functions as a recording unit and records data on the recording medium 112 in accordance with an instruction from the system controller 100. As a specific example of the recording medium 112, a card-type removable memory such as an SD memory card Compact Flash (registered trademark) card or a memory stick is used. However, any recording medium may be used. The recording medium 112 records image data (RAW data) output from the imaging control unit 104 and image data (JPEG data or EXIF data) encoded by the system controller 100 from the image data. .

顔検出ユニット106は被写体検出手段として機能し、システム制御コントローラ100からの指示に従い、画像データから顔領域情報を検出するためのものである。顔検出ユニット106は、撮像制御ユニット104から出力される画像データ、またはシステム制御コントローラ100により符号化した画像データを入力する。そして、その画像データに含まれる顔の位置及びサイズの情報をシステム制御コントローラ100に出力する。なお、本実施形態では被写体として人物の顔を検出する例について説明するが、人物以外に動物等を検出するようにしてもよい。   The face detection unit 106 functions as a subject detection unit and detects face area information from image data in accordance with an instruction from the system controller 100. The face detection unit 106 receives image data output from the imaging control unit 104 or image data encoded by the system control controller 100. Then, information on the position and size of the face included in the image data is output to the system controller 100. In the present embodiment, an example in which a human face is detected as a subject will be described. However, an animal or the like may be detected in addition to a person.

本実施形態において顔検出ユニット106は、画像に含まれる特徴部分として人物の顔領域を検出するものとする。ここで、被写体領域である顔領域を検出する技術としては様々な手法が知られている。例えば、ニューラルネットワークやサポートベクターマシンに代表される学習を用いた方法や、目や鼻といった物理的な形状の特徴のある部位を画像領域からテンプレートマッチングして抽出する手法などがある。他にも、肌の色や目の形といった画像特徴量を検出し、統計的手法を用いて解析する手法などもある(例えば、特許文献2または特許文献3参照)。   In the present embodiment, the face detection unit 106 detects a human face area as a characteristic part included in an image. Here, various techniques are known as techniques for detecting a face area as a subject area. For example, there are a method using learning typified by a neural network and a support vector machine, and a method of extracting a part having physical shape features such as eyes and nose by template matching from an image region. In addition, there is a method of detecting an image feature amount such as a skin color or an eye shape and analyzing it using a statistical method (for example, see Patent Document 2 or Patent Document 3).

図2は、顔検出ユニット106から出力される顔領域情報の一例を示す図である。図2に示す例では、顔検出ユニット106は1つの映像から顔ごとの位置及びサイズの情報を出力している。   FIG. 2 is a diagram illustrating an example of face area information output from the face detection unit 106. In the example shown in FIG. 2, the face detection unit 106 outputs position and size information for each face from one video.

図1の説明に戻り、ROM107は、本実施形態の撮像装置10を制御するプログラムとプログラムが使用するデータとを格納するためのメモリである。撮像装置10に電源が投入されると、システム制御コントローラ100はROM107からプログラムを読み出し、撮像装置10の制御を開始する。RAM108は、本実施形態の撮像装置10を制御するプログラムを作業領域として使用するための書き換え可能なメモリである。また、撮像制御ユニット104から出力される画像データを一時的に保存するバッファとしても使用される。   Returning to the description of FIG. 1, the ROM 107 is a memory for storing a program for controlling the imaging apparatus 10 of the present embodiment and data used by the program. When the image pickup apparatus 10 is turned on, the system controller 100 reads a program from the ROM 107 and starts controlling the image pickup apparatus 10. The RAM 108 is a rewritable memory for using a program for controlling the imaging apparatus 10 of the present embodiment as a work area. Further, it is also used as a buffer for temporarily storing image data output from the imaging control unit 104.

NVRAM109は保持手段として機能し、後述するUIユニット110でユーザにより指定された設定値や、本実施形態の撮像装置10がパワーサイクルを超えて保持する必要があるパラメータを保持するための書き換え可能な不揮発性メモリである。本実施形態の撮像装置10では、顔検出ユニット106で検出された顔領域の情報を少なくても1個保持する。UIユニット110は、ユーザの指示を本実施形態の撮像装置10に伝えるためのものである。UIユニット110には、表示ユニット111にメニューを表示するよう指示するためのメニューボタンや、メニューを操作するためのボタンが備えられている。さらに、本実施形態においては、撮影時に表示ユニット111のディスプレイ113に撮影を補助する画像を重畳表示するため撮影アシスト機能を有効にするための補助ボタンが備えられている。この撮影アシスト機能については後述する。また、撮像装置10には、撮影を指示する不図示の撮影ボタン等も備えられている。   The NVRAM 109 functions as a holding unit, and is rewritable to hold setting values designated by the user in the UI unit 110 described later and parameters that the imaging apparatus 10 of the present embodiment needs to hold over the power cycle. It is a non-volatile memory. In the imaging apparatus 10 of the present embodiment, at least one piece of information on the face area detected by the face detection unit 106 is held. The UI unit 110 is for transmitting a user instruction to the imaging apparatus 10 of the present embodiment. The UI unit 110 includes a menu button for instructing the display unit 111 to display a menu and a button for operating the menu. Furthermore, in the present embodiment, an auxiliary button for enabling the shooting assist function is provided to superimpose and display an image for assisting shooting on the display 113 of the display unit 111 during shooting. This photographing assist function will be described later. The imaging apparatus 10 is also provided with a shooting button (not shown) for instructing shooting.

表示ユニット111は表示手段として機能し、システム制御コントローラ100からの指示に従い、画像を表示するためのユニットである。表示ユニット111は、表示部である液晶表示装置(LCD)のような薄型のディスプレイ113とそのディスプレイ113をコントロールするディスプレイドライバユニットとで構成されている。本実施形態の撮像装置10では、横320画素、縦240画素の液晶表示装置を用いるものとする。   The display unit 111 functions as a display unit, and is a unit for displaying an image in accordance with an instruction from the system controller 100. The display unit 111 includes a thin display 113 such as a liquid crystal display (LCD) that is a display unit, and a display driver unit that controls the display 113. In the imaging device 10 of the present embodiment, a liquid crystal display device having 320 pixels in width and 240 pixels in length is used.

表示ユニット111は、本実施形態の撮像装置10の各種設定を行うためのメニュー画面や、撮像制御ユニット104から出力される画像データに基づく画像を表示する。このように表示ユニット111は、構図決定用のファインダとしての利用されるものである。また、表示ユニット111は、撮影画像を確認するために撮影した画像を表示したり、記録媒体112に格納された画像データに基づく画像をも表示したりする。このように表示ユニット111は、画像ビューアとしても利用されるものである。また、それぞれの画像には任意のグラフィクス画像を重畳して表示することが可能である。本実施形態の撮像装置10では、重畳するグラフィクス画像の画素数は、表示ユニット111の画素数と同じものとする。   The display unit 111 displays a menu screen for performing various settings of the imaging apparatus 10 of the present embodiment and an image based on the image data output from the imaging control unit 104. Thus, the display unit 111 is used as a finder for determining composition. Further, the display unit 111 displays a captured image for confirming the captured image, and also displays an image based on the image data stored in the recording medium 112. Thus, the display unit 111 is also used as an image viewer. In addition, it is possible to superimpose and display an arbitrary graphics image on each image. In the imaging device 10 of the present embodiment, the number of pixels of the graphics image to be superimposed is the same as the number of pixels of the display unit 111.

次に、本実施形態における撮影動作について、図3及び図6のフローチャートを参照しながら説明する。図3は、本実施形態において、映像を撮影する場合の処理手順の一例を示すフローチャートである。なお、図3に示す各処理は、システム制御コントローラ100の制御により行われる。   Next, the photographing operation in the present embodiment will be described with reference to the flowcharts of FIGS. FIG. 3 is a flowchart illustrating an example of a processing procedure when shooting a video in the present embodiment. 3 is performed under the control of the system controller 100.

まず、ステップS301において、光学レンズユニット101から入力された映像を撮像素子103で電気信号に変換し、撮像制御ユニット104は、この電気信号をシステム制御コントローラ100に画像データとして出力する。次に、ステップS302において、システム制御コントローラ100は、ステップS301で取得した画像データを表示ユニット111に出力し、表示ユニット111は、ディスプレイ113に構図決定用(プレビュー用)の映像として表示する。例えば、ステップS301で撮像制御ユニット104から図4(a)に示すような画像データが出力された場合は、表示ユニット111の解像度(320×240)に調整してその映像を表示することになる。   First, in step S <b> 301, an image input from the optical lens unit 101 is converted into an electrical signal by the imaging device 103, and the imaging control unit 104 outputs this electrical signal to the system controller 100 as image data. Next, in step S302, the system controller 100 outputs the image data acquired in step S301 to the display unit 111, and the display unit 111 displays the image for composition determination (preview) on the display 113. For example, when image data as shown in FIG. 4A is output from the imaging control unit 104 in step S301, the video is adjusted to the resolution (320 × 240) of the display unit 111 and displayed. .

次に、ステップS303において、顔検出ユニット106は、ステップS301において取得した画像データに顔が含まれているかどうかを判定する。この判定の結果、顔が含まれていない場合は、次のステップS304の処理は行わず、ステップS305へ進む。   Next, in step S303, the face detection unit 106 determines whether a face is included in the image data acquired in step S301. If the result of this determination is that a face is not included, the processing of the next step S304 is not performed, and the routine proceeds to step S305.

一方、ステップS303の判定の結果、顔が含まれている場合は、ステップS304において、顔検出ユニット106は、図2で示したような形式で顔領域情報をシステム制御コントローラ100に通知する。例えば、図4(a)に示す画像データに対しては、図4(b)に示すように、検出した顔領域401に対する顔領域情報402を出力する。そして、表示ユニット111は、取得した顔領域情報をステップS302で表示した映像に重畳する。   On the other hand, if the result of determination in step S303 is that a face is included, in step S304, the face detection unit 106 notifies the system controller 100 of face area information in the format shown in FIG. For example, for the image data shown in FIG. 4A, as shown in FIG. 4B, face area information 402 for the detected face area 401 is output. Then, the display unit 111 superimposes the acquired face area information on the video displayed in step S302.

本実施形態では、顔の領域を表す矩形図形(顔枠)を緑色で表す。例えば、図4(a)に示した画像データに対して、図4(b)に示す顔領域情報402を取得した場合は、表示ユニット111は、図5に示すように、顔領域の位置及びサイズを表示ユニット111の解像度に合わせて変換する。そして、図5に示すような矩形図形501を作成し、作成した矩形図形501を画像データに重畳して表示ユニット111のディスプレイ113に表示する。   In the present embodiment, a rectangular figure (face frame) representing a face area is represented in green. For example, when the face area information 402 shown in FIG. 4B is acquired for the image data shown in FIG. 4A, the display unit 111 displays the position of the face area and the face area information 402 as shown in FIG. The size is converted in accordance with the resolution of the display unit 111. Then, a rectangular figure 501 as shown in FIG. 5 is created, and the created rectangular figure 501 is superimposed on the image data and displayed on the display 113 of the display unit 111.

次に、ステップS305において、システム制御コントローラ100は、撮影アシスト機能が有効になっているかどうかを判定する。本実施形態では、ユーザによりUIユニット110の補助ボタンが押下されるか、メニューボタンで表示されるメニューで撮影アシスト機能が選択されることにより撮影アシスト機能を有効にすることができる。この判定の結果、撮影アシスト機能が無効である場合は、ステップS306をスキップしてステップS307へ進む。   Next, in step S305, the system controller 100 determines whether or not the photographing assist function is enabled. In the present embodiment, the photographing assistance function can be validated by pressing the auxiliary button of the UI unit 110 by the user or selecting the photographing assistance function from the menu displayed by the menu button. If the result of this determination is that the shooting assist function is disabled, step S306 is skipped and processing proceeds to step S307.

一方、ステップS305の判定の結果、撮影アシスト機能が有効である場合は、ステップS306において、表示ユニット111は、撮影アシスト用の情報を表示ユニット111のディスプレイ113に表示する。なお、ステップS305の処理の詳細については、図6のフローチャートの説明において後述する。   On the other hand, if the result of determination in step S305 is that the shooting assist function is valid, the display unit 111 displays information for shooting assist on the display 113 of the display unit 111 in step S306. Details of the processing in step S305 will be described later in the description of the flowchart of FIG.

次に、ステップS307において、システム制御コントローラ100は、撮影指示の有無を確認する。具体的には、ユーザにより不図示の撮影ボタンが押下されたか否か、あるいは、セルフタイマーが完了して撮影指示がなされたか否かを判定する。この判定の結果、撮影指示がなされた場合は、ステップS308に進み、撮影指示がなされていない場合は、ステップS301に戻り、構図決定用(プレビュー)の映像を更新する。   Next, in step S307, the system controller 100 confirms whether there is a shooting instruction. Specifically, it is determined whether or not a shooting button (not shown) has been pressed by the user, or whether or not a shooting instruction has been given after completion of the self-timer. If the result of this determination is that a shooting instruction has been given, the process proceeds to step S308. If no shooting instruction has been given, the process returns to step S301, and the composition determination (preview) video is updated.

次に、ステップS308において、システム制御コントローラ100は、撮像制御ユニット104を介して取得した撮影指示時の画像データをEXIFファイル形式に変換する。そして、記録媒体制御ユニット105は、EXIFファイル形式の画像データを記録媒体112に記録する。   Next, in step S308, the system controller 100 converts the image data at the time of shooting instruction acquired via the imaging control unit 104 into the EXIF file format. Then, the recording medium control unit 105 records the EXIF file format image data on the recording medium 112.

次に、ステップS309において、顔検出ユニット106は、ステップS303で顔が含まれていると判定したかどうかを判定する。この判定の結果、ステップS303で顔を検出していない場合は、次のステップS310の処理は行わず、そのまま処理を終了する。一方、ステップS309の判定の結果、ステップS303で顔を検出していた場合は、ステップS310において、システム制御コントローラ100は、図4(b)に示した顔領域情報402をNVRAM109に記録する。このように、NVRAM109には、撮影された映像から検出された顔領域情報のうち、少なくとも最新の顔領域情報は保持されることになる。   Next, in step S309, the face detection unit 106 determines whether it is determined in step S303 that a face is included. If the face is not detected in step S303 as a result of this determination, the process in the next step S310 is not performed and the process is terminated as it is. On the other hand, if the face is detected in step S303 as a result of the determination in step S309, the system controller 100 records the face area information 402 shown in FIG. 4B in the NVRAM 109 in step S310. In this manner, the NVRAM 109 holds at least the latest face area information among the face area information detected from the captured video.

次に、図6のフローチャートを参照しながら図3のステップS306の処理を詳細に説明する。図6は、図3のステップS306における撮影アシスト機能により顔枠表示を行う処理手順の一例を示すフローチャートである。なお、図6のフローチャートは図3のフローチャートの一部を構成するため、随時図3の各ステップを参照しながら説明する。また、図6の説明において、例えば直前の撮影処理で図7(a)に示す映像が予め撮影されたものとする。そして、これに伴い、顔を検出した場合は、図7(b)に示すように、検出した顔領域701に対する顔領域情報702がNVRAM109に記録されているものとする。   Next, the processing in step S306 in FIG. 3 will be described in detail with reference to the flowchart in FIG. FIG. 6 is a flowchart illustrating an example of a processing procedure for performing face frame display by the shooting assist function in step S306 of FIG. The flowchart in FIG. 6 constitutes a part of the flowchart in FIG. 3 and will be described with reference to each step in FIG. In the description of FIG. 6, it is assumed that, for example, the video shown in FIG. Accordingly, when a face is detected, it is assumed that face area information 702 for the detected face area 701 is recorded in the NVRAM 109 as shown in FIG.

まず、ステップS601において、システム制御コントローラ100は、NVRAM109に記録されている顔領域情報を取得し、ステップS602において、顔領域情報が取得できたか否かを判定する。この判定の結果、NVRAM109に顔情報が記録されておらず、顔領域情報を取得できなかった場合は、そのまま処理を終了する。一方、ステップS602の判定の結果、顔領域情報を取得できた場合は、ステップS603に進む。なお、NVRAM109に複数の顔領域情報が記録されている場合は、その中で最新の顔領域情報(以降、過去の顔領域情報と記す)を取得する。例えば、過去の顔情報として図7(b)に示す顔領域情報702がNVRAM109に記録されている場合は、この顔領域情報を取得し、ステップS603へ進む。また、複数の顔領域情報がNVRAM109に記録されている場合には、システム制御コントローラ100が選択手段として機能することにより、どの顔領域情報を取得するかをユーザの操作に応じて選択してもよい。   First, in step S601, the system controller 100 acquires face area information recorded in the NVRAM 109, and determines in step S602 whether face area information has been acquired. If the face information is not recorded in the NVRAM 109 and the face area information cannot be acquired as a result of this determination, the process is terminated as it is. On the other hand, if it is determined in step S602 that face area information has been acquired, the process proceeds to step S603. When a plurality of pieces of face area information are recorded in the NVRAM 109, the latest face area information (hereinafter referred to as past face area information) is acquired. For example, when face area information 702 shown in FIG. 7B is recorded in the NVRAM 109 as past face information, the face area information is acquired, and the process proceeds to step S603. In addition, when a plurality of face area information is recorded in the NVRAM 109, the system controller 100 functions as a selection unit so that which face area information is to be acquired can be selected according to a user operation. Good.

以降のステップS603〜S605においては、図3のステップS303で検出した第1の画像データの現在の顔領域情報と、ステップS601で取得した第2の画像データの過去の顔領域情報との関係から、アシスト用の顔枠処理を決定する。   In subsequent steps S603 to S605, from the relationship between the current face area information of the first image data detected in step S303 of FIG. 3 and the past face area information of the second image data acquired in step S601. Then, assist face frame processing is determined.

まず、ステップS603において、システム制御コントローラ100は、図3のステップS303で顔検出に成功したか否かを判定する。すなわち、撮像制御ユニット104からシステム制御コントローラ100に出力された画像データに顔領域情報(現在の顔領域情報)が含まれるか否かを判定する。この判定の結果、現在の顔領域情報が含まれていない場合は、ステップS606へ進み、アシスト用の顔枠処理を行う。なお、この処理の詳細については後述する。   First, in step S603, the system controller 100 determines whether face detection is successful in step S303 of FIG. That is, it is determined whether or not the image data output from the imaging control unit 104 to the system controller 100 includes face area information (current face area information). If the result of this determination is that current face area information is not included, processing proceeds to step S606, where assist face frame processing is performed. Details of this process will be described later.

一方、ステップS603の判定の結果、現在の顔領域情報が含まれている場合は、ステップS604に進む。そして、システム制御コントローラ100は比較手段として機能し、過去の顔領域情報における顔サイズと現在の顔領域情報における顔サイズとを比較し、以下の数1に示す式を用いて顔サイズが近似しているか否かを判定する。   On the other hand, if the result of determination in step S603 is that current face area information is included, processing proceeds to step S604. Then, the system controller 100 functions as a comparison unit, compares the face size in the past face area information with the face size in the current face area information, and approximates the face size using the following equation (1). It is determined whether or not.

Figure 2011066828
Figure 2011066828

本実施形態では、数1に示すようにまず顔サイズを画像サイズで正規化し、正規化後の顔サイズの幅及び高さのそれぞれの差が、ともに所定値以下(±10%以下)である場合に、近似していると判定する。ステップS604の判定の結果、顔サイズが近似していない場合は、ステップS607へ進み、アシスト用の顔枠処理を行う。なお、この処理の詳細については後述する。   In this embodiment, as shown in Equation 1, the face size is first normalized by the image size, and the difference between the normalized face size width and height is both equal to or less than a predetermined value (± 10% or less). In this case, it is determined that they are approximate. If the face size is not approximated as a result of the determination in step S604, the process proceeds to step S607, and assist face frame processing is performed. Details of this process will be described later.

一方、ステップS604の判定の結果、顔サイズが近似している場合は、ステップS605において、過去の顔領域情報における顔の位置と現在の顔領域情報における顔の位置とを比較し、以下の数2に示す式を用いて顔の位置が近接しているか否かを判定する。   On the other hand, if the result of determination in step S604 is that the face size is approximate, in step S605, the face position in the past face area information and the face position in the current face area information are compared, and the following number 2 is used to determine whether the face positions are close to each other.

Figure 2011066828
Figure 2011066828

本実施形態では、数2に示すようにまず顔の位置を画像サイズで正規化し、正規化後の顔の縦位置及び横位置のそれぞれの差が、ともに所定値以下(±5%以下)である場合に、近接していると判定する。ステップS605の判定の結果、顔の位置が近接していない場合はステップS608へ進み、顔の位置が近接している場合はステップS609へ進む。   In this embodiment, as shown in Equation 2, the face position is first normalized by the image size, and the differences between the normalized vertical and horizontal positions of the face are both equal to or less than a predetermined value (± 5% or less). In some cases, it is determined that they are close to each other. If the face position is not close as a result of the determination in step S605, the process proceeds to step S608, and if the face position is close, the process proceeds to step S609.

ステップS606は、過去の顔領域情報のみが存在し、現在の顔領域情報が存在しない場合のアシスト用顔枠表示処理である。この処理では、表示ユニット111は、過去の顔領域情報のみをステップS302で表示した映像に重畳する。このとき、ステップS304とは異なる形式で過去の顔領域情報を重畳することにより、このステップS606で重畳した映像がアシスト用の情報であることをユーザに認知させる。本実施形態では、顔の領域を表す矩形図形を灰色で重畳する。   Step S606 is an assisting face frame display process when only the past face area information exists and the current face area information does not exist. In this process, the display unit 111 superimposes only past face area information on the video displayed in step S302. At this time, by superimposing the past face area information in a format different from that in step S304, the user is made aware that the video superimposed in step S606 is information for assisting. In the present embodiment, a rectangular figure representing a face area is superimposed in gray.

例えば、過去の顔領域情報として、図7(a)に示した画像データに対して図7(b)に示す顔領域情報702を取得した場合は、表示ユニット111は、図8に示すように、顔領域の位置及びサイズを重畳するグラフィクス画像上の位置及びサイズに変換する。そして、図8に示すような矩形図形801を作成し、画像データに重畳して表示ユニット111のディスプレイ113に表示する。   For example, when the face area information 702 shown in FIG. 7B is acquired as the past face area information with respect to the image data shown in FIG. 7A, the display unit 111 is as shown in FIG. Then, the position and size of the face area are converted into a position and size on the graphics image to be superimposed. Then, a rectangular figure 801 as shown in FIG. 8 is created and superimposed on the image data and displayed on the display 113 of the display unit 111.

一方、ステップS607は、過去の顔領域情報における顔のサイズと現在の顔領域情報における顔のサイズとが近似していない場合のアシスト用顔枠表示更新処理である。この処理では、ステップS304で重畳した映像を更新し、現在の顔領域情報に加えて、過去の顔領域情報もステップS302の映像に重畳する。このとき、ステップS304と異なる形式で過去の顔領域情報を重畳することにより、このステップS607で重畳した映像がアシスト用の情報であることをユーザに認知させる。本実施形態では、過去の顔領域情報の顔領域を表す矩形図形を灰色で重畳する。   On the other hand, step S607 is a face frame display update process for assisting when the face size in the past face area information and the face size in the current face area information are not approximate. In this process, the image superimposed in step S304 is updated, and past face area information is also superimposed on the image in step S302 in addition to the current face area information. At this time, by superimposing the past face area information in a format different from that in step S304, the user is made aware that the video superimposed in step S607 is information for assisting. In the present embodiment, a rectangular figure representing a face area of past face area information is superimposed in gray.

例えば、現在の顔情報として図4(b)に示す顔領域情報402を取得し、過去の顔情報として図7(b)に示す顔領域情報702を取得した場合は、表示ユニット111はそれぞれの顔領域の位置及びサイズを表示ユニット111の解像度に合わせて変換する。さらに、図9(a)に示すように、現在の顔領域情報を緑色の矩形図形901として表示し、過去の顔領域情報を灰色の矩形図形902として作成し、互いに表示態様が異なるようにする。そして、作成した灰色の矩形図形902を画像データに重畳して表示ユニット111のディスプレイ113に表示する。   For example, when the face area information 402 shown in FIG. 4B is acquired as the current face information, and the face area information 702 shown in FIG. The position and size of the face area are converted according to the resolution of the display unit 111. Further, as shown in FIG. 9A, the current face area information is displayed as a green rectangular figure 901 and the past face area information is created as a gray rectangular figure 902 so that the display modes are different from each other. . Then, the created gray rectangular figure 902 is superimposed on the image data and displayed on the display 113 of the display unit 111.

また、ステップS608は、過去の顔領域情報における顔のサイズと現在の顔領域情報における顔のサイズとが近似しているが、互いに近接していない場合のアシスト用顔枠表示更新処理である。この処理では、ステップS304で重畳した映像を更新し、現在の顔領域情報に加えて、過去の顔領域情報もステップS302の映像に重畳する。このとき、ステップS304と異なる形式で過去の顔領域情報を重畳することにより、このステップS608で重畳した映像がアシスト用の情報であることをユーザに認知させる。また、現在の顔枠(矩形図形)をステップS304と異なる形式に更新することにより、顔のサイズが近似していることをユーザに通知する。本実施形態では、過去の顔領域情報の顔領域を表す矩形図形を灰色で表示し、現在の顔領域情報の顔領域を表す矩形図形を緑色で点滅させて表示するようにする。   Step S608 is an assisting face frame display update process when the face size in the past face area information and the face size in the current face area information are close to each other but are not close to each other. In this process, the image superimposed in step S304 is updated, and past face area information is also superimposed on the image in step S302 in addition to the current face area information. At this time, by superimposing past face area information in a format different from that in step S304, the user is made aware that the video superimposed in step S608 is information for assistance. In addition, the current face frame (rectangular figure) is updated to a format different from that in step S304 to notify the user that the face size is approximate. In the present embodiment, the rectangular figure representing the face area of the past face area information is displayed in gray, and the rectangular figure representing the face area of the current face area information is blinked in green and displayed.

例えば、図4(a)に示す映像を撮影しようとしていたユーザが、ズームボタンを押下して過去の顔領域情報における顔のサイズと現在の顔領域情報における顔のサイズとが近似するまでズームを行ったものとする。この場合は、表示ユニット111はそれぞれの顔領域の位置及びサイズを表示ユニット111の解像度に合わせて変換する。そして、図9(b)に示すように、緑色の点滅する矩形図形903と灰色の矩形図形904とを作成し、画像データに重畳して表示ユニット111のディスプレイ113に表示する。   For example, when the user who is going to shoot the video shown in FIG. 4A presses the zoom button, zooming is performed until the face size in the past face area information and the face size in the current face area information are approximated. Suppose you have gone. In this case, the display unit 111 converts the position and size of each face area according to the resolution of the display unit 111. Then, as shown in FIG. 9B, a green blinking rectangular figure 903 and a gray rectangular figure 904 are created and displayed on the display 113 of the display unit 111 while being superimposed on the image data.

さらに、ステップS609は、過去の顔領域情報における顔のサイズと現在の顔領域情報における顔のサイズとが近似し、かつ、互いに近接している場合のアシスト用顔枠処理である。この処理では、ステップS304で重畳した映像を更新し、現在の顔枠をステップS304及びS608と異なる形式に更新する。これにより、過去の顔枠と現在の顔枠とでサイズが近似し、かつ、接近していることをユーザは認識することができる。本実施形態では、現在の顔領域情報の顔領域を表す矩形図形を赤色で点滅するように重畳する。このとき、過去の顔領域情報の顔領域を表す矩形図形は、位置が近接しているとともにサイズも近似しているため重畳しないようにする。   Further, step S609 is an assisting face frame process in the case where the face size in the past face area information and the face size in the current face area information are close and close to each other. In this process, the image superimposed in step S304 is updated, and the current face frame is updated to a format different from that in steps S304 and S608. Thus, the user can recognize that the past face frame and the current face frame are close in size and close to each other. In the present embodiment, a rectangular figure representing the face area of the current face area information is superimposed so as to blink in red. At this time, the rectangular figure representing the face area of the past face area information is not overlapped because the position is close and the size is approximate.

例えば、図4(a)に示す映像を撮影しようとしていたユーザが、ズームボタンを押下してズームや構図を変更したことにより、過去の顔領域情報における顔領域の位置及びサイズと近い値になるようにしたものとする。この場合は、表示ユニット111は、現在の顔領域情報の顔領域の位置及びサイズを表示ユニット111の解像度に合わせて変換する。そして、図9(c)に示すように、赤色の点滅する矩形図形905を作成し、作成した赤色の点滅する矩形図形905を画像データに重畳して表示ユニット111のディスプレイ113に表示する。   For example, when the user who is going to shoot the video shown in FIG. 4A presses the zoom button and changes the zoom or composition, the value is close to the position and size of the face area in the past face area information. It shall be like that. In this case, the display unit 111 converts the position and size of the face area of the current face area information according to the resolution of the display unit 111. Then, as shown in FIG. 9C, a red blinking rectangular figure 905 is created, and the created red blinking rectangular figure 905 is superimposed on the image data and displayed on the display 113 of the display unit 111.

図4に示すように、ステップS301〜S307の処理及び図6の処理は、ユーザが撮影指示を行うまで繰り返し行われる。すなわち、表示ユニット111のディスプレイ113に表示される映像は随時更新される。したがって、ステップS606〜S609の処理により、ユーザはディスプレイ113を見ながら過去の顔領域情報と現在の顔領域情報とを比較して構図を調整することができる。これにより例えば、図9(a)に示すような構図から、図9(c)に示すような構図に調整することができるので、構図が類似した映像を容易に撮影することができる。   As shown in FIG. 4, the processes in steps S301 to S307 and the process in FIG. 6 are repeated until the user gives a shooting instruction. That is, the video displayed on the display 113 of the display unit 111 is updated as needed. Accordingly, the processing of steps S606 to S609 allows the user to adjust the composition by comparing the past face area information and the current face area information while viewing the display 113. Accordingly, for example, since the composition as shown in FIG. 9A can be adjusted to the composition as shown in FIG. 9C, an image with a similar composition can be easily taken.

(第2の実施形態)
本実施形態では、撮像装置として動画及び静止画の撮影が可能なデジタルビデオカメラを例に説明し、第1の実施形態との違いに着目して説明する。なお、本実施形態に係る撮像装置の内部構成については図1と基本的に同様であるため、異なる点のみ説明する。本実施形態では、システム制御コントローラ100は、撮像制御ユニット104から出力される画像データをJPEGデータあるいはEXIFデータといった静止画データに変換する点では同じである。ところが本実施形態ではさらに、連続する画像データをMPEG2データや、MotionJPEGデータ、H.264データといった動画データに変換する。そして、記録媒体制御ユニット105は、これらの静止画データや動画データを記録媒体112に記録する。また、撮像装置10には、動画の撮影処理の開始または停止を指示する不図示の動画撮影開始・停止ボタン、静止画の撮影を指示する撮影ボタン等が備えられている。
(Second Embodiment)
In the present embodiment, a digital video camera capable of shooting moving images and still images will be described as an example of an imaging apparatus, and the description will be made focusing on differences from the first embodiment. Note that the internal configuration of the imaging apparatus according to the present embodiment is basically the same as that shown in FIG. In the present embodiment, the system controller 100 is the same in that the image data output from the imaging control unit 104 is converted into still image data such as JPEG data or EXIF data. However, in the present embodiment, continuous image data is further converted into MPEG2 data, Motion JPEG data, H.264, or the like. It is converted into moving image data such as H.264 data. Then, the recording medium control unit 105 records these still image data and moving image data on the recording medium 112. In addition, the imaging apparatus 10 includes a moving image shooting start / stop button (not shown) for instructing start or stop of moving image shooting processing, a shooting button for instructing shooting of a still image, and the like.

また、本実施形態では、NVRAM109には、顔検出ユニット106において検出された顔領域情報が少なくとも3個記録されている。ここで少なくとも3個というのは、一連の動画(1テイク)に対して、先頭フレーム、最終フレーム及び最後に顔を検出したフレームの3フレーム分の顔領域情報を保持する必要があるからである。これにより、現在撮影中の動画と、以前に撮影した少なくとも1つの動画に対して顔領域情報を保持することができる。なお、本実施形態における撮像素子103の解像度は横1920画素、縦1080画素とし、同様に表示ユニット111では、横480画素、縦270画素の液晶表示装置を用いるものとする。   In the present embodiment, at least three pieces of face area information detected by the face detection unit 106 are recorded in the NVRAM 109. Here, at least three are because it is necessary to hold face area information for three frames of the first frame, the last frame, and the last frame in which a face is detected for a series of moving images (one take). . Thereby, face area information can be held for a moving image currently being shot and for at least one previously shot moving image. Note that the resolution of the image sensor 103 in this embodiment is 1920 pixels wide and 1080 pixels vertical, and similarly, the display unit 111 uses a liquid crystal display device having 480 pixels wide and 270 pixels vertical.

次に、本実施形態における撮影動作について図10のフローチャートを参照しながら説明する。図10は、本実施形態において、映像を撮影する場合の処理手順の一例を示すフローチャートである。ここで、図10に示す各処理は、システム制御コントローラ100の制御により行われる。なお、ステップS1001〜S1006は、図3のステップS301〜S306と同様の処理であるため、説明は省略する。また、ステップS1006の処理の詳細については後述する。本実施形態では、撮像制御ユニット104から図11(a)に示すような画像データが出力された場合に、図11(b)に示すような、検出した顔領域1101に対する顔領域情報1102を取得する例について説明する。これにより、図12に示すように画像に矩形図形1201を重畳して表示するものとする。   Next, the photographing operation in the present embodiment will be described with reference to the flowchart of FIG. FIG. 10 is a flowchart illustrating an example of a processing procedure when shooting a video in the present embodiment. Here, each process shown in FIG. 10 is performed under the control of the system controller 100. Steps S1001 to S1006 are the same as steps S301 to S306 in FIG. Details of the processing in step S1006 will be described later. In this embodiment, when image data as shown in FIG. 11A is output from the imaging control unit 104, face area information 1102 for the detected face area 1101 as shown in FIG. 11B is acquired. An example will be described. As a result, as shown in FIG. 12, a rectangular figure 1201 is superimposed and displayed on the image.

次に、ステップS1007において、システム制御コントローラ100は、現在の撮影状況を判定する。具体的には、本実施形態の撮像装置10の動作状況とUIユニット110の動画撮影開始・停止ボタンの操作状況とから、停止中、撮影開始直後、撮影中、撮影停止直後の4つの状態のいずれかを判定する。この判定の結果、停止中である場合はステップS1001に戻り、撮影開始直後である場合はステップS1008に進む。また、撮影中(記録中)である場合はステップS1010に進み、撮影停止直後である場合はステップS1009に進む。   Next, in step S1007, the system controller 100 determines the current shooting situation. Specifically, there are four states: stop, immediately after shooting, shooting, and immediately after shooting stop, based on the operation status of the imaging apparatus 10 of this embodiment and the operation status of the moving image shooting start / stop button of the UI unit 110. Judge either one. As a result of this determination, if the camera is stopped, the process returns to step S1001. If it is during shooting (recording), the process proceeds to step S1010. If it is immediately after shooting is stopped, the process proceeds to step S1009.

ステップS1008においては、システム制御コントローラ100は、ステップS1001で取得した画像データから検出された顔の顔領域情報を、現在撮影中の動画の先頭フレームの顔領域情報としてNVRAM109に記録する。なお、画像データから顔が検出されなかった場合は、現在撮影中の動画の先頭フレームには顔が含まれない旨の情報を、NVRAM109に記録する。そして、ステップS1010に進む。   In step S1008, the system controller 100 records the face area information of the face detected from the image data acquired in step S1001 in the NVRAM 109 as face area information of the first frame of the moving image currently being shot. If no face is detected from the image data, information indicating that the face is not included in the first frame of the currently captured moving image is recorded in the NVRAM 109. Then, the process proceeds to step S1010.

一方、ステップS1009においては、ステップS1008と同様であるが、ステップS1001で取得した画像データから検出された顔の顔領域情報を、現在撮影中の動画の最終フレームの顔領域情報としてNVRAM109に記録する。なお、画像データから顔が検出されなかった場合は、現在撮影中の動画の最終フレームには顔が含まれない旨の情報を、NVRAM109に記録する。そして、ステップS1010に進む。   On the other hand, in step S1009, similar to step S1008, the face area information detected from the image data acquired in step S1001 is recorded in the NVRAM 109 as the face area information of the last frame of the movie currently being shot. . If no face is detected from the image data, information indicating that the face is not included in the last frame of the currently captured moving image is recorded in the NVRAM 109. Then, the process proceeds to step S1010.

次に、ステップS1010において、顔検出ユニット106は、ステップS1003で顔が含まれていると判定したかどうかを判定する。この判定の結果、ステップS1003で顔を検出していない場合は、ステップS1011をスキップしてステップS1012に進む。一方、ステップS1010の判定の結果、ステップS1003で顔を検出した場合は、ステップS1011において、システム制御コントローラ100は、その顔領域情報を最終検出フレームの顔領域情報としてNVRAM109に記録する。   Next, in step S1010, the face detection unit 106 determines whether it is determined in step S1003 that a face is included. If the result of this determination is that a face has not been detected in step S1003, step S1011 is skipped and processing proceeds to step S1012. On the other hand, as a result of the determination in step S1010, if a face is detected in step S1003, the system controller 100 records the face area information in the NVRAM 109 as face area information of the final detection frame in step S1011.

次に、ステップS1012において、システム制御コントローラ100は、撮像制御ユニット104を介して取得した画像データを所定のファイル形式に変換し、記録媒体制御ユニット105は、その変換した画像データを記録媒体112に記録する。なお、MPEG2やH.264などのファイル形式では、複数のフレームを参照して動画のファイルを生成する。このようなファイル形式の場合は、取得した画像データをRAM108に一時的に格納し、所望のファイル形式データが構成される毎に記録媒体112に記録する。そして、ステップS1001に戻る。   Next, in step S1012, the system controller 100 converts the image data acquired via the imaging control unit 104 into a predetermined file format, and the recording medium control unit 105 stores the converted image data in the recording medium 112. Record. MPEG2 and H.264 In a file format such as H.264, a moving image file is generated with reference to a plurality of frames. In the case of such a file format, the acquired image data is temporarily stored in the RAM 108 and recorded on the recording medium 112 every time desired file format data is configured. Then, the process returns to step S1001.

次に、図10のステップS1006の処理について詳細に説明する。前述したように図10のステップS1006は、図6に示したフローチャートに従って処理が行われる。本実施形態では、第1の実施形態と異なる点について説明する。   Next, the process of step S1006 in FIG. 10 will be described in detail. As described above, step S1006 in FIG. 10 is processed according to the flowchart shown in FIG. In the present embodiment, differences from the first embodiment will be described.

ステップS601では、NVRAM109に記録されている顔領域情報を取得する。前述したように、NVRAM109には、以前に撮影した少なくとも1つの動画に対して、先頭フレーム、最終フレーム、及び最後に顔を検出したフレームの顔領域情報が記録されている。なお、撮影した動画によっては、顔領域情報が無効として保持されている場合もある。   In step S601, face area information recorded in the NVRAM 109 is acquired. As described above, the NVRAM 109 records face area information of the first frame, the last frame, and the last frame in which the face was detected with respect to at least one moving image previously shot. Note that face area information may be held as invalid depending on the captured moving image.

本実施形態では、メニューによってユーザに撮影アシスト用の顔領域情報を先頭フレーム、最終フレーム、あるいは最後に顔を検出したフレームから予め選択できるようにしておく。これによりステップS601では、ユーザの選択に応じて顔領域情報の取得を行う。そして、ステップS602で、顔領域情報が取得できたと判定した場合はステップS603に進み、顔領域情報が無効として保持されていた場合は、図6のフローチャートにおける処理を終了する。なお、ステップS603〜S609の処理は、第1の実施形態と同様である。   In the present embodiment, the face area information for photographing assistance can be selected in advance by the menu from the first frame, the last frame, or the frame in which the face is detected last. Thus, in step S601, face area information is acquired in accordance with the user's selection. If it is determined in step S602 that the face area information has been acquired, the process proceeds to step S603. If the face area information is retained as invalid, the process in the flowchart of FIG. 6 ends. Note that the processing in steps S603 to S609 is the same as that in the first embodiment.

図10に示すように、ステップS1001〜S1007の処理及び図6の処理は、撮影状態にかかわらず繰り返される。すなわち、表示ユニット111のディスプレイ113に表示される映像は随時更新される。したがって、ステップS606〜S609の処理により、ユーザはディスプレイ113を見ながら過去の顔領域情報と現在の顔領域情報とを比較して構図を調整することができる。構図が類似した映像を容易に撮影することができる。   As shown in FIG. 10, the processes in steps S1001 to S1007 and the process in FIG. 6 are repeated regardless of the shooting state. That is, the video displayed on the display 113 of the display unit 111 is updated as needed. Accordingly, the processing of steps S606 to S609 allows the user to adjust the composition by comparing the past face area information and the current face area information while viewing the display 113. Images with similar composition can be easily taken.

例えば、動画撮影を行っている途中で撮影を一度停止し、静止画を撮影した後に動画撮影を再開する場合、静止画と動画とでは撮影目的が異なるため構図が異なることがある。特に、動画のアスペクト比が16:9であるのに対し、静止画のアスペクト比が4:3である場合には構図が異なる可能性が高い。   For example, when shooting is stopped once while moving image shooting is being performed, and moving image shooting is resumed after shooting a still image, the composition may differ between the still image and the moving image because the shooting purpose is different. In particular, when the aspect ratio of a moving image is 16: 9, while the aspect ratio of a still image is 4: 3, the composition is likely to be different.

従来は、このように静止画撮影前の動画(第1の動画)と静止画撮影後の動画(第2の動画)との間で構図が変更した場合、第1の動画の最終フレームと第2の動画の先頭フレームとで構図が異なってしまう。このため、連続して再生すると不自然に不連続なものとなってしまう。ところが、本実施形態では、第2の動画の構図を決める際に、ステップS601で第1の動画の最終フレームを選択することにより、ユーザは、動画の撮影を再開する際に第1の動画の最終フレームとの構図の違いを認識することができる。これにより、第1の動画との不連続さを解消し、違和感のないように構図をあわせて第2の動画の撮影を開始することができる。   Conventionally, when the composition is changed between a moving image before shooting a still image (first moving image) and a moving image after shooting a still image (second moving image), the last frame of the first moving image and the first frame The composition differs between the first frame of the second video. For this reason, if it reproduces | regenerates continuously, it will become an unnatural discontinuous thing. However, in this embodiment, when determining the composition of the second moving image, by selecting the last frame of the first moving image in step S601, the user can select the first moving image when resuming the shooting of the moving image. Differences in composition from the final frame can be recognized. Thereby, discontinuity with the first moving image can be eliminated, and shooting of the second moving image can be started with a composition so that there is no sense of incongruity.

(本発明に係る他の実施形態)
前述した実施形態では、顔領域情報を矩形図形(顔枠)として重畳表示したが、本発明はこれに限定されるわけではなく、テキスト、アイコン、他の図形などを用いて顔領域情報をユーザに認知させるようにしてもよい。また、前述の実施形態では、過去の顔領域情報における顔サイズと現在の顔領域情報における顔サイズとが近似していない場合に、重畳する矩形図形の色を変更して重畳したが、本発明はこれに限定されるわけではない。テキスト、アイコン、他の図形などを用いてユーザに認知させるようにしてもよい。さらには、過去の顔情報における顔サイズと現在の顔情報における顔サイズとが近似している場合に、矩形図形を点滅するようにしたが、本発明はこれに限定されるわけではない。テキスト、アイコン、他の図形などを用いてユーザに認知できるようにしてもよい。
(Other embodiments according to the present invention)
In the above-described embodiment, the face area information is superimposed and displayed as a rectangular figure (face frame). However, the present invention is not limited to this, and the face area information is converted to the user by using text, icons, other figures, and the like. You may make it recognize. In the above-described embodiment, when the face size in the past face area information and the face size in the current face area information are not approximate, the color of the rectangular figure to be superimposed is changed and superimposed. Is not limited to this. You may make it make a user recognize using a text, an icon, another figure, etc. Furthermore, when the face size in the past face information is close to the face size in the current face information, the rectangular figure is blinked, but the present invention is not limited to this. You may make it possible for a user to recognize using a text, an icon, another figure, etc.

また、第1の実施形態では、ステップS310で顔領域情報をNVRAM109に記録したが、代わりに画像データ自身をNVRAM109に記録してもよい。この場合は、図6のステップS601では、この記録した画像データから顔検出ユニット106により顔領域情報を取得し、以降の処理を行う。なお、画像データの代わりにファイル名などの画像データを特定する情報をNVRAM109に保存してもよい。この場合は、図6のステップS601ではこの情報に基づき画像データを記録媒体112から取得し、その画像データから顔検出ユニット106により顔領域情報を取得し、以降の処理を行う。   In the first embodiment, the face area information is recorded in the NVRAM 109 in step S310, but the image data itself may be recorded in the NVRAM 109 instead. In this case, in step S601 in FIG. 6, face area information is acquired from the recorded image data by the face detection unit 106, and the subsequent processing is performed. Information specifying the image data such as a file name may be stored in the NVRAM 109 instead of the image data. In this case, in step S601 in FIG. 6, image data is acquired from the recording medium 112 based on this information, face area information is acquired from the image data by the face detection unit 106, and the subsequent processing is performed.

また、第2の実施形態では、ステップS1008、S1009及びS1011で顔領域情報をNVRAM109に記録したが、顔領域情報の代わりに映像の対象フレームをJPEGファイル等の画像データとして記録してもよい。この場合は、図6のステップS601ではこの記録した画像データから顔検出ユニット106により顔領域情報を取得し、以降の処理を行う。なお、画像データの代わりにフレーム番号やタイムコードなどの対象フレームを特定する情報をNVRAM109に記録してもよい。この場合は、図6のステップS601ではこの情報に基づきフレームの画像データを記録媒体112から取得し、その画像データから顔検出ユニット106により顔領域情報を取得し、以降の処理を行う。   In the second embodiment, the face area information is recorded in the NVRAM 109 in steps S1008, S1009, and S1011. However, instead of the face area information, the target frame of the video may be recorded as image data such as a JPEG file. In this case, in step S601 in FIG. 6, face area information is acquired from the recorded image data by the face detection unit 106, and the subsequent processing is performed. Note that information specifying a target frame such as a frame number and a time code may be recorded in the NVRAM 109 instead of the image data. In this case, in step S601 of FIG. 6, the image data of the frame is acquired from the recording medium 112 based on this information, the face area information is acquired from the image data by the face detection unit 106, and the subsequent processing is performed.

さらに、前述のように、図6のステップS601で画像データを取得し、その画像データから顔領域情報を取得する場合に、顔検出ユニット106に対して顔領域を判定するための基準となる閾値を設定可能なようにしてもよい。この場合に、図6のステップS601で顔検出ユニット106が顔領域の取得に失敗した場合は、前記閾値の値を変更し、再度顔領域を検出して取得するようにしてもよい。   Further, as described above, when image data is acquired in step S601 of FIG. 6 and face area information is acquired from the image data, a threshold value serving as a reference for determining the face area for the face detection unit 106 May be settable. In this case, if the face detection unit 106 fails to acquire the face area in step S601 in FIG. 6, the threshold value may be changed and the face area may be detected and acquired again.

また、前述した実施形態では、図6のステップS604で顔サイズが近似していない場合は、矩形図形(顔枠)を異なる色で表示したが、光学制御ユニット102によりズーム倍率を変更し、顔サイズを自動的に一致させるようにしてもよい。この場合、顔サイズの一致に成功した場合はステップS605に進み、失敗した場合はS607に進む。   In the above-described embodiment, when the face size is not approximated in step S604 in FIG. 6, the rectangular figure (face frame) is displayed in a different color, but the zoom magnification is changed by the optical control unit 102, and the face is displayed. The size may be automatically matched. In this case, if the face size matches successfully, the process proceeds to step S605, and if unsuccessful, the process proceeds to S607.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

100 システム制御コントローラ、106 顔検出ユニット、109 NVRAM、111 表示ユニット、113 ディスプレイ 100 system controller, 106 face detection unit, 109 NVRAM, 111 display unit, 113 display

Claims (16)

被写体を撮像して画像データを生成する撮像手段と、
前記撮像手段により生成された画像データに基づく画像を表示部に表示する表示手段と、
前記撮像手段により生成された画像データから被写体領域を検出する被写体検出手段と、
前記被写体検出手段により検出された被写体領域の情報を保持する保持手段とを備え、
前記表示手段は、前記撮像手段により生成された第1の画像データに基づく画像とともに、前記被写体検出手段により前記第1の画像データから検出された被写体領域の情報と、前記保持手段に保持されている、前記第1の画像データよりも前に前記撮像手段により生成された第2の画像データの被写体領域の情報とを前記表示部に表示することを特徴とする撮像装置。
Imaging means for imaging a subject and generating image data;
Display means for displaying an image based on the image data generated by the imaging means on a display unit;
Subject detection means for detecting a subject area from the image data generated by the imaging means;
Holding means for holding information on the subject area detected by the subject detection means,
The display means is held in the holding means together with information on the subject area detected from the first image data by the subject detection means, together with an image based on the first image data generated by the imaging means. An image pickup apparatus for displaying information on a subject area of second image data generated by the image pickup means before the first image data on the display unit.
前記被写体検出手段は、前記被写体領域として人物の顔領域を検出することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the subject detection unit detects a human face area as the subject area. 前記被写体検出手段は、前記被写体領域のサイズ及び位置を検出することを特徴とする請求項1又は2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the subject detection unit detects a size and a position of the subject region. 前記表示手段は、前記第1の画像データの被写体領域の情報と、前記第2の画像データの被写体領域の情報とを互いに異なる表示態様により表示することを特徴とする請求項1〜3の何れか1項に記載の撮像装置。   The display means displays information on the subject area of the first image data and information on the subject area of the second image data in different display modes. The imaging apparatus of Claim 1. 前記第1の画像データの被写体領域と、前記第2の画像データの被写体領域とを比較する比較手段をさらに備え、
前記表示手段は、前記比較手段による比較の結果、前記被写体領域のサイズ及び位置の差が所定値以下である場合に、被写体領域が一致している旨を通知することを特徴とする請求項3に記載の撮像装置。
A comparison means for comparing the subject area of the first image data with the subject area of the second image data;
The display means notifies that the subject areas match when the difference between the size and position of the subject area is equal to or less than a predetermined value as a result of the comparison by the comparison means. The imaging device described in 1.
前記表示手段は、前記比較手段による比較の結果、前記被写体領域のサイズ及び位置の差が所定値以下である場合に、前記第1の画像データの被写体領域の情報と、前記第2の画像データの被写体領域の情報とを1つの表示態様で表示することにより、被写体領域が一致している旨を通知することを特徴とする請求項5に記載の撮像装置。   When the difference between the size and position of the subject area is equal to or less than a predetermined value as a result of the comparison by the comparison means, the display means includes information on the subject area of the first image data and the second image data. 6. The image pickup apparatus according to claim 5, wherein information on the subject area is displayed in one display form to notify that the subject areas match. 前記比較手段による比較の結果、前記被写体領域のサイズが所定値を超えた場合に、前記第1の画像データの被写体領域のサイズが前記第2の画像データの被写体領域のサイズになるように前記撮像手段のズーム倍率を制御する制御手段をさらに備えることを特徴とする請求項5又は6に記載の撮像装置。   As a result of the comparison by the comparison means, when the size of the subject area exceeds a predetermined value, the size of the subject area of the first image data becomes the size of the subject area of the second image data. The imaging apparatus according to claim 5, further comprising a control unit that controls a zoom magnification of the imaging unit. 前記第2の画像データは、前記第1の画像データよりも前に前記被写体検出手段により最後に被写体領域が検出された画像データであることを特徴とする請求項1〜7の何れか1項に記載の撮像装置。   8. The image data according to claim 1, wherein the second image data is image data in which a subject area is detected last by the subject detection means before the first image data. The imaging device described in 1. 前記保持手段に保持されている被写体領域の情報の中から、前記第2の画像データの被写体領域の情報として表示するための被写体領域の情報を選択する選択手段をさらに備え、
前記表示手段は、前記第1の画像データに基づく画像とともに、前記第1の画像データの被写体領域の情報と、前記選択手段によって選択された被写体領域の情報とを前記表示部に表示することを特徴とする請求項1〜7の何れか1項に記載の撮像装置。
Selecting means for selecting information on the subject area to be displayed as information on the subject area of the second image data from the information on the subject area held in the holding means;
The display means displays on the display unit information on the subject area of the first image data and information on the subject area selected by the selection means together with an image based on the first image data. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized.
前記第2の画像データは静止画データであることを特徴とする請求項1〜9の何れか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the second image data is still image data. 前記第2の画像データは動画データであり、前記選択手段は、前記保持手段に保持されている前記動画データの先頭のフレーム、前記被写体検出手段により被写体領域が検出されたフレーム、及び最後のフレームの被写体領域の情報の中から選択することを特徴とする請求項9に記載の撮像装置。   The second image data is moving image data, and the selection unit includes a first frame of the moving image data held in the holding unit, a frame in which a subject area is detected by the subject detection unit, and a last frame. The imaging apparatus according to claim 9, wherein information is selected from information on a subject area. 前記保持手段は、前記撮像手段により生成された第2の画像データをも保持し、
前記保持手段が前記第2の画像データの被写体領域の情報を保持していない場合、前記被写体検出手段は、前記被写体領域を検出する基準となる閾値を変更して前記保持手段に保持されている第2の画像データから被写体領域を検出することを特徴とする請求項1〜11の何れか1項に記載の撮像装置。
The holding unit also holds the second image data generated by the imaging unit,
When the holding unit does not hold information on the subject area of the second image data, the subject detection unit changes the threshold value serving as a reference for detecting the subject area and is held by the holding unit. The imaging device according to claim 1, wherein a subject area is detected from the second image data.
前記表示手段は、前記第1の画像データの被写体領域の情報と、前記第2の画像データの被写体領域の情報とを矩形図形により表示することを特徴とする請求項1〜12の何れか1項に記載の撮像装置。   13. The display unit according to claim 1, wherein the display unit displays the subject region information of the first image data and the subject region information of the second image data in a rectangular figure. The imaging device according to item. 前記撮像手段により生成された画像データを記録媒体に記録する記録手段をさらに備えることを特徴とする請求項1〜13の何れか1項に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a recording unit that records image data generated by the imaging unit on a recording medium. 被写体を撮像して画像データを生成する撮像工程と、
前記撮像工程において生成された画像データに基づく画像を表示部に表示する表示工程と、
前記撮像工程において生成された画像データから被写体領域を検出する被写体検出工程と、
前記被写体検出工程において検出された被写体領域の情報を保持手段に保持する保持工程とを備え、
前記表示工程においては、前記撮像工程において生成された第1の画像データに基づく画像とともに、前記被写体検出工程において前記第1の画像データから検出された被写体領域の情報と、前記保持手段に保持されている、前記第1の画像データよりも前に前記撮像工程において生成された第2の画像データの被写体領域の情報とを前記表示部に表示することを特徴とする撮像方法。
An imaging step of imaging a subject and generating image data;
A display step of displaying an image based on the image data generated in the imaging step on a display unit;
A subject detection step of detecting a subject region from the image data generated in the imaging step;
A holding step of holding information on the subject area detected in the subject detection step in a holding unit,
In the display step, information on the subject area detected from the first image data in the subject detection step and the image based on the first image data generated in the imaging step, and the holding unit hold the information. And displaying information on the subject area of the second image data generated in the imaging step before the first image data on the display unit.
被写体を撮像して画像データを生成する撮像工程と、
前記撮像工程において生成された画像データに基づく画像を表示部に表示する表示工程と、
前記撮像工程において生成された画像データから被写体領域を検出する被写体検出工程と、
前記被写体検出工程において検出された被写体領域の情報を保持手段に保持する保持工程とをコンピュータに実行させ、
前記表示工程においては、前記撮像工程において生成された第1の画像データに基づく画像とともに、前記被写体検出工程において前記第1の画像データから検出された被写体領域の情報と、前記保持手段に保持されている、前記第1の画像データよりも前に前記撮像工程において生成された第2の画像データの被写体領域の情報とを前記表示部に表示するようコンピュータに実行させることを特徴とするプログラム。
An imaging step of imaging a subject and generating image data;
A display step of displaying an image based on the image data generated in the imaging step on a display unit;
A subject detection step of detecting a subject region from the image data generated in the imaging step;
Causing the computer to execute a holding step of holding information on the subject area detected in the subject detection step in a holding unit;
In the display step, information on the subject area detected from the first image data in the subject detection step and the image based on the first image data generated in the imaging step, and the holding unit hold the information. And a program for causing the computer to display information on the subject area of the second image data generated in the imaging step before the first image data on the display unit.
JP2009217611A 2009-09-18 2009-09-18 Imaging device, imaging method and program Abandoned JP2011066828A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009217611A JP2011066828A (en) 2009-09-18 2009-09-18 Imaging device, imaging method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009217611A JP2011066828A (en) 2009-09-18 2009-09-18 Imaging device, imaging method and program

Publications (2)

Publication Number Publication Date
JP2011066828A true JP2011066828A (en) 2011-03-31
JP2011066828A5 JP2011066828A5 (en) 2012-11-01

Family

ID=43952551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009217611A Abandoned JP2011066828A (en) 2009-09-18 2009-09-18 Imaging device, imaging method and program

Country Status (1)

Country Link
JP (1) JP2011066828A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015061235A (en) * 2013-09-19 2015-03-30 カシオ計算機株式会社 Image processing apparatus, image processing method and program
CN104601892A (en) * 2015-01-30 2015-05-06 深圳酷派技术有限公司 Terminal and image shooting method and device
WO2021199124A1 (en) * 2020-03-30 2021-10-07 日本電気株式会社 Detection device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015061235A (en) * 2013-09-19 2015-03-30 カシオ計算機株式会社 Image processing apparatus, image processing method and program
CN104601892A (en) * 2015-01-30 2015-05-06 深圳酷派技术有限公司 Terminal and image shooting method and device
WO2021199124A1 (en) * 2020-03-30 2021-10-07 日本電気株式会社 Detection device

Similar Documents

Publication Publication Date Title
JP4904243B2 (en) Imaging apparatus and imaging control method
JP4656331B2 (en) Imaging apparatus and imaging method
JP5044321B2 (en) Imaging apparatus and subject detection method
JP7023662B2 (en) Image processing device, image pickup device, control method and program of image processing device
TW200808044A (en) Imaging apparatus and computer readable recording medium
US10237466B2 (en) Recognition of degree of focus of an image
JP5210843B2 (en) Imaging device
TW201102938A (en) Image capturing apparatus, face area detecting method and program recording medium
JP2009124340A (en) Imaging apparatus, photographing support method, and photographing support program
JP2008252711A (en) Digital camera
JP4866317B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP4586707B2 (en) Image processing apparatus, electronic camera, and image processing program
JP2007318490A (en) Image processing apparatus, camera, and image processing program
JP5092961B2 (en) Imaging apparatus, imaging method, and program
JP2011066828A (en) Imaging device, imaging method and program
KR101630303B1 (en) Apparatus for processing digital image and thereof method
JP2010193324A (en) Camera apparatus, photographing method thereof and program
JP2007049408A (en) Photographing device
JP2010258904A (en) Imaging apparatus, and image display method of the imaging apparatus
JP4887840B2 (en) Imaging apparatus and program
JP5021370B2 (en) Imaging apparatus, display method, and program
JP2007259004A (en) Digital camera, image processor, and image processing program
JP2006128793A (en) Image pickup device and control method thereof
JP4336186B2 (en) Image correction apparatus and imaging apparatus
JP2009089083A (en) Age estimation photographing device and age estimation photographing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120918

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120918

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20130729