JP2011066828A - Imaging device, imaging method and program - Google Patents
Imaging device, imaging method and program Download PDFInfo
- Publication number
- JP2011066828A JP2011066828A JP2009217611A JP2009217611A JP2011066828A JP 2011066828 A JP2011066828 A JP 2011066828A JP 2009217611 A JP2009217611 A JP 2009217611A JP 2009217611 A JP2009217611 A JP 2009217611A JP 2011066828 A JP2011066828 A JP 2011066828A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- subject
- imaging
- information
- subject area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Landscapes
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は撮像装置、撮像方法、及びプログラムに関し、特に、間欠的に映像を撮影するために用いて好適な技術に関する。 The present invention relates to an imaging apparatus, an imaging method, and a program, and more particularly, to a technique suitable for use in intermittent video shooting.
従来、デジタルカメラやデジタルビデオカメラ等の撮像装置において、間欠的に映像の撮影を行うと映像間の画角や構図が異なってしまうことがある。例えば、インタビュー等を行うために複数の人を一人ずつ同じような構図で動画や静止画を順次撮影したいという要望がある。このような場合において、被写体と撮像装置との位置関係が固定されていない場合には、映像間において画角や構図は異なってしまう。 Conventionally, in an imaging device such as a digital camera or a digital video camera, when an image is shot intermittently, an angle of view and a composition between the images may be different. For example, there is a desire to sequentially shoot moving images and still images with the same composition for a plurality of people one by one in order to conduct an interview or the like. In such a case, if the positional relationship between the subject and the imaging device is not fixed, the angle of view and composition differ between videos.
また、動画撮影機能と静止画撮影機能とを備え、動画撮影モードと静止画撮影モードとを切り替えることが可能なデジタルビデオカメラも存在する。このようなデジタルビデオカメラを用いて動画の撮影中に静止画の撮影を行うと、動画の撮影中における画角や構図と、静止画の撮影中における画角や構図とが異なることがある。このような場合には、静止画の撮影を行う前後で動画の画角や構図にずれが生じ、動画を連続再生した時に静止画の撮影を行う前の動画と静止画の撮影を行った直後の動画との間でそのずれにより違和感が生じる。 There is also a digital video camera that has a moving image shooting function and a still image shooting function and can switch between a moving image shooting mode and a still image shooting mode. When a still image is shot while shooting a moving image using such a digital video camera, the angle of view and composition during shooting of the moving image may differ from the angle of view and composition during shooting of the still image. In such a case, the angle of view and composition of the movie will be different before and after taking a still image, and immediately after shooting the movie and still image before shooting the still image when the movie is played back continuously. Discomfort occurs due to the difference between the video and the video.
そこで、例えば特許文献1には、このような課題を解決した、動画撮影機能と静止画撮影機能とを備えた撮像装置が開示されている。この撮像装置によれば、動画の撮影中に静止画を撮影する場合に、動画撮影モードから静止画撮影モードに変更された時点の画像データを保持する。そして、動画の撮影を再開する場合に保持している画像データを半透過画像として撮像装置のディスプレイに表示している。これにより、動画の撮影を再開した時に透過された画像を参考にして画角及び構図を調整し、静止画の撮影を行う前後で動画の画角や構図のずれを少なくしようとしている。
Thus, for example,
しかしながら、特許文献1に開示された技術には次のような課題があった。すなわち、最後に撮影した映像を半透明化あるいは輪郭抽出し、撮影しようとする映像に重畳して表示するため、連続再生した場合に本来の撮影したい映像が全画面にわたりぼやける等の影響を受けてしまう。したがって、半透明化あるいは輪郭抽出を行う映像と、とりたい映像とが類似している場合は影響が小さいが、前述したようにインタビュー等を行う場合においては、以下のような問題点がある。すなわち、複数の人を一人ずつ同じような構図で撮影すると、他人の顔同士を重畳してしまい、本来の映像が得られないという問題点がある。
However, the technique disclosed in
本発明は前述の問題点に鑑み、静止画あるいは動画を撮影する際に、以前に撮影された静止画あるいは動画の画角や構図をユーザが認識できるようにすることを目的としている。 The present invention has been made in view of the above-described problems, and it is an object of the present invention to enable a user to recognize the angle of view and composition of a previously captured still image or moving image when capturing a still image or moving image.
本発明の撮像装置は、被写体を撮像して画像データを生成する撮像手段と、前記撮像手段により生成された画像データに基づく画像を表示部に表示する表示手段と、前記撮像手段により生成された画像データから被写体領域を検出する被写体検出手段と、前記被写体検出手段により検出された被写体領域の情報を保持する保持手段とを備え、前記表示手段は、前記撮像手段により生成された第1の画像データに基づく画像とともに、前記被写体検出手段により前記第1の画像データから検出された被写体領域の情報と、前記保持手段に保持されている、前記第1の画像データよりも前に前記撮像手段により生成された第2の画像データの被写体領域の情報とを前記表示部に表示することを特徴とする。 An imaging device according to the present invention includes an imaging unit that captures an image of a subject and generates image data, a display unit that displays an image based on the image data generated by the imaging unit on a display unit, and the imaging unit A subject detection unit for detecting a subject region from the image data; and a holding unit for holding information on the subject region detected by the subject detection unit. The display unit includes a first image generated by the imaging unit. Along with the image based on the data, information on the subject area detected from the first image data by the subject detection means and the imaging means held in the holding means before the first image data. Information on the subject area of the generated second image data is displayed on the display unit.
本発明によれば、ユーザは以前に撮影された静止画あるいは動画の画角や構図とのズレを認識することができる。これにより、静止画あるいは動画の画角や構図を調整することによって画角や構図を一致させて撮影することができる。 According to the present invention, the user can recognize a deviation from the angle of view or composition of a still image or a moving image that was previously captured. Thus, it is possible to shoot with matching the angle of view and composition by adjusting the angle of view and composition of the still image or moving image.
以下、図面を参照しながら本発明の好適な実施形態を説明する。
(第1の実施形態)
図1は、本実施形態における撮像装置10の構成例を示すブロック図である。
図1において、本実施形態の撮像装置10は、コンパクト型のデジタルカメラであり、電子シャッター方式のデジタルスチルカメラである。システム制御コントローラ100は、本実施形態の撮像装置10全体の制御を司り、後述する各ユニットを制御して、ユーザの設定と操作とに応じて画像データを記録する。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration example of an
In FIG. 1, an
光学レンズユニット101は、絞り、ズーム、及びフォーカス機能を備えたユニットである。光学制御ユニット102は、システム制御コントローラ100からの指示に従い、光学レンズユニット101を制御するためのものである。具体的には、光学レンズユニット101の絞り、ズーム、及びフォーカスを変更する制御を行う。
The
撮像素子103は、光学レンズユニット101を経て導入された光(映像)を電気信号に変換するためのものである。具体的には、CCDを利用したCCD撮像素子(CCDイメージセンサー)か、CMOSを利用したCMOS撮像素子(CMOSイメージセンサー)が利用される。本実施形態の撮像装置10では、横3072画素、縦2304画素の撮像素子を用いるものとする。撮像制御ユニット104は、システム制御コントローラ100からの指示に従い、撮像素子103を制御するためのものである。具体的には、撮像素子103の感度調整(ゲインコントロール)や、シャッター時間に従って撮像素子103からデータを読み取る動作などを行う。
The
記録媒体制御ユニット105は記録手段として機能し、システム制御コントローラ100からの指示に従い、記録媒体112にデータを記録するためのものである。記録媒体112の具体的な例としては、SDメモリカードコンパクトフラッシュ(登録商標)カード、メモリスティックなどのカード型の取り外し可能なメモリを用いるが、記録可能なものであれば特に何でもよい。また、記録媒体112には、撮像制御ユニット104から出力される画像データ(RAWデータ)や、その画像データからシステム制御コントローラ100により符号化された画像データ(JPEGデータ又はEXIFデータ)が記録される。
The recording
顔検出ユニット106は被写体検出手段として機能し、システム制御コントローラ100からの指示に従い、画像データから顔領域情報を検出するためのものである。顔検出ユニット106は、撮像制御ユニット104から出力される画像データ、またはシステム制御コントローラ100により符号化した画像データを入力する。そして、その画像データに含まれる顔の位置及びサイズの情報をシステム制御コントローラ100に出力する。なお、本実施形態では被写体として人物の顔を検出する例について説明するが、人物以外に動物等を検出するようにしてもよい。
The
本実施形態において顔検出ユニット106は、画像に含まれる特徴部分として人物の顔領域を検出するものとする。ここで、被写体領域である顔領域を検出する技術としては様々な手法が知られている。例えば、ニューラルネットワークやサポートベクターマシンに代表される学習を用いた方法や、目や鼻といった物理的な形状の特徴のある部位を画像領域からテンプレートマッチングして抽出する手法などがある。他にも、肌の色や目の形といった画像特徴量を検出し、統計的手法を用いて解析する手法などもある(例えば、特許文献2または特許文献3参照)。
In the present embodiment, the
図2は、顔検出ユニット106から出力される顔領域情報の一例を示す図である。図2に示す例では、顔検出ユニット106は1つの映像から顔ごとの位置及びサイズの情報を出力している。
FIG. 2 is a diagram illustrating an example of face area information output from the
図1の説明に戻り、ROM107は、本実施形態の撮像装置10を制御するプログラムとプログラムが使用するデータとを格納するためのメモリである。撮像装置10に電源が投入されると、システム制御コントローラ100はROM107からプログラムを読み出し、撮像装置10の制御を開始する。RAM108は、本実施形態の撮像装置10を制御するプログラムを作業領域として使用するための書き換え可能なメモリである。また、撮像制御ユニット104から出力される画像データを一時的に保存するバッファとしても使用される。
Returning to the description of FIG. 1, the
NVRAM109は保持手段として機能し、後述するUIユニット110でユーザにより指定された設定値や、本実施形態の撮像装置10がパワーサイクルを超えて保持する必要があるパラメータを保持するための書き換え可能な不揮発性メモリである。本実施形態の撮像装置10では、顔検出ユニット106で検出された顔領域の情報を少なくても1個保持する。UIユニット110は、ユーザの指示を本実施形態の撮像装置10に伝えるためのものである。UIユニット110には、表示ユニット111にメニューを表示するよう指示するためのメニューボタンや、メニューを操作するためのボタンが備えられている。さらに、本実施形態においては、撮影時に表示ユニット111のディスプレイ113に撮影を補助する画像を重畳表示するため撮影アシスト機能を有効にするための補助ボタンが備えられている。この撮影アシスト機能については後述する。また、撮像装置10には、撮影を指示する不図示の撮影ボタン等も備えられている。
The
表示ユニット111は表示手段として機能し、システム制御コントローラ100からの指示に従い、画像を表示するためのユニットである。表示ユニット111は、表示部である液晶表示装置(LCD)のような薄型のディスプレイ113とそのディスプレイ113をコントロールするディスプレイドライバユニットとで構成されている。本実施形態の撮像装置10では、横320画素、縦240画素の液晶表示装置を用いるものとする。
The
表示ユニット111は、本実施形態の撮像装置10の各種設定を行うためのメニュー画面や、撮像制御ユニット104から出力される画像データに基づく画像を表示する。このように表示ユニット111は、構図決定用のファインダとしての利用されるものである。また、表示ユニット111は、撮影画像を確認するために撮影した画像を表示したり、記録媒体112に格納された画像データに基づく画像をも表示したりする。このように表示ユニット111は、画像ビューアとしても利用されるものである。また、それぞれの画像には任意のグラフィクス画像を重畳して表示することが可能である。本実施形態の撮像装置10では、重畳するグラフィクス画像の画素数は、表示ユニット111の画素数と同じものとする。
The
次に、本実施形態における撮影動作について、図3及び図6のフローチャートを参照しながら説明する。図3は、本実施形態において、映像を撮影する場合の処理手順の一例を示すフローチャートである。なお、図3に示す各処理は、システム制御コントローラ100の制御により行われる。
Next, the photographing operation in the present embodiment will be described with reference to the flowcharts of FIGS. FIG. 3 is a flowchart illustrating an example of a processing procedure when shooting a video in the present embodiment. 3 is performed under the control of the
まず、ステップS301において、光学レンズユニット101から入力された映像を撮像素子103で電気信号に変換し、撮像制御ユニット104は、この電気信号をシステム制御コントローラ100に画像データとして出力する。次に、ステップS302において、システム制御コントローラ100は、ステップS301で取得した画像データを表示ユニット111に出力し、表示ユニット111は、ディスプレイ113に構図決定用(プレビュー用)の映像として表示する。例えば、ステップS301で撮像制御ユニット104から図4(a)に示すような画像データが出力された場合は、表示ユニット111の解像度(320×240)に調整してその映像を表示することになる。
First, in step S <b> 301, an image input from the
次に、ステップS303において、顔検出ユニット106は、ステップS301において取得した画像データに顔が含まれているかどうかを判定する。この判定の結果、顔が含まれていない場合は、次のステップS304の処理は行わず、ステップS305へ進む。
Next, in step S303, the
一方、ステップS303の判定の結果、顔が含まれている場合は、ステップS304において、顔検出ユニット106は、図2で示したような形式で顔領域情報をシステム制御コントローラ100に通知する。例えば、図4(a)に示す画像データに対しては、図4(b)に示すように、検出した顔領域401に対する顔領域情報402を出力する。そして、表示ユニット111は、取得した顔領域情報をステップS302で表示した映像に重畳する。
On the other hand, if the result of determination in step S303 is that a face is included, in step S304, the
本実施形態では、顔の領域を表す矩形図形(顔枠)を緑色で表す。例えば、図4(a)に示した画像データに対して、図4(b)に示す顔領域情報402を取得した場合は、表示ユニット111は、図5に示すように、顔領域の位置及びサイズを表示ユニット111の解像度に合わせて変換する。そして、図5に示すような矩形図形501を作成し、作成した矩形図形501を画像データに重畳して表示ユニット111のディスプレイ113に表示する。
In the present embodiment, a rectangular figure (face frame) representing a face area is represented in green. For example, when the
次に、ステップS305において、システム制御コントローラ100は、撮影アシスト機能が有効になっているかどうかを判定する。本実施形態では、ユーザによりUIユニット110の補助ボタンが押下されるか、メニューボタンで表示されるメニューで撮影アシスト機能が選択されることにより撮影アシスト機能を有効にすることができる。この判定の結果、撮影アシスト機能が無効である場合は、ステップS306をスキップしてステップS307へ進む。
Next, in step S305, the
一方、ステップS305の判定の結果、撮影アシスト機能が有効である場合は、ステップS306において、表示ユニット111は、撮影アシスト用の情報を表示ユニット111のディスプレイ113に表示する。なお、ステップS305の処理の詳細については、図6のフローチャートの説明において後述する。
On the other hand, if the result of determination in step S305 is that the shooting assist function is valid, the
次に、ステップS307において、システム制御コントローラ100は、撮影指示の有無を確認する。具体的には、ユーザにより不図示の撮影ボタンが押下されたか否か、あるいは、セルフタイマーが完了して撮影指示がなされたか否かを判定する。この判定の結果、撮影指示がなされた場合は、ステップS308に進み、撮影指示がなされていない場合は、ステップS301に戻り、構図決定用(プレビュー)の映像を更新する。
Next, in step S307, the
次に、ステップS308において、システム制御コントローラ100は、撮像制御ユニット104を介して取得した撮影指示時の画像データをEXIFファイル形式に変換する。そして、記録媒体制御ユニット105は、EXIFファイル形式の画像データを記録媒体112に記録する。
Next, in step S308, the
次に、ステップS309において、顔検出ユニット106は、ステップS303で顔が含まれていると判定したかどうかを判定する。この判定の結果、ステップS303で顔を検出していない場合は、次のステップS310の処理は行わず、そのまま処理を終了する。一方、ステップS309の判定の結果、ステップS303で顔を検出していた場合は、ステップS310において、システム制御コントローラ100は、図4(b)に示した顔領域情報402をNVRAM109に記録する。このように、NVRAM109には、撮影された映像から検出された顔領域情報のうち、少なくとも最新の顔領域情報は保持されることになる。
Next, in step S309, the
次に、図6のフローチャートを参照しながら図3のステップS306の処理を詳細に説明する。図6は、図3のステップS306における撮影アシスト機能により顔枠表示を行う処理手順の一例を示すフローチャートである。なお、図6のフローチャートは図3のフローチャートの一部を構成するため、随時図3の各ステップを参照しながら説明する。また、図6の説明において、例えば直前の撮影処理で図7(a)に示す映像が予め撮影されたものとする。そして、これに伴い、顔を検出した場合は、図7(b)に示すように、検出した顔領域701に対する顔領域情報702がNVRAM109に記録されているものとする。
Next, the processing in step S306 in FIG. 3 will be described in detail with reference to the flowchart in FIG. FIG. 6 is a flowchart illustrating an example of a processing procedure for performing face frame display by the shooting assist function in step S306 of FIG. The flowchart in FIG. 6 constitutes a part of the flowchart in FIG. 3 and will be described with reference to each step in FIG. In the description of FIG. 6, it is assumed that, for example, the video shown in FIG. Accordingly, when a face is detected, it is assumed that
まず、ステップS601において、システム制御コントローラ100は、NVRAM109に記録されている顔領域情報を取得し、ステップS602において、顔領域情報が取得できたか否かを判定する。この判定の結果、NVRAM109に顔情報が記録されておらず、顔領域情報を取得できなかった場合は、そのまま処理を終了する。一方、ステップS602の判定の結果、顔領域情報を取得できた場合は、ステップS603に進む。なお、NVRAM109に複数の顔領域情報が記録されている場合は、その中で最新の顔領域情報(以降、過去の顔領域情報と記す)を取得する。例えば、過去の顔情報として図7(b)に示す顔領域情報702がNVRAM109に記録されている場合は、この顔領域情報を取得し、ステップS603へ進む。また、複数の顔領域情報がNVRAM109に記録されている場合には、システム制御コントローラ100が選択手段として機能することにより、どの顔領域情報を取得するかをユーザの操作に応じて選択してもよい。
First, in step S601, the
以降のステップS603〜S605においては、図3のステップS303で検出した第1の画像データの現在の顔領域情報と、ステップS601で取得した第2の画像データの過去の顔領域情報との関係から、アシスト用の顔枠処理を決定する。 In subsequent steps S603 to S605, from the relationship between the current face area information of the first image data detected in step S303 of FIG. 3 and the past face area information of the second image data acquired in step S601. Then, assist face frame processing is determined.
まず、ステップS603において、システム制御コントローラ100は、図3のステップS303で顔検出に成功したか否かを判定する。すなわち、撮像制御ユニット104からシステム制御コントローラ100に出力された画像データに顔領域情報(現在の顔領域情報)が含まれるか否かを判定する。この判定の結果、現在の顔領域情報が含まれていない場合は、ステップS606へ進み、アシスト用の顔枠処理を行う。なお、この処理の詳細については後述する。
First, in step S603, the
一方、ステップS603の判定の結果、現在の顔領域情報が含まれている場合は、ステップS604に進む。そして、システム制御コントローラ100は比較手段として機能し、過去の顔領域情報における顔サイズと現在の顔領域情報における顔サイズとを比較し、以下の数1に示す式を用いて顔サイズが近似しているか否かを判定する。
On the other hand, if the result of determination in step S603 is that current face area information is included, processing proceeds to step S604. Then, the
本実施形態では、数1に示すようにまず顔サイズを画像サイズで正規化し、正規化後の顔サイズの幅及び高さのそれぞれの差が、ともに所定値以下(±10%以下)である場合に、近似していると判定する。ステップS604の判定の結果、顔サイズが近似していない場合は、ステップS607へ進み、アシスト用の顔枠処理を行う。なお、この処理の詳細については後述する。
In this embodiment, as shown in
一方、ステップS604の判定の結果、顔サイズが近似している場合は、ステップS605において、過去の顔領域情報における顔の位置と現在の顔領域情報における顔の位置とを比較し、以下の数2に示す式を用いて顔の位置が近接しているか否かを判定する。
On the other hand, if the result of determination in step S604 is that the face size is approximate, in step S605, the face position in the past face area information and the face position in the current face area information are compared, and the following
本実施形態では、数2に示すようにまず顔の位置を画像サイズで正規化し、正規化後の顔の縦位置及び横位置のそれぞれの差が、ともに所定値以下(±5%以下)である場合に、近接していると判定する。ステップS605の判定の結果、顔の位置が近接していない場合はステップS608へ進み、顔の位置が近接している場合はステップS609へ進む。
In this embodiment, as shown in
ステップS606は、過去の顔領域情報のみが存在し、現在の顔領域情報が存在しない場合のアシスト用顔枠表示処理である。この処理では、表示ユニット111は、過去の顔領域情報のみをステップS302で表示した映像に重畳する。このとき、ステップS304とは異なる形式で過去の顔領域情報を重畳することにより、このステップS606で重畳した映像がアシスト用の情報であることをユーザに認知させる。本実施形態では、顔の領域を表す矩形図形を灰色で重畳する。
Step S606 is an assisting face frame display process when only the past face area information exists and the current face area information does not exist. In this process, the
例えば、過去の顔領域情報として、図7(a)に示した画像データに対して図7(b)に示す顔領域情報702を取得した場合は、表示ユニット111は、図8に示すように、顔領域の位置及びサイズを重畳するグラフィクス画像上の位置及びサイズに変換する。そして、図8に示すような矩形図形801を作成し、画像データに重畳して表示ユニット111のディスプレイ113に表示する。
For example, when the
一方、ステップS607は、過去の顔領域情報における顔のサイズと現在の顔領域情報における顔のサイズとが近似していない場合のアシスト用顔枠表示更新処理である。この処理では、ステップS304で重畳した映像を更新し、現在の顔領域情報に加えて、過去の顔領域情報もステップS302の映像に重畳する。このとき、ステップS304と異なる形式で過去の顔領域情報を重畳することにより、このステップS607で重畳した映像がアシスト用の情報であることをユーザに認知させる。本実施形態では、過去の顔領域情報の顔領域を表す矩形図形を灰色で重畳する。 On the other hand, step S607 is a face frame display update process for assisting when the face size in the past face area information and the face size in the current face area information are not approximate. In this process, the image superimposed in step S304 is updated, and past face area information is also superimposed on the image in step S302 in addition to the current face area information. At this time, by superimposing the past face area information in a format different from that in step S304, the user is made aware that the video superimposed in step S607 is information for assisting. In the present embodiment, a rectangular figure representing a face area of past face area information is superimposed in gray.
例えば、現在の顔情報として図4(b)に示す顔領域情報402を取得し、過去の顔情報として図7(b)に示す顔領域情報702を取得した場合は、表示ユニット111はそれぞれの顔領域の位置及びサイズを表示ユニット111の解像度に合わせて変換する。さらに、図9(a)に示すように、現在の顔領域情報を緑色の矩形図形901として表示し、過去の顔領域情報を灰色の矩形図形902として作成し、互いに表示態様が異なるようにする。そして、作成した灰色の矩形図形902を画像データに重畳して表示ユニット111のディスプレイ113に表示する。
For example, when the
また、ステップS608は、過去の顔領域情報における顔のサイズと現在の顔領域情報における顔のサイズとが近似しているが、互いに近接していない場合のアシスト用顔枠表示更新処理である。この処理では、ステップS304で重畳した映像を更新し、現在の顔領域情報に加えて、過去の顔領域情報もステップS302の映像に重畳する。このとき、ステップS304と異なる形式で過去の顔領域情報を重畳することにより、このステップS608で重畳した映像がアシスト用の情報であることをユーザに認知させる。また、現在の顔枠(矩形図形)をステップS304と異なる形式に更新することにより、顔のサイズが近似していることをユーザに通知する。本実施形態では、過去の顔領域情報の顔領域を表す矩形図形を灰色で表示し、現在の顔領域情報の顔領域を表す矩形図形を緑色で点滅させて表示するようにする。 Step S608 is an assisting face frame display update process when the face size in the past face area information and the face size in the current face area information are close to each other but are not close to each other. In this process, the image superimposed in step S304 is updated, and past face area information is also superimposed on the image in step S302 in addition to the current face area information. At this time, by superimposing past face area information in a format different from that in step S304, the user is made aware that the video superimposed in step S608 is information for assistance. In addition, the current face frame (rectangular figure) is updated to a format different from that in step S304 to notify the user that the face size is approximate. In the present embodiment, the rectangular figure representing the face area of the past face area information is displayed in gray, and the rectangular figure representing the face area of the current face area information is blinked in green and displayed.
例えば、図4(a)に示す映像を撮影しようとしていたユーザが、ズームボタンを押下して過去の顔領域情報における顔のサイズと現在の顔領域情報における顔のサイズとが近似するまでズームを行ったものとする。この場合は、表示ユニット111はそれぞれの顔領域の位置及びサイズを表示ユニット111の解像度に合わせて変換する。そして、図9(b)に示すように、緑色の点滅する矩形図形903と灰色の矩形図形904とを作成し、画像データに重畳して表示ユニット111のディスプレイ113に表示する。
For example, when the user who is going to shoot the video shown in FIG. 4A presses the zoom button, zooming is performed until the face size in the past face area information and the face size in the current face area information are approximated. Suppose you have gone. In this case, the
さらに、ステップS609は、過去の顔領域情報における顔のサイズと現在の顔領域情報における顔のサイズとが近似し、かつ、互いに近接している場合のアシスト用顔枠処理である。この処理では、ステップS304で重畳した映像を更新し、現在の顔枠をステップS304及びS608と異なる形式に更新する。これにより、過去の顔枠と現在の顔枠とでサイズが近似し、かつ、接近していることをユーザは認識することができる。本実施形態では、現在の顔領域情報の顔領域を表す矩形図形を赤色で点滅するように重畳する。このとき、過去の顔領域情報の顔領域を表す矩形図形は、位置が近接しているとともにサイズも近似しているため重畳しないようにする。 Further, step S609 is an assisting face frame process in the case where the face size in the past face area information and the face size in the current face area information are close and close to each other. In this process, the image superimposed in step S304 is updated, and the current face frame is updated to a format different from that in steps S304 and S608. Thus, the user can recognize that the past face frame and the current face frame are close in size and close to each other. In the present embodiment, a rectangular figure representing the face area of the current face area information is superimposed so as to blink in red. At this time, the rectangular figure representing the face area of the past face area information is not overlapped because the position is close and the size is approximate.
例えば、図4(a)に示す映像を撮影しようとしていたユーザが、ズームボタンを押下してズームや構図を変更したことにより、過去の顔領域情報における顔領域の位置及びサイズと近い値になるようにしたものとする。この場合は、表示ユニット111は、現在の顔領域情報の顔領域の位置及びサイズを表示ユニット111の解像度に合わせて変換する。そして、図9(c)に示すように、赤色の点滅する矩形図形905を作成し、作成した赤色の点滅する矩形図形905を画像データに重畳して表示ユニット111のディスプレイ113に表示する。
For example, when the user who is going to shoot the video shown in FIG. 4A presses the zoom button and changes the zoom or composition, the value is close to the position and size of the face area in the past face area information. It shall be like that. In this case, the
図4に示すように、ステップS301〜S307の処理及び図6の処理は、ユーザが撮影指示を行うまで繰り返し行われる。すなわち、表示ユニット111のディスプレイ113に表示される映像は随時更新される。したがって、ステップS606〜S609の処理により、ユーザはディスプレイ113を見ながら過去の顔領域情報と現在の顔領域情報とを比較して構図を調整することができる。これにより例えば、図9(a)に示すような構図から、図9(c)に示すような構図に調整することができるので、構図が類似した映像を容易に撮影することができる。
As shown in FIG. 4, the processes in steps S301 to S307 and the process in FIG. 6 are repeated until the user gives a shooting instruction. That is, the video displayed on the
(第2の実施形態)
本実施形態では、撮像装置として動画及び静止画の撮影が可能なデジタルビデオカメラを例に説明し、第1の実施形態との違いに着目して説明する。なお、本実施形態に係る撮像装置の内部構成については図1と基本的に同様であるため、異なる点のみ説明する。本実施形態では、システム制御コントローラ100は、撮像制御ユニット104から出力される画像データをJPEGデータあるいはEXIFデータといった静止画データに変換する点では同じである。ところが本実施形態ではさらに、連続する画像データをMPEG2データや、MotionJPEGデータ、H.264データといった動画データに変換する。そして、記録媒体制御ユニット105は、これらの静止画データや動画データを記録媒体112に記録する。また、撮像装置10には、動画の撮影処理の開始または停止を指示する不図示の動画撮影開始・停止ボタン、静止画の撮影を指示する撮影ボタン等が備えられている。
(Second Embodiment)
In the present embodiment, a digital video camera capable of shooting moving images and still images will be described as an example of an imaging apparatus, and the description will be made focusing on differences from the first embodiment. Note that the internal configuration of the imaging apparatus according to the present embodiment is basically the same as that shown in FIG. In the present embodiment, the
また、本実施形態では、NVRAM109には、顔検出ユニット106において検出された顔領域情報が少なくとも3個記録されている。ここで少なくとも3個というのは、一連の動画(1テイク)に対して、先頭フレーム、最終フレーム及び最後に顔を検出したフレームの3フレーム分の顔領域情報を保持する必要があるからである。これにより、現在撮影中の動画と、以前に撮影した少なくとも1つの動画に対して顔領域情報を保持することができる。なお、本実施形態における撮像素子103の解像度は横1920画素、縦1080画素とし、同様に表示ユニット111では、横480画素、縦270画素の液晶表示装置を用いるものとする。
In the present embodiment, at least three pieces of face area information detected by the
次に、本実施形態における撮影動作について図10のフローチャートを参照しながら説明する。図10は、本実施形態において、映像を撮影する場合の処理手順の一例を示すフローチャートである。ここで、図10に示す各処理は、システム制御コントローラ100の制御により行われる。なお、ステップS1001〜S1006は、図3のステップS301〜S306と同様の処理であるため、説明は省略する。また、ステップS1006の処理の詳細については後述する。本実施形態では、撮像制御ユニット104から図11(a)に示すような画像データが出力された場合に、図11(b)に示すような、検出した顔領域1101に対する顔領域情報1102を取得する例について説明する。これにより、図12に示すように画像に矩形図形1201を重畳して表示するものとする。
Next, the photographing operation in the present embodiment will be described with reference to the flowchart of FIG. FIG. 10 is a flowchart illustrating an example of a processing procedure when shooting a video in the present embodiment. Here, each process shown in FIG. 10 is performed under the control of the
次に、ステップS1007において、システム制御コントローラ100は、現在の撮影状況を判定する。具体的には、本実施形態の撮像装置10の動作状況とUIユニット110の動画撮影開始・停止ボタンの操作状況とから、停止中、撮影開始直後、撮影中、撮影停止直後の4つの状態のいずれかを判定する。この判定の結果、停止中である場合はステップS1001に戻り、撮影開始直後である場合はステップS1008に進む。また、撮影中(記録中)である場合はステップS1010に進み、撮影停止直後である場合はステップS1009に進む。
Next, in step S1007, the
ステップS1008においては、システム制御コントローラ100は、ステップS1001で取得した画像データから検出された顔の顔領域情報を、現在撮影中の動画の先頭フレームの顔領域情報としてNVRAM109に記録する。なお、画像データから顔が検出されなかった場合は、現在撮影中の動画の先頭フレームには顔が含まれない旨の情報を、NVRAM109に記録する。そして、ステップS1010に進む。
In step S1008, the
一方、ステップS1009においては、ステップS1008と同様であるが、ステップS1001で取得した画像データから検出された顔の顔領域情報を、現在撮影中の動画の最終フレームの顔領域情報としてNVRAM109に記録する。なお、画像データから顔が検出されなかった場合は、現在撮影中の動画の最終フレームには顔が含まれない旨の情報を、NVRAM109に記録する。そして、ステップS1010に進む。
On the other hand, in step S1009, similar to step S1008, the face area information detected from the image data acquired in step S1001 is recorded in the
次に、ステップS1010において、顔検出ユニット106は、ステップS1003で顔が含まれていると判定したかどうかを判定する。この判定の結果、ステップS1003で顔を検出していない場合は、ステップS1011をスキップしてステップS1012に進む。一方、ステップS1010の判定の結果、ステップS1003で顔を検出した場合は、ステップS1011において、システム制御コントローラ100は、その顔領域情報を最終検出フレームの顔領域情報としてNVRAM109に記録する。
Next, in step S1010, the
次に、ステップS1012において、システム制御コントローラ100は、撮像制御ユニット104を介して取得した画像データを所定のファイル形式に変換し、記録媒体制御ユニット105は、その変換した画像データを記録媒体112に記録する。なお、MPEG2やH.264などのファイル形式では、複数のフレームを参照して動画のファイルを生成する。このようなファイル形式の場合は、取得した画像データをRAM108に一時的に格納し、所望のファイル形式データが構成される毎に記録媒体112に記録する。そして、ステップS1001に戻る。
Next, in step S1012, the
次に、図10のステップS1006の処理について詳細に説明する。前述したように図10のステップS1006は、図6に示したフローチャートに従って処理が行われる。本実施形態では、第1の実施形態と異なる点について説明する。 Next, the process of step S1006 in FIG. 10 will be described in detail. As described above, step S1006 in FIG. 10 is processed according to the flowchart shown in FIG. In the present embodiment, differences from the first embodiment will be described.
ステップS601では、NVRAM109に記録されている顔領域情報を取得する。前述したように、NVRAM109には、以前に撮影した少なくとも1つの動画に対して、先頭フレーム、最終フレーム、及び最後に顔を検出したフレームの顔領域情報が記録されている。なお、撮影した動画によっては、顔領域情報が無効として保持されている場合もある。
In step S601, face area information recorded in the
本実施形態では、メニューによってユーザに撮影アシスト用の顔領域情報を先頭フレーム、最終フレーム、あるいは最後に顔を検出したフレームから予め選択できるようにしておく。これによりステップS601では、ユーザの選択に応じて顔領域情報の取得を行う。そして、ステップS602で、顔領域情報が取得できたと判定した場合はステップS603に進み、顔領域情報が無効として保持されていた場合は、図6のフローチャートにおける処理を終了する。なお、ステップS603〜S609の処理は、第1の実施形態と同様である。 In the present embodiment, the face area information for photographing assistance can be selected in advance by the menu from the first frame, the last frame, or the frame in which the face is detected last. Thus, in step S601, face area information is acquired in accordance with the user's selection. If it is determined in step S602 that the face area information has been acquired, the process proceeds to step S603. If the face area information is retained as invalid, the process in the flowchart of FIG. 6 ends. Note that the processing in steps S603 to S609 is the same as that in the first embodiment.
図10に示すように、ステップS1001〜S1007の処理及び図6の処理は、撮影状態にかかわらず繰り返される。すなわち、表示ユニット111のディスプレイ113に表示される映像は随時更新される。したがって、ステップS606〜S609の処理により、ユーザはディスプレイ113を見ながら過去の顔領域情報と現在の顔領域情報とを比較して構図を調整することができる。構図が類似した映像を容易に撮影することができる。
As shown in FIG. 10, the processes in steps S1001 to S1007 and the process in FIG. 6 are repeated regardless of the shooting state. That is, the video displayed on the
例えば、動画撮影を行っている途中で撮影を一度停止し、静止画を撮影した後に動画撮影を再開する場合、静止画と動画とでは撮影目的が異なるため構図が異なることがある。特に、動画のアスペクト比が16:9であるのに対し、静止画のアスペクト比が4:3である場合には構図が異なる可能性が高い。 For example, when shooting is stopped once while moving image shooting is being performed, and moving image shooting is resumed after shooting a still image, the composition may differ between the still image and the moving image because the shooting purpose is different. In particular, when the aspect ratio of a moving image is 16: 9, while the aspect ratio of a still image is 4: 3, the composition is likely to be different.
従来は、このように静止画撮影前の動画(第1の動画)と静止画撮影後の動画(第2の動画)との間で構図が変更した場合、第1の動画の最終フレームと第2の動画の先頭フレームとで構図が異なってしまう。このため、連続して再生すると不自然に不連続なものとなってしまう。ところが、本実施形態では、第2の動画の構図を決める際に、ステップS601で第1の動画の最終フレームを選択することにより、ユーザは、動画の撮影を再開する際に第1の動画の最終フレームとの構図の違いを認識することができる。これにより、第1の動画との不連続さを解消し、違和感のないように構図をあわせて第2の動画の撮影を開始することができる。 Conventionally, when the composition is changed between a moving image before shooting a still image (first moving image) and a moving image after shooting a still image (second moving image), the last frame of the first moving image and the first frame The composition differs between the first frame of the second video. For this reason, if it reproduces | regenerates continuously, it will become an unnatural discontinuous thing. However, in this embodiment, when determining the composition of the second moving image, by selecting the last frame of the first moving image in step S601, the user can select the first moving image when resuming the shooting of the moving image. Differences in composition from the final frame can be recognized. Thereby, discontinuity with the first moving image can be eliminated, and shooting of the second moving image can be started with a composition so that there is no sense of incongruity.
(本発明に係る他の実施形態)
前述した実施形態では、顔領域情報を矩形図形(顔枠)として重畳表示したが、本発明はこれに限定されるわけではなく、テキスト、アイコン、他の図形などを用いて顔領域情報をユーザに認知させるようにしてもよい。また、前述の実施形態では、過去の顔領域情報における顔サイズと現在の顔領域情報における顔サイズとが近似していない場合に、重畳する矩形図形の色を変更して重畳したが、本発明はこれに限定されるわけではない。テキスト、アイコン、他の図形などを用いてユーザに認知させるようにしてもよい。さらには、過去の顔情報における顔サイズと現在の顔情報における顔サイズとが近似している場合に、矩形図形を点滅するようにしたが、本発明はこれに限定されるわけではない。テキスト、アイコン、他の図形などを用いてユーザに認知できるようにしてもよい。
(Other embodiments according to the present invention)
In the above-described embodiment, the face area information is superimposed and displayed as a rectangular figure (face frame). However, the present invention is not limited to this, and the face area information is converted to the user by using text, icons, other figures, and the like. You may make it recognize. In the above-described embodiment, when the face size in the past face area information and the face size in the current face area information are not approximate, the color of the rectangular figure to be superimposed is changed and superimposed. Is not limited to this. You may make it make a user recognize using a text, an icon, another figure, etc. Furthermore, when the face size in the past face information is close to the face size in the current face information, the rectangular figure is blinked, but the present invention is not limited to this. You may make it possible for a user to recognize using a text, an icon, another figure, etc.
また、第1の実施形態では、ステップS310で顔領域情報をNVRAM109に記録したが、代わりに画像データ自身をNVRAM109に記録してもよい。この場合は、図6のステップS601では、この記録した画像データから顔検出ユニット106により顔領域情報を取得し、以降の処理を行う。なお、画像データの代わりにファイル名などの画像データを特定する情報をNVRAM109に保存してもよい。この場合は、図6のステップS601ではこの情報に基づき画像データを記録媒体112から取得し、その画像データから顔検出ユニット106により顔領域情報を取得し、以降の処理を行う。
In the first embodiment, the face area information is recorded in the
また、第2の実施形態では、ステップS1008、S1009及びS1011で顔領域情報をNVRAM109に記録したが、顔領域情報の代わりに映像の対象フレームをJPEGファイル等の画像データとして記録してもよい。この場合は、図6のステップS601ではこの記録した画像データから顔検出ユニット106により顔領域情報を取得し、以降の処理を行う。なお、画像データの代わりにフレーム番号やタイムコードなどの対象フレームを特定する情報をNVRAM109に記録してもよい。この場合は、図6のステップS601ではこの情報に基づきフレームの画像データを記録媒体112から取得し、その画像データから顔検出ユニット106により顔領域情報を取得し、以降の処理を行う。
In the second embodiment, the face area information is recorded in the
さらに、前述のように、図6のステップS601で画像データを取得し、その画像データから顔領域情報を取得する場合に、顔検出ユニット106に対して顔領域を判定するための基準となる閾値を設定可能なようにしてもよい。この場合に、図6のステップS601で顔検出ユニット106が顔領域の取得に失敗した場合は、前記閾値の値を変更し、再度顔領域を検出して取得するようにしてもよい。
Further, as described above, when image data is acquired in step S601 of FIG. 6 and face area information is acquired from the image data, a threshold value serving as a reference for determining the face area for the
また、前述した実施形態では、図6のステップS604で顔サイズが近似していない場合は、矩形図形(顔枠)を異なる色で表示したが、光学制御ユニット102によりズーム倍率を変更し、顔サイズを自動的に一致させるようにしてもよい。この場合、顔サイズの一致に成功した場合はステップS605に進み、失敗した場合はS607に進む。
In the above-described embodiment, when the face size is not approximated in step S604 in FIG. 6, the rectangular figure (face frame) is displayed in a different color, but the zoom magnification is changed by the
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
100 システム制御コントローラ、106 顔検出ユニット、109 NVRAM、111 表示ユニット、113 ディスプレイ 100 system controller, 106 face detection unit, 109 NVRAM, 111 display unit, 113 display
Claims (16)
前記撮像手段により生成された画像データに基づく画像を表示部に表示する表示手段と、
前記撮像手段により生成された画像データから被写体領域を検出する被写体検出手段と、
前記被写体検出手段により検出された被写体領域の情報を保持する保持手段とを備え、
前記表示手段は、前記撮像手段により生成された第1の画像データに基づく画像とともに、前記被写体検出手段により前記第1の画像データから検出された被写体領域の情報と、前記保持手段に保持されている、前記第1の画像データよりも前に前記撮像手段により生成された第2の画像データの被写体領域の情報とを前記表示部に表示することを特徴とする撮像装置。 Imaging means for imaging a subject and generating image data;
Display means for displaying an image based on the image data generated by the imaging means on a display unit;
Subject detection means for detecting a subject area from the image data generated by the imaging means;
Holding means for holding information on the subject area detected by the subject detection means,
The display means is held in the holding means together with information on the subject area detected from the first image data by the subject detection means, together with an image based on the first image data generated by the imaging means. An image pickup apparatus for displaying information on a subject area of second image data generated by the image pickup means before the first image data on the display unit.
前記表示手段は、前記比較手段による比較の結果、前記被写体領域のサイズ及び位置の差が所定値以下である場合に、被写体領域が一致している旨を通知することを特徴とする請求項3に記載の撮像装置。 A comparison means for comparing the subject area of the first image data with the subject area of the second image data;
The display means notifies that the subject areas match when the difference between the size and position of the subject area is equal to or less than a predetermined value as a result of the comparison by the comparison means. The imaging device described in 1.
前記表示手段は、前記第1の画像データに基づく画像とともに、前記第1の画像データの被写体領域の情報と、前記選択手段によって選択された被写体領域の情報とを前記表示部に表示することを特徴とする請求項1〜7の何れか1項に記載の撮像装置。 Selecting means for selecting information on the subject area to be displayed as information on the subject area of the second image data from the information on the subject area held in the holding means;
The display means displays on the display unit information on the subject area of the first image data and information on the subject area selected by the selection means together with an image based on the first image data. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized.
前記保持手段が前記第2の画像データの被写体領域の情報を保持していない場合、前記被写体検出手段は、前記被写体領域を検出する基準となる閾値を変更して前記保持手段に保持されている第2の画像データから被写体領域を検出することを特徴とする請求項1〜11の何れか1項に記載の撮像装置。 The holding unit also holds the second image data generated by the imaging unit,
When the holding unit does not hold information on the subject area of the second image data, the subject detection unit changes the threshold value serving as a reference for detecting the subject area and is held by the holding unit. The imaging device according to claim 1, wherein a subject area is detected from the second image data.
前記撮像工程において生成された画像データに基づく画像を表示部に表示する表示工程と、
前記撮像工程において生成された画像データから被写体領域を検出する被写体検出工程と、
前記被写体検出工程において検出された被写体領域の情報を保持手段に保持する保持工程とを備え、
前記表示工程においては、前記撮像工程において生成された第1の画像データに基づく画像とともに、前記被写体検出工程において前記第1の画像データから検出された被写体領域の情報と、前記保持手段に保持されている、前記第1の画像データよりも前に前記撮像工程において生成された第2の画像データの被写体領域の情報とを前記表示部に表示することを特徴とする撮像方法。 An imaging step of imaging a subject and generating image data;
A display step of displaying an image based on the image data generated in the imaging step on a display unit;
A subject detection step of detecting a subject region from the image data generated in the imaging step;
A holding step of holding information on the subject area detected in the subject detection step in a holding unit,
In the display step, information on the subject area detected from the first image data in the subject detection step and the image based on the first image data generated in the imaging step, and the holding unit hold the information. And displaying information on the subject area of the second image data generated in the imaging step before the first image data on the display unit.
前記撮像工程において生成された画像データに基づく画像を表示部に表示する表示工程と、
前記撮像工程において生成された画像データから被写体領域を検出する被写体検出工程と、
前記被写体検出工程において検出された被写体領域の情報を保持手段に保持する保持工程とをコンピュータに実行させ、
前記表示工程においては、前記撮像工程において生成された第1の画像データに基づく画像とともに、前記被写体検出工程において前記第1の画像データから検出された被写体領域の情報と、前記保持手段に保持されている、前記第1の画像データよりも前に前記撮像工程において生成された第2の画像データの被写体領域の情報とを前記表示部に表示するようコンピュータに実行させることを特徴とするプログラム。 An imaging step of imaging a subject and generating image data;
A display step of displaying an image based on the image data generated in the imaging step on a display unit;
A subject detection step of detecting a subject region from the image data generated in the imaging step;
Causing the computer to execute a holding step of holding information on the subject area detected in the subject detection step in a holding unit;
In the display step, information on the subject area detected from the first image data in the subject detection step and the image based on the first image data generated in the imaging step, and the holding unit hold the information. And a program for causing the computer to display information on the subject area of the second image data generated in the imaging step before the first image data on the display unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009217611A JP2011066828A (en) | 2009-09-18 | 2009-09-18 | Imaging device, imaging method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009217611A JP2011066828A (en) | 2009-09-18 | 2009-09-18 | Imaging device, imaging method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011066828A true JP2011066828A (en) | 2011-03-31 |
JP2011066828A5 JP2011066828A5 (en) | 2012-11-01 |
Family
ID=43952551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009217611A Abandoned JP2011066828A (en) | 2009-09-18 | 2009-09-18 | Imaging device, imaging method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011066828A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015061235A (en) * | 2013-09-19 | 2015-03-30 | カシオ計算機株式会社 | Image processing apparatus, image processing method and program |
CN104601892A (en) * | 2015-01-30 | 2015-05-06 | 深圳酷派技术有限公司 | Terminal and image shooting method and device |
WO2021199124A1 (en) * | 2020-03-30 | 2021-10-07 | 日本電気株式会社 | Detection device |
-
2009
- 2009-09-18 JP JP2009217611A patent/JP2011066828A/en not_active Abandoned
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015061235A (en) * | 2013-09-19 | 2015-03-30 | カシオ計算機株式会社 | Image processing apparatus, image processing method and program |
CN104601892A (en) * | 2015-01-30 | 2015-05-06 | 深圳酷派技术有限公司 | Terminal and image shooting method and device |
WO2021199124A1 (en) * | 2020-03-30 | 2021-10-07 | 日本電気株式会社 | Detection device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4904243B2 (en) | Imaging apparatus and imaging control method | |
JP4656331B2 (en) | Imaging apparatus and imaging method | |
JP5044321B2 (en) | Imaging apparatus and subject detection method | |
JP7023662B2 (en) | Image processing device, image pickup device, control method and program of image processing device | |
TW200808044A (en) | Imaging apparatus and computer readable recording medium | |
US10237466B2 (en) | Recognition of degree of focus of an image | |
JP5210843B2 (en) | Imaging device | |
TW201102938A (en) | Image capturing apparatus, face area detecting method and program recording medium | |
JP2009124340A (en) | Imaging apparatus, photographing support method, and photographing support program | |
JP2008252711A (en) | Digital camera | |
JP4866317B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP4586707B2 (en) | Image processing apparatus, electronic camera, and image processing program | |
JP2007318490A (en) | Image processing apparatus, camera, and image processing program | |
JP5092961B2 (en) | Imaging apparatus, imaging method, and program | |
JP2011066828A (en) | Imaging device, imaging method and program | |
KR101630303B1 (en) | Apparatus for processing digital image and thereof method | |
JP2010193324A (en) | Camera apparatus, photographing method thereof and program | |
JP2007049408A (en) | Photographing device | |
JP2010258904A (en) | Imaging apparatus, and image display method of the imaging apparatus | |
JP4887840B2 (en) | Imaging apparatus and program | |
JP5021370B2 (en) | Imaging apparatus, display method, and program | |
JP2007259004A (en) | Digital camera, image processor, and image processing program | |
JP2006128793A (en) | Image pickup device and control method thereof | |
JP4336186B2 (en) | Image correction apparatus and imaging apparatus | |
JP2009089083A (en) | Age estimation photographing device and age estimation photographing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120918 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120918 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20130729 |