JP5932862B2 - Imaging method of digital camera and computer-executable program - Google Patents

Imaging method of digital camera and computer-executable program Download PDF

Info

Publication number
JP5932862B2
JP5932862B2 JP2014041851A JP2014041851A JP5932862B2 JP 5932862 B2 JP5932862 B2 JP 5932862B2 JP 2014041851 A JP2014041851 A JP 2014041851A JP 2014041851 A JP2014041851 A JP 2014041851A JP 5932862 B2 JP5932862 B2 JP 5932862B2
Authority
JP
Japan
Prior art keywords
image data
subject
imaging
signal processing
composition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014041851A
Other languages
Japanese (ja)
Other versions
JP2015167340A (en
Inventor
良太 野村
良太 野村
河野 誠一
誠一 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2014041851A priority Critical patent/JP5932862B2/en
Publication of JP2015167340A publication Critical patent/JP2015167340A/en
Application granted granted Critical
Publication of JP5932862B2 publication Critical patent/JP5932862B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Description

本発明は、デジタルカメラの撮像方法及びコンピュータが実行可能なプログラムに関する。   The present invention relates to an imaging method for a digital camera and a computer-executable program.

デジタルカメラにおいて、被写体を連続的に撮像する機能(いわゆる連写機能)が利用されている。デジタルカメラで撮像した画像データには、各種の信号処理が施される。例えば、露出を自動的に制御するオートエクスポージャ(以下、AEと略す。)機能と、白色を適切な色に自動調整するオートホワイトバランス(以下、AWBと略す。)機能などがある。画像データに対するデジタルゲインを調整したり、ガンマ変換におけるガンマカーブを調整したりすることで、露出を制御することが可能である。また、画像データに対するWB(ホワイトバランス)ゲインを調整することで、ホワイトバランス調整を行うことが可能である。これらの撮影パラメータの調整は、イメージセンサに光を取り込んだ後のみに行うことが可能であり、一般には撮影動作開始後数秒後に適切な撮影パラメータを得ることが可能になる。   In a digital camera, a function for continuously photographing a subject (so-called continuous shooting function) is used. Various types of signal processing are performed on the image data captured by the digital camera. For example, there are an auto exposure (hereinafter abbreviated as AE) function for automatically controlling exposure and an auto white balance (hereinafter abbreviated as AWB) function for automatically adjusting white to an appropriate color. The exposure can be controlled by adjusting the digital gain for the image data or adjusting the gamma curve in the gamma conversion. Further, white balance adjustment can be performed by adjusting a WB (white balance) gain for image data. These shooting parameters can be adjusted only after the light is taken into the image sensor, and in general, appropriate shooting parameters can be obtained several seconds after the start of the shooting operation.

ユーザがデジタルカメラで被写体を撮影する場合には、被写体の撮影したい状態が非常に短時間の場合があるが(例えば、子供の笑顔、あこがれのスターを街で見かけた場合等)、撮影動作開始直後には適切な撮影パラメータが得られておらず、結果として撮影者の意図とはかけ離れた露出やホワイトバランスの画像を撮影することになってしまう。また、撮影初期の段階では、ユーザは被写体をうまくフレーミングできない場合が多い。   When a user shoots a subject with a digital camera, the subject may be captured for a very short time (for example, when a child smiles or a longing star is seen in the city), but the shooting operation starts. Immediately after, no appropriate shooting parameters are obtained, and as a result, an image with exposure and white balance that is far from the photographer's intention is shot. Also, at the initial stage of shooting, the user often cannot frame the subject well.

特開2008−48307号公報JP 2008-48307 A 特開2001−251551号公報JP 2001-251551 A

本発明は、上記に鑑みてなされたものであって、ユーザが所望の被写体の撮影チャンスを逃すことなく、かつ、適切な撮影パラメータを適用した画像又は適正な構図の画像を得ることが可能なデジタルカメラの撮像方法及びコンピュータが実行可能なプログラムを提供することを目的とする。   The present invention has been made in view of the above, and it is possible for a user to obtain an image with an appropriate composition or an image with an appropriate composition without missing a shooting opportunity of a desired subject. An object is to provide an imaging method for a digital camera and a computer-executable program.

上述した課題を解決し、目的を達成するために、本発明は、被写体をL(但し、L≧2)枚連続的に撮像するデジタルカメラの撮像方法であって、N(但し、0<N<L)枚目の被写体を撮像した画像データを格納する工程と、前記格納したN枚目の被写体を撮像した画像データを、M枚目の被写体を撮像した画像データの撮影パラメータ及び構図の少なくとも一方を使用して信号処理する工程と、を含むことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is an imaging method of a digital camera that continuously captures a subject with L (where L ≧ 2) images, and N (where 0 <N <L) A step of storing image data obtained by imaging the Nth subject, and the stored image data obtained by imaging the Nth subject, at least imaging parameters and compositions of image data obtained by imaging the Mth subject. And signal processing using one of them.

また、本発明の好ましい態様によれば、前記格納する工程では、前記N枚目に撮像した被写体のRAWデータを格納し、前記信号処理する工程では、前記格納したN枚目の被写体のRAWデータに対して、前記M枚目の被写体を撮像した画像データの撮影パラメータを使用して信号処理することが望ましい。   According to a preferred aspect of the present invention, in the storing step, RAW data of the subject imaged in the Nth image is stored, and in the signal processing step, the stored RAW data of the Nth subject is stored. On the other hand, it is desirable to perform signal processing using imaging parameters of image data obtained by imaging the Mth subject.

また、本発明の好ましい態様によれば、シャッターボタンが押された場合に、被写体をL(但し、L≧2)枚連続的に撮像することが望ましい。   Further, according to a preferred aspect of the present invention, it is desirable that L (where L ≧ 2) images of the subject are continuously captured when the shutter button is pressed.

また、本発明の好ましい態様によれば、前記デジタルカメラが起動した場合に、被写体をL(但し、L≧2)枚連続的に撮像し、前記M(但し、N<M≦L)枚目の被写体は、シャッターボタンが押された際に撮像した画像データであることが望ましい。   According to a preferred aspect of the present invention, when the digital camera is activated, L (where L ≧ 2) images of the subject are continuously captured, and the M (where N <M ≦ L) sheets. The subject is preferably image data captured when the shutter button is pressed.

また、本発明の好ましい態様によれば、前記撮影パラメータは、ホワイトバランス調整用パラメータであり、前記画像処理する工程では、前記格納したN枚目の被写体を撮像した画像データを、M枚目の被写体を撮像した画像データのホワイトバランス調整用パラメータを使用してホワイトバランス調整することが望ましい。   Further, according to a preferred aspect of the present invention, the shooting parameter is a white balance adjustment parameter, and in the image processing step, the stored image data obtained by capturing the Nth subject is used as the Mth image. It is desirable to perform white balance adjustment using white balance adjustment parameters of image data obtained by imaging the subject.

また、本発明の好ましい態様によれば、前記撮影パラメータは、露出調整用パラメータであり、前記信号処理する工程では、前記格納したN枚目の被写体を撮像した画像データを、M枚目の被写体を撮像した画像データの露出調整用パラメータを使用して露出調整することが望ましい。   According to a preferred aspect of the present invention, the shooting parameter is an exposure adjustment parameter, and in the signal processing step, the stored image data obtained by imaging the Nth subject is used as an Mth subject. It is desirable to adjust the exposure using the exposure adjustment parameter of the image data obtained by capturing the image.

また、本発明の好ましい態様によれば、前記信号処理する工程では、前記格納したN枚目の被写体を撮像した画像データの構図を、前記M枚目の被写体を撮像した画像データの構図に基づいて変更することが望ましい。   According to a preferred aspect of the present invention, in the signal processing step, the stored composition of image data obtained by imaging the Nth subject is based on the composition of image data obtained by imaging the Mth subject. It is desirable to change it.

また、本発明の好ましい態様によれば、前記信号処理する工程では、前記M枚目の画像データと前記N枚目の画像データで同じオブジェクトがあるか否かを判断し、同じオブジェクトがあり、かつ、当該同じオブジェクトが前記M枚目の画像データが前記N枚目の画像データに比して、中央又は大きく存在している場合には、前記N枚目の画像データの構図を、前記M枚目の画像データの構図を使用して変更し、同じオブジェクトがない場合、又は、同じオブジェクトがある場合でも当該同じオブジェクトが前記M枚目の画像データが前記N枚目の画像データに比して、中央又は大きく存在していない場合には、前記N枚目の画像データの構図を、前記M枚目の画像データの構図を使用して変更しないことが望ましい。   According to a preferred aspect of the present invention, in the signal processing step, it is determined whether or not there is the same object in the M-th image data and the N-th image data, and there is the same object, In addition, when the M-th image data of the same object is present in the center or larger than the N-th image data, the composition of the N-th image data is expressed as the M-th image data. If there is no same object, or there is the same object, the same object is compared with the Nth image data when the Mth image data is changed. In the case where the image data does not exist at the center or large, it is desirable that the composition of the Nth image data is not changed by using the composition of the Mth image data.

また、本発明の好ましい態様によれば、前記オブジェクトは人物であることが望ましい。   According to a preferred aspect of the present invention, it is desirable that the object is a person.

また、上述した課題を解決し、目的を達成するために、本発明は、被写体をL(但し、L≧2)枚連続的に撮像するデジタルカメラに搭載されるプログラムであって、N(但し、0<N<L)枚目の被写体を撮像した画像データを格納する工程と、前記格納したN枚目の被写体を撮像した画像データを、M(但し、N<M≦L)枚目の被写体を撮像した画像データの撮影パラメータ及び構図の少なくとも一方を使用して信号処理する工程と、をコンピュータに実行させることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is a program mounted on a digital camera that continuously captures L (note that L ≧ 2) subjects. , 0 <N <L) image data obtained by imaging the subject, and the stored image data obtained by imaging the Nth subject are defined as M (where N <M ≦ L). And causing the computer to execute a signal processing step using at least one of imaging parameters and composition of image data obtained by imaging the subject.

本発明によれば、ユーザが所望の被写体の撮影チャンスを逃すことなく、かつ、高画質な画像又は適正な構図の画像を得ることが可能となるという効果を奏する。   According to the present invention, there is an effect that a user can obtain a high-quality image or an image with an appropriate composition without missing a photographing opportunity of a desired subject.

図1−Aは、本実施の形態に係る撮像装置の連続撮影方法の原理を説明するための図である。FIG. 1A is a diagram for explaining the principle of the continuous shooting method of the imaging apparatus according to the present embodiment. 図1−Bは、本実施の形態に係る撮像装置の連続撮影方法の原理を説明するための図である。FIG. 1B is a diagram for explaining the principle of the continuous shooting method of the imaging apparatus according to the present embodiment. 図2−Aは、携帯電話端末の外観を示す斜視図である。FIG. 2-A is a perspective view showing an appearance of the mobile phone terminal. 図2−Bは、携帯電話端末の外観を示す背面図である。FIG. 2-B is a rear view showing the appearance of the mobile phone terminal. 図3は、携帯電話端末の概略の構成を示すブロック図である。FIG. 3 is a block diagram showing a schematic configuration of the mobile phone terminal. 図4は、カメラデバイスの概略の機能ブロック図である。FIG. 4 is a schematic functional block diagram of the camera device. 図5は、カメラ操作画面の一例を示す図である。FIG. 5 is a diagram illustrating an example of a camera operation screen. 図6は、連続撮像処理を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining the continuous imaging process. 図7は、構図最適化処理を説明するためのフローチャートである。FIG. 7 is a flowchart for explaining the composition optimization process. 図8は、構図最適化処理の具体的な画像の例を示す図である。FIG. 8 is a diagram illustrating a specific image example of the composition optimization process. 図9は、連続撮像処理の変形例を説明するための説明図である。FIG. 9 is an explanatory diagram for describing a modification of the continuous imaging process. 図10は、構図最適化処理の変形例を説明するためのフローチャートである。FIG. 10 is a flowchart for explaining a modification of the composition optimization process.

以下に、この発明にかかるデジタルカメラの撮像方法及びコンピュータが実行可能なプログラムに基づいて詳細に説明する。本発明の構成要素は、本明細書の図面に一般に示してあるが、様々な構成で広く多様に配置し設計してもよいことは容易に理解できる。したがって、本発明の装置、システム及び方法の実施形態についての以下のより詳細な説明は、特許請求の範囲に示す本発明の範囲を限定するものではなく、単に本発明の選択した実施形態の一例を示すものであって、本明細書の特許請求の範囲に示す本発明と矛盾無く装置、システム及び方法についての選択した実施形態を単に示すものである。当業者は、特定の細目の1つ以上が無くても、又は他の方法、部品、材料でも本発明を実現できることが理解できる。なお、この実施の形態によりこの発明が限定されるものではない。また、下記実施の形態における構成要素には、当業者が容易に想定できるもの又は実質的に同一のものが含まれる。下記の実施の形態と変形例はそれぞれ単独で実施してもよく、また、その一部又は全部を組み合わせて実施してもよい。   A digital camera imaging method and a computer-executable program according to the present invention will be described in detail below. Although the components of the present invention are generally illustrated in the drawings herein, it can be readily understood that they may be arranged and designed in a wide variety of configurations with various configurations. Accordingly, the following more detailed description of the apparatus, system and method embodiments of the present invention is not intended to limit the scope of the invention as set forth in the claims, but merely as an example of selected embodiments of the invention. It is intended merely to illustrate selected embodiments of apparatus, systems and methods consistent with the present invention as set forth in the claims herein. Those skilled in the art will appreciate that the present invention may be implemented without one or more of the specific details or with other methods, components, and materials. Note that the present invention is not limited to the embodiments. In addition, constituent elements in the following embodiments include those that can be easily assumed by those skilled in the art or that are substantially the same. The following embodiments and modifications may be implemented independently, or a part or all of them may be implemented in combination.

(本発明の概要)
図1−A及び図1−Bは、本実施の形態に係るデジタルカメラの連続撮影方法の原理を説明するための図である。デジタルカメラで撮影する場合には、被写体を「撮りたい」と思ったらすぐに撮影したい場合があるが(例えば、子供の笑顔、あこがれのスターを街で見かけた場合等)、撮影チャンスを取り逃している場合が多い。そのため、被写体を「撮りたい」と思ったらすぐに撮影できることが望まれる。しかしながら、現在の技術のレベルでは、被写体を適正に撮影できる状態になるまでのタイムラグが存在しており、被写体を撮影する場合に、撮影パラメータ(ホワイトバランスや露出等)や構図は、徐々に適正な状態になっていく。
(Outline of the present invention)
1A and 1B are diagrams for explaining the principle of the continuous shooting method of the digital camera according to the present embodiment. When you shoot with a digital camera, you may want to shoot as soon as you want to “shoot” the subject (for example, when you see a smiling child or a long-awaited star in the city), but you miss the opportunity to shoot. There are many cases. Therefore, it is desirable to be able to take a picture as soon as you want to "shoot" the subject. However, at the current level of technology, there is a time lag until the subject can be properly photographed. When photographing a subject, the shooting parameters (white balance, exposure, etc.) and composition are gradually appropriate. It will become a state.

図1−Aにおいて、横軸は時間(連続撮影の撮影枚数)、縦軸は被写体を連続撮影した場合の画像としての好ましさを示している。201は、ユーザが撮影対象を撮りたかった状態との類似度(例えば、人の笑顔を撮りたい場合には、笑顔が撮りたかった状態である)、202は撮影パラメータ(ホワイトバランスや露出等)の安定度、203はユーザによる撮影構図の安定度を示している。   In FIG. 1-A, the horizontal axis indicates time (the number of images taken continuously), and the vertical axis indicates the preference of the image when the subject is continuously shot. 201 is the degree of similarity to the state where the user wanted to shoot a subject (for example, if he wanted to take a smile on his face, he wanted to shoot a smile), 202 was the shooting parameter (white balance, exposure, etc.) , 203 indicates the stability of the shooting composition by the user.

図1−A及び図1−Bに示すように、1枚目と6枚目を比較すると、撮影対象については、1枚目の方が6枚目に比して、ユーザが撮りたかった状態に近く、先に撮影した画像の方が好ましい。また、撮影パラメータの安定度については、6枚目の方が1枚目に比して、撮影パラメータは安定しており、後に撮影した画像の方が好ましい。ユーザによる撮影構図の安定度については、6枚目の方が1枚目に比して、撮りたい撮影対象を安定してフレーミングできている場合が多く、後に撮影した画像の方が好ましい。   As shown in FIG. 1-A and FIG. 1-B, when the first and sixth images are compared, the user wants to photograph the first image as compared to the sixth image. The image taken earlier is preferable. As for the stability of the shooting parameters, the sixth image is more stable than the first image, and an image taken later is preferable. Regarding the stability of the shooting composition by the user, the sixth shot is more stable in framing the shooting target to be shot than the first shot, and an image shot later is preferable.

そこで、本実施の形態では、被写体を連続撮影する場合に、撮影対象については先に撮影した画像の方が好ましく、撮影パラメータや構図に関しては、後に撮影した画像の方が好ましいという着想に基づいて、被写体をL(但し、L≧2)枚連続的に撮像する場合に、先に撮影(N枚目(但し、0<N<L))した被写体の画像データを、後に撮影(M枚目(但し、N<M≦L))した被写体の画像データの撮影パラメータや構図を使用して信号処理することで、ユーザが所望の被写体の撮影チャンスを逃すことなく、かつ、高画質な画像及び適正な構図の画像を得ることを可能としている。   Therefore, in the present embodiment, when the subject is continuously shot, based on the idea that the previously shot image is preferable for the shooting target, and that the shot image and the composition are preferable for the shooting parameter and composition. In the case where L (where L ≧ 2) images of the subject are continuously captured, the image data of the subject that was previously captured (Nth (where 0 <N <L)) is captured later (Mth) (However, N <M ≦ L) Signal processing is performed using the shooting parameters and composition of the image data of the subject, so that the user does not miss the shooting opportunity of the desired subject and the high-quality image and It is possible to obtain an image with an appropriate composition.

(実施の形態)
本実施の形態に係るデジタルカメラを適用した携帯電話端末1の外観構成について説明する。本実施の形態では、携帯電話端末の一例としてスマートフォンについて説明する。図2−Aは、携帯電話端末1の外観を示す斜視図である。図2−Bは、携帯電話端末の外観を示す背面図である。
(Embodiment)
An appearance configuration of the mobile phone terminal 1 to which the digital camera according to the present embodiment is applied will be described. In this embodiment, a smartphone will be described as an example of a mobile phone terminal. FIG. 2A is a perspective view showing an appearance of the mobile phone terminal 1. FIG. 2-B is a rear view showing the appearance of the mobile phone terminal.

図2−A及び図2−Bに示すように、携帯電話端末1は、略六面体形状の筐体2を備えている。筐体2の表面のうち一方側の面を正面2A、正面2Aに対向する他方側の面を背面2C、筐体2の表面のうち正面2Aと背面2Cに挟まれた面を側面2Bとする。携帯電話端末1は、筐体2の正面2Aに、タッチパネル3A及び表示部3Bで構成されるタッチ表示部3と、操作部4と、マイク5と、スピーカ7とが配置されている。筐体2の背面2Cには、カメラ部6Aが配置されている。筐体2の側面2Bには、不図示の電源ボタンやボリューム調整ボタン等が配置されている。   As shown in FIGS. 2-A and 2-B, the mobile phone terminal 1 includes a substantially hexahedral housing 2. One surface of the surface of the housing 2 is the front surface 2A, the other surface facing the front surface 2A is the back surface 2C, and the surface of the housing 2 sandwiched between the front surface 2A and the back surface 2C is the side surface 2B. . In the mobile phone terminal 1, a touch display unit 3 including a touch panel 3 </ b> A and a display unit 3 </ b> B, an operation unit 4, a microphone 5, and a speaker 7 are arranged on the front surface 2 </ b> A of the housing 2. On the back surface 2C of the housing 2, a camera unit 6A is disposed. On the side surface 2B of the housing 2, a power button, a volume adjustment button, etc. (not shown) are arranged.

タッチ表示部3は、正面2Aの中央の略全域に亘って配置されている。操作部4及びマイク5は、正面2Aの長手方向の一方の端部に配置されている。スピーカ7は、正面2Aの長手方向の他方の端部に配置されている。カメラ部6Aは、背面2Cの長手方向の一方の端部に配置されている。カメラ部6Aでは背面2C側から撮影が可能となっている。   The touch display unit 3 is disposed over substantially the entire center of the front surface 2A. The operation unit 4 and the microphone 5 are arranged at one end in the longitudinal direction of the front surface 2A. The speaker 7 is disposed at the other end in the longitudinal direction of the front surface 2A. The camera unit 6A is disposed at one end in the longitudinal direction of the back surface 2C. The camera unit 6A can shoot from the back surface 2C side.

タッチ表示部3は、文字、図形、画像等の情報を表示するとともに、指、スタイラス、ペン等(以下、「指示体」と称する)を用いてタッチパネル3Aに対して行われる各種操作を検出する。タッチパネル3Aが各種操作を検出する方式は、静電容量式、感圧式等の方式を採用することができる。   The touch display unit 3 displays information such as characters, graphics, and images, and detects various operations performed on the touch panel 3A using a finger, stylus, pen, or the like (hereinafter referred to as “indicator”). . As a method of detecting various operations by the touch panel 3A, a capacitance type, a pressure sensitive type, or the like can be adopted.

カメラ部6Aで撮影した画像は表示部3Bに表示可能となっており、ユーザは、表示部3Bを電子ビューファインダーとして使用することができる。ユーザは、表示部3Bに表示される画像を観ながらシャッタチャンスを得ることができる。   An image taken by the camera unit 6A can be displayed on the display unit 3B, and the user can use the display unit 3B as an electronic viewfinder. The user can obtain a photo opportunity while viewing the image displayed on the display unit 3B.

図3は、携帯電話端末1の概略の構成を示すブロック図である。図3に示すように、携帯電話端末1は、制御部10と、メモリ11と、記憶部12と、通信部13と、カメラ部6Aを含むカメラデバイス6と、タッチ表示部3(タッチパネル3A、表示部3B)と、操作部4と、マイク5と、スピーカ7とを備えている。   FIG. 3 is a block diagram showing a schematic configuration of the mobile phone terminal 1. As shown in FIG. 3, the mobile phone terminal 1 includes a control unit 10, a memory 11, a storage unit 12, a communication unit 13, a camera device 6 including a camera unit 6A, and a touch display unit 3 (touch panel 3A, A display unit 3B), an operation unit 4, a microphone 5, and a speaker 7 are provided.

タッチ表示部3は、表示部3Bと、表示部3Bに重畳されたタッチパネル3Aとを有する。タッチパネル3Aは、指やペン等の指示体を用いてタッチパネル3Aに対して行われた各種操作を、操作が行われた場所のタッチパネル3A上での位置とともに検出し、制御部10に通知する。タッチパネル3Aによって検出される操作には、タッチ操作、スライド操作、及びピッチ操作が含まれる。表示部3Bは、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や、有機EL(Organic Electro−Luminescence)パネルなどで構成され、文字や図形等を表示する。   The touch display unit 3 includes a display unit 3B and a touch panel 3A superimposed on the display unit 3B. The touch panel 3A detects various operations performed on the touch panel 3A using an indicator such as a finger or a pen together with a position on the touch panel 3A where the operation is performed, and notifies the control unit 10 of the detected operation. The operations detected by the touch panel 3A include a touch operation, a slide operation, and a pitch operation. The display unit 3B includes, for example, a liquid crystal display (LCD) or an organic EL (Organic Electro-Luminescence) panel, and displays characters, graphics, and the like.

操作部4は、ボタン4A、4B等を通じて利用者の操作を受け付け、受け付けた操作に対応する指示信号を制御部10へ送信する。ボタン4Aは、連続撮影(単に「連写」ともいう)モードと通常撮影モードとを切り替えるためのボタンである。連続撮影モードは、シャッターボタンが押された場合に、被写体を複数枚連続して撮影するモードである。通常モードは、シャッターボタンが押された場合に被写体を1枚撮影するモードである。   The operation unit 4 receives a user's operation through the buttons 4A, 4B and the like, and transmits an instruction signal corresponding to the received operation to the control unit 10. The button 4A is a button for switching between a continuous shooting (simply referred to as “continuous shooting”) mode and a normal shooting mode. The continuous shooting mode is a mode in which a plurality of subjects are continuously shot when a shutter button is pressed. The normal mode is a mode for photographing one subject when the shutter button is pressed.

電源部14は、制御部10の制御に従って、蓄電池またはACアダプタから得られる電力を、制御部10を含む携帯電話端末1の各機部へ供給する。   The power supply unit 14 supplies power obtained from the storage battery or the AC adapter to each unit of the mobile phone terminal 1 including the control unit 10 according to the control of the control unit 10.

通信部13は、基地局によって割り当てられるチャネルを介し、基地局との間で無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。スピーカ7は、制御部10から送信される音声信号を音声として出力する。マイク5は、利用者等の音声を音声信号へ変換して制御部10へ出力する。   The communication unit 13 establishes a radio signal line with the base station via a channel assigned by the base station, and performs telephone communication and information communication with the base station. The speaker 7 outputs the sound signal transmitted from the control unit 10 as sound. The microphone 5 converts the voice of the user or the like into a voice signal and outputs it to the control unit 10.

メモリ11は、例えば、RAMやDRAM等で構成されており、制御部10によって実行されるプログラム、制御部10が参照するデータ、制御部10の演算結果等が一時的に記憶されるワークエリアとして使用される。   The memory 11 is composed of, for example, a RAM, a DRAM, or the like, and serves as a work area for temporarily storing a program executed by the control unit 10, data referred to by the control unit 10, calculation results of the control unit 10, and the like. used.

記憶部12は、例えば、不揮発性メモリや磁気記憶装置であり、制御部10での処理に利用されるプログラムやデータを保存する。記憶部12に記憶されるプログラムには、携帯電話端末1の基本的な機能を実現するOS、デバイスをハードウェア制御するためのデバイス・ドライバ、カメラ機能を実現するためのカメラアプリケーションプログラム、電子メール機能を実現するための機能を提供するメールアプリケーションプログラム、WEBブラウジング機能を実現するための機能を提供するブラウザアプリケーションプログラム等が含まれる。   The storage unit 12 is, for example, a nonvolatile memory or a magnetic storage device, and stores programs and data used for processing in the control unit 10. The program stored in the storage unit 12 includes an OS for realizing the basic functions of the mobile phone terminal 1, a device driver for hardware control of the device, a camera application program for realizing the camera function, and e-mail. A mail application program that provides a function for realizing the function, a browser application program that provides a function for realizing the WEB browsing function, and the like are included.

制御部10は、例えば、CPU(Central Processing Unit)、マイクロプロセッサ、DSP等であり、携帯電話端末1の動作を統括的に制御して各種の機能(モード)を実現する。具体的には、制御部10は、記憶部12に記憶されているデータやメモリ11に展開したデータを必要に応じて参照しつつ、記憶部9に記憶されているプログラムに含まれる命令を実行して、タッチ表示部3、通信部13,カメラデバイス6等を制御することによって各種機能(モード)を実現する。なお、制御部10が実行するプログラムや参照するデータは、通信部13による無線通信でサーバ装置からダウンロードすることとしてもよい。   The control unit 10 is, for example, a CPU (Central Processing Unit), a microprocessor, a DSP, and the like, and implements various functions (modes) by comprehensively controlling the operation of the mobile phone terminal 1. Specifically, the control unit 10 executes instructions included in the program stored in the storage unit 9 while referring to the data stored in the storage unit 12 or the data expanded in the memory 11 as necessary. Various functions (modes) are realized by controlling the touch display unit 3, the communication unit 13, the camera device 6, and the like. Note that the program executed by the control unit 10 and the data to be referenced may be downloaded from the server device by wireless communication by the communication unit 13.

図4は、カメラデバイス6の概略の機能ブロック図である。カメラデバイス6は、カメラ部6A、アナログ信号処理回路24,A/D変換回路25,ISP(Image signal Processor)26、カメラデバイス6と制御部10を接続するためのインターフェース27等を備えている。   FIG. 4 is a schematic functional block diagram of the camera device 6. The camera device 6 includes a camera unit 6A, an analog signal processing circuit 24, an A / D conversion circuit 25, an ISP (Image signal Processor) 26, an interface 27 for connecting the camera device 6 and the control unit 10, and the like.

カメラ部6Aは、レンズ21と、レンズ移動機構(AF機能、ズーム機能)、メカニカルシャッタ、及び自動絞り機能などを備えたメカ機構22と、イメージセンサ23等を備えている。レンズ21は、例えば、広角ズームレンズであり、焦点位置及びズーム位置を調整するために移動可能に構成されており、被写体光を結像する。イメージセンサ23は、CCD(Charge Coupled Device)やCMOS(Complementary Metal−Oxide Semiconductor)等の撮像素子、およびRGBカラーフィルタ等を備えており、レンズ21で結像された被写体光をR、G、Bのアナログの画像データとして、アナログ信号処理回路24に出力する。   The camera unit 6A includes a lens 21, a mechanical mechanism 22 having a lens moving mechanism (AF function, zoom function), a mechanical shutter, and an automatic iris function, an image sensor 23, and the like. The lens 21 is a wide-angle zoom lens, for example, and is configured to be movable in order to adjust the focal position and the zoom position, and forms an image of subject light. The image sensor 23 includes an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), an RGB color filter, and the like. The subject light imaged by the lens 21 is R, G, B Are output to the analog signal processing circuit 24 as analog image data.

アナログ信号処理回路24は、イメージセンサ23から出力されたR,G,Bのアナログの画像データに対してアナログ信号処理(低雑音化やアナログゲイン補正等)を施して、A/D変換回路25に出力する。   The analog signal processing circuit 24 performs analog signal processing (low noise, analog gain correction, etc.) on the R, G, B analog image data output from the image sensor 23, and the A / D conversion circuit 25. Output to.

A/D変換回路25は、R,G,Bのアナログの画像データをA/D変換して、R,G,Bのデジタルの画像データ(RAWデータ)をISP26に出力する。A/D変換回路25から出力されるR,G,Bのデジタル画像データは、未だ画素補間処理等のデジタル信号処理が行われていないRAWデータである。   The A / D conversion circuit 25 performs A / D conversion on the R, G, B analog image data, and outputs the R, G, B digital image data (RAW data) to the ISP 26. The R, G, B digital image data output from the A / D conversion circuit 25 is RAW data that has not yet undergone digital signal processing such as pixel interpolation processing.

ISP(Image Signal Processor)26は、入力されるRAWデータに対して、画素補間処理、AWB調整、AE調整、及び色差・輝度分離処理等の各種のデジタル信号処理を行う。ISP26は、RAWデータ、AWB調整パラメータ(ホワイトバランス調整用パラメータ)及びAE調整パラメータ(露出調整用パラメータ)を格納するためのバッファメモリ31、画素補間部32、AWB調整部33、AE調整部34、輝度色差分離部35、ビデオ信号処理部36、JPEG処理部37等を備えている。   An ISP (Image Signal Processor) 26 performs various types of digital signal processing such as pixel interpolation processing, AWB adjustment, AE adjustment, and color difference / luminance separation processing on input RAW data. The ISP 26 includes a buffer memory 31 for storing RAW data, an AWB adjustment parameter (white balance adjustment parameter), and an AE adjustment parameter (exposure adjustment parameter), a pixel interpolation unit 32, an AWB adjustment unit 33, an AE adjustment unit 34, A luminance color difference separation unit 35, a video signal processing unit 36, a JPEG processing unit 37, and the like are provided.

画素補間部32は、R、G、Bの各画像データを補間する。AWB調整部33は、R、G、Bの画像データからAWB調整用評価値を取得し、取得したAWB調整用評価値に基づいてAWB調整パラメータを算出して、算出したAWB調整パラメータに基づいてホワイトバランス調整を行う。例えば、AWB調整用評価値は、R,G,Bデータを画面内の複数ブロック毎かつ色毎に積算した値等とすることができ、AWB調整パラメータは、R、G、B用のデジタルゲイン値とすることができ、AWB調整では、R,G,Bの画像データの各デジタルゲインを調整することにしてもよい。   The pixel interpolation unit 32 interpolates R, G, and B image data. The AWB adjustment unit 33 acquires an evaluation value for AWB adjustment from R, G, and B image data, calculates an AWB adjustment parameter based on the acquired evaluation value for AWB adjustment, and based on the calculated AWB adjustment parameter Adjust the white balance. For example, the evaluation value for AWB adjustment can be a value obtained by integrating R, G, B data for each of a plurality of blocks and for each color in the screen, and the AWB adjustment parameter can be a digital gain for R, G, B. In the AWB adjustment, each digital gain of R, G, and B image data may be adjusted.

AE調整部34は、R、G、Bの画像データからAE調整用評価値を取得し、取得したAE調整用評価値に基づいてAE調整パラメータを算出し、算出したAE調整パラメータに基づいてAE調整を行う。例えば、AE調整用評価値は、Gデータを画面内の複数ブロックごとに積算した値等とすることができ、AE調整パラメータは、デジタルゲイン値やガンマ変換特性値であり、AE調整では、R、G、B画像データのデジタルゲインの調整やガンマ変換等を行うことにしてもよい。   The AE adjustment unit 34 acquires an AE adjustment evaluation value from the R, G, and B image data, calculates an AE adjustment parameter based on the acquired AE adjustment evaluation value, and determines an AE based on the calculated AE adjustment parameter. Make adjustments. For example, the evaluation value for AE adjustment can be a value obtained by accumulating G data for each of a plurality of blocks in the screen, and the AE adjustment parameter is a digital gain value or a gamma conversion characteristic value. , G, B image data digital gain adjustment and gamma conversion may be performed.

輝度色差分離部35は、R、G、Bの画像データを色差信号(Cb,Cr)と輝度信号(Y)とに分離する。ビデオ信号処理部36は、色差信号(Cb,Cr)と輝度信号(Y)とに基づいてビデオ信号を作成する。このビデオ信号は制御部10を介して、タッチ表示部3に出力されて被写体の画像が表示される。   The luminance / color difference separation unit 35 separates R, G, and B image data into color difference signals (Cb, Cr) and luminance signals (Y). The video signal processing unit 36 creates a video signal based on the color difference signals (Cb, Cr) and the luminance signal (Y). This video signal is output to the touch display unit 3 via the control unit 10 to display an image of the subject.

JPEG処理部37は、例えばJPEG準拠の画像圧縮・伸長の一過程である直交変換,並びに,JPEG準拠の画像圧縮・伸長の一過程であるハフマン符号化・復号化等を行う。   The JPEG processing unit 37 performs, for example, orthogonal transformation, which is a process of JPEG-compliant image compression / decompression, and Huffman encoding / decoding, which is a process of JPEG-compliant image compression / decompression.

制御部10は、記憶部12に格納されたカメラアプリケーションプログラム12Aに従ってメモリ11を作業領域として使用して、操作部4からの指示又はタッチ表示部3に表示したカメラ操作画面からの操作指示に従い,カメラデバイス6の全動作を制御する。   The control unit 10 uses the memory 11 as a work area according to the camera application program 12A stored in the storage unit 12, and follows an instruction from the operation unit 4 or an operation instruction from the camera operation screen displayed on the touch display unit 3, Controls all operations of the camera device 6.

具体的には、制御部10は,撮像動作(連続撮像を含む)、AE動作、AWB調整動作や、AF動作等の制御を行う。また、制御部10は、顔検出機能等を備えており、画像データから人物の顔を検出することが可能となっている。また、制御部10は、JPEG処理部37でJPEG圧縮処理されたJPEGデータの記憶部12への記録、又は、記憶部12からの読み出しを行う。   Specifically, the control unit 10 controls an imaging operation (including continuous imaging), an AE operation, an AWB adjustment operation, an AF operation, and the like. The control unit 10 includes a face detection function and the like, and can detect a person's face from image data. In addition, the control unit 10 records the JPEG data subjected to JPEG compression processing by the JPEG processing unit 37 in the storage unit 12 or reads out from the storage unit 12.

制御部10は、ユーザ操作により、タッチ表示部3でカメラアプリケーションプログラム12Aが選択されると、カメラアプリケーションプログラム12Aを起動して、カメラデバイス6を起動させると共に、カメラ操作画面をタッチ表示部3に表示する。図5は、タッチ表示部3に表示されるカメラ操作画面の一例を示す図である。図5に示すように、カメラ操作画面には、撮影した画像データや,伸長処理された記録画像データを表示する領域(電子ビューファインダー)8Aと、シャッターボタン8Cや各種機能選択を行うためのボタン(不図示)、カメラデバイス6の状態等が表示される領域8Bと、を備えている。ユーザは、領域8A内をタッチすることでフォーカス位置を指定することができ(マニュアルフォーカス)、制御部10は、メカ機構22を制御して、指定されたフォーカス位置に対応する位置にレンズ21を移動させる。   When the camera application program 12A is selected on the touch display unit 3 by the user operation, the control unit 10 activates the camera application program 12A to activate the camera device 6 and displays the camera operation screen on the touch display unit 3. indicate. FIG. 5 is a diagram illustrating an example of a camera operation screen displayed on the touch display unit 3. As shown in FIG. 5, the camera operation screen includes an area (electronic viewfinder) 8A for displaying captured image data and decompressed recorded image data, a shutter button 8C, and buttons for selecting various functions. (Not shown) and an area 8B in which the state of the camera device 6 is displayed. The user can designate a focus position by touching the area 8A (manual focus), and the control unit 10 controls the mechanical mechanism 22 to place the lens 21 at a position corresponding to the designated focus position. Move.

上記図4のように構成されたカメラデバイス6の連続撮影処理を図6〜図8を参照しつつ説明する。図6は、連続撮影処理を説明するための説明図である。図7は、構図最適化処理を説明するためのフローチャートである。図8は、構図最適化処理の具体的な画像の例を示す図である。   The continuous shooting process of the camera device 6 configured as shown in FIG. 4 will be described with reference to FIGS. FIG. 6 is an explanatory diagram for explaining the continuous shooting process. FIG. 7 is a flowchart for explaining the composition optimization process. FIG. 8 is a diagram illustrating a specific image example of the composition optimization process.

まず、ユーザ操作によりタッチ表示部3でカメラアプリケーションプログラム12Aが選択されると、制御部10は、カメラアプリケーションプログラム12Aを起動して、カメラデバイス6を起動させると共に、カメラ操作画面をタッチ表示部3に表示する。そして、連続撮影モードが選択された状態で、ユーザが、シャッターボタン8Cを押すと、連続的にL枚(Lは2枚以上)、被写体の撮像が行われる。この場合、ユーザは、所望の撮影対象を直ぐにフレーミングしてシャッターボタン8Cを押し、徐々に被写体のフレーミングを合わせていく。以下では、10枚連続撮影する場合を一例として説明する。   First, when the camera application program 12A is selected on the touch display unit 3 by a user operation, the control unit 10 activates the camera application program 12A to activate the camera device 6 and displays the camera operation screen on the touch display unit 3. To display. Then, when the user presses the shutter button 8C in a state where the continuous shooting mode is selected, L images (L is 2 or more) are continuously imaged. In this case, the user immediately frames the desired shooting target, presses the shutter button 8C, and gradually matches the framing of the subject. Hereinafter, a case where 10 images are continuously shot will be described as an example.

まず、連続撮影モードが設定されている状態で、ユーザがシャッターボタン8Cを押すと、1枚目の撮影が行われる。より具体的には、メカ機構22のシャッターが一定時間開かれ、被写体像がイメージセンサ23に入射される。イメージセンサ23から出力されたRGBの画像データは、アナログ信号処理回路24でアナログ信号処理された後、A/D変換回路25でA/D変換されて、RGBのデジタル画像データ(RAWデータ)がISP26に入力される。   First, when the user presses the shutter button 8C in a state where the continuous shooting mode is set, the first shooting is performed. More specifically, the shutter of the mechanical mechanism 22 is opened for a certain time, and the subject image is incident on the image sensor 23. The RGB image data output from the image sensor 23 is subjected to analog signal processing by an analog signal processing circuit 24, and then A / D converted by an A / D conversion circuit 25, whereby RGB digital image data (RAW data) is converted. Input to the ISP 26.

ISP26では、1枚目のRAWデータがバッファメモリ31に格納される(図6のT1参照)。すなわち、バッファメモリ31には、デジタル信号処理される前の1枚目のR,G,Bの画像データが格納される。また、1枚目のRAWデータは、画素補間部32でR、G、Bの各画素が補間される。画素の補間後、AWB調整部33では、R、G、Bの画像データからAWB調整用評価値を取得し、取得したAWB調整用評価値に基づいてAWB調整パラメータを算出し、算出したAWB調整パラメータに基づいてAWB調整が行われる。   In the ISP 26, the first RAW data is stored in the buffer memory 31 (see T1 in FIG. 6). That is, the first R, G, B image data before digital signal processing is stored in the buffer memory 31. In the first RAW data, each pixel of R, G, and B is interpolated by the pixel interpolation unit 32. After pixel interpolation, the AWB adjustment unit 33 acquires an evaluation value for AWB adjustment from the R, G, and B image data, calculates an AWB adjustment parameter based on the acquired evaluation value for AWB adjustment, and calculates the calculated AWB adjustment. AWB adjustment is performed based on the parameters.

つづいて、AE調整部34では、R、G、Bの画像データからAE調整用評価値を取得し、取得したAE調整用評価値に基づいてAE調整パラメータを算出して、算出したAE調整パラメータに基づいてAE調整が行われる。   Subsequently, the AE adjustment unit 34 acquires an AE adjustment evaluation value from the R, G, and B image data, calculates an AE adjustment parameter based on the acquired AE adjustment evaluation value, and calculates the calculated AE adjustment parameter. AE adjustment is performed based on the above.

この後、輝度・色差分離部35で色差信号(Cb,Cr)と輝度信号(Y)に分離された後、ビデオ信号処理部36でビデオ信号が作成され、制御部10を介して、タッチ表示部3に被写体の画像が表示される。   Thereafter, after the color / difference signal (Cb, Cr) and the luminance signal (Y) are separated by the luminance / color difference separation unit 35, a video signal is created by the video signal processing unit 36, and touch display is performed via the control unit 10. An image of the subject is displayed in part 3.

続いて、2〜10枚目の撮影が順次行われる。2〜10枚目に撮像して得られるRAWデータはバッファメモリ31に保存することなく、ISP26で同様なデジタル信号処理が施される。撮影が進むと、AWB調整及びAE調整により、適正なホワイトバランス及び露出(明るさ)の画像となっていく。10枚目の撮影では、AWB調整部33は、10枚目のAWB調整で使用したAWB調整パラメータをバッファメモリ31に格納し(図6のT2)、AE調整部34は、10枚目のAE調整で使用したAE調整パラメータをバッファメモリ31に格納する(図6のT3)。さらに、JPEG処理部37では、色差信号(Cb,Cr)と輝度信号(Y)とに基づいてJPEG(圧縮)データを生成し、制御部10を介して、10枚目のJPEGデータとして記憶部12に格納される(図6のT4)。なお、2〜9枚目については、JPEGデータの作成及び保存は行われない。   Subsequently, the second to tenth images are sequentially taken. The RAW data obtained by imaging the second to tenth images is subjected to the same digital signal processing by the ISP 26 without being stored in the buffer memory 31. As shooting proceeds, an image with appropriate white balance and exposure (brightness) is obtained by AWB adjustment and AE adjustment. In the tenth shooting, the AWB adjustment unit 33 stores the AWB adjustment parameter used in the tenth AWB adjustment in the buffer memory 31 (T2 in FIG. 6), and the AE adjustment unit 34 sets the tenth AE. The AE adjustment parameter used in the adjustment is stored in the buffer memory 31 (T3 in FIG. 6). Further, the JPEG processing unit 37 generates JPEG (compressed) data based on the color difference signals (Cb, Cr) and the luminance signal (Y), and stores it as the 10th JPEG data via the control unit 10. 12 (T4 in FIG. 6). Note that JPEG data is not created or stored for the second to ninth sheets.

そして、ISP26では、制御部10の指示に従って、バッファメモリ31に格納した1枚目のRWAデータに対して、バッファメモリ31に格納した、10枚目のAWB調整パラメータ及びAE調整パラメータを使用して、デジタル信号処理が施される(図6のT5)。   The ISP 26 uses the tenth AWB adjustment parameter and the AE adjustment parameter stored in the buffer memory 31 for the first RWA data stored in the buffer memory 31 in accordance with an instruction from the control unit 10. Then, digital signal processing is performed (T5 in FIG. 6).

より具体的には、ISP26では、1枚目のRAWデータは、画素補間部32でR、G、Bの各画像データに補間された後、AWB調整部32では、10枚目のAWB調整パラメータを使用してAWB調整が行われ、AE調整部33では、10枚目のAE調整パラメータを使用してAE調整が行われる。この後、輝度・色差分離部35で色差信号(Cb,Cr)と輝度信号(Y)に分離された後、JPEG処理部37でJPEGデータが作成された後、制御部10を介して、1枚目のJPEGデータとして記憶部12に格納される(図5のT6)。   More specifically, in the ISP 26, the first RAW data is interpolated into R, G, and B image data by the pixel interpolation unit 32, and then the AWB adjustment unit 32 performs the tenth AWB adjustment parameter. AWB adjustment is performed using, and the AE adjustment unit 33 performs AE adjustment using the tenth AE adjustment parameter. Thereafter, after the color / difference signal (Cb, Cr) and the luminance signal (Y) are separated by the luminance / color difference separation unit 35, JPEG data is created by the JPEG processing unit 37, and then 1 through the control unit 10. The first JPEG data is stored in the storage unit 12 (T6 in FIG. 5).

続いて、制御部10は、1枚目の画像データの構図を、10枚目の画像データの構図を使用して変更する構図最適化処理を実行する(図6のT7)。構図最適化処理の具体的な処理の例を図7及び図8を参照して説明する。   Subsequently, the control unit 10 executes a composition optimization process for changing the composition of the first image data by using the composition of the tenth image data (T7 in FIG. 6). A specific process example of the composition optimization process will be described with reference to FIGS.

図7において、制御部10は、1枚目と10枚目のJPEGデータを記憶部12から読み出し、JPEG処理部37で伸張処理させた後、1枚目の画像データと10枚目の画像データで同じオブジェクトがあるか否かを判断する(ステップS1)。オブジェクトは例えば人物である。制御部10は、1枚目と10枚目で同じオブジェクトがない場合には(ステップS1の「No」)、1枚目の画像データの構図を最適化しない(ステップS4)。なお、オブジェクトは、人物に限られず、例えば、動物(例えば、犬、猫等)、乗物(例えば、自動車、UFO等)等でもよく、1枚目と10枚目で同じオブジェクトが存在する場合に適用可能である。   In FIG. 7, the control unit 10 reads the first and tenth JPEG data from the storage unit 12, decompresses them by the JPEG processing unit 37, and then the first and tenth image data. It is then determined whether or not there is the same object (step S1). The object is, for example, a person. When there is no same object on the first and tenth sheets (“No” in step S1), the control unit 10 does not optimize the composition of the first image data (step S4). The object is not limited to a person, and may be, for example, an animal (for example, a dog, a cat, etc.), a vehicle (for example, a car, a UFO, etc.), etc., and the same object exists on the first and tenth sheets. Applicable.

他方、1枚目と10枚目で同じオブジェクトがある場合には(ステップS1の「Yes」)、制御部10は、同じオブジェクトは、10枚目の画像データが1枚目の画像データに比して、中央又は大きく写っているか否かを判断する(ステップS2)。同じオブジェクトが、10枚目の画像データが1枚目の画像データに比して、中央又は大きく写っていない場合には(ステップS2の「No」)、1枚目の画像データの構図を最適化しない(ステップS4)。   On the other hand, when there is the same object on the first sheet and the tenth sheet (“Yes” in step S1), the control unit 10 determines that the same object is compared with the first image data. Then, it is determined whether or not the image is in the center or large (step S2). If the same object is not shown in the center or larger than the first image data of the tenth image data (“No” in step S2), the composition of the first image data is optimal. (Step S4).

同じオブジェクトは、10枚目の画像データが1枚目の画像データに比して、中央又は大きく写っている場合には(ステップS2の「Yes」)、制御部10は、10枚目の画像データの構図に基づいて、3分割、2分割、水平・垂直分割等を使用して、1枚目の画像データの構図を最適化する(ステップS3)。そして、制御部10は、構図を最適化した1枚目の画像データをJPEG処理部37でJPEGデータに変換させ、記憶部12に格納する。また、制御部10は、構図を最適化した1枚目の画像データをビデオ処理部36でビデオ信号に変換させて、タッチ表示部3に表示する。これにより、ユーザに、撮影対象については1枚目を使用し、かつ、撮影パラメータや構図については10枚目を使用した画像をユーザに提供することが可能となる。   When the image data of the 10th image is larger or larger than the image data of the first image (“Yes” in step S2), the control unit 10 determines that the same object has the 10th image data. Based on the data composition, the composition of the first image data is optimized using three divisions, two divisions, horizontal / vertical division, or the like (step S3). Then, the control unit 10 converts the first image data with the optimized composition into JPEG data by the JPEG processing unit 37 and stores it in the storage unit 12. Further, the control unit 10 causes the video processing unit 36 to convert the first image data whose composition is optimized into a video signal, and displays the video signal on the touch display unit 3. As a result, it is possible to provide the user with an image using the first image for the shooting target and using the tenth image for the shooting parameters and composition.

次に、図8を参照して、構図最適化処理の具体的な画像の例を説明する。1枚目の画像100は笑顔の女性110を撮影できており、撮影対象は好適である。他方、女性110が左下に小さく写っているため構図が望ましくない。10枚目の画像が画像101の場合は、女性111が右下に部分的に写っているため、望ましい構図でないので、1枚目の画像101の構図最適化は行わない。一方、10枚目の画像が画像102の場合は、女性112が中央に大きく写っているため、望ましい構図である。そこで、1枚目の画像101の構図を、10枚目の画像102の構図を使用して好適化する。一例として、1枚目の画像101の女性110をクリッピング及び拡大して、10枚目の画像102の女性112の位置に移動させる。これにより、1枚目の画像は、画像103に示すように、笑顔の女性110が中央に大きく配置された画像となる。   Next, a specific image example of the composition optimization process will be described with reference to FIG. The first image 100 captures a smiling woman 110 and is suitable for the subject. On the other hand, the composition is not desirable because the woman 110 is shown small in the lower left. When the tenth image is the image 101, since the female 111 is partially captured in the lower right, it is not a desirable composition, so the composition optimization of the first image 101 is not performed. On the other hand, when the tenth image is the image 102, the female 112 is shown in the center, which is a desirable composition. Therefore, the composition of the first image 101 is optimized using the composition of the tenth image 102. As an example, the female 110 of the first image 101 is clipped and enlarged and moved to the position of the female 112 of the tenth image 102. As a result, the first image is an image in which a smiling woman 110 is arranged large in the center as shown in an image 103.

なお、上記実施の形態では、1枚目に撮影した画像データを、10枚目に撮影した画像データの撮影パラメータや構図を使用して信号処理することとしたが、本発明はこれに限られるものではなく、被写体をL(但し、L≧2)枚連続的に撮像する場合に、先に撮像(N枚目(但し、0<N<L))した画像データを、後に撮像(M枚目(但し、N<M≦L))した画像データの撮影パラメータや構図を使用して信号処理することにすればよい。   In the above embodiment, the image data captured on the first image is processed using the imaging parameters and composition of the image data captured on the 10th image, but the present invention is limited to this. When the subject is continuously imaged with L (where L ≧ 2) images, the image data captured first (Nth image (where 0 <N <L)) is captured later (M images). Signal processing may be performed using the imaging parameters and composition of the image data (where N <M ≦ L).

以上説明したように、本実施の形態によれば、被写体をL(但し、L≧2)枚連続的に撮像する場合に、先に撮像(N枚目(但し、0<N<L))した画像データを、後に撮像(M枚目(但し、N<M≦L))した画像データの撮影パラメータや構図を使用して信号処理することとしたので、ユーザが撮りたかった被写体(撮影対象)について、高画質かつ適正な構図の画像を得ることが可能となる。   As described above, according to the present embodiment, when L (however, L ≧ 2) images of the subject are continuously imaged, the first image is captured (Nth image (where 0 <N <L)). The captured image data is subjected to signal processing using the imaging parameters and composition of the image data that was captured later (Mth image (where N <M ≦ L)). ), It is possible to obtain an image with high image quality and proper composition.

また、上記実施の形態では、先に撮像(N枚目(但し、0<N<L))した画像データを、後に撮像(M枚目(但し、N<M≦L))した画像データの撮影パラメータ及び構図を使用して信号処理することとしたが、撮影パラメータ及び構図の両方を使用して信号処理する必要は必ずしもなく少なくとも一方を使用して信号処理することにしてもよい。   In the above-described embodiment, the image data captured first (Nth image (where 0 <N <L)) is changed to the image data captured later (Mth image (where N <M ≦ L)). Although the signal processing is performed using the imaging parameter and the composition, it is not always necessary to perform the signal processing using both the imaging parameter and the composition, and the signal processing may be performed using at least one of them.

また、上記実施の形態では、撮影パラメータとして、AWB調整パラメータやAE調整パラメータについて説明したが、本発明はこれに限られるものではなく、後に撮影した画像データの他の撮影パラメータを使用して、先に撮影した画像データを信号処理することにしてもよい。他の撮影パラメータは例えばAF調整パラメータである。   In the above embodiment, the AWB adjustment parameter and the AE adjustment parameter have been described as shooting parameters. However, the present invention is not limited to this, and other shooting parameters of image data shot later are used. You may decide to signal-process the image data image | photographed previously. Other imaging parameters are, for example, AF adjustment parameters.

また、上記実施の形態では、電子ビューファインダーを使用することしたが、光学ファインダーを使用することにしてもよい。   In the above embodiment, the electronic viewfinder is used. However, an optical viewfinder may be used.

また、上記実施の形態では、1枚目のRAWデータを格納するためのバッファメモリ31を備えているが、バッファメモリ31がない構成の場合には、1枚目に撮像してデジタル信号処理したJPEGデータ及び10枚目のAWB調整パラメータ及びAE調整パラメータを記憶部12に格納し、JPEGデータを伸張処理した後に、10枚目のAWB調整パラメータ及びAE調整パラメータを使用してデジタル信号処理することにしてもよい。   In the above embodiment, the buffer memory 31 for storing the first RAW data is provided. However, when the buffer memory 31 is not provided, the first image is captured and digital signal processing is performed. The JPEG data, the tenth AWB adjustment parameter, and the AE adjustment parameter are stored in the storage unit 12, and after the JPEG data is expanded, the digital signal processing is performed using the tenth AWB adjustment parameter and the AE adjustment parameter. It may be.

(変形例)
上記実施の形態では、連続撮影モードが選択された状態で、ユーザが、シャッターボタン8Cを押すと、被写体を連続的に撮影し、1枚目に撮影した画像データを、10枚目に撮影した画像の撮影パラメータや構図を使用して信号処理することとした。本発明はこれに限られるものではなく、連続撮影モードが選択されている状態でカメラアプリケーションプログラム12A(カメラデバイス6)が起動した場合に、連続撮影を開始し、1枚目に撮影した画像データを、ユーザがシャッターボタン8Cを押した際に撮影した画像データの撮影パラメータや構図を使用して信号処理することにしてもよい。これにより、ユーザが撮影パラメータや構図が適正と思われる画像データを取得でき、この取得した画像データの撮影パラメータや構図を使用して、1枚目の画像データの撮影パラメータや構図を変更することが可能となり、よりユーザの意志を反映した撮影パラメータや構図とすることができる。
(Modification)
In the above embodiment, when the user presses the shutter button 8C in the state where the continuous shooting mode is selected, the subject is continuously shot, and the image data shot on the first shot is shot on the tenth shot. Signal processing is performed using image capturing parameters and composition. The present invention is not limited to this. When the camera application program 12A (camera device 6) is activated in a state where the continuous shooting mode is selected, continuous shooting is started, and image data shot on the first image is taken. May be signal-processed using the shooting parameters and composition of the image data shot when the user presses the shutter button 8C. As a result, the user can acquire image data whose shooting parameters and composition seem to be appropriate, and change the shooting parameters and composition of the first image data using the acquired shooting parameters and composition of the image data. Therefore, it is possible to obtain shooting parameters and a composition more reflecting the user's will.

図9は、連続撮影処理の変形例を説明するための説明図である。図9において、図6と同様な部分は説明を省略し、異なる点についてのみ説明する。連続撮影モードが設定されている状態でカメラデバイス6が起動すると、まず、1枚目の撮像が行われ、ISP26では、1枚目のRAWデータがバッファメモリ31に格納されると共に(図9のT11参照)、デジタル信号処理が行われる。なお、1枚目の撮像は、カメラデバイス6が静止した状態で、パンクロフォーカス(近距離から遠距離までピントを合わせる)撮影を行うことにしてもよい。   FIG. 9 is an explanatory diagram for describing a modification of the continuous shooting process. In FIG. 9, the description of the same parts as those in FIG. 6 is omitted, and only different points will be described. When the camera device 6 is activated in the state where the continuous shooting mode is set, first, the first image is taken, and the ISP 26 stores the first RAW data in the buffer memory 31 (see FIG. 9). Digital signal processing is performed (see T11). The first image may be picked up by panchromatic focus (focusing from a short distance to a long distance) while the camera device 6 is stationary.

続いて、次の撮影が順次行われ、ユーザがタッチ表示部3に表示される被写体の画像を観て、明るさやホワイトバランスが適正で、被写体の構図も適正と判断した場合にシャッターボタン8Cを押す。この場合、ユーザはマニュアルでフォーカスを合わせることにしてもよい。   Subsequently, the next shooting is sequentially performed. When the user views the subject image displayed on the touch display unit 3 and determines that the brightness and white balance are appropriate and the subject composition is appropriate, the shutter button 8C is pressed. Push. In this case, the user may manually focus.

シャッターボタン8Cが押されたときに撮像された画像データが、例えば、9枚目の画像データとした場合には、9枚目の撮像では、AWB調整部33は、9枚目のAWB調整で使用したAWB調整パラメータをバッファメモリ31に格納し(図9のT12参照)、AE調整部34は、9枚目のAE調整で使用したAE調整パラメータをバッファメモリ31に格納する(図9のT13参照)。さらに、JPEG処理部37では、色差信号(Cb,Cr)と輝度信号(Y)とに基づいてJPEG(圧縮)データを生成し、制御部10を介して、9枚目のJPEGデータとして記憶部12に格納される(図9のT14)。   For example, when the image data captured when the shutter button 8C is pressed is the ninth image data, the AWB adjustment unit 33 performs the ninth AWB adjustment for the ninth image. The used AWB adjustment parameters are stored in the buffer memory 31 (see T12 in FIG. 9), and the AE adjustment unit 34 stores the AE adjustment parameters used in the ninth AE adjustment in the buffer memory 31 (T13 in FIG. 9). reference). Further, the JPEG processing unit 37 generates JPEG (compressed) data based on the color difference signal (Cb, Cr) and the luminance signal (Y), and stores it as the ninth JPEG data via the control unit 10. 12 (T14 in FIG. 9).

そして、ISP26では、制御部10の指示に従って、バッファメモリ31に格納した1枚目のRWAデータに対して、バッファメモリ31に格納した、9枚目のAWB調整パラメータ及びAE調整パラメータを使用して、AWB調整やAE調整等のデジタル信号処理が施された後(図9のT15)、1枚目のJPEGデータとして記憶部12に格納される(図9のT16)。   Then, the ISP 26 uses the ninth AWB adjustment parameter and the AE adjustment parameter stored in the buffer memory 31 for the first RWA data stored in the buffer memory 31 according to the instruction of the control unit 10. After digital signal processing such as AWB adjustment and AE adjustment (T15 in FIG. 9), the first JPEG data is stored in the storage unit 12 (T16 in FIG. 9).

制御部10は、1枚目と9枚目のJPEGデータを記憶部12から読み出し、JPEG処理部37で伸張処理させた後、1枚目の画像データの構図を、9枚目の画像データの構図を使用して変更する構図最適化処理を実行する(図9のT17)。制御部10は、構図最適化処理が施された1枚目の画像データをJPEG処理部37でJPEGデータに変換させ、記憶部12に格納する。また、構図を最適化した1枚目の画像データをビデオ処理部36でビデオ信号に変換させて、タッチ表示部3に表示する。   The control unit 10 reads the first and ninth pieces of JPEG data from the storage unit 12, decompresses them by the JPEG processing unit 37, and then composes the composition of the first piece of image data in the ninth piece of image data. A composition optimization process for changing the composition is executed (T17 in FIG. 9). The control unit 10 causes the JPEG processing unit 37 to convert the first image data subjected to the composition optimization process into JPEG data, and stores the JPEG data in the storage unit 12. Further, the first image data with the optimized composition is converted into a video signal by the video processing unit 36 and displayed on the touch display unit 3.

図10は、構図最適化処理の他の例を説明するためのフローチャートである。図10において、制御部10は、1枚目と9枚目のJPEGデータを記憶部12から読み出し、JPEG処理部37で伸張処理させた後、1枚目の画像データと9枚目の画像データで同じ人物の顔があるか否かを判断する(ステップS11)。1枚目と9枚目で同じ人物の顔が
ない場合には(ステップS11の「No」)、ステップS15に移行する。
FIG. 10 is a flowchart for explaining another example of the composition optimization process. In FIG. 10, the control unit 10 reads the first and ninth JPEG data from the storage unit 12, decompresses them by the JPEG processing unit 37, and then the first and ninth image data. In step S11, it is determined whether or not there is a face of the same person. If there is no face of the same person in the first and ninth sheets (“No” in step S11), the process proceeds to step S15.

1枚目の画像と9枚目の画像で同じ人物の顔がある場合には(ステップS11の「Yes」)、制御部10は、人物を対象と特定し(ステップS12)、人物が9枚目の画像データが1枚目の画像データに比して、中央又は大きく写っているか否かを判断する(ステップS13)。人物は、10枚目の画像データが1枚目の画像データに比して、中央又は大きく写っていない場合には(ステップS13の「No」)、1枚目の画像の構図を最適化しない(ステップS17)。   When there is a face of the same person in the first image and the ninth image (“Yes” in step S11), the control unit 10 specifies a person as a target (step S12), and the number of persons is nine. It is determined whether or not the eye image data is centered or larger than the first image data (step S13). The person does not optimize the composition of the first image when the tenth image data is not centered or larger than the first image data (“No” in step S13). (Step S17).

同じ人物は、9枚目の画像データが1枚目の画像データに比して、中央又は大きく写っている場合には(ステップS13の「Yes」)、制御部10は、9枚目の画像データの構図に基づいて、3分割、2分割、水平・垂直分割等を使用して、1枚目の画像データ(人物)の構図を最適化する(ステップS14)。   In the case where the same person has the ninth image data in the center or larger than the first image data ("Yes" in step S13), the control unit 10 Based on the data composition, the composition of the first image data (person) is optimized using three divisions, two divisions, horizontal / vertical division, or the like (step S14).

ステップS15では、制御部10は、1枚目の画像データに存在していて、9枚目の画像データに存在しない物体(移動物)があるか否かを判断する。1枚目の画像データに存在していて、9枚目の画像データに存在しない物体がある場合には(ステップS15の「Yes」)、制御部10は、当該物体を対象物であると判断し(ステップS16)、1枚目の画像の構図を最適化しない(ステップS17)。この場合は、1枚目で撮影できていた撮影対象を、9枚目では撮影できていないので、1枚目の画像データの構図をそのまま使用する。   In step S15, the control unit 10 determines whether there is an object (moving object) that exists in the first image data and does not exist in the ninth image data. When there is an object that exists in the first image data and does not exist in the ninth image data (“Yes” in step S15), the control unit 10 determines that the object is a target object. (Step S16) The composition of the first image is not optimized (Step S17). In this case, since the subject to be photographed with the first image is not photographed with the ninth image, the composition of the first image data is used as it is.

他方、1枚目の画像に存在していて、9枚目の画像に存在しない物体がない場合には(ステップS15の「Yes」)、1枚目の画像データを9枚目の画像データと同じ構図にする(ステップS18)。すなわち、この場合は、1枚目の撮影で目的とする撮影対象を撮影できていないことになるので、9枚目の画像データの構図を使用する。   On the other hand, if there is no object that exists in the first image and does not exist in the ninth image (“Yes” in step S15), the first image data is changed to the ninth image data. The same composition is set (step S18). That is, in this case, since the target photographing target cannot be photographed by the first photographing, the composition of the ninth image data is used.

なお、上記変形例では、1枚目に撮像した画像データを、シャッターボタンを押した際に撮像した(9枚目の)画像データの撮影パラメータや構図を使用して信号処理することとしたが、先に撮像した画像データは1枚目に限られるものではなく、また、シャッターボタンを押した際に撮像されるのは9枚目の画像データに限られるものではない。被写体をL(但し、L≧2)枚連続的に撮像する場合に、先に撮像(N枚目(但し、0<N<L))した画像データを、シャッターボタンを押した際に撮像(M枚目(但し、N<M≦L))した画像データの撮影パラメータや構図を使用して信号処理することにすればよい。   In the above modification, the image data captured on the first image is subjected to signal processing using the shooting parameters and composition of the (ninth) image data captured when the shutter button is pressed. The image data captured first is not limited to the first image, and the image data captured when the shutter button is pressed is not limited to the ninth image data. When L (however, L ≧ 2) images of the subject are continuously captured, the image data captured first (Nth image (where 0 <N <L)) is captured when the shutter button is pressed ( Signal processing may be performed using the shooting parameters and composition of the image data of the Mth image (where N <M ≦ L).

なお、上記実施の形態では、デジタルカメラを搭載した携帯電話端末について説明したしたが、単体のデジタルカメラ装置にも適用可能である。また、デジタルカメラを搭載するデバイスは携帯電話端末に限られるものではなく、タブレットPC、ノートPC、PDA(Personal Digital Assistant)、ポータブルナビゲーション装置、ゲーム機等の他の情報処理装置にも搭載可能である。   In the above embodiment, a mobile phone terminal equipped with a digital camera has been described. However, the present invention can also be applied to a single digital camera device. Devices equipped with digital cameras are not limited to mobile phone terminals, but can also be installed in other information processing devices such as tablet PCs, notebook PCs, PDAs (Personal Digital Assistants), portable navigation devices, and game consoles. is there.

以上のように、本発明にかかるデジタルカメラの撮像方法は、被写体を連続撮影する場合に広く適用可能である。   As described above, the imaging method of the digital camera according to the present invention can be widely applied to the case where the subject is continuously photographed.

1 携帯電話端末
2 筐体
3 タッチ表示部
3A タッチパネル
3B 表示部
4 操作部
5 マイク
6 カメラデバイス
6A カメラ部
7 スピーカ
10 制御部
11 メモリ
12 記憶部
13 通信部
14 電源部
21 レンズ
22 メカ機構
23 イメージセンサ
24 アナログ信号処理回路
25 A/D変換回路
26 ISP(Image signal Processor)
27 インターフェース
31 バッファメモリ
32 画素補間部
33 AWB調整部
34 AE調整部
35 輝度色差分離部
36 ビデオ信号処理部
37 JPEG処理部
DESCRIPTION OF SYMBOLS 1 Cellular phone terminal 2 Housing | casing 3 Touch display part 3A Touch panel 3B Display part 4 Operation part 5 Microphone 6 Camera device 6A Camera part 7 Speaker 10 Control part 11 Memory 12 Storage part 13 Communication part 14 Power supply part 21 Lens 22 Mechanical mechanism 23 Image Sensor 24 Analog signal processing circuit 25 A / D conversion circuit 26 ISP (Image signal Processor)
27 Interface 31 Buffer memory 32 Pixel interpolation unit 33 AWB adjustment unit 34 AE adjustment unit 35 Luminance color difference separation unit 36 Video signal processing unit 37 JPEG processing unit

Claims (10)

被写体をL(但し、L≧2)枚連続的に撮像するデジタルカメラの撮像方法であって、
N(但し、0<N<L)枚目の被写体を撮像した画像データを格納する工程と、
前記格納したN枚目の被写体を撮像した画像データを、M(但し、N<M≦L)枚目の被写体を撮像した画像データの構図を使用して信号処理する工程と、
を含むデジタルカメラの撮像方法。
An imaging method of a digital camera that continuously captures L (note that L ≧ 2) subjects.
Storing image data obtained by imaging an Nth (where 0 <N <L) subject;
Signal processing the stored image data of the Nth subject using the composition of the image data of the M (where N <M ≦ L) subject;
An imaging method for a digital camera including:
前記格納する工程では、前記N枚目に撮像した被写体のRAWデータを格納し、前記信号処理する工程では、前記格納したN枚目の被写体のRAWデータに対して、前記M枚目の被写体を撮像した画像データの撮影パラメータを使用して信号処理することを特徴とする請求項1に記載のデジタルカメラの撮像方法。   In the storing step, RAW data of the subject imaged in the Nth image is stored, and in the signal processing step, the Mth subject is compared with the stored RAW data of the Nth subject. 2. The digital camera imaging method according to claim 1, wherein signal processing is performed using imaging parameters of the captured image data. シャッターボタンが押された場合に、被写体をL(但し、L≧2)枚連続的に撮像することを特徴とする請求項1又は2に記載のデジタルカメラの撮像方法。   3. The imaging method of the digital camera according to claim 1, wherein when the shutter button is pressed, L (where L ≧ 2) images of the subject are continuously captured. 前記デジタルカメラが起動した場合に、被写体をL(但し、L≧2)枚連続的に撮像し、
前記M枚目の被写体は、シャッターボタンが押された際に撮像した画像データであることを特徴とする請求項1又は2に記載のデジタルカメラの撮像方法。
When the digital camera is activated, L (where L ≧ 2) images of the subject are continuously captured,
3. The imaging method of a digital camera according to claim 1, wherein the Mth subject is image data captured when the shutter button is pressed.
前記信号処理する工程では、前記格納したN枚目の被写体を撮像した画像データの構図を、前記M枚目の被写体を撮像した画像データの構図に基づいて変更することを特徴とする請求項1〜4のいずれか1つに記載のデジタルカメラの撮像方法。 In the process of the signal processing, according to claim 1, characterized in that the composition of the image data of the captured N-th of a subject said storage, to change based on composition of the image data obtained by imaging the M-th object The imaging method of the digital camera as described in any one of -4 . 前記信号処理する工程では、
前記M枚目の画像データと前記N枚目の画像データで同じオブジェクトがあるか否かを判断し、
同じオブジェクトがあり、かつ、当該同じオブジェクトが前記M枚目の画像データが前記N枚目の画像データに比して、中央又は大きく存在している場合には、前記N枚目の画像データの構図を、前記M枚目の画像データの構図を使用して変更し、
同じオブジェクトがない場合、又は、同じオブジェクトがある場合でも当該同じオブジェクトが前記M枚目の画像データが前記N枚目の画像データに比して、中央又は大きく存在していない場合には、前記N枚目の画像データの構図を、前記M枚目の画像データの構図を使用して変更しないことを特徴とする請求項に記載のデジタルカメラの撮像方法。
In the signal processing step,
It is determined whether there is the same object in the M-th image data and the N-th image data,
When there is the same object and the M object image data is present in the center or larger than the N image data, the same object has the N object image data. Change the composition using the composition of the Mth image data,
When there is no same object, or when there is the same object, the same object does not exist in the center or larger than the N-th image data in the M-th image data. 6. The imaging method of a digital camera according to claim 5 , wherein the composition of the Nth image data is not changed by using the composition of the Mth image data.
前記オブジェクトは人物であることを特徴とする請求項に記載のデジタルカメラの撮像方法。 The imaging method of the digital camera according to claim 6 , wherein the object is a person. 前記信号処理する工程では、さらに、前記格納したN枚目の被写体を撮像した画像データを、M(但し、N<M≦L)枚目の被写体を撮像した画像データの撮影パラメータを使用して信号処理を行い、
前記撮影パラメータは、ホワイトバランス調整用パラメータであり、
前記信号処理する工程では、前記格納したN枚目の被写体を撮像した画像データを、前記M枚目の被写体を撮像した画像データのホワイトバランス調整用パラメータを使用してホワイトバランス調整することを特徴とする請求項1〜7のいずれか1つに記載のデジタルカメラの撮像方法。
In the signal processing step, the stored image data obtained by imaging the Nth subject is further used using imaging parameters of image data obtained by imaging the Mth subject (where N <M ≦ L). Perform signal processing,
The shooting parameter is a parameter for white balance adjustment,
In the signal processing step, white balance adjustment is performed on the stored image data obtained by imaging the Nth subject using white balance adjustment parameters of image data obtained by imaging the Mth subject. An imaging method for a digital camera according to any one of claims 1 to 7 .
前記信号処理する工程では、さらに、前記格納したN枚目の被写体を撮像した画像データを、M(但し、N<M≦L)枚目の被写体を撮像した画像データの撮影パラメータを使用して信号処理を行い、
前記撮影パラメータは、露出調整用パラメータであり、
前記信号処理する工程では、前記格納したN枚目の被写体を撮像した画像データを、M枚目の被写体を撮像した画像データの露出調整用パラメータを使用して露出調整することを特徴とする請求項1〜7のいずれか1つに記載のデジタルカメラの撮像方法。
In the signal processing step, the stored image data obtained by imaging the Nth subject is further used using imaging parameters of image data obtained by imaging the Mth subject (where N <M ≦ L). Perform signal processing,
The shooting parameter is an exposure adjustment parameter,
In the process of the signal processing, billing, characterized in that the image data of the captured N-th of a subject said storage and exposure adjustment using an exposure adjustment parameter of the image data of the captured subject M th Item 8. The digital camera imaging method according to any one of Items 1 to 7 .
被写体をL(但し、L≧2)枚連続的に撮像するデジタルカメラに搭載されるプログラムであって、
N(但し、0<N<L)枚目の被写体を撮像した画像データを格納する工程と、
前記格納したN枚目の被写体を撮像した画像データを、M(但し、N<M≦L)枚目の被写体を撮像した画像データの構図を使用して信号処理する工程と、
をコンピュータに実行させるためのコンピュータが実行可能なプログラム。
A program mounted on a digital camera that continuously captures L (note that L ≧ 2) subjects.
Storing image data obtained by imaging an Nth (where 0 <N <L) subject;
Signal processing the stored image data of the Nth subject using the composition of image data of the M (where N <M ≦ L) subject;
A computer-executable program for causing a computer to execute.
JP2014041851A 2014-03-04 2014-03-04 Imaging method of digital camera and computer-executable program Active JP5932862B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014041851A JP5932862B2 (en) 2014-03-04 2014-03-04 Imaging method of digital camera and computer-executable program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014041851A JP5932862B2 (en) 2014-03-04 2014-03-04 Imaging method of digital camera and computer-executable program

Publications (2)

Publication Number Publication Date
JP2015167340A JP2015167340A (en) 2015-09-24
JP5932862B2 true JP5932862B2 (en) 2016-06-08

Family

ID=54258030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014041851A Active JP5932862B2 (en) 2014-03-04 2014-03-04 Imaging method of digital camera and computer-executable program

Country Status (1)

Country Link
JP (1) JP5932862B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6665754B2 (en) 2016-10-26 2020-03-13 株式会社デンソー Imaging device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4925271B2 (en) * 2006-08-21 2012-04-25 株式会社メガチップス Continuous imaging method for single-lens reflex digital camera
JP5162905B2 (en) * 2007-01-10 2013-03-13 株式会社ニコン Imaging device
JP2008199476A (en) * 2007-02-15 2008-08-28 Matsushita Electric Ind Co Ltd Imaging apparatus

Also Published As

Publication number Publication date
JP2015167340A (en) 2015-09-24

Similar Documents

Publication Publication Date Title
JP5567235B2 (en) Image processing apparatus, photographing apparatus, program, and image processing method
CN111050062B (en) Shooting method and electronic equipment
WO2017092128A1 (en) Method and device for displaying preview image
US9609224B2 (en) Imaging device and image display method
US20210329161A1 (en) Image capturing device, image capturing method, and program
US11032483B2 (en) Imaging apparatus, imaging method, and program
CN113596316A (en) Photographing method, graphical user interface and electronic equipment
JP7110406B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
US10863095B2 (en) Imaging apparatus, imaging method, and imaging program
JP5932862B2 (en) Imaging method of digital camera and computer-executable program
WO2020209097A1 (en) Image display device, image display method, and program
JP6941744B2 (en) Image processing device, photographing device, image processing method and image processing program
JP7060703B2 (en) Shooting equipment, shooting method, and program
CN106993138B (en) Time-gradient image shooting device and method
JPWO2020161969A1 (en) Image processing device, photographing device, image processing method and image processing program
JP6810298B2 (en) Image alignment aids, methods and programs and imaging devices
JP2013190791A (en) Apparatus and method for capturing image in mobile terminal
JP7169431B2 (en) Image processing device, image processing method and program, imaging device
JP7003286B2 (en) Shooting equipment, shooting method, and program
JP6840903B2 (en) Imaging device, imaging method, and program
JP2010252238A (en) Imaging apparatus and imaging method
WO2020066316A1 (en) Photographing apparatus, photographing method, and program
WO2020174911A1 (en) Image display device, image display method, and program
KR20150114230A (en) A method and apparatus for taking a picture

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160428

R150 Certificate of patent or registration of utility model

Ref document number: 5932862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250