JP2012138819A - Image pickup device, image pickup method and program - Google Patents

Image pickup device, image pickup method and program Download PDF

Info

Publication number
JP2012138819A
JP2012138819A JP2010290538A JP2010290538A JP2012138819A JP 2012138819 A JP2012138819 A JP 2012138819A JP 2010290538 A JP2010290538 A JP 2010290538A JP 2010290538 A JP2010290538 A JP 2010290538A JP 2012138819 A JP2012138819 A JP 2012138819A
Authority
JP
Japan
Prior art keywords
image
imaging
data
unit
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010290538A
Other languages
Japanese (ja)
Other versions
JP5548954B2 (en
Inventor
Tatsuya Dejima
達也 出嶌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010290538A priority Critical patent/JP5548954B2/en
Publication of JP2012138819A publication Critical patent/JP2012138819A/en
Application granted granted Critical
Publication of JP5548954B2 publication Critical patent/JP5548954B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an image which has had desired lighting applied to a desired part thereof.SOLUTION: A main control unit 51, by letting those pixels of a display unit 21 which constitute a partial area emit light, and while making the area function as illumination with which a part of the subject is irradiated, executes control for having the subject photographed by an image pickup unit 22. An image cutout unit 61 under the control of the main control unit 51, when the subject is successively photographed by the image pickup unit 22 while plural areas of the display unit 21 each are made to function successively as illumination, cuts out data for a partial area from each of the data of plural photographed images successively generated by the image pickup unit 22 to generate image data. An image synthesizing unit 62 synthesizes data of plural images cut out by the image cutout unit 61 to generate data of a synthesized image.

Description

本発明は、撮像装置、撮像方法及びプログラムに関し、特に、所望の部分に対して所望のライティングがなされた状態の画像を得ることができる技術に関する。   The present invention relates to an imaging apparatus, an imaging method, and a program, and more particularly to a technique capable of obtaining an image in a state where desired lighting is performed on a desired portion.

従来より、実空間内で照明を当てることにより、当該実空間のイメージに変化を与える技術(ライティング技術)が知られている。カメラ等の撮像装置は、このライティング技術を利用して撮像を行うことで、例えば、撮像対象の実空間の影を低減したり、逆に影を付けたりした上で撮像を行うことで、効果的な撮像画像のデータを生成することができる。
特許文献1には、様々な照明の効果を発揮するライティングのパターンが複数記憶されており、所望の効果を発揮するライティングのパターンを選択することにより、選択されたライティングのパターンに対応する照明の設定で撮影を行う技術が開示されている。
2. Description of the Related Art Conventionally, a technique (lighting technique) that changes an image in a real space by applying illumination in the real space is known. An imaging device such as a camera captures an image by using this lighting technology, for example, by reducing the shadow of the real space to be imaged or conversely adding a shadow, thereby achieving an effect. It is possible to generate typical captured image data.
In Patent Document 1, a plurality of lighting patterns that exhibit various lighting effects are stored. By selecting a lighting pattern that exhibits a desired effect, a lighting pattern corresponding to the selected lighting pattern is stored. A technique for shooting with settings is disclosed.

特開平11−24138号公報Japanese Patent Laid-Open No. 11-24138

しかし、上述した特許文献1に開示の技術では、1回の撮像のタイミングに合わせて、照明の設定がなされているに過ぎない。即ち、撮像対象の実空間全体のライティングの状態を考慮した照明の設定がなされているに過ぎない。
従って、撮像対象の実空間のうち、他の部分に影響を及ぼさないで所望の部分に対して所望のライティングをする、といった局所的なライティングを伴う照明の設定を行うことは非常に困難である。
具体的には例えば、被写体の特定部分で影が生じている画像が要求されているとする。このような要求に応えるべく、上述した特許文献1に開示の技術を利用しても、特定部分だけ影が生ずるような照明の設定を行うことは非常に困難である。即ち、特許文献1に開示の技術では、本来、被写体全体が可能な限り影がなくなるようなライティングを考慮した照明の設定がなされることが前提とされているため、特定部分に特化した照明の設定がなされても、特定部分で上手く影ができなかったり、逆に本来影が必要ない別の部分で影ができてしまう等、適切な照明の設定を行うことは非常に困難である。
However, in the technique disclosed in Patent Document 1 described above, illumination is merely set in accordance with the timing of one imaging. In other words, the illumination is set only in consideration of the lighting state of the entire real space to be imaged.
Therefore, it is very difficult to set illumination with local lighting, such as performing desired lighting on a desired part without affecting other parts of the real space to be imaged. .
Specifically, for example, it is assumed that an image in which a shadow is generated in a specific part of a subject is requested. In order to meet such a demand, even if the technique disclosed in Patent Document 1 described above is used, it is very difficult to set illumination so that a shadow is generated only at a specific portion. That is, in the technique disclosed in Patent Document 1, it is originally assumed that lighting is set in consideration of lighting so that the entire subject is as shadowless as possible. Even if this setting is made, it is very difficult to set an appropriate illumination, such as a shadow not being able to be produced well at a specific part, or conversely, a shadow being produced at another part that originally does not require a shadow.

本発明は、このような状況に鑑みてなされたものであり、所望の部分に対して所望のライティングがなされた状態の画像を得ることができる撮像装置、撮像方法及びプログラムを提供することを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to provide an imaging apparatus, an imaging method, and a program capable of obtaining an image in a state where desired lighting is performed on a desired portion. And

本発明の一態様によると、
各画素を発光することにより、画像を表示する表示手段と、
被写体を撮像することによって、撮像画像のデータを生成する撮像手段と、
前記表示手段の各画素のうち、一部の領域を構成する各画素を発光させることにより、前記被写体の一部を照射させる照明として前記領域を機能させた状態で、前記撮像手段に前記被写体を撮像させる制御を実行する制御手段と、
前記制御手段の制御により、前記表示手段の複数の領域のそれぞれが順次前記照明として機能した各状態で、前記被写体が前記撮像手段により順次撮像された場合、前記撮像手段により順次生成される複数の撮像画像のデータの各々について、一部分の領域のデータを切り出し画像のデータとしてそれぞれ生成する画像切出手段と、
前記画像切出手段により生成された前記複数の切り出し画像のデータを合成することによって、合成画像のデータを生成する画像合成手段と、
を備える撮像装置を提供する。
According to one aspect of the invention,
Display means for displaying an image by emitting light from each pixel;
Imaging means for generating captured image data by imaging a subject;
Among the pixels of the display means, each pixel constituting a part of the region is caused to emit light so that the region is functioned as illumination for illuminating a part of the subject, and the subject is applied to the imaging unit. Control means for executing control for imaging;
Under the control of the control means, when each of the plurality of regions of the display means sequentially functions as the illumination, and the subject is sequentially imaged by the imaging means, a plurality of images that are sequentially generated by the imaging means For each of the captured image data, image cutout means for generating a partial area data as cutout image data,
Image combining means for generating combined image data by combining the data of the plurality of clipped images generated by the image cutting means;
An imaging apparatus comprising:

本発明の別の態様によると、上述した本発明の一態様に係る撮像装置に対応する撮像方法及びプログラムを提供する。   According to another aspect of the present invention, there is provided an imaging method and program corresponding to the above-described imaging apparatus according to one aspect of the present invention.

本発明によれば、所望の部分に対して所望のライティングがなされた状態の画像を得ることが容易にできる。   According to the present invention, it is possible to easily obtain an image in a state where desired lighting is performed on a desired portion.

本発明の第1実施形態に係る撮像装置の外観を示す外観構成図である。1 is an external configuration diagram illustrating an external appearance of an imaging apparatus according to a first embodiment of the present invention. 本発明に係るライティングを説明するための模式図である。It is a schematic diagram for demonstrating the lighting which concerns on this invention. 図2(a)に示すライティングにより得られた撮像画像の左半分と、図2(b)に示すライティングにより得られた撮像画像の右半分と、を合成した結果得られる合成画像の一例を示している。2 shows an example of a composite image obtained as a result of combining the left half of the captured image obtained by the lighting shown in FIG. 2A and the right half of the captured image obtained by the lighting shown in FIG. ing. 図2(a)に示すライティングにより得られた撮像画像の右半分と、図2(b)に示すライティングにより得られた撮像画像の左半分と、を合成した結果得られる合成画像の一例を示している。2A shows an example of a composite image obtained as a result of combining the right half of the captured image obtained by the lighting shown in FIG. 2A and the left half of the captured image obtained by the lighting shown in FIG. ing. 図1の撮像装置1のハードウェアの構成を示すブロック図である。It is a block diagram which shows the hardware structure of the imaging device 1 of FIG. 本実施形態の撮像装置1についての、ライティングモード撮像処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing the lighting mode imaging process about the imaging device 1 of this embodiment. 第1実施形態のライティングモード撮像処理の手順を示す撮像シーケンスデータの構造の一例を示す図である。It is a figure which shows an example of the structure of the imaging sequence data which shows the procedure of the lighting mode imaging process of 1st Embodiment. 撮像処理の流れの一例を説明するフローチャートである。It is a flowchart explaining an example of the flow of an imaging process. モードスイッチ処理の詳細な流れの一例を説明するフローチャートである。It is a flowchart explaining an example of the detailed flow of a mode switch process. ライティングモード撮像処理の詳細な流れの一例を説明するフローチャートである。It is a flowchart explaining an example of the detailed flow of a writing mode imaging process. 第2実施形態に係る撮像装置1の外観の構成を示す図である。It is a figure which shows the structure of the external appearance of the imaging device 1 which concerns on 2nd Embodiment. 第2実施形態におけるライティングモード撮像処理の手順を示す撮像シーケンスデータの構造の一例を示す図である。It is a figure which shows an example of the structure of the imaging sequence data which shows the procedure of the lighting mode imaging process in 2nd Embodiment. 第2実施形態に係る撮像処理の流れの一例を説明するフローチャートである。It is a flowchart explaining an example of the flow of the imaging process which concerns on 2nd Embodiment. 第2実施形態に係るライト選択処理の流れの一例を説明するフローチャートである。It is a flowchart explaining an example of the flow of the light selection process which concerns on 2nd Embodiment. 第2実施形態に係るモードスイッチ処理の詳細な流れの一例を説明するフローチャートである。It is a flowchart explaining an example of the detailed flow of the mode switch process which concerns on 2nd Embodiment. 第2実施形態に係るライティングモード撮像処理の詳細な流れの一例を説明するフローチャートである。It is a flowchart explaining an example of the detailed flow of the lighting mode imaging process which concerns on 2nd Embodiment.

以下、本発明の一実施形態について図面を適宜参照しつつ説明する。
[第1実施形態]
図1は、本発明の第1実施形態に係る撮像装置1の外観を示す図である。
撮像装置1は、図1に示すように、フレーム11と、表示部21と、撮像部22と、を備える。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings as appropriate.
[First Embodiment]
FIG. 1 is a diagram illustrating an appearance of an imaging apparatus 1 according to the first embodiment of the present invention.
As illustrated in FIG. 1, the imaging device 1 includes a frame 11, a display unit 21, and an imaging unit 22.

フレーム11は、固定フレーム11Aと、回動フレーム11Bとを備える。
固定フレーム11Aは、表示部21の中央の上部以外の周囲を覆うように構成され、中央の上部に配置される回動フレーム11Bと連結する。
The frame 11 includes a fixed frame 11A and a rotating frame 11B.
11 A of fixed frames are comprised so that surroundings other than the center upper part of the display part 21 may be covered, and it connects with the rotation frame 11B arrange | positioned at the center upper part.

回動フレーム11Bは、表示部21の中央の上部に配置され、固定フレーム11Aと回動可能に連結される。回動フレーム11Bには、撮像開口部11Baが設けられる。本実施形態において、回動フレーム11Bは、撮像装置1の正面(表示部21の表示面が存在する面)から背面にかけて回動可能に構成される。   The rotating frame 11B is disposed at the upper center of the display unit 21 and is rotatably connected to the fixed frame 11A. The rotation frame 11B is provided with an imaging opening 11Ba. In the present embodiment, the rotation frame 11B is configured to be rotatable from the front surface (the surface on which the display surface of the display unit 21 exists) to the back surface of the imaging device 1.

撮像部22は、回動フレーム11B内に格納されており、撮像開口部11Baから被写体(例えば後述する図2の人物の顔100)を撮像可能に構成される。なお、撮像部22の詳細は後述する。   The imaging unit 22 is stored in the rotation frame 11B and configured to be able to image a subject (for example, a human face 100 in FIG. 2 described later) from the imaging opening 11Ba. Details of the imaging unit 22 will be described later.

表示部21は、例えばLCD(Liquid Crystal Display:液晶ディスプレイ)等で構成される。
表示部21は、各画素を発光することにより画像を表示する。この場合の各画素の明るさ(輝度)は可変可能であるため、本実施形態では、一定以上の明るさで発光する画素の集合体(以下、画素の集合体を「エリア」と適宜呼ぶ)は、表示部21の表示面を見るユーザ(後述する顔100を有するユーザ等)を照射する照明として機能する。
具体的には、図1(a)に示すように、ユーザ(後述する顔100を有するユーザ等)が表示部21の表示面をみる場合において、照明として機能するエリアとして、表示部21の左端部にはエリアAが設けられており、表示部21の右端部にはエリアBが設けられている。なお、表示部21の詳細は後述する。
The display unit 21 includes, for example, an LCD (Liquid Crystal Display).
The display unit 21 displays an image by emitting light from each pixel. In this case, since the brightness (luminance) of each pixel is variable, in this embodiment, an aggregate of pixels that emit light with a certain level of brightness (hereinafter, the aggregate of pixels is appropriately referred to as an “area”). Functions as illumination for irradiating a user (such as a user having the face 100 described later) viewing the display surface of the display unit 21.
Specifically, as shown in FIG. 1A, when a user (a user having a face 100 to be described later) looks at the display surface of the display unit 21, the left end of the display unit 21 serves as an area that functions as illumination. An area A is provided in the part, and an area B is provided in the right end part of the display part 21. Details of the display unit 21 will be described later.

次に、上述した外観構成を有する撮像装置1によるライティングを図2乃至図4を参照して説明する。   Next, lighting by the imaging apparatus 1 having the above-described external configuration will be described with reference to FIGS.

図2は、本発明に係るライティングを説明するための模式図である。
図2(a)は、エリアAが発光状態であり、エリアBが非発光状態であるライティングの場合における、被写体である人物の顔100の様子を表わしている。
図2(b)は、エリアAが非発光状態であり、エリアBが発光状態であるライティングの場合における、被写体である人物の顔100の様子を表わしている。
図2(a),(b)の(平面)と表記された図(以下、「平面図」と呼ぶ)は、上方から人物をみた場合の顔100の様子を表わしている。
図2(a),(b)の(正面)と表記された図(以下、「正面図」と呼ぶ)は、撮像部18から人物をみた場合の顔100の様子を表わしている。即ち、顔100は、正面図に示された状態で撮像画像に写り込むことになる。
図2(a),(b)の(切り出し)と表記された図(以下、「切り出し図」と呼ぶ)は、正面図の状態の顔100の左又は右反面を切り出した状態を表わしている。なお、当然ながら、実空間上の人物の顔100は切り出すことができないため、後述する画像処理によって、撮像画像から切り出された画像の様子が、切り出し図に示されていることになる。
FIG. 2 is a schematic diagram for explaining lighting according to the present invention.
FIG. 2A shows the state of the face 100 of the person who is the subject in the case of lighting in which the area A is in the light emission state and the area B is in the non-light emission state.
FIG. 2B shows the state of the face 100 of the person who is the subject in the case of lighting in which the area A is in a non-light emitting state and the area B is in a light emitting state.
2A and 2B (hereinafter referred to as “plan view”) represents a state of the face 100 when a person is viewed from above.
2A and 2B (front view) (hereinafter referred to as “front view”) represents the face 100 when a person is viewed from the imaging unit 18. That is, the face 100 appears in the captured image in the state shown in the front view.
2A and 2B (hereinafter referred to as “cutout view”) represents a state in which the left or right side of the face 100 in the front view state is cut out. . Naturally, since the human face 100 in the real space cannot be cut out, the state of the image cut out from the captured image by the image processing described later is shown in the cut-out diagram.

図2(a)に示すように、エリアAが発光状態で、エリアBが非発光状態であるライティングの場合、同図の平面図に示すように、エリアAからの光は、撮像部18からみて、人物の顔100の左側に照射されるがその右側には照射されない。このため、撮像部18からみて、人物の顔100の右側には影SAが生ずる。
このため、撮像部22が、図2(a)の状態のライティングで人物の顔100を撮像すると、同図の平面図に示すような撮像画像、即ち左側に影SAがある顔100が写った撮像画像のデータを生成することになる。
As shown in FIG. 2A, in the case of lighting in which the area A is in a light emission state and the area B is in a non-light emission state, the light from the area A is transmitted from the imaging unit 18 as shown in the plan view of FIG. By the way, the left side of the person's face 100 is irradiated, but the right side is not irradiated. For this reason, a shadow SA is generated on the right side of the human face 100 when viewed from the imaging unit 18.
For this reason, when the imaging unit 22 captures the human face 100 with the lighting in the state of FIG. 2A, a captured image as shown in the plan view of FIG. Data of the captured image is generated.

一方、図2(b)に示すように、エリアAが非発光状態で、エリアBが発光状態であるライティングの場合、同図の平面図に示すように、エリアBからの光は、撮像部18からみて、人物の顔100の右側に照射されるがその左側には照射されない。このため、撮像部18からみて、人物の顔100の右側には影SBが生ずる。
このため、撮像部22が、図2(b)の状態のライティングで人物の顔100を撮像すると、同図の平面図に示すような撮像画像、即ち右側に影SAがある顔100が写った撮像画像のデータを生成することになる。
On the other hand, as shown in FIG. 2B, in the case of lighting in which the area A is in a non-light-emitting state and the area B is in a light-emitting state, as shown in the plan view of FIG. As seen from FIG. 18, the right side of the person's face 100 is irradiated, but the left side is not irradiated. For this reason, a shadow SB is generated on the right side of the person's face 100 when viewed from the imaging unit 18.
For this reason, when the imaging unit 22 captures the human face 100 with the lighting in the state of FIG. 2B, the captured image as shown in the plan view of FIG. Data of the captured image is generated.

この場合、撮像装置1は、図2(a)の状態のライティングにより得られた撮像画像のデータから、影SAがある顔100の左反面を含む画像のデータ(同図の切り出し図参照)を切り出すことができる。同様に、撮像装置1は、図2(b)の状態のライティングにより得られた撮像画像のデータから、影SBがある顔100の右反面を含む画像のデータ(同図の切り出し図参照)を切り出すことができる。そして、撮像装置1は、このようにして切り出した2つのデータを合成することによって、図3に示すような合成画像のデータを生成することができる。   In this case, the imaging apparatus 1 uses image data including the left side of the face 100 with the shadow SA (see the cut-out diagram in the figure) from the captured image data obtained by the lighting in the state of FIG. Can be cut out. Similarly, the imaging apparatus 1 uses image data including the right side of the face 100 with the shadow SB from the captured image data obtained by the lighting in the state of FIG. Can be cut out. And the imaging device 1 can produce | generate the data of a synthesized image as shown in FIG. 3 by synthesize | combining two data cut out in this way.

図3は、図2(a)に示すライティングにより得られた撮像画像の左半分と、図2(b)に示すライティングにより得られた撮像画像の右半分と、を合成した結果得られる合成画像の一例を示している。
このように、本実施形態の撮像装置1は、図3に示すように、被写体の人物の顔100両側の輪郭部分に影SA,SBができている画像(合成画像)のデータを生成することができる。
3 shows a composite image obtained as a result of combining the left half of the captured image obtained by the lighting shown in FIG. 2A and the right half of the captured image obtained by the lighting shown in FIG. An example is shown.
As described above, the imaging apparatus 1 according to the present embodiment generates data of an image (composite image) in which shadows SA and SB are formed on the contour portions on both sides of the face 100 of the subject person as shown in FIG. Can do.

ここで、図3に示すような画像を鑑賞する鑑賞者は、顔100を実物よりも小さいと視認することになる。顔100の大きさ自体は変わらないものの、両側の輪郭部分が影SA,SBにより暗くなっているので、人間の目の錯覚により、両側の輪郭部分に影SA,SBが存在しない場合と比較して小さく認識されるからである。
このように、本実施形態の撮像装置1は、いわゆる小顔に見える画像のデータを生成することができる。
また、このような合成画像においては、鼻の影がはっきりと写り、鼻の稜線が明るく、鼻の根元が暗くなるため、鼻が鋭くかつ高く見え、近年の美顔と称される陰影をつけることができるという効果も奏することが可能になる。
Here, a viewer who views an image as shown in FIG. 3 visually recognizes that the face 100 is smaller than the actual object. Although the size of the face 100 itself does not change, the contour portions on both sides are darkened by the shadows SA and SB. Therefore, compared to the case where the shadows SA and SB are not present on the contour portions on both sides due to the illusion of human eyes. It is because it is recognized small.
As described above, the imaging device 1 of the present embodiment can generate image data that looks like a small face.
Also, in such a composite image, the shadow of the nose is clearly visible, the nose edge is bright, the base of the nose is dark, so the nose looks sharp and high, and a shadow called a beautiful face in recent years is added. It is also possible to achieve the effect of being able to.

換言すると、このように顔100が小顔に見える画像とは、顔100の両側の輪郭部分に影SA,SBを生じさせるためのライティングがなされた状態の画像である。
このようなライティングは、本実施形態の撮像装置1により容易に実現可能になったものであり、[背景技術]の欄で上述した従来の技術を適用しても実現が非常に困難である。従来の技術では、被写体の片側に対して光を照射するだけであり、その結果、被写体(本例では顔100)の逆側に影を作ることができるものの、当該被写体の両側に影を作ることができないからである。
In other words, the image in which the face 100 looks like a small face in this way is an image in a state in which lighting for generating the shadows SA and SB on the contour portions on both sides of the face 100 is performed.
Such lighting can be easily realized by the imaging apparatus 1 of the present embodiment, and it is very difficult to realize even if the conventional technique described above in the “Background Art” column is applied. In the conventional technique, only one side of the subject is irradiated with light, and as a result, although shadows can be made on the opposite side of the subject (face 100 in this example), shadows are made on both sides of the subject. Because you can't.

さらに、本実施形態の撮像装置1は、図4に示すように、影がない顔100を含む画像(合成画像)のデータを生成することができる。   Furthermore, as illustrated in FIG. 4, the imaging device 1 of the present embodiment can generate data of an image (composite image) including a face 100 without a shadow.

図4は、図2(a)に示すライティングにより得られた撮像画像の右半分と、図2(b)に示すライティングにより得られた撮像画像の左半分と、を合成した結果得られる合成画像の一例を示している。   FIG. 4 shows a composite image obtained as a result of combining the right half of the captured image obtained by the lighting shown in FIG. 2A and the left half of the captured image obtained by the lighting shown in FIG. An example is shown.

ここで、図2(a)に示すライティングにより得られた撮像画像の右半分には、エリア21Aという一方向からの照明で撮影された顔100の右半面(撮像部22からみて)が含まれている点に注目すべきである。
同様に、図2(b)に示すライティングにより得られた撮像画像の左半分には、エリア21Bという一方向からの照明で撮影された顔100の左半面(撮像部22からみて)が含まれている点に注目すべきである。
即ち、これらの顔100の右半面と左反面とが合成されると、不要な照明による光が重なって色味の変化が生じてしまうという従来の問題を発生させることなく、影がない顔100を含む画像が得られる点に注目すべきである。
Here, the right half of the captured image obtained by the lighting shown in FIG. 2A includes the right half (as viewed from the imaging unit 22) of the face 100 captured with illumination from one direction of the area 21A. It should be noted that.
Similarly, the left half of the captured image obtained by the lighting shown in FIG. 2B includes the left half surface (as viewed from the imaging unit 22) of the face 100 captured with illumination from one direction of the area 21B. It should be noted that.
That is, when the right half surface and the left side surface of the face 100 are combined, the face 100 without a shadow does not occur without causing the conventional problem that light due to unnecessary illumination overlaps to cause a change in color. It should be noted that an image including is obtained.

ここで、不要な照明による光が重なって色味の変化が生じてしまうという従来の問題とは、次のような問題をいう。
即ち、[背景技術]の欄で上述した従来の技術でも、複数方向から被写体を照明することで、被写体に影のない状態を作り出すこと自体は可能である。
しかし、この場合、被写体の少なくとも一部分では、複数方向のうちの少なくとも2方向からの照明により光が重なってしまう場合がある。この場合、光が重なってしまった部分について着目すると、当該部分に対して直接照射する方向からの照明以外は、本来不要な照明である。このような不要な照明により光が重なってしまった部分では、光が重なっていない他の部分との間に色味の差が生じてしまう。
このような色味の差を抑制しようとして、当該部分に対して直接照射する方向からの照明の光を強くすると、当該部分は実際の色見とは異なるものとなってしまう。
また、被写体の全ての部分で光が重ならないように照明を配置することは実質上不可能である。
このような問題が、不要な照明による光が重なって色味の変化が生じてしまうという従来の問題である。
Here, the conventional problem that a change in color occurs due to overlapping of light from unnecessary illumination refers to the following problem.
In other words, even with the conventional technique described above in the “Background Art” column, it is possible to create a shadow-free state on the subject by illuminating the subject from a plurality of directions.
However, in this case, light may overlap in at least a part of the subject due to illumination from at least two of a plurality of directions. In this case, when attention is paid to a portion where light overlaps, the illumination is originally unnecessary except for illumination from a direction in which the portion is directly irradiated. In a portion where light overlaps due to such unnecessary illumination, a color difference occurs between other portions where light does not overlap.
In order to suppress such a color difference, if the illumination light from the direction directly irradiating the part is increased, the part is different from the actual color appearance.
In addition, it is virtually impossible to arrange illumination so that light does not overlap in all parts of the subject.
Such a problem is a conventional problem in that light due to unnecessary illumination overlaps to cause a change in color.

以上まとめると、本実施形態の撮像装置1は、このような従来の問題を生じさせないライティングを容易に行うことができる。
これにより、図4に示すように、色味の変化が少なく、被写体の人物の顔100の表面の凹凸(即ち皺等)を強調することがない画像を得ることが可能になる。
In summary, the imaging apparatus 1 of the present embodiment can easily perform lighting that does not cause such a conventional problem.
As a result, as shown in FIG. 4, it is possible to obtain an image with little change in color and without emphasizing the unevenness (ie, wrinkles, etc.) on the surface of the face 100 of the subject person.

以上説明したように、本実施形態の撮像装置1は、上述したようなライティングを伴う撮像動作を複数回行い、各々の結果得られる複数の撮像画像のデータのうち、相異なる一部分通しを合成することによって、合成画像のデータを生成することができる。このような撮像装置1による一連の処理を、以下、「ライティングモード撮像処理」と呼ぶ。   As described above, the imaging apparatus 1 according to the present embodiment performs the imaging operation with lighting as described above a plurality of times, and synthesizes different partial images out of a plurality of captured image data obtained as a result. As a result, the data of the composite image can be generated. Such a series of processing by the imaging apparatus 1 is hereinafter referred to as “lighting mode imaging processing”.

次に、このようなライティングモード撮像処理を実行可能な撮像装置1の内部構成について説明する。
具体的には、まず、図1の撮像装置1のハードウェアの構成について説明する。
図5は、図1の撮像装置1のハードウェアの構成を示すブロック図である。
Next, an internal configuration of the imaging apparatus 1 capable of executing such a lighting mode imaging process will be described.
Specifically, first, the hardware configuration of the imaging apparatus 1 in FIG. 1 will be described.
FIG. 5 is a block diagram illustrating a hardware configuration of the imaging apparatus 1 of FIG.

撮像装置1は、上述した表示部21及び撮像部22に加えてさらに、CPU(Central Processing Unit)31と、ROM(Read Only Memory)32と、RAM(Random Access Memory)33と、画像処理部34と、バス35と、入出力インターフェース36と、操作部37と、記憶部38と、通信部39と、ドライブ40と、を備えている。   In addition to the display unit 21 and the imaging unit 22 described above, the imaging device 1 further includes a CPU (Central Processing Unit) 31, a ROM (Read Only Memory) 32, a RAM (Random Access Memory) 33, and an image processing unit 34. A bus 35, an input / output interface 36, an operation unit 37, a storage unit 38, a communication unit 39, and a drive 40.

CPU31は、ROM32に記録されているプログラム、又は、記憶部38からRAM33にロードされたプログラムに従って各種の処理を実行する。
RAM33には、CPU31が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 31 executes various processes according to a program recorded in the ROM 32 or a program loaded from the storage unit 38 to the RAM 33.
The RAM 33 appropriately stores data necessary for the CPU 31 to execute various processes.

画像処理部34は、DSP(Digital Signal Processor)や、VRAM(Video Random Access Memory)等から構成されており、CPU31と協働して、画像のデータに対して各種画像処理を施す。
例えば、画像処理部34は、撮像部22から出力される撮像画像のデータに対して、ノイズ低減、ホワイトバランス、手ぶれ補正等の画像処理を施す。
The image processing unit 34 includes a DSP (Digital Signal Processor), a VRAM (Video Random Access Memory), and the like, and performs various image processing on image data in cooperation with the CPU 31.
For example, the image processing unit 34 performs image processing such as noise reduction, white balance, and camera shake correction on the captured image data output from the imaging unit 22.

CPU31、ROM32、RAM33、画像処理部34は、バス35を介して相互に接続されている。このバス35にはまた、入出力インターフェース36も接続されている。入出力インターフェース36には、上述した表示部21及び撮像部22の他、操作部37、記憶部38、通信部39及びドライブ40が接続されている。   The CPU 31, ROM 32, RAM 33, and image processing unit 34 are connected to each other via a bus 35. An input / output interface 36 is also connected to the bus 35. In addition to the display unit 21 and the imaging unit 22 described above, an operation unit 37, a storage unit 38, a communication unit 39, and a drive 40 are connected to the input / output interface 36.

表示部21は、上述したようにLCDで構成され、記憶部38やリムーバブルメディア41にデータとして記憶されている各種画像を表示する他、上述したようにエリア21Aやエリア21B(図1)を一定の明るさ(輝度)以上で発光することにより照明としても機能する。   The display unit 21 is composed of an LCD as described above, and displays various images stored as data in the storage unit 38 and the removable medium 41. In addition, as described above, the area 21A and the area 21B (FIG. 1) are constant. It also functions as an illumination by emitting light at a brightness (luminance) or higher.

撮像部22は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 22 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、デジタル信号が生成され、撮像部22の出力信号として出力される。
この撮像部22の出力信号が、上述した「撮像画像のデータ」であるものとする。従って、撮像部22からは撮像画像のデータが出力されて、CPU31や画像処理部34や記憶部38等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the imaging unit 22.
It is assumed that the output signal of the imaging unit 22 is the “captured image data” described above. Accordingly, captured image data is output from the imaging unit 22 and is appropriately supplied to the CPU 31, the image processing unit 34, the storage unit 38, and the like.

操作部37は、各種ボタンやスイッチ等で構成され、ユーザの指示操作を受け付ける。操作部37、シャッターボタン(図示しせず)や後述するモードスイッチ(図示しせず)により構成される。   The operation unit 37 includes various buttons, switches, and the like, and accepts user instruction operations. An operation unit 37, a shutter button (not shown), and a mode switch (not shown) described later are configured.

記憶部38は、DRAM(Dynamic Random Access Memory)等で構成され、画像処理部34等から出力された画像のデータを記憶する。また、記憶部38は、画像処理部34等の処理に必要な各種データも記憶する。なお、記憶部38に記憶されるデータの詳細については後述する。   The storage unit 38 is configured by a DRAM (Dynamic Random Access Memory) or the like, and stores image data output from the image processing unit 34 or the like. The storage unit 38 also stores various data necessary for processing by the image processing unit 34 and the like. Details of data stored in the storage unit 38 will be described later.

通信部39は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。   The communication unit 39 controls communication performed with another device (not shown) via a network including the Internet.

ドライブ40には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア41が適宜装着される。ドライブ40によってリムーバブルメディア41から読み出されたプログラムは、必要に応じて記憶部38にインストールされる。また、リムーバブルメディア41は、記憶部38に記憶されている画像のデータ等の各種データも、記憶部38と同様に記憶することができる。例えば、リムーバブルメディア41には、本実施形態においては、合成画像等のデータが記憶される。   A removable medium 41 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 40. The program read from the removable medium 41 by the drive 40 is installed in the storage unit 38 as necessary. The removable medium 41 can also store various data such as image data stored in the storage unit 38 in the same manner as the storage unit 38. For example, the removable medium 41 stores data such as a composite image in the present embodiment.

以上、図5を参照して、本実施形態の撮像装置1のハードウェアの構成について説明した。
次に、このようなハードウェア構成の撮像装置1が有する機能のうち、ライティングモード撮像処理の実行機能を実現するための機能的構成について、図6を参照しながら説明する。
図6は、本実施形態の撮像装置1についての、ライティングモード撮像処理を実行するための機能的構成を示す機能ブロック図である。
The hardware configuration of the imaging apparatus 1 according to the present embodiment has been described above with reference to FIG.
Next, a functional configuration for realizing the execution function of the lighting mode imaging process among the functions of the imaging apparatus 1 having such a hardware configuration will be described with reference to FIG.
FIG. 6 is a functional block diagram showing a functional configuration for executing the lighting mode imaging process for the imaging apparatus 1 of the present embodiment.

ライティングモード撮像処理が実行される場合には、CPU31において、主制御部51と、記憶制御部52と、が機能する。   When the writing mode imaging process is executed, the main control unit 51 and the storage control unit 52 function in the CPU 31.

主制御部51は、CPU31内の記憶制御部52や、CPU31の外部のデバイス、例えば、表示部21、撮像部22、画像処理部34等を適宜制御することで、ライティングモード撮像処理を実行する。   The main control unit 51 executes the lighting mode imaging process by appropriately controlling the storage control unit 52 in the CPU 31 and devices external to the CPU 31, such as the display unit 21, the imaging unit 22, the image processing unit 34, and the like. .

例えば、主制御部51は、表示部21の表示領域のうち、上述したエリア21Aやエリア21Bを構成する各画素の明るさ(輝度)を一定以上にする制御することで、エリア21やエリア21Bを照明として機能させる。
なお、このようにエリア21Aやエリア21Bの各画素の明るさ(輝度)を、照明として機能するレベル(輝度値)以上にすることを、以下、「エリア21A点灯する」と表現する。一方、エリア21Aやエリア21Bの各画素の明るさ(輝度)を、照明として機能しないレベル(輝度値)以下にすることを、「消灯する」と表現する。
即ち、主制御部51は、表示部21のエリアとエリア22との各々の点灯と消灯とを独立して制御することによって、上述の図2(a)や図2(b)に示すライティング等、各種ライティングを実現する。
For example, the main control unit 51 controls the brightness (brightness) of each pixel constituting the above-described area 21A or area 21B in the display area of the display unit 21 to be a certain level or more, whereby the area 21 or the area 21B. To function as lighting.
Note that, in this way, setting the brightness (luminance) of each pixel in the area 21A and the area 21B to be equal to or higher than the level (luminance value) functioning as illumination is expressed as “the area 21A is lit”. On the other hand, setting the brightness (luminance) of each pixel in the area 21A and the area 21B to be equal to or less than a level (luminance value) that does not function as illumination is expressed as “turn off”.
That is, the main control unit 51 controls lighting and extinguishing of each of the area of the display unit 21 and the area 22 independently, so that the lighting shown in FIG. 2A and FIG. Realize various lighting.

また例えば、主制御部51は、上述の図2(a)や図2(b)に示すライティング等、各種ライティングを実現した状態で、撮像部22に被写体を撮像させる制御を実行する。
具体的には例えば、まず、主制御部51は、1回目の撮像として、上述の図2(a)に示すライティングの状態で撮像部22が顔100を撮像するように制御する。これにより、図2(a)の正面図に示すような撮像画像、即ち左側に影SAが生じた顔100を含む撮像画像のデータが、撮像部22から出力されて画像処理部34に供給される。
次に、主制御部51は、2回目の撮像として、上述の図2(b)に示すライティングの状態で撮像部22が顔100を撮像するように制御する。これにより、図2(b)の正面図に示すように右側に影SBが生じた顔100を含む撮像画像のデータが、撮像部22から出力されて画像処理部34に供給される。
詳細については、画像処理部34の機能的構成を説明する際に後述するが、画像処理部34において、1回目及び2回目の各撮像画像のデータから、図4に示す合成画像、即ち、左側に影SAが生じると共に右側に影SBが生じた顔100の合成画像のデータが生成され、CPU31の記憶制御部52に供給される。
Further, for example, the main control unit 51 executes control for causing the imaging unit 22 to image the subject in a state in which various types of lighting such as the lighting shown in FIGS. 2A and 2B are realized.
Specifically, for example, first, the main control unit 51 performs control so that the imaging unit 22 captures the face 100 in the lighting state illustrated in FIG. Thereby, the captured image as shown in the front view of FIG. 2A, that is, the data of the captured image including the face 100 with the shadow SA on the left side is output from the imaging unit 22 and supplied to the image processing unit 34. The
Next, the main control unit 51 performs control so that the imaging unit 22 images the face 100 in the lighting state illustrated in FIG. As a result, as shown in the front view of FIG. 2B, captured image data including the face 100 with the shadow SB on the right side is output from the imaging unit 22 and supplied to the image processing unit 34.
Details will be described later when the functional configuration of the image processing unit 34 is described. In the image processing unit 34, the synthesized image shown in FIG. The data of the composite image of the face 100 in which the shadow SA is generated and the shadow SB is generated on the right side is generated and supplied to the storage control unit 52 of the CPU 31.

記憶制御部52は、主制御部51の制御に基づいて、後述する画像処理部34から供給される合成画像(図3や図4参照)のデータ等をリムーバブルメディア41に記憶させる制御を実行する。
なお、記憶制御部52の制御によるデータの記憶先は、本実施形態ではリムーバブルメディア41とされているが特にこれに限定されず、その他、記憶部38や、通信部39を介して接続される他の装置内であってもよい。
Based on the control of the main control unit 51, the storage control unit 52 executes control for storing data of a composite image (see FIG. 3 and FIG. 4) supplied from the image processing unit 34 described later in the removable medium 41. .
Note that the storage destination of data by the control of the storage control unit 52 is the removable medium 41 in the present embodiment, but is not particularly limited thereto, and is connected via the storage unit 38 or the communication unit 39. It may be in another device.

以上説明した主制御部51及び記憶制御部52は、本実施形態では、CPU31と、当該CPU31により実行されるプログラムとの組み合わせ、即ち、ハードウェアとソフトウェアとの組み合わせにより構成されている。しかしながら、これは例示にすぎず、主制御部51や記憶制御部52の機能の少なくとも一部を、CPU31以外の他の構成要素(画像処理部14等)に移譲させることも当然可能である。   In the present embodiment, the main control unit 51 and the storage control unit 52 described above are configured by a combination of the CPU 31 and a program executed by the CPU 31, that is, a combination of hardware and software. However, this is merely an example, and it is naturally possible to transfer at least part of the functions of the main control unit 51 and the storage control unit 52 to other components (such as the image processing unit 14) other than the CPU 31.

次に、画像処理部34の機能的構成について説明する。
ライティングモード撮像処理が実行される場合には、画像処理部34においては、画像切出部61と、画像合成部62と、が機能する。
なお、画像切出部61及び画像合成部62が、画像処理部34に設けられていることは例示にすぎず、画像切出部61及び画像合成部62の少なくとも一部を、画像処理部34以外の他の構成要素(CPU31等)に移譲させることも当然可能である。
Next, a functional configuration of the image processing unit 34 will be described.
When the writing mode imaging process is executed, the image cutting unit 61 and the image composition unit 62 function in the image processing unit 34.
Note that the image cutout unit 61 and the image composition unit 62 are provided in the image processing unit 34 is merely an example, and at least a part of the image cutout unit 61 and the image composition unit 62 is replaced with the image processing unit 34. Of course, it is also possible to transfer to other components (CPU31 etc.).

画像切出部61は、主制御部51の制御に基づいて、撮像部22から供給された撮像画像のデータから、当該撮像画像の一部の領域のデータを部分的に切り出す。以下、画像切出部61により切り出される画像のデータを「切り出し画像のデータ」と呼ぶ。
具体的には、画像切出部61は、撮像画像のデータから、ライティングの状態に対応した領域のデータを、切り出し画像のデータとして生成する。
より具体的には例えば、上述の例の撮像部22の1回目の撮像では、上述の図2(a)に示すライティングの状態であったため、図2(a)の正面図に示すような撮像画像、即ち左側に影SAが生じた顔100を含む撮像画像のデータが画像切出部61に供給される。そこで、画像切出部61は、このようなライティングの状態に対応した領域、即ち、影SAが生じた顔100の左半面を含む領域(図2(a)の切り出し図に示す領域)のデータを、1回目の切り出し画像のデータとして生成する。
また例えば、上述の例の撮像部22の2回目の撮像では、上述の図2(b)に示すライティングの状態であったため、図2(b)の正面図に示すような撮像画像、即ち右側に影SBが生じた顔100を含む撮像画像のデータが画像切出部61に供給される。そこで、画像切出部61は、このようなライティングの状態に対応した領域、即ち、影SBが生じた顔100の右半面を含む領域(図2(b)の切り出し図に示す領域)のデータを、2回目の切り出し画像のデータとして生成する。
Based on the control of the main control unit 51, the image cutout unit 61 partially cuts out data of a partial area of the captured image from the captured image data supplied from the imaging unit 22. Hereinafter, data of an image cut out by the image cutout unit 61 is referred to as “cutout image data”.
Specifically, the image cutout unit 61 generates data of a region corresponding to the lighting state from the captured image data as cutout image data.
More specifically, for example, in the first imaging of the imaging unit 22 in the above-described example, since the lighting state illustrated in FIG. 2A is described above, the imaging as illustrated in the front view of FIG. Image data, that is, data of a captured image including the face 100 with the shadow SA on the left side is supplied to the image cutout unit 61. Therefore, the image cutout unit 61 stores data corresponding to such a lighting state, that is, data of a region including the left half of the face 100 in which the shadow SA is generated (region shown in the cut-out diagram in FIG. 2A). Are generated as data of the first cut-out image.
Further, for example, in the second imaging of the imaging unit 22 in the above-described example, since the lighting state illustrated in FIG. 2B is described above, the captured image illustrated in the front view of FIG. Data of the captured image including the face 100 in which the shadow SB is generated is supplied to the image cutout unit 61. Therefore, the image cutout unit 61 stores data in an area corresponding to such a lighting state, that is, an area including the right half of the face 100 in which the shadow SB is generated (an area shown in the cut-out diagram in FIG. 2B). Are generated as data of the second cut-out image.

画像合成部62は、主制御部51の制御に基づいて、画像切出部61により生成された2以上の切り出し画像のデータを合成することによって、合成画像のデータを生成する。
具体的には例えば、上述の例では、撮像部22の2回の撮像の後、画像切出部61により、影SAが生じた顔100の左半面を含む切り出し画像(図2(a)の切り出し図参照)と、影SBが生じた顔100の右半面を含む切り出し画像(図2(b)の切り出し図参照)と、の各データが生成されて、画像合成部62に供給されている。
この場合、画像合成部62は、これら2枚の切り出し画像のデータを合成することによって、図4に示す合成画像、即ち、左側に影SAが生じると共に右側に影SBが生じた顔100の合成画像のデータを生成し、CPU31の記憶制御部52に供給する。
すると、上述したように、記憶制御部52の制御により、当該合成画像のデータはリムーバブルメディア41等に記憶される。
Based on the control of the main control unit 51, the image composition unit 62 synthesizes data of two or more clipped images generated by the image cutout unit 61 to generate composite image data.
Specifically, for example, in the above-described example, after the image capturing unit 22 captures the image twice, the image cropping unit 61 includes a cut-out image including the left half of the face 100 in which the shadow SA has occurred (in FIG. 2A). Each data of a cutout image including the right half of the face 100 in which the shadow SB is generated (see the cutout drawing of FIG. 2B) is generated and supplied to the image composition unit 62. .
In this case, the image combining unit 62 combines the data of these two cut-out images to combine the combined image shown in FIG. 4, that is, the face 100 in which the shadow SA is generated on the left side and the shadow SB is generated on the right side. Image data is generated and supplied to the storage control unit 52 of the CPU 31.
Then, as described above, the composite image data is stored in the removable medium 41 or the like under the control of the storage control unit 52.

以上、図6を参照して、ライティングモード撮像処理の実行機能を実現するための撮像装置1の機能的構成について説明した。   The functional configuration of the imaging apparatus 1 for realizing the execution function of the lighting mode imaging process has been described above with reference to FIG.

ここで、記憶部38には、図7に示すように、撮像シーケンスデータが記憶されている。
撮像シーケンスデータとは、ライティングモード撮像処理の手順が設定されたデータである。CPU31の主制御部51は、この撮像シーケンスデータに従って、ライティングモード撮像処理を実行する。
図7は、第1実施形態のライティングモード撮像処理の手順を示す撮像シーケンスデータの構造の一例を示す図である。
Here, as shown in FIG. 7, imaging sequence data is stored in the storage unit 38.
The imaging sequence data is data in which the procedure of the lighting mode imaging process is set. The main control unit 51 of the CPU 31 executes the lighting mode imaging process according to the imaging sequence data.
FIG. 7 is a diagram illustrating an example of a structure of imaging sequence data indicating a procedure of the lighting mode imaging process according to the first embodiment.

本実施形態において、図7の撮像シーケンスデータは行列構造を有しているため、以下、図7中横方向の項目の集合体を「行」と称し、同図中縦方向の項目の集合体を「列」と呼ぶ。所定の行には、所定の手順が対応付けられている。即ち、所定の行には、当該行に対応する手順を特定するために、「順番」及び「撮像シーケンス」という項目がそれぞれ配置されている。
上から第k行目(kは、1乃至手順の総数の範囲内の整数値であって、図7の例では1乃至6の範囲内の整数値。ただし、図7の項目名が記載された一番上の行は除外する)の「順番」には、ライティングモード撮像処理における処理順番として、kが格納される。
上から第k行目の「撮像シーケンス」には、ライティングモード撮像処理におけるk番目に実行すべき処理の内容が格納される。
即ち、ライティングモード撮像処理は、各行の「撮像シーケンス」に記載された内容の各処理が上から順に順次実行されていくことで実現される。
なお、図7の例の撮像シーケンスに従って作成されるフローチャートが、本実施形態におけるライティングモード撮像処理であり、図10に示されている。そこで、撮像シーケンスの各行の「撮像シーケンス」に記載された内容の各処理の説明については、図10の説明として後述する。
In the present embodiment, since the imaging sequence data in FIG. 7 has a matrix structure, a collection of items in the horizontal direction in FIG. 7 is hereinafter referred to as “row”, and a collection of items in the vertical direction in FIG. Is called a "column". A predetermined procedure is associated with the predetermined line. In other words, items “order” and “imaging sequence” are arranged in a predetermined row in order to specify a procedure corresponding to the row.
The k-th row from the top (k is an integer value within the range of 1 to the total number of procedures, and in the example of FIG. 7, it is an integer value within the range of 1 to 6. However, the item name of FIG. 7 is described. “Excludes the top row”) stores “k” as the processing order in the lighting mode imaging process.
The “imaging sequence” in the k-th row from the top stores the contents of the process to be executed k-th in the lighting mode imaging process.
That is, the lighting mode imaging process is realized by sequentially executing the processes described in the “imaging sequence” of each row in order from the top.
Note that the flowchart created according to the imaging sequence of the example of FIG. 7 is the lighting mode imaging process in the present embodiment, and is shown in FIG. Therefore, the description of each process described in the “imaging sequence” in each row of the imaging sequence will be described later as the description of FIG.

なお、撮像シーケンスデータは、記憶部38に記憶されていることは例示にすぎず、その他、例えばリムーバブルメディア41等に記憶されていてもよい。
また、撮像シーケンスデータは、ユーザが任意に設定可能なデータである。即ち、ユーザは、操作部37を操作して、所望の各種処理を所望の順番で組み合わせた撮像シーケンスデータを登録することができる。換言すると、撮像シーケンスデータの図7の内容は例示に過ぎない。
Note that the imaging sequence data stored in the storage unit 38 is merely an example, and may be stored in, for example, the removable medium 41 or the like.
The imaging sequence data is data that can be arbitrarily set by the user. That is, the user can register imaging sequence data obtained by combining various desired processes in a desired order by operating the operation unit 37. In other words, the contents of FIG. 7 of the imaging sequence data are merely examples.

以上、ライティングモード撮像処理を実現することができる撮像装置1の機能的構成について説明した。
次に、図8乃至図10を参照して、図6の機能的構成を有する撮像装置1が実行する撮像処理の流れについて説明する。
ここでいう撮像処理とは、表示部21によるライティングを伴うライティングモード撮像処理と、表示部21によるライティングを伴わない撮像処理とのうち、ユーザにより選択された処理が実行されるまでの一連の処理をいう。
即ち、本実施形態においては、撮像装置1の撮像時の動作モードとして、「ライティングモード」及び「ノーマルモード」の2つのモードが設けられている。ユーザは、操作部37に対して所定の操作をすることで、これらの2つのモードの中から所望のモードを選択することができる。
The functional configuration of the imaging apparatus 1 that can realize the lighting mode imaging process has been described above.
Next, with reference to FIGS. 8 to 10, the flow of the imaging process executed by the imaging apparatus 1 having the functional configuration of FIG. 6 will be described.
The imaging process here refers to a series of processes until a process selected by the user is executed among a lighting mode imaging process with lighting by the display unit 21 and an imaging process without lighting by the display unit 21. Say.
That is, in the present embodiment, two modes of “lighting mode” and “normal mode” are provided as operation modes at the time of imaging of the imaging apparatus 1. The user can select a desired mode from these two modes by performing a predetermined operation on the operation unit 37.

図8は、このような撮像処理の流れの一例を説明するフローチャートである。
撮像処理は、例えば、撮像装置1の電源が投入されて、ユーザによる操作部37に対しする所定の操作がなされて、撮像の動作の開始が指示されたことを契機として開始する。
FIG. 8 is a flowchart for explaining an example of the flow of such imaging processing.
The imaging process is started when, for example, the imaging apparatus 1 is turned on, a predetermined operation is performed on the operation unit 37 by the user, and an instruction to start an imaging operation is given.

ステップS1において、図6の主制御部51は、撮像装置1についての各種初期設定を行うためのイニシャライズ処理を実行する。   In step S <b> 1, the main control unit 51 in FIG. 6 executes initialization processing for performing various initial settings for the imaging apparatus 1.

ステップS2において、主制御部51は、モードスイッチ処理を実行する。
モードスイッチ処理とは、複数のモードの中から、1のモードを選択的に切り替えて設定する処理である。
本実施形態において、上述したように、撮像時の動作モードとして、デフォルトで設定されているノーマルモードと、ライティングモードとの2つのモードが選択的に設定可能とされている。
なお、モードスイッチ処理の詳細については、図9のフローチャートを参照して後述する。
In step S2, the main control unit 51 executes a mode switch process.
The mode switch process is a process for selectively switching and setting one mode from a plurality of modes.
In the present embodiment, as described above, two modes of the normal mode and the lighting mode that are set by default can be selectively set as the operation mode at the time of imaging.
Details of the mode switch process will be described later with reference to the flowchart of FIG.

ステップS3において、主制御部51は、SHTFは1であるか否かを判定する。
SHTFとは、スイッチフラグの略語である。スイッチフラグとは、撮像画像の記録指示がなされている場合には「1」が設定され、なされていない場合には「0」が設定されるフラグである。
SHTFが「0」の場合、ステップS3においてNOであると判定されて、処理はステップS7に進む。ただし、ステップS7以降の処理は後述する。
これに対して、SHTFが「1」の場合、ステップS3においてYESであると判定されて、処理はステップS4に進む。
In step S3, the main control unit 51 determines whether or not SHTF is 1.
SHTF is an abbreviation for switch flag. The switch flag is a flag in which “1” is set when an instruction to record a captured image is given, and “0” is set when the instruction is not made.
When SHTF is “0”, it is determined as NO in Step S3, and the process proceeds to Step S7. However, the processing after step S7 will be described later.
On the other hand, when SHTF is “1”, it is determined as YES in Step S3, and the process proceeds to Step S4.

ステップS4において、主制御部51は、撮像時の動作モードとしてライティングモードが設定されているか否かを判定する。   In step S4, the main control unit 51 determines whether or not the lighting mode is set as the operation mode during imaging.

ライティングモードが設定されている場合には、ステップS4においてYESであると判定されて、処理はステップS5に進む。
ステップS5において、撮像装置1は、ライティングモード撮像処理を実行する。
本実施形態では、ライティングモード撮像処理は、上述の図7に示す撮像シーケンスに従って実行される。
なお、ライティングモード撮像処理の詳細については、図10を参照して後述する。
If the lighting mode is set, it is determined as YES in step S4, and the process proceeds to step S5.
In step S5, the imaging apparatus 1 executes a lighting mode imaging process.
In the present embodiment, the lighting mode imaging process is executed according to the imaging sequence shown in FIG.
Details of the lighting mode imaging process will be described later with reference to FIG.

このようなライティングモードではなく、ノーマルモードが設定されている場合には、ステップS4においてNOであると判定されて、処理はステップS6に進む。
ステップS6において、撮像装置1は、ノーマルモード撮像処理を実行する。
ノーマル撮像処理とは、表示部21を照明機能として働かせていない状態で、撮像部22が通常の撮像動作を行い、その結果得られる撮像画像のデータを保存するまでの一連の処理をいう。
なお、本実施形態のノーマル撮像処理は、撮像画像のデータが保存された後、SHTF(スイッチフラグ)が「1」から「0」に変更されて終了する。
When the normal mode is set instead of such a lighting mode, it is determined as NO in Step S4, and the process proceeds to Step S6.
In step S6, the imaging apparatus 1 executes normal mode imaging processing.
The normal imaging process refers to a series of processes from when the imaging unit 22 performs a normal imaging operation in a state where the display unit 21 is not functioning as an illumination function and to store captured image data obtained as a result.
Note that the normal imaging process of the present embodiment ends when the captured image data is saved and then the SHTF (switch flag) is changed from “1” to “0”.

このようにして、SHTFが1であるとしてステップS3の処理でYESであると判定された場合には、ライティングモードが設定されているとき(ステップS4の処理でYESであると判定されたとき)にはステップS5のライティングモード撮像処理が実行され、また、ノーマルモードが設定されているとき(ステップS4の処理でNOであると判定されたとき)にはステップS6のノーマルモード撮像処理が実行される。これらの撮像処理が終了すると、処理はステップS7に進む。
また、SHTFが0であるとしてステップS3の処理でNOであると判定された場合には、ステップS5のライティングモード撮像処理やステップS6のノーマルモード撮像処理は実行されずに、処理はステップS7に進む。
Thus, when it is determined that the SHTF is 1 and YES in the process of step S3, the lighting mode is set (when it is determined YES in the process of step S4). The lighting mode imaging process of step S5 is executed, and when the normal mode is set (when it is determined NO in the process of step S4), the normal mode imaging process of step S6 is executed. The When these imaging processes are completed, the process proceeds to step S7.
If it is determined that SHTF is 0 and NO in step S3, the lighting mode imaging process in step S5 and the normal mode imaging process in step S6 are not executed, and the process proceeds to step S7. move on.

ステップS7において、主制御部51は、処理の終了が指示されたか否かを判定する。
処理の終了の指示は、特に限定されない。例えば本実施形態では、別の動作モードに切り替える指示、例えば撮像装置1はデジタルフォトフレームで構成されているので画像の表示指示が、処理の終了の指示の1つとして採用されている。また例えば本実施形態では、撮像装置1の電源を切る指示も、処理の終了の指示の1つとして採用されている。
このような処理の終了の指示がなされていない場合、ステップS7においてNOであると判定されて、処理はステップS2に戻される。即ち、処理の終了の指示がなされるまでの間、ステップS2乃至S7のループ処理が繰り返し実行されて、その都度、SHTFが1である場合にはライティングモード撮像処理又はノーマルモード撮像処理が実行される。
その後、処理の終了の指示がなされた場合、ステップS7においてYESであると判定されて、撮像処理は終了になる。
In step S7, the main control unit 51 determines whether or not an instruction to end the process has been issued.
The instruction to end the process is not particularly limited. For example, in this embodiment, an instruction to switch to another operation mode, for example, an image display instruction is adopted as one of the instructions to end the process because the imaging apparatus 1 is configured with a digital photo frame. For example, in the present embodiment, an instruction to turn off the power of the imaging apparatus 1 is also adopted as one of the instructions for ending the process.
When such an instruction to end the process is not given, it is determined as NO in Step S7, and the process returns to Step S2. In other words, the loop process of steps S2 to S7 is repeatedly executed until an instruction to end the process is made, and each time the SHTF is 1, the lighting mode imaging process or the normal mode imaging process is executed. The
Thereafter, when an instruction to end the process is given, it is determined as YES in Step S7, and the imaging process ends.

以上、図8を参照して、図6の機能的構成を有する撮像装置1が実行する撮像処理の流れについて説明した。次に、上述した撮像処理のうち、ステップS2のモードスイッチ処理の詳細な流れについて、図9を参照しながら説明する。
図9は、モードスイッチ処理の詳細な流れの一例を説明するフローチャートである。
The flow of the imaging process executed by the imaging apparatus 1 having the functional configuration of FIG. 6 has been described above with reference to FIG. Next, a detailed flow of the mode switch process in step S2 in the above-described imaging process will be described with reference to FIG.
FIG. 9 is a flowchart for explaining an example of a detailed flow of the mode switch process.

撮像処理においては、上述したように、ステップS1の処理でイニシャライズ処理が実行されると、処理はステップS2に進み、モードスイッチ処理として、次のようなステップS21乃至ステップS24の一連の処理が実行される。   In the imaging process, as described above, when the initialization process is executed in the process of step S1, the process proceeds to step S2, and the following series of processes of step S21 to step S24 are executed as the mode switch process. Is done.

ステップS21において、図6の主制御部51は、モードスイッチがON状態であるか否かを判定する。
モードスイッチとは、操作部37を構成する各種ボタンや各種スイッチのうち、撮像装置1の撮像の動作のモードを切り替える場合にユーザにより押下されるスイッチであり、図示はしないが、フレーム11(図1)に設けられている。なお、本実施形態では、モードスイッチは、物理スイッチとして構成されているが、特にこれに限られず、GUI(Graphical User Interface)用の画像に表示されるソフトウェアスイッチとして構成されてもよい。
In step S21, the main control unit 51 in FIG. 6 determines whether or not the mode switch is in the ON state.
The mode switch is a switch that is pressed by the user when switching the imaging operation mode of the imaging apparatus 1 among the various buttons and various switches constituting the operation unit 37. Although not shown, the frame 11 (see FIG. 1). In the present embodiment, the mode switch is configured as a physical switch. However, the mode switch is not particularly limited thereto, and may be configured as a software switch displayed on an image for GUI (Graphical User Interface).

モードスイッチがON状態の場合、ステップS21においてYESであると判定されて、処理はステップS22に進む。
ステップS22において、主制御部51は、モード反転を実行する。
モード反転とは、撮像装置1の撮像の動作のモードを、ノーマルモードとライティングモードとのうち、これまで設定されていた一方から、他方に設定を切り替える処理をいう。
When the mode switch is in the ON state, it is determined as YES in Step S21, and the process proceeds to Step S22.
In step S22, the main control unit 51 executes mode inversion.
The mode inversion refers to a process of switching the setting of the imaging operation mode of the imaging apparatus 1 from one of the normal mode and the lighting mode to the other.

モード反転が実行されると、処理はステップS23に進む。なお、モードスイッチがOFF状態の場合、モード反転が不要であるので、ステップS21においてNOであると判定されて、ステップS22の処理は実行されずに、処理はステップS23に進む。   When mode inversion is executed, the process proceeds to step S23. When the mode switch is in the OFF state, it is not necessary to reverse the mode. Therefore, it is determined as NO in step S21, and the process proceeds to step S23 without executing the process in step S22.

ステップS23において、主制御部51は、シャッターボタンがON状態であるか否かを判定する。
シャッターボタンとは、操作部37を構成する各種ボタンや各種スイッチのうち、被写体を撮像してその結果得られる撮像画像のデータを保存する指示をする場合にユーザにより押下されるスイッチであり、図示はしないが、フレーム11(図1)に設けられている。なお、本実施形態では、シャッターボタンは、物理スイッチとして構成されているが、特にこれに限られず、GUI用の画像に表示されるソフトウェアスイッチとして構成されてもよい。
In step S23, the main control unit 51 determines whether or not the shutter button is in the ON state.
The shutter button is a switch that is pressed by the user when an instruction is given to save an image of a captured image obtained as a result of imaging a subject among various buttons and various switches constituting the operation unit 37. Although not, it is provided on the frame 11 (FIG. 1). In this embodiment, the shutter button is configured as a physical switch. However, the present invention is not limited to this, and the shutter button may be configured as a software switch displayed on a GUI image.

シャッターボタンがOFF状態である場合(シャッターボタンが押下されていない場合)、ステップS23においてNOであると判定されて、モードスイッチ処理は終了する。即ち図8のステップS2の処理が終了して、処理はステップS3に進む。この場合、SHTFは「0」に設定されたままであるので、ステップS3の処理でNOであると判定されて、ステップS5のライティングモード撮像処理やステップS6のノーマルモード撮像処理は実行されないことになる。   When the shutter button is in the OFF state (when the shutter button is not pressed), it is determined as NO in step S23, and the mode switch process ends. That is, the process of step S2 in FIG. 8 ends, and the process proceeds to step S3. In this case, since SHTF remains set to “0”, it is determined as NO in the process of step S3, and the lighting mode imaging process of step S5 and the normal mode imaging process of step S6 are not executed. .

これに対して、シャッターボタンがON状態である場合(シャッターボタンが押下された場合)、ステップS23においてYESであると判定されて、処理はステップS24に進む。
ステップS24において、主制御部51は、SHTFを「0」から「1」に設定する(SHIFT←1)。
これにより、モードスイッチ処理は終了する。即ち図8のステップS2の処理が終了して、処理はステップS3に進む。この場合、SHTFは「1」に設定されているので、ステップS3の処理でYESであると判定されて、ステップS5のライティングモード撮像処理又はステップS6のノーマルモード撮像処理が実行されることになる。
On the other hand, when the shutter button is in the ON state (when the shutter button is pressed), it is determined as YES in Step S23, and the process proceeds to Step S24.
In step S24, the main control unit 51 sets SHTF from “0” to “1” (SHIFT ← 1).
As a result, the mode switch process ends. That is, the process of step S2 in FIG. 8 ends, and the process proceeds to step S3. In this case, since SHTF is set to “1”, it is determined as YES in the process of step S3, and the lighting mode imaging process of step S5 or the normal mode imaging process of step S6 is executed. .

以上、図8の撮像処理のうち、ステップS2のモードスイッチ処理について説明した。
次に、当該撮像処理のうち、ステップS5のライティングモード撮像処理の詳細な流れについて、図10を参照して説明する。
図10は、ライティングモード撮像処理の詳細な流れの一例を説明するフローチャートである。
In the above, the mode switch process of step S2 was demonstrated among the imaging processes of FIG.
Next, a detailed flow of the lighting mode imaging process in step S5 in the imaging process will be described with reference to FIG.
FIG. 10 is a flowchart illustrating an example of a detailed flow of the lighting mode imaging process.

上述したように、ステップS2のモードスイッチ処理において、ライティングモードが設定され、かつ、シャッターボタンの押下に伴いSHTFが「1」に設定されると、ステップS3,S4の各処理でそれぞれYESであると判定される。これにより、ステップS5のライティングモード処理として、次のようなステップS41乃至ステップS49の一連の処理が実行される。   As described above, when the lighting mode is set in the mode switch process in step S2 and SHTF is set to “1” as the shutter button is pressed, YES is obtained in each process in steps S3 and S4. It is determined. As a result, the following series of processing from step S41 to step S49 is executed as the lighting mode processing in step S5.

ステップS41において、主制御部51は、表示部21のうち第1エリアのみ全点灯させる(第2エリアは消灯させる)。
例えば、第1エリアとして、表示部21をみるユーザ(被写体)からみて左側のエリア21Aが設定されているものとする。即ち図7の撮像シーケンスデータにおいてそのような設定がなされているものとする。
この場合、エリア21Aのみが全点灯し(エリア21Bが消灯し)、図2(a)のライティングの状態、即ち、被写体たるユーザの顔100の左側(ユーザからみて)が照射されるライティングの状態になる。
In step S41, the main control unit 51 turns on only the first area of the display unit 21 (turns off the second area).
For example, it is assumed that an area 21A on the left side as viewed from the user (subject) viewing the display unit 21 is set as the first area. That is, it is assumed that such setting is made in the imaging sequence data of FIG.
In this case, only the area 21A is fully lit (the area 21B is turned off), and the lighting state in FIG. 2A, that is, the lighting state in which the left side (viewed by the user) of the user's face 100 as the subject is irradiated. become.

ステップS42において、主制御部51は、ステップS41の処理の後第1エリアのみが全点灯した状態で撮像部22に被写体を撮像させ、その結果撮像部22から出力されてくる撮像画像のデータを、第1画像のデータとして画像切出部61に取り込ませる。
上述の例では、図2(a)のライティングの状態で撮像されるので、ユーザの顔100の左側(撮像画像をみる人からみて)に影SAが出た撮像画像のデータが、第1画像のデータとして画像切出部61に取り込まれる。
In step S42, the main control unit 51 causes the imaging unit 22 to image the subject in a state where only the first area is completely lit after the process of step S41, and as a result, the captured image data output from the imaging unit 22 is captured. Then, the data is taken into the image cutting unit 61 as the first image data.
In the above example, since the image is captured in the lighting state of FIG. 2A, the captured image data in which the shadow SA appears on the left side of the user's face 100 (as viewed from the person viewing the captured image) is the first image. The data is taken into the image cutout unit 61.

ステップS43において、主制御部51は、表示部21のうち第2エリアのみ全点灯させる(第1エリアは消灯させる)。
例えば、第2エリアとして、表示部21をみるユーザ(被写体)からみて右側のエリア21Bが設定されているものとする。即ち、図7の撮像シーケンスデータにおいてそのような設定がなされているものとする。
この場合、エリア21Bのみが全点灯し(エリア21Aが消灯し)、図2(b)のライティングの状態、即ち、被写体たるユーザの顔100の右側(ユーザからみて)が照射されるライティングの状態になる。
In step S43, the main control unit 51 turns on only the second area of the display unit 21 (the first area is turned off).
For example, it is assumed that the area 21B on the right side as viewed from the user (subject) viewing the display unit 21 is set as the second area. That is, it is assumed that such a setting is made in the imaging sequence data of FIG.
In this case, only the area 21B is fully lit (the area 21A is turned off), and the lighting state in FIG. 2B, that is, the lighting state in which the right side (viewed by the user) of the user's face 100 as the subject is irradiated. become.

ステップS44において、主制御部51は、ステップS43の処理の後第2エリアのみが全点灯した状態で撮像部22に被写体を撮像させ、その結果撮像部22から出力されてくる撮像画像のデータを、第2画像のデータとして画像切出部61に取り込ませる。
上述の例では、図2(b)のライティングの状態で撮像されるので、ユーザの顔100の右側(撮像画像をみる人からみて)に影SBが出た撮像画像のデータが、第2画像のデータとして画像切出部61に取り込まれる。
In step S44, the main control unit 51 causes the imaging unit 22 to image the subject in a state where only the second area is completely lit after the process of step S43, and the captured image data output from the imaging unit 22 as a result is obtained. Then, the data is taken into the image cutout unit 61 as the second image data.
In the above example, since the image is captured in the lighting state of FIG. 2B, the captured image data in which the shadow SB appears on the right side of the user's face 100 (as viewed from the person viewing the captured image) is the second image. The data is taken into the image cutout unit 61.

ステップS45において、画像切出部61は、第1画像のデータから、影がある側の半分のデータを、第1切り出し画像のデータとして生成する。
上述の例では、図2(a)の切り出し図に示すように、影SAがある側の左半分(撮像画像をみる人からみて)のデータが、第1切り出し画像のデータとして生成される。
In step S45, the image cutout unit 61 generates half of the shadowed data as the first cutout image data from the first image data.
In the above-described example, as shown in the cut-out diagram of FIG. 2A, data on the left half (as viewed from the person viewing the captured image) on the side where the shadow SA exists is generated as data of the first cut-out image.

ステップS46において、画像切出部61は、第2画像のデータから、影がある側の半分のデータを、第2切り出し画像のデータとして生成する。
上述の例では、図2(b)の切り出し図に示すように、影SBがある側の右半分(撮像画像をみる人からみて)のデータが、第2切り出し画像のデータとして生成される。
In step S <b> 46, the image cutout unit 61 generates half of the shadowed data as second cutout image data from the second image data.
In the above-described example, as shown in the cutout diagram of FIG. 2B, data on the right half (as viewed from the person viewing the captured image) on the side where the shadow SB exists is generated as data of the second cutout image.

ステップS47において、画像合成部62は、第1切り出し画像及び第2切り出し画像の各データを合成することによって、合成画像のデータを生成する。
上述の例では、図3に示す画像、即ち、両頬に影SA,SBが出来ている顔100を含む画像のデータが、合成画像のデータとして生成される。
In step S <b> 47, the image composition unit 62 synthesizes the data of the first clipped image and the second clipped image, thereby generating synthesized image data.
In the above-described example, the image data shown in FIG. 3, that is, the image data including the face 100 with shadows SA and SB on both cheeks is generated as the composite image data.

ステップS48において、記憶制御部52は、ステップS47の処理で生成された合成画像のデータを、リムーバブルメディア41等に保存する。   In step S48, the storage control unit 52 stores the composite image data generated in the process of step S47 in the removable medium 41 or the like.

ステップS46において、主制御部51は、SHTFを「0」に設定する(SHTF←0)。   In step S46, the main control unit 51 sets SHTF to “0” (SHTF ← 0).

これにより、ライティングモード撮像処理は終了する。即ち、図8のステップS5の処理は終了し、その後、処理はステップS7に進む。   Thereby, the lighting mode imaging process is completed. That is, the process of step S5 in FIG. 8 ends, and then the process proceeds to step S7.

以上説明したように、本実施形態に係る撮像装置1は、表示部21と、撮像部22と、主制御部51と、画像切出部61と、画像合成部62と、を備えている。
表示部21は、各画素を発光することにより、画像を表示する。
撮像部22は、被写体を撮像することによって、撮像画像のデータを生成する。
主制御部51は、表示部21の各画素のうち、一部の領域を構成する各画素を発光させることにより、被写体の一部を照射させる照明として当該領域を機能させた状態で、撮像部22に被写体を撮像させる制御を実行する。
主制御部51の制御により、表示部21の複数の領域のそれぞれが順次照明として機能した各状態で、被写体が撮像部22により順次撮像された場合、画像切出部61は、次のように動作する。即ち、画像切出部61は、撮像部22により順次生成される複数の撮像画像のデータの各々について、一部分の領域のデータを切り出し画像のデータとしてそれぞれ生成する。
画像合成部62は、画像切出部61により生成された複数の切り出し画像のデータを合成することによって、合成画像のデータを生成する。
As described above, the imaging apparatus 1 according to the present embodiment includes the display unit 21, the imaging unit 22, the main control unit 51, the image cutout unit 61, and the image composition unit 62.
The display unit 21 displays an image by emitting each pixel.
The imaging unit 22 generates captured image data by imaging a subject.
The main control unit 51 emits each pixel constituting a part of the pixels of the display unit 21 so that the area functions as illumination for illuminating a part of the subject, and the imaging unit Control for causing the subject to image 22 is executed.
When the subject is sequentially imaged by the imaging unit 22 in each state in which each of the plurality of areas of the display unit 21 functions as illumination sequentially under the control of the main control unit 51, the image cutout unit 61 is as follows. Operate. In other words, the image cutout unit 61 generates partial area data as cutout image data for each of a plurality of picked up image data sequentially generated by the image pickup unit 22.
The image composition unit 62 generates composite image data by combining the data of a plurality of clipped images generated by the image cutout unit 61.

ここで、主制御部51は、被写体の所望の部分に対して所望のライティングがなされるように、照明として機能する表示部21の領域を変更することが容易にできる。
このように照明として機能する表示部21の領域が変更される毎に、撮像部22が被写体を撮像し、その結果撮像部22により生成される複数の撮像画像のデータに基づいて、画像切出部61及び画像合成部62により生成される合成画像のデータは、所望の部分に対して所望のライティングがなされた状態の画像のデータになっている。
所望のライティングとは、被写体に対する光が照射される状態(影が生じたり生じない状態)として、ユーザ(撮影者であって、本実施形態では被写体と一致する)が所望の状態を作り出すことができるという意味である。
このように、ユーザは、本実施形態の撮像装置1を用いることで、所望の部分に対して所望のライティングがなされた状態の画像を得ることが容易にできる。
Here, the main control unit 51 can easily change the area of the display unit 21 that functions as illumination so that desired lighting is performed on a desired portion of the subject.
Thus, every time the area of the display unit 21 that functions as illumination is changed, the imaging unit 22 captures an image of a subject, and as a result, based on the data of a plurality of captured images generated by the imaging unit 22, image clipping is performed. The combined image data generated by the unit 61 and the image combining unit 62 is image data in a state where desired lighting is performed on a desired portion.
Desired lighting means that a user (a photographer who matches a subject in the present embodiment) creates a desired state as a state in which light is emitted to a subject (a state in which no shadow is generated or generated). It means you can.
As described above, the user can easily obtain an image in a state where desired lighting is performed on a desired portion by using the imaging device 1 of the present embodiment.

具体的には例えば、主制御部51は、(被写体からみて)被写体の左側を照射して右側に影を生じさせるように表示部21のエリア21Aを照明として機能させた状態(図2(a)の状態)で、撮像部22に被写体を撮像させる第1制御を実行する。
主制御部51はまた、(被写体からみて)被写体の右側を照射して左側に影を生じさせるように表示部21のエリア21Bを照明として機能させた状態で、撮像部22に被写体を撮像させる第2制御を実行する。
Specifically, for example, the main control unit 51 causes the area 21A of the display unit 21 to function as illumination so as to irradiate the left side of the subject (as viewed from the subject) and cause a shadow on the right side (see FIG. 2A). )), The first control for causing the imaging unit 22 to image the subject is executed.
The main control unit 51 also causes the imaging unit 22 to image the subject in a state where the area 21B of the display unit 21 functions as illumination so as to irradiate the right side of the subject (as viewed from the subject) and cause a shadow on the left side. The second control is executed.

この場合、例えば、画像切出部61は、主制御部51の第1制御の結果として撮像部22により生成された撮像画像(第1画像)のデータから、被写体のうち、影が生じている側の略半分を含む画像(例えば図2(a)の切り出し図に示すような画像)のデータを、第1切り出し画像のデータとして生成する。
また、画像切出部61は、主制御部51の第2制御の結果として撮像部22により生成された撮像画像のデータから、被写体のうち、影が生じている側の略半分を含む画像(例えば図2(a)の切り出し図に示すような画像)のデータを、第2切り出し画像のデータとして生成する。
そして、画像合成部62は、第1切り出し画像及び第2切り出し画像の各データを合成することによって、合成画像のデータを生成する。
これにより、例えば被写体として顔100を含む人物が撮像された場合には、合成画像として、図3に示すような画像、即ち両頬に影SA,SBが存在する顔100を含む画像が得られる。このような画像をみた鑑賞者は、目の錯覚により、顔100を実際よりも小さく視認することになる。即ち、合成画像として小顔に見える画像が、このようにして容易に得られる。
In this case, for example, the image cutout unit 61 has a shadow among the subjects from the data of the captured image (first image) generated by the imaging unit 22 as a result of the first control of the main control unit 51. Data of an image including substantially half of the side (for example, an image as shown in the cutout diagram of FIG. 2A) is generated as data of the first cutout image.
The image cutout unit 61 also includes an image including approximately half of the subject on the shadowed side from the captured image data generated by the imaging unit 22 as a result of the second control of the main control unit 51 ( For example, data of an image as shown in the cutout diagram of FIG. 2A is generated as data of the second cutout image.
Then, the image composition unit 62 synthesizes the data of the first clipped image and the second clipped image, thereby generating synthesized image data.
Thereby, for example, when a person including the face 100 is captured as a subject, an image including the face 100 having shadows SA and SB on both cheeks as shown in FIG. 3 is obtained as a composite image. . A viewer who sees such an image visually recognizes the face 100 smaller than the actual size due to the optical illusion. That is, an image that looks like a small face as a composite image can be easily obtained in this way.

また例えば、画像切出部61は、主制御部51の第1制御の結果として撮像部22により生成された撮像画像(第1画像)のデータから、被写体のうち、影が生じていない側の略半分を含む画像(例えば図2(a)の切り出し図に示されていない方の画像)のデータを、第1切り出し画像のデータとして生成する。
また、画像切出部61は、主制御部51の第2制御の結果として撮像部22により生成された撮像画像のデータから、被写体のうち、影が生じていない側の略半分を含む画像(例えば図2(a)の切り出し図に示されていない方の画像)のデータを、第2切り出し画像のデータとして生成する。
そして、画像合成部62は、第1切り出し画像及び第2切り出し画像の各データを合成することによって、合成画像のデータを生成する。
これにより、例えば被写体として顔100を含む人物が撮像された場合には、合成画像として、図4に示すような画像、即ち不要な照明による光が重なって色味の変化が生じてしまうという従来の問題を発生させることなく、影がない顔100を含む画像が得られる。
In addition, for example, the image cutout unit 61 includes, on the side of the subject on which no shadow is generated, from the data of the captured image (first image) generated by the imaging unit 22 as a result of the first control of the main control unit 51. Data of an image including approximately half (for example, an image not shown in the cutout diagram of FIG. 2A) is generated as data of the first cutout image.
The image cutout unit 61 also includes an image including approximately half of the subject on the side where no shadow is generated from the captured image data generated by the imaging unit 22 as a result of the second control of the main control unit 51 ( For example, the data of the image not shown in the cutout diagram of FIG. 2A is generated as the data of the second cutout image.
Then, the image composition unit 62 synthesizes the data of the first clipped image and the second clipped image, thereby generating synthesized image data.
Thus, for example, when a person including the face 100 is imaged as a subject, an image as shown in FIG. 4 as a composite image, that is, light due to unnecessary illumination overlaps to cause a change in color. Thus, an image including the face 100 having no shadow is obtained.

ここで、被写体を照明するために、表示部21の領域(エリア21Aやエリア21B)の代わりに、複数のフラッシュ装置や複数の照明機器を用いて、これらの発光タイミングを制御することによっても、上述のライティングモード撮像処理と等価な処理の実行が可能である。
ただし、複数のフラッシュ装置や複数の照明機器を採用するだけでも、撮像装置1全体が大掛かりになると共に、これらを用いたライティングの制御は複雑なものになる。
これに対して、本実施形態のように、撮像装置1として元々表示部21として備えられている液晶ディスプレイ等を照明用に使用することで、撮像装置1の小型化を図ることが可能になると共に、ライティングの制御についても、各画素の輝度を調整するといった撮像装置1として元々備えられている機能を利用するだけなので簡単かつ容易に実現することが可能になる。
Here, in order to illuminate the subject, instead of the area of the display unit 21 (area 21A or area 21B), a plurality of flash devices or a plurality of illumination devices are used to control these light emission timings. It is possible to execute processing equivalent to the above-described lighting mode imaging processing.
However, even if only a plurality of flash devices and a plurality of lighting devices are employed, the entire imaging device 1 becomes large, and lighting control using these devices becomes complicated.
On the other hand, as in the present embodiment, by using a liquid crystal display or the like originally provided as the display unit 21 as the imaging device 1 for illumination, the imaging device 1 can be downsized. At the same time, lighting control can be realized simply and easily because only the function originally provided as the imaging apparatus 1 such as adjusting the luminance of each pixel is used.

また、本実施形態の撮像装置1の記憶部38は、表示部21における照明として機能させる領域を複数回変化させて、照明として機能させる領域が変化する毎に、撮像部22に被写体を撮像させていく手順を示す撮像シーケンスデータを保持している。
主制御部51は、この撮像シーケンスデータに従って制御を実行する。
このような撮像シーケンスデータを用いることで、ライティングの制御を簡単かつ容易に実現できる。
さらに、ユーザは、撮像シーケンスデータを自身で設定することで、ライティングの所望のパターンを容易に反映させることができる。
In addition, the storage unit 38 of the imaging apparatus 1 according to the present embodiment changes the area that functions as the illumination in the display unit 21 a plurality of times, and causes the imaging unit 22 to image the subject each time the area that functions as the illumination changes. The imaging sequence data indicating the procedure to follow is held.
The main control unit 51 executes control according to the imaging sequence data.
By using such imaging sequence data, lighting control can be realized easily and easily.
Furthermore, the user can easily reflect the desired pattern of lighting by setting the imaging sequence data by himself / herself.

以上、本発明の第1実施形態に係る撮像装置1について説明した。
次に、本発明の第2実施形態に係る撮像装置1について説明する。
The imaging device 1 according to the first embodiment of the present invention has been described above.
Next, an imaging apparatus 1 according to the second embodiment of the present invention will be described.

[第2実施形態]
第2実施形態に係る撮像装置1は、第1実施形態に係る撮像装置1と基本的に同様のハードウェア構成及び機能的構成を取ることができる。即ち、図5及び図6の各々はそのまま、第2実施形態に係る撮像装置1のハードウェア構成及び機能的構成の各々を示していることにもなる。そこで、第2実施形態に係る撮像装置1のハードウェア構成及び機能的構成については、その説明を省略する。
[Second Embodiment]
The imaging device 1 according to the second embodiment can have basically the same hardware configuration and functional configuration as the imaging device 1 according to the first embodiment. That is, each of FIGS. 5 and 6 shows the hardware configuration and the functional configuration of the imaging apparatus 1 according to the second embodiment as they are. Therefore, the description of the hardware configuration and the functional configuration of the imaging apparatus 1 according to the second embodiment is omitted.

図11は、第2実施形態に係る撮像装置1の外観の構成を示す図である。
図11(a)は、撮像装置1の正面図である。図11(b)は、被写体を撮像する場合の撮像装置1の斜視図である。図11(c)は、図11(b)の状態で撮像装置1に撮像される場合における被写体の正面図である。
FIG. 11 is a diagram illustrating an external configuration of the imaging apparatus 1 according to the second embodiment.
FIG. 11A is a front view of the imaging apparatus 1. FIG. 11B is a perspective view of the imaging apparatus 1 when imaging a subject. FIG. 11C is a front view of the subject when the image capturing apparatus 1 captures an image in the state of FIG.

図1と図11とを比較すると容易にわかるが、第1実施形態では表示部21の両端部の2つのエリア21A,21B(図1)が照明として機能したが、第2実施形態では、表示部21の表示領域が2つの対角線によって区分された場合の4つのエリア22a乃至22dが照明として機能する。
これにより、第1実施形態の2つのエリア21A,21Bの点灯又は消灯の組み合わせで可能になるライティングのパターンと比較して、第2実施形態の4つのエリア21a乃至21dの点灯又は消灯の組み合わせで可能になるライティングのパターンは、より精密で、より高度で、より多数のパターンになる。
As can be easily understood by comparing FIG. 1 and FIG. 11, in the first embodiment, the two areas 21A and 21B (FIG. 1) at both ends of the display unit 21 function as illumination. Four areas 22a to 22d when the display area of the section 21 is divided by two diagonal lines function as illumination.
Thereby, in comparison with the lighting pattern that is possible by the combination of lighting or extinguishing of the two areas 21A and 21B of the first embodiment, the combination of lighting or extinguishing of the four areas 21a to 21d of the second embodiment is possible. The possible lighting patterns will be more precise, more sophisticated, and more patterns.

その結果として、第1実施形態では1つのライティングモードのみが設けられていたのに対して、第2実施形態では、複数のライティングモードが選択可能に設けられている。
即ち、記憶部38に記憶される撮像シーケンスデータは、第2実施形態では、複数のライティングモード毎に選択可能となるように構成されている。
As a result, in the first embodiment, only one lighting mode is provided, whereas in the second embodiment, a plurality of lighting modes are selectable.
In other words, the imaging sequence data stored in the storage unit 38 is configured to be selectable for each of a plurality of lighting modes in the second embodiment.

図12は、第2実施形態のライティングモード撮像処理の手順を示す撮像シーケンスデータの構造の一例を示す図である。
図12(a)は、ライティングモード内の各モードを示す撮像シーケンスデータの構造の一例を示す図である。図12(b)は、選択されたモード内のライティングモード撮像処理の手順を示す撮像シーケンスデータの構造の一例を示す図である。
FIG. 12 is a diagram illustrating an example of the structure of imaging sequence data indicating the procedure of the lighting mode imaging process according to the second embodiment.
FIG. 12A is a diagram illustrating an example of the structure of imaging sequence data indicating each mode in the lighting mode. FIG. 12B is a diagram illustrating an example of the structure of the imaging sequence data indicating the procedure of the lighting mode imaging process in the selected mode.

本実施形態において、所定の行には、当該行に対応する手順を特定するために、図12(a)に示すように「ライトNo.」及び「名称」、図12(b)に示すようにという項目がそれぞれ配置されている。また図12(b)に示すように「順番」及び「撮像シーケンス」という項目がそれぞれ配置されている。
図12(a)に示すように、上から第k行目(kは、1乃至モードの総数の範囲内の整数値であって、図12(a)の例では1、2・・・の範囲内の整数値。)の「ライトNo.」には、ライティングモードのうちの各モード番号、kが格納される。また、「名称」には、モード番号に対応した、モードの名称が格納される。
また、図12(b)に示すように上から第k行目(kは、1乃至手順の総数の範囲内の整数値であって、図12(b)の例では1乃至6の範囲内の整数値。ただし、図12(b)の項目名が記載された一番上の行は除外する)の「順番」には、ライティングモード撮像処理における処理順番として、kが格納される。
上から第k行目の「撮像シーケンス」には、ライティングモード撮像処理におけるk番目に実行すべき処理の内容が格納される。
即ち、ライティングモード撮像処理は、各行の「撮像シーケンス」に記載された内容の各処理が上から順に順次実行されていくことで実現される。
なお、図12(b)の例の撮像シーケンスに従って作成されるフローチャートが、本実施形態におけるライティングモード撮像処理であり、図16に示されている。そこで、撮像シーケンスの各行の「撮像シーケンス」に記載された内容の各処理の説明については、図16に合わせたフローチャートの説明として後述する。
In the present embodiment, in order to specify a procedure corresponding to the predetermined line, a “write No.” and a “name” as shown in FIG. 12A and a predetermined line as shown in FIG. Each item is arranged. Further, as shown in FIG. 12B, items of “order” and “imaging sequence” are arranged.
As shown in FIG. 12A, the k-th row from the top (k is an integer value within the range of 1 to the total number of modes, and in the example of FIG. “Light No.” of the integer value within the range) stores each mode number and k of the lighting modes. In “Name”, the name of the mode corresponding to the mode number is stored.
Further, as shown in FIG. 12B, the k-th row from the top (k is an integer value within the range of 1 to the total number of procedures, and in the example of FIG. 12B, within the range of 1 to 6. (However, the top row in which the item names of FIG. 12B are described is excluded), “k” is stored as the processing order in the lighting mode imaging process.
The “imaging sequence” in the k-th row from the top stores the contents of the process to be executed k-th in the lighting mode imaging process.
That is, the lighting mode imaging process is realized by sequentially executing the processes described in the “imaging sequence” of each row in order from the top.
Note that a flowchart created according to the imaging sequence in the example of FIG. 12B is the lighting mode imaging process in the present embodiment, and is shown in FIG. Therefore, description of each process of the contents described in “imaging sequence” in each row of the imaging sequence will be described later as an explanation of a flowchart according to FIG.

なお、撮像シーケンスデータは、記憶部38に記憶されていることは例示にすぎず、その他、例えばリムーバブルメディア41等に記憶されていてもよい。
また、撮像シーケンスデータは、ユーザが任意に設定可能なデータである。即ち、ユーザは、操作部37を操作して、所望の各種処理を所望の順番で組み合わせた撮像シーケンスデータを登録することができる。換言すると、撮像シーケンスデータの図7の内容は例示に過ぎない。
Note that the imaging sequence data stored in the storage unit 38 is merely an example, and may be stored in, for example, the removable medium 41 or the like.
The imaging sequence data is data that can be arbitrarily set by the user. That is, the user can register imaging sequence data obtained by combining various desired processes in a desired order by operating the operation unit 37. In other words, the contents of FIG. 7 of the imaging sequence data are merely examples.

本実施形態において、選択可能なライティングモードのうち、「ライトNO.1」「名称:影ありモード」は、第1実施形態において説明したライティングモードに相当するモードであり、被写体の輪郭に影を作るモードである。本モードは、例えば、顔を小さく見せる画像を生成することに適するモードである。また、「ライトNO.2」「名称:影なしモード」は、被写体に影を作らないモードであり、例えば、宝石等において形状を際立たせる画像を生成することに適するモードである。   In the present embodiment, among the selectable lighting modes, “light No. 1” and “name: mode with shadow” are modes corresponding to the lighting mode described in the first embodiment, and a shadow is applied to the contour of the subject. It is a mode to make. This mode is, for example, a mode suitable for generating an image that makes a face look smaller. Further, “light No. 2” and “name: no shadow mode” are modes in which a shadow is not formed on the subject, and is a mode suitable for generating an image that makes a shape stand out on a jewel, for example.

次に、図13乃至図16を参照して、図6の機能的構成を有する撮像装置1が実行する撮像処理の流れについて説明する。
なお、以下、説明の便宜上、「ライトNO.2」「名称:影なしモード」で特定されるライティングモードが選択される場合の撮像処理を例として説明するが、他のライティングモードが選択された場合も撮像処理の流れは同様になる。
図12は、第2実施形態に係る撮像処理の流れの一例を説明するフローチャートである。以下、説明の便宜上、「ライトNO.2」「名称:影なしモード」で特定されるライティングモードが選択される場合の撮像処理を例として説明するが、他のライティングモードが選択された場合も撮像処理の流れは同様になる。
撮像処理は、例えば、撮像装置1の電源が投入されて、ユーザによる操作部37に対しする所定の操作がなされて、撮像の動作の開始が指示されたことを契機として開始する。
Next, the flow of imaging processing executed by the imaging device 1 having the functional configuration of FIG. 6 will be described with reference to FIGS.
Hereinafter, for convenience of explanation, an imaging process in the case where the lighting mode specified by “light No. 2” and “name: no shadow mode” is selected will be described as an example, but another lighting mode is selected. In this case, the flow of the imaging process is the same.
FIG. 12 is a flowchart illustrating an example of the flow of imaging processing according to the second embodiment. Hereinafter, for convenience of explanation, an imaging process when the lighting mode specified by “light No. 2” and “name: no shadow mode” is selected will be described as an example, but other lighting modes may also be selected. The flow of the imaging process is the same.
The imaging process is started when, for example, the imaging apparatus 1 is turned on, a predetermined operation is performed on the operation unit 37 by the user, and an instruction to start an imaging operation is given.

ステップS101において、図6の主制御部51は、撮像装置1についての各種初期設定を行うためのイニシャライズ処理を実行する。   In step S <b> 101, the main control unit 51 in FIG. 6 executes initialization processing for performing various initial settings for the imaging apparatus 1.

ステップS102において、主制御部51は、モードスイッチ処理を実行する。
モードスイッチ処理とは、複数のモードの中から、1のモードを選択的に切り替えて設定する処理である。
本実施形態において、上述したように、撮像時の動作モードとして、デフォルトで設定されているノーマルモードと、ライティングモードとの2つのモードが選択的に設定可能とされている。
なお、モードスイッチ処理の詳細については、図14のフローチャートを参照して後述する。
In step S102, the main control unit 51 executes a mode switch process.
The mode switch process is a process for selectively switching and setting one mode from a plurality of modes.
In the present embodiment, as described above, two modes of the normal mode and the lighting mode that are set by default can be selectively set as the operation mode at the time of imaging.
Details of the mode switch process will be described later with reference to the flowchart of FIG.

ステップS103において、主制御部51は、SHTFは1であるか否かを判定する。
SHTFとは、スイッチフラグの略語である。スイッチフラグとは、撮像画像の記録指示がなされている場合には「1」が設定され、なされていない場合には「0」が設定されるフラグである。
SHTFが「0」の場合、ステップS103においてNOであると判定されて、処理はステップS7に進む。ただし、ステップS107以降の処理は後述する。
これに対して、SHTFが「1」の場合、ステップS103においてYESであると判定されて、処理はステップS104に進む。
In step S <b> 103, the main control unit 51 determines whether SHTF is 1.
SHTF is an abbreviation for switch flag. The switch flag is a flag in which “1” is set when an instruction to record a captured image is given, and “0” is set when the instruction is not made.
If SHTF is “0”, it is determined as NO in step S103, and the process proceeds to step S7. However, the processing after step S107 will be described later.
On the other hand, if SHTF is “1”, it is determined as YES in step S103, and the process proceeds to step S104.

ステップS104において、主制御部51は、撮像時の動作モードとしてプリセットモードが設定されているか否かを判定する。プリセットモードとは、予め設定されているモードである。   In step S104, the main control unit 51 determines whether or not the preset mode is set as the operation mode during imaging. The preset mode is a preset mode.

プリセットモードが設定されている場合には、ステップS104においてYESであると判定されて、処理はステップS105に進む。
ステップS105において、撮像装置1は、ライティングモード撮像処理を実行する。
本実施形態では、ライティングモード撮像処理は、上述の図12示す撮像シーケンスに従って実行される。
なお、ライティングモード撮像処理の詳細については、図16を参照して後述する。
If the preset mode is set, it is determined as YES in step S104, and the process proceeds to step S105.
In step S105, the imaging apparatus 1 executes a lighting mode imaging process.
In the present embodiment, the lighting mode imaging process is executed according to the imaging sequence shown in FIG.
Details of the lighting mode imaging process will be described later with reference to FIG.

このようなライティングモードではなく、ノーマルモードが設定されている場合には、ステップS104においてNOであると判定されて、処理はステップS106に進む。
ステップS106において、撮像装置1は、ノーマルモード撮像処理を実行する。
ノーマル撮像処理とは、表示部21を照明機能として働かせていない状態で、撮像部22が通常の撮像動作を行い、その結果得られる撮像画像のデータを保存するまでの一連の処理をいう。
なお、本実施形態のノーマル撮像処理は、撮像画像のデータが保存された後、SHTF(スイッチフラグ)が「1」から「0」に変更されて終了する。
If the normal mode is set instead of such a lighting mode, it is determined as NO in step S104, and the process proceeds to step S106.
In step S106, the imaging apparatus 1 executes normal mode imaging processing.
The normal imaging process refers to a series of processes from when the imaging unit 22 performs a normal imaging operation in a state where the display unit 21 is not functioning as an illumination function and to store captured image data obtained as a result.
Note that the normal imaging process of the present embodiment ends when the captured image data is saved and then the SHTF (switch flag) is changed from “1” to “0”.

このようにして、SHTFが1であるとしてステップS103の処理でYESであると判定された場合には、ライティングモードが設定されているとき(ステップS104の処理でYESであると判定されたとき)にはステップS105のライティングモード撮像処理が実行され、また、ノーマルモードが設定されているとき(ステップS104の処理でNOであると判定されたとき)にはステップS106のノーマルモード撮像処理が実行される。これらの撮像処理が終了すると、処理はステップS107に進む。
また、SHTFが0であるとしてステップS103の処理でNOであると判定された場合には、ステップS105のライティングモード撮像処理やステップS106のノーマルモード撮像処理は実行されずに、処理はステップS107に進む。
Thus, when it is determined that the SHTF is 1 and YES is determined in the process of step S103, the lighting mode is set (when it is determined YES in the process of step S104). The lighting mode imaging process of step S105 is executed, and when the normal mode is set (when it is determined NO in the process of step S104), the normal mode imaging process of step S106 is executed. The When these imaging processes are completed, the process proceeds to step S107.
On the other hand, if it is determined that SHTF is 0 and NO in step S103, the lighting mode imaging process in step S105 and the normal mode imaging process in step S106 are not executed, and the process proceeds to step S107. move on.

ステップS107において、主制御部51は、処理の終了が指示されたか否かを判定する。
処理の終了の指示は、特に限定されない。例えば本実施形態では、別の動作モードに切り替える指示、例えば撮像装置1はデジタルフォトフレームで構成されているので画像の表示指示が、処理の終了の指示の1つとして採用されている。また例えば本実施形態では、撮像装置1の電源を切る指示も、処理の終了の指示の1つとして採用されている。
このような処理の終了の指示がなされていない場合、ステップS107においてNOであると判定されて、処理はステップS102に戻される。即ち、処理の終了の指示がなされるまでの間、ステップS102乃至S107のループ処理が繰り返し実行されて、その都度、SHTFが1である場合にはライティングモード撮像処理又はノーマルモード撮像処理が実行される。
その後、処理の終了の指示がなされた場合、ステップS107においてYESであると判定されて、撮像処理は終了になる。
In step S107, the main control unit 51 determines whether or not an instruction to end the process is given.
The instruction to end the process is not particularly limited. For example, in this embodiment, an instruction to switch to another operation mode, for example, an image display instruction is adopted as one of the instructions to end the process because the imaging apparatus 1 is configured with a digital photo frame. For example, in the present embodiment, an instruction to turn off the power of the imaging apparatus 1 is also adopted as one of the instructions for ending the process.
When such an instruction to end the process is not given, it is determined as NO in Step S107, and the process returns to Step S102. In other words, the loop process of steps S102 to S107 is repeatedly executed until an instruction to end the process is made, and each time the SHTF is 1, the lighting mode imaging process or the normal mode imaging process is executed. The
Thereafter, when an instruction to end the process is given, it is determined as YES in Step S107, and the imaging process ends.

以上、図13を参照して、図6の機能的構成を有する撮像装置1が実行する撮像処理の流れについて説明した。次に、上述した撮像処理のうち、ステップS102のモードスイッチ処理の詳細な流れについて、図14を参照しながら説明する。
図14は、第2実施形態に係るモードスイッチ処理の詳細な流れの一例を説明するフローチャートである。
The flow of the imaging process executed by the imaging apparatus 1 having the functional configuration of FIG. 6 has been described above with reference to FIG. Next, a detailed flow of the mode switch process in step S102 in the above-described imaging process will be described with reference to FIG.
FIG. 14 is a flowchart illustrating an example of a detailed flow of the mode switch process according to the second embodiment.

撮像処理においては、上述したように、ステップS1の処理でイニシャライズ処理が実行されると、処理はステップS102に進み、モードスイッチ処理として、次のようなステップS121乃至ステップS124の一連の処理が実行される。   In the imaging process, as described above, when the initialization process is executed in the process of step S1, the process proceeds to step S102, and the following series of processes from step S121 to step S124 are executed as the mode switch process. Is done.

ステップS121において、図6の主制御部51は、モードスイッチがON状態であるか否かを判定する。
モードスイッチとは、操作部37を構成する各種ボタンや各種スイッチのうち、撮像装置1の撮像の動作のモードを切り替える場合にユーザにより押下されるスイッチであり、図示はしないが、フレーム11(図1)に設けられている。なお、本実施形態では、モードスイッチは、物理スイッチとして構成されているが、特にこれに限られず、GUI用の画像に表示されるソフトウェアスイッチとして構成されてもよい。
In step S121, the main control unit 51 in FIG. 6 determines whether or not the mode switch is in the ON state.
The mode switch is a switch that is pressed by the user when switching the imaging operation mode of the imaging apparatus 1 among the various buttons and various switches constituting the operation unit 37. Although not shown, the frame 11 (see FIG. 1). In the present embodiment, the mode switch is configured as a physical switch. However, the mode switch is not particularly limited thereto, and may be configured as a software switch displayed on a GUI image.

モードスイッチがON状態の場合、ステップS121においてYESであると判定されて、処理はステップS122に進む。
ステップS122において、主制御部51は、モード反転を実行する。
モード反転とは、撮像装置1の撮像の動作のモードを、ノーマルモードとライティングモードとのうち、これまで設定されていた一方から、他方に設定を切り替える処理をいう。
If the mode switch is in the ON state, it is determined as YES in step S121, and the process proceeds to step S122.
In step S122, the main control unit 51 performs mode inversion.
The mode inversion refers to a process of switching the setting of the imaging operation mode of the imaging apparatus 1 from one of the normal mode and the lighting mode to the other.

モード反転が実行されると、処理はステップS123に進む。なお、モードスイッチがOFF状態の場合、モード反転が不要であるので、ステップS121においてNOであると判定されて、ステップS122の処理は実行されずに、処理はステップS123に進む。   When mode inversion is executed, the process proceeds to step S123. When the mode switch is in the OFF state, mode inversion is not necessary, so that it is determined as NO in step S121, and the process proceeds to step S123 without executing the process in step S122.

ステップS123において、主制御部51は、セレクトスイッチがON状態であるか否かを判定する。
セレクトスイッチとは、操作部37を構成する各種ボタンや各種スイッチのうち、モードの選択を指示をする場合にユーザにより押下されるスイッチであり、図示はしないが、フレーム11(図1)に設けられている。なお、本実施形態では、セレクトスイッチは、物理スイッチとして構成されているが、特にこれに限られず、GUI用の画像に表示されるソフトウェアスイッチとして構成されてもよい。
In step S123, the main control unit 51 determines whether or not the select switch is in an ON state.
The select switch is a switch that is pressed by the user when instructing mode selection among various buttons and various switches constituting the operation unit 37. Although not shown, the select switch is provided on the frame 11 (FIG. 1). It has been. In the present embodiment, the select switch is configured as a physical switch, but is not particularly limited thereto, and may be configured as a software switch that is displayed on a GUI image.

セレクトスイッチがOFF状態である場合(セレクトスイッチが押下されていない場合)、ステップS123においてNOであると判定されて、処理はステップS125に進む。   When the select switch is in the OFF state (when the select switch is not pressed), it is determined as NO in Step S123, and the process proceeds to Step S125.

これに対して、セレクトスイッチがON状態である場合(シャッターボタンが押下された場合)、ステップS123においてYESであると判定されて、処理はステップS124に進む。   On the other hand, when the select switch is in the ON state (when the shutter button is pressed), it is determined as YES in Step S123, and the process proceeds to Step S124.

ステップS124において、主制御部51は、ライト選択処理が実行される。ライト選択処理とは、「ライトNo.」を選択する処理という。   In step S124, the main control unit 51 performs a light selection process. The light selection process is a process for selecting “light No.”.

ライト選択処理が実行されると、処理はステップS125に進む。なお、セレクトスイッチがOFF状態の場合、ライト選択処理が不要であるので、ステップS123においてNOであると判定されて、ステップS124の処理は実行されずに、処理はステップS125に進む。   When the write selection process is executed, the process proceeds to step S125. Note that when the select switch is in the OFF state, the light selection process is unnecessary, so that it is determined NO in step S123, and the process proceeds to step S125 without executing the process in step S124.

ステップS125において、主制御部51は、シャッターボタンがON状態であるか否かを判定する。   In step S125, the main control unit 51 determines whether or not the shutter button is in the ON state.

シャッターボタンがOFF状態である場合(シャッターボタンが押下されていない場合)、ステップS125においてNOであると判定されて、モードスイッチ処理は終了する。即ち図13のステップS102の処理が終了して、処理はステップS103に進む。この場合、SHTFは「0」に設定されたままであるので、ステップS103の処理でNOであると判定されて、ステップS105のライティングモード撮像処理やステップS106のノーマルモード撮像処理は実行されないことになる。   If the shutter button is in the OFF state (when the shutter button is not pressed), it is determined NO in step S125, and the mode switch process ends. That is, the process of step S102 in FIG. 13 is completed, and the process proceeds to step S103. In this case, since the SHTF remains set to “0”, it is determined as NO in the process of step S103, and the lighting mode imaging process in step S105 and the normal mode imaging process in step S106 are not executed. .

これに対して、シャッターボタンがON状態である場合(シャッターボタンが押下された場合)、ステップS125においてYESであると判定されて、処理はステップS126に進む。
ステップS126において、主制御部51は、SHTFを「0」から「1」に設定する(SHIFT←1)。
これにより、モードスイッチ処理は終了する。即ち図13のステップS102の処理が終了して、処理はステップS103に進む。この場合、SHTFは「1」に設定されているので、ステップS103の処理でYESであると判定されて、ステップS105のライティングモード撮像処理又はステップS106のノーマルモード撮像処理が実行されることになる。
On the other hand, when the shutter button is in the ON state (when the shutter button is pressed), it is determined as YES in Step S125, and the process proceeds to Step S126.
In step S126, the main control unit 51 sets SHTF from “0” to “1” (SHIFT ← 1).
As a result, the mode switch process ends. That is, the process of step S102 in FIG. 13 is completed, and the process proceeds to step S103. In this case, since SHTF is set to “1”, it is determined as YES in the process of step S103, and the lighting mode imaging process of step S105 or the normal mode imaging process of step S106 is executed. .

以上、図14を参照して、モードスイッチ処理の詳細な流れについて説明した。次に、上述したモードスイッチ処理のうち、ステップS124のライト選択処理の詳細な流れについて、図15を参照しながら説明する。
図15は、第2実施形態に係るライト選択処理の詳細な流れの一例を説明するフローチャートである。
The detailed flow of the mode switch process has been described above with reference to FIG. Next, a detailed flow of the write selection process in step S124 in the mode switch process described above will be described with reference to FIG.
FIG. 15 is a flowchart for explaining an example of a detailed flow of a light selection process according to the second embodiment.

ステップS1241において、主制御部51は、「ライトNO.」が選択されたか否かを判定する。
「ライトNO.」が選択された場合には、ステップS1241においてはYESであると判定され、処理はステップS1242に進む。「ライトNO.」が選択されてない場合には、ステップS1241においてはNOであると判定されて、処理はステップS1244に進む。
In step S1241, the main control unit 51 determines whether “light NO.” Is selected.
If “light NO.” Is selected, it is determined as YES in step S1241, and the process proceeds to step S1242. If “light NO.” Is not selected, it is determined as NO in step S1241, and the process proceeds to step S1244.

ステップS1242において、主制御部51は、ライティングのセッティングを読み出す。具体的には、主制御部51は、記憶部38よりステップS1241においてセレクトされた「ライトNO.」の撮像シーケンスのデータを参照する。本実施形態においては、図12(b)に示す「ライトNO.2」の撮像シーケンスのデータが参照される。   In step S1242, the main control unit 51 reads the lighting setting. Specifically, the main control unit 51 refers to the data of the imaging sequence “light NO.” Selected in step S1241 from the storage unit 38. In this embodiment, reference is made to the data of the imaging sequence of “Light No. 2” shown in FIG.

ステップS1243において、主制御部51は、バックライトを点灯する。具体的には、主制御部51は、ステップS1242において参照した図12(b)の「ライトNO.2」の撮像シーケンスに合わせて、表示部21を発光させる。このように、表示部21が撮像シーケンスの順番に発光することによりセレクトされたライティングモードの動作をユーザに、報知する。   In step S1243, the main control unit 51 turns on the backlight. Specifically, the main control unit 51 causes the display unit 21 to emit light in accordance with the “light No. 2” imaging sequence in FIG. In this way, the display unit 21 notifies the user of the operation in the lighting mode selected by emitting light in the order of the imaging sequence.

ステップS1244において、主制御部51は、OKスイッチがONされたか否かを判定する。具体的には、主制御部51は、OKスイッチ(図示せず)が操作されたか否かを判定する。OKスイッチが操作された場合には、ステップS1244においてはYESと判定されて、処理は図14のステップS125に進む。OKスイッチが操作されない場合には、ステップS1244においてはNOと判定されて、処理はステップS1241に戻り、その後の処理が繰り返される。   In step S1244, the main control unit 51 determines whether or not the OK switch is turned on. Specifically, the main control unit 51 determines whether or not an OK switch (not shown) is operated. If the OK switch is operated, YES is determined in step S1244, and the process proceeds to step S125 in FIG. If the OK switch is not operated, NO is determined in step S1244, the process returns to step S1241, and the subsequent processes are repeated.

以上、図13の撮像処理のうち、ステップS2のモードスイッチ処理のうちにステップS124のライト選択処理の詳細な流れについて説明した。
次に、当該撮像処理のうち、ステップS105のライティングモード撮像処理の詳細な流れについて、図16を参照して説明する。
図16は、第2実施形態に係るライティングモード撮像処理の詳細な流れの一例を説明するフローチャートである。
The detailed flow of the light selection process in step S124 in the mode switch process in step S2 of the imaging process in FIG. 13 has been described above.
Next, a detailed flow of the lighting mode imaging process in step S105 in the imaging process will be described with reference to FIG.
FIG. 16 is a flowchart for explaining an example of a detailed flow of the lighting mode imaging processing according to the second embodiment.

上述したように、ステップS102のモードスイッチ処理において、ライティングモードが設定され、かつ、シャッターボタンの押下に伴いSHTFが「1」に設定されると、ステップS103,S104の各処理でそれぞれYESであると判定される。これにより、ステップS105のライティングモード撮像処理として、次のようなステップS141乃至ステップS144の一連の処理が実行される。   As described above, when the lighting mode is set in the mode switch process in step S102 and SHTF is set to “1” as the shutter button is pressed, YES is determined in each process in steps S103 and S104. It is determined. As a result, the following series of processing from step S141 to step S144 is executed as the lighting mode imaging processing in step S105.

ステップS141において、撮像装置1の各部は、撮像シーケンスに従って、各画像のデータの取り込みを実行する。各画像のデータの取り込みとは、所定のライティングの状態下で撮像された撮像画像のデータを画像切出部61に取り込む処理である。   In step S <b> 141, each unit of the imaging device 1 executes capturing of data of each image according to the imaging sequence. The fetching of data of each image is a process of fetching captured image data taken in a predetermined lighting state into the image cutout unit 61.

具体的には、主制御部51は、表示部21のうち第1エリアのみ全点灯させる(第2乃至第4エリアは消灯させる)。
例えば、第1エリアとして、表示部21をみるユーザ(被写体)からみて左側のエリア22aが設定されているものとする。即ち図12(b)の撮像シーケンスデータにおいてそのような設定がなされているものとする。
この場合、エリア22aのみが全点灯し(エリア22b乃至エリア22dが消灯し)、図11(c)のaのライティングの状態、即ち、被写体たるユーザの顔100の左側(ユーザからみて)が照射されるライティングの状態になる。
Specifically, the main control unit 51 turns on only the first area of the display unit 21 (turns off the second to fourth areas).
For example, it is assumed that an area 22a on the left side as viewed from the user (subject) viewing the display unit 21 is set as the first area. That is, it is assumed that such a setting is made in the imaging sequence data of FIG.
In this case, only the area 22a is turned on (the areas 22b to 22d are turned off), and the lighting state of a in FIG. 11C, that is, the left side of the user's face 100 as a subject (as viewed from the user) is irradiated. Will be in the lighting state.

次に、主制御部51は、第1エリアのみが全点灯した状態で撮像部22に被写体を撮像させ、その結果撮像部22から出力されてくる撮像画像のデータを、第1画像のデータとして画像切出部61に取り込ませる。
上述の例では、図11(c)のaのライティングの状態で撮像されるので、ユーザの顔100の右側(撮像画像をみる人からみて)に影がない撮像画像のデータが、第1画像のデータとして画像切出部61に取り込まれる。
Next, the main control unit 51 causes the imaging unit 22 to image the subject in a state where only the first area is lit, and the captured image data output from the imaging unit 22 as a result is used as the first image data. The image is cut out by the image cutout unit 61.
In the above example, since the image is captured in the lighting state of a in FIG. 11C, the captured image data without a shadow on the right side of the user's face 100 (as viewed by the person viewing the captured image) is the first image. The data is taken into the image cutout unit 61.

次に、主制御部51は、表示部21のうち第2エリアのみ全点灯させる(第1,第3及び第4エリアは消灯させる)。
例えば、第2エリアとして、表示部21をみるユーザ(被写体)からみて左側のエリア22bが設定されているものとする。即ち図12の撮像シーケンスデータにおいてそのような設定がなされているものとする。
この場合、エリア22bのみが全点灯し(エリア22a,エリア22c乃至エリア22dが消灯し)、図11(c)のbのライティングの状態、即ち、被写体たるユーザの顔100の左側(ユーザからみて)が照射されるライティングの状態になる。
Next, the main control unit 51 turns on only the second area of the display unit 21 (the first, third, and fourth areas are turned off).
For example, it is assumed that an area 22b on the left side as viewed from the user (subject) viewing the display unit 21 is set as the second area. That is, it is assumed that such setting is made in the imaging sequence data of FIG.
In this case, only the area 22b is turned on (the areas 22a, 22c to 22d are turned off), and the lighting state shown in FIG. 11C, that is, the left side of the user's face 100 as the subject (from the user's perspective). ) Is illuminated.

次に、主制御部51は、第2エリアのみが全点灯した状態で撮像部22に被写体を撮像させ、その結果撮像部22から出力されてくる撮像画像のデータを、第2画像のデータとして画像切出部61に取り込ませる。
上述の例では、図11(c)のbのライティングの状態で撮像されるので、ユーザの顔100の左側(撮像画像をみる人からみて)に影がない撮像画像のデータが、第2画像のデータとして画像切出部61に取り込まれる。
Next, the main control unit 51 causes the imaging unit 22 to image a subject in a state where only the second area is fully lit, and the captured image data output from the imaging unit 22 as a result is used as second image data. The image is cut out by the image cutout unit 61.
In the above-described example, since the image is captured in the lighting state of b in FIG. 11C, the captured image data without a shadow on the left side of the user's face 100 (as viewed from the person viewing the captured image) is the second image. The data is taken into the image cutout unit 61.

次に、主制御部51は、表示部21のうち第3エリアのみ全点灯させる(第1,第2及び第4エリアは消灯させる)。
例えば、第3エリアとして、表示部21をみるユーザ(被写体)からみて左側のエリア22cが設定されているものとする。即ち図12(b)の撮像シーケンスデータにおいてそのような設定がなされているものとする。
この場合、エリア22cのみが全点灯し(エリア22a,エリア22b乃至エリア22dが消灯し)、図11(c)のcのライティングの状態、即ち、被写体たるユーザの顔100の上側(ユーザからみて)が照射されるライティングの状態になる。
Next, the main control unit 51 turns on only the third area of the display unit 21 (the first, second, and fourth areas are turned off).
For example, it is assumed that an area 22c on the left side as viewed from the user (subject) viewing the display unit 21 is set as the third area. That is, it is assumed that such a setting is made in the imaging sequence data of FIG.
In this case, only the area 22c is turned on (the areas 22a, 22b to 22d are turned off), and the lighting state of c in FIG. 11C, that is, the upper side of the user's face 100 as the subject (from the user's perspective). ) Is illuminated.

次に、主制御部51は、第3エリアのみが全点灯した状態で撮像部22に被写体を撮像させ、その結果撮像部22から出力されてくる撮像画像のデータを、第3画像のデータとして画像切出部61に取り込ませる。
上述の例では、図11(c)のcのライティングの状態で撮像されるので、ユーザの顔100の上側(撮像画像をみる人からみて)に影がない撮像画像のデータが、第3画像のデータとして画像切出部61に取り込まれる。
Next, the main control unit 51 causes the imaging unit 22 to image the subject in a state where only the third area is fully lit, and the captured image data output from the imaging unit 22 as a result is used as third image data. The image is cut out by the image cutout unit 61.
In the above-described example, since the image is captured in the lighting state of c in FIG. 11C, the captured image data having no shadow above the user's face 100 (as viewed from the person viewing the captured image) is the third image. The data is taken into the image cutout unit 61.

次に、主制御部51は、表示部21のうち第4エリアのみ全点灯させる(第1乃至第3エリアは消灯させる)。
例えば、第4エリアとして、表示部21をみるユーザ(被写体)からみて左側のエリア22dが設定されているものとする。即ち図12(b)の撮像シーケンスデータにおいてそのような設定がなされているものとする。
この場合、エリア22dのみが全点灯し(エリア22a乃至エリア22cが消灯し)、図11(c)のdのライティングの状態、即ち、被写体たるユーザの顔100の下側(ユーザからみて)が照射されるライティングの状態になる。
Next, the main control unit 51 turns on only the fourth area of the display unit 21 (the first to third areas are turned off).
For example, it is assumed that an area 22d on the left side as viewed from the user (subject) viewing the display unit 21 is set as the fourth area. That is, it is assumed that such a setting is made in the imaging sequence data of FIG.
In this case, only the area 22d is turned on (the areas 22a to 22c are turned off), and the lighting state of d in FIG. 11C, that is, the lower side of the user's face 100 as a subject (as viewed from the user). The lighting will be illuminated.

次に、主制御部51は、第4エリアのみが全点灯した状態で撮像部22に被写体を撮像させ、その結果撮像部22から出力されてくる撮像画像のデータを、第4画像のデータとして画像切出部61に取り込ませる。
上述の例では、図11(c)のdのライティングの状態で撮像されるので、ユーザの顔100の下側(撮像画像をみる人からみて)に影がない撮像画像のデータが、第4画像のデータとして画像切出部61に取り込まれる。
Next, the main control unit 51 causes the imaging unit 22 to image the subject in a state where only the fourth area is fully lit, and the captured image data output from the imaging unit 22 as a result is used as the fourth image data. The image cutout unit 61 is made to take in.
In the above example, since the image is captured in the lighting state of d in FIG. 11C, the captured image data having no shadow on the lower side of the user's face 100 (as viewed by the person viewing the captured image) is the fourth. The image data is taken into the image cutout unit 61 as image data.

ステップS142において、撮像装置1の各部は、合成手法に従って、各画像のデータを合成することによって合成画像データを生成する。   In step S142, each unit of the imaging device 1 generates combined image data by combining the data of each image according to the combining method.

具体的には、画像切出部61は、第1画像のデータから、影のない側のa部分のデータを、第1切り出し画像のデータとして生成する。
上述の例では、図11(c)に示すように、影のない側のa部分(撮像画像をみる人からみて)のデータが、第1切り出し画像のデータとして生成される。
Specifically, the image cutout unit 61 generates the data of the a portion on the side without a shadow as the data of the first cutout image from the data of the first image.
In the above-described example, as shown in FIG. 11C, the data of the portion a (with respect to the person viewing the captured image) without the shadow is generated as the data of the first cutout image.

次に、画像切出部61は、第2画像のデータから、影のない側のb部分のデータを、第2切り出し画像のデータとして生成する。
上述の例では、図11(c)に示すように、影のない側のb部分(撮像画像をみる人からみて)のデータが、第2切り出し画像のデータとして生成される。
Next, the image cutout unit 61 generates data of the portion b on the side having no shadow as data of the second cutout image from the data of the second image.
In the above-described example, as shown in FIG. 11C, the data of the b portion without a shadow (as viewed from the person viewing the captured image) is generated as the data of the second cutout image.

次に、画像切出部61は、第3画像のデータから、影のない側のc部分のデータを、第3切り出し画像のデータとして生成する。
上述の例では、図11(c)に示すように、影のない側のc部分(撮像画像をみる人からみて)のデータが、第3切り出し画像のデータとして生成される。
Next, the image cutout unit 61 generates, from the third image data, the data of the c portion without a shadow as the third cutout image data.
In the above-described example, as shown in FIG. 11C, the data of the c portion without the shadow (as viewed from the person viewing the captured image) is generated as the data of the third cutout image.

次に、画像切出部61は、第4画像のデータから、影のない側のd部分のデータを、第4切り出し画像のデータとして生成する。
上述の例では、図11(c)に示すように、影のない側のd部分(撮像画像をみる人からみて)のデータが、第4切り出し画像のデータとして生成される。
Next, the image cutout unit 61 generates d portion data without a shadow as data of the fourth cutout image from the data of the fourth image.
In the above-described example, as shown in FIG. 11C, the data of the d portion without a shadow (as viewed from the person viewing the captured image) is generated as the data of the fourth cutout image.

次に、画像合成部62は、第1切り出し画像乃至第4切り出し画像の各データを合成することによって、合成画像のデータを生成する。
上述の例では、図4に示す画像、即ち、顔100に影のない画像のデータが、合成画像のデータとして生成される。
Next, the image synthesizing unit 62 generates synthesized image data by synthesizing the data of the first clipped image to the fourth clipped image.
In the above example, the image shown in FIG. 4, that is, data of an image having no shadow on the face 100 is generated as composite image data.

ステップS48において、記憶制御部52は、ステップS47の処理で生成された合成画像のデータを、リムーバブルメディア41等に保存する。その後、主制御部51は、SHTFを「0」に設定する(SHTF←0)。   In step S48, the storage control unit 52 stores the composite image data generated in the process of step S47 in the removable medium 41 or the like. Thereafter, the main control unit 51 sets SHTF to “0” (SHTF ← 0).

これにより、ライティングモード撮像処理は終了する。即ち、図13のステップS105の処理は終了し、その後、処理はステップS107に進む。   Thereby, the lighting mode imaging process is completed. That is, the process of step S105 in FIG. 13 ends, and then the process proceeds to step S107.

以上説明したように、第2実施形態に係る撮像装置1は、第1実施形態に係る撮像装置1と基本的に同様のハードウェア構成及び機能的構成を取ることができる。従って、第2実施形態でも、第1実施形態と全く同様の効果を奏することが可能になる。
さらに、第2実施形態では、表示部21における照明として機能させる領域として、4つのエリア21a乃至21dが設定可能である。
このため、撮像シーケンスデータには、照明として機能させる領域及び当該領域の変化の順番が相異なる複数の手順の各々に対応する複数のライティングモードを登録させることが可能になる。この場合、主制御部51は、撮像シーケンスに登録された複数のライティングモードの中から1つを選択し、選択したライティングモードに従って制御を実行することができる。
これにより、ユーザは、様々なシチュエーションや条件に適するライティングモードを自由にかつ容易に登録することができる。
As described above, the imaging device 1 according to the second embodiment can have basically the same hardware configuration and functional configuration as the imaging device 1 according to the first embodiment. Therefore, the second embodiment can achieve the same effect as the first embodiment.
Furthermore, in the second embodiment, four areas 21a to 21d can be set as regions to function as illumination in the display unit 21.
For this reason, it becomes possible to register in the imaging sequence data a plurality of lighting modes corresponding to each of a plurality of procedures that are different from each other in a region that functions as illumination and a change order of the region. In this case, the main control unit 51 can select one of a plurality of lighting modes registered in the imaging sequence and execute control according to the selected lighting mode.
Thereby, the user can freely and easily register a lighting mode suitable for various situations and conditions.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

また、上述の実施形態では、画像合成部62は、順次撮像された複数の撮像画像の一部の各データを合成するように構成したが、これに限られない。例えば、撮像装置1は、一部の撮像画像について再撮影を行い、合成対象の画像を合成前に差し替え可能になるように構成してもよい。   In the above-described embodiment, the image combining unit 62 is configured to combine each part of data of a plurality of captured images that are sequentially captured, but the present invention is not limited to this. For example, the imaging apparatus 1 may be configured so that a part of the captured images can be re-photographed so that the synthesis target image can be replaced before synthesis.

また、上述の実施形態では、1回のシャッターボタンの押下により、撮像部22が撮像の動作を複数回繰り返したが(いわゆる連写をしたが)、撮像部22の撮像の動作はこれに限られない。例えば、撮像装置1は、1回のシャッターボタンの押下を契機にして、1回の撮像の動作を行うように構成してもよい。このように構成することにより、被写体が撮像に適した状態になるのを待って、撮像を行うことが可能となる。   In the above-described embodiment, the imaging unit 22 repeats the imaging operation a plurality of times (so-called continuous shooting) by pressing the shutter button once. However, the imaging operation of the imaging unit 22 is not limited to this. I can't. For example, the imaging apparatus 1 may be configured to perform a single imaging operation when a shutter button is pressed once. With this configuration, it is possible to perform imaging after waiting for the subject to be in a state suitable for imaging.

また、表示部21における照明として機能させる領域は、上述の第1実施形態では2つのエリア21A及び21Bとされ、上述の第2実施形態では4つのエリア21a乃至エリア21dとされたが、これに限られない。即ち、表示部21における照明として機能させる領域についての、個数、形状、表示部21内の位置や大きさ等は任意で構わない。
このように、表示部21における照明として機能させる領域を固定にせず任意にすることで、各種各様のシチュエーションや条件に対応するライティングパターンを容易に実現することが可能になる。
Moreover, the area | region made to function as illumination in the display part 21 was made into the two areas 21A and 21B in the above-mentioned 1st Embodiment, and was made into the four areas 21a thru | or the area 21d in the above-mentioned 2nd Embodiment. Not limited. That is, the number, shape, position and size in the display unit 21 and the like of the region that functions as illumination in the display unit 21 may be arbitrary.
As described above, by making the area functioning as illumination in the display unit 21 arbitrary without being fixed, it is possible to easily realize lighting patterns corresponding to various situations and conditions.

また、上述の実施形態では、表示部21は、LCDで構成されているがこれに限られず、任意に設定された(照明として機能させる)領域毎に一定の明るさ(輝度)で発光可能な任意の表示部材、即ち照明として機能し得る任意の表示部材により構成することができる。例えば、表示部21は、LED(Light Emitting Diode)やOEL(Organic Electro−Luminescence:有機EL)素子を光源として有する表示部材で構成することもできる。   In the above-described embodiment, the display unit 21 is configured by an LCD, but is not limited to this, and can emit light at a constant brightness (luminance) for each arbitrarily set (function as illumination) area. Any display member, that is, any display member that can function as illumination can be used. For example, the display part 21 can also be comprised with the display member which has LED (Light Emitting Diode) and an OEL (Organic Electro-Luminescence: Organic EL) element as a light source.

また、上述の実施形態では、本発明が適用される電子装置は、デジタルカメラ等の撮像装置1を例として説明したが、特にこれに限定されない。本発明は、上述のスケール表示処理を実行可能な電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、ビデオカメラ、携帯型ナビゲーション装置、携帯電話装置、ポータブルゲーム機等に適用可能である。   In the above-described embodiment, the electronic apparatus to which the present invention is applied has been described by taking the imaging apparatus 1 such as a digital camera as an example, but is not particularly limited thereto. The present invention can be applied to general electronic devices capable of executing the scale display process described above. Specifically, for example, the present invention can be applied to a notebook personal computer, a video camera, a portable navigation device, a mobile phone device, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。また例えば、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。換言すると、図3の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図3の例に限定されない。また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。   The series of processes described above can be executed by hardware or can be executed by software. For example, the series of processes described above can be executed by hardware or can be executed by software. In other words, the functional configuration of FIG. 3 is merely an example, and is not particularly limited. That is, it is sufficient that the imaging apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG. In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。   When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium. The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア41により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア41は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2のROM12や、図2の記憶部38に含まれるハードディスク等で構成される。   The recording medium including such a program is not only configured by the removable medium 41 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. The recording medium etc. provided in The removable medium 41 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body is configured by, for example, the ROM 12 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

1・・・撮像装置、21・・・表示部、22・・・撮像部、31・・・CPU、32・・・ROM、33・・・RAM、34・・・画像処理部、35・・・バス、36・・・入出力インターフェース、37・・・操作部、38・・・記憶部、39・・・通信部、40・・・ドライブ、41・・・リムーバブルメディア、51・・主制御部、52・・・記憶制御部、61・・・画像切出部、62・・・画像合成部   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 21 ... Display part, 22 ... Imaging part, 31 ... CPU, 32 ... ROM, 33 ... RAM, 34 ... Image processing part, 35 ... -Bus, 36 ... I / O interface, 37 ... Operation unit, 38 ... Storage unit, 39 ... Communication unit, 40 ... Drive, 41 ... Removable media, 51 ... Main control , 52... Storage control unit, 61... Image cropping unit, 62.

Claims (8)

各画素を発光することにより、画像を表示する表示手段と、
被写体を撮像することによって、撮像画像のデータを生成する撮像手段と、
前記表示手段の各画素のうち、一部の領域を構成する各画素を発光させることにより、前記被写体の一部を照射させる照明として前記領域を機能させた状態で、前記撮像手段に前記被写体を撮像させる制御を実行する制御手段と、
前記制御手段の制御により、前記表示手段の複数の領域のそれぞれが順次前記照明として機能した各状態で、前記被写体が前記撮像手段により順次撮像された場合、前記撮像手段により順次生成される複数の撮像画像のデータの各々について、一部分の領域のデータを切り出し画像のデータとしてそれぞれ生成する画像切出手段と、
前記画像切出手段により生成された前記複数の切り出し画像のデータを合成することによって、合成画像のデータを生成する画像合成手段と、
を備える撮像装置。
Display means for displaying an image by emitting light from each pixel;
Imaging means for generating captured image data by imaging a subject;
Among the pixels of the display means, each pixel constituting a part of the region is caused to emit light so that the region is functioned as illumination for illuminating a part of the subject, and the subject is applied to the imaging unit. Control means for executing control for imaging;
Under the control of the control means, when each of the plurality of regions of the display means sequentially functions as the illumination, and the subject is sequentially imaged by the imaging means, a plurality of images that are sequentially generated by the imaging means For each of the captured image data, image cutout means for generating a partial area data as cutout image data,
Image combining means for generating combined image data by combining the data of the plurality of clipped images generated by the image cutting means;
An imaging apparatus comprising:
前記制御手段は、前記制御として、
前記被写体の左側を照射して右側に影を生じさせるように前記表示手段の第1領域を照明として機能させた状態で、前記撮像手段に前記被写体を撮像させる第1制御と、
前記被写体の右側を照射して左側に影を生じさせるように前記表示手段の第2領域を照明として機能させた状態で、前記撮像手段に前記被写体を撮像させる第2制御と、
をそれぞれ実行する、
請求項1に記載の撮像装置。
The control means, as the control,
A first control for causing the imaging means to image the subject in a state where the first area of the display means functions as illumination so as to irradiate the left side of the subject and cause a shadow on the right side;
A second control for causing the imaging means to image the subject in a state where the second area of the display means functions as illumination so as to irradiate the right side of the subject and cause a shadow on the left side;
Execute each
The imaging device according to claim 1.
前記画像切出手段は、
前記制御手段の前記第1制御の結果として前記撮像手段により生成された撮像画像のデータから、前記被写体のうち、影が生じている側の略半分を含む画像のデータを、第1切り出し画像のデータとして生成し、
前記制御手段の前記第2制御の結果として前記撮像手段により生成された撮像画像のデータから、前記被写体のうち、影が生じている側の略半分を含む画像のデータを、第2切り出し画像のデータとして生成し、
前記画像合成手段は、前記画像切出手段により生成された前記第1切り出し画像及び前記第2切り出し画像の各データを合成することによって、前記合成画像のデータを生成する、
請求項2に記載の撮像装置。
The image cutting means is
From the captured image data generated by the imaging unit as a result of the first control of the control unit, data of an image including approximately half of the subject on which the shadow is generated is converted into the first cut-out image data. As data,
From the captured image data generated by the imaging unit as a result of the second control of the control unit, the image data including approximately half of the subject on which the shadow is generated is converted into the second cut-out image data. As data,
The image synthesizing unit generates the data of the synthesized image by synthesizing the data of the first cutout image and the second cutout image generated by the image cutout unit;
The imaging device according to claim 2.
前記画像切出手段は、
前記制御手段の前記第1制御の結果として前記撮像手段により生成された撮像画像のデータから、前記被写体のうち、影が生じていない側の略半分を含む画像のデータを、第1切り出し画像のデータとして生成し、
前記制御手段の前記第2制御の結果として前記撮像手段により生成された撮像画像のデータから、前記被写体のうち、影が生じていない側の略半分を含む画像のデータを、第2切り出し画像のデータとして生成し、
前記画像合成手段は、前記画像切出手段により生成された前記第1切り出し画像及び前記第2切り出し画像の各データを合成することによって、前記合成画像のデータを生成する、
請求項2に記載の撮像装置。
The image cutting means is
From the captured image data generated by the imaging unit as a result of the first control of the control unit, data of an image including approximately half of the subject on the side where no shadow is generated is obtained. As data,
From the captured image data generated by the imaging unit as a result of the second control of the control unit, image data including approximately half of the subject on the side where no shadow is generated is converted into the second cut-out image data. As data,
The image synthesizing unit generates the data of the synthesized image by synthesizing the data of the first cutout image and the second cutout image generated by the image cutout unit;
The imaging device according to claim 2.
前記表示手段における照明として機能させる領域を複数回変化させて、照明として機能させる領域が変化する毎に、前記撮像手段に前記被写体を撮像させていく手順を示す撮像シーケンスデータを保持する保持手段をさらに備え、
前記制御手段は、前記保持手段に保持された前記撮像シーケンスデータに従って、前記制御を実行する、
請求項1乃至4の何れか1項に記載の撮像装置。
A holding unit that holds imaging sequence data indicating a procedure for causing the imaging unit to image the subject each time the region that functions as illumination in the display unit is changed a plurality of times and the region that functions as illumination changes. In addition,
The control means executes the control according to the imaging sequence data held in the holding means.
The imaging device according to any one of claims 1 to 4.
前記保持手段に保持されている前記撮像シーケンスデータには、撮像装置の動作のモードとして、照明として機能させる領域及び当該領域の変化の順番が相異なる複数の手順の各々に対応する複数のモードが登録されており、
前記制御手段は、前記撮像シーケンスデータに登録された前記複数のモードの中から1つのモードを選択し、選択した前記1つのモードに従って前記制御を実行する、
請求項5に記載の撮像装置。
In the imaging sequence data held in the holding means, as an operation mode of the imaging apparatus, there are a plurality of modes corresponding to each of a plurality of procedures in which the region functioning as illumination and the order of change of the region are different. Registered,
The control means selects one mode from the plurality of modes registered in the imaging sequence data, and executes the control according to the selected one mode.
The imaging device according to claim 5.
各画素を発光することにより、画像を表示する表示手段と、
被写体を撮像することによって、撮像画像のデータを生成する撮像手段と、
を備える撮像装置が実行する撮像方法において、
前記表示手段の各画素のうち、一部の領域を構成する各画素を発光させることにより、前記被写体の一部を照射させる照明として前記領域を機能させた状態で、前記撮像手段に前記被写体を撮像させる制御を実行する制御ステップと、
前記制御ステップの制御処理により、前記表示手段の複数の領域のそれぞれが順次前記照明として機能した各状態で、前記被写体が前記撮像手段により順次撮像された場合、前記撮像手段により順次生成される複数の撮像画像のデータの各々について、一部分の領域のデータを切り出し画像のデータとしてそれぞれ生成する画像切出ステップと、
前記画像切出ステップの処理により生成された前記複数の切り出し画像のデータを合成することによって、合成画像のデータを生成する画像合成ステップと、
を含む撮像方法。
Display means for displaying an image by emitting light from each pixel;
Imaging means for generating captured image data by imaging a subject;
In an imaging method executed by an imaging apparatus comprising:
Among the pixels of the display means, each pixel constituting a part of the region is caused to emit light so that the region is functioned as illumination for illuminating a part of the subject, and the subject is applied to the imaging unit. A control step for executing control for imaging;
In the state where each of the plurality of areas of the display unit sequentially functions as the illumination by the control process of the control step, when the subject is sequentially imaged by the imaging unit, a plurality of images sequentially generated by the imaging unit For each of the captured image data, an image cutting step for generating a partial area data as cut image data,
An image synthesis step of generating data of a composite image by combining the data of the plurality of cut-out images generated by the processing of the image cut-out step;
An imaging method including:
各画素を発光することにより、画像を表示する表示手段と、
被写体を撮像することによって、撮像画像のデータを生成する撮像手段と、
を備える撮像装置を制御するコンピュータに、
前記表示手段の各画素のうち、一部の領域を構成する各画素を発光させることにより、前記被写体の一部を照射させる照明として前記領域を機能させた状態で、前記撮像手段に前記被写体を撮像させる制御を実行する制御機能と、
前記制御機能の発揮により、前記表示手段の複数の領域のそれぞれが順次前記照明として機能した各状態で、前記被写体が前記撮像手段により順次撮像された場合、前記撮像手段により順次生成される複数の撮像画像のデータの各々について、一部分の領域のデータを切り出し画像のデータとしてそれぞれ生成する画像切出機能と、
前記画像切出機能の発揮により生成された前記複数の切り出し画像のデータを合成することによって、合成画像のデータを生成する画像合成機能と、
を実現させるプログラム。
Display means for displaying an image by emitting light from each pixel;
Imaging means for generating captured image data by imaging a subject;
A computer for controlling an imaging apparatus comprising:
Among the pixels of the display means, each pixel constituting a part of the region is caused to emit light so that the region is functioned as illumination for illuminating a part of the subject, and the subject is applied to the imaging unit. A control function for executing control for imaging;
In the state where each of the plurality of regions of the display unit sequentially functions as the illumination due to the display of the control function, when the subject is sequentially imaged by the imaging unit, a plurality of images sequentially generated by the imaging unit are generated. For each of the captured image data, an image cutout function for generating a partial area data as cutout image data,
An image composition function for generating data of a composite image by combining the data of the plurality of cut-out images generated by exhibiting the image cut-out function;
A program that realizes
JP2010290538A 2010-12-27 2010-12-27 Imaging apparatus, imaging method, and program Expired - Fee Related JP5548954B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010290538A JP5548954B2 (en) 2010-12-27 2010-12-27 Imaging apparatus, imaging method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010290538A JP5548954B2 (en) 2010-12-27 2010-12-27 Imaging apparatus, imaging method, and program

Publications (2)

Publication Number Publication Date
JP2012138819A true JP2012138819A (en) 2012-07-19
JP5548954B2 JP5548954B2 (en) 2014-07-16

Family

ID=46675884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010290538A Expired - Fee Related JP5548954B2 (en) 2010-12-27 2010-12-27 Imaging apparatus, imaging method, and program

Country Status (1)

Country Link
JP (1) JP5548954B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109512A (en) * 2012-12-03 2014-06-12 Omron Corp Image composition device and image composition method
CN103986879A (en) * 2014-06-04 2014-08-13 联想(北京)有限公司 Electronic equipment and control method for electronic equipment
US10121265B2 (en) 2014-03-25 2018-11-06 Sony Corporation Image processing device and method to calculate luminosity of an environmental light of an image
US10567670B2 (en) 2015-03-30 2020-02-18 Sharp Kabushiki Kaisha Image-processing device
JP2022122872A (en) * 2013-12-10 2022-08-23 株式会社半導体エネルギー研究所 Electronic apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268323A (en) * 2000-03-22 2001-09-28 Nikon Corp Image input device
JP2005065077A (en) * 2003-08-19 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> Photographing device
JP2006277303A (en) * 2005-03-29 2006-10-12 Fuji Photo Film Co Ltd Photographic system
WO2007108321A1 (en) * 2006-03-16 2007-09-27 Konica Minolta Holdings, Inc. Portrait photographing device
JP2010154190A (en) * 2008-12-25 2010-07-08 Nec Personal Products Co Ltd Imaging apparatus, display apparatus, and imaging method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268323A (en) * 2000-03-22 2001-09-28 Nikon Corp Image input device
JP2005065077A (en) * 2003-08-19 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> Photographing device
JP2006277303A (en) * 2005-03-29 2006-10-12 Fuji Photo Film Co Ltd Photographic system
WO2007108321A1 (en) * 2006-03-16 2007-09-27 Konica Minolta Holdings, Inc. Portrait photographing device
JP2010154190A (en) * 2008-12-25 2010-07-08 Nec Personal Products Co Ltd Imaging apparatus, display apparatus, and imaging method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109512A (en) * 2012-12-03 2014-06-12 Omron Corp Image composition device and image composition method
JP2022122872A (en) * 2013-12-10 2022-08-23 株式会社半導体エネルギー研究所 Electronic apparatus
JP7247402B2 (en) 2013-12-10 2023-03-28 株式会社半導体エネルギー研究所 Electronics
US10121265B2 (en) 2014-03-25 2018-11-06 Sony Corporation Image processing device and method to calculate luminosity of an environmental light of an image
CN103986879A (en) * 2014-06-04 2014-08-13 联想(北京)有限公司 Electronic equipment and control method for electronic equipment
US10567670B2 (en) 2015-03-30 2020-02-18 Sharp Kabushiki Kaisha Image-processing device

Also Published As

Publication number Publication date
JP5548954B2 (en) 2014-07-16

Similar Documents

Publication Publication Date Title
JP5751270B2 (en) Imaging apparatus, imaging control method, and program
JP4823970B2 (en) Image editing device
JP4964028B2 (en) Imaging device
JP5639140B2 (en) camera
JP5561019B2 (en) Imaging apparatus, program, and imaging method
JP5548954B2 (en) Imaging apparatus, imaging method, and program
JP5157092B2 (en) Projection device with display monitor
JP2008035480A (en) Camera, image processing method of camera, program, recording medium
KR20130118780A (en) Image processing apparatus and image processing method for performing image synthesis
TW200820123A (en) Method and system of generating high dynamic range image corresponding to specific scene
JP2006091092A (en) Projector
US9088722B2 (en) Image processing method, computer-readable recording medium, and image processing apparatus
JP2004180245A (en) Mobile terminal equipment, image pickup device, image pickup method and program
US20120320238A1 (en) Image processing system, camera system and image capture and synthesis method thereof
JP2003066519A (en) Camera device, and method for controlling emission of light in camera device
JP4475118B2 (en) Camera device, white balance bracketing shooting method
JP2007183512A (en) Photographing apparatus and illuminating device
JP6090003B2 (en) Imaging apparatus, backlight setting method, and program
JP5803129B2 (en) camera
JP2012134585A (en) Camera
JP6084310B2 (en) Imaging apparatus and imaging method
JP2017055158A (en) Imaging device, imaging control method and imaging control program
JP4470909B2 (en) Camera device and light emission control method in camera device
JP6115603B2 (en) camera
JP2012039204A (en) Electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140428

R150 Certificate of patent or registration of utility model

Ref document number: 5548954

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees