JP2012151724A - Synthetic image creating apparatus, synthetic image creating program, and imaging apparatus - Google Patents

Synthetic image creating apparatus, synthetic image creating program, and imaging apparatus Download PDF

Info

Publication number
JP2012151724A
JP2012151724A JP2011009620A JP2011009620A JP2012151724A JP 2012151724 A JP2012151724 A JP 2012151724A JP 2011009620 A JP2011009620 A JP 2011009620A JP 2011009620 A JP2011009620 A JP 2011009620A JP 2012151724 A JP2012151724 A JP 2012151724A
Authority
JP
Japan
Prior art keywords
layer
image
unit
composite image
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011009620A
Other languages
Japanese (ja)
Inventor
Takeyo Ito
健世 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2011009620A priority Critical patent/JP2012151724A/en
Publication of JP2012151724A publication Critical patent/JP2012151724A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To solve such a problem that a complex image processing is necessary to change a size of a subject, position, lightness and darkness, shading, clearness, saturation, chromatic sum, and so on in order to generate an image having perspective and stereoscopic effect.SOLUTION: The synthetic image creating apparatus comprises: a layer creating part 112 which generates a plurality of layer images according to perspective of a subject by edging and cutting off subjects with common perspective on an image to make one layer image; and a layer synthesizing part 113 which generates a synthetic image with a stereoscopic effect by synthesizing a plurality of layer images generated by the layer creating part 112.

Description

本発明は、二次元画像から立体感のある画像を作成する技術に関する。   The present invention relates to a technique for creating a stereoscopic image from a two-dimensional image.

画像をデジタル化することによって、画像の加工が容易になり、様々な画像処理・加工技術が開発されている。例えば、画像から特定の人物を抽出するカメラ(特許文献1参照)や、画面上で特定の被写体の範囲を特定する輪郭抽出機能を有するカメラ(特許文献2参照)が知られている。   By digitizing an image, it becomes easier to process the image, and various image processing / processing techniques have been developed. For example, a camera that extracts a specific person from an image (see Patent Document 1) and a camera that has a contour extraction function that specifies a range of a specific subject on a screen (see Patent Document 2) are known.

一方、最近では、撮影により得られた画像に対して画像処理を施すことによって、創作的な画像を生成するカメラが求められ始めている。その1つとして、立体感のある画像を生成できるカメラがいくつか提案されている。例えば、二次元のロゴマークを立体的な画像に合成する画像合成方法が知られている(特許文献3参照)。また、撮影により得られた画像を、遠近感や立体感を強調した画像に変換する画像処理装置も提案されている(特許文献4参照)。   On the other hand, recently, there has been a demand for a camera that generates a creative image by performing image processing on an image obtained by photographing. As one of them, several cameras that can generate a stereoscopic image have been proposed. For example, an image composition method for synthesizing a two-dimensional logo mark into a three-dimensional image is known (see Patent Document 3). There has also been proposed an image processing apparatus that converts an image obtained by photographing into an image that emphasizes perspective and stereoscopic effect (see Patent Document 4).

特開2010−098404号公報JP 2010-098404 A 特開2010−213105号公報JP 2010-213105 A 特開2001−223877号公報JP 2001-223877 A 特開2010−154422号公報JP 2010-154422 A

しかしながら、撮影により得られた画像を、遠近感や立体感を強調した画像に変換する特許文献4に記載の技術では、被写体の大きさ、位置、明暗、濃淡、鮮明、彩度、色和などを変更する複雑な画像処理を施す必要があった。   However, in the technique described in Patent Document 4 that converts an image obtained by shooting into an image that emphasizes perspective and stereoscopic effect, the size, position, brightness, shading, clearness, saturation, color summation of the subject, etc. It was necessary to carry out complicated image processing to change.

本発明は、複雑な画像処理を施すことなく、立体感のある画像を生成する技術を提供することを目的とする。   An object of this invention is to provide the technique which produces | generates an image with a three-dimensional effect, without performing complicated image processing.

本発明のある態様に係る合成画像作成装置は、画像上で遠近感が共通する被写体を縁取りして切り取ることによって、1つのレイヤー画像とし、被写体の遠近感に応じて複数のレイヤー画像を作成するレイヤー作成部と、前記レイヤー作成部によって作成された複数のレイヤー画像を合成することによって、立体感のある合成画像を作成するレイヤー合成部と、を備える。   A composite image creation apparatus according to an aspect of the present invention creates a single layer image by trimming a subject with a common perspective on the image, and creates a plurality of layer images according to the perspective of the subject. A layer creation unit; and a layer synthesis unit that creates a composite image having a stereoscopic effect by synthesizing a plurality of layer images created by the layer creation unit.

本発明の別の態様に係る撮像装置は、画像上で遠近感が共通する被写体を縁取りして切り取ることによって、1つのレイヤー画像とし、被写体の遠近感に応じて複数のレイヤー画像を作成するレイヤー作成部と、前記レイヤー作成部によって作成された複数のレイヤー画像を合成することによって、立体感のある合成画像を作成するレイヤー合成部と、画像を表示する表示部と、撮影時にライブビュー画像を前記表示部に表示させる表示制御部と、を備え、前記表示制御部は、前記レイヤー合成部によって作成された立体感のある合成画像を前記ライブビュー画像として前記表示部に表示させる。   An imaging apparatus according to another aspect of the present invention provides a single layer image by trimming and cropping subjects having a common perspective on an image, and creates a plurality of layer images according to the perspective of the subject A composition unit, a layer composition unit that creates a three-dimensional composite image by compositing a plurality of layer images created by the layer creation unit, a display unit that displays an image, and a live view image at the time of shooting A display control unit to be displayed on the display unit, and the display control unit causes the display unit to display a three-dimensional composite image created by the layer composition unit as the live view image.

本発明のさらに別の態様に係る合成画像作成プログラムは、画像上で遠近感が共通する被写体を縁取りして切り取ることによって、1つのレイヤー画像とし、被写体の遠近感に応じて複数のレイヤー画像を作成するステップと、前記作成された複数のレイヤー画像を合成することによって、立体感のある合成画像を作成するステップとをコンピュータに実行させる。   According to still another aspect of the present invention, there is provided a composite image creation program that creates a single layer image by trimming a subject having a common perspective on the image and cutting a plurality of layer images according to the perspective of the subject. The computer is caused to execute a step of creating and a step of creating a three-dimensional composite image by combining the plurality of generated layer images.

本発明によれば、被写体の大きさ等を変更する複雑な画像処理を施すことなく、立体感のある画像を容易に生成することができる。   According to the present invention, it is possible to easily generate a stereoscopic image without performing complicated image processing for changing the size of the subject.

一実施の形態における合成画像作成装置を備えたデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera provided with the synthesized image production apparatus in one embodiment. ライブビュー画像の一例を示す図である。It is a figure which shows an example of a live view image. レイヤー画像数が5に設定された場合のレイヤー画像の生成方法について説明するための図である。It is a figure for demonstrating the production | generation method of a layer image when the number of layer images is set to five. 図3に示す5つのレイヤー画像を合成することによって生成される、立体感のある画像の一例を示す図である。It is a figure which shows an example of the image with a three-dimensional effect produced | generated by synthesize | combining the five layer image shown in FIG. 図5(A)は、レイヤー画像数を9つとした場合の合成画像の一例を示す図であり、図5(B)は、レイヤー画像数が5の場合であって、レイヤー画像に影を付加する処理を行った場合の合成画像の一例を示す図である。FIG. 5A is a diagram showing an example of a composite image when the number of layer images is nine, and FIG. 5B is a case where the number of layer images is five, and a shadow is added to the layer image. It is a figure which shows an example of the synthesized image at the time of performing the process to perform. 視点が変化したような表示効果を表現する原理を説明するための図である。It is a figure for demonstrating the principle of expressing the display effect that the viewpoint changed. 図7(A)は、図4に示す合成画像に対して、L視点から見たような表示を行った状態を示す図であり、図7(B)は、図4に示す合成画像に対して、R視点から見たような表示を行った状態を示す図である。7A is a diagram showing a state in which the composite image shown in FIG. 4 is displayed as seen from the L viewpoint, and FIG. 7B is a diagram showing the composite image shown in FIG. FIG. 6 is a diagram illustrating a state where display is performed as viewed from an R viewpoint. 図8(A)は、デジタルカメラを傾けていない状態において、表示部に表示される合成画像の一例を示す図であり、図8(B)は、デジタルカメラが右側に傾けられた状態において、表示部に表示される合成画像の一例を示す図である。FIG. 8A is a diagram illustrating an example of a composite image displayed on the display unit in a state where the digital camera is not tilted, and FIG. 8B is a diagram where the digital camera is tilted to the right side. It is a figure which shows an example of the synthesized image displayed on a display part. レイヤー画像に含める被写体を、ユーザが指定するための画面の一例を示す図である。It is a figure which shows an example of the screen for a user to specify the subject included in a layer image. 一実施の形態における合成画像作成装置を備えたデジタルカメラによって行われる処理内容を示すフローチャートである。It is a flowchart which shows the processing content performed with the digital camera provided with the synthesized image production apparatus in one Embodiment. 立体ライブビュー表示処理の詳細な内容を示すフローチャートである。It is a flowchart which shows the detailed content of a three-dimensional live view display process.

図1は、一実施の形態におけるデジタルカメラ1の構成を示すブロック図である。このデジタルカメラ1は、撮影機能を有する撮像装置であり、また、立体感のある合成画像を作成する合成画像作成装置5でもある。デジタルカメラ1は、制御部11と、プログラム/データ記憶部12と、操作部13と、角度センサ14と、撮像部15と、SDRAM16と、画像処理部17と、表示ドライバー部18と、表示部19と、圧縮伸長部20と、再生部21と、記録部22と、画像記憶部23とを備える。   FIG. 1 is a block diagram illustrating a configuration of a digital camera 1 according to an embodiment. The digital camera 1 is an imaging device having a photographing function, and is also a composite image creation device 5 that creates a composite image having a stereoscopic effect. The digital camera 1 includes a control unit 11, a program / data storage unit 12, an operation unit 13, an angle sensor 14, an imaging unit 15, an SDRAM 16, an image processing unit 17, a display driver unit 18, and a display unit. 19, a compression / decompression unit 20, a playback unit 21, a recording unit 22, and an image storage unit 23.

制御部(CPU)11は、プログラム/データ記憶部12に記憶された制御プログラムに従って動作し、カメラの全体制御を行う。制御部11内には、表示制御部111、レイヤー作成部112、レイヤー合成部113、および、傾き検出部114が設けられている。表示制御部111、レイヤー作成部112、レイヤー合成部113、および、傾き検出部114は、制御プログラムにより実行される処理の一部であるため、制御部11に含まれる機能部として説明する。   The control unit (CPU) 11 operates according to a control program stored in the program / data storage unit 12 and performs overall control of the camera. In the control unit 11, a display control unit 111, a layer creation unit 112, a layer composition unit 113, and an inclination detection unit 114 are provided. Since the display control unit 111, the layer creation unit 112, the layer composition unit 113, and the inclination detection unit 114 are part of the processing executed by the control program, they will be described as functional units included in the control unit 11.

表示制御部111は、後述する表示部19に静止画および動画を含む再生画像を表示する際の表示制御を行う。   The display control unit 111 performs display control when displaying a reproduced image including a still image and a moving image on the display unit 19 described later.

レイヤー作成部112は、画像の輝度差およびコントラストから、各被写体の輪郭を検出し、さらに被写体の色や形の情報を考慮して、各被写体の形状を特定する。レイヤー作成部112はさらに、特定した各被写体形状の位置関係に基づいて、レイヤー画像を作成する。レイヤー画像の詳細は後述する。   The layer creation unit 112 detects the contour of each subject from the luminance difference and contrast of the image, and further specifies the shape of each subject in consideration of information on the color and shape of the subject. The layer creating unit 112 further creates a layer image based on the positional relationship between the identified subject shapes. Details of the layer image will be described later.

レイヤー合成部113は、レイヤー作成部112で作成された複数のレイヤー画像を合成して、立体感のある合成画像を生成する。   The layer synthesizing unit 113 synthesizes a plurality of layer images created by the layer creating unit 112 to generate a three-dimensional synthesized image.

傾き検出部114は、角度センサ14で検出されるデジタルカメラ1の角度に基づいて、デジタルカメラ1の傾きを検出する。   The tilt detection unit 114 detects the tilt of the digital camera 1 based on the angle of the digital camera 1 detected by the angle sensor 14.

制御部11には、プログラム/データ記憶部12、操作部13、角度センサ14、および、バス25が接続されている。プログラム/データ記憶部12には、前述したように。制御部11において実行するプログラムが記憶されており、各種データも記憶されている。   The control unit 11 is connected to a program / data storage unit 12, an operation unit 13, an angle sensor 14, and a bus 25. As described above, the program / data storage unit 12 has the same configuration. A program to be executed in the control unit 11 is stored, and various data are also stored.

操作部13は、ユーザがカメラに指示を与えるための各種操作部材およびタッチパネルを有する。各種操作部材には、例えば、電源釦、レリーズ釦、OK釦、十字釦、再生釦、テレワイド釦等が含まれる。   The operation unit 13 includes various operation members and a touch panel for a user to give an instruction to the camera. The various operation members include, for example, a power button, a release button, an OK button, a cross button, a playback button, a tele wide button, and the like.

バス25には、制御部11の他に、撮像部15、SDRAM16、画像処理部17、表示ドライバー部18、圧縮伸長部20、再生部21、および、記録部22が接続されている。   In addition to the control unit 11, the imaging unit 15, SDRAM 16, image processing unit 17, display driver unit 18, compression / decompression unit 20, reproduction unit 21, and recording unit 22 are connected to the bus 25.

撮像部15は、被写体像を結像させるための撮影レンズ、被写体像を画像データに変換するための撮像素子、および、これらの処理回路、撮影レンズの光路中に介挿された絞りおよびシャッタ等を含む。撮像部15によって生成された静止画像や連続画像の画像データはバス25に出力される。   The imaging unit 15 includes a photographing lens for forming a subject image, an imaging element for converting the subject image into image data, a processing circuit thereof, a diaphragm and a shutter interposed in the optical path of the photographing lens, and the like. including. Image data of still images and continuous images generated by the imaging unit 15 is output to the bus 25.

SDRAM16は、電気的に書き換え可能な揮発性の一時記憶メモリであり、撮像部15から出力される静止画像や連続画像の画像データの一時記憶に用いられる。   The SDRAM 16 is an electrically rewritable volatile temporary storage memory, and is used for temporary storage of still image and continuous image data output from the imaging unit 15.

画像処理部17は、デジタル画像データのデジタル的増幅(デジタルゲイン調整処理)、ホワイトバランス、色補正、ガンマ(γ)補正、コントラスト補正、ライブビュー表示用画像生成、動画画像生成、インデックス画像(縮小画像)生成等の各種画像処理を行う。   The image processing unit 17 performs digital amplification (digital gain adjustment processing) of digital image data, white balance, color correction, gamma (γ) correction, contrast correction, live view display image generation, moving image generation, index image (reduction) Various image processing such as (image) generation is performed.

圧縮伸長部20は、SDRAM16に一時記憶された静止画像や連続画像の画像データをJPEGやTIFF等の圧縮方式により圧縮し、また表示等のために伸長するための回路である。なお、画像圧縮は、JPEG、TIFF、MPEGに限らず、他の圧縮方式も適用できる。   The compression / decompression unit 20 is a circuit for compressing still image or continuous image data temporarily stored in the SDRAM 16 by a compression method such as JPEG or TIFF, and decompressing the data for display. Note that image compression is not limited to JPEG, TIFF, and MPEG, and other compression methods can be applied.

表示ドライバー部18は、表示部19と接続されており、表示部19に画像を表示させる。表示部19は、カメラ本体の背面等に配置された液晶モニタや有機EL等のディスプレイである。   The display driver unit 18 is connected to the display unit 19 and causes the display unit 19 to display an image. The display unit 19 is a display such as a liquid crystal monitor or an organic EL arranged on the back surface of the camera body.

再生部21は、画像記憶部23に記憶されている画像の再生を行う。特に、再生部21は、画像記憶部23から、表示部19に表示するための画像データを読み出す。読み出された画像データは、圧縮伸長部20において伸長され、伸長された画像データに基づいて、表示部19に画像が再生表示される。   The reproduction unit 21 reproduces an image stored in the image storage unit 23. In particular, the playback unit 21 reads image data to be displayed on the display unit 19 from the image storage unit 23. The read image data is decompressed by the compression / decompression unit 20 and an image is reproduced and displayed on the display unit 19 based on the decompressed image data.

記録部22は、圧縮伸長部20で圧縮された画像データを画像記憶部23に記録させる。画像記憶部23は、再生部21および記録部22に接続されており、カメラ本体に内蔵、または装填可能な画像データの記録媒体である。   The recording unit 22 causes the image storage unit 23 to record the image data compressed by the compression / decompression unit 20. The image storage unit 23 is connected to the playback unit 21 and the recording unit 22 and is a recording medium for image data that can be built in or loaded into the camera body.

デジタルカメラ1は、カメラの設定として、立体的な画像を作成して表示する立体撮影モードを設定することができる。立体撮影モードの設定時には、ライブビュー表示するためのライブビュー画像に対して、立体感のある画像を生成するための画像処理が施される。   The digital camera 1 can set a stereoscopic shooting mode in which a stereoscopic image is created and displayed as a camera setting. When the stereoscopic shooting mode is set, image processing for generating a stereoscopic image is performed on the live view image for live view display.

図2は、ライブビュー画像の一例を示す図である。立体撮影モードの設定時には、ライブビュー画像とともに、立体撮影モードに設定されていることを示す「SE」(Stereo Effect)という文字31、および、レイヤー画像数を設定するためのレイヤー設定ウインドウ32が表示部19に表示される。   FIG. 2 is a diagram illustrating an example of a live view image. When the stereoscopic shooting mode is set, a live view image is displayed together with a character 31 “SE” (Stereo Effect) indicating that the stereoscopic shooting mode is set, and a layer setting window 32 for setting the number of layer images. Displayed on the unit 19.

レイヤー設定ウインドウ32では、「A」、「M」、「3」、「4」、「5」の5種類の設定が可能である。ユーザが「A」を選択すると、AUTO、すなわち、レイヤー画像数が自動的に設定される。例えば、画像中の被写体数に応じて、レイヤー画像数が設定される。ユーザが「M」を選択すると、MANUAL、すなわち、レイヤー画像(レイヤー画像数)をユーザが決定することができる。ユーザが「3」、「4」、「5」を選択すると、レイヤー画像数が3、4、5に設定される。   In the layer setting window 32, five types of settings “A”, “M”, “3”, “4”, and “5” are possible. When the user selects “A”, AUTO, that is, the number of layer images is automatically set. For example, the number of layer images is set according to the number of subjects in the image. When the user selects “M”, the user can determine MANUAL, that is, the layer image (number of layer images). When the user selects “3”, “4”, “5”, the number of layer images is set to 3, 4, and 5.

以下では、図2のライブビュー画像を用いて、立体感のある画像を生成する方法について説明する。   Hereinafter, a method for generating an image with a stereoscopic effect using the live view image of FIG. 2 will be described.

図3は、レイヤー画像数が5に設定された場合のレイヤー画像の生成方法について説明するための図である。レイヤー作成部112は、処理対象の画像の輝度差およびコントラストから、各被写体の輪郭を検出し、さらに被写体の色や形の情報を考慮して、各被写体の形状を特定する。これは、既知の方法を用いて行うことができる。図2に示すライブビュー画像では、p1〜p10の被写体が特定されている。なお、p1は猫、p2は人物、p3は花、p4は木、p5は車、p6は家、p7〜p9は木、p10は山をそれぞれ表している。   FIG. 3 is a diagram for explaining a layer image generation method when the number of layer images is set to five. The layer creation unit 112 detects the contour of each subject from the luminance difference and contrast of the image to be processed, and further specifies the shape of each subject in consideration of information on the color and shape of the subject. This can be done using known methods. In the live view image shown in FIG. 2, subjects p1 to p10 are specified. Here, p1 is a cat, p2 is a person, p3 is a flower, p4 is a tree, p5 is a car, p6 is a house, p7 to p9 are trees, and p10 is a mountain.

レイヤー作成部112はさらに、特定した各被写体形状の位置関係に基づいて、画像上で遠近感が共通する被写体ごとに、レイヤー画像を作成する。ここでは、レイヤー画像数が5に設定されているため、レイヤー作成部112は、5つのレイヤー画像を作成する。具体的には、各被写体の重なり状態、および、画像上の位置関係に基づいて、5つのレイヤー画像を作成する。   The layer creating unit 112 further creates a layer image for each subject having a common perspective on the image based on the positional relationship between the identified subject shapes. Here, since the number of layer images is set to 5, the layer creating unit 112 creates five layer images. Specifically, five layer images are created based on the overlapping state of each subject and the positional relationship on the image.

1つのレイヤー画像には、遠近感が共通する複数の被写体を含めることができる。遠近感は、画像上での被写体の重なり状態から判断する。すなわち、ある被写体が別の被写体と重なって、その一部が隠れているように見える場合には、一部が隠れている被写体の方がカメラからの距離が遠いと判断する。また、画像上の位置関係からも、遠近感を判断することができる。すなわち、一般的には、カメラからの距離が遠い被写体ほど画像の上の方に位置し、距離が近い被写体ほど、画像の下の方に位置する。従って、画像の上の方に位置している被写体は、画像の下の方に位置している被写体よりも、カメラからの距離が遠いと推定する。さらに、撮影時に撮像部15でレンズ位置の合焦処理が行われるが、この合焦情報を利用して、各被写体の前後位置関係を解析するようにしてもよい。そして、このような条件の1つ、あるいはいくつかの条件を総合して、被写体の遠近関係を判断する。   One layer image can include a plurality of subjects having a common perspective. Perspective is determined from the overlapping state of subjects on the image. That is, when a certain subject overlaps with another subject and part of the subject appears to be hidden, it is determined that the subject that is partially hidden is farther from the camera. The sense of perspective can also be determined from the positional relationship on the image. That is, generally, a subject that is far from the camera is positioned at the top of the image, and a subject that is close to the camera is positioned at the bottom of the image. Therefore, it is estimated that the subject located in the upper part of the image is farther from the camera than the subject located in the lower part of the image. Furthermore, the lens position is focused by the image capturing unit 15 at the time of shooting, but the front-rear positional relationship of each subject may be analyzed using this focusing information. Then, the perspective relationship of the subject is determined by combining one or several of these conditions.

図2に示す例では、被写体p2とp5の重なり状態から、被写体p2と被写体p5は遠近感が共通しないと判断して、それぞれ別のレイヤー画像に含める。また、被写体p5とp6の重なり状態、および、被写体p4とp6の重なり状態から、被写体p4と被写体p6はそれぞれ別のレイヤー画像に含め、被写体p5と被写体p6はそれぞれ別のレイヤー画像に含める。同様に、被写体p6とp8の重なり状態から、被写体p6と被写体p8はそれぞれ別のレイヤー画像に含め、被写体p8とp10の重なり状態から、被写体p8と被写体p10はそれぞれ別のレイヤー画像に含める。   In the example shown in FIG. 2, it is determined that the perspectives of the subjects p2 and p5 do not share from the overlapping state of the subjects p2 and p5, and are included in different layer images. Further, from the overlapping state of the subjects p5 and p6 and the overlapping state of the subjects p4 and p6, the subject p4 and the subject p6 are included in different layer images, and the subject p5 and the subject p6 are included in different layer images. Similarly, the subject p6 and the subject p8 are included in different layer images from the overlapping state of the subjects p6 and p8, and the subject p8 and the subject p10 are included in different layer images from the overlapping state of the subjects p8 and p10.

レイヤー作成部112は、上述した原理に基づいて、5つのレイヤー画像L1、L2、L3、L4、L5を作成する。図3(A)〜図3(E)は、レイヤー画像L1〜L5の一例を示す図である。   The layer creation unit 112 creates five layer images L1, L2, L3, L4, and L5 based on the principle described above. 3A to 3E are diagrams illustrating examples of the layer images L1 to L5.

図3(A)に示すように、レイヤー画像L1には、遠近感が共通すると考えられる被写体p1、p2、p3が含まれている。被写体p1、p2、p3は、画像の下の方に位置しており、被写体p1〜p10の中でカメラからの距離が最も近いと考えられる被写体である。   As shown in FIG. 3A, the layer image L1 includes subjects p1, p2, and p3 that are considered to have a common sense of perspective. The subjects p1, p2, and p3 are located in the lower part of the image, and are the subjects considered to be the shortest from the camera among the subjects p1 to p10.

レイヤー画像の作成では、画像上で遠近感が共通すると考えられる被写体を縁取りして切り取る処理を行う。この処理は、画像から被写体を切り出す処理であるが、切り出す際に、被写体の輪郭に沿って切り出すのではなく、被写体の輪郭から縁取り部分を残して切り出す。縁取り部分の大きさは、予め設定しておけばよい。また、1つのレイヤー画像に、遠近感が共通する複数の被写体が含まれる場合には、各被写体を別々に切り出さずに、全ての被写体が含まれるように切り出す。図3(A)に示す例では、被写体p1、p2、p3が含まれるように切り出している。   In creating a layer image, a process of trimming a subject that is considered to have a common sense of perspective on the image is performed. This process is a process of cutting out the subject from the image, but when cutting out, it is not cut out along the contour of the subject, but is cut out leaving the border portion. The size of the border portion may be set in advance. If a single layer image includes a plurality of subjects having a common perspective, each subject is cut out so as to include all subjects without being cut out separately. In the example shown in FIG. 3A, the subject is cut out to include the subjects p1, p2, and p3.

図3(B)に示すように、レイヤー画像L2には、遠近感が共通すると考えられる被写体p4、p5が含まれている。この場合も、被写体p4、p5を別々に切り出さずに、被写体p4、p5が含まれるように切り出している。   As shown in FIG. 3B, the layer image L2 includes subjects p4 and p5 considered to have a common sense of perspective. Also in this case, the subjects p4 and p5 are cut out so as to include the subjects p4 and p5 without being cut out separately.

図3(C)に示すように、レイヤー画像L3には、被写体p6が含まれている。   As shown in FIG. 3C, the layer image L3 includes a subject p6.

図3(D)に示すように、レイヤー画像L4には、遠近感が共通すると考えられる被写体p7、p8、p9が含まれている。この場合も、被写体p7、p8、p9を別々に切り出さずに、被写体p7、p8、p9が含まれるように切り出している。   As shown in FIG. 3D, the layer image L4 includes subjects p7, p8, and p9 that are considered to have a common sense of perspective. Also in this case, the subjects p7, p8, and p9 are cut out so as to include the subjects p7, p8, and p9 without being cut out separately.

図3(E)に示すように、レイヤー画像L5には、被写体p1〜p10の中で、カメラからの距離が最も遠いと考えられる被写体p10が含まれている。本実施形態では、カメラからの距離が最も遠いと考えられる被写体p10に対しては、縁取り処理を行わないものとする。ただし、カメラからの距離が最も遠いと考えられる被写体に対しても、縁取り処理を行うようにしてもよい。   As shown in FIG. 3E, the layer image L5 includes a subject p10 that is considered to be the farthest from the camera among the subjects p1 to p10. In the present embodiment, it is assumed that the edging process is not performed on the subject p10 that is considered to be the farthest from the camera. However, the edging process may be performed even on a subject that is considered to be the farthest from the camera.

レイヤー画像ごとに、縁取り部分に異なる色を付加するようにしてもよい。例えば、レイヤー画像L1の縁取り部分35を赤色に、レイヤー画像L2の縁取り部分36を青色に、レイヤー画像L3の縁取り部分37を黄色に、レイヤー画像L4の縁取り部分L4を緑色にする。このように、各レイヤー画像の縁取り部分に異なる色を付加することにより、各レイヤー画像を合成することによって生成される合成画像は、カラフルな楽しい画像となる。また、レイヤー画像間の相違が際だつので、合成画像の立体感をより強調させることができる。   You may make it add a different color to a border part for every layer image. For example, the border portion 35 of the layer image L1 is red, the border portion 36 of the layer image L2 is blue, the border portion 37 of the layer image L3 is yellow, and the border portion L4 of the layer image L4 is green. In this way, by adding different colors to the border portion of each layer image, the combined image generated by combining the layer images becomes a colorful and fun image. Further, since the difference between the layer images is conspicuous, the stereoscopic effect of the composite image can be further enhanced.

図4は、図3に示す5つのレイヤー画像L1〜L5を合成することによって生成される、立体感のある合成画像の一例を示す図である。レイヤー合成部113は、レイヤー作成部112によって作成された5つのレイヤー画像L1〜L5を合成する。   FIG. 4 is a diagram illustrating an example of a three-dimensional composite image generated by combining the five layer images L1 to L5 illustrated in FIG. The layer synthesis unit 113 synthesizes the five layer images L1 to L5 created by the layer creation unit 112.

レイヤー画像の合成では、カメラからの距離が遠いと考えられる被写体のレイヤー画像から順に合成を行う。図3に示す例では、カメラからの距離が最も遠いと考えられる被写体p10を含むレイヤー画像L5から、L4、L3、L2、L1の順に合成を行う。従って、合成後の画像上では、レイヤー画像L5が一番下に位置し、レイヤー画像L1が一番上に位置する。なお、各被写体の相対位置関係は、元の撮影画像と合成画像とで変化はない。   In the composition of layer images, composition is performed in order from the layer image of the subject that is considered to be far from the camera. In the example shown in FIG. 3, the composition is performed in the order of L4, L3, L2, and L1 from the layer image L5 including the subject p10 that is considered to be the farthest from the camera. Therefore, on the combined image, the layer image L5 is positioned at the bottom and the layer image L1 is positioned at the top. Note that the relative positional relationship of each subject does not change between the original captured image and the composite image.

図4に示すように、遠近感が共通する被写体を含むレイヤー画像を複数合成することによって生成される合成画像は、飛び出す絵本のような立体感のある画像となる。   As shown in FIG. 4, a composite image generated by combining a plurality of layer images including subjects with a common perspective is a three-dimensional image such as a picture book that pops out.

図5(A)は、レイヤー画像数を9つとした場合に、レイヤー合成部113による合成処理によって生成された合成画像の一例を示す図である。レイヤー画像数が9つの場合、レイヤー作成部112は、9つのレイヤー画像L1〜L9を作成する。図5(A)に示す例では、図2の被写体p1がレイヤー画像L1に、被写体p2がレイヤー画像L2に、被写体p3がレイヤー画像L3に、被写体p4がレイヤー画像L4に、被写体p5がレイヤー画像L5に、被写体p6がレイヤー画像L6に含まれるように、レイヤー画像が作成されている。また、被写体p8、p9がレイヤー画像L7に、被写体p7がレイヤー画像L8に、被写体p10がレイヤー画像L9に含まれるように、レイヤー画像が作成されている。   FIG. 5A is a diagram illustrating an example of a combined image generated by the combining process by the layer combining unit 113 when the number of layer images is nine. When the number of layer images is nine, the layer creating unit 112 creates nine layer images L1 to L9. In the example shown in FIG. 5A, the subject p1 of FIG. 2 is the layer image L1, the subject p2 is the layer image L2, the subject p3 is the layer image L3, the subject p4 is the layer image L4, and the subject p5 is the layer image. A layer image is created so that the subject p6 is included in the layer image L6 at L5. The layer images are created so that the subjects p8 and p9 are included in the layer image L7, the subject p7 is included in the layer image L8, and the subject p10 is included in the layer image L9.

図5(B)は、レイヤー画像数が5の場合であって、レイヤー画像に影を付加する処理を行った場合の合成画像の一例を示す図である。レイヤー作成部112は、上述した方法によって、5つのレイヤー画像を作成するとともに、作成したレイヤー画像に対して、影を付ける処理を行う。影の付加は、既知の方法を用いることができる。   FIG. 5B is a diagram illustrating an example of a composite image when the number of layer images is five and a process of adding a shadow to a layer image is performed. The layer creation unit 112 creates five layer images by the method described above, and performs a process of adding a shadow to the created layer images. A known method can be used to add a shadow.

影の付加は、カメラからの距離が近いと考えられる被写体を含むレイヤー画像に対して行う。また、カメラからの距離が近い被写体を含むレイヤー画像ほど、大きい影を付加する。図5(B)に示す例では、レイヤー画像L1、L2に対して、影51、52がそれぞれ付加され、レイヤー画像L3、L4、L5に対しては、影が付加されていない。影51、52はそれぞれ、左方向から光が照射された場合に生じる影を表している。また、レイヤー画像L1に付加される影51は、レイヤー画像L2に付加される影52よりも大きい。これにより、レイヤー画像L1〜L5を合成することによって生成される合成画像では、より立体感を表現することができる。   The shadow is added to a layer image including a subject considered to be close to the camera. Also, a larger shadow is added to a layer image that includes a subject that is closer to the camera. In the example shown in FIG. 5B, shadows 51 and 52 are added to the layer images L1 and L2, respectively, and no shadow is added to the layer images L3, L4, and L5. Each of the shadows 51 and 52 represents a shadow generated when light is irradiated from the left direction. Further, the shadow 51 added to the layer image L1 is larger than the shadow 52 added to the layer image L2. Thereby, a three-dimensional effect can be expressed more in the synthesized image generated by synthesizing the layer images L1 to L5.

本実施形態では、デジタルカメラ1の左右方向における回転操作に応じて、ユーザの視点が変化したような表示方法を行う。この表示方法について、図6および図7を用いて説明する。   In the present embodiment, a display method is performed in which the user's viewpoint changes according to the rotation operation of the digital camera 1 in the left-right direction. This display method will be described with reference to FIGS.

図6は、視点が変化したような表示効果を表現する原理を説明するための図である。図6(A)は、3つのレイヤー画像L1、L2、L3を重ねた状態を示す図である。図6(A)では、3つの画像が重なっていることを分かりやすく表示するために、画像の正面から見た図ではなく、右斜め上方から見た図として表している。ここでは、画像の正面から見る視点を正面視点、正面視点に対して、画像を左側から見る視点をL視点、正面視点に対して、画像を右側から見る視点をR視点と呼ぶ。   FIG. 6 is a diagram for explaining the principle of expressing a display effect in which the viewpoint changes. FIG. 6A is a diagram illustrating a state in which three layer images L1, L2, and L3 are overlaid. In FIG. 6A, in order to display that the three images overlap each other in an easy-to-understand manner, the images are not viewed from the front of the images but are viewed from the upper right. Here, the viewpoint viewed from the front of the image is referred to as the front viewpoint, the front viewpoint, the viewpoint from which the image is viewed from the left is referred to as the L viewpoint, the viewpoint from which the image is viewed from the right is referred to as the R viewpoint.

図6(B)は、L視点から見たような表示効果を表現する表示方法の一例を示す図である。図6(B)に示すように、重ねられた3つのレイヤー画像L1、L2、L3のうち、真ん中に位置するレイヤー画像L2を、一番奥に位置するレイヤー画像L3に対して右側にずらし、一番手前に位置するレイヤー画像L1をレイヤー画像L2よりも右側にずらす。この各レイヤー画像の相対位置を変更する処理は、レイヤー合成部113によって行う。また、各レイヤー画像L1、L2、L3を、画像の上下方向が左側に行くに従って徐々に拡大するように変形する。レイヤー画像L1、L2、L3の左側に行くに従って徐々に拡大する処理は、レイヤー作成部112によって行う。   FIG. 6B is a diagram illustrating an example of a display method for expressing a display effect as seen from the L viewpoint. As shown in FIG. 6B, among the three layer images L1, L2, and L3 superimposed, the middle layer image L2 is shifted to the right with respect to the innermost layer image L3. The layer image L1 located at the forefront is shifted to the right side of the layer image L2. The process of changing the relative position of each layer image is performed by the layer composition unit 113. Also, the layer images L1, L2, and L3 are deformed so as to gradually expand as the vertical direction of the image goes to the left. The layer creation unit 112 performs a process of gradually enlarging the layer images L1, L2, and L3 toward the left side.

本実施形態では、デジタルカメラ1を構えたユーザがカメラを右方向に回転させる操作、すなわち、デジタルカメラ1の右側を奥(被写体側)に、かつ、左側を手前(ユーザ側)に動かす操作が行われると、L視点から見たような表示効果を表現する表示を行う。   In the present embodiment, the user holding the digital camera 1 rotates the camera in the right direction, that is, the operation of moving the right side of the digital camera 1 to the back (subject side) and the left side to the front (user side). When performed, a display expressing the display effect as seen from the L viewpoint is performed.

図6(C)は、R視点から見たような表示効果を表現する表示方法の一例を示す図である。図6(C)に示すように、重ねられた3つのレイヤー画像L1、L2、L3のうち、真ん中に位置するレイヤー画像L2を、一番奥に位置するレイヤー画像L3に対して左側にずらし、一番手前に位置するレイヤー画像L1をレイヤー画像L2よりも左側にずらす。この各レイヤー画像の相対位置を変更する処理は、レイヤー合成部113によって行う。また、各レイヤー画像L1、L2、L3を、画像の上下方向が右側に行くに従って徐々に拡大するように変形する。レイヤー画像L1、L2、L3の右側に行くに従って徐々に拡大する処理は、レイヤー作成部112によって行う。   FIG. 6C is a diagram illustrating an example of a display method for expressing the display effect as seen from the R viewpoint. As shown in FIG. 6C, among the three layer images L1, L2, and L3 superimposed, the middle layer image L2 is shifted to the left with respect to the innermost layer image L3. The layer image L1 located at the forefront is shifted to the left side of the layer image L2. The process of changing the relative position of each layer image is performed by the layer composition unit 113. Also, the layer images L1, L2, and L3 are deformed so as to gradually expand as the vertical direction of the image goes to the right side. The layer creation unit 112 performs the process of gradually enlarging the layer images L1, L2, and L3 as they go to the right side.

本実施形態では、デジタルカメラ1を構えたユーザがカメラを左方向に回転させる操作、すなわち、デジタルカメラ1の左側を奥(被写体側)に、かつ、右側を手前(ユーザ側)に動かす操作が行われると、R視点から見たような表示効果を表現する表示を行う。   In the present embodiment, the user holding the digital camera 1 rotates the camera in the left direction, that is, the operation of moving the left side of the digital camera 1 to the back (subject side) and the right side to the front side (user side). When performed, a display expressing the display effect as seen from the R viewpoint is performed.

図7(A)は、図4に示す合成画像に対して、L視点から見たような表示を行った状態を示す図である。図4に示す合成画像が表示部19に表示されている状態で、デジタルカメラ1を右方向に回転させる操作が行われると、表示部19には、図7(A)に示すような合成画像が表示される。ただし、図7(A)には、説明のため、レイヤー画像をずらしたことを示す矢印71〜73も合わせて表示している。   FIG. 7A is a diagram showing a state in which the composite image shown in FIG. 4 is displayed as seen from the L viewpoint. When an operation for rotating the digital camera 1 in the right direction is performed in a state where the composite image shown in FIG. 4 is displayed on the display unit 19, the composite image as shown in FIG. Is displayed. However, in FIG. 7A, for the sake of explanation, arrows 71 to 73 indicating that the layer image has been shifted are also displayed.

上述したように、L視点から見たような表示を行う場合には、一番奥に位置するレイヤー画像L5に対して、レイヤー画像L1〜L4を右側にずらす。このとき、手前に位置するレイヤー画像ほど、右側にずらす量を大きくする。従って、レイヤー画像L4、L3、L2、L1の順に、右側にずらす量は大きくなる。また、本実施形態では、最も奥に位置するレイヤー画像L5の左端を表示部19の表示画面の左端と一致させる。さらに、各レイヤー画像L1〜L5の左側を画像の上下方向に拡大する。   As described above, when displaying as viewed from the L viewpoint, the layer images L1 to L4 are shifted to the right with respect to the layer image L5 located at the innermost position. At this time, the amount of shift to the right side is increased as the layer image is positioned in front. Accordingly, the amount to be shifted to the right is increased in the order of the layer images L4, L3, L2, and L1. In the present embodiment, the left end of the layer image L5 located at the innermost position is made to coincide with the left end of the display screen of the display unit 19. Further, the left side of each of the layer images L1 to L5 is enlarged in the vertical direction of the image.

特に、本実施形態では、角度センサ14で検出されるデジタルカメラ1の角度に応じて、表示方法を変更する。すなわち、デジタルカメラ1の右方向の回転角度が大きくなるほど、L視点から見たような表示効果が大きくなるような表示を行う。具体的には、デジタルカメラ1の右方向の回転角度が大きくなるほど、レイヤー画像を右側にずらす量を大きくするとともに、各レイヤー画像の左側を上下方向に拡大する量を大きくする。   In particular, in the present embodiment, the display method is changed according to the angle of the digital camera 1 detected by the angle sensor 14. That is, display is performed so that the display effect as seen from the L viewpoint increases as the rotation angle of the digital camera 1 in the right direction increases. Specifically, as the rotation angle of the digital camera 1 in the right direction increases, the amount by which the layer image is shifted to the right is increased, and the amount by which the left side of each layer image is enlarged in the vertical direction is increased.

図7(B)は、図4に示す合成画像に対して、R視点から見たような表示を行った状態を示す図である。図4に示す合成画像が表示部19に表示されている状態で、デジタルカメラ1を左方向に回転させる操作が行われると、表示部19には、図7(B)に示すような合成画像が表示される。ただし、図7(B)には、説明のため、レイヤー画像をずらしたことを示す矢印74〜76も合わせて表示している。   FIG. 7B is a diagram showing a state in which the composite image shown in FIG. 4 is displayed as seen from the R viewpoint. When an operation for rotating the digital camera 1 in the left direction is performed in a state where the composite image shown in FIG. 4 is displayed on the display unit 19, the composite image as shown in FIG. Is displayed. However, in FIG. 7B, for the sake of explanation, arrows 74 to 76 indicating that the layer image has been shifted are also displayed.

上述したように、R視点から見たような表示を行う場合には、一番奥に位置するレイヤー画像L5に対して、レイヤー画像L1〜L4を左側にずらす。このとき、手前に位置するレイヤー画像ほど、左側にずらす量を大きくする。従って、レイヤー画像L4、L3、L2、L1の順に、左側にずらす量は大きくなる。また、本実施形態では、最も奥に位置するレイヤー画像L5の右端を表示部19の表示画面の右端と一致させる。さらに、各レイヤー画像L1〜L5の右側を画像の上下方向に拡大する。   As described above, when displaying as viewed from the R viewpoint, the layer images L1 to L4 are shifted to the left with respect to the layer image L5 located at the innermost position. At this time, the amount of shift to the left is increased as the layer image is positioned closer to the front. Therefore, the amount of shifting to the left increases in the order of the layer images L4, L3, L2, and L1. In the present embodiment, the right end of the layer image L5 located at the innermost position is matched with the right end of the display screen of the display unit 19. Further, the right side of each layer image L1 to L5 is enlarged in the vertical direction of the image.

また、L視点から見たような表示を行う場合と同様に、デジタルカメラ1の左方向の回転角度が大きくなるほど、R視点から見たような表示効果が大きくなるような表示を行う。具体的には、デジタルカメラ1の左方向の回転角度が大きくなるほど、レイヤー画像を左側にずらす量を大きくするとともに、各レイヤー画像の右側を上下方向に拡大する量を大きくする。   Similarly to the case of performing display as viewed from the L viewpoint, display is performed such that the display effect as viewed from the R viewpoint increases as the rotation angle of the digital camera 1 in the left direction increases. Specifically, as the rotation angle of the digital camera 1 in the left direction increases, the amount by which the layer image is shifted to the left is increased, and the amount by which the right side of each layer image is enlarged in the vertical direction is increased.

本実施形態では、デジタルカメラ1の傾け操作に応じて、合成画像の表示を変更する。デジタルカメラ1の傾け操作に応じた合成画像の表示方法について、図8を用いて説明する。   In the present embodiment, the display of the composite image is changed according to the tilting operation of the digital camera 1. A method of displaying a composite image according to the tilting operation of the digital camera 1 will be described with reference to FIG.

図8(A)は、デジタルカメラ1を傾けていない状態において、表示部19に表示される合成画像の一例を示す図である。また、図8(B)は、デジタルカメラ1が右側に傾けられた状態において、表示部19に表示される合成画像の一例を示す図である。   FIG. 8A is a diagram illustrating an example of a composite image displayed on the display unit 19 when the digital camera 1 is not tilted. FIG. 8B is a diagram illustrating an example of a composite image displayed on the display unit 19 in a state where the digital camera 1 is tilted to the right.

図8(B)に示すように、デジタルカメラ1が右側に傾けられると、傾けられた角度に応じて、各レイヤー画像L1〜L5を右側にずらし、ずらした状態で各レイヤー画像L1〜L5を合成する。各レイヤー画像L1〜L5を右側にずらす量は、傾けられた角度が大きいほど大きくする。従って、デジタルカメラ1を徐々に右側に傾けていくと、各レイヤー画像L1〜L5が徐々に右側に滑っていくような表示が行われる。   As shown in FIG. 8B, when the digital camera 1 is tilted to the right, the layer images L1 to L5 are shifted to the right according to the tilted angle, and the layer images L1 to L5 are shifted in a shifted state. Synthesize. The amount by which each layer image L1 to L5 is shifted to the right side is increased as the tilted angle is increased. Therefore, when the digital camera 1 is gradually tilted to the right, display is performed such that each of the layer images L1 to L5 gradually slides to the right.

図示はしないが、デジタルカメラ1が左側に傾けられると、傾けられた角度に応じて、各レイヤー画像L1〜L5を左側にずらして、合成する処理を行う。各レイヤー画像L1〜L5を左側にずらす量は、傾けられた角度が大きいほど大きくする。従って、デジタルカメラ1を徐々に左側に傾けていくと、各レイヤー画像L1〜L5が徐々に左側に滑っていくような表示が行われる。   Although not shown, when the digital camera 1 is tilted to the left side, the layer images L1 to L5 are shifted to the left side according to the tilted angle, and a process of combining is performed. The amount by which each of the layer images L1 to L5 is shifted to the left side is increased as the tilted angle is increased. Accordingly, when the digital camera 1 is gradually tilted to the left, display is performed such that each of the layer images L1 to L5 gradually slides to the left.

また、デジタルカメラ1が傾けられた状態から、傾いていない状態に戻されると、各レイヤー画像L1〜L5を元の位置(図8(A)参照)に戻す処理を行う。   Further, when the digital camera 1 is returned from the tilted state to the non-tilted state, a process of returning each of the layer images L1 to L5 to the original position (see FIG. 8A) is performed.

レイヤー設定ウインドウ32が「M」(Manual)に設定された場合に、ユーザがレイヤー画像に含める被写体を指定する方法について説明する。図9は、レイヤー画像に含める被写体を、ユーザが指定するための画面の一例を示す図である。レイヤー設定ウインドウ32が「M」に設定されると、カーソル91が画面上に表示される。ユーザは、画面上に表示されるカーソル91を操作することによって、レイヤー画像に含める被写体を指定することができる。図9では、人物の被写体92と、山の被写体93がそれぞれ指定されて、連番の白抜きの番号が付された状態を示している。   A method for the user to specify subjects to be included in the layer image when the layer setting window 32 is set to “M” (Manual) will be described. FIG. 9 is a diagram illustrating an example of a screen for the user to specify subjects to be included in the layer image. When the layer setting window 32 is set to “M”, a cursor 91 is displayed on the screen. The user can designate a subject to be included in the layer image by operating a cursor 91 displayed on the screen. FIG. 9 shows a state in which a person's subject 92 and a mountain subject 93 are respectively designated, and are assigned consecutive white numbers.

レイヤー作成部112は、カーソル91で指定された被写体をそれぞれ別のレイヤー画像として作成する。指定されなかった被写体は、その近傍で指定された被写体と同じレイヤーに自動的に含まれるようにする。   The layer creation unit 112 creates the subject specified by the cursor 91 as a separate layer image. A subject not specified is automatically included in the same layer as a subject specified in the vicinity thereof.

なお、レイヤー画像に含める被写体を指定する方法は、カーソルを用いる方法に限定されることはない。例えば、表示部19の前面、または、表示部19と一体的にタッチパネルを設け、タッチパネルの操作によって、レイヤー画像に含める被写体を指定するようにしてもよい。   Note that the method of specifying the subject to be included in the layer image is not limited to the method using the cursor. For example, a touch panel may be provided in front of the display unit 19 or integrally with the display unit 19, and a subject to be included in the layer image may be designated by operating the touch panel.

図10は、一実施の形態における合成画像作成装置5を備えたデジタルカメラ1によって行われる処理内容を示すフローチャートである。デジタルカメラ1が撮影を行う撮影モードに設定されると、制御部11は、ステップS11の処理を開始する。   FIG. 10 is a flowchart showing the contents of processing performed by the digital camera 1 provided with the composite image creation device 5 in one embodiment. When the digital camera 1 is set to a shooting mode for shooting, the control unit 11 starts the process of step S11.

ステップS11では、デジタルカメラ1が立体撮影モードに設定されたか否かを判定する。デジタルカメラ1が立体撮影モードに設定されていないと判定すると、ステップS19に進む。   In step S11, it is determined whether or not the digital camera 1 is set to the stereoscopic shooting mode. If it is determined that the digital camera 1 is not set to the stereoscopic shooting mode, the process proceeds to step S19.

ステップS19では、通常のライブビュー表示処理を行う。すなわち、ライブビュー画像を表示部19に表示させる。   In step S19, a normal live view display process is performed. That is, the live view image is displayed on the display unit 19.

一方、ステップS11において、デジタルカメラ1が立体撮影モードに設定されていると判定すると、ステップS12に進む。ステップS12では、立体ライブビュー表示処理を行う。立体ライブビュー表示処理の詳細な内容を、図11に示すフローチャートを用いて説明する。   On the other hand, if it is determined in step S11 that the digital camera 1 is set to the stereoscopic shooting mode, the process proceeds to step S12. In step S12, a stereoscopic live view display process is performed. Detailed contents of the stereoscopic live view display process will be described with reference to the flowchart shown in FIG.

図11のステップS31では、レイヤー設定がマニュアルに設定されているか否か、すなわち、レイヤー設定ウインドウ32(図2参照)が「M」に設定されているか否かを判定する。レイヤー設定がマニュアルに設定されていないと判定すると、ステップS32に進み、レイヤー設定がマニュアルに設定されていると判定すると、ステップS40に進む。   In step S31 of FIG. 11, it is determined whether or not the layer setting is set to manual, that is, whether or not the layer setting window 32 (see FIG. 2) is set to “M”. If it is determined that the layer setting is not set to manual, the process proceeds to step S32. If it is determined that the layer setting is set to manual, the process proceeds to step S40.

ステップS32では、レイヤー画像数を設定する。レイヤー設定ウインドウ32(図2参照)で、ユーザが「3」、「4」、「5」などの数字を選択した場合には、選択された数字をレイヤー画像数に設定する。レイヤー設定ウインドウ32で、ユーザが「A」を選択した場合には、レイヤー画像数を任意に設定する。例えば、画像上の被写体を抽出し、抽出した被写体の数をレイヤー画像数に設定してもよいし、上述したように、遠近感が共通する複数の被写体を一つのレイヤー画像に含めるように、レイヤー画像数を設定してもよい。   In step S32, the number of layer images is set. When the user selects a number such as “3”, “4”, “5” in the layer setting window 32 (see FIG. 2), the selected number is set as the number of layer images. When the user selects “A” in the layer setting window 32, the number of layer images is arbitrarily set. For example, the subject on the image may be extracted, and the number of extracted subjects may be set as the number of layer images, and as described above, a plurality of subjects having a common sense of perspective may be included in one layer image. The number of layer images may be set.

一方、ステップS40では、レイヤー画像を指定する入力操作が完了したか否かを判定する。上述したように、ユーザは、画像に重畳して表示されるカーソル91を操作することによって、レイヤー画像に含める被写体、すなわち、レイヤー画像を指定することができる。ユーザは、レイヤー画像の指定が終了すると、図示しない確定釦を押す。確定釦が押されておらず、レイヤー画像を指定する入力操作が完了していないと判定するとステップS40で待機し、確定釦が押されると、レイヤー画像を指定する入力操作が完了したと判定して、ステップS33に進む。   On the other hand, in step S40, it is determined whether or not the input operation for designating the layer image has been completed. As described above, the user can designate a subject to be included in a layer image, that is, a layer image, by operating the cursor 91 displayed so as to be superimposed on the image. When the user finishes specifying the layer image, the user presses a confirmation button (not shown). If it is determined that the confirm button has not been pressed and the input operation for specifying the layer image has not been completed, the process waits in step S40. If the confirm button has been pressed, it is determined that the input operation for specifying the layer image has been completed. Then, the process proceeds to step S33.

ステップS33では、レイヤー作成部112によって、レイヤー画像を作成する。レイヤー画像を作成する方法については既に説明したので、ここでは詳しい説明は省略する。   In step S33, the layer creation unit 112 creates a layer image. Since the method of creating a layer image has already been described, detailed description thereof is omitted here.

ステップS34では、デジタルカメラ1の左右方向における回転操作を検出したか否かを判定する。この判定は、角度センサ14によって検出されるデジタルカメラ1の角度に基づいて、制御部11の傾き検出部114が行う。デジタルカメラ1の左右方向における回転操作を検出したと判定するとステップS41に進み、回転操作を検出していないと判定するとステップS35に進む。   In step S34, it is determined whether or not a rotation operation in the left-right direction of the digital camera 1 has been detected. This determination is performed by the inclination detection unit 114 of the control unit 11 based on the angle of the digital camera 1 detected by the angle sensor 14. If it is determined that a rotation operation in the left-right direction of the digital camera 1 is detected, the process proceeds to step S41. If it is determined that a rotation operation is not detected, the process proceeds to step S35.

ステップS35では、視点をデフォルトに設定する。デフォルトの視点とは、正面視点(図6(A)参照)である。   In step S35, the viewpoint is set as a default. The default viewpoint is the front viewpoint (see FIG. 6A).

ステップS36では、レイヤー合成部113によって、ステップS33で作成された複数のレイヤー画像を合成することによって、立体感のある合成画像を生成する。   In step S36, the layer compositing unit 113 generates a composite image having a stereoscopic effect by combining the plurality of layer images created in step S33.

一方、ステップS41では、傾き検出部114によって、角度センサ14から入力される角度に基づいて、デジタルカメラ1の回転方向および回転角度を検出する。   On the other hand, in step S <b> 41, the tilt detection unit 114 detects the rotation direction and rotation angle of the digital camera 1 based on the angle input from the angle sensor 14.

ステップS42では、レイヤー合成部113によって、ステップS41で検出されたデジタルカメラ1の回転方向および回転角度に応じて、ユーザの視点が変化したような合成画像が生成されるように、ステップS33で作成された複数のレイヤー画像を変形し合成する。   In step S42, the layer composition unit 113 creates in step S33 so that a composite image in which the viewpoint of the user is changed according to the rotation direction and rotation angle of the digital camera 1 detected in step S41 is generated. Deform and combine multiple layer images.

上述したように、デジタルカメラ1の右方向の回転操作を検出すると、L視点から見たような合成画像(図7(A)参照)を生成する。このとき、デジタルカメラ1の右方向の回転角度が大きくなるほど、L視点から見たような表示効果が大きくなるような合成画像を生成する。   As described above, when a rotation operation in the right direction of the digital camera 1 is detected, a composite image (see FIG. 7A) as seen from the L viewpoint is generated. At this time, a composite image is generated so that the display effect as seen from the L viewpoint increases as the rotation angle of the digital camera 1 in the right direction increases.

また、デジタルカメラ1の左方向の回転操作を検出すると、R視点から見たような合成画像(図7(B)参照)を生成する。このとき、デジタルカメラ1の左方向の回転角度が大きくなるほど、R視点から見たような表示効果が大きくなるような合成画像を生成する。   When a leftward rotation operation of the digital camera 1 is detected, a composite image (see FIG. 7B) as seen from the R viewpoint is generated. At this time, a composite image is generated so that the display effect as seen from the R viewpoint increases as the rotation angle of the digital camera 1 in the left direction increases.

ステップS37では、ステップS36またはステップS42で生成された合成画像を、ライブビュー画像として表示部19に表示する。これにより、表示部19には、立体感のあるライブビュー画像が表示される。   In step S37, the composite image generated in step S36 or step S42 is displayed on the display unit 19 as a live view image. As a result, a live view image with a stereoscopic effect is displayed on the display unit 19.

ステップS38では、デジタルカメラ1の傾き操作を検出したか否かを判定する。この判定は、角度センサ14によって検出されるデジタルカメラ1の角度に基づいて、制御部11の傾き検出部114が行う。デジタルカメラ1の傾き操作を検出したと判定するとステップS44に進み、傾き操作を検出していないと判定すると、図10に示すフローチャートの処理に戻る。   In step S38, it is determined whether or not the tilt operation of the digital camera 1 has been detected. This determination is performed by the inclination detection unit 114 of the control unit 11 based on the angle of the digital camera 1 detected by the angle sensor 14. If it is determined that the tilt operation of the digital camera 1 has been detected, the process proceeds to step S44. If it is determined that the tilt operation has not been detected, the process returns to the process of the flowchart shown in FIG.

ステップS44では、レイヤー合成部113によって、デジタルカメラ1の傾き角度に応じて、各レイヤー画像を傾けられた方向にずらし、ずらした状態で、各レイヤー画像を合成する。そして、生成された合成画像を、ライブビュー画像として表示部19に表示する。   In step S44, the layer composition unit 113 shifts the layer images in the tilted direction according to the tilt angle of the digital camera 1, and combines the layer images in the shifted state. Then, the generated composite image is displayed on the display unit 19 as a live view image.

図10に示すフローチャートに戻って説明を続ける。ステップS13では、ユーザによってレリーズ釦が押されたか否かを判定する。ユーザによってレリーズ釦が押されていないと判定するとステップS13で待機し、レリーズ釦が押されたと判定すると、ステップS14に進む。   Returning to the flowchart shown in FIG. In step S13, it is determined whether or not the release button has been pressed by the user. If it is determined that the release button has not been pressed by the user, the process waits in step S13. If it is determined that the release button has been pressed, the process proceeds to step S14.

ステップS14では、レリーズ釦の押圧操作に応じて、撮影処理を行う。この撮影処理は、静止画を撮影するための処理である。   In step S14, a photographing process is performed in response to the pressing operation of the release button. This photographing process is a process for photographing a still image.

ステップS15では、ステップS14の撮影処理で得られた画像データ(立体撮影モードの場合には、レイヤー合成画像)を画像記憶部23に記録させる。   In step S15, the image data (layer combined image in the case of the stereoscopic shooting mode) obtained by the shooting process in step S14 is recorded in the image storage unit 23.

ステップS16では、ステップS14の撮影処理で得られた画像を表示部19に短時間だけ表示させるレックビュー表示を行う。   In step S16, REC view display is performed in which the image obtained by the photographing process in step S14 is displayed on the display unit 19 for only a short time.

ステップS17では、撮影が終了したか否かを判定する。例えば、ユーザによって、電源オフ操作や、画像再生操作が行われると、撮影が終了したと判定して、フローチャートの処理を終了する。一方、撮影が終了していないと判定すると、ステップS11に戻る。   In step S17, it is determined whether or not shooting has been completed. For example, when the user performs a power-off operation or an image reproduction operation, it is determined that shooting has ended, and the process of the flowchart ends. On the other hand, if it is determined that the shooting has not ended, the process returns to step S11.

以上、一実施の形態における合成画像作成装置によれば、画像上で遠近感が共通する被写体を縁取りして切り取ることによって、1つのレイヤー画像とし、被写体の遠近感に応じて複数のレイヤー画像を作成し、作成した複数のレイヤー画像を合成することによって、立体感のある合成画像を作成する。これにより、複雑な画像処理を必要とせずに、通常の二次元画像から立体感のある画像を作成することができる。   As described above, according to the composite image creating apparatus in one embodiment, a subject having a common perspective on the image is trimmed and cut into a single layer image, and a plurality of layer images are obtained according to the perspective of the subject. By creating and synthesizing the created layer images, a synthesized image having a stereoscopic effect is created. As a result, an image having a stereoscopic effect can be created from a normal two-dimensional image without requiring complicated image processing.

レイヤー作成部112は、指定された数のレイヤー画像を作成するので、ユーザは、レイヤー画像数を指定することによって、合成画像上の立体感を変更することができる。   Since the layer creation unit 112 creates the designated number of layer images, the user can change the stereoscopic effect on the composite image by designating the number of layer images.

レイヤー作成部112は、指定された被写体がそれぞれ別のレイヤー画像に含まれるように、複数のレイヤー画像を作成する。これにより、ユーザは、レイヤー画像に含める被写体を指定することによって、合成画像上の立体感を変更することができる。   The layer creating unit 112 creates a plurality of layer images so that the designated subject is included in each of the different layer images. Thereby, the user can change the stereoscopic effect on the composite image by designating the subject to be included in the layer image.

特に、レイヤー作成部112は、画像上の被写体の重なり方に基づいて遠近感を判断して、各レイヤー画像を作成するので、被写体の距離情報を取得しなくても、立体感のある画像を作成することができる。   In particular, the layer creation unit 112 determines the perspective based on how the subjects on the image overlap, and creates each layer image. Therefore, an image with a three-dimensional effect can be obtained without acquiring subject distance information. Can be created.

一実施の形態における合成画像作成装置によれば、レイヤー作成部112は、設定された視点に応じたレイヤー画像を作成し、レイヤー合成部113は、設定された視点に応じて各レイヤー画像の相対位置を設定し、設定した相対位置にて、複数のレイヤー画像を合成する。これにより、設定された視点に応じて、視点が変化したような表示効果を表現することができる。   According to the composite image creation device in one embodiment, the layer creation unit 112 creates a layer image corresponding to the set viewpoint, and the layer synthesis unit 113 compares the relative image of each layer image according to the set viewpoint. Set the position and synthesize multiple layer images at the set relative position. Thereby, it is possible to express a display effect in which the viewpoint changes according to the set viewpoint.

また、レイヤー合成部113によって生成される立体感のある合成画像を、ライブビュー画像としてカメラ1の表示部19に表示させることにより、適切な画角や被写体の設定を行うことができる。   In addition, by displaying the three-dimensional synthesized image generated by the layer synthesizing unit 113 on the display unit 19 of the camera 1 as a live view image, an appropriate angle of view and subject can be set.

さらに、カメラ1の傾きに応じて、各レイヤー画像の相対位置を設定し、設定した相対位置にて、複数のレイヤー画像を合成するので、カメラ1の傾きに応じた面白みのある印象的な合成画像を作成することができる。   Furthermore, since the relative position of each layer image is set according to the tilt of the camera 1 and a plurality of layer images are combined at the set relative position, the composition is impressive and interesting according to the tilt of the camera 1. Images can be created.

上記実施形態では、撮影時にレイヤー合成画像を作成して記録することを説明したが、再生時に、すでに撮影された画像データからレイヤー合成画像を作成して記録するようにしてもよい。撮影された画像データでも、画像データという観点では、撮影時のライブビュー画像と同等だからである。   In the above embodiment, it has been described that a layer composite image is created and recorded at the time of shooting. However, at the time of playback, a layer composite image may be created and recorded from image data that has already been shot. This is because the captured image data is equivalent to the live view image at the time of shooting in terms of image data.

なお、上述した一実施の形態の説明では、合成画像作成装置が行う処理としてハードウェアによる処理を前提としていたが、このような構成に限定される必要はない。例えば、コンピュータでソフトウェア処理を行う構成も可能である。この場合、コンピュータは、CPU、RAM等の主記憶装置、上記処理の全て或いは一部を実現させるためのプログラムが記憶されたコンピュータ読み取り可能な記憶媒体を備えている。ここでは、このプログラムを合成画像作成プログラムと呼ぶ。そして、CPUが上記記憶媒体に記憶されている合成画像作成プログラムを読み出して、情報の加工・演算処理を実行することにより、上述の合成画像作成装置と同様の処理を実現させる。   In the description of the embodiment described above, hardware processing is assumed as processing performed by the composite image creation apparatus, but it is not necessary to be limited to such a configuration. For example, a configuration in which software processing is performed by a computer is also possible. In this case, the computer includes a main storage device such as a CPU and a RAM, and a computer-readable storage medium storing a program for realizing all or part of the above processing. Here, this program is called a composite image creation program. Then, the CPU reads the composite image creation program stored in the storage medium and executes information processing / calculation processing, thereby realizing the same processing as that of the above-described composite image creation apparatus.

ここで、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、この合成画像作成プログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該合成画像作成プログラムを実行するようにしても良い。   Here, the computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, and the like. Alternatively, the composite image creation program may be distributed to a computer via a communication line, and the computer that has received the distribution may execute the composite image creation program.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment.

上述した一実施の形態では、合成画像作成装置を搭載したカメラをデジタルカメラとして説明したが、ビデオカメラやムービーカメラでもよく、さらに、携帯電話や携帯情報端末(PDA:Personal Digital Assist)、ゲーム機器等に内蔵されるカメラでもよい。   In the above-described embodiment, a camera equipped with a composite image creation device has been described as a digital camera. However, a video camera or a movie camera may be used, and a mobile phone, a personal digital assistant (PDA), or a game device may be used. It may be a camera built in the camera.

レイヤー作成部112は、画像の輝度差およびコントラストから、各被写体の輪郭を検出し、さらに被写体の色や形の情報を考慮して、各被写体の形状を特定するとともに、特定した各被写体形状の位置関係に基づいて、レイヤー画像を作成した。しかし、撮影時に各被写体の被写体距離を検出し、検出した被写体距離に基づいて、レイヤー画像を作成するようにしてもよい。   The layer creating unit 112 detects the contour of each subject from the luminance difference and contrast of the image, further specifies the shape of each subject in consideration of information on the color and shape of the subject, and A layer image was created based on the positional relationship. However, the subject distance of each subject may be detected at the time of shooting, and a layer image may be created based on the detected subject distance.

上述した実施形態では、デジタルカメラ1の右(左)方向の回転角度が大きくなるほど、L(R)視点から見たような表示効果が大きくなるような表示を行ったが、2段階や3段階のように、多段階でL(R)視点から見たような表示効果が大きくなるような表示を行うようにしてもよい。   In the above-described embodiment, display is performed such that the display effect as viewed from the L (R) viewpoint increases as the rotation angle of the digital camera 1 in the right (left) direction increases. As described above, display may be performed such that the display effect as seen from the L (R) viewpoint is increased in multiple stages.

上述した実施形態では、立体撮影モードに設定されたライブビュー表示時に、立体感のある合成画像をライブビュー画像として表示するようにしたが、上述したように、静止画の再生時に、立体感のある合成画像を再生表示するようにしてもよい。   In the embodiment described above, a stereoscopic composite image is displayed as a live view image during live view display set in the stereoscopic shooting mode. However, as described above, when a still image is reproduced, the stereoscopic effect is displayed. A composite image may be reproduced and displayed.

11…制御部
14…角度センサ
15…撮像部
19…表示部
111…表示制御部
112…レイヤー作成部
113…レイヤー合成部
114…傾き検出部
DESCRIPTION OF SYMBOLS 11 ... Control part 14 ... Angle sensor 15 ... Imaging part 19 ... Display part 111 ... Display control part 112 ... Layer preparation part 113 ... Layer composition part 114 ... Inclination detection part

Claims (8)

画像上で遠近感が共通する被写体を縁取りして切り取ることによって、1つのレイヤー画像とし、被写体の遠近感に応じて複数のレイヤー画像を作成するレイヤー作成部と、
前記レイヤー作成部によって作成された複数のレイヤー画像を合成することによって、立体感のある合成画像を作成するレイヤー合成部と、
を備えることを特徴とする合成画像作成装置。
A layer creation unit that creates a single layer image by trimming and cropping subjects with a common perspective on the image, and creates a plurality of layer images according to the perspective of the subject,
A layer compositing unit that creates a three-dimensional composite image by compositing a plurality of layer images created by the layer creating unit;
A composite image creating apparatus comprising:
前記レイヤー作成部は、指定された数のレイヤー画像を作成する、
ことを特徴とする請求項1に記載の合成画像作成装置。
The layer creation unit creates a specified number of layer images.
The composite image creating apparatus according to claim 1.
前記レイヤー作成部は、指定された被写体がそれぞれ別のレイヤー画像に含まれるように、複数のレイヤー画像を作成する、
ことを特徴とする請求項1または請求項2に記載の合成画像作成装置。
The layer creating unit creates a plurality of layer images so that the specified subject is included in each of the different layer images;
The composite image creating apparatus according to claim 1, wherein the composite image creating apparatus is a composite image creating apparatus according to claim 1.
前記レイヤー作成部は、画像上の被写体の重なり方に基づいて遠近感を判断して、各レイヤー画像を作成する、
ことを特徴とする請求項1または請求項2に記載の合成画像作成装置。
The layer creation unit judges the perspective based on how the subjects on the image overlap, and creates each layer image,
The composite image creating apparatus according to claim 1, wherein the composite image creating apparatus is a composite image creating apparatus according to claim 1.
前記レイヤー作成部は、設定された視点に応じたレイヤー画像を作成し、
前記レイヤー合成部は、設定された視点に応じて各レイヤー画像の相対位置を設定し、設定した相対位置にて、前記レイヤー作成部によって作成されたレイヤー画像を合成する、
ことを特徴とする請求項1から請求項4のいずれか一項に記載の合成画像作成装置。
The layer creation unit creates a layer image corresponding to the set viewpoint,
The layer composition unit sets the relative position of each layer image according to the set viewpoint, and synthesizes the layer image created by the layer creation unit at the set relative position.
The composite image creation apparatus according to claim 1, wherein the composite image creation apparatus is a composite image creation apparatus.
請求項1から請求項5のいずれか一項に記載の合成画像作成装置と、
画像を表示する表示部と、
撮影時にライブビュー画像を前記表示部に表示させる表示制御部と、
を備え、
前記表示制御部は、前記レイヤー合成部によって作成された立体感のある合成画像を前記ライブビュー画像として前記表示部に表示させる、
ことを特徴とする撮像装置。
The composite image creation device according to any one of claims 1 to 5,
A display for displaying an image;
A display control unit for displaying a live view image on the display unit during shooting;
With
The display control unit causes the display unit to display a three-dimensional composite image created by the layer composition unit as the live view image.
An imaging apparatus characterized by that.
撮像装置の傾きを検出する傾き検出部をさらに備え、
前記レイヤー合成部は、前記傾き検出部によって検出された撮像装置の傾きに応じて、各レイヤー画像の相対位置を設定し、設定した相対位置にて、前記レイヤー作成部によって作成されたレイヤー画像を合成する、
ことを特徴とする請求項6に記載の撮像装置。
A tilt detection unit for detecting the tilt of the imaging device;
The layer composition unit sets a relative position of each layer image according to the inclination of the imaging device detected by the inclination detection unit, and the layer image created by the layer creation unit is set at the set relative position. To synthesize,
The imaging apparatus according to claim 6.
画像上で遠近感が共通する被写体を縁取りして切り取ることによって、1つのレイヤー画像とし、被写体の遠近感に応じて複数のレイヤー画像を作成するステップと、
前記作成された複数のレイヤー画像を合成することによって、立体感のある合成画像を作成するステップと、
をコンピュータに実行させるための合成画像作成プログラム。
Creating a single layer image by trimming and cropping subjects with a common perspective on the image, and creating a plurality of layer images according to the perspective of the subject;
Creating a three-dimensional composite image by synthesizing the created plurality of layer images;
A composite image creation program for causing a computer to execute.
JP2011009620A 2011-01-20 2011-01-20 Synthetic image creating apparatus, synthetic image creating program, and imaging apparatus Withdrawn JP2012151724A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011009620A JP2012151724A (en) 2011-01-20 2011-01-20 Synthetic image creating apparatus, synthetic image creating program, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011009620A JP2012151724A (en) 2011-01-20 2011-01-20 Synthetic image creating apparatus, synthetic image creating program, and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2012151724A true JP2012151724A (en) 2012-08-09

Family

ID=46793548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011009620A Withdrawn JP2012151724A (en) 2011-01-20 2011-01-20 Synthetic image creating apparatus, synthetic image creating program, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2012151724A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143919A (en) * 2015-01-29 2016-08-08 キヤノン株式会社 Image processing apparatus and control method therefor
JP2018173975A (en) * 2018-06-20 2018-11-08 カシオ計算機株式会社 Image processing device, image processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143919A (en) * 2015-01-29 2016-08-08 キヤノン株式会社 Image processing apparatus and control method therefor
JP2018173975A (en) * 2018-06-20 2018-11-08 カシオ計算機株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
JP5133816B2 (en) Camera, image composition method, and program
US8767093B2 (en) Image-capturing device, image reproduction device, and image reproduction method
JP2014165764A (en) Editing device, editing method and editing program
CN103037235B (en) Camera device and its control method
JP6304293B2 (en) Image processing apparatus, image processing method, and program
US11438523B2 (en) Display control apparatus, display control method, and a non-transitory computer-readable medium
JP5067308B2 (en) Display control apparatus, display control method, and display control program
JP2012248937A (en) Imaging apparatus, image processor, and imaging method
KR20100017242A (en) Method of creating and reproducing a panoramic sound image, and apparatus for reproducing such an image
JP4635477B2 (en) Image photographing apparatus, pseudo three-dimensional image generation method, and program
JP5596844B2 (en) Image processing apparatus, image processing system, and image processing method
JP2008258745A (en) Camera
JP2007096774A (en) Image display device and program
KR100776433B1 (en) Mobile communication terminal with the improved image composing
JP2012151724A (en) Synthetic image creating apparatus, synthetic image creating program, and imaging apparatus
JP4259339B2 (en) Imaging apparatus, imaging condition setting method and program
JP2008294705A (en) Display device and imaging apparatus
JP5493839B2 (en) Imaging apparatus, image composition method, and program
JP5864992B2 (en) Imaging apparatus and control method thereof, and image processing apparatus and control method thereof
JP2007096809A (en) Imaging apparatus, moving picture storage method, and moving picture storage program
JP2020188417A (en) Image processing apparatus, image processing method, and computer program
JP5602818B2 (en) Camera, image reproduction apparatus, image composition method, and program
JP5206421B2 (en) Digital camera, photographing recording method, and photographing control program
JP5836109B2 (en) Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program
JP5409852B2 (en) Virtual landscape display device and virtual landscape display method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140401