JP2006174353A - Photographing apparatus and program - Google Patents

Photographing apparatus and program Download PDF

Info

Publication number
JP2006174353A
JP2006174353A JP2004367646A JP2004367646A JP2006174353A JP 2006174353 A JP2006174353 A JP 2006174353A JP 2004367646 A JP2004367646 A JP 2004367646A JP 2004367646 A JP2004367646 A JP 2004367646A JP 2006174353 A JP2006174353 A JP 2006174353A
Authority
JP
Japan
Prior art keywords
image
photographing
marker
screen
photographed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004367646A
Other languages
Japanese (ja)
Other versions
JP2006174353A5 (en
JP4453540B2 (en
Inventor
Shuji Yamashita
修司 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2004367646A priority Critical patent/JP4453540B2/en
Publication of JP2006174353A publication Critical patent/JP2006174353A/en
Publication of JP2006174353A5 publication Critical patent/JP2006174353A5/ja
Application granted granted Critical
Publication of JP4453540B2 publication Critical patent/JP4453540B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology capable of positioning a plurality of images with high accuracy in carrying out photographing a plurality of times to compose the photographed images. <P>SOLUTION: A digital camera disclosed herein attaches a first marker image to a photographed image in carrying out photographing at first to acquire the photographed image, calculates a distance between a particular point in a background image and the first marker image in the photographed image acquired by the first photographing, attaches a second marker image at a position the distance of which from the particular point of the background image is equal to the calculated distance in an image acquired at second photographing, displays the photographed image including the first marker image and the image including the second marker image photographed by second photographing on a display screen, determines whether the position of the first marker image is coincident with the position of the second marker image of the image photographed by the second photographing, and informs a user about it by means of a buzzer tone when they are coincident. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、撮影された画像を合成する機能を備えた撮影装置及びプログラムに関する。   The present invention relates to a photographing apparatus and a program having a function of combining photographed images.

従来、人に撮影を頼みづらい場合や近辺に人がいない場合でも簡単にツーショット画像を得ることができるようにするために、1回目の撮影画像と2回目の撮影画像を合成する技術が知られている(例えば、特許文献1参照)。
特開2003−189160号公報
Conventionally, a technique for synthesizing a first shot image and a second shot image is known in order to easily obtain a two-shot image even when it is difficult to ask a person to shoot or when there is no person nearby. (For example, refer to Patent Document 1).
JP 2003-189160 A

しかしながら、2回目の撮影を行う際には、撮影者はLCD装置に表示された1回目の撮影画像と2回目の撮影画像の背景の重なり具合を見ながら1回目の撮影画像の被写体と2回目に撮影する被写体とが並ぶように、また、1回目の撮影画像の背景と2回目に撮影する背景とが略一致するようにカメラアングルを調整していたため、背景がずれてしまったり、被写体が重なってしまったり、逆に離れすぎてしまったりし、違和感のある撮影結果になってしまうケースが多かった。   However, when performing the second shooting, the photographer looks at the subject of the first shot image and the second shot while observing the overlap between the first shot image displayed on the LCD device and the background of the second shot image. Since the camera angle was adjusted so that the subject to be photographed was lined up and the background of the first shot image and the background of the second shot were substantially matched, In many cases, they overlapped, or on the contrary, they were too far apart, resulting in a sense of discomfort.

本発明の課題は、複数回の撮影を行って撮影画像を合成する場合に、複数の画像の位置合わせを精度よく行うことができるようにすることである。   An object of the present invention is to perform alignment of a plurality of images with high accuracy when a plurality of shots are taken and a shot image is synthesized.

上記課題を解決するため、請求項1に記載の発明は、
撮影しようとする画像を表示するための表示画面に、少なくとも2画面に分割した画面を表示し、一方の画面に被写体を配置して第1の撮影を行い、続いて他方の画面に異なる被写体を配置して第2の撮影を行い、前記第1の撮影及び前記第2の撮影により取得された撮影画像を合成して合成画像を生成する撮影装置において、
前記第1の撮影を行って撮影画像を取得する際に前記撮影画像内に第1のマーカ画像を付加する第1のマーカ画像付加手段と、
前記第1の撮影により取得された撮影画像内における背景画像の特定点と前記第1のマーカ画像との距離を算出し、前記第2の撮影において取得しようとする画像内において前記背景画像の特定点からの距離が前記算出された距離と同一になる位置に第2のマーカ画像を付加する第2のマーカ画像付加手段と、
前記第1のマーカ画像を含む撮影画像及び前記第2の撮影により撮影しようとする前記第2のマーカ画像を含む画像を前記表示画面上に表示する表示手段と、
前記第1の撮影により取得された撮影画像における第1のマーカ画像の位置と前記第2の撮影により撮影しようとする画像の第2のマーカ画像の位置が一致するか否かを判断する判断手段と、
前記判断手段による判断の結果、前記第1マーカ画像の位置と前記第2のマーカ画像の位置が一致すると判断された際に、その旨を通知する通知手段と、
を備えたことを特徴としている。
In order to solve the above-mentioned problem, the invention described in claim 1
A screen divided into at least two screens is displayed on the display screen for displaying an image to be photographed, a subject is placed on one screen, the first photographing is performed, and then a different subject is presented on the other screen. In the photographing apparatus that performs the second photographing by arranging and generates a composite image by combining the photographed images acquired by the first photographing and the second photographing,
First marker image adding means for adding a first marker image to the captured image when performing the first imaging to obtain a captured image;
The distance between the specific point of the background image in the captured image acquired by the first imaging and the first marker image is calculated, and the background image is specified in the image to be acquired in the second imaging. A second marker image adding means for adding a second marker image at a position where the distance from a point is the same as the calculated distance;
Display means for displaying on the display screen a captured image including the first marker image and an image including the second marker image to be captured by the second capturing;
Judgment means for judging whether the position of the first marker image in the photographed image acquired by the first photographing coincides with the position of the second marker image of the image to be photographed by the second photographing. When,
As a result of determination by the determination means, when it is determined that the position of the first marker image and the position of the second marker image match, a notification means for notifying that effect,
It is characterized by having.

請求項7に記載の発明のプログラムは、
撮影しようとする画像を表示するための表示画面に、少なくとも2画面に分割した画面を表示し、一方の画面に被写体を配置して第1の撮影を行い、続いて他方の画面に異なる被写体を配置して第2の撮影を行い、前記第1の撮影及び前記第2の撮影により取得された撮影画像を合成して合成画像を生成する撮影装置を制御するためのコンピュータに、
前記第1の撮影を行って撮影画像を取得する際に前記撮影画像内に第1のマーカ画像を付加する機能と、
前記第1の撮影により取得された撮影画像内における背景画像の特定点と前記第1のマーカ画像との距離を算出し、前記第2の撮影において取得しようとする画像内において前記背景画像の特定点からの距離が前記算出された距離と同一になる位置に第2のマーカ画像を付加する機能と、
前記第1のマーカ画像を含む撮影画像及び前記第2の撮影により撮影しようとする前記第2のマーカ画像を含む画像を前記表示画面上に表示する機能と、
前記第1の撮影により取得された撮影画像における第1のマーカ画像の位置と前記第2の撮影により撮影しようとする画像の第2のマーカ画像の位置が一致するか否かを判断する機能と、
前記判断手段による判断の結果、前記第1マーカ画像の位置と前記第2のマーカ画像の位置が一致すると判断された際に、その旨を通知する機能と、
を実現させることを特徴としている。
The program of the invention described in claim 7 is:
A screen divided into at least two screens is displayed on the display screen for displaying an image to be photographed, a subject is placed on one screen, the first photographing is performed, and then a different subject is presented on the other screen. A computer for controlling a photographing device that performs a second photographing and synthesizes a photographed image obtained by the first photographing and the second photographing to generate a composite image;
A function of adding a first marker image in the photographed image when the first photograph is taken to obtain the photographed image;
The distance between the specific point of the background image in the captured image acquired by the first imaging and the first marker image is calculated, and the background image is specified in the image to be acquired in the second imaging. A function of adding a second marker image at a position where the distance from a point is the same as the calculated distance;
A function for displaying on the display screen a captured image including the first marker image and an image including the second marker image to be captured by the second capturing;
A function of determining whether or not a position of the first marker image in the photographed image acquired by the first photographing coincides with a position of the second marker image of the image to be photographed by the second photographing; ,
As a result of determination by the determination means, when it is determined that the position of the first marker image and the position of the second marker image match,
It is characterized by realizing.

請求項1、7に記載の発明によれば、撮影しようとする画像を表示するための表示画面に、少なくとも2画面に分割した画面を表示し、一方の画面に被写体を配置して第1の撮影を行い、続いて他方の画面に異なる被写体を配置して第2の撮影を行い、第1の撮影及び第2の撮影により取得された撮影画像を合成して合成画像を生成する撮影装置において、第1の撮影を行って撮影画像を取得する際に撮影画像内に第1のマーカ画像を付加し、第1の撮影により取得された撮影画像内における背景画像の特定点と第1のマーカ画像との距離を算出し、第2の撮影において取得しようとする画像内において背景画像の特定点からの距離が算出された距離と同一になる位置に第2のマーカ画像を付加し、第1のマーカ画像を含む撮影画像及び第2の撮影により撮影しようとする第2のマーカ画像を含む画像を表示画面上に表示する。また、第1の撮影により取得された撮影画像における第1のマーカ画像の位置と第2の撮影により撮影しようとする画像の第2のマーカ画像の位置が一致するか否かを判断し、判断の結果、第1マーカ画像の位置と第2のマーカ画像の位置が一致すると判断された際に、その旨を通知する。   According to the first and seventh aspects of the present invention, the display screen for displaying an image to be photographed is displayed on a screen divided into at least two screens, and the subject is arranged on one of the screens. In a photographing apparatus that performs photographing, then places a different subject on the other screen, performs second photographing, and combines the photographed images obtained by the first photographing and the second photographing to generate a composite image. The first marker image is added to the photographed image when the first photograph is taken to obtain the photographed image, and the specific point of the background image and the first marker in the photographed image obtained by the first photography A distance from the image is calculated, a second marker image is added to a position in the image to be acquired in the second shooting at a position where the distance from the specific point of the background image is the same as the calculated distance, A captured image including the marker image of the second and the second Displaying an image comprising a second marker image to be photographed by the photographing on the display screen. Further, it is determined whether or not the position of the first marker image in the captured image acquired by the first imaging matches the position of the second marker image of the image to be captured by the second imaging. As a result, when it is determined that the position of the first marker image matches the position of the second marker image, the fact is notified.

従って、第1の撮影で撮影された撮影画像に対して第2の撮影で撮影しようとしている画像の位置にずれが生じているか否かをマーカ画像の位置により撮影者が容易に認識することができ、2つのマーカ画像を合わせることで、2枚の画像の位置合わせを容易行うことが可能となる。また、第1及び第2のマーカ画像が一致したか否かを自動的に判断し、一致した場合にはその旨が通知されるので、第2の撮影で撮影しようとする画像の背景の位置と第1の撮影画像と背景の位置が一致した時点での撮影を実施することが容易となり、精度良く位置合わせされた合成画像を得ることが可能となる。   Therefore, the photographer can easily recognize whether or not there is a deviation in the position of the image to be photographed in the second photographing with respect to the photographed image photographed in the first photographing based on the position of the marker image. In addition, by aligning the two marker images, it is possible to easily align the two images. In addition, it is automatically determined whether or not the first and second marker images match, and if they match, the fact is notified, so the position of the background of the image to be shot in the second shooting It becomes easy to perform shooting at the time when the position of the first captured image matches the position of the background, and it is possible to obtain a composite image aligned with high accuracy.

請求項2に記載の発明によれば、第1の撮影を行って撮影画像を取得する際の画像の明るさに基づいて、第1のマーカ画像及び第2のマーカ画像の表示色を決定するので、撮影しようとする画像の背景が明るい場合には黒いマーカ画像を、暗い場合には白いマーカ画像を表示することで、撮影者が見やすいマーカ画像を表示することが可能となる。   According to the second aspect of the present invention, the display colors of the first marker image and the second marker image are determined based on the brightness of the image when the first image is captured and the captured image is acquired. Therefore, it is possible to display a marker image that is easy for the photographer to view by displaying a black marker image when the background of the image to be photographed is bright and displaying a white marker image when the background is dark.

請求項3に記載の発明によれば、撮影装置の筐体の傾斜状態を検出して検出情報を出力する傾斜センサを備え、傾斜センサからの検出情報に基づいて撮影装置の向きを判断し、判断された撮影装置の向きに応じて表示画面を少なくとも2画面に分割するので、撮影装置を横向き(表示画面を横長にする向き)に構えても、撮影装置を縦向きに構えても、合成画像を生成することが可能となる。   According to the third aspect of the present invention, the apparatus includes a tilt sensor that detects the tilt state of the housing of the photographing device and outputs detection information, determines the orientation of the photographing device based on the detection information from the tilt sensor, The display screen is divided into at least two screens according to the determined orientation of the photographing device, so it can be combined regardless of whether the photographing device is set to landscape (the display screen is oriented horizontally) or the photographing device is held vertically. An image can be generated.

請求項4に記載の発明によれば、表示画面を少なくとも2画面に分割する際の分割比率を設定する分割比率設定手段を備え、設定された分割比率に基づいた比率で表示画面を少なくとも2画面に分割することができるので、撮影人数に応じて、被写体をバランス良く配置した合成画像を得ることが可能となる。   According to the fourth aspect of the invention, there is provided split ratio setting means for setting a split ratio when the display screen is split into at least two screens, and at least two display screens at a ratio based on the set split ratio. Therefore, it is possible to obtain a composite image in which subjects are arranged in a balanced manner according to the number of photographers.

請求項5に記載の発明によれば、第1の撮影及び第2の撮影のそれぞれにおいて、被写体が配置されることとして予め設定されている画面内に焦点が合うようにレンズを移動させるので、第1の撮影及び第2の撮影の双方の被写体に焦点を合わせることが可能となる。   According to the fifth aspect of the present invention, in each of the first shooting and the second shooting, the lens is moved so as to be focused on the screen set in advance as the subject is arranged. It is possible to focus on the subject of both the first photographing and the second photographing.

請求項6に記載の発明によれば、撮影装置の前方の、画面の分割位置に対応する位置にレーザを照射するので、被写体は自分の立ち位置を知ることが可能となり、被写体をバランス良く配置した合成画像を得ることが可能となる。   According to the invention described in claim 6, since the laser is irradiated to the position corresponding to the division position of the screen in front of the photographing apparatus, the subject can know his / her standing position, and the subject is arranged in a balanced manner. It becomes possible to obtain the synthesized image.

以下、図を参照して本発明の実施形態を詳細に説明する。
まず、構成を説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
First, the configuration will be described.

図1は、デジタルカメラ10の機能的構成を示すブロック図である。図1に示すように、デジタルカメラ10は、CPU11、入力部12、RAM13、伝送制御部14、表示部15、撮像部16、記録部17、記録媒体駆動部18、レーザ照射部19、ブザー20、傾斜センサ21等を備えて構成されており、各部はバス22により接続されている。   FIG. 1 is a block diagram showing a functional configuration of the digital camera 10. As shown in FIG. 1, the digital camera 10 includes a CPU 11, an input unit 12, a RAM 13, a transmission control unit 14, a display unit 15, an imaging unit 16, a recording unit 17, a recording medium driving unit 18, a laser irradiation unit 19, and a buzzer 20. The tilt sensor 21 and the like are provided, and each part is connected by a bus 22.

CPU11は、記録部17に記憶されているシステムプログラムを読み出し、RAM13内に形成されたワークエリアに展開し、該システムプログラムに従って各部を制御する。また、CPU11は、記録部17に記憶されているツーショット撮影モード処理プログラムを始めとする各種処理プログラムを読み出してワークエリアに展開し、後述するツーショット撮影モード処理(図3参照)を始めとする各種処理を実行する。   The CPU 11 reads out the system program stored in the recording unit 17, develops it in a work area formed in the RAM 13, and controls each unit according to the system program. Further, the CPU 11 reads out various processing programs such as the two-shot shooting mode processing program stored in the recording unit 17 and develops them in the work area, and various kinds of processing including the two-shot shooting mode processing (see FIG. 3) described later. Execute the process.

入力部12は、電源スイッチ、シャッタースイッチ、撮影に関する各種設定スイッチ及びカーソルスイッチ等を備え、その各スイッチ操作に応じた操作信号をCPU11に出力する。   The input unit 12 includes a power switch, a shutter switch, various setting switches for shooting, a cursor switch, and the like, and outputs an operation signal corresponding to each switch operation to the CPU 11.

RAM13は、CPU11によって実行される各種プログラム及びこれらプログラムに係るデータを一時的に記憶するワークエリアを形成する。   The RAM 13 forms a work area for temporarily storing various programs executed by the CPU 11 and data related to these programs.

伝送制御部14は、通信用ケーブル等により外部の電子機器、例えば、パーソナルコンピュータ等と接続され、画像データ等の送受信を制御する。なお、外部機器との接続は、赤外線や無線等の無線接続であってもよい。   The transmission control unit 14 is connected to an external electronic device such as a personal computer via a communication cable or the like, and controls transmission / reception of image data and the like. The connection with the external device may be a wireless connection such as infrared or wireless.

表示部15は、LCD(Liquid Crystal Display)等のモニタにより構成され、CPU11から入力される表示信号の指示に従って、撮影しようとする画像及び撮影された撮影画像等を表示画面(液晶ファインダ)上に表示する。   The display unit 15 includes a monitor such as an LCD (Liquid Crystal Display), and displays an image to be photographed and a photographed photographed image on a display screen (liquid crystal finder) in accordance with an instruction of a display signal input from the CPU 11. indicate.

図2は、撮像部16の詳細構成を示す図である。ここで、図2を参照して撮像部16について説明する。
レンズ(撮像レンズ)21を通過した被写体像は絞り機構22を介してCCD(Charge Coupled Diode)23上に結像される。レンズ21及び絞り機構22は、光学系駆動部24によって、焦点合わせのためにレンズ位置が移動され、また、適切な露出となるように絞り量が制御される。このレンズ21の移動や絞り機構22の絞りは、測距センサや光量センサを含むセンサ部25によって検出された検出値がバス22を介してCPU11に出力され、CPU11で検出値に基づいて演算されたレンズ21の移動量や絞り機構22の絞り量を示す信号が光学系駆動部24に出力されることによって駆動がなされるものである。
FIG. 2 is a diagram illustrating a detailed configuration of the imaging unit 16. Here, the imaging unit 16 will be described with reference to FIG.
The subject image that has passed through the lens (imaging lens) 21 is formed on a CCD (Charge Coupled Diode) 23 via a diaphragm mechanism 22. The lens 21 and the diaphragm mechanism 22 are moved by the optical system drive unit 24 for focusing, and the diaphragm amount is controlled so as to achieve appropriate exposure. For the movement of the lens 21 and the diaphragm mechanism 22, detection values detected by a sensor unit 25 including a distance measuring sensor and a light quantity sensor are output to the CPU 11 via the bus 22, and are calculated based on the detection values by the CPU 11. Driving is performed by outputting a signal indicating the amount of movement of the lens 21 and the amount of aperture of the aperture mechanism 22 to the optical system drive unit 24.

CCD23に被写体が結像されると、CCD23には入射光量に応じた電荷が蓄積され、この電荷は駆動回路26から与えられる駆動パルス信号によって順次読み出され、アナログ処理回路27に出力される。アナログ処理回路27は、色分離やゲイン調整、ホワイトバランスなどの各種処理が行われ、処理された信号はA/D変換回路28を介してデジタル画像データ(以下、画像データと称する)としてバッファレジスタ29に記憶される。   When the subject is imaged on the CCD 23, charges corresponding to the amount of incident light are accumulated in the CCD 23, and the charges are sequentially read out by a drive pulse signal supplied from the drive circuit 26 and output to the analog processing circuit 27. The analog processing circuit 27 performs various processes such as color separation, gain adjustment, and white balance, and the processed signal is buffered as digital image data (hereinafter referred to as image data) via the A / D conversion circuit 28. 29.

バッファレジスタ29に記憶された画像データは、CPU11からの制御信号に基づいて、信号処理回路30において輝度信号及び色差信号に変換され、表示部15に表示される。また、信号処理回路30において処理された画像データは、CPU11からの制御信号に基づいて、圧縮伸張回路31において圧縮されバス22を介して図1に示す記録部17の撮影画像記録領域171もしくは記録媒体18aに記録される。   The image data stored in the buffer register 29 is converted into a luminance signal and a color difference signal by the signal processing circuit 30 based on a control signal from the CPU 11 and displayed on the display unit 15. Also, the image data processed in the signal processing circuit 30 is compressed in the compression / decompression circuit 31 on the basis of a control signal from the CPU 11 and is recorded in the captured image recording area 171 or the recording of the recording unit 17 shown in FIG. It is recorded on the medium 18a.

図1に戻り、記録部17は、フラッシュメモリなどの不揮発メモリ等により構成され、デジタルカメラ10に対応するシステムプログラム、及び該システムプログラム上で実行可能なツーショット撮影モード処理プログラムを始めとする各種処理プログラム、アプリケーションプログラム及びこれらのプログラムで処理されたデータ等を記録する。   Returning to FIG. 1, the recording unit 17 includes a non-volatile memory such as a flash memory, and various processes including a system program corresponding to the digital camera 10 and a two-shot shooting mode processing program that can be executed on the system program. Programs, application programs, data processed by these programs, and the like are recorded.

この記録部17は、撮影された画像データを記録するための、撮影画像記録領域171を有する。   The recording unit 17 has a captured image recording area 171 for recording captured image data.

記録媒体駆動部18は、装着された記録媒体18aに対してデータを記録したり、既に記録されているデータを読み出して再生したりするための駆動回路である。装着される記録媒体18aとしては、スマートメディア(登録商標)、メモリースティック(登録商標)、コンパクトフラッシュ(登録商標)、SDカード、PCカード、ICカード、MO(magneto-optic)等の各種カードが用いることができ、これらの各種カードの何れか又は複数のカードに応じた記録媒体駆動部18が設けられている。   The recording medium driving unit 18 is a driving circuit for recording data on the mounted recording medium 18a and for reading and reproducing already recorded data. Various media such as SmartMedia (registered trademark), Memory Stick (registered trademark), CompactFlash (registered trademark), SD card, PC card, IC card, MO (magneto-optic) are used as the recording medium 18a to be mounted. The recording medium driving unit 18 corresponding to any one or a plurality of these various cards is provided.

レーザ照射部19は、デジタルカメラ10の前方から視野内の適当な位置や場所(例えば、被写体人物の足元の地面等)にレーザビームを照射し、その照射位置に目視可能な目安マークを形成するためのものである。レーザ照射部19に照射されるレーザビームは、デジタルカメラ10の表示画面を左右2画面に分割し、各画面にそれぞれ異なる人物を配置して合成画像を撮影する場合、画面の分割位置(画面分割線(図4(a)(b)参照))に該当する位置や場所に、被写体の立ち位置の目安となる目視可能な目安マークを形成するレーザポインタとして機能する(図6参照)。
レーザ照射部19は、第1レーザ部19a及び第2レーザ部19bの二つの照射部を有しており、デジタルカメラ10の前面(レンズ21側)に設けられている。
第1レーザ部19aは、デジタルカメラ10を横向きに構えた場合に、レーザビームの光軸L1が下方(例えば、地面側)に指向するように所定の俯角を持ってレーザビームを投射するように設定されている(図7参照)。横向きとは、通常撮影時の姿勢でデジタルカメラ10を構えた時の表示画面が横長になる向きである。レーザビームの光軸L1を下方に指向させる理由は、誤ってレーザビームを人物の眼に照射しないようにするためである。
第2レーザ部19bは、デジタルカメラ10を縦向きに構えた場合に、レーザビームの光軸が下方(例えば、地面側)に指向するように所定の俯角を持ってレーザビームを投射するように設定されている。縦向きとは、撮影時に表示画面が縦長になる向きである。
第1レーザ部19a又は第2レーザ部19bのいずれを駆動するかは、デジタルカメラ10の傾斜状態(横向き又は縦向き)を検出し、その傾斜状態に応じてCPU11からの指示により制御される。
The laser irradiation unit 19 irradiates an appropriate position or place in the field of view from the front of the digital camera 10 (for example, the ground at the foot of the subject person) and forms a visible reference mark at the irradiation position. Is for. When the laser beam irradiated to the laser irradiation unit 19 divides the display screen of the digital camera 10 into two left and right screens, and places a different person on each screen to shoot a composite image, the screen division position (screen division) It functions as a laser pointer that forms a visually observable guide mark that serves as a guide for the standing position of the subject at a position or place corresponding to the line (see FIGS. 4A and 4B) (see FIG. 6).
The laser irradiation unit 19 includes two irradiation units, a first laser unit 19a and a second laser unit 19b, and is provided on the front surface (the lens 21 side) of the digital camera 10.
When the digital camera 10 is held sideways, the first laser unit 19a projects the laser beam with a predetermined depression angle so that the optical axis L1 of the laser beam is directed downward (for example, the ground side). It is set (see FIG. 7). The term “landscape” refers to a direction in which the display screen is horizontally long when the digital camera 10 is held in a normal shooting posture. The reason why the optical axis L1 of the laser beam is directed downward is to prevent the laser beam from being accidentally irradiated to the human eye.
The second laser unit 19b projects the laser beam with a predetermined depression angle so that the optical axis of the laser beam is directed downward (for example, the ground side) when the digital camera 10 is held vertically. Is set. The portrait orientation is the orientation in which the display screen is vertically long during shooting.
Whether the first laser unit 19a or the second laser unit 19b is driven is controlled by an instruction from the CPU 11 according to the tilt state (horizontal or vertical) of the digital camera 10 detected.

ブザー20は、CPU11からの指示に応じて鳴音する。
傾斜センサ21は、デジタルカメラ10の筐体の傾斜状態を検出した検出情報として、デジタルカメラ10の筐体の傾斜状態に応じて出力電圧をCPU11に出力する第1傾斜センサ21a及び第2傾斜センサ21bを備えて構成される。
第1傾斜センサ21aは、本発明における傾斜センサに対応するものであり、デジタルカメラ10の筐体の傾斜状態を検出し、その傾斜状態に応じてデジタルカメラ10の表示画面を図4(a)(b)の何れかの方法で左右2画面に分割させるとともに、表示画面の分割方法に応じて第1レーザ部19a又は第2レーザ部19bを駆動させるためのものである。ここにいうデジタルカメラ10の筐体の傾斜状態とは、図4(a)(b)に示すように、表示画面の向きに対応し、表示画面が横向きであるか又は縦向きであるかの状態を指す。第1傾斜センサ21aは、デジタルカメラ10が図4(a)に示すように表示画面を横向きにした状態であるとき傾斜角度0度であることを示す電圧を出力し、デジタルカメラ10が図4(b)に示すように表示画面を縦向きにした状態であるとき傾斜角度90度であることを示す電圧を出力する。
第2傾斜センサ21bは、デジタルカメラ10の筐体の傾斜状態を検出し、その傾斜状態に対応して変化するレーザビームの照射方向に応じてレーザビームの照射を禁止するためのものである。ここにいう、デジタルカメラ10の筐体の傾斜状態とは、図7に示すように、デジタルカメラ10の光学軸L2と水平面とのなす角度に対応する。
すなわち、レーザビームの照射方向は、デジタルカメラ10の光学軸L2を被写体人物に合わせたとき、レーザビームが当該被写体人物の足元の地面等に当るように、換言すれば、レーザビームの光軸L1がデジタルカメラ10の光学軸L2に対して所定の俯角をなすように予め設定されている。従って、仮に撮影者がデジタルカメラ10の向きを上向き(デジタルカメラ10の光学軸L2を上向き(水平面に対して仰角となる向き))に動かした場合、これに連動してレーザビームの光軸L1が上向きに移動し、被写体に向けてレーザビームが照射されて危険である。そこで、所定に仰角範囲に入った場合、レーザビームの照射を停止させることになる。この制御はCPU11からの指示により行われる。
The buzzer 20 sounds in response to an instruction from the CPU 11.
The tilt sensor 21 detects the tilt state of the housing of the digital camera 10 as detection information, and outputs a first tilt sensor 21a and a second tilt sensor that output an output voltage to the CPU 11 according to the tilt state of the housing of the digital camera 10. 21b.
The first tilt sensor 21a corresponds to the tilt sensor in the present invention, detects the tilt state of the housing of the digital camera 10, and displays the display screen of the digital camera 10 according to the tilt state as shown in FIG. The screen is divided into left and right two screens by any one of methods (b), and the first laser unit 19a or the second laser unit 19b is driven in accordance with the display screen dividing method. The tilted state of the housing of the digital camera 10 here corresponds to the orientation of the display screen, as shown in FIGS. 4 (a) and 4 (b), and whether the display screen is in landscape orientation or portrait orientation. Refers to the state. The first tilt sensor 21a outputs a voltage indicating that the tilt angle is 0 degree when the digital camera 10 is in a state where the display screen is in the horizontal orientation as shown in FIG. As shown in (b), a voltage indicating that the tilt angle is 90 degrees is output when the display screen is in the vertical orientation.
The second tilt sensor 21b detects the tilt state of the housing of the digital camera 10 and prohibits laser beam irradiation in accordance with the laser beam irradiation direction that changes in accordance with the tilt state. Here, the tilted state of the casing of the digital camera 10 corresponds to the angle formed by the optical axis L2 of the digital camera 10 and the horizontal plane, as shown in FIG.
That is, the irradiation direction of the laser beam is such that when the optical axis L2 of the digital camera 10 is aligned with the subject person, the laser beam strikes the ground of the subject person's feet, in other words, the optical axis L1 of the laser beam. Is set in advance so as to form a predetermined depression angle with respect to the optical axis L2 of the digital camera 10. Therefore, if the photographer moves the direction of the digital camera 10 upward (the optical axis L2 of the digital camera 10 is upward (the direction that is an elevation angle with respect to the horizontal plane)), the optical axis L1 of the laser beam is interlocked with this. Moves upward, and a laser beam is irradiated toward the subject, which is dangerous. Therefore, when the predetermined angle of elevation is entered, the laser beam irradiation is stopped. This control is performed according to an instruction from the CPU 11.

次に、本実施の形態の動作について説明する。
図3は、デジタルカメラ10のCPU11により実行されるツーショット撮影モード処理を示すフローチャートである。当該処理は、CPU11と記録部17に記憶されているツーショット撮影モードプログラムとの協働によるソフトウエア処理により実現される処理である。
Next, the operation of the present embodiment will be described.
FIG. 3 is a flowchart showing the two-shot shooting mode process executed by the CPU 11 of the digital camera 10. This process is a process realized by software processing in cooperation with the CPU 11 and the two-shot shooting mode program stored in the recording unit 17.

このツーショット撮影モード処理は、撮影しようとする画像を表示するための表示画面(液晶ファインダ)を少なくとも2画面(ここでは、左右2画面とする)に分割し、一方の画面(ここでは、左画面とする)に被写体を配置して1回目の撮影(第1の撮影)を行い、続いて他方の画面(ここでは、右画面とする)に異なる被写体を配置して2回目の撮影(第2の撮影)を行い、1回目の撮影及び2回目の撮影により取得された撮影画像データを合成して1枚の合成画像を生成するものである。   In this two-shot shooting mode process, a display screen (liquid crystal finder) for displaying an image to be shot is divided into at least two screens (here, left and right screens), and one screen (here, the left screen). ) And the first shooting (first shooting), and then a different subject is placed on the other screen (here, the right screen) and the second shooting (second shooting). Is taken), and the photographed image data acquired by the first photographing and the second photographing are synthesized to generate one composite image.

まず、撮影しようとする画像を表示するための表示画面を左右2画面に分割するための画面分割処理が実行される(ステップS1:画面分割手段)。画面分割処理は、デジタルカメラ10が構えられた向きに応じて表示画面を図4(a)又は図4(b)に示す何れかの方法で左右2画面に分割する。   First, a screen division process for dividing a display screen for displaying an image to be taken into two left and right screens is executed (step S1: screen division means). In the screen division process, the display screen is divided into two left and right screens by one of the methods shown in FIGS. 4A and 4B according to the direction in which the digital camera 10 is held.

図5は、デジタルカメラ10のCPU11により実行される画面分割処理を示すフローチャートである。当該処理は、CPU11と記録部17に記憶されている画面分割処理プログラムとの協働によるソフトウエア処理により実現される処理である。   FIG. 5 is a flowchart showing a screen division process executed by the CPU 11 of the digital camera 10. This process is a process realized by software processing in cooperation with the CPU 11 and the screen division processing program stored in the recording unit 17.

まず、第1傾斜センサ21aが起動され(ステップT1)、第1傾斜センサ21aによりデジタルカメラ10の傾斜角度が0±α度(αは誤差)以下であることを示す電圧が出力されると(ステップT2;YES)、図4(a)に示す分割線D1で表示画面の下端面を垂直に2等分するように表示画面が左右2画面に分割され(ステップT3)、処理は図3のステップS2に移行する。一方、第1傾斜センサ21aによりデジタルカメラ10の傾斜角度が90±α度(αは誤差)以下であることを示す電圧が出力されると(ステップT2;NO、ステップT4;YES)、図4(b)に示す分割線D2で表示画面の下端面を垂直に2等分するように表示画面が左右2画面に分割され(ステップT5)、処理は図3のステップS2に移行する。   First, the first tilt sensor 21a is activated (step T1), and when the first tilt sensor 21a outputs a voltage indicating that the tilt angle of the digital camera 10 is 0 ± α degrees or less (α is an error) ( (Step T2; YES), the display screen is divided into two left and right screens so that the lower end surface of the display screen is vertically divided into two equal parts at the dividing line D1 shown in FIG. 4A (Step T3), and the processing is as shown in FIG. The process proceeds to step S2. On the other hand, when the first tilt sensor 21a outputs a voltage indicating that the tilt angle of the digital camera 10 is 90 ± α degrees (α is an error) or less (step T2; NO, step T4; YES), FIG. The display screen is divided into two left and right screens so that the lower end surface of the display screen is vertically divided into two equal parts at the dividing line D2 shown in FIG.

図3のステップS2においては、レーザ照射部19からレーザが照射される。
このレーザは、図6に示すように、デジタルカメラ10前方の視野内の、ステップS1において分割された左右2画面の分割位置に対応する位置(被写体人物の足元の地面等)に照射されるものであり、被写体に立ち位置を示す目安マークとなる。ステップS1において、第1傾斜センサ21aによりデジタルカメラ10の傾斜角度が0±α度(αは誤差)以下であることを示す電圧が出力され、表示画面が図4(a)に示すように分割されたとき、第1レーザ照射部19aからレーザが照射される。ステップS1において、第1傾斜センサ21aによりデジタルカメラ10の傾斜角度が90±α度(αは誤差)以下であることを示す電圧が出力され、表示画面が図4(b)に示すように分割されたとき、第2レーザ照射部19bからレーザが照射される。
但し、レーザを人に向けるのは危険なため、図7に示すように第2傾斜センサ21bからデジタルカメラ10の光学軸L2が水平面に対して設定角度以上の仰角範囲となったことが検出された場合は、CPU11により、レーザ照射部19に強制的に発光を停止させ安全性を確保する。
In step S <b> 2 of FIG. 3, the laser is irradiated from the laser irradiation unit 19.
As shown in FIG. 6, this laser is applied to a position (such as the ground at the foot of the subject person) in the field of view in front of the digital camera 10 corresponding to the divided positions of the left and right screens divided in step S1. This is a guide mark indicating the standing position of the subject. In step S1, the first tilt sensor 21a outputs a voltage indicating that the tilt angle of the digital camera 10 is 0 ± α degrees (α is an error) or less, and the display screen is divided as shown in FIG. When this is done, the laser is emitted from the first laser irradiation unit 19a. In step S1, the first tilt sensor 21a outputs a voltage indicating that the tilt angle of the digital camera 10 is 90 ± α degrees (α is an error) or less, and the display screen is divided as shown in FIG. 4B. When this is done, the laser is emitted from the second laser irradiation unit 19b.
However, since it is dangerous to point the laser at a person, as shown in FIG. 7, it is detected from the second tilt sensor 21b that the optical axis L2 of the digital camera 10 is in an elevation range that is equal to or larger than a set angle with respect to the horizontal plane. In such a case, the CPU 11 forcibly stops the light emission by the laser irradiation unit 19 to ensure safety.

次いで、撮像部16において、画像データの取り込みが行われる(ステップS3)。即ち、CCD23において、レンズ21及び絞り機構22を透過して結像された被写体光が光電変換されて電荷が蓄積され、駆動回路26から与えられる駆動パルス信号によって蓄積された電荷が順次読み出される。読み出された電荷は、アナログ回路27及びA/D変換器28を介して画像データに変換され、バッファレジスタ29に取り込まれる。そして、取り込まれた画像データに基づき図8に示すマーカ表示色決定処理が実行される(ステップS4:マーカ表示色決定手段)。   Next, the image capturing unit 16 captures image data (step S3). That is, in the CCD 23, the subject light imaged through the lens 21 and the diaphragm mechanism 22 is photoelectrically converted to accumulate charges, and the accumulated charges are sequentially read out by the drive pulse signal supplied from the drive circuit 26. The read charge is converted into image data via the analog circuit 27 and the A / D converter 28 and is taken into the buffer register 29. Then, the marker display color determination process shown in FIG. 8 is executed based on the captured image data (step S4: marker display color determination means).

図8は、デジタルカメラ10のCPU11により実行されるマーカ表示色決定処理を示すフローチャートである。当該処理は、CPU11と記録部17に記憶されているマーカ表示色決定処理プログラムとの協働によるソフトウエア処理により実現される処理である。   FIG. 8 is a flowchart showing marker display color determination processing executed by the CPU 11 of the digital camera 10. This process is a process realized by software processing in cooperation with the CPU 11 and the marker display color determination processing program stored in the recording unit 17.

まず、撮像部16により取り込まれた画像データがRAM13に読み出され、当該画像データの信号値(輝度値)の平均値が算出され(ステップT11)、算出された平均値が予め設定された基準値以上である場合は(ステップT12;YES)、マーカ表示色が黒に決定され(ステップT13)、処理は図3のステップS5に移行する。算出された平均値が予め設定された基準値を超えない場合は(ステップT12;NO)、マーカ表示色が白に決定され(ステップT14)、処理は図3のステップS5に移行する。   First, image data captured by the imaging unit 16 is read out to the RAM 13, an average value of signal values (luminance values) of the image data is calculated (step T11), and the calculated average value is a preset reference. If it is equal to or greater than the value (step T12; YES), the marker display color is determined to be black (step T13), and the process proceeds to step S5 in FIG. When the calculated average value does not exceed the preset reference value (step T12; NO), the marker display color is determined to be white (step T14), and the process proceeds to step S5 in FIG.

図3のステップS5においては、ステップS4で決定された表示色でRAM13に読み出された画像データに第1のマーカ画像Ma1、Mb1が付加され、表示部15の表示画面上に表示される(第1のマーカ画像付加手段)。   In step S5 in FIG. 3, the first marker images Ma1 and Mb1 are added to the image data read to the RAM 13 with the display color determined in step S4 and displayed on the display screen of the display unit 15 ( First marker image adding means).

図9(a)は、CCD23の撮像面を模式的に示す図である。CCDの撮像面は、複数の画素(ここでは256の画素)が配列されて構成されている。このCCD23を構成する各画素の位置は、図9(a)に示すアドレスにより識別するものとする。また、撮像部16により取り込まれる1枚の画像データは、CCD23の各画素の示す情報からなっており、画像データにおける各画素の位置についても、同様のアドレスで識別することとする。   FIG. 9A is a diagram schematically showing the imaging surface of the CCD 23. The imaging surface of the CCD is configured by arranging a plurality of pixels (here, 256 pixels). The position of each pixel constituting the CCD 23 is identified by the address shown in FIG. In addition, one piece of image data captured by the imaging unit 16 includes information indicated by each pixel of the CCD 23, and the position of each pixel in the image data is also identified by a similar address.

図9(a)において、グレーで示す領域は、合成に使用する撮影画像として抽出される領域である。マーカ画像は、1回目の撮影と2回目の撮影における背景の位置合わせの指標として表示するもので、1回目の撮影においては、撮影画像として抽出される領域外の隅(ここでは、左上と右下の各5画素(アドレスA1、A2、A3、B1、C1及びアドレスN16、O16、P14、P15、P16)が第1のマーカ画像Ma1、Mb1の表示位置とされる。マーカの表示色は、図9(b)に示すように背景が明るい場合には黒(低輝度)で、図9(c)に示すように背景が暗い場合には白(高輝度)で表示される。   In FIG. 9A, a region indicated by gray is a region extracted as a captured image used for composition. The marker image is displayed as an index for positioning the background in the first shooting and the second shooting. In the first shooting, the corner outside the region extracted as the shot image (here, the upper left and the right) The lower five pixels (addresses A1, A2, A3, B1, C1 and addresses N16, O16, P14, P15, P16) are the display positions of the first marker images Ma1, Mb1. When the background is bright as shown in FIG. 9B, the display is black (low luminance), and when the background is dark as shown in FIG. 9C, the display is white (high luminance).

図10(a)は、1回目の撮影時の表示画面(液晶ファインダ)の表示例を示すものである。表示画面(液晶ファインダ)には、撮影画像として抽出される領域、即ち、図9(a)のグレーで示す領域だけでなく、CCD23により取り込まれる全画像が表示される。1回目の撮影においては、左右に2分割された画面の左側に被写体が配置されて表示される。画面左上及び右下には、1回目の撮影と2回目の撮影における位置合わせのための第1のマーカ画像Ma1及びMb1が表示されている。   FIG. 10A shows a display example of a display screen (liquid crystal finder) at the time of the first photographing. On the display screen (liquid crystal finder), not only a region extracted as a photographed image, that is, a region indicated by gray in FIG. 9A, but also the entire image captured by the CCD 23 is displayed. In the first shooting, the subject is arranged and displayed on the left side of the screen divided into left and right. On the upper left and lower right of the screen, first marker images Ma1 and Mb1 for alignment in the first shooting and the second shooting are displayed.

図3のステップS5において、表示画面上に第1のマーカ画像Ma1及びMb1が表示されると、撮影者によるシャッタースイッチの押下が待機される。シャッタースイッチが半押しされると(ステップS6;YES)、センサ部15からの検出値に応じて露出条件(シャッタースピード及び絞り量)が決定されるとともに(ステップS7)、第1のフォーカス制御が実行され、CCD23の左画面内における所定の領域に焦点が合うようにレンズが移動される(ステップS8:フォーカス制御手段)。   In step S5 of FIG. 3, when the first marker images Ma1 and Mb1 are displayed on the display screen, the photographer waits for the shutter switch to be pressed. When the shutter switch is half-pressed (step S6; YES), the exposure condition (shutter speed and aperture amount) is determined according to the detection value from the sensor unit 15 (step S7), and the first focus control is performed. This is executed, and the lens is moved so that a predetermined area in the left screen of the CCD 23 is in focus (step S8: focus control means).

ここで、ツーショット撮影モードではない通常の撮影においては、CCD23の中央部に焦点が合うようにフォーカスが制御されるが、ツーショット撮影モードにおいては、2回の撮影のそれぞれにおいて、分割された左右の画面の何れかに被写体像が配置されることになる。そのため、左画面に被写体を配置する1回目の撮影では、左画面内に予め設定された第1の焦点エリアR1(例えば、図11(a)に示す、分割線より若干左側中央部のグレーで示す領域)に焦点が合うように、右画面に被写体を配置する2回目の撮影では、右画面内に予め設定された第2の焦点エリアR2(例えば、図11(b)に示す、分割線より若干右側中央部のグレーで示す領域)に焦点が合うように、フォーカスが制御される。具体的には、第1のフォーカス制御においては、レンズ21を移動させながらCCD23が出力する画像信号の第1の焦点エリアのコントラストを検出し、そのコントラストが最も大きくなる位置にレンズ位置が移動される。   Here, in normal shooting that is not the two-shot shooting mode, the focus is controlled so that the central portion of the CCD 23 is in focus, but in the two-shot shooting mode, the divided left and right are divided in each of the two shootings. The subject image is arranged on any of the screens. Therefore, in the first shooting in which the subject is placed on the left screen, the first focus area R1 set in advance in the left screen (for example, gray in the middle portion slightly to the left of the dividing line shown in FIG. 11A). In the second shooting in which the subject is placed on the right screen so that the focus is in the region shown, the second focus area R2 (for example, the dividing line shown in FIG. 11B) set in advance in the right screen. The focus is controlled so that the focus is slightly more on the right-side central area (shown in gray). Specifically, in the first focus control, the contrast of the first focal area of the image signal output from the CCD 23 is detected while moving the lens 21, and the lens position is moved to a position where the contrast becomes maximum. The

第1のフォーカス制御が終了し、シャッタースイッチが全押しされると(ステップS9;YES)、撮像部16により、ステップS7で決定された露出条件で1回目の撮影が行われ、RAM13に第1の撮影画像が格納されるとともに、表示部15の表示画面上に表示される(ステップS10)。   When the first focus control is completed and the shutter switch is fully pressed (step S9; YES), the imaging unit 16 performs the first shooting under the exposure condition determined in step S7, and the first image is stored in the RAM 13. Are captured and displayed on the display screen of the display unit 15 (step S10).

1回目の撮影が終了すると、被写体及び撮影者が交代され、撮像部16において、2回目の撮影で撮影しようとする画像データの取り込みが行われ(ステップS11)、取り込まれた画像データがRAM13に読み出され、当該画像データに付加される第2のマーカ画像Ma2、Mb2の位置が決定され、決定された位置にステップS4で決定された表示色で第2のマーカ画像Ma2、Mb2が付加される(ステップS12:第2のマーカ画像付加手段)。   When the first shooting is completed, the subject and the photographer are changed, and the image data to be captured in the second shooting is captured in the imaging unit 16 (step S11), and the captured image data is stored in the RAM 13. The positions of the second marker images Ma2 and Mb2 read out and added to the image data are determined, and the second marker images Ma2 and Mb2 are added to the determined positions with the display color determined in step S4. (Step S12: second marker image adding means).

2回目の撮影で撮影しようとする画像データにおいて、1回目の撮影で撮影された画像データにおける第1のマーカ画像Ma1、Mb1が付加されている背景画像部分と一致する背景画像部分を示す画素位置に第2のマーカ画像Ma2、Mb2を付加して表示し、撮影者が第1のマーカ画像Ma1、Mb1と第2のマーカ画像Ma2、Mb2とを合わせるようにして2回目の撮影を行うことで、1回目の撮影画像と2回目の撮影画像の背景を容易に、精度良く位置合わせすることが可能となる。そこで、ステップS12においては、第1のマーカ画像Ma1、Mb1が表示されている背景画像部分と一致する背景画像部分を示す画素位置に第2のマーカ画像Ma2、Mb2を付加する位置が決定される。具体的には、1回目の撮影画像内における背景画像の一部を赤/緑/青の3色に分解し、さらに3色のうちどれか1色を選択してこれを白黒に2値化し、エッジを検出し、その検出したエッジの特定点(例えば山の稜線や建物の一部など目立つ点)を基準位置として定め、そこから第1のマーカ画像Ma1、Mb1までの距離(画素数)を算出する。そして、ステップS11で取り込まれた画像データ内において、1回目の撮影画像内の特定点に対応する特定点を抽出し、そこからの距離が1回目の特定点から第1のマーカ画像Ma1、Mb1までの距離と同一になる位置に、第2のマーカ画像Ma2、Mb2の位置が決定される。なお、1回目の撮影画像と2回目の撮影で撮影しようとする画像の位置のずれ量によっては第2マーカ画像Ma2、Mb2の何れかの位置が画像データの領域外にはみだす位置となる場合があるが、この場合においても算出された特定点からの距離により第2マーカ画像Ma2、Mb2の位置は管理されている。   Pixel position indicating a background image portion that matches the background image portion to which the first marker images Ma1 and Mb1 are added in the image data captured in the first capturing in the image data to be captured in the second capturing. The second marker images Ma2 and Mb2 are added and displayed, and the photographer performs the second shooting so that the first marker images Ma1 and Mb1 are aligned with the second marker images Ma2 and Mb2. It becomes possible to easily and accurately align the background of the first captured image and the second captured image. Therefore, in step S12, the position at which the second marker images Ma2 and Mb2 are added to the pixel position indicating the background image portion that matches the background image portion on which the first marker images Ma1 and Mb1 are displayed is determined. . Specifically, a part of the background image in the first shot image is decomposed into three colors of red / green / blue, and one of the three colors is selected and binarized into black and white. The edge is detected, a specific point of the detected edge (for example, a prominent point such as a mountain ridge line or a part of a building) is determined as a reference position, and the distance (number of pixels) from the first marker image Ma1 or Mb1 Is calculated. And the specific point corresponding to the specific point in the 1st picked-up image is extracted in the image data taken in by step S11, and the distance from there is 1st marker image Ma1, Mb1 from the 1st specific point. The positions of the second marker images Ma2 and Mb2 are determined at positions that are the same as the distance up to. Depending on the amount of deviation between the positions of the first captured image and the second captured image, one of the second marker images Ma2 and Mb2 may be positioned outside the image data area. In this case, the positions of the second marker images Ma2 and Mb2 are managed by the calculated distance from the specific point.

ステップS12において第2のマーカ画像Ma2、Mb2が付加されると、この第2のマーカ画像Ma2、Mb2を含む画像が1回目の撮影で取得された第1のマーカ画像Ma1、Mb1を含む撮影画像とともに表示される(ステップS13)。また、1回目に撮影された撮影画像における第1のマーカ画像Ma1、Mb1の位置とステップS11で取り込まれた2回目に撮影しようとする画像における第2のマーカ画像Ma2、Mb2の位置が一致するか否かが判断され(ステップS14:判断手段)、一致したと判断されると(ステップS14;YES)、ブザー20によりブザーが鳴音される(ステップS15:通知手段)。
このブザー20は、1回目の撮影画像における第1のマーカ画像の位置と、撮像部16により取り込まれた2回目に撮影しようとする画像における第2のマーカ画像の位置が一致したことを撮影者に通知するためのものである。
When the second marker images Ma2 and Mb2 are added in step S12, the captured images including the first marker images Ma1 and Mb1 obtained by the first capturing of the images including the second marker images Ma2 and Mb2 are added. It is displayed together (step S13). Further, the positions of the first marker images Ma1 and Mb1 in the captured image captured at the first time coincide with the positions of the second marker images Ma2 and Mb2 in the image to be captured at the second time captured in step S11. Is determined (step S14: determination means), and if it is determined that they match (step S14; YES), the buzzer 20 sounds a buzzer (step S15: notification means).
The buzzer 20 confirms that the position of the first marker image in the first captured image matches the position of the second marker image in the second image captured by the imaging unit 16. It is for notifying.

図10(b)は、2回目の撮影時の表示画面(液晶ファインダ)の表示例を示すものである。図10(b)に示すように、2回目の撮影においては、1回目の撮影で得られた撮影画像及び第1のマーカ画像Ma1、Mb1が表示画面上に表示されるとともに、ステップS11において撮像部16により取り込まれた撮影しようとする画像が第2のマーカ画像Ma2、Mb2が付加された状態で表示される。図10(b)においては、2回目に撮影しようとする画像の背景が1回目の撮影画像に対してわずかに上方にずれている。そのため、第2のマーカ画像Ma2は、一部が画像領域外となり、一部が第1のマーカ画像Ma1に重なった状態で表示されている。第2のマーカ画像Mb2は第1のマーカ画像Mb1に対して背景のずれと同じ分だけ上方にずれて表示されている。この第1のマーカ画像Ma1、Mb1及び第2のマーカ画像Ma2、Mb2の位置により、1回目の撮影画像に対して、これから撮影しようとしている画像の位置にずれが生じているか否かを撮影者が容易に認識できる。また、撮影者は、第1及び第2のマーカ画像を合わせることで、2枚の画像の位置合わせを容易行うことが可能となる。更に、第1及び第2のマーカ画像の位置が一致したか否かを自動的に判断し、一致した場合にはブザー20が鳴音されるので、2回目の撮影において、1回目の画像と背景の位置が一致した時点での撮影が容易となり、精度良く位置合わせされた画像を得ることが可能となる。   FIG. 10B shows a display example of a display screen (liquid crystal finder) at the time of the second shooting. As shown in FIG. 10B, in the second shooting, the shot image obtained in the first shooting and the first marker images Ma1 and Mb1 are displayed on the display screen, and are imaged in step S11. The image to be photographed captured by the unit 16 is displayed with the second marker images Ma2 and Mb2 added thereto. In FIG. 10B, the background of the image to be captured for the second time is slightly shifted upward with respect to the first captured image. Therefore, the second marker image Ma2 is displayed in a state where a part thereof is outside the image area and a part thereof overlaps the first marker image Ma1. The second marker image Mb2 is displayed so as to be shifted upward from the first marker image Mb1 by the same amount as the background shift. Whether the position of the first marker image Ma1, Mb1 and the second marker image Ma2, Mb2 causes a shift in the position of the image to be shot from the first shot image. Can be easily recognized. In addition, the photographer can easily align the two images by combining the first and second marker images. Further, it is automatically determined whether or not the positions of the first and second marker images match, and if they match, the buzzer 20 is sounded. Shooting at the time when the positions of the backgrounds coincide with each other is facilitated, and it is possible to obtain an image that is accurately aligned.

ブザー20のブザー音に応じてシャッタースイッチが半押しされると(ステップS16)、第2のフォーカス制御が行われる(ステップS18:フォーカス制御手段)。即ち、上述の第2の焦点エリアR2に焦点が合うように、フォーカスが制御される。具体的にはレンズ21を移動させながらCCD23が出力する画像信号の第2の焦点エリアR2のコントラストを検出し、そのコントラストが最も大きくなる位置にレンズ位置が移動される。   When the shutter switch is half-pressed according to the buzzer sound of the buzzer 20 (step S16), the second focus control is performed (step S18: focus control means). That is, the focus is controlled so that the above-described second focal area R2 is focused. Specifically, the contrast of the second focal area R2 of the image signal output from the CCD 23 is detected while moving the lens 21, and the lens position is moved to a position where the contrast becomes the largest.

第2のフォーカス制御が終了し、シャッタースイッチが全押しされると(ステップS18;YES)、撮像部16により、ステップS7で決定された露出条件で2回目の撮影が行われ、RAM13に第2の撮影画像が格納される(ステップS19)。そして、1回目及び2回目の撮影画像からそれぞれ合成に使用される領域(1回目の撮影においては図9(a)のグレーで示す領域の左半分の領域、2回目の撮影においては図9(a)のグレーで示す領域の右半分の領域)が抽出されて合成画像が生成され(ステップS20)、生成された合成画像が撮影画像記録領域171に記録され(ステップS21)、本処理は終了する。図10(c)は、本処理により得られた合成画像の一例を示す図である。図10(c)に示すように、背景にずれのないツーショット画像を得ることができる。   When the second focus control is completed and the shutter switch is fully pressed (step S18; YES), the imaging unit 16 performs the second shooting under the exposure condition determined in step S7, and the RAM 13 stores the second image. Are taken (step S19). An area used for composition from the first and second shot images (the left half of the area shown in gray in FIG. 9A in the first shooting, and the area shown in FIG. 9 in the second shooting). a) the right half of the area indicated by gray) is extracted to generate a composite image (step S20), the generated composite image is recorded in the captured image recording area 171 (step S21), and the process is terminated. To do. FIG. 10C is a diagram illustrating an example of a composite image obtained by this processing. As shown in FIG. 10C, a two-shot image with no background shift can be obtained.

(変形例)
上記実施の形態においては、2回の撮影を行ってツーショット画像を得る場合を例にとり説明したが、上記ツーショット撮影モードの機能は、大人数の撮影に利用することも可能である。しかしながら、大人数で撮影する場合、画面を左:右=1:1に分割するのでは被写体の配置が偏った画像になってしまう。そこで、デジタルカメラ10において、左右2画面の分割の比率を設定する手段を備えるようにすることが好ましい。例えば、左右の画面の分割メニューを複数(例えば、90:10、80:20、70:30・・・)用意しておき、上述の画面分割処理において、分割比率設定手段としての入力部12から設定入力された(選択された)分割メニューに基づく割合で、表示部15の表示画面を左右に分割する。これにより、画面分割比率が可変となり、撮影人数に応じて、被写体をバランス良く配置することが可能となる。
(Modification)
In the above embodiment, the case where two shots are taken to obtain a two-shot image has been described as an example, but the function of the two-shot shooting mode can also be used for shooting a large number of people. However, when shooting with a large number of people, dividing the screen into left: right = 1: 1 results in an image with a biased subject arrangement. Therefore, it is preferable that the digital camera 10 includes means for setting the ratio of dividing the left and right two screens. For example, a plurality of left and right screen division menus (for example, 90:10, 80:20, 70:30...) Are prepared, and in the above-described screen division processing, the input unit 12 serving as a division ratio setting unit The display screen of the display unit 15 is divided into left and right at a ratio based on the division menu that has been set and input (selected). As a result, the screen division ratio becomes variable, and the subject can be arranged in a well-balanced manner according to the number of photographers.

以上説明したように、デジタルカメラ10によれば、撮影しようとする画像を表示するための表示画面に、少なくとも2画面に分割した画面を表示し、各画面に異なる被写体を配置して2回の撮影を行い、2回の撮影により取得された撮影画像を合成して合成画像を生成するツーショット撮影モードにおいて、下記の処理を行う。   As described above, according to the digital camera 10, a screen divided into at least two screens is displayed on the display screen for displaying an image to be photographed, and different subjects are arranged on each screen twice. The following processing is performed in the two-shot shooting mode in which shooting is performed, and the shot images acquired by the two shootings are combined to generate a combined image.

即ち、1回目の撮影を行って撮影画像を取得する際に撮影画像内に第1のマーカ画像を付加し、1回目の撮影により取得された撮影画像内における背景画像の特定点と第1のマーカ画像との距離を算出し、2回目の撮影において取得しようとする画像内において背景画像の特定点からの距離が算出された距離と同一になる位置に第2のマーカ画像を付加し、第1のマーカ画像を含む撮影画像及び第2の撮影により撮影しようとする第2のマーカ画像を含む画像を表示画面上に表示する。また、第1の撮影により取得された撮影画像における第1のマーカ画像の位置と第2の撮影により撮影しようとする画像の第2のマーカ画像の位置が一致するか否かを判断し、一致すると判断された際に、その旨をブザー音により通知する。   That is, when acquiring a captured image by performing the first shooting, a first marker image is added to the captured image, and the specific point of the background image in the captured image acquired by the first shooting and the first A distance from the marker image is calculated, and a second marker image is added to a position in the image to be acquired in the second shooting at a position where the distance from the specific point of the background image is the same as the calculated distance. A captured image including one marker image and an image including a second marker image to be captured by the second capturing are displayed on the display screen. Further, it is determined whether or not the position of the first marker image in the photographed image acquired by the first photographing matches the position of the second marker image of the image to be photographed by the second photographing. When it is determined, a notification to that effect is given by a buzzer sound.

従って、1回目の撮影画像に対してこれから撮影しようとしている画像の位置にずれが生じているか否かをマーカ画像の位置により撮影者が容易に認識することができ、2つのマーカ画像を合わせることで、2枚の画像の位置合わせを容易行うことが可能となる。また、第1のマーカ画像及び第2のマーカ画像が一致したか否かを自動的に判断し、一致した場合にはブザー20が鳴音されるので、2回目で撮影しようとする画像の背景の位置と1回目の撮影画像の背景の位置が一致した時点で撮影を実施することが容易となり、精度良く位置合わせされた合成画像を得ることが可能となる。   Therefore, the photographer can easily recognize whether or not the position of the image to be photographed is different from the first photographed image based on the position of the marker image, and the two marker images can be combined. Thus, it is possible to easily align the two images. Further, it is automatically determined whether or not the first marker image and the second marker image match, and if they match, the buzzer 20 is sounded, so the background of the image to be photographed the second time It becomes easy to carry out shooting when the position of the background and the position of the background of the first shot image coincide with each other, and it is possible to obtain a composite image aligned with high accuracy.

また、第1のマーカ画像と第2のマーカ画像の表示色を、1回目の撮影を行って撮影画像を取得する際の画像の信号値(輝度値)、即ち、撮影時の画像の明るさに基づいて決定するので、撮影しようとする画像の背景が明るい場合には黒いマーカ画像を、暗い場合には白いマーカ画像を表示することで、撮影者が見やすいマーカ画像を表示することが可能となる。   Further, the display color of the first marker image and the second marker image is the signal value (luminance value) of the image when the first image is captured and the captured image is acquired, that is, the brightness of the image at the time of shooting. Therefore, it is possible to display a marker image that is easy for the photographer to view by displaying a black marker image when the background of the image to be photographed is bright and displaying a white marker image when the background is dark. Become.

また、第1傾斜センサ21aからの検出情報に基づいて撮影装置の向きを判断し、判断された撮影装置の向きに応じて表示画面を左右2画面に分割するので、撮影装置を横向き(表示画面を横長にする向き)に構えてツーショット画像を撮影することも、撮影装置を縦向きに構えてツーショット画像を撮影することも可能となる。   Further, the orientation of the imaging device is determined based on the detection information from the first tilt sensor 21a, and the display screen is divided into two left and right screens according to the determined orientation of the imaging device. It is possible to take a two-shot image by holding the camera in a landscape orientation, or to take a two-shot image by holding the photographing device vertically.

また、入力部12により設定された分割比率に基づいた比率で表示画面を左右2画面に分割するので、撮影人数に応じて、被写体をバランス良く配置した合成画像を得ることが可能となる。   Further, since the display screen is divided into left and right screens at a ratio based on the division ratio set by the input unit 12, it is possible to obtain a composite image in which subjects are arranged in a balanced manner according to the number of photographers.

また、1回目の撮影及び2回目の撮影のそれぞれにおいて、被写体が配置されることとして予め設定されている画面内に焦点が合うようにレンズを移動させるフォーカス制御を行うので、左右両方の被写体に焦点を合わせることが可能となる。   Further, in each of the first shooting and the second shooting, focus control is performed to move the lens so that the subject is focused on the screen set in advance as the subject is arranged, so that both left and right subjects can be controlled. It becomes possible to focus.

また、レーザ照射部19により、デジタルカメラ10の前方の、左右2画面の分割位置に対応する位置にレーザを照射するので、被写体は自分の立ち位置を知ることが可能となり、被写体をバランス良く配置した合成画像を得ることが可能となる。   In addition, since the laser irradiation unit 19 irradiates the laser at a position corresponding to the divided position of the left and right two screens in front of the digital camera 10, the subject can know his / her standing position, and the subject is arranged in a balanced manner. It becomes possible to obtain the synthesized image.

なお、上記実施の形態における記述内容は、本発明に係るデジタルカメラ10の好適な一例であり、これに限定されるものではない。   In addition, the description content in the said embodiment is a suitable example of the digital camera 10 which concerns on this invention, and is not limited to this.

例えば、上記実施の形態においては、第1のマーカ画像と第2のマーカ画像が一致した際にブザー音により撮影者に通知することとしたが、これに限定されず、例えば、「2枚の画像が一致しました」等の音声メッセージ等により通知を行うこととしてもよい。また、表示画面近傍にLED(Light Emitting Diode)を設け、このLEDを点灯させることにより第1のマーカ画像と第2のマーカ画像が一致したことを撮影者に通知することとしてもよい。   For example, in the above embodiment, the photographer is notified by the buzzer sound when the first marker image and the second marker image coincide with each other. However, the present invention is not limited to this. Notification may be made by a voice message or the like such as “the images match”. Alternatively, an LED (Light Emitting Diode) may be provided in the vicinity of the display screen, and the LED may be turned on to notify the photographer that the first marker image and the second marker image match.

また、上記実施の形態においては、第1のマーカ画像と第2のマーカ画像の色を同じにすることとしたが、個別の色で表示することとしてもよい。図10(b)に示したように、1回目の撮影画像と2回目の撮影で撮影しようとする画像の位置のずれ量によっては第2のマーカ画像Ma2、Mb2の何れかが表示画面の領域外にはみだす位置となったり、第1のマーカ画像Ma1、Mb1と重なったりする場合がある。第1のマーカ画像と第2のマーカ画像が重なった場合、第1のマーカ画像と第2のマーカ画像が同じ色であると重なった部分が見にくくなってしまうが、第1のマーカ画像と第2のマーカ画像の色を別の色とすることにより、重なる部分についてもみやすく表示することが可能となる。例えば、第1のマーカ画像の色を上述のとおり黒又は白とし、第2のマーカ画像の色を、画像データの信号値(輝度値)の平均値が基準値以上の場合については赤(低輝度)、基準値を超えない場合についてはピンク(高輝度)として、第1のマーカ画像の上に第2のマーカ画像を表示するようにすれば、第1のマーカ画像と第2のマーカ画像の重なった部分を見やすく表示することが可能となる。   Moreover, in the said embodiment, although the color of the 1st marker image and the 2nd marker image was made the same, it is good also as displaying by an individual color. As shown in FIG. 10B, either one of the second marker images Ma2 and Mb2 is an area of the display screen depending on the amount of positional deviation between the first captured image and the second captured image. There is a case where the position protrudes outside or overlaps the first marker images Ma1 and Mb1. When the first marker image and the second marker image overlap, it becomes difficult to see the overlapped portion if the first marker image and the second marker image are the same color, but the first marker image and the second marker image By setting the color of the two marker images to different colors, it is possible to easily display the overlapping portions. For example, the color of the first marker image is black or white as described above, and the color of the second marker image is red (low) when the average value of the signal values (luminance values) of the image data is greater than or equal to the reference value. (Brightness), if the reference value is not exceeded, pink (high brightness) is displayed as the second marker image on the first marker image, so that the first marker image and the second marker image are displayed. It is possible to display the overlapped portion in an easy-to-see manner.

また、1回目の撮影画像及び2回目に撮影しようとする画像を縮小して表示画面(液晶ファインダ)上に表示してもよい。これにより、第2のマーカ画像が画像領域からはみだす場合であっても、特定点からの距離に基づいて第2のマーカ画像を表示画面上に表示することが可能となる。   Alternatively, the first captured image and the second captured image may be reduced and displayed on the display screen (liquid crystal finder). Accordingly, even when the second marker image protrudes from the image area, the second marker image can be displayed on the display screen based on the distance from the specific point.

また、上述の画面分割を左右2画面としているが、さらに何れか一方を第1の撮影により取得された撮影画像として、3画像目を撮影するようにしても良く、さらに、複数の撮影画面を上述と同様に撮影して合成してもよい。
さらに、表示画面全体を複数画面に分割して表示しているが、表示部の一部の領域を複数画面に分割した画面として表示しても良い。
また、表示画面全体を上下2画面に分割した画面を表示しても良く、この場合も表示画面全体を上下2画面に、さらに複数画面に分割して表示しても良いし、表示部の一部の領域を複数画面に分割した画面として表示しても良い。
Moreover, although the above-mentioned screen division is made into two left and right screens, a third image may be taken as any one of the taken images acquired by the first shooting, and a plurality of shooting screens are further displayed. You may synthesize | combine by image | photographing similarly to the above-mentioned.
Further, although the entire display screen is divided and displayed on a plurality of screens, a part of the display unit may be displayed as a screen divided into a plurality of screens.
Further, a screen obtained by dividing the entire display screen into two upper and lower screens may be displayed. In this case, the entire display screen may be divided into two upper and lower screens and further divided into a plurality of screens. The part area may be displayed as a screen divided into a plurality of screens.

その他、デジタルカメラ10の細部構成及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of the digital camera 10 can be changed as appropriate without departing from the spirit of the present invention.

本発明に係るデジタルカメラ10の機能的構成を示すブロック図である。1 is a block diagram showing a functional configuration of a digital camera 10 according to the present invention. 図1の撮像部16の詳細構成を示す図である。It is a figure which shows the detailed structure of the imaging part 16 of FIG. 図1のCPU11により実行されるツーショット撮影モード処理を示すフローチャートである。It is a flowchart which shows the two-shot imaging | photography mode process performed by CPU11 of FIG. (a)はデジタルカメラ10の筐体を横向きにして撮影する際の表示画面の分割する方法を示す図であり、(b)はデジタルカメラ0の筐体を縦向きにして撮影する際の表示画面の分割方法を示す図である。(A) is a figure which shows the method of dividing | segmenting the display screen at the time of image | photographing with the housing | casing of the digital camera 10 sideways, (b) is the display at the time of image | photographing with the housing | casing of the digital camera 0 upright It is a figure which shows the division | segmentation method of a screen. 図1のCPU11により実行される画面分割処理を示すフローチャートである。It is a flowchart which shows the screen division | segmentation process performed by CPU11 of FIG. レーザ照射部19により照射されるレーザ位置を説明するための図である。It is a figure for demonstrating the laser position irradiated by the laser irradiation part. レーザ照射部19により照射されるレーザの向きを説明するための図である。It is a figure for demonstrating the direction of the laser irradiated by the laser irradiation part. 図1のCPU11により実行されるマーカ表示色決定処理を示すフローチャートである。It is a flowchart which shows the marker display color determination process performed by CPU11 of FIG. (a)図2のCCD23の撮像面を模式的に示す図、(b)(c)は、画像データの明るさとマーカ画像の表示色の関係を模式的に示す図である。(A) The figure which shows typically the imaging surface of CCD23 of FIG. 2, (b) (c) is a figure which shows typically the relationship between the brightness of image data, and the display color of a marker image. (a)は一回目の撮影時の表示画面(液晶ファインダ)の表示例、(b)は2回目の撮影を行おうとする際の表示画面(液晶ファインダ)の表示例、(c)は、1回目及び2回目の撮影画像を合成した合成画像の表示例を示す図である。(A) is a display example of the display screen (liquid crystal finder) at the time of the first shooting, (b) is a display example of the display screen (liquid crystal finder) when the second shooting is performed, and (c) is 1 It is a figure which shows the example of a display of the synthesized image which synthesize | combined the captured image of the 2nd time and the 2nd time. (a)は第1の焦点エリアを模式的に示す図、(b)は第2の焦点エリアを模式的に示す図である。(A) is a figure which shows a 1st focus area typically, (b) is a figure which shows a 2nd focus area typically.

符号の説明Explanation of symbols

10 デジタルカメラ
11 CPU
12 入力部
13 RAM
14 伝送制御部
15 表示部
16 撮像部
17 記録部
171 撮像画像記録領域
18 記録媒体駆動部
18a 記録媒体
19 レーザ照射部
19a 第1レーザ部
19b 第2レーザ部
20 ブザー
21 傾斜センサ
21a 第1の傾斜センサ
21b 第2の傾斜センサ
22 バス
21 レンズ
22 絞り機構
23 CCD
24 光学系駆動部
25 センサ部
26 駆動回路
27 アナログ処理回路
28 A/D変換回路
29 バッファレジスタ
30 信号処理回路
31 圧縮伸張回路
10 Digital camera 11 CPU
12 Input unit 13 RAM
14 Transmission control unit 15 Display unit 16 Imaging unit 17 Recording unit 171 Captured image recording area 18 Recording medium driving unit 18a Recording medium 19 Laser irradiation unit 19a First laser unit 19b Second laser unit 20 Buzzer 21 Tilt sensor 21a First tilt Sensor 21b Second tilt sensor 22 Bus 21 Lens 22 Aperture mechanism 23 CCD
24 optical system drive unit 25 sensor unit 26 drive circuit 27 analog processing circuit 28 A / D conversion circuit 29 buffer register 30 signal processing circuit 31 compression / decompression circuit

Claims (7)

撮影しようとする画像を表示するための表示画面に、少なくとも2画面に分割した画面を表示し、一方の画面に被写体を配置して第1の撮影を行い、続いて他方の画面に異なる被写体を配置して第2の撮影を行い、前記第1の撮影及び前記第2の撮影により取得された撮影画像を合成して合成画像を生成する撮影装置において、
前記第1の撮影を行って撮影画像を取得する際に前記撮影画像内に第1のマーカ画像を付加する第1のマーカ画像付加手段と、
前記第1の撮影により取得された撮影画像内における背景画像の特定点と前記第1のマーカ画像との距離を算出し、前記第2の撮影において取得しようとする画像内において前記背景画像の特定点からの距離が前記算出された距離と同一になる位置に第2のマーカ画像を付加する第2のマーカ画像付加手段と、
前記第1のマーカ画像を含む撮影画像及び前記第2の撮影により撮影しようとする前記第2のマーカ画像を含む画像を前記表示画面上に表示する表示手段と、
前記第1の撮影により取得された撮影画像における第1のマーカ画像の位置と前記第2の撮影により撮影しようとする画像の第2のマーカ画像の位置が一致するか否かを判断する判断手段と、
前記判断手段による判断の結果、前記第1マーカ画像の位置と前記第2のマーカ画像の位置が一致すると判断された際に、その旨を通知する通知手段と、
を備えたことを特徴とする撮影装置。
A screen divided into at least two screens is displayed on the display screen for displaying an image to be photographed, a subject is placed on one screen, the first photographing is performed, and then a different subject is presented on the other screen. In the photographing apparatus that performs the second photographing by arranging and generates a composite image by combining the photographed images acquired by the first photographing and the second photographing,
First marker image adding means for adding a first marker image to the captured image when performing the first imaging to obtain a captured image;
The distance between the specific point of the background image in the captured image acquired by the first imaging and the first marker image is calculated, and the background image is specified in the image to be acquired in the second imaging. A second marker image adding means for adding a second marker image at a position where the distance from a point is the same as the calculated distance;
Display means for displaying on the display screen a captured image including the first marker image and an image including the second marker image to be captured by the second capturing;
Judgment means for judging whether the position of the first marker image in the photographed image acquired by the first photographing coincides with the position of the second marker image of the image to be photographed by the second photographing. When,
As a result of determination by the determination means, when it is determined that the position of the first marker image and the position of the second marker image match, a notification means for notifying that effect,
An imaging apparatus comprising:
第1の撮影を行って撮影画像を取得する際の画像の明るさに基づいて、前記第1のマーカ画像及び前記第2のマーカ画像の表示色を決定するマーカ表示色決定手段を備えたことを特徴とする請求項1に記載の撮影装置。   Marker display color determining means for determining the display color of the first marker image and the second marker image based on the brightness of the image when performing the first shooting and acquiring the shot image The imaging device according to claim 1. 前記撮影装置の筐体の傾斜状態を検出して検出情報を出力する傾斜センサを備え、
前記傾斜センサからの検出情報に基づいて前記撮影装置の向きを判断し、前記判断された撮影装置の向きに応じて前記表示画面を少なくとも2画面に分割する画面分割手段を備えたことを特徴とする請求項1又は2に記載の撮影装置。
A tilt sensor that detects the tilt state of the housing of the photographing device and outputs detection information;
A screen dividing means for determining the orientation of the photographing apparatus based on detection information from the tilt sensor and dividing the display screen into at least two screens according to the determined orientation of the photographing apparatus. The imaging device according to claim 1 or 2.
前記表示画面を少なくとも2画面に分割する際の分割比率を設定する分割比率設定手段を備え、
前記画面分割手段は、前記設定された分割比率に基づいた比率で前記表示画面を少なくとも2画面に分割することを特徴とする請求項3に記載の撮影装置。
A division ratio setting means for setting a division ratio when dividing the display screen into at least two screens;
4. The photographing apparatus according to claim 3, wherein the screen dividing unit divides the display screen into at least two screens at a ratio based on the set division ratio.
前記分割した画面のうち、前記第1の撮影において被写体が配置される画面及び前記第2の撮影において被写体が配置される画面が予め設定されており、
前記第1の撮影及び前記第2の撮影のそれぞれにおいて、前記被写体が配置されることとして予め設定されている画面内に焦点が合うようにレンズを移動させるフォーカス制御手段を備えたことを特徴とする請求項1〜4の何れか一項に記載の撮影装置。
Among the divided screens, a screen on which a subject is arranged in the first photographing and a screen on which a subject is arranged in the second photographing are set in advance,
In each of the first photographing and the second photographing, a focus control means is provided for moving the lens so that the subject is focused on a screen set in advance as the subject is arranged. The imaging device according to any one of claims 1 to 4.
前記撮影装置の前方の、前記表示画面の分割位置に対応する位置にレーザビームを照射するレーザ照射手段を備えたことを特徴とする請求項1〜5の何れか一項に記載の撮影装置。   The imaging apparatus according to claim 1, further comprising a laser irradiation unit that irradiates a laser beam at a position corresponding to a division position of the display screen in front of the imaging apparatus. 撮影しようとする画像を表示するための表示画面に、少なくとも2画面に分割した画面を表示し、一方の画面に被写体を配置して第1の撮影を行い、続いて他方の画面に異なる被写体を配置して第2の撮影を行い、前記第1の撮影及び前記第2の撮影により取得された撮影画像を合成して合成画像を生成する撮影装置を制御するためのコンピュータに、
前記第1の撮影を行って撮影画像を取得する際に前記撮影画像内に第1のマーカ画像を付加する機能と、
前記第1の撮影により取得された撮影画像内における背景画像の特定点と前記第1のマーカ画像との距離を算出し、前記第2の撮影において取得しようとする画像内において前記背景画像の特定点からの距離が前記算出された距離と同一になる位置に第2のマーカ画像を付加する機能と、
前記第1のマーカ画像を含む撮影画像及び前記第2の撮影により撮影しようとする前記第2のマーカ画像を含む画像を前記表示画面上に表示する機能と、
前記第1の撮影により取得された撮影画像における第1のマーカ画像の位置と前記第2の撮影により撮影しようとする画像の第2のマーカ画像の位置が一致するか否かを判断する機能と、
前記判断手段による判断の結果、前記第1マーカ画像の位置と前記第2のマーカ画像の位置が一致すると判断された際に、その旨を通知する機能と、
を実現させるためのプログラム。
A screen divided into at least two screens is displayed on the display screen for displaying an image to be photographed, a subject is placed on one screen, the first photographing is performed, and then a different subject is presented on the other screen. A computer for controlling a photographing device that performs a second photographing and synthesizes a photographed image obtained by the first photographing and the second photographing to generate a composite image;
A function of adding a first marker image in the photographed image when the first photograph is taken to obtain the photographed image;
The distance between the specific point of the background image in the captured image acquired by the first imaging and the first marker image is calculated, and the background image is specified in the image to be acquired in the second imaging. A function of adding a second marker image at a position where the distance from a point is the same as the calculated distance;
A function for displaying on the display screen a captured image including the first marker image and an image including the second marker image to be captured by the second capturing;
A function of determining whether or not a position of the first marker image in the photographed image acquired by the first photographing coincides with a position of the second marker image of the image to be photographed by the second photographing; ,
As a result of determination by the determination means, when it is determined that the position of the first marker image and the position of the second marker image match,
A program to realize
JP2004367646A 2004-12-20 2004-12-20 Imaging apparatus and program Expired - Fee Related JP4453540B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004367646A JP4453540B2 (en) 2004-12-20 2004-12-20 Imaging apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004367646A JP4453540B2 (en) 2004-12-20 2004-12-20 Imaging apparatus and program

Publications (3)

Publication Number Publication Date
JP2006174353A true JP2006174353A (en) 2006-06-29
JP2006174353A5 JP2006174353A5 (en) 2007-08-30
JP4453540B2 JP4453540B2 (en) 2010-04-21

Family

ID=36674580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004367646A Expired - Fee Related JP4453540B2 (en) 2004-12-20 2004-12-20 Imaging apparatus and program

Country Status (1)

Country Link
JP (1) JP4453540B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008191098A (en) * 2007-02-07 2008-08-21 Olympus Imaging Corp Light projection device
JP2009182536A (en) * 2008-01-30 2009-08-13 Casio Comput Co Ltd Imaging apparatus, photographing method, and photographing program
JP2011199791A (en) * 2010-03-23 2011-10-06 Fujifilm Corp Imaging apparatus
JP2016187130A (en) * 2015-03-27 2016-10-27 Necソリューションイノベータ株式会社 Wearable terminal

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008191098A (en) * 2007-02-07 2008-08-21 Olympus Imaging Corp Light projection device
JP2009182536A (en) * 2008-01-30 2009-08-13 Casio Comput Co Ltd Imaging apparatus, photographing method, and photographing program
JP2011199791A (en) * 2010-03-23 2011-10-06 Fujifilm Corp Imaging apparatus
JP2016187130A (en) * 2015-03-27 2016-10-27 Necソリューションイノベータ株式会社 Wearable terminal

Also Published As

Publication number Publication date
JP4453540B2 (en) 2010-04-21

Similar Documents

Publication Publication Date Title
TWI508555B (en) Image processing apparatus and image processing method for performing image synthesis
KR101643321B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
KR101777354B1 (en) Digital photographing apparatus, method for controlling the same, and computer-readable storage medium
JP4019200B2 (en) Camera with image display
JP2007174548A (en) Photographing device and program
KR20060054004A (en) Image correction device and control method thereof
JPH11355617A (en) Camera with image display device
JP2005269562A (en) Photographing apparatus
JP4509081B2 (en) Digital camera and digital camera program
JP2007201539A (en) Digital camera
JP2008070611A (en) Imaging apparatus, exposure condition adjustment method and program
KR101795600B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium for performing the method
JP4747673B2 (en) Electronic camera and image processing program
JP2006245792A (en) Photographing apparatus and program
JP5635450B2 (en) Imaging apparatus, finder and display method thereof
JP4717867B2 (en) Imaging apparatus and imaging method
JP2010141609A (en) Imaging apparatus
JP4760496B2 (en) Image data generation apparatus and image data generation method
JP4453540B2 (en) Imaging apparatus and program
JP6115024B2 (en) Imaging apparatus, imaging processing method, and program
JP2009182832A (en) Photographing device and through image displaying method
KR101635102B1 (en) Digital photographing apparatus and controlling method thereof
JP4973427B2 (en) Camera with projector
JP2008199443A (en) Imaging apparatus and control method therefor
JP2007206672A (en) Imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070712

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100112

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100125

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130212

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4453540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140212

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees