JP6610713B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6610713B2
JP6610713B2 JP2018116589A JP2018116589A JP6610713B2 JP 6610713 B2 JP6610713 B2 JP 6610713B2 JP 2018116589 A JP2018116589 A JP 2018116589A JP 2018116589 A JP2018116589 A JP 2018116589A JP 6610713 B2 JP6610713 B2 JP 6610713B2
Authority
JP
Japan
Prior art keywords
image
input
display
unit
predetermined instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018116589A
Other languages
Japanese (ja)
Other versions
JP2018173975A (en
Inventor
孝一 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018116589A priority Critical patent/JP6610713B2/en
Publication of JP2018173975A publication Critical patent/JP2018173975A/en
Application granted granted Critical
Publication of JP6610713B2 publication Critical patent/JP6610713B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、複数の撮像装置から得られる複数の画像を、同時に表示できる合成画像の技術が知られている。
例えば、特許文献1には、一方の画像における一部の除去された領域を透明化して、他方の画像に合成する技術が記載されている。
Conventionally, a composite image technique capable of simultaneously displaying a plurality of images obtained from a plurality of imaging devices is known.
For example, Patent Document 1 describes a technique in which a part of a removed area in one image is made transparent and combined with the other image.

特開2009−253554号公報JP 2009-253554 A

しかしながら、上記特許文献1に記載された技術は、単に、複数の画像を合成する技術であるため、合成結果がユーザの好みとは適合しない虞があった。   However, since the technique described in Patent Document 1 is simply a technique for synthesizing a plurality of images, there is a possibility that the synthesis result does not match the user's preference.

本発明は、複数の画像を合成する際に、ユーザの好みにより適合した合成画像を生成できるようにすることを目的とする。   An object of the present invention is to be able to generate a composite image that is more suited to user preferences when combining a plurality of images.

上記目的を達成するため、本発明の一態様の画像処理装置は、
第1の方向を撮像した第1の画像と、第2の方向を撮像した第2の画像とを同時に順次取得する画像取得手段と、
前記画像取得手段により取得された前記第1の画像及び前記第2の画像を表示手段に同時に順次表示させる第1の表示制御手段と、
前記第1の表示制御手段による前記第1の画像及び前記第2の画像の表示中に、第1の所定の指示を入力する第1の入力手段と、
前記第1の入力手段により第1の所定の指示が入力された場合、前記第1の画像及び前記第2の画像の一方の画像の表示を固定した状態で、前記第1の画像及び前記第2の画像の他方の画像を継続して表示させる第2の表示制御手段と、
前記第2の表示制御手段により前記表示手段に表示された前記第1の画像及び前記第2の画像の表示中に第2の所定の指示を入力する第2の入力手段と、
前記第1の入力手段により第1の所定の指示が入力された時点に対応する第1の画像と前記第2の入力手段により第2の所定の指示が入力された時点に対応する第2の画像とを合成する合成手段と、
を備えることを特徴とする
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention includes:
Image acquisition means for sequentially acquiring a first image captured in the first direction and a second image captured in the second direction simultaneously;
First display control means for simultaneously displaying the first image and the second image acquired by the image acquisition means on the display means simultaneously;
First input means for inputting a first predetermined instruction during display of the first image and the second image by the first display control means;
When the first predetermined instruction is input by the first input means, the display of the first image and the second image is fixed while the display of one of the first image and the second image is fixed. Second display control means for continuously displaying the other of the two images;
Second input means for inputting a second predetermined instruction during display of the first image and the second image displayed on the display means by the second display control means;
The first image corresponding to the time when the first predetermined instruction is input by the first input means and the second image corresponding to the time when the second predetermined instruction is input by the second input means. A synthesis means for synthesizing the image;
It is characterized by providing .

本発明によれば、複数の画像を合成する際に、ユーザの好みにより適合した合成画像を生成できる。   According to the present invention, when combining a plurality of images, it is possible to generate a combined image that suits the user's preference.

本発明の一実施形態に係る画像処理装置の外観構成を示す模式図であり、図1(A)は前面図、図1(B)は背面図である。1A and 1B are schematic diagrams illustrating an external configuration of an image processing apparatus according to an embodiment of the present invention, in which FIG. 1A is a front view and FIG. 1B is a rear view. 本発明の一実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。1 is a block diagram illustrating a hardware configuration of an image processing apparatus according to an embodiment of the present invention. 図2の画像処理装置の機能的構成のうち、二方向撮影処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing a two-way imaging | photography process among the functional structures of the image processing apparatus of FIG. 第1撮像部16Aによって撮像される前面画像の一例を示す模式図である。It is a schematic diagram which shows an example of the front image imaged by 16 A of 1st imaging parts. 第2撮像部16Bによって撮像される背面画像の一例を示す模式図である。It is a schematic diagram which shows an example of the back image imaged by the 2nd imaging part 16B. 前面画像において空き領域が特定された状態を示す模式図である。It is a schematic diagram which shows the state by which the empty area was specified in the front image. 前面画像において合成位置の候補が特定された状態を示す模式図である。It is a schematic diagram which shows the state by which the candidate of the synthesis position was specified in the front image. 前面画像に背景画像が合成された状態を示す模式図である。It is a schematic diagram which shows the state by which the background image was synthesize | combined with the front image. 図3の機能的構成を有する図2の画像処理装置が実行する二方向撮影処理の流れを説明するフローチャートである。4 is a flowchart for explaining the flow of a two-way imaging process executed by the image processing apparatus of FIG. 2 having the functional configuration of FIG. 3.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る画像処理装置の外観構成を示す模式図であり、図1(A)は前面図、図1(B)は背面図である。
また、図2は、本発明の一実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。
画像処理装置1は、例えばデジタルカメラとして構成される。
1A and 1B are schematic views showing an external configuration of an image processing apparatus according to an embodiment of the present invention. FIG. 1A is a front view and FIG. 1B is a rear view.
FIG. 2 is a block diagram showing a hardware configuration of the image processing apparatus according to the embodiment of the present invention.
The image processing apparatus 1 is configured as a digital camera, for example.

画像処理装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、第1撮像部16Aと、第2撮像部16Bと、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21と、を備えている。   The image processing apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, a first imaging unit 16A, A second imaging unit 16B, an input unit 17, an output unit 18, a storage unit 19, a communication unit 20, and a drive 21 are provided.

CPU11は、二方向撮影処理のためのプログラム等、ROM12に記録されているプログラム、または、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 such as a program for two-way imaging processing or a program loaded from the storage unit 19 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。
このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、第1撮像部16A、第2撮像部16B、入力部17、出力部18、記憶部19、通信部20及びドライブ21が接続されている。
The CPU 11, ROM 12, and RAM 13 are connected to each other via a bus 14.
An input / output interface 15 is also connected to the bus 14. Connected to the input / output interface 15 are a first imaging unit 16A, a second imaging unit 16B, an input unit 17, an output unit 18, a storage unit 19, a communication unit 20, and a drive 21.

第1撮像部16Aは、画像処理装置1の前面側(出力部18の表示画面に対する反対側の面)に設置され、画像処理装置1の前面側の被写体を撮像する。なお、以下、第1撮像部16Aによって撮像される撮像画像を「前面画像」と呼ぶ。
第2撮像部16Bは、画像処理装置1の後面側(出力部18の表示画面と同じ側)に設置され、画像処理装置1の後面側の被写体を撮像する。第2撮像部16Bは、主に撮影者の顔を撮像することが想定されることから、撮影のために撮影者が画像処理装置1を保持した状態で、撮影者の顔全体が画角に収まる焦点距離のレンズが備えられる。なお、以下、第2撮像部16Bによって撮像される撮像画像を「背面画像」と呼ぶ。
The first imaging unit 16A is installed on the front side of the image processing device 1 (the surface on the opposite side to the display screen of the output unit 18), and images the subject on the front side of the image processing device 1. Hereinafter, a captured image captured by the first imaging unit 16A is referred to as a “front image”.
The second imaging unit 16B is installed on the rear side of the image processing apparatus 1 (the same side as the display screen of the output unit 18), and images the subject on the rear side of the image processing apparatus 1. Since it is assumed that the second imaging unit 16B mainly captures the face of the photographer, the entire face of the photographer has an angle of view with the photographer holding the image processing apparatus 1 for photographing. A lens with a focal length is provided. Hereinafter, a captured image captured by the second imaging unit 16B is referred to as a “rear image”.

第1撮像部16A及び第2撮像部16Bは、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
Although not shown, the first imaging unit 16A and the second imaging unit 16B include an optical lens unit and an image sensor.
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、第1撮像部16Aあるいは第2撮像部16Bの出力信号として出力される。
このような第1撮像部16Aあるいは第2撮像部16Bの出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11や図示しない画像処理部等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the first imaging unit 16A or the second imaging unit 16B.
Such an output signal of the first imaging unit 16A or the second imaging unit 16B is hereinafter referred to as “captured image data”. Data of the captured image is appropriately supplied to the CPU 11 or an image processing unit (not shown).

入力部17は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部19は、ハードディスクあるいはDRAM(Dynamic Random Access Memory)等で構成され、後述する顔の特徴のデータや各種画像のデータ等を記憶する。
通信部20は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The input unit 17 includes various buttons and the like, and inputs various types of information according to user instruction operations.
The output unit 18 includes a display, a speaker, and the like, and outputs images and sounds.
The storage unit 19 is configured by a hard disk or a DRAM (Dynamic Random Access Memory) or the like, and stores facial feature data, various image data, and the like, which will be described later.
The communication unit 20 controls communication performed with other devices (not shown) via a network including the Internet.

ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ21によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像のデータ等の各種データも、記憶部19と同様に記憶することができる。
なお、図示はしないが、画像処理装置1には、ストロボ発光装置等の撮影を補助するハードウェアを適宜備えることができる。
A removable medium 31 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 21. The program read from the removable medium 31 by the drive 21 is installed in the storage unit 19 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 19 in the same manner as the storage unit 19.
Although not shown, the image processing apparatus 1 can appropriately include hardware for assisting photographing such as a strobe light emitting device.

図3は、このような画像処理装置1の機能的構成のうち、二方向撮影処理を実行するための機能的構成を示す機能ブロック図である。
二方向撮影処理とは、第1撮像部16Aによって前面側の被写体を撮影する際に、第2撮像部16Bによって後面側の被写体を併せて撮影し、後面側の被写体の撮像画像を前面側の被写体の撮像画像に合成する一連の処理をいう。
FIG. 3 is a functional block diagram showing a functional configuration for executing the two-way imaging process among the functional configurations of such an image processing apparatus 1.
In the two-way shooting process, when the front side subject is shot by the first imaging unit 16A, the rear side subject is shot together by the second imaging unit 16B, and the captured image of the rear side subject is captured on the front side. A series of processes to be combined with a captured image of a subject.

二方向撮影処理が実行される場合、図3に示すように、CPU11において、撮像制御部51と、顔認識部52と、空き領域解析部53と、合成位置解析部54と、画像合成部55と、表示制御部56とが機能する。
また、記憶部19の一領域には、顔認識情報記憶部71と、画像記憶部72とが設定される。
顔認識情報記憶部71には、互いに関連性を有する複数の顔の特徴のデータが記憶される。例えば、顔認識情報記憶部71には、画像処理装置1を使用する家族全員の顔の特徴のデータが記憶される。
画像記憶部72には、第1撮像部16Aによって撮像された画像のデータ、第2撮像部16Bによって撮像された画像のデータ及び画像合成部55によって合成された合成画像のデータが適宜記憶される。
When the two-way imaging process is executed, as shown in FIG. 3, in the CPU 11, the imaging control unit 51, the face recognition unit 52, the free area analysis unit 53, the synthesis position analysis unit 54 and the image synthesis unit 55 And the display control part 56 functions.
Further, a face recognition information storage unit 71 and an image storage unit 72 are set in one area of the storage unit 19.
The face recognition information storage unit 71 stores a plurality of facial feature data that are related to each other. For example, the face recognition information storage unit 71 stores facial feature data of all family members who use the image processing apparatus 1.
The image storage unit 72 appropriately stores image data captured by the first imaging unit 16A, image data captured by the second imaging unit 16B, and composite image data combined by the image combining unit 55. .

撮像制御部51は、第1撮像部16A及び第2撮像部16Bに前面画像及び背面画像のライブビュー画像を取得させる。
また、撮像制御部51は、シャッターボタンが半押しされた場合に、合焦位置、絞り及び露出等のパラメータを撮影時を想定した値に固定して、撮像画像として取得が予測される前面画像(以下、「ハーフシャッター時の前面画像」と呼ぶ。)を第1撮像部16Aに撮像させる。
また、撮像制御部51は、シャッターボタンが全押しされた場合に、第1撮像部16Aに記録用の前面画像を撮像させる。さらに、撮像制御部51は、記録用の背面画像の撮像を指示する操作が行われた場合に、第2撮像部16Bに前面画像に合成する記録用の背面画像を撮像させる。なお、撮像制御部51は、シャッターボタンが全押しされた場合に第1撮像部16Aに前面画像を撮像させ、その後、シャッターボタンが再度全押しされた場合等、記録用の背面画像の撮像を指示する操作が行われた場合に、第2撮像部16Bに記録用の背面画像を撮像させる。
The imaging control unit 51 causes the first imaging unit 16A and the second imaging unit 16B to acquire live view images of the front image and the rear image.
Further, when the shutter button is half-pressed, the imaging control unit 51 fixes parameters such as a focus position, an aperture, and an exposure to values that are assumed at the time of shooting, and is predicted to be acquired as a captured image. (Hereinafter referred to as “front image during half shutter”) is caused to be imaged by the first imaging unit 16A.
In addition, the imaging control unit 51 causes the first imaging unit 16A to capture a front image for recording when the shutter button is fully pressed. Furthermore, the imaging control unit 51 causes the second imaging unit 16B to capture a recording back image to be combined with the front image when an operation for instructing imaging of the recording back image is performed. The imaging control unit 51 causes the first imaging unit 16A to capture a front image when the shutter button is fully pressed, and then captures a back image for recording when the shutter button is fully pressed again. When an instruction operation is performed, the second imaging unit 16B is caused to capture a back image for recording.

図4は、第1撮像部16Aによって撮像される前面画像の一例を示す模式図である。また、図5は、第2撮像部16Bによって撮像される背面画像の一例を示す模式図である。
図4及び図5においては、図4の前面画像に含まれる複数の人物の集合写真を、図5の背面画像に含まれる人物が撮影した例を示している。なお、図5の背面画像に含まれる人物(被写体F7)は、図4の前面画像に含まれる複数の人物の一部(被写体F1〜F6)と関連性(例えば、「家族」等の関係)を有するものとして、顔認識情報記憶部71に顔の特徴のデータが記憶されている。
FIG. 4 is a schematic diagram illustrating an example of a front image captured by the first imaging unit 16A. FIG. 5 is a schematic diagram illustrating an example of a back image captured by the second imaging unit 16B.
4 and 5 show an example in which a group photo of a plurality of persons included in the front image of FIG. 4 is taken by a person included in the back image of FIG. Note that the person (subject F7) included in the rear image in FIG. 5 is related to a part of the plurality of persons (subjects F1 to F6) included in the front image in FIG. 4 (for example, a relationship such as “family”). The facial feature data is stored in the face recognition information storage unit 71.

顔認識部52は、シャッターボタンが半押しされた場合に、前面画像及び背面画像に含まれる被写体の顔を認識する。また、顔認識部52は、顔認識情報記憶部71に記憶された顔の特徴のデータを参照して、前面画像及び背面画像に含まれる関連性を有する顔を検出する。
空き領域解析部53は、前面画像における被写体の配置を解析し、主要な被写体が写されていない領域を空き領域として特定する。例えば、空き領域解析部53は、合焦状態等に基づいて、主要な被写体と背景とを検出し、主要な被写体が写されていない領域(即ち、背景の領域)を空き領域として特定する。
The face recognition unit 52 recognizes the face of the subject included in the front image and the back image when the shutter button is pressed halfway. In addition, the face recognition unit 52 refers to the facial feature data stored in the face recognition information storage unit 71 to detect a face having relevance included in the front image and the back image.
The vacant area analysis unit 53 analyzes the arrangement of the subject in the front image and identifies an area where the main subject is not captured as an vacant area. For example, the free area analysis unit 53 detects the main subject and the background based on the in-focus state and the like, and specifies the area where the main subject is not copied (that is, the background area) as the free area.

図6は、前面画像において空き領域が特定された状態を示す模式図である。
図6に示すように、図4の前面画像において、複数の人物が集合した中央の領域が主要な被写体が写されている領域として特定され、その周辺の領域が空き領域(図6中の斜線部)として特定されている。
FIG. 6 is a schematic diagram showing a state where an empty area is specified in the front image.
As shown in FIG. 6, in the front image of FIG. 4, the central area where a plurality of persons gather is specified as the area where the main subject is photographed, and the surrounding area is an empty area (the hatched line in FIG. 6). Part).

合成位置解析部54は、顔認識部52によって認識された関連性を有する顔の領域と、空き領域解析部53によって特定された空き領域とに基づいて、前面画像を解析し、前面画像において背面画像を合成する位置(合成位置)を特定する。具体的には、合成位置解析部54は、前面画像において、背面画像に含まれる被写体の顔と関連性を有する被写体の顔の領域を特定し、特定した顔の領域に近い空き領域を選択する。なお、空き領域が広範囲に特定されている場合、設定された大きさの範囲を部分的に指定して、空き領域を選択することが可能である。
このとき、合成位置解析部54は、前面画像において、背景画像に含まれる被写体の顔と関連性を有する被写体の顔の領域が複数特定された場合、それぞれの顔の領域に近い空き領域を背景画像の合成位置の複数の候補として特定する。なお、合成位置解析部54は、これら複数の合成位置の候補に優先順位を設定し、二方向撮影処理の実行時には、この優先順位に従って、合成位置を選択する。優先順位の設定方法としては、例えば、顔認識情報記憶部71に記憶された顔の特徴のデータと一致度合が大きい顔の領域の順、空き領域の大きい順等を採用することができる。
The composite position analyzing unit 54 analyzes the front image based on the face area having the relationship recognized by the face recognizing unit 52 and the free area specified by the free area analyzing unit 53, The position (synthesizing position) for synthesizing images is specified. Specifically, the composite position analysis unit 54 specifies a face area of the subject having relevance to the face of the subject included in the back image in the front image, and selects a free area close to the specified face area. . If the free area is specified over a wide range, it is possible to select a free area by partially specifying a set size range.
At this time, when a plurality of face areas of the subject having relevance to the face of the subject included in the background image are specified in the front image, the synthesis position analysis unit 54 creates a background area that is close to each face area. It is specified as a plurality of candidates for the image synthesis position. The composite position analysis unit 54 sets priorities for the plurality of composite position candidates, and selects a composite position according to the priorities when the two-way imaging process is executed. As a method for setting the priority order, for example, the order of face areas having a high degree of coincidence with the facial feature data stored in the face recognition information storage unit 71, the order of increasing free areas, and the like can be employed.

図7は、前面画像において合成位置の候補が特定された状態を示す模式図である。
図7に示すように、被写体F1〜F6は、被写体F7と関連性を有することから、顔認識部52によって関連性を有する顔として検出されている。そして、図7に示す例では、被写体F1〜F6に近い空き領域のうち3箇所(合成位置C1〜C3)が、合成位置の候補として特定されている。
FIG. 7 is a schematic diagram illustrating a state in which the candidate for the synthesis position is specified in the front image.
As illustrated in FIG. 7, the subjects F1 to F6 have a relationship with the subject F7, and thus are detected as faces having a relationship by the face recognition unit 52. In the example illustrated in FIG. 7, three locations (composite positions C <b> 1 to C <b> 3) among the empty areas close to the subjects F <b> 1 to F <b> 6 are specified as candidate composite positions.

画像合成部55は、シャッターボタンの半押しが行われた場合に、ハーフシャッター時の前面画像において、合成位置解析部54によって特定された合成位置の候補となる位置に、背面画像のライブビュー画像を合成する。なお、このとき、背面画像のライブビュー画像に代えて、シャッターボタンの半押しが行われたタイミングにおける背面画像を固定的に合成してもよい。
また、画像合成部55は、記録用の背面画像の撮像を指示する操作が行われた場合に、記録用の前面画像において、合成位置解析部54によって特定された合成位置の候補となる位置に、第2撮像部16Bによって撮像された記録用の背面画像を合成する。
ここで、画像合成部55は、前面画像における合成位置の候補となる位置に背面画像のライブビュー画像あるいは記録用の背面画像を合成する場合、前面画像において検出された顔の大きさと同等のサイズに、背面画像において検出された顔の大きさをリサイズした上で合成する。
そして、画像合成部55は、記録用の前面画像と記録用の背景画像との合成画像を画像記憶部72に記憶する。
When the shutter button is half-pressed, the image composition unit 55 displays a live view image of the rear image at a position that is a candidate for the composition position specified by the composition position analysis unit 54 in the front image at the time of half shutter. Is synthesized. At this time, instead of the live view image of the back image, the back image at the timing when the shutter button is half-pressed may be fixedly combined.
In addition, when an operation for instructing to capture a back image for recording is performed, the image composition unit 55 positions the candidate for the composition position specified by the composition position analysis unit 54 in the front image for recording. The recording back image captured by the second imaging unit 16B is synthesized.
Here, when the image composition unit 55 synthesizes the live view image of the back image or the back image for recording at a position that is a candidate for the composition position in the front image, the size is equal to the size of the face detected in the front image. Then, the size of the face detected in the back image is resized and combined.
Then, the image composition unit 55 stores a composite image of the recording front image and the recording background image in the image storage unit 72.

図8は、前面画像に背景画像が合成された状態を示す模式図である。
図8に示す例では、合成位置C1に背面画像が合成された場合を示している。
なお、背面画像のライブビュー画像が合成される場合、合成位置C1には、リアルタイムに撮像された背面画像が順次表示される。
FIG. 8 is a schematic diagram illustrating a state in which a background image is combined with a front image.
In the example shown in FIG. 8, the case where the back image is synthesized at the synthesis position C1 is shown.
When the live view image of the rear image is combined, the rear image captured in real time is sequentially displayed at the combining position C1.

表示制御部56は、第1撮像部16A及び第2撮像部16Bによって取得されるライブビュー画像を出力部18のディスプレイに表示させる。また、表示制御部56は、画像合成部55によって合成された合成画像を出力部18のディスプレイに表示させる。例えば、表示制御部56は、前面画像のハーフシャッター時の前面画像と背面画像のライブビュー画像との合成画像や、記録用の前面画像と記録用の背面画像との合成画像を出力部18のディスプレイに表示させる。   The display control unit 56 displays the live view image acquired by the first imaging unit 16A and the second imaging unit 16B on the display of the output unit 18. Further, the display control unit 56 displays the composite image synthesized by the image synthesis unit 55 on the display of the output unit 18. For example, the display control unit 56 outputs a composite image of the front image and the live view image of the rear image at the time of half shutter of the front image, or a composite image of the recording front image and the recording rear image. Display on the display.

次に、動作を説明する。
図9は、図3の機能的構成を有する図2の画像処理装置1が実行する二方向撮影処理の流れを説明するフローチャートである。
二方向撮影処理は、ユーザによる入力部17への二方向撮影処理開始の操作により開始される。
Next, the operation will be described.
FIG. 9 is a flowchart for explaining the flow of two-way imaging processing executed by the image processing apparatus 1 of FIG. 2 having the functional configuration of FIG.
The two-way shooting process is started by an operation for starting the two-way shooting process on the input unit 17 by the user.

ステップS1において、撮像制御部51は、ユーザによる入力部17への操作を受け付ける。
ステップS2において、撮像制御部51は、ユーザによる入力部17への操作がシャッターボタンの半押しであるか否かの判定を行う。
ユーザによる入力部17への操作がシャッターボタンの半押しでない場合、ステップS2においてNOと判定されて、処理はステップS1に移行する。
一方、ユーザによる入力部17への操作がシャッターボタンの半押しである場合、ステップS2においてYESと判定されて、処理はステップS3に移行する。
In step S1, the imaging control unit 51 receives an operation on the input unit 17 by the user.
In step S <b> 2, the imaging control unit 51 determines whether or not the user's operation on the input unit 17 is a half-press of the shutter button.
If the operation of the input unit 17 by the user is not half-pressing the shutter button, NO is determined in step S2, and the process proceeds to step S1.
On the other hand, when the operation on the input unit 17 by the user is half pressing of the shutter button, YES is determined in step S2, and the process proceeds to step S3.

ステップS3において、顔認識部52は、顔認識情報記憶部71に記憶された顔の特徴のデータを参照して、前面画像及び背面画像に含まれる被写体の顔の中で、関連性を有する顔を検出する。
ステップS4において、顔認識部52は、前面画像及び背面画像に含まれる被写体の顔の中で、関連性を有する顔が検出されたか否かの判定を行う。
前面画像及び背面画像に含まれる被写体の顔の中で、関連性を有する顔が検出されない場合、ステップS4においてNOと判定されて、処理はステップS9に移行する。
一方、前面画像及び背面画像に含まれる被写体の顔の中で、関連性を有する顔が検出された場合、ステップS4においてYESと判定されて、処理はステップS5に移行する。
In step S <b> 3, the face recognition unit 52 refers to the facial feature data stored in the face recognition information storage unit 71, and has a relevant face among the faces of the subject included in the front image and the back image. Is detected.
In step S <b> 4, the face recognition unit 52 determines whether or not a related face has been detected among the faces of the subject included in the front image and the back image.
If no relevant face is detected among the faces of the subject included in the front image and the back image, NO is determined in step S4, and the process proceeds to step S9.
On the other hand, if a related face is detected among the faces of the subject included in the front image and the back image, YES is determined in step S4, and the process proceeds to step S5.

ステップS5において、空き領域解析部53は、前面画像における被写体の配置を解析し、主要な被写体が写されていない領域を空き領域として特定する。
ステップS6において、合成位置解析部54は、顔認識部52によって認識された関連性を有する顔の領域と、空き領域解析部53によって特定された空き領域とに基づいて、前面画像を解析し、前面画像において背面画像を合成する位置を特定する。
ステップS7において、画像合成部55は、前面画像において検出された顔の大きさと同等のサイズに、背面画像において検出された顔の大きさをリサイズして、ハーフシャッター時の前面画像において、合成位置解析部54によって特定された合成位置の候補となる位置に、背面画像のライブビュー画像を合成する。
In step S5, the free space analysis unit 53 analyzes the arrangement of the subject in the front image, and specifies a region where the main subject is not copied as a free space.
In step S <b> 6, the composite position analysis unit 54 analyzes the front image based on the face area having the relationship recognized by the face recognition unit 52 and the empty area specified by the empty area analysis unit 53. The position where the rear image is synthesized in the front image is specified.
In step S7, the image composition unit 55 resizes the face size detected in the back image to a size equivalent to the face size detected in the front image, and the composite position in the front image at the time of the half shutter. The live view image of the back image is synthesized at a position that is a candidate for the synthesis position specified by the analysis unit 54.

ステップS8において、表示制御部56は、ハーフシャッター時の前面画像に背面画像のライブビュー画像が合成された合成画像を表示する。
ステップS9において、撮像制御部51は、ユーザによる入力部17への操作を受け付ける。
ステップS10において、撮像制御部51は、ユーザによる入力部17への操作がシャッターボタンの全押しであるか否かの判定を行う。
ユーザによる入力部17への操作がシャッターボタンの全押しでない場合、ステップS10においてNOと判定されて、処理はステップS9に移行する。
一方、ユーザによる入力部17への操作がシャッターボタンの全押しである場合、ステップS10においてYESと判定されて、処理はステップS11に移行する。
In step S8, the display control unit 56 displays a composite image in which the live view image of the back image is combined with the front image at the time of half shutter.
In step S9, the imaging control unit 51 receives an operation on the input unit 17 by the user.
In step S10, the imaging control unit 51 determines whether or not the user's operation on the input unit 17 is a full press of the shutter button.
If the operation on the input unit 17 by the user is not a full press of the shutter button, NO is determined in step S10, and the process proceeds to step S9.
On the other hand, when the operation of the input unit 17 by the user is a full press of the shutter button, YES is determined in step S10, and the process proceeds to step S11.

ステップS11において、撮像制御部51は、記録用の前面画像を第1撮像部16Aに撮像させる。
ステップS12において、撮像制御部51は、記録用の背面画像の撮像を指示する操作が行われたか否かの判定を行う。例えば、シャッターボタンへの再度の全押し操作を記録用の背面画像の撮像を指示する操作としてよい。
記録用の背面画像の撮像を指示する操作が行われた場合、ステップS12においてYESと判定されて、処理はステップS15に移行する。
一方、記録用の背面画像の撮像を指示する操作が行われていない場合、ステップS12においてNOと判定されて、処理はステップS13に移行する。
In step S11, the imaging control unit 51 causes the first imaging unit 16A to capture a front image for recording.
In step S12, the imaging control unit 51 determines whether or not an operation for instructing imaging of a recording back image has been performed. For example, a full-pressing operation on the shutter button again may be an operation for instructing to capture a back image for recording.
If an operation for instructing to capture a back image for recording is performed, YES is determined in step S12, and the process proceeds to step S15.
On the other hand, when an operation for instructing to capture a back image for recording is not performed, NO is determined in step S12, and the process proceeds to step S13.

ステップS13において、画像合成部55は、前面画像において検出された顔の大きさと同等のサイズに、背面画像において検出された顔の大きさをリサイズして、記録用の前面画像において、合成位置解析部54によって特定された合成位置の候補となる位置に、背面画像のライブビュー画像を合成する。
ステップS14において、表示制御部56は、記録用の前面画像に背面画像のライブビュー画像が合成された合成画像を表示する。
ステップS14の後、処理はステップS12に移行する。
ステップS15において、撮像制御部51は、記録用の前面画像に合成する記録用の背面画像を第2撮像部16Bに撮像させる。
In step S13, the image composition unit 55 resizes the size of the face detected in the back image to a size equivalent to the size of the face detected in the front image, and analyzes the composite position in the front image for recording. The live view image of the rear image is synthesized at a position that is a candidate for the synthesis position specified by the unit 54.
In step S14, the display control unit 56 displays a composite image obtained by combining the live view image of the back image with the front image for recording.
After step S14, the process proceeds to step S12.
In step S15, the imaging control unit 51 causes the second imaging unit 16B to capture a recording back image to be combined with the recording front image.

ステップS16において、画像合成部55は、前面画像において検出された顔の大きさと同等のサイズに、背面画像において検出された顔の大きさをリサイズして、記録用の前面画像において、合成位置解析部54によって特定された合成位置の候補となる位置に、記録用の背面画像を合成する。
ステップS17において、表示制御部56は、記録用の前面画像に記録用の背面画像が合成された合成画像を表示する。このとき、記録用の前面画像において、合成位置解析部54によって特定された合成位置の候補となる位置が複数ある場合、表示制御部56は、画像合成部55によって各合成位置に背面画像が合成された合成画像を出力部18のディスプレイに順に表示させる。ただし、画像合成部55によって各合成位置に背面画像が合成された合成画像を出力部18のディスプレイに並べて表示することとしてもよい。
In step S <b> 16, the image composition unit 55 resizes the face size detected in the back image to a size equivalent to the face size detected in the front image, and performs a composite position analysis in the recording front image. The back image for recording is synthesized at a position that is a candidate for the synthesis position specified by the unit 54.
In step S <b> 17, the display control unit 56 displays a composite image in which the recording back image is combined with the recording front image. At this time, if there are a plurality of candidate positions for the synthesis position specified by the synthesis position analysis unit 54 in the recording front image, the display control unit 56 synthesizes the back image at each synthesis position by the image synthesis unit 55. The synthesized images thus displayed are sequentially displayed on the display of the output unit 18. However, the composite image in which the back image is combined at each combining position by the image combining unit 55 may be displayed side by side on the display of the output unit 18.

ステップS18において、画像合成部55は、記録用の前面画像と記録用の背面画像との合成画像を確定する操作が行われたか否かの判定を行う。
つまり、各合成位置に背面画像が合成された合成画像が出力部18のディスプレイに順に表示された場合は、当該順に表示される合成画像のうち、現在ディスプレイに表示されている合成画像に対するユーザの操作(合成画像を確定する操作)が行われたか否かが判定される。
また、各合成位置に背面画像が合成された合成画像が出力部18のディスプレイに並べて表示された場合は、ユーザのディスプレイに対する操作により、所望の合成画像を選択する操作(合成画像を確定する操作)が行われたか否かが判定される。
背面画像を合成する合成位置を確定する操作が行われていない場合、ステップS18においてNOと判定されて、処理はステップS16に移行する。
一方、背面画像を合成する合成位置を確定する操作が行われた場合、ステップS18においてYESと判定されて、処理はステップS19に移行する。
In step S18, the image composition unit 55 determines whether or not an operation for determining a composite image of the recording front image and the recording back image has been performed.
That is, when the composite image in which the back image is combined at each composite position is sequentially displayed on the display of the output unit 18, the user's view of the composite image currently displayed on the display among the composite images displayed in that order is displayed. It is determined whether or not an operation (operation for determining a composite image) has been performed.
In addition, when a composite image in which a back image is combined at each composite position is displayed side by side on the display of the output unit 18, an operation for selecting a desired composite image (an operation for determining a composite image) is performed by a user operation on the display. ) Is determined.
If the operation for determining the composition position for compositing the back image has not been performed, NO is determined in step S18, and the process proceeds to step S16.
On the other hand, when the operation for determining the composition position for compositing the back image is performed, YES is determined in step S18, and the process proceeds to step S19.

ステップS19において、画像合成部55は、確定された記録用の前面画像と記録用の背面画像との合成画像を画像記憶部72に記憶する。
つまり、ステップS18において、各合成位置に背面画像が合成された合成画像を出力部18のディスプレイに順に表示され、当該順に表示される合成画像のうち、現在ディスプレイに表示されている合成画像に対するユーザの操作が行われた場合には、ディスプレイに表示されている合成画像が画像記憶部72に記憶される。
また、ステップS18において、各合成位置に背面画像が合成された合成画像を出力部18のディスプレイに並べて表示され、ユーザのディスプレイに対する操作により、所望の合成画像を選択する操作が行われた場合には、選択された合成画像が画像記憶部72に記憶される。
ステップS19の後、二方向撮影処理は終了となる。
このような処理により、前面画像において、背面画像における被写体と関連性を有する位置に、背面画像を合成して表示することができる。
したがって、複数の画像を合成する際に、ユーザの好みにより適合した合成画像を生成することが可能となる。
In step S <b> 19, the image composition unit 55 stores the composite image of the determined recording front image and recording back image in the image storage unit 72.
That is, in step S18, composite images obtained by combining the back images at the respective composite positions are sequentially displayed on the display of the output unit 18, and among the composite images displayed in that order, the user for the composite image currently displayed on the display is displayed. When the above operation is performed, the composite image displayed on the display is stored in the image storage unit 72.
In step S18, when a composite image obtained by combining the back image at each composite position is displayed side by side on the display of the output unit 18, and an operation for selecting a desired composite image is performed by an operation on the display of the user. The selected composite image is stored in the image storage unit 72.
After step S19, the two-way shooting process ends.
By such processing, the rear image can be synthesized and displayed at a position having a relationship with the subject in the rear image in the front image.
Therefore, when combining a plurality of images, it is possible to generate a combined image that suits the user's preference.

[変形例1]
上記実施形態において、画像合成部55は、シャッターボタンの半押しが行われた場合に、ハーフシャッター時の前面画像を固定し、ハーフシャッター時の前面画像において、合成位置解析部54によって特定された合成位置の候補となる位置に、背面画像のライブビュー画像を合成するものとして説明した。即ち、前面画像と背面画像とのうち、前面画像を先に固定する場合の例について説明した。
これに対し、背面画像を先に固定し、その後、前面画像の被写体を任意のタイミングで撮影することが可能である。
具体的には、背面画像のハーフシャッター操作(背面画像を固定する操作)を行う機能を入力部17におけるボタン等のいずれかに割り当てておき、撮像制御部51が、背面画像のハーフシャッター操作に対応して、ハーフシャッター時の背面画像を取得する。その後、前面画像のライブビュー画像において前面画像の被写体の状態を見ながら、撮影者が任意のタイミングで前面画像の撮像を指示すると、撮像制御部51は、前面画像を取得する。このとき、前面画像のライブビュー画像が表示されている際に、合成位置解析部54によって特定される前面画像の合成位置の候補となる位置に、画像合成部55によってハーフシャッター時の背面画像を合成して表示することとしてもよい。
これにより、前面画像及び背面画像のうち、被写体が撮影に適した状態となったものを優先して撮像し、他方をより適切なタイミングで撮像することができる。
[Modification 1]
In the above embodiment, the image composition unit 55 fixes the front image at the time of half shutter when the shutter button is half-pressed, and is specified by the composition position analysis unit 54 in the front image at the time of half shutter. The description has been made assuming that the live view image of the back image is synthesized at the position as the candidate for the synthesis position. That is, the example in which the front image is fixed first among the front image and the back image has been described.
On the other hand, it is possible to fix the rear image first, and then photograph the subject of the front image at an arbitrary timing.
Specifically, a function for performing a half-shutter operation on the rear image (an operation for fixing the rear image) is assigned to any one of the buttons on the input unit 17, and the imaging control unit 51 performs the half-shutter operation on the rear image. Correspondingly, the back image at the time of half shutter is acquired. Thereafter, when the photographer instructs imaging of the front image at an arbitrary timing while viewing the state of the subject of the front image in the live view image of the front image, the imaging control unit 51 acquires the front image. At this time, when the live view image of the front image is displayed, the back image at the time of half shutter is displayed by the image composition unit 55 at a position that is a candidate for the composition position of the front image specified by the composition position analysis unit 54. It is good also as combining and displaying.
As a result, it is possible to preferentially take an image of the front image and the back image in which the subject is in a state suitable for photographing, and image the other image at a more appropriate timing.

[変形例2]
上記実施形態において、前面画像と背面画像とを撮像する際に、一方の撮像条件(シャッター速度、ホワイトバランス、色あるいは画像の明るさ等)に他方の撮像条件を併せることが可能である。即ち、撮像された前面画像及び背面画像の明るさ、色あるいはホワイトバランス等が同様となるように、撮像制御部51が、一方の画像を基準として、他方の画像の撮像条件を調整することが可能である。
これにより、前面画像に背面画像を合成した場合に、互いの画質が大きく異なることを抑制でき、違和感の少ない合成画像とすることができる。
[Modification 2]
In the above-described embodiment, when the front image and the back image are captured, it is possible to combine the other imaging condition with one imaging condition (shutter speed, white balance, color, image brightness, or the like). In other words, the imaging control unit 51 may adjust the imaging condition of the other image on the basis of one image so that the brightness, color, white balance, etc. of the captured front image and rear image are the same. Is possible.
Thereby, when a back image is combined with a front image, it can control that a picture quality differs mutually and it can be set as a composite image with little sense of incongruity.

[変形例3]
上記実施形態において、ステップS4で関連性を有する顔が検出されない場合、処理はステップS9に移行するものとしたが、これに限られない。
つまり、ステップS4で関連性を有する顔が検出されない場合、前面画像と背面画像とを合成せずに別個に保存するようにしてもよい。
このようにすることで、前面画像と背面画像とが互いに関連性のない合成画像が無用に生成されるのを防ぐことができる。
[Modification 3]
In the above embodiment, when a related face is not detected in step S4, the process proceeds to step S9. However, the present invention is not limited to this.
That is, if no relevant face is detected in step S4, the front image and the back image may be stored separately without being combined.
In this way, it is possible to prevent unnecessary generation of a composite image in which the front image and the back image are not related to each other.

以上のように構成される画像処理装置1は、撮像制御部51と、顔認識部52と、合成位置解析部54と、画像合成部55とを備える。
撮像制御部51は、第1の画像と、第2の画像とを取得する。
顔認識部52は、第1の画像における被写体と第2の画像における被写体との関連性を判定する。
合成位置解析部54は、顔認識部52により判定された被写体の関連性に基づいて、第1の画像における第2の画像の合成位置を決定する。
画像合成部55は、合成位置解析部54により決定された合成位置で、第1の画像と第2の画像とを合成する。
これにより、第1の画像において、第2の画像における被写体と関連性を有する位置に、第2の画像を合成することができる。
したがって、複数の画像を合成する際に、ユーザの好みにより適合した合成画像を生成することが可能となる。
The image processing apparatus 1 configured as described above includes an imaging control unit 51, a face recognition unit 52, a synthesis position analysis unit 54, and an image synthesis unit 55.
The imaging control unit 51 acquires a first image and a second image.
The face recognition unit 52 determines the relationship between the subject in the first image and the subject in the second image.
The composite position analysis unit 54 determines the composite position of the second image in the first image based on the relevance of the subject determined by the face recognition unit 52.
The image composition unit 55 synthesizes the first image and the second image at the composition position determined by the composition position analysis unit 54.
Thereby, in the first image, the second image can be synthesized at a position having relevance to the subject in the second image.
Therefore, when combining a plurality of images, it is possible to generate a combined image that suits the user's preference.

また、顔認識部52は、撮影に関する所定のタイミングにおいて、第1の画像における第2の画像の合成位置を特定する。
これにより、撮影に関する所定のタイミング(例えば、ハーフシャッター操作時等)に、第1の画像における第2の画像の合成位置を撮影者に提示することが可能となる。
In addition, the face recognition unit 52 specifies the synthesis position of the second image in the first image at a predetermined timing related to shooting.
Accordingly, it is possible to present the photographer with the composite position of the second image in the first image at a predetermined timing related to photographing (for example, when a half shutter is operated).

また、画像処理装置1は、顔認識情報記憶部71を備える。
顔認識情報記憶部71は、第1の画像における被写体と第2の画像における被写体との所定の関連性を記憶する。
顔認識部52は、第1の画像における被写体と第2の画像における被写体とが顔認識情報記憶部71に記憶された所定の関連性を有するか否かを判定する。
合成位置解析部54は、顔認識部52により第1の画像における被写体と第2の画像における被写体とが顔認識情報記憶部71に記憶された所定の関連性を有すると判定された場合、当該関連性に基づいて第1の画像における第2の画像の合成位置を決定する。
これにより、第1の画像の被写体と第2の画像の被写体との関連性を反映させて、第2の画像の合成位置を決定することができる。
したがって、複数の画像を合成する際に、ユーザの好みにより適合した合成画像を生成することが可能となる。
The image processing apparatus 1 also includes a face recognition information storage unit 71.
The face recognition information storage unit 71 stores a predetermined relationship between the subject in the first image and the subject in the second image.
The face recognition unit 52 determines whether or not the subject in the first image and the subject in the second image have a predetermined relationship stored in the face recognition information storage unit 71.
When the face recognition unit 52 determines that the subject in the first image and the subject in the second image have the predetermined relationship stored in the face recognition information storage unit 71, the composite position analysis unit 54 Based on the relevance, the synthesis position of the second image in the first image is determined.
Thereby, the composite position of the second image can be determined by reflecting the relationship between the subject of the first image and the subject of the second image.
Therefore, when combining a plurality of images, it is possible to generate a combined image that suits the user's preference.

また、画像処理装置1は、空き領域解析部53を有する。
空き領域解析部53は、第1の画像における第2の画像を合成すべき領域を特定する。
合成位置解析部54は、空き領域解析部53により特定された合成すべき領域内で、合成位置を決定する。
これにより、第2の画像を合成するのに適した領域内で、第2の画像の合成位置を決定することができる。
In addition, the image processing apparatus 1 includes a free space analysis unit 53.
The free space analysis unit 53 identifies a region in the first image where the second image should be synthesized.
The synthesis position analysis unit 54 determines a synthesis position within the area to be synthesized specified by the empty area analysis unit 53.
Thereby, the synthesis position of the second image can be determined within an area suitable for synthesizing the second image.

また、画像処理装置1は、撮像制御部51と、空き領域解析部53と、合成位置解析部54と、画像合成部55とを備える。
撮像制御部51は、第1撮像部16Aにより第1の方向が撮像された第1の画像と、第1撮像部16Aとは異なる第2撮像部16Bにより第2の方向が撮像された第2の画像とを取得する。
空き領域解析部53は、撮像制御部51により取得された第1の画像における第2の画像を合成すべき領域を特定する。
合成位置解析部54は、空き領域解析部53により特定された領域内で、第1の画像における第2の画像の合成位置を決定する。
画像合成部55は、合成位置解析部54により決定された合成位置で、第1の画像と第2の画像とを合成する。
これにより、第1の方向が撮像された第1の画像において、第1の方向とは異なる第2の方向が撮像された第2の画像における被写体と関連性を有する位置に、第2の画像を合成することができる。
したがって、複数の画像を合成する際に、ユーザの好みにより適合した合成画像を生成することが可能となる。
Further, the image processing apparatus 1 includes an imaging control unit 51, an empty area analysis unit 53, a synthesis position analysis unit 54, and an image synthesis unit 55.
The imaging control unit 51 includes a first image captured in the first direction by the first imaging unit 16A, and a second image captured in the second direction by the second imaging unit 16B different from the first imaging unit 16A. Get the image and.
The vacant area analysis unit 53 specifies an area where the second image in the first image acquired by the imaging control unit 51 is to be synthesized.
The synthesis position analysis unit 54 determines the synthesis position of the second image in the first image within the area specified by the empty area analysis unit 53.
The image composition unit 55 synthesizes the first image and the second image at the composition position determined by the composition position analysis unit 54.
Accordingly, in the first image in which the first direction is captured, the second image is located at a position having relevance to the subject in the second image in which the second direction different from the first direction is captured. Can be synthesized.
Therefore, when combining a plurality of images, it is possible to generate a combined image that suits the user's preference.

また、画像処理装置1は、撮像制御部51と、表示制御部56と、入力部17と、画像合成部55とを備える。
撮像制御部51は、第1の方向を撮像した第1の画像と、第2の方向を撮像した第2の画像とを同時に順次取得する。
表示制御部56は、撮像制御部51により取得された第1の画像及び第2の画像をディスプレイに順次表示させる。
入力部17は、表示制御部56による第1の画像及び第2の画像の表示中に、第1の所定の指示を入力する。
また、表示制御部56は、入力部17により第1の所定の指示が入力された場合、第1の画像及び第2の画像の一方の画像の表示を固定した状態で、第1の画像及び第2の画像の他方の画像を継続して表示させる。
また、入力部17は、表示制御部56によりディスプレイに表示された第1の画像及び第2の画像の表示中に第2の所定の指示を入力する。
画像合成部55は、入力部17により第1の所定の指示が入力された時点に対応する第1の画像と入力部17により第2の所定の指示が入力された時点に対応する第2の画像とを合成する。
これにより、同時に順次撮像される第1の画像及び第2の画像において、それぞれに対する所定の指示が入力されたタイミングでの第1の画像及び第2の画像を合成することが可能となる。
Further, the image processing apparatus 1 includes an imaging control unit 51, a display control unit 56, an input unit 17, and an image composition unit 55.
The imaging control unit 51 sequentially acquires a first image captured in the first direction and a second image captured in the second direction simultaneously.
The display control unit 56 sequentially displays the first image and the second image acquired by the imaging control unit 51 on the display.
The input unit 17 inputs a first predetermined instruction during display of the first image and the second image by the display control unit 56.
Further, when the first predetermined instruction is input from the input unit 17, the display control unit 56 fixes the first image and the first image and the second image in a state where the display of one of the first image and the second image is fixed. The other image of the second image is continuously displayed.
The input unit 17 inputs a second predetermined instruction during display of the first image and the second image displayed on the display by the display control unit 56.
The image compositing unit 55 includes a first image corresponding to the time when the first predetermined instruction is input by the input unit 17 and a second image corresponding to the time when the second predetermined instruction is input by the input unit 17. Composite with the image.
This makes it possible to synthesize the first image and the second image at the timing when a predetermined instruction is input to each of the first image and the second image that are sequentially captured at the same time.

また、画像処理装置1は、撮像制御部51と、画像合成部55と、表示制御部56と、入力部17と、を備える。
撮像制御部51は、第1の方向を撮像した第1の画像と、第1の画像の撮像に対応づけて第2の方向を撮像した第2の画像とを取得する。
画像合成部55は、第1の画像において第2の画像を複数の位置のいずれかに各々合成した複数の候補画像を生成する。
表示制御部56は、画像合成部55により生成された複数の候補画像をディスプレイに表示させる。
入力部17は、表示制御部56によりディスプレイに表示された複数の候補画像のうち、特定の候補画像を選択する。
また、画像合成部55は、入力部17により選択された特定の候補画像を画像記憶部72に記録させる。
これにより、第1の画像において複数の位置のいずれかに第2の画像が合成された候補画像の中から、ユーザの好みにより適合した合成画像を簡単に選択することが可能となる。
Further, the image processing apparatus 1 includes an imaging control unit 51, an image composition unit 55, a display control unit 56, and an input unit 17.
The imaging control unit 51 acquires a first image obtained by imaging the first direction and a second image obtained by imaging the second direction in association with the imaging of the first image.
The image composition unit 55 generates a plurality of candidate images obtained by compositing the second image at any of a plurality of positions in the first image.
The display control unit 56 displays a plurality of candidate images generated by the image composition unit 55 on the display.
The input unit 17 selects a specific candidate image from among a plurality of candidate images displayed on the display by the display control unit 56.
Further, the image composition unit 55 causes the image storage unit 72 to record the specific candidate image selected by the input unit 17.
As a result, it is possible to easily select a composite image that suits the user's preference from among candidate images obtained by combining the second image at any of a plurality of positions in the first image.

また、画像合成部55は、第1の画像及び第2の画像の撮像条件の少なくとも一方を他方に合わせるように調整する。
これにより、第1の画像に第2の画像を合成した場合に、互いの画質が大きく異なることを抑制でき、違和感の少ない合成画像とすることができる。
Further, the image composition unit 55 adjusts at least one of the imaging conditions of the first image and the second image to match the other.
Thereby, when a 2nd image is synthesize | combined with a 1st image, it can suppress that a mutually different image quality differs greatly, and it can be set as a synthesized image with little discomfort.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

上述の実施形態では、画像処理装置1の前面側及び背面側の被写体を撮像する場合を例に挙げて説明したが、これに限られない。即ち、画像処理装置1の前面側と側面側等、異なる方向の画像を撮像する場合に本発明を適用することができる。
また、上述の実施形態では、画像処理装置1において、前面画像及び背面画像を撮像する場合を例に挙げて説明したが、これに限られない。即ち、前面画像あるいは背面画像等、一方の画像を他の装置によって撮像し、これらの画像を対象として、本発明を適用することができる。
In the above-described embodiment, the case where the subject on the front side and the back side of the image processing apparatus 1 is imaged is described as an example. However, the present invention is not limited to this. That is, the present invention can be applied to capturing images in different directions such as the front side and the side of the image processing apparatus 1.
In the above-described embodiment, the case where the image processing apparatus 1 captures the front image and the back image has been described as an example. However, the present invention is not limited to this. That is, one image such as a front image or a rear image is captured by another device, and the present invention can be applied to these images.

また、上述の実施形態では、本発明が適用される画像処理装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、画像処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the image processing apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having an image processing function. Specifically, for example, the present invention can be applied to a notebook personal computer, a video camera, a portable navigation device, a mobile phone, a smartphone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図3の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像処理装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図3の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 3 is merely an example, and is not particularly limited. That is, it is sufficient that the image processing apparatus 1 has a function capable of executing the above-described series of processes as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG. .
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図2のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2のROM12や、図2の記憶部19に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 2 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in. The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disc is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disc), a Blu-ray (registered trademark) Disc (Blu-ray Disc), and the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 2 in which the program is recorded, the hard disk included in the storage unit 19 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
第1の画像と、第2の画像とを取得する画像取得手段と、
前記第1の画像における被写体と前記第2の画像における被写体との関連性を判定する関連性判定手段と、
前記関連性判定手段により判定された被写体の関連性に基づいて、前記第1の画像における前記第2の画像の合成位置を決定する決定手段と、
前記決定手段により決定された合成位置で、前記第1の画像と前記第2の画像とを合成する画像合成手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記決定手段は、撮影に関する所定のタイミングにおいて、前記第1の画像における前記第2の画像の合成位置を特定することを特徴とする付記1に記載の画像処理装置。
[付記3]
前記第1の画像における被写体と前記第2の画像における被写体との所定の関連性を記憶する記憶手段を更に備え、
前記関連性判定手段は、前記第1の画像における被写体と前記第2の画像における被写体とが前記記憶手段に記憶された所定の関連性を有するか否かを判定し、
前記決定手段は、前記関連性判定手段により前記第1の画像における被写体と前記第2の画像における被写体とが前記記憶手段に記憶された所定の関連性を有すると判定された場合、当該関連性に基づいて前記第1の画像における前記第2の画像の合成位置を決定することを特徴とする付記1又は2に記載の画像処理装置。
[付記4]
前記第1の画像における前記第2の画像を合成すべき領域を特定する領域特定手段を有し、
前記決定手段は、前記領域特定手段により特定された前記合成すべき領域内で、前記合成位置を決定することを特徴とする付記1から3のいずれか1つに記載の画像処理装置。
[付記5]
第1の撮像手段により第1の方向が撮像された第1の画像と、第1の撮像手段とは異なる第2の撮像手段により第2の方向が撮像された第2の画像とを取得する画像取得手段と、
前記画像取得手段により取得された前記第1の画像における前記第2の画像を合成すべき領域を特定する領域特定手段と、
前記領域特定手段により特定された領域内で、前記第1の画像における前記第2の画像の合成位置を決定する決定手段と、
前記決定手段により決定された合成位置で、前記第1の画像と前記第2の画像とを合成する画像合成手段と、
を備えることを特徴とする画像処理装置。
[付記6]
第1の方向を撮像した第1の画像と、第2の方向を撮像した第2の画像とを同時に順次取得する画像取得手段と、
前記画像取得手段により取得された前記第1の画像及び前記第2の画像を表示手段に順次表示させる第1の表示制御手段と、
前記第1の表示制御手段による前記第1の画像及び前記第2の画像の表示中に、第1の所定の指示を入力する第1の入力手段と、
前記第1の入力手段により第1の所定の指示が入力された場合、前記第1の画像及び前記第2の画像の一方の画像の表示を固定した状態で、前記第1の画像及び前記第2の画像の他方の画像を継続して表示させる第2の表示制御手段と、
前記第2の表示制御手段により前記表示手段に表示された前記第1の画像及び前記第2の画像の表示中に第2の所定の指示を入力する第2の入力手段と、
前記第1の入力手段により第1の所定の指示が入力された時点に対応する第1の画像と前記第2の入力手段により第2の所定の指示が入力された時点に対応する第2の画像とを合成する合成手段と、
を備えることを特徴とする画像処理装置。
[付記7]
第1の方向を撮像した第1の画像と、前記第1の画像の撮像に対応づけて第2の方向を撮像した第2の画像とを取得する画像取得手段と、
前記第1の画像において前記第2の画像を複数の位置のいずれかに各々合成した複数の候補画像を生成する生成手段と、
前記生成手段により生成された複数の候補画像を表示手段に表示させる表示制御手段と、
前記表示制御手段により前記表示手段に表示された複数の候補画像のうち、特定の候補画像を選択する選択手段と、
前記選択手段により選択された特定の候補画像を記録手段に記録させる記録制御手段と、
を備えることを特徴とする画像処理装置。
[付記8]
前記第1の画像及び前記第2の画像の撮像条件の少なくとも一方を他方に合わせるように調整する調整手段を更に備えたことを特徴とする付記1から7のいずれか1つに記載の画像処理装置。
[付記9]
第1の画像と、第2の画像とを取得する画像取得ステップと、
前記第1の画像における被写体と前記第2の画像における被写体との関連性を判定する関連性判定ステップと、
前記関連性判定ステップにおいて判定された被写体の関連性に基づいて、前記第1の画像における前記第2の画像の合成位置を決定する決定ステップと、
前記決定ステップにおいて決定された合成位置で、前記第1の画像と前記第2の画像とを合成する画像合成ステップと、
を含むことを特徴とする画像処理方法。
[付記10]
コンピュータに、
第1の画像と、第2の画像とを取得する画像取得機能と、
前記第1の画像における被写体と前記第2の画像における被写体との関連性を判定する関連性判定機能と、
前記関連性判定機能により判定された被写体の関連性に基づいて、前記第1の画像における前記第2の画像の合成位置を決定する決定機能と、
前記決定機能により決定された合成位置で、前記第1の画像と前記第2の画像とを合成する画像合成機能と、
を実現させることを特徴とするプログラム。
[付記11]
画像処理装置において用いられる画像処理方法であって、
第1の撮像手段により第1の方向が撮像された第1の画像と、第1の撮像手段とは異なる第2の撮像手段により第2の方向が撮像された第2の画像とを取得する画像取得ステップと、
前記画像取得ステップにおいて取得された前記第1の画像における前記第2の画像を合成すべき領域を特定する領域特定ステップと、
前記領域特定ステップにおいて特定された領域内で、前記第1の画像における前記第2の画像の合成位置を決定する決定ステップと、
前記決定ステップにおいて決定された合成位置で、前記第1の画像と前記第2の画像とを合成する画像合成ステップと、
を含むことを特徴とする画像処理方法。
[付記12]
コンピュータに、
第1の撮像手段により第1の方向が撮像された第1の画像と、第1の撮像手段とは異なる第2の撮像手段により第2の方向が撮像された第2の画像とを取得する画像取得機能と、
前記画像取得機能により取得された前記第1の画像における前記第2の画像を合成すべき領域を特定する領域特定機能と、
前記領域特定機能により特定された領域内で、前記第1の画像における前記第2の画像の合成位置を決定する決定機能と、
前記特定機能により決定された合成位置で、前記第1の画像と前記第2の画像とを合成する画像合成機能と、
を実現させることを特徴とするプログラム。
[付記13]
画像処理装置において用いられる画像処理方法であって、
第1の方向を撮像した第1の画像と、第2の方向を撮像した第2の画像とを同時に順次取得する画像取得ステップと、
前記画像取得ステップにおいて取得された前記第1の画像及び前記第2の画像を表示手段に順次表示させる第1の表示制御ステップと、
前記第1の表示制御ステップにおける前記第1の画像及び前記第2の画像の表示中に、第1の所定の指示を入力する第1の入力ステップと、
前記第1の入力ステップにおいて第1の所定の指示が入力された場合、前記第1の画像及び前記第2の画像の一方の画像の表示を固定した状態で、前記第1の画像及び前記第2の画像の他方の画像を継続して表示させる第2の表示制御ステップと、
前記第2の表示制御ステップにおいて前記表示手段に表示された前記第1の画像及び前記第2の画像の表示中に第2の所定の指示を入力する第2の入力ステップと、
前記第1の入力ステップにより第1の所定の指示が入力された時点に対応する第1の画像と前記第2の入力ステップにおいて第2の所定の指示が入力された時点に対応する第2の画像とを合成する合成ステップと、
を含むことを特徴とする画像処理方法。
[付記14]
コンピュータに、
第1の方向を撮像した第1の画像と、第2の方向を撮像した第2の画像とを同時に順次取得する画像取得機能と、
前記画像取得機能により取得された前記第1の画像及び前記第2の画像を表示手段に順次表示させる第1の表示制御機能と、
前記第1の表示制御機能による前記第1の画像及び前記第2の画像の表示中に、第1の所定の指示を入力する第1の入力機能と、
前記第1の入力機能により第1の所定の指示が入力された場合、前記第1の画像及び前記第2の画像の一方の画像の表示を固定した状態で、前記第1の画像及び前記第2の画像の他方の画像を継続して表示させる第2の表示制御機能と、
前記第2の表示制御機能により前記表示手段に表示された前記第1の画像及び前記第2の画像の表示中に第2の所定の指示を入力する第2の入力機能と、
前記第1の入力機能により第1の所定の指示が入力された時点に対応する第1の画像と前記第2の入力機能により第2の所定の指示が入力された時点に対応する第2の画像とを合成する合成機能と、
を実現させることを特徴とするプログラム。
[付記15]
画像処理装置において用いられる画像処理方法であって、
第1の方向を撮像した第1の画像と、前記第1の画像の撮像に対応づけて第2の方向を撮像した第2の画像とを取得する画像取得ステップと、
前記第1の画像において前記第2の画像を複数の位置のいずれかに各々合成した複数の候補画像を生成する生成ステップと、
前記生成ステップにおいて生成された複数の候補画像を表示手段に表示させる表示制御ステップと、
前記表示制御ステップにおいて前記表示手段に表示された複数の候補画像のうち、特定の候補画像を選択する選択ステップと、
前記選択ステップにおいて選択された特定の候補画像を記録手段に記録させる記録制御ステップと、
を含むことを特徴とする画像処理方法。
[付記16]
コンピュータに、
第1の方向を撮像した第1の画像と、前記第1の画像の撮像に対応づけて第2の方向を撮像した第2の画像とを取得する画像取得機能と、
前記第1の画像において前記第2の画像を複数の位置のいずれかに各々合成した複数の候補画像を生成する生成機能と、
前記生成機能により生成された複数の候補画像を表示手段に表示させる表示制御機能と、
前記表示制御機能により前記表示手段に表示された複数の候補画像のうち、特定の候補画像を選択する選択機能と、
前記選択機能により選択された特定の候補画像を記録手段に記録させる記録制御機能と、
を実現させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Image acquisition means for acquiring a first image and a second image;
Relevance determining means for determining relevance between the subject in the first image and the subject in the second image;
Determining means for determining a composite position of the second image in the first image based on the relevance of the subject determined by the relevancy determining means;
Image combining means for combining the first image and the second image at the combining position determined by the determining means;
An image processing apparatus comprising:
[Appendix 2]
The image processing apparatus according to appendix 1, wherein the determination unit specifies a synthesis position of the second image in the first image at a predetermined timing related to photographing.
[Appendix 3]
Storage means for storing a predetermined relationship between the subject in the first image and the subject in the second image;
The relevance determining means determines whether or not the subject in the first image and the subject in the second image have a predetermined relevance stored in the storage means,
The determining means determines that the relevancy determining means determines that the subject in the first image and the subject in the second image have a predetermined relevance stored in the storage means. 3. The image processing apparatus according to appendix 1 or 2, wherein a composite position of the second image in the first image is determined based on
[Appendix 4]
Area specifying means for specifying an area in which the second image in the first image is to be synthesized;
The image processing apparatus according to any one of appendices 1 to 3, wherein the determining unit determines the combining position within the region to be combined specified by the region specifying unit.
[Appendix 5]
A first image captured in the first direction by the first image capturing unit and a second image captured in the second direction by the second image capturing unit different from the first image capturing unit are acquired. Image acquisition means;
Area specifying means for specifying an area to be combined with the second image in the first image acquired by the image acquiring means;
Determining means for determining a synthesis position of the second image in the first image within the area specified by the area specifying means;
Image combining means for combining the first image and the second image at the combining position determined by the determining means;
An image processing apparatus comprising:
[Appendix 6]
Image acquisition means for sequentially acquiring a first image captured in the first direction and a second image captured in the second direction simultaneously;
First display control means for sequentially displaying the first image and the second image acquired by the image acquisition means on a display means;
First input means for inputting a first predetermined instruction during display of the first image and the second image by the first display control means;
When the first predetermined instruction is input by the first input means, the display of the first image and the second image is fixed while the display of one of the first image and the second image is fixed. Second display control means for continuously displaying the other of the two images;
Second input means for inputting a second predetermined instruction during display of the first image and the second image displayed on the display means by the second display control means;
The first image corresponding to the time when the first predetermined instruction is input by the first input means and the second image corresponding to the time when the second predetermined instruction is input by the second input means. A synthesis means for synthesizing the image;
An image processing apparatus comprising:
[Appendix 7]
An image acquisition means for acquiring a first image obtained by imaging the first direction and a second image obtained by imaging the second direction in association with imaging of the first image;
Generating means for generating a plurality of candidate images obtained by combining the second image with any one of a plurality of positions in the first image;
Display control means for displaying on the display means a plurality of candidate images generated by the generating means;
Selecting means for selecting a specific candidate image from among the plurality of candidate images displayed on the display means by the display control means;
Recording control means for causing the recording means to record the specific candidate image selected by the selection means;
An image processing apparatus comprising:
[Appendix 8]
The image processing according to any one of appendices 1 to 7, further comprising an adjustment unit that adjusts at least one of the imaging conditions of the first image and the second image to match the other. apparatus.
[Appendix 9]
An image acquisition step of acquiring a first image and a second image;
A relevance determining step for determining relevance between the subject in the first image and the subject in the second image;
A determination step of determining a composite position of the second image in the first image based on the relationship of the subject determined in the relationship determination step;
An image combining step of combining the first image and the second image at the combining position determined in the determining step;
An image processing method comprising:
[Appendix 10]
On the computer,
An image acquisition function for acquiring a first image and a second image;
A relevance determination function for determining relevance between the subject in the first image and the subject in the second image;
A determination function for determining a composite position of the second image in the first image based on the relationship of the subject determined by the relationship determination function;
An image composition function for compositing the first image and the second image at the composition position determined by the determination function;
A program characterized by realizing.
[Appendix 11]
An image processing method used in an image processing apparatus,
A first image captured in the first direction by the first image capturing unit and a second image captured in the second direction by the second image capturing unit different from the first image capturing unit are acquired. An image acquisition step;
An area specifying step for specifying an area to be combined with the second image in the first image acquired in the image acquiring step;
A determining step of determining a composite position of the second image in the first image within the region specified in the region specifying step;
An image combining step of combining the first image and the second image at the combining position determined in the determining step;
An image processing method comprising:
[Appendix 12]
On the computer,
A first image captured in the first direction by the first image capturing unit and a second image captured in the second direction by the second image capturing unit different from the first image capturing unit are acquired. Image acquisition function,
An area specifying function for specifying an area to be combined with the second image in the first image acquired by the image acquisition function;
A determination function for determining a composite position of the second image in the first image within the region specified by the region specification function;
An image synthesis function for synthesizing the first image and the second image at a synthesis position determined by the specific function;
A program characterized by realizing.
[Appendix 13]
An image processing method used in an image processing apparatus,
An image acquisition step of sequentially acquiring a first image captured in the first direction and a second image captured in the second direction simultaneously;
A first display control step for sequentially displaying on the display means the first image and the second image acquired in the image acquisition step;
A first input step of inputting a first predetermined instruction during display of the first image and the second image in the first display control step;
When the first predetermined instruction is input in the first input step, the display of the first image and the second image is fixed while the display of one of the first image and the second image is fixed. A second display control step of continuously displaying the other of the two images;
A second input step of inputting a second predetermined instruction during the display of the first image and the second image displayed on the display means in the second display control step;
The first image corresponding to the time point when the first predetermined instruction is input in the first input step and the second image corresponding to the time point when the second predetermined instruction is input in the second input step. A compositing step for compositing the image;
An image processing method comprising:
[Appendix 14]
On the computer,
An image acquisition function for sequentially acquiring a first image captured in the first direction and a second image captured in the second direction simultaneously;
A first display control function for sequentially displaying the first image and the second image acquired by the image acquisition function on a display unit;
A first input function for inputting a first predetermined instruction during display of the first image and the second image by the first display control function;
When the first predetermined instruction is input by the first input function, the display of the first image and the second image is fixed while the display of one of the first image and the second image is fixed. A second display control function for continuously displaying the other image of the two images;
A second input function for inputting a second predetermined instruction during display of the first image and the second image displayed on the display means by the second display control function;
The first image corresponding to the time when the first predetermined instruction is input by the first input function and the second image corresponding to the time when the second predetermined instruction is input by the second input function A compositing function that combines images,
A program characterized by realizing.
[Appendix 15]
An image processing method used in an image processing apparatus,
An image acquisition step of acquiring a first image obtained by imaging the first direction and a second image obtained by imaging the second direction in association with imaging of the first image;
Generating a plurality of candidate images obtained by synthesizing the second image in any of a plurality of positions in the first image;
A display control step for displaying a plurality of candidate images generated in the generation step on a display means;
A selection step of selecting a specific candidate image from among the plurality of candidate images displayed on the display means in the display control step;
A recording control step for causing the recording means to record the specific candidate image selected in the selection step;
An image processing method comprising:
[Appendix 16]
On the computer,
An image acquisition function for acquiring a first image obtained by imaging the first direction and a second image obtained by imaging the second direction in association with the imaging of the first image;
A generating function for generating a plurality of candidate images obtained by combining the second image with any one of a plurality of positions in the first image;
A display control function for causing the display means to display a plurality of candidate images generated by the generation function;
A selection function for selecting a specific candidate image from among a plurality of candidate images displayed on the display means by the display control function;
A recording control function for causing the recording means to record the specific candidate image selected by the selection function;
A program characterized by realizing.

1・・・画像処理装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16A・・・第1撮像部,16B・・・第2撮像部,17・・・入力部,18・・・出力部,19・・・記憶部,20・・・通信部,21・・・ドライブ,31・・・リムーバブルメディア,51・・・撮像制御部,52・・・顔認識部,53・・・空き領域解析部,54・・・合成位置解析部,55・・・画像合成部,56・・・表示制御部,71・・・顔認識情報記憶部,72・・・画像記憶部   DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... Input / output interface, 16A ... 1st imaging part, 16B 2nd imaging unit, 17 ... input unit, 18 ... output unit, 19 ... storage unit, 20 ... communication unit, 21 ... drive, 31 ... removable media, 51 ... Imaging control unit, 52 ... Face recognition unit, 53 ... Empty area analysis unit, 54 ... Composition position analysis unit, 55 ... Image composition unit, 56 ... Display control unit, 71 ... Face recognition information storage unit, 72 ... Image storage unit

Claims (4)

第1の方向を撮像した第1の画像と、第2の方向を撮像した第2の画像とを同時に順次取得する画像取得手段と、
前記画像取得手段により取得された前記第1の画像及び前記第2の画像を表示手段に同時に順次表示させる第1の表示制御手段と、
前記第1の表示制御手段による前記第1の画像及び前記第2の画像の表示中に、第1の所定の指示を入力する第1の入力手段と、
前記第1の入力手段により第1の所定の指示が入力された場合、前記第1の画像及び前記第2の画像の一方の画像の表示を固定した状態で、前記第1の画像及び前記第2の画像の他方の画像を継続して表示させる第2の表示制御手段と、
前記第2の表示制御手段により前記表示手段に表示された前記第1の画像及び前記第2の画像の表示中に第2の所定の指示を入力する第2の入力手段と、
前記第1の入力手段により第1の所定の指示が入力された時点に対応する第1の画像と前記第2の入力手段により第2の所定の指示が入力された時点に対応する第2の画像とを合成する合成手段と、
を備えることを特徴とする画像処理装置。
Image acquisition means for sequentially acquiring a first image captured in the first direction and a second image captured in the second direction simultaneously;
First display control means for simultaneously displaying the first image and the second image acquired by the image acquisition means on the display means simultaneously;
First input means for inputting a first predetermined instruction during display of the first image and the second image by the first display control means;
When the first predetermined instruction is input by the first input means, the display of the first image and the second image is fixed while the display of one of the first image and the second image is fixed. Second display control means for continuously displaying the other of the two images;
Second input means for inputting a second predetermined instruction during display of the first image and the second image displayed on the display means by the second display control means;
The first image corresponding to the time when the first predetermined instruction is input by the first input means and the second image corresponding to the time when the second predetermined instruction is input by the second input means. A synthesis means for synthesizing the image;
An image processing apparatus comprising:
前記第1の画像及び前記第2の画像の撮像条件の少なくとも一方を他方に合わせるように調整する調整手段を更に備えたことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising an adjusting unit configured to adjust at least one of the imaging conditions of the first image and the second image to match the other. 画像処理装置において用いられる画像処理方法であって、
第1の方向を撮像した第1の画像と、第2の方向を撮像した第2の画像とを同時に順次取得する画像取得ステップと、
前記画像取得ステップにおいて取得された前記第1の画像及び前記第2の画像を表示手段に同時に順次表示させる第1の表示制御ステップと、
前記第1の表示制御ステップにおける前記第1の画像及び前記第2の画像の表示中に、第1の所定の指示を入力する第1の入力ステップと、
前記第1の入力ステップにおいて第1の所定の指示が入力された場合、前記第1の画像及び前記第2の画像の一方の画像の表示を固定した状態で、前記第1の画像及び前記第2の画像の他方の画像を継続して表示させる第2の表示制御ステップと、
前記第2の表示制御ステップにおいて前記表示手段に表示された前記第1の画像及び前記第2の画像の表示中に第2の所定の指示を入力する第2の入力ステップと、
前記第1の入力ステップにより第1の所定の指示が入力された時点に対応する第1の画像と前記第2の入力ステップにおいて第2の所定の指示が入力された時点に対応する第2の画像とを合成する合成ステップと、
を含むことを特徴とする画像処理方法。
An image processing method used in an image processing apparatus,
An image acquisition step of sequentially acquiring a first image captured in the first direction and a second image captured in the second direction simultaneously;
A first display control step of simultaneously displaying the first image and the second image acquired in the image acquisition step simultaneously on a display unit;
A first input step of inputting a first predetermined instruction during display of the first image and the second image in the first display control step;
When the first predetermined instruction is input in the first input step, the display of the first image and the second image is fixed while the display of one of the first image and the second image is fixed. A second display control step of continuously displaying the other of the two images;
A second input step of inputting a second predetermined instruction during the display of the first image and the second image displayed on the display means in the second display control step;
A first image corresponding to the time point when the first predetermined instruction is input in the first input step and a second image corresponding to the time point when the second predetermined instruction is input in the second input step. A compositing step for compositing the image;
An image processing method comprising:
コンピュータに、
第1の方向を撮像した第1の画像と、第2の方向を撮像した第2の画像とを同時に順次取得する画像取得機能と、
前記画像取得機能により取得された前記第1の画像及び前記第2の画像を表示手段に同時に順次表示させる第1の表示制御機能と、
前記第1の表示制御機能による前記第1の画像及び前記第2の画像の表示中に、第1の所定の指示を入力する第1の入力機能と、
前記第1の入力機能により第1の所定の指示が入力された場合、前記第1の画像及び前記第2の画像の一方の画像の表示を固定した状態で、前記第1の画像及び前記第2の画像の他方の画像を継続して表示させる第2の表示制御機能と、
前記第2の表示制御機能により前記表示手段に表示された前記第1の画像及び前記第2の画像の表示中に第2の所定の指示を入力する第2の入力機能と、
前記第1の入力機能により第1の所定の指示が入力された時点に対応する第1の画像と前記第2の入力機能により第2の所定の指示が入力された時点に対応する第2の画像とを合成する合成機能と、
を実現させることを特徴とするプログラム。
On the computer,
An image acquisition function for sequentially acquiring a first image captured in the first direction and a second image captured in the second direction simultaneously;
A first display control function for simultaneously displaying the first image and the second image acquired by the image acquisition function simultaneously on a display unit;
A first input function for inputting a first predetermined instruction during display of the first image and the second image by the first display control function;
When the first predetermined instruction is input by the first input function, the display of the first image and the second image is fixed while the display of one of the first image and the second image is fixed. A second display control function for continuously displaying the other image of the two images;
A second input function for inputting a second predetermined instruction during display of the first image and the second image displayed on the display means by the second display control function;
Second corresponding to the time when the second predetermined instruction is input by the first image and the previous SL second input function corresponding to the time when the first predetermined instruction is input by said first input function A compositing function for compositing images with
A program characterized by realizing.
JP2018116589A 2018-06-20 2018-06-20 Image processing apparatus, image processing method, and program Expired - Fee Related JP6610713B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018116589A JP6610713B2 (en) 2018-06-20 2018-06-20 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018116589A JP6610713B2 (en) 2018-06-20 2018-06-20 Image processing apparatus, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014135264A Division JP6357922B2 (en) 2014-06-30 2014-06-30 Image processing apparatus, image processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019196241A Division JP2020036347A (en) 2019-10-29 2019-10-29 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2018173975A JP2018173975A (en) 2018-11-08
JP6610713B2 true JP6610713B2 (en) 2019-11-27

Family

ID=64107810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018116589A Expired - Fee Related JP6610713B2 (en) 2018-06-20 2018-06-20 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6610713B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08116490A (en) * 1994-10-14 1996-05-07 Olympus Optical Co Ltd Image processing unit
JP2005094741A (en) * 2003-08-14 2005-04-07 Fuji Photo Film Co Ltd Image pickup device and image synthesizing method
JP4898655B2 (en) * 2007-12-27 2012-03-21 株式会社アイエスピー Imaging apparatus and image composition program
JP4593653B2 (en) * 2008-06-09 2010-12-08 富士フイルム株式会社 Imaging apparatus and imaging system
JP2010004380A (en) * 2008-06-20 2010-01-07 Olympus Corp Personal digital assistant
JP5275789B2 (en) * 2008-12-26 2013-08-28 オリンパスイメージング株式会社 camera
JP2012151724A (en) * 2011-01-20 2012-08-09 Olympus Imaging Corp Synthetic image creating apparatus, synthetic image creating program, and imaging apparatus

Also Published As

Publication number Publication date
JP2018173975A (en) 2018-11-08

Similar Documents

Publication Publication Date Title
JP4562182B2 (en) Image processing apparatus, image processing method, and program
KR101626004B1 (en) Method and apparatus for selective support of the RAW format in digital imaging processor
KR101700366B1 (en) Digital photographing apparatus and control method thereof
JP2007215091A (en) Imaging apparatus and program therefor
JP5578442B2 (en) Imaging apparatus, image composition method, and program
JP4533252B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP4799501B2 (en) Image capturing apparatus, image capturing apparatus control method, and program
KR101737086B1 (en) Digital photographing apparatus and control method thereof
JP2008104069A (en) Digital camera and program of digital camera
KR20120002834A (en) Image pickup apparatus for providing reference image and method for providing reference image thereof
JP2008109551A (en) Imaging device and image reproducing device
JP2011015091A (en) Image capture apparatus
US20120026381A1 (en) Digital image signal processing method, digital image signal processing apparatus and recording medium having recorded thereon the method
JP2014187551A (en) Image acquisition device, image acquisition method and program
JP2004120527A (en) Twin-lens digital camera
JP2011239267A (en) Imaging apparatus and image processing apparatus
JP2010199681A (en) Image processing apparatus and program
JP4553134B2 (en) Image generating apparatus and program thereof
JP2008136073A (en) Camera
JP6357922B2 (en) Image processing apparatus, image processing method, and program
JP2019169985A (en) Image processing apparatus
JP6610713B2 (en) Image processing apparatus, image processing method, and program
JP2020036347A (en) Image processing device, image processing method, and program
JP2017060133A (en) Electronic apparatus, imaging control method, image processing method, and program
JP5163333B2 (en) CAMERA DEVICE, IMAGE DISPLAY METHOD, AND IMAGE DISPLAY PROGRAM

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191014

R150 Certificate of patent or registration of utility model

Ref document number: 6610713

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees