JP2021170810A - Photographing device - Google Patents

Photographing device Download PDF

Info

Publication number
JP2021170810A
JP2021170810A JP2021117003A JP2021117003A JP2021170810A JP 2021170810 A JP2021170810 A JP 2021170810A JP 2021117003 A JP2021117003 A JP 2021117003A JP 2021117003 A JP2021117003 A JP 2021117003A JP 2021170810 A JP2021170810 A JP 2021170810A
Authority
JP
Japan
Prior art keywords
image
image data
person
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021117003A
Other languages
Japanese (ja)
Other versions
JP2021170810A5 (en
JP7362696B2 (en
Inventor
正幸 平林
Masayuki Hirabayashi
康宣 橋本
Yasunobu Hashimoto
宏 清水
Hiroshi Shimizu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020081842A external-priority patent/JP6916342B2/en
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2021117003A priority Critical patent/JP7362696B2/en
Publication of JP2021170810A publication Critical patent/JP2021170810A/en
Publication of JP2021170810A5 publication Critical patent/JP2021170810A5/ja
Priority to JP2023172865A priority patent/JP2023168550A/en
Application granted granted Critical
Publication of JP7362696B2 publication Critical patent/JP7362696B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a photographing device that easily takes a picture in which all of a plurality of persons appear.SOLUTION: In a photographing device, a face recognition processing part executes face recognition processing to first image data to recognize a first person. A synthesis processing part, when second image data, which is photographed at an arbitrary photographing timing different from a photographing timing of the first image data and which has a background same as a background of the first image data and has a second person different from the first person photographed, is recorded in a storage part, creates synthetic data in which the first person and the second person are superimposed on the same background using the first image data and the second image data.SELECTED DRAWING: Figure 1B

Description

本発明は、撮像装置及び画像処理方法に係り、特に複数人が撮像された画像データを合
成する技術に関する。
The present invention relates to an image pickup apparatus and an image processing method, and particularly relates to a technique for synthesizing image data captured by a plurality of people.

本技術分野の背景技術として、特許文献1には「撮影者を含む複数人数での集合写真を
容易に撮影可能とする」ことを課題とし、その解決手段として「デジタルカメラにおいて
、合成撮影モードが指示された直後に、一人の撮影者によって他の被撮影者(複数)の撮
影画像aが撮影される。次いで、他の被撮影者の誰かにデジタルカメラに渡され、先の撮
影者一人の撮影画像bが撮影される。そして、所定の合成条件、例えば、一方の撮影画像
内に所定サイズ以上の複数の顔があり、かつ、他方の撮影画像内に所定サイズ以上の顔が
1つある場合や、2つの撮影画像a、bの各々で検出される顔の人物構成が異なる場合に
、連続して撮影された2枚の撮影画像a、bのどちらか一方に含まれる顔画像を、他方に
合成した新たな合成画像cを作成する。これにより、複数人数全てが撮影された集合写真
を容易に合成する」ことが開示されている。
As a background technology in the present technical field, Patent Document 1 has an object of "making it possible to easily take a group photograph by a plurality of people including a photographer", and as a solution to the problem, "a composite photography mode is provided in a digital camera. Immediately after being instructed, one photographer takes a picture a of another photographed person (plurality). Then, it is handed over to a digital camera by one of the other photographed persons, and one of the previous photographers The captured image b is captured. Then, there are a plurality of faces of a predetermined size or larger in a predetermined composite condition, for example, one captured image, and one face of a predetermined size or larger in the other captured image. In some cases, or when the person composition of the face detected in each of the two captured images a and b is different, the face image included in either of the two captured images a and b captured in succession is displayed. On the other hand, a new composite image c combined is created. By doing so, a group photograph taken by a plurality of people can be easily combined. "

米国特許出願公開第2012/120273号明細書(抜粋)U.S. Patent Application Publication No. 2012/120273 (excerpt)

前記特許文献1は、合成撮影モードが指示された直後に撮影画像a、bが連続して撮影
(以下「一連の撮影」という)されるとこれらを基に合成画像cが作成される。しかし、
例えば一連の撮影中に別のシャッターチャンスが訪れた場合、一連の撮影が終了するまで
は別の画像を撮影できないため、シャッターチャンスを逃す可能性があり、加えて一方の
写真が気に入らない場合は最初から撮り直す必要があることから、合成写真を生成する際
の操作性に更なる改善の余地がある。
In Patent Document 1, when the captured images a and b are continuously photographed (hereinafter referred to as "series of imaging") immediately after the composite imaging mode is instructed, the composite image c is created based on these images. However,
For example, if another photo opportunity comes during a series of shots, you may miss a photo opportunity because you cannot take another image until the series of shots is complete, and if you don't like one photo, Since it is necessary to take a picture again from the beginning, there is room for further improvement in operability when generating a composite photograph.

本発明は上記実情に鑑みてなされたものであり、その目的は、複数人数の全員を含む写
真を容易に生成する際の操作性を向上させた撮像装置及び画像処理方法を提供することで
ある。
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image pickup apparatus and an image processing method having improved operability when easily generating a photograph including all of a plurality of people. ..

前記課題を解決するための手段として、特許請求の範囲に記載の技術を用いる。一例を
挙げるならば、撮像装置において、被写体を撮像して画像データを生成する撮像処理部と
、前記画像データの顔認識処理を実行する顔認識処理部と、前記画像データを記録する画
像記録部と、複数の画像データの其々に撮像された人物が、一つの画像データに含まれる
ように合成処理を実行して合成データを生成する合成処理部と、を備え、前記顔認識処理
部は、第一の画像データに対して前記顔認識処理を実行して第一の人物の顔を認識し、前
記第一の画像データの撮影タイミングとは異なる任意の撮影タイミングで撮影されると共
に、前記第一の画像データの背景と同一の背景を有し、かつ前記第一の人物とは異なる第
二の人物が撮像された第二の画像データが前記画像記録部に記録されている場合に、前記
合成処理部は、前記第一の画像データ及び前記第二の画像データを用いて前記同一の背景
上に前記第一の人物及び前記第二の人物が重畳された前記合成データを生成する。
As a means for solving the above-mentioned problems, the technique described in the claims is used. For example, in an imaging device, an imaging processing unit that captures a subject and generates image data, a face recognition processing unit that executes face recognition processing of the image data, and an image recording unit that records the image data. The face recognition processing unit includes a composition processing unit that executes a composition process so that a person captured by each of the plurality of image data is included in one image data to generate the composition data. , The face recognition process is executed on the first image data to recognize the face of the first person, and the first image data is shot at an arbitrary shooting timing different from the shooting timing of the first image data. When the second image data which has the same background as the background of the first image data and is captured by a second person different from the first person is recorded in the image recording unit. The synthesis processing unit uses the first image data and the second image data to generate the composite data in which the first person and the second person are superimposed on the same background.

本発明によれば、複数人数の全員を含む写真を容易に生成する際の操作性を向上させた
撮像装置及び画像処理方法を提供することができる。上記した以外の課題、構成及び効果
は、以下の実施形態の説明により明らかにされる。
According to the present invention, it is possible to provide an imaging device and an image processing method with improved operability when easily generating a photograph including a plurality of people. Issues, configurations and effects other than those described above will be clarified by the description of the following embodiments.

第一実施形態に係る撮像装置の構成例を示すブロック図Block diagram showing a configuration example of the image pickup apparatus according to the first embodiment 第一実施形態に係る撮像装置のソフトウェア構成図を示す図The figure which shows the software block diagram of the image pickup apparatus which concerns on 1st Embodiment 第一実施形態に係る撮像装置の正面図Front view of the image pickup apparatus according to the first embodiment 第一実施形態に係る撮像装置の背面図Rear view of the image pickup apparatus according to the first embodiment 第一実施形態に係る撮像装置の全体の動作例を示すフローチャートA flowchart showing an overall operation example of the image pickup apparatus according to the first embodiment. 第一実施形態に係る撮像装置の別の動作例(自動合成モード)を示すフローチャートA flowchart showing another operation example (automatic composition mode) of the image pickup apparatus according to the first embodiment. 第一実施形態に係る合成処理部の動作例を示すフローチャートA flowchart showing an operation example of the synthesis processing unit according to the first embodiment. 第一実施形態に係る撮像装置による撮影直後の表示部の表示例を示す図The figure which shows the display example of the display part immediately after shooting by the image pickup apparatus which concerns on 1st Embodiment. 第一実施形態に係る撮像装置により合成された画像データの表示例を示す図The figure which shows the display example of the image data synthesized by the image pickup apparatus which concerns on 1st Embodiment 第一実施形態に係る撮像装置により合成された画像データを記録するか否かの選択画面の表示例を示す図The figure which shows the display example of the selection screen whether or not to record the image data synthesized by the image pickup apparatus which concerns on 1st Embodiment. 第一実施形態に係る撮像装置により画像を合成できなかった場合の表示例を示す図The figure which shows the display example when the image could not be combined by the image pickup apparatus which concerns on 1st Embodiment 第一実施形態に係る撮像装置により別の画像と合成した画像データを表示するか否かの選択画面の表示例を示す図The figure which shows the display example of the selection screen whether or not to display the image data combined with another image by the image pickup apparatus which concerns on 1st Embodiment. 第一実施形態に係る画像データの検索と合成の一例を示す説明図Explanatory drawing which shows an example of search and synthesis of image data which concerns on 1st Embodiment 第一実施形態に係る画像データの検索と合成の一例を示す説明図Explanatory drawing which shows an example of search and synthesis of image data which concerns on 1st Embodiment 第二実施形態に係る撮像装置の全体の動作例を示すフローチャートA flowchart showing an overall operation example of the image pickup apparatus according to the second embodiment. 第二実施形態に係る合成処理部の動作例を示すフローチャートA flowchart showing an operation example of the synthesis processing unit according to the second embodiment. 第二実施形態に係る撮像装置において再生ボタンが押された場合の表示部の表示例を示す図The figure which shows the display example of the display part when the play button is pressed in the image pickup apparatus which concerns on 2nd Embodiment. 第二実施形態に係る撮像装置において別の画像データに変更された場合の表示部の表示例を示す図The figure which shows the display example of the display part at the time of changing to another image data in the image pickup apparatus which concerns on 2nd Embodiment. 第二実施形態に係る撮像装置において合成ボタンが押された場合の表示部の表示例を示す図The figure which shows the display example of the display part when the composition button is pressed in the image pickup apparatus which concerns on 2nd Embodiment. 第二実施形態に係る撮像装置において別の画像データに変更された場合の表示部の表示例を示す図The figure which shows the display example of the display part at the time of changing to another image data in the image pickup apparatus which concerns on 2nd Embodiment. 第二実施形態に係る画像データの検索と合成の一例を示す説明図Explanatory drawing which shows an example of search and synthesis of image data which concerns on 2nd Embodiment 第三実施形態に係る撮像装置の全体の動作例を示すフローチャートA flowchart showing an overall operation example of the image pickup apparatus according to the third embodiment. 第三実施形態に係る合成処理部の動作例を示すフローチャートA flowchart showing an operation example of the synthesis processing unit according to the third embodiment. 第三実施形態に係る撮像装置において撮影直後、あるいは再生ボタンが押された場合の表示部の表示例を示す図The figure which shows the display example of the display part immediately after shooting in the image pickup apparatus which concerns on 3rd Embodiment, or when the play button is pressed. 第三実施形態に係る撮像装置により合成された画像データの表示例を示す図The figure which shows the display example of the image data synthesized by the image pickup apparatus which concerns on 3rd Embodiment 第三実施形態に係る画像データの検索と合成の一例を示す説明図Explanatory drawing which shows an example of search and synthesis of image data which concerns on 3rd Embodiment 第四実施形態に係る撮像装置の構成例を示すブロック図A block diagram showing a configuration example of an imaging device according to a fourth embodiment. 第四実施形態に係る撮像装置のソフトウェア構成図を示す図The figure which shows the software block diagram of the image pickup apparatus which concerns on 4th Embodiment 第四実施形態に係る合成処理部の動作例を示すフローチャートA flowchart showing an operation example of the synthesis processing unit according to the fourth embodiment. 第四実施形態に係る画像データの検索と合成の一例を示す説明図Explanatory drawing which shows an example of search and synthesis of image data which concerns on 4th Embodiment

以下、本発明の実施形態について、図面を用いて説明する。全図を通じで同一の構成に
は同一の符号を付けてその重複説明は省略する。以下の実施形態においては、本発明に係
る撮像装置を例に挙げて説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same components are designated by the same reference numerals throughout the drawings, and duplicate description thereof will be omitted. In the following embodiments, the image pickup apparatus according to the present invention will be described as an example.

<第一実施形態>
第一実施形態は、表示中の画像データと撮像装置が選択した画像データとを、手動合成
モード(ユーザによる合成指示後に合成する動作モード)、又は自動合成モード(撮像装
置が自動で合成する動作モード)により合成する実施形態である。
<First Embodiment>
In the first embodiment, the image data being displayed and the image data selected by the imaging device are combined in a manual composition mode (operation mode in which the image data is combined after the user gives a composition instruction) or an automatic composition mode (operation in which the image pickup device automatically synthesizes the image data). It is an embodiment which synthesizes by mode).

[撮像装置のハードウェア構成]
図1Aは、本発明の第一実施形態に係る撮像装置の構成例を示すブロック図である。
[Hardware configuration of imaging device]
FIG. 1A is a block diagram showing a configuration example of an imaging device according to the first embodiment of the present invention.

図1Aにおいて、主制御部101は、CPU(Central Processing Unit)等で構成さ
れ、ROM(Read Only Memory)102あるいはRAM(Random Access Memory)103
に記憶された各種の動作プログラムおよびデータに従って撮像装置1の全体を制御する。
システムバス100は制御部101と撮像装置1内の各部との間でデータ送受信を行うた
めのデータ通信路である。
In FIG. 1A, the main control unit 101 is composed of a CPU (Central Processing Unit) or the like, and has a ROM (Read Only Memory) 102 or a RAM (Random Access Memory) 103.
The entire image pickup apparatus 1 is controlled according to various operation programs and data stored in the image pickup apparatus 1.
The system bus 100 is a data communication path for transmitting and receiving data between the control unit 101 and each unit in the imaging device 1.

ROM102は、撮像装置1を制御するための各種プログラムが格納されたメモリであ
り、例えばEEPROM(Electrically Erasable Programmable ROM)やフラッシュRO
Mのような書き換え可能なROMが用いられる。
The ROM 102 is a memory in which various programs for controlling the image pickup apparatus 1 are stored, for example, an EEPROM (Electrically Erasable Programmable ROM) or a flash RO.
A rewritable ROM such as M is used.

RAM103はROM102に記憶されたプログラムの実行時の一時記憶領域あるいは
撮影した画像の一時記憶として使用される。
The RAM 103 is used as a temporary storage area for executing a program stored in the ROM 102 or as a temporary storage for captured images.

ストレージ部104(画像記録部に相当する)は、撮像装置1の動作設定値等の情報を
記憶するものであり、例えばフラッシュROMやSSD(Solid State Drive)のような
不揮発性で書き換え可能なデバイスが用いられる。
The storage unit 104 (corresponding to the image recording unit) stores information such as operation setting values of the image pickup apparatus 1, and is a non-volatile and rewritable device such as a flash ROM or SSD (Solid State Drive). Is used.

ROM102およびRAM103は主制御部101と一体構成であってもよい。また、
ROM102は、図1Aに示したような独立構成とはせず、ストレージ部104内の一部
記憶領域を使用するようにしてもよい。
The ROM 102 and the RAM 103 may be integrated with the main control unit 101. again,
The ROM 102 does not have an independent configuration as shown in FIG. 1A, and may use a partial storage area in the storage unit 104.

外部記憶媒体インターフェース(I/F)105はSDカードのような撮像装置1に収
納、取り出し可能な外部記録媒体106に情報を記録・読み出しのためのインターフェー
スである。
The external storage medium interface (I / F) 105 is an interface for recording / reading information on an external recording medium 106 that can be stored and taken out in an image pickup device 1 such as an SD card.

外部インターフェース107は、撮像装置1の機能を拡張するためのインターフェース
群であり、本実施形態では、USB(Universal Serial Bus)インターフェース(I/F
)107a、映像出力インターフェース(I/F)107b、音声出力インターフェース
(I/F)107cを有する。USBインターフェース107aはパソコンあるいはテレ
ビ受信装置等の外部装置のUSBインターフェースに接続し、ストレージ部104あるい
は外部記録媒体106に保存された画像データ等を外部装置で読込、表示等が可能となっ
ている。映像出力インターフェース107bおよび音声出力インターフェース107cは
、外部映像/音声出力機器に映像信号/音声信号の出力を行う。ここで、映像出力インタ
ーフェース107b、音声出力インターフェース107cはHDMI(High-Definition
Multimedia Interface:登録商標)を用いて、映像と音声を一緒に出力するようにしても
よい。
The external interface 107 is a group of interfaces for expanding the functions of the image pickup apparatus 1, and in the present embodiment, the USB (Universal Serial Bus) interface (I / F).
) 107a, a video output interface (I / F) 107b, and an audio output interface (I / F) 107c. The USB interface 107a is connected to the USB interface of an external device such as a personal computer or a television receiving device, and the image data or the like stored in the storage unit 104 or the external recording medium 106 can be read and displayed by the external device. The video output interface 107b and the audio output interface 107c output a video signal / audio signal to an external video / audio output device. Here, the video output interface 107b and the audio output interface 107c are HDMI (High-Definition).
The video and audio may be output together using the Multimedia Interface (registered trademark).

音声入力部108は、撮像装置1の周辺の音声を電気信号に変換するマイク、および電
気信号に変換された音声をディジタル信号の音声データに変換するA/D変換器等で構成
される。
The voice input unit 108 includes a microphone that converts the voice around the image pickup device 1 into an electric signal, an A / D converter that converts the voice converted into the electric signal into voice data of a digital signal, and the like.

音声信号処理部109では音声入力部から入力された音声データに対して、フィルタ処
理や外部記録媒体106に記録する動画像のフォーマットに従って音声データの変換する
処理などを行う。
The audio signal processing unit 109 performs filtering processing on the audio data input from the audio input unit, processing for converting the audio data according to the format of the moving image recorded on the external recording medium 106, and the like.

撮像部110は、ズームやフォーカス動作のためのレンズを含む光学系、前記レンズを
ズームやフォーカス動作のために駆動する機構系、およびレンズから入力した被写体の光
画像を電気信号に変換するCCDあるいはCMOS等の画像センサと電気信号に変換され
た画像をディジタル信号の画像データに変換するA/D変換器等の電気系のデバイスで構
成される。
The imaging unit 110 includes an optical system including a lens for zooming and focusing operations, a mechanism system for driving the lens for zooming and focusing operations, and a CCD or a CCD that converts an optical image of a subject input from the lens into an electric signal. It is composed of an image sensor such as CMOS and an electrical device such as an A / D converter that converts an image converted into an electric signal into image data of a digital signal.

画像信号処理部111は、撮像部110から入力された画像データに対してホワイトバ
ランス調整、露出調整、ガンマ補正等の画像処理を行う。また、外部記録媒体106に記
録するフォーマットに従って、例えば動画像の場合にはMPEG2あるいはH.264等
の画像データに変換し、静止画像の場合にはJPEG、TIFF等の画像データに変換す
る処理などを行う。また、ストレージ部104あるいは外部記録媒体106に記憶した画
像データの合成処理、顔認識処理、パターンマッチング処理などを行う。
The image signal processing unit 111 performs image processing such as white balance adjustment, exposure adjustment, and gamma correction on the image data input from the image pickup unit 110. Further, according to the format of recording on the external recording medium 106, for example, in the case of a moving image, MPEG2 or H.M. It is converted into image data such as 264, and in the case of a still image, it is converted into image data such as JPEG and TIFF. In addition, image data storage processing, face recognition processing, pattern matching processing, and the like performed in the storage unit 104 or the external recording medium 106 are performed.

表示部112は撮像部110の画像センサで撮像している被写体の画像、ストレージ部
104あるいは外部記録媒体106に記録されている画像、あるいは撮像装置1の各種設
定を行うための画面等を表示する。
The display unit 112 displays an image of the subject captured by the image sensor of the image pickup unit 110, an image recorded on the storage unit 104 or the external recording medium 106, a screen for making various settings of the image pickup device 1, and the like. ..

操作部113は、撮像装置1に対する操作指示の入力を行う指示入力部であり、電源オ
ン/オフボタン、シャッターボタン、再生ボタン、合成ボタン、各種設定を行うためのボ
タン等を有する。また、表示部112の表面にタッチパネルを設け、表示部112に表示
したボタン等の位置とタッチパネルをタッチした位置を検出することで撮像装置1に対す
る操作指示の入力を行うようにしてもよい。
The operation unit 113 is an instruction input unit for inputting an operation instruction to the image pickup apparatus 1, and has a power on / off button, a shutter button, a playback button, a composition button, a button for performing various settings, and the like. Further, a touch panel may be provided on the surface of the display unit 112, and an operation instruction may be input to the image pickup apparatus 1 by detecting the position of a button or the like displayed on the display unit 112 and the position where the touch panel is touched.

計時部114は、例えばユーザが設定した日時・時刻からの経過時間をRTC(Real T
ime Clock)回路を用いて計測を行い、日時・時刻情報を出力するものであり、計時部1
14から取得した日時・時刻情報に基づいて画像データに日時・時刻情報を付加して記録
を行う。
The timekeeping unit 114 sets the elapsed time from the date and time set by the user, for example, to RTC (Real T).
ime Clock) Measures using a circuit and outputs date / time / time information.
Based on the date / time / time information acquired from 14, the date / time / time information is added to the image data for recording.

GPS受信部115は複数のGPS衛星からの電波を受信するものであり、受信した信
号に基づいて撮像装置1の位置(緯度、経度等)情報を取得することができる。この位置情
報も、画像データに付加して記録される。
The GPS receiving unit 115 receives radio waves from a plurality of GPS satellites, and can acquire position (latitude, longitude, etc.) information of the imaging device 1 based on the received signals. This position information is also recorded in addition to the image data.

電源部116はバッテリー(図示せず)を含み、主制御部101からの指示により、電
源オン状態、電源オフ状態、電源オフ待機状態等の状態に応じて撮像装置1を構成する各
部位への電源を供給する。
The power supply unit 116 includes a battery (not shown), and is directed to each part constituting the image pickup apparatus 1 according to a power-on state, a power-off state, a power-off standby state, and the like according to an instruction from the main control unit 101. Supply power.

撮像装置1は、撮像部110を備えるものであればデジタルカメラや携帯電話、スマー
トフォン、タブレット端末、ナビゲーション装置等、であっても良いし、PDA(Per
sonal Digital Assistants)やノート型PC(Persona
l Computer)であってもよい。通信機能を備えた音楽プレーヤや携帯型ゲーム
機等、またはその他の携帯用ディジタル機器であっても良い。また、ウェラブルなスマー
トウォッチ、スマートグラス等でもよい。
The image pickup device 1 may be a digital camera, a mobile phone, a smartphone, a tablet terminal, a navigation device, or the like as long as it includes an image pickup unit 110, or a PDA (Per).
Sonal Digital Assistants) and notebook PCs (Persona)
l Computer) may be used. It may be a music player having a communication function, a portable game machine, or other portable digital device. Further, a wearable smart watch, smart glasses, or the like may be used.

[撮像装置のソフトウェア構成]
図1Bは、第一実施形態に係る撮像装置のソフトウェア構成図を示す図であり、ROM
102、RAM103およびストレージ部104におけるソフトウェアの構成を示す。
[Software configuration of imaging device]
FIG. 1B is a diagram showing a software configuration diagram of the image pickup apparatus according to the first embodiment, and is a ROM.
The software configuration in 102, the RAM 103, and the storage unit 104 is shown.

図1Bにおいて、主制御部101がROM102に記憶されたプログラムを実行するこ
とにより、基本動作実行部1021、位置情報取得部1022、撮像処理部1023、画
像記録部1024、画像再生部1025、電源管理部1026、合成処理部1027、顔
認識処理部1028を構成する。また、RAM103は、ROM102に記憶されたプロ
グラムを実行する際に必要に応じてデータを一時的に保持する一時記憶領域1031、撮
像処理部1023が撮像部110を介して撮影した画像を一時的に記憶する画像一時記憶
領域1032を備えるものとする。
In FIG. 1B, the main control unit 101 executes a program stored in the ROM 102 to execute the basic operation execution unit 1021, the position information acquisition unit 1022, the image pickup processing unit 1023, the image recording unit 1024, the image reproduction unit 1025, and the power supply management. A unit 1026, a synthesis processing unit 1027, and a face recognition processing unit 1028 are configured. Further, the RAM 103 temporarily holds a temporary storage area 1031 that temporarily holds data as needed when executing a program stored in the ROM 102, and temporarily captures an image taken by the imaging processing unit 1023 via the imaging unit 110. It is assumed that the image temporary storage area 1032 to be stored is provided.

ストレージ部104には、ROM102に記憶されたプログラムを実行する際の設定情
報を記憶する設定情報記憶領域1041、及び撮像装置1で撮影した静止画像データや動
画像データを記憶する画像記憶領域1042等も有する。
The storage unit 104 includes a setting information storage area 1041 for storing setting information when executing a program stored in the ROM 102, an image storage area 1042 for storing still image data and moving image data captured by the imaging device 1, and the like. Also has.

なお、以下では、説明を簡単にするために、主制御部101がROM102に格納され
たプログラム実行することにより各動作ブロックの制御を行うものとして記述する。
In the following, for the sake of simplicity, it is assumed that the main control unit 101 controls each operation block by executing the program stored in the ROM 102.

基本動作実行部1021は、撮像装置1の各種設定や全体の動作を制御する。 The basic operation execution unit 1021 controls various settings of the image pickup apparatus 1 and overall operations.

位置情報取得部1022はGPS受信部115で受信したGPS衛星からの信号に基づ
いて、撮像装置1の緯度、経度等の位置情報を取得する処理を行う。また、Wi−Fi(
登録商標)受信機能を備え、Wi−Fiの電波受信レベルの情報を用いて位置情報の補正
を行うことで精度を向上するようにしたり、Wi−Fiの電波受信レベルの情報を用いて
位置情報を取得したりしてもよい。
The position information acquisition unit 1022 performs a process of acquiring position information such as latitude and longitude of the image pickup apparatus 1 based on the signal from the GPS satellite received by the GPS reception unit 115. Also, Wi-Fi (
It has a reception function (registered trademark), and it is possible to improve the accuracy by correcting the position information using the information of the radio wave reception level of Wi-Fi, or the position information using the information of the radio wave reception level of Wi-Fi. May be obtained.

撮像処理部1023は、操作部113に含まれるシャッターボタンが押された場合に、
撮像部110で撮像した被写体の画像データをRAM103の画像一時記憶領域1032
に取り込む処理を行う。
The image pickup processing unit 1023 receives when the shutter button included in the operation unit 113 is pressed.
The image data of the subject captured by the image pickup unit 110 is stored in the image temporary storage area 1032 of the RAM 103.
Performs the process of importing into.

画像記録部1024は画像一時記憶領域1032に取り込まれた画像データをストレー
ジ部104の画像記憶領域1042に記録する、あるいは外部記録媒体インターフェース
105を介して外部記録媒体106に記録する処理を行う。
The image recording unit 1024 performs a process of recording the image data captured in the image temporary storage area 1032 in the image storage area 1042 of the storage unit 104, or recording the image data in the external recording medium 106 via the external recording medium interface 105.

画像再生部1025は、撮像部110の画像センサで撮像している被写体の画像をRA
M103の画像一時記憶領域1032を介して表示部112に表示する処理を行う。また
、ストレージ部104、あるいは外部記録媒体106に記録された画像データを読み出し
、表示部112に表示する処理を行う。
The image reproduction unit 1025 RAs the image of the subject captured by the image sensor of the image pickup unit 110.
A process of displaying on the display unit 112 is performed via the image temporary storage area 1032 of the M103. Further, the image data recorded in the storage unit 104 or the external recording medium 106 is read out and displayed on the display unit 112.

電源管理部1026は操作部113に含まれる電源ボタンにより撮像装置1を構成する
各部位に供給する電源を制御する処理を行う。
The power management unit 1026 performs a process of controlling the power supply to each part constituting the image pickup apparatus 1 by the power button included in the operation unit 113.

合成処理部1027は、操作部113に含まれる合成ボタンが押された場合や、合成し
た画像データの表示が選択された場合などに、ストレージ部104や外部記録媒体106
に記憶された画像データを合成する処理を行う。
The compositing processing unit 1027 may be the storage unit 104 or the external recording medium 106 when the compositing button included in the operation unit 113 is pressed or when the display of the compositing image data is selected.
Performs a process of synthesizing the image data stored in.

顔認識処理部1028は、RAM103、ストレージ部104や外部記録媒体106に
記憶された画像データの顔認識処理を行う。
The face recognition processing unit 1028 performs face recognition processing of image data stored in the RAM 103, the storage unit 104, and the external recording medium 106.

前記ROM102に記憶されたプログラムは、製品出荷の時点で、予めに格納された状
態であってもよい。また製品出荷後に、パソコンによりインターネット上のサーバ装置等
から取得したプログラムを、USBインターフェース部107aを介して格納したもので
あってもよい。
The program stored in the ROM 102 may be stored in advance at the time of product shipment. Further, after the product is shipped, a program acquired from a server device or the like on the Internet by a personal computer may be stored via the USB interface unit 107a.

なお、RAM103に画像一時記憶領域1032を設ける代わりに、撮像部110ある
いは画像信号処理部111に画像データを一旦記憶するバッファメモリを設けるようにし
てもよい。
Instead of providing the image temporary storage area 1032 in the RAM 103, the image pickup unit 110 or the image signal processing unit 111 may be provided with a buffer memory for temporarily storing image data.

[撮像装置の外観図]
図2A、及び図2Bを参照して第一実施形態に係る撮像装置の外観について説明する。
[Outline view of imaging device]
The appearance of the image pickup apparatus according to the first embodiment will be described with reference to FIGS. 2A and 2B.

図2Aは撮像装置1の正面図である。撮像装置1の正面には撮像部110を構成するレ
ンズが配置されている。また、撮像装置1の上部には操作部113を構成する電源ボタン
113−1、シャッターボタン113−2が配置されている。
FIG. 2A is a front view of the image pickup apparatus 1. A lens constituting the image pickup unit 110 is arranged in front of the image pickup apparatus 1. Further, a power button 113-1 and a shutter button 113-2 constituting the operation unit 113 are arranged on the upper part of the image pickup apparatus 1.

図2Bは撮像装置1の背面図である。撮像装置1の背面には表示部112と、操作部1
13を構成する選択/決定操作ボタン113−3、種々の設定・ファイル操作処理選択等
を行うためのメニューボタン113−4、ストレージ部104あるいは外部記録媒体10
6に記録された画像データを再生するための再生ボタン113−5、画像データを合成す
るための合成ボタン113−6(合成指示操作部に相当する)が配置されている。表示部
112にタッチセンサを備え、シャッターボタン113−2や選択/決定操作ボタン11
3−3、メニューボタン113−4、再生ボタン113−5、合成ボタン113−6の代
わりに操作できるようにしてもよい。
FIG. 2B is a rear view of the image pickup apparatus 1. A display unit 112 and an operation unit 1 are on the back surface of the image pickup apparatus 1.
Selection / decision operation button 113-3 constituting 13, menu button 113-4 for selecting various settings / file operation processes, storage unit 104 or external recording medium 10
A reproduction button 113-5 for reproducing the image data recorded in 6 and a composition button 113-6 (corresponding to a composition instruction operation unit) for synthesizing the image data are arranged. The display unit 112 is provided with a touch sensor, and the shutter button 113-2 and the selection / decision operation button 11
It may be possible to operate instead of 3-3, the menu button 113-4, the play button 113-5, and the composite button 113-6.

[撮像装置の全体動作]
図3は第一実施形態に係る撮像装置の全体の動作例を示すフローチャートである。図3
では、手動モード、すなわち画像合成の指示をユーザが入力操作、より具体的には以下の
例における「画像合成ボタンの押下げ(S312;Yes)」を契機として画像合成処理
(S313)が実行される場合の動作の流れについて説明する。
[Overall operation of the imaging device]
FIG. 3 is a flowchart showing an overall operation example of the image pickup apparatus according to the first embodiment. Figure 3
Then, the manual mode, that is, the user inputs an instruction for image composition, and more specifically, the image composition process (S313) is executed triggered by "pressing down the image composition button (S312; Yes)" in the following example. The flow of operation in the case of

まず電源管理部1026により電源ボタン113−1の押下の確認を行う。押下げされ
ていなければ(S301;No)次のステップに遷移することなく本ステップで待機する
First, the power management unit 1026 confirms that the power button 113-1 has been pressed. If it is not pressed down (S301; No), it waits in this step without transitioning to the next step.

電源ボタン113−1が押された場合(S301;Yes)は、撮像装置1の起動処理
を行う(S302)。起動すると、撮像部110の画像センサで撮像している被写体の画
像を表示部112に表示する。
When the power button 113-1 is pressed (S301; Yes), the imaging device 1 is activated (S302). When activated, the image of the subject captured by the image sensor of the imaging unit 110 is displayed on the display unit 112.

電源管理部1026により電源ボタン113−1の押下の確認を行う。電源ボタン11
3−1が押された場合(S303;Yes)は、撮像装置1の終了処理を行う(S304
)。
The power management unit 1026 confirms that the power button 113-1 has been pressed. Power button 11
When 3-1 is pressed (S303; Yes), the termination process of the image pickup apparatus 1 is performed (S304).
).

電源ボタン113−1が押されていない場合(S303;No)は、撮像処理部102
3により、シャッターボタン113−2の押下の確認を行う。シャッターボタン113−
2が押された場合(S305;Yes)は、撮像部110は被写体の画像データを撮像し
て取得し(S306)、RAM103の画像一時記憶領域1032に記憶する。また、撮
像した機種、絞り値、画素数、ISO感度、撮影日時、位置情報などの付加情報も画像一
時記憶領域1032に記憶する。そして画像一時記憶領域1032に記憶した画像データ
及び付加情報を、画像記録部1024により、ストレージ部104あるいは外部記録媒体
106に記録する(S307)。そして、撮像部110で撮像し、画像一時記憶領域10
32に記憶した画像データが表示部112に表示される(S309)。
When the power button 113-1 is not pressed (S303; No), the image processing unit 102
3 confirms that the shutter button 113-2 is pressed. Shutter button 113-
When 2 is pressed (S305; Yes), the image pickup unit 110 captures and acquires the image data of the subject (S306), and stores the image data in the image temporary storage area 1032 of the RAM 103. In addition, additional information such as the captured model, aperture value, number of pixels, ISO sensitivity, shooting date and time, and position information is also stored in the image temporary storage area 1032. Then, the image data and additional information stored in the image temporary storage area 1032 are recorded by the image recording unit 1024 in the storage unit 104 or the external recording medium 106 (S307). Then, the image pickup unit 110 takes an image, and the image temporary storage area 10
The image data stored in 32 is displayed on the display unit 112 (S309).

シャッターボタン113−2が押されなかった場合(S305;No)は、画像再生部
1025により再生ボタン113−5の押下の確認を行う。再生ボタン113−5が押さ
れた場合(S308;Yes)は、ストレージ部104や外部記録媒体106に記録され
た画像データを、画像再生部1025により再生し、表示部112に表示する(S309
)。再生・表示する画像は再生ボタン113−5を押して表示部112に表示させること
ができる。この表示部112に表示された画像データ、及びユーザが撮影して生成され表
示部112に表示された画像データ(S306)が、第一の画像データに相当する。
When the shutter button 113-2 is not pressed (S305; No), the image reproduction unit 1025 confirms that the reproduction button 113-5 is pressed. When the play button 113-5 is pressed (S308; Yes), the image data recorded in the storage unit 104 or the external recording medium 106 is reproduced by the image reproduction unit 1025 and displayed on the display unit 112 (S309).
). The image to be reproduced / displayed can be displayed on the display unit 112 by pressing the reproduction button 113-5. The image data displayed on the display unit 112 and the image data (S306) photographed and generated by the user and displayed on the display unit 112 correspond to the first image data.

図6Aは撮像装置1による撮影直後の表示部112の表示例を示す図である。山を背景
に人物Aが撮影されている。撮影した画像データの表示時間は例えば3秒程度であり、ユ
ーザが変更できるようにしてもよい。所定時間を経過すると画像データの表示が消えるが
、再生ボタン113−5が押された場合は再び表示する。
FIG. 6A is a diagram showing a display example of the display unit 112 immediately after being photographed by the image pickup apparatus 1. Person A is photographed against the background of the mountain. The display time of the captured image data is, for example, about 3 seconds, and may be changed by the user. The display of the image data disappears after a lapse of a predetermined time, but when the play button 113-5 is pressed, the display is displayed again.

再生ボタン113−5が押されなかった場合(S308;No)は、合成処理部102
7により合成ボタン113−6の押下の確認を行う。合成ボタン113−6が押された場
合(S312;Yes)は、撮像部110で撮像し、画像一時記憶領域1032を介して
ストレージ部104や外部記録媒体106に記録された画像データを合成処理部1027
により合成(S313)し、合成された画像データが表示部112に表示される(S31
5)。
When the play button 113-5 is not pressed (S308; No), the synthesis processing unit 102
Confirm that the composite button 113-6 is pressed by step 7. When the compositing button 113-6 is pressed (S312; Yes), the imaging unit 110 takes an image, and the image data recorded in the storage unit 104 or the external recording medium 106 via the image temporary storage area 1032 is combined with the compositing processing unit. 1027
(S313), and the combined image data is displayed on the display unit 112 (S31).
5).

図6Bは撮像装置1により合成された画像データの表示例を示す図である。山を背景に
撮影された人物Aを含む画像に、同じ山を背景に撮影された人物Bが合成されている。
FIG. 6B is a diagram showing a display example of image data synthesized by the image pickup apparatus 1. A person B taken against the background of the same mountain is combined with an image including a person A taken against the background of a mountain.

選択/決定操作ボタン113−3により合成した画像データをストレージ部104や外
部記録媒体106に記録する選択・決定が行われると(S317:Yes)、画像記録部
1024は、合成処理部1027で合成した画像データをストレージ部104や外部記録
媒体106に記録する(S318)。
When the selection / determination for recording the image data synthesized by the selection / decision operation button 113-3 in the storage unit 104 or the external recording medium 106 is performed (S317: Yes), the image recording unit 1024 is combined by the composition processing unit 1027. The image data is recorded in the storage unit 104 or the external recording medium 106 (S318).

図7Aは撮像装置1により合成された画像データを記録するか否かの選択画面の表示例
を示す図である。ユーザは選択/決定操作ボタン113−3により「はい」「いいえ」を
選択し、決定する。
FIG. 7A is a diagram showing a display example of a selection screen for whether or not to record the image data synthesized by the image pickup apparatus 1. The user selects “yes” or “no” with the selection / decision operation button 113-3 and decides.

選択/決定操作ボタン113−3により合成した画像データをストレージ部104や外
部記録媒体106に記録しない選択・決定が行われた場合(S317:No)、または合
成ボタンの押下げがされない場合(S312;No)、画像再生処理(S315)の後、
若しくは画像再生処理(S309)の後、ステップS303へ戻る。
The image data synthesized by the selection / decision operation button 113-3 is not recorded in the storage unit 104 or the external recording medium 106. When a selection / decision is made (S317: No), or when the composite button is not pressed (S312). No), after the image reproduction process (S315)
Alternatively, after the image reproduction process (S309), the process returns to step S303.

図7Bは画像を合成できなかった場合の表示例を示す図である。画像を合成できなかっ
た場合(S313による画像合成処理の結果、合成ができなかった場合)は、図7Aの代
わりに図7Bに示す画面が表示部112に表示される。
FIG. 7B is a diagram showing a display example when the images cannot be combined. When the images cannot be combined (when the images cannot be combined as a result of the image composition processing by S313), the screen shown in FIG. 7B is displayed on the display unit 112 instead of FIG. 7A.

以上のS301〜S318の処理を行うことで画像の記録、再生、および合成を行う。 By performing the above processes S301 to S318, images are recorded, reproduced, and combined.

なお、独立した合成ボタン113−6ではなく、メニューボタン113−4や選択/決
定操作ボタン113−3で合成処理を選択して実行するようにしてもよい。また、予め重
要人物を登録しておき、この人物を撮影した場合は、合成動作を自動的に行うようにして
もよい。また、シャッターボタン113−2を押す代わりに、タッチセンサを備えた表示
部112に表示された被写体に触れることで撮影した場合、被写体が人物であれば当該人
物を重要人物に登録してもよい。また、撮影した人物が画像の中心から所定値以上、ある
いは所定の割合以上ずれていた場合、例えば中心から20%以上ずれていた場合に合成動
作を自動的に行うようにしてもよい。
It should be noted that the composition process may be selected and executed by the menu button 113-4 or the selection / decision operation button 113-3 instead of the independent composition button 113-6. Further, if an important person is registered in advance and this person is photographed, the compositing operation may be automatically performed. Further, when the photograph is taken by touching the subject displayed on the display unit 112 provided with the touch sensor instead of pressing the shutter button 113-2, if the subject is a person, the person may be registered as an important person. .. Further, the compositing operation may be automatically performed when the photographed person deviates from the center of the image by a predetermined value or more or by a predetermined ratio or more, for example, when the person deviates from the center by 20% or more.

次に、人物を撮影した際に合成処理を自動的に行う、所謂自動合成モードにおける画像
合成処理について図4を参照して説明する。図4は第一実施形態に係る撮像装置1の別の
動作例(自動合成モード)を示すフローチャートである。
Next, the image composition process in the so-called automatic composition mode, in which the composition process is automatically performed when a person is photographed, will be described with reference to FIG. FIG. 4 is a flowchart showing another operation example (automatic composition mode) of the image pickup apparatus 1 according to the first embodiment.

図4のS401〜S409は図3のS301〜S309と同様であるため、説明を省略
する。
Since S401 to S409 in FIG. 4 are the same as S301 to S309 in FIG. 3, the description thereof will be omitted.

合成処理部1027は、自動合成モードか否かの確認を行う(S412)。自動合成モ
ードは予めメニューボタン113−4や選択/決定操作ボタン113−3で設定しておく
。従って、メニューボタン113−4や選択/決定操作ボタン113−3は、モード設定
部に相当する。
The synthesis processing unit 1027 confirms whether or not it is in the automatic synthesis mode (S412). The automatic composition mode is set in advance with the menu button 113-4 and the selection / decision operation button 113-3. Therefore, the menu button 113-4 and the selection / decision operation button 113-3 correspond to the mode setting unit.

自動合成モードの場合(S412;Yes)、合成処理部1027は撮像部110で撮
像し、画像一時記憶領域1032を介してストレージ部104や外部記録媒体106に記
録された画像データを合成する(S413)。合成処理部1027は画像一時記憶領域1
032にて合成処理を行う。
In the case of the automatic composition mode (S412; Yes), the composition processing unit 1027 takes an image with the image pickup unit 110 and synthesizes the image data recorded in the storage unit 104 or the external recording medium 106 via the image temporary storage area 1032 (S413). ). The composition processing unit 1027 is the image temporary storage area 1
The synthesis process is performed at 032.

表示部112は合成した画像データの表示の有無を選択するための画面を表示する。ユ
ーザが選択/決定操作ボタン113−3により合成した画像データを表示するか否かの選
択・決定を行う(S414;Yes)。
The display unit 112 displays a screen for selecting whether or not to display the combined image data. The user selects / determines whether or not to display the combined image data by pressing the selection / determination operation button 113-3 (S414; Yes).

図8は、撮像装置1により別の画像と合成した画像データを表示するか否かの選択画面
の表示例を示す図である。ユーザは選択/決定操作ボタン113−3により「はい」「い
いえ」を選択し、決定する。別の画像と合成できない場合は、表示しない。
FIG. 8 is a diagram showing a display example of a selection screen for whether or not to display image data combined with another image by the image pickup apparatus 1. The user selects “yes” or “no” with the selection / decision operation button 113-3 and decides. If it cannot be combined with another image, it will not be displayed.

S415〜418:図3のS315〜S318と同様であるため、説明を省略する。 S415-418: Since it is the same as S315-S318 in FIG. 3, the description thereof will be omitted.

自動合成モードに設定されていない場合(S412;No)、又は合成した画像データ
を表示しない場合(S414;No)、S403へ戻る。
If the automatic composition mode is not set (S412; No), or if the combined image data is not displayed (S414; No), the process returns to S403.

以上のS401〜S418の処理を行うことで自動合成モードにおいて画像の記録、再
生、および合成が行われる。
By performing the above processes S401 to S418, images are recorded, reproduced, and combined in the automatic composition mode.

[画像合成処理]
次に、S313とS411の画像合成処理について説明する。
[Image composition processing]
Next, the image composition processing of S313 and S411 will be described.

図5は合成処理部1027の動作例を示すフローチャートである。 FIG. 5 is a flowchart showing an operation example of the synthesis processing unit 1027.

合成処理部1027はストレージ部104の画像記憶領域1042又は外部記録場以外
106に記憶された画像データの中から、表示部112に表示されている画像と同一撮影
日で、一番新しい画像を検索する(S501)。以下、検索した画像を「検索画像」、表
示部112に表示されている画像を「表示画像」と称する。
The compositing processing unit 1027 searches for the latest image on the same shooting date as the image displayed on the display unit 112 from the image data stored in the image storage area 1042 of the storage unit 104 or 106 other than the external recording field. (S501). Hereinafter, the searched image is referred to as a “search image”, and the image displayed on the display unit 112 is referred to as a “display image”.

合成処理部1027は、位置情報取得部1022により取得した位置情報により、検索
画像の撮影場所が表示画像の撮影場所と同じか否かの確認を行う(S502)。
The compositing processing unit 1027 confirms whether or not the shooting location of the search image is the same as the shooting location of the display image based on the position information acquired by the position information acquisition unit 1022 (S502).

撮影場所が同じ場合(S502;Yes)は、検索画像の撮影日時と表示画像の撮影日
時が所定時間内か否かの確認を行う(S503)。所定時間は例えば3分程度であり、ユ
ーザが変更できるようにしてもよい。
When the shooting locations are the same (S502; Yes), it is confirmed whether or not the shooting date and time of the search image and the shooting date and time of the displayed image are within a predetermined time (S503). The predetermined time is, for example, about 3 minutes and may be changed by the user.

撮影日時が所定時間内の場合(S503;Yes)は、パターンマッチングにより検索
画像の背景が表示画像の背景と同じか否かの確認を行う(S504)。
When the shooting date and time is within the predetermined time (S503; Yes), it is confirmed by pattern matching whether or not the background of the search image is the same as the background of the display image (S504).

背景が同じ場合(S504;Yes)は、顔認識処理部1028により、表示画像に含
まれている人物と同じ人物が検索画像に含まれているか否かの確認を行う(S505)。
When the background is the same (S504; Yes), the face recognition processing unit 1028 confirms whether or not the same person as the person included in the display image is included in the search image (S505).

同じ人物が含まれていない場合(S505;No)は、検索画像と表示画像とを重ね合
わせた場合に表示画像内において、表示画像に撮像されていた人物の位置と、検索画像か
ら抽出して表示画像に合成しようとする人物の位置とが重なるか否かの確認を行う(S5
06)。少しでも人物が重なる場合はYesとする他、顔が重なる場合のみYesとする
等、判定レベルを設定できるようにしてもよい。
When the same person is not included (S505; No), when the search image and the display image are superimposed, the position of the person captured in the display image in the display image and the position of the person captured in the display image are extracted from the search image. Check whether or not the position of the person to be combined with the display image overlaps (S5).
06). The judgment level may be set, such as Yes when the people overlap even a little, or Yes only when the faces overlap.

検索画像と表示画像の撮影場所と同じ(S502;Yes)、かつ撮影日時が所定時間
内(S503;Yes)、かつ背景が同じ(S504;Yes)、かつ同じ人物が含まれ
ない(S505;No)、かつ人物の位置が重ならない場合(S506;No)は、検索
画像の人物を輪郭検出により抜き出し、表示画像に貼り付けて合成する(S507)。あ
るいは、表示画像の人物を輪郭検出により抜き出し、検索画像に貼り付けて合成する。
The same person as the shooting location of the search image and the display image (S502; Yes), the shooting date and time is within the predetermined time (S503; Yes), the background is the same (S504; Yes), and the same person is not included (S505; No). ), And when the positions of the people do not overlap (S506; No), the person in the search image is extracted by contour detection, pasted on the display image, and combined (S507). Alternatively, a person in the display image is extracted by contour detection, pasted on the search image, and combined.

検索画像と表示画像の撮影場所が同じではない場合(S502;No)、あるいは撮影
日時が所定時間内ではない場合(S503;No)、あるいは背景が同じではない場合(
S504;No)、あるいは同じ人物が含まれる場合(S505;Yes)、あるいは人
物が重なる場合(S506;Yes)は、同一撮影日の別の画像があるか否かの確認を行
う(S508)。
When the shooting location of the search image and the display image are not the same (S502; No), or when the shooting date and time are not within the predetermined time (S503; No), or when the background is not the same (S503; No).
In S504; No), when the same person is included (S505; Yes), or when the people overlap (S506; Yes), it is confirmed whether or not there is another image on the same shooting date (S508).

別の画像がある場合(S508;Yes)は、次に新しい画像を検索(S509)して
S502に戻り、処理を継続する。別の画像がない場合(S508;No)は、処理を終
了する。なお、S502及びS503の順序は変えてもよく、これらのステップは、第二
の画像データの候補を検索する処理に相当する。
If there is another image (S508; Yes), then the new image is searched (S509), the process returns to S502, and the process is continued. If there is no other image (S508; No), the process ends. The order of S502 and S503 may be changed, and these steps correspond to the process of searching for the second image data candidate.

以上のS501〜S509の処理を行うことで、表示画像に貼り付ける画像を検索して
人物を抜き出して合成する。
By performing the above processes S501 to S509, an image to be pasted on the display image is searched, a person is extracted, and a person is synthesized.

更に、撮像装置に地磁気センサを搭載して、撮像装置の向きが同じか否かを上記判定に
加えてもよい。
Further, a geomagnetic sensor may be mounted on the image pickup device, and whether or not the orientation of the image pickup device is the same may be added to the above determination.

また、GPSを搭載していない撮像装置の場合、S502を省略することで、合成処理
を実行してもよい。
Further, in the case of an imaging device not equipped with GPS, the synthesis process may be executed by omitting S502.

図9は第一実施形態に係る画像データの検索と合成の一例を示す説明図である。 FIG. 9 is an explanatory diagram showing an example of searching and synthesizing image data according to the first embodiment.

画像データ901〜905は、北緯35°24′53″、東経138°51′31″に
て、2015.03.15の10:02:00〜10:02:55に順に撮影された画像
データである。画像データ901、902、904、905は同じ背景であり、画像デー
タ903のみ背景が異なる。
The image data 901 to 905 are image data taken in order from 10:02: 00 to 10:02:55 on 2015.03.15 at latitude 35 ° 24'53 "north and longitude 138 ° 51'31" east. be. The image data 901, 902, 904, and 905 have the same background, and only the image data 903 has a different background.

日時情報は計時部114により取得し、位置情報はGSP受信部115により取得する
The date and time information is acquired by the time measuring unit 114, and the position information is acquired by the GSP receiving unit 115.

画像データ901、902は、人物Aにより人物Bが撮影された画像データであり、画
像データ903は、人物Aあるいは人物Bにより鳥が撮影された画像データである。画像
データ904、905は、人物Bにより人物Aが撮影された画像データである。
The image data 901 and 902 are image data in which the person B is photographed by the person A, and the image data 903 is image data in which the bird is photographed by the person A or the person B. The image data 904 and 905 are image data in which the person A is photographed by the person B.

一般に、ユーザは満足できる画像データが得られるまで撮影を繰り返す。画像データ9
01、902はどちらも人物Aにより人物Bが撮影された画像データであるが、画像デー
タ901の人物Bには笑みがないため、人物Aにより画像データ902が撮影し直された
ことを示す。同様に、画像データ904、905はどちらも人物Bにより人物Aが撮影さ
れた画像データであるが、画像データ904の人物Aには笑みがないため、人物Bにより
画像データ905が撮影し直されたことを示す。また、画像データ903は一連の撮影(
画像データ901から905の撮影の期間を意味する)中に突然現れた鳥が撮影されたこ
とを示す。
Generally, the user repeats shooting until satisfactory image data is obtained. Image data 9
Both 01 and 902 are image data in which the person B is photographed by the person A, but since the person B in the image data 901 does not have a smile, it indicates that the image data 902 has been photographed again by the person A. Similarly, both the image data 904 and 905 are image data in which the person A is photographed by the person B, but since the person A in the image data 904 does not have a smile, the image data 905 is re-photographed by the person B. Show that. In addition, the image data 903 is a series of shots (
Indicates that a bird that suddenly appeared during (meaning the period of shooting of image data 901 to 905) was shot.

撮像装置1のシャッターボタン113−2が押されると被写体を撮影し、表示部112
に撮影した画像を表示する。そして、合成ボタン113−6が押されると画像を合成する
When the shutter button 113-2 of the image pickup device 1 is pressed, the subject is photographed and the display unit 112
Display the captured image in. Then, when the composite button 113-6 is pressed, the images are composited.

画像データ906は画像データ902、905から合成された画像データである。 The image data 906 is image data synthesized from the image data 902 and 905.

前述の図6Aは撮像装置1による画像データ905の撮影直後、あるいは撮影後に再生
ボタン113−5が押された後の表示部112の表示例である。ここで、撮像装置1の合
成ボタン113−6が押されると、図5のフローチャートに従って画像データ903を検
索し、画像データ902と905を合成して、画像データ906を生成する。図6Bは撮
像装置1が合成した画像データ906の表示例である。
FIG. 6A is a display example of the display unit 112 immediately after the image data 905 is photographed by the image pickup apparatus 1 or after the reproduction button 113-5 is pressed after the image capture. Here, when the composition button 113-6 of the image pickup apparatus 1 is pressed, the image data 903 is searched according to the flowchart of FIG. 5, and the image data 902 and 905 are combined to generate the image data 906. FIG. 6B is a display example of the image data 906 synthesized by the image pickup apparatus 1.

画像データ901〜904は画像データ905と撮影場所が同じ(S502;Yes)
で、かつ撮影日時が所定時間内(S503;Yes)である。画像データ904は画像デ
ータ905と同じ人物が含まれている(S505;Yes)。画像データ903は画像デ
ータ905と背景が異なる(S504;No)。画像データ901、902は画像データ
905と背景が同じ(S504;Yes)、かつ同じ人物が含まれておらず(S505;
No)、かつ人物が重ならない場合(S506;No)である。このうち、一番新しい画
像データとして画像データ902を選択し、画像データ905と合成し、合成画像データ
906を生成する。図9の例では、画像905が第一の画像データ、画像902が第二の
画像データに相当する。画像データ903は画像データ905と背景が異なるために除外
されたが、撮像装置1がズーム機能付きのレンズを備える場合は、レンズ焦点距離が所定
値以上に異なる画像データを除外してもよい。
The image data 901 to 904 have the same shooting location as the image data 905 (S502; Yes).
And the shooting date and time is within a predetermined time (S503; Yes). The image data 904 includes the same person as the image data 905 (S505; Yes). The background of the image data 903 is different from that of the image data 905 (S504; No). The image data 901 and 902 have the same background as the image data 905 (S504; Yes) and do not include the same person (S505;
No), and the persons do not overlap (S506; No). Of these, image data 902 is selected as the newest image data and combined with image data 905 to generate composite image data 906. In the example of FIG. 9, the image 905 corresponds to the first image data, and the image 902 corresponds to the second image data. The image data 903 is excluded because the background is different from that of the image data 905. However, when the image pickup apparatus 1 includes a lens having a zoom function, the image data whose lens focal length differs by a predetermined value or more may be excluded.

なお、背景を基準にして合成を行うことにより、各画像データの画角のずれを吸収する
ことができる。例えば、画像データ902の人物Bを輪郭検出により抜き出し、背景を基
準にして画像データ905に貼り付ける。あるいは、画像データ905の人物Aを輪郭検
出により抜き出し、背景を基準にして画像データ902と合成してもよい。
It should be noted that the deviation of the angle of view of each image data can be absorbed by performing the composition with reference to the background. For example, the person B of the image data 902 is extracted by contour detection and pasted on the image data 905 with reference to the background. Alternatively, the person A of the image data 905 may be extracted by contour detection and combined with the image data 902 with reference to the background.

図10は第一実施形態に係る画像データの検索と合成の一例を示す説明図である。 FIG. 10 is an explanatory diagram showing an example of searching and synthesizing image data according to the first embodiment.

画像データ1001、1002は、北緯35°24′53″、東経138°51′31
″にて、2015.03.16の10:02:00〜10:02:50に順に撮影された
画像データである。画像データ1001、1002は同じ背景である。
Image data 1001 and 1002 have latitude 35 ° 24'53 "north and longitude 138 ° 51'31 east.
The image data are taken in order from 10:02: 00 to 10:02:50 on 2015.03.16. The image data 1001 and 1002 have the same background.

画像データ1001は、人物Aにより人物Bが撮影された画像データであり、画像デー
タ1002は、人物Bにより人物Aが撮影された画像データである。
The image data 1001 is image data in which the person B is photographed by the person A, and the image data 1002 is image data in which the person A is photographed by the person B.

画像データ1002の撮影後に撮像装置1の合成ボタン113−6が押されると画像を
合成する。あるいは、自動合成モードでは撮影後に画像を自動的に合成する。
When the composite button 113-6 of the image pickup apparatus 1 is pressed after the image data 1002 is captured, the images are composited. Alternatively, in the automatic composition mode, the images are automatically combined after shooting.

合成画像データ1003は、画像データ1001、1002から合成された画像データ
である。
The composite image data 1003 is image data synthesized from the image data 1001 and 1002.

合成画像データ1003をストレージ部104や外部記録媒体106に記録した後、あ
るいは記録せずに、人物Aにより人物Bが新たに撮影し直された画像が画像データ100
4である。画像データ1001、1004はどちらも人物Aにより人物Bが撮影された画
像データであるが、画像データ1001の人物Bには笑みがないため、人物Aにより画像
データ1004が撮影し直されたことを示す。また、人物Bが人物Aを撮影し直すことも
できる。
After recording the composite image data 1003 in the storage unit 104 or the external recording medium 106, or without recording, the image data 100 is a new image taken by the person B by the person A.
It is 4. Both the image data 1001 and 1004 are image data in which the person B is photographed by the person A, but since the person B in the image data 1001 does not have a smile, the image data 1004 is photographed again by the person A. show. In addition, the person B can take a picture of the person A again.

画像データ1004の撮影後に撮像装置1の合成ボタン113−6が押されると再び画
像を合成する。あるいは、自動合成モードでは撮影後に再び画像を自動的に合成する。
When the compositing button 113-6 of the image pickup apparatus 1 is pressed after the image data 1004 is captured, the images are composited again. Alternatively, in the automatic composition mode, the images are automatically combined again after shooting.

画像データ1005は画像データ1002、1004から合成された画像データである
The image data 1005 is image data synthesized from the image data 1002 and 1004.

更に撮影し直すこともでき、撮影と合成を何度でも繰り返して所望の合成画像を取得す
ることができる。
Further, it is possible to take a picture again, and it is possible to obtain a desired composite image by repeating shooting and compositing as many times as necessary.

以上により本実施形態では、撮像装置は合成の対象となる画像を撮影した後に合成ボタ
ンが押されると、最適な画像を検索して合成を行うことができる。あるいは、撮像装置は
撮影後に自動的に、最適な画像を検索して合成を行うことができる。
As described above, in the present embodiment, when the compositing button is pressed after the imaging device has taken an image to be synthesized, the imaging device can search for the optimum image and perform compositing. Alternatively, the image pickup apparatus can automatically search for the optimum image and perform compositing after shooting.

合成の対象となる画像の撮影は何枚撮影されてもよく、撮像装置はその中から合成に最
適な画像を検索する。また、合成対象となる複数の画像は、同一の背景を有していれば撮
影タイミングに関らず合成対象とすることができる。そのため、一方の画像だけの撮り直
しや、合成対象となる画像の撮影タイミングの間に、合成対象とならない画像を撮影した
場合にも、合成対象とはならない画像を除外して合成処理を実行することができ。また、
撮影と合成を何度でも繰り返して、所望の合成画像を取得することができる。これにより
、複数人が一枚の画像に収まった合成画像を撮影する際の操作性を向上させることができ
る。なお、本実施形態では、より新しい画像を優先して選択する例を示したが、笑顔の人
物や正面を向いた人物を含む画像を優先して選択してもよい。
Any number of images to be combined may be taken, and the imaging device searches for the most suitable image for composition. Further, a plurality of images to be combined can be combined regardless of the shooting timing as long as they have the same background. Therefore, even if only one image is retaken or an image that is not the target of composition is taken during the shooting timing of the image to be combined, the image that is not the target of composition is excluded and the composition process is executed. It is possible. again,
A desired composite image can be obtained by repeating shooting and compositing as many times as necessary. As a result, it is possible to improve the operability when a plurality of people take a composite image that fits in one image. In the present embodiment, an example in which a newer image is preferentially selected is shown, but an image including a smiling person or a person facing the front may be preferentially selected.

<第二実施形態>
第二実施形態は、ユーザが選択した画像データを用いて合成を行う実施形態である。
<Second embodiment>
The second embodiment is an embodiment in which composition is performed using image data selected by the user.

[撮像装置の全体動作]
図11は第二実施形態に係る撮像装置の全体の動作例を示すフローチャートである。
[Overall operation of the imaging device]
FIG. 11 is a flowchart showing an overall operation example of the image pickup apparatus according to the second embodiment.

S1101〜S1108は図3のS301〜S308と同様であるため、説明を省略す
る。
Since S1101 to S1108 are the same as S301 to S308 in FIG. 3, the description thereof will be omitted.

撮像部110で撮像し、画像一時記憶領域1032に記憶した画像データが表示部11
2に表示される(S1109)。
The image data imaged by the image capturing unit 110 and stored in the image temporary storage area 1032 is displayed in the display unit 11.
It is displayed in 2 (S1109).

再生ボタン113−5が押された場合(S1108;Yes)、および選択/決定操作
ボタン113−3により画像の変更が選択された場合(S1111;Yes)は、ストレ
ージ部104や外部記録媒体106に記録された画像データを、画像再生部1025によ
り再生し、表示部112に表示する(S1110)。ここで、選択/決定操作ボタン11
3−3はユーザがストレージ部104に記憶された画像を選択する操作部材として機能す
るので選択操作部に相当する。
When the play button 113-5 is pressed (S1108; Yes), or when the image change is selected by the selection / decision operation button 113-3 (S1111; Yes), the storage unit 104 or the external recording medium 106 is displayed. The recorded image data is reproduced by the image reproduction unit 1025 and displayed on the display unit 112 (S1110). Here, the selection / decision operation button 11
3-3 corresponds to the selection operation unit because it functions as an operation member for the user to select the image stored in the storage unit 104.

図13Aは再生ボタン113−5が押された場合の、表示部112の表示例を示す図で
ある。
FIG. 13A is a diagram showing a display example of the display unit 112 when the play button 113-5 is pressed.

ユーザが選択/決定操作ボタン113−3により、表示部112に表示する画像データ
を別の画像データに変更するか否かの選択を行うと、表示部112に表示されている画像
データが別の画像データに代わる(S1111;Yes)。
When the user selects whether or not to change the image data displayed on the display unit 112 to another image data by using the selection / decision operation button 113-3, the image data displayed on the display unit 112 is different. Instead of image data (S1111; Yes).

図13Bは別の画像データに変更された場合の撮像装置1による表示部112の表示例
を示す図である。
FIG. 13B is a diagram showing a display example of the display unit 112 by the image pickup apparatus 1 when the image data is changed to another image data.

S1112は図3のS312と同様であるため、説明を省略する。 Since S1112 is the same as S312 in FIG. 3, the description thereof will be omitted.

合成ボタン113−6が押された場合(S1112;Yes)、および選択/決定操作
ボタン113−3により画像の変更が選択された場合(S1116;Yes)は、ストレ
ージ部104や外部記録媒体106に記録された画像データを合成処理部1027により
合成する(S1113:Yes)。合成は画像一時記憶領域1032にて行う。
When the composition button 113-6 is pressed (S1112; Yes), or when the image change is selected by the selection / decision operation button 113-3 (S1116; Yes), the storage unit 104 or the external recording medium 106 is displayed. The recorded image data is synthesized by the synthesis processing unit 1027 (S1113: Yes). The composition is performed in the image temporary storage area 1032.

S1115は図3のS315と同様であるため、説明を省略する。 Since S1115 is the same as S315 in FIG. 3, the description thereof will be omitted.

図14Aは合成ボタン113−6が押された場合の、表示部112の表示例である。 FIG. 14A is a display example of the display unit 112 when the composite button 113-6 is pressed.

ユーザは選択/決定操作ボタン113−3により、合成する画像データを別の画像デー
タに変更するか否かの選択を行う(S1116)。
The user selects whether or not to change the image data to be combined to another image data by pressing the selection / decision operation button 113-3 (S1116).

図14Bは別の画像データに変更された場合の撮像装置1による表示部112の表示例
である。S1116で選択した画像データ1404は変更せずに、これと合成する画像デ
ータ1401〜1403を変更する。
FIG. 14B is a display example of the display unit 112 by the image pickup apparatus 1 when the image data is changed to another image data. The image data 1404 selected in S1116 is not changed, and the image data 1401 to 1403 to be combined with the image data 1404 is changed.

S1117〜S1118は図3のS317〜S318と同様であるため、説明を省略す
る。
Since S1117 to S1118 are the same as S317 to S318 in FIG. 3, the description thereof will be omitted.

以上のS1101〜S1118の処理を行うことで画像の記録、再生、および合成を行
う。
By performing the above processes S1101 to S1118, images are recorded, reproduced, and combined.

[画像合成処理]
次に、S1113の画像合成処理について説明する。図12は第二実施形態に係る合成
処理部の動作例を示すフローチャートである。
[Image composition processing]
Next, the image composition process of S1113 will be described. FIG. 12 is a flowchart showing an operation example of the synthesis processing unit according to the second embodiment.

ユーザによる画像変更指示があったか否かの確認を行う(S1200)。 It is confirmed whether or not the user has instructed to change the image (S1200).

ユーザによる画像変更指示がなかった場合(S1200;No)は、表示部に表示され
ている画像と同一撮影日で、一番新しい画像を検索する(S1201)。
When there is no image change instruction by the user (S1200; No), the newest image is searched for on the same shooting date as the image displayed on the display unit (S1201).

S1202〜S1209は、図5のS502〜S509と同様であるため、説明を省略
する。
Since S1202 to S1209 are the same as S502 to S509 in FIG. 5, the description thereof will be omitted.

ユーザによる画像変更指示があった場合(S1200;Yes)、あるいは検索画像と
表示画像の撮影場所が同じではない場合(S1202;No)、あるいは撮影日時が所定
時間内ではない場合(S1203;No)、あるいは背景が同じではない場合(S120
4;No)、あるいは同じ人物が含まれる場合(S1205;Yes)、あるいは合成す
る人物が重なる場合(S1206;Yes)は、同一撮影日の別の画像があるか否かの確
認を行い(S1208)、別の画像がある場合(S1208;Yes)は、次に新しい画
像を検索(S1209)してS1202に戻り、処理を継続する。別の画像がない場合(
S1208;No)は、処理を終了する。
When the user gives an image change instruction (S1200; Yes), the shooting location of the search image and the display image is not the same (S1202; No), or the shooting date and time is not within the predetermined time (S1203; No). Or when the backgrounds are not the same (S120)
4; No), or when the same person is included (S1205; Yes), or when the persons to be combined overlap (S1206; Yes), it is confirmed whether or not there is another image on the same shooting date (S1208). ), If there is another image (S1208; Yes), then the new image is searched (S1209), the process returns to S1202, and the process is continued. If there is no other image (
S1208; No) ends the process.

以上のS1200〜S1209の処理を行うことで、表示画像に貼り付ける画像を検索
して合成する。
By performing the above processes S1200 to S1209, an image to be pasted on the display image is searched and combined.

図15は第二実施形態に係る画像データの検索と合成の一例を示す説明図である。 FIG. 15 is an explanatory diagram showing an example of searching and synthesizing image data according to the second embodiment.

画像データ1501〜1505は、北緯35°24′53″、東経138°51′31
″にて、2015.03.15の10:02:00〜10:02:55に順に撮影された
画像データである。画像データ1501〜1505は同じ背景である。画像データ150
1〜1503は、人物Aにより人物Bが撮影された画像データであり、画像データ150
4、1505は、人物Bにより人物Aが撮影された画像データである。
The image data 1501 to 1505 are at latitude 35 ° 24'53 "north and longitude 138 ° 51'31 east.
The image data are taken in order from 10:02: 00 to 10:02:55 on 2015.03.15. The image data 1501 to 1505 have the same background. The image data 150
Reference numerals 1 to 1503 are image data in which the person B is photographed by the person A, and the image data 150
4 and 1505 are image data obtained by the person A taken by the person B.

撮像装置1のシャッターボタン113−2が押されると被写体を撮影し、表示部112
に撮影した画像を表示する。そして、合成ボタン113−6が押されると画像を合成する
When the shutter button 113-2 of the image pickup device 1 is pressed, the subject is photographed and the display unit 112
Display the captured image in. Then, when the composite button 113-6 is pressed, the images are composited.

画像データ1506は画像データ1502、1504から合成された画像データである
The image data 1506 is image data synthesized from the image data 1502 and 1504.

以上により、本実施形態によれば、第一実施形態と同様の効果を得るとともに、更に、
合成する画像をユーザが自由に選択することができる。
As described above, according to the present embodiment, the same effect as that of the first embodiment is obtained, and further,
The user can freely select the image to be combined.

<第三実施形態>
第三実施形態は、登録人物のみを合成後の画像に加え、未登録人物を合成後の画像から
削除する実施形態である。
<Third Embodiment>
The third embodiment is an embodiment in which only the registered person is added to the combined image and the unregistered person is deleted from the combined image.

[撮像装置の全体動作]
図16は第三実施形態に係る撮像装置の全体の動作例を示すフローチャートである。
[Overall operation of the imaging device]
FIG. 16 is a flowchart showing an overall operation example of the image pickup apparatus according to the third embodiment.

S1601〜S1612は図3のS301〜S312と同様であるため、説明を省略す
る。
Since S1601 to S1612 are the same as S301 to S312 in FIG. 3, the description thereof will be omitted.

図18Aは撮像装置1による撮影直後、あるいは再生ボタン113−5を押された場合
の表示部112の表示例を示す図である。山を背景に人物Aが撮影されているが、未登録
人物C、Dも撮影されている。人物A、Bは、予め重要人物として登録しておく。また、
シャッターボタン113−2の代わりにタッチセンサを備えた表示部112に表示された
人物に触れることで撮影した場合、当該人物を重要人物に登録してもよい。
FIG. 18A is a diagram showing a display example of the display unit 112 immediately after shooting by the image pickup apparatus 1 or when the playback button 113-5 is pressed. Person A is photographed against the background of the mountain, but unregistered persons C and D are also photographed. Persons A and B are registered as important persons in advance. again,
When a photograph is taken by touching a person displayed on the display unit 112 provided with a touch sensor instead of the shutter button 113-2, the person may be registered as an important person.

合成ボタン113−6が押された場合(S1612;Yes)は、撮像部110で撮像
し、画像一時記憶領域1032に記憶した画像データと、ストレージ部104や外部記録
媒体106に記録された画像データを合成処理部1027により合成する(S1613)
。合成は画像一時記憶領域1032にて行い、合成により登録人物を加え、未登録人物を
削除する。
When the composite button 113-6 is pressed (S1612; Yes), the image data captured by the imaging unit 110 and stored in the image temporary storage area 1032 and the image data recorded in the storage unit 104 or the external recording medium 106. Is synthesized by the synthesis processing unit 1027 (S1613).
.. The composition is performed in the image temporary storage area 1032, and the registered person is added by the composition and the unregistered person is deleted.

図18Bは撮像装置1により合成された画像データの表示例を示す図である。山を背景
に撮影された人物Aを含む画像に、同じ山を背景に撮影された人物Bが合成されている。
そして、未登録人物C、Dは削除されている。
FIG. 18B is a diagram showing a display example of image data synthesized by the image pickup apparatus 1. A person B taken against the background of the same mountain is combined with an image including a person A taken against the background of a mountain.
And the unregistered persons C and D have been deleted.

S1615〜S1618は図3のS315〜S318と同様であるため、説明を省略す
る。
Since S1615 to S1618 are the same as S315 to S318 in FIG. 3, the description thereof will be omitted.

以上のS1601〜S1618の処理を行うことで画像の記録、再生、および合成を行
う。
By performing the above processes S1601 to S1618, images are recorded, reproduced, and combined.

[画像合成処理]
次に、S1613の画像合成処理について説明する。
[Image composition processing]
Next, the image composition process of S1613 will be described.

図17は第三実施形態に係る合成処理部の動作例を示すフローチャートである。 FIG. 17 is a flowchart showing an operation example of the synthesis processing unit according to the third embodiment.

S1701〜S1706は図5のS501〜S506と同様であるため、説明を省略す
る。
Since S1701 to S1706 are the same as S501 to S506 in FIG. 5, the description thereof will be omitted.

検索画像と表示画像の撮影場所が同じ(S1702;Yes)、かつ撮影日時が所定時
間内(S1703;Yes)、かつ背景が同じ(S1704;Yes)、かつ同じ人物が
含まれない(S1705;No)、かつ人物が重ならない場合(S1706;No)は、
検索画像の登録人物を輪郭検出により抜き出し、表示画像に貼り付けて合成する。あるい
は、表示画像の登録人物を輪郭検出により抜き出し、検索画像に貼り付けて合成する(S
1707)。
The shooting location of the search image and the display image is the same (S1702; Yes), the shooting date and time is within the predetermined time (S1703; Yes), the background is the same (S1704; Yes), and the same person is not included (S1705; No). ) And when the people do not overlap (S1706; No),
The registered person in the search image is extracted by contour detection and pasted on the display image for composition. Alternatively, the registered person in the display image is extracted by contour detection, pasted on the search image, and combined (S).
1707).

更に、表示画像の未登録人物の存在する位置の検索画像の背景を抜き出し、表示画像に
貼り付ける(背景データの合成を行う)ことで未登録人物を削除する。あるいは、検索画
像の未登録人物の存在する位置の表示画像の背景を抜き出し、検索画像に貼り付けること
で未登録人物を削除する。
Further, the background of the search image at the position where the unregistered person of the display image exists is extracted and pasted on the display image (background data is combined) to delete the unregistered person. Alternatively, the background of the display image at the position where the unregistered person in the search image exists is extracted and pasted on the search image to delete the unregistered person.

S1708〜S1709は図5のS508〜S509と同様であるため、説明を省略す
る。
Since S1708 to S1709 are the same as S508 to S509 of FIG. 5, the description thereof will be omitted.

画像を合成後(S1707)、または同一撮影日の別の画像が無い場合(S1708;
No)、合成処理部1027は合成した画像データに未登録の人物が存在するか否かの確
認を行う(S1710)。
After synthesizing the images (S1707), or when there is no other image on the same shooting date (S1708;
No), the synthesis processing unit 1027 confirms whether or not there is an unregistered person in the synthesized image data (S1710).

合成した画像データに未登録の人物が存在する場合(S1710;Yes)、合成処理
部1027は別の画像があるか否かの確認を行う(S1711)。
When there is an unregistered person in the combined image data (S1710; Yes), the composition processing unit 1027 confirms whether or not there is another image (S1711).

別の画像がある場合(S1711;Yes)は、別の画像を検索して抽出し(S171
2)、別の画像がない場合(S1711;No)は、処理を終了する。
If there is another image (S1711; Yes), another image is searched and extracted (S171).
2) If there is no other image (S1711; No), the process ends.

合成処理部1027は検索画像の撮影場所と合成した画像の撮影場所が同じか否かの確
認を行う(S1713)。
The compositing processing unit 1027 confirms whether or not the shooting location of the search image and the shooting location of the composited image are the same (S1713).

撮影場所が同じ場合(S1713;Yes)、合成処理部1027は検索画像の撮影日
時と合成した画像の撮影日時が所定時間内か否かの確認を行う(S1714)。所定時間
は例えば3分程度であり、ユーザが変更できるようにしてもよい。
When the shooting locations are the same (S1713; Yes), the compositing processing unit 1027 confirms whether or not the shooting date and time of the search image and the shooting date and time of the composited image are within a predetermined time (S1714). The predetermined time is, for example, about 3 minutes and may be changed by the user.

撮影日時が所定時間内の場合(S1714;Yes)、合成処理部1027は検索画像
の背景と表示画像の背景が同じか否かの確認を行う(S1715)。
When the shooting date and time is within the predetermined time (S1714; Yes), the composition processing unit 1027 confirms whether or not the background of the search image and the background of the display image are the same (S1715).

背景が同じ場合(S1715;Yes)、合成処理部1027は未登録の人物を削除し
(S1716)、S1710に戻る。
When the background is the same (S1715; Yes), the synthesis processing unit 1027 deletes the unregistered person (S1716) and returns to S1710.

未登録人物を含まない場合(S1710;No)、または同一撮影日の別画像がない場
合(S1711;No)、処理を終了する。
When the unregistered person is not included (S1710; No) or when there is no other image on the same shooting date (S1711; No), the process ends.

以上のS1700〜S1716の処理を行うことで、表示画像に貼り付ける画像を検索
して登録人物を抜き出して合成し、未登録人物を削除する。
By performing the above processes S1700 to S1716, the image to be pasted on the display image is searched, the registered person is extracted and combined, and the unregistered person is deleted.

図19は画像データの検索と合成の一例を示す説明図である。 FIG. 19 is an explanatory diagram showing an example of searching and synthesizing image data.

画像データ1901〜1903は、北緯35°24′53″、東経138°51′31
″にて、2015.03.16の10:02:00〜10:02:50に順に撮影された
画像データである。画像データ1901〜1903は同じ背景である。
Image data 1901-1903 has latitude 35 ° 24'53 "north and longitude 138 ° 51'31 east.
The image data is taken in order from 10:02: 00 to 10:02:50 on 2015.03.16. The image data 1901 to 1903 have the same background.

画像データ1901、1902は、人物Aにより人物Bが撮影された画像データである
が、画像データ1902には更に未登録人物Dも撮影されている。画像データ1901の
人物Bには笑みがないため、人物Aにより画像データ1902が撮影し直されたことを示
す。画像データ1903は、人物Bにより人物Aが撮影された画像データであるが、未登
録人物C、Dも撮影されている。人物A、Bは、予め重要人物として登録しておく。また
、シャッターボタン113−2の代わりにタッチセンサを備えた表示部112に表示され
た人物に触れることで撮影した場合、当該人物を重要人物に登録してもよい。
The image data 1901 and 1902 are image data in which the person B is photographed by the person A, but the unregistered person D is also photographed in the image data 1902. Since the person B in the image data 1901 does not have a smile, it indicates that the image data 1902 has been re-photographed by the person A. The image data 1903 is image data in which the person A is photographed by the person B, but the unregistered persons C and D are also photographed. Persons A and B are registered as important persons in advance. Further, when a person is photographed by touching a person displayed on the display unit 112 provided with a touch sensor instead of the shutter button 113-2, the person may be registered as an important person.

撮像装置1のシャッターボタン113−2が押されると被写体を撮影し、表示部112
に撮影した画像を表示する。そして、合成ボタン113−6が押されると画像を合成する
When the shutter button 113-2 of the image pickup device 1 is pressed, the subject is photographed and the display unit 112
Display the captured image in. Then, when the composite button 113-6 is pressed, the images are composited.

画像データ1904は画像データ1902、1903から登録人物の合成と未登録人物
Cの削除が行われた画像データである。
The image data 1904 is image data obtained by synthesizing a registered person and deleting an unregistered person C from the image data 1902 and 1903.

例えば、画像データ1902の人物Bを輪郭検出により抜き出し、背景を基準にして画
像データ1903に貼り付けることにより、画像データ1902に人物Bを合成する。更
に画像データ1903の未登録人物Cの存在する位置の画像データ1902の背景を画像
データ1903の未登録人物Cに貼り付けることで未登録人物Cを削除することができる
。または、画像データ1903の人物Aを輪郭検出により抜き出し、背景を基準にして画
像データ1902と合成し、合成後の画像データ1904を生成してもよい。どちらか一
方あるいは両方の画像データに未登録人物が存在する場合は、未登録人物が多い方の画像
データから登録人物を抜き出し、登録人物が少ない方の画像データに貼り付けるとよい。
For example, the person B of the image data 1902 is extracted by contour detection and pasted on the image data 1903 with reference to the background, thereby synthesizing the person B with the image data 1902. Further, the unregistered person C can be deleted by pasting the background of the image data 1902 at the position where the unregistered person C of the image data 1903 exists on the unregistered person C of the image data 1903. Alternatively, the person A of the image data 1903 may be extracted by contour detection and combined with the image data 1902 with reference to the background to generate the combined image data 1904. When there is an unregistered person in either one or both image data, it is preferable to extract the registered person from the image data having many unregistered people and paste it in the image data having few registered people.

次に、画像データ1904の未登録人物Dの存在する位置の画像データ1901の背景
を画像データ1904の未登録人物Dに貼り付けることで未登録人物Dを削除する。
Next, the unregistered person D is deleted by pasting the background of the image data 1901 at the position where the unregistered person D of the image data 1904 exists on the unregistered person D of the image data 1904.

画像データ1905は画像データ1904、1901から未登録人物Dの削除を行った
画像データである。
The image data 1905 is image data obtained by deleting the unregistered person D from the image data 1904 and 1901.

以上により、本実施形態によれば第一実施形態と同様の効果を得るとともに、更に、登
録人物のみを画像に加え、未登録人物を削除することができる。なお、本実施形態では、
登録人物を画像に加え、未登録人物を削除する例を示したが、登録人物を画像に加えずに
、未登録人物を削除することもできる。
As described above, according to the present embodiment, the same effect as that of the first embodiment can be obtained, and further, only the registered person can be added to the image and the unregistered person can be deleted. In this embodiment, it should be noted that
Although the example of adding the registered person to the image and deleting the unregistered person is shown, the unregistered person can be deleted without adding the registered person to the image.

<第四実施形態>
第四実施形態は、人物が撮像されていない背景のみの画像(以下「背景画像」という)
を撮像した場合はその背景画像を、背景画像が無い場合はネットワーク上で公開されてい
る背景が撮像された画像データを検索し、それらの背景画像を用いて未登録人物を削除す
る実施形態である。
<Fourth Embodiment>
The fourth embodiment is an image of only the background in which a person is not captured (hereinafter referred to as "background image").
In the embodiment, the background image is searched when the background image is imaged, and the image data in which the background imaged is published on the network is searched when there is no background image, and the unregistered person is deleted using the background image. be.

[撮像装置のハードウェア構成]
図20Aにおいて、図1Aと同じ処理部分には同じ符号を付し、説明を省略する。
[Hardware configuration of imaging device]
In FIG. 20A, the same processing portions as those in FIG. 1A are designated by the same reference numerals, and the description thereof will be omitted.

図20Aは、第四実施形態に係る撮像装置の構成例を示すブロック図である。図20A
に示す撮像装置1は無線通信部120を有しており、アクセスポイント装置2を介して外
部ネットワーク3と接続され、外部ネットワーク3上のサーバ装置4とデータの送受信を
行う。アクセスポイント装置2との接続はWi−Fi(登録商標)等による無線接続で行
われるものとする。アクセスポイント装置2は移動体通信事業者の基地局であってもよい
。また、撮像装置1が直接アクセスポイント2とデータの送受信を行うのではなく、スマ
ートフォンや携帯端末を介してデータの送受信を行ってもよい。
FIG. 20A is a block diagram showing a configuration example of the image pickup apparatus according to the fourth embodiment. FIG. 20A
The image pickup device 1 shown in FIG. 2 has a wireless communication unit 120, is connected to the external network 3 via the access point device 2, and transmits / receives data to / from the server device 4 on the external network 3. The connection with the access point device 2 shall be made by wireless connection using Wi-Fi (registered trademark) or the like. The access point device 2 may be a base station of a mobile communication operator. Further, the image pickup device 1 may not directly send / receive data to / from the access point 2, but may send / receive data via a smartphone or a mobile terminal.

サーバ装置4は位置情報ありの画像データ、位置情報なしの画像データを複数有してお
り、撮像装置1はアクセスポイント装置2、ネットワーク3を介して各種画像データを取
得することができる。
The server device 4 has a plurality of image data with position information and a plurality of image data without position information, and the image pickup device 1 can acquire various image data via the access point device 2 and the network 3.

[撮像装置のソフトウェア構成]
図20Bは本実施例の撮像装置1のソフトウェア構成図であり、図1Bと同じ処理部分
には同じ符号を付し、説明を省略する。
[Software configuration of imaging device]
FIG. 20B is a software configuration diagram of the image pickup apparatus 1 of this embodiment, and the same processing portions as those in FIG. 1B are designated by the same reference numerals, and the description thereof will be omitted.

図20Bに示す第四実施形態に係る撮像装置のソフトウェア構成図を示す図である。R
OM部102に無線接続処理部1029を有しており、無線通信部120を制御すること
により、アクセスポイント装置2との無線接続処理を行う。また、位置情報取得部102
2により、本体のストレージ104あるいは外部記録媒体106に記録された画像ファイ
ルのメタデータの位置情報を更新する処理を行う。
It is a figure which shows the software block diagram of the image pickup apparatus which concerns on 4th Embodiment shown in FIG. 20B. R
The OM unit 102 has a wireless connection processing unit 1029, and controls the wireless communication unit 120 to perform wireless connection processing with the access point device 2. In addition, the position information acquisition unit 102
2. Performs a process of updating the position information of the metadata of the image file recorded in the storage 104 of the main body or the external recording medium 106.

[画像合成処理]
次に、画像合成処理について説明する。図21は第四実施形態に係る合成処理部の動作
例を示すフローチャートである。
[Image composition processing]
Next, the image composition process will be described. FIG. 21 is a flowchart showing an operation example of the synthesis processing unit according to the fourth embodiment.

S2101〜S2110は図17のS1701〜S1710と同様であるため、説明を
省略する。
Since S2101 to S2110 are the same as S1701 to S1710 in FIG. 17, the description thereof will be omitted.

画像データに未登録の人物が存在する場合(S2110;Yes)は、ストレージ部1
04の画像記憶領域1042に別の画像があるか否かの確認を行う(S2111)。
When there is an unregistered person in the image data (S2110; Yes), the storage unit 1
It is confirmed whether or not there is another image in the image storage area 1042 of 04 (S2111).

別の画像がある場合(S2111;Yes)は、別の画像を検索し(S2112)、別
の画像がない場合(S2111;No)は、S2117に進む。
If there is another image (S2111; Yes), another image is searched (S2112), and if there is no other image (S2111; No), the process proceeds to S2117.

S2113〜S2116は、図17のS1713〜S1716と同様であるため、説明
を省略する。
Since S2113 to S2116 are the same as S1713 to S1716 in FIG. 17, the description thereof will be omitted.

ストレージ部104の画像記憶領域1042に別の画像がない場合(S2111;No
)は、アクセスポイント装置2を介して外部ネットワーク3と接続し、外部ネットワーク
3上のサーバ装置4の画像を検索する(S2117)。そしてネットワーク上の画像を用
いてS2116と同様の処理を行い、未登録人物を削除する(S2118)。
When there is no other image in the image storage area 1042 of the storage unit 104 (S2111; No.
) Connects to the external network 3 via the access point device 2 and searches for an image of the server device 4 on the external network 3 (S2117). Then, the same process as in S2116 is performed using the image on the network, and the unregistered person is deleted (S2118).

以上のS2101〜S2118の処理を行うことで、表示画像に貼り付ける画像を検索
して登録人物を抜き出して合成し、未登録人物を削除する。
By performing the above processes S2101 to S2118, the image to be pasted on the display image is searched, the registered person is extracted and combined, and the unregistered person is deleted.

図22は第四実施形態に係る画像データの検索と合成の一例を示す説明図である。 FIG. 22 is an explanatory diagram showing an example of searching and synthesizing image data according to the fourth embodiment.

画像データ2201〜2203は、北緯35°24′53″、東経138°51′31
″にて、2015.03.16の10:02:00〜10:02:50に順に撮影された
画像データである。画像データ2201〜2203は同じ背景である。
Image data 2201 to 2203 are 35 ° 24'53 "north latitude and 138 ° 51'31 east longitude.
The image data are taken in order from 10:02: 00 to 10:02:50 on 2015.03.16. The image data 2201 to 2203 have the same background.

画像データ2201は、人物Aにより人物Bが撮影された画像データであるが、未登録
人物Dも撮影されている。画像データ2202は、人物Bにより人物Aが撮影された画像
データであるが、未登録人物C、Dも撮影されている。人物A、Bは、予め重要人物とし
て登録しておく。また、シャッターボタン113−2の代わりにタッチセンサを備えた表
示部112に表示された人物に触れることで撮影した場合、当該人物を重要人物に登録し
てもよい。
The image data 2201 is image data in which the person B is photographed by the person A, but the unregistered person D is also photographed. The image data 2202 is image data in which the person A is photographed by the person B, but the unregistered persons C and D are also photographed. Persons A and B are registered as important persons in advance. Further, when a person is photographed by touching a person displayed on the display unit 112 provided with a touch sensor instead of the shutter button 113-2, the person may be registered as an important person.

撮像装置1のシャッターボタン113−2が押されると被写体が撮影され、表示部11
2に撮影された画像が表示される。そして、合成ボタン113−6が押されると画像が合
成される。
When the shutter button 113-2 of the image pickup apparatus 1 is pressed, the subject is photographed and the display unit 11
The image taken in 2 is displayed. Then, when the composite button 113-6 is pressed, the images are composited.

合成画像データ2203は画像データ2201、2202から登録人物の合成と未登録
人物Cの削除が行われた画像データである。
The composite image data 2203 is image data obtained by synthesizing a registered person and deleting an unregistered person C from the image data 2201 and 2202.

例えば、画像データ2201の人物Bを輪郭検出により抜き出し、背景を基準にして画
像データ2202に貼り付けるとともに、画像データ2202の未登録人物Cの存在する
位置の画像データ2201の背景を画像データ2202の未登録人物Cに貼り付けること
により未登録人物Cを削除する。あるいは、画像データ2202の人物Aを輪郭検出によ
り抜き出し、背景を基準にして画像データ2201に貼り付ける。どちらか一方あるいは
両方の画像データに未登録人物が存在する場合は、未登録人物が多い方の画像データから
登録人物を抜き出し、登録人物が少ない方の画像データに貼り付けるとよい。
For example, the person B of the image data 2201 is extracted by contour detection and pasted on the image data 2202 with reference to the background, and the background of the image data 2201 at the position where the unregistered person C of the image data 2202 exists is the image data 2202. The unregistered person C is deleted by pasting it on the unregistered person C. Alternatively, the person A of the image data 2202 is extracted by contour detection and pasted on the image data 2201 with reference to the background. When there is an unregistered person in either one or both image data, it is preferable to extract the registered person from the image data having many unregistered people and paste it in the image data having few registered people.

そして、同じ背景で未登録人物Dが存在しない画像(背景画像)を撮影し直して貼り付
けることにより、未登録人物Dを削除することができる。
Then, the unregistered person D can be deleted by re-shooting and pasting an image (background image) in which the unregistered person D does not exist in the same background.

しかし、もしも未登録人物Dが長時間その場所を離れない場合は、同じ背景で未登録人
物Dが存在しない画像(背景画像)を撮影することができない。
However, if the unregistered person D does not leave the place for a long time, it is not possible to take an image (background image) in which the unregistered person D does not exist in the same background.

そこで、ネットワーク上で公開されている画像データを検索し、検索した画像データ2
204(北緯35°24′53″、東経138°51′31″にて、2015.03.1
0の09:30:00)を張り付けて未登録人物Dを削除する。画像データの検索はパタ
ーンマッチングで行い、類似の画像データを見つけ出す。撮影場所、撮影季節、撮影日時
等を用いて検索してもよい。
Therefore, the image data published on the network is searched, and the searched image data 2
At 204 (35 ° 24'53 "north latitude, 138 ° 51'31" east longitude, 2015.03.1.
0 09:30) is pasted and the unregistered person D is deleted. Image data is searched by pattern matching to find similar image data. You may search by shooting location, shooting season, shooting date and time, and so on.

合成画像データ2205は、ネットワーク上で検索した画像データ2204を用いて合
成画像データ2203から未登録人物Dの削除が行われた画像データである。
The composite image data 2205 is image data in which the unregistered person D is deleted from the composite image data 2203 using the image data 2204 searched on the network.

合成画像データ2203の未登録人物Dの存在する位置の画像データ2204の背景を
合成画像データ2203の未登録人物Dに貼り付けることにより未登録人物Dを削除する
The unregistered person D is deleted by pasting the background of the image data 2204 at the position where the unregistered person D of the composite image data 2203 exists on the unregistered person D of the composite image data 2203.

以上により、本実施形態では第三実施形態と同様の効果を得るとともに、更に、ネット
ワーク上で公開されている画像データを検索し、検索した画像データを用いて未登録人物
を削除することができる。
As described above, in the present embodiment, the same effect as that of the third embodiment can be obtained, and further, the image data published on the network can be searched, and the unregistered person can be deleted by using the searched image data. ..

また、ネットワーク上で公開されている画像データの撮影場所を基に、ユーザが同じ場
所で撮影した画像データと合成できるようにしてもよい。
Further, the user may be able to combine with the image data taken at the same place based on the shooting place of the image data published on the network.

以上、本発明の実施形態について説明したが、言うまでもなく、本発明の技術を実現す
る構成は上記実施形態に限られるものではなく、様々な変形例が考えられる。例えば、あ
る実施形態の構成の一部を他の実施形態の構成と置き換えることが可能であり、また、あ
る実施形態の構成に他の実施形態の構成を加えることも可能である。これらは全て本発明
の範疇に属するものである。また、文中や図中に現れる数値やメッセージ等もあくまでも
一例であり、異なるものを用いても本発明の効果を損なうことはない。
Although the embodiment of the present invention has been described above, it goes without saying that the configuration for realizing the technique of the present invention is not limited to the above embodiment, and various modifications can be considered. For example, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. All of these belong to the category of the present invention. In addition, numerical values and messages appearing in sentences and figures are merely examples, and the effects of the present invention may not be impaired even if different ones are used.

また、各処理例で説明したプログラムは、それぞれ独立したプログラムでもよく、複数
のプログラムが一つのアプリケーションプログラムを構成していてもよい。また、各処理
を行う順番を入れ替えて実行するようにしてもよい。
Further, the programs described in each processing example may be independent programs, or a plurality of programs may constitute one application program. Further, the order in which each process is performed may be changed and executed.

前述した本発明の機能等は、それらの一部または全部を、例えば集積回路で設計する等
によりハードウェアで実現してもよい。また、マイクロプロセッサユニット等がそれぞれ
の機能等を実現する動作プログラムを解釈して実行することによりソフトウェアで実現し
てもよい。ハードウェアとソフトウェアを併用してもよい。
The above-mentioned functions of the present invention and the like may be realized by hardware, for example, by designing a part or all of them by an integrated circuit. Further, it may be realized by software by interpreting and executing an operation program in which the microprocessor unit or the like realizes each function or the like. Hardware and software may be used together.

また、図中に示した制御線や情報線は説明上必要と考えられるものを示しており、必ず
しも製品上の全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成
が相互に接続されていると考えてもよい。
In addition, the control lines and information lines shown in the figure indicate those considered necessary for explanation, and do not necessarily indicate all the control lines and information lines on the product. In practice, it can be considered that almost all configurations are interconnected.

1:撮像装置、101:主制御部、102:ROM、103:RAM、104:ストレー
ジ部、106:外部記録媒体、110:撮像部、115:GPS受信部、120:無線通
信部、1022:位置情報取得部、1023:撮像処理部、1024:画像記録部、10
25:画像再生部、1027:合成処理部、1028:顔認識処理部
1: Imaging device, 101: Main control unit, 102: ROM, 103: RAM, 104: Storage unit, 106: External recording medium, 110: Imaging unit, 115: GPS receiving unit, 120: Wireless communication unit, 1022: Position Information acquisition unit, 1023: Imaging processing unit, 1024: Image recording unit, 10
25: Image reproduction unit, 1027: Synthesis processing unit, 1028: Face recognition processing unit

Claims (1)

被写体を撮像して画像データを生成する撮像処理部と、
前記画像データの顔認識処理を実行する顔認識処理部と、
前記画像データを記録する画像記録部と、
複数の画像データの其々に撮像された人物が、一つの画像データに含まれるように合成
処理を実行して合成データを生成する合成処理部と、を備え、
前記顔認識処理部は、第一の画像データに対して前記顔認識処理を実行して第一の人物
の顔を認識し、
前記第一の画像データの撮影タイミングとは異なる任意の撮影タイミングで撮影される
と共に、前記第一の画像データの背景と同一の背景を有し、かつ前記第一の人物とは異な
る第二の人物が撮像された第二の画像データが前記画像記録部に記録されている場合に、
前記合成処理部は前記第一の画像データ及び前記第二の画像データを用いて前記同一の背
景上に前記第一の人物及び前記第二の人物が重畳された前記合成データを生成する、
ことを特徴とする撮像装置。
An imaging processing unit that captures an image of a subject and generates image data,
A face recognition processing unit that executes face recognition processing of the image data,
An image recording unit that records the image data and
It is provided with a compositing processing unit that generates a compositing data by executing a compositing process so that a person imaged in each of a plurality of image data is included in one image data.
The face recognition processing unit executes the face recognition process on the first image data to recognize the face of the first person.
A second image that is shot at an arbitrary shooting timing different from the shooting timing of the first image data, has the same background as the background of the first image data, and is different from the first person. When the second image data in which a person is captured is recorded in the image recording unit,
The synthesis processing unit uses the first image data and the second image data to generate the composite data in which the first person and the second person are superimposed on the same background.
An imaging device characterized by this.
JP2021117003A 2020-05-07 2021-07-15 Imaging device Active JP7362696B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021117003A JP7362696B2 (en) 2020-05-07 2021-07-15 Imaging device
JP2023172865A JP2023168550A (en) 2020-05-07 2023-10-04 Imaging apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020081842A JP6916342B2 (en) 2019-06-04 2020-05-07 Imaging device and image processing method
JP2021117003A JP7362696B2 (en) 2020-05-07 2021-07-15 Imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020081842A Division JP6916342B2 (en) 2019-06-04 2020-05-07 Imaging device and image processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023172865A Division JP2023168550A (en) 2020-05-07 2023-10-04 Imaging apparatus

Publications (3)

Publication Number Publication Date
JP2021170810A true JP2021170810A (en) 2021-10-28
JP2021170810A5 JP2021170810A5 (en) 2022-04-06
JP7362696B2 JP7362696B2 (en) 2023-10-17

Family

ID=78149734

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021117003A Active JP7362696B2 (en) 2020-05-07 2021-07-15 Imaging device
JP2023172865A Pending JP2023168550A (en) 2020-05-07 2023-10-04 Imaging apparatus

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023172865A Pending JP2023168550A (en) 2020-05-07 2023-10-04 Imaging apparatus

Country Status (1)

Country Link
JP (2) JP7362696B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136568A (en) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd Touch panel operation-type camera
JP2004248020A (en) * 2003-02-14 2004-09-02 Fuji Photo Film Co Ltd Image processor and image processing system
JP2010108475A (en) * 2008-10-03 2010-05-13 Sony Corp Image processing apparatus and method, program, and recording medium
JP2010239459A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Image combination apparatus and program
JP2014099869A (en) * 2013-12-17 2014-05-29 Casio Comput Co Ltd Image apparatus, imaging method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136568A (en) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd Touch panel operation-type camera
JP2004248020A (en) * 2003-02-14 2004-09-02 Fuji Photo Film Co Ltd Image processor and image processing system
JP2010108475A (en) * 2008-10-03 2010-05-13 Sony Corp Image processing apparatus and method, program, and recording medium
JP2010239459A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Image combination apparatus and program
JP2014099869A (en) * 2013-12-17 2014-05-29 Casio Comput Co Ltd Image apparatus, imaging method, and program

Also Published As

Publication number Publication date
JP2023168550A (en) 2023-11-24
JP7362696B2 (en) 2023-10-17

Similar Documents

Publication Publication Date Title
KR101720774B1 (en) Digital photographing apparatus and method for providing a picture thereof
US8599251B2 (en) Camera
US11528432B2 (en) Imaging device and image processing method
KR101901910B1 (en) Method and apparatus for generating or storing resultant image which changes selected area
US11870951B2 (en) Photographing method and terminal
JP5837922B2 (en) Ranking key video frames based on camera position
US8525913B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
JP2022140458A (en) Information processing device, information processing method, and program
JP6916342B2 (en) Imaging device and image processing method
JP4889554B2 (en) Camera, content creation method, and program
JP7362696B2 (en) Imaging device
JP6703361B2 (en) Imaging device and image processing method
CN103581512B (en) Shooting device and method
JP2002290778A (en) Camera device, camera system, photographing condition taking-in device, its method, sample image managing method and record medium
JP2012134864A (en) Information processor, processing method of the same and program
JP5613285B2 (en) IMAGING DEVICE, IMAGING METHOD, DISPLAY DEVICE, AND DISPLAY METHOD
JP2014216904A (en) Imaging apparatus, image reproduction apparatus, data recording method, image reproduction method, and program
JP2010109634A (en) Image display apparatus and image capturing apparatus
JP2015122686A (en) Information processing apparatus, photographing apparatus, control method, and program
JP2016051939A (en) Imaging apparatus, control method, and program
JP2015159511A (en) Photographing apparatus and image recording method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210715

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231004

R150 Certificate of patent or registration of utility model

Ref document number: 7362696

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150