JP2012060384A - Image processing apparatus, image processing method and program - Google Patents

Image processing apparatus, image processing method and program Download PDF

Info

Publication number
JP2012060384A
JP2012060384A JP2010201162A JP2010201162A JP2012060384A JP 2012060384 A JP2012060384 A JP 2012060384A JP 2010201162 A JP2010201162 A JP 2010201162A JP 2010201162 A JP2010201162 A JP 2010201162A JP 2012060384 A JP2012060384 A JP 2012060384A
Authority
JP
Japan
Prior art keywords
image
image data
unit
data
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010201162A
Other languages
Japanese (ja)
Other versions
JP2012060384A5 (en
Inventor
Akio Hashimoto
晃男 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010201162A priority Critical patent/JP2012060384A/en
Publication of JP2012060384A publication Critical patent/JP2012060384A/en
Publication of JP2012060384A5 publication Critical patent/JP2012060384A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a composite image in which subjects imaged at different times are present on a substantially common background.SOLUTION: A pickup image acquisition section 61 acquires pickup image data. A reference image acquisition section 62 acquires Kth reference image data. A display control section 51 controls a display section 19 to display the pickup image, which is a through image, with the reference image superimposed thereon. A differential image generation section 63 differentiates the pickup image data acquired for Kth recording pickup from the reference image data acquired at the beginning to generate differential image data. A composition section 64 composites the differential image data with the Kth reference image data to generate Kth composite image data. A setting section 52 sets the Kth composite image data as new (K+1)th reference image data.

Description

本発明は、画像処理装置及び画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来の技術として、今回の撮像時における被写体画像の輪郭を抽出した後、前回撮像した被写体画像の輪郭を抽出することで、今回の撮像時の輪郭に重畳表示させ、今回の撮像時の画角を前回の撮像の画角に合わせる技術が開示されている(特許文献1参照)。   As a conventional technique, after extracting the contour of the subject image at the time of the current imaging, the contour of the subject image captured at the previous time is extracted, so that it is superimposed on the contour at the time of the current imaging, and the angle of view at the time of the current imaging Has been disclosed (see Patent Document 1).

特開2005−26874号公報JP 2005-26874 A

しかしながら、上記特許文献1では、前回の撮像画像の構図と略同一となるように今回の撮像をしたとしても、例えば、背景は略共通するが、それぞれ撮像時がそれぞれ異なる被写体同士が存在する合成画像を生成するまでは、対応していない。   However, in the above-mentioned Patent Document 1, even if the current imaging is performed so as to be substantially the same as the composition of the previous captured image, for example, the background is substantially common, but there is a subject in which each subject is different at the time of imaging. It is not supported until an image is generated.

本発明は、このような状況に鑑みてなされたものであり、撮像時がそれぞれ異なる被写体が略共通した背景に存在するような合成画像を生成できるようにすることを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to be able to generate a composite image in which subjects at different times of imaging exist in a substantially common background.

上記目的を達成するため、請求項1の発明は、画像データを取得する第1画像取得手段と、この第1画像取得手段により取得された画像データの画像を表示する表示手段と、合成の基準となる基準画像データを取得する第2画像取得手段と、この第2画像取得手段により取得された基準画像データの画像を、前記第1画像取得手段により取得された画像データの画像に重畳して前記表示手段に表示させるよう制御をする表示制御手段と、前記第2画像取得手段により取得された前記基準画像データと、前記第1画像取得手段により取得された前記画像データとの差分画像データを生成する差分画像生成手段と、前記第2画像取得手段により取得された前記基準画像データと、前記差分画像生成手段により生成された前記差分画像データとを合成した合成画像データを生成する合成手段と、この合成手段により生成された前記合成画像データを、新たな基準画像データとして設定する設定手段と、を備えることを特徴とする。   In order to achieve the above object, the invention of claim 1 includes a first image acquisition unit that acquires image data, a display unit that displays an image of the image data acquired by the first image acquisition unit, and a composition reference. A second image acquisition unit that acquires reference image data, and an image of the reference image data acquired by the second image acquisition unit superimposed on an image of the image data acquired by the first image acquisition unit Display control means for controlling the display means to display, difference image data between the reference image data acquired by the second image acquisition means and the image data acquired by the first image acquisition means The difference image generation means to be generated, the reference image data acquired by the second image acquisition means, and the difference image data generated by the difference image generation means are combined. Synthesizing means for generating a composite image data, the composite image data generated by the synthesizing means, characterized in that it comprises a setting means for setting a new reference image data.

また、請求項2に記載の発明は、上記請求項1に記載の発明において、画像を撮像し、その画像の画像データを出力する撮像手段をさらに備え、前記第1画像取得手段は、前記撮像手段から出力された画像データを取得する、ことを特徴とする。   The invention according to claim 2 is the invention according to claim 1, further comprising an imaging unit that captures an image and outputs image data of the image, wherein the first image acquisition unit includes the imaging unit. The image data output from the means is acquired.

また、上記目的を達成するため、請求項3の発明は、画像を表示する表示手段を備える画像処理装置の画像処理方法であって、画像データを取得する第1画像取得ステップと、合成の基準となる基準画像データを取得する第2画像取得ステップと、この第2画像取得ステップにて取得された基準画像データの画像を、前記第1画像取得ステップにて取得された画像データの画像に重畳して前記表示手段に表示させるよう制御する表示制御ステップと、前記第2画像取得ステップにて取得された前記基準画像データと、前記第1画像取得ステップにて取得された前記画像データとの差分画像データを生成する差分画像生成ステップと、前記第2画像取得ステップにて取得された前記基準画像データと、前記差分画像生成ステップにて生成された前記差分画像データとを合成して、合成画像データを生成する合成ステップと、この合成ステップにて生成された前記合成画像データを、新たな基準画像データとして設定する設定ステップと、を含むことを特徴とする。   In order to achieve the above object, the invention of claim 3 is an image processing method of an image processing apparatus comprising display means for displaying an image, the first image acquisition step for acquiring image data, and a composition reference A second image acquisition step for acquiring the reference image data, and the image of the reference image data acquired in the second image acquisition step is superimposed on the image of the image data acquired in the first image acquisition step And a difference between the display control step for controlling the display means to display, the reference image data acquired in the second image acquisition step, and the image data acquired in the first image acquisition step. The difference image generation step for generating image data, the reference image data acquired in the second image acquisition step, and the difference image generation step A combination step of combining the difference image data and generating combined image data, and a setting step of setting the combined image data generated in the combining step as new reference image data. Features.

また、上記目的を達成するため、請求項4の発明は、画像を表示する表示手段を備える画像処理装置のコンピュータを、画像データを取得する第1画像取得手段、合成の基準となる基準画像データを取得する第2画像取得手段、この第2画像取得手段により取得された基準画像データの画像を、前記第1画像取得手段により取得された画像データの画像に重畳して前記表示手段に表示させるよう制御する表示制御手段、前記第2画像取得手段により最初に取得された基準画像データと、前記第1画像取得手段により取得された画像データとの差分を取ることによって、差分画像データを生成する差分画像生成手段、前記第2画像取得手段により取得された基準画像データと、前記差分画像生成手段により生成された差分画像データとを合成し、合成画像データを生成する合成手段、この合成手段により生成された前記合成画像データを、新たな基準画像データとして設定する設定手段、として機能させるプログラムであることを特徴とする。   In order to achieve the above object, a fourth aspect of the present invention provides a computer of an image processing apparatus including display means for displaying an image, first image acquisition means for acquiring image data, reference image data serving as a reference for synthesis. A second image acquisition unit that acquires the image of the reference image data acquired by the second image acquisition unit and superimposing the image of the image data acquired by the first image acquisition unit on the display unit The display control means for controlling the difference between the reference image data first acquired by the second image acquisition means and the image data acquired by the first image acquisition means, thereby generating difference image data. The reference image data acquired by the difference image generation unit and the second image acquisition unit and the difference image data generated by the difference image generation unit are synthesized. Synthesizing means for generating a composite image data, the composite image data generated by the synthesizing means, characterized in that it is a program to function setting means as, for setting a new reference image data.

本発明によれば、撮像時がそれぞれ異なる被写体が略共通した背景に存在するような合成画像を生成することが可能になる。   According to the present invention, it is possible to generate a composite image in which subjects that are different at the time of imaging exist in a substantially common background.

本発明の一実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。1 is a block diagram illustrating a hardware configuration of an image processing apparatus according to an embodiment of the present invention. 画像合成処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing an image synthesis process. 図2の画像処理装置が実行する画像合成処理の流れを説明するフローチャートである。3 is a flowchart for explaining a flow of image composition processing executed by the image processing apparatus of FIG. 2. 画像合成処理の具体的な処理結果の一例を示す図である。It is a figure which shows an example of the specific process result of an image synthesis process. 画像合成処理の具体的な処理結果の一例を示す図である。It is a figure which shows an example of the specific process result of an image synthesis process.

以下、本発明の一実施形態を図面に基づいて説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明に係る画像処理装置の一実施形態としての撮像装置1のハードウェアの構成を示すブロック図である。撮像装置1は、例えばデジタルカメラにより構成することができる。   FIG. 1 is a block diagram showing a hardware configuration of an imaging apparatus 1 as an embodiment of an image processing apparatus according to the present invention. The imaging device 1 can be configured by a digital camera, for example.

撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、画像処理部14と、バス15と、入出力インターフェース16と、入出力インターフェース16と、撮像部17と、操作部18と、表示部19と、記憶部20と、通信部21と、ドライブ22と、を備えている。   The imaging apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an image processing unit 14, a bus 15, an input / output interface 16, and an input / output. An interface 16, an imaging unit 17, an operation unit 18, a display unit 19, a storage unit 20, a communication unit 21, and a drive 22 are provided.

CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。なお、CPU11に設けられている表示制御部51及び設定部52については、図2を参照して後述する。
RAM13にはまた、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 20 to the RAM 13. The display control unit 51 and the setting unit 52 provided in the CPU 11 will be described later with reference to FIG.
The RAM 13 also stores data necessary for the CPU 11 to execute various processes as appropriate.

画像処理部14は、DSP(Digital Signal Processor)や、VRAM(Video Random Access Memory)等から構成されており、CPU11と協働して、画像のデータに対して各種画像処理を施す。
ここで、本実施形態では、撮像装置1による画像の処理単位は一枚の静止画像であり、このような処理単位としての静止画像が、本明細書では「フレーム」と呼ばれている。以下、特に断りがない限り、画像とはフレームを意味するものとする。
例えば、画像処理部14は、後述する撮像部17から出力される撮像画像のデータに対して、ノイズ低減、ホワイトバランス、手ぶれ補正等の画像処理を施す。
本実施形態では、画像処理部14は、さらに、差分画像生成部63と、合成部64と、を備えている。ただし、撮像画像取得部61乃至合成部64の詳細については、図2を参照して後述する。
The image processing unit 14 is configured by a DSP (Digital Signal Processor), a VRAM (Video Random Access Memory), and the like, and performs various image processing on image data in cooperation with the CPU 11.
Here, in this embodiment, the processing unit of the image by the imaging apparatus 1 is one still image, and the still image as such a processing unit is referred to as a “frame” in this specification. Hereinafter, unless otherwise specified, an image means a frame.
For example, the image processing unit 14 performs image processing such as noise reduction, white balance, camera shake correction, and the like on captured image data output from the imaging unit 17 described later.
In the present embodiment, the image processing unit 14 further includes a difference image generation unit 63 and a synthesis unit 64. However, details of the captured image acquisition unit 61 to the synthesis unit 64 will be described later with reference to FIG.

CPU11、ROM12、RAM13、及び画像処理部14は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、操作部18、表示部19、記憶部20、通信部21、及びドライブ22が接続されている。   The CPU 11, ROM 12, RAM 13, and image processing unit 14 are connected to each other via a bus 15. An input / output interface 16 is also connected to the bus 15. An imaging unit 17, an operation unit 18, a display unit 19, a storage unit 20, a communication unit 21, and a drive 22 are connected to the input / output interface 16.

撮像部17は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 17 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部17の出力信号として出力される。
なお、以下、撮像部17の出力信号が、「撮像画像のデータ」であるものとする。従って、撮像部17からは撮像画像のデータが出力されて、CPU11や画像処理部14等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and output as an output signal of the imaging unit 17.
Hereinafter, it is assumed that the output signal of the imaging unit 17 is “data of a captured image”. Accordingly, captured image data is output from the imaging unit 17 and is appropriately supplied to the CPU 11, the image processing unit 14, and the like.

操作部18は、各種釦等で構成され、ユーザの指示操作を受け付ける。
表示部19は、液晶ディスプレイ等で構成され、各種画像を表示する。
記憶部20は、DRAM(Dynamic Random Access Memory)等で構成され、画像処理部14等から出力された画像のデータを一時的に記憶する。また、記憶部20は、画像処理部14等の処理に必要な各種データも記憶する。
通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The operation unit 18 includes various buttons and the like, and accepts user instruction operations.
The display unit 19 is composed of a liquid crystal display or the like and displays various images.
The storage unit 20 is configured by a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores image data output from the image processing unit 14 or the like. The storage unit 20 also stores various data necessary for processing by the image processing unit 14 and the like.
The communication unit 21 controls communication with other devices (not shown) via a network including the Internet.

ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなるリムーバブルメディア31が適宜装着される。ドライブ22によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。   A removable medium 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 22. The program read from the removable medium 31 by the drive 22 is installed in the storage unit 20 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 20 in the same manner as the storage unit 20.

このような構成を有する撮像装置1は、撮像の前後を通じて、スルー撮像処理及びスルー表示処理を開始する。
即ち、撮像装置1は、撮像部17による撮像動作を継続させ、その間、当該撮像部17を介して画像処理部14から順次出力される撮像画像(フレーム)のデータを、メモリ(本実施形態では記憶部20)に一時的に記憶させる。このような一連の処理が、ここでいう「スルー撮像処理」である。
また、撮像装置1は、スルー撮像時にメモリ(本実施形態では記憶部20)に一時的に記録された各撮像画像(フレーム)のデータを順次読み出して、各々に対応する撮像画像を表示部19に順次表示させる。このような一連の制御処理が、ここでいう「スルー表示処理」である。なお、スルー表示処理により表示部19に表示されている撮像画像を、以下、「スルー画像」と呼ぶ。
The imaging apparatus 1 having such a configuration starts through imaging processing and through display processing before and after imaging.
That is, the imaging device 1 continues the imaging operation by the imaging unit 17, and during that time, captured image (frame) data sequentially output from the image processing unit 14 via the imaging unit 17 is stored in a memory (in this embodiment). The data is temporarily stored in the storage unit 20). Such a series of processes is the “through imaging process” referred to herein.
The imaging apparatus 1 sequentially reads data of each captured image (frame) temporarily recorded in the memory (the storage unit 20 in the present embodiment) during through imaging, and displays the corresponding captured image on the display unit 19. Are displayed sequentially. Such a series of control processes is the “through display process” here. The captured image displayed on the display unit 19 by the through display process is hereinafter referred to as a “through image”.

ユーザは、スルー画像をみながら構図を決めた後、操作部18のシャッタスイッチ(図示せず)を下限まで押下することで、撮像画像のデータの記録の指示をすることができる。なお、このように、シャッタスイッチを下限まで押下する操作を、以下、「全押し操作」又は単に「全押し」と呼ぶ。
なお、以下、スルー撮像処理及びスルー表示処理のための撮像と区別すべく、全押し操作がなされて記録の指示がなされたときの撮像を、「記録用撮像」と呼ぶ。
After determining the composition while viewing the through image, the user can instruct the recording of the captured image data by pressing a shutter switch (not shown) of the operation unit 18 to the lower limit. The operation of pressing the shutter switch to the lower limit in this way is hereinafter referred to as “full press operation” or simply “full press”.
Hereinafter, in order to distinguish from imaging for through imaging processing and through display processing, imaging when a full-press operation is performed and a recording instruction is issued is referred to as “recording imaging”.

さらに、本実施形態では、撮像装置1は、異なる時点に各々撮像された複数の被写体が合成された合成画像のデータを生成するにあたり、次のような一連の処理を実行することができる。
撮像装置1は、当該合成画像のデータの生成のための事前準備として、0回目の記録用撮像を行う。なお、ここでは、合成画像のデータを生成するための初回の記録用撮像を1回目とするため、事前準備の回は0回目となる。
撮像装置1は、0回目の記録用撮像により得られた撮像画像のデータを、1回目の基準画像のデータとして保持し、また、当該基準画像を表示部19に半透過表示させる。
即ち、撮像装置1は、1回目の記録用撮像の前に、スルー画像に対して半透過状態の1回目の基準画像を重畳して表示部19に表示させる。
この場合、撮像者は、スルー画像の上に、背景が半透過表示されている様子を視認することができる。よって、撮像者は、1回目の記録用撮像の前に、撮像装置1を移動させたりすることによって、半透過表示された背景を基準にして、1回目の被写体の位置が適切になるような構図取りをすることができる。
そして、ユーザは、適切な構図となった段階で、全押し操作をすることで、1回目の記録用撮像を指示することができる。
撮像装置1は、このような指示を受けて、1回目の記録用撮像を行い、その結果得られる撮像画像のデータと、1回目の基準画像(後述する背景画像)のデータとの差分を画素単位で取ることによって、各差分値が各画素値となった画像(以下、「差分画像」と呼ぶ)のデータを生成する。
そして、撮像装置1は、差分画像と基準画像との各データを合成することによって、1回目の合成画像のデータを生成する。
さらに、撮像装置1は、1回目の合成画像のデータを、次回(2回目)の基準画像のデータとして設定して保持する。
撮像装置1は、2回目の記録用撮像の前に、スルー画像に対して半透過状態の2回目の基準画像を重畳して表示部19に表示させる。
この場合、2回目の基準画像のデータとは、前回(1回目)の記録用撮像時に生成された合成画像のデータであるため、2回目の基準画像には、背景の他、前回まで(1回目)の記録用撮像時の被写体も含まれている。よって、撮像者は、スルー画像の上に、背景のみならず、前回まで(1回目)の記録用撮像時の被写体が半透過表示されている様子を視認することができる。よって、撮像者は、撮像装置1を移動させたりすることによって、半透過表示された背景及び前回まで(1回目)の記録用撮像時の被写体を基準にして、今回(2回目)の被写体の位置が適切になるような構図取りをすることができる。即ち、撮像者は、合成画像内の適切な位置に被写体が配置された構図で、今回(2回目)の記録用撮像を指示することができる。
即ち、撮像者は、適切な構図となった段階で、全押し操作をすることで、今回(2回目)の記録用撮像を指示することができる。
撮像装置1は、このような指示を受けて、今回(2回目)の記録用撮像を行い、その結果得られる撮像画像のデータと、1回目の基準画像(後述する背景画像)のデータとを用いて、差分画像のデータを生成する。
そして、撮像装置1は、差分画像と2回目の基準画像との各データを合成することによって、2回目の合成画像のデータを生成する。
さらに、撮像装置1は、2回目の合成画像のデータを、次回(3回目)の基準画像のデータとして設定して保持する。
以降、3回以降の記録用撮像が行われる毎に、上述した一連の処理が繰り返し実行される。
なお、各回の記録用撮像は、前回の記録用撮像がなされてから、即座に実行されてもよいし、長期間経過後(例えば、年単位でも可)に実行されてもよい。
このような一連の処理の繰り返しを、以下、「画像合成処理」と呼ぶ。
Furthermore, in the present embodiment, the imaging apparatus 1 can execute the following series of processes when generating composite image data in which a plurality of subjects captured at different times are combined.
The imaging device 1 performs the 0th recording imaging as preparation in advance for generation of data of the composite image. Here, since the first recording imaging for generating the composite image data is the first time, the preliminary preparation is the 0th time.
The imaging apparatus 1 holds the captured image data obtained by the 0-th recording imaging as the first reference image data, and causes the display unit 19 to display the reference image semi-transparently.
That is, the imaging device 1 causes the display unit 19 to display the first reference image in a semi-transmissive state on the through image before the first recording imaging.
In this case, the photographer can visually recognize a state in which the background is translucently displayed on the through image. Therefore, the imager moves the imaging device 1 before the first recording imaging, so that the position of the first subject becomes appropriate based on the semi-transparent background. You can compose.
Then, the user can instruct the first recording imaging by performing a full-press operation when an appropriate composition is achieved.
In response to such an instruction, the imaging apparatus 1 performs the first recording imaging, and calculates the difference between the captured image data obtained as a result and the first reference image (background image described later) data as a pixel. By taking the unit, data of an image in which each difference value becomes each pixel value (hereinafter referred to as “difference image”) is generated.
And the imaging device 1 produces | generates the data of the 1st synthesized image by synthesize | combining each data of a difference image and a reference | standard image.
Furthermore, the imaging apparatus 1 sets and holds the data of the first composite image as the data of the next (second) reference image.
The imaging device 1 causes the display unit 19 to display the second reference image in a semi-transmissive state superimposed on the through image before the second recording imaging.
In this case, since the data of the second reference image is data of the composite image generated at the time of the previous (first) recording for recording, the second reference image includes the background (1) The subject at the time of recording for the second time) is also included. Therefore, the photographer can visually recognize not only the background but also the state in which the subject at the time of recording imaging for the first time is displayed semi-transparently on the through image. Therefore, the imager moves the image capturing apparatus 1 to change the semi-transparent background and the subject at the time of the previous recording (first time) for recording (second time) of the subject (second time). Composition can be made so that the position is appropriate. That is, the photographer can instruct the current (second) recording for recording with a composition in which the subject is arranged at an appropriate position in the composite image.
That is, the photographer can instruct the current (second) recording for recording by performing a full-press operation when an appropriate composition is achieved.
In response to such an instruction, the imaging apparatus 1 performs the current (second) recording for imaging, and obtains the data of the captured image obtained as a result and the data of the first reference image (background image described later). By using this, the data of the difference image is generated.
Then, the imaging apparatus 1 generates data of the second combined image by combining the data of the difference image and the second reference image.
Furthermore, the imaging apparatus 1 sets and holds the data of the second combined image as the data of the next (third) reference image.
Thereafter, the above-described series of processing is repeatedly executed every time recording for recording is performed three times or more.
Note that each recording imaging may be performed immediately after the previous recording imaging is performed, or may be performed after a long period of time (for example, in units of years).
Such a repetition of a series of processing is hereinafter referred to as “image composition processing”.

図2は、図1の撮像装置1が画像合成処理を実行するための機能的構成を示す機能ブロック図である。
図2においては、図1の撮像装置1の構成のうち、CPU11と、画像処理部14と、撮像部17と、表示部19と、記憶部20と、のみが図示されている。
CPU11においては、表示制御部51と、設定部52と、が設けられている。
なお、表示制御部51及び設定部52は、本実施形態では、CPU11と、当該CPU11により実行されるプログラムとの組み合わせ、即ち、ハードウェアとソフトウェアとの組み合わせにより構成されている。しかしながら、これは例示であって、表示制御部51及び設定部52の機能の少なくとも一部を、CPU11以外の他の構成要素(画像処理部14等)に移譲させることも当然可能である。
また、画像処理部14には、撮像画像取得部61乃至合成部64が設けられている。なお、撮像画像取得部61乃至合成部64が画像処理部14に設けられていることは例示であって、撮像画像取得部61乃至合成部64の少なくとも一部を、画像処理部14以外の他の構成要素(CPU11等)に移譲させることも当然可能である。
記憶部20の一領域として、背景画像記憶部41及び基準画像記憶部42が設けられている。なお、背景画像記憶部41及び基準画像記憶部42が記憶部20の一領域として設けられていることは例示であって、その他例えばリムーバブルメディア31の一領域として設けられるようにしてもよい。
FIG. 2 is a functional block diagram showing a functional configuration for the image capturing apparatus 1 of FIG. 1 to execute image composition processing.
In FIG. 2, only the CPU 11, the image processing unit 14, the imaging unit 17, the display unit 19, and the storage unit 20 are illustrated in the configuration of the imaging device 1 in FIG. 1.
In the CPU 11, a display control unit 51 and a setting unit 52 are provided.
In the present embodiment, the display control unit 51 and the setting unit 52 are configured by a combination of the CPU 11 and a program executed by the CPU 11, that is, a combination of hardware and software. However, this is merely an example, and it is naturally possible to transfer at least some of the functions of the display control unit 51 and the setting unit 52 to other components (such as the image processing unit 14) other than the CPU 11.
The image processing unit 14 is provided with a captured image acquisition unit 61 to a synthesis unit 64. Note that the captured image acquisition unit 61 to the combining unit 64 are provided in the image processing unit 14, and at least a part of the captured image acquisition unit 61 to the combining unit 64 is other than the image processing unit 14. Of course, it is also possible to transfer it to the constituent elements (CPU 11 or the like).
As one area of the storage unit 20, a background image storage unit 41 and a reference image storage unit 42 are provided. Note that the background image storage unit 41 and the reference image storage unit 42 are provided as one area of the storage unit 20, and may be provided as another area of the removable media 31, for example.

背景画像記憶部41は、0回目の記録用撮像(合成画像を生成するための事前準備としての記録用撮像)により得られた撮像画像のデータを、背景画像のデータとして取得する。   The background image storage unit 41 acquires captured image data obtained by the 0th recording imaging (recording imaging as a preliminary preparation for generating a composite image) as background image data.

基準画像記憶部42は、1以上の基準画像のデータを記憶する。
具体的には、0回目の記録用撮像(事前準備としての記録用撮像)では、撮像画像のデータが基準画像のデータとして基準画像記憶部42に記憶される。即ち、0回目の記録用撮像では、背景画像記憶部41に記憶された背景画像のデータが、基準画像のデータとして基準画像記憶部42に記憶される。
その後、各回の記録用撮像の毎、後述する合成部64から順次出力されてくる合成画像のデータが、次回の基準画像のデータとして基準画像記憶部42に記憶される。
このように、記録用撮像の回数が進む度に、基準画像記憶部42に記憶される基準画像のデータは更新されていく。
The reference image storage unit 42 stores data of one or more reference images.
Specifically, in the 0th recording imaging (recording imaging as a preliminary preparation), captured image data is stored in the reference image storage unit 42 as reference image data. That is, in the 0-th recording imaging, the background image data stored in the background image storage unit 41 is stored in the reference image storage unit 42 as reference image data.
Thereafter, for each recording imaging, the composite image data sequentially output from the composition unit 64 described later is stored in the reference image storage unit 42 as the next reference image data.
In this manner, the reference image data stored in the reference image storage unit 42 is updated each time the number of times of recording imaging advances.

表示制御部51は、撮像画像取得部61から順次供給されるデータにより表わされる撮像画像を、スルー画像として表示部19に表示させる制御を実行する。さらに、表示制御部51は、基準画像取得部62から供給されるデータにより表わされる基準画像を半透過画像にして、スルー画像に重畳して表示させる制御を実行する。   The display control unit 51 performs control for causing the display unit 19 to display captured images represented by data sequentially supplied from the captured image acquisition unit 61 as through images. Further, the display control unit 51 executes control for making the reference image represented by the data supplied from the reference image acquisition unit 62 a semi-transparent image and superimposing it on the through image.

設定部52は、各回の記録用撮像の毎、後述する合成部64により順次生成される合成画像のデータを、新たな(次回の)基準画像のデータとして設定する。
このようにして設定部52により設定された新たな基準画像のデータは、合成部64から出力されて、基準画像記憶部42に記憶される。
The setting unit 52 sets, as new (next) reference image data, combined image data sequentially generated by a combining unit 64 described later for each recording imaging.
The new reference image data set by the setting unit 52 in this way is output from the combining unit 64 and stored in the reference image storage unit 42.

撮像画像取得部61は、撮像部17から順次出力されてくる撮像画像のデータを取得する。
撮像画像取得部61は、順次取得した撮像画像のデータを、スルー画像のデータとして表示制御部51に供給する。また、撮像画像取得部61は、取得した撮像画像のデータが、記録用撮像時に出力されたものである場合、当該撮像画像のデータを差分画像生成部63に供給する。さらにまた、撮像画像取得部61は、取得した撮像画像のデータが、0回目の記録用撮像時(事前準備としての記録用撮像時)に出力されたものである場合、当該撮像画像のデータを背景画像のデータとして背景画像記憶部41に供給する。
The captured image acquisition unit 61 acquires captured image data sequentially output from the imaging unit 17.
The captured image acquisition unit 61 supplies sequentially acquired captured image data to the display control unit 51 as through image data. The captured image acquisition unit 61 supplies the captured image data to the difference image generation unit 63 when the acquired captured image data is output during recording imaging. Furthermore, when the acquired captured image data is output at the time of the 0th recording imaging (at the time of recording imaging as a preliminary preparation), the captured image acquisition unit 61 outputs the captured image data. The data is supplied to the background image storage unit 41 as background image data.

基準画像取得部62は、基準画像のデータを基準画像記憶部42から取得して、表示制御部51及び合成部64に供給する。   The reference image acquisition unit 62 acquires reference image data from the reference image storage unit 42 and supplies the data to the display control unit 51 and the synthesis unit 64.

差分画像生成部63は、1回目以降の記録用撮像時に得られた撮像画像のデータと、背景画像記憶部41に記憶された背景画像のデータ(事前準備としての0回目の記録用撮像時に得られた撮像画像のデータ、即ち1回目の基準画像のデータ)とを用いて、差分画像のデータを生成する。
なお、差分画像のデータの生成手法の具体例については、図4及び図5を参照して後述する。
差分画像生成部63により生成された差分画像のデータは、合成部64に供給される。
The difference image generation unit 63 captures the captured image data obtained during the first and subsequent recording imaging and the background image data stored in the background image storage unit 41 (obtained during the 0th recording imaging as a preliminary preparation). The difference image data is generated using the captured image data, that is, the first reference image data).
A specific example of a method for generating difference image data will be described later with reference to FIGS. 4 and 5.
The difference image data generated by the difference image generation unit 63 is supplied to the synthesis unit 64.

合成部64は、基準画像取得部62から供給された基準画像のデータと、差分画像生成部63から供給された差分画像のデータとを合成することによって、合成画像のデータを生成する。
合成部64は、生成した合成画像のデータを、設定部52により設定された新たな(次回の)基準画像のデータとして、基準画像記憶部42に記憶させる。
The combining unit 64 generates combined image data by combining the reference image data supplied from the reference image acquiring unit 62 and the difference image data supplied from the difference image generating unit 63.
The synthesizing unit 64 stores the generated synthesized image data in the reference image storage unit 42 as new (next) reference image data set by the setting unit 52.

次に、図3を参照して、撮像装置1の処理のうち、このような図2の機能的構成により実現される画像合成処理について説明する。
図3は、画像合成処理の流れを説明するフローチャートである。
Next, with reference to FIG. 3, image compositing processing realized by the functional configuration of FIG. 2 will be described in the processing of the imaging apparatus 1.
FIG. 3 is a flowchart for explaining the flow of the image composition process.

図3の画像合成処理は、K回目(Kは1以上の整数値)の記録用撮像が行われる場合に実行される処理である。
即ち、少なくとも事前準備としての0回目の記録用撮像が完了しており、0回目の記録用撮像によって得られた撮像画像のデータ(1回目の基準画像のデータ)が、背景画像のデータとして背景画像記憶部41に記憶されていることを前提とする。
また、スルー撮像処理及びスルー表示処理は、図3の画像処理の実行前後を通じて継続して実行されていることを前提とする。即ち、表示部19にはスルー画像が常時表示されていることを前提とする。
このような前提の下、K=1回目の画像合成処理は、0回目の記録用撮像が終了したことを契機として開始され、その後、K=2回目以降の画像合成処理は、前回のK−1回目の画像合成処理が週慮したことを契機として開始される。即ち、記録用撮像が繰り返し行われている限り、図3の画像合成処理は繰り返し実行される。
The image composition process in FIG. 3 is a process that is executed when the K-th image capturing for recording (K is an integer value of 1 or more) is performed.
That is, at least the 0th recording imaging as the preliminary preparation is completed, and the captured image data (first reference image data) obtained by the 0th recording imaging is used as the background image data. It is assumed that it is stored in the image storage unit 41.
Further, it is assumed that the through imaging process and the through display process are continuously executed before and after the execution of the image processing of FIG. That is, it is assumed that a through image is always displayed on the display unit 19.
Under such a premise, the first image composition processing for K = 1 is started when the recording for the 0th recording is completed, and then the second and subsequent image composition processing is performed for the previous K−. The first image compositing process is started when a week is considered. That is, as long as the recording imaging is repeatedly performed, the image composition processing in FIG. 3 is repeatedly performed.

ステップS11において、基準画像取得部62は、K回目の基準画像のデータを基準画像記憶部42から取得する。   In step S <b> 11, the reference image acquisition unit 62 acquires data of the Kth reference image from the reference image storage unit 42.

ステップS12において、撮像画像取得部61は、撮像部17から出力されてくる撮像画像のデータを取得する。   In step S <b> 12, the captured image acquisition unit 61 acquires captured image data output from the imaging unit 17.

ステップS13において、表示制御部53は、撮像画像をスルー画像として、半透過状態の基準画像を重畳して表示部19に表示させる。   In step S <b> 13, the display control unit 53 causes the display unit 19 to superimpose a semi-transmissive reference image with the captured image as a through image.

ステップS14において、撮像画像取得部61は、全押し操作がなされたか否かを判定する。   In step S14, the captured image acquisition unit 61 determines whether or not a full-press operation has been performed.

全押し操作がなされていない場合、ステップS14においてNOであると判定されて、処理はステップS12に戻される。即ち、全押し操作がなされるまでの間、ステップS12乃至S14のループ処理が繰り返し実行される。この間、撮像部17から順次出力されてくるデータにより表わされる撮像画像がスルー画像となり、即ち、スルー画像が逐次更新され、逐次更新されるスルー画像の上に半透過状態の基準画像が重畳して表示される。   If the full pressing operation has not been performed, it is determined as NO in Step S14, and the process returns to Step S12. That is, the loop processing of steps S12 to S14 is repeatedly executed until the full pressing operation is performed. During this time, the captured image represented by the data sequentially output from the imaging unit 17 becomes a through image, that is, the through image is sequentially updated, and the semi-transparent reference image is superimposed on the sequentially updated through image. Is displayed.

ここで、K(>1)回目の画像合成処理においては、ステップS11の処理で取得される今回(K回目)の基準画像のデータとは、前回(K−1回目)の記録用撮像時に生成された合成画像のデータである。よって、K回目の基準画像には、背景の他、前回まで(1乃至K−1回目)の記録用撮像時の各々の被写体も含まれている。よって、撮像者は、スルー画像の上に、背景のみならず、前回まで(1乃至K−1回目)の記録用撮像時の各々の被写体が半透過表示されている様子を視認することができる。
よって、撮像者は、撮像装置1を移動させたりすることによって、半透過表示された背景及び前回まで(1乃至K−1回目)の記録用撮像時の各々の被写体を基準にして、今回(K回目)の被写体の位置が適切になるような構図取りをすることができる。即ち、撮像者は、合成画像内の適切な位置に被写体が配置された構図で、今回(K回目)の記録用撮像を指示することができる。
即ち、撮像者は、適切な構図となった段階で、全押し操作をすることで、今回(K回目)の記録用撮像を指示することができる。
Here, in the K (> 1) -th image compositing process, the current (K-th) reference image data acquired in the process of step S11 is generated during the previous (K-1) recording imaging. This is the synthesized image data. Therefore, the K-th reference image includes not only the background but also the respective subjects at the time of recording imaging for the first time (1st to (K-1) th). Therefore, the photographer can visually recognize not only the background but also each subject at the time of the first (Kth to (K-1) th) recording images being displayed semi-transparently on the through image. .
Therefore, the imager moves the image capturing apparatus 1 to change the semi-transparent background and the subject at the time of recording for the previous (1st to (K-1)) recordings (this time ( The composition can be made so that the position of the subject in the (Kth) time becomes appropriate. That is, the imager can instruct the current (Kth) recording for recording with a composition in which the subject is arranged at an appropriate position in the composite image.
That is, the photographer can instruct the current (Kth) recording for recording by performing a full-press operation when an appropriate composition is achieved.

この場合、ステップS14においてYESであると判定されて、処理はステップS15に進む。   In this case, it is determined as YES in Step S14, and the process proceeds to Step S15.

ステップS15において、撮像画像取得部61は、撮像画像のデータを記憶部20等に一時的に記憶する。   In step S15, the captured image acquisition unit 61 temporarily stores captured image data in the storage unit 20 or the like.

ステップS16において、差分画像生成部63は、背景画像記憶部41に記憶された背景画像のデータと、ステップS15の処理で一時的に記憶された撮像画像のデータとを用いて、その差分画像のデータを生成する。   In step S <b> 16, the difference image generation unit 63 uses the background image data stored in the background image storage unit 41 and the captured image data temporarily stored in the process of step S <b> 15 to generate the difference image. Generate data.

ステップS17において、合成部64は、ステップS11の処理で取得された基準画像のデータと、ステップS16の処理で生成された差分画像のデータとを合成することによって、合成画像のデータを生成する。   In step S <b> 17, the combining unit 64 generates combined image data by combining the reference image data acquired in step S <b> 11 and the difference image data generated in step S <b> 16.

ステップS18において、設定部52は、ステップS17の処理で生成されたK回目の合成画像のデータを、新たな(次のK+1回目の)基準画像のデータとして設定する。   In step S18, the setting unit 52 sets the data of the Kth composite image generated in the process of step S17 as new (next K + 1) reference image data.

ステップS19において、合成部64は、ステップS18の処理で設定された新たな基準画像のデータ(K回目の合成画像のデータ)を基準画像記憶部42に上書き保存する。
これにより、画像合成処理は終了となる。
In step S19, the composition unit 64 overwrites and saves the new reference image data (Kth composite image data) set in step S18 in the reference image storage unit.
As a result, the image composition process ends.

さらに、図4及び図5を参照して、画像合成処理について具体的に説明する。
図4は、画像合成処理の具体的な処理結果を説明する図である。
Furthermore, with reference to FIG. 4 and FIG. 5, the image composition processing will be specifically described.
FIG. 4 is a diagram for explaining a specific processing result of the image composition processing.

図4(A)は、画像合成処理の事前準備として、0回目の記録用撮像により得られた撮像画像のデータ、即ち背景画像のデータの一例を示している。
即ち、図4の例では、K=1回目の画像合成処理が実行される前には、図4(A)に示す背景画像101のデータが背景画像記憶部41に記憶されていることになる。
なお、背景画像101には、背景の一部として家91が含まれている。
FIG. 4A illustrates an example of captured image data obtained by the 0th recording imaging, that is, background image data, as advance preparation for the image composition process.
That is, in the example of FIG. 4, the data of the background image 101 shown in FIG. 4A is stored in the background image storage unit 41 before the K = 1st image composition process is executed. .
The background image 101 includes a house 91 as a part of the background.

図4(B)は、K=1回目の画像合成処理の結果(途中結果含む)の具体例を示している。   FIG. 4B shows a specific example of the result of K = 1 first image composition processing (including the intermediate result).

図3のステップS11の処理によって、図4(B)のB−1に示すように、K=1回目の基準画像111のデータとして、図4(A)に示す背景画像101のデータが取得される。   3, the data of the background image 101 shown in FIG. 4A is acquired as the data of the reference image 111 for the first time K = 1, as shown in B-1 of FIG. 4B. The

その後、全押し操作がなされるまでの間、ステップS12乃至S14のループ処理が繰り返し実行される。この間、図4(B)のB−2に示すように、スルー画像の上に半透過状態の基準画像111が重畳された画像112が、表示部19に表示される。
画像112において、実線で示される家91や被写体92がスルー画像に含まれており、点線で示される家91が半透過状態の基準画像111に含まれている。
この場合、撮像者は、1回目の記録用撮像の前に、撮像装置1を移動させたりすることによって、半透過表示(図中点線)の家91を基準にして、1回目の被写体92の位置が適切になるような構図取りをすることができる。具体的には、撮像者は、半透過表示の家91(図中点線)と、スルー画像の家91(図中実線)とを略一致させるように構図取りをすればよい。
Thereafter, the loop process of steps S12 to S14 is repeatedly executed until the full-press operation is performed. During this time, as shown in B-2 of FIG. 4B, an image 112 in which the reference image 111 in a semi-transparent state is superimposed on the through image is displayed on the display unit 19.
In the image 112, a house 91 and a subject 92 indicated by a solid line are included in the through image, and a house 91 indicated by a dotted line is included in the semi-transparent reference image 111.
In this case, the imager moves the imaging device 1 before the first recording imaging, so that the first subject 92 is captured with reference to the house 91 of the semi-transmissive display (dotted line in the figure). Composition can be made so that the position is appropriate. Specifically, the photographer may compose the semi-transparent display house 91 (dotted line in the figure) and the through-image house 91 (solid line in the figure) so as to substantially coincide with each other.

そして、ユーザは、適切な構図となった段階で、全押し操作をすることで、1回目の記録用撮像を指示することができる。   Then, the user can instruct the first recording imaging by performing a full-press operation when an appropriate composition is achieved.

この場合、図3のステップS14においてYESであると判定されて、ステップS15の処理で、図4(B)のB−3に示すような撮像画像113のデータが記憶部20等に一時的に記憶される。   In this case, it is determined as YES in step S14 of FIG. 3, and the data of the captured image 113 as shown in B-3 of FIG. 4B is temporarily stored in the storage unit 20 or the like in the process of step S15. Remembered.

ステップS16の処理で、差分画像生成部63は、図4(A)の背景画像101(K=1回目の基準画像111)のデータと、撮像画像113のデータとを用いて、図4(B)のB−4に示すような差分画像114のデータが生成される。
この場合、差分画像114には、図4(A)の背景画像101に存在しなかった被写体92のみが含まれるようになる。換言すると、被写体92が切り抜かれたと把握することもできる。
In the process of step S16, the difference image generation unit 63 uses the data of the background image 101 (K = first reference image 111) of FIG. ) Of the difference image 114 as shown in B-4 of FIG.
In this case, the difference image 114 includes only the subject 92 that did not exist in the background image 101 of FIG. In other words, it can be understood that the subject 92 has been cut out.

ステップS17の処理で、K=1回目の基準画像111(背景画像101)のデータと、差分画像114のデータとが合成されることによって、図4(B)のB−5に示すような、K=1回目の合成画像115のデータが生成される。
即ち、K=1回目には、基準画像111に含まれていた背景(家91等)に対して、切り抜かれた被写体92が張り付けられたような合成画像115のデータが生成される。
In the process of step S17, the data of the reference image 111 (background image 101) for the first time K = 1 and the data of the difference image 114 are combined, as shown in B-5 of FIG. Data of K = first composite image 115 is generated.
That is, at the first time K = 1, data of the composite image 115 is generated in which the clipped subject 92 is pasted on the background (house 91 or the like) included in the reference image 111.

ステップS18の処理で、K=1回目の合成画像115のデータが、次の2(=K+1)回目の基準画像のデータとして設定され、ステップS19の処理で基準画像記憶部42に上書き保存される。   In the process of step S18, the data of the composite image 115 for the first time K = 1 is set as the data for the next (= K + 1) th reference image, and is overwritten and saved in the reference image storage unit 42 in the process of step S19. .

これにより、K=1回目の画像合成処理が終了となる。その後、K=2回目の記録用撮像が行われる場合に、K=2回目の画像処理が開始する。なお、K=2回目の画像処理の開始タイミングは、K=1回目の画像合成処理の終了後であれば足り、終了後即座であってもよいし、終了してから長期間(年単位でも可)経過してからであってもよい。   As a result, the first image composition processing of K = 1 is completed. Thereafter, when the recording for the second recording is performed, the second image processing starts. Note that the start timing of the second image processing for K = 2 is sufficient if it is after the end of the first image compositing process, and may be immediately after the end, or for a long period of time (even yearly). Yes) It may be after it has passed.

図4(C)は、K=2回目の画像合成処理の結果(途中結果含む)の具体例を示している。   FIG. 4C shows a specific example of the result (including the intermediate result) of the image synthesis process for the second time K = 2.

図3のステップS11の処理によって、図4(C)のC−1に示すように、K=2回目の基準画像121のデータとして、図4(B)に示すK=1回目の合成画像115のデータであったものが取得される。   As a result of the process of step S11 in FIG. 3, as shown in C-1 of FIG. 4C, as the data of the reference image 121 for the K = 2 time, the composite image 115 for the K = 1 time shown in FIG. What was the data of is acquired.

その後、全押し操作がなされるまでの間、ステップS12乃至S14のループ処理が繰り返し実行される。この間、図4(C)のC−2に示すように、スルー画像の上に半透過状態の基準画像121が重畳された画像122が、表示部19に表示される。
画像122において、実線で示される家91や被写体93がスルー画像に含まれており、点線で示される家91や被写体92が半透過状態の基準画像121に含まれている。
この場合、撮像者は、2回目の記録用撮像の前に、撮像装置1を移動させたりすることによって、半透過表示(図中点線)の家91や被写体92を基準にして、2回目の被写体93の位置が適切になるような構図取りをすることができる。具体的には、撮像者は、半透過表示の家91(図中点線)と、スルー画像の家91(図中実線)とを略一致させ、かつ、被写体92と被写体93とが重複しないように構図取りをすればよい。
Thereafter, the loop process of steps S12 to S14 is repeatedly executed until the full-press operation is performed. During this time, as shown by C-2 in FIG. 4C, an image 122 in which the semi-transmissive reference image 121 is superimposed on the through image is displayed on the display unit 19.
In the image 122, a house 91 and a subject 93 indicated by a solid line are included in the through image, and a house 91 and a subject 92 indicated by a dotted line are included in the semi-transparent reference image 121.
In this case, the imager moves the imaging device 1 before the second recording imaging, so that the second time with reference to the house 91 and the subject 92 in the semi-transparent display (dotted line in the figure). It is possible to compose the subject 93 so that the position of the subject 93 is appropriate. Specifically, the photographer substantially matches the semi-transparent display house 91 (dotted line in the figure) with the through-image house 91 (solid line in the figure) so that the subject 92 and the subject 93 do not overlap. You just have to compose it.

そして、ユーザは、適切な構図となった段階で、全押し操作をすることで、2回目の記録用撮像を指示することができる。   Then, the user can instruct the second recording imaging by performing a full-press operation when an appropriate composition is achieved.

この場合、図3のステップS14においてYESであると判定されて、ステップS15の処理で、図4(C)のC−3に示すような撮像画像123のデータが記憶部20等に一時的に記憶される。   In this case, it is determined as YES in step S14 of FIG. 3, and the data of the captured image 123 as shown in C-3 of FIG. 4C is temporarily stored in the storage unit 20 or the like in the process of step S15. Remembered.

ステップS16の処理で、差分画像生成部63は、図4(A)の背景画像101(K=1回目の基準画像111)のデータと、撮像画像123のデータとを用いて、図4(C)のC−4に示すような差分画像124のデータが生成される。
この場合、差分画像124には、図4(A)の背景画像101に存在しなかった被写体93のみが含まれるようになる。換言すると、被写体93が切り抜かれたと把握することもできる。
In the process of step S <b> 16, the difference image generation unit 63 uses the data of the background image 101 (K = first reference image 111) and the captured image 123 of FIG. ) Of the difference image 124 as shown in C-4 of FIG.
In this case, the difference image 124 includes only the subject 93 that did not exist in the background image 101 of FIG. In other words, it can be understood that the subject 93 has been cut out.

ステップS17の処理で、K=2回目の基準画像121(1回目の合成画像115)のデータと、差分画像124のデータとが合成されることによって、図4(B)のB−5に示すような、K=2回目の合成画像125のデータが生成される。
即ち、K=2回目には、基準画像121に含まれていた背景(家91等)や被写体92に対して、切り抜かれた被写体93が張り付けられたような合成画像125のデータが生成される。
In the process of step S17, the data of the K = 2th reference image 121 (first synthesized image 115) and the data of the difference image 124 are synthesized, which is shown in B-5 of FIG. 4B. In this way, data of the composite image 125 for the second time K = 2 is generated.
That is, at the second time of K = 2, data of the composite image 125 in which the clipped subject 93 is pasted on the background (house 91 and the like) and the subject 92 included in the reference image 121 is generated. .

ステップS18の処理で、K=2回目の合成画像125のデータが、次の3(=K+2)回目の基準画像のデータとして設定され、ステップS19の処理で基準画像記憶部42に上書き保存される。   In the process of step S18, the data of the composite image 125 for the K = 2th time is set as the data for the next 3 (= K + 2) reference image, and is overwritten and saved in the reference image storage unit 42 in the process of step S19. .

図5は、図4(C)に示すK=2回目の画像合成処理のさらに具体的な処理結果(途中経過含む)を説明する図である。
図5(A)は、K=2回目の図3のステップS16の具体的な処理結果(途中経過含む)を示している。
FIG. 5 is a diagram for explaining more specific processing results (including intermediate progress) of the second image composition processing of K = 2 shown in FIG.
FIG. 5A shows the specific processing result (including the progress) of step S16 in FIG.

上述したように、全押し操作がなされると、ステップS16の処理で、背景画像101(図4(B)に示すK=1回目の基準画像111)のデータと、撮像画像123のデータとを用いて、差分画像124のデータが得られる。
差分画像124は、上述したように、被写体93が切り抜かれた画像であるといえる。
As described above, when the full-press operation is performed, the data of the background image 101 (K = first reference image 111 shown in FIG. 4B) and the data of the captured image 123 are processed in step S16. By using this, data of the difference image 124 is obtained.
As described above, the difference image 124 can be said to be an image in which the subject 93 is cut out.

そこで、本実施形態ではさらに、差分画像生成部63は、切り抜き画像たる差分画像124に対して透過か非透過かの2値化処理を施すことによって、マスク画像131のデータを生成する。図5の例では、切り抜かれた部分(背景以外の部分)である被写体93が非透過画素(以下、白色とする)となり、背景が透過画素(以下、黒色とする)となるようなマスク画像131のデータが得られている。今、画像を構成する各画素をRGBの各値で表した場合、黒色は、RGBの各値がすべて0であり、白色は、RGB値の各値がすべて1となる。
ここで、二つの画素のうち、一方の画素が黒色(他方は、黒色以外の画素とする)である場合のAND処理とOR処理という本発明に関連した二つの処理について説明する。
今、黒色の画素のRGB値がすべて0であることから、二つの画素に対してAND処理をすると、AND処理後の画素は黒色になる。他方、二つの画素に対してOR処理をすると、黒色の画素のRGB値がすべて0であることから、OR処理後の画素は黒色以外の色になる。
本実施例では、これらAND処理とOR処理を処理の対象となる二つの画像の画素すべてに対して行う。
Therefore, in the present embodiment, the difference image generation unit 63 further generates the data of the mask image 131 by performing a binarization process of transmission or non-transmission on the difference image 124 that is a clipped image. In the example of FIG. 5, a mask image in which the subject 93 that is a cut-out portion (portion other than the background) becomes a non-transparent pixel (hereinafter, referred to as white) and the background becomes a transparent pixel (hereinafter, referred to as black). 131 data are obtained. If each pixel constituting the image is represented by RGB values, all values of RGB are 0 for black, and all values of RGB values are 1 for white.
Here, two processes related to the present invention, ie, an AND process and an OR process when one of the two pixels is black (the other is a pixel other than black) will be described.
Now, since the RGB values of black pixels are all 0, when AND processing is performed on two pixels, the pixel after AND processing becomes black. On the other hand, when the OR process is performed on the two pixels, the RGB values of the black pixels are all 0, so that the pixel after the OR process has a color other than black.
In the present embodiment, these AND processing and OR processing are performed on all the pixels of two images to be processed.

差分画像生成部63は、マスク画像131のデータに対して反転処理を施すことによって、反転画像132のデータとなる。図5の例では、切り抜かれた部分(背景以外の部分)である被写体93が黒色に反転し、背景が白色に反転した反転画像132のデータが得られている。
即ち、この反転画像132のデータが、ステップS16の最終的な処理結果である。従って、このような反転画像132のデータが得られると、処理はステップS17に進む。
The difference image generation unit 63 converts the data of the mask image 131 into the data of the inverted image 132 by performing the inversion process. In the example of FIG. 5, data of a reversed image 132 is obtained in which the subject 93 that is a cut-out portion (portion other than the background) is reversed to black and the background is reversed to white.
That is, the data of the reverse image 132 is the final processing result of step S16. Accordingly, when such inverted image 132 data is obtained, the process proceeds to step S17.

図5(B)は、K=2回目の図3のステップS17の具体的な処理結果(途中経過含む)を示している。   FIG. 5B shows the specific processing result (including the intermediate progress) of step S17 in FIG.

ステップS17の処理の最初の処理として、合成部64は、K=2回目の基準画像121(図4(B)に示す1回目の合成画像115)のデータと、差分画像124に基づく反転画像132のデータとに対してAND処理を施す。
これにより、図5(B)の中央に示すような、AND画像141のデータが生成される。つまり、AND処理後の画像は、基準画像121に反転画像132を重ね合わせたような画像となる。AND画像141においては、被写体93の部分が、反転画像132における黒色の部分のままとなっている。
そこで、合成部64はさらに、AND画像141のデータと、差分画像124のデータとに対してOR処理を施す。
これにより、図5(B)のB−8に示すような合成画像125のデータが生成される。即ち、基準画像121に含まれていた背景(家91等)や被写体92に対して、切り抜かれた被写体93が張り付けられたような合成画像125のデータが生成される。つまり、OR処理後の画像は、AND画像141に差分画像124を重ね合わせたような画像となる。
As the first process of the process of step S <b> 17, the synthesizer 64 performs the K = 2 second reference image 121 (first synthesized image 115 shown in FIG. 4B) data and the inverted image 132 based on the difference image 124. AND processing is performed on the data.
Thereby, data of the AND image 141 as shown in the center of FIG. 5B is generated. That is, the image after the AND process is an image in which the reverse image 132 is superimposed on the reference image 121. In the AND image 141, the portion of the subject 93 remains the black portion in the inverted image 132.
Therefore, the combining unit 64 further performs an OR process on the data of the AND image 141 and the data of the difference image 124.
As a result, data of the composite image 125 as shown in B-8 of FIG. 5B is generated. That is, data of the composite image 125 in which the clipped subject 93 is pasted on the background (the house 91 and the like) and the subject 92 included in the reference image 121 is generated. That is, the image after OR processing is an image in which the difference image 124 is superimposed on the AND image 141.

その後、ステップS18の処理で、K=2回目の合成画像125のデータが、次の3(=K+2)回目の基準画像のデータとして設定され、ステップS19の処理で基準画像記憶部42に上書き保存されると、K=2回目の画像合成処理は終了となる。   Thereafter, in the process of step S18, the data of the composite image 125 of the K = 2th time is set as the data of the next 3 (= K + 2) reference image, and is overwritten and saved in the reference image storage unit 42 in the process of step S19. Then, the K = 2 second image composition processing is completed.

以上説明したように、本実施形態の撮像装置1は、撮像画像取得部61と、基準画像取得部62と、表示制御部51と、設定部52と、差分画像生成部63と、合成部64と、を備えている。
撮像画像取得部61は、撮像画像データを取得する。基準画像取得部62は、K回目の基準画像データを取得する。
表示制御部51は、基準画像を、スルー画像たる撮像画像に重畳して表示部19に表示させるよう制御をする。
差分画像生成部63は、初回に取得された基準画像(即ち、本実施形態でいう背景画像)データと、K回目の記録用撮像により得られた撮像画像データとの差分を取ることによって、差分画像データを生成する。
合成部64は、K回目の基準画像データと、差分画像データとを合成することによって、K回目の合成画像データを生成する。
設定部52は、このK回目の合成画像データを、新たな(K+1回目の)基準画像データとして設定する。
これにより、1乃至K回の記録用撮像の各々により撮像された複数の被写体が合成された合成画像データを生成するにあたり、合成画像内の適切な位置に被写体が配置された構図で、各回の記録用撮像をすることが容易に可能になる。
As described above, the imaging apparatus 1 according to the present embodiment includes the captured image acquisition unit 61, the reference image acquisition unit 62, the display control unit 51, the setting unit 52, the difference image generation unit 63, and the synthesis unit 64. And.
The captured image acquisition unit 61 acquires captured image data. The reference image acquisition unit 62 acquires Kth reference image data.
The display control unit 51 controls the display unit 19 to display the reference image superimposed on the captured image that is a through image.
The difference image generation unit 63 obtains the difference by taking the difference between the reference image (that is, the background image referred to in the present embodiment) data acquired for the first time and the captured image data obtained by the K-th recording imaging. Generate image data.
The synthesizing unit 64 generates K-th synthesized image data by synthesizing the K-th reference image data and the difference image data.
The setting unit 52 sets the Kth composite image data as new (K + 1) th reference image data.
Thus, in generating composite image data in which a plurality of subjects captured by each of the 1 to K recording images is combined, the subject is arranged at an appropriate position in the composite image, and each time It is possible to easily take an image for recording.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

例えば、上述の実施形態では、表示制御部53は、基準画像を表示部19に半透過表示しているが、これに限られることではなく、基準画像と撮像画像とを差別表示できればよい。具体的には、基準画像の輪郭のみ表示したり、輪郭線のみを点線にしたり、基準画像の被写体を赤で強調したりする表示形態を採用することができる。   For example, in the above-described embodiment, the display control unit 53 semi-transparently displays the reference image on the display unit 19. However, the present invention is not limited to this, and it is sufficient that the reference image and the captured image can be displayed differentially. Specifically, it is possible to adopt a display form in which only the outline of the reference image is displayed, only the outline is a dotted line, or the subject of the reference image is highlighted in red.

また例えば、上述の実施形態では、本発明が適用される画像処理装置は、デジタルカメラ等の画像処理装置として構成される例として説明した。しかしながら、本発明は、画像処理装置に特に限定されず、撮像機能の有無を問わず(撮像画像のデータは別の装置から取得してもよい)、上述の画像処理を実行可能な電子機器一般に適用することができる。具体的には例えば、本発明は、パーソナルコンピュータ、ビデオカメラ、携帯型ナビゲーション装置、ポータブルゲーム機等に適用可能である。   For example, in the above-described embodiment, the image processing apparatus to which the present invention is applied has been described as an example configured as an image processing apparatus such as a digital camera. However, the present invention is not particularly limited to an image processing apparatus, and in general, an electronic apparatus that can execute the above-described image processing regardless of the presence or absence of an imaging function (data of captured images may be acquired from another apparatus) Can be applied. Specifically, for example, the present invention can be applied to a personal computer, a video camera, a portable navigation device, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。   The series of processes described above can be executed by hardware or can be executed by software.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。   When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium. The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in this. The removable medium is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which a program is recorded, the hard disk included in the storage unit 20 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

1・・・撮像装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・画像処理部、15・・・バス、16・・・入出力インターフェース、17・・・撮像部、18・・・操作部、19・・・表示部、20・・・記憶部、21・・・通信部、22・・・ドライブ、31・・・リムーバブルメディア、41・・・背景画像記憶部、42・・・基準画像記憶部、51・・・表示制御部、52・・・設定部、61・・・撮像画像取得部、62・・・基準画像取得部、63・・・差分画像生成部、64・・・合成部   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Image processing part, 15 ... Bus, 16 ... Input / output interface, 17 ... Image pickup unit, 18 ... operation unit, 19 ... display unit, 20 ... storage unit, 21 ... communication unit, 22 ... drive, 31 ... removable media, 41 ... background Image storage unit 42 ... Reference image storage unit 51 ... Display control unit 52 ... Setting unit 61 ... Captured image acquisition unit 62 ... Reference image acquisition unit 63 ... Difference image generation unit, 64... Synthesis unit

Claims (4)

画像データを取得する第1画像取得手段と、
この第1画像取得手段により取得された画像データの画像を表示する表示手段と、
合成の基準となる基準画像データを取得する第2画像取得手段と、
この第2画像取得手段により取得された基準画像データの画像を、前記第1画像取得手段により取得された画像データの画像に重畳して前記表示手段に表示させるよう制御をする表示制御手段と、
前記第2画像取得手段により取得された前記基準画像データと、前記第1画像取得手段により取得された前記画像データとの差分画像データを生成する差分画像生成手段と、
前記第2画像取得手段により取得された前記基準画像データと、前記差分画像生成手段により生成された前記差分画像データとを合成した合成画像データを生成する合成手段と、
この合成手段により生成された前記合成画像データを、新たな基準画像データとして設定する設定手段と、
を備えることを特徴とする画像処理装置。
First image acquisition means for acquiring image data;
Display means for displaying an image of the image data acquired by the first image acquisition means;
Second image acquisition means for acquiring reference image data as a reference for synthesis;
Display control means for controlling the image of the reference image data acquired by the second image acquisition means to be superimposed on the image of the image data acquired by the first image acquisition means and displayed on the display means;
Difference image generation means for generating difference image data between the reference image data acquired by the second image acquisition means and the image data acquired by the first image acquisition means;
A combining unit that generates combined image data by combining the reference image data acquired by the second image acquiring unit and the difference image data generated by the difference image generating unit;
Setting means for setting the combined image data generated by the combining means as new reference image data;
An image processing apparatus comprising:
画像を撮像し、その画像の画像データを出力する撮像手段をさらに備え、
前記第1画像取得手段は、前記撮像手段から出力された画像データを取得する、
ことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus further includes an imaging unit that captures an image and outputs image data of the image,
The first image acquisition means acquires the image data output from the imaging means;
The image processing apparatus according to claim 1.
画像を表示する表示手段を備える画像処理装置の画像処理方法であって、
画像データを取得する第1画像取得ステップと、
合成の基準となる基準画像データを取得する第2画像取得ステップと、
この第2画像取得ステップにて取得された基準画像データの画像を、前記第1画像取得ステップにて取得された画像データの画像に重畳して前記表示手段に表示させるよう制御する表示制御ステップと、
前記第2画像取得ステップにて取得された前記基準画像データと、前記第1画像取得ステップにて取得された前記画像データとの差分画像データを生成する差分画像生成ステップと、
前記第2画像取得ステップにて取得された前記基準画像データと、前記差分画像生成ステップにて生成された前記差分画像データとを合成して、合成画像データを生成する合成ステップと、
この合成ステップにて生成された前記合成画像データを、新たな基準画像データとして設定する設定ステップと、
を含むことを特徴とする画像処理方法。
An image processing method of an image processing apparatus including display means for displaying an image,
A first image acquisition step of acquiring image data;
A second image acquisition step of acquiring reference image data as a reference for synthesis;
A display control step for controlling the image of the reference image data acquired in the second image acquisition step to be displayed on the display unit in a manner superimposed on the image of the image data acquired in the first image acquisition step; ,
A difference image generation step for generating difference image data between the reference image data acquired in the second image acquisition step and the image data acquired in the first image acquisition step;
Combining the reference image data acquired in the second image acquisition step and the difference image data generated in the difference image generation step to generate combined image data;
A setting step for setting the combined image data generated in the combining step as new reference image data;
An image processing method comprising:
画像を表示する表示手段を備える画像処理装置のコンピュータを、
画像データを取得する第1画像取得手段、
合成の基準となる基準画像データを取得する第2画像取得手段、
この第2画像取得手段により取得された基準画像データの画像を、前記第1画像取得手段により取得された画像データの画像に重畳して前記表示手段に表示させるよう制御する表示制御手段、
前記第2画像取得手段により最初に取得された基準画像データと、前記第1画像取得手段により取得された画像データとの差分を取ることによって、差分画像データを生成する差分画像生成手段、
前記第2画像取得手段により取得された基準画像データと、前記差分画像生成手段により生成された差分画像データとを合成し、合成画像データを生成する合成手段、
この合成手段により生成された前記合成画像データを、新たな基準画像データとして設定する設定手段、
として機能させることを特徴とするプログラム。
A computer of an image processing apparatus comprising display means for displaying an image,
First image acquisition means for acquiring image data;
Second image acquisition means for acquiring reference image data that is a reference for synthesis;
Display control means for controlling the image of the reference image data acquired by the second image acquisition means to be superimposed on the image of the image data acquired by the first image acquisition means and displayed on the display means;
Difference image generation means for generating difference image data by taking a difference between the reference image data first acquired by the second image acquisition means and the image data acquired by the first image acquisition means;
A combining unit configured to combine the reference image data acquired by the second image acquiring unit and the difference image data generated by the difference image generating unit to generate combined image data;
Setting means for setting the combined image data generated by the combining means as new reference image data;
A program characterized by functioning as
JP2010201162A 2010-09-08 2010-09-08 Image processing apparatus, image processing method and program Pending JP2012060384A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010201162A JP2012060384A (en) 2010-09-08 2010-09-08 Image processing apparatus, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010201162A JP2012060384A (en) 2010-09-08 2010-09-08 Image processing apparatus, image processing method and program

Publications (2)

Publication Number Publication Date
JP2012060384A true JP2012060384A (en) 2012-03-22
JP2012060384A5 JP2012060384A5 (en) 2013-10-17

Family

ID=46056949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010201162A Pending JP2012060384A (en) 2010-09-08 2010-09-08 Image processing apparatus, image processing method and program

Country Status (1)

Country Link
JP (1) JP2012060384A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108604393A (en) * 2016-03-04 2018-09-28 新日铁住金系统集成株式会社 Information processing system, information processing unit, information processing method and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005026873A (en) * 2003-06-30 2005-01-27 Casio Comput Co Ltd Photographing method, imaging apparatus, and program
JP2009164857A (en) * 2007-12-29 2009-07-23 Morpho Inc Image data processing method, and image processing apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005026873A (en) * 2003-06-30 2005-01-27 Casio Comput Co Ltd Photographing method, imaging apparatus, and program
JP2009164857A (en) * 2007-12-29 2009-07-23 Morpho Inc Image data processing method, and image processing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108604393A (en) * 2016-03-04 2018-09-28 新日铁住金系统集成株式会社 Information processing system, information processing unit, information processing method and program

Similar Documents

Publication Publication Date Title
US8199222B2 (en) Low-light video frame enhancement
JP4631558B2 (en) Imaging apparatus and image processing program
JP5678911B2 (en) Image composition apparatus, image composition method, and program
JP5183297B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US8698924B2 (en) Tone mapping for low-light video frame enhancement
JP2012109898A (en) Imaging device, imaging method, and program
JP5664626B2 (en) Image processing apparatus, image processing method, and program
JP5186021B2 (en) Imaging apparatus, image processing apparatus, and imaging method
US20150334283A1 (en) Tone Mapping For Low-Light Video Frame Enhancement
JP2009017078A (en) Digital still camera and its operation controlling method
JP2012186593A (en) Image processing system, image processing method, and program
TW201120810A (en) Image processing apparatus, image processing method, and storage medium
JP2011114823A (en) Image processing apparatus, and imaging apparatus
JP4606486B2 (en) Image processing apparatus and photographing apparatus
JP2007243917A (en) Imaging apparatus and image processing program
JP2017011504A (en) Imaging device, image processing method and program
JP5829122B2 (en) Imaging apparatus and evaluation value generation apparatus
JP5820720B2 (en) Imaging device
JP5959194B2 (en) Imaging device
JP2007281843A (en) Imaging apparatus and image processing method
US10051200B2 (en) Imaging apparatus and control method thereof
JP7460595B2 (en) Image pickup device, image data processing method for image pickup device, and program
JP2012235198A (en) Imaging apparatus
JP2011135409A (en) Image processing apparatus and method, as well as program
JP2012060384A (en) Image processing apparatus, image processing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130830

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141202