JP2012060384A - Image processing apparatus, image processing method and program - Google Patents
Image processing apparatus, image processing method and program Download PDFInfo
- Publication number
- JP2012060384A JP2012060384A JP2010201162A JP2010201162A JP2012060384A JP 2012060384 A JP2012060384 A JP 2012060384A JP 2010201162 A JP2010201162 A JP 2010201162A JP 2010201162 A JP2010201162 A JP 2010201162A JP 2012060384 A JP2012060384 A JP 2012060384A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- unit
- data
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置及び画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
従来の技術として、今回の撮像時における被写体画像の輪郭を抽出した後、前回撮像した被写体画像の輪郭を抽出することで、今回の撮像時の輪郭に重畳表示させ、今回の撮像時の画角を前回の撮像の画角に合わせる技術が開示されている(特許文献1参照)。 As a conventional technique, after extracting the contour of the subject image at the time of the current imaging, the contour of the subject image captured at the previous time is extracted, so that it is superimposed on the contour at the time of the current imaging, and the angle of view at the time of the current imaging Has been disclosed (see Patent Document 1).
しかしながら、上記特許文献1では、前回の撮像画像の構図と略同一となるように今回の撮像をしたとしても、例えば、背景は略共通するが、それぞれ撮像時がそれぞれ異なる被写体同士が存在する合成画像を生成するまでは、対応していない。
However, in the above-mentioned
本発明は、このような状況に鑑みてなされたものであり、撮像時がそれぞれ異なる被写体が略共通した背景に存在するような合成画像を生成できるようにすることを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to be able to generate a composite image in which subjects at different times of imaging exist in a substantially common background.
上記目的を達成するため、請求項1の発明は、画像データを取得する第1画像取得手段と、この第1画像取得手段により取得された画像データの画像を表示する表示手段と、合成の基準となる基準画像データを取得する第2画像取得手段と、この第2画像取得手段により取得された基準画像データの画像を、前記第1画像取得手段により取得された画像データの画像に重畳して前記表示手段に表示させるよう制御をする表示制御手段と、前記第2画像取得手段により取得された前記基準画像データと、前記第1画像取得手段により取得された前記画像データとの差分画像データを生成する差分画像生成手段と、前記第2画像取得手段により取得された前記基準画像データと、前記差分画像生成手段により生成された前記差分画像データとを合成した合成画像データを生成する合成手段と、この合成手段により生成された前記合成画像データを、新たな基準画像データとして設定する設定手段と、を備えることを特徴とする。
In order to achieve the above object, the invention of
また、請求項2に記載の発明は、上記請求項1に記載の発明において、画像を撮像し、その画像の画像データを出力する撮像手段をさらに備え、前記第1画像取得手段は、前記撮像手段から出力された画像データを取得する、ことを特徴とする。
The invention according to
また、上記目的を達成するため、請求項3の発明は、画像を表示する表示手段を備える画像処理装置の画像処理方法であって、画像データを取得する第1画像取得ステップと、合成の基準となる基準画像データを取得する第2画像取得ステップと、この第2画像取得ステップにて取得された基準画像データの画像を、前記第1画像取得ステップにて取得された画像データの画像に重畳して前記表示手段に表示させるよう制御する表示制御ステップと、前記第2画像取得ステップにて取得された前記基準画像データと、前記第1画像取得ステップにて取得された前記画像データとの差分画像データを生成する差分画像生成ステップと、前記第2画像取得ステップにて取得された前記基準画像データと、前記差分画像生成ステップにて生成された前記差分画像データとを合成して、合成画像データを生成する合成ステップと、この合成ステップにて生成された前記合成画像データを、新たな基準画像データとして設定する設定ステップと、を含むことを特徴とする。
In order to achieve the above object, the invention of
また、上記目的を達成するため、請求項4の発明は、画像を表示する表示手段を備える画像処理装置のコンピュータを、画像データを取得する第1画像取得手段、合成の基準となる基準画像データを取得する第2画像取得手段、この第2画像取得手段により取得された基準画像データの画像を、前記第1画像取得手段により取得された画像データの画像に重畳して前記表示手段に表示させるよう制御する表示制御手段、前記第2画像取得手段により最初に取得された基準画像データと、前記第1画像取得手段により取得された画像データとの差分を取ることによって、差分画像データを生成する差分画像生成手段、前記第2画像取得手段により取得された基準画像データと、前記差分画像生成手段により生成された差分画像データとを合成し、合成画像データを生成する合成手段、この合成手段により生成された前記合成画像データを、新たな基準画像データとして設定する設定手段、として機能させるプログラムであることを特徴とする。 In order to achieve the above object, a fourth aspect of the present invention provides a computer of an image processing apparatus including display means for displaying an image, first image acquisition means for acquiring image data, reference image data serving as a reference for synthesis. A second image acquisition unit that acquires the image of the reference image data acquired by the second image acquisition unit and superimposing the image of the image data acquired by the first image acquisition unit on the display unit The display control means for controlling the difference between the reference image data first acquired by the second image acquisition means and the image data acquired by the first image acquisition means, thereby generating difference image data. The reference image data acquired by the difference image generation unit and the second image acquisition unit and the difference image data generated by the difference image generation unit are synthesized. Synthesizing means for generating a composite image data, the composite image data generated by the synthesizing means, characterized in that it is a program to function setting means as, for setting a new reference image data.
本発明によれば、撮像時がそれぞれ異なる被写体が略共通した背景に存在するような合成画像を生成することが可能になる。 According to the present invention, it is possible to generate a composite image in which subjects that are different at the time of imaging exist in a substantially common background.
以下、本発明の一実施形態を図面に基づいて説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
図1は、本発明に係る画像処理装置の一実施形態としての撮像装置1のハードウェアの構成を示すブロック図である。撮像装置1は、例えばデジタルカメラにより構成することができる。
FIG. 1 is a block diagram showing a hardware configuration of an
撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、画像処理部14と、バス15と、入出力インターフェース16と、入出力インターフェース16と、撮像部17と、操作部18と、表示部19と、記憶部20と、通信部21と、ドライブ22と、を備えている。
The
CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。なお、CPU11に設けられている表示制御部51及び設定部52については、図2を参照して後述する。
RAM13にはまた、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The
The
画像処理部14は、DSP(Digital Signal Processor)や、VRAM(Video Random Access Memory)等から構成されており、CPU11と協働して、画像のデータに対して各種画像処理を施す。
ここで、本実施形態では、撮像装置1による画像の処理単位は一枚の静止画像であり、このような処理単位としての静止画像が、本明細書では「フレーム」と呼ばれている。以下、特に断りがない限り、画像とはフレームを意味するものとする。
例えば、画像処理部14は、後述する撮像部17から出力される撮像画像のデータに対して、ノイズ低減、ホワイトバランス、手ぶれ補正等の画像処理を施す。
本実施形態では、画像処理部14は、さらに、差分画像生成部63と、合成部64と、を備えている。ただし、撮像画像取得部61乃至合成部64の詳細については、図2を参照して後述する。
The
Here, in this embodiment, the processing unit of the image by the
For example, the
In the present embodiment, the
CPU11、ROM12、RAM13、及び画像処理部14は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、操作部18、表示部19、記憶部20、通信部21、及びドライブ22が接続されている。
The
撮像部17は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
Although not shown, the
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.
イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部17の出力信号として出力される。
なお、以下、撮像部17の出力信号が、「撮像画像のデータ」であるものとする。従って、撮像部17からは撮像画像のデータが出力されて、CPU11や画像処理部14等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and output as an output signal of the
Hereinafter, it is assumed that the output signal of the
操作部18は、各種釦等で構成され、ユーザの指示操作を受け付ける。
表示部19は、液晶ディスプレイ等で構成され、各種画像を表示する。
記憶部20は、DRAM(Dynamic Random Access Memory)等で構成され、画像処理部14等から出力された画像のデータを一時的に記憶する。また、記憶部20は、画像処理部14等の処理に必要な各種データも記憶する。
通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The
The
The
The
ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなるリムーバブルメディア31が適宜装着される。ドライブ22によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。
A
このような構成を有する撮像装置1は、撮像の前後を通じて、スルー撮像処理及びスルー表示処理を開始する。
即ち、撮像装置1は、撮像部17による撮像動作を継続させ、その間、当該撮像部17を介して画像処理部14から順次出力される撮像画像(フレーム)のデータを、メモリ(本実施形態では記憶部20)に一時的に記憶させる。このような一連の処理が、ここでいう「スルー撮像処理」である。
また、撮像装置1は、スルー撮像時にメモリ(本実施形態では記憶部20)に一時的に記録された各撮像画像(フレーム)のデータを順次読み出して、各々に対応する撮像画像を表示部19に順次表示させる。このような一連の制御処理が、ここでいう「スルー表示処理」である。なお、スルー表示処理により表示部19に表示されている撮像画像を、以下、「スルー画像」と呼ぶ。
The
That is, the
The
ユーザは、スルー画像をみながら構図を決めた後、操作部18のシャッタスイッチ(図示せず)を下限まで押下することで、撮像画像のデータの記録の指示をすることができる。なお、このように、シャッタスイッチを下限まで押下する操作を、以下、「全押し操作」又は単に「全押し」と呼ぶ。
なお、以下、スルー撮像処理及びスルー表示処理のための撮像と区別すべく、全押し操作がなされて記録の指示がなされたときの撮像を、「記録用撮像」と呼ぶ。
After determining the composition while viewing the through image, the user can instruct the recording of the captured image data by pressing a shutter switch (not shown) of the
Hereinafter, in order to distinguish from imaging for through imaging processing and through display processing, imaging when a full-press operation is performed and a recording instruction is issued is referred to as “recording imaging”.
さらに、本実施形態では、撮像装置1は、異なる時点に各々撮像された複数の被写体が合成された合成画像のデータを生成するにあたり、次のような一連の処理を実行することができる。
撮像装置1は、当該合成画像のデータの生成のための事前準備として、0回目の記録用撮像を行う。なお、ここでは、合成画像のデータを生成するための初回の記録用撮像を1回目とするため、事前準備の回は0回目となる。
撮像装置1は、0回目の記録用撮像により得られた撮像画像のデータを、1回目の基準画像のデータとして保持し、また、当該基準画像を表示部19に半透過表示させる。
即ち、撮像装置1は、1回目の記録用撮像の前に、スルー画像に対して半透過状態の1回目の基準画像を重畳して表示部19に表示させる。
この場合、撮像者は、スルー画像の上に、背景が半透過表示されている様子を視認することができる。よって、撮像者は、1回目の記録用撮像の前に、撮像装置1を移動させたりすることによって、半透過表示された背景を基準にして、1回目の被写体の位置が適切になるような構図取りをすることができる。
そして、ユーザは、適切な構図となった段階で、全押し操作をすることで、1回目の記録用撮像を指示することができる。
撮像装置1は、このような指示を受けて、1回目の記録用撮像を行い、その結果得られる撮像画像のデータと、1回目の基準画像(後述する背景画像)のデータとの差分を画素単位で取ることによって、各差分値が各画素値となった画像(以下、「差分画像」と呼ぶ)のデータを生成する。
そして、撮像装置1は、差分画像と基準画像との各データを合成することによって、1回目の合成画像のデータを生成する。
さらに、撮像装置1は、1回目の合成画像のデータを、次回(2回目)の基準画像のデータとして設定して保持する。
撮像装置1は、2回目の記録用撮像の前に、スルー画像に対して半透過状態の2回目の基準画像を重畳して表示部19に表示させる。
この場合、2回目の基準画像のデータとは、前回(1回目)の記録用撮像時に生成された合成画像のデータであるため、2回目の基準画像には、背景の他、前回まで(1回目)の記録用撮像時の被写体も含まれている。よって、撮像者は、スルー画像の上に、背景のみならず、前回まで(1回目)の記録用撮像時の被写体が半透過表示されている様子を視認することができる。よって、撮像者は、撮像装置1を移動させたりすることによって、半透過表示された背景及び前回まで(1回目)の記録用撮像時の被写体を基準にして、今回(2回目)の被写体の位置が適切になるような構図取りをすることができる。即ち、撮像者は、合成画像内の適切な位置に被写体が配置された構図で、今回(2回目)の記録用撮像を指示することができる。
即ち、撮像者は、適切な構図となった段階で、全押し操作をすることで、今回(2回目)の記録用撮像を指示することができる。
撮像装置1は、このような指示を受けて、今回(2回目)の記録用撮像を行い、その結果得られる撮像画像のデータと、1回目の基準画像(後述する背景画像)のデータとを用いて、差分画像のデータを生成する。
そして、撮像装置1は、差分画像と2回目の基準画像との各データを合成することによって、2回目の合成画像のデータを生成する。
さらに、撮像装置1は、2回目の合成画像のデータを、次回(3回目)の基準画像のデータとして設定して保持する。
以降、3回以降の記録用撮像が行われる毎に、上述した一連の処理が繰り返し実行される。
なお、各回の記録用撮像は、前回の記録用撮像がなされてから、即座に実行されてもよいし、長期間経過後(例えば、年単位でも可)に実行されてもよい。
このような一連の処理の繰り返しを、以下、「画像合成処理」と呼ぶ。
Furthermore, in the present embodiment, the
The
The
That is, the
In this case, the photographer can visually recognize a state in which the background is translucently displayed on the through image. Therefore, the imager moves the
Then, the user can instruct the first recording imaging by performing a full-press operation when an appropriate composition is achieved.
In response to such an instruction, the
And the
Furthermore, the
The
In this case, since the data of the second reference image is data of the composite image generated at the time of the previous (first) recording for recording, the second reference image includes the background (1) The subject at the time of recording for the second time) is also included. Therefore, the photographer can visually recognize not only the background but also the state in which the subject at the time of recording imaging for the first time is displayed semi-transparently on the through image. Therefore, the imager moves the
That is, the photographer can instruct the current (second) recording for recording by performing a full-press operation when an appropriate composition is achieved.
In response to such an instruction, the
Then, the
Furthermore, the
Thereafter, the above-described series of processing is repeatedly executed every time recording for recording is performed three times or more.
Note that each recording imaging may be performed immediately after the previous recording imaging is performed, or may be performed after a long period of time (for example, in units of years).
Such a repetition of a series of processing is hereinafter referred to as “image composition processing”.
図2は、図1の撮像装置1が画像合成処理を実行するための機能的構成を示す機能ブロック図である。
図2においては、図1の撮像装置1の構成のうち、CPU11と、画像処理部14と、撮像部17と、表示部19と、記憶部20と、のみが図示されている。
CPU11においては、表示制御部51と、設定部52と、が設けられている。
なお、表示制御部51及び設定部52は、本実施形態では、CPU11と、当該CPU11により実行されるプログラムとの組み合わせ、即ち、ハードウェアとソフトウェアとの組み合わせにより構成されている。しかしながら、これは例示であって、表示制御部51及び設定部52の機能の少なくとも一部を、CPU11以外の他の構成要素(画像処理部14等)に移譲させることも当然可能である。
また、画像処理部14には、撮像画像取得部61乃至合成部64が設けられている。なお、撮像画像取得部61乃至合成部64が画像処理部14に設けられていることは例示であって、撮像画像取得部61乃至合成部64の少なくとも一部を、画像処理部14以外の他の構成要素(CPU11等)に移譲させることも当然可能である。
記憶部20の一領域として、背景画像記憶部41及び基準画像記憶部42が設けられている。なお、背景画像記憶部41及び基準画像記憶部42が記憶部20の一領域として設けられていることは例示であって、その他例えばリムーバブルメディア31の一領域として設けられるようにしてもよい。
FIG. 2 is a functional block diagram showing a functional configuration for the
In FIG. 2, only the
In the
In the present embodiment, the
The
As one area of the
背景画像記憶部41は、0回目の記録用撮像(合成画像を生成するための事前準備としての記録用撮像)により得られた撮像画像のデータを、背景画像のデータとして取得する。
The background
基準画像記憶部42は、1以上の基準画像のデータを記憶する。
具体的には、0回目の記録用撮像(事前準備としての記録用撮像)では、撮像画像のデータが基準画像のデータとして基準画像記憶部42に記憶される。即ち、0回目の記録用撮像では、背景画像記憶部41に記憶された背景画像のデータが、基準画像のデータとして基準画像記憶部42に記憶される。
その後、各回の記録用撮像の毎、後述する合成部64から順次出力されてくる合成画像のデータが、次回の基準画像のデータとして基準画像記憶部42に記憶される。
このように、記録用撮像の回数が進む度に、基準画像記憶部42に記憶される基準画像のデータは更新されていく。
The reference
Specifically, in the 0th recording imaging (recording imaging as a preliminary preparation), captured image data is stored in the reference
Thereafter, for each recording imaging, the composite image data sequentially output from the
In this manner, the reference image data stored in the reference
表示制御部51は、撮像画像取得部61から順次供給されるデータにより表わされる撮像画像を、スルー画像として表示部19に表示させる制御を実行する。さらに、表示制御部51は、基準画像取得部62から供給されるデータにより表わされる基準画像を半透過画像にして、スルー画像に重畳して表示させる制御を実行する。
The
設定部52は、各回の記録用撮像の毎、後述する合成部64により順次生成される合成画像のデータを、新たな(次回の)基準画像のデータとして設定する。
このようにして設定部52により設定された新たな基準画像のデータは、合成部64から出力されて、基準画像記憶部42に記憶される。
The setting
The new reference image data set by the setting
撮像画像取得部61は、撮像部17から順次出力されてくる撮像画像のデータを取得する。
撮像画像取得部61は、順次取得した撮像画像のデータを、スルー画像のデータとして表示制御部51に供給する。また、撮像画像取得部61は、取得した撮像画像のデータが、記録用撮像時に出力されたものである場合、当該撮像画像のデータを差分画像生成部63に供給する。さらにまた、撮像画像取得部61は、取得した撮像画像のデータが、0回目の記録用撮像時(事前準備としての記録用撮像時)に出力されたものである場合、当該撮像画像のデータを背景画像のデータとして背景画像記憶部41に供給する。
The captured
The captured
基準画像取得部62は、基準画像のデータを基準画像記憶部42から取得して、表示制御部51及び合成部64に供給する。
The reference
差分画像生成部63は、1回目以降の記録用撮像時に得られた撮像画像のデータと、背景画像記憶部41に記憶された背景画像のデータ(事前準備としての0回目の記録用撮像時に得られた撮像画像のデータ、即ち1回目の基準画像のデータ)とを用いて、差分画像のデータを生成する。
なお、差分画像のデータの生成手法の具体例については、図4及び図5を参照して後述する。
差分画像生成部63により生成された差分画像のデータは、合成部64に供給される。
The difference
A specific example of a method for generating difference image data will be described later with reference to FIGS. 4 and 5.
The difference image data generated by the difference
合成部64は、基準画像取得部62から供給された基準画像のデータと、差分画像生成部63から供給された差分画像のデータとを合成することによって、合成画像のデータを生成する。
合成部64は、生成した合成画像のデータを、設定部52により設定された新たな(次回の)基準画像のデータとして、基準画像記憶部42に記憶させる。
The combining
The synthesizing
次に、図3を参照して、撮像装置1の処理のうち、このような図2の機能的構成により実現される画像合成処理について説明する。
図3は、画像合成処理の流れを説明するフローチャートである。
Next, with reference to FIG. 3, image compositing processing realized by the functional configuration of FIG. 2 will be described in the processing of the
FIG. 3 is a flowchart for explaining the flow of the image composition process.
図3の画像合成処理は、K回目(Kは1以上の整数値)の記録用撮像が行われる場合に実行される処理である。
即ち、少なくとも事前準備としての0回目の記録用撮像が完了しており、0回目の記録用撮像によって得られた撮像画像のデータ(1回目の基準画像のデータ)が、背景画像のデータとして背景画像記憶部41に記憶されていることを前提とする。
また、スルー撮像処理及びスルー表示処理は、図3の画像処理の実行前後を通じて継続して実行されていることを前提とする。即ち、表示部19にはスルー画像が常時表示されていることを前提とする。
このような前提の下、K=1回目の画像合成処理は、0回目の記録用撮像が終了したことを契機として開始され、その後、K=2回目以降の画像合成処理は、前回のK−1回目の画像合成処理が週慮したことを契機として開始される。即ち、記録用撮像が繰り返し行われている限り、図3の画像合成処理は繰り返し実行される。
The image composition process in FIG. 3 is a process that is executed when the K-th image capturing for recording (K is an integer value of 1 or more) is performed.
That is, at least the 0th recording imaging as the preliminary preparation is completed, and the captured image data (first reference image data) obtained by the 0th recording imaging is used as the background image data. It is assumed that it is stored in the
Further, it is assumed that the through imaging process and the through display process are continuously executed before and after the execution of the image processing of FIG. That is, it is assumed that a through image is always displayed on the
Under such a premise, the first image composition processing for K = 1 is started when the recording for the 0th recording is completed, and then the second and subsequent image composition processing is performed for the previous K−. The first image compositing process is started when a week is considered. That is, as long as the recording imaging is repeatedly performed, the image composition processing in FIG. 3 is repeatedly performed.
ステップS11において、基準画像取得部62は、K回目の基準画像のデータを基準画像記憶部42から取得する。
In step S <b> 11, the reference
ステップS12において、撮像画像取得部61は、撮像部17から出力されてくる撮像画像のデータを取得する。
In step S <b> 12, the captured
ステップS13において、表示制御部53は、撮像画像をスルー画像として、半透過状態の基準画像を重畳して表示部19に表示させる。
In step S <b> 13, the display control unit 53 causes the
ステップS14において、撮像画像取得部61は、全押し操作がなされたか否かを判定する。
In step S14, the captured
全押し操作がなされていない場合、ステップS14においてNOであると判定されて、処理はステップS12に戻される。即ち、全押し操作がなされるまでの間、ステップS12乃至S14のループ処理が繰り返し実行される。この間、撮像部17から順次出力されてくるデータにより表わされる撮像画像がスルー画像となり、即ち、スルー画像が逐次更新され、逐次更新されるスルー画像の上に半透過状態の基準画像が重畳して表示される。
If the full pressing operation has not been performed, it is determined as NO in Step S14, and the process returns to Step S12. That is, the loop processing of steps S12 to S14 is repeatedly executed until the full pressing operation is performed. During this time, the captured image represented by the data sequentially output from the
ここで、K(>1)回目の画像合成処理においては、ステップS11の処理で取得される今回(K回目)の基準画像のデータとは、前回(K−1回目)の記録用撮像時に生成された合成画像のデータである。よって、K回目の基準画像には、背景の他、前回まで(1乃至K−1回目)の記録用撮像時の各々の被写体も含まれている。よって、撮像者は、スルー画像の上に、背景のみならず、前回まで(1乃至K−1回目)の記録用撮像時の各々の被写体が半透過表示されている様子を視認することができる。
よって、撮像者は、撮像装置1を移動させたりすることによって、半透過表示された背景及び前回まで(1乃至K−1回目)の記録用撮像時の各々の被写体を基準にして、今回(K回目)の被写体の位置が適切になるような構図取りをすることができる。即ち、撮像者は、合成画像内の適切な位置に被写体が配置された構図で、今回(K回目)の記録用撮像を指示することができる。
即ち、撮像者は、適切な構図となった段階で、全押し操作をすることで、今回(K回目)の記録用撮像を指示することができる。
Here, in the K (> 1) -th image compositing process, the current (K-th) reference image data acquired in the process of step S11 is generated during the previous (K-1) recording imaging. This is the synthesized image data. Therefore, the K-th reference image includes not only the background but also the respective subjects at the time of recording imaging for the first time (1st to (K-1) th). Therefore, the photographer can visually recognize not only the background but also each subject at the time of the first (Kth to (K-1) th) recording images being displayed semi-transparently on the through image. .
Therefore, the imager moves the
That is, the photographer can instruct the current (Kth) recording for recording by performing a full-press operation when an appropriate composition is achieved.
この場合、ステップS14においてYESであると判定されて、処理はステップS15に進む。 In this case, it is determined as YES in Step S14, and the process proceeds to Step S15.
ステップS15において、撮像画像取得部61は、撮像画像のデータを記憶部20等に一時的に記憶する。
In step S15, the captured
ステップS16において、差分画像生成部63は、背景画像記憶部41に記憶された背景画像のデータと、ステップS15の処理で一時的に記憶された撮像画像のデータとを用いて、その差分画像のデータを生成する。
In step S <b> 16, the difference
ステップS17において、合成部64は、ステップS11の処理で取得された基準画像のデータと、ステップS16の処理で生成された差分画像のデータとを合成することによって、合成画像のデータを生成する。
In step S <b> 17, the combining
ステップS18において、設定部52は、ステップS17の処理で生成されたK回目の合成画像のデータを、新たな(次のK+1回目の)基準画像のデータとして設定する。
In step S18, the setting
ステップS19において、合成部64は、ステップS18の処理で設定された新たな基準画像のデータ(K回目の合成画像のデータ)を基準画像記憶部42に上書き保存する。
これにより、画像合成処理は終了となる。
In step S19, the
As a result, the image composition process ends.
さらに、図4及び図5を参照して、画像合成処理について具体的に説明する。
図4は、画像合成処理の具体的な処理結果を説明する図である。
Furthermore, with reference to FIG. 4 and FIG. 5, the image composition processing will be specifically described.
FIG. 4 is a diagram for explaining a specific processing result of the image composition processing.
図4(A)は、画像合成処理の事前準備として、0回目の記録用撮像により得られた撮像画像のデータ、即ち背景画像のデータの一例を示している。
即ち、図4の例では、K=1回目の画像合成処理が実行される前には、図4(A)に示す背景画像101のデータが背景画像記憶部41に記憶されていることになる。
なお、背景画像101には、背景の一部として家91が含まれている。
FIG. 4A illustrates an example of captured image data obtained by the 0th recording imaging, that is, background image data, as advance preparation for the image composition process.
That is, in the example of FIG. 4, the data of the
The
図4(B)は、K=1回目の画像合成処理の結果(途中結果含む)の具体例を示している。 FIG. 4B shows a specific example of the result of K = 1 first image composition processing (including the intermediate result).
図3のステップS11の処理によって、図4(B)のB−1に示すように、K=1回目の基準画像111のデータとして、図4(A)に示す背景画像101のデータが取得される。
3, the data of the
その後、全押し操作がなされるまでの間、ステップS12乃至S14のループ処理が繰り返し実行される。この間、図4(B)のB−2に示すように、スルー画像の上に半透過状態の基準画像111が重畳された画像112が、表示部19に表示される。
画像112において、実線で示される家91や被写体92がスルー画像に含まれており、点線で示される家91が半透過状態の基準画像111に含まれている。
この場合、撮像者は、1回目の記録用撮像の前に、撮像装置1を移動させたりすることによって、半透過表示(図中点線)の家91を基準にして、1回目の被写体92の位置が適切になるような構図取りをすることができる。具体的には、撮像者は、半透過表示の家91(図中点線)と、スルー画像の家91(図中実線)とを略一致させるように構図取りをすればよい。
Thereafter, the loop process of steps S12 to S14 is repeatedly executed until the full-press operation is performed. During this time, as shown in B-2 of FIG. 4B, an
In the
In this case, the imager moves the
そして、ユーザは、適切な構図となった段階で、全押し操作をすることで、1回目の記録用撮像を指示することができる。 Then, the user can instruct the first recording imaging by performing a full-press operation when an appropriate composition is achieved.
この場合、図3のステップS14においてYESであると判定されて、ステップS15の処理で、図4(B)のB−3に示すような撮像画像113のデータが記憶部20等に一時的に記憶される。
In this case, it is determined as YES in step S14 of FIG. 3, and the data of the captured
ステップS16の処理で、差分画像生成部63は、図4(A)の背景画像101(K=1回目の基準画像111)のデータと、撮像画像113のデータとを用いて、図4(B)のB−4に示すような差分画像114のデータが生成される。
この場合、差分画像114には、図4(A)の背景画像101に存在しなかった被写体92のみが含まれるようになる。換言すると、被写体92が切り抜かれたと把握することもできる。
In the process of step S16, the difference
In this case, the
ステップS17の処理で、K=1回目の基準画像111(背景画像101)のデータと、差分画像114のデータとが合成されることによって、図4(B)のB−5に示すような、K=1回目の合成画像115のデータが生成される。
即ち、K=1回目には、基準画像111に含まれていた背景(家91等)に対して、切り抜かれた被写体92が張り付けられたような合成画像115のデータが生成される。
In the process of step S17, the data of the reference image 111 (background image 101) for the first time K = 1 and the data of the
That is, at the first time K = 1, data of the
ステップS18の処理で、K=1回目の合成画像115のデータが、次の2(=K+1)回目の基準画像のデータとして設定され、ステップS19の処理で基準画像記憶部42に上書き保存される。
In the process of step S18, the data of the
これにより、K=1回目の画像合成処理が終了となる。その後、K=2回目の記録用撮像が行われる場合に、K=2回目の画像処理が開始する。なお、K=2回目の画像処理の開始タイミングは、K=1回目の画像合成処理の終了後であれば足り、終了後即座であってもよいし、終了してから長期間(年単位でも可)経過してからであってもよい。 As a result, the first image composition processing of K = 1 is completed. Thereafter, when the recording for the second recording is performed, the second image processing starts. Note that the start timing of the second image processing for K = 2 is sufficient if it is after the end of the first image compositing process, and may be immediately after the end, or for a long period of time (even yearly). Yes) It may be after it has passed.
図4(C)は、K=2回目の画像合成処理の結果(途中結果含む)の具体例を示している。 FIG. 4C shows a specific example of the result (including the intermediate result) of the image synthesis process for the second time K = 2.
図3のステップS11の処理によって、図4(C)のC−1に示すように、K=2回目の基準画像121のデータとして、図4(B)に示すK=1回目の合成画像115のデータであったものが取得される。
As a result of the process of step S11 in FIG. 3, as shown in C-1 of FIG. 4C, as the data of the
その後、全押し操作がなされるまでの間、ステップS12乃至S14のループ処理が繰り返し実行される。この間、図4(C)のC−2に示すように、スルー画像の上に半透過状態の基準画像121が重畳された画像122が、表示部19に表示される。
画像122において、実線で示される家91や被写体93がスルー画像に含まれており、点線で示される家91や被写体92が半透過状態の基準画像121に含まれている。
この場合、撮像者は、2回目の記録用撮像の前に、撮像装置1を移動させたりすることによって、半透過表示(図中点線)の家91や被写体92を基準にして、2回目の被写体93の位置が適切になるような構図取りをすることができる。具体的には、撮像者は、半透過表示の家91(図中点線)と、スルー画像の家91(図中実線)とを略一致させ、かつ、被写体92と被写体93とが重複しないように構図取りをすればよい。
Thereafter, the loop process of steps S12 to S14 is repeatedly executed until the full-press operation is performed. During this time, as shown by C-2 in FIG. 4C, an
In the
In this case, the imager moves the
そして、ユーザは、適切な構図となった段階で、全押し操作をすることで、2回目の記録用撮像を指示することができる。 Then, the user can instruct the second recording imaging by performing a full-press operation when an appropriate composition is achieved.
この場合、図3のステップS14においてYESであると判定されて、ステップS15の処理で、図4(C)のC−3に示すような撮像画像123のデータが記憶部20等に一時的に記憶される。
In this case, it is determined as YES in step S14 of FIG. 3, and the data of the captured
ステップS16の処理で、差分画像生成部63は、図4(A)の背景画像101(K=1回目の基準画像111)のデータと、撮像画像123のデータとを用いて、図4(C)のC−4に示すような差分画像124のデータが生成される。
この場合、差分画像124には、図4(A)の背景画像101に存在しなかった被写体93のみが含まれるようになる。換言すると、被写体93が切り抜かれたと把握することもできる。
In the process of step S <b> 16, the difference
In this case, the
ステップS17の処理で、K=2回目の基準画像121(1回目の合成画像115)のデータと、差分画像124のデータとが合成されることによって、図4(B)のB−5に示すような、K=2回目の合成画像125のデータが生成される。
即ち、K=2回目には、基準画像121に含まれていた背景(家91等)や被写体92に対して、切り抜かれた被写体93が張り付けられたような合成画像125のデータが生成される。
In the process of step S17, the data of the K = 2th reference image 121 (first synthesized image 115) and the data of the
That is, at the second time of K = 2, data of the
ステップS18の処理で、K=2回目の合成画像125のデータが、次の3(=K+2)回目の基準画像のデータとして設定され、ステップS19の処理で基準画像記憶部42に上書き保存される。
In the process of step S18, the data of the
図5は、図4(C)に示すK=2回目の画像合成処理のさらに具体的な処理結果(途中経過含む)を説明する図である。
図5(A)は、K=2回目の図3のステップS16の具体的な処理結果(途中経過含む)を示している。
FIG. 5 is a diagram for explaining more specific processing results (including intermediate progress) of the second image composition processing of K = 2 shown in FIG.
FIG. 5A shows the specific processing result (including the progress) of step S16 in FIG.
上述したように、全押し操作がなされると、ステップS16の処理で、背景画像101(図4(B)に示すK=1回目の基準画像111)のデータと、撮像画像123のデータとを用いて、差分画像124のデータが得られる。
差分画像124は、上述したように、被写体93が切り抜かれた画像であるといえる。
As described above, when the full-press operation is performed, the data of the background image 101 (K =
As described above, the
そこで、本実施形態ではさらに、差分画像生成部63は、切り抜き画像たる差分画像124に対して透過か非透過かの2値化処理を施すことによって、マスク画像131のデータを生成する。図5の例では、切り抜かれた部分(背景以外の部分)である被写体93が非透過画素(以下、白色とする)となり、背景が透過画素(以下、黒色とする)となるようなマスク画像131のデータが得られている。今、画像を構成する各画素をRGBの各値で表した場合、黒色は、RGBの各値がすべて0であり、白色は、RGB値の各値がすべて1となる。
ここで、二つの画素のうち、一方の画素が黒色(他方は、黒色以外の画素とする)である場合のAND処理とOR処理という本発明に関連した二つの処理について説明する。
今、黒色の画素のRGB値がすべて0であることから、二つの画素に対してAND処理をすると、AND処理後の画素は黒色になる。他方、二つの画素に対してOR処理をすると、黒色の画素のRGB値がすべて0であることから、OR処理後の画素は黒色以外の色になる。
本実施例では、これらAND処理とOR処理を処理の対象となる二つの画像の画素すべてに対して行う。
Therefore, in the present embodiment, the difference
Here, two processes related to the present invention, ie, an AND process and an OR process when one of the two pixels is black (the other is a pixel other than black) will be described.
Now, since the RGB values of black pixels are all 0, when AND processing is performed on two pixels, the pixel after AND processing becomes black. On the other hand, when the OR process is performed on the two pixels, the RGB values of the black pixels are all 0, so that the pixel after the OR process has a color other than black.
In the present embodiment, these AND processing and OR processing are performed on all the pixels of two images to be processed.
差分画像生成部63は、マスク画像131のデータに対して反転処理を施すことによって、反転画像132のデータとなる。図5の例では、切り抜かれた部分(背景以外の部分)である被写体93が黒色に反転し、背景が白色に反転した反転画像132のデータが得られている。
即ち、この反転画像132のデータが、ステップS16の最終的な処理結果である。従って、このような反転画像132のデータが得られると、処理はステップS17に進む。
The difference
That is, the data of the reverse image 132 is the final processing result of step S16. Accordingly, when such inverted image 132 data is obtained, the process proceeds to step S17.
図5(B)は、K=2回目の図3のステップS17の具体的な処理結果(途中経過含む)を示している。 FIG. 5B shows the specific processing result (including the intermediate progress) of step S17 in FIG.
ステップS17の処理の最初の処理として、合成部64は、K=2回目の基準画像121(図4(B)に示す1回目の合成画像115)のデータと、差分画像124に基づく反転画像132のデータとに対してAND処理を施す。
これにより、図5(B)の中央に示すような、AND画像141のデータが生成される。つまり、AND処理後の画像は、基準画像121に反転画像132を重ね合わせたような画像となる。AND画像141においては、被写体93の部分が、反転画像132における黒色の部分のままとなっている。
そこで、合成部64はさらに、AND画像141のデータと、差分画像124のデータとに対してOR処理を施す。
これにより、図5(B)のB−8に示すような合成画像125のデータが生成される。即ち、基準画像121に含まれていた背景(家91等)や被写体92に対して、切り抜かれた被写体93が張り付けられたような合成画像125のデータが生成される。つまり、OR処理後の画像は、AND画像141に差分画像124を重ね合わせたような画像となる。
As the first process of the process of step S <b> 17, the
Thereby, data of the AND
Therefore, the combining
As a result, data of the
その後、ステップS18の処理で、K=2回目の合成画像125のデータが、次の3(=K+2)回目の基準画像のデータとして設定され、ステップS19の処理で基準画像記憶部42に上書き保存されると、K=2回目の画像合成処理は終了となる。
Thereafter, in the process of step S18, the data of the
以上説明したように、本実施形態の撮像装置1は、撮像画像取得部61と、基準画像取得部62と、表示制御部51と、設定部52と、差分画像生成部63と、合成部64と、を備えている。
撮像画像取得部61は、撮像画像データを取得する。基準画像取得部62は、K回目の基準画像データを取得する。
表示制御部51は、基準画像を、スルー画像たる撮像画像に重畳して表示部19に表示させるよう制御をする。
差分画像生成部63は、初回に取得された基準画像(即ち、本実施形態でいう背景画像)データと、K回目の記録用撮像により得られた撮像画像データとの差分を取ることによって、差分画像データを生成する。
合成部64は、K回目の基準画像データと、差分画像データとを合成することによって、K回目の合成画像データを生成する。
設定部52は、このK回目の合成画像データを、新たな(K+1回目の)基準画像データとして設定する。
これにより、1乃至K回の記録用撮像の各々により撮像された複数の被写体が合成された合成画像データを生成するにあたり、合成画像内の適切な位置に被写体が配置された構図で、各回の記録用撮像をすることが容易に可能になる。
As described above, the
The captured
The
The difference
The synthesizing
The setting
Thus, in generating composite image data in which a plurality of subjects captured by each of the 1 to K recording images is combined, the subject is arranged at an appropriate position in the composite image, and each time It is possible to easily take an image for recording.
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.
例えば、上述の実施形態では、表示制御部53は、基準画像を表示部19に半透過表示しているが、これに限られることではなく、基準画像と撮像画像とを差別表示できればよい。具体的には、基準画像の輪郭のみ表示したり、輪郭線のみを点線にしたり、基準画像の被写体を赤で強調したりする表示形態を採用することができる。
For example, in the above-described embodiment, the display control unit 53 semi-transparently displays the reference image on the
また例えば、上述の実施形態では、本発明が適用される画像処理装置は、デジタルカメラ等の画像処理装置として構成される例として説明した。しかしながら、本発明は、画像処理装置に特に限定されず、撮像機能の有無を問わず(撮像画像のデータは別の装置から取得してもよい)、上述の画像処理を実行可能な電子機器一般に適用することができる。具体的には例えば、本発明は、パーソナルコンピュータ、ビデオカメラ、携帯型ナビゲーション装置、ポータブルゲーム機等に適用可能である。 For example, in the above-described embodiment, the image processing apparatus to which the present invention is applied has been described as an example configured as an image processing apparatus such as a digital camera. However, the present invention is not particularly limited to an image processing apparatus, and in general, an electronic apparatus that can execute the above-described image processing regardless of the presence or absence of an imaging function (data of captured images may be acquired from another apparatus) Can be applied. Specifically, for example, the present invention can be applied to a personal computer, a video camera, a portable navigation device, a portable game machine, and the like.
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。 The series of processes described above can be executed by hardware or can be executed by software.
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。 When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium. The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスク等で構成される。
The recording medium including such a program is not only constituted by the
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
1・・・撮像装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・画像処理部、15・・・バス、16・・・入出力インターフェース、17・・・撮像部、18・・・操作部、19・・・表示部、20・・・記憶部、21・・・通信部、22・・・ドライブ、31・・・リムーバブルメディア、41・・・背景画像記憶部、42・・・基準画像記憶部、51・・・表示制御部、52・・・設定部、61・・・撮像画像取得部、62・・・基準画像取得部、63・・・差分画像生成部、64・・・合成部
DESCRIPTION OF
Claims (4)
この第1画像取得手段により取得された画像データの画像を表示する表示手段と、
合成の基準となる基準画像データを取得する第2画像取得手段と、
この第2画像取得手段により取得された基準画像データの画像を、前記第1画像取得手段により取得された画像データの画像に重畳して前記表示手段に表示させるよう制御をする表示制御手段と、
前記第2画像取得手段により取得された前記基準画像データと、前記第1画像取得手段により取得された前記画像データとの差分画像データを生成する差分画像生成手段と、
前記第2画像取得手段により取得された前記基準画像データと、前記差分画像生成手段により生成された前記差分画像データとを合成した合成画像データを生成する合成手段と、
この合成手段により生成された前記合成画像データを、新たな基準画像データとして設定する設定手段と、
を備えることを特徴とする画像処理装置。 First image acquisition means for acquiring image data;
Display means for displaying an image of the image data acquired by the first image acquisition means;
Second image acquisition means for acquiring reference image data as a reference for synthesis;
Display control means for controlling the image of the reference image data acquired by the second image acquisition means to be superimposed on the image of the image data acquired by the first image acquisition means and displayed on the display means;
Difference image generation means for generating difference image data between the reference image data acquired by the second image acquisition means and the image data acquired by the first image acquisition means;
A combining unit that generates combined image data by combining the reference image data acquired by the second image acquiring unit and the difference image data generated by the difference image generating unit;
Setting means for setting the combined image data generated by the combining means as new reference image data;
An image processing apparatus comprising:
前記第1画像取得手段は、前記撮像手段から出力された画像データを取得する、
ことを特徴とする請求項1記載の画像処理装置。 The image processing apparatus further includes an imaging unit that captures an image and outputs image data of the image,
The first image acquisition means acquires the image data output from the imaging means;
The image processing apparatus according to claim 1.
画像データを取得する第1画像取得ステップと、
合成の基準となる基準画像データを取得する第2画像取得ステップと、
この第2画像取得ステップにて取得された基準画像データの画像を、前記第1画像取得ステップにて取得された画像データの画像に重畳して前記表示手段に表示させるよう制御する表示制御ステップと、
前記第2画像取得ステップにて取得された前記基準画像データと、前記第1画像取得ステップにて取得された前記画像データとの差分画像データを生成する差分画像生成ステップと、
前記第2画像取得ステップにて取得された前記基準画像データと、前記差分画像生成ステップにて生成された前記差分画像データとを合成して、合成画像データを生成する合成ステップと、
この合成ステップにて生成された前記合成画像データを、新たな基準画像データとして設定する設定ステップと、
を含むことを特徴とする画像処理方法。 An image processing method of an image processing apparatus including display means for displaying an image,
A first image acquisition step of acquiring image data;
A second image acquisition step of acquiring reference image data as a reference for synthesis;
A display control step for controlling the image of the reference image data acquired in the second image acquisition step to be displayed on the display unit in a manner superimposed on the image of the image data acquired in the first image acquisition step; ,
A difference image generation step for generating difference image data between the reference image data acquired in the second image acquisition step and the image data acquired in the first image acquisition step;
Combining the reference image data acquired in the second image acquisition step and the difference image data generated in the difference image generation step to generate combined image data;
A setting step for setting the combined image data generated in the combining step as new reference image data;
An image processing method comprising:
画像データを取得する第1画像取得手段、
合成の基準となる基準画像データを取得する第2画像取得手段、
この第2画像取得手段により取得された基準画像データの画像を、前記第1画像取得手段により取得された画像データの画像に重畳して前記表示手段に表示させるよう制御する表示制御手段、
前記第2画像取得手段により最初に取得された基準画像データと、前記第1画像取得手段により取得された画像データとの差分を取ることによって、差分画像データを生成する差分画像生成手段、
前記第2画像取得手段により取得された基準画像データと、前記差分画像生成手段により生成された差分画像データとを合成し、合成画像データを生成する合成手段、
この合成手段により生成された前記合成画像データを、新たな基準画像データとして設定する設定手段、
として機能させることを特徴とするプログラム。 A computer of an image processing apparatus comprising display means for displaying an image,
First image acquisition means for acquiring image data;
Second image acquisition means for acquiring reference image data that is a reference for synthesis;
Display control means for controlling the image of the reference image data acquired by the second image acquisition means to be superimposed on the image of the image data acquired by the first image acquisition means and displayed on the display means;
Difference image generation means for generating difference image data by taking a difference between the reference image data first acquired by the second image acquisition means and the image data acquired by the first image acquisition means;
A combining unit configured to combine the reference image data acquired by the second image acquiring unit and the difference image data generated by the difference image generating unit to generate combined image data;
Setting means for setting the combined image data generated by the combining means as new reference image data;
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010201162A JP2012060384A (en) | 2010-09-08 | 2010-09-08 | Image processing apparatus, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010201162A JP2012060384A (en) | 2010-09-08 | 2010-09-08 | Image processing apparatus, image processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012060384A true JP2012060384A (en) | 2012-03-22 |
JP2012060384A5 JP2012060384A5 (en) | 2013-10-17 |
Family
ID=46056949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010201162A Pending JP2012060384A (en) | 2010-09-08 | 2010-09-08 | Image processing apparatus, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012060384A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108604393A (en) * | 2016-03-04 | 2018-09-28 | 新日铁住金系统集成株式会社 | Information processing system, information processing unit, information processing method and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005026873A (en) * | 2003-06-30 | 2005-01-27 | Casio Comput Co Ltd | Photographing method, imaging apparatus, and program |
JP2009164857A (en) * | 2007-12-29 | 2009-07-23 | Morpho Inc | Image data processing method, and image processing apparatus |
-
2010
- 2010-09-08 JP JP2010201162A patent/JP2012060384A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005026873A (en) * | 2003-06-30 | 2005-01-27 | Casio Comput Co Ltd | Photographing method, imaging apparatus, and program |
JP2009164857A (en) * | 2007-12-29 | 2009-07-23 | Morpho Inc | Image data processing method, and image processing apparatus |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108604393A (en) * | 2016-03-04 | 2018-09-28 | 新日铁住金系统集成株式会社 | Information processing system, information processing unit, information processing method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8199222B2 (en) | Low-light video frame enhancement | |
JP4631558B2 (en) | Imaging apparatus and image processing program | |
JP5678911B2 (en) | Image composition apparatus, image composition method, and program | |
JP5183297B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
US8698924B2 (en) | Tone mapping for low-light video frame enhancement | |
JP2012109898A (en) | Imaging device, imaging method, and program | |
JP5664626B2 (en) | Image processing apparatus, image processing method, and program | |
JP5186021B2 (en) | Imaging apparatus, image processing apparatus, and imaging method | |
US20150334283A1 (en) | Tone Mapping For Low-Light Video Frame Enhancement | |
JP2009017078A (en) | Digital still camera and its operation controlling method | |
JP2012186593A (en) | Image processing system, image processing method, and program | |
TW201120810A (en) | Image processing apparatus, image processing method, and storage medium | |
JP2011114823A (en) | Image processing apparatus, and imaging apparatus | |
JP4606486B2 (en) | Image processing apparatus and photographing apparatus | |
JP2007243917A (en) | Imaging apparatus and image processing program | |
JP2017011504A (en) | Imaging device, image processing method and program | |
JP5829122B2 (en) | Imaging apparatus and evaluation value generation apparatus | |
JP5820720B2 (en) | Imaging device | |
JP5959194B2 (en) | Imaging device | |
JP2007281843A (en) | Imaging apparatus and image processing method | |
US10051200B2 (en) | Imaging apparatus and control method thereof | |
JP7460595B2 (en) | Image pickup device, image data processing method for image pickup device, and program | |
JP2012235198A (en) | Imaging apparatus | |
JP2011135409A (en) | Image processing apparatus and method, as well as program | |
JP2012060384A (en) | Image processing apparatus, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130830 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130830 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140729 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20141202 |