JP2011210204A - Difference image generation device, program and difference image generation method - Google Patents

Difference image generation device, program and difference image generation method Download PDF

Info

Publication number
JP2011210204A
JP2011210204A JP2010079944A JP2010079944A JP2011210204A JP 2011210204 A JP2011210204 A JP 2011210204A JP 2010079944 A JP2010079944 A JP 2010079944A JP 2010079944 A JP2010079944 A JP 2010079944A JP 2011210204 A JP2011210204 A JP 2011210204A
Authority
JP
Japan
Prior art keywords
image
area
difference
designating
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010079944A
Other languages
Japanese (ja)
Other versions
JP5585168B2 (en
Inventor
Yoshiharu Hojo
芳治 北條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010079944A priority Critical patent/JP5585168B2/en
Publication of JP2011210204A publication Critical patent/JP2011210204A/en
Application granted granted Critical
Publication of JP5585168B2 publication Critical patent/JP5585168B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To certainly segment only an object desired by a user.SOLUTION: When a set of images composed of a first image P1(d) and a second image P2 (a) is selected, the second image P2 is displayed on a monitor 4 as shown in (a). If a touch point by a pen of a user on the monitor 4 is detected, the touch point T is displayed on the monitor 4 where the second image P2 is displayed as shown in (b). Furthermore, a coupled line L2 obtained by sequentially coupling adjacent touch points T around a main object C which the second image P1 has is displayed as shown in (c). Block definition is performed on an image part PP2 surrounded by the coupled line L2 of the second image P2 shown in (c) and the image part PP2 surrounded by a coupled line L1 at the same position and in the same shape as those of the coupled line L2 of the first image P1 shown in (d). A difference image RP is segmented in divided images PP1, PP2 in the defined block (e).

Description

本発明は、撮影された第1の画像と第2の画像とから両者の差分画像を生成する差分画像生成装置、プログラム及び差分画像生成方法に関する。   The present invention relates to a difference image generation apparatus, a program, and a difference image generation method for generating a difference image between a photographed first image and a second image.

従来、共に撮影された第1の画像と、当該第1の画像内に切り出すべき被写体が存在する第2の画像とから両者の差分画像を切り出す技術が考案されている(特許文献1参照)。この技術を用いれば、背景のみの第1の画像を撮影した後、当該背景内に切り出すべき主要被写体が存在する第2の画像を撮影することにより、主要被写体のみを切り出した画像を生成することができる。   Conventionally, a technique has been devised for cutting out a difference image between a first image taken together and a second image in which a subject to be cut out exists in the first image (see Patent Document 1). If this technique is used, a first image of only the background is captured, and then a second image in which the main subject to be extracted exists in the background is generated, thereby generating an image in which only the main subject is cut out. Can do.

特開平10−21408号公報Japanese Patent Laid-Open No. 10-21408

しかしながら、撮影する際の背景は必ずしも固定的ではなく、風により揺動する樹木、あるいは分針を有する時計等の動く被写体が背景内に存在する場合がある。この場合、背景のみの第1の画像を撮影した後、当該背景内に主要被写体が存在する第2の画像を撮影した際に、主要被写体のみならず、風により揺動した樹木や回転移動した分針等の動いた背景被写体が両画像の差分画像として存在することとなる。   However, the background at the time of shooting is not necessarily fixed, and there may be a moving subject such as a tree that swings in the wind or a clock with a minute hand in the background. In this case, when the second image in which the main subject is present in the background is taken after taking the first image of only the background, not only the main subject but also a tree swung by the wind or rotated. A moving background subject such as a minute hand exists as a difference image between the two images.

したがって、第1の画像と第2の画像とから差分画像を切り出すと、動いた背景被写体が主要被写体とともに切り出されてしまい、目的とする主要被写体のみを切り出すことができないという問題が生ずる。   Therefore, when the difference image is cut out from the first image and the second image, the moving background subject is cut out together with the main subject, and there is a problem that it is not possible to cut out only the target main subject.

本発明は、かかる従来の課題に鑑みなされたものであり、画像内のユーザが所望する被写体のみを確実に切り出すことのできる差分画像生成装置、プログラム及び差分画像生成方法を提供することを目的とする。   The present invention has been made in view of such conventional problems, and an object of the present invention is to provide a differential image generation device, a program, and a differential image generation method that can reliably cut out only a subject desired by a user in an image. To do.

前記課題を解決するために、請求項1記載の発明は、共に撮影された第1の画像と、当該第1の画像内に切り出すべき被写体が存在する第2の画像とを取得する取得手段と、前記第2の画像に基づき領域を指定する領域指定手段と、この領域指定手段により指定された領域内において、前記第1の画像と第2の画像との差分画像を切り出す切出手段とを備えることを特徴とする。   In order to solve the above-mentioned problem, the invention according to claim 1 is characterized in that a first image captured together and an acquisition unit that acquires a second image in which a subject to be cut out exists in the first image. , Area specifying means for specifying an area based on the second image, and clipping means for cutting out a difference image between the first image and the second image in the area specified by the area specifying means. It is characterized by providing.

また、請求項2記載の発明は、請求項1記載の発明において、前記領域指定手段は、前記第1の画像と第2の画像とを同一の拡大倍率で拡大処理し、撮影時の画角よりも小さい画角からなる第1の拡大画像と第2の拡大画像とを生成する画像処理手段と、この画像処理手段により生成された第1の拡大画像と第2の拡大画像の前記撮影時の画角よりも小さい画角内を前記領域として指定する指定手段とを備え、前記切出手段は、前記指定手段により指定された領域内において、前記第1の拡大画像と第2の拡大画像との差分画像を切り出すことを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the area designating unit enlarges the first image and the second image at the same magnification, and the angle of view at the time of photographing. Image processing means for generating a first enlarged image and a second enlarged image having a smaller angle of view, and at the time of photographing the first enlarged image and the second enlarged image generated by the image processing means Designating means for designating, as the area, an angle of view smaller than the angle of view of the first and second enlarged images in the area designated by the designating means. And a difference image is cut out.

また、請求項3記載の発明は、請求項2記載の発明において、前記第2の画像を画面に表示する表示手段と、操作に応じて、前記画像処理手段に前記拡大処理を指示する指示手段と、この指示手段の指示に応答して、前記画面に表示された第2の画像を拡大させる表示制御手段とを備えることを特徴とする。   According to a third aspect of the present invention, in the second aspect of the present invention, a display unit that displays the second image on a screen and an instruction unit that instructs the image processing unit to perform the enlargement process in response to an operation. And a display control means for enlarging the second image displayed on the screen in response to an instruction from the instruction means.

また、請求項4記載の発明は、請求項1記載の発明において、前記第2の画像を画面に表示する表示手段を備え、前記領域指定手段は、前記第2の画像が表示された前記画面に対する指定操作に応じて前記領域を指定することを特徴とする。   According to a fourth aspect of the invention, there is provided the display device according to the first aspect, further comprising display means for displaying the second image on a screen, wherein the area designating means is the screen on which the second image is displayed. The region is designated in accordance with a designation operation for.

また、請求項5記載の発明は、請求項4記載の発明において、前記領域指定手段は、前記第2の画像が表示された前記表示手段の画面上において、複数の点を指定する第1の指定手段と、この第1の指定手段により指定された複数の点を順次結ぶ線で囲まれる範囲を前記領域として指定する第2の指定手段とを備えることを特徴とする。   According to a fifth aspect of the present invention, in the fourth aspect of the invention, the area designating unit designates a plurality of points on the screen of the display unit on which the second image is displayed. It is characterized by comprising: designation means; and second designation means for designating a range surrounded by a line sequentially connecting a plurality of points designated by the first designation means as the region.

また、請求項6記載の発明は、機器が有するコンピュータを、共に撮影された第1の画像と、当該第1の画像内に切り出すべき被写体が存在する第2の画像とを取得する取得手段、前記第2の画像に基づき領域を指定する領域指定手段、この領域指定手段により指定された領域内において、前記第1の画像と第2の画像との差分画像を切り出す切出手段として機能させる。   The invention described in claim 6 is an acquisition means for acquiring a first image taken together with a computer of the device and a second image in which a subject to be cut out exists in the first image, An area designation unit that designates an area based on the second image, and a cutout unit that cuts out a difference image between the first image and the second image in the area designated by the area designation unit.

また、請求項7記載の発明は、共に撮影された第1の画像と、当該第1の画像内に切り出すべき被写体が存在する第2の画像とを取得する取得ステップと、前記第2の画像に基づき領域を指定する領域指定ステップと、この領域指定ステップにより指定された領域内において、前記第1の画像と第2の画像との差分画像を切り出す切出ステップとを含むことを特徴とする。   According to a seventh aspect of the present invention, there is provided an acquisition step of acquiring a first image taken together and a second image in which a subject to be cut out exists in the first image, and the second image An area designating step for designating an area based on the area, and a step of cutting out a difference image between the first image and the second image in the area designated by the area designating step. .

本発明によれば、画像内のユーザが所望する被写体のみを確実に切り出することができる。   According to the present invention, it is possible to reliably cut out only a subject desired by a user in an image.

本発明の一実施の形態を適用した電子カメラのブロック図である。1 is a block diagram of an electronic camera to which an embodiment of the present invention is applied. 第1の実施の形態の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of 1st Embodiment. 本実施の形態における処理手順を示す説明図である。It is explanatory drawing which shows the process sequence in this Embodiment. 第2の実施の形態の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of 2nd Embodiment. 本実施の形態における処理手順を示す説明図である。It is explanatory drawing which shows the process sequence in this Embodiment.

以下、本発明の一実施の形態を図に従って説明する。
図1は、本発明の各実施の形態に共通するデジタルカメラ1の電気的構成を示す回路ブロック図である。このデジタルカメラ1は、AE(Auto Exposure)、AWB(Auto White Balance)、AF(Auto Focus)等の一般的な機能を有するものである。すなわち、レンズブロック11には、ズームレンズ111や図示しないフォーカスレンズ等の光学系、及び光学系を駆動するための駆動機構が含まれている。前記ズームレンズ111は、駆動機構に設けられているズームモーター12によって光軸方向に駆動される。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a circuit block diagram showing an electrical configuration of a digital camera 1 common to each embodiment of the present invention. The digital camera 1 has general functions such as AE (Auto Exposure), AWB (Auto White Balance), and AF (Auto Focus). That is, the lens block 11 includes an optical system such as a zoom lens 111 and a focus lens (not shown), and a drive mechanism for driving the optical system. The zoom lens 111 is driven in the optical axis direction by a zoom motor 12 provided in a drive mechanism.

デジタルカメラ1全体を制御するCPU(Central Processing Unit)13には、バス14及びタイミング発生器(TG:Timing Generator)15を介してモータードライバ16が接続されている。モータードライバ16は、ユーザの操作に応じたCPU13の命令に従いタイミング発生器15が発生するタイミング信号に基づき、ズームモーター12を駆動する。これにより、ズームレンズ111が駆動されて、そのレンズ位置が変化する。   A motor driver 16 is connected to a central processing unit (CPU) 13 that controls the entire digital camera 1 via a bus 14 and a timing generator (TG) 15. The motor driver 16 drives the zoom motor 12 based on a timing signal generated by the timing generator 15 in accordance with an instruction from the CPU 13 according to a user operation. As a result, the zoom lens 111 is driven to change its lens position.

このとき、CPU13は、自己が発生する命令を記憶して管理している。したがって、CPU13は、自己が発生する命令を記憶して管理することにより、自己が発生する命令によりタイミング発生器15が発生するタイミング信号に応じて変化するズームレンズ111のレンズ位置を取得することができる。   At this time, the CPU 13 stores and manages instructions generated by itself. Therefore, the CPU 13 can acquire and manage the lens position of the zoom lens 111 that changes according to the timing signal generated by the timing generator 15 according to the command generated by the CPU 13 by storing and managing the command generated by the CPU 13. it can.

また、図示は省略するが、実際には、フォーカスレンズを駆動するためのフォーカスモーター及びモータードライバや、メカシャッタやメカ絞り及びそれらを駆動するためのモーターを有する駆動機構等が設けられている。   Although not shown in the drawings, actually, a focus motor and a motor driver for driving the focus lens, a mechanical shutter, a mechanical aperture, and a drive mechanism having a motor for driving them are provided.

また、デジタルカメラ1は、撮像素子としてCCD(Charge Coupled Device)18を有している。CCD18は、レンズブロック11の光軸上に配置されている。被写体は、レンズブロック11によってCCD18の受光面に結像される。CCD18は、CPU13の命令に従いタイミング発生器15が生成するタイミング信号に基づき垂直及び水平ドライバ19によって駆動され、被写体の光学像に応じたアナログの撮像信号をユニット回路20に出力する。ユニット回路20は、CCD18の出力信号に含まれるノイズを相関二重サンプリングによって除去するCDS(Correllated Double Sampling)回路や、ノイズが除去された撮像信号をデジタル信号に変換するA/D(Analog/Digital)変換器等から構成され、デジタル信号をDSP(Digital Signal Processor)21へ出力する。   The digital camera 1 also has a CCD (Charge Coupled Device) 18 as an image sensor. The CCD 18 is disposed on the optical axis of the lens block 11. The subject is imaged on the light receiving surface of the CCD 18 by the lens block 11. The CCD 18 is driven by a vertical and horizontal driver 19 based on a timing signal generated by the timing generator 15 in accordance with a command from the CPU 13, and outputs an analog imaging signal corresponding to the optical image of the subject to the unit circuit 20. The unit circuit 20 is a CDS (Correllated Double Sampling) circuit that removes noise included in the output signal of the CCD 18 by correlated double sampling, or an A / D (Analog / Digital) that converts an imaging signal from which noise has been removed to a digital signal. ) Consists of a converter and the like, and outputs a digital signal to a DSP (Digital Signal Processor) 21.

DSP21は、ユニット回路20から出力されたデジタル信号に対しペデスタルクランプやオートホワイトバランス等の各種画像処理を施すことにより、輝度(Y)信号及び色差(UV)信号からなる画像データを生成する。DSP21で変換された画像データは順次SDRAM(Synchronous Dynamic Random Access Memory)22に格納されるとともに、REC(Record)ライブビュー・モードでは1フレーム分のデータ(画像データ)が蓄積される毎にビデオ信号に変換され、液晶のモニタ4へ送られてライブビュー画像として画面表示される。   The DSP 21 performs image processing such as pedestal clamp and auto white balance on the digital signal output from the unit circuit 20 to generate image data including a luminance (Y) signal and a color difference (UV) signal. The image data converted by the DSP 21 is sequentially stored in an SDRAM (Synchronous Dynamic Random Access Memory) 22 and a video signal every time one frame of data (image data) is accumulated in the REC (Record) live view mode. And is sent to the liquid crystal monitor 4 and displayed on the screen as a live view image.

そして、静止画撮影モードにおいては、シャッタボタン操作をトリガとして、CPU13は、CCD18、垂直及び水平ドライバ19、ユニット回路20、及びDSP21に対してライブビュー画撮影モードから静止画撮影モードへの切り替えを指示し、この静止画撮影モードによる撮影処理により得られSDRAM22に一時記憶された画像データは、CPU13により圧縮され、最終的には所定のフォーマットの静止画ファイルとして外部メモリ25に記録される。この外部メモリ25に記録された静止画ファイルは、PLAY・モードにおいてユーザの選択操作に応じてCPU13に読み出されるとともに伸張され、画像データとしてSDRAM22に展開された後、画像データに基づく画像がモニタ4に表示される。   In the still image shooting mode, using the shutter button operation as a trigger, the CPU 13 switches the live view image shooting mode to the still image shooting mode for the CCD 18, the vertical and horizontal drivers 19, the unit circuit 20, and the DSP 21. The image data obtained by the shooting processing in the still image shooting mode and temporarily stored in the SDRAM 22 is compressed by the CPU 13 and finally recorded in the external memory 25 as a still image file of a predetermined format. The still image file recorded in the external memory 25 is read out and expanded by the CPU 13 in accordance with the user's selection operation in the PLAY mode, and expanded as image data on the SDRAM 22, and then an image based on the image data is displayed on the monitor 4. Is displayed.

フラッシュメモリ26には、CPU13に前記各部を制御させるための各種のプログラム、例えばAE、AF、AWB制御用のプログラムや、後述するフローチャートに示す処理を実行するためのプログラム等の各種のプログラムが格納されている。   The flash memory 26 stores various programs for causing the CPU 13 to control the above-described units, for example, programs for controlling AE, AF, and AWB, and programs for executing processing shown in flowcharts to be described later. Has been.

また、デジタルカメラ1は、シャッタボタン、ズームボタン、OKボタン等の複数の操作キー及びスイッチを含むキー入力部27を有している。キー入力部27は、ユーザによっていずれかの操作キーが操作されると、その操作内容に応じた操作信号をCPU13へ供給する。   The digital camera 1 also has a key input unit 27 including a plurality of operation keys and switches such as a shutter button, a zoom button, and an OK button. When any operation key is operated by the user, the key input unit 27 supplies an operation signal corresponding to the operation content to the CPU 13.

なお、モニタ4には、タッチパネル23が積層されている。タッチパネル23は、モニタ4上におけるユーザのタッチ位置を検出し、検出したタッチ位置を示す信号をCPU13に供給する。   A touch panel 23 is stacked on the monitor 4. The touch panel 23 detects the touch position of the user on the monitor 4 and supplies a signal indicating the detected touch position to the CPU 13.

(第1の実施の形態)
次に、以上の構成にかかるデジタルカメラ1の第1の実施の形態における動作を説明する。図2は、本実施の形態における差分画像生成モードの処理手順を示すフローチャートである。ユーザによるキー入力部27での操作により、差分画像生成モードが設定されるとCPU13は前記プログラムに従って、このフローチャートに示す処理を実行する。
(First embodiment)
Next, the operation of the digital camera 1 according to the above configuration in the first embodiment will be described. FIG. 2 is a flowchart showing a processing procedure in the difference image generation mode in the present embodiment. When the difference image generation mode is set by the user's operation on the key input unit 27, the CPU 13 executes the processing shown in this flowchart according to the program.

すなわち、CPU13は、差分画像生成モードにおける撮影モードが設定されているか否かを判断する(ステップS101)。撮影モードが設定されているならば、1回目のシャッタボタン操作が検出されたか否かを判断する(ステップS102)。1回目のシャッタボタン操作が検出されたならば、撮影処理を実行しその画像を第1の画像として記録する(ステップS103)。具体的には、CPU13は、シャッタボタンの押下時点でS10DRAM22に記憶されている画像データを圧縮し、圧縮した画像データを第1の画像として外部メモリ25に記録する。   That is, the CPU 13 determines whether or not the shooting mode in the difference image generation mode is set (step S101). If the shooting mode is set, it is determined whether or not the first shutter button operation has been detected (step S102). If the first shutter button operation is detected, the photographing process is executed and the image is recorded as the first image (step S103). Specifically, the CPU 13 compresses the image data stored in the S10 DRAM 22 when the shutter button is pressed, and records the compressed image data in the external memory 25 as a first image.

次に、2回目のシャッタボタン操作が検出されたか否かを判断する(ステップS104)。2回目のシャッタボタン操作が検出されたならば、撮影処理を実行しその画像を第2の画像として、前記ステップS103で記録した第1の画像と関連付けて、外部メモリ25に記録する(ステップS105)。   Next, it is determined whether or not a second shutter button operation has been detected (step S104). If the second shutter button operation is detected, the photographing process is executed and the image is recorded as the second image in the external memory 25 in association with the first image recorded in step S103 (step S105). ).

引き続き、差分画像生成モードにおける切出モードに移行したか否かを判断し、移行するまでステップS101〜ステップS106の処理を繰り返す。したがって、この間にユーザが1回目のシャッタボタン操作で背景を撮影し、2回目のシャッタボタン操作で当該背景内に切り出されるべき主要被写体が存在する画像を撮影することにより、関連付けられた第1の画像と第2の画像とを一組として、複数組の画像が外部メモリ25に記録されていく。   Subsequently, it is determined whether or not the cut-out mode in the difference image generation mode has been shifted, and the processing in steps S101 to S106 is repeated until the shift is made. Therefore, during this period, the user captures the background by the first shutter button operation, and captures the image in which the main subject to be cut out in the background exists by the second shutter button operation. Multiple sets of images are recorded in the external memory 25 with the image and the second image as a set.

そして、ユーザが差分画像の合成を行うべく差分画像生成モードにおける切出モードを設定すると、ステップS106からステップS107に進み、外部メモリ25に記録された複数組の画像から、何れかが一組の画像が選択されたか否かを判断する。外部メモリ25から、関連付けられた第1の画像と第2の画像とからなる一組の画像が選択されたならば、選択された一組の画像における第2の画像をモニタ4に表示させる(ステップS108)。したがって、図3(a)に示す第1の画像P1と、同図(b)に示す第2の画像P2とからなる一組の画像が選択されたとすると、同図(b)に示すように、第2の画像P2がモニタ4に表示される。   When the user sets the extraction mode in the difference image generation mode to synthesize the difference image, the process proceeds from step S106 to step S107, and any one of the plurality of sets of images recorded in the external memory 25 is one set. It is determined whether an image is selected. If a set of images composed of the associated first image and second image is selected from the external memory 25, the second image in the selected set of images is displayed on the monitor 4 ( Step S108). Therefore, if a set of images consisting of the first image P1 shown in FIG. 3A and the second image P2 shown in FIG. 3B is selected, as shown in FIG. The second image P2 is displayed on the monitor 4.

なお、図3(a)に示すように、この例においては第1の画像P1は樹木が背景被写体A,Bとして存在する背景からなる画像である。また、図3(b)に示すように、第2の画像は同様の樹木が背景被写体A,Bとして存在する背景内に、ユーザ所望の切り出されるべき主要被写体Cが存在する画像である。   As shown in FIG. 3A, in this example, the first image P1 is an image composed of a background in which trees exist as background subjects A and B. As shown in FIG. 3B, the second image is an image in which a main subject C to be cut out is present in a background where similar trees exist as background subjects A and B.

次に、CPU13は、キー入力部27に設けられているズームボタンの操作が検出されたか否かを判断する(ステップS109)。ユーザによるズームボタンの操作が検出されたならば、SDRAM22内で第2の画像P2を拡大処理して、モニタ4に表示されている画像を拡大表示させる(ステップS110)。引き続き、OKボタンの操作が検出されたか否かを判断し(ステップS111)、OKボタンの操作が検出されるまで、ステップS109からの処理を繰り返す。   Next, the CPU 13 determines whether or not an operation of a zoom button provided in the key input unit 27 is detected (step S109). If the operation of the zoom button by the user is detected, the second image P2 is enlarged in the SDRAM 22 and the image displayed on the monitor 4 is enlarged (step S110). Subsequently, it is determined whether or not an OK button operation has been detected (step S111), and the processing from step S109 is repeated until an OK button operation is detected.

したがって、この間ユーザがズームボタンを操作する都度第2の画像P2のSDRAM22での拡大処理がなされて、図3(c)に示すように、モニタ4に表示されている画像が拡大されていく(ステップS110)。これにより、同図に示すように、背景被写体A、Bはモニタ4の画面外となる。その結果、モニタ4の画面内には、背景被写体A、Bを除く部分からなり主要被写体Cが存在する小さい画角の拡大部分画像P3のみが表示された状態となる。   Accordingly, whenever the user operates the zoom button during this time, the second image P2 is enlarged in the SDRAM 22, and the image displayed on the monitor 4 is enlarged as shown in FIG. Step S110). As a result, the background subjects A and B are outside the screen of the monitor 4 as shown in FIG. As a result, in the screen of the monitor 4, only the enlarged partial image P3 having a small angle of view including the main subject C and including the background subjects A and B is displayed.

このようにして、モニタ4に背景被写体A,Bを除いて主要被写体Cが存在する画像P3が表示されたならば、ユーザはOKボタンを操作する。すると、CPU13は、ステップS111からステップS112に処理を進めて、第2の画像の拡大倍率、つまりは表示させている拡大部分画像P3の拡大倍率を算出する。   In this way, if the image P3 in which the main subject C exists except for the background subjects A and B is displayed on the monitor 4, the user operates the OK button. Then, the CPU 13 advances the processing from step S111 to step S112, and calculates the magnification of the second image, that is, the magnification of the enlarged partial image P3 being displayed.

ここで拡大倍率とは、撮影時の画角からなる第2の画像P2を基準(1倍)として算出されるモニタ4の画面を画角とする拡大部分画像P3の倍率である。   Here, the enlargement magnification is the magnification of the enlarged partial image P3 with the angle of view of the screen of the monitor 4 calculated using the second image P2 having the angle of view at the time of shooting as a reference (1 time).

そして、拡大倍率を算出したならば、算出した拡大倍率で第1の画像P1をSDRAM22内で拡大処理する(ステップS113)。したがって、第1の画像P1も仮にこれをモニタ4に表示したならば、背景被写体A、Bがモニタ4の画面外となる大きさに拡大される。また、これによりSDRAM22内には、同一の拡大倍率で拡大処理された第1の画像P1と第2の画像P2とが格納された状態となる。   When the enlargement magnification is calculated, the first image P1 is enlarged in the SDRAM 22 with the calculated enlargement magnification (step S113). Therefore, if the first image P1 is also displayed on the monitor 4, the background subjects A and B are enlarged to a size outside the screen of the monitor 4. As a result, the SDRAM 22 stores the first image P1 and the second image P2 that have been enlarged at the same magnification.

引き続き、CPU13は、これら拡大処理された第2の画像P2のモニタ4に表示されている画角内と、拡大処理された第1の画像の対応する画角内とを領域指定する(ステップS114)。そして、この指定した領域内で、拡大処理されている第1の画像P1と第2の画像P2との差分画像を切り出す(ステップS115)。   Subsequently, the CPU 13 designates a region within the angle of view displayed on the monitor 4 of the enlarged second image P2 and the corresponding angle of view of the enlarged first image (step S114). ). Then, a difference image between the first image P1 and the second image P2 that has been enlarged is cut out within the designated region (step S115).

このとき、撮影された第1の画像P1と第2の画像P2の画角内には、図3(a)(b)に示すように、樹木が背景被写体A,Bとして存在する。したがって、背景のみの第1の画像P1を撮影した後、当該背景内に主要被写体Cが存在する第2の画像P2を撮影した際に、風により背景被写体A,Bが揺動すると、第2の画像P2内には主要被写体Cのみならず、風により揺動した背景被写体A,Bが両画像に差分画像として存在することとなる。よって、仮に第1の画像P1と第2の画像P2とをそのまま用いて、差分画像を切り出すと、差分画像内に主要被写体Cのみならず、背景被写体A,Bの変化した部分までも切り出されてしまう。   At this time, trees are present as background subjects A and B within the angle of view of the captured first image P1 and second image P2, as shown in FIGS. Therefore, after the first image P1 having only the background is captured and then the second image P2 in which the main subject C is present in the background is captured, if the background subjects A and B swing due to the wind, the second In this image P2, not only the main subject C but also background subjects A and B that have been swung by the wind exist as differential images in both images. Therefore, if the difference image is cut out using the first image P1 and the second image P2 as they are, not only the main subject C but also the changed portions of the background subjects A and B are cut out in the difference image. End up.

しかし、本実施の形態においては、拡大処理に伴って背景被写体A,Bを領域外に移動させ、しかる後に当該領域内で第1の画像P1と第2の画像P2との差分画像を切り出す(ステップS115)。したがって、第1及び第2の画像P1、P2内に主要被写体C以外の変化のあった被写体が存在しても、図3(d)に示すように、ユーザが所望する主要被写体Cのみからなる差分画像RPを確実に切り出すことができる。   However, in the present embodiment, the background subjects A and B are moved outside the area in accordance with the enlargement process, and then the difference image between the first image P1 and the second image P2 is cut out within the area ( Step S115). Therefore, even if there is a subject other than the main subject C in the first and second images P1 and P2, as shown in FIG. 3D, only the main subject C desired by the user is included. The difference image RP can be reliably cut out.

しかも、本実施の形態においては、第2の画像P2をモニタ4に表示させるとともに、ユーザの操作に応じてモニタ4に表示させた画像を拡大させて、領域を指定するようにした。したがって、ユーザはモニタ4に表示させた画像を見ながら、不要な背景被写体A,Bを切り出し対象領域から容易に排除することができる。   In addition, in the present embodiment, the second image P2 is displayed on the monitor 4, and the image displayed on the monitor 4 is enlarged in accordance with the user's operation so that the area is designated. Therefore, the user can easily exclude unnecessary background subjects A and B from the cutout target area while viewing the image displayed on the monitor 4.

以上のようにして、主要被写体Cの差分画像RPを切り出したならば、この差分画像RPを前記第1及び第2の画像と関連付けて、あるいは関連付けることなく外部メモリ25に記録する(ステップS116)。したがって、ユーザは後日、主要被写体Cのみからなる差分画像RPを外部メモリ25から読み出して、他の背景画像に貼り付けることにより、合成画像を生成することができる。   When the difference image RP of the main subject C is cut out as described above, the difference image RP is recorded in the external memory 25 in association with or without association with the first and second images (step S116). . Therefore, the user can generate a composite image by reading out the differential image RP consisting only of the main subject C from the external memory 25 and pasting it on another background image at a later date.

(第2の実施の形態)
図4は、本発明の第2の実施の形態における処理手順を示すフローチャートである。
ユーザによるキー入力部27での操作により、差分画像生成モードが設定されるとCPU13は前記プログラムに従って、このフローチャートに示す処理を実行する。
(Second Embodiment)
FIG. 4 is a flowchart showing a processing procedure in the second embodiment of the present invention.
When the difference image generation mode is set by the user's operation on the key input unit 27, the CPU 13 executes the processing shown in this flowchart according to the program.

すなわち、CPU13は、差分画像生成モードにおける撮影モードが設定されているか否かを判断する(ステップS201)。撮影モードが設定されているならば、1回目のシャッタボタン操作が検出されたか否かを判断する(ステップS202)。1回目のシャッタボタン操作が検出されたならば、撮影処理を実行しその画像を第1の画像として記録する(ステップS203)。具体的には、CPU13は、シャッタボタンの押下時点でS20DRAM22に記憶されている画像データを圧縮し、圧縮した画像データを第1の画像として外部メモリ25に記録する。   That is, the CPU 13 determines whether or not the shooting mode in the difference image generation mode is set (step S201). If the shooting mode is set, it is determined whether or not the first shutter button operation has been detected (step S202). If the first shutter button operation is detected, the photographing process is executed and the image is recorded as the first image (step S203). Specifically, the CPU 13 compresses the image data stored in the S20 DRAM 22 when the shutter button is pressed, and records the compressed image data in the external memory 25 as a first image.

次に、2回目のシャッタボタン操作が検出されたか否かを判断する(ステップS204)。2回目のシャッタボタン操作が検出されたならば、撮影処理を実行しその画像を第2の画像として、前記ステップS203で記録した第1の画像と関連付けて、外部メモリ25に記録する(ステップS205)。   Next, it is determined whether or not a second shutter button operation has been detected (step S204). If the second shutter button operation is detected, the photographing process is executed and the image is recorded as the second image in the external memory 25 in association with the first image recorded in step S203 (step S205). ).

引き続き、差分画像生成モードにおける切出モードに移行したか否かを判断し、移行するまでステップS201〜ステップS206の処理を繰り返す。したがって、この間にユーザが1回目のシャッタボタン操作で背景を撮影し、2回目のシャッタボタン操作で当該背景内に切り出されるべき主要被写体が存在する画像を撮影することにより、関連付けられた第1の画像と第2の画像とを一組として、複数組の画像が外部メモリ25に記録されていく。   Subsequently, it is determined whether or not the cut-out mode in the difference image generation mode has been shifted, and the processes in steps S201 to S206 are repeated until the shift is made. Therefore, during this period, the user captures the background by the first shutter button operation, and captures the image in which the main subject to be cut out in the background exists by the second shutter button operation. Multiple sets of images are recorded in the external memory 25 with the image and the second image as a set.

そして、ユーザが差分画像の合成を行うべく差分画像生成モードにおける切出モードを設定すると、ステップS206からステップS207に進み、外部メモリ25に記録された複数組の画像から、何れかが一組の画像が選択されたか否かを判断する。外部メモリ25から、関連付けられた第1の画像と第2の画像とからなる一組の画像が選択されたならば、選択された一組の画像における第2の画像をモニタ4に表示させる(ステップS208)。したがって、図5(d)に示す第1の画像P1と、同図(a)に示す第2の画像P2とからなる一組の画像が選択されたとすると、同図(a)に示すように、第2の画像P2がモニタ4に表示される。   When the user sets the extraction mode in the difference image generation mode to synthesize the difference images, the process proceeds from step S206 to step S207, and any one of the plurality of sets of images recorded in the external memory 25 is one set. It is determined whether an image is selected. If a set of images composed of the associated first image and second image is selected from the external memory 25, the second image in the selected set of images is displayed on the monitor 4 ( Step S208). Therefore, if a set of images consisting of the first image P1 shown in FIG. 5D and the second image P2 shown in FIG. 5A is selected, as shown in FIG. The second image P2 is displayed on the monitor 4.

なお、図5(d)に示すように、この例においては第1の画像P1は樹木が背景被写体A,Bとして存在する背景からなる画像である。また、図5(a)に示すように、第2の画像は同様の樹木が背景被写体A,Bとして存在する背景内に、ユーザ所望の切り出されるべき主要被写体Cが存在する画像である。   As shown in FIG. 5D, in this example, the first image P1 is an image composed of a background in which trees exist as background subjects A and B. Further, as shown in FIG. 5A, the second image is an image in which a main subject C to be cut out is present in a background where similar trees exist as background subjects A and B.

次に、CPU13は、モニタ4上におけるユーザのペンによるタッチ位置であるポイントがタッチパネル23により検出されたか否かを判断する(ステップS209)。タッチポイントが検出されたならば、第2の画像P2が表示されているモニタ4にタッチポイントを表示させる(ステップS210)。引き続き、OKボタンの操作が検出されたか否かを判断し(ステップS211)、OKボタンの操作が検出されるまで、ステップS209からの処理を繰り返す。   Next, the CPU 13 determines whether or not a point that is a touch position of the user's pen on the monitor 4 is detected by the touch panel 23 (step S209). If the touch point is detected, the touch point is displayed on the monitor 4 on which the second image P2 is displayed (step S210). Subsequently, it is determined whether or not an OK button operation has been detected (step S211), and the processing from step S209 is repeated until an OK button operation is detected.

したがって、この間ユーザが第2の画像P2が表示されているモニタ4上で背景被写体A,Bを除くように主要被写体Cの周囲にペンでタッチすると、その都度ステップS210でタッチポイントの表示処理がなされて、図5(b)に示すように、主要被写体Cの周囲に複数のタッチポイントTが表示されていく。   Therefore, during this time, when the user touches the main subject C around the main subject C so as to remove the background subjects A and B on the monitor 4 on which the second image P2 is displayed, the touch point display processing is performed in step S210 each time. Thus, a plurality of touch points T are displayed around the main subject C as shown in FIG.

このようにして、モニタ4に背景被写体A,Bを除く主要被写体Cの周囲にこれを囲む複数のタッチポイントTが表示されたならば、ユーザはOKボタンを操作する。すると、CPU13は、ステップS211からステップS212に処理を進め、隣接するタッチポイントを順次線で結んでモニタ4に表示させる(ステップS212)。   In this way, when a plurality of touch points T surrounding the main subject C excluding the background subjects A and B are displayed on the monitor 4, the user operates the OK button. Then, the CPU 13 advances the processing from step S211 to step S212, and displays the adjacent touch points on the monitor 4 by connecting them sequentially with a line (step S212).

したがって、このステップS212での処理により図5(c)に示すように、モニタ4には、第2の画像P2が有する主要被写体Cの周囲の隣接するタッチポイントTを順次結んだ結合線L2が表示される。   Therefore, as shown in FIG. 5C by the process in step S212, the monitor 4 has a connecting line L2 that sequentially connects adjacent touch points T around the main subject C included in the second image P2. Is displayed.

引き続き、CPU13は、第2の画像の結合線で囲まれた画像部分と、第1の画像の対応する画像部分とを領域指定する(ステップS213)。したがって、このステップS213での処理により、図5(c)に示すように、第2の画像P2の結合線L2で囲まれた画像部分PP2と、同図(d)に示すように、結合線L2と同一位置同一形状の結合線L1で囲まれた第1の画像P1の画像部分PP1とが領域指定される。そして、この指定した領域内、つまり部分画像PP1と部分画像PP2とから差分画像を切り出す(ステップS214)。   Subsequently, the CPU 13 designates the area of the image portion surrounded by the connecting line of the second image and the corresponding image portion of the first image (step S213). Therefore, by the processing in step S213, as shown in FIG. 5C, the image portion PP2 surrounded by the connection line L2 of the second image P2, and the connection line as shown in FIG. The region of the image portion PP1 of the first image P1 surrounded by the connecting line L1 having the same position and the same shape as L2 is designated. Then, a difference image is cut out from the designated area, that is, from the partial image PP1 and the partial image PP2 (step S214).

このとき、撮影された第1の画像P1と第2の画像P2の画角内には、図5(d)(a)に示すように、樹木が背景被写体A,Bとして存在する。したがって、背景のみの第1の画像P1を撮影した後、当該背景内に主要被写体Cが存在する第2の画像P2を撮影した際に、風により背景被写体A,Bが揺動すると、第2の画像P2内には主要被写体Cのみならず、風により揺動した背景被写体A,Bが両画像に差分画像として存在することとなる。よって、仮に第1の画像P1と第2の画像P2とをそのまま用いて、差分画像を切り出すと、差分画像内に主要被写体Cのみならず、背景被写体A,Bの変化した部分までも切り出されてしまう。   At this time, trees are present as background subjects A and B within the angle of view of the captured first image P1 and second image P2, as shown in FIGS. Therefore, after the first image P1 having only the background is captured and then the second image P2 in which the main subject C is present in the background is captured, if the background subjects A and B swing due to the wind, the second In this image P2, not only the main subject C but also background subjects A and B that have been swung by the wind exist as differential images in both images. Therefore, if the difference image is cut out using the first image P1 and the second image P2 as they are, not only the main subject C but also the changed portions of the background subjects A and B are cut out in the difference image. End up.

しかし、本実施の形態においては、ステップS214で、ユーザが指定した領域内である部分画像PP1とPP2とから差分画像を切り出す。したがって、第1及び第2の画像P1、P2内に主要被写体C以外の変化のあった被写体が存在しても、図5(e)に示すように、ユーザが所望する主要被写体Cのみからなる差分画像RPを確実に切り出すことができる。   However, in the present embodiment, in step S214, a difference image is cut out from the partial images PP1 and PP2 that are within the area designated by the user. Therefore, even if there is a subject other than the main subject C in the first and second images P1 and P2, as shown in FIG. 5E, only the main subject C desired by the user is included. The difference image RP can be reliably cut out.

しかも、本実施の形態においては、第2の画像P2をモニタ4に表示させるとともに、ユーザの操作に応じてモニタ4に表示させて、ユーザに領域を指定させるようにした。したがって、ユーザはモニタ4に表示させた画像を見ながら、不要な背景被写体A,Bを切り出し対象領域から容易に排除することができる。   Moreover, in the present embodiment, the second image P2 is displayed on the monitor 4 and is displayed on the monitor 4 according to the user's operation so that the user can specify the area. Therefore, the user can easily exclude unnecessary background subjects A and B from the cutout target area while viewing the image displayed on the monitor 4.

以上のようにして、主要被写体Cの差分画像RPを切り出したならば、この差分画像RPを前記第1及び第2の画像と関連付けて、あるいは関連付けることなく外部メモリ25に記録する(ステップS215)。   When the difference image RP of the main subject C is cut out as described above, the difference image RP is recorded in the external memory 25 in association with or without association with the first and second images (step S215). .

なお、本実施の形態においては、デジタルカメラに本発明を適用した場合を示したが、デジタルカメラに限らず、携帯電話機等の撮影機能を有する各種機器に適用しても良く、更には撮影機能を有さずとも撮影された第1の画像と、第1の画像内に切り出すべき被写体が存在する第2の画像とを外部から取り込み可能な機器であれば、他の電子機器に適用することが可能である。   In the present embodiment, the present invention is applied to a digital camera. However, the present invention is not limited to a digital camera, and may be applied to various devices having a shooting function such as a mobile phone. If it is a device capable of capturing from the outside the first image taken without the image and the second image in which the subject to be cut out exists in the first image, it should be applied to other electronic devices. Is possible.

1 デジタルカメラ
4 モニタ
11 レンズブロック
12 ズームモーター
13 CPU
18 CCD
19 水平ドライバ
20 ユニット回路
21 DSP
22 SDRAM
23 タッチパネル
25 外部メモリ
26 フラッシュメモリ
27 キー入力部
111 ズームレンズ
A 背景被写体
C 主要被写体
RP 差分画像
T タッチポイント
1 Digital Camera 4 Monitor 11 Lens Block 12 Zoom Motor 13 CPU
18 CCD
19 Horizontal driver 20 Unit circuit 21 DSP
22 SDRAM
23 Touch Panel 25 External Memory 26 Flash Memory 27 Key Input Unit 111 Zoom Lens A Background Subject C Main Subject RP Difference Image T Touch Point

Claims (7)

共に撮影された第1の画像と、当該第1の画像内に切り出すべき被写体が存在する第2の画像とを取得する取得手段と、
前記第2の画像に基づき領域を指定する領域指定手段と、
この領域指定手段により指定された領域内において、前記第1の画像と第2の画像との差分画像を切り出す切出手段と、
を備えることを特徴とする差分画像生成装置。
Acquisition means for acquiring a first image taken together and a second image in which a subject to be cut out exists in the first image;
Area designating means for designating an area based on the second image;
Clipping means for cutting out a difference image between the first image and the second image in the area designated by the area designation means;
A difference image generation apparatus comprising:
前記領域指定手段は、
前記第1の画像と第2の画像とを同一の拡大倍率で拡大処理し、撮影時の画角よりも小さい画角からなる第1の拡大画像と第2の拡大画像とを生成する画像処理手段と、
この画像処理手段により生成された第1の拡大画像と第2の拡大画像の前記撮影時の画角よりも小さい画角内を前記領域として指定する指定手段とを備え、
前記切出手段は、前記指定手段により指定された領域内において、前記第1の拡大画像と第2の拡大画像との差分画像を切り出すことを特徴とする請求項1記載の差分画像生成装置。
The area specifying means includes:
Image processing for enlarging the first image and the second image at the same magnification, and generating a first enlarged image and a second enlarged image having an angle of view smaller than the angle of view at the time of shooting Means,
Designating means for designating the first enlarged image generated by the image processing means and the second enlarged image within the angle of view smaller than the angle of view at the time of shooting as the region;
2. The difference image generation apparatus according to claim 1, wherein the cutout unit cuts out a difference image between the first enlarged image and the second enlarged image within an area designated by the designation unit.
前記第2の画像を画面に表示する表示手段と、
操作に応じて、前記画像処理手段に前記拡大処理を指示する指示手段と、
この指示手段の指示に応答して、前記画面に表示された第2の画像を拡大させる表示制御手段とを備えることを特徴とする請求項2記載の差分画像生成装置。
Display means for displaying the second image on a screen;
Instructing means for instructing the enlargement processing to the image processing means according to an operation
3. The difference image generating apparatus according to claim 2, further comprising display control means for enlarging the second image displayed on the screen in response to an instruction from the instruction means.
前記第2の画像を画面に表示する表示手段を備え、
前記領域指定手段は、前記第2の画像が表示された前記画面に対する指定操作に応じて前記領域を指定することを特徴とする請求項1記載の差分画像生成装置。
Display means for displaying the second image on a screen;
The difference image generating apparatus according to claim 1, wherein the region specifying unit specifies the region in accordance with a specifying operation on the screen on which the second image is displayed.
前記領域指定手段は、前記第2の画像が表示された前記表示手段の画面上において、複数の点を指定する第1の指定手段と、
この第1の指定手段により指定された複数の点を順次結ぶ線で囲まれる範囲を前記領域として指定する第2の指定手段とを備えることを特徴とする請求項4記載の差分画像生成装置。
The area specifying means includes a first specifying means for specifying a plurality of points on the screen of the display means on which the second image is displayed;
5. The difference image generating apparatus according to claim 4, further comprising: a second specifying unit that specifies, as the region, a range surrounded by a line that sequentially connects a plurality of points specified by the first specifying unit.
機器が有するコンピュータを、
共に撮影された第1の画像と、当該第1の画像内に切り出すべき被写体が存在する第2の画像とを取得する取得手段、
前記第2の画像に基づき領域を指定する領域指定手段、
この領域指定手段により指定された領域内において、前記第1の画像と第2の画像との差分画像を切り出す切出手段、
として機能させることを特徴とするプログラム。
The computer that the device has
Acquisition means for acquiring a first image taken together and a second image in which a subject to be cut out exists in the first image;
Area designating means for designating an area based on the second image;
Cutting means for cutting out a difference image between the first image and the second image in the area designated by the area designating means;
A program characterized by functioning as
共に撮影された第1の画像と、当該第1の画像内に切り出すべき被写体が存在する第2の画像とを取得する取得ステップと、
前記第2の画像に基づき領域を指定する領域指定ステップと、
この領域指定ステップにより指定された領域内において、前記第1の画像と第2の画像との差分画像を切り出す切出ステップと、
を含むことを特徴とする差分画像生成方法。
An acquisition step of acquiring a first image taken together and a second image in which a subject to be cut out exists in the first image;
An area designating step of designating an area based on the second image;
A step of cutting out a difference image between the first image and the second image in the region specified by the region specifying step;
The difference image generation method characterized by including.
JP2010079944A 2010-03-31 2010-03-31 DIFFERENTIAL IMAGE GENERATION DEVICE, PROGRAM, AND DIFFERENTIAL IMAGE GENERATION METHOD Expired - Fee Related JP5585168B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010079944A JP5585168B2 (en) 2010-03-31 2010-03-31 DIFFERENTIAL IMAGE GENERATION DEVICE, PROGRAM, AND DIFFERENTIAL IMAGE GENERATION METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010079944A JP5585168B2 (en) 2010-03-31 2010-03-31 DIFFERENTIAL IMAGE GENERATION DEVICE, PROGRAM, AND DIFFERENTIAL IMAGE GENERATION METHOD

Publications (2)

Publication Number Publication Date
JP2011210204A true JP2011210204A (en) 2011-10-20
JP5585168B2 JP5585168B2 (en) 2014-09-10

Family

ID=44941149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010079944A Expired - Fee Related JP5585168B2 (en) 2010-03-31 2010-03-31 DIFFERENTIAL IMAGE GENERATION DEVICE, PROGRAM, AND DIFFERENTIAL IMAGE GENERATION METHOD

Country Status (1)

Country Link
JP (1) JP5585168B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9459779B2 (en) 2012-07-05 2016-10-04 Fujitsu Limited Image display apparatus, image enlargement method, and image enlargement program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1023317A (en) * 1996-07-04 1998-01-23 Canon Inc Image pickup picture processor and method therefor
JP2008092515A (en) * 2006-10-05 2008-04-17 Nikon Corp Electronic camera, image processing apparatus and program
WO2008120321A1 (en) * 2007-03-28 2008-10-09 Fujitsu Limited Image processing device, image processing method, and image processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1023317A (en) * 1996-07-04 1998-01-23 Canon Inc Image pickup picture processor and method therefor
JP2008092515A (en) * 2006-10-05 2008-04-17 Nikon Corp Electronic camera, image processing apparatus and program
WO2008120321A1 (en) * 2007-03-28 2008-10-09 Fujitsu Limited Image processing device, image processing method, and image processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9459779B2 (en) 2012-07-05 2016-10-04 Fujitsu Limited Image display apparatus, image enlargement method, and image enlargement program

Also Published As

Publication number Publication date
JP5585168B2 (en) 2014-09-10

Similar Documents

Publication Publication Date Title
WO2016002228A1 (en) Image-capturing device
KR101346426B1 (en) Image processing device capable of generating wide-range image
JP2003274335A (en) Information recording device
JP4631760B2 (en) Digital camera, image processing method and program
JP2005341416A (en) Electronic apparatus with imaging function, and its image display method
JP2014146989A (en) Image pickup device, image pickup method, and image pickup program
JP4696614B2 (en) Image display control device and program
JP2006261912A (en) Photographing apparatus
JP2006319903A (en) Mobile apparatus provided with information display screen
JP2011040896A (en) Image capturing apparatus and method of controlling the same
JP5141392B2 (en) Imaging apparatus, peripheral sound range display method, and program
JP2011024123A (en) Three-dimensional imaging apparatus, and three-dimensional image display method
JP2009081530A (en) Imaging apparatus and imaging method
JP2007178735A (en) Imaging apparatus, method for displaying viewing angle in zooming, and program
JP5585168B2 (en) DIFFERENTIAL IMAGE GENERATION DEVICE, PROGRAM, AND DIFFERENTIAL IMAGE GENERATION METHOD
KR101812656B1 (en) Digital photographing apparatus and control method thereof
JP2009253925A (en) Imaging apparatus and imaging method, and imaging control program
JP2008067298A (en) Photography apparatus and program
JP2012073512A (en) Photographing device and program
JP5289354B2 (en) Imaging device
JP2005318009A (en) Electronic camera and image processing program
JP2005278003A (en) Image processing apparatus
JP2008048152A (en) Moving picture processing apparatus, moving picture photographing apparatus and moving picture photographing program
JP2010028250A (en) Camera apparatus and image display method therefor, and image display program
JP6516410B2 (en) Image processing apparatus, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140707

R150 Certificate of patent or registration of utility model

Ref document number: 5585168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees