JP2012165247A - Image processing device, imaging device, and image processing program - Google Patents

Image processing device, imaging device, and image processing program Download PDF

Info

Publication number
JP2012165247A
JP2012165247A JP2011024988A JP2011024988A JP2012165247A JP 2012165247 A JP2012165247 A JP 2012165247A JP 2011024988 A JP2011024988 A JP 2011024988A JP 2011024988 A JP2011024988 A JP 2011024988A JP 2012165247 A JP2012165247 A JP 2012165247A
Authority
JP
Japan
Prior art keywords
image
images
frames
image processing
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011024988A
Other languages
Japanese (ja)
Inventor
Ryoyu Kaji
良脩 加治
Bungo Fujii
文吾 藤井
Yasuhiro Takada
靖弘 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011024988A priority Critical patent/JP2012165247A/en
Publication of JP2012165247A publication Critical patent/JP2012165247A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a stereoscopic image with a simple configuration.SOLUTION: An image processing device 1 comprises: display means 15 that reproduces and displays an image; image composition means 16 that, based on respective feature amounts of images of plural frames continuously photographed, combines the images of the plural frames to compose one image; display control means 16 that causes the display means 15 to reproduce and display the image composed by the image composition means 16; an operation member 20 for selecting a predetermined area in the composed image during reproduction display; and image extraction means 16 that extracts, from among the images of the plural frames, two images which are images of two frames respectively including the area indicated by a selection operation signal from the operation member 20 and which correspond to a predetermined base line length.

Description

本発明は、画像処理装置、撮影装置および画像処理プログラムに関する。   The present invention relates to an image processing device, a photographing device, and an image processing program.

立体視可能なパノラマ画像を生成する技術が知られている(特許文献1参照)。従来技術では、連続する2つのフレーム画像を比較し、基準フレーム画像を2等分する中心線から等距離にある2本の基準線上の各画素におけるオプティカルフローの大きさを算出し、オプティカルフローの大きさに基づいてスリット画像の幅をそれぞれ決定し、基準フレーム画像からスリット画像をそれぞれ切り出し、右目用および左目用のパノラマ画像を生成するためのスリット画像をそれぞれ結合し、右目用および左目用のパノラマ画像をそれぞれ生成する。   A technique for generating a stereoscopically panoramic image is known (see Patent Document 1). In the prior art, two consecutive frame images are compared, the magnitude of the optical flow at each pixel on two reference lines that are equidistant from the center line that bisects the reference frame image is calculated, and the optical flow The width of the slit image is determined based on the size, the slit image is cut out from the reference frame image, and the slit images for generating the panorama image for the right eye and the left eye are combined, respectively, for the right eye and the left eye Each panorama image is generated.

特開平11−164326号公報JP-A-11-164326

従来技術では、スリット画像の切り出しに至る処理、および切り出し後の結合処理に要する処理負担が大きいという問題があった。   In the prior art, there is a problem that the processing load required for the process leading to the clipping of the slit image and the joining process after the clipping is large.

本発明による画像処理装置は、画像を再生表示する表示手段と、続けて撮影された複数コマの画像の各特徴量に基づいて、複数コマの画像を組合わせて1枚の画像を合成する画像合成手段と、画像合成手段で合成された画像を表示手段に再生表示させる表示制御手段と、再生表示中の合成画像のうち所定領域を選択するための操作部材と、操作部材からの選択操作信号が示す領域をそれぞれ含む2コマの画像であって、所定の基線長に対応する2画像を複数コマの画像の中から抽出する画像抽出手段と、を備えることを特徴とする。   An image processing apparatus according to the present invention combines a display unit for reproducing and displaying an image, and a combination of a plurality of frames based on each feature amount of a plurality of frames that have been continuously captured to synthesize a single image. Composition means, display control means for reproducing and displaying the image synthesized by the image composition means on the display means, an operation member for selecting a predetermined region of the synthesized image being reproduced and displayed, and a selection operation signal from the operation member Image extraction means for extracting two images corresponding to a predetermined baseline length from a plurality of frames.

本発明によれば、簡単な構成で立体視画像を得ることができる。   According to the present invention, a stereoscopic image can be obtained with a simple configuration.

本発明の一実施の形態による画像処理装置を搭載した電子カメラを正面から見た図である。It is the figure which looked at the electronic camera carrying the image processing apparatus by one embodiment of this invention from the front. 図1の電子カメラを背面から見た図である。It is the figure which looked at the electronic camera of FIG. 1 from the back. 電子カメラの構成を例示するブロック図である。It is a block diagram which illustrates the composition of an electronic camera. 平行移動中の電子カメラを示す図である。It is a figure which shows the electronic camera in parallel movement. 図4と異なる方向へ平行移動する電子カメラを示す図である。It is a figure which shows the electronic camera which moves in parallel to the direction different from FIG. 続けて撮影した画像1〜画像Nまでの画像群を例示する図である。It is a figure which illustrates the image group from the image 1 to the image N image | photographed continuously. LCDモニタに再生表示された合成画像を例示する図である。It is a figure which illustrates the synthesized image reproduced and displayed on the LCD monitor. LCDモニタに再生表示された合成画像および枠を例示する図である。It is a figure which illustrates the synthesized image and the frame which were reproduced and displayed on the LCD monitor. 抽出した2コマの画像を例示する図である。It is a figure which illustrates the image of 2 frames extracted. 立体視画像の取得のためにCPUが実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which CPU performs for acquisition of a stereoscopic vision image. コンピュータ装置を例示する図である。It is a figure which illustrates a computer apparatus.

以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態による画像処理装置を搭載した電子カメラ1を正面から見た図である。電子カメラ1の正面に撮影光学系11が配される。電子カメラ1の上面には、電源スイッチ20aと、撮影ボタン20bと、モード切替えダイヤル20cとが設けられる。図2は、図1の電子カメラ1を背面から見た図である。電子カメラ1の背面には、LCDモニタ15、十字キースイッチ20d、再生スイッチ20e、および削除スイッチ20fが設けられる。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a front view of an electronic camera 1 equipped with an image processing apparatus according to an embodiment of the present invention. A photographing optical system 11 is disposed in front of the electronic camera 1. On the upper surface of the electronic camera 1, a power switch 20a, a photographing button 20b, and a mode switching dial 20c are provided. FIG. 2 is a view of the electronic camera 1 of FIG. 1 as viewed from the back. On the back of the electronic camera 1, an LCD monitor 15, a cross key switch 20d, a playback switch 20e, and a deletion switch 20f are provided.

図3は、電子カメラ1の構成を例示するブロック図である。図1において、電子カメラ1は、撮影光学系11と、撮像素子12と、画像処理部13と、SDRAM14と、LCDモニタ15と、CPU16と、不揮発性メモリ17と、カードインターフェース(I/F)18と、通信インターフェース(I/F)19と、操作部材20と、振れセンサ21とを備える。   FIG. 3 is a block diagram illustrating the configuration of the electronic camera 1. In FIG. 1, an electronic camera 1 includes a photographing optical system 11, an image sensor 12, an image processing unit 13, an SDRAM 14, an LCD monitor 15, a CPU 16, a nonvolatile memory 17, and a card interface (I / F). 18, a communication interface (I / F) 19, an operation member 20, and a shake sensor 21.

CPU16、不揮発性メモリ17、カードインターフェース18、通信インターフェース19、画像処理部13、SDRAM14およびLCDモニタ15は、それぞれがバス25を介して接続されている。   The CPU 16, the nonvolatile memory 17, the card interface 18, the communication interface 19, the image processing unit 13, the SDRAM 14, and the LCD monitor 15 are connected via a bus 25.

撮影光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、被写体像を撮像素子12の受光面に結像させる。なお、図1を簡単にするため、撮影光学系11を単レンズとして図示している。   The photographing optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens, and forms a subject image on the light receiving surface of the image sensor 12. In order to simplify FIG. 1, the photographing optical system 11 is shown as a single lens.

撮像素子12は、受光素子が受光面に二次元配列されたCMOSイメージセンサなどによって構成される。撮像素子12は、撮影光学系11を通過した光束による像を光電変換し、デジタル画像信号を生成する。デジタル画像信号は、画像処理部13に入力される。画像処理部13は、デジタル画像データに対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整処理など)を施す。   The imaging element 12 is configured by a CMOS image sensor or the like in which light receiving elements are two-dimensionally arranged on the light receiving surface. The image sensor 12 photoelectrically converts an image of the light beam that has passed through the photographing optical system 11 to generate a digital image signal. The digital image signal is input to the image processing unit 13. The image processing unit 13 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment processing, etc.) on the digital image data.

LCDモニタ15は液晶パネルなどによって構成される。LCDモニタ15は、CPU16からの指示に応じて画像や操作アイコン、メニュー画面などを表示する。SDRAM14は、画像処理部13による画像処理の前工程や後工程でのデジタル画像データを一時的に記憶する他、CPU16によるプログラム実行時に用いられる。不揮発性メモリ17は、フラッシュメモリなどによって構成される。電源オフ時にも記憶内容を保持するので、CPU16が実行するプログラムなどを記憶する。   The LCD monitor 15 is composed of a liquid crystal panel or the like. The LCD monitor 15 displays an image, an operation icon, a menu screen, and the like according to an instruction from the CPU 16. The SDRAM 14 temporarily stores digital image data in a pre-process and post-process of image processing by the image processing unit 13 and is used when a program is executed by the CPU 16. The nonvolatile memory 17 is configured by a flash memory or the like. Since the stored contents are retained even when the power is turned off, the program executed by the CPU 16 is stored.

CPU16は、不揮発性メモリ17が記憶するプログラムを実行することにより、電子カメラ1が行う動作を制御する。CPU16は、AF(オートフォーカス)動作制御や、自動露出(AE)演算も行う。AF動作は、たとえば、スルー画像のコントラスト情報に基づいてフォーカシングレンズ(不図示)の合焦位置を求める。スルー画像は、レリーズ操作前に撮像素子12によって所定の時間間隔(たとえば60コマ/毎秒)で繰り返し取得されるモニタ用画像のことをいう。   The CPU 16 controls the operation performed by the electronic camera 1 by executing a program stored in the nonvolatile memory 17. The CPU 16 also performs AF (autofocus) operation control and automatic exposure (AE) calculation. In the AF operation, for example, an in-focus position of a focusing lens (not shown) is obtained based on the contrast information of the through image. The through image refers to a monitor image that is repeatedly acquired by the image sensor 12 at a predetermined time interval (for example, 60 frames / second) before the release operation.

カードインターフェース18はコネクタ(不図示)を有し、該コネクタにメモリカードなどの記憶媒体30が接続される。カードインターフェース18は、接続された記憶媒体30に対するデータの書き込みや、記憶媒体30からのデータの読み込みを行う。記憶媒体30は、半導体メモリを内蔵したメモリカード、またはハードディスクドライブなどで構成される。   The card interface 18 has a connector (not shown), and a storage medium 30 such as a memory card is connected to the connector. The card interface 18 writes data to the connected storage medium 30 and reads data from the storage medium 30. The storage medium 30 is configured by a memory card incorporating a semiconductor memory, a hard disk drive, or the like.

通信インターフェース19は、たとえば、不図示のコネクタに接続された外部機器との間でTCP/IPプロトコルを用いた通信を行う。この通信により、外部機器からのコマンドやデータを受信したり、記憶媒体30が記憶している画像データや音声データなどを外部機器へ送信したりする。操作部材20は、上述した電源スイッチ20aをはじめ、撮影ボタン20bや十字キースイッチ20dなどの操作部材20a〜20fを含む。操作部材20は、撮影操作、モード切替え操作や各種選択操作など、各操作に応じた操作信号をCPU16へ送出する。振れセンサ21は、たとえば加速度センサによって構成される。振れセンサ21はピッチ方向およびヨー方向に生じた加速度を検出し、検出信号をCPU16へ送出する。   For example, the communication interface 19 performs communication using an TCP / IP protocol with an external device connected to a connector (not shown). Through this communication, commands and data from an external device are received, and image data, audio data, and the like stored in the storage medium 30 are transmitted to the external device. The operation member 20 includes operation members 20a to 20f such as a photographing button 20b and a cross key switch 20d as well as the power switch 20a described above. The operation member 20 sends an operation signal corresponding to each operation such as a photographing operation, a mode switching operation, and various selection operations to the CPU 16. The shake sensor 21 is configured by, for example, an acceleration sensor. The shake sensor 21 detects acceleration generated in the pitch direction and the yaw direction, and sends a detection signal to the CPU 16.

本実施形態は、電子カメラ1で立体視画像(いわゆる3D画像)を得る点に特徴を有する。このため、以降の説明は立体視画像の取得を中心に行う。始めに、本実施形態で行う立体視画像の取得手順の概要を説明する。本実施形態では、電子カメラ1によって所定のフレームレート、たとえば60コマ/毎秒で撮像を繰り返し、取得した一連の画像群の中から立体視効果が得られる2コマの画像を抽出する。この取得手順は、概ね次の5段階に分けられる。
段階1.連続撮影
段階2.1枚の画像に合成(プレビュー画像)
段階3.プレビュー画像を表示
段階4.領域選択操作受け付け
段階5.2コマの画像を抽出
The present embodiment is characterized in that a stereoscopic image (so-called 3D image) is obtained with the electronic camera 1. For this reason, the following description will be focused on obtaining stereoscopic images. First, an outline of a procedure for acquiring a stereoscopic image performed in the present embodiment will be described. In the present embodiment, the electronic camera 1 repeats imaging at a predetermined frame rate, for example, 60 frames / second, and extracts two frames of images from which a stereoscopic effect is obtained from the acquired series of images. This acquisition procedure is roughly divided into the following five stages.
Stage 1. Continuous shooting stage 2.1 Combined images (preview image)
Stage 3. 3. Display preview image Region selection operation acceptance stage: Extracting 5.2 frames of images

<段階1>
「段階1」では、ユーザーが電子カメラ1に連続撮影を行わせる。このときユーザーは、一連の画像群を取得中の電子カメラ1を図4に例示するように平行移動させる。図4は、平行移動中の電子カメラ1を示す図である。ユーザーは、電子カメラ1の撮影光学系11を主要被写体に向け、該主要被写体からの距離が概ね一定となる平面上で平行移動させる。電子カメラ1を平行移動させる方向は、図5に例示する渦巻き状であってもジグザグ状であっても構わない。図5は、図4と異なる方向へ平行移動する電子カメラ1を示す図である。平行移動中の電子カメラ1は、図6に例示するように、続けて撮影した画像1〜画像NまでのN枚の画像群をSDRAM14に一次記憶させる。図6において、画像1は動画撮影開始後最初のコマの画像であり、画像Nは動画撮影終了前で最終コマの画像である。
<Stage 1>
In “stage 1”, the user causes the electronic camera 1 to perform continuous shooting. At this time, the user translates the electronic camera 1 that is acquiring a series of images as illustrated in FIG. FIG. 4 is a diagram illustrating the electronic camera 1 during translation. The user directs the photographing optical system 11 of the electronic camera 1 toward the main subject and translates it on a plane on which the distance from the main subject is substantially constant. The direction in which the electronic camera 1 is translated may be a spiral shape illustrated in FIG. 5 or a zigzag shape. FIG. 5 is a diagram showing the electronic camera 1 that translates in a direction different from that in FIG. As illustrated in FIG. 6, the electronic camera 1 that is moving in parallel primarily stores N image groups of subsequently captured images 1 to N in the SDRAM 14. In FIG. 6, image 1 is the first frame image after the start of moving image shooting, and image N is the last frame image before the end of moving image shooting.

CPU16は、振れセンサ21によって各コマの撮影時にそれぞれ検出されていた加速度信号を、各コマの画像の付加情報としてSDRAM14に一次記憶させる。加速度信号を記憶させておくことで、各コマの画像を撮影した際の電子カメラ1の相対的な位置情報((m-1)コマを撮影した位置から(m)コマを撮影した位置までの電子カメラ1の移動方向および移動量)を算出できる。   The CPU 16 causes the SDRAM 14 to temporarily store the acceleration signal detected by the shake sensor 21 at the time of shooting each frame as additional information of each frame image. By storing the acceleration signal, the relative position information of the electronic camera 1 when the image of each frame was captured (from the position where (m-1) frame was captured to the position where (m) frame was captured) The moving direction and moving amount of the electronic camera 1 can be calculated.

<段階2>
電子カメラ1のCPU16は、SDRAM14に一次記憶したN枚の画像群を繋ぎ合わせることによって一枚の画像を合成する。電子カメラ1のCPU16は、たとえば、画像1の所定領域(たとえば、画面中央を含む所定範囲)内の画像データから特徴量を抽出し、公知のテンプレートマッチング処理を行うためのテンプレート情報を生成する。テンプレート情報は、たとえば低解像度(撮像素子12で取得できる画像の約1/9サイズ)の縮小画像データである。
<Stage 2>
The CPU 16 of the electronic camera 1 combines one image by connecting N image groups that are primarily stored in the SDRAM 14. For example, the CPU 16 of the electronic camera 1 extracts feature amounts from image data in a predetermined area of the image 1 (for example, a predetermined range including the center of the screen), and generates template information for performing a known template matching process. The template information is, for example, reduced image data having a low resolution (about 1/9 size of an image that can be acquired by the image sensor 12).

CPU16は、画像2のデータを対象に上記テンプレート情報を用いたテンプレートマッチング処理を施すことにより、画像1の被写体と類似する領域を画像2から検出する。CPU16は、画像2のうち上記検出領域を含む所定範囲内の画像データから特徴量を抽出し、新たにテンプレート情報を生成する。CPU16は、画像3のデータを対象にテンプレートマッチング処理を施すことにより、画像2の被写体と類似する領域を画像3から検出する。以降同様に、画像Nまで前後するコマの画像間でテンプレートマッチング処理を施すことにより、先に取得されたコマの画像の被写体と類似する領域を、後から取得されたコマの画像から検出する。CPU16は、画像間で重複する被写体領域を代表画像(たとえば、先に取得されたコマの画像)で表し、画像間で重複しない被写体領域を適宜繋ぎ合わせることにより、1枚の画像を合成する。このように合成することで、合成後の画像は各コマの画像の範囲より広い範囲をもつこととなる。本説明では、合成画像をプレビュー画像と呼ぶことにする。   The CPU 16 detects a region similar to the subject of the image 1 from the image 2 by performing template matching processing using the template information on the data of the image 2. CPU16 extracts the feature-value from the image data within the predetermined range containing the said detection area among the images 2, and produces | generates template information newly. The CPU 16 detects a region similar to the subject of the image 2 from the image 3 by performing a template matching process on the data of the image 3. Thereafter, similarly, by performing template matching processing between the images of the frames preceding and following the image N, a region similar to the subject of the image of the previously acquired frame is detected from the image of the frame acquired later. The CPU 16 represents a subject area that overlaps between images as a representative image (for example, a frame image acquired previously), and combines the subject areas that do not overlap between images as appropriate to synthesize one image. By combining in this way, the combined image has a wider range than the image range of each frame. In this description, the composite image is called a preview image.

<段階3>
CPU16は、「段階2」で得たプレビュー画像(合成画像)をLCDモニタ15に再生表示させる。図7は、LCDモニタ15に再生表示された合成画像71を例示する図である。本説明では、たとえば、図7に写っている動物72を主要被写体にする例を説明する。
<Stage 3>
The CPU 16 reproduces and displays the preview image (composite image) obtained in “Step 2” on the LCD monitor 15. FIG. 7 is a diagram illustrating a composite image 71 reproduced and displayed on the LCD monitor 15. In this description, for example, an example in which an animal 72 shown in FIG. 7 is a main subject will be described.

<段階4>
CPU16は、ユーザーによる選択操作を受け付ける。ユーザーは、たとえば、十字キースイッチ20dおよび再生スイッチ20eを操作することにより、合成画像71のうち主要被写体72を含む領域を選択する。この選択範囲が、立体視画像(いわゆるステレオ画像)の範囲に対応する。CPU16は、選択操作信号に基づいて、選択領域を示す枠81を合成画像71に重ねて表示させる。図8は、LCDモニタ15に再生表示された合成画像71および枠81を例示する図である。
<Stage 4>
CPU16 receives selection operation by a user. For example, the user selects an area including the main subject 72 in the composite image 71 by operating the cross key switch 20d and the reproduction switch 20e. This selection range corresponds to the range of a stereoscopic image (so-called stereo image). Based on the selection operation signal, the CPU 16 displays a frame 81 indicating the selection area so as to overlap the composite image 71. FIG. 8 is a diagram illustrating a composite image 71 and a frame 81 reproduced and displayed on the LCD monitor 15.

<段階5>
CPU16は、N枚の画像群の中から主要被写体72を含む画像を検出する。CPU16は、たとえば、合成画像71のうち枠81で囲まれた選択範囲内の画像データから特徴量を抽出し、テンプレート情報を生成する。テンプレート情報は、上述したものと同様である。CPU16は、N枚の画像群を対象に上記テンプレート情報を用いたテンプレートマッチング処理を施すことにより、枠81内の被写体と類似する被写体領域を有するコマの画像を検出する。
<Stage 5>
The CPU 16 detects an image including the main subject 72 from the N image groups. For example, the CPU 16 extracts feature amounts from image data within a selection range surrounded by a frame 81 in the composite image 71, and generates template information. The template information is the same as that described above. The CPU 16 detects a frame image having a subject area similar to the subject in the frame 81 by performing template matching processing using the template information for N image groups.

枠81内の被写体と類似する被写体領域を有するコマをp枚検出したと仮定すると、CPU16は、p枚の画像の中から基線長に相当する視差を確保し得る2コマの画像を抽出する。基線長は、たとえば、人の左右の目の間隔(眼幅)に相当する65mmとする。CPU16は、上述した付加情報に基づいて各コマの撮影位置を算出し、撮影位置が水平方向に65mm離れている2コマの画像を抽出する。図9は、抽出した2コマの画像を例示する図であり、画像Xが右目に相当するコマの画像であり、画像Yが左目に相当するコマの画像である。抽出した2コマの画像によって得られる立体視の視差方向は、水平方向である。   Assuming that p frames having a subject area similar to the subject in the frame 81 are detected, the CPU 16 extracts two frames of images that can ensure a parallax corresponding to the baseline length from the p images. The baseline length is, for example, 65 mm corresponding to the distance (eye width) between the left and right eyes of a person. The CPU 16 calculates the shooting position of each frame based on the additional information described above, and extracts two frames of images whose shooting positions are 65 mm apart in the horizontal direction. FIG. 9 is a diagram illustrating two extracted frames. Image X is a frame image corresponding to the right eye, and image Y is a frame image corresponding to the left eye. The stereoscopic parallax direction obtained from the extracted two-frame images is the horizontal direction.

上述した立体視画像の取得のためにCPU16が実行する処理の流れについて、図10に例示するフローチャートを参照して説明する。CPU16は、電源スイッチ20aのオン操作信号が入力されると、図10による処理を実行するプログラムを起動する。   A flow of processing executed by the CPU 16 for acquiring the stereoscopic image described above will be described with reference to a flowchart illustrated in FIG. When the on-operation signal of the power switch 20a is input, the CPU 16 activates a program that executes the processing shown in FIG.

図10のステップS10において、CPU16は、撮影ボタン20bの押下を示す操作信号が入力されるとステップS20へ進む。ステップS20において、CPU16は「ステレオ撮影モード」か否かを判定する。CPU16は、たとえば、操作部材20を構成するモード切替えダイヤル20cから「ステレオ撮影モード」を示す操作信号が入力されている場合にステップS20を肯定判定してステップS30へ進む。CPU16は、モード切替えダイヤル20cから「ステレオ撮影モード」を示す操作信号が入力されていない場合には、ステップS20を否定判定してステップS130へ進む。ステップS130では、CPU16は、モード切替えダイヤル20cからの操作信号に対応する他の撮影モード(たとえば、静止画撮影モード)による撮影処理を行う。   In step S10 of FIG. 10, the CPU 16 proceeds to step S20 when an operation signal indicating depression of the photographing button 20b is input. In step S20, the CPU 16 determines whether or not the “stereo shooting mode” is set. For example, when an operation signal indicating the “stereo shooting mode” is input from the mode switching dial 20c constituting the operation member 20, the CPU 16 makes a positive determination in step S20 and proceeds to step S30. If the operation signal indicating the “stereo shooting mode” is not input from the mode switching dial 20c, the CPU 16 makes a negative determination in step S20 and proceeds to step S130. In step S130, the CPU 16 performs a shooting process in another shooting mode (for example, a still image shooting mode) corresponding to the operation signal from the mode switching dial 20c.

ステップS30において、CPU16は、上記「段階1」による動画像の撮影、保存処理を開始させてステップS40へ進む。ステップS40において、CPU16は撮影終了か否かを判定する。CPU16は、撮影ボタン20bの押下操作信号が再度入力された場合にステップS40を肯定判定し、動画像の撮影、保存処理を終了させてステップS50へ進む。CPU16は、撮影ボタン20bの押下操作信号が再度入力されない場合には、ステップS40を否定判定してステップS30へ戻る。ステップS30へ戻る場合は動画像の撮影、保存処理を継続する。以上の処理により、続けて撮影した画像1〜画像NまでのN枚の画像群をSDRAM14に一次記憶する。   In step S <b> 30, the CPU 16 starts the moving image capturing and storing process in the “stage 1”, and proceeds to step S <b> 40. In step S40, the CPU 16 determines whether or not the photographing is finished. The CPU 16 makes a positive determination in step S40 when the operation signal for pressing the shooting button 20b is input again, ends the moving image shooting and saving process, and proceeds to step S50. CPU16 makes negative determination in step S40, and returns to step S30, when the pressing-down operation signal of imaging | photography button 20b is not input again. When returning to step S30, the moving image capturing and storing process is continued. Through the above processing, the N image groups from image 1 to image N, which are continuously captured, are temporarily stored in the SDRAM 14.

ステップS50において、CPU16は、上記「段階2」によるプレビュー画像の生成処理(合成処理)を行ってステップS60へ進む。ステップS60において、CPU16は、上記「段階3」によるプレビュー画像の表示処理を行ってステップS70へ進む。ステップS70において、CPU16は、プレビュー画像の傾き調整を行う。CPU16は、たとえば、図7に例示した合成画像71を十字キースイッチ20dからの操作信号に応じて回転させて、回転後の合成画像をLCDモニタ15に表示させる。回転中心は、合成画像71の略中心とし、略中心点の回りに回転させる。このようにプレビュー画像を傾ける理由は、ステップS110において抽出する2コマの画像によって得られる立体視の視差方向を、水平方向と異なる方向とすることを可能にするためである。CPU16は、以上のようにプレビュー画像の傾き調整を行うとステップS80へ進む。なお、CPU16は、十字キースイッチ20dからの操作信号が入力されない場合は、ステップS70をスキップしてステップS80へ進む。   In step S50, the CPU 16 performs a preview image generation process (synthesizing process) in the “stage 2”, and proceeds to step S60. In step S60, the CPU 16 performs the preview image display process in the “stage 3” and proceeds to step S70. In step S70, the CPU 16 adjusts the inclination of the preview image. For example, the CPU 16 rotates the composite image 71 illustrated in FIG. 7 in accordance with an operation signal from the cross key switch 20d, and displays the rotated composite image on the LCD monitor 15. The rotation center is the approximate center of the composite image 71 and is rotated about the approximate center point. The reason for tilting the preview image in this way is to make it possible to set the stereoscopic parallax direction obtained from the two-frame image extracted in step S110 to be different from the horizontal direction. When the CPU 16 adjusts the inclination of the preview image as described above, the process proceeds to step S80. When the operation signal from the cross key switch 20d is not input, the CPU 16 skips step S70 and proceeds to step S80.

ステップS80において、CPU16は、上記「段階4」による領域選択操作の受け付けを行ってステップS90へ進む。この領域は、立体視画像(いわゆるステレオ画像)の範囲に対応するもので、図8に例示したように、LCDモニタ15の表示画面上において選択領域を示す枠81の位置および大きさをユーザー操作に応じて決定する。ユーザーは、たとえば、十字キースイッチ20dを操作してカーソル82を移動させる。CPU16は、たとえば、OKスイッチ(不図示)の押下操作信号に応じて、その時点で表示中のカーソル82の位置を示す座標を記憶する。CPU16は、2点の座標を記憶した場合に、該2点を対角とする長方形を枠81とする。枠81で囲まれる領域が選択範囲である。   In step S80, the CPU 16 accepts the region selection operation in the “stage 4” and proceeds to step S90. This area corresponds to the range of a stereoscopic image (so-called stereo image). As illustrated in FIG. 8, the position and size of the frame 81 indicating the selected area on the display screen of the LCD monitor 15 are manipulated by the user. To be decided. For example, the user moves the cursor 82 by operating the cross key switch 20d. For example, the CPU 16 stores coordinates indicating the position of the cursor 82 being displayed at that time in response to a pressing operation signal of an OK switch (not shown). When the CPU 16 stores the coordinates of the two points, the rectangle having the two points as a diagonal is defined as the frame 81. The area surrounded by the frame 81 is the selection range.

ステップS90において、CPU16は基線長を算出してステップS100へ進む。本実施形態では、上述したように基線長を65mmとする。ステップS100において、CPU16は、選択範囲が立体視画像(いわゆるステレオ画像)の生成可能な範囲であるかを判定する。CPU16は、上記選択範囲について基線長に相当する視差を確保し得る画像が存在する場合にステップS100を肯定判定してステップS110へ進む。CPU16は、上記選択範囲について基線長に相当する視差を確保し得る画像が存在しない場合には、ステップS100を否定判定してステップS80へ戻る。S80へ戻る場合は、たとえば、「もう一度領域を選択してください」。というメッセージをLCDモニタ15に表示させてユーザーによる再操作を促す。   In step S90, the CPU 16 calculates a baseline length and proceeds to step S100. In the present embodiment, the base line length is 65 mm as described above. In step S100, the CPU 16 determines whether or not the selection range is a range in which a stereoscopic image (so-called stereo image) can be generated. The CPU 16 makes an affirmative determination in step S100 and proceeds to step S110 when there is an image that can ensure the parallax corresponding to the baseline length for the selection range. If there is no image that can ensure the parallax corresponding to the baseline length for the selected range, the CPU 16 makes a negative determination in step S100 and returns to step S80. To return to S80, for example, “Please select an area again”. Is displayed on the LCD monitor 15 to prompt the user to perform another operation.

ステップS110において、CPU16は、上記「段階5」による2コマの画像を抽出し、ステップS120へ進む。これにより、枠81で囲まれる選択範囲内の被写体と類似する被写体領域を有し、かつ基線長に相当する視差を確保し得る2コマの画像を抽出する。CPU16は、LCDモニタ15に表示中のプレビュー画像に代えて、たとえば、2コマの画像を所定の表示レートで交互に表示させる。ユーザーは、LCDモニタ15に表示された立体視画像を確認できる。   In step S110, the CPU 16 extracts the two-frame images in the “stage 5”, and proceeds to step S120. As a result, a two-frame image having a subject area similar to the subject in the selection range surrounded by the frame 81 and capable of securing a parallax corresponding to the baseline length is extracted. For example, the CPU 16 displays two frames of images alternately at a predetermined display rate instead of the preview image being displayed on the LCD monitor 15. The user can check the stereoscopic image displayed on the LCD monitor 15.

ステップS120において、CPU16はカードインターフェース18へ指示を送り、抽出した2コマの画像のデータをステレオ画像のデータとして記憶媒体30に保存させて図10による処理を終了する。   In step S120, the CPU 16 sends an instruction to the card interface 18, stores the extracted two-frame image data in the storage medium 30 as stereo image data, and ends the process of FIG.

以上説明した実施形態によれば、次の作用効果が得られる。
(1)電子カメラ1は、画像を再生表示するLCDモニタ15と、続けて撮影された複数コマの画像の各特徴量に基づいて、複数コマの画像を組合わせて1枚の画像を合成するCPU16と、合成された画像をLCDモニタ15に再生表示させるCPU16と、再生表示中の合成画像のうち所定領域を選択するための操作部材20と、操作部材20からの選択操作信号が示す領域をそれぞれ含む2コマの画像であって、所定の基線長に対応する2画像を複数コマの画像の中から抽出するCPU16とを備えるので、簡単な構成で立体視画像を得ることができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The electronic camera 1 synthesizes a single image by combining a plurality of frames based on the LCD monitor 15 that reproduces and displays the images and the feature quantities of the continuously shot frames. CPU 16, CPU 16 that reproduces and displays the synthesized image on LCD monitor 15, operation member 20 for selecting a predetermined area from the synthesized image being reproduced and displayed, and an area indicated by a selection operation signal from operation member 20 Since the CPU 16 that includes two frames each including two images corresponding to a predetermined baseline length is extracted from a plurality of frames, a stereoscopic image can be obtained with a simple configuration.

(2)上記(1)の電子カメラ1において、複数コマの画像のデータが格納される画像ファイルは、各画像の撮影時に検出された電子カメラ1の撮影位置を示す第1情報をそれぞれ含み、CPU16は、第1情報に基づいて水平方向に基線長離れた2つの撮影位置でそれぞれ撮影された2コマの画像を抽出する。これにより、2眼カメラでなくても立体視画像を得ることができる。 (2) In the electronic camera 1 of the above (1), the image file storing the data of the plurality of frames includes first information indicating the shooting position of the electronic camera 1 detected at the time of shooting each image, Based on the first information, the CPU 16 extracts two frames of images shot at two shooting positions that are separated by the baseline length in the horizontal direction. Thereby, a stereoscopic image can be obtained without using a twin-lens camera.

(3)上記(1)または(2)の電子カメラ1において、CPU16によって抽出された2コマの画像を関連づける第2情報を生成するCPU16をさらに備えるので、各画像に対する加工を必要としない。これにより、続けて撮影された複数コマの画像をそのままにしつつ、立体視画像を得ることができる。 (3) Since the electronic camera 1 of (1) or (2) further includes the CPU 16 that generates the second information for associating the two frames of images extracted by the CPU 16, it is not necessary to process each image. Thereby, it is possible to obtain a stereoscopic image while keeping a plurality of frames taken continuously.

(4)上記(3)の電子カメラ1において、CPU16は、第2情報に基づいて2コマの画像データを用いた立体視画像をLCDモニタ15に表示させるので、立体視画像専用のファイルを生成したり、立体視画像専用のファイルを読出すことなしに、立体視画像を確認することができる。 (4) In the electronic camera 1 of the above (3), the CPU 16 displays a stereoscopic image using two frames of image data on the LCD monitor 15 based on the second information, so a file dedicated to the stereoscopic image is generated. Therefore, the stereoscopic image can be confirmed without reading the file dedicated to the stereoscopic image.

(5)電子カメラ1は、被写体像を撮像する撮像素子12と、電子カメラ1の撮影位置を検出する振れセンサ21と、撮像素子12で撮像した画像データと、振れセンサ21で検出した撮影位置を示す情報とを含む画像ファイルを生成するCPU16と、画像データに基づく再生画像を表示するLCDモニタ15と、続けて撮影された複数コマの画像の各特徴量に基づいて、複数コマの画像を組合わせて1枚の画像を合成するCPU16と、合成された画像をLCDモニタ15に再生表示させるCPU16と、再生表示中の合成画像のうち所定領域を選択するための操作部材20と、操作部材20からの選択操作信号が示す領域をそれぞれ含む2コマの画像であって、情報に基づいて水平方向に基線長離れた2つの撮影位置でそれぞれ撮影された2コマの画像を複数コマの画像の中から抽出するCPU16とを備えるので、簡単な構成で立体視画像を得ることができる。 (5) The electronic camera 1 includes an image sensor 12 that captures a subject image, a shake sensor 21 that detects a shooting position of the electronic camera 1, image data captured by the image sensor 12, and a shooting position detected by the shake sensor 21. The CPU 16 generates an image file including information indicating the image, the LCD monitor 15 that displays a reproduction image based on the image data, and the images of the plurality of frames based on the respective feature amounts of the images of the plurality of frames that are subsequently captured A CPU 16 for combining one image in combination, a CPU 16 for reproducing and displaying the combined image on the LCD monitor 15, an operation member 20 for selecting a predetermined area of the combined image being reproduced and displayed, and an operation member 20 images of two frames each including the area indicated by the selection operation signal from 20 and captured at two shooting positions that are separated from each other by the baseline length in the horizontal direction based on the information An image of two frames so and a CPU16 to be extracted from among the plurality of frames of images, it is possible to obtain a stereoscopic image with a simple configuration.

(変形例1)
上述した説明では、カメラの撮影位置情報((m-1)コマを撮影した位置から(m)コマを撮影した位置までの電子カメラ1の移動方向および移動量)を振れセンサ21による検出信号に基づいて相対位置として算出するようにした。この代わりに、GPS衛星からの電波を受信して絶対位置として算出する構成にしてもよい。
(Modification 1)
In the above description, the camera position information (the moving direction and amount of movement of the electronic camera 1 from the position where the (m-1) frame is captured to the position where the (m) frame is captured) is used as the detection signal by the shake sensor 21. Based on this, the relative position is calculated. Instead, a configuration may be adopted in which radio waves from GPS satellites are received and calculated as absolute positions.

(変形例2)
続けて撮影した画像1〜画像NまでのN枚の画像群をSDRAM14に一次記憶させる例を説明したが、動画像データのファイルとして記憶媒体30に保存してもよい。各コマの撮影時の撮影位置情報を、各コマの画像の付加情報として保存内容に含める点は上述した例と同様である。記憶媒体30に保存した動画像のデータに基づいてプレビュー画像を生成し得るように構成することで、撮り貯めた動画像データの中から、任意の被写体を立体視し得る画像を選ぶことが可能になる。
(Modification 2)
Although an example in which N image groups of subsequently captured images 1 to N are temporarily stored in the SDRAM 14 has been described, it may be stored in the storage medium 30 as a moving image data file. The shooting position information at the time of shooting each frame is included in the stored content as additional information of the image of each frame, similar to the above-described example. By configuring so that a preview image can be generated based on moving image data stored in the storage medium 30, it is possible to select an image capable of stereoscopically viewing an arbitrary subject from the captured moving image data. become.

(変形例3)
また、続けて撮影した画像1〜画像NまでのN枚の画像群のデータを保存する場合に、1つのファイルとして保存してもよいし、複数のファイルとして保存してもよい。複数のファイルに分けて保存する場合は、たとえば、同じフォルダ内に保存したり、互いを関連づける情報を付加しておくことにより、続けて撮影した一連の画像群であることがわかるようにしておく。
(Modification 3)
Further, when data of N image groups from successively captured images 1 to N is stored, the data may be stored as one file or a plurality of files. If you want to save multiple files separately, for example, save them in the same folder, or add information that correlates them to each other, so that you can see that it is a series of images that were taken continuously. .

(変形例4)
続けて撮影した画像1〜画像Nの画像のうち、(m-1)コマを撮影した位置から(m)コマを撮影した位置までの電子カメラ1の移動量が所定値以下の場合は、(m)コマの画像の保存を省略するようにしてもよい。
(Modification 4)
If the movement amount of the electronic camera 1 from the position where the (m-1) frame is captured to the position where the (m) frame is captured among the images 1 to N that are continuously captured, m) Saving of frame images may be omitted.

(変形例5)
基線長を65mmとする例を説明したが、基線長の値を変更可能に構成してもよい。
(Modification 5)
Although the example in which the base line length is 65 mm has been described, the base line length value may be configured to be changeable.

(変形例6)
図10のステップS110において、撮影位置が水平方向に65mm離れているコマの画像が存在しない場合でも、撮影位置が60mm離れている画像と70mm離れている画像とが存在する場合には、これら撮影位置が60mm離れている画像と70mm離れている画像とに基づいて生成した合成画像を抽出画像の1つとしてもよい。変形例2のように、撮り貯めた動画像データの中から任意の被写体を立体視し得る画像を選ぶ場合には、動画像を撮り直すことが困難である。ちょうどよい基線長に該当するコマの画像が存在しなくても、立体視し得る画像を適切に選ぶことができる。
(Modification 6)
In step S110 of FIG. 10, even when there is no image of a frame whose shooting position is 65 mm apart in the horizontal direction, if there are an image whose shooting position is 60 mm away and an image that is 70 mm away, these shootings are performed. A composite image generated based on an image that is 60 mm apart and an image that is 70 mm apart may be used as one of the extracted images. As in the second modification, when selecting an image capable of stereoscopically viewing an arbitrary subject from the captured moving image data, it is difficult to recapture the moving image. Even if there is no frame image corresponding to an appropriate baseline length, an image that can be viewed stereoscopically can be appropriately selected.

(変形例7)
上述した実施形態では、電子カメラ1に画像処理装置を搭載する例を説明したが、画像処理装置をパーソナルコンピュータによって構成するようにしてもよい。図10に例示したフローチャートのうちステップS50以降の処理を行うプログラムを図11に示すコンピュータ装置100に実行させることにより、画像処理装置を構成してもよい。プログラムをパーソナルコンピュータ100に取込んで使用する場合には、パーソナルコンピュータ100のデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させることによって画像処理装置として使用する。
(Modification 7)
In the embodiment described above, the example in which the image processing apparatus is mounted on the electronic camera 1 has been described. However, the image processing apparatus may be configured by a personal computer. In the flowchart illustrated in FIG. 10, the image processing apparatus may be configured by causing the computer apparatus 100 illustrated in FIG. 11 to execute a program that performs the processes after step S50. When the program is used by being loaded into the personal computer 100, the program is loaded into the data storage device of the personal computer 100 and then used as an image processing device by executing the program.

パーソナルコンピュータ100に対するプログラムのローディングは、プログラムを格納したCD−ROMなどの記憶媒体104をパーソナルコンピュータ100にセットして行ってもよいし、ネットワークなどの通信回線101を経由する方法でパーソナルコンピュータ100へローディングしてもよい。通信回線101を経由する場合は、通信回線101に接続されたサーバー(コンピュータ)102のハードディスク装置103などにプログラムを格納しておく。プログラムは、記憶媒体104や通信回線101を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。   The loading of the program to the personal computer 100 may be performed by setting a storage medium 104 such as a CD-ROM storing the program in the personal computer 100, or to the personal computer 100 by a method via the communication line 101 such as a network. You may load. When passing through the communication line 101, the program is stored in the hard disk device 103 of the server (computer) 102 connected to the communication line 101. The program can be supplied as various forms of computer program products such as provision via the storage medium 104 or the communication line 101.

以上説明した変形例7によれば、上記実施形態と同様の作用効果が得られる。なお、パーソナルコンピュータによって構成する他にも、デジタルフォトフレームやプロジェクタ等にも上述したステレオ画像を生成させるように構成して構わない。   According to the modification 7 demonstrated above, the effect similar to the said embodiment is acquired. In addition to the configuration using a personal computer, a digital photo frame, a projector, or the like may be configured to generate the above-described stereo image.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

1…電子カメラ
12…撮像素子
13…画像処理部
14…SDRAM
15…LCDモニタ
16…CPU
17…不揮発性メモリ
30、104…記憶媒体
100…パーソナルコンピュータ
DESCRIPTION OF SYMBOLS 1 ... Electronic camera 12 ... Image pick-up element 13 ... Image processing part 14 ... SDRAM
15 ... LCD monitor 16 ... CPU
17 ... Nonvolatile memory 30, 104 ... Storage medium 100 ... Personal computer

Claims (6)

画像を再生表示する表示手段と、
続けて撮影された複数コマの画像の各特徴量に基づいて、前記複数コマの画像を組合わせて1枚の画像を合成する画像合成手段と、
前記画像合成手段で合成された画像を前記表示手段に再生表示させる表示制御手段と、
前記再生表示中の合成画像のうち所定領域を選択するための操作部材と、
前記操作部材からの選択操作信号が示す領域をそれぞれ含む2コマの画像であって、所定の基線長に対応する2画像を前記複数コマの画像の中から抽出する画像抽出手段と、
を備えることを特徴とする画像処理装置。
Display means for reproducing and displaying images;
Image combining means for combining the images of the plurality of frames and combining the images of the images based on the feature amounts of the images of the plurality of frames continuously captured;
Display control means for reproducing and displaying the image synthesized by the image synthesis means on the display means;
An operation member for selecting a predetermined region of the composite image being reproduced and displayed;
Image extraction means for extracting two images corresponding to a predetermined baseline length from the plurality of images, each of which is a two-frame image including a region indicated by the selection operation signal from the operation member;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記複数コマの画像のデータが格納される画像ファイルは、各画像の撮影時に検出された撮影装置の撮影位置を示す第1情報をそれぞれ含み、
前記画像抽出手段は、前記第1情報に基づいて水平方向に前記基線長離れた2つの撮影位置でそれぞれ撮影された2コマの画像を抽出することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image file storing the image data of the plurality of frames includes first information indicating the shooting position of the shooting device detected at the time of shooting each image,
The image processing device is characterized in that the image extraction device extracts two frames of images shot at two shooting positions that are separated from the baseline length in the horizontal direction based on the first information.
請求項1または2に記載の画像処理装置において、
前記画像抽出手段によって抽出された2コマの画像を関連づける第2情報を生成する情報生成手段をさらに備えることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
An image processing apparatus, further comprising: information generation means for generating second information for associating two frames extracted by the image extraction means.
請求項3に記載の画像処理装置において、
前記表示制御手段は、前記第2情報に基づいて前記2コマの画像データを用いた立体視画像を前記表示手段に表示させることを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
The display control means causes the display means to display a stereoscopic image using the image data of the two frames based on the second information.
被写体像を撮像する撮像手段と、
装置の撮影位置を検出する位置検出手段と、
前記撮像手段で撮像した画像データと、前記位置検出手段で検出した撮影位置を示す情報とを含む画像ファイルを生成するファイル生成手段と、
画像データに基づく再生画像を表示する表示手段と、
続けて撮影された複数コマの画像の各特徴量に基づいて、前記複数コマの画像を組合わせて1枚の画像を合成する画像合成手段と、
前記画像合成手段で合成された画像を前記表示手段に再生表示させる表示制御手段と、
前記再生表示中の合成画像のうち所定領域を選択するための操作部材と、
前記操作部材からの選択操作信号が示す領域をそれぞれ含む2コマの画像であって、前記情報に基づいて水平方向に基線長離れた2つの撮影位置でそれぞれ撮影された2コマの画像を前記複数コマの画像の中から抽出する画像抽出手段と、
を備えることを特徴とする撮影装置。
Imaging means for capturing a subject image;
Position detecting means for detecting the photographing position of the apparatus;
A file generating unit that generates an image file including image data captured by the imaging unit and information indicating a shooting position detected by the position detecting unit;
Display means for displaying a reproduced image based on the image data;
Image combining means for combining the images of the plurality of frames and combining the images of the images based on the feature amounts of the images of the plurality of frames continuously captured;
Display control means for reproducing and displaying the image synthesized by the image synthesis means on the display means;
An operation member for selecting a predetermined region of the composite image being reproduced and displayed;
A plurality of images of two frames each including a region indicated by a selection operation signal from the operation member, each imaged at two shooting positions separated by a base line length in the horizontal direction based on the information. Image extracting means for extracting from the frame images;
An imaging apparatus comprising:
続けて撮影された複数コマの画像の各特徴量に基づいて、前記複数コマの画像を組合わせて1枚の画像を合成する第1処理と、
前記第1処理で合成した画像を表示装置に再生表示させる第2処理と、
前記再生表示中の合成画像のうち所定領域を選択するための操作を受け付ける第3処理と、
前記第3処理で受け付けた選択操作信号が示す領域をそれぞれ含む2コマの画像であって、所定の基線長に対応する2画像を前記複数コマの画像の中から抽出する第4処理と、
をコンピュータに実行させることを特徴とする画像処理プログラム。
A first process for combining a plurality of frames of images and combining the images based on the feature amounts of the images of the frames shot continuously;
A second process for reproducing and displaying the image synthesized in the first process on a display device;
A third process for accepting an operation for selecting a predetermined region of the composite image being reproduced and displayed;
A fourth process of extracting two images corresponding to a predetermined baseline length from the plurality of images, each of which is a two-frame image including the region indicated by the selection operation signal received in the third process;
An image processing program for causing a computer to execute.
JP2011024988A 2011-02-08 2011-02-08 Image processing device, imaging device, and image processing program Withdrawn JP2012165247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011024988A JP2012165247A (en) 2011-02-08 2011-02-08 Image processing device, imaging device, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011024988A JP2012165247A (en) 2011-02-08 2011-02-08 Image processing device, imaging device, and image processing program

Publications (1)

Publication Number Publication Date
JP2012165247A true JP2012165247A (en) 2012-08-30

Family

ID=46844199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011024988A Withdrawn JP2012165247A (en) 2011-02-08 2011-02-08 Image processing device, imaging device, and image processing program

Country Status (1)

Country Link
JP (1) JP2012165247A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019508928A (en) * 2015-12-30 2019-03-28 クリエイティブ テクノロジー リミテッドCreative Technology Ltd Method for creating a stereoscopic image sequence

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019508928A (en) * 2015-12-30 2019-03-28 クリエイティブ テクノロジー リミテッドCreative Technology Ltd Method for creating a stereoscopic image sequence
JP7374450B2 (en) 2015-12-30 2023-11-07 クリエイティブ テクノロジー リミテッド Method for creating stereoscopic image sequences

Similar Documents

Publication Publication Date Title
JP5390707B2 (en) Stereoscopic panorama image synthesis apparatus, imaging apparatus, stereo panorama image synthesis method, recording medium, and computer program
JP5214826B2 (en) Stereoscopic panorama image creation device, stereo panorama image creation method, stereo panorama image creation program, stereo panorama image playback device, stereo panorama image playback method, stereo panorama image playback program, and recording medium
US10587860B2 (en) Imaging apparatus and method for controlling same
JP5665013B2 (en) Image processing apparatus, image processing method, and program
JP2012075018A (en) Reproduction device and method, and program
JP2015053741A (en) Image reproduction device
JP6323022B2 (en) Image processing device
JP6700813B2 (en) Image processing device, imaging device, image processing method, and program
JP6056551B2 (en) Image processing program and digital camera
JP5282530B2 (en) Digital camera
JP6330862B2 (en) Imaging apparatus, imaging method, and program
JP2007214620A (en) Image processing apparatus, image processing method, and program
JP2011239021A (en) Moving image creation device, imaging device and moving image creation program
JP2006033242A (en) Image reproducing method and image pickup device
JP2012165247A (en) Image processing device, imaging device, and image processing program
JP2012124614A (en) Imaging apparatus and imaging apparatus control method
JP2008048152A (en) Moving picture processing apparatus, moving picture photographing apparatus and moving picture photographing program
JP6516410B2 (en) Image processing apparatus, image processing method and program
JP5648563B2 (en) Image processing apparatus, image processing method, and program
JP5641352B2 (en) Image processing apparatus, image processing method, and program
EP3041219B1 (en) Image processing device and method, and program
JP2023092143A (en) Image processing device, imaging apparatus, image processing method, program, and recording medium
JP2014053666A (en) Digital camera, image processing apparatus, and image processing program
JP2010021945A (en) Imaging apparatus, control method thereof, and program
JP2019161532A (en) Imaging apparatus, control method and program of imaging apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513