JP2013117908A - Image processor, image processing method, and imaging apparatus - Google Patents

Image processor, image processing method, and imaging apparatus Download PDF

Info

Publication number
JP2013117908A
JP2013117908A JP2011265841A JP2011265841A JP2013117908A JP 2013117908 A JP2013117908 A JP 2013117908A JP 2011265841 A JP2011265841 A JP 2011265841A JP 2011265841 A JP2011265841 A JP 2011265841A JP 2013117908 A JP2013117908 A JP 2013117908A
Authority
JP
Japan
Prior art keywords
image
still images
series
image data
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011265841A
Other languages
Japanese (ja)
Inventor
Waza Soga
技 曽我
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011265841A priority Critical patent/JP2013117908A/en
Publication of JP2013117908A publication Critical patent/JP2013117908A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor, an image processing method, and an imaging apparatus capable of facilitating operations for selecting a small number of pieces of image data from among pieces of image data on many consecutively photographed still images, and generating a synthetic image obtained by synthesizing pieces of the selected image data.SOLUTION: An image processor includes: an image recording part which records a plurality of series of still images consecutively photographed in time series; a range specification input part which is operated by an operator, and outputs specific range information representing specific ranges which are time series ranges specified by the operator among time series ranges in which the plurality of series of still images are included; an image selection part which specifies the plurality of series of still images included in the specific ranges from among the plurality of series of still images based on the specific range information, and selects the plurality of still images matching to a predetermined condition to be read from the image recording part as the selected images; an image synthesis part which generates a synthetic image obtained by synthesizing each of the selected images; and a display part which displays the synthetic image.

Description

本発明は、画像処理装置、画像処理方法、および撮像装置に関する。   The present invention relates to an image processing device, an image processing method, and an imaging device.

近年、デジタルカメラなどの撮像装置には、単なる写真の撮影にとどまらず、利便性を向上させる様々な機能が次々に搭載されてきている。その1つとして、例えば、複数の写真を合成して、新たな写真を生み出す画像合成の機能が考えられる。この画像合成の機能を用いることによって、例えば、動画像データに含まれる複数フレームの画像データを、1枚の静止画像の画像データとして合成することができる。   2. Description of the Related Art In recent years, various functions for improving convenience are being installed one after another in an imaging apparatus such as a digital camera, in addition to taking pictures. As one of them, for example, a function of image composition for generating a new photograph by combining a plurality of photographs can be considered. By using this image composition function, for example, image data of a plurality of frames included in moving image data can be synthesized as image data of one still image.

デジタルカメラの使用者(ユーザ)が所望する合成画像の結果を得るためには、動画像データの中から、ユーザが注目する被写体、あるいはシーンが撮影されている範囲の複数のフレームを、画像合成の処理を行う元の入力画像とするのが望ましい。フレームを選択する方法や、動画像データの中から特定の範囲を抽出する方法として、例えば、特許文献1や特許文献2に開示されたような技術が提案されている。   In order to obtain a composite image result desired by the user (user) of the digital camera, a plurality of frames in the range where the subject or scene in which the user is interested are captured from the moving image data. It is desirable to use the original input image for performing the above process. As a method for selecting a frame and a method for extracting a specific range from moving image data, for example, techniques disclosed in Patent Document 1 and Patent Document 2 have been proposed.

特許文献1に開示された技術では、動画像データの中から複数枚の静止画像を抽出し、抽出した静止画像の画像データを合成処理することによって、新たな静止画像を得ている。特許文献1では、まず、ユーザが、動画像に写された特定の被写体を注目被写体として指定する。その後、画像処理装置が、後続する動画像のフレームの画像データの中から注目被写体の動きを抽出し、その抽出結果から画像合成の処理に必要なフレームを選択している。   In the technique disclosed in Patent Document 1, a plurality of still images are extracted from moving image data, and a new still image is obtained by synthesizing image data of the extracted still images. In Patent Document 1, first, a user designates a specific subject captured in a moving image as a subject of interest. Thereafter, the image processing apparatus extracts the movement of the subject of interest from the image data of the subsequent moving image frame, and selects a frame necessary for the image composition processing from the extraction result.

また、特許文献2に開示された技術では、記録された動画像データの中から、ユーザが所望する範囲の動画像のフレームを抽出する方法が開示されている。この特許文献2で開示された方法は、動画像として各フレームを連続再生しているとき、あるいは各フレームを時系列に並べて表示しているときに、ユーザがジェスチャ操作を行う。これにより、ユーザは、動画像として各フレームを確認しながら、所望する動画像のフレームの範囲の開始点(イン点)と終了点(アウト点)とを指定する。   Further, the technique disclosed in Patent Document 2 discloses a method of extracting a moving image frame in a range desired by a user from recorded moving image data. In the method disclosed in Patent Document 2, a user performs a gesture operation when each frame is continuously reproduced as a moving image or when each frame is displayed side by side in time series. Thus, the user designates the start point (in point) and end point (out point) of the range of the desired moving image frame while confirming each frame as the moving image.

このように、画像合成の処理を行う際に、動画像データのフレームを選択したり、動画像データの特定の範囲を抽出したりすることによって、動画像データの内容を簡単に把握することができるなど、デジタルカメラの利便性を向上することができる。   In this way, when performing image composition processing, it is possible to easily grasp the contents of moving image data by selecting a frame of moving image data or extracting a specific range of moving image data. The convenience of the digital camera can be improved.

また、デジタルカメラの高速化に伴って、動画像の撮影のみではなく、連続して静止画を撮影(以下、「連写」という)する速度も速くなり、すなわち、静止画像を撮影する間隔が短くなり、同じ撮影時間でより多くの静止画像の画像データを得ることができるようになってきている。これにより、動いている被写体の軌跡を簡単に把握することができるなど、デジタルカメラの利便性を向上することができる。   Also, with the speeding up of digital cameras, not only moving images, but also the speed of continuous shooting of still images (hereinafter referred to as “continuous shooting”) has increased. It has become shorter and more still image data can be obtained in the same shooting time. This makes it possible to improve the convenience of the digital camera, such as easily grasping the locus of the moving subject.

特開2008−167220号公報JP 2008-167220 A 特開2010−277183号公報JP 2010-277183 A

しかしながら、実際に撮影された動画像データには、注目被写体以外の被写体や、背景が写されている。また、撮影された被写体そのものや、カメラの向きや背景も移動している場合がある。このため、特許文献1で開示された技術において注目被写体の動きを抽出する場合、注目被写体の検出が常に良好に行われるとは限らず、ユーザが所望する合成画像を得ることができないこともある。   However, the moving image data actually shot includes a subject other than the subject of interest and the background. In addition, the photographed subject itself, the direction of the camera, and the background may be moving. For this reason, when extracting the motion of the subject of interest in the technique disclosed in Patent Literature 1, the subject of interest is not always detected well, and the user may not be able to obtain a desired composite image. .

また、特許文献2で開示された技術において、所望する動画像のフレームの範囲を指定する場合、ユーザは動画像データ内のそれぞれのフレームを、1つずつ確認する必要がある。このため、ユーザが所望する特定の範囲を抽出する操作に、長い時間を要してしまう。   In the technique disclosed in Patent Document 2, when a desired moving image frame range is designated, the user needs to check each frame in the moving image data one by one. For this reason, it takes a long time to extract a specific range desired by the user.

また、連写によって得られた全ての静止画像の画像データを合成すると、その画像合成の処理における負荷が増大してしまう。このため、連写を開始したときや終了したときを基準にして、予め定めた枚数の画像データを合成することによって、画像合成の処理における負荷を軽減することが考えられる。しかし、合成して得られた画像(以下、「合成画像」という)は、必ずしもデジタルカメラのユーザが所望する画像であるとは限らない。   Further, if image data of all still images obtained by continuous shooting are combined, the load in the image combining process increases. For this reason, it is conceivable to reduce the load in image composition processing by compositing a predetermined number of image data on the basis of when continuous shooting is started or ended. However, an image obtained by synthesis (hereinafter referred to as “composite image”) is not necessarily an image desired by the user of the digital camera.

図7は、連写した静止画像を用いた画像合成によって生成される画像(合成画像)の一例を示した図である。図7(a)には、ユーザが所望する合成画像を示し、図7(b)には、全ての静止画像の画像データを合成した合成画像を示している。また、図7(c)には、連写を終了したときを基準にして予め定めた枚数の静止画像の画像データを合成した合成画像を示し、図7(d)には、連写を開始したときを基準にして予め定めた枚数の静止画像の画像データを合成した合成画像を示している。   FIG. 7 is a diagram illustrating an example of an image (composite image) generated by image synthesis using continuously shot still images. FIG. 7A shows a composite image desired by the user, and FIG. 7B shows a composite image obtained by combining image data of all still images. Further, FIG. 7C shows a composite image obtained by combining image data of a predetermined number of still images with reference to the time when continuous shooting is ended, and FIG. 7D shows the start of continuous shooting. A synthesized image obtained by synthesizing image data of a predetermined number of still images on the basis of the above is shown.

ユーザが所望する合成画像は、図7(a)に示したように、画像内にボールが、ある程度の距離をおいて均等に分散して写っている、いわゆる、マルチストロボ撮影によって動いている被写体(ボール)の軌跡を撮影した静止画像のような、合成画像である。しかし、連写によって撮影された全ての静止画像の画像データを1枚の合成画像に合成すると、図7(b)に示したように、画像内にボールが均等に写っている合成画像を生成することはできるが、ボールが非常に近接した画像になってしまう。ここで、画像合成の処理の負荷を軽減するために、予め定めた枚数の静止画像の画像データ(図7においては、6枚の静止画像の画像データ)を1枚の合成画像に合成することを考える。このとき、連写を開始したときを基準にすると、図7(c)に示したような合成画像が生成され、連写を終了したときを基準にすると、図7(d)に示したような合成画像が生成される。図7(c)および図7(d)に示した合成画像では、写っているボールの数を少なくすることによって、画像合成の処理における負荷を軽減することはできるが、画像内の左右の偏った位置にボールが写っている合成画像になってしまう。   As shown in FIG. 7A, the composite image desired by the user is an object moving by so-called multi-flash photography, in which balls are evenly dispersed at a certain distance in the image. It is a composite image such as a still image obtained by photographing the trajectory of (ball). However, when the image data of all the still images taken by continuous shooting are combined into one composite image, a composite image in which balls are evenly captured in the image is generated as shown in FIG. 7B. You can, but the ball is very close to the image. Here, in order to reduce the load of the image composition processing, a predetermined number of still image data (in FIG. 7, six still image data) is synthesized into one composite image. think of. At this time, if the continuous shooting is started as a reference, a composite image as shown in FIG. 7C is generated, and if the continuous shooting is ended as a reference, as shown in FIG. 7D. A composite image is generated. In the combined images shown in FIGS. 7C and 7D, the load in the image combining process can be reduced by reducing the number of balls in the image. It becomes a composite image with the ball in the position.

本発明は、上記の課題認識に基づいてなされたものであり、連続して撮影された多くの静止画像の画像データの中から少ない数の画像データを選択する際の操作を容易にし、選択した画像データを合成した合成画像を生成することができる画像処理装置、画像処理方法、および撮像装置を提供することを目的としている。   The present invention has been made on the basis of the above-described problem recognition, and facilitates and selects an operation when selecting a small number of image data from among many still image data that have been taken continuously. An object of the present invention is to provide an image processing apparatus, an image processing method, and an imaging apparatus capable of generating a composite image obtained by combining image data.

上記の課題を解決するため、本発明の画像処理装置は、時系列で連続して撮影された、一連の複数の静止画像を記録する画像記録部と、操作者によって操作され、前記画像記録部に記録された一連の複数の前記静止画像が含まれる時系列の範囲である全範囲の内、前記操作者によって指定された時系列の範囲である指定範囲を表す指定範囲情報を出力する範囲指定入力部と、前記指定範囲情報に基づいて、前記画像記録部に記録された一連の複数の前記静止画像の中から、前記指定範囲に含まれる一連の複数の前記静止画像を特定し、該特定した一連の複数の前記静止画像の中から、予め定められた条件に合致する複数の前記静止画像を選択し、該選択した複数の前記静止画像のそれぞれを、選択画像として前記画像記録部から読み出す画像選択部と、前記選択画像のそれぞれを合成した合成画像を生成する画像合成部と、前記合成画像を表示する表示部と、を備えることを特徴とする。   In order to solve the above-described problems, an image processing apparatus according to the present invention includes an image recording unit that records a series of still images taken continuously in time series, and the image recording unit that is operated by an operator. A range specification that outputs specified range information indicating a specified range that is a time-series range specified by the operator among all ranges that are a time-series range including a series of still images recorded in Based on the input unit and the specified range information, a series of the plurality of still images included in the specified range is identified from the series of the plurality of still images recorded in the image recording unit, and the identification is performed. The plurality of still images that meet a predetermined condition are selected from the series of the plurality of still images, and each of the selected plurality of still images is read from the image recording unit as a selected image. image And selecting section, characterized in that it comprises an image combining unit for generating a composite image by combining each of the selected image, and a display unit for displaying the composite image.

また、本発明の前記範囲指定入力部は、前記指定範囲の開始位置を指定するための開始位置指定手段と、前記指定範囲の終了位置を指定するための終了位置指定手段と、を具備し、前記操作者によって、前記開始位置指定手段または前記終了位置指定手段のいずれか一方または両方が変更された場合に、前記開始位置指定手段の位置の情報および前記終了位置指定手段の位置の情報を、前記指定範囲情報として出力し、前記画像選択部は、前記指定範囲情報に含まれる、前記開始位置指定手段の位置の情報および前記終了位置指定手段の位置の情報に基づいて、前記開始位置指定手段の位置から前記終了位置指定手段の位置までの前記指定範囲に含まれる一連の複数の前記静止画像を特定する、ことを特徴とする。   The range designation input unit of the present invention comprises a start position designation means for designating a start position of the designated range, and an end position designation means for designating an end position of the designated range, When one or both of the start position specifying means and the end position specifying means is changed by the operator, the position information of the start position specifying means and the position information of the end position specifying means are Output as the specified range information, and the image selection unit, based on the position information of the start position specifying unit and the position information of the end position specifying unit, included in the specified range information, A series of the plurality of still images included in the designated range from the position to the position of the end position designation means is specified.

また、本発明の前記範囲指定入力部は、前記操作者によって、前記開始位置指定手段または前記終了位置指定手段のいずれか一方または両方が変更されるたびに、前記指定範囲情報を出力し、前記画像選択部は、前記指定範囲情報に含まれる、前記開始位置指定手段の位置の情報および前記終了位置指定手段の位置の情報が変更されるたびに、一連の複数の前記静止画像を特定し、予め定められた条件に合致する複数の前記静止画像を選択し、前記選択画像として前記画像記録部から読み出し、前記画像合成部は、前記選択画像が前記画像記録部から読み出されるたびに、前記選択画像のそれぞれを合成した合成画像を生成し、前記表示部は、前記合成画像が生成されるたびに、前記合成画像を表示する、ことを特徴とする。   The range specification input unit of the present invention outputs the specified range information every time one or both of the start position specifying means and the end position specifying means is changed by the operator, The image selection unit specifies a series of still images each time the position information of the start position specifying unit and the position information of the end position specifying unit included in the specified range information are changed, A plurality of the still images that meet a predetermined condition are selected and read out as the selected image from the image recording unit, and the image composition unit performs the selection every time the selected image is read out from the image recording unit. A composite image obtained by combining each of the images is generated, and the display unit displays the composite image every time the composite image is generated.

また、本発明の画像処理装置は、前記条件として、特定した一連の複数の前記静止画像の中から選択する前記静止画像の枚数が予め定められており、前記画像選択部は、前記指定範囲において、前記静止画像が撮影された時間が等間隔になるように、予め定められた前記枚数の前記静止画像のそれぞれを選択する、ことを特徴とする。   In the image processing apparatus of the present invention, as the condition, the number of the still images to be selected from the specified series of the plurality of still images is determined in advance. Each of the predetermined number of the still images is selected so that the time when the still images are taken is equal.

また、本発明の画像処理装置は、前記条件として、特定した一連の複数の前記静止画像の中から選択する前記静止画像が撮影された時間の間隔が予め定められており、前記画像選択部は、前記指定範囲において、前記静止画像が撮影された時間が、予め定められた前記時間の間隔である前記静止画像のそれぞれを選択する、ことを特徴とする。   In the image processing apparatus of the present invention, as the condition, a time interval at which the still image to be selected from the specified series of the plurality of still images is captured is determined in advance. In the designated range, each of the still images in which the time at which the still image was taken is the predetermined time interval is selected.

また、本発明の画像処理方法は、操作者によって操作され、時系列で連続して撮影された一連の複数の静止画像を記録する画像記録部に記録された、前記静止画像が含まれる時系列の範囲である全範囲の内、前記操作者によって指定された時系列の範囲である指定範囲を表す指定範囲情報を出力する範囲指定入力ステップと、前記指定範囲情報に基づいて、前記画像記録部に記録された一連の複数の前記静止画像の中から、前記指定範囲に含まれる一連の複数の前記静止画像を特定し、該特定した一連の複数の前記静止画像の中から、予め定められた条件に合致する複数の前記静止画像を選択し、該選択した複数の前記静止画像のそれぞれを、選択画像として前記画像記録部から読み出す画像選択ステップと、前記選択画像のそれぞれを合成した合成画像を生成する画像合成ステップと、前記合成画像を表示する表示ステップと、を含むことを特徴とする。   Further, the image processing method of the present invention is a time series including the still images recorded in an image recording unit that records a series of still images that are operated by an operator and continuously photographed in time series. A range designation input step for outputting designated range information representing a designated range that is a time-series range designated by the operator among all the ranges that are ranges of the image, and the image recording unit based on the designated range information A series of the plurality of still images included in the designated range is identified from among the series of the plurality of still images recorded in the predetermined range, and a predetermined number is determined from the identified series of the plurality of still images. An image selection step of selecting a plurality of still images that meet a condition, and reading each of the selected plurality of still images from the image recording unit as a selected image, and combining each of the selected images An image synthesizing step of generating a composite image, characterized in that it comprises a display step of displaying the composite image.

また、本発明の撮像装置は、被写体を撮影した画像信号を出力する撮像部と、前記撮像部から出力された画像信号を画像処理して、時系列で連続して撮影された一連の複数の静止画像を生成する画像信号処理部と、前記画像信号処理部が生成した、一連の複数の静止画像を記録する画像記録部と、操作者によって操作され、前記画像記録部に記録された一連の複数の前記静止画像が含まれる時系列の範囲である全範囲の内、前記操作者によって指定された時系列の範囲である指定範囲を表す指定範囲情報を出力する範囲指定入力部と、前記指定範囲情報に基づいて、前記画像記録部に記録された一連の複数の前記静止画像の中から、前記指定範囲に含まれる一連の複数の前記静止画像を特定し、該特定した一連の複数の前記静止画像の中から、予め定められた条件に合致する複数の前記静止画像を選択し、該選択した複数の前記静止画像のそれぞれを、選択画像として前記画像記録部から読み出す画像選択部と、前記選択画像のそれぞれを合成した合成画像を生成する画像合成部と、前記合成画像を表示する表示部と、を備えることを特徴とする。   Further, an imaging apparatus according to the present invention includes an imaging unit that outputs an image signal obtained by imaging a subject, and a series of a plurality of images that are continuously captured in time series by performing image processing on the image signal output from the imaging unit. An image signal processing unit that generates a still image, an image recording unit that records a series of still images generated by the image signal processing unit, and a series of images that are operated by an operator and recorded in the image recording unit A range designation input unit for outputting designated range information representing a designated range that is a time-series range designated by the operator among all ranges that are a time-series range including the plurality of still images; and the designation Based on the range information, a series of the plurality of still images included in the designated range is identified from the series of the plurality of still images recorded in the image recording unit, and the identified series of the plurality of the plurality of the images From still images An image selection unit that selects a plurality of still images that meet a predetermined condition, reads each of the selected plurality of still images from the image recording unit as a selected image, and combines each of the selected images. An image composition unit that generates the composite image and a display unit that displays the composite image.

本発明によれば、連続して撮影された多くの静止画像の画像データの中から少ない数の画像データを選択する際の操作を容易にし、選択した画像データを合成した合成画像を生成することができるという効果が得られる。   According to the present invention, it is possible to facilitate an operation when selecting a small number of image data from a large number of image data of still images taken continuously, and to generate a composite image obtained by combining the selected image data. The effect of being able to be obtained.

本発明の実施形態における画像処理装置の概略構成を示したブロック図である。1 is a block diagram illustrating a schematic configuration of an image processing apparatus according to an embodiment of the present invention. 本実施形態の画像処理装置において、画像合成の処理に用いる画像の範囲を指定する方法の一例を模式的に示した図である。In the image processing apparatus of this embodiment, it is the figure which showed typically an example of the method of designating the range of the image used for the process of image composition. 本実施形態の画像処理装置において、画像合成の処理を行う画像の範囲を指定する処理の一例を模式的に示した図である。FIG. 6 is a diagram schematically illustrating an example of a process for designating a range of an image to be subjected to image composition processing in the image processing apparatus according to the present embodiment. 本実施形態の画像処理装置における画像合成処理の一例を模式的に示した図である。It is the figure which showed typically an example of the image composition process in the image processing apparatus of this embodiment. 本実施形態の画像処理装置における画像合成処理の手順を示したフローチャートである。It is the flowchart which showed the procedure of the image composition process in the image processing apparatus of this embodiment. 本実施形態の画像処理装置における画像合成処理によって生成される画像の一例を示した図である。It is the figure which showed an example of the image produced | generated by the image composition process in the image processing apparatus of this embodiment. 連写した静止画像を用いた画像合成によって生成される画像の一例を示した図である。It is the figure which showed an example of the image produced | generated by the image composition using the still image continuously shot.

以下、本発明の実施形態について、図面を参照して説明する。図1は、本実施形態における画像処理装置の概略構成を示したブロック図である。図1において、画像処理装置100は、記録媒体1と、メディアインタフェース(I/F)部2と、メモリ部3と、合成処理部4と、ビデオインタフェース(I/F)部5と、表示デバイス6と、操作デバイス7と、CPU8とから構成されている。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a schematic configuration of an image processing apparatus according to the present embodiment. In FIG. 1, an image processing apparatus 100 includes a recording medium 1, a media interface (I / F) unit 2, a memory unit 3, a composition processing unit 4, a video interface (I / F) unit 5, and a display device. 6, an operation device 7, and a CPU 8.

画像処理装置100は、記録媒体1に記録された、連続して高速に撮影(以下、「高速連写」という)された多くの静止画像(以下、「連写画像」ともいう)の画像データ(以下、「連写画像データ」という)の中から、画像合成の処理に用いる元の画像データを選択する。そして、画像処理装置100は、選択した画像合成の処理に用いる元の画像データ(以下「選択画像データ」という)を合成した画像データ(以下、「合成画像データ」という)を生成し、生成した合成画像データの画像(以下、「合成画像」ともいう)を表示デバイス6に表示する。   The image processing apparatus 100 stores image data of many still images (hereinafter also referred to as “continuous-shot images”) recorded on the recording medium 1 and photographed continuously at high speed (hereinafter referred to as “high-speed continuous shooting”). The original image data used for image composition processing is selected from (hereinafter referred to as “continuous-shot image data”). Then, the image processing apparatus 100 generates and generates image data (hereinafter referred to as “synthesized image data”) by combining the original image data (hereinafter referred to as “selected image data”) used for the selected image composition process. An image of the composite image data (hereinafter also referred to as “composite image”) is displayed on the display device 6.

図1に示した画像処理装置100は、例えば、デジタルカメラなどの撮像装置に適用することができる。画像処理装置100を撮像装置に適用した場合には、図1に示した画像処理装置100の各構成要素に加えて、レンズやレンズに入射した被写体光を画像信号に変換する撮像素子を含む撮像部、撮像部から出力された画像信号を画像処理して、連写画像データを生成する画像信号処理部、などの構成要素が追加される。なお、画像処理装置100を撮像装置に適用した場合でも、高速連写された一連の画像データは、連写画像データとして記録媒体1に記録され、その後、以下に説明する画像処理装置100の動作を行う。この場合、一連の連写画像データを記録媒体1に記録する方法は、従来の撮像装置において高速連写した一連の画像データを記録媒体に記録する方法と同様である。従って、以下の説明においては、画像処理装置100を撮像装置に適用した場合における撮像装置に特有の構成や動作に関する詳細な説明は、省略する。   The image processing apparatus 100 illustrated in FIG. 1 can be applied to an imaging apparatus such as a digital camera, for example. When the image processing apparatus 100 is applied to an imaging apparatus, in addition to the components of the image processing apparatus 100 illustrated in FIG. 1, imaging including an imaging element that converts a subject light incident on the lens and the lens into an image signal. A component such as an image signal processing unit that performs image processing on the image signal output from the image capturing unit and the image capturing unit to generate continuous shot image data is added. Even when the image processing apparatus 100 is applied to an imaging apparatus, a series of image data that has been continuously shot at high speed is recorded on the recording medium 1 as continuously shot image data, and thereafter the operation of the image processing apparatus 100 described below. I do. In this case, a method for recording a series of continuous shot image data on the recording medium 1 is the same as a method for recording a series of image data continuously shot at high speed in a conventional imaging apparatus on the recording medium. Therefore, in the following description, a detailed description of the configuration and operation unique to the imaging apparatus when the image processing apparatus 100 is applied to the imaging apparatus is omitted.

記録媒体1は、画像処理装置100が画像合成の処理を行う、連写画像データを記録する。なお、図1においては、記録媒体1も画像処理装置100の構成要素としているが、記録媒体1は、画像処理装置100に着脱可能な記録媒体である。   The recording medium 1 records continuous shot image data that the image processing apparatus 100 performs image synthesis processing. In FIG. 1, the recording medium 1 is also a component of the image processing apparatus 100, but the recording medium 1 is a recording medium that can be attached to and detached from the image processing apparatus 100.

CPU8は、画像処理装置100の構成要素、すなわち、画像処理装置100全体を制御する。操作デバイス7は、画像処理装置100のユーザによって操作されるボタンやスイッチ類などのユーザインタフェースである。なお、操作デバイス7は、ボタンやスイッチ類のみで構成されるものではなく、例えば、タッチパネルなどを含んだ構成であってもよい。以下の説明においては、操作デバイス7が、タッチパネルであるものとして説明する。   The CPU 8 controls the components of the image processing apparatus 100, that is, the entire image processing apparatus 100. The operation device 7 is a user interface such as buttons and switches operated by the user of the image processing apparatus 100. Note that the operation device 7 is not configured only with buttons and switches, and may be configured to include, for example, a touch panel. In the following description, the operation device 7 will be described as a touch panel.

ユーザは、後述する方法で操作デバイス7を操作することによって、記録媒体1に記録されている連写画像データから、画像合成の処理に用いる連写画像データの範囲を指定する。このとき、操作デバイス7は、ユーザによって指定された、画像合成の処理に用いる連写画像データの範囲を表す情報を、CPU8に出力する。そして、CPU8は、操作デバイス7から入力された、画像合成の処理に用いる連写画像データの範囲を表す情報に基づいて、記録媒体1に記録されている連写画像データから、画像合成の処理に用いる複数の選択画像データを選択し、選択した結果に基づいて、画像処理装置100の各構成要素を制御する。   The user operates the operation device 7 by a method to be described later, and designates a range of continuous shot image data used for image composition processing from the continuous shot image data recorded on the recording medium 1. At this time, the operation device 7 outputs to the CPU 8 information indicating the range of continuous shot image data specified by the user and used for image composition processing. Then, the CPU 8 performs an image composition process from continuous image data recorded on the recording medium 1 based on information representing the range of the continuous image data used for the image composition process input from the operation device 7. A plurality of selected image data to be used is selected, and each component of the image processing apparatus 100 is controlled based on the selected result.

メディアI/F部2は、CPU8からの制御に応じて記録媒体1を駆動し、記録媒体1に記録している連写画像データの内、選択された複数の連写画像データ、すなわち、画像処理装置100において画像合成の処理に用いる複数の選択画像データを読み出す。そして、メディアI/F部2は、読み出した複数の選択画像データを、メモリ部3に出力する。   The media I / F unit 2 drives the recording medium 1 in accordance with the control from the CPU 8, and among the continuous shooting image data recorded on the recording medium 1, a plurality of selected continuous shooting image data, that is, image The processing apparatus 100 reads a plurality of selected image data used for image composition processing. Then, the media I / F unit 2 outputs the plurality of read selected image data to the memory unit 3.

メモリ部3は、メディアI/F部2から入力された複数の選択画像データを、それぞれ一旦記憶する。そして、メモリ部3は、合成処理部4からの制御に応じて、記憶している選択画像データのそれぞれを、合成処理部4に出力する。   The memory unit 3 temporarily stores a plurality of selected image data input from the media I / F unit 2. Then, the memory unit 3 outputs each of the stored selected image data to the synthesis processing unit 4 in accordance with control from the synthesis processing unit 4.

合成処理部4は、CPU8からの制御に応じて、メモリ部3から入力されたそれぞれの選択画像データを1枚の合成画像に合成する画像合成処理を行って、1つの合成画像データを生成する。そして、合成処理部4は、生成した1つの合成画像データを、ビデオI/F部5に出力する。   The synthesis processing unit 4 performs image synthesis processing to synthesize each selected image data input from the memory unit 3 into one synthesized image in accordance with control from the CPU 8 to generate one synthesized image data. . Then, the composition processing unit 4 outputs the generated one composite image data to the video I / F unit 5.

ビデオI/F部5は、合成処理部4から入力された1つの合成画像データを、表示デバイス6に表示するための映像信号に変換し、変換した合成画像データの映像信号を、表示デバイス6に出力する。   The video I / F unit 5 converts one composite image data input from the composition processing unit 4 into a video signal to be displayed on the display device 6, and converts the converted composite image data video signal to the display device 6. Output to.

表示デバイス6は、例えば、LCD(Liquid Crystal Display)などの表示装置を備え、ビデオI/F部5から入力された映像信号に応じた合成画像データの画像(合成画像)を表示する。   The display device 6 includes a display device such as an LCD (Liquid Crystal Display), for example, and displays an image (composite image) of composite image data corresponding to the video signal input from the video I / F unit 5.

なお、図1では、表示デバイス6と操作デバイス7とを、それぞれ別の構成要素として示しているが、画像処理装置100においては、表示デバイス6(LCD)と操作デバイス7(タッチパネル)とが一体に構成されていてもよい。この構成により、ユーザは、表示デバイス6に表示された合成画像を確認しながら操作デバイス7を操作することによって、画像処理装置100の操作を行うことができる。以下の説明においては、表示デバイス6と操作デバイス7とが一体に構成されているものとして説明する。   In FIG. 1, the display device 6 and the operation device 7 are shown as separate components, but in the image processing apparatus 100, the display device 6 (LCD) and the operation device 7 (touch panel) are integrated. It may be configured. With this configuration, the user can operate the image processing apparatus 100 by operating the operation device 7 while confirming the composite image displayed on the display device 6. In the following description, it is assumed that the display device 6 and the operation device 7 are integrally configured.

ここで、ユーザによる画像処理装置100の操作方法、すなわち、画像合成の処理に用いる選択画像データの選択方法について説明する。図2は、本実施形態の画像処理装置100において、画像合成の処理に用いる画像の範囲を指定する方法の一例を模式的に示した図である。図2には、表示デバイス6と操作デバイス7とが一体に構成されている場合において、表示デバイス6に表示される画像を、表示画面10として示している。   Here, a method for operating the image processing apparatus 100 by the user, that is, a method for selecting selected image data used for image composition processing will be described. FIG. 2 is a diagram schematically illustrating an example of a method for designating a range of an image used for image composition processing in the image processing apparatus 100 of the present embodiment. In FIG. 2, an image displayed on the display device 6 when the display device 6 and the operation device 7 are integrally configured is shown as a display screen 10.

表示画面10には、合成画像9と、ツマミ11および12が表示される。合成画像9は、合成処理部4によって生成された合成画像データの画像である。ツマミ11および12は、ユーザが画像合成の処理に用いる画像の範囲を指定する際にジェスチャ操作するツマミ(スライドバー)である。ツマミ11および12のそれぞれの位置は、画像合成の処理を行う可能性がある全ての連写画像データの範囲において、画像合成の処理を開始する連写画像データの位置および画像合成の処理を終了する連写画像データの位置のそれぞれを、相対的に表している。   On the display screen 10, a composite image 9 and knobs 11 and 12 are displayed. The composite image 9 is an image of composite image data generated by the composite processing unit 4. Knobs 11 and 12 are knobs (slide bars) for performing a gesture operation when the user designates an image range to be used for image composition processing. The positions of the knobs 11 and 12 are the positions of the continuous shot image data for starting the image synthesis processing and the image synthesis processing in the range of all continuous shot image data that may be subjected to the image synthesis processing. Each position of the continuous shot image data is relatively represented.

ユーザが、ツマミ11および12を押下しながら左右に移動させると、操作デバイス7は、押下されている位置、すなわち、ツマミ11および12の位置を検出し、検出したツマミ11および12の位置の情報を、ユーザによって指定された画像合成の処理に用いる連写画像データの範囲を表す情報として、CPU8に出力する。   When the user moves the knobs 11 and 12 left and right while pressing the knobs 11 and 12, the operation device 7 detects the pressed position, that is, the positions of the knobs 11 and 12, and information on the positions of the detected knobs 11 and 12 is detected. Are output to the CPU 8 as information representing the range of the continuous shot image data used for the image composition processing designated by the user.

CPU8は、操作デバイス7から入力された画像合成の処理に用いる連写画像データの範囲を表す情報に基づいて、ユーザによって指定された画像合成の処理に用いる画像の範囲を算出する。より具体的には、CPU8は、画像合成の処理に用いる画像の範囲の算出処理によって、ツマミ11とツマミ12との間に含まれる一連の連写画像データを特定する。そして、CPU8は、連写画像データを特定した結果に基づいて、記録媒体1に記録されている連写画像データから、画像合成の処理に用いる複数の選択画像データを選択する。   The CPU 8 calculates the range of the image used for the image composition process designated by the user based on the information representing the range of the continuous shot image data used for the image composition process input from the operation device 7. More specifically, the CPU 8 specifies a series of continuous shot image data included between the knob 11 and the knob 12 by a calculation process of an image range used for the image composition process. Then, the CPU 8 selects a plurality of selected image data to be used for image composition processing from the continuous shot image data recorded on the recording medium 1 based on the result of specifying the continuous shot image data.

CPU8が選択画像データを選択する際、例えば、予め画像合成の処理に用いる選択画像データの枚数を決めておき、特定した連写画像データの中から、予め決められた枚数の連写画像データを選択する。このとき、CPU8は、選択画像データとして選択する連写画像データの間隔が等間隔になるように、すなわち、選択されたそれぞれの連写画像データにおける撮影時間の間隔が等間隔になるように、連写画像データを選択画像データとして選択する。これにより、動いている被写体が等間隔に写された合成画像データを生成することができる。   When the CPU 8 selects the selected image data, for example, the number of selected image data to be used for the image composition process is determined in advance, and a predetermined number of continuous image data is selected from the specified continuous image data. select. At this time, the CPU 8 is configured so that the interval between the continuous shot image data selected as the selected image data is equal, that is, the shooting time interval in each selected continuous shot image data is equal. The continuous image data is selected as selected image data. As a result, it is possible to generate composite image data in which a moving subject is photographed at equal intervals.

より具体的には、例えば、記録媒体1に、高速連写された一連のn(n:正の整数、n≧3)枚の静止画像が記録されている場合を考える。このとき、CPU8は、画像合成の処理に用いる画像の範囲の算出処理によって、ツマミ11とツマミ12との間に含まれる一連のm(m:正の整数、3≦m≦n)枚の連写画像データを特定する。そして、CPU8は、予め決められたs(s:正の整数、3≦s≦m)枚の連写画像データを、連写画像データの間隔が等間隔になるように、選択画像データとして選択する。これにより、動いている被写体がs回、等間隔に写された合成画像データを生成することができる。   More specifically, for example, consider a case where a series of n (n: positive integer, n ≧ 3) still images that have been continuously shot at high speed are recorded on the recording medium 1. At this time, the CPU 8 calculates a series of m (m: positive integer, 3 ≦ m ≦ n) consecutive images included between the knob 11 and the knob 12 by calculating the range of the image used for the image composition process. Specify image data. Then, the CPU 8 selects predetermined s (s: positive integer, 3 ≦ s ≦ m) continuous shot image data as selection image data so that the intervals of the continuous shot image data are equal. To do. As a result, it is possible to generate composite image data in which a moving subject is captured s times at equal intervals.

次に、本実施形態の画像処理装置100おける画像合成の処理に用いる画像の範囲について説明する。図3は、本実施形態の画像処理装置100において、画像合成の処理を行う画像の範囲を指定する処理の一例を模式的に示した図である。図3には、ツマミ11および12の位置と連写画像データとの関係を示している。   Next, the range of images used for image composition processing in the image processing apparatus 100 of the present embodiment will be described. FIG. 3 is a diagram schematically illustrating an example of processing for designating a range of an image to be subjected to image composition processing in the image processing apparatus 100 according to the present embodiment. FIG. 3 shows the relationship between the positions of the knobs 11 and 12 and the continuous shot image data.

図3に示した表示13内には、ユーザが画像合成の処理に用いる画像の範囲を指定する際に操作する、図2に示したツマミ11および12を示している。また、図3において、距離Aはツマミ11の可動範囲の左端の位置から現在の位置までの距離を示し、距離Bはツマミ11の可動範囲の右端の位置から現在の位置までの距離を示している。同様に、距離Cはツマミ12の可動範囲の左端の位置から現在の位置までの距離を示し、距離Dはツマミ12の可動範囲の右端の位置から現在の位置までの距離を示している。ユーザがジェスチャ操作によってツマミ11および12の位置を左右に移動させることによって、距離A〜Dが変化する。操作デバイス7は、距離A〜Dの情報を、CPU8に出力する。   In the display 13 shown in FIG. 3, the knobs 11 and 12 shown in FIG. 2 that are operated when the user designates the range of the image used for the image composition processing are shown. In FIG. 3, the distance A indicates the distance from the left end position of the movable range of the knob 11 to the current position, and the distance B indicates the distance from the right end position of the movable range of the knob 11 to the current position. Yes. Similarly, the distance C indicates the distance from the left end position of the movable range of the knob 12 to the current position, and the distance D indicates the distance from the right end position of the movable range of the knob 12 to the current position. When the user moves the positions of the knobs 11 and 12 to the left and right by the gesture operation, the distances A to D change. The operation device 7 outputs information on the distances A to D to the CPU 8.

また、図3において、連写画像データ群14は、記録媒体1に記録されている一連の連写画像データを、左から順に時系列に並べて表したものである。なお、連写画像データ群14内のそれぞれの連写画像データは、表示デバイス6に表示されない。また、連写画像データ15は、連写画像データ群14に含まれる一連の連写画像データの内、先頭の連写画像データを示し、連写画像データ16は、連写画像データ群14に含まれる一連の連写画像データの内、最終の連写画像データを示している。また、連写画像データ17は、連写画像データ群14に含まれる一連の連写画像データ内で、ツマミ11によって相対的に表された、画像合成の処理を開始する位置に対応する連写画像データを示している。また、連写画像データ18は、連写画像データ群14に含まれる一連の連写画像データ内で、ツマミ12によって相対的に表された、画像合成の処理を終了する位置に対応する連写画像データを示している。   In FIG. 3, the continuous-shot image data group 14 represents a series of continuous-shot image data recorded on the recording medium 1 in time series from the left. Note that each continuous-shot image data in the continuous-shot image data group 14 is not displayed on the display device 6. The continuous shot image data 15 indicates the first continuous shot image data in a series of continuous shot image data included in the continuous shot image data group 14, and the continuous shot image data 16 is included in the continuous shot image data group 14. Of the series of continuous shot image data included, the last continuous shot image data is shown. The continuous-shot image data 17 is a series of continuous-shot image data included in the continuous-shot image data group 14. The continuous-shot image data 17 is relatively represented by the knob 11 and corresponds to the position at which the image composition processing starts. Image data is shown. The continuous-shot image data 18 is a series of continuous-shot image data included in the continuous-shot image data group 14. The continuous-shot image data 18 is relatively represented by the knob 12 and corresponds to the position at which the image composition processing is terminated. Image data is shown.

また、図3において、枚数Eは連写画像データ15から連写画像データ17までの連写画像の枚数を示し、枚数Fは連写画像データ17から連写画像データ16までの連写画像の枚数を示している。同様に、枚数Gは連写画像データ15から連写画像データ18までの連写画像の枚数を示し、枚数Hは連写画像データ18から連写画像データ16までの連写画像の枚数を示している。   In FIG. 3, the number E indicates the number of continuous shot images from the continuous shot image data 15 to the continuous shot image data 17, and the number F indicates the number of continuous shot images from the continuous shot image data 17 to the continuous shot image data 16. Indicates the number of sheets. Similarly, the number G indicates the number of continuous shot images from the continuous shot image data 15 to the continuous shot image data 18, and the number H indicates the number of continuous shot images from the continuous shot image data 18 to the continuous shot image data 16. ing.

CPU8は、操作デバイス7から入力された距離A〜Dの情報に基づいて、連写画像データ17および連写画像データ18を選択画像データとして選択する。上述したように、ツマミ11および12のそれぞれの位置は、連写画像データ群14の範囲において、画像合成の処理を開始する連写画像データ17の位置および画像合成の処理を終了する連写画像データ18の位置のそれぞれを、相対的に表している。このため、CPU8は、下式(1)が成り立つ位置の連写画像データを、連写画像データ17として選択する。また、CPU8は、下式(2)が成り立つ位置の連写画像データを、連写画像データ18として選択する。ここで選択された連写画像データ17および連写画像データ18は、それぞれ、選択画像データとなる。   The CPU 8 selects the continuous shot image data 17 and the continuous shot image data 18 as selection image data based on the information of the distances A to D input from the operation device 7. As described above, the positions of the knobs 11 and 12 are within the range of the continuous shot image data group 14, the position of the continuous shot image data 17 that starts the image combining process, and the continuous shot image that ends the image combining process. Each position of the data 18 is represented relatively. Therefore, the CPU 8 selects continuous shot image data at a position where the following expression (1) is satisfied as the continuous shot image data 17. Further, the CPU 8 selects the continuous shot image data at the position where the following expression (2) is satisfied as the continuous shot image data 18. The continuous shot image data 17 and the continuous shot image data 18 selected here are selected image data, respectively.

A:B=E:F ・・・(1)     A: B = E: F (1)

C:D=G:H ・・・(2)     C: D = G: H (2)

ツマミ11がユーザのジェスチャ操作によって左右に移動した場合、CPU8は、上式(1)が成り立つ位置の連写画像データを、連写画像データ17として、再度選択する。また、ツマミ12がユーザのジェスチャ操作によって左右に移動した場合、CPU8は、上式(2)が成り立つ位置の連写画像データを、連写画像データ18として、再度選択する。このように、CPU8は、ユーザのジェスチャ操作によってツマミ11または12の位置が左右に移動する毎に、連写画像データ17または連写画像データ18の選択をやり直す。   When the knob 11 is moved to the left or right by the user's gesture operation, the CPU 8 selects again the continuous shot image data at the position where the above formula (1) is satisfied as the continuous shot image data 17. When the knob 12 is moved to the left or right by the user's gesture operation, the CPU 8 again selects the continuous shot image data at the position where the above equation (2) is satisfied as the continuous shot image data 18. In this way, the CPU 8 re-selects the continuous shot image data 17 or the continuous shot image data 18 every time the position of the knob 11 or 12 is moved to the left or right by the user's gesture operation.

また、CPU8は、操作デバイス7から入力された距離A〜Dの情報に基づいて、ツマミ11とツマミ12との間に含まれる連写画像データの中から、予め決められた枚数の連写画像データを、連写画像データの間隔が等間隔になるように選択する。このとき、CPU8は、連写画像データ17および連写画像データ18と、連写画像データ17から連写画像データ18までの間の連写画像データの内、それぞれの連写画像データの間隔が等間隔になる連写画像データとを選択する。より具体的には、連写画像データ17と連写画像データ18との2枚の連写画像データがすでに選択されているため、CPU8は、予め決められた枚数−2枚の連写画像データを、連写画像データ17から連写画像データ18までの間の連写画像データから選択する。ここで選択されたそれぞれの連写画像データも、選択画像データとなる。   Further, the CPU 8 determines a predetermined number of continuous shot images from the continuous shot image data included between the knobs 11 and 12 based on the information of the distances A to D input from the operation device 7. The data is selected so that the interval between the continuous shot image data is equal. At this time, the CPU 8 determines the interval between the continuous shot image data 17 and the continuous shot image data 18 and the continuous shot image data from the continuous shot image data 17 to the continuous shot image data 18. Select continuous-shot image data at equal intervals. More specifically, since two continuous-shot image data of the continuous-shot image data 17 and the continuous-shot image data 18 have already been selected, the CPU 8 determines the predetermined number-two continuous-shot image data. Is selected from continuous shot image data between continuous shot image data 17 and continuous shot image data 18. Each continuous shot image data selected here is also selected image data.

次に、本実施形態の画像処理装置100おける画像合成処理について説明する。図4は、本実施形態の画像処理装置100における画像合成処理の一例を模式的に示した図である。図4には、CPU8が選択した選択画像データと、合成処理部4による画像合成処理との関係を示している。   Next, the image composition process in the image processing apparatus 100 of the present embodiment will be described. FIG. 4 is a diagram schematically illustrating an example of image composition processing in the image processing apparatus 100 of the present embodiment. FIG. 4 shows the relationship between the selected image data selected by the CPU 8 and the image composition processing by the composition processing unit 4.

図4において、選択画像データ群19は、CPU8によって選択された選択画像データを、左から順に時系列に並べて表したものである。なお、選択画像データ群19内のそれぞれの選択画像データは、連写画像データの間隔が等間隔になるように選択された、予め決められた枚数の連写画像データである。図4では、予め決められた枚数が6枚である場合を示している。   In FIG. 4, the selected image data group 19 represents the selected image data selected by the CPU 8 arranged in time series from the left. Each selected image data in the selected image data group 19 is a predetermined number of continuous-shot image data selected so that the interval between the continuous-shot image data is equal. FIG. 4 shows a case where the predetermined number is six.

図4を見てわかるように、選択画像データ群19は、連写画像データ群14に含まれる連写画像データの間引きを行って、枚数を減らした画像データ群である。これにより、連写画像データ群14に含まれる全ての連写画像データを1枚の合成画像に画像合成処理する場合に比べて、合成処理部4の画像合成処理の負荷を軽減することができる。すなわち、合成処理部4による画像合成処理には多くの処理時間を要するが、本実施形態の画像処理装置100では、選択画像データ群19のように画像合成処理を行う画像データの枚数を少なくする(間引く)ことによって、画像合成処理に要する処理時間を短縮することができる。   As can be seen from FIG. 4, the selected image data group 19 is an image data group in which the continuous shot image data included in the continuous shot image data group 14 is thinned to reduce the number of images. As a result, compared to the case where all continuous shot image data included in the continuous shot image data group 14 is subjected to image combining processing into one composite image, the load of the image combining processing of the combining processing unit 4 can be reduced. . That is, although a long processing time is required for the image synthesizing process by the synthesizing unit 4, the image processing apparatus 100 according to the present embodiment reduces the number of image data to be subjected to the image synthesizing process as in the selected image data group 19. By (thinning out), the processing time required for the image composition process can be shortened.

合成処理部4は、図4に示した画像合成処理20によって、選択画像データ群19に含まれる全ての選択画像データを1枚の合成画像に合成した、1つの合成画像データ21を生成する。そして、合成処理部4は、生成した1つの合成画像データ21を、ビデオI/F部5に出力する。   The composite processing unit 4 generates one composite image data 21 by combining all the selected image data included in the selected image data group 19 into one composite image by the image composite processing 20 shown in FIG. Then, the composition processing unit 4 outputs the generated one composite image data 21 to the video I / F unit 5.

その後、合成処理部4が生成した合成画像データ21は、ビデオI/F部5によって映像信号に変換され、表示デバイス6に表示される。ここで表示デバイス6に表示される合成画像データ21の合成画像の一例が、図2に示した合成画像9である。   Thereafter, the synthesized image data 21 generated by the synthesis processing unit 4 is converted into a video signal by the video I / F unit 5 and displayed on the display device 6. An example of the composite image of the composite image data 21 displayed on the display device 6 is the composite image 9 shown in FIG.

次に、本実施形態の画像処理装置100における画像合成処理の手順について説明する。図5は、本実施形態の画像処理装置100における画像合成処理の手順を示したフローチャートである。   Next, the procedure of image composition processing in the image processing apparatus 100 of the present embodiment will be described. FIG. 5 is a flowchart showing a procedure of image composition processing in the image processing apparatus 100 of the present embodiment.

画像処理装置100による画像合成の処理を開始すると、まず、ステップS1において、CPU8は、ツマミ11および12を表示する最初の位置を設定(初期化)する。なお、ツマミ11および12を表示する最初の位置は、予め定めた位置であればよい。例えば、下式(3)となる位置に、ツマミ11および12を表示する最初の位置を設定する。   When the image composition processing by the image processing apparatus 100 is started, first, in step S1, the CPU 8 sets (initializes) the initial position where the knobs 11 and 12 are displayed. The initial position for displaying the knobs 11 and 12 may be a predetermined position. For example, the first position where the knobs 11 and 12 are displayed is set at a position represented by the following expression (3).

A:B=1:2
C:D=2:1 ・・・(3)
A: B = 1: 2
C: D = 2: 1 (3)

また、操作デバイス7は、図3および図4に示したような、距離A〜Dの情報を、CPU8に出力する。   Further, the operation device 7 outputs information on the distances A to D as shown in FIGS. 3 and 4 to the CPU 8.

続いて、ステップS2において、CPU8は、操作デバイス7から入力された距離A〜Dの情報に基づいて、上式(1)および上式(2)により、図4に示したような、選択画像データ群19のそれぞれの選択画像データを選択する。   Subsequently, in step S2, the CPU 8 selects the selected image as shown in FIG. 4 by the above formula (1) and the above formula (2) based on the information on the distances A to D input from the operation device 7. Each selected image data of the data group 19 is selected.

続いて、ステップS3において、CPU8は、選択した選択画像データ群19に含まれるそれぞれの選択画像データを読み出すために、メディアI/F部2を制御する。これにより、メディアI/F部2は、記録媒体1に記録している連写画像データの内、CPU8によって選択された複数の連写画像データを、選択画像データとして読み出し、メモリ部3に出力する。また、メモリ部3は、メディアI/F部2から入力されたそれぞれの選択画像データを、一旦記憶する。   Subsequently, in step S <b> 3, the CPU 8 controls the media I / F unit 2 in order to read each selected image data included in the selected selected image data group 19. As a result, the media I / F unit 2 reads a plurality of continuous shot image data selected by the CPU 8 among the continuous shot image data recorded on the recording medium 1 as selected image data, and outputs the selected image data to the memory unit 3. To do. The memory unit 3 temporarily stores each selected image data input from the media I / F unit 2.

続いて、ステップS4において、CPU8は、合成処理部4に、画像合成処理を開始させる。これにより、合成処理部4は、メモリ部3に一旦記憶されたそれぞれの選択画像データを1枚の合成画像に合成した、図4に示したような、1つの合成画像データ21を生成する。そして、合成処理部4は、生成した合成画像データ21を、ビデオI/F部5に出力する。   Subsequently, in step S4, the CPU 8 causes the composition processing unit 4 to start image composition processing. As a result, the composition processing unit 4 generates one composite image data 21 as shown in FIG. 4 by composing each selected image data once stored in the memory unit 3 into one composite image. Then, the composition processing unit 4 outputs the generated composite image data 21 to the video I / F unit 5.

続いて、ステップS5において、ビデオI/F部5は、合成処理部4から入力された合成画像データ21を映像信号に変換し、変換した合成画像データ21の映像信号を、表示デバイス6に出力する。そして、表示デバイス6は、ビデオI/F部5から入力された映像信号に応じた、合成画像データ21の合成画像を表示する。   Subsequently, in step S <b> 5, the video I / F unit 5 converts the combined image data 21 input from the combining processing unit 4 into a video signal, and outputs the converted video signal of the combined image data 21 to the display device 6. To do. The display device 6 displays a composite image of the composite image data 21 corresponding to the video signal input from the video I / F unit 5.

続いて、ステップS6において、CPU8は、ユーザのジェスチャ操作によってツマミ11または12の位置が変更された否かを判定する。この判定では、CPU8は、ツマミ11または12のいずれか一方または両方が変更されたことにより、操作デバイス7から変更された距離AとB、または距離CとDのいずれか一方または両方の情報が出力されているか否かによって判定する。   Subsequently, in step S6, the CPU 8 determines whether or not the position of the knob 11 or 12 has been changed by the user's gesture operation. In this determination, the CPU 8 determines that either one or both of the distances A and B and / or the distances C and D are changed from the operation device 7 due to the change of either or both of the knobs 11 and 12. Judgment is made based on whether or not it is output.

ステップS6による判定の結果、ユーザのジェスチャ操作によってツマミ11または12のいずれか一方でも位置が変更されていると判定された場合には、ステップS2に戻って、再度、操作デバイス7から入力された距離A〜Dの情報に基づいた選択画像データ群19のそれぞれの選択画像データの選択から、画像合成の処理を繰り返す。   As a result of the determination in step S6, when it is determined that the position of either the knob 11 or 12 has been changed by the user's gesture operation, the process returns to step S2 and is input from the operation device 7 again. From the selection of each selected image data of the selected image data group 19 based on the information of the distances A to D, the image composition process is repeated.

また、ステップS6による判定の結果、ユーザのジェスチャ操作によってツマミ11および12のいずれの位置も変更されていない判定された場合には、ステップS6によるツマミ11または12の位置が変更された否かの判定を繰り返す。   Further, as a result of the determination in step S6, if it is determined that neither position of the knobs 11 and 12 has been changed by the user's gesture operation, whether or not the position of the knob 11 or 12 in step S6 has been changed. Repeat the determination.

このような動作によって、画像処理装置100は、ユーザがジェスチャ操作によってツマミ11または12の位置を変更するたびに、画像合成処理に用いる選択画像データ群19のそれぞれの選択画像データの選択、選択された複数の選択画像データの記録媒体1からの読み出し、合成処理部4の画像合成処理による合成画像データ21の生成、表示デバイス6への合成画像データ21の合成画像の表示、を繰り返すことができる。   By such an operation, the image processing apparatus 100 selects and selects each selected image data of the selected image data group 19 used for the image composition process every time the user changes the position of the knob 11 or 12 by a gesture operation. Further, it is possible to repeatedly read a plurality of selected image data from the recording medium 1, generate composite image data 21 by image composition processing of the composition processing unit 4, and display a composite image of the composite image data 21 on the display device 6. .

ここで、画像処理装置100によって画像合成処理した合成画像の一例について説明する。図6は、本実施形態の画像処理装置100における画像合成処理によって生成される画像(合成画像)の一例を示した図である。図6には、予め決められた枚数が6枚である場合において、ツマミ11および12の位置と合成画像9との関係を示している。図6に示したように、ユーザがジェスチャ操作によってツマミ11および12の位置を変更すると、ツマミ11および12の位置に応じた異なる合成画像9が表示される。   Here, an example of a composite image that has been subjected to image composition processing by the image processing apparatus 100 will be described. FIG. 6 is a diagram illustrating an example of an image (composite image) generated by image composition processing in the image processing apparatus 100 according to the present embodiment. FIG. 6 shows the relationship between the positions of the knobs 11 and 12 and the composite image 9 when the predetermined number is six. As shown in FIG. 6, when the user changes the positions of the knobs 11 and 12 by a gesture operation, different composite images 9 corresponding to the positions of the knobs 11 and 12 are displayed.

図6(a)は、ツマミ11の位置とツマミ12の位置とを、全ての連写画像データの範囲内の離れた位置にした場合を示している。この場合、CPU8は、全ての連写画像データの中から、連写画像データの間隔が等間隔になるように、6枚の連写画像データを選択する。これにより、合成画像9は、合成画像9内のボールが、ある程度の距離をおいて均等に分散して写っている画像になる。   FIG. 6A shows a case where the position of the knob 11 and the position of the knob 12 are separated from each other within the range of all continuous shot image data. In this case, the CPU 8 selects six continuous shot image data from among all the continuous shot image data so that the interval between the continuous shot image data is equal. As a result, the composite image 9 becomes an image in which the balls in the composite image 9 are evenly distributed at a certain distance.

このように、画像処理装置100では、図6(a)に示したように、高速連写された一連の静止画像から、6枚の連写画像データを間引きすることによって、見かけ上、連写の速度を遅くした(低速で連写した)静止画像を合成した合成画像9を表示することができる。なお、図6(a)に示した合成画像9は、マルチストロボ撮影によって動いている被写体(ボール)の軌跡を撮影した静止画像であるともいえる。   In this way, as shown in FIG. 6A, the image processing apparatus 100 apparently continuously captures six consecutively shot image data from a series of still images that have been continuously shot at high speed. The synthesized image 9 obtained by synthesizing the still images with a reduced speed (successively taken at a low speed) can be displayed. Note that the composite image 9 shown in FIG. 6A can be said to be a still image obtained by shooting the trajectory of a moving subject (ball) by multi-flash shooting.

図6(b)は、ツマミ11の位置とツマミ12の位置とを近づけ、全ての連写画像データの範囲内の右側によせた位置、すなわち、高速連写を終了したときに近い位置にした場合を示している。この場合、CPU8は、後半の連写画像データの中から、連写画像データの間隔が等間隔になるように、6枚の連写画像データを選択する。これにより、合成画像9は、合成画像9内のボールが、時間的に後の方に偏って写っている画像になる。   In FIG. 6 (b), the position of the knob 11 and the position of the knob 12 are brought close to each other so that they are close to the right side in the range of all continuous image data, that is, close to the position when high-speed continuous shooting is finished. Shows the case. In this case, the CPU 8 selects six continuous shot image data from the latter half of the continuous shot image data so that the interval between the continuous shot image data is equal. As a result, the composite image 9 becomes an image in which the balls in the composite image 9 appear to be biased backward in time.

図6(c)は、ツマミ11の位置とツマミ12の位置とを近づけ、全ての連写画像データの範囲内の左側によせた位置、すなわち、高速連写を開始したときに近い位置にした場合を示している。この場合、CPU8は、前半の連写画像データの中から、連写画像データの間隔が等間隔になるように、6枚の連写画像データを選択する。これにより、合成画像9は、合成画像9内のボールが、時間的に前の方に偏って写っている画像になる。   In FIG. 6 (c), the position of the knob 11 and the position of the knob 12 are brought close to each other so that they are close to the left side within the range of all continuous shot image data, that is, close to the position when high-speed continuous shooting is started. Shows the case. In this case, the CPU 8 selects six continuous shot image data from the first half of the continuous shot image data so that the interval between the continuous shot image data is equal. As a result, the composite image 9 becomes an image in which the balls in the composite image 9 appear to be biased forward in time.

このように、画像処理装置100では、ユーザがジェスチャ操作によってツマミ11および12の位置を変更することによって、異なる合成画像9を表示することができる。言い換えると、ユーザは、合成画像9が所望する画像になるように、ツマミ11および12の位置を変更するジェスチャ操作を行えばよい。   As described above, in the image processing apparatus 100, the user can display different composite images 9 by changing the positions of the knobs 11 and 12 by a gesture operation. In other words, the user may perform a gesture operation for changing the positions of the knobs 11 and 12 so that the composite image 9 becomes a desired image.

上記に述べたとおり、本発明を実施するための形態によれば、ユーザが、簡単なジェスチャ操作によって、画像合成の処理に用いる画像の範囲を指定する。そして、指定された画像合成の処理に用いる画像の範囲に含まれる画像の中から、撮影時間の間隔が等間隔になるように、画像合成の処理に用いる画像を選択する。これにより、時系列で連続して撮影された静止画像の中から、画像合成の処理に用いる予め定めた枚数の静止画像を容易に選択することができる。   As described above, according to the embodiment for carrying out the present invention, the user designates a range of an image to be used for image composition processing by a simple gesture operation. Then, an image to be used for the image composition process is selected from the images included in the range of the image to be used for the designated image composition process so that the shooting time intervals are equal. This makes it possible to easily select a predetermined number of still images used for image composition processing from among still images taken continuously in time series.

また、本発明を実施するための形態によれば、選択したそれぞれの静止画像を画像合成処理した1枚の合成画像を逐次生成し、生成した合成画像を逐次表示する。これにより、ユーザは、表示された合成画像をリアルタイムで確認しながら、合成画像が所望する画像になるまで、ジェスチャ操作によって、画像合成の処理に用いる画像の範囲を逐次変更することができる。   According to the embodiment for carrying out the present invention, one synthesized image obtained by subjecting each selected still image to image synthesis processing is sequentially generated, and the generated synthesized image is sequentially displayed. Accordingly, the user can sequentially change the range of the image used for the image synthesis process by the gesture operation until the synthesized image becomes a desired image while checking the displayed synthesized image in real time.

このように、本発明を実施するための形態によれば、従来の技術のように、ユーザが、画像合成の処理に用いる元の画像自体を確認することや選択することがなく、また、画像合成の処理に用いる元の画像の枚数を意識することがなく、高速連写された一連の静止画像から、所望する合成画像を得ることができる。つまり、本発明を実施するための形態によれば、ユーザは、例えば、特許文献2で開示された技術のように、1つ1つの静止画像を確認しながら開始点(イン点)と終了点(アウト点)とを指定する必要がなく、表示された合成画像にのみ注目して簡単な操作を行うことによって、所望する合成画像を得ることができる。   As described above, according to the mode for carrying out the present invention, the user does not check or select the original image used for the image composition process as in the conventional technique, and the image A desired composite image can be obtained from a series of still images that have been continuously shot at high speed without being aware of the number of original images used in the composition process. That is, according to the mode for carrying out the present invention, the user can check the individual still images and check the start point (in point) and the end point as in the technique disclosed in Patent Document 2, for example. It is not necessary to designate (out point), and a desired composite image can be obtained by performing a simple operation while paying attention only to the displayed composite image.

なお、本実施形態においては、予め画像合成の処理に用いる選択画像データの枚数を決めておき、CPU8が、ユーザによって指定された連写画像の範囲の中から、連写画像データの撮影時間の間隔が等間隔になるように、予め決められた枚数の連写画像データを、選択画像データとして選択する場合の例について説明した。しかし、CPU8が選択画像データを選択する方法は、本発明を実施するための形態に限定されるものではない。例えば、予め選択する連写画像データの間隔を決めておき、特定した連写画像データの中から、予め決められた間隔で連写画像データを選択することもできる。この方法で連写画像データを選択画像データとして選択すると、被写体の動きの速さによって、合成画像データに写される数が異なる合成画像データを生成することができる。より具体的には、動きの速い被写体は写される回数が少なく、動きの遅い被写体は写される回数が多い合成画像データを生成することができる。   In the present embodiment, the number of selected image data to be used for image composition processing is determined in advance, and the CPU 8 determines the shooting time of continuous shot image data from the range of continuous shot images designated by the user. An example has been described in which a predetermined number of continuous shot image data is selected as selection image data so that the intervals are equal. However, the method by which the CPU 8 selects the selected image data is not limited to the form for carrying out the present invention. For example, it is also possible to determine the interval of continuous-shot image data to be selected in advance and select continuous-shot image data at a predetermined interval from the specified continuous-shot image data. When continuous image data is selected as selected image data by this method, it is possible to generate composite image data in which the number of images captured in the composite image data differs depending on the speed of movement of the subject. More specifically, it is possible to generate composite image data in which a fast-moving subject is photographed less frequently and a slow-moving subject is photographed more frequently.

また、本実施形態においては、画像合成の処理に用いる選択画像データの枚数を予め決めておき、選択する連写画像データの撮影時間の間隔が等間隔である場合の例について説明した。しかし、画像合成の処理に用いる選択画像データの枚数や、選択する連写画像データの撮影時間の間隔は、本発明を実施するための形態に限定されるものではなく、例えば、ユーザによって逐次変更することができる構成にすることもできる。この場合、例えば、図2に示した表示画面10において、合成画像9の左右に、画像合成の処理に用いる選択画像データの枚数を設定するツマミ(スライドバー)と、選択する連写画像データの撮影時間の間隔を設定するツマミ(スライドバー)とを配置する。そして、ユーザがジェスチャ操作によってこれらのツマミの位置を上下に移動させることによって、画像合成の処理に用いる選択画像データの枚数と、選択する連写画像データの撮影時間の間隔とを変更する構成にすることもできる。この場合、CPU8は、選択画像データを選択する際に、操作デバイス7から入力されたこれらのツマミの位置の情報に基づいて、設定された枚数の連写画像データを、設定された間隔で選択することになる。   Further, in the present embodiment, an example has been described in which the number of selected image data used for image composition processing is determined in advance, and the shooting time intervals of continuous shot image data to be selected are equal intervals. However, the number of selected image data used for image composition processing and the shooting time interval of continuous shot image data to be selected are not limited to the mode for carrying out the present invention. It can also be configured to be able to. In this case, for example, on the display screen 10 shown in FIG. 2, a knob (slide bar) for setting the number of selected image data used for image composition processing on the left and right of the composite image 9 and the continuous-shot image data to be selected. A knob (slide bar) for setting the shooting time interval is arranged. Then, the user moves the position of these knobs up and down by a gesture operation, thereby changing the number of selected image data used for image composition processing and the shooting time interval of the continuous shot image data to be selected. You can also In this case, when selecting the selected image data, the CPU 8 selects the set number of continuous shot image data at the set intervals based on the position information of these knobs input from the operation device 7. Will do.

また、本実施形態においては、ツマミ11とツマミ12とによって、画像合成の処理に用いる画像の範囲をユーザが指定する場合の例について説明した。しかし、ユーザが画像合成の処理に用いる画像の範囲を指定する方法は、本発明を実施するための形態に限定されるものではない。   Further, in the present embodiment, an example has been described in which the user designates an image range to be used for image composition processing with the knob 11 and the knob 12. However, the method for designating the range of the image used by the user for the image composition process is not limited to the mode for carrying out the present invention.

また、本実施形態においては、合成画像9とツマミ11および12とが、図2に示した表示画面10のように配置された一例を示したが、合成画像9とツマミ11および12との配置は、本発明を実施するための形態に限定されるものではない。   Further, in the present embodiment, an example in which the composite image 9 and the knobs 11 and 12 are arranged as in the display screen 10 shown in FIG. 2 is shown, but the arrangement of the composite image 9 and the knobs 11 and 12 is shown. However, the present invention is not limited to the mode for carrying out the present invention.

また、本実施形態においては、合成処理部4が生成した合成画像データ21を、表示デバイス6に合成画像として表示する場合について説明した。しかし、合成処理部4が合成画像データ21を生成した後の処理は、本発明を実施するための形態に限定されるものではない。例えば、合成画像データ21の合成画像を表示デバイス6に表示し、ユーザが所望する合成画像であると判断された場合に、ユーザが操作デバイス7を操作することによって、最終の合成画像データ21を、記録媒体1に記録する構成にすることもできる。   Further, in the present embodiment, a case has been described in which the composite image data 21 generated by the composite processing unit 4 is displayed on the display device 6 as a composite image. However, the processing after the composite processing unit 4 generates the composite image data 21 is not limited to the form for carrying out the present invention. For example, when the composite image of the composite image data 21 is displayed on the display device 6 and it is determined that the composite image is desired by the user, the final composite image data 21 is obtained by operating the operation device 7 by the user. The recording medium 1 can also be configured to record.

また、本実施形態においては、画像処理装置100を、デジタルカメラなどの撮像装置に適用することができるという説明をしたが、画像処理装置を適用するシステムは、本実施形態に限定されるものではなく、高速連写された一連の静止画像から所望する合成画像を生成するシステムであれば、どのようなシステムも適用することができる。   In the present embodiment, it has been described that the image processing apparatus 100 can be applied to an imaging apparatus such as a digital camera. However, a system to which the image processing apparatus is applied is not limited to the present embodiment. In addition, any system can be applied as long as it is a system that generates a desired composite image from a series of still images that are continuously shot at high speed.

以上、本発明の実施形態について、図面を参照して説明してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲においての種々の変更も含まれる。   The embodiment of the present invention has been described above with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes various modifications within the scope of the present invention. It is.

100・・・画像処理装置
1・・・記録媒体(画像記録部)
2・・・メディアインタフェース(I/F)部(画像選択部)
3・・・メモリ部(画像選択部)
4・・・合成処理部(画像合成部)
5・・・ビデオインタフェース(I/F)部(表示部)
6・・・表示デバイス(表示部)
7・・・操作デバイス(範囲指定入力部)
8・・・CPU(画像選択部)
9・・・合成画像
10・・・表示画面
11・・・ツマミ(開始位置指定手段)
12・・・ツマミ(終了位置指定手段)
13・・・表示(開始位置指定手段,終了位置指定手段)
14・・・連写画像データ群
15・・・連写画像データ(静止画像)
16・・・連写画像データ(静止画像)
17・・・連写画像データ(静止画像,選択画像)
18・・・連写画像データ(静止画像,選択画像)
19・・・選択画像データ群
20・・・画像合成処理
21・・・合成画像データ(合成画像)
DESCRIPTION OF SYMBOLS 100 ... Image processing apparatus 1 ... Recording medium (image recording part)
2. Media interface (I / F) section (image selection section)
3. Memory unit (image selection unit)
4 ... Composition processing unit (image composition unit)
5 ... Video interface (I / F) section (display section)
6. Display device (display unit)
7 ... Operation device (range specification input part)
8 ... CPU (image selection unit)
9 ... Composite image 10 ... Display screen 11 ... Knob (start position designation means)
12 ... Knob (End position designation means)
13 ... Display (start position designation means, end position designation means)
14: Continuous image data group 15: Continuous image data (still image)
16: Continuous image data (still images)
17 ... Continuous image data (still image, selected image)
18 ... Continuous shot image data (still image, selected image)
19 ... Selected image data group 20 ... Image composition processing 21 ... Composite image data (composite image)

Claims (7)

時系列で連続して撮影された、一連の複数の静止画像を記録する画像記録部と、
操作者によって操作され、前記画像記録部に記録された一連の複数の前記静止画像が含まれる時系列の範囲である全範囲の内、前記操作者によって指定された時系列の範囲である指定範囲を表す指定範囲情報を出力する範囲指定入力部と、
前記指定範囲情報に基づいて、前記画像記録部に記録された一連の複数の前記静止画像の中から、前記指定範囲に含まれる一連の複数の前記静止画像を特定し、該特定した一連の複数の前記静止画像の中から、予め定められた条件に合致する複数の前記静止画像を選択し、該選択した複数の前記静止画像のそれぞれを、選択画像として前記画像記録部から読み出す画像選択部と、
前記選択画像のそれぞれを合成した合成画像を生成する画像合成部と、
前記合成画像を表示する表示部と、
を備えることを特徴とする画像処理装置。
An image recording unit that records a series of still images taken continuously in time series;
A designated range that is a time-series range designated by the operator, out of a whole range that is a time-series range including a series of the plurality of still images that are operated by the operator and recorded in the image recording unit. A range specification input section for outputting specified range information representing
Based on the designated range information, a series of the plurality of still images included in the designated range is identified from among the series of the plurality of still images recorded in the image recording unit, and the identified series of the plurality of still images An image selection unit that selects a plurality of the still images that meet a predetermined condition from the still images, and reads each of the selected plurality of still images from the image recording unit as a selection image; ,
An image synthesis unit that generates a synthesized image obtained by synthesizing each of the selected images;
A display unit for displaying the composite image;
An image processing apparatus comprising:
前記範囲指定入力部は、
前記指定範囲の開始位置を指定するための開始位置指定手段と、
前記指定範囲の終了位置を指定するための終了位置指定手段と、
を具備し、
前記操作者によって、前記開始位置指定手段または前記終了位置指定手段のいずれか一方または両方が変更された場合に、前記開始位置指定手段の位置の情報および前記終了位置指定手段の位置の情報を、前記指定範囲情報として出力し、
前記画像選択部は、
前記指定範囲情報に含まれる、前記開始位置指定手段の位置の情報および前記終了位置指定手段の位置の情報に基づいて、前記開始位置指定手段の位置から前記終了位置指定手段の位置までの前記指定範囲に含まれる一連の複数の前記静止画像を特定する、
ことを特徴とする請求項1に記載の画像処理装置。
The range designation input unit is:
Start position specifying means for specifying the start position of the specified range;
An end position specifying means for specifying an end position of the specified range;
Comprising
When one or both of the start position specifying means and the end position specifying means is changed by the operator, the position information of the start position specifying means and the position information of the end position specifying means are Output as the specified range information,
The image selection unit
The designation from the position of the start position designation means to the position of the end position designation means based on the position information of the start position designation means and the position information of the end position designation means included in the designation range information Identifying a series of said still images included in a range;
The image processing apparatus according to claim 1.
前記範囲指定入力部は、
前記操作者によって、前記開始位置指定手段または前記終了位置指定手段のいずれか一方または両方が変更されるたびに、前記指定範囲情報を出力し、
前記画像選択部は、
前記指定範囲情報に含まれる、前記開始位置指定手段の位置の情報および前記終了位置指定手段の位置の情報が変更されるたびに、一連の複数の前記静止画像を特定し、予め定められた条件に合致する複数の前記静止画像を選択し、前記選択画像として前記画像記録部から読み出し、
前記画像合成部は、
前記選択画像が前記画像記録部から読み出されるたびに、前記選択画像のそれぞれを合成した合成画像を生成し、
前記表示部は、
前記合成画像が生成されるたびに、前記合成画像を表示する、
ことを特徴とする請求項2に記載の画像処理装置。
The range designation input unit is:
The specified range information is output every time one or both of the start position specifying means and the end position specifying means are changed by the operator,
The image selection unit
Each time the position information of the start position specifying means and the position information of the end position specifying means included in the specified range information is changed, a series of the still images are specified, and a predetermined condition A plurality of the still images that match, and read from the image recording unit as the selected image,
The image composition unit
Each time the selected image is read from the image recording unit, a combined image is generated by combining the selected images.
The display unit
Each time the composite image is generated, the composite image is displayed.
The image processing apparatus according to claim 2.
前記条件として、特定した一連の複数の前記静止画像の中から選択する前記静止画像の枚数が予め定められており、
前記画像選択部は、
前記指定範囲において、前記静止画像が撮影された時間が等間隔になるように、予め定められた前記枚数の前記静止画像のそれぞれを選択する、
ことを特徴とする請求項3に記載の画像処理装置。
As the condition, the number of the still images to be selected from the specified series of the still images is predetermined,
The image selection unit
Selecting each of the predetermined number of the still images so that the time at which the still images were taken are equally spaced in the designated range;
The image processing apparatus according to claim 3.
前記条件として、特定した一連の複数の前記静止画像の中から選択する前記静止画像が撮影された時間の間隔が予め定められており、
前記画像選択部は、
前記指定範囲において、前記静止画像が撮影された時間が、予め定められた前記時間の間隔である前記静止画像のそれぞれを選択する、
ことを特徴とする請求項3に記載の画像処理装置。
As the condition, an interval of time at which the still image to be selected from the specified series of the still images is captured is determined in advance.
The image selection unit
Selecting each of the still images in which the time at which the still image was taken in the designated range is a predetermined time interval;
The image processing apparatus according to claim 3.
操作者によって操作され、時系列で連続して撮影された一連の複数の静止画像を記録する画像記録部に記録された、前記静止画像が含まれる時系列の範囲である全範囲の内、前記操作者によって指定された時系列の範囲である指定範囲を表す指定範囲情報を出力する範囲指定入力ステップと、
前記指定範囲情報に基づいて、前記画像記録部に記録された一連の複数の前記静止画像の中から、前記指定範囲に含まれる一連の複数の前記静止画像を特定し、該特定した一連の複数の前記静止画像の中から、予め定められた条件に合致する複数の前記静止画像を選択し、該選択した複数の前記静止画像のそれぞれを、選択画像として前記画像記録部から読み出す画像選択ステップと、
前記選択画像のそれぞれを合成した合成画像を生成する画像合成ステップと、
前記合成画像を表示する表示ステップと、
を含むことを特徴とする画像処理方法。
Recorded in an image recording unit that is operated by an operator and records a series of still images taken continuously in time series, and within the entire range that is the time series range including the still images, A range specification input step for outputting specified range information representing a specified range that is a time-series range specified by an operator;
Based on the designated range information, a series of the plurality of still images included in the designated range is identified from among the series of the plurality of still images recorded in the image recording unit, and the identified series of the plurality of still images An image selection step of selecting a plurality of still images that meet a predetermined condition from the still images, and reading each of the selected plurality of still images from the image recording unit as a selected image; ,
An image synthesis step of generating a synthesized image obtained by synthesizing each of the selected images;
A display step for displaying the composite image;
An image processing method comprising:
被写体を撮影した画像信号を出力する撮像部と、
前記撮像部から出力された画像信号を画像処理して、時系列で連続して撮影された一連の複数の静止画像を生成する画像信号処理部と、
前記画像信号処理部が生成した、一連の複数の静止画像を記録する画像記録部と、
操作者によって操作され、前記画像記録部に記録された一連の複数の前記静止画像が含まれる時系列の範囲である全範囲の内、前記操作者によって指定された時系列の範囲である指定範囲を表す指定範囲情報を出力する範囲指定入力部と、
前記指定範囲情報に基づいて、前記画像記録部に記録された一連の複数の前記静止画像の中から、前記指定範囲に含まれる一連の複数の前記静止画像を特定し、該特定した一連の複数の前記静止画像の中から、予め定められた条件に合致する複数の前記静止画像を選択し、該選択した複数の前記静止画像のそれぞれを、選択画像として前記画像記録部から読み出す画像選択部と、
前記選択画像のそれぞれを合成した合成画像を生成する画像合成部と、
前記合成画像を表示する表示部と、
を備えることを特徴とする撮像装置。
An imaging unit that outputs an image signal of a subject image;
An image signal processing unit that performs image processing on the image signal output from the imaging unit, and generates a series of still images that are continuously captured in time series;
An image recording unit that records a series of still images generated by the image signal processing unit;
A designated range that is a time-series range designated by the operator, out of a whole range that is a time-series range including a series of the plurality of still images that are operated by the operator and recorded in the image recording unit. A range specification input section for outputting specified range information representing
Based on the designated range information, a series of the plurality of still images included in the designated range is identified from among the series of the plurality of still images recorded in the image recording unit, and the identified series of the plurality of still images An image selection unit that selects a plurality of the still images that meet a predetermined condition from the still images, and reads each of the selected plurality of still images from the image recording unit as a selection image; ,
An image synthesis unit that generates a synthesized image obtained by synthesizing each of the selected images;
A display unit for displaying the composite image;
An imaging apparatus comprising:
JP2011265841A 2011-12-05 2011-12-05 Image processor, image processing method, and imaging apparatus Pending JP2013117908A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011265841A JP2013117908A (en) 2011-12-05 2011-12-05 Image processor, image processing method, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011265841A JP2013117908A (en) 2011-12-05 2011-12-05 Image processor, image processing method, and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2013117908A true JP2013117908A (en) 2013-06-13

Family

ID=48712415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011265841A Pending JP2013117908A (en) 2011-12-05 2011-12-05 Image processor, image processing method, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2013117908A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014183564A (en) * 2013-03-21 2014-09-29 Kyocera Corp Imaging apparatus, program and control method of imaging apparatus
US10290365B2 (en) 2014-03-17 2019-05-14 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method, and non-transitory computer readable medium
JP2019169795A (en) * 2018-03-22 2019-10-03 カシオ計算機株式会社 Image editing device, image editing method, and program
JP2022065049A (en) * 2018-03-22 2022-04-26 カシオ計算機株式会社 Image editing device, image editing method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014183564A (en) * 2013-03-21 2014-09-29 Kyocera Corp Imaging apparatus, program and control method of imaging apparatus
US10290365B2 (en) 2014-03-17 2019-05-14 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method, and non-transitory computer readable medium
JP2019169795A (en) * 2018-03-22 2019-10-03 カシオ計算機株式会社 Image editing device, image editing method, and program
JP7024539B2 (en) 2018-03-22 2022-02-24 カシオ計算機株式会社 Image editing device, image editing method, and program
JP2022065049A (en) * 2018-03-22 2022-04-26 カシオ計算機株式会社 Image editing device, image editing method, and program
JP7283594B2 (en) 2018-03-22 2023-05-30 カシオ計算機株式会社 Image editing device, image editing method, and program

Similar Documents

Publication Publication Date Title
KR101376455B1 (en) Image processing apparatus and image display method
JP5389724B2 (en) Image processing apparatus, image processing method, and program
JP6529267B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND STORAGE MEDIUM
KR101948692B1 (en) Phtographing apparatus and method for blending images
JP2013117908A (en) Image processor, image processing method, and imaging apparatus
JP7163228B2 (en) IMAGING DEVICE, IMAGE SYNTHESIS METHOD, AND IMAGE SYNTHESIS PROGRAM
JP6056551B2 (en) Image processing program and digital camera
JP5266701B2 (en) Imaging apparatus, subject separation method, and program
JP6460783B2 (en) Image processing apparatus and control method thereof
JP2007053616A (en) Digital camera
JP2010097449A (en) Image composition device, image composition method and image composition program
JP5479149B2 (en) Image generation device
JP5181453B2 (en) Image display device, image display method, and program
JP6625598B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system
JP6512208B2 (en) Image processing apparatus, image processing method and program
JP5464231B2 (en) Image display device, image display method, and program
JP5370577B2 (en) Composition selection device and program
JP2005267455A (en) Image processing system, display device, and image processing method
JP6259006B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system
JP2013021654A (en) Reproduction apparatus
JP2011050107A (en) Camera, camera control program, and imaging method
JP2011139123A (en) Image processor and image processing program
JP2011087105A (en) Image processor and method for controlling the same, program, and medium
JP5932963B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system
JP5677598B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system