JP2013117908A - Image processor, image processing method, and imaging apparatus - Google Patents
Image processor, image processing method, and imaging apparatus Download PDFInfo
- Publication number
- JP2013117908A JP2013117908A JP2011265841A JP2011265841A JP2013117908A JP 2013117908 A JP2013117908 A JP 2013117908A JP 2011265841 A JP2011265841 A JP 2011265841A JP 2011265841 A JP2011265841 A JP 2011265841A JP 2013117908 A JP2013117908 A JP 2013117908A
- Authority
- JP
- Japan
- Prior art keywords
- image
- still images
- series
- image data
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、および撮像装置に関する。 The present invention relates to an image processing device, an image processing method, and an imaging device.
近年、デジタルカメラなどの撮像装置には、単なる写真の撮影にとどまらず、利便性を向上させる様々な機能が次々に搭載されてきている。その1つとして、例えば、複数の写真を合成して、新たな写真を生み出す画像合成の機能が考えられる。この画像合成の機能を用いることによって、例えば、動画像データに含まれる複数フレームの画像データを、1枚の静止画像の画像データとして合成することができる。 2. Description of the Related Art In recent years, various functions for improving convenience are being installed one after another in an imaging apparatus such as a digital camera, in addition to taking pictures. As one of them, for example, a function of image composition for generating a new photograph by combining a plurality of photographs can be considered. By using this image composition function, for example, image data of a plurality of frames included in moving image data can be synthesized as image data of one still image.
デジタルカメラの使用者(ユーザ)が所望する合成画像の結果を得るためには、動画像データの中から、ユーザが注目する被写体、あるいはシーンが撮影されている範囲の複数のフレームを、画像合成の処理を行う元の入力画像とするのが望ましい。フレームを選択する方法や、動画像データの中から特定の範囲を抽出する方法として、例えば、特許文献1や特許文献2に開示されたような技術が提案されている。
In order to obtain a composite image result desired by the user (user) of the digital camera, a plurality of frames in the range where the subject or scene in which the user is interested are captured from the moving image data. It is desirable to use the original input image for performing the above process. As a method for selecting a frame and a method for extracting a specific range from moving image data, for example, techniques disclosed in Patent Document 1 and
特許文献1に開示された技術では、動画像データの中から複数枚の静止画像を抽出し、抽出した静止画像の画像データを合成処理することによって、新たな静止画像を得ている。特許文献1では、まず、ユーザが、動画像に写された特定の被写体を注目被写体として指定する。その後、画像処理装置が、後続する動画像のフレームの画像データの中から注目被写体の動きを抽出し、その抽出結果から画像合成の処理に必要なフレームを選択している。 In the technique disclosed in Patent Document 1, a plurality of still images are extracted from moving image data, and a new still image is obtained by synthesizing image data of the extracted still images. In Patent Document 1, first, a user designates a specific subject captured in a moving image as a subject of interest. Thereafter, the image processing apparatus extracts the movement of the subject of interest from the image data of the subsequent moving image frame, and selects a frame necessary for the image composition processing from the extraction result.
また、特許文献2に開示された技術では、記録された動画像データの中から、ユーザが所望する範囲の動画像のフレームを抽出する方法が開示されている。この特許文献2で開示された方法は、動画像として各フレームを連続再生しているとき、あるいは各フレームを時系列に並べて表示しているときに、ユーザがジェスチャ操作を行う。これにより、ユーザは、動画像として各フレームを確認しながら、所望する動画像のフレームの範囲の開始点(イン点)と終了点(アウト点)とを指定する。
Further, the technique disclosed in
このように、画像合成の処理を行う際に、動画像データのフレームを選択したり、動画像データの特定の範囲を抽出したりすることによって、動画像データの内容を簡単に把握することができるなど、デジタルカメラの利便性を向上することができる。 In this way, when performing image composition processing, it is possible to easily grasp the contents of moving image data by selecting a frame of moving image data or extracting a specific range of moving image data. The convenience of the digital camera can be improved.
また、デジタルカメラの高速化に伴って、動画像の撮影のみではなく、連続して静止画を撮影(以下、「連写」という)する速度も速くなり、すなわち、静止画像を撮影する間隔が短くなり、同じ撮影時間でより多くの静止画像の画像データを得ることができるようになってきている。これにより、動いている被写体の軌跡を簡単に把握することができるなど、デジタルカメラの利便性を向上することができる。 Also, with the speeding up of digital cameras, not only moving images, but also the speed of continuous shooting of still images (hereinafter referred to as “continuous shooting”) has increased. It has become shorter and more still image data can be obtained in the same shooting time. This makes it possible to improve the convenience of the digital camera, such as easily grasping the locus of the moving subject.
しかしながら、実際に撮影された動画像データには、注目被写体以外の被写体や、背景が写されている。また、撮影された被写体そのものや、カメラの向きや背景も移動している場合がある。このため、特許文献1で開示された技術において注目被写体の動きを抽出する場合、注目被写体の検出が常に良好に行われるとは限らず、ユーザが所望する合成画像を得ることができないこともある。 However, the moving image data actually shot includes a subject other than the subject of interest and the background. In addition, the photographed subject itself, the direction of the camera, and the background may be moving. For this reason, when extracting the motion of the subject of interest in the technique disclosed in Patent Literature 1, the subject of interest is not always detected well, and the user may not be able to obtain a desired composite image. .
また、特許文献2で開示された技術において、所望する動画像のフレームの範囲を指定する場合、ユーザは動画像データ内のそれぞれのフレームを、1つずつ確認する必要がある。このため、ユーザが所望する特定の範囲を抽出する操作に、長い時間を要してしまう。
In the technique disclosed in
また、連写によって得られた全ての静止画像の画像データを合成すると、その画像合成の処理における負荷が増大してしまう。このため、連写を開始したときや終了したときを基準にして、予め定めた枚数の画像データを合成することによって、画像合成の処理における負荷を軽減することが考えられる。しかし、合成して得られた画像(以下、「合成画像」という)は、必ずしもデジタルカメラのユーザが所望する画像であるとは限らない。 Further, if image data of all still images obtained by continuous shooting are combined, the load in the image combining process increases. For this reason, it is conceivable to reduce the load in image composition processing by compositing a predetermined number of image data on the basis of when continuous shooting is started or ended. However, an image obtained by synthesis (hereinafter referred to as “composite image”) is not necessarily an image desired by the user of the digital camera.
図7は、連写した静止画像を用いた画像合成によって生成される画像(合成画像)の一例を示した図である。図7(a)には、ユーザが所望する合成画像を示し、図7(b)には、全ての静止画像の画像データを合成した合成画像を示している。また、図7(c)には、連写を終了したときを基準にして予め定めた枚数の静止画像の画像データを合成した合成画像を示し、図7(d)には、連写を開始したときを基準にして予め定めた枚数の静止画像の画像データを合成した合成画像を示している。 FIG. 7 is a diagram illustrating an example of an image (composite image) generated by image synthesis using continuously shot still images. FIG. 7A shows a composite image desired by the user, and FIG. 7B shows a composite image obtained by combining image data of all still images. Further, FIG. 7C shows a composite image obtained by combining image data of a predetermined number of still images with reference to the time when continuous shooting is ended, and FIG. 7D shows the start of continuous shooting. A synthesized image obtained by synthesizing image data of a predetermined number of still images on the basis of the above is shown.
ユーザが所望する合成画像は、図7(a)に示したように、画像内にボールが、ある程度の距離をおいて均等に分散して写っている、いわゆる、マルチストロボ撮影によって動いている被写体(ボール)の軌跡を撮影した静止画像のような、合成画像である。しかし、連写によって撮影された全ての静止画像の画像データを1枚の合成画像に合成すると、図7(b)に示したように、画像内にボールが均等に写っている合成画像を生成することはできるが、ボールが非常に近接した画像になってしまう。ここで、画像合成の処理の負荷を軽減するために、予め定めた枚数の静止画像の画像データ(図7においては、6枚の静止画像の画像データ)を1枚の合成画像に合成することを考える。このとき、連写を開始したときを基準にすると、図7(c)に示したような合成画像が生成され、連写を終了したときを基準にすると、図7(d)に示したような合成画像が生成される。図7(c)および図7(d)に示した合成画像では、写っているボールの数を少なくすることによって、画像合成の処理における負荷を軽減することはできるが、画像内の左右の偏った位置にボールが写っている合成画像になってしまう。 As shown in FIG. 7A, the composite image desired by the user is an object moving by so-called multi-flash photography, in which balls are evenly dispersed at a certain distance in the image. It is a composite image such as a still image obtained by photographing the trajectory of (ball). However, when the image data of all the still images taken by continuous shooting are combined into one composite image, a composite image in which balls are evenly captured in the image is generated as shown in FIG. 7B. You can, but the ball is very close to the image. Here, in order to reduce the load of the image composition processing, a predetermined number of still image data (in FIG. 7, six still image data) is synthesized into one composite image. think of. At this time, if the continuous shooting is started as a reference, a composite image as shown in FIG. 7C is generated, and if the continuous shooting is ended as a reference, as shown in FIG. 7D. A composite image is generated. In the combined images shown in FIGS. 7C and 7D, the load in the image combining process can be reduced by reducing the number of balls in the image. It becomes a composite image with the ball in the position.
本発明は、上記の課題認識に基づいてなされたものであり、連続して撮影された多くの静止画像の画像データの中から少ない数の画像データを選択する際の操作を容易にし、選択した画像データを合成した合成画像を生成することができる画像処理装置、画像処理方法、および撮像装置を提供することを目的としている。 The present invention has been made on the basis of the above-described problem recognition, and facilitates and selects an operation when selecting a small number of image data from among many still image data that have been taken continuously. An object of the present invention is to provide an image processing apparatus, an image processing method, and an imaging apparatus capable of generating a composite image obtained by combining image data.
上記の課題を解決するため、本発明の画像処理装置は、時系列で連続して撮影された、一連の複数の静止画像を記録する画像記録部と、操作者によって操作され、前記画像記録部に記録された一連の複数の前記静止画像が含まれる時系列の範囲である全範囲の内、前記操作者によって指定された時系列の範囲である指定範囲を表す指定範囲情報を出力する範囲指定入力部と、前記指定範囲情報に基づいて、前記画像記録部に記録された一連の複数の前記静止画像の中から、前記指定範囲に含まれる一連の複数の前記静止画像を特定し、該特定した一連の複数の前記静止画像の中から、予め定められた条件に合致する複数の前記静止画像を選択し、該選択した複数の前記静止画像のそれぞれを、選択画像として前記画像記録部から読み出す画像選択部と、前記選択画像のそれぞれを合成した合成画像を生成する画像合成部と、前記合成画像を表示する表示部と、を備えることを特徴とする。 In order to solve the above-described problems, an image processing apparatus according to the present invention includes an image recording unit that records a series of still images taken continuously in time series, and the image recording unit that is operated by an operator. A range specification that outputs specified range information indicating a specified range that is a time-series range specified by the operator among all ranges that are a time-series range including a series of still images recorded in Based on the input unit and the specified range information, a series of the plurality of still images included in the specified range is identified from the series of the plurality of still images recorded in the image recording unit, and the identification is performed. The plurality of still images that meet a predetermined condition are selected from the series of the plurality of still images, and each of the selected plurality of still images is read from the image recording unit as a selected image. image And selecting section, characterized in that it comprises an image combining unit for generating a composite image by combining each of the selected image, and a display unit for displaying the composite image.
また、本発明の前記範囲指定入力部は、前記指定範囲の開始位置を指定するための開始位置指定手段と、前記指定範囲の終了位置を指定するための終了位置指定手段と、を具備し、前記操作者によって、前記開始位置指定手段または前記終了位置指定手段のいずれか一方または両方が変更された場合に、前記開始位置指定手段の位置の情報および前記終了位置指定手段の位置の情報を、前記指定範囲情報として出力し、前記画像選択部は、前記指定範囲情報に含まれる、前記開始位置指定手段の位置の情報および前記終了位置指定手段の位置の情報に基づいて、前記開始位置指定手段の位置から前記終了位置指定手段の位置までの前記指定範囲に含まれる一連の複数の前記静止画像を特定する、ことを特徴とする。 The range designation input unit of the present invention comprises a start position designation means for designating a start position of the designated range, and an end position designation means for designating an end position of the designated range, When one or both of the start position specifying means and the end position specifying means is changed by the operator, the position information of the start position specifying means and the position information of the end position specifying means are Output as the specified range information, and the image selection unit, based on the position information of the start position specifying unit and the position information of the end position specifying unit, included in the specified range information, A series of the plurality of still images included in the designated range from the position to the position of the end position designation means is specified.
また、本発明の前記範囲指定入力部は、前記操作者によって、前記開始位置指定手段または前記終了位置指定手段のいずれか一方または両方が変更されるたびに、前記指定範囲情報を出力し、前記画像選択部は、前記指定範囲情報に含まれる、前記開始位置指定手段の位置の情報および前記終了位置指定手段の位置の情報が変更されるたびに、一連の複数の前記静止画像を特定し、予め定められた条件に合致する複数の前記静止画像を選択し、前記選択画像として前記画像記録部から読み出し、前記画像合成部は、前記選択画像が前記画像記録部から読み出されるたびに、前記選択画像のそれぞれを合成した合成画像を生成し、前記表示部は、前記合成画像が生成されるたびに、前記合成画像を表示する、ことを特徴とする。 The range specification input unit of the present invention outputs the specified range information every time one or both of the start position specifying means and the end position specifying means is changed by the operator, The image selection unit specifies a series of still images each time the position information of the start position specifying unit and the position information of the end position specifying unit included in the specified range information are changed, A plurality of the still images that meet a predetermined condition are selected and read out as the selected image from the image recording unit, and the image composition unit performs the selection every time the selected image is read out from the image recording unit. A composite image obtained by combining each of the images is generated, and the display unit displays the composite image every time the composite image is generated.
また、本発明の画像処理装置は、前記条件として、特定した一連の複数の前記静止画像の中から選択する前記静止画像の枚数が予め定められており、前記画像選択部は、前記指定範囲において、前記静止画像が撮影された時間が等間隔になるように、予め定められた前記枚数の前記静止画像のそれぞれを選択する、ことを特徴とする。 In the image processing apparatus of the present invention, as the condition, the number of the still images to be selected from the specified series of the plurality of still images is determined in advance. Each of the predetermined number of the still images is selected so that the time when the still images are taken is equal.
また、本発明の画像処理装置は、前記条件として、特定した一連の複数の前記静止画像の中から選択する前記静止画像が撮影された時間の間隔が予め定められており、前記画像選択部は、前記指定範囲において、前記静止画像が撮影された時間が、予め定められた前記時間の間隔である前記静止画像のそれぞれを選択する、ことを特徴とする。 In the image processing apparatus of the present invention, as the condition, a time interval at which the still image to be selected from the specified series of the plurality of still images is captured is determined in advance. In the designated range, each of the still images in which the time at which the still image was taken is the predetermined time interval is selected.
また、本発明の画像処理方法は、操作者によって操作され、時系列で連続して撮影された一連の複数の静止画像を記録する画像記録部に記録された、前記静止画像が含まれる時系列の範囲である全範囲の内、前記操作者によって指定された時系列の範囲である指定範囲を表す指定範囲情報を出力する範囲指定入力ステップと、前記指定範囲情報に基づいて、前記画像記録部に記録された一連の複数の前記静止画像の中から、前記指定範囲に含まれる一連の複数の前記静止画像を特定し、該特定した一連の複数の前記静止画像の中から、予め定められた条件に合致する複数の前記静止画像を選択し、該選択した複数の前記静止画像のそれぞれを、選択画像として前記画像記録部から読み出す画像選択ステップと、前記選択画像のそれぞれを合成した合成画像を生成する画像合成ステップと、前記合成画像を表示する表示ステップと、を含むことを特徴とする。 Further, the image processing method of the present invention is a time series including the still images recorded in an image recording unit that records a series of still images that are operated by an operator and continuously photographed in time series. A range designation input step for outputting designated range information representing a designated range that is a time-series range designated by the operator among all the ranges that are ranges of the image, and the image recording unit based on the designated range information A series of the plurality of still images included in the designated range is identified from among the series of the plurality of still images recorded in the predetermined range, and a predetermined number is determined from the identified series of the plurality of still images. An image selection step of selecting a plurality of still images that meet a condition, and reading each of the selected plurality of still images from the image recording unit as a selected image, and combining each of the selected images An image synthesizing step of generating a composite image, characterized in that it comprises a display step of displaying the composite image.
また、本発明の撮像装置は、被写体を撮影した画像信号を出力する撮像部と、前記撮像部から出力された画像信号を画像処理して、時系列で連続して撮影された一連の複数の静止画像を生成する画像信号処理部と、前記画像信号処理部が生成した、一連の複数の静止画像を記録する画像記録部と、操作者によって操作され、前記画像記録部に記録された一連の複数の前記静止画像が含まれる時系列の範囲である全範囲の内、前記操作者によって指定された時系列の範囲である指定範囲を表す指定範囲情報を出力する範囲指定入力部と、前記指定範囲情報に基づいて、前記画像記録部に記録された一連の複数の前記静止画像の中から、前記指定範囲に含まれる一連の複数の前記静止画像を特定し、該特定した一連の複数の前記静止画像の中から、予め定められた条件に合致する複数の前記静止画像を選択し、該選択した複数の前記静止画像のそれぞれを、選択画像として前記画像記録部から読み出す画像選択部と、前記選択画像のそれぞれを合成した合成画像を生成する画像合成部と、前記合成画像を表示する表示部と、を備えることを特徴とする。 Further, an imaging apparatus according to the present invention includes an imaging unit that outputs an image signal obtained by imaging a subject, and a series of a plurality of images that are continuously captured in time series by performing image processing on the image signal output from the imaging unit. An image signal processing unit that generates a still image, an image recording unit that records a series of still images generated by the image signal processing unit, and a series of images that are operated by an operator and recorded in the image recording unit A range designation input unit for outputting designated range information representing a designated range that is a time-series range designated by the operator among all ranges that are a time-series range including the plurality of still images; and the designation Based on the range information, a series of the plurality of still images included in the designated range is identified from the series of the plurality of still images recorded in the image recording unit, and the identified series of the plurality of the plurality of the images From still images An image selection unit that selects a plurality of still images that meet a predetermined condition, reads each of the selected plurality of still images from the image recording unit as a selected image, and combines each of the selected images. An image composition unit that generates the composite image and a display unit that displays the composite image.
本発明によれば、連続して撮影された多くの静止画像の画像データの中から少ない数の画像データを選択する際の操作を容易にし、選択した画像データを合成した合成画像を生成することができるという効果が得られる。 According to the present invention, it is possible to facilitate an operation when selecting a small number of image data from a large number of image data of still images taken continuously, and to generate a composite image obtained by combining the selected image data. The effect of being able to be obtained.
以下、本発明の実施形態について、図面を参照して説明する。図1は、本実施形態における画像処理装置の概略構成を示したブロック図である。図1において、画像処理装置100は、記録媒体1と、メディアインタフェース(I/F)部2と、メモリ部3と、合成処理部4と、ビデオインタフェース(I/F)部5と、表示デバイス6と、操作デバイス7と、CPU8とから構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a schematic configuration of an image processing apparatus according to the present embodiment. In FIG. 1, an
画像処理装置100は、記録媒体1に記録された、連続して高速に撮影(以下、「高速連写」という)された多くの静止画像(以下、「連写画像」ともいう)の画像データ(以下、「連写画像データ」という)の中から、画像合成の処理に用いる元の画像データを選択する。そして、画像処理装置100は、選択した画像合成の処理に用いる元の画像データ(以下「選択画像データ」という)を合成した画像データ(以下、「合成画像データ」という)を生成し、生成した合成画像データの画像(以下、「合成画像」ともいう)を表示デバイス6に表示する。
The
図1に示した画像処理装置100は、例えば、デジタルカメラなどの撮像装置に適用することができる。画像処理装置100を撮像装置に適用した場合には、図1に示した画像処理装置100の各構成要素に加えて、レンズやレンズに入射した被写体光を画像信号に変換する撮像素子を含む撮像部、撮像部から出力された画像信号を画像処理して、連写画像データを生成する画像信号処理部、などの構成要素が追加される。なお、画像処理装置100を撮像装置に適用した場合でも、高速連写された一連の画像データは、連写画像データとして記録媒体1に記録され、その後、以下に説明する画像処理装置100の動作を行う。この場合、一連の連写画像データを記録媒体1に記録する方法は、従来の撮像装置において高速連写した一連の画像データを記録媒体に記録する方法と同様である。従って、以下の説明においては、画像処理装置100を撮像装置に適用した場合における撮像装置に特有の構成や動作に関する詳細な説明は、省略する。
The
記録媒体1は、画像処理装置100が画像合成の処理を行う、連写画像データを記録する。なお、図1においては、記録媒体1も画像処理装置100の構成要素としているが、記録媒体1は、画像処理装置100に着脱可能な記録媒体である。
The recording medium 1 records continuous shot image data that the
CPU8は、画像処理装置100の構成要素、すなわち、画像処理装置100全体を制御する。操作デバイス7は、画像処理装置100のユーザによって操作されるボタンやスイッチ類などのユーザインタフェースである。なお、操作デバイス7は、ボタンやスイッチ類のみで構成されるものではなく、例えば、タッチパネルなどを含んだ構成であってもよい。以下の説明においては、操作デバイス7が、タッチパネルであるものとして説明する。
The
ユーザは、後述する方法で操作デバイス7を操作することによって、記録媒体1に記録されている連写画像データから、画像合成の処理に用いる連写画像データの範囲を指定する。このとき、操作デバイス7は、ユーザによって指定された、画像合成の処理に用いる連写画像データの範囲を表す情報を、CPU8に出力する。そして、CPU8は、操作デバイス7から入力された、画像合成の処理に用いる連写画像データの範囲を表す情報に基づいて、記録媒体1に記録されている連写画像データから、画像合成の処理に用いる複数の選択画像データを選択し、選択した結果に基づいて、画像処理装置100の各構成要素を制御する。
The user operates the
メディアI/F部2は、CPU8からの制御に応じて記録媒体1を駆動し、記録媒体1に記録している連写画像データの内、選択された複数の連写画像データ、すなわち、画像処理装置100において画像合成の処理に用いる複数の選択画像データを読み出す。そして、メディアI/F部2は、読み出した複数の選択画像データを、メモリ部3に出力する。
The media I /
メモリ部3は、メディアI/F部2から入力された複数の選択画像データを、それぞれ一旦記憶する。そして、メモリ部3は、合成処理部4からの制御に応じて、記憶している選択画像データのそれぞれを、合成処理部4に出力する。
The
合成処理部4は、CPU8からの制御に応じて、メモリ部3から入力されたそれぞれの選択画像データを1枚の合成画像に合成する画像合成処理を行って、1つの合成画像データを生成する。そして、合成処理部4は、生成した1つの合成画像データを、ビデオI/F部5に出力する。
The synthesis processing unit 4 performs image synthesis processing to synthesize each selected image data input from the
ビデオI/F部5は、合成処理部4から入力された1つの合成画像データを、表示デバイス6に表示するための映像信号に変換し、変換した合成画像データの映像信号を、表示デバイス6に出力する。
The video I /
表示デバイス6は、例えば、LCD(Liquid Crystal Display)などの表示装置を備え、ビデオI/F部5から入力された映像信号に応じた合成画像データの画像(合成画像)を表示する。
The
なお、図1では、表示デバイス6と操作デバイス7とを、それぞれ別の構成要素として示しているが、画像処理装置100においては、表示デバイス6(LCD)と操作デバイス7(タッチパネル)とが一体に構成されていてもよい。この構成により、ユーザは、表示デバイス6に表示された合成画像を確認しながら操作デバイス7を操作することによって、画像処理装置100の操作を行うことができる。以下の説明においては、表示デバイス6と操作デバイス7とが一体に構成されているものとして説明する。
In FIG. 1, the
ここで、ユーザによる画像処理装置100の操作方法、すなわち、画像合成の処理に用いる選択画像データの選択方法について説明する。図2は、本実施形態の画像処理装置100において、画像合成の処理に用いる画像の範囲を指定する方法の一例を模式的に示した図である。図2には、表示デバイス6と操作デバイス7とが一体に構成されている場合において、表示デバイス6に表示される画像を、表示画面10として示している。
Here, a method for operating the
表示画面10には、合成画像9と、ツマミ11および12が表示される。合成画像9は、合成処理部4によって生成された合成画像データの画像である。ツマミ11および12は、ユーザが画像合成の処理に用いる画像の範囲を指定する際にジェスチャ操作するツマミ(スライドバー)である。ツマミ11および12のそれぞれの位置は、画像合成の処理を行う可能性がある全ての連写画像データの範囲において、画像合成の処理を開始する連写画像データの位置および画像合成の処理を終了する連写画像データの位置のそれぞれを、相対的に表している。
On the
ユーザが、ツマミ11および12を押下しながら左右に移動させると、操作デバイス7は、押下されている位置、すなわち、ツマミ11および12の位置を検出し、検出したツマミ11および12の位置の情報を、ユーザによって指定された画像合成の処理に用いる連写画像データの範囲を表す情報として、CPU8に出力する。
When the user moves the
CPU8は、操作デバイス7から入力された画像合成の処理に用いる連写画像データの範囲を表す情報に基づいて、ユーザによって指定された画像合成の処理に用いる画像の範囲を算出する。より具体的には、CPU8は、画像合成の処理に用いる画像の範囲の算出処理によって、ツマミ11とツマミ12との間に含まれる一連の連写画像データを特定する。そして、CPU8は、連写画像データを特定した結果に基づいて、記録媒体1に記録されている連写画像データから、画像合成の処理に用いる複数の選択画像データを選択する。
The
CPU8が選択画像データを選択する際、例えば、予め画像合成の処理に用いる選択画像データの枚数を決めておき、特定した連写画像データの中から、予め決められた枚数の連写画像データを選択する。このとき、CPU8は、選択画像データとして選択する連写画像データの間隔が等間隔になるように、すなわち、選択されたそれぞれの連写画像データにおける撮影時間の間隔が等間隔になるように、連写画像データを選択画像データとして選択する。これにより、動いている被写体が等間隔に写された合成画像データを生成することができる。
When the
より具体的には、例えば、記録媒体1に、高速連写された一連のn(n:正の整数、n≧3)枚の静止画像が記録されている場合を考える。このとき、CPU8は、画像合成の処理に用いる画像の範囲の算出処理によって、ツマミ11とツマミ12との間に含まれる一連のm(m:正の整数、3≦m≦n)枚の連写画像データを特定する。そして、CPU8は、予め決められたs(s:正の整数、3≦s≦m)枚の連写画像データを、連写画像データの間隔が等間隔になるように、選択画像データとして選択する。これにより、動いている被写体がs回、等間隔に写された合成画像データを生成することができる。
More specifically, for example, consider a case where a series of n (n: positive integer, n ≧ 3) still images that have been continuously shot at high speed are recorded on the recording medium 1. At this time, the
次に、本実施形態の画像処理装置100おける画像合成の処理に用いる画像の範囲について説明する。図3は、本実施形態の画像処理装置100において、画像合成の処理を行う画像の範囲を指定する処理の一例を模式的に示した図である。図3には、ツマミ11および12の位置と連写画像データとの関係を示している。
Next, the range of images used for image composition processing in the
図3に示した表示13内には、ユーザが画像合成の処理に用いる画像の範囲を指定する際に操作する、図2に示したツマミ11および12を示している。また、図3において、距離Aはツマミ11の可動範囲の左端の位置から現在の位置までの距離を示し、距離Bはツマミ11の可動範囲の右端の位置から現在の位置までの距離を示している。同様に、距離Cはツマミ12の可動範囲の左端の位置から現在の位置までの距離を示し、距離Dはツマミ12の可動範囲の右端の位置から現在の位置までの距離を示している。ユーザがジェスチャ操作によってツマミ11および12の位置を左右に移動させることによって、距離A〜Dが変化する。操作デバイス7は、距離A〜Dの情報を、CPU8に出力する。
In the
また、図3において、連写画像データ群14は、記録媒体1に記録されている一連の連写画像データを、左から順に時系列に並べて表したものである。なお、連写画像データ群14内のそれぞれの連写画像データは、表示デバイス6に表示されない。また、連写画像データ15は、連写画像データ群14に含まれる一連の連写画像データの内、先頭の連写画像データを示し、連写画像データ16は、連写画像データ群14に含まれる一連の連写画像データの内、最終の連写画像データを示している。また、連写画像データ17は、連写画像データ群14に含まれる一連の連写画像データ内で、ツマミ11によって相対的に表された、画像合成の処理を開始する位置に対応する連写画像データを示している。また、連写画像データ18は、連写画像データ群14に含まれる一連の連写画像データ内で、ツマミ12によって相対的に表された、画像合成の処理を終了する位置に対応する連写画像データを示している。
In FIG. 3, the continuous-shot
また、図3において、枚数Eは連写画像データ15から連写画像データ17までの連写画像の枚数を示し、枚数Fは連写画像データ17から連写画像データ16までの連写画像の枚数を示している。同様に、枚数Gは連写画像データ15から連写画像データ18までの連写画像の枚数を示し、枚数Hは連写画像データ18から連写画像データ16までの連写画像の枚数を示している。
In FIG. 3, the number E indicates the number of continuous shot images from the continuous
CPU8は、操作デバイス7から入力された距離A〜Dの情報に基づいて、連写画像データ17および連写画像データ18を選択画像データとして選択する。上述したように、ツマミ11および12のそれぞれの位置は、連写画像データ群14の範囲において、画像合成の処理を開始する連写画像データ17の位置および画像合成の処理を終了する連写画像データ18の位置のそれぞれを、相対的に表している。このため、CPU8は、下式(1)が成り立つ位置の連写画像データを、連写画像データ17として選択する。また、CPU8は、下式(2)が成り立つ位置の連写画像データを、連写画像データ18として選択する。ここで選択された連写画像データ17および連写画像データ18は、それぞれ、選択画像データとなる。
The
A:B=E:F ・・・(1) A: B = E: F (1)
C:D=G:H ・・・(2) C: D = G: H (2)
ツマミ11がユーザのジェスチャ操作によって左右に移動した場合、CPU8は、上式(1)が成り立つ位置の連写画像データを、連写画像データ17として、再度選択する。また、ツマミ12がユーザのジェスチャ操作によって左右に移動した場合、CPU8は、上式(2)が成り立つ位置の連写画像データを、連写画像データ18として、再度選択する。このように、CPU8は、ユーザのジェスチャ操作によってツマミ11または12の位置が左右に移動する毎に、連写画像データ17または連写画像データ18の選択をやり直す。
When the
また、CPU8は、操作デバイス7から入力された距離A〜Dの情報に基づいて、ツマミ11とツマミ12との間に含まれる連写画像データの中から、予め決められた枚数の連写画像データを、連写画像データの間隔が等間隔になるように選択する。このとき、CPU8は、連写画像データ17および連写画像データ18と、連写画像データ17から連写画像データ18までの間の連写画像データの内、それぞれの連写画像データの間隔が等間隔になる連写画像データとを選択する。より具体的には、連写画像データ17と連写画像データ18との2枚の連写画像データがすでに選択されているため、CPU8は、予め決められた枚数−2枚の連写画像データを、連写画像データ17から連写画像データ18までの間の連写画像データから選択する。ここで選択されたそれぞれの連写画像データも、選択画像データとなる。
Further, the
次に、本実施形態の画像処理装置100おける画像合成処理について説明する。図4は、本実施形態の画像処理装置100における画像合成処理の一例を模式的に示した図である。図4には、CPU8が選択した選択画像データと、合成処理部4による画像合成処理との関係を示している。
Next, the image composition process in the
図4において、選択画像データ群19は、CPU8によって選択された選択画像データを、左から順に時系列に並べて表したものである。なお、選択画像データ群19内のそれぞれの選択画像データは、連写画像データの間隔が等間隔になるように選択された、予め決められた枚数の連写画像データである。図4では、予め決められた枚数が6枚である場合を示している。
In FIG. 4, the selected
図4を見てわかるように、選択画像データ群19は、連写画像データ群14に含まれる連写画像データの間引きを行って、枚数を減らした画像データ群である。これにより、連写画像データ群14に含まれる全ての連写画像データを1枚の合成画像に画像合成処理する場合に比べて、合成処理部4の画像合成処理の負荷を軽減することができる。すなわち、合成処理部4による画像合成処理には多くの処理時間を要するが、本実施形態の画像処理装置100では、選択画像データ群19のように画像合成処理を行う画像データの枚数を少なくする(間引く)ことによって、画像合成処理に要する処理時間を短縮することができる。
As can be seen from FIG. 4, the selected
合成処理部4は、図4に示した画像合成処理20によって、選択画像データ群19に含まれる全ての選択画像データを1枚の合成画像に合成した、1つの合成画像データ21を生成する。そして、合成処理部4は、生成した1つの合成画像データ21を、ビデオI/F部5に出力する。
The composite processing unit 4 generates one
その後、合成処理部4が生成した合成画像データ21は、ビデオI/F部5によって映像信号に変換され、表示デバイス6に表示される。ここで表示デバイス6に表示される合成画像データ21の合成画像の一例が、図2に示した合成画像9である。
Thereafter, the
次に、本実施形態の画像処理装置100における画像合成処理の手順について説明する。図5は、本実施形態の画像処理装置100における画像合成処理の手順を示したフローチャートである。
Next, the procedure of image composition processing in the
画像処理装置100による画像合成の処理を開始すると、まず、ステップS1において、CPU8は、ツマミ11および12を表示する最初の位置を設定(初期化)する。なお、ツマミ11および12を表示する最初の位置は、予め定めた位置であればよい。例えば、下式(3)となる位置に、ツマミ11および12を表示する最初の位置を設定する。
When the image composition processing by the
A:B=1:2
C:D=2:1 ・・・(3)
A: B = 1: 2
C: D = 2: 1 (3)
また、操作デバイス7は、図3および図4に示したような、距離A〜Dの情報を、CPU8に出力する。
Further, the
続いて、ステップS2において、CPU8は、操作デバイス7から入力された距離A〜Dの情報に基づいて、上式(1)および上式(2)により、図4に示したような、選択画像データ群19のそれぞれの選択画像データを選択する。
Subsequently, in step S2, the
続いて、ステップS3において、CPU8は、選択した選択画像データ群19に含まれるそれぞれの選択画像データを読み出すために、メディアI/F部2を制御する。これにより、メディアI/F部2は、記録媒体1に記録している連写画像データの内、CPU8によって選択された複数の連写画像データを、選択画像データとして読み出し、メモリ部3に出力する。また、メモリ部3は、メディアI/F部2から入力されたそれぞれの選択画像データを、一旦記憶する。
Subsequently, in step S <b> 3, the
続いて、ステップS4において、CPU8は、合成処理部4に、画像合成処理を開始させる。これにより、合成処理部4は、メモリ部3に一旦記憶されたそれぞれの選択画像データを1枚の合成画像に合成した、図4に示したような、1つの合成画像データ21を生成する。そして、合成処理部4は、生成した合成画像データ21を、ビデオI/F部5に出力する。
Subsequently, in step S4, the
続いて、ステップS5において、ビデオI/F部5は、合成処理部4から入力された合成画像データ21を映像信号に変換し、変換した合成画像データ21の映像信号を、表示デバイス6に出力する。そして、表示デバイス6は、ビデオI/F部5から入力された映像信号に応じた、合成画像データ21の合成画像を表示する。
Subsequently, in step S <b> 5, the video I /
続いて、ステップS6において、CPU8は、ユーザのジェスチャ操作によってツマミ11または12の位置が変更された否かを判定する。この判定では、CPU8は、ツマミ11または12のいずれか一方または両方が変更されたことにより、操作デバイス7から変更された距離AとB、または距離CとDのいずれか一方または両方の情報が出力されているか否かによって判定する。
Subsequently, in step S6, the
ステップS6による判定の結果、ユーザのジェスチャ操作によってツマミ11または12のいずれか一方でも位置が変更されていると判定された場合には、ステップS2に戻って、再度、操作デバイス7から入力された距離A〜Dの情報に基づいた選択画像データ群19のそれぞれの選択画像データの選択から、画像合成の処理を繰り返す。
As a result of the determination in step S6, when it is determined that the position of either the
また、ステップS6による判定の結果、ユーザのジェスチャ操作によってツマミ11および12のいずれの位置も変更されていない判定された場合には、ステップS6によるツマミ11または12の位置が変更された否かの判定を繰り返す。
Further, as a result of the determination in step S6, if it is determined that neither position of the
このような動作によって、画像処理装置100は、ユーザがジェスチャ操作によってツマミ11または12の位置を変更するたびに、画像合成処理に用いる選択画像データ群19のそれぞれの選択画像データの選択、選択された複数の選択画像データの記録媒体1からの読み出し、合成処理部4の画像合成処理による合成画像データ21の生成、表示デバイス6への合成画像データ21の合成画像の表示、を繰り返すことができる。
By such an operation, the
ここで、画像処理装置100によって画像合成処理した合成画像の一例について説明する。図6は、本実施形態の画像処理装置100における画像合成処理によって生成される画像(合成画像)の一例を示した図である。図6には、予め決められた枚数が6枚である場合において、ツマミ11および12の位置と合成画像9との関係を示している。図6に示したように、ユーザがジェスチャ操作によってツマミ11および12の位置を変更すると、ツマミ11および12の位置に応じた異なる合成画像9が表示される。
Here, an example of a composite image that has been subjected to image composition processing by the
図6(a)は、ツマミ11の位置とツマミ12の位置とを、全ての連写画像データの範囲内の離れた位置にした場合を示している。この場合、CPU8は、全ての連写画像データの中から、連写画像データの間隔が等間隔になるように、6枚の連写画像データを選択する。これにより、合成画像9は、合成画像9内のボールが、ある程度の距離をおいて均等に分散して写っている画像になる。
FIG. 6A shows a case where the position of the
このように、画像処理装置100では、図6(a)に示したように、高速連写された一連の静止画像から、6枚の連写画像データを間引きすることによって、見かけ上、連写の速度を遅くした(低速で連写した)静止画像を合成した合成画像9を表示することができる。なお、図6(a)に示した合成画像9は、マルチストロボ撮影によって動いている被写体(ボール)の軌跡を撮影した静止画像であるともいえる。
In this way, as shown in FIG. 6A, the
図6(b)は、ツマミ11の位置とツマミ12の位置とを近づけ、全ての連写画像データの範囲内の右側によせた位置、すなわち、高速連写を終了したときに近い位置にした場合を示している。この場合、CPU8は、後半の連写画像データの中から、連写画像データの間隔が等間隔になるように、6枚の連写画像データを選択する。これにより、合成画像9は、合成画像9内のボールが、時間的に後の方に偏って写っている画像になる。
In FIG. 6 (b), the position of the
図6(c)は、ツマミ11の位置とツマミ12の位置とを近づけ、全ての連写画像データの範囲内の左側によせた位置、すなわち、高速連写を開始したときに近い位置にした場合を示している。この場合、CPU8は、前半の連写画像データの中から、連写画像データの間隔が等間隔になるように、6枚の連写画像データを選択する。これにより、合成画像9は、合成画像9内のボールが、時間的に前の方に偏って写っている画像になる。
In FIG. 6 (c), the position of the
このように、画像処理装置100では、ユーザがジェスチャ操作によってツマミ11および12の位置を変更することによって、異なる合成画像9を表示することができる。言い換えると、ユーザは、合成画像9が所望する画像になるように、ツマミ11および12の位置を変更するジェスチャ操作を行えばよい。
As described above, in the
上記に述べたとおり、本発明を実施するための形態によれば、ユーザが、簡単なジェスチャ操作によって、画像合成の処理に用いる画像の範囲を指定する。そして、指定された画像合成の処理に用いる画像の範囲に含まれる画像の中から、撮影時間の間隔が等間隔になるように、画像合成の処理に用いる画像を選択する。これにより、時系列で連続して撮影された静止画像の中から、画像合成の処理に用いる予め定めた枚数の静止画像を容易に選択することができる。 As described above, according to the embodiment for carrying out the present invention, the user designates a range of an image to be used for image composition processing by a simple gesture operation. Then, an image to be used for the image composition process is selected from the images included in the range of the image to be used for the designated image composition process so that the shooting time intervals are equal. This makes it possible to easily select a predetermined number of still images used for image composition processing from among still images taken continuously in time series.
また、本発明を実施するための形態によれば、選択したそれぞれの静止画像を画像合成処理した1枚の合成画像を逐次生成し、生成した合成画像を逐次表示する。これにより、ユーザは、表示された合成画像をリアルタイムで確認しながら、合成画像が所望する画像になるまで、ジェスチャ操作によって、画像合成の処理に用いる画像の範囲を逐次変更することができる。 According to the embodiment for carrying out the present invention, one synthesized image obtained by subjecting each selected still image to image synthesis processing is sequentially generated, and the generated synthesized image is sequentially displayed. Accordingly, the user can sequentially change the range of the image used for the image synthesis process by the gesture operation until the synthesized image becomes a desired image while checking the displayed synthesized image in real time.
このように、本発明を実施するための形態によれば、従来の技術のように、ユーザが、画像合成の処理に用いる元の画像自体を確認することや選択することがなく、また、画像合成の処理に用いる元の画像の枚数を意識することがなく、高速連写された一連の静止画像から、所望する合成画像を得ることができる。つまり、本発明を実施するための形態によれば、ユーザは、例えば、特許文献2で開示された技術のように、1つ1つの静止画像を確認しながら開始点(イン点)と終了点(アウト点)とを指定する必要がなく、表示された合成画像にのみ注目して簡単な操作を行うことによって、所望する合成画像を得ることができる。
As described above, according to the mode for carrying out the present invention, the user does not check or select the original image used for the image composition process as in the conventional technique, and the image A desired composite image can be obtained from a series of still images that have been continuously shot at high speed without being aware of the number of original images used in the composition process. That is, according to the mode for carrying out the present invention, the user can check the individual still images and check the start point (in point) and the end point as in the technique disclosed in
なお、本実施形態においては、予め画像合成の処理に用いる選択画像データの枚数を決めておき、CPU8が、ユーザによって指定された連写画像の範囲の中から、連写画像データの撮影時間の間隔が等間隔になるように、予め決められた枚数の連写画像データを、選択画像データとして選択する場合の例について説明した。しかし、CPU8が選択画像データを選択する方法は、本発明を実施するための形態に限定されるものではない。例えば、予め選択する連写画像データの間隔を決めておき、特定した連写画像データの中から、予め決められた間隔で連写画像データを選択することもできる。この方法で連写画像データを選択画像データとして選択すると、被写体の動きの速さによって、合成画像データに写される数が異なる合成画像データを生成することができる。より具体的には、動きの速い被写体は写される回数が少なく、動きの遅い被写体は写される回数が多い合成画像データを生成することができる。
In the present embodiment, the number of selected image data to be used for image composition processing is determined in advance, and the
また、本実施形態においては、画像合成の処理に用いる選択画像データの枚数を予め決めておき、選択する連写画像データの撮影時間の間隔が等間隔である場合の例について説明した。しかし、画像合成の処理に用いる選択画像データの枚数や、選択する連写画像データの撮影時間の間隔は、本発明を実施するための形態に限定されるものではなく、例えば、ユーザによって逐次変更することができる構成にすることもできる。この場合、例えば、図2に示した表示画面10において、合成画像9の左右に、画像合成の処理に用いる選択画像データの枚数を設定するツマミ(スライドバー)と、選択する連写画像データの撮影時間の間隔を設定するツマミ(スライドバー)とを配置する。そして、ユーザがジェスチャ操作によってこれらのツマミの位置を上下に移動させることによって、画像合成の処理に用いる選択画像データの枚数と、選択する連写画像データの撮影時間の間隔とを変更する構成にすることもできる。この場合、CPU8は、選択画像データを選択する際に、操作デバイス7から入力されたこれらのツマミの位置の情報に基づいて、設定された枚数の連写画像データを、設定された間隔で選択することになる。
Further, in the present embodiment, an example has been described in which the number of selected image data used for image composition processing is determined in advance, and the shooting time intervals of continuous shot image data to be selected are equal intervals. However, the number of selected image data used for image composition processing and the shooting time interval of continuous shot image data to be selected are not limited to the mode for carrying out the present invention. It can also be configured to be able to. In this case, for example, on the
また、本実施形態においては、ツマミ11とツマミ12とによって、画像合成の処理に用いる画像の範囲をユーザが指定する場合の例について説明した。しかし、ユーザが画像合成の処理に用いる画像の範囲を指定する方法は、本発明を実施するための形態に限定されるものではない。
Further, in the present embodiment, an example has been described in which the user designates an image range to be used for image composition processing with the
また、本実施形態においては、合成画像9とツマミ11および12とが、図2に示した表示画面10のように配置された一例を示したが、合成画像9とツマミ11および12との配置は、本発明を実施するための形態に限定されるものではない。
Further, in the present embodiment, an example in which the
また、本実施形態においては、合成処理部4が生成した合成画像データ21を、表示デバイス6に合成画像として表示する場合について説明した。しかし、合成処理部4が合成画像データ21を生成した後の処理は、本発明を実施するための形態に限定されるものではない。例えば、合成画像データ21の合成画像を表示デバイス6に表示し、ユーザが所望する合成画像であると判断された場合に、ユーザが操作デバイス7を操作することによって、最終の合成画像データ21を、記録媒体1に記録する構成にすることもできる。
Further, in the present embodiment, a case has been described in which the
また、本実施形態においては、画像処理装置100を、デジタルカメラなどの撮像装置に適用することができるという説明をしたが、画像処理装置を適用するシステムは、本実施形態に限定されるものではなく、高速連写された一連の静止画像から所望する合成画像を生成するシステムであれば、どのようなシステムも適用することができる。
In the present embodiment, it has been described that the
以上、本発明の実施形態について、図面を参照して説明してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲においての種々の変更も含まれる。 The embodiment of the present invention has been described above with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes various modifications within the scope of the present invention. It is.
100・・・画像処理装置
1・・・記録媒体(画像記録部)
2・・・メディアインタフェース(I/F)部(画像選択部)
3・・・メモリ部(画像選択部)
4・・・合成処理部(画像合成部)
5・・・ビデオインタフェース(I/F)部(表示部)
6・・・表示デバイス(表示部)
7・・・操作デバイス(範囲指定入力部)
8・・・CPU(画像選択部)
9・・・合成画像
10・・・表示画面
11・・・ツマミ(開始位置指定手段)
12・・・ツマミ(終了位置指定手段)
13・・・表示(開始位置指定手段,終了位置指定手段)
14・・・連写画像データ群
15・・・連写画像データ(静止画像)
16・・・連写画像データ(静止画像)
17・・・連写画像データ(静止画像,選択画像)
18・・・連写画像データ(静止画像,選択画像)
19・・・選択画像データ群
20・・・画像合成処理
21・・・合成画像データ(合成画像)
DESCRIPTION OF
2. Media interface (I / F) section (image selection section)
3. Memory unit (image selection unit)
4 ... Composition processing unit (image composition unit)
5 ... Video interface (I / F) section (display section)
6. Display device (display unit)
7 ... Operation device (range specification input part)
8 ... CPU (image selection unit)
9 ...
12 ... Knob (End position designation means)
13 ... Display (start position designation means, end position designation means)
14: Continuous image data group 15: Continuous image data (still image)
16: Continuous image data (still images)
17 ... Continuous image data (still image, selected image)
18 ... Continuous shot image data (still image, selected image)
19 ... Selected
Claims (7)
操作者によって操作され、前記画像記録部に記録された一連の複数の前記静止画像が含まれる時系列の範囲である全範囲の内、前記操作者によって指定された時系列の範囲である指定範囲を表す指定範囲情報を出力する範囲指定入力部と、
前記指定範囲情報に基づいて、前記画像記録部に記録された一連の複数の前記静止画像の中から、前記指定範囲に含まれる一連の複数の前記静止画像を特定し、該特定した一連の複数の前記静止画像の中から、予め定められた条件に合致する複数の前記静止画像を選択し、該選択した複数の前記静止画像のそれぞれを、選択画像として前記画像記録部から読み出す画像選択部と、
前記選択画像のそれぞれを合成した合成画像を生成する画像合成部と、
前記合成画像を表示する表示部と、
を備えることを特徴とする画像処理装置。 An image recording unit that records a series of still images taken continuously in time series;
A designated range that is a time-series range designated by the operator, out of a whole range that is a time-series range including a series of the plurality of still images that are operated by the operator and recorded in the image recording unit. A range specification input section for outputting specified range information representing
Based on the designated range information, a series of the plurality of still images included in the designated range is identified from among the series of the plurality of still images recorded in the image recording unit, and the identified series of the plurality of still images An image selection unit that selects a plurality of the still images that meet a predetermined condition from the still images, and reads each of the selected plurality of still images from the image recording unit as a selection image; ,
An image synthesis unit that generates a synthesized image obtained by synthesizing each of the selected images;
A display unit for displaying the composite image;
An image processing apparatus comprising:
前記指定範囲の開始位置を指定するための開始位置指定手段と、
前記指定範囲の終了位置を指定するための終了位置指定手段と、
を具備し、
前記操作者によって、前記開始位置指定手段または前記終了位置指定手段のいずれか一方または両方が変更された場合に、前記開始位置指定手段の位置の情報および前記終了位置指定手段の位置の情報を、前記指定範囲情報として出力し、
前記画像選択部は、
前記指定範囲情報に含まれる、前記開始位置指定手段の位置の情報および前記終了位置指定手段の位置の情報に基づいて、前記開始位置指定手段の位置から前記終了位置指定手段の位置までの前記指定範囲に含まれる一連の複数の前記静止画像を特定する、
ことを特徴とする請求項1に記載の画像処理装置。 The range designation input unit is:
Start position specifying means for specifying the start position of the specified range;
An end position specifying means for specifying an end position of the specified range;
Comprising
When one or both of the start position specifying means and the end position specifying means is changed by the operator, the position information of the start position specifying means and the position information of the end position specifying means are Output as the specified range information,
The image selection unit
The designation from the position of the start position designation means to the position of the end position designation means based on the position information of the start position designation means and the position information of the end position designation means included in the designation range information Identifying a series of said still images included in a range;
The image processing apparatus according to claim 1.
前記操作者によって、前記開始位置指定手段または前記終了位置指定手段のいずれか一方または両方が変更されるたびに、前記指定範囲情報を出力し、
前記画像選択部は、
前記指定範囲情報に含まれる、前記開始位置指定手段の位置の情報および前記終了位置指定手段の位置の情報が変更されるたびに、一連の複数の前記静止画像を特定し、予め定められた条件に合致する複数の前記静止画像を選択し、前記選択画像として前記画像記録部から読み出し、
前記画像合成部は、
前記選択画像が前記画像記録部から読み出されるたびに、前記選択画像のそれぞれを合成した合成画像を生成し、
前記表示部は、
前記合成画像が生成されるたびに、前記合成画像を表示する、
ことを特徴とする請求項2に記載の画像処理装置。 The range designation input unit is:
The specified range information is output every time one or both of the start position specifying means and the end position specifying means are changed by the operator,
The image selection unit
Each time the position information of the start position specifying means and the position information of the end position specifying means included in the specified range information is changed, a series of the still images are specified, and a predetermined condition A plurality of the still images that match, and read from the image recording unit as the selected image,
The image composition unit
Each time the selected image is read from the image recording unit, a combined image is generated by combining the selected images.
The display unit
Each time the composite image is generated, the composite image is displayed.
The image processing apparatus according to claim 2.
前記画像選択部は、
前記指定範囲において、前記静止画像が撮影された時間が等間隔になるように、予め定められた前記枚数の前記静止画像のそれぞれを選択する、
ことを特徴とする請求項3に記載の画像処理装置。 As the condition, the number of the still images to be selected from the specified series of the still images is predetermined,
The image selection unit
Selecting each of the predetermined number of the still images so that the time at which the still images were taken are equally spaced in the designated range;
The image processing apparatus according to claim 3.
前記画像選択部は、
前記指定範囲において、前記静止画像が撮影された時間が、予め定められた前記時間の間隔である前記静止画像のそれぞれを選択する、
ことを特徴とする請求項3に記載の画像処理装置。 As the condition, an interval of time at which the still image to be selected from the specified series of the still images is captured is determined in advance.
The image selection unit
Selecting each of the still images in which the time at which the still image was taken in the designated range is a predetermined time interval;
The image processing apparatus according to claim 3.
前記指定範囲情報に基づいて、前記画像記録部に記録された一連の複数の前記静止画像の中から、前記指定範囲に含まれる一連の複数の前記静止画像を特定し、該特定した一連の複数の前記静止画像の中から、予め定められた条件に合致する複数の前記静止画像を選択し、該選択した複数の前記静止画像のそれぞれを、選択画像として前記画像記録部から読み出す画像選択ステップと、
前記選択画像のそれぞれを合成した合成画像を生成する画像合成ステップと、
前記合成画像を表示する表示ステップと、
を含むことを特徴とする画像処理方法。 Recorded in an image recording unit that is operated by an operator and records a series of still images taken continuously in time series, and within the entire range that is the time series range including the still images, A range specification input step for outputting specified range information representing a specified range that is a time-series range specified by an operator;
Based on the designated range information, a series of the plurality of still images included in the designated range is identified from among the series of the plurality of still images recorded in the image recording unit, and the identified series of the plurality of still images An image selection step of selecting a plurality of still images that meet a predetermined condition from the still images, and reading each of the selected plurality of still images from the image recording unit as a selected image; ,
An image synthesis step of generating a synthesized image obtained by synthesizing each of the selected images;
A display step for displaying the composite image;
An image processing method comprising:
前記撮像部から出力された画像信号を画像処理して、時系列で連続して撮影された一連の複数の静止画像を生成する画像信号処理部と、
前記画像信号処理部が生成した、一連の複数の静止画像を記録する画像記録部と、
操作者によって操作され、前記画像記録部に記録された一連の複数の前記静止画像が含まれる時系列の範囲である全範囲の内、前記操作者によって指定された時系列の範囲である指定範囲を表す指定範囲情報を出力する範囲指定入力部と、
前記指定範囲情報に基づいて、前記画像記録部に記録された一連の複数の前記静止画像の中から、前記指定範囲に含まれる一連の複数の前記静止画像を特定し、該特定した一連の複数の前記静止画像の中から、予め定められた条件に合致する複数の前記静止画像を選択し、該選択した複数の前記静止画像のそれぞれを、選択画像として前記画像記録部から読み出す画像選択部と、
前記選択画像のそれぞれを合成した合成画像を生成する画像合成部と、
前記合成画像を表示する表示部と、
を備えることを特徴とする撮像装置。 An imaging unit that outputs an image signal of a subject image;
An image signal processing unit that performs image processing on the image signal output from the imaging unit, and generates a series of still images that are continuously captured in time series;
An image recording unit that records a series of still images generated by the image signal processing unit;
A designated range that is a time-series range designated by the operator, out of a whole range that is a time-series range including a series of the plurality of still images that are operated by the operator and recorded in the image recording unit. A range specification input section for outputting specified range information representing
Based on the designated range information, a series of the plurality of still images included in the designated range is identified from among the series of the plurality of still images recorded in the image recording unit, and the identified series of the plurality of still images An image selection unit that selects a plurality of the still images that meet a predetermined condition from the still images, and reads each of the selected plurality of still images from the image recording unit as a selection image; ,
An image synthesis unit that generates a synthesized image obtained by synthesizing each of the selected images;
A display unit for displaying the composite image;
An imaging apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011265841A JP2013117908A (en) | 2011-12-05 | 2011-12-05 | Image processor, image processing method, and imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011265841A JP2013117908A (en) | 2011-12-05 | 2011-12-05 | Image processor, image processing method, and imaging apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013117908A true JP2013117908A (en) | 2013-06-13 |
Family
ID=48712415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011265841A Pending JP2013117908A (en) | 2011-12-05 | 2011-12-05 | Image processor, image processing method, and imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013117908A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014183564A (en) * | 2013-03-21 | 2014-09-29 | Kyocera Corp | Imaging apparatus, program and control method of imaging apparatus |
US10290365B2 (en) | 2014-03-17 | 2019-05-14 | Fuji Xerox Co., Ltd. | Image processing apparatus, image processing method, and non-transitory computer readable medium |
JP2019169795A (en) * | 2018-03-22 | 2019-10-03 | カシオ計算機株式会社 | Image editing device, image editing method, and program |
JP2022065049A (en) * | 2018-03-22 | 2022-04-26 | カシオ計算機株式会社 | Image editing device, image editing method, and program |
-
2011
- 2011-12-05 JP JP2011265841A patent/JP2013117908A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014183564A (en) * | 2013-03-21 | 2014-09-29 | Kyocera Corp | Imaging apparatus, program and control method of imaging apparatus |
US10290365B2 (en) | 2014-03-17 | 2019-05-14 | Fuji Xerox Co., Ltd. | Image processing apparatus, image processing method, and non-transitory computer readable medium |
JP2019169795A (en) * | 2018-03-22 | 2019-10-03 | カシオ計算機株式会社 | Image editing device, image editing method, and program |
JP7024539B2 (en) | 2018-03-22 | 2022-02-24 | カシオ計算機株式会社 | Image editing device, image editing method, and program |
JP2022065049A (en) * | 2018-03-22 | 2022-04-26 | カシオ計算機株式会社 | Image editing device, image editing method, and program |
JP7283594B2 (en) | 2018-03-22 | 2023-05-30 | カシオ計算機株式会社 | Image editing device, image editing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101376455B1 (en) | Image processing apparatus and image display method | |
JP5389724B2 (en) | Image processing apparatus, image processing method, and program | |
JP6529267B2 (en) | INFORMATION PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND STORAGE MEDIUM | |
KR101948692B1 (en) | Phtographing apparatus and method for blending images | |
JP2013117908A (en) | Image processor, image processing method, and imaging apparatus | |
JP7163228B2 (en) | IMAGING DEVICE, IMAGE SYNTHESIS METHOD, AND IMAGE SYNTHESIS PROGRAM | |
JP6056551B2 (en) | Image processing program and digital camera | |
JP5266701B2 (en) | Imaging apparatus, subject separation method, and program | |
JP6460783B2 (en) | Image processing apparatus and control method thereof | |
JP2007053616A (en) | Digital camera | |
JP2010097449A (en) | Image composition device, image composition method and image composition program | |
JP5479149B2 (en) | Image generation device | |
JP5181453B2 (en) | Image display device, image display method, and program | |
JP6625598B2 (en) | Image generation apparatus, image generation method, image generation program, and image generation system | |
JP6512208B2 (en) | Image processing apparatus, image processing method and program | |
JP5464231B2 (en) | Image display device, image display method, and program | |
JP5370577B2 (en) | Composition selection device and program | |
JP2005267455A (en) | Image processing system, display device, and image processing method | |
JP6259006B2 (en) | Image generation apparatus, image generation method, image generation program, and image generation system | |
JP2013021654A (en) | Reproduction apparatus | |
JP2011050107A (en) | Camera, camera control program, and imaging method | |
JP2011139123A (en) | Image processor and image processing program | |
JP2011087105A (en) | Image processor and method for controlling the same, program, and medium | |
JP5932963B2 (en) | Image generation apparatus, image generation method, image generation program, and image generation system | |
JP5677598B2 (en) | Image generation apparatus, image generation method, image generation program, and image generation system |