JP2005217721A - Apparatus and method for generating still picture - Google Patents

Apparatus and method for generating still picture Download PDF

Info

Publication number
JP2005217721A
JP2005217721A JP2004021110A JP2004021110A JP2005217721A JP 2005217721 A JP2005217721 A JP 2005217721A JP 2004021110 A JP2004021110 A JP 2004021110A JP 2004021110 A JP2004021110 A JP 2004021110A JP 2005217721 A JP2005217721 A JP 2005217721A
Authority
JP
Japan
Prior art keywords
image
rectangular
images
area
target images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004021110A
Other languages
Japanese (ja)
Inventor
Makoto Ouchi
真 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004021110A priority Critical patent/JP2005217721A/en
Priority to US11/000,360 priority patent/US7606441B2/en
Publication of JP2005217721A publication Critical patent/JP2005217721A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem with a conventional apparatus and method that had to create a plurality of images for forming a rectangular region, frame by frame, in the case of generating a rectangular still picture such as a panorama picture from a plurality of the frame images. <P>SOLUTION: A plurality of acquired frame images are arranged according to their relative positions, the image regions of the frame images in the laid out state is distinguished as an image existing region by using pixels identified by a prescribed method, and a rectangular still picture which has the largest image size and includes full frame images is automatically calculated from the image existing region. As a result, the rectangular still picture desired by a user is prepared from the plurality of acquired frame images. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、動画像などから取得された複数の対象画像を繋ぎ合わせ、その繋ぎ合わされた対象画像から矩形の静止画像を生成する技術に関する。     The present invention relates to a technique for joining a plurality of target images acquired from a moving image or the like and generating a rectangular still image from the joined target images.

撮影画像をつなぎ合わせて元の画像より一方向に長いパノラマ画像を生成する技術が、従来から知られている。最近では、デジタルスチルカメラなどにより撮影された複数の画像を重ね合わせるだけでなく、デジタルビデオカメラなどで連続的に撮像された動画像から、所定の枚数のフレーム画像を取り出して、これをつなぎ合わせることも行なわれている(下記特許文献1参照)。   2. Description of the Related Art Conventionally, a technique for connecting captured images and generating a panoramic image that is longer in one direction than the original image is known. Recently, in addition to superimposing a plurality of images taken with a digital still camera, a predetermined number of frame images are taken out from a moving image continuously taken with a digital video camera and connected together. (See Patent Document 1 below).

特開2003−198902JP2003-198902A

こうしたパノラマ画像生成装置では、デジタルビデオカメラで撮像した動画像を記録媒体に一旦記録し、この動画を再生するときに、静止画像を取り込んタイミング情報と、算出された横方向および縦方向の移動量とが読み込まれる。その後、取り込んだ複数の静止画像の移動量に応じた位置で静止画像を重ね合わせて、パノラマ画像を生成している。   In such a panoramic image generating apparatus, a moving image captured by a digital video camera is temporarily recorded on a recording medium, and when reproducing the moving image, timing information for capturing a still image and calculated movement amounts in the horizontal and vertical directions And are read. Thereafter, the panoramic image is generated by superimposing the still images at positions corresponding to the movement amounts of the plurality of captured still images.

しかしながら、このような画像生成技術では、複数のフレーム画像を重ね合わせて矩形のパノラマ画像を生成する作業は、手動で行なわねばならず、煩雑な作業が必要になるという問題があった。所定のタイミングで取り込んだ画像同士の重なり合い(移動量)の情報を抽出して、画像同士をつなぎ合わせる(以下、ステッチする、とも言う)作業は自動化できても、重なり合わせた複数の画像から、矩形のパノラマ画像を切り出す際には、使用者がカーソルを移動して領域指定を行ない、かつ不要な画像を切り落とすといった作業を余儀なくされていたのである。   However, such an image generation technique has a problem in that the operation of generating a rectangular panoramic image by superimposing a plurality of frame images must be performed manually and requires complicated operations. Extracting information on the overlap (movement amount) of images captured at a predetermined timing and connecting the images together (hereinafter also referred to as stitching) can be automated, but from a plurality of overlapping images, When cutting out a rectangular panoramic image, the user has been forced to move the cursor to specify an area and cut out unnecessary images.

本発明はこのような問題の少なくとも一部を解決するためになされたもので、パノラマ画像などの矩形の静止画像を容易に生成することを目的とする。   The present invention has been made to solve at least a part of such problems, and an object thereof is to easily generate a rectangular still image such as a panoramic image.

上記目的を達成する本発明の静止画像生成装置は、
動画像などから取得する複数の対象画像を繋ぎ合わせ、該繋ぎ合わせた画像から矩形の静止画像を生成する静止画像生成装置であって、
前記複数の対象画像を取得する画像取得部と、
該取得された複数の対象画像をつなぎ合わせる相対的な位置関係を表す位置関係データを生成する位置関係データ生成部と、
前記位置関係データに従って前記複数の対象画像を配置し、該配置された複数の対象画像の論理和によって定義される画像存在領域を認識する画像領域認識部と、
該認識された画像存在領域から生成できる矩形の画像領域を決定する矩形画像領域決定部と、
該決定された矩形の画像領域に存在する前記複数の対象画像を用いて、前記矩形の静止画像を抽出する静止画像抽出部と
を備えたことを要旨とする。
The still image generating apparatus of the present invention that achieves the above-described object provides:
A still image generating device that connects a plurality of target images acquired from a moving image or the like and generates a rectangular still image from the connected images,
An image acquisition unit for acquiring the plurality of target images;
A positional relationship data generating unit that generates positional relationship data representing a relative positional relationship of connecting the plurality of acquired target images;
An image area recognition unit that arranges the plurality of target images according to the positional relationship data and recognizes an image existence area defined by a logical sum of the plurality of arranged target images;
A rectangular image area determining unit that determines a rectangular image area that can be generated from the recognized image existence area;
The gist of the invention is that the image processing apparatus includes a still image extraction unit that extracts the rectangular still image using the plurality of target images existing in the determined rectangular image region.

この静止画像生成装置に対応した静止画像生成方法は、動画像などから取得する複数の対象画像を繋ぎ合わせ、該繋ぎ合わされた画像を用いて矩形の静止画像を生成する静止画像生成方法であって、前記複数の対象画像を取得する工程と、該取得された複数の対象画像の相対的な位置関係を表す位置関係データを生成する工程と、前記位置関係データに従って前記複数の対象画像を配置し、該配置された複数の対象画像の論理和によって定義される論理和画像領域を認識する工程と、該認識された論理和画像領域から生成できる矩形静止画像領域を算出する工程と、を備えたことを要旨とする。   The still image generation method corresponding to this still image generation apparatus is a still image generation method for connecting a plurality of target images acquired from a moving image or the like and generating a rectangular still image using the connected images. Acquiring the plurality of target images; generating a positional relationship data representing a relative positional relationship between the acquired plurality of target images; and arranging the plurality of target images according to the positional relationship data. A step of recognizing a logical sum image region defined by a logical sum of the plurality of target images arranged, and a step of calculating a rectangular still image region that can be generated from the recognized logical sum image region. This is the gist.

かかる静止画像生成技術によれば、複数の対象画像によって作られる全ての画像領域を調べ、その画像領域から、画像が欠けずに生成できる矩形静止画像領域を決定する。その後、決定された矩形の画像領域に存在する複数の対象画像を用いて、この大きさの矩形の静止画像を抽出する。   According to such a still image generation technique, all image regions created by a plurality of target images are examined, and a rectangular still image region that can be generated without missing an image is determined from the image regions. Thereafter, a rectangular still image of this size is extracted using a plurality of target images existing in the determined rectangular image region.

ここで、画像領域の認識は、前記画像存在領域を識別した画素によって行ない、識別された画素をもちいて矩形画像を算出することとしてもよい。こうすれば、対象画像が存在する画像領域を、画素に付けた識別の有無を調べることによって容易に認識できる。
前記画像取得部は、複数のフレーム画像からなる動画像から、動画像において取得の基準として指定された基準対象画像を含み、少なくとも該基準対象画像の前または後ろに存在する複数のフレーム画像を前記対象画像として取得する手段である静止画像生成装置。
Here, the recognition of the image area may be performed by the pixel that identifies the image existence area, and a rectangular image may be calculated using the identified pixel. In this way, the image area where the target image exists can be easily recognized by examining the presence or absence of identification attached to the pixel.
The image acquisition unit includes, from a moving image composed of a plurality of frame images, a reference target image specified as a reference for acquisition in the moving image, and at least a plurality of frame images existing before or after the reference target image A still image generating apparatus as means for acquiring a target image.

また、複数のフレーム画像からなる動画像から、動画像において取得の基準として指定された基準対象画像を含み、少なくともこの基準対象画像の前または後ろに存在する複数のフレーム画像を対象画像として取得する構成とすることができる。この場合には、動画像に対して基準となる基準対象画像を指定することで、その対象画像を含む複数の画像からその論理和として定義される矩形の静止画像を抽出することができる。この場合、複数の対象画像は、基準対象画像を含み、動画像から、所定の間隔で取得されたフレーム画像とすることも可能である。動画像が経時的に所定範囲の領域を撮影した者である場合には、こうすることで、広い矩形領域を求めることができ、いわゆるパノラマ画像の生成が容易となる。   Further, from a moving image composed of a plurality of frame images, a reference target image designated as a reference for acquisition in the moving image is included, and at least a plurality of frame images existing before or after the reference target image are acquired as target images. It can be configured. In this case, by specifying a reference target image as a reference for a moving image, a rectangular still image defined as a logical sum can be extracted from a plurality of images including the target image. In this case, the plurality of target images may include reference target images, and may be frame images acquired at predetermined intervals from the moving image. If the moving image is a person who has photographed a predetermined range of area over time, a wide rectangular area can be obtained in this way, and so-called panoramic image generation is facilitated.

複数の対象画像の取得に際して、取得しようとする元の画像の周辺の画像を所定の割合切り落とした画像を、対象画像として取得するものとしても良い。周辺の画像を所定の割合手切り落とすことで、歪が少ない画像部分を使って静止画像を生成することができる。   When acquiring a plurality of target images, an image obtained by cutting out a peripheral image of the original image to be acquired by a predetermined ratio may be acquired as the target image. By manually cutting off surrounding images by a predetermined ratio, a still image can be generated using an image portion with less distortion.

あるいは、複数の対象画像のうち、少なくとも一つの対象画像の指定を受け付けるものとし、認識された画像存在領域から、指定された対象画像を含む矩形の画像領域のうち最大の領域を決定する構成も考えられる。対象画像の組合わせによっては、矩形領域はいくか生じ得るからである。   Alternatively, a configuration in which designation of at least one target image among a plurality of target images is received, and a maximum area among rectangular image areas including the designated target image is determined from the recognized image existence area. Conceivable. This is because some rectangular regions may occur depending on the combination of target images.

さらに、生成する矩形静止画像として、外部から指定された縦横比の画像となる前記最大矩形静止画像を算出するものとしてよい。こうすれば、指定した対象画像の一部を含み、指定した縦横比を有する最も大きい矩形静止画像を自動的に調べることができる。   Furthermore, as the rectangular still image to be generated, the maximum rectangular still image that is an image having an aspect ratio specified from the outside may be calculated. By doing this, it is possible to automatically check the largest rectangular still image that includes a part of the designated target image and has the designated aspect ratio.

また本発明は、コンピュータプログラムおよびそのプログラムを記録した記録媒体としても捉えることができる。記録媒体としてはフレキシブルディスクやCD−ROM、ICカード、パンチカードなど、コンピュータが読み取り可能な種々の媒体を利用できる。こうすれば、歪が少ない画像部分を使って静止画像を生成することができる。こうすれば、歪が少ない画像部分を使って静止画像を生成することができる。コンピュータプログラムおよび記録媒体に相当するものとしては、ネットワーク上におかれたハードディスなどの記憶装置に、ネットワークを介して他のコンピュータによって読み取られ実行されるように保存されているケースなどが含まれることは勿論である。   The present invention can also be understood as a computer program and a recording medium on which the program is recorded. As the recording medium, various computer-readable media such as a flexible disk, a CD-ROM, an IC card, and a punch card can be used. In this way, it is possible to generate a still image using an image portion with less distortion. In this way, it is possible to generate a still image using an image portion with less distortion. Examples of the computer program and the recording medium include a case where a storage device such as a hard disk placed on a network is stored so as to be read and executed by another computer via the network. Of course.

次に、本発明の実施の形態を実施例に基づいて説明する。図1は本発明の一実施例としての静止画像生成装置の概略構成を示す説明図である。この画像処理装置は、汎用のコンピュータを用いて構成され、コンピュータ100に情報を入力する装置としてのキーボード110およびマウス120と、情報を出力する装置としてのディスプレイ130およびプリンタ180とを備えている。またコンピュータ100に動画像を入力する装置として、デジタルビデオカメラ160およびCD−R/RWドライブ140、DVD−R/RWドライブ150を備えている。その他、必要に応じて、動画像を記憶した記憶媒体からデータを読み出すことが可能な駆動装置を備えることもできる。   Next, embodiments of the present invention will be described based on examples. FIG. 1 is an explanatory diagram showing a schematic configuration of a still image generating apparatus as an embodiment of the present invention. This image processing apparatus is configured using a general-purpose computer, and includes a keyboard 110 and a mouse 120 as apparatuses for inputting information to the computer 100, and a display 130 and a printer 180 as apparatuses for outputting information. As a device for inputting a moving image to the computer 100, a digital video camera 160, a CD-R / RW drive 140, and a DVD-R / RW drive 150 are provided. In addition, if necessary, a drive device that can read data from a storage medium that stores a moving image can be provided.

コンピュータ100は、所定のオペレーティングシステムの下で、動画像から取得した対象画像であるフレーム画像を用いて矩形の静止画像を生成するためのアプリケーションプログラムを実行することにより、静止画像生成装置として機能する。特に図1に示したように、このアプリケーションプログラムが実行されることにより、画像取得部20、位置関係データ生成部30、画像領域認識部50、矩形画像算出部70として機能する。   The computer 100 functions as a still image generation device by executing an application program for generating a rectangular still image using a frame image that is a target image acquired from a moving image under a predetermined operating system. . In particular, as shown in FIG. 1, the application program is executed to function as an image acquisition unit 20, a positional relationship data generation unit 30, an image area recognition unit 50, and a rectangular image calculation unit 70.

各部はそれぞれ以下の処理を司る。画像取得部20は、コンピュータ100に入力した動画像からキャプチャして複数のフレーム画像を取得し位置関係データ生成部30へ渡す。位置関係データ生成部30は、その複数のフレーム画像間の相対位置を算出して画像領域認識部50へデータとして渡す。画像領域認識部50は、渡された複数のフレーム画像の相対位置データから、フレーム画像が存在する画像領域をしらべ、その結果をデータとして矩形画像算出部70に渡す。矩形画像算出部70は、フレーム画像が存在する画像領域データから、生成できる最も大きい所定の矩形の静止画像を算出する。   Each part manages the following processes. The image acquisition unit 20 captures a moving image input to the computer 100, acquires a plurality of frame images, and passes them to the positional relationship data generation unit 30. The positional relationship data generation unit 30 calculates a relative position between the plurality of frame images and passes it to the image region recognition unit 50 as data. The image area recognition unit 50 checks the image area where the frame image exists from the relative position data of the plurality of frame images that have been passed, and passes the result to the rectangular image calculation unit 70 as data. The rectangular image calculator 70 calculates the largest predetermined rectangular still image that can be generated from the image area data in which the frame image exists.

次に、本実施例の静止画像生成装置が行なう処理について、
(A)画像取得部20と位置関係データ生成部30:
(B)画像領域認識部50:
(C)矩形画像算出部70:
(D)変形例:
の順序で以下説明する。
Next, regarding the processing performed by the still image generating apparatus of the present embodiment,
(A) Image acquisition unit 20 and positional relationship data generation unit 30:
(B) Image region recognition unit 50:
(C) Rectangular image calculation unit 70:
(D) Modification:
This will be described in the following order.

(A)画像取得部と位置関係データ生成部:
画像取得部20と位置関係データ生成部30では、動画像から複数のフレーム画像を取り込み、その相対位置を座標データとして生成する処理を行なう。この処理を図2のフローチャートにより説明する。処理が開始されると、最初に、複数のフレーム画像を繋ぎ合わせて作る矩形静止画像にとって基準画像となる基準フレーム画像を指定し、コンピュータ100に取り込む処理を行なう(ステップS31)。基準フレーム画像の指定は、静止画像生成装置の操作者(以下、単に「操作者」と呼ぶ)が、キーボード110やマウス120などを使いデータを入力して行なう。具体的には、ディスプレイ130に動画を表示し、この動画を所定の位置(経過時間)で停止して、表示されているフレーム画像を、基準画像として指定する。基準画像の指定は、この他、例えばコマ送りすることで順次フレーム画像を表示し、適当と思われる画像を操作者により指定するものとしても良いし、動画の各フレームあるいは所定のインターバルで抽出されたフレームを、フィルムストリップ状に表示し、これを操作者が選択するものとしても良い。
(A) Image acquisition unit and positional relationship data generation unit:
The image acquisition unit 20 and the positional relationship data generation unit 30 perform processing for capturing a plurality of frame images from a moving image and generating the relative positions as coordinate data. This process will be described with reference to the flowchart of FIG. When the processing is started, first, a reference frame image serving as a reference image is designated for a rectangular still image formed by connecting a plurality of frame images, and processing for taking in the computer 100 is performed (step S31). The reference frame image is designated by an operator of the still image generation apparatus (hereinafter simply referred to as “operator”) by inputting data using the keyboard 110, the mouse 120, or the like. Specifically, a moving image is displayed on the display 130, the moving image is stopped at a predetermined position (elapsed time), and the displayed frame image is designated as a reference image. In addition to this, the reference image may be displayed by sequentially displaying frame images, for example, by frame-by-frame, and an image that is considered appropriate may be specified by the operator, or may be extracted at each frame of a moving image or at a predetermined interval. The frame may be displayed in a film strip shape and selected by the operator.

こうして指定された基準フレーム画像に対して、次にその前後の連続するフレーム画像から、矩形静止画像作成のために使用する最初のフレーム画像と最後のフレーム画像を指定し、コンピュータ100に取り込む処理を行なう(ステップS32)。操作者が、基準フレーム画像の取り込みと同様にキーボード110やマウス120などによりデータを入力して指定する。例えば、基準フレームから前後5つのフレームというように指定しても良いし、フィルムストリップ状に表示されている前後の画像を直接指定してもよい。   For the reference frame image designated in this way, the first frame image and the last frame image used for creating a rectangular still image are designated from the successive frame images before and after the reference frame image, and the processing is taken into the computer 100. This is performed (step S32). The operator inputs and designates data with the keyboard 110, the mouse 120, and the like in the same manner as taking in the reference frame image. For example, it may be specified as five frames before and after the reference frame, or images before and after displayed in a film strip shape may be directly specified.

各フレーム画像の指定方法としては、この他、動画像からフレーム画像をキャプチャしてコンピュータ100に取り込む際、通常付加されるフレーム画像の識別番号を指定する方法や、所定時間間隔で予め定められた枚数の静止画像を、指定された基準フレーム画像の前後の連続するフレーム画像から自動的に取り込む方法などが考えられる。以上の処理が画像取得部20の処理に相当する。   Other methods for specifying each frame image include a method of specifying an identification number of a frame image that is normally added when capturing a frame image from a moving image and capturing it into the computer 100, or a predetermined time interval. For example, a method of automatically capturing a number of still images from consecutive frame images before and after a designated reference frame image can be considered. The above processing corresponds to the processing of the image acquisition unit 20.

次に、操作者が指定した基準フレーム画像を含む複数のフレーム画像について、各フレーム画像間の相対位置を算出する処理を行なう(ステップS35)。すべてのフレーム画像の相対位置は、後述する2枚のフレーム画像間の位置関係を、取り込んだ複数のフレーム画像について算出することにより、求めている。本実施例では、指定された基準フレーム画像と複数のフレーム画像との相対位置を、1枚ずつ算出して全てのフレーム画像の相対位置を算出している。   Next, for a plurality of frame images including a reference frame image designated by the operator, a process of calculating a relative position between the frame images is performed (step S35). The relative positions of all the frame images are obtained by calculating the positional relationship between two frame images described later for a plurality of captured frame images. In this embodiment, the relative positions of the designated reference frame image and the plurality of frame images are calculated one by one, and the relative positions of all the frame images are calculated.

2枚のフレーム画像間の相対位置の算出処理について図3を用いて説明する。図3(a)と図3(b)は、二つのフレーム画像G1およびフレーム画像Gnをそれぞれ示している。図示した二つの画像は、夕日を背景とする山の風景を左上から右下方向に、カメラをパンをしながら撮像した動画から取り込んだものである。二つのフレーム画像の相対的な位置関係は、通常、平行移動として把握できる並進ズレ、所定の回転中心の周りの回転として把握できる回転ズレ、ズームにより生じる相対的な大きさの変化として把握できる画像倍率のズレの三つを想定すればほとんどの場合、把握することができる。図3(a)、(b)に例示したカメラのパンによって得られた2枚の画像の場合、両者の間には回転ズレや倍率ズレはないことから、並進ズレとして、即ち両者の位置のずれは、並進ベクトルとして求めることができる。   The calculation process of the relative position between two frame images will be described with reference to FIG. 3A and 3B show two frame images G1 and Gn, respectively. The two images shown in the figure are taken from a moving image obtained by panning the camera from the upper left to the lower right in the mountain landscape against the sunset. The relative positional relationship between the two frame images is usually an image that can be grasped as a translational displacement that can be grasped as a parallel movement, a rotational displacement that can be grasped as a rotation around a predetermined rotation center, and a relative size change caused by zooming. In most cases, this can be grasped by assuming three deviations in magnification. In the case of two images obtained by the camera pan illustrated in FIGS. 3A and 3B, there is no rotation shift or magnification shift between the two images. The deviation can be obtained as a translation vector.

並進ベクトルは、具体的には、二つの画像間において横方向と縦方向への画素のズレを表わす画素数の組として表現することができる。こうした画素数のズレは、画像のパターンマッチングや特徴点追跡といった周知の処理技術によって生成することが可能である。こうして生成された並進ベクトルから算出した相対位置データが、画面横(X)方向の画素数Xn、画面縦(Y)方向の画素数Ynであれば、フレーム画像G1の画面左上隅C1を基準点(0,0)とした時、フレーム画像Gnの画面左上隅Cnは座標(Xn,Yn)となる。この状態を図3(c)に示す。こうして、フレーム画像G1に対するフレーム画像Gnの相対位置を算出する。   More specifically, the translation vector can be expressed as a set of the number of pixels representing the displacement of the pixels in the horizontal direction and the vertical direction between the two images. Such a shift in the number of pixels can be generated by a known processing technique such as image pattern matching or feature point tracking. If the relative position data calculated from the translation vector thus generated is the number of pixels Xn in the horizontal (X) direction of the screen and the number of pixels Yn in the vertical (Y) direction of the screen, the upper left corner C1 of the frame image G1 is set as the reference point. When (0, 0) is set, the upper left corner Cn of the frame image Gn has coordinates (Xn, Yn). This state is shown in FIG. In this way, the relative position of the frame image Gn with respect to the frame image G1 is calculated.

また、フレーム画像G1とフレーム画像Gnとの間で、回転や画像倍率が異なる場合は、例えばオプティカルフロー推定とパターンマッチングの組み合わせによって相対位置を算出することができる。オプティカルフロー推定には、種々の手法があり、たとえばグラディエント(gradient−based)法は、観測するフレーム画像間において対象の輝度が不変であるという仮定の下に、画像中における対象の濃度分布の空間勾配と時間勾配の関係を利用して撮影装置を基準とした被写体の移動を推定する。このオプティカルフロー推定の結果に基づいて、大まかに画像の並進移動や回転、ズーム倍率の変化を推定するとともに、この推定結果に基づいてフレーム画像G1とフレーム画像Gnとを同じ倍率のフレーム画像になるように画像処理を行ない、画像処理後のフレーム画像を新たにフレーム画像G1とフレーム画像Gnとして、この画像間でパターンマッチングを行なうことによって相対位置を算出する。   Further, when the rotation and the image magnification are different between the frame image G1 and the frame image Gn, the relative position can be calculated by, for example, a combination of optical flow estimation and pattern matching. There are various optical flow estimation methods. For example, the gradient-based method is based on the assumption that the luminance of an object is invariable between observed frame images, and the density distribution space of the object in the image. Using the relationship between the gradient and the time gradient, the movement of the subject relative to the photographing apparatus is estimated. Based on the result of this optical flow estimation, roughly the translational movement, rotation, and change in zoom magnification of the image are estimated, and on the basis of this estimation result, the frame image G1 and the frame image Gn become frame images having the same magnification. The image processing is performed as described above, and the frame position after the image processing is newly set as the frame image G1 and the frame image Gn, and the relative position is calculated by performing pattern matching between the images.

以上のように、操作者が指定した基準フレーム画像とその他のすべてのフレーム画像間で、2枚のフレーム画像間の相対位置算出処理を、フレーム画像の回転や画像倍率を補正して行なう。そして操作者が指定した基準フレーム画像の画面左上隅を原点(0,0)とした場合の他のフレーム画像の左上隅のX,Y座標データを、ズレ量を表わす位置関係データとして生成する(図2、ステップS36)。これらの処理が、位置関係データ生成部30の処理に相当する。こうして得られたこの位置関係データは、フレーム画像とともに、画像領域認識部50の処理に供される。   As described above, the relative position calculation process between the two frame images is performed between the reference frame image designated by the operator and all other frame images by correcting the rotation of the frame image and the image magnification. Then, the X and Y coordinate data of the upper left corner of another frame image when the upper left corner of the reference frame image designated by the operator is set as the origin (0, 0) is generated as positional relationship data representing the amount of deviation ( FIG. 2, step S36). These processes correspond to the process of the positional relationship data generation unit 30. The positional relationship data obtained in this way is used for processing of the image region recognition unit 50 together with the frame image.

(B)画像領域認識部:
次に、画像領域認識部50の処理について説明する。画像領域認識部50では、操作者が指定した全てのフレーム画像をX,Y座標データに基づき一つの画像領域に配置し、全てのフレーム画像の論理和となる画像領域、つまり、全てのフレーム画像が繋ぎ合ってできる画像が存在する領域を認識する処理を行なう。この処理を図4のフローチャートにより説明する。処理が開始されると、まず、全てのフレーム画像を、処理ステップS36(図2)で生成された位置関係データである左上隅のX,Y座標データに基づいて配置する処理を行なう(ステップS51)。例えば、操作者が指定した全てのフレーム画像が、等しい画像倍率の連続する4枚(F1〜F4)のフレーム画像であり、基準フレーム画像をF2と仮定した場合、図5(a)に示したように、基準フレーム画像F2の画面左上隅を原点(0,0)としたX,Y座標データに基づいて、他の3枚のフレーム画像F1、フレーム画像F3、フレーム画像F4を、それぞれ(X1,Y1)、(X3,Y3)、(X4,Y4)の座標位置に配置するのである。
(B) Image area recognition unit:
Next, processing of the image area recognition unit 50 will be described. The image area recognition unit 50 arranges all the frame images designated by the operator in one image area based on the X and Y coordinate data, and is an image area that is the logical sum of all the frame images, that is, all the frame images. A process for recognizing an area where an image formed by connecting the images exists is performed. This process will be described with reference to the flowchart of FIG. When the process is started, first, all the frame images are arranged based on the X and Y coordinate data of the upper left corner, which is the positional relationship data generated in the process step S36 (FIG. 2) (step S51). ). For example, when all the frame images designated by the operator are four consecutive frame images (F1 to F4) having the same image magnification, and the reference frame image is assumed to be F2, as shown in FIG. Thus, based on the X and Y coordinate data with the origin (0, 0) at the upper left corner of the reference frame image F2, the other three frame images F1, F3, and F4 are respectively (X1 , Y1), (X3, Y3), and (X4, Y4).

次に、図5(b)に破線で示したように、配置された全てのフレーム画像の論理和となる画像領域を含む矩形の識別画像Rを設定する処理を行なう(図4、ステップS52)。ここで、識別画像Rは、大きさが出来るだけ小さくなるよう設定するのが好ましい。これは後述する識別画像Rを構成する画素に「マーク」を付ける処理(ステップS54)の負荷を軽減するためである。本実施例では、全てのフレーム画像を内側に納めた最小の矩形画像を識別画像Rとして設定する。もとより、全てのフレーム画像が含まれる大きさの画像であれば形状や大きさは何でもよい。   Next, as shown by a broken line in FIG. 5B, a process of setting a rectangular identification image R including an image area that is a logical sum of all the arranged frame images is performed (FIG. 4, step S52). . Here, the identification image R is preferably set so as to be as small as possible. This is to reduce the load of the process of adding “marks” to the pixels constituting the identification image R, which will be described later (step S54). In this embodiment, a minimum rectangular image in which all frame images are stored inside is set as the identification image R. Of course, as long as the image has a size that includes all frame images, any shape or size may be used.

本実施例において、識別画像Rの大きさは、全てのフレーム画像のX,Y座標データとフレーム画像の画面サイズから求めている。各フレーム画像が図5の例のように上下左右方向にパンをして撮像した画像を想定した場合、回転や画像倍率の違いはなく、全てのフレーム画像について画面の傾きや画面サイズの違いはないものと考えてよい。したがって、識別画像Rの縦の長さは、図5(b)に示すように、全てのフレーム画像の画面左上隅のY座標値の最大値と最小値の差(Y3−Y1)に、フレーム画像のY方向の長さ、すなわち縦の画面長さHを加えたものである。また識別画像Rの横の長さは、全てのフレーム画像の画面左上隅のX座標値の最大値と最小値の差(X4−X1)に、フレーム画像のX方向の長さ、すなわち横の画面長さWを加えたものである。本実施例では、識別画像Rの大きさはこのようにして求めた。なお、回転や画像倍率が補正されたフレーム画像を含む場合は、フレーム画像の個々の相対位置と画面の傾き及び大きさを一つずつ調べて、識別画像Rの縦の長さと横の長さを求めればよい。   In this embodiment, the size of the identification image R is obtained from the X and Y coordinate data of all the frame images and the screen size of the frame image. Assuming that each frame image is taken by panning up and down, left and right as in the example of FIG. 5, there is no difference in rotation and image magnification, and the difference in screen tilt and screen size for all frame images You can think of it as not. Therefore, as shown in FIG. 5B, the vertical length of the identification image R is the difference between the maximum value and the minimum value (Y3−Y1) of the Y coordinate values at the upper left corner of the screen of all frame images. The length in the Y direction of the image, that is, the vertical screen length H is added. The horizontal length of the identification image R is the difference between the maximum and minimum X coordinate values (X4−X1) of the upper left corner of the screen of all the frame images. The screen length W is added. In this embodiment, the size of the identification image R is obtained in this way. When a frame image with corrected rotation and image magnification is included, the relative position of the frame image and the inclination and size of the screen are checked one by one to determine the vertical length and horizontal length of the identification image R. You can ask for.

次に、設定した識別画像Rにフレーム画像が存在する領域と存在しない領域を記憶するため、全てのフレーム画像の論理和となる画像領域(以降、これを「画像存在領域」と呼ぶ)を、識別画像Rを基準とした座標系として設定しなおす処理を行なう(ステップS53)。つまり、図5(c)に示したように、画像存在領域を識別画像Rの画面左上隅を原点(0,0)とするX,Y座標系に設定しなおす処理を行なうのである。この処理によって、画像存在領域は、識別画像Rにおける共通のX,Y座標データを有することになる。こうすることで、識別画像Rにおいてフレーム画像が存在する画像領域とフレーム画像が存在しない画像領域を、画像存在領域の内か外かで区別することができる。   Next, in order to store the region where the frame image exists and the region where the frame image does not exist in the set identification image R, an image region which is a logical sum of all the frame images (hereinafter referred to as “image existence region”) A process of resetting the coordinate system based on the identification image R is performed (step S53). That is, as shown in FIG. 5 (c), the process of resetting the image presence area to the X, Y coordinate system with the upper left corner of the screen of the identification image R as the origin (0, 0) is performed. By this processing, the image existence area has common X and Y coordinate data in the identification image R. In this way, in the identification image R, the image area where the frame image exists and the image area where the frame image does not exist can be distinguished according to whether they are inside or outside the image existence area.

こうして座標を設定しなおした画像存在領域を含む識別画像Rにおいて、識別画像Rを構成する画素のうち、画像存在領域内に全体が含まれる画素に「マーク」をつけて識別し、フレーム画像が存在しない領域と区別する処理を行なう(ステップS54)。この処理によって、フレーム画像の存在の有無を、識別画像Rを構成する画素に付けた「マーク」の有無で識別することができる。これは、画像認識における、いわゆるラベリングの処理である。   In the identification image R including the image existence area in which the coordinates are reset in this way, among the pixels constituting the identification image R, the pixels that are entirely included in the image existence area are identified by adding “marks”, and the frame image is identified. A process of distinguishing from the non-existing area is performed (step S54). By this processing, the presence / absence of the frame image can be identified by the presence / absence of the “mark” attached to the pixels constituting the identification image R. This is a so-called labeling process in image recognition.

識別画像Rを構成する画素の大きさは、画像存在領域の識別誤差を少なくするために小さく設定することが好ましい。本実施例では、画像存在領域の内か外かを少ない誤差で区別するために、識別画像Rをフレーム画像と同じ解像度の画像として設定する。そして、上述したように確実にフレーム画像が存在する領域を調べるため、識別画像Rを構成する画素のうち全体が画像存在領域に含まれる画素に「マーク」をつけるものとする。もとより識別画像Rを構成する画素の大きさを、後述する矩形画像算出部70が行なう処理の負荷と画像存在領域の識別誤差とから決定してもよい。また、「マーク」する画素についても、画素中心が含まれる画素としてもよいし、所定の面積割合が含まれる画素としてもよい。   The size of the pixels constituting the identification image R is preferably set small in order to reduce the identification error of the image existence area. In this embodiment, the identification image R is set as an image having the same resolution as that of the frame image in order to discriminate between the inside and outside of the image existence area with a small error. Then, as described above, in order to reliably check the area where the frame image exists, all the pixels constituting the identification image R are marked with “marks” in the pixels included in the image existing area. Naturally, the size of the pixels constituting the identification image R may be determined from the processing load performed by the rectangular image calculation unit 70 described later and the identification error of the image existence area. Also, the pixel to be “marked” may be a pixel including the pixel center or a pixel including a predetermined area ratio.

「マーク」の付与は、種々の方法で行なうことができる。たとえば、フレーム画像の画面内に存在する識別画像Rのすべての画素を画素データ「1」とし、それ以外は画素データ「0」とする2値化処理をおこなうことによって、画素データ「1」を「マーク」とする方法が考えられる。あるいは、画素にRGBデータを付加し、このRGBデータのうち少なくとも一つのデータを「マーク」とする方法も考えられる。図5(c)に、このように「マーク」された画素領域、つまりフレーム画像が存在する画像有領域RS(網掛け部)と存在しない画像無領域RNに区分された識別画像Rを例示する。以上の処理が、画像領域認識部50での処理に相当する。   The “mark” can be assigned by various methods. For example, by performing binarization processing in which all the pixels of the identification image R existing in the frame image screen are set to pixel data “1” and the other pixels are set to pixel data “0”, the pixel data “1” is changed. A method of “marking” can be considered. Alternatively, a method of adding RGB data to a pixel and setting at least one of the RGB data as a “mark” is also conceivable. FIG. 5C illustrates an identification image R divided into a pixel area “marked” in this way, that is, an image presence area RS (shaded portion) in which a frame image exists and an image non-area RN in which no frame image exists. . The above processing corresponds to the processing in the image area recognition unit 50.

(C)矩形画像算出部:
次に操作者が指定する矩形の静止画像で、画像有領域RSから生成できる最も大きい画面サイズを算出する処理を行なう。この矩形画像算出部70が行なう処理を図6のフローチャートにより説明する。最初に、矩形の静止画像の基準となる基準フレーム画像を指定する処理を行なう(ステップS71)。基準フレーム画像は、処理ステップS31(図2)で操作者が指定したものが通常デフォルトで指定されるが、基準フレーム画像を変更する場合は、ここでキーボード110などを用いてデータを入力し、指定する。
(C) Rectangular image calculation unit:
Next, a process of calculating the largest screen size that can be generated from the image area RS with a rectangular still image specified by the operator is performed. The processing performed by the rectangular image calculation unit 70 will be described with reference to the flowchart of FIG. First, a process for designating a reference frame image as a reference for a rectangular still image is performed (step S71). As the reference frame image, the one specified by the operator in the processing step S31 (FIG. 2) is normally specified by default. However, when the reference frame image is changed, data is input using the keyboard 110 or the like here. specify.

次に、最終的に生成する矩形静止画像の縦横比を指定する処理を行なう(ステップS72)。指定方法は、操作者が希望する縦横比Eをキーボード110などによりデータを入力して行なう。本実施例では、縦横比Eを、縦の長さを1としたときの横の長さとしている。   Next, processing for designating the aspect ratio of the finally generated rectangular still image is performed (step S72). The designation method is performed by inputting data with the keyboard 110 or the like for the aspect ratio E desired by the operator. In this embodiment, the aspect ratio E is the horizontal length when the vertical length is 1.

以上の処理により指定された基準フレーム画像と縦横比Eに従い、基準フレーム画像を含む縦横比Eの最大矩形静止画像を算出するため、図7に示すように、基準フレーム画像の画面中心の座標(I,J)から、最大矩形領域を算出する処理を行なう(ステップS74)。座標(I,J)は、識別画像Rの画面左上隅を原点(0,0)としたX,Y座標である。   In order to calculate the maximum rectangular still image of aspect ratio E including the reference frame image according to the reference frame image and aspect ratio E specified by the above processing, as shown in FIG. I, J) is performed to calculate the maximum rectangular area (step S74). The coordinates (I, J) are X and Y coordinates with the upper left corner of the screen of the identification image R as the origin (0, 0).

最大矩形領域を算出する処理(ステップS74)は、識別画像R内において、算出を開始する基準画素から、画面上下(±Y)方向にそれぞれ交互に1画素ずつ拡大し、画面左右(±X)方向へは1画素の縦の長さに指定した縦横比Eを乗じた長さ分だけ領域を拡大し、こうした領域の拡大処理を行ないつつ、画面の左上隅LTと右下隅RBが作る矩形領域内に存在する画素が、全て「マーク」有りの画素であるかを調べることで、条件を満たす最大の大きさの矩形領域を算出する処理である。   In the process of calculating the maximum rectangular area (step S74), in the identification image R, each pixel is alternately expanded in the vertical and negative (± Y) directions from the reference pixel from which calculation starts, and the horizontal and horizontal (± X) of the screen is determined. A rectangular area formed by the upper left corner LT and the lower right corner RB of the screen while enlarging the area by a length obtained by multiplying the vertical length of one pixel by the specified aspect ratio E in the direction, and performing the enlargement process of the area. This is a process of calculating a rectangular region having a maximum size that satisfies the condition by checking whether all the pixels existing in the pixel are “marked” pixels.

ここでの処理を図8のフローチャートにより説明する。この処理が開始されると、まず、変数m、nを初期値0に設定する(ステップS741)。変数m、nは、処理を開始する基準となる基準画素から、それぞれ画面の上方向へ増加する画素数と画面下方向へ増加する画素数を表している。変数mおよびnを値0としたのは、矩形領域算出処理の開始状態、すなわち基準画素の1画素のみの状態にするためである。   This processing will be described with reference to the flowchart of FIG. When this process is started, first, variables m and n are set to an initial value 0 (step S741). Variables m and n represent the number of pixels that increase in the upward direction of the screen and the number of pixels that increase in the downward direction of the screen, respectively, from the reference pixel that is a reference for starting the processing. The reason why the variables m and n are set to the value 0 is to make the rectangular area calculation process start, that is, to set the state of only one reference pixel.

次に、算出する最大矩形領域を基準フレーム画像の画面中心(I,J)から探索する演算により求めるため、基準画素のX,Y座標を(I,J)に設定する処理を行なう(ステップS742)。図10に示したように、基準画素の中心座標を(I,J)とすると、変数m,nにより規定される矩形領域の左上隅点LTと右下隅点RBの座標は、
LT(I−(m+0.5)ELy,J−(m+0.5)Ly)
RB(I+(n+0.5)ELy,J+(n+0.5)Ly)
となる。ここで、Eは縦横比、Lyは1画素の縦の長さである。したがって、このようにLTとRBの座標値を設定して、最大矩形領域の算出を基準フレーム画像の画面中心から開始する。
Next, in order to obtain the maximum rectangular area to be calculated by an operation for searching from the screen center (I, J) of the reference frame image, a process of setting the X and Y coordinates of the reference pixel to (I, J) is performed (step S742). ). As shown in FIG. 10, assuming that the center coordinates of the reference pixel are (I, J), the coordinates of the upper left corner point LT and the lower right corner point RB of the rectangular area defined by the variables m and n are
LT (I- (m + 0.5) ELy, J- (m + 0.5) Ly)
RB (I + (n + 0.5) ELy, J + (n + 0.5) Ly)
It becomes. Here, E is the aspect ratio, and Ly is the vertical length of one pixel. Therefore, the coordinate values of LT and RB are set in this way, and the calculation of the maximum rectangular area is started from the screen center of the reference frame image.

なお識別画像Rにおいて、基準フレーム画像の配置位置と画面サイズによっては、基準フレーム画像の画面中心(I,J)が基準画素の中心と一致しない場合がある。この場合は、基準フレーム画像の画面中心を基準画素の画素中心に移動して以降の処理ステップを行なえばよい。画面中心は最大0.5画素分ずれるが、最大矩形領域の算出処理後に必要に応じて補正すればよい。   In the identification image R, the screen center (I, J) of the reference frame image may not match the center of the reference pixel depending on the arrangement position and the screen size of the reference frame image. In this case, the subsequent processing steps may be performed by moving the screen center of the reference frame image to the pixel center of the reference pixel. Although the center of the screen is shifted by a maximum of 0.5 pixels, it may be corrected as necessary after the process of calculating the maximum rectangular area.

上述した処理が終了したのち、変数mとnをそれぞれ一つずつ交互に増加することで、右上隅点LTと左下隅点RBとを対角とする矩形領域を順次拡大しながら、その矩形領域内の画素に付けられた「マーク」の有無を調べてゆく。矩形領域内の総ての画素に「マーク」が付されていれば、右上隅点LTと左下隅点RBとにより規定される矩形領域を拡大し、矩形領域内の画素に「マーク」が付されていない画素が見つかれば、そこで処理を中止するのである。以下、この処理を詳しく説明する。   After the above-described processing is completed, the variables m and n are alternately increased one by one, and the rectangular area whose diagonals are the upper right corner point LT and the lower left corner point RB is sequentially enlarged, and the rectangular area is increased. The presence or absence of “marks” attached to the pixels inside is checked. If all the pixels in the rectangular area have “marks” attached, the rectangular area defined by the upper right corner point LT and the lower left corner point RB is enlarged, and “marks” are attached to the pixels in the rectangular area. If a pixel that has not been processed is found, the processing is stopped there. Hereinafter, this process will be described in detail.

最初に、基準画素から1画素分画面上方向へ画面を拡大する処理を行なう(図8、ステップS743)。具体的には変数mを一つ増加する。このとき、左上隅点LTと右下隅点RBが作る矩形領域でフレーム画像の存在を調べる(ステップS744)。従って、変数mを増加しつつ、ステップS744は何度も実行されることになる。図11は、変数mを増加する処理(ステップS743)の3回目、即ち変数mを値2から値3に増加した状態を例示している。変数mが値2のときに対して、網掛け部で示した画面上辺部と左辺部にできる増分領域が、変数mを値3にして画面を拡大したことによって新たに増えた画像領域になる。したがって、変数mが一つ増加するたびに増加したこの増分領域に含まれる画素についてのみ、「マーク」の有無を調べれば足りる。   First, a process for enlarging the screen upward by one pixel from the reference pixel is performed (FIG. 8, step S743). Specifically, the variable m is increased by one. At this time, the presence of the frame image is examined in a rectangular area formed by the upper left corner point LT and the lower right corner point RB (step S744). Therefore, step S744 is executed many times while increasing the variable m. FIG. 11 illustrates the third process of increasing the variable m (step S743), that is, a state in which the variable m is increased from the value 2 to the value 3. When the variable m is the value 2, the increment area that can be formed on the upper side and the left side of the screen indicated by the shaded portion is an image area that is newly increased by enlarging the screen with the variable m as the value 3. . Therefore, it is only necessary to check the presence or absence of “marks” only for the pixels included in this increment area that is increased each time the variable m increases by one.

増分領域に含まれる画素は、画面縦方向は1画素ずつ、つまりLyずつ増加するため画素の境目と増分領域の境目は常に一致するが、画面横方向は縦横比Eを乗じた値E・Lyずつ増加するため、1画素の横方向の境目と増分領域の境目とは一致しない場合がある。本実施例では、画素の中心が増分領域に含まれる画素であれば、「マーク」の有無を調べる対象とした。もとより、画素全体が増分領域内に含まれる画素のみを調べるものとしてもよい。また増分領域に含まれる画素の面積割合を予め決めて調べることとしてもよい。   The pixels included in the increment area increase by one pixel in the vertical direction of the screen, that is, by Ly, so that the boundary of the pixel always coincides with the boundary of the increment area, but the horizontal direction of the screen is a value E · Ly multiplied by the aspect ratio E. Since it increases step by step, the horizontal boundary of one pixel may not match the boundary of the increment region. In the present embodiment, if the center of the pixel is a pixel included in the increment region, the presence of the “mark” is examined. Of course, only the pixels in which the entire pixel is included in the increment region may be examined. Further, the area ratio of the pixels included in the increment region may be determined and examined in advance.

こうして、増分領域でのフレーム画像の存在の有無を画素の「マーク」の有無によって調べ、左上隅点LTと右下隅点RBが作る全ての矩形領域にフレーム画像が存在(「マーク」がある)か否かを判定する処理を行なう(ステップS745)。判定の結果、「マーク」の無い画素があった場合(ステップS745:NO)、矩形領域を拡大し過ぎたとして、変数mを値1だけ減少する(ステップS746)。即ち、左上隅点LTの位置を一つ前の位置に戻すのである。こうして次の処理に進む。一方判定の結果すべての画素について「マーク」有りと判断された場合(ステップS745:YES)には、左上隅点LTの位置は、そのままにして次の処理に進む。   Thus, the presence or absence of the frame image in the increment area is checked based on the presence or absence of the “mark” of the pixel, and the frame image exists in all the rectangular areas created by the upper left corner point LT and the lower right corner point RB (there is a “mark”). The process which determines whether or not is performed (step S745). As a result of the determination, if there is a pixel without a “mark” (step S745: NO), the variable m is decreased by a value 1 assuming that the rectangular area has been enlarged (step S746). That is, the position of the upper left corner point LT is returned to the previous position. Thus, the process proceeds to the next process. On the other hand, if it is determined that all the pixels have “marks” as a result of the determination (step S745: YES), the position of the upper left corner point LT is left as it is, and the process proceeds to the next process.

次に、1画素分画面下方向へ画面を拡大する処理を行なう(ステップS747)。具体的には変数nを値1だけ増加する。このとき、左上隅点LTと右下隅点RBが規定する矩形領域内でフレーム画像の存在の有無を画素の「マーク」の有無によって調べる(ステップS748)。図11で示した状態と同じように、変数nを増加した場合も増分領域が、画面の拡大によって新たに増える領域になる。変数nが値1だけ増加した場合の増分領域については特に図示しないが、画面底辺と右辺部分に増分領域ができることは容易に諒解される。この増分領域の画素について「マーク」の有無を調べるのである。   Next, a process for enlarging the screen downward by one pixel is performed (step S747). Specifically, the variable n is increased by the value 1. At this time, the presence / absence of a frame image in the rectangular area defined by the upper left corner point LT and the lower right corner point RB is checked based on the presence / absence of a pixel “mark” (step S748). Similarly to the state shown in FIG. 11, when the variable n is increased, the increment area becomes a new area that is newly increased by enlarging the screen. The increment area when the variable n is increased by the value 1 is not particularly shown, but it can be easily understood that the increment areas are formed at the bottom and right sides of the screen. The presence or absence of “marks” is examined for the pixels in this incremental region.

変数nを増加した場合も処理ステップS745と同様に、増分領域での画素についての「マーク」の有無を調べ、左上隅点LTと右下隅点RBが作る全矩形領域にフレーム画像があるか否かを判定する処理を行なう(ステップS750)。判定の結果、「マーク」の無い画素があった場合(ステップS750:NO)、増分領域を拡大し過ぎたと判断し、変数nを値1だけ減少する処理を行なう(ステップS751)。右下隅点RBの位置を一つ前の位置に戻すのである。一方、判定の結果、すべて「マーク」有りの画素であった場合(ステップS750:YES)には、右下隅点RBの位置は戻さずそのままにして次の処理に進む。   Even when the variable n is increased, as in process step S745, the presence or absence of “mark” for the pixel in the increment area is checked, and whether or not there is a frame image in all the rectangular areas created by the upper left corner point LT and the lower right corner point RB. A process of determining whether or not is performed (step S750). As a result of the determination, if there is a pixel having no “mark” (step S750: NO), it is determined that the increment region has been enlarged too much, and a process of reducing the variable n by a value 1 is performed (step S751). The position of the lower right corner point RB is returned to the previous position. On the other hand, if the result of determination is that all the pixels have “mark” (step S750: YES), the position of the lower right corner point RB is not returned and the process proceeds to the next process.

次に、左上隅点LTと右下隅点RBが作る矩形領域が拡大しているか否かを調べるため、変数m,nの和である値m+nが前回の処理のときの値よりも大きいか否かの判定を行なう(ステップS755)。値m+nが増えていない場合(ステップS755:NO)、矩形領域は拡大していないため、このときの変数m、nの値から座標が決まる左上隅点LTと右下隅点RBによって作られる矩形領域を、最大矩形領域と判断して(ステップS756)、図8に示した処理を終了し、図6に示したステップS78へ戻る。   Next, in order to check whether or not the rectangular area formed by the upper left corner point LT and the lower right corner point RB is enlarged, whether or not the value m + n, which is the sum of the variables m and n, is larger than the value in the previous process. Is determined (step S755). If the value m + n has not increased (step S755: NO), the rectangular area is not enlarged, and therefore the rectangular area created by the upper left corner point LT and the lower right corner point RB whose coordinates are determined from the values of the variables m and n at this time. Is the maximum rectangular area (step S756), the process shown in FIG. 8 is terminated, and the process returns to step S78 shown in FIG.

値m+nが増えている場合(ステップS755:YES)は、以降の処理を3つの場合に分けて実施する。まず、mとnが両方とも増えている場合は、左上隅点LTおよび右下隅点RBの位置をさらに移動して増分領域での画素の「マーク」の有無を調べる処理を繰り返す。したがって、処理ステップS743に戻って、上記の処理(ステップS743ないしS755)を、変数mおよびnをそれぞれ1つ増加しながら繰り返す。   When the value m + n is increased (step S755: YES), the subsequent processing is performed in three cases. First, when both m and n are increased, the process of checking the presence or absence of a “mark” of the pixel in the increment region by further moving the positions of the upper left corner point LT and the lower right corner point RB is repeated. Therefore, returning to the processing step S743, the above processing (steps S743 to S755) is repeated while incrementing the variables m and n by one.

変数mのみ増加している場合は、右下隅点RBの位置の外側の画像領域にはフレーム画像が存在しないため、右下隅点RBの位置は固定し、左上隅点LTのみ位置をさらに移動して増分領域での画素の「マーク」を調べる処理のみ行なう。したがってこの場合は、図9(a)のフローチャートで示したように、左上方向に画面を拡大、つまり変数m,nのうち、変数mのみ1つずつ増加しながら、上記の判定処理を継続する。   When only the variable m is increased, there is no frame image in the image area outside the position of the lower right corner point RB. Therefore, the position of the lower right corner point RB is fixed and only the upper left corner point LT is moved further. Thus, only the process of examining the “mark” of the pixel in the increment area is performed. Therefore, in this case, as shown in the flowchart of FIG. 9A, the screen is enlarged in the upper left direction, that is, the above-described determination process is continued while only the variable m is increased one by one among the variables m and n. .

図9(a)のフローチャートにおけるステップS743aからS746aが行なう処理は、図8で説明したステップS743からS746までの処理と基本的に同じである。したがって、各々のステップが行なう処理については説明を省略する。ステップS755aでは、変数mが増えているか否かを判定して、増えている場合(ステップS755a:YES)には、ステップS743aに戻り、処理を継続する。増えていない場合(ステップS755a:NO)には、矩形領域は最大になったと判断する。即ち、このときの変数m、nの値から座標が定まる左上隅点LTと右下隅点RBによって作られる矩形領域を、最大矩形領域であるとして(ステップS756a)、本処理ルーチンを終了し、図6に示したステップS78へ戻るのである。   The processing performed in steps S743a to S746a in the flowchart of FIG. 9A is basically the same as the processing from steps S743 to S746 described in FIG. Therefore, description of the processing performed by each step is omitted. In step S755a, it is determined whether or not the variable m has increased. If the variable m has increased (step S755a: YES), the process returns to step S743a and the processing is continued. If it has not increased (step S755a: NO), it is determined that the rectangular area has become the maximum. That is, assuming that the rectangular area formed by the upper left corner point LT and the lower right corner point RB whose coordinates are determined from the values of the variables m and n at this time is the maximum rectangular area (step S756a), this processing routine is terminated, and FIG. The process returns to step S78 shown in FIG.

変数nのみ増加している場合は、左上隅点LTの位置の外側の画像領域にはフレーム画像が存在しないため、左上隅点LTの位置は固定し、右下隅点RBのみ位置をさらに移動して増分領域での画素の「マーク」を調べる処理を継続する。したがってこの場合は、図9(b)のフローチャートで示したように、右下方向へ画面を拡大、つまり変数m,nのうち、変数nのみ1つずつ増加しながら、上記の判定処理を継続する。   When only the variable n is increased, there is no frame image in the image area outside the position of the upper left corner point LT. Therefore, the position of the upper left corner point LT is fixed, and only the lower right corner point RB is moved further. Then, the process of examining the “mark” of the pixel in the increment region is continued. Therefore, in this case, as shown in the flowchart of FIG. 9B, the screen is enlarged in the lower right direction, that is, the above-described determination process is continued while only the variable n is increased one by one among the variables m and n. To do.

図9(b)のフローチャートにおけるステップS747bからS751bが行なう処理は、図8で説明したステップS747からS756までの処理と基本的に同じである。したがって、各々のステップが行なう処理については説明を省略する。ステップS755bでは、変数nが増えているか否かを判定して、増えている場合(ステップS755b:YES)は、ステップS747bへ戻り、処理を継続するる。増えていない場合(ステップS755b:NO)には、矩形領域は最大になったと判断する。即ち、このときの変数m、nの値から座標が決まる左上隅点LTと右下隅点RBによって作られる矩形領域を、最大矩形領域であるとして(ステップS756b)、本処理ルーチンを終了し、図6に示したステップS78へ戻るのである。   The processing performed in steps S747b to S751b in the flowchart of FIG. 9B is basically the same as the processing from steps S747 to S756 described in FIG. Therefore, description of the processing performed by each step is omitted. In step S755b, it is determined whether or not the variable n has increased. If the variable n has increased (step S755b: YES), the process returns to step S747b to continue the processing. If it has not increased (step S755b: NO), it is determined that the rectangular area has become the maximum. That is, the rectangular area created by the upper left corner point LT and the lower right corner point RB whose coordinates are determined from the values of the variables m and n at this time is the maximum rectangular area (step S756b), and this processing routine is terminated. The process returns to step S78 shown in FIG.

以上説明したように、変数mとnの増加具合を判断しながら、それぞれ設定した処理を繰り返し行ない、左上隅点LTと右下隅点RBが作る最大矩形領域を算出する処理(図6、ステップS74)を終了し、次の処理ステップS78へ進む。   As described above, while determining the increase of the variables m and n, the set processing is repeatedly performed to calculate the maximum rectangular area formed by the upper left corner point LT and the lower right corner point RB (FIG. 6, step S74). ) And the process proceeds to the next processing step S78.

ステップS78では、操作者によって指定された複数のフレーム画像から識別画像R内において決定した最大矩形領域に含まれる画面部分を切り出し、指定された縦横比の最大矩形静止画像として生成する処理を行なう。図12は、図7に例示した複数のフレーム画像から、生成できる縦横比Eを有する最大矩形静止画像を示している。図中斜め想像線は、矩形静止画像の画面の縦横比1:Eを示す線である。前述したように基準フレーム画像の画面中心が識別画像Rを構成する画素中心とずれていた場合は、必要に応じて補正して画像を生成する。以上で、矩形画像算出部70での処理を終わり、本実施例の静止画像生成装置が行なう処理をすべて終了する。   In step S78, the screen portion included in the maximum rectangular area determined in the identification image R is cut out from the plurality of frame images specified by the operator, and processing is performed to generate a maximum rectangular still image having the specified aspect ratio. FIG. 12 shows a maximum rectangular still image having an aspect ratio E that can be generated from the plurality of frame images illustrated in FIG. The diagonal imaginary line in the figure is a line indicating the aspect ratio 1: E of the screen of the rectangular still image. As described above, when the center of the screen of the reference frame image is shifted from the center of the pixel constituting the identification image R, the image is generated with correction as necessary. Above, the process in the rectangular image calculation part 70 is complete | finished, and all the processes which the still image generation device of a present Example performs are complete | finished.

このように本実施例によれば、指定された複数のフレーム画像と縦横比から、生成できる最大の矩形静止画像を自動的に算出できるため、操作者は希望する形と大きさの矩形静止画像を容易に得ることができる。   As described above, according to the present embodiment, since the maximum rectangular still image that can be generated can be automatically calculated from a plurality of designated frame images and the aspect ratio, the operator can obtain a rectangular still image having a desired shape and size. Can be easily obtained.

(D)変形例:
以上、本発明の実施の形態について一実施例により説明したが、本発明はこうした実施の形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内において様々な形態で実施し得ることは勿論である。例えば、変形例として、画像取得部20の処理において、動画像から複数のフレーム画像を取り込む際、周辺の画像を所定の割合切り落として取り込むこととしてもよい。
(D) Modification:
The embodiment of the present invention has been described above by way of an example. However, the present invention is not limited to such an embodiment, and can be implemented in various forms without departing from the spirit of the present invention. Of course. For example, as a modification, in the process of the image acquisition unit 20, when capturing a plurality of frame images from a moving image, surrounding images may be captured by being cut off at a predetermined rate.

本変形例としてかかる処理は、図2に示したステップS31およびS32において、フレーム画像を取り込む際に実施すればよい。図13に、一例としてフレーム画像F1について周辺を切り落として得られたフレーム画像F1sを取り込む様子を示した。以降の処理は全てフレーム画像F1sを上記実施例でのフレーム画像F1として扱えばよい。フレーム画像の相対位置の算出に際しても、画面左上隅位置C1sをC1として扱えば全て本実施例と同様の処理となる。   Such processing as this modification may be performed when capturing a frame image in steps S31 and S32 shown in FIG. FIG. 13 shows a state in which a frame image F1s obtained by cutting off the periphery of the frame image F1 is taken as an example. In the subsequent processes, the frame image F1s may be handled as the frame image F1 in the above embodiment. When calculating the relative position of the frame image, the same processing as in this embodiment is performed if the upper left corner position C1s of the screen is handled as C1.

レンズなどの光学系には種々の収差や光量のバラツキなどの歪みが存在する。こうした歪みは、画像の周辺ほど大きくなるのが通常である。本変形例によれば、取り込む画面は小さくなるが、画像の周辺歪み部分が小さい画像を使って静止画像を生成するため、歪みの少ない静止画像を生成することができる。切り落とす画像の割合は、画面の面積比でおおよそ20%を切り落とすものとしてもよいし、もとより動画像を撮影した撮影装置の光学性能や、撮像素子の解像度などによって設定してもよい。   In an optical system such as a lens, there are distortions such as various aberrations and variations in light quantity. Such distortion is usually greater at the periphery of the image. According to the present modification, although the screen to be captured is small, a still image is generated using an image with a small peripheral distortion portion of the image, so that a still image with less distortion can be generated. The ratio of the image to be cut off may be cut off by approximately 20% in the screen area ratio, or may be set according to the optical performance of the photographing apparatus that captured the moving image, the resolution of the image sensor, or the like.

また、本実施例では、最大矩形領域の算出に際して、基準フレーム画像の画面中心からフレーム画像の存在する矩形領域の算出を開始したが、変形例として、画面中心以外から開始するものとしてもよい。操作者が、ディスプレイ130に表示された基準フレーム画像を見ながら、処理を開始させようとする位置にカーソルを合わせ(図示せず)、マウス120をクリックするなどして設定すればよい。こうした手法は、基準フレーム画像のうちで特に生成する矩形静止画像に含めたい画像部分を指定する場合に有用である。   In this embodiment, when calculating the maximum rectangular area, the calculation of the rectangular area where the frame image exists is started from the center of the reference frame image. However, as a modified example, the calculation may be started from other than the center of the screen. The operator may set the cursor by moving the cursor to a position where processing is to start (not shown) and clicking the mouse 120 while viewing the reference frame image displayed on the display 130. Such a technique is useful for designating an image portion to be included in a rectangular still image to be generated, among the reference frame images.

さらに、本実施例では最大矩形領域の算出に際し、最初に変数mを1画素分増加して左上隅点LTを移動するものとし、以降の算出処理を進めたが、変形例として、最初に変数nを1画素増加する構成も可能である。こうすれば、増加する画素の順序が逆になるだけであり、特に変わるところはない。また、上記実施例では、横長の矩形領域を想定したが、縦長の矩形領域を求めるものとしても良い。   Furthermore, in the present embodiment, when calculating the maximum rectangular area, the variable m is first increased by one pixel and the upper left corner point LT is moved, and the subsequent calculation process is proceeded. A configuration in which n is increased by one pixel is also possible. In this way, the order of increasing pixels is only reversed, and there is no particular change. In the above embodiment, a horizontally long rectangular area is assumed, but a vertically long rectangular area may be obtained.

本実施例では、操作者が指定した縦横比Eを有する最大矩形静止画像を算出したが、変形例として、縦横比を指定しない最大矩形静止画像を算出するものとしてもよい。この場合の手法を、図14を用いて説明する。本実施例では、画面上下方向に1画素ずつ増加し画面左右方向へは自動的に縦横比Eによって決まる長さ分ずつ増加したが、本変形例では画面上下方向だけでなく画面左右方向もそれぞれ1画素ずつ増加することで、最大矩形静止画像を算出する。   In this embodiment, the maximum rectangular still image having the aspect ratio E specified by the operator is calculated. However, as a modified example, the maximum rectangular still image not specifying the aspect ratio may be calculated. A method in this case will be described with reference to FIG. In this embodiment, the pixel is increased by one pixel in the vertical direction of the screen and is increased by the length automatically determined by the aspect ratio E in the horizontal direction of the screen. However, in this modification, not only in the vertical direction of the screen but also in the horizontal direction of the screen. The maximum rectangular still image is calculated by incrementing by one pixel.

図14に示したように、本変形例では、画面上下方向は本実施例と同様、基準画素からの増加画素数を画面の上方向にm個、画面下方向にn個とし、これに新たに画面左方向にp個、画面右方向にq個増加画素数を設定する処理を行なう。そして本実施例と同様変数m、nの順番に1画素ずつ増加したあと、引き続き変数p、qの順番で1画素ずつ増加して、それぞれ図14に示した増分領域M、N、P、Qにおける画素に「マーク」が付されているか否かを調べる。そして、たとえば、増分領域Pに「マーク」無し画素があれば、pは一つ減じた値に固定し、残りのm、n、qを増加してそれらの増分領域M、N、Qについて画素の「マーク」の有無を調べていく。この処理を繰り返して行ない、m、n、p、qすべて固定値になったときが最大矩形領域となる。また、1画素ずつ増加する順番もこれに限定せず、m、n、p、q任意の順番でも差し支えない。   As shown in FIG. 14, in this modification, the vertical direction of the screen is increased from the reference pixel to m in the upper direction of the screen and n in the lower direction of the screen. The process of setting the number of increased pixels to p in the left direction and q in the right direction of the screen is performed. Then, like the present embodiment, after increasing by one pixel in the order of the variables m and n, and subsequently increasing by one pixel in the order of the variables p and q, respectively, the increment regions M, N, P, and Q shown in FIG. It is checked whether or not a pixel is marked with “mark”. For example, if there is a pixel without “mark” in the increment region P, p is fixed to a value reduced by one, and the remaining m, n, and q are incremented and the pixels for those increment regions M, N, and Q are increased. Check for the presence of the “mark”. When this process is repeated and m, n, p, and q all become fixed values, the maximum rectangular area is obtained. Further, the order of increasing one pixel at a time is not limited to this, and any order of m, n, p, and q may be used.

本発明の一実施例の概略構成図である。It is a schematic block diagram of one Example of this invention. 実施例での静止画像生成装置の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process of the still image generation device in an Example. 実施例におけるフレーム画像の相対位置の算出について示す説明図である。It is explanatory drawing shown about calculation of the relative position of the frame image in an Example. 実施例における位置関係データ生成部での処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process in the positional relationship data generation part in an Example. フレーム画像の配置と、画像領域Rの設定について示す説明図である。It is explanatory drawing shown about the arrangement | positioning of a frame image, and the setting of the image area | region R. FIG. 実施例における画像領域記憶部での処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process in the image area memory | storage part in an Example. 実施例における基準フレーム画像の画面中心について示す説明図である。It is explanatory drawing shown about the screen center of the reference | standard frame image in an Example. 指定した縦横比の最大矩形静止画像を算出する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which calculates the largest rectangular still image of the designated aspect ratio. 同じく最大矩形静止画像を算出する継続処理の一例を示すフローチャートである。It is a flowchart which shows an example of the continuation process which similarly calculates the largest rectangular still image. 最大矩形領域算出のための左上隅点LTおよび右下隅点RBの位置を示す説明図である。It is explanatory drawing which shows the position of the upper left corner point LT and the lower right corner point RB for the largest rectangular area calculation. フレーム画像の存在の有無を調べる増分領域について例示する説明図である。It is explanatory drawing which illustrates about the increment area | region which investigates the presence or absence of a frame image. 実施例での生成される最大矩形静止画像について例示する説明図である。It is explanatory drawing which illustrates about the largest rectangular still image produced | generated in an Example. 変形例において、フレーム画像の周辺の切り落としについて示す説明図である。In a modification, it is explanatory drawing shown about the cutting off of the periphery of a frame image. 変形例で、縦横比を設定しない最大矩形静止画像の算出方法を示す説明図である。It is explanatory drawing which shows the calculation method of the largest rectangular still image which does not set an aspect ratio in the modification.

符号の説明Explanation of symbols

20…画像取得部
30…位置関係データ生成部
50…画像領域記憶部
70…矩形画像算出部
100…コンピュータ
110…キーボード
120…マウス
130…ディスプレイ
140…CD−R/RWドライブ
150…DVD−R/RWドライブ
160…デジタルビデオカメラ
180…プリンタ
DESCRIPTION OF SYMBOLS 20 ... Image acquisition part 30 ... Position relation data generation part 50 ... Image area memory | storage part 70 ... Rectangular image calculation part 100 ... Computer 110 ... Keyboard 120 ... Mouse 130 ... Display 140 ... CD-R / RW drive 150 ... DVD-R / RW drive 160 ... Digital video camera 180 ... Printer

Claims (10)

動画像などから取得する複数の対象画像を繋ぎ合わせ、該繋ぎ合わせた画像から矩形の静止画像を生成する静止画像生成装置であって、
前記複数の対象画像を取得する画像取得部と、
該取得された複数の対象画像をつなぎ合わせる相対的な位置関係を表す位置関係データを生成する位置関係データ生成部と、
前記位置関係データに従って前記複数の対象画像を配置し、該配置された複数の対象画像の論理和によって定義される画像存在領域を認識する画像領域認識部と、
該認識された画像存在領域から生成できる矩形の画像領域を決定する矩形画像領域決定部と、
該決定された矩形の画像領域に存在する前記複数の対象画像を用いて、前記矩形の静止画像を抽出する静止画像抽出部と
を備えた静止画像生成装置。
A still image generating device that connects a plurality of target images acquired from a moving image or the like and generates a rectangular still image from the connected images,
An image acquisition unit for acquiring the plurality of target images;
A positional relationship data generating unit that generates positional relationship data representing a relative positional relationship of connecting the plurality of acquired target images;
An image area recognition unit that arranges the plurality of target images according to the positional relationship data and recognizes an image existence area defined by a logical sum of the plurality of arranged target images;
A rectangular image area determining unit that determines a rectangular image area that can be generated from the recognized image existence area;
A still image generating apparatus comprising: a still image extracting unit that extracts the rectangular still image using the plurality of target images existing in the determined rectangular image region.
請求項1に記載の静止画像生成装置であって、
前記画像領域認識部は、前記複数の対象画像の各々を構成する画素の存在により、前記画像存在領域を認識する手段であり、
前記矩形画像領域決定部は、該画素の存在位置の情報を用いて前記矩形の画像領域を決定する手段である
静止画像生成装置。
The still image generating device according to claim 1,
The image area recognition unit is means for recognizing the image existence area based on the presence of pixels constituting each of the plurality of target images.
The rectangular image region determination unit is a unit that determines the rectangular image region using information on the position of the pixel.
請求項1または2に記載の静止画像生成装置であって、
前記画像取得部は、複数のフレーム画像からなる動画像から、動画像において取得の基準として指定された基準対象画像を含み、少なくとも該基準対象画像の前または後ろに存在する複数のフレーム画像を前記対象画像として取得する手段である静止画像生成装置。
The still image generating device according to claim 1 or 2,
The image acquisition unit includes, from a moving image composed of a plurality of frame images, a reference target image specified as a reference for acquisition in the moving image, and at least a plurality of frame images existing before or after the reference target image A still image generating apparatus as means for acquiring a target image.
前記複数の対象画像は、前記基準対象画像を含み、前記動画像から、所定の間隔で取得されたフレーム画像である請求項3記載の静止画像生成装置。   The still image generating apparatus according to claim 3, wherein the plurality of target images include frame images acquired at predetermined intervals from the moving image including the reference target image. 請求項1ないし請求項4のいずれかに記載の静止画像生成装置であって、
前記画像取得部は、前記複数の対象画像の取得に際して、取得しようとする元の画像の周辺の画像を所定の割合切り落とした画像を当該対象画像として取得する手段である静止画像生成装置。
The still image generating device according to any one of claims 1 to 4,
The image acquisition unit is a still image generation device that is a unit that acquires, as the target image, an image obtained by cutting off a predetermined percentage of an image around the original image to be acquired when acquiring the plurality of target images.
請求項1ないし請求項5のいずれかに記載の静止画像生成装置であって、
前記矩形画像領域決定部は、
前記複数の対象画像のうち、少なくとも一つの指定を受け付ける手段と、
前記認識された画像存在領域から、前記指定された対象画像を含む矩形の画像領域のうち最大の領域を決定する手段と
を備えた静止画像生成装置。
The still image generating device according to any one of claims 1 to 5,
The rectangular image region determination unit
Means for accepting at least one designation among the plurality of target images;
A still image generating apparatus comprising: means for determining a maximum area among rectangular image areas including the designated target image from the recognized image existence area.
請求項1ないし請求項5のいずれかに記載の静止画像生成装置であって、
前記矩形画像領域決定部は、
前記決定しようとする矩形の画像領域の縦横比の指定を受け付ける手段と、
前記認識された画像存在領域から、前記縦横比となる矩形の画像領域のうち最大の領域を決定する手段と
を備えた静止画像生成装置。
The still image generating device according to any one of claims 1 to 5,
The rectangular image region determination unit
Means for accepting designation of an aspect ratio of the rectangular image region to be determined;
And a means for determining a maximum area of the rectangular image areas having the aspect ratio from the recognized image existence area.
動画像などから取得する複数の対象画像を繋ぎ合わせ、該繋ぎ合わせた画像から矩形の静止画像を生成する方法であって、
前記複数の対象画像を取得し、
該取得された複数の対象画像をつなぎ合わせる相対的な位置関係を表す位置関係データを生成し、
前記位置関係データに従って前記複数の対象画像を配置し、該配置された複数の対象画像の論理和によって定義される画像存在領域を認識し、
該認識された画像存在領域から生成できる矩形の画像領域を決定し、
該決定された矩形の画像領域に存在する前記複数の対象画像を用いて、前記矩形の静止画像を抽出する
静止画像生成方法。
A method of connecting a plurality of target images acquired from a moving image or the like and generating a rectangular still image from the connected images,
Obtaining the plurality of target images;
Generating positional relationship data representing a relative positional relationship in which the plurality of acquired target images are connected;
Arranging the plurality of target images according to the positional relationship data, recognizing an image existence region defined by a logical sum of the plurality of arranged target images;
Determining a rectangular image area that can be generated from the recognized image presence area;
A still image generating method for extracting the rectangular still image using the plurality of target images existing in the determined rectangular image region.
動画像などから取得する複数の対象画像を繋ぎ合わせ、該繋ぎ合わせた画像から矩形の静止画像を生成する処理をコンピュータに実行させるプログラムであって、
前記複数の対象画像を取得する機能と、
該取得された複数の対象画像をつなぎ合わせる相対的な位置関係を表す位置関係データを生成する機能と、
前記位置関係データに従って前記複数の対象画像を配置し、該配置された複数の対象画像の論理和によって定義される画像存在領域を認識する機能と、
該認識された画像存在領域から生成できる矩形の画像領域を決定する機能と、
該決定された矩形の画像領域に存在する前記複数の対象画像を用いて、前記矩形の静止画像を抽出する機能と
をコンピュータに実現させる静止画像生成プログラム。
A program for causing a computer to execute a process of connecting a plurality of target images acquired from a moving image or the like and generating a rectangular still image from the connected images,
A function of acquiring the plurality of target images;
A function of generating positional relationship data representing a relative positional relationship of connecting the acquired plurality of target images;
A function of arranging the plurality of target images according to the positional relationship data and recognizing an image existence region defined by a logical sum of the plurality of arranged target images;
A function of determining a rectangular image area that can be generated from the recognized image existence area;
A still image generation program for causing a computer to realize a function of extracting the rectangular still image using the plurality of target images existing in the determined rectangular image region.
請求項9に記載のプログラムを、コンピュータに読み取り可能に記録した記録媒体。   A recording medium on which the program according to claim 9 is recorded so as to be readable by a computer.
JP2004021110A 2003-11-27 2004-01-29 Apparatus and method for generating still picture Pending JP2005217721A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004021110A JP2005217721A (en) 2004-01-29 2004-01-29 Apparatus and method for generating still picture
US11/000,360 US7606441B2 (en) 2003-11-27 2004-11-29 Image processing device and a method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004021110A JP2005217721A (en) 2004-01-29 2004-01-29 Apparatus and method for generating still picture

Publications (1)

Publication Number Publication Date
JP2005217721A true JP2005217721A (en) 2005-08-11

Family

ID=34904849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004021110A Pending JP2005217721A (en) 2003-11-27 2004-01-29 Apparatus and method for generating still picture

Country Status (1)

Country Link
JP (1) JP2005217721A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010141700A (en) * 2008-12-12 2010-06-24 Keyence Corp Imaging apparatus
WO2012002046A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Stereoscopic panorama image synthesizing device and compound-eye imaging device as well as stereoscopic panorama image synthesizing method
WO2013157412A1 (en) * 2012-04-16 2013-10-24 株式会社ザクティ Image processing device
JP2015194837A (en) * 2014-03-31 2015-11-05 株式会社Jvcケンウッド Image processor, image processing method, program and camera
CN106331435A (en) * 2016-08-22 2017-01-11 北京小鸟科技股份有限公司 Real-time image special-effect display realization method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010141700A (en) * 2008-12-12 2010-06-24 Keyence Corp Imaging apparatus
WO2012002046A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Stereoscopic panorama image synthesizing device and compound-eye imaging device as well as stereoscopic panorama image synthesizing method
WO2013157412A1 (en) * 2012-04-16 2013-10-24 株式会社ザクティ Image processing device
JP2015194837A (en) * 2014-03-31 2015-11-05 株式会社Jvcケンウッド Image processor, image processing method, program and camera
CN106331435A (en) * 2016-08-22 2017-01-11 北京小鸟科技股份有限公司 Real-time image special-effect display realization method

Similar Documents

Publication Publication Date Title
JP4363151B2 (en) Imaging apparatus, image processing method thereof, and program
JP4341629B2 (en) Imaging apparatus, image processing method, and program
US7606441B2 (en) Image processing device and a method for the same
JP4556813B2 (en) Image processing apparatus and program
JP2007074578A (en) Image processor, photography instrument, and program
JP2006295646A (en) Image processor and image processing program
JP2006293783A (en) Image processing device and image processing program
JP2013206175A (en) Image determination device, image determination method and computer program for image determination
JP5541679B2 (en) Image processing apparatus and method, and program
JP5504990B2 (en) Imaging apparatus, image processing apparatus, and program
JP5268025B2 (en) Imaging device
JP2005275447A (en) Image processing device, image processing method and program
JP4898655B2 (en) Imaging apparatus and image composition program
JP5385059B2 (en) Image display method, program, image display apparatus, and imaging apparatus
JP4363154B2 (en) Imaging apparatus, image processing method thereof, and program
JP2005217721A (en) Apparatus and method for generating still picture
JP3241243B2 (en) Panorama image composition system and panorama image composition method
JP4363153B2 (en) Imaging apparatus, image processing method thereof, and program
JP4696239B2 (en) Method and apparatus for correcting inclination of character string
JP2005275765A (en) Image processor, image processing method, image processing program and recording medium recording the program
JP2011053456A (en) Image display method, program, image display device, and imaging apparatus with the image display device
JP2021036213A (en) Imaging leakage detection device and imaging leakage detection method
JP4591343B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2005252803A (en) Apparatus, method, and program for image processing and recording medium with the program stored
JP3216037B2 (en) Panorama image composition system