JP2014182481A - Image processing program and image processing apparatus - Google Patents

Image processing program and image processing apparatus Download PDF

Info

Publication number
JP2014182481A
JP2014182481A JP2013055384A JP2013055384A JP2014182481A JP 2014182481 A JP2014182481 A JP 2014182481A JP 2013055384 A JP2013055384 A JP 2013055384A JP 2013055384 A JP2013055384 A JP 2013055384A JP 2014182481 A JP2014182481 A JP 2014182481A
Authority
JP
Japan
Prior art keywords
image
images
image processing
target
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013055384A
Other languages
Japanese (ja)
Other versions
JP6142598B2 (en
Inventor
Koji Kita
耕次 北
Toshihiro Matsuoka
俊宏 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Precision Co Ltd
Original Assignee
NK Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NK Works Co Ltd filed Critical NK Works Co Ltd
Priority to JP2013055384A priority Critical patent/JP6142598B2/en
Publication of JP2014182481A publication Critical patent/JP2014182481A/en
Application granted granted Critical
Publication of JP6142598B2 publication Critical patent/JP6142598B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing program for facilitating a user specifying a parameter for deforming or rotating an image when a plurality of images are superimposed.SOLUTION: An image processing program, for superimposing images so that object images captured in the images overlap each other, causes a computer to execute the steps of: displaying an object image included in the images so as to superimpose an object image included in the images on a reference image included in the images; detecting user operation direction for drawing one linear trajectory in the object image; determining deformation direction or rotation direction of the object image according to the operation direction, to generate a processed image formed by deforming or rotating the object image in the deformation direction or the rotation direction; and displaying the processed image so as to be superimposed on the reference image.

Description

本発明は、画像処理プログラム及び画像処理装置に関する。   The present invention relates to an image processing program and an image processing apparatus.

従来より、特定の対象物の像が重なり合うように、複数の画像を重ね合わせる多くの画像処理技術が提案されており、様々な用途で使用されている。これらの用途とは、例えば、画像の比較や鮮明化であり、特許文献1では、異なる方向から撮影した複数の画像を重ね合わせて、比較している。また、特許文献1では、撮影方向の相違の影響をキャンセルするために、これらの画像を所定の基準角度から見た画像へと変換している。具体的には、台形の画像を長方形の画像へ変換する歪み補正や、回転移動による補正を実行している。   Conventionally, many image processing techniques for superimposing a plurality of images so that images of a specific object overlap each other have been proposed and used in various applications. These applications are, for example, comparison and sharpening of images. In Patent Document 1, a plurality of images taken from different directions are superimposed and compared. In Patent Document 1, these images are converted into images viewed from a predetermined reference angle in order to cancel the influence of the difference in shooting direction. Specifically, distortion correction for converting a trapezoidal image into a rectangular image and correction by rotational movement are executed.

特開2012−33734号公報JP 2012-33734 A

ところで、特許文献1の以上の一連の処理は、コンピュータにより自動で実行される。しかしながら、自動の重ね合わせには、精度の面で限界があり、マニュアルでの重ね合わせとの併用が望まれることもある。そこで、本願出願人は、複数の画像の差分画像を表示した状態で、歪み等の変形のパラメータや回転移動のパラメータ等をユーザに指定させる方法について特許出願をした(平成24年1月12日出願の特願2012−4440)。また、当該出願の明細書では、パラメータの指定の態様として、数値で指定を行う例を開示している。   By the way, the series of processes described in Patent Document 1 are automatically executed by a computer. However, automatic superposition has a limit in terms of accuracy, and it may be desired to use it together with manual superposition. Therefore, the applicant of the present application has applied for a patent on a method for allowing a user to specify a deformation parameter such as distortion, a rotational movement parameter, or the like in a state where a differential image of a plurality of images is displayed (January 12, 2012). Application Japanese Patent Application No. 2012-4440). Further, the specification of the application discloses an example in which designation is performed numerically as a parameter designation mode.

しかしながら、ユーザによっては、このような数値の指定の操作でさえ、煩わしく感じるかもしれない。すなわち、本願発明者は、特願2012−4440の方法では、精度の面の向上は十分に見込まれるものの、ユーザの操作性の面からは、さらなる向上を検討する余地があると思い至った。   However, depending on the user, even such an operation of specifying a numerical value may be annoying. That is, the inventor of the present application has thought that there is room for further improvement in terms of user operability, although the method of Japanese Patent Application No. 2012-4440 is sufficiently expected to improve accuracy.

本発明は、複数の画像の重ね合わせ時の画像の変形又は回転のパラメータをユーザに容易に指定させることができる画像処理プログラムおよび画像処理装置を提供することを目的とする。   An object of the present invention is to provide an image processing program and an image processing apparatus that allow a user to easily specify parameters for deformation or rotation of an image when a plurality of images are superimposed.

本発明の第1観点に係る画像処理プログラムは、複数の画像に捉えられた対象物の像が重なり合うように、前記複数の画像を重ね合わせるための画像処理プログラムであって、前記複数の画像に含まれる対象画像を前記複数の画像に含まれる基準画像上に重ねて表示するステップと、前記対象画像内で1本線状の軌跡を描くユーザの操作の操作方向を検出するステップと、前記操作方向に応じて、前記対象画像の変形方向又は回転方向を決定し、前記対象画像を前記変形方向又は前記回転方向に変形又は回転させた処理画像を生成するステップと、前記処理画像を前記基準画像上に重ねて表示するステップとをコンピュータに実行させる。   An image processing program according to a first aspect of the present invention is an image processing program for superimposing the plurality of images so that images of an object captured by the plurality of images overlap. A step of displaying a target image included on a reference image included in the plurality of images, a step of detecting an operation direction of a user operation for drawing a single-line trajectory in the target image, and the operation direction And determining a deformation direction or a rotation direction of the target image, generating a processed image by deforming or rotating the target image in the deformation direction or the rotation direction, and processing the processed image on the reference image. And causing the computer to execute a step of displaying the image on the computer.

ここでは、基準画像上に重ねて表示される対象画像内でのユーザの操作の操作方向に応じて、対象画像の変形方向又は回転方向が決定される。なお、ここでいうユーザの操作とは、対象画像内で一本線状の軌跡を描くような操作である。従って、ユーザは、対象画像を基準画像と比較しながら、両画像に捉えられた特定の対象物の像を一致させるような対象画像の変形方向又は回転方向を直感的に指定することができる。よって、複数の画像の重ね合わせ時の画像の変形又は回転のパラメータをユーザに容易に指定させることができる。   Here, the deformation direction or the rotation direction of the target image is determined in accordance with the operation direction of the user's operation in the target image displayed to be superimposed on the reference image. The user's operation here is an operation that draws a single-line trajectory in the target image. Accordingly, the user can intuitively specify the deformation direction or the rotation direction of the target image so as to match the images of the specific target captured in both images while comparing the target image with the reference image. Therefore, the user can easily specify parameters for deformation or rotation of an image when a plurality of images are superimposed.

なお、「1本線状の軌跡を描くユーザの操作」とは、単一のカーソルを動かすマウス操作や、単一の指を動かすタッチパネル操作等、移動の主体が1つであり、1本の軌跡を描くような操作のことを言う。一方、2本の指を近づける/遠ざけるピンチイン/ピンチアウトと呼ばれるタッチパネル操作は、移動の主体が2つあり、2本の軌跡を描く操作であるため、ここでいうユーザの操作には含まれない。また、ここでいう「1本線」とは、例えば、直線状であっても、曲線状であっても、折り曲り線状であってもよい。   The “user's operation to draw a single line trajectory” is a single trajectory such as a mouse operation for moving a single cursor or a touch panel operation for moving a single finger. The operation that draws. On the other hand, a touch panel operation called pinch-in / pinch-out, in which two fingers are brought closer / away from each other, is an operation that draws two trajectories and is not included in the user's operation here. . The “single line” referred to here may be, for example, a straight line, a curved line, or a bent line.

本発明の第2観点に係る画像処理プログラムは、第1観点に係る画像処理プログラムであって、前記ユーザの操作の前記操作方向への操作量を検出するステップをさらにコンピュータに実行させる。前記処理画像を生成するステップは、前記操作量に応じて、前記対象画像の変形量又は回転量をさらに決定し、前記対象画像を前記変形方向又は前記回転方向に前記変形量又は前記回転量だけ変形又は回転させた前記処理画像を生成するステップである。   An image processing program according to a second aspect of the present invention is the image processing program according to the first aspect, further causing the computer to execute a step of detecting an operation amount of the user operation in the operation direction. The step of generating the processed image further determines a deformation amount or a rotation amount of the target image according to the operation amount, and determines the target image by the deformation amount or the rotation amount in the deformation direction or the rotation direction. It is a step of generating the processed image deformed or rotated.

ここでは、基準画像上に重ねて表示される対象画像内でのユーザの操作の操作量に応じて、対象画像の変形量又は回転量が決定される。なお、ここでいうユーザの操作とは、対象画像内で一本線状の軌跡を描くような操作である。従って、ユーザは、対象画像を基準画像と比較しながら、両画像に捉えられた特定の対象物の像を一致させるような対象画像の変形量又は回転量を直感的に指定することができる。よって、複数の画像の重ね合わせ時の画像の変形又は回転のパラメータをユーザに容易に指定させることができる。   Here, the deformation amount or the rotation amount of the target image is determined in accordance with the operation amount of the user's operation in the target image displayed to be superimposed on the reference image. The user's operation here is an operation that draws a single-line trajectory in the target image. Therefore, the user can intuitively specify the deformation amount or the rotation amount of the target image so as to match the images of the specific target object captured in both images while comparing the target image with the reference image. Therefore, the user can easily specify parameters for deformation or rotation of an image when a plurality of images are superimposed.

本発明の第3観点に係る画像処理プログラムは、第1観点又は第2観点に係る画像処理プログラムであって、前記操作方向を検出するステップは、前記操作方向が、前記対象画像上の予め定められた基準点に向かう方向であるか、前記基準点から離れる方向であるかを判断するステップを含む。なお、基準点は、対象画像内の任意の点に設定することが可能であり、例えば、対象画像の中心である。   An image processing program according to a third aspect of the present invention is the image processing program according to the first aspect or the second aspect, and in the step of detecting the operation direction, the operation direction is predetermined on the target image. Determining whether the direction is toward a given reference point or away from the reference point. Note that the reference point can be set at an arbitrary point in the target image, and is, for example, the center of the target image.

ここでは、ユーザの操作の操作方向が、予め定められた基準点に向かう方向であるか、これから離れる方向であるかにより判断される。また、上記のとおり、ここで判断された操作方向は、対象画像の変形方向又は回転方向を決定する。従って、例えば、ユーザが基準点に向かう方向の操作を行うと、対象画像が縮小され、基準点から離れる方向の操作を行うと、拡大されるような直感的な操作インターフェースを実現することができる。   Here, the determination is made based on whether the operation direction of the user's operation is a direction toward a predetermined reference point or a direction away from the predetermined reference point. Further, as described above, the operation direction determined here determines the deformation direction or the rotation direction of the target image. Therefore, for example, when the user performs an operation in a direction toward the reference point, the target image is reduced, and when an operation in a direction away from the reference point is performed, an intuitive operation interface that is enlarged can be realized. .

本発明の第4観点に係る画像処理プログラムは、第1観点から第3観点のいずれかに係る画像処理プログラムであって、前記操作方向を検出するステップは、前記操作方向が、前記予め定められた方向であるか、前記予め定められた方向と反対方向であるかを判断するステップを含む。   An image processing program according to a fourth aspect of the present invention is the image processing program according to any one of the first aspect to the third aspect, wherein the operation direction is determined in advance in the step of detecting the operation direction. Determining whether the current direction is a predetermined direction or a direction opposite to the predetermined direction.

ここでは、ユーザの操作の操作方向が、予め定められた方向であるか、これと反対方向であるかにより判断される。また、上記のとおり、ここで判断された操作方向は、対象画像の変形方向又は回転方向を決定する。従って、例えば、ユーザが上へ向かう方向の操作を行うと、対象画像の右下の点が上方向に移動するように対象画像が平行四辺形に歪み、下へ向かう方向の操作を行うと、同じ点が下方向に移動するように平行四辺形に歪むような直感的な操作インターフェースを実現することができる。また、別の例としては、ユーザが上へ向かう方向の操作を行うと、対象画像に平行な面内の所定の軸(例えば、対象画像の中心を通り、左右方向に延びる軸)の周りで所定の方向に対象画像が回転し、下へ向かう方向の操作を行うと、同じ軸の周りで逆回転するような直感的な操作インターフェースを実現することができる。   Here, determination is made based on whether the operation direction of the user's operation is a predetermined direction or the opposite direction. Further, as described above, the operation direction determined here determines the deformation direction or the rotation direction of the target image. Therefore, for example, when the user performs an operation in the upward direction, the target image is distorted into a parallelogram so that the lower right point of the target image moves upward, and when the operation in the downward direction is performed, It is possible to realize an intuitive operation interface that distorts into a parallelogram so that the same point moves downward. As another example, when the user performs an upward operation, around a predetermined axis in a plane parallel to the target image (for example, an axis extending in the left-right direction through the center of the target image). When the target image is rotated in a predetermined direction and an operation in a downward direction is performed, an intuitive operation interface that reversely rotates around the same axis can be realized.

本発明の第5観点に係る画像処理プログラムは、第1観点から第4観点のいずれかに係る画像処理プログラムであって、前記対象画像を前記基準画像上に重ねて表示するステップは、前記対象画像と前記基準画像との差分画像、又は前記対象画像及び前記基準画像の少なくとも一方を半透明にした画像を表示するステップである。   An image processing program according to a fifth aspect of the present invention is the image processing program according to any one of the first to fourth aspects, wherein the step of displaying the target image superimposed on the reference image includes the target It is a step of displaying a difference image between an image and the reference image, or an image in which at least one of the target image and the reference image is translucent.

ここでは、対象画像と基準画像との差分画像、或いは、対象画像及び基準画像の少なくとも一方を半透明にして両画像を重ね合わせた画像が表示される。なお、後者の画像とは、例えば、平均画像や加重平均画像である。ユーザは、前者の画像が表示される場合には、差分画像上から注目している対象物の像が消えるように、対象画像を変形又は回転させればよい。また、後者の画像が表示される場合には、後者の画像内で注目している対象物がうまく重なり合うように、対象画像を変形又は回転させればよい。従って、ユーザは、変形又は回転のパラメータをより直感的に指定することができる。   Here, a difference image between the target image and the reference image or an image in which at least one of the target image and the reference image is made translucent and the two images are superimposed is displayed. The latter image is, for example, an average image or a weighted average image. When the former image is displayed, the user may deform or rotate the target image so that the target object image disappears from the difference image. Further, when the latter image is displayed, the target image may be deformed or rotated so that the target object in the latter image overlaps well. Therefore, the user can more intuitively specify the deformation or rotation parameters.

本発明の第6観点に係る画像処理プログラムは、第1観点から第5観点のいずれかに係る画像処理プログラムであって、同じ動画に含まれる前記複数の画像の中から、前記対象画像及び前記基準画像を選択するステップをさらにコンピュータに実行させる。   An image processing program according to a sixth aspect of the present invention is an image processing program according to any one of the first to fifth aspects, wherein the target image and the image are selected from the plurality of images included in the same moving image. The computer is further caused to perform a step of selecting a reference image.

同じ動画には、注目している対象物の形状について、類似の画像が含まれる可能性が高い。ここでは、重ね合わせの対象となる複数の画像が、同じ動画の中から選択されるため、注目している対象物の像をより精度よく一致させることができる。   The same moving image is likely to contain similar images with respect to the shape of the target object. Here, since a plurality of images to be superimposed are selected from the same moving image, it is possible to match the image of the target object of interest more accurately.

本発明の第7観点に係る画像処理プログラムは、第1観点から第6観点のいずれかに係る画像処理プログラムであって、前記変形の態様には、拡大/縮小、歪ませること、及び前記対象画像に平行な面内で延びる軸周りの回転の少なくとも1つが含まれる。   An image processing program according to a seventh aspect of the present invention is the image processing program according to any one of the first to sixth aspects, wherein the deformation mode includes enlargement / reduction, distortion, and the object. At least one rotation about an axis extending in a plane parallel to the image is included.

なお、「回転」には、変形の一態様としての回転、すなわち、対象画像に平行な面内で延びる軸周りの回転(図11(a)及び(b)参照)と、対象画像に平行な面内の所定の点周りの回転(図11(c)参照)とがある。本明細書では、特に断らない限り、単に「回転」というときには、対象画像の変形を伴わない、回転移動のことを意味するものとする。   Note that “rotation” includes rotation as one aspect of deformation, that is, rotation around an axis extending in a plane parallel to the target image (see FIGS. 11A and 11B), and parallel to the target image. There is a rotation around a predetermined point in the plane (see FIG. 11C). In this specification, unless specifically stated otherwise, simply “rotating” means rotating movement without deformation of the target image.

本発明の第8観点に係る画像処理装置は、複数の画像に捉えられた対象物の像が重なり合うように、前記複数の画像を重ね合わせるための画像処理装置であって、前記複数の画像に含まれる対象画像を前記複数の画像に含まれる基準画像上に重ねて表示する表示制御部と、前記対象画像内で1本線状の軌跡を描くユーザの操作の操作方向を検出する操作検出部と、前記操作方向に応じて、前記対象画像の変形方向又は回転方向を決定し、前記対象画像を前記変形方向又は前記回転方向に変形又は回転させた処理画像を生成する画像処理部とを備える。前記表示制御部は、前記処理画像を前記基準画像上に重ねて表示する。ここでは、第1観点と同様の効果を奏することができる。   An image processing apparatus according to an eighth aspect of the present invention is an image processing apparatus for superimposing the plurality of images so that images of an object captured by the plurality of images overlap, A display control unit that displays a target image included on a reference image included in the plurality of images, and an operation detection unit that detects an operation direction of a user's operation that draws a single-line trajectory in the target image; An image processing unit that determines a deformation direction or a rotation direction of the target image according to the operation direction, and generates a processed image obtained by deforming or rotating the target image in the deformation direction or the rotation direction. The display control unit displays the processed image so as to overlap the reference image. Here, the same effect as the first aspect can be achieved.

本発明によれば、基準画像上に重ねて表示される対象画像内でのユーザの操作の操作方向に応じて、対象画像の変形方向又は回転方向が決定される。なお、ここでいうユーザの操作とは、対象画像内で一本線状の軌跡を描くような操作である。従って、ユーザは、対象画像を基準画像と比較しながら、両画像に捉えられた特定の対象物の像を一致させるような対象画像の変形方向又は回転方向を直感的に指定することができる。よって、複数の画像の重ね合わせ時の画像の変形又は回転のパラメータをユーザに容易に指定させることができる。   According to the present invention, the deformation direction or the rotation direction of the target image is determined in accordance with the operation direction of the user's operation in the target image displayed to be superimposed on the reference image. The user's operation here is an operation that draws a single-line trajectory in the target image. Accordingly, the user can intuitively specify the deformation direction or the rotation direction of the target image so as to match the images of the specific target captured in both images while comparing the target image with the reference image. Therefore, the user can easily specify parameters for deformation or rotation of an image when a plurality of images are superimposed.

本発明の一実施形態に係る画像処理装置のブロック図である。1 is a block diagram of an image processing apparatus according to an embodiment of the present invention. 画像データが取り込まれる前の基本画面の図である。It is a figure of the basic screen before image data is taken in. 画像データが取り込まれた後の基本画面の図である。It is a figure of the basic screen after image data was taken in. 1のタイムラインに属する静止画群を示す図。The figure which shows the still image group which belongs to 1 timeline. 重ね合わせウィンドウを示す図。The figure which shows a superimposition window. 候補選択ウィンドウを示す図。The figure which shows a candidate selection window. 候補選択ウィンドウを示す別の図。Another figure which shows a candidate selection window. 候補選択ウィンドウを示すさらに別の図。Another figure which shows a candidate selection window. 重ね合わせウィンドウを示す別の図。Another figure which shows a superposition window. 重ね合わせウィンドウを示すさらに別の図。Another figure which shows a superimposition window. 画像の回転変形及び回転移動の態様を示す図。The figure which shows the aspect of rotation deformation | transformation and rotation movement of an image. 画像の歪み変形の態様を示す図。The figure which shows the aspect of the distortion deformation | transformation of an image. 対象画像の例を示す図。The figure which shows the example of a target image. 基準画像の例を示す図。The figure which shows the example of a reference | standard image. 図13及び図14の画像を重ね合わせた画像を示す図。The figure which shows the image which overlap | superposed the image of FIG.13 and FIG.14. 図13の画像を移動及び変形した上で、図13及び図14の画像を重ね合わせた画像を示す図。FIG. 15 is a diagram illustrating an image obtained by moving and transforming the image of FIG. 13 and overlaying the images of FIGS. 13 and 14. 図15の画像に対応する差分画像を示す図。The figure which shows the difference image corresponding to the image of FIG. 図16の画像に対応する差分画像を示す図。The figure which shows the difference image corresponding to the image of FIG. 特徴点選択ウィンドウを示す図。The figure which shows a feature point selection window. 特徴点選択ウィンドウを示す別の図。Another figure which shows a feature point selection window.

以下、図面を参照しつつ、本発明の一実施形態に係る画像処理プログラム及び画像処理装置について説明する。
<1.画像処理装置の概要>
図1に示す画像処理装置1は、本発明に係る画像処理装置の一実施形態である。画像処理装置1は、汎用のパーソナルコンピュータである。画像処理装置1には、本発明に係る画像処理プログラムの一実施形態である画像処理プログラム2が、これを格納するCD−ROM、DVD−ROM、USBメモリ等のコンピュータが読み取り可能な記録媒体60等から提供され、インストールされている。画像処理プログラム2は、動画および静止画に対する画像処理を支援するためのアプリケーションソフトウェアである。画像処理プログラム2は、画像処理装置1に後述する動作に含まれるステップを実行させる。
Hereinafter, an image processing program and an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.
<1. Overview of Image Processing Device>
An image processing apparatus 1 shown in FIG. 1 is an embodiment of an image processing apparatus according to the present invention. The image processing apparatus 1 is a general-purpose personal computer. The image processing apparatus 1 includes a computer-readable recording medium 60 such as a CD-ROM, a DVD-ROM, or a USB memory that stores an image processing program 2 that is an embodiment of an image processing program according to the present invention. Etc. are provided and installed by etc. The image processing program 2 is application software for supporting image processing for moving images and still images. The image processing program 2 causes the image processing apparatus 1 to execute steps included in the operations described later.

画像処理装置1は、ディスプレイ10、入力部20、記憶部30および制御部40を有する。これらの部10〜40は、互いにバス線やケーブル等5を介して接続されており、適宜、通信可能である。ディスプレイ10は、液晶ディスプレイ等から構成され、後述する画面等をユーザに対し表示する。入力部20は、マウス21およびキーボート22等から構成され、画像処理装置1に対するユーザからの操作を受け付ける。記憶部30は、ハードディスク等から構成される不揮発性の記憶領域である。制御部40は、CPU、ROMおよびRAM等から構成される。   The image processing apparatus 1 includes a display 10, an input unit 20, a storage unit 30, and a control unit 40. These units 10 to 40 are connected to each other via a bus line, a cable 5 or the like and can communicate appropriately. The display 10 is composed of a liquid crystal display or the like, and displays a screen or the like described later to the user. The input unit 20 includes a mouse 21, a keyboard 22, and the like, and accepts an operation from the user for the image processing apparatus 1. The storage unit 30 is a non-volatile storage area configured from a hard disk or the like. The control unit 40 includes a CPU, a ROM, a RAM, and the like.

画像処理プログラム2は、記憶部30内に格納されている。記憶部30内には、ソフトウェア管理領域50が確保されている。ソフトウェア管理領域50は、画像処理プログラム2が使用する領域である。ソフトウェア管理領域50内には、オリジナル画像領域51および加工ファイル領域52が確保されている。各領域51,52の役割については、後述する。   The image processing program 2 is stored in the storage unit 30. A software management area 50 is secured in the storage unit 30. The software management area 50 is an area used by the image processing program 2. In the software management area 50, an original image area 51 and a processed file area 52 are secured. The role of each of the areas 51 and 52 will be described later.

制御部40は、記憶部30内に格納されている画像処理プログラム2を読み出して実行することにより、仮想的に表示制御部41、操作検出部42及び画像処理部43として動作する。表示制御部41は、ディスプレイ10上に表示される画面、ウィンドウ、ボタンその他の全ての要素の表示を制御する。操作検出部42は、入力部20を介してユーザから入力される全ての操作を検出する。画像処理部43は、様々な種類の画像処理を実行する。   The control unit 40 virtually operates as a display control unit 41, an operation detection unit 42, and an image processing unit 43 by reading and executing the image processing program 2 stored in the storage unit 30. The display control unit 41 controls display of all elements such as screens, windows, buttons, and the like displayed on the display 10. The operation detection unit 42 detects all operations input from the user via the input unit 20. The image processing unit 43 executes various types of image processing.

<2.画像処理装置の構成および動作の詳細>
制御部40は、ユーザが入力部20を介して所定の操作を行ったことを検出すると、画像処理プログラム2を起動する。画像処理プログラム2が起動されると、基本画面W1(図2参照)がディスプレイ10上に表示される。
<2. Details of Configuration and Operation of Image Processing Apparatus>
When the control unit 40 detects that the user has performed a predetermined operation via the input unit 20, the control unit 40 activates the image processing program 2. When the image processing program 2 is activated, a basic screen W1 (see FIG. 2) is displayed on the display 10.

<2−1.画像データの取込み>
基本画面W1は、オリジナル画像領域51への画像データの取込みの命令をユーザから受け付ける。オリジナル画像領域51へ取り込まれた画像データは、後述する再生処理及び画像処理の対象になる。制御部40は、静止画ファイル又は動画ファイルから、オリジナル画像領域51へ画像データを取り込む。なお、本明細書において、静止画ファイルとは、静止画形式のデータファイルであり、動画ファイルとは、動画形式のデータファイルである。
<2-1. Importing image data>
The basic screen W1 accepts an instruction for taking image data into the original image area 51 from the user. The image data taken into the original image area 51 is subject to later-described reproduction processing and image processing. The control unit 40 captures image data from the still image file or the moving image file into the original image area 51. In this specification, a still image file is a data file in a still image format, and a moving image file is a data file in a moving image format.

静止画ファイルから画像データを取り込む場合、ユーザは、入力部20を操作することにより、1の静止画ファイルを指定するか、又は1のフォルダを指定する。前者の場合、制御部40は、その静止画ファイルの記憶部30内のアドレスパスおよびファイル名をユーザに入力させる。後者の場合、制御部40は、そのフォルダの記憶部30内のアドレスパスおよびフォルダ名をユーザに入力させる。その後、制御部40は、指定された静止画ファイル又は指定されたフォルダ内の全ての静止画ファイルを、オリジナル画像領域51に静止画ファイル群として保存する。なお、本明細書において、「群」という場合には、その要素数は複数とは限らず、1つであってもよい。   When capturing image data from a still image file, the user operates the input unit 20 to specify one still image file or one folder. In the former case, the control unit 40 causes the user to input the address path and file name in the storage unit 30 of the still image file. In the latter case, the control unit 40 allows the user to input the address path and folder name in the storage unit 30 of the folder. Thereafter, the control unit 40 stores the specified still image file or all the still image files in the specified folder as a still image file group in the original image area 51. In the present specification, when referring to a “group”, the number of elements is not limited to a plurality, and may be one.

一方、動画ファイルから画像データを取り込む場合、ユーザは、入力部20を操作することにより、1の動画ファイルの記憶部30内のアドレスパスおよびファイル名を入力する。制御部40は、ユーザが動画ファイルを指定したことを検出すると、基本画面W1上に動画取込みウィンドウ(図示されない)を重ねて表示させる。動画取込みウィンドウは、指定された動画ファイルのタイムラインの全区間うち、任意の区間の選択をユーザから受け付ける。制御部40は、ユーザが入力部20を介して特定の区間を選択したことを検出すると、指定された動画ファイルのその区間に含まれるフレーム群に1対1で対応する静止画ファイル群を生成する。その後、制御部40は、この静止画ファイル群をオリジナル画像領域51に保存する。従って、本実施形態では、後述する再生処理及び画像処理の対象となる画像データは、動画ファイルではなく、静止画ファイルである。   On the other hand, when capturing image data from a moving image file, the user operates the input unit 20 to input the address path and file name in the storage unit 30 of one moving image file. When the control unit 40 detects that the user has specified a moving image file, the control unit 40 displays a moving image capturing window (not shown) in an overlapping manner on the basic screen W1. The moving image capture window accepts selection of an arbitrary section from the user among all the sections of the timeline of the specified moving image file. When the control unit 40 detects that the user has selected a specific section via the input unit 20, the control unit 40 generates a still image file group corresponding to the frame group included in the section of the specified moving image file on a one-to-one basis. To do. Thereafter, the control unit 40 stores the still image file group in the original image area 51. Therefore, in the present embodiment, the image data to be subjected to playback processing and image processing to be described later is not a moving image file but a still image file.

なお、制御部40は、オリジナル画像領域51へ取り込まれた静止画ファイル群が動画ファイルに由来するものではなく、静止画ファイルに由来するものであっても、静止画ファイル群をタイムラインに沿って配列されているものと認識する。配列は、ファイルの属性(ファイル名、作成日時、更新日時等)から自動的に判断される。   Note that the control unit 40 determines that the still image file group is taken along the timeline even if the still image file group captured in the original image area 51 is not derived from the moving image file but derived from the still image file. Are recognized as being arranged. The array is automatically determined from file attributes (file name, creation date, update date, etc.).

<2−2.静止画ファイル群の再生処理>
オリジナル画像領域51へ静止画ファイル群が取り込まれると、表示制御部41は、基本画面W1上に表示ウィンドウW2(図3参照)を重ねて表示させる。表示ウィンドウW2は、オリジナル画像領域51へ取り込まれた静止画ファイル群のタイムラインの数だけ作成される。
<2-2. Playback processing of still image files>
When the still image file group is taken into the original image area 51, the display control unit 41 displays the display window W2 (see FIG. 3) on the basic screen W1. The display windows W2 are created by the number of timelines of the still image file group taken into the original image area 51.

表示ウィンドウW2内には、まず、オリジナル画像領域51へ取り込まれた静止画ファイル群に含まれる1の静止画ファイル(例えば、タイムライン上で先頭のフレームに対応する静止画ファイル)が表示される。その後、後述するとおり、表示ウィンドウW2内に表示されるフレームは、ユーザの操作を受けて切り替わる。   First, one still image file (for example, a still image file corresponding to the first frame on the timeline) included in the still image file group captured in the original image area 51 is displayed in the display window W2. . Thereafter, as will be described later, the frame displayed in the display window W2 is switched in response to a user operation.

図3に示すとおり、基本画面W1上には、ウィンドウ選択プルダウンメニューT1、再生ボタンT2、コマ送りボタンT3、コマ戻しボタンT4およびタイムラインバーT5が配置されている。   As shown in FIG. 3, a window selection pull-down menu T1, a playback button T2, a frame advance button T3, a frame return button T4, and a timeline bar T5 are arranged on the basic screen W1.

表示ウィンドウW2が複数存在する場合であっても、アクティブな表示ウィンドウW2は1つである。ウィンドウ選択プルダウンメニューT1は、どの表示ウィンドウW2をアクティブとするかの選択をユーザから受け付ける。なお、表示ウィンドウW2は、タイムラインに1対1で対応するため、ウィンドウ選択プルダウンメニューT1は、タイムライン選択プルダウンメニューでもある。以下、アクティブな表示ウィンドウW2に対応するタイムラインを、アクティブタイムラインと呼び、アクティブタイムラインに属するフレーム群を、アクティブフレーム群と呼ぶ。また、アクティブな表示ウィンドウW2内に現在表示されているフレームを、アクティブフレームと呼ぶ。   Even when there are a plurality of display windows W2, there is only one active display window W2. The window selection pull-down menu T1 accepts selection of which display window W2 is active from the user. Since the display window W2 corresponds to the timeline on a one-to-one basis, the window selection pull-down menu T1 is also a timeline selection pull-down menu. Hereinafter, a timeline corresponding to the active display window W2 is referred to as an active timeline, and a frame group belonging to the active timeline is referred to as an active frame group. A frame currently displayed in the active display window W2 is referred to as an active frame.

表示制御部41は、アクティブな表示ウィンドウW2内で、アクティブフレーム群を動画として再生可能である。再生ボタンT2は、アクティブフレーム群の動画としての再生の命令をユーザから受け付ける。表示制御部41は、ユーザが入力部20を介して再生ボタンT2を押下したことが検出されると、アクティブな表示ウィンドウW2内に、アクティブフレーム群に含まれるフレームを、タイムラインに沿って順次コマ送りの形式で表示させる。なお、再生は、再生ボタンT2が押下された時点のアクティブフレームから開始する。また、再生ボタンT2は、再生の停止の命令をユーザから受け付ける。表示制御部41は、再生中にユーザが入力部20を介して再生ボタンT2を押下したことが検出されると、アクティブな表示ウィンドウW2内の表示を、その時点のアクティブフレームに固定する。   The display control unit 41 can reproduce the active frame group as a moving image in the active display window W2. The playback button T2 receives a playback command from the user as a moving image of the active frame group. When it is detected that the user has pressed the play button T2 via the input unit 20, the display control unit 41 sequentially displays the frames included in the active frame group in the active display window W2 along the timeline. Display in frame-by-frame format. Note that the reproduction starts from the active frame at the time when the reproduction button T2 is pressed. The playback button T2 accepts a playback stop command from the user. When it is detected that the user has pressed the playback button T2 via the input unit 20 during playback, the display control unit 41 fixes the display in the active display window W2 to the active frame at that time.

コマ送りボタンT3、コマ戻しボタンT4はそれぞれ、アクティブフレームを、アクティブタイムラインに沿って1つ後、1つ前のフレームへ切り替える命令をユーザから受け付ける。   Each of the frame advance button T3 and the frame return button T4 accepts an instruction from the user to switch the active frame to the previous frame one by one along the active timeline.

タイムラインバーT5は、アクティブタイムラインを図式的に示すオブジェクトである。タイムラインバーT5は、そのバーが延びる方向に、アクティブフレーム群のフレーム数で等分に分割されている。タイムラインバーT5上の左からn番目の分割領域は、アクティブタイムライン上でn番目のフレームに対応する(nは、自然数)。   The timeline bar T5 is an object that schematically shows the active timeline. The timeline bar T5 is equally divided by the number of frames of the active frame group in the direction in which the bar extends. The nth divided region from the left on the timeline bar T5 corresponds to the nth frame on the active timeline (n is a natural number).

図3に示すように、表示制御部41は、タイムラインバーT5上において、選択フレーム群に対応する分割領域A1と、非選択フレーム群に対応する分割領域A2とを、異なる表示形式で表示する。選択フレーム群とは、アクティブタイムライン上で現在選択されている区間に属するフレーム群である。非選択フレーム群とは、アクティブタイムライン上で現在選択されていない区間に属するフレーム群である。   As illustrated in FIG. 3, the display control unit 41 displays the divided area A1 corresponding to the selected frame group and the divided area A2 corresponding to the non-selected frame group in different display formats on the timeline bar T5. . The selected frame group is a frame group that belongs to the currently selected section on the active timeline. The non-selected frame group is a frame group that belongs to a section that is not currently selected on the active timeline.

タイムラインバーT5は、アクティブタイムライン上の任意の区間の選択をユーザから受け付ける。このとき選択される区間は、連続区間であってもよいし、図3に示すように、不連続区間であってもよい。具体的には、ユーザは、入力部20を介してタイムラインバーT5上の分割領域を操作することにより、アクティブフレーム群の中から、任意のフレームを任意の数だけ選択することができる。分割領域は、同時に複数選択が可能である。表示制御部41は、ユーザによりタイムラインバーT5上の分割領域が選択される度に、アクティブフレームを最新に選択された分割領域に対応するフレームに直ちに切り替える。画像処理部43は、選択フレーム群又はアクティブフレームを後述される画像処理の対象として認識する。   The timeline bar T5 accepts selection of an arbitrary section on the active timeline from the user. The section selected at this time may be a continuous section or a discontinuous section as shown in FIG. Specifically, the user can select any number of arbitrary frames from the active frame group by manipulating the divided areas on the timeline bar T5 via the input unit 20. A plurality of divided areas can be selected at the same time. The display control unit 41 immediately switches the active frame to the frame corresponding to the most recently selected divided region every time the divided region on the timeline bar T5 is selected by the user. The image processing unit 43 recognizes the selected frame group or the active frame as an image processing target to be described later.

<2−3.画像処理>
画像処理部43は、ノイズ除去、シャープネス、明るさ/コントラスト/彩度調整、画像解像度、文字/矢印/モザイクの付加、重ね合わせなどの複数の画像処理モジュールを実行可能である。画像処理モジュールは、画像処理プログラム2に組み込まれている。
<2-3. Image processing>
The image processing unit 43 can execute a plurality of image processing modules such as noise removal, sharpness, brightness / contrast / saturation adjustment, image resolution, addition of characters / arrows / mosaic, and superposition. The image processing module is incorporated in the image processing program 2.

ユーザは、入力部20を介して基本画面W1を操作することにより、画像処理モジュールの中から任意のものを、任意の順番に、任意の回数だけ選択することが可能である。画像処理部43は、ユーザが画像処理モジュールを選択したことを検出する度に、その時点の選択フレーム群又はアクティブフレームに対しその画像処理モジュールを実行する。なお、画像処理モジュールの実行の対象が選択フレーム群又はアクティブフレームのいずれとなるかは、画像処理の種類による。また、選択フレーム群に対し画像処理モジュールを実行するとは、選択フレーム群に含まれる各フレームに対しその画像処理モジュールを実行することである。   The user can select any one of the image processing modules in any order and any number of times by operating the basic screen W1 via the input unit 20. Each time the image processing unit 43 detects that the user has selected an image processing module, the image processing unit 43 executes the image processing module on the selected frame group or active frame at that time. Note that whether the execution target of the image processing module is the selected frame group or the active frame depends on the type of image processing. Also, executing the image processing module for the selected frame group means executing the image processing module for each frame included in the selected frame group.

フレームに対し画像処理モジュールが1回、2回、3回,・・・と、順次実行されてゆくにつれて、そのフレームは、第1次、第2次、第3次,・・・と、順次加工されてゆく。第0次フレームは、オリジナル画像領域51に保存されている静止画ファイルに対応する。第(m+1)次フレームは、第m次フレームの静止画ファイルに対し画像処理モジュールを1回実行した後の静止画ファイルに対応する(mは、0以上の整数)。画像処理部43は、第1次以降のフレームに対応する静止画ファイルを順次生成し、これらの静止画ファイルを加工ファイル領域52内にそれぞれ別個に保存する。   As the image processing module is sequentially executed once, twice, three times,... With respect to the frame, the frame is sequentially sorted into the first order, the second order, the third order,. It will be processed. The 0th frame corresponds to the still image file stored in the original image area 51. The (m + 1) th frame corresponds to the still image file after the image processing module is executed once for the mth frame still image file (m is an integer of 0 or more). The image processing unit 43 sequentially generates still image files corresponding to the first and subsequent frames, and separately stores these still image files in the processed file area 52.

図4は、1のタイムラインに属する画像群が画像処理プログラム2によりどのように管理されるかを示す概念図である。図4において、横軸のN軸は、タイムライン上のフレームの順番を示しており、縦軸のM軸は、加工の順番を示している。図4のN−M空間内の座標(n,m)に対応する四角形は、画像I(n,m)を表している。画像I(n,m)は、タイムライン上でn番目のフレームの第m次の画像である(nは、自然数であり、mは、0以上の整数である)。   FIG. 4 is a conceptual diagram showing how an image group belonging to one timeline is managed by the image processing program 2. In FIG. 4, the N axis on the horizontal axis indicates the order of frames on the timeline, and the M axis on the vertical axis indicates the order of processing. A square corresponding to the coordinates (n, m) in the NM space in FIG. 4 represents the image I (n, m). The image I (n, m) is an mth-order image of the nth frame on the timeline (n is a natural number, and m is an integer of 0 or more).

制御部40は、各フレームについて、現在選択されている座標mの値をパラメータmsとして管理する。オリジナル画像領域51へ静止画ファイル群が取り込まれた直後、座標msは、初期値0である。その後、画像処理モジュールが1回実行される度に、そのフレームの座標msは1ずつインクリメントされる。また、ユーザは、入力部20を介して所定の操作を行うことにより、任意のフレームの座標msを自在に変更することができる。なお、フレームに対し画像処理モジュールを実行するとは、そのフレームの第ms次の画像に対し画像処理モジュールを実行することである。従って、座標msを変更することには、画像処理モジュールの実行の対象を変更するという意味がある。また、フレームを表示するとは、そのフレームの座標msの画像を表示することである。従って、座標msを変更することには、アクティブな表示ウィンドウW2内に表示される対象を変更するという意味もある。 The control unit 40 manages the value of the currently selected coordinate m as the parameter m s for each frame. Immediately after the still image file group is taken into the original image area 51, the coordinate m s has an initial value of 0. Thereafter, each time the image processing module is executed once, the coordinate m s of the frame is incremented by one. Further, the user can freely change the coordinate m s of an arbitrary frame by performing a predetermined operation via the input unit 20. Note that to execute the image processing module to the frame, it is to perform an image processing module to the m s next image of that frame. Therefore, changing the coordinate m s means changing the execution target of the image processing module. In addition, displaying a frame means displaying an image of the coordinate m s of the frame. Therefore, changing the coordinate m s also means changing the object displayed in the active display window W2.

<2−3−1.重ね合わせ処理>
以下、画像処理プログラム2に実装されている画像処理の1つである、重ね合わせ処理について説明する。重ね合わせ処理とは、画像の鮮明化や比較を目的として、複数の画像に捉えられた対象物の像が重なり合うように、複数の画像を重ね合わせる処理である。より詳細には、本実施形態の重ね合わせ処理は、重ね合わせ処理が開始した時点のアクティブフレーム(以下、基準フレーム)の第ms次の画像(以下、基準画像)上に、任意のタイムラインに属する任意のフレームの第0次又は第ms次の画像を重ね合わせる処理である。
<2-3-1. Overlay processing>
Hereinafter, superposition processing, which is one of image processing implemented in the image processing program 2, will be described. The superimposing process is a process of superimposing a plurality of images so that the images of the object captured by the plurality of images overlap for the purpose of clarifying and comparing the images. More specifically, the superimposition process of the present embodiment is an arbitrary timeline on the m sth image (hereinafter referred to as the reference image) of the active frame (hereinafter referred to as the reference frame) at the start of the overlay process. The 0th-order or m sth- order image of an arbitrary frame belonging to is superimposed.

まず、表示制御部41は、ユーザにより重ね合わせの処理の実行が命令されたことが検出されると、図5に示す重ね合わせウィンドウW3を基本画面W1上に重ねて表示する。さらに、表示制御部41は、ユーザによりこの重ね合わせウィンドウW3上の追加ボタンB1が押されことが検出されると、図6に示す候補選択ウィンドウW4を基本画面W1上に重ねて表示する。候補選択ウィンドウW4は、基準フレームの属するタイムライン(以下、基準タイムライン)を含む全てのタイムラインに属する全てのフレーム群の中から、基準画像に重ね合わせるべき1又は複数の画像(以下、対象画像)の候補となる画像(以下、候補画像)の属するフレーム(以下、候補フレーム)をユーザに選択させるための画面である。   First, when it is detected that the user has instructed execution of the superimposition process, the display control unit 41 displays the superimposition window W3 shown in FIG. 5 on the basic screen W1. Furthermore, when it is detected that the user presses the additional button B1 on the overlapping window W3, the display control unit 41 displays the candidate selection window W4 shown in FIG. 6 on the basic screen W1. The candidate selection window W4 includes one or a plurality of images (hereinafter referred to as target) to be superimposed on the reference image from among all frame groups belonging to all timelines including the timeline to which the reference frame belongs (hereinafter referred to as reference timeline). This is a screen for allowing a user to select a frame (hereinafter referred to as a candidate frame) to which an image (hereinafter referred to as a candidate image) belongs.

図6に示すように、候補選択ウィンドウW4上には、タイムライン選択プルダウンメニューC1、再生ボタンC2、コマ送りボタンC3、コマ戻しボタンC4およびタイムラインバーC5が配置されている。これらのオブジェクトC1〜C5は、それぞれ基本画面W1上の上述のオブジェクトT1〜T5と同様の機能を有する。また、候補選択ウィンドウW4上には、フレームリストD1が配置されている。   As shown in FIG. 6, a timeline selection pull-down menu C1, a playback button C2, a frame advance button C3, a frame return button C4, and a timeline bar C5 are arranged on the candidate selection window W4. These objects C1 to C5 have the same functions as the above-described objects T1 to T5 on the basic screen W1, respectively. A frame list D1 is arranged on the candidate selection window W4.

フレームリストD1には、候補選択ウィンドウW4内で現在選択されているタイムライン(以下、選択タイムライン)に属する全てのフレームのIDが、選択タイムライン上での配列に従って上下方向に配列されている。なお、候補選択ウィンドウW4が表示された直後の選択タイムラインは、基準タイムラインであるが、タイムライン選択プルダウンメニューC1は、選択タイムラインを任意のタイムラインへ変更する操作をユーザから受け付けている。また、フレームリストD1には、各フレームのIDの左横にチェックボックスが配置されている。その結果、ユーザは、このチェックボックスを介して、フレームリストD1にIDが表示されているフレーム群の中から、任意のフレームを任意の数だけ選択することができる。画像処理部43は、このチェックボックスを介してユーザにより選択されたフレームを、上述の候補フレームとして認識する。   In the frame list D1, the IDs of all the frames belonging to the time line currently selected in the candidate selection window W4 (hereinafter, selected time line) are arranged vertically according to the arrangement on the selected time line. . The selected timeline immediately after the candidate selection window W4 is displayed is the reference timeline, but the timeline selection pull-down menu C1 accepts an operation for changing the selected timeline to an arbitrary timeline from the user. . In the frame list D1, a check box is arranged on the left side of the ID of each frame. As a result, the user can select an arbitrary number of arbitrary frames from the frame group whose ID is displayed in the frame list D1 via this check box. The image processing unit 43 recognizes the frame selected by the user via this check box as the above candidate frame.

あるいは、ユーザは、タイムラインバーC5を介しても、候補フレームを選択することができる。なお、タイムラインバーC5は、上述のタイムラインバーT5と同様の機能を有するが、アクティブタイムラインではなく、選択タイムライン上の任意の区間の選択をユーザから受け付けている。具体的には、ユーザが、候補選択ウィンドウW4上の追加ボタンE1を押すと、タイムラインバーC5上でその時点で選択されている1又は複数の分割領域に対応する1又は複数のフレームが、画像処理部43により候補フレームとして認識される。逆に、ユーザが、候補選択ウィンドウW4上の削除ボタンE2を押すと、タイムラインバーC5上でその時点で選択されている1又は複数の分割領域に対応する1又は複数のフレームが、候補フレームから解除される。   Alternatively, the user can select a candidate frame via the timeline bar C5. The timeline bar C5 has the same function as the timeline bar T5 described above, but accepts selection of an arbitrary section on the selected timeline, not the active timeline, from the user. Specifically, when the user presses the add button E1 on the candidate selection window W4, one or a plurality of frames corresponding to one or a plurality of divided regions selected at that time on the timeline bar C5 are displayed. Recognized as a candidate frame by the image processing unit 43. Conversely, when the user presses the delete button E2 on the candidate selection window W4, one or more frames corresponding to the one or more divided areas selected at that time on the timeline bar C5 are candidate frames. Is released from.

また、図7及び図8に示すように、タイムラインバーC5上の基準フレームに対応する分割領域の下方には、バーE3が表示され、タイムラインバーC5上の候補フレームに対応する分割領域の下方には、バーE3とは異なる表示形式のバーE4が表示される。従って、ユーザは、基準フレームと候補フレームとの選択タイムライン上での位置nを容易に把握することができる。なお、図7は、基準フレームの位置を示すバーE3が存在していることから明らかであるが、基準フレームの属するタイムラインが選択タイムラインである場合の様子を示している。一方、バーE3が表示されていない図8は、基準フレームの属するタイムライン以外のタイムラインが選択タイムラインである場合の様子を示している。   Further, as shown in FIGS. 7 and 8, a bar E3 is displayed below the divided area corresponding to the reference frame on the timeline bar C5, and the divided area corresponding to the candidate frame on the timeline bar C5 is displayed. A bar E4 having a display format different from that of the bar E3 is displayed below. Therefore, the user can easily grasp the position n on the selection timeline between the reference frame and the candidate frame. FIG. 7 clearly shows that the bar E3 indicating the position of the reference frame exists, but shows a state where the timeline to which the reference frame belongs is the selected timeline. On the other hand, FIG. 8 in which the bar E3 is not displayed shows a state where the timeline other than the timeline to which the reference frame belongs is the selected timeline.

また、候補選択ウィンドウW4上の上部左側には、基準画像が表示される基準画像パネルP1が配置されており、その右側には、比較画像パネルP2が配置されている。表示制御部41は、再生ボタンC2、コマ送りボタンC3及びコマ戻しボタンC4に対するユーザの操作を受けて、比較画像パネルP2内で選択タイムライン上のフレーム群を再生可能である。このときの再生処理は、アクティブな表示ウィンドウW2内での上述の再生処理と同様の態様で実行される。従って、ユーザは、比較画像パネルP2内に様々な画像を再生させながら、基準画像パネルP1に表示されている基準画像に重ね合わせるべき対象画像の候補画像として適切なものを、容易に見つけ出すことができる。例えば、基準画像に捉えられている特定の対象物の像を鮮明化したいのであれば、同じ対象物が似たような角度から捉えられている画像を見つけ出し、候補画像とすればよい。このとき、注目している対象物が基準画像の中でと概ね同じ形状で捉えられている画像があれば、対象物の像の多少の変形や画面内での配置のずれを問わず、候補画像とすることができる。なぜならば、候補画像の中から選択される、基準画像に重ね合わせるべき対象画像に対しては、後述するとおり、重ね合わせ時に適宜平行移動、回転移動、拡大/縮小、回転変形及び歪み変形を加えることができるからである。   A reference image panel P1 on which a reference image is displayed is arranged on the upper left side of the candidate selection window W4, and a comparison image panel P2 is arranged on the right side thereof. The display control unit 41 can reproduce a frame group on the selected timeline in the comparative image panel P2 in response to a user operation on the play button C2, the frame advance button C3, and the frame return button C4. The reproduction process at this time is executed in the same manner as the reproduction process described above in the active display window W2. Therefore, the user can easily find an appropriate candidate image as a target image to be superimposed on the reference image displayed on the reference image panel P1, while reproducing various images in the comparison image panel P2. it can. For example, if it is desired to sharpen an image of a specific object captured in the reference image, an image in which the same object is captured from a similar angle may be found and used as a candidate image. At this time, if there is an image in which the target object is captured in almost the same shape as that in the reference image, the candidate can be used regardless of slight deformation of the target image or misalignment in the screen. It can be an image. This is because the target image selected from the candidate images to be superimposed on the reference image is appropriately subjected to parallel movement, rotational movement, enlargement / reduction, rotational deformation, and distortion deformation at the time of superposition as described later. Because it can.

比較画像パネルP2内に表示される画像は、候補選択ウィンドウW4が表示された直後は基準画像である。比較画像パネルP2内の表示は、上述の再生処理によっても切り替えられるが、ユーザによりタイムラインバーC5上で分割領域が選択された場合にも、直ちに当該分割領域に対応するフレームの第ms次の画像に切り替えられる。また、その他、ユーザによりフレームリストD1内でチェックボックスによらずフレームが選択された場合にも、直ちに当該フレームの第ms次の画像に切り替えられる。ここで、フレームリストD1内でチェックボックスによらずフレームを選択するとは、チェックボックス部分ではなく、フレームのIDが表示されているエリアをクリックすることによって、フレームを選択することである。なお、フレームリストD1内では、最新にクリックされたフレームのIDの背景領域と、基準画像フレームのIDの背景領域と、その他のフレームのIDの背景領域とは、異なる色やパターンで表される。従って、ユーザは、これらのフレームの意味を容易に識別することができる。 The image displayed in the comparative image panel P2 is a reference image immediately after the candidate selection window W4 is displayed. Display in Comparative image panel P2 is also switched by the reproduction process described above, even when the divided area on the timeline bar C5 is selected by the user, immediately the m s next frame corresponding to the divided region The image can be switched to. Also, other, when the frame regardless of the check boxes in the frame list D1 is selected by the user is also switched immediately to the m s next image of the frame. Here, selecting a frame regardless of a check box in the frame list D1 means selecting a frame by clicking an area in which the frame ID is displayed instead of the check box portion. In the frame list D1, the background area of the ID of the most recently clicked frame, the background area of the ID of the reference image frame, and the background area of the ID of the other frame are represented by different colors and patterns. . Therefore, the user can easily identify the meaning of these frames.

表示制御部41は、ユーザにより候補選択ウィンドウW4上のOKボタンE5が押されたことが検出されると、候補選択ウィンドウW4を閉じ、重ね合わせウィンドウW3の表示を更新する。具体的には、図9に示すように、表示制御部41は、重ね合わせウィンドウW3の中央付近に、フレームリストD2を表示する。フレームリストD2には、候補選択ウィンドウW4を介して選択された候補フレームのIDが上下方向に配列されており、各候補フレームのIDの左横には、チェックボックスが配置されている。その結果、ユーザは、このチェックボックスを介して、候補選択ウィンドウW4を介して選択された候補フレーム群の中から、任意の候補フレームを任意の数だけ選択することができる。画像処理部43は、このチェックボックスを介してユーザにより選択された候補フレームを、対象画像の属するフレーム(以下、対象フレーム)として認識する。   When it is detected that the user has pressed the OK button E5 on the candidate selection window W4, the display control unit 41 closes the candidate selection window W4 and updates the display of the overlapping window W3. Specifically, as shown in FIG. 9, the display control unit 41 displays the frame list D2 near the center of the overlapping window W3. In the frame list D2, the IDs of candidate frames selected via the candidate selection window W4 are arranged in the vertical direction, and a check box is arranged on the left side of the ID of each candidate frame. As a result, the user can select an arbitrary number of arbitrary candidate frames from the candidate frame group selected via the candidate selection window W4 via this check box. The image processing unit 43 recognizes the candidate frame selected by the user via the check box as a frame to which the target image belongs (hereinafter, target frame).

また、フレームリストD2は、チェックボックス部分ではなく、候補フレームのIDが表示されているエリアをクリックすることによっても、1の候補フレームを選択する操作をユーザから受け付けている。以下、この方法で選択された候補フレームを、選択フレームと呼ぶ。フレームリストD2内では、選択フレームのIDの背景領域と、その他のフレームのIDの背景領域とは、異なるトーンで表される(図10参照)。   Also, the frame list D2 accepts an operation for selecting one candidate frame from the user by clicking an area in which the candidate frame ID is displayed instead of the check box portion. Hereinafter, a candidate frame selected by this method is referred to as a selected frame. In the frame list D2, the background area of the ID of the selected frame and the background area of the ID of the other frame are represented by different tones (see FIG. 10).

そして、図10に示すように、選択フレームが設定されている状態では、表示制御部41は、重ね合わせウィンドウW3の上部に、候補画像エリアB2を表示する。候補画像エリアB2は、選択フレームの第0次又は第ms次の画像を表示するエリアである。ここで、第0次又は第ms次のいずれの画像が表示されることになるかは、重ね合わせウィンドウW3上に表示されている使用画像選択プルダウンメニューB3上での設定による。使用画像選択プルダウンメニューB3は、「最新画像」又は「オリジナル画像」の2つの選択肢を有しており、選択フレームに対していずれかの値を選択することができる。その結果、ユーザにより前者が選択された場合には、候補画像エリアB2内に選択フレームの第ms次の画像が表示され、後者が選択された場合には、選択フレームの第0次の画像が表示される。なお、各候補フレームに対する「最新画像」又は「オリジナル画像」の設定値は、前者がデフォルト値である。ユーザは、入力部20を介して使用画像選択プルダウンメニューB3を操作することにより、候補画像エリアB2内に選択フレームの第0次又は第ms次の画像を切り替えて表示させつつ、選択フレームを対象フレームとする場合には、基準画像に重ね合わせるべき対象画像としてはどちらの画像が適切であるかを判断することができる。 Then, as shown in FIG. 10, in the state where the selection frame is set, the display control unit 41 displays the candidate image area B2 on the upper part of the overlapping window W3. Candidate image area B2 is an area that displays the zeroth-order or the m s next image of the selected frame. Here, or so that the zeroth-order or the m s One of the following images are displayed, by setting on the overlay window W3 using image selection pull-down menu is displayed on B3. The use image selection pull-down menu B3 has two choices of “latest image” or “original image”, and can select any value for the selected frame. As a result, when the former is selected by the user, the m sth image of the selected frame is displayed in the candidate image area B2, and when the latter is selected, the 0th image of the selected frame is displayed. Is displayed. The setting value of the “latest image” or “original image” for each candidate frame is the default value for the former. The user operates the use image selection pull-down menu B3 via the input unit 20 to switch the 0th or m sth image of the selected frame in the candidate image area B2 and display the selected frame. In the case of the target frame, it can be determined which image is appropriate as the target image to be superimposed on the reference image.

また、重ね合わせウィンドウW3上には、プレビュー選択エリアB4及び方法指定エリアB5が配置されている。ここで、ユーザがプレビュー選択エリアB4にチェックを入れていない状態では、アクティブな表示ウィンドウW2内には、基準画像が表示されるが、プレビュー選択エリアB4にチェックを入れている状態では、アクティブな表示ウィンドウW2内には、対象画像又は対象画像を加工した画像等、基準画像以外の様々な画像が表示され得る。方法指定エリアB5は、プレビュー選択エリアB4にチェックが入っている間のみ有効化されるエリアであり、アクティブな表示ウィンドウW2内にどのような方法で生成される画像をプレビューするかの指定をユーザから受け付ける。具体的には、図10に示すように、方法指定エリアB5は、「全て」「基準」「直前」及び「選択」の4つの選択肢の中から、アクティブな表示ウィンドウW2内にプレビューされる画像(以下、プレビュー画像)の生成方法の指定を択一的にユーザから受け付ける。   Also, a preview selection area B4 and a method designation area B5 are arranged on the overlapping window W3. Here, when the user does not check the preview selection area B4, the reference image is displayed in the active display window W2, but when the preview selection area B4 is checked, the reference image is active. Various images other than the reference image, such as a target image or an image obtained by processing the target image, can be displayed in the display window W2. The method designation area B5 is an area that is validated only while the preview selection area B4 is checked. The method designation area B5 is used to designate how to preview an image generated in the active display window W2. Accept from. Specifically, as shown in FIG. 10, the method designation area B5 is an image that is previewed in the active display window W2 from four options “all”, “reference”, “immediately”, and “selection”. The designation of the generation method (hereinafter, preview image) is alternatively accepted from the user.

より具体的に説明すると、方法指定エリアB5内で「全て」が選択されている状態では、表示制御部41は、アクティブな表示ウィンドウW2内に、フレームリストD2を介してユーザにより現在選択されている全ての対象フレームの第0次又は第ms次の画像、すなわち、全ての対象画像を基準画像上に重ねて表示する。ここで、各対象フレームの対象画像としては、上述の使用画像選択プルダウンメニューB3を介してユーザにより現在設定されている次数mの画像が選択される。また、対象画像が1つも選択されていない状態であれば、アクティブな表示ウィンドウW2内には、基準画像が表示される。 More specifically, in a state where “all” is selected in the method designation area B5, the display control unit 41 is currently selected by the user via the frame list D2 in the active display window W2. all of the target frame 0th or the m s the following images are, that is, displayed over all of the target image on the reference image. Here, the image of the order m currently set by the user is selected as the target image of each target frame via the above-described use image selection pull-down menu B3. If no target image is selected, the reference image is displayed in the active display window W2.

ここで、ユーザは、対象画像であって、フレームリストD2内でチェックボックスによらず現在選択されている画像(以下、選択対象画像)を、アクティブな表示ウィンドウW2内で容易に移動及び/又は変形させることができる。なお、本実施形態では、移動及び/又は変形の態様として、X軸及びY軸方向の平行移動、X軸及びY軸方向の拡大/縮小、X軸及びY軸方向の回転変形、Z軸周りの回転移動、並びに、X軸及びY軸方向の歪み変形がある。ここで、X軸及びY軸は、画面の中心を通り、画面内をそれぞれ左右方向及び上下方向に延びる軸であり、Z軸は、画面の中心を通り、画面に直交する方向である。   Here, the user can easily move and / or move an image that is the target image and is currently selected in the frame list D2 regardless of the check box (hereinafter, the selection target image) in the active display window W2. Can be deformed. In this embodiment, as movement and / or deformation modes, parallel movement in the X-axis and Y-axis directions, enlargement / reduction in the X-axis and Y-axis directions, rotational deformation in the X-axis and Y-axis directions, and around the Z-axis Rotational movement and distortion deformation in the X-axis and Y-axis directions. Here, the X-axis and the Y-axis are axes that pass through the center of the screen and extend in the horizontal direction and the vertical direction, respectively, and the Z-axis is a direction that passes through the center of the screen and is orthogonal to the screen.

具体的な移動及び/又は変形の操作の方法について説明する。まず、X軸及びY軸方向の平行移動の場合、ユーザは、マウス21を操作し、アクティブな表示ウィンドウW2内に表示されている選択対象画像内で、クリックした状態でカーソルを移動させる(以下、クリック移動)。このとき、このクリック移動操作の操作方向及び操作量が、操作検出部42により検出される。画像処理部43は、操作検出部42により検出された操作方向に応じて、選択対象画像の平行移動方向を決定するとともに、操作検出部42により検出された操作量に応じて、選択対象画像の平行移動量を決定する。より具体的には、画像処理部43は、クリック移動操作によりカーソルがX方向にa1ピクセル分移動し、Y方向にa2ピクセル分移動した場合には、選択対象画像をX方向にa1ピクセル平行移動させるとともに、Y方向にa2ピクセル分平行移動させる。なお、a1,a2は、正の値であっても、負の値であってもよい。また、本実施形態では、ユーザのカーソルの操作量と平行移動量が一致しているが、他の実地形態では、両者を比例関係等の相関関係を持たせた上で、不一致としてもよい。   A specific movement and / or deformation operation method will be described. First, in the case of parallel movement in the X-axis and Y-axis directions, the user operates the mouse 21 to move the cursor in a clicked state in the selection target image displayed in the active display window W2 (hereinafter referred to as “click”). , Click move). At this time, the operation direction and the operation amount of the click movement operation are detected by the operation detection unit 42. The image processing unit 43 determines the parallel movement direction of the selection target image according to the operation direction detected by the operation detection unit 42, and determines the selection target image according to the operation amount detected by the operation detection unit 42. Determine the amount of translation. More specifically, the image processing unit 43 translates the selection target image by a1 pixels in the X direction when the cursor moves by a1 pixels in the X direction and a2 pixels in the Y direction by the click movement operation. And translate by a2 pixels in the Y direction. A1 and a2 may be positive values or negative values. Further, in the present embodiment, the operation amount of the user's cursor matches the translation amount, but in other actual forms, the two may have a correlation such as a proportional relationship and may be mismatched.

次に、X軸及びY軸方向の拡大/縮小の場合には、ユーザは、キーボード22上の特定のキー(例えば、F1キー)を押しながら、マウス21を操作し、アクティブな表示ウィンドウW2内に表示されている選択対象画像内で、カーソルをクリック移動する。このとき、キーボード22上の特定のキーが押されたことにより、画像処理部43は、クリック移動操作が拡大/縮小を意味していることを認識する。また、このときも、上述の平行移動の場合と同様に、このクリック移動操作の操作方向及び操作量が、操作検出部42により検出される。そして、画像処理部43は、操作検出部42により検出された操作方向に応じて、選択対象画像の拡大/縮小方向を決定するとともに、操作検出部42により検出された操作量に応じて、選択対象画像の拡大/縮小量を決定する。より具体的には、画像処理部43は、X軸及びY軸方向のそれぞれについて、クリック移動操作によりカーソルが選択対象画像上の予め定められた基準点(本実施形態では、選択対象画像の中心)に向かう方向に移動されたか、この基準点から離れる方向に移動されたかを判断するとともに、定量的な移動量も判断する。そして、画像処理部43は、カーソルがX方向に基準点からbピクセル分離れたと判断された場合には、選択対象画像を(1+c1・b)倍の倍率でX方向に拡大し、X方向に基準点へbピクセル分近づいたと判断された場合には、(1−c1・b)の倍率でX方向に縮小する(c1は、正の定数)。なお、bは、正の値である。また、Y方向に関しても、同様である。   Next, in the case of enlargement / reduction in the X-axis and Y-axis directions, the user operates the mouse 21 while pressing a specific key (for example, the F1 key) on the keyboard 22 to move within the active display window W2. Click and move the cursor in the selection target image displayed in. At this time, when a specific key on the keyboard 22 is pressed, the image processing unit 43 recognizes that the click movement operation means enlargement / reduction. Also at this time, the operation detection unit 42 detects the operation direction and the operation amount of the click movement operation, as in the case of the parallel movement described above. Then, the image processing unit 43 determines the enlargement / reduction direction of the selection target image according to the operation direction detected by the operation detection unit 42, and selects according to the operation amount detected by the operation detection unit 42. The amount of enlargement / reduction of the target image is determined. More specifically, for each of the X-axis and Y-axis directions, the image processing unit 43 moves the cursor to a predetermined reference point on the selection target image (in this embodiment, the center of the selection target image). ) Or in a direction away from the reference point, and a quantitative movement amount is also determined. Then, when it is determined that the cursor is separated by b pixels from the reference point in the X direction, the image processing unit 43 enlarges the selection target image in the X direction at a magnification of (1 + c1 · b) times, and in the X direction. If it is determined that the reference point has approached b pixels, the image is reduced in the X direction at a magnification of (1-c1 · b) (c1 is a positive constant). Note that b is a positive value. The same applies to the Y direction.

続いて、X軸及びY軸方向の回転変形の場合には、ユーザは、キーボード22上の特定のキー(例えば、F2キー)を押しながら、マウス21を操作し、アクティブな表示ウィンドウW2内に表示されている選択対象画像内で、カーソルをクリック移動する。このとき、キーボード22上の特定のキーが押されたことにより、画像処理部43は、クリック移動操作が回転変形を意味していることを認識する。また、このときも、上述の平行移動等の場合と同様に、このクリック移動操作の操作方向及び操作量が、操作検出部42により検出される。そして、画像処理部43は、操作検出部42により検出された操作方向に応じて、選択対象画像の回転変形方向を決定するとともに、操作検出部42により検出された操作量に応じて、選択対象画像の回転変形量を決定する。より具体的には、画像処理部43は、クリック移動操作によりカーソルがY軸正方向に移動されたか、これと反対方向であるY軸負方向に移動されたかを判断するとともに、定量的な移動量も判断する。そして、画像処理部43は、図11(a)に示すように、カーソルがY軸正方向にd1ピクセル分移動したと判断された場合には、選択対象画像をc2・d1°だけX軸周りに負方向に回転させるように変形し、Y軸負方向にd1ピクセル分移動したと判断された場合には、c2・d1°だけX軸周りに正方向に回転させるように変形する(c2は、正の定数)。同様に、画像処理部43は、クリック移動操作によりカーソルがX軸正方向に移動されたか、これと反対方向であるX軸負方向に移動されたかを判断するとともに、定量的な移動量も判断する。そして、画像処理部43は、図11(b)に示すように、カーソルがX軸正方向にd2ピクセル分移動したと判断された場合には、選択対象画像をc2・d2°だけY軸周りに負方向に回転させるように変形し、X軸負方向にd2ピクセル分移動したと判断された場合には、c2・d2°だけY軸周りに正方向に回転させるように変形する。なお、d1,d2は、正の値である。   Subsequently, in the case of rotational deformation in the X-axis and Y-axis directions, the user operates the mouse 21 while pressing a specific key (for example, F2 key) on the keyboard 22 to enter the active display window W2. Click and move the cursor in the displayed selection target image. At this time, when a specific key on the keyboard 22 is pressed, the image processing unit 43 recognizes that the click movement operation means rotational deformation. Also at this time, as in the case of the above-described parallel movement or the like, the operation detection unit 42 detects the operation direction and the operation amount of the click movement operation. The image processing unit 43 determines the rotational deformation direction of the selection target image according to the operation direction detected by the operation detection unit 42, and selects the selection target according to the operation amount detected by the operation detection unit 42. Determine the amount of rotational deformation of the image. More specifically, the image processing unit 43 determines whether the cursor is moved in the positive Y-axis direction by the click movement operation or in the negative Y-axis direction, which is the opposite direction, and quantitative movement is performed. Also judge the amount. When it is determined that the cursor has moved by d1 pixels in the positive Y-axis direction as shown in FIG. 11A, the image processing unit 43 moves the selection target image around the X axis by c2 · d1 °. When it is determined that the lens has moved by d1 pixels in the negative Y-axis direction, it is deformed to rotate in the positive direction around the X-axis by c2 · d1 ° (c2 is , Positive constant). Similarly, the image processing unit 43 determines whether the cursor is moved in the positive X-axis direction by the click movement operation or in the negative X-axis direction, which is the opposite direction, and also determines the quantitative movement amount. To do. Then, as shown in FIG. 11B, when it is determined that the cursor has moved by d2 pixels in the positive direction of the X axis, the image processing unit 43 moves the selection target image around the Y axis by c2 · d2 °. If it is determined that the pixel has moved by d2 pixels in the negative direction of the X axis, it is deformed to rotate in the positive direction around the Y axis by c2 · d2 °. D1 and d2 are positive values.

続いて、Z軸周りの回転移動の場合には、ユーザは、キーボード22上の特定のキー(例えば、F3キー)を押しながら、マウス21を操作し、アクティブな表示ウィンドウW2内に表示されている選択対象画像内で、カーソルをクリック移動する。このとき、キーボード22上の特定のキーが押されたことにより、画像処理部43は、クリック移動操作が回転移動を意味していることを認識する。また、このときも、上述の平行移動等の場合と同様に、このクリック移動操作の操作方向及び操作量が、操作検出部42により検出される。そして、画像処理部43は、操作検出部42により検出された操作方向に応じて、選択対象画像の回転方向を決定するとともに、操作検出部42により検出された操作量に応じて、選択対象画像の回転量を決定する。より具体的には、画像処理部43は、クリック移動操作によりカーソルがZ軸周りを正方向に回転されたか、これと反対方向である負方向に回転されたかを判断するとともに、定量的な回転量も判断する。そして、画像処理部43は、図11(c)に示すように、カーソルがZ軸周りに正方向にe°回転したと判断された場合には、選択対象画像をc3・e°だけZ軸周りに正方向に回転させるように変形し、負方向にe°回転したと判断された場合には、c3・e°だけ負方向に回転させるように変形する(c3は、正の定数)。なお、eは、正の値である。また、ここで画像処理部43が認識可能なクリック移動操作は、ユーザがカーソルをZ軸周りに厳密に円弧状に移動させる操作である必要はない。例えば、直線状のクリック移動操作であっても、eの値を検出することは可能である。例えば、eの値は、クリック移動操作によるカーソルの移動開始点と選択対象画像上の予め定められた基準点(本実施形態では、選択対象画像の中心)とを結ぶ線分と、カーソルの移動終了点と同基準点とを結ぶ線分とが為す角度として検出され得る。   Subsequently, in the case of rotational movement around the Z axis, the user operates the mouse 21 while pressing a specific key (for example, the F3 key) on the keyboard 22 and is displayed in the active display window W2. Click and move the cursor in the selected image. At this time, when a specific key on the keyboard 22 is pressed, the image processing unit 43 recognizes that the click movement operation means a rotational movement. Also at this time, as in the case of the above-described parallel movement or the like, the operation detection unit 42 detects the operation direction and the operation amount of the click movement operation. Then, the image processing unit 43 determines the rotation direction of the selection target image according to the operation direction detected by the operation detection unit 42, and selects the selection target image according to the operation amount detected by the operation detection unit 42. Determine the amount of rotation. More specifically, the image processing unit 43 determines whether the cursor has been rotated in the positive direction around the Z-axis by a click movement operation or in the negative direction, which is the opposite direction, and quantitative rotation is performed. Also judge the amount. Then, as shown in FIG. 11C, when it is determined that the cursor has rotated by e ° around the Z axis in the positive direction, the image processing unit 43 sets the selection target image by c3 · e ° in the Z axis. When it is determined that the lens has been rotated so as to rotate in the positive direction and is rotated by e ° in the negative direction, it is deformed so as to be rotated in the negative direction by c3 · e ° (c3 is a positive constant). Note that e is a positive value. In addition, the click movement operation that can be recognized by the image processing unit 43 here does not have to be an operation in which the user moves the cursor strictly in an arc shape around the Z axis. For example, the value of e can be detected even with a linear click movement operation. For example, the value of e is a line segment connecting a cursor movement start point by a click movement operation and a predetermined reference point on the selection target image (in this embodiment, the center of the selection target image), and the movement of the cursor. It can be detected as an angle formed by a line segment connecting the end point and the reference point.

続いて、X軸及びY軸方向の歪み変形の場合には、ユーザは、キーボード22上の特定のキー(例えば、F4キー)を押しながら、マウス21を操作し、アクティブな表示ウィンドウW2内に表示されている選択対象画像内で、カーソルをクリック移動する。このとき、キーボード22上の特定のキーが押されたことにより、画像処理部43は、クリック移動操作が歪み変形を意味していることを認識する。また、このときも、上述の平行移動等の場合と同様に、このクリック移動操作の操作方向及び操作量が、操作検出部42により検出される。そして、画像処理部43は、操作検出部42により検出された操作方向に応じて、選択対象画像の歪み変形方向を決定するとともに、操作検出部42により検出された操作量に応じて、選択対象画像の歪み変形量を決定する。より具体的には、画像処理部43は、クリック移動操作によりカーソルがX軸正方向に移動されたか、これと反対方向であるX軸負方向に移動されたかを判断するとともに、定量的な移動量も判断する。そして、画像処理部43は、図12(a)に示すように、カーソルがX軸正方向にf1ピクセル分移動したと判断された場合には、選択対象画像を選択対象画像の右下の点がc4・f1ピクセルだけX軸正方向に移動するように平行四辺形に歪ませ、X軸負方向にf1ピクセル分移動したと判断された場合には、c4・f1°だけX軸負方向に移動するように平行四辺形に歪ませる(c4は、正の定数)。同様に、画像処理部43は、クリック移動操作によりカーソルがY軸正方向に移動されたか、これと反対方向であるY軸負方向に移動されたかを判断するとともに、定量的な移動量も判断する。そして、画像処理部43は、図12(b)に示すように、カーソルがY軸正方向にf2ピクセル分移動したと判断された場合には、選択対象画像を選択対象画像の右下の点がc4・f2ピクセルだけY軸正方向に移動するように平行四辺形に歪ませ、Y軸負方向にf2ピクセル分移動したと判断された場合には、c4・f2°だけY軸負方向に移動するように平行四辺形に歪ませる。なお、f1,f2は、正の値である。   Subsequently, in the case of distortion deformation in the X-axis and Y-axis directions, the user operates the mouse 21 while pressing a specific key (for example, the F4 key) on the keyboard 22, and enters the active display window W2. Click and move the cursor in the displayed selection target image. At this time, when a specific key on the keyboard 22 is pressed, the image processing unit 43 recognizes that the click movement operation means distortion deformation. Also at this time, as in the case of the above-described parallel movement or the like, the operation detection unit 42 detects the operation direction and the operation amount of the click movement operation. Then, the image processing unit 43 determines the distortion deformation direction of the selection target image according to the operation direction detected by the operation detection unit 42, and selects the selection target according to the operation amount detected by the operation detection unit 42. Determine the amount of distortion of the image. More specifically, the image processing unit 43 determines whether the cursor is moved in the positive X-axis direction by the click movement operation or in the negative X-axis direction, which is the opposite direction, and quantitative movement is performed. Also judge the amount. When it is determined that the cursor has moved by f1 pixels in the positive direction of the X axis, as shown in FIG. 12A, the image processing unit 43 sets the selection target image to the lower right point of the selection target image. Is distorted into a parallelogram so that it moves in the positive direction of the X axis by c4 · f1 pixels, and if it is determined that it has moved by f1 pixels in the negative direction of the X axis, It is distorted into a parallelogram so as to move (c4 is a positive constant). Similarly, the image processing unit 43 determines whether the cursor has been moved in the positive Y-axis direction by the click movement operation or in the negative Y-axis direction, which is the opposite direction, and also determines the quantitative movement amount. To do. When it is determined that the cursor has moved by f2 pixels in the positive Y-axis direction as shown in FIG. 12B, the image processing unit 43 sets the selection target image to the lower right point of the selection target image. Is distorted into a parallelogram so that it moves by c4 · f2 pixels in the positive direction of the Y axis, and if it is determined that it has moved by f2 pixels in the negative direction of the Y axis, Distort into a parallelogram to move. Note that f1 and f2 are positive values.

以上のようなクリック移動操作が行われる度、当該移動及び/又は変形は、アクティブな表示ウィンドウW2内での表示に直ちに反映される。すなわち、表示制御部41は、アクティブな表示ウィンドウW2内に、元の選択対象画像に代えて、移動及び/又は変形後の選択対象画像を基準画像及びその他の対象画像上に重ね合わせたプレビュー画像を表示する。   Each time the click movement operation as described above is performed, the movement and / or deformation is immediately reflected in the display in the active display window W2. In other words, the display control unit 41, in the active display window W2, replaces the original selection target image with a preview image obtained by superimposing the moved and / or deformed selection target image on the reference image and other target images. Is displayed.

以上の結果、ユーザは、選択対象画像内で一本線状の軌跡を描くようなクリック移動操作で、直感的に選択対象画像を移動及び/又は変形させることができる。また、上記のとおり、方法指定エリアB5内で「全て」が選択されている状態では、選択対象画像は、アクティブな表示ウィンドウW2内で、基準画像上に重ね合わせて表示される。従って、ユーザは、選択対象画像を基準画像と比較しながら、両画像に捉えられた特定の対象物の像を一致させるような移動及び/又は変形のパラメータを容易に指定することができる。また、ユーザは、クリック移動操作を行う度に、アクティブな表示ウィンドウW2内で、移動及び/又は変形後の選択対象画像をリアルタイムに確認することもできる。従って、ユーザは、必要に応じて上述のクリック移動操作の実行を繰り返しながら、選択対象画像と基準画像との間で注目している対象物の像が適切に重なり合うような選択対象画像の移動及び/又は変形のパラメータを指定することができる。   As a result, the user can intuitively move and / or deform the selection target image by a click movement operation that draws a single-line trajectory in the selection target image. As described above, in the state where “all” is selected in the method designation area B5, the selection target image is displayed on the reference image in the active display window W2. Therefore, the user can easily specify parameters for movement and / or deformation so as to match the images of the specific object captured in both images while comparing the selection target image with the reference image. In addition, the user can check the selection target image after movement and / or deformation in real time in the active display window W2 every time a click movement operation is performed. Therefore, the user repeats the execution of the above-described click movement operation as necessary, and moves the selection target image such that the target image of interest is appropriately overlapped between the selection target image and the reference image. / Or deformation parameters can be specified.

ここで、図10に示すように、重ね合わせウィンドウW3上には、上述の選択対象画像の移動及び変形のパラメータを表示するとともに、これらのパラメータを変更する操作をユーザから受け付けるパラメータ指定エリアB6が配置されている。なお、このエリアB6内では、パラメータの表示及び変更は、数値を用いて定量的に行われる。また、このエリアB6内に表示されるパラメータは、上述の移動及び/又は変形のためのクリック移動操作とリアルタイムで連動しており、上述の態様で選択対象画像が移動及び/又は変形される度に、当該移動及び/又は変形を反映した値に直ちに更新される。また、表示制御部41は、ユーザがパラメータ指定エリアB6上でこれらのパラメータを変更する操作を行ったことが検出される度に、アクティブな表示ウィンドウW2内に表示される選択対象画像を、当該変更量に従って直ちに移動及び/又は変形させる。すなわち、移動及び/又は変形のパラメータの指定は、クリック移動による直感的な操作と、数値を用いた定量的な指定の操作との、性質の違う2通りの操作により実現される。従って、ユーザは、前者の操作によって、選択対象画像及び基準画像間で対象物の像を概ね簡単に一致させた後、後者の操作によって、厳密な微調整を行うことができる。   Here, as shown in FIG. 10, a parameter designation area B6 that displays the above-described movement and deformation parameters of the selection target image and receives an operation for changing these parameters from the user is displayed on the overlapping window W3. Has been placed. In this area B6, parameters are displayed and changed quantitatively using numerical values. The parameters displayed in this area B6 are linked in real time to the above-described click movement operation for movement and / or deformation, and each time the selection target image is moved and / or deformed in the above-described manner. And immediately updated to a value reflecting the movement and / or deformation. Further, the display control unit 41 displays the selection target image displayed in the active display window W2 every time it is detected that the user has performed an operation of changing these parameters on the parameter designation area B6. Move and / or deform immediately according to the amount of change. That is, the movement and / or deformation parameter designation is realized by two operations having different properties, that is, an intuitive operation by clicking movement and a quantitative designation operation using numerical values. Therefore, the user can make a fine adjustment finely by the latter operation after the image of the target object is almost easily matched between the selection target image and the reference image by the former operation.

なお、ユーザは、複数の対象画像を基準画像上に重ね合わせたい場合には、複数の対象画像を順に選択対象画像として選択してゆきつつ、各対象画像を基準画像上に重ね合わせる上述の操作を行えばよい。そして、このような複数の対象画像の移動及び/又は変形が終了した段階では、方法指定エリアB5内で「全て」が選択されている状態でのプレビュー画像上では、複数の対象画像と基準画像とに写る全ての対象物の像が概ね一致していることになる。   When the user wants to superimpose a plurality of target images on the reference image, the above-described operation of superimposing each target image on the reference image while sequentially selecting the plurality of target images as the selection target image. Can be done. Then, at the stage where the movement and / or deformation of the plurality of target images is completed, the plurality of target images and the reference image are displayed on the preview image in a state where “all” is selected in the method designation area B5. The images of all the objects shown in the above are almost the same.

ここで、プレビュー画像の生成方法についての説明に話を戻すと、方法指定エリアB5内で「基準」が選択されている状態では、表示制御部41は、プレビュー画像として、選択対象画像のみを基準画像上に重ねて表示する。また、方法指定エリアB5内で「選択」が選択されている状態では、表示制御部41は、プレビュー画像として、選択対象画像を単独で表示する。また、方法指定エリアB5内で「直前」が選択されている状態では、表示制御部41は、プレビュー画像として、選択対象画像をフレームリストD2内で1つ上の対象画像上に重ねて表示する。ただし、そのような対象画像が存在しない場合には、選択対象画像のみを基準画像上に重ねて表示する。そして、このようなプレビュー画像が表示されている場合も、アクティブな表示ウィンドウW2内に表示されている選択対象画像は、方法指定エリアB5内で「全て」が選択されている場合と同じ上述の態様で、移動及び/変形され得る。そして、ここでも、選択対象画像が移動及び/又は変形されると、当該移動及び/又は変形は、アクティブな表示ウィンドウW2内及びパラメータ指定エリアB6内の表示に直ちに反映される。   Here, returning to the description of the method for generating the preview image, in a state where “reference” is selected in the method designation area B5, the display control unit 41 uses only the selection target image as a reference. Display overlaid on the image. In addition, in a state where “selection” is selected in the method designation area B5, the display control unit 41 displays the selection target image alone as a preview image. Further, in a state where “immediately before” is selected in the method designation area B5, the display control unit 41 displays the selection target image as a preview image so as to be superimposed on the target image one level higher in the frame list D2. . However, when such a target image does not exist, only the selection target image is displayed superimposed on the reference image. Even when such a preview image is displayed, the selection target image displayed in the active display window W2 is the same as the case where “all” is selected in the method designation area B5. In a manner, it can be moved and / or deformed. Also in this case, when the selection target image is moved and / or deformed, the movement and / or deformation is immediately reflected in the display in the active display window W2 and the parameter designation area B6.

なお、図15は、図13に示す対象画像を、図14に示す基準画像上に重ね合わせた画像である。また、図16は、注目している対象物である自動車の像が適切に重なり合うように、この対象画像を平行移動及び拡大した例である。   FIG. 15 is an image obtained by superimposing the target image shown in FIG. 13 on the reference image shown in FIG. FIG. 16 is an example in which the target image is translated and enlarged so that the images of the car that is the target object of interest overlap appropriately.

また、重ね合わせウィンドウW3内には、差分選択エリアB7が配置されている。差分選択エリアB7は、アクティブな表示ウィンドウW2内にプレビューされ得る複数の画像の重ね合わせの態様の指定をユーザから受け付けるエリアである。具体的には、表示制御部41は、差分選択エリアB7内で「差分」にチェックが入っている状態では、差分画像を表示し、チェックが入っていない状態では、複数の画像を全て半透明にして重ね合わせた画像(以下、半透明画像)を表示する。   Further, a difference selection area B7 is arranged in the overlapping window W3. The difference selection area B <b> 7 is an area that accepts designation of an aspect of superposition of a plurality of images that can be previewed in the active display window W <b> 2 from the user. Specifically, the display control unit 41 displays a difference image when “difference” is checked in the difference selection area B7, and displays a plurality of images semi-transparently when the check is not checked. The superimposed image (hereinafter, translucent image) is displayed.

ここで、半透明画像とは、本実施形態では、原則として、平均画像であるが、加重平均画像とすることもできる。具体的には、重ね合わせウィンドウW3内には、選択対象画像の透過率を調整するための透過率指定エリアB8が配置されている。表示制御部41は、このエリアB8を介してユーザにより指定された透過率に従って、選択対象画像の透過度(平均時の重み)を設定した上で、重ね合わせ画像を生成する。一方、差分画像とは、重ね合わせられる複数の画像間、例えば、選択対象画像と基準画像との間の違いのみを表示するような画像である。従って、いずれの重ね合わせの態様によっても、ユーザは、両画像の位置のずれを直感的に理解することができる。なお、前述の図15及び図16は、半透明画像の例であるが、図17及び図18は、それぞれ図15及び図16を差分画像の態様に変更した場合を示している。これらの図から分かるように、ユーザは、半透明画像が表示される場合には、半透明画像内で注目している対象物がうまく重なり合うように、選択対象画像を移動及び/又は変形させればよい。また、差分画像が表示される場合には、差分画像上から注目している対象物の像が消えるように、選択対象画像を移動及び/又は変形させればよい。   Here, the semi-transparent image is an average image in principle in this embodiment, but may be a weighted average image. Specifically, a transmittance designation area B8 for adjusting the transmittance of the selection target image is arranged in the overlapping window W3. The display control unit 41 generates a superimposed image after setting the transparency (weight at the time of average) of the selection target image in accordance with the transmittance designated by the user via the area B8. On the other hand, a difference image is an image that displays only a difference between a plurality of images to be superimposed, for example, a selection target image and a reference image. Therefore, the user can intuitively understand the positional shift between the two images regardless of the superposition mode. Note that FIGS. 15 and 16 described above are examples of the semi-transparent image, but FIGS. 17 and 18 show cases where FIGS. 15 and 16 are changed to the mode of the difference image, respectively. As can be seen from these figures, when the semi-transparent image is displayed, the user can move and / or deform the selection target image so that the target objects in the semi-transparent image overlap well. That's fine. Further, when the difference image is displayed, the selection target image may be moved and / or deformed so that the image of the target object on the difference image disappears.

画像処理部43は、ユーザにより重ね合わせウィンドウW3上のOKボタンB9が押されたことが検知されると、その時点での透過率に従って、その時点での移動及び/又は変形後の全ての対象画像を基準画像上に重ね合わせた画像を生成する。同時に、この重ね合わせ画像は、基準フレームの次の次数mの静止画として、加工ファイル領域52に保存される。なお、本実施形態では、対象フレームの次数mは、進まない。   When the image processing unit 43 detects that the user has pressed the OK button B9 on the overlapping window W3, the image processing unit 43 performs all the movement and / or deformation after that point according to the transmittance at that point. An image in which the image is superimposed on the reference image is generated. At the same time, the superimposed image is stored in the processed file area 52 as a still image of the next order m of the reference frame. In the present embodiment, the order m of the target frame does not advance.

<3.用途>
画像処理プログラム2は、多種多様な動画に対する画像処理を取り扱うことができ、例えば、警察等の機関が事件の捜査のために防犯カメラの監視映像を解析する場面でも利用され得る。例えば、防犯カメラの監視映像の中に、容疑者の車のナンバープレートが捕えられている場合がある。このような場合に、ナンバープレートを対象物として、上述の重ね合わせの処理を実行すれば、その結果得られる重ね合わせ画像においては、以前は不鮮明であり、読み取ることができなかったナンバーを読み取ることも可能になる。また、上述の重ね合わせの処理は、注目している対象物の大きさや位置を確認するのにも使用することもできる。例えば、注目している対象物が写っている画像に対し、大きさが既知の物体が写っている他の画像を当該物体に注目して重ね合わせることで、対象物の大きさを推測することができる。
<3. Application>
The image processing program 2 can handle image processing for a wide variety of moving images. For example, the image processing program 2 can be used in a scene where an organization such as the police analyzes a surveillance video of a security camera for investigation of an incident. For example, the suspect's car license plate may be captured in the surveillance video of the security camera. In such a case, if the above-described superimposition process is executed with the license plate as an object, the resulting superimposed image will read a number that was previously unclear and could not be read. Is also possible. Further, the above-described superimposing process can also be used to confirm the size and position of the target object of interest. For example, to estimate the size of an object by superimposing another image of an object with a known size on an image that shows the object of interest. Can do.

<4.変形例>
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。例えば、以下の変更が可能である。また、以下の変形例の要旨は、適宜組み合わせることができる。
<4. Modification>
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the said embodiment, A various change is possible unless it deviates from the meaning. For example, the following changes can be made. Moreover, the gist of the following modifications can be combined as appropriate.

<4−1>
対象画像の移動及び/又は変形のために1本線状の軌跡を描くユーザの操作の態様は、上述したものに限られない。例えば、上述のクリック移動操作を、キーボード22で移動及び/又は変形の操作の開始及び終了を指定しつつ、マウス21により選択対象画像内で単にカーソルを移動させる操作とすることができる。
<4-1>
The mode of operation of the user who draws a single linear locus for movement and / or deformation of the target image is not limited to that described above. For example, the click movement operation described above can be an operation of simply moving the cursor within the selection target image with the mouse 21 while designating the start and end of the movement and / or deformation operation with the keyboard 22.

また、マウス21やキーボード22に代えて又は加えて、ディスプレイ10上にタッチパネルを設け、上述のクリック移動操作を、タッチパネルによる同等の操作、例えば、画面上で指を引きずるようなドラッグ操作や、画面上で指を払うようなフリック操作等で代用することができる。   Further, instead of or in addition to the mouse 21 and the keyboard 22, a touch panel is provided on the display 10, and the above-described click movement operation is equivalent to an operation using the touch panel, for example, a drag operation such as dragging a finger on the screen, a screen It can be substituted by flicking such as paying a finger above.

<4−2>
上記実施形態では、クリック移動操作の操作量に応じて、画像処理部43により選択対象画像の移動量及び/又は変形量が決定されるようになっていた。しかしながら、このような制御を省略し、クリック移動操作からは、移動方向及び/又は変形方向のみが自動で判断されるようにしてもよい。この場合、1回のクリック移動操作による移動量及び/又は変形量は、一定量とすることができる。
<4-2>
In the above embodiment, the movement amount and / or deformation amount of the selection target image is determined by the image processing unit 43 in accordance with the operation amount of the click movement operation. However, such control may be omitted, and only the movement direction and / or the deformation direction may be automatically determined from the click movement operation. In this case, the amount of movement and / or the amount of deformation by one click movement operation can be a constant amount.

<4−3>
上述の重ね合わせ処理は、タイムラインという管理単位を持たずに複数の静止画を管理している画像処理プログラムにおいても、実装可能である。ただし、同じ動画には、注目している対象物の形状について、類似の画像が含まれる可能性が高い。従って、上記実施形態のように、同じ動画に含まれる画像を選択し易いような工夫がされていることが望ましい。また、上記実施形態では、任意のタイムラインの中から対象画像及び基準画像を選択できることとしたが、以上の観点からは、対象画像は、基準画像と同じタイムライン上からしか選択できないようにしてもよい。
<4-3>
The above superimposition processing can be implemented even in an image processing program that manages a plurality of still images without having a management unit called a timeline. However, there is a high possibility that similar images are included in the same moving image with respect to the shape of the target object. Therefore, as in the above-described embodiment, it is desirable to have a device that makes it easy to select images included in the same moving image. In the above embodiment, the target image and the reference image can be selected from an arbitrary timeline. However, from the above viewpoint, the target image can be selected only from the same timeline as the reference image. Also good.

<4−4>
上記実施形態では、重ね合わせ処理時に、対象画像を移動及び/又は変形させていたが、基準画像を移動及び/又は変形させてもよいし、両方を移動及び/又は変形させてもよい。
<4-4>
In the above-described embodiment, the target image is moved and / or deformed during the superimposition process. However, the reference image may be moved and / or deformed, and both may be moved and / or deformed.

<4−5>
半透明画像の例は、上述したものに限られない。例えば、上記実施形態では、重ね合わせられる複数の画像の全てを半透明としたが、重ね合わせられる複数の画像の一部のみを半透明とするようにしてもよい(例えば、基準画像のみ、対象画像のみ、ユーザが指定した画像のみなど)。また、半透明画像や差分画像ではなく、複数の画像を別の態様で重ね合わせてもよい。
<4-5>
The example of a translucent image is not restricted to what was mentioned above. For example, in the above-described embodiment, all of the plurality of superimposed images are made translucent, but only a part of the plurality of superimposed images may be made translucent (for example, only the reference image, the target Only images, only images specified by the user, etc.). Further, instead of the translucent image or the difference image, a plurality of images may be superimposed in another manner.

<4−6>
上記実施形態では、平行移動、拡大/縮小、回転変形、回転移動及び歪み変形の移動及び/又は変形の種別は、キーボード22上の特定のキーの押下により区別された。しかしながら、画面上の仮想ボタンの押下により、モードを切り替えるようにしてもよい。
<4-6>
In the above embodiment, the types of translation and enlargement / reduction, rotational deformation, rotational movement and distortion deformation and / or deformation are distinguished by pressing a specific key on the keyboard 22. However, the mode may be switched by pressing a virtual button on the screen.

<4−7>
上記実施形態における対象画像の変形の態様は、例示であり、その他の方法で対象画像を変形させることも可能である。例えば、台形に歪ませるように画像を変形することも可能である。
<4-7>
The deformation | transformation aspect of the target image in the said embodiment is an illustration, and it is also possible to deform | transform a target image by the other method. For example, the image can be deformed so as to be distorted into a trapezoid.

<4−8>
上記実施形態では、移動及び/又は変形のパラメータの指定は、クリック移動による直感的な操作と、数値を用いた定量的な指定の操作とにより実現されるようになっていたが、最初の重ね合わせを自動で行うこともできる。例えば、ユーザが所定の操作を行うことにより自動の重ね合わせの実行を命じると、表示制御部41が、図19に示すように、基準画像を表示する特徴点選択ウィンドウW5を表示する。この画像において、ユーザが、重ね合わせを行いたい対象物、例えば、自動車をマウス21やキーボード22を操作して矩形状の領域Rで囲むと、画像処理部43は、この領域R中の特徴点を自動的に抽出する。また、これを受けて、表示制御部41が、図20に示すように、特徴点選択ウィンドウW5上にこれらの特徴点にマークSを付して表示する。そして、このウィンドウW5上のOKボタンが押されると、これらの特徴点が記憶される。その後、候補選択ウィンドウW4上で対象画像が選択されると、画像処理部43は、対象画像から対応する特徴点を抽出し、対応する特徴点どうしが一致するように対象画像と基準画像とを重ね合わせる。この重ね合わせ画像は、ユーザによる適当な操作を受けて、アクティブな表示ウィンドウW2内に表示され、その後、ユーザは、微調整のため、上記実施形態のように、アクティブな表示ウィンドウW2内でのこの重ね合わせ画像に対し、クリック移動による直感的な操作と数値を用いた定量的な指定の操作を行うことができる。
<4-8>
In the above embodiment, the movement and / or deformation parameter designation is realized by an intuitive operation by clicking movement and a quantitative designation operation using numerical values. Matching can also be performed automatically. For example, when the user orders execution of automatic superposition by performing a predetermined operation, the display control unit 41 displays a feature point selection window W5 for displaying a reference image as shown in FIG. In this image, when the user surrounds an object to be superimposed, for example, a car with a rectangular region R by operating the mouse 21 or the keyboard 22, the image processing unit 43 displays the feature points in the region R. Is automatically extracted. In response to this, the display control unit 41 displays the feature points with marks S on the feature point selection window W5 as shown in FIG. When the OK button on this window W5 is pressed, these feature points are stored. Thereafter, when the target image is selected on the candidate selection window W4, the image processing unit 43 extracts the corresponding feature points from the target image, and sets the target image and the reference image so that the corresponding feature points match each other. Overlapping. This superimposed image is displayed in the active display window W2 in response to an appropriate operation by the user, and then the user performs the fine adjustment in the active display window W2 as in the above embodiment. An intuitive operation by clicking movement and a quantitative designation operation using numerical values can be performed on the superimposed image.

<4−9>
上記変形例の要旨は、適宜組み合わせることが可能である。
<4-9>
The gist of the above modification can be combined as appropriate.

1 画像処理装置(コンピュータ)
2 画像処理プログラム
41 表示制御部
42 操作検出部
43 画像処理部
1 Image processing device (computer)
2 Image processing program 41 Display control unit 42 Operation detection unit 43 Image processing unit

Claims (8)

複数の画像に捉えられた対象物の像が重なり合うように、前記複数の画像を重ね合わせるための画像処理プログラムであって、
前記複数の画像に含まれる対象画像を前記複数の画像に含まれる基準画像上に重ねて表示するステップと、
前記対象画像内で1本線状の軌跡を描くユーザの操作の操作方向を検出するステップと、
前記操作方向に応じて、前記対象画像の変形方向又は回転方向を決定し、前記対象画像を前記変形方向又は前記回転方向に変形又は回転させた処理画像を生成するステップと、
前記処理画像を前記基準画像上に重ねて表示するステップと
をコンピュータに実行させる、
画像処理プログラム。
An image processing program for superimposing the plurality of images so that images of an object captured by the plurality of images overlap.
Displaying the target images included in the plurality of images superimposed on a reference image included in the plurality of images;
Detecting an operation direction of a user's operation for drawing a single-line trajectory in the target image;
Determining a deformation direction or a rotation direction of the target image according to the operation direction, and generating a processed image obtained by deforming or rotating the target image in the deformation direction or the rotation direction;
Causing the computer to execute a step of displaying the processed image superimposed on the reference image.
Image processing program.
前記ユーザの操作の前記操作方向への操作量を検出するステップ
をさらにコンピュータに実行させ、
前記処理画像を生成するステップは、前記操作量に応じて、前記対象画像の変形量又は回転量をさらに決定し、前記対象画像を前記変形方向又は前記回転方向に前記変形量又は前記回転量だけ変形又は回転させた前記処理画像を生成するステップである、
請求項1に記載の画像処理プログラム。
Further causing the computer to execute a step of detecting an operation amount of the user operation in the operation direction,
The step of generating the processed image further determines a deformation amount or a rotation amount of the target image according to the operation amount, and determines the target image by the deformation amount or the rotation amount in the deformation direction or the rotation direction. Generating the transformed or rotated processed image;
The image processing program according to claim 1.
前記操作方向を検出するステップは、前記操作方向が、前記対象画像上の予め定められた基準点に向かう方向であるか、前記基準点から離れる方向であるかを判断するステップを含む、
請求項1又は2に記載の画像処理プログラム。
The step of detecting the operation direction includes a step of determining whether the operation direction is a direction toward a predetermined reference point on the target image or a direction away from the reference point.
The image processing program according to claim 1 or 2.
前記操作方向を検出するステップは、前記操作方向が、前記予め定められた方向であるか、前記予め定められた方向と反対方向であるかを判断するステップを含む、
請求項1から3のいずれかに記載の画像処理プログラム。
The step of detecting the operation direction includes a step of determining whether the operation direction is the predetermined direction or a direction opposite to the predetermined direction.
The image processing program according to claim 1.
前記対象画像を前記基準画像上に重ねて表示するステップは、前記対象画像と前記基準画像との差分画像、又は前記対象画像及び前記基準画像の少なくとも一方を半透明にした画像を表示するステップである、
請求項1から4のいずれかに記載の画像処理プログラム。
The step of displaying the target image superimposed on the reference image is a step of displaying a difference image between the target image and the reference image, or an image in which at least one of the target image and the reference image is translucent. is there,
The image processing program according to claim 1.
同じ動画に含まれる前記複数の画像の中から、前記対象画像及び前記基準画像を選択するステップ
をさらにコンピュータに実行させる、
請求項1から5のいずれかに記載の画像処理プログラム。
Causing the computer to further execute a step of selecting the target image and the reference image from the plurality of images included in the same moving image.
The image processing program according to claim 1.
前記変形の態様には、拡大/縮小、歪ませること、及び前記対象画像に平行な面内で延びる軸周りの回転の少なくとも1つが含まれる、
請求項1から6のいずれかに記載の画像処理プログラム。
The deformation mode includes at least one of enlargement / reduction, distortion, and rotation around an axis extending in a plane parallel to the target image.
The image processing program according to claim 1.
複数の画像に捉えられた対象物の像が重なり合うように、前記複数の画像を重ね合わせるための画像処理装置であって、
前記複数の画像に含まれる対象画像を前記複数の画像に含まれる基準画像上に重ねて表示する表示制御部と、
前記対象画像内で1本線状の軌跡を描くユーザの操作の操作方向を検出する操作検出部と、
前記操作方向に応じて、前記対象画像の変形方向又は回転方向を決定し、前記対象画像を前記変形方向又は前記回転方向に変形又は回転させた処理画像を生成する画像処理部と
を備え、
前記表示制御部は、前記処理画像を前記基準画像上に重ねて表示する、
画像処理装置。
An image processing apparatus for superimposing the plurality of images so that images of an object captured by the plurality of images overlap.
A display control unit that displays the target images included in the plurality of images superimposed on a reference image included in the plurality of images;
An operation detection unit that detects an operation direction of a user's operation that draws a single-line trajectory in the target image;
An image processing unit that determines a deformation direction or a rotation direction of the target image according to the operation direction, and generates a processed image obtained by deforming or rotating the target image in the deformation direction or the rotation direction;
The display control unit displays the processed image so as to overlap the reference image.
Image processing device.
JP2013055384A 2013-03-18 2013-03-18 Image processing program and image processing apparatus Active JP6142598B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013055384A JP6142598B2 (en) 2013-03-18 2013-03-18 Image processing program and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013055384A JP6142598B2 (en) 2013-03-18 2013-03-18 Image processing program and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2014182481A true JP2014182481A (en) 2014-09-29
JP6142598B2 JP6142598B2 (en) 2017-06-07

Family

ID=51701156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013055384A Active JP6142598B2 (en) 2013-03-18 2013-03-18 Image processing program and image processing apparatus

Country Status (1)

Country Link
JP (1) JP6142598B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04301843A (en) * 1991-03-29 1992-10-26 Toppan Printing Co Ltd Image layout device
JP2010176329A (en) * 2009-01-28 2010-08-12 Sony Corp Information processing apparatus, animation addition method, and program
JP2011151795A (en) * 2009-12-21 2011-08-04 Olympus Imaging Corp Imaging device, method of imaging, and imaging program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04301843A (en) * 1991-03-29 1992-10-26 Toppan Printing Co Ltd Image layout device
JP2010176329A (en) * 2009-01-28 2010-08-12 Sony Corp Information processing apparatus, animation addition method, and program
JP2011151795A (en) * 2009-12-21 2011-08-04 Olympus Imaging Corp Imaging device, method of imaging, and imaging program

Also Published As

Publication number Publication date
JP6142598B2 (en) 2017-06-07

Similar Documents

Publication Publication Date Title
JP6742869B2 (en) Image processing apparatus and image processing method
JP5429060B2 (en) Display control apparatus, display control method, display control program, and recording medium on which this display control program is recorded
JP5975794B2 (en) Display control apparatus, display control method, program, and storage medium
US20210240316A1 (en) Non-transitory computer-readable medium and device for book display
JP2012243007A (en) Image display device and image area selection method using the same
JP2003271665A (en) Graphical user interface for retrieval
US20100097339A1 (en) Image processing apparatus, image processing method, and program
JP2011128962A (en) Information processing apparatus and method, and computer program
JPWO2018198703A1 (en) Display device
JP5220157B2 (en) Information processing apparatus, control method therefor, program, and storage medium
CN105912101B (en) Projection control method and electronic equipment
US9753548B2 (en) Image display apparatus, control method of image display apparatus, and program
JP2011145881A (en) Device and method for controlling display
JP6182885B2 (en) Image processing program and image processing apparatus
US20130194311A1 (en) Image reproducing apparatus
JP6142598B2 (en) Image processing program and image processing apparatus
US20200341608A1 (en) Method of panning image
WO2013145993A1 (en) Electronic device, related information display method and program
JP6779778B2 (en) Display control device and its control method
JP6362110B2 (en) Display control device, control method therefor, program, and recording medium
JP4309819B2 (en) Video editing device
JP5799818B2 (en) Image processing program and image processing apparatus
JP2012133459A (en) Apparatus, method and program for estimating image, and computer-readable recording medium storing the program
WO2021010069A1 (en) Screen image transition information generation device, screen image transition information generation method, screen image transition information generation program, and screen image transition information generation system
JP2006023960A (en) Method for identifying shoe sole pattern from incomplete shoe sole image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170424

R150 Certificate of patent or registration of utility model

Ref document number: 6142598

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250