JP5799818B2 - Image processing program and image processing apparatus - Google Patents

Image processing program and image processing apparatus Download PDF

Info

Publication number
JP5799818B2
JP5799818B2 JP2012004440A JP2012004440A JP5799818B2 JP 5799818 B2 JP5799818 B2 JP 5799818B2 JP 2012004440 A JP2012004440 A JP 2012004440A JP 2012004440 A JP2012004440 A JP 2012004440A JP 5799818 B2 JP5799818 B2 JP 5799818B2
Authority
JP
Japan
Prior art keywords
image
images
image processing
difference
superimposed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012004440A
Other languages
Japanese (ja)
Other versions
JP2013143108A (en
Inventor
北 耕次
耕次 北
由紀子 村田
由紀子 村田
宮本 高宏
高宏 宮本
由美子 中川
由美子 中川
智生 中野
智生 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Precision Co Ltd
Original Assignee
NK Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NK Works Co Ltd filed Critical NK Works Co Ltd
Priority to JP2012004440A priority Critical patent/JP5799818B2/en
Publication of JP2013143108A publication Critical patent/JP2013143108A/en
Application granted granted Critical
Publication of JP5799818B2 publication Critical patent/JP5799818B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)

Description

本発明は、画像処理プログラムおよび画像処理装置に関する。   The present invention relates to an image processing program and an image processing apparatus.

従来より、複数の画像を重ね合わせる多くの画像処理プログラムが提案されており、種々の用途で使用されている。例えば、特許文献1では、製品の検査のために、2つの画像を重ね合わせる画像処理が開示されている。   Conventionally, many image processing programs for superposing a plurality of images have been proposed and used for various purposes. For example, Patent Document 1 discloses image processing for superimposing two images for product inspection.

特開2011−20455号公報JP 2011-20455 A

ところで、画像の重ね合わせは、2つの画像の比較、あるいは画像の鮮明化のために行われることがあるが、いずれの場合にも、対象物を一致させたり、所望の位置に配置するために正確な重ね合わせが必要になる。しかしながら、画像処理装置による重ね合わせには限界があり、マニュアルでの重ね合わせも併用する必要があるが、例えば、画像が不鮮明な状態であれば、マニュアルによる重ね合わせも容易ではない。そのため、容易で且つ正確な重ね合わせを行うことができる方法が要望されていた。   By the way, the image superposition may be performed for comparison of two images or for sharpening of the image. In any case, in order to match the objects or to arrange them at a desired position. Accurate overlay is required. However, there is a limit to superposition by the image processing apparatus, and manual superposition needs to be used together. For example, if an image is unclear, manual superposition is not easy. Therefore, there has been a demand for a method capable of performing easy and accurate overlay.

本発明は、上記問題を解決するためになされたものであり、画像の重ね合わせを容易に且つ正確に行うことができる、画像処理プログラムおよび画像処理装置を提供することを目的とする。   The present invention has been made to solve the above problems, and an object thereof is to provide an image processing program and an image processing apparatus capable of easily and accurately superimposing images.

本発明に係る画像処理プログラムは、複数の画像を重ね合わせるステップと、重ね合わせた前記各画像の画素値の差分からなる差分画像を生成するステップと、前記差分画像を表示した状態で、前記複数の画像の位置決めのための入力をユーザから受け付けるステップと、をコンピュータに実行させる。   The image processing program according to the present invention includes a step of superimposing a plurality of images, a step of generating a difference image including a difference between pixel values of the superimposed images, and the plurality of images in a state where the difference image is displayed. Receiving from the user an input for positioning the image of the user.

この構成によれば、複数の画像を重ね合わせるに当たって、各画像の差分画像を生成し、これを表示しながら、両画像の位置決めを行えるようにしているため、例えば、2つの画像中の対象物を一致させる位置決めは、差分画像において差分が生じている箇所がなくなるように行えばよい。したがって、複数の画像の重ね合わせを、容易に且つ正確に行うことができる。   According to this configuration, when a plurality of images are superimposed, a difference image of each image is generated, and the two images can be positioned while being displayed. For example, an object in two images is displayed. Positioning to match may be performed such that there are no differences in the difference image. Therefore, a plurality of images can be easily and accurately superimposed.

上記複数の画像の位置決めは、種々の方法で行うことができるが、例えば、複数の画像の少なくとも一つを移動、拡大、縮小、回転、または歪ませることで行うことができる。   The positioning of the plurality of images can be performed by various methods. For example, at least one of the plurality of images can be moved, enlarged, reduced, rotated, or distorted.

上記複数の画像を重ね合わせるステップでは、各画像の特徴点を一致させるように、両画像を重ね合わせることができる。このようにすると、複数の画像の特徴点に基づいて、これらを自動的に重ね合わせることができるため、ユーザによる初期的な重ね合わせの作業を省略することができる。このとき、複数の画像を重ね合わせるステップでは、複数の画像の一つにおいて、特徴点を含む領域の選択をユーザから受け付けるステップと、選択された領域の特徴点が、他の画像の特徴点に一致するように、複数の画像を重ね合わせるステップと、で構成することができる。したがって、特徴点の存在する領域をユーザが任意に設定することができるため、重ね合わせの精度を向上することができる。   In the step of superimposing the plurality of images, both images can be superimposed so that the feature points of the images match. In this way, since these can be automatically superimposed based on the feature points of a plurality of images, the initial overlay operation by the user can be omitted. At this time, in the step of superimposing a plurality of images, in one of the plurality of images, a step of accepting selection of a region including a feature point from a user, and a feature point of the selected region is used as a feature point of another image. And a step of superimposing a plurality of images so as to coincide with each other. Therefore, since the user can arbitrarily set the region where the feature points exist, the overlay accuracy can be improved.

上記画像処理プログラムでは、複数の画像を重ね合わせるステップに先立って、当該複数の画像の少なくとも一つの選択をユーザから受け付けるステップを、さらに備えることができる。したがって、重ね合わすべき画像を、ユーザが任意に選択することができる。このほか、画像の選択を任意の設定に基づいて、自動で行うこともできる。   The image processing program can further include a step of accepting at least one selection of the plurality of images from the user prior to the step of superimposing the plurality of images. Therefore, the user can arbitrarily select an image to be superimposed. In addition, the image can be automatically selected based on an arbitrary setting.

本発明に係る画像処理装置は、複数の画像を重ね合わせる画像重ね合わせ部と、重ね合わせた前記複数の画像の画素値の差分からなる差分画像を作成する差分画像作成部と、前記差分画像を表示した状態で、前記複数の画像の位置決めのための入力をユーザから受け付ける位置決め受付部と、を備えている。   An image processing apparatus according to the present invention includes an image superimposing unit that superimposes a plurality of images, a difference image creating unit that creates a difference image composed of pixel values of the superimposed images, and the difference image. A positioning receiving unit that receives input for positioning the plurality of images from a user in the displayed state.

本発明によれば、画像の重ね合わせを容易に且つ正確に行うことができる。   According to the present invention, images can be easily and accurately superimposed.

本発明の一実施形態に係る画像処理装置のブロック図である。1 is a block diagram of an image processing apparatus according to an embodiment of the present invention. 画像データが取り込まれる前の基本画面の図である。It is a figure of the basic screen before image data is taken in. 画像データが取り込まれた後の基本画面の図である。It is a figure of the basic screen after image data was taken in. 重ね合わせのためのダイアログボックスを示す図である。It is a figure which shows the dialog box for superimposition. 画像選択ウィンドウを示す図である。It is a figure which shows an image selection window. 画像選択ウィンドウを示す図である。It is a figure which shows an image selection window. 画像選択ウィンドウを示す図である。It is a figure which shows an image selection window. 重ね合わせのためのダイアログボックスを示す図である。It is a figure which shows the dialog box for superimposition. 表示ウィンドウにおいて画像の重ね合わせが表示された例を示す図である。It is a figure which shows the example by which the superimposition of the image was displayed in the display window. 図9の差分画像を示す図である。It is a figure which shows the difference image of FIG. 図10の差分画像において、画像の位置決めを行った図である。It is the figure which performed the positioning of the image in the difference image of FIG. 図11で差分による表示をしていない重ね合わせを示す図である。It is a figure which shows the superimposition which is not displayed by the difference in FIG. 画像の回転の例を示す図である。It is a figure which shows the example of rotation of an image. 回転により重ね合わされた画像の例を示す図である。It is a figure which shows the example of the image superimposed by rotation. 画像のゆがみの例を示す図である。It is a figure which shows the example of the distortion of an image. 画像選択ウィンドウを示す図である。It is a figure which shows an image selection window. 重ね合わせのためのダイアログボックスを示す図である。It is a figure which shows the dialog box for superimposition. 表示ウィンドウにおいて画像の重ね合わせが表示された例を示す図である。It is a figure which shows the example by which the superimposition of the image was displayed in the display window. 図18の差分画像を示す図である。It is a figure which shows the difference image of FIG. 自動での重ね合わせに用いるウィンドウの例を示す図である。It is a figure which shows the example of the window used for automatic superimposition. 特徴点が示された図20のウィンドウを示す図である。It is a figure which shows the window of FIG. 20 in which the feature point was shown. 図21の特徴点を利用して画像の重ね合わせを行った例である。It is the example which performed the superimposition of the image using the feature point of FIG.

以下、本発明の一実施形態に係る画像処理プログラムおよび画像処理装置について、図面を参照しつつ説明する。図1は、本発明の一実施形態に係る画像処理装置のブロック図である。本実施形態に係る画像処理プログラム及び画像処理装置は、複数の画像を重ね合わせる際に用いられる。なお、以下では、画像処理の対象となる画像をフレーム画像、または単に画像と称することがある。
<1.画像処理装置の概要>
図1に示すように、本実施形態に係る画像処理装置1としては、汎用のパーソナルコンピュータを用いることができる。この画像処理装置1には、本発明に係る画像処理プログラムの一実施形態である画像処理プログラム2がインストールされている。画像処理プログラム2は、動画および静止画に対する画像処理を支援するためのアプリケーションソフトウェアであり、画像処理装置1に後述する動作に含まれるステップを実行させる。
Hereinafter, an image processing program and an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of an image processing apparatus according to an embodiment of the present invention. The image processing program and the image processing apparatus according to the present embodiment are used when a plurality of images are superimposed. Hereinafter, an image to be subjected to image processing may be referred to as a frame image or simply an image.
<1. Overview of Image Processing Device>
As shown in FIG. 1, a general-purpose personal computer can be used as the image processing apparatus 1 according to the present embodiment. The image processing apparatus 1 is installed with an image processing program 2 that is an embodiment of an image processing program according to the present invention. The image processing program 2 is application software for supporting image processing for moving images and still images, and causes the image processing apparatus 1 to execute steps included in the operations described later.

画像処理装置1は、ディスプレイ10、入力部20、記憶部30および制御部40を有し、これらは、相互に通信可能となるようにバス線5で接続されている。本実施形態では、ディスプレイ10は、液晶ディスプレイであり、後述する画面等をユーザに対し表示する。入力部20は、マウスおよびキーボート等から構成され、画像処理装置1に対するユーザからの操作を受け付ける。また、記憶部30は、不揮発性のハードディスク等から構成され、制御部40は、CPU、ROMおよび揮発性のRAM等から構成される。   The image processing apparatus 1 includes a display 10, an input unit 20, a storage unit 30, and a control unit 40, which are connected by a bus line 5 so as to be able to communicate with each other. In the present embodiment, the display 10 is a liquid crystal display, and displays a screen or the like to be described later to the user. The input unit 20 includes a mouse and a keyboard, and accepts an operation from the user for the image processing apparatus 1. The storage unit 30 includes a nonvolatile hard disk, and the control unit 40 includes a CPU, a ROM, a volatile RAM, and the like.

記憶部30内には、画像処理プログラム2、ソフトウェア管理領域50が確保されている。このソフトウェア管理領域50は、画像処理プログラム2が使用する領域である。また、ソフトウェア管理領域50内には、オリジナル画像領域51、基準画像領域52、選択画像領域53、及び処理後画像領域54が確保されている。各領域51〜54の役割については、後述する。   In the storage unit 30, an image processing program 2 and a software management area 50 are secured. The software management area 50 is an area used by the image processing program 2. In the software management area 50, an original image area 51, a reference image area 52, a selected image area 53, and a post-processing image area 54 are secured. The role of each of the areas 51 to 54 will be described later.

制御部40は、記憶部30内に格納されている画像処理プログラム2を読み出して実行することにより、仮想的に画像選択部41、画像重ね合わせ部42、差分画像生成部43、画像位置決め部44、及び画像生成部45として動作する。各部41〜45の動作については、後述する。   The control unit 40 reads and executes the image processing program 2 stored in the storage unit 30, so that the image selection unit 41, the image superposition unit 42, the difference image generation unit 43, and the image positioning unit 44 are virtually executed. , And the image generation unit 45. The operation of each unit 41 to 45 will be described later.

<2.画像処理装置の構成および動作の詳細>
制御部40は、ユーザが入力部20を介して所定の操作を行ったことを検知すると、画像処理プログラム2を起動する。画像処理プログラム2が起動されると、基本画面W1(図2参照)がディスプレイ10上に表示される。なお、制御部40は、ディスプレイ10上に表示される画面、ウィンドウ、ボタンその他の全ての要素の表示を制御する。
<2. Details of Configuration and Operation of Image Processing Apparatus>
When the control unit 40 detects that the user has performed a predetermined operation via the input unit 20, the control unit 40 activates the image processing program 2. When the image processing program 2 is activated, a basic screen W1 (see FIG. 2) is displayed on the display 10. The control unit 40 controls display of all elements such as a screen, a window, a button, and the like displayed on the display 10.

<2−1.画像データの取り込み>
基本画面W1は、オリジナル画像領域51への画像データの取り込みの命令をユーザから受け付ける。オリジナル画像領域51へ取り込まれた画像データは、後述する画像処理の対象になる。制御部40は、静止画ファイル又は動画ファイルから、オリジナル画像領域51へ画像データを取り込む。なお、本明細書において、静止画ファイルとは、静止画形式のデータファイルであり、動画ファイルとは、動画形式のデータファイルである。
<2-1. Importing image data>
The basic screen W1 accepts a command for capturing image data into the original image area 51 from the user. The image data captured in the original image area 51 is a target of image processing to be described later. The control unit 40 captures image data from the still image file or the moving image file into the original image area 51. In this specification, a still image file is a data file in a still image format, and a moving image file is a data file in a moving image format.

静止画ファイルから画像データを取り込む場合、ユーザは、入力部20を操作することにより、1の静止画ファイルを指定するか、又は1のフォルダを指定する。前者の場合、制御部40は、その静止画ファイルの記憶部30内のアドレスパスおよびファイル名をユーザに入力させる。後者の場合、制御部40は、そのフォルダの記憶部30内のアドレスパスおよびフォルダ名をユーザに入力させる。その後、制御部40は、指定された1の静止画ファイル又は指定された1のフォルダ内の全ての静止画ファイルを、オリジナル画像領域51に静止画ファイル群として保存する。   When capturing image data from a still image file, the user operates the input unit 20 to specify one still image file or one folder. In the former case, the control unit 40 causes the user to input the address path and file name in the storage unit 30 of the still image file. In the latter case, the control unit 40 allows the user to input the address path and folder name in the storage unit 30 of the folder. Thereafter, the control unit 40 stores the specified one still image file or all the still image files in the specified one folder as a still image file group in the original image area 51.

一方、動画ファイルから画像データを取り込む場合、ユーザは、入力部20を操作することにより、1の動画ファイルの記憶部30内のアドレスパスおよびファイル名を入力する。制御部40は、ユーザが動画ファイルを指定したことを検知すると、基本画面W1上に動画取込みウィンドウ(図示されない)を重ねて表示させる。動画取込みウィンドウは、指定された動画ファイルの全タイムラインのうち、任意の長さのタイムラインの選択をユーザから受け付ける。制御部40は、ユーザが入力部20を介して任意の長さのタイムラインの選択を行ったことを検知すると、その選択に対応する静止画ファイル群を生成する。この静止画ファイル群は、ユーザの選択に係るタイムラインの動画に含まれるフレーム群に1対1で対応する。その後、制御部40は、この静止画ファイル群をオリジナル画像領域51に保存する。   On the other hand, when capturing image data from a moving image file, the user operates the input unit 20 to input the address path and file name in the storage unit 30 of one moving image file. When the control unit 40 detects that the user has specified a moving image file, the control unit 40 displays a moving image capturing window (not shown) in an overlapping manner on the basic screen W1. The moving image capture window accepts selection of a time line of an arbitrary length from the user among all time lines of the specified moving image file. When the control unit 40 detects that the user has selected a timeline having an arbitrary length via the input unit 20, the control unit 40 generates a still image file group corresponding to the selection. This still image file group has a one-to-one correspondence with the frame group included in the moving image of the timeline related to the user's selection. Thereafter, the control unit 40 stores the still image file group in the original image area 51.

したがって、本実施形態では、後述する画像処理の対象は、動画ファイルではなく、静止画ファイルである。静止画ファイルは、オリジナル画像領域51へファイル単位、フォルダ単位、あるいは動画ファイルの全部又は一部のタイムライン単位で取り込まれる。   Therefore, in the present embodiment, the target of image processing to be described later is not a moving image file but a still image file. The still image file is taken into the original image area 51 in file units, folder units, or all or part of time line units of moving image files.

<2−2.静止画ファイル群の再生>
オリジナル画像領域51へ静止画ファイル群が取り込まれると、制御部40は、基本画面W1上に表示ウィンドウW2(図3参照)を重ねて表示させる。表示ウィンドウW2は、オリジナル画像領域51への静止画ファイル群の取り込み動作の数だけ、表示される。
<2-2. Playback of still image files>
When the still image file group is taken into the original image area 51, the control unit 40 displays the display window W2 (see FIG. 3) on the basic screen W1. The display windows W2 are displayed as many times as the number of operations for taking still image file groups into the original image area 51.

表示ウィンドウW2内には、まず、オリジナル画像領域51へ取り込まれた静止画ファイル群に含まれる1の静止画ファイル(例えば、タイムライン上で先頭のフレームに対応する静止画ファイル)が表示される。なお、制御部40は、静止画ファイル群が動画ファイルに由来するものではなく、静止画ファイルに由来するものであっても、静止画ファイル群に含まれる静止画ファイルをタイムラインに沿って配列されているものと認識する。配列は、ファイルの属性(ファイル名、作成日時、更新日時等)から自動的に判断される。   First, one still image file (for example, a still image file corresponding to the first frame on the timeline) included in the still image file group captured in the original image area 51 is displayed in the display window W2. . Note that the control unit 40 arranges the still image files included in the still image file group along the timeline even if the still image file group is not derived from the moving image file but derived from the still image file. It is recognized that The array is automatically determined from file attributes (file name, creation date, update date, etc.).

後述するとおり、表示ウィンドウW2内に表示されるフレームは、ユーザの操作を受けて切り替わる。制御部40は、表示ウィンドウW2内に現在表示されているフレームの識別情報をリアルタイムに管理する。   As will be described later, the frame displayed in the display window W2 is switched in response to a user operation. The control unit 40 manages the identification information of the frame currently displayed in the display window W2 in real time.

制御部40は、表示ウィンドウW2内で、その表示ウィンドウW2に対応する静止画ファイル群を、動画として再生可能である。図3に示すとおり、基本画面W1上には、ウィンドウ選択プルダウンメニューT1、再生ボタンT2、コマ送りボタンT3、コマ戻しボタンT4およびタイムラインバーT5が配置されている。   The control unit 40 can reproduce the still image file group corresponding to the display window W2 as a moving image in the display window W2. As shown in FIG. 3, a window selection pull-down menu T1, a playback button T2, a frame advance button T3, a frame return button T4, and a timeline bar T5 are arranged on the basic screen W1.

表示ウィンドウW2が複数存在する場合であっても、アクティブな表示ウィンドウW2は1つである。制御部40は、ウィンドウ選択プルダウンメニューT1を介し、どの表示ウィンドウW2をアクティブとするかの選択をユーザから受け付ける。以下、アクティブな表示ウィンドウW2に対応する静止画ファイル群を、アクティブファイル群と呼ぶ。また、アクティブな表示ウィンドウW2内に現在表示されているフレームを、アクティブ表示フレームと呼ぶ。   Even when there are a plurality of display windows W2, there is only one active display window W2. The control unit 40 receives a selection of which display window W2 is to be activated from the user via the window selection pull-down menu T1. Hereinafter, the still image file group corresponding to the active display window W2 is referred to as an active file group. A frame currently displayed in the active display window W2 is referred to as an active display frame.

再生ボタンT2は、アクティブファイル群の動画としての再生の命令をユーザから受け付ける。制御部40は、ユーザが入力部20を介して再生ボタンT2を押下したことを検知すると、アクティブな表示ウィンドウW2内に、アクティブファイル群のフレームをタイムラインに沿って順次コマ送りの形式で表示させる。なお、再生は、再生ボタンT2が押下された時点のアクティブ表示フレームから開始する。また、再生ボタンT2は、再生の停止の命令をユーザから受け付ける。制御部40は、再生中にユーザが入力部20を介して再生ボタンT2を押下したことを検知すると、アクティブな表示ウィンドウW2内の表示を、その時点のアクティブ表示フレームに固定する。   The playback button T2 accepts a playback command from the user as a moving image of the active file group. When the control unit 40 detects that the user has pressed the play button T2 via the input unit 20, the control unit 40 displays the frames of the active file group sequentially in the frame advance format along the timeline in the active display window W2. Let Note that the reproduction starts from the active display frame at the time when the reproduction button T2 is pressed. The playback button T2 accepts a playback stop command from the user. When the control unit 40 detects that the user has pressed the playback button T2 via the input unit 20 during playback, the control unit 40 fixes the display in the active display window W2 to the active display frame at that time.

コマ送りボタンT3、コマ戻しボタンT4はそれぞれ、アクティブ表示フレームを、アクティブファイル群のタイムラインに沿って1つ後、1つ前のフレームへ切り替える命令をユーザから受け付ける。   Each of the frame advance button T3 and the frame return button T4 receives an instruction from the user to switch the active display frame to the next previous frame along the timeline of the active file group.

タイムラインバーT5は、アクティブファイル群のタイムラインを図式的に表す。タイムラインバーT5は、そのバーが延びる方向に、アクティブファイル群のフレーム数で等分に分割されている。タイムラインバーT5上の左からn番目の分割領域は、アクティブファイル群のタイムライン上でn番目のフレームに対応する(nは、自然数)。   The timeline bar T5 schematically represents the timeline of the active file group. The timeline bar T5 is equally divided by the number of frames of the active file group in the direction in which the bar extends. The nth divided area from the left on the timeline bar T5 corresponds to the nth frame on the timeline of the active file group (n is a natural number).

図3に示すように、タイムラインバーT5は、選択フレーム群に対応する分割領域A1と、非選択フレーム群に対応する分割領域A2とを異なる態様で表示する。選択フレーム群とは、アクティブファイル群のタイムライン上で現在選択されている区間に対応するフレーム群である。非選択フレーム群とは、アクティブファイル群のタイムライン上で現在選択されていない区間に対応するフレーム群である。本実施形態では、領域A1は、薄いトーンの色で表示され、領域A2は、濃いトーンの色で表示される。画像選択部41は、タイムラインバーT5を介し、アクティブファイル群のタイムライン上の任意の区間の選択をユーザから受け付ける。例えば、タイムラインバーT5でマウスをクリックまたはドラッグすることで、任意のフレームまたは区間を選択することができる。そして、後述するように、この選択フレーム群のうちの一つの一つのフレーム画像に対して画像処理が行われる。   As shown in FIG. 3, the timeline bar T5 displays the divided area A1 corresponding to the selected frame group and the divided area A2 corresponding to the non-selected frame group in different modes. The selected frame group is a frame group corresponding to the currently selected section on the timeline of the active file group. The non-selected frame group is a frame group corresponding to a section that is not currently selected on the timeline of the active file group. In the present embodiment, the area A1 is displayed with a light tone color, and the area A2 is displayed with a dark tone color. The image selection unit 41 receives a selection of an arbitrary section on the timeline of the active file group from the user via the timeline bar T5. For example, an arbitrary frame or section can be selected by clicking or dragging the mouse on the timeline bar T5. Then, as will be described later, image processing is performed on one frame image of the selected frame group.

<2−3.画像処理>
以下、選択フレーム群に対する画像処理について説明する。ここでは、鮮明化や比較を行うために、複数のフレーム画像を重ね合わせる画像処理について説明する。上述した画像選択部41、画像重ね合わせ部42、差分画像生成部43、及び画像位置決め部45、及び画像生成部46は、画像の重ね合わせ処理のための画像処理モジュールを実行可能である。そして、画像処理モジュールは、画像処理プログラム2に組み込まれている。
<2-3. Image processing>
Hereinafter, image processing for the selected frame group will be described. Here, image processing for superimposing a plurality of frame images for sharpening and comparison will be described. The image selection unit 41, the image superimposing unit 42, the difference image generating unit 43, the image positioning unit 45, and the image generating unit 46 described above can execute an image processing module for image superimposing processing. The image processing module is incorporated in the image processing program 2.

ユーザは、入力部20を介して基本画面W1を操作することにより、タイムラインの中で画像処理の対象となるフレームを選択する。なお、2以上のフレームからなるフレーム群が選択された場合には、そのフレーム群の最後尾のフレーム画像が対象となる。但し、最後尾以外の任意のフレーム画像を対象とすることもできる。   The user operates the basic screen W1 via the input unit 20 to select a frame to be subjected to image processing in the timeline. When a frame group consisting of two or more frames is selected, the last frame image of the frame group is targeted. However, any frame image other than the tail can be targeted.

こうして、フレーム画像が選択された状態で、画像選択部41が、基本画面W1のプルダウンメニューなどから重ね合わせの画像処理が選択されたことを検知すると、上記のように選択されたフレーム画像を基準画像として、基準画像領域52に記憶し、その上で、図4のようなダイアログボックスD1を表示する。このダイアログボックスD1で「追加」ボタンをクリックすると、図5に示すような画像選択ウィンドウW3が表示される。この画像選択ウィンドウW3は、図3の基本画面W1と同様に、タイムラインバーT0、再生ボタンT1等を有しており、タイムラインの画像群を再生可能である。このウィンドウW3の中の上部左側に配置されているパネルは、上述した基準画像が表示される基準画像パネルP1であり、その右側に配置されているパネルが重ね合わせの対象となる画像を表示するプレビューパネルP2である。この状態では、未だ画像が選択されていないため、基準画像パネルP1と同じ画像が表示されている。また、タイムラインバーT0には、現在選択されているフレームが選択フレームとしてグレーで示され(符号B)、基準画像として選択されているフレームを示す箇所には、下半分が着色されて示されている(符号C)。   Thus, when the image selection unit 41 detects that the image processing for superimposition has been selected from the pull-down menu on the basic screen W1 in a state where the frame image is selected, the frame image selected as described above is used as a reference. The image is stored in the reference image area 52, and a dialog box D1 as shown in FIG. 4 is displayed thereon. When the “Add” button is clicked in this dialog box D1, an image selection window W3 as shown in FIG. 5 is displayed. Similar to the basic screen W1 of FIG. 3, the image selection window W3 includes a timeline bar T0, a reproduction button T1, and the like, and can reproduce a group of images on the timeline. The panel arranged on the upper left side in the window W3 is the reference image panel P1 on which the above-described reference image is displayed, and the panel arranged on the right side displays an image to be superimposed. This is a preview panel P2. In this state, since the image has not yet been selected, the same image as the reference image panel P1 is displayed. Further, in the timeline bar T0, the currently selected frame is shown in gray as a selected frame (reference symbol B), and the lower half is shown in a place indicating the frame selected as the reference image. (Reference C).

この状態でタイムラインバーT0のいずれかの箇所を選択すると、選択された箇所がグレーになり(符号B)、図6に示すように、プレビューパネルP2にそのフレーム画像が表示される。こうして、フレームの選択をしながら、重ね合わせの対象となるフレーム画像が決定すると、「追加」ボタンをクリックする。これにより、図7に示すように、タイムラインバーT0において選択された画像のフレームの位置が着色されるとともに(符号D)、この画像が重ね合わせの対象となる選択画像として選択画像領域53に記憶される。この状態で、OKボタンをクリックすれば、図8に示すように、ダイアログボックスD1の上部に、選択画像がプレビューP3として表示される。また、選択画像のファイル名がリストとして、ダイアログボックスD1の中央のリストボックスLBに表示される。ここでは、1つの画像のみ選択しているので、リストボックスLBには一つのファイル名のみが表示される。   If any part of the timeline bar T0 is selected in this state, the selected part turns gray (reference B), and the frame image is displayed on the preview panel P2 as shown in FIG. Thus, when the frame image to be superimposed is determined while selecting the frame, the “Add” button is clicked. As a result, as shown in FIG. 7, the position of the frame of the image selected in the timeline bar T0 is colored (symbol D), and this image is displayed in the selected image region 53 as a selection image to be overlaid. Remembered. If the OK button is clicked in this state, the selected image is displayed as a preview P3 at the top of the dialog box D1, as shown in FIG. The file names of the selected images are displayed as a list in the list box LB at the center of the dialog box D1. Here, since only one image is selected, only one file name is displayed in the list box LB.

この状態で、リストボックスLBのファイル名をチェックすると、画像重ね合わせ部42は、これを検知して、図9に示すように、基準画像と選択画像が重ね合わされた画像を表示ウィンドウW2に表示する。同図において、画像の左端に2つの自動車が表されており、基準画像の自動車の画像と、選択画像の自動車の画像が一つの画像で重ね合わされているのが分かる。   If the file name in the list box LB is checked in this state, the image superimposing unit 42 detects this and displays an image in which the reference image and the selected image are superimposed on the display window W2, as shown in FIG. To do. In the figure, two cars are shown at the left end of the image, and it can be seen that the car image of the reference image and the car image of the selected image are superimposed on one image.

この状態で、ダイアログボックスD1の右上の「差分」をチェックすると、差分画像生成部43は、これを検知し、図10に示すように、2つの画像の画素値の差分による差分画像を表示ウィンドウW2に表示する。この差分画像は、2つの画像の画素値に差がない箇所は黒で示され、画素値に差がある箇所は白で表される。但し、これ以外の配色でもよい。そして、上記2つのフレーム画像は、背景は同じであるが、自動車の位置が相違するため、各画像で自動車が表示されている箇所が白で表され、その他は黒で表示されている。このように差分画像が表示されている状態で、ユーザは画像の位置決めを行うことができる。例えば、2つの画像に表示された自動車を重ね合わせる場合には、ダイアログボックスD1の下部に表示されている位置決め入力部PBに必要な数値を適宜入力する。例えば、「移動」の箇所に示されているX,Yの数値を変更すると、画像位置決め部44は、選択画像をX方向またはY方向に移動し、自動車を重ね合わせる。図11は差分画像を表示したままで自動車を重ね合わせた例を示す図である。同図に示すように、この画像において、自動車が示されている箇所には白色の部分が殆どないため、自動車の画像が重ね合わされているのが分かる。こうして、画像を任意の位置に重ねた後、ダイアログボックスD1の「差分」のチェックを外すと、差分画像生成部43は、これを検知し、図12に示すように、自動車が重ねられた画像を表示ウィンドウW2に表示する。この状態でOKボタンをクリックすると、画像生成部45は、この画像を処理後画像領域54に記憶する。すなわち、この基準画像のみが、上記のように画像処理され、タイムラインの他のフレーム画像とともに記憶される。   In this state, when “difference” in the upper right of the dialog box D1 is checked, the difference image generation unit 43 detects this, and as shown in FIG. 10, a difference image based on the difference between the pixel values of the two images is displayed in the display window. Display on W2. In this difference image, a portion where there is no difference between the pixel values of the two images is shown in black, and a portion where there is a difference between the pixel values is shown in white. However, other color schemes may be used. The two frame images have the same background, but the positions of the automobiles are different. Therefore, the location where the automobile is displayed in each image is represented in white, and the others are displayed in black. In this way, the user can position the image while the difference image is displayed. For example, when the automobiles displayed on the two images are overlapped, necessary numerical values are appropriately input to the positioning input unit PB displayed at the bottom of the dialog box D1. For example, when the numerical values of X and Y shown in the “Move” part are changed, the image positioning unit 44 moves the selected image in the X direction or the Y direction, and superimposes the automobiles. FIG. 11 is a diagram illustrating an example in which automobiles are overlaid while displaying a difference image. As shown in the figure, in this image, since there is almost no white portion in the portion where the automobile is shown, it can be seen that the images of the automobile are superimposed. In this way, after the images are overlaid at an arbitrary position, when the “difference” check box in the dialog box D1 is unchecked, the difference image generation unit 43 detects this, and as shown in FIG. Is displayed in the display window W2. When the OK button is clicked in this state, the image generation unit 45 stores this image in the processed image area 54. That is, only this reference image is subjected to image processing as described above and stored together with other frame images in the timeline.

上記説明では、重ね合わせのマニュアル操作として、ダイアログボックスD1における位置決め入力部PBの「移動」の数値を変更したが、その他の操作も可能である。この位置決め入力部PBには、移動のほか、選択画像の拡大または縮小を行う「拡縮」、回転を行う「回転」、画像を歪ませる「歪み」がある。「拡縮」を選択すると、選択画像をX方向、Y方向にそれぞれ拡大、縮小が可能であり、1より大きい値を入力すると拡大され、0より大きく1より小さい値を入力すると縮小される。   In the above description, the numerical value of “movement” of the positioning input unit PB in the dialog box D1 is changed as the manual operation for superimposition, but other operations are also possible. In addition to movement, the positioning input unit PB includes “enlargement / reduction” for enlarging or reducing the selected image, “rotation” for rotating, and “distortion” for distorting the image. When “enlarge / reduce” is selected, the selected image can be enlarged and reduced in the X direction and the Y direction, respectively. When a value larger than 1 is inputted, the selected image is enlarged, and when a value larger than 0 and smaller than 1 is inputted, the selected image is reduced.

「回転」を選択した場合、3種類の回転が可能である。Xの数値を変更すると、図13(a)に示すように、画像の上下方向の中央で水平方向に延びるX軸周りに、選択画像が回転する。Yの数値を変更すると、図13(b)に示すように、画像の左右方向の中央で垂直方向に延びるY軸周りに選択画像が回転する。そして、Zの数値を変更すると、図13(c)に示すように、画像の中央で画面から垂直に延びるZ軸周りに選択画像が回転する。Zの数値を変更した場合の例としては、図14に示すように表示される。   When “Rotation” is selected, three types of rotation are possible. When the numerical value of X is changed, as shown in FIG. 13A, the selected image is rotated around the X axis extending in the horizontal direction at the center in the vertical direction of the image. When the numerical value of Y is changed, as shown in FIG. 13B, the selected image is rotated around the Y axis extending in the vertical direction at the center in the left-right direction of the image. When the numerical value of Z is changed, as shown in FIG. 13C, the selected image is rotated around the Z axis extending vertically from the screen at the center of the image. As an example when the numerical value of Z is changed, it is displayed as shown in FIG.

「歪み」を選択した場合、2種類の変形が可能である。Hの数値として正の数を入力すると、図15(a)に示すように、画像の上辺が左側へ、画像の下辺が右側へずれながら、平行四辺形を形成するように、画像が変形する。一方、Hの数値として負の数を入力すると、上辺と下辺の変形の向きが反対になる。また、Vの数値として正の数を入力すると、図15(b)に示すように、画像の左辺が上側へ、画像の右辺が下側へずれながら、平行四辺形を形成するように、画像が変形する。一方、Vの数値として負の数を入力すると、左辺と右辺の変形の向きが反対になる。   When “distortion” is selected, two types of deformations are possible. When a positive number is input as the numerical value of H, as shown in FIG. 15A, the image is deformed so as to form a parallelogram while the upper side of the image is shifted to the left side and the lower side of the image is shifted to the right side. . On the other hand, when a negative number is input as the numerical value of H, the direction of deformation of the upper side and the lower side is reversed. When a positive number is input as the numerical value of V, as shown in FIG. 15B, the image is formed so as to form a parallelogram while the left side of the image is shifted upward and the right side of the image is shifted downward. Is deformed. On the other hand, when a negative number is input as the numerical value of V, the deformation directions of the left side and the right side are reversed.

上記の説明では、2つの画像を重ね合わせた場合について説明したが、3以上の画像を重ね合わせることができる。例えば、上述した画像選択ウィンドウW3を開いた後、タイムラインバーT0の所望の箇所を選択して追加ボタンをクリックするのを繰り返すことで、3以上のフレーム画像を選択することができる。図16に示す例では、2枚のフレーム画像が選択画像として選択されている(符号Dが2箇所ある)。この状態でOKボタンをクリックすると、図17に示すように、ダイアログボックスD1のリストボックスLBに2つのファイル名が表示される。このうち、ハイライトされているファイルがプレビューパネルP3に表示され、移動、拡縮等が可能となるので、いずれかのファイルを選択してハイライトさせた上で移動等を行うようにする。また、この例では、2つのファイルがともにチェックされているが、チェックの入っているファイルが、表示ウィンドウW2上で重ね合わされる。したがって、チェックを外せば、そのフレーム画像は、表示ウィンドウW2に表示されなくなる。図18は、3枚のフレーム画像が重ね合わされた表示ウィンドウW2の例を示している。また、ダイアログボックスD1で、「差分」にチェックを入れると、表示ウィンドウW2には、図19に示すような差分画像が表示される。この状態で、上述したように、必要に応じて、リストボックスLBのいずれかのファイルを選択して移動などを行う。   In the above description, the case where two images are superimposed has been described, but three or more images can be superimposed. For example, after the above-described image selection window W3 is opened, it is possible to select three or more frame images by repeatedly selecting a desired portion of the timeline bar T0 and clicking the add button. In the example shown in FIG. 16, two frame images are selected as the selected images (there are two signs D). When the OK button is clicked in this state, two file names are displayed in the list box LB of the dialog box D1, as shown in FIG. Among these files, the highlighted file is displayed on the preview panel P3, and can be moved, scaled, etc., so that one of the files is selected and highlighted, and then moved. In this example, both files are checked, but the checked files are superimposed on the display window W2. Therefore, if the check is removed, the frame image is not displayed on the display window W2. FIG. 18 shows an example of the display window W2 in which three frame images are superimposed. Further, when “difference” is checked in the dialog box D1, a difference image as shown in FIG. 19 is displayed in the display window W2. In this state, as described above, any file in the list box LB is selected and moved as necessary.

<3.特徴>
以上のように、本実施形態によれば、2つの画像を重ね合わせるに当たって、両画像の差分画像を生成し、これを表示しながら、両画像の位置決めを行えるようにしているため、画像の位置決めは、差分画像において差分が生じている箇所、つまり白で表示されている箇所がなくなるように行えば、対象物の重ね合わせを行うことができる。したがって、2つの画像における対象物を一致させるような画像の重ね合わせを、容易に且つ正確に行うことができる。特に、画像が不鮮明な場合には、上記のような差分画像を用いることで、対象物の一致を容易に行うことができる。
<3. Features>
As described above, according to the present embodiment, when two images are superimposed, a difference image between the two images is generated and the images can be positioned while being displayed. If the difference image is generated so that there is no difference, that is, a portion displayed in white, the objects can be superimposed. Therefore, it is possible to easily and accurately superimpose images that match the objects in the two images. In particular, when the image is unclear, it is possible to easily match the objects by using the difference image as described above.

この画像処理の用途としては、例えば、タイムラインの中で近接する2つのフレーム画像の中の対象物を重ね合わせることで、対象物を鮮明化する場合に用いることができる。また、対象物の大きさや位置を確認するのに使用することもできる。例えば、対象物が表示されているフレーム画像(基準画像)に対し、長さや大きさの基準となる物体が表示された他のフレーム画像(選択画像)を重ね合わせることで、対象物の長さや大きさを推測することができる。   As an application of this image processing, for example, it can be used when the object is sharpened by superimposing the objects in two adjacent frame images in the timeline. It can also be used to confirm the size and position of an object. For example, by superimposing a frame image (reference image) on which an object is displayed with another frame image (selected image) on which an object serving as a reference for length or size is superimposed, The size can be estimated.

<4.変形例>
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。例えば、以下の変更が可能である。
<4. Modification>
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the said embodiment, A various change is possible unless it deviates from the meaning. For example, the following changes can be made.

<4−1>
上記実施形態では、選択画像を選択したときに、基準画像に対してそのまま重ね合わせを行い、その後、マニュアルで対象物を一致させるように選択画像の位置決めを行っているが、次に説明するように、最初の重ね合わせを自動で行うこともできる。例えば、タイムライン上のいずれかのフレームを選択した状態で、基本画面W1のプルダウンメニューから自動重ね合わせのコマンドを選択すると、画像重ね合わせ部42は、図20に示すように、選択したフレーム画像を基準画像として表示する特徴点選択ウィンドウW4を表示する。この画像において、重ね合わせを行いたい対象物、つまり自動車をマウスやキーボードを操作して矩形状の領域Rで囲むと、画像重ね合わせ部42は、図21に示すように、この領域R中の特徴点を自動的に抽出し、特徴点選択ウィンドウW4に特徴点Sとして菱形の表示を表す。そして、OKボタンをクリックすると、これらの特徴点が記憶される。その後、上記実施形態と同様に、画像選択ウィンドウW3から、選択画像を選択すると、画像重ね合わせ部42は、選択画像から対応する特徴点を抽出し、選択画像の特徴点と基準画像の特徴点が一致するように、両画像を重ね合わせ、表示ウィンドウW2に表示する。図22は、重ね合わせの例である。同図に示すように、この処理によって、両画像の自動車が一致するように重ね合わされているのが分かる。こうして、初期的な重ね合わせが完了すると、微調整のため、上記実施形態のように、差分画像を表示させたり、位置決め入力部PBの数値を変更して位置決めを行うことができる。
<4-1>
In the above embodiment, when the selected image is selected, the selected image is superimposed on the reference image as it is, and then the selected image is positioned so as to manually match the object. In addition, the first overlay can be automatically performed. For example, when an automatic overlay command is selected from the pull-down menu on the basic screen W1 with any frame on the timeline selected, the image overlay unit 42 selects the selected frame image as shown in FIG. Is displayed as a reference image. In this image, when an object to be superimposed, that is, a car, is surrounded by a rectangular region R by operating a mouse or a keyboard, the image superimposing unit 42, as shown in FIG. Feature points are automatically extracted, and a rhombus is displayed as a feature point S in the feature point selection window W4. Then, when the OK button is clicked, these feature points are stored. Thereafter, as in the above embodiment, when a selected image is selected from the image selection window W3, the image superimposing unit 42 extracts a corresponding feature point from the selected image, and a feature point of the selected image and a feature point of the reference image Both images are superimposed and displayed on the display window W2 so that they match. FIG. 22 is an example of superposition. As shown in the figure, it can be seen that the automobiles in both images are superimposed so as to coincide with each other by this processing. Thus, when the initial superposition is completed, for fine adjustment, the difference image can be displayed or the numerical value of the positioning input unit PB can be changed for positioning as in the above embodiment.

<4−2>
上記実施形態では、一つのタイムラインの中から画像を選択したが、他のタイムラインから画像を選択したり、タイムラインにかかわらず、単独の静止画ファイルから複数を選択し、上述した重ね合わせの処理を行うこともできる。
<4-2>
In the above embodiment, an image is selected from one timeline, but an image is selected from another timeline, or a plurality of images are selected from a single still image file regardless of the timeline, and the above-described overlay is performed. Can also be performed.

<4−3>
画像の位置決めを行う際に、上記実施形態では、選択画像を移動等させていたが、基準画像を移動等させてもよく、要するに、基準画像及び少なくとも一つの選択画像のうちの、少なくとも一つを移動等させればよい。
<4-3>
In the above embodiment, when the image is positioned, the selected image is moved. However, the reference image may be moved, in other words, at least one of the reference image and at least one selected image. May be moved.

<4−4>
上述した差分画像の生成方法、重ね合わせの方法、特徴点の抽出方法は、特には限定されず、公知の方法を採用することができる。差分画像の生成方法としては、例えば、基準となる画素値から対象となる画像値を引き算し、その絶対値を画素値として有する画像を、差分画像とすることができる。また、重ね合わせの方法としては、例えば、基準となる画素値と対象となる画素値を足し算し、これを2で割った値を画素値として有する画像を、重ね合わせの画像とすることができる。特徴点の抽出方法としては、例えば、エッジ検出やコーナー検出などの方法を用いることができる。
<4-4>
The above-described difference image generation method, overlay method, and feature point extraction method are not particularly limited, and a known method can be employed. As a method for generating the difference image, for example, an image having the absolute value as the pixel value obtained by subtracting the target image value from the reference pixel value can be used as the difference image. In addition, as a method of superposition, for example, an image having a pixel value obtained by adding a reference pixel value and a target pixel value and dividing the sum by two can be used as a superposition image. . As a feature point extraction method, for example, a method such as edge detection or corner detection can be used.

1 画像処理装置(コンピュータ)
2 画像処理プログラム
1 Image processing device (computer)
2 Image processing program

Claims (6)

1のタイムライン上の画像群の中から複数の画像を選択するステップと、
前記選択された複数の画像を重ね合わせるステップと、
重ね合わせた前記各画像の画素値の差分からなる差分画像を生成するステップと、
前記差分画像を表示した状態で、前記複数の画像の位置決めのための入力をユーザから受け付けるステップと、
前記差分画像の表示が解除された、前記位置決め後の前記複数の画像が重ね合わされた画像を生成するステップと、
をコンピュータに実行させる、画像処理プログラム。
Selecting a plurality of images from a group of images on one timeline;
Overlaying the selected plurality of images;
Generating a difference image composed of pixel value differences of the superimposed images;
Receiving input from the user for positioning the plurality of images in a state in which the difference image is displayed;
Generating an image in which display of the difference image is canceled and the plurality of images after positioning are superimposed;
An image processing program for causing a computer to execute.
前記複数の画像の位置決めは、当該複数の画像の少なくとも一つを移動、拡大、縮小、回転、または歪ませることで位置決めが行われる、請求項1に記載の画像処理プログラム。   The image processing program according to claim 1, wherein positioning of the plurality of images is performed by moving, enlarging, reducing, rotating, or distorting at least one of the plurality of images. 前記複数の画像を重ね合わせるステップでは、当該複数の画像の特徴点を一致させるように、前記複数の画像を重ね合わせる、請求項1または2に記載の画像処理プログラム。   The image processing program according to claim 1 or 2, wherein, in the step of superimposing the plurality of images, the plurality of images are superimposed so that feature points of the plurality of images coincide with each other. 前記複数の画像を重ね合わせるステップでは、
前記複数の画像の一つにおいて、特徴点を含む領域の選択をユーザから受け付けるステップと、
選択された前記領域の特徴点が、他の画像の特徴点に一致するように、前記複数の画像を重ね合わせるステップと、
を備えている、請求項3に記載の画像処理プログラム。
In the step of superimposing the plurality of images,
In one of the plurality of images, receiving a selection of a region including a feature point from a user;
Superimposing the plurality of images such that the feature points of the selected region match the feature points of other images;
The image processing program according to claim 3, comprising:
前記複数の画像を重ね合わせるステップに先立って、当該複数の画像の少なくとも一つの選択をユーザから受け付けるステップを、さらに備えている、請求項1から4のいずれかに記載の画像処理プログラム。   The image processing program according to any one of claims 1 to 4, further comprising a step of accepting selection of at least one of the plurality of images from a user prior to the step of superimposing the plurality of images. 1のタイムライン上の画像群の中から複数の画像を選択させる画像選択部と、
前記選択された複数の画像を重ね合わせる画像重ね合わせ部と、
重ね合わせた前記各画像の画素値の差分からなる差分画像を作成する差分画像作成部と、
ユーザから受け付けた入力にしたがって、前記複数の画像の位置決めを行う画像位置決め部と、
を備え
前記差分画像作成部は、前記差分画像の表示が解除された、前記位置決め後の前記複数の画像が重ね合わされた画像を生成する、画像処理装置。
An image selection unit for selecting a plurality of images from an image group on one timeline;
An image superimposing unit that superimposes the plurality of selected images;
A difference image creation unit that creates a difference image including a difference between pixel values of the superimposed images;
An image positioning unit for positioning the plurality of images according to an input received from a user;
Equipped with a,
The difference image creating unit is an image processing device that generates an image in which the plurality of images after the positioning are overlaid, the display of the difference image being canceled .
JP2012004440A 2012-01-12 2012-01-12 Image processing program and image processing apparatus Active JP5799818B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012004440A JP5799818B2 (en) 2012-01-12 2012-01-12 Image processing program and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012004440A JP5799818B2 (en) 2012-01-12 2012-01-12 Image processing program and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2013143108A JP2013143108A (en) 2013-07-22
JP5799818B2 true JP5799818B2 (en) 2015-10-28

Family

ID=49039628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012004440A Active JP5799818B2 (en) 2012-01-12 2012-01-12 Image processing program and image processing apparatus

Country Status (1)

Country Link
JP (1) JP5799818B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4753711B2 (en) * 2005-12-22 2011-08-24 株式会社キーエンス 3D image display device, 3D image display device operation method, 3D image display program, computer-readable recording medium, and recorded device
JP2008199658A (en) * 2008-04-04 2008-08-28 Olympus Corp Image processor and image processing method thereof

Also Published As

Publication number Publication date
JP2013143108A (en) 2013-07-22

Similar Documents

Publication Publication Date Title
CN107016726B (en) Overlay display method and overlay display device
JP6904249B2 (en) Object detector, object detection method and program
US11836961B2 (en) Information processing apparatus, information processing method, and storage medium for determining whether a captured image of a subject is suitable for recognition processing
CN113538631A (en) Computer program, method and apparatus for generating virtual defect image by artificial intelligence model generated based on user input
JP6101896B2 (en) Image processing program and image processing apparatus
WO2007132576A1 (en) Diagnosis assistance device and diagnosis assistance system
US7872786B2 (en) Image display apparatus, image display method and program
JP6470595B2 (en) Image processing apparatus, image processing method, and program
JP6182885B2 (en) Image processing program and image processing apparatus
US20200311867A1 (en) Image processing apparatus and method of controlling the same
JP5799818B2 (en) Image processing program and image processing apparatus
US20130194311A1 (en) Image reproducing apparatus
EP3734431A1 (en) Image panning method
JP2013016013A (en) Development support device and development support method
JP6772505B2 (en) Programs and terminals
JP2017049686A (en) Image processing device
JP5799815B2 (en) Image processing program and image processing apparatus
CN117377929A (en) Identifying places of interest on physical objects by 3D models of the physical objects in an augmented reality view
JP6142598B2 (en) Image processing program and image processing apparatus
WO2019054235A1 (en) Information processing device, information processing method, and program
JP7202571B2 (en) Screen transition information generation device, screen transition information generation method, screen transition information generation program, screen transition information generation system
JP2005084088A (en) Image comparison display method and its device, and image comparison display program
JP5786736B2 (en) Image reproduction program and image reproduction apparatus
JP7266985B2 (en) Image processing device, image processing system, image processing method, and image processing program
JP2006023960A (en) Method for identifying shoe sole pattern from incomplete shoe sole image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150810

R150 Certificate of patent or registration of utility model

Ref document number: 5799818

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250