JP7477956B2 - Image processing device and control method thereof, and information processing system - Google Patents

Image processing device and control method thereof, and information processing system Download PDF

Info

Publication number
JP7477956B2
JP7477956B2 JP2019193639A JP2019193639A JP7477956B2 JP 7477956 B2 JP7477956 B2 JP 7477956B2 JP 2019193639 A JP2019193639 A JP 2019193639A JP 2019193639 A JP2019193639 A JP 2019193639A JP 7477956 B2 JP7477956 B2 JP 7477956B2
Authority
JP
Japan
Prior art keywords
image
partial region
partial
coordinates
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019193639A
Other languages
Japanese (ja)
Other versions
JP2020113247A5 (en
JP2020113247A (en
Inventor
康平 岩渕
雄一 日塔
まほろ 穴吹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to CN201911345205.2A priority Critical patent/CN111435969B/en
Priority to US16/733,572 priority patent/US11074670B2/en
Publication of JP2020113247A publication Critical patent/JP2020113247A/en
Publication of JP2020113247A5 publication Critical patent/JP2020113247A5/ja
Application granted granted Critical
Publication of JP7477956B2 publication Critical patent/JP7477956B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Description

本発明は、オルソ補正を行う画像処理技術に関するものである。 The present invention relates to image processing technology for orthorectification.

従来、インフラ構造物の点検においては、目視によって構造物のひび割れなどの変状を確認し、それを正面図に書き込むことで帳票を作成していた。一方で、近年は、撮影画像に基づいた帳票の作成が行われるようになってきている。その場合、まず、正対する位置から構造物の壁面を撮影し、撮影画像を正面図に位置合わせする。そして、正面図に位置合わせした撮影画像上に直接変状を書き込むことで帳票を作成する。ただし、地形的な要因等により、構造物を正対する位置から撮影できない場合がある。 Traditionally, when inspecting infrastructure structures, cracks and other abnormalities in the structure were confirmed visually, and a report was created by noting the abnormalities on a front view. However, in recent years, reports have begun to be created based on photographed images. In this case, the wall surface of the structure is first photographed from a position directly facing the structure, and the photographed image is aligned with the front view. The report is then created by noting the abnormalities directly on the photographed image aligned with the front view. However, there are cases where it is not possible to photograph the structure from a position directly facing the structure due to factors such as topography.

特許文献1では、地図と撮影画像を対応付け、撮影画像を地上に正対する位置から撮影した場合の見えに変換する技術が開示されている。変換により得られる画像はオルソ画像と呼ばれ、オルソ画像を得るための変換処理はオルソ補正処理と呼ばれる。特許文献1における地図を構造物の正面図と読み替えてオルソ補正処理を利用することにより、インフラ構造物の点検に利用可能な画像を得ることができる。 Patent Document 1 discloses a technology that associates a map with a captured image and converts the captured image into an appearance as if it were captured from a position directly facing the ground. The image obtained by the conversion is called an orthoimage, and the conversion process to obtain an orthoimage is called orthorectification. By replacing the map in Patent Document 1 with a front view of a structure and using orthorectification, it is possible to obtain an image that can be used to inspect infrastructure structures.

特許第4112077号公報Patent No. 4112077

しかしながら、アーチダム壁面のように構造物表面が曲面である場合、上述のオルソ補正処理により得られるオルソ画像は歪みを含んでしまうことになる。その場合、撮影画像全体に対してオルソ補正処理を適用する替わりに、撮影画像内の部分領域ごとにオルソ補正処理を適用することで、歪みの少ない画像を得ることができる。ただし、部分領域ごとに正面図と撮影画像の対応付け操作を繰り返し行う必要があり、手間がかかる処理となっている。 However, when the surface of a structure is curved, such as the wall of an arch dam, the ortho-image obtained by the above-mentioned orthorectification process will contain distortion. In such cases, instead of applying the orthorectification process to the entire captured image, an image with less distortion can be obtained by applying the orthorectification process to each partial region within the captured image. However, it is necessary to repeatedly match the front view with the captured image for each partial region, making this a time-consuming process.

本発明は、このような問題に鑑みてなされたものであり、処理対象領域である部分領域の指定をより簡便な操作で可能とする技術を提供することを目的としている。 The present invention was made in consideration of such problems, and aims to provide a technology that enables the specification of a partial area to be processed with simpler operations.

上述の問題点を解決するため、本発明に係る画像処理装置は以下の構成を備える。すなわち、画像処理装置は、
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の画像は、前記物体の設計図面であり、
前記第2の画像は、前記物体を撮影して得られる撮影画像であり、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する。
画像処理装置は、
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の部分領域と前記第2の部分領域の少なくとも一方に対するユーザからの修正を受け付ける受付手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する。
画像処理装置は、
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の部分領域および前記第2の部分領域は、それぞれ同数の複数の基準点により指定され、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する。
あるいは、画像処理装置は、
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の画像は、前記物体の設計図面であり、
前記第2の画像は、前記物体を撮影して得られる撮影画像であり、
前記第1の指定手段は、順次、前記第1の画像において互いに異なる第1の部分領域を指定するよう構成されており、
前記第1の指定手段は、k回目に指定した第1の部分領域に基づいて、(k+1)回目の第1の部分領域を指定する。
画像処理装置は、
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の部分領域と前記第2の部分領域の少なくとも一方に対するユーザからの修正を受け付ける受付手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の指定手段は、順次、前記第1の画像において互いに異なる第1の部分領域を指定するよう構成されており、
前記第1の指定手段は、k回目に指定した第1の部分領域に基づいて、(k+1)回目の第1の部分領域を指定する。
画像処理装置は、
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の部分領域および前記第2の部分領域は、それぞれ同数の複数の基準点により指定され、
前記第1の指定手段は、順次、前記第1の画像において互いに異なる第1の部分領域を指定するよう構成されており、
前記第1の指定手段は、k回目に指定した第1の部分領域に基づいて、(k+1)回目の第1の部分領域を指定する。
In order to solve the above-mentioned problems, the image processing device according to the present invention has the following arrangement.
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first image is a design drawing of the object;
the second image is a photographed image obtained by photographing the object,
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
The first designation means designates the third partial region based on the first partial region.
The image processing device includes:
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including an image obtained by photographing the object;
a receiving means for receiving a correction from a user to at least one of the first partial region and the second partial region;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
The first designation means designates the third partial region based on the first partial region.
The image processing device includes:
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first partial region and the second partial region are each specified by an equal number of reference points;
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
The first designation means designates the third partial region based on the first partial region.
Alternatively, the image processing device includes:
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first image is a design drawing of the object;
the second image is a photographed image obtained by photographing the object,
the first designation means is configured to sequentially designate first partial regions different from one another in the first image;
The first designation means designates a (k+1)th first partial region based on the kth first partial region designated.
The image processing device includes:
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a receiving means for receiving a correction from a user to at least one of the first partial region and the second partial region;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first designation means is configured to sequentially designate first partial regions different from one another in the first image;
The first designation means designates a (k+1)th first partial region based on the kth first partial region designated.
The image processing device includes:
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first partial region and the second partial region are each specified by an equal number of reference points;
the first designation means is configured to sequentially designate first partial regions different from one another in the first image;
The first designation means designates a (k+1)th first partial region based on the kth first partial region designated.

本発明によれば、処理対象領域である部分領域の指定をより簡便な操作で可能とする技術を提供することができる。 The present invention provides a technology that allows the specification of a partial area to be processed with simpler operations.

第1実施形態に係る画像処理装置のハードウェア構成を示す図である。1 is a diagram illustrating a hardware configuration of an image processing apparatus according to a first embodiment. 表示デバイスに表示される画面を例示的に示す図である。FIG. 10 is a diagram illustrating an example of a screen displayed on a display device. 第1実施形態に係る画像処理装置の機能構成を示す図である。1 is a diagram illustrating a functional configuration of an image processing apparatus according to a first embodiment. 対応点のスライド操作を説明する図である。11A and 11B are diagrams illustrating a sliding operation of corresponding points. 基準点テーブルおよび対応点テーブルを例示的に示す図である。10A and 10B are diagrams illustrating an example of a reference point table and a corresponding point table. 第1実施形態におけるオルソ補正処理のフローチャートである。1 is a flowchart of an orthorectification process in the first embodiment. 対応点指定処理(S602)の詳細フローチャートである。13 is a detailed flowchart of a corresponding point designation process (S602). 対応点指定処理(S602)の他の詳細フローチャートである。13 is another detailed flowchart of the corresponding point designation process (S602). 補助線の生成を説明する図である。FIG. 13 is a diagram illustrating generation of auxiliary lines. 第2実施形態に係る画像処理装置の機能構成を示す図である。FIG. 11 is a diagram illustrating a functional configuration of an image processing device according to a second embodiment. 第2実施形態におけるオルソ補正処理のフローチャートである。13 is a flowchart of an orthorectification process in the second embodiment. 第3実施形態に係る画像処理装置の機能構成を示す図である。FIG. 11 is a diagram illustrating a functional configuration of an image processing device according to a third embodiment. 第3実施形態におけるオルソ補正処理のフローチャートである。13 is a flowchart of an orthorectification process in the third embodiment. 表示デバイスに表示される画面を例示的に示す図である。FIG. 10 is a diagram illustrating an example of a screen displayed on a display device.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 The following embodiments are described in detail with reference to the attached drawings. Note that the following embodiments do not limit the invention according to the claims. Although the embodiments describe multiple features, not all of these multiple features are necessarily essential to the invention, and multiple features may be combined in any manner. Furthermore, in the attached drawings, the same reference numbers are used for the same or similar configurations, and duplicate explanations are omitted.

(第1実施形態)
本発明に係る画像処理装置の第1実施形態として、物体である構造物の図面および当該構造物の撮影画像を入力し、当該撮影画像に基づくオルソ画像を生成する画像処理装置を例に挙げて以下に説明する。なお、構造物を正対する位置から撮影できない場合に、撮像装置の光軸を構造物に対して傾けた状態で行われる撮影手法は、あおり撮影と呼ばれることがある。また、被写体をあおり撮影した画像を、被写体に正対する位置から撮影した場合の見えに変換する処理をあおり補正と呼ぶことがある。以下、本明細書においてオルソ画像の生成(オルソ補正)という表現は、特定の変換手法に寄らず、撮像装置の光軸を被写体に対して傾けた状態で撮影された画像を変換し、被写体に正対した位置からの見えを再現する処理全般を含む。
First Embodiment
As a first embodiment of the image processing device according to the present invention, an image processing device that inputs a drawing of a structure as an object and a photographed image of the structure and generates an orthoimage based on the photographed image will be described below. When a structure cannot be photographed from a position facing the structure, a photographing technique in which the optical axis of the imaging device is tilted with respect to the structure is sometimes called tilted photography. In addition, a process of converting an image of a subject photographed from a tilted angle into an appearance when photographed from a position facing the subject is sometimes called tilt correction. Hereinafter, the expression "generation of an orthoimage (orthorectification)" in this specification does not depend on a specific conversion technique, but includes a general process of converting an image photographed with the optical axis of the imaging device tilted with respect to the subject and reproducing the appearance from a position facing the subject.

<装置構成>
図1は、第1実施形態に係る画像処理装置のハードウェア構成を示す図である。
<Device Configuration>
FIG. 1 is a diagram showing the hardware configuration of an image processing apparatus according to the first embodiment.

中央演算装置(CPU)101は、コンピュータシステムの制御をつかさどる。CPU101が、制御プログラムに基づいて、情報の演算や加工、各ハードウェアの制御を実行することにより後述する各機能構成、処理を実現する。ランダムアクセスメモリ(RAM)102は、CPU101の主メモリとして、実行プログラムのロードやプログラム実行に必要なワークメモリとして機能する。リードオンリーメモリー(ROM)103は、CPU101の動作処理手順を規定する制御プログラムを記録している。ROM103には、コンピュータシステムの機器制御を行うシステムプログラムである基本ソフト(OS)を記録したプログラムROMとシステムを稼動するために必要な情報などが記録されたデータROMがある。ROM103の代わりに後述のHDD107を用いる場合もある。 The central processing unit (CPU) 101 is responsible for controlling the computer system. Based on a control program, the CPU 101 performs calculations and processing of information and controls each piece of hardware to realize each functional configuration and process described below. The random access memory (RAM) 102 functions as the main memory of the CPU 101, and as a work memory required for loading and executing programs. The read-only memory (ROM) 103 records a control program that defines the operation processing procedure of the CPU 101. The ROM 103 includes a program ROM that records the operating system (OS), which is a system program that controls the equipment of the computer system, and a data ROM that records information required to operate the system. In some cases, the HDD 107 described below is used instead of the ROM 103.

ネットワークインターフェース(NETIF)104は、ネットワークを介して送受信されるデータの入出力制御を行う。表示デバイス105は、例えば、CRTディスプレイや、液晶ディスプレイ等である。入力デバイス106は、ユーザからの操作指示を受け付けるための、例えば、タッチパネル、キーボード、マウスなどである。ハードディスクドライブ(HDD)107は、記憶装置である。HDD107は、アプリケーションプログラムなどのデータ保存用に用いられる。入出力バス108は、上述した各ユニット間を接続するためのバス(アドレスバス、データバス、及び制御バス)である。 The network interface (NETIF) 104 controls the input and output of data sent and received via the network. The display device 105 is, for example, a CRT display or a liquid crystal display. The input device 106 is, for example, a touch panel, a keyboard, a mouse, etc., for receiving operation instructions from the user. The hard disk drive (HDD) 107 is a storage device. The HDD 107 is used to store data such as application programs. The input/output bus 108 is a bus (address bus, data bus, and control bus) for connecting the above-mentioned units.

図2は、表示デバイスに表示される画面を例示的に示す図である。当該画面は、ユーザに情報を提供しかつユーザからの入力を受け付けるグラフィカルユーザーインターフェース(GUI)であり、画像処理装置による表示制御により表示デバイスに表示される。 Figure 2 is a diagram showing an example of a screen displayed on a display device. The screen is a graphical user interface (GUI) that provides information to a user and accepts input from the user, and is displayed on the display device under display control by an image processing device.

画面には、図面読み込みボタン201、画像読み込みボタン202、図面表示領域203、撮影画像表示領域204、オルソ補正指示ボタン207、アプリケーション終了ボタン208が配置される。 The screen includes a drawing load button 201, an image load button 202, a drawing display area 203, a captured image display area 204, an orthorectification instruction button 207, and an application exit button 208.

図面読み込みボタン201は、図面の読み込みを指示するためのボタンである。ここで、図面とは、例えば、所定の座標系に従って描画された構造物の設計図面(正面図など)である。CADソフトで用いられるような構造物の寸法情報を含むベクタ画像データでもよい。ベクタ画像データとは、線や円、多角形などの図形がベクトル情報により画像を表現する形式の画像データである。なお、図面としてラスタ画像データを使用してもよい。ラスタ画像データとは、色や濃度を表すピクセルの配列により画像を表現する形式の画像データである。そして、読み込まれた図面は、図面表示領域203に画像205として表示される。 The drawing load button 201 is a button for instructing the loading of a drawing. Here, a drawing is, for example, a design drawing (such as a front view) of a structure drawn according to a specified coordinate system. It may be vector image data including dimensional information of the structure as used in CAD software. Vector image data is image data in a format in which figures such as lines, circles, and polygons express an image using vector information. Note that raster image data may also be used as a drawing. Raster image data is image data in a format in which an image is expressed using an array of pixels that represent color and density. The loaded drawing is then displayed as an image 205 in the drawing display area 203.

画像読み込みボタン202は、撮影画像の読み込みを指示するためのボタンである。ここで、撮影画像とは、例えば、上述の図面に対応する構造物を撮影して得られる画像である。一般的には、撮影画像は、ラスタ画像データである。そして、読み込まれた撮影画像は、撮影画像表示領域204に画像206として表示される。 The image load button 202 is a button for instructing the loading of a captured image. Here, a captured image is, for example, an image obtained by capturing an image of a structure corresponding to the above-mentioned drawing. Generally, a captured image is raster image data. The loaded captured image is then displayed as image 206 in the captured image display area 204.

画像205において、正方形(□)で示した基準点209~212は、図面上に配置された基準点である。画像206において、正方形で示した基準点213~216は、撮影画像上に配置された基準点である。基準点209~212及び基準点213~216において、正方形内の数字が同一である基準点のペアは、構造物の同一位置を表す。このような基準点のペアを以下では対応点ペアと呼ぶ。すなわち、図2においては、基準点209と基準点213、基準点210と基準点214、基準点211と基準点215、基準点212と基準点216、の4つの対応点ペアが図示されている。なお、ここでは、正方形内の数字により構造物上の同一位置を表す図面上または撮影画像上の基準点を表現しているが、色や記号を割り当てることで対応点ペアを表してもよい。あるいは、ユーザにとって自明である場合等は、ペアの対応関係はGUI上では明示せずともよい。 In image 205, reference points 209 to 212 shown as squares (□) are reference points arranged on the drawing. In image 206, reference points 213 to 216 shown as squares are reference points arranged on the photographed image. Among reference points 209 to 212 and reference points 213 to 216, pairs of reference points with the same numbers in the squares represent the same position of the structure. Such pairs of reference points are hereinafter referred to as corresponding point pairs. That is, in FIG. 2, four corresponding point pairs are illustrated: reference points 209 and 213, reference points 210 and 214, reference points 211 and 215, and reference points 212 and 216. Note that here, reference points on the drawing or photographed image that represent the same position on the structure are represented by numbers in squares, but corresponding point pairs may be represented by assigning colors or symbols. Alternatively, if it is obvious to the user, the correspondence relationship between the pairs may not be clearly indicated on the GUI.

図3は、第1実施形態に係る画像処理装置の機能構成を示す図である。図面入力部301は、図面の入力を受け付ける。図面表示部302は、図面入力部301によって入力された図面を図面表示領域203に表示する。撮影画像入力部303は、撮影画像の入力を受け付ける。撮影画像表示部304は、撮影画像入力部303によって入力された画像を撮影画像表示領域204に表示する。 Figure 3 is a diagram showing the functional configuration of the image processing device according to the first embodiment. The drawing input unit 301 accepts input of a drawing. The drawing display unit 302 displays the drawing input by the drawing input unit 301 in the drawing display area 203. The captured image input unit 303 accepts input of a captured image. The captured image display unit 304 displays the image input by the captured image input unit 303 in the captured image display area 204.

基準点入力部305は、図面表示領域203上に表示された図面および撮影画像表示領域204上に表示された撮影画像について、入力デバイス106を介して基準点の座標入力を受け付ける。基準点管理部306は、基準点入力部305によって入力された基準点を保持する。 The reference point input unit 305 accepts coordinate input of a reference point via the input device 106 for the drawing displayed in the drawing display area 203 and the captured image displayed in the captured image display area 204. The reference point management unit 306 holds the reference point input by the reference point input unit 305.

なお、図面上で基準点を入力する場合、入力された基準点が、図面に含まれる特徴点(線分の交点などの位置決めが容易な部分)を中心とした所定の範囲に収まっている場合、入力された基準点の座標を当該特徴点の座標で置き換えてもよい。また、図面上に表示されたマウスカーソルのようなポインタが、特徴点を中心とした所定の範囲に侵入した際に、当該特徴点にポインタを移動させてもよい。また、特徴点として、線分の交点だけでなく、図面に含まれる任意の図形の輪郭や任意の図形同士の輪郭の交点なども利用可能である。基準点やポインタの座標が補正された際に、ユーザに対して視覚的、聴覚的または触覚的フィードバックを与えることで、座標が補正されたことを明示してもよい。視覚的フィードバックには、座標が補正された際に、基準点やポインタの色を変える、基準点やポインタを点滅させる、基準点やポインタの大きさを変える等の方法が考えられる。聴覚的フィードバックには、座標が補正された際に、音を鳴らす等の方法が考えられる。触覚的フィードバックには、座標が補正された際に、入力デバイス106を振動させる等の方法が考えられる。 When inputting a reference point on a drawing, if the input reference point falls within a predetermined range centered on a feature point (a part that is easy to position, such as an intersection of line segments) included in the drawing, the coordinates of the input reference point may be replaced with the coordinates of the feature point. Also, when a pointer such as a mouse cursor displayed on the drawing enters a predetermined range centered on a feature point, the pointer may be moved to the feature point. Also, as a feature point, not only the intersection of line segments but also the outline of any figure included in the drawing or the intersection of the outlines of any figures may be used. When the coordinates of the reference point or the pointer are corrected, visual, auditory, or tactile feedback may be given to the user to clearly indicate that the coordinates have been corrected. As visual feedback, methods such as changing the color of the reference point or the pointer, blinking the reference point or the pointer, or changing the size of the reference point or the pointer when the coordinates are corrected are possible. As auditory feedback, methods such as sounding a sound when the coordinates are corrected are possible. As tactile feedback, methods such as vibrating the input device 106 when the coordinates are corrected are possible.

オルソ補正部307は、撮影画像に対してオルソ補正処理を実行する。オルソ補正処理における補正パラメータの入力として、基準点入力部305で指定された、図面上および撮影画像上の基準点を受け取る。オルソ画像出力部308は、オルソ補正部307によるオルソ補正処理の結果である画像を出力する。出力された画像はHDD107に格納される。表示デバイス105上に表示されるようにしてもよい。 The orthorectification unit 307 performs orthorectification processing on the captured image. It receives reference points on the drawing and the captured image, specified by the reference point input unit 305, as input for correction parameters in the orthorectification processing. The orthoimage output unit 308 outputs an image that is the result of the orthorectification processing by the orthorectification unit 307. The output image is stored in the HDD 107. It may be displayed on the display device 105.

対応点スライド部309は、複数の対応点ペアにより囲まれた部分領域に対するユーザ操作を受け付け、注目する部分領域(すなわち複数の対応点ペア)を更新する。具体的にはユーザ操作に基づいて複数の対応点ペアの移動方向および量を決定し、複数の対応点ペアそれぞれを構成する基準点の情報を更新する。ユーザ操作とは、例えば、図面の画像205上に配置された基準点群を、キーボードの方向キー操作またはマウスのドラッグ操作により略並進移動する操作である。 The corresponding point sliding unit 309 accepts a user operation on a partial area surrounded by multiple corresponding point pairs, and updates the partial area of interest (i.e., multiple corresponding point pairs). Specifically, it determines the direction and amount of movement of the multiple corresponding point pairs based on the user operation, and updates the information on the reference points that make up each of the multiple corresponding point pairs. A user operation is, for example, an operation of moving a group of reference points arranged on the image 205 of the drawing in an approximately translational manner by operating a directional key on the keyboard or dragging the mouse.

図4は、対応点のスライド操作を説明する図である。図4においては、目地に囲まれた矩形領域が連続的に6個並んで存在している状況を例示的に示している。図4(a)は、対応点のスライド操作前のイメージ図であり、4つの対応点ペアが図示されている。一方、図4(b)は、対応点のスライド操作後のイメージ図であり、更新された4つの対応点ペアが図示されている。基準点401~404はスライド操作後の図面における部分領域を規定する基準点群であり、基準点405~408はスライド操作後の撮影画像における部分領域を規定する基準点群である。すなわち、対応点のスライド操作によって、図4(a)の4つの対応点ペアが、図4(b)の4つの対応点ペアの位置に更新されたことを示している。つまり、本実施形態では、順次4つ以上の基準点が形成する部分領域に対してオルソ補正が実行される。このような処理において、ユーザがk回目の処理において指定した4つ以上の基準点が形成する部分領域に基づいて、(k+1)回目の処理に用いられる部分領域が指定される。ここでkは1以上の整数である。 Figure 4 is a diagram for explaining the sliding operation of the corresponding points. In FIG. 4, an example is shown in which six rectangular areas surrounded by joints exist in a row. FIG. 4(a) is an image diagram before the sliding operation of the corresponding points, and four corresponding point pairs are illustrated. Meanwhile, FIG. 4(b) is an image diagram after the sliding operation of the corresponding points, and four updated corresponding point pairs are illustrated. Reference points 401 to 404 are a reference point group that defines a partial area in the drawing after the sliding operation, and reference points 405 to 408 are a reference point group that defines a partial area in the captured image after the sliding operation. In other words, it is shown that the four corresponding point pairs in FIG. 4(a) are updated to the positions of the four corresponding point pairs in FIG. 4(b) by the sliding operation of the corresponding points. In other words, in this embodiment, orthorectification is sequentially performed on partial areas formed by four or more reference points. In such processing, a partial area to be used in the (k+1)th processing is specified based on a partial area formed by four or more reference points specified by the user in the kth processing. Here, k is an integer of 1 or more.

図5は、基準点テーブルおよび対応点テーブルを例示的に示す図である。図5(a)は図面における基準点の座標を格納する図面基準点テーブルであり、図5(b)は、撮影画像における基準点の座標を格納する撮影画像基準点テーブルである。ここでは、図面及び撮影画像それぞれ4点の基準点を格納する例を示している。すなわち、図面及び撮影画像それぞれにおいて注目する部分領域が四角形である例を示している。また、図5(c)は、対応点ペア(図面における基準点と撮影画像における基準点とのペア)を格納する対応点テーブルである。 Figure 5 shows an example of a reference point table and a corresponding point table. Figure 5(a) is a drawing reference point table that stores the coordinates of reference points in a drawing, and Figure 5(b) is a captured image reference point table that stores the coordinates of reference points in a captured image. Here, an example is shown in which four reference points are stored in each of the drawing and the captured image. That is, an example is shown in which the partial areas of interest in each of the drawing and the captured image are rectangular. Also, Figure 5(c) is a corresponding point table that stores corresponding point pairs (pairs of reference points in the drawing and reference points in the captured image).

例えば、スライド操作前の図面基準点テーブルは、IDが「1」~「4」の4点の基準点として、図4(a)に示す基準点209~212の4点の座標を格納する。また、スライド操作前の撮影画像基準点テーブルは、IDが「1」~「4」の4点の基準点として、図4(a)に示す基準点213~216の4点の座標を格納する。そして、スライド操作前の対応点テーブルは、IDが「1」~「4」の4点の対応点ペアとして、図4(a)において正方形内の数字が同じ基準点のペアを格納している。 For example, the drawing reference point table before the slide operation stores the coordinates of the four reference points 209 to 212 shown in FIG. 4(a) as the four reference points with IDs "1" to "4". The captured image reference point table before the slide operation stores the coordinates of the four reference points 213 to 216 shown in FIG. 4(a) as the four reference points with IDs "1" to "4". And the corresponding point table before the slide operation stores pairs of reference points with the same numbers in the squares in FIG. 4(a) as the four corresponding point pairs with IDs "1" to "4".

なお、図5においては、注目する部分領域の対応点ペアに対して4個のID(「1」~「4」)を割り当て、注目する部分領域を変更する際には当該4個のIDにおける基準点の座標を更新する構成としている。ただし、注目する部分領域を変更する際には、逐次異なるIDを追加してテーブルに格納するよう構成してもよい。例えば、1つ目の部分領域に対しては「1」~「4」のIDを割り当て、2つ目の部分領域に対しては「5」~「6」のIDを割り当てるといったように構成してもよい。 In FIG. 5, four IDs ("1" to "4") are assigned to corresponding point pairs in a partial region of interest, and when the partial region of interest is changed, the coordinates of the reference points for the four IDs are updated. However, when the partial region of interest is changed, different IDs may be added and stored in the table one by one. For example, the first partial region may be assigned IDs "1" to "4," and the second partial region may be assigned IDs "5" to "6."

<装置の動作>
図6は、第1実施形態におけるオルソ補正処理のフローチャートである。当該処理は、例えば、CPU101が、HDD107に格納されたアプリケーションを実行することにより開始される。
<Device Operation>
6 is a flowchart of the orthorectification process in the first embodiment. The process is started by, for example, the CPU 101 executing an application stored in the HDD 107.

S601では、図面入力部301および撮影画像入力部303は、それぞれ、図面および撮影画像の入力を受け付ける。そして、図形表示部302及び撮影画像表示部304は、それぞれ、図面および撮影画像を表示する。 In S601, the drawing input unit 301 and the captured image input unit 303 accept the input of a drawing and a captured image, respectively. Then, the graphic display unit 302 and the captured image display unit 304 display the drawing and the captured image, respectively.

S602では、基準点入力部305は、S601において入力された図面および撮影画像について複数の対応点ペアの入力を受け付ける。S602の詳細については、図7および図8を参照して後述する。S603では、対応点スライド部309は、複数の対応点ペアのスライド操作が入力されたかを判定する。ここで、スライド操作とは、注目する部分領域を変更する旨の操作を意図している。入力された場合、S604に進む。入力されていない場合、S605に進む。S604では、対応点スライド部309は、複数の対応点ペアをスライドさせる。すなわち、図面における基準点群と撮影画像における基準点群をそれぞれスライドさせる。 In S602, the reference point input unit 305 accepts input of multiple corresponding point pairs for the drawing and captured image input in S601. Details of S602 will be described later with reference to FIG. 7 and FIG. 8. In S603, the corresponding point sliding unit 309 determines whether a sliding operation of multiple corresponding point pairs has been input. Here, a sliding operation is intended to be an operation to change a partial area of interest. If input, the process proceeds to S604. If not, the process proceeds to S605. In S604, the corresponding point sliding unit 309 slides multiple corresponding point pairs. That is, it slides the reference point group in the drawing and the reference point group in the captured image, respectively.

ここでは、複数の対応点ペアをスライドさせる向きは、入力デバイス106から取得する。例えば、入力デバイスとしてキーボードを使用する場合、入力された矢印キーの方向を、複数の対応点ペアをスライドさせる方向とする。また、複数の対応点ペアをスライドさせる移動量は、次のように算出する。まず、図面における基準点群(基準点209~211)と撮影画像における基準点群(基準点213~216)のそれぞれについてバウンディングボックス(外接矩形)を算出する。そして、スライドの向きが縦方向ならば当該バウンディングボックスの「高さ」をスライドさせる移動量とし、スライドの向きが横方向ならば当該バウンディングボックスの「幅」をスライドさせる移動量とする。すなわち、現在(k回目において)注目している部分領域に隣接する領域を次回((k+1)回目において)注目する部分領域としている。 Here, the direction in which the corresponding point pairs are slid is obtained from the input device 106. For example, when a keyboard is used as the input device, the direction of the input arrow key is set as the direction in which the corresponding point pairs are slid. The amount of movement in which the corresponding point pairs are slid is calculated as follows. First, a bounding box (circumscribed rectangle) is calculated for each of the reference point group in the drawing (reference points 209-211) and the reference point group in the captured image (reference points 213-216). Then, if the slide direction is vertical, the "height" of the bounding box is set as the amount of movement in which the corresponding point pairs are slid, and if the slide direction is horizontal, the "width" of the bounding box is set as the amount of movement in which the corresponding point pairs are slid. In other words, the area adjacent to the partial area currently focused on (in the kth time) is set as the partial area to be focused on next time (in the (k+1)th time).

S605では、基準点入力部305は、S602で入力されたまたはS604でスライドされた複数の対応点ペアに含まれる基準点について修正指示を受付たか否かを判定する。これは、スライド後の対応点ペアに含まれる図面における基準点と撮影画像における基準点とにズレがある(構造物における同一位置を指していない)場合、ユーザが手作業でズレを修正した場合に対応する。例えば、基準点の修正指示は、図面上または撮影画像上に表示された基準点をドラッグすることで受付られる。S605によって、ユーザはS604でスライドさせた複数の対応点ペアに含まれる基準点を個別に微修正することができる。複数の対応点ペアに含まれる基準点の修正が指示された場合、S606へ進む。そうでない場合、S607へ進む。S606では、基準点管理部306は、複数の対応点ペアに含まれる1以上の基準点が修正された場合に、対応点テーブルを更新する。 In S605, the reference point input unit 305 determines whether or not a correction instruction has been received for the reference points included in the multiple corresponding point pairs input in S602 or slid in S604. This corresponds to a case where there is a misalignment between the reference points in the drawing and the reference points in the captured image included in the corresponding point pairs after sliding (they do not point to the same position in the structure) and the user manually corrects the misalignment. For example, a correction instruction for the reference point is received by dragging the reference point displayed on the drawing or the captured image. S605 allows the user to individually fine-correct the reference points included in the multiple corresponding point pairs slid in S604. If a correction instruction for the reference points included in the multiple corresponding point pairs has been received, proceed to S606. If not, proceed to S607. In S606, the reference point management unit 306 updates the corresponding point table when one or more reference points included in the multiple corresponding point pairs have been corrected.

S607では、オルソ補正部307は、オルソ補正指示が入力されたかを判定する。オルソ補正指示が入力された場合、S608へ進む。入力されていない場合、S611へ進む。S608では、オルソ補正部307は、S601で入力された撮影画像からオルソ画像を得るための座標変換行列を算出する。ここでは、座標変換行列としてホモグラフィ行列を用いることを想定する。ホモグラフィ行列は、ある平面の画像座標系を別の平面の画像座標系に写像(射影変換)するホモグラフィ変換に用いる行列である。ホモグラフィ行列の算出には、DLT(Direct Linear Transformation)法などの公知のアルゴリズムを用いればよい。なお、DLT法では、ホモグラフィ行列の算出に4つ以上の対応点ペアが必要となる。 In S607, the orthorectification unit 307 determines whether an orthorectification instruction has been input. If an orthorectification instruction has been input, the process proceeds to S608. If an orthorectification instruction has not been input, the process proceeds to S611. In S608, the orthorectification unit 307 calculates a coordinate transformation matrix for obtaining an orthoimage from the captured image input in S601. Here, it is assumed that a homography matrix is used as the coordinate transformation matrix. The homography matrix is a matrix used in homography transformation that maps (projects) an image coordinate system of one plane to an image coordinate system of another plane. A known algorithm such as the DLT (Direct Linear Transformation) method may be used to calculate the homography matrix. Note that the DLT method requires four or more corresponding point pairs to calculate the homography matrix.

S609では、オルソ補正部307は、S608において求めたホモグラフィ行列を用いて、S601で入力された撮影画像の変換処理を実行する。S610では、オルソ画像出力部308は、S609において変換された撮影画像を出力する。S611では、CPU101は、アプリケーションの終了指示が入力されているかを判定する。アプリケーションの終了指示は、アプリケーション終了ボタン208を押下することで入力される。終了指示が入力されている場合、処理を終了する。入力されていない場合、S603へ戻る。以上の処理により生成されたオルソ画像は、例えば構造物の表面に生じたひび割れなどの変状を検知する処理に利用される。このように本実施形態では、ユーザによるk回目の処理における指定操作に基づいて、(k+1)回目に用いる基準点群および部分領域を指定し、かつ、指定結果に対してユーザからの修正を受付可能としている。これにより、ユーザは広域を撮影した画像に対して細かく分割してオルソ補正を繰り返す場合でも、具体的な基準点の座標を指定する操作を少なくとも1回を行った後は、簡単なスライド操作の指示と必要がある場合に修正を行えばよい。そのため、ユーザの操作負荷が軽減される。 In S609, the ortho-correction unit 307 performs conversion processing of the captured image input in S601 using the homography matrix obtained in S608. In S610, the ortho-image output unit 308 outputs the captured image converted in S609. In S611, the CPU 101 determines whether an instruction to end the application has been input. An instruction to end the application is input by pressing the application end button 208. If an instruction to end the application has been input, the processing ends. If not, the process returns to S603. The ortho-image generated by the above processing is used, for example, in a process to detect an abnormality such as a crack that has occurred on the surface of a structure. In this way, in this embodiment, the reference point group and partial area to be used in the (k+1)th processing are specified based on the user's specification operation in the kth processing, and the user can make corrections to the specified result. As a result, even if a user divides an image captured over a wide area into smaller parts and repeats orthorectification, after performing an operation to specify the coordinates of a specific reference point at least once, the user only needs to give a simple sliding instruction and make corrections if necessary. This reduces the operational burden on the user.

図7は、対応点指定処理(S602)の詳細フローチャートである。図7では、図面上で4点以上の基準点を指定した後、撮影画像上で対応する同数の基準点を指定することで、4個の対応点ペアを入力する方法を説明する。 Figure 7 is a detailed flowchart of the corresponding point designation process (S602). Figure 7 explains a method for inputting four corresponding point pairs by designating four or more reference points on a drawing and then designating the same number of corresponding reference points on a captured image.

S701では、基準点入力部305は、図面上で基準点が指定されたかを判定する。基準点が指定された場合、S702へ進む。指定されていない場合、S703へ進む。S702では、基準点入力部305は、指定された基準点を図面基準点テーブル(図5(a))に追加する。S703では、基準点入力部305は、図面基準点テーブルに格納された基準点が4点以上存在するかを判定する。存在する場合、S704に進む。存在しない場合、S701に進む。 In S701, the reference point input unit 305 determines whether a reference point has been specified on the drawing. If a reference point has been specified, the process proceeds to S702. If not, the process proceeds to S703. In S702, the reference point input unit 305 adds the specified reference point to the drawing reference point table (FIG. 5A). In S703, the reference point input unit 305 determines whether there are four or more reference points stored in the drawing reference point table. If there are, the process proceeds to S704. If there are not, the process proceeds to S701.

S704では、基準点入力部305は、撮影画像上で基準点が指定されたかを判定する。基準点が指定された場合、S705へ進む。指定されていない場合、S706へ進む。S705では、基準点入力部305は、指定された基準点を撮影画像基準点テーブル(図5(b))に追加する。S706では、基準点入力部305は、撮影画像基準点テーブルに格納された基準点が、図面基準点テーブルに格納された基準点と同数であるかを判定する。同数である場合、S707に進む。異なる場合、S704に進む。 In S704, the reference point input unit 305 determines whether a reference point has been specified on the captured image. If a reference point has been specified, the process proceeds to S705. If not, the process proceeds to S706. In S705, the reference point input unit 305 adds the specified reference point to the captured image reference point table (FIG. 5B). In S706, the reference point input unit 305 determines whether the number of reference points stored in the captured image reference point table is the same as the number of reference points stored in the drawing reference point table. If the number is the same, the process proceeds to S707. If they are different, the process proceeds to S704.

S707では、基準点入力部305は、図面基準点テーブルおよび撮影画像基準点テーブルに格納された基準点から対応点ペアを生成する。具体的には、まず、両テーブルから同じIDを持つ基準点を取得する。そして、取得した基準点のペアを対応点ペアとして、対応点テーブル(図5(c))に追加する。なお、図7では、図面の基準点の指定を先行して行ったが、撮影画像の基準点の指定を先行して行ってもよい。 In S707, the reference point input unit 305 generates a corresponding point pair from the reference points stored in the drawing reference point table and the captured image reference point table. Specifically, first, reference points having the same ID are obtained from both tables. The obtained pair of reference points is then added to the corresponding point table ( FIG. 5( c )) as a corresponding point pair. Note that, although the reference points of the drawing are specified first in FIG. 7, the reference points of the captured image may be specified first.

図8は、対応点指定処理(S602)の他の詳細フローチャートである。図8では、図面上で基準点を指定した後、撮影画像上で対応する基準点の指定を行う、という操作を4回以上繰り返すことで4個の対応点ペアを入力する方法を説明する。 Figure 8 is another detailed flowchart of the corresponding point designation process (S602). Figure 8 explains a method for inputting four corresponding point pairs by repeating the operation of designating a reference point on a drawing and then designating a corresponding reference point on a captured image four or more times.

S801では、基準点入力部305は、図面上で基準点が指定されたかを判定する。基準点が指定された場合、S802へ進む。指定されていない場合、S806へ進む。S802では、基準点入力部305は、S801で指定された基準点を図面基準点テーブル(図5(a))に追加する。S803では、基準点入力部305は、撮影画像上で基準点が指定されたかを判定する。基準点が指定された場合、S804へ進む。指定されていない場合、S803へ進む。 In S801, the reference point input unit 305 determines whether a reference point has been specified on the drawing. If a reference point has been specified, the process proceeds to S802. If a reference point has not been specified, the process proceeds to S806. In S802, the reference point input unit 305 adds the reference point specified in S801 to the drawing reference point table (FIG. 5A). In S803, the reference point input unit 305 determines whether a reference point has been specified on the captured image. If a reference point has been specified, the process proceeds to S804. If a reference point has not been specified, the process proceeds to S803.

S804では、基準点入力部305は、S803で指定された基準点を撮影画像基準点テーブル(図5(b))に追加する。 In S804, the reference point input unit 305 adds the reference point specified in S803 to the captured image reference point table (Figure 5 (b)).

S805では、基準点入力部305は、図面基準点テーブルおよび撮影画像基準点テーブルに格納された基準点から対応点ペアを生成する。具体的には、まず、両テーブルの最後尾の基準点を取得する。次に、取得した基準点のペアを対応点ペアとして、対応点テーブル(図5(c))に追加する。なお、図7のS707及び図8のS805で対応点ペアを対応付けは、各基準点が指定された順序(ID)を根拠としたが、これに限らない。例えば、順序を問わず図面上と撮影画像上で同数の基準点が指定された段階で、各基準点群における相対位置が近い基準点同士をペアとするような処理を行ってもよい。 In S805, the reference point input unit 305 generates corresponding point pairs from the reference points stored in the drawing reference point table and the captured image reference point table. Specifically, first, the last reference point in both tables is obtained. Next, the obtained pair of reference points is added to the corresponding point table (FIG. 5(c)) as a corresponding point pair. Note that, although the corresponding point pairs are associated in S707 of FIG. 7 and S805 of FIG. 8 based on the order (ID) in which the reference points were specified, this is not limiting. For example, once the same number of reference points have been specified on the drawing and the captured image, regardless of the order, processing may be performed to pair reference points that are close in relative position in each reference point group.

以上説明したとおり第1実施形態によれば、図6を参照して説明した動作により、部分領域を規定する複数(例えば4個)の対応点ペアを、S603~S611のループで順次指定し、当該部分領域のオルソ画像を生成する。これにより、撮影画像の所望の領域に対応するオルソ画像を得ることが可能となる。特に、第1実施形態によれば、新たな部分領域に対応する複数の対応点ペアをスライド操作により簡単に設定することが出来、ユーザの労力を軽減することが可能となる。特に、図4に示されるように、目地に囲まれた矩形領域が連続的に複数個並んで存在している場合に、新たな部分領域の設定に係るユーザの労力を大幅に軽減することが可能となる。 As described above, according to the first embodiment, by the operation described with reference to FIG. 6, multiple (e.g., four) corresponding point pairs that define a partial region are sequentially specified in a loop from S603 to S611, and an orthoimage of the partial region is generated. This makes it possible to obtain an orthoimage that corresponds to a desired region of the captured image. In particular, according to the first embodiment, multiple corresponding point pairs that correspond to a new partial region can be easily set by a sliding operation, making it possible to reduce the user's effort. In particular, when multiple rectangular regions surrounded by joints exist side by side in succession, as shown in FIG. 4, it is possible to significantly reduce the user's effort in setting a new partial region.

ここで、S610における、変換後の画像の出力処理についてさらに説明する。本実施形態では、S610において、変換された撮影画像のデータはRAM102等の記憶領域に保持されるとともに、表示デバイスに表示されることによってユーザに提示される。 Here, the output process of the converted image in S610 will be further described. In this embodiment, the data of the converted captured image in S610 is stored in a storage area such as the RAM 102, and is presented to the user by being displayed on a display device.

図14は、図2に示したグラフィカルユーザーインターフェースの一態様を示す。図2で既に説明した要素には図2と同じ番号を付し、詳細な説明は省略する。 Figure 14 shows one aspect of the graphical user interface shown in Figure 2. Elements already described in Figure 2 are numbered the same as in Figure 2, and detailed descriptions are omitted.

図14(a)において、撮影画像表示領域204には、画像1401が表示されている。画像1401は、点検対象であるコンクリート壁面を撮影した画像の一部であり、目地に囲まれた矩形領域が連続的に並んでいる様子が撮像されている。ただし、本実施形態では、コンクリート壁面の点検に画像を利用するため、オルソ補正等の画像処理を実行した後の画像が一定以上の高解像度を維持していることが求められる。コンクリート壁面の広範囲を高解像度で撮影するために、コンクリート壁面を複数回に分割して、分割領域のそれぞれを高解像度で撮影し、スティッチ処理によって合成画像を生成する方法が利用されることがある。すなわち、画像1401は、コンクリート壁面を電子雲台と撮像装置を用いて分割撮影して得た撮像画像を、スティッチ合成することによって得られた画像であってもよい。 In FIG. 14(a), an image 1401 is displayed in the captured image display area 204. The image 1401 is a part of an image of a concrete wall surface to be inspected, and shows a continuous arrangement of rectangular areas surrounded by joints. However, in this embodiment, since the image is used to inspect the concrete wall surface, it is required that the image maintains a certain level of resolution after image processing such as orthorectification. In order to capture a wide area of the concrete wall surface at high resolution, a method may be used in which the concrete wall surface is divided into multiple parts, each divided part is photographed at high resolution, and a composite image is generated by stitching. In other words, the image 1401 may be an image obtained by stitching together captured images obtained by photographing the concrete wall surface in parts using an electronic camera platform and an imaging device.

図面表示領域203には、画像1401に対応する図面データが画像1402として表示されている。図14(a)は、補正指示前のイメージ図であり、1回目の操作として、4つの対応点ペアである基準点209~216が指定されている(S602)。ユーザにより、オルソ補正が指示されると(S607でYes)、画像の変換が実行される(S608、S609)。そして、変換後の画像が出力される(S610)。 In the drawing display area 203, drawing data corresponding to image 1401 is displayed as image 1402. FIG. 14(a) is an image diagram before a correction instruction is given, and reference points 209 to 216, which are four corresponding point pairs, are specified as the first operation (S602). When orthorectification is instructed by the user (Yes in S607), image conversion is executed (S608, S609). Then, the converted image is output (S610).

図14(b)は、変換された画像が新たに表示されたグラフィカルユーザーインターフェースの一例を示す。ただし図14(b)では、対応点ペアのスライド操作はまだ指示されていない。図面表示領域203のうち、指示点209~212で囲まれた矩形領域には、撮影画像表示領域204で指示点213~216によって定義された部分の画像がオルソ変換された結果が重畳表示されている。このように、変換された画像を表示することで、ユーザは変換の結果を確認することができる。ユーザは、結果を確認した上で、次の処理のために対応点のスライド操作を指示する。 Figure 14(b) shows an example of a graphical user interface in which a newly converted image is displayed. However, in Figure 14(b), a sliding operation of the corresponding point pair has not yet been instructed. In the rectangular area of the drawing display area 203 surrounded by the designated points 209 to 212, the result of ortho-converting the image of the portion defined by the designated points 213 to 216 in the captured image display area 204 is superimposed and displayed. By displaying the converted image in this way, the user can check the result of the conversion. After checking the result, the user instructs a sliding operation of the corresponding points for the next process.

図14(c)は、対応点のスライド操作後を示す図であり、更新された4つの対応点ペアが図示されている。基準点1404~1407はスライド操作後の図面における部分領域を規定する基準点群であり、基準点1408~1411はスライド操作後の撮影画像における部分領域を規定する基準点群である。 Figure 14(c) is a diagram showing the corresponding points after the slide operation, and shows the four updated corresponding point pairs. Reference points 1404 to 1407 are a group of reference points that define a partial area in the drawing after the slide operation, and reference points 1408 to 1411 are a group of reference points that define a partial area in the captured image after the slide operation.

また、本実施形態では、変換された画像を、検知器による変状検知処理の対象画像として入力として利用すれば、構造物の広い範囲に渡って構造物に生じている変状(例えばひび割れ)の位置や幅を自動推定することができる。検知器としては、機械学習された学習済みモデルを用いる。学習済みモデルは、構造物を撮影した画像を入力データ、人によって変状(例えばひび割れ)であることが確認された画素を出力データとし、これらの複数個の組を学習データとして機械学習することによって知識を獲得することで生成される。この際、検知結果を観察者が修正したデータを教師データとして再学習してもよい。学習済みモデルは、例えばニューラルネットワークモデルで構成可能である。 In addition, in this embodiment, if the converted image is used as an input for the target image of the anomaly detection process by the detector, the position and width of anomalies (e.g. cracks) occurring in the structure over a wide area of the structure can be automatically estimated. A trained model based on machine learning is used as the detector. The trained model is generated by acquiring knowledge by machine learning using a number of sets of images of the structure as input data, pixels confirmed by humans to be anomalies (e.g. cracks) as output data, and the trained data. At this time, data in which the observer has corrected the detection results may be re-trained as teacher data. The trained model can be configured, for example, as a neural network model.

本実施形態では、ニューラルネットワークによりひび割れを検知する。ニューラルネットワークの入力は、25画素×25画素×RGBである。出力は1つであり、25画素×25画素の中央の画素のひび割れの尤度を表す値(0以上1以下の値)である。ニューラルネットワークは公知の技術であるため詳細な説明は省略する。なお、変状検知処理は、上述したオルソ補正処理と同じ画像処理装置、または当該画像処理装置とともに変状検知のための情報処理システムを構成する他の情報処理装置によって実行され得る。 In this embodiment, cracks are detected using a neural network. The input to the neural network is 25 pixels x 25 pixels x RGB. There is one output, which is a value (a value between 0 and 1) that represents the likelihood of a crack in the center pixel of the 25 pixels x 25 pixels. Since neural networks are a well-known technology, a detailed explanation is omitted. Note that the abnormality detection process can be performed by the same image processing device as the orthorectification process described above, or by another information processing device that, together with the image processing device, constitutes an information processing system for abnormality detection.

なお、第1実施形態において、対応点ペアによって指定された部分画像ごとに座標変換され出力された画像は、図面表示領域203上での配置と、各画像から抽出される特徴点とに基づいて合成することも可能である。 In the first embodiment, the images that are output after coordinate transformation for each partial image specified by the corresponding point pair can also be synthesized based on their arrangement on the drawing display area 203 and the feature points extracted from each image.

(第2実施形態)
第2実施形態では、撮影画像に写り込んだ目地等の特徴線から補助線を生成し、新たな部分領域に対応する複数の対応点ペアの設定に当該補助線を利用する形態について説明する。
Second Embodiment
In the second embodiment, a form will be described in which auxiliary lines are generated from characteristic lines such as joints captured in a captured image, and the auxiliary lines are used to set a plurality of corresponding point pairs corresponding to a new partial region.

図9は、補助線の生成を説明する図である。図9(a)は、補助線の生成が行われる前の撮影画像を例示的に示す図である。撮影画像に対応する画像206には、目地(構造物の部材間の隙間や継ぎ目の部分)の特徴線901が写り込んでいる。図9(b)は、生成された補助線が重畳された撮影画像を表す図である。補助線902は、特徴線901に基づいて生成された補助線である。 Figure 9 is a diagram explaining the generation of auxiliary lines. Figure 9(a) is a diagram showing an example of a captured image before the generation of auxiliary lines. A characteristic line 901 of a joint (a gap or joint between components of a structure) is captured in an image 206 corresponding to the captured image. Figure 9(b) is a diagram showing the captured image on which the generated auxiliary line is superimposed. An auxiliary line 902 is an auxiliary line generated based on the characteristic line 901.

<装置構成>
図10は、第2実施形態に係る画像処理装置の機能構成を示す図である。補助線生成部1001は、画像認識等により、撮影画像に写り込んだ目地等の特徴線から補助線を生成する。なお、ユーザから手動で補助線の入力を受け付ける構成でもよい。上述したように、生成された補助線はスライド操作後の対応点ペアに含まれる基準点の補正に用いられる。
<Device Configuration>
10 is a diagram showing the functional configuration of an image processing apparatus according to the second embodiment. An auxiliary line generating unit 1001 generates auxiliary lines from characteristic lines such as joints captured in a captured image by image recognition or the like. Note that the configuration may also be such that the auxiliary lines are manually input by the user. As described above, the generated auxiliary lines are used to correct the reference points included in the corresponding point pair after the slide operation.

<装置の動作>
図11は、第2実施形態におけるオルソ補正処理のフローチャートである。S601~S611の各ステップは、図6と同様であるため説明を割愛する。
<Device Operation>
11 is a flowchart of the orthorectification process in the second embodiment. Each step of S601 to S611 is the same as that in FIG. 6, so the description will be omitted.

S1101では、補助線生成部1001は、撮影画像に写り込んだ目地等の特徴線を抽出し、補助線を生成する。目地等の特徴線の抽出には、エッジ検出に利用されるCanny法や直線等の特徴抽出に利用されるハフ変換を用いることが出来る。S1102では、基準点入力部305は、スライド操作によって仮指定された新たな複数の対応点ペアに含まれる基準点を、補助線や補助線の交点に基づいて修正する。例えば、対応点ペアに含まれる基準点が、補助線の交点を中心とした所定の範囲に収まっている場合、その基準点の座標を当該交点の座標で置き換える。また、対応点ペアに含まれる基準点が、補助線から所定の範囲に収まっている場合、その基準点から補助線に下ろした垂線の当該補助線との交点によって基準点の座標を修正してもよい。 In S1101, the auxiliary line generating unit 1001 extracts characteristic lines such as joints captured in the captured image and generates auxiliary lines. The Canny method used for edge detection or the Hough transform used for feature extraction of straight lines can be used to extract characteristic lines such as joints. In S1102, the reference point input unit 305 corrects the reference points included in the new multiple corresponding point pairs provisionally specified by the slide operation based on the auxiliary lines and their intersections. For example, if the reference point included in the corresponding point pair is within a predetermined range centered on the intersection of the auxiliary lines, the coordinates of the reference point are replaced with the coordinates of the intersection. Also, if the reference point included in the corresponding point pair is within a predetermined range from the auxiliary lines, the coordinates of the reference point may be corrected based on the intersection of a perpendicular line dropped from the reference point to the auxiliary line with the auxiliary line.

以上説明したように、第2実施形態によれば、ユーザによるk回目の処理における指定操作に基づいて、(k+1)回目に用いる基準点を設定する際に、撮影画像に写りこんだ目地等の特徴線に基づいて補助線を生成し利用する。これにより、対応点ペアに含まれる図面における基準点と撮影画像における基準点のズレの修正におけるユーザの手間を軽減することが可能となる。 As described above, according to the second embodiment, when setting the reference point to be used in the (k+1)th iteration based on the user's specification operation in the kth processing, an auxiliary line is generated and used based on the characteristic lines of joints and the like that appear in the captured image. This makes it possible to reduce the user's effort in correcting the misalignment between the reference point in the drawing included in the corresponding point pair and the reference point in the captured image.

(第3実施形態)
第3実施形態では、新たな部分領域における複数の対応点ペアを、先行して処理した部分領域に対するオルソ補正処理で用いられた変換行列を用いて算出する形態について説明する。
Third Embodiment
In the third embodiment, a form will be described in which a plurality of corresponding point pairs in a new partial region are calculated using the transformation matrix used in the orthorectification process for a previously processed partial region.

<装置構成>
図12は、第3実施形態に係る画像処理装置の機能構成を示す図である。撮影画像基準点算出部1201は、新たな部分領域に対応する図面における基準点群に基づいて、新たな部分領域に対応する撮影画像における基準点群を算出する。具体的には、先行して処理した部分領域に対するオルソ補正処理で用いられた変換行列を用いて、図面における基準点群から撮影画像における基準点群を算出する。
<Device Configuration>
12 is a diagram showing the functional configuration of an image processing apparatus according to the third embodiment. A photographed image reference point calculation unit 1201 calculates a reference point group in a photographed image corresponding to a new partial region based on a reference point group in a drawing corresponding to the new partial region. Specifically, the reference point group in the photographed image is calculated from the reference point group in the drawing by using a transformation matrix used in the orthorectification process for the partial region previously processed.

<装置の動作>
図13は、第3実施形態におけるオルソ補正処理のフローチャートである。S601~S611の各ステップは、図6と同様であるため説明を割愛する。
<Device Operation>
13 is a flowchart of the orthorectification process in the third embodiment. Each step of S601 to S611 is the same as that in FIG. 6, so the description will be omitted.

S1301では、対応点スライド部309は、図面における複数の基準点群のみスライドさせる。スライドさせる向きおよび量については第1実施形態(S604)と同様でよい。S1302では、対応点スライド部309は、S1301で算出された図面における基準点群を、図面に含まれる線分の交点に基づいて補正する。なお、基準点の補正は、線分の交点だけではなく、図面に含まれる任意の図形の輪郭や任意の図形同士の輪郭の交点に対して行われ得る。 In S1301, the corresponding point sliding unit 309 slides only the group of multiple reference points in the drawing. The direction and amount of sliding may be the same as in the first embodiment (S604). In S1302, the corresponding point sliding unit 309 corrects the group of reference points in the drawing calculated in S1301 based on the intersections of line segments included in the drawing. Note that the correction of the reference points can be performed not only for the intersections of line segments, but also for the contours of any shapes included in the drawing or the intersections of the contours of any shapes.

S1303では、撮影画像基準点算出部1201は、S1301およびS1302で求めた図面における基準点群に対して、前回の部分領域(前回のS603~S611のループ)に対してS608で算出された変換行列を適用する。これにより、撮影画像における基準点群が得られる。例えば、前回(k回目のループ)の部分領域に対してS608で算出された変換行列がH(k)であったとする。また、今回((k+1)回目のループ)における部分領域の図面における基準点群がpdn(k+1)であったとする。その場合、今回((k+1)回目のループ)新たに設定する撮影画像における基準点群pin(k+1)は、以下の数式(1)により求めることが出来る。なお、nはIDであり、ここではn=1,2,3,4である。また、H(k) -1は、H(k)の逆行列である。
in(k+1)=H(k) -1dn(k+1) ・・・(1)
In S1303, the captured image reference point calculation unit 1201 applies the transformation matrix calculated in S608 for the previous partial region (the previous loop of S603 to S611) to the reference point group in the drawing obtained in S1301 and S1302. This allows the reference point group in the captured image to be obtained. For example, it is assumed that the transformation matrix calculated in S608 for the partial region in the previous (kth loop) was H (k) . It is also assumed that the reference point group in the drawing of the partial region in this ((k+1)th loop) is pdn(k+1) . In this case, the reference point group p in(k+1) in the captured image to be newly set this time ((k+1 )th loop) can be obtained by the following formula (1). Note that n is an ID, and here n=1, 2, 3, 4. It is also assumed that H (k) -1 is the inverse matrix of H (k) .
p in(k+1) = H (k) - 1 p dn(k+1) ... (1)

なお、数式(1)で求められた撮影画像における基準点群について、第2実施形態で説明した補助線を用いて更に補正を行ってもよい。 The reference point group in the captured image calculated by formula (1) may be further corrected using the auxiliary lines described in the second embodiment.

以上説明したように、第3実施形態によれば、新たな部分領域における複数の対応点ペアを、先行して処理した部分領域に対するオルソ補正処理で用いられた変換行列を用いて算出する。これにより、新たな部分領域に対応する撮影画像における基準点群の座標をより正確に導出することが出来、ズレの修正におけるユーザの手間を軽減することが可能となる。 As described above, according to the third embodiment, multiple corresponding point pairs in a new partial region are calculated using the transformation matrix used in the orthorectification process for the previously processed partial region. This makes it possible to more accurately derive the coordinates of the reference point group in the captured image corresponding to the new partial region, reducing the user's effort in correcting the misalignment.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Examples
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above-described embodiment, and various modifications and variations are possible without departing from the spirit and scope of the invention. Therefore, the following claims are appended to disclose the scope of the invention.

301 図面入力部; 302 図面表示部; 303 撮影画像入力部; 304 撮影画像表示部; 305 基準点入力部; 306 基準点管理部; 307 オルソ補正部; 308 オルソ画像出力部; 309 対応点スライド部 301 Drawing input section; 302 Drawing display section; 303 Photographed image input section; 304 Photographed image display section; 305 Reference point input section; 306 Reference point management section; 307 Ortho-correction section; 308 Ortho-image output section; 309 Corresponding point slide section

Claims (27)

物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の画像は、前記物体の設計図面であり、
前記第2の画像は、前記物体を撮影して得られる撮影画像であり、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする画像処理装置。
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including an image obtained by photographing the object;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first image is a design drawing of the object;
the second image is a photographed image obtained by photographing the object,
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
2. An image processing apparatus comprising: a first specifying unit for specifying the third partial area based on the first partial area.
前記第1の部分領域と前記第2の部分領域の少なくとも一方に対するユーザからの修正を受け付ける受付手段を更に有する
ことを特徴とする請求項に記載の画像処理装置。
2. The image processing apparatus according to claim 1 , further comprising a receiving unit for receiving a correction from a user to at least one of the first partial region and the second partial region.
前記物体は、構造物であり、
前記第2の画像は、前記構造物の壁面を撮影して得られる撮影画像であり、
前記変換手段によって変換された画像は、前記構造物の壁面に生じた変状検知処理に利用される
ことを特徴とする請求項1または2に記載の画像処理装置。
the object is a structure,
the second image is a captured image obtained by capturing an image of a wall surface of the structure,
3. The image processing apparatus according to claim 1 , wherein the image converted by the conversion means is used in a process for detecting abnormalities occurring on a wall surface of the structure.
前記第2の画像は、前記構造物の壁面の異なる領域をそれぞれ撮影して得られた複数の画像を合成した画像である
ことを特徴とする請求項に記載の画像処理装置。
4. The image processing apparatus according to claim 3 , wherein the second image is an image obtained by synthesizing a plurality of images obtained by photographing different areas of a wall surface of the structure.
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の部分領域と前記第2の部分領域の少なくとも一方に対するユーザからの修正を受け付ける受付手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする画像処理装置。
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including an image obtained by photographing the object;
a receiving means for receiving a correction from a user to at least one of the first partial region and the second partial region;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
2. An image processing apparatus comprising: a first specifying unit for specifying the third partial area based on the first partial area.
前記第1の部分領域および前記第2の部分領域は、それぞれ同数の複数の基準点により指定される
ことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
6. The image processing apparatus according to claim 1, wherein the first partial area and the second partial area are each specified by an equal number of reference points.
前記変換手段は、前記複数の基準点の座標に基づいて、前記第2の画像の画像座標系を前記所定の座標系に射影変換するホモグラフィ行列を算出し、該算出したホモグラフィ行列を用いて前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する
ことを特徴とする請求項に記載の画像処理装置。
7. The image processing device according to claim 6, wherein the conversion means calculates a homography matrix that performs projective transformation of an image coordinate system of the second image into the predetermined coordinate system based on the coordinates of the plurality of reference points, and converts the image of the second partial region into an image conforming to the predetermined coordinate system using the calculated homography matrix.
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の部分領域および前記第2の部分領域は、それぞれ同数の複数の基準点により指定され、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする画像処理装置。
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including an image obtained by photographing the object;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first partial region and the second partial region are each specified by an equal number of reference points;
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
2. An image processing apparatus comprising: a first specifying unit for specifying the third partial area based on the first partial area.
前記変換手段は、前記複数の基準点の座標に基づいて、前記第2の画像の画像座標系を前記所定の座標系に射影変換するホモグラフィ行列を算出し、該算出したホモグラフィ行列を用いて前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する
ことを特徴とする請求項に記載の画像処理装置。
9. The image processing device according to claim 8, wherein the conversion means calculates a homography matrix that performs projective transformation of an image coordinate system of the second image into the predetermined coordinate system based on the coordinates of the plurality of reference points, and converts the image of the second partial region into an image conforming to the predetermined coordinate system using the calculated homography matrix.
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて座標変換行列を導出する導出手段を更に有し、
前記変換手段は、前記導出手段により導出された座標変換行列に基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
a derivation means for deriving a coordinate transformation matrix based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image,
10. The image processing device according to claim 1, wherein the conversion means converts the image of the second partial region into an image conforming to the predetermined coordinate system based on the coordinate transformation matrix derived by the derivation means.
前記第1の指定手段は、前記第1の部分領域を並進移動して得られかつ前記第1の部分領域に隣接する領域を、前記第3の部分領域として指定する
ことを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
11. The image processing device according to claim 1, wherein the first designation means designates, as the third partial region, a region obtained by translating the first partial region and adjacent to the first partial region.
前記第2の指定手段は、前記第2の画像に対して、前記第3の部分領域に対応する第4の部分領域をさらに指定するよう構成されており、
前記第2の指定手段は、前記第2の部分領域に基づいて前記第4の部分領域を指定する
ことを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
the second designation means is configured to further designate a fourth partial region corresponding to the third partial region in the second image;
12. The image processing apparatus according to claim 1, wherein the second designation means designates the fourth partial region on the basis of the second partial region.
前記第2の画像における前記物体の特徴線を検出する検出手段を更に有し、
前記第2の指定手段は、前記第2の部分領域の座標に基づいて、前記第4の部分領域を仮指定し、該仮指定された第4の部分領域を前記検出手段により検出された特徴線に基づいて修正する
ことを特徴とする請求項12に記載の画像処理装置。
The method further comprises: detecting means for detecting a characteristic line of the object in the second image;
13. The image processing device according to claim 12, wherein the second designation means provisionally designates the fourth partial area based on the coordinates of the second partial area, and corrects the provisionally designated fourth partial area based on the characteristic line detected by the detection means.
前記第2の指定手段により前記修正が行われた場合に、視覚的、聴覚的または触覚的なフィードバックをユーザに提供する提供手段を更に有する
ことを特徴とする請求項13に記載の画像処理装置。
14. The image processing apparatus according to claim 13 , further comprising a providing unit that provides a visual, audio or tactile feedback to the user when the correction is made by the second designation unit.
前記第2の指定手段は、前記第2の画像に対して、前記第3の部分領域に対応する第4の部分領域をさらに指定するよう構成されており、
前記第2の指定手段は、前記導出手段が導出した座標変換行列の逆行列と前記第3の部分領域の座標とに基づいて導出された座標に基づいて、前記第4の部分領域を指定する
ことを特徴とする請求項10に従属する場合の請求項12に記載の画像処理装置。
the second designation means is configured to further designate a fourth partial region corresponding to the third partial region in the second image;
The image processing device according to claim 12 when dependent on claim 10, characterized in that the second designation means designates the fourth partial area based on coordinates derived based on the inverse matrix of the coordinate transformation matrix derived by the derivation means and the coordinates of the third partial area.
表示デバイスに、前記変換された第2の部分領域の画像を前記第1の部分領域に重ねて表示させる表示制御手段を更に有する
ことを特徴とする請求項1乃至15のいずれか1項に記載の画像処理装置。
16. The image processing apparatus according to claim 1, further comprising a display control unit that causes a display device to display the image of the converted second partial region superimposed on the first partial region.
前記表示制御手段は、前記表示デバイスに、前記第1の画像と前記第2の画像とを並べて表示させる
ことを特徴とする請求項16に記載の画像処理装置。
17. The image processing apparatus according to claim 16 , wherein the display control means causes the display device to display the first image and the second image side by side.
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の画像は、前記物体の設計図面であり、
前記第2の画像は、前記物体を撮影して得られる撮影画像であり、
前記第1の指定手段は、順次、前記第1の画像において互いに異なる第1の部分領域を指定するよう構成されており、
前記第1の指定手段は、k回目に指定した第1の部分領域に基づいて、(k+1)回目の第1の部分領域を指定する
ことを特徴とする画像処理装置。
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first image is a design drawing of the object;
the second image is a photographed image obtained by photographing the object,
the first designation means is configured to sequentially designate first partial regions different from one another in the first image;
The image processing apparatus according to claim 1, wherein the first designation means designates a (k+1)th first partial area based on a kth first partial area designated.
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の部分領域と前記第2の部分領域の少なくとも一方に対するユーザからの修正を受け付ける受付手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の指定手段は、順次、前記第1の画像において互いに異なる第1の部分領域を指定するよう構成されており、
前記第1の指定手段は、k回目に指定した第1の部分領域に基づいて、(k+1)回目の第1の部分領域を指定する
ことを特徴とする画像処理装置。
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including an image obtained by photographing the object;
a receiving means for receiving a correction from a user to at least one of the first partial region and the second partial region;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first designation means is configured to sequentially designate first partial regions different from one another in the first image;
The image processing apparatus according to claim 1, wherein the first designation means designates a (k+1)th first partial area based on a kth first partial area designated.
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の部分領域および前記第2の部分領域は、それぞれ同数の複数の基準点により指定され、
前記第1の指定手段は、順次、前記第1の画像において互いに異なる第1の部分領域を指定するよう構成されており、
前記第1の指定手段は、k回目に指定した第1の部分領域に基づいて、(k+1)回目の第1の部分領域を指定する
ことを特徴とする画像処理装置。
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including an image obtained by photographing the object;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first partial region and the second partial region are each specified by an equal number of reference points;
the first designation means is configured to sequentially designate first partial regions different from one another in the first image;
The image processing apparatus according to claim 1, wherein the first designation means designates a (k+1)th first partial area based on a kth first partial area designated.
コンピュータを、請求項1乃至20のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each of the means of the image processing apparatus according to any one of claims 1 to 20 . 所定の座標系に従った画像を生成する画像処理装置の制御方法であって、
物体の構造が前記所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定工程と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定工程と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換工程と、
を含み、
前記第1の画像は、前記物体の設計図面であり、
前記第2の画像は、前記物体を撮影して得られる撮影画像であり、
前記第1の指定工程では、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定し、
前記第1の指定工程では、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする画像処理装置の制御方法。
A method for controlling an image processing device that generates an image according to a predetermined coordinate system, comprising the steps of:
a first designation step of designating a first partial region in a first image in which a structure of an object is drawn according to the predetermined coordinate system;
a second designation step of designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a conversion step of converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
Including,
the first image is a design drawing of the object;
the second image is a photographed image obtained by photographing the object,
In the first designation step, a third partial region different from the first partial region is further designated in the first image,
2. A method for controlling an image processing apparatus, comprising: specifying the third partial area based on the first partial area in the first specifying step.
所定の座標系に従った画像を生成する画像処理装置の制御方法であって、
物体の構造が前記所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定工程と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定工程と、
前記第1の部分領域と前記第2の部分領域の少なくとも一方に対するユーザからの修正を受け付ける受付工程と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換工程と、
を含み、
前記第1の指定工程では、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定し、
前記第1の指定工程では、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする画像処理装置の制御方法。
A method for controlling an image processing device that generates an image according to a predetermined coordinate system, comprising the steps of:
a first designation step of designating a first partial region in a first image in which a structure of an object is drawn according to the predetermined coordinate system;
a second designation step of designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a receiving step of receiving a correction from a user for at least one of the first partial region and the second partial region;
a conversion step of converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
Including,
In the first designation step, a third partial region different from the first partial region is further designated in the first image,
2. A method for controlling an image processing apparatus, comprising: specifying the third partial area based on the first partial area in the first specifying step.
所定の座標系に従った画像を生成する画像処理装置の制御方法であって、
物体の構造が前記所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定工程と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定工程と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換工程と、
を含み、
前記第1の部分領域および前記第2の部分領域は、それぞれ同数の複数の基準点により指定され、
前記第1の指定工程では、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定し、
前記第1の指定工程では、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする画像処理装置の制御方法。
A method for controlling an image processing device that generates an image according to a predetermined coordinate system, comprising the steps of:
a first designation step of designating a first partial region in a first image in which a structure of an object is drawn according to the predetermined coordinate system;
a second designation step of designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a conversion step of converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
Including,
the first partial region and the second partial region are each specified by an equal number of reference points;
In the first designation step, a third partial region different from the first partial region is further designated in the first image,
2. A method for controlling an image processing apparatus, comprising: specifying the third partial area based on the first partial area in the first specifying step.
構造物の壁面に生じた変状を検知する情報処理システムであって、
前記構造物が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記構造物の壁面を撮影して得られる撮影画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
前記変換手段によって変換された画像から、前記構造物の壁面に生じた変状を検知する検知手段と、
を有し、
前記第1の画像は、前記構造物の設計図面であり、
前記第2の画像は、前記構造物を撮影して得られる撮影画像であり、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする情報処理システム。
An information processing system for detecting a deformation occurring on a wall surface of a structure,
a first designation means for designating a first partial region in a first image in which the structure is rendered according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including a captured image obtained by capturing an image of a wall surface of the structure;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
A detection means for detecting a defect occurring on a wall surface of the structure from the image converted by the conversion means;
having
the first image is a design drawing of the structure;
the second image is a photographed image obtained by photographing the structure,
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
An information processing system, wherein the first designation means designates the third partial region based on the first partial region.
構造物の壁面に生じた変状を検知する情報処理システムであって、
前記構造物が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記構造物の壁面を撮影して得られる撮影画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の部分領域と前記第2の部分領域の少なくとも一方に対するユーザからの修正を受け付ける受付手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
前記変換手段によって変換された画像から、前記構造物の壁面に生じた変状を検知する検知手段と、
を有し、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする情報処理システム。
An information processing system for detecting a deformation occurring on a wall surface of a structure,
a first designation means for designating a first partial region in a first image in which the structure is rendered according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including a captured image obtained by capturing an image of a wall surface of the structure;
a receiving means for receiving a correction from a user to at least one of the first partial region and the second partial region;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
A detection means for detecting a defect occurring on a wall surface of the structure from the image converted by the conversion means;
having
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
An information processing system, wherein the first designation means designates the third partial region based on the first partial region.
構造物の壁面に生じた変状を検知する情報処理システムであって、
前記構造物が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記構造物の壁面を撮影して得られる撮影画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
前記変換手段によって変換された画像から、前記構造物の壁面に生じた変状を検知する検知手段と、
を有し、
前記第1の部分領域および前記第2の部分領域は、それぞれ同数の複数の基準点により指定され、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする情報処理システム。
An information processing system for detecting a deformation occurring on a wall surface of a structure,
a first designation means for designating a first partial region in a first image in which the structure is rendered according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including a captured image obtained by capturing an image of a wall surface of the structure;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
A detection means for detecting a defect occurring on a wall surface of the structure from the image converted by the conversion means;
having
the first partial region and the second partial region are each specified by an equal number of reference points;
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
An information processing system, wherein the first designation means designates the third partial region based on the first partial region.
JP2019193639A 2019-01-11 2019-10-24 Image processing device and control method thereof, and information processing system Active JP7477956B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201911345205.2A CN111435969B (en) 2019-01-11 2019-12-24 Image processing apparatus, control method thereof, recording medium, and information processing system
US16/733,572 US11074670B2 (en) 2019-01-11 2020-01-03 Image processing apparatus, control method thereof, recording medium, and information processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019003610 2019-01-11
JP2019003610 2019-01-11

Publications (3)

Publication Number Publication Date
JP2020113247A JP2020113247A (en) 2020-07-27
JP2020113247A5 JP2020113247A5 (en) 2022-11-01
JP7477956B2 true JP7477956B2 (en) 2024-05-02

Family

ID=71667496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019193639A Active JP7477956B2 (en) 2019-01-11 2019-10-24 Image processing device and control method thereof, and information processing system

Country Status (1)

Country Link
JP (1) JP7477956B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200822A (en) * 2020-10-28 2021-01-08 广东南方数码科技股份有限公司 Table reconstruction method and device, computer equipment and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002328096A (en) 2001-04-27 2002-11-15 Tokyo Electric Power Co Inc:The Program, method, and system for detecting crack defect generated on structure
JP2002352238A (en) 2001-05-29 2002-12-06 Fuji Photo Film Co Ltd Device and method for processing image, and program and recording medium
JP2004318790A (en) 2003-04-16 2004-11-11 Im Soft Kk Inspection device and inspection method for structure, and recording medium
JP2009133082A (en) 2007-11-29 2009-06-18 Hitachi Plant Technologies Ltd Insert installation position collating method and insert installation position collating system
JP2012202858A (en) 2011-03-25 2012-10-22 Railway Technical Research Institute Closure crack detection method of concrete surface
WO2018168406A1 (en) 2017-03-16 2018-09-20 富士フイルム株式会社 Photography control device, photography system, and photography control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002328096A (en) 2001-04-27 2002-11-15 Tokyo Electric Power Co Inc:The Program, method, and system for detecting crack defect generated on structure
JP2002352238A (en) 2001-05-29 2002-12-06 Fuji Photo Film Co Ltd Device and method for processing image, and program and recording medium
JP2004318790A (en) 2003-04-16 2004-11-11 Im Soft Kk Inspection device and inspection method for structure, and recording medium
JP2009133082A (en) 2007-11-29 2009-06-18 Hitachi Plant Technologies Ltd Insert installation position collating method and insert installation position collating system
JP2012202858A (en) 2011-03-25 2012-10-22 Railway Technical Research Institute Closure crack detection method of concrete surface
WO2018168406A1 (en) 2017-03-16 2018-09-20 富士フイルム株式会社 Photography control device, photography system, and photography control method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Crouch JR et al., ,"Automated finite-element analysis for deformable registration of prostate images.",IEEE transactions on medical imaging,米国,IEEE,2007年10月01日,VOL.26, NO.10,pp.1379-1390
藤井大輝ほか,屋内壁面ひび割れ検出のためのイメージモザイキング,電気学会 次世代産業システム研究会 2016,電気学会,2016年03月22日,pp.55-58

Also Published As

Publication number Publication date
JP2020113247A (en) 2020-07-27

Similar Documents

Publication Publication Date Title
JP4070493B2 (en) X-ray diagnostic apparatus and medical image analysis apparatus
CN104169941A (en) Automatic tracking matte system
JP2015201760A (en) Image projection system and image projection method
JPWO2006131967A1 (en) Image processing device
JP5825256B2 (en) Image processing apparatus, image processing method, and image processing program
WO2019093457A1 (en) Information processing device, information processing method and program
US11416978B2 (en) Image processing apparatus, control method and non-transitory computer-readable recording medium therefor
KR101875047B1 (en) System and method for 3d modelling using photogrammetry
JP7477956B2 (en) Image processing device and control method thereof, and information processing system
JP2010093343A (en) Camerawork optimization program, imaging apparatus, and camerawork optimization method
JP2015171143A (en) Camera calibration method and apparatus using color-coded structure, and computer readable storage medium
CN111435969B (en) Image processing apparatus, control method thereof, recording medium, and information processing system
JP2005332177A (en) Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program
US11830177B2 (en) Image processing apparatus, control method and non-transitory computer-readable recording medium therefor
JP2018185658A (en) Information processing apparatus, information processing method, and program
KR100908084B1 (en) Recording medium recording method of 3-dimensional coordinates of subject and program for executing the method in computer
JP2005174151A (en) Three-dimensional image display device and method
JP7329951B2 (en) Image processing device and its control method
JP2019106075A (en) Inspection image synthesizing device, inspection image synthesizing system, inspection image synthesizing method and program
CN113167568B (en) Coordinate calculation device, coordinate calculation method, and computer-readable recording medium
JP2003087550A (en) Device and method for compositing image and computer readable recording medium having image composite processing program recorded thereon
Wang et al. Post-stitching depth adjustment for stereoscopic panorama
JP7466382B2 (en) Information processing device, information processing method, and program
WO2019054235A1 (en) Information processing device, information processing method, and program
JP6962242B2 (en) Information processing device, superimposition display program, superimposition display method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240419

R150 Certificate of patent or registration of utility model

Ref document number: 7477956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150