JP7477956B2 - Image processing device and control method thereof, and information processing system - Google Patents
Image processing device and control method thereof, and information processing system Download PDFInfo
- Publication number
- JP7477956B2 JP7477956B2 JP2019193639A JP2019193639A JP7477956B2 JP 7477956 B2 JP7477956 B2 JP 7477956B2 JP 2019193639 A JP2019193639 A JP 2019193639A JP 2019193639 A JP2019193639 A JP 2019193639A JP 7477956 B2 JP7477956 B2 JP 7477956B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- partial region
- partial
- coordinates
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 66
- 238000012545 processing Methods 0.000 title claims description 65
- 230000010365 information processing Effects 0.000 title claims description 9
- 230000008569 process Effects 0.000 claims description 46
- 238000006243 chemical reaction Methods 0.000 claims description 31
- 239000011159 matrix material Substances 0.000 claims description 22
- 238000012937 correction Methods 0.000 claims description 19
- 230000009466 transformation Effects 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 8
- 230000005856 abnormality Effects 0.000 claims description 7
- 238000013461 design Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 3
- 230000007547 defect Effects 0.000 claims 3
- 238000009795 derivation Methods 0.000 claims 3
- 230000001419 dependent effect Effects 0.000 claims 1
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 22
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000008570 general process Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
Description
本発明は、オルソ補正を行う画像処理技術に関するものである。 The present invention relates to image processing technology for orthorectification.
従来、インフラ構造物の点検においては、目視によって構造物のひび割れなどの変状を確認し、それを正面図に書き込むことで帳票を作成していた。一方で、近年は、撮影画像に基づいた帳票の作成が行われるようになってきている。その場合、まず、正対する位置から構造物の壁面を撮影し、撮影画像を正面図に位置合わせする。そして、正面図に位置合わせした撮影画像上に直接変状を書き込むことで帳票を作成する。ただし、地形的な要因等により、構造物を正対する位置から撮影できない場合がある。 Traditionally, when inspecting infrastructure structures, cracks and other abnormalities in the structure were confirmed visually, and a report was created by noting the abnormalities on a front view. However, in recent years, reports have begun to be created based on photographed images. In this case, the wall surface of the structure is first photographed from a position directly facing the structure, and the photographed image is aligned with the front view. The report is then created by noting the abnormalities directly on the photographed image aligned with the front view. However, there are cases where it is not possible to photograph the structure from a position directly facing the structure due to factors such as topography.
特許文献1では、地図と撮影画像を対応付け、撮影画像を地上に正対する位置から撮影した場合の見えに変換する技術が開示されている。変換により得られる画像はオルソ画像と呼ばれ、オルソ画像を得るための変換処理はオルソ補正処理と呼ばれる。特許文献1における地図を構造物の正面図と読み替えてオルソ補正処理を利用することにより、インフラ構造物の点検に利用可能な画像を得ることができる。
しかしながら、アーチダム壁面のように構造物表面が曲面である場合、上述のオルソ補正処理により得られるオルソ画像は歪みを含んでしまうことになる。その場合、撮影画像全体に対してオルソ補正処理を適用する替わりに、撮影画像内の部分領域ごとにオルソ補正処理を適用することで、歪みの少ない画像を得ることができる。ただし、部分領域ごとに正面図と撮影画像の対応付け操作を繰り返し行う必要があり、手間がかかる処理となっている。 However, when the surface of a structure is curved, such as the wall of an arch dam, the ortho-image obtained by the above-mentioned orthorectification process will contain distortion. In such cases, instead of applying the orthorectification process to the entire captured image, an image with less distortion can be obtained by applying the orthorectification process to each partial region within the captured image. However, it is necessary to repeatedly match the front view with the captured image for each partial region, making this a time-consuming process.
本発明は、このような問題に鑑みてなされたものであり、処理対象領域である部分領域の指定をより簡便な操作で可能とする技術を提供することを目的としている。 The present invention was made in consideration of such problems, and aims to provide a technology that enables the specification of a partial area to be processed with simpler operations.
上述の問題点を解決するため、本発明に係る画像処理装置は以下の構成を備える。すなわち、画像処理装置は、
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の画像は、前記物体の設計図面であり、
前記第2の画像は、前記物体を撮影して得られる撮影画像であり、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する。
画像処理装置は、
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の部分領域と前記第2の部分領域の少なくとも一方に対するユーザからの修正を受け付ける受付手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する。
画像処理装置は、
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の部分領域および前記第2の部分領域は、それぞれ同数の複数の基準点により指定され、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する。
あるいは、画像処理装置は、
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の画像は、前記物体の設計図面であり、
前記第2の画像は、前記物体を撮影して得られる撮影画像であり、
前記第1の指定手段は、順次、前記第1の画像において互いに異なる第1の部分領域を指定するよう構成されており、
前記第1の指定手段は、k回目に指定した第1の部分領域に基づいて、(k+1)回目の第1の部分領域を指定する。
画像処理装置は、
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の部分領域と前記第2の部分領域の少なくとも一方に対するユーザからの修正を受け付ける受付手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の指定手段は、順次、前記第1の画像において互いに異なる第1の部分領域を指定するよう構成されており、
前記第1の指定手段は、k回目に指定した第1の部分領域に基づいて、(k+1)回目の第1の部分領域を指定する。
画像処理装置は、
物体の構造が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の部分領域および前記第2の部分領域は、それぞれ同数の複数の基準点により指定され、
前記第1の指定手段は、順次、前記第1の画像において互いに異なる第1の部分領域を指定するよう構成されており、
前記第1の指定手段は、k回目に指定した第1の部分領域に基づいて、(k+1)回目の第1の部分領域を指定する。
In order to solve the above-mentioned problems, the image processing device according to the present invention has the following arrangement.
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first image is a design drawing of the object;
the second image is a photographed image obtained by photographing the object,
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
The first designation means designates the third partial region based on the first partial region.
The image processing device includes:
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including an image obtained by photographing the object;
a receiving means for receiving a correction from a user to at least one of the first partial region and the second partial region;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
The first designation means designates the third partial region based on the first partial region.
The image processing device includes:
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first partial region and the second partial region are each specified by an equal number of reference points;
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
The first designation means designates the third partial region based on the first partial region.
Alternatively, the image processing device includes:
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first image is a design drawing of the object;
the second image is a photographed image obtained by photographing the object,
the first designation means is configured to sequentially designate first partial regions different from one another in the first image;
The first designation means designates a (k+1)th first partial region based on the kth first partial region designated.
The image processing device includes:
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a receiving means for receiving a correction from a user to at least one of the first partial region and the second partial region;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first designation means is configured to sequentially designate first partial regions different from one another in the first image;
The first designation means designates a (k+1)th first partial region based on the kth first partial region designated.
The image processing device includes:
a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first partial region and the second partial region are each specified by an equal number of reference points;
the first designation means is configured to sequentially designate first partial regions different from one another in the first image;
The first designation means designates a (k+1)th first partial region based on the kth first partial region designated.
本発明によれば、処理対象領域である部分領域の指定をより簡便な操作で可能とする技術を提供することができる。 The present invention provides a technology that allows the specification of a partial area to be processed with simpler operations.
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 The following embodiments are described in detail with reference to the attached drawings. Note that the following embodiments do not limit the invention according to the claims. Although the embodiments describe multiple features, not all of these multiple features are necessarily essential to the invention, and multiple features may be combined in any manner. Furthermore, in the attached drawings, the same reference numbers are used for the same or similar configurations, and duplicate explanations are omitted.
(第1実施形態)
本発明に係る画像処理装置の第1実施形態として、物体である構造物の図面および当該構造物の撮影画像を入力し、当該撮影画像に基づくオルソ画像を生成する画像処理装置を例に挙げて以下に説明する。なお、構造物を正対する位置から撮影できない場合に、撮像装置の光軸を構造物に対して傾けた状態で行われる撮影手法は、あおり撮影と呼ばれることがある。また、被写体をあおり撮影した画像を、被写体に正対する位置から撮影した場合の見えに変換する処理をあおり補正と呼ぶことがある。以下、本明細書においてオルソ画像の生成(オルソ補正)という表現は、特定の変換手法に寄らず、撮像装置の光軸を被写体に対して傾けた状態で撮影された画像を変換し、被写体に正対した位置からの見えを再現する処理全般を含む。
First Embodiment
As a first embodiment of the image processing device according to the present invention, an image processing device that inputs a drawing of a structure as an object and a photographed image of the structure and generates an orthoimage based on the photographed image will be described below. When a structure cannot be photographed from a position facing the structure, a photographing technique in which the optical axis of the imaging device is tilted with respect to the structure is sometimes called tilted photography. In addition, a process of converting an image of a subject photographed from a tilted angle into an appearance when photographed from a position facing the subject is sometimes called tilt correction. Hereinafter, the expression "generation of an orthoimage (orthorectification)" in this specification does not depend on a specific conversion technique, but includes a general process of converting an image photographed with the optical axis of the imaging device tilted with respect to the subject and reproducing the appearance from a position facing the subject.
<装置構成>
図1は、第1実施形態に係る画像処理装置のハードウェア構成を示す図である。
<Device Configuration>
FIG. 1 is a diagram showing the hardware configuration of an image processing apparatus according to the first embodiment.
中央演算装置(CPU)101は、コンピュータシステムの制御をつかさどる。CPU101が、制御プログラムに基づいて、情報の演算や加工、各ハードウェアの制御を実行することにより後述する各機能構成、処理を実現する。ランダムアクセスメモリ(RAM)102は、CPU101の主メモリとして、実行プログラムのロードやプログラム実行に必要なワークメモリとして機能する。リードオンリーメモリー(ROM)103は、CPU101の動作処理手順を規定する制御プログラムを記録している。ROM103には、コンピュータシステムの機器制御を行うシステムプログラムである基本ソフト(OS)を記録したプログラムROMとシステムを稼動するために必要な情報などが記録されたデータROMがある。ROM103の代わりに後述のHDD107を用いる場合もある。
The central processing unit (CPU) 101 is responsible for controlling the computer system. Based on a control program, the
ネットワークインターフェース(NETIF)104は、ネットワークを介して送受信されるデータの入出力制御を行う。表示デバイス105は、例えば、CRTディスプレイや、液晶ディスプレイ等である。入力デバイス106は、ユーザからの操作指示を受け付けるための、例えば、タッチパネル、キーボード、マウスなどである。ハードディスクドライブ(HDD)107は、記憶装置である。HDD107は、アプリケーションプログラムなどのデータ保存用に用いられる。入出力バス108は、上述した各ユニット間を接続するためのバス(アドレスバス、データバス、及び制御バス)である。
The network interface (NETIF) 104 controls the input and output of data sent and received via the network. The
図2は、表示デバイスに表示される画面を例示的に示す図である。当該画面は、ユーザに情報を提供しかつユーザからの入力を受け付けるグラフィカルユーザーインターフェース(GUI)であり、画像処理装置による表示制御により表示デバイスに表示される。 Figure 2 is a diagram showing an example of a screen displayed on a display device. The screen is a graphical user interface (GUI) that provides information to a user and accepts input from the user, and is displayed on the display device under display control by an image processing device.
画面には、図面読み込みボタン201、画像読み込みボタン202、図面表示領域203、撮影画像表示領域204、オルソ補正指示ボタン207、アプリケーション終了ボタン208が配置される。
The screen includes a
図面読み込みボタン201は、図面の読み込みを指示するためのボタンである。ここで、図面とは、例えば、所定の座標系に従って描画された構造物の設計図面(正面図など)である。CADソフトで用いられるような構造物の寸法情報を含むベクタ画像データでもよい。ベクタ画像データとは、線や円、多角形などの図形がベクトル情報により画像を表現する形式の画像データである。なお、図面としてラスタ画像データを使用してもよい。ラスタ画像データとは、色や濃度を表すピクセルの配列により画像を表現する形式の画像データである。そして、読み込まれた図面は、図面表示領域203に画像205として表示される。
The
画像読み込みボタン202は、撮影画像の読み込みを指示するためのボタンである。ここで、撮影画像とは、例えば、上述の図面に対応する構造物を撮影して得られる画像である。一般的には、撮影画像は、ラスタ画像データである。そして、読み込まれた撮影画像は、撮影画像表示領域204に画像206として表示される。
The
画像205において、正方形(□)で示した基準点209~212は、図面上に配置された基準点である。画像206において、正方形で示した基準点213~216は、撮影画像上に配置された基準点である。基準点209~212及び基準点213~216において、正方形内の数字が同一である基準点のペアは、構造物の同一位置を表す。このような基準点のペアを以下では対応点ペアと呼ぶ。すなわち、図2においては、基準点209と基準点213、基準点210と基準点214、基準点211と基準点215、基準点212と基準点216、の4つの対応点ペアが図示されている。なお、ここでは、正方形内の数字により構造物上の同一位置を表す図面上または撮影画像上の基準点を表現しているが、色や記号を割り当てることで対応点ペアを表してもよい。あるいは、ユーザにとって自明である場合等は、ペアの対応関係はGUI上では明示せずともよい。
In
図3は、第1実施形態に係る画像処理装置の機能構成を示す図である。図面入力部301は、図面の入力を受け付ける。図面表示部302は、図面入力部301によって入力された図面を図面表示領域203に表示する。撮影画像入力部303は、撮影画像の入力を受け付ける。撮影画像表示部304は、撮影画像入力部303によって入力された画像を撮影画像表示領域204に表示する。
Figure 3 is a diagram showing the functional configuration of the image processing device according to the first embodiment. The drawing
基準点入力部305は、図面表示領域203上に表示された図面および撮影画像表示領域204上に表示された撮影画像について、入力デバイス106を介して基準点の座標入力を受け付ける。基準点管理部306は、基準点入力部305によって入力された基準点を保持する。
The reference
なお、図面上で基準点を入力する場合、入力された基準点が、図面に含まれる特徴点(線分の交点などの位置決めが容易な部分)を中心とした所定の範囲に収まっている場合、入力された基準点の座標を当該特徴点の座標で置き換えてもよい。また、図面上に表示されたマウスカーソルのようなポインタが、特徴点を中心とした所定の範囲に侵入した際に、当該特徴点にポインタを移動させてもよい。また、特徴点として、線分の交点だけでなく、図面に含まれる任意の図形の輪郭や任意の図形同士の輪郭の交点なども利用可能である。基準点やポインタの座標が補正された際に、ユーザに対して視覚的、聴覚的または触覚的フィードバックを与えることで、座標が補正されたことを明示してもよい。視覚的フィードバックには、座標が補正された際に、基準点やポインタの色を変える、基準点やポインタを点滅させる、基準点やポインタの大きさを変える等の方法が考えられる。聴覚的フィードバックには、座標が補正された際に、音を鳴らす等の方法が考えられる。触覚的フィードバックには、座標が補正された際に、入力デバイス106を振動させる等の方法が考えられる。
When inputting a reference point on a drawing, if the input reference point falls within a predetermined range centered on a feature point (a part that is easy to position, such as an intersection of line segments) included in the drawing, the coordinates of the input reference point may be replaced with the coordinates of the feature point. Also, when a pointer such as a mouse cursor displayed on the drawing enters a predetermined range centered on a feature point, the pointer may be moved to the feature point. Also, as a feature point, not only the intersection of line segments but also the outline of any figure included in the drawing or the intersection of the outlines of any figures may be used. When the coordinates of the reference point or the pointer are corrected, visual, auditory, or tactile feedback may be given to the user to clearly indicate that the coordinates have been corrected. As visual feedback, methods such as changing the color of the reference point or the pointer, blinking the reference point or the pointer, or changing the size of the reference point or the pointer when the coordinates are corrected are possible. As auditory feedback, methods such as sounding a sound when the coordinates are corrected are possible. As tactile feedback, methods such as vibrating the
オルソ補正部307は、撮影画像に対してオルソ補正処理を実行する。オルソ補正処理における補正パラメータの入力として、基準点入力部305で指定された、図面上および撮影画像上の基準点を受け取る。オルソ画像出力部308は、オルソ補正部307によるオルソ補正処理の結果である画像を出力する。出力された画像はHDD107に格納される。表示デバイス105上に表示されるようにしてもよい。
The
対応点スライド部309は、複数の対応点ペアにより囲まれた部分領域に対するユーザ操作を受け付け、注目する部分領域(すなわち複数の対応点ペア)を更新する。具体的にはユーザ操作に基づいて複数の対応点ペアの移動方向および量を決定し、複数の対応点ペアそれぞれを構成する基準点の情報を更新する。ユーザ操作とは、例えば、図面の画像205上に配置された基準点群を、キーボードの方向キー操作またはマウスのドラッグ操作により略並進移動する操作である。
The corresponding
図4は、対応点のスライド操作を説明する図である。図4においては、目地に囲まれた矩形領域が連続的に6個並んで存在している状況を例示的に示している。図4(a)は、対応点のスライド操作前のイメージ図であり、4つの対応点ペアが図示されている。一方、図4(b)は、対応点のスライド操作後のイメージ図であり、更新された4つの対応点ペアが図示されている。基準点401~404はスライド操作後の図面における部分領域を規定する基準点群であり、基準点405~408はスライド操作後の撮影画像における部分領域を規定する基準点群である。すなわち、対応点のスライド操作によって、図4(a)の4つの対応点ペアが、図4(b)の4つの対応点ペアの位置に更新されたことを示している。つまり、本実施形態では、順次4つ以上の基準点が形成する部分領域に対してオルソ補正が実行される。このような処理において、ユーザがk回目の処理において指定した4つ以上の基準点が形成する部分領域に基づいて、(k+1)回目の処理に用いられる部分領域が指定される。ここでkは1以上の整数である。
Figure 4 is a diagram for explaining the sliding operation of the corresponding points. In FIG. 4, an example is shown in which six rectangular areas surrounded by joints exist in a row. FIG. 4(a) is an image diagram before the sliding operation of the corresponding points, and four corresponding point pairs are illustrated. Meanwhile, FIG. 4(b) is an image diagram after the sliding operation of the corresponding points, and four updated corresponding point pairs are illustrated.
図5は、基準点テーブルおよび対応点テーブルを例示的に示す図である。図5(a)は図面における基準点の座標を格納する図面基準点テーブルであり、図5(b)は、撮影画像における基準点の座標を格納する撮影画像基準点テーブルである。ここでは、図面及び撮影画像それぞれ4点の基準点を格納する例を示している。すなわち、図面及び撮影画像それぞれにおいて注目する部分領域が四角形である例を示している。また、図5(c)は、対応点ペア(図面における基準点と撮影画像における基準点とのペア)を格納する対応点テーブルである。 Figure 5 shows an example of a reference point table and a corresponding point table. Figure 5(a) is a drawing reference point table that stores the coordinates of reference points in a drawing, and Figure 5(b) is a captured image reference point table that stores the coordinates of reference points in a captured image. Here, an example is shown in which four reference points are stored in each of the drawing and the captured image. That is, an example is shown in which the partial areas of interest in each of the drawing and the captured image are rectangular. Also, Figure 5(c) is a corresponding point table that stores corresponding point pairs (pairs of reference points in the drawing and reference points in the captured image).
例えば、スライド操作前の図面基準点テーブルは、IDが「1」~「4」の4点の基準点として、図4(a)に示す基準点209~212の4点の座標を格納する。また、スライド操作前の撮影画像基準点テーブルは、IDが「1」~「4」の4点の基準点として、図4(a)に示す基準点213~216の4点の座標を格納する。そして、スライド操作前の対応点テーブルは、IDが「1」~「4」の4点の対応点ペアとして、図4(a)において正方形内の数字が同じ基準点のペアを格納している。
For example, the drawing reference point table before the slide operation stores the coordinates of the four
なお、図5においては、注目する部分領域の対応点ペアに対して4個のID(「1」~「4」)を割り当て、注目する部分領域を変更する際には当該4個のIDにおける基準点の座標を更新する構成としている。ただし、注目する部分領域を変更する際には、逐次異なるIDを追加してテーブルに格納するよう構成してもよい。例えば、1つ目の部分領域に対しては「1」~「4」のIDを割り当て、2つ目の部分領域に対しては「5」~「6」のIDを割り当てるといったように構成してもよい。 In FIG. 5, four IDs ("1" to "4") are assigned to corresponding point pairs in a partial region of interest, and when the partial region of interest is changed, the coordinates of the reference points for the four IDs are updated. However, when the partial region of interest is changed, different IDs may be added and stored in the table one by one. For example, the first partial region may be assigned IDs "1" to "4," and the second partial region may be assigned IDs "5" to "6."
<装置の動作>
図6は、第1実施形態におけるオルソ補正処理のフローチャートである。当該処理は、例えば、CPU101が、HDD107に格納されたアプリケーションを実行することにより開始される。
<Device Operation>
6 is a flowchart of the orthorectification process in the first embodiment. The process is started by, for example, the
S601では、図面入力部301および撮影画像入力部303は、それぞれ、図面および撮影画像の入力を受け付ける。そして、図形表示部302及び撮影画像表示部304は、それぞれ、図面および撮影画像を表示する。
In S601, the drawing
S602では、基準点入力部305は、S601において入力された図面および撮影画像について複数の対応点ペアの入力を受け付ける。S602の詳細については、図7および図8を参照して後述する。S603では、対応点スライド部309は、複数の対応点ペアのスライド操作が入力されたかを判定する。ここで、スライド操作とは、注目する部分領域を変更する旨の操作を意図している。入力された場合、S604に進む。入力されていない場合、S605に進む。S604では、対応点スライド部309は、複数の対応点ペアをスライドさせる。すなわち、図面における基準点群と撮影画像における基準点群をそれぞれスライドさせる。
In S602, the reference
ここでは、複数の対応点ペアをスライドさせる向きは、入力デバイス106から取得する。例えば、入力デバイスとしてキーボードを使用する場合、入力された矢印キーの方向を、複数の対応点ペアをスライドさせる方向とする。また、複数の対応点ペアをスライドさせる移動量は、次のように算出する。まず、図面における基準点群(基準点209~211)と撮影画像における基準点群(基準点213~216)のそれぞれについてバウンディングボックス(外接矩形)を算出する。そして、スライドの向きが縦方向ならば当該バウンディングボックスの「高さ」をスライドさせる移動量とし、スライドの向きが横方向ならば当該バウンディングボックスの「幅」をスライドさせる移動量とする。すなわち、現在(k回目において)注目している部分領域に隣接する領域を次回((k+1)回目において)注目する部分領域としている。
Here, the direction in which the corresponding point pairs are slid is obtained from the
S605では、基準点入力部305は、S602で入力されたまたはS604でスライドされた複数の対応点ペアに含まれる基準点について修正指示を受付たか否かを判定する。これは、スライド後の対応点ペアに含まれる図面における基準点と撮影画像における基準点とにズレがある(構造物における同一位置を指していない)場合、ユーザが手作業でズレを修正した場合に対応する。例えば、基準点の修正指示は、図面上または撮影画像上に表示された基準点をドラッグすることで受付られる。S605によって、ユーザはS604でスライドさせた複数の対応点ペアに含まれる基準点を個別に微修正することができる。複数の対応点ペアに含まれる基準点の修正が指示された場合、S606へ進む。そうでない場合、S607へ進む。S606では、基準点管理部306は、複数の対応点ペアに含まれる1以上の基準点が修正された場合に、対応点テーブルを更新する。
In S605, the reference
S607では、オルソ補正部307は、オルソ補正指示が入力されたかを判定する。オルソ補正指示が入力された場合、S608へ進む。入力されていない場合、S611へ進む。S608では、オルソ補正部307は、S601で入力された撮影画像からオルソ画像を得るための座標変換行列を算出する。ここでは、座標変換行列としてホモグラフィ行列を用いることを想定する。ホモグラフィ行列は、ある平面の画像座標系を別の平面の画像座標系に写像(射影変換)するホモグラフィ変換に用いる行列である。ホモグラフィ行列の算出には、DLT(Direct Linear Transformation)法などの公知のアルゴリズムを用いればよい。なお、DLT法では、ホモグラフィ行列の算出に4つ以上の対応点ペアが必要となる。
In S607, the
S609では、オルソ補正部307は、S608において求めたホモグラフィ行列を用いて、S601で入力された撮影画像の変換処理を実行する。S610では、オルソ画像出力部308は、S609において変換された撮影画像を出力する。S611では、CPU101は、アプリケーションの終了指示が入力されているかを判定する。アプリケーションの終了指示は、アプリケーション終了ボタン208を押下することで入力される。終了指示が入力されている場合、処理を終了する。入力されていない場合、S603へ戻る。以上の処理により生成されたオルソ画像は、例えば構造物の表面に生じたひび割れなどの変状を検知する処理に利用される。このように本実施形態では、ユーザによるk回目の処理における指定操作に基づいて、(k+1)回目に用いる基準点群および部分領域を指定し、かつ、指定結果に対してユーザからの修正を受付可能としている。これにより、ユーザは広域を撮影した画像に対して細かく分割してオルソ補正を繰り返す場合でも、具体的な基準点の座標を指定する操作を少なくとも1回を行った後は、簡単なスライド操作の指示と必要がある場合に修正を行えばよい。そのため、ユーザの操作負荷が軽減される。
In S609, the ortho-
図7は、対応点指定処理(S602)の詳細フローチャートである。図7では、図面上で4点以上の基準点を指定した後、撮影画像上で対応する同数の基準点を指定することで、4個の対応点ペアを入力する方法を説明する。 Figure 7 is a detailed flowchart of the corresponding point designation process (S602). Figure 7 explains a method for inputting four corresponding point pairs by designating four or more reference points on a drawing and then designating the same number of corresponding reference points on a captured image.
S701では、基準点入力部305は、図面上で基準点が指定されたかを判定する。基準点が指定された場合、S702へ進む。指定されていない場合、S703へ進む。S702では、基準点入力部305は、指定された基準点を図面基準点テーブル(図5(a))に追加する。S703では、基準点入力部305は、図面基準点テーブルに格納された基準点が4点以上存在するかを判定する。存在する場合、S704に進む。存在しない場合、S701に進む。
In S701, the reference
S704では、基準点入力部305は、撮影画像上で基準点が指定されたかを判定する。基準点が指定された場合、S705へ進む。指定されていない場合、S706へ進む。S705では、基準点入力部305は、指定された基準点を撮影画像基準点テーブル(図5(b))に追加する。S706では、基準点入力部305は、撮影画像基準点テーブルに格納された基準点が、図面基準点テーブルに格納された基準点と同数であるかを判定する。同数である場合、S707に進む。異なる場合、S704に進む。
In S704, the reference
S707では、基準点入力部305は、図面基準点テーブルおよび撮影画像基準点テーブルに格納された基準点から対応点ペアを生成する。具体的には、まず、両テーブルから同じIDを持つ基準点を取得する。そして、取得した基準点のペアを対応点ペアとして、対応点テーブル(図5(c))に追加する。なお、図7では、図面の基準点の指定を先行して行ったが、撮影画像の基準点の指定を先行して行ってもよい。
In S707, the reference
図8は、対応点指定処理(S602)の他の詳細フローチャートである。図8では、図面上で基準点を指定した後、撮影画像上で対応する基準点の指定を行う、という操作を4回以上繰り返すことで4個の対応点ペアを入力する方法を説明する。 Figure 8 is another detailed flowchart of the corresponding point designation process (S602). Figure 8 explains a method for inputting four corresponding point pairs by repeating the operation of designating a reference point on a drawing and then designating a corresponding reference point on a captured image four or more times.
S801では、基準点入力部305は、図面上で基準点が指定されたかを判定する。基準点が指定された場合、S802へ進む。指定されていない場合、S806へ進む。S802では、基準点入力部305は、S801で指定された基準点を図面基準点テーブル(図5(a))に追加する。S803では、基準点入力部305は、撮影画像上で基準点が指定されたかを判定する。基準点が指定された場合、S804へ進む。指定されていない場合、S803へ進む。
In S801, the reference
S804では、基準点入力部305は、S803で指定された基準点を撮影画像基準点テーブル(図5(b))に追加する。
In S804, the reference
S805では、基準点入力部305は、図面基準点テーブルおよび撮影画像基準点テーブルに格納された基準点から対応点ペアを生成する。具体的には、まず、両テーブルの最後尾の基準点を取得する。次に、取得した基準点のペアを対応点ペアとして、対応点テーブル(図5(c))に追加する。なお、図7のS707及び図8のS805で対応点ペアを対応付けは、各基準点が指定された順序(ID)を根拠としたが、これに限らない。例えば、順序を問わず図面上と撮影画像上で同数の基準点が指定された段階で、各基準点群における相対位置が近い基準点同士をペアとするような処理を行ってもよい。
In S805, the reference
以上説明したとおり第1実施形態によれば、図6を参照して説明した動作により、部分領域を規定する複数(例えば4個)の対応点ペアを、S603~S611のループで順次指定し、当該部分領域のオルソ画像を生成する。これにより、撮影画像の所望の領域に対応するオルソ画像を得ることが可能となる。特に、第1実施形態によれば、新たな部分領域に対応する複数の対応点ペアをスライド操作により簡単に設定することが出来、ユーザの労力を軽減することが可能となる。特に、図4に示されるように、目地に囲まれた矩形領域が連続的に複数個並んで存在している場合に、新たな部分領域の設定に係るユーザの労力を大幅に軽減することが可能となる。 As described above, according to the first embodiment, by the operation described with reference to FIG. 6, multiple (e.g., four) corresponding point pairs that define a partial region are sequentially specified in a loop from S603 to S611, and an orthoimage of the partial region is generated. This makes it possible to obtain an orthoimage that corresponds to a desired region of the captured image. In particular, according to the first embodiment, multiple corresponding point pairs that correspond to a new partial region can be easily set by a sliding operation, making it possible to reduce the user's effort. In particular, when multiple rectangular regions surrounded by joints exist side by side in succession, as shown in FIG. 4, it is possible to significantly reduce the user's effort in setting a new partial region.
ここで、S610における、変換後の画像の出力処理についてさらに説明する。本実施形態では、S610において、変換された撮影画像のデータはRAM102等の記憶領域に保持されるとともに、表示デバイスに表示されることによってユーザに提示される。
Here, the output process of the converted image in S610 will be further described. In this embodiment, the data of the converted captured image in S610 is stored in a storage area such as the
図14は、図2に示したグラフィカルユーザーインターフェースの一態様を示す。図2で既に説明した要素には図2と同じ番号を付し、詳細な説明は省略する。 Figure 14 shows one aspect of the graphical user interface shown in Figure 2. Elements already described in Figure 2 are numbered the same as in Figure 2, and detailed descriptions are omitted.
図14(a)において、撮影画像表示領域204には、画像1401が表示されている。画像1401は、点検対象であるコンクリート壁面を撮影した画像の一部であり、目地に囲まれた矩形領域が連続的に並んでいる様子が撮像されている。ただし、本実施形態では、コンクリート壁面の点検に画像を利用するため、オルソ補正等の画像処理を実行した後の画像が一定以上の高解像度を維持していることが求められる。コンクリート壁面の広範囲を高解像度で撮影するために、コンクリート壁面を複数回に分割して、分割領域のそれぞれを高解像度で撮影し、スティッチ処理によって合成画像を生成する方法が利用されることがある。すなわち、画像1401は、コンクリート壁面を電子雲台と撮像装置を用いて分割撮影して得た撮像画像を、スティッチ合成することによって得られた画像であってもよい。
In FIG. 14(a), an
図面表示領域203には、画像1401に対応する図面データが画像1402として表示されている。図14(a)は、補正指示前のイメージ図であり、1回目の操作として、4つの対応点ペアである基準点209~216が指定されている(S602)。ユーザにより、オルソ補正が指示されると(S607でYes)、画像の変換が実行される(S608、S609)。そして、変換後の画像が出力される(S610)。
In the
図14(b)は、変換された画像が新たに表示されたグラフィカルユーザーインターフェースの一例を示す。ただし図14(b)では、対応点ペアのスライド操作はまだ指示されていない。図面表示領域203のうち、指示点209~212で囲まれた矩形領域には、撮影画像表示領域204で指示点213~216によって定義された部分の画像がオルソ変換された結果が重畳表示されている。このように、変換された画像を表示することで、ユーザは変換の結果を確認することができる。ユーザは、結果を確認した上で、次の処理のために対応点のスライド操作を指示する。
Figure 14(b) shows an example of a graphical user interface in which a newly converted image is displayed. However, in Figure 14(b), a sliding operation of the corresponding point pair has not yet been instructed. In the rectangular area of the
図14(c)は、対応点のスライド操作後を示す図であり、更新された4つの対応点ペアが図示されている。基準点1404~1407はスライド操作後の図面における部分領域を規定する基準点群であり、基準点1408~1411はスライド操作後の撮影画像における部分領域を規定する基準点群である。
Figure 14(c) is a diagram showing the corresponding points after the slide operation, and shows the four updated corresponding point pairs.
また、本実施形態では、変換された画像を、検知器による変状検知処理の対象画像として入力として利用すれば、構造物の広い範囲に渡って構造物に生じている変状(例えばひび割れ)の位置や幅を自動推定することができる。検知器としては、機械学習された学習済みモデルを用いる。学習済みモデルは、構造物を撮影した画像を入力データ、人によって変状(例えばひび割れ)であることが確認された画素を出力データとし、これらの複数個の組を学習データとして機械学習することによって知識を獲得することで生成される。この際、検知結果を観察者が修正したデータを教師データとして再学習してもよい。学習済みモデルは、例えばニューラルネットワークモデルで構成可能である。 In addition, in this embodiment, if the converted image is used as an input for the target image of the anomaly detection process by the detector, the position and width of anomalies (e.g. cracks) occurring in the structure over a wide area of the structure can be automatically estimated. A trained model based on machine learning is used as the detector. The trained model is generated by acquiring knowledge by machine learning using a number of sets of images of the structure as input data, pixels confirmed by humans to be anomalies (e.g. cracks) as output data, and the trained data. At this time, data in which the observer has corrected the detection results may be re-trained as teacher data. The trained model can be configured, for example, as a neural network model.
本実施形態では、ニューラルネットワークによりひび割れを検知する。ニューラルネットワークの入力は、25画素×25画素×RGBである。出力は1つであり、25画素×25画素の中央の画素のひび割れの尤度を表す値(0以上1以下の値)である。ニューラルネットワークは公知の技術であるため詳細な説明は省略する。なお、変状検知処理は、上述したオルソ補正処理と同じ画像処理装置、または当該画像処理装置とともに変状検知のための情報処理システムを構成する他の情報処理装置によって実行され得る。 In this embodiment, cracks are detected using a neural network. The input to the neural network is 25 pixels x 25 pixels x RGB. There is one output, which is a value (a value between 0 and 1) that represents the likelihood of a crack in the center pixel of the 25 pixels x 25 pixels. Since neural networks are a well-known technology, a detailed explanation is omitted. Note that the abnormality detection process can be performed by the same image processing device as the orthorectification process described above, or by another information processing device that, together with the image processing device, constitutes an information processing system for abnormality detection.
なお、第1実施形態において、対応点ペアによって指定された部分画像ごとに座標変換され出力された画像は、図面表示領域203上での配置と、各画像から抽出される特徴点とに基づいて合成することも可能である。
In the first embodiment, the images that are output after coordinate transformation for each partial image specified by the corresponding point pair can also be synthesized based on their arrangement on the
(第2実施形態)
第2実施形態では、撮影画像に写り込んだ目地等の特徴線から補助線を生成し、新たな部分領域に対応する複数の対応点ペアの設定に当該補助線を利用する形態について説明する。
Second Embodiment
In the second embodiment, a form will be described in which auxiliary lines are generated from characteristic lines such as joints captured in a captured image, and the auxiliary lines are used to set a plurality of corresponding point pairs corresponding to a new partial region.
図9は、補助線の生成を説明する図である。図9(a)は、補助線の生成が行われる前の撮影画像を例示的に示す図である。撮影画像に対応する画像206には、目地(構造物の部材間の隙間や継ぎ目の部分)の特徴線901が写り込んでいる。図9(b)は、生成された補助線が重畳された撮影画像を表す図である。補助線902は、特徴線901に基づいて生成された補助線である。
Figure 9 is a diagram explaining the generation of auxiliary lines. Figure 9(a) is a diagram showing an example of a captured image before the generation of auxiliary lines. A
<装置構成>
図10は、第2実施形態に係る画像処理装置の機能構成を示す図である。補助線生成部1001は、画像認識等により、撮影画像に写り込んだ目地等の特徴線から補助線を生成する。なお、ユーザから手動で補助線の入力を受け付ける構成でもよい。上述したように、生成された補助線はスライド操作後の対応点ペアに含まれる基準点の補正に用いられる。
<Device Configuration>
10 is a diagram showing the functional configuration of an image processing apparatus according to the second embodiment. An auxiliary
<装置の動作>
図11は、第2実施形態におけるオルソ補正処理のフローチャートである。S601~S611の各ステップは、図6と同様であるため説明を割愛する。
<Device Operation>
11 is a flowchart of the orthorectification process in the second embodiment. Each step of S601 to S611 is the same as that in FIG. 6, so the description will be omitted.
S1101では、補助線生成部1001は、撮影画像に写り込んだ目地等の特徴線を抽出し、補助線を生成する。目地等の特徴線の抽出には、エッジ検出に利用されるCanny法や直線等の特徴抽出に利用されるハフ変換を用いることが出来る。S1102では、基準点入力部305は、スライド操作によって仮指定された新たな複数の対応点ペアに含まれる基準点を、補助線や補助線の交点に基づいて修正する。例えば、対応点ペアに含まれる基準点が、補助線の交点を中心とした所定の範囲に収まっている場合、その基準点の座標を当該交点の座標で置き換える。また、対応点ペアに含まれる基準点が、補助線から所定の範囲に収まっている場合、その基準点から補助線に下ろした垂線の当該補助線との交点によって基準点の座標を修正してもよい。
In S1101, the auxiliary
以上説明したように、第2実施形態によれば、ユーザによるk回目の処理における指定操作に基づいて、(k+1)回目に用いる基準点を設定する際に、撮影画像に写りこんだ目地等の特徴線に基づいて補助線を生成し利用する。これにより、対応点ペアに含まれる図面における基準点と撮影画像における基準点のズレの修正におけるユーザの手間を軽減することが可能となる。 As described above, according to the second embodiment, when setting the reference point to be used in the (k+1)th iteration based on the user's specification operation in the kth processing, an auxiliary line is generated and used based on the characteristic lines of joints and the like that appear in the captured image. This makes it possible to reduce the user's effort in correcting the misalignment between the reference point in the drawing included in the corresponding point pair and the reference point in the captured image.
(第3実施形態)
第3実施形態では、新たな部分領域における複数の対応点ペアを、先行して処理した部分領域に対するオルソ補正処理で用いられた変換行列を用いて算出する形態について説明する。
Third Embodiment
In the third embodiment, a form will be described in which a plurality of corresponding point pairs in a new partial region are calculated using the transformation matrix used in the orthorectification process for a previously processed partial region.
<装置構成>
図12は、第3実施形態に係る画像処理装置の機能構成を示す図である。撮影画像基準点算出部1201は、新たな部分領域に対応する図面における基準点群に基づいて、新たな部分領域に対応する撮影画像における基準点群を算出する。具体的には、先行して処理した部分領域に対するオルソ補正処理で用いられた変換行列を用いて、図面における基準点群から撮影画像における基準点群を算出する。
<Device Configuration>
12 is a diagram showing the functional configuration of an image processing apparatus according to the third embodiment. A photographed image reference
<装置の動作>
図13は、第3実施形態におけるオルソ補正処理のフローチャートである。S601~S611の各ステップは、図6と同様であるため説明を割愛する。
<Device Operation>
13 is a flowchart of the orthorectification process in the third embodiment. Each step of S601 to S611 is the same as that in FIG. 6, so the description will be omitted.
S1301では、対応点スライド部309は、図面における複数の基準点群のみスライドさせる。スライドさせる向きおよび量については第1実施形態(S604)と同様でよい。S1302では、対応点スライド部309は、S1301で算出された図面における基準点群を、図面に含まれる線分の交点に基づいて補正する。なお、基準点の補正は、線分の交点だけではなく、図面に含まれる任意の図形の輪郭や任意の図形同士の輪郭の交点に対して行われ得る。
In S1301, the corresponding
S1303では、撮影画像基準点算出部1201は、S1301およびS1302で求めた図面における基準点群に対して、前回の部分領域(前回のS603~S611のループ)に対してS608で算出された変換行列を適用する。これにより、撮影画像における基準点群が得られる。例えば、前回(k回目のループ)の部分領域に対してS608で算出された変換行列がH(k)であったとする。また、今回((k+1)回目のループ)における部分領域の図面における基準点群がpdn(k+1)であったとする。その場合、今回((k+1)回目のループ)新たに設定する撮影画像における基準点群pin(k+1)は、以下の数式(1)により求めることが出来る。なお、nはIDであり、ここではn=1,2,3,4である。また、H(k)
-1は、H(k)の逆行列である。
pin(k+1)=H(k)
-1pdn(k+1) ・・・(1)
In S1303, the captured image reference
p in(k+1) = H (k) - 1 p dn(k+1) ... (1)
なお、数式(1)で求められた撮影画像における基準点群について、第2実施形態で説明した補助線を用いて更に補正を行ってもよい。 The reference point group in the captured image calculated by formula (1) may be further corrected using the auxiliary lines described in the second embodiment.
以上説明したように、第3実施形態によれば、新たな部分領域における複数の対応点ペアを、先行して処理した部分領域に対するオルソ補正処理で用いられた変換行列を用いて算出する。これにより、新たな部分領域に対応する撮影画像における基準点群の座標をより正確に導出することが出来、ズレの修正におけるユーザの手間を軽減することが可能となる。 As described above, according to the third embodiment, multiple corresponding point pairs in a new partial region are calculated using the transformation matrix used in the orthorectification process for the previously processed partial region. This makes it possible to more accurately derive the coordinates of the reference point group in the captured image corresponding to the new partial region, reducing the user's effort in correcting the misalignment.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Examples
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above-described embodiment, and various modifications and variations are possible without departing from the spirit and scope of the invention. Therefore, the following claims are appended to disclose the scope of the invention.
301 図面入力部; 302 図面表示部; 303 撮影画像入力部; 304 撮影画像表示部; 305 基準点入力部; 306 基準点管理部; 307 オルソ補正部; 308 オルソ画像出力部; 309 対応点スライド部 301 Drawing input section; 302 Drawing display section; 303 Photographed image input section; 304 Photographed image display section; 305 Reference point input section; 306 Reference point management section; 307 Ortho-correction section; 308 Ortho-image output section; 309 Corresponding point slide section
Claims (27)
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の画像は、前記物体の設計図面であり、
前記第2の画像は、前記物体を撮影して得られる撮影画像であり、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする画像処理装置。 a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including an image obtained by photographing the object;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first image is a design drawing of the object;
the second image is a photographed image obtained by photographing the object,
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
2. An image processing apparatus comprising: a first specifying unit for specifying the third partial area based on the first partial area.
ことを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1 , further comprising a receiving unit for receiving a correction from a user to at least one of the first partial region and the second partial region.
前記第2の画像は、前記構造物の壁面を撮影して得られる撮影画像であり、
前記変換手段によって変換された画像は、前記構造物の壁面に生じた変状検知処理に利用される
ことを特徴とする請求項1または2に記載の画像処理装置。 the object is a structure,
the second image is a captured image obtained by capturing an image of a wall surface of the structure,
3. The image processing apparatus according to claim 1 , wherein the image converted by the conversion means is used in a process for detecting abnormalities occurring on a wall surface of the structure.
ことを特徴とする請求項3に記載の画像処理装置。 4. The image processing apparatus according to claim 3 , wherein the second image is an image obtained by synthesizing a plurality of images obtained by photographing different areas of a wall surface of the structure.
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の部分領域と前記第2の部分領域の少なくとも一方に対するユーザからの修正を受け付ける受付手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする画像処理装置。 a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including an image obtained by photographing the object;
a receiving means for receiving a correction from a user to at least one of the first partial region and the second partial region;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
2. An image processing apparatus comprising: a first specifying unit for specifying the third partial area based on the first partial area.
ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 6. The image processing apparatus according to claim 1, wherein the first partial area and the second partial area are each specified by an equal number of reference points.
ことを特徴とする請求項6に記載の画像処理装置。 7. The image processing device according to claim 6, wherein the conversion means calculates a homography matrix that performs projective transformation of an image coordinate system of the second image into the predetermined coordinate system based on the coordinates of the plurality of reference points, and converts the image of the second partial region into an image conforming to the predetermined coordinate system using the calculated homography matrix.
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の部分領域および前記第2の部分領域は、それぞれ同数の複数の基準点により指定され、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする画像処理装置。 a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including an image obtained by photographing the object;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first partial region and the second partial region are each specified by an equal number of reference points;
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
2. An image processing apparatus comprising: a first specifying unit for specifying the third partial area based on the first partial area.
ことを特徴とする請求項8に記載の画像処理装置。 9. The image processing device according to claim 8, wherein the conversion means calculates a homography matrix that performs projective transformation of an image coordinate system of the second image into the predetermined coordinate system based on the coordinates of the plurality of reference points, and converts the image of the second partial region into an image conforming to the predetermined coordinate system using the calculated homography matrix.
前記変換手段は、前記導出手段により導出された座標変換行列に基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 a derivation means for deriving a coordinate transformation matrix based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image,
10. The image processing device according to claim 1, wherein the conversion means converts the image of the second partial region into an image conforming to the predetermined coordinate system based on the coordinate transformation matrix derived by the derivation means.
ことを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。 11. The image processing device according to claim 1, wherein the first designation means designates, as the third partial region, a region obtained by translating the first partial region and adjacent to the first partial region.
前記第2の指定手段は、前記第2の部分領域に基づいて前記第4の部分領域を指定する
ことを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。 the second designation means is configured to further designate a fourth partial region corresponding to the third partial region in the second image;
12. The image processing apparatus according to claim 1, wherein the second designation means designates the fourth partial region on the basis of the second partial region.
前記第2の指定手段は、前記第2の部分領域の座標に基づいて、前記第4の部分領域を仮指定し、該仮指定された第4の部分領域を前記検出手段により検出された特徴線に基づいて修正する
ことを特徴とする請求項12に記載の画像処理装置。 The method further comprises: detecting means for detecting a characteristic line of the object in the second image;
13. The image processing device according to claim 12, wherein the second designation means provisionally designates the fourth partial area based on the coordinates of the second partial area, and corrects the provisionally designated fourth partial area based on the characteristic line detected by the detection means.
ことを特徴とする請求項13に記載の画像処理装置。 14. The image processing apparatus according to claim 13 , further comprising a providing unit that provides a visual, audio or tactile feedback to the user when the correction is made by the second designation unit.
前記第2の指定手段は、前記導出手段が導出した座標変換行列の逆行列と前記第3の部分領域の座標とに基づいて導出された座標に基づいて、前記第4の部分領域を指定する
ことを特徴とする請求項10に従属する場合の請求項12に記載の画像処理装置。 the second designation means is configured to further designate a fourth partial region corresponding to the third partial region in the second image;
The image processing device according to claim 12 when dependent on claim 10, characterized in that the second designation means designates the fourth partial area based on coordinates derived based on the inverse matrix of the coordinate transformation matrix derived by the derivation means and the coordinates of the third partial area.
ことを特徴とする請求項1乃至15のいずれか1項に記載の画像処理装置。 16. The image processing apparatus according to claim 1, further comprising a display control unit that causes a display device to display the image of the converted second partial region superimposed on the first partial region.
ことを特徴とする請求項16に記載の画像処理装置。 17. The image processing apparatus according to claim 16 , wherein the display control means causes the display device to display the first image and the second image side by side.
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の画像は、前記物体の設計図面であり、
前記第2の画像は、前記物体を撮影して得られる撮影画像であり、
前記第1の指定手段は、順次、前記第1の画像において互いに異なる第1の部分領域を指定するよう構成されており、
前記第1の指定手段は、k回目に指定した第1の部分領域に基づいて、(k+1)回目の第1の部分領域を指定する
ことを特徴とする画像処理装置。 a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first image is a design drawing of the object;
the second image is a photographed image obtained by photographing the object,
the first designation means is configured to sequentially designate first partial regions different from one another in the first image;
The image processing apparatus according to claim 1, wherein the first designation means designates a (k+1)th first partial area based on a kth first partial area designated.
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の部分領域と前記第2の部分領域の少なくとも一方に対するユーザからの修正を受け付ける受付手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の指定手段は、順次、前記第1の画像において互いに異なる第1の部分領域を指定するよう構成されており、
前記第1の指定手段は、k回目に指定した第1の部分領域に基づいて、(k+1)回目の第1の部分領域を指定する
ことを特徴とする画像処理装置。 a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including an image obtained by photographing the object;
a receiving means for receiving a correction from a user to at least one of the first partial region and the second partial region;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first designation means is configured to sequentially designate first partial regions different from one another in the first image;
The image processing apparatus according to claim 1, wherein the first designation means designates a (k+1)th first partial area based on a kth first partial area designated.
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
を有し、
前記第1の部分領域および前記第2の部分領域は、それぞれ同数の複数の基準点により指定され、
前記第1の指定手段は、順次、前記第1の画像において互いに異なる第1の部分領域を指定するよう構成されており、
前記第1の指定手段は、k回目に指定した第1の部分領域に基づいて、(k+1)回目の第1の部分領域を指定する
ことを特徴とする画像処理装置。 a first designation means for designating a first partial region in a first image in which a structure of an object is drawn according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including an image obtained by photographing the object;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
having
the first partial region and the second partial region are each specified by an equal number of reference points;
the first designation means is configured to sequentially designate first partial regions different from one another in the first image;
The image processing apparatus according to claim 1, wherein the first designation means designates a (k+1)th first partial area based on a kth first partial area designated.
物体の構造が前記所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定工程と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定工程と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換工程と、
を含み、
前記第1の画像は、前記物体の設計図面であり、
前記第2の画像は、前記物体を撮影して得られる撮影画像であり、
前記第1の指定工程では、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定し、
前記第1の指定工程では、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする画像処理装置の制御方法。 A method for controlling an image processing device that generates an image according to a predetermined coordinate system, comprising the steps of:
a first designation step of designating a first partial region in a first image in which a structure of an object is drawn according to the predetermined coordinate system;
a second designation step of designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a conversion step of converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
Including,
the first image is a design drawing of the object;
the second image is a photographed image obtained by photographing the object,
In the first designation step, a third partial region different from the first partial region is further designated in the first image,
2. A method for controlling an image processing apparatus, comprising: specifying the third partial area based on the first partial area in the first specifying step.
物体の構造が前記所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定工程と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定工程と、
前記第1の部分領域と前記第2の部分領域の少なくとも一方に対するユーザからの修正を受け付ける受付工程と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換工程と、
を含み、
前記第1の指定工程では、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定し、
前記第1の指定工程では、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする画像処理装置の制御方法。 A method for controlling an image processing device that generates an image according to a predetermined coordinate system, comprising the steps of:
a first designation step of designating a first partial region in a first image in which a structure of an object is drawn according to the predetermined coordinate system;
a second designation step of designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a receiving step of receiving a correction from a user for at least one of the first partial region and the second partial region;
a conversion step of converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
Including,
In the first designation step, a third partial region different from the first partial region is further designated in the first image,
2. A method for controlling an image processing apparatus, comprising: specifying the third partial area based on the first partial area in the first specifying step.
物体の構造が前記所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定工程と、
前記物体を撮影することで得られた画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定工程と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換工程と、
を含み、
前記第1の部分領域および前記第2の部分領域は、それぞれ同数の複数の基準点により指定され、
前記第1の指定工程では、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定し、
前記第1の指定工程では、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする画像処理装置の制御方法。 A method for controlling an image processing device that generates an image according to a predetermined coordinate system, comprising the steps of:
a first designation step of designating a first partial region in a first image in which a structure of an object is drawn according to the predetermined coordinate system;
a second designation step of designating a second partial region corresponding to the first partial region in a second image including an image obtained by photographing the object;
a conversion step of converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
Including,
the first partial region and the second partial region are each specified by an equal number of reference points;
In the first designation step, a third partial region different from the first partial region is further designated in the first image,
2. A method for controlling an image processing apparatus, comprising: specifying the third partial area based on the first partial area in the first specifying step.
前記構造物が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記構造物の壁面を撮影して得られる撮影画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
前記変換手段によって変換された画像から、前記構造物の壁面に生じた変状を検知する検知手段と、
を有し、
前記第1の画像は、前記構造物の設計図面であり、
前記第2の画像は、前記構造物を撮影して得られる撮影画像であり、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする情報処理システム。 An information processing system for detecting a deformation occurring on a wall surface of a structure,
a first designation means for designating a first partial region in a first image in which the structure is rendered according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including a captured image obtained by capturing an image of a wall surface of the structure;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
A detection means for detecting a defect occurring on a wall surface of the structure from the image converted by the conversion means;
having
the first image is a design drawing of the structure;
the second image is a photographed image obtained by photographing the structure,
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
An information processing system, wherein the first designation means designates the third partial region based on the first partial region.
前記構造物が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記構造物の壁面を撮影して得られる撮影画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の部分領域と前記第2の部分領域の少なくとも一方に対するユーザからの修正を受け付ける受付手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
前記変換手段によって変換された画像から、前記構造物の壁面に生じた変状を検知する検知手段と、
を有し、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする情報処理システム。 An information processing system for detecting a deformation occurring on a wall surface of a structure,
a first designation means for designating a first partial region in a first image in which the structure is rendered according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including a captured image obtained by capturing an image of a wall surface of the structure;
a receiving means for receiving a correction from a user to at least one of the first partial region and the second partial region;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
A detection means for detecting a defect occurring on a wall surface of the structure from the image converted by the conversion means;
having
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
An information processing system, wherein the first designation means designates the third partial region based on the first partial region.
前記構造物が所定の座標系に従って描画された第1の画像に対して、第1の部分領域を指定する第1の指定手段と、
前記構造物の壁面を撮影して得られる撮影画像を含む第2の画像に対して、前記第1の部分領域に対応する第2の部分領域を指定する第2の指定手段と、
前記第1の画像における前記第1の部分領域の座標と前記第2の画像における前記第2の部分領域の座標とに基づいて、前記第2の部分領域の画像を前記所定の座標系に従った画像に変換する変換手段と、
前記変換手段によって変換された画像から、前記構造物の壁面に生じた変状を検知する検知手段と、
を有し、
前記第1の部分領域および前記第2の部分領域は、それぞれ同数の複数の基準点により指定され、
前記第1の指定手段は、前記第1の画像において前記第1の部分領域とは異なる第3の部分領域をさらに指定するよう構成されており、
前記第1の指定手段は、前記第1の部分領域に基づいて前記第3の部分領域を指定する
ことを特徴とする情報処理システム。 An information processing system for detecting a deformation occurring on a wall surface of a structure,
a first designation means for designating a first partial region in a first image in which the structure is rendered according to a predetermined coordinate system;
a second designation means for designating a second partial area corresponding to the first partial area in a second image including a captured image obtained by capturing an image of a wall surface of the structure;
a conversion means for converting an image of the second partial region into an image conforming to the predetermined coordinate system based on coordinates of the first partial region in the first image and coordinates of the second partial region in the second image;
A detection means for detecting a defect occurring on a wall surface of the structure from the image converted by the conversion means;
having
the first partial region and the second partial region are each specified by an equal number of reference points;
the first designation means is configured to further designate a third partial region in the first image, the third partial region being different from the first partial region;
An information processing system, wherein the first designation means designates the third partial region based on the first partial region.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911345205.2A CN111435969B (en) | 2019-01-11 | 2019-12-24 | Image processing apparatus, control method thereof, recording medium, and information processing system |
US16/733,572 US11074670B2 (en) | 2019-01-11 | 2020-01-03 | Image processing apparatus, control method thereof, recording medium, and information processing system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019003610 | 2019-01-11 | ||
JP2019003610 | 2019-01-11 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020113247A JP2020113247A (en) | 2020-07-27 |
JP2020113247A5 JP2020113247A5 (en) | 2022-11-01 |
JP7477956B2 true JP7477956B2 (en) | 2024-05-02 |
Family
ID=71667496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019193639A Active JP7477956B2 (en) | 2019-01-11 | 2019-10-24 | Image processing device and control method thereof, and information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7477956B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112200822A (en) * | 2020-10-28 | 2021-01-08 | 广东南方数码科技股份有限公司 | Table reconstruction method and device, computer equipment and storage medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002328096A (en) | 2001-04-27 | 2002-11-15 | Tokyo Electric Power Co Inc:The | Program, method, and system for detecting crack defect generated on structure |
JP2002352238A (en) | 2001-05-29 | 2002-12-06 | Fuji Photo Film Co Ltd | Device and method for processing image, and program and recording medium |
JP2004318790A (en) | 2003-04-16 | 2004-11-11 | Im Soft Kk | Inspection device and inspection method for structure, and recording medium |
JP2009133082A (en) | 2007-11-29 | 2009-06-18 | Hitachi Plant Technologies Ltd | Insert installation position collating method and insert installation position collating system |
JP2012202858A (en) | 2011-03-25 | 2012-10-22 | Railway Technical Research Institute | Closure crack detection method of concrete surface |
WO2018168406A1 (en) | 2017-03-16 | 2018-09-20 | 富士フイルム株式会社 | Photography control device, photography system, and photography control method |
-
2019
- 2019-10-24 JP JP2019193639A patent/JP7477956B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002328096A (en) | 2001-04-27 | 2002-11-15 | Tokyo Electric Power Co Inc:The | Program, method, and system for detecting crack defect generated on structure |
JP2002352238A (en) | 2001-05-29 | 2002-12-06 | Fuji Photo Film Co Ltd | Device and method for processing image, and program and recording medium |
JP2004318790A (en) | 2003-04-16 | 2004-11-11 | Im Soft Kk | Inspection device and inspection method for structure, and recording medium |
JP2009133082A (en) | 2007-11-29 | 2009-06-18 | Hitachi Plant Technologies Ltd | Insert installation position collating method and insert installation position collating system |
JP2012202858A (en) | 2011-03-25 | 2012-10-22 | Railway Technical Research Institute | Closure crack detection method of concrete surface |
WO2018168406A1 (en) | 2017-03-16 | 2018-09-20 | 富士フイルム株式会社 | Photography control device, photography system, and photography control method |
Non-Patent Citations (2)
Title |
---|
Crouch JR et al., ,"Automated finite-element analysis for deformable registration of prostate images.",IEEE transactions on medical imaging,米国,IEEE,2007年10月01日,VOL.26, NO.10,pp.1379-1390 |
藤井大輝ほか,屋内壁面ひび割れ検出のためのイメージモザイキング,電気学会 次世代産業システム研究会 2016,電気学会,2016年03月22日,pp.55-58 |
Also Published As
Publication number | Publication date |
---|---|
JP2020113247A (en) | 2020-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4070493B2 (en) | X-ray diagnostic apparatus and medical image analysis apparatus | |
CN104169941A (en) | Automatic tracking matte system | |
JP2015201760A (en) | Image projection system and image projection method | |
JPWO2006131967A1 (en) | Image processing device | |
JP5825256B2 (en) | Image processing apparatus, image processing method, and image processing program | |
WO2019093457A1 (en) | Information processing device, information processing method and program | |
US11416978B2 (en) | Image processing apparatus, control method and non-transitory computer-readable recording medium therefor | |
KR101875047B1 (en) | System and method for 3d modelling using photogrammetry | |
JP7477956B2 (en) | Image processing device and control method thereof, and information processing system | |
JP2010093343A (en) | Camerawork optimization program, imaging apparatus, and camerawork optimization method | |
JP2015171143A (en) | Camera calibration method and apparatus using color-coded structure, and computer readable storage medium | |
CN111435969B (en) | Image processing apparatus, control method thereof, recording medium, and information processing system | |
JP2005332177A (en) | Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program | |
US11830177B2 (en) | Image processing apparatus, control method and non-transitory computer-readable recording medium therefor | |
JP2018185658A (en) | Information processing apparatus, information processing method, and program | |
KR100908084B1 (en) | Recording medium recording method of 3-dimensional coordinates of subject and program for executing the method in computer | |
JP2005174151A (en) | Three-dimensional image display device and method | |
JP7329951B2 (en) | Image processing device and its control method | |
JP2019106075A (en) | Inspection image synthesizing device, inspection image synthesizing system, inspection image synthesizing method and program | |
CN113167568B (en) | Coordinate calculation device, coordinate calculation method, and computer-readable recording medium | |
JP2003087550A (en) | Device and method for compositing image and computer readable recording medium having image composite processing program recorded thereon | |
Wang et al. | Post-stitching depth adjustment for stereoscopic panorama | |
JP7466382B2 (en) | Information processing device, information processing method, and program | |
WO2019054235A1 (en) | Information processing device, information processing method, and program | |
JP6962242B2 (en) | Information processing device, superimposition display program, superimposition display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221021 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221021 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7477956 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |