JP2010272093A - Image connecting method, device and program - Google Patents
Image connecting method, device and program Download PDFInfo
- Publication number
- JP2010272093A JP2010272093A JP2009125858A JP2009125858A JP2010272093A JP 2010272093 A JP2010272093 A JP 2010272093A JP 2009125858 A JP2009125858 A JP 2009125858A JP 2009125858 A JP2009125858 A JP 2009125858A JP 2010272093 A JP2010272093 A JP 2010272093A
- Authority
- JP
- Japan
- Prior art keywords
- label
- joining
- line
- approximation
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、重複部分を有する2つの画像を接合する方法、装置及びプログラムに関する。 The present invention relates to a method, apparatus, and program for joining two images having overlapping portions.
飛行機又は衛星から地上を精密に撮影することができる。これらの空中写真又は衛星画像は、撮影方向による歪みを解消した上で一定水平面上に投影される。この投影で得られた画像、即ち、投影画像を合成又は接合することで、広大な地域の表面を示す1枚の画像を得ることができる。個々の投影画像は、予め図化機により正射投影画像(オルソ画像)に変換されていることもある。特許文献1には、隣接する地域を部分的に重複して表示する地図や航空写真データ等のラスター画像データを、その部分的に重複する部分で接合する方法が記載されている。
The ground can be precisely photographed from an airplane or satellite. These aerial photographs or satellite images are projected on a certain horizontal plane after distortion caused by the shooting direction is eliminated. An image obtained by this projection, that is, a single image showing the surface of a vast area can be obtained by combining or joining the projection images. Individual projection images may be converted into orthographic projection images (ortho images) by a plotter in advance.
このような合成又は接合の目的のため、通常、飛行機又は衛星からの撮影では、被写体を一定以上にオーバーラップするようにして撮影する。図15は、このように部分的に重複して撮影された写真等が得られるオルソ画像の重複例を示す。一般的には、各オルソ画像は、よりランダムに1又は複数の他のオルソ画像と部分的に重複する。 For the purpose of such composition or joining, usually, in photographing from an airplane or a satellite, the subject is photographed so as to overlap more than a certain amount. FIG. 15 shows an example of duplication of ortho images from which photographs or the like taken partially overlapping in this way are obtained. In general, each ortho image partially overlaps one or more other ortho images more randomly.
仮に垂直上方向から撮影された写真から生成されたオルソ画像でも、縁辺部分では建物や高架個所で多少の倒れ込みが生じる。勿論、斜めから撮影している場合には、ほとんどの建物で倒れ込みが生じる。そこで、合成の際には、目立たない個所に接合線を設定して、2つのオルソ画像を接合することになる。 Even in an ortho image generated from a photograph taken from the vertically upward direction, a slight fall occurs at the edge of a building or an elevated part. Of course, when shooting from an oblique direction, most buildings fall down. Therefore, at the time of composition, a joining line is set at an inconspicuous place, and two ortho images are joined.
例えば、図16に示すように、画像重複部分で同じ建物が互いに反対方向に倒れ込んでいるオルソ画像を合成する場合がありうる。図16(A)は左オルソ画像を示し、同(B)は右オルソ画像を示す。この場合、建物を切断するように接合線を設定すると、図17に示すように、合成画像上で、その建物の形状が歪んでしまう。図17(A)は図16(A)に示す左オルソ画像を示し、同(B)は、図16(B)に示す右オルソ画像を示し、同(C)は、合成画像を示す。 For example, as shown in FIG. 16, there may be a case where an ortho image in which the same building collapses in the opposite direction to each other in the image overlapping portion may be synthesized. FIG. 16A shows a left ortho image, and FIG. 16B shows a right ortho image. In this case, when the joint line is set so as to cut the building, the shape of the building is distorted on the composite image as shown in FIG. FIG. 17A shows the left ortho image shown in FIG. 16A, FIG. 17B shows the right ortho image shown in FIG. 16B, and FIG. 17C shows the composite image.
従来の方法は、航空写真における建物の倒れ込みを考慮していない。その結果、図17に示すように、倒れ込みを生じている建物上に接合線が設定されると、建物個所で接合ずれが生じ、建物の形状を損なうことになり、好ましくない。 The conventional method does not consider the collapse of the building in the aerial photograph. As a result, as shown in FIG. 17, when a joining line is set on a building that has fallen down, joining displacement occurs at the building location, and the shape of the building is impaired, which is not preferable.
本発明は、コンピュータによる自動処理で効率的に、目立たない個所で2つの画像を接合する画像接合方法、装置及びプログラムを提示することを目的とする。 An object of the present invention is to provide an image joining method, apparatus, and program for joining two images in an inconspicuous place efficiently by automatic processing by a computer.
本発明に係る画像接合方法は、互いに異なる方向からの撮影により得られる、少なくとも一部が重複する2つのオルソ画像データをコンピュータにより接合する方法であって、当該コンピュータの演算手段が、当該2つのオルソ画像データの重複部分に初期探索範囲を設定し、当該コンピュータの記憶手段に格納する初期探索範囲設定ステップと、当該演算手段が、当該初期探索範囲で当該2つのオルソ画像データの近似度を算出し、当該記憶手段に格納する近似度算出ステップと、当該演算手段が、当該近似度算出ステップで得られる当該近似度が所定近似度値以上の近似度値範囲にある画素を抽出し、その隣接する画素毎にグループ化して、接合線探索対象画素を抽出する前処理ステップと、当該演算手段が、当該接合線探索対象画素に従い、当該接合線探索対象画素の所定のラベルから逐次的に所定方向に近いラベルを探索し、当該所定のラベル及び探索した各ラベルに接合線を設定する接合線探索ステップと、当該演算手段が、当該接合線のジャンプ区間に対し、より小さい近似度値範囲で当該前処理ステップを実行させ、これで抽出される接合線探索対象画素に対して、当該接合線探索対象画素の所定のラベルから逐次的に所定方向に近いラベルを選択し、選択した各ラベルに接合線を設定する繰り返しステップと、当該演算手段により、当該接合線に従い当該2つのオルソ画像データを接合して、合成画像データを生成する接合ステップとを具備することを特徴とする。 An image joining method according to the present invention is a method of joining two ortho image data, which are obtained by photographing from mutually different directions, at least partially overlapping by a computer, and the computing means of the computer includes the two An initial search range is set in the overlapping portion of the ortho image data, and an initial search range setting step for storing the initial search range in the storage unit of the computer, and the calculation unit calculates the degree of approximation of the two ortho image data in the initial search range Then, the approximation degree calculation step stored in the storage means, and the calculation means extract pixels whose approximation degree obtained in the approximation degree calculation step is in an approximation value range that is equal to or greater than a predetermined approximation value, Grouping for each pixel to be extracted, and extracting the junction line search target pixel, and the calculation means is connected to the junction line search target pixel A junction line search step of sequentially searching for a label close to a predetermined direction from a predetermined label of the junction line search target pixel, and setting a junction line to the predetermined label and each searched label; Then, the preprocessing step is executed with a smaller approximation value range for the jump section of the junction line, and the junction line search target pixel extracted in this manner is extracted from the predetermined label of the junction line search target pixel. A step of sequentially selecting a label close to a predetermined direction and setting a joining line to each selected label, and the computing means joining the two ortho image data according to the joining line, And a bonding step to be generated.
本発明に係る画像接合装置は、互いに異なる方向からの撮影により得られる、少なくとも一部が重複する2つのオルソ画像データを接合する画像接合装置であって、当該2つのオルソ画像データの重複部分に初期探索範囲を設定する初期探索範囲設定手段と、当該初期探索範囲で当該2つのオルソ画像データの近似度を算出し、記憶手段に格納する近似度算出手段と、当該記憶手段から指定探索範囲内の当該近似度を読み出し、読み出した当該近似度が指定の近似度値範囲にある画素を抽出し、その隣接する画素毎にグループ化して、接合線探索対象画素を抽出する前処理手段と、当該前処理手段により生成される当該接合線探索対象画素のラベルのうちで、所定のラベルから逐次的に所定方向に近いラベルを探索し、当該所定のラベル及び探索した各ラベルに接合線を設定する接合線探索手段と、当該前処理手段及び当該接合線探索手段を制御する制御手段であって、1回目には当該指定探索範囲として当該初期探索範囲を指定し、当該指定の近似度値範囲として上限値範囲を指定して、当該前処理手段および当該接合線探索手段を実行させ、2回目以降では、設定済みの接合線のジャンプ区間を当該指定探索範囲とし、段階的に低減した近似度値範囲を当該指定の近似度値範囲として、当該前処理手段および当該接合線探索手段を実行させる制御手段と、当該接合線に従い当該2つのオルソ画像データを接合し、合成画像データを生成する合成手段とを具備することを特徴とする。 An image joining device according to the present invention is an image joining device that joins two ortho image data obtained by photographing from different directions and overlaps at least a part thereof. An initial search range setting means for setting an initial search range; an approximation degree calculating means for calculating the degree of approximation of the two ortho image data in the initial search range; and storing in the storage means; A preprocessing means for reading out the degree of approximation, extracting pixels whose read degree of approximation is in a specified degree of approximation value range, grouping the pixels for each adjacent pixel, and extracting a junction line search target pixel; and Among the labels of the connection line search target pixels generated by the preprocessing unit, the labels are sequentially searched from the predetermined label in the predetermined direction, and the predetermined label and A joining line search means for setting a joining line for each searched label, and a control means for controlling the preprocessing means and the joining line search means. The initial search range is designated as the designated search range at the first time. Then, the upper limit value range is designated as the designated approximation value range, the preprocessing means and the joint line search means are executed, and after the second time, the jump section of the set joint line is designated as the designated search range. And the control unit that executes the preprocessing unit and the joint line search unit, and the two ortho image data are joined in accordance with the joint line, with the approximation value range reduced stepwise as the designated approximation value range. And combining means for generating combined image data.
本発明に係る画像接合プログラムは、コンピュータに、互いに異なる方向からの撮影により得られる、少なくとも一部が重複する2つのオルソ画像データを接合させる画像接合プログラムであって、当該コンピュータに、当該2つのオルソ画像データの重複部分に初期探索範囲を設定させ、当該コンピュータの記憶手段に格納させる初期探索範囲設定機能と、当該初期探索範囲で当該2つのオルソ画像データの近似度を算出させ、当該記憶手段に格納させる近似度算出機能と、当該近似度算出機能で得られる当該近似度が所定近似度値以上の近似度値範囲にある画素を抽出させ、その隣接する画素毎にグループ化させて、接合線探索対象画素を抽出させる前処理機能と、当該接合線探索対象画素に従い、当該接合線探索対象画素の所定のラベルから逐次的に所定方向に近いラベルを探索させ、当該所定のラベル及び探索した各ラベルに接合線を設定させる接合線探索機能と、当該接合線のジャンプ区間に対し、より小さい近似度値範囲で当該前処理機能を実行させ、これで抽出される接合線探索対象画素に対して、当該接合線探索対象画素の所定のラベルから逐次的に所定方向に近いラベルを選択させ、選択した各ラベルに接合線を設定させる繰り返し機能と、当該接合線に従い当該2つのオルソ画像データを接合して、合成画像データを生成させる接合機能とを実現させる。 An image joining program according to the present invention is an image joining program for joining two ortho image data, which are obtained by photographing from different directions to each other, at least partially overlapping, to the computer. An initial search range is set in the overlapping portion of the ortho image data and stored in the storage means of the computer, and an approximation degree of the two ortho image data is calculated in the initial search range, and the storage means The approximation degree calculation function to be stored in the image, and the approximation degree obtained by the approximation degree calculation function are extracted pixels having an approximation value range that is equal to or greater than a predetermined approximation value, and the adjacent pixels are grouped and joined together. A pre-processing function for extracting a line search target pixel and a predetermined label of the joint line search target pixel according to the joint line search target pixel. In order to search for a label close to a predetermined direction sequentially, a joint line search function for setting a joint line to the predetermined label and each searched label, and a smaller approximation value range with respect to the jump section of the joint line The pre-processing function is executed, and for the junction line search target pixel extracted by this, a label close to a predetermined direction is sequentially selected from the predetermined label of the junction line search target pixel, and each selected label is selected. A repeat function for setting a joining line and a joining function for joining the two ortho image data according to the joining line to generate composite image data are realized.
本発明により、2つのオルソ画像間で近似度の高い部分に接合線を設定でき、両画像をより自然に接合することができる。 According to the present invention, a joining line can be set at a portion having a high degree of approximation between two ortho images, and both images can be joined more naturally.
以下、図面を参照して、本発明の実施例を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の一実施例の概略構成ブロック図を示す。本実施例の画像接合装置10は、CPU12、ROM14、RAM16、マウス18、キーボード20、表示装置22及びハードディスク装置(HDD)24を具備し、これらがバス26を介して相互に接続する。ROM14又はHDD24には、画像接合装置10の機能を実現するためにCPU12で動作するプログラムソフトウエアが格納されている。CPU12は、画像接合装置10の演算手段として、マウス18及びキーボード20によるユーザの指示に従い、RAM16及びHDD24を使って、以下に説明する接合処理を実行する。そのために、CPU12は、以下に説明する機能手段12a〜12gとしての機能を具備する。画像接合装置10は汎用コンピュータ又は専用コンピュータで実現され得る。
FIG. 1 shows a schematic block diagram of an embodiment of the present invention. The
HDD24には、接合対象のオルソ画像データ30がビットマップ形式で格納される。先に説明したように、HDD24に格納される各オルソ画像データ30は一般に、接合のために1又は複数の他のオルソ画像と重複している。HDD24にはまた、対象地域の地盤標高(DTM)データ32と、表層標高(DSM)データ34を格納しておく。HDD24に格納されるオルソ画像データ30は、同じ地上座標系上の地点上に画素値を有するように、規格化されており、DTMデータ32及びDSMデータ34もまた、オルソ画像データ30の各画素と同じ地点上の標高値からなる。こうすることにより、後述する処理が容易になるからである。勿論、オルソ画像データ30の画素、並びにDTMデータ32及びDSMデータ34の標高値が、互いに同じ地点を示すように規格化されていなくても、必要な計算時に補間により同じ地点上の値を算出するようにしてもよいことは明らかである。
The HDD 24 stores the
基本的には、2つのオルソ画像の重腹部分に対して接合線を決定することになるが、連続的に撮影された航空写真で得られるオルソ画像では、図2に示ように、3枚のオルソ画像A,B,Cが部分的に重複することがある。図2で、領域ABは、画像A,Bの重複部分を示し、領域ACは画像A,Cの重複部分を示し、領域BCは画像B,Cの重複部分を示し、領域ABCは画像A,B,Cの重複部分を示す。このように、3つ以上の画像が重なる部分がある場合、段階的に接合すればよい。即ち、何れか2つのオルソ画像を接合し、この接合で得られた合成画像に、部分的に重複する残る1つのオルソ画像を接合する。これを繰り返して、最終的に大きな合成画像を生成する。最初に接合する2つの画像を選択する方法として、例えば、最も多くの画像が重なる部分(図2の領域ABC)において、任意の2つの画像の組合せで近似度を算出し、最も近似する2つの画像を最初の接合処理の対象とする。従って、ここでは、2つの画像の接合線を決定し、接合する動作を説明するが、3つ以上の画像を合成する場合にも、そのまま適用可能である。 Basically, the joint line is determined for the heavy belly portions of the two orthoimages. However, in the orthoimages obtained from continuously taken aerial photographs, as shown in FIG. Orthoimages A, B, and C may partially overlap. In FIG. 2, an area AB indicates an overlapping part between the images A and B, an area AC indicates an overlapping part between the images A and C, an area BC indicates an overlapping part between the images B and C, and an area ABC indicates the image A, The overlapping part of B and C is shown. In this way, when there are portions where three or more images overlap, they may be joined in stages. That is, any two ortho images are joined, and the remaining one ortho image partially overlapping is joined to the composite image obtained by the joining. This is repeated to finally generate a large composite image. As a method of selecting two images to be joined first, for example, in a portion where the most images overlap (area ABC in FIG. 2), the degree of approximation is calculated by a combination of two arbitrary images, and the two closest approximations are calculated. The image is the target of the first joining process. Accordingly, here, the operation of determining the joining line of two images and joining them will be described. However, the present invention can also be applied to the case of synthesizing three or more images.
図3及び図4は全体として、本実施例による画像合成の動作フローチャートを示す。 3 and 4 generally show an operation flowchart of image composition according to the present embodiment.
CPU12は、ユーザの指定に従い、HDD24に格納されるオルソ画像データ30から、接合線を設定すべき2つの画像のオルソ画像データを対象画像として選択する(S1)。
In accordance with the user's specification, the
CPU12は、ステップS1で選択した2つの対象画像について、DSMデータ34とDTMデータ32の差分から建物部分を検出し、2つの対象画像のオルソ画像データから建物を示すデータを除去する(S2)。2つのオルソ画像データそのものから建物に相当する個所の画素値を0又は無効値等の一定値に置換しても良いが、その場合、後述する近似度分布の算出処理において、改めて建物の部分に対する近似度の計算結果を除外しなければならない。これを避けるには、例えば、2つのオルソ画像データの各画素に対応するフラグテーブル(建物フラグテーブル36)を用意し、建物の存在する画素に対して建物フラグを立てる。そして、建物部分を除外したい場合には建物フラグテーブル36を参照し、建物フラグが立っている画素を、処理対象から除外する。
CPU12 detects a building part from the difference of
次に、CPU12は、ステップS1で選択した2つのオルソ画像の重複部分を検出して、接合線の探索範囲(初期探索範囲)を設定する(S3)。その際、建物フラグテーブル36を参照して、建物部分を探索範囲から除外してもよい。
Next, the
CPU12の近似度算出プログラム12aが、探索範囲内で、2つの対象画像データを対比し、近似度を算出する(S4)。算出された近似度データ38は、ステップS3で設定された探索範囲内での接合線の決定処理が終了するまで、HDD24(又はRAM16)に保持される。
The
例えば、赤(R)、緑(G)及び青(B)に関する距離(例えば、RMS(Root Mean Square)値)、緑(G)値の距離又は差分絶対値、若しくは、輝度の距離又は差分絶対値を算出し、距離又は差分絶対値が小さいほど近似度が高いと評価する。本実施例では、近似度を0〜255の範囲で評価し、近似しているほど、値を大きくする。例えば、最大値(255)から距離又は差分絶対値を減算した結果を近似度とする。近似度は探索範囲内で分布しており、2つの対象画像データ間で相違の少ない個所ほど、近似度が高くなり、全く相違が無い個所では、近似度は255になる。 For example, distance (for example, RMS (Root Mean Square) value), distance of green (G) value or absolute difference, or luminance distance or absolute absolute regarding red (R), green (G) and blue (B) A value is calculated, and it is evaluated that the degree of approximation is higher as the distance or the absolute difference value is smaller. In this embodiment, the degree of approximation is evaluated in the range of 0 to 255, and the value is increased as the degree of approximation is increased. For example, a result obtained by subtracting the distance or the absolute difference value from the maximum value (255) is set as the approximation degree. The degree of approximation is distributed within the search range, and the degree of approximation becomes higher as the difference is smaller between the two target image data, and the degree of approximation is 255 where there is no difference.
近似度が高い部分ほど、接合線とした場合に不自然さの無い接合が可能になる。本実施例では、近似度が高い画素のつながった部分に接合線を先ず割り当て、接合線を割り当てできない部分(接合線のジャンプ区間)は、近似度を一段下げた近似度値範囲で、接合線を割り当てる。これは、近似度を2値化し、2値化の閾値を段階的に下げていくことで実現できる。但し、先に接合線探索の対象とした画素を再度の探索対象から除外する必要があるので、本実施例では、処理済みフラグを立てることで識別している。 A part having a higher degree of approximation can be joined with no unnaturalness when a joining line is used. In this embodiment, a joining line is first assigned to a connected portion of pixels having a high degree of approximation, and a portion where the joining line cannot be assigned (a jump section of the joining line) is an approximation value range in which the degree of approximation is lowered by one step. Assign. This can be realized by binarizing the degree of approximation and lowering the binarization threshold step by step. However, since it is necessary to exclude the pixel that is the target of the joint line search from the search target again, in this embodiment, the pixel is identified by setting a processed flag.
なお、一定の近似度値範囲の近似度の画素を抽出することでも、同じ処理を実現できる。例えば、最初の接合線探索では、近似度値が240以上の画素を接合線探索の対象画素とし、2回目では、近似度値が230から239までの画素を接合線探索の対象画素とし、3回目では、近似度値が220から229までの画素を接合線探索の対象画素とし、以下、同様の処理を実行する。このように、近似度値範囲を逐次的に下げながら接合線探索の対象画素を抽出し、接合線を割り当てていくことで、全体的に適切な接合線を決定する。 It should be noted that the same processing can be realized by extracting pixels having a certain degree of approximation value range. For example, in the first joint line search, pixels having an approximation value of 240 or more are used as the target pixels for the joint line search, and in the second time, pixels having an approximation value of 230 to 239 are used as the target pixels for the joint line search. In the second time, pixels having an approximation value of 220 to 229 are set as the target pixels for the joint line search, and the same processing is executed thereafter. As described above, the target pixel of the joint line search is extracted while sequentially decreasing the approximation value range, and the joint line is assigned, so that an appropriate joint line is determined as a whole.
まず、CPU12の近似度2値化プログラム12bが、探索範囲内の近似度を2値化する近似度閾値Tを、適当な最大値、例えば、240〜250で初期化する(S5)。そして、CPU12は、接合線決定の前処理として、近似度閾値Tによる2値化(S6)、ラベリング(S7)及び細線化(S8)を実行する。すなわち、近似度2値化プログラム12bが、ステップS4で算出された近似度データ38を近似度閾値Tで2値化して(S6)、近似値が近似度閾値T以上となる画素を抽出する。例えば、近似度閾値T以上の近似度を持つ画素にフラグ1を設定し、近似度閾値T未満の近似度を持つ画素にフラグ0を設定する。ラベリング処理プログラム12cが、2値化プログラム12bで抽出した画素を互いに隣接又は連続する画素同士でグループ化し、各グループに異なるラベル番号を付ける(S7)。このラベリング処理(S7)の際に、孤立した画素又は少数の画素からなるラベルを、ノイズと看做して除去する。細線化プログラム12dが、各ラベルの中心線を求めて細線化する(S8)。このような細線化処理のコンピュータプログラム自体は公知であり、どのようなアログリズムのものであってもよい。ステップS6〜S8からなる前処理により、以後の接合線探索処理の対象となる画素、すなわち接合線探索対象画素が抽出される。2値化及び細線化により得られる2値化近似度の画素分布とそのラベル値が、HDD24(又はRAM16)に2値化近似度データ40として一時的に保存される。細線化は、ラベル内の接合線設定処理を簡略化し高速化するのに役立つものの、このような負荷が許容可能であれば、細線化を省略しても良い。
First, the approximation degree binarization program 12b of the
図5は、このような前処理(S6〜S8)を経た2値化近似度データ40の分布例を示す。隣接して連続する画素が1つのグループ(ラベル)を形成し、各グループがラベル番号で識別される。図5から分かるように、2値化(S6)及びラベリング処理(S7)により、接合線探索対象の画素が分断され、細線化(S8)により、同じラベル上で枝分かれが発生しうる。
FIG. 5 shows a distribution example of the
図5に示す例では、接合対象の画像が上側と下側に位置し、接合線は、基本的に、探索範囲の左右方向に設定され得る。そこで、探索範囲の中央に、接合線を決定するための基準線(接合線決定基準線)が仮想的に設定される。例えば、最初の探索領域のように、設定しようとする接合線の始点(探索範囲の入口点)と終点(探索範囲の出口点)のどちらも与えられない場合には、探索領域は、2つの対象画像の重複部分の中央に設定される。入口点と出口点が与えられる場合には、接合線決定基準線は入口点と出口点を結ぶ線であり、入口点と出口点との間で、接合線決定基準線の上下に所定幅の範囲を探索範囲とする。入口点と出口点は、変更可能な暫定的なものであるときと、変更できないものであるときがありうる。 In the example shown in FIG. 5, the images to be joined are positioned on the upper side and the lower side, and the joining line can be basically set in the left-right direction of the search range. Therefore, a reference line (joining line determination reference line) for determining a joining line is virtually set at the center of the search range. For example, when neither the start point (entrance point of the search range) nor the end point (exit point of the search range) of the joint line to be set is given as in the first search region, It is set at the center of the overlapping part of the target image. When the entry point and the exit point are given, the joining line determination reference line is a line connecting the entry point and the exit point, and has a predetermined width above and below the joining line determination reference line between the entry point and the exit point. The range is the search range. The entry point and the exit point may be temporary that can be changed or may not be changeable.
ステップS3で設定された探索範囲に対して、接合線の入口点が指定されていない場合(S9)、無指定接合線探索プログラム12eが、入口点を指定しない接合線探索処理を実行する(S10)。接合線の入口点が指定されている場合(S9)、入口指定接合線探索プログラム12fが、入口点指定の接合線探索処理を実行する(S11)。
When the entry point of the joining line is not designated for the search range set in step S3 (S9), the undesignated joining
例えば、図2に示す例で、領域ABに対しては、ある程度自由に、画像A,Bから接合線を決定でき、領域ACに対しては、ある程度自由に、画像A,Cから接合線を決定できる。しかし、その後に、領域ABC,又は領域ABCに対して接合線を決定しようとした場合には、領域AB又は領域ACの接合線から、自ずと探索範囲における入口点が定まる。逆に、領域ABCにおける接合線を考慮して、領域ABと領域ACの接合線決定に対して、入口点を決定するのが良い場合もありうる。そこで、本実施例では、初期探索範囲に対してステップS9〜S11を用意している。もちろん、このような可能性が無ければ、ステップ10とステップS11の片方のみでもよい。
For example, in the example shown in FIG. 2, the joining line can be determined from the images A and B to some extent freely for the region AB, and the joining line can be determined from the images A and C to some extent for the region AC. Can be determined. However, after that, when an attempt is made to determine a joining line for the area ABC or the area ABC, the entry point in the search range is determined from the joining line of the area AB or the area AC. On the contrary, in consideration of the joint line in the region ABC, it may be good to determine the entry point for determining the joint line between the region AB and the region AC. Therefore, in this embodiment, steps S9 to S11 are prepared for the initial search range. Of course, if there is no such possibility, only one of
無指定接合線探索プログラム12eは入口指定接合線探索プログラム12fを利用するので、まず、入口指定接合線探索プログラム12fによる接合線探索(S11)の動作を詳細に説明する。入口指定接合線探索プログラム12fは、その引数として、探索範囲、探索方向及び入口点を必要とする。図6は、入口指定接合線探索プログラム12fによる入口点指定の接合線探索処理(S11)の詳細なフローチャートを示す。図7は、図5に示す2値化近似度データに対してステップS11による処理過程の説明図である。図7では、入口点(○印で示す)と出口点(×印で示す)が共に接合線決定基準線上に位置する。出口点は指定されない場合もありうる。また、図6に示す接合線探索の過程で該当するラベル上に設定される、接合線の始点(S)と終点(E)に対応する画素に、×を付記してある。
Since the non-designated joint
入口指定接合線探索プログラム12fは、2値化近似度データ40を参照し、指定入口点が探索範囲内のラベル上に位置するかどうかを判断し(S31)、指定入口点がラベル上に位置する場合には(S31)、当該ラベルを接合線探索対象となる注目ラベルとし、指定入口点を始点とする。図7に示す例では、指定入口点はどのラベルにも属していないが、仮に指定入口点が探索範囲内の何れかのラベルに属する場合には(S32)、そのラベルを注目ラベルとし、指定入口点を始点とする(S32)。そして、注目ラベル上で、探索方向(図7では、右方向)の最先側にあり、かつ、接合線決定基準線に最も近い画素を終点とする(S33)。
The entry designated joint line search program 12f refers to the
CPU12のラベル内接合線設定プログラム12gが、注目ラベル上で始点と終点を最短距離、すなわち最小画素数で結ぶ画素を探索し、これらの各画素に接合線フラグを立てることで、注目ラベル内に接合線を設定する(S34)。接合線フラグは、接合線として採用される画素であることを示す。2点間を最短距離で接続する画素の探索は、迷路の入口と出口を最短距離で接続する公知のアルゴリズムを採用することで、容易に実現できるし、また、全ての可能性を試すことでも容易に実現できる。なお、注目ラベルの全画素には、接合線探索処理が終了していることを示す処理済みフラグを立て、これにより、以後の接合線探索処理の対象から除外する。
The intra-label joint
そして、終点から探索方向に見て、異なるラベル上で終点に最も近い未通過画素を探索する(S35)。このとき、接続可能性を拡げるために、真上又は真下にある画素も、探索範囲に入れる。未通過画素は、いまだ接合線探索の対象となっていないラベルの画素であり、処理済みフラグの立っていない画素である。未通過画素が複数発見される場合には、接合線決定基準線に最も近い画素を採用する。 Then, a non-passed pixel closest to the end point on a different label is searched for in the search direction from the end point (S35). At this time, in order to expand the connection possibility, the pixels immediately above or below are also included in the search range. A non-passed pixel is a pixel of a label that has not yet been subjected to a joint line search, and is a pixel for which no processed flag is set. When a plurality of non-passed pixels are found, the pixel closest to the joint line determination reference line is adopted.
また、入口点が探索範囲内のラベル上に位置しない場合(S31)、すなわち、図7に示す説明例の場合、入口指定接合線探索プログラム12fは、2値化近似度データ40を参照して、入口点から探索方向に見て、入口点に最も近い未通過画素を探索する(S36)。ステップS36でも、接続可能性を拡げるために、真上又は真下にある画素も、探索範囲に入れる。
When the entry point is not located on the label within the search range (S31), that is, in the case of the example shown in FIG. 7, the entry designated joint line search program 12f refers to the
ステップS35,S36における近さの定量的基準として、原則的に、距離を算定したい画素と、基準となる画素との間のユークリッド距離の自乗、すなわち、前者と後者の画素間の水平方向画素数(例えば、接続線決定基準線に沿った画素数)の自乗と垂直方向画素数(例えば、接続線決定基準線に直交する軸線に沿った画素数)の自乗の和が考えられる。しかし、この演算は自乗を含むので、最終的な結果を得るまでに時間がかかる。そこで、本実施例では、より簡易に、前者と後者の画素間の水平方向画素数と垂直方向画素数の最大値、又は前者と後者の画素を接続する直線が通過する画素数を採用する。ステップS35,S36での近さの判定は、厳密な比較を要求しないので、自乗を含まない簡易な演算で済む後者の方法が便利である。 As a quantitative criterion for the proximity in steps S35 and S36, in principle, the square of the Euclidean distance between the pixel whose distance is to be calculated and the reference pixel, that is, the number of pixels in the horizontal direction between the former and latter pixels. For example, the sum of the square of (for example, the number of pixels along the connection line determination reference line) and the square of the number of vertical pixels (for example, the number of pixels along the axis perpendicular to the connection line determination reference line) can be considered. However, since this calculation includes square, it takes time to obtain the final result. Therefore, in this embodiment, the maximum number of horizontal and vertical pixels between the former and latter pixels or the number of pixels through which a straight line connecting the former and latter pixels passes is more simply adopted. Since the closeness determination in steps S35 and S36 does not require a strict comparison, the latter method, which requires only a simple calculation that does not include the square, is convenient.
ステップS35又はステップS36の探索の結果、未通過画素を発見できた場合(S37)、発見した画素が探索範囲の上辺上又は下辺上にあると、それ以上の接合線探索が不確実になる。そこで、発見した画素が探索範囲の上辺上又は下辺上のいずれでもない場合に(S38)、次のラベルで接合線を探索する。すなわち、発見した画素を含むラベルを注目ラベルとし、発見した画素を始点とする(S39)。そして、注目ラベル内に接合線を設定し(S33,S34)、次に接合線を設定すべきラベルを探索する(S35)。 As a result of the search in step S35 or step S36, if a non-passed pixel can be found (S37), if the found pixel is on the upper side or the lower side of the search range, further joint line search becomes uncertain. Therefore, when the found pixel is not on the upper side or the lower side of the search range (S38), the junction line is searched for with the next label. That is, the label including the found pixel is set as the attention label, and the found pixel is set as the start point (S39). Then, a joining line is set in the target label (S33, S34), and a label for which a joining line is to be set is searched for (S35).
ステップS35又はステップS36の探索で未通過画素を発見できない場合(S37)、もしくは、発見した画素が探索範囲の端辺上にある場合(S38)には、探索範囲内に、もはや接合線を設定すべきラベルが存在しないことになるので、処理を終了する。接合線がつながらない区間は、ジャンプ区間として、後述するように、2値化のための近似度閾値Tを下げて、再度、接合線を探索することになる。 If a non-passed pixel cannot be found by the search in step S35 or step S36 (S37), or if the found pixel is on the edge of the search range (S38), a joint line is no longer set in the search range. Since there is no label to be processed, the process is terminated. As will be described later, the interval where the joining line is not connected is reduced as the jump interval, and the approximation threshold T for binarization is lowered and the joining line is searched again.
無指定接合線探索プログラム12eによる接合線探索処理(S10)を説明する。無指定接合線探索プログラム12eは、形式的には、その引数として探索範囲を必要とするが、初回にしか実行されないので、グローバル変数に探索範囲を設定しておき、それを参照するようにしてもよい。図8は、無指定接合線探索プログラム12eの詳細な動作フローチャートを示す。図9は、図5に示す2値化近似度データに対してステップS10による処理過程の説明図である。ステップS10の接合線探索の過程で該当するラベル上に設定される、接合線の始点(S)と終点(E)に対応する画素に、×を付記してある。
The joining line search process (S10) by the unspecified joining
無指定接合線探索プログラム12eは、2値化近似度データ40を参照し、指定された探索範囲内で最大面積(最大画素数)のラベルを探索し、注目ラベル(処理対象のラベル)とする(S51)。最大面積のラベルは、接合線を設定するのに最も好ましいと考えられるからである。最大面積のラベルが複数存在する場合には、中心が接合線決定基準線に最も近いものを注目ラベルとする。このようなラベルも複数存在する場合には、探索領域の左右方向に見て中央に近いラベル、又は、適当なラベルを注目ラベルとする。
The non-designated joint
理解を容易にするために、探索領域の接合線決定基準線は、図9に示すように、水平になっているものとする。注目ラベルの最左端にあり、且つ接合線決定基準線に最も近い画素を、注目ラベル内の接合線の始点とする(S52)。注目ラベルの最右端にあり、接合線決定基準線に最も近い画素を、注目ラベル内の接合線の終点とする(S53)。この始点と終点を、探索範囲内で、注目ラベルよりも左側のラベルと右側のラベルに対する接合線探索処理のために記憶する(S54)。 In order to facilitate understanding, it is assumed that the joining line determination reference line in the search area is horizontal as shown in FIG. The pixel located at the leftmost end of the target label and closest to the joint line determination reference line is set as the start point of the joint line in the target label (S52). The pixel located at the rightmost end of the target label and closest to the joint line determination reference line is set as the end point of the joint line in the target label (S53). The start point and end point are stored in the search range for the joint line search process for the label on the left side and the label on the right side of the target label (S54).
注目ラベル上で、始点と終点を最短距離、すなわち最小画素数で接続する画素を探索し、これらの画素に接合線フラグを立てることで、接合線を設定する(S55)。ステップS34と同様のアルゴリズムを採用でき、ステップS34と同様に、注目ラベルの全画素には、接合線探索処理の対象となったことを示す処理済みフラグを立て、これにより、以後の接合線探索処理の対象から除外する。 On the target label, a pixel that connects the start point and the end point with the shortest distance, that is, the minimum number of pixels, is searched, and a bond line flag is set for these pixels to set a bond line (S55). The same algorithm as in step S34 can be adopted, and as in step S34, all the pixels of the target label are set with a processed flag indicating that they have been subjected to the joint line search process, and thereby the subsequent joint line search is performed. Exclude from processing.
次に、ステップS51で決定された注目ラベルの左側に存在するラベルのうちで、接合線を設定すべきラベルを逐次的に探索し、それらのラベル内に接合線を設定する(S56)。具体的には、無指定接合線探索プログラム12eは、ステップS34で記憶した始点から初期探索範囲の左辺までの、接合線決定基準線を中心とする一定幅を探索範囲とし、ステップS34で記憶した始点を入口点とし、探索方向として左方向を指定して、入口点指定接合線探索プログラム12fを呼び出す。入口点指定接合線探索プログラム12fは、2値化近似度データ40を参照し、図6に示すフローに従い、ステップS51の注目ラベル(最大面積のラベル)よりも左側に位置するラベルの中から、逐次的に接合線を設定すべきラベルを決定し、その各ラベル内に接合線を設定する。
Next, among the labels present on the left side of the target label determined in step S51, labels for which a joint line is to be set are sequentially searched, and a joint line is set within those labels (S56). Specifically, the unspecified joining
同様に、ステップS51で決定された注目ラベルの右側に存在するラベルのうちで、接合線を設定すべきラベルを逐次的に探索し、それらのラベル内に接合線を設定する(S57)。具体的には、無指定接合線探索プログラム12eは、ステップS34で記憶した終点から初期探索範囲の右辺までの、接合線決定基準線を中心とする一定幅を探索範囲とし、ステップS34で記憶した終点を入口点とし、探索方向として右方向を指定して、入口点指定接合線探索プログラム12fを呼び出す。入口点指定接合線探索プログラム12fは、2値化近似度データ40を参照し、図6に示すフローに従い、ステップS51の注目ラベル(最大面積のラベル)よりも右側に位置するラベルの中から、逐次的に接合線を設定すべきラベルを決定し、その各ラベル内に接合線を設定する。
Similarly, among the labels present on the right side of the target label determined in step S51, labels for which a joint line is to be set are sequentially searched, and a joint line is set within those labels (S57). Specifically, the non-specified joining
以上の処理(S51〜S57)により、近似度閾値T以上の近似値を持つラベルに対して、接合線を設定するのに適した互いに接近するラベルを選択し、選択されたラベルに接合線を設定できる。 By the above processing (S51 to S57), the labels that are close to each other suitable for setting the bonding line are selected for the labels having the approximation value equal to or greater than the approximation threshold T, and the bonding line is added to the selected label. Can be set.
無指定接合線探索処理(S10)の最初のラベルを最大面積のラベルとしたが、接合線決定基準線に沿った長さ(接合線決定基準線に射影したときの長さ)が最も長いラベルを最初の注目ラベルとしてもよい。 The first label of the unspecified joining line search process (S10) is the label of the maximum area, but the length along the joining line determination reference line (the length when projected onto the joining line determination reference line) is the longest. May be the first attention label.
ステップS10又はS11の後、設定された接合線が不連続になる区間(ジャンプ区間)があるかどうかを調べる(S12)。これは、例えば、初期探索範囲内で、右から左又は左から右に、設定済みの接合線の端点(始点又は終点)のつながりを追跡することで判明する。 After step S10 or S11, it is checked whether or not there is a section (jump section) where the set joint line is discontinuous (S12). This can be found, for example, by tracing the connection of the end points (start point or end point) of the set joint line from right to left or from left to right within the initial search range.
ジャンプ区間が無い場合(S13)、初期探索範囲内で連続する接合線が設計されたことになるので、マニュアルでの編集・修整を実行する(S23)。 If there is no jump section (S13), a continuous joining line is designed within the initial search range, so manual editing / modification is executed (S23).
ジャンプ区間がある場合(S13)、近似度閾値Tを所定値(Δ)だけ小さくする(S14)。最初のジャンプ区間を探索範囲とし、探索範囲の入口点と出口点を設定する(S15)。 When there is a jump section (S13), the approximation threshold T is decreased by a predetermined value (Δ) (S14). The first jump section is set as a search range, and an entry point and an exit point of the search range are set (S15).
ジャンプ区間が、接合線を探索するほどもないほどに短い場合、例えば、数画素程度の場合(S16)、探索範囲の入口点と出口点を直結する接合線を、入口点と出口点の間の画素上に設定する(S21)。 When the jump section is short enough not to search for a joint line, for example, when it is about several pixels (S16), a joint line directly connecting the entrance point and the exit point of the search range is defined between the entrance point and the exit point. (S21).
ジャンプ区間が、ある程度以上の距離を有する場合(S16)、CPU12の近似度2値化プログラム12bが、ステップS15で設定された探索範囲に対し、ステップS4で算出された近似度データ38を近似度閾値Tで2値化する(S17)。2値化された近似度を、ステップS7と同様にラベリングし(S18)、ステップS8と同様の処理で細線化する(S19)。入口指定接合線探索プログラム12fが、入口点指定の接合線探索処理を実行する(S20)。ステップS20の結果で得られる接合線の終点は、出口点に一致しない場合がありうるが、その終点と出口点との間はジャンプ区間となる。
When the jump section has a certain distance or more (S16), the approximation binarization program 12b of the
ステップS21又はS20の後、次のジャンプ区間を探索する(S22)。初期探索範囲の他端に達する前に次のジャンプ区間を発見したら(S22)、次のジャンプ区間を探索範囲に設定して(S23)、ステップS16〜S21を繰り返す。 After step S21 or S20, the next jump section is searched (S22). If the next jump section is found before reaching the other end of the initial search range (S22), the next jump section is set as the search range (S23), and steps S16 to S21 are repeated.
次のジャンプ区間を発見することなしに、初期探索範囲の他端に到達したら(S22)、ステップS12に戻る。すなわち、ステップS20での接合線探索で発生する可能性のあるジャンプ区間を探索し(S12)、発見した場合には(S13)、近似度閾値TをΔだけ少なくして、ステップS15〜S21の接合線探索処理を繰り返す。 If the other end of the initial search range is reached without finding the next jump section (S22), the process returns to step S12. That is, a jump section that may occur in the joint line search in step S20 is searched (S12). If it is found (S13), the approximation threshold T is decreased by Δ, and steps S15 to S21 are performed. Repeat the joint line search process.
最終的にジャンプ区間が無くなると(S13)、以上の処理で設定された接合線を、合成すべき2つの画像に対して表示装置22に表示し、オペレータによる編集又は修正を受け付ける(S24)。オペレータは、マウス18等を使って、接合線を手動で適宜に編集・修正する。CPU12は、このようにして確定した接合線で2つのオルソ画像を合成し(S25)。得られた合成画像データ42をHDD24に格納する。
When the jump section finally disappears (S13), the joining line set by the above processing is displayed on the
このようにして得られた合成画像に更に合成したいオルソ画像又は別の合成画像がある場合、図3において、これらの2つの画像を対象に選択して(S1)、ステップS2以降を繰り返せばよい。 When there is an ortho image or another composite image to be further combined with the composite image obtained in this way, in FIG. 3, these two images are selected as targets (S1), and steps S2 and after may be repeated. .
図3及び図4では、同じ近似度閾値Tに対する全部のジャンプ区間に対して接合線を探索及び設定してから、近似度閾値TをΔだけ小さくしたが、ジャンプ区間を発見する都度、当該ジャンプ区間内で近似度閾値を低減し、接合線を探索および設定しても良い。このような処理は、再帰的なプログラムにより容易に実現できる。 In FIG. 3 and FIG. 4, the joint line is searched and set for all jump sections for the same approximation threshold value T, and then the approximation threshold value T is decreased by Δ. The approximation threshold may be reduced within the section, and the joining line may be searched and set. Such processing can be easily realized by a recursive program.
図3及び図4に示すフローは、いわば、0〜255の値をもつ近似度の分布から、近似度分布の稜線を示す画素を抽出する処理に相当する。多値の近似度分布からその稜線を探索しても、同様に、適した接合線を決定できる。 The flow shown in FIGS. 3 and 4 corresponds to processing for extracting pixels indicating the ridgeline of the approximation distribution from the approximation distribution having a value of 0 to 255. Even if the ridge line is searched from the multi-value approximation distribution, a suitable joint line can be determined in the same manner.
図10、図11、図12及び図13を参照して、ジャンプ区間における接合線の探索を概略的に説明する。 With reference to FIG. 10, FIG. 11, FIG. 12, and FIG. 13, the search for the joint line in the jump section will be schematically described.
図10は、ステップS3で設定される探索範囲に、1つのジャンプ区間が存在する場合を示す。図10で、実線は、ステップS10又はステップS11で探索された接合線を示し、破線は、ジャンプ区間の端点(入口点と出口点)間を結ぶ直線を示す。ジャンプ区間の端点は、当該端点と同じ側の接続線の始点又は終点である。ステップS15では、図10に示すジャンプ区間の端点間を接続する線に平行に一定幅Wの探索範囲を、図11に示すように設定する。幅Wは、接合対象の画像に応じて、適宜に選択設定される。 FIG. 10 shows a case where one jump section exists in the search range set in step S3. In FIG. 10, the solid line indicates the joint line searched in step S10 or step S11, and the broken line indicates a straight line connecting the end points (entrance point and exit point) of the jump section. The end point of the jump section is the start point or end point of the connection line on the same side as the end point. In step S15, a search range having a constant width W is set as shown in FIG. 11 in parallel with the line connecting the end points of the jump section shown in FIG. The width W is appropriately selected and set according to the images to be joined.
図11に示す探索範囲に対して、ステップS17〜S20において接合線を探索した結果、図12に示すような接合線(実線)が得られ、破線で示すジャンプ区間が残存するとする。この場合、図12に示すジャンプ区間に対して、更に、近似度閾値TをΔだけ減らし(S14)、探索範囲を設定し(S15)、接合線を探索する(S17〜S20)。図13は、その探索結果を示す。依然として残るジャンプ区間に対して、再度、ステップS14〜S20を実行する。当該ジャンプ区間が一定の短距離以下であれば(S16)、直接、入口点と出口点を接続する(S21)。 As a result of searching for a joint line in steps S17 to S20 with respect to the search range shown in FIG. 11, a joint line (solid line) as shown in FIG. 12 is obtained, and a jump section indicated by a broken line remains. In this case, with respect to the jump section shown in FIG. 12, the approximation threshold T is further reduced by Δ (S14), a search range is set (S15), and a joint line is searched (S17 to S20). FIG. 13 shows the search result. Steps S14 to S20 are executed again for the remaining jump section. If the jump section is below a certain short distance (S16), the entry point and the exit point are directly connected (S21).
ジャンプ区間がなくなったら(S13)、ユーザは、マウス18等を使って、接合線を手動で適宜に編集・修正する(S24)。修正された接合線で2つのオルソ画像が合成され(S25)、得られた合成画像データ42がHDD24に格納される。
When the jump section disappears (S13), the user manually edits / corrects the joining line manually using the
図14は、図16に示す2つのオルソ画像を本実施例により接合した例を示す。図14(A)は左オルソ画像の重複部分を示し、同(B)は右オルソ画像の重複部分を示し、同(C)は接合結果を示す。接合線が、建物とその倒れ込みを回避して設定される。即ち、同じ建物の互いに逆方向に倒れ込んでいる画像が接合されることが無い。 FIG. 14 shows an example in which the two ortho images shown in FIG. 16 are joined according to this embodiment. FIG. 14A shows the overlapping portion of the left ortho image, FIG. 14B shows the overlapping portion of the right ortho image, and FIG. 14C shows the joining result. A joint line is set to avoid the building and its collapse. That is, the images of the same building that are falling in opposite directions are not joined.
特定の説明用の実施例を参照して本発明を説明したが、特許請求の範囲に規定される本発明の技術的範囲を逸脱しないで、上述の実施例に種々の変更・修整を施しうることは、本発明の属する分野の技術者にとって自明であり、このような変更・修整も本発明の技術的範囲に含まれる。 Although the invention has been described with reference to specific illustrative embodiments, various modifications and alterations may be made to the above-described embodiments without departing from the scope of the invention as defined in the claims. This is obvious to an engineer in the field to which the present invention belongs, and such changes and modifications are also included in the technical scope of the present invention.
10:画像接合装置
12:CPU
12a:近似度算出プログラム
12b:近似度2値化プログラム
12c:ラベリング処理プログラム
12d:細線化プログラム
12e:無指定接合線探索プログラム
12f:入口指定接合線探索プログラム
12g:ラベル内接合線設定プログラム
14:ROM
16:RAM
18:マウス
20:キーボード
22:表示装置
24:ハードディスク装置(HDD)
26:バス
30:オルソ画像データ
32:地盤標高データ(DTM)データ
34:表層標高(DSM)データ
36:建物フラグテーブル
38:近似度データ
40:2値化近似度データ
42:合成画像データ
10: Image joining device 12: CPU
12a: Approximation degree calculation program 12b: Approximation degree binarization program 12c:
16: RAM
18: Mouse 20: Keyboard 22: Display device 24: Hard disk device (HDD)
26: Bus 30: Ortho image data 32: Ground elevation data (DTM) data 34: Surface elevation (DSM) data 36: Building flag table 38: Approximation data 40: Binary approximation data 42: Composite image data
Claims (28)
当該コンピュータの演算手段が、当該2つのオルソ画像データの重複部分に初期探索範囲を設定し、当該コンピュータの記憶手段に格納する初期探索範囲設定ステップと、
当該演算手段が、当該初期探索範囲で当該2つのオルソ画像データの近似度を算出し、当該記憶手段に格納する近似度算出ステップと、
当該演算手段が、当該近似度算出ステップで得られる当該近似度が所定近似度値以上の近似度値範囲にある画素を抽出し、その隣接する画素毎にグループ化して、接合線探索対象画素を抽出する前処理ステップと、
当該演算手段が、当該接合線探索対象画素に従い、当該接合線探索対象画素の所定のラベルから逐次的に所定方向に近いラベルを探索し、当該所定のラベル及び探索した各ラベルに接合線を設定する接合線探索ステップと、
当該演算手段が、当該接合線のジャンプ区間に対し、より小さい近似度値範囲で当該前処理ステップを実行させ、これで抽出される接合線探索対象画素に対して、当該接合線探索対象画素の所定のラベルから逐次的に所定方向に近いラベルを選択し、選択した各ラベルに接合線を設定する繰り返しステップと、
当該演算手段により、当該接合線に従い当該2つのオルソ画像データを接合して、合成画像データを生成する接合ステップ
とを具備することを特徴とする画像接合方法。 A method of joining two ortho image data obtained by photographing from different directions, at least partially overlapping, by a computer,
An initial search range setting step in which the computing means of the computer sets an initial search range in the overlapping portion of the two ortho image data, and stores it in the storage means of the computer;
The calculation means calculates an approximation degree of the two ortho image data in the initial search range, and stores the approximation degree in the storage means; and
The calculation means extracts pixels in the approximation value range in which the approximation obtained in the approximation calculation step is equal to or greater than a predetermined approximation value, groups the adjacent pixels, and determines the junction line search target pixels. A preprocessing step to extract;
The calculation means sequentially searches for a label close to a predetermined direction from a predetermined label of the bonding line search target pixel according to the bonding line search target pixel, and sets a bonding line to the predetermined label and each searched label. A connecting line search step,
The calculation means executes the preprocessing step in a smaller approximation value range for the jump section of the joint line, and for the joint line search target pixel extracted in this manner, Iterative steps for selecting a label close to a predetermined direction sequentially from a predetermined label and setting a joining line for each selected label;
An image joining method comprising: a joining step of joining the two ortho image data according to the joining line by the computing means to generate composite image data.
当該2つのオルソ画像データの重複部分に初期探索範囲を設定する初期探索範囲設定手段と、
当該初期探索範囲で当該2つのオルソ画像データの近似度を算出し、記憶手段に格納する近似度算出手段と、
当該記憶手段から指定探索範囲内の当該近似度を読み出し、読み出した当該近似度が指定の近似度値範囲にある画素を抽出し、その隣接する画素毎にグループ化して、接合線探索対象画素を抽出する前処理手段と、
当該前処理手段により生成される当該接合線探索対象画素のラベルのうちで、所定のラベルから逐次的に所定方向に近いラベルを探索し、当該所定のラベル及び探索した各ラベルに接合線を設定する接合線探索手段と、
当該前処理手段及び当該接合線探索手段を制御する制御手段であって、1回目には当該指定探索範囲として当該初期探索範囲を指定し、当該指定の近似度値範囲として上限値範囲を指定して、当該前処理手段および当該接合線探索手段を実行させ、2回目以降では、設定済みの接合線のジャンプ区間を当該指定探索範囲とし、段階的に低減した近似度値範囲を当該指定の近似度値範囲として、当該前処理手段および当該接合線探索手段を実行させる制御手段と、
当該接合線に従い当該2つのオルソ画像データを接合し、合成画像データを生成する合成手段
とを具備することを特徴とする画像接合装置。 An image joining apparatus that joins two ortho image data obtained by photographing from different directions, at least partially overlapping,
Initial search range setting means for setting an initial search range in an overlapping portion of the two ortho image data;
An approximation degree calculating means for calculating an approximation degree of the two ortho image data in the initial search range, and storing the approximation degree in the storage means;
Read out the degree of approximation within the designated search range from the storage means, extract pixels whose read degree of approximation is within the designated degree of approximation value range, group them for each adjacent pixel, and select the junction line search target pixels. Pre-processing means to extract;
Among the labels of the joint line search target pixels generated by the preprocessing unit, a label near a predetermined direction is sequentially searched from a predetermined label, and a joint line is set to the predetermined label and each searched label. A joining line searching means for
A control means for controlling the preprocessing means and the joint line searching means. The initial search range is designated as the designated search range for the first time, and the upper limit value range is designated as the designated approximation value range. Then, the preprocessing means and the joint line search means are executed, and after the second time, the jump section of the set joint line is set as the designated search range, and the approximation value range reduced in stages is set to the designated approximation. As the degree value range, a control means for executing the preprocessing means and the joint line searching means,
An image joining apparatus comprising: combining means for joining the two ortho image data according to the joining line and generating composite image data.
更に、当該近似度算出手段による近似度算出の前に、当該近似度算出手段の処理対象となる当該2つのオルソ画像から建物を除外する建物除外手段を具備することを特徴とする請求項11乃至17の何れか1項に記載の画像接合装置。 The storage means stores ground elevation data and surface elevation data,
Furthermore, it comprises a building excluding unit for excluding a building from the two ortho images to be processed by the approximation calculating unit before calculating the approximation by the approximation calculating unit. The image joining apparatus according to any one of 17.
当該2つのオルソ画像データの重複部分に初期探索範囲を設定させ、当該コンピュータの記憶手段に格納させる初期探索範囲設定機能と、
当該初期探索範囲で当該2つのオルソ画像データの近似度を算出させ、当該記憶手段に格納させる近似度算出機能と、
当該近似度算出機能で得られる当該近似度が所定近似度値以上の近似度値範囲にある画素を抽出させ、その隣接する画素毎にグループ化させて、接合線探索対象画素を抽出させる前処理機能と、
当該接合線探索対象画素に従い、当該接合線探索対象画素の所定のラベルから逐次的に所定方向に近いラベルを探索させ、当該所定のラベル及び探索した各ラベルに接合線を設定させる接合線探索機能と、
当該接合線のジャンプ区間に対し、より小さい近似度値範囲で当該前処理機能を実行させ、これで抽出される接合線探索対象画素に対して、当該接合線探索対象画素の所定のラベルから逐次的に所定方向に近いラベルを選択させ、選択した各ラベルに接合線を設定させる繰り返し機能と、
当該接合線に従い当該2つのオルソ画像データを接合して、合成画像データを生成させる接合機能
とを実現させるための画像接合プログラム。 An image joining program for joining two ortho image data obtained by photographing from different directions to a computer and overlapping at least a part thereof,
An initial search range setting function for setting an initial search range in an overlapping portion of the two ortho image data and storing the initial search range in a storage unit of the computer;
An approximation calculation function for calculating the approximation degree of the two ortho image data in the initial search range and storing it in the storage means;
Pre-processing for extracting pixels in the approximate value range where the approximate value obtained by the approximate value calculation function is equal to or greater than a predetermined approximate value, and grouping the adjacent pixels and extracting the junction line search target pixels Function and
In accordance with the junction line search target pixel, a junction line search function that sequentially searches for a label close to a predetermined direction from a predetermined label of the junction line search target pixel and sets a junction line to the predetermined label and each searched label. When,
The preprocessing function is executed in a smaller approximation value range for the jump section of the junction line, and the junction line search target pixel extracted in this manner is sequentially started from a predetermined label of the junction line search target pixel. Repeat function that allows you to select a label that is close to a given direction and set a joining line for each selected label,
An image joining program for realizing a joining function for joining the two ortho image data according to the joining line and generating composite image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009125858A JP5240071B2 (en) | 2009-05-25 | 2009-05-25 | Image joining method, apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009125858A JP5240071B2 (en) | 2009-05-25 | 2009-05-25 | Image joining method, apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010272093A true JP2010272093A (en) | 2010-12-02 |
JP5240071B2 JP5240071B2 (en) | 2013-07-17 |
Family
ID=43420030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009125858A Active JP5240071B2 (en) | 2009-05-25 | 2009-05-25 | Image joining method, apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5240071B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014099006A (en) * | 2012-11-14 | 2014-05-29 | Hitachi Solutions Ltd | Information processing program and information processing apparatus |
JP7378347B2 (en) | 2020-04-30 | 2023-11-13 | 株式会社トヨタマップマスター | Evaluation device, evaluation method, evaluation program and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0923330A (en) * | 1995-07-05 | 1997-01-21 | Minolta Co Ltd | Picture processor |
JP2003317089A (en) * | 2002-04-24 | 2003-11-07 | Dainippon Printing Co Ltd | Method and system for image correction |
JP2007525770A (en) * | 2004-02-27 | 2007-09-06 | インターグラフ ソフトウェアー テクノロジーズ カンパニー | Technology to form a single image from multiple overlapping images |
-
2009
- 2009-05-25 JP JP2009125858A patent/JP5240071B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0923330A (en) * | 1995-07-05 | 1997-01-21 | Minolta Co Ltd | Picture processor |
JP2003317089A (en) * | 2002-04-24 | 2003-11-07 | Dainippon Printing Co Ltd | Method and system for image correction |
JP2007525770A (en) * | 2004-02-27 | 2007-09-06 | インターグラフ ソフトウェアー テクノロジーズ カンパニー | Technology to form a single image from multiple overlapping images |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014099006A (en) * | 2012-11-14 | 2014-05-29 | Hitachi Solutions Ltd | Information processing program and information processing apparatus |
JP7378347B2 (en) | 2020-04-30 | 2023-11-13 | 株式会社トヨタマップマスター | Evaluation device, evaluation method, evaluation program and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP5240071B2 (en) | 2013-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6730690B2 (en) | Dynamic generation of scene images based on the removal of unwanted objects present in the scene | |
US9380213B2 (en) | Image composition apparatus and method | |
JP4642757B2 (en) | Image processing apparatus and image processing method | |
US10628993B2 (en) | Image processing apparatus that generates a virtual view image from multiple images captured from different directions and method controlling the same | |
JP2007525770A (en) | Technology to form a single image from multiple overlapping images | |
KR101496317B1 (en) | Correcting method for the drawing image by modifing the ground features location in photographing image | |
US8711141B2 (en) | 3D image generating method, 3D animation generating method, and both 3D image generating module and 3D animation generating module thereof | |
KR101483955B1 (en) | System for processing reflection image by adjusting a 3d position in the reflection image | |
JP2014178957A (en) | Learning data generation device, learning data creation system, method and program | |
US20120113117A1 (en) | Image processing apparatus, image processing method, and computer program product thereof | |
CN105931188A (en) | Method for image stitching based on mean value duplication removal | |
JP2010205067A (en) | Device, method and program for extracting area | |
CN111901536B (en) | Video editing method, system, device and storage medium based on scene recognition | |
CN110892255A (en) | Image processing apparatus, image processing method, and program for detecting defects from an image | |
US9426514B1 (en) | Graphic reference matrix for virtual insertions | |
JP5240071B2 (en) | Image joining method, apparatus and program | |
CN103733207B (en) | Image partition method | |
US11281924B2 (en) | Apparatus for adjusting parameter related to defect detection for image processing for image processing, method for information processing, and program | |
JPH10269347A (en) | Method for eliminating shade shadow element on geographic image, geographic image processor and recording medium | |
JP5305485B2 (en) | Ground height data generating apparatus, ground height data generating method, and program | |
KR102204040B1 (en) | Image processing system for unifying collecting images by altitude | |
US11240429B2 (en) | Target object elimination method based on panoramic camera | |
KR101893142B1 (en) | Object extraction method and apparatus | |
KR101264358B1 (en) | Method and System for Automated Photomosaic Image Generation | |
CN113408534A (en) | Method, apparatus and storage medium for recognizing landmark in panoramic image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120509 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130318 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160412 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5240071 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |