JPS6267681A - Estimation system for surface projection of qualitative body from one image - Google Patents

Estimation system for surface projection of qualitative body from one image

Info

Publication number
JPS6267681A
JPS6267681A JP60206443A JP20644385A JPS6267681A JP S6267681 A JPS6267681 A JP S6267681A JP 60206443 A JP60206443 A JP 60206443A JP 20644385 A JP20644385 A JP 20644385A JP S6267681 A JPS6267681 A JP S6267681A
Authority
JP
Japan
Prior art keywords
image
qualitative
boundary line
area
height
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP60206443A
Other languages
Japanese (ja)
Inventor
Hirotaka Mizuno
浩孝 水野
Fuminobu Furumura
文伸 古村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP60206443A priority Critical patent/JPS6267681A/en
Publication of JPS6267681A publication Critical patent/JPS6267681A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To estimate qualitative projections of the surface of a body by classifying respective picture elements of a gradational digital image of the body surface by plural attitudes and utilizing the relation between those attitudes and the direction of parallel illumination light in image photography. CONSTITUTION:An object image from an image file 11 is stored in an image memory 12, classified through an image classifying device 13 by three kinds, i.e. flat land, a sunny slope, and a shady slope, and stored in an image memory 14. This ternary-coded data is divided in terms of area by an area extracting device 15 and stored as an area number image in an image memory 16. The area number image is inputted to a border line classifying and extracting device 18 together with irradiation direction data in image photography, so that border line images classified by a valley and a ridge are extracted. Further, a qualitative attitude is calculated through an area, border line, and connection point description generating device 110 and a qualitative attitude calculating device 112. Further, smooth and natural qualitative projections of the object image are estimated.

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は画像からの撮影対象の形状推定方式に係り、特
に資源探査の分野などにおける1枚の画像からの定性的
地形起伏推定に好適な定性的物体表面起伏推定方式に関
する。
[Detailed Description of the Invention] [Field of Application of the Invention] The present invention relates to a method for estimating the shape of a photographed object from an image, and is particularly suitable for estimating the shape of a photographed object from a single image in the field of resource exploration. Concerning a target object surface relief estimation method.

〔発明の背景〕[Background of the invention]

従来、1枚の画像からの定性的物体表面起伏推定につい
ては、地形起伏推定を具体例として国際電気電子学会講
演論文集、地球科学及び遠隔探査、(−; E −21
巻、第1号(1983年)  [EEE Trans。
Conventionally, qualitative object surface relief estimation from a single image has been described in Proceedings of the International Institute of Electrical and Electronics Engineers, Earth Science and Remote Exploration, (-; E-21) using terrain relief estimation as a specific example.
Volume, No. 1 (1983) [EEE Trans.

Geoscjence and RemoTe Sen
sing、 V o l  G E −21、Na 1
 (1983) )におけるワンプ(Wang)らによ
ろ゛′遠隔探査されたデータにおける空間推論(Spa
tial Reasoningin Remotely
、 5ensed Data)”と題する文献において
論じられている。
Geoscjence and RemoTe Sen
sing, V o l G E -21, Na 1
(1983), Wang et al.
tial Reasoning in Remotely
, 5enced Data).

この例では1枚の白黒画像を、まず、画素値(明るさ)
によって暗い領域・明るい領域・非常に明るい領域に分
割し、領域間の境界線を照明光(太陽光)方向・境界線
の向き・隣接する2領域の明るさにより谷(凹の境界線
)か尾根(凸の境界線)かに分類する。そして谷の境界
線上の画素には相対的な高さとしてOを、また尾根の境
界線上の画素には100を割り当て、最後にこれらの境
界線トの画素の高さを境界条件として境界線上にない画
素の高さを滑らかに補間することにより画像の全画素に
ついての相対的高さを推定する。
In this example, we will first calculate the pixel value (brightness) of one black and white image.
Divide into dark areas, bright areas, and very bright areas by dividing the boundaries between the areas into valleys (concave boundaries) or It is classified into ridges (convex boundaries). Then, pixels on the valley boundary line are assigned a relative height of O, and pixels on the ridge boundary line are assigned a relative height of 100.Finally, the height of these pixels on the boundary line T is used as a boundary condition to set the relative height on the boundary line. The relative heights of all pixels in the image are estimated by smoothly interpolating the heights of pixels that do not exist.

しかし、この例では領域を境界線の抽出ならびに境界線
の谷・尾根への分類のためにだけ利用しており、領域自
体の定性的な傾き情報を利用していない。そのため谷・
尾根にそれぞれ一律の高さく例えばOと100)Lか割
り当てることができず定性的とはいえ起伏の推定の精度
は低いものとなる。
However, in this example, the region is used only for extracting the boundary line and classifying the boundary line into valleys and ridges, and qualitative slope information of the region itself is not used. Therefore, the valley
It is not possible to assign a uniform height to each ridge, for example O and 100) L, and the accuracy of estimation of ups and downs is low, although it is qualitative.

さらに各境界線において構成画素に一定の高さく0ある
いは100)を割り当てるため、境界線間の接続点にお
いて、高さがステップ状に急変する場合が起こり得、地
形の起伏として極めて不自然な推定結果となってしまう
Furthermore, since a fixed height (0 or 100) is assigned to the constituent pixels of each boundary line, the height may suddenly change step-like at the connection point between the boundary lines, resulting in extremely unnatural estimation of the undulations of the topography. This will be the result.

また画像を領域分割する際に、画像のサイズサンプル数
)が小さい時や画像のダイナミックレンジ(画素値のレ
ベル数)が小さい時には分割の精度が落ちるという問題
がある。
Furthermore, when dividing an image into regions, there is a problem that the accuracy of division decreases when the size of the image (number of samples) is small or the dynamic range (number of levels of pixel values) of the image is small.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、上記従来技術の欠点を改善し1枚の画
像からより自然でもつともらしい定性的な物体表面起伏
を算出するための1画像からの定性的物体表面起伏推定
方式を提供することにある。
An object of the present invention is to provide a method for estimating qualitative object surface relief from a single image, which improves the drawbacks of the prior art and calculates a more natural and likely qualitative object surface relief from a single image. It is in.

〔発明の概要〕[Summary of the invention]

一ヒ記目的を達成するため本発明においては、まず1枚
の画像の各画素を数種類の属性に分類し、分類結果から
抽出される領域および領域間の境界線についてさらに属
性を付け、これらの属性と画像撮影時の平行照明光方向
との関係を利用して領域の傾き・境界線上での物体表面
の凹凸を推定し、物体表面の定性的起伏を求める。
In order to achieve the above object, the present invention first classifies each pixel of one image into several types of attributes, further attributes are added to the regions extracted from the classification results and the boundaries between the regions, and these The qualitative undulations of the object surface are determined by estimating the inclination of the area and the unevenness of the object surface on the boundary line using the relationship between the attributes and the direction of the parallel illumination light at the time of image capture.

さらに、1画像の各画素を数種類の属性に分類する際に
は画像を補間し、元の画像のサンプル数以上のサンプル
数の画像データを生成し、補間測索の値の誤差を考慮し
た存在範囲とヒストグラムの各画素値区間との重複度に
対応した重みで当該画素値区間を計数することにより算
出した精度の高い画像のヒストグラムを利用する。
Furthermore, when classifying each pixel of an image into several types of attributes, the image is interpolated, image data with a number of samples greater than the number of samples in the original image is generated, and the error of the interpolated value is taken into account. A highly accurate histogram of an image is used, which is calculated by counting the pixel value sections with a weight corresponding to the degree of overlap between the range and each pixel value section of the histogram.

また境界線上での物体表面の凹凸から物体表面の定性的
起伏を求める際には、まず領域・境界線の属性および接
続関係から境界線自体と境界線の接続点に高さを割りあ
て1次にこれらの高さから境界線上の各画素に高さが滑
らかに変化し、かつ接続点で他の境界線と滑らかに接続
するように高さを割り当てる。
In addition, when determining the qualitative undulations of an object's surface from the unevenness of the object's surface on a boundary line, first, the height is assigned to the boundary line itself and the connection point of the boundary line based on the attributes and connection relationships of the area/boundary line. Assign heights so that the height changes smoothly from these heights to each pixel on the border and smoothly connects to other border lines at connection points.

〔発明の実施例〕[Embodiments of the invention]

以下、本発明の実施例を図面により説明する。 Embodiments of the present invention will be described below with reference to the drawings.

まず、本発明の詳細な説明する。撮影で得た第2図の対
象領域の画像21に対し数種類の属性(ラベル)に画像
の各画素を分類する。属性としては例えば、第3図のご
とく平地31、(照明方向34に向いた)日向斜面32
、(その逆である)日陰斜面33の3種を設定する。分
類の手法としてはカラー画像の場合には最尤法(参考文
献、日本リモートセンシング研究全編、「画像の処理と
解析」、井守出版(株)、p、208−221、昭和5
6年5月)等の公知例が存在する。対象画像21が白黒
画像の場合には濃淡レベルによるしきい値分割〔参考文
献、ゴンザレッ(Gonzalez)及びウインツ(W
inz) +  rディジモル画像処理(Digita
l Image Processing) J +アデ
イソンーウエスリー(Addison−1i1esle
y)、 +977、 p 、 322−331)等の公
知技術がある。濃淡レベルによるしきい値分割において
、しきい値を自!l!lI選択すするためには対象画像
21のヒストグラムを利用する。精度の高いヒストグラ
ムを算出するためにまず対象側a21の補間処理を行う
ことにより対象画像21のサンプル数以上のサンプル数
の画像を生成し、生成した補間画像からヒストグラムを
算出する。第4図には補間処理の例を示す。同図(a)
には入力対象画像21の各サンプル(画素)の空間的配
置を、同図(b)には入力対象画像の半分のサンプル間
隔の点を補間して生成した入力対象画像の4倍のサンプ
ル個数の補間画像の各サンプルの空間的配置を示す。白
丸41は元のサンプルを、黒丸42は補間により生成し
たサンプルを示す。画像補間についてはキュービック・
コンボリューション法等の公知技術が存在する(参考文
献、日本リモートセンシング研究会用、「画像の処理と
解析」、井守出版(株)、p、183−】84、昭和5
6年)。ヒストグラムは一般に画像濃度の量子レベルを
Qとして、Qにおける度数h (Q)で表現される。画
像濃度が8ビツトに量子化された場合αはOl・・、2
55の整数+I aえてよい。したがって画像の全画素
のうち量子レベルがQのものの個数を計数することによ
りh (Q)を算出すればよい。しかし入力対象画像2
]のサンプル以外の補間により生成したサンプル値は一
般に実数値であり、この実数値を整数化して対応するレ
ベルQを見つけ、h(Q)を計数したのではヒストグラ
ムに誤差を生ずる。入力対象画像の各サンプルについて
も、量子レベルがQのものは量r化される前はQ−0,
5からQ+0.5  の間の信号値を持ち量子化により
±0.5  の不確実さが生じている。したがって人力
対象画像の各画素を用いて補間により生成した画素の値
についても±0.5  の誤差が含まれている。そこで
補間により生成した画素値が例えば1.8 である場合
には、誤差を考慮して1,3〜2.3の間のいずれかの
値を意味すると考える。ヒストグラムの量子レベルQに
ライてもaはu −0,5〜Q + 0.5の区間を意
味するものと考える。例えば1.3〜2.3の範囲はR
=1の0゜5〜1.5の区間及びQ、 = 2の1 、
5 = 2 、5の区間とそれぞho、2,0.8の重
複を持つのでh(1)に0.2.h (2)に0.8を
加算する。以上のように補間により生成した画素を誤差
を考慮して計数することにより精度の高いヒストグラム
を算出する・ 次に第3図のn値画像(nは領域の属性の種類)から、
同一の属性値の画素から成る領域を抽出する。第5図に
はその結果抽出された領域51〜56を示す。
First, the present invention will be explained in detail. For the image 21 of the target area shown in FIG. 2 obtained by photographing, each pixel of the image is classified into several types of attributes (labels). For example, as shown in Fig. 3, the attributes include a flat land 31 and a sunny slope 32 (facing the lighting direction 34).
, and (the opposite) shady slope 33 are set. For color images, the classification method is the maximum likelihood method (References, Complete Japanese Remote Sensing Research, "Image Processing and Analysis", Imori Publishing Co., Ltd., p. 208-221, 1932).
There are publicly known examples such as May 2006). When the target image 21 is a black and white image, threshold division based on gray level [References, Gonzalez and Wintz
inz) + rDigimol image processing (Digita
l Image Processing) J + Addison-1i1esle
There are known techniques such as y), +977, p, 322-331). When dividing thresholds by density level, set the threshold yourself! l! The histogram of the target image 21 is used for lI selection. In order to calculate a highly accurate histogram, first an interpolation process is performed on the target side a21 to generate an image with a number of samples greater than or equal to the number of samples of the target image 21, and a histogram is calculated from the generated interpolated image. FIG. 4 shows an example of interpolation processing. Figure (a)
shows the spatial arrangement of each sample (pixel) of the input target image 21, and (b) shows the number of samples four times that of the input target image generated by interpolating points with half the sample interval of the input target image shows the spatial arrangement of each sample in the interpolated image. White circles 41 indicate original samples, and black circles 42 indicate samples generated by interpolation. For image interpolation, cubic
There are known techniques such as the convolution method (Reference, for the Japan Remote Sensing Study Group, "Image Processing and Analysis", Imori Publishing Co., Ltd., p. 183-) 84, 1939.
6 years). A histogram is generally expressed as a frequency h (Q) in Q, where Q is the quantum level of image density. When the image density is quantized to 8 bits, α is Ol..., 2
You can get an integer of 55 + I a. Therefore, h (Q) can be calculated by counting the number of pixels with a quantum level of Q among all pixels of the image. However, input target image 2
] Sample values generated by interpolation other than samples are generally real values, and if this real value is converted into an integer, the corresponding level Q is found, and h(Q) is counted, an error will occur in the histogram. Regarding each sample of the input target image, those whose quantum level is Q are Q-0,
It has a signal value between 5 and Q+0.5, with an uncertainty of ±0.5 due to quantization. Therefore, the pixel values generated by interpolation using each pixel of the human-powered target image also include an error of ±0.5. Therefore, when the pixel value generated by interpolation is, for example, 1.8, it is considered to mean any value between 1.3 and 2.3, taking into account errors. Even if it falls on the quantum level Q of the histogram, a is considered to mean the interval from u −0.5 to Q + 0.5. For example, the range of 1.3 to 2.3 is R
= 0°5 to 1.5 interval of 1 and Q, = 1 of 2,
5 = 2, since there is an overlap of ho, 2, and 0.8 with the interval of 5, h(1) has 0.2. Add 0.8 to h (2). As described above, a highly accurate histogram is calculated by counting the pixels generated by interpolation taking into account the error.Next, from the n-value image (n is the type of area attribute) in Figure 3,
Extract a region consisting of pixels with the same attribute value. FIG. 5 shows regions 51 to 56 extracted as a result.

第3図の様に画像を平地31、日向斜面32、日陰斜面
33に分類すれば、 (1)日向斜面は照明光の照射方向を向いている面であ
る。
If the images are classified into flat ground 31, sunny slope 32, and shaded slope 33 as shown in Fig. 3, (1) The sunny slope is the surface facing the direction of illumination light.

(2)日陰斜面は照明光の照射方向に背を向けている面
である。
(2) A shaded slope is a surface facing away from the illumination direction.

(3)平地は、その名の通り平面である。(3) As the name suggests, flat land is a flat surface.

等の領域の属性値と照明光の照射方向と領域の傾きとの
間の関係を利用すれば、第6図の様に照明光の照射方向
34を設定すれば図のAA’線3線軸5ける断面図は定
性的に第6図の様に推定可能である。
By using the relationship between the attribute value of the area, the irradiation direction of the illumination light, and the inclination of the area, if the irradiation direction 34 of the illumination light is set as shown in FIG. The cross-sectional view can be qualitatively estimated as shown in FIG.

第6図からも分かるが、それぞれ2つの領域は凸あるい
は凹に接している。したがって2つの領域間の境界線に
は尾根(凸)、谷(凹)の2種の属性値のうちいずれか
を与える。
As can be seen from FIG. 6, the two regions are in contact with each other in a convex or concave manner. Therefore, one of two types of attribute values, ridge (convex) and valley (concave), is given to the boundary line between two areas.

第7図は2つの領域間の境界線を抽出した結果であり、
太線で示した尾根と細線で示した谷に分類したものであ
る。境界線の抽出及び分類は例えば以下の様な手順で行
う。
Figure 7 shows the result of extracting the boundary line between two areas,
It is classified into ridges shown by thick lines and valleys shown by thin lines. Boundary line extraction and classification are performed, for example, in the following procedure.

第8図及び第9図はそれぞれ第3図、第5図の右上部を
拡大したものであり、正方形は画素に対応している。境
界線抽出処理では第3図の分類結果の画像、第5図の領
域番号の画像を左上から順に隣接する4画素の間を走査
してゆく。例えば第9図の点81においては隣接する4
画素を見ると左上から順に領域52,53,53.53
に属している。したがって点81は領域52と領域53
のn■の境界a65の構成成分であると決定される。
8 and 9 are enlarged views of the upper right portions of FIGS. 3 and 5, respectively, and the squares correspond to pixels. In the boundary line extraction process, the image of the classification result shown in FIG. 3 and the image of the area number shown in FIG. 5 are sequentially scanned between four adjacent pixels from the upper left. For example, at point 81 in FIG.
Looking at the pixels, from the top left, the areas are 52, 53, 53.53
belongs to. Therefore, point 81 is between area 52 and area 53.
is determined to be a component of the boundary a65 of n■.

さらに第8図からは隣接4画素が左上から日陰斜面33
、日向斜面32,32.32と分類されており、これら
4画素の属性値の配置と照明光の照対方向34とから点
81は凸の境界線(尾根)の部分であると決定する。
Furthermore, from Figure 8, the four adjacent pixels are shaded slope 33 from the upper left.
, sunny slope 32, 32.32, and from the arrangement of the attribute values of these four pixels and the direction of illumination light 34, it is determined that the point 81 is part of a convex boundary line (ridge).

この処理をくり返すことにより第7図に示した様な、2
領域の間の境界線71〜78を抽出し、さらに尾根79
又は谷710に分類する。なお、第5図の領域55と5
6の間の境界線は閉じており元は1つであるが、第8図
に示した尾根・谷への分類により第7図の77と78の
2本の境界線に再分割できる。
By repeating this process, two
Extract boundaries 71 to 78 between regions, and further extract ridges 79
Or classified into valley 710. Note that areas 55 and 5 in FIG.
The boundary line between 6 and 6 is closed and is originally one, but it can be redivided into two boundary lines 77 and 78 in FIG. 7 by classification into ridges and valleys shown in FIG.

次に抽出・分類した領域・境界線及び境界線の端点(接
続点)について、さらに記述を作成する。
Next, further descriptions are created for the extracted and classified areas/boundaries and the end points (connection points) of the boundaries.

領域番二ついては属性値(31〜33のいずれか)・隣
接領域番号などであり、境界線については属性値(尾根
、谷のいずれか)・構成点列・方向・長さ・隣接する2
領域の番号・置端点で接続する境界線の番号などである
。また境界線の端点(接続点)についても座標・この点
で接続している境界線の番号を求めておく。これらの記
述の作成により領域・境界線自身およびそれらの間の関
係についての情報を容易に検索・利用することができる
The area number is the attribute value (any of 31 to 33), adjacent area number, etc., and the boundary line is the attribute value (either ridge or valley), constituent point sequence, direction, length, and adjacent 2
These include the number of the area and the number of the boundary line connected at the end point. Also, find the coordinates of the end point (connection point) of the boundary line and the number of the boundary line connected at this point. By creating these descriptions, information about the areas/boundaries themselves and the relationships between them can be easily searched and used.

作成した領域・境界線・接続点の記述をもとに物体表面
の定性的な標高を推定することが出来る。
Based on the created descriptions of areas, boundaries, and connection points, it is possible to estimate the qualitative elevation of the object's surface.

推定の処理手順のフローチャートを第10図に示す。第
5図、第7図を例にして説明してゆくと、まず第1番目
に平地の領域51を見つけ(ステップ102)、これに
接する境界線61〜64の高さとして0をセットする(
ステップ103)。次に領域51に隣接する領域52〜
55の各々について(ステップ106)領域に接する境
界線の中に高さ未定のものが含まれている場合には以下
の処理を行う。領域が斜面ならば接する境界線のうち尾
根の高さが既知のものがあれば、尾根の境界線はすべて
同じ高さにセットし、谷の境界線の高さは(尾根の高さ
m=定値例えば100)をセットする(ステップ109
)。谷の高さが既知のものがある場合にも同様の高さセ
ットを行う(ステップ1010)。また、領域が平地の
場合には接する境界線はすべて同じ高さにセットする(
ステップ1011)、、この処理をくり返すことにより
境界線の高さセットを行う。
A flowchart of the estimation processing procedure is shown in FIG. To explain using FIGS. 5 and 7 as examples, first, a flat area 51 is found (step 102), and the heights of border lines 61 to 64 touching this are set to 0 (
Step 103). Next, the area 52 adjacent to the area 51 -
For each of 55 (step 106), if a boundary line adjacent to the area includes one whose height is undetermined, the following processing is performed. If the area is a slope, if some of the contacting boundaries have known ridge heights, all ridge boundaries are set to the same height, and the height of valley boundaries is (ridge height m = Set a fixed value (for example, 100) (step 109
). Similar height setting is performed when there is a valley whose height is known (step 1010). Also, if the area is flat, all border lines that touch should be set to the same height (
Step 1011), the height of the boundary line is set by repeating this process.

なお、第5図の領域56の様に領@、55に内包される
場合には、上記の方式では境界線67゜68に高さを割
り当てられない。この場合、領域が平地でこれを内包す
る領域が斜面の時には平地領i に接する境界線の高さ
はすべてこれを内包する領域に接する境界線の高さの(
最大値+最小値)/2しこセットする。また同様tこ内
側の領域が斜面ならば、この斜面に接する尾根、谷の高
さをそれぞれ、これを内包する領域に接する境界線の高
さの(最大値−最小値)×−十最小値および(最大値−
最小値)×−十最小値 にセットすることにする。以上の処理により全境界線へ
の高さ割り当てを終える。
Note that when the area is included in the area @, 55 like the area 56 in FIG. 5, the height cannot be assigned to the boundary lines 67° and 68 using the above method. In this case, when the area is flat and the area containing it is a slope, the height of the boundary line touching the flat area i is equal to the height of the boundary line touching the area containing it ((
Maximum value + minimum value)/2 sets. Similarly, if the area inside t is a slope, the heights of the ridges and valleys that touch this slope are the (maximum value - minimum value) x - 10 minimum value of the height of the boundary line that is in contact with the area that includes them. and (maximum −
(minimum value)×−10 We will set it to the minimum value. The above processing completes height assignment to all boundary lines.

続いて、接続点への高さ割り当てを行い、境界線の構成
点への高さ割り当てを行う。まず平地の領域に接する接
続点の高さには平地の高さを採用する。そして、それ以
外の接続点に対しては例えば接続する境界線の高さの(
最大値+最小値)/2をセットする。これらの接続点の
高さをもとに境界線の高さを修正し境界線構成点への高
さ割り当てを行う。例として境界線の高さが100、両
端の接続点の高さがそれぞれ0.100の場合、境界線
の構成点の数をnとした時、各々の点の高n−1n−1
n−1 100を採用する。また、境界線の高さが100゜両端
の接続点の高さがそれぞれ0.Oの場合についても同様
にして各々の点の高さとして、0゜n−1n−1n−1 採用することにする。以上が境界線の構成点への高さ割
り当て処理である。本処理により境界線上の各点で高さ
が滑らかに変化し、かつ接続点で他の境界線と滑らかに
接続するようになる。
Next, heights are assigned to the connection points, and heights are assigned to the constituent points of the boundary line. First, the height of the flat ground is adopted as the height of the connection point that touches the flat area. For other connection points, for example, the height of the connecting boundary line (
Set maximum value + minimum value)/2. The height of the boundary line is corrected based on the heights of these connection points, and the heights are assigned to the boundary line constituent points. For example, if the height of the boundary line is 100 and the height of the connecting points at both ends is 0.100, then when the number of points forming the boundary line is n, the height of each point is n-1n-1
Adopt n-1 100. Also, the height of the boundary line is 100°, and the height of the connection points at both ends is 0. In the case of O, 0°n-1n-1n-1 is similarly adopted as the height of each point. The above is the process of allocating heights to the constituent points of the boundary line. Through this process, the height changes smoothly at each point on the boundary line, and the boundary line smoothly connects to other boundary lines at the connection point.

続いて境界線上以外の領域中の点の高さを推定する。領
域中の点の定性的な高さは境界線上のみ高さを持ち、他
の部分では高さ0あるいは5oにセットした高さ画像を
初期値としてくり返し平均化を行うことにより算出する
。すなわち高さ画像の境界線上以外の全点について上下
左右の画素値(高さ)の平均値でこの点の値を置き換え
ることを高さ画像が収束するまでくり返す。
Next, the height of points in the area other than on the boundary line is estimated. The qualitative height of a point in a region has a height only on the boundary line, and other parts are calculated by repeatedly averaging the height using a height image set to 0 or 5o as an initial value. That is, for all points other than those on the boundary line of the height image, replacing the value of this point with the average value of the upper, lower, left, and right pixel values (heights) is repeated until the height image converges.

ここまで述べてきた手順により、1枚の画像からの定性
的な物体表面の起伏の推定が終了する。
By the procedure described so far, qualitative estimation of the undulations of the object surface from one image is completed.

第1図に本発明の実施例として、1画像からの定性的地
形起伏推定システムの全体構成を示す。
FIG. 1 shows the overall configuration of a qualitative terrain relief estimation system from one image as an embodiment of the present invention.

まず、画像ファイル11から対象画像は画像メモリ12
に格納されるにの画像は画像分類装置13により平地、
FJ向斜面、日陰斜面の3種に分類され画像メモリ14
にその結果が格納される。
First, the target image is stored in the image memory 12 from the image file 11.
The images stored in are classified into flat areas,
The image memory 14 is classified into three types: FJ facing slope and shaded slope.
The results are stored in .

画像分類装置13では対象画像の補間処理を行うことに
より対象画像のサンプル数以上のサンプル数の画像デー
タを生成し、補間画素の値の誤差を考慮した存在範囲と
ヒストグラムの各画素値区間をとの重複度に対応した重
みで当該画素値区間を計数することによりヒストグラム
を算出する。そしてこのヒストグラムを利用して画像を
分類するための2つのしきい値を算出し、3種の領域に
元の対象画像を分類する。第11図にはこの画像分類装
置13の内部構成を示す。第11図において画像補間処
理部131で得られた補間画像のヒストグラムをヒスト
グラム算出処理部132で算出し、このヒストグラムか
らしきい値算出処理部1333で量子化用しきい値を算
出し、3値化処理部134で画像メモリ】2中の画像を
このしきい値で3種に分類し、画像メモリ14に格納さ
れる。
The image classification device 13 performs interpolation processing on the target image to generate image data with a number of samples greater than or equal to the number of samples in the target image, and calculates the existence range and each pixel value interval of the histogram by taking into account errors in interpolated pixel values. A histogram is calculated by counting the pixel value sections with a weight corresponding to the degree of overlap. Then, two thresholds for classifying the image are calculated using this histogram, and the original target image is classified into three types of regions. FIG. 11 shows the internal configuration of this image classification device 13. In FIG. 11, the histogram of the interpolated image obtained by the image interpolation processing section 131 is calculated by the histogram calculation processing section 132, and from this histogram, the threshold value for quantization is calculated by the threshold calculation processing section 1333. The image processing section 134 classifies the images in the image memory 14 into three types using this threshold and stores them in the image memory 14.

次に、画像メモリ14に格納された分類結果画像は領域
抽出装置15に入力され、領域分割され閉じた領域とし
て抽出され第5図の様な領域番号画像が画像メモリ16
に格納される。
Next, the classification result image stored in the image memory 14 is input to the area extracting device 15, which extracts the area as a closed area after dividing the area, and the area number image as shown in FIG.
is stored in

次に領域番号画像と画像撮影時の太陽光(照明光)の照
射方向データ17とを入力し、境界線分類抽出装置18
は境界線を谷・尾根のいずれかに分類し抽出する。その
結果である境界線画像は画像メモリ19に格納さ九る。
Next, the area number image and the sunlight (illumination light) irradiation direction data 17 at the time of image capture are input, and the boundary line classification and extraction device 18
classifies the boundary line as either a valley or a ridge and extracts it. The resulting boundary line image is stored in the image memory 19.

そして、領域・境界線・接続点記述作成装置110は分
類結果画像、領域番号画像、境界線画像を入力し、領域
・境界線・接続点についての記述を作成する。得られる
記述はメモリ111に格納される。メモリ内での記述の
表現としては一例として第12図に示す様なテーブルの
集まりでの表現が考えられる。121,122,123
はそれぞれ領域・境界線・接続点の記述を表すテーブル
であり、例えばテーブル122は境界線の番号(76)
と構成点の番号、長さ、方向、隣接領域番号(領域54
と領域55)、端点での接続境界線番号(一方は境界線
73と74、他方は無し)、属性値(尾根)、高さく未
定)とから成っている。
Then, the region/boundary line/connection point description creation device 110 inputs the classification result image, the region number image, and the boundary line image, and creates a description of the region/boundary line/connection point. The resulting description is stored in memory 111. As an example of the expression of the description in the memory, expression as a collection of tables as shown in FIG. 12 can be considered. 121, 122, 123
are tables representing descriptions of areas, boundaries, and connection points, respectively; for example, table 122 shows the boundary line number (76).
and component point number, length, direction, adjacent area number (area 54
and area 55), connection boundary line numbers at end points (one boundary line 73 and 74, the other none), attribute value (ridge), height undetermined).

続いて定性的な撮影地域の標高を求めるため、上記の領
域・境界線・接続点の記述はメモリ111から定性的標
高算出装置]12に読み込まれ、ここで定性的標高が算
出され、対象画像の各画素での定性的標高を表現する高
さ画像はメモリ1.13へ、境界線や接続点の高さはメ
モリ111内のテーブルの該当する欄に書き込まれる。
Next, in order to qualitatively determine the altitude of the photographed area, the descriptions of the areas, boundaries, and connection points described above are read from the memory 111 into the qualitative altitude calculation device 12, where the qualitative altitude is calculated, and the target image is A height image representing the qualitative altitude at each pixel is written to the memory 1.13, and heights of boundary lines and connection points are written to the corresponding columns of the table in the memory 111.

なお、各装置の動作の制御は制御装置114によってな
される。
Note that the operation of each device is controlled by a control device 114.

またディスプレイ装置115では、コンソール1]−6
を操作することにより、入力対象画像・分類結果画像・
境界線画像・定性的高さ画像等の各種の入力・中間結果
・最終結果の画像をモニタテレビ117に表示する。ま
た、ディスプレイ装置115は定性的高さ画像から、視
点等のパラメータを与えることにより第13図(a)の
様な立体表示を行う、あるいは同図(b)の様な任意の
線上の断面図を求めて表示することも行う。
Furthermore, in the display device 115, the console 1]-6
By operating the input target image, classification result image,
Images of various inputs, intermediate results, and final results, such as boundary line images and qualitative height images, are displayed on the monitor television 117. Furthermore, the display device 115 provides a stereoscopic display as shown in FIG. 13(a) from the qualitative height image by giving parameters such as a viewpoint, or a cross-sectional view on an arbitrary line as shown in FIG. 13(b). It also calculates and displays.

さらにディスプレイ装置115は、各種画像のみならず
メモリ111中の領域・境界線・接続点の記述を参照す
ることも可能であり、これらの記述を利用して例えば第
14図のような谷筋を示す画像を算出し表示する。第2
図の画像を例にして算出の手順を説明する。まずメモリ
111中の第12図のようなテーブル形式で表現された
境界線の記述を示すテーブル122を参照し、その属性
が谷である境界線を見つける。第7図の例では境界線7
1,72,73,74.77がこれに相当する。次に見
つかった境界線につき2個の隣接領域をテーブル122
から求め、今度は領域の記述を表すテーブル121中の
属性の欄を参照して2個の隣接領域とも斜面であるもの
を抽出することにより谷筋(凹というだけでなくv型の
谷の意味である)の境界線を抽出する。(第7図の例で
は境界線77のみ)。結果を画像化するために谷筋と判
定された境界線の構成点をプロットする。
Furthermore, the display device 115 can refer not only to various images but also to descriptions of areas, boundaries, and connection points in the memory 111, and by using these descriptions, for example, a valley line as shown in FIG. Calculate and display the image shown. Second
The calculation procedure will be explained using the image in the figure as an example. First, by referring to a table 122 in the memory 111 that describes boundary lines expressed in a table format as shown in FIG. 12, a boundary line whose attribute is valley is found. In the example in Figure 7, the boundary line 7
1, 72, 73, 74.77 correspond to this. Next, the two adjacent regions for each found boundary are stored in the table 122.
This time, by referring to the attribute column in the table 121 that describes the region, and extracting the two adjacent regions that are both slopes, the valley line (meaning not only a concave but also a v-shaped valley) is obtained. ). (In the example of FIG. 7, only the boundary line 77). In order to visualize the results, the constituent points of the boundary lines determined to be valley lines are plotted.

以上のように本実施例によれば、1画像から定性的地形
を推定し、その結果をさまざまの形式で利用することが
できる。
As described above, according to this embodiment, qualitative topography can be estimated from one image, and the results can be used in various formats.

なお1本実施例での地形の起伏だけでなく1本発明によ
れば平行照明光下で物体表面を撮影した1枚の画像から
定性的な物体表面の起伏を推定することができることは
言うまでもない。
It goes without saying that in addition to the undulations of the topography in this embodiment, according to the present invention, it is also possible to qualitatively estimate the undulations of the object surface from a single image taken of the object surface under parallel illumination light. .

〔発明の効果〕〔Effect of the invention〕

以上説明したように本発明によれば、物体表面を撮影し
た1枚の画像から定性的ではあるが物体表面の起伏を推
定することができる。前処理として対象画像の各画素を
数種類の属性に分類する際に対角画像を補間して生成し
た画像から精度の高いヒストグラムを算出することがで
きるので精度よく対象画像を分類できる。
As described above, according to the present invention, it is possible to qualitatively estimate the undulations of the object surface from a single image taken of the object surface. As preprocessing, when classifying each pixel of a target image into several types of attributes, a highly accurate histogram can be calculated from an image generated by interpolating diagonal images, so the target image can be classified with high accuracy.

境界線上での物体表面の凹凸から物体表面の定性的起伏
を求める際に、領域・境界線の属性及び接続関係から境
界線自体と接続点に0,100゜67.200等の多様
な値を高さとして割り当てることが出来、さらにこれら
の高さから境界線上の各画素の高さを滑らかに割り当て
ることにより、滑らかでより自然な定性的起伏を推定す
ることができる。
When determining the qualitative undulations of the object surface from the unevenness of the object surface on the boundary line, various values such as 0,100°67.200 are assigned to the boundary line itself and the connection points based on the attributes and connection relationships of the area and boundary line. By smoothly assigning the height of each pixel on the boundary line from these heights, smoother and more natural qualitative undulations can be estimated.

また、推定結果として対象画像の各画素における定性的
高さを表す高さ画像の他に、領域・境界線・接続点につ
いての記述が得られるので谷筋(2つの斜面が凹に接す
る境界、5lit)の表示をはじめさまざまな形式に結
果を出力し利用することができるという効果がある。
In addition, as an estimation result, in addition to a height image representing the qualitative height of each pixel of the target image, descriptions of regions, boundaries, and connection points can be obtained. It has the advantage that results can be output and used in various formats, including display in 5lit).

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の実施例の全体構成図、第2図は入力対
象画像を示す図、第3図は分類結果画像を示す図、第4
図は対象画像とその補間画像の各サンプルの空間的配置
例を示す図、第5図は領域抽出結果を示す図、第6図は
第3図のA−A’断面図、第7図は境界線分類・抽出結
果を示す第8図、第9図はそれぞれ第3図、第5図の右
部の拡大図、第10図は境界線への高さ割り光処理の概
略フローチャート、第11図は実施例の画像分類装置の
内部構成図、第12図は記述−プル表現の一例を示す図
、第13図、第14′は起伏推定結果の表示例を示す図
である。
FIG. 1 is an overall configuration diagram of an embodiment of the present invention, FIG. 2 is a diagram showing an input target image, FIG. 3 is a diagram showing a classification result image, and FIG. 4 is a diagram showing a classification result image.
The figure shows an example of the spatial arrangement of each sample of the target image and its interpolated image, Figure 5 shows the region extraction results, Figure 6 is a cross-sectional view taken along line AA' in Figure 3, and Figure 7 Figures 8 and 9 showing the boundary line classification and extraction results are enlarged views of the right side of Figures 3 and 5, respectively, Figure 10 is a schematic flowchart of the height division light processing for the boundary line, and Figure 11 12 is a diagram showing an example of the description-pull expression, and FIGS. 13 and 14' are diagrams showing examples of displaying the relief estimation results.

Claims (3)

【特許請求の範囲】[Claims] 1. 物体表面を撮影した濃淡デイジタル画像からの定
性的物体表面起伏推定方式において、1画像の各画素を
数種類の属性に分類し、分類結果から抽出される領域お
よび領域間の境界線についてさらに属性を付け、これら
の属性と画像撮影時の平行照明光の方向との関係を利用
することにより、領域の傾き・境界線上での物体表面の
凹凸を推定し、物体表面の定性的起伏を求めることを特
徴とする1画像からの定性的物体表面起伏推定方式。
1. In a qualitative object surface relief estimation method from a gray-scale digital image taken of an object surface, each pixel in one image is classified into several types of attributes, and further attributes are added to the regions and boundaries between regions extracted from the classification results. By using the relationship between these attributes and the direction of parallel illumination light during image capture, the inclination of the area and the unevenness of the object surface on the boundary line are estimated, and the qualitative undulations of the object surface are obtained. A method for estimating qualitative object surface relief from a single image.
2. 上記1画像の各画素を数種類の属性に分類する際
に画像を補間し元の画像のサンプル数以上のサンプル数
の画素データを生成し、補間画素の値の誤差を考慮した
存在範囲とヒストグラムの各画素値正間との重複度に対
応した重みで当該信号値区間を計数することにより算出
されるヒストグラムを利用することを特徴とする第1項
の1画像からの定性的物体表面起伏推定方式。
2. When classifying each pixel in the above image into several types of attributes, the image is interpolated to generate pixel data with a number of samples greater than the number of samples in the original image, and the existence range and histogram are Qualitative object surface relief estimation method from one image as described in item 1, which uses a histogram calculated by counting the signal value interval with a weight corresponding to the degree of overlap with each pixel value square interval. .
3. 上記境界線上での物体表面の凹凸から物体表面の
定性的起伏を求める際に、まず領域・境界線の属性及び
接続関係から境界線自体と境界線の接続点に高さを割り
当て、次にこれらの境界線自体と接続点の高さから境界
線上の各画素の高さが滑らかに変化し、かつ接続点で他
の境界線と滑らかに接続する様に境界線上の各画素に高
さを割りあてることを特徴とする第1項の1画像からの
定性的物体表面起伏推定方式。
3. When determining the qualitative undulations of an object's surface from the unevenness of the object's surface on the boundary line, first assign heights to the boundary line itself and the connection points of the boundary line from the attributes and connection relationships of the area/boundary line, and then The height of each pixel on the border line changes smoothly from the height of the border itself and the connection point, and the height is divided into each pixel on the border line so that it smoothly connects to other border lines at the connection point. The first term is a qualitative object surface relief estimation method from one image.
JP60206443A 1985-09-20 1985-09-20 Estimation system for surface projection of qualitative body from one image Pending JPS6267681A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60206443A JPS6267681A (en) 1985-09-20 1985-09-20 Estimation system for surface projection of qualitative body from one image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60206443A JPS6267681A (en) 1985-09-20 1985-09-20 Estimation system for surface projection of qualitative body from one image

Publications (1)

Publication Number Publication Date
JPS6267681A true JPS6267681A (en) 1987-03-27

Family

ID=16523457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60206443A Pending JPS6267681A (en) 1985-09-20 1985-09-20 Estimation system for surface projection of qualitative body from one image

Country Status (1)

Country Link
JP (1) JPS6267681A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015076023A (en) * 2013-10-11 2015-04-20 カシオ計算機株式会社 Image processor, stereoscopic data generation method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015076023A (en) * 2013-10-11 2015-04-20 カシオ計算機株式会社 Image processor, stereoscopic data generation method, and program
CN104574487A (en) * 2013-10-11 2015-04-29 卡西欧计算机株式会社 Data processing device and a data processing method
US9367767B2 (en) 2013-10-11 2016-06-14 Casio Computer Co., Ltd Data processor and computer-readable non-volatile recording medium for storing program for data processing
CN104574487B (en) * 2013-10-11 2017-09-01 卡西欧计算机株式会社 Data processing equipment and data processing method

Similar Documents

Publication Publication Date Title
CN110163198B (en) Table identification reconstruction method and device and storage medium
US6263113B1 (en) Method for detecting a face in a digital image
Crowley A representation for visual information
US6728400B1 (en) Apparatus, method, and storage medium for setting an extraction area in an image
US5751852A (en) Image structure map data structure for spatially indexing an imgage
Gong et al. Advanced image and video processing using MATLAB
CN104598871B (en) A kind of facial age computational methods based on correlation regression
CN102317973A (en) Fusion of a 2d electro-optical image and 3d point cloud data for scene interpretation and registration performance assessment
CN103440348A (en) Vector-quantization-based overall and local color image searching method
JPS60217470A (en) System for estimating shape of cube from image pickup object picture
JP3490482B2 (en) Edge and contour extraction device
CN112215861A (en) Football detection method and device, computer readable storage medium and robot
Gray Content-based image retrieval: color and edges
CN113160392B (en) Optical building target three-dimensional reconstruction method based on deep neural network
Laws The Phoenix image segmentation system: Description and evaluation
Lee et al. Automated vectorization of cartographic maps by a knowledge-based system
Arefi From LiDAR point clouds to 3D building models
Rosenfeld Quadtrees and pyramids: Hierarchical representation of images
JPS6267681A (en) Estimation system for surface projection of qualitative body from one image
CN112686828B (en) Video denoising method, device, equipment and storage medium
Scarlatos Spatial data representations for rapid visualization and analysis
Mulder Digital image processing, computer-aided classification and mapping
CN112541535B (en) Three-dimensional point cloud classification method based on complementary multi-branch deep learning
JPH08167028A (en) Image processing method
JP7386006B2 (en) Region division device, region division method, region division program, learning device, learning method, and learning program