JPH0229879A - Image processing method - Google Patents
Image processing methodInfo
- Publication number
- JPH0229879A JPH0229879A JP63180622A JP18062288A JPH0229879A JP H0229879 A JPH0229879 A JP H0229879A JP 63180622 A JP63180622 A JP 63180622A JP 18062288 A JP18062288 A JP 18062288A JP H0229879 A JPH0229879 A JP H0229879A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- data
- area
- image
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 4
- 239000000470 constituent Substances 0.000 description 15
- 230000000875 corresponding effect Effects 0.000 description 14
- 238000000034 method Methods 0.000 description 14
- 241000219112 Cucumis Species 0.000 description 9
- 235000015510 Cucumis melo subsp melo Nutrition 0.000 description 9
- FJJCIZWZNKZHII-UHFFFAOYSA-N [4,6-bis(cyanoamino)-1,3,5-triazin-2-yl]cyanamide Chemical compound N#CNC1=NC(NC#N)=NC(NC#N)=N1 FJJCIZWZNKZHII-UHFFFAOYSA-N 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 9
- 238000003709 image segmentation Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 5
- 230000002596 correlated effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000035935 pregnancy Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】
〔発明の目的〕
(産業上の利用分野)
本発明は、各種の性質を有する領域が混在する画像の画
像分割に関する。DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial Application Field) The present invention relates to image segmentation of an image in which regions having various properties coexist.
(従来の技術)
一般的な画像には各種の性質を有する領域が混在してい
る。テクスチャはそれらの中から各領域をか何であるか
を視覚により判断する上で重要な役割りを果している6
例えば、メロンを含む画像においては、メロンのテクス
チャ(模様)が、メロンの領域を他から分離していると
≧もに、遠くのテクスチャは細かく、近くのテクスチャ
は粗く見えることから、その遠近感、すなわち立体形状
を表現している。つまり、画像処理を行なう上でも、テ
クスチャの領域を合理的に分割できれば、その領域が示
す対象に関する各種の処理1例えば距離検出による立体
表示や認識処理等に便利である。(Prior Art) A typical image includes regions having various properties. Texture plays an important role in visually determining the identity of each area6.
For example, in an image containing a melon, the texture (pattern) of the melon separates the area of the melon from other areas, and the distant texture looks fine and the nearby texture looks coarse, so the perspective , that is, it expresses a three-dimensional shape. In other words, when performing image processing, if a texture region can be divided rationally, it is convenient for various types of processing related to the object indicated by the region, such as stereoscopic display using distance detection and recognition processing.
一般には、テクスチャ領域では、いくつかの基本的な構
成要素がある種の規則のもとに配列されていることに基
づいて構成要素を抽出し、その配列規則を解析する試み
がなされている。Generally, in the texture area, attempts are made to extract the constituent elements based on the fact that some basic constituent elements are arranged under certain rules and to analyze the arrangement rules.
(発明が解決しようとする課題)
ところで、これに従えば、メロンであればその網目を構
成する線素の1つ1つについて特徴量を検出し、それを
統計的に処理することになる。この処理量は非常に多く
、処理データも厖大となるため、メモリ容量の小さいマ
イクロコンピュータ程度では国璽が予想される。(Problem to be Solved by the Invention) By the way, if this is followed, in the case of a melon, the feature amount will be detected for each line element that makes up the mesh, and it will be statistically processed. The amount of processing is extremely large and the amount of data to be processed is enormous, so it is expected that a microcomputer with a small memory capacity will be able to handle the Great Seal.
本発明は、簡単な処理により、各種の性質を有する領域
が混在している画像からテクスチャ領域を適切に分割す
る画像処理方法を提供することを目的とする。SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing method that appropriately divides texture regions from an image containing regions having various properties through simple processing.
(課題を解決するための手段)
上記目的を達成するため、本発明においては、原画像を
構成する微小区分の画素の各画像データを2値化して2
値化データを生成し、該2値化データの空間的な密度の
高い領域を分割し、2値化データがその空間的な連続性
から分割する領域と、2値化データの空間的な密度の高
い領域との重りに基づいて、テクスチャ領域を分割する
。(Means for Solving the Problems) In order to achieve the above object, the present invention binarizes each image data of pixels of minute sections constituting the original image.
Generate digitized data, divide a region with high spatial density of the binarized data, and divide the binarized data into regions based on its spatial continuity and the spatial density of the binarized data. Divide the texture region based on its weight with the high region.
ものとする。shall be taken as a thing.
(作用)
これによれば、テクスチャ領域には、ある種の構成要素
が比較的高密度で存在しているので、その密度に注目し
た本発明は、これを容易に分割し得る。この際、該密度
のみならず、2値化データの空間的な連続性により分割
される領域との重なりに基づいているので、領域の境界
が明確になり。(Operation) According to this, since a certain type of component exists in a texture region at a relatively high density, the present invention, which focuses on the density, can easily divide this. At this time, the boundary of the area becomes clear because it is based not only on the density but also on the overlap with the divided area based on the spatial continuity of the binarized data.
適切な分割が行なわれる。Appropriate division is done.
なお、本発明の好ましい実施例においては、2値化デー
タを、画像データの空間的変化を示す変化データを2値
化することにより求めている。これにより、単純に2値
化した場合より、テクスチャの構成要素を明確に検出し
、かつ、その連続性を確保し得る。In a preferred embodiment of the present invention, the binarized data is obtained by binarizing change data indicating spatial changes in image data. Thereby, the constituent elements of the texture can be detected more clearly than in the case of simple binarization, and their continuity can be ensured.
本発明の他の目的および特徴は、以下の図面を参照した
実施例説明より明らかになろう。Other objects and features of the present invention will become apparent from the following description of embodiments with reference to the drawings.
(実施例)
第1a図に、本発明を一例で実施する1画像処理装置の
構成を示す。(Embodiment) FIG. 1a shows the configuration of an image processing device implementing the present invention by way of example.
この装置は、コンピュータ1.ITVカメラユニット2
ならびに39画像メモリ4.デイスプレィ5.プリンタ
6、フロッピーディスク7、およびキーボードターミナ
ル8等でなる。・・ITVカメラユニット2および3は
、それぞれ、前方のシーンを撮像して512X512画
素区分でアナログデータを出力する同諸元のITVカメ
ラ21゜31、および、ITVカメラ21または31の
出力アナログデータをデジタル変換して256階調の原
画像データを生成するA/Dコンバータ22゜32でな
る。This device consists of a computer 1. ITV camera unit 2
and 39 image memory 4. Display 5. It consists of a printer 6, a floppy disk 7, a keyboard terminal 8, etc. ...ITV camera units 2 and 3 each have an ITV camera 21° 31 with the same specifications that images a scene in front and outputs analog data in 512 x 512 pixel divisions, and output analog data from the ITV camera 21 or 31. It consists of an A/D converter 22.32 which performs digital conversion to generate 256-gradation original image data.
ITVカメラ21と31とは、第1b図に示すように−
(ただし、これはITVカメラ21および31による撮
像のモデルを°示し、各カメラの構造を示すものではな
い)、IT’Vカメラ21を左にITVカメラ31を右
にして水平に並べられており、それぞれの光軸211お
よび311は平行であ□す、かつ、それぞれの撮像面2
12および312は同一面にある。したがって、各撮像
面の上辺をそれぞれXL軸、X代軸、左辺をそれぞれ・
YL軸sYR軸とするとき、XL軸とX、軸は同一直線
上に漬り、YL軸とYR軸とは平行になる。なお、以下
においては、ITVカメラ21が撮像した画像を左画像
と、ITVカメラ31が撮像した画像を右画像と呼ぶも
のとする。The ITV cameras 21 and 31 are shown in FIG.
(However, this shows a model of imaging by ITV cameras 21 and 31, and does not show the structure of each camera.) They are arranged horizontally with IT'V camera 21 on the left and ITV camera 31 on the right. , the respective optical axes 211 and 311 are parallel, and the respective imaging planes 2
12 and 312 are on the same plane. Therefore, the upper side of each imaging plane is the XL axis, the X axis is the left side, and the left side is
When the YL axis and the YR axis are used, the XL axis and the X axis are on the same straight line, and the YL axis and the YR axis are parallel to each other. In the following, the image captured by the ITV camera 21 will be referred to as a left image, and the image captured by the ITV camera 31 will be referred to as a right image.
画像メモリ4は読み書き自在であり、左画像や右画像の
原画像データを始めとして種々の処理データを記憶する
。The image memory 4 is readable and writable, and stores various processed data including original image data of the left image and right image.
デイスプレィユニット5およびプリンタ6はコンピュー
タ1の処理結果等を出力し、フロッピーディスク7はそ
の処理結果等を登録しておく、また、キーボードターミ
ナル8はオペレータにより操作されて、各種の指示が入
力される。The display unit 5 and printer 6 output the processing results of the computer 1, the floppy disk 7 registers the processing results, etc., and the keyboard terminal 8 is operated by the operator to input various instructions. Ru.
コンピュータ1には、さらにホストコンピュータが接続
さ、れており、そこから与えられた指示、またはキーボ
ードターミナル8より与えられた指示に従って各部を制
御し、対応する処理を行なう。A host computer is further connected to the computer 1, and controls each section according to instructions given from the host computer or instructions given from the keyboard terminal 8, and performs corresponding processing.
以下、その処理のうち、前方のシーンの3次元グラフィ
ック表示を行なうための、″立体処理”について説明す
る。Among these processes, "stereoscopic processing" for displaying three-dimensional graphics of the scene in front will be described below.
第2図は、キーボードターミナル8より与えられた立体
処理実行指示により起動される立体処理ルーチンの概略
を示すゼネラルフローであり、第3a図〜第3h図はそ
の中の重要ステップを詳細に示すサブフローである。FIG. 2 is a general flow showing an outline of a stereoscopic processing routine that is activated by a stereoscopic processing execution instruction given from the keyboard terminal 8, and FIGS. 3a to 3h are subflows showing important steps therein in detail. It is.
コンピュータ1は、立体処理の開始に当って。Computer 1 starts stereoscopic processing.
Sl(フローチャートのステップに付した番号を示す:
以下同義)において画像メモリ4およびこの処理で用い
るレジスタを初期化し、S2においてITVカメラユニ
ット2および3を介して左画像および右画像の原画像デ
ータを画像メモリ4内に書き込むにの後、S3において
、各画像の画像分割を行なう。Sl (indicates the number assigned to the step in the flowchart:
After initializing the image memory 4 and the registers used in this process in S2 (hereinafter the same meaning) and writing the original image data of the left image and right image into the image memory 4 via the ITV camera units 2 and 3, in S3 , performs image segmentation of each image.
この画像分割について第3a図を参照して説明する。This image division will be explained with reference to FIG. 3a.
5101においては、左画像に対して順方向ラスタスキ
ャンを設定する。順方向ラスタスキャンは、第1b図に
示す撮像領域212 (312)内を、XL(XR)軸
を主走査軸とし、YL(YR)軸を副走査軸として左上
端画素から右下画素に至る経路で各画素に注目する走査
をいい、ここでは、その走査開始位置を初期化する。な
お、因みに後述する逆方向ラスタスキャンは、この逆に
、右下端画素から左上画素に至る経路で各画素に注目す
る走査をいう。In 5101, forward raster scan is set for the left image. Forward raster scanning is performed within the imaging area 212 (312) shown in Figure 1b, with the XL (XR) axis as the main scanning axis and the YL (YR) axis as the sub-scanning axis, from the upper left pixel to the lower right pixel. This is a scan that focuses on each pixel along the path, and here the scan start position is initialized. Incidentally, the reverse raster scan, which will be described later, refers to a scan in which each pixel is focused on a path from the lower right pixel to the upper left pixel.
8102〜5105では、順方向ラスタスキャンを行な
いなから微分データおよび傾きデータを生成し、微分デ
ータのヒストグラムを作成する。In steps 8102 to 5105, differential data and slope data are generated without performing forward raster scanning, and a histogram of the differential data is created.
微分データは、注目画素およびその8近傍画素の原画像
データを第4図に示すように呼称するとき、
(PI +P2 十P8 )−(P4 +Ps +P6
)で与えられる主走査方向微分データと、(P2+P
3+P4) (P6+P7+P8)で与えられる副走
査方向微分データとの和であり、原画像データの空間的
な変化量を示す。また、傾きデータは、上記の主走査方
向微分データと副走査方向微分データとの比、すなわち
、
副走査方向微分データ/主走査方向微分データを8分類
したものであり、原画像データが空間的に変化して行く
方向を示す。コンピュータ1は、これらのデータを各画
素に対応付けして画像メモリ4に書き込む。The differential data is (PI +P2 +P8) - (P4 +Ps +P6) when the original image data of the pixel of interest and its 8 neighboring pixels are called as shown in Figure 4.
) and the main scanning direction differential data given by (P2+P
3+P4) This is the sum of the sub-scanning direction differential data given by (P6+P7+P8), and indicates the amount of spatial change in the original image data. In addition, the tilt data is the ratio of the above-mentioned main scanning direction differential data and sub-scanning direction differential data, that is, sub-scanning direction differential data/main scanning direction differential data is divided into 8 categories, and the original image data is spatially It shows the direction of change. The computer 1 writes these data into the image memory 4 in association with each pixel.
ヒストグラムは微分データの大きさと出現頻度を求めた
ものであり、コンピュータ1は順方向ラスタスキャンを
終了すると、5106においてこのヒストグラムより閾
値を設定して微分データを2値化し、2値化データを各
画素に対応付けして記憶する。The histogram determines the size and appearance frequency of the differential data. When the computer 1 completes the forward raster scan, the computer 1 sets a threshold value from this histogram in step 5106 to binarize the differential data, and converts the binarized data into individual data. It is stored in association with the pixel.
このようにして2値化した結果、原画像データが空間的
に急激に変化する部位、すなわち″エツジ″が検出され
る。このエツジが、前方シーンに存在する物の輪郭やテ
クスチャを示しているときにはそれが連続となることが
好ましいが、撮像条件等により、必ずしも連続とはなら
ない。そこで。As a result of binarization in this manner, areas where the original image data changes rapidly spatially, ie, "edges" are detected. When these edges indicate the outline or texture of an object existing in the front scene, it is preferable that the edges be continuous, but depending on imaging conditions and the like, they are not necessarily continuous. Therefore.
5107において再び順方向ラスタスキャンを設定する
と、8108以下において不連続なエツジを接続する処
理を行なう。When the forward raster scan is set again in step 5107, processing for connecting discontinuous edges is performed in steps 8108 and below.
8108において、未だ接続処理を行なっていないエツ
ジの端点画素(エツジの切れ目画素)を検出すると順方
向ラスタスキャンを中断して、その画素を注目画素とし
、5109においてその8近傍画素から、注目画素の傾
きデータが示す方向にある画素を延長候補画素に選定し
、5110においてその判定を行なう。ここでは、延長
候補画素、および、それに注目画素の傾きデータと直交
する方向に連結する両側2画素の微分データを比較し、
延長候補画素対応微分データが最大であれば尾根と判定
する。In step 8108, when an end point pixel of an edge (edge break pixel) that has not yet been subjected to connection processing is detected, the forward raster scan is interrupted and that pixel is set as the pixel of interest, and in step 5109, the pixel of interest is A pixel in the direction indicated by the tilt data is selected as an extension candidate pixel, and the determination is made in 5110. Here, the extension candidate pixel and the differential data of two pixels on both sides connected to it in a direction orthogonal to the tilt data of the pixel of interest are compared,
If the differential data corresponding to the extension candidate pixel is maximum, it is determined to be a ridge.
尾根と判定した場合には5111においてその延長候補
画素にエツジを延長する。このとき、延長した画素が再
び端点画素となる場合には5112から5109に戻り
それに注目して上記を繰り返すが、そうでないときには
エツジが接続されたことになるので、5115に進み順
方向ラスタスキャンを再開する。また、尾根でないと判
定した場合には5113において上記の延長候補画素の
両側2画素のうちの山側の画素に延長候補画素を更新す
る。If it is determined that the edge is a ridge, the edge is extended to that extension candidate pixel in step 5111. At this time, if the extended pixel becomes an endpoint pixel again, return to 5112 to 5109 and repeat the above, noting it, but if not, the edge is connected, so proceed to 5115 and perform forward raster scan. resume. If it is determined that the pixel is not a ridge, the extension candidate pixel is updated in step 5113 to the pixel on the mountain side of the two pixels on both sides of the extension candidate pixel.
このとき、更新した延長候補画素が注目画素の8近傍に
あれば5110に戻り上記の判定を行なうが、それを外
れた場合にはエツジは切れているものとして5115に
進み順方向ラスタスキャンを再開する。At this time, if the updated extension candidate pixel is in the 8th neighborhood of the pixel of interest, the process returns to 5110 and performs the above determination; however, if it is outside the range, the edge is assumed to be cut and the process proceeds to 5115 to restart forward raster scanning. do.
左画像について以上の画像分割を終了すると、全く同じ
手順で右画像の画像分割を実行する。After completing the above image segmentation for the left image, image segmentation for the right image is performed using exactly the same procedure.
第5a図および第5b図は、ある左画像および右画像に
対してそれぞれ画像分割を行なった結果を示す、これよ
り、ポット、メロン、カップならびにソーサの輪郭およ
びメロンのテクスチャが線画で明確に表わされているこ
とがわかる。Figures 5a and 5b show the results of image segmentation for a left image and a right image, respectively. From this, the contours of the pot, melon, cup, and saucer and the texture of the melon are clearly expressed in line drawings. I can see that I am being ignored.
コンピュータ1は、画像分割を終了すると84において
各画像の高エツジ密度領域の抽出を行なう、これについ
て第3b図を参照して説明する。Once the computer 1 has completed the image segmentation, it extracts the high edge density regions of each image at 84, which will be described with reference to FIG. 3b.
ここでは、8201において左画像に対する順方向ラス
タスキャンを設定し、S 202〜5213でなるルー
プを実行する。Here, a forward raster scan is set for the left image in step 8201, and a loop consisting of steps S202 to S5213 is executed.
5202においては注目画素を中心とするnXn画素(
本実施例ではn=21とした)でなるウィンドを設定し
、5203においてはレジスタMeをクリアし、820
4においてはウィンド内の順方向ラスタスキャンを設定
する。5202, nXn pixels (
In this example, n=21) is set, register Me is cleared in 5203, and 820
4, a forward raster scan within the window is set.
8205〜8208はウィンド内のエツジ構成画素をカ
ウントするループであり、その数はレジスタMeに格納
される。8205 to 8208 are loops that count the edge constituent pixels within the window, and the number is stored in the register Me.
8209〜3211は、ウィンド内の全画素(n X
n)に対するエツジ構成画素(レジスタM6の値)の割
合(Me/nXn)からエツジ密度を判定し、所定密度
Pa’ (本実施例では176とした)を超えるとき
、高エツジ密度領域の画素であるとしてその注目画素に
対応して゛高″(高エツジ密度領域の画素を示すラベル
)を書き込む。8209 to 3211 are all pixels within the window (n
Edge density is determined from the ratio (Me/nXn) of edge constituent pixels (value of register M6) to If so, "high" (a label indicating a pixel in a high edge density region) is written corresponding to the pixel of interest.
左画像について以上の高エツジ密度領域の抽出を終了す
ると、全く同じ手順で右画像の高エツジ密度領域の抽出
を実行する。When the above extraction of the high edge density region for the left image is completed, extraction of the high edge density region for the right image is executed in exactly the same procedure.
第6a図および第6b図は、前述した第5aI!1およ
び第5b図について、それぞれ高エツジ密度領域の抽出
を行なった結果であり、抽出領域を黒画素で示している
。これらの図には、第5al!Iおよび第5b図より高
エツジ密度領域と当然予想されるメロンを示す領域が抽
出されているが、その輪郭はあまり鮮明ではない。Figures 6a and 6b show the above-mentioned 5aI! 1 and 5b are the results of extraction of high edge density regions, respectively, and the extracted regions are indicated by black pixels. These figures include the 5th al! From Figures I and 5b, an area indicating a melon, which is naturally expected to be a high edge density area, has been extracted, but its outline is not very clear.
コンピュータ1は、高エツジ密度領域の抽出を終了する
と85において各画像の領域のラベリングを行なう、こ
れについて第3c図を参照して説明する。Once the computer 1 has finished extracting the high edge density regions, it labels the regions of each image at 85, which will be described with reference to FIG. 3c.
5301においては左画像に対する順方向ラスタスキャ
ンを設定し、5302においてはうベルデータを′−様
な面の領域”用の初期値L″にセットする。In step 5301, forward raster scanning is set for the left image, and in step 5302, the crawling data is set to an initial value L for the ``--like surface region.''
注目画素がエツジ構成画素であり、かつ、ラベリングの
済んでいない画素であれば、順方向ラスタスキャンを中
断して、5305においてレジスタMtおよびMrをク
リアし、5306〜5311でなるループにおいて、エ
ツジを追跡しなから、エツジを構成する画素に対応付け
てラベルデータLを書き込み、レジスタMrにそのエツ
ジを構成する画素数をカウントし、レジスタMtII、
そのエツジの高エツジ密度領域に含まれる部分の画素数
をカウントする。このエツジ追跡においては、分岐があ
る毎に追跡方向に対して一定方向のエツジを選択する。If the pixel of interest is an edge constituent pixel and has not been labeled, the forward raster scan is interrupted, registers Mt and Mr are cleared in 5305, and the edge is cleared in a loop consisting of 5306 to 5311. Without tracking, label data L is written in association with the pixels forming the edge, the number of pixels forming the edge is counted in the register Mr, and the register MtII,
The number of pixels included in the high edge density region of that edge is counted. In this edge tracking, an edge in a certain direction with respect to the tracking direction is selected every time there is a branch.
したがって、第7a図に示すように、エツジが複数の閉
じた領域を構成しているときには、そのうちの、最小単
位となる閉領域(例えばR1)の周縁を追跡することに
なる。また、レジスタMrのカウント値はその閉領域の
周縁画素数を、レジスタMtのカウント値は高エツジ密
度領域の抽出による画像(ハツチングで示す)を重ねた
ときにそれに含まれるその閉領域の周縁画素数をそれぞ
れ示すものとなる。Therefore, as shown in FIG. 7a, when edges constitute a plurality of closed regions, the periphery of the smallest unit of the closed regions (for example, R1) is tracked. In addition, the count value of the register Mr indicates the number of peripheral pixels of the closed region, and the count value of the register Mt indicates the number of peripheral pixels of the closed region included when images (indicated by hatching) extracted from the high edge density region are superimposed. Each number represents a number.
5312においては、レジスタMrのカウント値とレジ
スタMtのカウント値の比を求める。この比は、追跡し
たエツジのうち、高エツジ密度領域に含まれる割合を示
すものであり、この比が所定値M s ”″ (本実施
例では0.5としている)以下のときには−様な面の領
域と判定し、S 314においてラベルデータLを1イ
ンクリメントした後、順方向ラスタスキャンを再開する
が、所定値Ms“を超えるときにはテクスチャ領域と判
定し、5315〜5317において再度エツジを追跡し
なから、エツジを構成する画素に対応付けて書き込んだ
ラベルデータをt″に書き換えた後、順方向ラスタスキ
ャンを再開する。At 5312, the ratio between the count value of register Mr and the count value of register Mt is determined. This ratio indicates the proportion of traced edges that are included in the high edge density region, and when this ratio is less than a predetermined value M s ``'' (0.5 in this example), --like edges are detected. After determining that it is a surface area and incrementing the label data L by 1 in S314, forward raster scanning is restarted, but when it exceeds a predetermined value Ms", it is determined to be a texture area, and the edge is tracked again in steps 5315 to 5317. Therefore, after the label data written in association with the pixels constituting the edge is rewritten to t'', the forward raster scan is restarted.
以上の処理により、−様な面の領域のエツジには、それ
ぞれを識別するラベルが付され、テクスチャ領域のエツ
ジには共通のラベルt”が付される。これは、テクスチ
ャ領域のエツジは第5a図および第5b図に示されるよ
うに無数にあり、それぞれに独立なラベルを付すること
が実際的でないとの判断による6例えば、第7a図の場
合には、各小領域を構成するエツジの全部あるいは殆ど
が高エツジ密度領域に含まれているので、その全ての画
素に対応するラベルデータはt”となる。Through the above processing, the edges of the --like surface area are given labels that identify them, and the edges of the texture area are given a common label t''. This means that the edges of the texture area are As shown in Figures 5a and 5b, there are an infinite number of edges, and it was judged that it would be impractical to label them independently.6 For example, in the case of Figure 7a, the edges constituting each small area are Since all or most of the pixels are included in the high edge density region, the label data corresponding to all the pixels is t''.
5321〜5327でなるループにおいては、順方向ラ
スタスキャンを行いなから、エツジで閉じられる領域内
に、そのエツジと同じラベルを付する6つまり、注目画
素のラベルデータが初期化のままのとき(0)には、そ
の上下左右に連続する画像に付されたラベルデータを各
方向毎に読み取り、各方向に共通するラベルデータがあ
るときはそのラベルデータを注目画素のラベルデータと
して書き込み、共通するラベルデータがないときは背景
画素であることを示すラベルデータ゛′A″を注目画素
のラベルデータとして書き込む、ただし、これにおいて
、エツジで閉じられる領域内に別のエツジで閉じられる
領域があり、各方向に共通するラベルデータは複数にな
るときには、複数の共通するラベルデータのうち、ラス
タスキャンにおいて出現した順序が最も新しいものを注
目画素のラベルデータとする。In the loop consisting of 5321 to 5327, forward raster scanning is not performed, and the same label as the edge is attached to the area closed by the edge.6 In other words, when the label data of the pixel of interest remains initialized ( 0), reads the label data attached to images that are continuous in the upper, lower, left, and right directions in each direction, and if there is label data that is common to each direction, that label data is written as the label data of the pixel of interest, and the common label data is written as label data of the pixel of interest. If there is no label data, label data ``'A'' indicating that it is a background pixel is written as the label data of the pixel of interest. However, in this case, there is an area closed by another edge within the area closed by an edge, and When there is a plurality of label data common to the pixel, the label data of the pixel of interest is selected from among the plurality of common label data that appears in the latest order in the raster scan.
例えば、ラベルデータL1を付したエツジで囲まれる領
域Al内にラベルデータL2を付したエツジで囲まれる
領域A2があるとき、ラスタスキャンにおいては、領域
A1外の画素、領域A1内であって領域A2外の画素、
領域A2内の画素、領域A1内であって領域A2外の画
素、領域A1外の画素、の順で注目し、領域A1外の画
素に注目したときには共通するラベルデータがないので
ラベルデータ″Δ″を注目画素のラベルデータとして書
き込み、領域A1内であって領域A2外の画素に注目し
たときには共通するラベルデータL1を検出するのでそ
れを注目画素のラベルデータとして書き込み、領域A2
内の画素に注目したときには共通するラベルデータL1
およびL2を検出するが、そのうち後から出現したラベ
ルデータL2をその注目画素のラベルデータとする。For example, when there is an area A2 surrounded by edges with label data L2 within an area Al surrounded by edges with label data L1, in raster scanning, pixels outside area A1, pixels within area A1 and areas Pixels outside A2,
Focusing on pixels in area A2, pixels in area A1 but outside area A2, and pixels outside area A1, in that order, and when focusing on pixels outside area A1, there is no common label data, so label data "Δ '' is written as label data of the pixel of interest, and when focusing on a pixel within area A1 but outside area A2, common label data L1 is detected, so it is written as label data of the pixel of interest, and
When paying attention to the pixels within, the common label data L1
and L2 are detected, and the label data L2 that appears later is taken as the label data of the pixel of interest.
以上の左画像に対する処理と同様の処理を右画像に対し
て実行する。Processing similar to the above processing for the left image is executed for the right image.
第8a図および第8b図は、前述した第5a図および第
6a図あるいは第5b図および第6b図を構成するデー
タを用いて上記の処理を行ない、テクスチャ領域のみを
示した結果である。これらの図と第6a図および第6b
図とを比較すると、メロンを示す領域が鮮明に抽出され
ていることがわかる。これは、第7b図に示すように、
エツジを基準に高エツジ密度領域の切出したため、境界
が連続したことによる。FIGS. 8a and 8b show the results of performing the above processing using the data constituting the aforementioned FIGS. 5a and 6a or FIGS. 5b and 6b, and showing only the texture area. These figures and figures 6a and 6b
Comparing with the figure, it can be seen that the area indicating the melon is clearly extracted. This is shown in Figure 7b,
This is because the boundary is continuous because the high edge density region was extracted based on the edge.
コンピュータ1は、領域のラベリングを終了すると86
において各画像のテクスチャ領域の統合およびラベリン
グを行なう。これについて第3d図を参照して説明する
。When the computer 1 finishes labeling the area, it returns 86
In this step, the texture regions of each image are integrated and labeled. This will be explained with reference to FIG. 3d.
5401においては左画像に対する順方向ラスタスキャ
ンを設定し、5402においてはラベルデータをテクス
チャ領域用の初期値T”にセットする。In step 5401, forward raster scan is set for the left image, and in step 5402, label data is set to an initial value T'' for the texture area.
テクスチャ領域には、前述のラベリングによりラベルデ
ータとして共通の値t“を書き込んでいるので、540
3および5404においてそれを見なからテクスチャ領
域の画素を探索する。その画素が領域境界の画素であり
、未処理であれば、順方向ラスタスキャンを中断し、8
407〜5409でなるループにおいて、領域境界画素
を追跡しなから各画素に対応付けしてラベルデータをT
に書換える。In the texture area, the common value t" is written as label data by the above-mentioned labeling, so 540
3 and 5404, a pixel in the texture area is searched without looking at it. If the pixel is a region boundary pixel and has not been processed, forward raster scanning is interrupted and 8
In the loop consisting of 407 to 5409, the region boundary pixels are tracked, and label data is assigned to each pixel by T.
Rewrite it to .
1つのテクスチャ領域についてこれを終了すると、54
10においてラベルデータTを1インクリメントするの
で、順方向ラスタスキャンを終了すると、各テクスチャ
領域を識別するラベルが、各テクスチャ領域の境界画素
に対応して付される。Finishing this for one texture area leaves 54
Since the label data T is incremented by one in step 10, when the forward raster scan is completed, a label for identifying each texture area is attached corresponding to the boundary pixel of each texture area.
次に、5414〜5419でなるループにおいて、順方
向ラスタスキャンを行いなから、各テクスチャ領域の境
界画素に対応して付したラベルをその領域内の全画素に
付する。これは、ラベルデータt1により弁別できる各
テクスチャ領域内の画素を検出する毎に、その左隣の画
素(以下左画素=周縁画素または処理済み画素である)
に対応するラベルデータを読み取り、それを用いて注目
画素対応のラベルデータを書き換えることによりなされ
る。Next, in a loop consisting of steps 5414 to 5419, a forward raster scan is performed, and the labels attached corresponding to the boundary pixels of each texture area are attached to all pixels in that area. Every time a pixel in each texture area that can be distinguished by label data t1 is detected, the pixel to the left of it (hereinafter left pixel = peripheral pixel or processed pixel) is detected.
This is done by reading the label data corresponding to the target pixel and using it to rewrite the label data corresponding to the pixel of interest.
以上と同様の処理を右画像に対しても行なう。Processing similar to the above is also performed on the right image.
このように、83〜S6の処理を実行した結果、左右画
像毎に、−様な面の領域とテクスチャ領域が、それぞれ
独立な領域として認識される単位で分割される。In this way, as a result of executing the processes from 83 to S6, the --like surface area and texture area are divided into units that are recognized as independent areas for each left and right image.
続いて、コンピュータ1は、S7において左画像の各領
域の境界線と右画像の各領域の境界線とを特徴量により
対応付ける。これについて第3e図を参照して説明する
。Subsequently, in S7, the computer 1 associates the boundaries of each area of the left image with the boundaries of each area of the right image using feature amounts. This will be explained with reference to FIG. 3e.
5501においては左両像に対する以下の5502〜5
512でなるループの順方向ラスタスキャン処理を設定
する。In 5501, the following 5502 to 5 for both left images
The forward raster scan process of the loop consisting of 512 is set.
5502においては注目画素に対応するラベルデータを
読み取り、それが“A”でなければ、その注目画素は−
様な面の領域またはテクスチャ領域に属するので、55
04において、そのラベルデータに対応付けした画素カ
ウンタを1アツプし、そのラベルデータに対応付けした
和階調を格納するレジスタに注目画素の原画像データ(
階調データ′)を加え、そのラベルデータに対応付けし
た2乗和階調を格納するレジスタに注目画素の原画像デ
ータの2乗を加える。At 5502, the label data corresponding to the pixel of interest is read, and if it is not "A", the pixel of interest is -
Since it belongs to a similar surface area or texture area, 55
04, the pixel counter associated with the label data is incremented by 1, and the original image data of the pixel of interest (
Then, the square of the original image data of the pixel of interest is added to the register that stores the sum of squares gradation associated with the label data.
このときの注目画素が、未処理の境界画素であれば、順
方向ラスタスキャンを中断し、5507〜5509でな
るループにおいて、領域を左に見なから境界画素を追跡
し、注目画素とその4つ先(追跡において)の画素の座
標から直線近似により注目画素のベクトルデータを求め
、注目画素に対応付けて書き込む、これを終了すると、
8510においてそのとき求めたベクトルデータを参照
し、ベクトルデータの近似性および画素の連続性からそ
の領域の境界線をセグメンテーションし、各セグメント
のラベル、始点および終点の座標、所属領域のラベルを
テーブルにまとめる。If the pixel of interest at this time is an unprocessed boundary pixel, the forward raster scan is interrupted, and in a loop consisting of steps 5507 to 5509, the boundary pixel is traced while looking at the area to the left, and the pixel of interest and its four Obtain the vector data of the pixel of interest by linear approximation from the coordinates of the pixel at the toe (in tracking), and write it in association with the pixel of interest. When this is completed,
In 8510, the vector data obtained at that time is referred to, the boundary line of the area is segmented based on the proximity of the vector data and the continuity of pixels, and the label of each segment, the coordinates of the start point and end point, and the label of the area to which it belongs are placed in a table. Summarize.
この後、順方向ラスタスキャンを再開し、上記を繰り返
すと、各領域の境界線のセグメンテーションが完了し、
各領域毎にその構成画素数、構成画素対応の原画像デー
タの総和および2乗和が求まるので、5513において
はこれらのデータを用いて各領域の平均階調および階調
の分散を求める。After this, restart the forward raster scan and repeat the above to complete the segmentation of the boundaries of each region,
Since the number of constituent pixels and the sum and square sum of the original image data corresponding to the constituent pixels are determined for each region, in step 5513, these data are used to find the average gradation and gradation variance of each region.
各領域の構成画素数、平均階調および分散は、それぞれ
の領域の特徴量となる。The number of constituent pixels, average gradation, and variance of each region are the feature amounts of each region.
5514においては、上記と同様にして右画像内の各領
域の境界線のセグメンテーション、および各領域の特徴
量検出を実行する。In step 5514, segmentation of the boundaries of each area in the right image and feature amount detection of each area are performed in the same manner as above.
5515においては、左画像の各領域と右画像の各領域
とを対応付けする。この際、左画像の領域の特徴量と、
その候補となる右画像の領域の特徴量が許容範囲で等し
いことを条件とする。In step 5515, each region of the left image is associated with each region of the right image. At this time, the feature amount of the area of the left image,
The condition is that the feature amounts of the regions of the right image that are the candidates are equal within a permissible range.
8516においては、左右画像で互いに対応付けされた
領域の境界線のセグメントを対応付ける。In step 8516, segments of the boundaries of mutually correlated regions in the left and right images are correlated.
ここでは1両セグメントの始点および終点が許容範囲に
おいて等しいエピポーラ線上にあり、かつ、それらを結
ぶ線分の傾きおよび長さが許容範囲で等しく、その線分
に対して領域の存在する方向が等しいことを条件とする
。このようにして、左右面像の境界線のセグメントを対
応付けると、左画像の境界線のセグメントを構成する画
素に対する、右画像の境界線のセグメントを構成する画
素との視差(各画像を重ねたときの主走査方向のずれ)
を求め、前者(左画像の境界線のセグメントを構成する
画素)に対応付けて記憶する。Here, the start and end points of both segments are on the same epipolar line within a permissible range, the slope and length of the line segment connecting them are equal within a permissible range, and the direction in which the area exists with respect to the line segment is equal. The condition is that. In this way, by associating the boundary line segments of the left and right images, the parallax between the pixels constituting the boundary line segments of the left image and the pixels constituting the boundary line segments of the right image (by overlapping each image deviation in the main scanning direction)
is determined and stored in association with the former (pixels forming the segment of the boundary line of the left image).
コンピュータ1は、きらに、S8において左画像の各テ
クスチャ領域の境界線と右画像の各乎りスチャ領域の境
界線とを相関により対応付ける。In step S8, the computer 1 correlates the boundaries of each texture area in the left image with the boundaries of each texture area in the right image.
これについて第3f図を参照して説明する。This will be explained with reference to FIG. 3f.
5601においては左画像に対する以下の5602〜5
618でなるループの順方向ラスタスキャン処理を設定
する。In 5601, the following 5602 to 5 for the left image
The forward raster scan process of the loop consisting of 618 is set.
8602〜S 6Q5において、未処理のテクスチャ領
域の境界画素を検出すると、順方向ラスタスキャンを中
断して5606以下に進む。In 8602 to S6Q5, when a boundary pixel of an unprocessed texture area is detected, the forward raster scan is interrupted and the process proceeds to 5606 and subsequent steps.
未処理の境界画素は、前述の特徴量による境界線の対応
付けにおいて対応画素との視差データを有しているので
、3606においてそれを読み取り、レジスタDに格納
する。Since the unprocessed boundary pixel has parallax data with the corresponding pixel in the boundary line association using the feature amount described above, it is read in 3606 and stored in the register D.
5607においては、注目画素(検出した未処理の境界
画素)を中心とするm X m ’画素(本実施例では
m=m’=7とした)に対応する原画像データの総和(
以下mXm’Xm調和いう)を演算してレジスタEおよ
びeoに格納し、8608においては、視差データD(
レジスタDの値:便宜上同記号を用いている:他につい
て同義)から2を減じた値をレジスタiに、それに2を
加えた値をレジスタIに、それぞれ格納する。5607, the total sum (
mXm'Xm harmonic) is calculated and stored in registers E and eo, and in 8608, parallax data D
The value obtained by subtracting 2 from the value of register D (same symbol is used for convenience: same meaning for others) is stored in register i, and the value obtained by adding 2 to it is stored in register I, respectively.
5609において注目画素との視差がiとなる右画像の
画素(以下右画像の視差1画素という)のmXm’Xm
調和求めてレジスタeiに格納し、5610においては
、レジスタeoの値とレジスタeiの値の差、すなわち
、注目画素のm X m ’和階調と視差1画素のmX
m’Xm調和差と、レジスタEの値とを比較する。この
とき、前者が後者未満であれば5611においてレジス
タEに前者を格納し、レジスタDにレジスタiの値を格
納する。mXm'Xm of the pixel of the right image whose parallax with the pixel of interest is i in 5609 (hereinafter referred to as the parallax 1 pixel of the right image)
Harmony is calculated and stored in the register ei, and in 5610, the difference between the value of the register eo and the value of the register ei, that is, m
The m'Xm harmonic difference and the value of register E are compared. At this time, if the former is less than the latter, the former is stored in register E in 5611, and the value of register i is stored in register D.
この後、5612においてレジスタiを1インクリメン
トし、その値がレジスタIの値を超えるまで、上記の処
理を繰り返す。Thereafter, register i is incremented by 1 at 5612, and the above process is repeated until the value exceeds the value of register I.
つまり、本実施例においては、左右画像の互いに相関の
高い画素は、同一エピポーラ線上にあり。In other words, in this embodiment, pixels that are highly correlated with each other in the left and right images are on the same epipolar line.
かつ、その周囲の階調が略等しいものとして、5609
〜5613において、注目画素のm X m ’和階調
に最も近いmXm’Xm調和有する右画素(相関が最も
高い右画素)を、右画像の視差り画素および主走査軸に
沿ったその前後4画素の中から選出している。And assuming that the surrounding gradations are approximately equal, 5609
~5613, the right pixel (the right pixel with the highest correlation) that has the m It is selected from pixels.
5614においては、レジスタEの値、すなわち、注目
画素とこのとき選出した右画素の各m X m ’和階
調の差を相関データとし、レジスタDの値、すなわち、
その右画素の視差を視差データとして注目画素に対応付
けて記憶する。In 5614, the value of register E, that is, the difference in each m x m ' sum gradation between the pixel of interest and the right pixel selected at this time, is used as correlation data, and the value of register D, that is,
The parallax of the right pixel is stored as parallax data in association with the pixel of interest.
5615において領域を左に見なから境界画素を更新し
、8606以下の処理を繰り返す。At step 5615, the boundary pixels are updated by looking at the area to the left, and the processing from step 8606 is repeated.
1つのテクスチャ領域の境界線について上記の相関によ
る対応付けを終了すると順方向ラスタスキャンを再開し
、全テクスチャ領域の境界線対応付けを行なう。When the correlation based on the above-mentioned correlation is completed for the boundary line of one texture area, forward raster scanning is restarted, and the boundary lines of all the texture areas are associated.
第9a図は左画像のテクスチャ領域の境界線を示し、第
9b図は相関による対応付けを行なった結果の右画像、
すなわち、左画像の境界線を構成する画素の視差データ
で示される右画素を示す。FIG. 9a shows the boundary line of the texture area of the left image, and FIG. 9b shows the right image as a result of correlation-based correspondence.
That is, it shows the right pixel indicated by the parallax data of the pixels forming the boundary line of the left image.
以上のようにして、左右画像のテクスチャ領域の境界線
の対応付けを終了すると、次に、S9において順方向ラ
スタスキャンを行ないなから、各テクスチャ領域の左側
の境界線の視差データに基づいて、その内側の画素の対
応付けを行なう。After completing the correspondence between the boundaries of the texture areas of the left and right images as described above, next, in S9, forward raster scanning is performed, and based on the parallax data of the left boundary of each texture area, The pixels inside the pixel are associated with each other.
まず、その処理の概念を第10a図、第10b図および
第10c図を参照して説明する。First, the concept of the process will be explained with reference to FIGS. 10a, 10b, and 10c.
例えば、左画像の順方向ラスタスキャンを行なって注目
画素po (第4図に示した記号を準用:他について
同じ)を移動している間に、あるテクスチャ領域の左側
の境界線BLの構成画素の右隣の画素を検出したものと
する。この場合、注目画素poの左隣の画素(左画素)
psは左側の境界線BLの構成画素となり、直上の画素
(上画素)P3は処理を終了した画素となり、それぞれ
は視差データQあるいはUを有している6本実施例にお
いては隣接画素は互いに略等しい視差データを有するも
のと仮定し、これらの視差データQおよびUを注目画素
poに適用して右画像の視差2画素Po’ならびに主走
査軸に沿ったその前後4画素、および、右画像の視差上
画素po″ならびに主走査軸に沿ったその前後4画素を
求め、これらについて注目画素Paとの相関を検討する
。さらにその内側では、処理済みの視差データを用いて
同様の検討を繰り返す。For example, while performing a forward raster scan of the left image and moving the pixel of interest po (symbols shown in Figure 4 apply mutatis mutandis; the same applies to the others), the constituent pixels of the left boundary line BL of a certain texture area Assume that the pixel to the right of is detected. In this case, the pixel to the left of the pixel of interest po (left pixel)
ps is the constituent pixel of the left border line BL, and the pixel immediately above (upper pixel) P3 is the pixel that has completed processing, each of which has parallax data Q or U. In this embodiment, adjacent pixels are Assuming that they have substantially equal parallax data, these parallax data Q and U are applied to the pixel of interest po to obtain the parallax 2 pixel Po' of the right image, the 4 pixels before and after it along the main scanning axis, and the right image. The pixel po'' on the parallax and the four pixels before and after it along the main scanning axis are determined, and the correlation with the pixel of interest Pa is examined.Furthermore, inside the pixel po'', the same examination is repeated using the processed parallax data. .
より具体的に第3g図を参照して説明する。This will be explained in more detail with reference to FIG. 3g.
5701において左画像に対して順方向ラスタスキャン
処理を設定し、5702〜5705において未処理のテ
クスチャ領域内画素を探索する。これを検出すると87
06以下に進む。In 5701, forward raster scan processing is set for the left image, and in 5702 to 5705, unprocessed pixels in the texture area are searched for. When this is detected, 87
Proceed to 06 and below.
8706においては注目画素の左画素の視差データを読
み取ってレジスタQに、上画素の視差データを読み取っ
てレジスタUに、それぞれ格納し。At 8706, the parallax data of the pixel to the left of the pixel of interest is read and stored in register Q, and the parallax data of the upper pixel is read and stored in register U, respectively.
5707においては注目画素のm X m ’和階調を
演算してレジスタEおよび6Qに格納し、8708にお
いては視差データUから2を減じた値をレジスタiに格
納する。In 5707, the m x m ' sum gradation of the pixel of interest is calculated and stored in registers E and 6Q, and in 8708, the value obtained by subtracting 2 from parallax data U is stored in register i.
8710〜5714でなるループは、前述した5609
〜5613でなるループと同じ処理を行なっており、注
目画素のmXm’Xm調和最も近いmXm’Xm調和有
する右画素(相関が最も高い右画素)を、視差Qで指定
される右画素および主走査軸に沿ったその前後4画素の
中から選出し、注目画素とその右画素の各mXm’Xm
調和差をレジスタEに、その右画素の視差をレジスタD
にそれぞれ格納している。The loop consisting of 8710 to 5714 is the above-mentioned 5609
The same processing as the loop consisting of ~5613 is performed, and the right pixel with the mXm'Xm harmonic closest to the mXm'Xm harmonic of the pixel of interest (the right pixel with the highest correlation) is selected as the right pixel specified by the parallax Q and the main scanning Select from among the four pixels before and after it along the axis, and calculate each mXm'Xm of the pixel of interest and the pixel to its right.
The harmonic difference is stored in register E, and the parallax of the right pixel is stored in register D.
are stored in each.
次に、5717〜5721でなるループにおいて視差デ
ータUを用いて全く同じ処理を行なう、これにより、右
画像の視差0画素ならびにその前後4画素および右画像
の視差U画素ならびにその前後4画素の中から、相関が
最も高い右画素が選択され。Next, in a loop consisting of 5717 to 5721, exactly the same processing is performed using the parallax data U. This allows the pixel with parallax 0 in the right image and the 4 pixels before and after it, and the pixel with parallax U in the right image and the 4 pixels before and after it. , the right pixel with the highest correlation is selected.
レジスタEにはその・相関データが、レジスタDにはそ
の画素の視差データが、それぞれ格納されるのでご57
22においてそれらのデータを注目画素に対応付けて記
憶する。Register E stores the correlation data, and register D stores the parallax data for that pixel.
At step 22, the data is stored in association with the pixel of interest.
以上説明したように、この処理は左側の境界線の視差デ
ータをその内側の各画素に伝播させるものということが
できる。したがって、注目画素が左側の境界線から離れ
るに従ってその視差データの不確かさが増す、そこで、
510において、今度は逆方向ラスクスキャンによりそ
の対応を補正する。As explained above, this process can be said to propagate the parallax data of the left boundary line to each pixel inside the left boundary line. Therefore, as the pixel of interest moves away from the left border, the uncertainty of its disparity data increases.
At 510, the correspondence is now corrected by a reverse rask scan.
第11a図〜第11c図を参照されたい0例えば。For example, see Figures 11a-11c.
左画像の逆方向ラスクスキャンを行なって注目画素Pa
を移動している間に、あるテクスチャ領域の右側の境界
線B、の構成画素の左隣の画素を検出したものとする。Perform reverse rask scan of the left image to find the pixel of interest Pa.
Assume that a pixel to the left of a constituent pixel of the right boundary line B of a certain texture area is detected while moving the texture area.
この注目画素Poは前述の初期対応処理で求めた視差デ
ータDを有しており。This pixel of interest Po has parallax data D obtained in the above-mentioned initial correspondence processing.
また、その右隣の画素(右画素)psは右側の境界線8
代の構成画素であるので、当然視差データrを有してい
る6本来であれば、これらの視差データは略等しくなる
はずであるが、このときの注目画素Poが左側の境界線
BLから大きく離れているときには前述したようにそれ
が異なることがある。その場合には、右画像の視差り画
素P。Also, the pixel to the right (right pixel) ps is the right border line 8
Since these pixels are constituent pixels of the 6th generation, naturally these parallax data should be approximately equal if they had parallax data r, but the pixel of interest Po at this time is far from the left border line BL. As mentioned above, it may be different when you are far away. In that case, the parallax pixel P of the right image.
および右画像の視差1画素Po″ならびに主走査軸に沿
ったその前後4画素について注目画素Paとの相関を検
討する。さらにその内側では。The correlation with the pixel of interest Pa is examined for one parallax pixel Po'' of the right image and four pixels before and after it along the main scanning axis.Furthermore, inside it.
処理済みの視差データを用いて同様の検討を行なう。A similar study will be performed using processed parallax data.
より具体的に第3h図を参照して説明する。This will be explained in more detail with reference to FIG. 3h.
5801において左画像に対して逆方向ラスクスキャン
処理を設定し、5802〜s aosにおいて未処理の
テクスチャ領域内画素を探索する。これを検出すると8
806以下に進む、 ′5806におい
ては注目画素の相関データを読み取ってレジスタEに、
その視差データを読み取ってレジスタDに、注目画素の
右画素の視差データを読み取ってレジスタrに、それぞ
れ格納し、5807においては注目画素のm X m
’和階調を演算してレジスタg(、に格納する。In 5801, reverse rask scan processing is set for the left image, and in 5802 to saos, unprocessed pixels in the texture area are searched for. When this is detected, 8
Proceed to 806 and below. At '5806, the correlation data of the pixel of interest is read and stored in register E.
The parallax data is read and stored in register D, the parallax data of the pixel to the right of the pixel of interest is read and stored in register r, and in 5807, m x m of the pixel of interest is stored.
'Calculate the Japanese gradation and store it in register g(,.
8808においては、注目画素の視差データDと右画素
の視差データrとを比較し、それらの差が所定値Pg’
(本実施例では2とする)未満であれば、その注目
画素の相関データEと視差データDを確定するが、そう
でないときには8809以下の処理を行なう。At 8808, the disparity data D of the pixel of interest and the disparity data r of the right pixel are compared, and the difference between them is set to a predetermined value Pg'
If it is less than (2 in this embodiment), the correlation data E and parallax data D of the pixel of interest are determined, but if not, the processing from 8809 onwards is performed.
8809以下は前述と同様であり、視差データrを用い
て右画像の視差り画素および、視差1画素とその前後4
画素の中から注目画素との相関の最も高い右画素を選出
し、注目画素に対応して記憶している相関データおよび
視差データをそれぞれ補正する。The steps below 8809 are the same as above, and the parallax pixels of the right image, the 1 parallax pixel, and 4 pixels before and after it are calculated using the parallax data r.
The right pixel with the highest correlation with the pixel of interest is selected from among the pixels, and the correlation data and parallax data stored corresponding to the pixel of interest are each corrected.
以上、810までの処理を終了すると、コンピュータ1
は、それぞれの画素に対応付けた視差データにより、各
ITVカメラユニットの設置位胃から各画素に対応する
対象物上の点までの距離を算出する。これについて再度
第1b図を参照されたい。After completing the processing up to 810, the computer 1
calculates the distance from the installation position of each ITV camera unit to the point on the object corresponding to each pixel using parallax data associated with each pixel. In this regard, please refer again to FIG. 1b.
同一の対象物上の点QをITVカメラ21および31で
撮像し、その画像について上記の処理を行なった結果、
左画像の画素QLと右画像の画素QRとが対応している
ことがわかったものとする。As a result of imaging the point Q on the same object with the ITV cameras 21 and 31 and performing the above processing on the image,
Assume that it is found that the pixel QL of the left image corresponds to the pixel QR of the right image.
つまり点Qは、ITVカメラ21の焦点oLとその撮像
面211の画素QLとを結ぶ直線と、ITVカメラ31
の焦点0.とその撮像面311の画素QRとを結ぶ直線
との交点に存在することになる。In other words, point Q is a straight line connecting the focal point oL of the ITV camera 21 and the pixel QL of the imaging surface 211, and the point Q
Focus of 0. and the straight line connecting the pixel QR of the imaging surface 311.
したがって、ITVカメラ21および31の光軸間距離
2a、それらの焦点距離fを用いれば、画素QLとQR
との視差りより、
Z = 2 a f / D ・=
・(1)として対象物上の点Qまでの距離Zが求まる。Therefore, if the distance 2a between the optical axes of the ITV cameras 21 and 31 and their focal length f are used, the pixels QL and QR
From the parallax with Z = 2 a f / D ・=
- As (1), the distance Z to the point Q on the object is found.
Sllにおいてこの第(1)式に従って各画素毎に対応
する対象物上の点までの距離データを求め、S12にお
いてその距離データを用いてデイスプレィ5上に対象物
の立体表示を行なう。第12図はその一例を示し、第5
a図や第5b図等に示したものと同じ原画像の処理結果
を、そのうちのテクスチャ領域(メロン)のみについて
立体表示を行なったものである。この図を参照すると、
メロンの球形の曲面がよく表現されており、本実施例に
よる左画像と右画像との対応結果が正しいことがわかる
。In Sll, distance data to the corresponding point on the object is obtained for each pixel according to equation (1), and in S12, the object is displayed three-dimensionally on the display 5 using the distance data. Figure 12 shows an example.
The processing result of the same original image as shown in FIG. Referring to this diagram:
The spherical curved surface of the melon is well expressed, and it can be seen that the correspondence result between the left image and the right image according to this example is correct.
以上をまとめると、本実施例においてはITVカメラ2
1および31により撮像した左画像と右画像について次
の処理を加える。To summarize the above, in this embodiment, the ITV camera 2
The following processing is applied to the left image and right image captured in steps 1 and 31.
(1)各画像毎に微分し、エツジを抽出による画像分割
を行なう;
(2)各画像毎に空間的にエツジの存在密度が高い領域
を抽出する;
(3)各画像のエツジ密度の低い領域にはそれぞれ個別
のラベルを、エツジ密度の高い領域には共通のラベルを
、それぞれ付する;
(4)各画像のエツジ密度の高い領域のうち、それぞれ
独立な領域として認識可能な一塊りの領域をテクスチャ
領域として個別のラベルを付する;(5)各画像の各抽
出領域の境界線をセグメンテーションし、左画像のセグ
メントと右画像のセグメントとを特微量に基づいて対応
付けする;(6)左画像のテクスチャ領域の境界線と右
画像のテクスチャ領域の境界線とを相関に基づいて対応
付けする;
(7)左画像のテクスチャ領域の左側の境界線の視差デ
ータによりその領域内画素の視差データを求める;
(8)左画像のテクスチャ領域の右側の境界線の視差デ
ータによりその領域内画素の視差データを補正する;
(9)各画素の視差データよりカメラ設置位置から各画
素対応の対称物上の点までの距離を求め。(1) Perform image segmentation by differentiating each image and extracting edges; (2) Extract regions with high spatial density of edges for each image; (3) Extract areas with low edge density in each image Each region is given an individual label, and regions with high edge density are given a common label. (4) Among the regions with high edge density in each image, a group of regions that can be recognized as independent regions Label each region individually as a texture region; (5) Segment the border of each extraction region in each image, and associate the segments of the left image and the segments of the right image based on the feature amount; (6) ) Correlate the boundary line of the texture area in the left image with the boundary line of the texture area in the right image based on correlation; (7) Use the disparity data of the left boundary line of the texture area in the left image to find the pixels in that area. Obtain parallax data; (8) Correct the parallax data of the pixels in the area using the parallax data of the right border of the texture region in the left image; (9) Calculate the parallax data of each pixel from the camera installation position using the parallax data of each pixel. Find the distance to the point on the object.
立体表示を行なう。Performs 3D display.
つまり1本実施例では、画像のテクスチャ領域とそうで
ない領域とを分割しているので、各領域に対して適切な
処理を行なうことができる。この分割においては、テク
スチャ領域内には、その構成基礎となる要素がある程度
の密度で配列されていることに注目しているので、処理
が簡単であり、また適切である。In other words, in this embodiment, since the image is divided into texture areas and non-texture areas, appropriate processing can be performed on each area. In this division, attention is paid to the fact that elements forming the basis of the texture area are arranged with a certain degree of density within the texture area, so the processing is simple and appropriate.
また、左画像と右画像との対応を求める際には、隣接す
る画素間の視差が略等しいことに注目して、まず領域の
境界の対応付けを行ない、左側の境界の視差に基づいて
領域内の視差を求めた後、右側の境界の視差に基づいて
これを補正している。テクスチャー領域のように構成要
素が多く、特微量による対応付けが困難な場合にも簡単
かつ正確にこれをなし得る。In addition, when determining the correspondence between the left image and the right image, note that the parallax between adjacent pixels is approximately equal, first correlate the boundaries of the regions, and then use the parallax of the left border to After determining the parallax within, this is corrected based on the parallax of the right border. This can be done easily and accurately even in a case where there are many constituent elements such as a texture area, and it is difficult to make correspondences using feature quantities.
なお、上記実施例においては、左右の2画像を用いてい
るが、さらに多くの画像を処理する場合には上記同様の
処理をそれぞれについて行なえば良い。Note that in the above embodiment, two images, left and right, are used, but if more images are to be processed, the same processing as described above may be performed for each.
また、エツジの抽出やエツジで囲む領域内画素のラベリ
ング(エツジのラベルの領域内伝播)、あるいは境界の
セグメンテーション等の手法は、−例を示したものであ
ることを付記しておく。It should also be noted that techniques such as edge extraction, labeling of pixels within a region surrounded by edges (intra-region propagation of edge labels), and boundary segmentation are merely examples.
以上説明したとおり、本発明によれば、テクスチャ領域
に、ある種の構成要素が比較的高密度で存在しているこ
とに注目しているので、このテクスチャ領域を容易に分
割し得る。この際、該密度のみならず、2値化データの
空間的な連続性により分割される領域との重なりに基づ
いているので領域の境界が明確になり、適切な分割が行
なわれる。As described above, according to the present invention, attention is paid to the fact that a certain type of component is present in a relatively high density in a texture area, so this texture area can be easily divided. At this time, since it is based not only on the density but also on the overlap with the area to be divided based on the spatial continuity of the binarized data, the boundaries of the area become clear and appropriate division is performed.
また、実施例で示したように、2値化データを、画像デ
ータの空間的変化を示す変化データを2値化することに
より求めれば、単純に2値化した場合より、テクスチャ
の構成要素を明確に検出し、かつ、その連続性を確保し
得るも゛のとなり、テクスチャ領域の分割はより確かな
ものとなる。Furthermore, as shown in the example, if binarized data is obtained by binarizing change data indicating spatial changes in image data, the constituent elements of texture can be obtained more easily than by simply binarizing. This makes it possible to clearly detect and ensure continuity, making the division of texture regions more reliable.
第1a図は本発明を一例で実施する画像処理装置の構成
を示すブロック図であり、第1b図は第1a図に示した
ITVカメラ21と31による撮像のモデルを示す模式
図である。
第2図、第3a図、第3b図、第3c図、第3d図。
第3e図、第3f図、第3g図および第3h図は第1a
図に示したコンピュータ1の動作を示すフローチャート
である。
第4図は注目画素と8近傍画素との空間的な関係を示す
平面図である。
第5a図、第5b図、第6a図、第6b図、第7a図、
第7b図、第8a図、第8b図、第9a図、第9b図、
第10a図、第10b図、第10c図、第11a図、第
11b図、第1ie図および第12図は第1a図に示し
たコンピュータ1の処理の具体的な例を示す平面図であ
る。
1:コンピュータ
2.3:ITVカメラユニット
21.31 : I TVカメラ
22.32 : A / Dコンバータ4:画像メモリ
5:デイスプレィ
6:プリンタ
7:フロッピーディスク
8:キーボードターミナル
第1b図
第1a L図
第58
図
第
a
図
?IK Sb図
第
りIJ
口η
第
Sa
r’:<+
第
1I
図
第
Xi
[XN
第
(孕))
図
第
0a
図
第
0b
図
第
0C
L図
第
1a
図
第
1b
図
第
1C
し4FIG. 1a is a block diagram showing the configuration of an image processing device implementing the present invention as an example, and FIG. 1b is a schematic diagram showing a model of imaging by the ITV cameras 21 and 31 shown in FIG. 1a. Figures 2, 3a, 3b, 3c, and 3d. Figures 3e, 3f, 3g and 3h are 1a
3 is a flowchart showing the operation of the computer 1 shown in the figure. FIG. 4 is a plan view showing the spatial relationship between the pixel of interest and eight neighboring pixels. Figures 5a, 5b, 6a, 6b, 7a,
Figure 7b, Figure 8a, Figure 8b, Figure 9a, Figure 9b,
10a, 10b, 10c, 11a, 11b, 1ie, and 12 are plan views showing specific examples of the processing of the computer 1 shown in FIG. 1a. 1: Computer 2.3: ITV camera unit 21.31: I TV camera 22.32: A/D converter 4: Image memory 5: Display 6: Printer 7: Floppy disk 8: Keyboard terminal Figure 1b Figure 1a L Figure 58 Figure a? IK Sb Figure ri IJ Mouth η Sa r': <+ Figure 1I Figure Xi [XNth (pregnancy)) Figure 0a Figure 0b Figure 0C L Figure 1a Figure 1b Figure 1C Shi4
Claims (2)
を2値化して2値化データを生成し、該2値化データの
空間的な密度の高い領域を分割し、2値化データがその
空間的な連続性から分割する領域と、2値化データの空
間的な密度の高い領域との重りに基づいて、テクスチャ
領域を分割する、画像処理方法。(1) Binarize each image data of pixels of minute divisions that make up the original image to generate binarized data, divide the binarized data into regions with high spatial density, and divide the binarized data into binarized data. An image processing method that divides a texture area based on the weight between the area to be divided based on its spatial continuity and the area with high spatial density of binarized data.
変化を示す変化データを2値化して得る、前記特許請求
の範囲第(1)項記載の画像処理方法。(2) The image processing method according to claim 1, wherein the binarized data is obtained by binarizing change data indicating a spatial change in the image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63180622A JP2846319B2 (en) | 1988-07-20 | 1988-07-20 | Image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63180622A JP2846319B2 (en) | 1988-07-20 | 1988-07-20 | Image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0229879A true JPH0229879A (en) | 1990-01-31 |
JP2846319B2 JP2846319B2 (en) | 1999-01-13 |
Family
ID=16086432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63180622A Expired - Lifetime JP2846319B2 (en) | 1988-07-20 | 1988-07-20 | Image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2846319B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5463697A (en) * | 1992-08-04 | 1995-10-31 | Aisin Seiki Kabushiki Kaisha | Apparatus for detecting an edge of an image |
WO2014129064A1 (en) * | 2013-02-21 | 2014-08-28 | シャープ株式会社 | Obstacle detection device and obstacle detection method |
-
1988
- 1988-07-20 JP JP63180622A patent/JP2846319B2/en not_active Expired - Lifetime
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5463697A (en) * | 1992-08-04 | 1995-10-31 | Aisin Seiki Kabushiki Kaisha | Apparatus for detecting an edge of an image |
WO2014129064A1 (en) * | 2013-02-21 | 2014-08-28 | シャープ株式会社 | Obstacle detection device and obstacle detection method |
JP2014164318A (en) * | 2013-02-21 | 2014-09-08 | Sharp Corp | Obstacle detection device and obstacle detection method |
Also Published As
Publication number | Publication date |
---|---|
JP2846319B2 (en) | 1999-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11080932B2 (en) | Method and apparatus for representing a virtual object in a real environment | |
CN109615611B (en) | Inspection image-based insulator self-explosion defect detection method | |
Moghadam et al. | Fast vanishing-point detection in unstructured environments | |
CN110197153B (en) | Automatic wall identification method in house type graph | |
US20100287511A1 (en) | Method and device for illustrating a virtual object in a real environment | |
CN115908269A (en) | Visual defect detection method and device, storage medium and computer equipment | |
Tsai et al. | Segmenting focused objects in complex visual images | |
CN114140679A (en) | Defect fusion method, device, recognition system and storage medium | |
JP5538868B2 (en) | Image processing apparatus, image processing method and program | |
Wang et al. | Edge extraction by merging 3D point cloud and 2D image data | |
JPH0676062A (en) | Picture processor | |
CN110473221A (en) | A kind of target object automatic scanning system and method | |
CN110751682A (en) | Method, device, terminal equipment and storage medium for extracting and identifying image | |
JP2013114655A (en) | Image processing device, image processing method, and computer program | |
CN109977959B (en) | Train ticket character area segmentation method and device | |
CN110490924A (en) | A kind of light field image feature point detecting method based on multiple dimensioned Harris | |
CN118015190A (en) | Autonomous construction method and device of digital twin model | |
CN116958837A (en) | Municipal facilities fault detection system based on unmanned aerial vehicle | |
CN110717910A (en) | CT image target detection method and CT scanner | |
CN110782390A (en) | Image correction processing method and device and electronic equipment | |
JPH0229879A (en) | Image processing method | |
Uma et al. | Marker based augmented reality food menu | |
Wang et al. | Edge extraction by merging the 3D point cloud and 2D image data | |
JPH0229878A (en) | Image processing method | |
Pham et al. | Improving deep learning-based automatic checkout system using image enhancement techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |