JPH09161074A - Picture processor - Google Patents

Picture processor

Info

Publication number
JPH09161074A
JPH09161074A JP7315051A JP31505195A JPH09161074A JP H09161074 A JPH09161074 A JP H09161074A JP 7315051 A JP7315051 A JP 7315051A JP 31505195 A JP31505195 A JP 31505195A JP H09161074 A JPH09161074 A JP H09161074A
Authority
JP
Japan
Prior art keywords
output
contour
image
input
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7315051A
Other languages
Japanese (ja)
Inventor
Takeshi Kawano
威 川野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP7315051A priority Critical patent/JPH09161074A/en
Publication of JPH09161074A publication Critical patent/JPH09161074A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily generate three-dimensional data from a single two-dimensional picture by extracting an outline from a picture and estimating the front and behind relation of areas divided by the outline based upon a part where the outlines intersect each other in a T shape. SOLUTION: A reading means 2 reads out a picture to be processed from a frame buffer 1 as a picture output. A contour extracting means 3 extracts an outline from the picture output read out by the means 2 as a contour output. An intersection detecting means 4 detects a part where the outlines intersect each other in a T shape from the contour output and outputs the coordinates of the intersection and the rotational angle of the T shape obtained by setting the depth direction as a rotation axis. The intersection detection of the means 4 is executed for all areas. Then, an area dividing means 5 divides the picture into plural areas by using the contour output as a boundary. A 1st depth estimating means 6 estimates distance relation between respective areas outputted from the means 5 from the position and angle outputs from the means 4.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、奥行き方向の距離
情報を持たない2次元画像から、画像中の複数物体間の
遠近関係を抽出する画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for extracting a perspective relationship between a plurality of objects in an image from a two-dimensional image that does not have distance information in the depth direction.

【0002】[0002]

【従来の技術】近年、コンピュータの性能が上昇するに
つれ、パーソナルユースのコンピュータでも3次元CG
などが手軽に処理できるようになってきた。しかしなが
ら3次元物体の形状データは2次元データとは異なり、
簡易に入力する装置がなく、データ取得が困難であっ
た。これを解決するため画像認識の分野では、カメラか
ら入力された画像から3次元物体の形状認識や復元ある
いは奥行き方向の距離情報の抽出など、3次元情報を取
得する技術の必要性が高まってきている。
2. Description of the Related Art In recent years, as the performance of computers has increased, three-dimensional CGs have become available for personal use computers.
Etc. are becoming easier to handle. However, the shape data of a three-dimensional object is different from the two-dimensional data,
Data acquisition was difficult because there was no device for easy input. In order to solve this, in the field of image recognition, there is an increasing need for a technology for acquiring three-dimensional information such as shape recognition and restoration of a three-dimensional object from a image input from a camera or extraction of distance information in the depth direction. There is.

【0003】例えば物体までの距離を求める方式として
は、異なった位置に設置された2つのカメラで同じ物体
を撮影し、視差を利用して距離を算出する方式が考案さ
れている。
For example, as a method for obtaining the distance to an object, a method has been devised in which two cameras installed at different positions photograph the same object and the distance is calculated using parallax.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記の
ような構成は特殊な撮影装置を必要とするためコストの
増大が回避できず、しかも過去に撮影され蓄積されてき
た2次元画像データを利用することができないという問
題点を有していた。また、各画素毎の視差をすべて処理
しなければならないためリアルタイム処理に向いていな
いという問題も有している。
However, the above-mentioned configuration requires a special photographing device, and thus an increase in cost cannot be avoided, and moreover, the two-dimensional image data photographed and accumulated in the past is used. It had a problem that it could not. There is also a problem that it is not suitable for real-time processing because all parallaxes of each pixel must be processed.

【0005】そこで、本発明は上記問題点に鑑み、遠方
の物体の一部を近傍の物体が隠蔽すると2物体の輪郭は
T字型に交わることに着目し、特殊な撮影装置を一切必
要とせず過去に蓄積された画像を含むあらゆる2次元画
像から物体間の遠近関係を簡便に推測・抽出して3次元
データを生成する画像処理装置を提供することにある。
In view of the above problems, the present invention focuses on the fact that the contours of two objects intersect in a T-shape when a distant object hides a part of a distant object, and no special photographing device is required. Another object of the present invention is to provide an image processing device that generates 3D data by simply estimating / extracting the perspective relationship between objects from any 2D image including images accumulated in the past.

【0006】[0006]

【課題を解決するための手段】上記問題点を解決するた
めに本発明は、奥行き方向の距離情報を持たない2次元
画像から複数の物体間の遠近関係を抽出し3次元データ
を生成する画像処理装置において、2次元画像を格納す
るフレームバッファと、フレームバッファから2次元画
像を読み出して出力する画像読み出し手段と、画像読み
出し手段の出力を入力とし、入力から輪郭線を抽出して
出力する輪郭抽出手段と、輪郭抽出手段の出力を入力と
し、入力された輪郭線同士がT字型に交わっている座標
を位置出力、交わった輪郭線が形づくるT字が奥行き方
向を軸に回転している角度を角度出力とする交点検出手
段と、画像読み出し手段の出力と輪郭抽出手段の出力を
入力とし、画像読み出し手段の出力を輪郭抽出手段の出
力する輪郭線を境として領域分割して出力する領域分割
手段と、交点検出手段の位置出力と角度出力と領域分割
手段の出力とを入力とし、交点検出手段の位置出力と角
度出力を基に、領域分割手段の出力する領域相互間の遠
近関係を推測し出力とする推測手段とを備える。
In order to solve the above problems, the present invention is an image for generating a three-dimensional data by extracting a perspective relationship between a plurality of objects from a two-dimensional image having no distance information in the depth direction. In the processing device, a frame buffer that stores a two-dimensional image, an image reading unit that reads and outputs the two-dimensional image from the frame buffer, and an output of the image reading unit as an input, and a contour that extracts and outputs a contour line from the input The output of the extraction means and the contour extraction means is used as an input, and the coordinates at which the input contour lines intersect in a T-shape are output as a position, and the T-shape formed by the intersecting contour lines rotates about the depth direction. An intersection point detecting means for outputting an angle as an angle output, an output of the image reading means and an output of the contour extracting means as inputs, and the output of the image reading means as a boundary between the contour lines output by the contour extracting means. Then, the area dividing means for dividing and outputting the area, the position output, the angle output of the intersection detecting means, and the output of the area dividing means are input, and the area dividing means outputs the position output and the angle output of the intersection detecting means. The estimation means estimates the perspective relationship between the regions to be output and outputs it.

【0007】本発明は上記した構成によって、まず画像
読み出し手段がフレームバッファから処理画像を読み出
し出力する。輪郭抽出手段は画像読み出し手段の出力か
ら輪郭を抽出し出力する。領域分割手段は輪郭抽出手段
の出力する輪郭線を境界として画像を領域分割し出力す
る。交点検出手段は輪郭抽出手段の出力から輪郭がT字
に交わっている部分を検出し、検出したT字の位置と傾
きをそれぞれ位置出力と角度出力とする。第1の推測手
段は交点検出手段の位置出力と角度出力から領域分割出
力の出力する領域相互間の遠近関係を推測し出力する。
According to the present invention, the image reading means first reads the processed image from the frame buffer and outputs the processed image. The contour extracting means extracts a contour from the output of the image reading means and outputs it. The area dividing means divides the image into areas by using the contour line output from the contour extracting means as a boundary and outputs the image. The intersection point detecting means detects the portion where the contour intersects the T-shape from the output of the contour extracting means, and the detected position and inclination of the T-shape are used as the position output and the angle output, respectively. The first estimating means estimates and outputs the perspective relationship between the areas output by the area division output from the position output and the angle output of the intersection detecting means.

【0008】本発明では、視点近くにある物体が遠方に
ある物体を遮る場合に生じる輪郭線の形状に注視するこ
とによって、2次元画像から物体の奥行きを推測し3次
元データを生成することができる。
According to the present invention, the depth of an object can be estimated from a two-dimensional image to generate three-dimensional data by paying attention to the shape of a contour line generated when an object near the viewpoint blocks an object at a distance. it can.

【0009】第2の発明では、生成する3次元データの
精度を上げるため、微小領域ごとの模様の細かさを元に
算出した微小領域の視点からの相対距離を用いる。
In the second invention, in order to improve the accuracy of the generated three-dimensional data, the relative distance from the viewpoint of the micro area calculated based on the fineness of the pattern for each micro area is used.

【0010】第3の発明では、精度向上に輪郭線の密度
から求めた視点からの相対距離を用いる。模様の細かさ
を直接扱うと処理量が増大するため、輪郭線の密度で模
様の細かさを代用することにより、3次元データの精度
を向上しつつ処理量の増大を抑えた画像処理装置を実現
することが可能となる。
In the third invention, the relative distance from the viewpoint obtained from the density of the contour line is used to improve the accuracy. Since the amount of processing increases if the fineness of the pattern is directly handled, by substituting the fineness of the pattern with the density of the contour line, an image processing apparatus that improves the accuracy of three-dimensional data and suppresses the increase in the amount of processing is provided. It can be realized.

【0011】[0011]

【発明の実施の形態】以下、本発明の一実施例の画像処
理装置について、図面を参照しながら説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An image processing apparatus according to an embodiment of the present invention will be described below with reference to the drawings.

【0012】(実施の形態1)図1は本発明の第1の実
施例における画像処理装置のブロック図である。
(First Embodiment) FIG. 1 is a block diagram of an image processing apparatus according to a first embodiment of the present invention.

【0013】図1において、1は被処理画像が格納され
ているフレームバッファである。2はフレームバッファ
1から被処理画像を読み出し、画像出力とする読み出し
手段である。3は読み出し手段2の画像出力を入力と
し、入力から輪郭線を抽出して輪郭出力とする輪郭抽出
手段である。4は輪郭抽出手段3の輪郭出力を入力と
し、入力の輪郭線同士がT字型に交わっている座標と交
わる角度を検出して座標を位置出力、角度を角度出力と
する交点検出手段である。5は輪郭抽出手段3の輪郭出
力とを入力とし、輪郭抽出手段3の輪郭出力を境界とし
て画像を領域分割し領域出力とする領域分割手段であ
る。6は交点検出手段4の位置出力と角度出力と領域分
割手段5の領域出力とを入力とし、交点検出手段4の位
置出力と角度出力から領域分割手段5の出力する分割さ
れた領域相互間の遠近関係を推測し第1の推測出力とす
る第1の推測手段である。
In FIG. 1, reference numeral 1 is a frame buffer in which an image to be processed is stored. Reference numeral 2 is a reading means for reading the image to be processed from the frame buffer 1 and outputting the image. Reference numeral 3 is a contour extracting means that receives the image output of the reading means 2 and extracts a contour line from the input to output the contour. Reference numeral 4 denotes an intersection point detecting means which receives the contour output of the contour extracting means 3 as an input, detects an angle at which the input contour lines intersect with a coordinate at which they intersect in a T-shape, and outputs the coordinate as a position and the angle as an angle output. . Reference numeral 5 denotes a region dividing unit which receives the contour output of the contour extracting unit 3 as an input and divides the image into regions by using the contour output of the contour extracting unit 3 as a boundary and outputs the region. 6 receives the position output and the angle output of the intersection point detecting means 4 and the area output of the area dividing means 5 and inputs the position output and the angle output of the intersection point detecting means 4 between the divided areas output by the area dividing means 5. It is a first estimating means for estimating a perspective relationship and producing a first estimation output.

【0014】以上のように構成された画像処理装置につ
いて、以下図1を用いてその動作を説明する。ただし、
ここでは被処理画像を図4に示した画像とする。図5は
本実施例による画像処理過程の各部の出力である。
The operation of the image processing apparatus configured as described above will be described below with reference to FIG. However,
Here, the image to be processed is the image shown in FIG. FIG. 5 shows the output of each unit in the image processing process according to this embodiment.

【0015】まずフレームバッファ1から読み出し手段
2が被処理画像を読み出し、画像出力(図4参照)とす
る。
First, the reading means 2 reads the image to be processed from the frame buffer 1 and outputs it as an image (see FIG. 4).

【0016】輪郭抽出手段3は読み出し手段2の画像出
力から輪郭線を抽出して輪郭出力(図5(a)参照)とす
る。
The contour extracting means 3 extracts a contour line from the image output of the reading means 2 and uses it as a contour output (see FIG. 5 (a)).

【0017】次に交点検出手段4は輪郭抽出手段3の輪
郭出力から輪郭線がT字型に交わっている部分を検出
し、交点の座標とT字が奥行き方向を回転軸としてどれ
だけ回転しているかを出力する。例えば交点のxy座標
を(100,50)、T字の回転を反時計回り方向に45°である
とすると、交点検出手段4の位置出力は(100,50)、角度
出力は45°となる。交点検出手段4の交点検出は入力の
全領域について行い、本実施例の被処理画像の場合、位
置出力(100,50),角度出力45°と、位置出力(100,150),
角度出力-45°の2組(図5(b)参照)が交点検出手段4
の出力となる。
Next, the intersection detecting means 4 detects a portion where the contour lines intersect in a T-shape from the contour output of the contour extracting means 3, and the coordinate of the intersection and the T-shape rotate about the depth direction as a rotation axis. Is output. For example, if the xy coordinate of the intersection is (100,50) and the rotation of the T-shape is 45 ° in the counterclockwise direction, the position output of the intersection detection means 4 is (100,50) and the angle output is 45 °. . The intersection detection of the intersection detection means 4 is performed for the entire input area, and in the case of the image to be processed of this embodiment, position output (100, 50), angle output 45 °, position output (100, 150),
Two sets of angle output -45 ° (see FIG. 5 (b)) are the intersection point detecting means 4.
Output.

【0018】領域分割手段5は、輪郭抽出手段3の輪郭
出力を境界として画像を領域分割する。本実施例の被処
理画像の場合、画像出力は三つの領域に分割され領域出
力(図5(c)参照)となる。
The area dividing means 5 divides the image into areas by using the contour output of the contour extracting means 3 as a boundary. In the case of the image to be processed of this embodiment, the image output is divided into three areas and becomes area output (see FIG. 5 (c)).

【0019】第1の奥行き推測手段6は領域分割手段5
の出力する領域相互間の遠近関係を交点検出手段4の位
置出力と角度出力から推測する。本実施例の被処理画像
の場合、交点検出手段4は2組の出力を行なうため、第
1の奥行き推測手段6による推測も二回行なわれる。
The first depth estimating means 6 is the area dividing means 5.
The inferior-far relationship between the areas output by is estimated from the position output and the angle output of the intersection detecting means 4. In the case of the image to be processed according to the present embodiment, the intersection detecting means 4 outputs two sets of outputs, so that the estimation by the first depth estimating means 6 is also performed twice.

【0020】第1の奥行き推測手段6は位置出力(100,5
0),角度出力45°という入力を受け取ると、座標(100,5
0)においては右下45°から延びた輪郭線が右上がりの輪
郭線によって断ち切られていると解釈し、このことから
座標(100,50)より左上にある領域Aは領域Bおよび領域
Cを遮るような位置に存在すると推測する。つまり、領
域Aは領域Bと領域Cよりも視点に近い位置に存在する
と解釈する。
The first depth estimating means 6 outputs the position output (100, 5
0), the angle output 45 ° is received, the coordinates (100,5
In (0), it is interpreted that the contour line extending from the lower right 45 ° is cut off by the contour line rising to the right, and from this, the area A at the upper left of the coordinates (100,50) is divided into area B and area C. It is presumed that it exists in a position that blocks the light. That is, it is interpreted that the area A exists closer to the viewpoint than the areas B and C.

【0021】同様に、位置出力(100,150),角度出力-45
°という入力に対しても領域Aが領域Bおよび領域Cよ
りも近傍にあるという推測を行ない、以上二回の推測結
果に矛盾が生じないことから、領域Aが最も視点近傍に
存在するという推測結果を得、第1の推測出力とする。
Similarly, position output (100, 150), angle output-45
It is presumed that the region A is closer to the viewpoint than the region B is because the region A is nearer to the region B and the region C than the input of °. The result is obtained and used as the first guess output.

【0022】また、もし仮に複数の推測結果間で矛盾が
生じた場合には多数決判定を行ない、矛盾する推測の数
が最も少なくなるような推論結果を第1の推測出力とす
るか、あるいは矛盾する推測の数に矛盾する領域の面積
を乗じた値が最も少なくなるような推測結果を選んで第
1の奥行き推測出力とする。
Further, if a contradiction occurs between a plurality of inference results, a majority decision is made and the inference result that minimizes the number of inconsistent inferences is used as the first inference output, or The estimation result that minimizes the value obtained by multiplying the number of estimations by the area of the contradictory area is selected as the first depth estimation output.

【0023】以上のように、本実施例によれば、輪郭が
T字型に交わる位置と輪郭が形づくるT字の傾きに注目
することにより、単一の2次元画像から遠近情報を抽出
する画像処理装置を提供することが出来る。
As described above, according to the present embodiment, the image in which the perspective information is extracted from a single two-dimensional image by paying attention to the position where the contour intersects the T-shape and the inclination of the T-shape forming the contour. A processing device can be provided.

【0024】(実施の形態2)図2は本発明の第2の実
施例における画像処理装置のブロック図である。図2に
おいて図1と同一の機能を有するものには同一の符号を
付してその詳細な説明を省略する。ただし、ここでは被
処理画像を図4に示した画像とする。図6は本実施例に
よる画像処理過程の各部の出力である。
(Second Embodiment) FIG. 2 is a block diagram of an image processing apparatus according to a second embodiment of the present invention. 2, those having the same functions as those in FIG. 1 are designated by the same reference numerals, and detailed description thereof will be omitted. However, here, the image to be processed is the image shown in FIG. FIG. 6 shows the output of each unit in the image processing process according to this embodiment.

【0025】図2において、7は画像入力手段1の画像
出力を入力とし、入力を一定サイズの微小ブロックに分
割した後、微小ブロックの距離を推測して出力とする第
1の距離検出手段7である。
In FIG. 2, reference numeral 7 is a first distance detecting means 7 which receives the image output of the image input means 1, divides the input into minute blocks of a certain size, and estimates the distance of the minute blocks and outputs the estimated distance. Is.

【0026】71は入力を一定サイズの微小ブロックに
分割して第1のブロック出力(図6(d)参照)とする第
1のブロック分割手段71である。72は第1のブロッ
ク分割手段71の第1のブロック出力を入力とし、入力
されたブロックを2次元周波数変換して周波数出力とす
る周波数変換手段72である。73は周波数変換手段7
2の周波数出力を入力とし、入力の周波数分布を基に模
様の細かさを検出して検出出力(図6(e)参照)とする
模様検出手段73である。74は模様検出手段73の検
出出力を入力とし、入力された模様の細かさを基にブロ
ックの距離を算出して出力(図6(f)参照)する第1の
距離算出手段74である。
Reference numeral 71 denotes a first block dividing means 71 which divides an input into minute blocks of a certain size to obtain a first block output (see FIG. 6 (d)). Reference numeral 72 is a frequency conversion means 72 which receives the first block output of the first block dividing means 71 as an input, and performs a two-dimensional frequency conversion of the input block to generate a frequency output. 73 is frequency conversion means 7
The pattern detecting means 73 receives the frequency output of 2 as an input, detects the fineness of the pattern based on the frequency distribution of the input, and outputs the detected output (see FIG. 6E). Reference numeral 74 denotes a first distance calculation unit 74 which receives the detection output of the pattern detection unit 73 and calculates and outputs the block distance based on the fineness of the input pattern (see FIG. 6 (f)).

【0027】8は推測手段6の第1の奥行き推測出力と
第1の距離検出手段7の出力とを入力とし、両入力に対
してもっとも矛盾の少ない遠近関係の組み合わせを推測
して第2の推測出力とする第2の奥行き推測手段8であ
る。
Numeral 8 receives the first depth estimation output of the estimating means 6 and the output of the first distance detecting means 7 as inputs, and estimates the combination of the perspective relationships having the least contradiction with respect to both inputs and outputs the second. It is the second depth estimation means 8 which outputs an estimated output.

【0028】以上のように、本実施例によれば、輪郭が
T字型に交わる位置と輪郭が形づくるT字の傾きに注目
し、同時に2次元画像の小領域ごとの模様の細かさに注
目することにより、単一の2次元画像から遠近情報を精
度よく抽出する画像処理装置を提供することが出来る。
As described above, according to this embodiment, attention is paid to the position where the contour intersects the T-shape and the inclination of the T-shape forming the contour, and at the same time to the fineness of the pattern for each small area of the two-dimensional image. By doing so, it is possible to provide an image processing device that accurately extracts perspective information from a single two-dimensional image.

【0029】(実施の形態3)図3は本発明の第3の実
施例における画像処理装置のブロック図である。図3に
おいて図1と同一の機能を有するものには同一の符号を
付してその詳細な説明を省略する。ただし、ここでは被
処理画像を図4に示した画像とする。図7は本実施例に
よる画像処理過程の各部の出力である。
(Third Embodiment) FIG. 3 is a block diagram of an image processing apparatus according to a third embodiment of the present invention. In FIG. 3, those having the same functions as those in FIG. 1 are designated by the same reference numerals, and detailed description thereof will be omitted. However, here, the image to be processed is the image shown in FIG. FIG. 7 shows the output of each unit in the image processing process according to this embodiment.

【0030】図3において、9は輪郭抽出手段2の輪郭
出力を入力とし、入力を一定サイズの微小ブロックに分
割した後微小ブロックの距離を推測して出力とする第2
の距離検出手段9である。
In FIG. 3, reference numeral 9 designates the contour output of the contour extracting means 2 as an input, and after dividing the input into minute blocks of a certain size, estimates the distance of the minute blocks and outputs the second.
The distance detecting means 9 of FIG.

【0031】91は入力を一定サイズの微小ブロックに
分割して第2のブロック出力(図7(d)参照)とする第
2のブロック分割手段91である。92は第2のブロッ
ク分割手段92の第2のブロック出力を入力とし、入力
されたブロック内の輪郭の密度を検出して密度出力(図
7(e)参照)とする密度検出検出手段92である。93
は密度検出手段92の密度出力を入力とし、入力を基に
ブロックの距離を推測して出力(図7(f)参照)とする
第2の距離算出手段93である。
Reference numeral 91 is a second block dividing means 91 for dividing an input into minute blocks of a fixed size to obtain a second block output (see FIG. 7 (d)). Reference numeral 92 denotes a density detection / detection unit 92 which receives the second block output of the second block dividing unit 92 as an input, detects the density of the contours in the input block and outputs the density as a density output (see FIG. 7 (e)). is there. 93
Is a second distance calculating means 93 which receives the density output of the density detecting means 92, estimates the distance of the block based on the input, and outputs the estimated distance (see FIG. 7 (f)).

【0032】10は第1の推測手段6の第1の奥行き推
測出力と第2の距離検出手段9の出力とを入力とし、両
入力に対してもっとも矛盾の少ない遠近関係の組み合わ
せを推測して推測出力とする第3の奥行き推測手段10
である。
Numeral 10 receives the first depth estimation output of the first estimation means 6 and the output of the second distance detection means 9 as inputs, and estimates a combination of perspective relations having the least contradiction for both inputs. Third depth estimation means 10 for estimating output
It is.

【0033】図2と異なるのは、距離の推測に模様の細
かさを周波数変換したものを用いる代わりに、輪郭の密
度を検出したものを用いたことである。これにより検出
手段の構造を簡略化すると共に検出速度の高速化を実現
する。
The difference from FIG. 2 is that instead of using the frequency conversion of the fineness of the pattern for estimating the distance, the detection of the contour density is used. As a result, the structure of the detection means is simplified and the detection speed is increased.

【0034】[0034]

【発明の効果】以上のように、本発明は画像から輪郭線
を抽出して、輪郭線がT字型に交わる部分を基に輪郭線
で区切られた領域相互の前後関係を推測する手段を設け
ることにより、何ら特別な撮影装置や撮影テクニックに
頼ることなく単一の2次元画像から3次元データを生成
する画像処理装置を提供することができる。
As described above, the present invention provides means for extracting a contour line from an image and estimating the front-rear relationship between regions separated by the contour line based on the portion where the contour line intersects in a T shape. By providing the image processing apparatus, it is possible to provide an image processing apparatus that generates three-dimensional data from a single two-dimensional image without relying on any special photographing apparatus or photographing technique.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例における画像処理装置の
ブロック図
FIG. 1 is a block diagram of an image processing apparatus according to a first embodiment of the present invention.

【図2】本発明の第2の実施例における画像処理装置の
ブロック図
FIG. 2 is a block diagram of an image processing apparatus according to a second embodiment of the present invention.

【図3】本発明の第3の実施例における画像処理装置の
ブロック図
FIG. 3 is a block diagram of an image processing apparatus according to a third embodiment of the present invention.

【図4】本発明の第1の実施例の説明のための被処理画
像を示す図
FIG. 4 is a diagram showing an image to be processed for explaining the first embodiment of the present invention.

【図5】本発明の第1の実施例による画像処理過程の出
力図
FIG. 5 is an output diagram of an image processing process according to the first embodiment of the present invention.

【図6】本発明の第2の実施例による画像処理過程の出
力図
FIG. 6 is an output diagram of an image processing process according to the second embodiment of the present invention.

【図7】本発明の第3の実施例による画像処理過程の出
力図
FIG. 7 is an output diagram of an image processing process according to a third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 フレームバッファ 2 画像読み出し手段 3 輪郭抽出手段 4 交点検出手段 5 領域分割手段 6 第1の奥行き情報推測手段 7 第1の距離検出手段 71 第1のブロック分割手段 72 周波数変換手段 73 模様検出手段 74 第1の距離算出手段 8 第2の奥行き情報推測手段 9 第2の距離検出手段 91 第2のブロック分割手段 92 密度検出手段 93 第2の距離算出手段 10 第3の奥行き情報推測手段 1 frame buffer 2 image reading means 3 contour extracting means 4 intersection detecting means 5 area dividing means 6 first depth information estimating means 7 first distance detecting means 71 first block dividing means 72 frequency converting means 73 pattern detecting means 74 First distance calculating means 8 Second depth information estimating means 9 Second distance detecting means 91 Second block dividing means 92 Density detecting means 93 Second distance calculating means 10 Third depth information estimating means

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】奥行き方向の距離情報を持たない2次元画
像から複数の物体間の遠近関係を抽出し3次元データを
生成する画像処理装置において、 2次元画像を格納するフレームバッファと、 前記フレームバッファから画像を読み出し出力する画像
読み出し手段と、 前記画像読み出し手段の出力を入力とし、前記画像読み
出し手段の出力から輪郭線を抽出して出力とする輪郭抽
出手段と、 前記輪郭抽出手段の出力を入力とし、前記輪郭抽出手段
の出力から輪郭線同士がT字型に交わっている部分を検
出し交わっている座標を位置出力、交わっている輪郭線
が形成するT字が奥行き方向を軸に傾いている角度を角
度出力とする交点検出手段と、 前記輪郭抽出手段の出力を入力とし、前記輪郭抽出手段
の出力を境界として輪郭線画像を複数の領域に分割して
出力する領域分割手段と、 前記交点検出手段の位置出力と角度出力と前記領域分割
手段の出力とを入力とし、前記交点検出手段の位置出力
と角度出力を基に領域分割手段が出力する複数の領域相
互間の遠近関係を推測しこれを奥行きデータとして第1
の推測出力とする第1の奥行き推測手段とを備えたこと
を特徴とする画像処理装置。
1. An image processing apparatus for generating a three-dimensional data by extracting a perspective relationship between a plurality of objects from a two-dimensional image having no distance information in the depth direction; a frame buffer for storing the two-dimensional image; An image reading means for reading and outputting an image from a buffer; a contour extracting means for inputting the output of the image reading means and extracting a contour line from the output of the image reading means for output; and an output of the contour extracting means. From the output of the contour extracting means, the portion where the contour lines intersect in a T-shape is detected from the output of the contour extraction device, and the intersecting coordinates are output as a position. The T-shape formed by the intersecting contour lines is tilted about the depth direction. The intersection point detecting means for making the angle output as an angle output, and the output of the contour extracting means as an input, and the contour line image as a plurality of regions with the output of the contour extracting means as a boundary. Area dividing means for dividing and outputting, and the position output and angle output of the intersection point detecting means and the output of the area dividing means as input, and the area dividing means based on the position output and angle output of the intersection point detecting means Estimate the perspective relationship between multiple output regions and use this as depth data.
An image processing apparatus, comprising:
【請求項2】前記画像読み出し手段の出力を入力とし、
前記画像読み出し手段の出力を一定サイズのブロックに
分割して出力とする第1のブロック分割手段と、 前記第1のブロック分割手段の出力を入力とし、前記第
1のブロック分割手段の出力をブロック毎に2次元周波
数変換して出力とする周波数変換手段と、 前記周波数変換手段の出力を入力とし、前記周波数変換
手段の出力からブロック毎の模様の細かさを検出し出力
とする模様検出手段と、 前記模様検出手段の出力を入力とし、模様の細かいブロ
ックほど遠方にあるという仮定の下に前記模様検出手段
の出力からブロック毎の奥行き方向の距離を算出して出
力とする第1の距離算出手段と、 前記第1の推測手段の第1の推測出力と前記第1の距離
算出手段の出力とを入力とし、前記第1の推測手段の第
1の推測出力と前記第1の距離算出手段の出力の間に矛
盾がない場合は前記第1の距離算出手段の出力をそのま
ま第2の推測出力とし、矛盾がある場合には矛盾箇所に
対して前記第1の距離算出手段の出力を基準にしてもっ
とも矛盾が少なくなる遠近関係の組合せを第2の推測出
力とする第2の推測手段とを備えたことを特徴とする請
求項1記載の画像処理装置。
2. The input of the output of the image reading means,
A first block dividing unit that divides the output of the image reading unit into blocks of a certain size for output, and an output of the first block dividing unit as an input, and an output of the first block dividing unit as a block Frequency conversion means for performing two-dimensional frequency conversion for each output and pattern detection means for receiving the output of the frequency conversion means as input and detecting the fineness of the pattern for each block from the output of the frequency conversion means for output A first distance calculation in which the output of the pattern detection means is input, and the distance in the depth direction for each block is calculated and output from the output of the pattern detection means under the assumption that the finer the pattern is, the farther away it is. Means, the first estimation output of the first estimation means and the output of the first distance calculation means, and the first estimation output of the first estimation means and the first distance calculation. When there is no contradiction between the outputs of the output means, the output of the first distance calculation means is directly used as the second estimated output, and when there is a contradiction, the output of the first distance calculation means with respect to the contradiction point. 2. The image processing apparatus according to claim 1, further comprising: a second estimation unit that outputs a second estimation output that is a combination of perspective relations with which the contradiction is minimized.
【請求項3】前記輪郭抽出手段の出力を入力とし、前記
輪郭抽出手段の出力を一定サイズのブロックに分割して
出力とする第2のブロック分割手段と、 前記第2のブロック分割手段の出力を入力とし、前記第
2のブロック分割手段の出力するブロック内の輪郭線の
密度を検出し出力とする密度検出手段と、 前記密度検出手段の出力を入力とし、輪郭線の密度が高
いブロックほど遠方にあるという仮定の下に前記密度検
出手段の出力からブロックの奥行き方向の距離を算出し
て出力とする第2の距離算出手段と、 前記第1の推測手段の第1の推測出力と前記第2の距離
算出手段の出力とを入力とし、前記第1の推測手段の第
1の推測出力と前記第2の距離算出手段の出力の間に矛
盾がない場合には前記第2の距離算出手段の出力をその
まま第3の推測出力とし、矛盾がある場合には矛盾箇所
に対して前記第2の距離算出手段の出力を基準にしても
っとも矛盾が少なくなる遠近関係の組合せを第3の推測
出力とする第3の推測手段とを備えたことを特徴とする
請求項1記載の画像処理装置。
3. A second block division means for receiving the output of the contour extraction means as an input and dividing the output of the contour extraction means into blocks of a certain size for output, and an output of the second block division means. , The density detection means for detecting and outputting the density of the contour line in the block output by the second block dividing means, and the output of the density detection means as an input, Second distance calculating means for calculating and outputting a distance in the depth direction of the block from the output of the density detecting means under the assumption of being distant, a first estimated output of the first estimating means, and the above When the output of the second distance calculation means is input, and there is no contradiction between the first estimated output of the first estimation means and the output of the second distance calculation means, the second distance calculation is performed. The output of the means as it is 3rd inference, and if there is a contradiction, the combination of the perspective relations with which the contradiction is the smallest with respect to the output of the second distance calculation means is used as the 3rd inference output for the inconsistent part. The image processing apparatus according to claim 1, further comprising:
JP7315051A 1995-12-04 1995-12-04 Picture processor Pending JPH09161074A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7315051A JPH09161074A (en) 1995-12-04 1995-12-04 Picture processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7315051A JPH09161074A (en) 1995-12-04 1995-12-04 Picture processor

Publications (1)

Publication Number Publication Date
JPH09161074A true JPH09161074A (en) 1997-06-20

Family

ID=18060850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7315051A Pending JPH09161074A (en) 1995-12-04 1995-12-04 Picture processor

Country Status (1)

Country Link
JP (1) JPH09161074A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004521405A (en) * 2000-08-04 2004-07-15 パルセント コーポレイション Method for determining relative z-ordering in an image, and use of relative z-ordering
KR100461339B1 (en) * 2002-05-14 2004-12-10 주식회사 포디컬쳐 Device and Method for transmitting picture data
JP2008286692A (en) * 2007-05-18 2008-11-27 Mega Trade:Kk Visual inspection system
WO2010113859A1 (en) 2009-03-31 2010-10-07 シャープ株式会社 Video processing device, video processing method, and computer program
EP2469870A2 (en) 2010-12-27 2012-06-27 Sony Corporation Image processing device, image processing method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004521405A (en) * 2000-08-04 2004-07-15 パルセント コーポレイション Method for determining relative z-ordering in an image, and use of relative z-ordering
JP4698926B2 (en) * 2000-08-04 2011-06-08 アルテラ コーポレイション Method for determining relative z-ordering in an image and method of using relative z-ordering
KR100461339B1 (en) * 2002-05-14 2004-12-10 주식회사 포디컬쳐 Device and Method for transmitting picture data
JP2008286692A (en) * 2007-05-18 2008-11-27 Mega Trade:Kk Visual inspection system
WO2010113859A1 (en) 2009-03-31 2010-10-07 シャープ株式会社 Video processing device, video processing method, and computer program
EP2469870A2 (en) 2010-12-27 2012-06-27 Sony Corporation Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
EP1072014B1 (en) Face recognition from video images
KR100748719B1 (en) Apparatus and method for 3-dimensional modeling using multiple stereo cameras
US10080007B2 (en) Hybrid tiling strategy for semi-global matching stereo hardware acceleration
US20230394834A1 (en) Method, system and computer readable media for object detection coverage estimation
KR20160081775A (en) Method and apparatus for generating three dimension image
CN116168143A (en) Multi-view three-dimensional reconstruction method
JP2004030461A (en) Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon
JP2004069583A (en) Image processing device
JPH09161074A (en) Picture processor
JPH0991436A (en) Image processing method and device therefor
EP1580684B1 (en) Face recognition from video images
JPH1023311A (en) Image information input method and device therefor
JP2941139B2 (en) Parallax image creation method and device
JPH09231369A (en) Picture information input device
JP7170052B2 (en) 3D image generation device, 3D image generation method, and program
JPH09231370A (en) Picture information input device
EP3588437B1 (en) Apparatus that generates three-dimensional shape data, method and program
JP2888108B2 (en) Parallax image creation method and device
JP6838912B2 (en) Image processing equipment, image processing methods and programs
JPH09229648A (en) Input/output method and device for image information
JP2870465B2 (en) Three-dimensional reference image clipping method and device, and object determination device
JPH09231371A (en) Picture information input device and its method
JPH09187037A (en) Image processor
JP6344903B2 (en) Image processing apparatus, control method therefor, imaging apparatus, and program
JP3451316B2 (en) Method and apparatus for generating three-dimensional model based on stereo image