JP2001005978A - Device and method for extracting object, and program providing medium - Google Patents

Device and method for extracting object, and program providing medium

Info

Publication number
JP2001005978A
JP2001005978A JP11172093A JP17209399A JP2001005978A JP 2001005978 A JP2001005978 A JP 2001005978A JP 11172093 A JP11172093 A JP 11172093A JP 17209399 A JP17209399 A JP 17209399A JP 2001005978 A JP2001005978 A JP 2001005978A
Authority
JP
Japan
Prior art keywords
point
measurement point
adjacent
points
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11172093A
Other languages
Japanese (ja)
Inventor
Teruyuki Ushiro
輝行 後
Nobuyuki Matsushita
伸行 松下
Ikoku Go
偉国 呉
Takayuki Ashigahara
隆之 芦ヶ原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11172093A priority Critical patent/JP2001005978A/en
Publication of JP2001005978A publication Critical patent/JP2001005978A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make easily extractable an object by discriminating that mutually adjacent measuring points are in exitence in a continuous surface area based on judgment that the distance between two points is smaller than a threshold value. SOLUTION: A continuous surface extracting part 401 scans the surface of a distance picture data displaying screen and obtains distance information of each element to execute judging and labeling of a continuous surface. Each pixel position is shown as coordinate points. The part 401 compares a distance between adjacent measuring points with a predetermined threshold value and when the distance is smaller than the threshold value, judges that the measuring point and its left adjacent measuring point are a continuous surface. An objective area selecting part 402 transforms labeling data to a distance picture to display it and executes the selecting processing of the object area. By presenting the picture obtained by transforming the labeling data to the distance picture, an operator easily selects the area of the same labeling to extract the object.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、物体抽出装置、物
体抽出方法、および物体抽出方法を記録したプログラム
提供媒体に関する。特に三次元空間上である距離範囲に
存在する物体を他の物体、背景と切り離して領域分けを
行ない抽出することを可能とした物体抽出装置、物体抽
出方法、および物体抽出方法を記録したプログラム提供
媒体に関する。
The present invention relates to an object extracting apparatus, an object extracting method, and a program providing medium recording the object extracting method. In particular, an object extraction device, an object extraction method, and a program recording an object extraction method that enable an object existing in a certain distance range in a three-dimensional space to be separated and extracted from other objects and the background and to perform extraction. Regarding the medium.

【0002】[0002]

【従来の技術】物体の三次元形状を求める従来手法とし
て、大きく分けて能動的手法(アクティブ手法)と受動
的手法(パッシブ手法)がある。能動的手法としては、
光を投射して、その光が反射して帰ってくるまでの時間
を測定することで各測定対象物体までの距離を求める方
法や、測定対象にスリット状のパターン光をあてて測定
対象に投影されたパターン光の形状を調べることによっ
て三次元形状を計測する光切断法といった方法がある。
2. Description of the Related Art Conventional methods for obtaining a three-dimensional shape of an object are roughly classified into an active method (active method) and a passive method (passive method). As an active method,
A method of calculating the distance to each measurement object by projecting light and measuring the time until the light is reflected back, or applying a slit-shaped pattern light to the measurement object and projecting it on the measurement object There is a method such as a light-section method for measuring a three-dimensional shape by examining the shape of the patterned light.

【0003】また、受動的手法として代表的なものは、
三角測量の原理を利用したステレオ画像法であり、これ
は2台以上のカメラを使って、その画像間の対応点を見
つけることで視差を求め、距離を計測する方法である。
ステレオ法については、例えば、「ミノルタ 非接触三
次元形状入力機VIVID 700」、計測と制御、V
OL.36,No.12;PAGE.910−911;
1997、あるいは、金出、中原、奥富「マルチベース
ラインステレオ法による三次元計測」、画像ラボ、pp
53−57に記載されている。
[0003] A typical passive method is as follows.
This is a stereo image method that uses the principle of triangulation, and is a method of measuring a distance by using two or more cameras to find a corresponding point between the images to obtain parallax.
For the stereo method, for example, “Minolta non-contact three-dimensional shape input device VIVID 700”, measurement and control, V
OL. 36, no. 12; PAGE. 910-911;
1997 or Kanade, Nakahara, Okutomi "Three-dimensional measurement by multi-baseline stereo method", Image Lab, pp
53-57.

【0004】以上のような三次元センサで計測された三
次元形状をモデリング等の用途に利用するためには、計
測した三次元情報から対象物体の領域だけを背景、その
他の物体から切り出す、すなわち物体抽出を行なうこと
が必要となる。従来、この物体抽出方法としては、距離
情報を二次元の距離画像として扱うことで、市販の画像
編集ツールを使って距離画像の中の対象物体の領域を手
作業、例えばマウス等を用いて切り抜いたり、3D−C
Gソフトを使って手作業で不必要な部分を切り出す方法
等であり、多大な時間と労力を要する作業であった。
In order to use the three-dimensional shape measured by the three-dimensional sensor as described above for applications such as modeling, only the area of the target object is cut out from the background and other objects from the measured three-dimensional information, ie, It is necessary to perform object extraction. Conventionally, as this object extraction method, by treating the distance information as a two-dimensional distance image, a region of the target object in the distance image is manually cut out using a commercially available image editing tool, for example, cut out using a mouse or the like. Or 3D-C
This is a method of manually cutting out unnecessary portions using G software, which requires a lot of time and labor.

【0005】ここで、距離画像とは、奥行き情報を輝度
値で表現した白黒の濃淡画像である。また、これを補助
する手段としてスネークモデルによる輪郭抽出を使った
切り出し方法(Michael Kass,Andre
w Witkn and Demetri Terzo
poulos 「Snakes:Active Con
tour Models」[Internationa
l Journalof Computer visi
on,pp.321−331,1988]参照)があ
り、距離画像において、この機能を使えば作業量は若干
軽減できる。しかし、本方法においても、作業者が対象
物体の輪郭近傍を指定する作業は必須となる。すなわ
ち、図1に示すように距離画像101中に示された複数
の物体から特定の切り出し対象を選択する場合、抽出物
体102を特定するために抽出物体の輪郭近傍に囲み領
域を示す領域指定枠103を生成する作業が必要とな
る。この領域指定枠の生成作業は、対象物体が複雑であ
ったり、複数の対象物体がある場合等には、煩雑で時間
のかかる作業となってしまうという欠点があった。
[0005] Here, the distance image is a black-and-white grayscale image in which depth information is represented by a luminance value. As a means for assisting this, a clipping method using contour extraction by a snake model (Michael Kass, Andre)
w Witkn and Demeter Terzo
poulos "Snakes: Active Con
tour Models "[Internationa
l Journalnal Computer visi
on, pp. 321-331, 1988]), and using this function in a distance image can slightly reduce the amount of work. However, in the present method as well, the operation of specifying the vicinity of the contour of the target object by the operator is indispensable. That is, as shown in FIG. 1, when a specific clipping target is selected from a plurality of objects shown in the distance image 101, an area specifying frame indicating a surrounding area near the contour of the extraction object to specify the extraction object 102 An operation for generating 103 is required. The work of generating the area designation frame has a disadvantage that the work is complicated and time-consuming when the target object is complicated or when there are a plurality of target objects.

【0006】上述の方法以外の物体抽出方法としては、
距離方向の区間を区切って、その区間の対象物だけを抽
出する方法があるが、この方法においても、作業者が距
離区間の調整を行なうことが必要となり、対象物の個数
や複雑さにともなって調整作業の増大を招くことは間違
いない。
As an object extraction method other than the above-mentioned method,
There is a method of dividing a section in the distance direction and extracting only the objects in the section.However, this method also requires an operator to adjust the distance section, which increases the number and complexity of the objects. There is no doubt that the adjustment work will increase.

【0007】また、この距離区間を区切る方法では、対
象物の配置によっては、1つの対象物だけを切り出すこ
とが出来ない場合もある。この例について図2、図3を
用いて説明する。
In the method of dividing the distance section, there is a case where it is not possible to cut out only one object depending on the arrangement of the objects. This example will be described with reference to FIGS.

【0008】図2に示すように、壁203の前に2つの
計測対象として、計測対象1,201、計測対象2,2
02が配置された空間に、図2に示すように三次元セン
サを配置して奥行き情報を得るものとする。この三次元
センサによって得られる距離画像を図3の(a)に示
す。
As shown in FIG. 2, in front of a wall 203, there are two measurement objects, measurement objects 1,201 and measurement objects 2,2.
It is assumed that a three-dimensional sensor is arranged in the space where 02 is arranged as shown in FIG. 2 to obtain depth information. FIG. 3A shows a distance image obtained by the three-dimensional sensor.

【0009】図3の(a)に示す距離画像から、計測対
象1,201と計測対象2,202とを切り出したい場
合には、図2に示す距離区間を、距離区間3に調整する
ことによって、切り出すことができる。しかしながら、
ここから計測対象1だけを切り出したいとき、図2の距
離区間を距離区間1に設定した場合の距離画像は図3の
(b)のようになり、計測対象1,201の一部しか得
ることができない。また、図2の距離区間を距離区間2
に設定した場合の距離画像は図3の(c)のようにな
り、計測対象1,201だけでなく、計測対象2,20
2の一部も一緒に切り出す結果となる。図2の距離区間
を距離区間3に設定した場合の距離画像は図3の(d)
のようになり、計測対象1,201、計測対象2,20
2が一緒に切り出される。
When it is desired to cut out the measurement objects 1,201 and 2,202 from the distance image shown in FIG. 3A, the distance section shown in FIG. Can be cut out. However,
When it is desired to cut out only the measurement target 1 from here, the distance image when the distance section in FIG. 2 is set to the distance section 1 is as shown in FIG. Can not. In addition, the distance section in FIG.
3C is as shown in FIG. 3C, and not only the measurement targets 1, 201 but also the measurement targets 2, 20
As a result, a part of 2 is also cut out together. The distance image when the distance section of FIG. 2 is set to the distance section 3 is (d) of FIG.
, Measurement objects 1,201, measurement objects 2,20
2 are cut out together.

【0010】[0010]

【発明が解決しようとする課題】上述のように、従来の
物体抽出手法においては、例えば計測した三次元情報に
基づく距離画像において画像編集ツールを使用して対象
物体を抽出する場合、対象物体領域の切り抜き作業がマ
ウス等を用いた手作業となり、多大な時間と労力を要す
る結果を招いていた。また、距離方向の区間を区切っ
て、その区間の対象物だけを抽出する方法においても、
作業者が距離区間の調整を行なうことが必要となり、対
象物の個数や複雑さにともなって最適な距離区間の設定
作業が複雑化し調整作業の増大を招いていた。
As described above, in the conventional object extraction method, for example, when a target object is extracted by using an image editing tool in a distance image based on measured three-dimensional information, a target object area is extracted. Is a manual operation using a mouse or the like, resulting in a result requiring a lot of time and labor. Also, in a method of dividing a section in the distance direction and extracting only an object in the section,
It is necessary for the operator to adjust the distance section, and the setting work of the optimum distance section becomes complicated according to the number and complexity of the objects, resulting in an increase in the adjustment work.

【0011】本発明は、上述の如き従来の物体抽出方法
の欠点に鑑みてなされたものであり、三次元センサから
得られた三次元情報から対象物を効率的に切り出すため
の物体抽出装置、物体抽出方法、およびプログラム提供
媒体を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned drawbacks of the conventional object extraction method, and has an object extraction apparatus for efficiently extracting an object from three-dimensional information obtained from a three-dimensional sensor. It is an object to provide an object extraction method and a program providing medium.

【0012】本発明は、三次元センサから得られた三次
元情報から、三次元空間上においてある距離範囲、例え
ば閾値以下の距離に存在する計測点同士を連続である面
として識別することにより三次元情報を表示した例えば
距離画像を領域分けし、その識別された連続面領域のう
ち、1つまたは複数の面を選択し、それ以外の面領域を
削除することによって容易に物体抽出が実行可能な物体
抽出装置、物体抽出方法、およびプログラム提供媒体を
提供することを目的とする。
According to the present invention, three-dimensional information is obtained from a three-dimensional sensor by identifying measurement points existing within a certain distance range, for example, a distance equal to or less than a threshold in a three-dimensional space as continuous surfaces. For example, object extraction can be easily performed by dividing the range image that displays the original information into regions, selecting one or more surfaces from the identified continuous surface regions, and deleting the other surface regions It is an object to provide a simple object extraction device, an object extraction method, and a program providing medium.

【0013】[0013]

【課題を解決するための手段】本発明は、上記課題を参
酌してなされたものであり、その第1の側面は、三次元
情報に基づいて、画像中から連続面領域を構成する物体
の抽出を実行する物体抽出装置において、三次元情報に
含まれる計測ポイント中の隣接する2つの計測ポイント
間の2点間距離情報を算出し、該算出した2点間距離情
報と予め定めた閾値との比較処理を実行し、前記2点間
距離情報が前記閾値より小であるとの判定に基づいて該
隣接する計測ポイント同士が連続性を有する連続面領域
であると識別する連続面抽出手段を有することを特徴と
する物体抽出装置にある。
Means for Solving the Problems The present invention has been made in consideration of the above problems, and a first aspect of the present invention is based on three-dimensional information. In the object extracting device that performs the extraction, the distance information between two points between two adjacent measurement points among the measurement points included in the three-dimensional information is calculated, and the calculated distance information between the two points and a predetermined threshold value are calculated. A continuous surface extracting means for performing the comparison process of the above, and identifying the adjacent measurement points as a continuous surface region having continuity based on the determination that the distance information between the two points is smaller than the threshold value. An object extraction device characterized by having:

【0014】さらに、本発明の物体抽出装置における一
実施態様において、前記2点間距離情報は、前記三次元
情報に基づいて得られる前記隣接する2つの計測ポイン
トの三次元座標から算出される三次元的距離であること
を特徴とする。
Further, in one embodiment of the object extracting apparatus according to the present invention, the distance information between the two points is calculated by a three-dimensional coordinate calculated from three-dimensional coordinates of the two adjacent measurement points obtained based on the three-dimensional information. It is a characteristic distance.

【0015】さらに、本発明の物体抽出装置における一
実施態様において、前記2点間距離情報は、前記三次元
情報に基づいて得られる前記隣接する2つの計測ポイン
トの三次元座標から算出されるZ軸方向の距離である奥
行き方向距離であることを特徴とする。
Further, in one embodiment of the object extracting apparatus according to the present invention, the distance information between the two points is calculated from three-dimensional coordinates of the two adjacent measurement points obtained based on the three-dimensional information. It is a depth direction distance that is an axial distance.

【0016】さらに、本発明の物体抽出装置における一
実施態様において、前記連続面抽出手段は、異なる連続
面領域を識別するラベルを前記計測ポイントに対応して
付与するラベリング処理を実行する構成を有し、連続性
を有する連続面領域であると識別された2つの計測ポイ
ント各々には同一のラベルを付与するラベリング処理を
実行する構成を有することを特徴とする。
Further, in one embodiment of the object extracting apparatus of the present invention, the continuous surface extracting means has a configuration for executing a labeling process for giving a label for identifying a different continuous surface region to the measurement point. In addition, a feature is provided in which a labeling process for giving the same label to each of two measurement points identified as a continuous surface region having continuity is performed.

【0017】さらに、本発明の物体抽出装置における一
実施態様において、前記画像は、三次元情報に基づいて
得られる距離画像であり、前記連続面抽出手段は、前記
距離画像に含まれる計測ポイントについて、該計測ポイ
ントと上方向に隣接する上方隣接計測ポイントとの2点
間距離情報DUと前記閾値との比較処理に基づいて該計
測ポイントと上方隣接計測ポイントとの連続性を判定す
るとともに、該計測ポイントと左方向に隣接する左方隣
接計測ポイントとの2点間距離情報DLと前記閾値との
比較処理に基づいて該計測ポイントと左方隣接計測ポイ
ントとの連続性を判定し、前記2点間距離情報DL、D
Uのいずれか一方のみが前記閾値より小である場合は、
該閾値より小の隣接計測ポイントと同一ラベルを前記計
測ポイントのラベルとして付与し、前記2点間距離情報
DL、DUのいずれもが前記閾値より小でない場合は、
新たなラベルを前記計測ポイントのラベルとして付与
し、前記2点間距離情報DL、DUがいずれも前記閾値
より小である場合は、前記上方向、左方向の識別ラベル
のいずれか一方のラベルを選択ラベルとし、前記計測ポ
イントのラベルとして付与するとともに、前記選択ラベ
ルと異なる前記上方向、左方向いずれかの非選択ラベル
と同一のラベルが付与された計測ポイントのラベルを選
択ラベルに変更する処理を実行する構成を有することを
特徴とする。
Further, in one embodiment of the object extracting apparatus according to the present invention, the image is a distance image obtained based on three-dimensional information, and the continuous plane extracting means is provided for measuring points included in the distance image. Determining the continuity between the measurement point and the upper adjacent measurement point based on a comparison process between the two points, the distance information DU between the measurement point and the upper adjacent measurement point adjacent in the upward direction, and the threshold value; The continuity between the measurement point and the left adjacent measurement point is determined based on a comparison process between the point-to-point distance information DL between the measurement point and the left adjacent measurement point adjacent to the left direction and the threshold, and Point distance information DL, D
If only one of U is smaller than the threshold,
If the same label as the adjacent measurement point smaller than the threshold is given as the label of the measurement point, and if any of the distance information between two points DL and DU is not smaller than the threshold,
A new label is given as a label of the measurement point, and when the distance information between two points DL and DU are both smaller than the threshold value, one of the identification labels in the upward direction and the left direction is replaced with the label. A process of changing the label of the measurement point to which the same label as the non-selected label in one of the upward and left directions different from the selected label is added to the selected label and the label of the measurement point is changed to the selected label. Is performed.

【0018】さらに、本発明の物体抽出装置における一
実施態様において、前記画像は、三次元情報に基づいて
得られる距離画像であり、前記連続面抽出手段は、前記
距離画像に含まれる計測ポイントについて該計測ポイン
トの上方向に隣接する上方隣接計測ポイントとの2点間
距離情報DU、該計測ポイントの左方向に隣接する上方
隣接計測ポイントとの2点間距離情報DL、該計測ポイ
ントの下方向に隣接する上方隣接計測ポイントとの2点
間距離情報DD、該計測ポイントの右方向に隣接する上
方隣接計測ポイントとの2点間距離情報DR、の各々と
前記閾値との比較処理に基づいて該計測ポイントと上下
左右4方向の各隣接計測ポイントとの連続性を判定し、
連続性有りと判定された隣接計測ポイントを次の計測ポ
イントとして、さらに上下左右4方向の各隣接計測ポイ
ントとの連続性を判定する処理を順次繰り返す4連結法
により連続面抽出を実行する構成を有することを特徴と
する。
Further, in one embodiment of the object extracting apparatus according to the present invention, the image is a distance image obtained based on three-dimensional information, and the continuous plane extracting means is provided for measuring points included in the distance image. The distance information DU between two points with the upper adjacent measurement point adjacent to the measurement point in the upper direction, the distance information DL between the two points on the upper adjacent measurement point adjacent to the measurement point in the left direction, the downward direction of the measurement point Based on comparison processing between each of the two-point distance information DD with the upper adjacent measurement point adjacent to the measurement point and the two-point distance information DR with the upper adjacent measurement point adjacent to the measurement point rightward. Determine the continuity between the measurement point and each of the adjacent measurement points in the four directions,
With the adjacent measurement point determined to have continuity as the next measurement point, a continuous plane extraction is performed by a four-connection method in which the process of determining continuity with each of the adjacent measurement points in four directions, up, down, left, and right, is sequentially repeated. It is characterized by having.

【0019】さらに、本発明の物体抽出装置における一
実施態様において、前記連続面抽出手段は、三次元情報
に基づいて得られる距離画像に含まれる計測ポイントに
ついて該計測ポイントの周囲8つの隣接計測ポイントと
の連続性を判定し、連続性有りと判定された隣接計測ポ
イントを次の計測ポイントとして、さらに周囲8つの隣
接計測ポイントとの連続性を判定する処理を順次繰り返
す8連結法により連続面抽出を実行する構成を有するこ
とを特徴とする。
Further, in one embodiment of the object extracting apparatus according to the present invention, the continuous plane extracting means comprises: for measuring points included in a distance image obtained based on three-dimensional information, eight adjacent measuring points around the measuring point; Continuity surface extraction by the 8 concatenation method that repeats the process of successively determining the continuity with the neighboring measurement points determined to be continuous as the next measurement point and successively determining the continuity with eight neighboring measurement points Is performed.

【0020】さらに、本発明の物体抽出装置における一
実施態様において、前記連続面抽出手段は、抽出対象物
体を示す画像の任意の点を前記計測ポイントの起点とし
て、順次隣接計測ポイントとの連続性を判定し連続面抽
出を実行する構成を有することを特徴とする。
Further, in one embodiment of the object extracting apparatus according to the present invention, the continuous plane extracting means sets an arbitrary point of an image representing the object to be extracted as a starting point of the measuring point, and sequentially connects the continuous point with an adjacent measuring point. And performs continuous surface extraction.

【0021】さらに、本発明の物体抽出装置における一
実施態様において、前記計測ポイントの各々は、前記画
像に含まれる画素に対応づけられ、隣接する計測ポイン
トは隣接する画素に対応するものであることを特徴とす
る。
Further, in one embodiment of the object extracting apparatus of the present invention, each of the measurement points is associated with a pixel included in the image, and an adjacent measurement point corresponds to an adjacent pixel. It is characterized by.

【0022】さらに本発明の第2の側面は、三次元情報
に基づいて、画像中から連続面領域を構成する物体の抽
出を実行する物体抽出方法において、三次元情報に含ま
れる計測ポイント中の隣接する2つの計測ポイント間の
2点間距離情報を算出する2点間距離情報算出ステップ
と、算出した2点間距離情報と予め定めた閾値との比較
処理を実行する比較処理ステップと、前記2点間距離情
報が前記閾値より小であるとの判定に基づいて該隣接す
る計測ポイント同士が連続性を有する連続面領域である
と識別する連続面領域識別ステップとを有することを特
徴とする物体抽出方法にある。
According to a second aspect of the present invention, there is provided an object extraction method for extracting an object constituting a continuous surface area from an image based on three-dimensional information. A point-to-point distance information calculating step of calculating point-to-point distance information between two adjacent measurement points; a comparing step of executing a comparison process between the calculated point-to-point distance information and a predetermined threshold; A step of identifying the adjacent measurement points as a continuous plane area having continuity based on the determination that the distance information between the two points is smaller than the threshold value. In the object extraction method.

【0023】さらに、本発明の物体抽出方法における一
実施態様において、前記2点間距離情報算出ステップに
おいて用いる2点間距離情報は、前記三次元情報に基づ
いて得られる前記隣接する2つの計測ポイントの三次元
座標から算出される三次元的距離であることを特徴とす
る。
Further, in one embodiment of the object extraction method of the present invention, the two-point distance information used in the two-point distance information calculating step is the two adjacent measurement points obtained based on the three-dimensional information. Is a three-dimensional distance calculated from the three-dimensional coordinates.

【0024】さらに、本発明の物体抽出方法における一
実施態様において、前記2点間距離情報算出ステップに
おいて用いる2点間距離情報は、前記三次元情報に基づ
いて得られる前記隣接する2つの計測ポイントの三次元
座標から算出されるZ軸方向の距離である奥行き方向距
離であることを特徴とする。
Further, in one embodiment of the object extraction method of the present invention, the distance information between two points used in the step of calculating distance information between two points is the distance between the two adjacent measurement points obtained based on the three-dimensional information. , Which is a distance in the depth direction, which is a distance in the Z-axis direction calculated from the three-dimensional coordinates.

【0025】さらに、本発明の物体抽出方法における一
実施態様において、前記物体抽出方法において、さら
に、異なる連続面領域を識別するラベルを前記計測ポイ
ントに対応して付与するラベリング処理ステップを有
し、該ラベリング処理ステップは、前記連続面領域識別
ステップにおいて連続性を有する連続面領域であると識
別された2つの計測ポイント各々に同一のラベルを付与
することを特徴とする。
Further, in one embodiment of the object extraction method of the present invention, the object extraction method further comprises a labeling processing step of giving a label for identifying a different continuous surface area to the measurement point, In the labeling processing step, the same label is assigned to each of the two measurement points identified as the continuous plane area having continuity in the continuous plane area identification step.

【0026】さらに、本発明の物体抽出方法における一
実施態様において、前記2点間距離情報算出ステップ
は、三次元情報に基づいて得られる距離画像に含まれる
計測ポイントについて計測ポイントと上方向に隣接する
上方隣接計測ポイントとの2点間距離情報DUを算出す
るステップと、該計測ポイントと左方向に隣接する左方
隣接計測ポイントとの2点間距離情報DLを算出するス
テップとを含み、前記比較処理ステップは、前記2点間
距離情報DUと前記閾値との比較処理を実行するステッ
プと、前記2点間距離情報DLと前記閾値との比較処理
を実行するステップとを含み、前記連続面領域識別ステ
ップは、前記比較処理ステップにおける比較結果に基づ
いて前記計測ポイントと左方隣接計測ポイント、および
上方隣接計測ポイントとの連続性を判定するとともに、
前記2点間距離情報DL、DUのいずれか一方のみが前
記閾値より小である場合は、該閾値より小の隣接計測ポ
イントと同一ラベルを前記計測ポイントのラベルとして
付与し、前記2点間距離情報DL、DUのいずれもが前
記閾値より小でない場合は、新たなラベルを前記計測ポ
イントのラベルとして付与し、前記2点間距離情報D
L、DUがいずれも前記閾値より小である場合は、前記
上方向、左方向の識別ラベルのいずれか一方のラベルを
選択ラベルとし、前記計測ポイントのラベルとして付与
するとともに、前記選択ラベルと異なる前記上方向、左
方向いずれかの非選択ラベルと同一のラベルが付与され
た計測ポイントのラベルを選択ラベルに変更する処理を
実行することを特徴とする。
Further, in one embodiment of the object extracting method of the present invention, the step of calculating the distance information between two points includes the step of calculating the distance between the measurement points included in the distance image obtained based on the three-dimensional information. Calculating the distance information DU between two points with the upper adjacent measurement point to be measured, and calculating the distance information DL between two points between the measurement point and the left adjacent measurement point adjacent in the left direction, The comparing step includes a step of comparing the distance information between two points DU and the threshold value, and a step of comparing the distance information between two points DL and the threshold value. The region identification step includes the measurement point, the left adjacent measurement point, and the upper adjacent measurement point based on the comparison result in the comparison processing step. With determining the continuity with,
When only one of the two-point distance information DL and DU is smaller than the threshold, the same label as an adjacent measurement point smaller than the threshold is given as the label of the measurement point, and the two-point distance is calculated. If none of the information DL and DU is smaller than the threshold value, a new label is given as the label of the measurement point, and the two-point distance information D
When both L and DU are smaller than the threshold value, any one of the identification labels in the upward direction and the left direction is used as a selection label, and the label is assigned as a label of the measurement point, and is different from the selection label. A process of changing the label of the measurement point to which the same label as the non-selected label in the upward direction or the left direction is added to the selected label is executed.

【0027】さらに、本発明の物体抽出方法における一
実施態様において、前記2点間距離情報算出ステップ
は、三次元情報に基づいて得られる距離画像に含まれる
計測ポイントについて該計測ポイントの上方向に隣接す
る上方隣接計測ポイントとの2点間距離情報DU、該計
測ポイントの左方向に隣接する上方隣接計測ポイントと
の2点間距離情報DL、該計測ポイントの下方向に隣接
する上方隣接計測ポイントとの2点間距離情報DD、該
計測ポイントの右方向に隣接する上方隣接計測ポイント
との2点間距離情報DR、を算出し、前記比較処理ステ
ップは、前記2点間距離情報算出ステップにおいて算出
された2点間距離情報DU、DL、DD、DRの各々と
前記閾値との比較処理を実行し、前記連続面領域識別ス
テップは、前記比較処理ステップにおける比較結果に基
づいて前記計測ポイントと上下左右各隣接計測ポイント
との連続性を判定し、連続性有りと判定された隣接計測
ポイントを次の計測ポイントとして、さらに上下左右4
方向の各隣接計測ポイントとの連続性を判定する処理を
順次繰り返す4連結法により連続面抽出を実行すること
を特徴とする。
Further, in one embodiment of the object extraction method of the present invention, the step of calculating the distance information between two points includes the step of calculating the distance between the measurement points included in the distance image obtained based on the three-dimensional information. Distance information DU between two points with an adjacent upper adjacent measurement point, distance information DL between two points with an upper adjacent measurement point adjacent to the left of the measurement point, and an upper adjacent measurement point adjacent below the measurement point And the two-point distance information DD with an upper adjacent measurement point adjacent to the measurement point in the right direction of the measurement point, and the comparison processing step is performed in the two-point distance information calculation step. Performing a comparison process between each of the calculated two-point distance information DU, DL, DD, and DR and the threshold value; Determining the continuity of the upper and lower left and right adjacent measuring point and the measurement point on the basis of the comparison result of physical step, the it is determined that there is continuity adjacent measuring points as the next measurement point, further vertical and horizontal 4
The method is characterized in that continuous surface extraction is performed by a four-connection method in which processing for determining continuity with each adjacent measurement point in the direction is sequentially repeated.

【0028】さらに、本発明の物体抽出方法における一
実施態様は、三次元情報に基づいて得られる距離画像に
含まれる計測ポイントについて該計測ポイントの周囲8
つの隣接計測ポイントとの連続性を判定し、連続性有り
と判定された隣接計測ポイントを次の計測ポイントとし
て、さらに周囲8つの隣接計測ポイントとの連続性を判
定する処理を順次繰り返す8連結法により連続面抽出を
実行することを特徴とする。
Further, in one embodiment of the object extraction method according to the present invention, the measurement points included in the distance image obtained based on the three-dimensional information are set to be around the measurement points.
An 8 concatenation method in which the continuity with two adjacent measurement points is determined, the adjacent measurement point determined to have continuity is set as the next measurement point, and the process of determining the continuity with eight adjacent measurement points is sequentially repeated. , The continuous plane extraction is performed by

【0029】さらに、本発明の物体抽出方法における一
実施態様において、抽出対象物体を示す画像の任意の点
を前記計測ポイントの起点として設定する起点設定ステ
ップを有し、前記2点間距離情報算出ステップは、前記
起点設定ステップにおいて設定されたポイントを最初の
計測ポイントとして、順次隣接計測ポイントとの連続性
を判定し連続面抽出を実行することを特徴とする。
Further, in one embodiment of the object extraction method of the present invention, the method further comprises a starting point setting step of setting an arbitrary point of the image showing the object to be extracted as a starting point of the measurement point, and calculating the distance information between two points. The step is characterized in that the points set in the starting point setting step are set as the first measurement points, and the continuity with the adjacent measurement points is sequentially determined to perform the continuous plane extraction.

【0030】さらに、本発明の物体抽出方法における一
実施態様において、前記計測ポイントの各々は、前記画
像に含まれる画素に対応づけられ、隣接する計測ポイン
トは隣接する画素に対応するものであることを特徴とす
る。
In one embodiment of the object extraction method according to the present invention, each of the measurement points is associated with a pixel included in the image, and an adjacent measurement point corresponds to an adjacent pixel. It is characterized by.

【0031】さらに、本発明の第3の側面は、三次元情
報に基づいて物体抽出処理を実行するための処理をコン
ピュータ・システム上で実行せしめるコンピュータ・プ
ログラムを有形的に提供するプログラム提供媒体であっ
て、前記コンピュータ・プログラムは、三次元情報に含
まれる計測ポイント中の隣接する2つの計測ポイント間
の2点間距離情報を算出する2点間距離情報算出ステッ
プと、算出した2点間距離情報と予め定めた閾値との比
較処理を実行する比較処理ステップと、前記2点間距離
情報が前記閾値より小であるとの判定に基づいて該隣接
する計測ポイント同士が連続性を有する連続面領域であ
ると識別する連続面領域識別ステップと、を有すること
を特徴とするプログラム提供媒体にある。
Further, a third aspect of the present invention is a program providing medium tangibly providing a computer program for causing a computer system to execute a process for executing an object extraction process based on three-dimensional information. The computer program further comprises: a point-to-point distance information calculating step of calculating point-to-point distance information between two adjacent measurement points among the measurement points included in the three-dimensional information; and a calculated point-to-point distance. A comparison processing step of performing comparison processing between information and a predetermined threshold value, and a continuous surface in which the adjacent measurement points have continuity based on the determination that the distance information between the two points is smaller than the threshold value. And a continuous surface area identifying step of identifying the area as an area.

【0032】本発明の第3の側面に係るプログラム提供
媒体は、例えば、様々なプログラム・コードを実行可能
な汎用コンピュータ・システムに対して、コンピュータ
・プログラムをコンピュータ可読な形式で提供する媒体
である。媒体は、CDやFD、MOなどの記憶媒体、あ
るいは、ネットワークなどの伝送媒体など、その形態は
特に限定されない。
The program providing medium according to the third aspect of the present invention is, for example, a medium for providing a computer program in a computer-readable format to a general-purpose computer system capable of executing various program codes. . The form of the medium is not particularly limited, such as a storage medium such as a CD, an FD, and an MO, and a transmission medium such as a network.

【0033】このようなプログラム提供媒体は、コンピ
ュータ・システム上で所定のコンピュータ・プログラム
の機能を実現するための、コンピュータ・プログラムと
提供媒体との構造上又は機能上の協働的関係を定義した
ものである。換言すれば、該提供媒体を介してコンピュ
ータ・プログラムをコンピュータ・システムにインスト
ールすることによって、コンピュータ・システム上では
協働的作用が発揮され、本発明の第1の側面と同様の作
用効果を得ることができるのである。
Such a program providing medium defines a structural or functional cooperative relationship between the computer program and the providing medium for realizing the functions of a predetermined computer program on a computer system. Things. In other words, by installing the computer program into the computer system via the providing medium, a cooperative operation is exerted on the computer system, and the same operation and effect as those of the first aspect of the present invention are obtained. You can do it.

【0034】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施例や添付する図面に基づくより詳
細な説明によって明らかになるであろう。
[0034] Still other objects, features and advantages of the present invention are:
It will become apparent from the following more detailed description based on the embodiments of the present invention and the accompanying drawings.

【0035】[0035]

【発明の実施の形態】本発明は、従来の物体抽出手法に
おける問題点、すなわち三次元情報に基づく距離画像に
おける対象物体領域の切り抜き作業または距離区間の調
整作業等の煩雑さを解消し効率のよい物体抽出を可能と
した物体抽出装置、物体抽出方法、およびプログラム提
供媒体であり、三次元センサから得られた三次元情報か
ら、三次元空間上である距離範囲に存在する計測点同士
を連続である面として領域分けし、その面領域のうち、
1つまたは複数の面を選択し、それ以外の面領域を削除
することによって物体抽出を行なう構成である。以下、
本発明の物体抽出装置、物体抽出方法、およびプログラ
ム提供媒体について、図面を参照しながら詳細に説明す
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention eliminates the problems of the conventional object extraction method, that is, the complexity of cutting out a target object region or adjusting a distance section in a distance image based on three-dimensional information and improving efficiency. An object extraction device, an object extraction method, and a program providing medium that enable good object extraction. The three-dimensional information obtained from a three-dimensional sensor is used to continuously connect measurement points existing in a certain distance range on a three-dimensional space. Are divided into areas as
In this configuration, an object is extracted by selecting one or a plurality of planes and deleting other plane areas. Less than,
An object extraction device, an object extraction method, and a program providing medium of the present invention will be described in detail with reference to the drawings.

【0036】[実施例1]本発明の物体抽出装置の第1
実施例は、三次元センサから得られた三次元形状データ
に基づいて、連続な面領域を識別して、連続と判定した
計測ポイントに同一ラベルを付与し、異なる面と判定し
た計測ポイントに異なるラベルを付与するラベリングを
実行し、ラベリングによって複数の面領域に分けられた
領域から作業者が1つまたは複数の対象物体を選択する
ことによって物体抽出、すなわち対象物体の切り出しを
行なう構成である。
[Embodiment 1] The first embodiment of the object extracting apparatus of the present invention
In the embodiment, based on three-dimensional shape data obtained from a three-dimensional sensor, a continuous surface area is identified, the same label is assigned to measurement points determined to be continuous, and different measurement points are determined to be different surfaces. In this configuration, labeling for giving a label is performed, and an operator selects one or a plurality of target objects from an area divided into a plurality of surface regions by the labeling, thereby extracting an object, that is, extracting the target object.

【0037】図4に本発明の物体抽出装置における第1
実施例の機能ブロック図を示す。本発明の物体抽出装置
のハードウェア構成例については図9に示し、後段で詳
細に説明する。本実施例の物体抽出装置は、図4に示す
ように連続面抽出部401、対象領域選択部402を有
する。
FIG. 4 shows a first example of the object extracting apparatus according to the present invention.
FIG. 2 shows a functional block diagram of the embodiment. FIG. 9 shows an example of a hardware configuration of the object extraction device of the present invention, which will be described later in detail. The object extracting apparatus according to the present embodiment includes a continuous plane extracting unit 401 and a target area selecting unit 402 as shown in FIG.

【0038】連続面抽出部401は、三次元センサから
得られた三次元形状データ、または距離画像を受領し、
その三次元形状データ、または距離画像から連続する面
を識別して、識別された複数の連続面領域にそれぞれ異
なるラベルを付するラベリングを実行する。
The continuous plane extracting unit 401 receives three-dimensional shape data or a distance image obtained from a three-dimensional sensor,
A continuous surface is identified from the three-dimensional shape data or the distance image, and labeling for assigning different labels to the plurality of identified continuous surface regions is executed.

【0039】なお、連続面抽出部401が受領する三次
元形状データ、または距離画像は従来技術の欄で説明し
たと同様の三次元情報データが使用可能であり、各種の
三次元形状計測方法によって得られるデータである。例
えば、三角測量の原理を利用したステレオ画像法等の受
動的手法(パッシブ手法)によって得られる三次元形状
データ、距離画像データが用いられる。
As the three-dimensional shape data or the distance image received by the continuous plane extracting unit 401, the same three-dimensional information data as described in the section of the prior art can be used. The data obtained. For example, three-dimensional shape data and range image data obtained by a passive method (passive method) such as a stereo image method using the principle of triangulation are used.

【0040】ステレオ画像法について、その原理を簡単
に説明する。ステレオ画像法は複数のカメラを用いて2
つ以上の方向(異なる視線方向)から同一対象物を撮影
して得られる複数の画像における画素同士を対応づける
ことで測定対象物の三次元空間における位置を求めよう
とするものである。例えば基準カメラと参照カメラによ
り異なる方向から同一対象物を撮影して、それぞれの画
像内の測定対象物の距離を三角測量の原理により測定す
る。
The principle of the stereo image method will be briefly described. The stereo image method uses two or more cameras.
The position of a measurement target in a three-dimensional space is to be obtained by associating pixels in a plurality of images obtained by photographing the same target from more than one direction (different line-of-sight directions). For example, the same object is photographed from different directions by the reference camera and the reference camera, and the distance between the measurement objects in each image is measured based on the principle of triangulation.

【0041】図5は、ステレオ画像法の原理を説明する
図である。基準カメラと参照カメラは異なる方向から同
一対象物を撮影する。基準カメラによって撮影された画
像中の「mb」というポイントの奥行きを求めることを
考える。
FIG. 5 is a diagram for explaining the principle of the stereo image method. The reference camera and the reference camera photograph the same object from different directions. Consider obtaining the depth of a point “mb” in an image captured by a reference camera.

【0042】基準カメラによる撮影画像注のポイント
「mb」に見える物体は、異なる方向から同一物体を撮
影している参照カメラによって撮影された画像におい
て、「m1」、「m2」、「m3」のようにある直線上
に展開されることになる。この直線をエピポーラライン
(Epipolar line)と呼ぶ。
The object seen at the point "mb" of the image taken by the reference camera is indicated by "m1,""m2," and "m3" in the image taken by the reference camera taking the same object from different directions. Will be developed on a straight line. This straight line is called an epipolar line.

【0043】基準カメラにおけるポイント「mb」の位
置は、参照カメラによる画像中では「エピポーラ・ライ
ン」と呼ばれる直線上に現れる。撮像対象となる点P
(P1,P2,P3を含む直線上に存在する点)は、基
準カメラの視線上に存在する限り、奥行きすなわち基準
カメラとの距離の大小に拘らず、基準画像上では同じ観
察点「mb」に現れる。これに対し、参照カメラによる
撮影画像上における点Pは、エピポーラ・ライン上に基
準カメラと観察点Pとの距離の大小に応じた位置にあら
われる。
The position of the point "mb" in the reference camera appears on a straight line called "epipolar line" in the image taken by the reference camera. Point P to be imaged
(Points existing on a straight line including P1, P2, and P3) are the same observation point “mb” on the reference image regardless of the depth, that is, the distance from the reference camera, as long as they are on the line of sight of the reference camera. Appears in On the other hand, the point P on the image captured by the reference camera appears on the epipolar line at a position corresponding to the magnitude of the distance between the reference camera and the observation point P.

【0044】図5には、エピポーラ・ラインと、参照画
像中における観察点「mb」の対応を図解している。同
図に示すように、観察点Pの位置がP1,P2,P3へ
と変化するに従って、参照画像中の観察点は「m1」、
「m2」、「m3」へとシフトする。
FIG. 5 illustrates the correspondence between the epipolar line and the observation point “mb” in the reference image. As shown in the figure, as the position of the observation point P changes to P1, P2, and P3, the observation point in the reference image is “m1”,
Shift to “m2” and “m3”.

【0045】以上の幾何光学的性質を利用して、観察点
「mb」をエピポーラ・ライン上で探索することによ
り、点Pの距離を同定することができる。これが「ステ
レオ画像法」の基本的原理である。このような方法で画
面上のすべての画素についての三次元情報を取得する。
取得した三次元情報は画素ごとに対応した画素属性デー
タとして使用することが可能となる。
By using the above geometrical optical properties to search for the observation point "mb" on the epipolar line, the distance of the point P can be identified. This is the basic principle of the “stereo image method”. In this way, three-dimensional information on all pixels on the screen is obtained.
The acquired three-dimensional information can be used as pixel attribute data corresponding to each pixel.

【0046】上述のステレオ画像法は1台の基準カメラ
と1台の参照カメラとを用いた構成としたが、参照カメ
ラを複数用いたマルチベースラインステレオ(Mult
iBaseline Stereo)法によって評価値
を求めて、該評価値に基づいて画素ごとの三次元情報を
取得するように構成してもよい。マルチベースラインス
テレオ画像法は、1つの基準カメラと複数の参照カメラ
によって撮影される画像を用い、複数の参照カメラ画像
それぞれについて基準カメラ画像との相関を表す評価値
を求め、それぞれの評価値を加算し、その加算値を最終
的な評価値とするものである。このマルチベースライン
ステレオ画像法の詳細は、例えば「複数の基線長を利用
したステレオマッチング」、電子情報通信学会論文誌D
−11Vol.J75−D−II No.8 pp.1
317−1327 1992年8月、に記載されてい
る。
Although the above-described stereo image method uses a single reference camera and a single reference camera, a multi-baseline stereo (Multi) using a plurality of reference cameras is used.
An evaluation value may be obtained by an iBaseline Stereo) method, and three-dimensional information for each pixel may be obtained based on the evaluation value. The multi-baseline stereo image method uses images taken by one reference camera and a plurality of reference cameras, obtains an evaluation value representing a correlation between each of the plurality of reference camera images and the reference camera image, and calculates each evaluation value. The sum is added and the sum is used as a final evaluation value. For details of the multi-baseline stereo image method, see, for example, “Stereo matching using a plurality of baseline lengths”, IEICE Transactions D
-11Vol. J75-D-II No. 8 pp. 1
317-1327, August 1992.

【0047】なお、上述のステレオ画像法は三次元情報
を取得する一つの手法にすぎず、本発明の物体抽出装置
において使用される三次元形状データ、距離情報はこの
ステレオ画像法によって取得されるデータに限らず、例
えば、物体からの光反射時間の測定、あるいは測定対象
に投影されたスリット状のパターン光の形状調査による
光切断法等によって得られるデータでもよく、各物体の
距離情報が含まれるデータであればよい。
Note that the above-described stereo image method is only one method for obtaining three-dimensional information, and three-dimensional shape data and distance information used in the object extracting apparatus of the present invention are obtained by this stereo image method. Not limited to data, for example, data obtained by measuring a light reflection time from an object, or a light cutting method by examining a shape of a slit-shaped pattern light projected on a measurement target, and may include distance information of each object. Any data that can be used.

【0048】本発明の物体抽出装置における連続面抽出
部401は、受領した三次元形状データに基づく連続面
抽出処理を行なう。この連続面抽出処理について図6を
用いて説明する。
The continuous surface extraction unit 401 in the object extraction device of the present invention performs a continuous surface extraction process based on the received three-dimensional shape data. This continuous plane extraction processing will be described with reference to FIG.

【0049】連続面抽出部401が受領する三次元形状
データは、三次元形状データを生成する際に用いられた
三次元センサから見た距離画像として表現することがで
きる。距離画像とは、表示画像上の各画素における表示
要素の三次元データを各画素に対応づけて表示した画像
データである。
The three-dimensional shape data received by the continuous plane extracting unit 401 can be expressed as a distance image viewed from the three-dimensional sensor used when generating the three-dimensional shape data. The distance image is image data in which three-dimensional data of a display element in each pixel on the display image is displayed in association with each pixel.

【0050】連続面抽出部401は、距離画像につい
て、図6(a)に示すように、距離画像データ表示画面
上を左上から右方向へスキャンし、1ラインの右端に到
達すると、次のラインのスキャンを実行し、各画素の距
離情報を取得し連続面の判定を実行するとともにラベリ
ングを実行する。各画素位置は、スキャンライン方向を
i、スキャンラインに直交する方向をjとした座標点P
(i,j)として示される。
As shown in FIG. 6A, the continuous plane extracting unit 401 scans the distance image data display screen from the upper left to the right as shown in FIG. 6A, and when the distance image reaches the right end of one line, the next line is extracted. Is performed, the distance information of each pixel is obtained, the continuous plane is determined, and the labeling is performed. Each pixel position is a coordinate point P where i is the scan line direction and j is the direction orthogonal to the scan line.
Shown as (i, j).

【0051】距離画像を三次元空間に展開したデータの
一部を図6(b)に示す。図6(b)において、距離画
像におけるある計測ポイントP(i,j)と、その左側
の隣接する計測ポイントP(i−1,j)との距離DL
を求める。計測ポイントP(ij)の三次元座標を(x
(i,j),y(i,j),z(i,j))とし、計測
ポイントP(i−1,j)の三次元座標を(x(i−
1,j),y(i−1,j),z(i−1,j))する
と、計測ポイントP(i,j)と、その左側の隣接する
計測ポイントP(i−1,j)との距離DLは、以下に
示す式(1)によって求められる。
FIG. 6B shows a part of the data obtained by developing the distance image into a three-dimensional space. In FIG. 6B, a distance DL between a certain measurement point P (i, j) in the distance image and an adjacent measurement point P (i-1, j) on the left side thereof.
Ask for. The three-dimensional coordinates of the measurement point P (ij) are represented by (x
(I, j), y (i, j), z (i, j)), and the three-dimensional coordinates of the measurement point P (i-1, j) are (x (i−
(1, j), y (i-1, j), z (i-1, j)), the measurement point P (i, j) and the adjacent measurement point P (i-1, j) on the left side thereof Is determined by the following equation (1).

【0052】[0052]

【数1】 (Equation 1)

【0053】連続面抽出部401は、上記式によって求
められた計測ポイントと左に隣接する計測ポイント間の
距離DLと予め定められた閾値THとを比較し、距離D
Lが閾値THより小さいときは、計測ポイントP(i,
j)と、その左側の隣接する計測ポイントP(i−1,
j)とは連続する面であると判定する。
The continuous plane extracting unit 401 compares the distance DL between the measurement point obtained by the above equation and the measurement point adjacent to the left with a predetermined threshold value TH, and calculates the distance D
When L is smaller than the threshold value TH, the measurement point P (i,
j) and an adjacent measurement point P (i−1,
j) is determined to be a continuous surface.

【0054】連続面抽出部401において用いられる上
記の閾値THは、例えば、三次元センサのXYZ方向の
分解能で最も大きい値を一辺とする立方体の対角線の長
さ、あるいは奥行き分解能の大きさなどを用いることが
でき、また、作業者が任意の閾値を設定することも可能
である。これらの閾値は予め設定され、連続面抽出部4
01のアクセス可能な記憶手段に記憶保持されている。
The threshold value TH used in the continuous plane extracting unit 401 is, for example, the length of a diagonal line of a cube whose one side is the largest value in the XYZ directions of the resolution of the three-dimensional sensor, or the size of the depth resolution. It can be used, and the operator can set an arbitrary threshold. These thresholds are set in advance, and the continuous surface extraction unit 4
01 is stored in the accessible storage means.

【0055】連続面抽出部401は、次に、計測ポイン
トP(i,j)と、その上側の隣接する計測ポイントP
(i,j−1)との距離DUを求める。計測ポイントP
(ij)の三次元座標を(x(i,j),y(i,
j),z(i,j))とし、計測ポイントP(i,j−
1)の三次元座標を(x(i,j−1),y(i,j−
1),z(i,j−1))すると、計測ポイントP
(i,j)と、その上側の隣接する計測ポイントP
(i,j−1)との距離DUは、以下に示す式(2)に
よって求められる。
Next, the continuous plane extraction unit 401 determines the measurement point P (i, j) and the adjacent measurement point P
The distance DU from (i, j-1) is obtained. Measurement point P
Let the three-dimensional coordinates of (ij) be (x (i, j), y (i,
j), z (i, j)) and the measurement point P (i, j−
The three-dimensional coordinates of (1) are expressed as (x (i, j-1), y (i, j-
1), z (i, j-1)), the measurement point P
(I, j) and the adjacent upper measuring point P
The distance DU to (i, j-1) is obtained by the following equation (2).

【0056】[0056]

【数2】 (Equation 2)

【0057】連続面抽出部401は、上記式によって求
められた距離DUと閾値THとを比較し、距離DUが閾
値THより小さいときは、計測ポイントP(i,j)
と、その上側の隣接する計測ポイントP(i,j−1)
とは連続する面であると判定する。
The continuous surface extraction unit 401 compares the distance DU obtained by the above equation with the threshold TH, and when the distance DU is smaller than the threshold TH, the measurement point P (i, j)
And an adjacent upper measuring point P (i, j-1)
Is determined to be a continuous surface.

【0058】連続面抽出部401は、上記求められた2
つの距離DL,DUを用いてラベリング処理を実行す
る。ラベリング処理は、DL,DUと閾値THとの比較
において決定された隣接する計測ポイントの連続性、非
連続性に基づいて下記のように定められる。
The continuous plane extraction unit 401 calculates
The labeling process is performed using the two distances DL and DU. The labeling process is determined as follows based on the continuity and discontinuity of adjacent measurement points determined in the comparison between DL and DU and the threshold value TH.

【0059】(1)左連続、上連続の場合、 *DL<TH,かつDU<THの場合、 左側のポイントP(i−1,j)のラベル番号L(i−
1,j)と、上側のポイントP(i,j−1)のラベル
番号L(i,j−1)を比較して、小さいラベル番号を
計測ポイントP(i,j)のラベル番号とする。
(1) In the case of left continuation and top continuation, * DL <TH and DU <TH, the label number L (i−j) of the left point P (i−1, j)
(1, j) is compared with the label number L (i, j-1) of the upper point P (i, j-1), and the smaller label number is used as the label number of the measurement point P (i, j). .

【0060】(2)左連続、上不連続の場合、 *DL<TH,かつDU≧THの場合、 左側のポイントP(i−1,j)のラベル番号L(i−
1,j)を計測ポイントP(i,j)のラベル番号とす
る。
(2) In the case of left continuous and upper discontinuous: * DL <TH and DU ≧ TH, label number L (i−j) of left point P (i−1, j)
(1, j) is the label number of the measurement point P (i, j).

【0061】(3)左不連続、上連続の場合、 *DL≧TH,かつDU<THの場合、 上側のポイントP(i,j−1)のラベル番号L(i,
j−1)を計測ポイントP(i,j)のラベル番号とす
る。
(3) In the case of left discontinuity and upper continuous, * DL ≧ TH and DU <TH, the label number L (i, j) of the upper point P (i, j-1)
j-1) is the label number of the measurement point P (i, j).

【0062】(4)左不連続、上不連続の場合、 *DL≧TH,かつDU≧THの場合、 現計測ポイントP(i,j)のラベル番号L(i,j)
に新しい番号「Label」を代入し、「Label」
の値を1増加させる。
(4) In the case of left discontinuity and upper discontinuity: * DL ≧ TH and DU ≧ TH, label number L (i, j) of current measurement point P (i, j)
Substitute the new number "Label" for "Label"
Is incremented by one.

【0063】上記(1)〜(4)のラベリング原則に基
づいて、各計測ポイントのラベリングを実行する。
The labeling of each measurement point is executed based on the labeling principles (1) to (4).

【0064】連続面抽出部401におけるラベリング処
理のフローを図7に示す。以下、図7の各ステップにつ
いて説明する。
FIG. 7 shows a flow of the labeling process in the continuous plane extracting unit 401. Hereinafter, each step of FIG. 7 will be described.

【0065】ステップ701は初期化処理を示す。計測
ポイントは図6(a)に示すようにポイントP(i,
j)の左上端ポイントP(0,0)からスキャン方向、
すなわちi増加方向に進み、右端に達したポイント、す
なわちi=MAXのポイントでjを1増加させて、次ラ
インを計測する。初期化ステップ701では、i=0,
j=0,label=0,L(0,0)=0の設定をす
る。
Step 701 shows an initialization process. The measurement point is a point P (i,
j) the scanning direction from the upper left point P (0, 0),
That is, j is incremented by 1 at the point where it proceeds in the i increasing direction and reaches the right end, that is, the point of i = MAX, and the next line is measured. In the initialization step 701, i = 0,
j = 0, label = 0, and L (0, 0) = 0 are set.

【0066】ステップ702では、計測ポイントのi座
標が0であるか否か、ステップ703、704では、j
座標が0であるか否かが判定される。i=0のポイント
は、最上ラインのポイントであることを意味し、上述し
た上側隣接点との距離DUを求めることがてきない。ま
た、j=0のポイントは、左端のポイントであることを
意味し、上述した左側隣接点との距離DLを求めること
がてきない。これ以外のポイントではDL,DUを求め
ることができる。このように計測ポイントの位置に応じ
て算出可能な距離情報が異なる。
In step 702, it is determined whether or not the i coordinate of the measurement point is 0. In steps 703 and 704, j is determined.
It is determined whether the coordinates are 0 or not. The point of i = 0 means the point of the top line, and the distance DU to the above-mentioned upper adjacent point cannot be obtained. Also, the point at j = 0 means the leftmost point, and the distance DL from the above-described left adjacent point cannot be obtained. At other points, DL and DU can be obtained. As described above, the distance information that can be calculated differs depending on the position of the measurement point.

【0067】従って、これら3つの態様に応じてステッ
プ705〜707を実行する。ステップ705〜707
では、距離DL、距離DU値を計算、あるいは距離D
L、距離DU値の計測不能ポイントにおいては、DL,
DUの値を閾値THに等しい値に設定する。
Therefore, steps 705 to 707 are executed according to these three modes. Steps 705 to 707
Then, the distance DL and the distance DU value are calculated, or the distance D
L, at points where distance DU value cannot be measured, DL,
The value of DU is set to a value equal to the threshold value TH.

【0068】ステップ708〜710は、距離DL、距
離DUと閾値THとの大小比較による場合分けを実行す
るステップである。ステップ708、709が双方とも
Yesの場合は、上述の(1)左連続、上連続の場合、
DL<TH,かつDU<THの場合、に相当し、次のス
テップ711において、左側のポイントP(i−1,
j)のラベル番号L(i−1,j)と、上側のポイント
P(i,j−1)のラベル番号L(i,j−1)を比較
し、次のステップ712あるいはステップ713におい
て、小さい方のラベル番号を計測ポイントP(i,j)
のラベル番号とする。
Steps 708 to 710 are steps for performing classification by comparing the distances DL and DU with the threshold value TH. If both steps 708 and 709 are Yes, the above (1) left continuation and top continuation,
DL <TH and DU <TH, and in the next step 711, the left point P (i−1,
j) is compared with the label number L (i, j-1) of the upper point P (i, j-1), and in the next step 712 or 713, Use the smaller label number as the measurement point P (i, j)
Label number.

【0069】ステップ708がYes、ステップ709
がNoの場合は、上述の(2)左連続、上不連続の場
合、DL<TH,かつDU≧THの場合に相当し、ステ
ップ714において、左側のポイントP(i−1,j)
のラベル番号L(i−1,j)を計測ポイントP(i,
j)のラベル番号とする。
Step 708 is Yes, Step 709
Is No, the above-mentioned (2) left-continuous, upper-discontinuous corresponds to the case of DL <TH and DU ≧ TH, and in step 714, the left point P (i−1, j)
The label number L (i-1, j) of the measurement point P (i, j)
j) label number.

【0070】ステップ708がNo、ステップ710が
Yesの場合は、上述の(3)左不連続、上連続の場
合、DL≧TH,かつDU<THの場合に相当し、ステ
ップ715において、上側のポイントP(i,j−1)
のラベル番号L(i,j−1)を計測ポイントP(i,
j)のラベル番号とする。
If step 708 is No and step 710 is Yes, the above (3) left discontinuity and upper continuation correspond to the case of DL ≧ TH and DU <TH. Point P (i, j-1)
Label number L (i, j-1) of measurement point P (i, j-1)
j) label number.

【0071】ステップ708がNo、ステップ710が
Noの場合は、上述の(4)左不連続、上不連続の場
合、DL≧TH,かつDU≧THの場合に相当し、ステ
ップ716において、現計測ポイントP(i,j)のラ
ベル番号L(i,j)に新しい番号「Label」を代
入し、「Label」の値を1増加させる。
If the step 708 is No and the step 710 is No, the above-mentioned (4) case of left discontinuity and upper discontinuity corresponds to the case of DL ≧ TH and DU ≧ TH. The new number “Label” is substituted for the label number L (i, j) of the measurement point P (i, j), and the value of “Label” is increased by one.

【0072】これらの処理の後、ステップ717でiが
最大値に達したか、またステップ718でjが最大値に
達したかを判定し、No場合はそれぞれステップ71
9,720でi値、j値を1増加させて、次の計測ポイ
ントのラベリングを行なう。
After these processes, it is determined in step 717 whether i has reached the maximum value, and in step 718 whether j has reached the maximum value.
At 9,720, the i value and the j value are increased by 1, and labeling of the next measurement point is performed.

【0073】以上のような処理フローを最終計測ポイン
ト:P(MAX,MAX)まで実行することにより、す
べての計測ポイントにおけるラベルが決定する。
By executing the processing flow as described above up to the final measurement point: P (MAX, MAX), labels at all measurement points are determined.

【0074】ただし、この処理フローで得られたラベル
番号は距離の大きいものから、または小さいものから順
に番号が並んだものとはならないので、距離に応じたラ
ベル番号を付与することが必要な場合は、設定されたラ
ベル番号と領域の対応を調べて、ラベル番号の変換を行
なうことが必要である。
However, since the label numbers obtained in this processing flow are not arranged in order from the largest one or the smallest one, it is necessary to assign a label number according to the distance. It is necessary to check the correspondence between the set label number and the area and convert the label number.

【0075】図4の対象領域選択部402において、作
業者による対象領域の選択処理が行なわれる。対象領域
選択部402では、ラベリング処理が終了した結果得ら
れるラベリングデータを距離画像に変換し、表示手段に
表示する。ラベリングデータを距離画像に変換した画像
の例を図8に示す。図8は図2に示す物体配置、三次元
センサ配置によって得られる三次元データに対して図7
のラベリング処理フローを実行した場合に得られるラベ
リングデータを距離画像に変換した画像である。
In the target area selection section 402 in FIG. 4, a process of selecting a target area by an operator is performed. The target area selection unit 402 converts the labeling data obtained as a result of the completion of the labeling processing into a distance image and displays the distance image on the display unit. FIG. 8 shows an example of an image obtained by converting labeling data into a distance image. FIG. 8 shows three-dimensional data obtained by the object arrangement and the three-dimensional sensor arrangement shown in FIG.
Is an image obtained by converting labeling data obtained when the labeling process flow of FIG.

【0076】図8で示す領域中、ラベル0は背景に対応
する。ラベル1は図2の壁203、ラベル2は計測対象
1,201、ラベル3が計測対象2,202に相当す
る。図8に示すようなラベリングデータを距離画像に変
換した画像を作業者に提示することで、作業者は同一の
ラベリングがなされた領域を容易に選択でき、その結果
として物体抽出が実行される。例えば切り出したい領域
を1つまたは複数選択する場合、その選択対象領域を1
つまたは複数の異なるラベル領域から選択して、その他
のラベル領域を削除する処理を行なうことにより、容易
に選択対象の物体抽出ができる。なお、作業者は特定の
ラベル領域を指定し、その後その抽出領域を三次元表示
するように選択することも可能である。
In the area shown in FIG. 8, label 0 corresponds to the background. The label 1 corresponds to the wall 203 in FIG. 2, the label 2 corresponds to the measurement objects 1, 201, and the label 3 corresponds to the measurement objects 2, 202. By presenting an image obtained by converting the labeling data into a distance image as shown in FIG. 8 to the operator, the operator can easily select the same labeled region, and as a result, the object is extracted. For example, when selecting one or a plurality of regions to be cut out,
By performing a process of selecting one or a plurality of different label regions and deleting the other label regions, an object to be selected can be easily extracted. Note that the operator can designate a specific label area, and then select the extracted area to be displayed three-dimensionally.

【0077】図9に本実施例に係る物体抽出装置のハー
ドウェア構成例を示す。図9に示すハードウェア構成例
は、ハーソナルコンピュータ等のコンピュータ装置90
1、表示部908、入力装置としてのマウス909、キ
ーボード910を有するシステムとして構成され、コン
ピュータ装置901は、CPU902、ROM903、
RAM904、ディスプレイインタフェース905、入
力デバイスインタフェース906、記憶装置としてのH
DD907を有する。
FIG. 9 shows an example of a hardware configuration of the object extracting apparatus according to the present embodiment. The example of the hardware configuration shown in FIG. 9 is a computer device 90 such as a personal computer.
1, a display unit 908, a mouse 909 as an input device, and a keyboard 910. The computer device 901 includes a CPU 902, a ROM 903,
RAM 904, display interface 905, input device interface 906, H as a storage device
DD907.

【0078】CPU902は、物体抽出装置としての各
種処理動作を統括的に制御するメイン・コントローラで
あり、画像中の画素選択、比較処理その他、画像の各種
処理を実行する所定のアプリケーション・プログラムを
起動するユニットである。CPU902は、例えば、図
4に示す連続面抽出部401、対象領域選択部402の
処理における制御をそれぞれの処理プログラムに従って
行なう。
The CPU 902 is a main controller that controls various processing operations as the object extracting apparatus, and starts a predetermined application program for executing pixel selection in an image, comparison processing, and other various processing of the image. Unit. The CPU 902 performs control in the processing of the continuous plane extraction unit 401 and the target area selection unit 402 shown in FIG. 4 according to the respective processing programs.

【0079】ROM903は、恒久的なプログラムデー
タ、例えばIPL、自己診断プログラム(POST)、
ハードウェア入出力操作を実行するためのコード群(B
IOS)等が格納されている。
The ROM 903 stores permanent program data such as an IPL, a self-diagnosis program (POST),
Code group for executing hardware input / output operation (B
IOS) and the like are stored.

【0080】RAM904は、CPU902が実行プロ
グラム・コードをロードしたり、作業データを一時格納
するために使用される書き込み可能なメモリである。連
続面抽出、対象領域選択処理における必要データ、プロ
グラム等を一時的に格納するのに使用される。
The RAM 904 is a writable memory used by the CPU 902 to load an execution program code and temporarily store work data. It is used to temporarily store necessary data, programs, and the like in continuous surface extraction and target area selection processing.

【0081】ディスプレイ・インタフェース905は、
表示部908の表示制御を行なう。CPU902の制御
のもとに処理された画像データは例えば図8には示され
ていないが、VRAMに一旦蓄積され、表示部908に
供給される。
The display interface 905 includes:
The display of the display unit 908 is controlled. Although not shown in FIG. 8, for example, the image data processed under the control of the CPU 902 is temporarily stored in the VRAM and supplied to the display unit 908.

【0082】入力デバイスインタフェース906は、ユ
ーザからのマウス909、キーボード910を介して入
力されるデータ、コマンド入力などを受容するインタフ
ェース装置である。
The input device interface 906 is an interface device for receiving data, command input, and the like input from the user via the mouse 909 and the keyboard 910.

【0083】ハード・ディスク・ドライブ(HDD)9
07は、比較的大容量で再書き込み可能且つ不揮発の記
憶装置であり、データ・ファイルを蓄積したり、プログ
ラム・ファイルをインストールするために使用される。
データ・ファイルとしては、撮像された画像ファイル、
画像ファイルに対応する三次元形状データ、距離画像、
ラベリングデータ等である。プログラム・ファイルの例
は、CPU902において実行される連続面抽出処理、
ラベリング処理、その他画像合成、距離画像表示アプリ
ケーション、CGアプリケーションなどである。なお、
外部記憶装置としてはHDD以外にも、光ディスク、光
磁気ディスク等、様々な種類の記憶装置を使用すること
ができる。
Hard Disk Drive (HDD) 9
Reference numeral 07 denotes a relatively large-capacity rewritable and non-volatile storage device, which is used for storing data files and installing program files.
Data files include captured image files,
3D shape data corresponding to image files, distance images,
Labeling data. Examples of the program file include a continuous plane extraction process executed by the CPU 902,
Labeling processing, other image synthesis, range image display application, CG application, and the like. In addition,
As the external storage device, various types of storage devices such as an optical disk and a magneto-optical disk can be used in addition to the HDD.

【0084】表示部908は、処理画像やコマンド入力
のためのメニューなど、作業画面をユーザに提示するた
めの装置であり、CRT(Cathode Ray T
ube:冷陰極線管)ディスプレイやLCD(Liqu
id Crystal Display:液晶表示ディ
スプレイ)によって構成される。表示部908は距離画
像の表示、三次元画像の表示、ラベリングデータを距離
画像に変換した画像の表示等が行われる。
The display unit 908 is a device for presenting a work screen, such as a processed image and a menu for inputting a command, to a user, and is a CRT (Cathode Ray T).
ube: cold cathode ray tube) display and LCD (Liqu
id Crystal Display (Liquid Crystal Display). The display unit 908 performs display of a distance image, display of a three-dimensional image, display of an image obtained by converting labeling data into a distance image, and the like.

【0085】ユーザからの入力は、座標指示形式でコマ
ンド入力を行うマウス909、キャラクタ・ベースでコ
マンド入力を行うキーボード910によって行われる。
The input from the user is made by a mouse 909 for inputting a command in a coordinate designation format and a keyboard 910 for inputting a command on a character basis.

【0086】なお、本発明の物体抽出装置を実際に構成
するためには、図9に示した以外にも多くのハードウェ
ア・コンポーネントが必要である。ただし、これらは当
業者には周知であり、また、本発明の要旨を構成するも
のでもないので本明細書では省略している。また、図面
の錯綜を回避するために図中の各ハードウェア・ブロッ
ク間の接続も抽象化して示している点を了承されたい。
In order to actually configure the object extracting apparatus of the present invention, many hardware components other than those shown in FIG. 9 are required. However, these are well known to those skilled in the art and do not constitute the gist of the present invention, and thus are omitted in this specification. It should be noted that connections between hardware blocks in the drawings are also shown in an abstract form in order to avoid complicating the drawings.

【0087】[実施例2]上述の実施例1では、連続面
の判定に際して隣接する計測ポイントの三次元的な距離
を求める構成を説明したが、より簡易な方法で連続面抽
出を実行する方法として隣接する計測ポイントの奥行き
方向のみの差を求めてこの差に基づいて連続面の判定を
行なう構成を、本発明の物体抽出装置の実施例2として
説明する。
[Second Embodiment] In the first embodiment described above, a configuration in which a three-dimensional distance between adjacent measurement points is determined when a continuous plane is determined has been described. However, a method for executing a continuous plane extraction by a simpler method has been described. A configuration in which a difference in only the depth direction between adjacent measurement points is determined and a continuous surface is determined based on the difference will be described as a second embodiment of the object extraction device of the present invention.

【0088】実施例2の物体抽出装置の機能ブロック
図、ハードウェア構成は実施例1と同様であり、これら
を参照して、実施例2を説明する。実施例2に係る物体
抽出装置の連続面抽出部401は、隣接する計測ポイン
トの奥行き方向のみの差を求める。
The functional block diagram and the hardware configuration of the object extracting apparatus according to the second embodiment are the same as those of the first embodiment, and the second embodiment will be described with reference to these figures. The continuous surface extraction unit 401 of the object extraction device according to the second embodiment calculates a difference only in the depth direction between adjacent measurement points.

【0089】連続面抽出部401は、実施例1と同様、
距離画像として表現することができる三次元形状データ
を受領し、距離画像について、図6(a)に示すよう
に、距離画像データ上を左上から右方向へスキャンす
る。距離画像におけるある計測ポイントP(i,j)
と、その左側の隣接する計測ポイントP(i−1,j)
との距離DLは、奥行き方向の距離、すなわち図6
(b)におけるZ軸方向の距離として求める。距離DL
は、以下に示す式(3)によって求められる。
The continuous plane extracting unit 401 is the same as in the first embodiment.
The three-dimensional shape data that can be expressed as a distance image is received, and the distance image is scanned from the upper left to the right on the distance image data as shown in FIG. A certain measurement point P (i, j) in the distance image
And the adjacent measurement point P (i-1, j) on the left side
Is the distance in the depth direction, that is, FIG.
It is obtained as the distance in the Z-axis direction in (b). Distance DL
Is determined by the following equation (3).

【0090】[0090]

【数3】 (Equation 3)

【0091】連続面抽出部401は、上記式によって求
められた距離DLと予め定められた閾値THとを比較
し、距離DLが閾値THより小さいときは、計測ポイン
トP(i,j)と、その左側の隣接する計測ポイントP
(i−1,j)とは連続する面であると判定する。
The continuous plane extracting unit 401 compares the distance DL obtained by the above equation with a predetermined threshold TH. If the distance DL is smaller than the threshold TH, the measurement point P (i, j) and The adjacent measurement point P on the left
It is determined that (i-1, j) is a continuous surface.

【0092】上記の閾値THは、例えば、三次元センサ
の奥行き分解能をことができ、また、作業者が任意の閾
値を設定することも可能である。これらの閾値は予め設
定され、連続面抽出部401のアクセス可能な記憶手段
に記憶保持されている。
The above-mentioned threshold TH can be, for example, the depth resolution of the three-dimensional sensor, and an operator can set an arbitrary threshold. These threshold values are set in advance, and are stored and held in an accessible storage unit of the continuous plane extraction unit 401.

【0093】連続面抽出部401は、次に、計測ポイン
トP(i,j)と、その上側の隣接する計測ポイントP
(i,j−1)との距離DUを奥行き方向の距離、すな
わち図6(b)におけるZ軸方向の距離として求める。
距離DUは、以下に示す式(4)によって求められる。
Next, the continuous plane extraction unit 401 determines the measurement point P (i, j) and the adjacent upper measurement point P (i, j).
The distance DU from (i, j-1) is determined as the distance in the depth direction, that is, the distance in the Z-axis direction in FIG. 6B.
The distance DU is obtained by the following equation (4).

【0094】[0094]

【数4】 (Equation 4)

【0095】連続面抽出部401は、上記式によって求
められた距離DUと閾値THとを比較し、距離DUが閾
値THより小さいときは、計測ポイントP(i,j)
と、その上側の隣接する計測ポイントP(i,j−1)
とは連続する面であると判定する。
The continuous plane extracting section 401 compares the distance DU obtained by the above equation with the threshold TH, and when the distance DU is smaller than the threshold TH, the measurement point P (i, j)
And an adjacent upper measuring point P (i, j-1)
Is determined to be a continuous surface.

【0096】連続面抽出部401は、上記2つの距離D
L,DUを用いてラベリング処理を実行する。ラベリン
グ処理は、DL,DUと閾値THとの比較において決定
された隣接する計測ポイントの連続性、非連続性に基づ
いて行われ、実施例1で説明した図7に示す処理フロー
に従った処理である。
The continuous plane extracting unit 401 calculates the distance D
A labeling process is performed using L and DU. The labeling process is performed based on the continuity and discontinuity of adjacent measurement points determined in the comparison between DL and DU and the threshold value TH, and is in accordance with the process flow described in the first embodiment and illustrated in FIG. It is.

【0097】この実施例2に係る物体抽出装置は、三次
元空間への展開を行なわずに、近似的に実施例1と同様
の効果が得られることである。従って、連続面での領域
分割、作業者による領域選択等、すべての処理が距離画
像を用いて実行でき、演算量の減少、ユーザインタフェ
ースの簡素化が達成される。
The object extracting apparatus according to the second embodiment can obtain approximately the same effect as that of the first embodiment without performing expansion into a three-dimensional space. Therefore, all processes such as region division on a continuous plane, region selection by an operator, and the like can be executed using the distance image, and the amount of calculation is reduced and the user interface is simplified.

【0098】[実施例3]上述の実施例1、実施例2で
は、すべての計測ポイント、すなわちP(0,0)から
P(MAX,MAX)までをラベリングして、その結果
を用いて必要な連続領域を切り出すことによって物体抽
出を行なう構成を説明したが、抽出したい物体の一部を
マウス等のポインティングデバイスで指定するだけで、
その物体の連続領域を切り出す構成を、本発明の物体抽
出装置の実施例3として説明する。
[Embodiment 3] In the above-described Embodiments 1 and 2, all measurement points, that is, from P (0,0) to P (MAX, MAX) are labeled, and the results are used. Although the configuration that performs object extraction by cutting out a continuous area was explained, just by specifying a part of the object to be extracted with a pointing device such as a mouse,
A configuration for cutting out a continuous region of the object will be described as a third embodiment of the object extraction device of the present invention.

【0099】実施例3の物体抽出装置の機能ブロック
図、ハードウェア構成は実施例1,2と同様であり、こ
れらを参照して、実施例3を説明する。実施例3に係る
物体抽出装置の連続面抽出部402は、作業者の指定す
る抽出したい物体の一部を示す位置データを受領する。
作業者は、例えば図9に示すマウス909等のポインテ
ィングデバイスで表示部に表示された画像、例えば三次
元画像データ、あるいは距離画像から特定のポイントP
(I,J)を指定する。
The functional block diagram and the hardware configuration of the object extracting apparatus according to the third embodiment are the same as those of the first and second embodiments, and the third embodiment will be described with reference to these figures. The continuous surface extraction unit 402 of the object extraction device according to the third embodiment receives position data indicating a part of an object to be extracted specified by an operator.
The operator can use a pointing device such as a mouse 909 shown in FIG. 9 to display a specific point P from an image displayed on the display unit, for example, three-dimensional image data or a distance image.
(I, J) is specified.

【0100】連続面抽出部402は、指示のあったポイ
ントP(I,J)の属する連続領域のみを抽出する。図
10は、三次元計測データをXYZ空間に展開したデー
タの一部を示すものである。図10のポイントP(i,
j)が作業者が指定したポイントP(I,J)であった
とすると、連続面抽出部402は、ポイントP(i,
j)を起点として、ポイントP(i,j)と上下左右の
4方向の隣接計測ポイントとの連続性を調べ、順次計測
ポイントを移動させながら連続性を調査し、連続なポイ
ントのみを抽出し、抽出された連続なポイントについて
さらに周囲4方向のポイントとの連続性調査を進める構
成であり、いわゆる4連結法を用いたラベリングであ
る。
The continuous plane extracting section 402 extracts only the continuous area to which the point P (I, J) instructed belongs. FIG. 10 shows a part of data obtained by developing the three-dimensional measurement data in the XYZ space. The point P (i,
If j) is the point P (I, J) specified by the worker, the continuous plane extraction unit 402
With j) as a starting point, the continuity between the point P (i, j) and adjacent measurement points in four directions, up, down, left, and right, is checked, and continuity is checked while sequentially moving the measurement points, and only continuous points are extracted. This is a configuration in which the continuity check is further performed on the extracted continuous points with the points in the surrounding four directions, which is a labeling using a so-called 4-connection method.

【0101】図11、12に本実施例3の物体抽出装置
における連続面抽出部402の実行するラベリング処理
フローを示す。
FIGS. 11 and 12 show a labeling processing flow executed by the continuous plane extracting unit 402 in the object extracting apparatus according to the third embodiment.

【0102】図11のステップ1101は計測ポイント
P(i,j)を、ユーザの指示ポイントP(I,J)に
初期設定するステップであり、ステップ1102はポイ
ントP(i,j)と上下左右の4方向の隣接計測ポイン
トとの連続性を調べる4連結チェックルーチンを実行す
るステップである。4連結チェックルーチンの詳細は図
12に示す通りである。
Step 1101 in FIG. 11 is a step for initially setting the measurement point P (i, j) to the user's designated point P (I, J). This is a step of executing a 4-connection check routine for checking continuity with adjacent measurement points in the four directions. Details of the 4-connection check routine are as shown in FIG.

【0103】図12に示す4連結チェックルーチンにつ
いて説明する。ステップ1201〜1206は計測ポイ
ントP(i,j)とその上に隣接するポイントP(i,
j−1)との連続性を調査するステップであり、ステッ
プ1207〜1212は計測ポイントP(i,j)とそ
の左に隣接するポイントP(i−1,j)との連続性を
調査するステップであり、ステップ1213〜1218
は計測ポイントP(i,j)とその下に隣接するポイン
トP(i,j+1)との連続性を調査するステップであ
り、ステップ1219〜1224は計測ポイントP
(i,j)とその右に隣接するポイントP(i+1,
j)との連続性を調査するステップである。
The four connection check routine shown in FIG. 12 will be described. Steps 1201 to 1206 correspond to a measurement point P (i, j) and a point P (i, j) adjacent thereto.
j-1) is checked, and steps 1207 to 1212 check the continuity between the measurement point P (i, j) and a point P (i-1, j) adjacent to the measurement point P (i, j). Steps 1213 to 1218
Is a step of examining the continuity between the measurement point P (i, j) and a point P (i, j + 1) adjacent thereunder.
(I, j) and a point P (i + 1,
j) is a step of investigating continuity with j).

【0104】ステップ1201〜1206について説明
する。ステップ1201は計測ポイントP(i,j)の
上に隣接するポイントP(i,j−1)が未ラベルであ
るかを判定する。すでにラベルが付与されている場合
は、Nと判定され、次のステップであるステップ120
7に進む。未ラベルであれば、ステップ1202に進
み、上のポイントP(i,j−1)が計測範囲であるか
否かが判定される。例えば計測ポイントP(i,j)が
取得画像の上端ラインである場合は、さらに上のポイン
トにはデータが存在せず、計測範囲でない(すなわち
N)と判定され、次のステップであるステップ1207
に進む。
Steps 1201 to 1206 will be described. In step 1201, it is determined whether the point P (i, j-1) adjacent to the measurement point P (i, j) is unlabeled. If a label has already been assigned, it is determined that the number is N, and the next step, step 120, is performed.
Go to 7. If not, the process proceeds to step 1202, where it is determined whether or not the upper point P (i, j-1) is within the measurement range. For example, when the measurement point P (i, j) is the upper end line of the acquired image, there is no data at a point further above and it is determined that the point is not within the measurement range (ie, N), and the next step, step 1207
Proceed to.

【0105】上のポイントP(i,j−1)が未ラベル
であり、計測範囲である場合には、ステップ1203に
進み、計測ポイントP(i,j)と上に隣接するポイン
トP(i,j−1)との連続性が判定される。
If the upper point P (i, j-1) is unlabeled and is within the measurement range, the process proceeds to step 1203, where the point P (i, j) adjacent to the measurement point P (i, j) is located above. , J−1) is determined.

【0106】この連続性判定は、以下に示す式(5)に
よって求められる距離DUが閾値THより小であるか否
かによって決定する。距離DUは、計測ポイントP(i
j)の三次元座標を(x(i,j),y(i,j),z
(i,j))とし、上の隣接ポイントP(i,j−1)
の三次元座標を(x(i,j−1),y(i,j−
1),z(i,j−1))したとき、以下の式(5)に
よって求められる。
This continuity determination is made based on whether or not the distance DU obtained by the following equation (5) is smaller than a threshold value TH. The distance DU is the measurement point P (i
j) is defined as (x (i, j), y (i, j), z
(I, j)), and the above adjacent point P (i, j-1)
Are represented by (x (i, j-1), y (i, j-
1), z (i, j-1)), is obtained by the following equation (5).

【0107】[0107]

【数5】 (Equation 5)

【0108】連続面抽出部401は、上記式によって求
められた距離DUと予め定められた閾値THとを比較
し、距離DUが閾値THより小さいときは、計測ポイン
トP(i,j)と、その上側の隣接計測ポイントP
(i,j−1)とは連続する面であると判定(ステップ
1203でYes)し、ステップ1204に進み、上側
の隣接計測ポイントP(i,j−1)のラベルL(i,
j−1)を計測ポイントP(i,j)のラベルL(i,
j)と同一とする。
The continuous plane extraction unit 401 compares the distance DU obtained by the above equation with a predetermined threshold TH, and when the distance DU is smaller than the threshold TH, the measurement point P (i, j) and Adjacent measurement point P above
It is determined that (i, j-1) is a continuous surface (Yes in step 1203), and the process proceeds to step 1204, where the label L (i, j) of the upper adjacent measurement point P (i, j-1) is determined.
j-1) is changed to the label L (i, j) of the measurement point P (i, j).
Same as j).

【0109】上記の閾値THは、例えば、三次元センサ
のXYZ方向の分解能で最も大きい値を一辺とする立方
体の対角線の長さを使ったり、奥行き分解能の大きさな
どを使うことができ、また、作業者が任意の閾値を設定
することも可能である。これらの閾値は予め設定され、
連続面抽出部401のアクセス可能な記憶手段に記憶保
持されている。
As the threshold value TH, for example, the length of a diagonal of a cube having one side as the maximum value in the XYZ directions of the resolution of the three-dimensional sensor can be used, or the depth resolution can be used. It is also possible for an operator to set an arbitrary threshold. These thresholds are set in advance,
It is stored and held in an accessible storage unit of the continuous surface extraction unit 401.

【0110】さらに、ステップ1203で、計測ポイン
トを上に移動、すなわちP(i,j−1)に移動し、ス
テップ1206において同様の4連結チェックルーチン
を実行する。ここではP(i,j−1)について上下左
右の測定ポイントとの比較が実行される。
Further, at step 1203, the measurement point is moved upward, that is, to P (i, j-1), and at step 1206, a similar 4-connection check routine is executed. Here, comparison of P (i, j-1) with the upper, lower, left, and right measurement points is performed.

【0111】ステップ1201、ステップ1202にお
いて上に隣接するポイントにすでにラベルが付与されて
いる場合、あるいは上に隣接するポイントが計測範囲で
ないと判定されると、ステップ1207に進み、計測ポ
イントP(i,j)と左のポイントP(i−1,j)と
の連続性が判定される。以下、同様にステップ1213
〜1218において、計測ポイントP(i,j)とその
下に隣接するポイントP(i,j+1)との連続性、ス
テップ1219〜1224において、計測ポイントP
(i,j)とその右に隣接するポイントP(i+1,
j)との連続性が判定される。これらの判定処理は、ス
テップ1201〜1206と同様であり、説明を省略す
る。
In steps 1201 and 1202, if a label has already been assigned to an upper adjacent point, or if it is determined that the upper adjacent point is not within the measurement range, the process proceeds to step 1207, where the measurement point P (i , J) and the left point P (i-1, j) are determined. Hereinafter, similarly, Step 1213
In steps 1219 to 1224, the continuity between the measurement point P (i, j) and the adjacent point P (i, j + 1) is determined.
(I, j) and a point P (i + 1,
j) is determined. These determination processes are the same as steps 1201 to 1206, and a description thereof will be omitted.

【0112】計測ポイントP(i,j)と左のポイント
P(i−1,j)との連続性判定ステップであるステッ
プ1209においては、以下に示す式(6)の距離DL
と閾値THとの比較が行なわれ、距離DLが閾値THよ
り小さいときには連続であると判定される。下の計測ポ
イントとの比較においては式(7)の距離DDと閾値T
Hとの比較、右の計測ポイントとの比較においては式
(8)の距離DRと閾値THとの比較が実行される。
In step 1209 which is a step for determining the continuity between the measurement point P (i, j) and the left point P (i-1, j), the distance DL of the following equation (6) is used.
Is compared with the threshold value TH. When the distance DL is smaller than the threshold value TH, it is determined that the distance is continuous. In comparison with the lower measurement point, the distance DD and the threshold T in Expression (7) are used.
In the comparison with H and the comparison with the right measurement point, the comparison between the distance DR of Expression (8) and the threshold value TH is performed.

【0113】[0113]

【数6】 (Equation 6)

【0114】この図12に示すフローは、ステップ12
01,1202,1207,1208,1213,12
14,1219,1220の判定がすべてNとなったと
き終了する。この4連結チェックルーチンを実行するこ
とにより、ユーザが最初に指定し、起点となったP
(I,J)を含む連続領域のみが抽出される。
The flow shown in FIG.
01, 1202, 1207, 1208, 1213, 12
When all the determinations of 14, 12, 19, and 1220 are N, the process ends. By executing this 4-connection check routine, the user first specifies and sets the starting point P
Only a continuous region including (I, J) is extracted.

【0115】すなわち、ユーザが最初に指定した計測ポ
イントP(I,J)を起点として、閾値THより小さい
4方向の隣接ポイントのみを抽出して連続領域を決定す
るルーチンが図12に示す4連結チェックルーチンであ
る。
In other words, a routine for determining a continuous area by extracting only adjacent points in four directions smaller than the threshold value TH, starting from the measurement point P (I, J) first specified by the user, is shown in FIG. This is a check routine.

【0116】この実施例3の物体抽出手法に従えば測定
領域すべての連続性を調査する必要がなく、作業者の指
定したポイントを含む連続領域のみを効率的に抽出する
ことが可能となるので、余分な連続性比較処理を実行す
ることがなく、物体抽出の高速処理が可能となる。
According to the object extracting method of the third embodiment, it is not necessary to investigate the continuity of all the measurement areas, and only the continuous area including the point designated by the operator can be efficiently extracted. Thus, high-speed object extraction processing can be performed without performing extra continuity comparison processing.

【0117】なお、上述の実施例3では上下左右の4つ
の隣接ポイントを比較対象とする4連結法を用いたが、
計測ポイントの上下左右のみではなく左上、左下、右
上、右下の隣接計測ポイントとの比較処理も実行する8
連結法を用いて連続面抽出を行なうことも可能である。
In the third embodiment described above, the four-linking method is used in which the four adjacent points of up, down, left, and right are compared.
Performs not only the upper, lower, left and right of the measurement point but also the comparison processing with the upper left, lower left, upper right, and lower right adjacent measurement points 8
It is also possible to perform continuous surface extraction using the connection method.

【0118】さらに実施例3で説明した4連結法を実施
例1,2の計測全領域のラベリングに用いることも可能
である。例えば、距離画像におけるある物体中の1つの
起点P(I1,J1)から図12に示すフローを実行す
ることによって1つの連続領域:Obj1の抽出を実行
する。
Further, the four-link method described in the third embodiment can be used for labeling the entire measurement area in the first and second embodiments. For example, one continuous region: Obj1 is extracted by executing the flow shown in FIG. 12 from one starting point P (I1, J1) in a certain object in the distance image.

【0119】さらに、抽出された連続領域:Obj1に
含まれないポイントを次の計測ポイントの起点P(I
2,J2)として選択し、起点P(I2,J2)から、
新たに図12に示すフローを実行することによって、連
続領域:Obj1と異なる別の新たな連続領域:Obj
2の抽出を行なう。これらの処理を繰り返し行なうこと
で距離画像に含まれるすべての計測範囲の連続領域抽出
が実行される。また、これらの連続領域抽出処理を並列
に、すなわち複数の起点を選択して実行すれば、さらに
高速の連続面抽出が可能となる。
Further, a point not included in the extracted continuous area: Obj1 is defined as a starting point P (I
2, J2), and from the starting point P (I2, J2),
By newly executing the flow shown in FIG. 12, another new continuous area: Obj different from the continuous area: Obj1
2 is extracted. By repeating these processes, continuous area extraction of all measurement ranges included in the distance image is executed. Further, if these continuous region extraction processes are performed in parallel, that is, by selecting and executing a plurality of starting points, it is possible to perform continuous surface extraction at higher speed.

【0120】以上、特定の実施例を参照しながら、本発
明について詳解してきた。しかしながら、本発明の要旨
を逸脱しない範囲で当業者が該実施例の修正や代用を成
し得ることは自明である。すなわち、例示という形態で
本発明を開示してきたのであり、限定的に解釈されるべ
きではない。また、各実施例を相互に組み合わせた態様
についても本発明の要旨に含まれるものである。本発明
の要旨を判断するためには、冒頭に記載した特許請求の
範囲の欄を参酌すべきである。
The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiment without departing from the spirit of the present invention. That is, the present invention has been disclosed by way of example, and should not be construed as limiting. In addition, aspects in which the embodiments are combined with each other are also included in the gist of the present invention. In order to determine the gist of the present invention, the claims described at the beginning should be considered.

【0121】[0121]

【発明の効果】以上詳記したように、本発明によれば、
例えば三次元センサから得られた三次元情報に基づい
て、三次元空間に存在する特定の物体を抽出する作業に
おける作業者の手作業を削減し、連続面を自動的に認識
して効率的に対象物の抽出を実行可能な物体抽出装置、
物体抽出方法、およびプログラム提供媒体を提供するこ
とができる。
As described above in detail, according to the present invention,
For example, based on the three-dimensional information obtained from the three-dimensional sensor, reduce the manual work of the worker in the work of extracting a specific object existing in the three-dimensional space, automatically recognize the continuous surface and efficiently An object extraction device capable of extracting an object,
An object extraction method and a program providing medium can be provided.

【0122】さらに、本発明は、三次元空間上の隣接す
る測定ポイントに存在する計測点同士の距離を閾値と比
較することにより隣接ポイントの連続性を順次、判定し
て領域分けを自動的に実行するように構成したので、作
業者の手を煩わせることなく物体抽出を可能とした物体
抽出装置、物体抽出方法、およびプログラム提供媒体を
提供することができる。
Further, according to the present invention, the continuity of the adjacent points is sequentially determined by comparing the distance between the measurement points existing at the adjacent measurement points in the three-dimensional space with a threshold, and the area division is automatically performed. Since it is configured to execute, it is possible to provide an object extraction device, an object extraction method, and a program providing medium, which can extract an object without bothering a worker.

【0123】さらに、本発明は、画像上の任意の点を起
点として、隣接する測定ポイントに存在する計測点同士
の距離を閾値と比較し、隣接ポイントの連続性を判定
し、連続面のみを抽出して、順次、連続領域のみの判定
を実行して連続面のみの抽出を実行するように構成した
ので、不連続な不要な領域の連続性判定を省略すること
が可能となり、高速な物体抽出の可能な物体抽出装置、
物体抽出方法、およびプログラム提供媒体を提供するこ
とができる。
Further, according to the present invention, starting from an arbitrary point on an image, the distance between measurement points existing at adjacent measurement points is compared with a threshold value, the continuity of adjacent points is determined, and only the continuous surface is determined. Since it is configured to extract and sequentially determine only the continuous area and to extract only the continuous surface, it is possible to omit the continuity determination of the discontinuous unnecessary area, and it is possible to perform high-speed object Object extraction device capable of extraction,
An object extraction method and a program providing medium can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、距離画像を用いた従来の物体抽出方法
を説明する図である。
FIG. 1 is a diagram for explaining a conventional object extraction method using a distance image.

【図2】図2は、三次元空間に配置された複数の物体と
三次元センサの配置例、および距離区間の対応について
説明した図である。
FIG. 2 is a diagram illustrating an example of arrangement of a plurality of objects and a three-dimensional sensor arranged in a three-dimensional space, and correspondence between distance sections.

【図3】図3は、図2の物体配置構成において、各種の
距離区間を設定した場合における物体の抽出態様を説明
した図である。
FIG. 3 is a diagram illustrating an extraction mode of an object when various distance sections are set in the object arrangement configuration of FIG. 2;

【図4】図4は、本発明の物体抽出装置における第1実
施例の機能構成を中心として示したブロック図である。
FIG. 4 is a block diagram mainly showing a functional configuration of a first embodiment in the object extracting apparatus of the present invention.

【図5】図5は、本発明の物体抽出装置において使用さ
れる三次元情報取得構成として適用可能なステレオ法に
ついて説明した図である。
FIG. 5 is a diagram illustrating a stereo method applicable as a three-dimensional information acquisition configuration used in the object extraction device of the present invention.

【図6】図6は、本発明の物体抽出装置における第1実
施例の連続面抽出の方法について説明する図である。
FIG. 6 is a diagram illustrating a method of extracting a continuous surface according to the first embodiment in the object extraction device of the present invention.

【図7】図7は、本発明の物体抽出装置における第1実
施例の連続面抽出の処理フローを説明する図である。
FIG. 7 is a diagram illustrating a processing flow of continuous surface extraction of the first embodiment in the object extraction device of the present invention.

【図8】図8は、本発明の物体抽出装置における連続面
抽出によるラベリング処理の結果得られる画像例を示す
図である。
FIG. 8 is a diagram showing an example of an image obtained as a result of labeling processing by continuous surface extraction in the object extraction device of the present invention.

【図9】図9は、本発明の物体抽出装置における第1実
施例のハードウェア構成例を示したブロック図である。
FIG. 9 is a block diagram illustrating a hardware configuration example of a first embodiment in the object extraction device of the present invention.

【図10】図10は、本発明の物体抽出装置における第
2実施例の連続面抽出の方法について説明する図であ
る。
FIG. 10 is a diagram illustrating a method of extracting a continuous plane according to a second embodiment in the object extraction device of the present invention.

【図11】図11は、本発明の物体抽出装置における第
2実施例の連続面抽出の処理フローを説明する図(その
1)である。
FIG. 11 is a diagram (part 1) illustrating a processing flow of continuous surface extraction of the second embodiment in the object extraction device of the present invention.

【図12】図12は、本発明の物体抽出装置における第
2実施例の連続面抽出の処理フローを説明する図(その
2)である。
FIG. 12 is a diagram (part 2) illustrating the processing flow of continuous surface extraction in the second embodiment of the object extraction device of the present invention.

【符号の説明】[Explanation of symbols]

401…連続面抽出部 402…対象領域選択部 901…コンピュータ 902…CPU 903…ROM 904…RAM 905…ディスプレイ・インタフェース 906…入力デバイス・インタフェース 907…ハードディスクドライブ 908…表示部 909…マウス 910…キーボード 401 ... Continuous plane extraction unit 402 ... Target area selection unit 901 ... Computer 902 ... CPU 903 ... ROM 904 ... RAM 905 ... Display interface 906 ... Input device interface 907 ... Hard disk drive 908 ... Display unit 909 ... Mouse 910 ... Keyboard

フロントページの続き (72)発明者 呉 偉国 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 芦ヶ原 隆之 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2F065 AA04 AA21 AA53 BB05 FF05 FF09 JJ03 JJ05 JJ26 PP01 QQ00 QQ23 QQ24 QQ25 QQ28 SS02 SS13 2F112 AC06 BA05 CA08 FA19 FA50 5B057 DA06 DB03 DB05 DB09 DC02 DC22 5L096 FA66 GA14 GA15 GA51 Continued on the front page (72) Wei Kure, Inventor 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Takayuki Ashigahara 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation F-term (reference) 2F065 AA04 AA21 AA53 BB05 FF05 FF09 JJ03 JJ05 JJ26 PP01 QQ00 QQ23 QQ24 QQ25 QQ28 SS02 SS13 2F112 AC06 BA05 CA08 FA19 FA50 5B057 DA06 DB03 DB05 DB09 DC02 DC22 5L09 FA

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】三次元情報に基づいて、画像中から連続面
領域を構成する物体の抽出を実行する物体抽出装置にお
いて、 三次元情報に含まれる計測ポイント中の隣接する2つの
計測ポイント間の2点間距離情報を算出し、該算出した
2点間距離情報と予め定めた閾値との比較処理を実行
し、前記2点間距離情報が前記閾値より小であるとの判
定に基づいて該隣接する計測ポイント同士が連続性を有
する連続面領域であると識別する連続面抽出手段を有す
ることを特徴とする物体抽出装置。
An object extracting apparatus for extracting an object constituting a continuous surface area from an image based on three-dimensional information, comprising: The point-to-point distance information is calculated, a comparison process is performed between the calculated point-to-point distance information and a predetermined threshold value, and based on the determination that the point-to-point distance information is smaller than the threshold value, An object extraction apparatus, comprising: a continuous surface extracting unit that identifies adjacent measurement points as a continuous surface region having continuity.
【請求項2】前記2点間距離情報は、前記三次元情報に
基づいて得られる前記隣接する2つの計測ポイントの三
次元座標から算出される三次元的距離であることを特徴
とする請求項1に記載の物体抽出装置。
2. The apparatus according to claim 1, wherein the distance information between two points is a three-dimensional distance calculated from three-dimensional coordinates of the two adjacent measurement points obtained based on the three-dimensional information. 2. The object extraction device according to 1.
【請求項3】前記2点間距離情報は、前記三次元情報に
基づいて得られる前記隣接する2つの計測ポイントの三
次元座標から算出されるZ軸方向の距離である奥行き方
向距離であることを特徴とする請求項1に記載の物体抽
出装置。
3. The distance information between two points is a depth direction distance which is a distance in a Z-axis direction calculated from three-dimensional coordinates of the two adjacent measurement points obtained based on the three-dimensional information. The object extraction device according to claim 1, wherein:
【請求項4】前記連続面抽出手段は、異なる連続面領域
を識別するラベルを前記計測ポイントに対応して付与す
るラベリング処理を実行する構成を有し、連続性を有す
る連続面領域であると識別された2つの計測ポイント各
々には同一のラベルを付与するラベリング処理を実行す
る構成を有することを特徴とする請求項1に記載の物体
抽出装置。
4. The continuous plane extracting means has a configuration for executing a labeling process for giving a label for identifying a different continuous plane area in correspondence with the measurement point. 2. The object extracting apparatus according to claim 1, wherein a labeling process for giving the same label to each of the identified two measurement points is performed.
【請求項5】前記画像は、三次元情報に基づいて得られ
る距離画像であり、 前記連続面抽出手段は、前記距離画像に含まれる計測ポ
イントについて、 該計測ポイントと上方向に隣接する上方隣接計測ポイン
トとの2点間距離情報DUと前記閾値との比較処理に基
づいて該計測ポイントと上方隣接計測ポイントとの連続
性を判定するとともに、 該計測ポイントと左方向に隣接する左方隣接計測ポイン
トとの2点間距離情報DLと前記閾値との比較処理に基
づいて該計測ポイントと左方隣接計測ポイントとの連続
性を判定し、 前記2点間距離情報DL、DUのいずれか一方のみが前
記閾値より小である場合は、該閾値より小の隣接計測ポ
イントと同一ラベルを前記計測ポイントのラベルとして
付与し、 前記2点間距離情報DL、DUのいずれもが前記閾値よ
り小でない場合は、新たなラベルを前記計測ポイントの
ラベルとして付与し、 前記2点間距離情報DL、DUがいずれも前記閾値より
小である場合は、前記上方向、左方向の識別ラベルのい
ずれか一方のラベルを選択ラベルとし、前記計測ポイン
トのラベルとして付与するとともに、前記選択ラベルと
異なる前記上方向、左方向いずれかの非選択ラベルと同
一のラベルが付与された計測ポイントのラベルを選択ラ
ベルに変更する処理を実行する構成を有することを特徴
とする請求項1に記載の物体抽出装置。
5. An image according to claim 1, wherein said image is a distance image obtained based on three-dimensional information. The continuity between the measurement point and the upper adjacent measurement point is determined based on a comparison process between the two-point distance information DU with the measurement point and the threshold, and the left adjacent measurement adjacent to the measurement point in the left direction is performed. The continuity between the measurement point and the left adjacent measurement point is determined based on a comparison process between the point-to-point distance information DL and the threshold value, and only one of the point-to-point distance information DL and DU is determined. Is smaller than the threshold value, the same label as an adjacent measurement point smaller than the threshold value is given as a label of the measurement point, and any of the distance information between two points DL and DU is used. Is smaller than the threshold value, a new label is given as the label of the measurement point. If both of the distance information DL and DU between the two points are smaller than the threshold value, A measurement point to which one of the identification labels is selected as a selection label and is provided as a label of the measurement point, and the same label as the unselected label in any of the upward and left directions different from the selection label is provided. 2. The object extracting apparatus according to claim 1, wherein the apparatus has a configuration for executing a process of changing a label to a selected label.
【請求項6】前記画像は、三次元情報に基づいて得られ
る距離画像であり、 前記連続面抽出手段は、前記距離画像に含まれる計測ポ
イントについて該計測ポイントの上方向に隣接する上方
隣接計測ポイントとの2点間距離情報DU、 該計測ポイントの左方向に隣接する上方隣接計測ポイン
トとの2点間距離情報DL、 該計測ポイントの下方向に隣接する上方隣接計測ポイン
トとの2点間距離情報DD、 該計測ポイントの右方向に隣接する上方隣接計測ポイン
トとの2点間距離情報DR、 の各々と前記閾値との比較処理に基づいて該計測ポイン
トと上下左右4方向の各隣接計測ポイントとの連続性を
判定し、 連続性有りと判定された隣接計測ポイントを次の計測ポ
イントとして、さらに上下左右4方向の各隣接計測ポイ
ントとの連続性を判定する処理を順次繰り返す4連結法
により連続面抽出を実行する構成を有することを特徴と
する請求項1に記載の物体抽出装置。
6. An image according to claim 6, wherein said image is a distance image obtained based on three-dimensional information. Point-to-point distance information DU with a point, Point-to-point distance information DL with an upper adjacent measurement point adjacent to the measurement point in the left direction, Point-to-point measurement with an upper adjacent measurement point adjacent in the downward direction of the measurement point The distance information DD, the distance information DR between two points with the upper adjacent measurement point adjacent to the measurement point to the right in the right direction, and the adjacent measurement in the four directions of up, down, left, and right based on the comparison processing with each of the threshold values The continuity with each point is determined, and the adjacent measurement point determined to have continuity is set as the next measurement point. Object extracting apparatus according to claim 1, characterized in that the fourth connecting method of repeating the process for sequentially with a configuration to perform continuous surface extraction.
【請求項7】前記連続面抽出手段は、抽出対象物体を示
す画像の任意の点を前記計測ポイントの起点として、順
次隣接計測ポイントとの連続性を判定し連続面抽出を実
行する構成を有することを特徴とする請求項6に記載の
物体抽出装置。
7. The continuous plane extracting means has a configuration in which an arbitrary point of an image representing an object to be extracted is set as a starting point of the measurement point, and continuity with an adjacent measurement point is sequentially determined to perform continuous plane extraction. The object extraction device according to claim 6, wherein:
【請求項8】前記連続面抽出手段は、三次元情報に基づ
いて得られる距離画像に含まれる計測ポイントについて
該計測ポイントの周囲8つの隣接計測ポイントとの連続
性を判定し、 連続性有りと判定された隣接計測ポイントを次の計測ポ
イントとして、さらに周囲8つの隣接計測ポイントとの
連続性を判定する処理を順次繰り返す8連結法により連
続面抽出を実行する構成を有することを特徴とする請求
項1に記載の物体抽出装置。
8. The continuous plane extracting means determines continuity of a measurement point included in a distance image obtained based on three-dimensional information with eight adjacent measurement points around the measurement point, and determines that there is continuity. Claims are characterized in that a continuous face extraction is performed by an 8-connection method in which a determined adjacent measurement point is set as a next measurement point and a process of determining continuity with eight neighboring measurement points is sequentially repeated. Item 1. The object extraction device according to Item 1.
【請求項9】前記連続面抽出手段は、抽出対象物体を示
す画像の任意の点を前記計測ポイントの起点として、順
次隣接計測ポイントとの連続性を判定し連続面抽出を実
行する構成を有することを特徴とする請求項8に記載の
物体抽出装置。
9. The continuous plane extracting means has a configuration in which an arbitrary point of an image representing an object to be extracted is set as a starting point of the measurement point, and continuity with adjacent measurement points is sequentially determined to perform continuous plane extraction. The object extraction device according to claim 8, wherein:
【請求項10】前記計測ポイントの各々は、前記画像に
含まれる画素に対応づけられ、隣接する計測ポイントは
隣接する画素に対応するものであることを特徴とする請
求項1に記載の物体抽出装置。
10. The object extraction method according to claim 1, wherein each of the measurement points is associated with a pixel included in the image, and adjacent measurement points correspond to adjacent pixels. apparatus.
【請求項11】三次元情報に基づいて、画像中から連続
面領域を構成する物体の抽出を実行する物体抽出方法に
おいて、 三次元情報に含まれる計測ポイント中の隣接する2つの
計測ポイント間の2点間距離情報を算出する2点間距離
情報算出ステップと、 算出した2点間距離情報と予め定めた閾値との比較処理
を実行する比較処理ステップと、 前記2点間距離情報が前記閾値より小であるとの判定に
基づいて該隣接する計測ポイント同士が連続性を有する
連続面領域であると識別する連続面領域識別ステップ
と、 を有することを特徴とする物体抽出方法。
11. An object extraction method for extracting an object constituting a continuous surface area from an image based on three-dimensional information, the method comprising the steps of: A point-to-point distance information calculating step of calculating point-to-point distance information; a comparison processing step of executing a comparison process between the calculated point-to-point distance information and a predetermined threshold value; A step of identifying the adjacent measurement points as a continuous plane area having continuity based on the determination that the measurement points are smaller than each other.
【請求項12】前記2点間距離情報算出ステップにおい
て用いる2点間距離情報は、前記三次元情報に基づいて
得られる前記隣接する2つの計測ポイントの三次元座標
から算出される三次元的距離であることを特徴とする請
求項11に記載の物体抽出方法。
12. The two-point distance information used in the two-point distance information calculating step is a three-dimensional distance calculated from three-dimensional coordinates of the two adjacent measurement points obtained based on the three-dimensional information. The object extraction method according to claim 11, wherein
【請求項13】前記2点間距離情報算出ステップにおい
て用いる2点間距離情報は、前記三次元情報に基づいて
得られる前記隣接する2つの計測ポイントの三次元座標
から算出されるZ軸方向の距離である奥行き方向距離で
あることを特徴とする請求項11に記載の物体抽出方
法。
13. The two-point distance information used in the two-point distance information calculating step is a Z-axis direction calculated from three-dimensional coordinates of the two adjacent measuring points obtained based on the three-dimensional information. The method according to claim 11, wherein the distance is a depth direction distance.
【請求項14】前記物体抽出方法において、さらに、 異なる連続面領域を識別するラベルを前記計測ポイント
に対応して付与するラベリング処理ステップを有し、該
ラベリング処理ステップは、前記連続面領域識別ステッ
プにおいて連続性を有する連続面領域であると識別され
た2つの計測ポイント各々に同一のラベルを付与するこ
とを特徴とする請求項11に記載の物体抽出方法。
14. The object extracting method according to claim 1, further comprising a labeling processing step of assigning a label for identifying a different continuous plane area to the measurement point, wherein the labeling processing step is a step of identifying the continuous plane area identification step. The object extraction method according to claim 11, wherein the same label is assigned to each of the two measurement points identified as a continuous surface area having continuity.
【請求項15】前記2点間距離情報算出ステップは、 三次元情報に基づいて得られる距離画像に含まれる計測
ポイントについて計測ポイントと上方向に隣接する上方
隣接計測ポイントとの2点間距離情報DUを算出するス
テップと、 該計測ポイントと左方向に隣接する左方隣接計測ポイン
トとの2点間距離情報DLを算出するステップとを含
み、 前記比較処理ステップは、 前記2点間距離情報DUと前記閾値との比較処理を実行
するステップと、 前記2点間距離情報DLと前記閾値との比較処理を実行
するステップとを含み、 前記連続面領域識別ステップは、 前記比較処理ステップにおける比較結果に基づいて前記
計測ポイントと左方隣接計測ポイント、および上方隣接
計測ポイントとの連続性を判定するとともに、 該計測ポイントと上方向に隣接する上方隣接計測ポイン
トとの2点間距離情報DUと前記閾値との比較処理に基
づいて該計測ポイントと上方隣接計測ポイントとの連続
性を判定するとともに、 該計測ポイントと左方向に隣接する左方隣接計測ポイン
トとの2点間距離情報DLと前記閾値との比較処理に基
づいて該計測ポイントと左方隣接計測ポイントとの連続
性を判定し、 前記2点間距離情報DL、DUのいずれか一方のみが前
記閾値より小である場合は、該閾値より小の隣接計測ポ
イントと同一ラベルを前記計測ポイントのラベルとして
付与し、 前記2点間距離情報DL、DUのいずれもが前記閾値よ
り小でない場合は、新たなラベルを前記計測ポイントの
ラベルとして付与し、 前記2点間距離情報DL、DUがいずれも前記閾値より
小である場合は、前記上方向、左方向の識別ラベルのい
ずれか一方のラベルを選択ラベルとし、前記計測ポイン
トのラベルとして付与するとともに、前記選択ラベルと
異なる前記上方向、左方向いずれかの非選択ラベルと同
一のラベルが付与された計測ポイントのラベルを選択ラ
ベルに変更する処理を実行することを特徴とする請求項
11に記載の物体抽出方法。
15. The point-to-point distance information calculating step includes the step of calculating point-to-point distance information between a measurement point and an upper adjacent measurement point that is adjacent in the upward direction with respect to the measurement point included in the distance image obtained based on the three-dimensional information. Calculating the DU; and calculating the distance information DL between two points between the measurement point and the left adjacent measurement point adjacent in the left direction. The comparison processing step includes: Executing a comparison process between the two-point distance information DL and the threshold value, and performing a comparison process between the two-point distance information DL and the threshold value. And determining the continuity between the measurement point and the left adjacent measurement point, and the upper adjacent measurement point based on The continuity between the measurement point and the upper adjacent measurement point is determined based on a comparison process between the two-point distance information DU between the measurement point and the upper adjacent measurement point adjacent to the direction and the threshold value. The continuity between the measurement point and the left adjacent measurement point is determined based on a comparison process between the distance information DL between two adjacent left measurement points and the threshold value, and the distance information between two points DL, If only one of the DUs is smaller than the threshold, the same label as the adjacent measurement point smaller than the threshold is given as the label of the measurement point, and both of the distance information between two points DL and DU are If it is not smaller than the threshold value, a new label is given as the label of the measurement point. If both of the distance information DL and DU between the two points are smaller than the threshold value, One of the identification labels in the upward direction and the left direction is used as the selection label, and the label is attached to the measurement point, and the same label as the non-selection label in the upward or left direction different from the selection label is used. 12. The method according to claim 11, wherein a process of changing the label of the measurement point to which the symbol is added to the selected label is executed.
【請求項16】前記2点間距離情報算出ステップは、 三次元情報に基づいて得られる距離画像に含まれる計測
ポイントについて該計測ポイントの上方向に隣接する上
方隣接計測ポイントとの2点間距離情報DU、 該計測ポイントの左方向に隣接する上方隣接計測ポイン
トとの2点間距離情報DL、 該計測ポイントの下方向に隣接する上方隣接計測ポイン
トとの2点間距離情報DD、 該計測ポイントの右方向に隣接する上方隣接計測ポイン
トとの2点間距離情報DR、 を算出し、 前記比較処理ステップは、 前記2点間距離情報算出ステップにおいて算出された2
点間距離情報DU、DL、DD、DRの各々と前記閾値
との比較処理を実行し、 前記連続面領域識別ステップは、 前記比較処理ステップにおける比較結果に基づいて前記
計測ポイントと上下左右各隣接計測ポイントとの連続性
を判定し、 連続性有りと判定された隣接計測ポイントを次の計測ポ
イントとして、さらに上下左右4方向の各隣接計測ポイ
ントとの連続性を判定する処理を順次繰り返す4連結法
により連続面抽出を実行することを特徴とする請求項1
11に記載の物体抽出方法。
16. The point-to-point distance information calculating step includes the step of calculating a distance between two points of a measurement point included in a distance image obtained based on three-dimensional information with an upper adjacent measurement point adjacent in the upward direction of the measurement point. Information DU, distance information DL between two points with an upper adjacent measurement point adjacent to the measurement point in the left direction, distance information DD between two points with an upper adjacent measurement point adjacent in a downward direction of the measurement point, the measurement point The distance information DR between two points with the upper adjacent measurement point adjacent in the right direction is calculated, and the comparison processing step calculates the distance information 2 calculated in the distance information calculation step between two points.
A comparison process is performed between each of the point-to-point distance information DU, DL, DD, and DR and the threshold value, and the continuous plane region identification step includes: Determines the continuity with the measurement point, sets the adjacent measurement point determined to have continuity as the next measurement point, and further repeats the process of sequentially determining the continuity with each of the adjacent measurement points in four directions, up, down, left, and right. 2. The method according to claim 1, wherein a continuous surface is extracted by a method.
12. The object extraction method according to item 11.
【請求項17】抽出対象物体を示す画像の任意の点を前
記計測ポイントの起点として設定する起点設定ステップ
を有し、 前記2点間距離情報算出ステップは、前記起点設定ステ
ップにおいて設定されたポイントを最初の計測ポイント
として、順次隣接計測ポイントとの連続性を判定し連続
面抽出を実行することを特徴とする請求項16に記載の
物体抽出方法。
17. A starting point setting step of setting an arbitrary point of an image indicating an extraction target object as a starting point of the measurement point, wherein the step of calculating distance information between two points includes the step of setting the point set in the starting point setting step. 17. The object extraction method according to claim 16, wherein continuity extraction is performed by successively determining continuity with adjacent measurement points by setting as a first measurement point.
【請求項18】前記物体抽出方法は、三次元情報に基づ
いて得られる距離画像に含まれる計測ポイントについて
該計測ポイントの周囲8つの隣接計測ポイントとの連続
性を判定し、 連続性有りと判定された隣接計測ポイントを次の計測ポ
イントとして、さらに周囲8つの隣接計測ポイントとの
連続性を判定する処理を順次繰り返す8連結法により連
続面抽出を実行することを特徴とする請求項11に記載
の物体抽出方法。
18. The object extraction method according to claim 1, wherein the continuity of the measurement point included in the distance image obtained based on the three-dimensional information is measured with eight adjacent measurement points around the measurement point, and the continuity is determined. 12. The continuous surface extraction is performed by an 8-connection method in which the determined adjacent measurement point is set as the next measurement point and the process of judging the continuity with eight adjacent measurement points is sequentially repeated. Object extraction method.
【請求項19】抽出対象物体を示す画像の任意の点を前
記計測ポイントの起点として設定する起点設定ステップ
を有し、 前記2点間距離情報算出ステップは、前記起点設定ステ
ップにおいて設定されたポイントを最初の計測ポイント
として、順次隣接計測ポイントとの連続性を判定し連続
面抽出を実行することを特徴とする請求項18に記載の
物体抽出方法。
19. A starting point setting step of setting an arbitrary point of an image representing an extraction target object as a starting point of the measurement point, wherein the step of calculating distance information between two points includes the step of setting the point set in the starting point setting step. 19. The object extraction method according to claim 18, wherein the first measurement point is used as a first measurement point, and continuity with an adjacent measurement point is sequentially determined to perform continuous plane extraction.
【請求項20】前記計測ポイントの各々は、前記画像に
含まれる画素に対応づけられ、隣接する計測ポイントは
隣接する画素に対応することを特徴とする請求項11に
記載の物体抽出方法。
20. The object extraction method according to claim 11, wherein each of said measurement points is associated with a pixel included in said image, and adjacent measurement points correspond to adjacent pixels.
【請求項21】三次元情報に基づいて物体抽出処理を実
行するための処理をコンピュータ・システム上で実行せ
しめるコンピュータ・プログラムを有形的に提供するプ
ログラム提供媒体であって、前記コンピュータ・プログ
ラムは、 三次元情報に含まれる計測ポイント中の隣接する2つの
計測ポイント間の2点間距離情報を算出する2点間距離
情報算出ステップと、 算出した2点間距離情報と予め定めた閾値との比較処理
を実行する比較処理ステップと、 前記2点間距離情報が前記閾値より小であるとの判定に
基づいて該隣接する計測ポイント同士が連続性を有する
連続面領域であると識別する連続面領域識別ステップ
と、 を有することを特徴とするプログラム提供媒体。
21. A program providing medium for tangibly providing a computer program for causing a computer system to execute a process for executing an object extraction process based on three-dimensional information, wherein the computer program comprises: Calculating a distance information between two points between two adjacent measurement points in the measurement points included in the three-dimensional information; and comparing the calculated distance information between the two points with a predetermined threshold value A comparison processing step of executing processing; and a continuous surface area that identifies the adjacent measurement points as a continuous surface area having continuity based on the determination that the distance information between two points is smaller than the threshold. A program providing medium, comprising: an identification step.
JP11172093A 1999-06-18 1999-06-18 Device and method for extracting object, and program providing medium Pending JP2001005978A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11172093A JP2001005978A (en) 1999-06-18 1999-06-18 Device and method for extracting object, and program providing medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11172093A JP2001005978A (en) 1999-06-18 1999-06-18 Device and method for extracting object, and program providing medium

Publications (1)

Publication Number Publication Date
JP2001005978A true JP2001005978A (en) 2001-01-12

Family

ID=15935421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11172093A Pending JP2001005978A (en) 1999-06-18 1999-06-18 Device and method for extracting object, and program providing medium

Country Status (1)

Country Link
JP (1) JP2001005978A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005182303A (en) * 2003-12-17 2005-07-07 Mitsubishi Electric Corp Traffic lane recognition image processor
JP2007212264A (en) * 2006-02-09 2007-08-23 Taisei Corp Scanning method of three-dimensional laser scanner
JP2010039868A (en) * 2008-08-06 2010-02-18 Sharp Corp Position coordinate processing apparatus and position coordinate processing method
JP2010247959A (en) * 2009-04-16 2010-11-04 Ihi Corp Box-shaped work recognizing device and method
JP2011509451A (en) * 2007-12-20 2011-03-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Segmentation of image data
CN102576456A (en) * 2009-07-31 2012-07-11 伊斯曼柯达公司 Digital image brightness adjustment using range information
JP2013528790A (en) * 2010-05-10 2013-07-11 ファロ テクノロジーズ インコーポレーテッド Method for optically scanning and measuring the environment
CN104816306A (en) * 2014-02-04 2015-08-05 精工爱普生株式会社 Robot, robot system, control device and control method
JP2017219385A (en) * 2016-06-06 2017-12-14 株式会社デンソーアイティーラボラトリ Object detector, object detection system, object detection method, and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005182303A (en) * 2003-12-17 2005-07-07 Mitsubishi Electric Corp Traffic lane recognition image processor
JP2007212264A (en) * 2006-02-09 2007-08-23 Taisei Corp Scanning method of three-dimensional laser scanner
JP2011509451A (en) * 2007-12-20 2011-03-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Segmentation of image data
US8515172B2 (en) 2007-12-20 2013-08-20 Koninklijke Philips N.V. Segmentation of image data
JP2010039868A (en) * 2008-08-06 2010-02-18 Sharp Corp Position coordinate processing apparatus and position coordinate processing method
JP2010247959A (en) * 2009-04-16 2010-11-04 Ihi Corp Box-shaped work recognizing device and method
CN102576456A (en) * 2009-07-31 2012-07-11 伊斯曼柯达公司 Digital image brightness adjustment using range information
JP2013501264A (en) * 2009-07-31 2013-01-10 イーストマン コダック カンパニー Brightness adjustment of digital images using range information
JP2013528790A (en) * 2010-05-10 2013-07-11 ファロ テクノロジーズ インコーポレーテッド Method for optically scanning and measuring the environment
CN104816306A (en) * 2014-02-04 2015-08-05 精工爱普生株式会社 Robot, robot system, control device and control method
JP2015147256A (en) * 2014-02-04 2015-08-20 セイコーエプソン株式会社 Robot, robot system, control device, and control method
JP2017219385A (en) * 2016-06-06 2017-12-14 株式会社デンソーアイティーラボラトリ Object detector, object detection system, object detection method, and program

Similar Documents

Publication Publication Date Title
US11080932B2 (en) Method and apparatus for representing a virtual object in a real environment
JP7265639B2 (en) Point cloud merging method that identifies and retains preferred points
US10043315B2 (en) Method and apparatus for representing a virtual object in a real environment
JP6236118B2 (en) 3D data processing apparatus, 3D data processing system, 3D data processing method and program
US9208607B2 (en) Apparatus and method of producing 3D model
JP5343042B2 (en) Point cloud data processing apparatus and point cloud data processing program
JP5538667B2 (en) Position / orientation measuring apparatus and control method thereof
JP3857328B2 (en) Display editing system
US5990900A (en) Two-dimensional to three-dimensional image converting system
US6714689B1 (en) Image synthesizing method
JP2001067463A (en) Device and method for generating facial picture from new viewpoint based on plural facial pictures different in viewpoint, its application device and recording medium
JP2019114103A (en) Object recognition processing device, object recognition processing method and program
JP2002336188A (en) Endoscope system for measurement
JP2001005978A (en) Device and method for extracting object, and program providing medium
JP3862402B2 (en) 3D model generation apparatus and computer-readable recording medium on which 3D model generation program is recorded
JP4524514B2 (en) Image processing apparatus, image processing method, and recording medium
US20040155886A1 (en) Image simulation processing method, processing apparatus, and program
EP0841639A2 (en) Method and apparatus for automatic gap closing in computer aided drawing
JP2001319224A (en) Device and method for detecting three-dimensional object, and recording medium
JP2012154672A (en) Image processing method, program, and image processing device
JP3902872B2 (en) Computer-readable recording medium recording virtual three-dimensional space generation program, and virtual three-dimensional space generation device
EP4020400A2 (en) Image processing method and image processing device for generating 3d content by means of 2d images
JP7345306B2 (en) Image processing device, image processing method
JP7290601B2 (en) Point cloud construction device, position estimation device, point cloud construction method, position estimation method and program
JP2000057376A (en) Method for generating new viewpoint image