JPH06258048A - Object input device - Google Patents

Object input device

Info

Publication number
JPH06258048A
JPH06258048A JP5045256A JP4525693A JPH06258048A JP H06258048 A JPH06258048 A JP H06258048A JP 5045256 A JP5045256 A JP 5045256A JP 4525693 A JP4525693 A JP 4525693A JP H06258048 A JPH06258048 A JP H06258048A
Authority
JP
Japan
Prior art keywords
distribution
information
observed
observation
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5045256A
Other languages
Japanese (ja)
Other versions
JP3409873B2 (en
Inventor
Kaoru Suzuki
薫 鈴木
Takashi Wada
和田  隆
Tatsuro Nakamura
達郎 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP04525693A priority Critical patent/JP3409873B2/en
Publication of JPH06258048A publication Critical patent/JPH06258048A/en
Application granted granted Critical
Publication of JP3409873B2 publication Critical patent/JP3409873B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To enhance the convenience of an object input device for taking in three-dimensional profile information of an object disposed in an observation space. CONSTITUTION:The objective input device comprises an observation means 1 which can measure at least the background distribution among, distance distribution, mass feeling distribution, and background distribution constituting the spatial information of an observation space, and an operating means 2 for configuring at least three-dimensional profile information of an object to be observed from spatial information. The observation means 1 comprises means for supporting the object and the supporting means is composed of such material as invisible for the observation means 1.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はCGやCAMにおいて用
いられるに係り、特に3次元視覚技術を利用して実在す
る物体を観測することによって自動的にこれを行なう物
体入力装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to CG and CAM, and more particularly to an object input device for automatically observing an existing object using a three-dimensional visual technique.

【0002】[0002]

【従来の技術】従来、情景の3次元情報を計算機により
自動的に獲得する技術としてshape−from−
X、depth−from−focus、ステレオ法な
ど様々な方法が提案されている。これらは3次元視覚技
術と呼ばれる。
2. Description of the Related Art Conventionally, as a technique for automatically obtaining three-dimensional information of a scene by a computer, a shape-from-
Various methods such as X, depth-from-focus, and stereo method have been proposed. These are called 3D vision techniques.

【0003】shape−from−Xは、例えば物体
を撮影して得られる画像中の輝度勾配から該物体表面の
法線ベクトル分布を求めて、該物体の3次元形状を復元
するものなどが提案されている。しかしながら、この種
の方法は対象物体や観測条件に関して、厳しい制約を仮
定しなければならず、一般的に利用できるには程遠かっ
た。
As the shape-from-X, for example, a method has been proposed in which the normal vector distribution of the surface of the object is obtained from the brightness gradient in the image obtained by photographing the object to restore the three-dimensional shape of the object. ing. However, this kind of method has to assume severe constraints on the target object and observation conditions, and is far from being generally available.

【0004】depth−from−focusは、同
一情景に対してレンズの焦点調整を変更しつつ複数の画
像を撮影し、最もピントの鮮明となる焦点位置を求め
て、情景の奥行き距離を算出する方法である。
The depth-from-focus is a method of calculating a depth distance of a scene by taking a plurality of images while changing the focus adjustment of the lens for the same scene, obtaining the focus position where the focus is sharpest. Is.

【0005】ステレオ法は3角測量の原理を応用した距
離計測技術である。ステレオ法は受動的ステレオ法と能
動的ステレオ法に大別される。
The stereo method is a distance measuring technique to which the principle of triangulation is applied. The stereo method is roughly classified into a passive stereo method and an active stereo method.

【0006】受動的ステレオ法とは、同一情景に対して
撮影された視点の異なる2枚の画像中の同一箇所を検出
し、該箇所の各々の画像中での位置に基づいて該箇所の
情景における空間位置を算出する方法である。同一箇所
の検出に成功すれば、空間位置の算出は非常に容易に行
える点が特徴であるが、情景が未知であるが故に、同一
箇所を自動的に検出することが困難である。特に、情景
が複雑になればなる程、同一箇所として検出される誤っ
た組み合わせが増大して、計測の精度を著しく損なうこ
とが知られている。また、検出される箇所は画像的に特
徴のある箇所に限定されるために、一色に塗られた面の
内部のような特徴の乏しい箇所の距離を計測することが
できないことも、この方法の問題点として挙げられてい
る。
The passive stereo method is to detect the same place in two images having different viewpoints taken for the same scene, and to detect the scene of the place based on the position of each of the places in each image. Is a method of calculating the spatial position in. If the same location is successfully detected, the spatial position can be calculated very easily, but it is difficult to automatically detect the same location because the scene is unknown. In particular, it is known that as the scene becomes more complicated, the number of wrong combinations detected as the same location increases, and the accuracy of measurement is significantly impaired. Further, since the detected location is limited to a location having an image feature, it is not possible to measure the distance of a location having a poor feature such as the inside of a surface painted in one color. It is mentioned as a problem.

【0007】これらの問題を解決するために考案された
のが能動的ステレオ法である。この方法は一方の画像入
力手段を光パタン投影手段に置き換え、物体表面に強制
的にパタンを発生させ、残る画像入力手段によって該パ
タンを撮影するものである。パタンは既知であるため
に、画像中から容易に検出可能であり、投影されるパタ
ンと撮影されるパタンとの関係から該パタンの空間位置
を容易に算出することができる。また、この方法は平坦
な面にも強制的に特徴を発生させるので、情景に依存す
ることなく安定に機能することが期待できる。このた
め、能動的ステレオ法は早くから実用化されており、こ
れまでに多くの提案がなされている(特開昭61−31
905号等)。
The active stereo method was devised to solve these problems. In this method, one of the image input means is replaced with an optical pattern projection means, a pattern is forcibly generated on the surface of the object, and the image is captured by the remaining image input means. Since the pattern is known, it can be easily detected from the image, and the spatial position of the pattern can be easily calculated from the relationship between the projected pattern and the captured pattern. Further, since this method forcibly generates features even on a flat surface, it can be expected to function stably without depending on the scene. Therefore, the active stereo method has been put to practical use from an early stage, and many proposals have been made so far (Japanese Patent Laid-Open No. 61-31).
No. 905).

【0008】図9に従って、レーザースポットを光パタ
ンとして利用する最も簡単な能動的ステレオ法の原理を
説明する。光源61を発したレーザービーム62は物体
に到達するまで直進する。いま、物体63がビームの光
路上に存在するなら、ビーム62は点64にスポットを
発生させ、撮像面67上の点68に結像する。また、物
体63ではなく物体65が存在する場合には、ビーム6
2は点66にスポットを発生させ、撮像面67上の点6
9に結像される。このとき、ビーム62と直線64−6
8の交点座標値を求めると点64の空間位置が得られ、
ビーム62と直線66−69の交点座標値を求めると点
66の空間位置が得られる。これが、能動的ステレオ法
の座標計算の原理である。
The principle of the simplest active stereo method using a laser spot as an optical pattern will be described with reference to FIG. The laser beam 62 emitted from the light source 61 travels straight until it reaches an object. If the object 63 is present on the optical path of the beam, the beam 62 produces a spot at the point 64 and forms an image at the point 68 on the imaging surface 67. If the object 65 exists instead of the object 63, the beam 6
2 generates a spot at the point 66, and the spot 6 on the imaging surface 67
9 is imaged. At this time, the beam 62 and the straight line 64-6
Obtaining the coordinate value of the intersection point of 8 gives the spatial position of the point 64,
The spatial position of the point 66 is obtained by finding the coordinate value of the intersection of the beam 62 and the line 66-69. This is the principle of coordinate calculation in the active stereo method.

【0009】ところで、受動的であるか能動的であるか
を問わず、ステレオ法では2つの画像入力手段もしくは
パタン投影手段と画像入力手段とが別々の位置に配置さ
れる必要があるため、両者を同時に見ることのできる物
体上の箇所しか入力できず、各手段の配置と物体表面の
形状によって偶然にも両者を同時に見ることのできない
箇所が入力不可能な箇所として残る。ステレオ法ではこ
のような箇所を死角と呼ぶ。この例を図10に示す。光
源71を発したレーザービーム72は物体73の点74
にスポットを発生させる。しかし、該スポットは物体7
3の点75によって進路を阻まれて撮像面76上の点7
7に到達しない。この結果、点74の像が検出されない
ので、該点の空間位置を算出することができない。
By the way, in the stereo method regardless of whether it is passive or active, two image input means or a pattern projection means and an image input means need to be arranged at different positions. Can only be input at locations on the object that can be seen at the same time, and due to the arrangement of each means and the shape of the object surface, locations at which both can't be seen at the same time by accident remain as uninputtable locations. In the stereo method, such a place is called a blind spot. An example of this is shown in FIG. The laser beam 72 emitted from the light source 71 is a point 74 on the object 73.
Generate spots on. However, the spot is the object 7
3 is blocked by the point 75 and the point 7 on the imaging surface 76
Do not reach 7. As a result, since the image of the point 74 is not detected, the spatial position of the point cannot be calculated.

【0010】また、能動的ステレオ法では、画像入力手
段は物体表面に反射されるパタン像を検出しなければな
らないが、反射輝度の著しく低い物体表面の箇所では検
出可能な輝度を持つパタン像が得られず、前記の死角に
該当しなくとも入力不可能な箇所が発生することがあ
る。この例を図11に示す。光源81を発したレーザー
ビーム82は物体83の点85や物体84の点86に到
達する。ところが、物体83の点85における面の傾き
が大き過ぎたり、物体84の点86における反射率が低
過ぎる場合には、撮像面87の点88や89における結
像の輝度が十分大きくならないことがある。この結果、
撮像面上でスポット像を発見することができなくなり、
能動的ステレオ法が失敗する。
Further, in the active stereo method, the image input means must detect the pattern image reflected on the object surface, but a pattern image having a detectable brightness is formed on the object surface where the reflection brightness is extremely low. There is a case in which there is a portion that cannot be input even if it does not correspond to the above-mentioned blind spot. An example of this is shown in FIG. The laser beam 82 emitted from the light source 81 reaches the point 85 of the object 83 and the point 86 of the object 84. However, when the inclination of the surface of the object 83 at the point 85 is too large or the reflectance of the object 84 at the point 86 is too low, the brightness of the image formation at the points 88 and 89 of the imaging surface 87 may not be sufficiently high. is there. As a result,
It becomes impossible to find a spot image on the imaging surface,
Active stereo method fails.

【0011】さらに、物体に貫通孔が存在する場合に
も、ビームの進路に物体がないために該箇所でのパタン
像が得られず、入力不可能な箇所として検出される。こ
の例を図12に示す。光源91を発したレーザービーム
92は物体93と94のいずれにも到達せず、従って、
撮像面95の上にはいかなるスポット像も検出されな
い。
Further, even when there is a through hole in the object, a pattern image cannot be obtained at that location because there is no object in the path of the beam, and it is detected as an input impossible location. This example is shown in FIG. The laser beam 92 emitted by the light source 91 does not reach either of the objects 93 and 94, therefore
No spot image is detected on the imaging surface 95.

【0012】このように、入力不可能箇所(以後、欠測
点と呼ぶ)は死角・低反射輝度部位・貫通孔の3種類に
分類され、特に死角・低反射輝度部位は物体表面であ
り、貫通孔は非物体表面であることがわかる。このと
き、欠測点が物体表面であれば、近傍の計測結果から補
間して該欠測点の入力値を推定することが可能である。
しかしながら、欠測点が物体表面でない場合には、該欠
測点に関して物体表面としての値を推定することは無意
味である。従来提案されているステレオ法による物体入
力装置は、欠測点が現れた場合に、該欠測点を物体表面
として入力値を推定するか、非物体表面として入力値を
推定しないかのいずれかのみを行っていた。このような
一律の処理しか行われなかったのは、従来の装置が欠測
点を物体表面であるか非物体表面であるか判別できない
ことに由来している。すなわち、従来の装置は欠測点を
正しく分類するための手段をなんら持たなかったのであ
る。この結果、観測結果にはしばしば誤りが発生してい
た。
As described above, the non-inputtable portion (hereinafter referred to as a missing point) is classified into three types, that is, a blind spot, a low reflection luminance portion, and a through hole. Particularly, the blind spot / low reflection luminance portion is the object surface. It can be seen that the through holes are non-object surfaces. At this time, if the missing point is the surface of the object, the input value of the missing point can be estimated by interpolating from the measurement results in the vicinity.
However, if the missing point is not the object surface, it is meaningless to estimate the value of the missing surface as the object surface. The conventionally proposed object input device by the stereo method, when a missing point appears, either estimates the input value as the object surface or does not estimate the input value as the non-object surface. Was only going. The reason why only such uniform processing is performed is that the conventional device cannot determine whether the missing point is the object surface or the non-object surface. That is, the conventional device has no means for correctly classifying missing points. As a result, the observation results were often incorrect.

【0013】一方、地球上などの重力の存在する場所で
実在する物体を観測する場合、物体は必ずなんらかの支
持手段によって保持されなければならない、このため、
観測結果には物体表面形状の他に、少なくとも該支持手
段のような本来計測対象でない物体の形状が混入するこ
ととなった。従来提案されている3次元視覚技術による
物体入力装置では、物体の存在範囲を予め設定可能と
し、該範囲内に存在する形状情報のみを抽出して出力す
るなどの対策が行われていた。しかしながら、例えば支
持手段の高さを調整するなど、入力環境の設定が変更さ
れるたびにこの範囲は調整されなければならず、少なか
らず使用者の負担となった。このように、従来の装置は
計測対象物体の情報に混入する不要情報を使用者の手を
煩わせることなく自動的かつ適応的に排除する手段を一
切持たなかった。
On the other hand, when observing a real object in a place where gravity exists on the earth, the object must be held by some kind of supporting means.
In addition to the surface shape of the object, at least the shape of the object such as the supporting means that is not the object of measurement is mixed in the observation result. In the conventionally proposed object input device based on the three-dimensional visual technique, the existing range of the object can be set in advance, and only the shape information existing in the range is extracted and output. However, this range must be adjusted every time the setting of the input environment is changed, for example, by adjusting the height of the supporting means, which is a considerable burden on the user. As described above, the conventional device has no means for automatically and adaptively removing unnecessary information mixed in the information of the measurement target object without bothering the user.

【0014】さらに、物体を1方向から観測するだけで
は該物体全体の形状を入力することは不可能である。物
体全体を入力するためには少なくとも複数方向からの観
測と、該複数の観測結果の統合とが必要である。複数方
向から物体を観測するために、物体を回転させて観測手
段に対して物体を様々に向けさせる方法や、物体の周囲
を自由に移動できる観測手段を用いて任意方向から物体
を観測する方法が従来より提案されている。しかしなが
ら、前述した通り物体は支持手段によって常に保持され
なければならず、少なくとも該支持手段と物体との接触
部位を観測することは従来提案されている3次元視覚技
術による物体入力装置では不可能であった。即ち、従来
の装置による観測にはこのような不可視部位が必ず存在
した。
Furthermore, it is not possible to input the shape of the entire object only by observing the object from one direction. In order to input the entire object, observation from at least a plurality of directions and integration of the plurality of observation results are required. In order to observe an object from multiple directions, a method of rotating the object to orient the object with respect to the observation means, or a method of observing the object from any direction using an observation means that can freely move around the object Has been proposed in the past. However, as described above, the object must be held by the supporting means at all times, and it is impossible to observe at least the contact portion between the supporting means and the object with the conventionally proposed object input device using the three-dimensional visual technique. there were. In other words, such an invisible part was inevitably present in the observation by the conventional device.

【0015】[0015]

【発明が解決しようとする課題】以上述べたように、従
来の物体入力装置では欠測点への対応不十分、不要情報
の排除における繁雑さ、不可視部位の存在などの問題が
存在した。本発明はこのような問題点に鑑みて成された
ものであり、その目的とするところは上記の問題点を解
決してより利便性の向上した物体入力装置を提供するこ
とである。
As described above, the conventional object input device has problems such as insufficient support for missing points, complexity in eliminating unnecessary information, and existence of invisible parts. The present invention has been made in view of such problems, and an object thereof is to solve the above problems and provide an object input device with improved convenience.

【0016】[0016]

【課題を解決するための手段】第1の発明は、観測空間
内に被観測物体を配し、該被観測物体の3次元形状情報
等を取り込む物体入力装置において、前記観測空間内の
空間情報である距離分布と質感分布と背景分布のうち少
なくとも背景分布が計測可能な観測手段と、該空間情報
から被観測物体に関する物体情報として少なくとも前記
被観測物体の3次元形状情報を構築する演算手段とより
なり、前記観測手段が、前記被観測物体を支持するため
の支持手段を具備し、かつ、該支持手段が前記観測手段
に対して不可視となるような材質または構造で構成され
るものである。
According to a first aspect of the present invention, there is provided an object input device in which an object to be observed is arranged in an observation space, and three-dimensional shape information or the like of the object to be observed is taken in. An observation means capable of measuring at least the background distribution among the distance distribution, the texture distribution, and the background distribution, and an operation means for constructing at least three-dimensional shape information of the observed object as object information related to the observed object from the spatial information. The observation means comprises a support means for supporting the object to be observed, and the support means is made of a material or structure invisible to the observation means. .

【0017】第2の発明は、第1の発明において、前記
観測手段が、前記被観測物体を複数の方向から観測可能
となし、前記演算手段が、該複数方向からの観測結果を
1つに統合した被観測物体の全域にわたる物体情報を構
築するものである。
In a second aspect based on the first aspect, the observing means is capable of observing the object to be observed from a plurality of directions, and the computing means combines the observation results from the plurality of directions into one. The object information is constructed over the entire range of the observed object.

【0018】第3の発明は、第1の発明において、前記
観測手段が、前記空間情報として距離分布と背景分布と
を計測可能であり、前記演算手段が、該背景分布から算
出される物体領域内に含まれる距離分布から前記3次元
形状情報を構築するものである。
In a third aspect based on the first aspect, the observing means is capable of measuring a distance distribution and a background distribution as the spatial information, and the calculating means is an object region calculated from the background distribution. The three-dimensional shape information is constructed from the distance distribution contained within.

【0019】第4の発明は、第1の発明において、前記
観測手段が、前記空間情報として距離分布と背景分布と
を計測可能であり、前記演算手段が、前記観測手段によ
って計測された背景分布毎に算出される複数方向からの
物体領域を重ね合わせて、前記被観測物体の占有する空
間を覆う閉じた面を生成し、さらに該面の内部に含まれ
る距離分布から前記3次元形状情報を構築するものであ
る。
In a fourth aspect based on the first aspect, the observing means is capable of measuring a distance distribution and a background distribution as the spatial information, and the calculating means is the background distribution measured by the observing means. Object regions from a plurality of directions calculated for each are overlapped to generate a closed surface covering the space occupied by the observed object, and the three-dimensional shape information is obtained from the distance distribution included in the surface. To build.

【0020】第5の発明は、第1の発明において、前記
観測手段に対峙する位置に照明手段を配し、前記背景分
布が、前記照明手段が前記被観測物体の後方から照明す
ることによって発生される該被観測物体の影画像であ
り、前記演算手段が該画像の中央に位置する影領域を前
記物体領域とするものである。
In a fifth aspect based on the first aspect, the illumination means is arranged at a position facing the observation means, and the background distribution is generated by the illumination means illuminating from behind the observed object. The shadow image of the observed object is obtained, and the shadow area located at the center of the image is the object area.

【0021】第6の発明は、第1の発明において、前記
観測手段が、前記空間情報として距離分布と背景分布と
を計測可能であり、前記距離分布が、前記距離分布が、
各画素の値が3次元座標値である2次元配列状の画像で
ある。
In a sixth aspect based on the first aspect, the observation means can measure a distance distribution and a background distribution as the spatial information, and the distance distribution and the distance distribution are
It is a two-dimensional array image in which the value of each pixel is a three-dimensional coordinate value.

【0022】[0022]

【作 用】第1の発明の物体入力装置によれば、観測手
段が観測空間に関する空間情報として少なくとも背景分
布を獲得し、演算手段が前記空間情報に基づいて被観測
物体に関する物体情報として少なくとも該物体の3次元
形状情報を算出し、出力手段が該物体情報を出力し、特
に前記観測手段が備える支持手段が不可視であるため
に、前記背景分布から容易に被観測物体の存在する領域
を推定可能である。そして、該推定された物体領域に基
づいて欠測点が物体表面であるか否かの判別と、不要情
報の自動的適応的排除とを可能とし、かつ観測手段が前
記不可視の支持手段を透過して前記被観測物体を該支持
手段との接触部位をも入力可能である。
[Operation] According to the object input device of the first invention, the observing means obtains at least the background distribution as the spatial information on the observation space, and the computing means at least as the object information on the observed object based on the spatial information. The three-dimensional shape information of the object is calculated, the output means outputs the object information, and in particular, since the supporting means included in the observing means is invisible, the area where the observed object exists can be easily estimated from the background distribution. It is possible. Then, it is possible to determine whether or not the missing point is the surface of the object based on the estimated object area, and to automatically and adaptively eliminate unnecessary information, and the observation means passes through the invisible support means. Then, it is possible to input the contact portion of the observed object with the supporting means.

【0023】第2の発明の物体入力装置によれば、前記
観測手段が、前記被観測物体を複数の方向から観測可能
となし、前記演算手段が、該複数方向からの観測結果を
1つに統合した被観測物体の全域にわたる物体情報を構
築するものである。これにより容易に被観測物体の全域
にわたる3次元形状情報を算出できる。
According to the object input device of the second invention, the observing means is capable of observing the object to be observed from a plurality of directions, and the computing means combines the observation results from the plurality of directions into one. The object information is constructed over the entire range of the observed object. This makes it possible to easily calculate the three-dimensional shape information over the entire area of the observed object.

【0024】第3の発明の物体入力装置によれば、前記
観測手段が、前記空間情報として距離分布と背景分布と
を計測し、前記演算手段が、該背景分布から算出される
物体領域内に含まれる距離分布から前記3次元形状情報
を構築する。これにより物体以外の情報であるノイズを
排除できる。
According to the object input device of the third invention, the observing means measures a distance distribution and a background distribution as the spatial information, and the calculating means puts them within an object area calculated from the background distribution. The three-dimensional shape information is constructed from the included distance distribution. This makes it possible to eliminate noise, which is information other than the object.

【0025】第4の発明の物体入力装置によれば、前記
観測手段が、前記空間情報として距離分布と背景分布と
を計測し、前記演算手段が、前記観測手段によって計測
された背景分布毎に算出される複数方向からの物体領域
を重ね合わせて、前記被観測物体の占有する空間を覆う
閉じた面を生成し、さらに該面の内部に含まれる距離分
布から前記3次元形状情報を構築する。これにより物体
以外の情報であるノイズを排除できる。
According to the object input device of the fourth invention, the observing means measures the distance distribution and the background distribution as the spatial information, and the computing means measures each background distribution measured by the observing means. The calculated object regions from a plurality of directions are overlapped to generate a closed surface that covers the space occupied by the observed object, and the three-dimensional shape information is constructed from the distance distribution included inside the surface. . This makes it possible to eliminate noise, which is information other than the object.

【0026】第5の発明の物体入力装置によれば、前記
観測手段に対峙する位置に照明手段を配し、前記背景分
布が、前記照明手段が前記被観測物体の後方から照明す
ることによって発生される該被観測物体の影画像であ
り、前記演算手段が該画像の中央に位置する影領域を前
記物体領域とする。これにより物体の周囲形状や貫通孔
を正確に判断できる。
According to the object input device of the fifth invention, the illuminating means is arranged at a position facing the observing means, and the background distribution is generated by the illuminating means illuminating from behind the observed object. A shadow area of the observed object, which is located in the center of the image, is defined as the object area. Thereby, the peripheral shape of the object and the through hole can be accurately determined.

【0027】第6の発明の物体入力装置によれば、前記
観測手段が、前記空間情報として距離分布と背景分布と
を計測可能であり、前記距離分布が、各画素の値が3次
元座標値である2次元配列状の画像である。
According to the object input device of the sixth aspect of the invention, the observing means can measure a distance distribution and a background distribution as the spatial information, and the distance distribution has three-dimensional coordinate values with each pixel value. Is a two-dimensional array image.

【0028】[0028]

【実施例】本発明に係る物体入力装置の一実施例を図面
に従って説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT An embodiment of an object input device according to the present invention will be described with reference to the drawings.

【0029】図1は、本実施例の物体入力装置の全体構
成図である。
FIG. 1 is an overall configuration diagram of the object input device of this embodiment.

【0030】図中の1は被観測物体を覆う観測空間内部
の諸情報を空間情報として獲得するための観測部であ
り、図中の2は該空間情報を処理して前記被観測物体に
関する記述を物体情報として構築するための演算部であ
り、図中の3は前記空間情報と物体情報とその他の暫定
的な情報とを記憶格納するための記憶部であり、図中の
4は構築されて記憶部3に格納された物体情報を、CG
やCAMに出力するための出力部である。また、この出
力部において、物体情報を直接再生してもよい。なお、
本実施例では前記空間情報とは、距離分布と質感分布と
背景分布であり、前記物体情報は該被観測物体の3次元
形状情報と質感情報と両者の対応関係を示すマッピング
情報である。
Reference numeral 1 in the figure is an observation unit for acquiring various information inside the observation space covering the observed object as spatial information, and 2 in the figure is a description of the observed object by processing the spatial information. Is a calculation unit for constructing as the object information, 3 in the drawing is a storage unit for storing and storing the spatial information, the object information and other temporary information, and 4 in the drawing is constructed. The object information stored in the storage unit 3 as CG
And an output unit for outputting to CAM. Further, the object information may be directly reproduced in this output unit. In addition,
In the present embodiment, the spatial information is a distance distribution, a texture distribution, and a background distribution, and the object information is mapping information indicating the correspondence between the three-dimensional shape information and the texture information of the observed object.

【0031】図2に本実施例の処理の流れを示す。図中
の11は空間情報獲得処理であり、前記観測部1によっ
て前記観測空間内部の該情報を前記空間情報として獲得
する処理である。図中の12は物体情報構築処理であ
り、前記演算部2によって前記空間情報より被観測物体
に関する3次元形状情報と質感情報と両者の対応関係情
報とを前記物体情報として構築する処理である。図中の
13は出力処理であり、前記物体情報を前記出力部3に
よって出力する処理である。
FIG. 2 shows a processing flow of this embodiment. Reference numeral 11 in the figure is a spatial information acquisition process, which is a process of acquiring the information inside the observation space as the spatial information by the observation unit 1. Reference numeral 12 in the figure is an object information construction process, which is a process for constructing the three-dimensional shape information and the texture information about the object to be observed and the correspondence information between the two as the object information by the calculation unit 2 as the space information. Reference numeral 13 in the drawing denotes an output process, which is a process for outputting the object information by the output unit 3.

【0032】図3は本実施例における観測部1の詳細構
成図である。図中の21は被観測物体である。図中の2
2は観測空間内に光パタンを投影するためのパタン投影
部であり、本実施例ではレーザー発生手段と回転する複
数のミラーなどの偏向手段とから成る機構により、レー
ザービームを観測空間内で上下左右に走査する方式を採
用している。図中の23は観測空間内の輝度分布を画像
として獲得するための画像入力部であり、カラーCCD
カメラなどで実現される。
FIG. 3 is a detailed configuration diagram of the observation unit 1 in this embodiment. Reference numeral 21 in the figure is an observed object. 2 in the figure
Reference numeral 2 denotes a pattern projection unit for projecting an optical pattern in the observation space. In the present embodiment, a laser beam is moved up and down in the observation space by a mechanism including a laser generation means and a plurality of rotating deflecting means such as mirrors. It adopts a method of scanning left and right. Reference numeral 23 in the figure is an image input unit for acquiring the brightness distribution in the observation space as an image, and is a color CCD.
It is realized by a camera.

【0033】図中の25は被観測物体を画像入力部23
に面した方向から照明するための前方照明部であり、図
中の26は被観測物体を画像入力部23に対して反対の
方向から均一に照明するためのスクリーンを持つ後方照
明部である。
Reference numeral 25 in the figure represents the object to be observed in the image input unit 23.
Is a front illuminating unit for illuminating from the direction facing the front side, and 26 is a rear illuminating unit having a screen for uniformly illuminating the observed object from the opposite direction to the image input unit 23.

【0034】図中の24は、距離分布獲得部であり、前
記パタン投影部22が発するレーザービームのスポット
像を前記画像入力部23で撮影して得られる画像を能動
的ステレオ法に基づいて解析し、該スポットの空間位置
を算出できるようになっている。
Reference numeral 24 in the figure is a distance distribution acquisition unit, which analyzes the image obtained by photographing the spot image of the laser beam emitted by the pattern projection unit 22 with the image input unit 23 based on the active stereo method. However, the spatial position of the spot can be calculated.

【0035】図6に距離分布獲得部24の動作状態を示
す。図10の前方照明25と後方照明26はレーザーの
反射光が観測され易いように消灯される。レーザービー
ムは主走査101と副走査102を施され、4角錐10
3の内部でメッシュ状のサンプリングが行われる。この
結果、得られる距離分布がm×n要素を持つ2次元デー
タ配列となる。該配列の各要素には該要素に対応した特
定既知の方向に照射されたレーザービームがサンプリン
グした被観測物体表面の3次元座標が格納される。本明
細書では、この配列を距離分布または距離画像と呼び、
該配列の要素を画素と呼ぶ。
FIG. 6 shows an operating state of the distance distribution acquisition unit 24. The front illumination 25 and the rear illumination 26 of FIG. 10 are turned off so that the reflected light of the laser can be easily observed. The laser beam is subjected to main scanning 101 and sub-scanning 102, and a quadrangular pyramid 10
A mesh-like sampling is performed inside 3. As a result, the obtained distance distribution becomes a two-dimensional data array having m × n elements. Each element of the array stores the three-dimensional coordinates of the surface of the observed object sampled by the laser beam emitted in a specific known direction corresponding to the element. In this specification, this array is called a distance distribution or a range image,
The elements of the array are called pixels.

【0036】図中の27は質感分布獲得部であり、前記
前方照明部25に照らされた被観測物体を前記画像入力
部23で撮影して得られるカラー画像を質感分布として
獲得する。図中の28は背景分布獲得部であり、後方照
明部26に照らされた被観測物体の影法師を前記画像入
力部23で撮影して得られる影画像を背景分布として獲
得する。質感分布獲得部27と背景分布獲得部28の動
作状態を図7と図8に各々例示する。
Reference numeral 27 in the drawing is a texture distribution acquisition unit, which acquires a color image obtained by photographing the observed object illuminated by the front illumination unit 25 with the image input unit 23 as a texture distribution. Reference numeral 28 in the figure is a background distribution acquisition unit, which acquires a shadow image obtained by photographing the shadow caster of the observed object illuminated by the rear illumination unit 26 with the image input unit 23 as a background distribution. The operation states of the texture distribution acquisition unit 27 and the background distribution acquisition unit 28 are illustrated in FIGS. 7 and 8, respectively.

【0037】図中の29は被観測物体を乗せて回転可能
な透明の支持部である。図中の30は上記各部を有機的
に結び付けて制御するための制御部である。なお、前記
獲得された距離分布、質感分布、背景分布、支持部29
の回転角度、距離分布の各画素が獲得された時点のレー
ザービームの軌道などの諸情報は記憶部3に格納され
る。
Reference numeral 29 in the figure denotes a transparent support portion on which an object to be observed can be placed and rotated. Reference numeral 30 in the figure is a control unit for organically connecting and controlling the above respective units. In addition, the acquired distance distribution, texture distribution, background distribution, and supporting unit 29.
Various information such as the rotation angle of the laser beam and the trajectory of the laser beam at the time when each pixel of the distance distribution is acquired are stored in the storage unit 3.

【0038】以上の構成から成る観測部1によれば、被
観測物体21は支持部29の回転によってパタン投影部
22と画像入力部23に対して様々な方向に向けられて
都度観測される。この結果、被観測物体の複数方向から
の距離分布と質感分布と背景分布の組が該観測方向の数
だけ獲得される。
According to the observation unit 1 having the above-described structure, the object to be observed 21 is observed by turning the support unit 29 in various directions with respect to the pattern projection unit 22 and the image input unit 23. As a result, as many sets of distance distributions, texture distributions, and background distributions of the observed object as the number of the observation directions are acquired.

【0039】図14(a)は、前記獲得された距離分布
の一部を示す概念図、(b)は、質感分布の一部を示す
概念図、(c)は背景分布の一部を示す概念図であり、
(d)は、これらより得られた物体情報の一部を示して
いる。
FIG. 14A is a conceptual diagram showing a part of the obtained distance distribution, FIG. 14B is a conceptual diagram showing a part of the texture distribution, and FIG. 14C is a diagram showing a part of the background distribution. It is a conceptual diagram,
(D) shows a part of the object information obtained from them.

【0040】図4は本実施例における演算部2の詳細構
成図である。図中の41は前記背景分布から被観測物体
の写っている領域を物体領域として抽出する物体領域抽
出部である。前述した通り、被観測物体21を支持する
支持部29は透明なので、後方照明時に撮影される背景
分布にはその中央部に物体の影法師が中空に浮かぶよう
に写る。物体領域抽出部41は該背景分布を2値化した
後、画像中央部に存在する連続した黒画素領域を抽出す
ることで、前記物体領域を容易に抽出することが可能で
ある。抽出された物体領域は前述した記憶部3に格納さ
れる。
FIG. 4 is a detailed block diagram of the arithmetic unit 2 in this embodiment. Reference numeral 41 in the figure denotes an object area extraction unit that extracts an area in which the observed object is reflected from the background distribution as an object area. As described above, since the support portion 29 that supports the object to be observed 21 is transparent, the shadow distribution of the object appears as if it were hollow in the center of the background distribution imaged during rear illumination. The object area extracting unit 41 can easily extract the object area by binarizing the background distribution and then extracting a continuous black pixel area existing in the center of the image. The extracted object area is stored in the storage unit 3 described above.

【0041】図中の42は前記物体領域をマスクとし
て、前記質感分布から該マスクに重なる部分の情報を抜
き出す質感情報抽出部である。前述した通り、背景分布
と質感分布は同一の画像入力部23によって撮影される
ので、両画像は1画素単位でピッタリ重ねることが可能
である。質感情報抽出部42は前記マスクの内部に存在
する背景分布中の画素に対応した質感分布中の画素のみ
を抽出して質感情報とする。この結果、質感分布中に存
在する被観測物体21に関係のない不要情報が削除され
る。質感情報は質感分布として撮影されたカラー画像で
ある。一般に、カラーCCDカメラは赤・青・緑の3波
長における光の輝度値を出力するので、質感分布はある
照明下での被観測物体表面からの反射光の赤・青・緑に
関する波長別輝度分布となる。なお、前記抽出された質
感情報は記憶部3に格納される。
Reference numeral 42 in the drawing is a texture information extraction unit that extracts information of a portion overlapping with the mask from the texture distribution using the object area as a mask. As described above, since the background distribution and the texture distribution are captured by the same image input unit 23, both images can be superposed exactly on a pixel-by-pixel basis. The texture information extraction unit 42 extracts only the pixels in the texture distribution corresponding to the pixels in the background distribution existing inside the mask to obtain the texture information. As a result, unnecessary information unrelated to the observed object 21 existing in the texture distribution is deleted. The texture information is a color image captured as a texture distribution. In general, a color CCD camera outputs the brightness value of light at three wavelengths of red, blue, and green. Therefore, the texture distribution has a brightness for each wavelength of red, blue, and green of the reflected light from the surface of the observed object under certain illumination. Distribution. The extracted texture information is stored in the storage unit 3.

【0042】図中の43は距離分布中の各画素を背景分
布中の画素に対応付けるマッピング情報を抽出するマッ
ピング情報抽出部である。画像入力部22で撮影された
背景分布はレンズの結像過程において光学的に該レンズ
中心を起点とした透視変換を施されている。このため、
距離分布と背景分布はそのまま重ね合わせることができ
ない。そこで、距離分布の各画素が表現する3次元座標
点に画像入力部22が行うのと同一の透視変換を施して
変換後に距離分布を求める。変換後の距離分布中の各画
素が格納する3次元座標値のうち、奥行き座標値を除く
2つの座標値で示される2次元座標点は2次元的画像で
ある背景分布と重ね合わせることができ、該変換後距離
分布の各画素に対応する背景分布中の画素を容易に求め
ることができる。変換後距離分布と背景分布の対応関係
は距離分布と背景分布、距離分布と質感分布の対応関係
と等価である。この対応関係がマッピング情報として前
述した記憶部3に格納される。
Reference numeral 43 in the figure denotes a mapping information extraction unit for extracting mapping information that associates each pixel in the distance distribution with a pixel in the background distribution. The background distribution photographed by the image input unit 22 is optically subjected to perspective transformation with the center of the lens as a starting point in the image forming process of the lens. For this reason,
The distance distribution and the background distribution cannot be directly superimposed. Therefore, the same perspective transformation as that performed by the image input unit 22 is performed on the three-dimensional coordinate points represented by each pixel of the distance distribution, and the distance distribution is obtained after the transformation. Of the three-dimensional coordinate values stored by each pixel in the transformed distance distribution, the two-dimensional coordinate points indicated by the two coordinate values excluding the depth coordinate value can be superimposed on the background distribution that is a two-dimensional image. The pixels in the background distribution corresponding to each pixel in the post-conversion distance distribution can be easily obtained. The correspondence relationship between the transformed distance distribution and the background distribution is equivalent to the correspondence relationship between the distance distribution and the background distribution and between the distance distribution and the texture distribution. This correspondence is stored in the storage unit 3 described above as mapping information.

【0043】図中の44は前記マッピング情報に基づい
て、前記物体領域の外に存在する背景分布中の画素に対
応付けられた距離分布中の全ての画素を非物体領域とし
て削除する非物体距離分布削除部である。この結果、距
離分布中に存在する被観測物体21に関係のない不要情
報が削除される。
Reference numeral 44 in the figure is a non-object distance in which all pixels in the distance distribution corresponding to the pixels in the background distribution existing outside the object area are deleted as non-object areas based on the mapping information. It is a distribution deletion unit. As a result, unnecessary information unrelated to the observed object 21 existing in the distance distribution is deleted.

【0044】図中の45は複数方向から観測して得られ
た空間情報から、被観測物体の全域にわたる3次元形状
情報を構築する形状構築部である。構築された3次元形
状情報は記憶部3に格納され、質感情報やマッピング情
報とともに出力部4によって出力される。
Reference numeral 45 in the figure is a shape construction unit for constructing three-dimensional shape information over the entire area of the observed object from spatial information obtained by observing from a plurality of directions. The constructed three-dimensional shape information is stored in the storage unit 3, and is output by the output unit 4 together with the texture information and the mapping information.

【0045】図5は前記形状構築部45の詳細構成図で
ある。図中の51は複数方向から観測された背景分布か
ら抽出された複数の物体領域の輪郭、即ち物体輪郭に基
づいて、被観測物体が占有する空間を算出する物体ボリ
ューム抽出部である。ある視点から獲得された物体輪郭
の各画素に対して、該視点から延ばされた半直線の集合
で囲まれる錐状の空間の内部における任意の場所には被
観測物体が存在する可能性がある。複数方向から獲得さ
れたこのような錐状空間の共通部分を求めると、該共通
部分は被観測物体の存在可能な1つの閉じた空間を与え
てくれる。本明細書では、この空間を物体ボリュームと
呼ぶことにする。被観測物体の表面は必ずこの物体ボリ
ュームの境界面上か内部に存在する。物体ボリュームは
例えばコーヒーカップの取っ手のような物体に開いた貫
通孔を示すことができる。しかしながら、該カップ自体
の容器としての穴、即ち貫通していない陥没部を抽出す
ることはできない。もし、被観測物体が非貫通陥没部を
持たない形状の物体であるならば、該物体ボリュームは
正しく被観測物体の3次元形状を再現したものとなる。
ところが、実際には物体には非貫通陥没部が多数現れる
ので、物体の3次元形状として物体ボリュームを採用す
るのは十分ではない。非貫通陥没部の形状をも再現する
ためには、距離分布を利用して物体ボリュームの不備を
補う必要がある。
FIG. 5 is a detailed configuration diagram of the shape constructing unit 45. Reference numeral 51 in the figure is an object volume extraction unit that calculates the space occupied by the observed object based on the contours of a plurality of object regions extracted from the background distributions observed from a plurality of directions, that is, the object contours. For each pixel of the object contour acquired from a certain viewpoint, there is a possibility that the observed object exists at an arbitrary position inside the conical space surrounded by the set of half-lines extending from the viewpoint. is there. When the common part of such a conical space acquired from a plurality of directions is obtained, the common part gives one closed space in which the observed object can exist. In this specification, this space will be referred to as an object volume. The surface of the observed object always exists on the boundary surface or inside the object volume. The object volume can indicate a through hole opened in the object, for example the handle of a coffee cup. However, it is not possible to extract the hole as the container of the cup itself, that is, the depressed portion that does not penetrate. If the observed object is an object having a shape having no non-penetrating depressions, the object volume correctly reproduces the three-dimensional shape of the observed object.
However, in reality, a large number of non-penetrating depressions appear in the object, so it is not sufficient to adopt the object volume as the three-dimensional shape of the object. In order to reproduce the shape of the non-penetrating depression as well, it is necessary to use the distance distribution to compensate for the defect in the object volume.

【0046】図中の52は前記物体ボリュームの外に存
在する距離分布中の画素をスパイクノイズとして除去す
るスパイクノイズ除去部である。一般にレーザービーム
が物体表面に直接作る1次反射スポットが観測されれ
ば、能動的ステレオ法により算出された空間座標値は正
しく物体表面のサンプル点の座標値を与えてくれる。と
ころが、該レーザービームがさらに反射して物体表面の
別の場所に当たって作る2次以降のスポットが最も強い
反射を示すとき、該スポットが観測されて誤った空間座
標点が算出されることがある。
Reference numeral 52 in the figure is a spike noise removing section for removing pixels in the distance distribution existing outside the object volume as spike noise. Generally, if the primary reflection spot created by the laser beam directly on the object surface is observed, the spatial coordinate values calculated by the active stereo method correctly give the coordinate values of the sample points on the object surface. However, when the laser beam is further reflected and a secondary or subsequent spot formed by hitting another place on the object surface shows the strongest reflection, the spot may be observed and an incorrect spatial coordinate point may be calculated.

【0047】この原理を図13に示す。図13−131
を発したレーザービーム132は物体133の点134
に1次スポットを作り、撮像面139上の点135に像
を結ぶ。一方、ビーム132は点134で反射して13
6に2次スポットを作り、撮像面139上の点137に
像を結ぶ。物体133の形状や表面色によって、たまた
ま点137の輝度が点135よりも明るくなることがあ
る。このとき、距離分布獲得部24は点137を採用
し、この結果、実際の点134ではなく、空中に浮いた
点138に物体表面があるものと錯覚する。これがスパ
イクノイズである。
This principle is shown in FIG. Fig. 13-131
The laser beam 132 that emitted the
A primary spot is created on the image plane and an image is formed at a point 135 on the imaging surface 139. On the other hand, beam 132 is reflected at point 134 and
A secondary spot is formed at 6 and an image is formed at a point 137 on the imaging surface 139. The brightness of the point 137 may happen to be brighter than that of the point 135 depending on the shape and surface color of the object 133. At this time, the distance distribution acquisition unit 24 adopts the point 137, and as a result, it is illusion that the object surface is not at the actual point 134 but at the point 138 floating in the air. This is spike noise.

【0048】多くの場合スパイクノイズは物体表面から
浮いた空中に現れる。しかも、スパイクノイズは背景分
布から抽出される物体領域の内部に存在することが多い
ので、前述した非物体距離分布削除部44によって完全
には削除されない。しかしながら、物体表面から突出し
たスパイクノイズは物体ボリュームの外部に飛び出すの
で、該物体ボリューム外部に存在する距離分布を検出す
れば、ほとんど全てのスパイクノイズが検出される。ス
パイクノイズは物体表面であるから、周囲の距離分布を
用いて再計算されなければならない。そこで、本実施例
では、スパイクノイズを欠測点として再登録し、他の理
由により自然発生した欠測点と一緒に補間する。
In many cases, spike noise appears in the air floating above the object surface. Moreover, since spike noise often exists inside the object region extracted from the background distribution, it is not completely deleted by the non-object distance distribution deleting unit 44 described above. However, since spike noise protruding from the object surface jumps out of the object volume, almost all spike noise can be detected by detecting the distance distribution existing outside the object volume. Since the spike noise is on the surface of the object, it must be recalculated using the surrounding distance distribution. Therefore, in this embodiment, spike noise is re-registered as a missing point and is interpolated together with missing points that naturally occur for other reasons.

【0049】図中の53の各距離分布中の欠測点の座標
値を、該欠測点の近傍に位置する非欠測点の座標値から
補間する欠測点補間部である。この補間は欠測点の距離
分布における隣接8近傍に存在する非欠測点の平均奥行
き座標値を求め、ついで該奥行き座標値と欠測点をサン
プリングした時のレーザービームの軌道とから残る2つ
の座標値を算出することにより行われる。
A missing point interpolation unit for interpolating the coordinate values of missing points in each distance distribution 53 in the figure from the coordinate values of non-missing points located in the vicinity of the missing points. In this interpolation, the average depth coordinate values of the non-missing points existing in the vicinity of the eight adjacent points in the distance distribution of the missing points are obtained, and then the depth coordinate values and the trajectory of the laser beam when sampling the missing points are left 2 This is done by calculating one coordinate value.

【0050】図中の54は各距離分布から被観測物体の
表面を表す3角形パッチを生成するパッチ生成部であ
る。ある方向から獲得される距離分布はm×nの2次元
配列である。配列の構造は等間隔のメッシュ状であり、
各要素が示す3次元空間中の点も間隔はまちまちではあ
るものの、奥行き方向を除く2方向に関して該配列と同
じ順序で空間中に並ぶ。このとき、配列のある要素と該
要素の上下に隣接する任意の1要素と左右に隣接する任
意の1要素の都合3要素を頂点とする3角形が示す3次
元空間中の3角形は、被観測物体の表面の一部を表す3
角形パッチである。このようにして、1つの距離分布か
ら多数の3角形パッチが生成される。各3角形パッチに
はマッピング情報に基づいて該パッチが覆う質感情報中
の領域が与えられる。
Reference numeral 54 in the figure denotes a patch generator for generating a triangular patch representing the surface of the observed object from each distance distribution. The distance distribution obtained from a certain direction is an m × n two-dimensional array. The structure of the array is a mesh shape with equal intervals,
The points in the three-dimensional space indicated by the respective elements are also arranged in the space in the same order as the array in two directions except the depth direction, although the intervals are different. At this time, the triangle in the three-dimensional space indicated by the triangle having the apexes of the element of the array, any one element vertically adjacent to the element, and any one element adjacent to the left and right as the vertex is 3 representing a part of the surface of the observed object
It is a square patch. In this way, a large number of triangular patches are generated from one distance distribution. An area in the texture information covered by the patch is given to each triangle patch based on the mapping information.

【0051】図中の55は全方向の距離分布から得られ
た3角形パッチから被観測物体の全域にわたる3次元形
状情報を構築する全周形状構築部である。複数の距離分
布から生成された3角形パッチの集合を3次元形状情報
として出力することも可能であるが、該3角形パッチの
集合には被観測物体の表面の同一部分に対して重複する
パッチが含まれる。重複するパッチは一方の頂点から他
方に下ろした垂線の脚が該他方のパッチの内部にあり、
かつ該垂線の長さがある閾値以内に近接している。この
場合には、一方の頂点を他方の最も近くに存在する頂点
に移動させる。もし、一方のパッチの全ての頂点が他方
のいずれかのパッチの頂点に移動されるならば、該一方
のパッチを消去して重複を削減する。この結果、全ての
距離分布から生成された3角形パッチが被観測物体全域
にわたる表面形状を重複なく表すことになる。該3角形
パッチの重複を除かれた集合が3次元形状情報として記
憶部3に格納される。本方法は、重複する冗長な3角形
の消去を必要とするが、例えば、柄付きカップの柄のう
らがわのように一方から見えない物体の一部が他の方向
から観測されるという利点を持つ。これは、距離分布が
2次元の配列として得られることに起因するものであ
る。
Reference numeral 55 in the figure denotes an omnidirectional shape constructing unit which constructs three-dimensional shape information over the entire area of the observed object from the triangular patches obtained from the distance distribution in all directions. Although it is possible to output a set of triangular patches generated from a plurality of distance distributions as three-dimensional shape information, the set of triangular patches includes overlapping patches for the same part of the surface of the observed object. Is included. Overlapping patches have a leg of a perpendicular from one apex to the other inside the other patch,
Moreover, the length of the perpendicular line is close within a certain threshold value. In this case, one vertex is moved to the closest vertex to the other. If all vertices of one patch are moved to the vertices of one of the other patches, then the one patch is deleted to reduce duplication. As a result, the triangular patches generated from all distance distributions represent the surface shape over the entire observed object without duplication. A set obtained by removing the overlap of the triangular patches is stored in the storage unit 3 as three-dimensional shape information. This method requires the elimination of redundant redundant triangles, but has the advantage that some of the objects that are not visible from one side, such as the back of the handle of a patterned cup, are observed from the other direction. have. This is because the distance distribution is obtained as a two-dimensional array.

【0052】以上の処理によって構築された物体情報、
即ち3次元形状情報と質感情報とマッピング情報は出力
部4によって出力される。該出力された3次元形状情報
と質感情報とマッピング情報とは、CGにおいてテクス
チャマッピングの手法によって利用可能である。
Object information constructed by the above processing,
That is, the output unit 4 outputs the three-dimensional shape information, the texture information, and the mapping information. The output three-dimensional shape information, texture information, and mapping information can be used by a texture mapping method in CG.

【0053】以下、本発明の他の実施例を説明する。Another embodiment of the present invention will be described below.

【0054】(1) 被観測物体の支持手段として不可
視の台を使用したが、これに代えて被観測物体を糸等で
吊下げてもよい。
(1) Although the invisible table is used as the means for supporting the object to be observed, the object to be observed may be hung by a thread or the like instead.

【0055】(2) パタン投影部によって投射される
パタンはレーザースポットに限定されず、例えばスリッ
トやグリッドのような1次元もしくは2次元の光パタン
であっても良い。また、距離分布を獲得するための手法
も例示した能動的ステレオ法に限定されず、適用可能な
3次元視覚技術のどの方法を用いても良い。さらに、可
視光レーザーに限らず赤外線レーザー等を使用してもよ
い。
(2) The pattern projected by the pattern projection unit is not limited to the laser spot, and may be a one-dimensional or two-dimensional optical pattern such as a slit or a grid. Further, the method for acquiring the distance distribution is not limited to the active stereo method as an example, and any applicable three-dimensional visual technique may be used. Further, an infrared laser or the like may be used instead of the visible light laser.

【0056】(3) 被観測物体を複数方向から観測可
能とするための手段は、回転可能な支持部に限定され
ず、例えば、パタン投影部と画像入力部の組から成るセ
ンサー部を任意の位置に移動可能な機械機構を用いても
良い。あるいは、センサー部を1組に限定せず、必要数
を必要箇所に配置して複数方向からの同時観測を実現し
ても良い。
(3) The means for making it possible to observe the object to be observed from a plurality of directions is not limited to the rotatable support portion, and for example, a sensor portion including a set of a pattern projection portion and an image input portion may be used. A mechanical mechanism that can move to a position may be used. Alternatively, the number of sensor units is not limited to one set, and a required number may be arranged at a required location to realize simultaneous observation from a plurality of directions.

【0057】移動可能なセンサー部や複数組のセンサー
部を用いる場合、センサー部が透明な支持部の下から該
支持部を透過して被観測物体を観測可能であるならば、
不可視部位のない観測を実現することが可能となる。な
お、この場合には支持部は透明な材質で光学的歪みを極
力廃した形状、例えば薄いガラス平板のようなものであ
りさえすれば回転可能である必要はない。また、観測値
が既知である物体を該支持部を透過して観測するなどし
て、パタン投影部が発するビームの屈折量と支持部への
ビーム入射角度との関係および画像入力部により撮影さ
れる画像に生じる画素毎の位置ずれ量と支持部への画像
入力部の光軸入射角度との関係などの補正値を予め算出
しておけば、画像入力部と距離分布獲得部において、光
学的歪みを計算的に排除することが可能である。このと
き、現在のビーム入射角度、現在の光軸入射角度、補正
値などの光学的歪み除去処理に必要な情報は記憶部に保
存格納される。
When a movable sensor unit or a plurality of sets of sensor units are used, if the sensor unit can observe the object to be observed through the support unit from below the transparent support unit,
It is possible to realize observations without invisible parts. In this case, the supporting portion need not be rotatable as long as it is made of a transparent material and has a shape in which optical distortion is eliminated as much as possible, such as a thin glass flat plate. Also, by observing an object whose observation value is known through the support section, the relationship between the refraction amount of the beam emitted by the pattern projection section and the beam incident angle to the support section and the image input section are used to capture the image. If a correction value such as the relationship between the amount of misalignment of each pixel that occurs in the image and the angle of incidence of the optical axis of the image input section on the support section is calculated in advance, the image input section and the distance distribution acquisition section can perform optical It is possible to eliminate distortion computationally. At this time, information necessary for the optical distortion removal process such as the current beam incident angle, the current optical axis incident angle, and the correction value is stored and stored in the storage unit.

【0058】(4) 被観測物体の全域にわたる3次元
形状情報を構築する手法は例示した3角形パッチの頂点
移動による方法に限定されない。頂点移動による方法は
計算コストの極めて少ない優れた方法であるが、反面、
パッチの3つの頂点の一部が移動されて、残りの頂点が
空中に浮いた状態の3角形パッチを残すことがあった。
これは、距離計測精度の問題から発生するものであり、
このような3角形は物体表面からひげのように飛び出し
たノイズとなる。
(4) The method of constructing the three-dimensional shape information over the entire area of the observed object is not limited to the method of moving the vertices of the illustrated triangular patch. The method of moving the vertices is an excellent method with extremely low calculation cost, but on the other hand,
Occasionally, some of the three vertices of a patch were moved, leaving a triangular patch with the remaining vertices floating in the air.
This is due to the problem of distance measurement accuracy,
Such a triangle becomes noise protruding like a whisker from the surface of the object.

【0059】これを解決するために、ある距離分布から
生成された3角形パッチがある観測空間を横切って等間
隔に生成されたスライス面と交差する線分を求め、スラ
イス面毎に多数の線分で囲まれて生成される被観測物体
の断面形状をひげノイズを除去しながら求めるようにす
ることができる。全スライス面における断面形状をまと
めると被観測物体の全周形状情報を生成することができ
る。
In order to solve this, a line segment that intersects a slice plane generated at equal intervals across an observation space having a triangular patch generated from a certain distance distribution is obtained, and a large number of lines are provided for each slice plane. It is possible to obtain the cross-sectional shape of the observed object that is generated by being surrounded by minutes while removing the whisker noise. When the cross-sectional shapes on all slice planes are put together, information about the entire circumference of the observed object can be generated.

【0060】1つのスライス面における断面形状を生成
する過程は次のようにして行われる。即ち、該スライス
面を2次元配列を持つピクセル空間とし、各線分が通過
するピクセルの値を黒、その他を白とする。こうしてピ
クセル空間にはある断面輪郭画像が構築されることにな
る。この断面輪郭画像には物体断面を表す閉曲線と距離
計測誤差による多数のひげノイズが存在する。次に該画
像中の黒画素を探索・追跡して、端点を持たずに閉じる
画素列を全て閉曲線として残し、その他を白とする。こ
の結果、ひげノイズは除去される。次に、包含関係にあ
る閉曲線を検出し、他の閉曲線に包含される全ての閉曲
線を除去する。この結果、物体の外形断面を表す閉曲線
のみが抽出される。
The process of generating the cross-sectional shape on one slice plane is performed as follows. That is, the slice plane is set as a pixel space having a two-dimensional array, the values of pixels through which each line segment passes are black, and the others are white. In this way, a certain cross-section contour image is constructed in the pixel space. This cross-section contour image has a closed curve representing the object cross-section and many whisker noises due to distance measurement errors. Next, the black pixels in the image are searched and tracked, all the pixel rows that have no end points and are closed are left as closed curves, and the others are white. As a result, whisker noise is removed. Next, a closed curve having an inclusion relation is detected, and all closed curves included in other closed curves are removed. As a result, only the closed curve representing the outer cross section of the object is extracted.

【0061】スライス面間の物体断面をまとめて3次元
形状情報と成す過程は次のようにして行われる。即ち、
隣接するスライス面間の黒画素中、最も距離の近いもの
をリンクさせる。隣接する2つのスライス面を結ぶ隣接
する2つのリンクの間の黒画素に関して、両スライス面
に同時に連続する黒画素が無くなるまでこの処理は続け
られる。この結果、スライス面を結んで物体表面形状を
表す3角形パッチが生成される。
The process of collecting the object cross-sections between the slice planes to form three-dimensional shape information is performed as follows. That is,
Among the black pixels between the adjacent slice planes, the one having the shortest distance is linked. With respect to the black pixels between the two adjacent links connecting the two adjacent slice planes, this processing is continued until there are no consecutive black pixels on both slice planes. As a result, a triangular patch that connects the slice planes and represents the surface shape of the object is generated.

【0062】なお、閉曲線を画素列のままとせず、折れ
線近似した表現とし、該折れ線近似の屈曲点間をリンク
するようにすれば計算コストを削減することができる。
It is possible to reduce the calculation cost if the closed curve is not left as a pixel row but is expressed as a polygonal line approximation and the bending points of the polygonal line approximation are linked.

【0063】また、観測空間を立体的なメッシュに切っ
て発生される3次元配列を持つボクセル空間を利用して
も良い。距離分布から生成された3角形パッチと交差す
るボクセルを黒、その他を白とする。ボクセル空間はピ
クセル空間が積み重なったものであり、該積み重ねる方
法は例えば、x方向、y方向、z方向の3通り考えられ
る。ボクセル空間をある方向に多重化したピクセル空間
とみなし、上記のスライス方式と同様にしてひげノイズ
を消去する。スライス方式はひげノイズの可能性を1方
向についてのみ評価できる方法であったが、ボクセル方
式では、x、y、zの3方向についてこの操作を繰り返
すことによって、確実にひげノイズを除去することがで
きる。ひげノイズが除去されたボクセル空間について連
続する黒ボクセルを追跡することによって閉曲面が抽出
できる。物体1つであるとするならば、最も多くの黒ボ
クセルから構成される閉曲面が物体表面である。該閉曲
面から被観測物体の3次元形状情報を構築する過程は次
のようにして行われる。即ち、該閉曲面を成す相互に隣
接する3つのボクセルを結んで生成される3角形パッチ
を全て抽出するのである。この結果、物体の全周形状情
報が構築される。
A voxel space having a three-dimensional array generated by cutting the observation space into a three-dimensional mesh may be used. The voxels that intersect the triangular patches generated from the distance distribution are black, and the others are white. The voxel space is a stack of pixel spaces, and there are three possible stacking methods, for example, the x direction, the y direction, and the z direction. The voxel space is regarded as a pixel space that is multiplexed in a certain direction, and whisker noise is eliminated in the same manner as the above slice method. The slice method was a method that can evaluate the possibility of whisker noise only in one direction, but in the voxel method, by repeating this operation in three directions of x, y, and z, the whisker noise can be reliably removed. it can. A closed surface can be extracted by tracking continuous black voxels in the voxel space from which whiskers have been removed. If there is one object, the closed curved surface composed of the most black voxels is the object surface. The process of constructing the three-dimensional shape information of the observed object from the closed curved surface is performed as follows. That is, all the triangular patches generated by connecting three mutually adjacent voxels forming the closed curved surface are extracted. As a result, the perimeter shape information of the object is constructed.

【0064】なお、距離分布のサンプリング密度がボク
セル密度よりも大きい場合には、距離分布から生成され
る3角形パッチを用いずに、直接に距離分布中の座標点
をボクセル空間に書き込むことも可能である。この場
合、あるボクセルが代表する座標をボクセルの中心とせ
ず、該ボクセルに含まれる全ての座標点の座標値の平均
とすれば、サンプリング誤差の小さい形状情報を構築す
ることができる。
If the sampling density of the distance distribution is higher than the voxel density, the coordinate points in the distance distribution can be directly written in the voxel space without using the triangular patch generated from the distance distribution. Is. In this case, if the coordinates represented by a certain voxel are not the center of the voxel but the average of the coordinate values of all the coordinate points included in the voxel, the shape information with a small sampling error can be constructed.

【0065】距離分布から3角形を生成せず、直接に距
離分布中の座標点から全周形状を構築する方法として、
次に示すエネルギー最少化と弛緩法による方法を利用す
ることもできる。この方法はスネークと呼ばれる。これ
は、多数の制御点をネット状に繋げて表現される閉曲面
の内部エネルギーと外部エネルギーの和を極少とする制
御点の位置と分布を、繰り返し計算によって求める方法
である。全距離分布中の全空間座標点を覆って、これに
フィットする制御点の分布を計算させることによって、
被観測物体の全周形状を構築するものである。しかも、
ネットはもともと閉じた曲面なので、観測データに欠け
が存在しても、結果は閉曲面として得られるところが利
点である。スネークの収束時間と結果の良否には初期値
が重要であるが、制御点の初期分布として物体領域から
求めた物体ボリュームの形状を利用すると、良い結果が
期待できる。
As a method for directly constructing the all-round shape from the coordinate points in the distance distribution without generating a triangle from the distance distribution,
The energy minimization and relaxation method described below can also be used. This method is called Snake. This is a method of repeatedly calculating the positions and distributions of control points that minimize the sum of internal energy and external energy of a closed surface expressed by connecting many control points in a net. By covering all spatial coordinate points in the total distance distribution and calculating the distribution of control points that fit to this,
This is to construct the entire circumference shape of the observed object. Moreover,
Since the net is originally a closed curved surface, the advantage is that the result can be obtained as a closed curved surface even if there is a gap in the observation data. Although the initial value is important for the snake's convergence time and the quality of the result, good results can be expected by using the shape of the object volume obtained from the object region as the initial distribution of control points.

【0066】なお、物体の3次元形状情報構築に際し
て、使用者、もしくは装置によって種々の構築手法を手
動または自動により選択して利用できるようにしても良
い。
In constructing the three-dimensional shape information of the object, various construction methods may be manually or automatically selected and used by the user or the device.

【0067】あるいは、形状情報を3角形パッチの集合
として記述するのではなく、数学的な記述による自由曲
面表現としても良い。
Alternatively, the shape information may be expressed as a free-form surface by mathematical description instead of being described as a set of triangular patches.

【0068】このように、本発明に係る物体入力装置で
は、被観測物体の全域にわたる3次元形状情報を構築可
能でありさえすれば、その構築手法や記述形式の差異は
問題とはならない。
As described above, in the object input device according to the present invention, as long as the three-dimensional shape information over the entire area of the observed object can be constructed, the difference in the construction method and the description format does not pose a problem.

【0069】(5) 前述した通り、背景分布は被観測
物体の後方に配置された後方照明部によって照らされた
該物体の影画像を撮影することで獲得される。該影画像
中では物体と背景の各々がお互いに極めて輝度の異なる
領域を発生させるため、物体の占める領域と背景の占め
る領域を簡単な画像処理によって容易に分離できる点が
重要である。
(5) As described above, the background distribution is obtained by photographing the shadow image of the object illuminated by the rear illumination unit arranged behind the object. In the shadow image, since the object and the background generate areas having extremely different brightness from each other, it is important that the area occupied by the object and the area occupied by the background can be easily separated by simple image processing.

【0070】物体領域を抽出するためには、影画像を利
用する方法の他に幾つかの方法が考えられる。例えば、
後方照明部を廃止して、物体にない色を持つ背景板を用
意し、前方照明下で撮影された画像から該背景板と同一
色を持つ領域を除去すれば、残る領域が物体領域であ
る。この方法は物体に現れる色が予めある程度予測でき
る場合に有効である。しかも、後方照明部を廃止できる
分、装置構成が縮小でき、照明の切り替えも必要としな
い。
In order to extract the object area, several methods can be considered in addition to the method using a shadow image. For example,
By removing the rear illumination part and preparing a background plate having a color that does not exist in the object, and removing the region having the same color as the background plate from the image taken under the front illumination, the remaining region is the object region. . This method is effective when the color appearing on the object can be predicted to some extent in advance. Moreover, since the rear illumination unit can be eliminated, the device configuration can be reduced, and it is not necessary to switch the illumination.

【0071】物体に現れる色が予測できない場合にも、
例えば、時間変化するパタンを有する背景板を用意し、
時系列的に複数の画像を撮影して、輝度が時間変化する
領域を背景領域、残る領域を物体領域として抽出するこ
とが可能である。該背景板はパタンを印刷された板を振
動させることで、容易に実現可能である。
Even when the color appearing on the object cannot be predicted,
For example, prepare a background plate with a pattern that changes with time,
It is possible to capture a plurality of images in a time series and extract a region in which luminance changes with time as a background region and the remaining region as an object region. The background plate can be easily realized by vibrating a pattern-printed plate.

【0072】このように、本発明に係る物体入力装置で
は、背景分布から物体領域を抽出可能でありさえすれ
ば、背景分布を撮影するための手段や背景分布そのもの
の差異は問題とはならない。
As described above, in the object input apparatus according to the present invention, as long as the object area can be extracted from the background distribution, the difference between the means for photographing the background distribution and the background distribution itself does not pose a problem.

【0073】(6) CGやCAD・CAMなどへの応
用を考えた場合、物体情報として3次元形状情報と質感
情報とマッピング情報が得られれば実用上十分である
が、次のようにすると物体情報の利便性が一層向上す
る。
(6) Considering application to CG, CAD / CAM, etc., it is practically sufficient if three-dimensional shape information, texture information, and mapping information can be obtained as object information. The convenience of information is further improved.

【0074】前述した通り、3次元形状情報と質感情報
は相互に別々のサンプリング密度で得られた情報であ
り、3角形パッチ、ピクセル密度とスライス密度、ボク
セル密度、スネーク曲面の制御点密度などの3次元形状
情報を分割する単位と、画素という質感情報を分割する
単位とは一致しない。従って、これらを関連付けるため
にマッピング情報が必要である。このとき、CADなど
で利用されている形状処理的手法を用いて3次元形状情
報を同一式で記述される滑らかに連続している部分曲面
に分割し、画像処理的手法を用いて質感情報を同一色と
なる単色領域に分割し、該2情報を用いて被観測物体の
表面を同一式・同一色となる部分曲面に分割すると、各
部分表面は曲面式と該部分表面の境界を示すトリミング
曲線式と該部分表面の色とから成る情報の組を持ち、物
体情報は3次元形状情報、質感情報、マッピング情報の
ような個別情報の寄せ集めではなく、形状と色とを有す
る物体全域を覆う部分表面の集合として与えられる。各
部分表面は物体表面の一部分を担っており、しかも必要
な情報が全てそこに与えられているので、入力後の物体
情報への変更修正が行い易いという点において利便性が
向上する。
As described above, the three-dimensional shape information and the texture information are information obtained at mutually different sampling densities, such as triangular patches, pixel densities and slice densities, voxel densities, snake curved control point densities, and the like. The unit for dividing the three-dimensional shape information does not match the unit for dividing the texture information of pixels. Therefore, mapping information is needed to associate them. At this time, the three-dimensional shape information is divided into smoothly continuous partial curved surfaces described by the same expression by using the shape processing method used in CAD or the like, and the texture information is obtained by using the image processing method. When the surface of the object to be observed is divided into monochromatic regions having the same color and the surface of the object to be observed is divided into partial curved surfaces having the same expression and the same color, each partial surface is trimmed to show the boundary between the curved surface expression and the partial surface. It has a set of information consisting of a curve formula and the color of the partial surface, and the object information is not a collection of individual information such as three-dimensional shape information, texture information, mapping information, but an entire object area having a shape and color. Given as a set of subsurfaces to cover. Since each partial surface serves as a part of the object surface and all necessary information is given thereto, convenience is improved in that it is easy to change and correct the object information after input.

【0075】(7) 前述した通り、質感情報は前方照
明部によって照明された被観測物体表面のカラー画像と
して得られる物体表面からの反射光の赤・青・緑に関す
る波長別輝度分布である。物体全域の質感情報を得るた
めに、被観測物体は回転する支持部によって様々な方向
に向けられ、複数の質感分布が撮影される。このとき、
前方照明部の配置のされ方によっては、統合後の全周形
状表面に貼り付けられる複数の質感分布の継ぎ目に反射
輝度の段差が確認されることがある。これは回転につれ
て被観測物体への照明光の当たり具合が変化する場合に
発生する。このような段差は出力されるべき物体情報の
質を著しく低下させるものである。このとき、複数の照
明用光源を回転する支持部に固定・等分配置すること
で、回転による照度変化がなく、十分明るい照明環境を
実現でき、良好な質感分布を得ることが可能となる。ま
た、照明用光源を支持部に固定せず、被観測物体表面で
ムラのない照明状態が実現されるように環境中に固定・
等分配置することも可能である。あるいは、質感情報を
照明状態に直接影響される反射光の波長別輝度分布では
なく、物体がどの波長の光をどの程度反射するのかを示
す波長別反射率分布とすることも可能である。反射率は
物体色とも呼ばれ、照明条件に依存しない色の表現形式
である。反射率は照明光の空間的波長別強度分布と光源
の位置がわかっておれば反射光の輝度分布から計算する
ことが可能であり、これらの情報は予め求めておくこと
ができる。
(7) As described above, the texture information is the luminance distribution for each wavelength of red, blue and green of the reflected light from the object surface obtained as a color image of the surface of the observed object illuminated by the front illumination unit. In order to obtain the texture information of the entire area of the object, the object to be observed is oriented in various directions by the rotating support, and a plurality of texture distributions are photographed. At this time,
Depending on how the front illumination part is arranged, a step of reflected brightness may be confirmed at a joint of a plurality of texture distributions attached to the surface of the circumferential shape after integration. This occurs when the illumination light hits the object to be observed with rotation. Such a step significantly deteriorates the quality of the object information to be output. At this time, by fixing and equally arranging the plurality of illumination light sources on the rotating support portion, it is possible to realize a sufficiently bright illumination environment without a change in illuminance due to rotation and to obtain a good texture distribution. In addition, the illumination light source is not fixed to the support, but fixed in the environment so that a uniform illumination state is realized on the surface of the observed object.
It is also possible to arrange them in equal parts. Alternatively, the texture information may not be the luminance distribution by wavelength of the reflected light that is directly influenced by the illumination state, but may be the reflectance distribution by wavelength showing how much light of which wavelength the object reflects. The reflectance is also called an object color and is a color expression form that does not depend on the illumination condition. The reflectance can be calculated from the intensity distribution of the illumination light by spatial wavelength and the brightness distribution of the reflected light if the position of the light source is known, and these information can be obtained in advance.

【0076】このように、本発明に係る物体入力装置で
は、被観測物体の全域にわたる質感情報が無用な段差を
持たないようにできさえすれば、照明方法や質感情報の
差異は問題とはならない。
As described above, in the object input device according to the present invention, the difference in the illumination method and the texture information does not pose a problem as long as the texture information over the entire area of the observed object does not have unnecessary steps. .

【0077】(8) CGへの応用を考慮した物体情報
は被観測物体の3次元形状と色に関する記述を必要とす
るが、CAM、CADなどへの入力を考える場合には、
該物体の3次元形状情報のみが得られれば良い。即ち、
上記の実施例および変形例における質感情報に関する機
能を排除して、装置規模を小さくできるという点におい
て利便性が向上する。
(8) Object information considering application to CG requires a description of the three-dimensional shape and color of the observed object, but when considering input to CAM, CAD, etc.,
Only the three-dimensional shape information of the object needs to be obtained. That is,
Convenience is improved in that the device scale can be reduced by eliminating the function relating to the texture information in the above-described embodiments and modifications.

【0078】このように、本発明に係る物体入力装置で
は、被観測物体の3次元形状情報を出力可能でありさせ
すれば、付帯する情報の有無や種類の差異は問題とはな
らない。
As described above, in the object input device according to the present invention, if the three-dimensional shape information of the observed object can be output, the presence or absence of the additional information and the difference in the type do not pose a problem.

【0079】以上で述べた通り、本発明は背景分布と不
可視の支持手段の利用によって、少なくとも被観測物体
とは無関係な不要情報の自動的・適応的排除・被観測物
体表面の欠測点の判別と補間、被観測物体全域にわたる
不可視部分のない観測のいずれかを可能としつつ、少な
くとも被観測物体の3次元形状情報を構築可能ならば、
実現のための構成や手段や処理手順などの差異に関係な
く様々に変形組み合わせて実施可能である。
As described above, according to the present invention, by using the background distribution and the invisible supporting means, at least the unnecessary information irrelevant to the observed object is automatically and adaptively removed. If at least three-dimensional shape information of the observed object can be constructed while enabling discrimination, interpolation, and observation with no invisible portion over the entire observed object,
The present invention can be implemented in various modifications and combinations irrespective of differences in the configuration, means, processing procedures, etc. for realization.

【0080】[0080]

【発明の効果】本発明の物体入力装置によれば、不可視
部位がないため、容易に被観測物体の全域にわたる3次
元形状情報を算出できる。
According to the object input device of the present invention, since there are no invisible parts, three-dimensional shape information over the entire area of the observed object can be easily calculated.

【0081】また、従来解決されていなかった欠測点へ
の対応不十分、不要情報の排除における繁雑さを排除し
た。
In addition, insufficient support for missing points, which has not been solved in the past, and complexity of eliminating unnecessary information are eliminated.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る物体入力装置の一実施例の全体構
成図である。
FIG. 1 is an overall configuration diagram of an embodiment of an object input device according to the present invention.

【図2】本発明に係る物体入力装置の一実施例の処理構
成図である。
FIG. 2 is a processing configuration diagram of an embodiment of an object input device according to the present invention.

【図3】本発明に係る物体入力装置の一実施例における
観測部の構成図である。
FIG. 3 is a configuration diagram of an observation unit in an embodiment of the object input device according to the present invention.

【図4】本発明に係る物体入力装置の一実施例における
演算部の構成図である。
FIG. 4 is a configuration diagram of a calculation unit in an embodiment of the object input device according to the invention.

【図5】本発明に係る物体入力装置の一実施例における
演算部中の形状構築部の構成図である。
FIG. 5 is a configuration diagram of a shape constructing unit in a computing unit in an embodiment of the object input device according to the present invention.

【図6】本発明に係る物体入力装置の一実施例における
距離分布獲得時の動作を示した図である。
FIG. 6 is a diagram showing an operation at the time of acquiring a distance distribution in one embodiment of the object input device according to the present invention.

【図7】本発明に係る物体入力装置の一実施例における
質感分布獲得時の動作を示した図である。
FIG. 7 is a diagram showing an operation at the time of acquiring a texture distribution in one embodiment of the object input device according to the present invention.

【図8】本発明に係る物体入力装置の一実施例における
背景分布獲得時の動作を示した図である。
FIG. 8 is a diagram showing an operation at the time of acquiring a background distribution in one embodiment of the object input device according to the present invention.

【図9】能動的ステレオ法の原理図である。FIG. 9 is a principle diagram of an active stereo method.

【図10】能動的ステレオ法における死角を例示した図
である。
FIG. 10 is a diagram illustrating a blind spot in an active stereo method.

【図11】能動的ステレオ法における低反射率面の影響
を例示した図である。
FIG. 11 is a diagram illustrating the influence of a low reflectance surface in the active stereo method.

【図12】能動的ステレオ法における貫通孔の影響を例
示した図である。
FIG. 12 is a diagram illustrating an effect of a through hole in the active stereo method.

【図13】能動的ステレオ法におけるスパイクノイズ発
生の原理を示した図である。
FIG. 13 is a diagram showing the principle of spike noise generation in the active stereo method.

【図14】(a)は、獲得された距離分布の一部を示す
概念図、(b)は、質感分布の一部を示す概念図、
(c)は、背景分布の一部を示す概念図、(d)は、こ
れらより得られた物体情報の一部を示している。
14A is a conceptual diagram showing a part of the acquired distance distribution, FIG. 14B is a conceptual diagram showing a part of the texture distribution, FIG.
(C) is a conceptual diagram showing a part of the background distribution, and (d) shows a part of the object information obtained from them.

【符号の説明】[Explanation of symbols]

1……観測手段 2……演算手段 3……記憶手段 4……出力部 1 ... Observing means 2 ... Computing means 3 ... Storage means 4 ... Output section

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】観測空間内に被観測物体を配し、該被観測
物体の3次元形状情報等を取り込む物体入力装置であっ
て、 前記観測空間内の空間情報である距離分布と質感分布と
背景分布のうち少なくとも背景分布が計測可能な観測手
段と、 該空間情報から被観測物体に関する物体情報として少な
くとも前記被観測物体の3次元形状情報を構築する演算
手段とよりなり、 前記観測手段が、前記被観測物体を支持するための支持
手段を具備し、かつ、該支持手段が前記観測手段に対し
て不可視となるような材質または構造で構成されること
を特徴とする物体入力装置。
1. An object input device in which an object to be observed is placed in an observation space, and three-dimensional shape information of the object to be observed and the like are input, and a distance distribution and a texture distribution which are spatial information in the observation space. The observation means is capable of measuring at least the background distribution of the background distribution, and an arithmetic means for constructing at least three-dimensional shape information of the observed object from the spatial information as object information relating to the observed object. An object input device comprising support means for supporting the object to be observed, wherein the support means is made of a material or structure that is invisible to the observation means.
【請求項2】前記観測手段が、前記被観測物体を複数の
方向から観測可能となし、 前記演算手段が、該複数方向からの観測結果を1つに統
合した被観測物体の全域にわたる物体情報を構築するこ
とを特徴とする請求項1記載の物体入力装置。
2. The object information over the entire area of the observed object, wherein the observing means can observe the observed object from a plurality of directions, and the computing means integrates observation results from the plurality of directions into one. The object input device according to claim 1, wherein
【請求項3】前記観測手段が、前記空間情報として距離
分布と背景分布とを計測可能であり、 前記演算手段が、該背景分布から算出される物体領域内
に含まれる距離分布から前記3次元形状情報を構築する
ことを特徴とする請求項1記載の物体入力装置。
3. The observing means is capable of measuring a distance distribution and a background distribution as the spatial information, and the calculating means uses the distance distribution included in an object region calculated from the background distribution to calculate the three-dimensional distribution. The object input device according to claim 1, wherein the shape information is constructed.
【請求項4】前記観測手段が、前記空間情報として距離
分布と背景分布とを計測可能であり、 前記演算手段が、前記観測手段によって計測された背景
分布毎に算出される複数方向からの物体領域を重ね合わ
せて、前記被観測物体の占有する空間を覆う閉じた面を
生成し、さらに該面の内部に含まれる距離分布から前記
3次元形状情報を構築することを特徴とする請求項2記
載の物体入力装置。
4. The observation means is capable of measuring a distance distribution and a background distribution as the spatial information, and the arithmetic means is an object from a plurality of directions calculated for each background distribution measured by the observation means. 3. The region is overlapped to generate a closed surface that covers the space occupied by the observed object, and the three-dimensional shape information is constructed from the distance distribution included in the inside of the surface. The described object input device.
【請求項5】前記観測手段に対峙する位置に照明手段を
配し、 前記背景分布が、前記照明手段が前記被観測物体の後方
から照明することによって発生される該被観測物体の影
画像であり、 前記演算手段が該画像の中央に位置する影領域を前記物
体領域とすることを特徴とする請求項1記載の物体入力
装置。
5. An illuminating means is arranged at a position facing the observing means, and the background distribution is a shadow image of the observed object generated by the illuminating means illuminating from behind the observed object. The object input device according to claim 1, wherein the calculation unit sets the shadow area located at the center of the image as the object area.
【請求項6】前記観測手段が、前記空間情報として距離
分布と背景分布とを計測可能であり、 前記距離分布が、3次元座標値よりなる各画素の値が2
次元配列状に構成されてなることを特徴とする請求項1
記載の物体入力装置。
6. The observing means is capable of measuring a distance distribution and a background distribution as the spatial information, and the distance distribution has a value of each pixel consisting of three-dimensional coordinate values of 2
2. A structure arranged in a three-dimensional array.
The described object input device.
JP04525693A 1993-03-05 1993-03-05 Object input device Expired - Fee Related JP3409873B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04525693A JP3409873B2 (en) 1993-03-05 1993-03-05 Object input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04525693A JP3409873B2 (en) 1993-03-05 1993-03-05 Object input device

Publications (2)

Publication Number Publication Date
JPH06258048A true JPH06258048A (en) 1994-09-16
JP3409873B2 JP3409873B2 (en) 2003-05-26

Family

ID=12714206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04525693A Expired - Fee Related JP3409873B2 (en) 1993-03-05 1993-03-05 Object input device

Country Status (1)

Country Link
JP (1) JP3409873B2 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH095050A (en) * 1995-06-20 1997-01-10 Olympus Optical Co Ltd Three-dimensional image measuring apparatus
WO1998009253A1 (en) * 1996-08-29 1998-03-05 Sanyo Electric Co., Ltd. Texture information giving method, object extracting method, three-dimensional model generating method and apparatus for the same
JPH1188910A (en) * 1997-09-02 1999-03-30 Canon Inc Three-dimension model generating device, three-dimension model generating method, medium recording three-dimension model generating program three-dimension model reproduction device, three-dimension model reproduction method and medium recording three-dimension model reproduction program
JPH11150741A (en) * 1997-11-18 1999-06-02 Asahi Optical Co Ltd Three-dimensional picture displaying method and its device by stereo photographing
JPH11339048A (en) * 1998-05-29 1999-12-10 Omron Corp Individual identifying device and method and recording medium for recording individual identification program
JP2000123185A (en) * 1998-10-14 2000-04-28 Canon Inc Object recognizing device
JP2000227963A (en) * 1999-02-08 2000-08-15 Nippon Telegr & Teleph Corp <Ntt> Device and method for preparing image with distance information and recording medium recording program for the method
JP2001148021A (en) * 1999-11-22 2001-05-29 Nippon Telegr & Teleph Corp <Ntt> Method for image processing, method of generating three- dimensional model data, and their devices
JP2001283200A (en) * 2000-03-30 2001-10-12 Meidensha Corp Device for preparing three-dimensional shape model of object
JP2003108985A (en) * 2001-04-26 2003-04-11 Mitsubishi Electric Research Laboratories Inc System and method for digitalizing three-dimensional object as three-dimensional model
JP2003172610A (en) * 2001-12-07 2003-06-20 Brother Ind Ltd Three-dimensional color/shape-detecting apparatus and three-dimensional scanner
JP2003269932A (en) * 2002-03-13 2003-09-25 Olympus Optical Co Ltd Three-dimensional image photographing device and three- dimensional image photographing method
JP2004133888A (en) * 2002-06-17 2004-04-30 Mitsubishi Electric Research Laboratories Inc Method for modeling three-dimensional object
JP2006133008A (en) * 2004-11-04 2006-05-25 Shimadzu Corp X-ray fluoroscopic device
WO2006077710A1 (en) * 2005-01-19 2006-07-27 Matsushita Electric Industrial Co., Ltd. Image conversion method, texture mapping method, image conversion device, server client system, and image conversion program
JP2007078557A (en) * 2005-09-15 2007-03-29 Shimadzu Corp X-ray inspection device
JP2011034279A (en) * 2009-07-31 2011-02-17 Toyota Motor Corp Three-dimensional temperature distribution display device, texture creation device and three-dimensional temperature distribution display method
JP2013518340A (en) * 2010-01-26 2013-05-20 サーブ アクティエボラーグ Automated 3D mapping method
WO2019059120A1 (en) * 2017-09-22 2019-03-28 日本電気株式会社 Information processing device, information processing system, information processing method and recording medium
KR20190059092A (en) * 2017-11-22 2019-05-30 한국전자통신연구원 Method for reconstructing three dimension information of object and apparatus for the same
WO2020075768A1 (en) * 2018-10-10 2020-04-16 株式会社Preferred Networks Three-dimensional scanning device, three-dimensional model generation method, training data, and machine learning model

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH095050A (en) * 1995-06-20 1997-01-10 Olympus Optical Co Ltd Three-dimensional image measuring apparatus
CN1131495C (en) * 1996-08-29 2003-12-17 三洋电机株式会社 Texture information giving method, object extracting method, three-D model generating method and apparatus for same
WO1998009253A1 (en) * 1996-08-29 1998-03-05 Sanyo Electric Co., Ltd. Texture information giving method, object extracting method, three-dimensional model generating method and apparatus for the same
US7106348B2 (en) 1996-08-29 2006-09-12 Sanyo Electric Co., Ltd. Texture information assignment method, object extraction method, three-dimensional model generating method, and apparatus thereof
US6356272B1 (en) 1996-08-29 2002-03-12 Sanyo Electric Co., Ltd. Texture information giving method, object extracting method, three-dimensional model generating method and apparatus for the same
US6847371B2 (en) 1996-08-29 2005-01-25 Sanyo Electric Co., Ltd. Texture information assignment method, object extraction method, three-dimensional model generating method, and apparatus thereof
JPH1188910A (en) * 1997-09-02 1999-03-30 Canon Inc Three-dimension model generating device, three-dimension model generating method, medium recording three-dimension model generating program three-dimension model reproduction device, three-dimension model reproduction method and medium recording three-dimension model reproduction program
JPH11150741A (en) * 1997-11-18 1999-06-02 Asahi Optical Co Ltd Three-dimensional picture displaying method and its device by stereo photographing
JPH11339048A (en) * 1998-05-29 1999-12-10 Omron Corp Individual identifying device and method and recording medium for recording individual identification program
JP2000123185A (en) * 1998-10-14 2000-04-28 Canon Inc Object recognizing device
JP2000227963A (en) * 1999-02-08 2000-08-15 Nippon Telegr & Teleph Corp <Ntt> Device and method for preparing image with distance information and recording medium recording program for the method
JP2001148021A (en) * 1999-11-22 2001-05-29 Nippon Telegr & Teleph Corp <Ntt> Method for image processing, method of generating three- dimensional model data, and their devices
JP2001283200A (en) * 2000-03-30 2001-10-12 Meidensha Corp Device for preparing three-dimensional shape model of object
JP2003108985A (en) * 2001-04-26 2003-04-11 Mitsubishi Electric Research Laboratories Inc System and method for digitalizing three-dimensional object as three-dimensional model
JP2003172610A (en) * 2001-12-07 2003-06-20 Brother Ind Ltd Three-dimensional color/shape-detecting apparatus and three-dimensional scanner
JP2003269932A (en) * 2002-03-13 2003-09-25 Olympus Optical Co Ltd Three-dimensional image photographing device and three- dimensional image photographing method
JP2004133888A (en) * 2002-06-17 2004-04-30 Mitsubishi Electric Research Laboratories Inc Method for modeling three-dimensional object
JP2006133008A (en) * 2004-11-04 2006-05-25 Shimadzu Corp X-ray fluoroscopic device
JP4704735B2 (en) * 2004-11-04 2011-06-22 株式会社島津製作所 X-ray fluoroscope
WO2006077710A1 (en) * 2005-01-19 2006-07-27 Matsushita Electric Industrial Co., Ltd. Image conversion method, texture mapping method, image conversion device, server client system, and image conversion program
US7379618B2 (en) 2005-01-19 2008-05-27 Matsushita Electric Industrial Co., Ltd. Image conversion method, texture mapping method, image conversion device, server-client system, and image conversion program
JP2007078557A (en) * 2005-09-15 2007-03-29 Shimadzu Corp X-ray inspection device
JP2011034279A (en) * 2009-07-31 2011-02-17 Toyota Motor Corp Three-dimensional temperature distribution display device, texture creation device and three-dimensional temperature distribution display method
JP2013518340A (en) * 2010-01-26 2013-05-20 サーブ アクティエボラーグ Automated 3D mapping method
WO2019059120A1 (en) * 2017-09-22 2019-03-28 日本電気株式会社 Information processing device, information processing system, information processing method and recording medium
JPWO2019059120A1 (en) * 2017-09-22 2020-09-03 日本電気株式会社 Information processing equipment, information processing system, information processing method, and program
US11100677B2 (en) 2017-09-22 2021-08-24 Nec Corporation Information processing device, information processing method and recording medium
KR20190059092A (en) * 2017-11-22 2019-05-30 한국전자통신연구원 Method for reconstructing three dimension information of object and apparatus for the same
US10643372B2 (en) 2017-11-22 2020-05-05 Electronics And Telecommunications Research Institute Method for reconstructing three-dimensional information of object and apparatus for the same
WO2020075768A1 (en) * 2018-10-10 2020-04-16 株式会社Preferred Networks Three-dimensional scanning device, three-dimensional model generation method, training data, and machine learning model

Also Published As

Publication number Publication date
JP3409873B2 (en) 2003-05-26

Similar Documents

Publication Publication Date Title
JP3409873B2 (en) Object input device
US7079679B2 (en) Image processing apparatus
JP5342036B2 (en) Method for capturing 3D surface shapes
CN104335005B (en) 3D is scanned and alignment system
EP1009969B1 (en) Method and system for acquiring a three-dimensional shape description
US7986321B2 (en) System and method for generating structured light for 3-dimensional image rendering
US6858826B2 (en) Method and apparatus for scanning three-dimensional objects
US8837026B2 (en) Adaptive 3D scanning
CN104574406B (en) A kind of combined calibrating method between 360 degree of panorama laser and multiple vision systems
EP3138275B1 (en) System and method for collecting color information about an object undergoing a 3d scan
CA2299426A1 (en) Scanning apparatus and methods
US20100328308A1 (en) Three Dimensional Mesh Modeling
JP2008145431A (en) Apparatus and method for 3-dimensional surface geometry reconstruction
US20020164067A1 (en) Nearest neighbor edge selection from feature tracking
WO2005024720A2 (en) Color edge based system and method for determination of 3d surface topology
WO2009120073A2 (en) A dynamically calibrated self referenced three dimensional structured light scanner
US7280685B2 (en) Object segmentation from images acquired by handheld cameras
KR101817756B1 (en) PTM making system based on 3D model with interactive viewpoint control and method using the same
JPH0766436B2 (en) 3D model construction device using continuous silhouette images
CN111489384A (en) Occlusion assessment method, device, equipment, system and medium based on mutual view
KR20040034221A (en) System And Method For Restorating 3 Dimensional Figuration
JPH09229648A (en) Input/output method and device for image information
JPH09231371A (en) Picture information input device and its method
JP2003168129A (en) Method, program, apparatus and system for three- dimensional image processing
Boyer et al. Enhancing structured light range imaging by adaptation of color, exposure and focus

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080320

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090320

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees