JPH0981788A - Environment model input device - Google Patents

Environment model input device

Info

Publication number
JPH0981788A
JPH0981788A JP7234351A JP23435195A JPH0981788A JP H0981788 A JPH0981788 A JP H0981788A JP 7234351 A JP7234351 A JP 7234351A JP 23435195 A JP23435195 A JP 23435195A JP H0981788 A JPH0981788 A JP H0981788A
Authority
JP
Japan
Prior art keywords
model
voxel
environment
environment model
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7234351A
Other languages
Japanese (ja)
Inventor
Minoru Yagi
稔 八木
Mutsumi Watanabe
睦 渡辺
Kazunori Onoguchi
一則 小野口
Hiroshi Hattori
寛 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP7234351A priority Critical patent/JPH0981788A/en
Publication of JPH0981788A publication Critical patent/JPH0981788A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate an accurate environment model by integrating the environment model without depending upon a frequency determining probability. SOLUTION: This device is equipped with a three-dimensional attribute information input part 1 which inputs three-dimensional attribute information on a body in environment, an observation control part 8 which controls the input of the three-dimensional attribute information input part 1, a data generation part 2 which generates shape data on one viewpoint from the obtained three- dimensional attribute information, a model storage part 5 which stores the integrated environment model, a model integration part 4 which inputs and integrated the environment model integrated with the shape data generated at the one viewpoint, a video generation part 6 which generates an artificial image at a specific position in the environment according to the description of the environment model stored in the model storage part 5, and an analysis and verification part 7 which corrects the description of the environment model by comparing the generated artificial image with an actual image at the corresponding position.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えば、3次元C
ADや3次元コンピュータグラフィクス、移動ロボット
制御等で必要となる環境内物体の位置や表面などの情報
を獲得して環境モデルを作成する環境モデル入力装置に
関する。
TECHNICAL FIELD The present invention relates to, for example, a three-dimensional C
The present invention relates to an environment model input device for creating an environment model by acquiring information such as the position and surface of an object in the environment required for AD, three-dimensional computer graphics, mobile robot control, and the like.

【0002】[0002]

【従来の技術】近年、工業部品などの設計を支援するた
めの3次元CADや、3次元コンピュータグラフィクス
を用いた映像作成及び知能移動ロボットのニーズが急速
に高まっている。これらの技術においては、設計または
コンピュータグラフィクス表示を行なう対象、またはロ
ボットが移動する環境の幾何形状、表面属性、及び必要
であれば動きのデータをコンピュータに入力する作業が
必要である。この作業の過程をモデリングと呼び、コン
ピュータ内部に表現された数値データをモデルと呼ぶ。
しかるに現在、一般的にモデリングはまだ自動化されて
おらず、人間が多くの労力を掛けて手作業で行なってい
るため、自動化が強く望まれている。
2. Description of the Related Art In recent years, needs for three-dimensional CAD for supporting the design of industrial parts, image creation using three-dimensional computer graphics, and intelligent mobile robots are rapidly increasing. In these techniques, it is necessary to input into the computer the geometrical shape, surface attributes, and if necessary, motion data of the object to be designed or displayed by computer graphics, or the environment in which the robot moves. The process of this work is called modeling, and the numerical data expressed inside the computer is called a model.
However, at present, modeling is generally not automated, and humans do much labor by hand, so automation is strongly desired.

【0003】最近、3次元CADへの適用のために、レ
ンジファインダと呼ばれる距離画像装置を用いて、呈示
した対象の形状の自動入力を行なうシステムが提案され
ている。
Recently, for application to three-dimensional CAD, there has been proposed a system for automatically inputting the shape of a presented target by using a range image device called a range finder.

【0004】また、従来より、テレビ実画像から対象の
3次元情報を直接抽出する手法として、複数台のカメラ
による3角測量の原理を利用したステレオ法や、1台の
カメラで焦点距離を変化させて得た画像系列を解析して
3次元情報を得る技術などの研究が活発に行なわれてい
る。
Further, conventionally, as a method for directly extracting the target three-dimensional information from an actual television image, a stereo method utilizing the principle of triangulation with a plurality of cameras, or changing the focal length with a single camera. Active research is being conducted on techniques for obtaining three-dimensional information by analyzing the obtained image series.

【0005】これらの技術をモデリングに適用した例と
して、例えば臨場感通信や会議を想定し、ステレオ視の
技術を用いて人間の顔の形状を自動入力する研究などが
行なわれている。また、屋内を移動するロボットに超音
波センサや複数台のカメラを搭載して、移動する空間の
概略の記述モデルを自動作成する研究も行なわれてい
る。
As an example in which these techniques are applied to modeling, studies have been conducted to automatically input the shape of a human face by using a stereoscopic technique, assuming realistic communication or a conference. In addition, research is also being carried out in which robots that move indoors are equipped with ultrasonic sensors and multiple cameras to automatically create a schematic descriptive model of the moving space.

【0006】上記のような手法でモデルを作成しようと
した場合、一視点だけでは見えない部分が生じたり、対
象が遠い場合に精度が不足する等の事態が生じることが
ある。そこで、複数の視点から対象データを得、得た対
象データを統合してより良いモデルを作成する技術が研
究されてきた。
When a model is created by the above-mentioned method, there are cases where a part that cannot be seen from only one viewpoint is generated, or accuracy is insufficient when the object is distant. Therefore, techniques for obtaining target data from a plurality of viewpoints and integrating the obtained target data to create a better model have been studied.

【0007】これは、例えば回転テーブルの回転軸上に
対象を載置し、レーザ光で対象を走査するレーザレンジ
ファインダを用いて対象表面の点の三次元座標を測定す
るという作業をテーブルを回転させて測定を繰返すこと
により、複数視点での対象データを入手し、各視点から
見た対象の形状を求め、それらを統合して対象の全体形
状を求める、というものである。
This involves rotating the table by, for example, placing the target on the rotary axis of a rotary table and measuring the three-dimensional coordinates of points on the target surface using a laser range finder that scans the target with laser light. By repeating the measurement, the target data from a plurality of viewpoints is obtained, the shape of the target viewed from each viewpoint is obtained, and these are integrated to obtain the overall shape of the target.

【0008】しかしながら、この方法では回転テーブル
の大きさ、レンジファインダの可動範囲により対象の大
きさが制限される。また、回転テーブル及びレーザレン
ジファインダを含むシステムの場所まで対象を運ばなけ
ればならない。
However, in this method, the size of the object is limited by the size of the rotary table and the movable range of the range finder. Also, the subject must be brought to the location of the system, including the turntable and laser range finder.

【0009】そのため、ありのままの環境内で対象の配
置を含めて入力することや、ロボットの視覚系として用
いることは困難である。そこで、カメラを用いて対象を
撮影し、カメラを移動させることで複数視点での対象デ
ータを得る方法が開発されてきた。
Therefore, it is difficult to input including the arrangement of the target in a natural environment and to use it as the visual system of the robot. Therefore, a method has been developed in which an object is photographed using a camera and the camera is moved to obtain object data from a plurality of viewpoints.

【0010】各視点での対象データの作成ではステレオ
法が多く用いられ、上述したレーザレンジファインダの
場合と同様に各視点での形状を統合してモデルを得る。
各視点で作成された対象データは、点や輪郭線、面の結
合で記述されている。これらの点や輪郭線は対象データ
を作成する時に用いられる画像上のエッジ、角点が利用
され、それらを結合して面を生成することとなる。
A stereo method is often used for creating target data at each viewpoint, and a model is obtained by integrating the shapes at each viewpoint as in the case of the laser range finder described above.
The target data created from each viewpoint is described by combining points, contour lines, and surfaces. As these points and contour lines, edges and corner points on the image used when creating the target data are used, and these are combined to generate a surface.

【0011】したがって、この表現方法で統合を行なお
うとすると、複数視点間でのエッジや角点、それらから
生成される面の対応付けを行なわなくてはならないが、
画像から得られる特徴が視点間でかならずしも対応しな
いという問題があった。そこで、この複数視点間での対
応問題を回避して統合を行なう方法として、ボクセル空
間を用いた統合が開発された。
Therefore, in order to perform integration by this expression method, it is necessary to associate edges and corner points between a plurality of viewpoints and surfaces generated from them,
There is a problem that the features obtained from images do not always correspond between viewpoints. Then, as a method of avoiding this correspondence problem between multiple viewpoints and performing integration, integration using voxel space was developed.

【0012】すなわちこのボクセル空間による統合で
は、対象を含む空間を格子状の小空間(ボクセル)に分
け、各視点でのデータを基に各ボクセルが対象の一部と
なるかどうかを判定し、対象の一部となる全てのボクセ
ルの集合を対象のモデルとする。
That is, in this integration by voxel space, the space containing the target is divided into a grid-like small space (voxel), and it is determined whether or not each voxel becomes a part of the target based on the data at each viewpoint. The target model is the set of all voxels that are part of the target.

【0013】この方法では、点や輪郭線に限定されず、
対象の一部が各ボクセルにあるかどうかのみを扱うた
め、近接したモデルの統合に視点間での対応付けを必要
とせず、複数視点での対象データからモデルを得ること
が容易になる。
This method is not limited to points and contours,
Since only a part of the target is in each voxel, it is not necessary to associate the models close to each other to integrate the models, and it becomes easy to obtain the model from the target data from a plurality of viewpoints.

【0014】そして、統合の具体的な方法としては、削
出し法と称される方法が開発されている。この削出し法
は、ボクセル空間から対象にあたらないボクセルを削除
することにより対象を削出す方法であり、まず視点から
見て対象の表面で隠されている空間の各ボクセルに対象
が存在する確率値を与え、視点と対象表面の間の空間の
ボクセルには確率値0を与える。統合では、各ボクセル
の確率値の和を求め、あらかじめ設定しておいたしきい
値以上の確率値をもつボクセルを抽出する。
As a concrete method of integration, a method called a shaving method has been developed. This shaving method is a method of shaving an object by deleting voxels that do not correspond to the object from the voxel space.First, the probability that the object exists in each voxel in the space hidden by the surface of the object from the viewpoint. A value is given and a probability value of 0 is given to voxels in the space between the viewpoint and the target surface. In the integration, the sum of the probability values of each voxel is obtained, and voxels having a probability value equal to or higher than a preset threshold value are extracted.

【0015】この削出し法は、和の値の高いボクセルが
対象の一部である確率が大きい、ということを基礎にし
ているが、ボクセル間で和の大小を比べるためには、和
の項数がほぼ一定である、という条件が必要である。こ
の条件は、例えばレーザレンジファインダのように、各
視点から見ることができる対象全体に渡って安定に対象
データが得られる場合には成立することが多い。また、
ボクセルを大きく設定して対象データの位置の誤差を吸
収することで、上記条件を成立させる場合もある。これ
は、例えばロボットが移動できる空間を探索する際など
のように、抽出されるボクセル領域の形状の詳細を必要
としない場合である。
This shaving method is based on the fact that a voxel having a high sum value has a high probability of being part of the object, but in order to compare the magnitude of the sum between voxels, the sum term The condition is that the number is almost constant. This condition is often satisfied when target data can be stably obtained over the entire target that can be viewed from each viewpoint, such as a laser range finder. Also,
The above condition may be satisfied by setting a large voxel to absorb the error in the position of the target data. This is the case where details of the shape of the voxel region to be extracted are not needed, such as when searching for a space in which the robot can move.

【0016】[0016]

【発明が解決しようとする課題】しかしながら、画像を
用いて対象の形状を得る場合には、各ボクセルに確率を
与える頻度、つまり和をとるための項数が、対象が実際
に存在するかどうかとは関係なくばらつきを生じる。こ
れは、画像中の特徴が得られない場合や、ステレオ法で
左右画像間の対応付けに誤りを生じた場合などに、視野
内にある対象全体が安定にモデル化されるとは限らず、
部分的に欠落する場合があることが原因である。
However, in the case of obtaining the shape of an object using an image, it is determined whether the frequency at which each voxel is given a probability, that is, the number of terms for summing, actually exists. Variation occurs regardless of. This does not mean that the entire object within the field of view is stably modeled when features in the image cannot be obtained or when an error occurs in the correspondence between the left and right images by the stereo method.
This is because it may be partially missing.

【0017】したがって、上記削出し法では、形状を細
かく得ようとしてボクセルを小さく設定すると、このば
らつきによりしきい値以下となって削られてしまうボク
セルが発生し、実際に対象が存在するにも拘らず、モデ
ルに欠落が生じてしまうことがあるという問題点があっ
た。
Therefore, in the above-mentioned shaving method, if the voxels are set to be small in order to obtain a fine shape, the voxels which are below the threshold value and are scraped due to this variation occur, and even if the target actually exists. Regardless, there was a problem that the model might be missing.

【0018】本発明は上記の問題に鑑みてなされたもの
であり、その目的とするところは、確率を与える頻度に
依存せずに環境モデルの統合を行ない、正確な環境モデ
ルを作成することが可能な環境モデル入力装置を提供す
ることにある。
The present invention has been made in view of the above problems, and an object of the present invention is to integrate environment models without depending on the frequency of giving a probability and to create an accurate environment model. It is to provide a possible environment model input device.

【0019】[0019]

【課題を解決するための手段】すなわち本発明は、 (1) 環境内物体の3次元属性情報を入力する3次元
属性情報入力手段と、この3次元属性情報入力手段によ
る3次元属性情報の入力制御を行なう観測制御手段と、
上記3次元属性情報入力手段から得た3次元属性情報に
より一視点での形状データを作成するデータ作成手段
と、このデータ作成手段で作成された形状データを記憶
する新規データ記憶手段と、統合された環境モデルを記
憶する環境モデル記憶手段と、上記新規データ記憶手段
に記憶される一視点で作成された形状データとこの視点
以外の視点で作成され、統合された上記環境モデル記憶
手段に記憶された環境モデルとを入力して統合するモデ
ル統合手段と、モデル記憶手段に記憶された環境モデル
の記述に基づき、環境の特定位置での人工映像を作成す
る映像作成手段と、この映像作成手段で作成された人工
映像とこれに対応する位置における実画像を比較するこ
とにより環境モデルの記述の修正を行なう解析検証手段
とを具備するようにしたものである。
Means for Solving the Problems That is, the present invention is as follows: (1) Three-dimensional attribute information input means for inputting three-dimensional attribute information of an object in the environment, and input of three-dimensional attribute information by this three-dimensional attribute information input means. Observation control means for controlling,
The data creating means for creating shape data from one viewpoint based on the three-dimensional attribute information obtained from the three-dimensional attribute information inputting means and the new data storing means for storing the shape data created by the data creating means are integrated. Environment model storage means for storing the environment model, shape data created from one viewpoint stored in the new data storage means and viewpoints other than this viewpoint, and stored in the integrated environment model storage means. Model integration means for inputting and integrating the environment model, an image creation means for creating an artificial image at a specific position of the environment based on the description of the environment model stored in the model storage means, and this image creation means. To provide an analysis verification means for correcting the description of the environment model by comparing the created artificial image with the real image at the position corresponding to the artificial image. Those were.

【0020】(2) 上記(1)項において、上記モデ
ル統合手段は、ガウス分布の規格化を形状データの表面
からの距離があらかじめ指定した距離である時に確率値
1を与えるように行ない、この分布に従う確率で各ボク
セル空間に確率値を与えるようにしたものである。
(2) In the above item (1), the model integrating means carries out normalization of the Gaussian distribution so as to give a probability value 1 when the distance from the surface of the shape data is a predetermined distance. The probability value according to the distribution is given to each voxel space.

【0021】(3) 上記(1)項において、上記モデ
ル統合手段は、対象の存在確率をボクセル空間中のボク
セルに与え、各ボクセルに与えられた複数の確率値か
ら、唯一の正の値あるいは正の値の積を算出して各ボク
セルの統合確率とすることを特徴とする請求項1記載の
環境モデル入力装置。
(3) In the above item (1), the model integrating means gives the existence probability of the object to a voxel in the voxel space, and from a plurality of probability values given to each voxel, a unique positive value or The environment model input device according to claim 1, wherein a product of positive values is calculated to obtain an integrated probability of each voxel.

【0022】(4) 上記(1)項において、上記モデ
ル統合手段は、対象の存在確率をボクセル空間中のボク
セルに与え、複数視点で作成したモデルから与えられた
確率を統合して得られる統合確率のピーク面上にあるボ
クセルを抽出するようにしたものである。
(4) In the above item (1), the model integrating means gives the existence probability of the object to voxels in the voxel space, and integrates the probabilities given from the models created from a plurality of viewpoints. The voxels on the probability peak surface are extracted.

【0023】(5) 上記(4)項において、上記モデ
ル統合手段は、各ボクセルについて、このボクセルを中
心としたn×n×n(n:3,5,7,‥‥)の領域の
ボクセルを選出してその中心となるボクセルを通る平面
を想定し、この平面上にあるボクセルの統合確率の平均
値と、その平面をはさむ面上にあるボクセルの統合確率
の平均値とを算出、比較し、前者が後者よりも大きい時
にこの中心にあるボクセルがそれを通る平面をピーク面
としてその上にあると判定し、抽出するようにしたもの
である。
(5) In the above item (4), the model integrating means is, for each voxel, a voxel in an area of n × n × n (n: 3, 5, 7, ...) Centering on this voxel. Assuming a plane passing through the center voxel, calculate the average value of the integration probabilities of the voxels on this plane and the average value of the integration probabilities of the voxels on the plane that sandwiches the plane, and compare However, when the former is larger than the latter, it is determined that the voxel at the center is on the plane passing through it as the peak plane and is extracted.

【0024】[0024]

【発明の実施の形態】以下本発明の実施の一形態に係る
環境モデル入力装置について図面を参照して説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An environment model input device according to an embodiment of the present invention will be described below with reference to the drawings.

【0025】図1はその概略構成を示すものであり、1
は対象までの3次元距離情報を計測する例えば超音波セ
ンサやテレビカメラ等と、色、模様などの対象の表面属
性情報を入力するためのテレビカメラ等を、環境内に存
在する対象の属性に応じて複数種類備えた3次元属性情
報入力部であり、現在位置での上記3次元距離情報及び
表面属性情報からなる3次元属性情報を入力すると、次
段のデータ作成部2へ送出する。ここでは、例えばテレ
ビカメラを二台水平に配置して構成されるものとする。
FIG. 1 shows a schematic structure thereof.
Is an attribute of a target existing in the environment, such as an ultrasonic sensor or a TV camera that measures three-dimensional distance information to the target, and a TV camera that inputs target surface attribute information such as color or pattern. A plurality of types of three-dimensional attribute information input units are provided, and when the three-dimensional attribute information including the above-mentioned three-dimensional distance information and surface attribute information at the current position is input, it is sent to the next-stage data creation unit 2. Here, it is assumed that, for example, two TV cameras are arranged horizontally.

【0026】データ作成部2は、上記3次元属性情報入
力部1から入力した一点視点のデータである3次元属性
情報により対象の形状データを作成するもので、作成し
た形状データは新規データ記憶部3に送出して記憶させ
る。
The data creation unit 2 creates the target shape data based on the three-dimensional attribute information which is the one-point viewpoint data input from the three-dimensional attribute information input unit 1, and the created shape data is the new data storage unit. 3 and store it.

【0027】この新規データ記憶部3に記憶された形状
データはモデル統合部4に読出される。モデル統合部4
は、新規データ記憶部3から読出した一点視点の形状デ
ータを、モデル記憶部5から読出した環境モデルと統合
して環境モデル記述を得、得た環境モデル記述をモデル
記憶部5に記憶させる。
The shape data stored in the new data storage unit 3 is read out to the model integration unit 4. Model integration unit 4
Integrates the shape data of the one-point viewpoint read from the new data storage unit 3 with the environment model read from the model storage unit 5 to obtain an environment model description, and stores the obtained environment model description in the model storage unit 5.

【0028】このモデル記憶部5に記憶された環境モデ
ル記述に対して映像作成部6がこれを読出し、コンピュ
ータグラフィクスを利用した人工映像に変換するもの
で、変換された人工映像は、例えばCRTで構成された
図示しない表示部で表示出力される。
The image creation unit 6 reads the environment model description stored in the model storage unit 5 and converts it into an artificial image using computer graphics. The converted artificial image is, for example, a CRT. It is displayed and output on the configured display unit (not shown).

【0029】また、上記映像作成部6で作成された人工
映像は上記モデル記憶部5を介して解析・検証部7にも
送られる。この解析・検証部7では、映像作成部6から
の人工映像と上記3次元属性情報入力部1で得た現在位
置での実画像とを比較することにより、3次元距離入力
の欠落、誤差による環境モデル記述の誤り部分を検出
し、上記モデル記憶部5に記憶格納された環境モデル記
述の修正を行なう。
The artificial image created by the image creating unit 6 is also sent to the analyzing / verifying unit 7 via the model storage unit 5. The analysis / verification unit 7 compares the artificial image from the image creation unit 6 with the actual image at the current position obtained by the three-dimensional attribute information input unit 1 to determine whether the three-dimensional distance input is missing or due to an error. The error portion of the environment model description is detected, and the environment model description stored and stored in the model storage unit 5 is corrected.

【0030】さらに解析・検証部7は、上記修正動作の
終了に際して観測制御部8に制御信号を送出する。この
制御信号を受けた観測制御部8は、装置を移動させる制
御を行なうと共に、移動後に次の3次元属性情報を入力
させるべく3次元属性情報入力部1に制御信号を送出す
る。
Further, the analysis / verification unit 7 sends a control signal to the observation control unit 8 at the end of the correction operation. Upon receiving this control signal, the observation control unit 8 controls the movement of the device and sends a control signal to the three-dimensional attribute information input unit 1 to input the next three-dimensional attribute information after the movement.

【0031】図2は上記データ作成部2内の構成を例示
するもので、本実施の形態では形状データの表面を三角
パッチで表すものとすると、データ作成部2はステレオ
処理部2aとパッチ作成部2bとから構成される。
FIG. 2 shows an example of the internal structure of the data creating section 2. In this embodiment, assuming that the surface of the shape data is represented by triangular patches, the data creating section 2 creates a stereo processing section 2a and a patch. And a section 2b.

【0032】ステレオ処理部2aは、3次元属性情報入
力部1から送られてくる3次元属性情報から特徴点及び
エッジの抽出、左右画像での対応付け、及び特徴点の三
次元座標の算出を行なうもので、こうして算出された三
次元座標を用いてパッチ作成部2bが順次三角パッチを
生成し、形状データとして出力して上記新規データ記憶
部3に記憶させる。
The stereo processing unit 2a extracts feature points and edges from the three-dimensional attribute information sent from the three-dimensional attribute information input unit 1, associates the left and right images, and calculates the three-dimensional coordinates of the feature points. By using the three-dimensional coordinates calculated in this way, the patch creation unit 2b sequentially creates triangular patches, outputs them as shape data, and stores them in the new data storage unit 3.

【0033】次いで図3により上記モデル統合部4の詳
細な構成を示す。すなわちモデル統合部4は、その各部
の動作は後に詳述するが、確率生成部4a、確率記憶部
4b、確率統合部4c、ピーク抽出部4d、及び面生成
部4eから構成されるものである。
Next, FIG. 3 shows a detailed structure of the model integration section 4. That is, the model integration unit 4 includes a probability generation unit 4a, a probability storage unit 4b, a probability integration unit 4c, a peak extraction unit 4d, and a plane generation unit 4e, although the operation of each unit will be described in detail later. .

【0034】上記のような構成にあって、次に主として
3次元属性情報入力部1、データ作成部2、新規データ
記憶部3、モデル統合部4及びモデル記憶部5における
動作を説明する。
The operation of the three-dimensional attribute information input unit 1, the data creation unit 2, the new data storage unit 3, the model integration unit 4, and the model storage unit 5 having the above-mentioned configuration will be described below.

【0035】図4はその一連の処理内容を示すもので、
まずその当初に初期モデルを作成して記憶させた後に
(ステップA1,A2)、新たにモデルを入力、記憶さ
せてその統合を行なうことで更新を行なう(ステップA
3〜A6)動作を繰返し実行するものである。
FIG. 4 shows the series of processing contents.
First, an initial model is initially created and stored (steps A1 and A2), and then a new model is input, stored, and integrated to update the model (step A).
3 to A6) operation is repeatedly executed.

【0036】すなわち、初期モデルの作成では、データ
作成部2が、一視点で撮影された画像である3次元属性
情報入力部1からの3次元属性情報を用いてステレオ法
により環境モデルを作成し(ステップA1)、作成した
モデルを新規データ記憶部3とモデル記憶部5とに初期
モデルとして記憶させる(ステップA2)。
That is, in the creation of the initial model, the data creation unit 2 creates an environment model by the stereo method using the three-dimensional attribute information from the three-dimensional attribute information input unit 1 which is an image photographed from one viewpoint. (Step A1), the created model is stored in the new data storage unit 3 and the model storage unit 5 as an initial model (Step A2).

【0037】その後、モデルの更新を行なうべく、視点
を移動した後にデータ作成部2が形状データを新たに作
成し(ステップA3)、新規データ記憶部3でこのデー
タを記憶させる(ステップA4)。続いてモデル統合部
4が新しく作成された形状データと蓄積されている環境
モデルとをそれぞれ新規データ記憶部3とモデル記憶部
5から読出し、統合する(ステップA5)。この統合に
係る具体的な処理内容は後に詳述する。そして、統合し
た結果をモデル記憶部5に記憶させて、環境モデルを更
新する(ステップA6)。
After that, in order to update the model, the data creation unit 2 creates new shape data after moving the viewpoint (step A3), and the new data storage unit 3 stores this data (step A4). Then, the model integration unit 4 reads the newly created shape data and the accumulated environment model from the new data storage unit 3 and the model storage unit 5, respectively, and integrates them (step A5). The specific processing contents related to this integration will be described in detail later. Then, the integrated result is stored in the model storage unit 5 and the environment model is updated (step A6).

【0038】このような更新動作(ステップA3〜A
6)を対象の形状を得るまで繰返すもので、以後、新た
に作成された形状データを新規モデル、蓄積されたモデ
ルを蓄積モデルと呼ぶこととする。
Such an updating operation (steps A3 to A)
6) is repeated until the target shape is obtained. Hereinafter, the newly created shape data will be referred to as a new model, and the accumulated model will be referred to as an accumulation model.

【0039】図5は上記ステップA5でのモデル統合部
4によるモデルの統合処理の詳細を示すものである。す
なわち、モデル統合部4はまず新規データ記憶部3とモ
デル記憶部5から新規モデルと蓄積モデルとを入力する
(ステップB1)。
FIG. 5 shows the details of the model integration process by the model integration unit 4 in step A5. That is, the model integration unit 4 first inputs the new model and the accumulated model from the new data storage unit 3 and the model storage unit 5 (step B1).

【0040】図6は、人手によりボクセルサイズを設定
した、モデルを含むボクセル空間を模式的に例示するも
のであり、このように想定したボクセル空間において、
モデル統合部4は次にボクセルから新規モデルの表面ま
での最短距離dn とこれを用いた次式(1)による確率
値Pn を確率生成部4aで算出し、確率記憶部4bに記
憶させる(ステップB2)。これと共に、ボクセルから
蓄積モデルの表面までの最短距離do とこれを用いた次
式(2)による確率値Po も確率生成部4aで算出し、
確率記憶部4bに記憶させる(ステップB3)。
FIG. 6 schematically illustrates a voxel space including a model in which the voxel size is manually set. In the voxel space assumed in this way,
The model integration unit 4 then calculates the shortest distance d n from the voxel to the surface of the new model and the probability value P n according to the following equation (1) using this, in the probability generation unit 4a, and stores it in the probability storage unit 4b. (Step B2). At the same time, the probability generation unit 4a also calculates the shortest distance d o from the voxel to the surface of the accumulation model and the probability value P o according to the following equation (2) using this.
It is stored in the probability storage unit 4b (step B3).

【0041】[0041]

【数1】 [Equation 1]

【0042】図7は上記確率値Pn ,Po の分布を例示
するものであり、縦軸が各確率値Pn ,Po 、横軸が算
出した距離、具体的には上記距離dn 、do がそれぞれ
0になる位置を表面として、表面からの距離を表してい
る。
FIG. 7 exemplifies the distribution of the probability values P n and P o , in which the vertical axis represents each probability value P n and P o , the horizontal axis represents the calculated distance, specifically, the distance d n. , D o are 0 at the surface, and the distance from the surface is shown.

【0043】同図に示す如く確率値Pn ,Po は共にガ
ウス分布の一部であり、dmax を正の確率値を与える距
離の上限値とし、距離がdmax の時に確率値が1に成る
ように規格化している。
As shown in the figure, the probability values P n and P o are both part of the Gaussian distribution, and d max is the upper limit value of the distance giving a positive probability value, and the probability value is 1 when the distance is d max. Is standardized to be

【0044】距離dmax は、後述するように確立値
n ,Po を統合して単一ピークの分布にするかどう
か、つまり、二つのモデルの表面を統合して一つの面と
するかどうかを決めるしきい値の機能を持ち、予め人手
によって設定しておく。以下ではdmax を統合距離と呼
ぶ。また、偏差σも人手により設定しておく。
The distance d max is whether or not the established values P n and P o are integrated into a single peak distribution as will be described later, that is, whether the surfaces of the two models are integrated into one surface. It has a threshold function that determines whether it should be set manually in advance. Hereinafter, d max will be referred to as an integrated distance. The deviation σ is also set manually.

【0045】上記ステップB3までの処理を終えると、
次いで確率記憶部4bから各ボクセルの新規モデルによ
る確率値Pn と蓄積モデルによる確率値Po とを読出
し、次式(3)に従ってPを計算し、計算で得たPを改
めて確率記憶部4bに記憶する(ステップB4)。以下
ではPを統合確率値と呼ぶ。すなわち、
When the processing up to step B3 is completed,
Next, the probability value P n by the new model and the probability value P o by the accumulation model of each voxel are read from the probability storage unit 4 b, P is calculated according to the following equation (3), and the P obtained by the calculation is re-calculated. (Step B4). Below, P is called an integrated probability value. That is,

【数2】 [Equation 2]

【0046】ここで、新規モデルによる確率値Pn と蓄
積モデルによる確率値Po と統合確率値Pの関係、及び
統合距離dmax の機能を、各ボクセルからの距離が同一
の直線上で算出された場合について説明する。
Here, the relationship between the probability value P n by the new model, the probability value P o by the accumulation model, and the integrated probability value P, and the function of the integrated distance d max are calculated on a straight line with the same distance from each voxel. The case where it is performed will be described.

【0047】2つの確立値Pn ,Po はいずれもガウス
分布の一部であるから、確立値Pn,Po のピーク間距
離が統合距離dmax 以下であれば、統合確立値Pは図8
に示すように、単一のピークの分布となる。
Since the two established values P n and P o are both part of the Gaussian distribution, if the peak-to-peak distance of the established values P n and P o is less than or equal to the integrated distance d max , the integrated established value P is Figure 8
As shown in, the distribution has a single peak.

【0048】新規モデルによる確立値Pn のピーク位置
は、距離dn が0になる新規モデルの表面である。ま
た、蓄積モデルによる確立値Po のピーク位置も後述す
るように蓄積モデルの表面である。
The peak position of the established value P n according to the new model is the surface of the new model where the distance d n becomes zero. Further, the peak position of the established value P o according to the accumulation model is also the surface of the accumulation model as described later.

【0049】つまり、ピーク間距離はモデルの表面間の
距離である。したがって、新規モデルと蓄積モデルの表
面間距離が統合距離dmax 以下であれば、統合確立値P
の算出により二つのモデルから与えられた確立値Pn
o とから、二つの面が同一表面と見倣されて統合され
る。
That is, the peak-to-peak distance is the distance between the surfaces of the model. Therefore, if the distance between the surfaces of the new model and the accumulation model is less than or equal to the integrated distance d max , the integrated established value P
The probability value P n given by the two models by the calculation of
From P o , the two surfaces are integrated by imitating the same surface.

【0050】一方、ピーク間距離が統合距離dmax より
も大きい場合は、図9に示すようにピークが統合される
ことはない。距離を算出する直線が同一でない場合は、
確立値Pn の分布や確立値Po の分布の幅が広がるが、
同様にピーク間距離が分布の幅以下であれば一つのピー
クに統合され、分布の幅よりも大きければ統合されな
い。
On the other hand, when the peak-to-peak distance is larger than the integrated distance d max , the peaks are not integrated as shown in FIG. If the straight lines that calculate the distance are not the same,
Although the distribution of the probability value P n and the probability value P o are widened,
Similarly, if the peak-to-peak distance is less than or equal to the width of the distribution, it is integrated into one peak, and if it is greater than the width of the distribution, it is not integrated.

【0051】なお、上記ステップB2とステップB3の
処理は順序を入れ換えても良いし、並列に算出しても良
い。また、ボクセルサイズや偏差σを画像の画素のサイ
ズのために生じる誤差や視点の位置の誤差から算出して
設定しても良い。
The steps B2 and B3 may be interchanged in order or may be calculated in parallel. Further, the voxel size and the deviation σ may be calculated and set from an error caused by the pixel size of the image or an error in the position of the viewpoint.

【0052】しかして、ボクセルの一つをCと呼ぶ時、
そのボクセルCを中心としたボクセル空間中の例えば3
×3×3の領域内の各ボクセルをボクセルCに対するサ
ブボクセルと呼ぶものとする。図10にボクセルCとそ
のサブボクセルを示す。
When one of the voxels is called C,
For example, 3 in the voxel space centering on the voxel C
Each voxel in the region of × 3 × 3 is referred to as a sub-voxel for voxel C. FIG. 10 shows a voxel C and its sub-voxels.

【0053】次に、算出した統合確立値Pを用いて、ピ
ーク抽出部4dでボクセルCがサブボクセル中で統合確
率値Pのピーク面上にあるかどうかを判定する(ステッ
プB5)。図11はピーク抽出部4dが判定するピーク
面の法線の方向とサブボクセルの座標を表す軸を示す。
図中の各格子点はサブボクセルの中心である。
Next, using the calculated integrated probability value P, the peak extraction unit 4d determines whether the voxel C is on the peak plane of the integrated probability value P in the sub-voxels (step B5). FIG. 11 shows the direction of the normal line of the peak plane determined by the peak extraction unit 4d and the axes representing the coordinates of sub-voxels.
Each grid point in the figure is the center of the sub-voxel.

【0054】すなわち、ボクセルCの座標(x,y,
z)を(0,0,0)とし、サブボクセルの確率値P
(x,y,z)を {P(x,y,z):x=−1,0,1;y=1,0,
1;z=−1,0,1} とすると、図中の法線方向1,4,7についての判定条
件は次の各式(4),(5),(6)である。すなわ
ち、(1)法線方向1の場合
That is, the coordinates (x, y,
z) is (0, 0, 0), and the subvoxel probability value P
Let (x, y, z) be {P (x, y, z): x = -1,0,1; y = 1,0,
1; z = -1,0,1}, the determination conditions for the normal directions 1, 4, and 7 in the figure are the following equations (4), (5), and (6). That is, (1) In the case of normal direction 1

【数3】 (Equation 3)

【0055】(2)法線方向4の場合(2) Case of normal direction 4

【数4】 (Equation 4)

【0056】(3)法線方向7の場合(3) When the normal direction is 7

【数5】 (Equation 5)

【0057】他の方向のピーク面についても同様の判定
条件を用いる。上記式(4)〜(6)で示した各判定条
件は、それぞれの法線方向をもつ平面がボクセルCを通
り、その平面をはさむ平面上のサブボクセルの確率値の
平均値が、ボクセルCを通る平面上のサブボクセルでの
平均値以下であるという条件である。
Similar determination conditions are used for peak planes in other directions. In each of the determination conditions shown in the above equations (4) to (6), the plane having the normal direction passes through the voxel C, and the average value of the probability values of the sub-voxels on the plane sandwiching the plane is the voxel C. It is a condition that it is less than or equal to the average value in the sub-voxels on the passing plane.

【0058】ボクセルCを通る平面上のサブボクセルの
配置と、この平面を挟む2平面上のサブボクセルの配置
との例を図12乃至図14に示す。すなわち、図12は
法線方向1について、図13に法線方向4について、図
14に法線方向7について上記各配置を例示したもので
あり、いずれも図中で白丸で示すサブボクセルS1がボ
クセルCを通る平面上のサブボクセル、ハッチングを付
した白丸で示すサブボクセルS2がボクセルCを通る平
面を挟む2平面上のサブボクセルであって、上記いずれ
かの判定条件を満たす場合は、ボクセルをピークと判定
する。
12 to 14 show examples of the arrangement of sub-voxels on a plane passing through the voxel C and the arrangement of sub-voxels on two planes sandwiching this plane. That is, FIG. 12 exemplifies the above arrangements with respect to the normal direction 1, FIG. 13 with respect to the normal direction 4, and FIG. 14 with respect to the normal direction 7. In each case, the sub-voxel S1 indicated by a white circle in the drawing is a voxel. Sub-voxels on a plane passing through C, sub-voxels S2 indicated by white circles with hatching are sub-voxels on two planes sandwiching the plane passing through voxel C, and if any of the above determination conditions is satisfied, it is determined that the voxel is a peak. To do.

【0059】なお、上記図10では、ボクセルCを中心
としたボクセル空間中の3×3×3の領域内のボクセル
をボクセルCに対するサブボクセルとして説明したが、
これに限らず、例えばボクセルCを中心とした5×5×
5等のようなより大きな領域を用い、それに応じて判定
条件を変更してピーク面上にあるかどうかの判定を行な
っても良い。
In FIG. 10, the voxels in the 3 × 3 × 3 area in the voxel space centering on the voxel C are described as sub-voxels for the voxel C.
Not limited to this, for example, 5 × 5 × centered on the voxel C
It is also possible to use a larger area such as 5 and change the judgment condition accordingly to judge whether or not the area is on the peak plane.

【0060】全ボクセルについて上記ステップB2〜B
5の処理を行ない、法線方向を算出、記憶した後に、面
生成部4eでピークと抽出されたボクセルから隣接する
ボクセルの中心を結んで三角形パッチを生成し、生成し
た三角形パッチを更新されたモデルとしてモデル記憶部
5に記憶させ(ステップB6)、以上でこの図5による
一連の統合処理を終了する。
Steps B2 to B for all voxels
After the process 5 is performed to calculate and store the normal direction, a triangle patch is generated by connecting the centers of adjacent voxels from the voxels extracted by the surface generation unit 4e, and the generated triangle patch is updated. The model is stored in the model storage unit 5 as a model (step B6), and the series of integration processing shown in FIG. 5 is completed.

【0061】上記のような統合処理を含む環境モデルの
更新を実行することで、複数の視点で得られた形状デー
タの統合に際して、特に視点数が比較的少ない場合であ
っても、統合により正確な環境モデルを作成することが
できるようになる。
By executing the updating of the environment model including the integration processing as described above, the shape data obtained from a plurality of viewpoints can be integrated accurately even if the number of viewpoints is relatively small. You will be able to create various environment models.

【0062】なお、本発明は実施の形態に制限されるも
のではなく、その要旨を逸脱しない範囲で種々変形が可
能であるものとする。
The present invention is not limited to the embodiments, and various modifications can be made without departing from the spirit of the invention.

【0063】[0063]

【発明の効果】以上詳記した如く本発明によれば、確率
を与える頻度に依存せずに環境モデルの統合を行ない、
正確な環境モデルを作成することが可能な環境モデル入
力装置を提供することができる。
As described above in detail, according to the present invention, the environment models are integrated independently of the frequency giving the probability,
An environment model input device capable of creating an accurate environment model can be provided.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の一形態に係る概略構成を示すブ
ロック図。
FIG. 1 is a block diagram showing a schematic configuration according to an embodiment of the present invention.

【図2】図1のデータ作成部内の構成を示すブロック
図。
FIG. 2 is a block diagram showing a configuration inside a data creation unit of FIG.

【図3】図1のモデル統合部内の構成を示すブロック
図。
FIG. 3 is a block diagram showing a configuration inside a model integration unit in FIG.

【図4】同実施の形態に係る動作内容を示すフローチャ
ート。
FIG. 4 is a flowchart showing an operation content according to the same embodiment.

【図5】図4のモデルの統合処理のサブルーチンを示す
フローチャート。
5 is a flowchart showing a subroutine of a model integration process of FIG.

【図6】同実施の形態に係る環境モデルを含むボクセル
空間を模式的に示す図。
FIG. 6 is a diagram schematically showing a voxel space including an environment model according to the same embodiment.

【図7】同実施の形態に係る距離に対応した確立値の分
布を例示する図。
FIG. 7 is a diagram exemplifying a distribution of established values corresponding to distances according to the same embodiment.

【図8】同実施の形態に係る距離に対応した確立値の分
布を例示する図。
FIG. 8 is a diagram exemplifying a distribution of established values corresponding to distances according to the same embodiment.

【図9】同実施の形態に係る距離に対応した確立値の分
布を例示する図。
FIG. 9 is a diagram exemplifying a distribution of established values corresponding to distances according to the same embodiment.

【図10】同実施の形態に係るボクセルとサブボクセル
の関係を例示する図。
FIG. 10 is a diagram exemplifying a relationship between voxels and sub-voxels according to the same embodiment.

【図11】同実施の形態に係るピーク面の方線方向とサ
ブボクセルの座標を示す図。
FIG. 11 is a diagram showing a direction of a peak surface and coordinates of sub-voxels according to the same embodiment;

【図12】同実施の形態に係るボクセルとサブボクセル
との配置を例示する図。
FIG. 12 is a diagram illustrating an arrangement of voxels and sub-voxels according to the same embodiment.

【図13】同実施の形態に係るボクセルとサブボクセル
との配置を例示する図。
FIG. 13 is a diagram illustrating an arrangement of voxels and sub-voxels according to the same embodiment.

【図14】同実施の形態に係るボクセルとサブボクセル
との配置を例示する図。
FIG. 14 is a diagram illustrating an arrangement of voxels and sub-voxels according to the same embodiment.

【符号の説明】[Explanation of symbols]

1…3次元属性情報入力部 2…データ作成部 2a…ステレオ処理部 2b…パッチ作成部 3…新規データ記憶部 4…モデル統合部 4a…確率生成部 4b…確率記憶部 4c…確率統合部 4d…ピーク抽出部 4e…面生成部 5…モデル記憶部 6…映像作成部 7…解析・検証部 8…観測制御部 1 ... Three-dimensional attribute information input unit 2 ... Data creation unit 2a ... Stereo processing unit 2b ... Patch creation unit 3 ... New data storage unit 4 ... Model integration unit 4a ... Probability generation unit 4b ... Probability storage unit 4c ... Probability integration unit 4d ... Peak extraction section 4e ... Surface generation section 5 ... Model storage section 6 ... Video creation section 7 ... Analysis / verification section 8 ... Observation control section

───────────────────────────────────────────────────── フロントページの続き (72)発明者 服部 寛 大阪府大阪市北区大淀中1丁目1番30号 株式会社東芝関西支社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Hiroshi Hattori 1-1-30 Oyodochu, Kita-ku, Osaka City, Osaka Prefecture Toshiba Kansai Branch Office

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 環境内物体の3次元属性情報を入力する
3次元属性情報入力手段と、 この3次元属性情報入力手段による3次元属性情報の入
力制御を行なう観測制御手段と、 上記3次元属性情報入力手段から得た3次元属性情報に
より一視点での形状データを作成するデータ作成手段
と、 このデータ作成手段で作成された形状データを記憶する
新規データ記憶手段と、 統合された環境モデルを記憶する環境モデル記憶手段
と、 上記新規データ記憶手段に記憶される一視点で作成され
た形状データとこの視点以外の視点で作成され、統合さ
れた上記環境モデル記憶手段に記憶された環境モデルと
を入力して統合するモデル統合手段と、 モデル記憶手段に記憶された環境モデルの記述に基づ
き、環境の特定位置での人工映像を作成する映像作成手
段と、 この映像作成手段で作成された人工映像とこれに対応す
る位置における実画像を比較することにより環境モデル
の記述の修正を行なう解析検証手段とを具備したことを
特徴とする環境モデル入力装置。
1. A three-dimensional attribute information input means for inputting three-dimensional attribute information of an object in the environment, an observation control means for controlling the input of the three-dimensional attribute information by the three-dimensional attribute information input means, and the three-dimensional attribute. A data creating means for creating shape data from one viewpoint based on the three-dimensional attribute information obtained from the information inputting means, a new data storing means for storing the shape data created by this data creating means, and an integrated environment model An environment model storage means to store, shape data created from one viewpoint stored in the new data storage means, and an environment model stored in the integrated environment model storage means created from a viewpoint other than this viewpoint; Video creation that creates an artificial video at a specific position in the environment based on the model integration means that inputs and integrates and the description of the environment model stored in the model storage means Environment model input comprising means and analysis and verification means for correcting the description of the environment model by comparing the artificial image created by the image creating means with the real image at the position corresponding to the artificial image. apparatus.
【請求項2】 上記モデル統合手段は、ガウス分布の規
格化を形状データの表面からの距離があらかじめ指定し
た距離である時に確率値1を与えるように行ない、この
分布に従う確率で各ボクセル空間に確率値を与えること
を特徴とする請求項1記載の環境モデル入力装置。
2. The model integrating means normalizes the Gaussian distribution so as to give a probability value 1 when the distance from the surface of the shape data is a predetermined distance, and assigns a probability value 1 to each voxel space. The environment model input device according to claim 1, wherein a probability value is given.
【請求項3】 上記モデル統合手段は、対象の存在確率
をボクセル空間中のボクセルに与え、各ボクセルに与え
られた複数の確率値から、唯一の正の値あるいは正の値
の積を算出して各ボクセルの統合確率とすることを特徴
とする請求項1記載の環境モデル入力装置。
3. The model integrating means gives the existence probability of an object to a voxel in a voxel space, and calculates a unique positive value or a product of positive values from a plurality of probability values given to each voxel. The environment model input device according to claim 1, wherein the integrated probability of each voxel is set as
【請求項4】 上記モデル統合手段は、対象の存在確率
をボクセル空間中のボクセルに与え、複数視点で作成し
たモデルから与えられた確率を統合して得られる統合確
率のピーク面上にあるボクセルを抽出することを特徴と
する請求項1記載の環境モデル入力装置。
4. The voxel on the peak surface of the integration probability obtained by integrating the probabilities given from the models created from a plurality of viewpoints by giving the existence probability of the object to the voxel in the voxel space. The environment model input device according to claim 1, wherein
【請求項5】 上記モデル統合手段は、各ボクセルにつ
いて、このボクセルを中心としたn×n×n(n:3,
5,7,‥‥)の領域のボクセルを選出してその中心と
なるボクセルを通る平面を想定し、この平面上にあるボ
クセルの統合確率の平均値と、その平面をはさむ面上に
あるボクセルの統合確率の平均値とを算出、比較し、前
者が後者よりも大きい時にこの中心にあるボクセルがそ
れを通る平面をピーク面としてその上にあると判定し、
抽出することを特徴とする請求項4記載の環境モデル入
力装置。
5. The model integrator means, for each voxel, n × n × n (n: 3, with the voxel as the center.
, Voxels in the area of (5, 7, ...) Are selected and a plane passing through the center voxel is assumed, and the average value of the integration probabilities of the voxels on this plane and the voxels on the plane sandwiching the plane. Compute and compare the average value of the integrated probability of, when the former is larger than the latter, it is determined that the voxel at the center is on the plane passing through it as the peak plane,
The environment model input device according to claim 4, which is extracted.
JP7234351A 1995-09-12 1995-09-12 Environment model input device Pending JPH0981788A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7234351A JPH0981788A (en) 1995-09-12 1995-09-12 Environment model input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7234351A JPH0981788A (en) 1995-09-12 1995-09-12 Environment model input device

Publications (1)

Publication Number Publication Date
JPH0981788A true JPH0981788A (en) 1997-03-28

Family

ID=16969644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7234351A Pending JPH0981788A (en) 1995-09-12 1995-09-12 Environment model input device

Country Status (1)

Country Link
JP (1) JPH0981788A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357080A (en) * 2000-06-13 2001-12-26 Fujitsu Nagano Systems Engineering Ltd Device and method for analyzing form data, and computer-readable storage medium
JP2008225787A (en) * 2007-03-12 2008-09-25 Toyota Motor Corp Image recognition device
DE112006003361T5 (en) 2005-12-16 2008-10-16 Ihi Corporation Method and apparatus for recording / displaying three-dimensional shape data and method and apparatus for measuring a three-dimensional shape
US8116558B2 (en) 2005-12-16 2012-02-14 Ihi Corporation Three-dimensional shape data position matching method and device
US8121399B2 (en) 2005-12-16 2012-02-21 Ihi Corporation Self-position identifying method and device, and three-dimensional shape measuring method and device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357080A (en) * 2000-06-13 2001-12-26 Fujitsu Nagano Systems Engineering Ltd Device and method for analyzing form data, and computer-readable storage medium
DE112006003361T5 (en) 2005-12-16 2008-10-16 Ihi Corporation Method and apparatus for recording / displaying three-dimensional shape data and method and apparatus for measuring a three-dimensional shape
US8116558B2 (en) 2005-12-16 2012-02-14 Ihi Corporation Three-dimensional shape data position matching method and device
US8121399B2 (en) 2005-12-16 2012-02-21 Ihi Corporation Self-position identifying method and device, and three-dimensional shape measuring method and device
US8300048B2 (en) 2005-12-16 2012-10-30 Ihi Corporation Three-dimensional shape data recording/display method and device, and three-dimensional shape measuring method and device
JP2008225787A (en) * 2007-03-12 2008-09-25 Toyota Motor Corp Image recognition device

Similar Documents

Publication Publication Date Title
CN103678754B (en) Information processor and information processing method
US5819016A (en) Apparatus for modeling three dimensional information
US5864632A (en) Map editing device for assisting updating of a three-dimensional digital map
US5969721A (en) System and apparatus for customizing a computer animation wireframe
CN110298854B (en) Flight snake-shaped arm cooperative positioning method based on online self-adaption and monocular vision
JP2003058911A (en) Device, method, program for modeling surface shape of three-dimensional object
CN106625673A (en) Narrow space assembly system and assembly method
CN113192054A (en) Method and system for detecting and positioning complex parts based on 2-3D vision fusion
Seales et al. Building three-dimensional object models from image sequences
Tarbox et al. IVIS: An integrated volumetric inspection system
CN111709988A (en) Method and device for determining characteristic information of object, electronic equipment and storage medium
US20040044441A1 (en) Environmental reasoning using geometric data structure
Bodenmüller et al. Online surface reconstruction from unorganized 3d-points for the DLR hand-guided scanner system
CN114581632A (en) Method, equipment and device for detecting assembly error of part based on augmented reality technology
CN110517323A (en) 3 D positioning system and method based on manipulator one camera multi-vision visual
Hill et al. Automatic landmark identification using a new method of non-rigid correspondence
JPH0981788A (en) Environment model input device
JPH0854219A (en) Image processor
JPH0814860A (en) Model creating device
JPH07152810A (en) Environment model creating device
Zetu et al. Data input model for virtual reality-aided facility layout
CN113744245A (en) Method and system for positioning structural reinforcing rib welding seam in point cloud
Denker et al. On-line reconstruction of CAD geometry
EP3779878A1 (en) Method and device for combining a texture with an artificial object
JP3894420B2 (en) 3D model generation method and apparatus