JPH07146752A - Environmental model preparing device - Google Patents

Environmental model preparing device

Info

Publication number
JPH07146752A
JPH07146752A JP5292251A JP29225193A JPH07146752A JP H07146752 A JPH07146752 A JP H07146752A JP 5292251 A JP5292251 A JP 5292251A JP 29225193 A JP29225193 A JP 29225193A JP H07146752 A JPH07146752 A JP H07146752A
Authority
JP
Japan
Prior art keywords
unit
data
environment
attribute information
environment model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5292251A
Other languages
Japanese (ja)
Inventor
Kazunori Onoguchi
一則 小野口
Mutsumi Watanabe
睦 渡辺
Kaoru Suzuki
薫 鈴木
Takashi Wada
和田  隆
Minoru Yagi
稔 八木
Hiroshi Hattori
寛 服部
Tatsuro Nakamura
達郎 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP5292251A priority Critical patent/JPH07146752A/en
Publication of JPH07146752A publication Critical patent/JPH07146752A/en
Priority to US08/665,546 priority patent/US5819016A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide an environmental model preparing device capable of easily obtaining the positional information within environments of object data such as a desk and a chair, etc., and shapes of large objects such as a ceiling, a wall and a pillar, etc., when an environmental model is prepared. CONSTITUTION:This device is composed of a three-dimensional attribute information input part 1 measusing the three-dimensional attribute information on distance and shape surface attributes, etc., by using visual information from a television camera and an ultrasonic visual sensor, etc., an environmental model processing part 2 controlling the three-dimensional attribute information inputted in the three-dimensional attribute information input part 1 and forming the environmental model, a video preparation part 3 preparing the artificial video of environments based on the model description stored in the environmental model processing part 2, an analysis part 4 verifying the description of the environmental model by comparing the artificial video preparation result of the video preparation part 3 and the visual information at the present location and an observation control part 5 performing the input control of the three-dimensional attribute information input part 1.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像情報から環境の3
次元形状や表面情報を抽出し、環境のモデルを自動的に
作成する環境モデル作成装置に関する。
BACKGROUND OF THE INVENTION The present invention relates to the environment 3 from image information.
The present invention relates to an environment model creating device that automatically creates an environment model by extracting dimensional shape and surface information.

【0002】[0002]

【従来の技術】従来、室内等の環境モデルを構築する方
法としては、コンピュータグラフィクス(以下、CGと
いう)のデータのように人間が対話的に作成したり、移
動ロボットの環境マップのように、ロボットが環境内を
動き回って外界センサにより自由空間を検出するものが
あった。
2. Description of the Related Art Conventionally, as a method of constructing an environment model of a room or the like, a person can interactively create it like data of computer graphics (hereinafter referred to as CG), or an environment map of a mobile robot, Some robots move around in the environment and detect free space by an external sensor.

【0003】人間が環境モデルを対話的に作成する方法
においては、環境内にある対象物の個々の形状及びそれ
らの環境内の位置を実際に測定しなければならない。
In the method by which a human interactively creates an environment model, the individual shapes of objects in the environment and their positions in the environment must be actually measured.

【0004】例えば、オフィス等の環境では、机、椅
子、パーティション等の同じ種類のものが複数配置され
ている場合が多い。そのため、机や椅子等の対象物デー
タを個別に作成したならば、これらのコピーを環境内の
所定の位置に配置すれば環境のCGモデルを作成でき
る。
For example, in an environment such as an office, a plurality of desks, chairs, partitions and the like of the same type are often arranged. Therefore, if object data such as a desk or a chair is individually created, a copy of these objects can be placed at a predetermined position in the environment to create a CG model of the environment.

【0005】しかし、机や椅子等の小型対象物データ
は、スケール等で形状を容易に実測できるが、天井、
柱、壁等の大型対象物データは測定が容易ではない。
However, the shape of a small object such as a desk or a chair can be easily measured by a scale or the like.
It is not easy to measure large object data such as columns and walls.

【0006】また、小型対象物データを配置するために
は、部屋の中のどの位置に机が置かれているかといっ
た、小型対象物データの環境内位置情報が必要となる
が、これを測定するためには多大な労力を必要とする。
小型対象物データの環境内位置情報を得るのに、図面を
用いる手法もある。しかし、図面からは、動かせない大
型対象物の位置情報は得られても、頻繁に移動する小型
対象物の位置情報は得ることができない。つまり、図面
には、室内レイアウトを策定した初期の情報しか記載さ
れていないため、その後のレイアウトの変更情報は得ら
れない場合が多い。さらに、図面からは対象物の表面の
色や模様等の情報が直接得られないため、何らかの手段
でそれらを獲得し、データに付加する必要がある。
Further, in order to arrange the small object data, it is necessary to obtain the position information in the environment of the small object data such as the position of the desk in the room, which is measured. To do so requires a great deal of effort.
There is also a method of using a drawing to obtain the position information in the environment of the small object data. However, from the drawings, although the position information of the large object that cannot be moved can be obtained, the position information of the small object that frequently moves cannot be obtained. In other words, the drawings only include the initial information when the room layout was formulated, and therefore, there are many cases where the subsequent layout change information cannot be obtained. Furthermore, since information such as the color and pattern of the surface of the object cannot be obtained directly from the drawing, it is necessary to obtain them by some means and add them to the data.

【0007】ロボットが動き回って外界のデータを各種
センサにより獲得し、環境のマップを構築していく従来
手法は、対話的に作成する際の労力を軽減することがで
きるが、移動ロボットの誘導が目的のマップであるた
め、自由空間の記述や環境の概略情報を得るに留まって
いる。このため、CGデータのように環境の詳細な形状
や表面情報が必要な場合に適用できない。
The conventional method in which the robot moves around and acquires the external data by various sensors and constructs the map of the environment can reduce the labor for interactively creating, but the guidance of the mobile robot Since it is a map of purpose, it only obtains a description of free space and outline information of the environment. For this reason, it cannot be applied to the case where detailed shape and surface information of the environment are required like CG data.

【0008】[0008]

【発明が解決しようとする課題】以上のように、環境モ
デルを従来の方法で作成するのは容易ではないが、その
作成できない問題点をまとめると下記のようになる。
As described above, although it is not easy to create an environment model by the conventional method, the problems that cannot be created are summarized as follows.

【0009】第1の問題点としては、環境内の対象物デ
ータの切りわけができていないため、個々の対象物にア
クセスできないことにある。例えば、得られる3次元形
状データは、机や椅子といった切りわけのできていな
い、単なる3次元データの塊であるため、机のデータの
みにアクセスして移動等の処理ができない。つまり、C
G処理の分野に於いて必要とされる基本的な処理が実現
できるデータを直接得ることができない。
The first problem is that individual object data cannot be accessed because the object data in the environment have not been separated. For example, the obtained three-dimensional shape data is a mere mass of three-dimensional data such as a desk or a chair that cannot be cut, and therefore cannot access the data of the desk to perform processing such as movement. That is, C
It is impossible to directly obtain data that can realize the basic processing required in the field of G processing.

【0010】第2の問題点としては、得られたデータを
基に、信頼度をより高めるためにはどのように観測すれ
ば良いかということが考慮されなかったことにある。特
に、データ入力装置としてテレビカメラを用いた場合、
観測する対象物が置かれている背景の複雑さが観測の容
易さや信頼度に大きく寄与するが、従来手法ではこの点
の考慮がなく、複雑な背景下でデータを獲得しているた
めに信頼度が上がらないという問題が生じている。これ
は、従来手法が、未観測領域を埋めていくための観測手
順は持っていても、観測データの信頼性を高め、より詳
細なデータを求めるための観測手順を保持していないた
めである。そのため、これを解決するために従来は、入
力されたデータに対し、信頼度(確率的な重み付け)を
付加しながらデータを融合することぐらいしか行なわれ
ていなかった(A. Elfes:"UsingOccupancy Grids for M
obile Robot Perception and Navigation",Computer,Vo
l.22,No.6,pp 46-57(1989) )。
The second problem is that, on the basis of the obtained data, no consideration has been given to how to make observations in order to further increase the reliability. Especially when a TV camera is used as a data input device,
The complexity of the background on which the observed object is placed greatly contributes to the easiness and reliability of the observation, but the conventional method does not consider this point, and it is reliable because the data is acquired under the complicated background. The problem is that it does not increase. This is because the conventional method has the observation procedure for filling the unobserved region, but does not have the observation procedure for improving the reliability of the observation data and obtaining more detailed data. . Therefore, in order to solve this, in the past, only inputting data was fused while adding reliability (probabilistic weighting) (A. Elfes: "UsingOccupancy Grids for M
obile Robot Perception and Navigation ", Computer, Vo
L.22, No.6, pp 46-57 (1989)).

【0011】したがって、従来の方法では、環境モデル
を作成する場合において、小型対象物データの環境内位
置情報や、大型対象物の形状を簡単に得ることは困難で
あった。
Therefore, according to the conventional method, it is difficult to easily obtain the position information in the environment of the small object data and the shape of the large object when the environment model is created.

【0012】そこで、本発明では、環境モデルを作成す
る場合において、小型対象物データの環境内位置情報
や、大型対象物の形状を簡単に得ることができる環境モ
デル作成装置を提供する。
In view of this, the present invention provides an environment model creating apparatus that can easily obtain the environmental position information of small object data and the shape of a large object when creating an environment model.

【0013】[0013]

【課題を解決するための手段】第1の発明の環境モデル
作成装置は、テレビカメラあるいは超音波の視覚センサ
等からの視覚情報を用いて、距離、形状及び表面属性等
の3次元属性情報を測定する3次元属性情報入力部と、
この3次元属性情報入力部より入力された3次元属性情
報と予め記憶された対象物データとから環境モデルを形
成する環境モデル処理部と、この環境モデル処理部に記
憶された環境モデルに基づき環境の人工映像を作成する
映像作成部と、この映像作成部の人工映像作成結果と対
応位置での視覚情報を比較することにより環境モデル記
述の検証を行なう解析部と、前記3次元属性情報入力部
の入力制御を行なう観測制御部とからなるものである。
An environment model creating apparatus according to a first aspect of the present invention uses three-dimensional attribute information such as distance, shape, and surface attribute by using visual information from a television camera, an ultrasonic visual sensor, or the like. 3D attribute information input section to measure,
An environment model processing unit that forms an environment model from the three-dimensional attribute information input from the three-dimensional attribute information input unit and object data stored in advance, and an environment based on the environment model stored in the environment model processing unit. Of the artificial image, an analysis unit for verifying the environmental model description by comparing the artificial image creation result of the image creating unit with the visual information at the corresponding position, and the three-dimensional attribute information input unit. And an observation control unit that controls the input of.

【0014】第2の発明の環境モデル作成装置は、テレ
ビカメラあるいは超音波の視覚センサ等からの視覚情報
を用いて、距離、形状及び表面属性等の3次元属性情報
を測定する3次元属性情報入力部と、この3次元属性情
報入力部より入力された3次元属性情報を管理し環境モ
デルを形成する環境モデル処理部と、この環境モデル処
理部に記憶された環境モデルに基づき環境の人工映像を
作成する映像作成部と、この映像作成部の人工映像作成
結果と対応位置での視覚情報を比較することにより環境
モデル記述の検証を行なう解析部と、前記3次元属性情
報入力部より入力された3次元属性情報から対象空間の
外郭データ及び非外郭データを識別し、当外郭データか
ら順に詳細な環境モデルを形成するように、前記3次元
属性情報入力部の入力制御を行なう観測制御部とからな
るものである。
The environment model creating apparatus of the second invention uses the visual information from a television camera or an ultrasonic visual sensor to measure three-dimensional attribute information such as distance, shape and surface attribute. An input unit, an environment model processing unit that manages the three-dimensional attribute information input from the three-dimensional attribute information input unit to form an environment model, and an artificial image of the environment based on the environment model stored in the environment model processing unit. Input from the three-dimensional attribute information input section, an image creation section that creates an image model, an analysis section that verifies the environmental model description by comparing the artificial image creation result of this image creation section and the visual information at the corresponding position. The outer data and the non-outer data of the target space are identified from the three-dimensional attribute information, and a detailed environment model is sequentially formed from the outer data so that the three-dimensional attribute information input unit It is made of the observation control unit for performing power control.

【0015】[0015]

【作 用】第1の発明の環境モデル作成装置について説
明する。
[Operation] The environment model creating apparatus of the first invention will be described.

【0016】3次元属性情報入力部が、テレビカメラ、
超音波の視覚センサ等からの視覚情報を用いて、距離、
形状表面属性等の3次元属性情報を測定する。
The three-dimensional attribute information input section is a television camera,
Using visual information from an ultrasonic visual sensor, distance,
Three-dimensional attribute information such as shape surface attribute is measured.

【0017】環境モデル処理部が、前記3次元属性情報
入力部へ入力された3次元属性情報と予め記憶された対
象物データとからを環境モデルを形成する。
The environment model processing unit forms an environment model from the three-dimensional attribute information input to the three-dimensional attribute information input unit and the object data stored in advance.

【0018】映像作成部が、前記環境モデル処理部に記
憶されたモデル記述に基づき環境の人工映像を作成す
る。
The image creating unit creates an artificial image of the environment based on the model description stored in the environment model processing unit.

【0019】解析部が、前記映像作成部の人工映像作成
結果と現在位置での視覚情報を比較することにより環境
モデル記述の検証を行なう。
The analysis unit verifies the environment model description by comparing the artificial image creation result of the image creation unit with the visual information at the current position.

【0020】観測制御部が、前記3次元属性情報入力部
の入力制御を行なう。
The observation control unit controls the input of the three-dimensional attribute information input unit.

【0021】これにより、視覚情報を入力するだけで、
環境モデル処理部が環境モデルを形成し、小型対象物デ
ータの環境内位置情報や、大型対象物の形状を簡単に得
ることができる。
With this, only by inputting visual information,
The environment model processing unit forms an environment model, and the position information in the environment of the small object data and the shape of the large object can be easily obtained.

【0022】第2の発明の環境モデル作成装置について
説明する。
The environment model creating apparatus of the second invention will be described.

【0023】3次元属性情報入力部が、テレビカメラ、
超音波の視覚センサ等からの視覚情報を用いて、距離、
形状表面属性等の3次元属性情報を測定する。
The three-dimensional attribute information input unit is a television camera,
Using visual information from an ultrasonic visual sensor, distance,
Three-dimensional attribute information such as shape surface attribute is measured.

【0024】環境モデル処理部が、前記3次元属性情報
入力部へ入力された3次元属性情報を管理し環境モデル
を形成する。
The environment model processing unit manages the three-dimensional attribute information input to the three-dimensional attribute information input unit to form an environment model.

【0025】映像作成部が、前記環境モデル処理部に記
憶されたモデル記述に基づき環境の人工映像を作成す
る。
An image creation unit creates an artificial image of the environment based on the model description stored in the environment model processing unit.

【0026】解析部が、前記映像作成部の人工映像作成
結果と現在位置での視覚情報を比較することにより環境
モデル記述の検証を行なう。
The analysis unit verifies the environmental model description by comparing the artificial image creation result of the image creation unit with the visual information at the current position.

【0027】観測制御部が、3次元属性情報入力部より
入力された3次元属性情報から対象空間の外郭データ及
び非外郭データを識別し、当外郭データから順に詳細な
環境モデルを形成するように、前記3次元属性情報入力
部の入力制御を行なう。
The observation control unit identifies the contour data and non-contour data of the target space from the three-dimensional attribute information input from the three-dimensional attribute information input unit, and forms a detailed environment model in order from the contour data. The input control of the three-dimensional attribute information input unit is performed.

【0028】これにより、観測する対象物の背景とし
て、表面情報が単純な領域を選ぶことができ、画像から
の対象物の切りわけや、画像間の照合が容易になる。
As a result, a region having simple surface information can be selected as the background of the object to be observed, which facilitates the separation of the object from the images and the collation between the images.

【0029】[0029]

【実施例】【Example】

( 実 施 例 1 )以下、本発明の第1の実施例を
図1〜図4に従い説明する。
(Embodiment 1) Hereinafter, a first embodiment of the present invention will be described with reference to FIGS.

【0030】図1は、環境モデル作成装置の概略構成を
示すもので、3次元属性情報入力部1、環境モデル処理
部2、映像作成部3、解析部4、観測制御部5から構成
されている。以下、各部分について説明する。
FIG. 1 shows a schematic configuration of an environment model creating apparatus, which is composed of a three-dimensional attribute information input section 1, an environment model processing section 2, an image creating section 3, an analyzing section 4, and an observation control section 5. There is. Hereinafter, each part will be described.

【0031】3次元属性情報入力部 3次元属性情報入力部1は、環境の3次元形状や表面情
報をステレオ視により獲得する。これは、2台のテレビ
カメラ(以下、ステレオカメラという)によりステレオ
画像を入力し、これらステレオ画像をそれぞれ画像メモ
リに蓄積する。そして、2枚の画像メモリに蓄積されて
いるステレオ画像間の対応づけを行ない、ステレオカメ
ラの座標系における環境の3次元座標データを求める。
得られた3次元座標データ、及び画像データは環境モデ
ル処理部2へ送られる。
Three-Dimensional Attribute Information Input Unit The three-dimensional attribute information input unit 1 acquires the three-dimensional shape and surface information of the environment by stereoscopic viewing. In this system, stereo images are input by two TV cameras (hereinafter referred to as stereo cameras), and these stereo images are respectively stored in an image memory. Then, the stereo images stored in the two image memories are associated with each other to obtain the three-dimensional coordinate data of the environment in the coordinate system of the stereo camera.
The obtained three-dimensional coordinate data and image data are sent to the environment model processing unit 2.

【0032】環境モデル処理部 図2に環境モデル処理部2の一構成例を示し、更新部
6、3次元環境データ記憶部7、認識部8、対象物デー
タ設置部9、対象物データ記憶部10及び環境モデル記
憶部11よりなる。
Environmental Model Processing Unit FIG. 2 shows an example of the configuration of the environmental model processing unit 2. The updating unit 6, the three-dimensional environmental data storage unit 7, the recognition unit 8, the target object data setting unit 9, and the target object data storage unit. 10 and the environment model storage unit 11.

【0033】また、図3に環境モデル処理部2の処理の
流れを示す。以下この流れを参照しつつ各ステップを詳
細に説明する。
Further, FIG. 3 shows a flow of processing of the environment model processing section 2. Each step will be described in detail below with reference to this flow.

【0034】(ステップ1) 更新部6において、予め環境内に設定しておいた環
境座標系における3次元座標データに、3次元属性情報
入力部1で得られたステレオカメラの座標系における環
境の3次元座標データを変換し、3次元環境データ記憶
部7に登録する。観測を始めた時のステレオカメラの座
標系の環境座標系内の初期位置は、予め測量器により計
測しておく。
(Step 1) In the updating unit 6, the 3D coordinate data in the environment coordinate system preset in the environment is added to the environment in the coordinate system of the stereo camera obtained in the 3D attribute information inputting unit 1. The three-dimensional coordinate data is converted and registered in the three-dimensional environment data storage unit 7. The initial position in the environment coordinate system of the coordinate system of the stereo camera when the observation is started is measured by a survey instrument in advance.

【0035】 更新部6は、3次元環境データ記憶部
7に蓄積されている環境の3次元形状を参照し、次の画
像収集位置を設定する。この場合に、画像収集位置は3
次元環境データ記憶部7に蓄積されている環境の3次元
形状から任意の自由空間位置を選ぶ。そして、観測制御
部5に画像収集位置の環境座標系における位置情報を送
る。
The updating unit 6 refers to the three-dimensional shape of the environment stored in the three-dimensional environment data storage unit 7 and sets the next image acquisition position. In this case, the image acquisition position is 3
An arbitrary free space position is selected from the three-dimensional shape of the environment accumulated in the three-dimensional environment data storage unit 7. Then, the position information in the environmental coordinate system of the image collection position is sent to the observation control unit 5.

【0036】 観測制御部5は、この位置に環境モデ
ル作成装置が移動できるようアクチュエータを制御す
る。
The observation control unit 5 controls the actuator so that the environment model creating device can move to this position.

【0037】 環境モデル作成装置の移動後、3次元
属性情報入力部1に画像入力信号を送る。
After moving the environment model creating apparatus, an image input signal is sent to the three-dimensional attribute information input unit 1.

【0038】 3次元属性情報入力部1は、画像メモ
リに蓄えられた画像から再び、新たな位置からの環境の
3次元座標値を求める。
The three-dimensional attribute information input unit 1 again obtains a three-dimensional coordinate value of the environment from a new position from the image stored in the image memory.

【0039】 この座標値を更新部6は環境座標系で
の座標値に変換し、3次元環境データ記憶部7に記録さ
れている3次元形状と表面データと統合する。統合は空
間を格子上に区切った占有格子(occupancy grid 図4
参照)において3次元形状と表面データが獲得された環
境座標系の位置を含む格子を随時埋めていくことで実現
する。
The updating unit 6 converts the coordinate values into coordinate values in the environment coordinate system, and integrates the three-dimensional shape and the surface data recorded in the three-dimensional environment data storage unit 7. Integration is an occupancy grid that divides the space on the grid.
This is realized by filling in a grid including the three-dimensional shape and the position of the environment coordinate system from which the surface data is acquired, as described above.

【0040】 この移動、ステレオ画像入力、3次元
座標値算出、統合の処理を繰り返しながら、3次元環境
データ記憶部7における蓄積データを更新していく。
The accumulated data in the three-dimensional environment data storage unit 7 is updated by repeating the processes of this movement, stereo image input, three-dimensional coordinate value calculation, and integration.

【0041】(ステップ2)認識部8は、予め対象物デ
ータ記憶部10に登録しておいた机、椅子、パーティシ
ョン等の環境内対象物の対象物データを用いて、3次元
環境データ記憶部7に納められている環境の3次元形状
と表面データから対象物部分のデータを認識する。
(Step 2) The recognition unit 8 uses the object data of the objects in the environment such as desks, chairs, partitions, etc. registered in the object data storage unit 10 in advance, and the three-dimensional environment data storage unit The data of the object part is recognized from the three-dimensional shape of the environment and the surface data stored in 7.

【0042】 対象物データ記憶部10に記憶されて
いる環境内対象物の対象物データは以下の通りである。
The object data of the in-environment object stored in the object data storage unit 10 is as follows.

【0043】(1) 形状データ 対象物データの表面を三角形のパッチに切り分け、個々
の三角形の頂点座標値及び面の表方向を示す法線ベクト
ルが蓄積されている。座標系は対象物データの周辺に任
意に定める。
(1) Shape Data The surface of the object data is cut into triangular patches, and the vertex coordinate values of each triangle and the normal vector indicating the surface direction of the surface are stored. The coordinate system is arbitrarily set around the object data.

【0044】(2) 表面データ 各三角形パッチに対応する対象物データ表面の画像が、
三角形パッチ上にテクスチャーマッピングして蓄積され
ている。
(2) Surface data The image of the object data surface corresponding to each triangle patch is
It is accumulated by texture mapping on triangular patches.

【0045】(3) 照合データ 認識部8で用いる照合用データであり、三角形パッチの
法線ベクトル同士が類似している隣接パッチ同士を統合
し、求めた平面の集合が蓄積されている。この平面集合
に含まれていない三角形パッチの集合は曲面に含まれる
というフラグを付加し、蓄積しておく。各平面は、法線
ベクトル、折れ線近似した輪郭線の3次元座標列、面
積、及び平面上の重心位置を対象物データ毎に設定され
た座標系に対し保持している。
(3) Collation data This is the collation data used in the recognition unit 8, and the adjacent patches in which the normal vectors of the triangular patches are similar to each other are integrated to accumulate a set of planes obtained. A flag that a set of triangular patches not included in this plane set is included in the curved surface is added and accumulated. Each plane holds a normal vector, a three-dimensional coordinate sequence of contour lines approximated to a polygonal line, an area, and a barycentric position on the plane with respect to a coordinate system set for each object data.

【0046】 認識部8では、3次元環境データ記憶
部7より得られる占有格子データに対し、ハフ変換(ho
ugh 変換)を適用し、平面の集合を求める。得られた平
面の集合Piに対し、対象物データ記憶部10に蓄積さ
れている各対象物データSiの照合データと類似してい
る平面の組合せを探索する。つまり、各Siに対し、構
成している個々の平面Fiの面線及び輪郭形状が類似し
ており、かつFi間の3次元的位置関係が類似している
平面の組合せQiがPi中で存在するか否かを探索す
る。そして、存在するならば、それを対象物データとし
て認識する。
The recognition unit 8 performs Hough transform (ho) conversion on the occupied grid data obtained from the three-dimensional environment data storage unit 7.
ugh transformation) is applied to obtain a set of planes. For the obtained plane set Pi, a combination of planes similar to the collation data of each target object data Si stored in the target object data storage unit 10 is searched. That is, for each Si, there is a combination Qi of planes in which the plane lines and contour shapes of the individual planes Fi that are configured are similar, and the three-dimensional positional relationship between Fis is similar, in Pi. Search whether to do or not. If it exists, it is recognized as object data.

【0047】(ステップ3)認識部8では、Siの各F
iがQiの対応する平面と最も重複するようなプリミテ
ィブの座標系と環境座標系との間の回転移動量(θx,
θy,θz)、及び平行移動量(dx,dy,dz)を
求める。そして、対象物データ設置部9に対象物データ
の種類とともに送る。
(Step 3) In the recognition unit 8, each F of Si is
The amount of rotational movement (θx, between the coordinate system of the primitive and the environment coordinate system such that i most overlaps with the corresponding plane of Qi.
θy, θz) and the parallel movement amount (dx, dy, dz). Then, it is sent to the object data installation unit 9 together with the type of object data.

【0048】(ステップ4)対象物データ設置部9は、
認識した部分の3次元形状及び表面データと対象物デー
タ記憶部10に蓄積されている3次元形状及び表面デー
タとを置き換える。
(Step 4) The object data setting unit 9
The three-dimensional shape and surface data of the recognized portion and the three-dimensional shape and surface data accumulated in the object data storage unit 10 are replaced.

【0049】すなわち、対象物データ設置部9では、認
識部8より送られてくる回転移動量と平行移動量を用い
て、3次元属性情報入力部1より得られた占有格子デー
タに照合された対象物データのデータを組み込む。占有
格子データの外郭面を三角形パッチで近似した後、照合
がとれた対象物データの形状データ及び表面データを認
識部8より得られる回転移動量及び平行移動量を用いて
座標変換して統合する。
That is, the object data setting unit 9 uses the rotational movement amount and the parallel movement amount sent from the recognition unit 8 to collate with the occupied grid data obtained from the three-dimensional attribute information input unit 1. Incorporate the object data. After the outer surface of the occupied grid data is approximated by a triangular patch, the shape data and surface data of the matched object data are coordinate-converted using the rotation movement amount and the parallel movement amount obtained from the recognition unit 8 and integrated. .

【0050】(ステップ5)統合された3角形パッチ及
びパッチ上にテクスチャーマッピングされた表面情報を
環境モデル記憶部11に登録する。
(Step 5) The integrated triangular patch and the surface information texture-mapped on the patch are registered in the environment model storage unit 11.

【0051】映像作成部 映像作成部3は、環境モデル処理部2により得られた環
境モデル記述をコンピュータグラフィックスを利用した
映像に変換し表示する。
Video Creation Unit The video creation unit 3 converts the environment model description obtained by the environment model processing unit 2 into a video using computer graphics and displays it.

【0052】解 析 部 解析部4は、この人工映像と3次元属性情報入力部1で
得られた現在位置でのカメラ画像を比較することによ
り、3次元距離入力の欠落、誤差による記述の誤り部分
を検出し、環境モデル処理部2に格納された環境モデル
記述の修正を行なう。また、解析部4は、上記比較処理
によりモデルデータが得られていない領域を検出し、新
たな観測指令を3次元属性情報入力部1、または、観測
制御部5に送信し、移動観測の制御を行なう。
The analysis unit analysis unit 4 compares the artificial image with the camera image at the current position obtained by the three-dimensional attribute information input unit 1 to detect a missing three-dimensional distance input and a description error due to an error. The part is detected and the environment model description stored in the environment model processing unit 2 is corrected. In addition, the analysis unit 4 detects a region in which model data is not obtained by the above comparison processing, transmits a new observation command to the three-dimensional attribute information input unit 1 or the observation control unit 5, and controls the movement observation. Do.

【0053】本実施例では、認識部8において、3次元
環境データ記憶部7より得られた環境の3次元形状と表
面データから対象物データを認識するのに平面の組合せ
を用いているが、対象物データのボリュームを用いて照
合する等、他の手法も適用できる。また、対象物データ
記憶部10のデータは本実施例で記述したものに限定さ
れることはなく、認識部8においてとられる認識手法に
応じて様々なものを用いることができる。
In the present embodiment, the recognition unit 8 uses a combination of planes to recognize the object data from the surface three-dimensional shape and surface data obtained from the three-dimensional environment data storage unit 7. Other methods such as matching using the volume of the object data can also be applied. Further, the data in the object data storage unit 10 is not limited to that described in the present embodiment, and various data can be used according to the recognition method used in the recognition unit 8.

【0054】( 実 施 例 2 )次に、本発明の環
境モデル作成装置の第2の実施例を図1及び図5〜図1
9に従い説明する。
(Example 2) Next, a second example of the environment model creating apparatus of the present invention will be described with reference to FIGS.
9 will be described.

【0055】本実施例の環境モデル作成装置の概略構成
は、第1の実施例と同じもので、3次元属性情報入力部
1、環境モデル処理部2、映像作成部3、解析部4、観
測制御部5から構成されている。以下、各部分を説明す
る。
The schematic configuration of the environment model creating apparatus of this embodiment is the same as that of the first embodiment, and the three-dimensional attribute information input unit 1, environment model processing unit 2, image creation unit 3, analysis unit 4, and observation unit are used. It is composed of the control unit 5. Hereinafter, each part will be described.

【0056】3次元属性情報入力部 図5に奥行きデータをステレオ視により獲得する際の3
次元属性情報入力部1の一構成例を示す。
Three-dimensional Attribute Information Input Section FIG.
The structural example of the dimension attribute information input part 1 is shown.

【0057】2台のテレビカメラ106,107は観測
制御部5より送られてくる画像入力信号により画像を同
時に入力し、画像メモリ108,109へそれぞれ格納
する。奥行き算出部110は画像メモリ108,109
より入力された2枚の画像からステレオ視により奥行き
を算出する。
The two television cameras 106 and 107 simultaneously input images according to the image input signal sent from the observation control unit 5, and store them in the image memories 108 and 109, respectively. The depth calculation unit 110 uses the image memories 108 and 109.
The depth is calculated by stereoscopic vision from the two input images.

【0058】本装置による観測を行なう以前に、人間が
環境内に基準となる環境座標系を設定しておく。そし
て、この環境座標系における本装置の初期位置及び初期
方向を測定しておき、観測制御部5に登録しておく。
Before observing with this apparatus, a human sets a reference environmental coordinate system in the environment. Then, the initial position and the initial direction of this device in this environment coordinate system are measured and registered in the observation control unit 5.

【0059】座標変換部111は、観測制御部5より送
られてくる本装置の環境座標系における位置及び方向を
用い、奥行き算出部110により算出された奥行きデー
タを座標変換する。図7に示すように本装置の環境座標
系Cにおける位置及び方向を(xv ,yv ,zv )、θ
v とし、奥行き算出部110により得られた奥行きデー
タ(ステレオカメラの座標系C’を基準にして得られて
いる本装置の位置及び方向は、この座標系C’の原点位
置及びx軸との成す角度を用いている)を(xs ,ys
,zs )とすると、以下の方程式により、環境座標系
を基準とした3次元データ(x,y,z)が得られる。
ただし、本実施例では本装置が動き回る床面は平坦であ
り、x軸及びy軸の回転は無視している。
The coordinate transformation unit 111 transforms the depth data calculated by the depth calculation unit 110 into coordinates using the position and direction in the environment coordinate system of the present apparatus sent from the observation control unit 5. As shown in FIG. 7, the position and direction in the environment coordinate system C of this device are (xv, yv, zv), θ
v, the depth data obtained by the depth calculation unit 110 (the position and direction of this device obtained with reference to the coordinate system C ′ of the stereo camera are the origin position of this coordinate system C ′ and the x-axis). (Using the angle formed by), (xs, ys
, Zs), three-dimensional data (x, y, z) based on the environment coordinate system is obtained by the following equation.
However, in this embodiment, the floor surface around which the present apparatus moves is flat, and rotations of the x axis and the y axis are ignored.

【0060】x=xcosθv −ysinθv −xv y=xsinθv +ycosθv −yv z=−zv観測制御部 図6に観測制御部5の一構成例であり、外郭データ生成
部112,蓄積部113,表面情報解析部114,観測
位置方向算出部115,移動制御部116及びアクチュ
エータ117から構成される。以下、各部分を説明す
る。
X = xcos θv −ysin θv −xv y = xsin θv + ycos θv −yv z = −zv Observation control unit FIG. 6 shows an example of the configuration of the observation control unit 5, which includes an outer contour data generation unit 112, a storage unit 113, and surface information analysis. The unit 114, the observation position / direction calculation unit 115, the movement control unit 116, and the actuator 117 are included. Hereinafter, each part will be described.

【0061】[蓄積部]蓄積部113には、観測空間を
x−y平面に投影し、その平面を均一サイズの格子で区
切った占有格子Gが蓄積されている(図9参照)。この
占有格子Gの(i,j)番目の格子をgijとする。gij
は2つの状態フラグft ,fa を保持している。
[Storage Unit] The storage unit 113 stores an occupancy grid G which projects the observation space onto the xy plane and divides the plane into uniform size grids (see FIG. 9). Let the (i, j) th grid of this occupied grid G be gij. gij
Holds two state flags ft and fa.

【0062】ft は、対象フラグであり、格子gijが外
郭であるか否かを記述する。fa は、領域フラグであ
り、gijが外郭領域であるか否かを記述する。この関係
を説明すると下記のようになる。
Ft is a target flag and describes whether or not the grid gij is an outer contour. fa is an area flag and describes whether or not gij is an outer area. The relationship will be described below.

【0063】ft は、格子gijが完全な外郭であるか否
かを設定するものであり、完全な外郭でない場合は1で
あり、完全な外郭である場合は2である。
Ft sets whether or not the grid gij is a perfect outline, and is 1 when it is not a perfect outline and 2 when it is a perfect outline.

【0064】fa は、gijが外郭領域であるか否かを設
定するものであり、外郭領域でない場合は0であり、外
郭領域である場合は1である。
Fa is for setting whether or not gij is an outer region, and is 0 when it is not the outer region and 1 when it is the outer region.

【0065】ft =2であって、完全な外郭の場合と
は、gijに外郭があると認識され、かつ、そのgij以上
の領域に3次元データが存在しない場合をいう。そし
て、このような領域が、外郭領域であり、fa =1とな
る。
The case of ft = 2 and the complete contour means that the contour is recognized in gij and the three-dimensional data does not exist in the area of gij or more. Then, such a region is the outer region, and fa = 1.

【0066】ft =1であって、完全な外郭でない場合
とは、gijに外郭があると認識され、かつ、そのgij以
上の領域に3次元データが存在する場合をいう。そし
て、このような領域が、外郭領域でないとして、fa =
0となる。
The case where ft = 1 and the contour is not a perfect contour means that the contour is recognized in gij and three-dimensional data exists in the region of gij or more. Then, assuming that such a region is not the outer region, fa =
It becomes 0.

【0067】[外郭データ生成部]外郭データ生成部1
12は、3次元属性情報入力部1より得られた環境座標
系を基準とする3次元データから、図8の処理手順に従
って、外郭データ、非外郭データ及び画像データを求
め、これらのデータと蓄積部113のデータとを統合す
る。
[Outer Contour Data Generation Unit] Outer contour data generation unit 1
The reference numeral 12 obtains contour data, non-contour data, and image data from the three-dimensional data based on the environment coordinate system obtained from the three-dimensional attribute information input unit 1 in accordance with the processing procedure of FIG. The data of the unit 113 is integrated.

【0068】以下、図8に基づいて外郭データ生成部1
12の処理を説明する。
Hereinafter, the outer contour data generator 1 will be described with reference to FIG.
The process of 12 will be described.

【0069】まず、前提として各gijのft ,fa は,
本装置起動時において0に初期化しておく。そして、蓄
積部113に登録されている占有格子Gをロードする。
First, as a premise, ft and fa of each gij are
It is initialized to 0 when the apparatus is started. Then, the occupied lattice G registered in the storage unit 113 is loaded.

【0070】(ステップ1)3次元属性情報入力部1よ
り得られた各3次元データ(x,y,z)に対し、
(x,y)の値を含むgijの対象フラグft を1とす
る。
(Step 1) For each three-dimensional data (x, y, z) obtained from the three-dimensional attribute information input unit 1,
The target flag ft of gij including the value of (x, y) is set to 1.

【0071】(ステップ2)ft =1である各gijに対
し、fa =1であるならft を2とする。
(Step 2) For each gij for which ft = 1, ft is set to 2 when fa = 1.

【0072】(ステップ3)ft =1である各gijを図
10に示すように8隣接でラベリングし、ラベル領域の
集合Lを求める。図10の例の場合、
(Step 3) As shown in FIG. 10, each gij for which ft = 1 is labeled with 8 adjacencies to obtain a set L of label areas. In the case of the example of FIG.

【数1】 のようにラベル付けされる。[Equation 1] Is labeled as.

【0073】(ステップ4)Lが空集合か否かを判断し
て、空集合でなければステップ5に進み、空集合であれ
ばステップ10に進む。
(Step 4) It is judged whether L is an empty set. If it is not an empty set, the process proceeds to step 5, and if it is an empty set, the process proceeds to step 10.

【0074】(ステップ5)Lが空集合でないので、L
に含まれるラベル領域から任意に1つの領域liを選択
する。そして、図11に示すように、本装置の位置Pか
らラベル領域liへ引いた2本の接線p1,p2に囲ま
れる領域の中で、liよりもpに対して離れている領域
を求める。この領域を含んでいるすべての占有格子gij
の集合を外領域Aとする。図12の例の場合、ラベル領
域l1の外領域はA1、ラベル領域l2の外領域はA2
となる。
(Step 5) Since L is not an empty set, L
One area li is arbitrarily selected from the label areas included in. Then, as shown in FIG. 11, of the areas surrounded by the two tangents p1 and p2 drawn from the position P of the apparatus to the label area li, the area farther from p than li is obtained. All occupied grids gij containing this region
Is set as the outer area A. In the case of the example in FIG. 12, the outer area of the label area 11 is A1, and the outer area of the label area 12 is A2.
Becomes

【0075】(ステップ6)外領域Aに含まれるgijの
中で、ft =1である領域、すなわち、3次元データが
存在する領域が含まれているか否かを判断して、含まれ
ていればステップ9に進み、含まれていなければステッ
プ7に進む。
(Step 6) It is judged whether or not the area of ft = 1 in gij included in the outer area A, that is, the area in which the three-dimensional data exists is included, and the area is included. If so, the process proceeds to step 9, and if not included, the process proceeds to step 7.

【0076】(ステップ7)外領域Aに含まれるgijの
中で、ft =1である領域(すなわち、3次元データが
存在する領域)が含まれていないので(図12の例では
外領域A1)、ラベル領域に含まれるgijは外郭である
としてft に2を代入する。
(Step 7) Since gij included in the outer area A does not include the area where ft = 1 (that is, the area where the three-dimensional data exists) (in the example of FIG. 12, the outer area A1). ), Gij included in the label area is an outline, and 2 is substituted for ft.

【0077】(ステップ8)外領域を含んでいるgijの
fa を1とする。図12の例では、l1に含まれるgij
のft は、2に設定される。また、A1に含まれるgij
のfa は、1に設定される。しかし、A2の領域にはf
t =1であるgijが存在するので、l2に含まれるgij
のft は1のままであり、A2に含まれるgijのfa も
0のままである。
(Step 8) The fa of gij including the outer area is set to 1. In the example of FIG. 12, gij included in l1
Ft is set to 2. Also, gij included in A1
Fa is set to 1. However, in the area of A2, f
Since gij with t = 1 exists, gij included in l2
Of gij contained in A2 also remains 0.

【0078】(ステップ9)Lの集合から選択したラベ
ル領域liを除き、ステップ4に戻り、再びラベル領域
を1つ選択し、以上の処理をLが空集合になるまで繰り
返す。
(Step 9) Remove the selected label area li from the set of L, return to step 4, select one label area again, and repeat the above processing until L becomes an empty set.

【0079】(ステップ10)Lが空集合なので、ft
が1または2である各占有格子gijに対し、そのgijが
含む3次元データの中で最大のz座標値zmax を持つも
のを選ぶ。そして、占有格子Gにzmax を付加した立体
占有格子V(図13参照)を作成する。
(Step 10) Since L is an empty set, ft
For each occupied grid gij with 1 or 2 selected, the one having the maximum z coordinate value zmax among the three-dimensional data included in the gij is selected. Then, a three-dimensional occupied lattice V (see FIG. 13) is created by adding zmax to the occupied lattice G.

【0080】(ステップ11)画像入力部より得られた
画像情報をCGにおけるテクスチャーマッピングの技法
で立体占有格子の側面に貼り付ける。ここで、立体占有
格子の側面とは占有格子Gの個々の格子をzmax だけ上
に伸ばした柱状直方体の側面のことであり、図13の立
体占有格子の例においてはS1,S2,S3,S4であ
る。図14に示すように、本装置の環境座標系における
位置が既知であるため、本装置に対するカメラの位置・
姿勢及び焦点位置をキャリブレーションにより獲得して
おけば、立体占有格子上の側面に投影される画像部分を
切り出すことができるため、立体占有格子の各側面に切
り出した画像を画像ファイルとして付加しておく。
(Step 11) The image information obtained from the image input section is pasted on the side surface of the three-dimensional occupied lattice by the texture mapping technique in CG. Here, the side surface of the three-dimensional occupied lattice is a side surface of a columnar rectangular parallelepiped obtained by extending the individual lattices of the occupied lattice G upward by zmax, and in the example of the three-dimensional occupied lattice of FIG. 13, S1, S2, S3, S4. Is. As shown in FIG. 14, since the position of this device in the environment coordinate system is known, the position of the camera relative to this device
If the posture and focus position are acquired by calibration, the image part projected on the side surface of the three-dimensional occupied lattice can be cut out. Therefore, the image cut out on each side of the three-dimensional occupied lattice is added as an image file. deep.

【0081】(ステップ12)以上の処理を行なった
後、外郭データ生成部112は、蓄積部113のデータ
を新たな立体占有格子Vと占有格子Gに更新する。
(Step 12) After performing the above processing, the outer contour data generation unit 112 updates the data of the storage unit 113 to the new three-dimensional occupied grid V and new occupied grid G.

【0082】[表面情報解析部]表面情報解析部114
では、蓄積部113の立体占有格子Vの側面に付加され
た画像のエッジの密度による領域分割をそれぞれ行な
う。
[Surface Information Analysis Unit] Surface information analysis unit 114
Then, the area division is performed by the edge density of the image added to the side surface of the three-dimensional occupied lattice V of the storage unit 113.

【0083】[観測位置方向算出部]観測位置方向算出
部115では、観測しようとする対象物の背景画像が単
純なテクスチャー領域を持つような観測位置及び方向を
算出する。図15に基づいて観測位置方向算出部115
の処理の流れを説明する。
[Observation Position Direction Calculation Unit] The observation position direction calculation unit 115 calculates the observation position and direction such that the background image of the object to be observed has a simple texture area. Based on FIG. 15, the observation position direction calculation unit 115
The processing flow of is described.

【0084】(ステップ1)占有格子Gにft =1の格
子が存在するか否かを判断し、存在すればステップ2に
進み、存在しなければステップ14に進んで、観測終了
信号を移動制御部7へ送り終了する。
(Step 1) It is judged whether or not there is a lattice of ft = 1 in the occupied lattice G, and if it exists, the process proceeds to step 2, and if it does not exist, the process proceeds to step 14 to control the movement of the observation end signal. Send to section 7 and finish.

【0085】(ステップ2)占有格子Gにft =1の格
子が存在するので、この格子は外郭ではないため、再計
測を行ない、測定精度を高めていく。占有格子Gの各g
ijの中で、ft =1である領域を8隣接でラベル付け
し、その集合をL1とする。
(Step 2) Since the occupied grid G has a grid of ft = 1, this grid is not an outline, and remeasurement is performed to improve the measurement accuracy. Each g of the occupied grid G
In ij, the region where ft = 1 is labeled with 8 neighbors, and the set is labeled L1.

【0086】(ステップ3)占有格子Gの各gijの中
で、ft =2である領域を8隣接でラベル付けし、その
集合をL2とする。L2は外郭の領域である。
(Step 3) In each gij of the occupied lattice G, the region where ft = 2 is labeled with 8 neighbors, and the set is labeled as L2. L2 is an outer region.

【0087】(ステップ4)近接しているL1,L2に
おける領域をそれぞれl1i,l2iとする。ここで、近接
しているとは、図16に示すように、l1i,l2iの間に
ft =1のgijが存在しないことである。
(Step 4) Let L1i and l2i be the regions in L1 and L2 which are close to each other. Here, being close means that gij of ft = 1 does not exist between l1i and l2i as shown in FIG.

【0088】(ステップ5)図16に示すように、l2i
に対しl1iの重心を中心にした点対称の位置の周辺に探
索領域Bを設定する。Bは例えば、図17に示すよう
に、l1iとl2iの両端同士を結んだ直線を延長し、交わ
る点C以下の3角形領域として設定される。
(Step 5) As shown in FIG. 16, l2i
On the other hand, the search area B is set around the point-symmetrical position around the center of gravity of 11i. For example, as shown in FIG. 17, B is set as a triangular region below the point C where the straight line connecting both ends of l1i and l2i is extended and intersects.

【0089】(ステップ6)探索領域Bが設定できたな
らばステップ7に進み、設定できなければステップ12
に進む。
(Step 6) If the search area B can be set, the process proceeds to step 7, and if not, the step 12
Proceed to.

【0090】(ステップ7)探索領域Bを設定すると、
l2iに対応する立体占有格子の側面画像に対する表面情
報解析部5の領域分割結果から、エッジの密度の低い領
域を単純テクスチャー領域として求める。
(Step 7) When the search area B is set,
An area having a low edge density is obtained as a simple texture area from the area division result of the surface information analysis unit 5 for the side image of the three-dimensional occupied lattice corresponding to l2i.

【0091】(ステップ8)探索領域B中で本装置の位
置方向を随時変更し、単純テクスチャー領域とl1iを本
装置の画像面に投影した際の画像を生成する(図18参
照)。
(Step 8) In the search area B, the position and direction of the apparatus are changed at any time to generate an image when the simple texture area and l1i are projected on the image plane of the apparatus (see FIG. 18).

【0092】(ステップ9)この画像中で、図19に示
すように、l1iの投影画像の上部が単純テクスチャー領
域に含まれている否かを判断し、含まれていればステッ
プ10に進み、含まれていなければステップ11に進
む。
(Step 9) In this image, as shown in FIG. 19, it is judged whether or not the upper portion of the projected image of l1i is included in the simple texture area, and if it is included, the process proceeds to step 10. If not included, the process proceeds to step 11.

【0093】(ステップ10)l1iが存在する空間を再
観測空間とし、この時の(x,y,z)、θを移動制御
部116へ送る。そして、終了する。
(Step 10) The space in which l1i exists is set as a re-observation space, and (x, y, z) and θ at this time are sent to the movement control unit 116. Then, the process ends.

【0094】(ステップ11)l1iの投影画像の上部が
単純テクスチャー領域に含まれていないなら、探索領域
Bのすべての場所で投影画像の作成を行い、l1iの投影
画像の上部が単純テクスチャー領域に含まれているか否
かを判断し、含まれていればステップ12に進み、含ま
れていなければステップ8に戻る。
(Step 11) If the upper portion of the projected image of l1i is not included in the simple texture area, the projected image is created at all locations in the search area B, and the upper portion of the projected image of l1i becomes the simple texture area. It is determined whether or not it is included. If it is included, the process proceeds to step 12, and if it is not included, the process returns to step 8.

【0095】(ステップ12)探索領域Bのすべての場
所で投影画像を作成しても投影画像の上部が単純テクス
チャー領域に含まれるようなl1iが存在しない場合に
は、l1iをL1の集合から除去する。
(Step 12) If l1i such that the upper portion of the projected image is included in the simple texture region does not exist even if the projected image is created at all locations in the search region B, l1i is removed from the set of L1. To do.

【0096】(ステップ13)L1が空集合か否かを判
断して、L1が空集合であるなら観測終了信号を移動制
御部116へ送って終了する。L1が空集合でなければ
近接しているl1iとl2iの組を選び直して探索領域を設
定し、ステップ4に戻る。
(Step 13) It is judged whether or not L1 is an empty set, and if L1 is an empty set, an observation end signal is sent to the movement control unit 116 to end the processing. If L1 is not an empty set, a pair of adjacent l1i and l2i is selected again to set a search area, and the process returns to step 4.

【0097】[移動制御部]移動制御部116では観測
位置方向算出部115より入力される位置(x,y,
z)、方向θに本装置が移動できるようアクチュエータ
117を制御する。そして、移動した後、3次元属性情
報入力部1に画像入力信号を出す。また、本装置の環境
座標系における現在位置方向として、(x,y,z)、
θの値を3次元属性情報入力部1へ送る。観測位置方向
算出部115より、観測終了信号が入力された場合には
移動制御を停止し、観測を終了する。
[Movement Control Unit] In the movement control unit 116, the position (x, y,
z), the actuator 117 is controlled so that the apparatus can move in the direction θ. Then, after moving, an image input signal is output to the three-dimensional attribute information input unit 1. Further, as the current position direction in the environment coordinate system of this device, (x, y, z),
The value of θ is sent to the three-dimensional attribute information input unit 1. When the observation end signal is input from the observation position / direction calculation unit 115, the movement control is stopped and the observation is ended.

【0098】環境モデル処理部 環境モデル処理部2は3次元属性情報入力部1より得ら
れた3次元データや画像から環境モデルを記述する。
Environment model processing unit The environment model processing unit 2 describes the environment model from the three-dimensional data and the image obtained from the three-dimensional attribute information input unit 1.

【0099】映像作成部 映像作成部3は、環境モデル処理部2により得られた環
境モデル記述をCGを利用した映像に変換し表示する。
Video Creation Unit The video creation unit 3 converts the environment model description obtained by the environment model processing unit 2 into a video using CG and displays it.

【0100】解析部 解析部4は、この人工映像と3次元属性情報入力部1で
得られた現在位置でのカメラ画像を比較することによ
り、3次元距離入力の欠落、誤差による記述の誤り部分
を検出し、環境モデル処理部2に格納された環境モデル
記述の修正を行なう。また、解析部4は、上記比較処理
によりモデルデータが得られていない領域を検出し、新
たな観測指令を3次元属性情報入力部1、または、観測
制御部5に送信し、移動観測の制御を行なう。
Analyzing unit The analyzing unit 4 compares the artificial image with the camera image at the current position obtained by the three-dimensional attribute information inputting unit 1 to detect a missing three-dimensional distance input or an error in the description due to an error. Is detected and the environment model description stored in the environment model processing unit 2 is corrected. In addition, the analysis unit 4 detects a region in which model data is not obtained by the above comparison processing, transmits a new observation command to the three-dimensional attribute information input unit 1 or the observation control unit 5, and controls the movement observation. Do.

【0101】ここでは、3次元属性情報入力部の一構成
例として、カメラが2台の場合を説明したが、カメラの
台数には制限がなく、上述と同様の手法で実現できる。
Here, the case where the number of cameras is two has been described as an example of the configuration of the three-dimensional attribute information input unit, but the number of cameras is not limited, and the same method as described above can be used.

【0102】また、表面情報解析部114において、エ
ッジの密度により、画像を領域分割したが、色相やフー
リエ変換によるテクスチャー解析による領域分割手法も
適用することができる。さらに、観測位置方向算出部1
15における、探索領域Bの設定手法や、投影画像を生
成する位置方向の決め方等も、本装置はここで説明した
手法にとらわれることはなく、他の手法も適用できる。
Further, in the surface information analysis unit 114, the image is divided into regions according to the edge density, but a region division method by texture analysis by hue or Fourier transform can be applied. Furthermore, the observation position direction calculation unit 1
The method of setting the search area B in 15 and the method of determining the position direction in which the projection image is generated are not limited to the method described here, and other methods can be applied.

【0103】[0103]

【発明の効果】第1の発明の環境モデル作成装置であれ
ば、データ入力手段が構築した環境の3次元形状及び表
面情報に代えて、予め記憶されている対象物データが個
別に置換えられるので、登録されている対象物は独立に
アクセスできる。このため、CG処理において必要とさ
れる基本的な処理の実現に必要な情報を直接得ることが
できる。
According to the environment model creating apparatus of the first invention, instead of the three-dimensional shape and surface information of the environment constructed by the data input means, prestored object data can be individually replaced. , Registered objects can be accessed independently. Therefore, it is possible to directly obtain the information necessary for realizing the basic processing required in the CG processing.

【0104】第2の発明の環境モデル作成装置であれ
ば、環境の3次元データを獲得する際に、環境の外郭か
ら順番に観測していき、最外郭が入力された後、その内
部の対象物に対し、テクスチャーが単純な領域が背景と
なるような位置方向から画像を入力し、3次元データを
獲得していくため、3次元データの獲得処理が容易とな
り、獲得されるデータの信頼性が高まる。これにより、
信頼性の高い3次元データが獲得できるため、環境モデ
ルの入力ができる。
With the environment model creating apparatus according to the second aspect of the present invention, when the three-dimensional data of the environment is acquired, observation is performed in order from the outer contour of the environment, and after the outermost contour is input, the objects inside the outer contour are input. Since an image is input from a position direction in which an area with a simple texture is the background to an object and the 3D data is acquired, the acquisition process of the 3D data is easy, and the reliability of the acquired data is high. Will increase. This allows
Since highly reliable 3D data can be obtained, an environment model can be input.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例の環境モデル作成装置を
示すブロック図である。
FIG. 1 is a block diagram showing an environment model creating apparatus according to a first embodiment of the present invention.

【図2】環境モデル処理部のブロック図である。FIG. 2 is a block diagram of an environment model processing unit.

【図3】環境モデル処理部の処理の流れを示すフローチ
ャートである。
FIG. 3 is a flowchart showing a processing flow of an environment model processing unit.

【図4】占有格子を説明するための図である。FIG. 4 is a diagram for explaining an occupied grid.

【図5】第2の実施例の3次元属性情報入力部のブロッ
ク図である。
FIG. 5 is a block diagram of a three-dimensional attribute information input unit according to a second embodiment.

【図6】第2の実施例の観測制御部の一構成を示すブロ
ック図である。
FIG. 6 is a block diagram showing a configuration of an observation control unit according to a second embodiment.

【図7】環境座標系と本装置のステレオカメラの座標系
を説明するための図である。
FIG. 7 is a diagram for explaining an environmental coordinate system and a coordinate system of a stereo camera of this apparatus.

【図8】外郭データ生成部の流れを示すフローチャート
である。
FIG. 8 is a flowchart showing a flow of an outer contour data generation unit.

【図9】外郭データ生成部の占有格子を説明するための
図である。
FIG. 9 is a diagram for explaining an occupied grid of an outer contour data generation unit.

【図10】外郭データ生成部のラベリングを説明するた
めの図である。
FIG. 10 is a diagram for explaining labeling of an outer contour data generation unit.

【図11】外郭データ生成部の外領域を説明するための
図である。
FIG. 11 is a diagram illustrating an outer region of an outer contour data generation unit.

【図12】外郭データ生成部の外郭の決定手法を説明す
るための図である。
FIG. 12 is a diagram for explaining a method of determining a contour of a contour data generation unit.

【図13】外郭データ生成部の立体占有格子を説明する
ための図である。
FIG. 13 is a diagram for explaining a three-dimensional occupied lattice of an outer contour data generation unit.

【図14】外郭データ生成部の画像のマッピングを説明
するための図である。
FIG. 14 is a diagram for explaining image mapping of an outer contour data generation unit.

【図15】観測位置方向算出部の処理の流れのフローチ
ャートである。
FIG. 15 is a flowchart of a processing flow of an observation position / direction calculation unit.

【図16】観測位置方向算出部の探索領域の設定手法を
説明するための図である。
FIG. 16 is a diagram for explaining a method of setting a search area of an observation position / direction calculation unit.

【図17】観測位置方向算出部の探索領域の設定手法を
説明するための図である。
FIG. 17 is a diagram for explaining a method of setting a search area of an observation position / direction calculation unit.

【図18】観測位置方向算出部の画像面への投影を説明
するための図である。
FIG. 18 is a diagram for explaining the projection onto the image plane of the observation position / direction calculation unit.

【図19】観測位置方向算出部の単純テクスチャー領域
との包含関係を説明するための図である。
FIG. 19 is a diagram for explaining the inclusion relation with the simple texture region of the observation position / direction calculation unit.

【符号の説明】[Explanation of symbols]

1…3次元属性情報入力部 2…環境モデル処理部 3…映像作成部 4…解析部 5…観測制御部 6…更新部 7…3次元環境データ記憶部 8…認識部 9…対象物データ設置部 10…対象物データ記憶部 11…環境モデル記憶部 110…奥行き算出部 111…座標変換部 112…外郭データ生成部 113…蓄積部 114…表面情報解析部 115…観測位置方向算出部 116…移動制御部 117…アクチュエータ 1 ... 3D attribute information input unit 2 ... Environment model processing unit 3 ... Image creation unit 4 ... Analysis unit 5 ... Observation control unit 6 ... Update unit 7 ... 3D environment data storage unit 8 ... Recognition unit 9 ... Target data installation Part 10 ... Object data storage unit 11 ... Environment model storage unit 110 ... Depth calculation unit 111 ... Coordinate conversion unit 112 ... Outer contour data generation unit 113 ... Accumulation unit 114 ... Surface information analysis unit 115 ... Observation position direction calculation unit 116 ... Move Controller 117 ... Actuator

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 15/00 7/00 H04N 7/18 K // G01B 11/24 Z (72)発明者 鈴木 薫 大阪府大阪市北区大淀中一丁目1番30号 梅田スカイビル タワーウエスト 株式会 社東芝関西支社内 (72)発明者 和田 隆 大阪府大阪市北区大淀中一丁目1番30号 梅田スカイビル タワーウエスト 株式会 社東芝関西支社内 (72)発明者 八木 稔 大阪府大阪市北区大淀中一丁目1番30号 梅田スカイビル タワーウエスト 株式会 社東芝関西支社内 (72)発明者 服部 寛 大阪府大阪市北区大淀中一丁目1番30号 梅田スカイビル タワーウエスト 株式会 社東芝関西支社内 (72)発明者 中村 達郎 大阪府大阪市北区大淀中一丁目1番30号 梅田スカイビル タワーウエスト 株式会 社東芝関西支社内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06T 15/00 7/00 H04N 7/18 K // G01B 11/24 Z (72) Inventor Suzuki Kaoru 1-30 Odaidanaka, Kita-ku, Osaka-shi, Osaka Umeda Sky Building Tower West Co., Ltd. Toshiba Kansai Branch (72) Inventor Takashi Wada 1-30-1 Oyodo-naka, Kita-ku, Osaka, Osaka Umeda Sky Building Tower West Co., Ltd. Toshiba Kansai Branch (72) Inventor Minoru Yagi Minoru 1-30, Oyodo Naka, Kita-ku, Osaka-shi, Osaka Umeda Sky Building Tower West Co., Ltd. Toshiba Kansai Branch (72) Inventor Hiroshi Hattori 1-30 Odaidanaka 1-chome, Kita-ku, Osaka City, Osaka Prefecture Umeda Sky Building Tower West Incorporated Toshiba Kansai Branch (72) Inventor Tatsuro Nakamura Osaka 1-30 Oyodo-naka, Kita-ku, Osaka City, Umeda Sky Building Tower West Stock Company Toshiba Kansai Branch Office

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】テレビカメラあるいは超音波の視覚センサ
等からの視覚情報を用いて、距離、形状及び表面属性等
の3次元属性情報を測定する3次元属性情報入力部と、 この3次元属性情報入力部より入力された3次元属性情
報と予め記憶された対象物データとから環境モデルを形
成する環境モデル処理部と、 この環境モデル処理部に記憶された環境モデルに基づき
環境の人工映像を作成する映像作成部と、 この映像作成部の人工映像作成結果と対応位置での視覚
情報を比較することにより環境モデル記述の検証を行な
う解析部と、 前記3次元属性情報入力部の入力制御を行なう観測制御
部とからなることを特徴とする環境モデル作成装置。
1. A three-dimensional attribute information input section for measuring three-dimensional attribute information such as distance, shape and surface attribute using visual information from a television camera or an ultrasonic visual sensor, and the three-dimensional attribute information. An environment model processing unit that forms an environment model from three-dimensional attribute information input from the input unit and object data stored in advance, and creates an artificial image of the environment based on the environment model stored in this environment model processing unit A video creating unit, an analysis unit for verifying the environment model description by comparing the artificial video creating result of the video creating unit with the visual information at the corresponding position, and the input control of the three-dimensional attribute information input unit. An environment model creating device comprising an observation control unit.
【請求項2】前記環境モデル処理部が、 環境内の対象物に関するデータを予め記憶しておく対象
物データ記憶部と、 この対象物データ記憶部に記憶されているデータと、前
記3次元属性情報入力部より得られた環境の形状及び表
面データとから、対象物データ記憶部に記憶されている
環境内の対象物を認識すると共に、その認識した対象物
の環境内位置を求める認識部と、 この認識部により求めた対象物の環境内位置に、前記3
次元属性情報入力部より得られた環境の形状及び表面デ
ータの代わりに前記認識部により認識した対象物データ
を置換える対象物データ設置部と、 この対象物データ設置部により置換えられた対象物デー
タを記憶する環境モデル記憶部とからなることを特徴と
する請求項1記載の環境モデル作成装置。
2. The environment model processing unit stores an object data storage unit that stores in advance data about an object in the environment, data stored in the object data storage unit, and the three-dimensional attribute. A recognition unit that recognizes an object in the environment stored in the object data storage unit from the shape and surface data of the environment obtained from the information input unit, and that determines the position of the recognized object in the environment. , At the position in the environment of the object obtained by this recognition unit,
An object data installation unit that replaces the object data recognized by the recognition unit instead of the shape and surface data of the environment obtained from the dimension attribute information input unit, and the object data replaced by this object data installation unit The environment model creating apparatus according to claim 1, further comprising: an environment model storage unit that stores
【請求項3】テレビカメラあるいは超音波の視覚センサ
等からの視覚情報を用いて、距離、形状及び表面属性等
の3次元属性情報を測定する3次元属性情報入力部と、 この3次元属性情報入力部より入力された3次元属性情
報を管理し環境モデルを形成する環境モデル処理部と、 この環境モデル処理部に記憶された環境モデルに基づき
環境の人工映像を作成する映像作成部と、 この映像作成部の人工映像作成結果と対応位置での視覚
情報を比較することにより環境モデル記述の検証を行な
う解析部と、 前記3次元属性情報入力部より入力された3次元属性情
報から対象空間の外郭データ及び非外郭データを識別
し、当外郭データから順に詳細な環境モデルを形成する
ように、前記3次元属性情報入力部の入力制御を行なう
観測制御部とからなることを特徴とする環境モデル作成
装置。
3. A three-dimensional attribute information input section for measuring three-dimensional attribute information such as distance, shape and surface attribute using visual information from a television camera or an ultrasonic visual sensor, and the three-dimensional attribute information. An environment model processing unit that manages the three-dimensional attribute information input from the input unit to form an environment model, an image creation unit that creates an artificial image of the environment based on the environment model stored in this environment model processing unit, An analysis unit that verifies the environment model description by comparing the artificial image creation result of the image creation unit with the visual information at the corresponding position, and the 3D attribute information input from the 3D attribute information input unit From the observation control unit that controls the input of the three-dimensional attribute information input unit so as to identify the contour data and the non-contour data and form a detailed environment model in order from the contour data. An environment model creating device characterized by:
【請求項4】前記3次元属性情報入力部が、 画像を入力するための画像入力手段と、 この画像入力手段により入力された画像を用いて奥行き
を獲得する奥行き算出部と、 この奥行き算出部により得られた奥行きデータを、予め
設定しておいた座標系における座標値に変換し、3次元
データを獲得する座標変換部とから構成されることを特
徴とする請求項3記載の環境モデル作成装置。
4. The three-dimensional attribute information input unit, an image input unit for inputting an image, a depth calculation unit for acquiring depth using the image input by the image input unit, and the depth calculation unit. 4. The environment model creation according to claim 3, further comprising: a coordinate conversion unit that converts the depth data obtained by the above into coordinate values in a preset coordinate system to obtain three-dimensional data. apparatus.
【請求項5】前記観測制御部が、 前記3次元属性情報入力部からのデータによって対象空
間の外郭データ、非外郭データ及び画像データを生成す
る外郭データ生成部と、 この外郭データ生成部より生成した外郭データ、非外郭
データ及び画像データを蓄積する蓄積部と、 この蓄積部に蓄積された画像データから表面情報を解析
する表面情報解析部と、 この表面情報解析部によって
解析された表面情報と、前記蓄積部に蓄積された外郭デ
ータ及び非外郭データから、観測する対象物の背景が単
純なものになるよう観測する位置及び方向を算出する観
測位置方向算出部とから構成されることを特徴とする請
求項3記載の環境モデル作成装置。
5. The observation control unit generates a contour data generation unit that generates contour data, non-contour data, and image data of the target space based on the data from the three-dimensional attribute information input unit, and a contour data generation unit that generates the contour data. The storage unit that stores the contour data, the non-contour data, and the image data, the surface information analysis unit that analyzes the surface information from the image data stored in the storage unit, and the surface information that is analyzed by the surface information analysis unit. And an observation position / direction calculation unit that calculates an observation position and direction from the contour data and non-contour data accumulated in the accumulation unit so that the background of the observed object is simple. The environment model creating device according to claim 3.
JP5292251A 1993-10-05 1993-11-22 Environmental model preparing device Pending JPH07146752A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP5292251A JPH07146752A (en) 1993-11-22 1993-11-22 Environmental model preparing device
US08/665,546 US5819016A (en) 1993-10-05 1996-06-18 Apparatus for modeling three dimensional information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5292251A JPH07146752A (en) 1993-11-22 1993-11-22 Environmental model preparing device

Publications (1)

Publication Number Publication Date
JPH07146752A true JPH07146752A (en) 1995-06-06

Family

ID=17779398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5292251A Pending JPH07146752A (en) 1993-10-05 1993-11-22 Environmental model preparing device

Country Status (1)

Country Link
JP (1) JPH07146752A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003533817A (en) * 2000-05-17 2003-11-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Apparatus and method for pointing a target by image processing without performing three-dimensional modeling
CN109084700A (en) * 2018-06-29 2018-12-25 上海摩软通讯技术有限公司 The three dimensional local information acquisition methods and system of article

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003533817A (en) * 2000-05-17 2003-11-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Apparatus and method for pointing a target by image processing without performing three-dimensional modeling
JP4768196B2 (en) * 2000-05-17 2011-09-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Apparatus and method for pointing a target by image processing without performing three-dimensional modeling
CN109084700A (en) * 2018-06-29 2018-12-25 上海摩软通讯技术有限公司 The three dimensional local information acquisition methods and system of article

Similar Documents

Publication Publication Date Title
US5819016A (en) Apparatus for modeling three dimensional information
CN109564690B (en) Estimating the size of an enclosed space using a multi-directional camera
JP6896077B2 (en) Vehicle automatic parking system and method
US5864632A (en) Map editing device for assisting updating of a three-dimensional digital map
CN109643465B (en) System, method, display device, and medium for creating mixed reality environment
CN105843223B (en) A kind of mobile robot three-dimensional based on space bag of words builds figure and barrier-avoiding method
Haala et al. 3D urban GIS from laser altimeter and 2D map data
Nuchter et al. Automatic model refinement for 3D reconstruction with mobile robots
CN111079565B (en) Construction method and identification method of view two-dimensional attitude template and positioning grabbing system
JP2011523110A (en) System and method for synchronizing a three-dimensional site model and a two-dimensional image in association with each other
JP4119529B2 (en) Virtual environment generation method and apparatus, and recording medium on which virtual environment generation program is recorded
JP2016217941A (en) Three-dimensional evaluation device, three-dimensional data measurement system and three-dimensional measurement method
JP2017198517A (en) Three dimensional map generation system
WO2017017790A1 (en) Image generation device, image generation system, and image generation method
JP4568845B2 (en) Change area recognition device
KR100757751B1 (en) Apparatus and method for creating a circumstance map of an indoor circumstance
WO2004023394A1 (en) Environmental reasoning using geometric data structure
Johnson et al. 3-D object modeling and recognition for telerobotic manipulation
JPH0854219A (en) Image processor
JP2003346185A (en) Information display system and personal digital assistant
JPH07146752A (en) Environmental model preparing device
JP3966419B2 (en) Change area recognition apparatus and change recognition system
JPH07152810A (en) Environment model creating device
Blaer et al. Two stage view planning for large-scale site modeling
ELzaiady et al. Next-best-view planning for environment exploration and 3D model construction