JPH11104984A - Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer - Google Patents

Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer

Info

Publication number
JPH11104984A
JPH11104984A JP27242097A JP27242097A JPH11104984A JP H11104984 A JPH11104984 A JP H11104984A JP 27242097 A JP27242097 A JP 27242097A JP 27242097 A JP27242097 A JP 27242097A JP H11104984 A JPH11104984 A JP H11104984A
Authority
JP
Japan
Prior art keywords
real
virtual
robot
information
virtual environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP27242097A
Other languages
Japanese (ja)
Inventor
Hirohisa Naito
宏久 内藤
Minoru Sekiguchi
実 関口
Hiroyuki Okabe
浩之 岡部
Nobuo Watabe
信雄 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP27242097A priority Critical patent/JPH11104984A/en
Publication of JPH11104984A publication Critical patent/JPH11104984A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To enable a user to pertinently and easily grasp the state of real environment by displaying a three dimensional image of the real environment in which the visual point, time, range, etc., which the user desires to see, are modelled. SOLUTION: A real robot 12 acts in a real environment 10 to be able to recognize an external environment by a sensor. A virtual environment model generating part 16 generates a three dimensional virtual environmental model 18 modelling the real environment 10. A simulator 24 simulates the sensor function which is equivalent to that of the real robot 12 in the virtual environmental model 18 to generate a virtual robot 20, and allows the virtual robot to act in synchronism with the real robot 12. A difference detecting device 26 compares sensor information on the virtual robot by the simulator 24 to sensor information on the real robot to detect a difference, and a virtual environmental model renewal part 28 renews (generates, corrects, eliminates) the virtual environmental model 18 so that the difference between the sensor information is eliminated. A monitor processing part 30 displays the virtual environmental model 18 of optional visual point and time to the user.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、実環境に配置した
実ロボットと仮想環境モデルに配置した仮想ロボットの
センサ情報の相違に応じてモデル上で物体の生成、修
正、削除を行って表示させる実環境情報表示装置及び実
環境情報表示処理を実行するプログラムを記録したコン
ピュータ読み取り可能な記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to generation, correction, and deletion of an object on a real robot arranged in a real environment and a virtual robot arranged in a virtual environment model in accordance with a difference in sensor information between the real robot and the virtual robot. The present invention relates to a real environment information display device and a computer readable recording medium storing a program for executing a real environment information display process.

【0002】[0002]

【従来の技術】近い将来、ロボットが職場や家庭に普及
するにつれ、実環境のように常に変化する環境に適応す
る技術は不可欠である。その中で、実環境の情報をいか
にしてユーザに知らせるかということも重要になってく
る。例えばセキュリティのために家庭やオフィスを遠隔
監視したい時、監視環境におけるあらゆる時間や場所の
情報が簡単に見られることは有用である。
2. Description of the Related Art In the near future, as robots spread to workplaces and homes, it is indispensable to have a technology that can adapt to a constantly changing environment such as a real environment. In this context, it is also important how to inform the user of the information of the real environment. For example, when it is desired to remotely monitor a home or office for security, it is useful to be able to easily view information at any time and place in a monitoring environment.

【0003】また留守番ロボットを使うことで、家やオ
フィスなどに忘れものをした時など、どの端末からでも
家の状況を確認でき、ロボットに仕事を依頼することが
できる。更に、核廃棄物処理場、深海、宇宙空間などの
極限作業空間で人間が入り込めないような環境の状況も
リアルタイムで監視することができる。更にまた、この
ような技術は、老齢化社会における家庭内お手伝いロボ
ットにも有効に利用することができる。
Also, by using an answering machine, the status of the house can be checked from any terminal, such as when the user forgets something at the house or office, and the robot can be requested to do work. In addition, it is possible to monitor in real time the status of an environment where humans cannot enter in extreme working spaces such as a nuclear waste disposal site, the deep sea, and outer space. Furthermore, such a technique can also be effectively used for a robot to help a home in an aging society.

【0004】現在の実環境の情報をユーザに提示する手
法としては、ITVカメラからの実際の画像もしくは平
面的な地図を提示する方法がある。また宇宙空間でのロ
ボットの遠隔装置のための装置として、シミュレーショ
ンで生成した模擬画像とITVカメラで撮影した実画像
とを比較し、2つの画像が一致するように模擬画像また
は実画像のいずれか一方を修正するようにした装置もあ
る(特開平3−55194号、同3−86484号)。
As a method of presenting information of the current real environment to a user, there is a method of presenting an actual image or a planar map from an ITV camera. Also, as a device for a remote device of a robot in outer space, a simulated image generated by simulation is compared with a real image taken by an ITV camera, and either the simulated image or the real image is matched so that the two images match. There is also an apparatus in which one of them is modified (JP-A-3-55194 and JP-A-3-86484).

【0005】[0005]

【発明が解決しようとする課題】しかしながら、ITV
カメラの画像を用いた実環境の表示にあっては、ITV
カメラで撮影できる範囲が限定されており、処理対象と
するオフィス、家、施設等の実環境の全体像を掴みにく
い。またITVカメラは、壁等の物理的に存在する物体
に隣接してしか設置することができず、実環境を構築す
る空間の任意の位置に自由に配置することはできず、壁
で仕切られた部屋の一部といったような極めて限られた
実環境しか表示できない。
However, the ITV
For displaying the real environment using camera images, use the ITV
The range that can be photographed by the camera is limited, and it is difficult to grasp the entire image of the real environment such as an office, a house, and a facility to be processed. In addition, ITV cameras can only be installed adjacent to physically existing objects such as walls, and cannot be freely arranged at any position in the space for constructing the real environment. Only a very limited real environment, such as a part of an empty room, can be displayed.

【0006】また平面的な地図は、実環境の全体像を掴
むには便利であるが、当然のことながら三次元的な情報
を表すことが難しく、モニタ表示を見た場合の状況の把
握が行いづらい。更に一度作成した地図を環境の変化と
ともにリアルタイムで更新していくことは困難であり、
レイアウト変更などのユーザ入力があって初めて修正す
ることができ、地図が最新の情報を表すことができな
い。
[0006] A planar map is convenient for grasping the whole image of the real environment, but it is naturally difficult to represent three-dimensional information, and it is difficult to grasp the situation when looking at the monitor display. Hard to do. Furthermore, it is difficult to update the map once created in real time as the environment changes,
It cannot be modified until there is a user input such as a layout change, and the map cannot represent the latest information.

【0007】一方、モニタ表示する映像をカメラ画像等
の実画像とした場合、ネットワークによるデータ転送の
負荷が大きく、実時間で送るのは難しい。このように、
時々刻々と変化する変化する実環境において、ユーザが
好きな時刻の好きな視点からの状況を簡単に見ることが
できるような自由度の高い実環境の表示装置は現在のと
ころ見られない。
On the other hand, when the video displayed on the monitor is a real image such as a camera image, the load of data transfer by the network is large, and it is difficult to transmit the video in real time. in this way,
At present, there is no real-world display device with a high degree of freedom that allows the user to easily see the situation from a desired viewpoint at a desired time in a changing real environment that changes every moment.

【0008】同様に、遠隔監視やリモート操作をするた
めの表示装置にあっても、ITVカメラの実画像を利用
したものものが主体であり、シミュレーションによる擬
似画像も利用しているが、表示する実環境はITVカメ
ラで撮影できる限定された空間であり、ユーザが好きな
時刻の好きな視点からの実環境の状況を簡単に見ること
ができる装置は見られない。
Similarly, a display device for remote monitoring and remote operation is mainly a device using an actual image of an ITV camera, and a pseudo image by simulation is also used. The real environment is a limited space that can be photographed by an ITV camera, and there is no device that allows the user to easily see the status of the real environment from any viewpoint at any time.

【0009】本発明は、このような従来の問題点に鑑み
てなされたもので、ユーザが見たい視点、時刻、範囲等
につきモデル化された実環境の三次元画像を表示して適
切且つ容易に実環境の状況を把握できるようにした実環
境情報表示装置及び実環境情報表示処理を実行するプロ
グラムを記録したコンピュータ読み取り可能な記録媒体
に関するを提供することを目的とする。
The present invention has been made in view of such conventional problems, and displays a three-dimensional image of a real environment modeled with respect to a viewpoint, a time, a range, and the like that a user wants to view, and appropriately and easily displays the three-dimensional image. It is another object of the present invention to provide a real environment information display device capable of grasping the status of a real environment and a computer readable recording medium storing a program for executing a real environment information display process.

【0010】[0010]

【課題を解決するための手段】図1は本発明の原理説明
図である。本発明の実環境表示装置は、図1(A)のよ
うに、実ロボット12、仮想環境モデル生成部16、シ
ミュレータ24、違い検出器26、仮想環境モデル更新
部28及びモニタ処理部30で構成される。実ロボット
12は、実環境10に配置されて行動し、センサにより
外界を認識できる。仮想環境モデル生成部は、実環境を
モデル化した仮想環境モデル18もしくは三次元のモデ
ル化された仮想環境モデル18を生成する。シミュレー
タ24は、仮想環境モデル18の中で実ロボット12と
同等のセンサ機能をシミュレーションすることにより仮
想ロボット20を生成し実ロボット12と同期して行動
させる。
FIG. 1 is a diagram illustrating the principle of the present invention. The real environment display device of the present invention includes a real robot 12, a virtual environment model generation unit 16, a simulator 24, a difference detector 26, a virtual environment model update unit 28, and a monitor processing unit 30, as shown in FIG. Is done. The real robot 12 is placed in the real environment 10 and behaves, and can recognize the outside world with a sensor. The virtual environment model generation unit generates a virtual environment model 18 that models a real environment or a virtual environment model 18 that is modeled in three dimensions. The simulator 24 generates a virtual robot 20 by simulating a sensor function equivalent to that of the real robot 12 in the virtual environment model 18 and causes the virtual robot 20 to act in synchronization with the real robot 12.

【0011】違い検出器26は、シミュレータ24によ
る仮想ロボット20のセンサ情報と実ロボット12のセ
ンサ情報とを比較して相違を検出する。仮想環境モデル
更新部28は、違い検出器26でセンサ情報の違いを検
出したときに、センサ情報の違いをなくすように仮想環
境モデル18を更新する。モニタ処理部30は、仮想環
境モデル18をユーザに出力表示する。
The difference detector 26 compares the sensor information of the virtual robot 20 by the simulator 24 with the sensor information of the real robot 12 to detect a difference. When the difference detector detects a difference in sensor information, the virtual environment model updating unit updates the virtual environment model so as to eliminate the difference in sensor information. The monitor processing unit 30 outputs and displays the virtual environment model 18 to the user.

【0012】実ロボット12は複数のセンサにより外界
を認識し、実ロボット12を実環境10に複数台配置す
ると共にシミュレータ24で複数台の仮想ロボット20
を生成し、各実ロボット10と同期して行動させること
ができる。仮想環境モデル更新部28は、センサ情報の
相違に基づき次の処理を行う。 センサ情報の相違から仮想空間に存在しない実空間の
物体を認識した場合、仮想空間に新たに対応する仮想物
体を生成する。
The real robot 12 recognizes the outside world by a plurality of sensors, arranges a plurality of the real robots 12 in the real environment 10, and uses the simulator 24 to
Can be generated and can be made to act in synchronization with each real robot 10. The virtual environment model updating unit 28 performs the following processing based on the difference in the sensor information. When an object in a real space that does not exist in the virtual space is recognized based on a difference in sensor information, a virtual object corresponding to the virtual space is newly generated.

【0013】センサ情報の相違から仮想空間に存在す
るが実空間に存在しない物体を認識した場合は、対応す
る仮想空間の仮想物体を削除する。 モニタ処理部30は、仮想環境モデル更新部28で更新
が行われる毎に、更新前の仮想環境モデル18の情報を
時系列的に保存する記憶装置36を有し、この記憶装置
36から任意の更新時刻の情報を取り出して表示させる
ことができる。
When an object that exists in the virtual space but does not exist in the real space is recognized from the difference in sensor information, the corresponding virtual object in the virtual space is deleted. The monitor processing unit 30 includes a storage device 36 that stores information of the virtual environment model 18 before updating in a time-series manner every time the virtual environment model updating unit 28 performs an update. Update time information can be extracted and displayed.

【0014】このように本発明の実環境表示装置によれ
ば、実環境10を動く実ロボット12と仮想環境モデル
18上で動く仮想ロボット20を連動させ、それぞれの
ロボット12,20から送られてくるセンサ情報に違い
が検出された場合、仮想環境を実環境10に等しくする
ように更新して、時々刻々変化する実環境10を仮想環
境モデル18に反映させ、これをモニタ表示する。その
ためユーザは、好きな時刻の好きな視点からの実環境の
状況を簡単に見ることができる。
As described above, according to the real environment display device of the present invention, the real robot 12 moving in the real environment 10 and the virtual robot 20 moving on the virtual environment model 18 are linked to each other and sent from the respective robots 12 and 20. If a difference is detected in the coming sensor information, the virtual environment is updated so as to be equal to the real environment 10, the real environment 10 that changes every moment is reflected on the virtual environment model 18, and this is displayed on the monitor. Therefore, the user can easily see the situation of the real environment at a desired time and from a desired viewpoint.

【0015】モニタ処理部30は、仮想環境モデル生成
部16で初期生成した仮想環境モデル18に対して、必
要に応じて可視情報以外のモデル情報、実ロボット12
の経路計画に基づく行動情報等を可視化して付け加える
ことができる。更に、本発明の実環境情報表示装置は、
実ロボット12、仮想環境モデル生成部16、シミュレ
ータ24、違い検出器26、仮想モデル更新部28、及
びモニタ処理部30を、コンピュータネットワーク上に
つながれた複数の計算機上に実装することもできる。
The monitor processing unit 30 applies model information other than visible information to the virtual environment model 18 initially generated by the virtual environment model
Behavior information and the like based on the route plan can be visualized and added. Furthermore, the real environment information display device of the present invention is:
The real robot 12, the virtual environment model generation unit 16, the simulator 24, the difference detector 26, the virtual model update unit 28, and the monitor processing unit 30 can be mounted on a plurality of computers connected on a computer network.

【0016】また本発明は、実環境情報表示処理を実行
するプログラムを記録したコンピュータ読み取り可能な
記録媒体を提供するもので、実環境をモデル化した仮想
環境モデルを生成する仮想環境モデル生成モジュール
と、実環境に配置されて行動しセンサにより外界を認識
できる実ロボットと同等のセンサ機能を仮想環境モデル
の中でシミュレーションすることにより仮想ロボットを
生成し前記実ロボットと同期して行動させるシミュレー
タモジュールと、シミュレータモジュールによる仮想ロ
ボットのセンサ情報と実ロボットのセンサ情報とを比較
して相違を検出する違い検出モジュールと、違い検出モ
ジュールでセンサ情報の違いを検出したときに、センサ
情報の違いをなくすように前記仮想環境モデルを更新す
る仮想環境モデル更新モジュールと、仮想環境モデルを
出力表示させるモニタ処理モジュールと、を備えたこと
を特徴とする。
Further, the present invention provides a computer-readable recording medium on which a program for executing a real environment information display process is recorded, and a virtual environment model generating module for generating a virtual environment model which models a real environment. A simulator module that generates a virtual robot by simulating in a virtual environment model a sensor function equivalent to a real robot that behaves in a real environment and that can recognize the outside world with a sensor and act in synchronization with the real robot. A difference detection module that detects the difference by comparing the sensor information of the virtual robot and the sensor information of the real robot by the simulator module, and eliminates the difference in the sensor information when the difference detection module detects the difference in the sensor information. Update the virtual environment model A module, characterized by comprising a monitor processing module to output display the virtual environment model, a.

【0017】[0017]

【発明の実施の形態】図2は本発明の実環境情報表示装
置の一実施形態のブロック図である。図2において、ま
ず本発明が表示対象とする実環境10には移動ロボット
12が配置されている。移動ロボット12は外界を認識
することのできる少なくとも1以上のセンサを備え、実
環境10の内部を自由に移動することができる。実環境
10に対しては仮想環境システム14が構築される。
FIG. 2 is a block diagram showing an embodiment of a real environment information display apparatus according to the present invention. In FIG. 2, a mobile robot 12 is disposed in a real environment 10 to be displayed by the present invention. The mobile robot 12 includes at least one or more sensors capable of recognizing the outside world, and can freely move inside the real environment 10. A virtual environment system 14 is constructed for the real environment 10.

【0018】仮想環境システム14は仮想環境モデル生
成部16、レイアウト情報格納部21、仮想環境データ
ベース22、シミュレータ24、違い検出器26、仮想
環境モデル更新部28、モニタ処理部30及び記憶装置
36を備える。モニタ処理部30に対してはモニタ32
が接続され、ユーザ34が仮想環境モデルを任意の視点
と時刻により見ることができるようにしている。
The virtual environment system 14 includes a virtual environment model generation unit 16, a layout information storage unit 21, a virtual environment database 22, a simulator 24, a difference detector 26, a virtual environment model update unit 28, a monitor processing unit 30, and a storage device 36. Prepare. The monitor 32 is connected to the monitor processing unit 30.
Is connected, so that the user 34 can view the virtual environment model from any viewpoint and time.

【0019】仮想環境モデル生成部16はレイアウト情
報格納部21に格納されたCAD等の三次元レイアウト
情報に基づき、実環境10に対応してモデル化した三次
元の仮想環境モデル18を生成する。シミュレータ24
は、仮想環境モデル18の中で実環境10の移動ロボッ
ト12と同等のセンサ機能をシミュレーションすること
により仮想ロボット20を生成し、移動ロボット12と
同期して行動させる。
The virtual environment model generation unit 16 generates a three-dimensional virtual environment model 18 modeled corresponding to the real environment 10 based on the three-dimensional layout information such as CAD stored in the layout information storage unit 21. Simulator 24
Generates a virtual robot 20 by simulating a sensor function equivalent to that of the mobile robot 12 in the real environment 10 in the virtual environment model 18, and causes the virtual robot 20 to act in synchronization with the mobile robot 12.

【0020】違い検出器26はシミュレータ24による
仮想ロボット20のセンサ情報と実環境10の移動ロボ
ット12のセンサ情報とを比較して、2つのセンサ情報
の相違を検出する。仮想環境モデル更新部28は違い検
出器26でセンサ情報の違いを検出したときに、このセ
ンサ情報の違いをなくすように仮想環境モデル18の中
のオブジェクトの生成・削除を行う。
The difference detector 26 compares the sensor information of the virtual robot 20 by the simulator 24 with the sensor information of the mobile robot 12 in the real environment 10 to detect a difference between the two sensor information. When the difference detector 26 detects a difference in sensor information, the virtual environment model update unit 28 generates and deletes an object in the virtual environment model 18 so as to eliminate the difference in sensor information.

【0021】更にモニタ処理部30は、ユーザ34が指
定した任意の視点と時刻に基づき、仮想環境18をモニ
タ32に表示する。またモニタ処理部30は、仮想環境
モデル更新部28により仮想環境モデル18の更新が行
われるごとに、更新前の仮想環境モデル18を逐次、記
憶装置36に記憶させている。このためユーザ34は、
任意の時刻を指定してそのときの仮想環境モデルをモニ
タ32で任意の視点から見ることができる。
Further, the monitor processing unit 30 displays the virtual environment 18 on the monitor 32 based on an arbitrary viewpoint and time designated by the user 34. The monitor processing unit 30 stores the virtual environment model 18 before the update in the storage device 36 sequentially each time the virtual environment model update unit 28 updates the virtual environment model 18. Therefore, the user 34
An arbitrary time can be designated and the virtual environment model at that time can be viewed on the monitor 32 from an arbitrary viewpoint.

【0022】図3は図2の実環境10に配置された移動
ロボット12のブロック図である。移動ロボット12
は、コントローラ37に対し複数種類のセンサを設けて
いる。この実施形態にあっては、レンジファインダ3
8、超音波センサ40、赤外線センサ42、接触センサ
44、ジャイロ45及びエンコーダ46を設けている。
レンジファインダ38は、走査型測距装置として知られ
ており、任意のオブジェクトを光学的に走査しながら距
離を測距することでオブジェクトの三次元情報を検出す
ることができる。超音波センサ46は超音波の伝播時間
からオブジェクトまでの距離を測定できる。
FIG. 3 is a block diagram of the mobile robot 12 arranged in the real environment 10 of FIG. Mobile robot 12
Has a plurality of types of sensors for the controller 37. In this embodiment, the range finder 3
8, an ultrasonic sensor 40, an infrared sensor 42, a contact sensor 44, a gyro 45, and an encoder 46 are provided.
The range finder 38 is known as a scanning type distance measuring device, and can detect three-dimensional information of an object by measuring a distance while optically scanning an arbitrary object. The ultrasonic sensor 46 can measure the distance from the ultrasonic wave propagation time to the object.

【0023】赤外線センサ42は人体等から放射される
熱線を検出できる。接触センサ44はオブジェクトに対
する物理的な接触を検出する。ジャイロ45は移動ロボ
ット12の移動方向を検出する。エンコーダ46は移動
ロボット12の走行距離を検出する。更にコントローラ
37に対しては、外部とのコマンド、データ等のやり取
りを行う通信インタフェース48が設けられる。
The infrared sensor 42 can detect a heat ray radiated from a human body or the like. The contact sensor 44 detects physical contact with the object. The gyro 45 detects the moving direction of the mobile robot 12. The encoder 46 detects the traveling distance of the mobile robot 12. Further, a communication interface 48 for exchanging commands, data, and the like with the outside is provided for the controller 37.

【0024】更に移動モータを駆動するためのモータ駆
動部50と、ロボットハンド等の適宜のアクチュエータ
を駆動するためのアクチュエータ駆動部52を設けてい
る。このような本発明の実環境10に配置する移動ロボ
ット12としては、例えばNO−MAD INC.で製
造されているロボットNO−MAD200等を用いるこ
とができる。
Further, a motor drive unit 50 for driving the moving motor and an actuator drive unit 52 for driving an appropriate actuator such as a robot hand are provided. As such a mobile robot 12 arranged in the real environment 10 of the present invention, for example, NO-MAD INC. Can be used.

【0025】図4は図2に示した本発明の実環境情報表
示装置を実現するためのプログラムモジュールの構成で
ある。図4において、仮想環境モデル18側には仮想環
境シミュレータモジュール24Aが設けられ、これに対
し仮想ロボットシミュレータモジュール20A、センサ
モジュールドライバモジュール24B及びモータドライ
バモジュール20Cを設けている。
FIG. 4 shows the configuration of a program module for realizing the real environment information display device of the present invention shown in FIG. In FIG. 4, a virtual environment simulator module 24A is provided on the virtual environment model 18 side, and a virtual robot simulator module 20A, a sensor module driver module 24B, and a motor driver module 20C are provided for the virtual environment simulator module 24A.

【0026】また仮想環境モデル18を構築するための
仮想環境データベース22Aが配置され、更に仮想環境
モデル18をモニタ表示するための3Dモニタ処理モジ
ュール30Aが配置される。このような仮想環境モデル
18側のプログラムモジュールに対し、実環境の移動ロ
ボット12に対応してロボットモジュール12Aが設け
られる。ロボットモジュール12Aに対応して、ロボッ
ト知識データベース60やロボット経路計画モジュール
62が設けられる。ロボットモジュール12Aと仮想環
境モデル18のセンサ情報の相違は、違い検出モジュー
ル28Aで検出されている。
A virtual environment database 22A for constructing the virtual environment model 18 is provided, and a 3D monitor processing module 30A for monitoring and displaying the virtual environment model 18 is provided. For such a program module on the virtual environment model 18 side, a robot module 12A is provided corresponding to the mobile robot 12 in the real environment. A robot knowledge database 60 and a robot path planning module 62 are provided corresponding to the robot module 12A. The difference between the sensor information of the robot module 12A and the sensor information of the virtual environment model 18 is detected by the difference detection module 28A.

【0027】またユーザからの指示は、ユーザコマンド
インタフェースモジュール56で与えることができる。
更にオブジェクト管理モジュール58が設けられ、仮想
環境モデル18で生成・削除するオブジェクトに関する
処理を行う。このようなプログラムモジュールは全て命
令受渡しモジュール54に接続されており、命令受渡し
モジュール54によって各プログラムモジュール間での
命令の受渡しを行って、図2のような実環境10の移動
ロボット12、仮想環境システム14、及びモニタ32
を備えた実環境情報表示装置を構築する。
An instruction from the user can be given by the user command interface module 56.
Further, an object management module 58 is provided, and performs processing relating to objects created / deleted in the virtual environment model 18. All of such program modules are connected to the command transfer module 54, and the command transfer module 54 transfers commands between the respective program modules, and as shown in FIG. System 14 and monitor 32
A real environment information display device equipped with

【0028】図5は図2に示した実環境情報表示装置に
おける全体的な処理動作のフローチャートである。本発
明の実環境情報表示装置の処理にあっては、まずステッ
プS1で表示対象とする施設、建物、部屋等の外界の内
の一部をモデル化した三次元の仮想環境モデルの生成処
理を行う。続いてステップS2に進み、実環境10の移
動ロボット12に対応したセンサ機能により仮想環境モ
デル18に仮想ロボットを生成し、移動ロボット12に
連動して仮想ロボット20を仮想環境モデル18の中で
移動し、移動ロボット12のセンサ機能と同じセンサ機
能を実現するシミュレーション処理を実行する。この仮
想ロボットのシミュレーション処理において、ステップ
S3で移動ロボット12のセンサ情報と仮想ロボット2
0のセンサ情報を比較している。
FIG. 5 is a flowchart of the overall processing operation in the real environment information display device shown in FIG. In the process of the real environment information display device of the present invention, first, in step S1, a process of generating a three-dimensional virtual environment model that models a part of the external world such as a facility, a building, or a room to be displayed is performed. Do. Subsequently, the process proceeds to step S2, where a virtual robot is generated in the virtual environment model 18 by the sensor function corresponding to the mobile robot 12 in the real environment 10, and the virtual robot 20 is moved in the virtual environment model 18 in conjunction with the mobile robot 12. Then, a simulation process for realizing the same sensor function as that of the mobile robot 12 is executed. In this virtual robot simulation process, in step S3, the sensor information of the mobile robot 12 and the virtual robot 2
0 sensor information is compared.

【0029】移動ロボット12と仮想ロボット20のセ
ンサ情報の違いをステップS4で検出すると、ステップ
S5に進み、センサ情報の違いをなくすように仮想環境
モデル18を修正して更新処理を行う。続いてステップ
S6でユーザ34より表示要求があるか否かチェック
し、表示要求があれば、ステップS7で、ユーザが指定
した任意の視点と時刻に基づき、仮想環境モデル18の
情報を読み出してモニタ32に表示させる。
When the difference between the sensor information of the mobile robot 12 and the sensor information of the virtual robot 20 is detected in step S4, the process proceeds to step S5, in which the virtual environment model 18 is modified and updated so as to eliminate the difference in sensor information. Subsequently, in step S6, it is checked whether or not there is a display request from the user 34. If there is a display request, in step S7, information of the virtual environment model 18 is read out and monitored based on an arbitrary viewpoint and time designated by the user. 32 is displayed.

【0030】続いてステップS8で装置に対する終了指
示の有無をチェックし、終了指示があるまでステップS
2からの処理を繰り返している。終了指示があれば、ス
テップS9で所定の終了処理を行った後に、一連の処理
を終了する。図6は図5のステップS1における三次元
の仮想環境モデルの生成処理の詳細である。図6(A)
は三次元CADを用いた仮想環境モデルの生成機能のブ
ロック図である。この三次元CADによる三次元仮想環
境モデルの構築は、ソリッドモジュレータ64、オブジ
ェクトモデラー66及びオブジェクトレイアウタ−68
で行われる。
Subsequently, in step S8, it is checked whether or not there is an end instruction to the apparatus.
The processing from step 2 is repeated. If there is an end instruction, a predetermined end process is performed in step S9, and then a series of processes is ended. FIG. 6 shows details of the processing for generating a three-dimensional virtual environment model in step S1 of FIG. FIG. 6 (A)
FIG. 3 is a block diagram of a function of generating a virtual environment model using three-dimensional CAD. The construction of the three-dimensional virtual environment model by the three-dimensional CAD is performed by the solid modulator 64, the object modeler 66, and the object layouter-68.
Done in

【0031】即ち、図6(B)の三次元仮想モデル生成
処理のように、ステップS1でソリッドモジュレータ6
4が実環境の三次元CAD情報に基づいてオブジェクト
の形状モジュリングを行う。続いてステップS2でオブ
ジェクトモデラー66がオブジェクトについて材質、重
量、重心等の属性を設定する。最終的にオブジェクトレ
イアウタ−68がステップS3でオブジェクトを配置
し、これによって三次元仮想モデル生成のための三次元
レイアウトファイルを作成することができる。
That is, as shown in the three-dimensional virtual model generation processing of FIG.
4 modulates the shape of the object based on the three-dimensional CAD information of the real environment. Subsequently, in step S2, the object modeler 66 sets attributes such as material, weight, and center of gravity of the object. Finally, the object layouter-68 arranges the objects in step S3, whereby a three-dimensional layout file for generating a three-dimensional virtual model can be created.

【0032】図7は図6の三次元仮想モデル作成処理の
具体例であり、図7(A)に示す表示対象とする実環境
のレイアウトを示す二次元レイアウト情報(平面図)7
0で与えられる三次元CAD情報によって、図7(B)
のような三次元の仮想環境モデル18を作成することが
できる。この仮想環境モデル18はオフィスのレイアウ
トを例にとっている。
FIG. 7 shows a specific example of the three-dimensional virtual model creation processing of FIG. 6, and two-dimensional layout information (plan view) 7 showing the layout of the real environment to be displayed shown in FIG.
According to the three-dimensional CAD information given by 0, FIG.
A three-dimensional virtual environment model 18 as shown in FIG. This virtual environment model 18 takes an office layout as an example.

【0033】図8は、図5のステップS2〜S5におけ
る仮想環境モデル内に配置した仮想ロボットを実空間の
移動ロボットに連動するシミュレーションで、両者のセ
ンサ情報の違いを検出して仮想環境モデルを修正する更
新処理の説明図である。図8において、いま実環境10
の廊下を移動ロボット12が走行しており、廊下に置か
れた障害物72にぶつかった状態を表している。これに
対し仮想環境モデル18にあっては、実環境10の移動
ロボット12に連動して仮想ロボット20が仮想環境モ
デル18内の仮想環境の廊下を走行しているが、実環境
10の障害物72に対応するオブジェクトは存在してい
ない。
FIG. 8 is a simulation in which the virtual robot arranged in the virtual environment model in steps S2 to S5 of FIG. 5 is linked to the mobile robot in the real space. It is explanatory drawing of the update process which corrects. In FIG. 8, the real environment 10
The mobile robot 12 is traveling in the corridor of, and has hit the obstacle 72 placed in the corridor. On the other hand, in the virtual environment model 18, the virtual robot 20 runs along the corridor of the virtual environment in the virtual environment model 18 in conjunction with the mobile robot 12 in the real environment 10, No object corresponding to 72 exists.

【0034】ここで仮想環境モデル18に配置した仮想
ロボット20は、実環境10の移動ロボット12と相対
的に同じ大きさ、形、動作性能をもっており、実環境1
0の移動ロボット12と同様に動き回ることができる。
また実環境10の移動ロボット12は、例えば図3に示
したようなレンジファインダ38、超音波センサ40、
赤外線センサ42等のセンサを備えているが、同様に仮
想環境モデル18の仮想ロボット20もレンジファイン
ダ、超音波センサ等の同じセンサ機能を備えている。
Here, the virtual robot 20 arranged in the virtual environment model 18 has the same size, shape, and operation performance as the mobile robot 12 in the real environment 10.
The mobile robot 12 can move around in the same manner as the 0 mobile robot 12.
The mobile robot 12 in the real environment 10 includes, for example, a range finder 38, an ultrasonic sensor 40, and the like as shown in FIG.
Although a sensor such as an infrared sensor 42 is provided, the virtual robot 20 of the virtual environment model 18 also has the same sensor functions such as a range finder and an ultrasonic sensor.

【0035】そして図2のシミュレータ24にあって
は、仮想ロボット20が実環境10の移動ロボット12
と同じように行動できるように物理現象をシミュレート
している。即ち、実環境10の移動ロボット12が壁等
の物体にぶつかって止まったり、各種のセンサによって
センサ情報の測定結果が得られたら、同様に仮想環境モ
デル18の仮想ロボット20も停止したりセンサ情報を
測定して送り返してくるようにする。
In the simulator 24 shown in FIG. 2, the virtual robot 20 is connected to the mobile robot 12 in the real environment 10.
It simulates physical phenomena so that you can act like. That is, when the mobile robot 12 in the real environment 10 hits an object such as a wall and stops, or when a measurement result of sensor information is obtained by various sensors, the virtual robot 20 of the virtual environment model 18 similarly stops or Measure and send back.

【0036】このような実環境10の実ロボット12と
同じように仮想環境モデル18内で仮想ロボット20が
行動できるようにするため、図7(B)のように三次元
CADにより仮想環境モデル18を作成した際に、仮想
環境モデル18内の物体には大きさ、形状に加え、重
さ、重心、材質、鏡面係数、反射率等の属性情報を付加
している。
In order to enable the virtual robot 20 to act in the virtual environment model 18 in the same manner as the real robot 12 in the real environment 10 as shown in FIG. Is created, attribute information such as weight, center of gravity, material, mirror coefficient, and reflectance is added to the object in the virtual environment model 18 in addition to the size and shape.

【0037】図8の左側のように、実環境10の移動ロ
ボット12と仮想環境モデル18内の仮想ロボット20
を連動させ、それぞれのロボット12,20から送られ
てくるセンサ情報を比較し、センサ情報の違いを検出し
た場合に仮想環境モデル18を実環境10に等しくする
ように仮想環境モデル18を修正する。例えば図8にあ
っては、実環境10で移動ロボット12が障害物72に
近づいており、これに連動して仮想環境モデル18の仮
想ロボット20も移動している。
As shown on the left side of FIG. 8, the mobile robot 12 in the real environment 10 and the virtual robot 20 in the virtual environment model 18
Are linked, the sensor information sent from each of the robots 12 and 20 is compared, and when a difference in the sensor information is detected, the virtual environment model 18 is corrected so that the virtual environment model 18 is made equal to the real environment 10. . For example, in FIG. 8, the mobile robot 12 is approaching the obstacle 72 in the real environment 10, and the virtual robot 20 of the virtual environment model 18 is also moving in conjunction therewith.

【0038】このロボット12,20の移動に伴い、そ
れぞれ複数種類のセンサ情報を返してきており、センサ
情報を比較すると、実環境10の移動ロボット12のセ
ンサ情報に障害物72に関する情報が含まれている。こ
れに対し仮想ロボット20からのセンサ情報には障害物
72に関する情報が含まれておらず、センサ情報の違い
が検出される。
As the robots 12 and 20 move, a plurality of types of sensor information are returned. When the sensor information is compared, the information on the obstacle 72 is included in the sensor information of the mobile robot 12 in the real environment 10. ing. On the other hand, the sensor information from the virtual robot 20 does not include information on the obstacle 72, and a difference in the sensor information is detected.

【0039】このようにセンサ情報の違いが検出される
と、実環境10に等しくするように仮想環境モデル18
を修正する。即ち、仮想環境モデル18の中に実環境1
0の障害物72に対応した仮想障害物72Aを生成する
ように仮想環境モデル18の修正更新を行う。この移動
ロボット12と仮想ロボット20のセンサ情報の違い検
出による仮想環境モデル18の修正更新は、仮想環境モ
デル18に対する新たなオブジェクトの追加と、仮想環
境モデル18からの不要となったオブジェクトの削除が
あり、それぞれ次のようにして行われる。
When the difference in the sensor information is detected as described above, the virtual environment model 18 is set to be equal to the real environment 10.
To correct. That is, the real environment 1 is included in the virtual environment model 18.
The virtual environment model 18 is corrected and updated so as to generate a virtual obstacle 72A corresponding to the 0 obstacle 72. The correction and update of the virtual environment model 18 by detecting the difference in sensor information between the mobile robot 12 and the virtual robot 20 include adding a new object to the virtual environment model 18 and deleting an unnecessary object from the virtual environment model 18. Yes, each is performed as follows.

【0040】オブジェクトの追加 仮想環境モデル18に存在する物体が実環境10に存在
しない場合は、検出した位置にある仮想環境モデル18
の物体の中心座標や半径等の情報により対応するオブジ
ェクトを仮想環境データベース22から検索し、検索し
た物体を仮想環境データベース22から削除する。
Addition of Object When the object existing in the virtual environment model 18 does not exist in the real environment 10, the virtual environment model 18
A corresponding object is searched from the virtual environment database 22 based on information such as the center coordinates and radius of the object, and the searched object is deleted from the virtual environment database 22.

【0041】物体の追加 仮想環境モデル18に存在しない物体が実環境10に存
在する場合は、検出した位置の物体の中心座標や半径等
から仮想環境モデル18に新しい物体を生成する。この
最初に仮想環境モデル18に生成する物体は基本形状を
もったプロトタイプであり、その後に物体をセンサによ
り調査することで更に細かな物体の情報を取得して、実
際の物体に近い情報を仮想環境モデル18に生成する。
Addition of Object When an object that does not exist in the virtual environment model 18 exists in the real environment 10, a new object is generated in the virtual environment model 18 from the center coordinates and radius of the object at the detected position. The object initially generated in the virtual environment model 18 is a prototype having a basic shape. Thereafter, the object is further investigated by a sensor to obtain more detailed information of the object, and information close to the actual object is obtained. Generated in the environment model 18.

【0042】ここで図2に示した仮想環境データベース
22とは、仮想環境モデル18に存在する物体の情報を
データベース化したもので、物体の大きさ、形状、位
置、属性等が記述されている。属性としては、重さ、重
心、材質、鏡面係数、反射率等がある。この仮想環境デ
ータベース22は、センサ情報として得られた大きさ、
形状等をキー情報として検索することで、対応する物体
を検索することができる。
Here, the virtual environment database 22 shown in FIG. 2 is a database of information on objects existing in the virtual environment model 18, and describes the size, shape, position, attributes, etc. of the objects. . Attributes include weight, center of gravity, material, mirror coefficient, reflectance, and the like. This virtual environment database 22 has a size obtained as sensor information,
By searching a shape or the like as key information, a corresponding object can be searched.

【0043】このような実環境10と仮想環境モデル1
8のセンサ情報の違いから仮想環境モデル18を修正更
新する処理は、移動ロボット12のセンサ能力に依存し
ており、図3に示したように複数種類のセンサを設け、
複数センサのセンサ情報を統合することによって、より
正確な物体情報に基づく生成が実現できる。また仮想環
境モデル18の違い検出に基づく修正は、基本的には実
環境10と仮想環境モデル18に違いが発見されたとき
に行うが、任意の一点における違いの差では正確さを欠
くため、予め定めた一定区間の移動ロボット12と仮想
ロボット20のセンサ情報の差を蓄積し、この差情報を
処理して適切な仮想環境モデル18の修正を行う。
Such a real environment 10 and a virtual environment model 1
The process of correcting and updating the virtual environment model 18 based on the difference in the sensor information of FIG. 8 depends on the sensor capability of the mobile robot 12, and a plurality of types of sensors are provided as shown in FIG.
By integrating sensor information of a plurality of sensors, generation based on more accurate object information can be realized. The correction based on the difference detection of the virtual environment model 18 is basically performed when a difference is found between the real environment 10 and the virtual environment model 18, but the difference between any one point is inaccurate. The difference between the sensor information of the mobile robot 12 and the sensor information of the virtual robot 20 in a predetermined fixed section is accumulated, and the difference information is processed to correct the virtual environment model 18 appropriately.

【0044】更に実環境10と仮想環境モデル18の違
いはそれぞれのロボット12,20によって発見される
ため、1台のロボットでは更新される情報の量が限ら
れ、全ての場所で常に最新の情報が得られることにはな
らない。そこで十分な数のロボットを準備することがで
きれば全ての場所で略リアルタイムで最新の情報が仮想
環境モデル18に反映でき、その結果、ユーザは常時、
全ての位置における最新の実環境の情報を得ることがで
きる。
Furthermore, since the difference between the real environment 10 and the virtual environment model 18 is discovered by the respective robots 12 and 20, the amount of information to be updated by one robot is limited, and the latest information is always available in all places. Is not obtained. Therefore, if a sufficient number of robots can be prepared, the latest information can be reflected in the virtual environment model 18 almost in real time in all places, so that the user can always
The latest information on the real environment at all positions can be obtained.

【0045】図9は図8のような移動ロボット12と仮
想ロボット20のセンサ情報の違い検出に基づく仮想環
境モデル18の更新処理のフローチャートである。まず
実環境10との相違を検出して仮想環境モデル18を修
正する更新処理のためには、実環境10内で移動ロボッ
ト12を移動させ、これに連動して仮想ロボット20を
仮想環境モデル18内で動かす必要がある。
FIG. 9 is a flowchart of a process of updating the virtual environment model 18 based on detection of a difference in sensor information between the mobile robot 12 and the virtual robot 20 as shown in FIG. First, for an update process of detecting a difference from the real environment 10 and correcting the virtual environment model 18, the mobile robot 12 is moved in the real environment 10, and the virtual robot 20 is moved in conjunction with the movement. Need to move within.

【0046】実環境10における移動ロボット12の動
きは、例えば図4に示したプログラムモジュール構成に
おけるロボット経路計画モジュール62により識別され
る計画経路を巡回させてもよいし、環境の変化の多いと
ころを予測してそこで重点的に回るように経路設定をし
てもよいし、更にユーザから与えられる移動命令に基づ
いて動いてもよい。
The movement of the mobile robot 12 in the real environment 10 may be performed, for example, on a planned route identified by the robot route planning module 62 in the program module configuration shown in FIG. A route may be set so as to make a prediction and turn around there, or may move based on a movement command given by the user.

【0047】このようにして実環境10で移動ロボット
12が行動すると、これに同期して仮想環境モデル18
上で仮想ロボット20も行動し、移動ロボット12のセ
ンサ情報と仮想ロボット20のセンサ情報を比較してい
る。このセンサ情報の比較により、図9のステップS1
で仮想環境モデル18と実環境10の違いが検出される
と、ステップS2に進み、実環境に存在するが仮想環境
に存在しない物体か否かチェックする。
When the mobile robot 12 behaves in the real environment 10 in this manner, the virtual environment model 18
The virtual robot 20 also acts on the above, and compares the sensor information of the mobile robot 12 with the sensor information of the virtual robot 20. By comparing the sensor information, step S1 in FIG.
When a difference between the virtual environment model 18 and the real environment 10 is detected, the process proceeds to step S2, and it is checked whether the object exists in the real environment but does not exist in the virtual environment.

【0048】もし実環境に存在するが仮想環境に存在し
ない物体であれば、ステップS3に進み、仮想環境に新
たに物体を追加する処理を指示する。この物体追加の指
示を受けて、ステップS4で、例えばセンサ情報の差分
から物体の形状を検出位置に生成する。具体的には、 (実環境のセンサ情報)−(仮想環境のセンサ情報)>
0 の場合は、 (物体情報)=(実環境のセンサ情報)−(仮想環境のセンサ情報) (1) を求め、この差分情報をそのまま物体情報としてオブジ
ェクトを生成して、仮想環境モデルの検出位置に配置す
る。
If the object exists in the real environment but does not exist in the virtual environment, the flow advances to step S3 to instruct a process of adding a new object to the virtual environment. In response to the instruction to add the object, in step S4, the shape of the object is generated at the detection position from, for example, the difference between the sensor information. Specifically, (Sensor information of real environment)-(Sensor information of virtual environment)>
In the case of 0, (object information) = (sensor information of real environment) − (sensor information of virtual environment) (1) is obtained, and an object is generated as object information using the difference information as it is to detect a virtual environment model. Place in position.

【0049】続いてステップS5で、各種のセンサ情報
によって物体の様々な属性が得られた場合には、その属
性情報を物体に付加し、新たに生成した物体情報と共に
仮想環境データベース22に配置する。一方、ステップ
S2で仮想環境に存在するが実環境に存在しない物体で
あった場合には、ステップS6で仮想環境からの物体の
削除を指示する。これに基づき、ステップS7で仮想環
境データベースから削除する物体を検索する。即ち、 (仮想環境のセンサ情報)−(実環境のセンサ情報)>
0 が成立するときは、 (差分情報)=(仮想環境のセンサ情報)−(実環境の
センサ情報) として仮想環境から削除する物体の大きさを想定し、更
にそのときのセンサ情報から得られる様々な属性情報も
加えて仮想環境データベース22を検索して、該当する
物体即ち削除対象とする物体を検索し、これをステップ
S8で仮想環境データベースから削除する。
Subsequently, in step S5, when various attributes of the object are obtained by the various sensor information, the attribute information is added to the object, and the attribute information is placed in the virtual environment database 22 together with the newly generated object information. . On the other hand, if the object exists in the virtual environment but does not exist in the real environment in step S2, an instruction to delete the object from the virtual environment is issued in step S6. Based on this, an object to be deleted is searched from the virtual environment database in step S7. That is, (sensor information of virtual environment) − (sensor information of real environment)>
When 0 is satisfied, the size of the object to be deleted from the virtual environment is assumed as (difference information) = (sensor information of virtual environment) − (sensor information of real environment), and further obtained from the sensor information at that time. The virtual environment database 22 is searched by adding various attribute information, and a corresponding object, that is, an object to be deleted is searched, and this is deleted from the virtual environment database in step S8.

【0050】図10は図9の仮想環境モデル更新処理に
おける具体的な様子であり、図10(A)のモニタ32
上に表示されたオフィスレイアウト情報である仮想環境
モデル18において、図10(B)の実環境10の中を
移動ロボット12が移動していたとすると、同じ実環境
10の視点で図10(A)の仮想環境モデル18を表示
すると、図10(C)のように実環境10に対応して仮
想環境モデル18の中を仮想ロボット20が移動してい
る様子を見ることができる。
FIG. 10 shows a specific state in the virtual environment model updating process of FIG.
In the virtual environment model 18, which is the office layout information displayed above, assuming that the mobile robot 12 is moving in the real environment 10 of FIG. 10B, FIG. When the virtual environment model 18 is displayed, it can be seen that the virtual robot 20 is moving in the virtual environment model 18 corresponding to the real environment 10 as shown in FIG.

【0051】この図10(B)(C)のような実環境1
0の移動ロボット12と仮想環境モデル18の仮想ロボ
ット20の連動した動きにより、図9のフローチャート
に示したように、仮想環境モデル18を実環境10に等
しくするように仮想環境を修正する更新処理が行われ、
これによって仮想環境モデル18は実環境10に近付い
てくる。
The real environment 1 as shown in FIGS.
The update processing for correcting the virtual environment so that the virtual environment model 18 is made equal to the real environment 10 as shown in the flowchart of FIG. 9 by the linked movement of the mobile robot 12 of the virtual environment model 0 and the virtual robot 20 of the virtual environment model 18. Is done,
As a result, the virtual environment model 18 comes closer to the real environment 10.

【0052】図11は図10の実環境10と仮想環境モ
デル18のロボット移動に伴う更新処理の繰り返しを模
式的に表している。即ち、実環境10と仮想環境モデル
18のそれぞれにおける移動ロボット12と仮想ロボッ
ト20の連動した動きにより、レンジファインダ、超音
波センサ、赤外線センサ、接触センサ、ジャイロ、エン
コーダのそれぞれからセンサ情報が得られ、それぞれの
差異が検出される。
FIG. 11 schematically shows the repetition of the updating process accompanying the robot movement of the real environment 10 and the virtual environment model 18 of FIG. That is, sensor information is obtained from each of the range finder, the ultrasonic sensor, the infrared sensor, the contact sensor, the gyro, and the encoder by the linked movement of the mobile robot 12 and the virtual robot 20 in the real environment 10 and the virtual environment model 18, respectively. , The respective differences are detected.

【0053】これらのセンサ情報の差異は情報統合さ
れ、オブジェクトの生成・削除・修正のため、物体情報
として提供される仮想環境データベースの参照を経て仮
想環境モデル18に反映される。この結果、実環境10
に仮想環境モデル18が時々刻々と近付いていくことに
なる。図12,図13は、図11のような仮想環境モデ
ルの更新処理によって、図12(A)の初期モデル18
Aから図12(B)のモデル18B、図12(C)のモ
デル18C、更に図13(D)のモデル18Dのように
変化して、実環境に近付いていく様子を表している。
These differences in sensor information are integrated and reflected in the virtual environment model 18 through reference to a virtual environment database provided as object information in order to generate, delete, and correct objects. As a result, the actual environment 10
The virtual environment model 18 is approaching moment by moment. FIGS. 12 and 13 show the initial model 18 of FIG. 12A by updating the virtual environment model as shown in FIG.
The state changes from A to the model 18B in FIG. 12B, the model 18C in FIG. 12C, and further to the model 18D in FIG. 13D to approach the real environment.

【0054】即ち図12(A)の初期モデル18Aにつ
いて、図12(B)のモデル18Bにあっては領域74
の相違が検出されてオブジェクトが付加され、更に図1
2(C)にあっては領域76について壁による環境の相
違が検出されて追加され、最終的に図13(D)のよう
に左側の区画について新たな仕切り壁の配置による実環
境と一致するための修正が行われている。
That is, with respect to the initial model 18A of FIG. 12A, in the model 18B of FIG.
Is detected and an object is added.
In the case of 2 (C), the difference in the environment due to the wall is detected and added to the area 76, and finally, the left side section matches the real environment due to the arrangement of the new partition wall as shown in FIG. 13 (D). Fixes have been made.

【0055】ここで図11のオブジェクト生成、削除、
修正のためのセンサ情報に基づくシミュレーションにあ
っては、センサ情報そのもののシミュレーションとオブ
ジェクト干渉チェックのためのシミュレーションがあ
る。まずセンサ情報のシミュレーションについては、図
14(A)のように移動ロボット12を円筒体と見做
し、例えば机を例にとったオブジェクト94を含有する
最小球96との交点の計算でオブジェクト94の座標中
心と大きさを認識する。次に図14(B)のようにオブ
ジェクト94を含有する最小直方体98を設定し、最小
直方体98の各面との交点を求めて詳しいオブジェクト
94に関する情報を生成する。
Here, the object generation, deletion,
Simulations based on sensor information for correction include simulation of sensor information itself and simulation for checking object interference. First, regarding the simulation of the sensor information, as shown in FIG. 14A, the mobile robot 12 is regarded as a cylindrical body, and for example, the object 94 is calculated by calculating the intersection with the minimum sphere 96 containing the object 94 taking a desk as an example. Recognize the coordinate center and size of. Next, as shown in FIG. 14B, a minimum rectangular parallelepiped 98 containing the object 94 is set, and an intersection with each surface of the minimum rectangular parallelepiped 98 is obtained to generate detailed information on the object 94.

【0056】図15は移動ロボット12とオブジェクト
の干渉チェックの処理である。この干渉チェックにあっ
ては、図15(A)のように移動ロボット12を円筒体
に近似し、オブジェクト94を含む最小球96を設定し
て、最小球96の座標中心とロボット12の円筒中心の
交点間距離Lの計算で干渉チェックの目安をつけた後、
図15(B)のようにオブジェクト94を含む最小直方
体98を設定し、最小直方体98の各面との交点を計算
して移動ロボット12に対する距離から干渉の有無をチ
ェックする。
FIG. 15 shows a process of checking for interference between the mobile robot 12 and the object. In this interference check, the mobile robot 12 is approximated to a cylinder as shown in FIG. 15 (A), a minimum sphere 96 including the object 94 is set, and the coordinate center of the minimum sphere 96 and the cylinder center of the robot 12 are set. After calculating the interference check by calculating the distance L between intersections,
As shown in FIG. 15B, a minimum rectangular parallelepiped 98 including the object 94 is set, an intersection with each surface of the minimum rectangular parallelepiped 98 is calculated, and the presence or absence of interference is checked from the distance to the mobile robot 12.

【0057】更に仮想環境モデル18を実環境10に近
付けるためのロボット移動に伴う更新処理にあっては、
ドアの開閉、人の移動等のオブジェクトシミュレーショ
ンや物体の衝突等の物理現象のダイナミックシミュレー
ション等がある。オブジェクトシミュレーションについ
ては、仮想環境データベースに登録している各オブジェ
クトに動作を記述しておく必要がある。
Further, in the updating process accompanying the movement of the robot to bring the virtual environment model 18 closer to the real environment 10,
There are object simulation such as opening / closing of a door and movement of a person, and dynamic simulation of a physical phenomenon such as collision of an object. For the object simulation, it is necessary to describe the operation for each object registered in the virtual environment database.

【0058】例えばドアであったならば、支点を軸とし
て回転するように動く等と記述しておく。ダイナミック
シミュレーションは、外から力が加わったときに動いた
りする量や変形する量をオブジェクトの属性モデルから
物理法則に乗っ取ってリアルタイムで計算する機能とし
て付加する。次に図2の仮想環境システム14に設けた
モニタ処理部30によるモニタ32上でのる仮想環境モ
デルの表示処理機能を説明する。図16はモニタ処理部
30に設けられた記憶装置36による仮想環境モデルの
情報記憶の説明図である。この実施形態にあっては、記
憶装置36には例えば図12の初期モデル18Aから図
13のモデル18Dのように、仮想環境モデル18の更
新が行われるごとに更新前の仮想環境モデルを時刻情報
と共に記憶装置36に記憶している。
For example, if the door is a door, it is described that the door moves about a fulcrum. The dynamic simulation is added as a function of calculating the amount of movement or deformation when an external force is applied from an attribute model of an object in real time by taking over physical laws. Next, the display processing function of the virtual environment model on the monitor 32 by the monitor processing unit 30 provided in the virtual environment system 14 of FIG. 2 will be described. FIG. 16 is an explanatory diagram of information storage of the virtual environment model by the storage device 36 provided in the monitor processing unit 30. In this embodiment, each time the virtual environment model 18 is updated, the storage device 36 stores the pre-update virtual environment model as time information, such as the initial model 18A in FIG. 12 to the model 18D in FIG. Together with the information stored in the storage device 36.

【0059】例えば記憶装置36には三次元仮想モデル
情報76−1,76−2,・・・76−nが時刻情報t
1,t2,・・・tnをインデックスとして記憶されて
いる。このためユーザ34は、モニタ処理部30に対し
見たい時刻の時刻情報Tiを指定することで記憶装置3
6の中から任意の指定時刻Tsに対応した仮想環境モデ
ル情報76−iを読み出し、モニタ32にそのとき指定
した任意の視点から見た実環境の情報として表示させる
ことができる。
For example, the storage device 36 stores the three-dimensional virtual model information 76-1, 76-2,.
1, t2,... Tn are stored as indices. For this reason, the user 34 designates the time information Ti of the desired time to the monitor processing unit 30 so that the storage device 3
6, the virtual environment model information 76-i corresponding to an arbitrary specified time Ts can be read out and displayed on the monitor 32 as information of the real environment viewed from an arbitrary viewpoint specified at that time.

【0060】即ち、任意の指定時刻Tsを設定すると、
指定時刻Tsと時刻情報t1〜tnとを比較し、例えば ti <Ts<ti+1 なら仮想環境モデル情報76−iを読み出して表示させ
る。これによってユーザ34は好きな時刻と視点の実環
境情報を必要に応じて常に見ることができる。このよう
な実環境情報の見方は、例えば本発明を盗難監視等のセ
キュリティシステムに適用していた場合、異常発生のロ
グ情報から異常発生時刻を知り、その時刻の仮想環境モ
デル情報を記憶装置36から読み出して表示させること
で、異常発生時の実環境の様子を後からチェックするこ
とができる。
That is, when an arbitrary designated time Ts is set,
The specified time Ts is compared with the time information t1 to tn. For example, if ti <Ts <ti + 1, the virtual environment model information 76-i is read and displayed. Thereby, the user 34 can always see the real environment information of a favorite time and a viewpoint as needed. For example, when the present invention is applied to a security system such as theft monitoring or the like, the real environment information is viewed from the log information of the occurrence of the abnormality to find the time of the occurrence of the abnormality, and the virtual environment model information at that time is stored in the storage device 36. By reading out and displaying the information, the state of the real environment at the time of occurrence of an abnormality can be checked later.

【0061】図17は図2のモニタ処理部30の他の実
施形態であり、この実施形態にあっては、基本的な三次
元の仮想環境モデルによる実環境の表示に加え、ユーザ
が実行するタスクに対応して分かりやすいような情報を
付加的に追加できるようにしたことを特徴とする。図1
7において、現在の仮想環境モデル18もしくは記憶装
置36に情報として記憶された仮想環境モデル18に対
し、モニタ基本部30−1はフィルタ−78によって仮
想環境モデルに1対1に対応した可視情報を生成してモ
ニタ32に表示する。このようなモニタ基本部30−1
に対し、この実施形態にあってはモニタ追加部30−2
とモニタ追加部30−3が設けられている。
FIG. 17 shows another embodiment of the monitor processing section 30 shown in FIG. 2. In this embodiment, in addition to the display of the real environment by the basic three-dimensional virtual environment model, the monitor is executed by the user. It is characterized in that information that is easy to understand can be additionally added corresponding to the task. FIG.
7, the monitor basic unit 30-1 filters the visible information corresponding to the virtual environment model on a one-to-one basis by the filter 78 with respect to the current virtual environment model 18 or the virtual environment model 18 stored as information in the storage device 36. Generated and displayed on monitor 32. Such a monitor basic unit 30-1
On the other hand, in this embodiment, the monitor adding unit 30-2
And a monitor addition unit 30-3.

【0062】モニタ追加部30−2はフィルタ80によ
って仮想環境モデル18内に配置しているオブジェクト
のもつ属性情報、例えば重さや重心を重視し、コンバー
タ82で重さや重心を示す数値情報を生成してモニタ3
2のオブジェクトに対応して表示している。モニタ追加
部30−3は、例えばロボット経路計画モジュール62
から行動情報84を取得し、フィルタ86によって経路
情報と参照するランドマークを抽出し、コンバータ88
で可視情報に変換してモニタ32上に表示している。
The monitor adding unit 30-2 generates attribute information of an object arranged in the virtual environment model 18 by using the filter 80, for example, weight and center of gravity, and generates numerical information indicating the weight and center of gravity by the converter 82. Monitor 3
2 is displayed in correspondence with the second object. The monitor adding unit 30-3 includes, for example, the robot path planning module 62
And the landmark to be referred to is extracted by the filter 86, and the converter 88
Is converted to visible information and displayed on the monitor 32.

【0063】図18は図16のモニタ基本部30−1、
モニタ追加部30−2,30−3による表示処理の具体
例である。まずモニタ基本部30−1は、そのときの仮
想環境モデル18を可視情報に変換してモニタ32上に
表示している。モニタ追加部30−2は、例えば仮想環
境モデル18内の机であるオブジェクト94について、
その属性情報95として重さと重心を抽出し、モニタ3
2の下側に拡大して示すオブジェクト94のように「重
さ10kg」と重心の位置表示を行っている。
FIG. 18 shows the monitor basic unit 30-1 of FIG.
It is a specific example of the display processing by the monitor addition units 30-2 and 30-3. First, the monitor basic unit 30-1 converts the virtual environment model 18 at that time into visible information and displays it on the monitor 32. The monitor adding unit 30-2 determines, for example, the object 94, which is a desk in the virtual environment model 18,
The weight and the center of gravity are extracted as the attribute information 95, and the monitor 3
2, the position of the center of gravity is displayed as “weight 10 kg” as in an object 94 shown enlarged below.

【0064】更にモニタ追加部30−3にあっては、ロ
ボット経路計画モジュール62から二次元情報として得
られたコード情報84について、その中に含まれる経路
情報90aとランドマーク情報92aを抽出して表示情
報に変換し、モニタ32の中に経路情報90とランドマ
ーク92を追加的に表示する。このように本発明で生成
している仮想環境モデル18は、コンピュータ上の電子
情報であるため、ユーザが必要とする任意の情報をユー
ザの必要に応じて任意に付加的に簡単に追加できる。
Further, the monitor adding unit 30-3 extracts the path information 90a and the landmark information 92a included in the code information 84 obtained as the two-dimensional information from the robot path planning module 62. The information is converted into display information, and the route information 90 and the landmark 92 are additionally displayed on the monitor 32. As described above, since the virtual environment model 18 generated by the present invention is electronic information on a computer, any information required by the user can be easily and arbitrarily added as needed by the user.

【0065】図19は本発明による実環境情報表示装置
の他の実施形態であり、図2に示した各部の処理機能を
コンピュータネットワーク上に繋がれた複数の計算機上
に実装したことを特徴とする。図19において、計算機
100Aにはレイアウト情報格納部21、仮想環境モデ
ル生成部16、仮想環境データベース22が配置され、
計算機100Bにはシミュレータ24が配置され、計算
機100Cには違い検出器96が配置され、仮想環境モ
デル更新部28には計算機100Dが配置され、計算機
100Eにはモニタ処理部30、モニタ32及び記憶装
置36が配置されたユーザ端末となり、更に実環境10
の移動ロボット12も独立した計算機装置として配置さ
れている。
FIG. 19 shows another embodiment of the real environment information display apparatus according to the present invention, wherein the processing functions of each unit shown in FIG. 2 are implemented on a plurality of computers connected on a computer network. I do. In FIG. 19, a layout information storage unit 21, a virtual environment model generation unit 16, and a virtual environment database 22 are arranged in a computer 100A.
A simulator 24 is arranged in the computer 100B, a difference detector 96 is arranged in the computer 100C, a computer 100D is arranged in the virtual environment model updating unit 28, and a monitor processing unit 30, a monitor 32 and a storage device are arranged in the computer 100E. 36 becomes the user terminal on which the real environment 10 is located.
Of mobile robots 12 are also arranged as independent computer devices.

【0066】これら計算機100A〜100E及び実環
境10の移動ロボット12はコンピュータネットワーク
102に繋がれており、コンピュータネットワーク10
2を経由したコマンドのやり取りで図2の装置構成と全
く同じ機能を実現できる。図20は図9のコンピュータ
ネットワーク102で複数の計算機100A〜100E
及び移動ロボット12を繋ぎ合わせた実施形態における
プログラム構成である。図20において、プログラムモ
ジュールそのものは図4と同じであるが、命令受渡しモ
ジュール54を中心として、この実施形態にあっては、
各モジュール及びデータベースを例えばソックス・イン
タフェース104によりネットワークを通じて接続して
いる。
The computers 100A to 100E and the mobile robot 12 in the real environment 10 are connected to a computer network 102,
2, the same functions as those of the apparatus configuration of FIG. 2 can be realized. FIG. 20 shows a plurality of computers 100A to 100E in the computer network 102 of FIG.
4 is a program configuration in an embodiment in which the mobile robot 12 and the mobile robot 12 are connected. In FIG. 20, the program module itself is the same as that of FIG. 4, except for the instruction passing module 54 in this embodiment,
Each module and database are connected through a network by, for example, a socks interface 104.

【0067】このようなネットワークを用いた本発明の
実環境情報表示装置によれば、実環境情報表示装置を構
築する図20のプログラムモジュール及びデータベース
を複数のマシンに分散させ且つネットワークで繋げるこ
とで、遠隔地からロボットを動かしたり遠隔地で更新さ
れていく仮想環境モデルに基づく実環境の監視ができ
る。
According to the real environment information display device of the present invention using such a network, the program modules and the database shown in FIG. 20 for constructing the real environment information display device are distributed to a plurality of machines and connected to the network. In addition, a real environment can be monitored based on a virtual environment model that moves a robot from a remote location or is updated at a remote location.

【0068】より具体的には、図20のプログラム構成
と例えばソックス・インタフェース104を使用したネ
ットワークを通じて様々なプラットフォームを用いた情
報を見るための言語例えばJAVAやVRMLを利用し
た仕組みによって実現することができる。特にJAVA
やVRMLのようなマルチプラットフォームをサポート
する言語を用いて記述することにより、プラットフォー
ムに依存せずにどのマシンからも走査することができ、
例えば外出先等からの遠隔操作で実環境情報を操作する
ことも可能となる。
More specifically, it can be realized by a program configuration shown in FIG. 20 and a mechanism using, for example, JAVA or VRML for viewing information using various platforms through a network using the socks interface 104. it can. Especially JAVA
By using a language that supports multi-platforms such as and, it can be scanned from any machine independent of the platform,
For example, it is possible to operate the real environment information by remote control from a place where the user is away from home.

【0069】更に詳細に説明すると、ネットワークを通
じてJAVAやVRMLといったマルチプラットフォー
ムの言語を用いて本発明の実環境情報表示装置を構築し
た場合には、CADの分野で用いられているフォーマッ
ト例えばGXFやIGESというフォーマットをモデリ
ングを行い、次に物体に属性をつけることで本発明の仮
想環境モデルに特有のフォーマットを構築する。このフ
ォーマットについて、更にマルチプラットフォームに対
応している言語例えばVRMLに変換し、このデータを
基に本発明のシミュレータによるシミュレーションを行
えばよい。図21は、本発明の実環境情報表示処理を実
行するプログラムを記録したコンピュータ読み取り可能
な記録媒体の実施形態であり、この記録媒体には、CD
−ROMやフロッピーディスク等のリムーバブルな可搬
型記憶媒体、回線によりプログラムを提供するプログラ
ム提供者の記憶装置、更にプログラムをインストールし
た処理装置のRAMやハードディスク等のメモリ装置が
ある。また記録媒体によって提供されたプログラムは、
処理装置にローディングされ、その主メモリ上で実行さ
れる。
More specifically, when the real environment information display device of the present invention is constructed using a multi-platform language such as JAVA or VRML through a network, the format used in the field of CAD, for example, GXF or IGES Is modeled, and then an attribute is attached to the object to construct a format specific to the virtual environment model of the present invention. This format may be further converted into a language compatible with multi-platforms, for example, VRML, and simulation may be performed by the simulator of the present invention based on this data. FIG. 21 is an embodiment of a computer-readable recording medium on which a program for executing the real environment information display processing of the present invention is recorded.
A removable portable storage medium such as a ROM or a floppy disk, a storage device of a program provider that provides a program via a line, and a memory device such as a RAM or a hard disk of a processing device in which the program is installed. Also, the program provided by the recording medium,
It is loaded into the processing unit and executed on its main memory.

【0070】[0070]

【発明の効果】以上説明してきたように本発明によれ
ば、ロボット移動に伴う実環境の変化を三次元モデルと
して作られた仮想環境モデルに反映してモニタさせるこ
とで、ユーザが見たい視点における見たい範囲の実環境
の状況を表示し、ユーザの要求に応じた最適な実環境の
三次元画像表示ができる。また実環境の変化に対応して
自動的にリアルタイムで結果を三次元の仮想環境モデル
に反映することで、ユーザは常に最新の実環境の情報を
見ることができる。
As described above, according to the present invention, the change of the real environment due to the movement of the robot is reflected in the virtual environment model created as a three-dimensional model and monitored, so that the viewpoint desired by the user can be seen. In this case, the user can display the actual environment situation in a desired range, and can display an optimal three-dimensional image of the actual environment according to the user's request. Also, by automatically reflecting the result in a three-dimensional virtual environment model in real time in response to a change in the real environment, the user can always see the latest information of the real environment.

【0071】更に仮想環境モデルを用いることで、IT
Vカメラ等では見ることのできない状況の把握に必要な
付加的な情報、例えばロボット経路情報、ランドマーク
等を可視化して情報として付け加えることができ、これ
によりモニタを見た場合の実環境の認識をより適切且つ
迅速に行うことができる。更にモニタ対象とする三次元
仮想モデルのファイル情報はデジタル情報であることか
ら、検索や編集等の処理が容易であり、例えば三次元情
報を二次元情報に変換することで状況の変化を直観的に
捉えることができる。
Further, by using a virtual environment model, IT
Additional information necessary for grasping a situation that cannot be seen with a V-camera or the like, such as robot path information and landmarks, can be visualized and added as information, thereby recognizing the real environment when viewing the monitor. Can be performed more appropriately and quickly. Further, since the file information of the three-dimensional virtual model to be monitored is digital information, it is easy to perform processing such as searching and editing. For example, by converting three-dimensional information into two-dimensional information, it is possible to intuitively change the situation. Can be caught.

【0072】また実環境の変化に伴って更新されていく
三次元の仮想環境モデルの情報を更新ごとに記憶保持し
ておくことで、ユーザはリアルタイムに加え、任意の時
刻を指定した過去の実環境の情報を容易に見ることがで
きる。更に、装置構成をネットワーク化して複数の計算
機に分散配置して実現することで計算機1台当たりの負
荷を低減でき、更に遠隔地からネットワークを経由して
実環境の様子を容易に把握し、必要な操作を行うことが
できる。
Further, by storing information of a three-dimensional virtual environment model that is updated in accordance with a change in the real environment for each update, the user can specify not only the real time but also the past real time at an arbitrary time. You can easily see environmental information. Furthermore, the load on each computer can be reduced by realizing the device configuration by networking and distributing and distributing it to multiple computers. Furthermore, it is possible to easily grasp the state of the real environment via a network from a remote location, and Operations can be performed.

【0073】更に、ネットワークを通じて操作する場
合、三次元の仮想環境モデルの中で変化した情報のみを
送ればよいことから、ネットワークに対する負荷も減少
させることができる。
Further, when operating through a network, only the information that has changed in the three-dimensional virtual environment model needs to be sent, so that the load on the network can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理説明図FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】本発明の実施形態のブロック図FIG. 2 is a block diagram of an embodiment of the present invention.

【図3】本発明で使用する移動ロボットのブロック図FIG. 3 is a block diagram of a mobile robot used in the present invention.

【図4】図2の装置機能を実現するプログラム構成の説
明図
FIG. 4 is an explanatory diagram of a program configuration for realizing the device functions of FIG.

【図5】図2の実環境表示処理のフローチャートFIG. 5 is a flowchart of a real environment display process of FIG. 2;

【図6】本発明の三次元仮想モデル生成処理の説明図FIG. 6 is an explanatory diagram of a three-dimensional virtual model generation process of the present invention.

【図7】CADを利用した図5の三次元モデル生成処理
の具体的な説明図
FIG. 7 is a specific explanatory diagram of the three-dimensional model generation processing of FIG. 5 using CAD.

【図8】本発明のロボット行動に伴う仮想環境モデルを
更新する処理の説明図
FIG. 8 is an explanatory diagram of a process of updating a virtual environment model accompanying a robot action according to the present invention.

【図9】本発明の仮想環境モデル更新処理のフローチャ
ート
FIG. 9 is a flowchart of a virtual environment model update process according to the present invention.

【図10】モニタで見る本発明の仮想環境と実環境の説
明図
FIG. 10 is an explanatory diagram of a virtual environment and a real environment of the present invention viewed on a monitor.

【図11】図9の仮想環境モデル更新処理を模式的に示
した説明図
FIG. 11 is an explanatory diagram schematically showing the virtual environment model updating process of FIG. 9;

【図12】仮想環境モデル更新処理に伴う仮想環境の変
化を示した説明図
FIG. 12 is an explanatory diagram showing a change in a virtual environment due to a virtual environment model update process.

【図13】仮想環境モデル更新処理に伴う仮想環境の変
化を示した説明図(続き)
FIG. 13 is an explanatory diagram showing a change in the virtual environment due to the virtual environment model update process (continued)

【図14】センサ情報に基づいてオブジェクトを認識す
る本発明のシミュレーションの説明図
FIG. 14 is an explanatory diagram of a simulation of the present invention for recognizing an object based on sensor information.

【図15】ロボットとオブジェクトの干渉をチェックす
る本発明のシミュレーションの説明図
FIG. 15 is an explanatory diagram of a simulation of the present invention for checking interference between a robot and an object.

【図16】本発明のモニタ処理における仮想環境モデル
の記憶処理の説明図
FIG. 16 is an explanatory diagram of storage processing of a virtual environment model in the monitor processing of the present invention.

【図17】本発明のモニタ処理における付加機能の表示
処理の説明図
FIG. 17 is an explanatory diagram of a display process of an additional function in the monitor process of the present invention.

【図18】本発明のモニタ処理におけるオブジェクト属
性、ランドマーク、経路情報の付加情報表示処理の説明
FIG. 18 is an explanatory diagram of additional information display processing of object attributes, landmarks, and route information in the monitor processing of the present invention.

【図19】ネットワーク経由で構築した本発明の他の実
施形態のブロック図
FIG. 19 is a block diagram of another embodiment of the present invention constructed via a network.

【図20】ネットワーク経由で構築した図19の装置機
能を実現するプログラム構成の説明図
FIG. 20 is an explanatory diagram of a program configuration for realizing the device functions of FIG. 19 constructed via a network.

【図21】本発明の実環境情報表示処理を実行するプロ
グラムを記録したコンピュータ読み取り可能な記録媒体
の実施形態の説明図
FIG. 21 is an illustration of an embodiment of a computer-readable recording medium on which a program for executing the real environment information display processing of the present invention is recorded.

【符号の説明】[Explanation of symbols]

10:実環境 12:移動ロボット(実ロボット) 14:仮想環境システム 16:仮想環境モデル生成部 18:仮想環境モデル 20:仮想ロボット 20A:仮想ロボットシミュレータモジュール 20B:センサドライバモジュール 20C:モータドライバモジュール 21:レイアウト情報格納部 22:仮想環境データベース 24:シミュレータ 24A:仮想環境シミュレータモジュール 26:違い検出器 26A:違い検出モジュール 28:仮想環境モデル更新部 30:モニタ処理部 30−1:モニタ基本部 30−2,3:モニタ追加部 30A:モニタ処理モジュール 32:モニタ 34:ユーザ 36:記憶装置 37:コントローラ 38:レンジファインダ(走査型測距装置) 40:超音波センサ 42:赤外線センサ 44:接触センサ 45:ジャイロ(方位センサ) 46:エンコーダ(距離センサ) 48:通信インタフェース 50:移動モータ駆動部 52:アクチュエータ駆動部 54:命令受渡しモジュール 56:ユーザコマンドインタフェースモジュール 58:オブジェクト管理モジュール 60:ロボット知識データベース 62:ロボット径路計画モジュール 64:ソリッドモデルモジュレータ 66:オブジェクトモデラー 68:オブジェクトレイアウター 70:二次元レイアウト情報(図面情報) 72:障害物 72A:仮想障害物 76−1〜76−n:三次元仮想モデル情報 80,86:フィルター 82,88:コンバータ 84:行動情報 90:径路情報 92:ランドマーク 94:オブジェクト(机) 95:属性情報 96:最小球 98:最小直方体 100A〜100D:計算機 102:コンピュータネットワーク 104:ソックス・インタフェース 10: Real environment 12: Mobile robot (real robot) 14: Virtual environment system 16: Virtual environment model generator 18: Virtual environment model 20: Virtual robot 20A: Virtual robot simulator module 20B: Sensor driver module 20C: Motor driver module 21 : Layout information storage unit 22: virtual environment database 24: simulator 24 A: virtual environment simulator module 26: difference detector 26 A: difference detection module 28: virtual environment model update unit 30: monitor processing unit 30-1: monitor basic unit 30- 2, 3: monitor adding unit 30A: monitor processing module 32: monitor 34: user 36: storage device 37: controller 38: range finder (scanning distance measuring device) 40: ultrasonic sensor 42: infrared sensor 44: contact Sensor 45: Gyro (azimuth sensor) 46: Encoder (distance sensor) 48: Communication interface 50: Moving motor drive unit 52: Actuator drive unit 54: Command transfer module 56: User command interface module 58: Object management module 60: Robot knowledge Database 62: Robot path planning module 64: Solid model modulator 66: Object modeler 68: Object layouter 70: Two-dimensional layout information (drawing information) 72: Obstacle 72A: Virtual obstacle 76-1 to 76-n: Three-dimensional Virtual model information 80, 86: Filter 82, 88: Converter 84: Behavior information 90: Route information 92: Landmark 94: Object (desk) 95: Attribute information 96: Minimum sphere 98: Minimum rectangular Body 100A to 100D: Computer 102: Computer Network 104: Socks Interface

───────────────────────────────────────────────────── フロントページの続き (72)発明者 岡部 浩之 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内 (72)発明者 渡部 信雄 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Hiroyuki Okabe 4-1-1, Kamiodanaka, Nakahara-ku, Kawasaki-shi, Kanagawa Prefecture Inside Fujitsu Limited (72) Inventor Nobuo Watanabe 4-1-1, Kamiodanaka, Nakahara-ku, Kawasaki-shi, Kanagawa No. 1 Inside Fujitsu Limited

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】実環境に配置されて行動し、センサにより
外界を認識できる実ロボットと、 前記実環境をモデル化した仮想環境モデルを生成する仮
想環境モデル生成部と、 前記仮想環境モデルの中で前
記実ロボットと同等のセンサ機能をシミュレーションす
ることにより仮想ロボットを生成し前記実ロボットと同
期して行動させるシミュレータと、 前記シミュレータによる前記仮想ロボットのセンサ情報
と前記実ロボットのセンサ情報とを比較して相違を検出
する違い検出器と、 前記違い検出器でセンサ情報の違いを検出したときに、
該センサ情報の違いをなくすように前記仮想環境モデル
を更新する仮想環境モデル更新部と、 前記仮想環境モデルを表示させるモニタ部と、を備えた
ことを特徴とする実環境情報表示装置。
1. A real robot arranged and acting in a real environment and capable of recognizing the outside world with a sensor, a virtual environment model generating unit for generating a virtual environment model that models the real environment, A simulator that generates a virtual robot by simulating a sensor function equivalent to that of the real robot and acts in synchronization with the real robot, and compares sensor information of the virtual robot and sensor information of the real robot by the simulator. And a difference detector for detecting a difference, and when the difference detector detects a difference in sensor information,
A real environment information display device comprising: a virtual environment model update unit that updates the virtual environment model so as to eliminate the difference in the sensor information; and a monitor unit that displays the virtual environment model.
【請求項2】請求項1記載の実環境情報表示装置に於い
て、前記実ロボットは複数のセンサにより外界を認識
し、前記実ロボットを実環境に複数台配置すると共に前
記シミュレータで複数台の仮想ロボットを生成して各実
ロボットと同期して行動させることを特徴とする実環境
情報表示装置。
2. The real environment information display device according to claim 1, wherein the real robot recognizes the outside world by a plurality of sensors, arranges the plurality of real robots in the real environment, and sets a plurality of the real robots by the simulator. A real environment information display device characterized in that virtual robots are generated and act in synchronization with each real robot.
【請求項3】請求項1記載の実環境情報表示装置に於い
て、前記仮想環境モデル更新部は、 センサ情報の相違から仮想空間に存在しない実空間の物
体を認識した場合、仮想空間に新たに対応する仮想物体
を生成し、 センサ情報の相違から仮想空間に存在するが実空間に存
在しない物体を認識した場合、対応する仮想空間の仮想
物体を削除することを特徴とする実環境情報表示装置。
3. The real environment information display device according to claim 1, wherein the virtual environment model updating unit newly adds the virtual space to the virtual space when recognizing an object in the real space that does not exist in the virtual space due to a difference in sensor information. A virtual object corresponding to the virtual environment, and when an object existing in the virtual space but not in the real space is recognized based on a difference in sensor information, the virtual object in the corresponding virtual space is deleted. apparatus.
【請求項4】請求項1記載の実環境情報表示装置に於い
て、前記モニタ処理部は、前記仮想環境モデル更新部で
更新する毎に、更新前の仮想環境モデルの情報を時系列
的に保存する記憶装置を有し、該記憶装置から任意の更
新時刻の情報を取り出して表示させることを特徴とする
実環境情報表示装置。
4. The real environment information display device according to claim 1, wherein the monitor processing unit chronologically updates the information of the virtual environment model before the update every time the virtual environment model updating unit updates the virtual environment model. A real environment information display device having a storage device for storing, and extracting information of an arbitrary update time from the storage device and displaying the information.
【請求項5】請求項1記載の実環境情報表示装置に於い
て、前記モニタ処理部は、前記仮想環境モデル生成部で
初期生成した仮想環境モデルに対して、必要に応じて可
視情報以外のモデル情報、前記実ロボットの経路計画に
基づく行動情報等を可視化して付け加えることを特徴と
する実環境情報表示装置。
5. The real environment information display device according to claim 1, wherein the monitor processing unit performs processing on the virtual environment model initially generated by the virtual environment model generation unit, except for visible information, as necessary. A real environment information display device for visualizing and adding model information, action information based on a path plan of the real robot, and the like.
【請求項6】前記実環境をモデル化した仮想環境モデル
を生成する仮想環境モデル生成モジュールと、 実環境に配置されて行動しセンサにより外界を認識でき
る実ロボットと同等のセンサ機能を前記仮想環境モデル
の中でシミュレーションすることにより仮想ロボットを
生成し前記実ロボットと同期して行動させるシミュレー
タモジュールと、 前記シミュレータモジュールによる前記仮想ロボットの
センサ情報と前記実ロボットのセンサ情報とを比較して
相違を検出する違い検出モジュールと、 前記違い検出モジュールでセンサ情報の違いを検出した
ときに、該センサ情報の違いをなくすように前記仮想環
境モデルを更新する仮想環境モデル更新モジュールと、 前記仮想環境モデルを表示させるモニタ処理モジュール
と、を備えたことを特徴とする実環境情報表示処理を実
行するプログラムを記録したコンピュータ読み取り可能
な記録媒体。
6. A virtual environment model generation module for generating a virtual environment model that models the real environment, and a sensor function equivalent to that of a real robot that is placed in the real environment and acts and can recognize the outside world with a sensor. A simulator module that generates a virtual robot by simulating in a model and acts in synchronization with the real robot, and compares the sensor information of the virtual robot and the sensor information of the real robot by the simulator module to determine differences. A difference detection module for detecting, a difference between the sensor information detected by the difference detection module, a virtual environment model update module that updates the virtual environment model so as to eliminate the difference in the sensor information, and the virtual environment model And a monitor processing module for displaying. A computer-readable storage medium storing a program for executing a real environment information display process.
JP27242097A 1997-10-06 1997-10-06 Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer Pending JPH11104984A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27242097A JPH11104984A (en) 1997-10-06 1997-10-06 Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27242097A JPH11104984A (en) 1997-10-06 1997-10-06 Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer

Publications (1)

Publication Number Publication Date
JPH11104984A true JPH11104984A (en) 1999-04-20

Family

ID=17513670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27242097A Pending JPH11104984A (en) 1997-10-06 1997-10-06 Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer

Country Status (1)

Country Link
JP (1) JPH11104984A (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067125A (en) * 1999-08-27 2001-03-16 Fujitsu Ltd Method and device for constructing real world information database and method for learning autonomous mobile traveling body
JP2002144266A (en) * 2000-11-06 2002-05-21 Toshiba Corp Working system
JP2003051021A (en) * 2001-08-03 2003-02-21 Mitsubishi Electric Corp Information updating device, information acquisition device and information update processing device
JP2004171165A (en) * 2002-11-19 2004-06-17 Honda Motor Co Ltd Moving apparatus
JP2004240940A (en) * 2003-02-07 2004-08-26 Samsung Kwangju Electronics Co Ltd Robot cleaner position recognition sign detecting method and robot cleaner applying same detecting method
WO2004081683A1 (en) * 2003-03-14 2004-09-23 Matsushita Electric Works, Ltd. Autonomously moving robot
JP2006085261A (en) * 2004-09-14 2006-03-30 Nec Fielding Ltd Floor layout creation robot and floor layout creation system
JP2007061983A (en) * 2005-09-01 2007-03-15 Fanuc Ltd Robot monitoring system
WO2009097336A3 (en) * 2008-01-28 2009-10-29 Seegrid Corporation Methods for repurposing temporal-spatial information collected by service robots
KR101026369B1 (en) * 2009-08-05 2011-04-05 (주)시뮬레이션연구소 Integrated control system for real and virtual robot
JP2011100306A (en) * 2009-11-06 2011-05-19 Hitachi Ltd Simulation system
JP2013527040A (en) * 2010-05-26 2013-06-27 ザ・ボーイング・カンパニー Method and system for placing inspection sensors
KR101363092B1 (en) * 2012-09-20 2014-02-14 강원대학교산학협력단 Implementation method of rils(robot-in-the-loop simulation) in robot system
US8755936B2 (en) 2008-01-28 2014-06-17 Seegrid Corporation Distributed multi-robot system
US8838268B2 (en) 2008-01-28 2014-09-16 Seegrid Corporation Service robot and method of operating same
US8892256B2 (en) 2008-01-28 2014-11-18 Seegrid Corporation Methods for real-time and near real-time interactions with robots that service a facility
KR101487784B1 (en) * 2008-12-22 2015-01-29 삼성전자 주식회사 Robot system and embodiment method thereof
WO2016151617A1 (en) * 2015-03-23 2016-09-29 日本電気株式会社 Estimator management system
JP2018028939A (en) * 2017-11-02 2018-02-22 ヤフー株式会社 Sorting assistance device, sorting assistance method, and sorting assistance program
JP2020030145A (en) * 2018-08-23 2020-02-27 東京エレクトロンデバイス株式会社 Inspection apparatus and inspection system
JP2020519987A (en) * 2017-04-21 2020-07-02 エックス デベロップメント エルエルシー Method and system for environmental map generation and location alignment
JP2020163509A (en) * 2019-03-29 2020-10-08 株式会社国際電気通信基礎技術研究所 Simulation system, simulation program and learning device
JP2021086609A (en) * 2019-11-27 2021-06-03 株式会社安川電機 Control system, local controller, and control method
WO2022118656A1 (en) * 2020-12-01 2022-06-09 オムロン株式会社 Device and method for simulating mobile robot at work site
WO2022130652A1 (en) * 2020-12-18 2022-06-23 日立Geニュークリア・エナジー株式会社 Construction support device, construction support method, and construction support program
WO2022180801A1 (en) * 2021-02-26 2022-09-01 株式会社安川電機 Simulation device, control system, and modeling method
WO2022201314A1 (en) * 2021-03-23 2022-09-29 日本電気株式会社 Information processing device, modification system, information processing method, and non-transitory computer-readable medium
US11662722B2 (en) * 2016-01-15 2023-05-30 Irobot Corporation Autonomous monitoring robot systems

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067125A (en) * 1999-08-27 2001-03-16 Fujitsu Ltd Method and device for constructing real world information database and method for learning autonomous mobile traveling body
JP2002144266A (en) * 2000-11-06 2002-05-21 Toshiba Corp Working system
JP2003051021A (en) * 2001-08-03 2003-02-21 Mitsubishi Electric Corp Information updating device, information acquisition device and information update processing device
US7277559B2 (en) 2002-11-19 2007-10-02 Honda Motor Co., Ltd. Mobile apparatus
JP2004171165A (en) * 2002-11-19 2004-06-17 Honda Motor Co Ltd Moving apparatus
JP2004240940A (en) * 2003-02-07 2004-08-26 Samsung Kwangju Electronics Co Ltd Robot cleaner position recognition sign detecting method and robot cleaner applying same detecting method
KR100773184B1 (en) * 2003-03-14 2007-11-02 마츠시다 덴코 가부시키가이샤 Autonomously moving robot
US7684894B2 (en) 2003-03-14 2010-03-23 Panasonic Electric Works Co., Ltd. Autonomously moving robot
JP2004280451A (en) * 2003-03-14 2004-10-07 Matsushita Electric Works Ltd Autonomous moving device
WO2004081683A1 (en) * 2003-03-14 2004-09-23 Matsushita Electric Works, Ltd. Autonomously moving robot
JP2006085261A (en) * 2004-09-14 2006-03-30 Nec Fielding Ltd Floor layout creation robot and floor layout creation system
JP2007061983A (en) * 2005-09-01 2007-03-15 Fanuc Ltd Robot monitoring system
US9603499B2 (en) 2008-01-28 2017-03-28 Seegrid Corporation Service robot and method of operating same
CN101970187A (en) * 2008-01-28 2011-02-09 塞格瑞德公司 Methods for repurposing temporal-spatial information collected by service robots
JP2011517350A (en) * 2008-01-28 2011-06-02 シーグリッド コーポレーション Method for repurposing spatio-temporal information collected by service robots
US8433442B2 (en) 2008-01-28 2013-04-30 Seegrid Corporation Methods for repurposing temporal-spatial information collected by service robots
WO2009097336A3 (en) * 2008-01-28 2009-10-29 Seegrid Corporation Methods for repurposing temporal-spatial information collected by service robots
US8755936B2 (en) 2008-01-28 2014-06-17 Seegrid Corporation Distributed multi-robot system
US8838268B2 (en) 2008-01-28 2014-09-16 Seegrid Corporation Service robot and method of operating same
US8892256B2 (en) 2008-01-28 2014-11-18 Seegrid Corporation Methods for real-time and near real-time interactions with robots that service a facility
KR101487784B1 (en) * 2008-12-22 2015-01-29 삼성전자 주식회사 Robot system and embodiment method thereof
KR101026369B1 (en) * 2009-08-05 2011-04-05 (주)시뮬레이션연구소 Integrated control system for real and virtual robot
JP2011100306A (en) * 2009-11-06 2011-05-19 Hitachi Ltd Simulation system
JP2013527040A (en) * 2010-05-26 2013-06-27 ザ・ボーイング・カンパニー Method and system for placing inspection sensors
KR101363092B1 (en) * 2012-09-20 2014-02-14 강원대학교산학협력단 Implementation method of rils(robot-in-the-loop simulation) in robot system
JPWO2016151617A1 (en) * 2015-03-23 2018-01-18 日本電気株式会社 Estimator management system
WO2016151617A1 (en) * 2015-03-23 2016-09-29 日本電気株式会社 Estimator management system
US11004007B2 (en) 2015-03-23 2021-05-11 Nec Corporation Predictor management system, predictor management method, and predictor management program
US11662722B2 (en) * 2016-01-15 2023-05-30 Irobot Corporation Autonomous monitoring robot systems
JP2020519987A (en) * 2017-04-21 2020-07-02 エックス デベロップメント エルエルシー Method and system for environmental map generation and location alignment
JP2018028939A (en) * 2017-11-02 2018-02-22 ヤフー株式会社 Sorting assistance device, sorting assistance method, and sorting assistance program
JP2020030145A (en) * 2018-08-23 2020-02-27 東京エレクトロンデバイス株式会社 Inspection apparatus and inspection system
JP2020163509A (en) * 2019-03-29 2020-10-08 株式会社国際電気通信基礎技術研究所 Simulation system, simulation program and learning device
JP2021086609A (en) * 2019-11-27 2021-06-03 株式会社安川電機 Control system, local controller, and control method
WO2022118656A1 (en) * 2020-12-01 2022-06-09 オムロン株式会社 Device and method for simulating mobile robot at work site
WO2022130652A1 (en) * 2020-12-18 2022-06-23 日立Geニュークリア・エナジー株式会社 Construction support device, construction support method, and construction support program
WO2022180801A1 (en) * 2021-02-26 2022-09-01 株式会社安川電機 Simulation device, control system, and modeling method
WO2022201314A1 (en) * 2021-03-23 2022-09-29 日本電気株式会社 Information processing device, modification system, information processing method, and non-transitory computer-readable medium

Similar Documents

Publication Publication Date Title
JPH11104984A (en) Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer
KR102160990B1 (en) Server and method for 3d city modeling based on object, and system using the same
US6917893B2 (en) Spatial data collection apparatus and method
KR20210116576A (en) How to use a visual robot-based map of the past
KR102157537B1 (en) Apparatus and method for data visualization in 3D digital twin for facility safety inspection
Hinkel et al. Environment perception with a laser radar in a fast moving robot
KR101864949B1 (en) Method for building a grid map with mobile robot unit
CN107832564B (en) A kind of shaken based on PZT surveys the aerial drainage structure BIM non-destructive tests information system of signal
Kim et al. BIM-based semantic building world modeling for robot task planning and execution in built environments
CN113325837A (en) Control system and method for multi-information fusion acquisition robot
KR20090025844A (en) Three dimension unified building management system
Borkowski et al. Towards semantic navigation in mobile robotics
GB2227106A (en) Detecting collision
Hajibabai et al. Agent-based simulation of spatial cognition and wayfinding in building fire emergency evacuation
KR101199955B1 (en) Method for Input and Look up Damage Information of Facility using 3-Dimension Space Model
Ho et al. Distributed control for tele-operations
KR102145054B1 (en) Semantic map building system for mobile robot navigation based on human`s brain map model and cognition
Youngblood et al. A framework for autonomous mobile robot exploration and map learning through the use of place-centric occupancy grids
Blaer et al. Two stage view planning for large-scale site modeling
Wang Improving human-machine interfaces for construction equipment operations with mixed and augmented reality
Zheng et al. Virtual Prototyping-Based Path Planning of Unmanned Aerial Vehicles for Building Exterior Inspection
CN115131656B (en) Space identification method and device, electronic equipment and computer readable storage medium
Cho Human-assisted rapid workspace modeling for construction equipment operations
Riordan et al. Fusion of LiDAR and Computer Vision for Autonomous Navigation in Gazebo
WO2023219058A1 (en) Information processing method, information processing device, and information processing system

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030610